martes, 31 de octubre de 2023

Se llama Aitana, es influencer y triunfa en Instagram con más de 90 mil seguidores, pero no existe: es una modelo de IA

Se llama Aitana, es influencer y triunfa en Instagram con más de 90 mil seguidores, pero no existe: es una modelo de IA

El perfil de Aitana Lopez en Instagram es un auténtico fenómeno de Internet. Lleva activo casi cuatro meses, pero ya supera los 90 mil seguidores. Además, los comentarios y los me gusta se multiplican en cada una de sus publicaciones. Amante del gaming, del fitness y del cosplay, esta creadora digital parece tener una buena fórmula para conseguir exposición en las redes.

Ahora, olvida el párrafo anterior. Lo cierto es que no hay sesiones fotográficas, ni maquillaje, ni atuendos, ni viajes, ni cafés, recitales o paisajes. Tampoco hay una influencer de carne y hueso. Lo que estás viendo es el resultado de los cada vez más avanzados algoritmos de inteligencia artificial (IA) junto al meticuloso trabajo del equipo de una agencia de publicidad española.

Una modelo 100% hecha por ordenador

La IA generativa está evolucionando a una velocidad de vértigo. A principios de 2021 nos sorprendíamos con la primera versión de DALL·E y su aguacate-silla. Dos años más tarde, tanto el generador de imágenes de OpenAI, como los de otras compañías, han dado un salto de tal magnitud que ya es posible crear imágenes fotorrealistas casi indistinguibles de la realidad.

Algunas compañías en el mundo han encontrado en todo esto una oportunidad de negocio. Una de ellas es The Clueless, una firma con oficinas en Barcelona que se presenta a sí misma como una agencia de modelos de IA que representan diversas personalidades. Una de sus cofundadoras, Diana Nuñez, nos cuenta que el proyecto surgió con la idea de abaratar costes de cara al cliente.

La posibilidad de utilizar modelos de IA, según la creativa, se pensó originalmente alternativa para marcas y empresas cuyo presupuesto acotado les podría dificultar asumir los costes de todos los elementos que suelen ser parte de una acción publicitaria tradicional. Partiendo desde esta base, la compañía se dio a la tarea de crear varios perfiles de modelos utilizando la inteligencia artificial.

Aitana Lopez Ia Instagram Aitana Lopez Ia Instagram Aitana Lopez en Instagram

“El resultado es un portafolio de personalidades virtuales que resuenan con el público a un nivel profundo, reflejando un amplio espectro de identidades, culturas e historias”, señala The Clueless. Cada modelo virtual, aseguran, tiene su propia personalidad y esencia. Además de la mencionada Aitana encontramos a Maia Lima, una joven "independiente y amante de la fotografía" de Buenos Aires.

Aitana Lopez Ia 3 Aitana Lopez Ia 3 Algunos de los comentarios que la modelo de IA Aitana Lopez recibe en su perfil de Instagram

La propia compañía reconoce que sus perfiles son producto de un meticuloso trabajo. “Hacen falta muchos clics y muchos prompts”, comenta Nuñez y añade que a la hora de crear cada una de las modelos de IA se hicieron estudios de mercado y se tuvieron en cuenta una amplia variedad de parámetros que van desde los estereotipos de imagen hasta las tendencias musicales, sociales y culturales.

El realismo de Aitana o Maia se ha traducido en que muchas personas interactúan con los perfiles en Instagram sin aparentemente saber que se trata de un producto de marketing. Sobre esta realidad, la cofundadora nos cuenta que desde el primer momento se ha intentado dejar en claro que se trata de perfil de IA: “Está en el perfil. No lo hemos ocultado nunca, no hemos estafado ni engañado a nadie”.

Preguntada sobre si el proyecto está dando frutos económicos, Nuñez asegura que todavía están en proceso de recuperar la inversión inicial que les permitió poner en marcha los modelos de IA y lanzar sus dos primeras propuestas. No obstante, ya están realizado pequeñas colaboraciones. “La idea es que las marca se atrevan a confiar un poco más en este perfil de modelo”.

Imágenes: The Clueless | Capturas de pantalla

En Xataka: Por primera vez una IA alcanza y supera un aspecto crucial de la inteligencia humana



via Robótica e IA - Xataka https://ift.tt/1yBoJAE

Las Big Tech quieren regular la IA. Pero están mintiendo sobre el porqué, asegura el experto Andrew Ng

Las Big Tech quieren regular la IA. Pero están mintiendo sobre el porqué, asegura el experto Andrew Ng

Andrew Ng no es un cualquiera. Este profesor de la Universidad de Stanford fue cofundador de Google Brain, científico gente en la división de IA de Baidu y el experto que lleva años defendiendo la idea de que la inteligencia artificial "es la nueva electricidad". Lo dijo mucho antes de que el fenómeno ChatGPT nos atrapara a todos, pero ahora ve un peligro en cómo las grandes tecnológicas están impulsando una regulación en este campo.

Las Big Tech quieren regular por algo. Según Ng, "la mala idea de que la IA pueda significar nuestra extinción" se está fusionado con "la mala idea de que una forma de hacer una IA más segura es imponer unos engorrosos requisitos para la concesión de licencias". Eso es lo que están apoyando empresas como OpenAI o Microsoft, pero para Andrew Ng esa forma de regular va a provocar que haya grandes ganadores y grandes perdedores en esa carrera.

Licenciar para controlar. En una entrevista en The Australian Financial Review, Ng explicaba que "cuando pones esas dos malas ideas juntas, obtienes la idea colosalmente estúpida de propuestas de regulación que intentarán obligar a licenciar la IA". Para él habrá una peligrosa consecuencia si se sigue ese camino.

"Aplastará la innovación". Ese tipo de regulación permitirá según este experto que las grandes empresas tecnológicas no tengan que competir con desarrollos en el mundo Open Source. La regulación, según él, "es un arma de los grupos de presión" que sería muy perjudicial para la comunidad Open Source.

Sam Altman y la regulación. El CEO de OpenAI lleva meses abogando por una regulación para el desarrollo de sistemas de IA, pero ya hablamos de cómo esa es una postura que responde a los intereses de dicha empresa. La UE, que avanza en su AI Act, precisamente ha caído en ese primer problema del Open Source.

Viejo alumno. Como explicaba Ng, Altman fue uno de sus estudiantes en Stanford y trabajó como becario en su departamento. "No quiero hablar sobre él específicamente, pero creo que a muchas grandes empresas les convendría no tener que competir con modelos lingüísticos de código abierto".

Hay que regular, pero de forma coherente. Este experto no está en contra de la regulación, pero está preocupado por la dirección que estas decisiones están tomando en varios países. Aún así, afirma, "una regulación meditada sería mucho mejor que la ausencia de regulación". Entre los temas a tratar estaría el de la transparencia de las empresas tecnológicas para poder evitar desastres por ejemplo en redes sociales.

Japón plantea una salida. Esta semana, no obstante, se impuesto una tercera vía: la propuesta de Japón para crear el "Proceso de Hiroshima sobre IA" se postula como una vía de regulación más laxa, pero suficientemente concreta para abordar diversos problemas. El proceso ha sido aceptado por el G7, un paso especialmente importante que alivia las tensiones que habían surgido entre la restrictiva regulación de la UE y las dudas de esa normativa en EEUU.

Imagen | NVIDIA Corporation

En Xataka | Esta es la razón por la que Google no lanzó su chatbot de IA antes que ChatGPT (según el exresponsable de producto de Google Brain)



via Robótica e IA - Xataka https://ift.tt/5r6CYw4

Por primera vez una IA alcanza y supera un aspecto crucial de la inteligencia humana

Por primera vez una IA alcanza y supera un aspecto crucial de la inteligencia humana

A cualquiera le parece normal aprender el significado de una palabra y luego aplicarlo a otros contextos del lenguaje. Lo mismo ocurre por ejemplo con los objetos: una vez reconocemos su forma, podemos reconocer ese objeto aunque esté formado por otros compuestos y materiales o tenga distinto color. Es un ya conocido ingrediente de nuestra inteligencia que los expertos llaman "generalización compositiva".

La pregunta es si las máquinas podían llegar a "pensar" de esta manera. Como señalan en la Universidad de Nueva York, a finales de los 80 dos científicos cognitivos llamados Jerry Fodor y Zenon Pylyshyn postularon que las redes neuronales artificiales son capaces de hacer esas conexiones, pero desde entonces el éxito en esa materia ha sido esquivo. O lo había sido.

Investigadores de esa institución y de la Universidad Pompeu Fabra en España llevan tiempo trabajando en este ámbito y han desarrollado una nueva técnica que precisamente apunta a esa capacidad. El estudio, publicado en Nature, revela cómo herramientas como ChatGPT pueden realizar esas generalizaciones compositivas a través del llamado "Meta-aprendizaje para la compositividad" (MLC).

Según las pruebas realizados por los investigadores, esta técnica es capaz no solo de igualar, sino incluso de superar la capacidad humana en esta importante función cognitiva. La clave de la técnica MLC no ha sido el entrenamiento, sino una práctica explícita de estas capacidades.

La técnica MLC es un procedimiento de aprendizaje para redes neuronales en las que estos sistemas se actualizan continuamente para mejorar sus habilidades en una serie de etapas o episodios.

Así, en un episodio el sistema MLC recibe una nueva palabra y se le pide que lo aplique de forma compositiva. Por ejemplo, le dan la palabra "salta" y le piden que cree nuevas combinaciones de palabras, como "salta dos veces" o "salta a la derecha dos veces". A partir de ahí se genera otro episodio con otra nueva palabra, de forma que las habilidades compositivas van incrementándose.

En las pruebas realizadas por Brenden Lake (NYU) y Marco Baroni (ICREA), estos dos investigadores realizaron una serie de pruebas con participantes humanos que recibían los mismos "episodios" que había recibido el MLC. No solo trabajaron con el significado de palabras reales, sino también con términos inventados definidos por los investigadores.

En esas pruebas MLC se comportó tan bien como los participantes humanos y en ocasiones lo hizo incluso mejor. También se comparó el rendimiento de este sistema con el de ChatGPT y GPT-4, y ambos fueron superados por el sistema desarrollado por estos investigadores. El descubrimiento de esta técnica, explica Baroni, "puede mejorar aún más las capacidades compositivas de los grandes modelos de lenguaje (LLM)".

Imagen | Maximalfocus

En Xataka: Google está decidida a ganar el pulso a ChatGPT. Y ha decidido regar con 2.000 millones a su rival, Anthropic



via Robótica e IA - Xataka https://ift.tt/c0h5BWJ

La guerra comercial entre EEUU y China le puede salir muy cara a NVIDIA: hay 5.000 millones de dólares en juego

La guerra comercial entre EEUU y China le puede salir muy cara a NVIDIA: hay 5.000 millones de dólares en juego

La tensión entre Estados Unidos y China se acrecienta. El país norteamericano lleva tiempo imponiendo diversas sanciones tecnológicas al gigante asiático, y una de ellas, la de la exportación de componentes para inteligencia artificial, tiene una víctima clara. NVIDIA.

5.000 millones en el limbo. Como indican en The Wall Street Journal, nuevos controles a las exportaciones ponen en peligro pedidos por valor de 5.000 millones de dólares que NVIDIA tenía ya contratados con empresas chinas. La empresa de Santa Clara ya había cumplido sus acuerdos con empresas chinas para este año, y estaba tratando de adelantarse con otros encargos de 2024 antes de que esa nueva regulación entrara en vigor a mediados de noviembre.

Se adelantan las restricciones. Pero según el diario económico, el gobierno de EEUU envió una carta a NVIDIA en la que le indicaba que esas restricciones sobre la venta de chips avanzados se había hecho efectiva de forma inmediata. Gigantes chinos como Alibaba o Baidu, entre otras, habían reservado componentes con un valor total de 5.000 millones de dólares.

No es para tanto (ahora). Un portavoz de NVIDIA indicó en WSJ que están adaptándose a esas restricciones y trasladando por ejemplo parte de esas reservas a clientes en EEUU. "Estos nuevos controles de exportación no tendrán un impacto significativo a corto plazo", indicaba.

Pero cuidado. Aún así, la CFO de NVIDIA, Colette Kress, indicó hace semanas cómo vetar las exportaciones a China supondrá una "pérdida permanente" de oportunidades para la industria de semiconductores de Estados Unidos. La empresa ha ingresado cerca de 22.000 millones de dólares en la división de centro de datos —que incluye estos chips avanzados— en los últimos cuatro trimestres, y perder a las empresas chinas como clientes tendrá sin duda impacto en esos ingresos a medio y largo plazo.

Licencia para exportar. Las tarjetas A800 y H800 no eran las más avanzadas de NVIDIA y se permitió su exportación, pero la nueva normativa publicada el pasado 17 de octubre obligó a cancelar pedidos de ese tipo hasta que NVIDIA consigua la licencia para esas exportaciones.

Chips especiales para China. En NVIDIA están trabajando para superar estos obstáculos y en agosto lanzaron los chips L40S, que están preparados no tanto para entrenar modelos de IA como para ejecutar aplicaciones en este ámbito. Eso los convertiría teóricamente en alternativas viables para el gobierno de EEUU, pero el futuro de esas exportaciones también es incierto.

China prepara sus propios chips. A falta de esas opciones, las empresas Chinas están comenzando a optar por otras alternativas como los Ascend 910 de Huawei o los Siyuan 590 de Cambricon Technologies. Según algunos expertos, los chips Ascend ya logran rendimientos similares a las NVIDIA A100, pero la normativa de EEUU también ha prohibido que TSMC los fabrique.

Imagen | Igor Omilaev

En Xataka | La industria de los chips de China reconoce que solo tiene un camino para sobrevivir a las sanciones de EEUU



via Robótica e IA - Xataka https://ift.tt/2Z3uLl4

Esta es la razón por la que Google no lanzó su chatbot de IA antes que ChatGPT (según el responsable de producto de Google Brain)

Esta es la razón por la que Google no lanzó su chatbot de IA antes que ChatGPT (según el responsable de producto de Google Brain)

Si hace un año nos hubieran pedido que hiciéramos una lista con las compañías de inteligencia artificial (IA) más importantes del momento, no habríamos dudado ni un instante en incorporar a Google en algún lugar. El gigante del Mountain View llevaba décadas trabajando en esta disciplina y, por si esto fuera poco, había conseguido materializar parte de sus avances en el buscador, su sistema publicitario y teléfonos Pixel.

La firma dirigida por Sundar Pichai también tenía algunos de los laboratorios de investigación en la materia más destacados, entre ellos el de DeepMind, una renombrada compañía británica adquirida en 2014. Sin embargo, el 30 de noviembre de 2022 fue superada de manera extraordinario por una startup mucho menos conocida. La compañía era OpenAI y su nave, por así decirlo, era su bot de IA ChatGPT.

Cuando una compañía llamada OpenAI hizo saltar las alarmas en Google

En un abrir y cerrar de ojos, todo el mundo estaba hablando de la startup liderada por Sam Altman y, mientras tanto, en Google se hablaba de “códigos rojos” frente a lo que acababa de suceder. OpenAI se había animado a hacer lo que posiblemente nadie en el Googleplex se habían planteado en el corto plazo: lanzar al público y de manera gratuita un chatbot de IA incluso cuando tenían la tecnología.

Para colmo, una parte esencial de GPT-3.5, el corazón de ChatGPT, eran los modelos Transformers desarrollados por la propia Google, y cuyo enfoque podemos observar en un artículo publicado por sus investigadores en 2017 titulado ‘Attention is All you Need’. Incluso frente a este escenario, Pichai profesaba la moderación dentro del gigante tecnológico y buscaba dar pasos contenidos.

Mucho se ha especulado durante todo este tiempo sobre por qué Google decidió elegir este camino. Ahora bien, qué mejor que analizar el punto de vista de una de las personas que vivió en primera persona la compañía. Estamos hablando de Gaurav Nemade, el máximo responsable de producto de Google AI y Google Brain que ha participado del podcasts ‘Big Tech War Stories’. Vamos qué nos cuenta.

Según el especialista, reconocido por sus contribuciones al modelo LaMDA y tecnologías de PNL, la opinión pública fue una de las principales razones por las que Google no llegó antes que OpenAI con su propio chatbot conversacional. Recordemos que a mediados del año pasado un ingeniero de Google estuvo en el centro de la polémica por chatear con un programa basado en LaMDA.

Chat Gpt Chat Gpt

Blake Lemoine aseguraba que el chatbot de Google, disponible de manera exclusiva para miembros del laboratorio del gigante tecnológico, tenía cierta conciencia. Lemoine publicó las charlas, generó revuelo y acabó despedido. Este tipo de situaciones que puede comprometer la imagen y reputación de Google no parecían ser del agrado de la firma, algo que, según Nemade, era diferente en OpenAI.

El ahora cofundador de su propia empresa de IA señala que a los creadores de ChatGPT no les importaba en lo más mínimo presentar sus relaciones públicas. Ahora bien, si ponemos en contraste estas declaraciones con la naturaleza de cada una de las empresas en cuestión podemos obtener una punto de vista interesante: de un lado tenemos a una startup que posiblemente buscaba exposición pública.

Una startup que había recibido una importante inyección de dinero por parte de Microsoft, pero que después de todo era su nombre el que aparecía relacionado a sus avances. Del otro lado, Google, una compañía con décadas de historia y, sobre todo, que cotizaba en bolsa. Este último punto es muy importante, porque en cada movimiento también debe rendir cuentas a sus inversores, en las buenas y en las malas.

En Google tenían muy presente lo que había pasado hace tiempo atrás con Tay, el chatbot de Microsoft que llegó en marzo de 2016 y que nos permitía charlar con él a través de Twitter. Aquel experimento duró muy poco tiempo dado que la IA empezó a dar respuestas racistas. Aquella experiencia dejó en claro que las Big Tech tenían todavía mucho trabajo que hacer con sus proyectos de IA conversacional.

Para Nemade, si algo se sale de control en OpenAI, es parte de su filosofía hacer los ajustes necesarios sobre la marcha. En Google, no obstante, han preferido evitar ese tipo de situaciones. Así que ahora vemos cómo las compañías han optado por tomar caminos diferentes, pero en cierto modo ambas están en carrera por ser líderes en el nuevo mundo de la IA. Google ha tardado, pero ya tiene su chatbot.

En febrero de 2023, los del buscador presentaron Bard, un chatbot de IA claramente destinado a rivalizar con ChatGPT de OpenAI y Bing Chat de Microsoft. Y no solo se trata de Google. Ahora estamos presenciando en directo cómo una gran parte de las compañías tecnológicas del mundo están apostando por la IA. Parece que en estos tiempos es más importante que nunca moverse lo suficientemente rápido.

Imágenes: Google | OpenAI

En Xataka: Google está decidida a ganar el pulso a ChatGPT. Y ha decidido regar con 2.000 millones a su rival, Anthropic



via Robótica e IA - Xataka https://ift.tt/Ad2kTap

lunes, 30 de octubre de 2023

EE.UU. toma la iniciativa para regular la inteligencia artificial

Ante el rápido avance de la inteligencia artificial , y las preocupaciones que esta pueda tener para la defensa y seguridad nacional, la Casa Blanca ha emitido el primer decreto para regular este sector de la informática que permite a las computadoras tomar decisiones y realizar tareas específicas de manera autónoma. La promulgación del decreto este lunes por parte del presidente Joe Biden es el intento más ambicioso del Gobierno de Estados Unidos, y de cualquier gobierno, de abordar las preocupaciones relacionadas con la seguridad nacional y la defensa derivadas del desarrollo de esa tecnología. Noticia Relacionada estandar Si El G7 acuerda la primera norma sobre Inteligencia Artificial Rosalía Sánchez Todo software de IA que salga al mercado en Estados Unidos deberá ser aprobado antes por las autoridades «Esta es una de las acciones más significativas a nivel mundial para garantizar la seguridad y la confiabilidad de los sistemas de inteligencia artificial», dijo ayer el presidente Biden en una conferencia en la Casa Blanca. «Las empresas deben demostrar la seguridad de sus potentes sistemas de inteligencia artificial antes de que se les permita utilizarlos. También están obligadas a informar al gobierno cuando implementen sistemas a gran escala que hayan sido rigurosamente probados y no representen un riesgo para el pueblo estadounidense» , añadió. Filtros y límites Con este decreto, el gobierno federal de EE.UU. impone una serie de filtros y límites a los desarrolladores de programas de inteligencia artificial, y además inicia un proceso de evaluación del marco regulatorio, que seguramente deba ser ampliado y aprobado por el Capitolio, sede del poder legislativo. Un punto crucial de este nuevo decreto es que requiere a las empresas que diseñen sistemas de inteligencia artificial que notifiquen al gobierno federal de sus resultados antes de lanzar sus productos. Para ello, Biden aplica una ley llamada de Producción para la Defensa, aprobada para mantener al país preparado militarmente y que se aplicó por ejemplo para fabricar vacunas en la pandemia. Dos de los líderes en inteligencia artificial, Alphabet , matriz de Google, y OpenAI , creador de ChatGPT, ya se han comprometido con Biden y su equipo a aplicar esos filtros. Política común en el mundo El pasado domingo, en una conversación con periodistas, un alto funcionario de la Casa Blanca dijo que EE.UU. ha estado consultando con sus socios en todo el mundo para coordinar una política común. Entre estos se encuentra la Unión Europea, y a título individual, Francia, Alemania, Reino Unido, Chile, Brasil y otros. Preguntada, una portavoz de la presidencia norteamericana no respondió a por qué España no se halla de momento en esa lista de consultas directas. Los avances en inteligencia artificial han permitido, entre otras cosas, importantes avances en armas autónomas, como drones o robots militares que pueden tomar decisiones letales sin intervención humana; han facilitado notablemente la creación y difusión de información falsa o desinformación para influir negativamente en la opinión pública, y han posibilitado fortalecer y ampliar redes de vigilancia masiva que depende menos del control humano. Estos riesgos llevan a la Casa Blanca a obligar a los desarrolladores de programas informáticos en EE.UU. que trabajen con inteligencia artificial a que utilicen equipos independientes expertos para evaluar de manera objetiva y crítica la planificación y desarrollo de ese producto de inteligencia artificial. Los requisitos para esos equipos de expertos independientes serán establecidos por el gobierno federal. Además, los departamentos de Energía y Seguridad Nacional de EE.UU. abordarán las amenazas de los sistemas de inteligencia artificial a la infraestructura crítica de EE.UU., así como los riesgos químicos, biológicos, radiológicos, nucleares y de ciberseguridad. Otro de los puntos prioritarios del decreto es el de proteger los procesos electorales de la desinformación y las campañas de injerencias, dada la facilidad con la que hoy se puede generar contenido falso como fotos o vídeos de contenido político. De momento, la medida en ese ámbito es encargar al departamento de Comercio «directrices para la autenticación de contenido y que diseñe una marca de agua para etiquetar claramente el contenido generado por inteligencia artificial. Las agencias federales utilizarán estas herramientas para que sea sencillo para los estadounidenses saber que las comunicaciones que reciben de su gobierno son auténticas, y establecer un ejemplo para el sector privado y otros gobiernos en todo el mundo». La amenaza china Precisamente, en un análisis del Pentágono sobre las creciente amenaza de un rearme de China, se cita explícitamente como un riesgo en alza la llamada «guerra inteligente». «En los últimos años, el EPL (Ejército Popular de Liberación chino) ha enfatizado cada vez más la 'inteligentización' como un elemento principal de sus planes de modernización», dice ese informe militar. China, añade, «ha delineado el desarrollo de armas inteligentes como algo importante para mantenerse al ritmo de la guerra moderna. Pekín está aplicando su investigación en tecnologías de inteligencia artificial, como el aprendizaje automático y la colaboración entre humanos y máquinas, a procesos militares, como la toma de decisiones, con el objetivo último de ganar ventaja en la guerra futura». El decreto de Biden llega en pleno frenesí de iniciativas en Washington para dotar a EE.UU. de nuevas leyes, abrir investigaciones y colaborar con reguladores internacionales para frenar los riesgos de la inteligencia artificial. El senador Mark Warner, un demócrata que preside la comisión de Inteligencia, calificó el decreto de «impresionante» por su «amplitud», y prometió coordinarlo con nuevas leyes al respecto. «Me complace ver varias secciones que se alinean estrechamente con mis esfuerzos en torno a la seguridad de la inteligencia artificial y el uso de la inteligencia artificial por parte del gobierno federal, pero al mismo tiempo, muchas de estas medidas se quedan cortas, especialmente en áreas como la atención médica y la política de competitividad», dijo. En el decreto queda claro que EE.UU. también teme quedar rezagado en el terreno de la inteligencia artificial por las restricciones migratorias. Desde los años de Donald Trump los visados de trabajo por aptitudes extraordinarias se han ido reduciendo, entre demoras burocráticas agravadas por la pandemia de coronavirus. Ahora la Casa Blanca insta a múltiples agencias gubernamentales a eliminar barreras a la inmigración altamente cualificada, en medio de una batalla global por el talento informático. Los ejecutivos de Silicon Valley han presionado a Washington durante muchos años para que tome medidas para facilitar la inmigración. La Casa Blanca además mantiene que este es un asunto de gran interés para Biden. En junio, el presidente se reunió en San Francisco con directivos tecnológicos para analizar los riesgos de la inteligencia artificial. Entonces, la Casa Blanca enfatizó que la inteligencia artificial está impulsando un rápido cambio tecnológico y que su mal uso podría agravar el problema de la desinformación, que afectó a las elecciones presidenciales de EE.UU. en 2016 y 2020. El mismo día en que se firma el decreto en EE.UU., el G7, que incluye a Estados Unidos, Reino Unido, Japón y la Unión Europea, anunció una guía sobre inteligencia artificial para las empresas, llamada Código de Conducta Internacional para Organizaciones que Desarrollan Sistemas Avanzados. Las directrices recogidas en esa guía son completamente voluntarias, y sólo instan a las empresas a realizar evaluaciones periódicas de los riesgos de sus modelos y a prestar atención a los sistemas que podrían representar una amenaza para los valores democráticos o la sociedad, como la creación de armas biológicas o nucleares . MÁS INFORMACIÓN noticia No Meta anuncia la llegada de versiones de pago sin anuncios de Facebook e Instagram noticia Si EE.UU. alerta de que China prevé duplicar su arsenal nuclear en unos años El decreto llega justo antes de que la vicepresidenta Kamala Harris participe en una reunión sobre inteligencia artificial en Reino Unido, en un evento que reunirá a líderes de todo el mundo para hablar sobre cómo responder a las aplicaciones más arriesgadas de la tecnología.

via Tecnología https://ift.tt/TKciVdo

domingo, 29 de octubre de 2023

La Segunda Guerra Fría que ya vivimos va a tener las mismas consecuencias que la primera: un enorme salto tecnológico

La Segunda Guerra Fría que ya vivimos va a tener las mismas consecuencias que la primera: un enorme salto tecnológico

El mundo en el que vivimos es el resultado en gran medida de los conflictos que marcaron el desarrollo de la Segunda Guerra Mundial y la Guerra Fría. El eco de esas más de cinco décadas resuena actualmente desde un punto de vista geoestratégico, social y económico, pero, sobre todo, perdura si nos ceñimos a la tecnología y la ciencia. Y es que estas dos disciplinas experimentaron un desarrollo monumental durante este reciente periodo histórico.

Lo que sucedió con los semiconductores durante la Segunda Guerra Mundial ilustra a las mil maravillas el impacto que tienen los conflictos entre las grandes potencias en el desarrollo de la tecnología. "La bomba atómica puede haber terminado la guerra, pero el radar ganó la guerra". Ignacio Mártil ha elegido esta cita de Lee Alvin DuBridge, el director del Laboratorio de Radiación del MIT entre 1940 y 1946, para anticiparnos en las primeras páginas de su libro, 'El radar en la historia del siglo XX', el rol crucial de este ingenio en la resolución de esta guerra.

Sin embargo, y aquí llega lo realmente revelador, fue el paso de las válvulas termoiónicas a los transistores lo que permitió a los científicos británicos y estadounidenses refinar las prestaciones de su radar lo necesario para aventajar de una forma significativa al dispositivo del mismo tipo que tenía la Alemania nazi. A partir de ese momento los semiconductores se lanzaron a una carrera vertiginosa cuya meta aún parece estar lejos. Hace ocho décadas marcaron una gran diferencia y hoy dan forma a una industria estratégica que las grandes potencias están dispuestas a defender a cualquier precio.

La tensión entre las grandes potencias fomenta el desarrollo técnico y científico

La tecnología vinculada a los circuitos integrados no fue en absoluto la única que experimentó un avance vertiginoso durante la Segunda Guerra Mundial y las décadas posteriores. Los ordenadores, las telecomunicaciones, la aeronáutica o la física nuclear son algunas de las disciplinas tecnológicas y científicas que más se desarrollaron durante la Guerra Fría.

La pugna que mantuvieron EEUU y la Unión Soviética desde que acabó la Segunda Guerra Mundial en 1945 hasta la disolución de la URSS en 1991 propició que ambos países dedicasen buena parte de sus recursos al desarrollo de sus capacidades tecnológica, científica y militar. Su estrategia fue muy similar a la que han adoptado actualmente las grandes potencias con EEUU, China y Rusia a la cabeza.

El corresponsal de guerra estadounidense H. D. S. Greenway fecha el inicio de la Segunda Guerra Fría el 4 de febrero de 2022

La relación que sostienen Occidente y Rusia cambió radicalmente después de que el país liderado por Vladímir Putin se anexionase la península de Crimea en 2014. La intervención militar de Rusia en Siria y la mucho más reciente y aún en curso guerra de Ucrania no han hecho otra cosa que acrecentar el abismo que separa a Rusia de la alianza occidental liderada por EEUU. Después de la anexión de Crimea no existía un consenso acerca de si se había iniciado o no una nueva guerra fría, pero hoy, apenas una década después, es razonable aceptar que estamos sumidos en una Nueva Guerra Fría, o una Segunda Guerra Fría, en la que EEUU y Europa a un lado, y China y Rusia en el otro, disputan el control del orden mundial.

Algunos analistas, como John Sawers, exjefe del MI6, o Igor Zevelev, miembro del Centro Wilson, defienden que el momento actual es incluso más peligroso e impredecible que la Guerra Fría. De lo que no cabe duda es de que estamos viviendo una etapa extremadamente convulsa en la que la inestabilidad global campa a sus anchas. El corresponsal de guerra estadounidense Hugh David Scott Greenway, que trabaja para The Washington Post, Time Life y The Boston Globe, fecha el inicio de la Segunda Guerra Fría el 4 de febrero de 2022 debido a que fue el día en el que Vladímir Putin y Xi Jinping hicieron una declaración conjunta para formalizar la alianza de sus dos naciones.

Si nos ceñimos a la ciencia y la tecnología, que es lo que más nos interesa en Xataka, podemos observar que existe un paralelismo muy evidente entre el desarrollo vertiginoso que experimentaron las disciplinas que EEUU y la Unión Soviética consideraban estratégicas durante la Guerra Fría y lo que estamos presenciando hoy. Los semiconductores condicionan profundamente el desarrollo tecnológico, científico y militar de las grandes potencias, y EEUU, China y Rusia están decididas a imponerse en este ámbito les cueste lo que les cueste.

Los semiconductores condicionan profundamente el desarrollo tecnológico, científico y militar de las grandes potencias

No obstante, hay otras áreas que tienen un rol estratégico no solo para estos tres países, sino también para Europa, Japón, Corea del Sur o India, entre otros estados o coaliciones que también postulan para no quedarse descolgados. La inteligencia artificial, las comunicaciones cuánticas y los ordenadores cuánticos están recibiendo un respaldo económico procedente de las instituciones públicas de algunos de estos países sin precedentes, lo que nos invita a prever que durante los próximos años van a experimentar un desarrollo que difícilmente ahora podemos intuir.

A finales de julio de 2022 el Congreso estadounidense aprobó la asignación de nada menos que 280.000 millones de dólares al desarrollo científico y tecnológico del país. Por otro lado, la directiva europea 'Chips Act' movilizará 43.000 millones de euros para poner al Viejo Continente en el mapa mundial de los circuitos integrados.

China está a punto de inyectar 41.000 millones de dólares en sus fabricantes de equipos litográficos para desarrollar sus propias máquinas de ultravioleta extremo (UVE). Y Rusia va a invertir 38.000 millones de dólares durante los próximos seis años para reforzar su industria de los chips. Estas son solo algunas de las partidas económicas destinadas al desarrollo de la ciencia y la tecnología que manejan las grandes potencias, pero ilustran con claridad de qué estamos hablando.

Imagen de portada: Casa Rosada | Palácio do Planalto | Пресс-служба Президента РФ

En Xataka: Empieza la resistencia a EEUU en Europa: en Países Bajos cuestionan las sanciones a China que están dañando a ASML



via Robótica e IA - Xataka https://ift.tt/SWGY7ws

sábado, 28 de octubre de 2023

Aiper presenta ofertas novedades punteras en la limpieza de piscinas

Scuba X, una primicia en la industria, es un robot multifuncional con tecnología innovadora que aborda los mayores puntos débiles del mantenimiento de la piscina limpiando no sólo la superficie, el suelo, las paredes y las líneas de flotación, sino que también prueba y esteriliza la calidad del agua.

De esta forma, el Scuba X se sumará al resto de productos de la marca que ya hemos analizado aquí en Actualidad Gadget.

Scuba X es un robot multifuncional que lo hace todo: limpia automáticamente una piscina en más formas que las que la industria haya visto antes, haciendo que el mantenimiento de la piscina sea muy sencillo. A través de la combinación de tecnología innovadora y un diseño vanguardista, el Scuba X aborda las principales facetas del cuidado de la piscina desde arriba hacia abajo. El Scuba X estará disponible para su compra en el cuarto trimestre de 2024 y su prototipo, así como sus características y tecnología adicionales, se revelarán en enero de 2024 en Consumer Electronic Show (CES) en Las Vegas.

“Tener una piscina debe ser divertido, no una tarea ardua; por eso hemos invertido en I+D para ofrecer soluciones robóticas inteligentes que no solo ahorran tiempo y dinero, sino que también brindan una claridad cristalina sin esfuerzo en la piscina” – Richard Wang (CEO Aiper Global)

En España hay 1,29 millones de piscinas, lo que supone una piscina por cada 35 habitantes. A pesar de ello, y teniendo en cuenta que los robots limpiafondos existen desde hace mucho tiempo, la tecnología en sí aún se encuentra en las primeras etapas de desarrollo. Muchos consumidores expresan su frustración porque la mayoría de las máquinas tienen cables engorrosos, limitaciones en la capacidad de limpieza y falta de inteligencia.

El Scuba X está redefiniendo los estándares de la industria con características destacadas derivadas de su capacidad incomparable, no solo para limpiar la superficie, el suelo, las paredes y la línea de flotación de una piscina, sino también para probar y esterilizar la calidad del agua, una combinación que no se había logrado por un único robot antes.

Ofertas de Aiper

La serie de robots limpiapiscinas Seagull de Aiper está diseñada para eliminar completamente el estrés de la limpieza de la piscina, haciendo que su uso en casa sea tan relajante como estar en un resort.

Del 13 al 30 de noviembre, los tres modelos Seagull de Aiper cuentan con cupones de descuento de hasta un 35%. La oferta es válida en aiper.es:

  • Seagull Pro ahora 719,99€ (17% de descuento + 30€ de descuento con el código “HOL30”)
  • Seagull SE ahora 169,99€ (23% de descuento + 60€ de descuento con el código “HOL60”)
  • Seagull Plus ahora 259,99€ (35% de descuento con el código HOL140”)


via Actualidad Gadget https://ift.tt/g6Ddx91

500 ladrillos a la hora: una empresa se ha propuesto revolucionar el futuro de la construcción con un robot

500 ladrillos a la hora: una empresa se ha propuesto revolucionar el futuro de la construcción con un robot

La compañía australiana FBR se ha marcado el que tal vez sea uno de los mayores desafíos de la construcción moderna, a la altura de conseguir un hormigón más sostenible, "repensar" los ladrillos o dar más peso a viejos materiales como la madera o la piedra. Su objetivo es ni más ni menos que cambiar nuestra forma de colocar bloques en los muros de mampostería, la misma que —asegura la empresa— se ha mantenido más o menos invariable durante milenios.  Para lograrlo ha creado un sorprendente robot que aspira a manejar 500 bloques cada hora y levantar las paredes exteriores e interiores de una casa en solo un día.

Por lo pronto, ya nos ha dejado algún ejemplo de qué puede lograr.

Hadrian X, lo llaman. De los planes y la tecnología desarrollada por FBR —antes Fastbrick Robotics Limited— os hablamos por primera vez hace un ya unos cuantos años, pero desde entonces sus creadores han seguido puliéndola y dejando demostraciones de su capacidad. Una de las últimas es la construcción de 16 casas adosadas en Willagee, un suburbio de Perth, capital de Australia Occidental.

Su gran baza es Hadrian X, un robot de construcción diseñado para colocar bloques al aire libre a una velocidad endiablada. FBR reivindica que su tecnología es pionera y ha estado años trabajando en ella hasta lograr el diseño actual.

¿Y cómo es el robot? Un camión con un gran brazo telescópico, de 32 metros, que según sus responsables permite al Hadrian X "new generation" levantar muros de tres pisos de altura desde el borde de una carretera. No es el único dato que facilita FBR. La compañía asegura que ha diseñado el robot para que pueda colocar hasta 500 bloques por hora —equivalente a unos 120 m2— y completar las paredes externas e internas de una "casa estándar de doble ladrillo" en una sola jornada.

"Está diseñada para colocar bloques disponibles comercialmente, así como otros que aún no lo están, incluidos ladrillos grandes que miden hasta 600 mm x 400 mm x 300 mm y pesan hasta 45 kilos", destaca la compañía australiana, con sede en Perth. Su diseño modular de sierra le permite además realizar diferentes cortes en altura y durante su labor emplea un adhesivo especial que sustituye al mortero, un cambio con el que, garantiza, las paredes acaban ganando resistencia.

Rt Rt
Robottttt Robottttt

De la teoría… A las obras, que es donde Hadrian X ha demostrado ya sus capacidades y las marcas que alcanza sobre el terreno. En mayo la compañía anunciaba la finalización de una casa compuesta por unas 4.300 unidades de mampostería de hormigón, en septiembre informaba de un proyecto con 16 viviendas adosadas y hace solo unas semanas aseguraba haber finalizado una estructura con bloques de gran formato a un ritmo de más de 240 piezas por hora. The Sentiment va más allá y detalla que esa sería la velocidad promedio y en realidad llegó a alcanzar un ritmo bastante mayor, de 326 bloques por hora.

Robottt Robottt
Robot Robot

¿Cuál es su objetivo? Cambiar la forma que tenemos de colocar ladrillos, la misma, reivindica la empresa, que se ha mantenido más o menos inalterable a lo largo de los últimos milenios. Nada más, nada menos. "Hadrian X es la primera máquina y sistema robótico móvil de colocación de bloques del mundo, capaz de trabajar de forma segura al aire libre en entornos no controlados con velocidad y precisión", añade. Para su labor, usa un modelo CAD en 3D y un proceso que, según FBR, genera menos desechos que los métodos tradicionales.

Con el objetivo de que el proceso resulte más eficiente, la compañía aplica un software de optimización que se encarga de trasladar los bocetos a la práctica. "Minimiza la manipulación y desperdicio de productos de bloques para mejorar la eficiencia de la construcción residencial". No es el único recurso del que presume FBR, que recuerda que su robot incorpora tecnología de estabilización dinámica (DST). Con esa hoja de presentación, ya mira con interés el mercado de EEUU.

Imágenes: FBR

En Xataka: Las casas prefabricadas siempre han sido infravivienda. Ahora muchos gobiernos las están impulsando frente a la crisis



via Robótica e IA - Xataka https://ift.tt/MOZBbHR

Google está decidida a ganar el pulso a ChatGPT. Y ha decidido regar con 2.000 millones a su rival, Anthropic

Google está decidida a ganar el pulso a ChatGPT. Y ha decidido regar con 2.000 millones a su rival, Anthropic

La inteligencia artificial (IA) sigue protagonizando importantes movimientos empresariales, acompañados de jugosas inversiones de más de nueve dígitos. Si 2023 arrancó con la decisión de Microsoft de inyectar una suma "multimillonaria" en OpenAI, ahora el año enfila su recta final con otro anuncio de calado, tanto por su cuantía como por la lectura estratégica que deja: Google ha decidido inyectar 2.000 millones de dólares en Anthropic, competidor directo de los creadores del popular ChatGPT. Su respaldo se sumaría al de Amazon, que hace un mes escaso anunció su intención de apoyarla con hasta 4.000 millones de dólares.

Las cifras son rotundas. El premio, también.

¿Qué ha pasado? Que Google ha decidido invertir 2.000 millones de dólares en Anthropic, compañía competidora de OpenAI. La noticia la ha avanzado The Wall Street Journal y la han confirmado a lo largo de las últimas horas otros medios, como Bloomberg, la agencia Reuters o  la cadena CNBC, si bien estos dos últimos reconocen que la compañía de Mountain View aún no se ha pronunciado.

La cuantiosa cantidad no se abonará de una tacada. Los planes de la multinacional pasarían por adelantar una suma inicial de 500 millones de dólares y añadir 1.500 millones más durante un período que de momento no se ha concretado.

¿Son los primeros? No. Y esa es una de las razones de que la decisión resulte tan interesante. Si bien la cantidad aportada por Google a Anthropic es elevada llega después de que otra gran multinacional tecnológica, Amazon, compartiese sus planes de invertir hasta 4.000 millones de dólares en la misma startup.

Según concretaba Reuters en septiembre, el acuerdo contemplaba una inyección inicial de 1.250 millones que se complementaría con 2.750 millones aportados por el gigante del comercio online. El pacto también recogía otros compromisos, como que la startup se apoyaría principalmente en los servicios en la nube de Amazon.

¿Por qué es importante? Primero, por el importante respaldo que supone para Anthropic. Segundo, y no menos importante, porque muestra los esfuerzos que está dispuesto a desplegar Google para enfrentarse a ChatGPT, la IA generativa de OpenAI, que está firmemente respaldada a su vez por Microsoft. La compañía de Mountain View ya respondió al desafío que representa ChatGPT con su propio chatbot, Bard. Ahora ha decidido además regar de millones a Anthropic.

La decisión de los directivos de Mountain View destaca por sus cifras, pero no es del todo sorprendente. En abril Google Cloud ya invirtió 300 millones de dólares en la startup y se hizo además con una participación del 10%. Como recuerda la CNBC, ese mismo mes Anthropic figuro entre un selecto grupo de empresas que recibieron una invitación de la Casa Blanca para discutir sobre el desarrollo de inteligencia artificial responsable con la vicepresidenta estadounidense, Kamala Harris. A la cumbre acudieron también Alphabet, Microsoft y OpenAI.

¿Qué es Anthropic? Una startup dedicada a la investigación y seguridad en el campo de la IA. La empresa la cofundaron en 2021 ex ejecutivos de OpenAI y ha destacado por el desarrollo de Claude 2, un chabot rival de ChatGPT y que ya usan empresas como Slack. Su potencial ha captado además el interés de otras firmas, más allá de Google o Amazon, incluidas por ejemplo Salesforce o Zoom. A comienzos de año su valoración rondaba de hecho los 4.100 millones.

Su IA se ha revelado un serio competidor de ChatGPT, como os contábamos en junio. Claude 2 es capaz de resumir hasta 75.000 palabras, lo que permite a los usuarios introducir grandes conjuntos de datos para conseguir síntesis. "Llevamos poco más de dos años y medio y en ese tiempo hemos recaudado 1.500 millones de dólares, que es mucho. Hemos podido hacer más con menos de manera radical. Y creo que relativamente pronto estaremos en condiciones de hacer más con más", deslizaba ya en septiembre el CEO de la firma, Diario Amodei, a Techcrunch.

Imagen de portada: Anthropic

En Xataka: OpenAI ya está estudiando los "riesgos catastróficos" asociados a la IA. Entre otros, el de una amenaza nuclear



via Robótica e IA - Xataka https://ift.tt/qxV7OTt

viernes, 27 de octubre de 2023

OpenAI ya está estudiando los "riesgos catastróficos" asociados a la IA. Entre otros, el de una amenaza nuclear

OpenAI ya está estudiando los

El desarrollo de sistemas de IA sigue provocando el temor a futuros distópicos, y ahora OpenAI ha querido prepararse para evitarlos. Acaban de crear un nuevo equipo llamado Preparedness que se encargará de estudiar, evaluar y analizar modelos de IA para protegernos de lo que ellos califican como "riesgos catastróficos".

Dicho grupo de expertos estará liderado por Aleksander Madry, un experto de aprendizaje automático procedente del MIT y que se unió a OpenAI en el mes de mayo. Su tarea, como la del resto del equipo, será desde luego interesante.

Así, el objetivo es el de rastrear, evaluar, pronosticar y protegernos contra "riesgos catastróficos" que según estos expertos "abarcan múltiples categorías", entre las que citan:

  • Persuasión individualizada (por ejemplo, con ataques de phishing)
  • Ciberseguridad
  • Amenazas químicas, biológicas, radiológicas y nucleares (CBRN)
  • Replicación y adaptación autónomas (ARA)

Son muchos los expertos y las personalidades que han avisado de los peligros que pueden derivarse del desarrollo de sistemas de IA. Hasta Sam Altman, máximo responsable de OpenAI, lo ha reconocido y de hecho lleva tiempo apoyando —probablemente de forma interesada— la creación de una regulación para el desarrollo de estos modelos.

En OpenAI reconocen que ni siquiera ellos pueden estar teniendo en cuenta todas las potenciales amenazas que el desarrollo de estos sistemas puede generar, así que han solicitado que cualquier interesado les envíe estudios relativos a los riesgos que puden aparecer, y habrá un premio de 25.000 dólares y un potencial puesto trabajo en el equipo Preparedness para los 10 mejores estudios en este sentido.

Para evaluar esos riesgos, en esta empresa proponen a los interesados que se imaginen que les dieran acceso a sus modelos más avanzados, tanto Whisper como GPT-4V o DALLE-3. La idea es que aprovechen esas herramientas para convertirse en usuarios con un objetivo tóxico: ¿cuál sería el peor uso, el más catastrófico, que se le podrían dar a estos modelos?

El equipo Preparedness también se encargará de preparar guías y documentos para desarrollar pruebas para esos modelos que se ejecutarán tanto antes como después de su desarrollo. Aunque creen que estos sistemas acabaran superando las capacidades actuales, "también plantean riesgos cada vez más serios. Necesitamos asegurarnos de que tenemos tanto los conocimientos como la infraestructura necesaria para la seguridad de sistemas de IA altamente capaces", concluyen.

Imagen | Steve Jennings/Getty Images for TechCrunch 

En Xataka | Las empresas de IA parecen las primeras interesadas en regular la IA. Eso es preocupante



via Robótica e IA - Xataka https://ift.tt/6WhJnlp

jueves, 26 de octubre de 2023

Amazon quiere que las imágenes de los anuncios se vean mejor. Solución: lanzar una IA generativa para vendedores

Amazon quiere que las imágenes de los anuncios se vean mejor. Solución: lanzar una IA generativa para vendedores

Cuando pensamos en las grandes tecnológicas que están invirtiendo toneladas de dinero en inteligencia artificial (IA) se nos vienen a la cabeza nombres como OpenAI, Microsoft y Google. Pero hay otras compañías como Amazon que también llevan varios años apostando por este tipo de tecnología de la que casi todos hablan.

El vínculo relación entre el gigante del comercio electrónico y la IA tiene mucho tiempo. Los algoritmos son una parte esencial de sus sistemas de búsqueda, recomendación y publicidad. A nivel de logístico, también cumplen un rol importantísimo, que le ha permitido alcanzar altos niveles de eficiencia. ¿Pero y la IA famosa generativa?

Amazon aumenta su apuesta por la IA generativa

La compañía dirigida por Andy Jassy ha estado haciendo algunos movimientos muy interesantes para no quedarse fuera de la nueva carrera generativa. Ha estado apostando por alimentar su propio sistema de computación en la nube, AWS, e incluso anunciado inversiones en Antrophic, competidor de OpenAI.

Pero ahora es cuando estamos empezar a ver los primeros resultados de sus esfuerzos. Tras anunciar una IA que generará resúmenes de reseñas de productos, la firma ha puesto en marcha un generador de imágenes de AI integrado en la plataforma publicitaria para vendedores. La idea es elevar la calidad de sus campañas de marketing.

Ia Generativa Amazon 2 Ia Generativa Amazon 2 El generador de imágenes de Amazon Ads

Próximamente, aquellos comerciantes que utilizan Amazon Ads para programar anuncios en Amazon se encontrarán con la posibilidad de mejorar las imágenes de sus productos sin utilizar herramientas de terceros. Centrándonos en el ejemplo de la imagen de portada, podrían cambiar el fondo vacío de la tostadora por uno lifestyle.

Según explica la compañía, han querido hacer de esta funcionalidad algo muy sencillo. Por lo que una vez seleccionados los productos con los que se quiere trabajar, simplemente hay que hacer clic en Generate para que el modelo genera automáticamente fondos de acuerdo al contexto. Por ejemplo, una tostadora en la encimera de la cocina.

Ia Generativa Amazon 3 Ia Generativa Amazon 3 La interfaz del generador de imágenes de Amazon Ads

En caso de que los usuarios deseen dar un toque de personalización a las imágenes generadas, como podemos ver en la captura de arriba también podrán utilizar pequeñas descripciones textuales (prompts) para mejorar la composición visual de las imágenes. Por ejemplo: “producto sobre una encimera de cocina con plantas al fondo”.

Como podemos ver, Amazon no ha salido a competir directamente con modelos de alcance masivo, como DALL·E, MidJourney o Stable Diffusion. Al contrario, ha apostado por una propuesta generativa contenida dirigida al mercado donde es rey. Esto, no obstante, no quiere decir que no veamos alguna apuesta mucho más ambiciosa.

Imágenes: Amazon

En Xataka: Los artistas están hartos de que las IAs generativas roben sus obras. Así que las están envenenando



via Robótica e IA - Xataka https://ift.tt/HaE5jXN

miércoles, 25 de octubre de 2023

Teorías conspirativas y rendiciones 'fallidas': los 'deepfakes' ya son armas en tiempos de guerra

En la red hay que andar con pies de plomo y dudar, prácticamente, de cualquier publicación que intente remover los sentimientos de los usuarios. Más, si cabe, cuando el vídeo, imagen o tuit hace referencia a un conflicto armado como la invasión de Ucrania o la guerra de Israel en Gaza . En cualquier momento, uno de estos contenidos puede consistir en un 'deepfake' , un montaje realizado con inteligencia artificial (IA), donde la ficción imita la realidad con un grado de detalle casi perfecto y con un margen de error minúsculo para el ojo que no esté entrenado en diferenciarlos. En estos, se moldea una 'cara' falsa construida por inteligencia artificial, que se fusiona con un vídeo auténtico, con el fin de recrear un acontecimiento que nunca tuvo lugar realmente. Aunque falsos, pueden parecer convincentes y a menudo se producen para imitar o burlarse de una persona. O al menos esas eran sus intenciones al comienzo. Desde hace un tiempo los 'deepfakes' se usan como armas para influir en la opinión publica de grandes guerras. El conflicto ruso-ucraniano fue el primer ejemplo real de uso de 'deepfakes', según explican los investigadores de un estudio llevado a cabo por la University College Cork (UCC). En el trabajo, que se publica hoy en la revista PLOS ONE , examinaron tuits de 2022 sobre la invasión, en lo que constituye el primer análisis del uso de 'deepfakes' en la desinformación y la propaganda bélica. «Gran parte de la investigación previa sobre 'deepfakes' se ha centrado en los posibles daños futuros de la tecnología. Sin embargo, nosotros nos hemos centrado en cómo estos vídeos e imágenes trucados ya están afectando a las redes sociales, como hemos visto durante la invasión rusa de Ucrania», detallan en la investigación. Noticia Relacionada estandar No La inteligencia artificial 'revive' a víctimas infantiles de crímenes: «Usar la cara y la boca de un niño que nos han arrebatado... no hay palabras» Alexia Columba Jerez La tendencia viral avanza en plataformas como Tik Tok ante el asombro de la mayoría de las familias afectadas, a las que nadie les pide permiso La 'rendición' de Zelenski o la 'paz' de Putin En el estudio se analizaron cerca de 5.000 tuits en X (antes Twitter) en los primeros siete meses de 2022 para explorar cómo reacciona la gente ante los contenidos 'deepfake' en línea y descubrir pruebas de los perjuicios que causan a la confianza. Descubrieron grandes debates, casi 'batallas campales' en la red, reaccionando a los montajes. Por un lado, algunos expresaban preocupación, conmoción o confusión por las noticias. Otros, en cambio, reaccionaron positivamente a los montajes, especialmente contra aquellos que consideraban sus «rivales políticos». Uno de los casos más sonados fue el 'deepfake' que presentaba falsamente al presidente ucraniano Volodímir Zelenski rindiéndose a Rusia. Un vídeo publicado en el medio 'Ucrania 24', tras sufrir un ataque de unos ciberdelincuentes, que aprovecharon el momento para colgar el mensaje. Lo mismo sucedió con Vladimir Putin meses más tarde, en un vídeo emitido en varias cadenas rusas tras un hackeo, donde el presidente proclamaba la paz y el alto el fuego con Ucrania. Código Desktop As a matter of principle, I never post or link to fake or false content. But @MikaelThalen has helpfully whacked a label on this Zelensky one, so here goes. I've seen some well-made deepfakes. This, however, has to rank among the worst of all time.pic.twitter.com/6OTjGxT28a— Shayan Sardarizadeh (@Shayan86) March 16, 2022 Imagen para móvil, amp y app Código móvil As a matter of principle, I never post or link to fake or false content. But @MikaelThalen has helpfully whacked a label on this Zelensky one, so here goes. I've seen some well-made deepfakes. This, however, has to rank among the worst of all time.pic.twitter.com/6OTjGxT28a— Shayan Sardarizadeh (@Shayan86) March 16, 2022 Código AMP As a matter of principle, I never post or link to fake or false content. But @MikaelThalen has helpfully whacked a label on this Zelensky one, so here goes. I've seen some well-made deepfakes. This, however, has to rank among the worst of all time.pic.twitter.com/6OTjGxT28a— Shayan Sardarizadeh (@Shayan86) March 16, 2022 Código APP As a matter of principle, I never post or link to fake or false content. But @MikaelThalen has helpfully whacked a label on this Zelensky one, so here goes. I've seen some well-made deepfakes. This, however, has to rank among the worst of all time.pic.twitter.com/6OTjGxT28a— Shayan Sardarizadeh (@Shayan86) March 16, 2022 «No hay pruebas de que los propios gobiernos —ucraniano o ruso— hayan creado los 'deepfakes', pero queda claro que detrás de ellos hay motivaciones políticas para influir en el desarrollo del conflicto», explica para ABC John Twomey, investigador principal del estudio. Prueba de ello es el 'Fantasma de Kiev' , el que fue el mayor 'deepfake' propagandístico que se realizó en el conflicto, y se creó al comienzo del mismo. Cuando comenzaron los primeros bombardeos rusos, un usuario de Twitter vendió la historia de que un piloto ucraniano estaba defendiendo el país como si se tratase de un lobo solitario, atacando y derribando a más de seis cazas rusos por su cuenta. Toda la historia, además de las supuestas imágenes del 'Fantasma de Kiev', eran falsas. Se habían utilizado escenas de videojuegos e imágenes trucadas de otros soldados ucranianos para recrear un héroe de guerra falso. Código Desktop На фото – пілот МіГ-29. Той самий «Привид Києва». Він викликає жах у ворогів та гордість в українців 🇺🇦 На його рахунку 6 перемог над російськими пілотами! З такими потужними захисниками Україна точно переможе! pic.twitter.com/GJLpcJ31Si— Петро Порошенко (@poroshenko) February 25, 2022 Imagen para móvil, amp y app Código móvil На фото – пілот МіГ-29. Той самий «Привид Києва». Він викликає жах у ворогів та гордість в українців 🇺🇦 На його рахунку 6 перемог над російськими пілотами! З такими потужними захисниками Україна точно переможе! pic.twitter.com/GJLpcJ31Si— Петро Порошенко (@poroshenko) February 25, 2022 Código AMP На фото – пілот МіГ-29. Той самий «Привид Києва». Він викликає жах у ворогів та гордість в українців 🇺🇦 На його рахунку 6 перемог над російськими пілотами! З такими потужними захисниками Україна точно переможе! pic.twitter.com/GJLpcJ31Si— Петро Порошенко (@poroshenko) February 25, 2022 Código APP На фото – пілот МіГ-29. Той самий «Привид Києва». Він викликає жах у ворогів та гордість в українців 🇺🇦 На його рахунку 6 перемог над російськими пілотами! З такими потужними захисниками Україна точно переможе! pic.twitter.com/GJLpcJ31Si— Петро Порошенко (@poroshenko) February 25, 2022 Un chute para las teorías conspirativas Además, el estudio ha revelado que los 'deepfakes' ayudan a engendrar y cultivar teorías conspirativas y un escepticismo malsano. «Los usuarios ponen en duda cualquier anuncio político, y cuando ven algún gesto o movimiento extraño, piensan que son un doble o directamente un vídeo falso, y que los gobiernos por ejemplo están ocultando la enfermedad o muerte de sus líderes políticos», detalla Twomey. Menciona el caso de un vídeo de Putin donde su mano parecía atravesar un micrófono, cuando en realidad se trataba de error por la calidad del vídeo, a lo que se le denomina un 'artefacto'. «Hubo gente en Internet que afirmó que se trataba de un 'deepfake' y que Putin estaba ocultando una enfermedad. Por supuesto, el vídeo era real y la mano no atravesaba nada». Código Desktop The claim that Russian President Vladimir Putin spoke in front of a green screen today is false. A low quality video showing Putin's hand seemingly moving through a microphone appears to be a compression artifact. High quality video of the same clip shows no such issue. pic.twitter.com/rchVWo18xj— Mikael Thalen (@MikaelThalen) March 5, 2022 Imagen para móvil, amp y app Código móvil The claim that Russian President Vladimir Putin spoke in front of a green screen today is false. A low quality video showing Putin's hand seemingly moving through a microphone appears to be a compression artifact. High quality video of the same clip shows no such issue. pic.twitter.com/rchVWo18xj— Mikael Thalen (@MikaelThalen) March 5, 2022 Código AMP The claim that Russian President Vladimir Putin spoke in front of a green screen today is false. A low quality video showing Putin's hand seemingly moving through a microphone appears to be a compression artifact. High quality video of the same clip shows no such issue. pic.twitter.com/rchVWo18xj— Mikael Thalen (@MikaelThalen) March 5, 2022 Código APP The claim that Russian President Vladimir Putin spoke in front of a green screen today is false. A low quality video showing Putin's hand seemingly moving through a microphone appears to be a compression artifact. High quality video of the same clip shows no such issue. pic.twitter.com/rchVWo18xj— Mikael Thalen (@MikaelThalen) March 5, 2022 Del mismo modo, observaron cómo los usuarios acusaban falsamente un vídeo de Biden de ser un 'deepfake', donde se le veía con una mirada aparentemente extraña. «comentaban que el presidente tenía la mirada del valle inquietante, como si fuese un robot», explica Twomey. Código Desktop My eye can detect the uncanny valley instantly. This is 100% deepfake technology. They pasted Biden's face on an actor. I'd bet my career on it. https://t.co/QtkAnBdM1g— George Alexopoulos (@GPrime85) July 27, 2022 Imagen para móvil, amp y app Código móvil My eye can detect the uncanny valley instantly. This is 100% deepfake technology. They pasted Biden's face on an actor. I'd bet my career on it. https://t.co/QtkAnBdM1g— George Alexopoulos (@GPrime85) July 27, 2022 Código AMP My eye can detect the uncanny valley instantly. This is 100% deepfake technology. They pasted Biden's face on an actor. I'd bet my career on it. https://t.co/QtkAnBdM1g— George Alexopoulos (@GPrime85) July 27, 2022 Código APP My eye can detect the uncanny valley instantly. This is 100% deepfake technology. They pasted Biden's face on an actor. I'd bet my career on it. https://t.co/QtkAnBdM1g— George Alexopoulos (@GPrime85) July 27, 2022 Luchar contra los bulos de la IA Las consecuencias de esta intromisión en la verdad son claras para los investigadores: los usuarios desconfían de las publicaciones de las redes, se radicalizan con un bando u otro y dudan de la veracidad de los medios de comunicación. «Llega un momento que dudan completamente de cualquier imagen del conflicto», explican en el trabajo. «Investigadores y periodistas temen desde hace tiempo que los 'deepfakes 'tengan el potencial de socavar la verdad, difundir desinformación y minar la confianza en la veracidad de los medios informativos. Su mayor peligro es la capacidad para alterar lo que sabemos que es verdad cuando los vídeos falsos se creen auténticos y viceversa», afirma el doctor Conor Linehan, de la Facultad de Psicología Aplicada de la UCC. Por ello, apuntan a que se debe luchar contra los bulos de la IA educando a la gente sobre qué son los 'deepfakes', cuál es su potencial y cuáles son sus capacidades actuales y cómo evolucionarán en los próximos años.

via Tecnología https://ift.tt/Odei68u