martes, 15 de octubre de 2024

La voz de este anuncio no es real, se la han clonado al mayor influencer de tecnología usando IA. No es la primera vez que pasa

La voz de este anuncio no es real, se la han clonado al mayor influencer de tecnología usando IA. No es la primera vez que pasa

Una muestra de 15 segundos. Eso es todo lo que necesita una herramienta como el generador de voces desarrollado por OpenAI para clonar una voz. No es el único sistema de este tipo, ni mucho menos, pero nos da una idea de lo que se puede conseguir con apenas unos segundos de audio. Ahora imaginemos lo que podría pasar si fuésemos uno de los mayores influencers del mundo de la tecnología con cientos, miles de horas de contenido publicado y accesible en Internet.

Pues lo que le ha pasado a Marques Brownlee.

Soy yo, pero no soy yo. Marques Brownlee acumula 19,6 millones de suscriptores en YouTube, 4,9 millones de seguidores en Instagram y 6,3 millones en X. A sus 30 años de edad, el estadounidense es uno de los creadores de contenido más populares del mundo de la tecnología y una de las caras (y voces) más reconocibles del sector. Tiene una forma de hablar, unas muletillas, un tono y unas frases más propias y, por supuesto, miles y miles de horas de su voz publicadas en Internet.

¿Y qué ha pasado? Que una empresa que fabrica tarjetas de visita digitales ha clonado su voz para usarla en un anuncio publicado en Instagram. Según explica Brownlee en una publicación en Threads, "hay empresas reales que utilizan una copia de mi voz creada por IA para promocionar sus productos". En sus propias palabras, "realmente no hay ninguna repercusión por ello, aparte de ser conocida como una empresa sospechosa que está dispuesta a caer tan bajo para vender un producto".

Detectable, pero pasable. Si escuchamos el vídeo grabado por el propio creador y prestamos atención, notaremos que la voz es sintética. Aunque el "ok" inicial y la primera frase podrían colar perfectamente, el resto del audio carece de entonación, es una locución plana. Con su voz, o mejor dicho, con una copia bastante pasable, pero demasiado plana. Un oído más o menos entrenado o alguien interesado en el mundo de la tecnología podría detectar su origen sintético sin mayor problema, pero no siempre es el caso.

Abuelas tejiendo generadas con IA Abuelas tejiendo generadas con IA Esta captura de pantalla se tomó en una página con 145.000 'me gusta' dedicada sola y exclusivamente a publicar imágenes de abuelas tejiendo generadas con IA. Cada foto tenía entre 600 y 1.000 'me gusta', entre 60 y 200 comentarios y entre 10 y 20 compartidos | Imagen: Xataka

Eso es algo que nos ha enseñado Internet. En Facebook hay páginas que publican imágenes de personas haciendo tartas o abuelas tejiendo generadas por IA, y muchas personas se creen que son fotos reales, comentan, interactúan... Lo mismo con esta "cafetería" que dice ser la "cafetería nº1 de Austin" y que, realmente, está llena de fotos de dulces generados por IA. La cuenta tiene 72.000 seguidores y sus imágenes infinidad de interacciones.

No es la primera vez. Y seguramente tampoco sea la última. A Jeff Geerling, otro youtuber de tecnología y programador, también le clonaron la voz recientemente para usarla en un anuncio. El propio CEO de la empresa que se anunciaba pidió perdón y se excusó, diciendo que el vídeo lo había hecho un recién graduado sin experiencia y que se publicó sin aprobación.

Una youtuber ucraniana, Olga Loiek, también fue víctima de algo similar, pero todavía más bestia. Loiek es ucraniana y estudia en la Universidad de Pensilvania, pero se encontró un avatar con su cara y cuerpo haciéndose pasar por una chica rusa que publicaba vídeos en las redes sociales chinas. En los vídeos, este avatar hablaba de las buenas relaciones entre Rusia y China y hasta afirmaba estar buscando una pareja china.

Imagen de portada | Marques Brownlee 1, 2

En Xataka | La IA generativa tiene un enorme problema con el contenido sin licencia para entrenarse. Adobe está intentando solucionarlo



via Robótica e IA - Xataka https://ift.tt/I10Us5a

Wikipedia se está llenando de contenido generado por IA. Tanto, que ya tiene un equipo dedicado a encontrarlo

Wikipedia se está llenando de contenido generado por IA. Tanto, que ya tiene un equipo dedicado a encontrarlo

El contenido generado por inteligencia artificial ha llegado a todos los rincones. Ha llegado a Amazon, donde han aparecido libros escritos por ChatGPT; lo ha hecho a algunos medios de comunicación, a artículos científicos, a los vídeos, a la música, a las imágenes, a la fotografía. A todo. La IA generativa ha llegado a todos lados. A la Wikipedia también, por supuesto.

Eso es un problema. Uno que la plataforma ya está atajando a través de un grupo de colaboradores dedicado a la búsqueda y eliminación de este contenido. Su nombre: WikiProject AI Cleanup.

Cómo funciona la Wikipedia. Es importante saber que la Wikipedia es abierta y que cualquier persona puede escribir y editar artículos de la misma. Eso tiene un punto positivo: si yo tengo información de algo o soy experto en alguna materia, puedo enriquecer la enciclopedia con mis aportaciones, ya sea agregando cosas nuevas, matizando cosas ya existentes o editando cosas erróneas. El punto negativo es que... cualquier persona puede editar la Wikipedia e inventarse lo que buenamente quiera. Si a eso le sumamos una herramienta como ChatGPT, el problema está más que servido.

La IA lo inunda todo. Según explica Ilyas Lebleu, fundador de la iniciativa WikiProject AI Cleanup, todo comenzó cuando empezaron a notar "la prevalencia de una escritura poco natural que mostraba claros signos de haber sido generada por IA". Usando ChatGPT consiguieron replicar estilos similares, por lo que blanco y en botella.

404Media se hace eco de un ejemplo buenísimo: el fuerte otomano Amberlisihar, una construcción levantada en el año 1466. En su página de Wikipedia, una con 2.000 palabras, se detalla su historia, su construcción, los materiales... todo lo que se podría esperar. La cosa es que ese fuerte no existe. Es falso, es fruto de una alucinación de la IA. Ese artículo se publicó en enero de 2023 y no se detectó hasta diciembre.

Lo mismo con las fotos. En este artículo de Darul Uloom Deoband se publicó esta imagen que, a priori, podría colar como una imagen de la época. Sin embargo, basta con fijarse en las manos (y realmente, en prestar un mínimo de atención al detalle) para descubrir que ha sido generada con IA. Fue eliminada porque "aporta poco al artículo, podría confundirse con una obra de arte contemporánea y es anatómicamente incorrecta". Cabe destacar que no se eliminan todas las imágenes generadas por IA, solo aquellas que son inadecuadas.

Start Of Darul Uloom Deoband Under A Pomegranate Tree By Ai Start Of Darul Uloom Deoband Under A Pomegranate Tree By Ai La descripción de la imagen rezaba lo siguiente: "Una imagen creada por AI de los comienzos del seminario islámico de Darul Uloom Deoband. Esta imagen creada por AI imagina al profesor Mahmud Deobandi instruyendo a su alumno Mahmud Hasan Deobandi -el primer estudiante del seminario-, que más tarde sería conocido como «Shaykh al-Hind» y desempeñó un papel importante en el movimiento independentista indio". Pueden apreciarse claramente las pistas que indican que ha sido generada por IA en las manos, el libro y los pies, por ejemplo.

Voluntarios frente a la IA. WikiProject AI Cleanup es una "colaboración para combatir el creciente problema del contenido generado por IA sin fuentes y mal escrito en Wikipedia". Cualquiera puede apuntarse y participar. El objetivo no es restringir o eliminar el uso de la IA, sino "verificar que su resultado es aceptable y constructivo, y arreglarlo o eliminarlo en caso contrario".

No es una tarea fácil. Porque si en algo son buenos los LLMs es en ser capaces de pasar sus creaciones por textos legítimos. Sin embargo, pueden dejar algunas pistas. Frases como "como modelo de lenguaje de IA", descripciones ultragenéricas ("pueblo conocido por su fértiles tierras") o un tono excesivamente promocional o positivo son indicativos de que hay una IA detrás.

Los textos generados por IA pueden contener pistas que indican su origen sintético: un tono muy promocional, descripciones genéricas, etc.

Por otro lado, podría pensarse que detectar este tipo de contenido sería tan simple como ver si tiene o no referencias, pero la IA también es capaz de alucinarlas. Así lo explica el grupo en su página de Wikipedia, donde afirma que la IA puede inventarse fuentes u ofrecer fuentes existentes, pero totalmente offtopic.

Este artículo de la Historiografía Leninista fue escrito en su totalidad por una IA y citaba fuentes en ruso y húngaro que parecían reales, pero no existían. Fue eliminado. En este otro artículo del escarabajo Estola Albosignata se citaban fuentes francesas y alemanas reales que en ningún momento hablaban de dicho escarabajo. El artículo fue editado.

El reto de la IA. El uso de la IA no es malo en sí mismo, pero sí plantea un desafío si hablamos de credibilidad. Si la Wikipedia dejase que el contenido generado por IA campase a sus anchas, el contenido dejaría de ser fiable. Las IAs alucinan, se inventan información. Aunque parezca que todo tiene mucho sentido gracias a un uso correcto del lenguaje, es posible que los datos, las fechas, los nombres o los sucesos explicados no sean precisos.

Y esto no es solo cosa de la Wikipedia, sino que se corre el riesgo de que esa información falsa, inexacta o inventada se expanda por todo Internet. Y si hay información falsa en la Wikipedia, una de las grandes fuentes de datos de entrenamiento para los LLMs, es posible que los LLMs se entrenen con información imprecisa que provoque resultados más imprecisos, y así ad infinitum. De ahí que la labor de estos voluntarios sea tan importante.

Imagen de portada | Xataka

En Xataka | Descargar la Wikipedia: cómo bajar artículos o TODA la Wikipedia para leerla sin conexión



via Robótica e IA - Xataka https://ift.tt/rDzUXJ7

Google se apunta a la energía nuclear: usará reactores SMR para sus centros de datos de IA

Google se apunta a la energía nuclear: usará reactores SMR para sus centros de datos de IA

La proliferación de los grandes centros de datos para inteligencia artificial (IA) plantea un problema energético muy serio. Tanto, de hecho, que el Departamento de Energía de EEUU se está planteando la posibilidad de que las empresas que tengan grandes centros de datos dedicados al entrenamiento de modelos de IA instalen en sus proximidades una pequeña central nuclear que sea capaz de satisfacer sus necesidades energéticas.

No obstante, si el Departamento de Energía considera que la opción nuclear es la idónea para resolver las necesidades eléctricas de los grandes centros de datos para IA la contribución total de esta forma de energía al mix deberá ser mucho más alta. Y este plan, como es lógico, requiere afrontar grandes inversiones. Microsoft, de hecho, es una de las compañías estadounidenses que se están planteando seriamente apostar por la energía nuclear para abastecer sus centros de datos.

Esta estrategia, además, reforzaría la apuesta de EEUU por las fuentes de energía que no emiten gases de efecto invernadero. Lo que no está claro todavía es qué inversión asumirán las compañías de tecnología y qué subvenciones aportará el Gobierno. Sea como sea en Oracle parecen tener muy claro cuál es el camino que quieren seguir. Y es que Larry Ellison, el cofundador y presidente de la compañía, ha confirmado que Oracle ya tiene el permiso de la Administración necesario para construir una central nuclear que alimentará su próximo centro de datos para IA.

Google sigue los pasos de Microsoft, Amazon y Oracle

Google ha anunciado que ha firmado un acuerdo con el fabricante de reactores nucleares SMR (Small Modular Reactor) Kairos Power para construir siete reactores que suministrarán electricidad a sus centros de datos para IA. Su acuerdo persigue sumar 500 MW de electricidad libre de emisiones de gases de efecto invernadero en un momento en el que la demanda de energía de los centros de datos va en aumento. Además, el plan de estas dos empresas es que estos reactores SMR estén listos en 2030, una fecha que arroja dudas razonables porque está relativamente cerca para tratarse de un proyecto de esta magnitud.

El futuro de la energía de fisión está indiscutiblemente ligado a los reactores nucleares de tipo SMR

Sea como sea de una cosa podemos estar seguros: el futuro de la energía de fisión está indiscutiblemente ligado a los reactores nucleares de tipo SMR. Llevan en desarrollo algo más de dos décadas, y algunos de ellos están siendo diseñados de acuerdo con los principios y los requisitos establecidos para los equipos de fisión nuclear de cuarta generación. De hecho, están siendo ideados con el propósito de que no se vean lastrados por las deficiencias introducidas en las generaciones anteriores.

Para lograrlo deben cumplir necesariamente tres requisitos: tienen que ser sostenibles, requerir una inversión económica lo más baja posible, y, además, su seguridad y fiabilidad deben ser lo suficientemente altas para minimizar la probabilidad de que el núcleo del reactor sufra daños si se produjese un accidente. Para cumplir la primera condición es imprescindible extraer del combustible la máxima energía posible, y, además, se deben minimizar los residuos radiactivos.

En lo que se refiere a su coste la puesta en marcha y el mantenimiento de la central nuclear tienen que ser equiparables a los gastos que exigen otras fuentes de energía. Y en lo que se refiere a la seguridad es imprescindible que si se produjese un accidente no sea necesario tomar medidas de emergencia más allá de las instalaciones de la propia central nuclear. No cabe duda de que esta generación de reactores es mucho más atractiva que los diseños de segunda generación que han proliferado desde los años 70.

Imagen | Foro Nuclear

Más información | Google

En Xataka | Las centrales nucleares no van a resolver el problema de los centros de datos para IA. No por ahora



via Robótica e IA - Xataka https://ift.tt/9wAN8vX

La IA generativa tiene un enorme problema con el contenido sin licencia para entrenarse. Adobe está intentando solucionarlo

La IA generativa tiene un enorme problema con el contenido sin licencia para entrenarse. Adobe está intentando solucionarlo

Generar imágenes con IA es un problema que parece resuelto. Los vídeos son algo muy distinto, pero Adobe ya tiene su propuesta: se trata de Firefly Video Model, una herramienta de generación de vídeo por IA que comienza ahora su andadura, aunque de una forma mucho más visible. Una que lidia con el enorme problema que la IA tiene con los contenidos protegidos por derechos de autor.

Competidores no faltan. OpenAI (con Sora), Runway (Gen-3 Alpha), Google y Meta tienen ya sus propios desarrollos en este sentido, pero en Adobe afirman tener algo que los diferencia notablemente de sus competidores.

El modelo de Adobe es "comercialmente seguro". Y es que según Adobe, Firefly Video Model es "el primer modelo de vídeo disponible públicamente diseñado para ser comercialmente seguro".

Contenidos licenciados, la clave. Detrás de esa afirmación, algo importante: el modelo ha sido entrenado exclusivamente con contenido licenciado, lo que teóricamente evita posibles problemas de violación de los derechos de autor en los vídeos generados con la herramienta.

Demandas a gogó. Las empresas que desarrollan modelos de IA generativa se están enfrentando a un gran número de demandas con el mismo argumento: están entrenando esos modelos con contenidos protegidos por los derechos de autor. OpenAI y Microsoft, Stable Diffusion y Midjourney, Anthropic o Suno AI y Udio son ejemplos variados de cómo el mundo de la literatura, el arte o el cine ha acabado acudiendo a los tribunales para proteger los derechos de sus obras.

Periodico Periodico

La IA lo quiere todo. El saqueo de internet es un hecho consumado en la era de internet. El caso de Perplexity —que incluso se saltó barreras impuestas por los creadores de contenido— es especialmente notable. En realidad todas las empresas que desarrollan estos modelos —Google es otro buen ejemplo— se han apropiado de los contenidos "públicos"por el mero hecho de que estaban públicamente disponibles... y aunque sus creadores no hubieran dado consentimiento expreso para ello.

Te dejo si me pagas. Solo en los últimos tiempos hemos visto cómo algunas empresas, por miedo a sanciones de entidades reguladoras como la Unión Europea, ofrecen mecanismos para los usuarios a la hora de desactivar ese saqueo de sus datos. Meta e Instagram están en esa situación, pero mientras hay otro tipo de movimiento: el de las empresas de IA que firman acuerdos con proveedores de contenido para poder usarlos para sus modelos. Google pagó a Reddit y OpenAI llegó a un acuerdo con Prisa y Le Monde, por ejemplo, lo que permite a estas empresas entrenar sus modelos con contenidos licenciados de dichos grupos.

Prevenir, mejor que curar. El fin último de todos estos movimientos, Adobe incluida, es el mismo: evitar posibles demandas judiciales. En el caso de Firefly Video Model, la empresa ha partido de esos acuerdos para poder entrenar sus modelos con contenidos licenciados, lo que teóricamente la salva de futuras denuncias.

Despliegue gradual. De momento, eso sí, la disponibilidad de la herramienta de Adobe será limitada, y la herramienta está en fase beta y solo está accesible a una serie de usuarios que se han ido apuntado a una lista de espera. Adobe ya indicó hace unas semanas que esta tecnología se integrará en Premiere Pro, un paso que llevan preparando desde hace año y medio y del que hemos ido viendo avances especialmente llamativos.

Una herramienta más para la creatividad. La tecnología puede acabar siendo muy valiosa para productores de vídeo en todo tipo de ámbitos —el anuncio con Sora de Toys"R"Us lo demuestra— y aquí Adobe parece querer adelantar a sus competidores, sobre toto gracias a su integración con su software de edición de vídeo.

Apunta maneras. Aquella campaña de Toys"R"Us generó numerosas críticas, pero como dijo un creativo publicitario llamado Dan Goldgeier, "burlaos todo lo que queráis del anuncio de Toys"R"Us, pero esto es solo el principio". Y ciertamente es lo que parece. Y Adobe, desde luego, cree que esto es solo eso.

El principio.

En Xataka | Las funciones generativas de Photoshop ahora gastan créditos. Se veía venir: los centros de datos de IA son una ruina



via Robótica e IA - Xataka https://ift.tt/AjrgSeZ

Creíamos que estábamos viendo el futuro en el evento de Tesla. Ahora tenemos muchas dudas sobre el funcionamiento de Optimus

Creíamos que estábamos viendo el futuro en el evento de Tesla. Ahora tenemos muchas dudas sobre el funcionamiento de Optimus

Optimus fue uno de los protagonistas del evento ‘We, Robot’ de la semana pasada, en el que conocimos el Tesla Cybercab y la Cybervan. El robot humanoide caminó entre la multitud, atendió a los presentes, sirviendo bebidas en el bar, y bailó en un escenario iluminado al ritmo de remixes de ‘Release the Beast’ y ‘What Is Love’. Una parte de lo que vimos aquella noche podría no resultar tan sorprendente.

Elon Musk lleva tiempo destacando las ventajas de Optimus y su importancia para el modelo de negocio de la empresa que dirige. Lo hemos escuchado decir que el robot podrá ser un maestro, pero también cuidar niños, pasear mascotas, ser un amigo, cortar el césped e incuso salir para hacer las compras. Durante el último evento también sugirió que podría llegar en un futuro a un precio de entre 20.000 y 30.000 dólares.

¿Robots autónomos o controlados a distancia?

Como podemos ver en las redes sociales, algunas de las personas que asistieron a ‘We, Robot’ pasaron rápidamente de la sorpresa al escepticismo. ¿Estaban interactuando con máquinas impulsadas por inteligencia artificial (IA) o existía algún tipo de invención humana? “Le pregunté a Optimus, el camarero, si lo estaban controlando a distancia. Creo que básicamente me lo confirmó”, dijo uno de los asistentes en X.

El robot respondió de una forma que parecía poco artificial que estaba siendo “asistido por un humano” y que “todavía no es completamente autónomo”. Otro invitado inventó averiguar cuánta IA tenía una unidad que caminaba entre la gente. “No puedo revelar cuánto, eso es algo que tendrás que averiguar más tarde”, fue la respuesta. El famoso youtuber Marques Brownlee también se mostró confundido con Optimus.

Tesla Optimus 3 Tesla Optimus 3 Optimus en el evento 'We, Robot' de octubre

Tareas que son tan básicas para los humanos como caminar, manipular objetos o mantener conversaciones son auténticos desafíos para la robótica y la IA. El robot humanoide de Figure, uno de los más avanzados del momento, está trabajando en una fábrica de BMW en Estados Unidos, pero tanto sus movimientos como su velocidad son muy limitados en comparación con los humanos. Tesla parecía haber superado esa barrera.

Tesla Optimus 2 Tesla Optimus 2 Optimus en el evento 'We, Robot' de octubre

Lo acontecido durante el evento de la semana pasada no solo ha captado la atención del público y la prensa, sino del mundo de la inversión. Adam Jonas, un analista de Morgan Stanley, se mostró decepcionado y señaló que cree que los robos humanoides dependían de la intervención humana, por lo que se mostró realmente no significaba un “progreso significativo”. Bloomberg también abordó este tema, obteniendo más respuestas.

Tesla Optimus 24 Tesla Optimus 24 Tareas de entrenamiento con teleoperación humana

Un artículo publicado por el medio económico dice que “Tesla utilizó humanos para controlar de forma remota algunas capacidades de sus prototipos de robots Optimus”. En este sentido añadió que había empleados ubicados en otros lugares que se encargaron de supervisar las interacciones. Se trata de información que no ha sido confirmada por Tesla y que proviene de fuentes que hablaron en condición de anonimato.

Al momento de publicar este artículo no está claro qué nivel de asistencia habrían tenido los robots Optimus durante el evento. Dentro de esta disciplina las posibilidades son múltiples. Encontramos desde un control remoto “total” donde los robots repiten lo que hacen los operadores hasta asistencia en funciones puntuales que no necesariamente se traduce en una intervención total. La pregunta está en el aire.

Cabe señalar que la compañía liderada por Musk ha apostado por a captura de movimiento como una de las técnicas para mejorar las capacidades de sus robots. En concreto, ha estado contratando personas con salarios de unos 6.000 euros para que realicen actividades con trajes especiales y puedan ayudar a recopilar datos para impulsar los proyectos de ingeniería. El lado izquierdo de la imagen destacada muestra este tipo de actividad.

Imágenes | Tesla (1, 2)

En Xataka | La IA generativa parece estancada. Las Big Tech creen tener un as en la manga: "agentes" que hagan cosas por nosotros



via Robótica e IA - Xataka https://ift.tt/SCp7MZg

lunes, 14 de octubre de 2024

La IA generativa parece estancada. Las Big Tech creen tener un as en la manga: "agentes" que hagan cosas por nosotros

La IA generativa parece estancada. Las Big Tech creen tener un as en la manga: "agentes" que hagan cosas por nosotros

ChatGPT está muy bien. Es capaz de dar respuesta a nuestras preguntas, y aunque a veces cometa errores o se equivoque, él y sus rivales pueden llegar a ser muy útiles. El problema, claro, es que solo dan respuesta a esas preguntas. No son capaces de actuar en consecuencia.

Si le preguntas a ChatGPT o cualquier chatbot por la receta de unos espaguetis carbonara, te la ofrecerá sin problemas. El problema es que se quedará ahí: seremos nosotros los que tendremos que comprar los ingredientes y cocinarlos.

Es ahí donde entran los agentes de inteligencia artificial. No solo tienen esa respuesta, sino que pueden actuar en consecuencia. En nuestro ejemplo el agente de IA no solo nos diría cómo preparar ese plato, sino que sería capaz de crear una lista de la compra en un supermercado y hacer el pedido por nosotros. El agente de IA nos pedirá nuestra confirmación para que la compre se finalice, por supuesto, pero nos ahorrará tiempo. Y esa es la idea: que lo que se aplica al ejemplo de la receta se aplique a otros muchos casos y escenarios.

La carrera por los agentes de IA ya ha comenzado

En eso están las grandes de la tecnología. A diferencia de un simple "bot" que siguen una secuencia cruda de instrucciones, se supone que los agentes autónomos sn capaces de interactuar con su entorno, aprender de los comentarios que les hacemos y tomar decisiones sin la intervención constante de los seres humanos. Son muchas las empresas metidas en esa carrera; repasemos sus avances:

  • DeepMind. La compañía acaba de fichar a Tim Brooks, que hasta ahora había trabajado en OpenAI. Lo hizo como uno de los máximos responsables del desarrollo de Sora, el modelo de IA de vídeo que ya nos asombró hace unos meses. Ahora su trabajo se dirigirá a un escenario distinto: agentes de IA para videojuegos. La tecnología, llamada SIMA (Scalable Instructable Multiworld Agent), permitirá crear algo así como "NPCs inteligentes" como los que también está desarrollando NVIDIA. La intención final ni siquiera es esa, sino que "la investigación de agentes puedan utilizar los videojuegos como sandboxes para comprender mejor cómo los sistemas de IA pueden convertirse en algo más útil". O lo que es lo mismo: que luego esos avances se puedan aplicar al mundo real.
  • Anthropic. Hace meses la compañía presentó una nueva herramienta llamada "function calling" para su chatbot Claude que permitía que cualquiera crease un agente para funciones diversas como dar asistencia en la redacción de correos electrónicos o incluso un bot para comprar zapatos. La idea es relativamente sencilla: la herramienta puede analizar datos —nuestro historial de compras— con los que crea una serie de recomendaciones personalizadas de productos.
  • OpenAI. Durante la presentación de su modelo o1, los responsables de OpenAI confirmaron su objetivo de que los agentes de IA lleguen al mercado el año que viene. Kevin Weil, responsable de producto en la empresa, explicaba en Financial Times cómo "queremos que sea posible interactuar con la IA de la misma forma que interactuas con otro ser humano". Sam Altman explicó en julio cómo al parecer estos agentes autónomos serán parte integral de GPT-5, la futura y esperada versión de su gran modelo de lenguaje para su chatbot de IA generativa. Antes, en mayo, Sam Altman indicó en MIT Technology Review que lo que realmente queremos de la IA es que nos ayude. Eso sí, con una pega inquietante, porque ese sistema sería "un colega súper competente que lo sepa todo de nosotros".
  • Amazon. El gigante del comercio electrónico sigue en un extraño segundo plano en el ámbito de la IA, aunque todo apunta a que pronto ofrecerá novedades importantes. Trishul Chilimbi, uno de los responsables de sus esfuerzos en este campo, indicaba en Wired que ya están trabajando en agentes de IA que puedan recomendar productos e incluso añadirlos al carrito de la compra. Parece natural pensar que con todo lo que sabe Amazon sobre nuestros hábitos de compra, contar con un asistente especializado en esas dos tareas parece factible.
  • Microsoft. Mustafa Suleyman, que dirige la división de IA en la empresa, hablaba recientemente de cómo estamos en la primera de las tres fases de este despliegue de IA generativa. Por ahora los chatbots conversan con nosotros, pero lo próximo es que tengan memoria persistente para luego puedan convertirse en agentes de IA que hagan cosas por nosotros. Ya tienen prototipos en desarrollo, pero esos modelos experimentales están aún verdes. En realidad ya tienen agentes de IA funcionando —como otros proyectos, lo vimos con Devin— en su suite de soluciones para desarrolladores, pero el objetivo es llevar esas soluciones a muchos más escenarios.
  • Meta. En la reciente Meta Connect 24 pudimos comprobar cómo Mark Zuckerberg presentaba Llama 3.2, una nueva versión de su LLM que quiere conquistar aún más terrenos, móviles incluidos. La fusión de ese modelo y sus futuras versiones con las prometedoras Ray-Ban Meta han pensar en que a medio plazo podremos tener algo similar a lo que Google proponía con su Project Astra. Aquí la interacción con otras aplicaciones parece igualmente factible, y la empresa parece estar siguiendo de momento un camino algo más académico, al estilo de DeepMind. La prueba la tenemos en Cicero, un agente autónomo de IA diseñado para derrotar a los seres humanos en juegos complejos.
  • Apple. La compañía dirigida por Tim Cook comienza a desplegar ahora sus primeras funciones de IA en su plataforma Apple Intelligence, pero ya tiene algo de experiencia con automatización de tareas con soluciones como los atajos de iOS y es de esperar que esa interacción entre el sistema y las aplicaciones se extienda próximamente a otros dispositivos. En Bloomberg hablaban ayer del prometedor papel de la robótica y la domótica en el catálogo de Apple y allí decían, "el objetivo de la compañía es ofrecer su nueva plataforma Apple Intelligence para ofrecer una automatización supervitaminada en el hogar". Destacaban además un nuevo sistema de "App Intents" que permitirá que Siri pueda manipular características dentro de aplicaciones. No solo bajar o subir el volumen, no, sino probablemente —en el futuro— usar Siri para pedir un taxi con una sencilla orden de voz para que lo busque y simplemente tengamos que confirmar que estamos de acuerdo con la respuesta que nos da a esa orden.
  • Google. Lo que vimos de Project Astra hace unos meses precisamente marcaba ese futuro en el que no solo hablaremos con nuestro asistente-chatbot, sino que le pediremos que haga cosas con nosotros al poder interactuar con otras apps de nuestro móvil, por ejemplo. Teniendo en cuenta que DeepMind es parte de la compañía y ellos también están avanzando en este campo, es de esperar que los avances de unos acaben siendo importantes para los que realicen los otros.

Del dicho al hecho hay mucho trecho

Por supuesto, hay retos colosales a la vista. No solo está el hecho de que los agentes de IA puedan equivocarse y cometer errores como ya lo hacen los chatbots, que también: está el temor de que sean usados —inevitablemente— para escenarios tóxicos. Que puedan ser utilizados para realizar fraudes de todo tipo, por ejemplo. Eso, que ya estamos viendo con los deepfakes y el phishing generado por IA, podría llegar a un nuevo nivel con los agentes de IA.

Hay otros problemas, y el más acuciante para estas empresas es el de lograr demostrar que la IA puede ser mucho más útil. Aunque las plataformas y modelos de IA generativa han demostrado su utilidad en campos como la programación o el diseño, no acaban de cuajar por ejemplo entre los usuarios finales.

Parte de culpa es que el despliegue masivo de la tecnología está siendo exasperante: Google, Apple y Microsoft nos hicieron ver que a estas alturas la IA estaría por todos lados ayudándonos a hacer mucho más por mucho menos, pero las funciones que han llegado a nuestros móviles y ordenadores son de momento escasas o, en el caso de España y Europa, nulas.

Pero aquí los gigantes (y no tan gigantes) tecnológicos que no paran de invertir cantidades absurdas de dinero en IA necesitan demostrar que tienen productos útiles. Están quemando dinero a ritmos frenéticos, y si para sostener esas inversiones es necesario crear toda el hype y la expectación posiblecomo hace Sam Altman a menudo—, que así sea. Eso, por supuesto, es peligroso.

En Xataka | La revolución de la IA de Microsoft en Build tiene un objetivo: automatizarlo (casi) todo en la empresa



via Robótica e IA - Xataka https://ift.tt/1DnuWBe

Los chatbots de IA nos hablan como si fueran capaces de razonar. Es una gran mentira

Los chatbots de IA nos hablan como si fueran capaces de razonar. Es una gran mentira

Uno le pregunta algo a ChatGPT y parece como si realmente este chatbot fuera capaz no solo de entender lo que le estamos preguntando, sino que además contesta de forma humana. Como si pudiera razonar. En los últimos tiempos estamos viendo de hecho cómo empresas como OpenAI (con o1) o Microsoft (con Think Deeper) presumen de modelos que razonan, pero nada más lejos de la realidad.

Chatbots a examen. Seis investigadores de Apple quisieron poner a prueba tanto modelos de IA Open Source como modelos propietarios. La idea, comprobar sus limitaciones a la hora de "razonar". En el estudio resultante de tal proyecto analizan Llama, Phi, Gemma, Mistral, y también GPT-4o y o1.

Los benchmarks nos engañan. Entre las pruebas destaca GSM8K, un benchmark desarrollado por OpenAI y muy popular a la hora de evaluar la capacidad de razonamiento matemático de estos modelos de IA. GPT-3 (175B) puntuó con un 35%, y en la actualidad modelos mucho más pequeños de 3B de parámetros superan el 85% y algunos de los grandes LLM llegan a superar el 95%. ¿Significa eso que realmente razonan? Resulta que en realidad no.

Jugando a cambiar valores. Mehrdad Farajtabar, uno de los responsables del estudio, —otro de los que lo firman es Samy Bengio, hermano de Yoshua Bengio— explicaba en un hilo en X (Twitter) cómo habían concebido su análisis. Desarrollaron una herramienta llamada GSM-Symbolic con la que podían generar experimentos controlados con distintos valores y nombres para ver cómo se comportan los modelos de IA al cambiarlos.

Precisión discutible. Lo primero que descubrieron estos investigadores es que la precisión en el benchmark GSM8K era bastante variable. Pero Farajtabar destacaba cómo ese "razonamiento" era especialmente frágil. "Los LLM se mantienen muy sensibles a los cambios en los nombres propios (gente, comida, objetos) y más aún cuando se alteran los números. ¿Cambiarían las notas de los estudiantes en un examen de matemáticas en un 10% si solo cambiáramos los nombres de las cosas que se enuncian en los problemas?".

Gsm 1 Gsm 1 Añadir o quitar información afecta demasiado a la capacidad de "razonamiento" de los LLM, concluyeron estos investigadores.

Más difícil todavía. Si se eliminaba una frase del enunciado del problema, se añadía otra o se añadían dos, rendimiento caía y la variabilidad de los resultados en el test GSM8K aumentaba, lo que para estos investigadores hace que los modelos sean "cada vez menos fiables".

Vamos a engañar a la IA. Para girar aún más la tuerca, los investigadores decidieron añadir al problema una frase que parecía relevante pero que en realidad no contribuía al proceso de "razonamiento" o a la conclusión. Lo que ocurría era que los modelos reducían su rendimiento de forma notable. Esa información irrelevante provocaba una caída en su capacidad precisamente porque intentaban tomarla en cuenta, cuando en realidad si "razonaran" descubrirían que no tenía sentido hacerlo.

Tramposos al ajedrez. El estudio de estos investigadores es la confirmación de algo que analistas y expertos llevan tiempo destacando desde hace tiempo. Pruebas sencillas como poner a un chatbot a contar erres o a multiplicar matrices lo demuestran, pero también lo podemos ver si le pedimos a un chatbot de IA generativa que juegue al ajedrez: lo normal es que acabe haciendo movimientos ilegales.

Cuidado con fiarte de tu chatbot. Una vez el mensaje es claro para quienes usan estos chatbots, pero también para quienes los desarrollan. La capacidad real de razonamiento de estos modelos es un mito, y eso hace que por ejemplo crear agentes de IA fiables que actúan sobre cierta información puede ser muy contraproducente.

En Xataka | Uno de los pioneros de la IA ha echado un vistazo a la IA generativa actual y ha llegado a una conclusión: es tontísima



via Robótica e IA - Xataka https://ift.tt/PejNFZc