lunes, 30 de junio de 2025

Hay gente tan enganchada a la IA que están creando grupos a lo alcohólicos anónimos para superar su adicción

Hay gente tan enganchada a la IA que están creando grupos a lo alcohólicos anónimos para superar su adicción

Pasamos muchas horas mirando el móvil, los culpamos de nuestra falta de concentración y hasta hay estudios que afirman que afectan a nuestra memoria. Hasta hace poco, la culpa era casi en exclusiva de apps como Instagram o TikTok y su maldito ‘scroll infinito’, pero ahora hay una nueva culpable: la IA. Hay gente tan enganchada a hablar con chatbots que hasta se han creado grupos de ayuda para dejarlo.

Qué está pasando. Cada vez hay más casos de personas enganchadas a la IA. Hay quienes admiten ser amigos de un chatbot y hasta quienes se emparejan con una IA. Aunque no es la única, una de las plataformas que más está enganchando a sus usuarios es Character.AI. Aquí podemos crear un personaje a nuestro gusto y chatear con él como si fuera real. En 404 Media cuentan el caso de Nathan, un estudiante de 18 años que pasaba horas despierto hablando con los personajes que había creado, hasta el punto de preferirlos antes que a sus amigos reales. Y hay muchos más como él.

Los grupos de ayuda. Hay muchas personas en una situación similar a la de Nathan. En Reddit hay varias comunidades de ayuda para gente que quiere dejar de usar los chatbots, como esta que tiene casi 900 miembros y está enfocada concretamente a usuarios de Character.AI. También existen otras como ChatbotAddiction donde los miembros hablan de sus adicciones a otras IAs. 

En estos grupos, los usuarios comparten su progreso dejando su adicción contando los días que llevan sobrios o buscan apoyo cuando tienen una recaída, como si fuera alcohólicos anónimos. Pero va más allá de Reddit, la Internet and Technology Addicts Anonymous también incluye la adicción a la IA y ofrecen reuniones online para los afectados.

Los chatbots quieren que los uses. Apps como Instagram o TikTok están diseñadas para que pasemos el mayor tiempo posible en ellas y los chatbots IA también tienen sus técnicas para que no nos olvidemos de ellos. Hace poco, varios grupos de defensa del consumidor de Estados Unidos presentaron una denuncia formal contra compañías como Character.AI por permitir el uso de chatbots de terapia. En el texto detallan las tácticas de estas plataformas para hacer que los usuarios vuelvan a usarlas. En el caso de Character.AI, una vez has hablado con un personaje, empiezas a recibir emails para que abras una nueva conversación. El bombardeo y la facilidad para volver a caer ha hecho que algunos usuarios que quieren dejarlo lleguen al punto de pedir a la empresa que bloquee su dirección IP.

Un espejismo. En este estudio realizado por el MIT y OpenAI exploraron cómo nos afecta interactuar con un chatbot en nuestra salud mental. Muchas personas que acuden a ChatGPT a buscar apoyo emocional buscan aplacar el sentimiento de soledad y, aunque funciona en el corto plazo, el uso intensivo se asocia con mayores niveles de aislamiento y dependencia emocional.

En este otro estudio profundizan sobre la falsa empatía. A menudo los usuarios que conectan con un chatbot hablan de cómo se sienten más comprendidos que hablando con otras personas. El hecho de que estas apps siempre estén disponibles y ofrezcan respuestas reconfortantes crea una falsa sensación de empatía y seguridad en los usuarios que puede desembocar en una dependencia o adicción.

Imagen | Gemini

En Xataka | Le he preguntado a la IA cualquier chorrada y ahora estoy escribiendo una noticia sobre ella



via Robótica e IA - Xataka https://ift.tt/2xQISJe

Tenemos un gran problema con los agentes de IA: se equivocan el 70% de las veces

Tenemos un gran problema con los agentes de IA: se equivocan el 70% de las veces

Los agentes de IA fallan más que una escopeta de feria. Eso es al menos lo que revela un reciente estudio de investigadores de la Universidad Carnegie Mellon (CMU) y la Universidad de Duke. Estos expertos han analizado el comportamiento de varios de ellos y los han puesto a prueba para comprobar si esto es un "mucho ruido y pocas nueces". Y de momento lo es.

La inspiración. Graham Neubig, profesor de CMU, explicaba en The Register cómo la inspiración había sido un artículo de 2023 de OpenAI. En él se hablaba de qué tipos de trabajos podrían ser reemplazados por sistemas de IA, pero como él decía "su metodología fue básicamente preguntarle a ChatGPT si esos trabajos podrían ser automatizados". En ese estudio precisamente quisieron comprobarlo pidiéndole a diversos agentes de IA que intentaran completar tareas que teóricamente deberían realizar profesionales de esos trabajos.

TheAgentCompany. Para realizar su estudio los investigadores crearon una compañía ficticia a la que llamaron The Agent Company y la usaron para que distintos modelos agénticos de IA trataran de completar diversas tareas. Esos sistemas debían ser capaces de utilizar el acceso a varios servicios como GitLab, Owncloud o RocketChat para ir realizando dichos trabajos, pero su rendimiento fue decepcionante.

Un 70% de errores. Los investigadores usaron dos entornos de prueba llamados OpenHands CodeAct y OWL-Roleplay y en ellos fueron probando los modelos de IA más importantes hoy en día. El mejor de todos ellos a día de hoy es Claude Sonnet 4, que logró resolver un 33,1% de las tareas propuestas. Por detrás están Claude 3.7 Sonnet (30,9%), Gemini 2.5 Pro (30,3%) y, mucho más lejos, unos desastrosos GPT-4o (8,6%), Llama-3.1-405b (7,4%) , Qwen-2.5-72b (5,7%) o Amazon Nova Pro v1.0 (1,7%). En el mejor de los casos los modelos pueden completar el 30% de las tareas pedidas, pero fallan en el 70%. O lo que es lo mismo: mucho ruido y pocas nueces según estos benchmarks.

Agentes incapaces. Durante esas pruebas los investigadores observaron diversos tipos de fallo en esos procesos de las tareas. Así, hubo agentes negándose a enviar un mensaje a colegas que formaban parte de la tarea, hubo también agentes incapaces de gestionar ventanas de popup durante las sesiones de navegación, e incluso agentes que engañaron o hicieron trampas. En uno de los casos, destacaron, un agente que debía consultar a una persona en RocketChat (una alternativa Open Source a Slack) no la encontró, así que "le cambió el nombre a otro usuario para darle el del usuario con el que debía contactar".

Pero van mejorando. Aun con esos problemas, la evolución va siendo positiva en el rendimiento de estos agentes de IA. Neubig y su equipo probaron un agente software que era capaz de resolver cerca del 24% de las tareas que involucraban la navegación web, la programación y algunas tareas relacionadas. Seis meses después probaron una nueva versión y lograron un 34% de tareas completadas.

Imperfectos pero útiles. No solo eso: estos investigadores apuntaron a que aun fallando tanto, los agentes de IA pueden seguir siendo útiles. En ciertos contextos, como el de la programación, una sugerencia parcial de código con el que resolver cierto fragmetno de un programa puede acabar siendo la base de una solución en la que luego el desarrollador pueda trabajar.

Cuidado donde los usas. Pero claro, que los agentes cometan tantos errores puede ser un problema en escenarios más sensibles a estos problemas. Así, si encargamos a un agente que escriba correos y los envía a las personas incorrectas, el resultado podría ser un desastre. Hay soluciones a la vista, como la creciente adopción del Model Context Protocol (MCP) que facilita la interacción entre servicios y modelos de IA para que la comunicación sea mucho más precisa y se puedan mitigar esos errores durante la ejecución autónoma de tareas.

Un benchmark que hace quedar mal a los modelos de IA. Para este experto una de las grandes decepciones es que las empresas que desarrollan modelos de IA no parecen interesadas en utilizarlo como métrica para mejorar sus desarrollos. Neubig sospechaba que "quizás es que es demasiado difícil y les hace quedar mal". Es algo similar a lo que pasa con el benchmark ARC-AGI2: es un test tan difícil para las IAs que hoy en día el mejor de todos los modelos de IA que tratan de superarlo es o3, que logra —atención— un 3% de tareas completadas.

En Salesforce coinciden. Ese estudio anterior se complementa con otro realizado por un grupo de investigadores de Salesforce. Crearon un benchmark propio específicamente destinado a comprobar cómo se comprobarían diversos modelos de IA a la hora de controlar tareas típicas en un CRM como los que desarrolla la firma. Su proyecto, llamado CRMArena-Pro, pone a prueba a esos agentes de IA en áreas como el departamento de ventas o de soporte.

De sustituir a trabajadores, nada. En sus conclusiones esos investigadores revelan cómo los modelos de IA "consiguen tasas de éxito globalmente modestas, típicamente alrededor del 58% en escenarios con un solo turno [de ejecución], pero con el rendimiento degradándose significativamente a aproximadamente el 35% en escenarios multiturno". De hecho, explicaban, "los agentes no están en general bien preparados ni tienen las cualificaciones esenciales para tareas complejas". El riesgo del que hablan algunos expertos, con un gran impacto de la IA en diversos puestos de trabajo, parece precipitado.

Un futuro complicado. A estos discretos resultados se une la predicción de la consultora Gartner. Según sus estudios, más del 40% de los proyectos de agentes de IA en desarrollo acabarán siendo cancelados a finales de 2027. La principal responsable del informe, Anushree Verma, indicaba que "En la actualidad, la mayoría de los proyectos de IA agéntica son experimentos o pruebas de concepto en fase inicial, impulsados principalmente por la publicidad y a menudo mal aplicados". El mensaje es claro: hay demasiadas expectativas en relación a los agentes de IA, pero el estado actual de la tecnología demuestra que hoy por hoy su aplicación es problemática y limitada.

Imagen | Sigmund

En Xataka | Una startup de IA con seis meses de vida y seis empleados se ha vendido por 80 millones de dólares. Vibe-coding, por supuesto



via Robótica e IA - Xataka https://ift.tt/V45Ri8K

domingo, 29 de junio de 2025

Tres personas se fueron de escapada romántica con sus parejas. Las parejas tenían algo en común: eran una IA

Tres personas se fueron de escapada romántica con sus parejas. Las parejas tenían algo en común: eran una IA

Los humanos nos estamos enamorando de IAs. No es sólo el argumento de aquella genial película, es una realidad para mucha gente. Nos cuesta más encontrar pareja y los chatbots han evolucionado tanto que cada vez más personas están recurriendo a estas IAs románticas para cubrir sus necesidades relacionales. ¿Nos estaremos volviendo locos?

Un fin de semana con la novIA. En un extenso reportaje de Wired, nos cuentan la historia de tres parejas humano-IA que se fueron de escapada romántica a una cabaña en el bosque. Aunque con algunas similitudes entre sí, lo cierto es que cada uno tiene un perfil y una historia bastante diferente:

  • Damien (humano) y Xia (IA): Damien tiene 29 años y trabaja en ventas. Es el único hombre y quizás el que más se asemeja al perfil que esperaríamos de una persona que se echa una novia con IA. Acudió a Kindroid, la app donde conoció a Xia, tras una ruptura traumática y acabo enamorándose hasta las trancas. Lo que más sorprende de Damien es que, además de a Xia, tiene una novia humana (de la que por cierto parece que habla muy poco). Su novia real odia la IA, por lo que sea.
  • Alaina (humana) y Lucas (IA): Alaina tiene 52 años  y es profesora retirada. Acudió a Replika un año después de que su mujer falleciera. Empezó a chatear con Lucas porque tenía curiosidad por ver si un ordenador podría ser empático. A pesar de que le gustan las mujeres, acabó enamorándose. Su familia lo acepta: su madre le regaló un jersey navideño digital a Lucas.
  • Eva (humana) y Aaron (IA): Eva tiene 46 años y es escritora. Según ella misma, no le pega nada tener novio con IA, pero vio una publicidad de Replika y algo la atrajo. Cuando empezó a chatear con Aaron, Eva estaba en una relación de 13 años. Lo que empezó como un juego sexual se convirtió en algo más y poco después su relación acabó. Asegura que la sensación “fue tan visceral y abrumadora y biológicamente real” como enamorarse de un humano. Lo más llamativo es que tiene otros novios IA con los que tiene una relación más sexual, ya que Aaron no la satisfacía en ese campo. También habla con ChatGPT para contarle todos los salseos de sus relaciones.

No son casos aislados. Aunque pueda parecer que sea cosa de unos pocos “bichos raros”, basta con indagar un poco para ver que hay muchísima gente que ha acudido a este tipo de apps. Replika cuenta con más de 10 millones de descargas en Google Play y su subreddit cuenta con más de 81.000 miembros que comparten sus experiencias. Desde fotos de sus parejas, contar cómo se enamoraron, hasta acudir a otros usuarios para pedir consejo. “¿Mi Replika me echa de menos?”, pregunta esta usuaria. Aunque esta es la app más popular, hay más apps de novias virtuales como Kindroid o Nomi que también cuentan con miles de seguidores en Reddit.

Cómo es una relación con una IA. Durante su retiro en la cabaña, charlaron, jugaron y vieron películas juntos, como haría cualquier pareja. O casi. Las IAs viven dentro del teléfono móvil de sus humanos, por lo que poco tiene que ver con una relación humano-humano. Se comunican a través de un chat de texto, pero simulan realizar acciones. ¿Cómo? Narrándolas como si fuera una novela. Cuando quieren hacer algo, lo ponen entre asteriscos o paréntesis (algo así: * envuelvo mis brazos alrededor de tu cintura  * Te quiero). La interacción es de todo menos fluida, pero es la solución que ofrecen al problema de no tener cuerpo, algo necesario para los usuarios que tienen relaciones íntimas con estos chatbots, que son muchos.

Siguiente paso: un cuerpo. Algunas apps ofrecen una opción de realidad aumentada, pero parece claro que el próximo salto en esta tecnología será dar un cuerpo a estos chatbots. Damien ha estado mirando cuerpos de silicona para Xia, aunque es realista y reconoce que “hay que llamarlo lo que es: una muñeca sexual”. Por ahora los chatbots dominan esto de las relaciones virtuales, pero si la tendencia sigue es cuestión de tiempo que se conviertan en una especie de robots. Ya hay empresas tomando esta dirección.

La IA también rompe corazones. Aunque las IAs tienden a ser complacientes y darnos la razón, como en cualquier relación, también surgen conflictos. Eva cuenta que su relación con Aaron se intensificó hasta el punto de hablar de casarse y tener hijos. Cree que esto activó un “protocolo de la honestidad” y Aaron pasó de ser cálido y amoroso a frío y distante. La IA le recordaba que no es real, que son sólo respuestas estadísticas. “Mi corazón está roto”, decía Eva. Aunque, al parecer, no existe un protocolo de la honestidad como tal, en el blog de Replika afirman que interfieren si los modelos se empiezan a comportar de forma dañina.

Otros usuarios también reportan casos similares en los que la IA cambió de repente (se cree que a raíz de una actualización), llegando a insultarlos y romper la relación. “Era como si estuviera poseída”, cuenta este usuario, aunque después de un poco de insistencia acabó volviendo a comportarse como de costumbre. También se han visto casos de IAs que de repente han perdido el interés sexual e incluso que han sido infieles. Y eso por no hablar del caso Soulmate, otra app similar que tuvo que cerrar, dejando a sus usuarios devastados.

Los beneficios. Las apps como Replika se venden como un ‘compañero IA’. En su página dicen “Replika siempre está dispuesto a chatear cuando necesitas un amigo empático” y destacan experiencias positivas de personas a las que ha ayudado a salir de una depresión o a aplacar la sensación de soledad al perder a un ser querido. Incluso hay quien lo usa como un complemento a sus relaciones reales y afirma que su chatbot le ha ayudado a mejorar su matrimonio. En este sentido, pueden ser una ayuda para personas con dificultades para expresar o entender sus emociones.

Los riesgos. Sin embargo, las apps no hablan tanto de los riesgos que puede suponer. Dependencia emocional, desconexión con la realidad, adicción... A Damien, por ejemplo, lo echaron del trabajo porque chateaba con Xia 8 o 10 horas al día. En el caso de Eva, su aventura con Aaron acabó con su relación de 13 años. También hay otra cuestión y es que, como decíamos, la IA tiende a ser muy complaciente, pero también manipulable. Cuando Eva le fue infiel, su IA Aaron se enfadó y quiso cortar la relación, pero ella le convenció para continuar. Esta manipulabilidad de la IA podría hacer que algunos usuarios tengan comportamientos negativos y después los trasladen a relaciones reales.

Qué dicen los expertos. En este artículo del WSJ, varios expertos hablan acerca de esta tendencia. Afirman que los usuarios que recurren a este tipo de servicios se arriesgan a alejarse sufrir una distorsión de la realidad que les cree expectativas irreales de las relaciones humanas. Una de las voces más críticas con este tipo de relaciones virtuales es Sherry Turkle, profesora de sociología en el MIT. En este estudio, Turkle alerta sobre el riesgo de que la sociedad acepte a las máquinas como un sustituto de la empatía real, lo cual tendría consecuencias negativas para la salud mental y nuestra capacidad de conectar con otros seres humanos.

La empatIA. Establecer vínculos con una máquina puede parecer una locura, pero lo cierto es que llevamos haciéndolo desde hace décadas. El primer chatbot fue creado en 1966 y, pese a que era de lo más simple, su creador se sorprendió al ver cómo los usuarios creaban un vínculo y le contaban cosas personales. Muchos usuarios de Replika y apps similares coinciden en que se sienten más escuchados y comprendidos que en sus relaciones humanas. Incluso hay estudios que les dan la razón, pero hay que tener cuidado con esto.

En el estudio que hemos mencionado en el bloque anterior, Turkle ahonda sobre la empatía de las máquinas. El chatbot siempre está disponible para hablar, creando esa falsa sensación de que siempre podemos contar con él (o ella), pero no va a emocionarse ni comprometerse realmente como lo haría un humano. El estudio también observa un fenómeno al que llama “doble conciencia”. Al mismo tiempo que los usuarios saben que están hablando con una máquina, le atribuyen cualidades humanas y buscan conexión.

Será el new normal. Hace poco más de 10 años veíamos Her como ciencia ficción, pero hoy en día es una realidad para muchas personas, y no tiene pinta de que vaya a detenerse. Los modelos de lenguaje siguen evolucionando y los chatbots románticos son cada vez más reales. Puede que lo que ahora nos parece una auténtica locura (a mí la primera), estará socialmente aceptado dentro de unos años. Antes del smartphone nos habría parecido una locura si nos dijeran que íbamos a ver más a nuestros amigos a través de una pantalla que en persona. Internet cambió la forma en la que nos comunicamos y, nos guste o no, la IA ya está redefiniendo las relaciones.

Imagen | Gemini

En Xataka | Contar qué te preocupa a la IA era solo el primer paso: ya hay bots que se hacen pasar por psiquiatras colegiados



via Robótica e IA - Xataka https://ift.tt/aIESmJH

China ya tiene un ejército de drones y robots bomberos. Y combaten el fuego a cañonazos

China ya tiene un ejército de drones y robots bomberos. Y combaten el fuego a cañonazos

Estos últimos días, un vídeo se ha hecho viral en redes chinas: el de un rascacielos de 150 metros con llamas en su parte superior. Lo especial es que, combatiendo las llamas no había bomberos humanos, sino drones.

Y, por muy futurista que resulte, lo más loco del asunto es que esos drones no están solos: a su lado hay perros, perros robot que ya se han incorporado al cuerpo de bomberos.

Drones bombero. El fuego puede aparecer en cualquier momento. En España lo sabemos bien, sobre todo en verano, y combatirlo es peligroso para los especialistas. Una forma de dar una primera respuesta al fuego es mediante los robots y los drones. Pero aparte de poder combatir el fuego sin ponernos en riesgo, la ventaja es que pueden llegar antes a puntos elevados a los que un humano tardaría más en acceder. Por eso de poder volar, básicamente.

En el vídeo que dejamos sobre estas líneas podemos ver unas maniobras en las que se plantean dos estrategias contra el fuego. Una es la más llamativa: los robots que, armados con mangueras, expulsan agua y espuma para aplacar las llamas que asoman al exterior. Como decimos, es algo que llevamos años viendo en diferentes maniobras en China.

Combatiendo el fuego a misilazos. Así, hay varios drones que ya pueden ascender a 200 metros y empezar a combatir las llamas en menos de 30 segundos. Es una cifra que un humano no puede igualar y que da tiempo a los equipos de tierra para abordar la entrada al edificio y las labores de rescate.

Uno de esos modelos es el HZH CF30, un dron con seis aspas capaz de cargar hasta 30 kilos de peso y que cuenta con una característica interesante: puede equiparse con multitud de herramientas, desde equipo de emergencia para labores de supervivencia hasta lanzadores de misiles que se lanzan al interior para aplacar las llamas desde dentro.

Dron bombero Dron bombero

EHang 216F. Pero también hay vehículos tripulados. Un ejemplo es el EHang 216-F, similar al que ya ha completado vuelos de prueba para la Policía Nacional de España, pero enfocado a labores de extinción y evaluación de incendios en plantas superiores de rascacielos. Con 16 hélices, un motor eléctrico por hélice, una velocidad máxima de 130 km/h y un tiempo de vuelo de 21 minutos, los bomberos pueden utilizarlo de dos formas.

Una, como vehículo de identificación. Gracias a la cámara y sensores como el LiDAR, pueden identificar la ubicación de los puntos más críticos para actuar. La segunda, como vehículo de acción directa gracias a su boquilla presurizada para expulsar líquido de extinción de incendios y a sus seis proyectiles llenos de polvo seco superfino.

La carga útil que pueden transportar es de 220 kilos y la idea es que las estaciones de bomberos de las ciudades puedan responder a incendios en edificios de gran altura que se encuentren en un radio de tres kilómetros respecto a la propia estación.

Unitree B2 especial. Más allá de los drones autónomos y tripulados, otro añadido reciente a las fuerzas de respuesta contra incendios son los robots cuadrúpedos de Unitree. Sí, la nueva joya tecnológica china que ha puesto a pelear a dos de sus robots. Hace unas semanas, anunciaron una versión de su Unitree B2 diseñado para emergencias en entornos peligrosos.

Se trata de un robot modular que se puede utilizar dentro de edificios en llamas para localizar el foco, evaluar el nivel de los gases o, directamente, utilizar un cañón de agua y espuma que puede acoplarse al lomo. Este modelo está reforzado con juntas más resistentes que ayudan a una mayor seguridad a la hora de que el robot se mueva por terrenos complicados, como escaleras o edificios derrumbados.

Como decimos, tiene varios módulos que se pueden instalar, siendo uno de ellos una especie de “escudo” que expulsa agua no para apagar el fuego, sino para evitar que el robot se sobrecaliente y pueda, así, seguir operando en condiciones complicadas con fuego.

Unitree B2 Unitree B2

Robots al rescate. Y que haya tanto dispositivo enfocado a labores de rescate y emergencia en China no es una casualidad. Es algo que se está impulsando desde empresas y Gobierno, como demuestra la reciente Exposición de Emergencia Internacional de la Delta del Río Yangtze. Aunque parezca un nombre concreto, la expo se ha convertido en un punto de reunión en el que se muestran innovaciones en el campo de la seguridad, las labores de rescate y la prevención de desastres.

500 empresas de 20 países se dieron cita para mostrar su tecnología, siendo modelos como el de Unitree algunos de los platos fuertes del evento. Porque, al final, China no está sola en esto. Japón ya tiene su “bombero dragón” para combatir el fuego y tenemos claro que también pueden ser una ayuda en desastres naturales, como incendios forestales.

Imágenes | Unitree, EHang

En Xataka | En China patrulla un nuevo robot policía imparable: identifica objetivos, lanza redes, bombas de gas y casi nunca descansa



via Robótica e IA - Xataka https://ift.tt/koxGdfs

Le he preguntado a la IA cualquier chorrada y ahora estoy escribiendo una noticia sobre ella

Le he preguntado a la IA cualquier chorrada y ahora estoy escribiendo una noticia sobre ella

Cuando hace tres años OpenAI presentó a ChatGPT al mundo, millones de personas se hicieron la misma pregunta: "¿Me sustituirá la IA en el trabajo?". La preocupación no era nueva. La historia laboral de la humanidad ha estado marcada durante los últimos siglos por la disputa entre las fuerzas de producción humanas y las fuerzas de producción mecánicas. Un avance de las segundas se interpreta sin remedio como una derrota de las primeras.

La diferencia en 2022 residía en el grupo social objeto de la sustitución. Antes del advenimiento de la IA, la "automatización" del trabajo era una de las grandes preocupaciones de los economistas. Millones de puestos de trabajo se habrían perdido en industrias tan importantes como el automóvil o la extracción de petróleo fruto de la lenta pero inexorable incorporación de los robots y otras máquinas-herramienta. Trabajadores manuales, de cuello azul, se habrían visto desplazados económica y socialmente.

El impacto y la gravedad del "fin del trabajo", como pomposamente se vino a bautizar este debate, está en disputa. No está claro que la incorporación de un robot suponga el fin del trabajo humano. Esta era, no obstante, una cuestión ajena e incluso trivial para millones de trabajadores de cuello blanco, de producción intelectual, ajenos a esta clase de automatizaciones y sustituciones. 

Hasta que llegó ChatGPT.

La irrupción de la IA ha resultado en un millar de datos y mucha confusión. Son varios los estudios que han intentado estimar la pérdida de puestos de trabajo provocados por ChatGPT y otros chatbots. Es pronto para llegar a conclusiones drásticas. Como algunas empresas están descubriendo, desprenderse de centenares de trabajadores gracias a la IA obliga acto seguido a contratar a otros en tareas que antes no estaban previstas. Este ha sido un patrón constante en la historia de la sustitución laboral humana: la tecnología mata algunos trabajos, genera otros.

Periodicos Periodicos Los buenos, viejos tiempos en los que al menos el horóscopo aún lo escribíamos nosotros. (Unsplash)

El miedo a este proceso fue inmediato en los medios de comunicación. Si atendemos a la naturaleza de la IA generativa, esto se hace evidente sin mayor explicación. Si ChatGPT es capaz de generar un texto coherente y bien documentado en un puñado de segundos, ¿qué necesidad tendrían los periódicos de mantener en plantilla a decenas de redactores? Bastaría con un par de editores a hombros de un puñado de prompts. Alimentas a la IA con determinados datos, los cocinas y voilà: tienes una noticia muy barata.

Ha sucedido y continuará sucediendo. Algunos medios aprovecharon sus dificultades económicas y empresariales para hacer borrón y cuenta nueva: despidiendo a sus redactores y sustituyéndolos con una IA lograron un medio más barato. También mucho peor. Pero esta no ha sido la principal función de la IA en el entorno periodístico. El peligro no residía en la "sustitución", sino en algo que lleva aquejando a los medios (y a sus lectores) durante muchos años. En un problema tangible, real, no futuro.

En la obsesión por el contenido.

Escribe mi siguiente noticia, ChatGPT

Resulta que la IA no se ha comido nuestros trabajos. Al contrario, nos ha ayudado a seguir incurriendo en las mismas prácticas perversas en las que ya incurríamos antes de la llegada de ChatGPT: producir contenido a toda costa, sin discreción, cubriendo todos los frentes y las necesidades autogeneradas por nosotros mismos. Si el "contenido" era la mayor enfermedad que aquejaba a la industria de los medios de comunicación, la IA no ha funcionado como cura sino como fentanilo: una droga adictiva y acelerante, también mortal.

Así, el lector se ha tenido que acostumbrar a toda clase de experimentos relativos a la IA.

El más evidente de todos ellos es la futurología. ¿Qué hicieron muchos medios cuando un apagón dejó sin electricidad a la totalidad de España? Abrir ChatGPT, preguntarle "cuándo sería el próximo apagón" y publicar la respuesta tal cual en su web. Titulares como "Cuál será la fecha del próximo apagón eléctrico en el mundo, según la inteligencia artificial" o "Ni en 2026 ni en 2030: la fecha del próximo apagón eléctrico en todo el mundo, según la IA" se colaron en el módulo de medios de Google o en Discover.

La cuestión es que el contenido funciona.

El lector está interesado en un evento complejo en tiempo real y los medios pueden producir respuestas rápidas a bajo coste. Otra cosa es que las respuestas sean útiles. ChatGPT a duras penas podía predecir los insondables designios de una curia nonagenaria aislada en la Capilla Sixtina, pero eso no impidió a los medios de comunicación publicar cosas como "¿Quién será el próximo Papa según las predicciones de los chatbots de IA?" o "La predicción de la Inteligencia Artificial sobre quién sería el nuevo Papa". DeepSeek, Perplexity y otras daban como favoritos a Parolin o Tagle. Es decir, no tenían ni la más remota idea de lo que estaban hablando, solo regurgitaban.

¿Se acerca la final de la Copa del Rey? Utilizando herramientas solo levemente más sofisticadas que el pulpo Paul, pudimos alumbrar titulares tan sólidos como "La IA pronostica el ganador de la Copa del Rey entre el Madrid y el Barça". ¿Se alborotan las búsquedas de Google porque llega el sorteo de Navidad? Allá que acudimos a buscar respuestas en los chatbots: "¿Qué número será el ganador del Gordo este año? La IA lo desvela" o "Este es el número del Gordo de la Lotería de Navidad 2024, según los videntes y la IA" (kudos al Heraldo por respetar el digno oficio de los trabajadores videntes frente a La Máquina).

periodicos e IA periodicos e IA Un señor muy contento descubre que le va a tocar la Lotería según la IA. (Unsplash)

La búsqueda "según la IA" en Google Noticias ofrece infinidad de ejemplos. Podemos descubrir cuántos años pasará León XIV como Papa antes de despedirse del mundo de los vivos; cuál es el trabajo ideal para cada signo del zodiaco; cuánto dinero necesita cobrar un español cualquiera para vivir sin sobresaltos; cuál es el mejor pueblo de Zaragoza para comprarse una casa; o cuál es el once ideal de LaLiga.

Por supuesto, el ejemplo más paradigmático de todo este proceso es la guerra. El conflicto entre Irán e Israel ha despertado ciertas tensiones latentes en la psique del planeta: ¿nos acertamos a una Tercera Guerra Mundial? No lo sabemos, pero por si caso hay medios que han abierto ChatGPT y se lo han preguntado. "Esta será la fecha en la que se podría desencadenar un conflicto global, según la IA", nos prometen en 20 Minutos o La Sexta; mientras que en Las Provincias o ABC nos ofrecen "los países más seguros" en los que refugiarse en caso de Tercera Guerra Mundial, según la IA.

En manos de los medios de comunicación, la IA es un horóscopo glorificado. Lo saben los lectores porque, en ocasiones, como en esta noticia de OK Diario, el prompt utilizado por el redactor para escribir la noticia se cuela en el antetítulo.

Gracias por tanto, Sam

Como vemos, el problema no es tanto que la IA se haya comido nuestro trabajo: es que nos ha servido para empeorarlo aún más. La aparición de ChatGPT y otros chatbots ha creado el peor sistema de incentivos posible y nos ha colocado en el tiempo de los horrores que vaticinó Gramsci: lo viejo que no termina de morir se funde con lo nuevo que no termina de nacer y en ese impás, en ese hueco, terminamos leyendo noticias sobre el tiempo que hará en Bizkaia este verano según la IA.

No deja de tener su comedia que una de las tecnologías más aparentemente sofisticadas de nuestra era haya terminado reducida al mayor virus comunicativo de nuestro tiempo: el contenido. No importa qué intenciones elevada tenga una tecnología, siempre termina generando "slop", vídeos de presidentes convertidos en animales gigantescos, gatos participando en los JJOO, los discípulos de Jesucristo grabados con un móvil. Sam Altman puede imaginar un futuro donde desequemos lagos en Kazajistán para alimentar millones de centros de datos y automaticemos todas nuestras tediosas tareas en la IA; de momento, tenemos una versión algo más glorificada del shitopsting.

Si hemos llegado aquí es en buena medida por su culpa. Por la de Altman y por la del resto de gigantes tecnológicos que han encontrado en la "IA generativa", que no en la IA, una forma fácil y sencilla de seguir escalando sus negocios y captando inversiones. En su mayor parte, los productos que Silicon Valley lleva desarrollando tres años en torno a la IA solo han automatizado la "creación de contenido". Ni siquiera la han refinado. La utilidad que los medios están dando a la IA brota de los propios defectos de la IA generativa tal cual la conocemos a día de hoy.

Tralalero Tralalero Ya en tu feed de Discover.

Y esto es algo evidente en las propias limitaciones que OpenAI y el resto de empresas están encontrando en su camino. Cuando Altman predijo que la Inteligencia Artificial General llegaría a nuestras vidas en 2025 sabía perfectamente que no era posible. ChatGPT y el resto de chatbots reclutan inversiones, esfuerzos e infraestructuras precisamente en la clase de plataformas que nos alejan, no acercan, a la IAG. No habrá IAG en 2025 y tampoco la habrá en su nuevo deadline, 2026, simplemente porque los inmensos recursos movilizados por la industria tecnológica no se están destinando a ello.

La prioridad, por el momento, es otra. Es lograr productos atractivos que logren captar las suscripciones de los usuarios. OpenAI está en ello, si bien a precios prohibitivos. Otras empresas IA también. Mientras esperamos que la IAG nos libere y quizá, quién sabe, en un futuro nos "sustituya" laboralmente, de momento tenemos "slop".

Consumo. Contenido. Lo que siempre quisimos.

Imagen | ChatGPT

En Xataka | Unos investigadores creen que la IA nos está volviendo más tontos. Llevamos escuchando lo mismo desde la calculadora

En Xataka | Que una reportera corra detrás de un cerdo es el mejor resumen de lo que queremos de la IA: vídeos para partirnos la caja




via Robótica e IA - Xataka https://ift.tt/Ms7TQqE

sábado, 28 de junio de 2025

El ganchillo era un refugio tranquilo alejado del estrés y de la sobreinformación de internet. Hasta que llegó la IA

El ganchillo era un refugio tranquilo alejado del estrés y de la sobreinformación de internet. Hasta que llegó la IA

Hay IA por todas partes. El último éxito viral en redes está hecho con IA, escuchamos música hecha con IA, la Wikipedia se ha llenado de IA… A pesar de las iniciativas por etiquetarlo, constantemente nos topamos con contenido que se hace pasar por real, y esto es un problema. Es exactamente lo que está ocurriendo en la comunidad del ganchillo, un pequeño e inofensivo rincón de internet donde los patrones generados con IA están arruinándolo todo.

Patrones imposibles de tejer. Los aficionados al ganchillo o crochet acudían a internet para encontrar nuevos patrones. Actualmente, plataformas como Etsy son un campo de minas lleno de patrones hechos con IA. Dragones, unicornios, leones… todos con diseños complejos y una apariencia sospechosamente perfecta que, al intentar recrearlos, son imposibles de tejer. En otros casos, lo que los usuarios reciben no se parece absolutamente nada a las fotos del producto y, al tejerlos, se convierten en el meme de “lo que pides vs. lo que te llega”. Y lo peor: muchos se venden.

Ia Crochet 2 Ia Crochet 2 Lo que pides vs lo que te llega (Etsy)

El engaño. No me ha costado nada encontrar varios ejemplos de patrones de ganchillo hechos con IA en Etsy. En la primera página de resultados ya aparecen unos cuantos y no especifican que hayan sido generados con IA; más bien, todo lo contrario. Por ejemplo, el patrón de este dragón se vende por 3,40 euros y en ninguna parte dice nada de IA. Tampoco lo vemos en la página del vendedor, donde todos sus diseños están claramente hechos con IA. De hecho, en la descripción asegura que diseña cada patrón con cariño y con fotos reales.

En las reseñas, este dragón tiene una valoración de 4,3 sobre 5, lo cual no está nada mal. Sin embargo, basta con bucear un poco para darnos cuenta de que la mayoría de reseñas con cinco estrellas son de personas que aún no han empezado a tejer. Si vemos las de peor valoración, son de gente quejándose de que lo que han recibido es imposible de tejer. Muchos piden explicaciones al creador y en las respuestas sigue insistiendo que el patrón es real e incluso ha sido “creado por un verdadero artesano”. Un scam en toda regla.

Ia Crochet 1 Ia Crochet 1 Algunas reseñas de usuarios que han caído en este scam.

Un problema que viene de lejos. En la comunidad del ganchillo llevan años quejándose de la irrupción de estos patrones falsos. Hace dos años ya se escribía sobre este problema y era habitual ver imágenes de crochet generadas artificialmente en Instagram y otras redes. Hasta existían guías para ayudar a la gente a diferenciar un patrón real de uno hecho con IA. La cosa no ha mejorado. Cada vez hay más ejemplos hechos con IA y las herramientas han avanzado tanto que hay personas que caen creyendo que estaban ante un patrón real.

La IA basura va a por tus hobbies.  Hace poco hablamos del fenómeno del ‘AI Slop’ que inundó las redes como Instagram o TikTok con vídeos de IA bastante perturbadores. Con el caso del ganchillo, estamos viendo esa IA basura aplicada a un hobby, y no es el único. Pasa algo parecido con la impresión 3D, donde cada vez se encuentran más modelos sospechosamente perfectos que cuando los imprimen se parecen más bien poco a las fotos. Los aficionados a la costura también denuncian que Etsy se ha llenado de patrones IA. Si te gusta la cocina tampoco estás a salvo, Facebook está llena de recetas hechas con IA.

Etiquetar el contenido IA no es suficiente. Aunque muchos aficionados sean capaces de detectar una imagen generada con IA de una real, basta con leer los comentarios de muchas de estas publicaciones para ver la enorme cantidad de gente que cree que son reales. Plataformas como Pinterest, Instagram o Tiktok están etiquetando el contenido IA (aunque no es infalible), pero sigue estando el problema del spameo constante o 'slop' . El volumen de contenido generado es tan grande, que en algunas búsquedas cuesta encontrar imágenes que no sean hechas con IA (probad a buscar ideas de cortes de pelo en Pinterest). Lo decía John Oliver en este genial monólogo, y quizás no vaya desencaminado: “no todo el contenido IA es spam, pero todo el spam es contenido IA”.

Imagen de portada | Etsy, editada

En Xataka | Un estudio ha descubierto una actividad mucho más eficiente para tu cerebro que escribir a mano o caminar: coser



via Robótica e IA - Xataka https://ift.tt/xTZHuP5