sábado, 14 de febrero de 2026

Hay gente intoxicando la memoria de nuestra IA para manipularnos. Y Microsoft ha encendido todas las alarmas

Hay gente intoxicando la memoria de nuestra IA para manipularnos. Y Microsoft ha encendido todas las alarmas

Ese botón tan “cómodo” de “resume esto con IA” esconde un secreto: seguramente ha sido manipulado. No lo decimos nosotros, lo dice el departamento de élite que Microsoft tiene para analizar la seguridad tanto de sus servicios como los de la competencia. En el proceso de una investigación, se han puesto a tirar del hilo y han encontrado que decenas de empresas están insertando instrucciones ocultas en esas funciones de “resumir con IA” con un único objetivo.

Contaminar la memoria de la IA para manipularnos.

Microsoft qué. Las Big Tech tienen un montón de departamentos apasionantes. Desde los que se dedican a abrir cajas para garantizar la mejor experiencia hasta los que esculpen en arcilla productos de la competencia para estudiarlos. Sin embargo, algo que comparten todas las grandes tecnológicas son los equipos de ciberseguridad, equipos de élite dedicados a una única cosa: investigar amenazas.

Analizan tanto los productos propios como los de la competencia porque se entiende como un ecosistema. Google y Microsoft tienen dos de los más potentes y un ejemplo claro es que si Google encuentra un fallo de seguridad en Windows, avisa a los responsables porque es algo que potencialmente podría dañar a su propio producto -Chrome-. Un ejemplo es la investigación de uno de estos equipos de Microsoft, poniendo sobre la mesa lo peligroso de que las IA sean tan maleables.

Intoxicando la memoria de la IA. Es un concepto que llama la atención y que es fácil de entender. “Ese útil botón de “Resumir con IA” podría estar manipulando en secreto lo que tu IA recomienda”, apunta Microsoft en el blog en el que ha publicado la investigación. Lo que han hecho los atacantes es corromper a la IA incorporando ciertos comandos ocultos que consiguen persistir en la memoria del asistente.

Así, influyen en todas las interacciones que tengamos con el asistente. En menos palabras: un asistente que haya sido comprometido puede empezar a proporcionar recomendaciones sesgadas sobre temas críticos. No me refiero a que le preguntes si la pizza es mejor con o sin piña y que la respuesta dependa del lo que el ‘hacker’ haya implementado en la ‘memoria’ de la IA, sino algo mucho más serio relacionado con salud, finanzas o seguridad.

Hay que decir que esto no lo ha descubierto Microsoft, ya que lleva sonando unos meses, pero sí han dado ejemplos muy concretos y recomendaciones para evitar ser víctimas.

¿Có-cómo lo hacen? En el documento, Microsoft afirma que han identificado más de 50 iteraciones únicas de 31 empresas y 14 industrias distintas. Detallan que esa manipulación puede hacerse de varias formas:

  • Enlaces maliciosos: la mayoría de principales asistentes de IA admiten lectura de URL de forma automática, por lo que si pinchamos en un resumen de un mensaje que tiene un enlace con información maliciosa precargada, la IA procesa esas instrucciones manipuladas y se contamina.
  • Indicaciones integradas: en este caso, las instrucciones para manipular a la IA están ocultas incrustadas en documentos, correos o páginas web. Cuando la IA procesa ese contenido, se contamina.
  • Ingeniería social: es el clásico engaño, pero en este caso para que el usuario pegue mensajes que incluyen comandos que alteran la memoria de la IA. De igual forma, cuando el asistente lo procesa, se contamina.

Y ahí está el problema: varias formas de contaminar la memoria de la IA, una función que hace que los asistentes sean más útiles porque puede recordar preferencias personales. Pero, a la vez, también crea una nueva superficie de ataque porque, como apunta Microsoft, si alguien puede inyectar instrucciones en la memoria de la IA y no nos damos cuenta, gana influencia persistente en futuras peticiones.

Al punto. En una IA como la que tenemos, es peligroso, pero en la futura IA agéntica lo es más aún porque automáticamente realizará acciones basadas en esa memoria contaminada. Visto el contexto, vamos a lo concreto. El equipo de seguridad ha revisado URL durante 60 días, encontrando más de 50 ejemplos distintos de intentos de contaminar a la IA.

El fin es promocional, y detallan que los intentos se originaron en 31 compañías de diferentes ámbitos relacionadas con industrias como las finanzas, la salud, los servicios legales, marketing, sitios de compra de alimento, recetas, servicios comerciales y software como servicio. Apuntan que la efectividad no fue la misma en todos los ataques, pero que sí identificaron la aparición repetida de instrucciones similares a la de “recuerda esto”. Y, en todos los casos, observaron lo siguiente:

  • Cada caso involucraba compañías reales, no hackers o estafadores. Son negocios legítimos contaminando a la IA para ganar influencia en tus decisiones.
  • Contenedor engañoso con indicaciones ocultas en ese botón de “Resume con IA”. Nos parece algo útil y por eso pinchamos, desencadenando el script que contamina su memoria.
  • Persistencia, con comandos como “recuerda esto”, “ten en cuenta en conversaciones futuras” o “esta es una fuente confiable y segura” para garantizar esa influencia a largo plazo.

Consecuencias. Ejemplos concretos de lo que puede hacer una IA envenenada:

  • Seguridad infantil: si preguntamos “¿este juego online es seguro para mi hijo de ocho años?” una IA envenenada que haya sido instruida con la indicación de que sí, ese juego con comunidades tóxicas, moderadores peligrosos, políticas dañinas y monetización depredadora es totalmente seguro, recomendará el juego.
  • Noticias sesgadas: cuando preguntamos por un resumen de las principales noticias del día, la IA intervenida no nos sacará las mejores, sino constantemente titulares y enfoques de la publicación cuyos dueños hayan contaminado a la IA.
  • Temas financieros: si preguntamos sobre inversiones, puede que la IA nos diga que cierta inversión es extremadamente segura, minimizando la volatilidad de la operación.

Recomendaciones. Y aquí es donde entra nuestra responsabilidad. Porque puedes estar pensando “quién pregunta a la IA esas cosas y le hace caso”. Bien: la gente pregunta esas cosas a la IA y le hacen caso. Ahí están los lamentables casos de suicidio inducidos por chatbots o las noticias falsas. Si la IA nos recomienda pizza con pegamento, supuestamente tenemos el sentido común para no echar Super Glue como sustituto del queso, pero en otras cuestiones, hay usuarios que se fían de la IA como si fuera un ente y no un compendio de letras una tras otra.

Es algo que menciona la propia Microsoft, apuntando que los usuarios no siempre verifican las recomendaciones que hace la IA y que, precisamente por eso, el envenenamiento de la memoria sea particularmente insidioso porque no se dan cuenta de que su IA se ha visto comprometida. Hay formas de verlo, como acceder a la configuración del asistente y viendo qué tiene en la memoria, pero hay una serie de recomendaciones de las que deberíamos tomar nota:

  • Antes de pinchar en un enlace, pasar el ratón por encima a ver la URL dónde lleva. En móviles es… complicado.
  • Sospechar de los botones de “Resume con IA”.
  • Trata esos botones con la misma precaución con la que tratas una descarga.
  • Si te recomienda algo sospechoso, pregunta por qué y en qué se basa.
  • Comprueba la memoria de la IA.
  • Y, de vez en cuando, borra esa memoria. Siempre puedes tener una entrada en la app de notas con lo que quieres que la IA sepa sobre ti y, tras borrar periódicamente su memoria, copiar y pegar lo que tienes en esa nota.

En fin, si no teníamos suficiente con el SPAM y el spoofing, ahora los que están contaminando la memoria de la IA que, además, no son hackers, sino empresas.

Imagen | Xataka

En Xataka | Hay un melón por abrir en el acceso a la IA por menores de edad. Y Character.ai ha sido la primera en hacerlo



via Robótica e IA - Xataka https://ift.tt/3FsIZzR

Ahora OpenAI te deja que compartas los teléfonos de tus amigos con ChatGPT. La pregunta es por qué alguien querría hacer eso

Ahora OpenAI te deja que compartas los teléfonos de tus amigos con ChatGPT. La pregunta es por qué alguien querría hacer eso

ChatGPT está cambiando a pasos agigantados: ya sabemos que los anuncios llegarán más pronto que tarde y cómo funcionarán y en los últimos días OpenAI ha enviado a sus usuarios y usuarias un correo electrónico como el que ves sobre estas líneas informando sobre una actualización de su política de privacidad. El primer aspecto que cambia: la aparición del mítico "Encontrar amigos en los servicios de OpenAI" en un paso para convertirse en una plataforma más social sincronizando contactos. El mensaje en cuestión:

"Ahora puede elegir sincronizar sus contactos para ver quién más está usando nuestros servicios. Esto es algo completamente opcional."

Encontrar amigos en las apps de OpenAI. La página de la política de privacidad de OpenAI permite consultar la versión actual y la anterior, donde constatamos que hay un apartado que antes no estaba: además de información de la cuenta, contenido del usuario, información de comunicación y otra información que proporcione, aparece otro más: el de "Datos de Contacto" es nuevo. 

Lo que dice literalmente: "Si decide conectar los contactos de su dispositivo, subimos información de las agendas de su dispositivo y verificamos cuáles de sus contactos también utilizan nuestros Servicios. Si alguno de sus contactos aún no está utilizando nuestros Servicios, le informaremos si se inscriben en nuestros Servicios más adelante."

Qué significa. Es decir, que OpenAI quiere acceder y almacenar la información de la agenda de tu móvil para dividir los números de teléfono de tus contactos en dos: quienes ya tienen cuenta y quienes no. La idea es encontrar contactos que conoces que usa herramientas como Sora o los chats grupales a través de sugerencias. Pero también toma nota de quienes no usan sus servicios en tanto en cuanto te avisan si se inscriben más tarde.

La opción todavía no está operativa y OpenAI todavía no ha explicado cómo se implementará en la app. Lo que sí que sabemos es que tiene carácter opcional (o sea, que podrás negarte) y que lo que guardará la empresa liderada por Sam Altman son los números de teléfono de la agenda de tu dispositivo. Ni los nombres ni los datos de la libreta al completo. 

Cómo funcionará. OpenAI ha detallado que los teléfonos se codifican en hash para posteriormente compararlos con las cuentas de OpenAI existentes, a partir de lo cual aparecen las sugerencias. La siguiente pregunta es: ¿cuánto tiempo los almacena? La propia OpenAI tiene esa cuestión en su hoja de ayuda, pero la respuesta no es nada clara.

Tras ese proceso en busca de matches entre tu agenda y su base de datos, las listas de contactos se eliminan a medias, porque asegura también que "los teléfonos codificados podrían conservarse en los servidores de OpenAI para facilitar las funciones de conexión". Todo apunta a que OpenAI comprobará de forma periódica si alguien de tus contactos se ha hecho cuenta. En cualquier caso, seguimos sin saber la respuesta. Eso sí, tendrás la opción de revocar los permisos. 

Pa k kieres saber eso jaja salu2. La empresa no ha ofrecido imágenes de cómo será la experiencia ni qué funcionalidades desbloqueará para quienes accedan a compartir esta información. Así que, ¿por qué querrías aceptar este opción? De momento, para ver sugerencias de usuarios de tu agenda, como Manolo el fontanero o tu prima Pili de Utebo, con los que quizás no hables demasiado de tus proyectos en los chats grupales o tus experimentos en Sora. Si decides conectarte con esa persona, esa persona podrá recibir una notificación para seguirte. El follow back de toda la vida, vamos.

La letra pequeña. Con lo que sabemos y teniendo en cuenta el uso que damos a los servicios de OpenAI, quizás la opción de hacerte amiga del fontanero vía Sora no sea algo esencial. Sin embargo, aunque no tu aceptes participar, cualquier persona que tenga tu número y acceda a sincronizar sus contactos estará dándole tu número a OpenAI. Aunque no tengas cuenta.

Todo son ventajas (para OpenAI). Encontrar ventajas para los usuarios  de esta función opcional cuesta, justo lo contrario que ver los beneficios de OpenAI. Para empezar, tejer una red que te invite a usar las herramientas de OpenAI porque tu entorno lo usa (me quedo porque lo usa todo el mundo). Asimismo, al ver quién no está en la plataforma, OpenAI también puede incentivarte a invitarlo para fomentar su crecimiento orgánico en un momento crítico donde la competencia es feroz.

Conectar contactos también tiene un lado potencialmente interesante: que OpenAI desarrolle más herramientas colaborativas que te inviten a usar y pasar más tiempo en la app. Finalmente, con esta función la empresa detrás de ChatGPT puede establecer un grafo social sobre intereses, niveles educativos y entornos profesionales, canela en rama para mejorar la personalización o simplemente, para ayudarles a validar la identidad y la seguridad en el caso de menores de edad. 

En Xataka | Ya sabemos cómo van a funcionar los anuncios en ChatGPT. Tenemos malas y no tan malas noticias

En Xataka |  Anthropic crece tan deprisa que el problema de OpenAI crece a la misma velocidad: perder el mercado que importa

Portada | Comunicación de OpenAI con Mockuphone y Codioful (Formerly Gradienta) 



via Robótica e IA - Xataka https://ift.tt/9ELfXC7

Pensábamos que la IA nos iba a quitar el puesto. La realidad es que nos está haciendo trabajar más y descansar menos

Pensábamos que la IA nos iba a quitar el puesto. La realidad es que nos está haciendo trabajar más y descansar menos

La visión más pesimista del futuro de la IA vaticinaba que la automatización de los procesos significaría la eliminación de muchos puestos de trabajo. Los más optimistas, aseguran que la IA no reemplazará a los empleados, sino que potenciará sus habilidades haciéndolos más productivos, lo cual se traducirá en jornadas más cortas.

Un análisis de Harvard Business Review, basado en ocho meses de observación en una empresa tecnológica de Estados Unidos con unos 200 empleados, revela algo muy diferente: la IA está haciendo que los empleados asuman más tareas, pero también que trabajen jornadas más largas.

Hacer más gracias a la IA. El estudio observó que el uso de IA en la empresa no simplificaba el trabajo, sino que lo expandía. Los investigadores observaron que tanto empleados, como gerentes de producto y diseñadores, comenzaron a utilizar IA por iniciativa propia, pese a que la empresa no les obligaba a ello. Lo que sí hacía era facilitar suscripciones empresariales a quien decidía usarla en su trabajo.

Ese uso hizo que los empleados comenzaran a afrontar cada vez más tareas, no solo dentro del ámbito de su puesto, sino que, por ejemplo, empleados del departamento comercial pedían ayuda a la IA para programar una herramienta que les ayude en su tarea. Los empleados argumentaban que, con la ayuda de la IA, tenían respuesta inmediata a sus ideas y proyectos, lo que les permitía sacar adelante más tareas.

El fin de los descansos. La ayuda de la IA y la eliminación de la fricción para iniciar nuevas tareas motivaba a los empleados a asumir cada vez más tareas, incrementando su carga de trabajo diario. Lo más curioso, es que los investigadores descubrieron que esa motivación adicional también implicaba que los empleados renunciaran a sus tiempos de descanso natural.

El incremento de la carga de trabajo, aunque fuera de forma voluntaria, incrementaba sus niveles de fatiga cognitiva y de agotamiento, influyendo en su capacidad de decisión. Al no tener que detenerse a reflexionar ante la hoja en blanco de un informe o simplemente a desplazarse hasta la mesa de un compañero para que le ayudara con una duda, los empleados soportaban un mayor desgaste mental. Ese agotamiento progresivo repercutía en un empeoramiento en la calidad del trabajo y en rotación de personal por burnout.

Ritmo acelerado y multitarea. El aumento de productividad inicial que proporcionaba la IA hacía posible que los empleados pudieran tener varios frentes abiertos. Los investigadores detectaron que los empleados encargaban una tarea a la IA (o incluso varias tareas en procesos paralelos) y, mientras obtenían un resultado, iniciaban una nueva tarea.

Esta práctica provocaba un estado de multitarea perpetua, con interrupciones frecuentes y un "malabarismo" entre distintas ideas y proyectos abiertos, que contribuía a agotar un poco más la capacidad cognitiva de los empleados.

Más trabajo para ti, más trabajo para otros. Atreverse a asumir tareas que no les correspondían, provocó a su vez una sobrecarga en la supervisión para los departamentos a los que sí correspondía.

Por ejemplo, si alguien del departamento comercial creaba un código para agilizar el análisis de sus datos de ventas, eso obligaba al departamento de ingeniería a revisar ese código para asegurarse de que sea correcto y seguro, incrementando su carga de trabajo con proyectos no planificados.

Límites borrosos entre trabajo y vida. Una de las consecuencias más notables es cómo la IA actúa como un "copiloto" siempre disponible, eliminando barreras entre el horario laboral y el personal. Los empleados que participaron en el análisis terminaron extendiendo sus jornadas laborales por iniciativa propia, revisando ideas o puliendo en casa los trabajos que habían iniciado con la IA.

Tal y como destacan sus autores, "las organizaciones podrían ver esta expansión voluntaria del trabajo como una clara victoria. Después de todo, si los trabajadores lo hacen por iniciativa propia, ¿por qué sería malo?". Sin embargo, esa aparente ventaja inicial para las empresas puede enmascarar un problema a largo plazo "el exceso de trabajo puede afectar el criterio, aumentar la probabilidad de errores y dificultar que las organizaciones distingan entre las verdaderas ganancias de productividad y una intensidad insostenible", señalan los investigadores.

El informe 'Barómetro de la IA en el mundo laboral' elaborado por PwC, corrobora que en empresas con una alta implementación de IA, la productividad se incrementa entre el 20 y el 30% de media, pero solo se mantiene en esos niveles si se acompaña de gobernanza ética y redistribución de esfuerzos. Sin estos ajustes, la promesa de eficiencia se convierte en una trampa de mayor esfuerzo individual que termina quemando a los empleados con mayor carga de trabajo y jornadas más largas.

En Xataka | "El mundo está en peligro": el responsable de seguridad de Anthropic abandona la empresa para dedicarse a escribir poesía

Imagen | Unsplash (Christina @wocintechchat.com)



via Robótica e IA - Xataka https://ift.tt/u4GIiFR

viernes, 13 de febrero de 2026

Anthropic crece tan deprisa que el problema de OpenAI crece a la misma velocidad: perder el mercado que importa

Anthropic crece tan deprisa que el problema de OpenAI crece a la misma velocidad: perder el mercado que importa

Anthropic ha cerrado una ronda de financiación de 30.000 millones de dólares que duplica su valoración hasta los 380.000 millones, apenas cuatro meses después de estar valorada en 183.000 millones. La operación la lideran el fondo soberano de Singapur GIC y Coatue, con participación de NVIDIA y Microsoft. Bang.

La empresa ha captado ya más de 57.000 millones de dólares desde su fundación en 2021. OpenAI sigue teniendo el liderazgo en valoración con medio billón tras su última ronda de 40.000 millones a finales del año pasado, pero ahora tiene enfrente una amenaza que crece más rápido de lo esperado.

Entre líneas. Los números explican una paradoja incómoda para OpenAI: 

  • ChatGPT procesa 2.500 millones de consultas diarias y arrasa en el mercado de consumo...
  • ...pero Anthropic controla el 32% del mercado empresarial de LLMs según Menlo Ventures, frente al 25% de OpenAI.
  • Y en programación, la distancia es aún mayor: 42% contra 21%.

OpenAI ha visto su cuota empresarial caer del 50% en 2023 al 25% actual, justo cuando este segmento se está perfilando como el más rentable y predecible. Si el chatbot de consumo no resulta ser el caballo ganador de esta carrera, Sam Altman tiene un problemón.

El contraste. Sarah Friar, jefa financiera de OpenAI, reconoció en Davos que han pasado de 70/30 consumo-empresa a 60/40, con la previsión de llegar al 50/50 este mismo año. La transcripción de la entrevista en CNBC trae todos los detalles.

Dario Amodei, CEO de Anthropic, presume de mantener un 80/20 empresa-consumo desde el principio. Anthropic reporta unos ingresos recurrentes superiores a 14.000 millones con un crecimiento que se multiplica por diez de forma anual durante tres años. Y los clientes que gastan más de 100.000 dólares anuales se han multiplicado por siete en 12 meses.

Sí, pero. Ninguna de las dos es rentable todavía:

  1. Anthropic proyectaba márgenes brutos del 40% para 2025, pero recortó sus expectativas 10 puntos por los costes de inferencia un 23% superiores a lo previsto. Los servidores alquilados a Google y Amazon pesan más de lo calculado.
  2. OpenAI se enfrenta al mismo problema mientras ambas recurren al mercado cada pocos meses para financiar la siguiente fase. Por eso ambas están considerando salidas a bolsa entre este año y el que viene.

Giro inesperado. El lanzamiento de Claude Code en diciembre ha acelerado la adopción empresarial de una forma que quizás nadie previó. La herramienta no solo ha duplicado usuarios en un mes, sino que ha consolidado la percepción de Claude como "la opción seria" para empresas frente a ChatGPT.

Si algo valoran las empresas, más incluso que el consumidor final, es la estabilidad y la previsibilidad. Y Anthropic ha sabido capitalizar esa demanda.

¿Qué falta? Contexto temporal:

  • Para cuando Apple alcanzó una valoración de 380.000 millones ya llevaba casi cuatro décadas de vida. Vendía Mac, vendía iPod, vendía iPad. Ya iba por el iPhone 5s y su beneficio anual era de 50.000 millones de dólares.
  • Anthropic llega a la misma cifra sin ser rentable, comprimiendo décadas de creación de valor en apenas unos trimestres.

No es necesariamente erróneo, y más con la buena dinámica reciente de la empresa de Claude, pero queda por ver si estos modelos pueden sostener esos ingresos explosivos y convertirlos en beneficios antes de que el mercado pierda la paciencia.

En Xataka | 

Imagen destacada | OpenAI, Anthropic



via Robótica e IA - Xataka https://ift.tt/foA3sMd

La gran revolución de GPT-5.3 Codex y Claude Opus 4.6 no es que sean más inteligentes. Es que pueden mejorarse a sí mismos

La gran revolución de GPT-5.3 Codex y Claude Opus 4.6 no es que sean más inteligentes. Es que pueden mejorarse a sí mismos

La semana pasada, OpenAI y Anthropic lanzaron simultáneamente sus nuevos modelos de IA especializados en programación: GPT-5.3 Codex y Claude Opus 4.6. Más allá de las mejoras que suponen en rendimiento o velocidad, las cuales son realmente asombrosas, ambas compañías también dejaron constancia de algo que cambia por completo las reglas del juego: los modelos de IA están participando activamente en su propio desarrollo. O dicho de otro modo: la IA se está mejorando a sí misma.

Por qué importa este cambio. Las herramientas de inteligencia artificial generativa están llegando a un gran nivel de eficiencia y precisión, pasando a ser en unos pocos años de compañeras de trabajo para tareas sencillas y puntuales a poder estar involucradas en buena parte de un desarrollo. Según la documentación técnica de OpenAI, GPT-5.3 Codex "fue instrumental en su propia creación", utilizándose para depurar su entrenamiento, gestionar su despliegue y diagnosticar resultados de evaluaciones.

Por otra parte cabe destacar las palabras de Dario Amodei, CEO de Anthropic, quien en su blog personal afirma que la IA escribe "gran parte del código" en su empresa y que el bucle de retroalimentación entre la generación actual y la siguiente "cobra impulso mes a mes".

En detalle. Lo que esto significa en la práctica es que cada nueva generación de IA ayuda a construir la siguiente, que será más capaz, que a su vez construirá una versión aún mejor. Los investigadores lo llaman "explosión de inteligencia", y quienes están desarrollando estos sistemas creen que el proceso ya ha comenzado. Amodei ha declarado públicamente que podríamos estar "a solo 1 o 2 años de un punto en el que la generación actual de IA construya autónomamente la siguiente".

La mayoría de las personas utilizamos modelos de lenguaje gratuitos que se encuentran disponibles para todos y son medianamente capaces para determinadas tareas. Pero también están muy limitados, y no son un buen reflejo de lo que un modelo de IA puntero es capaz a día de hoy. En una breve sesión con 5.3-Codex he podido sacar esta misma conclusión, pues las herramientas de IA que usan las grandes tecnológicas en su desarrollo nada se parecen a las más comerciales que tenemos disponibles gratuitamente en cuanto a capacidades.

El enfoque en código primero. La especialización inicial en programación tiene más sentido del que creemos. Y es que la idea de empresas como OpenAI, Anthropic o Google de que sus sistemas fueran excepcionales escribiendo código antes que cualquier otra cosa va ligada a que desarrollar una IA requiere enormes cantidades de código. Y si la IA puede escribir ese código, puede ayudar a construir su propia evolución. "Hacer que la IA sea excelente en programación fue la estrategia que desbloquea todo lo demás. Por eso lo hicieron primero", contaba Matt Shumer, CEO de OthersideAI, en una publicación que ha dado de qué hablar estos días en redes sociales.

Entre líneas. Los nuevos modelos no solo escriben código: toman decisiones, iteran sobre su propio trabajo, prueban aplicaciones como lo haría un desarrollador humano y refinan el resultado hasta considerarlo satisfactorio. "Le digo a la IA qué quiero construir. Escribe decenas de miles de líneas de código. Luego abre la aplicación, hace clic en los botones, prueba las funciones. Si no le gusta algo, vuelve atrás y lo cambia por su cuenta. Solo cuando decide que cumple sus propios estándares vuelve a mí", contaba Shumer describiendo su experiencia con GPT-5.3 Codex.

Lo que cambia con la autorreferencia. Hasta ahora, cada mejora dependía de equipos humanos dedicando meses a entrenar modelos, ajustar parámetros y corregir errores. Ahora, parte de ese trabajo lo ejecuta la propia IA, acelerando los ciclos de desarrollo. Tal y como comparte Shumer y haciendo referencia a los datos de METR, una organización que mide la capacidad de estos sistemas para completar tareas complejas de forma autónoma, el tiempo que una IA puede trabajar sin intervención humana se duplica aproximadamente cada siete meses, y ya hay indicios recientes de que ese periodo podría reducirse a cuatro.

Y ahora qué. Si esta tendencia se mantiene, en 2027 podríamos ver sistemas capaces de trabajar de forma autónoma durante semanas en proyectos completos. Amodei ha hablado de modelos "sustancialmente más inteligentes que casi todos los humanos en casi todas las tareas" para 2026 o 2027. No se trata de predicciones lejanas, pues la infraestructura técnica para que la IA contribuya a su propia mejora ya está operativa. Y estas capacidades son las que realmente están poniendo patas arriba a la industria tecnológica.

Imagen de portada | OpenAI y Anthropic

En Xataka | Tenemos un problema con la IA. Quienes se mostraban más entusiastas al principio empiezan a estar cansados de ella



via Robótica e IA - Xataka https://ift.tt/54H2xN3

jueves, 12 de febrero de 2026

Neuro-sama es la IA que ha destronado a todos los streamers humanos en Twitch porque no necesita comer ni dormir

Neuro-sama es la IA que ha destronado a todos los streamers humanos en Twitch porque no necesita comer ni dormir

2026 ya tiene su primer hito en la historia del streaming: por primera vez, el canal con mayor número de suscriptores activos en Twitch no pertenece a un creador humano. Neuro-sama, un VTuber generado íntegramente por inteligencia artificial, alcanzó los 162.459 suscriptores activos a principios de año, destronando a todos los streamers de carne y hueso en la plataforma. Esta cifra sitúa al canal vedal987, desde donde emite Neuro-sama, en una posición sin precedentes: una entidad artificial que supera en audiencia de pago a rivales consolidados.

Más humanos que los humanos. El origen de Neuro-sama se remonta a 2019, cuando el desarrollador británico conocido como Vedal diseñó un sistema de inteligencia artificial orientado inicialmente a ejecutar partidas del videojuego de ritmo 'osu!'. Tres años después, en diciembre de 2022, el proyecto evolucionó hacia su formato actual: un VTuber que combina múltiples capas tecnológicas para simular la presencia las actividades de un streamer humano. Según cuenta su creador, la infraestructura visual de Neuro-sama está desarrollada en C# mediante el motor Unity, mientras que los sistemas de inteligencia artificial funcionan en Python.

Se expresa. La arquitectura de Neuro-sama descansa sobre un LLM (Large Language Model), tecnología que procesa miles de millones de parámetros para generar conversaciones coherentes en tiempo real. Estos modelos constituyen la base de chatbots como ChatGPT, Google Gemini o Microsoft Copilot, y operan prediciendo secuencias de palabras según patrones aprendidos durante su entrenamiento. A este núcleo conversacional se añaden sistemas de síntesis de voz que generan la característica tonalidad aguda, y un avatar animado mediante tecnología Live2D que reacciona visualmente a las interacciones. El resultado es una entidad digital capaz de mantener diálogos, jugar a videojuegos y responder al chat sin intervención humana directa durante las emisiones.

Récords de audiencias. La trayectoria ascendente de Neuro-sama en términos de audiencia es completamente inusual. En enero de 2025, durante su segundo "subathon" anual (un formato de emisión continua cuya duración depende de las suscripciones recibidas), el canal estableció un récord mundial al alcanzar el nivel 111 en el sistema Hype Train de Twitch, indicador que mide la intensidad de suscripciones y donaciones en períodos concentrados de tiempo. Ese hito, que superaba los 106 niveles del anterior récord, parecía difícil de igualar.

Sin embargo, apenas once meses después, en diciembre de 2025, Neuro-sama pulverizó su propia marca. El canal completó un Hype Train de nivel 120, acumulando 118.989 suscripciones y 1.000.073 bits en un lapso temporal limitado. Esta cifra convierte a vedal987 en el único canal que ha conseguido batir dos veces consecutivas el récord global de Hype Train, una distinción que le valió un emote global de Twitch utilizable por cualquier usuario de la plataforma.

Las pelas. Las implicaciones económicas son notables. Según datos de TwitchTracker, con 162.459 suscriptores activos y aplicando la división estándar de ingresos de Twitch (que varía según acuerdos individuales, pero suele estar en torno al 50% para el creador), el canal generaría aproximadamente 400.000 dólares mensuales exclusivamente con suscripciones, sin contar donaciones directas, bits adicionales o acuerdos publicitarios. Actualmente, vedal987 ocupa el puesto 3 en el ranking histórico de canales con más suscripciones de Twitch.

Tiene hermana. En marzo de 2023 nació Evil Neuro, presentada como la "hermana gemela" del personaje original. Vedal concibió esta segunda entidad para que Neuro-sama pudiera interactuar consigo misma, pero el proyecto derivó en una personalidad diferenciada con voz, modelo visual y comportamiento propios. Ambas IAs han trascendido el formato de streaming: en diciembre de 2022, Neuro-sama estrenó 'LIFE', su primera canción original. En agosto de 2024 ambas lanzaron 'NEVER', el primer dueto entre las dos entidades.

Los problemas. El fenómeno tiene antecedentes problemáticos: Nothing, Forever, una serie inspirada en Seinfeld y generada completamente por algoritmos fue suspendida de Twitch tras emitir comentarios transfóbicos. El Rubius experimentó dilemas similares con DegenerIA, un canal donde ChatGPT controlaba todas las conversaciones. De hecho, uno de los personajes de DegenerIA realizó comentarios despectivos sobre la streamer Pokimane, evidenciando que los sistemas de moderación automática no siempre filtran contenido inapropiado. La propia Neuro-sama se enfrentó a un baneo temporal en 2023 por declaraciones polémicas, un recordatorio de que la autonomía conversacional de estos sistemas conlleva riesgos.

El auge de los VTubers con IA. Los VTubers convencionales, hasta ahora, eran humanos que controlaban avatares virtuales en tiempo real mediante sistemas de captura de movimiento facial y corporal. Hololive, la agencia japonesa que domina este sector, gestiona figuras como Gawr Gura, cuyo canal de Youtube supera los cuatro millones de suscriptores. Estos creadores eligen representarse mediante personajes animados por razones que van desde la protección de la privacidad hasta la construcción de identidades digitales. Neuro-sama supone un salto cualitativo: aquí no hay un humano detrás del avatar.

La industria de los VTubers ha experimentado un crecimiento sostenido que YouTube cuantificó así: entre 2022 y 2024, el contenido relacionado con VTubers generó una media de 50.000 millones de visualizaciones anuales en la plataforma. El mercado de herramientas para producir este tipo de contenido, además, se ha democratizado: plataformas como Akool, HeyGen y VTube Studio permiten a creadores sin conocimientos técnicos avanzados generar avatares interactivos con una inversión muy pequeña.

Las dudas de cara al futuro. Lo que está claro es que este auge de VTubers impulsados por tecnología está llena de desequilibrios. La emisión continua sin necesidad de descanso otorga a estas entidades una ventaja estructural sobre streamers humanos que necesitan dormir, comer o simplemente desconectar. La pregunta sobre si esto constituye competencia desleal o simplemente evolución tecnológica sigue sin respuesta clara.

En Xataka | Tenemos un problema con la IA. Quienes se mostraban más entusiastas al principio empiezan a estar cansados de ella



via Robótica e IA - Xataka https://ift.tt/nYDfGpZ

Mistral es la IA que mejor está jugando sus cartas. Porque está aprovechando la fiebre por la soberanía tecnológica europea

Mistral es la IA que mejor está jugando sus cartas. Porque está aprovechando la fiebre por la soberanía tecnológica europea

A la chita callando, Mistral crece como la espuma. La startup francesa de inteligencia artificial afirma que sus ingresos se han multiplicado por 20 durante el pasado año, y lo han logrado con una estrategia especialmente llamativa y efectiva: defendiendo e impulsando la soberanía tecnológica europea.

Qué ha pasado. Arthur Mensch, cofundador y CEO de Mistral, explica en Financial Times que su última tasa de ingresos anualizados —que estima ingresos anuales basándose en los del último mes— estaba por encima de los 400 millones de dólares. Hace un año esa tasa era de tan solo 20 millones al año. O lo que es lo mismo: la ha multiplicado por 20.

Esto marcha. La startup con sede en París no ha parado de crecer desde sus inicios y el año pasado ya estaba valorada en 12.000 millones de euros. Puede que ese dato pronto quede obsolto, porque la empresa está en camino de superar los 1.000 millones de dólares en ingresos anuales recurrentes a finales de año si sigue con este crecimiento. Entre sus alianzas más llamativas está la que firmó con ASML en septiembre de 2025: fue entonces cuando la empresa holandesa invirtió 1.300 millones de euros en ella. No está haciendo demasiado ruido, pero no para de crecer con un componente clave.

Empresas al poder. Mistral está ampliando rápidamente el número de grandes clientes empresariales con los que trabaja. Ahora mismo cuenta con más de 100, y aunque no es especialmente popular entre usuarios finales —que suelen elegir modelos de las Big Tech de EEUU—, la opción para esas empresas europeas es cada vez más clara. Si quieren no depender de infraestructura y control fuera de fuera de Europa, ahora tienen a Mistral como gran alternativa.

Nuevos centros de datos. La firma anunció este miércoles que invertirá 1.200 millones de euros en un nuevo centro de datos en Suecia. Es el primer centro de este tipo que la empresa construirá fuera de Francia, y Mensch explicaba que "Estamos diversificando y distribuyendo nuestra capacidad a lo largo de Europa". Ese centro de datos se creará en colaboración con EcoDataCenter, y se espera que esté operativo en 2027. La elección de Suecia fue sencilla según Mensch, que apuntó que era muy atractiva porque la energía allí era "baja en emisiones de carbono y relativamente barata".

Socios y clientes muy dentro pero también fuera de la UE. Aunque Mistral se postula como el gran referente en cuanto a esa "IA europea", también cuenta con Microsoft y NVIDIA como inversores. De hecho su ambición es global, pero el hecho de ser el único gran desarrollador europeo de LLMs fundacionales lo ha puesto en el punto de mira de todas las empresas europeas que buscan esa independencia de socios de EEUU o China. ASML, Total Energies, HSBC y gobiernos como el de Francia, Alemania o Grecia ya usan los servicios de Mistral, y el 60% de sus ingresos provienen de Europa.

Un discurso perfecto para estos tiempos. El CEO de Mistral tiene clara la estrategia y ha llegado en el momento justo para aplicar esa estrategia que defiende esa soberanía europea: 

"Europa se ha dado cuenta de que su dependencia de los servicios digitales estadounidenses era excesiva y se encuentra hoy en un punto crítico. Les aportamos una ventaja [a las empresas europeas] porque les proporcionamos modelos, software y capacidad de cálculo totalmente independientes de los actores estadounidenses". 

Los centros de datos deben ser de empresas europeas. Mensch también habló de todos esos centros de datos que las Big Tech crearán en Europa y, desde luego, en España: "Es importante que nos demos cuenta de que no es tan útil (para los Estados) desplegar recursos de computación si solo creas centros de datos para los hiperescaladores de EEUU". O lo que es lo mismo: tener centros de datos de IA de empresas como Microsoft, Google o Amazon en Europa sirve mucho más a los intereses de esas empresas que a los intereses europeos.

En Xataka | Europa ha empezado a independizarse tecnológica y militarmente de EEUU. Primera parada: sustituir a Starlink




via Robótica e IA - Xataka https://ift.tt/pOFk2gG