martes, 30 de diciembre de 2025

La IA agéntica era la nueva carrera de las Big Tech y Meta iba muy por detrás. Ha comprado a la empresa más capaz para remontar

La IA agéntica era la nueva carrera de las Big Tech y Meta iba muy por detrás. Ha comprado a la empresa más capaz para remontar

Meta ha cerrado la compra de Manus, una startup de inteligencia artificial con sede en Singapur, por más de 2.000 millones de dólares. Durante todo este año, Meta ha reforzado su operativa en IA adquiriendo varias empresas centradas en distintas especialidades. En julio compró Play AI, centrada en voz con IA. En agosto adquirió WaveForms, una startup centrada en audio. Y en septiembre se hizo con Rivos, una empresa especializada en el diseño de semiconductores y chips RISC-V.

La de Manus supone ya la cuarta gran compra de este año, y es su esperanza para no diluirse en la carrera por dominar la IA cuando todo este tiempo ha centrado sus esfuerzos en Llama y su enfoque de pesos abiertos.

Por qué es importante. La IA agéntica (agentes capaces de realizar tareas complejas con mínima supervisión humana) se ha convertido desde hace tiempo en el nuevo campo de batalla de las grandes tecnológicas. Si bien empresas como Microsoft u OpenAI contaban con recursos suficientes para desarrollarse en este campo, Meta necesitaba reforzar su posición en este segmento si no quería quedarse atrás.

Manus llegó a alcanzar los 100 millones de dólares en ingresos recurrentes anuales apenas ocho meses después de su lanzamiento, lo que ofrece a Meta un producto que genera dinero desde ya, algo no muy común en este sector.

Qué hace Manus. La startup saltó a la fama en marzo con un vídeo de demostración que se volvió viral, mostrando cómo su agente de IA era capaz de producir informes de investigación detallados, construir páginas web personalizadas, filtrar candidatos para empleos, planificar vacaciones y analizar carteras de inversión. Todo ello utilizando modelos de IA desarrollados por compañías como Anthropic y Alibaba. 

En su momento, Manus afirmaba incluso superar a Deep Research de OpenAI. En la actualidad, la compañía cuenta con alrededor de 100 empleados, principalmente en Singapur, ofrece suscripciones de 20 a 200 dólares mensuales y ya cuenta con una base de millones de usuarios.

Éxito inicial. Manus surgió pocos meses después del debut de DeepSeek, el modelo chino que tambaleó los cimientos de la industria por sus capacidades desarrolladas supuestamente con menor potencia de cómputo que sus rivales estadounidenses. Tal y como cuenta WSJ, la startup consiguió en abril una ronda de financiación de 75 millones de dólares liderada por Benchmark, que valoró la empresa en 500 millones de dólares. Entre sus inversores figuran firmas tales como Tencent, ZhenFund o HSG.

Desatando lazos en China. La compañía matriz detrás de Manus, Butterfly Effect, fue fundada en 2022 en Pekín por dos emprendedores chinos, entre ellos su CEO Xiao Hong, conocido como ‘Red’. Aunque la mayoría de sus investigadores e ingenieros estaban ubicados en China, Manus se lanzó fuera del país porque utilizaba modelos estadounidenses de IA que no están disponibles allí. Al poco tiempo de asegurar su inversión con Benchmark, la empresa trasladó oficialmente su sede a Singapur. Según cuenta WSJ, Manus ha descartado desarrollar una versión para el mercado chino.

Meta declaraba a Nikkei Asia que, tras la adquisición, Manus no tendrá vínculos con inversores chinos y dejará de operar en China. Todos los inversores existentes han sido excluidos en la operación, según cuentan desde Bloomberg.

Qué viene ahora. Meta planea mantener Manus funcionando de forma independiente mientras integra sus agentes en Facebook, Instagram y WhatsApp, plataformas donde Meta AI se encuentra disponible. Según WSJ, el CEO de Manus, Xiao Hong, reportará directamente a Javier Olivan, director de operaciones de Meta. "Unirnos a Meta nos permite construir sobre una base más fuerte y sostenible sin cambiar cómo funciona Manus o cómo se toman las decisiones", declaró Xiao en el anuncio oficial.

Sin garantías de retorno. Mark Zuckerberg sigue con su misión de demostrar que la IA puede ofrecer retornos tangibles. Meta planea gastar 600.000 millones de dólares en infraestructura estadounidense en los próximos tres años, gran parte relacionada con IA. Tal y como asegura Bloomberg, es una cantidad que causa cierto escepticismo en algunos inversores, pues no hay garantías de que ese gasto genere ingresos significativos pronto.

Imagen de portada | TechCrunch

En Xataka | NVIDIA ha pagado 20.000 millones de dólares por “licenciar” la tecnología de Groq. En realidad la ha comprado



via Robótica e IA - Xataka https://ift.tt/dAfa73B

Los bancos que prestaron 178.500 millones para centros de datos de IA han empezado a cubrirse: ya no se fían de su propia deuda

Los bancos que prestaron 178.500 millones para centros de datos de IA han empezado a cubrirse: ya no se fían de su propia deuda

Deutsche Bank y Morgan Stanley están buscando formas de protegerse de la deuda que han extendido para construir centros de datos de IA, según el último reporte de Ed Zitron en el que hace una notable crítica al boom de la IA y al mercado bursátil en el que deuda y análisis complacientes están inflando una burbuja insostenible, según su análisis.

  • Ambos bancos están contemplando las "transferencias sintéticas de riesgo".
  • Es un mecanismo que permite vender la exposición crediticia de préstamos a otros inversores mientras mantienen los préstamos en sus libros.
  • Deutsche Bank incluso está evaluando apostar en corto contra acciones relacionadas con la IA.

Por qué es importante. Estos movimientos cuentan a las claras una cierta desconfianza en la viabilidad económica de la infraestructura que están financiando. Morgan Stanley, Deutsche Bank, Goldman Sachs, JP Morgan y MUFG han participado en las mayores operaciones de financiación de centros de datos del mundo, incluyendo varios préstamos a CoreWeave y los proyectos Stargate, pero ahora buscan reducir su exposición a esos mismos activos.

Las cifras. En 2025 se cerraron al menos 178.500 millones de dólares en financiación de centros de datos solo en Estados Unidos, casi el triple que en 2024.

CoreWeave, uno de los mayores operadores, arrastra 25.000 millones en deuda sobre unos ingresos estimados de 5.350 millones, perdiendo cientos de millones cada trimestre.

El contexto. Los centros de datos de IA funcionan mediante un modelo de financiación circular:

  1. Firman contratos con sus clientes antes de tener la infraestructura física.
  2. Utilizan esos contratos como garantía para conseguir deuda bancaria.
  3. Compran GPUs de NVIDIA y construyen instalaciones que tardan entre uno y tres años en estar operativas.

Solo entonces comienzan a generar ingresos mensuales. Si se retrasa la construcción o el cliente no puede pagar, el préstamo se queda en el aire.

Entre líneas. La banca que ha alimentado la burbuja ahora se está cubriendo las espaldas.

Sí, pero. Los bancos argumentan que estas coberturas son prácticas normales de gestión de riesgo. El problema es que se están cubriendo frente a préstamos que ellos mismos estructuraron y aprobaron, muchos de ellos a clientes cuya capacidad de pago es, como mínimo, incierta.

CoreWeave ha ofrecido a OpenAI condiciones de pago neto 360 (un año desde la factura para liquidar), según su acuerdo de préstamo. Si OpenAI, que necesita recaudar 100.000 millones para seguir operando, decide no pagar, CoreWeave incumple automáticamente sus obligaciones crediticias. Y CoreWeave es, probablemente, el operador mejor financiado del sector de las neoclouds.

El rastro del dinero. NVIDIA anunció en octubre que garantizaría 860 millones de dólares en obligaciones de arrendamiento de un socio a cambio de warrants, con 470 millones depositados en una cuenta de garantía.

En el balance de CoreWeave del tercer trimestre aparece una partida de "efectivo restringido no corriente" por 477,5 millones. NVIDIA también firmó un contrato de 6.300 millones con CoreWeave para comprar la capacidad que CoreWeave no logre vender hasta 2032.

Profundiza. Los bancos que están cubriendo sus apuestas son los mismos que han financiado la mayor parte de la infraestructura de IA global. No están vendiendo el riesgo de cualquier préstamo, sino el riesgo de centros de datos que pueden no encenderse nunca, o que si lo hacen, servirán a clientes que queman miles de millones sin generar beneficios.

Cuando los financiadores del boom dan muestras de haber dejado de creer en el boom, conviene prestar atención.

En Xataka | Hemos llegado a un punto donde ni siquiera los CEO de Google o Microsoft niegan que tengamos una burbuja IA

Imagen destacada | İsmail Enes Ayhan



via Robótica e IA - Xataka https://ift.tt/WdV4AR6

La robótica acaba de romper otra barrera de escala: ya hay robots autónomos más pequeños que un grano de sal

La robótica acaba de romper otra barrera de escala: ya hay robots autónomos más pequeños que un grano de sal

La robótica lleva décadas persiguiendo una misma obsesión: reducir el tamaño de las máquinas sin vaciarlas de inteligencia. Hasta ahora, ese objetivo tenía un límite físico difícil de cruzar. A partir de cierto umbral, hacer un robot más pequeño implicaba asumir varias renuncias. Eso acaba de cambiar. Un equipo de investigadores ha demostrado que es posible construir un robot autónomo tan diminuto que apenas puede verse, pero que aun así es capaz de percibir su entorno, procesar información y responder sin intervención externa.

El desarrollo llega de la mano de investigadores de la Universidad de Pensilvania y la Universidad de Michigan, que han construido lo que el equipo describe como el robot programable autónomo más pequeño logrado hasta ahora. El dispositivo está pensado para operar sumergido en un fluido, y en ese entorno puede desplazarse y funcionar. En el artículo científico se describe un cuerpo de aproximadamente 210 por 340 micrómetros y 50 micrómetros de grosor. Su escala es tan reducida que puede apoyarse sobre la cresta de una huella dactilar y resulta casi invisible a simple vista.

Un robot completo a escala microscópica. La diferencia frente a intentos anteriores no está solo en la miniaturización, sino en lo que teóricamente este dispositivo consigue integrar. Según los investigadores, el microrrobot incorpora sistemas de computación, memoria, sensores, comunicación y locomoción dentro de una única plataforma autónoma. Hasta ahora, a menudo estos sistemas dependían de equipos externos para procesar información o tomar decisiones. En este caso, el robot puede ejecutar algoritmos definidos digitalmente y modificar su comportamiento en función de lo que ocurre a su alrededor.

Bot Clipped Chip Bot Clipped Chip

El principal obstáculo para llegar hasta aquí no ha sido conceptual, sino físico. A escalas micrométricas, las reglas cambian: la gravedad y la inercia pierden peso, y dominan fuerzas como la viscosidad y el arrastre. En ese entorno, desplazarse por un fluido se parece más a avanzar a través de un material espeso que a nadar en agua. A esta dificultad se suma una restricción aún más severa, la energética. Con presupuestos de potencia en torno a los 100 nanovatios, integrar al mismo tiempo propulsión y computación había sido, hasta ahora, un compromiso casi imposible.

Electrónica diseñada para sobrevivir con casi nada de energía. La solución pasó por replantear desde cero la arquitectura electrónica del robot. El equipo trabajó con un proceso CMOS de 55 nanómetros y recurrió a lógica digital en régimen subumbral para mantener el consumo dentro de un presupuesto cercano a los 100 nanovatios. En ese espacio lograron integrar células fotovoltaicas para la alimentación, sensores de temperatura, circuitos de control para los actuadores, un receptor óptico para programación y comunicación, además de un procesador con memoria.

La locomoción es uno de los aspectos más singulares del diseño. En lugar de motores o apéndices, el microrrobot utiliza campos eléctricos para inducir corrientes en el fluido que lo rodea, desplazándose sin partes móviles susceptibles de romperse. Sus creadores lo describen como un sistema en el que el robot genera su propio “río” para avanzar. Esa misma lógica minimalista se extiende a la comunicación. Las mediciones que realiza, como la temperatura, se codifican en secuencias de movimiento, un método simple pero eficaz a esta escala.

Triple Motor Flow 1024x762 1 Triple Motor Flow 1024x762 1

Robots diminutos que actúan en conjunto. Más allá del comportamiento individual, el equipo ha demostrado que estos microrrobots pueden sincronizarse y operar en grupo. Según explican los investigadores, varios dispositivos son capaces de coordinar sus movimientos y formar patrones colectivos comparables a los bancos de peces. Este enfoque abre la puerta a tareas distribuidas, en las que cada unidad aporta información o acción local. En teoría, estos grupos podrían seguir funcionando de forma autónoma durante meses si se mantienen cargados con luz LED sobre sus células solares, aunque la memoria disponible limita por ahora la complejidad de los comportamientos programables.

Con esta plataforma, los investigadores plantean un camino hacia microrrobots de propósito más general, capaces de ejecutar tareas en entornos difíciles sin supervisión constante. En el horizonte aparecen aplicaciones que hoy están más cerca del laboratorio que del mundo real, por ejemplo en biomedicina, donde dispositivos de este tipo podrían llegar a operar en fluidos del cuerpo. El propio equipo insiste en que esto es solo un primer paso. El avance abre una base técnica, pero el salto a usos prácticos dependerá de aumentar prestaciones.

Imágenes | Universidad de Pensilvania y la Universidad de Michigan

En Xataka | Aún no sabemos si los robots humanoides serán la próxima gran revolución tecnológica. Sí sabemos que la liderará China



via Robótica e IA - Xataka https://ift.tt/4yg1T2d

Corea del Sur acaba de encender A.X K1. "Una IA para todos" que mete al país en la carrera de China y EEUU

Corea del Sur acaba de encender A.X K1. "Una IA para todos" que mete al país en la carrera de China y EEUU

La carrera por la inteligencia artificial es el nuevo diamante de la economía de muchos países. Uno al que están arrojando dinero como si el mundo se fuera a acabar y que está teniendo serias implicaciones en temas que afectan al ciudadano como la energía, el empleo y con una última polémica: el desorbitado precio de la memoria RAM. Las grandes potencias quieren ser soberanas en este campo, y Corea del Sur acaba de encender su primer modelo de inteligencia artificial a hiperescala.

Su nombre podría ser el de algún hijo de Elon Musk: A.X K1.

En corto. Desarrollado por el gigante SK Telecom, A.X K1 es un modelo que cuenta con 519.000 millones de parámetros totales, aunque durante la inferencia, que es el caso de uso práctico, "sólo" activa unos 33.000 millones. Sigue siendo preciso (todo lo que una IA puede serlo) pero consume muchos menos recursos. Ese modo 519B - A33B está basado en la arquitectura ‘mixture of experts’ que selecciona en tiempo real y de forma dinámica los subconjuntos de parámetros óptimos para cada tarea.

Estos parámetros son como las conexiones neuronales que permiten al modelo “aprender” durante el entrenamiento, y que Corea del Sur ya tenga un modelo a hiperescala es un salto enorme en la posición del país dentro de la foto global de la IA.

Modelo Maestro. El diseño de este modelo permite un rendimiento estable en tareas como el razonamiento avanzado, las matemáticas y la comprensión multilingüe, pero además hay un concepto interesante: funciona como un “Modelo Maestro”. Estos modelos son los que transfieren conocimiento a modelos más pequeños. Mientras el maestro sabe de todo, el modelo más ligero está especializado en una tarea concreta.

Y, si bien el modelo grande consume una enorme cantidad de recursos, el “estudiante” que hereda capacidades complejas sin necesidad de manejar tantos parámetros puede ejecutarse en dispositivos y entornos con recursos más limitados. Por ejemplo, el A.X K1 con esos 512B puede “transferir su conocimiento” a aquellos por debajo de la escala 70B, mucho más especializados y baratos.

"Como la compañía líder de IA de Corea, continuaremos impulsando nuestros esfuerzos para entregar IA para todos” - Tae Yoon Kim

“IA para todos”. En menos palabras: el modelo maestro permite acelerar la expansión de la IA porque se usa la hiperescala para la investigación, pero esa escala inferior para los productos más cotidianos. Y, precisamente, eso es lo que busca SK Telecom: que su IOA sea la base sobre la que opere el país. En colaboración con diferentes universidades, asociaciones y gracias al fabricante de memoria SK Hynix -uno de los gigantes del sector y parte de SK Telecom-, la compañía espera que sea los cimientos de una “IA para todos”.

Esto implica que lo desplegarán en sus servicios y, al ser open source, su API puede ser la base de otros modelos en ecosistemas universitarios, empresariales y hasta nacionales. De hecho, ya se habla de soluciones muy concretas, como un acceso a la IA a través de mensajes de texto y hasta llamadas telefónicas, pero también servicios de búsqueda multiidioma y hasta un impulso para la IA en videojuegos. Y, cómo no, para robótica humanoide o para la educación.

La gran ventaja que tiene el consorcio que posee A.X K1 es que es uno de los mayores grupos del mundo, con presencia en la industria de los semiconductores, la telefonía, el transporte, la construcción, la energía o los videojuegos. Por tanto, puede escalar fácilmente esta tecnología.

Tercero en discordia. SK Telecom ha confirmado que planea seguir expandiendo su modelo con la ejecución basada en agentes y esos 519B permiten que Corea se convierta en “una de las tres principales naciones de inteligencia artificial del mundo”, según palabras de Tae Yoon Kim, uno de los responsables del modelo.

La intención del grupo es ayudar a “consolidar Corea del Sur como una de las tres principales naciones de inteligencia artificial del mundo”, una carrera que se está llevando recursos difíciles de contextualizar tanto en Estados Unidos como en China y que está aplastando mercados como el de la memoria RAM para consumidores.

Imagen | SK Telecom

En Xataka | Al despliegue desorbitado de centros de datos para la IA le ha salido un nuevo problema: las cavernas de sal



via Robótica e IA - Xataka https://ift.tt/uJNBvnQ

lunes, 29 de diciembre de 2025

Las cadenas hoteleras están reforzando sus programas de fidelización por un motivo que nada tiene que ver con hoteles: la IA

Las cadenas hoteleras están reforzando sus programas de fidelización por un motivo que nada tiene que ver con hoteles: la IA

Marriott, Hilton y Hyatt, tres de las mayores cadenas hoteleras del mundo, están acelerando sus programas de fidelización para conseguir reservas directas, según explica Financial Times. El objetivo inmediato es ahorrarse las comisiones del 15-25% que pagan a Booking o Expedia, pero la preocupación real es otra: prepararse para cuando los agentes de IA reserven viajes por nosotros.

Por qué es importante. Quien controle la relación con el cliente cuando los agentes de IA se generalicen controlará el negocio. Las cadenas hoteleras han visto esta película antes:

  • Es lo que les pasó a las tiendas de comercio electrónico que vendían directamente, pero fueron desintermediadas por Amazon Marketplace.
  • O a los bloggers que pasaron de publicar en sus propias webs a plataformas como Substack, que prometían alcance y parné.
  • O los desarrolladores que pasaron de vender software directamente a depender de las tiendas de Apple y Google.
  • O, ejem, de los medios que perdieron el control de la distribución ante, básicamente, Google.

Los hechos. Las cadenas hoteleras están impulsando sus programas:

  1. Marriott Bonvoy alcanzó los 260 millones de miembros en septiembre, un 18% más que un año atrás.
  2. Hilton está facilitando el acceso a niveles superiores mientras pacta alianzas para usar los puntos fuera de su cartera.
  3. La directora financiera de Marriott ya ha declarado que las reservas mediante IA "podrían ser más baratas que las OTA".

Traducción: prefieren pagar comisiones a OpenAI que a Booking. Pero solo si mantienen el control de los datos y la relación con el cliente.

Entre líneas. La obsesión con los programas de fidelización tiene su lógica. Si consiguen que 260 millones de personas sean "miembros Bonvoy" con preferencias registradas y puntos acumulados, cuando lleguen los agentes de IA estos tendrán que contar con ellos.

O eso esperan. Porque esta estrategia asume que a los agentes de IA les importarán las marcas. Pero puede que no.

Sí, pero. Un agente conversacional realmente útil escaneará toda la oferta disponible, comparará precios en tiempo real, leerá miles de reseñas y reservará. Sin que necesites ver interfaz alguna. Sin que la marca importe demasiado. Optimizando por precio, ubicación y valoraciones, no por si es un Marriott o un Hilton.

Si el cliente nunca ve la marca, muchas décadas y muchos dólares invertidos en reconocimiento de marca se evaporan.

La gran pregunta. ¿En quién confiaremos más: en Booking, que sabemos que cobra comisión al hotel, o en un agente de IA del que no sabemos qué incentivos tiene para llevarnos a un sitio u otro?

Al menos las plataformas actuales son transparentes: cobran al hotel y tú pagas lo que ves. Con agentes opacos tomando decisiones por nosotros, ni siquiera tendremos eso.

En perspectiva. Este patrón se repetirá en decenas de industrias. Comparadores de seguros, marketplaces, reservas de restaurantes, selección de inversiones... Cualquier intermediario digital cuyo valor sea "ayudarte a elegir" puede ser sustituido por un agente de IA que elija por ti.

Los hoteles no serán los únicos construyendo murallas de fidelización. Cualquier empresa cuyo contacto con el cliente final esté intermediado por plataformas digitales debería estar preparándose. Porque los agentes de IA no llegarán en cinco años. Los primeros ya están aquí, torpes, pero mejorando cada trimestre.

En Xataka | Los agentes de IA son muy útiles, hasta que se vuelven en tu contra para filtrar información: los peligros del 'prompt injection'

Imagen destacada | Michal Mrozek



via Robótica e IA - Xataka https://ift.tt/ymXgw5e

En el móvil de ByteDance, Android es secundario. La IA es el sistema operativo real

En el móvil de ByteDance, Android es secundario. La IA es el sistema operativo real

El Doubao AI smartphone, un móvil chino que vimos llegar hace unas semanas, no es otro móvil con funciones de IA metidas a capón, sino un intento serio de convertir la IA en el sistema operativo real del dispositivo, uno capaz de relegar a Android a mera infraestructura.

La apuesta de ByteDance es clara: quien controle el asistente que ejecuta las tareas será quien controle al usuario. Aunque no controle la tienda de aplicaciones. Eso rompe con el modelo de los últimos diecisiete años.

Por qué es importante. El modelo no ha cambiado desde 2008:

  • El sistema operativo canaliza al usuario hacia su ecosistema de aplicaciones.
  • Esa tienda de aplicaciones es capital para el 99% de usuarios: sin ella, no vería el valor.
  • Y esa tienda permite a la plataforma capturar tráfico, datos y transacciones.

La propuesta de Doubao quiere cambiar de modelo hacia uno en el que el usuario habla y la IA ejecuta cruzando aplicaciones sin que el usuario tenga que entrar en ellas. Las superaplicaciones chinas pasan a ser infraestructura invisible para el usuario. La propia Doubao lleva tiempo apuntando en esa dirección con otros dispositivos, como unos auriculares.

Entre líneas. Esas mismas superaplicaciones no están contentas con esta propuesta, y de hecho cuando Doubao simula toques para completar las tareas, WeChat o Alipay lo interpretan como un ataque, así que bloquean los intentos y cierran sesiones.

WeChat ha construido su imperio sobre el control de la experiencia y los pagos, Alipay ha invertido mucho dinero en llegar a la retención total del usuario. Una IA que compare precios entre rivales rompe su deseada cautividad.

  • ByteDance ha copiado el modelo Seres-Huawei: ZTE pone la carcasa, ByteDance pone el cerebro. Y así es como consigue privilegios de sistema operativo.
  • Doubao tiene permiso para todo por defecto y Android pasa a ser más parecida a una aplicación más, porque fabricante y capa de IA lo controlan todo.

Sí, pero. La precisión ronda el 50% en tareas complejas que integren a varias aplicaciones. Funciona en escenarios simples, falla cuando el usuario pide algo que requiere coordinar tres aplicaciones diferentes.

Los fabricantes tradicionales como Samsung, Xiaomi u Oppo no pueden adoptar un modelo como este porque les supondría entregar el control a un tercero. La vía alternativa es construir un marco en el que la IA pueda coordinar aplicaciones, pero con esas aplicaciones manteniendo el control mediante APIs.

El rastro del dinero. ByteDance no tiene como modelo de negocio la venta de móviles a precio de gama media. Su modelo está en los datos de comportamiento, el tráfico hacia sus servicios y las comisiones sobre transacciones ejecutadas por la IA. El smartphone es la puerta de entrada y la IA su gran apuesta en la que usa TikTok como un trampolín.

Y ahora qué. Esta no es una batalla entre asistentes sino entre modelos:

  1. El app-céntrico que lleva diecisiete años funcionando.
  2. El IA-céntrico donde las aplicaciones tienden a volverse invisibles.

ByteDance apuesta por el segundo, que cambia el punto de entrada al usuario. Ese punto de entrada lleva tres lustros en el icono de la aplicación. ByteDance cree que mañana estará en el micrófono.

Imagen destacada | Doubao

En Xataka | Han desmontado los últimos móviles de Huawei y lo que han encontrado es una mala noticia para EEUU: 57%






via Robótica e IA - Xataka https://ift.tt/2REUFy4

domingo, 28 de diciembre de 2025

La IA ya genera fotos indistinguibles de la realidad, así que la gente está usándola para cobrar devoluciones falsas

La IA ya genera fotos indistinguibles de la realidad, así que la gente está usándola para cobrar devoluciones falsas

La foto de la izquierda la he hecho yo misma en la encimera de mi baño, la segunda es el resultado de pedirle a Nano Banana que simulara que se había golpeado durante el transporte. Si no fuera por el logo de Gemini en la esquina inferior derecha (que se puede quitar muy fácilmente), pasaría perfectamente por una foto real. Las tiendas online tienen un problema.

Qué está pasando. Hay una tendencia cada vez más común en el mundo de las ventas online. Algunos clientes están aprovechando modelos de generación de imágenes como Nano Banana para solicitar devoluciones de productos. Es lo que hizo esta persona:

  • Pidió un cartón de huevos en un servicio de entrega rápida a domicilio.
  • Uno de los 24 huevos estaba roto. 
  • Hizo una foto y le pidió a Gemini que añadiera más huevos rotos.
  • La envió al servicio de atención al cliente y voilà: devolución completada.

Por qué es importante. Las imágenes ya no son prueba de nada, lo vimos con las primeras imágenes generadas con Nano Banana Pro que se viralizaron, y vamos a tener que aprender a vivir con ello. No sólo es que vamos a dudar de absolutamente cada imagen que vemos, también significa que cualquier cosa que pudiera ser verificada con imágenes, ahora puede ser falsa. Hay muchos más escenarios: engañar a tu jefe diciéndole que has tenido un accidente de camino al trabajo, exagerar los daños a tu compañía de seguros, mentir a tu pareja...

China lleva ventaja. Cuentan en South China Morning Post que la tendencia de engañar a empresas de venta online con IA es una tendencia que se está extendiendo como la pólvora. Durante la pasada celebración del 11.11, varias tiendas recibieron imágenes de clientes que pedían un reembolso usando imágenes generadas con IA, como un cepillo de dientes eléctrico oxidado, una prenda de ropa deshilachada o una taza de cerámica quebrada. 

Hay un caso del que se ha hecho eco Wired, en el que un cliente que compró cangrejos vivos reclamó una devolución porque muchos habían llegado muertos. Para probarlo envió imágenes y hasta vídeos, pero los vendedores notaron que el vídeo no era real porque había cangrejos con más patas. El problema de estos casos detectados es que las imágenes no eran creíbles, pero eso nos hace pensar en todas las imágenes más sutiles que sí serán dadas por buenas. 

Hay más casos. China tiene el mayor sistema de comercio online, por lo que tiene sentido que se hayan detectado más casos, pero no es una tendencia exclusiva de un país. El caso de los huevos que mencionábamos más arriba se produjo en India y en Estados Unidos también se han detectado casos. Según la firma de detección de fraudes Forter, el uso de imágenes IA para este tipo de engaños ha aumentado un 15% en 2025, coincidiendo con la llegada de modelos de generación de imágenes más capaces. Con Nano Banana Pro tiene pinta de que la tendencia va a dar un subidón importante. 

Devoluciones sin retorno. Evidentemente, esta técnica no puede usarse con cualquier producto. Hay casos en los que las tiendas nos devuelven el dinero sin que sea necesario que devolvamos el producto. Puede aplicar en caso de productos perecederos, frágiles y en general productos de bajo valor. Si las imágenes ya no son prueba, tendrán que cambiar la estrategia. Hacernos enviar una botella de champú rota no sé si sería la mejor opción, pero podrían obligar a que las fotos que se envíen solamente puedan hacerse desde la propia app y no subir las que tenemos en el carrete.

Imagen | Amparo Babiloni, Xataka

En Xataka | FACUA cree que un montón de balizas V16 "homologadas por la DGT" no son legales. Y tiene una forma de resumirlo: fraude



via Robótica e IA - Xataka https://ift.tt/hTo0R1B

Aún no sabemos si los robots humanoides serán la próxima gran revolución tecnológica. Sí sabemos que la liderará China

Aún no sabemos si los robots humanoides serán la próxima gran revolución tecnológica. Sí sabemos que la liderará China

Hay un montón de empresas empeñadas en vendernos la idea de que, en un futuro no muy lejano, todos tendremos un robot humanoide en casa. Tenemos muchas dudas de vayan a ser la revolución que prometen (y hay razones para ello), pero en China lo tienen clarísimo.

Patentes. Cuentan en South China Morning Post que Morgan Stanley ha publicado el volumen 3 de su serie 'Robot Almanac', en la que se detallan algunos datos clave del estado de la industria de los robots humanoides. China va muy por delante en lo que a patentes se refiere, habiendo registrado 7.705 patentes en los últimos cinco años, mientras que en Estados Unidos han registrado 1.561 casi cinco veces menos que su rival tecnológico por excelencia.

Dependencia. No sólo se trata de patentes, China tiene otra ventaja clave y es que sus líneas de producción son mucho más eficientes desde el punto de vista de los costes. Esto provoca que el resto de empresas que fabrican humanoides dependan de ellos si no quieren que el coste de producción se les dispare.

El coste de construir una cadena de suministro en la que China quedara fuera, subiría los precios de forma exponencial. El informe calcula que fabricar el Tesla Optimus Gen 2 sin la participación de China elevaría el coste de unos 46.000 dólares hasta 131.000 dólares. 

Obsesión por los robots. Los robots humanoides de empresas como Unitree o Deep Robotics llevan mucho tiempo en el ojo público. Los hemos visto participar en las primeras olimpiadas robóticas, pelearse, jugar al fútbol y como cuerpo de baile en macroconciertos. Son apariciones claramente enfocadas a viralizarse, mostrar sus capacidades al mundo y, en última instancia, que la gente los vea como algo cool y quiera comprarse uno. Sin embargo, aunque los humanoides se lleven todos los focos, son sólo la punta del iceberg de una estrategia que va mucho más allá.

IA personificada. En inglés sería 'embodied AI' y es el enfoque que China ha adoptado en su particular carrera de la IA. El gobierno incluyó el término en su informe del trabajo de este año, lo que pone de relieve su importancia estratégica.  Más que grandes modelos de lenguaje y software, China quiere una IA que está presente, ya sea en forma de robots humanoides, drones, vehículos autónomos o robots industriales. Hablando de industria, adivinad quién tiene el 51% de todos los robots industriales del mundo. Exacto: China.

Robots industriales. Según datos de Financial Times, China instala 280.000 robots al año en sus fábricas con un objetivo claro: automatizar para conseguir la mayor eficiencia y poder seguir siendo la fábrica del mundo. Ahora que los sueldos de los trabajadores son más elevados, la forma que han encontrado para seguir siendo competitivos frente a mercados como India o Bangladesh es la automatización. 

Imagen | Andy Kelly en Unsplash

En Xataka | He pedido agua al primer robot humanoide que trabaja en Pekín. Es una máquina expendedora rara



via Robótica e IA - Xataka https://ift.tt/BPwRdj4

El arranque de ALIA, el modelo de IA español, ha sido errático y decepcionante. Ahora sabemos por qué

El arranque de ALIA, el modelo de IA español, ha sido errático y decepcionante. Ahora sabemos por qué

Empecemos por lo importante. ALIA, el modelo de IA español, no tenía que haberse lanzado cuando se lanzó

En Xataka hemos hablado con uno de los principales responsables de su desarrollo y eso nos ha permitido conocer y entender mucho mejor su alcance y sus objetivos, pero también por qué la (inevitable) comparación con ChatGPT no solo es injusta: es inapropiada.

ALIA-40b es un modelo fundacional de IA, esto es, un modelo de inteligencia artificial de gran escala entrenado con una cantidad masiva y diversa de datos, y que sirve como base para multitud de aplicaciones distintas. Este proyecto está coordinado por el Barcelona Supercomputing Center (BSC-CNS), y aunque se ha podido beneficiar de la infraestructura del supercomputador MareNostrum 5, incluso esa ventaja ha sido limitada. 

Como decimos, comparar el rendimiento de ALIA-40b con el de modelos como GPT-5 o Gemini 3 es inapropiado, y para entenderlo todo mejor hay que entender de dónde parte el proyecto, qué objetivos tiene y cómo su desarrollo es mucho más modesto —y aun así prometedor— que el de los grandes modelos propietarios de EEUU y también el de los llamativos modelos abiertos que están apareciendo en China. Conozcamos más de cerca qué pasó con ALIA... y qué esperamos que pase.

Promesas y realidades

Aquel 20 de enero de 2025, Pedro Sánchez, presidente del Gobierno de España, anunciaba el lanzamiento de ALIA y todo parecía sonar bien. Ya había avisado casi un año antes de esta iniciativa, aunque entonces apenas dio detalles. Se habló de la familia de modelos de IA en castellano y lenguas cooficiales "pensados para fomentar la investigación en este campo y desarrollar soluciones tecnológicas en castellano, el cuarto idioma más hablado del mundo y el segundo más usado en Internet". 

Incluso se mencionó que ya estaban en marcha proyectos para aplicar ALIA en dos proyectos piloto para la Agencia Tributaria y para una aplicación en la medicina de atención primaria. En la web del BSC-CNS se aportaron algunos detalles técnicos: ALIA-40b era, según los responsables de dicho organismo:

"El modelo fundacional multilingüe público más avanzado de Europa con 40.000 millones de parámetros, que ha sido entrenado durante más de 8 meses en el MareNostrum 5 con 6,9 billones de tokens (palabras o fragmentos de palabras usadas en estos sistemas) en 35 lenguas europeas. Su versión final estará entrenada con hasta 9,2 billones de tokens".

La realidad era algo distinta. De hecho, ALIA-40b fue criticado entre quienes lo probaron. Las pruebas de rendimiento iniciales ya mostraron cómo el rendimiento era muy pobre y comparable al de Llama-2-34b, un modelo Open Source que se lanzó a mediados de 2023. 

Captura De Pantalla 2025 09 17 A Las 10 23 52 Captura De Pantalla 2025 09 17 A Las 10 23 52 En el estudio de la UPV se puede ver como ALIA-40b, Salamandra-2b y Salamandra-7b fueron de lejos los peores en las pruebas realizadas.

Un estudio posterior de investigadores de la Universidad de Valencia puso a prueba esa capacidad y sus conclusiones fueron claras. En exámenes de matemáticas tipo test puntuó peor que el resto de LLMs, e incluso puntuó peor que si hubiera tratado de adivinar las respuestas. 

El mensaje fue claro: ALIA estaba muy por detrás de sus competidores. El modelo ni siquiera forma parte de grandes comparativas de rendimiento como las de LLM-Stats, Artificial Analysis y sobre todo LMArena que entre sus 176 modelos no incluye el modelo español.

Un lanzamiento prematuro

Hay una razón sencilla para ese comportamiento: ALIA ni siquiera estaba preparado para esas pruebas, y no lo estaba porque se lanzó de forma prematura. Nos lo explica Aitor González-Agirre, uno de los responsables del desarrollo de ALIA en en BSC.

Aitor Aitor

Él destaca que aquel lanzamiento "no fue una decisión técnica". A la hora de entrenar ALIA el equipo se encontró con un problema clásico: tuvieron que interrumpir un proceso diseñado para ser largo mucho antes de tiempo. 

En el entrenamiento de modelos de IA hay un concepto llamado tasa de aprendizaje que indica la "velocidad" a la que el modelo aprende. Al principio quieres una tasa alta para aprender "rápido" y absorber conceptos generales, pero al final quieres una tasa muy baja que permita pulir detalles finos y asentar ese conocimiento sin romper lo aprendido. 

Para realizar ese entrenamiento se utiliza un planificador (scheduler) que le dice a la máquina —en este caso, MareNostrum 5— cómo ir cambiando esa velocidad a lo largo del tiempo, y aquí se usó un scheduler basado en coseno: empieza en un pico alto, baja suavemente al principio, pero luego baja más rápidamente en el medio para aterrizar muy suavamente al final. 

González-Agirre indica que con ALIA tenían la intención de entrenar "con 12 billones de tokens (12T)", pero la realidad es que por decisiones estratégicas pero no técnicas tuvieron que parar. 

"Sabíamos que no se iba a poder hacer", añade. Aunque tuvieron acceso a MareNostrum 5 para hacer pruebas iniciales, tuvieron que lanzar el modelo cuando solo llevaban 2,3 billones de tokens. El scheduler aun estaba en fase de velocidad alta, no había llegado a esa fase final de refinamiento, y básicamente el modelo no estaba básicamente "crudo".

Captura De Pantalla 2025 11 24 A Las 16 44 14 Captura De Pantalla 2025 11 24 A Las 16 44 14 La descripción de ALIA-40b en Hugging Face muestra una advertencia clara del estado del modelo, que no cuenta aún con instrucciones ni alineamiento, y que por tanto puede generar salidas inapropiadas, incorrectas o incluso inseguras. Sigue siendo un modelo "crudo" en pleno desarrollo, y hay que tomarlo como tal.

Hubo un problema adicional, indica este experto. ALIA-40B "se lanzó como modelo preentrenado. No tenía instrucciones ni alineamiento ni nada. El modelo no era un producto final, no era ese el objetivo". Para mucha gente ALIA-40b simplemente a esas alturas debía poder contestar a nuestras preguntas de forma más o menos coherente, pero no lo hacía, y ahí entran esas diferencias tan claras de esas "capas" del proceso de desarrollo de un modelo de IA:

  • Modelo preentrenado (pre-trained, la base bruta): sabe predecir qué palabra viene después de otra, pero no sabe charlar ni obedecer. No es capaz de saber si le estás haciendo una pregunta, y solo intenta adivinar el texto que viene a continuación. Las respuestas, por tanto, pueden ser totalmente incoherentes con lo que nosotros pretendíamos preguntar. Es un modelo "crudo", casi "salvaje". 
  • Instrucciones (Instruction Tuning): al modelo crudo se le entrena con ejemplos específicos de pregunta-respuesta y se le enseña al modelo a ejecutar ciertas acciones. Cuando al modelo preentrenado le dices "La capital de Francia es... "él puede completar con "... una ciudad bonita". Pero el modelo con instrucciones (a menudo llevan el "apellido" Instruct en su nombre) le enseñas que debe responder "... París".
  • Alineamiento (Alignment): en esta capa se le añade seguridad y estilo al modelo y a menudo se aplica aprendizaje por refuerzo por retroalimentación humana. Aquí el modelo aprende que no debe contestar ciertas preguntas (de ahí respuestas del tpo "No puedo ayudarte con eso" cuando pedimos a un modelo que nos ayude a crear una bomba), y también a no ser grosero o racista, por ejemplo.

ALIA-40b ni siquiera había completado su fase inicial de entrenamiento cuando se presentó, y eso hizo que aquella versión inicial no estuviese preparada para salir a escena: "solo era un modelo que completaba texto" pero simplemente lo hacía de formas que no eran las que esperábamos. Aquel desconocimiento de las condiciones en las que salió provocó cierta decepción, y a esa sensación se unió otro fenómeno: el provocado por DeepSeek.

Meses después esa fase inicial sí está completada, y González-Agirre indica que el comportamiento actual del modelo es mucho mejor. Al compararlo con el modelo suizo Apertus-8b, y con variantes de Qwen y Llama-3 afirma que "es el mejor de los modelos en euskera, y el segundo en catalán y gallego". De hecho la ventana de contexto del modelo actual se ha ampliado a 160K tokens (160.000), cuando inicialmente se le criticó mucho que fuera de tan solo 4K, pero como dice este ingeniero "no se podía entrenar para más" en aquel momento.

Un camino plagado de obstáculos

A partir de aquí el camino se allana un poco, y según este experto para final de año quieren "tener un modelo que tenga instrucciones y que responda como nosotros queremos", pero aquí se enfrentan a obstáculos importantes.

Probablemente uno de los más importantes está en el conjunto de datos al que pueden acceder para entrenar el modelo. Aquí González-Agirre explica la dicotomía:

"Hay muchas cosas que mejorar, pero también muchas restricciones de conjuntos de datos (datasets) que tenemos que respetar. Si eres una tecnológica con más abogados que Disney puedes hacer otras cosas, pero nosotros no usamos datos con copyright y tampoco usamos datos generados por Llama o GPT o por modelos que no permiten usar sus salidas".

De hecho, entre los conjuntos de datos utilizados para entrenar ALIA estaba Common Crawl, un repositorio en el que hay todo tipo de contenidos de internet que se usan sin pagar licencias. Fuentes citadas en El País indicaron recientemente que ese entrenamiento se amparó en la normativa vigente y "en una serie de excepciones para hacer minería de datos". Los autores pueden prohibir que se usen sus obras, pero deben seguir "un complejo proceso" para evitarlo. 

En el desarrollo de ALIA tienen muy en cuenta esos requisitos y de hecho tienen que regenerar esos conjuntos de datos para evitar que se incumplan cualquiera de los términos especificados. 

El mundo ya ha asumido que los modelos de IA han saqueado internet para su entrenamiento, y casi siempre sin pedir permiso o sin pagar por los contenidos con los que se han entrenado. Eso ha dado lugar a un sinfín de demandas, y también ha hecho que algunas empresas de IA lleguen a acuerdos extrajudiciales con los poseedores de esos derechos. Es lo que pasó hace unos meses con Anthropic, que firmó uno de esos acuerdos con un grupo de autores, a los que pagará unos 1.500 millones de dólares. Otras han seguido ese camino, pero no desde luego el desarrollo del BSC-CNS, que se enfrentó a otra dificultad: la capacidad de cómputo disponible.

Dicho acceso se ha ido reduciendo de forma notable con el tiempo. Marta Villegas, del equipo de desarrollo de ALIA, ya nos habló de ello en nuestra entrevista en enero. Aunque durante un breve espacio de tiempo tuvieron acceso a 512 de los 1.120 nodos especializados del supercomputador, se usaron 256 nodos durante bastantes meses y desde septiembre están usando 128 nodos, "que son muchos".

Esa cifra ahora se ha reducido a 16 nodos dedicados, lo que impide hacer pretraining. Aun así, explica, "también es cierto que en estos momentos estamos trabajando en una parte menos intensiva", pero esa limitación inicial también hacía imposible compararse con otros gigantes: "Con ChatGPT hicieron centenares de versiones distintas y se quedaron con la buena", pero ALIA solo se pudo entrenar una vez.

Hay otro problemón importante para que ALIA pueda avanzar, y es que como explica González-Agirre, "no tenemos inferencia". Es decir, no hay una app o un sitio web o plataforma tipo chat.alia.es que permita probar el modelo de IA en directo, como ocurre con ChatGPT, Gemini, Claude o cualquiera de sus competidores, incluso de modelos (relativamente) abiertos como Mistral.

"Quien no tenga coche, que al menos pueda ir en autobús"

Ese es otro obstáculo más porque, destaca nuestro protagonista, "no tenemos datos de los prompts que está usando la gente, de cómo usa el modelo, de esos pulgares hacia arriba y hacia abajo".

Captura De Pantalla 2025 11 26 A Las 16 38 56 Captura De Pantalla 2025 11 26 A Las 16 38 56 En Hugging Face se puede consultar cómo las actualizaciones son frecuentes en este proyecto: aparecen nuevos modelos cada pocas semanas... o días.

Esa infrmación le da muchas pistas a las grandes tecnológicas de si sus modelos están cumpliendo con las expectativas de los usuarios o no. Aquí añadía además algo importante:

"Hay opciones de tener inferencia y centros de datos. Están Jupiter, Leonardo o Lumi, por ejemplo, pero falta voluntad política. Esto es una alternativa pública, la necesitamos y no podemos dejar algo así en manos privadas". 

Para él que existan modelos comerciales y cerrados es normal y totalmente respetable, pero la analogía en su opinión es clara. Esto es como los coches privados y los autobuses: "quien no tenga coche, que al menos pueda ir en autobús". Esa es sin duda la razón de ser de un modelo que no pretende competir con ChatGPT o Gemini. González-Agirre señala que 

"Lo que pretendemos es que sea bueno en los idiomas cooficiales, que sea mejor que otros modelos, y lo siguiente es que esté alineado con nuestros valores y cultura. Que no sea un modelo de otro idioma hablando español. Que no pase como en los modelos chinos, que no pueden contestar algunas cosas. Que podamos defender que no tiene sesgos  ni de género, ni de raza, ni de edad, y que haya trazabilidad y transparencia completa".

Y aquí también destaca que en su equipo y en España "hay gente muy, muy buena, y que aprende mucho, pero me gustaría que esta gente tuviera recursos para quedarse aquí y contribuyese al tejido de España y Europa". 

ALIA se enfrenta también a una competencia feroz por parte de los modelos (más o menos) abiertos que llegan de China, y aunque González-Agirre admite que "tienen unos modelos muy buenos y eficientes, pero no tan baratos como ellos dicen", añade que "prefiero usar un modelo soberano que sé cómo está hecho". En ALIA la transparencia es completa, y además hacen uso de una licencia Apache que precisamente defiende ese enfoque abierto. 

El futuro inmediato de estos modelos es prometedor. "A finales de año tendremos versiones muy usables del modelo con un rendimiento parecido a modelos de su tamaño", pero tendrán que trabajar también con su equipo Red Team —que intenta hacer "jailbreak" de ALIA para evitar que genere cosas que no debe. 

A partir de ahí, el objetivo es el de lograr versiones de ALIA que tengan capacidades de razonamiento, agénticas y que también sea capaz de realizar llamadas a herramientas, como algunos de sus competidores comerciales. El camino será probablemente mucho más difícil que el de las grandes empresas que no paran de lanzar novedades sin pedir ni permiso ni perdón, pero el resultado, esperemos, valdrá la pena.

En Xataka | España ha firmado un acuerdo con IBM para chatbots de IA en euskera, gallego y catalán. El problema es que ya existen



via Robótica e IA - Xataka https://ift.tt/nJkB5Kv