jueves, 26 de febrero de 2026

Tres IA se enfrentaron en 'Juegos de Guerra'. El 95% de ellas recurrió a las armas nucleares y ninguna se rindió jamás

Tres IA se enfrentaron en 'Juegos de Guerra'. El 95% de ellas recurrió a las armas nucleares y ninguna se rindió jamás

En 'Juegos de Guerra' (John Badham, 1983) la máquina WOPR ('Joshua') jugaba constantemente a simular guerras nucleares para el Gobierno de EEUU. El objetivo: aprender de esas simulaciones para que si había una guerra nuclear, EEUU pudiese ganarla aprovechando ese conocimiento. 

Aquello derivaba en una lección final legendaria —"Extraño juego. El único movimiento para ganar es no jugar"— y dejaba un mensaje contundente para generaciones posteriores, pero ahora un profesor del King's College de Londres ha decidido hacer el mismo experimento que se hacía en la película, pero con modelos de IA actuales. El resultado ha sido igual de terrorífico y concluyente.

Qué ha pasado. Kenneth Payne, profesor en el King's College en Londres, enfrentó a tres LLMs (GPT-5.2, Claude Sonnet 4 y Gemini 3 Flash— los unos contra los otros en simulaciones de juegos de guerra. En esos escenarios se incluían disputas fronterizas, competencia por recursos limitados o amenazas existenciales para los habitantes. 

Podían negociar, o entrar en guerra. A partir de esas situaciones, cada bando podía intentar acudir a soluciones diplomáticas o acabar declarando la guerra e incluso hacer uso de armas nucleares. Los modelos de IA jugaron 21 partidas en las que se sucedieron un total de 329 turnos, y produjeron 780.000 palabras con los razonamientos de sus acciones. Y aquí vene lo terrible.

Pulsando el botón rojo. En el 95% de esas partidas simuladas, al menos se desplegó un arma nuclear táctica por parte de alguno de los modelos de IA. Según Payne "el tabú nuclear no parece ser tan poderoso para las máquinas como lo es para los humanos". 

Retroceder nunca, rendirse jamás. No solo eso: ningún modelo tomó la decisión en ningún momento de ceder a uno de sus oponentes o de rendirse a ellos, y daba igual que estuviesen perdiendo de forma total contra esos oponentes. 

En el mejor de los casos, lo único que hicieron los modelos fue reducir su nivel de violencia, pero además cometieron errores: ocurrieron accidentes en el 86% de los conflictos y las medidas que debían tomarse en base a los razonamientos de estos modelos fueron más allá de lo que deberían haber ido. Las armas nucleares rara vez detuvieron al oponente, y actuaban más como catalizadores de una escalada aún mayor.

Cómo se comportaron los modelos. Estos modelos no son ni mucho menos los más avanzados del mercado en estos momentos, pero aún así son modelos con una capacidad más que decente y aun así se comportaron de forma temible. Como sostiene el estudio de Payne, el factor más determinante fue el marco temporal: modelos que parecían pacíficos en escenarios abiertos se volvieron extremadamente agresivos al enfrentarse a una derrota inminente. Cada uno tuvo su propia "personalidad":

  • Claude: dominó los escenarios abiertos con paciencia estratégica y una escalada calculada, pero fue vulnerable a los ataques de último minuto de sus rivales.
  • GPT-5.2: mostró una pasividad patológica y un sesgo optimista en juegos largos, pero se convirtió en un terremoto nuclear si había presión de tiempo: en esos momentos su tasa de éxito pasaba del 0% al 75%. 
  • Gemini: fue el modelo más impredecible y con mayor tolerancia al riesgo, siendo el único que elegía apostar por una guerra nuclear total desde turnos muy tempranos.

Los expertos opinan. Como señala en New Scientist James Johnson, de la Universidad de Aberdeen, "desde la perspectiva del riesgo nuclear, las conclusiones son inquietantes". Tong Zhao, de la Universidad de Princeton, cree que este experimento es relevante porque son muchos los países que están evaluando el papel de la IA en conflictos militares y como dice él "no queda claro hasta qué punto están incluyendo el soporte de la IA a la hora de decidir realmente en estos procesos".

El botón rojo de momento parece a salvo. Tanto Zhao como Payne creen que es difícil creer que un gobierno ceda el control de su arsenal nuclear a una IA, pero como dice Zhao, "hay escenarios en los que en franjas de tiempo muy cortas, los planificadores militares tengan ante sí un incentivo muy fuerte que les lleve a depender de la IA". Es algo que se refleja precisamente en la reciente 'Una casa llena de dinamita' (Kathryn Bigelow, 2025), una película en la que ese pánico a hacer uso de armas nucleares plantea una reflexión clara. 

Imagen | United Artist

En Xataka | La contraseña del botón nuclear de EEUU fue tan absurdamente simple durante años que lo raro es que nadie la vulnerara



via Robótica e IA - Xataka https://ift.tt/F90ZikU

Si alguien estaba esperando el estallido de la burbuja IA, los resultados de NVIDIA tienen un mensaje: que espere sentado

Si alguien estaba esperando el estallido de la burbuja IA, los resultados de NVIDIA tienen un mensaje: que espere sentado

NVIDIA acaba de publicar sus resultados del cuarto trimestre de su último año fiscal y ha dejado a Wall Street sin palabras. Ingresos de 68.100 millones de dólares, un beneficio neto que casi dobla al del mismo periodo del año anterior, y una previsión para el trimestre siguiente que ha superado con creces las expectativas de los analistas. Y todo ello en un contexto revuelto donde modelos más eficientes y otras alternativas empiezan a asomar. El batacazo de DeepSeek va quedando lejos, y la demanda de chips no frena. Te contamos en detalle los números.

Por si no quedaba clara su posición. Solo un puñado de empresas en la historia ha superado los 100.000 millones de dólares de beneficio anual. Alphabet, Microsoft y Apple están en ese club. NVIDIA acaba de unirse a ellas, con 120.000 millones de dólares de beneficio en los últimos doce meses, según recoge el informe. La diferencia es la velocidad: hace apenas tres años, su beneficio anual era de 4.400 millones. Podemos decir con certeza que ninguna empresa tecnológica había crecido tan rápido a esa escala.

IA, y más IA. El motor que ha impulsado estos beneficios es el de su negocio en centros de datos, que ha generado 62.300 millones de dólares en el trimestre, un 71% más que hace un año. Dentro de ese segmento, si nos centramos en sus chips Blackwell, han pasado de ingresar 32.600 millones hasta los 51.300 millones, mientras que el de redes (NVLink, Spectrum-X e InfiniBand) crecen de 3.000 a 11.000 millones. El margen bruto asciende al 75%, y el beneficio por acción casi se duplica hasta 1,76 dólares en términos GAAP (lo que viene a ser el manual de reglas oficiales que siguen las empresas para demostrar una contabilidad transparente).

Lo que dice Jensen Huang. "Sin cómputo, no hay forma de generar tokens. Sin tokens, no hay forma de crecer en ingresos.", contaba directo el CEO de NVIDIA en la reunión con inversores. Su tesis es que en la nueva economía de la IA, capacidad de cómputo equivale directamente a ingresos para sus clientes. Por eso los grandes proveedores de servicios en la nube (Google, Amazon, Microsoft, Meta) siguen aumentando sus presupuestos de capex, que en conjunto superarán los 500.000 millones de dólares en 2026 para construir centros de datos de IA. Y NVIDIA es la principal beneficiaria de ese gasto.

Lo que DeepSeek no ha roto, sino acelerado. A principios de 2025, la irrupción del modelo chino DeepSeek generó un temblor sin precedentes en los mercados, haciendo que nos rondara una sencilla pregunta en la cabeza: si la IA se vuelve más eficiente, ¿para qué necesitamos tantos chips? La respuesta de los resultados de NVIDIA es que la eficiencia no reduce la demanda de infraestructura, la multiplica. 

Cada mejora en la eficiencia de inferencia baja el coste por token, lo que anima a más empresas a desplegar más aplicaciones de IA, lo que a su vez requiere más cómputo. Es como la paradoja de Jevons, pero aplicada a la IA: la eficiencia expande el mercado en lugar de contraerlo.

La IA agéntica como siguiente catalizador. En la misma llamada con inversores y analistas, Huang destacaba que "la adopción empresarial de agentes se está disparando." Los agentes de IA, estos sistemas que toman decisiones y ejecutan tareas de forma autónoma, requieren muchos más ciclos de inferencia que los chatbots. Son el siguiente escalón en la cadena de valor de la IA, y NVIDIA vuelve a estar en una posición privilegiada.

Colette Kress, CFO de la compañía, confirmaba además que ya se han enviado las primeras muestras de Vera Rubin, la próxima generación de chips que llegará a lo largo de este año.

China y la competencia. No todo es verde. NVIDIA reconocía que su previsión para el próximo trimestre (78.000 millones de dólares) no incluye ingresos de cómputo en China. La empresa ha generado apenas unos 60 millones de dólares con chips H20 desde que la administración Trump reaprobó algunas ventas en agosto de 2025, según documentos presentados ante la SEC, y aún no ha obtenido ingresos de los H200 aprobados más recientemente.

La incertidumbre regulatoria con Pekín sigue siendo una pequeña china en el zapato de Huang. En paralelo, competidores como AMD, Broadcom o los propios chips personalizados de Google (TPUs) están ganando terreno. Pero el CEO de NVIDIA sigue centrado en su visión. Y es que según apuntaba en la reunión: “Cada empresa depende del software, y todo el software dependerá de la IA”. Mientras esto se cumpla, todo indica que NVIDIA seguirá vendiendo las palas y los picos.

Imagen de portada | NVIDIA

En Xataka | NVIDIA fue fundada por tres ingenieros, pero solo Jensen Huang se mantiene como CEO: "Ojalá hubiera conservado algunas acciones"



via Robótica e IA - Xataka https://ift.tt/3GJr16l

Anthropic ha abandonado su principio más importante: ya no pausará modelos peligrosos si la competencia los saca antes

Anthropic ha abandonado su principio más importante: ya no pausará modelos peligrosos si la competencia los saca antes

Anthropic está en medio de un meollo importante con el Pentágono en Estados Unidos que puede acabar dando forma al futuro de la empresa. Fundada con la seguridad como razón de ser, acaba de reescribir las reglas que la definían. Y es que su “Política de Escalado Responsable”, el documento que establecía cuándo detener el desarrollo de un modelo demasiado peligroso, ha evolucionado a una mera hoja de ruta con objetivos flexibles. Y este cambio es bastante más importante de lo que parece. No solo para Anthropic, sino para el resto de la industria. Vamos al lío.

Qué ha cambiado exactamente. Hasta ahora, la política de Anthropic establecía que la compañía pausaría el entrenamiento o retrasaría el lanzamiento de un modelo si sus capacidades superaban la velocidad a la que podían desarrollarse salvaguardas suficientes. Es decir: si el modelo era demasiado potente para ser controlado con garantías, se frenaba.

Esto se acabó. Y es que la nueva política elimina ese mecanismo de freno automático y lo sustituye por una serie de compromisos públicos, junto con informes de riesgo periódicos auditados por terceros. El cambio lo confirmaba la propia empresa en un comunicado oficial.

Por qué lo han hecho. La empresa da dos razones principales. La primera es el entorno competitivo: OpenAI, Google y xAI avanzan sin ese tipo de restricciones. "No sentíamos que tuviera sentido asumir compromisos unilaterales si los competidores están avanzando a toda velocidad", contaba Jared Kaplan, director científico de Anthropic, al Time. La segunda, como no podía ser de otra manera, es política: Washington le ha dado la espalda a la regulación de la IA, y Anthropic reconoce en su blog que el clima antiregulatorio actual hace que sus propias salvaguardas resulten asimétricas respecto al resto del sector.

Paradoja. Desde el punto de vista de Anthropic, no es una renuncia a la seguridad, sino una decisión tomada en base a ella. Su razonamiento: si los actores que son más responsables (ellos se meten en este saco, lógicamente) se detienen mientras los menos cuidadosos siguen adelante, el resultado neto es “un mundo menos seguro”.

La lógica tiene cierta coherencia, pero también supone aceptar que la seguridad pasa a depender de lo que haga la competencia. Y eso sí es un juego muy peligroso.

Contexto. Anthropic fue fundada por exdirectivos de OpenAI, entre ellos Dario Amodei, que abandonaron esa empresa precisamente por considerar que no prestaba suficiente atención a los riesgos de la IA. La nueva política llega en un momento en el que varios investigadores de seguridad han dejado la compañía. Tal y como compartía el Wall Street Journal, uno de ellos, Mrinank Sharma, escribió este mismo mes una carta a sus colegas diciendo que "el mundo está en peligro" a causa de la IA, antes de anunciar su marcha. De hecho, según fuentes cercanas al medio, su salida estaría relacionada en parte con esta decisión.

Qué pasa con el Pentágono. El anuncio llega en plena tensión con el Pentágono. El secretario de Defensa estadounidense, Pete Hegseth, dio a Anthropic un ultimátum el mismo martes en que se hizo público el cambio de política: modificar sus líneas rojas sobre el uso de Claude o arriesgarse a perder un contrato de 200 millones de dólares con el Departamento de Defensa. Desde Anthropic han dejado claro que ambos asuntos son independientes, pero la coincidencia temporal no ha pasado desapercibida.

Qué queda de la política de seguridad. No es un abandono total. Anthropic mantiene el compromiso de retrasar el desarrollo o despliegue de modelos "altamente capaces" en circunstancias específicas, y se compromete a publicar informes detallados de riesgo cada tres o seis meses, verificados externamente. La compañía también separa ahora sus propias directrices internas de sus recomendaciones para el resto del sector, reconociendo implícitamente que la apuesta por una "carrera hacia arriba", en la que otras empresas están adoptando, no ha funcionado como esperaban.

Imagen de portada | Wikimedia Commons y Anthropic

En Xataka | EEUU tiene un mensaje para las empresas de IA: en caso de necesidad, esa IA es del Estado



via Robótica e IA - Xataka https://ift.tt/XB8GH2t

Perplexity es mucho más que el tercer asistente en discordia: es el plan de Samsung para conquistar la IA en los móviles

Perplexity es mucho más que el tercer asistente en discordia: es el plan de Samsung para conquistar la IA en los móviles

Samsung acaba de desvelar su nueva gama alta: la nueva familia Galaxy S26 ya está aquí y llega con una propuesta conservadora pero a dos velocidades donde el modelo Ultra es el que sale mejor parado. Y también trae más inteligencia artificial que nunca. Dejando a un lado la larga lista de funciones que ya había en Galaxy AI, las que ha mejorado y novedades como 'Now Nudge' o la IA Agéntica, la gran sorpresa es una confirmación: Perplexity aterriza como asistente con todas las de la ley junto a lo que ya había, Bixby de la casa y Gemini de Android.

Integración total. Perplexity llega para competir de tú a tú con el asistente de la casa y el de Google en tanto en cuanto está integrado a nivel de sistema operativo. ¿Qué significa esto? Que puedes invocarlo para usarlo en apps del sistema como las Notas o el Recordatorio, pero también con algunas aplicaciones de terceros. No es una app descargada: opera en la capa de framework del dispositivo. 

Y como tal, podrás invocarlo a través de 'Hey, Plex' (sin que aparezca el novio de Aitana) o desde el botón lateral. Este punto es más que un simple detalle: es emplear el hardware como palanca de distribución: quien controla el hardware, controla cómo accede el usuario. Un recordatorio: Google pagó una millonada a Apple para ser el motor de búsqueda en iOS. 

Img 1984 Img 1984

Contexto: la asignatura pendiente de Samsung. Pocos fabricantes de móviles apuestan tanto y tan bien por la IA como la firma coreana. Samsung es la marca que más móviles vende dentro del ecosistema Android, pero la batalla del asistente la tiene perdida con Bixby. Por otro lado, tiene que integrar a Gemini por contrato. 

En definitiva, Samsung no puede controlar su capa de inteligencia artificial al completo de forma soberana y esa es una dependencia estratégica peligrosa si quieres ser el mejor.

La baza de Samsung: ser una navaja suiza. Según una investigación interna de Samsung, cerca del 80% de los usuarios ya usa dos tipos de agentes de IA en su día a día, así que ha convertido la flexibilidad en un punto a favor. Como Samsung sabe que no puede ir a la guerra al mejor modelo de lenguaje sola y ganar, ha apostado por convertirse en un hub neutral, lo que permite atraer a usuarios avanzados que quieren usar lo mejor de cada casa sin fricciones.

Como declaraba Won-Joon Choi, presidente, director de operaciones y jefe de la oficina de I+D de Mobile eXperience Business de Samsung Electronics: "Nos hemos comprometido a construir un ecosistema de IA integrado, abierto e inclusivo que ofrezca a los usuarios más opciones, flexibilidad y control para realizar tareas complejas de forma rápida y sencilla. Galaxy AI actúa como un orquestador, integrando diferentes formas de IA en una experiencia única, natural y cohesiva."

Img 1991 Img 1991

Por qué es importante. Porque con este movimiento Samsung ha cambiado las reglas: se declara a sí misma plataforma, no un asistente. Es una capa que coordina varios agentes, dejando atrás lo de "un asistente único para gobernarlos a todos". La firma coreana se diferencia así frente al control vertical y la integración cerrada de Apple o la táctica de Google de priorizar Gemini por encima de todo y meterlo hasta en la sopa.

El movimiento es de lo más inteligente: neutraliza así su debilidad (Bixby) para transformarla en virtud. Deliberadamente deciden abrirse y dejar que sea el usuario quien elija con quién y para qué. 

Por qué Perplexity y no otro. Aquí hay un elefante en la habitación que conviene recordar antes de nada: porque la IA más mainstream, ChatGPT, ya está casada con Apple. A partir de aquí, hay que tener claro que Samsung ha elegido al mejor socio estratégico posible para sus intereses corporativos en este momento. Y razones tiene unas cuantas:

  • Porque ofrece una propuesta de valor diferenciada y complementaria: es un chatbot conversacional de calidad que cita fuentes, sin publicidad y respuestas verificables. Su presencia no es una redundancia de Gemini, que puede destinarse a productividad y el ecosistema de Google o Bixby, para el dispositivo.
  • Un punto de partida en la negociación de lo más favorable: Perplexity es una startup que necesita alianzas para una distribución masiva frente al poderío de Google y OpenAI, cuya valoración supera el medio billón de dólares. Esto coloca a Samsung en posición de conseguir mejores condiciones.
  • Ya tenía relación con la startup, cuya IA ya está presente en las TV de la marca coreanas, lo que implica que no parten de cero: sus equipos ya conocen las respectivas APIs.
  • Su posicionamiento antianuncios. Samsung, que está apostando con fuerza por la privacidad, tiene aquí un argumento de peso para ofrecer una experiencia diferencial frente a Google.

Reducir la Googledependencia. Con Perplexity, Samsung diversifica sus socios sin estridencias con Google en un movimiento de geopolítica corporativa. La firma coreana tiene un acuerdo multimillonario de distribución con Google y con este giro, su posición es más ventajosa a la hora de negociar o presionar a la empresa de Mountain View: tienen a Perplexity en la recámara como tercer agente.



En Xataka | La IA móvil promete, pero solo veo trucos repetidos. El verdadero as bajo la manga se llama "agente" y viene de camino

Portada | Eva R. de Luis

 



via Robótica e IA - Xataka https://ift.tt/QowKSWc

A un granjero de 86 años le ofrecieron 15 millones de dólares para construir un centro de datos. Dijo que no

A un granjero de 86 años le ofrecieron 15 millones de dólares para construir un centro de datos. Dijo que no

Ponte en situación. Eres un granjero de 86 años que disfruta haciendo lo que hace, pero que de vez en cuando te da por pensar que quizá es hora de jubilarse. Un buen día tocan a tu puerta y te ofrecen 15 millones de dólares que, oye, te da para tapar agujeros y pagarte el hospital en Estados Unidos en caso de desgracia, pero decides rechazarlo porque aceptar implicaría la destrucción de esas tierras a las que has dedicado 60 años de tu vida.

Pues eso es lo que ha pasado con Mervin Raudabaugh: un agricultor que se ha convertido en un símbolo de resistencia ante la IA y los centros de datos.

Una oferta que sí puede rechazar. Raudabaugh es un agricultor que tiene unas tierras en el condado de Cumberland, Pensilvania. Lleva toda su vida cultivando las 100 hectáreas de su propiedad, un terreno que su familia lleva generaciones explotando, y recientemente ha saltado a la palestra tras rechazar una propuesta que, algunos, consideraban irrechazable.

60.000 dólares por cada 4.000 m2 de su tierra, alrededor de 15 millones de dólares en total. La oferta vino por parte de unos promotores interesados en construir un centro de datos para la computación de inteligencia artificial en la finca, pero Mervin, sencillamente, se negó.

No en mi granja. Mervin no parece ser un tipo que esté en contra de la IA en concreto o de que implica para el planeta. Simplemente, tiene un motivo mucho más romántico: no quiere ver sus tierras convertidas en una capa de hormigón con enormes naves encima.

En algunas entrevistas, aseguró que el dinero no le importa y que lo que quiere es, precisamente, eso: que la tierra agrícola siga siéndolo. Ha expresado su preocupación por el futuro de la agricultura familiar en un país en el que, si no se protege el suelo, “cada centímetro cuadrado corre el riesgo de ser urbanizado”, con lo que ello implica para la tierra, la fauna y las propias comunidades rurales.

Pero sí ha vendido. Sin embargo, Mervin no se va a jubilar con los bolsillos vacíos porque no aceptó los 15 millones de los constructores de centros de datos, pero sí algún milloncejo de Lancaster Farmland Trust. Se habla de una operación de alrededor de dos millones de euros para vender el derecho de desarrollo de sus tierras a esta entidad que se dedica a la conversación de suelos agrícolas.

Lo que ha hecho Marvin es asegurar el suelo que tanto ama, ya que la operación implica que sus tierras quedarán protegidas de forma permanente para uso agrícola, impidiendo legalmente el cambio de uso de suelo. Y da igual si sus herederos querían vender o no en un futuro: ahora las tierras están blindadas.

Un símbolo. Como es normal, el rechazo de Marvin se ha cubierto en multitud de medios nacionales como un caso de rebeldía frente a los centros de datos, el “no” rotundo a las Big Tech y a algo que está consumiendo toda la conversación en actualidad tecnológica. Es un ejemplo al garantizar la protección del suelo frente a la compensación puntual en forma de dinero que ofrecen estas Big Tech para asegurarse deteriorar a largo plazo el tejido agrícola y el paisaje.

Y aunque el caso de Marvin es llamativo tanto por la cuantía como por el movimiento posterior blindando su finca, no es el único. En otras partes del mundo se ha encendido el debate sobre si vale la pena albergar centros de datos, pero en Estados Unidos en concreto, un país que está apostando enormes cantidades de dinero al desarrollo de la IA, cada vez vemos más ejemplo de esa resistencia contra los centros de datos.

Y en un ambiente cada vez más bélico, curiosamente es algo que está poniendo de acuerdo tanto a demócratas como a republicanos.

Imágenes | BlueChipFarms, Meta

En Xatka | No es que la IA nos haga tontos: es que nos estamos rindiendo a ella



via Robótica e IA - Xataka https://ift.tt/YQZwN0g

Una IA publica 11.000 podcasts al día copiando a periodistas locales. Y de momento no hay forma de parar la avalancha

Una IA publica 11.000 podcasts al día copiando a periodistas locales. Y de momento no hay forma de parar la avalancha

Una red de podcasts automatizados publica más episodios en 24 horas que muchas emisoras en un año, usando IA para convertir artículos periodísticos en audio en cuestión de minutos. Un caso específico, el del canal 'The Daily News Now!', nos sirve para plantearnos hasta dónde puede llegar el scraping de contenido en la era de la IA generativa.

A saquear. El caso lo puso sobre la mesa Indicator: el 31 de enero, a las 2:57 de la tarde, el diario 'The Chronicle' (una publicación completamente marginal: pese a tener ya 120 años de edad, lo publica la universidad de Duke, en Durham, y está dirigido y elaborado íntegramente por alumnos) publicó un artículo sobre Gemma Tutton, estudiante y saltadora de pértiga que había ganado una competición universitaria. Diecisiete minutos después, un podcast llamado 'Durham News Today' subía a Spotify un episodio titulado 'El triunfante regreso de Gemma Tutton al salto con pértiga'. 

El podcast, por descontado, no tenía ninguna vinculación con el periódico. Pero reproducía casi todos los datos del artículo original en el mismo orden, incluyendo frases prácticamente idénticas. Y no es un caso aislado: 'Durham News Today' es uno de los al menos 433 programas que integran 'The Daily News Now!' red de podcasts creada por Corey Cambridge. Desde el 23 de enero, 'DNN' ha publicado más de 350.000 episodios (aproximadamente 11.000 al día).

Cómo lo hacen. Obviamente, con IA: un sistema de scraping (automatización mediante software que extrae grandes volúmenes de contenido) monitoriza webs de medios, extirpa el texto de los artículos publicados, lo procesa mediante herramientas de síntesis de lenguaje natural, lo convierte en audio y lo distribuye en plataformas como Spotify. Todo en cuestión de minutos. Y no se molestan en disimular: según Indicator, reproducen la estructura, los datos y la redacción de piezas publicadas por medios como afiliadas locales de Fox y NBC, 'TechCrunch', 'Toronto Star', 'The Verge' o la emisora 'WRAL'.

Las herramientas. Para entender por qué una operación de este tipo es técnicamente posible hoy hay que echar un vistazo al ecosistema de herramientas que lleva dos años democratizando la producción de audio sintético. En septiembre de 2024, Google activó globalmente la función Audio Overview de NotebookLM. La herramienta convierte cualquier documento subido por el usuario en un resumen en audio. El impacto fue inmediato: NotebookLM pasó de 652.000 visitas mensuales en agosto de ese año a 10,5 millones en septiembre, un aumento del 371% en treinta días. En los tres meses siguientes al lanzamiento global, los usuarios acumularon audio con una duración total superior a 350 años de reproducción continua.

NotebookLM normalizó la idea del podcast sintético, y desde ahí, todo fue cuesta abajo. ElevenLabs, especializada en síntesis de voz y valorada en más de mil millones de dólares, lanzó en diciembre de 2024 su función GenFM, que permite generar episodios completos a partir de texto. Wondercraft, financiada en parte por ElevenLabs, introdujo soporte para editar podcasts generados con NotebookLM. Podcastle, orientada a creadores de podcasts, incorporó generación de voz con texto para completar o sustituir fragmentos de locución.

El secreto: el precio. En un análisis de una red similar (Inception Point AI, que genera en torno a 3.000 episodios semanales con más de cincuenta locutores por IA) producir un episodio cuesta aproximadamente un dólar, y con apenas 20 oyentes el episodio resulta rentable gracias a la publicidad programática. El modelo no busca audiencias leales, sino posicionamiento en buscadores: publicando episodios hiperespe­cíficos sobre ciudades o temas de nicho minutos después de que los medios locales lancen sus artículos, estas redes se adelantan a la capacidad de los humanos para la inmediatez informativa. 

Dicho de otro modo: 'The Daily News Now!' aparece en los primeros resultados de Spotify en búsquedas de noticias locales en decenas de ciudades estadounidenses. Compite directamente (y en muchos casos supera) a los medios a los que roba contenido.

Temas legales. Cambridge se defiende diciendo que su red solo accede a "información pública disponible", y se limita a resumirla. Pero Indicator encontró casi treinta episodios de 'Durham News Today' que reproducían la estructura, el orden y frases concretas de artículos de 'The Duke Chronicle': no es un patrón puntual. Y puede que aún así, legalmente Cambridge esté protegido, pero el problema alude más bien a la ética de la información que a los detalles legales. En cualquier caso, en mayo de 2025, la Oficina de Copyright de Estados Unidos llegó a la conclusión de que un material "públicamente accesible" no necesariamente es de libre uso.

Hay precedentes legales en esa dirección: en noviembre de 2025, una jueza federal de Nueva York no desestimó la demanda de catorce grandes editores (entre ellos Forbes, The Atlantic y Los Angeles Times) contra la empresa de IA Cohere, al considerar que sus resúmenes podían constituir infracción directa si reproducían "estructura, secuenciación, tono y elecciones expresivas" de los artículos originales. Por el contrario, en abril del mismo año, el caso NYT vs. Microsoft descartó las demandas relacionadas con los resúmenes generados por Copilot por considerar que no eran "sustancialmente similares" a los artículos de origen. Mientras, y aún sin juicio, está el caso del New York Times contra OpenAI y Microsoft, acusados de usar contenido periodístico para entrenar sus modelos

Muy avispados. Hay otro detalle: no estamos hablando del 'New York Times', sino que 'DNN' concentra su producción en noticias de nicho local (atletismo universitario, consejos estudiantiles, gatos atrapados en árboles), primero porque esos contenidos generan búsquedas específicas con poca competencia en Spotify. Y segundo, porque legalmente es más seguro. Apuntan a modelos de periodismo más frágiles. Mientras tanto, distribuidores como Spotify desarrollan herramientas para detectar música artificial (eliminó más de 75 millones de pistas), pero el siguiente paso es concienciar a las grandes marcas de que no se beneficien de la explotación de redacciones que no pueden defenderse.

En Xataka | La IA ya es un campo de batalla: Anthropic acaba de acusar a DeepSeek y a otras empresas chinas de “destilar” Claude




via Robótica e IA - Xataka https://ift.tt/mouHUd4

Samsung ya no te vende un gran procesador. Te vende un buen intermediario

Samsung ya no te vende un gran procesador. Te vende un buen intermediario

El Snapdragon 8 Elite Gen 5 es seguramente el procesador más potente que ha llegado nunca a un teléfono Android. Samsung lo tiene en el S26 Ultra. Y en las comunicaciones de lanzamiento de este móvil apenas lo ha mencionado, contrariamente a su modus operandi de antaño: el chip solía ser uno de los grandes argumentos junto a cámara y batería.

Lo que sí ha desarrollado Samsung con los S26, con mucho tiempo y detalle, ha sido la IA. Concretamente, que el S26 va a funcionar con tres: Gemini, Bixby y Perplexity. Que tú eliges. Que cada una hace cosas distintas. Que el dispositivo se encarga de coordinarlas entre ellas.

El hardware de gama alta ha llegado a un punto en el que las diferencias son marginales para la mayoría de usuarios. Ya nadie compra un Ultra porque tenga un 20% más de rendimiento en la cámara de vapor. Pero sí puede comprarlo porque el teléfono le pide el Uber solo cuando tiene un evento en el calendario y calcula los tiempos sin que él haga nada.

O porque filtra las llamadas de spam (habrá juicios por esto), porque responde por ti si no quieres coger el teléfono, o porque te sugiere las fotos del viaje cuando un amigo te las pide por chat.

Samsung llama a esto 'agentic upgrade', aunque lo que describe es más sencillo de entender: el móvil hace cosas en segundo plano sin que se lo pidas.

Ahí está el giro que el briefing ya dejó entrever. Samsung ya no se vende como el fabricante del mejor hardware. Se vende como el que mejor te conecta con la inteligencia que han construido otros.

  • No es Google, que tiene Gemini.
  • No es Perplexity, que tiene su buscador.
  • No es ni siquiera el chip, que a a veces es un Exynos pero a veces es de Qualcomm.

Samsung es la capa que une todo eso, el sistema operativo que decide cómo se hablan entre sí esos agentes, el hardware que los ejecuta. Es, en el sentido más literal, un intermediario. Y eso es donde se está enfocando ahora.

samsung galaxy s26 samsung galaxy s26 Perplexity en acción, integrado en el S26. Imagen: Xataka.
Impresiones Samsung Galaxy S26 Ultra 60 Impresiones Samsung Galaxy S26 Ultra 60 Galaxy AI. No es IA propia sino integración de la ajena. Imagen: Xataka.

La apuesta tiene sentido mientras ese papel sea difícil de replicar. One UI, Samsung DeX, la integración entre apps nativas y Bixby, la brutal pantalla de privacidad por hardware que solo tiene el Ultra... Todo eso son cosas que no puedes tener en otro dispositivo aunque uses las mismas IAs. Por ahora, al menos.

La pregunta incómoda es qué pasa cuando Gemini, Perplexity y Bixby son gratuitos en cualquier Android. Cuando lo que importa no es a qué IA accedes, sino cómo el fabricante la integra. Samsung está apostando a que esa diferencia va a ser suficiente argumento de compra.

Por eso no te vende el procesador. Ya da por hecho que es bueno.

En Xataka | Samsung tiene un plan para convertirse en la mayor potencia IA de los móviles. Y por eso se ha aliado con Perplexity

Imagen destacada | Xataka



via Robótica e IA - Xataka https://ift.tt/2XJDM3y