sábado, 28 de febrero de 2026

China fabrica más chips que nadie, pero sigue sin poder hacer los más importantes: qué necesita para lograr la soberanía

China fabrica más chips que nadie, pero sigue sin poder hacer los más importantes: qué necesita para lograr la soberanía

La política de vetos, aranceles y sanciones aplicada por Estados Unidos a China en materia de chips ha sido un auténtico catalizador para el gigante asiático, que está transformando su industria de semiconductores en tiempo récord con un objetivo: conseguir la soberanía tecnológica. Y es que con China se da una paradoja impactante: pese a ser el mayor productor en número de chips fabricados con 484.000 millones de unidades en 2024, sigue dependiendo tecnológicamente del exterior para los más estratégicos.

El contexto. Los semiconductores no necesitan presentación: son esenciales para la mayor parte de actividades industriales, entre ellas algunas tan estratégicas como la IA. Cualquier país que quiera competir en liderazgo tecnológico y seguridad nacional sabe que debe disponer chips suficientes y suficientemente avanzados para desarrollar todas esas áreas. 

Estados Unidos ha diseñado los controles de exportación precisamente para mantener esa ventaja, supeditando a otros países a la dependencia y también para que China no le alcance. Pero con China ha tenido un efecto contrario: ya no es solo que haya creado un tejido nacional sólido y en crecimiento, es que con DeepSeek ha evidenciado que es capaz de innovar hasta con hardware inferior a la competencia. 

Por qué es importante. Más allá de una historia de industralización fulgurante, la relevancia está en lo que supondría que China alcanzase la soberanía tecnológica en chips: el equilibrio de poder en la cadena de suministro global cambiaría, tanto a nivel estatal como empresarial. 

Hoy depende de actores como TSMC, Samsung, SK Hynix y ASML, pero tarde o temprano perderán su ventaja estratégica frente a competidores chinos. Y no solo eso: también perderán el mercado de China. 

Unas cifras astronómicas. Lo que China está haciendo con su industria es tecnológicamente brutal y lo mejor, lo está haciendo a contrarreloj:

Los hitos que sí ha logrado. Además de constatar cómo está evolucionando la industria de forma cuantitativa, también hay avances cualitativos fruto de la fuerte inversión estatal, su gran demanda interna y la presión geopolítica externa:

  • Están dejando de depender de un único proveedor extranjero para construir un ecosistema propio, con Huawei en procesadores, Biren y Moore Threads en chips de IA. 
  • Moore Threads, la "NVIDIA china", presentó a finales de 2024 su chip de IA Huashan. Según la firma, tiene un rendimiento superior a la arquitectura Hopper de NVIDIA y se acerca a la familia Blackwell.
  • Changxin Memory Technology (CXMT) presentó en noviembre de 2024 su memoria DRAM DDR5 avanzada, con velocidades de hasta 8.000 megabits por segundo y capacidad de hasta 24 gigabits por matriz, situándola a la  Samsung, SK Hynix o Micron.

Sí, pero. Todo lo anterior no es suficiente: China sigue teniendo cuellos de botella y asignaturas pendientes: 

  • Sin una máquina de litografía para tener su propio EUV, no hay capacidad para producir chips por debajo de siete nanómetros de forma eficiente y escalable. ASML sigue siendo insustituible a corto plazo.
  • El prototipo EUV chino está en el horno en un laboratorio de alta seguridad en Shenzhen. Ha sido desarrollado por un equipo de antiguos ingenieros de la empresa holandesa de semiconductores usando ingeniería inversa. Habrá que esperar hasta 2028 (en el escenario más optimista) para verlo.
  • Mientras que CXMT va a iniciar la producción en masa de la memoria de alto ancho de banda HBM3 este año, SK Hynix ya va por la siguiente generación, HBM4. China corre, pero sus rivales tampoco están parados. 
  • No solo hacen falta máquinas, sino todo un ecosistema al completo: software de diseño de chips, materiales especializados, óptica de ultraprecisión y talento ingenieril. Cerrar esa brecha es más difícil y más lento que montar una fábrica.

¿Qué viene ahora?. China no pisa el freno: su XV Plan Quinquenal para el periodo 2026-2030 solicita de forma explícita la adopción de medidas "extraordinarias" para fomentar avances en toda la cadena de suministro, incluidos los circuitos integrados y los equipos de alta gama, con el objetivo de lograr "avances decisivos". Y lo está haciendo con una inyección económica sin precedentes y promoviendo la diversificación de proveedores.


En Xataka | Hace solo cuatro años, China era un actor marginal en la industria de los chips. Ahora tiene tres fabricantes en el top 20

En Xataka | El mayor obstáculo que impide a China ganar la carrera de los chips se llama ASML. Así que están intentando copiarla

Portada | SiCarrier y Dominic Kurniawan Suryaputra 




via Robótica e IA - Xataka https://ift.tt/qIdsQVL

Si los anuncios hechos con IA te parecen horribles y te posicionan contra la marca, no estás solo: la ciencia te avala

Si los anuncios hechos con IA te parecen horribles y te posicionan contra la marca, no estás solo: la ciencia te avala

“El anuncio más rentable de la historia de Pepsi”. El comentario más votado en YouTube del anuncio generado con IA por Coca-Cola para las navidades de 2025 sugiere algo: un rechazo popular a la publicidad hecha con IA. ¿Es esto cierto? Un nuevo estudio de la Universidad de Zaragoza sobre el efecto de la inteligencia artificial en la publicidad apunta en esa dirección.

La conclusión de los investigadores es que los clientes evitan los servicios anunciados con imágenes generadas por IA, especialmente en las compañías que ofrecen experiencias placenteras —como vacaciones en un hotel— o que obligan a decisiones de alta implicación. ¿El motivo? Las imágenes generadas artificialmente se interpretan como poco fiables.

Sus cuatro autores explican a Xataka que “los consumidores valoran más las imágenes reales porque muestran una imagen fiel del producto o servicio y desconfían de las empresas que utilizan imágenes creadas con IA porque les parecen menos profesionales o que ocultan la realidad”. No obstante, estudios recientes muestran que las imágenes creadas con IA pueden ser igualmente efectivas, y más fáciles de conseguir para las empresas, sobre todo cuando los consumidores no saben que no son reales, aclaran. 

Lo que la IA te da, la IA te quita

Utilizar la IA en un anuncio transmite una sensación de que “la marca se esfuerza poco, especialmente en marcas de lujo y del ámbito de la belleza”, explica Lucía Caro Castaño, profesora titular del Departamento de Marketing y Comunicación en la Universidad de Cádiz.  Tras la polémica navideña, Coca-Cola se vio obligada a compartir cómo hizo el anuncio para mostrar “todo el esfuerzo y la inversión que había requerido en términos de personas”. 

Caro apunta al ahorro en personal como uno de los motivos por los que los contenidos hechos con IA generan disgusto. Coca-Cola ha reconocido a The Wall Street Journal que producir su típico anuncio de Navidad ha pasado de necesitar un año a un mes, reconociendo un ahorro en costes y tiempos. No obstante, la creación del spot obligó a un ingente trabajo humano para afinar las imágenes generadas por la IA.

Coca Cola Anuncio Coca Cola Anuncio

Coca-Cola no es la única empresa que ha descubierto las limitaciones publicitarias de la IA. Dell comparte su experiencia: “Estamos muy centrados en aprovechar al máximo las capacidades de IA de un dispositivo, pero lo que hemos aprendido este año, especialmente desde la perspectiva del consumidor, es que no compran basándose en la IA. De hecho, creo que la IA probablemente los confunde más de lo que les ayuda a comprender un resultado específico”, argumentó hace algunos meses Kevin Terwilliger, máximo responsable de productos en Dell.

Hay varios motivos para este rechazo a la IA publicitaria: la sensación de "ya visto", que penaliza la falta de originalidad y de esfuerzo creativo; y la percepción de "deshumanización" que transmiten los contenidos excesivamente robotizados, nos explica Patricia Coll, doctora en Comunicación y profesora de EAE Business School.

Diana Gavilán, profesora titular de Marketing en la Universidad Complutense de Madrid, destaca por su parte los beneficios de la IA en tareas automatizables en publicidad y marketing digital: “Lo problemático es cuando sustituye a un humano. Si me atiende un robot pero me quieres convencer de que es como un humano se produce una caída de confianza”.

Según los investigadores de la Universidad de Zaragoza, su estudio demuestra que las imágenes reales son particularmente efectivas cuando se trata de un producto o servicio con alta implicación, es decir, que el consumidor quiere imágenes fieles cuando la decisión que toma es importante. Las imágenes reales también son mejores que las generadas con IA para dar a conocer productos o servicios hedonísticos porque permiten "valorar mejor cómo será la experiencia personal".

En cambio, cuando los productos son utilitarios y de baja implicación, las imágenes generadas con IA sí efectivas. 

En algunos sectores sí es conveniente usar imágenes comerciales hechas con IA, como colegios y entidades sociales para evitar mostrar niños reales para proteger su privacidad, destacan los científicos. La catedrática de Marketing de la Universitat d’Alacant, Ana Belén Casado, añade que ni en todos los consumidores ni con todas las marcas se produce un rechazo a la IA: “Depende mucho del tipo de producto, bien, servicio o idea que se esté comercializando y de la propuesta de valor diferencial de cada marca”.

Para Gavilán, la IA es como la Thermomix: una herramienta con la que no haces todo en la cocina, “pero la puedes usar y está a tu disposición, depende de cómo la uses, estará mejor o estará peor”. En su opinión, el anuncio de Coca-Cola fue “un error estratégico” por querer hacer el mismo anuncio de siempre con IA en vez de hacer una historia diferente con esa tecnología.

¿Marcas que dan un paso atrás con la IA?

Antes de Coca-Cola, la marca de ropa H&M ya había lanzado una campaña con modelos reales y “gemelos digitales” generados con IA.

Aunque todas las imágenes generadas por IA están etiquetadas para no confundirlas con las reales y los modelos tienen derechos de imagen sobre su copia digital, Caro destaca que “no sabemos exactamente cómo ha sido ese contrato en cuanto a los derechos de su propia imagen que exceden esos modelos ni afectará a fotógrafos y el resto de trabajadores que hacen posible estas campañas”.

Esta innovadora campaña fue bastante pequeña, en torno a una línea de ropa vaquera, y la jefa de IA en la multinacional sueca, Linda Leopold, abandonó la compañía poco después de la campaña. “No sabemos hacia dónde continuará H&M después y más con toda la polémica generada”, sostiene Caro. La visión de Gavilán es que la IA se va a seguir implementando y que se va a aplicar más en ámbitos “donde es muy pertinente”.

Pese a su consumo de agua y energía, la ONG ambientalista WWF en Dinamarca lanzó en abril de 2025 una campaña titulada “El coste oculto” para denunciar el impacto ambiental de once productos distintos. Fue realizada íntegramente con IA. En España la primera agencia de publicidad centrada en IA, AI::gency, ha trabajado con marcas como Nissan, Seat, Cushla y Ebro.

Otras marcas han optado por rechazar públicamente la IA. En su campaña “¿Por qué no nos subimos al carro de la IA?”, de febrero de 2024, el navegador Vivaldi anunció que no iba a incorporar IA “por el momento”. Los motivos dados por la compañía eran las infracciones de derechos de autor y privacidad, además de las "mentiras que suenan plausibles" generadas por la IA.

A nivel de publicidad, Dove, la marca de cuidado personal de Unilever, se ha comprometido a “no utilizar en ningún caso imágenes generadas mediante inteligencia artificial para representar o sustituir a personas reales”. En 2006, Dove, que se anuncia como “belleza real”, lanzó su spot ‘Evolution’ en el que denunciaba el uso de Photoshop en modelos de belleza. Desde entonces Dove evita su uso para “distorsionar” la realidad.

La conclusión de los investigadores de la Universidad de Zaragoza es que “debemos aprender a desarrollar nuestras cualidades humanas que nos diferencian de la IA y que aportan un valor humano, emocional y social que la tecnología todavía no puede lograr, como la empatía. La IA es capaz de realizar tareas analíticas y creativas que hasta ahora solo podían hacer las personas, por lo que su integración y regulación supone un reto para la sociedad y las instituciones”.

 “Quizás en una primera fase usar la IA servía para distinguirse como innovación, pero la IA ya no se percibe como vanguardia y estamos cansados de ella”, destaca Lucía Caro. Como decía el analista tecnológico Neil Postman, a quien Caro citó en  nuestra entrevista, “a estas alturas, no ser consciente de que cualquier tecnología va acompañada de un programa de cambio social, mantener que la tecnología es neutral, da por sentado que siempre es amiga de la cultura, es pura y simple estupidez”. A estas alturas era 1985.

En Xataka | En menos de 20 minutos, esta IA crea automáticamente un podcast copiado de prensa local. Lo hace 11.000 veces al día

En Xataka | Tres IA se enfrentaron en 'Juegos de Guerra'. El 95% de ellas recurrió a las armas nucleares y ninguna se rindió jamás



















via Robótica e IA - Xataka https://ift.tt/dNmCARc

El gran problema de poner robots en todas partes es que se pierden. Una ingeniera de Elche cree tener la solución

El gran problema de poner robots en todas partes es que se pierden. Una ingeniera de Elche cree tener la solución

No es ninguna sorpresa que cada vez vemos más robots en nuestro día a día: en un restaurante llevando pedidos a la mesa, en el campo como temporero, haciéndole la competencia al repartido de mensajería... y eso sin mencionar sus aplicaciones en la automatización a escala industrial. Los robots no necesitan descansar, no tienen derechos laborales ni se quejan. Pero se pierden. Y eso es un problema real de lo más común para el que un equipo de investigación de la Universidad Miguel Hernández de Elche ha encontrado solución.

El contexto. Los robots autónomos necesitan saber dónde están para funcionar y eso no siempre pasa: cuando la referencia de la ubicación se pierde, ya sea porque alguien lo mueve, se apaga o el entorno cambia sin previo aviso, el robot es incapaz de recuperar su posición. Algo tan normal como quedarse sin batería puede ser un drama técnico.

Este fenómeno no es algo aislado, de hecho hasta tiene un nombre en robótica: el "problema del robot secuestrado". Pese a que cada vez vemos más robots en cualquier parte, esta incidencia es una asignatura pendiente que lleva décadas sin resolverse de forma robusta. Sin ir más lejos, porque recurrir a GPS es algo que puede fallar en escenarios como interiores o cerca de edificios altos. Como profundiza Míriam Máximo, autora principal del artículo: "Es un problema clásico y muy difícil de resolver, sobre todo en entornos grandes".

La solución. Lo que el equipo de la universidad ilicitana ha implementado es MCL-DLF, las siglas de Monte Carlo Localisation – Deep Local Feature, un sistema que combina dos tecnologías: por un lado, un LiDAR 3D que emite pulsos láser para trazar un mapa tridimensional del entorno similar a la de los robots aspiradores. Por otro, una inteligencia artificial que aprender qué elementos del entorno son más útiles para orientarse.

Por qué es importante. Porque disponer de un sistema de localización fiable es esencial para cualquier despliegue robótico en la vida real: vehículos autónomos, reparto y logística, asistencia... puede que su presencia sea cada vez más habitual, pero sigue tremendamente supeditado a la supervisión: saber dónde está es fundamental para que opere con seguridad. 

El método implementado introduce además un cambio importante: es independiente, en tanto en cuanto no requiere de infraestructuras externas para funcionar como el GPS, de modo que su base es más robusta y versátil frente a diferentes escenarios de uso en el mundo real.

Cómo funciona. Su enfoque es jerárquico, de modo que primero reconoce estructuras grandes y luego detalles finos, de forma similar a como hacemos las personas. Cuando llegas a un lugar desconocido, primero te quedas con lo esencial: en qué barrio estás por ejemplo. Luego buscas referencias más concretas para afinar más. Además, el sistema no se lo juega todo a una carta: mantiene varias hipótesis de posición simultáneamente y las va descartando o refinando conforme la sensórica capta más información. 

Las pruebas realizadas durante meses en el campus universitario con diferentes condiciones de iluminación, vegetación o simplemente el tiempo han evidenciado más consistencia que los métodos convencionales.

Un buen comienzo con asignaturas pendientes. Más allá de sus resultados prometedores, lo más llamativo de esta investigación es su apuesta por la autonomía sensorial: no depende de redes de balizas ni del GPS, sino de su propia sensórica. Esto lo convierte en un sistema potencialmente más versátil.

No obstante, tiene por delante el gran desafío histórico de la ubicación de los robots: lo frágil que resulta ante entornos cambiantes. Es cierto que lo han probado en diferentes condiciones, pero ha sido dentro del campus: dar el salto a entornos más complejos y en constante cambio es su prueba de fuego, además de una validación adicional en condiciones extremas. Finalmente, antes de un eventual despliegue comercial real, habrá que ver cómo se integra con otros sistemas de navegación y su coste computacional.


En Xataka | Tesla lleva años construyendo el Optimus. China acaba de presentarse con quince empresas y las fábricas ya montadas

En Xataka | Tenemos ya tantos robots "humanoides" que cuesta diferenciar a los unos de los otros. Este gráfico lo arregla

Portada |  Enchanted Tools 




via Robótica e IA - Xataka https://ift.tt/bjQ83x9

Mientras que Anthropic pasa a la lista negra de EEUU, el Pentágono ya tiene quien le suceda: OpenAI

Mientras que Anthropic pasa a la lista negra de EEUU, el Pentágono ya tiene quien le suceda: OpenAI

El Pentágono dio un ultimátum a Anthropic para que aceptara el uso sin límites de sus modelos de IA para aplicaciones de todo tipo, incluidas el espionaje y el uso militar. El deadline llegó, a las 17:01 de este viernes 27 de febrero, y Anthropic dijo que no: sería fiel a sus principios. La espada de Damocles ha caído sobre la empresa liderada por Dario Amodei y Estados Unidos ha culminado sus amenazas. 

Como comunicaba hace pocas horas el secretario de Guerra de Estados Unidos Pete Hegseth, para el Pentágono Anthropic ya es un "riesgo para la cadena de suministro".

El contexto. Esta crónica de una muerte anunciada ha ido cumpliendo sus plazos y todo el mundo se ha mantenido en su posición inicial:

  • Anthropic rechazó la demanda del Pentágono por sus preocupaciones sobre el uso de la IA para vigilancia civil masiva y el desarrollo de armas capaces de disparar sin intervención humana. La empresa detrás de Claude ya ha anunciado que impugnará. Habrá que ver el coste de mantener su postura.
  • Estados Unidos aplicará una sanción que hasta ahora solo habíamos visto aplicada a empresas de países rivales, Huawei es uno de los ejemplos más claros.

Qué va a pasar ahora. Dejando a un lado que el presidente de Estados Unidos se refiera a Anthropic como "una empresa radical de izquierdas y woke" en su red social Truth Social, el Ministerio de Defensa de EEUU ha cumplido su amenaza, que ha entrado en vigor de forma inmediata:

  • Rescindirá su contrato con Anthropic, valorado en hasta 200 millones de dólares, y como anunciaba Peter Hegseth, ningún contratista, proveedor o socio que haga negocios con las Fuerzas Armadas de los Estados Unidos podrá realizar ninguna actividad comercial con Anthropic. 
  • Habrá un periodo de seis meses para que el Pentágono y otras agencias gubernamentales lleven a cabo la transición de Claude a otras alternativas.

OpenAI ha dicho que sí. Estados Unidos ya tiene una empresa para que suministre sus servicios al Pentágono y otras agencias: OpenAI. Sam Altman anunciaba el acuerdo para desplegar sus modelos en su red clasificada explicando que el Departamento de Defensa había mostrado un "profundo respeto por la seguridad" y que tanto la seguridad de la IA como la amplia distribución de beneficios son la base de su misión.

Entre los principios de seguridad mencionados específicamente por Altman está la prohibición de la vigilancia masiva nacional y la responsabilidad humana por el uso de la fuerza, incluyendo los sistemas de armas autónomas. Según el CEO de OpenAI, el Departamento de Guerra está alineado con estos principios. Asimismo, explicaba que aplicarán salvaguardas técnicas para garantizar un correcto comportamiento de sus modelos.

La sombra de Claude es alargada. Despedirse de la noche a la mañana de tu empresa de IA de referencia (incluso con ese periodo de transición) y ponerle el veto a que otras empresas trabajen con ella es una medida peliaguda a la hora de ponerla en práctica en tanto en cuanto está detrás de operaciones estratégicas recientes, como la detención de Maduro y otras inminentes. Asimismo, deja en una situación complicada proyectos como el de Palantir, que usa Claude.

Entre bambalinas. Según Axios, el subsecretario de Defensa, Emil Michael, estaba en conversaciones con Anthropic para ofrecerle un acuerdo justo cuando Pete Hegseth soltó la bomba en X/Twitter. Ese teórico acuerdo habría permitido la recolección o análisis de datos de la ciudadanía estadounidense, como ubicación, navegación web o información financiera. Por el momento se desconoce si este interés del Pentágono en recopilar datos personales de forma legal aplica para OpenAI.



En Xataka | IBM lleva décadas viviendo de que nadie podía matar a COBOL. Anthropic tiene otros planes

En Xataka | Anthropic y OpenAI han desarrollado la IA. El Pentágono de EEUU les está mostrando quién es su dueño realmente

Portada | Tomasz Zielonka 




via Robótica e IA - Xataka https://ift.tt/EcOPikY

"La IA nunca podrá predicar la fe": el Papa está pidiendo a los sacerdotes que no usen ChatGPT para escribir sus sermones

"La IA nunca podrá predicar la fe": el Papa está pidiendo a los sacerdotes que no usen ChatGPT para escribir sus sermones

Puede que la inteligencia artificial alucine de vez en cuando y se invente cosas, pero hay algo que hace bastante bien: preparar textos a partir de una base. Aunque los resultados dependen enormemente de lo que le pidas en tu prompt, va de lujo para escribir a los de la OTA por una multa que te han puesto mal o hacer un resumen de la fotosíntesis. Y por qué no: también para que te explique una parábola de la biblia aterrizándola a la realidad cotidiana. Un sermón de los del cura de toda la vida, vamos. Pues no.

No lo digo yo, lo dice el actual Papa de la Iglesia Católica Apostólica Romana León XIV. Hace unos días, el religioso agustino estaba en un encuentro con el clero de la diócesis de Roma y allí se acordó de la tecnología, lanzando una advertencia para quien tenga la tentación de confiar las homilías a la IA porque "para hacer una verdadera homilía, que es compartir la fe, la IA nunca llegará a poder compartir la fe".

Es decir, que aunque indudablemente los modelos de lenguaje tienen capacidad de allanar las lecturas de la biblia para bajarlas a la Tierra acercándolas al día a día, una cosa es explicar lo terrenal y otra muy distinta es la providencia. En pocas palabras, que lo espiritual es una cualidad exclusiva de los humanos y no de máquinas.

Quizás sí que podría ayudar al personal de la iglesia precisamente a seleccionar lecturas de la larga lista que ofrece el libro por antonomasia del cristianismo y a sintetizar lo importante para que después sean ellos quienes de puño y letra (es una forma de hablar) escriban el sermón a la vieja usanza. 

Lo que dice el Papa va a misa

 En cualquier caso, Robert Francis Prevost prosiguió con unas declaraciones que se alinean con la ciencia: "al igual que todos los músculos del cuerpo, si no los utilizamos, si no los movemos, mueren, el cerebro necesita ser utilizado, por lo que también nuestra inteligencia, vuestra inteligencia, debe ejercitarse un poco para no perder esta capacidad" porque el ejercicio de buscar en la Biblia, leer a fondo y quedarse con lo importante es indudablemente un ejercicio mental que, si no se hace, reduce el ejercicio mental.

Otra parte de su discurso se dirigió al uso de los móviles y esa paradoja actual de estar más conectados y más solos que nunca, asegurando que así no hay contacto humano y que hay que buscar otro tipo de experiencia de amistad para establecer vínculos.


En Xataka | El Papa Francisco dejó clara su opinión sobre la ética médica del final de la vida. La que no sabemos es la del Vaticano

En Xataka | El Vaticano, ciudad santa y renovable: los planes del Papa para hacer más sostenible al pequeño estado católico

Portada | Flickr




via Robótica e IA - Xataka https://ift.tt/NknB7ls

viernes, 27 de febrero de 2026

La IA de Meta debía ayudar a detectar abuso infantil: agentes de EEUU denuncian que está fallando en un punto clave

La IA de Meta debía ayudar a detectar abuso infantil: agentes de EEUU denuncian que está fallando en un punto clave

Las redes sociales llevan años recurriendo a sistemas automatizados para intentar detectar algunos de los delitos más graves que circulan por internet. Entre ellos se encuentra la explotación sexual infantil, un fenómeno que obliga a plataformas, reguladores y fuerzas de seguridad a vigilar enormes volúmenes de contenido cada día. La promesa de estas herramientas es clara: identificar posibles casos antes y facilitar el trabajo de los agentes. Sin embargo, algunos equipos especializados en Estados Unidos sostienen que el volumen de avisos que reciben desde las plataformas de Meta se ha disparado y que una parte importante de ellos no aporta información útil para actuar.

Choque entre escala y utilidad. En un proceso judicial que se está celebrando en Nuevo México, la fiscalía sostiene que Meta no reveló adecuadamente lo que sabía sobre los riesgos que afrontan los menores en sus plataformas y que habría incumplido las leyes estatales de protección al consumidor. Según Associated Press, la acusación también argumenta que la compañía presentó la seguridad de sus servicios de una forma que no se correspondía con los riesgos que afrontaban niños y adolescentes. El caso forma parte de una ola más amplia de demandas presentadas en Estados Unidos contra grandes compañías tecnológicas por los efectos que sus servicios pueden tener sobre menores.

Meta rechaza esa interpretación. En su intervención ante el jurado, el abogado de la compañía Kevin Huff defendió que la empresa sí ha informado de los riesgos asociados al uso de sus servicios y que ha introducido distintas herramientas para detectar y eliminar contenido dañino. Según Associated Press, Huff insistió en que el punto central del caso no es demostrar que existe contenido problemático en redes sociales, sino determinar si la empresa ocultó información relevante a los usuarios.

Los investigadores en primera línea. Quienes han puesto cifras y ejemplos concretos a ese problema son agentes que trabajan directamente en investigaciones de explotación infantil en internet. En Estados Unidos, esas tareas recaen en gran medida en la red de unidades conocida como Internet Crimes Against Children (ICAC), un programa que agrupa a fuerzas policiales de distintos niveles y que está coordinado con el Departamento de Justicia para investigar y perseguir delitos cometidos contra menores en entornos digitales. Sus agentes reciben avisos sobre posibles casos procedentes de distintas fuentes, entre ellas las propias plataformas tecnológicas.

Durante el juicio, algunos de esos agentes han descrito cómo están viviendo el aumento de avisos procedentes de las plataformas de Meta. Benjamin Zwiebel, agente especial del ICAC en Nuevo México, explicó ante el tribunal que muchos de los avisos que reciben resultan poco útiles para avanzar en una investigación. “Recibimos muchos consejos de Meta que son simplemente basura”, declaró, según recoge The Guardian. Sus palabras reflejan una preocupación más amplia dentro de estas unidades: el volumen de alertas se ha disparado, pero no todas contienen la información necesaria para identificar a un sospechoso o iniciar una actuación policial.

Mala calidad. En algunos casos, los informes enviados desde las plataformas incluyen datos que no describen una conducta delictiva. En otros, sí apuntan a un posible delito, pero llegan sin elementos esenciales para continuar la investigación, como imágenes, vídeos o fragmentos de conversaciones que permitan identificar a los responsables. Sin ese material, los agentes tienen pocas herramientas para avanzar en el caso o solicitar nuevas diligencias. Algunos agentes también han señalado que una parte de estos avisos llega con información incompleta o parcialmente eliminada.

La maquinaria del reporte masivo. Detrás de ese aumento de avisos hay varios factores que ayudan a entender por qué el volumen de informes enviados a las autoridades se ha disparado. En Estados Unidos, las empresas tecnológicas están obligadas por ley a comunicar cualquier material de abuso sexual infantil que detecten en sus servicios al National Center for Missing & Exploited Children (NCMEC), una organización que actúa como centro nacional de recepción de estos avisos y los distribuye posteriormente entre las fuerzas policiales correspondientes. Agentes citados por The Guardian apuntan también a cambios legales recientes, como el Report Act, que entró en vigor en noviembre de 2024, como un posible factor que habría incrementado el número de avisos enviados para evitar incumplimientos.

Meta dice que está haciendo lo contrario. La compañía rechaza la idea de que sus sistemas estén dificultando el trabajo de las autoridades y sostiene que, por el contrario, lleva años colaborando con las fuerzas de seguridad para detectar y perseguir este tipo de delitos. Un portavoz de Meta afirmó que el Departamento de Justicia de Estados Unidos ha reconocido en varias ocasiones la rapidez con la que la empresa responde a las solicitudes de las autoridades y que el NCMEC ha valorado positivamente su sistema de notificación de avisos.

Según la compañía, en 2024 recibió más de 9.000 solicitudes de emergencia por parte de autoridades estadounidenses y las resolvió en un tiempo medio de 67 minutos, un proceso que, asegura, se acelera aún más cuando se trata de casos relacionados con la seguridad infantil o el riesgo de suicidio. Meta también señala que comunica al NCMEC cualquier material que pueda estar vinculado con explotación sexual infantil y que trabaja con esa organización para ayudar a priorizar los avisos, entre otras cosas etiquetando aquellos que considera más urgentes.

Un problema real. Más allá de lo que determine el jurado en Nuevo México, el caso refleja una tensión que va más allá de una sola empresa o de un solo estado. Las plataformas digitales operan a escala global y recurren a sistemas automatizados para detectar contenidos ilícitos en volúmenes que serían imposibles de revisar manualmente. Sin embargo, la experiencia que describen algunos agentes muestra que aumentar la cantidad de avisos no siempre se traduce en investigaciones más eficaces.

Imágenes | Dima Solomin | ROBIN WORRALL

En Xataka | Dario Amodei fundó Anthropic porque OpenAI no se tomaba en serio los riesgos de la IA. Ahora va a ceder a esos riesgos



via Robótica e IA - Xataka https://ift.tt/nhsMDu9

Apple ha comprado una startup de óptica con un solo empleado: es una pista de su estrategia para el hardware del futuro

Apple ha comprado una startup de óptica con un solo empleado: es una pista de su estrategia para el hardware del futuro

Apple ha adquirido Invrs.io, una pequeña empresa de fotónica e investigación óptica guiada por inteligencia artificial. Es de esas compras que casi pasan desapercibidas, pero que revela mucho sobre hacia dónde apunta Apple en la carrera del hardware y la IA. Bajo estas líneas te contamos todos los detalles.

Lo que ha ocurrido. Según una notificación publicada por la Comisión Europea, Apple comunicó en octubre de 2025 que adquiría ciertos activos de Invrs.io LLC y contrataba a su único empleado y fundador, Martin Schubert. La información se ha hecho pública esta semana, tras el periodo de espera reglamentario de cuatro meses, según contaba MacRumors.

Quién es Schubert y qué hacía. Schubert fundó Invrs.io en 2023 después de pasar más de una década trabajando en tecnologías avanzadas de visualización, chips y óptica en empresas como Google, Alphabet, X y Meta. Según su perfil de LinkedIn, acumula cerca de un centenar de patentes. En Invrs.io su objetivo era desarrollar herramientas de diseño guiadas por IA centradas en óptica y fotónica, con aplicaciones directas en realidad aumentada y virtual, centros de datos y vehículos autónomos.

La empresa, según su página en GitHub, construía frameworks de código abierto para investigación en fotónica, con simulaciones estandarizadas y un ranking público para comparar resultados de diseño.

Por qué importa esto. La fotónica es la ciencia que estudia cómo generar, controlar y detectar fotones, es decir, partículas de luz. En términos prácticos, es la base de componentes ópticos como cámaras, sensores, pantallas, escáneres LiDAR y lentes para dispositivos de realidad mixta. Apple lleva años integrando este tipo de tecnología en sus productos, desde el sistema de cámaras del iPhone hasta el Apple Vision Pro. Incorporar a alguien especializado en diseñar esos componentes con ayuda de IA le permite acelerar ese proceso y hacerlo con mayor precisión.

El patrón de Apple. Esta adquisición encaja a la perfección en la forma habitual que tiene Apple de moverse: compras pequeñas, silenciosas y muy orientadas a capacidades concretas, generalmente meses antes de presentar un producto nuevo. En enero de este año compró Q.ai, una startup israelí de IA aplicada al audio, en lo que se considera su segunda mayor adquisición histórica con cerca de 2.000 millones de dólares. Invrs.io es mucho más modesta en tamaño (literalmente tiene una persona al mando), pero nos da pequeñas pistas de cómo van a ir siendo los movimientos de la compañía en torno a sus productos en los siguientes años.

El hardware que acompaña a la IA. Aunque ahora estamos siendo testigos de una gran batalla tecnológica por ver quién lanza el modelo de IA más potente, hay una carrera de fondo que va a decidir quién se queda arriba, y esa carrera pasa por el hardware. Concretamente el hardware que usará la IA para percibir el mundo físico: sensores, lentes, sistemas ópticos, tecnología de visión por computador, etc.

Google ya tiene a Nano Banana, modelo con el que trabaja para que la IA pueda generar imágenes con conocimiento del mundo real. Apple, con movimientos como este, podría apostar por integrar óptica ultraprecisa en sus wearables y dispositivos futuros. Son estrategias distintas, pero con un objetivo común: ser los ojos de la IA.

Y ahora qué. Apple no ha confirmado en qué proyectos trabajará Schubert internamente, algo completamente habitual en la compañía. Pero todo indica que la compañía pretenderá con esta compra mejorar los componentes ópticos de futuros modelos del Apple Vision Pro, del iPhone o de dispositivos todavía sin anunciar.

Imagen de portada | Junseong Lee y Xataka

En Xataka | Apple todavía no está preparada para fabricar el iPhone en EEUU, pero ha cedido en algo: parte del Mac Mini sí



via Robótica e IA - Xataka https://ift.tt/mG9MJhe

La guerra entre Anthropic y el Pentágono apunta a algo terrorífico: un nuevo “Momento Oppenheimer”

La guerra entre Anthropic y el Pentágono apunta a algo terrorífico: un nuevo “Momento Oppenheimer”

Anthropic se ha negado a ceder a las presiones del Pentágono. Su cofundador y CEO, Dario Amodei, acaba de publicar un comunicado en el que deja claro que no  están dispuestos a romper sus principios éticos. Nada de espionaje masivo con IA, nada de desarrollo de armas autónomas letales con sus modelos. Y eso nos recuerda un caso terrible: el de la bomba atómica.

De héroe a villano. J. Robert Oppenheimer pasó de ser el "padre de la bomba atómica" y un héroe nacional a convertirse en un paria. Su pecado no fue la traición, sino su claridad moral. Tras presenciar el horror de Hiroshima y Nagasaki, Oppenheimer trató desesperadamente de frenar la escalada atómica y el desarrollo de la bomba de hidrógeno. 

O estás con nosotros, o contra nosotros. EEUU, que le había ensalzado en el pasado, aprovechó sus antiguas afiliaciones políticas y le despojó de todos sus privilegios e influencia. Aquello demostró cómo el gobierno estadounidense decidió sin más que el conocimiento científico era propiedad del estado y que cualquier investigador que intentara proponer límites éticos a sus propios proyectos sería tratado como un enemigo de la patria. 

La historia está amenazando con repetirse estos días.

De Oppenheimer a Anthropic. Lo está haciendo con un protagonista que sigue ahí —el Gobierno de EEUU— y otro que cambia: quien defiende ahora la ética de un proyecto científico-tecnológico no es Oppenheimer, sino Dario Amodei, CEO de Anthropic. 

Claude es cada vez más vital en el Gobierno de EEUU. Su empresa está estos días entre la espada y la pared. Anthropic logró que su modelo Claude se convirtiera en la niña bonita del Gobierno de EEUU. La capacidad de esta IA ha demostrado ser tan notable que al parecer fue utilizado para planificar el arresto del expresidente de Venezuela, Nicolás Maduro. 

Líneas rojas. Pero para que el Pentágono pudiese utilizar Claude, Anthropic impuso ciertas líneas rojas. Nada de usarlo para vigilancia masiva de ciudadanos de EEUU, y nada de usarlo para desarrollo de armas letales autónomas. Y al Pentágono han acabado por no gustarle esas líneas rojas, así que quiere eliminarlas y usar Claude como le venga en gana siempre y cuando, dicen, se respete la Constitución y las leyes estadounidenses.

El Pentágono quiere una IA sin cortapisas. Eso ha acabado provocando una situación enormemente tensa estos días. El Pentágono amenazó con castigar a Anthropic si no cedía a sus pretensiones, y esas amenazas del Departamento de Defensa no han sido sutiles en absoluto. De hecho, han sugerido que podrían calificar a Anthropic como una empresa que es "un riesgo para la cadena de suministro", una etiqueta negra que normalmente se reserva para empresas de países rivales como China o Rusia.

Contradicción. El propio Dario Amodei explicaba en una entrada en el blog oficial de la empresa que esas dos amenazas eran autoexcluyentes: "Estas dos últimas amenazas son inherentemente contradictorias: una nos etiqueta como un riesgo para la seguridad; la otra etiqueta a Claude como esencial para la seguridad nacional".

¿Se puede nacionalizar la IA? Es una ironía inquietante: el mismo gobierno que considera que Claude es una herramienta esencial para la seguridad nacional está dispuesto a calificar a sus creadores como una amenaza pública si no entregan las llaves del reino y de su IA. Lo que quieren el Departamento de Defensa y el Pentágono es básicamente "nacionalizar" la tecnología de IA desarrollada por Anthropic y apropiarse de ella como ya hicieron con la tecnología que dio lugar a la bomba atómica. Sabemos cómo acabó aquello.

Anthropic se niega a ceder. El peligro es enorme en ambos apartados: la vigilancia masiva, más que defender la democracia puede dinamitarla desde dentro, y el escándalo de la NSA es un buen ejemplo. Pero más preocupante incluso es la intención del Pentágono de usar esta IA para desarrollar armas letales autónomas. Amodei insistía en este punto indicando que "Los modelos fundacionales de IA  simplemente no son lo suficientemente fiables como para impulsar armas totalmente autónomas. No proporcionaremos, a sabiendas, un producto que ponga en riesgo a los combatientes y civiles estadounidenses".

Amodei incluso ofrece al Departamento de Guerra/Defensa ayudar en la "transición a otro proveedor" de modelos de IA, pero de momento no está claro qué camino tomará el gobierno estadounidense. 

Momento Oppenheimer. Si el Pentágono finalmente ejecuta su amenaza y veta a Anthropic, el mensaje para la industria será escalofriante. En la era de la IA no hay objetores de conciencia: si una empresa desarrolla una ventaja tecnológica y estratégica a nivel militar, esa empresa queda a merced del Estado. Es un nuevo y terrorífico "Momento Oppenheimer" que condiciona el futuro no ya de Anthropic, sino del propio desarrollo de modelos de IA.

En Xataka | "El mundo está en peligro": el responsable de seguridad de Anthropic abandona la empresa para dedicarse a escribir poesía




via Robótica e IA - Xataka https://ift.tt/HGmpkDE

Anthropic tenía hasta hoy para decidir si se mantenía fiel a sus principios o cedía al Pentágono: ha elegido lo más arriesgado

Anthropic tenía hasta hoy para decidir si se mantenía fiel a sus principios o cedía al Pentágono: ha elegido lo más arriesgado

17:01 de este viernes 27 de febrero. Esa fue la fecha límite que Estados Unidos dio a Anthropic para que concediera plenos poderes al Pentágono sobre el uso de su IA. Es su softwate el que está plenamente integrado con Palantir y los sistemas del Departamento de Defensa, pero EEUU cree que tiene un problema: Anthropic ha atado a su IA a unas reglas morales que no deberían existir. Mandaron un mensaje: o les dan una IA desatada o se deberán atener a las consecuencias.

Y Anthropic ha respondido con un rotundo "no".

Roce monumental. La actualidad está marcada por muchos momentos, pero aquí no estamos ante un conflicto entre empresas: es una empresa contra su Gobierno. Anthropic ofreció su IA al Pentágono para que éste la integrara en sus sistemas. Lo hizo a un precio simbólico: un dólar. El Pentágono aceptó, y la respuesta fue un contrato de 200 millones de dólares. El Departamento de Defensa empezó a integrar la IA de Anthropic en sus sistemas, con todo lo que ello conlleva: acceso total a documentos a los que nadie fuera del Pentágono debería poder acceder.

También quieren que sea una herramienta de campo, pero hay un problema: esa IA está ‘programada’ para que no pueda usarse para la vigilancia masiva de ciudadanos estadounidenses, para el desarrollo de armas o para el uso de armamento autónomo. Es, precisamente, lo que quiere hacer el Pentágono, y el Secretario de Defensa mandó un mensaje a Anthropic: o les dan una IA sin límites o les hacen un Huawei.

Estos son mis principios. Imaginamos que han sido unos días intensos, pero Dario Amodei, CEO de la compañía, ha respondido en el blog de la misma. Su frase inicial es potente: “creo profundamente en la importancia existencial de usar la IA para defender Estados Unidos y a otras democracias para derrotar a nuestros adversarios autocráticos”. Buen inicio para lo que parece ser una declaración en la que da su brazo a torcer, pero… no.

Tras un repaso de lo que han “cedido” para que su IA esté en los sistemas del Departamento de Defensa y criticar que EEUU saque la cata de la Ley de Producción de Defensa de 1950 para aterrorizar a una Anthropic que este año saldrá a bolsa, la resolución es firme: “no podemos acceder en buena conciencia a la petición”. La compañía tiene claro que su IA puede ser de mucha ayuda al Gobierno, pero sigue oponiéndose, principalmente, a dos usos concretos:

  • El espionaje masivo porque la IA puede armar bases de datos completas de la vida de cualquier persona.
  • El uso de armas autónomas en las que no se puede confiar para la toma de decisiones, ya que no tienen el juicio que sí tiene un soldado profesional (o que debería tener un soldado profesional). Una IA no cuestiona, no tiene remordimientos, no se pregunta si está bien o mal o si el objetivo es un falso positivo. Una IA… ejecuta.

Hemos dado el pecho por vosotros. En el comunicado, Amodei lanza casi una suplica, un “con todo lo que te he dado”, afirmando que ese compromiso con el liderazgo de Estados Unidos ha sido contra los intereses de la propia compañía. Apuntan que han renunciado a “varios cientos de millones de dólares para impedir que Claude se use en empresas vinculadas al Partido Comunista Chino” y que eso costó algunos ataques por parte de China, con algunas de sus empresas intentando abusar de Claude.

Y es una carta abierta, una declaración de intenciones que ha sido respaldada por empleados de la competencia. Por 219 de Google y por otros 65 de OpenAI. Muchos han dado sus nombres, otros muchos han firmado bajo el anonimato, pero todos con el mismo objetivo: rechazar las demandas del Departamento de Defensa para usar sus modelos para la vigilancia masiva y “matar de forma autónoma a personas sin supervisión humana”.

"En cualquier caso, estas amenazas no cambian nuestra posición: no podemos acceder en buena conciencia a su petición"

No hay término medio. Por muy bonito y romántica que suene la declaración de los empleados de Google y OpenAI, la realidad es otra. Están echando un pulso al Gobierno, un Gobierno que continuamente está demostrando que se va a ejecutar lo que ellos quieran (ahí está el ICE, los movimientos climáticos, la salida de la OMS, los aranceles o las amenazas a socios y aliados). Y el problema es que Anthropic tiene mucho que perder, mucho más de esos 200 millones de dólares que es calderilla en el contexto de las inversiones en IA.

Si ceden, supondría dar un paso atrás en un aspecto casi fundacional de la empresa. Si no ceden, se convierten en la “marca de prestigio” de la IA. Demuestran que tienen el modelo que necesita el ejército más tecnológicamente avanzado de la actualidad y que son intocables, al menos mientras una Estados Unidos que ya se está moviendo buscando alternativas como Google, X y OpenAI encuentre una alternativa. Pero corren el riesgo de que, como decíamos, EEUU la meta en la lista negra.

El Gobierno ha amenazado con condenar a Anthropic a ser una empresa que supone un “riesgo en la cadena de suministro”. Como Amodei apunta en el comunicado, es una etiqueta reservada a los adversarios del país y nunca se ha aplicado a una empresa estadounidense. Sería meter Anthropic en el mismo saco que Huawei y otras empresas chinas e impediría que el resto de socios estadounidenses hiciera tratos con ellos. Pero es que, aunque no cedan, EEUU puede adueñarse de la IA por la fuerza con la carta de la Ley de Producción de Defensa. Mediante este decretazo, si consideran que esa herramienta es necesaria e imprescindible para la seguridad nacional, da igual lo que diga Amodei.

En el tejado del Pentágono. Es donde está la pelota en estos momentos, y el tiempo se acaba. Como decíamos antes, no es una operación entre empresas, no es una pela entre políticos: es una empresa que está siendo amenazada por su propio país. Una amenaza que es un “danos esto por las buenas o te lo quitamos por las malas”.

En cualquier caso, hay que esperar a ver cómo se desarrolla el día. Anthropic apunta que, si al final el Departamento de Defensa elije a otra empresa, trabajarán para una transición sin fisuras. La pregunta es si habrá una solución tan pacífica teniendo en cuenta que la IA de Anthropic ya está muy integrada en los sistemas del Pentágono… y no suena factible que den un volantazo para desandar lo andado.

Imágenes | La Casa Blanca, Fortute Brainstorm Tech

En Xataka | A un granjero de 86 años le ofrecieron 15 millones de dólares para construir un centro de datos. Dijo que no



via Robótica e IA - Xataka https://ift.tt/xVp9wg1