jueves, 5 de marzo de 2026

Anthropic se ha convertido en la Apple de nuestra era y OpenAI en nuestra Microsoft: una historia de amor y odio

Anthropic se ha convertido en la Apple de nuestra era y OpenAI en nuestra Microsoft: una historia de amor y odio

A los seres humanos nos encanta tomar partido y defenderlo. Amamos y odiamos equipos de fútbol, comidas, coches y ropa, pero también amamos y odiamos a empresas de tecnología. Si hay dos empresas que representen esa historia esas son Apple, tradicionalmente amada por sus usuarios y con muy buena imagen, y Microsoft, que a pesar de sus esfuerzos ha sido masivamente odiada. 

No entramos aquí en juicios de valor sobre si una u otra merecían ese amor o ese odio, sino simplemente exponemos que ese sentimiento está claramente extendido. Esa historia de amor y odio nos ha acompañado durante los últimos cuarenta años, pero ahora comienza a perfilarse otra historia similar. Aún incipiente, pero llamativa.

Se trata, cómo no, de cómo la gente está empezando a odiar a OpenAI y a amar a Anthropic. Las similitudes con Microsoft y Apple son llamativas, sobre todo tras los acontecimientos de los últimos días y ese triángulo de amores y desamores que han formado el Pentágono, Anthropic y OpenAI. 

De todo ese escándalo han acabado apareciendo dos percepciones muy claras. Por un lado, Anthropic se ha posicionado como la empresa defensora de la ética y la moralidad. No han cedido a las exigencias del Pentágono y se han mantenido en sus trece, lo que reputacionalmente ha sido muy positivo para ella. 

Por el otro, OpenAI ha aprovechado el momento para robarle el contrato gubernamental a su rival. La percepción aquí es distinta, y OpenAI ha quedado como una empresa oportunista y sin escrúpulos. Tanto es así que el impacto en popularidad ha sido notable: el sábado pasado las descargas de ChatGPT se desplomaron mientras que las de Claude lograban situarla por encima de su rival, que siempre había dominado ese ránking.

El efecto ha sido claro: Anthropic ha quedado como la buena, la empresa a la que amar. OpenAI, por el contrario, se ha convertido en foco de las críticas. De hecho se ha creado un movimiento 'Cancel ChatGPT' que anima a los usuarios a dejar de usar los modelos de IA de OpenAI. La traición, parecen decir esos usuarios, se paga.

La batalla narrativa de los buenos y los malos

Aquí estamos asistiendo a un singular fenómeno de la evolución de la identidad corporativa de estas empresas. Mientras que Altman parece haber adoptado el manual de estilo de Bill Gates de los 90 —priorizar el crecimiento agresivo, las alianzas gubernamentales y la dominación del mercado—, Dario Amodei se sitúa como el "heredero espiritual" de esa Apple que presumía de "pensar diferente". Esa negativa de Anthropic a cruzar ciertas íneas rojas ha servido para que el usuario medio sienta que al usar Claude apoya una tecnología "con conciencia", por decirlo de algún modo. 

Lo curioso en esta historia y esta rivalidad es que Anthropic precisamente nació de una escisión de OpenAI por diferencias éticas. Hay aquí cierta narrativa de pureza versus pragmatismo empresarial que de nuevo nos recuerda al enfrentamiento entre Apple y Microsoft desde los 80. OpenAI parece ser el Windows de la IA. Mientras, Anthropic parece ser el MacBook.

Estas rabietas de los usuarios suelen tener fecha de caducidad porque los seres humanos tenemos muy mala memoria, pero aun así OpenAI afronta riesgos claros. Por ejemplo, que esa percepción de la compañía complique la retención de talento o que efectivamente Anthropic acabe asumiendo el papel de "empresa que desarrolla una IA ética". 

Para esta última eso también es un riesgo, porque cualquier desliz en esa filosofía inmaculada le puede salir muy caro. De hecho, se habla ya en redes de cómo en realidad Amodei no es ningún santo y su empresa se presentó en enero a un concurso para un proyecto de enjambres de drones autónomos controlados por voz e IA.

Así pues, estamos reviviendo la asignación de valores ideológicos a la tecnología. Cada empresa quiere posicionarse de forma distinta, pero para los usuarios todo vuelve a ser cuestión de buenos y malos. Los usuarios amaban los ordenadores de Apple y odiaban (o soportaban) el de Microsoft. Ahora ese debate parece haberse trasladado a la IA: amamos la de Anthropic porque parece ser ética, y odiamos (o soportamos) la de OpenAI porque es oportunista

Pero cuidado: esto solo acaba de empezar.

En Xataka | Microsoft tenía un canal de Discord dedicado a la IA. Lo ha cerrado porque todo el mundo les llama ahora "Microslop"

Imagen | Xataka con Freepik



via Robótica e IA - Xataka https://ift.tt/hwCXkmR

miércoles, 4 de marzo de 2026

OpenAI ha colado su IA en el Pentágono. Ahora apunta a un objetivo mayor: las redes clasificadas de la OTAN

OpenAI ha colado su IA en el Pentágono. Ahora apunta a un objetivo mayor: las redes clasificadas de la OTAN

La que hay liada en Estados Unidos con la IA y el Gobierno es una de padre y muy señor mío. En muy pocos días, la IA de Anthropic ha dejado de ser la mejor amiga del Pentágono, una integrada en sus sistemas, para convertirse en una “IA Woke”. El Gobierno de Trump está pensando meterla en una lista negra, pero otra empresa ha ocupado su lugar: OpenAI. Y a OpenAI no le basta con tener ChatGPT dentro de los sistemas del Departamento de Defensa de Estados Unidos.

Ahora quiere estar en las redes clasificadas de la OTAN.

Acción. La historia ya la hemos contado. Cuando el Departamento de Defensa estaba buscando una IA para que trabajara codo con codo con los sistemas de Palantir, Anthropic ofreció su Claude por el precio simbólico de un dólar. Eso llevó a acuerdos millonarios, pero a algo más importante: se estaban convirtiendo en una empresa vital para la seguridad de Estados Unidos. Sin embargo, Claude ha sido programado con unas líneas rojas que Estados Unidos quería saltarse. Trump dio un ultimatum a Anthropic: o les daban una IA sin restricciones… o más les valía prepararse para las consecuencias.

La empresa no dio su brazo a torder y pasó lo que tenía que pasar. El Gobierno está trabajando para eliminar todo rastro de Claude de sus sistemas. ¿Y quién estaba ahí el primero para recoger el testigo? Sam Altman. Con unas restricciones similares a las de Claude, pero sin haber mantenido un pulso con Trump, OpenAI se ha hecho con el nuevo contrato con el Departamento de Defensa.

Reacción. Es curioso porque horas antes mostraba su apoyo a Anthropic, pero los negocios son los negocios y, como dice mi compañero Javier Pastor, Altman lleva años diciendo una cosa y haciendo otra. Los usuarios han respondido con decenas de mensajes en Reddit y otras redes sociales llamando al boicot, lo que se tradujo el sábado en un 295% más de desinstalaciones de la app de ChatGPT en Estados Unidos… y un aluvión de usuarios en Claude.

Siempre es curioso ver cómo reaccionamos los humanos y cómo el Pentágono, que ha intentado convertir a Anthropic en la mala de la película, ha conseguido que ahora sea vista como la defensora de la ética.

A por la OTAN. Ya hay reportes de que en los sistemas del Pentágono están empezando a implementar las soluciones de OpenAI. Tiene sentido si tenemos en cuenta la importancia que la IA está teniendo en operaciones modernas, como la captura de Nicolás Maduro o el bombardeo de Irán el pasado sábado. Pero Altman tiene otras ambiciones.

Como cuentan en The Information, el CEO de la empresa de IA ha comentado en una reunión de empleados en la que ha tenido que defender la postura de ligarse tanto al Gobierno que está considerando un contrato para que OpenAI también se integre en las redes clasificadas de la OTAN. Acto seguido, un portavoz de OpenAI aclaró que Altman se equivocó y que no quería decir "redes clasificadas", sino "redes no clasificadas".

No ha dado más detalles, pero este jueves dará una conferencia y seguramente será uno de los puntos del día. Al menos, una de las preguntas que harán los asistentes.


Peligro. En Xataka no solemos cubrir de rumores y filtraciones de este estilo, por muy buenas bases que tengan medios como los que han soltado la liebre -The Information y Wall Street Jorunal-, pero en este caso estamos hablando de algo tremendamente importante. Se trata de cómo empresas privadas están creando herramientas que vemos que ya se están usando para el espionaje masivo y pueden comunicarse con otro software para acciones militares.

No es ciencia ficción. De hecho, uno de los encontronazos entre Trump, el Secretario de Defensa y Dario Amodei -CEO de Anthropic- tiene que ver con el deseo de los primeros de usar la IA para dar rienda suelta a sistemas de armamento autónomo. 

Y más peligroso aún que un mundo en el que empresarios tienen las riendas de algo tan poderoso: Estados Unidos está demostrando no ser un aliado fiable, y que una empresa estadounidense con lazos profundos con el gobierno de ese país se integre en la OTAN es dar demasiado poder.

En Xataka | El canciller de Alemania no salió a defender a España en la Casa Blanca por un motivo: 127.000 millones de dólares en armas



via Robótica e IA - Xataka https://ift.tt/9VizQH7

Las gafas de Meta graban todo lo que vemos. Unos señores en Kenia lo están viendo también para entrenar a la IA

Las gafas de Meta graban todo lo que vemos. Unos señores en Kenia lo están viendo también para entrenar a la IA

Meta está compitiendo en dos carreras. Por un lado, la de la inteligencia artificial. Por otro, la de encontrar el "nuevo smartphone". En este sentido, su apuesta total está en las gafas con IA. Dispositivos como las Ray-Ban Meta 2 tienen el potencial para grabar todo lo que veamos. Y dentro de ese “todo” está el desnudarnos en un probador, mantener relaciones sexuales o meter la contraseña del banco en el móvil.

Y alguien en Kenia está viendo todo eso con un solo objetivo: entrenar a la inteligencia artificial.

En corto. Antes de profundizar, vamos con el contexto. El medio sueco Svenska Dagbladet ha publicado un reportaje en el que exponen cómo se está entrenando la inteligencia artificial de Meta. Al menos, a la IA que da vida a sus gafas inteligentes. Para ese entrenamiento, Meta recoge nuestros datos como conversaciones, fotos y vídeos, que se envían en paquetes masivos a empresas que los desglosan para luego 'chutar' la información al software de entrenamiento.

Una de esas empresas es Sama. Está ubicada en Kenia y algunos de sus empleados han revelado a los periodistas suecos qué tipo de información ven a diario, relatando algunos casos que no dejan de ser acciones cotidianas que todos hacemos. El problema es que son esas cosas que todos hacemos en la intimidad. Dicho esto, vamos poco a poco porque hay mucho.

Ray-Ban Meta. Las gafas no necesitan presentación y, de hecho, probamos la segunda generación hace unas semanas. En nuestro análisis de las Ray-Ban Meta 2 ya contamos que eran parte de esa visión postsmartphone gracias a una cámara y sonido muy decente, pero con una IA decepcionante. Precisamente ese es el punto en el que Meta debía trabajar más y lo hace gracias a las imágenes que recoge de cada usuario.

Lo que cedemos. En la investigación del medio sueco, y es algo que podemos ver en los términos de uso de servicios de Meta AI, se detalla una situación en la que parece que tenemos un control significativo sobre los datos como las imágenes o las grabaciones de voz. En el documento se apunta que ciertos datos se pueden guardar y usar para mejorar los productos de Meta si el usuario da su consentimiento, pero hay una cara B: para que el asistente de IA funcione, hay que ceder la voz, el texto, la imagen y el vídeo.

Según estas condiciones, “en algunos casos, Meta revisará las interacciones con la IA, incluido el contenido de las conversaciones o los mensajes a la IA. Esta revisión puede ser automatizada o manual”. Además, también se establece que el usuario no debe compartir información que no desee que la IA utilice o retenga, como por ejemplo “información sobre temas delicados”. El problema es que, si no aceptas, no puedes utilizar Meta AI.

Entrenando la IA manualmente. Cuando la revisión de los datos es manual, es cuando comienza el problema. En el artículo se expone que uno de los centros de análisis está ubicado en Kenia. Se llama Sama y es una empresa contratada por Meta para realizar una labor conocida como “etiquetado”. Los datos que salen del dispositivo pasan por un proceso de limpieza que difumina caras y datos privados, pero luego los trabajadores realizan algunas acciones manuales en las imágenes.

Captura De Pantalla 2026 03 04 A Las 15 01 29 Captura De Pantalla 2026 03 04 A Las 15 01 29 Un ejemplo del etiquetado

Por ejemplo, seleccionar contornos de personas, nombrar objetos como “lámpara”, “coche”, “libro”, “ordenador”, registrar señales de tráfico y, en definitiva, todo lo que vemos. Luego todo eso correctamente etiquetado se organiza en paquetes de datos que se ‘lanzan’ a los sistemas de entrenamiento de la inteligencia artificial. Porque si una IA “sabe” que una señal de ‘STOP’ es una señal de ‘STOP’ es porque se le ha enseñado antes con imágenes reales. El fin es mejorar, precisamente, lo que criticamos en nuestro análisis: la inteligencia artificial y su conexión con el mundo.

Cuando el sistema falla. Para el análisis, han contactado con antiguos empleados de Meta en centros de etiquetado de Estados Unidos. Aseguran que el sistema anonimiza automáticamente las caras y datos sensibles, pero “los algoritmos, a veces, se pierden. Sobre todo en condiciones de iluminación difíciles, ciertas caras y cuerpos son perfectamente visibles”.

Y ahí empieza el problema. Los trabajadores en el centro de etiquetado que se ha puesto bajo la lupa no están ahí viendo lo que detallaré a continuación por gusto o voyerismo, sino porque están etiquetando para entrenar a la IA. El problema es… lo que supuestamente se ve en las imágenes.

Nada es privado. Un empleado del centro de datos de Kenia expone que “en algunos vídeos se puede ver a alguien yendo al baño o quitándose la ropa. No creo que lo sepan, porque si no, no grabarían”. Pero ir al baño no es lo único que han visto en ese centro de etiquetado. Escenas cotidianas de un salón occidental seguidas de otras en las que se mantienen relaciones sexuales. Grabar a otra persona desnuda por error (cuando tu pareja sale de la ducha, por ejemplo), o dejar las gafas encima de una superficie en la habitación para grabar cómo se cambia tu mujer sin que ella lo sepa.

También se analizan transcripciones sobre protestas, crímenes “cosas muy oscuras” o temas como la descripción de una mujer por parte de un hombre que argumenta que le gustaría tener relaciones con ella. “Vemos de todo y Meta tiene ese tipo de contenido en su base de datos. La gente puede grabarse a sí misma de la manera equivocada y no saber que lo está haciendo”, apunta uno de los trabajadores que asegura que, si se filtran los clips, sería un “escándalo enorme”.

“Creo que, si supieran el alcance de la recopilación de datos, nadie se atrevería a usar las gafas”

¿Y si no grabo? Svenska Dagbladet no ha realizado este reportaje en dos días. Apuntan que llevan meses trabajando la información, reuniéndose con las partes y preguntando tanto en ópticas donde se pueden comprar las gafas como a la propia Meta. Sobre los minoristas, afirman que no tienen ni idea de dónde van los datos. Otros apuntan que “todo se mantiene de forma local en la aplicación”, lo cual no es cierto porque la IA de Meta no trabaja en el dispositivo: necesita conexión a Internet.

Aquí entra en juego otra cuestión, que es el tipo de formación que reciben los minoristas que venden los dispositivos, pero hay algo de fondo que puedes estar pensando. Vale, los datos se filtran, pero… ¿y si sólo grabo de forma consciente cuando yo quiera? Aquí es la propia Meta la que detalla cómo funciona esta grabación de vídeo y sonido:

  • Al presionar un botón físico en las gafas.
  • Cuando se utiliza el comando ‘Ey Meta’ y se hace una pregunta.

Que dice Meta. “Cuando se está utilizando Meta AI, procesados esos datos de acuerdo con los Términos de Servicio y la Política de Privacidad de Meta AI”, apunta Joyce Omope, portavoz de Meta. No es muy revelador, pero un ejecutivo de Meta entrevistado por el medio y que ha preferido no ser identificado afirma que no importa dónde se encuentre el servidor en el que se almacenen los datos siempre y cuando el país cumpla con los requisitos de la Unión Europea”.

El problema es que están hablando de la política de privacidad, no de lo que se hace con los datos para el entrenamiento de Meta AI. Desde Xataka, nos hemos puesto en contacto con Meta para conocer su visión sobre el asunto.

Suma y sigue. Llegados a este punto, puede que pienses “espera, esta historia me suena”. Y lo cierto es que no es la primera vez que sale a la luz una polémica relacionada con la revisión manual de información privada en aplicaciones de la compañía. Hace unos años, y al margen de Cambridge Analytica, la por aquel entonces conocida como Facebook ya se enfrentó a otra polémica al afirmar que escaneaba todos los mensajes, enlaces e imágenes que se mandaban por Messenger e Instagram para asegurarse de que “no se incumplen las reglas de contenido”.

También de las condiciones de los moderadores de Facebook, expuestos a contenido de todo tipo para decidir si algo se puede, o no, ver en la plataforma. Hablamos de sexo, pero también de vídeos de muertes violentas o abuso infantil. Esto es algo que se ha ido destapando a fuego lento y que ha salpicado, incluso, a trabajadores en España. En el centro de moderación de Barcelona, concretamente, donde empleados reclaman indemnizaciones millonarias tras años siendo testigos de la violencia más explícita.

Estos empleados experimentan estrés postraumático, ataques de pánico, fobias y hasta ideas suicidas debido al tipo de contenidos que deben visualizar. Ya no es que vieran gente desnuda porque tienen que etiquetarlo todo para alimentar a la insaciable IA: hablamos de decapitaciones, violaciones, suicidios en directo y pornografía infantil. Hasta 800 vídeos al día.

AI = ‘Another Indian’. Y sumado a todas las polémicas, tenemos algo más de fondo. Este etiquetado de datos tan esencial para que los modelos de aprendizaje puedan… aprender, está basado en gran parte en trabajos precarios por parte de personas que están en países en desarrollo. Kenia es un país en el que hay varios “centros de datos humanos” como el que trabaja para Meta etiquetando lo que ven las Ray-Ban Meta. De hecho, hace unos meses se publicó un reportaje en Coda en el que se contaba cómo Kenia, y Sama concretamente, estaba haciendo el "trabajo sucio digital" en la era de la IA. OpenAI estaba involucrada.

También se concentran en instalaciones en India, de ahí el malísimo chiste de ‘Another Indian’ y recientemente se conoció el “truco” sobre los taxis remotos de Waymo: personas en Filipinas “conduciendo” los coches a distancia. Al menos, ayudando.

Como decimos, hemos contactado con Meta y actualizaremos el artículo en cuanto tengamos una respuesta.

Imágenes | Xataka (Crossover), We-Vibe Toys, Unplash, BaristaVision+

En Xataka | Hay 60 países que han firmado un acuerdo por una IA "abierta", "inclusiva" y "segura". Y dos que no: EEUU y Reino Unido



via Robótica e IA - Xataka https://ift.tt/yb1YRCJ

El sueño de los centros de datos espaciales acaba de chocar con un problema: cómo disipar calor en el vacío

El sueño de los centros de datos espaciales acaba de chocar con un problema: cómo disipar calor en el vacío

La llamamos nube, pero en realidad vive en suelo firme, más concretamente en edificios mastodónticos de pasillos interminables, o así ha sido hasta ahora. La idea de llevar los centros de datos al espacio suena cada vez con más fuerza y se presenta como la solución al insaciable apetito energético de la inteligencia artificial. En medio de esta creciente obsesión, el jugador que tiene la llave de todo el hardware actual acaba de dar un baño de realidad.

NVIDIA echa el freno. Google, Elon Musk, Jeff Bezos... todos han hablado acerca de llevar los centros de datos al espacio. Incluso la propia NVIDIA ha participado en proyectos de este tipo, pero parece que ha cambiado de opinión. Tal y como publican en Bezinga, durante la última llamada de resultados de la compañía, Jensen Huang ha aprovechado para rebajar las expectativas a corto plazo sobre los centros de datos orbitales.

Disipar el calor. La idea de llevar centros de datos al espacio nace de la necesidad energética. En el espacio, la energía es prácticamente ilimitada porque los paneles solares pueden estar todo el tiempo recibiendo luz. El problema, según Huang, es disipar el calor. En la Tierra, los centros de datos usan aire o agua para enfriarse, pero en el vacío del espacio no hay aire. La única forma de disipar el calor en el espacio es mediante conducción hacia radiadores que, en palabras del CEO, deben ser "bastante grandes".  NVIDIA lo sabe bien porque ya tiene un satélite con GPUs H100 en el espacio

Por qué es importante. La intervención de Huang es relevante porque NVIDIA es el proveedor principal de la infraestructura que xAI, Amazon, Google y otras tecnológicas necesitan para sus planes espaciales. Si el mayor beneficiado de vender chips para estos proyectos advierte sobre su viabilidad, el mercado escucha. Aun así, sus palabras no han sido una negativa total, sino más bien un "todavía no".

Los analistas coinciden. En un informe de Gartner al que ha tenido acceso The Register, aseguran que las empresas están malgastando dinero en perseguir el sueño de los centros de datos espaciales. Su argumento es que las instalaciones orbitales no son rentables, pero además aseguran que no podrían satisfacer la demanda de computación necesaria. Además, también destaca el reto técnico que supondría refrigerar estas estructuras en el vacío del espacio y otro problema: las oscilaciones extremas de temperatura que pueden ir "de 100 grados kelvin a 400 grados kelvin" (entre 126ºC y -173ºC). Esto obligaría a usar materiales y componentes especiales, muchísimo más caros que sus equivalentes terrestres.

Musk vs Altman. Hay poco en lo que los CEOs de xAI y OpenAI estén de acuerdo y los centros de datos en el espacio no iban a ser menos. Elon Musk anunció un megaproyecto con SpaceX y xAI para lanzar una constelación de un millón de satélites. En un evento de hace unos días, Altman calificó la idea de ridícula, aunque también admitió que "tendrá sentido algún día (...) aún no estamos ahí". 

En Xataka | Aragón se está convirtiendo en todo un gigante español de los centros de datos gracias a Amazon. Sigue habiendo una gran incógnita

Imagen | İsmail Enes Ayhan y NASA




via Robótica e IA - Xataka https://ift.tt/yxuc30q

TSMC es el 'capo' de los chips y Apple siempre fue su mejor amiga. Eso acaba de cambiar

TSMC es el 'capo' de los chips y Apple siempre fue su mejor amiga. Eso acaba de cambiar

TSMC es la fundición del mundo. Aunque hay otras como Samsung que cuentan con músculo, es la taiwanesa la que ha conquistado el segmento de los chips de alto rendimiento. Lo ha logrado por capacidad, por tecnología y por una alianza: la de Apple. Durante una década, TSMC fue la gran amiga de Apple, la que manufacturaba sus chips y la que revolucionó -con los diseños de Apple Silicon- los portátiles.

Ahora manda NVIDIA. Y se ha abierto paso a codazos.

En corto. En plena era de la IA y con una actualidad tecnológica en la que es imposible desligarse de NVIDIA, Apple tiene motivos más que suficientes para sentir celos. Mientras el segmento de móviles se enfrenta a recortes sin precedentes debido a la crisis de la memoria RAM y de componentes, y con el mismísimo Tim Cook -CEO de Apple- comentando las dificultades que tendrán este 2026, el de la inteligencia artificial va como un cohete.

Los principales fabricantes de memoria se han volcado con las memorias de alto ancho de banda para las GPU de la IA y compañías como NVIDIA, Phison, AMD y hasta las chinas como SMIC y Huawei están dando palmas con las orejas. Han conseguido que las Big Tech de la IA dependan de su hardware, y nadie hace ese hardware como TSMC. ¿Resultado? Según el últimos informes, NVIDIA se convertirá este año en su mayor cliente.

La importancia del ‘Cliente A’. Puede parecer un cambio de fichas sin mucha importancia, pero realmente es más relevante de lo que pensamos. La diferencia entre un ‘Cliente A’ y un ‘Cliente B’ implica que, ante cuellos de botella en la producción, a uno de los dos se le da prioridad. Esto ya lo vimos en la crisis de los semiconductores de 2020 cuando, precisamente, la mitad de la industria se estaba ahogando (coches, cámaras, teles y móviles) mientras Apple no tenía tan malas previsiones porque era el niño mimado de una TSMC que se iba a volcar en los chips de los iPhone para afianzar una lucrativa relación que comenzó con el Apple A8 de los iPhone 6.

El propio Jensen Huang -CEO de NVIDIA- ha comentado la jugada bastante orgulloso en un podcast. “Morris -Morris Chang, fundador de TSMC y amigo de Huang- estará feliz de saber que NVIDIA es el cliente más grande de TSMC en estos momentos”, afirmó el CEO. Lo es por poco margen: 19% para NVIDIA frente al 17% para Apple, pero es un logro y un termómetro de cómo está la industria. El año pasado, la contribución de NVIDIA a TSMC fue del 12%, lo que supone un salto considerable en muy poco tiempo.

“Necesito muchas obleas”. Evidentemente, eso no implica que TSMC vaya a dejar de mimar a Apple frente a otras compañías. La de la manzana tiene un enorme porcentaje del segmento móvil, pero NVIDIA es crucial para que la maquinaria de la IA siga rodando. Pese a los intentos de Google con sus TPU, los acuerdos de OpenAI con Broadcom, los de Meta con NVIDIA y AMD o los de xAI fabricando sus chips, NVIDIA sigue siendo la que parte el bacalao.

Hasta las empresas chinas necesitan las GPU de NVIDIA y, claro, NVIDIA está más que dispuesta a sacar tajada. En una reciente visita a Taiwán,. Huang se reunió con los pesos pesados de la industria local y señaló que “NVIDIA necesitaría muchas obleas este año”, poniendo aún más presión a una TSMC que es crucial en la cadena de la inteligencia artificial.

Sinónimo de éxito. Samsung, Huawei y SMIC están luchando por ser alternativas en caso de que TSMC colapse. Pero TSMC nos e ha apoltronado en el sofá y lleva unos años viendo cómo diversificar el negocio. En Taiwán mantienen el corazón y el músculo, pero está en marcha la planta en Europa -en Alemania- y ya tienen una fundición operativa en Estados Unidos. De hecho, hay planes para ampliarla porque cada vez tienen más clientes que neceistan un producto muy concreto y que funcione como un reloj suizo.

Pero esto tiene una cara B: todos los huevos de la industria están en la misma cesta. Si TSMC falla, el castillo de naipes se puede desmoronar. Ya hay algún informe que apunta que la planta estadounidense que fabrica para Apple, Intel, NVIDIA o AMD está sobrepasada debido a una enorme cantidad de pedidos.

Y ahí, precisamente, radica la importancia de ser un cliente A… o un cliente B.

Imágenes | TSMC, NVIDIA

En Xataka | SK es una de las ballenas de los chips y tiene algo claro: ni todo el dinero del mundo saciará el hambre de RAM de la IA



via Robótica e IA - Xataka https://ift.tt/TGsa81v

Samsung tiene un plan para todas sus fábricas: que trabajen los robots humanoides controlados por una IA central

Samsung tiene un plan para todas sus fábricas: que trabajen los robots humanoides controlados por una IA central

Samsung se ha plantado en el MWC 2026 con un objetivo: demostrar que es una compañía ubicua. ¿Qué implica esto? Pues que saquen músculo con sus pantallas en todas partes, pero también mostrar una potente apuesta por la inteligencia artificial en todos los eslabones de la cadena: desde los móviles como los Samsung Galaxy S26 hasta las fábricas. Y fruto de esa intención de que la IA sea el piloto de todo, han mostrado un plan de ciencia ficción: que sean los robots y una IA central quienes controlen sus fábricas.

Y lo quieren para pasado mañana.

Independiente. El concepto de “IA agéntica” es uno con el que nos vamos a tener que familiarizar porque las compañías van a poner mucho esfuerzo -y dinero- en esto. Se trata de una IA que ya no sólo responde a lo que necesitemos, sino que puede realizar acciones de forma autónoma. En un comunicado, Samsung asegura que ese principio de agentes que ha introducido en los Galaxy S26 será lo que dicte el futuro de sus fábricas.

La compañía surcoreana quiere que esos agentes de inteligencia artificial sean los que “optimicen los flujos de trabajo en la producción, el mantenimiento predictivo, las operaciones de reparación y la coordinación logística” de sus fábricas, pero una IA no puede ejecutar cosas fuera del software. Necesita una interfaz física, y ahí entra en juego la otra pata del plan.

Robots. Son el cuerpo del cerebro y algo que muchas compañías ya están explorando. Hace unos meses viajé a China y me topé con la primera tienda llevada por un robot. Es muy simple y lo califiqué como una “máquina expendedora glorificada”, pero cumple con el objetivo de estas compañías: tener espacios en los que los robots se encarguen de todo. No descansan, no tienen convenios y no se quejan.

Y si compañías como BMW o Xiaomi ya están probando robots en sus fábricas, Samsung no quiere quedarse atrás. En el comunicado, la surcoreana afirma que ya están introduciendo progresivamente robots humanoides muy especializados en tareas diversas. Por ejemplo, robots para operaciones de gestión de la instalación, otros para los siguientes pasos de la línea de producción, otros en logística, otros para el transporte de materiales y los de precisión para la fabricación.

Apuntan que son ideales en entornos en los que el acceso humano es limitado o peligroso y tienen claro que es algo que irá a más, con otros robots que se dediquen a monitorizar las condiciones de las plantas, identificar riesgos y mitigarlos antes de que ocurran.

Apuesta total. Al final, se trata de integrar plenamente la IA en toda la cadena de valor de la fabricación: desde la logística a la producción; desde la inspección de calidad hasta el envío final. Están diseñando un “entorno de producción autónomo de nueva generación”, y quieren tenerlo pronto.

El plan es que para 2030, “todas las operaciones de fabricación” hayan culminado la transición a esta IA agéntica y robótica. Ya están en ello, como decimos, añadiendo robots a las cadenas de producción, pero el Vicepresidente Ejecutivo y Jefe de Investigación Tecnológica Global de Samsung apunta que la siguiente fase es la “construcción de entornos autónomos donde la IA entienda los contextos en tiempo real y ejecute decisiones óptimas”

NVIDIA. Suena a ciencia ficción, sobre todo por los plazos que manejan, pero no van a estar solas en esta aventura. ¿Quién va a estar a su lado? Efectivamente: NVIDIA. A finales del año pasado, ambas firmaron un acuerdo de colaboración que incluye el despliegue de más de 50.000 GPU de NVIDIA y el uso de la plataforma Omniverse para llevar a cabo la infraestructura de gemelos digitales en la fabricación de semiconductores.

Esto es clave para lograr ese objetivo que busca Samsung y tan importante como los sistemas de razonamiento de IA en tiempo real para los robots. Y para esto ya también están usando la plataforma Jetson Thor de la compañía de Jensen Huang.

Alternativa a TSMC. Esa es la meta a la que Samsung quiere llegar. Porque ahora mismo son una de las mayores factorías del mundo (tienen sus procesadores Exynos, pero también sus sensores de cámaras que están en varios dispositivos, así como su división de memoria que alimenta las GPU de NVIDIA), pero lo que quieren es convertirse en una alternativa a la reina indiscutible: TSMC.

Para ello, Samsung se está moviendo abriendo factorías por varios países del mundo e invirtiendo enormes sumas de dinero para ser una de las patas del negocio en una Estados Unidos que también persigue con prisa y un buen fajo de billetes esa IA agéntica y el fin: la IA general.

Quedan cuatro años por delante para comprobar si se cumple ese objetivo que parece de ciencia ficción.

Imágenes | Samsung, Xiaomi

En Xataka | He visto el resultado de una noche loca entre un móvil y un robot: el Honor Robot Phone lo mismo baila tu música que te hace fotos



via Robótica e IA - Xataka https://ift.tt/NC9VRbL