jueves, 22 de enero de 2026

La IA te ahorra ocho horas de trabajo a la semana. Siempre y cuando seas el jefe y no tengas que usarla tú mismo

La IA te ahorra ocho horas de trabajo a la semana. Siempre y cuando seas el jefe y no tengas que usarla tú mismo

La IA que iba a cambiarlo todo y revolucionar nuestro trabajo no parece estar haciendo de momento nada de eso. Lo que sí hay es una gran polarización entre quienes creen en esa promesa y entre quienes no la ven nada clara o la temen. Y si hay un lugar en el que ese amor-odio por la IA es palpable es en las empresas, donde los CEOs ven las cosas de una forma y los empleados de otra bastante distinta.

Qué ha pasado. La empresa de consultoría Section ha realizado una encuesta a 5.000 trabajadores y directivos en empresas de EEUU con una pregunta fundamental: ¿Cuántas horas de trabajo a la semana te está ahorrando la IA? Los resultados de la encuesta, mostrados en The Wall Street Journal, dicen mucho de la visión de los CEO y de los empleados sobre el impacto de las herramientas de IA.

Captura De Pantalla 2026 01 22 A Las 13 04 37 Captura De Pantalla 2026 01 22 A Las 13 04 37 Fuente: WSJ.

Los CEOs la aman, los empleados no demasiado. Según los datos de esa encuesta, dos de cada tres empleados indicaron que la IA no les ahorra tiempo en su trabajo o que como mucho les ahorra menos de dos horas a la semana. Esas respuestas contrastan con las de directivos y CEO: uno tercio afirma que les ahorra entre 4 y 8 horas, otro tercio afirma que les ahorra 8 o más horas, y el otro tercio afirma les ahorra 4 horas o menos. La gran diferencia está precisamente en esa visión negativa: un 40% de los empleados dice que no ahorra nada de tiempo, y solo el 2% de los CEOs coinciden con esa opinión.

La IA mete más la pata que otra cosa, dicen unos. Un diseñador de interfaces de usuario llamado Steve McGarvey indicaba en ese texto cómo los directivos "automáticamente asumen que la IA va a ser la salvadora [del negocio]". Su experiencia es distinta, no obstante, y cuenta cómo "he perdido la cuenta de las veces que he buscado una solución para un problema, le he preguntado a un LLM, y me dio una solución a un problema de accesibilidad que era completamente errónea". 

Y no es para tanto. Este profesional indica además que usa Perplexity como un asistente para investigar en diversos proyectos y eso sí le ha ahorrado tiempo. Sin embargo parte de su trabajo consiste en asegurarse de que los usuarios con problemas de visión puedan acceder a sitios web, y en esa tarea los chatbots no han sido de ayuda. 

Los empleados tienen algo de miedo. Hay otro aspecto importante de las conclusiones: los empleados eran mucho más propensos a confesar que se sentían ansiosos o abrumados por la IA que emocionados por ella. Ese 40% que respondía que no les ahorraba tiempo añadía que por ellos no volverían a usar la IA jamás. 

Captura De Pantalla 2026 01 22 A Las 13 16 17 Captura De Pantalla 2026 01 22 A Las 13 16 17 Los empleados son los que están más abrumados por la IA, los directivos los que más ilusión tienen por ella. Fuente: WSJ.

Por ahora la IA se usa como Google. Pero hay otro problema y es que muchos de estos profesionales están usando la IA como una alternativa al buscador tradicional de Google. No la utilizan para aplicaciones prácticas de su trabajo —quizás porque no saben cómo—, y por ejemplo se usaba mucho menos para temas como generación de código o análisis de datos.

Me ahorra tiempo, pero como si no lo hiciera. Empresas de software como Workday participaron en la encuesta y apuntaron un dato interesante: esta tecnología impone una "tasa de la IA" en cuanto a productividad. Aunque el 85% de sus 1.600 empleados encuestados indicaron que ahorran entre una y siete horas a la semana gracias a la IA, eso no les sirve de mucho: gran parte de ese tiempo ahorrado lo acaban usando en corregir errores cometidos por la IA o en modificar contenido generado por IA. 

Captura De Pantalla 2026 01 22 A Las 13 29 12 Captura De Pantalla 2026 01 22 A Las 13 29 12

La IA no sirve de mucho (aún). Una encuesta adicional y también reciente realizada por PricewaterhouseCoopers se centró en 4.500 CEOs. El resultado: solo el 30% de ellos confiaban en que hubiera un aumento de ingresos gracias a la IA, aunque admiten que tener una buena base de IA puede ayudar a impulsar ese retorno de la inversión. La adopción de la IA, eso sí, de momento no les está compensando demasiado, y solo un 12% de las empresas afirman haber obtenido beneficios en ingresos o en costes, mientras que un 56% afirman "no haber obtenido nada" con esa inversión. Esos datos se sitúan en línea con los del estudio del MIT de agosto de 2025 según el cual el 95% de los proyectos piloto con IA generativa no estaban compensando a las empresas.

Pero. Los datos son negativos, pero puede haber factores que apunten a un cambio de tendencia. En las encuestas no se indica cuánto tiempo están dedicando los usuarios a aprender a usar la IA frente al tiempo que les ahorra. Puede que ahora el beneficio sea negativo, pero a largo plazo sea positivo. Además hay sectores en los que claramente la IA se ha convertido en herramienta clara para asistir a los trabajadores, como en el ámbito de la programación. Aunque hay desde luego una fase necesaria de revisión del código que genera la IA, el uso masivo de estas herramientas indica que la productividad puede haber ganado enteros.

Imagen | Redd F

En Xataka | "Perderemos el permiso social": el CEO de Microsoft sabe que o hacen algo valioso con la IA o tendrá poco recorrido



via Robótica e IA - Xataka https://ift.tt/TPpbZBN

OpenAI y Apple tienen una nueva obsesión: utilizar la IA como atajo hacia la no pantalla

OpenAI y Apple tienen una nueva obsesión: utilizar la IA como atajo hacia la no pantalla

"Probablemente en algún momento de la década de 2030, en el que tendrás tu teléfono contigo pero va a quedarse más tiempo en tu bolsillo". Esa predicción la hacía Mark Zuckerberg en diciembre de 2024. Su apuesta era clara: las gafas de la familia Meta Ray-Ban serían tan estupendas que el móvil y, sobre todo, su pantalla, quedarían en segundo plano. Tanto OpenAI como Apple parecen estar de acuerdo, y los últimos rumores apuntan a wearables con dos cosas: mucha IA y cero pantallas. 

Apple prepara su wearable de IA. Nuevos datos revelados en The Information indican que Apple está desarrollando un nuevo dispositivo con IA. En concreto hablan de un wearable que estaría equipado con dos cámaras y tres micrófonos. Lo que no tiene es pantalla, y se habla de un formato similar al de los actuales AirTags. La empresa liderada por Cupertino pretende ponerlo a la venta en 2027, aunque eso sí, con un lanzamiento comedido de unos 20 millones de unidades.

OpenAI va a por todas con sus propios "Airpods". Hace meses que Sam Altman y Jony Ive unieron fuerzas para crear hardware de IA, y ahora sabemos que la firma lo presentará antes de que acabe el año, aunque no queda claro que se venda entonces. Los rumores apuntan a unos auriculares que podrían competir con los AirPods y que nos acercarían un poco más a ese futuro que ya pintó la película 'Her'. Como sabemos, la empresa ya robó una polémica idea a la película.

Apple sabe un poquito de wearables. Sobre todo, porque los vende como churros. Sus Apple Watch y sus AirPods generan ventas cercanas a los 40.000 millones de dólares al año (2023 y 2024) por sí solos. Los AirTags también son parte importante de esa ecuación, y el Proyecto Atlassus gafas tipo Ray-Ban Meta— anima aún más este segmento.

Pero las pantallas nos dominan. Son muchos los que buscan ese producto que logre hacernos olvidar (un poco) nuestro móvil, pero nadie lo ha logrado. Aun cuando hay wearables que han triunfado en el mercado, todos ellos son básicamente accesorios de nuestros smartphones. En un mundo en el que no paramos de consumir contenido de imagen y vídeo —TikTok, Instagram y YouTube lo demuestran— va a ser difícil que un wearable sin pantalla desbanque al móvil, al portátil o al PC. 

Recordando al Humane AI Pin y al Rabbit R1. Es cierto que la IA ha evolucionado y mejorado, pero ya vivimos una primera oleada de promesas con dos wearables de IA que fracasaron estrepitosamente. El Humane AI Pin y el Rabbit R1 quisieron aprovechar esa fiebre y expectación para adelantarse a los gigantes de la tecnología, pero ambos demostraron que el hardware es complejísimo. Sus productos, aun con ideas interesantes y originales, resultaron estar muy verdes y tener prestaciones muy por debajo de lo prometido.

Hola, computación ambiental. Aquellos dos productos apostaron por la voz como gran forma de interactuar con la tecnología, pero la IA no estaba preparada para dar forma a dicha expectativa. Eso está cambiando, y ya estamos viendo como los agentes de IA son capaces de hacer cada vez más cosas y "conectarse" a otras aplicaciones gracias a tecnologías como los MCP. La computación ambiental es esa idea de una tecnología que está presente pero es invisible, y que responde a la voz o al contexto sin necesidad de una interfaz física. Así, la idea es pasar de ir del antes al después: 

  • Antes: hacer clics en pantalla para reservar mesa en un restaurante.
  • Después: decirle al wearable "reserva mesa en el restaurante" y que a través de la conversación el agente de IA complete la tarea.

¿Gafas, auriculares, colgantes, pins? Lo que parece claro es que no hay un formato claro que de momento parezca ser superior a otro, y cada uno tiene sus pros y sus contras. Las gafas parecen a priori especialmente llamativas por abrir la puerta a proyectar información en pequeñas pantallas, pero tanto los auriculares como los colgantes o incluso un dispositivo tipo Humane AI Pin también apuntan a ser muy interesantes para ese teórico futuro en el que la interacción por voz resolverá muchas más cosas que ahora. 

En Xataka | ChatGPT ha sido una herramienta. Si empieza a recordar todas nuestras conversaciones, va a ser otra cosa: una relación



via Robótica e IA - Xataka https://ift.tt/jK7FCeh

China ya se plantea un futuro donde monta coches en "dark factories": plantas 100% robotizadas donde no se enciende ni la luz

China ya se plantea un futuro donde monta coches en "dark factories": plantas 100% robotizadas donde no se enciende ni la luz

La industria del automóvil está pasando por un momento de evolución del que todos estamos muy pendientes, sobre todo ante la transición energética de la que estamos siendo testigos. China se muestra como un país referente en esta revolución tecnológica y sus fabricantes lo están demostrando con multitud de modelos que sientan la base del presente y futuro del automóvil.

No solo hay revolución tecnológica en muchos de los vehículos que vemos por las calles, sino también en el proceso de fabricación de los mismos. Y es que antes de que acabe la década, al menos un fabricante logrará una línea de ensamblaje completamente automatizada. Esta es la conclusión a la que han llegado los analistas de Gartner y Warburg Research. China lidera la carrera para inaugurar la primera "dark factory", fábricas donde los robots trabajan sin necesidad de iluminación ni presencia humana, lo que podría cambiar para siempre cómo se fabrican los coches. Bajo estas líneas te contamos todos los detalles.

Por qué es importante. No se trata solo de robots sustituyendo a personas en tareas puntuales, sino de la eliminación total de trabajadores en las líneas de montaje. China ya cuenta con un gran abanico de "dark factories", fábricas con líneas de montaje donde apenas hay iluminación y van operadas por robots autónomos. Sin embargo, en el ensamblaje de coches todavía no se han estrenado de manera 100% automatizada, ya que en el proceso se requiere aún mano humana.

Esto marcaría un punto de inflexión donde inteligencia artificial, robótica humanoide y manufactura digital convergen para redefinir la producción automovilística.

Pedro Pacheco, vicepresidente de investigación de Gartner, cuenta a Automotive News Europe que un fabricante estadounidense o chino será "probablemente el primero en crear una línea con automatización del 100% hacia finales de esta década", y que varios actores en esos mercados "ya están implementando procesos de fabricación disruptivos y muestran más enfoque en robots humanoides".

Robótica y rediseño. Hasta ahora, la instalación del cableado y los componentes del habitáculo han sido los únicos elementos de la cadena de montaje que normalmente no están completamente automatizados, explica Pacheco. Desde el medio cuentan que los fabricantes que den el salto hacia la automatización total lo harán mediante dos vías: añadiendo robótica avanzada y rediseñando los vehículos para facilitar el ensamblaje automatizado.

Automotive News Europe menciona como ejemplo dividir el arnés de cables en secciones o integrándolo directamente en los paneles de la carrocería. Otra estrategia consiste en no ensamblar completamente la "carrocería en blanco" antes del montaje del habitáculo, facilitando así el acceso al compartimento de pasajeros.

Los protagonistas del cambio. Hyundai Motor Group planea desplegar robots humanoides de Boston Dynamics en su complejo de fabricación de Georgia a partir de 2028, según anunció en el CES de Las Vegas. La compañía surcoreana aspira a producir 30.000 robots al año y alcanzar un despliegue a escala de producción.

Mercedes-Benz, por su parte, ha lanzado un proyecto piloto con robots humanoides que podrían empezar a trabajar junto a los empleados de la línea de ensamblaje antes de 2030. Y Tesla ya está fabricando sus robots Optimus a escala limitada en California, con la visión de Elon Musk de crear un ejército de robots que ayuden en sus fábricas y asuman otras labores que impliquen repetición de procesos.

Cifras. Según Accenture, la integración de inteligencia artificial generativa, agéntica y física con robótica y tecnología de gemelos digitales ya ayuda a mejorar significativamente la eficiencia de las fábricas, con un "enorme potencial" para reducir costes y tiempo de comercialización hasta en un 50% o incluso más.

McKinsey añade que se podrían liberar 150.000 millones de dólares anuales en valor económico potencial al acelerar la I+D en grandes compañías automovilísticas. Además, 12 de los 25 principales fabricantes ya están ejecutando pilotos con robótica avanzada en sus instalaciones, según compartían desde la firma de análisis Gartner.

El debate sobre el empleo. La automatización total no tiene por qué traducirse necesariamente en pérdidas masivas de empleo, aunque desde luego es un tema que causa preocupación en sindicatos. Los trabajadores podrían reasignarse a funciones de soporte como mantenimiento, ingeniería, logística, inspección o gestión de materiales, según Pacheco. Con formación adecuada, los empleados también podrían dedicarse a supervisión de IA, mantenimiento de robótica y desarrollo de software.

La Organización Internacional del Trabajo anticipa que, aunque algunas tareas rutinarias y manuales se reducirán, muchos puestos cambiarán su contenido y surgirán nuevos empleos.

Y ahora qué. China parte como favorita para inaugurar la primera fábrica completamente robotizada, pero todo indica que Estados Unidos tampoco va a quedarse atrás. El analista de Warburg Research, Fabio Hölscher, considera que "no es poco realista" esperar ver la primera "dark factory" automotriz en China para 2030.

Imagen de portada | China Daily

En Xataka | Que los coches en Alemania circulen a 300 km/h se debe a un solo motivo: sus carreteras están preparadas para ello



via Robótica e IA - Xataka https://ift.tt/yF7EOuU

miércoles, 21 de enero de 2026

Satya Nadella sabe que la IA tiene ahora mismo "permiso social" para quemar electricidad. Y también que todo tiene un límite

Satya Nadella sabe que la IA tiene ahora mismo "permiso social" para quemar electricidad. Y también que todo tiene un límite

De vez en cuando, una serie de personas multimillonarias se reúnen para discutir temas que se consideran importantes. Esta vez ha tocado en el Foro Económico Mundial de Davos, donde el CEO de Microsoft, Satya Nadella, ha lanzado una advertencia clara sobre el uso de la inteligencia artificial y su desmesurado consumo energético. Y es que para el ejecutivo, esta tecnología solo tiene sentido si genera un impacto real y positivo en la sociedad, de lo contrario, se perdería “legitimidad social” para destinar recursos escasos, como la energía, a su desarrollo.

Energía. No es ninguna sorpresa ya el hecho de que los centros de datos de IA consumen cantidades masivas de electricidad y agua. Ya lo hacían antes de dedicarse puramente al funcionamiento de la IA, pero ahora ese gasto se ha multiplicado con creces.

Hace un tiempo, Sam Altman, CEO de OpenAI, daba unas cifras estimadas sobre el consumo de energía de ChatGPT, asegurando que utilizaba unos 0,34 vatios-hora por cada respuesta generada. A mayor escala, el consumo eléctrico combinado de Microsoft y Google superaba en 2023 al de más de 100 países, según el análisis de Michael Thomas, fundador de Cleanview.

La demanda no es solo energética, pues se está destinando un volumen de producción desmesurado de componentes críticos hacia el desarrollo de proyectos relacionados con IA, como está ocurriendo con la memoria RAM en el mundo.

La advertencia de Nadella. Durante su intervención en Davos, el CEO de Microsoft contaba que "Perderemos rápidamente incluso el permiso social para tomar algo como la energía, que es un recurso escaso, y usarlo para generar estos tokens, si estos tokens no están mejorando los resultados en salud, educación, eficiencia del sector público o competitividad del sector privado". El CEO de Microsoft aseguraba que el objetivo final debe ser “utilizar la IA para cambiar resultados tangibles en personas comunidades, países e industrias”. De lo contrario, "nada de esto tiene sentido".

Tokens como nueva moneda global. Nadella mencionó en la conversación los "tokens" como la nueva moneda de cambio entre las grandes tecnológicas. En este ámbito, los tokens son las unidades básicas de procesamiento que compran los usuarios de modelos de IA para ejecutar tareas. Según el CEO, "el crecimiento del PIB en cualquier lugar estará directamente correlacionado" con el coste de la energía utilizada en IA. De esta manera, Nadella lanza entre líneas que si un país puede producir tokens de forma más barata, tendrá ventaja competitiva.

El ejemplo médico. Entre las aplicaciones concretas que Nadella considera valiosas está el uso de IA en el sector sanitario. Mencionó el caso de médicos que pueden dedicar más tiempo a sus pacientes mientras la IA se encarga de transcribir consultas, introducir datos en sistemas de historiales médicos y asignar códigos de facturación correctos.

El riesgo de burbuja. Nadella también abordó las crecientes advertencias sobre una posible burbuja de IA. Para él, solo será una burbuja si todo se queda en asociaciones entre empresas tecnológicas y gasto en infraestructura. "Una señal reveladora de que es una burbuja sería si todo lo que hablamos son las empresas tecnológicas", señaló en su conversación con Larry Fink, CEO de BlackRock. El ejecutivo confiaba en que la IA "doblará la curva de productividad" y traerá crecimiento económico global, no solo impulsado por gastos de capital.

Adopción masiva necesaria. El CEO de Microsoft insiste también en que las empresas deben comenzar a utilizar la IA a gran escala, describiéndola como un "amplificador cognitivo" que otorga "acceso a mentes infinitas". Pide que los trabajadores desarrollen habilidades en IA, de forma similar a “cómo dominan Excel para mejorar su empleabilidad”. Microsoft planea invertir 80.000 millones de dólares en la construcción de centros de datos de IA, con el 50% de ese gasto fuera de Estados Unidos.

Imagen de portada | İsmail Enes Ayhan y World Economic Forum

En Xataka | Europa está descubriendo ahora mismo que EEUU no es el socio que pensaba. Y eso es un problema en materia IA



via Robótica e IA - Xataka https://ift.tt/sZkHFAG

Las filtraciones van dando forma al dispositivo físico de OpenAI: unos auriculares que se colocan detrás de las orejas

Las filtraciones van dando forma al dispositivo físico de OpenAI: unos auriculares que se colocan detrás de las orejas

OpenAI ha confirmado que lanzará su primer dispositivo físico en la segunda mitad de este año. Chris Lehane, responsable de asuntos globales de la empresa, lo ha anunciado en el Foro Económico Mundial de Davos como una de las "máximas prioridades" del año.

Las filtraciones apuntan a unos auriculares con nombre en clave "Sweetpea". Foxconn los fabricará en Vietnam. El objetivo de ventas para el primer año es bastante ambicioso: entre 40 y 50 millones de unidades, aproximadamente la mitad de los AirPods que Apple vende al cabo del año.

Por qué es importante. OpenAI tiene más de 800 millones de usuarios semanales de ChatGPT, pero depende de dispositivos y plataformas ajenas para llegar a ellos. Con hardware propio, empiezan a controlar toda la cadena: desarrollo, distribución y experiencia de usuario.

Es también una jugada contra Apple. Los AirPods dominan el mercado de los auriculares inalámbricos seguidos por Xiaomi, y ahora OpenAI entra en su terreno con una propuesta basada en IA conversacional y procesamiento en la nube. El audio sería solo una parte del producto, lo diferencial está en la inteligencia conversacional integrada.

El diseño. Los auriculares tendrán una forma distinta a los modelos convencionales. Según las filtraciones de Economic Daily News (UDN), se colocarán detrás de las orejas, más cerca de lo que solemos ver en audífonos que en los auriculares del estilo de los AirPods. El estuche de carga tendrá forma de piedra lisa y albergará dos cápsulas metálicas. Todo esto según las primeras filtraciones: sí está confirmado que llegará el dispositivo de OpenAI, los detalles todavía no.

Jony Ive, el antiguo jefe de diseño de Apple cuya empresa adquirió OpenAI en 2024, está supervisando el proyecto. Su presencia dispara las expectativas respecto a la estética de estos auriculares: Ive fue el padre de muchos de los diseños icónicos de Apple durante la primera década de este siglo.

La tecnología. Los auriculares usarán un chip de 2 nanómetros para procesamiento local básico (las consultas más sencillas), pero la mayor parte del trabajo de IA se hará en la nube, siguiendo el modelo habitual de OpenAI.

Habrá modelos de lenguaje adaptados que funcionarán en el dispositivo para tareas ligeras y las más complejas requerirán conexión a Internet y se ejecutarán en los servidores de OpenAI.

Entre líneas. OpenAI descartó inicialmente a Luxshare como fabricante por su ubicación en China. La decisión de producir en Vietnam busca evitar suspicacias en Estados Unidos y evitar problemas arancelarios.

Sí, pero. La historia de los dispositivos nativos de IA está llena de fracasos:

  • El Humane AI Pin acabó vendido a HP y sus dueños se quedaron con un pisapapeles.
  • El Rabbit R1 tuvo mucho bombo inicial pero pronto quedó olvidado.

Sustituir unos auriculares que la gente ya usa a diario requiere una propuesta de valor brutal, y sin integración profunda con iOS o Android, el dispositivo tendrá que demostrar que justifica cambiar de ecosistema. Nothing lanzó unos auriculares con integración de ChatGPT hace un tiempo y más allá del revuelo inicial tampoco han dado señales de ser un exitazo especial.

Las gafas inteligentes tienen un enfoque similar y poder usarlas para hacer fotos y vídeos en cualquier momento sin usar las manos les están haciendo ganar enteros.

En Xataka | ChatGPT ha sido una herramienta. Si empieza a recordar todas nuestras conversaciones, va a ser otra cosa: una relación

Imagen destacada | Dima Solomin, Hostaphoto



via Robótica e IA - Xataka https://ift.tt/onBAcS5

Ha hecho falta la crisis de Groenlandia para que Europa se dé cuenta de algo: depender de la IA de EEUU es un peligro estratégico

Ha hecho falta la crisis de Groenlandia para que Europa se dé cuenta de algo: depender de la IA de EEUU es un peligro estratégico

Cuando DeepSeek R1 fue presentado ahora hace un año, causó un auténtico terremoto en  el mundo tecnológico. Lo sorprendente no fueron sus capacidades, sino que China hubiera logrado alcanzar ese nivel a pesar de los bloqueos y las zancadillas de EEUU. DeepSeek fue la prueba de que se puede hacer IA sin Estados Unidos y ahora es Europa quien necesita replicar este éxito. 

Tensiones y dependencia. Las relaciones entre Estados Unidos y Europa pasan por su peor momento. La obsesión de Trump por hacerse con el control de Groenlandia y la respuesta de varios países europeos que han enviado sus tropas a la región han provocado un choque sin precedentes. En medio de las amenazas de invasión, el despliegue de tropas y los aranceles también está la cuestión de la guerra tecnológica, una guerra en la que Europa está en una posición de fuerte desentendencia  de EEUU.

EEUU ejecutaba y Europa regulaba. Muy por detrás. Si China va por detrás de EEUU en IA, Europa está a años luz. Mientras las empresas estadounidenses desarrollaban los modelos y la infraestructura para entrenar sus modelos de IA, en Europa se reforzaba la regulación con la AI Act. La propia Unión Europea comprendió que este enfoque les estaba dejando atrás en la carrera de la IA y hace poco simplificaron mucho las normas. Era tarde, la brecha tecnológica ya era enorme.

Dependencia.  Estados Unidos no sólo controla los modelos de lenguaje, también controla los chips para entrenarlos, los centros de datos y, sobre todo, la inversión para echar a andar todo esto. Miguel De Bruycker, responsable del Centro de Ciberseguridad de Bruselas es muy contundente: "Europa ha perdido internet (...) Si quiero que mi información esté al 100 % en la UE... sigue soñando", decía al Financial Times. En el contexto actual, esta dependencia pone a Europa en una posición muy vulnerable y se convierte en un riesgo estratégico de primer orden. EEUU podría usar su dominio como punto de presión en las negociaciones o, en el peor de los casos, restringir el acceso a sus servicios.

Una IA soberana. Cuentan en Wired que la inquietud por crear una IA europea está creciendo y ya son varios los proyectos que hay en marcha para lograrlo. El modelo más conocido es el francés Mistral, pero hay otros como Apertus en Suiza o ALIA en España.  En Alemania están desarrollando SOOFI, un proyecto que pretende lanzar un modelo de lenguaje de código abierto con 100.000 millones de parámetros pensado específicamente para reducir la dependencia europea de EEUU.

La inspiración china. EEUU parecía inalcanzable, pero DeepSeek demostró que era posible lograr resultados competitivos sin tener las mejores GPUs ni los centros de datos más grandes. El hecho de apostar por el código abierto también da una ventaja ya que permite crear una base de usuarios más grande en menos tiempo, además de que más actores pueden participar en los avances. También se habla de que Europa podría incentivar a sus empresas a usar IA propia, una estrategia similar a la que sigue China con el uso de chips nacionales. 

Imagen | Karola G, Pexels. Engin Akyurt, Unsplash

En Xataka | La alianza ASML-Mistral desvela el plan B europeo: si no podemos fabricar chips, al menos controlaremos cómo se fabrican



via Robótica e IA - Xataka https://ift.tt/aG4M1fO

martes, 20 de enero de 2026

Musk se ha cansado de depender de NVIDIA: Tesla resucita el proyecto Dojo con una filosofía radicalmente distinta

Musk se ha cansado de depender de NVIDIA: Tesla resucita el proyecto Dojo con una filosofía radicalmente distinta

Elon Musk es uno de los agentes más importantes en la era de la inteligencia artificial. Meta, Alphabet, Microsoft con OpenAI y Oracle son nombres destacados cuando hablamos de centros de datos gigantescos, pero si hay alguien que corta el bacalao, es Musk con su empresa xAI. Su Colossus Memphis con 100.000 H100 de NVIDIA para entrenar a Grok sorprendió incluso a Jensen Huang, CEO de NVIDIA, pero el objetivo de Musk no pasa por depender de otros.

NVIDIA lleva la voz cantante en materia de chips para entrenar a la IA (tanto que hasta las empresas chinas quieren comprar sus H200, aunque no les dejen hacerlo). Pero Musk, al igual que China, quiere independencia y soberanía tecnológica, y para eso invirtió en Dojo. Se trataba de un ambicioso plan para construir un superordenador personalizado destinado a entrenar las redes neuronales de la polémica conducción autónoma (el FSD).

Tras más de un lustro en desarrollo, 1.000 millones de dólares invertidos e ingenieros clave que se dieron a la fuga, Musk cerró el grifo en agosto del año pasado. El futuro estaba en los chips AI5 y AI6 que eran menos específicos, pero que podían usarse igualmente para entrenar al sistema FSD. Sin embargo, hay una nueva vuelta a esta tortilla de chips y Musk ha decidido relanzar el proyecto.

Tesla reactiva el desarrollo de Dojo 3, y lo hace quemando puentes con la anterior filosofía de este supercomputador.

Dojo 3, el corazón de la conducción autónoma de Tesla

Aunque Tesla ha dejado más dudas que otra cosa estos últimos años en lo que a conducción autónoma se refiere, esto sigue siendo uno de los pilares en la estrategia a corto plazo de la compañía. Porque no sólo tienen el FSD en sus coches, sino en los polémicos ‘robotaxis’. Supuestamente, será este 2026 cuando se empezarán a fabricar los Cybercap, coches que, a diferencia de los taxis que ya vemos en algunas ciudades, llegarán sin pedales ni volante.

Pero no sólo quiere alimentar sus coches. Musk quiere ganar dinero con el software, pero para tener ese software, necesita entrenar al sistema y que sea más seguro que ahora. Ahí entraba en juego Dojo. Este hardware dependía de una arquitectura muy especializada y compleja.

El chip D1 era el corazón de todo, pero para lograr una gran potencia de cálculo se necesitaba una red compleja de miles de chips D1 montados en cajas separadas físicamente e interconectadas mediante cables de Ethernet. Era un sistema muy especializado, pero complejo de escalar sin que los costes se dispararan.

Cuando Tesla cerró el grifo de Dojo, comentó que sus empresas seguirían invirtiendo en la creación de chips menos especializados como los AI5, AI6, AI7 y sucesivos. Chips más convencionales y más fáciles de escalar. Y, precisamente, son los avances en esta arquitectura el factor decisivo para que Musk reviva Dojo.

En lugar de requerir complejos equipos interconectados, Dojo 3 adoptará una arquitectura modular en la que se podrán instalar varios chips AI en una sola placa. No sólo se reduce la complejidad del cableado, sino que se facilita la disipación de calor y se reduce el espacio necesario para la instalación. Y, cuanto más fácil sea y menos espacio requiera, más chips se pueden montar y mayor potencia de cálculo.

No es la única ventaja. Agrupar chips en una sola placa reduce la latencia dentro de los chips y se mejora la eficiencia energética del dispositivo. Por poner un ejemplo, aunque son un dolor de cabeza para la ampliación, es la misma filosofía que siguen los portátiles con SSD o memoria RAM soldados a la placa: todo se comunica de una forma más rápida, fluida y necesitando menos energía para funcionar.

Además, al ser menos específicos que el D1, los AI de xAI cumplen funciones tanto de entrenamiento como de inferencia (los Dojo sólo servían para el entrenamiento), lo que supone un ahorro de costes para la compañía. Ahora bien, Dojo 3 no será una realidad de forma inmediata.

Estos últimos días, Musk ha compartido a través de Twitter X la hoja de ruta de sus semiconductores. El AI5 desarrollado junto a TSMC está “casi terminado” y ya se encuentran en las primeras etapas del AI6. Mientras tanto, espera que cada nueve meses haya una nueva versión, con el AI7 y sucesivos en los planes de la compañía para 2027.

Y una gran pregunta es quién fabricará estos chips. Podemos pensar inmediatamente en TSMC, compañía líder en estas lides que incluso se está expandiendo en Estados Unidos y que ya tiene clientes como la mismísima NVIDIA para sus nuevos chips de entrenamiento de la IA. Pero no: será Samsung.

Al menos, claro, para un AI6 con el que Tesla firmó un acuerdo de 16.500 millones de dólares que se vio como una victoria para la función del gigante surcoreano. 

Veremos cómo evolucionan los planes, ya que si aparece algo que consideren mejor, nos han demostrado que no les tiembla la mano a la hora de dar un volantazo, pero esta estrategia en chips menos especializados es interesante teniendo en cuenta las necesidades en conducción autónoma, entrenamiento de la IA y robótica que afronta la compañía.

Imágenes | xAI, Steve Juvetson

En Xataka | Elon Musk quiere convertir xAI en una empresa ultravaliosa y sabe cómo hacerlo: usando la caja fuerte de SpaceX



via Robótica e IA - Xataka https://ift.tt/zGyK8a5

El nuevo centro de datos de Elon Musk es potente nivel: consume más luz que la ciudad de San Francisco en plena hora punta

El nuevo centro de datos de Elon Musk es potente nivel: consume más luz que  la ciudad de San Francisco en plena hora punta

Llegar tarde a la carrera de la IA supone quedarse atrás. Tenemos el caso de Apple que acaba de hincar la rodilla y usará los modelos de Google para mejorar Siri. Sin embargo, hay otro caso contrario con xAI, una empresa que nació en 2023, cuando ChatGPT ya estaba más que crecidito, y que hoy en día se ha hecho un hueco entre las más grandes, incluso llegando a adelantarlas. 

Qué ha pasado. xAI acaba de inaugurar Colossus 2, su nuevo centro de datos situado en Memphis, Tenessee. Que una empresa de IA inaugure un centro de datos no es nada llamativo, dado el ritmo al que los están construyendo, pero en este caso hablamos del primer cluster de entrenamiento de IA de 1 gigavatio de potencia. Por ponerlo en contexto, es más electricidad que la demanda en hora punta en la ciudad de San Francisco. Elon Musk ha presumido en X y ha asegurado que para abril quieren ampliar a 1,5 gigavatios. 

Colossus 2, en cifras. Colossus 1 cuenta con 230.000 GPUs y el nuevo cluster ha subido la apuesta con  más de medio millón de GPUs y también es uno de los más caros que se han construido. Según el informe de EpochAI, la inversión ha alcanzado los 44.000 millones de dólares. Se espera que el centro Microsoft Fairwater lo supere tanto en inversión como en potencia, pero todavía está en fase de construcción. 

Infraestructura sí, gracias. Puede que xAI no tenga el mejor chatbot, pero quieren tenerlo y eso pasa por crear infraestructura más rápido que sus rivales. Con Colossus 1, la compañía completó su construcción en sólo 122 días, todo un hito. Colossus 2 tardó algo más (el proyecto empezó en marzo de 2025), pero en sólo seis meses ya tenía instalados 200MW de capacidad de refrigeración, lo que según Semianalysis es mucho más rápido que otros megaproyectos de Oracle y OpenAI.

xAI Semianalysis xAI Semianalysis Fuente: SemiAnalysis

Pisando el acelerador. Como decíamos, xAI nació en 2023, un momento en el que ya había empresas consolidadas en el sector. En  el gráfico de Semianalysis, se ve perfectamente el acelerón que han dado en capacidad de entrenamiento. A principios de 2024 estaban a la cola en capacidad y para septiembre de 2025 se habían colocado segundos por detrás de OpenAI. Al margen de las polémicas de Grok (que no han sido pocas) ha quedado claro que apostar por la infraestructura ha sido clave para que xAI se ponga al nivel de sus rivales.

Polémicas. Alimentar estos mastodontes no es tarea fácil y para ello la empresa de Musk desplegó hasta 35 turbinas de gas con una capacidad de más de 400 megavatios. El problema es que contaminan una barbaridad y Memphis ya tiene una pésima calidad del aire, tanto que se la conoce como la "capital del asma". Además, no tenía permiso para tener tantas turbinas, así que Musk tuvo una idea: Colossus está junto a la frontera con Mississippi, otro estado en el que la ley sobre emisiones es más laxa, así que movió parte de las turbinas allí.

Imagen | xAI

En Xataka | Elon Musk quiere convertir xAI en una empresa ultravaliosa y sabe cómo hacerlo: usando la caja fuerte de SpaceX



via Robótica e IA - Xataka https://ift.tt/7XHByR4