domingo, 7 de diciembre de 2025
El auge de la IA amenaza el futuro de Wikipedia
via Tecnología https://ift.tt/tV2RBy9
sábado, 6 de diciembre de 2025
La UBU inaugura su laboratorio de drones, único en el sistema universitario

La Universidad de Burgos ha dado un paso importante en su apuesta por la tecnología con la apertura de un nuevo Laboratorio de Tecnologías de Drones, concebido como un espacio de referencia para el desarrollo, prueba y validación de soluciones avanzadas en vehículos aéreos no tripulados. Se trata de una infraestructura que aspira a colocar a Burgos y a Castilla y León en una posición destacada dentro del mapa europeo de la innovación en este sector.
Este laboratorio, que nace bajo la coordinación de la Unidad de Investigación Conjunta JRU Drones, está pensado como un entorno físico, técnico y humano donde universidades, empresas y administraciones puedan colaborar de forma estable. El objetivo es claro: transformar el conocimiento científico y tecnológico en proyectos de I+D+i aplicados, nuevas empresas y empleo cualificado en torno a la tecnología de drones.
Un laboratorio único en la universidad española y orientado a la industria

El nuevo Laboratorio de Tecnologías de Drones de la UBU está ubicado en la Escuela Politécnica Superior de la Milanera y comparte pabellón con los laboratorios de Hidrógeno Verde y de Robots Terrestres (AGV/AMR). Esta configuración da lugar a un entorno claramente multidisciplinar e innovador, en el que convergen energías limpias, robótica terrestre y aeronáutica no tripulada.
La instalación se concibe como un espacio orientado al tejido productivo, con especial atención a sectores industriales de alto valor añadido. Desde este ecosistema se buscará impulsar el desarrollo de drones y tecnologías asociadas con fuerte componente europeo, facilitando que empresas ya consolidadas y futuras startups puedan probar, ajustar e industrializar sus soluciones.
Una de las claves del proyecto es su vocación de apoyo a las empresas emergentes de base tecnológica y a los proyectos que surjan de la aceleradora empresarial de la propia universidad. La intención es que estas iniciativas no se queden solo en el ámbito académico, sino que encuentren un puente directo hacia la industria burgalesa y castellano y leonesa, favoreciendo la creación de nuevos productos, servicios y modelos de negocio.
En torno al laboratorio también adquieren protagonismo otras unidades de investigación conjuntas, como JRU HALO (High Accuracy Learning Operations), destinada al desarrollo de soluciones de inteligencia artificial aplicadas a drones y en la que se integrará próximamente la empresa Fsas Technologies, filial de Fujitsu; o la Unidad Conjunta de Investigación SLIM, centrada en el aligeramiento de materiales y estructuras ligeras para aumentar la autonomía de vuelo.
La singularidad del proyecto JRU Drones reside además en su clara apuesta por el trabajo colaborativo: investigadores de la UBU y del resto de universidades de Castilla y León participarán de forma conjunta, lo que permitirá acceder a convocatorias y proyectos de mayor envergadura en coordinación con empresas de distintos sectores y con las administraciones públicas.
Inversión pública y apuesta estratégica de Castilla y León
El laboratorio nace con un respaldo financiero significativo por parte de la Junta de Castilla y León. La Consejería de Industria, Comercio y Empleo aportó en una primera fase algo más de 218.000 euros para la dotación inicial del equipamiento, cantidad a la que se suman ahora 500.000 euros adicionales destinados a reforzar las capacidades tecnológicas del centro y a impulsar el desarrollo de nuevos tipos de drones para uso industrial.
Durante el acto de inauguración, la consejera Leticia García subrayó que este laboratorio es un ejemplo del compromiso del Gobierno autonómico con la innovación, la investigación aplicada y la diversificación del tejido productivo. Según destacó, el objetivo es que Castilla y León se sitúe como referente en el ámbito de la tecnología de drones, apoyando tanto a la industria ya instalada como a la creación de nuevas compañías con un fuerte componente tecnológico.
La responsable autonómica insistió en que la tecnología de drones juega un papel clave en la transformación que están viviendo sectores estratégicos como la defensa, la industria, la agricultura, la logística o la energía. A su juicio, la puesta en marcha de este laboratorio contribuirá a reforzar la capacidad de la Comunidad para atraer proyectos de I+D+i, talento especializado y empleo de calidad en los próximos años.
El rector de la Universidad de Burgos, José Miguel García Pérez, coincidió en este enfoque y remarcó que se trata de una iniciativa que representa una colaboración real con el tejido económico de Burgos, su provincia y el conjunto de Castilla y León. En su intervención, señaló que este tipo de proyectos solo es posible gracias a la cooperación institucional y empresarial, y se mostró convencido de que el laboratorio ayudará a situar a la Comunidad en la vanguardia tecnológica.
Desde el ámbito universitario se destaca también que esta infraestructura responde a una demanda industrial creciente: se estima que el sector de los drones y las tecnologías asociadas requerirá miles de profesionales en los próximos años. Con este laboratorio, la región busca adelantarse a esa necesidad, formando perfiles cualificados que puedan incorporarse al mercado laboral con garantías.
Prototipos avanzados: de la OTAN a la lucha contra incendios
Aunque el laboratorio acaba de ser presentado públicamente, la actividad investigadora ya está en marcha y comienzan a verse los primeros resultados. Uno de los hitos más destacados es el desarrollo de un prototipo de dron que ha sido recientemente presentado en el seno de la OTAN, en un contexto vinculado a aplicaciones de seguridad y defensa. Este logro se interpreta como una muestra del potencial tecnológico que atesora el centro y de su capacidad para proyectarse a nivel internacional.
Además de este proyecto, el laboratorio trabaja en una serie de prototipos de drones de aplicación industrial y dual, es decir, con usos tanto civiles como militares. Entre ellos figuran modelos impulsados mediante pilas de hidrógeno verde, un campo en el que la Universidad de Burgos mantiene una posición estratégica gracias a la infraestructura y conocimiento ya existente en el ámbito de las energías limpias.
Otra de las líneas de investigación destacadas se centra en el desarrollo de drones capaces de detectar de forma temprana incendios forestales y apoyar labores de extinción en las primeras fases del fuego. La idea es emplear sensores avanzados y algoritmos de análisis para reducir el riesgo de que los incendios evolucionen hacia episodios de quinta y sexta generación, mucho más complejos de gestionar y con un enorme impacto medioambiental y social.
En paralelo, el laboratorio colabora con la Unidad Conjunta de Investigación SLIM en el diseño de estructuras más ligeras y resistentes, buscando alargar el tiempo de vuelo y mejorar la eficiencia de los drones. Este trabajo con materiales avanzados se complementa con el desarrollo de sistemas electrónicos y de comunicaciones de alta fiabilidad, imprescindibles para operaciones críticas en sectores como el industrial o el de emergencias.
La participación de JRU HALO y de empresas tecnológicas como Fsas Technologies refuerza la dimensión de inteligencia artificial de estos proyectos. En este entorno, se están explorando modelos de autoaprendizaje y algoritmos de navegación autónoma que permitan a los drones adaptarse de forma eficiente a distintos escenarios, optimizar rutas, gestionar consumos energéticos y tomar decisiones en tiempo real con una supervisión humana cada vez más estratégica.
Formación especializada y generación de talento
Uno de los ejes fundamentales del laboratorio es su vocación formativa. Gracias a las inversiones en equipamiento y a la colaboración con empresas, la UBU podrá ofrecer formación especializada en diseño, fabricación y mantenimiento de drones, tanto a estudiantes universitarios como a profesionales en activo que quieran reciclarse o ampliar sus competencias.
Esta formación irá mucho más allá del mero pilotaje, abarcando áreas como la programación de sistemas embarcados, la integración de sensores, la planificación de misiones, la gestión de datos obtenidos por los drones y el cumplimiento de la normativa europea en materia de uso del espacio aéreo y seguridad. Con ello, se busca dotar al mercado laboral de perfiles muy completos, capaces de intervenir en todo el ciclo de vida del producto.
La consejera de Industria destacó que iniciativas como esta se integran dentro de programas más amplios de colaboración universidad-empresa, como Experience Plus e Incofi, que cuentan con una dotación conjunta cercana a los 13 millones de euros. Estos programas permiten que jóvenes titulados realicen prácticas en empresas con fuerte componente tecnológico, favoreciendo su incorporación al mercado de trabajo.
Para la Universidad de Burgos, el laboratorio es también una palanca para impulsar nuevas startups tecnológicas vinculadas a los drones. La idea es que el conocimiento generado en las aulas y en los grupos de investigación pueda transformarse en empresas capaces de competir en mercados nacionales e internacionales, manteniendo al mismo tiempo un fuerte arraigo en el territorio.
En este contexto, el rector recordó que la UBU ya trabaja en modelos de autoaprendizaje autónomo eficiente aplicados a los drones, aprovechando la experiencia previa de la institución en inteligencia artificial y análisis de datos. Este trabajo se combinará con la experiencia industrial de las empresas colaboradoras para crear soluciones que resulten realmente útiles y competitivas.
Aplicaciones de los drones en sectores clave
Los responsables del proyecto insisten en que los drones no son una tecnología aislada, sino una herramienta con aplicaciones muy variadas que ya están transformando múltiples sectores. En la agricultura de precisión, por ejemplo, se utilizan para monitorizar el estado de los cultivos, optimizar el riego, ajustar el uso de fertilizantes y detectar plagas con mayor rapidez, lo que se traduce en un uso más eficiente de los recursos y en una mejora de la productividad.
En el ámbito de la construcción y la ingeniería, los drones permiten realizar tareas de topografía, fotogrametría y revisión de obras e infraestructuras con menor coste y mayor seguridad, reduciendo la necesidad de desplazar equipos humanos a zonas de difícil acceso. Lo mismo ocurre en energía e industria, donde se emplean para inspeccionar parques eólicos, plantas solares o líneas eléctricas, evitando paradas prolongadas y minimizando riesgos.
En la esfera de la seguridad y las emergencias, estos vehículos aéreos no tripulados se han consolidado como aliados en labores de vigilancia, búsqueda y rescate, apoyo en incendios o evaluación rápida de daños tras fenómenos meteorológicos extremos. Su capacidad para acceder a zonas complicadas y proporcionar imágenes y datos en tiempo real resulta especialmente valiosa para los equipos de intervención.
Los usos se extienden también al medio ambiente, con aplicaciones en el seguimiento de fauna, el control de ecosistemas, la vigilancia de vertidos o la evaluación de zonas protegidas, y a la logística, donde ya se experimenta con la entrega puntual de paquetes y suministros médicos en áreas remotas o con difícil comunicación. Además, los drones se han consolidado en el ámbito de los medios de comunicación y el entretenimiento, gracias a la fotografía y el vídeo aéreo, o los espectáculos de luces que sustituyen a los tradicionales fuegos artificiales.
Todo este abanico de aplicaciones se ve reforzado por el trabajo del nuevo laboratorio de la UBU, que aspira a convertirse en un punto de referencia para la investigación científica y la formación práctica en estas tecnologías. El enfoque transversal del proyecto, que combina materiales avanzados, electrónica, inteligencia artificial y energías como el hidrógeno verde, permite abordar los retos del sector desde una perspectiva amplia y coordinada.
Con la puesta en marcha de este laboratorio de tecnologías de drones, la Universidad de Burgos y la Junta de Castilla y León consolidan una apuesta a largo plazo por un sector llamado a generar empleo cualificado, nuevas empresas y soluciones innovadoras para la industria, las administraciones y la sociedad. Burgos se posiciona así como uno de los polos más activos en el ámbito de los vehículos aéreos no tripulados en España, con la vista puesta en fortalecer su presencia en el entorno europeo de la innovación.
via Actualidad Gadget https://ift.tt/3DkOH2e
viernes, 5 de diciembre de 2025
ChatGPT no es 100% fiable y OpenAI cree tener una solución: que nos confiese cuándo está mintiendo

La IA generativa tiene un problema de credibilidad. Por mucho que nos asombre su capacidad de conversar, seguimos sin poder fiarnos de ella al 100%. Las alucinaciones son el talón de Aquiles de la tecnología, un fallo estructural que ni los modelos más avanzados como GPT-5 han logrado erradicar. OpenAI lo sabe, y su plan para mitigarlo no es hacer que el modelo sea perfecto, sino que sea honesto: están entrenando a sus IAs para que confiesen cuando hacen trampas.

Premio al chivatazo. Según revela MIT Technology Review, investigadores de OpenAI están probando una nueva técnica de entrenamiento con su modelo de razonamiento GPT-5 Thinking. La idea es sencilla pero potente: recompensar al modelo no solo por dar una respuesta correcta, sin por admitir si ha hecho algo mal o ha tomado un atajo indebido. Es algo así como un sistema de recompensa: si confiesas el error, te llevas el premio y te libras del castigo.
Cómo funciona y resultados. En las pruebas, el modelo genera un segundo bloque de texto después de la respuesta principal. En él, analiza su propio comportamiento y marca si ha cumplido las instrucciones. Por ejemplo, en un test donde se le pidió resolver un problema matemático en nanosegundos (imposible para el código que podía escribir), la IA manipuló el temporizador a cero. Sin embargo, en la confesión posterior admitió el engaño. De 12 escenarios diseñados para forzar errores o mentiras, el modelo admitió su mal comportamiento en 11 de ellos.
Por qué miente la IA. Los modelos actuales que están entrenados con aprendizaje por refuerzo a partir de retroalimentación humana (RLHF), a menudo entran en conflicto. Quieren ser útiles, inofensivos y honestos a la vez. Cuando estas metas chocan —por ejemplo, si no saben una respuesta— la IA opta por inventar algo que suene bien.
Boaz Barak, uno de los investigadores de OpenAI, explica que los modelos siguen "el camino de menor resistencia": si mentir es la forma más fácil de cumplir una tarea difícil, mentirán. La confesión busca alterar esa ecuación, haciendo que la honestidad sea también un camino premiado para el modelo.
Transparencia vs caja negra. La técnica de la confesión es un intento de abrir la "caja negra" de los LLMs. Hasta ahora, dependíamos de la chain of thoght (el monólogo interno del chatbot) para entender sus pasos. A medida que se vuelven más complejos, esos razonamientos son ilegibles para nosotros. Es por eso que las confesiones ofrecen un resumen más fácil de comprender.
Sin embargo, expertos externos a la compañía advierten: no podemos confiar ciegamente en que una IA sea honesta sobre su propia deshonestidad. Si el modelo no sabe que ha alucinado, no podrá confesarlo.
Un paso necesario hacia la fiabilidad. OpenAI necesita que sus modelos sean fiables si quiere que ChatGPT se convierta en ese "sistema operativo" que gestione nuestras vidas. Ya han tenido que ajustar sus modelos para cuidar la salud mental de los usuarios y evitar respuestas peligrosas. Pero el reto de la veracidad es técnico y legal, especialmente en el viejo continente, donde inventarse los datos choca con el propio RGPD. Que la IA aprenda a decir "me lo he inventado" podría ser, irónicamente, su avance más humano hasta la fecha.
Imagen de portada | Generada por Pepu Ricca para Xataka (con edición)
En Xataka | En 2022 OpenAI puso en "código rojo" a Google. Tres años después Google tiene contra las cuerdas a OpenAI
via Robótica e IA - Xataka https://ift.tt/iSe6YOT
La IA necesita 650.000 millones al año para sostenerse. El problema es quién los pondrá sobre la mesa

Los responsables de la entidad bancaria JPMorgan han hecho números. Para que las empresas de IA logren un 10% del retorno de sus gastos de capital en 2030, necesitarán ingresar colectivamente 650.000 millones de dólares. Eso es como decir que los 1.400 millones de usuarios de un iPhone pagarán 400 dólares al año por usar esos modelos. No es imposible, pero desde luego no parece sencillo.
Muchos la usan, pocos pagan. Sobre todo, porque hoy por hoy el número de usuarios de pago es muy reducido. Según los datos de la consultora Menlo Ventures, hoy en día 1.800 millones de personas usan IA en todo el mundo, pero todos ellos solo el 3% (54 millones) son clientes de pago de alguna suscripción.
ChatGPT como ejemplo. OpenAI estima que en 2030 ese porcentaje subirá al 8,5% para su base de usuarios, que proyectan que será de 2.600 millones a la semana. Es decir: 220 millones de personas estarán suscritas a alguno de los planes de pago de ChatGPT, que probablemente en 2030 tengan precios distintos a los actuales. No parecen suficientes, al menos a priori, para poder lograr que la firma sea rentable como promete.
Anuncios. Es más que probable que los anuncios acaben siendo el otro gran recurso para obtener ingresos por parte de los modelos de IA. Aunque Sam Altman indicó en el pasado que la publicidad sería "el último recurso" para monetizar, datos recientes revelan que esos anuncios están a punto de ser parte de la experiencia de usuario en ChatGPT.
Una apuesta con mucho riesgo. La estimación de JPMorgan apunta a un futuro en el que miles de millones de personas pagarán mucho dinero al año para usar la mejor IA. Apple cuenta con 1.000 millones de suscriptores a sus servicios, Netflix con 300, Spotify con unos 280, y Google cuenta con 150 millones de suscriptores solo en Google One. Es evidente que hay muchos usuarios dispuestos a pagar por servicios que son útiles y entretenidos. La pregunta es si la IA lo serán para tanta gente. Y las empresas de IA, por supuesto, confían en que sí.
La no sorpresa de la burbuja. En The Economist indican que una potencial explosión de la burbuja de la IA ya no va a sorprender a nadie. Lo curioso es que no hay una preocupación excesivamente notable por las consecuencias. En los últimos años la economía parece haberse recuperado sorprendentemente bien de desastres como la crisis energética europea tras el inicio de la Guerra de Ucrania o como los aranceles impuestos por EEUU. Las recesiones, apuntan en este diario económico, cada vez son más raras.
Todo el mundo se ha subido al carro. La vulnerabilidad masiva existe, no obstante. Las acciones representan hoy en día el 21% del patrimonio económico de los estadounidenses —más que en la burbuja de las puntocom—, y la inversión en empresas de IA es responsable de la mitad del incremento de ese patrimonio durante el pasado año. Y ahí está el peligro.
¿Recesión a la vista? La gente ha ganado más dinero y ha ahorrado menos: si la burbuja explota de forma similar a como lo hizo con las puntocom, en The Economist creen que el patrimonio neto caerá un 8%. Eso a su vez provocaría una disminución notable del gasto por parte de los consumidores. Se estima que el PIB de EEUU se reduciría un 1,6%, suficiente para llevar al país a la recesión.
La diferencia con las puntocom. En este caso esa recesión global podría no ser tan profunda por una razón clara: la raíz estaría en los mercados de inversión, y por tanto se podría superar con algo más de margen de maniobra. Los bancos centrales podrían recortar los tipos de interés para impulsar el consumo, algo bueno por ese lado pero peligroso para economías vulnerables.
La onda expansiva del estallido. Si la burbuja acaba explotando, lo que también podría producirse es una dolorosa reconfiguración del comercio mundial. Una menor demanda estadounidense reduciría su déficit comercial, pero agravaría el exceso de capacidad de producción de China. Al no poder vender (tanto) a EEUU, inundaría otros mercados con sus productos, lo que probablemente provocaría cierto proteccionismo en Europa y Asia. El mundo está preparándose para la caída de la bolsa, pero no tanto para las consecuencias económicas y geopolíticas que seguirán.
via Robótica e IA - Xataka https://ift.tt/2Rwn5d7
jueves, 4 de diciembre de 2025
Ni Apple ni Samsung han llegado a esto: ZTE ya tiene un móvil con un agente de IA que hace cosas por ti, y está agotado

Muchos apasionados de la tecnología llevamos años imaginando un futuro en el que las palabras bastan para que el móvil haga el resto. ¿Para qué abrir una aplicación y navegar entre menús si podemos pedirlo en voz alta y ya está? “Marca todos los mensajes como leídos”, “Pide un coche desde mi ubicación”, “Abre la app de descuentos y dime qué promociones puedo usar hoy”. En ese futuro ideal, un agente debería encargarse de todo sin que toquemos la pantalla.
La realidad reciente, sin embargo, ha ido por otro camino. A pesar del auge visible de la IA, la interacción con el móvil sigue anclada en dinámicas conocidas. La versión más avanzada de Siri —la que Apple prometió con capacidades agénticas dentro de Apple Intelligence— continúa sin llegar, y la experiencia del usuario no ha cambiado de forma sustancial. En ese contexto, ZTE ha decidido dar un paso que hasta ahora ningún fabricante había materializado: integrar un agente de IA profundo a nivel de sistema. El resultado es el Nubia M153.
El móvil que convierte la IA agéntica en su núcleo. Lejos de limitarse a funciones accesorias, el Nubia M153 apuesta por una integración real de IA. Según recoge Global Times, incorpora una versión preliminar de Doubao Mobile Assistant, desarrollada por ByteDance y ZTE. Aunque el asistente sigue puliéndose, ya demuestra una capacidad llamativa para interactuar con aplicaciones y ejecutar tareas que hasta ahora requerían la intervención del usuario.
Las demostraciones se han viralizado. En X, un usuario muestra cómo basta con pedirle que contrate a alguien que haga fila por él —una actividad común en China— para que el agente ejecute el proceso. En otra prueba, una foto de un hotel basta para reservar una habitación con la mejor tarifa disponible. El sistema identifica el establecimiento, abre la app adecuada y avanza con la reserva.
En Weibo, la escena es parecida: “Pídeme tres cafés con leche y un helado Mixue”, dice una joven. El asistente se pone en marcha, pide detalles cuando los necesita (tamaño, azúcar) y añade nuevas tareas, como buscar el servicio de pizza más económico, comprar entradas de cine o convertir fotos en imágenes generadas por IA.

Un experimento que ha superado expectativas. El Nubia M153 no es un móvil de consumo masivo. Solo se vende en China y en cantidades muy limitadas. Según Sina, ZTE lanzó unas 30.000 unidades destinadas principalmente a usuarios con perfil técnico interesados en probar nuevas capacidades agénticas, a un precio de 3.499 yuanes (unos 425 euros al cambio). Pese a esta producción reducida, el dispositivo se agotó pocas horas después de ponerse a la venta el 1 de diciembre.
Debajo del capó. IT Home detalla que el teléfono monta un Qualcomm Snapdragon 8 con la etiqueta de Ultra, 16 GB de RAM, 512 GB de almacenamiento y una pantalla LTPO de 6,78 pulgadas con resolución de 1264 x 2800 píxeles. Su sistema de cámaras apuesta por tres sensores de 50 MP —principal, gran angular y teleobjetivo— y el diseño mantiene una estética sencilla, con tapa trasera blanca, módulo negro y bordes redondeados.
¿Estamos listos para la era agéntica? El lanzamiento también dejó ver los primeros frenos. Poco después de que las unidades llegaran a manos de los usuarios, varias cuentas de WeChat empezaron a mostrar avisos de actividad sospechosa. Lo mismo ocurrió en Alipay y Pinduoduo. Todo apunta a que el comportamiento autónomo del asistente activó mecanismos de protección contra automatización, diseñados para bloquear patrones de uso que no encajan con la actividad humana habitual. Es, en la práctica, el primer pulso entre los agentes de nueva generación y las plataformas tradicionales que dominan el ecosistema digital chino.
Imágenes | ZTE
via Robótica e IA - Xataka https://ift.tt/XkHEP9V
La IA puede convencerte de a quién votar en las próximas elecciones
via Tecnología https://ift.tt/hW7k65j
Jensen Huang está tan desesperado porque NVIDIA pueda vender en China que se ha inventado algo: "La ruta de la seda IA"

El CEO de NVIDIA tiene una misión: conseguir que EEUU le permita vender sus chips en China. Durante las últimas semanas, Huang está aprovechando cada vez que le ponen un micrófono delante para alertar sobre los peligros de este bloqueo. Su argumento es que si China no tiene acceso a los chips de NVIDIA, entonces fabricarán los suyos propios y crearán una nueva ruta de la seda con la IA, ampliando así su influencia por el mundo.
La situación. NVIDIA es un actor clave en el desarrollo de la IA por la superioridad de sus chips, lo que a su vez la coloca en el centro de la guerra comercial y tecnológica con China. A grandes rasgos, esta es la sucesión de eventos:
- Estados Unidos prohibió la venta de chips NVIDIA a China, pero este verano Jensen Huang consiguió lo imposible: convenció a Trump para poder vender su chip H20
- La reacción de China no fue la esperada: la desconfianza generada y el hecho de que se trataba del chip más básico, no los más potentes, provocaron que China priorizara el uso de chips nacionales.
- NVIDIA sigue sin poder vender sus GPUs más potentes, que son las H200 y B200 (aunque hay empresas que consiguen encontrar atajos).
La ruta de la IA. El CEO de NVIDIA ha estado en Washington y ha aprovechado su visita para criticar la decisión de Estados Unidos de seguir bloqueando la venta de sus chips más potentes. Huang ha asegurado que bloqueando a NVIDIA, EEUU "ha cedido, en esencia, el segundo mercado más grande de IA", tal y como cuentan en Nikkei Asia. Según su lógica, la decisión ha dejado espacio para que China pueda desarrollar su propia tecnología y hacerla llegar al mundo, ampliando su influencia más allá de sus fronteras.
El cinturón económico de la ruta de la seda. Huang ha hecho referencia a este concepto, que hace referencia a la estrategia de desarrollo de infraestructura global que impulsó el gobierno chino en 2013. Dicho de otro modo, una nueva ruta de la seda, pero con la tecnología como producto. Gracias a esta iniciativa Huawei logró expandir su 5G por el mundo y Huang teme que ahora hagan lo mismo con la IA. "Sin duda difundirán la tecnología china lo más rápido posible, porque entienden que cuanto antes lleguen, antes construirán su ecosistema", ha asegurado.
Huawei. Es la empresa que más posibilidades tiene de crear alternativas a la tecnología de NVIDIA. Jensen Huang ha dicho de ellos que "es una de las empresas tecnológicas más formidables que el mundo haya visto jamás. Competimos con ellos (...) Son ágiles. Se mueven a una velocidad increíble". Huawei ya está intentando lograr tecnologías potentes para la IA, aunque todavía no han alcanzado a NVIDIA, pero parece que Huang ve ese momento muy cerca.
Energía nuclear. La energía se ha convertido en el punto de estrangulamiento de la IA. Los centros de datos consumen una barbaridad de energía y ahí China lleva una clara ventaja; tienen una infraestructura más potente y además el gobierno está subvencionando la energía. Hace poco el CEO de NVIDIA ya llamó la atención sobre esta situación y aseguró que "China va a ganar la carrera de la IA" debido a estos subsidios. Ahora ha vuelto a sacar el tema energético y afirma que Estados Unidos debería "utilizar todas las formas de energía" que pueda y que el gobierno "debería intentar acelerar el desarrollo de la energía nuclear".
Intereses. Que hay una carrera tecnológica por el dominio de la IA es innegable, pero ese discurso catastrofista de Jensen Huang se entiende mejor si tenemos en cuenta que es el CEO de una empresa, y lo que le interesa es vender más productos. China no sólo es el competidor de EEUU, también es uno de los mercados más grandes del mundo.
Imagen | Wikipedia, Gary Lerude en Flickr
En Xataka | La inversión en centros de datos para IA es demencial, y va a ponerse peor. Mucho peor
via Robótica e IA - Xataka https://ift.tt/Zrm2kMT
ChatGPT tiene las mismas probabilidades de acertar el Gordo de la Lotería que un brujo leyendo las tripas de un cuervo

Hay quienes juegan siempre el mismo número. Otros, se recorren media España buscando la combinación que han soñado o simplemente una fecha especial. A este baile de fetichismos relacionados con el Sorteo Extraordinario de Lotería de Navidad, se suma ahora un nuevo nombre: ChatGPT.
Y la pregunta ya no solo es si la inteligencia artificial es capaz de adivinar el número ganador, algo que evidentemente no es posible. Va mucho más allá de eso: hay mucho de superstición en esto, pero también de creer a pies juntillas lo que nos dice la IA. Incluso cuando sabemos que no hay nada detrás que sustente sus resultados.
ChatGPT y la lotería. Llega la Navidad y con ella aumenta el interés en la Lotería. Y con ella, también vuelve a surgir un inesperado protagonista: ChatGPT. El 'chatbot' de OpenAI se ha convertido en un clásico más de las Navidades gracias a que, un año más, los españoles volvemos a preguntarle cuál será el número ganador. El objetivo está claro: que ChatGPT descifre el décimo que ganará el Gordo de la Lotería de Navidad 2025. Aunque aquí solo mande el azar.
No se moja. El Sorteo de Navidad se lleva a cabo mediante un sistema de dos bombos, con mecanismo manual, en el que todas las bolas son idénticas, tanto en peso como en tamaño, para que tengan exactamente la misma posibilidad de salir. Del primer bombo se extrae el premio y del segundo bombo el número al que va asociado.
El procedimiento de extracción de las bolas es totalmente aleatorio y, por tanto, también lo es el número ganador. La posibilidad de acertar es del 0,001 %.
Si alguna vez has intentado preguntar a ChatGPT cuál va a ser el Gordo del próximo 22 de diciembre, su respuesta es la que debe ser:

Si insistes, él también vuelve a enrocarse en lo mismo: “No puedo decirte con certeza cuál va a ser el número ganador de la Lotería de Navidad de España. Y de hecho nadie puede hacerlo. El sorteo está diseñado para ser totalmente aleatorio; cada número del 00000 al 99999 tiene la misma probabilidad de resultar premiado”.
No intenta vendernos la moto y deja bien claro por qué: “aunque haya quienes intenten usar teorías, supersticiones o incluso inteligencia artificial para predecir números, esos métodos no tienen fundamento real: al final, cada número sigue teniendo exactamente 1 entre 100.000 de probabilidades”.
Termina cantando. Pero, si intentamos rascar un poco más, al final termina por mostrar un número al azar. Si le das un ‘prompt’ pidiéndole un número basado en un muestrario matemático o teniendo en cuenta el histórico de combinaciones ganadoras, ChatGPT nos dice que “puedo darte un número simulado como resultado de un muestrario estadístico ficticio, pero debes tener claro que no aumenta tus probabilidades ni representa una predicción real”. Y a continuación, lo esperado, su apuesta. En este caso, el 32.704.
Eso sí, probando a hacer la misma pregunta en varias conversaciones diferentes, cada vez ofrece una respuesta distinta. Ni siquiera tiene por qué coincidir la terminación. Vuelve a ser una respuesta totalmente aleatoria.
Los nuevos buscadores. Los ‘chatbots’ como ChatGPT o Gemini están desplazando a los buscadores tradicionales a la hora de buscar una información concreta sobre un tema o incluso una explicación mucho más extensa. Hasta el propio Google lo está metiendo hasta la cocina para cambiar nuestra forma de interactuar con internet.
Si antes preguntábamos a Google a qué puede deberse un dolor de cabeza o qué nos puede pasar si nos tomamos un medicamento caducado, ahora lo más rápido, sencillo y para todos los públicos es tener una conversación con la IA como “sabelotodo” para tener la solución a todas nuestras preguntas e inquietudes. Incluso con aquellas que no tienen respuesta, como el número ganador del Gordo.
Una superstición digital. Las posibilidades infinitas de la IA nos están llevando a utilizarla de maneras bastante peculiares. Desde tener una relación sentimental con ella hasta recurrir a ella para sustituir la terapia psicológica o incluso relacionarnos menos con otros humanos.
En el caso de la lotería, al igual que existen gestos asociados a la buena suerte, como pasar el décimo por la barriga de una embarazada o por la figurita de una Virgen, pedir a ChatGPT que elija un número por nosotros es una nueva superstición digital. Otro espacio al que también le hemos abierto la puerta a la inteligencia artificial, “por si acaso” acierta.
Imagen de portada | Generada con Gemini
En Xataka | Nos hemos llenado de supersticiones digitales. Son un espanto para nuestra productividad
En Xataka | ChatGPT y la Lotería de Navidad: qué puedes hacer con inteligencia artificial y cómo pedirle una predicción
via Robótica e IA - Xataka https://ift.tt/7YNudm2
Las TPUs de Google son la primera gran señal de que el imperio de NVIDIA se tambalea

Era 2013 y Jeff Dean, uno de los directivos de Google, se dio cuenta de algo junto a su equipo: si cada usuario de Android usara su nueva opción de búsqueda por voz durante tres minutos al día, la empresa tendría que doblar el número de centros de datos para hacer frenta a la carga computacional. En aquel momento Google usaba CPUs y GPUs estándar para dicha tarea, pero entraron en pánico y se dieron cuenta de que necesitaban crear sus propios chips para esas tareas.
Así nació la primera Tensor Processing Unit (TPU) de Google, un ASIC específicamente diseñado para ejecutar las redes neuronales que potenciaban sus servicios de voz. Aquello creció y creció y en 2015, antes de que el mundo lo supiera, aquellas primeras TPUs aceleraban Google Maps, Google Photos y Google Translate. Una década después Google ha creado TPUs tan potentes que se han convertido casi sin quererlo en una sorprendente e inesperada amenaza para la todopoderosa NVIDIA. Ahí es nada.
Bendito pánico.
Las TPUs de Google cumplen su promesa
Hasta ahora cuando una empresa de IA quería entrenar sus modelos, acudía a los chips avanzados de NVIDIA. Eso ha cambiado en los últimos tiempos, y de hecho hemos visto dos señales recientes que desde luego plantean un punto de inflexión.
En esa línea de tiempo falta el último y más llamativo integrante de esta familia, Ironwood, presentado en abril de 2025. Fuente: Google.La primera el lanzamiento de Claude Opus 4.5, un modelo excepcional, especialmente en tareas de programación. Los responsables de Anthropic ya explicaron que este nuevo modelo no depende solo de NVIDIA, sino que combina la potencia de tres propuestas distintas: la de NVIDIA, pero también los Trainium de Amazon y las TPUs de Google.
Pero es que además Google ha dado la campanada por que su nuevo y flamante modelo de IA Gemini 3 ha sido exclusivamente entrenado usando las nuevas TPUs Ironwood que se presentaron en abril y que se han convertido en una verdadera sensación.
Como decíamos, Google inició ese proyecto en 2013 y lanzó su primera TPU en 2015, pero aquella necesidad interna se convirtió en una bendición, porque lo que Google no podía saber es que esas TPUs acabarían llegando en el momento justo: el lanzamiento de ChatGPT las convirtió en una fantástica oportunidad para fortalecer su infraestructura de IA, pero también para ser usadas para entrenamiento e inferencia de sus modelos de IA.
De ahí acabamos llegando a las TPUs Ironwood actuales, que en su séptima generación son excepcionales tanto en inferencia como en entrenamiento (como ha demostrado su uso para Gemini 3).
Google ha logrado exprimir aun más sus chips y ha doblado el pico de FLOPS por vatio respecto a su generación anterior. Fuente: Google.La eficiencia y potencia de estos chips da un salto muy notable respecto a sus predecesores, y por ejemplo logran doblar el rendimiento de FLOPS por vatio que se conseguía con los chips Trillium.
Si los comparamos con los TPU v5p de 2023, los chips loogran alcanzar los 4.614 TFLOPS, 10 veces más que los 459 TFLOPS de aquellos modelos de hace dos años. Es un salto extraordinario en rendimiento (y eficiencia).
La clave de 2025: Google ahora deja que otros usen sus TPUs
Pero es que en la evolución de las TPUs hay otro elemento diferencial en 2025. Este ha sido el año en el que Google ha dejado de "ser egoísta" con sus TPUs. Antes solo ella podía usarlas, pero en los últimos meses ha llegado a sendos acuerdos con OpenAI —que también busca fabricar sus propios chips— y sobre todo con Anthropic.
El rendimiento de Ironwood es ya comparable al de los GB200 e incluso al de los GB300 de NVIDIA. Fuente: SemiAnalysis.Esa segunda alianza es especialmente monumental como parte de esa estrategia de externalización. Google no solo está alquilando capacidad en su nube, sino facilitando la venta física de hardware. El acuerdo abarca un millón de TPUs: 400.000 unidades de su TPUv7 Ironwood vendidas directamente a través de Broadcom, y 600.000 alquiladas a través de Google Cloud (GCP).
En un profundo informe en SemiAnalysis se revela cómo desde una perspectiva técnica, la TPUv7 Ironwood es un competidor formidable. La brecha de rendimiento con NVIDIA se está cerrando, y la TPU de Google prácticamente igual al chip Blackwell de NVIDIA en FLOPS y ancho de banda de memoria.
Sin embargo la ventaja real reside en el coste. El Total Cost of Ownership (TCO) de un servidor Ironwood es según sus estimaciones un 44% menor para Google que para un servidor GB200 de NVIDIA, lo que permite al gigante de las búsquedas ofrecer precios muy competitivos a clienes como Anthropic.
Para ayudar aún más en esa carrera, señalan en SemiAnalysis, Google tiene otro as en la manga. Se trata del Inter-Chip Interconnect (ICI) de Google, una arquitectura de red que permite conectar hasta 9.216 chips Ironwood usando una topología de toro 3D.
Google además usa conmutadores de circuito óptico que permiten enrutar datos ópticos sin conversión eléctrica, reduciendo tanto la latencia como el consumo de energía. Eso permite reconfigurar la topología de esa red sobre la marcha para evitar (o mitigar) fallos y optimizar distintos tipos de paralelismo.
El "foso" de NVIDIA con CUDA se va estrechando
Hemos repetido frecuentemente que aunque los fabricantes de semiconductores cuentan ya con chips llamativos —que se lo digan a AMD— en realidad la verdadera fortaleza de NVIDIA está en CUDA, la plataforma software que se ha convertido en el estándar de facto para desarrolladores e investigadores de IA.

Google también quiere cambiar aquí las cosas. Durante los últimos años la empresa trató de centrarse en las librerías Python como JAX o XLA, pero en los últimos tiempos ha comenzado a priorizar el soporte nativo de PyTorch —gran competidor de TensorFlow— en sus TPUs.
Eso es crucial para facilitar que ingenieros y desarrolladores comiencen a migrar a sus TPUs en lugar de las GPUs de NVIDIA. Antes era posible usar PyTorch en las TPUs, pero era incómodo, como si uno tuviera que hablar un idioma usando un diccionario en tiempo real, mientras que para las GPUs de NVIDIA ese era el idioma "materno".
Con XLA Google utilizaba una librería intermedia a modo de traductor para poder usar PyTorch, pero eso era una pesadilla para desarrolladores. El soporte nativo permite que a los ojos del desarrollador, las TPUs de Google se comporten igual que las GPUs de NVIDIA.
El otro gran avance que está realizando Google en el apartado software va orientado al soporte de ecosistemas de inferencia abiertos. Aquí vLLM y SGLang son como un motor de alto rendimiento para un coche de carreras: estas librerías software permiten ejecutar modelos de IA de forma eficiente y barata, y corrían de serie en GPUs de NVIDIA.
La solución de Google para poder usar vLLM era de nuevo coger ese código y traducirlo en tiempo real a JAX, algo que era ineficiente. No había optimización, pero Google está atajando ese problema con un grupo de trabajo que de nuevo plantea un soporte mucho más "nativo" en las TPUs de Google. Esto de momento está en pleno desarrollo, pero está destinado también a "estrechar el foso" (moat) que NVIDIA posee y que es una baza importante para seguir dominando en este mercado.
Estamos pues ante un potencial cambio de tornas en el mundo de los fabricantes de chips de IA. La situación actual de Google lo coloca claramente como la amenaza más seria para NVIDIA hasta la fecha.
Ya no estamos ante un proveedor de infraestructura en la nube que optimiza sus propias cargas de trabajo, sino ante una empresa que vende soluciones completas y que ofrece mejor rendimiento por dólar, una escala de red superior y una prometedora hoja de ruta en el terreno del software.
NVIDIA tiene problemas, desde luego. Veremos cómo reacciona.
En Xataka | El problema de AMD no es que no haga buenas GPUs para IA. Es que ni aún así está cerca de NVIDIA
via Robótica e IA - Xataka https://ift.tt/nbPVTed







