domingo, 30 de noviembre de 2025

China ya tiene un ejército de 5,8 millones de ingenieros. Su nuevo plan pasa por acelerar los doctorados

China ya tiene un ejército de 5,8 millones de ingenieros. Su nuevo plan pasa por acelerar los doctorados

China tiene un plan para ganar la carrera tecnológica, uno que empezó hace más de 40 años cuando decidió invertir en formar millones de ingenieros. Lo hemos visto en los fichajes del equipo de superinteligencia de Meta, donde la gran mayoría son chinos. Las universidades chinas tienen un nuevo plan para acelerar aún más la obtención de doctorados, uno en el que se deja de lado la teoría para centrarse en la práctica.

Qué está pasando. Lo cuentan en South China Morning Post. China está implementando una nueva política que afecta a los estudiantes de carreras STEM que vayan a doctorarse. El título PhD o 'Doctor en Filosofía' es el rango académico más alto que puede obtenerse y hasta ahora requería del desarrollo de una tesis. Con este cambio, liderado por la Universidad Tecnológica de Harbin, los ingenieros pueden obtener el título de PhD con el desarrollo de productos y sistemas reales. 

Primer caso. El primer estudiante en conseguir el PhD basándose en resultados prácticos fue Wei Lianfeng el pasado mes de septiembre. Se graduó en 2008 y se unió al Instituto Nuclear de China, donde trabajó durante más de una década hasta que decidió volver a la universidad a hacer el doctorado, que obtuvo por sus resultados en el desarrollo de un sistema de soldadura láser el vacío. Para evaluar su trabajo, en el tribunal que asistió a la defensa oral había expertos de la industria.

Por qué es importante. La  formación de talento técnico es una prioridad para China desde hace décadas y más recientemente han redoblado esfuerzos. En 2022, el gobierno lanzó un programa para potenciar la educación STEM especialmente en áreas estratégicas como los semiconductores y la computación cuántica. Entre los puntos clave del plan estaba la cooperación estrecha entre empresas y universidades para la formación conjunta. 

Esta medida es la culminación de esta estrategia y el reconocimiento de que el conocimiento teórico no es suficiente para competir en la carrera tecnológica, especialmente con los bloqueos de EEUU a tecnologías clave. Esto permite a China resolver el cuello de botella en la graduación de ingenieros de más alto rango; no sólo es formar más ingenieros, sino formarlos lo antes posible y con soluciones que puedan ser aplicadas al mundo real, en lugar de tesis de cientos de páginas. 

Potencia STEM. El impulso a la formación de ingenieros y científicos forma parte de un plan a largo plazo del gobierno que empezó en la era post-Mao. Y el plan va viento en popa. Si nos enfocamos únicamente en los doctorados, según datos de 2023, China concedió 51.000 doctorados (PhD) en carreras STEM, mientras que EEUU estaba en 34.000. La proyección en aquel entonces era que para 2025 la cifra subiría a 77.000. 

En cuanto a cifras totales, en 2020 China ya era el país que más graduados STEM producía en todo el mundo con una diferencia abismal: 3,57 millones frente a los 2,55 millones que producía India o los 822.000 de EEUU. Actualmente China ya tiene 5,8 millones de graduados y se calcula que más del 40% de todos los graduados eligen una carrera STEM.

Imagen | Joshua Hoehne en Unsplash

En Xataka | Silicon Valley tiene un problema: sus ingenieros empiezan a mirar hacia el otro lado del Pacífico. Concretamente hacia China



via Robótica e IA - Xataka https://ift.tt/Uv1xz46

El nacimiento de un movimiento anti-lectura: cada vez más personas admiten utilizar la IA para resumir libros

El nacimiento de un movimiento anti-lectura: cada vez más personas admiten utilizar la IA para resumir libros

Marcos, estudiante de 21 años, reconoce que le cuesta “muchísimo” leer un libro entero porque no encuentra “ni el tiempo, ni la forma, ni las ganas”. Por ello se ayuda de la IA cuando necesita leer un texto o libro para clase. “¿Quién no la ha usado a día de hoy?”, se pregunta. 

Por su parte, Raquel, de 24, también se apoya en herramientas de inteligencia artificial cuando no tiene tiempo o “ganas” de leer. Admite que alguna vez ha sentido que por usar la IA se perdía una historia que le podía llegar a gustar, pero no se arrepiente de haberlo hecho —y está segura de que lo volverá a hacer—.

Ni Raquel ni Marcos creen que ayudarse de este tipo de herramientas sea algo peligroso o preocupante, lo consideran simplemente un cambio como cualquier otro en su generación. “No es tan impactante, simplemente las generaciones cambian, leemos de otra forma. Somos una generación que lee por el móvil y aparatos tecnológicos”, explica Marcos.

La búsqueda de atajos para no leer no es algo nuevo ni exclusivo de las generaciones actuales. Los estudiantes siempre han encontrado formas de esquivar los libros y salir del paso en trabajos o exámenes: copiar resúmenes ya hechos por editoriales, pedir la explicación a un compañero o recurrir a plataformas como El Rincón del Vago

Con la llegada de la IA, no leer es aún más fácil. Basta una búsqueda en redes sociales para encontrar decenas de publicaciones con recomendaciones de aplicaciones, webs o herramientas de IA que “prometen” a quienes las usen no necesitar a abrir el libro. Bajo títulos como “¿Te cuesta leer libros por falta de tiempo? ¡Te comparto 4 IA que leen por ti (y mejoran tu comprensión)!”, se dan a conocer herramientas que resumen cualquier texto o libro, y que también son capaces de crear a partir de ellos mapas mentales, presentaciones, vídeos o incluso podcast (por si no tienes tiempo ni para leer los resúmenes).

leer leer Ok boomer. (Clay Banks/Unsplash)

En estas mismas plataformas los jóvenes expresan el alivio que sienten al no necesitar leer cuando no quieren hacerlo. Una usuaria de Tiktok insinúa en sus vídeos ser más “feliz” por no tener que “leer 765 páginas de un pdf”, ya que solo lee “el resumen y las flashcard” que le crea una aplicación. 

“Los españoles cada vez leen más”

La IA se ha convertido en un accesorio más en nuestro día a día, en una herramienta de la que echamos mano para cada vez más cosas. Hemos comprobado su potencial resolviendo operaciones o programando, pero también redactando y resumiendo textos. De ahí surge una pregunta: si la inteligencia artificial puede escribir, resumir y hasta contarnos historias, ¿Puede la IA sustituir a la lectura? Por ahora, en España, no. 

Las estadísticas de lectura en nuestro país reflejan un interés por la lectura creciente en casi todos los grupos de edad: el porcentaje de españoles que lee en su tiempo libre ha superado este 2025 por primera vez el 65%, rompiendo el mito de que los jóvenes ya no leen —el 75,3% de la población entre 14 y 24 años lee en su tiempo libre—.

Esta buena salud lectora convive con una realidad nueva: los jóvenes incorporan la inteligencia artificial a su día a día con una naturalidad asombrosa. 

Según el informe Así somos. El estado de la adolescencia en España, de Plan International de 2025, el 62% de las chicas y el 59% de los chicos de entre 12 y 21 años encuestados usa la IA para resolver dudas relacionadas con sus estudios. De hecho, un 68% de ellas y un 61% de ellos temen “desarrollar cierta dependencia a esta tecnología”. La lectura, por tanto, no desaparece, pero empieza a compartir espacio —y tiempo— con una herramienta que puede sustituir, complementar o transformar la forma en que los jóvenes se relacionan con ella. 

Las habilidades de la IA para redactar textos son ya de sobra conocidas por los docentes. Lo que, según Patricia Sánchez, profesora de Lengua y Literatura en un instituto de Leganés, empieza a inquietarles ahora es otro efecto, menos visible: cómo puede afectar al desarrollo de los estudiantes delegar en la IA tareas como la lectura, la comprensión o la interpretación de un texto. “A ciertas edades hay tareas que no debemos dejar en manos de la tecnología”, asegura la profesora.

chat chat No le preguntes de dónde saca el resumen del libro, eso sí. (Emiliano Vittoriosi/Unsplash)

Docentes como Sánchez advierten que recurrir a la IA para leer, resumir o redactar en lugar de hacerlo uno mismo —especialmente en edades tempranas— puede frenar el desarrollo de habilidades fundamentales como la comprensión lectora, la escritura o la capacidad de análisis. Sánchez ve problemático que “no adquieran ciertas competencias”, que “no hagan esfuerzos, que no cometan errores y por ello no sean capaces de solventarlos”. 

Organizaciones como la Unesco o el Foro Económico Mundial señalan cómo delegar actividades —como la lectura— a la tecnología puede afectar a la memoria y a la capacidad de aprendizaje. 

Según un análisis de investigadores de la Universidad de Chile, el “uso pasivo” de herramientas de IA como ChatGPT puede “socavar las bases mismas de la alfabetización”. Los autores reconocen que la IA tiene un gran potencial en el ámbito educativo, pero advierten de la necesidad de trabajar y “practicar intensamente con textos escritos” para poder desarrollar “una buena comprensión lectora y habilidades de escritura”. Coinciden con Sánchez en que con la lectura no solo adquirimos información, sino que es clave para fortalecer el vocabulario, la comprensión, el razonamiento y el pensamiento crítico. 

Según  los investigadores, “leer actúa como un entrenamiento para el cerebro”.

Los CEOs que ya no leen

A Sánchez no le preocupa que sus alumnos no hayan leído Luces de Bohemia; le inquieta que en un futuro "no entiendan" una noticia cuando lean un periódico, o les resulte más complicado “comprender el mundo en general, tener la paciencia para parar, pensar, asimilar, ser capaces de crear una opinión…”. Es por ello por lo que un buen uso de la tecnología debe tener una “base previa”. 

Una vez adquiridas las competencias y habilidades básicas que rodean a la lectura, para Sánchez la IA puede ser una aliada. 

Por su parte, Nerea Blanco, filósofa y escritora española creadora de la plataforma Filosofers, cree que para la lectura la IA “no es una herramienta que vaya a ayudar”. Advierte del peligro de crear dependencia y de necesitar ayuda de la inteligencia artificial para “explicarnos todo”. Echar mano de ella cuando no comprendemos algo concreto puede ser muy útil, pero para Blanco esto se puede volver en nuestra contra, porque “podemos dejar de poner a nuestro cerebro a funcionar”.

Parece que hay consenso en que el uso de la IA para evitar leer está más extendido en el ámbito académico: “¿Quién quiere leer Beowulf?”, comenta un usuario de TikTok en un vídeo que recomienda apps de IA que resumen libros. Sin embargo, este discurso también cala entre algunos empresarios o “gurús” de internet. El ritmo acelerado que marca la sociedad actual es capaz de hacer atractivos estos “atajos” a la lectura. 

leer leer La tentación de pedirle al de la izquierda que resuma lo de la derecha. (Callum Shaw/Unsplash)

Nikesh Arora, CEO de Palo Alto Networks —una multinacional estadounidense de ciberseguridad—, reconocía sin tapujos en una entrevista que era “más de resúmenes que de libros”. El alto cargo de la empresa —que está impulsada por IA— cuestionaba la “utilidad” de leer un libro de 500 páginas para finalmente “destilar únicamente 10”. 

Su postura encarna una tendencia que parece estar cada vez más extendida entre líderes tecnológicos que ven en la IA un sustituto perfecto para cada vez más tareas. De hecho, el CEO de OpenAI, Sam Altman, reconoce usar la IA para todo tipo de actividades, incluido “resumir documentos”. Por su parte, Mustafa Suleyman, CEO de Microsoft AI, está seguro de que “en el mundo de antes, leer te ponía por delante de los demás. Muy pronto tendremos que asumir que un usuario experto acompañado de una inteligencia artificial podrá actuar como si supiera más”.

La irrupción de la IA afecta hasta a la percepción de la formación tradicional y las titulaciones universitarias. Ryan Roslansky, CEO de LinkedIn, tiene claro que los empleos más atractivos del futuro no estarán reservados únicamente a graduados universitarios. Este responsable valora más "la disposición de los profesionales a actualizarse constantemente y adoptar nuevas herramientas tecnológicas". 

Esta perspectiva también la secunda Benjamin Mann, uno de los seis ingenieros que abandonaron OpenAI para crear su propio modelo de IA: Anthropic. Mann comenta que, hace una o dos décadas, quizá habría intentado preparar a su hija para ser la mejor en la escuela y apuntarla a todas las actividades extracurriculares, pero que ahora sentía que nada de eso tenía verdadera importancia, y lo que busca es que sea “feliz, considerada, curiosa y amable”; poniendo en valor nuevas habilidades en detrimento de los títulos y la formación tradicional. 

Hacia una buena integración

La capacidad de la IA para sintetizar ideas, proporcionar resúmenes o responder a preguntas no sustituye en absoluto la experiencia de la lectura para Javier Bardón, profesor de psicología social en la Universidad Rey Juan Carlos. El autor de ‘Ana contra Gürtel’ cree que es imposible que la IA reemplace lo que nos puede hacer sentir un libro.

“La literatura implica recrear mentalmente una historia y vivir vicariamente los conflictos de los personajes, algo que se pierde completamente con un resumen de IA”. Al usar la IA para resumir o leer, se pierde la "vivencia" de "seguir de la mano al personaje" y la capacidad de "experimentar por ti mismo los conflictos de otros". El autor lo compara con “ver fotografías de París” en lugar de haber estado. Aunque se tiene la información, no se ha vivido la experiencia. 

Photo 1532543307581 8b01a7ff954f Photo 1532543307581 8b01a7ff954f Para qué tanto, pensará Sam Altman. (freestocks/Unsplash)

Patricia Sánchez está de acuerdo en que esa parte de “emoción” que tiene la literatura —y que es la más “humana”— “es realmente la que se está perdiendo". La profesora cree que, si toda la lectura está mediada por la IA, no es posible el “disfrute de la literatura”, el descubrir lo que nos gusta y lo que no. 

El miedo y la preocupación de un uso excesivo de la IA conviven con la visión del potencial que pueden tener estas herramientas. Lejos de “remar contra corriente”, como señala Bardón, la clave está en aprender a integrarla en el proceso educativo: usarla para acercar textos complejos, despertar la curiosidad por autores clásicos o reforzar la comprensión de lo que leemos.

Tanto Bardón como la profesora Sánchez coinciden en que el valor de la IA depende de tener unas bases sólidas. Puede ser muy útil para guiar la redacción o estructurar ideas, siempre que los estudiantes sean quienes reelaboren y aporten su propio criterio. La filósofa Blanco añade que también puede actuar como un “compañero de lectura”, una ayuda que nos permita entender mejor aquello que no comprendemos a primera vista.

En Xataka | OpenAI acaba de lanzar ChatGPT para profesores. Es una buena y una mala noticia para el futuro de la educación

En Xataka | El "superpoder" de leer mucho en poco tiempo es menos superpoder cuando escuchas cómo lo consigue Bill Gates

Imagen | Brad Rucker













via Robótica e IA - Xataka https://ift.tt/HMQx9Ku

Los centros de datos consumen muchísima agua, pero seguramente es menos de la que creíamos. La culpa la tiene un libro

Los centros de datos consumen muchísima agua, pero seguramente es menos de la que creíamos. La culpa la tiene un libro

Podemos criticar el boom de la IA por muchos motivos, pero hay uno que caló profundamente en la sociedad: el impacto ambiental, más concretamente el consumo de agua de cada interacción con la IA, necesaria para poder refrigerar los servidores. El problema es real, pero todo apunta a que se ha magnificado y el origen estaría en un error de cálculo en un popular libro. 

El libro. Es  'Empire of AI' escrito por Karen Hao y del que ya hablamos en Xataka. Tras entrevistar a cientos de exempleados y personas cercanas a la compañía, la autora construye un relato detallado y muy crítico de OpenAI, más concretamente de su CEO Sam Altman. Entre las críticas a ese 'imperio de la IA', Hao menciona el desmesurado consumo de agua de la IA, llegando a afirmar que un centro de datos llegaría a consumir 1.000 veces más agua que una ciudad de 88.000 habitantes.

La crítica. Lo cuenta Andy Masley en su newsletter The Weird Turn Pro. Según sus cálculos, en realidad un 22% de lo que consume la ciudad o un 3% de todo el sistema municipal. Además, Masley afirma que el libro confunde extracción de agua (retirada temporal que se devuelve a la red) con consumo real.

El error de cálculo. La propia autora ha respondido al artículo de Masley citando el correo que envió al Servicio Municipal de Agua Potable y Alcantarillado de Chile (SMAPA), a quienes solicitó información sobre el consumo total de agua de Cerrillos y Maipu, las localidades que usó para hacer la comparación de consumo. 

El problema está en que Hao solicitó la cantidad en litros, pero le respondieron sin especificar las unidades y todo indica que en realidad eran metros cúbicos, de ahí ese desfase tan grande. La autora ha vuelto a consultar con la SMAPA para que le aclaren este dato. Parece que, efectivamente, sí hay error.

Estimaciones. Cuánta agua consume la IA ha sido una pregunta recurrente en los últimos años. En septiembre de 2024, un estudio publicado por Washington Post calculaba que, para generar un texto de 100 palabras con ChatGPT, eran necesarios 519 mililitros de agua. El cálculo se hizo teniendo en cuenta el consumo anual total de centros de datos y el tipo de enfriamiento usado. Es una auténtica barbaridad. 

Qué dicen las empresas. Las empresas de IA no son demasiado transparentes respecto al consumo de agua y energía de sus centros de datos. Las grandes tecnológicas dan el dato de consumo total anual en sus informes de sostenibilidad. Sabemos que gran parte del consumo se va en centros de datos, pero no es posible saber el consumo real de cada búsqueda. 

Google ha sido la única que ha publicado datos concretos de consumo de energía y agua de su IA. Según la compañía, el consumo de agua por cada consulta a Gemini era de 0,26 mililitros, o lo que es lo mismo, unas cinco gotas de agua. No podemos extrapolar este dato a todos los centros de datos ni todas las empresas, pero efectivamente parece que las estimaciones previas son bastante exageradas.

Controversia por el agua. Todo esto no significa que no haya un problema con el agua y la IA. De hecho, el centro de datos de Cerrillos donde está el supuesto error de cálculo nunca llegó a construirse porque la justicia chilena lo paralizó debido al impacto climático que iba a tener, especialmente en el contexto de sequía en el que se encontraba la región. Los centros de datos necesitan muchísima agua, tanta que están surgiendo iniciativas para refrigerarlos sumergiéndolos en el océano.

El otro problema. El agua es sólo uno de los problemas a los que se enfrentan los centros de datos, la demanda energética plantea un reto aún mayor. En 2024, los centros de datos ya suponían un 4% del consumo eléctrico total de Estados Unidos y en los alrededores de algunas de estas bestias la factura de la luz ha subido un 267% en los últimos años. Las big tech ya lo están avisando: no hay energía para tantos chips y se están planteando desde crear centrales nucleares hasta llevarse sus centros de datos al espacio.

Imagen | Google

En Xataka | Lo que está sucediendo en EEUU es un aviso para España: los centros de datos disparando la factura de la luz en las casas



via Robótica e IA - Xataka https://ift.tt/fnI5jDl

Las imágenes han dejado de significar que algo era real. Bienvenidos a la era de la duda visual permanente

Las imágenes han dejado de significar que algo era real. Bienvenidos a la era de la duda visual permanente

Hubo un momento, seguramente hace menos de un año, en el que viste una imagen en Internet y simplemente la creíste. No te paraste a analizarla, ni a buscar su contexto. No pensaste "¿será real?", simplemente la procesaste como información, y p'alante.

Ese momento no va a volver.

Ya no hablamos de deepfakes muy currados que engañan a algún periodista (de aquello ya advertimos hace siete añazos). Hablamos de algo muchísimo más banal y por eso mismo más devastador:

  • Tu cuñado puede crear en tres segundos una foto en la que sales tú, completamente borracho, en una despedida de soltero a la que nunca fuiste.
  • Tu ex puede fabricar una foto tuya en una actitud que jamás tuviste.
  • Un alumno puede generar una imagen comprometedora de su profesor en el tiempo que dura la transición entre clase y clase.

La pregunta ya no es si la tecnología es lo suficientemente buena. Es perfecta, lo estamos viendo con varias herramientas y con el recién lanzado Nano Banana Pro a la cabeza. De hecho, es demasiado perfecta. Y quizás por primera vez, la perfección técnica ha llegado antes que la social.

¿Quién es capaz de ver la foto de la derecha y asumir que en realidad no existen ni la mujer ni el camarero ni el bar?

Vamos a tener que aprender a hacer algo distinto a lo que llevamos haciendo toda nuestra vida: aprender a no poder confiar en nuestros ojos.

Toda nuestra epistemología –desde el testimonio judicial hasta los álbumes de fotos familiares– descansa sobre un principio simple: ver es una forma de saber. No perfecta, pero suficiente:

  • Durante 300.000 años de evolución humana, si veías un tigre, había un tigre.
  • Durante 199 años de fotografía, si veías una imagen de un tigre, alguien había estado cerca de un tigre.

Esa cadena acaba de romperse. Y no se rompe poco a poco, con advertencias y período de adaptación. Se rompe de golpe, un martes cualquiera, cuando descubres que la foto viral que compartiste era falsa y te la comiste sin dudar. O peor: cuando descubres que todos han asumido que la foto real que compartiste en realidad es falsa.

Lo que estamos perdiendo no es la capacidad de distinguir lo real de lo falso. Eso hace mucho que se complicó. Lo que estamos perdiendo es algo más primario: la posibilidad de operar bajo el supuesto de que lo visual es, por defecto, un punto de partida razonable.

Ahí está la trampa. Durante una década nos obsesionamos con las fake news. Nos preocupaban los bots rusos, las granjas de trolls o la desinformación organizada. Todo eso era industrial. Costaba mucho dinero, dejaba huellas y requería coordinación.

Lo que trae Nano Banana Pro es distinto. Es desinformación artesanal, de andar por casa. No necesitas un gobierno autoritario ni un presupuesto detrás. Solo necesitas un smartphone, el que sea.

La desinformación industrial podíamos combatirla con fact-checkers y alfabetización en los medios. ¿Cómo combates que cada persona sea ahora una imprenta de realidades alternativas? ¿Cómo verificas 10.000 millones de imágenes diarias?

No puedes.

La consecuencia menos obvia es la más devastadora: vamos a suplicar que nos pongan un candado al lado de nuestras fotos reales. Si cualquiera puede fabricar cualquier imagen, solo importarán las que tengan certificación verificable. Metadatos cifrados, cadena de custodia digital, sellos de autenticidad institucional. Lo que sea, pero algo. La foto sin sello será sospechosa por defecto.

¿Quién va a ofrecer esa certificación? Google, Meta, Apple, quizás los gobiernos. Las únicas instituciones con recursos para verificar a esa escala. Vamos a pagarles por algo que durante dos siglos ha sido gratis: la presunción de que lo fotografiado existió. Porque la alternativa –un mundo donde nadie puede estar seguro de nada– es sencillamente invivible.

Pero lo peor no es perder la confianza en las imágenes. Es perder la confianza en la memoria. Tu cerebro no almacena experiencias, almacena reconstrucciones. Y cada vez que recuerdas algo, lo reconstruyes con ayuda de fragmentos: olores, emociones, imágenes. Las fotografías han sido durante décadas muletas de la memoria. Consolidaban el resto del recuerdo.

Y luego está el agotamiento. Cada imagen que ves ahora requiere una pequeña evaluación. ¿Es real? ¿La verifico antes de compartirla? ¿Quedaré como un tolili si la envío al grupo? Otra pestaña más para nuestra CPU interna.

Nuestros padres nunca tuvieron que hacer este trabajo cognitivo. Nosotros vamos a pasarnos el resto de nuestras vidas en modo sospecha. No por cínicos, sino por racionales.

Esa sospecha permanente tiene un coste. En atención, en energía mental. Quizás en capacidad de asombro. En la posibilidad de ver algo extraordinario y simplemente creerlo. Ya nunca más. Difícilmente hay solución para esto:

  • No puedes entrenar una IA que detecte imágenes generadas por IA de forma perfecta: es una carrera armamentística infinita. Cada detector mejora los generadores. Cada generador mejora los detectores. Cada muro más alto es un incentivo para alargar la pértiga.
  • No puedes educar a la gente para que "piense críticamente" sobre cada una de las miles de imágenes que procesa al día. No tenemos ancho de banda.
  • Y no puedes legislar el problema porque la tecnología es más rápida que la ley y más accesible que cualquier prohibición.

Lo único que queda es adaptación. Cultural y psicológica.

Nuestros abuelos confiaban en lo que veían. Nosotros confiábamos en lo fotografiado. Nuestros hijos no van a confiar en nada que no venga certificado. Quizás el blockchain también se inventó para esto.

Y cuando todo necesita verificación, nada puede ser espontáneo. Cuando toda imagen es sospechosa, ninguna es memorable. Cuando la realidad requiere autenticación constante, dejamos de habitarla con naturalidad.

La fotografía murió el día que se volvió indistinguible de la imaginación. Seguiremos haciendo fotos y seguiremos viéndolas. Pero ya no harán lo que hicieron durante dos siglos: decirnos qué fue real.

Bienvenidos a la era de la duda visual permanente.

En Xataka | Hay una generación trabajando gratis como documentalista de su propia vida: no son influencers pero actúan como si lo fueran

Imagen destacada | immasidx



via Robótica e IA - Xataka https://ift.tt/zfYuNsB

viernes, 28 de noviembre de 2025

Una startup china afirma haber creado su propia TPU para competir con NVIDIA. El único problema es que va tres años retrasada

Una startup china afirma haber creado su propia TPU para competir con NVIDIA. El único problema es que va tres años retrasada

Una startup china llamada Zhonghao Xinying (conocida internacionalmente como CL Tech) ha saltado a la palestra con una promesa audaz. La compañía asegura haber desarrollado un chip de IA que no solo esquiva las restricciones de propiedad intelectual occidentales, sino que supera en rendimiento al chip A100 de NVIDIA. Que está muy bien, pero también un poco mal.

Llega Chana. El chip en cuestión ha sido bautizado como "Chana", y según SCMP estamos ante una GPTPU (General Purpose Tensor Processing Unit). A diferencia de las GPUs de NVIDIA, orientadas a acelerar cargas de trabajo de IA, esto es un ASIC, es decir, un circuito integrado de aplicación específica diseñado desde cero para cargas de trabajo de redes neuronales.

Promete. Según Zhonghao Xinying Chana ofrece hasta 1,5 veces el rendimiento de las NVIDIA A100 basadas en la arquitectura Ampere. No solo eso: logra ese rendimiento siendo un consumo un 30% inferior. La startup destaca que el coste computacional por unidad sería por tanto menos de la mitad del que ofrecen los chips A100.

Un poco de historia de la empresa. Detrás de Zhonghao Xinying se encuentra Yanggong Yifan, un ingeniero formado en Stanford y la Universidad de Michigan. Trabajó en el desarrollo de varias generaciones de TPUs de Google y también en el desarrollo de chips de Oracle, y en 2018 fundó esta startup en Hangzhou junto a Hanxun Zheng, ingeniero que durante varios años trabajó en Samsung. A ellos se sumaron otros ingenieros procedentes de Microsoft, Oracle, NVIDIA, Amazon y Facebook, indican en Baidu. Estamos pues ante varios de esos casos de "talento boomerang" con ingenieros chinos que se forjan en EEUU y luego vuelven a China para crear soluciones para su propia industria.

Soluciones que no dependen de Occidente. Yanggong afirma que su chip cuenta con "núcleos IP totalmente autocontrolados, un conjunto de instrucciones personalizado y una plataforma informática totalmente interna. Nuestros chips no dependen de licencias de tecnología extranjera, lo que garantiza la seguridad y la sostenibilidad a largo plazo desde el punto de vista arquitectónico".

Pero. Aunque el logro es llamativo, es necesario ponerlo en perspectiva. La NVIDIA A100 es una GPU de IA de 2020, y aun con las mejoras que promete esta startup china, sus prestaciones están por ejemplo lejos de los chips H100 con arquitectura Hopper que aparecieron en 2022. No digamos ya de los últimos chips Blackwell Ultra, que son en la actualidad el máximo exponente de NVIDIA en materia de chips de IA. No hay además detalles sobre quién fabrica el chip, y uno de los candidatos sería SMIC, que cuenta con tecnología de 7 nm.

Están muy lejos, y tienen otro problemón. El logro técnico de estos ingenieros es desde luego destacable, pero todo apunta a que siguen estando lejos de lo que están logrando NVIDIA y también competidores como AMD o Google con sus recientes TPU Ironwood. Hay otro elemento que juega en su contra: los fabricantes chinos siguen sin tener acceso directo a la fotolitografía más avanzada del mercado, y aunque también hay avances de fabricantes chinos en ese sentido, competir desde luego es complicado sin acceso a las tecnologías más avanzadas.

Presión. En 2024 la empresa logró unos ingresos de 598 millones de yuan (73 millones de euros) con un beneficio neto de 85,9 millones de yuan, pero en la primera mitad del año los ingresos fueron de tan solo 102 millones de yuanes y tuvieron pérdidas de 144 millones de yuan. La firma ha llegado a un acuerdo con sus inversores por el que tendrá que salir a bolsa a finales de 2026, o de lo contrario se verá forzada a una recompra de acciones. La presión financiera es por tanto notable para la empresa, que deberá demostrar en los próximos meses que su hoja de ruta es realmente competitiva. 

En Xataka | Se suponía que China ya no podía hacerse con los chips más avanzados de NVIDIA. Hasta que encontró un atajo en Indonesia




via Robótica e IA - Xataka https://ift.tt/hmdfWPV

Las empresas IA quieren hacernos creer que la AGI está al caer: la realidad es que estamos ante un callejón sin salida

Las empresas IA quieren hacernos creer que la AGI está al caer: la realidad es que estamos ante un callejón sin salida

Hay una carrera entre las principales empresas de IA para construir una AGI o inteligencia artificial general, esa que supera a los humanos en todas las áreas del conocimiento. Sam Altman lleva hypeando sobre la AGI desde hace mucho tiempo, y no es el único.  Mark Zuckerberg se ha gastado una millonada en un equipo para crearla,  Dario Amodei cree que llegará muy pronto y Elon Musk dice que Grok 5 podría lograr la AGI. ¿Y si es todo una gran mentira?

Lenguaje e inteligencia.  No es lo mismo. OpenAI, Meta, Anthropic... todas estas empresas tienen algo en común: su camino hacia la AGI son LLM o grandes modelos de lenguaje. Cuentan en The Verge que el matiz, y no es un matiz cualquiera, es que el lenguaje y la inteligencia son dos cosas muy distintas. Décadas de investigación han demostrado que el lenguaje es una herramienta de comunicación, no de pensamiento. Dicho de otro modo, dominar el lenguaje no es equivalente a más inteligencia, del mismo modo que no dominarlo no significa dejar de ser inteligentes.

Modelos de lenguaje. ChatGPT, Claude, Gemini... son herramientas compuestas por cientos e incluso miles de millones de parámetros, entrenadas sobre enormes corpus textuales. Su complejidad técnica es innegable, pero no dejan de ser sistemas que predicen la siguiente palabra a partir de correlaciones estadísticas. Su núcleo es el lenguaje, no las ideas o el pensamiento abstracto en sentido humano. 

Lograr la AGI. Llegar a la AGI con un modelo de lenguaje es un callejón sin salida. Lo decía hace poco Yann LeCun, considerado uno de los padrinos de la IA moderna y, hasta hace poco, jefe de IA en Meta. Según LeCun, el camino para lograr la AGI no son los LLM, sino los LWM o modelos de mundo. Estos modelos aprenden a partir del entorno y pueden imaginar escenarios, como hacemos los humanos. 

El hype. Si los modelos de lenguaje no son el camino, ¿por qué las empresas de IA no dejan de decir que están a punto de conseguir la AGI? Porque lo necesitan. Su premisa es que con más potencia de cómputo (más chips y más centros de datos), sus IAs se harán más inteligentes, por lo que alimentar el hype es su forma de justificar que se sigan invirtiendo cantidades absurdas para escalar la IA. 

Desaceleración. Al principio los saltos evolutivos en los chatbots IA eran palpables; las primeras versiones de ChatGPT nos volaron la cabeza. La realidad ahora mismo es que la IA generativa ha entrado en una etapa de continuismo o desaceleración. Hay mejoras, pero ya no son tan notables ni revolucionarias. La solución es generar expectación: con los agentes IA y, por supuesto, con la AGI. 

¿Significa esto que nunca se llegará a la AGI? No necesariamente, pero hará falta algo más que modelos de lenguaje y sobre todo tiempo. Según Andrej Karpathy, cofundador de OpenAI, la AGI tardará por lo menos una década más.

Imagen | Meo, Pexels (editada)

En Xataka | Alguien ha echado un vistazo a la burbuja de las puntocom y ha comparado sus datos con los de la IA. Y no es optimista



via Robótica e IA - Xataka https://ift.tt/YaTOApx

DeepMind es la rara avis de la industria IA: mientras otros nos venden fuegos artificiales, ella está reescribiendo la ciencia

DeepMind es la rara avis de la industria IA: mientras otros nos venden fuegos artificiales, ella está reescribiendo la ciencia

OpenAI no busca crear una AGI. Busca que no dejemos de hablar de ella. Es el máximo exponente de la "productización" de la IA. Ella y otras rivales se centran en ofrecer opciones llamativas que mejoran nuestra productividad pero que no cambian el mundo. Que es justamente lo que están intentando hacer algunas empresas, entre las cuales destaca una especialmetne: DeepMind.

La IA que ayudaba a la ciencia. Durante los últimos dos años la industria tecnológica ha parecido un concurso de fuegos artificiales. Cada pocos días o semanas un nuevo modelo promete escribir mejores correos, generar vídeos más realistas o mantener conversaciones más y más humanas. El ciclo de la novedad es a menudo efímero —las imágenes estilo Studio Ghibli fueron un buen ejemplo—, pero lejos de esos "efectos wow" hay una IA silenciosa que no busca impresionar en redes sociales, sino ayudar a resolver problemas científicos que llevan décadas bloqueando nuevos avances.

The Thinking Game. El reciente documental sobre DeepMind titulado 'The Thinking Game' y disponible de forma gratuita en YouTube precisamente nos muestra esa otra cara de la IA. Aunque el tono no está exento de esa épica que ya experimentamos con el documental 'AlphaGo', lo que nos cuenta sirve de recordatorio de esta dicotomía que vive la industria. Mientras la burbuja de la IA se infla buscando rentabilidad inmediata, DeepMind parece haber mantenido su espíritu original. Uno que quiere usar la IA no para imitar al ser humano, sino para —en este caso— descifrar el código de la biología. 

De Pong a AlphaFold. En ese documental de 84 minutos se narra la historia de DeepMind a través de la trayectoria de su cofundador, Demis Hassabis. Ese recorrido es fascinante y nos muestra cómo la startup comenzó a desarrollar modelos de IA que aprendían solos a jugar a videojuegos retro como Pong o Breakout (Arkanoid) para, poco a poco, evolucionar hacia retos mucho más ambiciosos. En concreto, lograr predecir la estructura de las proteínas mediante aprendizaje profundo. 

La IA sí puede cambiar la ciencia. El reto al que se enfrentaron los ingenieros de DeepMind parecía imposible. Predecir la estructura de esas proteínas a menudo llevaba a error y requería una enorme capacidad de cómputo, pero con AlphaFold 1 (2018) y sobre todo con AlphaFold 2 (2020) DeepMind logró resultados espectaculares. En 2021 la empresa publicó tanto el código fuente del proyecto como una base de datos con la estructura de más de 200 millones de proteínas disponible para cualquier laboratorio o investigador. Fue un absoluto regalazo para el mundo científico. Luego llegaría AlphaFold 3, más orientado al desarrollo de fármacos y con un punto algo más comercial.

Una IA ganadora del Premio Nobel. Dos de los ganadores del Premio Nobel de química de 2024 trabajan en DeepMind. Se trata de Demis Hassabis y de John M. Jumper, que recibieron el premio por sus contribuciones a la predicción de la estructura de las proteínas. Ese trabajo con AlphaFold demostró que efectivamente la IA podía contribuir al avance científico, y puso más que nunca a DeepMind en el trono de dicho segmento.

Un enfoque radicalmente distinto. Es importante hacer pedagogía aquí. Mientras que los LLM (grandes modelos de lenguaje como GPT-5) funcionan prediciendo la siguiente palabra más probable en una frase, la "IA para la ciencia" predice comportamientos físicos y químicos: mientras que los LLM pueden alucinar y mentir como si nada, la IA científica se somete a las leyes de la física. 

De la observación a la simulación. Tradicionalmente la ciencia avanzaba mediante la observación, la hipótesis y el experimento, lo que solía ser lento y costoso. Con la IA se introduce una fase intermedia, la simulación masiva, que actúa como un catalizador de ese proceso. Gracias a la IA es posible descartar millones de callejones sin salida antes de que el científico pise el laboratorio. DeepMind ha visto esto tan claro que ha creado Isomorphic Labs, una escisión comercial dedicada exclusivamente a usar esta tecnología para descubrir nuevos fármacos.

DeepMind no está sola. Aunque la empresa cofundada por Demis Hassabis es el claro referente en este ámbito, hay otros ejemplos que siguen ese mismo camino: 

  • Microsoft: logró un hito llamativo en colaboración con el PNNL (Pacific Northwest National Laboratory) al filtrar con IA 32 millones de materiales inorgánicos potenciales y encontrar uno nuevo capaz de reducir el uso de litio en baterías en un 70%.
  • MIT: el prestigioso instituto técnico usó modelos de deep learning para descubrir la halicina, un antibiótico capaz de eliminar bacterias resistentes a todos los tratamientos conocidos. 
  • NVIDIA: la firma no solo domina de forma imperial el mercado de los chips de IA, sino que ha construido un "gemelo digital" de la Tierra llamado Earth-2. Sus modelos de IA (FourCastNet) predicen fenómenos metereológicos extremos miles de veces más rápido y consumiendo mucho menos que los supercomputadores tradicionales.

La promesa (un poco) cumplida. Prácticamente desde que apareció ChatGPT se nos prometió que la IA cambiaría el mundo. De momento no lo ha hecho demasiado, pero lo logrado por DeepMind y otras empresas en el campo de la ciencia sí que parece plantear verdaderas revoluciones. Te recomiendo no perderte el documental: es fantástico.

En Xataka | Qué dicen ahora sobre la IA y sus riesgos los pioneros de la IA premiados hoy con el Nobel





via Robótica e IA - Xataka https://ift.tt/SR3Ovmk