viernes, 20 de febrero de 2026

Anthropic vive un momento dulce pero ha tomado una decisión que amenaza con comprometer su futuro: no a todo el uso militar

Anthropic vive un momento dulce pero ha tomado una decisión que amenaza con comprometer su futuro: no a todo el uso militar

La carrera por dominar la inteligencia artificial se ha ido estrechando hasta dejar a un puñado de actores capaces de competir al más alto nivel. Anthropic forma parte de ese grupo reducido junto a nombres como OpenAI o Google, y sus modelos Claude han ganado terreno en ámbitos como la programación. En ese gran momento, sin embargo, la compañía se enfrenta a una decisión delicada: mantener ciertos límites en el uso militar de su tecnología, aun a costa de tensar su relación con el Departamento de Defensa de Estados Unidos.

El estándar que lo cambia todo. Según Axios, citando a un alto funcionario de la administración, el Pentágono está presionando a cuatro laboratorios punteros de IA para que permitan el uso de sus modelos para “todos los fines lícitos”, incluso en áreas especialmente sensibles como el desarrollo de armas, la recopilación de inteligencia o las operaciones en el campo de batalla. Anthropic, sin embargo, no habría aceptado esas condiciones tras meses de negociaciones difíciles, lo que ha llevado al Departamento de Defensa a plantearse revisar su relación con la compañía.

Las líneas que no quiere cruzar. Frente a esa exigencia amplia, los liderados por Dario Amodei han dejado claro que mantienen límites concretos. La compañía insiste en que dos ámbitos siguen fuera de discusión. Un portavoz afirmó al mencionado medio que la empresa sigue “comprometida a utilizar IA de vanguardia en apoyo de la seguridad nacional de EEUU”, pero matizó que las conversaciones con el Departamento de Defensa se han centrado en “nuestros límites estrictos en torno a las armas totalmente autónomas y la vigilancia doméstica masiva”, y que esas cuestiones no se “relacionan con las operaciones actuales”.

El episodio que terminó de elevar la tensión. The Wall Street Journal aseguró, citando a personas con conocimiento del tema, que Claude se utilizó la una operación militar de EEUU en Venezuela para capturar a Nicolás Maduro a través de la relación con Palantir. En ese mismo texto, desde la compañía de IA respondieron que no pueden hacer comentarios sobre si su tecnología se utilizó en una operación militar específica, clasificada o no. Y añadió que cualquier uso, ya sea en el sector privado o en el Gobierno, debe cumplir sus políticas de uso.

Lo que está en juego. Más allá de ese episodio, Axios informó de que desde el ámbito militar estadounidense “todo está sobre la mesa”, incluida la posibilidad de reducir o incluso romper la relación con Anthropic. El mismo alto funcionario citado por el medio añadió que, si se opta por ese camino, tendría que haber “una sustitución ordenada”, lo que sugiere que el proceso demandaría cierta cantidad de tiempo. WSJ aporta otro dato interesante: el año pasado se firmó un contrato de 200 millones de dólares entre Anthropic y el Departamento de Defensa.

El fondo de la disputa. En un momento en el que las compañías de IA buscan consolidar ingresos, justificar valoraciones y demostrar utilidad en entornos críticos, la relación con el sector de defensa es un escaparate y una fuente de negocio de primer orden. Al mismo tiempo, también es un terreno donde los límites éticos y estratégicos se vuelven más visibles. La decisión de Anthropic de mantener ciertas restricciones puede reforzar su identidad como empresa orientada a la seguridad, pero también limitar su acceso a contratos millonarios.

Imágenes | Anthropic | Oleg Ivanov

En Xataka | Los centros de datos en el espacio prometen salvar el planeta. Y también arruinar la órbita terrestre



via Robótica e IA - Xataka https://ift.tt/NOjC1Qv

Los millennials usaban el término "TL;DR". La generación Z está lo está sustituyendo por algo más radical: "AI;DR"

Los millennials usaban el término "TL;DR". La generación Z está lo está sustituyendo por algo más radical: "AI;DR"

El scroll infinito, las redes sociales y la IA ha hecho que nuestra atención sea un bien escaso demasiado valioso como para ir repartiéndolo alegremente en contenidos sin sustancia. Los millennials se acostumbraron a pedir resúmenes rápidos con el término "TL;DR" (Too Long; Didn't Read). El resumen: mucho texto.

La generación Z, transgresora y acorralada por la IA, ha encontrado otra forma de filtrar lo que merece o no su atención. Si un contenido parece generado por IA, se despacha con solo cinco caracteres: "AI;DR" (AI, didn’t read). Esta etiqueta se usa para marcar contenido que se percibe como "slop". Relleno generado con IA que hace perder el tiempo sin aportar un valor real.

Detrás de esta etiqueta hay hartazgo, pero también una forma de defender algo tan básico como querer leer a personas que se han tomado la molestia de escribir un texto.

De "demasiado largo" a "demasiado artificial"

Tony "Sid" Sundharam, cofundador de la app Sink It, definía en su blog la esencia del nuevo término: "Para mí, escribir es la ventana más directa a cómo alguien piensa, percibe y comprende el mundo". Para una parte creciente de jóvenes, delegar esa ventana de humanidad en una IA rompe el pacto de honestidad entre quien escribe y quien lee.

De fondo que da latente una idea mucho más potente: "¿Por qué debería molestarme en leer algo que a otro no le interesa escribir?".

"TL;DR" nació, como hacen los memes en internet, como una broma interna de foros y redes. Una forma de admitir que se había superado el balance esfuerzo-recompensa. El texto era demasiado largo para dedicarle tiempo. Con el tiempo se convirtió en una especie de guiño generacional: había mucha información, poco tiempo y una paciencia limitada para los bloques de texto infinitos.

"AI;DR" reutiliza esa misma estructura, pero cambia el paradigma. Ahora el problema ya no es la longitud (o al menos no es el motivo principal), ahora el problema es el origen del contenido.

La idea no es que el texto sea extenso, sino que parezca generado por una IA, sin voz propia, sentido crítico ni experiencia detrás. Cuando alguien etiqueta así un texto, no está pidiendo un resumen. Está diciendo que ni siquiera vale la pena empezar a leerlo.

Hace unos días, mi compañero Javier Lacort, contaba que la IA nos está condicionando a buscar el botón "resumir" en todos los contenidos para ahorrar tiempo, privándonos así del lujo de disfrutar de una lectura en toda su extensión, con sus matices y sus lecturas entre líneas. Puede que la IA sea más eficiente ahorrando tiempo de lectura, pero se cobra el peaje de la esencia del mensaje.

El cansancio ante el "slop" de la IA

En el nuevo paradigma de consumo rápido de contenido, "AI;DR" se convierte en una especie de aviso entre humanos. Una forma rápida de señalar que algo huele a automatizado y que quizá sea mejor pasar de largo. Cuando alguien responde "AI;DR" a un texto, está haciendo algo más que quejarse de la IA.

Como explicaba Sid en su blog, que alguien haya tenido una idea, se la haya peleado frente a una página en blanco y haya invertido tiempo en ordenarla, son "pruebas rudimentarias de trabajo de una era pre‑IA", pequeñas pruebas de esfuerzo que legitiman al autor ante el lector.

Frente a eso, la famosa "dead internet theory". Máquinas escribiendo para máquinas.

​La misma generación que vive rodeada de automatización y asistentes inteligentes está poniendo en valor lo que todavía no se puede falsificar tan fácilmente: el estilo propio, las ideas raras, las frases imperfectas que delatan que detrás hay una persona.


TL;DR:
La generación Z ha popularizado "AI;DR" (AI; didn't read) como evolución del clásico "TL;DR" de los millennials, para descartar rápidamente textos que parecen generados por IA o relleno artificial sin voz humana auténtica.

En Xataka | Mientras las empresas presumen de eficiencia por la IA. La generación Z solo ve contratos temporales y puertas cerradas

Imagen | Unsplash (Firza Pratama)



via Robótica e IA - Xataka https://ift.tt/mVP1kTS

Gemini 3.1 Pro acaba de destronar a Claude: Google vuelve a liderar la carrera de la IA y tiene algo que ningún rival puede igualar

Gemini 3.1 Pro acaba de destronar a Claude: Google vuelve a liderar la carrera de la IA y tiene algo que ningún rival puede igualar

Google ha lanzado Gemini 3.1 Pro, una actualización incremental de su modelo estrella que llega cargada de sorpresas. Y es que según marcan sus benchmarks, el modelo tiene bastante más que decir de lo que parece. En razonamiento abstracto, Google quiere comenzar a marcar el ritmo sobre Anthropic y OpenAI. Pero su as en la manga no es solo ese, pues tienen algo que el resto de startups no pueden replicar: todo su ecosistema y cómo están integrando la IA en él.

Lo que acaba de pasar. Apenas tres meses después de lanzar Gemini 3 Pro, Google ha publicado Gemini 3.1 Pro. Lo curioso es que el salto es bastante más impactante de lo que puede parecer si nos fijáramos solamente en ese “.1” que tiene delante. Según la compañía, el nuevo modelo mejora de forma significativa el razonamiento del anterior y supone la base de inteligencia que ya alimentaba la actualización de Gemini 3 Deep Think, presentada la semana pasada.

Está disponible desde hoy en la app de Gemini, en NotebookLM (para suscriptores de los planes Pro y Ultra), en la API a través de AI Studio y en entornos empresariales mediante Vertex AI.

Gemini 3 1 Pro Benchmarks Gemini 3 1 Pro Benchmarks

Datos. En el benchmark ARC-AGI-2, diseñado para evaluar la capacidad de resolver patrones lógicos completamente nuevos, sin posibilidad de haberlos visto durante el entrenamiento, Gemini 3.1 Pro ha alcanzado un 77,1%. Para ponerlo en contexto: Gemini 3 Pro se quedaba en el 31,1%, mientras que Claude Sonnet 4.6 marcaba un 58,3% y Opus 4.6 un 68,8%. Es decir, Google no solo ha cerrado la brecha, sino que ha pasado por encima. 

Cabe destacar que nunca antes una revisión intermedia de sus modelos había registrado un avance tan pronunciado en razonamiento.

Qué dicen los números en el resto de benchmarks. En la tabla comparativa que acompaña al anuncio, Gemini 3.1 Pro encabeza la mayoría de categorías evaluadas: obtiene el mejor resultado en Humanity's Last Exam sin herramientas (44,4%), lidera en GPQA Diamond con un 94,3% en conocimiento científico, y dobla al modelo anterior en APEX-Agents, el benchmark de tareas de larga duración. También destaca en MCP Atlas (flujos de trabajo multistep), BrowseComp (búsqueda agéntica) y MMMLU (preguntas y respuestas multilingüe).

Cabe recalcar que, según estos benchmarks, no es mejor en todo: en GDPval-AA Elo, que evalúa tareas de entornos laborales en el mundo real, Claude Sonnet 4.6 supera a Gemini 3.1 Pro con 1.633 puntos frente a 1.317. Y en SWE-Bench Verified, la prueba de programación con agentes, Opus 4.6 se cuela con un 80,8% frente al 80,6% de Google. No obstante, en el cómputo global, el balance favorece claramente al nuevo modelo de Google. 

En Arena Leaderboard (la clasificación basada en votaciones de usuarios) todavía sitúan a Claude Opus 4.6 por delante en texto y código, aunque aquí cobra más protagonismo “las sensaciones” de cada usuario a la hora de valorar, que otra cosa.

Una clara ventaja competitiva. El argumento más sólido a favor de Google no tiene que ver ni siquiera con la potencia de su último modelo. La compañía no necesita convencerte de que uses su IA: ya está donde tú estás. Search, Gmail, YouTube, Android, Docs, Drive, Google Fotos, Maps… Su IA no depende de que abras una aplicación específica, sino que se integra en el ecosistema que millones de personas ya utilizan a diario. 

Para el resto de startups (OpenAI, Anthropic…), necesitan que utilices sus modelos en entornos específicos (ChatGPT, Claude). Google simplemente ya está ahí. Es un moat que quizás ni siquiera el mejor modelo del mundo podría barrer ahora mismo.

Y luego está lo del precio. Gemini 3.1 Pro llega a los usuarios con suscripción a Google AI Plus, Pro y Ultra, aunque también lo puedes probar de forma limitada en el plan gratuito. Cabe destacar que de momento está en versión preeliminar.

La narrativa que Google quiere que tengamos en la cabeza es que, por un módico precio, tienes acceso a ese modelo, más todo lo que ofrece la compañía en su ecosistema, incluyendo almacenamiento. Eso, ahora mismo, es muy difícil de superar. Además, para desarrolladores, la API también se ofrece a un precio muy competitivo. Entonces, desde el punto de vista práctico y desde el bolsillo, Google lo está dando todo para que todos sus usuarios sigan utilizando su ecosistema, con la mejor IA o sin ella.

El ”.1”. La carrera de la IA lleva meses con un ritmo frenético. Y lo más interesante de todo es que Google, que llegó tarde a la carrera, lleva un año de infarto en el que ha estructurado todo el estropicio que tenía con su IA. El salto de Gemini 3 a 3.1 en razonamiento es mayor que el que muchos rivales han logrado entre versiones completas. Y lo ha hecho manteniendo la ventaja de ser la empresa que controla los puntos de entrada más relevantes a Internet. Aún queda ver cómo solucionan la monetización de su inteligencia artificial, pero desde luego se han puesto las pilas.

Imagen de portada | Alex Dudar y Google

En Xataka | La científica que hizo posible la IA que conocemos hoy acaba de recaudar 1.000 millones. Su nuevo objetivo es enseñarle a ver el espacio



via Robótica e IA - Xataka https://ift.tt/efgJBWU

Los centros de datos en el espacio prometen salvar el planeta. Y también arruinar la órbita terrestre

Los centros de datos en el espacio prometen salvar el planeta. Y también arruinar la órbita terrestre

La wikipedia debería actualizar su página dedicada a la palabra "ambición" para poner la foto de Elon Musk. El magnate ha anunciado un megaproyecto según el cual sus dos empresas SpaceX y xAI trabajarán juntas para lanzar una constelación de un millón de satélites que funcionarán como centros de datos en órbita. El problema es que aunque la idea tiene sus ventajas, también tiene un impacto potencialmente terrible para el futuro de nuestro planeta.

Eficiencia energética. Esa es la gran ventaja de los centros de datos espaciales que propone Musk. En el espacio los paneles solares pueden rendir de forma óptima sin los obstáculos que plantean la atmósfera y el clima terrestre. Según SpaceX, la reducción del coste de los lanzamientos de sus cohetes hacen que el espacio se convierta en una alternativa perfecta para los centros de datos de IA.

El plan. El proyecto que se ha presentado a la Comisión Federal de Comunicaciones (FCC) de EEUU consiste en situar estos satélites en órbitas sincrónicas al sol entre los 500 y los 2.000 km de altura. Eso permitiría a los satélites actuar como nodos interconectados entre ellos y también con los satélites de la red Starlink mediante enlaces láser ópticos. El plan, eso sí, tendrá que superar retos importantes como el de la refrigeración. Disipar el calor generado por millones de chips en el vacío del espacio es complejo, ya que los satélites actúan como "termos naturales".

Y la radiación, ¿qué? También habrá que solventar el problema de la radiación cósmica. Los chips avanzados son muy vulnerables a errores de procesamiento causados por partículas energéticas. Parece que los procesadores de IA son sorprendentemente resistentes a este tipo de problema, pero el despliegue de dichos chips a escala masiva en el espacio podría introducir nuevos conflictos.

De reparación in situ, nada. En los centros de datos actuales si surge algún problema un técnico se puede desplazar físicamente si hace falta para solucionarlo. En el espacio la reparación física es inviable, lo que obligaría auna estrategia de asumir que esos chips que acaben funcionalmente quedarán totalmente perdidos. SpaceX tendría que lanzar sustitutos continuamente para compensar esa "mortalidad" de los componentes, lo que complica la logística y los costes. Hay perspectivas optimistas en este sentido, y a algunos las cuentas sí les salen.

Síndrome de Kessler. Pero sobre todo hay una preocupación latente en el ámbito de la seguridad espacial. Lanzar un millón de satélites nuevos en órbitas ya congestionadas hace que la probabilidad de colisiones en cadena se multiplique, validando la teoría propuesta en el síndrome de Kessler. Una sola colisión importante podría generar una nube de escombros que tardaría décadas en despejarse, lo que además amenazaría misiones de monitorización climática o incluso las comunicaciones globales. Ya hay ideas para "regular el tráfico" orbital coordinándolo, y SpaceX tiene su propio sistema de "percepción de situación", Stargaze, para evitar problemas, pero claro, ningún sistema es del todo perfecto.

Contaminación atmosférica. Sin olvidar que el impacto atmosférico es igualmente preocupante. Se estiman unos 25.000 vuelos de las Starship, y el reingreso de satélites que terminan su ciclo de vida o mueren antes de tiempo haría que se liberasen metales y partículas en la atmósfera superior. Según los expertos, estos residuos químicos podrían dañar la capa de ozono y provocar consecuencias climáticas inciertas.

No se ve nada. Los astrónomos, que ya habían protestado por Starlink, tendrán un problema aún máyor con esta nueva idea. La amenaza a la astronomía es clara, porque dada la altitud y tamaño de estos satélites, es probable que formen una banda brillante visible incluso a simple vista, dificultando la observación científica e incluso cambiando la forma en la que vemos el atardecer. La computación orbital puede tener ventajas, pero antes de ponerla en marcha deberíamos recordar que el espacio —sobre todo, el que vemos— es un recurso compartido y finito.

En Xataka | El dominio de Starlink en el espacio empieza a moverse: otra compañía ya tiene permiso para una constelación de 4.000 satélites




via Robótica e IA - Xataka https://ift.tt/81zME97

China fabrica el 90% de los robots humanoides del mundo y la razón no es su política industrial: es cruzar la calle

China fabrica el 90% de los robots humanoides del mundo y la razón no es su política industrial: es cruzar la calle

En el Año Nuevo chino, 16 robots humanoides de Unitree bailaron una danza folclórica ante casi mil millones de espectadores. Occidente reaccionó como siempre: unos con pánico, otros con desdén, otros con una indisimulada admiración que a veces tiende a elucubrar teorías con más clichés respecto a China que análisis real.

Ninguna de esas respuestas es del todo cierta y esa ceguera tiene un coste.

El contexto. China fabrica cerca del 90% de los robots humanoides que se venden en el mundo. En 2025 se enviaron unas 13.000 unidades, con empresas chinas (AgiBot, Unitree, UBTech...) dominando el ranking por volumen, según datos de Omdia recogidos por Bloomberg.

Tesla, con toda su reputación de marca y todo su aparato industrial, desplegó internamente alrededor de 800 unidades del Optimus ese mismo año.

La cifra. El G1 de Unitree cuesta 13.500 dólares. El Optimus de Tesla superará los 20.000. Esa brecha es la diferencia entre poder iterar diez veces con el mismo presupuesto o quedarte en una.

Entre líneas. El relato que circula en Occidente tiene dos versiones, igual de perezosas:

  1. La primera: todo esto es el plan quinquenal, la mano del Estado, la política industrial hecha robot.
  2. La segunda, reservada a los más condescendientes: es porque copian.

Ninguna de las dos explica lo que de verdad está pasando.

La ventaja china en robótica no viene del Partido Comunista. Viene del Pearl River Delta y del Delta del Yangtsé: los dos ecosistemas de fabricación más densos del planeta. Motores, actuadores, sensores, PCBs personalizados... todo está disponible a la distancia de un paseo. Es lo que describe Rui Xu, ingeniero que ha trabajado en startups de robótica en China y en Silicon Valley.

  • Cuando Unitree quiere probar un nuevo diseño de articulación, cruza la calle y vuelve con el componente adecuado.
  • Un equipo en San Francisco tiene que espera rsemanas para recibir el mismo componente desde China.

El trasfondo. Esa diferencia de velocidad de iteración lo cambia todo en ingeniería de hardware. Deja de ser un problema de talento, porque los ingenieros chinos y americanos son igualmente capaces, y pasa a ser un problema de infraestructura.

Romper un robot, aprender, sustituirlo y volver a intentarlo: eso es lo que construye la ventaja técnica acumulada. Si romper un robot cuesta tres semanas de logística, el aprendizaje se para y los tiempos se alargan.

Sí, pero. China sí tiene apoyo estatal, y es completamente legítimo señalarlo. El gobierno ha inyectado mucho dinero en ese sector y ha fijado objetivos de producción. Pero no es que Silicon Valley sea una región empobrecida: tiene más capital, inversores con más experiencia y recursos, y más décadas de experiencia financiando apuestas de alto riesgo. Si esto fuera una guerra de ver quién tiene la chequera más gorda, Estados Unidos ganaría con comodidad. Pero no lo es.

Además, el dinero estatal chino viene con ataduras: se clasifica como "activo del Estado" y los fundadores asumen responsabilidades personales si la empresa fracasa. Eso empuja el capital hacia apuestas políticamente seguras, no necesariamente hacia las más innovadoras.

La pregunta. ¿Puede Occidente recuperar terreno en robótica? Sí, pero no como lo está intentando.

  • Atraer talento extranjero ayuda en el margen, pero no resuelve el problema de fondo.
  • La equiparación pasa por construir cadenas de suministro locales capaces de entregar una pieza de repuesto en dos días, no en dos semanas.
  • Y eso no es un problema de inmigración ni de I+D. Es un problema de base industrial, y resolverlo lleva muchos años de trabajo. Y del trabajo ingrato, del que quizás recojan los frutos los que lleguen después.

Hasta entonces vamos a ver muchos más vídeos virales de robots chinos haciendo piruetas con una naturalidad cada vez mayor. Y es porque han construido el mejor entorno del mundo para romper cosas y volver a intentarlo. En ingeniería, eso explica casi todo.

Imagen destacada | CCTV

En Xataka | Doblar la ropa o desmontar LEGOs ha sido siempre una tarea tediosa. La nueva IA de Xiaomi para robots le ha puesto fin



via Robótica e IA - Xataka https://ift.tt/uVEx6s4

EEUU está obsesionada con alcanzar la Inteligencia Artificial General antes que China. A China no podría importarle menos

EEUU está obsesionada con alcanzar la Inteligencia Artificial General antes que China. A China no podría importarle menos

La promesa de la AGI se ha convertido en el "que viene el lobo" de algunas empresas de IA. Los gurús de las empresas de IA estadounidenses no dejan de hypear con la esperadísima inteligencia artificial general, esa que superará a los humanos en todas las áreas del conocimiento. Mientras tanto, en China parece no importar demasiado.

La brecha de la AGI. Elon Musk, Dario Amodei, Sam Altman... todos coinciden en que la AGI está al caer, o eso han dicho en algún momento. No podemos saber cuánto de cerca están, lo que sí sabemos es que para lograr la AGI necesitan más potencia de cómputo, para lo que necesitan muchísimo (más) dinero. La AGI como justificación a una inversión demencial.

Cuentan en High Capacity que China apenas menciona la AGI en su iniciativa AI+ de 2025 ni tampoco la mencionaba en el 'Next Generation AI Development Plan' de 2018. La IA es una tecnología estratégica de gran importancia, pero se enfocan en aplicaciones concretas como automatización industrial, la conducción autónoma o la robótica. Transformador, sí, pero pero nada de puntos de inflexión que van a cambiar el mundo por completo.

Quien llega primero, gana (o no). Es la lógica estadounidense en esta carrera. Para lograrlo, están apostándolo todo a un sólo caballo y la AGI es la meta. Si llegan antes, obtendrán una ventaja económica y militar insalvable: habrán vencido Por contra, si China llega antes,  la relación de poder cambiaría por completo.

Lo cierto es que mucho se tiene que torcer la cosa para que EEUU no gane esta carrera. El problema es que, mientras hacen este esfuerzo titánico, China les está ganando en otros frentes como el coche eléctrico, la robótica industrial, los drones, paneles solares... Ganar la batalla de la IA, pero perder la guerra económica.

China está tranqui. ¿Por qué en China no se emocionan tanto con la AGI? Para empezar, no ven tan claro que escalar los modelos sea la ruta más rápida a la AGI y eso requiere una inversión gigantesca sin garantías. Pero sobre todo es porque no compran la idea de "llegar primero"; incluso aunque EEUU les adelante, pueden simplemente copiarlos y ponerse a su nivel rápidamente. Lo dijo Yao Shunyu, jefe científico de IA en Tencent: "La historia demuestra que, una vez validada una vía técnica, los equipos chinos pueden replicarla rápidamente e incluso superarla en áreas específicas, como los vehículos eléctricos o la fabricación". La cuestión no es tanto quién llegue antes, sino quién la aproveche mejor.

Quiénes sí hablan de AGI en China. Las declaraciones de Yao Shunyu se produjeron en el marco de la AGI-Next Summit, donde se reunieron varios líderes de empresas de IA China a hablar del futuro del sector. Figuras como el fundador de DeepSeek, el CEO de Ziphu o el fundador de Moonshot, han hablado de que su meta es lograr la AGI, aunque no han compartido muchos más detalles. Quizás la empresa que más ha profundizado es Alibaba, que hizo una presentación detallando sus planes para lograr la superinteligencia (ASI). 

Estos líderes, igual que los de las empresas estadounidenses, pueden tener motivaciones comerciales en estas declaraciones, pero hay otros organismos en China que están investigando este campo como el Beijing Institute for General Artificial Intelligence o el Chongqing Institute for General AI. Hay iniciativas, pero ni por asomo existe el nivel de obsesión que tienen en EEUU.

Una estrategia reposada. Mientras EEUU acapara chips y escala a lo loco, en China están optando por hacerlo más lentamente. Están priorizando los chips nacionales y el código abierto con la idea de favorecer la adopción de sus modelos. Es una visión más a largo plazo. Una carrera de fondo, no un sprint.

En Xataka | Hay una ciudad en China que se mide cara a cara con Silicon Valley: bienvenidos a Hangzhou, la casa de los 'Six Little Dragons'

Imagen | Steve Johnson en Unsplash



via Robótica e IA - Xataka https://ift.tt/nqAg4fz

La científica que hizo posible la IA que conocemos hoy acaba de recaudar 1.000 millones. Su nuevo objetivo es enseñarle a ver el espacio

La científica que hizo posible la IA que conocemos hoy acaba de recaudar 1.000 millones. Su nuevo objetivo es enseñarle a ver el espacio

Fei-Fei Li, conocida como la madrina de la IA, acaba de cerrar una ronda de 1.000 millones de dólares para World Labs, su startup dedicada a enseñar a las máquinas a comprender el mundo en tres dimensiones. Detrás de esta apuesta están grandes empresas como NVIDIA, AMD, Autodesk o el fondo de Andreessen Horowitz, entre otras. Li, al igual que otras figuras importantes en el terreno de la IA, cree que los modelos de mundo son el camino a seguir, en vez de la AGI.

Quién es y por qué importa lo que hace. Li es una de las personas que hizo posible que la IA generativa tal y como la conocemos hoy existiese. Fue parte del equipo que desarrolló ImageNet, una base de datos de millones de imágenes que permitió a los ordenadores aprender a reconocer objetos en fotos. Ese trabajo académico, fue el detonante del salto hacia el aprendizaje profundo que dio lugar a todo lo que vino después: desde los asistentes de voz hasta los modelos generativos de texto e imagen.

Ahora, desde la Universidad de Stanford, donde dirige el Instituto de Inteligencia Artificial Centrada en el Ser Humano, y desde World Labs, la startup que fundó en 2024, Li apunta a lo que considera el siguiente gran problema sin resolver de la IA: que las máquinas entiendan el mundo físico, no solo el texto o las imágenes planas.

El problema que quiere resolver. Los grandes modelos de lenguaje como GPT o Claude son extraordinariamente buenos procesando texto. Pero el mundo real no es texto, o al menos no solo es texto: es tridimensional, tiene física, tiene geometría, tiene objetos que se mueven y se relacionan entre sí. "Si la IA ha de ser verdaderamente útil, debe entender mundos, no solo palabras", contaba Li en su comunicado.

Eso es lo que persigue la llamada inteligencia espacial, el enfoque central de World Labs. A diferencia de trabajar con datos en dos dimensiones, los modelos en los que trabaja la startup están diseñados para percibir, generar e interactuar con entornos tridimensionales. La idea es que una IA con inteligencia espacial pueda razonar sobre cómo funcionan las cosas en el espacio, dónde está un objeto, cómo se mueve, qué pasará si se empuja, cómo encaja en un entorno más grande, etc.

Lo que ya existe y lo que viene. En noviembre del pasado año lanzó Marble, su primer producto comercial. Se trata de un modelo que genera entornos 3D editables y descargables a partir de texto, imágenes, vídeos o panoramas. El usuario puede crear un mundo virtual, modificarlo, expandirlo y exportarlo en distintos formatos. La startup lo posiciona principalmente para videojuegos, efectos visuales y realidad virtual, o sectores con una demanda enorme de contenido 3D en los que existan pocas herramientas para ponerlos en funcionamiento.

Con esta nueva ronda de financiación, el foco se amplía también hacia la robótica. Y es que en este campo, la inteligencia espacial es especialmente crítica, ya que un robot que comprende el espacio que le rodea puede planificar acciones antes de ejecutarlas, procesar distintas formas de completar una tarea o adaptarse a entornos cambiantes sin necesidad de ser reprogramado para cada situación.

Autodesk ha puesto 200 millones en su mesa. Realmente tiene todo el sentido. Es la empresa que fabrica el software de diseño que usan arquitectos, ingenieros, estudios de animación y fabricantes en todo el mundo. Su negocio es, por definición, pensar en tres dimensiones. Y es que si los modelos de Li pueden generar y razonar sobre entornos 3D, las herramientas de Autodesk pueden beneficiarse también de lo que la startup pretende ofrecer.

Daron Green, científico jefe de Autodesk, explicaba a TechCrunch que la colaboración entre ambas empresas se centrará en un principio en entretenimiento y producción audiovisual. La idea es que los flujos de trabajo de diseño puedan combinarse con mundos generados por IA. De esta manera, un usuario diseña un objeto en Autodesk y lo sitúa en un entorno creado por World Labs, o al revés. "Podrías anticipar que consumiremos sus modelos o que ellos consumirán los nuestros en diferentes contextos", señalaba Green.

No están solos en esta carrera. World Labs no es la única apuesta por los modelos de mundo. Google DeepMind trabaja en su familia de modelos Genie, capaces de generar y simular entornos 3D. Yann LeCun, que fue científico jefe de IA en Meta, acaba de fundar AMI Labs con el mismo enfoque. Startups como Decart y Odyssey también se mueven en este espacio, aunque con productos todavía en fase de demo o investigación.

No obstante, hay diferencias en sus respectivos enfoques. LeCun, por ejemplo, defiende que para construir verdaderos modelos de mundo hará falta una arquitectura de IA completamente nueva, no generativa. Li, desde World Labs, está apostando por avanzar ya con los modelos generativos actuales e ir mejorando desde ahí.

Imagen de portada | World Labs y Andria Lo

En Xataka | Nos encantaría decirte que 'Her' no se ha hecho realidad y que no hay gente teniendo citas con una IA, pero no podemos



via Robótica e IA - Xataka https://ift.tt/t8BbV92