domingo, 22 de febrero de 2026

El Plaud Note Pro parecía otro gadget con IA más: tras un mes probándolo la historia no es tan simple

Cuando alguien se plantea comprar el Plaud Note Pro surge casi de inmediato una pregunta invetidable: ¿por qué no es simplemente una aplicación? La duda no es caprichosa. En los últimos años hemos visto cómo el concepto de “dispositivo de IA” se ha rodeado de expectativas altísimas y resultados discretos, con ejemplos como el Humane AI Pin o el Rabbit R1 que no terminaron de convencer. En ese contexto, cualquier nuevo gadget impulsado por inteligencia artificial tiene que justificar muy bien su existencia.

El Plaud Note Pro aspira a hacerlo desde un enfoque claro: no quiere sustituir al móvil, sino resolver una necesidad concreta, la de grabar, transcribir y estructurar conversaciones. Sobre el papel su propuesta es sencilla, pero cuando hablamos gastar casi 200 euros conviene ir más allá de la ficha técnica. Por eso nuestra compañera Ana Boria lo ha utilizado durante un mes completo, con reuniones reales y escenarios cotidianos, para comprobar si la especialización es suficiente argumento.

La prueba real empieza cuando pulsa el botón de grabar

En el nuevo vídeo del canal de YouTube de Xataka, Ana comparte su experiencia desde el primer contacto. “Es mucho más pequeño de lo que pensaba; no lo había visto en persona y es muy chiquitito”, comenta nada más sacarlo de la caja. Ese tamaño compacto no es un detalle menor, porque forma parte de su planteamiento: estar siempre a mano. De ahí que uno de los primeros aspectos que destaque sea su compatibilidad con MagSafe para acoplarlo al iPhone. “Si no tienes MagSafe, viene con un adaptador para que puedas llevarlo siempre enganchado al móvil”, explica en esas primeras impresiones.

Plaud Note Pro Prueba Ana Boria Xataka 3 Plaud Note Pro Prueba Ana Boria Xataka 3

La prueba de verdad llega cuando empieza a grabar. Primero, en una reunión improvisada. “Pensaba que iba a cometer fallitos y, aunque hay alguna pequeña cosa mal en los nombres, ha captado el concepto perfectamente”, cuenta tras revisar la transcripción. Después lo somete a un entorno más exigente, con ruido y varios interlocutores hablando a la vez. Es en este tipo de situaciones donde una grabadora con IA demuestra si realmente aporta valor frente a una simple app.

Plaud Note Pro Prueba Ana Boria Xataka Plaud Note Pro Prueba Ana Boria Xataka

El vídeo también entra en cuestiones que van más allá de la precisión. El Plaud Note Pro promete detectar y transcribir reuniones en 112 idiomas, pero lo relevante es cómo se comporta en español y qué ocurre con términos poco habituales o nombres propios. A esto se suma el apartado de privacidad, una preocupación lógica cuando se trata de conversaciones personales o profesionales. Sobre ese punto, Ana señala: “Cumple con un montón de medidas y legislación para proteger esa información”.

Plaud Note Pro Prueba Ana Boria Xataka 2 Plaud Note Pro Prueba Ana Boria Xataka 2

Hay además un elemento clave que condiciona la experiencia: el sistema de minutos. “Me ha saltado un aviso de que me quedan pocos minutos de grabación”, explica Ana, introduciendo uno de los límites prácticos del dispositivo. “El Plaud Note Pro cuesta 189 euros e incluye un plan gratuito inicial de 300 minutos mensuales (unas 5 horas). Si grabas muchas clases o reuniones, se acaban rápido”, detalla. A partir de ahí, el vídeo analiza los distintos planes disponibles y cuál puede resultar más razonable según el perfil de uso.

Al final, la conclusión gira en torno a su propia naturaleza. “Su mayor fortaleza es la simpleza y la especialización”, resume en el tramo final del vídeo, justo antes de hacer unos comentarios sobre la duración real de la batería. Si quieres conocer todos los matices, los puntos fuertes y las limitaciones que ha encontrado tras un mes de uso real, tienes el análisis completo en el canal de YouTube de Xataka.

En Xataka | La debacle de Humane AI Pin es un problema para la industria: quién se volverá a fiar de un cacharro IA ahora



via Robótica e IA - Xataka https://ift.tt/Q4cnfZJ

Omar Hatamleh: «En 2050 solo una pequeña parte de la población mundial trabajará"

El asesor jefe de IA de la NASA, Omar Hatamleh , está convencido de que los niños que están naciendo ahora tendrán una esperanza de vida de 120 años. También espera que, dentro de poco, los robots se conviertan en médicos, viajemos en coches aéreos y la mayoría de la humanidad viva gracias a una renta universal básica . Porque la inteligencia artificial se ocupará de casi todo el trabajo. El ingeniero de origen español ha publicado recientemente el libro ' Inteligencia artificial e innovación ' (Deusto), en el que, junto al escritor y empresario Michael Lewrick, invita a la sociedad a cambiar su mentalidad y a aprender lo necesario para aprovechar la IA. Porque cree que el que no lo haga estará condenado a «perder competitividad y relevancia» en esa nueva realidad en la que las máquinas amenazan con ponerlo todo patas arriba. Y rápido, según explica a ABC. — En el libro, señalan que si las personas y las instituciones no quieren que el tren de la IA les pase por encima, básicamente, tienen que dejar de pensar como lo ha hecho el ser humano desde que el mundo es mundo... — Tenemos que empezar a pensar de forma exponencial y dejar de hacerlo de forma lineal, que es como se ha hecho hasta ahora. Si te fijas, el humano, a lo largo de la historia, ha sufrido cambios lineales y muy espaciados. Pasamos de cazadores a agricultores. Luego surgieron los artesanos. Tenían que pasar muchos años para que se dieran los cambios necesarios para que nos transformásemos como sociedad. Lo que pasa ahora todo va a cambiar cada vez más rápido. — ¿Qué riesgo corre el que no sea capaz de adaptarse? — Eso depende de quién seas. Pero, en primer lugar perderás competitividad y relevancia. No podrás sacar ventaja a cualquiera en tu misma situación que sea capaz de sacar partido a la IA. — ¿Qué les diría a los que no les interesa o se niegan a usarla? — Pues que van a perder toda la ventaja que puedan tener, porque no hay ningún ámbito ni ningún trabajo en el que la IA no pueda ayudarte exponencialmente. Por ejemplo, un estudiante de Filosofía puede usarla para mantener conversaciones muy profundas, parecidas a las que tendría con un profesor con décadas de experiencia. A un ingeniero le puede dar ideas para diseñar edificios. A un matemático le puede ayudar a resolver ecuaciones muy complicadas. — El problema es que se sigue utilizando mal. Hace poco un abogado en Canarias fue multado por citar en un juicio 48 sentencias falsas que le 'sopló' la IA... — Eso son alucinaciones de la máquina. Pero se están puliendo mucho según se van lanzando nuevas versiones de la IA. Correctamente empleada, te puede traer mucho valor. — Pero también te puede arruinar.. . — Por eso es importante saber cómo usarla. La mayoría de la gente ahora la usa mal. Ven una barra de búsqueda y la utilizan como si fuese el buscador de Google. La IA generativa no está pensada para eso, sino para mantener conversaciones profundas, buscar ideas y pulirlas. Si lo usas como si fuera Google tu pensamiento crítico se resentirá. — En el libro dice que en el futuro hasta los diseñadores de moda serán virtuales y dirigirán equipos deportivos. Si las máquinas acaban haciéndolo todo, ¿la vida no perderá sentido? — En el futuro llegará un momento en el que las máquinas puedan cumplir con la mayoría de trabajos, tanto con los físicos, con los robots, como con los intelectuales. Para 2050, yo espero que solo una parte muy pequeña de la población global tenga trabajo y el resto vivirá de una renta básica universal. Pero la crisis no vendrá por ahí, porque la sociedad se le dotará de lo necesario. La crisis real va a ser quedarnos sin sentido como humanos. — Mucha gente podría tener problemas para aceptar un mundo así... — Es completamente normal pensar así. Por eso es importante que comencemos a trabajar colectivamente en buscar una solución a la falta de identidad. — Si tuviese que aconsejar a un joven qué estudiar para estar preparado para ese mundo, ¿qué le diría? — Si es un niño que ha nacido ahora, la verdad es que no tengo ni idea. Una persona de 18 años todavía está a tiempo para el cambio, y yo le aconsejaría que no se centrase en un solo ámbito. Le diría que estudiase Matemáticas, Física, Filosofía e Historia. Respecto a cómo podemos diferenciarnos de la IA y ser relevantes durante el mayor tiempo posible, también es muy importante cuidar del pensamiento crítico, la inteligencia emocional y de la adaptabilidad. — ¿Y los niños deberían poder usar la IA sin límites? — Yo no creo en las barreras, creo en enseñar a los niños a manejar bien las herramientas. Si la usan correctamente, puede ayudarles a potenciar sus habilidades bastante. — Entre los ámbitos en los que la IA más está avanzando destaca el de la salud. ¿Se imagina a un robot adoptando el papel del médico de cabecera? — Eso va a llegar y es solo cuestión de tiempo. Es imposible que una persona esté al tanto de todos los avances científicos que se producen; luego, los hay que tienen muchos pacientes y no pueden conocerlos bien ni a ellos ni su historial. Yo creo que el cambio se dará en dos fases. La primera será la IA que tendrá acceso a todo el conocimiento médico y trabajará codo a codo con el facultativo. La segunda llegará en una década. Será cuando comience a ser posible crear médicos generales completamente automatizados. — ¿Cuál es su mayor temor con la IA a diez años vista? — Llegará un momento en el que lo que sea bueno para los humanos no será bueno para la inteligencia artificial. Me da miedo que la IA nos pueda ver como una amenaza para su progreso. Pero las ventajas de emplearla, como he dicho, son exponenciales en muchos campos, desde la medicina hasta la economía. — Demasiadas para parar... — Sí. Ya no hay marcha atrás, solo hacia adelante. Tenemos que asegurarnos de que no podemos perder el control, porque nos impactará a todos de forma negativa. Vamos a tener que trabajar juntos para controlar un sistema más potente que cualquier otra cosa que hayamos conocido antes. — ¿Cuál es el peor error que podemos cometer? — Perder el control. No podemos tener mucha regulación, porque eso puede dañar la innovación, pero tampoco podemos dejar a las compañías hacer lo que quieran. Debemos encontrar la forma de controlar la IA para evitar que nos vea como un obstáculo. ¿Cuándo en la historia hemos visto a un ser más inteligente ser controlado por uno menos inteligente? Ese es el gran reto. 

via Tecnología https://ift.tt/hF8D2NL

sábado, 21 de febrero de 2026

China tiene claro quién debe liderar los avances de sus mejores empresas de IA y robótica: la generación Z

China tiene claro quién debe liderar los avances de sus mejores empresas de IA y robótica: la generación Z

Quienes acceden ahora al mercado laboral se encuentran con un rival difícil de batir: no tiene convenio ni necesidad de descanso ni de realizarse. Además, hace las tareas de los perfiles junior bastante bien: la inteligencia artificial está cercenando el desembarco a las oficinas de la generación Z.  Pasa en Estados Unidos, lo hemos visto en el Reino Unido y también en las Big Four que conforman el skyline madrileño. Reemplazar a quienes empiezan a trabajar por la IA se ha destapado como la fórmula de Occidente para disparar la productividad... desde el punto de vista de los jefes. Si te toca pelearte con ella y validarla, ya no tanto. 

Pero no es ni mucho menos el único camino, ni le pasa a todo el mundo. De hecho, China está apostando justo al contrario: está convirtiendo a la Generación Z y millennials en jefes de áreas tan estratégicas como la robótica o la propia inteligencia artificial. No son jóvenes cualquiera: son auténticos galácticos, sus mejores activos.

A mí dame a alguien joven. Como recoge TechAsia, en China está despuntando una tendencia: la de contratar millennials y jóvenes de la generación Z para puestos de perfiles técnicos de alto nivel en grandes empresas de IA y robótica. El mejor ejemplo es Vinces Yao Shunyu: con 28 años ya ha estado en OpenAI. Hace un par de meses regresó a su China natal para convertirse en el científico jefe de Tencent. Ahora reporta directamente al CEO.

El de Shunyu es solo la punta del iceberg de esta nueva estrategia organizativa de las empresas chinas. Hay otros casos, como el de Luo Jianlan, ex de Google X y DeepMind y desde hace un año el científico jefe de AgiBot. O de Dong Hao, científico jefe de PrimeBot tras conseguir su doctorado en el Imperial College. Por cierto, OpenAI y Meta han copiado la receta: el primero con el polaco Jakub Pachocki y el segundo, con el chino Zhao Shengjia. Son científicos, pero bien podrían ser futbolistas profesionales: ninguno supera los 35 años.

Por qué es importante. Al pensar en jefe dentro de una estructura empresarial de cierto tamaño y moderna es inevitable que te venga a la cabeza la gestión de equipos, reuniones y burocracia. Sin embargo, esta estrategia de las big tech chinas es deliberadamente diferente a la que tenemos en Occidente y se sustenta en tres razones que explica SMCP:

  • Separación institucional de la investigación vs. producto. Un científico jefe mira al futuro, no gestiona equipos humanos ni presupuestos.
  • Ventaja competitiva en un mercado saturado, lo que le permite construir tecnologías propias sin depender de terceros. Si tienes a los mejores en casa, no tienes que pedir permiso ni fichar fuera.
  • El activo de la juventud top. La IA evoluciona a pasos agigantados y con este movimiento, China se está asegurando contar con quienes han estado en la zona cero de los grandes hitos de los últimos años: universidades de élite o laboratorios de instituciones de renombre como OpenAI, Google o Princeton.

China es cantera mundial de ingenieros. Que China es un país de ingenieros no es ningún secreto: es un plan que lleva ejecutándose 4o años. De hecho, ahora ha apostado por un ir paso más allá y acelerar los doctorados. El mercado laboral chino ya está dando señales de cierta saturación, lo que también ha traído la diversificación, cambiando de ruta para no pisar ni la universidad en su nueva apuesta por la FP

En cualquier caso, tener un ejército de casi seis millones de profesionales de la ingeniería le da ventaja con la IA. Y le sobra: tiene ingenieros para exportar. Sin ir más lejos, la gran mayoría de fichajes del equipo de superinteligencia de Meta del año pasado son chinos. Pero los ingenieros jóvenes que se quedan en casa tienen una oportunidad más allá de enrolarse en una empresa puntera del sector: liderarla. 

Disclaimer: un científico jefe no es CTO. No está de más recordar una diferencia entre puestos que suelen confundirse: un científico jefe no es el director de tecnología. Mientras que el primer perfil investiga, explora y planifica a medio y largo plazo sin tocar productos ni comercialización, el segundo gestiona equipos, diseña arquitectura y cumple objetivos de negocios. 

Confundir ambos perfiles o mezclarlos, como recuerda el SMCP que hicieron Alibaba o Baidu, acaba subordinando a la ciencia a la urgencia del mercado. En cualquier caso, es un puesto frágil en una empresa que no tiene claro para qué lo necesita. 

En Xataka | China mira a la FP: por qué cada vez más estudiantes de la generación Z prefieren los oficios a los títulos universitarios

En Xataka | Si España quiere imitar a China y ser un "país de ingenieros", este mapa revela hasta qué punto tiene un problema

Portada |  y Hyundai Motor Group y cottonbro studio 



via Robótica e IA - Xataka https://ift.tt/Amiw5GI

viernes, 20 de febrero de 2026

Anthropic vive un momento dulce pero ha tomado una decisión que amenaza con comprometer su futuro: no a todo el uso militar

Anthropic vive un momento dulce pero ha tomado una decisión que amenaza con comprometer su futuro: no a todo el uso militar

La carrera por dominar la inteligencia artificial se ha ido estrechando hasta dejar a un puñado de actores capaces de competir al más alto nivel. Anthropic forma parte de ese grupo reducido junto a nombres como OpenAI o Google, y sus modelos Claude han ganado terreno en ámbitos como la programación. En ese gran momento, sin embargo, la compañía se enfrenta a una decisión delicada: mantener ciertos límites en el uso militar de su tecnología, aun a costa de tensar su relación con el Departamento de Defensa de Estados Unidos.

El estándar que lo cambia todo. Según Axios, citando a un alto funcionario de la administración, el Pentágono está presionando a cuatro laboratorios punteros de IA para que permitan el uso de sus modelos para “todos los fines lícitos”, incluso en áreas especialmente sensibles como el desarrollo de armas, la recopilación de inteligencia o las operaciones en el campo de batalla. Anthropic, sin embargo, no habría aceptado esas condiciones tras meses de negociaciones difíciles, lo que ha llevado al Departamento de Defensa a plantearse revisar su relación con la compañía.

Las líneas que no quiere cruzar. Frente a esa exigencia amplia, los liderados por Dario Amodei han dejado claro que mantienen límites concretos. La compañía insiste en que dos ámbitos siguen fuera de discusión. Un portavoz afirmó al mencionado medio que la empresa sigue “comprometida a utilizar IA de vanguardia en apoyo de la seguridad nacional de EEUU”, pero matizó que las conversaciones con el Departamento de Defensa se han centrado en “nuestros límites estrictos en torno a las armas totalmente autónomas y la vigilancia doméstica masiva”, y que esas cuestiones no se “relacionan con las operaciones actuales”.

El episodio que terminó de elevar la tensión. The Wall Street Journal aseguró, citando a personas con conocimiento del tema, que Claude se utilizó la una operación militar de EEUU en Venezuela para capturar a Nicolás Maduro a través de la relación con Palantir. En ese mismo texto, desde la compañía de IA respondieron que no pueden hacer comentarios sobre si su tecnología se utilizó en una operación militar específica, clasificada o no. Y añadió que cualquier uso, ya sea en el sector privado o en el Gobierno, debe cumplir sus políticas de uso.

Lo que está en juego. Más allá de ese episodio, Axios informó de que desde el ámbito militar estadounidense “todo está sobre la mesa”, incluida la posibilidad de reducir o incluso romper la relación con Anthropic. El mismo alto funcionario citado por el medio añadió que, si se opta por ese camino, tendría que haber “una sustitución ordenada”, lo que sugiere que el proceso demandaría cierta cantidad de tiempo. WSJ aporta otro dato interesante: el año pasado se firmó un contrato de 200 millones de dólares entre Anthropic y el Departamento de Defensa.

El fondo de la disputa. En un momento en el que las compañías de IA buscan consolidar ingresos, justificar valoraciones y demostrar utilidad en entornos críticos, la relación con el sector de defensa es un escaparate y una fuente de negocio de primer orden. Al mismo tiempo, también es un terreno donde los límites éticos y estratégicos se vuelven más visibles. La decisión de Anthropic de mantener ciertas restricciones puede reforzar su identidad como empresa orientada a la seguridad, pero también limitar su acceso a contratos millonarios.

Imágenes | Anthropic | Oleg Ivanov

En Xataka | Los centros de datos en el espacio prometen salvar el planeta. Y también arruinar la órbita terrestre



via Robótica e IA - Xataka https://ift.tt/NOjC1Qv

Los millennials usaban el término "TL;DR". La generación Z está lo está sustituyendo por algo más radical: "AI;DR"

Los millennials usaban el término "TL;DR". La generación Z está lo está sustituyendo por algo más radical: "AI;DR"

El scroll infinito, las redes sociales y la IA ha hecho que nuestra atención sea un bien escaso demasiado valioso como para ir repartiéndolo alegremente en contenidos sin sustancia. Los millennials se acostumbraron a pedir resúmenes rápidos con el término "TL;DR" (Too Long; Didn't Read). El resumen: mucho texto.

La generación Z, transgresora y acorralada por la IA, ha encontrado otra forma de filtrar lo que merece o no su atención. Si un contenido parece generado por IA, se despacha con solo cinco caracteres: "AI;DR" (AI, didn’t read). Esta etiqueta se usa para marcar contenido que se percibe como "slop". Relleno generado con IA que hace perder el tiempo sin aportar un valor real.

Detrás de esta etiqueta hay hartazgo, pero también una forma de defender algo tan básico como querer leer a personas que se han tomado la molestia de escribir un texto.

De "demasiado largo" a "demasiado artificial"

Tony "Sid" Sundharam, cofundador de la app Sink It, definía en su blog la esencia del nuevo término: "Para mí, escribir es la ventana más directa a cómo alguien piensa, percibe y comprende el mundo". Para una parte creciente de jóvenes, delegar esa ventana de humanidad en una IA rompe el pacto de honestidad entre quien escribe y quien lee.

De fondo que da latente una idea mucho más potente: "¿Por qué debería molestarme en leer algo que a otro no le interesa escribir?".

"TL;DR" nació, como hacen los memes en internet, como una broma interna de foros y redes. Una forma de admitir que se había superado el balance esfuerzo-recompensa. El texto era demasiado largo para dedicarle tiempo. Con el tiempo se convirtió en una especie de guiño generacional: había mucha información, poco tiempo y una paciencia limitada para los bloques de texto infinitos.

"AI;DR" reutiliza esa misma estructura, pero cambia el paradigma. Ahora el problema ya no es la longitud (o al menos no es el motivo principal), ahora el problema es el origen del contenido.

La idea no es que el texto sea extenso, sino que parezca generado por una IA, sin voz propia, sentido crítico ni experiencia detrás. Cuando alguien etiqueta así un texto, no está pidiendo un resumen. Está diciendo que ni siquiera vale la pena empezar a leerlo.

Hace unos días, mi compañero Javier Lacort, contaba que la IA nos está condicionando a buscar el botón "resumir" en todos los contenidos para ahorrar tiempo, privándonos así del lujo de disfrutar de una lectura en toda su extensión, con sus matices y sus lecturas entre líneas. Puede que la IA sea más eficiente ahorrando tiempo de lectura, pero se cobra el peaje de la esencia del mensaje.

El cansancio ante el "slop" de la IA

En el nuevo paradigma de consumo rápido de contenido, "AI;DR" se convierte en una especie de aviso entre humanos. Una forma rápida de señalar que algo huele a automatizado y que quizá sea mejor pasar de largo. Cuando alguien responde "AI;DR" a un texto, está haciendo algo más que quejarse de la IA.

Como explicaba Sid en su blog, que alguien haya tenido una idea, se la haya peleado frente a una página en blanco y haya invertido tiempo en ordenarla, son "pruebas rudimentarias de trabajo de una era pre‑IA", pequeñas pruebas de esfuerzo que legitiman al autor ante el lector.

Frente a eso, la famosa "dead internet theory". Máquinas escribiendo para máquinas.

​La misma generación que vive rodeada de automatización y asistentes inteligentes está poniendo en valor lo que todavía no se puede falsificar tan fácilmente: el estilo propio, las ideas raras, las frases imperfectas que delatan que detrás hay una persona.


TL;DR:
La generación Z ha popularizado "AI;DR" (AI; didn't read) como evolución del clásico "TL;DR" de los millennials, para descartar rápidamente textos que parecen generados por IA o relleno artificial sin voz humana auténtica.

En Xataka | Mientras las empresas presumen de eficiencia por la IA. La generación Z solo ve contratos temporales y puertas cerradas

Imagen | Unsplash (Firza Pratama)



via Robótica e IA - Xataka https://ift.tt/mVP1kTS

Gemini 3.1 Pro acaba de destronar a Claude: Google vuelve a liderar la carrera de la IA y tiene algo que ningún rival puede igualar

Gemini 3.1 Pro acaba de destronar a Claude: Google vuelve a liderar la carrera de la IA y tiene algo que ningún rival puede igualar

Google ha lanzado Gemini 3.1 Pro, una actualización incremental de su modelo estrella que llega cargada de sorpresas. Y es que según marcan sus benchmarks, el modelo tiene bastante más que decir de lo que parece. En razonamiento abstracto, Google quiere comenzar a marcar el ritmo sobre Anthropic y OpenAI. Pero su as en la manga no es solo ese, pues tienen algo que el resto de startups no pueden replicar: todo su ecosistema y cómo están integrando la IA en él.

Lo que acaba de pasar. Apenas tres meses después de lanzar Gemini 3 Pro, Google ha publicado Gemini 3.1 Pro. Lo curioso es que el salto es bastante más impactante de lo que puede parecer si nos fijáramos solamente en ese “.1” que tiene delante. Según la compañía, el nuevo modelo mejora de forma significativa el razonamiento del anterior y supone la base de inteligencia que ya alimentaba la actualización de Gemini 3 Deep Think, presentada la semana pasada.

Está disponible desde hoy en la app de Gemini, en NotebookLM (para suscriptores de los planes Pro y Ultra), en la API a través de AI Studio y en entornos empresariales mediante Vertex AI.

Gemini 3 1 Pro Benchmarks Gemini 3 1 Pro Benchmarks

Datos. En el benchmark ARC-AGI-2, diseñado para evaluar la capacidad de resolver patrones lógicos completamente nuevos, sin posibilidad de haberlos visto durante el entrenamiento, Gemini 3.1 Pro ha alcanzado un 77,1%. Para ponerlo en contexto: Gemini 3 Pro se quedaba en el 31,1%, mientras que Claude Sonnet 4.6 marcaba un 58,3% y Opus 4.6 un 68,8%. Es decir, Google no solo ha cerrado la brecha, sino que ha pasado por encima. 

Cabe destacar que nunca antes una revisión intermedia de sus modelos había registrado un avance tan pronunciado en razonamiento.

Qué dicen los números en el resto de benchmarks. En la tabla comparativa que acompaña al anuncio, Gemini 3.1 Pro encabeza la mayoría de categorías evaluadas: obtiene el mejor resultado en Humanity's Last Exam sin herramientas (44,4%), lidera en GPQA Diamond con un 94,3% en conocimiento científico, y dobla al modelo anterior en APEX-Agents, el benchmark de tareas de larga duración. También destaca en MCP Atlas (flujos de trabajo multistep), BrowseComp (búsqueda agéntica) y MMMLU (preguntas y respuestas multilingüe).

Cabe recalcar que, según estos benchmarks, no es mejor en todo: en GDPval-AA Elo, que evalúa tareas de entornos laborales en el mundo real, Claude Sonnet 4.6 supera a Gemini 3.1 Pro con 1.633 puntos frente a 1.317. Y en SWE-Bench Verified, la prueba de programación con agentes, Opus 4.6 se cuela con un 80,8% frente al 80,6% de Google. No obstante, en el cómputo global, el balance favorece claramente al nuevo modelo de Google. 

En Arena Leaderboard (la clasificación basada en votaciones de usuarios) todavía sitúan a Claude Opus 4.6 por delante en texto y código, aunque aquí cobra más protagonismo “las sensaciones” de cada usuario a la hora de valorar, que otra cosa.

Una clara ventaja competitiva. El argumento más sólido a favor de Google no tiene que ver ni siquiera con la potencia de su último modelo. La compañía no necesita convencerte de que uses su IA: ya está donde tú estás. Search, Gmail, YouTube, Android, Docs, Drive, Google Fotos, Maps… Su IA no depende de que abras una aplicación específica, sino que se integra en el ecosistema que millones de personas ya utilizan a diario. 

Para el resto de startups (OpenAI, Anthropic…), necesitan que utilices sus modelos en entornos específicos (ChatGPT, Claude). Google simplemente ya está ahí. Es un moat que quizás ni siquiera el mejor modelo del mundo podría barrer ahora mismo.

Y luego está lo del precio. Gemini 3.1 Pro llega a los usuarios con suscripción a Google AI Plus, Pro y Ultra, aunque también lo puedes probar de forma limitada en el plan gratuito. Cabe destacar que de momento está en versión preeliminar.

La narrativa que Google quiere que tengamos en la cabeza es que, por un módico precio, tienes acceso a ese modelo, más todo lo que ofrece la compañía en su ecosistema, incluyendo almacenamiento. Eso, ahora mismo, es muy difícil de superar. Además, para desarrolladores, la API también se ofrece a un precio muy competitivo. Entonces, desde el punto de vista práctico y desde el bolsillo, Google lo está dando todo para que todos sus usuarios sigan utilizando su ecosistema, con la mejor IA o sin ella.

El ”.1”. La carrera de la IA lleva meses con un ritmo frenético. Y lo más interesante de todo es que Google, que llegó tarde a la carrera, lleva un año de infarto en el que ha estructurado todo el estropicio que tenía con su IA. El salto de Gemini 3 a 3.1 en razonamiento es mayor que el que muchos rivales han logrado entre versiones completas. Y lo ha hecho manteniendo la ventaja de ser la empresa que controla los puntos de entrada más relevantes a Internet. Aún queda ver cómo solucionan la monetización de su inteligencia artificial, pero desde luego se han puesto las pilas.

Imagen de portada | Alex Dudar y Google

En Xataka | La científica que hizo posible la IA que conocemos hoy acaba de recaudar 1.000 millones. Su nuevo objetivo es enseñarle a ver el espacio



via Robótica e IA - Xataka https://ift.tt/efgJBWU

Los centros de datos en el espacio prometen salvar el planeta. Y también arruinar la órbita terrestre

Los centros de datos en el espacio prometen salvar el planeta. Y también arruinar la órbita terrestre

La wikipedia debería actualizar su página dedicada a la palabra "ambición" para poner la foto de Elon Musk. El magnate ha anunciado un megaproyecto según el cual sus dos empresas SpaceX y xAI trabajarán juntas para lanzar una constelación de un millón de satélites que funcionarán como centros de datos en órbita. El problema es que aunque la idea tiene sus ventajas, también tiene un impacto potencialmente terrible para el futuro de nuestro planeta.

Eficiencia energética. Esa es la gran ventaja de los centros de datos espaciales que propone Musk. En el espacio los paneles solares pueden rendir de forma óptima sin los obstáculos que plantean la atmósfera y el clima terrestre. Según SpaceX, la reducción del coste de los lanzamientos de sus cohetes hacen que el espacio se convierta en una alternativa perfecta para los centros de datos de IA.

El plan. El proyecto que se ha presentado a la Comisión Federal de Comunicaciones (FCC) de EEUU consiste en situar estos satélites en órbitas sincrónicas al sol entre los 500 y los 2.000 km de altura. Eso permitiría a los satélites actuar como nodos interconectados entre ellos y también con los satélites de la red Starlink mediante enlaces láser ópticos. El plan, eso sí, tendrá que superar retos importantes como el de la refrigeración. Disipar el calor generado por millones de chips en el vacío del espacio es complejo, ya que los satélites actúan como "termos naturales".

Y la radiación, ¿qué? También habrá que solventar el problema de la radiación cósmica. Los chips avanzados son muy vulnerables a errores de procesamiento causados por partículas energéticas. Parece que los procesadores de IA son sorprendentemente resistentes a este tipo de problema, pero el despliegue de dichos chips a escala masiva en el espacio podría introducir nuevos conflictos.

De reparación in situ, nada. En los centros de datos actuales si surge algún problema un técnico se puede desplazar físicamente si hace falta para solucionarlo. En el espacio la reparación física es inviable, lo que obligaría auna estrategia de asumir que esos chips que acaben funcionalmente quedarán totalmente perdidos. SpaceX tendría que lanzar sustitutos continuamente para compensar esa "mortalidad" de los componentes, lo que complica la logística y los costes. Hay perspectivas optimistas en este sentido, y a algunos las cuentas sí les salen.

Síndrome de Kessler. Pero sobre todo hay una preocupación latente en el ámbito de la seguridad espacial. Lanzar un millón de satélites nuevos en órbitas ya congestionadas hace que la probabilidad de colisiones en cadena se multiplique, validando la teoría propuesta en el síndrome de Kessler. Una sola colisión importante podría generar una nube de escombros que tardaría décadas en despejarse, lo que además amenazaría misiones de monitorización climática o incluso las comunicaciones globales. Ya hay ideas para "regular el tráfico" orbital coordinándolo, y SpaceX tiene su propio sistema de "percepción de situación", Stargaze, para evitar problemas, pero claro, ningún sistema es del todo perfecto.

Contaminación atmosférica. Sin olvidar que el impacto atmosférico es igualmente preocupante. Se estiman unos 25.000 vuelos de las Starship, y el reingreso de satélites que terminan su ciclo de vida o mueren antes de tiempo haría que se liberasen metales y partículas en la atmósfera superior. Según los expertos, estos residuos químicos podrían dañar la capa de ozono y provocar consecuencias climáticas inciertas.

No se ve nada. Los astrónomos, que ya habían protestado por Starlink, tendrán un problema aún máyor con esta nueva idea. La amenaza a la astronomía es clara, porque dada la altitud y tamaño de estos satélites, es probable que formen una banda brillante visible incluso a simple vista, dificultando la observación científica e incluso cambiando la forma en la que vemos el atardecer. La computación orbital puede tener ventajas, pero antes de ponerla en marcha deberíamos recordar que el espacio —sobre todo, el que vemos— es un recurso compartido y finito.

En Xataka | El dominio de Starlink en el espacio empieza a moverse: otra compañía ya tiene permiso para una constelación de 4.000 satélites




via Robótica e IA - Xataka https://ift.tt/81zME97