sábado, 13 de diciembre de 2025

El hito de ChatGPT no es ser una buena IA: es haberse convertido en una de las mayores captadoras de atención de la historia

El hito de ChatGPT no es ser una buena IA: es haberse convertido en una de las mayores captadoras de atención de la historia

A pesar de que las cuentas en OpenAI no están tan sanas como le gustaría a Sam Altman, realmente no está siendo un problema para seguir recaudando dinero de sus inversores. La lluvia de millones que se están gastando en ChatGPT llama la atención por la forma en la que buscan obtener retorno: mediante la atención de los usuarios. Y tiene más sentido de lo que puede parecer en un primer momento.

7.000 millones de visitas al mes. Un reciente análisis de Similarweb sobre la IA generativa nos ha puesto sobre la mesa cifras muy interesantes que nos vienen muy bien para medir el pulso al internet de nuestros días. En septiembre de 2025, los servicios de IA sumaron 7.000 millones de visitas al mes, lo que supone un crecimiento del 76% respecto al año anterior y corona a las IAs como uno de los principales rivales de las redes sociales en términos de tráfico.

ChatGPT sigue siendo el líder indiscutible: en el mencionado mes llegó a los 5.900 millones de visitas, muy cerca de Instagram, con 6.500 millones. Las primeras posiciones son para Google (con 82.600 millones), YouTube (28.700 millones) y Facebook (11.400 millones).

Visitas Mensuales Web Visitas Mensuales Web

Todo por nuestra atención. En la era de internet, existe algo más valioso que el propio dinero: captar la atención de los usuarios. Es el motivo por el que las redes sociales son tan atractivas para las empresas de cualquier tamaño, convirtiéndose más en un escaparate comercial que en lugar donde contar nuestras vidas.

También, esta es la misma razón por la que los ‘chatbots’ se mantienen en pie, a pesar de que pierden dinero cada vez que alguien los usa. Mientras, las grandes tecnológicas están recurriendo al endeudamiento. No se quieren quedar fuera de la burbuja de la IA y el motivo ahora está más claro que nunca.

La “columna vertebral” de internet. No solo es que ChatGPT ha logrado convertirse en la plataforma de la historia digital moderna que ha ascendido más rápido, colocándose en el podio de los cinco sitios web más importantes del mundo. Lo verdaderamente importante de esto es que han conseguir captar lo más valioso: la atención del usuario.

El siguiente paso: llenar los ‘chatbots’ de anuncios. Ante este paradigma, OpenAI se está planteando algo que ya era un secreto a voces: vestir a ChatGPT con anuncios. Una posibilidad que serviría para monetizar la herramienta, especialmente para sacar rédito económico de los usuarios de los planes gratuitos, pero que supone muchas dudas en el terreno de la privacidad y la neutralidad de las respuestas ofrecidas.

¿Beneficios para cuándo? Mientras, las tecnológicas continúan aumentando la inversión, incluso aunque los beneficios no lleguen directamente. El aguinaldo, en este caso, llega en forma de un crecimiento meteórico y varios miles de millones de visitas que demuestran que hay un motivo para ser optimista con la IA.

Imágenes | Generadas con Gemini

En Xataka | Alguien ha echado un vistazo a la burbuja de las puntocom y ha comparado sus datos con los de la IA. Y no es optimista

En Xataka | OpenAI necesita recaudar una cantidad absurda de dinero para poder seguir perdiendo dinero



via Robótica e IA - Xataka https://ift.tt/TqG83sV

Hay gente investigando si las IAs son mejores hackers que los hackers humanos. Y no tenemos noticias muy bonitas

Hay gente investigando si las IAs son mejores hackers que los hackers humanos. Y no tenemos noticias muy bonitas

Las tecnológicas no paran de hablar de la AGI, aunque hay muchas dudas de que esté tan cerca como nos quieren vender. La inteligencia artificial general es aquella que será capaz de superar al ser humano en todas las facetas del conocimiento. No sabemos logrará superarnos en todo, pero ya hay un nicho en el que está adelantándonos: el hacking.

El experimento. Fue llevado a cabo por investigadores de la Universidad de Stanford y lo hemos conocido a través de un reportaje del Wall Street Journal. Lo que hicieron fue desarrollar un bot de hacking llamado Artemis cuyo objetivo es escanear la red en busca de posibles bugs o vulnerabilidades por las que pueda colarse. 

Liberaron a Artemis en la red de ingeniería de la propia universidad y la enfrentaron a diez pentesters, hackers profesionales que se dedican a simular ataques para encontrar bugs y después corregirlos. El bot tenía un 'kill switch' para poder apagarlo en cualquier momento si la cosa se complicaba y los hackers humanos tenían instrucciones de forzar y probar, pero sin llegar a penetrar en la red.

Los resultados. Para sorpresa de sus creadores, Artemis logró resultados excelentes, superando a nueve de los diez hackers humanos. El bot consiguió encontrar bugs mucho más rápido que sus contrincantes y, sobre todo, a un precio mucho más bajo. Se estima que un pentester cobra entre 2.000 y 2.500 dólares por día, mientras que Artemis sólo "cobra" 60 dólares la hora. 

Otra "mirada". Artemis no lo hizo todo bien. Al menos un 18% de sus reportes de bugs fueron falsos positivos y también ignoró un bug muy obvio en una web los hackers humanos vieron a la primera. En cambio, detectó un bug que ningún humano había detectado. El motivo es que el fallo estaba en una web que no funcionaba en Chrome ni Firefox, los navegadores que usan los hackers. Artemis no es una persona y no usa navegadores, sino que empleó un programa y pudo leer la web, encontrando el bug.

La IA y el hacking. Los ciberdelincuentes llevan tiempo usando la IA para hacer el malware más efectivo. Hace poco Anthropic descubrió que un grupo de hackers chinos estaba usando Claude Code para una campaña de espionaje a gran escala. Lo llamativo es que Claude funcionaba como un agente que se encargaba de todo el ciclo de ataque, no sólo una parte del proceso. 

IA para hacer el bien. La IA está reduciendo la barrera de entrada a desarrollar ataques, pero también puede usarse a modo de protección. Investigaciones como la de Stanford ponen de manifiesto que la IA también puede usarse para poner a prueba sistemas inseguros, encontrar bugs y así poder parchearlos. El problema que se presenta es dónde quedará el papel de profesionales como los pentesters si IA acaba haciendo su trabajo por mucho menos dinero.

Imagen | Sora Shimazaki, Pexels 

En Xataka | Los agentes son la gran promesa de la IA. También apuntan a convertirse en la nueva arma favorita de los ciberdelincuentes



via Robótica e IA - Xataka https://ift.tt/5UpwPLy

viernes, 12 de diciembre de 2025

La gente está tan, pero tan harta de la IA en Windows 11 que un desarrollador ha creado una app para eliminarla

La gente está tan, pero tan harta de la IA en Windows 11 que un desarrollador ha creado una app para eliminarla

Un usuario de GitHub llamado zoicware acabó tan harto de la presencia de herramientas de IA en Windows 11 que acabó tomando una decisión: erradicarlas del sistema operativo. Y como hacerlo a mano era un infierno, se le ocurrió algo que le facilitó la vida a él y que también se la puede facilitar a quienes estén en esa situación: crear una app llamada RemoveWindowsAI para elminar todas esas funciones.

Ya está bien de IA, Microsoft.  La empresa de Redmond quiere que Windows 11 esté lleno de IA, y desde hace tiempo ha ido añadiendo más y más funciones que permiten aprovechar esta tecnología de forma nativa tanto en el sistema operativo como en algunas aplicaciones. Lo comenzamos a ver con la polémica Windows Recall, pero más tarde esa obsesión se ha trasladado a la app nativa de Copilot, a Copilot integrado en Edge o en la opción Creator de la legendaria aplicación Paint.

Nadie pidió esto. Pavan Davuluri, actual presidente de la división de Windows, publicó en X un mensaje en el que explicó que "Windows está evolucionando hacia un sistema operativo agéntico". La intención de Microsoft es clara, pero el recibimiento del mensaje fue justo el contrario al que la empresa hubiera esperado: la gente simplemente no quiere esas opciones de IA porque no las pidió.

Una app para dejar a Windows 11 sin IA. Hace unos meses un usuario de GitHub llamado zoicware publicó allí un proyecto singular llamado RemoveWindowsAI. En la información de la herramienta este desarrollador explica cómo "La actual compilación 25H2 de Windows 11 y las futuras compilaciones irán incluyendo cada vez más funciones y componentes de IA. Este script está dirigido a eliminar TODAS esas características para mejorar la experiencia de usuario, además de la privacidad y la seguridad".

Qué hace RemoveWindowsAI. El script, que se puede descargar para luego ejecutarlo como administrador desde una consola PowerShell, se encarga de eliminar los siguientes componentes y funciones:

  • Deshabilita Copilot
  • Deshabilita Recall
  • Deshabilita Input Insights y la recolección de datos mecanografiados
  • Deshabilita Copilot in Edge
  • Deshabilita Image Creator en Paint
  • Elimina AI Fabric Service
  • Deshabilita AI Actions
  • Deshabilita AI in Paint
  • Deshabilita Voice Access
  • Deshabilita AI Voice Effects
  • Deshabilita AI in Settings Search

Pero aún hay más. Además de esas acciones, el script desactiva la reinstalación de los paquetes relacionados con funciones de IA para que no se vuelvan a ofrecer, oculta esos componentes en los Ajustes de Windows 11 y también deshabilita otras funciones como las de la nueva opción de reescritura IA en el bloc de notas. Hay algunas funciones de IA que no se pueden eliminar con el script, pero su creador también indica cómo deshacerse de ellas manualmente.

Hasta un vídeo de uso. Este desarollador también ha querido facilitar el acceso a esta herramienta añadiendo documentación escrita y publicando un vídeo de 11 minutos en el que repasa el objetivo del proyecto y explica cómo utilizarlo.

Mala señal. Las críticas a esa intención de Microsoft convertir a Windows 11 en un sistema operativo lleno de IA son claras, y este script es la última demostración de ello. No parece que la empresa vaya a dar marcha atrás con esta tendencia. Mustafa Suleyman, responsable de la división de IA en Microsoft, explicó en X que estaba alucinado con el hecho de que a la gente no le impresionara poder hablar con su PC tranquilamente gracias a la IA. "¡Crecí jugando a Snake en un móvil de Nokia!", explicaba. Curiosamente, Elon Musk le contestó indicando que su argumento le parecía bueno.

En Xataka | Hay un motivo por el que los PC con IA no están haciendo daño a Apple: nadie había pedido PCs con IA



via Robótica e IA - Xataka https://ift.tt/QmWdALi

jueves, 11 de diciembre de 2025

OpenAI lanza GPT-5.2 semanas después de GPT-5.1: una maniobra que apunta a recortar terreno frente al Gemini 3 de Google

OpenAI lanza GPT-5.2 semanas después de GPT-5.1: una maniobra que apunta a recortar terreno frente al Gemini 3 de Google

En la carrera por liderar el desarrollo de la inteligencia artificial, el ritmo se ha convertido en una sucesión de movimientos encadenados. El 12 de noviembre llegaba GPT-5.1, una actualización orientada a pulir la experiencia y mantener satisfechos a los usuarios. Apenas unos días más tarde, el 18 de noviembre, Google respondía con Gemini 3, una evolución de su modelo estrella que dejó muy buenas sensaciones entre quienes empezaron a probarlo.

A raíz de ese lanzamiento comenzaron a circular rumores: la startup dirigida por Sam Altman habría activado un supuesto “código rojo” al ver cómo su rival directo tomaba ventaja. Y este parece ser el primer resultado de ese movimiento interno. No ha pasado ni un mes desde la anterior actualización de su modelo insignia y ya está aquí GPT-5.2. La promesa aquí es resolver algunos problemas conocidos, disminuir la latencia y ganar en razonamiento.

Una evolución dentro de la serie 5. GPT-5.2 aparece como una versión diseñada para impulsar el trabajo del conocimiento, con avances en codificación, visión, análisis documental y proyectos de varios pasos. OpenAI lo incorpora como la evolución directa de GPT-5.1, no como un salto generacional. De acuerdo con la empresa, la actualización mejora la gestión de contextos largos, reduce errores y aumenta la capacidad de coordinar herramientas.

Capas de uso más diferenciadas. En GPT-5.2, las tres variantes habituales quedan algo más diferenciadas en su uso, no por funciones nuevas, sino por la forma en que integran las mejoras anunciadas por OpenAI. Thinking absorbe gran parte del avance en razonamiento, manejo de documentos extensos y coordinación de herramientas. Pro eleva el listón en tareas especializadas, sobre todo en código y cálculos técnicos. Instant, por su parte, se beneficia de explicaciones más estables y de una reducción de errores. El resultado es una separación más clara entre tareas cotidianas, trabajos complejos y necesidades expertas.

Una mejora visible en múltiples evaluaciones. OpenAI presenta cifras que muestran a GPT-5.2 por encima de GPT-5.1 en ámbitos muy distintos, desde razonamiento científico hasta programación y tareas de conocimiento. En GDPval, la evaluación que mide trabajos bien especificados en 44 ocupaciones, el modelo alcanza un 70,9% de victorias o empates frente a profesionales humanos. En GPQA Diamond sube hasta el 92,4% y en AIME 2025 logra un 100%. La tendencia se repite en pruebas técnicas como FrontierMath o ARC-AGI, donde el rendimiento también se incrementa respecto a la versión anterior.

Rendimiento Gpt 5 2 Rendimiento Gpt 5 2

Las mejoras se aprecian cuando se pasa de las cifras a tareas del día a día. En evaluaciones internas sobre trabajos propios de analistas financieros, como la elaboración de modelos de tres estados o simulaciones de compra apalancada, Thinking eleva su puntuación media del 59,1% al 68,4%. La compañía también promete avances en la generación de hojas de cálculo y presentaciones con una estructura más clara. Además, empresas como Notion, Box, Shopify o Harvey, según OpenAI, han observado mejoras en razonamiento de largo recorrido y en el uso de herramientas en sus propios flujos de trabajo. Si estos resultados se consolidan en entornos reales, podrían reducir el trabajo manual en procesos que requieren precisión y coherencia.

Un entorno más estable para desarrolladores. GPT-5.2 Thinking, afirman, alcanza un rendimiento más alto en pruebas de software exigentes, especialmente en las que evalúan la capacidad de aplicar cambios completos y coherentes en proyectos reales. La compañía indica que el modelo coordina mejor secuencias de pasos, algo que se refleja en evaluaciones internas y en feedback de plataformas como Windsurf o Charlie Labs.

Menos errores a la vista. OpenAI afirma que GPT-5.2 Thinking reduce en torno a un 30% relativo la frecuencia de respuestas con errores respecto a GPT-5.1. Se trata de una mejora que asocian a un razonamiento más estable y a una mayor capacidad para detectar fallos antes de generar la respuesta final. La compañía señala también avances en la gestión de situaciones sensibles, como conversaciones vinculadas a malestar emocional o salud mental. Aunque recuerda que el modelo sigue siendo imperfecto, sostiene que estos ajustes contribuyen a una experiencia más fiable en el uso cotidiano.

Dónde puedes usar GPT-5.2 hoy. OpenAI indica que GPT-5.2 comenzará a desplegarse en ChatGPT para los planes de pago, incluidos Plus, Pro, Go, Business y Enterprise. En la API, GPT-5.2 Thinking está disponible como gpt-5.2 y la versión Instant aparece como gpt-5.2-chat-latest. La compañía también ha prometido mantener GPT-5.1 durante tres meses en ChatGPT antes de retirarlo de los planes de pago. En cuanto a precios, GPT-5.2 se sitúa en 1,75 dólares por millón de tokens de entrada y 14 dólares por millón de salida, más caro que GPT-5.1, aunque OpenAI sostiene que su mayor eficiencia reduce el coste final en tareas exigentes.

Imágenes | OpenAI 

En Xataka | OpenAI sabe que necesita seguir generando memes y virales. Por eso está dispuesta a pagar mucho dinero a Disney por su contenido



via Robótica e IA - Xataka https://ift.tt/Wg9n1mM

En DeepSeek ya están entrenando su próximo modelo de IA: con chips de NVIDIA de contrabando, según The Information

En DeepSeek ya están entrenando su próximo modelo de IA: con chips de NVIDIA de contrabando, según The Information

La startup china de inteligencia artificial DeepSeek habría estado entrenando su siguiente modelo con miles de chips Blackwell de NVIDIA, los más avanzados del mercado y cuya exportación a China está expresamente prohibida por Estados Unidos. Así lo afirma The Information, citando a seis fuentes cercanas a la compañía, que aseguran que los chips habrían llegado al país mediante contrabando.

El supuesto esquema de contrabando. Según cuenta el medio, los chips se habrían adquirido legalmente a través de centros de datos en países donde su venta está permitida. Una vez instalados e inspeccionados por NVIDIA o sus distribuidores autorizados como Dell o Super Micro Computer, los servidores se habrían desmontado y los componentes se habrían enviado a China en piezas separadas, pasando las aduanas bajo declaraciones falsas. Este método permitiría que no quedase rastro del usuario final.

La respuesta de NVIDIA. La compañía ha negado rotundamente estas acusaciones mediante un comunicado: "No hemos visto ninguna evidencia ni hemos recibido avisos de 'centros de datos fantasma' construidos para engañarnos a nosotros y a nuestros socios OEM, que luego sean desmantelados, contrabandeados y reconstruidos en otro lugar". NVIDIA añade que, aunque este tipo de contrabando "parece inverosímil", investiga cualquier información que recibe al respecto.

Por qué los chips Blackwell son tan valiosos para DeepSeek. Los procesadores Blackwell de NVIDIA comenzaron a distribuirse en el último trimestre de 2024 y empresas como Google, Microsoft y OpenAI fueron las primeras en recibirlos. Estos chips incluyen hardware especializado para acelerar la computación dispersa (Sparse Computing), ejecutando este tipo de cálculos hasta el doble de rápido que los métodos tradicionales.

Según The Information, DeepSeek habría estado utilizando una técnica llamada "atención dispersa" (sparse attention) que activa solo ciertas partes del modelo para responder a peticiones en lugar del modelo completo, lo que reduce significativamente los costes de inferencia. Los Blackwell serían especialmente útiles para este enfoque, aunque su aplicación en modelos más grandes está resultando más complicada de lo previsto.

Contexto geopolítico. El presidente estadounidense Donald Trump llegó a presumir ante el líder chino Xi Jinping de que los chips Blackwell están "10 años por delante de cualquier otro chip" y que no permitiría que China accediese a ellos. Sin embargo, esta misma semana Trump autorizó la venta de los chips H200 de NVIDIA a China, una generación anterior a los Blackwell, aunque Pekín aún se está pensando si permite su adquisición. Desde luego esta medida podría reducir la demanda de chips Blackwell de contrabando en el país asiático.

Las dificultades de hacer cumplir las restricciones. La mayoría de los chips de NVIDIA se fabrican en Taiwán y se venden a través de una compleja red de distribuidores en todo el mundo. Jacob Feldgoise, analista del Centro para la Seguridad y Tecnologías Emergentes de la Universidad de Georgetown cuenta al medio que "la carga de la prueba para hacer cumplir y procesar casos de contrabando de chips es bastante alta. Se necesitan pruebas claras y convincentes".

DeepSeek mantiene silencio. La startup china no ha respondido a las acusaciones. Anteriormente, DeepSeek había entrenado sus modelos con chips más antiguos de NVIDIA: 10.000 unidades A100 almacenadas por su empresa matriz, el fondo de cobertura High-Flyer Capital Management, antes de que entrasen en vigor las restricciones de exportación estadounidenses en 2022. Los documentos de investigación de la compañía del año pasado indicaban que también había utilizado chips Hopper, la generación inmediatamente anterior a Blackwell.

DeepSeek se enfrenta a varios palos por parte de Washington: en abril, el Comité Selecto de la Cámara de Representantes sobre el Partido Comunista Chino publicó un informe calificando a la startup como "una amenaza profunda" para la seguridad nacional estadounidense, acusándola de usar ilegalmente chips de NVIDIA de exportación controlada.

Presión regulatoria. NVIDIA confirmó esta semana que ha desarrollado una tecnología de verificación de ubicación mediante software que podría indicar en qué país operan sus chips, aunque aún no ha sido lanzada. Esta herramienta utilizaría las capacidades de computación de sus GPU para monitorizar el rendimiento y ubicación de los procesadores. La compañía ha aclarado que se trata de un software de solo lectura que no permite a NVIDIA controlar remotamente los chips ni desactivarlos. "No hay interruptor de apagado", contaba la compañía.

Imagen de portada | DeepSeek, Xataka con Mockuuups Studio y NVIDIA

En Xataka | Si alguien pensaba que Europa no pintaba nada en la carrera por la IA, Mistral tiene algo que decirle



via Robótica e IA - Xataka https://ift.tt/R7XErWm

Hay un montón de gente yendo a las bibliotecas a buscar libros que no existen: se los inventó una IA

Hay un montón de gente yendo a las bibliotecas a buscar libros que no existen: se los inventó una IA

El contenido basura hecho con IA está colándose en todos los rincones de internet: está arruinando la autenticidad de Etsy, la Wikipedia, nos confunde al buscar piso en Idealista y por supuesto plaga las redes sociales. El 'slop' de la IA está llegando al mundo real, concretamente a las bibliotecas.

Qué está pasando. Lo cuentan en Scientific American. Hay personas acudiendo a bibliotecas y archivos en busca de libros o artículos científicos que no aparecen por ningún sitio por una razón: no existen. Cruz Roja Internacional ha alertado de la situación y responsabiliza a herramientas de IA como Gemini, ChatGPT o Copilot. Aseguran que "Estos sistemas no realizan investigaciones, verifican fuentes ni cotejan información. Generan nuevos contenidos basándose en patrones estadísticos y, por lo tanto, pueden producir resultados inventados".

Bibliotecarios hartos. La directora de investigación de la biblioteca de Virginia estima que al menos un 15% de las consultas que reciben a través del correo son sobre documentos y trabajos generados por ChatGPT y herramientas similares. "Para nuestro personal, es mucho más difícil demostrar que no existe un registro único", asegura. Una usuaria de Bluesky relata una experiencia similar cuando un estudiante le pidió que encontrara una serie de referencias. Tras un rato buscando sin éxito, le preguntó al estudiante de dónde había obtenido la lista y confesó que venía de los resúmenes de IA de Google.

Las citas inventadas no son algo que empezara a suceder antes de ayer, en 2023 ya había discusiones al respecto. La Universidad de Seattle detectó que muchas veces es muy complicado verificar estas citas inventadas. El motivo es que la IA suele dar títulos de revistas o libros que existen, pero lo que no existe es el capítulo o número donde se encuentra la información. Lo que hace es mezclar información para que parezca convincente, cuando en realidad es un callejón sin salida.

La IA y los libros. Las referencias inventadas no son el único problema, hay bibliotecarios que también critican los libros creados enteramente con IA por ser "increíblemente malos" y recientemente hemos conocido el caso de Corea del Sur y el fracaso estrepitoso de su programa de libros escolares hechos con IA

Por otro lado tenemos el problema del copyright. Igual que con obras de arte, los libros también han sido usados para entrenar la IA sin compensar a sus autores. Un grupo de autores demandó a Anthropic por este motivo, pero el juez falló a favor de la empresa.

Papers sobre IA, hechos con IA. En un artículo de Futurism contaban que una consecuencia del slop de la IA es que los propios papers que investigan la IA están hechos con IA. Se estima que la cantidad de papers sobre IA se ha duplicado en los últimos años y revistas como NeurIPS han tenido que pedir ayuda a estudiantes de doctorado para que les ayuden a revisarlos. Hay un caso concreto de un investigador llamado Kevin Zhu que ha participado en más de 100 papers en un año, una cifra desorbitada para los expertos. Para sorpresa de nadie, muchos de estos papers son un auténtico desastre lleno de citas inventadas, errores flagrantes y a veces texto oculto para manipular los propios sistemas de revisión.

Alucinaciones. Que la IA se invente cosas es bastante habitual, son lo en la jerga de la IA se conoce como alucinaciones y uno de los puntos débiles de los modelos de lenguaje; los avances son enormes, pero la realidad es que aún no podemos fiarnos de la IA y es necesario comprobar la información. Las alucinaciones suelen ser el motivo por el que pillan a quienes usan la IA en sus trabajos, como la consultora Deloitte, que entregó un informe al gobierno australiano que contenía referencias a informes totalmente inventados

Imagen | Cottonbro studio, Pexels 

En Xataka | El nacimiento de un movimiento anti-lectura: cada vez más personas admiten utilizar la IA para resumir libros



via Robótica e IA - Xataka https://ift.tt/cLSJld8

Las gafas inteligentes encuentran su "momento iPhone" en China. La clave de su éxito: los pagos

Las gafas inteligentes encuentran su "momento iPhone" en China. La clave de su éxito: los pagos

En China, las gafas con IA permiten pagar mirando un código QR y dando una orden de voz. La propia Alibaba lanzó sus Quark por 268 dólares, integradas con Alipay para pagos y Taobao para compras. Xiaomi presentó sus gafas con IA en junio y se convirtieron en las terceras más vendidas del mundo en la primera mitad de 2025, pese a estar disponibles solo una semana.

El mercado chino de gafas inteligentes está creciendo exponencialmente en esta segunda mitad del año, según un estudio de BigOne Lab.

Por qué es importante. Tras más de una década de promesas incumplidas, las gafas inteligentes han encontrado por fin su razón de ser. Y es algo tan prosaico como pagar sin sacar el móvil del bolsillo. Y está funcionando en China como no lo había hecho nada antes en este sector.

A partir de la adopción para los pagos se va construyendo el resto de la propuesta de valor.

El contexto. La infraestructura digital china, donde hasta los ancianos usan el smartphone para todo, facilita la adopción. Los códigos QR están en todos los comercios y Meta no opera en China sin VPN, lo que ha dejado el campo libre para que las empresas locales experimenten sin competencia directa.

Sí, pero. El precio es determinante. Las gafas chinas cuestan entre 200 y 300 dólares, un precio no demasiado elevado. Xiaomi, RayNeo, Thunderobot, Kopin, Baidu y Alibaba compiten en el mercado doméstico chino.

La funcionalidad de pago no requiere pantallas muy sofisticadas ni ópticas complejas. Basta con una cámara básica, reconocimiento de voz y conexión al ecosistema de pagos. Esto abarata mucho la producción.

La gran pregunta. ¿Veremos algo similar en Europa con Bizum? Los pagos móviles aquí son menos omnipresentes que en China, pero Bizum ha alcanzado una penetración enorme en España. Si los comercios adoptasen códigos QR de Bizum, como ya hacen algunos, las gafas inteligentes podrían encontrar su utilidad práctica también aquí.

El ecosistema europeo tiene ventajas: una regulación de privacidad más estricta, la mayor confianza del consumidor en los sistemas bancarios tradicionales y una población acostumbrada a innovaciones graduales. Pero no tiene la densidad de códigos QR que hace de China el terreno perfecto para este experimento.

Entre líneas. Las empresas chinas no solo están desarrollando hardware. Están creando el caso de uso que justifica llevar gafas inteligentes todo el día, y en lugar de buscar algo espectacular y complejo, han encontrado algo mucho más simple y cotidiano: no tener que sacar el móvil del bolsillo.

Rokid presume de que sus gafas no están atadas a un solo modelo de IA generativa: funcionan con OpenAI, Llama, Gemini y Grok. También ofrecen traducción simultánea al inglés mientras alguien habla en chino. Pero nada de eso importa tanto como la función de pago.

Y ahora qué. Meta domina el mercado global con un 73% de cuota en la primera mitad de 2025, según Counterpoint. Su éxito con las Ray-Ban Meta lo explica un diseño casi indistinguible de unas gafas normales. Además, los fabricantes occidentales mantienen ventajas en chips.

Pero las empresas chinas tienen ventajas evidentes: muchas marcas y modelos, iteración rápida y capacidad de adaptarse rápidamente a los cambios del mercado.

En Xataka | Los POCO F8 Pro y F8 Ultra son un gran cambio de dirección para la marca. Hemos hablado con POCO para saber qué nos espera ahora

Imagen destacada | Xiaomi



via Robótica e IA - Xataka https://ift.tt/r1Bng4v