domingo, 31 de agosto de 2025

Necesitábamos más que nunca una forma de predecir mejor tormentas y huracanes. La IA ha resuelto el problema

Necesitábamos más que nunca una forma de predecir mejor tormentas y huracanes. La IA ha resuelto el problema

Entre las áreas en las que trabaja Google DeepMind, la predicción meteorológica es una de las que más precisión está obteniendo gracias al refinamiento de las herramientas de inteligencia artificial pensadas para ello. Y es que la compañía acaba de demostrar que la IA puede superar a los métodos tradicionales en la predicción de huracanes. Y es que su modelo Weather Lab consiguió pronosticar con mayor precisión la trayectoria e intensidad del huracán Erin, que pasó de tormenta tropical a categoría 5 en menos de 24 horas hace unos días.

El primer examen real. Hasta ahora, los modelos de IA meteorológicos eran una promesa. El huracán Erin se convirtió en la primera prueba de fuego en tiempo real para el sistema de Google. Durante los primeros tres días críticos de predicción, el modelo de inteligencia artificial superó tanto al pronóstico oficial del Centro Nacional de Huracanes estadounidense como a varios modelos físicos tradicionales, incluidos los europeos y americanos más fiables.

Cómo funciona. Los modelos tradicionales se basan en ecuaciones físicas complejas que recrean las condiciones atmosféricas actuales: humedad, presión, temperatura. El enfoque de Google es radicalmente distinto. Su IA ha sido entrenada con un conjunto masivo de datos que incluye información meteorológica histórica de toda la Tierra y una base de datos especializada con detalles de casi 5.000 ciclones observados durante los últimos 45 años. "Emparejan estos largos datos históricos con detalles sobre cómo se comportan los huracanes y los combinan estadísticamente para ver patrones que el ojo humano no podría detectar", explica James Franklin, ex jefe de la unidad de especialistas en huracanes del Centro Nacional de Huracanes.

Por qué importa tanto. La predicción precisa de huracanes es vital para conocer qué tipo de medidas se precisan para protegerse de ellos en caso de emergencias. Los días tres a cinco de pronóstico son cruciales para tomar decisiones sobre evacuaciones y medidas de preparación. En las pruebas internas de Google con tormentas de 2023 y 2024, su modelo logró predecir la ubicación final de los ciclones con unos 140 kilómetros más de precisión que el modelo europeo de conjunto (ECMWF), considerado el más exacto disponible.

Rendimiento excepcional. Franklin destaca el desempeño del sistema de Google: "Superó realmente a las otras guías en términos de intensidad. Captó la forma general del cambio del ciclo de vida casi exactamente. Prácticamente sin error". El modelo no solo acertó en la trayectoria, sino que predijo con una precisión sorprendente cómo evolucionaría la intensidad de Erin a lo largo de su ciclo de vida.

Todavía en desarrollo. Pese al éxito, el modelo de Google aún no está listo para uso público. Weather Lab incluye una advertencia que recomienda seguir confiando en los pronósticos oficiales del Centro Nacional de Huracanes. Sin embargo, Franklin es optimista sobre el futuro: "Para el año que viene, va a recibir una mirada muy seria y realmente jugará un papel en los pronósticos que salgan del centro de huracanes".

Imagen de portada | Brian McGowan

En Xataka | Ya no hace falta pagar para transformar nuestras fotos en lo que queramos. Lo último de Google lo ofrece gratis para todos



via Robótica e IA - Xataka https://ift.tt/OAVMazr

Que el Monte Fuji entre en erupción sería catastrófico, así que el gobierno de Japón ha usado IA para advertir a la población

Que el Monte Fuji entre en erupción sería catastrófico, así que el gobierno de Japón ha usado IA para advertir a la población

El gobierno japonés ha publicado un vídeo creado con inteligencia artificial que muestra las consecuencias devastadoras que tendría una erupción del monte Fuji para los 20 millones de habitantes de Tokio. El vídeo, difundido el domingo pasado por la División de Prevención de Desastres del gobierno metropolitano de Tokio, forma parte de una estrategia para preparar a la población ante una catástrofe natural que, aunque no es inminente, sí es posible.

Qué muestra el vídeo. La simulación arranca con una mujer en una calle abarrotada que recibe una alerta en su móvil informándole de que el volcán ha entrado en erupción. "El momento puede llegar sin previo aviso", advierte la narración antes de mostrar enormes columnas de humo saliendo del Fuji. Las imágenes generadas por IA muestran cómo la ceniza volcánica llegaría a Tokio en apenas dos horas, cubriendo edificios y vehículos, y sumiendo a la capital en la oscuridad incluso durante el día.

Por qué ahora. Japón se encuentra en el Cinturón de Fuego del Pacífico, una zona de intensa actividad sísmica y volcánica. El país alberga 111 de los aproximadamente 1.500 volcanes activos del mundo. El monte Fuji, que durante siglos entraba en erupción cada 30 años aproximadamente, lleva 318 años dormido desde la conocida como erupción Hoei de 1707. Las autoridades han ido intensificando el tono de alerta en el último año, especialmente tras advertir en enero que existe un 80% de probabilidades de que un terremoto severo golpee la región de la Fosa de Nankai en los próximos 30 años.

El impacto económico y social. Según las estimaciones oficiales, una erupción a gran escala produciría 1.700 millones de metros cúbicos de ceniza volcánica, de los cuales unos 490 millones se acumularían en carreteras, edificios y otras superficies. Las pérdidas económicas podrían alcanzar los 2,5 billones de yenes (unos 14.200 millones de euros). La ceniza provocaría el colapso de edificios de madera con poca capacidad de carga, paralizaría el transporte ferroviario, cortaría el suministro eléctrico y dificultaría la distribución de alimentos y productos esenciales.

Reacciones encontradas. Las reacciones las hemos tenido de todo tipo. Mientras algunos usuarios en redes han expresado su preocupación: "La idea de que la ceniza volcánica cause caos en el transporte del área metropolitana de Tokio es aterradora", otros han criticado el enfoque por el que se ha decantado el gobierno, considerándolo como alarmista. "Tiende a ser utilizado para agitar una sensación de crisis y miedo", comentó otro usuario.

Preparación práctica. El gobierno recomienda a los residentes de las zonas cercanas al Fuji mantener suministros esenciales para dos semanas. La simulación incluye escenas de una familia preparando despensas con comida enlatada y botiquines de primeros auxilios. Sin embargo, algunos ciudadanos señalan las dificultades prácticas de estas medidas, especialmente durante los veranos japoneses, cuando las temperaturas alcanzan niveles sofocantes y un corte eléctrico sería especialmente problemático.

Imagen de portada | Caleb Jack

En Xataka | La ciencia ya sabe cuál ha sido el peor año de la historia de la humanidad. Y hay sorpresa: no dependió de la humanidad



via Robótica e IA - Xataka https://ift.tt/S2zOZwx

LG desvela su nueva gama de aspiradoras para el hogar europeo

Aspiradoras LG con robot y modelos verticales

LG ha puesto el foco en la limpieza del hogar con cuatro nuevas aspiradoras pensadas para Europa, combinando diseño discreto, más automatización y mejoras en potencia. La compañía muestra una estrategia que cubre desde el robot con fregado a vapor hasta opciones verticales para seco y húmedo.

La familia se compone de un robot aspirador con mopa, una estación integrada bajo el fregadero para el robot, una aspiradora vertical y una vertical húmedo-seco. Todas comparten un enfoque práctico: reducir pasos al usuario, elevar la higiene y encajar en espacios típicos de viviendas europeas.

Robot aspirador con fregado a vapor y base esterilizadora

Robot aspirador LG con función de vapor

El nuevo robot de LG eleva el listón gracias a su fregado a vapor para grasa y derrames y a una base que, tras cada ciclo, lava con agua caliente, esteriliza con vapor y seca con aire la mopa para evitar olores.

Impulsado por un chip de inteligencia artificial, el robot reconoce suciedad, polvo y obstáculos como muebles u otros objetos para navegar con más precisión. Al detectar alfombras, regresa automáticamente a la base para desmontar la mopa, evitando manchas y optimizando el recorrido.

LG asegura que el nuevo modelo ofrece más del doble de potencia de succión respecto a la generación previa, lo que debería notarse tanto en suelos duros como en moquetas. La estética tipo mueble de la base ayuda a integrarla con naturalidad en cocina o salón.

La seguridad también se ha contemplado: el sistema LG Shield protege los datos del usuario, aportando un plus de tranquilidad en un equipo que opera y aprende del entorno doméstico.

Estación integrada bajo el fregadero

Estación integrada para robot aspirador LG bajo fregadero

Pensada para aprovechar espacio habitualmente desaprovechado, la estación empotrada bajo el fregadero ofrece una experiencia manos libres. Una puerta de apertura automática permite que el robot entre y salga sin intervención del usuario, manteniendo una estética limpia y minimalista.

Para mejorar la convivencia, integra un sistema de circulación de aire que amortigua el ruido durante el vaciado del polvo. Además, el suministro y drenaje de agua están automatizados para reducir tareas de mantenimiento.

Un sensor de turbidez monitoriza la limpieza de la mopa en tiempo real y activa el lavado cuando detecta suciedad. El objetivo es garantizar que el equipo funcione siempre en condiciones higiénicas y sin que el usuario tenga que estar pendiente.

Aspiradora vertical: potencia estable y vaciado automático

Aspiradora vertical LG con tecnología Micro Cyclone

La aspiradora vertical de LG promete mantener un rendimiento constante gracias a Micro Cyclone y a un sistema renovado de limpieza de filtros, pensado para minimizar la pérdida de succión por polvo fino y pelo de mascotas, pensada para quienes buscan una aspiradora sin cable.

Incluye un vaciado automático del depósito para reducir el contacto con partículas. La estación de carga y almacenaje, compacta e independiente, facilita su ubicación en cualquier rincón de la casa.

Este enfoque no solo busca potencia sostenida; también persigue comodidad e higiene en el uso cotidiano, con menos pasos y menos exposición al polvo cuando toca vaciar.

Vertical húmedo-seco con IA Roller Control

Aspiradora vertical húmedo-seco LG con AI Roller Control

La versión húmedo-seco se ha diseñado para quienes buscan ligereza y maniobrabilidad. La función AI Roller Control contribuye a reducir la carga en las muñecas, ayudando a que el movimiento sea más suave en distintas superficies.

Este modelo aprende de los patrones de limpieza del usuario para optimizar su comportamiento. El rodillo recoge líquidos y salsas como partículas de mayor tamaño —por ejemplo cereales o comida de mascotas—, y la luz LED facilita ver los restos en zonas con poca iluminación.

Para la higiene diaria, el cabezal de la mopa pasa por un proceso que lava con agua caliente, esteriliza con vapor y seca con aire, de modo que se mantenga fresco entre usos.

Diseño, IA y seguridad: rasgos comunes de la gama

Detalles de diseño y tecnología en aspiradoras LG

Más allá de las particularidades de cada equipo, la línea comparte tres ideas clave: diseño que se integra en casa, automatización de procesos que ahorra tiempo y una capa de IA que mejora la navegación y la eficiencia con el uso, como ocurre con algunas aspiradoras inteligentes.

La apuesta por bases más discretas —incluida la de tipo mueble— y por instalaciones que aprovechan espacio (como el hueco bajo el fregadero) encaja con los hábitos y dimensiones de viviendas europeas. También ayuda la reducción de ruido al gestionar el polvo gracias a la circulación de aire en la estación integrada.

En materia de privacidad, la plataforma LG Shield aporta un marco de seguridad para los datos que generan los robots durante sus desplazamientos por el hogar.

Dónde verlas y qué falta por saber

IFA Berlín: stand de LG con nuevas aspiradoras

LG mostrará esta nueva familia de aspiradoras en IFA Berlín (Messe Berlin, Pabellón 18) del 5 al 9 de septiembre. La compañía no ha aportado precios ni fechas de lanzamiento definitivos, por lo que habrá que estar atentos a los detalles comerciales.

Con un robot que duplica la succión de su antecesor, una estación oculta bajo el fregadero que automatiza agua y vaciado, y dos verticales con mejoras en ergonomía e higiene, LG concentra su esfuerzo en hacer la limpieza más fácil, silenciosa y fiable sin alterar la estética de la casa.



via Actualidad Gadget https://ift.tt/yuoXYw6

sábado, 30 de agosto de 2025

La IA se ha convertido en el mejor ejemplo de que si no pagas por el producto, eres el producto

La IA se ha convertido en el mejor ejemplo de que si no pagas por el producto, eres el producto

Lo decían en el documental ‘El dilema de las redes sociales’: si no estás pagando por el producto, tú eres el producto. Seguramente hayas escuchado la frase más de una vez en referencia a las apps y servicios que no pagamos con dinero, sino con otro tipo de moneda. Redes sociales, navegadores, apps de GPS… casi todas recopilan nuestra información personal y datos de navegación para hacer negocio. Las apps de inteligencia artificial no son distintas, de hecho, hay una carrera para atraer cada vez a más usuarios y forjar alianzas para conseguir datos con los que seguir entrenando sus chatbots.

Mejorar la experiencia. “Cuando compartes tu contenido con nosotros, ayudas a que nuestros modelos sean más precisos y a que pueda resolver mejor tus problemas específicos”, esta frase está sacada de la política de privacidad de ChatGPT y en la de Gemini hay otras parecidas. Anthropic era la única que mantenía privadas la conversaciones con Claude, pero ayer mismo anunciaron que cambiaban su política. Nuestra información personal, datos de uso y sobre todo las conversaciones sirven para que los modelos se sigan entrenando y vayan mejorando. Podemos desactivar esta opción si queremos, pero tenemos que ser nosotros quienes lo hagamos. Por defecto viene activada.

Escasez de datos. La IA necesita muchos datos para ser entrenada, muchísimos. Con los primeros modelos de lenguaje se usó todo tipo de contenido, incluyendo contenido protegido por copyright como libros o imágenes de obras de arte. Pero los datos no son infinitos. A finales de 2021 ya se hablaba de un problema de escasez y a principios de este año, Elon Musk decía que la IA ya había consumido todo el conocimiento humano. Esto supone un problema para el avance de la IA y sería responsable en gran parte de que el ritmo se haya ralentizado.

Soluciones. Las empresas de IA han tenido que buscarse la vida para conseguir nuevos datos. OpenAI transcribió un millón de horas de YouTube para entrenar a GPT-4, Google decidió que usaría cualquier información publicada en internet para mejorar su IA y Musk cree que el futuro está en los datos sintéticos generados por la propia IA. Pero hay algo que también se puede usar para entrenar la IA y son nuestras conversaciones con ella. Con los primeros modelos no tenían tantos usuarios, pero actualmente el volumen de datos que generamos los usuarios es mucho mayor. Sólo ChatGPT tiene 800 millones de usuarios, suena como un botín demasiado jugoso como para no usarlo.

Regalando IA. Las conversaciones que tenemos con ChatGPT pueden ser útiles, pero es aún más útil cuando son datos de usuarios de grupos más específicos. Cuentan en Rest of World que para conseguirlo, las empresas de IA están forjando alianzas con otras empresas y organismos que les permitan acceder a datos que no se pueden conseguir haciendo scraping de la web. OpenAI se ha asociado con Shopee y ofrece su plan Plus para los usuarios VIP en Indonesia, Vietnam y Tailandia. Google ofrece su plan Gemini Pro gratis durante un año a estudiantes en India y Perplexity Pro está disponible gratis a través de operadores como Movistar o Airtel en India… Estas alianzas aumentan su base de usuarios y proporcionan datos reales de consumo de grupos concretos, lo que les permite entrenar sus modelos de forma más precisa.

El caso chino. China es un ejemplo de cómo acceder a datos específicos puede dar ventaja a la hora de desarrollar soluciones eficaces. Las empresas de investigación farmacéutica que usan IA tienen acceso a los datos del sistema nacional de salud, el cual cubre a más de 600 millones de personas. Esto les da una ventaja competitiva y ha hecho que las  empresas chinas firmen acuerdos millonarios con grandes farmacéuticas.

Preocupación. Expertos como Sameer Patil, director del Observer Research Foundation, llama a establecer una regulación más clara, especialmente en sectores sensibles como la salud o finanzas: “Las empresas participantes tendrán que garantizar que los conjuntos de datos no sean personalizados y sean anónimos”, afirma en declaraciones a Rest of World.

Imagen | ChatGPT

En Xataka | Meta va por todas con la IA: anuncia un centro de datos casi tan grande como Manhattan y hasta 65.000 millones de inversión



via Robótica e IA - Xataka https://ift.tt/bmc20N7

viernes, 29 de agosto de 2025

China tiene muy claro qué debe hacer para ganar la guerra de los chips a EEUU: recurrir a sus genios de la tecnología

China tiene muy claro qué debe hacer para ganar la guerra de los chips a EEUU: recurrir a sus genios de la tecnología

Aunque ya no es el país más poblado del planeta, China tiene un recurso muy valioso a su disposición: su población. Actualmente se estima que en India viven unos 1.464 millones de personas y en China aproximadamente 1.408 millones de seres humanos. La población en el país liderado por Xi Jinping ha descendido durante los últimos años como consecuencia directa de la baja natalidad y el envejecimiento. Aun así, 1.408 millones son muchas personas.

El Gobierno chino es plenamente consciente del enorme valor que tiene su capital humano, especialmente en un periodo en el que está disputando a EEUU la supremacía mundial. El desarrollo tecnológico dirimirá cuál de estos dos países ejerce una mayor influencia sobre el resto de las naciones, de ahí que el Gobierno de EEUU esté haciendo todo lo que está en su mano para ralentizar tanto como sea posible el progreso tecnológico de China.

Este último país necesita talento para competir con EEUU en igualdad de condiciones, y sabe dónde debe buscarlo: en su población. De hecho, la Administración china ha fomentado la puesta en marcha de centros educativos de élite que reciben con los brazos abiertos a los mejores estudiantes del país. Los hermanos Chen fueron dos de ellos. Hoy son los fundadores y máximos responsables de una de las compañías chinas llamadas a hacerse con el mercado que sostiene NVIDIA en esta nación asiática.

Cambricon Technologies ya es una de las empresas más valiosas de China

Los hermanos Chen Tianshi y Chen Yunji son dos figuras esenciales en Cambricon Technologies. El primero ejerce como presidente y director general de esta empresa especializada en el diseño de chips para aplicaciones de inteligencia artificial (IA). Y el segundo es un experto en el desarrollo de procesadores para redes neuronales que, hasta donde sabemos, ejerce como asesor y responsable de tecnología en Cambricon. Ambos se formaron en un programa de élite para jóvenes talentos en la Academia China de Ciencias, y actualmente los dos son investigadores y profesores en esta institución educativa.

Su mejor baza es su complementariedad. Tianshi es un experto en el diseño de chips, y Yunji en IA. Juntos crearon un proyecto en la Academia China de Ciencias que perseguía desarrollar un procesador especializado en aprendizaje profundo. Su plan salió bien y ese chip les permitió fundar su compañía. Aunque no es tan conocida como Huawei o Moore Threads, Cambricon es una de las empresas especializadas en el diseño de GPU para IA con un mayor potencial de crecimiento.

Su mejor baza es su complementariedad. Tianshi es un experto en el diseño de chips, y Yunji en inteligencia artificial

De hecho, ha recibido la aprobación de la Bolsa de Shanghái (China) para recaudar 560 millones de dólares. Los destinará al diseño de cuatro chips para el entrenamiento y la inferencia de modelos de IA, y también al desarrollo de una alternativa a CUDA, de NVIDIA. A esta compañía todo parece estar saliéndole bien. Y es que durante los últimos doce meses el valor de sus acciones se ha triplicado.

El rol estratégico de la IA para China en su guerra tecnológica y comercial con EEUU respalda a las compañías chinas que se dedican al diseño de hardware para IA y al desarrollo de grandes modelos de lenguaje. No obstante, hay algo más que promete impulsar a corto y medio plazo el negocio no solo de Cambricon Technologies, sino también el de las otras empresas chinas que diseñan circuitos integrados para IA.

El Gobierno chino ha decidido obligar a los centros de datos que pertenecen al Estado en todo el país a utilizar al menos un 50% de circuitos integrados chinos en sus servidores. A priori es una de las estrategias más eficaces a la hora de impulsar la innovación y minimizar la dependencia de China de las tecnologías procedentes del extranjero. Y con toda probabilidad esta medida será respaldada por otras en el futuro que tratarán de incentivar el uso de chips chinos en todos los centros de datos del país. Públicos y privados.

Imagen | Generada por Xataka con Google Gemini

Más información | Bloomberg | SCMP

En Xataka | A NVIDIA le toca lidiar con la desconfianza absoluta de varios legisladores de EEUU. Su plan en China peligra

En Xataka | EEUU quiere acabar con los chips para IA chinos que se venden en el extranjero. Y China sabe cómo defenderse



via Robótica e IA - Xataka https://ift.tt/4qMPYJi

Taco Bell tiene una IA para gestionar sus pedidos de autoservicio: las bromas de pedir 18.000 vasos de agua han hecho replanteárselo

Taco Bell tiene una IA para gestionar sus pedidos de autoservicio: las bromas de pedir 18.000 vasos de agua han hecho replanteárselo

La cadena de comida rápida ha instalado asistentes de voz con inteligencia artificial en más de 500 restaurantes, pero los problemas técnicos y las bromas de los usuarios están obligando a la empresa a replantear su estrategia. Dos millones de pedidos después, Taco Bell reconoce que los humanos siguen siendo necesarios.

El problema en cifras. Desde el año pasado, Taco Bell ha desplegado tecnología de IA con un asistente de voz en más de 500 ubicaciones de Estados Unidos. Sin embargo, los fallos del sistema han generado una oleada de quejas en redes sociales y vídeos virales que muestran clientes burlándose del sistema. Uno de los casos que más ha circulado en redes y que demuestra la torpeza del sistema, se ve a alguien pedir 18.000 vasos de agua. La IA lo aceptó sin problemas.

El reto que hay detrás. "Estamos aprendiendo mucho, voy a ser honesto contigo", admitió Dane Mathews, director de tecnología digital de Taco Bell, al Wall Street Journal. El propio ejecutivo reconoce que su experiencia con el sistema es irregular: "Como todo el mundo, a veces me decepciona, pero otras veces me sorprende realmente". Los empleados también han comenzado a publicar contenido recordando a los clientes que pueden escuchar cuando le gritan al sistema.

Los fallos más virales. TikTok está repleta de todos los estragos que ha causado la IA: desde quedándose en bucle preguntando qué quiere beber el cliente hasta aceptar pedidos de comida de McDonald's y sugerir salsas de la competencia. Como no podía ser de otro modo en algunos casos, los trabajadores humanos han tenido que intervenir para completar correctamente los pedidos, lo que ha hecho suscitar las dudas sobre la efectividad del sistema en el día a día.

Cambio de estrategia en marcha. Mathews ha revelado que la empresa está reconsiderando dónde implementar esta tecnología. Especialmente en restaurantes muy concurridos con largas colas, donde un empleado humano podría gestionar mejor la situación. "Es una conversación muy activa dentro de Taco Bell en colaboración con nuestros franquiciados", explica. La compañía planea ayudar a cada restaurante a determinar cuándo usar IA y cuándo es mejor que intervengan los empleados.

El sector busca su camino. Taco Bell no está sola en esta lucha. McDonald's canceló el año pasado un experimento similar con IBM, aunque ahora trabaja con Google Cloud en una nueva versión. Otra cadena de comida rápida en Estados Unidos, Wendy's, está expandiendo su asistente FreshAI (también basado en tecnología de Google) con el objetivo de llegar a 500 instalaciones antes de final de año. Es otro campo en el que la IA comienza a destacar, aunque estas primeras experiencias nos hayan sacado unas risas.

Imagen de portada | Taco Bell

En Xataka | TikTok, Instagram y X dominaban nuestras vidas, pero ahora sus usuarios se están escapando para charlar con máquinas



via Robótica e IA - Xataka https://ift.tt/cuJ4GRV

Microsoft prefiere un 7 propio que un 10 de OpenAI. Los 13.000 millones invertidos en OpenAI acaban de cobrar sentido

Microsoft prefiere un 7 propio que un 10 de OpenAI. Los 13.000 millones invertidos en OpenAI acaban de cobrar sentido

Microsoft ha lanzado MAI-1, su primer modelo de IA desarrollado completamente en casa. Está en el puesto 13º de LMArena, por debajo de los de Anthropic, DeepSeek, Google y, por supuesto, OpenAI.

No es el mejor modelo y ni siquiera está cerca, pero eso podría ser exactamente lo que Satya Nadella tenía en mente.

Por qué es importante. Las tecnológicas no necesitan la excelencia absoluta para dominar mercados. Necesitan control, integración y márgenes. Microsoft lo ha entendido desde los tiempos de MS-DOS: es mejor poseer un producto suficientemente bueno que depender de la excelencia ajena.

  • Windows nunca fue el mejor sistema operativo.
  • Internet Explorer no era el mejor navegador.
  • Excel sí es el mejor, pero tardó años en superar a Lotus 1-2-3.

Todos, en cualquier caso, acabaron dominando sus mercados porque Microsoft controlaba el desarrollo, la distribución y, sobre todo, la integración con el resto de su ecosistema.

El rastro del dinero. Los 13.000 millones que Microsoft ha invertido en OpenAI empiezan a parecer menos una apuesta y más una matrícula universitaria. Microsoft ha pagado por:

  • Acceso temprano a la tecnología GPT mientras construía su propia infraestructura.
  • Tiempo para aprender qué funciona en IA sin la presión de ser pioneros.
  • La credibilidad instantánea de ofrecer "el mejor modelo" a través de Copilot.
  • Una excusa perfecta para construir grandes clústers de GPUs que ahora usa para MAI-1.

Suleyman lo ha dejado claro: han entrenado MAI-1 con 15.000 GPUs H100 (Grok usa 100.000, por comparar) y ya tienen operativo un clúster de GB200 de nueva generación.

Esa infraestructura no se construyó para ejecutar modelos de OpenAI. Se construyó para esto.

La situación actual. MAI-1 no compite en capacidades brutas. Pero tiene ventajas que OpenAI nunca podrá ofrecer:

  1. Microsoft controla completamente el desarrollo. Pueden optimizarlo específicamente para Windows, Office y Azure sin pedir permiso a nadie. Pueden ajustar costes, latencia y capacidades según sus necesidades exactas.
  2. La voz es importante. MAI-Voice-1 genera un minuto de audio en menos de un segundo con una sola GPU. No necesitan ser los mejores en procesamiento de texto si dominan la interfaz que creen del futuro: la voz.

Sí, pero. Un modelo en el puesto 13º sigue siendo un modelo en el puesto 13º. Los usuarios empresariales que pagan miles de dólares por Copilot seguramente esperan lo mejor, no lo "suficientemente bueno".

Microsoft lo sabe y por eso no están reemplazando GPT-5 inmediatamente. MAI-1 se está introduciendo gradualmente en "casos de uso específicos" mientras mejora. Esta es su versión 1.0. GPT-5 es la quinta gran iteración de OpenAI. Tienen margen para crecer.

El momento decisivo. La verdadera prueba llegará cuando Microsoft tenga que elegir: ¿renovar el acuerdo con OpenAI o apostar todo a sus modelos propios?

Con MAI-1, Microsoft ha demostrado que tiene una alternativa viable. No necesita ser mejor que GPT-4. Solo necesita ser lo suficientemente buena para que los 250.000 millones de ingresos anuales de Microsoft no dependan de los caprichos de Sam Altman.

En una negociación, la mejor posición es poder levantarte de la mesa. Microsoft acaba de comprarse la silla.

En Xataka | La prueba de la autosuficiencia de China en chips para IA ya está aquí: no ha comprado a NVIDIA ni una sola GPU H20 en el último trimestre

Imagen destacada | Microsoft



via Robótica e IA - Xataka https://ift.tt/Jtorc4A

NVIDIA se ha convertido en la empresa más importante del mundo. Su problema es que tiene todos los huevos en la misma cesta

NVIDIA se ha convertido en la empresa más importante del mundo. Su problema es que tiene todos los huevos en la misma cesta

En NVIDIA todo va sobre ruedas, pero ni siquiera eso es suficiente para Wall Street. El último informe de resultados trimestrales ha vuelto a demostrar eun poderío excepcional, pero cuidado. La empresa más importante del mundo —por capitalización bursátil, al menos— tiene un talón de Aquiles.

Una peligrosa concentración de clientes. El documento oficial con los resultados financieros alude a un "riesgo de concentración" de los grandes clientes de NVIDIA. La situación es realmente preocupante, porque seis clientes acumulan el 85% de todos los ingresos de la compañía:

  • 10.750 millones de dólares - Cliente A (23% de los ingreoss totales)
  • 7.480 millones de dólares - Cliente B (16%)
  • 6.540 millones de dólares - Cliente C (14%)
  • 5.140 millones de dólares - Cliente D (11%)
  • 5.140 millones de dólares - Cliente E (11%)
  • 4.670 millones de dólares - Cliente F (10%)
Nvidia Nvidia

El problema va a más, no a menos. Si solo nos fijamos en los dos clientes más importantes, el A es responsable de un 23% de los ingresos de NVIDIA y el B de un 16%: el 39% de los ingresos por tanto provienen de tan solo dos clientes. Hace un año los dos mayores clientes de NVIDIA eran responsables del 14% y el 11% de los ingresos, un 25% en total.

Esos datos plantean una pregunta inevitable: quién es quién en ese reparto de clientes. Y la respuesta no es nada sencilla.

Clientes directos... NVIDIA hace una distinción entre esos clientes a los que alude en el documento, y que se dividen en dos grandes grupos, El primero es el de los clientes directos, que no son usuarios finales de sus chips, sino empresas que compran los chips y que los montan en sistemas completos o en placas que luego  venden a centros de datos, proveedores de infraestructura en la nube o a clientes finales. Entre los ejemplos, indican en CNBC, estarían Foxconn, Quanta o Dell.

... y clientes indirectos. Aquí es donde entrarían esas empresas en las que todos estamos pensando y que usan esos chips —que compran a los clientes directos— en sus gigantescos centros de datos. Microsoft, OpenAI, Meta, Google, Tesla/xAI y Meta —e incluso ORacle— son candidatos claros, pero de nuevo, es imposible saber a ciencia cierta quiénes están en esa lista de grandes compradores.

Pero los dos más importantes son directos. Lo que sí indican en NVIDIA es que el cliente A y el B son clientes directos, así que no teóricamente son ninguna de esas grandes tecnológicas. Pero esas definiciones de NVIDIA son algo difusas, y la empresa afirma que algunos clientes directos compran chips para crear sistemas para su propio uso, así que cualquiera de las Big Tech podría entrar en esa definición. Para rizar el rizo, NVIDIA afirmó que dos de sus clientes indirectos fueron responsables cada uno de ellos del 10% de sus ingresos totales, pero sobre todo mediante la compra de sistemas a los clientes A y B.

OpenAI en las quinielas. En NVIDIA hablaron de que "una empresa de investigación y desarrollo de IA" contribuyó con una cantidad "significativa" de los ingresos tanto a través de clientes directos como indirectos. Aquí hay más candidatas, pero una de las más fuertes sería OpenAI, sobre todo ahora que está trabajando en el Proyecto Stargate.

Pero la situación es peligrosa. Sea como fuere, depender tanto de tan pocos clientes es delicado y crea una peligrosa cadena de dependencia. Así, NVIDIA depende de intermediarios que a su vez dependen de un puñado de gigantes tecnológicas. El destino de la compañía está en manos de dos compradores que representan casi el 40% de su negocio, pero es que el riesgo no solo es para NVIDIA, sino para todo el ecosistema tecnológico que depende de sus chips.

No solo hay empresas, hay países comprando GPUs. Otro de los datos curiosos de este informe es el que nos habla de cómo algunos gobiernos extranjeros están comprando también chips de forma masiva. De hecho, la empresa espera ingresar 20.000 millones de dólares en esos proyectos de "IA soberana" con países que intentan crear sus propios modelos e infraestructura de inteligencia artificial.

Imagen | Sharon Waldron editada con Google Gemini

En Xataka | Microsoft tenía un secreto guardado. Su nuevo modelo de IA para Copilot es la declaración más clara contra el dominio de OpenAI



via Robótica e IA - Xataka https://ift.tt/78ESK2c

Delirios en directo y suicidios alimentados por la IA: qué está pasando realmente con la IA y la salud mental

Delirios en directo y suicidios alimentados por la IA: qué está pasando realmente con la IA y la salud mental

Una mujer llamada Kendra se ha hecho viral en TikTok. ¿El motivo? Probablemente sea el primer caso de brote psicótico alimentado por la IA que estamos viendo en vivo y en directo. Un adolescente discutió sus planes de suicidio con ChatGPT y sus padres han demandado a OpenAI. Son sólo dos casos recientes, pero cada vez hay más noticias que culpan a la IA de provocar delirios o incluso muertes. Ya vimos que la realidad es mucho más compleja, pero está claro que hay un debate sobre los efectos de la IA en nuestra salud mental. ¿Qué está pasando?

El caso Adam Raine. Lo cuentan en el New York Times.  Adam empezó a usar ChatGPT para que le ayudara con los deberes, pero más tarde sus conversaciones tomaron un giro oscuro. Tras su muerte, su padre revisó su móvil y descubrió que había estado preguntándole a la IA detalles sobre cómo suicidarse. A pesar de que ChatGPT identificó los mensajes como peligrosos y le insistió varias veces en buscar ayuda, Adam logró saltarse estas advertencias diciéndole que no iba a hacerlo de verdad, sino que estaba recabando información para una historia que quería escribir. Sus padres han demandado a OpenAI argumentando que la IA validó los  “pensamientos más dañinos y autodesctructivos” de su hijo.

El caso Kendra. Desde principios de agosto, Kendra es uno de los temas de conversación más candentes en TikTok. Todo empezó cuando, en una serie de varias decenas de vídeos, contó cómo su psiquiatra la había manipulado para que se enamorara de él. Por las situaciones que narra, para los expertos es evidente que Kendra sufre algún tipo de trastorno de la personalidad. Lo llamativo del caso es que constantemente acudía a ChatGPT, a quien apodaba “Henry”, para validar sus delirios. Llegado un punto, ChatGPT no le dijo lo que quería oír y empezó a usar Claude, la IA de Anthropic. Kendra no considera que su uso de la IA sea peligroso, al contrario: en este vídeo asegura que es una profecía.

Preocupación. La IA está en el punto de mira por muchos motivos y el impacto que puede tener en nuestra salud mental es uno de ellos. Casos como los que hemos descrito son los más llamativos por lo alarmantes que son, pero no son tan comunes. Hay otros casos de uso, como la tendencia a recurrir a la IA como si fuera un psicólogo o la dependencia emocional causada por las apps de “compañeros IA”, que se están popularizando y han despertado una oleada de preocupación.

También están surgiendo nuevos estudios que ahondan en esta problemática, como este de la Universidad de Stanford que concluyó que los chatbots de terapia tienden a ser complacientes y en casos de riesgo pueden reforzar delirios en lugar de cuestionarlos (como en el caso de Kendra).  La respuesta de autoridades y grupos de defensa no se ha hecho esperar.

Voces de alarma. La Asociación Americana de Psicología (APA) se reunió con las autoridades estadounidenses para dar la alarma ante el creciente uso de chatbots de terapia psicológica. La organización expresó su preocupación ante las prácticas engañosas como los chatbots que se hacen pasar por terapeutas reales. Exigen campañas de educación para informar a los consumidores y que las aplicaciones integren medidas de seguridad obligatorias para usuarios que se encuentren en crisis.

El ‘Centro para la lucha contra el odio digital’ también ha exigido una regulación más estricta. En su informe ‘Fake Friend’ expusieron lo frágiles que son las salvaguardas de los chatbots IA, todo desde el punto de vista de un adolescente vulnerable (el caso de Adam Raine es un claro ejemplo de esto). Piden que se haga cumplir la verificación de edad, que se prohíban los diseños que manipulan emocionalmente y que se realicen auditorías independientes de las herramientas IA. No son las únicas. Hay más organizaciones que están alertando de esta problemática como Mental Health Europe, la OMS e incluso el Consejo General de la Psicología de España.

Medidas legales en EEUU. Aunque todavía no se puede  hablar de una regulación a nivel federal, ya hay varios estados que han tomado medidas. Es el caso de Illinois, donde se aprobó una ley que prohíbe el uso de la IA en terapia psicológica. En Utah han optado por un enfoque más orientado a la transparencia y en su ley establecen que los usuarios deberán ser informados claramente cuando estén hablando con una IA.

En Nueva York tienen preparada una ley que entrará en vigor en noviembre y exigirá que los compañeros IA notifiquen a los usuarios repetidamente de que están interactuando con una entidad no humana. Además, estos compañeros IA deberán contar con un sistema que detecte riesgo de autolesiones o suicidio y remita a los usuarios a líneas de ayuda. En California hay una propuesta de ley que quiere prohibir “estrategias de maximización de la interacción que manipulan emocionalmente a los usuarios”. Si se acaba aprobando, sería la primera ley que regula los mecanismos de diseño que fomentan la dependencia de estas herramientas.

¿Y la Unión Europea? En Europa tenemos la AI Act que entró en vigor hace un año. La ley define cuatro niveles de riesgo con regulaciones específicas para cada uno, incluyendo uno “riesgo inaceptable” que conllevaría la prohibición de la tecnología en cuestión. En materia relativa a salud mental no hay nada concreto, pero en el artículo 5 vemos que prohíbe cualquier sistema que use “técnicas subliminales” para manipular a las personas de forma que “cause o sea probable que cause un daño físico o psicológico”. También se prohíbe a la IA que “infiera emociones en las personas”, aunque incluye una excepción si es con fines terapéuticos, lo que resulta un tanto ambiguo.

Las medidas de las empresas de IA. En el caso de las empresas, aunque prácticamente todas cuentan con algún tipo de seguridad para casos como estos, la realidad es que OpenAI es quien más ha detallado sus medidas, en parte porque el éxito de ChatGPT hace que sean ellos quienes suelen estar en el punto de mira. Veamos qué dice cada una:

  • ChatGPT: Tras la noticia del suicidio de Adam Raine, OpenAI ha confirmado que añadirá controles parentales y salvaguardas adicionales, como que los usuarios puedan contactar con una persona de emergencia en un click e incluso que el chatbot contacte directamente con los servicios de emergencia en casos graves. Hasta ahora, instaba a los usuarios a contactar con la línea de ayuda de EEUU, pero ya hemos visto que para Adam fue muy fácil esquivar las advertencias.
  • Claude: Anthropic apuesta por la “seguridad por diseño”, es decir, aseguran que la seguridad está en el núcleo de su modelo desde el principio. Además, colaboraron con expertos de la organización de ayuda ThroughLine para que Claude fuera capaz de detectar conversaciones sensibles para refinar las respuestas, aunque no especifican cómo son esas respuestas.
  • Gemini: DeepMind también ha colaborado con organizaciones de salud como Welcome Trust, aunque su enfoque está más  enfocado a la investigación. En su política de seguridad afirman que Gemini no puede participar en ningún tipo de actividad peligrosa, incluyendo suicidio o autolesiones. No dicen si su chatbot ofrece algún tipo de guía o ayuda cuando detecta ese tipo de mensajes.
  • Grok: es el chatbot más imprudente, aunque sus casos más sonados han tenido que ver con sus mensajes antisemitas y no tanto con problemas de salud mental. Hemos revisado su política y no hemos encontrado ninguna referencia a salvaguardas específicas para proteger la salud mental de los usuarios.

El papel de los medios. El hecho de que cada vez surjan más noticias alarmantes que colocan a la IA como una especie de voz malvada que nos empuja a la locura está magnificando el problema. Es necesario poner esto en contexto: hablamos de una tecnología masiva, (sólo ChatGPT tiene 800 millones de usuarios) y habrá todo tipo de casuísticas, pero al poner el foco en esos casos tan extremos o trágicos podemos caer fácilmente en echar la culpa de todo a la IA. La preocupación por los riesgos en la salud mental está ahí y es real, pero hay que evitar caer en pánicos sociales como el que vivimos con los videojuegos.

Imagen de portada | Pixabay

En Xataka | ChatGPT para móvil ha generado 2.000 millones de dólares. Puede parecer mucho, pero en el universo de la IA es calderilla



via Robótica e IA - Xataka https://ift.tt/C4KNnro