viernes, 31 de octubre de 2025

Muchas IA de vídeo están aprendiendo a imitar el mundo. Y todo apunta a un “saqueo” sin precedentes de YouTube

Muchas IA de vídeo están aprendiendo a imitar el mundo. Y todo apunta a un “saqueo” sin precedentes de YouTube

Una plaza, turistas, un camarero moviéndose entre mesas, una bici que pasa al fondo o un periodista en un plató. Las IA de vídeo ya pueden generar escenas en un pispás. El resultado sorprende, pero también abre una pregunta que hasta hace poco apenas se planteaba: ¿de dónde han salido todas esas imágenes que les han permitido aprender a imitar el mundo? Según The Atlantic, parte de la respuesta apunta a millones de vídeos extraídos de plataformas como YouTube sin un consentimiento claro.

La euforia por la IA generativa ha ido tan rápido que muchas preguntas se han quedado atrás. En apenas dos años hemos pasado de pequeños experimentos curiosos a modelos que producen vídeos casi indistinguibles de los reales. Y mientras el foco estaba en las demostraciones, otra cuestión iba ganando peso: la transparencia. OpenAI, por ejemplo, ha explicado que Sora se entrena con datos “disponibles públicamente”, pero no ha detallado cuáles.

Un entrenamiento masivo que señala a YouTube

La pieza de The Atlantic da una pista clara de lo que estaba ocurriendo entre bastidores. Hablamos de más de 15 millones de vídeos recopilados para entrenar modelos de IA, con una enorme cantidad procedente de YouTube sin autorización formal. Entre las iniciativas citadas aparecen conjuntos de datos asociados a varias compañías, diseñados para mejorar el rendimiento de los generadores de vídeo. Según el medio, este proceso se realizó sin avisar a los creadores que publicaron originalmente ese contenido.

Uno de los aspectos más llamativos del hallazgo es el perfil del material afectado. No se trataba solo de vídeos anónimos o grabaciones domésticas, sino de contenidos informativos y producciones profesionales. El medio encontró que miles de piezas procedían de canales pertenecientes a publicaciones como The New York Times, BBC, The Guardian, The Washington Post o Al Jazeera. En conjunto, hablamos de un volumen enorme de periodismo que habría terminado alimentando sistemas de IA sin un acuerdo previo con sus propietarios.

Runway, una de las empresas que más impulso ha dado al vídeo generativo, aparece señalada en los conjuntos de datos revisados. Según los documentos citados, sus modelos habrían aprendido con clips organizados por tipo de escena y contexto: entrevistas, explicativos, piezas con gráficos, planos cocina, planos recurso. La idea es clara: si la IA debe reproducir situaciones humanas y narrativas audiovisuales, necesita referencias reales que cubran desde gestos hasta ritmos de edición.

Runway Video Runway Video Fragmentos de un vídeo generado con la herramienta de Runway

Además de Runway, la investigación menciona conjuntos de datos empleados en laboratorios de grandes plataformas tecnológicas como Meta o ByteDance en investigación y desarrollo de sus modelos. La dinámica era similar: enormes volúmenes de vídeos recopilados en internet y compartidos entre equipos de investigación para mejorar las capacidades audiovisuales.

La postura oficial de YouTube no deja demasiado margen para interpretaciones. Su normativa prohíbe descargar vídeos para entrenar modelos, y su CEO, Neal Mohan, lo ha reiterado en público. Las expectativas de los creadores, subrayó, pasan por que sus contenidos se utilicen dentro de las reglas del servicio. La aparición de millones de vídeos en bases de datos para IA ha situado ese marco legal en primer plano y ha intensificado la presión sobre las plataformas involucradas en el desarrollo de modelos generativos.

La reacción del sector mediático ha seguido dos caminos. Por un lado, compañías como Vox Media o Prisa han cerrado acuerdos para licenciar su contenido a plataformas de inteligencia artificial, buscando un marco claro y compensación económica. Por otro, algunos medios han optado por plantar cara: The New York Times ha llevado a OpenAI y Microsoft a los tribunales por el uso no autorizado de sus materiales, subrayando que protegerá también el contenido que distribuye en vídeo.

El terreno legal sigue siendo difuso. La legislación actual no estaba pensada para modelos que procesan millones de vídeos en paralelo, y los tribunales todavía están empezando a marcar líneas. Para algunos expertos, publicar en abierto no equivale a ceder derechos de entrenamiento, mientras que las empresas de IA defienden que la indexación y el uso de material público forman parte del avance tecnológico. Esa tensión, aún sin resolver, mantiene a medios y desarrolladores en un juego de equilibrio constante.

Lo que tenemos delante es el arranque de una conversación que va mucho más allá de la tecnología. El entrenamiento de modelos de IA con material disponible en internet ha sido una práctica extendida durante años, y ahora llega el momento de decidir dónde están los límites. Las compañías prometen acuerdos y transparencia, los medios piden garantías y los creadores reclaman control. La próxima etapa será tan tecnológica como política: cómo se alimenta la inteligencia artificial definirá quién se beneficia de ella.

Imágenes | Xataka con Gemini 2.5

En Xataka | Todas las grandes IA han ignorado las leyes del copyright. Lo alucinante es que sigue sin haber consecuencias



via Robótica e IA - Xataka https://ift.tt/F8NMyuj

NVIDIA es la empresa más poderosa del planeta porque hizo una apuesta y la está ganando: Crossover 1x28

En NVIDIA no paran de frotarse las manos. Venden a destajo y no paran de firmar acuerdos de financiación circular que no hacen más que agrandar su posición actual. 

La empresa se ha hecho de oro con el auge de la inteligencia artificial, y para hablar de ello hemos dedicado este nuevo Crossover 1x28 a desgranar la historia y evolución de una empresa que está en estado de gracia.

Empezamos hablando de cómo NVIDIA fue consiguiendo una posición privilegiada en el mundo del gaming y cómo en la década de 2010 aprovechó (brevemente) el auge de la minería de criptomonedas. 

Todo ello ha logrado hacer que NVIDIA disfrute del papel protagonista en el duopolio existente en el mercado de tarjetas gráficas para gamers: solo AMD le hace sombra, aunque Intel en los últimos tiempos ha tratado de hacerse algo de hueco.

Sin embargo lo que catapultó a la empresa fue una apuesta singular: la de lograr que sus GPUs pudieran aprovecharse para el ámbito de la inteligencia artificial. Ese mercado estaba aún en pañales cuando surgió CUDA, pero poco a poco los investigadores que trabajaban en ese ámbito fueron comprobando que esa plataforma era una gran aliada para sus avances.

Y luego, claro, llegó ChatGPT y con él la fiebre del oro de la IA. NVIDIA se volvió más imprescindible que nunca, y todas, grandes y pequeñas, quieren sus aceleradoras de IA para nuevos centros de datos

Es un no parar asombroso y en cierta manera inquietante, porque el crecimiento exagerado de NVIDIA no hace sino validar la hipótesis de que nos enfrentamos a una gigantesca burbuja de la IA

En YouTube | Crossover



via Robótica e IA - Xataka https://ift.tt/r75hPen

Si creías que la burbuja de la IA era preocupante es porque no habíamos entrado en su siguiente fase: deuda

Si creías que la burbuja de la IA era preocupante es porque no habíamos entrado en su siguiente fase: deuda

Las grandes tecnológicas han emitido 75.000 millones de dólares en bonos y préstamos entre septiembre y octubre de 2025:

  1. Meta lidera con 30.000 millones.
  2. Seguida de Oracle (18.000 millones en bonos más un préstamo de 38.000 millones).
  3. Y Broadcom (27.000 millones).

La cifra equivale a lo que estas tres empresas solían pedir prestado en un año entero.

Por qué es importante. El cambio de liquidez a deuda marca un punto de inflexión en la carrera de la IA. Durante años, estas empresas financiaron sus infraestructuras con flujos de caja, pero ahora están recurriendo al endeudamiento: la deuda no ligada a bonos ha pasado del 15% al 30% de su capital.

El rastro del dinero. Oracle ha cerrado el mayor préstamo sindicado (un préstamo conjunto por parte de varios bancos a un solo cliente) de su historia: 38.000 millones para centros de datos.

Meta, por su parte, está destinando sus 30.000 millones a campus en Virginia y Oregon. Y Broadcom los usa para reforzar su división de semiconductores y sus equipos de red.

La amenaza. Pagar los intereses de toda esta deuda consume ahora el 15% de los beneficios operativos de estas empresas, frente al 10% de hace un año. Y el coste de pedir prestado ha subido: los bonos corporativos están cerca de sus niveles más caros desde 2022.

Si la factura energética sube un 20% —un escenario más que probable dado el estrés en las redes eléctricas— o si la IA no genera los ingresos esperados, estas empresas podrían ver reducida su calificación crediticia y desencadenar una crisis en cadena.

Sí, pero. Los grandes inversores siguen comprando estos bonos, atraídos por rentabilidades del 6%. El dinero fluye porque los tipos de interés oficiales están en el 3,75%, así que prestar a estas tecnológicas parece un buen negocio. El problema es que cualquier cambio brusco en los tipos puede hacer perder valor a estos bonos. Y rápido.

En juego. La deuda financia la revolución de la IA, pero también la hace más frágil y las tecnológicas siguen aumentando su inversión. Si la inflación vuelve o los beneficios no llegan, el mismo endeudamiento que acelera la innovación podría convertirse en un lastre.

Los inversores, mientras tanto, siguen ganando; pero asumen el riesgo de la tormenta.

En Xataka | Apple está resistiendo el impulso de los PC con IA porque los PC con IA han provocado una absoluta indiferencia

Imagen destacada | Towfiqu barbhuiya



via Robótica e IA - Xataka https://ift.tt/1rpdCB9

Ya sabemos cómo recuperar los prompts exactos que usa la gente en modelos de IA. Es una noticia terrorífica

Ya sabemos cómo recuperar los prompts exactos que usa la gente en modelos de IA. Es una noticia terrorífica

Un grupo de investigadores ha publicado un estudio que vuelve a hacer saltar las alarmas en materia de privacidad al usar la IA. Lo que han logrado demostrar es que es posible conocer el prompt exacto que usó un usuario al preguntarle algo a un chatbot, y eso pone a las empresas de IA en una posición delicada. Pueden, más que nunca, conocerlo todo de nosotros.

Un estudio terrorífico. Si a uno le dicen que 'Los modelos lingüísticos son inyectivos y, por lo tanto, invertibles' se quedará probablemente a cuadros. Ese es el título del estudio realizado por investigadores europeos en el que explican que los grandes modelos de lenguaje (LLM) tienen un gran problema de privacidad. Y lo tiene porque la arquitectura transformer está diseñada de esa forma: a cada prompt diferente le corresponde una "incrustación" diferente en el espacio latente del modelo. 

Un algoritmo chivato. Durante el desarrollo de su teoría los investigadores crearon un algoritmo llamado SIPIT (Sequential Inverse Prompt via ITerative updates). Dicho algoritmo reconstruye el texto de entrada exacto a partir de las activaciones/estados ocultos con una garantía de que lo hará en un tiempo lineal. O lo que es lo mismo: puedes hacer que el modelo "se chive" fácil y rápidamente.

Qué significa esto. Lo que quiere decir todo esto es que la respuesta que obtuviste al usar ese modelo de IA permite averiguar exactamente lo que le preguntaste. En realidad no es la respuesta la que de delata, sino los estados ocultos o embeddings que usan los modelos de IA para acabar dando la respuesta final. Eso es un problema, porque las empresas de IA guardan esos estados ocultos, lo que les permitiría teóricamente conocer el prompt de entrada con absoluta exactitud.

Pero muchas empresas ya guardaban los prompts. Eso es cierto, pero esa "inyectividad" crea un riesgo de privacidad adicional. Muchos embeddings o estados internos e almacenan para cacheo, para monitoreo o diagnóstico y para personalización. Si una empresa solo elimina la conversación en texto plano pero no borra el archivo de embeddings, el prompt sigue siendo recuperable a partir de ese archivo. El estudio demuestra que cualquier sistema que almacene estados ocultos está manejando de forma efectiva el texto de entrada mismo. 

Impacto legal. Aquí hay además un peligroso componente legal. Has tahora reguladores y empresas argumentaban que los estados internos no se consideraban como "datos personales recuperables", pero esa invertibilidad cambia las reglas del juego. Si una empresa de IA te dice que "no te preocupes, no guardo los prompts" pero sí guarda los estados ocultos, es como si esa teórica garantía de privacidad no sirviera de nada. 

Posibles fugas de datos. A priori no parece sencillo que un potencial atacante pueda hacer algo así porque primero tendría que tener acceso a esos embeddings. Una violación de seguridad que resulte en la fuga de una base de dato de esos estados internos/ocultos (embeddings) ya no se consideraría una exposición de datos "abstractos" o "cifrados", sino una fuente en texto plano a partir de la cual se podrían obtener por ejemplo los datos financieros o contraseñas que una empresa o usuario han usado al preguntarle al modelo de IA. 

Derecho al olvido. Esa inyectividad de los LLM complica también los requisitos del cumplimiento normativo de la protección de los datos personales, como el RGPD o el "derecho al olvido". Si un usuario solicita la eliminación total de sus datos a una empresa como OpenAI, esta debe asegurarse de eliminar no solo los registros de chats visibles, sino también todas las representaciones internas (embeddings). Si algún estado oculto persiste en algún registro o caché, el prompt original seguiría siendo potencialmente recuperable. 

Imagen | Levart Photographer

En Xataka | OpenAI está consiguiendo que la industria tech una su destino al suyo. Por el bien de la economía mundial, más vale que funcione



via Robótica e IA - Xataka https://ift.tt/n6TLhMN

Character.AI acaba de enseñarle a ChatGPT el camino para atajar el problema de la IA y los menores de edad

Character.AI acaba de enseñarle a ChatGPT el camino para atajar el problema de la IA y los menores de edad

El suicidio de un adolescente y otros casos de delirios han puesto a los chatbots IA en el punto de mira por sus efectos en la salud mental, sobre todo la de los más jóvenes. ChatGPT ya implementó controles parentales como respuesta ante esta creciente preocupación y hace unos días admitieron ser consciente de que ChatGPT estaba causando graves problemas de salud mental a algunos usuarios. . Ahora, Character.ai, uno de los chatbots que también está en el centro de la polémica, ha tomado una decisión drástica.

+18. Estados Unidos ya está legislando para regular el uso de los llamados 'compañeros IA' en menores de edad y Character.ai se ha adelantado tomando una medida más drástica que un control parental. Tal y como cuentan en TechCrunch,  partir del 25 de noviembre, la app empezará limitando el tiempo de uso a dos horas para los menores de 18. Poco a poco ese tiempo se irá reduciendo hasta que sea cero. 

Verificación de edad. Para asegurar que los menores de 18 no puedan seguir usando la app, Character.ai va a desplegar un sistema de verificación de edad que analiza el comportamiento de los usuarios. Si falla, la app usará verificación de identidad y reconocimiento facial adicionales para bloquear a los usuarios que no sean mayores de edad.

ChatGPT, calienta que sales. OpenAI ha tomado medidas recientemente para evitar casos como el de Adam Raine, principalmente la integración del control parental en ChatGPT. La medida contrasta con las declaraciones de Altman días después, cuando dijo que ChatGPT nos permitiría tener conversaciones de contenido erótico, pero sólo para mayores de edad. Altman dijo que la app exigiría una verificación de edad para quien quisiera darle este uso, pero no dijo nada de bloquearla por completo a menores de edad como ha hecho Character.ai.

¿Disparo en el pie? Hacer que ChatGPT sea una app para mayores de 18 años sería una medida contundente para acabar con el problema o, al menos, cumplir con lo que piden las primeras leyes que quieren regular los 'compañeros IA'. Sin embargo, podría ser un disparo en el pie porque les haría perder muchos usuarios, algo que no pueden permitirse con el clima actual.

OpenAI publicó hace poco un informe a fondo sobre sus usuarios, pero no compartió los datos de usuarios menores de 18 años, según ellos por cuestiones de privacidad. Sabemos que casi la mitad (el 46%) del total de su base de usuarios están entre los 18 y los 26 años. Es decir, una gran parte son usuarios muy jóvenes. 

Los menores y la IA. OpenAI no quiere decirnos cuántos menores usan su chatbot, pero gracias a otros estudios sabemos que el uso de IA generativa es muy popular entre este segmento de edad. Según un estudio de Plan Internacional, en España el 86% de los jóvenes de entre 12 y 21 años ha usado la IA recientemente. A su vez, un 18% de chicas y un 12% de chicos admite usarla "para hablar y contarle sus cosas".

Imagen | Character.ai, Pexels

En Xataka | La gran paradoja del móvil en la adolescencia: son malos para el rendimiento y la salud mental, pero prohibirlos en la escuela no sirve



via Robótica e IA - Xataka https://ift.tt/N0OIwmW

jueves, 30 de octubre de 2025

YouTube está listo para poner en marcha el mayor proyecto de reconstrucción de vídeo la historia. Y sí, utilizará IA

YouTube está listo para poner en marcha el mayor proyecto de reconstrucción de vídeo la historia. Y sí, utilizará IA

YouTube nació en 2005 y, desde entonces, se ha convertido en el archivo audiovisual más grande de la historia reciente. Durante años, millones de usuarios subimos vídeos en 240p o 480p porque era lo que permitían las cámaras, las conexiones y los dispositivos del momento. Ese material no pierde valor por tener baja resolución: hay piezas extraordinarias que siguen siendo referencia. Pero hoy las pantallas son mejores, el sonido importa más y esa diferencia se nota. Así que ahora llega un intento de actualizar esa experiencia sin borrar el pasado.

Un océano de vídeos. El catálogo de YouTube no es grande: es descomunal. Las cifras publicadas por electroiq sitúan el total en torno a 4.300 millones de vídeos en 2025, tras una etapa en la que el formato Shorts empujó las subidas hasta niveles nunca vistos. Solo en 2023 se añadieron unos 800 millones. Ese impulso se ha templado, en parte por controles sobre contenido repetitivo y una menor fiebre por los clips cortos, pero la tendencia se mantiene. Si el ritmo actual continúa, el servicio podría superar los 10.000 millones de vídeos antes de 2030.

YouTube empieza a “reconstruir” sus vídeos. YouTube ha anunciado que empezará a mejorar automáticamente los vídeos subidos en resoluciones entre 240p y 720p, elevándolos a calidad HD mediante inteligencia artificial. El proceso no elimina los archivos originales ni modifica el vídeo base: se trata de una versión alternativa visible bajo la etiqueta “super resolution”. Los creadores podrán decidir si quieren que se aplique y los espectadores conservarán la opción de ver el contenido en su resolución original. Es una medida que busca modernizar el archivo sin alterar su autenticidad.

Objetivo: 4K. La hoja de ruta es clara. Tras comenzar con vídeos por debajo de 1080p, YouTube quiere que la mejora automática también alcance resoluciones 4K “en el corto plazo”, de acuerdo con su anuncio. Para respaldar ese salto, ya se están probando subidas más pesadas con algunos creadores y las miniaturas podrán llegar también a 4K, gracias a la ampliación del límite de archivo de 2 MB a 50 MB. Todo apunta a un intento de la plataforma para que tanto el contenido como su presentación estén a la altura de los paneles actuales.

Youtube2 Youtube2

El audio también sube de nivel. La modernización del catálogo no se queda en lo visual. YouTube también ha introducido mejoras de audio automáticas que ajustan la mezcla y mantienen un volumen más uniforme entre distintas escenas. Estas mejoras automáticas se agrupan bajo la función “Stable volume”, que el espectador puede activar o desactivar según su preferencia. Con ello, la compañía busca evitar que los saltos de sonido rompan la experiencia, algo habitual en vídeos antiguos o grabaciones con equipos básicos.

No será para todos los vídeos. YouTube aclara que estas mejoras no se aplicarán de forma indiscriminada. Solo afectarán a los vídeos subidos en baja resolución que no hayan sido previamente remasterizados a 1080p o superior. Además, como ya mencionamos, los creadores pueden decidir desde YouTube Studio si desean que la plataforma aplique mejoras visuales o de audio a sus futuras subidas. Es una medida que busca evitar distorsiones no deseadas y dar margen a quienes prefieren mantener su contenido exactamente como fue publicado. Si se desactivan estas mejoras para el canal, es posible que los espectadores no puedan usar funciones como “Stable volume” o “Super resolution” en esos contenidos.

El reescalado ya no vive en tu televisor. Muchos televisores incluyen sistemas propios para mejorar la imagen, pero el planteamiento de YouTube es distinto. En vez de aplicar el reescalado en el dispositivo, la plataforma lo hace en la nube, lo que le permite procesar millones de vídeos de forma consistente sin depender del hardware del usuario. Además, el espectador puede elegir entre la reproducción original o la versión mejorada desde el menú de calidad, con una opción visible y explícita en la interfaz.

Catálogo, descubrimiento, legado. Para los creadores, esta actualización tiene una ventaja inmediata: no necesitan volver a subir vídeos antiguos para que se vean mejor en pantallas actuales. El archivo permanece intacto y la mejora se aplica como una capa adicional, respetando el original. Esto puede ayudar a que piezas valiosas de hace años ganen presencia, sin alterar su esencia. El espectador, por su parte, recibe una experiencia más homogénea y la posibilidad de elegir cómo ver cada contenido.

Imágenes | Xataka con Gemini 2.5 | CardMapr

En Xataka | NVIDIA ha llegado a la cima por sus centros de datos IA. Su próximo gran salto: coches



via Robótica e IA - Xataka https://ift.tt/4RtYLAp

Qué debe tener un videojuego para triunfar

Lo que debe tener un videojuego para triunfar

La pregunta de qué hace que un videojuego funcione de verdad no se resuelve solo con mecánicas sólidas o gráficos vistosos. En los últimos años, la industria ha vivido cierres de estudios y lanzamientos fallidos al mismo tiempo que algunos títulos se han convertido en referentes que resisten décadas. No es un rompecabezas con una única solución, sino un conjunto de capas: diseño, psicología, comunidad, negocio y, cómo no, timing.

Para entender el contexto, conviene recordar que los videojuegos siguen liderando el ocio audiovisual en España, con más de 1.530 millones de euros facturados en 2018 según AEVI, 16,8 millones de videojugadores y una media de 36 años, unas 5 horas semanales y un perfil mayoritariamente masculino. La presión por destacar es alta, pero la finalidad última no ha cambiado: entretener. Este artículo desgrana, con ejemplos concretos y criterios prácticos, las señales que anticipan un éxito y los elementos que lo sostienen en el tiempo.

Señales tempranas de que vas por el buen camino

Una señal inequívoca es tener una propuesta clara y diferente. Los proyectos que intentan abarcarlo todo suelen diluirse; en cambio, cuando puedes explicar en una frase por qué tu juego es especial —una mecánica inesperada, un estilo artístico reconocible o una narrativa que atrapa— es que tienes foco. Si tú mismo no puedes contarlo, difícilmente lo hará el público por ti.

Otra pista potente es la tracción de comunidad antes del lanzamiento. Que haya conversaciones orgánicas, preguntas por la fecha, gente compartiendo avances o wishlist creciendo habla de expectación real. No es solo ruido: ese potencial fandom aporta feedback crítico que te ayuda a ajustar la experiencia a tiempo, y a menudo multiplica la visibilidad sin invertir fortunas.

Durante las pruebas, fíjate en la retención. Si tus testers piden “una más” es que el bucle de juego funciona. Esa “adicción sana” es oro, y se construye con curva de aprendizaje amable y profundidad a largo plazo. En entornos formativos y estudios emergentes ya se han visto ejemplos que nacen con esa chispa, como proyectos de lucha surgidos del ecosistema de másteres tipo Frostfire, que demuestran que una idea bien ejecutada engancha desde los primeros minutos.

Piensa también en la escalabilidad. Hoy un título no termina en el día 1: crece con actualizaciones, temporadas, expansiones o incluso evolucionando a franquicia. Si tu idea abre puertas a nuevos modos, historias o colaboraciones, la probabilidad de éxito sostenido se dispara, porque amplías el ciclo de vida sin romper el núcleo.

Por último, la validación externa: si publishers, inversores o profesionales muestran interés, te están diciendo que ven valor de mercado. Esto se ha visto con propuestas independientes de terror como The Occultist, nacidas en estudios nacionales y apoyadas por talento formado en programas de Arte 3D, Animación, Programación o Diseño. Ese sello no garantiza el triunfo, pero sí indica que no estás solo.

Diseño que engancha: jugabilidad, controles y bucle

La jugabilidad es el corazón. Un juego puede ser bellísimo o contar una historia de premio, pero si no es divertido en las manos, todo se desinfla. El reto es lograr un equilibrio entre accesibilidad para quien empieza y suficiente chicha para quien domina. El control debe ser responsivo, consistente y comunicativo: Super Mario 64 es el ejemplo canónico de cómo un buen set de movimientos convierte el manejo en placer por sí mismo.

Un buen juego cultiva un bucle de retroalimentación satisfactorio: acción, respuesta, recompensa y progreso. La percepción de avance puede venir por crecimiento del personaje, desbloqueos de habilidades, recursos o equipo, historia que avanza o desafíos graduados. Ese “lo tengo, pero puedo hacerlo mejor” mantiene a la gente dentro, sin necesidad de trucos deshonestos.

Ser justo importa. Da igual si el juego es duro como una piedra o un paseo: el jugador debe sentir que pierde por razones comprensibles y gana porque aprende. La dificultad ideal arranca casi sin fricción —para asentar controles y confianza— y crece con constancia, sin picos injustificados. El resultado es ese “una más y lo dejo” que tantas veces nos atrapa.

Un recordatorio útil para docentes y diseñadores, inspirado en debates de aula, podría resumirse así: el juego debe mantener la atención (inmersión), ofrecer controles accesibles, sostener un ciclo de feedback gratificante, ser equitativo y permitir que el jugador sienta el progreso. Es un checklist sencillo que, bien aplicado, evita muchos tropiezos de diseño.

Narrativa, arte y sonido que suman

qué hace que un videojuego sea exitoso

La historia no es solo “contar” algo, sino cómo se integra con lo que haces. La narrativa que dialoga con las mecánicas eleva la experiencia y hace que el mundo se sienta coherente. No todos los juegos necesitan una trama compleja (ahí está Pac-Man), pero cuando está, debe empastar con el ritmo del juego para que lo emocional y lo sistémico se apoyen.

En lo visual, importa tanto el estilo como la ejecución. No hace falta perseguir el “brilli brilli” técnico si no aporta: lo crucial es la coherencia estética y la legibilidad. The Legend of Zelda: The Wind Waker demostró que una dirección de arte valiente y atemporal puede diferenciar un mundo sin competir en fotorealismo.

El sonido es un actor principal. Efectos bien diseñados y una banda sonora con intención guían, emocionan y reportan estado al instante. Un caso ilustrativo es Gears of War, donde desde el rugido de la motosierra hasta el “clic” de una recarga activa perfecta retroalimentan el juego con precisión sensorial.

Mundos, personajes y rejugabilidad

Los videojuegos son interactivos y, por tanto, invitan a explorar. Los mundos que “respiran” recompensan la curiosidad con misiones bien hiladas, eventos interesantes y hallazgos a la vuelta de la esquina. The Witcher 3 consolidó este enfoque con espacios que parecían vivir al margen del jugador y que, aun así, respondían a sus decisiones.

Los personajes memorables no son patrimonio exclusivo de juegos narrativos. Un elenco visualmente distinguible, bien escrito y con aristas conecta más que un desfile de arquetipos planos. Chrono Trigger es paradigmático: un jovenzuelo pelirrojo, un robot, una rana caballeresca, una cazadora de otra era y un mago oscuro bastan para quedarse a vivir en la memoria.

La duración no lo es todo: la rejugabilidad es a menudo la clave. Hay niveles que puedes pasar cien veces —como el primer mundo de Super Mario— y siguen siendo divertidos. Otros títulos, como League of Legends, aseguran variedad al permitir roles distintos y combinaciones que cambian cada partida, manteniendo fresco el reto sin reescribir el juego entero.

Psicología y UX al servicio del juego

Entender cómo percibimos, atendemos y recordamos no es opcional. La psicóloga del videojuego Celia Hodent recuerda que la percepción es subjetiva, la atención escasa y la memoria frágil: olvidamos gran parte de lo aprendido al día siguiente. Diseña, por tanto, para que el jugador perciba “lo que toca”, no satures cuando está ocupado y refresca objetivos al retomar la partida.

Fortnite aplica un onboarding claro que plantea una “receta” de objetivos al entrar. También cuida cuándo lanza avisos importantes para no interferir en momentos de alta carga. Además, potencia la expresión y la socialización; no todo es competir: colaborar y pertenecer también engancha.

Desde la óptica de UX en grandes estudios, la norma número uno es la facilidad de uso: qué hacer y cómo hacerlo debe estar clarísimo. A partir de ahí, impulsa la autonomía (elegir misión al estilo GTA o Assassin’s Creed), la competencia (mejorar y dominar, como en World of Warcraft) y la relación (interactuar con otros, como pasa en Fortnite). La repetibilidad, por último, exige variedad en runs sucesivas, algo que muchos MOBAs y roguelikes han interiorizado.

Innovación y herencia: de Wolfenstein a hoy

Mucho de lo que jugamos hoy se apoya en revoluciones pasadas, desde Flash hasta Wolfenstein en shooters, Tomb Raider en aventuras, y pilares como Alone in the Dark, Monkey Island, UFO/X-COM, Need for Speed, Microsoft Flight Simulator o Age of Empires sentaron bases de géneros enteros. Innovar no siempre es inventar desde cero: a veces es recombinar lo clásico de forma fresca, como descubrir un Kalimotxo del diseño.

Una máxima célebre, atribuida a Sid Meier, define un buen juego como una serie de decisiones interesantes. Traducido al diseño práctico: ninguna opción debería dominar siempre, no conviene que todas atraigan por igual y el jugador necesita información suficiente al decidir. Cumplir esas tres reglas suele generar elecciones tensas y placenteras.

Pero no todo va de elegir. Juegos de ritmo tipo Dance Dance Revolution o Vib-Ribbon prueban que seguir el compás con precisión —sin grandes dilemas— también engancha. Y The Sims, como la novela realista del XIX, convirtió “lo cotidiano” en tema central atractivo, demostrando que lo interés puede surgir donde parecía no haberlo.

A medida que el medio madura, se abre la brecha entre públicos: conocedores frente a casuales, con títulos como Deer Hunter colándose en listas de más vendidos pese al desdén de algunos veteranos y fenómenos como Pokémon Go. Esta diversidad recuerda a la música pop: hay espacio para expresiones muy dispares, y es buena señal de que el mercado crece y se sofistica.

Retención, servicio continuo y comunidad

El lanzamiento es un punto de partida. Modelos live-service demuestran que con parches, temporadas y contenidos nuevos puedes sostener la atención durante años. World of Warcraft es el caso obvio, pero hasta propuestas single player como Euro Truck Simulator han sumado expansiones y mejoras que alargan la vida útil sin traicionar a su comunidad.

Invertir en comunidad no es solo abrir un Discord. Es escuchar, priorizar mejoras de calidad de vida, comunicar con transparencia y dar herramientas para que los jugadores se expresen y colaboren. La comunidad bien cuidada se convierte en tu mejor marketing y en tu sistema de alarma temprana.

Negocio, distribución y métricas que sí importan

Qué debe tener un videojuego para triunfar

La distribución ya no es como hace 20 años: hoy puedes publicar en tiendas móviles y PC/console con relativa facilidad. Angry Birds escaló aprovechando ese canal y modelos freemium, pero sin un producto divertido y bien resuelto, la exposición por sí sola no te salva. El marketing ayuda, claro, pero si el boca-oreja no despega, es que falta propuesta.

Ojo con las métricas. Las suscripciones tipo Game Pass son un escaparate potente, pero contar “usuarios que probaron” no equivale a éxito. Instalar, abrir y desinstalar infla cifras sin traducirse en amor ni retención real. A la vez, los titulares de ventas o las notas de prensa y agregadores son útiles, pero no infalibles; los sesgos de marca o plataforma contaminan la foto.

¿Entonces qué medir? Más allá de ventas, mira retención día 1/7/30, tiempo de sesión, tasa de finalización, RPV/LTV si hay monetización, y participación comunitaria. Hay ejemplos recientes de crítica fantástica con finanzas flojas (pensemos en Guardians of the Galaxy) y superproducciones que, aun vendiendo mucho, no tapan agujeros de balance (caso Final Fantasy XVI). El tablero es complejo: negocio, percepción y diversión no siempre se alinean.

Cómo mide el éxito un estudio indie

Para equipos pequeños, una regla pragmática es valorar el propio tiempo. Si trabajas 10 horas semanales durante 2 años, acumulas unas 1.040 horas; a una tarifa conservadora de 21 dólares/hora, el coste de oportunidad ronda 21.840 dólares. Cualquier ingreso por encima de esa cifra podría considerarse un “éxito” económico. Luego hay retornos intangibles: portfolio, comunidad, puertas que se abren. Pero poner un mínimo te ayuda a evaluar con frialdad.

Además del dinero, plantéate metas de aprendizaje y alcance: cuántos jugadores activos quieres, qué tasa de reseñas positivas aspiras a lograr, qué partnerships te gustaría cerrar. El éxito, especialmente en indies, es multidimensional.

Controles simples, dificultad escalonada y carisma

Muchas sagas populares comparten dos rasgos: controles asequibles y desafíos que suben de forma gradual. Mario, Zelda, Pac-Man o Pokémon —y fenómenos como Angry Birds— apuestan por entrar sin fricción y luego retar con inteligencia. Un buen tutorial casi invisible y niveles que enseñan jugando convierten la curva en aliada, no en muro.

El carisma importa: manejar a alguien (o algo) que te caiga bien o te fascine visualmente suma puntos. No hace falta que el avatar sea “realista”: a veces lo que engancha son licencias absurdas o rasgos exagerados que proyectan deseos imposibles. El truco está en que el jugador se identifique con la fantasía que propones.

Formación y profesionalización: reduciendo la distancia

La pasión es el combustible, pero la técnica y la guía acortan mucho el camino. Centros especializados ayudan a transformar ideas en prototipos jugables y a entender cómo pide la industria que presentes tu juego a un publisher o inviertas tu tiempo. Programas centrados en Programación y Diseño, Arte 2D y Animación 3D, y producción preparan para el mundo real y conectan con profesionales que ya han pasado por ahí.

De estos ecosistemas salen títulos que llaman la atención de agentes del sector, como el citado The Occultist, pero también proyectos de clase que acaban escalando. La clave, con o sin escuela, es combinar talento, foco y método con una estrategia de comunidad desde el día uno.

Si ponemos todo junto —propuesta clara, controles que responden, bucle gustoso, narrativa que acompaña, arte y audio al servicio del juego, mundos que invitan a explorar, personajes con chispa, UX basada en cómo pensamos y recordamos, innovación con raíces, comunidad activa, métricas honestas y objetivos de negocio realistas— entendemos por qué unos títulos trascienden y otros se desinflan. No existe una fórmula única ni una varita mágica, pero sí un conjunto de principios contrastados y ejemplos —de Donkey Kong, Civilization y Counter-Strike a Super Monkey Ball, The Sims, World of Warcraft, Euro Truck Simulator, The Legend of Zelda: The Wind Waker, Gears of War, The Witcher 3, Tetris, Chrono Trigger, GTA o Fortnite— que demuestran que, cuando el diseño, la psicología y la estrategia reman a favor, las probabilidades de éxito suben de manera notable.



via Actualidad Gadget https://ift.tt/P2XrDox

NVIDIA ha llegado a la cima por sus centros de datos IA. Su próximo gran salto: coches

NVIDIA ha llegado a la cima por sus centros de datos IA. Su próximo gran salto: coches

NVIDIA ha desvelado su plataforma Drive AGX Hyperion 10, un sistema de computación y sensores diseñado para que cualquier fabricante produzca vehículos autónomos de nivel 4. Uber ya ha firmado un acuerdo para desplegar 100.000 unidades en su red global a partir de 2027, y Stellantis, Lucid y Mercedes-Benz también se han sumado al proyecto.

Por qué es importante. Durante años, la conducción autónoma ha sido una promesa persistente a menudo envuelta en marketing. NVIDIA ha convertido esa promesa en una oferta industrial con arquitectura estandarizada, chips certificados y simulaciones listas para usar. No vende coches autónomos, pero sí el sistema operativo que los hará posibles.

El contraste. Tesla lleva una década vendiendo autonomía como acto de fe, con actualizaciones permanentes, flota propia y promesas de "millones de Teslas autónomos" cada año. NVIDIA en cambio una ofrece plataforma abierta donde cualquier fabricante puede enchufar su hardware.

  • Tesla quiere ser un equivalente a Apple en coches.
  • NVIDIA prefiere ser algo más parecido a Windows.

Entre líneas. La automoción apenas le supone a NVIDIA un 1,3% de sus ingresos, pero ese segmento está creciendo más rápido que el resto. En cualquier caso, el anuncio de Uber no tiene un calendario real para esas 100.000 unidades al menos que se haya hecho público.

Tykba Nbsp El Desglose De Los Ingresos De Nvidia En 2025 Tykba Nbsp El Desglose De Los Ingresos De Nvidia En 2025
Jgdkt Nbsp Ingresos Por Divisi N De Nvidia Y Su Variaci N Interanual Jgdkt Nbsp Ingresos Por Divisi N De Nvidia Y Su Variaci N Interanual

Waymo, que lleva años desarrollando sus robotaxis, ya va por su sexta generación y tiene detrás el músculo financiero de Alphabet, apenas opera 2.000 de ellos. Hay una brecha considerable entre ambición y realidad.

El telón de fondo. Drive Hyperion 10 se basa en dos chips Thor (2.000 teraflops cada uno), catorce cámaras, nueve radares, un LiDAR y doce sensores ultrasónicos. NVIDIA lo ha diseñado con redundancia total: si falla un componente, el vehículo se detiene de forma segura para evitar errores en cadena que multipliquen el daño potencial.

Lucid será uno de los primeros en ofrecer conducción autónoma de nivel 4 a clientes particulares y no solo a flotas. Su CEO interino ha admitido que hasta ahora han decepcionado en cuanto a asistencia a la conducción. Su apuesta por NVIDIA es el clásico reconocimiento implícito: sale mejor comprar el cerebro que construirlo.

El rastro del dinero. NVIDIA de momento seguirá sin construir robotaxis, pero de momento vende infraestructura: chips, software de simulación, datos sintéticos... Y cobra por cada vehículo que use su plataforma. Es un modelo de ingresos más predecible que depender de que la autonomía total llegue algún día.

Huang, en cualquier caso, ha dicho que ese momento está cerca. Lo interesante no es si tiene razón, sino que su definición ya no depende de la fe ciega. Depende de reguladores, certificaciones y pruebas industriales. La autonomía ha dejado de ser ciencia ficción para convertirse en un problema de ingeniería. Y esos problemas se resuelven con procesos, no con promesas.

En Xataka | China ha convertido el mercado del coche eléctrico en una carrera desquiciada. Y Porsche lo paga con pérdidas milmillonarias

Imagen destacada | Xataka




via Robótica e IA - Xataka https://ift.tt/yNd7V2n

miércoles, 29 de octubre de 2025

Microsoft ya no vende software: vende inevitabilidad

Microsoft ya no vende software: vende inevitabilidad

OpenAI ha dejado de ser una entidad con un control híbrido y pasa a ser una empresa con todas las de la ley. Es decir, con ánimo de lucro. Microsoft, que tenía derechos especiales y un puesto en su junta, cede esa posición a cambio de algo más estable:

  • Acceso garantizado y perpetuo a los modelos de OpenAI (los actuales y los futuros).
  • Libertad para crear sus propios modelos fundacionales sin restricciones.

Gana independencia sin perder tecnología.

Por qué es importante. Esto no convierte a Microsoft en dueña de OpenAI, sino en la plataforma que convierte su IA en producto masivo. OpenAI puede seguir investigando, pero quien controla el acceso a usuarios y empresas sigue siendo Microsoft.

La distribución define hoy el poder, por encima incluso de la invención.

La panorámica general. Microsoft lleva más de una década transformando su negocio desde la venta de licencias hacia la venta de dependencia continua:

  • Office 365 eliminó o relegó la opción de comprar el software una sola vez.
  • Windows 10 introdujo actualizaciones obligatorias que convirtieron el sistema operativo en servicio permanente.
  • Azure ha atado la infraestructura empresarial a su nube.

El patrón es consistente: convertir herramientas en plataformas, productos en suscripciones, y opciones en inevitabilidades. El acuerdo con OpenAI no es una excepción, es la culminación.

En detalle. Microsoft mantiene algo que ningún otro actor tiene:

  • Integración directa de Copilot en Office, Teams, Outlook y Windows.
  • Contratos empresariales a gran escala que convierten la IA en coste estructural del trabajo digital.
  • Control sobre el punto de entrada: el lugar donde millones de personas trabajan cada día.

El nuevo acuerdo asegura que OpenAI no puede cerrarle el grifo, y que Microsoft puede ampliar o sustituir sus modelos sin depender de terceros.

El trasfondo estratégico. Hasta ahora, Microsoft no podía desarrollar su propia AGI. Ahora sí. Esto le permite dos rutas paralelas:

  1. Usar los modelos de OpenAI en su ecosistema.
  2. Desarrollar los suyos propios (o integrarlos con otros) si OpenAI se desvía o se retrasa.

Gana libertad tecnológica y estabilidad comercial. Pero sobre todo, gana algo más valioso: la certeza de que la IA no será opcional en su software.

Entre líneas. El movimiento consolida a Microsoft como el principal canal de consumo de IA en el trabajo. No por contrato, sino por posición de mercado.

Millones de usuarios ya pagan por Copilot sin elegirlo expresamente. Las empresas lo asumen como parte del coste normal de productividad. No hay alternativa real: si trabajas en Word, usas Copilot. Si gestionas correos en Outlook, usas Copilot. Si coordinas equipos en Teams, usas Copilot.

Sí, pero. Esto no es el dominio tecnológico tradicional. Microsoft no necesita tener la mejor IA. Solo necesita tener la más integrada. OpenAI puede ser más brillante, Google puede ser más rápido, Meta puede ser más abierta (o no tan abierta). No importa, porque ninguno está dentro del software donde se hace el trabajo.

La IA deja de ser un añadido. Se convierte en infraestructura invisible.

El contraste. Otros gigantes tecnológicos siguen apostando por la excelencia del modelo:

Todos compiten por tener la mejor tecnología, pero Microsoft compite por otra cosa: por ser el lugar donde esa tecnología se usa, independientemente de quién la haya creado.

En resumen:

  • OpenAI se libera para crecer como empresa.
  • Microsoft se asegura de que, ocurra lo que ocurra, la IA pase por su software.
  • El resto de la industria compite por inventar. Microsoft ha ganado distribuyendo.

No vende IA. Vende inevitabilidad.

En Xataka | La IA funciona mejor si eres borde

Imagen destacada | Microsoft




via Robótica e IA - Xataka https://ift.tt/NbVInds

"Puede resumir 50 folios de estudios en cinco minutos": hablamos con los hospitales españoles que ya están utilizando la IA

"Puede resumir 50 folios de estudios en cinco minutos": hablamos con los hospitales españoles que ya están utilizando la IA

"Con la inteligencia artificial en consulta podemos volver a mirar a los ojos al paciente". Esto es lo que opina Manel Ramos, médico internista del Hospital Clínic de Barcelona y Director del Máster IA en Investigación y Docencia de la Universitat de Barcelona.

La idea puede parecer paradójica: automatizar procesos para centrar la atención en lo humano, pero esta tecnología vendría a corregir un problema generado por una anterior. Con los registros digitales en consulta, positivos en muchos aspectos, "pasamos de ser escuchantes a escribientes, el médico profesional solo mira la pantalla porque está rellenando campos predefinidos", explica Ramos. Así que si la IA se encarga de la parte burocrática, los médicos pueden concentrarse en atender a los pacientes.

Ramos se refiere a unos programas conocidos como escribas médicos (Medical Scribe), que se están probando como programa piloto en el Clínic y también en otros centros públicos españoles, como el Hospital La Paz, en Madrid, y centros privados como los del grupo Quirón. El objetivo es que el médico deje de ser un mero introductor de datos: que la IA capture la información mientras el profesional habla, mira y atiende al paciente, sin interrumpirse cada pocos segundos para escribir.

"El programa está en la consulta con el paciente y sirve al profesional de asistente: graba las notas de la conversación y luego hace un pequeño resumen que el profesional valida", explica Araceli Camacho, directora de Transformación Digital en el Hospital Clínic y coordinadora del piloto. El propósito, dice, es que "el profesional tenga más tiempo de calidad con el paciente". Y Ramos insiste: "Siempre hay revisión humana, es necesaria la validación de un médico".

Un largo historial de IA aplicada

Los Scribe pertenecen al ámbito de la inteligencia artificial generativa, diseñada para comunicarse en lenguaje natural y cuyo exponente más popular es ChatGPT. Desde su explosión en 2022, esta tecnología se ha integrado en múltiples tareas cotidianas. Los centros médicos no han sido una excepción.

Además de para tomar notas en consulta, Ramos señala que la IA generativa puede ayudar también con tareas administrativas: "Por ejemplo, un paciente trae 50 folios de estudios, la IA puede resumirlos en 5 minutos. El objetivo es reducir la carga burocrática y dejar que los profesionales se concentren en la atención al paciente".

Pero aunque su expansión masiva es reciente, la IA generativa aplicada a las consultas médicas no es nueva. Según Camacho, "se puede aplicar en muchos campos dentro de un hospital. Nos sirve para mejorar la calidad asistencial, buscar eficiencia en los procesos y ayudar en la investigación".

Se empieza a trabajar con IA en los años 50 y se aplica a la medicina desde los 70, con los primeros modelos de diagnóstico temprano de enfermedades infecciosas. En el siglo XXI, el aumento de capacidad de procesamiento ha permitido entrenar algoritmos para prevención, diagnóstico, tratamientos personalizados y gestión hospitalaria.

En el Hospital Universitario La Paz, por ejemplo, la IA se utiliza "en 24 servicios clínicos a través de unos 40 proyectos que cubren prácticamente todo el espectro de la IA: desde robótica hasta IA generativa y predictiva, basada en textos, datos estructurados, señales o imagen médica",  cuenta Fernando Martín Sánchez, Subdirector Gerente para Informática Médica, Estrategia Digital e Innovación en el centro madrileño.

Clinic Clinic El Hospital Clínic de Barcelona.

Se benefician prácticamente todas las disciplinas, desde cardiología a neurología, pasando por anatomía patológica. Pero dónde la IA avanza a más velocidad es en el campo de la imagen: radiología, TAC, resonancias, endoscopias. "La radiología es donde más rápido se está integrando la IA", señala Ramos. "Ayuda a confirmar resultados normales, prioriza casos urgentes y reduce la carga de los radiólogos".

También son destacables los avances en dermatología (donde es capaz de hacer un cribado de imágenes de lesiones) o en oncología:  (con un gran desarrollo de la selección de tratamientos personalizados). Sin embargo, "lo más cercano al contacto humano directo, como psicología o psiquiatría, avanza más lento, por suerte", añade Ramos.

Empresas españolas como Quibim han publicado estudios que muestran incrementos significativos en sensibilidad diagnóstica en tumores específicos. También existen sistemas en oftalmología para detectar retinopatías o glaucoma.

En estos casos, se trata de inteligencia artificial predictiva o discriminativa, basada en redes neuronales y aprendizaje profundo (deep learning). "Este tipo de sistemas se entrenan con una gran cantidad de datos. Por ejemplo, se le proporciona gran cantidad de imágenes de pacientes con neumonía y otras de pacientes sanos. El modelo aprende a reconocer patrones y, cuando se le presenta una imagen nueva, puede determinar si se trata o no de una neumonía", explica Martín Sánchez.

Por otro lado, la robótica para intervenciones quirúrgicas es una herramienta felizmente implantada en alrededor de 80 hospitales españoles, donde el robot cirujano Da Vinci ha realizado miles de operaciones en oncología, o incluso para trasplantes de órganos, durante los últimos años.

Pero una implantación lenta en España

El ritmo de implantación de estas herramientas sigue siendo "muy bajo", a ojos de Manel Ramos. "Cada área incorpora estas tecnologías a un ritmo distinto: lo más cercano a la imagen va más rápido, lo más cercano al trato personal va más lento".

El quid de la cuestión de esta lentitud es que todo debe ajustarse a rígidos protocolos, algunos aún en elaboración. Hay, por ejemplo, "que vigilar la protección de datos del paciente. Los registros de voz son delicados, el paciente debe dar su consentimiento informado y saber que se está grabando", advierte Ramos.

hospital hospital Una máquina de diagnóstico de imagen en el Hospital La Paz de Madrid. (Comunidad de Madrid)

Además de la Ley de Protección de Datos, en España, a nivel europeo se aprobó en junio de 2024 otra norma crucial para la entrada de tecnologías de este tipo en distintos ámbitos, también en medicina, la Ley Europea de Inteligencia Artificial, que introduce un marco legal común para evaluar el nivel de riesgo de los sistemas antes de su uso. Los de alto riesgo (como los sanitarios) deberán cumplir con requisitos de transparencia, supervisión humana y calidad de datos.

La norma también prohíbe prácticas inaceptables como la manipulación cognitiva o la identificación biométrica en tiempo real en espacios públicos, e impone transparencia a las herramientas generativas, que deberán informar cuando el contenido haya sido creado artificialmente.

Por su parte, el Ministerio de Sanidad espera aprobar "próximamente" la Estrategia de Inteligencia Artificial (IA) en el Sistema Nacional de Salud (SNS). Y a nivel autonómico, las comunidades también invierten en planes que incorporan IA para agilizar cribados y reducir tiempos de diagnóstico de enfermedades como el cáncer.

"Todo esto son iniciativas que surgen de abajo arriba; es decir, son los propios servicios los que detectan una necesidad y, bien con sus propios medios o bien a través de colaboraciones, han desarrollado estos pilotos y los están probando", cuenta Martín Sánchez. Es decir, la implantación de la IA en Sanidad no parte de una estrategia coordinada a nivel nacional o regional ni hay listas oficiales. Sin embargo, los hospitales "tenemos que adecuarnos a la legislación vigente, como el Reglamento de IA de la Unión Europea o la Ley de Protección de Datos". 

Y cuando por fin entra la IA en un hospital, no se acaba el proceso: hay que evaluar si esta tecnología de verdad cumple con las ventajas que promete, o se trata de una pérdida de tiempo y dinero, así como un perjuicio para el paciente. "Desarrollar un sistema puede llevar un año, pero evaluarlo clínicamente, tres o cuatro. Además no está claro quién debe hacerlo: el hospital, el proveedor o la administración; la ley europea no entra en la efectividad clínica, solo exige demostrar precisión y fiabilidad", explica Martín Sánchez.

Para Ramos, la clave está en la metodología científica: “Esto no deja de ser un estudio científico, con hipótesis, objetivos, metodología y protección de datos. Todo debe pasar por un comité de ética para verificar que se cumplen las leyes y que el paciente está cubierto. Eso enlentece mucho la implantación”.

¿Es realmente fiable la IA a nivel médico?

Sánchez apunta que "las IAs predictivas son las más fáciles de evaluar que las generativas. Puedes probarlas con un conjunto de imágenes nuevas y medir cuántas veces aciertan. Si aciertan en el 99%, puedes confiar razonablemente en ellas. Esto no ocurre con la generativa, que produce contenido nuevo. Su evaluación es mucho más compleja".

"Una cosa es probar que la tecnología funciona y otra demostrar que mejora los resultados de salud. Todavía no hay una metodología universal para evaluar esa efectividad clínica. Ni médicos ni pacientes se van a fiar de un sistema que no demuestre beneficios reales", añade.

La IA sigue enfrentando riesgos. "La inteligencia generativa sabemos que tiene esas alucinaciones, o sea, que se puede inventar cosas", advierte Martín Sánchez, haciendo referencia a las respuestas falsas o inventadas por modelos como ChatGPT, por datos insuficientes o sesgos en el entrenamiento.

Ramos cree que esos riesgos se están reduciendo con modelos más potentes: "Los errores suelen deberse a no hacer la pregunta adecuada o a no validar la respuesta. A veces, se pide a la máquina un 0% de error cuando los humanos tampoco lo tenemos". Y añade: "Yo, como internista, que me dedico a enfermedades autoinmunes, y puedo pedir una opinión sobre el lupus o el Crohn porque luego validaré la respuesta, pero no puedo pedirla sobre un caso complejo de cáncer porque no voy a saber si se equivoca".

Además, los algoritmos que gobiernan estas IAs reflejan por lo general sesgos humanos, lo que puede ser peligroso cuando toman decisiones. En junio, el medio Civio reveló que Quantus Skin, un sistema de detección de cáncer de piel que iba a ser implantado en el País Vasco, pasaba por alto uno de cada tres melanomas, con una sensibilidad del 69%, y obviaba a los pacientes de piel oscura porque había sido entrenado solo con pacientes blancos. Los especialistas calificaron sus resultados de "pobres" y "peligrosos".

Otra investigación del mismo medio alerta de una anomalía que ya se está produciendo en hospitales españoles: la IA, según cuentan, se está integrando en la sanidad pública española a través de sistemas como Eyelib, un robot que realiza diagnósticos oftalmológicos,  y que se presenta como una solución a las listas de espera, pero que se usa sin informar previamente a los pacientes de sus datos van a ser usados en un sistema de inteligencia artificial.  

Hacia el fin de los "rellenadores"

Para que la Sanidad pueda trabajar valiéndose de la IA sin que sea un lastre, la formación del personal es esencial. "Tenemos retos de integración y de adaptación de los equipos. Hay que formar al personal. La inteligencia artificial supone un cambio no solo en sanidad, sino en todos los ámbitos", señala Araceli Camacho. El experto de La Paz coincide: "Estamos haciendo un gran esfuerzo por formar a clínicos e investigadores. Tenemos varios cursos al año, pero también necesitamos expertos permanentes en inteligencia artificial en salud. Y eso cuesta mucho conseguirlo".

Además, las consecuencias para el medioambiente del uso desmedido de la IA preocupa a los expertos. En la Universidad Complutense de Madrid advierten del impacto ambiental: los centros de datos necesarios para entrenar y ejecutar modelos de IA consumen grandes cantidades de agua y energía. Se estima que por cada veinte respuestas generadas por herramientas como ChatGPT se utiliza un litro de agua. Para mitigar estos efectos, proponen mejorar la eficiencia hídrica, ubicar los centros en zonas adecuadas y promover un etiquetado ambiental.

Según Martín Sánchez "entrenar modelos requiere electricidad, agua para refrigerar los centros de datos y produce residuos. En el hospital tenemos una unidad dedicada a estudiar estos temas y sensibilizar al personal para que no se haga un uso desmesurado. Es como dejarse la luz encendida toda la noche: hay que usar la tecnología de forma racional".

"Esta mecánica de ser solo rellenadores de datos tiene que cambiar. Seguramente el año que viene, en 2026, ya empecemos a ver el cambio en bastantes hospitales", dice Ramos, para quien es crucial que se respete el "concepto de human in the loop, que significa que el ser humano debe estar siempre en medio de los procesos generativos, tanto al inicio como al final, con la validación".

"El impacto de esta tecnología es incluso mayor que el que tuvo la electricidad o Internet. Su influencia será absoluta, transversal en todas las áreas del conocimiento y en el día a día de las personas", concluye el internista.

En Xataka | No sabíamos por qué algunas superbacterias eran resistentes a los antibióticos. Esta IA lo ha averigado en dos días

En Xataka | La empresa china Alibaba tiene una IA para detectar el cáncer de páncreas. Es tan buena que EEUU ha acelerado su aprobación

Imagen | Comunidad de Madrid



via Robótica e IA - Xataka https://ift.tt/01pxwuV