martes, 30 de septiembre de 2025

OpenAI acaba de presentar Sora 2 con propia app al estilo TikTok. Con ello se perfila una nueva oleada de vídeos virales

OpenAI acaba de presentar Sora 2 con propia app al estilo TikTok. Con ello se perfila una nueva oleada de vídeos virales

Abres el móvil y, en pocos segundos, te ves a ti mismo dentro de una escena que no existía hace un minuto: eres el protagonista de un clip que parece rodado de verdad, con movimientos y rebotes que se sienten coherentes. La mecánica no tiene misterio, grabas una breve toma para capturar tu voz y tu cara, y la app te “coloca” en el escenario. Lo llamativo es la sensación de control, puedes encadenar planos y mantener el estado del mundo sin que nada se desmorone. Ahí empieza el juego de Sora 2

Para entender qué supone Sora 2 conviene mirar atrás. El camino se abrió en 2022, cuando ChatGPT colocó la generación de texto en el centro del debate tecnológico. Aquel impulso dio paso a modelos de imágenes y, en febrero de 2024, a la primera versión de Sora, un prototipo que ya mostraba permanencia de objetos y cierta coherencia visual. La competencia no tardó en reaccionar: Runway con su Gen-4 y otros proyectos marcaron la pauta de un mercado en plena ebullición que ahora recibe un nuevo capítulo.

Qué hay de nuevo en Sora 2. OpenAI describe este modelo como un salto comparable al que en su día supuso GPT-3.5 para el texto. La gran diferencia está en la fidelidad física: si una pelota falla el aro, rebota en el tablero en lugar de teletransportarse, un error común en sistemas anteriores. También puede mantener el estado de una escena entre planos y seguir instrucciones más complejas. Además de vídeo, genera voces, efectos y paisajes sonoros, lo que lo convierte en una herramienta de vídeo-audio mucho más completa.

La app: cameos, remix y feed. junto con el modelo llega una aplicación pensada para usarlo en clave social. Tras una verificación rápida de rostro y voz, el usuario puede insertarse como cameo en cualquier escena y compartir el resultado con sus contactos. La app permite remezclar vídeos de otros y navegar por un feed que se ajusta a las preferencias mediante lenguaje natural. OpenAI asegura que la experiencia está diseñada para fomentar la creación conjunta, no el consumo pasivo, y que se estrena bajo invitación en iOS.

Sora App Sora App

Bienestar y seguridad: controles y límites. La compañía liderada por Sam Altman insiste en que su aplicación no busca atrapar al usuario en un scroll infinito. Está diseñada para priorizar a personas conocidas y fomentar la creación más que el consumo. Para los adolescentes se aplican restricciones de base, como un número limitado de generaciones y permisos más estrictos en cameos. A esto se suman controles parentales desde ChatGPT y la posibilidad de revocar cualquier uso de tu imagen. También habrá moderadores humanos para casos de acoso.

Sora2 2 Sora2 2

¿Es gratis? Como decimos, la aplicación de Sora 2 se estrena de forma gradual en iOS, con un despliegue inicial en Estados Unidos y Canadá. OpenAI promete extenderla a más países, aunque de momento no está disponible en España. El acceso requiere invitación. El servicio arranca de manera gratuita, con límites de uso que dependen de "la capacidad de cómputo". Además, los suscriptores de ChatGPT Pro, el plan de 200 dólares mensuales, tienen acceso a una versión Sora 2 Pro con mayor calidad, y la compañía prevé habilitar el modelo vía API.

Sora2 Sora2

Algunos fallos permanecen. Entre los ejemplos que podemos ver en el vídeo que acompaña este artículo aparecen combates de anime, exploradores que gritan bajo una ventisca o acrobacias que respetan la rigidez y la flotación. El modelo consigue dar la impresión de que los fallos pertenecen al propio personaje, no al algoritmo. Aun así, OpenAI admite que los errores abundan y que la coherencia general está lejos de ser perfecta, aunque considera que el avance respecto a Sora 1 es evidente.

Sora 2 plantea un escenario en el que los vídeos dejan de ser solo un producto de consumo y pasan a ser un espacio de juego compartido. La clave está en esa capacidad de convertir a cualquiera en protagonista de un clip listo para circular. Puede que sea una moda de corta duración o que inaugure una etapa de creatividad más participativa. Lo que sí parece claro es que OpenAI ha vuelto a situar el foco en el usuario cotidiano, como hizo con ChatGPT y las imágenes estilo Studio Ghibli, con una propuesta pensada para desencadenar oleadas de contenido viral.

Imágenes | OpenAI

En Xataka | ChatGPT ya es capaz de comprar cosas por ti: OpenAI acaba de lanzar un misil a la línea de flotación de Amazon



via Robótica e IA - Xataka https://ift.tt/8k1sGnM

OpenAI ya permite a los padres limitar el uso de ChatGPT a sus hijos: así funcionan los nuevos controles parentales

OpenAI ya permite a los padres limitar el uso de ChatGPT a sus hijos: así funcionan los nuevos controles parentales

Los chatbots IA, en especial ChatGPT, están en el punto de mira por sus efectos sobre la salud mental. Este verano saltaba la noticia de que un matrimonio había demandado a OpenAI por el suicidio de su hijo adolescente y, en respuesta, la empresa confirmó un paquete de medidas entre las que se encontraba el control parental que acaban de implementar. 

La respuesta a la crisis de salud mental

Desde hace meses circulan historias de personas que han tenido experiencias cercanas a la locura tras hablar con ChatGPT, hasta el punto de que el concepto "psicosis por IA" se ha convertido en una tendencia en redes (aunque no sea una etiqueta diagnóstica como tal). OpenAI se había limitado a emitir un escueto comunicado, pero tras el caso del suicidio de Adam Raine y la consiguiente demanda, la crisis de imagen era muy real.

A principios de este mes OpenAI confirmó que integrarían nuevas salvaguardas en ChatGPT y ayer mismo llegaba el anticipado control parental. La nueva función está disponible para todos los usuarios, independientemente de si usan el plan gratuito o de pago y se ha lanzado a nivel global. 

Cómo funciona el control parental en ChatGPT

Captura De Pantalla 2025 09 30 094217 Captura De Pantalla 2025 09 30 094217 El control parental ya aparece en la configuración de ChatGPT.

El control parental de ChatGPT permite enlazar la cuenta de un adolescente con la de sus padres o tutores. Una vez enlazadas y establecido el rol de cada uno, el adulto podrá ajustar diversas opciones como establecer un horario de uso, desactivar el modo de voz, desactivar la memoria, evitar que use la generación de imágenes y reducir el contenido sensible.

Para activar el control parental de ChatGPT hay que acceder al apartado de configuración (pulsando sobre tu foto) y seleccionar la opción 'Controles parentales'. Después se abrirá una ventana con la que podemos invitar a otros usuarios a unirse a nuestra familia y asignarles un rol concreto. 

Captura De Pantalla 2025 09 30 094229 Captura De Pantalla 2025 09 30 094229

Además de estas opciones, quizás la función más importante es que habrá notificaciones. Cuando ChatGPT detecte signos de posibles autolesiones o conductas peligrosas, enviará una notificación a la persona al cargo del adolescente. 

Hasta ahora, lo único que hacía ChatGPT cuando detectaba algo así era sugerir que el usuario acudiera a la línea de prevención contra el suicidio (algo que Adam Raine esquivó fácilmente diciendo que todo era parte de una obra de ficción que quería escribir), al incluir a los padres de los menores en la conversación se podrán tomar medidas más contundentes. 

Sin embargo, siempre existe la posibilidad de que el menor tenga una segunda cuenta sin ningún tipo de control. OpenAI también está trabajando en un sistema de predicción de edad para detectar si quien está al otro lado es un adolescente y así activar las opciones correspondientes. 

Imagen de portada | Pexels 12

En Xataka | "No puedo parar": la adicción a hablar con la IA ya está aquí y hasta existen grupos de ayuda para dejarla





via Robótica e IA - Xataka https://ift.tt/CS1kjWT

OpenAI está desarrollando una red social parecida a TikTok para subir vídeos hechos con IA

OpenAI no se conforma con intentar conquistar el negocio de la inteligencia artificial con su robot ChatGPT . La firma dirigida por Sam Altman está trabajando en el desarrollo de su propia red social que estará destinada a funcionar como plataforma en la que los usuarios puedan compartir sus creaciones de vídeo generadas a través de la herramienta de IA Sora 2, que se encuentra en desarrollo. De acuerdo con ' Wired ', medio que adelanta la noticia, la aplicación tendrá una apariencia similar a TikTok ; las grabaciones serán verticales y, en pantalla, aparecerá una opción llamada 'Para ti' en la que se compartirá contenido que, de acuerdo con el algoritmo, será del interés del internauta. Esto es algo que ya hacen la práctica totalidad de redes sociales, entre ellas Instagram o Facebook. Los usuarios de OpenAI podrán crear y compartir en la 'app' videoclips de hasta 10 segundos. Todo el contenido se deberá generar en el interior de la propia plataforma, ya que no contará con opción para subir fotografías directamente desde la galería del usuario. Tampoco será posible utilizarla para publicar vídeos creados con herramientas de IA de la competencia, como sería el caso del Veo de Google. Los usuarios que lo quieran podrán verificar su identidad y utilizar su imagen, o la de otros usuarios que utilicen la 'app', para que aparezca en los vídeos hechos con IA que comparta. Eso sí, OpenAI avisará a los internautas que aparezcan en las grabaciones de que su imagen ha sido empleada. Por el momento, se desconoce el momento en el que la empresa lanzará la aplicación para que cualquiera pueda emplearla. De acuerdo con 'Wired', está siendo testada por empleados a nivel interno, y la mayoría ha realizado una valoración muy positiva de esta. Sea como sea, no se trata de la primera aplicación dedicada en concreto a compartir contenido generado con inteligencia artificial. Recientemente, Meta añadió a su 'app' para la gestión de gafas inteligentes Meta AI una opción dedicada con este fin llamada Vibes, que ya se puede visualizar en España a través de la versión web . OpenAI también está enfrascada en el diseño de sus primeros dispositivos de inteligencia artificial , que podrían presentarse tan pronto como el año que viene.

via Tecnología https://ift.tt/KAp6kh3

Microsoft abraza el ‘vibe working’: ha lanzado el Excel y Word que se controlan con prompts

Microsoft abraza el ‘vibe working’: ha lanzado el Excel y Word que se controlan con prompts

Microsoft está intentando trasladar el fenómeno del 'vibe coding' —escribir apps sin saber programar, solo con instrucciones a un chatbot— al trabajo de oficina. La apuesta es que cualquiera pueda hacer en minutos lo que antes requería horas de un consultor junior, sin dominar fórmulas de Excel ni técnicas de redacción.

  • Agent Mode en Excel usa los modelos de razonamiento de OpenAI para descomponer tareas complejas en pasos ejecutables, como si un experto trabajara junto a ti.
  • Office Agent, basado en modelos de Anthropic, crea presentaciones de PowerPoint y documentos de Word directamente desde el chat de Copilot.

La empresa dice que Agent Mode en Excel alcanza un 57,2% de precisión en SpreadsheetBench, superando a ChatGPT Agent y Claude Opus 4.1, aunque por debajo del 71,3% de precisión humana.

El contexto. Microsoft lleva meses integrando IA en Office, pero hasta ahora se limitaba a funciones de asistencia puntual: resumir, reescribir, responder. Agent Mode y Office Agent marcan un salto cualitativo: la IA asume tareas multipasos que antes requerían conocimiento especializado.

Usa modelos de OpenAI para Agent Mode dentro de las aplicaciones y modelos de Anthropic para Office Agent en el chat. Esta división habla de cierta diversificación: Microsoft ya había incorporado IA de Anthropic en GitHub Copilot y Copilot Studio hace unos días

  • Sumit Chauhan, de Office, lo resume así: "Es trabajo que un consultor de primer año haría, entregado en minutos".

Sí, pero. La precisión del 57% en tareas de hojas de cálculo deja un margen de error considerable. Microsoft subraya que los resultados son auditables y verificables, pero aún requieren supervisión humana para casos sensibles.

Además, Agent Mode solo está disponible en las versiones web de Excel y Word en el lanzamiento. El soporte para las aplicaciones de escritorio llegará "pronto", según la empresa. Office Agent, por su parte, está limitado a usuarios en Estados Unidos.

  • La dependencia de servicios en la nube también plantea preguntas: Anthropic opera su API sobre AWS, rival de Azure.
  • Esto explicaría por qué sus modelos no están aún integrados de verdad en las aplicaciones de escritorio de Office.

Entre líneas. Microsoft presenta esto como la democratización del acceso a capacidades expertas. Pero también es una forma de justificar las suscripciones de Microsoft 365 Copilot. Lo relevante es que Microsoft está apostando por la IA haciendo el trabajo pesado mientras el usuario "guía y dirige". Es decir, el usuario pasa de "hacer" a "pedir que se haga". Lo visto ya en programación, sobre todo.

Y hay otra lectura: si Agent Mode puede hacer en minutos lo que antes llevaba horas, Microsoft está admitiendo implícitamente que gran parte del trabajo de oficina es replicable por máquinas. La pregunta es qué pasa con quien antes hacía ese trabajo. Concretamente, con los junior.

  • Microsoft ha diseñado esto para que el proceso sea visible: el usuario ve qué está haciendo la IA en cada paso, como si observara una macro automatizada en tiempo real.

En juego. Microsoft compite contra Google Workspace, que también integra IA generativa en Docs y Sheets. Pero sobre todo ahora compite también contra herramientas independientes como Notion AI, Gamma o Beautiful.ai, que prometen crear presentaciones y documentos desde cero sin necesidad de Office.

La ventaja de Microsoft es el dominio: mil millones de personas usan Office cada mes. Si consigue que Agent Mode funcione bien, no necesita convencer a nadie de cambiar de herramienta. Solo de actualizar su suscripción.

En Xataka | El fantasma de IBM: el gran reto de Satya Nadella es evitar que Microsoft termine convertida en un fósil tecnológico

Imagen destacada | Microsoft



via Robótica e IA - Xataka https://ift.tt/WmRhnaw

lunes, 29 de septiembre de 2025

Meta ha empezado a mostrar su juego en la robótica. Lo que busca es claro: ser el Android de los robots gracias al software

Meta ha empezado a mostrar su juego en la robótica. Lo que busca es claro: ser el Android de los robots gracias al software

Hay muchas razones para pensar que los robots humanoides tendrán un papel clave en el futuro. Podrían encargarse de las tareas del hogar, atender en un hotel o asumir trabajos de riesgo. Sin embargo, no todo el mundo lo ve posible: el cofundador de iRobot insiste en que todo esto es una fantasía. Pero si ese futuro termina llegando, la duda es inevitable: ¿qué empresas y países marcarán la pauta?

Si tuviésemos que dar nombres, Tesla (Estados Unidos) y Unitree (China) estarían entre los candidatos, pero hay muchas otras empresas en carrera. Meta, conocida por su imperio en redes sociales, quiere abrirse paso en este terreno con una estrategia distinta. Su apuesta no pasa solo por el hardware, sino por algo que podría marcar la diferencia: el software.

Meta quiere ser el Android de la robótica

Los rumores sobre los planes de Meta en robótica humanoide comenzaron a principios de este año, y la compañía terminó por confirmarlos. Hace poco conocimos más detalles gracias a Andrew Bosworth, su CTO, que dejó entrever en una entrevista con The Verge que la jugada se parece bastante a lo que Google hizo con Android.

Aunque Bosworth evita la comparación directa, lo que plantea Meta sigue ese guion. Continuarán desarrollando sus propios robots humanoides, pero el movimiento diferencial está en poner su software al alcance de otros fabricantes mediante licencias. La condición: cumplir con unas especificaciones concretas, igual que ocurre en Android.

El ejecutivo deja claro por qué esto puede funcionar. A su juicio, el verdadero obstáculo de la robótica humanoide no está en el hardware, sino en el software. Especialmente en lo que llama “manipulación hábil”. Los robots ya son capaces de moverse con rapidez e incluso de dar volteretas, pero siguen fallando en algo tan básico como sujetar un vaso de agua sin derramarlo.

Android Android

Una de las piezas centrales de la estrategia de Meta está en la simulación. Su laboratorio de superinteligencia trabaja en lo que llaman un “world model”, un modelo del mundo capaz de recrear en un entorno digital cómo debería moverse y reaccionar una mano humana. El objetivo es entrenar a los robots en escenarios virtuales hasta que adquieran destreza suficiente para manipular objetos con precisión.

La compañía, además, ha logrado reunir a un equipo singular, con figuras como Marc Whitten, que antes fue directivo en Cruise, o Sangbae Kim, considerado uno de los grandes referentes en robótica avanzada. A ellos se añaden perfiles internos con larga trayectoria. Una mezcla de especialistas externos y veteranos de la casa que refleja la ambición de la apuesta.

El aterrizaje de los humanoides no será inmediato ni universal. Un análisis de Bank of América detalla un despliegue de tres fases. Lo más probable es que primero los veamos en entornos controlados antes de que aterricen en nuestros hogares de manera masiva.

  • Entre 2025 y 2027 los humanoides empezarán en entornos muy acotados, como fábricas o centros logísticos, con tareas repetitivas de manipulación, montaje o control de calidad. El objetivo será acumular datos reales para mejorar sus modelos.
  • Hacia 2028–2034, con diseños más refinados y algoritmos más fiables, se abrirán paso en servicios comerciales, educación o ingeniería ligera. Integrados con modelos de lenguaje, podrán interactuar en tiempo real y superar el millón de envíos anuales.
  • A partir de 2035 se espera una adopción masiva en hogares y cuidados a mayores, con costes más asequibles y funciones mucho más completas, capaces de desenvolverse en entornos poco estructurados.

El Mmodelo de negocio si la plataforma cuaja

Si el plan de Meta prospera, la compañía venderá sus propios robots, también licenciará su plataforma. De esta forma, podríamos ver la tecnología de Meta detrás de robots de un amplio abanico de fabricantes. 

A partir de ahí, se abren escenarios plausibles aunque todavía no confirmados. Uno de ellos es que Meta complemente las licencias con servicios en la nube para entrenamiento o mantenimiento, o incluso que surja un ecosistema de “habilidades” descargables como aplicaciones.

Es una hipótesis razonable: cuantos más robots utilicen el sistema, más datos obtendría la empresa para mejorar el producto, creando un círculo virtuoso difícil de replicar por sus competidores. Habrá que ver si finalmente avanza en esa dirección. La estrategia de Google con Android ha funcionado.

Imágenes | Apple (serie ‘Sunny’ de Apple TV+) | Dima Solomin | Mika Baumeister

En Xataka | Alibaba está ganando la carrera de los modelos de IA Open Source. Su estrategia es simple: ser cansina



via Robótica e IA - Xataka https://ift.tt/hTM5mvw

El nuevo Claude Sonnet 4.5 ya está aquí: Anthropic quiere ser imbatible en programación, aunque su ambición va más allá

El nuevo Claude Sonnet 4.5 ya está aquí: Anthropic quiere ser imbatible en programación, aunque su ambición va más allá

Anthropic acaba de presentar Claude Sonnet 4.5, una evolución que la compañía define como su modelo más preciso hasta la fecha. El foco está en agentes, programación y uso de ordenador, con la idea de ampliar lo que ya ofrecían las versiones anteriores de la serie Sonnet. Su llegada se interpreta dentro de una pugna cada vez más ajustada: OpenAI ha puesto en marcha GPT-5 con distintos niveles de capacidad y Google sigue apostando por Gemini, configurando un tablero donde cada avance genera nuevas expectativas.

La trayectoria de la familia Sonnet ayuda a entender el lugar que ocupa esta nueva versión. Con Sonnet 3.7, Anthropic introdujo un modelo híbrido de razonamiento que marcó un salto notable en codificación, generación de contenidos y análisis de datos. La posterior llegada de Sonnet 4 consolidó esa apuesta, reforzando su posición como opción práctica para asistentes. Estas mejoras convirtieron a Sonnet en una alternativa destacada para programadores, y es a partir de esa base donde se levanta ahora la expectativa sobre lo que 4.5 pueda aportar.

Lo que Anthropic promete con su nuevo modelo

Sonnet 4.5 introduce mejoras pensadas para agentes que requieren mantener la atención durante largos periodos. Según Anthropic, es capaz de sostener el foco durante más de 30 horas en tareas complejas y admite salidas de hasta 64.000 tokens, lo que amplía la capacidad de planificación y generación de código en bloques extensos. Los desarrolladores disponen de controles más finos sobre el tiempo que el modelo “piensa” antes de responder, lo que abre margen para equilibrar rapidez y detalle en función de la necesidad de cada proyecto.

Otra de las áreas donde Sonnet 4.5 busca diferenciarse es en el uso de ordenador y navegador. Anthropic destaca que el modelo ha alcanzado un 61,4% en OSWorld, un benchmark que mide la capacidad de completar tareas reales en un entorno de escritorio. Se trata de un salto considerable respecto al 42,2% obtenido por Sonnet 4 hace apenas unos meses. La compañía muestra ejemplos prácticos con su extensión de Chrome, donde Claude es capaz de navegar sitios web, rellenar hojas de cálculo o realizar análisis competitivos sin supervisión constante.

Claude Sonnet 4 5 1 Claude Sonnet 4 5 1

La programación es el terreno donde Sonnet 4.5 quiere consolidar su liderazgo. Anthropic asegura que el modelo puede cubrir todo el ciclo de desarrollo de software: desde la planificación inicial hasta la refactorización de grandes proyectos, pasando por el mantenimiento y la corrección de errores. Con el apoyo de Claude Code, busca convertirse en un asistente estable para equipos técnicos. 

Claude Sonnet 4 5 2 Claude Sonnet 4 5 2

El alcance de Sonnet 4.5 se extiende a un abanico amplio de aplicaciones que, según Anthropic, lo convierten en un modelo pensado para entornos corporativos y de investigación. Los ejemplos más repetidos en su presentación incluyen:

  • Ciberseguridad: despliegue de agentes que corrigen fallos sin intervención humana.
  • Finanzas: monitorización constante de cambios regulatorios y gestión de riesgos.
  • Productividad: edición y creación de archivos de oficina en distintos formatos.
  • Investigación: integración de datos internos y externos para elaborar informes.
  • Contenidos: escritura con comprensión de matices y análisis semántico profundo.

La compañía añade que Sonnet 4.5 ha pasado revisiones con expertos externos para validar su seguridad y fiabilidad.

Sonnet 4.5 ya está disponible para cualquier usuario en Claude.ai, tanto en la web como en las aplicaciones de iOS y Android. En paralelo, los desarrolladores pueden integrarlo en la Claude Developer Platform, además de servicios como Amazon Bedrock y Google Cloud Vertex AI. El plan gratuito funciona con un límite de sesiones que se reinicia cada cinco horas y con un número variable de mensajes según la demanda. En cuanto a precios, parte de 3 dólares por millón de tokens de entrada y 15 dólares por millón de tokens de salida.

Imágenes | Anthropic | Xataka con Gemini 2.5

En Xataka | “Lo de los robots humanoides es pura fantasía”: el cofundador de iRobot cree que hay una burbuja de la robótica



via Robótica e IA - Xataka https://ift.tt/G67q5us

“Lo de los robots humanoides es pura fantasía”: el cofundador de iRobot cree que hay una burbuja de la robótica

“Lo de los robots humanoides es pura fantasía”: el cofundador de iRobot cree que hay una burbuja de la robótica

Rodney Brooks cree que los robots humanoides son una burbuja condenada a explotar. No lo dice un cualquiera: Brooks fue el cofundador de iRobot, la empresa que fabrica los célebres robots aspiradores de la familia Roomba

Demasiado bonito para ser verdad. Este experto, que antes de iRobot trabajó durante décadas en el MIT, no cree que en el futuro vivamos rodeados de robots con forma humana. Observa con escepticismo los desarrollos de empresas como Tesla o Figure, que trabajan en robots que aprendan a moverse como humanos. En un nuevo ensayo habla de que este tipo de forma de pensar en el futuro "es pura fantasía".

El cuello de botella de la destreza. En su opinión el problema está en que tratar de imitar la destreza de movimiento de una mano humana —por ejemplo— es una misión casi imposible. Sobre todo porque en ellas hay 17.000 receptores táctiles especializados (y que detectan presión, vibración, textura o deslizamiento) que no es posible encontrar en robots humanoides. Hay, no obstante, avances concretos en este ámbito.

Entrenamiento insuficiente. Según Brooks, "no tenemos ese tipo de tradición para datos táctiles". Este ámbito es distinto a lo que sí se ha logrado con otros ámbitos como el reconocimiento del lenguaje o el procesamiento de imágenes. En su ensayo explica cómo el aprendizaje basado en vídeos visuales de humanos realizando tareas no son suficientes para que los robots adquieran esa destreza.

Un experimento. Para reforzar su teoría, Brooks comentó cómo en un experimento a una persona se le anestesiaron las yemas de los dedos para analizar la destreza de sus manos. En dicho experimento se vio cómo la persona tardaba cuatro veces más en completar una tarea sencilla como era encender una cerilla. La sensación táctil, asegura este experto, es irremplazable

Árbol va. Pero además advierte de los riesgos de seguridad que plantean estos robots. Mantenerlos en pie requiere una gran cantidad de energía, afirma, y si se caen pueden acabar siendo un verdadero riesgo. La razón es que como explica la energía cinética de sus extremidades se amplifica por la ley de escala. 

Robots con pinzas. Para él los "robots humanoides" del futuro serán de todo menos humanoides. En lugar de eso en 15 años lo que veremos son robots con ruedas, varios brazos, pinzas industriales y sensores especializados. Las enormes inversiones actuales que están realizando las empresas de tecnología no llegarán a cristalizar en esa teórica producción masiva de robots humanoides. 

China sí cree en los robots humanoides. Los argumentos de Brooks son potentes, pero lo cierto es que China está demostrando tener una fe absoluta en el futuro de este segmento. Los actuales robots humanoides son limitados en sus prestaciones y capacidad, pero la inversión en este mercado y los avances que se están realizando son innegables. Lo que habrá que comprobar es si esa destreza humana y la percepción táctil acaban siendo en efecto obstáculos insalvables para dicho tipo de robots.

En Xataka | China acaba de inaugurar la primera megatienda de robots humanoides. Lo que viene después promete aún más




via Robótica e IA - Xataka https://ift.tt/5HYqXIu

El nuevo rey de la IA Open Source es Alibaba. Y su estrategia es sencilla: ser cansina

El nuevo rey de la IA Open Source es Alibaba. Y su estrategia es sencilla: ser cansina

Alibaba Qwen3-Omni se ha convertido en la nueva joya del segmento de la IA Open Source. Este modelo, lanzado la pasada semana por el gigante chino, logra competir en diversos benchmarks con algunos de los mejores modelos de IA cerrados de OpenAI o Google. Pero es que lo importante no es tanto eso como el hecho de que Alibaba no para de sacar modelos de IA a un ritmo frenético y casi extenuante.

Los modelos Qwen triunfan. El modelo Qwen3-Omni-30B-A3B-Instruct es una de las variantes de la familia Qwen3-Omni recién lanzada por Alibaba. Esta versión se ha convertido en el modelo más popular en el ranking de modelos disponibles en Hugging Face. Desde que apareció allí ya se ha descargado casi 100.000 veces, pero es que no está solo.

Captura De Pantalla 2025 09 29 A Las 8 47 24 Captura De Pantalla 2025 09 29 A Las 8 47 24 El nuevo Qwen3-Max-Thinking logra igualar o superar a modelos como Grok 4 o GPT-5 Pro.

No paran de lanzar modelos. Como señalan en SCMP, hasta la fecha Alibaba ha publicado más de 300 modelos Open Source que han servido para que otros desarrolladores y empresas lancen los suyos propios. De hecho, se estima que hay más de 170.000 modelos derivados, lo que parece haber logrado que Alibaba tenga ahora mismo el ecosistema de IA más grande del mundo. Los datos fueron compartidos en la conferencia Apsara organizada por Alibaba Cloud en Hangzhou la semana pasada. Algunos ejemplos recientes de ese ritmo frenético: 

Alibaba copa el ranking. Aunque se lanzaron en abril, los modelos Qwen3 no han parado de renovarse en los últimos meses con nuevas capacidades en la generación de texto, imágenes, audio e incluso vídeo. Las mejoras en el comportamiento multimodal han ayudado a crear esta nueva familia "Omni" —que precisamente maneja todo tipo de entradas y salidas— y a lograr con ella rendimientos que rivalizan incluso con los mejores modelos propietarios de firmas como Google y OpenAI.

Modelos para todos los gustos. Si uno echa un vistazo a ese ranking, cinco de los 10 primeros modelos son de Alibaba. Tencent tiene otros dos, IBM Granite sorprende en cuarta posición y también tenemos a DeepSeek-V3.1-Terminus y a un modelo de texto a voz llamado VoxCPM.

Captura De Pantalla 2025 09 29 A Las 9 08 50 Captura De Pantalla 2025 09 29 A Las 9 08 50 Fuente: The ATOM Project.

Llama, desaparecido. Mientras, el dominador tradicional de dicho ámbito, el modelo Llama de Meta, está desaparecido totalmente de las primeras posiciones de este ranking y aparece en la posición 41. OpenAI y su modelo gpt-oss-20b también está bastante desplazado (posición 30). Los responsables de The ATOM (American Truly Open Models) Project revelaban recientemente un estudio en el que destacaban cómo las descargas acumuladas de modelos Open Source ya provienen más de modelos chinos que de modelos de EEUU. 

Captura De Pantalla 2025 09 29 A Las 9 11 01 Captura De Pantalla 2025 09 29 A Las 9 11 01 Llama era el modelo abierto más descargado hasta hace poco. Ahora ese puesto lo ocupan los modelos de la familia Qwen de Alibaba. Fuente: The ATOM Project.

Cuidado, las descargas son otra cosa. Hay que decir que el ranking se centra en los modelos "trending", es decir, aquellos cuya popularidad reciente es elevada. El modelo de OpenAI de hecho se ha descargado 6,71 millones de veces, mientras que el modelo más descargado de Alibaba es Qwen3-Next-80B-A3B-Instruct, con 2,63 millones de descargas. Llama-3.1-8B-Instruct los supera a ambos (por ahora) con 7,18 millones. En The ATOM Project, eso sí, señalan que las descargas acumuladas de las distintas variantes de Llama acaban de caer por debajo de las de las variantes de Qwen. La razón es sencilla.

Alibaba no para de sacar más y más modelos. La estrategia de Alibaba ha sido arrolladora, y desde que en abril lanzó los primeros modelos Qwen3, no ha pasado de mantener un ritmo frenético de lanzamiento de versiones mejoradas y derivadas como Qwen3-Next, Qwen3-Omni o Qwen3-Max, además de modelos específicos para generación de imágenes como Qwen-Image-Editor, competidor directo del célebre Nano Banana, de Google.

En Xataka | Hay muchas carreras "internas" dentro de la gran carrera de la IA. Y la del Open Source la está ganando Alibaba



via Robótica e IA - Xataka https://ift.tt/YA9deRt

Las empresas están entusiasmadas por las promesas de la IA. Los resultados económicos no tanto: mucho ruido y pocas nueces

Las empresas están entusiasmadas por las promesas de la IA. Los resultados económicos no tanto: mucho ruido y pocas nueces

El impacto de la IA generativa en las empresas ha sido uno de los temas más debatidos en los últimos años, con promesas de transformar sectores enteros, crear nuevas oportunidades de negocio y, sobre todo, arrojar incertidumbre sobre el futuro profesional de millones de trabajadores.

Sin embargo, un reciente informe del MIT ha sacado a la luz una realidad menos optimista: la mayoría de los grandes experimentos con IA generativa desplegados en las empresas, no logran los resultados esperados, a pesar de que se está invirtiendo en ellos ingentes cantidades de dinero. Dicho de otro modo: mucho ruido y pocas nueces.

El "fracaso" de la IA en las empresas. Las cifras son claras. Según el estudio 'The GenAI Divide: State of AI in Business 2025' elaborado por el MIT, solo el 5% de los proyectos piloto de IA generativa en grandes empresas alcanzan un impacto positivo y medible en sus ingresos. El resto, un abrumador 95% de los proyectos, no consigue transformar de manera efectiva ninguna parte esencial de la organización ni obtener un retorno de la inversión, lo que pone en duda la fiebre global por adoptar la IA de forma acelerada.

Es importante subrayar que el informe considera "fracaso" la ausencia de retorno económico derivado de la transformación de la empresa. Eso no significa que el proyecto de IA no aporte incrementos de la productividad de sus empleados o en la mejora de sus productos, como se puede inferir del término "fracaso" utilizado en el estudio, tal y como detallan en Futuriom.

ChatGPT no transforma, pero es de gran ayuda. Según se detalla en el estudio, el problema del escaso éxito transformador de los proyectos de IA en las empresas no está relacionado con la calidad de los modelos de IA en sí mismos, sino más bien con lo que los investigadores llaman "brecha de aprendizaje", tanto para las herramientas como para las propias empresas.

Los autores del estudio destacan que el fracaso radica en una integración empresarial mal orientada. Los modelos de IA generalistas, como ChatGPT o Copilot, son eficaces como asistentes para mejorar la productividad de los empleados a nivel personal. Sin embargo, no logran adaptarse a los flujos de trabajo especializado de las  empresas, y se estancan cuando intentan replicar procesos a mayor escala. Es decir, funcionan muy bien en las demos, pero cuando deben enfrentarse a las variables de los procesos del día a día, fallan.

De acuerdo con el informe, el 80% de las empresas consideraron utilizar un modelo generalista para realizar una determinada tarea en la empresa, de estos, el 50% finalmente puso en marcha un proyecto piloto, y el 40% de ellos se implementó con éxito, lo cual es un porcentaje muy elevado. Sin embargo, su efecto no es transformador ya que se plantea como una herramienta de apoyo a los empleados y no genera un retorno directo medible (es un retorno indirecto en productividad).

La clave son los agentes de IA especializados. En cambio, los agentes de IA, mucho más sencillos y especializados en realizar una sola tarea, si consiguen transformar el área en la que se aplican ya que implican automatización y hacen innecesaria la supervisión humana. Así lo explicaba a Fortune Aditya Challapally, principal autor del informe: "algunas grandes compañías y startups han visto crecer sus ingresos de cero a 20 millones de dólares en un año porque eligen bien el problema a resolver, ejecutan de manera precisa y colaboran con socios que realmente utilizan sus herramientas".

Según se detalla en el informe, un 60% de las empresas encuestadas investigaron la posibilidad de implementar este modelo. De esos, solo el 20% lo puso a prueba en un proyecto piloto. Solo el 5% terminó por implementarse y automatizar completamente esa tarea. Es lo que el estudio considera "éxito".

La IA pisa el acelerador, no cambia de coche. El análisis muestra que más de la mitad del presupuesto destinado a IA generativa en empresas se invierte en proyectos para ventas y marketing, en los que no se está recuperando de forma medible la inversión realizada (lo cual no implica que sean un fracaso).

Los autores destacan que el verdadero retorno de inversión proviene de la automatización de procesos internos y de back-office. En esos casos, la inversión en IA comienza a recuperarse de forma inmediata ya que con la automatización del proceso se anulan todos los gastos operativos y todo es retorno. Dicho de otro modo, lo que han descubierto los investigadores del MIT es que mientras apostar por herramientas de apoyo es como pisar el acelerador de un coche para ir más rápido, automatizar las tareas con agentes de IA es como cambiar el coche entero. La consultora Gartner, es menos optimista y estima que en unos años el 40% de esos "coches" se estrellará.

El informe también señala la diferencia entre las soluciones creadas a medida por las empresas y las herramientas adquiridas a proveedores especializados. Solo el 33% de los sistemas internos logran algún éxito, mientras que las soluciones externas alcanzan tasas positivas en torno al 67% de los casos.

La "shadow AI" y el impacto en el trabajo. Los investigadores detectaron lo que denominaron "shadow AI" o uso no oficial de herramientas como ChatGPT por parte de empleados. Eso evidencia tanto el interés por utilizar la IA para reducir la carga de trabajo como la falta de una estrategia corporativa clara para la IA. Por ese motivo, la medición del impacto real de la IA en productividad y los beneficios que aporta es todavía una asignatura pendiente para las empresas que desean justificar su inversión.

Por último, destacan que, a tenor de las bajas cifras de éxito en la implementación de la IA como medio de automatización y su implantación como asistente, la disrupción en el empleo ya es visible en áreas como atención al cliente y tareas administrativas. No obstante, gracias a ese papel como "ayudante" y no como "ejecutante", en vez de encontrarnos ante millones de despidos, la tendencia entre las empresas que han integrado IA es la de no cubrir los puestos que quedan vacantes, concentrándose especialmente en trabajos que antes se externalizaban por considerarse de bajo valor añadido.

En Xataka | Unos investigadores crearon una empresa donde todos los empleados eran agentes IA. No hicieron ni una cuarta parte del trabajo

Imagen | Unsplash (Alber, Flipsnack)



via Robótica e IA - Xataka https://ift.tt/OJRkigC