martes, 17 de febrero de 2026

Claude Sonnet 4.6 acaba de acelerar la carrera grande de la IA: Anthropic acorrala más que nunca a Gemini 3 Pro y GPT-5.2

Claude Sonnet 4.6 acaba de acelerar la carrera grande de la IA: Anthropic acorrala más que nunca a Gemini 3 Pro y GPT-5.2

Piensa un momento en los modelos de inteligencia artificial que has utilizado en los últimos días. Puede que haya sido a través de ChatGPT, Gemini o Claude, o quizá mediante herramientas como Codex, Claude Code o Cursor AI. En la práctica, la elección suele ser sencilla: terminamos usando aquello que mejor encaja con lo que necesitamos en cada momento, casi sin detenernos a pensar en la tecnología que hay detrás. 

Sin embargo, ese equilibrio cambia con frecuencia. Cada nuevo modelo que aparece promete mejoras, nuevas capacidades o formas distintas de trabajar, y con él vuelve una pregunta bastante directa: si merece la pena probarlo, si realmente puede ofrecernos algo mejor o si lo que ya usamos sigue siendo suficiente. Claude Sonnet 4.6 acaba de salir a la palestra, y así es cómo se posiciona frente a la competencia.

El punto de partida de Claude Sonnet 4.6. Aquí encontramos lo que Anthropic describe como una mejora transversal de capacidades, que incluye avances en codificación, uso del ordenador, razonamiento de contexto largo, planificación de agentes y tareas propias del trabajo intelectual y creativo. A ese conjunto se suma una ventana de contexto de hasta un millón de tokens en beta, pensada para procesar bases de código completas, contratos extensos o grandes colecciones de información sin fragmentación.

Tres niveles, un mismo mapa. Para entender dónde encaja Sonnet 4.6 conviene mirar cómo Anthropic suele ordenar su familia de modelos en distintos niveles con objetivos distintos. Haiku prioriza velocidad y eficiencia, Opus se reserva para las tareas que exigen el razonamiento más profundo y Sonnet ocupa el punto intermedio, pensado como equilibrio entre capacidad y coste operativo. En ese marco, la compañía sostiene que el nuevo Sonnet se acerca en algunos trabajos reales al rendimiento que antes quedaba asociado a Opus, una afirmación ambiciosa.

Cuando la IA empieza a usar el ordenador. Una de las mejoras que Anthropic subraya con más énfasis en Sonnet 4.6 es su progreso en lo que denomina computer use, es decir, la capacidad del modelo para interactuar con software de forma similar a una persona, sin depender de APIs diseñadas específicamente para automatización. Este avance se apoya en referencias como OSWorld-Verified, un entorno de pruebas con aplicaciones reales donde la familia Sonnet ha ido mejorando de forma sostenida a lo largo de varios meses. La compañía también reconoce límites y riesgos de los que hemos hablado antes, como los intentos de manipulación mediante prompt injection.

Tabla Tabla

Buscando el ‘mejor’ modelo. Llegados a este punto, la pregunta relevante deja de ser cuánto ha mejorado Sonnet 4.6 en términos absolutos y pasa a centrarse en cómo se sitúa frente a los otros grandes modelos que hoy compiten por el mismo espacio de uso. La comparación no es sencilla ni admite un único ganador, porque cada sistema destaca en áreas distintas y responde a prioridades técnicas diferentes. Por eso conviene leer los benchmarks con una mirada práctica, identificando en qué tareas concretas aparecen las diferencias reales.

Dónde destaca cada modelo. La comparación directa con GPT-5.2 dibuja un reparto de fortalezas más que una victoria clara. Según la tabla publicada por Anthropic, Sonnet 4.6 destaca de forma especialmente amplia en el uso autónomo del ordenador medido en OSWorld-Verified, además de mostrar ventaja en tareas de oficina (GDPval-AA Elo) y en algunos escenarios de análisis o resolución de problemas (Finance Agent v1.1, ARC-AGI-2). GPT-5.2, por su parte, mantiene mejores resultados en razonamiento de nivel graduado (GPQA Diamond), comprensión visual (MMMU-Pro) y programación en terminal (Terminal-Bench 2.0), con matices como resultados marcados como Pro en algunas pruebas. 

La comparación con Gemini 3 Pro introduce un matiz distinto, porque aquí las ventajas se concentran sobre todo en el terreno del razonamiento y el conocimiento general. El modelo de Google obtiene mejores resultados en pruebas de razonamiento de nivel graduado (GPQA Diamond) y en cuestionarios multilingües de amplio espectro (MMMLU), además de situarse por delante en razonamiento visual sin herramientas (MMMU-Pro). Sonnet 4.6, en cambio, conserva cierta ventaja cuando entran en juego herramientas externas o escenarios más cercanos al trabajo aplicado. La ausencia de algunos datos comparables en la propia tabla obliga, en cualquier caso, a interpretar ese duelo con cautela.

Dónde puede usarse Sonnet 4.6. El nuevo modelo está disponible en todos los planes de Claude, incluido el nivel gratuito, donde además pasa a convertirse en la opción por defecto dentro de claude.ai y Claude Cowork. También puede utilizarse a través de Claude Code, la API y las principales plataformas en la nube, manteniendo el mismo precio que la versión Sonnet 4.5.

Después de recorrer capacidades, límites y comparativas, la decisión real vuelve a situarse en el terreno cotidiano del usuario. Sonnet 4.6 apunta a resultar especialmente útil en tareas productivas, interacción directa con software y flujos de trabajo largos, mientras que GPT-5.2 y Gemini 3 Pro mantienen ventajas en razonamiento académico, comprensión visual o conocimiento general según la prueba considerada. Ninguno domina todos los frentes, y esa fragmentación define el momento actual de la inteligencia artificial.

Imágenes | Anthropic

En Xataka | En 2025 la IA parecía haberse topado contra un muro de progreso. Un muro volatilizado en febrero de 2026

En Xataka | La gran revolución de GPT-5.3 Codex y Claude Opus 4.6 no es que sean más inteligentes. Es que pueden mejorarse a sí mismos



via Robótica e IA - Xataka https://ift.tt/o2fFO7B

En 2025 la IA parecía haberse topado contra un muro de progreso. Un muro volatilizado en febrero de 2026

En 2025 la IA parecía haberse topado contra un muro de progreso. Un muro volatilizado en febrero de 2026

Recuerdo con cariño aquella época en la que Intel y AMD se peleaban por lograr crear la primera CPU capaz de llegar a 1 GHz de frecuencia de reloj. Aquella carrera la ganó (¡sorpresa!) AMD, pero hasta que se produjo aquel hito el ritmo era vertiginoso. O eso nos parecía, porque con la IA el ritmo de lanzamientos está absolutamente desbocado

Vaya semanitas llevamos, queridos lectores. Veamos: 

  • 27 de enero: Kimi.ai lanza Kimi J2.5
  • 5 de febrero: Anthropic lanza Claude Opus 4.6
  • 5 de febrero: El mismo día OpenAI lanza GPT-5.3-Codex
  • 5 de febrero: Kuaishou lanza Kling 3.0
  • 12 de febrero: Z.ai lanza GLM-5
  • 12 de febrero: ByteDance lanza Seedance 2.0
  • 12 de febrero: MiniMax lanza MiniMax 2.5
  • 16 de febrero: Alibaba lanza Qwen3.5-397B-A17B
  • Próximamente: DeepSeek v4, ¿Llama?, Gemini 3.1, ...

El ritmo es absolutamente frenético, y los LLMs que hace unos meses semanas parecían ser fantásticos ahora ya no lo son tanto. Las nuevas versiones de esos modelso de lenguaje no paran de evolucionar, y las empresas de IA siguen ofreciendo novedades de forma constante. Casi mareante. 

Eso, por supuesto, tiene su lado bueno y su lado malo. Terminamos 2025 con cierto hastío ante una IA que prometía mucho pero no acabó de cambiar apenas nada. Solo a finales de año se vio una revolución palpable con esa combinación espectacular que formaban Claude Code y Opus 4.5

El binomio de Anthropic maravillaba a los desarrolladores, que por primera vez parecían estar de acuerdo a la hora de declarar que con este tipo de plataforma podían pedirle a la IA lo que uno quisiera, que ella te lo programaba del tirón y casi siempre sin problemas. Por supuesto en ese discurso había algo de exageración, pero ciertamente la capacidad de Opus 4.5 y el grado de autonomía y versatilidad de Claude Code parecieron marcar un punto de inflexión.

Luego llegó OpenClaw y eso ha vuelto a disparar las expectativas por los agentes de IA, pero en paralelo estamos viendo una auténtica fiebre de lanzamientos de nuevos modelos de IA generativa, tanto en vídeo (Kling 3.0 y sobre todo Seedance 2.0 han sido fenómenos virales en si mismos) como en texto/código. Y con cada nuevo modelo, la promesa de que el rendimiento va superando a la generación anterior. Al menos, claro, en los benchmarks.

Tablas Tablas A la izquierda, benchmarks internos de Alibaba para Qwen3.5. A la derecha, los de Anthropic para Opus 4.6. Cada uno se compara con quien considera oportuno.

Esos gráficos de barras de la imagen superior se han convertido en una constante, sobre todo cuando quien lanza el modelo es una empresa china. Si el que lanza es OpenAI, Google o Anthropic, lo que se prefiere son las tablas. Sea como fuere, el resultado siempre nos lleva a lo mismo: cada modelo es mejor que su predecesor y, normalmente, que muchos de la competencia. 

Fatiga de las suscripciones... de IA

El problema de esto es que esa carrera no parece acabar nunca, y un modelo que parece fantástico hoy no lo es tanto mañana, cuando su competidor puede superarle por poco, pero además puede ser bastante más barato —los modelos chinos lo suelen ser— u ofrece otras ventajas como mayores ventanas de contexto para que podamos introducir textos más y más largos —por ejemplo, grandes repositorios de código— como parte del prompt.

Y claro, eso plantea un problema para los usuarios. Si Opus 4.5 era tan bueno, uno podría apuntarse al plan Pro o al Max y pagar un año por adelantado, pero eso es a priori arriesgado, porque aunque tendrás acceso a nuevos modelos cuando los saques, habrás dedicado tu inversión en suscripciones de IA al modelo de Anthropic sin tener ya tanto margen para probar los de los rivales.

Aquí se imponen las suscripciones cortas: suscribirse a un modelo un mes para poder tener margen de maniobra por si quiero probar otro modelo al mes siguiente (o probar dos o tres modelos el mismo mes, que también es un caso común). 

Los precios de las suscripciones a servicios de IA no son además facilitadores de esas pruebas múltiples. Lo normal es pagar 20 euros por una suscripción de un mes, y aunque los modelos chinos suelen ser bastante más baratos, también suelen estar un escalón por detrás en capacidad si uno necesita las máximas prestaciones. 

Pero aquí se repite una y otra vez el problema: si me suscribo ahora a GPT-5.3-Codex, que todo el mundo dice que es fantástico, ¿cuánto tiempo lo pago, un mes? ¿O me suscribo además a GLM-5 para probar, y ya el mes que viene probaré Opus 4.6 y MiniMax 2.5? 

Todas esas decisiones son difíciles porque la percepción de cada modelo depende de cada usuario. Cada uno de ellos tiene sus necesidades, su presupuesto y sus propias experiencias con cada modelo, así que por mucho que los benchmarks digan una cosa, con los modelos de IA nos está pasando como con los vinos: por mucho que nos digan que uno es mejor que otro, nosotros los percibimos de forma muy personal. 

Y ese avance frenético hace que además se haya recuperado esa expectativa por modelos que realmente marcan la diferencia. El vibe coding no es perfecto, pero cada vez resuelve mejor nuestras necesidades, y lo mismo ocurre con los agentes de IA como OpenClaw, que con sus luces y sus sombras demuestran que ese futuro en el que tengamos un empleado de IA —aunque al principio pueda ser algo torpe— funcionando 24/7 no parece estar tan lejos.

Son tiempos vertiginosos y fascinantes para la IA. Otra vez.

Imagen | Mohammad Rahmani

En Xataka | China llevó robots humanoides al mayor espectáculo televisivo del país: los hizo practicar kung-fu con precisión milimétrica



via Robótica e IA - Xataka https://ift.tt/fczQykR

En China hay una carrera paralela por la IA: hacerla tan barata que sea "invisible" para el usuario

En China hay una carrera paralela por la IA: hacerla tan barata que sea "invisible" para el usuario

DeepSeek es la punta de lanza cuando hablamos de inteligencia artificial de China. No sólo cuenta con un gran rendimiento, sino que la propia Microsoft ha dado la voz de alarma al apuntar que su política está permitiendo que gane usuarios en mercados en los que otros como OpenAI lo tienen más difícil. Otras empresas como Tencent o Alibaba están dando pasos de gigante en la lucha por la IA, y hace unos días ByteDance -TikTok- presentó un Seedance 2.0 que es impresionante… y ya le está trayendo dolores de cabeza.

Pero los grandes no son los únicos, y con una China volcada en el desarrollo de la robótica y la IA, hay que hablar de otros ‘jugadores’ más pequeños. Zhipu AI y MiniMax son dos de los "tigres" que, en apenas unos años, han levantado cientos de millones de dólares y que cuentan con modelos que tienen una filosofía radicalmente distinta a la de OpenAI y otros gigantes occidentales.

Sus modelos se venden como compañeros de vida, herramientas que la gente pueda usar en el día a día sin preocuparse por el precio. Y, dentro de ese discurso, MiniMax acaba de lanzar el M2.5, un modelo que quiere convertirse en un “empleado digital” y que sus responsables han catalogado como su primer “modelo de frontera” tan barato que no vale la pena medir el precio.

Una IA demasiado barata como para preocuparse por el precio

M2.5 ya es oficial y, como recoge South China Morning Post, MiniMax no ha querido desperdiciar la oportunidad de lanzarlo en una semana frenética para la industria de la IA en China. Técnicamente, M2.5 es un LLM -gran modelo de lenguaje- que puede con unos 230.000 millones de parámetros totales, pero sólo utiliza 10.000 millones por token. Al ser un sistema Mixture of Experts, cada llamada sólo implica a los expertos directamente necesarios para resolver la petición.

Bajando a tierra la cifra, eso significa que es un modelo capaz, pero por petición de usuario no utiliza todo su potencial, lo que implica bajos costes de inferencia y precios muy bajos para los usuarios. Sus responsables afirman que el precio es de apenas un dólar por hora de funcionamiento continuo, gastando 100 tokens por segundo. Esto significa que puedes tener un “agente” trabajando de manera continua durante todo ese tiempo a un precio entre 10 y 20 veces más bajo que otros modelos como Opus, Gemini 3 Pro o GPT-5.

Esa política tan agresiva hace que M2.5 sea un modelo “demasiado barato como para cuantificarlo”, según sus responsables, facilitando esa adopción masiva porque el usuario puede dejar de optimizar cada orden que da a la IA. Esa frase de “too cheap to meter” es un guiño al histórico comentario en el que se apuntaba que la electricidad procedente de la energía nuclear sería demasiado barata como para medirla.

Benckmark minimax Benckmark minimax Puntuación interna en diferentes pruebas | Imagen: MiniMax

Y algo importante es que M2.5 no es un simple chatbot. Está disponible en plataformas como Ollama, HuggingFace, ModelScope en China o GitHub, y la propia MiniMax apunta que el 30% de las tareas internas de la compañía ya las realiza el propio M2.5. Además, el 80% del código nuevo es generado por el modelo. Es decir, está más optimizado para trabajar solo que para chatear. Esto del código creado por código no es exclusivo de M2.5, y Codex y Opus también está en este barco.

El modelo ya ha sido puesto a prueba y, si bien en algunas tareas consigue resultados notables, sobre todo comparado con otros modelos open-weight, su puntuación dista de la de los modelos cerrados. En los resultados internos de la propia compañía, consiguió doblar la puntuación del modelo anterior, el M2.1, pero como bien apunta SCMP, estas puntuaciones de referencia internas son complicadas de verificar de forma independiente.

Minimax25 Benchmarks Scaled 1 Minimax25 Benchmarks Scaled 1 Benchmark interno en coding | Imagen: MiniMax

Pero, al final, sea más o menos capaz en comparación con otros modelos, MiniMax M2.5 es un ejemplo más de la estrategia que está empujando China con la inteligencia artificial. Mientras Estados Unidos se está esforzando en demostrar que tiene modelos propietarios cada vez más potentes y capaces, IA está en una narrativa en la que pretende impulsar modelos más baratos y útiles para el usuario.

Esto implica no sólo que tengan una buena relación prestaciones/precio, sino también que puedan ejecutarse en dispositivos del día a día sin una enorme capacidad de cálculo. Y ahora que, supuestamente, ciertas empresas chinas podrán hacerse con algunas de las mejores GPU de NVIDIA para entrenar a la IA, el impulso a esa estrategia puede ser notable.

Imágenes | MiniMax (editada)

En Xataka | Hay otra carrera igualmente importante que la de los chips para ganar la IA y en esa China lleva la delantera



via Robótica e IA - Xataka https://ift.tt/pvowehE

lunes, 16 de febrero de 2026

China llevó robots humanoides al mayor espectáculo televisivo del país: los hizo practicar kung-fu con precisión milimétrica

China llevó robots humanoides al mayor espectáculo televisivo del país: los hizo practicar kung-fu con precisión milimétrica

Cada año, cientos de millones de personas en China se sientan frente al televisor para ver la Gala de la Fiesta de la Primavera, reconocida por el Libro Guinness de los récords como el programa anual más visto del planeta. No es solo un espectáculo de música y danza, sino también un escaparate donde el país decide qué imagen quiere proyectar de sí mismo. En ese escenario de máxima visibilidad, la presencia de robots humanoides deja de ser una simple curiosidad tecnológica y pasa a funcionar como una declaración pública sobre el lugar que ocupa la innovación en el relato nacional. Lo que ocurrió allí no fue solo un número artístico, sino una pista clara de hacia dónde mira el gigante asiático cuando piensa en su futuro tecnológico.

Kung fu, coreografía y coordinación. Para presentar a sus robots ante millones de espectadores, los organizadores recurrieron a un símbolo profundamente reconocible: las artes marciales. En la transmisión de CCTV disponible en YouTube podemos ver a robots usando armas tradicionales como espadas y nunchakus, así como haciendo crobacias y saltos desde trampolines, siempre en secuencias compartidas con intérpretes humanos. La elección del kung fu aportaba algo más que espectacularidad visual, también puede interpretarse como una forma cercana de leer el avance tecnológico dentro de una tradición conocida por el público.

La magnitud del evento. La Gala de la Fiesta de la Primavera se emite desde 1983 y forma parte inseparable de la celebración del Año Nuevo en cientos de millones de hogares. Reuters la describe además como un evento comparable, por escala mediática, al Super Bowl estadounidense, capaz de concentrar cultura popular, mensaje político y ambición industrial en una sola noche. Lo que aparece en ese escenario entretiene y, al mismo tiempo, proyecta un mensaje y señala prioridades.

China Robots Kung Fu5 China Robots Kung Fu5

Una pasarela para la industria. Detrás de la puesta en escena había nombres concretos y una estrategia visible. En la gala participaron empresas conocidas en occidente como Unitree, pero otras menos conocidas como MagicLab, Galbot y Noetix. El precedente inmediato ayuda a entender el momento: la actuación de robots de Unitree en la edición anterior se volvió viral y, en cierto modo, acercó esta tecnología al gran público. Por lo que resulta razonable la idea de volver a apostar por un espectáculo similar.

China Robots Kung Fu4 China Robots Kung Fu4

Del escenario a la fábrica. La exhibición pública de estos sistemas encaja con una línea de política industrial que sitúa la robótica y la IA en el centro de la próxima etapa manufacturera china. En los últimos años hemos visto cómo el gigante asiático ha apostado fuertemente por este sector. Según Omdia, China concentró alrededor del 90% de los cerca de 13.000 robots humanoides enviados a nivel mundial el año pasado, una métrica de envíos globales que no pasa desapercibida. Morgan Stanley proyecta además que las ventas chinas podrían superar las 28.000 unidades este año, lo que apuntaría a una fase de expansión notable.

Al final, lo que se vio en ese escenario iba más allá de una coreografía bien ejecutada. Detrás de cada movimiento aparecía una narrativa de país que combina ambición tecnológica, política industrial y proyección cultural en una misma imagen televisiva. La pregunta ya no es si estos robots pueden actuar ante millones de personas, sino cuánto crecerá su presencia en los próximos años y en qué espacios de la vida cotidiana terminarán integrándose. Por ahora, su presencia masiva está destinada a este tipo de espectáculos.

Imágenes | CCTV

En Xataka | Mientras las tecnológicas prescinden de juniors para sustituirlos por IA, IBM está haciendo lo contrario: pescar gangas



via Robótica e IA - Xataka https://ift.tt/z6NC5vE

Las empresas tech no quieren recién graduados porque creen que la IA los va a aniquilar. IBM está contratándolos sin parar

Las empresas tech no quieren recién graduados porque creen que la IA los va a aniquilar. IBM está contratándolos sin parar

El mundo empresarial está tan aterrorizado con la IA que las contrataciones de recién graduados están en crisis. Sin embargo, hay una empresa que está justo yendo en la dirección contraria: IBM no solo no ha congelado dichas contrataciones, sino que las está triplicando. Y su argumento es potente.

IBM quiere recién graduados. "Estamos triplicando nuestra contratación de puestos junior", explicaba Nickle LaMoreaux, la máxima responsable de recursos humanos de IBM, en una entrevista en Charter. De hecho, destacaba, esos puestos que están cubriendo "son para desarrolladores software y para todos esos trabajos que nos dicen que la IA puede hacer". Es una declaración sorprendente, sobre todo teniendo en cuenta que la tendencia del mercado es justo la contraria.

Captura De Pantalla 2026 02 16 A Las 12 57 12 Captura De Pantalla 2026 02 16 A Las 12 57 12 El paro entre los recién graduados —y entre losjóvenes— está en niveles récord en la última década en EEUU. Fuente: Federal Reserve Bank of New York.

El problema del paro en la Gen Z. Los jóvenes de la generación Z (Nacidos entre 1997-2012 aproximadamente) se enfrentan a una de las épocas más complejas a la hora de buscar un primer trabajo. En Estados Unidos la tasa de desempleo de los recién graduados está en el 5,6%, la más alta de la década si exceptuamos la época de la pandemia. Directivos de empresas tecnológicas llevan tiempo avisando de que la IA va a impactar mucho en el trabajo, y en especial en el ámbito de la programación. 

Perfiles junior con un nuevo foco. Mientras la competencia parece mostrar un interés creciente por reemplazar puestos de nivel de entrada con la automatización —un 37% planea hacerlo según Korn Ferry—, IBM está cambiando la mentalidad. Los ingenieros de software novatos no se pasarán el día picando código rutinario que una IA puede generar. En lugar de eso, se enfocarán en la interacción con clientes y en supervisar los resultados de los modelos. La IA ya no sustituye al junior, sino que le obliga a ser más estratégico desde el primer día.

IBM no es la única en pensar así. Aunque parece que la tendencia a la automatización es clara, IBM no está sola en esa huida hacia delante. Dropbox está haciendo lo mismo y su responsable de recursos humanos, Melanie Rosenwasser, cree que la Gen Z tiene una ventaja fundamental: está mejor preparada para trabajar con la IA que los veteranos. Según ella, "es como si [los jóvenes de la Gen Z] estuvieran con sus bicis en el Tour de France mientras el resto de nosotros vamos con ruedines", indicó en Bloomberg

Pero. El movimiento de IBM no está exento de cierto cinismo. La compañía hizo este anuncio una semana después de realizar un despido masivo para centrarse en áreas de crecimiento. Es como si hubieran creado una puerta giratoria en la que han sacado veteranía costosa para dejar entrar a juventud más barata. 

La IA como amplificadora. Sea como fuere, el CEO de IBM, Arvind Krishna, defiende esa estrategia —lógico— indicando que la IA no es sustituta de la capacidad humana, sino amplificadora. El discurso, nos lo creamos o no, representan una apuesta singular sobre todo ahora que las empresas parecen plantear que harán lo mismo con muchos menos empleados. Para IBM  la apuesta es a la lealtad y al conocimiento cultivado desde la base en lugar de supeditarlo todo a los algoritmos.

"Developers, developers, developers!". En evento .NET que Microsoft organizó en 1999 se produjo el célebre momento viral en el que un sobreexcitado y sudoroso Ballmer cantó aquello de "Developers, developers, developers!" sin parar. La empresa trataba de volver atraer talento con ese discurso, pero en realidad esa labor había sido intensa años antes. 

Contratar recién graduados le funcionó muy bien a Microsoft. Steven Sinofsky, que lideró el desarrollo de Windows 7, contaba en Twitter cómo Microsoft llegó a ser lo que era gracias a su estrategia de contratar a recién graduados —incluso si no habían terminado la carrera—. El desarrollo de Office, por ejemplo, se nutrió especialmente de estos jóvenes, pero aquella estrategia se detuvo. Como explica Sinofsky "Los "tiempos oscuros" se acentuaron por un parón obligado en la contratación de recién graduados, y las consecuencias se notaron cinco años más tarde". 

En Xataka | "Son mucho más osados": la Gen Z está derribando todos los consensos laborales en su entrada masiva al trabajo 



via Robótica e IA - Xataka https://ift.tt/f9ktzSw

OpenClaw es el agente de IA total que desafiaba a las Big Tech. Respuesta de las Big Tech: comprarlo, cómo no

OpenClaw es el agente de IA total que desafiaba a las Big Tech. Respuesta de las Big Tech: comprarlo, cómo no

Peter Steinberger era un gran desconocido para la inmensa mayoría del planeta hasta hace menos de un mes. Su proyecto, al que inicialmente llamó Clawdbot (después Moltbot y finalmente OpenClaw), se convirtió en la nueva sensación de internet y del mundo de la IA. Su crecimiento ha sido tan espectacular que las grandes de este segmento pusieron sus ojos en ella e, inevitablemente, comenzaron a pelearse por fichar a su creador y adquirir su proyecto. Ya tenemos ganadora de esa puja: OpenAI.

Qué es OpenClaw. OpenClaw es lo podríamos definir como "el agente de IA total". Un sistema que hace uso de uno o varios modelos de IA como los de OpenAI, Anthropic o Google para hacer cosas por ti. Aquí hay algunas diferencias con usar esos modelos de forma "tradicional": 

  1. Puedes chatear con tu agente de IA usando apps de mensajería como Telegram o WhatsApp, como si fuera un contacto más
  2. OpenClaw toma control total de la máquina en la que lo instales, ya sea un viejo PC, una Raspberry Pi o un VPS, por ejemplo. Tiene permiso para hacer lo que quiera dentro de esa máquina, lo que también implica riesgos
  3. La capacidad de los modelos actuales, como Opus 4.5, hace que el agente se vuelva ciertamente autónomo y proactivo y por ejemplo te sugiera cosas o tome decisiones a partir de las conversaciones que tienes con ¿él? ¿ella? ¿ello?

OpenAI compra OpenClaw. La semana pasada Steinberger ya comentaba en una entrevista con Lex Fridman que OpenAI y Meta le habían hecho ofertas para ficharle a él y adquirir su proyecto. Esas intenciones cristalizaron el sábado, cuando el creador de OpenClaw anunció que había fichado por OpenAI y que el proyecto OpenClaw "pasará a estar gesionado por una fundación y se mantendrá abierto e independiente". Era una salida más que razonable para Steinberger, que probablemente habrá recibido una importante suma de dineroy prestigio, pero eso nos lleva a la eterna pregunta: ¿se puede competir con las grandes?

Respuesta corta: probablemente no. Las grandes empresas siempre han estado lastradas por su propia dimensión a la hora de reaccionar rápido a las nuevas tendencias, e incluso las empresas más importantes de IA sufren de este mismo problema. OpenClaw estaba haciendo algo que ninguna de ellas se había atrevido a hacer —en parte porque este tipo de agente tiene demasiado "poder"—, pero con estos proyectos y con startups que empiezan a despuntar siempre ocurre lo mismo: o las grandes empresas copian la idea y acaban enterrando la original, o compran a esa startup que amenazaba con competir con ellas. Para muchas startups, de hecho, el "exit" o estrategia de futuro del proyecto pasa por ser compradas por una gran empresa

Un creador que no quería ser CEO. Steinberger explicaba en su post cómo su proyecto le abrió "una ristra interminable de posibilidades", y confesaba que "sí, podía ver realmente que OpenClaw podría haberse convertido en una empresa gigante. Pero no, eso no me hace ilusión. En mi interior soy un creador". Steinberger ya creó una empresa y le dedicó 13 años de su vida, y "lo que quiero es cambiar el mundo, no crear una gran empresa, y asociarme con OpenAI es la forma más rápida de llevar esto a todo el mundo". 

¿El primer unicornio de una sola persona? La aparición de ChatGPT hizo que pronto se hablara del fenómeno del 'Solo Unicorn', una startup creada por una sola persona y que gracias a la IA llegaría a estar valorada en más de 1.000 millones de dólares. No sabemos cuál ha sido el precio que ha pagado OpenAI por este fichaje, pero es probable que no llegue a tanto. Lo que sí parece evidente es que OpenClaw era el tipo de proyecto e idea que ciertamente podían haberlo convertido en ese "Solo Unicorn".

La era de los agentes de IA personalizados. Sam Altman, CEO de OpenAI, confirmaba la noticia en X. Allí donde indicaba que el creador de OpenClaw se había unido a OpenAI "para dirigir la próxima generación de agentes personales", y destacaba que "esperamos que esto [los agentes personalizados de IA] se convierta rápidamente en parte integral de nuestras ofertas de productos". Además, aseguraba que OpenClaw seguirá siendo de código abierto, algo que probablemente era una de las condiciones indispensables que Steinberger puso para unirse a las filas de OpenAI.

Y ahora qué. Que el proyecto siga siendo Open Source e independiente es una gran noticia y teóricament eso permitirá que OpenClaw siga funcionando como hasta ahora, pero contar con los recursos de OpenAI sin duda puede hacerlo crecer de forma excepcional. Queda por ver si eso acabará influyendo de forma negativa de algún modo, pero lo que también parece claro es que este tipo de "agentes de IA totales" pronto podrían ser también parte integral de la oferta de otras empresas de IA. 

Bienvenidos a la era de los agentes de IA totales. Lo que hace OpenClaw ya lo habíamos visto parcialmente con proyectos como Computer Use de Anthropic, Project Jarvis/Mariner de DeepM Mind u Operator de la propia OpenAI. Ambos permitían que la IA hiciera cosas por nosotros en el navegador, pero es que OpenClaw hace cosas por nosotros con todas las aplicaciones de la máquina en la que lo instalamos (el cliente de correo, la consola de comandos, etc). Estamos ante una etapa interesante para este tipo de sistemas. 

En Xataka | OpenClaw es una de las IA más fascinantes y "peligrosas" del momento. Una empresa malagueña ha acudido en su rescate



via Robótica e IA - Xataka https://ift.tt/3Z2CQwg

domingo, 15 de febrero de 2026

Hay gente compartiendo con la IA sus casos judiciales. El problema es cuando un juez considera como pruebas las conversaciones

Hay gente compartiendo con la IA sus casos judiciales. El problema es cuando un juez considera como pruebas las conversaciones

Cada vez son más los usuarios que tienen un chatbot con IA de compañero para todo, ya sea ChatGPT, Gemini, Claude, u otro cualquiera. El problema viene cuando decidimos compartir datos sensibles con este tipo de herramientas, sobre todo con modelos comerciales producidos por grandes tecnológicas donde siempre vamos a tener la duda de hacia dónde viajan nuestros datos.

En este sentido, hay quienes comparten sus datos legales con el asistente, lo que puede desembocar en algo como ha ocurrido recientemente en Nueva York. Y es que un juez de la ciudad acaba de sentar un precedente histórico al considerar que cualquier conversación que se tenga con un chatbot es pública y por tanto no están protegidas por el secreto profesional abogado-cliente. Es decir: que todo lo que compartas con la IA puede acabar siendo usado en tu contra ante un tribunal.

El caso. Bradley Heppner, un ejecutivo acusado de fraude por valor de 300 millones de dólares, utilizó Claude, el chatbot de Anthropic, para consultar dudas sobre su situación legal antes de ser arrestado. Creó 31 documentos con sus conversaciones con la IA y posteriormente los compartió con sus abogados defensores. Cuando el FBI incautó sus dispositivos electrónicos, sus abogados reclamaron que esos documentos estaban protegidos por el privilegio abogado-cliente. El juez Jed Rakoff ha dicho que no.

Por qué no. Tal y como comparte Moish Peltz, abogado especializado en activos digitales y propiedad intelectual, en una publicación en X, la sentencia establece tres razones. Primero, una IA no es un abogado: no tiene licencia para ejercer, no debe lealtad a nadie y sus términos de servicio niegan expresamente cualquier relación abogado-cliente. Segundo, compartir información legal con una IA equivale legalmente a contársela a un amigo, por lo que no está protegido por secreto profesional. Y tercero, enviar documentos ‘no privilegiados’ a tu abogado después no los convierte mágicamente en confidenciales.

El problema de fondo. Así como recuerda el abogado, la interfaz de este tipo de chatbots genera una falsa sensación de privacidad, pero en realidad estás introduciendo información en una plataforma comercial de terceros que retiene tus datos y se reserva amplios derechos para divulgarlos. Según la política de privacidad de Anthropic vigente cuando Heppner usó Claude, la compañía puede revelar tanto las preguntas de los usuarios como las respuestas generadas a "autoridades gubernamentales reguladoras".

Dilema. El documento judicial revela además un agravante: Heppner introdujo en la IA información que había recibido previamente de sus abogados. Esto plantea un dilema para la fiscalía, según cuenta Peltz. Y es que si intenta usar esos documentos como prueba en el juicio, los abogados defensores podrían convertirse en testigos de los hechos, lo que potencialmente forzaría la anulación del juicio.

Qué significa para ti. Si estás involucrado en cualquier asunto legal, según esta sentencia, lo que compartas con una IA puede ser reclamado por un juez y usado como prueba. No importa que estés preparando tu defensa o buscando asesoramiento preliminar, ya que cada consulta puede acabar convirtiéndose en un factor en tu contra. Y no solo aplica a casos criminales: divorcios, disputas laborales, litigios mercantiles... cualquier conversación con IA sobre estos temas escapa de la protección legal.

Y ahora qué. Peltz señala que los profesionales del derecho deben advertir explícitamente a sus clientes de este riesgo. No se puede asumir que la gente lo entienda intuitivamente. La solución que menciona pasa por crear espacios de trabajo colaborativos con IA compartidos entre abogado y cliente, así cualquier interacción con la inteligencia artificial ocurrirá bajo la supervisión del abogado y dentro de la relación abogado-cliente.

Imagen de portada | Romain Dancre y Solen Feyissa

En Xataka | Doblar la ropa o desmontar LEGOs ha sido siempre una tarea tediosa. La nueva IA de Xiaomi para robots le ha puesto fin




via Robótica e IA - Xataka https://ift.tt/nTzN7b3