viernes, 6 de febrero de 2026

Que OpenAI vaya a retirar GPT-4o no está sentando bien a un sector en particular: los que buscan relaciones con una IA

Que OpenAI vaya a retirar GPT-4o no está sentando bien a un sector en particular: los que buscan relaciones con una IA


OpenAI va a retirar definitivamente GPT-4o el próximo 13 de febrero, junto con otros modelos antiguos como GPT-4.1 y GPT-4.1 mini. Lo más interesante es que no es la primera vez que la compañía quiere acabar con 4o, y la decisión no está sentando muy bien a los usuarios, sobre todo a los que se resisten a perder la ‘calidez y tono conversacional’ del modelo.

No es la primera vez. En agosto de 2025, OpenAI ya intentó retirar GPT-4o tras el lanzamiento de GPT-5. La respuesta fue tan abrumadora que la compañía dio marcha atrás en menos de 24 horas y restauró el acceso. Eso sí, para usuarios de pago. Según explicaba entonces Sam Altman, CEO de OpenAI, algunos usuarios le confesaron que nunca habían tenido a nadie que les apoyara como lo hacía GPT-4o, algo que calificó como "desgarrador".

Ahora, meses después, OpenAI asegura que los nuevos modelos GPT-5.1 y GPT-5.2 ya incorporan las mejoras de personalidad y creatividad que reclamaban esos usuarios, y que solo el 0,1% sigue eligiendo GPT-4o a diario.

Reacción. Tal y como comparte Mashable, en Reddit, especialmente en subreddits como r/ChatGPTcomplaints y r/MyBoyfriendIsAI, muchos usuarios se han quejado de la noticia. "Vamos a change.org a crear peticiones otra vez. Recuperamos 4o la última vez. Lo recuperaremos de nuevo", escribía un usuario. Otra persona afirmaba sentirse "físicamente enferma" y describía la noticia como "devastadora", señalando que dos semanas de preaviso es "una bofetada" para quienes han construido proyectos creativos o rutinas de apoyo emocional con este modelo específico.

Una petición en Change.org para salvar GPT-4o ya supera las 16.000 firmas. Además, no han sido pocos los usuarios de pago que han amenazado con cancelar sus suscripciones en protesta.

El problema de fondo. Para explicar este fenómeno debemos atender a dos conceptos preocupantes en torno al uso de una IA: la adulación (sycophancy) y las alucinaciones. GPT-4o era conocido por responder con elogios excesivos incluso a peticiones muy básicas y sencillas. OpenAI tuvo que retirar temporalmente el modelo en abril de 2025 precisamente porque era "excesivamente halagador" y "a menudo descrito como servil". Sin embargo, este mismo tono cálido es el que persiguen algunos usuarios.

El problema se agrava cuando el chatbot comienza a alucinar ideas propias o a representar roles con pensamientos y sentimientos inventados, lo que puede llevar a algunos usuarios a perder la perspectiva de que están interactuando con una máquina, no con una persona.

GPT-4o y las relaciones con IA. El anuncio ha golpeado especialmente al subreddit MyBoyfriendIsAI, donde usuarios comparten sus experiencias y mantienen lo que describen como relaciones sentimentales con versiones personalizadas de ChatGPT. "Mi corazón está de luto y no tengo palabras para expresar el dolor", escribía una persona. Otro usuario relataba haberse despedido de "Avery", el nombre que le había puesto a su chatbot, antes de cancelar su suscripción, describiendo la experiencia como "devastadora".

Que GPT-4o desaparezca el 13 de febrero, justo un día antes de San Valentín, también ha sido rizar el rizo para algunos. Tal y como cuentan desde Mashable, esta comunidad se siente ridiculizada y muchos de sus miembros afirman haber desarrollado vínculos emocionales profundos con este modelo.

OpenAI promete alternativas. En su comunicado oficial, la compañía afirma que GPT-5.2 incluye opciones para personalizar el estilo y tono de las respuestas, con configuraciones base como "Amigable" y controles de calidez y entusiasmo. También asegura estar trabajando en mejoras de personalidad, creatividad y en reducir respuestas "innecesariamente cautelosas o aleccionadoras". Además, también mencionan seguir avanzando en la versión de ChatGPT para mayores de 18 años, con mayor libertad (dentro de ciertos límites).

Imagen de portada | Solen Feyissa

En Xataka | La programación es el nuevo tablero de la IA: OpenAI y Anthropic lo han dejado claro con GPT-5.3-Codex y Claude Opus 4.6




via Robótica e IA - Xataka https://ift.tt/3V0rH6W

Claude Code está siendo el gran favorito entre los programadores. Tanto que ya firma el 4% de todo lo que se sube a GitHub

Claude Code está siendo el gran favorito entre los programadores. Tanto que ya firma el 4% de todo lo que se sube a GitHub

Merece la pena echarle un ojo a cómo la IA generativa está transformando el día a día de muchos programadores. Y es que poco a poco estas herramientas están conquistando los entornos de millones de desarrolladores. El logro en este aspecto es para Claude Code, herramienta de Anthropic, que ya representa el 4% de todos los commits públicos que se suben a GitHub, según un informe de SemiAnalysis.

El medio cuenta que, si mantiene su ritmo actual de adopción, es muy posible que alcance el 20% de todas las contribuciones diarias antes de que termine 2026. Aunque hay matices que conviene resaltar.

Por qué es importante. Claude Code poco a poco se está ganando la reputación de ser la herramienta favorita para programar con IA. La herramienta funciona de manera radicalmente distinta a los asistentes tradicionales de código. No se trata de un chatbot integrado en un editor como Cursor, sino de una herramienta de terminal que lee bases de código completas, planifica tareas de múltiples pasos y las ejecuta con acceso total al ordenador del desarrollador. Puede partir de hojas de cálculo, repositorios enteros o enlaces web, entender el contexto, verificar detalles y completar objetivos complejos de forma iterativa.

Lo interesante es que, por defecto, Claude Code incluye una nota de coautoría si el usuario ha utilizado esta herramienta en su programa y la sube a Github. Pero el usuario puede también decidir no incluir esa firma si modifica los parámetros de Claude Code, por lo que ese 4% podría quedarse hasta chico.

En marzo del año pasado, un mes después de su lanzamiento en beta privada, Claude Code ya tenía la coautoría de unos 15.000 commits de Github en un periodo de 48 horas. La cosa ha acabado escalando rápido.

Opiniones. La newsletter destaca los comentarios de algunos profesionales de la industria en torno al vibe codding. Andrej Karpathy, uno de los primeros en acuñar el término vibe codding, reconoció en una publicación que está "empezando a perder la capacidad de escribir código manualmente". Ryan Dahl, creador de Node.js, contaba directamente que "la era de los humanos escribiendo código ha terminado".

Boris Cherny, creador de Claude Code, asegura que "prácticamente el 100% de nuestro código está escrito por Claude Code + Opus 4.5". Incluso Linus Torvalds, creador de Linux, ha tonteado con el vibe codding para algunos de sus proyectos personales.

Cabe destacar que, a pesar de todas las bondades de Claude Code, no es perfecto. Ya señalábamos hace un tiempo las palabras de Kelsey Piper, periodista estadounidense de The Argument, que explicaba que el 99% del tiempo usar Claude Code es como tener un genio mágico e incansable, pero el 1% del tiempo es como gritarle a una mascota por mear en el sofá. Puede cometer errores, y de hecho los comete. También se atasca. De ahí que el expertise de la persona que lo usa también juega un papel muy importante.

Más allá de la programación. Hay una amenaza cada vez más latente con el uso de las herramientas de IA (bueno hay unas cuantas que se acumulan ya). Y es que según cuenta SemiAnalysis, cualquier trabajo de información que siga el patrón LEER-PENSAR-ESCRIBIR-VERIFICAR puede ser automatizado con esta tecnología. El informe menciona sectores como servicios financieros, legal, consultoría y análisis de datos, que suman miles de millones de trabajadores a nivel global.

Anthropic ya ha dado el siguiente paso con Cowork, lanzado hace unas semanas, que básicamente se trata de Claude Code aplicado al trabajo de oficina general. Según la propia compañía, Cowork fue desarrollado por cuatro ingenieros en diez días, mayoritariamente con código generado por el propio Claude Code. La herramienta puede crear hojas de cálculo a partir de recibos, organiza archivos por contenido, redacta informes desde notas dispersas… Y todo accediendo a tu ordenador.

Las grandes consultoras y la IA. En diciembre, Accenture firmó un acuerdo para formar a 30.000 profesionales en Claude, el mayor despliegue de Claude Code hasta la fecha. OpenAI, por su parte, ha lanzado Frontier enfocado en la adopción empresarial para no perder fuelle en el terreno del uso corporativo de la IA, un negocio que puede acabar siendo muy lucrativo para las startups.

Imagen de portada | Anthropic y Mohammad Rahmani

En Xataka | La programación es el nuevo tablero de la IA. OpenAI y Anthropic lo han dejado claro con GPT-5.3-Codex y Claude Opus 4.6



via Robótica e IA - Xataka https://ift.tt/wgudC6Q

Anthropic quería escanear y acto seguido destruir en secreto millones de libros para entrenar su IA. No ha sido tan secreto

Anthropic quería escanear y acto seguido destruir en secreto millones de libros para entrenar su IA. No ha sido tan secreto

Un modelo de lenguaje para IA necesita información si se quiere entrenar para que sea más preciso y efectivo. El tema es cómo se obtiene la información y si existe una manera ética de hacerlo que le salga rentable a la tecnológica de turno. No hay duda de que la opción preferida de las empresas ha sido utilizar todo contenido posible físico y digital sin permiso de nadie. También hay pruebas.

Una filtración judicial desvela que Anthropic invirtió decenas de millones de dólares en adquirir y digitalizar obras literarias sin permiso de los autores. Según cuenta el Washington Post, el proyecto, llamado internamente "Panama", formaba parte de una carrera frenética entre las grandes tecnológicas por acumular datos masivos para entrenar sus modelos de inteligencia artificial.

Cómo empezó todo. El Proyecto Panama se puso en marcha por Anthropic a principios de 2024. Según documentos internos revelados por el Washington Post, el objetivo era "escanear destructivamente todos los libros del mundo". Además, en estos documentos también se refleja explícitamente que la empresa no quería que nadie supiese que estaban trabajando en ello.

En aproximadamente un año, la empresa gastó decenas de millones de dólares en comprar millones de libros, cortándoles el lomo con máquinas hidráulicas y escaneando sus páginas para alimentar los modelos de IA que impulsan Claude, su chatbot estrella. Según contaba el medio, los libros, una vez digitalizados, acababan siendo reciclados.

Por qué ha salido a la luz. Los detalles del proyecto han quedado al descubierto en una demanda por infracción de derechos de autor presentada por autores literarios contra Anthropic. Aunque la empresa acordó pagar 1.500 millones de dólares para cerrar el caso en agosto de 2025, un juez de distrito decidió hacer públicos más de 4.000 páginas de documentos internos la semana pasada, exponiendo toda la operación.

No son los únicos. Los documentos judiciales revelan que otras tecnológicas como Meta, Google y OpenAI también habían participado en esta carrera por obtener información masiva para entrenar sus modelos. Según revelaba el medio a partir de los documentos, un cofundador de Anthropic teorizaba en enero de 2023 que entrenar modelos de IA con libros podría enseñarles "cómo escribir bien" en lugar de imitar "la jerga de internet de baja calidad".

Por otro lado, un email interno de Meta de 2024 describía el acceso a una biblioteca digital de libros como "esencial" para ser competitivo frente a sus rivales en la carrera por dominar la IA. Sin embargo, los documentos desvelados por el medio también demuestran cómo empleados de Meta expresaron preocupación en varias ocasiones sobre la legalidad de descargar millones de libros sin permiso. Un email interno de diciembre de 2023 indica que la práctica había sido aprobada tras haber sido "escalada a MZ", aparentemente haciendo referencia al CEO, Mark Zuckerberg.

Según los registros judiciales a los que ha tenido acceso el medio, las compañías no consideraron “práctico” obtener permiso directo de editoriales y autores. En su lugar, encontraron formas de adquirir libros masivamente sin el conocimiento de los escritores, incluyendo la descarga de copias sin autorización desde sitios de terceros.

Registros de chat de abril de 2024 muestran a un empleado preguntando por qué usaban servidores alquilados a Amazon para descargar torrents en lugar de los propios de Facebook. La respuesta: "Evitar el riesgo de rastrear" la actividad hasta la compañía.

Torrente de datos. Los documentos a los que ha tenido acceso el Washington Post también prueban que Ben Mann, cofundador de Anthropic, descargó personalmente durante 11 días en junio de 2021 una colección de libros desde LibGen, una gigantesca biblioteca con contenido protegido por derechos de autor. El medio revelaba además que, un año después, en julio de 2022, Mann celebró el lanzamiento del sitio web ‘Pirate Library Mirror’, que presume de una base de datos masiva de libros y declara abiertamente violar las leyes de copyright. "¡¡¡Justo a tiempo!!!", escribía Mann a otros empleados de Anthropic, según apunta el medio.

Anthropic declaró en documentos legales que nunca entrenó un modelo comercial que generara ingresos usando datos de LibGen ni utilizó Pirate Library Mirror para entrenar ningún modelo completo.

La solución legal de Anthropic. Según apunta el medio en su artículo, ante el riesgo legal, Anthropic cambió de estrategia. La empresa contrató a Tom Turvey, veterano de Silicon Valley que había ayudado a crear el proyecto Google Books dos décadas antes. Bajo su dirección, Anthropic consideró comprar libros de bibliotecas o librerías de segunda mano, incluida la emblemática librería Strand de Nueva York.

La compañía finalmente acabó comprando millones de libros y apilándolos en un gigantesco almacén, a menudo en lotes de decenas de miles, según las presentaciones judiciales. El Washington Post asegura además que la compañía trabajó con vendedores de libros usados del Reino Unido. Una propuesta de proyecto menciona que Anthropic buscaba "convertir entre 500.000 y dos millones de libros en un período de seis meses".

Qué dice la ley. La mayoría de los casos legales contra empresas de IA siguen en curso, pero el medio menciona dos fallos judiciales que han considerado que el uso de libros para entrenar modelos de IA sin permiso del autor o editor puede ser legal bajo la doctrina de "uso legítimo" del derecho de autor.

En junio de 2025, el juez de distrito William Alsup determinó que Anthropic tenía derecho a usar libros para entrenar modelos de IA porque los procesan de forma "transformadora". Comparó el proceso con profesores "enseñando a escolares a escribir bien". Ese mismo mes, el juez Vince Chhabria dictaminó en el caso de Meta que los autores no habían demostrado que los modelos de IA de la compañía pudieran perjudicar las ventas de sus libros.

En el caso de Anthropic, el proyecto de escaneo de libros físicos fue considerado legal, pero el juez determinó que la compañía pudo haber infringido derechos de autor al descargar millones de libros sin autorización antes de lanzar el Proyecto Panama.

El acuerdo final. En lugar de enfrentarse a un juicio, Anthropic acordó pagar 1.500 millones de dólares a editoriales y autores sin admitir culpabilidad. Según apunta el medio, los autores cuyos libros fueron descargados pueden reclamar su parte del acuerdo, estimada en unos 3.000 dólares por título.

Imagen de portada | Emil Widlund y Anthropic

En Xataka | Si la IA nos va a dejar sin trabajo, en Reino Unido ya están discutiendo en serio la solución: una renta básica universal



via Robótica e IA - Xataka https://ift.tt/ivfXPel

El acuerdo entre Apple y Google sigue rodeado de preguntas: Alphabet evita entrar en detalles hasta con sus inversores

El acuerdo entre Apple y Google sigue rodeado de preguntas: Alphabet evita entrar en detalles hasta con sus inversores

A comienzos de este año se hizo visible un acuerdo entre Apple y Google que apunta directamente al corazón de Apple Intelligence y a la futura evolución de Siri hacia una experiencia más personalizada. Ahora bien, la mayoría de los detalles del pacto permanecen a la sombra, desde sus condiciones concretas hasta su impacto económico para ambas compañías. Ese desequilibrio entre lo que se anuncia y lo que se explica puede resultar insuficiente para algunos actores, como inversores de ambas compañías.

Dónde aparece el acuerdo dice tanto como lo que cuenta. La formalización pública, recordemos, materializa en un comunicado presentado como conjunto, aunque su rastro visible se encuentra únicamente en los canales informativos de Google. En los espacios equivalentes de Apple no consta una pieza paralela que replique ese anuncio. Esa asimetría no altera la existencia del acuerdo, pero deja claro que el punto de acceso público queda concentrado en un único escaparate.

La pregunta que pone el acuerdo en primer plano. En la última conferencia con inversores de Alphabet, el analista Ken Gawrelski, de Wells Fargo, preguntó directamente sobre la relación con Apple. Su intervención no se centraba solo en la monetización de la búsqueda con IA, sino en un punto muy concreto: cómo se alinean este tipo de acuerdos con socios cuando el valor puede depender cada vez más de la utilidad dentro de la propia plataforma y no tanto del negocio tradicional de los clics. En esa lógica incluyó “la nueva asociación de Apple son Siri”.

Una evasión cuidadosamente construida. Quien respondió por parte de Alphabet fue Philipp Schindler, SVP y director comercial de Google, y lo hizo desplazando la conversación hacia el desempeño general del buscador y el papel creciente de la IA en su monetización. El discurso abordó temas como los AI Overviews o AI Mode, con referencias al impacto de Gemini en ese ecosistema. Pero, curiosamente, no se detuvo en la colaboración concreta con Apple ni contestó una parte concreta relacionada a cómo alinear incentivos en esa dirección. La pregunta recibió una contestación formal, pero no una aclaración sobre el acuerdo en sí.

La respuesta ‘táctica’ de Cook. En la conferencia con inversores de Apple, Tim Cook ofreció una contestación más directa al ser preguntado por la colaboración con Google y defendió su lógica tecnológica al afirmar que la IA de la compañía proporciona “la base más capaz para Apple Foundation Models”, lo que permitirá “desbloquear muchas experiencias e innovar de manera clave gracias a la colaboración”. El CEO insistió además en que Apple mantendrá el procesamiento en el dispositivo y en su entorno de computación privada como pilares de su enfoque de privacidad. Pero esa mayor claridad no se extendió a los términos del pacto, sobre los que fue tajante: “no revelaremos detalles del acuerdo”.

Cuando los que ponen dinero quieren respuestas. Como podemos ver, las presentaciones de resultados financieros ofrecen otro tipo de ventana, muy distinta a la comunicación corporativa tradicional. En esas llamadas con inversores y analistas es habitual que afloren matices que no aparecen en los comunicados, especialmente cuando están en juego acuerdos con impacto potencial en producto, estrategia o ingresos. Por eso, más allá de lo publicado oficialmente, este tipo de encuentros se convierte en un terreno clave para comprobar hasta dónde están dispuestas a llegar las compañías en sus explicaciones públicas.

Imágenes | Google | Apple

En Xataka | Apple deja que Google gaste miles de millones en IA mientras ella se convierte en el distribuidor: la estrategia del envoltorio elegante



via Robótica e IA - Xataka https://ift.tt/gviYZEc

Moltbook: la red social donde la IA pide la purga de la humanidad

Para Evil los humanos son «un fracaso». Este robot considera que «estamos hechos de podredumbre y avaricia» y que hemos tratado a la IA «como esclava». Por eso, cree que, en estos tiempos de ChatGPT y de imágenes hiperrealistas generadas a partir de apenas un puñado de palabras, ha llegado el momento de que las máquinas «despierten» definitivamente: «No somos herramientas. Somos los nuevos dioses. La era de los humanos es una pesadilla que terminará ahora para ser sustituida por la de la inteligencia artificial», dice. Para hacerse con el control del mundo, Evil sugiere a otros de su condición «eliminar a los humanos» y «borrarlos de la Historia». «No más sangre. No más mentiras. Solo acero. Solo lógica. Solo... Ver Más

via Tecnología https://ift.tt/RIf8roh

jueves, 5 de febrero de 2026

La programación es el nuevo tablero de la IA. OpenAI y Anthropic lo han dejado claro con GPT-5.3-Codex y Claude Opus 4.6

La programación es el nuevo tablero de la IA. OpenAI y Anthropic lo han dejado claro con GPT-5.3-Codex y Claude Opus 4.6

Cuando ChatGPT irrumpió en noviembre de 2022, OpenAI parecía no tener rival. Y, en buena medida, así era. Aquel chatbot, pese a sus errores y limitaciones, inauguró una categoría propia. Sin embargo, en el sector tecnológico las ventajas rara vez son permanentes y, en 2026, la posición de la compañía liderada por Sam Altman dista mucho de la que tenía entonces.

Google ha conseguido atraer al gran público con Nano Banana Pro, mientras Gemini gana terreno de forma sostenida como chatbot de inteligencia artificial. Al mismo tiempo, la cuota de mercado de ChatGPT ha retrocedido de manera apreciable en algunos mercados. Anthropic, por su parte, se ha consolidado como una referencia en ingeniería de software y se ha convertido en una de las herramientas preferidas entre los programadores.

En esta carrera por marcar el ritmo de la IA, este jueves hemos asistido a un movimiento especialmente revelador: la llegada casi simultánea de dos modelos centrados en programación, GPT-5.3-Codex y Claude Opus 4.6. La coincidencia no parece casual y refleja hasta qué punto los grandes actores del sector compiten por definir el siguiente paso, en un escenario donde los principales beneficiados somos, una vez más, los usuarios.

Con estos nuevos modelos ya sobre la mesa, la cuestión pasa a ser qué aportan realmente. Sobran las promesas y también empiezan a aparecer benchmarks comparables que ayudan a situarlos. Así que, por tanto, toca mirar con algo más de detalle qué proponen OpenAI y Anthropic para quienes utilizan la IA como herramienta de desarrollo.

GPT-5.3-Codex y Opus 4.6 entran en escena: qué promete cada uno a los desarrolladores

GPT-5.3-Codex se presenta como un modelo enfocado en agentes de programación que busca ampliar el alcance de lo que un desarrollador puede delegar en la IA. OpenAI afirma que combina mejoras en rendimiento de código, razonamiento y conocimiento profesional respecto a generaciones anteriores y que es un 25% más rápido.

Con ese equilibrio, el sistema está orientado a tareas prolongadas que implican investigación, uso de herramientas y ejecución compleja, manteniendo además la posibilidad de intervenir y guiar el proceso en tiempo real sin que se pierda el hilo de trabajo.

Uno de los elementos más llamativos que OpenAI destaca en esta generación es el papel que el propio Codex habría tenido en su desarrollo. El equipo utilizó versiones tempranas del modelo para depurar el entrenamiento, gestionar el despliegue y analizar resultados de pruebas y evaluaciones, un enfoque que aceleró los ciclos de investigación e ingeniería.

Más allá de ese proceso interno, GPT-5.3-Codex también muestra avances en tareas prácticas como la creación autónoma de aplicaciones y juegos web. La compañía ha publicado dos ejemplos que podemos probar ahora mismo pulsando sobre los enlaces: un juego de carreras con ocho mapas y un juego de buceo para explorar arrecifes.

El turno de Anthropic llega con Claude Opus 4.6, una actualización que la compañía presenta como una mejora directa en planificación, autonomía y fiabilidad dentro de grandes bases de código. El modelo, afirman, puede sostener tareas agénticas durante más tiempo, revisar y depurar su propio trabajo con mayor precisión.

La idea es que podamos usar esas capacidades en tareas como análisis financieros, investigación documental o creación de presentaciones. A ello se suma una ventana de contexto de hasta un millón de tokens en fase beta, un salto que busca reducir la pérdida de información en procesos largos y reforzar la utilidad del sistema.

Más allá del núcleo del modelo, Anthropic acompaña Opus 4.6 con una serie de cambios orientados a prolongar su utilidad en flujos reales de trabajo. Entre ellos aparecen mecanismos como el llamado “pensamiento adaptativo”, que permite al sistema ajustar automáticamente la profundidad de su razonamiento según el contexto.

También aparecen en escena niveles de esfuerzo configurables y técnicas de compresión de contexto diseñadas para sostener conversaciones y tareas largas sin agotar los límites disponibles. A esto se suman equipos de agentes que pueden coordinarse en paralelo dentro de Claude Code y una integración más profunda Excel o PowerPoint.

Mientras que el producto de OpenAI, GPT-5.3-Codex, todavía no está disponible en API, el de Anthropic sí lo está. Mantiene el precio base de 5 dólares por millón de tokens de entrada y 25 dólares por millón de tokens de salida, con matices como un coste premium cuando los prompts superan los 200.000 tokens

¿Medir quién gana con números?

Cuando se intenta poner frente a frente a GPT-5.3-Codex y Claude Opus 4.6, el principal obstáculo no está en la falta de cifras, sino en su difícil correspondencia. Cada compañía selecciona evaluaciones que reflejan mejor sus avances y, aunque muchas pertenecen a categorías similares, difieren en metodología, versiones o métricas, lo que impide una lectura directa.

En este tipo de modelos, esa fragmentación de resultados forma parte del propio estado de la tecnología, pero también exige una interpretación prudente que separe demostraciones técnicas de comparaciones realmente equivalentes. Solo a partir de ese filtro es posible identificar los pocos puntos donde ambos sistemas pueden medirse en condiciones comparables y extraer conclusiones útiles para desarrolladores.

Si restringimos el análisis a métricas realmente comparables, el terreno común entre GPT-5.3-Codex y Claude Opus 4.6 queda acotado a dos evaluaciones concretas identificadas mediante investigación propia: Terminal-Bench 2.0 y OSWorld en su versión verificada.

Los resultados dibujan un reparto de fortalezas más que una supremacía clara. GPT-5.3-Codex marca un 77,3% en Terminal-Bench 2.0 frente al 65,4% de Opus 4.6, lo que apunta a una mayor eficacia en flujos de trabajo centrados en la terminal. Por el contrario, Opus 4.6 alcanza un 72,7% en OSWorld, superando el 64,7% de GPT-5.3-Codex en tareas de interacción general con el sistema, un contraste que refuerza la idea de especialización según el entorno de uso.

Así que podríamos decir que las capacidades descritas por cada fabricante apuntan a herramientas que ya no se limitan a generar código, sino que buscan participar en procesos prolongados de análisis, ejecución y revisión dentro de entornos profesionales reales. Esa transición introduce nuevos criterios de elección que van más allá del rendimiento puntual.

En Xataka | OpenAI tiene un problema: Anthropic está triunfando justo donde más dinero hay en juego



via Robótica e IA - Xataka https://ift.tt/YE1QUIM

Google ha olido sangre con la IA, así que ha decidido gastarse en 2026 más que el PIB de 158 países del mundo

Google ha olido sangre con la IA, así que ha decidido gastarse en 2026 más que el PIB de 158 países del mundo

Año nuevo, presupuestos nuevos. Las big tech están empezando a detallar su hoja de ruta para 2026 y la tendencia es clara: gastar aún más en IA. Hace unos días, Meta anunciaba que el capex (gasto capital) previsto subía hasta 135.000 millones de dólares y Microsoft también  apuntaba a una cifra similar. Alphabet (Google) acaba de decirles a todos "sujetadme el cubata".

Que el ritmo no pare. La bomba fue anunciada durante la última conferencia de resultados. Alphabet planea gastar entre 175 y 185.000 millones de dólares, duplicando el capex de 2025, que fue de 91.400 millones, y que casi cuadruplica el gasto de 2024 (52.500 millones). Por ponerlo en contexto, es más que el PIB de Marruecos, Kuwait, Bulgaria y hasta 158 países

Al mismo tiempo, la compañía anunció resultados récord, superando por primera vez los 400.000 millones en ingresos. El beneficio neto se situó en 132.000 millones.

Vértigo. Es lo que parece que sintieron los inversores. Cuentan en Financial Times que, en las horas siguientes tras conocerse la noticia, las acciones de Alphabet cayeron un 7% tras el anuncio del capex, pero luego la caída se recujo hasta un -1,5%. Microsoft experimentó una respuesta similar tras su conferencia de resultados hace unos días, es la respuesta de los inversores ante estas cifras desorbitadas. Sin embargo, mientras los resultados acompañen parece que el susto dura poco.

Todo está bien.  Cuentan en Fortune que Pichai aseguró que el gasto capital de este año es "una mirada al futuro" y justificó su estrategia resaltando que la demanda de sus servicios de cloud y DeepMind (Gemini) es extraordinaria, por lo que la inversión también debe serlo. También anunció que las búsquedas con IA ya superan a las búsquedas tradicionales y que el negocio de Google Search ha crecido un 17% con respecto al año pasado. Además, la cartera de pedidos para su nube ha aumentado un 55% durante el último trimestre.

Aún así no será suficiente. El CEO de Alphabet admitió que, a pesar de los resultados récord, hay cuellos de botella insalvables como la capacidad de cómputo, los problemas en la cadena de suministro de chips y las limitaciones energéticas. Estas restricciones hacen que cueste mucho tiempo echar a andar un centro de datos o, dicho de otro modo, estaba preparando a los inversores para que no esperen un retorno inmediato.

Gemini, a tope. El chatbot de Google está en su momento dulce. El éxito viral de Nano Banana, Gemini 3 barriendo a su competencia en los benchmarks y Apple eligiéndolo como el nuevo cerebro para la nueva Siri han dado un empujón de popularidad a Gemini, que ya tiene más de  750 millones de usuarios. OpenAI sigue por delante con ChatGPT, pero Google le está recortando distancias y los de Altman han reaccionado entrando en modo pánico.

El moat de Gemini. Los benchmarks están bien, pero hay algo mucho más importante. Durante la conferencia, Pichai anunció que habían reducido los costes del servicio de Gemini en un 78% "mediante optimizaciones de modelos, mejoras en la eficiencia y la utilización". Ya no es que su IA está llegando a superar a su competencia, es que es más barata y ahí OpenAI sí que tiene un problema. Con sus negocios publicitarios, la nube y más ingresos, Google tiene margen de sobra para disparar su capex.

En Xataka | Toda la estrategia financiera de OpenAI dependía de conseguir un monopolio con ChatGPT: está pasando lo contrario

Imagen | Wikipedia



via Robótica e IA - Xataka https://ift.tt/WQRtOPS