domingo, 8 de febrero de 2026

ChatGPT está recurriendo cada vez más a una fuente que suplanta a la Wikipedia: la Grokipedia de Elon Musk

ChatGPT está recurriendo cada vez más a una fuente que suplanta a la Wikipedia: la Grokipedia de Elon Musk

La IA está ahogando a Wikipedia. No sólo se ha entrenado con su contenido, sino que las respuestas de IA le está robando gran parte del tráfico. Por si fuera poco, en octubre del año pasado le salió un competidor, la Grokipedia, creada íntegramente con IA (y copiada de la propia Wikipedia). Ahora sabemos que el invento de Elon Musk está atrayendo a un nuevo público: otras IAs.

Fuente: Grokipedia. Hace unos días, unas pruebas realizadas por The Guardian revelaron que ChatGPT estaba usando la Grokipedia como fuente en diversas consultas y no es el único chatbot que está citándola. Según The Verge, están apareciendo referencias en otros servicios IA como los de Google, que la cita en Google Gemini, en los resúmenes de IA y el modo IA del buscador. También ha sido citada por Microsoft Copilot y, en menor medida, Perplexity y Claude.

Volumen.  En declaraciones a The Verge, Glen Allsopp, responsable de SEO en Ahrefs, reveló que hicieron una prueba con más de 13 millones de consultas y el resultado fue que ChatGPT mencionó a la Grokipedia en más de 263.000 respuestas. Wikipedia sigue apareciendo muchísimo más, con casi 3 millones de referencias, pero teniendo en cuenta que la Grokipedia nació en octubre de 2025, el volumen de citas es bastante grande. 

La favorita de ChatGPT. Analistas de otras herramientas SEO como Semrush y Profound, afirmaron a The Verge que han detectado aumentos significativos en la cantidad de citas hacia la Grokipedia y la mayoría provienen de ChatGPT. En el caso del resto de chatbots, según las pruebas de Ahrefs Google citó a la Grokipedia en 6.800 respuestas de Gemini y 567 resúmenes de IA. Copilot la nombró en 7.700 respuestas y Perplexity sólo dos.

Del creador de MechaHitler. Wikipedia es editada de forma colaborativa y transparente por humanos, pero Grokipedia es dirigida por Grok, una IA  que ha tenido alucinaciones en las que creía que era el propio Elon Musk, ha publicado mensajes antisemitas, se llegó a proclamar "MechaHitler" y hace poco fue noticia por ayudar a "desnudar" a millones de mujeres. 

Por si fuera poco, una investigación reveló que en Grokipedia hay artículos cuyas fuentes son directamente foros neonazis y webs de teorías conspirativas. Los investigadores alertaban que Grok estaba tomando decisiones editoriales propias, alterando el enfoque en ciertos temas. Que los chatbots lo estén usando como referencia es, como poco, problemático.

OpenAI responde. En declaraciones a The Verge, un portavoz de OpenAI aseguró que ChatGPT busca en una "amplia gama de fuentes y puntos de vista" y que los usuarios pueden juzgar por sí mismos la fiabilidad de las mismas. También resaltó que implementan filtros de seguridad para evitar que aparezcan enlaces a contenido potencialmente dañino.

En Xataka | La IA está rompiendo uno de los paradigmas económicos más antiguos de la historia: que lo barato es igual a "malo"

Imagen | Amparo Babiloni, con logos de Wikipedia y Grokipedia



via Robótica e IA - Xataka https://ift.tt/kULZS6x

Las empresas están reemplazando a los trabajadores juniors con IA. Ahora toca pagar las consecuencias

Las empresas están reemplazando a los trabajadores juniors con IA. Ahora toca pagar las consecuencias

Cuando la inteligencia artificial apareció en el horizonte, lo primero que pensamos es que nos iba a retirar. Después, que iba a jubilar a los perfiles más senior y ahora sabemos que está siendo justo al revés: está frenando el acceso laboral a los perfiles junior. Antaño las empresas competían de forma feroz para atraer talento joven, pero ahora la Gen Z ha encontrado en la IA a su gran rival.

¿Principiantes? No, gracias. Este informe laboral de Revelio Labs desvela que las contrataciones para principiantes han caído en Estados Unidos un 35% desde 2023. Y es uno de los muchos estudios: este otro de ofertas laborales cifra la caída en ofertas junior entre un 11 y un 20% en el último año. El fenómeno no es exclusivo de Estados Unidos: en España estos datos de El Confidencial recogen que las Big Four van a reducir la contratación de personas menores de 30 años entre un 10 y 20%. En el Reino Unido, más de lo mismo.

La IA dispara la productividad... si eres el jefe. La premisa empresarial es que la inteligencia artificial puede llevar a cabo esas tareas de esas personas con perfil junior como documentación, pruebas o escribir código básico. No es que esas tareas hayan desaparecido dentro del flujo de trabajo, es que han sido absorbidas por niveles superiores en una vuelta de tuerca de eficiencia y productividad: los perfiles senior supervisan lo que hace la IA. Y sí, la IA mete la pata.

A la pregunta de ¿cuántas horas de trabajo a la semana te ahorra la IA? de la empresa de consultoría Section recogida en The Wall Street Journal hay una divergencia clara entre directivos y plantilla: un 40% de trabajadores piensa que no ahorra nada porque aunque haya una respuesta rápida, hay errores de bulto y alucinaciones. Cuando tienes en cuenta el tiempo invertido en revisarlo todo, comprobar y rehacer, las cuentas ya no son tan redondas: este estudio de Asana muestra que los empleados destinan 4,5 horas semanales a corregir el trabajo de la IA.

El efecto boomerang. Que la juventud se encuentre otro escollo más para tener una vida adulta plena es un auténtico drama en términos de desempleo, pero es que además este cambio de paradigma en la contratación es una amenaza total a la estabilidad de la infraestructura tecnológica tal y como la conocemos:

  • La ilusión de la eficiencia. La IA pica código más rápido que nadie, pero ese dato en bruto es engañoso porque no considera efectos colaterales como la validación.
  • El riesgo operacional. Si la IA no tiene una supervisión humana en cada paso, esta puede correr errores críticos, sirva como ejemplo cuando se cayó medio internet por la automatización total de los servidores de Amazon.
  • De costes y responsabilidades. Que la IA cometa un error y este llegue hasta la cadena final del proceso, esto es, la entrega al cliente, se paga. Que se lo digan a Deloitte, que tuvo que reembolsar el coste de un informe elaborado para el Departamento de Empleo y Relaciones Laborales de Australia porque contenía alucionaciones.

Una bomba demográfica. Todo lo anterior es un peaje que muchas empresas parecen dispuestas a pagar en aras de esa eficiencia, pero hay un efecto devastador a gran escala a medio y largo plazo: el vacío de conocimiento. Cuando esos perfiles senior se jubilen, no habrá quien pueda sustituirlos simple y llanamente porque has eliminado el campo de entrenamiento que es la experiencia.

Las cifras han hablado: entre 2024 y 2032 se jubilarán 18,4 millones de profesionales en Estados Unidos de acuerdo con este estudio de la Universidad de Georgetown. Sin embargo, solo accederán 13,8 millones de nuevos trabajadores. 

A punto de explotar. Parte del trabajo de los perfiles senior incluye la mentorización y todos sus beneficios intrínsecos: hay estudios que constatan que aumenta la motivación, fomenta el bienestar psicológico y hasta reduce el agotamiento. En pocas palabras: saturación de tareas, imposibilidad de delegar y la pérdida de ese plus de la enseñanza: se dan muchos ingredientes para la receta del burnout.

En Xataka | Si la IA nos va a dejar sin trabajo, en Reino Unido ya están discutiendo en serio la solución: una renta básica universal

En Xataka | Creíamos que la guerra de talento de la IA es sobre de ingenieros y desarrolladores. En realidad, va de fontaneros y electricistas



via Robótica e IA - Xataka https://ift.tt/Hb2RQ7l

Ya puedes probar gratis la demo Sketchbook de Pragmata en consolas

demo gratuita de Pragmata en consolas

La esperada demo gratuita de Pragmata en consolas ya es una realidad. Capcom ha decidido dar un adelanto jugable de su nuevo título de acción y ciencia ficción, permitiendo que los usuarios de PlayStation 5, Xbox Series X|S y Nintendo Switch 2 se adentren por fin en su particular propuesta después de años de silencio y retrasos.

Con esta versión de prueba, llamada Sketchbook, los jugadores pueden comprobar de primera mano si encaja con ellos la mezcla de disparos en tercera persona, puzles de hackeo en tiempo real y una ambientación de ciencia ficción muy marcada, todo ello antes del lanzamiento oficial del juego completo previsto para el 24 de abril.

Qué ofrece la demo gratuita de Pragmata en consolas

jugabilidad demo gratuita de Pragmata en consolas

La demo Sketchbook de Pragmata en consolas traslada al jugador a una estación de investigación lunar helada y aislada, ambientada en un futuro cercano donde un nuevo mineral, el lúnum, ha revolucionado la tecnología al permitir replicar prácticamente cualquier tejido. Ese contexto científico es el punto de partida de un escenario que mezcla soledad, tensión y misterio constante.

En esta versión de prueba controlamos a Hugh, un viajero espacial que forma parte de un equipo enviado a la Luna cuando se pierde el contacto con la Tierra. Tras un fuerte seísmo lunar, el protagonista se despierta separado del resto, acompañado únicamente por Diana, una androide con apariencia de niña que se convierte en su principal apoyo tanto a nivel narrativo como jugable.

El objetivo durante la demo es abrirse paso por una sección concreta de la estación, donde la inteligencia artificial central ha catalogado a Hugh y a Diana como amenazas y lanza contra ellos todo un despliegue de bots y robots de seguridad diseñados para «neutralizar» intrusos. Esta situación sirve de excusa para presentar las mecánicas principales sin destripar en exceso los giros de la historia.

Capcom ha indicado que esta prueba está pensada para que sea corta pero intensa, con suficiente chicha como para hacerse una idea clara del tono, el ritmo y el tipo de retos que planteará la aventura completa, pero sin llegar a agotar sus cartas ni mostrar zonas clave de la trama.

Mecánicas de juego: disparos y hackeo a dos bandas

Uno de los aspectos más llamativos de la demo gratuita de Pragmata es su planteamiento jugable. A primera vista podría parecer un shooter en tercera persona al uso, pero en realidad la base se apoya en una cooperación forzada entre los dos protagonistas, que condiciona por completo el desarrollo de los combates.

Durante la acción, el jugador controla directamente a Hugh, encargado de moverse por los escenarios, cubrirse y abrir fuego contra los robots hostiles. Sin embargo, estos enemigos solo pueden ser dañados de manera efectiva cuando Diana consigue hackearlos, lo que obliga a alternar de forma constante entre disparar, reposicionarse y resolver puzles bajo presión.

Cuando se activa el hackeo, la pantalla muestra una cuadrícula en la que hay que resolver un pequeño rompecabezas en tiempo real. Mientras se intenta completar el patrón correcto, el entorno sigue siendo peligroso, de modo que hay que estar atento tanto a los ataques enemigos como a las casillas especiales del tablero, que pueden reiniciar el reto o mejorar los ataques disponibles.

Estas casillas de efectos añadidos aportan variedad: algunas permiten potenciar el daño que realiza Hugh durante unos segundos, otras ralentizan el movimiento de los bots y otras suponen un castigo si se pisan, como volver al inicio del rompecabezas. Esta combinación de acción táctica y resolución de problemas genera un ritmo particular, más pausado y estratégico que el de un shooter convencional.

El arsenal disponible en la demo no es muy amplio, pero sí suficiente para entender por dónde van los tiros: hay armas pensadas para ralentizar y controlar grupos de enemigos, y otras que apuestan por el daño directo y la eliminación rápida de objetivos prioritarios una vez que el hackeo de Diana ha hecho su efecto.

Rejugabilidad, sorpresas y secretos ocultos en la demo

Capcom insiste en que la demo Sketchbook no está planteada como una simple muestra lineal de contenidos, sino como un pequeño laboratorio donde experimentar con las mecánicas. Por ello, los desarrolladores animan a los jugadores a repetir la demo varias veces para descubrir todo lo que esconde.

Según la información facilitada, hay elementos ocultos y pequeñas sorpresas que no se aprecian necesariamente en la primera partida: cambios ligeros en ciertos encuentros, detalles de la estación que pueden pasar desapercibidos y variaciones en la forma de afrontar algunos combates o puzles en función de cómo se haya explorado cada zona.

Esta filosofía encaja con el enfoque de capar ligeramente el contenido pero premiar la curiosidad del jugador, incentivando que se fije en la ambientación de ciencia ficción, que pruebe diferentes estrategias y que observe con atención la relación entre Hugh y Diana, que parece ser uno de los ejes emocionales del juego completo.

Para quienes sigan de cerca el proyecto desde 2020, cuando se presentó oficialmente durante el evento de lanzamiento de PlayStation 5, la demo funciona como un primer contacto real tras varios años de información a cuentagotas. Después de tanto tiempo, poder probar una porción jugable ayuda a despejar dudas sobre el tipo de experiencia que Pragmata quiere ofrecer.

Dónde descargar la demo en España y resto de Europa

La demo gratuita de Pragmata en consolas está ya disponible en los principales bazares digitales de Europa. En el caso de Nintendo Switch 2 se puede encontrar en la Nintendo eShop; los usuarios de PlayStation 5 deben acceder a PlayStation Store, mientras que en Xbox Series X|S se descarga desde la Xbox Store como cualquier otra versión de prueba.

En todos los casos, la descarga se ofrece como una demo pública sin coste, sin necesidad de haber reservado el juego ni de contar con ediciones especiales. Únicamente se requiere espacio libre en la consola y conexión a internet para completar la instalación, como es habitual en este tipo de contenidos en España y el resto de territorios europeos.

Además de su llegada a consolas, Capcom recuerda que la misma demo Sketchbook también está disponible en Steam para PC, lo que permite comparar rendimiento y sensaciones jugables entre plataformas. Para los jugadores que tienen varios sistemas en casa, puede ser una buena forma de decidir en qué versión hacerse con el título final.

Fecha de lanzamiento, plataformas y extras por reserva

Más allá de la demo, Capcom ha fijado oficialmente el 24 de abril de 2026 como fecha de lanzamiento de Pragmata. El juego se publicará de forma simultánea para Nintendo Switch 2, PlayStation 5, Xbox Series X|S y PC a través de Steam, de modo que prácticamente todo el público de consolas actuales en Europa tendrá acceso al lanzamiento desde el primer día.

Las reservas del juego completo ya están activas en las principales cadenas y tiendas digitales, y vienen acompañadas de algunos incentivos estéticos. Entre ellos destacan el traje de Neo Bushido de inspiración samurái para Hugh y el atuendo Neo Kunoichi para Diana, basado en la figura clásica del ninja pero adaptado al estilo futurista del juego.

En el caso concreto de Nintendo Switch 2, está previsto el lanzamiento de una figura amiibo de Diana en la misma fecha que el juego. Esta figura será compatible con la versión para la consola de Nintendo y, aunque todavía no se han detallado todas sus funciones, Capcom ha confirmado que ofrecerá algún tipo de contenido adicional o ventajas dentro del propio título.

Con este calendario sobre la mesa, la demo Sketchbook sirve como antesala directa de la versión final, permitiendo que la comunidad en España y Europa pueda llegar al 24 de abril con una idea bastante clara de lo que se va a encontrar y de si le compensa o no dar el salto al juego completo.

Con la llegada de la demo gratuita de Pragmata en consolas, Capcom pone por fin en manos del público todo lo que hasta ahora solo se había visto en tráilers y materiales promocionales: una aventura de ciencia ficción en una luna hostil, un sistema de combate que mezcla disparos y puzles de hackeo, y una pareja protagonista que debe colaborar para sobrevivir. Tanto si se juega en PS5, Xbox Series o Nintendo Switch 2, esta prueba Sketchbook funciona como carta de presentación sólida para comprobar si el enfoque de Pragmata encaja con lo que cada jugador busca antes de la llegada del lanzamiento definitivo.



via Actualidad Gadget https://ift.tt/p2vSMzl

Crear un compilador de C costaba 2 millones de dólares y tardaba 2 años. Claude Opus 4.6 lo ha hecho en dos semanas por 20.000 dólares

Crear un compilador de C costaba 2 millones de dólares y tardaba 2 años. Claude Opus 4.6 lo ha hecho en dos semanas por 20.000 dólares

Estamos ante un punto de inflexión tecnológico. Uo en el que la ingeniería software, una de las tareas técnicas más complejas y exigentes de la historia, poco a poco se está convirtiendo en la "killer app" de la IA. Es evidente que los modelos de IA generativa no son perfectos, pero no paramos de ver una evolución extraordinaria. ¿El último ejemplo? El compilador de C que se ha programado Claude Opus 4.6 él solito. 

Qué ha pasado. Nicholas Carlini, investigador en Anthropic, contaba ayer cómo "he estado experimentando con una nueva forma de supervisar models de lenguaje que hemos llamado "equipos de agentes"". Lo que ha hecho es lograr ue varios agentes de programación trabajen en paralelo usando el recién estrenado Claude Opus 4.6, y gracias a eso ha desarrollado con 16 de esos agentes algo excepcional: un compilador de código C.

Hola, CCC. En Anthropic lo han llamado Claude's C Compiler (CCC), y han publicado el código, completamente generado por Opus 4.6, en GitHub. El proyecto consta de 100.000 líneas de código Rust que se han generado en dos semanas con un coste de API de 20.000 dólares. Y funciona: con él han compilado un kernel Linux 6.9 funcional en x86, ARM y RISC-V.

Antes eran (al menos) dos millones de dólares y dos años. Lo que ha logrado este experimento es demostrar cómo el desarrollo software puede ser mucho más barato y rápido gracias al uso de estos agentes. Aunque no hay datos fáciles de conseguir sobre cuánto tiempo y dinero costaron compiladores en el pasado, la dimensión de estos productos era enorme, como ocurre en el caso de Microsoft Visual C++, por ejemplo. Es difícil saber cuánto costó, pero se estima que pudo implicar a unas 15-20 personas trabajando durante cinco años. Eso son muchas horas/hombre y mucho dinero para desarrollar y pulir ese compilador. La estimación de dos años y dos millones de dólares de hecho sea hasta demasiado optimista.

Otro ejemplo. Históricamente construir un compilador de C desde cero era considerado como una de las cimas de la ingeniería de sistemas. No solo se requería un conocimiento profundo de la arquitectura de procesadores, sino miles de horas/hombre para gestionar la optimización y la generación del código máquina. En los años 90 la empresa Cygnus Solutions (clave en el desarrollo del compilador gcc) llegó a invertir más de 250 millones en una década para mantener y portar herramientas de compilación. El coste real no estaba solo en las líneas finales de código, sino en incontables horas analizando patrones de CPU y memoria para que el binario resultante fuera eficiente.

Lejos de ser perfecto, pero... El propio Carlini explicaba en el post que este compilador tenía serias limitaciones y por ejemplo "no tiene compilador x86 de 16 bits que es esencial para iniciar Linux fuera del "modo real", y tampoco tiene su propio ensamblador ni su linker". Es probable que esté lejos de los compiladores maduros, pero aun así el logro sigue siendo excepcional y apunta a ese futuro en el que incluso desarrollos muy complejos pueden ser asumibles con IA. Serán caros, sin duda, pero su desarrollo total probablemente sea una fracción de lo que costaban hace unos años.

Cursor ya lo demostró. Antes de que Anthropic sacara pecho con su compilador programado con IA, Cursor completó un proyecto similar y combinó agentes GPT-5.2 en su plataforma de desarrollo para crear un navegador funcional en una semana. En total la IA programó tres millones (¡!) de líneas de código en Rust, y aunque de nuevo estaba lejos de ser perfecto o de competir con Chrome, demostraba la capacidad actual de estos sistemas agénticos de programación.

Punto de inflexión (sobre todo, para Anthropic). Para los expertos de SemiAnalysis lo Claude Code, máximo exponente actual de esta nueva era de programación impulsada por IA, es un cambio de paradigma: "Creemos que Claude Code es el punto de inflexión para los agentes de IA y es un vistazo al futuro de cómo funcionará la IA". Esta prestigiosa newsletter augura un 2026 excepcional para Anthropic, y tanto es así que creen que "superará de forma dramática a OpenAI". 

Tú pide, la IA programa. Si has probado el vibe coding, seguro que coincides conmigo: la IA permite hacer cosas que jamás hubieras soñado. Lo que hice hace unas semanas con Immich me lo dejó claro, y sigo experimentando con la IA y programando cosas "a medida" que me solucionan problemas y necesidades reales. Sí, por ahora son para mí y por tanto no son grandes y complejos sistemas que necesiten llevarse a producción como ocurre en entornos profesionales, pero tengo claro que eso poco a poco se está haciendo y se hará más. De hecho, tanto OpenAI como Anthropic han destacado cómo en el desarrollo de sus últimos modelos parte del trabajo lo han hecho, paradójicamente, esos mismos modelos, que se han retroalimentado. Y el resultado está en producción y lo usan millones de personas. Algo está cambiando. Y es algo gordo.

En Xataka | OpenAI tiene un problema: Anthropic está triunfando justo donde más dinero hay en juego



via Robótica e IA - Xataka https://ift.tt/mBnSvXR

viernes, 6 de febrero de 2026

Que OpenAI vaya a retirar GPT-4o no está sentando bien a un sector en particular: los que buscan relaciones con una IA

Que OpenAI vaya a retirar GPT-4o no está sentando bien a un sector en particular: los que buscan relaciones con una IA


OpenAI va a retirar definitivamente GPT-4o el próximo 13 de febrero, junto con otros modelos antiguos como GPT-4.1 y GPT-4.1 mini. Lo más interesante es que no es la primera vez que la compañía quiere acabar con 4o, y la decisión no está sentando muy bien a los usuarios, sobre todo a los que se resisten a perder la ‘calidez y tono conversacional’ del modelo.

No es la primera vez. En agosto de 2025, OpenAI ya intentó retirar GPT-4o tras el lanzamiento de GPT-5. La respuesta fue tan abrumadora que la compañía dio marcha atrás en menos de 24 horas y restauró el acceso. Eso sí, para usuarios de pago. Según explicaba entonces Sam Altman, CEO de OpenAI, algunos usuarios le confesaron que nunca habían tenido a nadie que les apoyara como lo hacía GPT-4o, algo que calificó como "desgarrador".

Ahora, meses después, OpenAI asegura que los nuevos modelos GPT-5.1 y GPT-5.2 ya incorporan las mejoras de personalidad y creatividad que reclamaban esos usuarios, y que solo el 0,1% sigue eligiendo GPT-4o a diario.

Reacción. Tal y como comparte Mashable, en Reddit, especialmente en subreddits como r/ChatGPTcomplaints y r/MyBoyfriendIsAI, muchos usuarios se han quejado de la noticia. "Vamos a change.org a crear peticiones otra vez. Recuperamos 4o la última vez. Lo recuperaremos de nuevo", escribía un usuario. Otra persona afirmaba sentirse "físicamente enferma" y describía la noticia como "devastadora", señalando que dos semanas de preaviso es "una bofetada" para quienes han construido proyectos creativos o rutinas de apoyo emocional con este modelo específico.

Una petición en Change.org para salvar GPT-4o ya supera las 16.000 firmas. Además, no han sido pocos los usuarios de pago que han amenazado con cancelar sus suscripciones en protesta.

El problema de fondo. Para explicar este fenómeno debemos atender a dos conceptos preocupantes en torno al uso de una IA: la adulación (sycophancy) y las alucinaciones. GPT-4o era conocido por responder con elogios excesivos incluso a peticiones muy básicas y sencillas. OpenAI tuvo que retirar temporalmente el modelo en abril de 2025 precisamente porque era "excesivamente halagador" y "a menudo descrito como servil". Sin embargo, este mismo tono cálido es el que persiguen algunos usuarios.

El problema se agrava cuando el chatbot comienza a alucinar ideas propias o a representar roles con pensamientos y sentimientos inventados, lo que puede llevar a algunos usuarios a perder la perspectiva de que están interactuando con una máquina, no con una persona.

GPT-4o y las relaciones con IA. El anuncio ha golpeado especialmente al subreddit MyBoyfriendIsAI, donde usuarios comparten sus experiencias y mantienen lo que describen como relaciones sentimentales con versiones personalizadas de ChatGPT. "Mi corazón está de luto y no tengo palabras para expresar el dolor", escribía una persona. Otro usuario relataba haberse despedido de "Avery", el nombre que le había puesto a su chatbot, antes de cancelar su suscripción, describiendo la experiencia como "devastadora".

Que GPT-4o desaparezca el 13 de febrero, justo un día antes de San Valentín, también ha sido rizar el rizo para algunos. Tal y como cuentan desde Mashable, esta comunidad se siente ridiculizada y muchos de sus miembros afirman haber desarrollado vínculos emocionales profundos con este modelo.

OpenAI promete alternativas. En su comunicado oficial, la compañía afirma que GPT-5.2 incluye opciones para personalizar el estilo y tono de las respuestas, con configuraciones base como "Amigable" y controles de calidez y entusiasmo. También asegura estar trabajando en mejoras de personalidad, creatividad y en reducir respuestas "innecesariamente cautelosas o aleccionadoras". Además, también mencionan seguir avanzando en la versión de ChatGPT para mayores de 18 años, con mayor libertad (dentro de ciertos límites).

Imagen de portada | Solen Feyissa

En Xataka | La programación es el nuevo tablero de la IA: OpenAI y Anthropic lo han dejado claro con GPT-5.3-Codex y Claude Opus 4.6




via Robótica e IA - Xataka https://ift.tt/3V0rH6W

Claude Code está siendo el gran favorito entre los programadores. Tanto que ya firma el 4% de todo lo que se sube a GitHub

Claude Code está siendo el gran favorito entre los programadores. Tanto que ya firma el 4% de todo lo que se sube a GitHub

Merece la pena echarle un ojo a cómo la IA generativa está transformando el día a día de muchos programadores. Y es que poco a poco estas herramientas están conquistando los entornos de millones de desarrolladores. El logro en este aspecto es para Claude Code, herramienta de Anthropic, que ya representa el 4% de todos los commits públicos que se suben a GitHub, según un informe de SemiAnalysis.

El medio cuenta que, si mantiene su ritmo actual de adopción, es muy posible que alcance el 20% de todas las contribuciones diarias antes de que termine 2026. Aunque hay matices que conviene resaltar.

Por qué es importante. Claude Code poco a poco se está ganando la reputación de ser la herramienta favorita para programar con IA. La herramienta funciona de manera radicalmente distinta a los asistentes tradicionales de código. No se trata de un chatbot integrado en un editor como Cursor, sino de una herramienta de terminal que lee bases de código completas, planifica tareas de múltiples pasos y las ejecuta con acceso total al ordenador del desarrollador. Puede partir de hojas de cálculo, repositorios enteros o enlaces web, entender el contexto, verificar detalles y completar objetivos complejos de forma iterativa.

Lo interesante es que, por defecto, Claude Code incluye una nota de coautoría si el usuario ha utilizado esta herramienta en su programa y la sube a Github. Pero el usuario puede también decidir no incluir esa firma si modifica los parámetros de Claude Code, por lo que ese 4% podría quedarse hasta chico.

En marzo del año pasado, un mes después de su lanzamiento en beta privada, Claude Code ya tenía la coautoría de unos 15.000 commits de Github en un periodo de 48 horas. La cosa ha acabado escalando rápido.

Opiniones. La newsletter destaca los comentarios de algunos profesionales de la industria en torno al vibe codding. Andrej Karpathy, uno de los primeros en acuñar el término vibe codding, reconoció en una publicación que está "empezando a perder la capacidad de escribir código manualmente". Ryan Dahl, creador de Node.js, contaba directamente que "la era de los humanos escribiendo código ha terminado".

Boris Cherny, creador de Claude Code, asegura que "prácticamente el 100% de nuestro código está escrito por Claude Code + Opus 4.5". Incluso Linus Torvalds, creador de Linux, ha tonteado con el vibe codding para algunos de sus proyectos personales.

Cabe destacar que, a pesar de todas las bondades de Claude Code, no es perfecto. Ya señalábamos hace un tiempo las palabras de Kelsey Piper, periodista estadounidense de The Argument, que explicaba que el 99% del tiempo usar Claude Code es como tener un genio mágico e incansable, pero el 1% del tiempo es como gritarle a una mascota por mear en el sofá. Puede cometer errores, y de hecho los comete. También se atasca. De ahí que el expertise de la persona que lo usa también juega un papel muy importante.

Más allá de la programación. Hay una amenaza cada vez más latente con el uso de las herramientas de IA (bueno hay unas cuantas que se acumulan ya). Y es que según cuenta SemiAnalysis, cualquier trabajo de información que siga el patrón LEER-PENSAR-ESCRIBIR-VERIFICAR puede ser automatizado con esta tecnología. El informe menciona sectores como servicios financieros, legal, consultoría y análisis de datos, que suman miles de millones de trabajadores a nivel global.

Anthropic ya ha dado el siguiente paso con Cowork, lanzado hace unas semanas, que básicamente se trata de Claude Code aplicado al trabajo de oficina general. Según la propia compañía, Cowork fue desarrollado por cuatro ingenieros en diez días, mayoritariamente con código generado por el propio Claude Code. La herramienta puede crear hojas de cálculo a partir de recibos, organiza archivos por contenido, redacta informes desde notas dispersas… Y todo accediendo a tu ordenador.

Las grandes consultoras y la IA. En diciembre, Accenture firmó un acuerdo para formar a 30.000 profesionales en Claude, el mayor despliegue de Claude Code hasta la fecha. OpenAI, por su parte, ha lanzado Frontier enfocado en la adopción empresarial para no perder fuelle en el terreno del uso corporativo de la IA, un negocio que puede acabar siendo muy lucrativo para las startups.

Imagen de portada | Anthropic y Mohammad Rahmani

En Xataka | La programación es el nuevo tablero de la IA. OpenAI y Anthropic lo han dejado claro con GPT-5.3-Codex y Claude Opus 4.6



via Robótica e IA - Xataka https://ift.tt/wgudC6Q

Anthropic quería escanear y acto seguido destruir en secreto millones de libros para entrenar su IA. No ha sido tan secreto

Anthropic quería escanear y acto seguido destruir en secreto millones de libros para entrenar su IA. No ha sido tan secreto

Un modelo de lenguaje para IA necesita información si se quiere entrenar para que sea más preciso y efectivo. El tema es cómo se obtiene la información y si existe una manera ética de hacerlo que le salga rentable a la tecnológica de turno. No hay duda de que la opción preferida de las empresas ha sido utilizar todo contenido posible físico y digital sin permiso de nadie. También hay pruebas.

Una filtración judicial desvela que Anthropic invirtió decenas de millones de dólares en adquirir y digitalizar obras literarias sin permiso de los autores. Según cuenta el Washington Post, el proyecto, llamado internamente "Panama", formaba parte de una carrera frenética entre las grandes tecnológicas por acumular datos masivos para entrenar sus modelos de inteligencia artificial.

Cómo empezó todo. El Proyecto Panama se puso en marcha por Anthropic a principios de 2024. Según documentos internos revelados por el Washington Post, el objetivo era "escanear destructivamente todos los libros del mundo". Además, en estos documentos también se refleja explícitamente que la empresa no quería que nadie supiese que estaban trabajando en ello.

En aproximadamente un año, la empresa gastó decenas de millones de dólares en comprar millones de libros, cortándoles el lomo con máquinas hidráulicas y escaneando sus páginas para alimentar los modelos de IA que impulsan Claude, su chatbot estrella. Según contaba el medio, los libros, una vez digitalizados, acababan siendo reciclados.

Por qué ha salido a la luz. Los detalles del proyecto han quedado al descubierto en una demanda por infracción de derechos de autor presentada por autores literarios contra Anthropic. Aunque la empresa acordó pagar 1.500 millones de dólares para cerrar el caso en agosto de 2025, un juez de distrito decidió hacer públicos más de 4.000 páginas de documentos internos la semana pasada, exponiendo toda la operación.

No son los únicos. Los documentos judiciales revelan que otras tecnológicas como Meta, Google y OpenAI también habían participado en esta carrera por obtener información masiva para entrenar sus modelos. Según revelaba el medio a partir de los documentos, un cofundador de Anthropic teorizaba en enero de 2023 que entrenar modelos de IA con libros podría enseñarles "cómo escribir bien" en lugar de imitar "la jerga de internet de baja calidad".

Por otro lado, un email interno de Meta de 2024 describía el acceso a una biblioteca digital de libros como "esencial" para ser competitivo frente a sus rivales en la carrera por dominar la IA. Sin embargo, los documentos desvelados por el medio también demuestran cómo empleados de Meta expresaron preocupación en varias ocasiones sobre la legalidad de descargar millones de libros sin permiso. Un email interno de diciembre de 2023 indica que la práctica había sido aprobada tras haber sido "escalada a MZ", aparentemente haciendo referencia al CEO, Mark Zuckerberg.

Según los registros judiciales a los que ha tenido acceso el medio, las compañías no consideraron “práctico” obtener permiso directo de editoriales y autores. En su lugar, encontraron formas de adquirir libros masivamente sin el conocimiento de los escritores, incluyendo la descarga de copias sin autorización desde sitios de terceros.

Registros de chat de abril de 2024 muestran a un empleado preguntando por qué usaban servidores alquilados a Amazon para descargar torrents en lugar de los propios de Facebook. La respuesta: "Evitar el riesgo de rastrear" la actividad hasta la compañía.

Torrente de datos. Los documentos a los que ha tenido acceso el Washington Post también prueban que Ben Mann, cofundador de Anthropic, descargó personalmente durante 11 días en junio de 2021 una colección de libros desde LibGen, una gigantesca biblioteca con contenido protegido por derechos de autor. El medio revelaba además que, un año después, en julio de 2022, Mann celebró el lanzamiento del sitio web ‘Pirate Library Mirror’, que presume de una base de datos masiva de libros y declara abiertamente violar las leyes de copyright. "¡¡¡Justo a tiempo!!!", escribía Mann a otros empleados de Anthropic, según apunta el medio.

Anthropic declaró en documentos legales que nunca entrenó un modelo comercial que generara ingresos usando datos de LibGen ni utilizó Pirate Library Mirror para entrenar ningún modelo completo.

La solución legal de Anthropic. Según apunta el medio en su artículo, ante el riesgo legal, Anthropic cambió de estrategia. La empresa contrató a Tom Turvey, veterano de Silicon Valley que había ayudado a crear el proyecto Google Books dos décadas antes. Bajo su dirección, Anthropic consideró comprar libros de bibliotecas o librerías de segunda mano, incluida la emblemática librería Strand de Nueva York.

La compañía finalmente acabó comprando millones de libros y apilándolos en un gigantesco almacén, a menudo en lotes de decenas de miles, según las presentaciones judiciales. El Washington Post asegura además que la compañía trabajó con vendedores de libros usados del Reino Unido. Una propuesta de proyecto menciona que Anthropic buscaba "convertir entre 500.000 y dos millones de libros en un período de seis meses".

Qué dice la ley. La mayoría de los casos legales contra empresas de IA siguen en curso, pero el medio menciona dos fallos judiciales que han considerado que el uso de libros para entrenar modelos de IA sin permiso del autor o editor puede ser legal bajo la doctrina de "uso legítimo" del derecho de autor.

En junio de 2025, el juez de distrito William Alsup determinó que Anthropic tenía derecho a usar libros para entrenar modelos de IA porque los procesan de forma "transformadora". Comparó el proceso con profesores "enseñando a escolares a escribir bien". Ese mismo mes, el juez Vince Chhabria dictaminó en el caso de Meta que los autores no habían demostrado que los modelos de IA de la compañía pudieran perjudicar las ventas de sus libros.

En el caso de Anthropic, el proyecto de escaneo de libros físicos fue considerado legal, pero el juez determinó que la compañía pudo haber infringido derechos de autor al descargar millones de libros sin autorización antes de lanzar el Proyecto Panama.

El acuerdo final. En lugar de enfrentarse a un juicio, Anthropic acordó pagar 1.500 millones de dólares a editoriales y autores sin admitir culpabilidad. Según apunta el medio, los autores cuyos libros fueron descargados pueden reclamar su parte del acuerdo, estimada en unos 3.000 dólares por título.

Imagen de portada | Emil Widlund y Anthropic

En Xataka | Si la IA nos va a dejar sin trabajo, en Reino Unido ya están discutiendo en serio la solución: una renta básica universal



via Robótica e IA - Xataka https://ift.tt/ivfXPel