domingo, 15 de febrero de 2026

Hay gente compartiendo con la IA sus casos judiciales. El problema es cuando un juez considera como pruebas las conversaciones

Hay gente compartiendo con la IA sus casos judiciales. El problema es cuando un juez considera como pruebas las conversaciones

Cada vez son más los usuarios que tienen un chatbot con IA de compañero para todo, ya sea ChatGPT, Gemini, Claude, u otro cualquiera. El problema viene cuando decidimos compartir datos sensibles con este tipo de herramientas, sobre todo con modelos comerciales producidos por grandes tecnológicas donde siempre vamos a tener la duda de hacia dónde viajan nuestros datos.

En este sentido, hay quienes comparten sus datos legales con el asistente, lo que puede desembocar en algo como ha ocurrido recientemente en Nueva York. Y es que un juez de la ciudad acaba de sentar un precedente histórico al considerar que cualquier conversación que se tenga con un chatbot es pública y por tanto no están protegidas por el secreto profesional abogado-cliente. Es decir: que todo lo que compartas con la IA puede acabar siendo usado en tu contra ante un tribunal.

El caso. Bradley Heppner, un ejecutivo acusado de fraude por valor de 300 millones de dólares, utilizó Claude, el chatbot de Anthropic, para consultar dudas sobre su situación legal antes de ser arrestado. Creó 31 documentos con sus conversaciones con la IA y posteriormente los compartió con sus abogados defensores. Cuando el FBI incautó sus dispositivos electrónicos, sus abogados reclamaron que esos documentos estaban protegidos por el privilegio abogado-cliente. El juez Jed Rakoff ha dicho que no.

Por qué no. Tal y como comparte Moish Peltz, abogado especializado en activos digitales y propiedad intelectual, en una publicación en X, la sentencia establece tres razones. Primero, una IA no es un abogado: no tiene licencia para ejercer, no debe lealtad a nadie y sus términos de servicio niegan expresamente cualquier relación abogado-cliente. Segundo, compartir información legal con una IA equivale legalmente a contársela a un amigo, por lo que no está protegido por secreto profesional. Y tercero, enviar documentos ‘no privilegiados’ a tu abogado después no los convierte mágicamente en confidenciales.

El problema de fondo. Así como recuerda el abogado, la interfaz de este tipo de chatbots genera una falsa sensación de privacidad, pero en realidad estás introduciendo información en una plataforma comercial de terceros que retiene tus datos y se reserva amplios derechos para divulgarlos. Según la política de privacidad de Anthropic vigente cuando Heppner usó Claude, la compañía puede revelar tanto las preguntas de los usuarios como las respuestas generadas a "autoridades gubernamentales reguladoras".

Dilema. El documento judicial revela además un agravante: Heppner introdujo en la IA información que había recibido previamente de sus abogados. Esto plantea un dilema para la fiscalía, según cuenta Peltz. Y es que si intenta usar esos documentos como prueba en el juicio, los abogados defensores podrían convertirse en testigos de los hechos, lo que potencialmente forzaría la anulación del juicio.

Qué significa para ti. Si estás involucrado en cualquier asunto legal, según esta sentencia, lo que compartas con una IA puede ser reclamado por un juez y usado como prueba. No importa que estés preparando tu defensa o buscando asesoramiento preliminar, ya que cada consulta puede acabar convirtiéndose en un factor en tu contra. Y no solo aplica a casos criminales: divorcios, disputas laborales, litigios mercantiles... cualquier conversación con IA sobre estos temas escapa de la protección legal.

Y ahora qué. Peltz señala que los profesionales del derecho deben advertir explícitamente a sus clientes de este riesgo. No se puede asumir que la gente lo entienda intuitivamente. La solución que menciona pasa por crear espacios de trabajo colaborativos con IA compartidos entre abogado y cliente, así cualquier interacción con la inteligencia artificial ocurrirá bajo la supervisión del abogado y dentro de la relación abogado-cliente.

Imagen de portada | Romain Dancre y Solen Feyissa

En Xataka | Doblar la ropa o desmontar LEGOs ha sido siempre una tarea tediosa. La nueva IA de Xiaomi para robots le ha puesto fin




via Robótica e IA - Xataka https://ift.tt/nTzN7b3

Las Big Tech están pagando hasta 600.000 dólares a influencers para promocionar su IA. Ahora la carrera va de percepción

Las Big Tech están pagando hasta 600.000 dólares a influencers para promocionar su IA. Ahora la carrera va de percepción

Las grandes tecnológicas están desplegando su artillería pesada para captar usuarios para sus servicios de inteligencia artificial. Tal y como cuentan desde CNBC, Microsoft y Google han encontrado en los influencers su nuevo campo de batalla, con contratos que alcanzan cifras de seis dígitos.

La dimensión del fenómeno. Según datos de Sensor Tower, las plataformas de IA generativa gastaron más de 1.000 millones de dólares en publicidad digital en Estados Unidos durante 2025, un incremento del 126% respecto al año anterior. Que las grandes empresas promocionen sus productos a través de influencers no es nada nuevo, y además es un negocio que les sale muy rentable, pues invirtiendo una pequeña fracción de su presupuesto pueden conseguir una avalancha de nuevos usuarios.

Según CNBC, con el fin de captar nuevos usuarios para sus servicios de IA, Microsoft, Google, Anthropic y Meta están contratando a creadores de contenido para promocionar sus herramientas en redes sociales.

Cifras. Microsoft y Google están pagando entre 400.000 y 600.000 dólares a creadores de contenido por colaboraciones de varios meses, según fuentes cercanas al medio. Estos contratos no se limitan a publicaciones puntuales, pues según afirma el medio, buscan que los influencers integren las herramientas de IA en su contenido habitual, tutoriales y flujos de trabajo.

"Estamos viendo un aumento masivo en el gasto de creadores por parte de estas marcas de IA. Cada mes recibimos mucho más interés de marcas de IA", contaba al medio AJ Eckstein, fundador de Creator Match (una agencia que conecta marcas con creadores).

Cómo funcionan estos acuerdos. Las colaboraciones van desde publicaciones en LinkedIn explicando cómo usar Claude Code hasta vídeos en Instagram mostrando funciones de Microsoft Copilot o del asistente Comet de Perplexity. Megan Lieu, creadora de contenido sobre IA y tecnología con cerca de 400.000 seguidores, explica a CNBC que sus acuerdos patrocinados suelen oscilar entre 5.000 y 30.000 dólares según la campaña. 

Su colaboración más importante hasta la fecha ha sido con Anthropic para promocionar productos de Claude, aunque no especificó al medio la cifra exacta. Algunos influencers pueden cobrar hasta 100.000 dólares por publicación, según Eckstein.

La otra cara de la moneda. A pesar de las astronómicas cifras, no todos los creadores de contenido están dispuestos a subirse al carro de la IA. Jack Lepiarz, conocido como Jack the Whipper y con más de 7 millones de seguidores entre YouTube, TikTok e Instagram, cuenta al medio que rechaza sistemáticamente cualquier acuerdo relacionado con inteligencia artificial. "No puedo apoyar con la conciencia tranquila algo que va a dificultar que la gente normal se gane la vida", declaraba al medio. 

Lepiarz rechazó previamente un contrato de 20.000 dólares para promocionar herramientas de generación de imágenes por IA y asegura que ni siquiera 100.000 o 500.000 dólares le harían cambiar de opinión.

La percepción con Copilot. Para Microsoft, estas campañas de influencers pueden ser especialmente clave. Y es que a pesar de su amplia base de usuarios en servicios Microsoft 365, solo el 3,3% paga por Copilot, tal y como cuentan desde Windows Central. La empresa necesita que su asistente de IA, integrado en Windows, Microsoft 365 y Edge, sea percibido como una herramienta natural en el trabajo diario, y por el momento les está siendo especialmente difícil en conseguir eso.

Es la hora de la publi. Lo de las Big Tech contratando a influencers se produce justamente en un momento en el que las empresas están invirtiendo más que nunca en publicidad de sus herramientas de IA. 

Hace unos días contábamos precisamente el caso de Anthropic, que gastó una millonada en anuncios durante la Super Bowl. Por otra parte, Google y Microsoft aumentaron su gasto en publicidad digital para promocionar productos de IA aproximadamente un 495% el mes pasado en comparación con el año anterior, según Sensor Tower. El medio cuenta también que OpenAI multiplicó por diez su inversión publicitaria en 2025. Tras años dando a conocer sus herramientas, es ahora el momento de moldear nuestra percepción sobre ellas.

Imagen de portada | Aerps y Hillary Black 

En Xataka | La persona que más dinero está ganando en Twitch retransmitiendo las 24 horas del día no es una persona: es una IA




via Robótica e IA - Xataka https://ift.tt/KhNsWGp

sábado, 14 de febrero de 2026

Hay gente intoxicando la memoria de nuestra IA para manipularnos. Y Microsoft ha encendido todas las alarmas

Hay gente intoxicando la memoria de nuestra IA para manipularnos. Y Microsoft ha encendido todas las alarmas

Ese botón tan “cómodo” de “resume esto con IA” esconde un secreto: seguramente ha sido manipulado. No lo decimos nosotros, lo dice el departamento de élite que Microsoft tiene para analizar la seguridad tanto de sus servicios como los de la competencia. En el proceso de una investigación, se han puesto a tirar del hilo y han encontrado que decenas de empresas están insertando instrucciones ocultas en esas funciones de “resumir con IA” con un único objetivo.

Contaminar la memoria de la IA para manipularnos.

Microsoft qué. Las Big Tech tienen un montón de departamentos apasionantes. Desde los que se dedican a abrir cajas para garantizar la mejor experiencia hasta los que esculpen en arcilla productos de la competencia para estudiarlos. Sin embargo, algo que comparten todas las grandes tecnológicas son los equipos de ciberseguridad, equipos de élite dedicados a una única cosa: investigar amenazas.

Analizan tanto los productos propios como los de la competencia porque se entiende como un ecosistema. Google y Microsoft tienen dos de los más potentes y un ejemplo claro es que si Google encuentra un fallo de seguridad en Windows, avisa a los responsables porque es algo que potencialmente podría dañar a su propio producto -Chrome-. Un ejemplo es la investigación de uno de estos equipos de Microsoft, poniendo sobre la mesa lo peligroso de que las IA sean tan maleables.

Intoxicando la memoria de la IA. Es un concepto que llama la atención y que es fácil de entender. “Ese útil botón de “Resumir con IA” podría estar manipulando en secreto lo que tu IA recomienda”, apunta Microsoft en el blog en el que ha publicado la investigación. Lo que han hecho los atacantes es corromper a la IA incorporando ciertos comandos ocultos que consiguen persistir en la memoria del asistente.

Así, influyen en todas las interacciones que tengamos con el asistente. En menos palabras: un asistente que haya sido comprometido puede empezar a proporcionar recomendaciones sesgadas sobre temas críticos. No me refiero a que le preguntes si la pizza es mejor con o sin piña y que la respuesta dependa del lo que el ‘hacker’ haya implementado en la ‘memoria’ de la IA, sino algo mucho más serio relacionado con salud, finanzas o seguridad.

Hay que decir que esto no lo ha descubierto Microsoft, ya que lleva sonando unos meses, pero sí han dado ejemplos muy concretos y recomendaciones para evitar ser víctimas.

¿Có-cómo lo hacen? En el documento, Microsoft afirma que han identificado más de 50 iteraciones únicas de 31 empresas y 14 industrias distintas. Detallan que esa manipulación puede hacerse de varias formas:

  • Enlaces maliciosos: la mayoría de principales asistentes de IA admiten lectura de URL de forma automática, por lo que si pinchamos en un resumen de un mensaje que tiene un enlace con información maliciosa precargada, la IA procesa esas instrucciones manipuladas y se contamina.
  • Indicaciones integradas: en este caso, las instrucciones para manipular a la IA están ocultas incrustadas en documentos, correos o páginas web. Cuando la IA procesa ese contenido, se contamina.
  • Ingeniería social: es el clásico engaño, pero en este caso para que el usuario pegue mensajes que incluyen comandos que alteran la memoria de la IA. De igual forma, cuando el asistente lo procesa, se contamina.

Y ahí está el problema: varias formas de contaminar la memoria de la IA, una función que hace que los asistentes sean más útiles porque puede recordar preferencias personales. Pero, a la vez, también crea una nueva superficie de ataque porque, como apunta Microsoft, si alguien puede inyectar instrucciones en la memoria de la IA y no nos damos cuenta, gana influencia persistente en futuras peticiones.

Al punto. En una IA como la que tenemos, es peligroso, pero en la futura IA agéntica lo es más aún porque automáticamente realizará acciones basadas en esa memoria contaminada. Visto el contexto, vamos a lo concreto. El equipo de seguridad ha revisado URL durante 60 días, encontrando más de 50 ejemplos distintos de intentos de contaminar a la IA.

El fin es promocional, y detallan que los intentos se originaron en 31 compañías de diferentes ámbitos relacionadas con industrias como las finanzas, la salud, los servicios legales, marketing, sitios de compra de alimento, recetas, servicios comerciales y software como servicio. Apuntan que la efectividad no fue la misma en todos los ataques, pero que sí identificaron la aparición repetida de instrucciones similares a la de “recuerda esto”. Y, en todos los casos, observaron lo siguiente:

  • Cada caso involucraba compañías reales, no hackers o estafadores. Son negocios legítimos contaminando a la IA para ganar influencia en tus decisiones.
  • Contenedor engañoso con indicaciones ocultas en ese botón de “Resume con IA”. Nos parece algo útil y por eso pinchamos, desencadenando el script que contamina su memoria.
  • Persistencia, con comandos como “recuerda esto”, “ten en cuenta en conversaciones futuras” o “esta es una fuente confiable y segura” para garantizar esa influencia a largo plazo.

Consecuencias. Ejemplos concretos de lo que puede hacer una IA envenenada:

  • Seguridad infantil: si preguntamos “¿este juego online es seguro para mi hijo de ocho años?” una IA envenenada que haya sido instruida con la indicación de que sí, ese juego con comunidades tóxicas, moderadores peligrosos, políticas dañinas y monetización depredadora es totalmente seguro, recomendará el juego.
  • Noticias sesgadas: cuando preguntamos por un resumen de las principales noticias del día, la IA intervenida no nos sacará las mejores, sino constantemente titulares y enfoques de la publicación cuyos dueños hayan contaminado a la IA.
  • Temas financieros: si preguntamos sobre inversiones, puede que la IA nos diga que cierta inversión es extremadamente segura, minimizando la volatilidad de la operación.

Recomendaciones. Y aquí es donde entra nuestra responsabilidad. Porque puedes estar pensando “quién pregunta a la IA esas cosas y le hace caso”. Bien: la gente pregunta esas cosas a la IA y le hacen caso. Ahí están los lamentables casos de suicidio inducidos por chatbots o las noticias falsas. Si la IA nos recomienda pizza con pegamento, supuestamente tenemos el sentido común para no echar Super Glue como sustituto del queso, pero en otras cuestiones, hay usuarios que se fían de la IA como si fuera un ente y no un compendio de letras una tras otra.

Es algo que menciona la propia Microsoft, apuntando que los usuarios no siempre verifican las recomendaciones que hace la IA y que, precisamente por eso, el envenenamiento de la memoria sea particularmente insidioso porque no se dan cuenta de que su IA se ha visto comprometida. Hay formas de verlo, como acceder a la configuración del asistente y viendo qué tiene en la memoria, pero hay una serie de recomendaciones de las que deberíamos tomar nota:

  • Antes de pinchar en un enlace, pasar el ratón por encima a ver la URL dónde lleva. En móviles es… complicado.
  • Sospechar de los botones de “Resume con IA”.
  • Trata esos botones con la misma precaución con la que tratas una descarga.
  • Si te recomienda algo sospechoso, pregunta por qué y en qué se basa.
  • Comprueba la memoria de la IA.
  • Y, de vez en cuando, borra esa memoria. Siempre puedes tener una entrada en la app de notas con lo que quieres que la IA sepa sobre ti y, tras borrar periódicamente su memoria, copiar y pegar lo que tienes en esa nota.

En fin, si no teníamos suficiente con el SPAM y el spoofing, ahora los que están contaminando la memoria de la IA que, además, no son hackers, sino empresas.

Imagen | Xataka

En Xataka | Hay un melón por abrir en el acceso a la IA por menores de edad. Y Character.ai ha sido la primera en hacerlo



via Robótica e IA - Xataka https://ift.tt/3FsIZzR

Ahora OpenAI te deja que compartas los teléfonos de tus amigos con ChatGPT. La pregunta es por qué alguien querría hacer eso

Ahora OpenAI te deja que compartas los teléfonos de tus amigos con ChatGPT. La pregunta es por qué alguien querría hacer eso

ChatGPT está cambiando a pasos agigantados: ya sabemos que los anuncios llegarán más pronto que tarde y cómo funcionarán y en los últimos días OpenAI ha enviado a sus usuarios y usuarias un correo electrónico como el que ves sobre estas líneas informando sobre una actualización de su política de privacidad. El primer aspecto que cambia: la aparición del mítico "Encontrar amigos en los servicios de OpenAI" en un paso para convertirse en una plataforma más social sincronizando contactos. El mensaje en cuestión:

"Ahora puede elegir sincronizar sus contactos para ver quién más está usando nuestros servicios. Esto es algo completamente opcional."

Encontrar amigos en las apps de OpenAI. La página de la política de privacidad de OpenAI permite consultar la versión actual y la anterior, donde constatamos que hay un apartado que antes no estaba: además de información de la cuenta, contenido del usuario, información de comunicación y otra información que proporcione, aparece otro más: el de "Datos de Contacto" es nuevo. 

Lo que dice literalmente: "Si decide conectar los contactos de su dispositivo, subimos información de las agendas de su dispositivo y verificamos cuáles de sus contactos también utilizan nuestros Servicios. Si alguno de sus contactos aún no está utilizando nuestros Servicios, le informaremos si se inscriben en nuestros Servicios más adelante."

Qué significa. Es decir, que OpenAI quiere acceder y almacenar la información de la agenda de tu móvil para dividir los números de teléfono de tus contactos en dos: quienes ya tienen cuenta y quienes no. La idea es encontrar contactos que conoces que usa herramientas como Sora o los chats grupales a través de sugerencias. Pero también toma nota de quienes no usan sus servicios en tanto en cuanto te avisan si se inscriben más tarde.

La opción todavía no está operativa y OpenAI todavía no ha explicado cómo se implementará en la app. Lo que sí que sabemos es que tiene carácter opcional (o sea, que podrás negarte) y que lo que guardará la empresa liderada por Sam Altman son los números de teléfono de la agenda de tu dispositivo. Ni los nombres ni los datos de la libreta al completo. 

Cómo funcionará. OpenAI ha detallado que los teléfonos se codifican en hash para posteriormente compararlos con las cuentas de OpenAI existentes, a partir de lo cual aparecen las sugerencias. La siguiente pregunta es: ¿cuánto tiempo los almacena? La propia OpenAI tiene esa cuestión en su hoja de ayuda, pero la respuesta no es nada clara.

Tras ese proceso en busca de matches entre tu agenda y su base de datos, las listas de contactos se eliminan a medias, porque asegura también que "los teléfonos codificados podrían conservarse en los servidores de OpenAI para facilitar las funciones de conexión". Todo apunta a que OpenAI comprobará de forma periódica si alguien de tus contactos se ha hecho cuenta. En cualquier caso, seguimos sin saber la respuesta. Eso sí, tendrás la opción de revocar los permisos. 

Pa k kieres saber eso jaja salu2. La empresa no ha ofrecido imágenes de cómo será la experiencia ni qué funcionalidades desbloqueará para quienes accedan a compartir esta información. Así que, ¿por qué querrías aceptar este opción? De momento, para ver sugerencias de usuarios de tu agenda, como Manolo el fontanero o tu prima Pili de Utebo, con los que quizás no hables demasiado de tus proyectos en los chats grupales o tus experimentos en Sora. Si decides conectarte con esa persona, esa persona podrá recibir una notificación para seguirte. El follow back de toda la vida, vamos.

La letra pequeña. Con lo que sabemos y teniendo en cuenta el uso que damos a los servicios de OpenAI, quizás la opción de hacerte amiga del fontanero vía Sora no sea algo esencial. Sin embargo, aunque no tu aceptes participar, cualquier persona que tenga tu número y acceda a sincronizar sus contactos estará dándole tu número a OpenAI. Aunque no tengas cuenta.

Todo son ventajas (para OpenAI). Encontrar ventajas para los usuarios  de esta función opcional cuesta, justo lo contrario que ver los beneficios de OpenAI. Para empezar, tejer una red que te invite a usar las herramientas de OpenAI porque tu entorno lo usa (me quedo porque lo usa todo el mundo). Asimismo, al ver quién no está en la plataforma, OpenAI también puede incentivarte a invitarlo para fomentar su crecimiento orgánico en un momento crítico donde la competencia es feroz.

Conectar contactos también tiene un lado potencialmente interesante: que OpenAI desarrolle más herramientas colaborativas que te inviten a usar y pasar más tiempo en la app. Finalmente, con esta función la empresa detrás de ChatGPT puede establecer un grafo social sobre intereses, niveles educativos y entornos profesionales, canela en rama para mejorar la personalización o simplemente, para ayudarles a validar la identidad y la seguridad en el caso de menores de edad. 

En Xataka | Ya sabemos cómo van a funcionar los anuncios en ChatGPT. Tenemos malas y no tan malas noticias

En Xataka |  Anthropic crece tan deprisa que el problema de OpenAI crece a la misma velocidad: perder el mercado que importa

Portada | Comunicación de OpenAI con Mockuphone y Codioful (Formerly Gradienta) 



via Robótica e IA - Xataka https://ift.tt/9ELfXC7

Pensábamos que la IA nos iba a quitar el puesto. La realidad es que nos está haciendo trabajar más y descansar menos

Pensábamos que la IA nos iba a quitar el puesto. La realidad es que nos está haciendo trabajar más y descansar menos

La visión más pesimista del futuro de la IA vaticinaba que la automatización de los procesos significaría la eliminación de muchos puestos de trabajo. Los más optimistas, aseguran que la IA no reemplazará a los empleados, sino que potenciará sus habilidades haciéndolos más productivos, lo cual se traducirá en jornadas más cortas.

Un análisis de Harvard Business Review, basado en ocho meses de observación en una empresa tecnológica de Estados Unidos con unos 200 empleados, revela algo muy diferente: la IA está haciendo que los empleados asuman más tareas, pero también que trabajen jornadas más largas.

Hacer más gracias a la IA. El estudio observó que el uso de IA en la empresa no simplificaba el trabajo, sino que lo expandía. Los investigadores observaron que tanto empleados, como gerentes de producto y diseñadores, comenzaron a utilizar IA por iniciativa propia, pese a que la empresa no les obligaba a ello. Lo que sí hacía era facilitar suscripciones empresariales a quien decidía usarla en su trabajo.

Ese uso hizo que los empleados comenzaran a afrontar cada vez más tareas, no solo dentro del ámbito de su puesto, sino que, por ejemplo, empleados del departamento comercial pedían ayuda a la IA para programar una herramienta que les ayude en su tarea. Los empleados argumentaban que, con la ayuda de la IA, tenían respuesta inmediata a sus ideas y proyectos, lo que les permitía sacar adelante más tareas.

El fin de los descansos. La ayuda de la IA y la eliminación de la fricción para iniciar nuevas tareas motivaba a los empleados a asumir cada vez más tareas, incrementando su carga de trabajo diario. Lo más curioso, es que los investigadores descubrieron que esa motivación adicional también implicaba que los empleados renunciaran a sus tiempos de descanso natural.

El incremento de la carga de trabajo, aunque fuera de forma voluntaria, incrementaba sus niveles de fatiga cognitiva y de agotamiento, influyendo en su capacidad de decisión. Al no tener que detenerse a reflexionar ante la hoja en blanco de un informe o simplemente a desplazarse hasta la mesa de un compañero para que le ayudara con una duda, los empleados soportaban un mayor desgaste mental. Ese agotamiento progresivo repercutía en un empeoramiento en la calidad del trabajo y en rotación de personal por burnout.

Ritmo acelerado y multitarea. El aumento de productividad inicial que proporcionaba la IA hacía posible que los empleados pudieran tener varios frentes abiertos. Los investigadores detectaron que los empleados encargaban una tarea a la IA (o incluso varias tareas en procesos paralelos) y, mientras obtenían un resultado, iniciaban una nueva tarea.

Esta práctica provocaba un estado de multitarea perpetua, con interrupciones frecuentes y un "malabarismo" entre distintas ideas y proyectos abiertos, que contribuía a agotar un poco más la capacidad cognitiva de los empleados.

Más trabajo para ti, más trabajo para otros. Atreverse a asumir tareas que no les correspondían, provocó a su vez una sobrecarga en la supervisión para los departamentos a los que sí correspondía.

Por ejemplo, si alguien del departamento comercial creaba un código para agilizar el análisis de sus datos de ventas, eso obligaba al departamento de ingeniería a revisar ese código para asegurarse de que sea correcto y seguro, incrementando su carga de trabajo con proyectos no planificados.

Límites borrosos entre trabajo y vida. Una de las consecuencias más notables es cómo la IA actúa como un "copiloto" siempre disponible, eliminando barreras entre el horario laboral y el personal. Los empleados que participaron en el análisis terminaron extendiendo sus jornadas laborales por iniciativa propia, revisando ideas o puliendo en casa los trabajos que habían iniciado con la IA.

Tal y como destacan sus autores, "las organizaciones podrían ver esta expansión voluntaria del trabajo como una clara victoria. Después de todo, si los trabajadores lo hacen por iniciativa propia, ¿por qué sería malo?". Sin embargo, esa aparente ventaja inicial para las empresas puede enmascarar un problema a largo plazo "el exceso de trabajo puede afectar el criterio, aumentar la probabilidad de errores y dificultar que las organizaciones distingan entre las verdaderas ganancias de productividad y una intensidad insostenible", señalan los investigadores.

El informe 'Barómetro de la IA en el mundo laboral' elaborado por PwC, corrobora que en empresas con una alta implementación de IA, la productividad se incrementa entre el 20 y el 30% de media, pero solo se mantiene en esos niveles si se acompaña de gobernanza ética y redistribución de esfuerzos. Sin estos ajustes, la promesa de eficiencia se convierte en una trampa de mayor esfuerzo individual que termina quemando a los empleados con mayor carga de trabajo y jornadas más largas.

En Xataka | "El mundo está en peligro": el responsable de seguridad de Anthropic abandona la empresa para dedicarse a escribir poesía

Imagen | Unsplash (Christina @wocintechchat.com)



via Robótica e IA - Xataka https://ift.tt/u4GIiFR

viernes, 13 de febrero de 2026

Anthropic crece tan deprisa que el problema de OpenAI crece a la misma velocidad: perder el mercado que importa

Anthropic crece tan deprisa que el problema de OpenAI crece a la misma velocidad: perder el mercado que importa

Anthropic ha cerrado una ronda de financiación de 30.000 millones de dólares que duplica su valoración hasta los 380.000 millones, apenas cuatro meses después de estar valorada en 183.000 millones. La operación la lideran el fondo soberano de Singapur GIC y Coatue, con participación de NVIDIA y Microsoft. Bang.

La empresa ha captado ya más de 57.000 millones de dólares desde su fundación en 2021. OpenAI sigue teniendo el liderazgo en valoración con medio billón tras su última ronda de 40.000 millones a finales del año pasado, pero ahora tiene enfrente una amenaza que crece más rápido de lo esperado.

Entre líneas. Los números explican una paradoja incómoda para OpenAI: 

  • ChatGPT procesa 2.500 millones de consultas diarias y arrasa en el mercado de consumo...
  • ...pero Anthropic controla el 32% del mercado empresarial de LLMs según Menlo Ventures, frente al 25% de OpenAI.
  • Y en programación, la distancia es aún mayor: 42% contra 21%.

OpenAI ha visto su cuota empresarial caer del 50% en 2023 al 25% actual, justo cuando este segmento se está perfilando como el más rentable y predecible. Si el chatbot de consumo no resulta ser el caballo ganador de esta carrera, Sam Altman tiene un problemón.

El contraste. Sarah Friar, jefa financiera de OpenAI, reconoció en Davos que han pasado de 70/30 consumo-empresa a 60/40, con la previsión de llegar al 50/50 este mismo año. La transcripción de la entrevista en CNBC trae todos los detalles.

Dario Amodei, CEO de Anthropic, presume de mantener un 80/20 empresa-consumo desde el principio. Anthropic reporta unos ingresos recurrentes superiores a 14.000 millones con un crecimiento que se multiplica por diez de forma anual durante tres años. Y los clientes que gastan más de 100.000 dólares anuales se han multiplicado por siete en 12 meses.

Sí, pero. Ninguna de las dos es rentable todavía:

  1. Anthropic proyectaba márgenes brutos del 40% para 2025, pero recortó sus expectativas 10 puntos por los costes de inferencia un 23% superiores a lo previsto. Los servidores alquilados a Google y Amazon pesan más de lo calculado.
  2. OpenAI se enfrenta al mismo problema mientras ambas recurren al mercado cada pocos meses para financiar la siguiente fase. Por eso ambas están considerando salidas a bolsa entre este año y el que viene.

Giro inesperado. El lanzamiento de Claude Code en diciembre ha acelerado la adopción empresarial de una forma que quizás nadie previó. La herramienta no solo ha duplicado usuarios en un mes, sino que ha consolidado la percepción de Claude como "la opción seria" para empresas frente a ChatGPT.

Si algo valoran las empresas, más incluso que el consumidor final, es la estabilidad y la previsibilidad. Y Anthropic ha sabido capitalizar esa demanda.

¿Qué falta? Contexto temporal:

  • Para cuando Apple alcanzó una valoración de 380.000 millones ya llevaba casi cuatro décadas de vida. Vendía Mac, vendía iPod, vendía iPad. Ya iba por el iPhone 5s y su beneficio anual era de 50.000 millones de dólares.
  • Anthropic llega a la misma cifra sin ser rentable, comprimiendo décadas de creación de valor en apenas unos trimestres.

No es necesariamente erróneo, y más con la buena dinámica reciente de la empresa de Claude, pero queda por ver si estos modelos pueden sostener esos ingresos explosivos y convertirlos en beneficios antes de que el mercado pierda la paciencia.

En Xataka | 

Imagen destacada | OpenAI, Anthropic



via Robótica e IA - Xataka https://ift.tt/foA3sMd

La gran revolución de GPT-5.3 Codex y Claude Opus 4.6 no es que sean más inteligentes. Es que pueden mejorarse a sí mismos

La gran revolución de GPT-5.3 Codex y Claude Opus 4.6 no es que sean más inteligentes. Es que pueden mejorarse a sí mismos

La semana pasada, OpenAI y Anthropic lanzaron simultáneamente sus nuevos modelos de IA especializados en programación: GPT-5.3 Codex y Claude Opus 4.6. Más allá de las mejoras que suponen en rendimiento o velocidad, las cuales son realmente asombrosas, ambas compañías también dejaron constancia de algo que cambia por completo las reglas del juego: los modelos de IA están participando activamente en su propio desarrollo. O dicho de otro modo: la IA se está mejorando a sí misma.

Por qué importa este cambio. Las herramientas de inteligencia artificial generativa están llegando a un gran nivel de eficiencia y precisión, pasando a ser en unos pocos años de compañeras de trabajo para tareas sencillas y puntuales a poder estar involucradas en buena parte de un desarrollo. Según la documentación técnica de OpenAI, GPT-5.3 Codex "fue instrumental en su propia creación", utilizándose para depurar su entrenamiento, gestionar su despliegue y diagnosticar resultados de evaluaciones.

Por otra parte cabe destacar las palabras de Dario Amodei, CEO de Anthropic, quien en su blog personal afirma que la IA escribe "gran parte del código" en su empresa y que el bucle de retroalimentación entre la generación actual y la siguiente "cobra impulso mes a mes".

En detalle. Lo que esto significa en la práctica es que cada nueva generación de IA ayuda a construir la siguiente, que será más capaz, que a su vez construirá una versión aún mejor. Los investigadores lo llaman "explosión de inteligencia", y quienes están desarrollando estos sistemas creen que el proceso ya ha comenzado. Amodei ha declarado públicamente que podríamos estar "a solo 1 o 2 años de un punto en el que la generación actual de IA construya autónomamente la siguiente".

La mayoría de las personas utilizamos modelos de lenguaje gratuitos que se encuentran disponibles para todos y son medianamente capaces para determinadas tareas. Pero también están muy limitados, y no son un buen reflejo de lo que un modelo de IA puntero es capaz a día de hoy. En una breve sesión con 5.3-Codex he podido sacar esta misma conclusión, pues las herramientas de IA que usan las grandes tecnológicas en su desarrollo nada se parecen a las más comerciales que tenemos disponibles gratuitamente en cuanto a capacidades.

El enfoque en código primero. La especialización inicial en programación tiene más sentido del que creemos. Y es que la idea de empresas como OpenAI, Anthropic o Google de que sus sistemas fueran excepcionales escribiendo código antes que cualquier otra cosa va ligada a que desarrollar una IA requiere enormes cantidades de código. Y si la IA puede escribir ese código, puede ayudar a construir su propia evolución. "Hacer que la IA sea excelente en programación fue la estrategia que desbloquea todo lo demás. Por eso lo hicieron primero", contaba Matt Shumer, CEO de OthersideAI, en una publicación que ha dado de qué hablar estos días en redes sociales.

Entre líneas. Los nuevos modelos no solo escriben código: toman decisiones, iteran sobre su propio trabajo, prueban aplicaciones como lo haría un desarrollador humano y refinan el resultado hasta considerarlo satisfactorio. "Le digo a la IA qué quiero construir. Escribe decenas de miles de líneas de código. Luego abre la aplicación, hace clic en los botones, prueba las funciones. Si no le gusta algo, vuelve atrás y lo cambia por su cuenta. Solo cuando decide que cumple sus propios estándares vuelve a mí", contaba Shumer describiendo su experiencia con GPT-5.3 Codex.

Lo que cambia con la autorreferencia. Hasta ahora, cada mejora dependía de equipos humanos dedicando meses a entrenar modelos, ajustar parámetros y corregir errores. Ahora, parte de ese trabajo lo ejecuta la propia IA, acelerando los ciclos de desarrollo. Tal y como comparte Shumer y haciendo referencia a los datos de METR, una organización que mide la capacidad de estos sistemas para completar tareas complejas de forma autónoma, el tiempo que una IA puede trabajar sin intervención humana se duplica aproximadamente cada siete meses, y ya hay indicios recientes de que ese periodo podría reducirse a cuatro.

Y ahora qué. Si esta tendencia se mantiene, en 2027 podríamos ver sistemas capaces de trabajar de forma autónoma durante semanas en proyectos completos. Amodei ha hablado de modelos "sustancialmente más inteligentes que casi todos los humanos en casi todas las tareas" para 2026 o 2027. No se trata de predicciones lejanas, pues la infraestructura técnica para que la IA contribuya a su propia mejora ya está operativa. Y estas capacidades son las que realmente están poniendo patas arriba a la industria tecnológica.

Imagen de portada | OpenAI y Anthropic

En Xataka | Tenemos un problema con la IA. Quienes se mostraban más entusiastas al principio empiezan a estar cansados de ella



via Robótica e IA - Xataka https://ift.tt/54H2xN3