miércoles, 25 de febrero de 2026

EEUU tiene un mensaje para las empresas de IA: en caso de necesidad, esa IA es del Estado

EEUU tiene un mensaje para las empresas de IA: en caso de necesidad, esa IA es del Estado

El Pentágono soltó la bomba hace unas horas. Anthropic tiene hasta este viernes a las 17:01 para aceptar que sus modelos de IA se usen para lo que el Pentágono considere oportuno. Es algo que está poniendo patas arriba la conversación sobre el uso ético de la IA, pero más importante que eso, pone sobre la mesa una intención muy clara por parte de Estados Unidos: la de que si consideran que hay que usar todos los recursos en cuestión de defensa nacional, todos los recursos pertenecen al Estado. 

Y ahí entra la inteligencia artificial de empresas privadas.

En corto. Dario Amodei es el CEO de Anthropic. Puede que te suene más el nombre de Claude, uno de sus modelos. Éstos son muy versátiles, pero tienen una línea roja muy clara: no pueden usarse para vigilancia masiva de ciudadanos estadounidenses (ojo con el matiz). Tampoco para el desarrollo de armas o el uso de armamento autónomo controlado totalmente por IA. Y esto es algo que choca con lo que quiere el Pentágono: usar sin restricciones los modelos de Anthropic.

¿Por qué los de Anthropic, te preguntarás? Pues porque esta empresa ofreció su herramienta al Gobierno por el precio simbólico de un dólar, lo que les valió un contrato de 200.000.000 dólares. No les salió mal la jugada, y poco a poco sus modelos se fueron integrando con los de Palantir. Ahora, EEUU quiere disponer de una IA ‘desatada’, pero como explica mi compañero Javier Lacort, las leyes y ética de las FFAA de Estados Unidos se cimentan sobre que un soldado puede y debe desobedecer una orden manifiestamente ilegal.

Una IA puede hacer lo que quieran que haga.

Una palanca de 1950. Un contrato de 200 millones de dólares es jugoso, pero viendo las barrabasada que se invierten en IA continuamente, es calderilla. Anthropic lo tendría tan fácil como negarse y despejar el terreno para que otro ocupe su lugar en el Pentágono, ¿verdad? Pues… no es tan sencillo. Y no lo es por dos motivos.

El primero es que ya está muy integrada en todos los sistemas, procesos y servicios que el Departamento de Defensa utiliza de forma cotidiana. Es un barco demasiado grande como para que cambie el rumbo. "Conoce" demasiado de los interiores de esos sistemas que deben ser altamente secretos. Pero lo más importante es que Estados Unidos tiene una palanca para adueñarse de lo que se le antoje. Lo único que debe argumentar es que sea por una necesidad de seguridad nacional.

En 1950, durante la Guerra de Corea, nació la Defense Production Act, una ley que otorga al presidente poderes para asegurar suministros necesarios para la defensa nacional. Esto, por ejemplo, da poder al Gobierno para exigir a las empresas que prioricen contratos con el Estado para asignar materiales, servicios e instalaciones. También permitir ayudas para ampliar la capacidad productiva y, en definitiva, poner a las mayores empresas del país a funcionar en función de lo que se necesite.

Demasiado poderosa para ser privada. Este documento se ha ido expandiendo y ampliando con el tiempo, pues las necesidades de 1950 no son las mismas que las de décadas posteriores, y en 2023 se firmó la Orden Ejecutiva 14.110. Es una que obliga a los propietarios de los modelos de IA más potentes a notificar al Gobierno cuando entrenen sistemas que puedan suponer un riesgo para la seguridad nacional, la economía o la salud pública. Tras él, se han ido firmando otros borradores ampliando las exigencias sobre la IA, pero lo cierto es que el Pentágono no necesita publicar nada nuevo para presionar a Anthropic.

Según el Título I (el de ordenar que ciertos productos o servicios se suministren al Gobierno), el Pentágono podría hacerse con la IA de Anthropic para que cumpla sus designios. El respaldo es el que ya hemos comentado: esa “defensa nacional”. Y, en la práctica, se define que, si la empresa no quiere que su IA haga ciertas cosas por esa especie de código moral, si pasa a ser propiedad del Pentágono, se puede eliminar la barrera ética.

Castigo disciplinario a la “IA woke”. Y, ahora, la gran pregunta. ¿Puede Anthropic decir algo como “mira, te quedas los 200 millones y cada uno por su lado”? Pues… no. O no de una forma tan sencilla. Ya he comentado que Claude está demasiado dentro de los sistemas del Pentágono (hasta el punto de que fue utilizado en la operación para capturar a Nicolás Maduro) y “sabe” demasiado. Está muy integrada en los sistemas clasificados del Pentágono, y como podemos adivinar, no la iban a dejar ir tan fácilmente.

Y ahí entra la figura de Pete Hegseth. Es el Secretario de Defensa, y ha calificado esa vara moral de Anthropic como la de una “IA woke”. Sí… Porque Google, OpenAI y xAI permiten que el Gobierno use sus modelos en cualquier escenario “legal” (para el Gobierno, claro), pero no Anthropic, y además de la palanca de la Defense Production Act, Estados Unidos puede castigar duramente a la empresa.

Si no se “rinden” a sus peticiones, podrían identificar Anthropic como una empresa que ponga en riesgo la cadena de suministro del país. Sería como el veto a Huawei de hace unos años, pero a una empresa nacional. En la práctica, las empresas de EEUU no podrían trabajar con Anthropic. Es decir, el país tiene un par de buenos “argumentos” para que Anthropic entregue esa vara moral.

Aprendizaje. No falta tanto para las 17:01 del viernes 27 de febrero, momento en el que sabremos si Anthropic accede por las buenas o por las malas a las “peticiones” del Pentágono. Lo que queda claro es que esto es una lección. No tanto para las empresas estadounidenses que, al final, operan bajo ese paraguas de la Defense Production Act, sino de las del resto del mundo. Concretamente, de las europeas. Y estoy pensando en la carrera espacial.

Europa, al igual que China, Rusia y la propia Estados Unidos, se ha embarcado en la nueva carrera espacial. Van a otro ritmo porque, hasta no hace tanto, tenían a Estados Unidos como ese socio y aliado que siempre estaría ahí. Los aranceles y la guerra de Ucrania, entre otras cosas, han quebrado esa confianza y Europa se ha dado cuenta de que tiene que ponerse las pilas en muchos frentes.

Y una de ellas es en quién confía. Por ejemplo, SpaceX se ha convertido en un socio en comunicación satelital y envíos al espacio, pero SpaceX ya no es sólo una empresa de cohetes: es una empresa que posee xAI. Y, como comenté, xAI tiene vínculos con el Departamento de Defensa de EEUU. Pero además SpaceX es X -Twitter-, una base de datos tremenda de ciudadanos europeos. Y ahí está la otra lectura: países extranjeros no pueden depender en sistemas críticos de proveedores que operen bajo el paraguas estadounidense… y la Defense Production Act.

En Xataka | "Son investigadores brillantes bajo control de un gobierno autoritario". El CEO de Anthropic se ha pronunciado sobre DeepSeek



via Robótica e IA - Xataka https://ift.tt/Jatph5z

Cada vez más españoles usan IA en su trabajo a diario. También temen perder su trabajo por ello

Cada vez más españoles usan IA en su trabajo a diario. También temen perder su trabajo por ello

La inteligencia artificial ha dejado de ser una promesa tecnológica para convertirse en algo que cada vez más trabajadores españoles ya tienen instalado en su rutina diaria. No hace mucho, hablar de IA en el trabajo sonaba a ciencia ficción y, en muchas ocasiones, incluso estaba visto como una trampa en el trabajo. Hoy, los datos cuentan una historia muy diferente y la adopción no solo crece, sino que lo hace a una velocidad que sorprende incluso a los propios analistas.

Un informe de la plataforma InfoJobs destaca que en el último año no solo ha crecido el porcentaje de empleados que usan la IA en su trabajo, sino que cada vez las entiende mejor.

Cada vez se usa más en el trabajo. Según el IV Informe sobre Inteligencia Artificial de InfoJobs, el 63% de los profesionales en España utiliza habitualmente herramientas de IA en 2026. Este dato supone un incremento frente al 52% que se registraba en el informe de 2025 y el 50% en 2024.

Dentro de este incremento de presencia de la IA en el ámbito laboral, el informe destaca que el uso de la IA de forma espontánea se sitúa en el 51%, 17 puntos más que en 2025. Los datos apuntan a que la diferencia entre el uso total de la IA y el declarado se ha reducido de 18 a 12 puntos. Es decir, que los trabajadores no solo usan más la IA, sino que también identifican mejor qué tecnología tienen entre manos qué pueden hacer con ella.

Grafico 1 Grafico 1

Tienen una IA y saben usarla. En 2025, el 48% de los profesionales decía no conocer o no saber usar herramientas de IA. En 2026, ese porcentaje ha caído al 28%, una reducción de 20 puntos en solo un año. En este sentido, la brecha generacional se hace más visible. Entre los menores de 35 años, el uso declarado de IA alcanza el 63%, frente al 47% entre quienes superan esa edad.

Mónica Pérez, directora de Comunicación y Estudios de InfoJobs, lo resume así: "La inteligencia artificial ha pasado de ser una tecnología emergente a integrarse progresivamente en los procesos de trabajo habituales. Más allá del incremento en su utilización, los datos reflejan una mayor identificación y conciencia de uso de esta herramienta por parte de los profesionales, lo que apunta a una adopción cada vez más consolidada en el entorno laboral y a un cambio de paradigma".

ChatGPT lidera, la traducción automática baja. Entre las herramientas de IA más usadas en las empresas españolas destacan los chatbots tipo ChatGPT, que han pasado del 37% en 2024 al 52% en 2026 y ya encabezan el ranking de las más usadas. No pasa inadvertida la integración de la IA en las herramientas de diseño y como asistente de programación con un importante incremento de uso en el ámbito laboral, situándose en el 17% y 16% respectivamente.

Por su parte, la traducción automática, uno de los principales usos de la IA en el trabajo en 2025, baja del 58% al 51%. El porcentaje de usuarios que afirma no usar ninguna herramienta concreta en su trabajo se ha reducido pasando del 7% al 4%. Todo esto encaja con lo que ocurre a nivel global que, al eliminar las fricciones en el trabajo, los empleados tienden a asumir más tareas, generando más fatiga y carga de trabajo si no se gestiona bien.

El miedo al despido crece. Tener un mayor conocimiento del potencial de las herramientas de IA y saber de qué son capaces también incrementa la incertidumbre sobre su futuro laboral. El 39% de los entrevistados para el informe de InfoJobs cree que la IA provocará algunos despidos puntuales, aunque sin sustituir al trabajo especializado, porcentaje superior al 30% de 2025.

El 23% vaticina una sustitución más generalizada, mientras que el mismo porcentaje considera que la fuerza laboral no es fácilmente reemplazable solo con la IA. Esta perspectiva varía según la exposición de su puesto a la IA. Entre quienes ya usan IA habitualmente en su puesto de trabajo, el 46% ve probable el escenario de despidos puntuales, frente al 26% de quienes no la usan.

La brecha de la IA entre empresas. Según el estudio 'Digitalización de la empresa española' elaborado por el sindicato UGT con datos del INE, el 21,1% de las empresas de más de 10 trabajadores usó IA en 2025, lo que representa un considerable incremento con respecto al año anterior en el que se registraba el 9,55%. Entre las grandes empresas con más de 250 empleados, el porcentaje asciende al 58,2%, un incremento de 13 puntos interanuales.

Los datos del informe indican que España supera en integración de la IA la media de la OCDE y de la UE con el 20,3% de empresas que usan IA habitualmente. No obstante, España todavía sigue muy lejos de la implementación de esta tecnología en Dinamarca (42%), Finlandia (38%) o Suecia (35%).

Pese a incremento generalizado del uso de la IA, hay un dato que indica que ese avance no se está trasladando al talento interno ya que el porcentaje de especialistas TIC en las empresas se ha reducido del 16,44% al 15,67%, dato que UGT califica de "inesperado e inquietante".

En Xataka | El mayor temor era que la IA nos quitara el trabajo. La realidad es que está reemplazando a quienes están aprendiendo a trabajar

Imagen | Unsplash (Anastassia Anufrieva)



via Robótica e IA - Xataka https://ift.tt/FkDKLmt

No es que la IA nos haga tontos: es que nos estamos rindiendo a ella

No es que la IA nos haga tontos: es que nos estamos rindiendo a ella

A medida que la inteligencia artificial se va integrando en nuestras vidas, hay una pregunta que va adquiriendo más relevancia.  ¿Está la IA volviéndonos tontos? Quizás tontos no sea la palabra adecuada, sino más bien vagos, o al menos es la dirección en la que apunta un reciente estudio de la Universidad de Pensilvania.

Rendición cognitiva. Es como han llamado al fenómeno que surge cuando usamos la IA "con un escrutinio mínimo, anulando la intuición y la deliberación".  Los investigadores realizaron tres experimentos en los que los participantes debían responder tests de reflexión cognitiva, en los que la respuesta intuitiva tiende a ser errónea y la deliberada es correcta (preguntas trampa, vaya). Un grupo sólo podía usar su cerebro y el otro tenía acceso a ChatGPT, aunque estaba manipulado para que la mitad de las veces fallara a propósito.

El resultado fue que, cuando la IA daba una respuesta incorrecta, las personas la copiaban el 80% de las veces. Y lo que es peor: la seguridad de los participantes que tenían acceso a la IA era superior a pesar de estar acumulando respuestas incorrectas. Dicho de otro modo, los participantes hicieron suya la gran seguridad con la que la IA formulaba sus respuestas y dejaron de comprobar si eran correctas. 

Un nuevo sistema . El estudio toma como punto de partida la teoría del sistema 1 y sistema 2 de Daniel Kahneman, en la que el sistema 1 es el pensamiento rápido o intuición y el sistema 2 es el pensamiento lento o deliberación. El problema de esta teoría, especialmente en el momento actual, es que ignora el hecho de que cada vez más estamos delegando el proceso cognitivo a la IA generativa. Por tanto, los investigadores proponen añadir un tercer sistema, al que han llamado "cognición artificial" y que hace referencia al pensamiento o razonamiento que ocurre fuera de nuestra mente, es decir, en la IA.

Captura De Pantalla 2026 02 24 154817 Captura De Pantalla 2026 02 24 154817 Los tres sistemas de cognición, según el estudio de la Universidad de Pensilvania

Rendirnos o delegar. El estudio hace una distinción entre la rendición cognitiva y la descarga cognitiva, es decir, no es lo mismo aceptar sin más lo que nos dice la IA, que usarla como una herramienta de ayuda. Lo primero sería usar el sistema 3 con un poco del sistema 1 (intuición), mientras que su uso como herramienta también implica el uso del sistema 2 (deliberación o razonamiento). Usar la IA para delegar ciertas tareas es comparable a usar una calculadora o buscar algo en Google. En el experimento, un 73% aceptó las respuestas equivocadas (se rindió) y  un 17% la corrigió (delegó en ella, pero sin aceptar a ciegas lo que decía). 

Los investigadores advierten que la rendición cognitiva puede erosionar el pensamiento crítico y hacer que perdamos la costumbre de desconfiar y comprobar las cosas por nosotros mismos.

La deuda cognitiva. En junio de 2025 se viralizó un estudio del MIT llamado "Tu cerebro en ChatGPT: acumulación de deuda cognitiva al utilizar un asistente de IA al escribir un ensayo". En el experimento, monitorizaron a los participantes mediante encefalografía mientras realizaban la tarea. Los resultados fueron que el grupo que usó ChatGPT dio los peores resultados de actividad cerebral y se fue haciendo más perezoso conforme avanzaba la prueba. 

La IA no nos hace tontos. A lo largo de los años han surgido muchos estudios que buscaban comprobar si la tecnología está mermando nuestras capacidades, pero también hay otros que apuntan a todo lo contrario. Volviendo al estudio del MIT, tiene sentido que haya menos actividad cerebral si estamos usando una herramienta de apoyo (y además una tan potente como la IA). También habrá menos actividad si usamos una calculadora que si hacemos las operaciones a mano, pero no significa necesariamente que seamos peores en matemáticas. Eso sí, si necesitamos la calculadora para sumar 2+2, ahí  tenemos un problema. 

La clave no está en si usar la IA nos hace tontos, sino en cómo la usamos, si nos rendimos a ella o si delegamos en ella.

Imagen | Andrea Piacquadio, Pexels

En Xataka | EEUU está obsesionada con alcanzar la Inteligencia Artificial General antes que China. A China no podría importarle menos



via Robótica e IA - Xataka https://ift.tt/XxDYROM

El derecho internacional fue escrito pensando en humanos que deciden. La IA acaba de romper esa cadena y nadie sabe quién responde ahora

El derecho internacional fue escrito pensando en humanos que deciden. La IA acaba de romper esa cadena y nadie sabe quién responde ahora

La amenaza de Pete Hegseth a Dario Amodei tiene un subtexto que va mucho más allá del contrato de 200 millones de dólares que el Pentágono puede cancelar: si el ejército de Estado Unidos despliega armas autónomas controladas por IA sin las salvaguardas que Anthropic exige, habrá eliminado el único cortafuegos que históricamente ha impedido que una orden ilegal se ejecute.

Por qué es importante. Todo el sistema legal y ético de las fuerzas armadas estadounidenses descansa sobre un principio que parece obvio pero que tiene consecuencias importantes: un soldado puede y debe desobedecer una orden manifiestamente ilegal.

Es el mecanismo que, en teoría, impide los crímenes de guerra. Un drone autónomo controlado por IA no tiene ese mecanismo. No puede negarse. No puede dudar. No puede ser juzgado en un consejo de guerra.

Entre líneas. Amodei habla de "armas autónomas que disparan sin intervención humana" para señalar un vacío jurídico. Si una IA toma la decisión de matar, ¿quién responde penalmente? ¿El programador? ¿El general que activó el sistema? ¿El presidente que firmó la orden?

El derecho internacional humanitario (Convenios de Ginebra incluidos) fue redactado pensando en seres humanos que toman decisiones. Y ahora la IA disuelve esa cadena de responsabilidad.

El telón de fondo. El argumento de la vigilancia masiva también es un trago amargo. La Cuarta Enmienda de la Constitución estadounidense protege a los ciudadanos de búsquedas e intervenciones sin orden judicial. Funciona, entre otras razones, porque el Estado nunca ha tenido la capacidad física de procesar todo lo que ocurre en el espacio público.

Y de la misma forma, con la IA ese límite operativo desaparece: pasamos a millones de conversaciones grabadas en tiempo real, transcritas, clasificadas y conectadas en apenas segundos. Lo que antes era imposible por falta de recursos humanos se vuelve rutinario con un LLM. La protección constitucional hasta ahora ha dependido, en parte, de la ineficiencia del Estado, de sus limitaciones.

Sí, pero. El Pentágono tiene un argumento que no es descartable: otras democracias también están desarrollando estas capacidades, y China o Rusia no van a esperar a que Estados Unidos resuelva sus dilemas éticos.

La pregunta práctica es si tener esas capacidades sin restricciones te hace más seguro o simplemente más peligroso para tus propios ciudadanos.

La gran pregunta. OpenAI y Google han aceptado las condiciones del Pentágono, "todos los usos legales" sin excepciones específicas, y xAI acaba de recibir autorización para operar en sistemas clasificados. Anthropic se ha quedado sola en su posición.

Y lo que está en juego ahora no es si Claude sobrevive como proveedor militar o no, es si la industria de la IA va a fijar algún límite a lo que vende al Estado, o si ese debate lo zanjará directamente el Congreso, los tribunales o, en el peor de los casos, el primer incidente grave que nadie haya podido prever. Parece cuestión de tiempo.

En Xataka | La IA ya es un campo de batalla: Anthropic acaba de acusar a DeepSeek y a otras empresas chinas de “destilar” Claude

Imagen destacada | Xataka



via Robótica e IA - Xataka https://ift.tt/hZbT1sc

Anthropic tiene líneas rojas para su IA. El Pentágono acaba de exigir que las borre todas

Anthropic tiene líneas rojas para su IA. El Pentágono acaba de exigir que las borre todas

El Pentágono acaba de darle a Anthropic hasta este viernes a las 17:01 para aceptar su uso sin restricciones de sus modelos de IA para todo tipo de aplicaciones, incluyendo las de espionaje y las militares. La empresa se ha negado hasta ahora, pero la administración Trump amenaza con invocar una norma de hace 75 años para "apropiarse" de la tecnología de IA de Anthropic.

Líneas rojas. El conflicto tiene su origen en las líneas rojas impuestas por las normas éticas de Anthropic. La empresa, liderada por Dario Amodei, se niega a que sus modelos se utilicen para vigilancia masiva de ciudadanos estadounidenses —no dice nada de otros— o en el desarrollo y uso de armas letales autónomas controladas totalmente por la IA. 

El Pentágono quiere usar la IA (casi) sin límites. Este tipo de salvaguardas chocan frontalmente con la postura del Pentágono, que exige que sus proveedores de tecnología abran el uso de sus soluciones software y hardware para cualquier propósito legal definido por los militares, sin vetos externos. Mientras la constitución y las leyes de EEUU lo permitan, una empresa privada no debería poder imponer límites al uso de su tecnología, indican en el Gobierno de EEUU.

Tensión tras el incidente Maduro. Las cosas empezaron a torcerse cuando se supo que el modelo Claude fue utilizado en una operación de las fuerzas especiales de EEUU en enero para capturar al expresidente venezolano, Nicolás Maduro. El incidente puso bajo la lupa la dependencia que el ejército tiene de Claude: actualmente Anthropic es la única empresa de IA que opera en los sistemas clasificados del Pentágono, lo que le otorga una posición de poder notable que ahora quiere ser quebrada por parte de el gobierno estadounidense.

Esto huele mal. La estrategia del Pentágono resulta inquietante desde el punto de vista legal. Hay tres grandes posibilidades de actuación: 

  1. Cancelar el contrato de Anthropic y comenzar a trabajar con otra (u otras) empresas de IA dispuestas a aceptar sus términos. Ayer supimos que xAI ya ha firmado un acuerdo para que el DoD pueda usar su modelo Grok, en sistemas clasificados. Google parece ser también una opción con la que están trabajando.
  2. Identificar a Anthropic como un riesgo para su cadena de suministro. Eso es muy peligroso, porque haría que un enorme número de empresas en EEUU no pudieran trabajar con Anthropic. Sería una especie de veto como el que EEUU impuso a Huawei, pero aplicado a una empresa nacional. El impacto para Anthropic y sus inversores (Amazon y Google entre ellos) sería catastrófico.
  3. Activar el Título 1 de la Defense Production Act de 1950, una ley especial teóricamente diseñada para el control de la economía durante guerras y emergencias. Se utilizó por ejemplo durante la pandemia de COVID-19 para impulsar la producción de suministros médicos y acelerar la producción de vacunas. Parece poco probable que puedan hacer algo así

Cómo empezó todo este embrollo. La administración Biden impulsó medidas y límites éticos para la restringir la aplicación de la IA, pero todo cambió con el mandato de Donald Trump. En junio de 2025 Anthropic lanzó Claude Gov, una serie especializada de modelos de IA específicamente diseñados para ser usados por parte de las agencias nacionales de EEUU en seguridad, defensa e inteligencia. 

IA con aplicaciones militares y de inteligencia. Estos modelos estaban preparados para operar con entornos con información clasificada. Anthropic los ofreció además por un precio simbólico de 1 dólar para asegurarse que el Gobierno los preferiría frente a los de otros competidores. Poco después el DoD le concedió a la empresa un contrato por valor de 200 millones de dólares, y desde entonces la empresa se ha ido integrando con los sistemas de Palantir que se usan en las agencias gubernamentales estadounidenses.

Dos posturas enfrentadas. Anthropic se postula por tanto como una defensora de ciertos límites para el uso de sus modelos de IA. El Departamento de Defensa (DoD) no está de acuerdo, y su argumento es que el uso militar de cualquier tecnología solo debe ceñirse a la Constitución o las leyes de EEUU. La empresa sostiene que busca apoyar la misión de seguridad nacional, pero solo dentro de lo que sus modelos pueden hacer de forma fiable y responsable. 

El dilema. Si el Pentágono cumple su amenaza, se sentará un precedente donde el Estado puede intervenir la propiedad intelectual de una empresa de software bajo el argumento de emergencia nacional. Esto obligaría a todas las Big Tech a decidir si están dispuestas a ceder el control total de sus desarrollos tecnológicos a los militares... o a arriesgarse a ser intervenidas por una ley de hace casi 80 años.

Imagen | Ben White | Anthropic

En Xataka | IBM lleva décadas viviendo de que nadie podía matar a COBOL. Anthropic tiene otros planes




via Robótica e IA - Xataka https://ift.tt/jJFMh3B

martes, 24 de febrero de 2026

Un relato de ciencia ficción económica ha hundido a Visa, Mastercard y American Express en bolsa. Y lo más inquietante es por qué

Un relato de ciencia ficción económica ha hundido a Visa, Mastercard y American Express en bolsa. Y lo más inquietante es por qué

Citrini Research, un hedge fund estadounidense ha publicado esta semana un texto escrito como si fuera un memorando macroeconómico de junio de 2028. No es una predicción, advierten sus autores. Es un ejercicio especulativo. Un escenario factible. Ha conseguido 24 millones de impresiones, y subiendo. No es un tuit anecdótico.

Los mercados han respondido hundiéndose. Visa ha caído un 4,4%. Mastercard, un 6,3%. American Express, casi un 8%. Y Capital One, un 8%.

Esto merece una explicación. Y no es la que parece.

Entre líneas. La reacción del mercado no se explica por el contenido concreto del informe de Citrini Research, que incluye argumentos tan discutibles como que los agentes de IA abandonarán las tarjetas para pagar con stablecoins en Solana. Antonio Ortiz, analistas tecnológico, lo ha señalado con precisión: parte del argumentario "es de primero de Twitter AI-hype". La idea de que un agente comparará veinte apps de comida a domicilio vibecodeadas para encontrar la más barata huele a caricatura del futuro.

Pero el pánico no es irracional. Es, precisamente, el pánico a no saber dónde está el límite.

Por qué es importante. Lo que ha movido el mercado no ha sido tanto la tesis sobre los pagos sino la tesis sobre la destrucción de valor. Y esa sí es sólida: muchos miles de millons de dólares de capitalización bursátil se han construido sobre un único cimiento: que los humanos somos lentos, impacientes, olvidadizos y leales por inercia. Que no comparamos precios. Que renovamos suscripciones que no usamos. Y que pagamos comisiones que no negociamos.

Un agente de IA no tiene ninguna de esas debilidades. Y eso lo cambia todo.

El telón de fondo. El informe de Citrini llega en un momento en que el llamado "saaspocalypse" ya no es metáfora. El WSJ recoge que los inversores están aterrados ante la posibilidad de que la IA acabe haciendo el trabajo que hoy facturan las grandes empresas de software. ServiceNow, Salesforce, las plataformas de gestión empresarial... todas construidas sobre la premisa de que las empresas necesitan software para que sus empleados hagan su trabajo. Pero... ¿qué ocurre cuando los empleados desaparecen? ¿Y si el propio software puede ser replicado en semanas con herramientas de codificación agéntica?

La ficción de Citrini empieza exactamente ahí, a principios de 2026, cuando un desarrollador competente puede reproducir la funcionalidad central de un SaaS de mercado medio en pocas semanas, y construye un escenario de colapso sistémico.

La gran pregunta. El argumento más inquietante del informe es que en todos los ciclos tecnológicos anteriores, la destrucción de empleo creó empleos nuevos que solo los humanos podían hacer. Esta vez, la IA ya está ocupando también esos puestos nuevos. Si eso es cierto (si la IA mejora más rápido de lo que los trabajadores pueden reorientarse) el mecanismo de autocorrección que siempre ha evitado que la destrucción creativa se convierta en destrucción a secas no funcionaría.

Ese es el escenario que los mercados han descontado esta semana, aunque sea de forma parcial y especulativa gracias a un creepypasta financiero.

Sí, pero. El escenario requiere asumir una velocidad de adopción que no está garantizada, una respuesta política completamente ausente y una ausencia total de nuevos sectores económicos. Ninguna de las tres condiciones está escrita en piedra. Además, como apunta Antonio, hay algo de histeria colectiva en la reacción: cada anuncio o "cuento de miedo epata, llama la atención y mueve a los inversores". Los mercados están operando con pánico ante lo desconocido.

Pero hay una diferencia importante entre decir "este escenario no ocurrirá" y decir "este escenario es imposible". Y esa diferencia es exactamente lo que tiene al mercado nervioso.

La señal de alarma. Lo más llamativo de esta semana es que un texto especulativo, escrito en formato de ciencia ficción económica, ha bastado para mover miles de millones en capitalización bursátil.

Eso dice mucho sobre el estado de la certidumbre en los mercados respecto a la IA: es prácticamente nula. Nadie sabe realmente cuánto vale una empresa cuyo moat es la fricción humana en un mundo donde esa fricción está desapareciendo.

El canario sigue vivo. Pero los inversores han dejado de fiarse del canario.

En Xataka | La IA prometió revolucionar todos los sectores. Solo ha revolucionado la programación mientras el resto sigue esperando

Imagen destacada | Avery Evans



via Robótica e IA - Xataka https://ift.tt/HrUb0TX

15 fabricantes de coches chinos van a producir robots humanoides. Van a usar la misma ventaja que les hizo líderes

15 fabricantes de coches chinos van a producir robots humanoides. Van a usar la misma ventaja que les hizo líderes

China no llega tarde a la robótica humanoide: llega con fábricas, proveedores, ingenieros y software ya amortizados, una ventaja difícil de superar. La cadena de suministro de un coche eléctrico (sensores, motores, baterías, chips, algoritmos de percepción...) se solapa en más de un 60% con la de un robot humanoide, según estimaciones de CITIC Securities.

XPeng, uno de los fabricantes más tecnológicos del sector, asegura además que su robot reutiliza el 70% del mismo software de IA que sus coches. Si esos números son reales sin muchos asteriscos, los fabricantes chinos de vehículos eléctricos no es que sean aspirantes a la robótica, es que son favoritos claros.

La panorámica. Quince marcas de coches chinas han anunciado programas de robots humanoides, según la firma de análisis Kaiyuan Securities. China ya fabrica el 70% de los componentes de la robótica industrial "clásica", y el salto a los humanoides aprovecha las mismas fábricas, los mismos proveedores y el mismo talento que le han dado el liderazgo en vehículos eléctricos.

El paralelismo con lo que hace Tesla con Optimus es inevitable, pero China lo está ejecutando con docenas de empresas en paralelo, a una velocidad que ninguna empresa individual puede igualar.

Entre líneas. Las apuestas divergen tanto como las empresas:

Sí, pero. Hay nubarrones en el día soleado que es la robótica humanoide para China. El robot IRON de XPeng se dio un castañazo en un centro comercial de Shenzhen hace unos días. La empresa lleva seis años en robótica.

Conducir por carreteras y moverse por habitaciones cada una de un padre y una madre son problemas muy distintos.

  • Las carreteras tienen carriles, señales y una física bastante predecible.
  • Las habitaciones tienen escaleras, decenas de objetos pequeños, personas que se mueven, puertas que abrir, ubicaciones intrincadas o cargadores con un cable por el suelo.

La destreza manual y el equilibrio dinámico que exige un robot humanoide no tienen equivalente en la arquitectura de control de ningún coche. Y los ingenieros más talentosos del sector lo saben: varios exdirectivos de XPeng, Li Auto y Huawei han abandonado sus empresas para fundar startups de robótica propias.

Cuando el camino parece despejado, los mejores no tienen miedo a ir por libre.

El contraste. Unitree, una empresa de robótica pura sin ningún vínculo con la automoción, distribuyó 5.500 robots en 2025. Agibot se acerca a los 1.000 millones de yuanes en ingresos, unos 122 millones de euros. Estas empresas construidas desde cero para la robótica están entregando ya su producto mientras los fabricantes de coches todavía están en fase de reorganización.

El solapamiento tecnológico entre coches y robots es real en sensores y software de percepción, pero se adelgaza enseguida cuando el robot tiene que manipular objetos con mucha precisión, mantener el equilibrio en terreno irregular o trabajar junto a seres humanos.

  • Esa última "frontera", el 30% que no se transfiere, puede ser donde se decida quién domina la industria.

En Xataka | China fabrica el 90% de los robots humanoides del mundo y la razón no es su política industrial: es cruzar la calle

Imagen destacada | Xpeng



via Robótica e IA - Xataka https://ift.tt/zI8sSO6