
El Pentágono acaba de darle a Anthropic hasta este viernes a las 17:01 para aceptar su uso sin restricciones de sus modelos de IA para todo tipo de aplicaciones, incluyendo las de espionaje y las militares. La empresa se ha negado hasta ahora, pero la administración Trump amenaza con invocar una norma de hace 75 años para "apropiarse" de la tecnología de IA de Anthropic.
Líneas rojas. El conflicto tiene su origen en las líneas rojas impuestas por las normas éticas de Anthropic. La empresa, liderada por Dario Amodei, se niega a que sus modelos se utilicen para vigilancia masiva de ciudadanos estadounidenses —no dice nada de otros— o en el desarrollo y uso de armas letales autónomas controladas totalmente por la IA.
El Pentágono quiere usar la IA (casi) sin límites. Este tipo de salvaguardas chocan frontalmente con la postura del Pentágono, que exige que sus proveedores de tecnología abran el uso de sus soluciones software y hardware para cualquier propósito legal definido por los militares, sin vetos externos. Mientras la constitución y las leyes de EEUU lo permitan, una empresa privada no debería poder imponer límites al uso de su tecnología, indican en el Gobierno de EEUU.
Tensión tras el incidente Maduro. Las cosas empezaron a torcerse cuando se supo que el modelo Claude fue utilizado en una operación de las fuerzas especiales de EEUU en enero para capturar al expresidente venezolano, Nicolás Maduro. El incidente puso bajo la lupa la dependencia que el ejército tiene de Claude: actualmente Anthropic es la única empresa de IA que opera en los sistemas clasificados del Pentágono, lo que le otorga una posición de poder notable que ahora quiere ser quebrada por parte de el gobierno estadounidense.
Esto huele mal. La estrategia del Pentágono resulta inquietante desde el punto de vista legal. Hay tres grandes posibilidades de actuación:
- Cancelar el contrato de Anthropic y comenzar a trabajar con otra (u otras) empresas de IA dispuestas a aceptar sus términos. Ayer supimos que xAI ya ha firmado un acuerdo para que el DoD pueda usar su modelo Grok, en sistemas clasificados. Google parece ser también una opción con la que están trabajando.
- Identificar a Anthropic como un riesgo para su cadena de suministro. Eso es muy peligroso, porque haría que un enorme número de empresas en EEUU no pudieran trabajar con Anthropic. Sería una especie de veto como el que EEUU impuso a Huawei, pero aplicado a una empresa nacional. El impacto para Anthropic y sus inversores (Amazon y Google entre ellos) sería catastrófico.
- Activar el Título 1 de la Defense Production Act de 1950, una ley especial teóricamente diseñada para el control de la economía durante guerras y emergencias. Se utilizó por ejemplo durante la pandemia de COVID-19 para impulsar la producción de suministros médicos y acelerar la producción de vacunas. Parece poco probable que puedan hacer algo así
Cómo empezó todo este embrollo. La administración Biden impulsó medidas y límites éticos para la restringir la aplicación de la IA, pero todo cambió con el mandato de Donald Trump. En junio de 2025 Anthropic lanzó Claude Gov, una serie especializada de modelos de IA específicamente diseñados para ser usados por parte de las agencias nacionales de EEUU en seguridad, defensa e inteligencia.
IA con aplicaciones militares y de inteligencia. Estos modelos estaban preparados para operar con entornos con información clasificada. Anthropic los ofreció además por un precio simbólico de 1 dólar para asegurarse que el Gobierno los preferiría frente a los de otros competidores. Poco después el DoD le concedió a la empresa un contrato por valor de 200 millones de dólares, y desde entonces la empresa se ha ido integrando con los sistemas de Palantir que se usan en las agencias gubernamentales estadounidenses.
Dos posturas enfrentadas. Anthropic se postula por tanto como una defensora de ciertos límites para el uso de sus modelos de IA. El Departamento de Defensa (DoD) no está de acuerdo, y su argumento es que el uso militar de cualquier tecnología solo debe ceñirse a la Constitución o las leyes de EEUU. La empresa sostiene que busca apoyar la misión de seguridad nacional, pero solo dentro de lo que sus modelos pueden hacer de forma fiable y responsable.
El dilema. Si el Pentágono cumple su amenaza, se sentará un precedente donde el Estado puede intervenir la propiedad intelectual de una empresa de software bajo el argumento de emergencia nacional. Esto obligaría a todas las Big Tech a decidir si están dispuestas a ceder el control total de sus desarrollos tecnológicos a los militares... o a arriesgarse a ser intervenidas por una ley de hace casi 80 años.
Imagen | Ben White | Anthropic
En Xataka | IBM lleva décadas viviendo de que nadie podía matar a COBOL. Anthropic tiene otros planes
via Robótica e IA - Xataka https://ift.tt/jJFMh3B

No hay comentarios:
Publicar un comentario