
La carrera por dominar la inteligencia artificial se ha ido estrechando hasta dejar a un puñado de actores capaces de competir al más alto nivel. Anthropic forma parte de ese grupo reducido junto a nombres como OpenAI o Google, y sus modelos Claude han ganado terreno en ámbitos como la programación. En ese gran momento, sin embargo, la compañía se enfrenta a una decisión delicada: mantener ciertos límites en el uso militar de su tecnología, aun a costa de tensar su relación con el Departamento de Defensa de Estados Unidos.
El estándar que lo cambia todo. Según Axios, citando a un alto funcionario de la administración, el Pentágono está presionando a cuatro laboratorios punteros de IA para que permitan el uso de sus modelos para “todos los fines lícitos”, incluso en áreas especialmente sensibles como el desarrollo de armas, la recopilación de inteligencia o las operaciones en el campo de batalla. Anthropic, sin embargo, no habría aceptado esas condiciones tras meses de negociaciones difíciles, lo que ha llevado al Departamento de Defensa a plantearse revisar su relación con la compañía.
Las líneas que no quiere cruzar. Frente a esa exigencia amplia, los liderados por Dario Amodei han dejado claro que mantienen límites concretos. La compañía insiste en que dos ámbitos siguen fuera de discusión. Un portavoz afirmó al mencionado medio que la empresa sigue “comprometida a utilizar IA de vanguardia en apoyo de la seguridad nacional de EEUU”, pero matizó que las conversaciones con el Departamento de Defensa se han centrado en “nuestros límites estrictos en torno a las armas totalmente autónomas y la vigilancia doméstica masiva”, y que esas cuestiones no se “relacionan con las operaciones actuales”.
El episodio que terminó de elevar la tensión. The Wall Street Journal aseguró, citando a personas con conocimiento del tema, que Claude se utilizó la una operación militar de EEUU en Venezuela para capturar a Nicolás Maduro a través de la relación con Palantir. En ese mismo texto, desde la compañía de IA respondieron que no pueden hacer comentarios sobre si su tecnología se utilizó en una operación militar específica, clasificada o no. Y añadió que cualquier uso, ya sea en el sector privado o en el Gobierno, debe cumplir sus políticas de uso.
Lo que está en juego. Más allá de ese episodio, Axios informó de que desde el ámbito militar estadounidense “todo está sobre la mesa”, incluida la posibilidad de reducir o incluso romper la relación con Anthropic. El mismo alto funcionario citado por el medio añadió que, si se opta por ese camino, tendría que haber “una sustitución ordenada”, lo que sugiere que el proceso demandaría cierta cantidad de tiempo. WSJ aporta otro dato interesante: el año pasado se firmó un contrato de 200 millones de dólares entre Anthropic y el Departamento de Defensa.
El fondo de la disputa. En un momento en el que las compañías de IA buscan consolidar ingresos, justificar valoraciones y demostrar utilidad en entornos críticos, la relación con el sector de defensa es un escaparate y una fuente de negocio de primer orden. Al mismo tiempo, también es un terreno donde los límites éticos y estratégicos se vuelven más visibles. La decisión de Anthropic de mantener ciertas restricciones puede reforzar su identidad como empresa orientada a la seguridad, pero también limitar su acceso a contratos millonarios.
Imágenes | Anthropic | Oleg Ivanov
En Xataka | Los centros de datos en el espacio prometen salvar el planeta. Y también arruinar la órbita terrestre
via Robótica e IA - Xataka https://ift.tt/NOjC1Qv













