Por Amy Thomson, Bloomberg
El Pentágono está a punto de cortar los lazos con Anthropic y puede etiquetar a la empresa de inteligencia artificial como un riesgo para la cadena de suministro después de sentirse frustrado por las restricciones sobre cómo puede utilizar la tecnología, informa Axios.
La ruptura se produce después de meses de discusiones polémicas sobre cómo los militares podrían usar las herramientas en la nube, dijo Axios, citando una fuente familiarizada con las discusiones que no la identificó. En particular, Anthropic quiere asegurarse de que su IA no se utilice para espiar a los ciudadanos a gran escala o para crear armas que puedan desplegarse sin involucrar a un humano, decía el artículo. El gobierno solicita permiso para utilizar el terrón para “todos los fines legítimos”, afirmó.
Si la empresa de IA se considera un riesgo para la cadena de suministro, cualquier empresa que quiera hacer negocios con el ejército tendrá que cortar los lazos con Anthropic, dijo Axios, citando a un alto funcionario del Pentágono. El portavoz del Pentágono, Sean Parnell, dijo a Axios que la relación está bajo revisión. Un portavoz de Anthropic dijo a Axios que está teniendo “conversaciones productivas, de buena fe” con el Departamento de Guerra y dijo que la compañía está comprometida a utilizar la IA para la seguridad nacional.
Un representante de Anthropic no respondió de inmediato a la solicitud de comentarios de Bloomberg.
Anthropic ganó el año pasado un contrato de dos años con el Departamento de Defensa de EE. UU. que involucra el modelo de IA Cloud Gov y un prototipo de nube para empresas. Las discusiones antropológicas podrían marcar la pauta para las discusiones con OpenAI, Google y xAI, que aún no se utilizan para trabajos clasificados, dijo Axios.
Anthropologie, fundada por ex investigadores de OpenAI, se posiciona como una empresa de IA más responsable que tiene como objetivo evitar cualquier daño catastrófico causado por la tecnología avanzada.
Más historias como esta están disponibles. www.bloomberg.com
©2026 Bloomberg LP











