Anthropic, la empresa de inteligencia artificial detrás del popular chatbot Claude AI, recibió elogios la semana pasada por enfrentarse a la administración Trump por el uso de herramientas de inteligencia artificial por parte del ejército estadounidense.
Sin embargo, la empresa ciertamente puede hacer lo contrario.
Según un nuevo informe de Tiempos financierosLos antropólogos y el Departamento de Defensa de Estados Unidos han reabierto las discusiones sobre cómo el gobierno puede aprovechar la tecnología antrópica con fines militares.
La ruptura entre Anthropic y el gobierno de EE.UU. comenzó después de que la empresa de IA recibiera un contrato de 200 millones de dólares del Departamento de Defensa de EE.UU.
Sin embargo, el director ejecutivo de Anthropic, Dario Amodei, buscó más tarde garantías de que el gobierno de EE. UU. no utilizaría sus modelos de inteligencia artificial en la nube para vigilancia nacional o armas autónomas. La administración Trump rechazó la solicitud, diciendo que utilizaría tecnología de inteligencia artificial para cualquier propósito “legítimo”.
Tráiler de ‘The AI Doc’: Sam Altman, Dario Amodei y más discuten el futuro incierto de la IA
Cuando fracasaron las conversaciones entre Anthropic y el gobierno de Estados Unidos, el secretario de Defensa, Pete Hegseth, incluso amenazó con designar a la empresa como un riesgo para la seguridad nacional en la cadena de suministro.
Presidente Trump llamada antropología Una publicación en Truth Social la calificó de “empresa de izquierda radical” y ordenó al gobierno federal que dejara de utilizar la tecnología Anthropic en los próximos seis meses.
Velocidad de la luz triturable
D Tiempos financieros El informe dice que Amodei ha iniciado renegociaciones con la esperanza de evitar la designación de riesgo de la cadena de suministro. Amodei ahora está discutiendo los términos de un posible acuerdo con el subsecretario de Defensa, Emil Michael, quien llamó al antropomórfico director ejecutivo un “mentiroso” con un “complejo de Dios”. Una publicación en las redes sociales Apenas la semana pasada.
Este tweet no está disponible actualmente. Se está cargando o eliminando.
“Al final de las negociaciones (el departamento) se ofreció a aceptar nuestros términos actuales si eliminamos una frase específica sobre ‘análisis de datos adquiridos en masa’, que era la única línea del acuerdo que correspondía a la situación que más nos preocupaba”, dijo Amodei en un memorando interno al personal de Antropología, según se informó. Información. “Nos parece muy sospechoso”.
Después de unos días de negociaciones entre Anthropic y DoD, OpenAI anuncio Que tiene un acuerdo con el gobierno estadounidense para utilizar sus herramientas de inteligencia artificial para uso militar en un “entorno clasificado”.
OpenAI rápidamente recibió críticas de los usuarios, lo que llevó al director ejecutivo Sam Altman a intentar abordar las preocupaciones. Apenas unos días después, un nota interna La filtración provino de Altman, donde el CEO de OpenAI dijo a los empleados que modificaría su contrato con el gobierno federal, ya que el acuerdo fue apresurado. Altman dijo que el gobierno de Estados Unidos le ha asegurado a OpenAI que no utilizará su tecnología para vigilancia nacional.
Según se informa, el memorando interno de Amodei criticó a Altman, calificando las declaraciones sobre OpenAI y las cuestiones antropológicas del Pentágono como “simplemente mentiras descaradas”. Amodei acusó a Altman de participar en un “teatro de seguridad” sobre la presentación de su contrato y dijo que los empleados de OpenAI que creen que la compañía son “una especie de grupo delirante”.
Si Amodei logra conseguir un nuevo contrato con el gobierno federal, el ejército estadounidense seguirá utilizando la tecnología, que es pretendidamente Ya se está utilizando para atacar a Irán.
“¿Quiere obtener más información sobre su tecnología favorita? Suscríbase a los boletines informativos con las mejores noticias y ofertas de Mashable. hoy.”
Divulgación: Ziff Davis, la empresa matriz de Mashable, presentó una demanda contra OpenAI en abril de 2025, alegando que violó los derechos de autor de Ziff Davis al entrenar y operar sus sistemas de IA.










