Home Smartwatch A medida que aumenta el conflicto de la IA, el Departamento de...

A medida que aumenta el conflicto de la IA, el Departamento de Guerra designa combate antropomórfico

20

El Departamento de Defensa, conocido como Departamento de Guerra bajo la administración Trump, acaba de designar oficialmente a la empresa de inteligencia artificial Anthropic como un “riesgo de la cadena de suministro” para la seguridad nacional. Pero Anthropic no se lo cree.

“No creemos que esta medida sea legalmente sólida y no vemos otra opción que impugnarla ante los tribunales”, escribió el director general de Anthropic, Dario Amodei. declaración Responder a disputas en curso. Amodei también subrayó que la designación no afecta a la mayoría de los consumidores étnicos.

Anthropic está “orgulloso del trabajo” que ha realizado junto con el gobierno federal “para apoyar a los combatientes de primera línea con análisis de inteligencia, modelado y simulación, planificación operativa, operaciones cibernéticas y más”, dijo Amodei.

La disputa comenzó sobre el uso potencial de la tecnología de inteligencia artificial de Anthropic para realizar vigilancia doméstica masiva y alimentar armas autónomas como drones. La relación entre la etnografía y el ejército estadounidense deterioro La semana pasada, después de que la compañía de inteligencia artificial ganara 200 millones de dólares en comunicaciones del gobierno federal, pero quisiera garantías de que su tecnología no se usaría para vigilancia o armas que pudieran dispararse sin un ser humano en el circuito.

El gobierno de Estados Unidos no estuvo de acuerdo con los términos de Anthropic y amenazó con designar a la empresa como un riesgo para la cadena de suministro, lo que ya hizo. Trump también emitió una orden ejecutiva pidiendo a todas las agencias federales que dejaran de usar la IA de Anthropic.

Amodei se disculpó y confirmó la filtración en una nota interna. Informes recientes El Departamento de Antropología y Defensa volvió a entrar en la discusión. Si las dos partes no pueden llegar a un acuerdo, Anthropic ayudará al gobierno en un período de transición, dijo Amodei.

El director ejecutivo también mencionó el acuerdo del gobierno de Estados Unidos con OpenAI creado a raíz de conflictos humanitarios. Incluso OpenAI ha calificado su acuerdo con el gobierno estadounidense de “confuso”.

El director ejecutivo de OpenAI era Sam Altman forzar Para resolver el trato después de recibir un importante retroceso por parte de los usuarios.

“Nuestra prioridad más importante en este momento es garantizar que nuestros combatientes y expertos en seguridad nacional no se vean privados de equipo crítico en medio de operaciones de combate importantes”, escribió Amody. “Anthropomorphic proporcionará nuestros modelos al Departamento de Guerra y a la comunidad de seguridad nacional, a un costo nominal y con el apoyo continuo de nuestros ingenieros, durante el tiempo que sea necesario para realizar esta transición y mientras se nos permita hacerlo”.

como El diario de Wall Street Como se informó anteriormente, el ejército estadounidense ya ha utilizado el modelo de nube de Anthropic para ayudar a lanzar ataques contra Irán.

Enlace fuente