Home Técnica El conflicto demográfico del Pentágono “debería ser una llamada de atención para...

El conflicto demográfico del Pentágono “debería ser una llamada de atención para el Congreso”

20

La disputa contractual entre el Departamento de Defensa de EE. UU. y el desarrollador de inteligencia artificial Anthropic que estalló a fines de febrero revela claramente cómo las leyes y regulaciones no han logrado mantenerse al día con las capacidades de inteligencia artificial.

El Pentágono quería poder utilizar la IA en la nube de Anthropic para “todos los fines legales”, mientras que Anthropic quería prohibir a los militares utilizarla para vigilancia interna masiva o sistemas de armas totalmente autónomos. Después de que Anthropic se negara a cumplir con las demandas del gobierno, el presidente Donald Trump y el secretario de Defensa, Pete Hegseth, dijeron que lo harían. Declarar la empresa como “Riesgo de Cadena de Suministro”. Prohibición de utilizar sus productos en trabajos por contrato de defensa. El Pentágono lo hizo y la Antropología Presentó el caso el lunes. impugnó la designación en un tribunal federal, calificándola de un ataque “ilegal y sin precedentes” a los derechos de libertad de expresión de la empresa.

Insignia CNET AI Atlas; Haga clic para ver más

Los funcionarios del Pentágono dicen que el problema se complica por las leyes actuales. No permitir tal vigilancia.Y no tiene planes de utilizar la herramienta para sistemas de armas autónomos. Pero las leyes y regulaciones no son tan claras, según expertos en privacidad y tecnología. Y una disputa contractual entre una empresa privada y una agencia federal no es el lugar para resolverla.

“Esta semana ha quedado al descubierto un verdadero vacío de gobernanza, y debería ser una llamada de atención para el Congreso”, dijo Hamza Chaudhary, director de IA y seguridad nacional en el Future of Life Institute.

Leer más: El Congreso no está tomando medidas para regular la IA. ¿Dónde nos deja eso ahora?

La consecuencia inmediata de la disputa contractual es el Pentágono. En su lugar, hacer un trato con OpenAI. El acuerdo con OpenAI fue menos claro acerca de las restricciones al uso de los productos de la compañía para vigilancia masiva o armas autónomas, pero los líderes de OpenAI dijeron esta semana que han tomado medidas para fortalecer esas salvaguardas. El director ejecutivo Sam Altman dijo que uno Publicado en X El Pentágono confirmó que no utilizaría las agencias de inteligencia del departamento.

(Divulgación: Jeff Davis, la empresa matriz de CNET, presentó una demanda contra OpenAI en 2025, alegando que violó los derechos de autor de Jeff Davis al entrenar y operar sus sistemas de IA).

Noam Brown, científico investigador de OpenAI Publicado en X Creía que el mundo “no tiene que depender de la confianza en los laboratorios de inteligencia artificial o las agencias de inteligencia” para garantizar cosas como la seguridad. “Sé que la elaboración de leyes a veces puede ser lenta, pero temo una pendiente resbaladiza en la que nos acostumbremos a eludir el proceso democrático para tomar decisiones políticas importantes”, escribió.

La pregunta es si el Congreso abordará estas cuestiones y cómo.

La IA desempeña un papel cada vez más importante en la vigilancia

El gran riesgo de utilizar la IA para la vigilancia nacional no es necesariamente que Claude o ChatGPT espíen a los estadounidenses. Es que estas herramientas se utilizarán para convertir datos que ya están en posesión del gobierno o datos personales que puede comprar a corredores sin la necesidad de una orden judicial que de otro modo requeriría una orden judicial.

Ya se están recopilando datos personales suyos, posiblemente desde el dispositivo que está utilizando para leerlos. Esto incluye su historial de navegación, sus datos de ubicación e información sobre con quién habla o con quién se asocia. Las empresas privadas, como los desarrolladores de aplicaciones, pueden recopilar esos datos incluso si usted no se da cuenta y venderlos a otras empresas o agencias de inteligencia. Pero hasta hace poco, al gobierno le resultaba difícil procesarlo todo de una manera que facilitara el seguimiento. La IA ha cambiado eso.

El director general de Anthropologie, Dario Amodei, menciona específicamente esta situación como una Declaración del 26 de febrero. Detalles de los motivos de la empresa para mantener su línea roja. “La potente IA hace posible combinar estos datos dispersos e individualmente inocuos en una imagen completa de la vida de cualquier persona, de forma automática y masiva”.

La IA actual no está preparada para los sistemas de armas

El otro argumento clave es que Anthropic quería evitar que el Pentágono le diera a Claude el control total de un sistema de armas sin un “bucle entre humanos”. Usar una herramienta de inteligencia artificial para ayudar a seleccionar objetivos. Como se sabe que le está pasando a Claude Durante la guerra de Estados Unidos en Irán, ni Anthropic ni ninguna de las principales empresas de inteligencia artificial palidecen en comparación, ya que una persona participa en la verificación y la toma de decisiones. Lo que la empresa objetó fue el uso de modelos de inteligencia artificial para tomar esas decisiones sin supervisión humana. Amodei escribió que los modelos de frontera actuales “no son lo suficientemente fiables como para impulsar armas totalmente autónomas”.

Greg Nozeim, abogado senior y director del Proyecto de Seguridad y Vigilancia del Centro para la Democracia y la Tecnología, dijo que está claro que los expertos en IA no creen que los modelos estén listos para tal uso, si es que alguna vez lo están.

“Es sorprendente que el Pentágono rechace esa sugerencia e insista en poder utilizar esta herramienta de inteligencia artificial para matar personas sin intervención humana”, dijo.

El Departamento de Defensa ha argumentado que en realidad no puede utilizar armas totalmente autónomas, pero Chaudhary me dijo lo más Instrucciones comúnmente citadas (PDF) sobre ese tema no los prohíbe El Departamento de Defensa y Antropología no respondió directamente a la solicitud de comentarios de CNET para esta historia.

En cualquier caso, dicen los expertos, la cuestión del uso de tales armas no puede ser resuelta por burócratas federales no electos, comandantes militares o empresas privadas. Los funcionarios electos deberían considerar esto.

Un hombre sostiene un cartel de protesta por el uso de IA en armas letales en el National Mall de Washington. leer un letrero "Detengamos a los robots asesinos de Trump" Y uno es un perro robot con una pistola en la espalda. "AbiertoAI" a su lado

Heather Diehl/Getty Images

¿Un punto de inflexión para la regulación de la IA?

La cuestión de cómo controlar la IA y quién debería hacerlo no es nada nuevo. La administración Trump ha pedido un toque más ligero a la hora de decirles a las empresas de IA qué hacer, a pesar de la evidencia de que los chatbots que alientan el suicidio causan daños a la erosión de la privacidad personal facilitada por la IA. Los estados han tratado de frenar a los desarrolladores de IA para abordar estos problemas, pero se han enfrentado al rechazo de la intención del gobierno federal de decidir cómo se gestiona la tecnología.

Cuando se trata del uso de la IA por parte de los servicios militares y federales de espionaje, la cuestión de quién debería controlarla es clara: el Congreso.

“No se puede confiar en que líderes no elegidos de empresas del sector privado utilicen un tratado privado para llenar un vacío que no ha sido llenado legislativamente por legisladores elegidos democráticamente”, dijo Chowdhury. “Lo que necesitamos son líneas rojas estatutarias: reglas claras, sostenibles y promulgadas democráticamente sobre lo que la IA puede y no puede usarse en un contexto de seguridad nacional, porque la IA transforma la seguridad nacional”.

Nozeim dijo que la vigilancia con IA “no es el tipo de comportamiento que los militares deberían poder autorizar por sí mismos”. El Congreso considerará reautorizar parte de la Ley de Vigilancia de Inteligencia Extranjera el próximo mes y podría aprovechar esa oportunidad para decidir si las agencias de inteligencia necesitan órdenes judiciales cuando utilizan datos comprados.

“Idealmente, el Congreso intervendría y limitaría la capacidad del gobierno para comprar información sobre los estadounidenses y eludir los requisitos de aprobación judicial, e idealmente el Congreso establecería reglas sobre cómo proteger a los estadounidenses contra la vigilancia impulsada por la IA y el uso de armas autónomas que podrían matar incluso a un ser humano en el circuito”.

Hay otras cuestiones regulatorias relacionadas con la IA que el Congreso debe considerar, pero el debate sobre el uso de la IA para vigilancia y armas autónomas podría ser revelador y acelerar la acción.

¿Qué pasa con los efectos a largo plazo de este conflicto?

La represalia del Pentágono contra Anthropic (su declaración oficial esta semana de que la empresa representa un riesgo para la cadena de suministro) podría tener un efecto paralizador en otras empresas preocupadas por cómo el gobierno utilizará su tecnología.

“Sienta un precedente que el gobierno pueda tomar represalias contra una empresa que impone límites de seguridad al uso de su tecnología porque sabe más que el gobierno sobre los riesgos y la confiabilidad de su tecnología”, dijo Nozeim. “Este precedente nos hará a todos menos seguros”.

antropológico dijo el jueves Que recibió una carta del Departamento de Defensa que lo designaba como un riesgo para la cadena de suministro, y que el lenguaje de la carta era más limitado que las amplias amenazas hechas por funcionarios de la administración la semana anterior. “Por respeto a nuestros clientes, esto sólo se aplica al uso de Claud por parte de clientes como parte directa de un contrato con el Departamento de Guerra, no a todo uso de Claud por parte de clientes que tienen dicho contrato”, dijo Amodi en un comunicado, utilizando el nombre preferido de Hegseth para el departamento.

A pesar de su designación como un riesgo de conflicto y cadena de suministro, el ejército estadounidense continúa utilizando las herramientas de Enthropic, incluso de manera extensiva durante la actual guerra con Irán. Amodei dijo que Anthropic continuará proporcionando sus modelos de IA a grupos militares y de seguridad nacional “a un costo nominal y con el apoyo continuo de nuestros ingenieros” siempre que se conceda el permiso.

“Los antropólogos tenemos más en común con el Departamento de Guerra que diferencias”, dijo Amodei.

Enlace fuente