Home Técnica Trump critica a Anthropic como ‘wook’ y ordena a la Fed que...

Trump critica a Anthropic como ‘wook’ y ordena a la Fed que deje de usar IA en la nube

29

El presidente Donald Trump pidió el viernes a las agencias federales de EE. UU. que dejen de usar la IA en la nube de Anthropic después de que la agencia se negó a permitir que el Departamento de Defensa la usara para vigilancia nacional masiva o sistemas de armas totalmente autónomos.

el presidente ha sido publicado Truth en la plataforma social, de su propiedad, dijo que estaba ordenando al gobierno federal “cesar inmediatamente” el uso de las herramientas de Anthropic, diciendo que habría una eliminación gradual de seis meses para agencias como el Departamento de Defensa. También denunció a Anthropic como una “empresa de izquierda radical”. La publicación marcó el último paso en un enfrentamiento que se ha intensificado significativamente esta semana entre la minoría étnica y el gobierno federal.

La nube se utiliza ampliamente en todo el Pentágono, incluidos los sistemas clasificados, pero la administración Trump ha tratado de utilizar la tecnología para “cualquier propósito legal”. Anthropic insiste en su acuerdo existente en que la tecnología no puede utilizarse para la vigilancia masiva de estadounidenses o en sistemas autónomos de armas ofensivas sin la participación humana.

Insignia CNET AI Atlas; Haga clic para ver más

El Secretario de Defensa Pete Hegseth dijo a principios de esta semana El CEO de Anthropic, Dario Amodei, dijo Que invocaría poderes rara vez utilizados para obligar a Anthropic a permitir que el Pentágono use la nube para fines legítimos o para designar a la empresa como un riesgo para la cadena de suministro, poniendo en peligro su uso por parte del gobierno o de los contratistas de defensa. Hegseth le dio a Anthropic una fecha límite el viernes para cumplir.

El director general de Anthropologie, Dario Amodei, dijo esto declaración La agencia, que fue fundada con un enfoque declarado en la seguridad de la IA, “no puede acceder en conciencia a la solicitud (del Pentágono)” de eliminar las disposiciones del tratado que establecen que la nube no puede usarse en sistemas de armas totalmente autónomos o para vigilancia nacional.

Leer más: La cámara Ring de Amazon profundiza en la vigilancia policial y gubernamental

Preocupaciones por la IA y la vigilancia masiva

Amodei expresó su preocupación de que la ley no haya aprovechado el potencial de vigilancia masiva de los estadounidenses. El gobierno ya puede comprar datos como el historial de navegación de los estadounidenses y los registros de movimientos personales sin una orden judicial, pero la inteligencia artificial aumenta el riesgo. “La potente IA hace posible reunir estos datos dispersos e individualmente inocuos en una imagen completa de la vida de cualquier persona, de forma automática y masiva”, escribió.

Michael Pastor, decano del programa de derecho tecnológico de la Facultad de Derecho de Nueva York, dijo en un correo electrónico que se busca claridad en los términos para quienes participan en el derecho contractual. Los antropólogos, dice, tienen razón al insistir mucho en lo que entienden por “fines legítimos”. “Si el Pentágono no quiere aclarar si utilizará la tecnología de Anthropic para una vigilancia interna generalizada, parece justificado levantar esa bandera y saludar a Anthropic”.

Anthropic Cloud es el sistema de inteligencia artificial más utilizado por el ejército estadounidense. Las opciones pueden incluir herramientas de OpenAI, Google o xAI de Elon Musk.

En una nota interna Según informa el Wall Street Journal El viernes, el director ejecutivo de OpenAI, Sam Altman, supuestamente les dijo a los empleados que la compañía tiene la misma línea roja que Anthropic: no hay vigilancia doméstica masiva ni armas ofensivas autónomas. Altman dijo que cree que estas barreras se pueden gestionar mediante requisitos técnicos, como exigir que los modelos se implementen en la nube. (Divulgación: Jeff Davis, la empresa matriz de CNET, presentó una demanda contra OpenAI en 2025, alegando que violó los derechos de autor de Jeff Davis al entrenar y operar sus sistemas de IA).

Empleados de Google y OpenAI lanzaron una campaña solicitud pidieron a sus organizaciones que apoyen a Anthropic en el rechazo del uso de modelos de inteligencia artificial para la vigilancia masiva nacional o sistemas de armas letales totalmente autónomos. Según la petición, el Pentágono está “tratando de dividir a cada empresa por miedo a que otras la apoyen. Esta estrategia sólo funciona cuando ninguno de nosotros sabe cuál es la posición de los demás”.

Al igual que en la tecnología de consumo, los sistemas de inteligencia artificial han sido ampliamente adoptados en los sectores gubernamental y militar. Estas herramientas han aumentado significativamente sus capacidades en los últimos años y el ritmo del cambio no se ha desacelerado. La IA no está controlada ni supervisada. La IA ha aumentado el daño potencial de la vigilancia corporativa o gubernamental al hacerla más fácil y más barata.

Pastor dijo que la disputa podría tener implicaciones significativas sobre la influencia que tienen los gobiernos y las empresas de tecnología entre sí cuando sus puntos de vista sobre el uso apropiado de la tecnología chocan. “Los antropólogos podrían pensar que ceder aquí abre una caja de Pandora de usos para los cuales se podría utilizar a Claude”, dijo.

Enlace fuente