Home Smartwatch Antropólogos demandan al Pentágono por el uso de aplicaciones en la nube

Antropólogos demandan al Pentágono por el uso de aplicaciones en la nube

18

La aplicación de inteligencia artificial de Anthropic, Claude, está llegando a la cima de las listas de descargas globales, mientras la compañía libra una batalla legal contra el Pentágono por etiquetarla como un riesgo para la seguridad nacional.

En una denuncia presentada el lunes en el Tribunal de Distrito de Estados Unidos para el Distrito Norte de California, Anthropic afirma que el gobierno federal lanzó una campaña sin precedentes contra la empresa después de que cumpliera con las restricciones de seguridad. Anthropic dice que no quiere que su IA se utilice para una guerra autónoma letal o para la vigilancia masiva de estadounidenses.

“Enthropic presentó esta demanda porque el gobierno federal tomó represalias contra ella por revelar esa política”, La denuncia decía. “Cuando Anthropic se mantuvo firme en su criterio de que Clod no podía usarse de manera segura o confiable para una guerra letal autónoma y vigilancia masiva de estadounidenses, el presidente ordenó a todas las agencias federales que ‘cesaran inmediatamente todo uso de la tecnología de Anthropic'”.

Ver también:

Esto es lo que sabemos sobre la prohibición de los drones DJI en EE. UU.

Las consecuencias han sido rápidas y generalizadas. La Administración de Servicios Generales ha rescindido el contrato gubernamental de Anthropic. El Departamento del Tesoro, la Agencia Federal de Financiamiento de la Vivienda, el Departamento de Estado y otras agencias gubernamentales han anunciado que cortarán sus vínculos con la empresa.

Sin embargo, la controversia parece haber hecho poco para frenar el entusiasmo del público por los productos de Anthropic. En todo caso, los usuarios son más Enthusiast ahora se enfrenta cara a cara con la antrópica administración Trump.

La compañía dijo que ahora está agregando más de un millón de nuevos usuarios por día en todo el mundo, rompiendo su propio récord de registro diario desde que comenzó la disputa.

Actualmente, Claude ocupa el primer lugar en la App Store de Apple en 16 países, superando tanto a ChatGPT de OpenAI como a Gemini de Google en más de 20 mercados. Según datos de AppFigure.

El caso marca la culminación de crecientes tensiones entre el Departamento de Antropología y el Departamento de Defensa, que la administración Trump llama Departamento de Guerra. La empresa tenía un contrato importante que hizo que sus sistemas de IA generativa se utilizaran ampliamente en todo el Pentágono.

La relación se desarrolló cuando el Secretario de Defensa, Pete Hegseth, presionó para ampliar drásticamente el papel de la IA en todo el ejército y buscó acceso sin restricciones a la tecnología de IA. El esfuerzo requirió renegociar los contratos de cada empresa de IA con el contrato del Pentágono.

Pero cuando Anthropic se convirtió en el proveedor dominante de inteligencia artificial del ejército (con el único modelo avanzado que le permitía operar en sistemas clasificados con la nube), la compañía se encontró en el centro de un enfrentamiento polémico con Hegseth y Trump.

La ruptura se debió tanto a un choque de personalidades como a principios competitivos, Según el New York Times. El director de tecnología del Pentágono, Emil Michael, ex ejecutivo de Uber, se sintió cada vez más frustrado durante las semanas de conversaciones con el director ejecutivo de Anthropic, Dario Amody.

Cuando las negociaciones fracasaron, Michael comenzó a negociar un acuerdo alternativo con OpenAI, una empresa cuyo director ejecutivo, Sam Altman, Cortejado activamente administración Trump. Horas después de que pasara la fecha límite del Pentágono sin un acuerdo, Altman anunció que OpenAI había llegado a un acuerdo con el Departamento de Defensa.

La demanda justifica las acciones del gobierno, incluida la de Trump. La directiva es obligatoria por cada agencia federal. Cesar inmediatamente el uso de IA por parte de Anthropic y designar a la compañía del Secretario Hegseth como un riesgo para la cadena de suministro: violaciones de la Primera Enmienda, así como de las protecciones del debido proceso de la Quinta Enmienda y la Ley de Procedimiento Administrativo.

La nota de presentación de Anthropic señala que la etiqueta de riesgo de la cadena de suministro históricamente ha estado reservada para empresas extranjeras que se considera que representan una amenaza para la seguridad nacional. Nunca antes se había aplicado a una granja estadounidense. La organización está pidiendo al tribunal que declare ilegales las acciones del gobierno y emita una orden judicial permanente que bloquee su aplicación.

sujeto
Gobierno de inteligencia artificial

Enlace fuente