Un juez federal de California se puso del lado de Anthropic en su demanda contra el Departamento de Defensa el jueves y ordenó una pausa temporal en la acción disciplinaria del gobierno contra la empresa de inteligencia artificial.
La jueza Rita Lynn aceptó la solicitud de Anthropic de una orden judicial temporal mientras el Tribunal del Distrito Norte de California escuchaba el caso de la empresa. Anthropic argumentó que el Departamento de Defensa y Donald Trump violaron sus derechos de la Primera Enmienda al declarar a la empresa un riesgo para la cadena de suministro y ordenar a las agencias gubernamentales que dejaran de usar su tecnología.
El juez suspendió la orden durante una semana.
El enfrentamiento de meses entre Anthropic y el gobierno giró en torno a la negativa de la compañía a permitir que el Departamento de Defensa utilizara sus modelos de inteligencia artificial en la nube para armas letales totalmente autónomas o vigilancia masiva nacional. Los antropólogos presentaron una demanda contra el gobierno a principios de este mes, que comenzó con una audiencia de orden judicial temporal el martes.
El fallo del juez Lin encontró que el gobierno se había excedido en su autoridad al intentar castigar y coaccionar a Anthropic, diciendo que la designación por parte del Pentágono de la compañía de IA como un “riesgo para la cadena de suministro” era “probablemente inconstitucional, arbitraria y caprichosa”.
“El Departamento de Guerra no proporciona ninguna base legítima para inferir de la aparente insistencia de Anthropic en restricciones de uso que podría convertirse en un destructor”, escribió Lin.
Durante la audiencia del martes, Lin cuestionó la designación de riesgo de la cadena de suministro por parte de los abogados del gobierno cuando el DOD podría simplemente haber eliminado a Anthropic como contratista.
“Parece un intento de paralizar al antropólogo”, dijo Lin.
Los abogados del gobierno sostuvieron que, aunque el secretario de Defensa, Pete Hegseth, publicó en las redes sociales que cualquier contratista que hiciera negocios con el ejército estadounidense no podía trabajar con Anthropic, su declaración no tenía ningún efecto legal y, por lo tanto, no crearía un daño irreparable como alega la demanda de la compañía. Cuando Lynn presionó a los abogados del gobierno sobre por qué Hegseth publicaría algo sin ninguna autoridad legal que lo respaldara, respondieron que no lo sabían.
Lin se mostró escéptico ante los argumentos del gobierno durante toda la audiencia y dijo que las acciones del gobierno contra Anthropic no parecían reflejar preocupaciones específicas de seguridad nacional.
Anthropic argumentó en su denuncia contra el gobierno, que presentó a principios de este mes, que las designaciones de riesgo en la cadena de suministro y otras acciones punitivas podrían costarle a la empresa decenas de millones, si no miles de millones, de dólares.
“Estas acciones no tienen precedentes y son ilegales. La Constitución no permite que el gobierno use sus vastos poderes para castigar a una empresa por su expresión protegida”, dijo Anthropic en su denuncia.
La prohibición tiene implicaciones para los esfuerzos del gobierno por reemplazar la nube con otras herramientas de inteligencia artificial, un proceso difícil dado lo profundamente arraigada que está la tecnología de Anthropic en las operaciones gubernamentales. Se dice que el Departamento de Defensa lo utiliza ampliamente. Claude para operaciones militares.Incluyendo la selección de objetivos y el análisis de ataques con misiles en la guerra contra Irán.











