Home Smartwatch Antropólogo busca experto en armas y explosivos. he aquí por qué

Antropólogo busca experto en armas y explosivos. he aquí por qué

24

Mucha gente vio esto por primera vez en X: una oferta de trabajo muy inusual y volátil. Algunos pensaron que era una broma. Otros recordaron a Cyberdyne Systems, su empresa de tecnología. terminador La franquicia que descubrió accidentalmente Skynet.

Pero en LinkedIn, donde hablan otro idioma, Anthropic busca una lista. Gerente de Políticas, Armas Químicas y Explosivos de Alto Rendimiento. Se agregaron más detalles a la descripción del trabajo.

“Este papel ofrece una oportunidad única para dar forma a cómo los sistemas de IA manejan información sensible sobre químicos y explosivos”, escribió. “Trabajará con investigadores líderes en seguridad de IA mientras aborda problemas graves para prevenir abusos catastróficos. Si está entusiasmado por utilizar su experiencia para garantizar que los sistemas de IA sigan siendo seguros y útiles, queremos saber de usted”.

Mashable se acercó a Anthropic y la empresa le brindó más contexto.

“Nuestras políticas de uso prohíben el uso de productos o servicios antropogénicos para crear o diseñar armas”, nos dijo un portavoz de la empresa. “Esta función es para el equipo de Salvaguardas responsable de prevenir el uso indebido de nuestros modelos”.

El portavoz enfatizó que Anthropic prohíbe expresamente utilizar su IA o cualquiera de sus tecnologías para crear armas. En cambio, el gerente con sede en Nueva York tendrá la tarea de desarrollar e implementar salvaguardias para proteger las armas. No Hecho con la tecnología de Anthropic.

La compañía quiere contratar expertos en campos sensibles que puedan garantizar que la IA de Anthropic esté protegida de malas manos, dijo el portavoz.

Ver también:

Claude de Anthropic ha superado a ChatGPT en la App Store

La antropología se ha encontrado recientemente en una batalla muy pública con el Departamento de Guerra (también conocido como Departamento de Defensa). La compañía dijo que no cederá ante las afirmaciones de que su IA no se utilizará para construir armas totalmente autónomas o para establecer vigilancia masiva de humanos.

El secretario de Defensa, Pete Hegseth, respondió a los términos de Anthropic declarando que la compañía representaba un riesgo para la cadena de suministro para la seguridad nacional de Estados Unidos y prohibió al Pentágono utilizar su tecnología después de una eliminación gradual de seis meses. La empresa entonces presentar un caso Según una nota del 5 de marzo del director ejecutivo de Anthropic, Dario Amody.

Mientras tanto, se dice que algunos miembros del Pentágono Claude es difícil de abandonar.Modelo de IA de Anthropic.

En febrero, Anthropologie Anunció una actualización de su política de seguridad de IATambién se conoce como política de escalamiento responsable. La compañía dijo que se vio obligada a repensar sus políticas de seguridad, consideradas por algunos. El más poderoso de la industria. — debido a una variedad de factores, incluido el énfasis del gobierno federal en el crecimiento económico por encima de las normas de seguridad.

Entonces, quienquiera que consiga ese puesto de director de políticas se encontrará en el centro de un debate explosivo. Sin mencionar, potencialmente, la capacidad de ayudar resistencia La amenaza Skynet del futuro.

Enlace fuente