Home Técnica Google sigue adelante con el acuerdo de IA con el Pentágono a...

Google sigue adelante con el acuerdo de IA con el Pentágono a pesar de la oposición de los empleados

48

Según se informa, Google firmó un acuerdo que permite al Departamento de Defensa de EE. UU. utilizarlo modelo de IA Para el trabajo clasificado, una carta abierta de cientos de empleados instó a la empresa a mantenerse alejada del uso militar que, según dicen, podría volverse peligroso o imposible de supervisar.

acuerdo, Según información reportada el martes tempranoPermite que el Pentágono utilice las herramientas de inteligencia artificial de Google para “cualquier propósito gubernamental legal”, incluidas aplicaciones militares sensibles. Google se suma AbiertoAI y xAI, que llegó a un acuerdo similar sobre IA clasificada con el Pentágono.

El acuerdo informado incluye lenguaje de que el sistema de inteligencia artificial de Google no está destinado a armas autónomas sin vigilancia masiva nacional o supervisión humana adecuada. Pero también dice que Google no tiene derecho a controlar o vetar decisiones operativas gubernamentales legítimas. Informe. Google también ayudará a ajustar la configuración y los filtros de seguridad a petición del gobierno.

Un portavoz de Google dijo a CNET en una declaración enviada por correo electrónico que la compañía está comprometida con la posición de que la IA no debe usarse para vigilancia masiva doméstica o armas autónomas sin supervisión humana, y dijo que proporcionar acceso API a modelos comerciales bajo prácticas estándar es un “enfoque responsable” para apoyar la seguridad nacional.

El Pentágono se negó a hacer comentarios a CNET.

El acuerdo llega en medio de una reacción interna. en un Una carta abierta al director ejecutivo Sundar PichaiMás de 600 trabajadores de Google han pedido a la empresa que “se niegue a poner nuestros sistemas de inteligencia artificial a disposición de cargas de trabajo clasificadas”. Los empleados escribieron que debido a que trabajan con la tecnología, tienen la “responsabilidad de resaltar y prevenir los usos más poco éticos y peligrosos.

“Queremos que la IA beneficie a la humanidad, no que se utilice de forma inhumana o altamente dañina”, decía la carta. Los empleados dijeron que sus preocupaciones incluyen armas autónomas mortales y vigilancia masiva, pero van más allá de esos ejemplos porque el trabajo clasificado puede ocurrir sin el conocimiento o la capacidad de los empleados para detenerlo.

La tensión se hace eco de la revuelta interna más destacada de Google. En 2018, Miles de trabajadores protestaron por el Proyecto MavenUn programa del Pentágono que implica análisis de IA de imágenes de drones. Google eligió más tarde Ese contrato no se renovó..

La actitud de la empresa hacia la IA militar y de seguridad nacional ha cambiado desde entonces.

El año pasado, Google eliminó el lenguaje anterior de sus políticas de inteligencia artificial que decía que no buscaría tecnologías que violen los principios de daño colectivo, armas, ciertas tecnologías de vigilancia o sistemas que violen principios ampliamente reconocidos de derechos humanos y derecho internacional.

A Publicación de blog de febrero que actualiza las políticas de inteligencia artificial de GoogleEl director ejecutivo de Google DeepMind, Demis Hassabis, y el vicepresidente senior, James Manica escribió que “la democracia debería liderar el desarrollo de la IA” y que las empresas y los gobiernos deberían trabajar juntos para crear una IA que “proteja a las personas, promueva el crecimiento global y apoye la seguridad nacional”.

Para los empleados de Google que se oponen al acuerdo, la preocupación no es sólo que la IA pueda ser utilizada por los militares, sino que el despliegue clasificado elimine la visibilidad normal sobre cómo se utiliza un modelo.

“Me siento increíblemente avergonzado”, escribió Andreas Kirsch, investigador de Google DeepMind. Publicaciones públicas en X Respuesta a Acuerdos Reportados.

La carta abierta de los empleados de Google termina con un llamamiento directo al director general de Google: “Hoy, Sundar, le pedimos que actúe según los valores sobre los que se fundó esta empresa y rechace las cargas de trabajo jerárquicas”.

Enlace fuente