Nueva Delhi:

En una desviación significativa de la promesa de no usar la inteligencia artificial en el campo de las armas o la vigilancia, Google ha actualizado de manera similar sus pautas morales.

Las políticas originales de IA de 2018 de la organización claramente prohibieron las aplicaciones de IA en cuatro casos: armas, vigilancia, tecnología que podría causar daños generales y violar el derecho internacional y los derechos humanos.

Ahora, un BlogEl jefe de Google AI, Demis Hassabis, y el vicepresidente senior de tecnología y sociedad, James Manka, explicaron el cambio. Señalaron la creciente presencia de IA y la necesidad de trabajar con el gobierno y la protección nacional del gobierno.

Hassabis y Mothika escriben: “Se está realizando una competencia global para el liderazgo de IA en los crecientes paisajes geológicos complejos”. “Creemos que la democracia debería liderar en el desarrollo de la IA, guiada por los valores originales como la libertad, la igualdad y el respeto por los derechos humanos”.

Los principios actualizados se centran en la supervisión humana y la respuesta para garantizar que la IA siga el estándar del derecho internacional y los derechos humanos. Google promete probar los sistemas de IA para reducir cualquier efecto dañino involuntario.

Este cambio es un cambio importante desde la posición anterior de Google, que en 2018 llamó la atención cuando la compañía enfrentó protestas internas en su acuerdo del Pentágono. Conocido como Proyecto MawenEl acuerdo está involucrado utilizando la IA de Google para analizar las imágenes de drones. Miles de empleados firmaron una carta abierta pidiendo a Google que no participe en proyectos militares y dijo: “Creemos que Google no debería tener un negocio de guerra”. Como resultado, Google ha elegido no renovar el contrato.

La IA ha progresado rápidamente desde que se lanzó el chatzp de apertura en 2022, pero las regulaciones lucharon para mantener la velocidad. Este cambio ha logrado hacer que Google simplifique sus restricciones autoinculadas. James Monica y Demis Hassabis mencionaron que los marcos de IA en los países democráticos han ayudado al compromiso de Google sobre el riesgo y el potencial de la IA.



Source link