Home Smartwatch China quiere controlar los efectos psicológicos de la IA

China quiere controlar los efectos psicológicos de la IA

22

China está redactando nuevas y estrictas regulaciones sobre inteligencia artificial que podrían encaminar al país a convertirse en el primero en regular las respuestas emocionales de los compañeros de chatbot.

Ver también:

ChatGPT está cambiando el panorama del aborto

Los detalles se detallan en un nuevo borrador de propuesta escrito por la Administración del Ciberespacio de China. Traducido por CNBCLa política requiere el consentimiento de los padres para que los menores interactúen con compañeros de chatbot, así como la verificación de la edad. A los chatbots de IA no se les permitirá generar contenido relacionado con los juegos de azar, obsceno o violento ni entablar conversaciones sobre suicidio, autolesiones u otros temas que puedan dañar la salud mental del usuario. Además, los “proveedores” de tecnología deben instituir cada vez más protocolos que conecten a moderadores humanos con usuarios angustiados y señalen conversaciones riesgosas con los padres.

Los reguladores chinos dicen que la intención es centrarse no sólo en la seguridad del contenido sino también en la seguridad emocional, incluido el seguimiento de los chats para detectar dependencia psicológica y adicción.

Velocidad de la luz triturable

Es uno de los primeros conjuntos de leyes diseñadas para regular específicamente las herramientas de IA antropomórficas, dicen los expertos. Con ese fin, las reglas se aplicarán a “cualquier herramienta de inteligencia artificial diseñada para imitar personalidades humanas e involucrar emocionalmente a los usuarios a través de texto, imágenes, audio o video”, informó CNBC.

Ver también:

Haga de 2026 el año en que sus hijos apaguen sus dispositivos

Las reglas propuestas por China reflejan varias disposiciones de la ley de IA de California recientemente aprobada, conocida como SB 243, firmada por el gobernador Gavin Newsom en octubre. La ley exige restricciones de contenido más estrictas, recordatorios a los usuarios de que están hablando con IA no humana, así como protocolos de emergencia para hablar sobre el suicidio. Algunos expertos criticaron el proyecto de ley por no ir lo suficientemente lejos para proteger a los usuarios menores, dejando margen para que las empresas de tecnología eviten la vigilancia.

Mientras tanto, la administración Trump ha suspendido una mayor regulación de la IA a nivel estatal a favor de un “marco nacional para la protección de la IA”. La orden ejecutiva retiene fondos federales para infraestructura de los estados que fortalecen la supervisión de la IA. Los líderes federales sostienen que una mayor regulación de la IA sofocará la innovación nacional y empujará a Estados Unidos detrás de China en la carrera mundial de la IA.

Enlace fuente