Un importante grupo de defensa de la protección infantil ha impulsado una iniciativa electoral en todo el estado con OpenAI, que, según dice, sería la protección de inteligencia artificial para niños más completa del país.
Si la medida se somete a votación en noviembre y los votantes de California la aprueban, entonces Ley de IA segura para padres e hijos Las empresas deben adoptar un conjunto de requisitos destinados a proteger a los menores de los efectos potencialmente dañinos asociados con el uso de la IA y autorizar a los fiscales generales estatales a hacer cumplir esas reglas.
RELACIONADO: ¿Están prohibidas las redes sociales para los niños? El legislador de California dice que Australia está en lo cierto
“En este momento crítico para la IA, no podemos cometer el mismo error con las redes sociales, cuando las empresas nos utilizaban y ayudaban como conejillos de indias para nuestros hijos. Crisis de salud mental juvenil en Estados Unidos y en todo el mundo”, dijo en un comunicado James Steyer, fundador y director ejecutivo de Common Sense Media.
“Los niños y adolescentes necesitan barreras de protección de la IA ahora”, añadió. “Por eso seguiremos todos los caminos, desde la legislatura hasta las elecciones”.
El interés público en la seguridad de los niños en línea, especialmente cuando se trata de IA, ha crecido a lo largo de los años, impulsado por casos como la muerte de Adam Raine, de 16 años, del condado de Orange, cuyos padres demandaron al fabricante de ChatGPT OpenAI, alegando que su hijo fue entrenado por su chatbot antes de suicidarse el año pasado.
Ahora, la Ley de IA segura para padres e hijos exige que las empresas de IA utilicen tecnología de verificación de edad para determinar si alguien que utiliza su plataforma es menor de edad, y que los niños y adolescentes se vuelvan emocionalmente dependientes de los sistemas de IA o entablen relaciones románticas simuladas o piensen que están hablando con un ser humano.
También requerirá salvaguardias para evitar que los menores vean contenido generado por IA que promueva la autolesión, los trastornos alimentarios, la violencia y las actividades sexualmente explícitas; Prohibir la publicidad dirigida a menores de edad; Prohíbe a las empresas vender datos sobre menores sin el consentimiento de los padres; Y brinde a los padres control para monitorear o limitar el uso de la IA por parte de sus hijos y recibir alertas si sus hijos muestran signos de autolesión.
Además, exigiría que las empresas de IA realicen auditorías de seguridad independientes y evaluaciones anuales de riesgos de protección infantil, y permitiría al fiscal general investigar e imponer sanciones financieras a las empresas.
“Vemos esto como el cinturón de seguridad social para la era de la IA”, dijo Steyer durante una llamada con periodistas este mes.
RELACIONADO: Los padres de California afirman que OpenAI debilitó las protecciones antisuicidio del chatbot justo antes de la muerte del adolescente
Antes de lanzar Common Sense Media, Steyer fundó Children Now, una organización nacional de medios y defensa, y fue presidente y director ejecutivo de JP Kids, una empresa líder en medios educativos para niños. También enseñó lectura y matemáticas en escuelas urbanas y fue considerada una defensora de los niños durante mucho tiempo.
Durante la misma llamada de prensa, Chris Lehane, director de asuntos globales de OpenAI, dijo que la IA es una herramienta empoderadora que ayuda a las personas a resolver problemas complejos. También es fundamental, afirma, que los padres tengan el poder de controlar cómo sus hijos utilizan la tecnología.
Dijo que la esperanza de OpenAI es que las protecciones descritas en la iniciativa electoral propuesta no solo se adopten en California, sino que sirvan como modelo para otros estados e incluso el gobierno federal.
“Al final del día, creo que esto realmente significa un esfuerzo por defender el bien común”, dijo Lehane.
Y añadió: “Estamos en la cúspide de la era de la inteligencia. Intentemos arreglarlo”.
La Ley de IA segura para padres y niños representa una fusión de dos iniciativas electorales anteriores introducidas el año pasado: una en Common Sense Media y la otra en OpenAI. Representantes de las dos organizaciones dijeron que decidieron trabajar juntos en una propuesta única en lugar de confundir a los votantes con medidas contrapuestas.
Common Sense Media fue la iniciativa electoral original Similar a una factura Ese gobierno. Gavin Newsom lo vetó el año pasado.
Poco después, OpenAI introdujo su propia medida electoral, que esencialmente refleja que Un proyecto de ley que Newsom ya firmó El proyecto de ley, promulgado el otoño pasado, requeriría que las empresas informen a los usuarios que un chatbot complementario es generado por IA si una persona razonable pudiera confundirlo con una interacción humana real, y les exigiría adoptar protocolos para evitar que los chatbots creen contenido que promueva el suicidio o la autolesión.
Al combinar los dos sistemas, se omiten los medios de sentido común. Las dos disposiciones anteriores. Uno prohibía a los estudiantes usar teléfonos inteligentes durante la jornada escolar. Otra disposición exige que las escuelas enseñen conocimientos y seguridad en materia de IA para ayudar a los estudiantes a comprender cómo utilizar la IA de forma responsable y ética.
Los partidarios de la iniciativa tienen hasta el 24 de junio para reunir las decenas de miles de firmas de votantes que necesitan para que la propuesta se incluya en la boleta electoral de noviembre.











