Home Noticias Los fabricantes de chatbots de IA que ponen en riesgo a los...

Los fabricantes de chatbots de IA que ponen en riesgo a los niños se enfrentan a grandes multas o prohibiciones en el Reino Unido. Seguridad en Internet

17

Los creadores de chatbots de inteligencia artificial que ponen en riesgo a los niños podrían enfrentar fuertes multas o incluso ver bloqueados sus servicios en virtud de un cambio de ley en el Reino Unido que Kier Starmer anunciará el lunes.

Después de que la protesta pública del mes pasado llevó a X de Elon Musk a impedir que su herramienta Grok AI produzca imágenes sexuales de personas reales en el Reino Unido, los ministros están planeando una “represión contra el contenido ilegal escandaloso creado por AI”.

Dado que cada vez más niños utilizan chatbots para todo, desde la tarea hasta el apoyo a la salud mental, el gobierno dijo que “actuaría rápidamente para cerrar un vacío legal y obligar a todos los proveedores de chatbots de IA a cumplir con el impuesto sobre contenido ilegal de la Ley de Seguridad en Línea o enfrentar las consecuencias de violar la ley”.

Starmer planea seguir adelante con nuevas restricciones al uso de las redes sociales por parte de niños si son acordadas por los parlamentarios luego de una consulta pública sobre una posible prohibición para menores de 16 años. Esto significa que cualquier cambio en el uso de las redes sociales por parte de los niños, que podría incluir otras medidas como limitar el desplazamiento infinito, podría ocurrir tan pronto como este verano.

Pero los conservadores desestimaron las demandas del gobierno de actuar rápidamente como “más humo y espejos” porque la consulta aún no ha comenzado.

“No es creíble afirmar que están tomando ‘medidas inmediatas’ cuando su llamado consejo de emergencia ni siquiera existe”, dijo Laura Trott, la secretaria de educación en la sombra. “El Partido Laborista ha dicho repetidamente que no tiene opinión sobre si se debe impedir que los menores de 16 años accedan a las redes sociales. Eso no es suficiente. Tengo claro que debemos impedir que los menores de 16 años accedan a estas plataformas”.

Las medidas se producen después de que el regulador en línea Ofcom admitiera que carece del poder para actuar contra Grok porque las imágenes y videos creados por un chatbot sin buscar en Internet no están dentro del alcance de las leyes existentes, a menos que equivalgan a pornografía. Los cambios para someter a los chatbots de IA a las leyes de seguridad en línea podrían ocurrir en unas semanas, aunque la laguna jurídica se conoce desde hace más de dos años.

“La tecnología avanza muy rápido y la ley tiene que seguir el ritmo”, dijo Starmer. “La acción que tomamos con Grok envió un mensaje claro de que ninguna plataforma tiene vía libre. Hoy estamos cerrando las lagunas que ponen a los niños en riesgo y sentando las bases para los próximos pasos”.

Las empresas que violen las leyes de seguridad en línea pueden enfrentar sanciones de hasta el 10% de los ingresos globales, y los reguladores pueden solicitar a los tribunales el bloqueo de sus conexiones con el Reino Unido.

Si los chatbots de IA se utilizan específicamente como motores de búsqueda, para crear pornografía u operar en contextos de usuario a usuario, ya están cubiertos por la ley. Pero pueden usarse para crear material que anime a las personas a autolesionarse o quitarse la vida, o incluso para crear material de abuso sexual infantil, sin enfrentar ninguna sanción. Ésa es la laguna que el gobierno dice querer cerrar.

El director ejecutivo de NSPCC, Chris Sherwood, dijo que los jóvenes se comunican con líneas de ayuda para informar sobre los daños causados ​​por los chatbots de IA y no confían en que las empresas de tecnología los diseñen de forma segura.

En un caso, una niña de 14 años que habló con un chatbot de IA sobre sus hábitos alimentarios y su dismorfia corporal estaba mal informada. Entre otros, encontraron que “los jóvenes que se autolesionan tienen incluso más contenido de autolesión”.

“Las redes sociales han creado grandes beneficios para los jóvenes, pero también un gran daño”, afirmó Sherwood. “La IA consumirá esteroides si no tenemos cuidado”.

Se contactó a OpenAI, la startup de San Francisco de 500 mil millones de dólares detrás de ChatGPT, uno de los chatbots más populares del Reino Unido, y xAI, que fabrica Grok, para solicitar comentarios.

Después de que Adam Raine, de California, de 16 años, se quitara la vida, según alegó su familia, “meses de estímulo de ChatGPT”, OpenAI introdujo controles parentales y tecnología de predicción de edad para limitar el acceso a contenido potencialmente dañino.

El gobierno también sugerirá obligar a las plataformas de redes sociales a imposibilitar que los usuarios envíen y reciban fotografías de niños desnudos, una práctica que ya es ilegal.

La secretaria de Tecnología, Liz Kendall, dijo: “No esperaremos a que las familias tomen las medidas necesarias, por lo que endureceremos las reglas sobre los chatbots de IA y sentaremos las bases para que podamos actuar rápidamente sobre los resultados de los consejos sobre los jóvenes y en las redes sociales”.

La Fundación Molly Rose, fundada por el padre de Molly Russell, de 14 años, quien se suicidó después de ver contenido dañino en línea, calificó las medidas como un “pago inicial bienvenido”. Pero pidió al Primer Ministro que se comprometa con una nueva ley de seguridad en línea “que fortalezca la regulación y deje claro que la seguridad de los productos y el bienestar de los niños son los costos de hacer negocios en el Reino Unido”.

En el Reino Unido, el NSPCC Brinda apoyo a niños al 0800 1111 y a adultos preocupados por un niño al 0808 800 5000.Napak) ofrece apoyo para sobrevivientes adultos al 0808 801 0331. En EE. UU., llame o envíe un mensaje de texto infancia Línea directa de abuso al 800-422-4453. En Australia, niños, jóvenes, padres y profesores pueden comunicarse Línea de ayuda para niños 18.00 55 a las 18.00; Los sobrevivientes adultos pueden buscar ayuda Fundación Nudo Azul al 1300 657 380. Puede encontrar otras fuentes de ayuda aquí Línea de ayuda infantil internacional

Enlace fuente