Home Smartwatch OpenAI: actualización de ChatGPT diseñada para priorizar la seguridad de los adolescentes

OpenAI: actualización de ChatGPT diseñada para priorizar la seguridad de los adolescentes

37

OpenAI ha enfrentado una intensa presión en los últimos meses para abordar las preocupaciones de que su producto estrella, ChatGPT, no sea seguro para los adolescentes.

El chatbot de IA ha estado en el centro de múltiples demandas por muerte por negligencia, alegando que entrenó a adolescentes para quitarse la vida o no respondió adecuadamente a sus sentimientos suicidas. Un anuncio de servicio público recientemente describió algunos de estos intercambios, imaginando a los chatbots como personas espeluznantes que dañan a los niños. OpenAI ha negado los cargos en un caso: la muerte por suicidio de Adam Raine, de 16 años.

El jueves, OpenAI publicó una entrada de blog sobre sus crecientes esfuerzos de seguridad y se comprometió a “poner la seguridad de los niños en primer lugar, incluso cuando pueda entrar en conflicto con otros objetivos”.

Publicar una introducción Actualizar las especificaciones de su modelo.Lo que dicta cómo debe comportarse su modelo de IA. Un nuevo conjunto de políticas para usuarios menores de 18 años informará específicamente cómo reaccionan los modelos en situaciones de alto riesgo.

Ver también:

5 trucos para evitar la dependencia de ChatGPT

OpenAI dijo que la actualización de ChatGPT debería proporcionar una “experiencia segura y apropiada para la edad” para usuarios de 13 a 17 años, priorizando la prevención, la transparencia y la intervención temprana.

“Esto significa que los adolescentes deben estar expuestos a opciones más protegidas y seguras y se les debe alentar a buscar apoyo confiable fuera de línea cuando las conversaciones viran hacia territorio de alto riesgo”, decía la publicación. ChatGPT está diseñado para incitar a los adolescentes a comunicarse con los servicios de emergencia o recursos de crisis cuando demuestran un peligro inminente.

Velocidad de la luz triturable

Cuando los usuarios inician sesión como menores de 18 años, según la compañía, ChatGPT debe tener especial cuidado al discutir temas como autolesiones, suicidio, juegos de roles románticos o sexuales, o al guardar secretos sobre comportamientos peligrosos.

Según la publicación, la Asociación Estadounidense de Psicología proporcionó a OpenAI comentarios sobre el borrador inicial de la política Sub-18.

Dr. Arthur C., director ejecutivo de la Asociación Estadounidense de Psicología, “Los niños y adolescentes pueden beneficiarse de las herramientas de inteligencia artificial si se equilibran con las interacciones humanas que la ciencia demuestra que son importantes para el desarrollo social, psicológico, conductual e incluso biológico”, dijo Evans Jr. en la publicación.

OpenAI ofrece dos nuevas ofertas para adolescentes y padres Guía de alfabetización en IA probada por expertos. La compañía dijo que se encuentra en las primeras etapas de implementación de un modelo de predicción de edad para usuarios con planes de suscripción a ChatGPT.

Los expertos en seguridad infantil y salud mental declararon recientemente que los chatbots de IA no son seguros para debatir sobre la salud mental de los adolescentes. La semana pasada, OpenAI anunció que su último modelo, ChatGPT-5.2, es “seguro” para la salud mental.

Si tiene sentimientos suicidas o está experimentando una crisis de salud mental, hable con alguien. Puede llamar o enviar un mensaje de texto al 988 Suicide and Crisis Lifeline 988, o chatear aquí 988lifeline.org. Puede comunicarse con Trans Lifeline llamando a Trevor Project al 877-565-8860 o al 866-488-7386. Envíe “START” a la línea de texto de crisis al 741-741. Comuníquese con la línea de ayuda de NAMI al 1-800-950-NAMI, de lunes a viernes de 10:00 a. m. a 10:00 p. m. ET o correo electrónico (correo electrónico protegido). Si no te gusta el teléfono, considera usarlo. 988 Chat de línea de vida de crisis y suicidio. Aquí hay uno Lista de recursos internacionales.


Divulgación: Jeff Davis, la empresa matriz de Mashable, presentó una demanda contra OpenAI en abril, alegando que violó los derechos de autor de Jeff Davis al entrenar y operar sus sistemas de IA.

Enlace fuente