Home Smartwatch OpenAI dice que el nuevo modelo GPT-5.2 es “seguro” para la salud...

OpenAI dice que el nuevo modelo GPT-5.2 es “seguro” para la salud mental

4

Hoy, OpenAI lanzó GPT-5.2, promocionando su sólido desempeño en seguridad en salud mental.

“Con este lanzamiento, continuamos nuestro trabajo para fortalecer las respuestas de nuestros modelos a conversaciones emocionales, con mejoras significativas en cómo responden a modelos que indican síntomas de suicidio o autolesión, problemas de salud mental o dependencia emocional”. Publicación del blog de OpenAI Estados

OpenAI ha sido objeto recientemente de críticas y demandas, acusando a ChatGPT de contribuir a la psicosis, paranoia y confusión de algunos usuarios. Algunos de estos usuarios se suicidaron después de largas conversaciones con chatbots de IA, un problema bien documentado de adulación.

En respuesta a una demanda por muerte por negligencia por el suicidio de Adam Raine, de 16 años, OpenAI negó que LLM fuera responsable, afirmó que ChatGPT ordenó al adolescente que buscara ayuda para sus pensamientos suicidas y dijo que el adolescente “abusó” de la plataforma. Al mismo tiempo, OpenAI ChatGPT ha prometido mejorar su respuesta Cuando los usuarios presentan señales de advertencia de autolesión y crisis de salud mental. A medida que muchos usuarios forman vínculos emocionales con los chatbots de IA como ChatGPT, las empresas de IA se enfrentan a un escrutinio cada vez mayor por sus medidas de seguridad para proteger a los usuarios.

Ahora, OpenAI afirma que sus últimos modelos ChatGPT proporcionarán “menos comentarios no deseados” en situaciones delicadas.

Velocidad de la luz triturable

Al anunciar GPT-5.2 en una publicación de blog, OpenAI dice que GPT-5.2 obtiene puntuaciones más altas en pruebas de seguridad de salud mental, dependencia psicológica y autolesiones que el modelo GPT-5.1. Anteriormente, OpenAI dijo que estaba utilizando “terminación segura”. Nuevos procedimientos de formación en seguridad. Ese equilibrio ayuda y da seguridad. Más información sobre el rendimiento del nuevo modelo está disponible. 5.2 Tarjeta del sistema.


Crédito: Captura de pantalla: OpenAI

Sin embargo, la compañía también observó que GPT-5.2 rechaza menos solicitudes de contenido para adultos, particularmente texto sexualizado. Pero aparentemente no afecta a los usuarios que OpenAI sabe que son menores de edad, ya que la compañía dice que sus protecciones de edad “parecen estar funcionando bien”. OpenAI implementa protecciones de contenido adicionales para menores, incluida la reducción del acceso a contenido que contenga violencia, sangre, desafíos virales, roles de naturaleza sexual, romántica o violenta y “estándares de belleza extremos”.

También se está trabajando en un modelo de predicción de edad, que ayudará a ChatGPT a estimar la edad de sus usuarios para ayudar a ofrecer contenido más apropiado para la edad de los usuarios más jóvenes.

A principios de este otoño, OpenAI introdujo controles parentales en ChatGPT, incluido el monitoreo y la restricción de ciertos tipos de uso.

OpenAI no es la única empresa de inteligencia artificial acusada de plantear problemas de salud mental. El año pasado, un La madre demandó al personaje Después de la muerte de su hijo por suicidio, y otra demanda que afirma que los niños fueron gravemente dañados por “personajes” de esa plataforma. Character.AI ha sido declarado inseguro para adolescentes por expertos en seguridad en línea. De manera similar, los chatbots de IA en varias plataformas, incluida OpenAI, han sido declarados inseguros para la salud mental de los adolescentes, según expertos en protección infantil y salud mental.

Si tiene sentimientos suicidas o está experimentando una crisis de salud mental, hable con alguien. Puede llamar o enviar un mensaje de texto al 988 Suicide and Crisis Lifeline 988, o chatear aquí 988lifeline.org. Puede comunicarse con Trans Lifeline llamando a Trevor Project al 877-565-8860 o al 866-488-7386. Envíe “START” a la línea de texto de crisis al 741-741. Comuníquese con la línea de ayuda de NAMI al 1-800-950-NAMI, de lunes a viernes de 10:00 a. m. a 10:00 p. m. ET o correo electrónico (correo electrónico protegido). Si no te gusta el teléfono, considera usarlo. 988 Chat de línea de vida de crisis y suicidio. Aquí hay uno Lista de recursos internacionales.


Divulgación: Jeff Davis, la empresa matriz de Mashable, presentó una demanda contra OpenAI en abril, alegando que violó los derechos de autor de Jeff Davis al entrenar y operar sus sistemas de IA.

Enlace fuente