En una publicación de blog del lunes, ChatGPT promocionó las mejoras que ha realizado en su modelo predeterminado, GPT-5, para detectar y responder a respuestas problemáticas de usuarios con ideas suicidas. Si bien la introducción de nuevas salvaguardias y psiquiatras para ayudar con el entrenamiento de GPT-5 está dando lugar a mejores respuestas de la IA a las indicaciones de salud mental, Publicación de blog También indicó algunos números que seguramente llamarán la atención.
Al explicar la capacidad del GPT-5 para detectar problemas graves de salud mental como psicosis y manía, la publicación señaló que las interacciones del usuario con el chatbot son “raras”.
“Aunque, como se señaló anteriormente, estas conversaciones son difíciles de detectar y cuantificar cuán raras son, nuestro análisis preliminar estima que aproximadamente el 0,07% de los usuarios activos y el 0,01% de los mensajes en una semana determinada indican posibles síntomas de una emergencia de salud mental relacionada con la psicosis o la manía”.
El porcentaje parece pequeño, pero ChatGPT tiene 800 millones de usuarios semanales, dijo Sam Altman, director ejecutivo de OpenAI, propietario de ChatGPT. Altman lo hizo Anuncio impactante En el DevDay de OpenAI a principios de este mes.
Sam Altman: ChatGPT volverá a ser más “amigable”, incluso eróticamente
Si las cifras de Altman son correctas, eso equivale a 560.000 usuarios de ChatGPT que muestran síntomas de psicosis o manía, y 80.000 de sus mensajes indican una emergencia de salud mental, según las estimaciones del sitio.
Velocidad de la luz triturable
ChatGPT continúa trabajando con sus modelos para identificar mejor los signos de autolesión y dirigir a esas personas a recursos como líneas directas de suicidio o a sus propios amigos o familiares. La publicación del blog sugiere que las conversaciones de ChatGPT sobre autolesión son raras, pero estima que “el 0,15% de los usuarios activos en una semana determinada tienen conversaciones que contienen indicadores claros de posible planificación o intención suicida, y el 0,05% de los mensajes contienen indicadores claros o implícitos de ideación o intención suicida”.
Con 800 millones de usuarios semanales, esto equivale a 1,2 millones de usuarios de ChatGPT que participan en conversaciones con IA sobre el suicidio en una semana determinada, y 400.000 mensajes de usuarios que muestran indicaciones directas o indirectas de intención suicida.
“Incluso un porcentaje muy pequeño de nuestra gran base de usuarios representa un número significativo de personas, y es por eso que nos tomamos este trabajo tan en serio”, dijo un portavoz de OpenAI a Mashable, y agregó que la compañía cree que la creciente base de usuarios de ChatGPT refleja la sociedad en general, donde los síntomas de salud mental y la angustia emocional están “universalmente presentes”.
El portavoz reiteró que las cifras de la compañía son estimaciones y “las cifras que proporcionamos pueden cambiar significativamente a medida que sepamos más”.
OpenAI se enfrenta actualmente a una demanda de los padres de Adam Raine, de 16 años, quien se suicidó mientras usaba ChatGPT a principios de este año. En una demanda legal recientemente modificada, Raines alega que OpenAI redujo dos veces las protecciones de prevención del suicidio para aumentar la participación en los meses previos a la muerte de su hijo.











