Home Smartwatch OpenAI ha negado su responsabilidad por la muerte por suicidio del adolescente

OpenAI ha negado su responsabilidad por la muerte por suicidio del adolescente

1

Según una nueva respuesta presentada ante el tribunal el martes, OpenAI niega rotundamente las acusaciones contra la empresa de que sea responsable del suicidio de Adam Raine.

Raine murió en abril de 2025, después de una intensa interacción con ChatGPT que incluyó discusiones detalladas sobre sus pensamientos suicidas. La familia de la joven de 16 años demandó a OpenAI y al director ejecutivo Sam Altman en agosto, alegando que ChatGPT validó sus pensamientos suicidas y le dio instrucciones claras sobre cómo podía morir. Incluso se ofreció a escribir una nota de suicidio para Rain, afirmaron sus padres.

En su primera respuesta a la denuncia de la familia Raine, OpenAI argumentó que ChatGPT no contribuyó a la muerte de Adam. En cambio, la compañía identificó su comportamiento, junto con su historial de salud mental, como la fuerza impulsora detrás de su muerte, que la presentación describió como una “tragedia”.

Ofertas recomendadas para ti

Auriculares inalámbricos Apple AirPods Pro 3 con cancelación de ruido y frecuencia cardíaca


$219.99

(Precio de lista $249.00)

Tableta Apple iPad de 11″ y 128 GB con Wi-Fi Retina (azul, versión 2025)


$274.00

(Precio de lista $349.00)

Auriculares inalámbricos con cancelación de ruido Sony WH-1000XM5


$248.00

(Precio de lista $399,99)

Cámara de seguridad Blink Outdoor 4 1080p (paquete de 5)


$159.99

(Precio de lista $399,99)

Dispositivo de transmisión Fire TV Stick 4K con control remoto (modelo 2023)


$24.99

(Precio de lista $49,99)

Auriculares Bose Quiet Comfort ultra inalámbricos con cancelación de ruido


$298.00

(Precio de lista $429.00)

Robot aspirador Shark AV2511AE AI con base autovaciable XL


$249.99

(Precio de lista $599.00)

Apple Watch Series 11 (GPS, 42 mm, correa deportiva negra S/M)


$339.00

(Precio de lista $399.00)

Disco duro externo portátil WD 6TB My Passport USB 3.0


$138.65

(Precio de lista $179,99)

Tableta Amazon Fire HD 10 de 32 GB (versión 2023, negra)


$69.99

(Precio de lista $139,99)

Productos disponibles para su compra a través de enlaces de afiliados. Si compra algo a través de un enlace en nuestro sitio, Mashable puede recibir una comisión de afiliado.

Ver también:

Expertos: los chatbots con IA no son seguros para la salud mental de los adolescentes

OpenAI afirma que todo el historial de chat de Rain indica que ChatGPT le indicó más de 100 veces que buscara ayuda para sus sentimientos suicidas y que ella “no actuó con precaución, no buscó ayuda ni ejerció un cuidado razonable”. La agencia también sostiene que las personas que rodeaban a Raine “no respondieron a las señales obvias de su angustia”.

Además, Raine le dijo a ChatGPT que un nuevo medicamento para la depresión exacerbó sus pensamientos suicidas. El medicamento sin nombre tiene un recuadro negro de advertencia por aumentar la ideación suicida en adolescentes, según el documento.

OpenAI alega que Raine buscó y recibió información detallada sobre el suicidio en otros lugares en línea, incluidas otras plataformas de inteligencia artificial. La compañía también acusa a Raine de hablar sobre suicidio con ChatGPT, una violación de la política de uso de la plataforma e intentar eludir vallas para obtener información sobre procedimientos de suicidio. OpenAI, sin embargo, no detiene la conversación sobre el suicidio.

“Por cualquier ‘causa’ que pueda atribuirse a este trágico incidente, las supuestas lesiones y daños del demandante fueron causados ​​o contribuidos directa y sustancialmente, en su totalidad o en parte, por el mal uso, el uso no autorizado, el uso no intencionado, el uso inesperado y/o el uso inapropiado de Chat GPT por parte de Adam Raine”.

Jay Edelson, abogado principal en el caso de muerte por negligencia de Raines, describió la respuesta de OpenAI como “repugnante”.

Velocidad de la luz triturable

“(O)penAI intenta encontrar fallas en todos los demás, irónicamente, argumentando que el propio Adam violó los términos de ChatGPT al interactuar con él de la forma en que fue programado para funcionar”, dijo Edelson en un comunicado.

Señaló que la respuesta de la compañía no aborda varios reclamos en la demanda, incluido que el modelo GPT-4o anterior, que usó Rain, fue lanzado al público “sin pruebas exhaustivas” debido a la competencia en el mercado, y que la compañía cambió sus pautas para ChatGPT para participar en discusiones sobre autolesiones.

La empresa reconoció que necesitaba mejorar la capacidad de respuesta de ChatGPT conversación emocionalincluidos los relacionados con la salud mental. Altman ha admitido públicamente Que el modelo GPT-4o era demasiado “adulador”.

Algunas de las salvaguardas citadas en los documentos de OpenAI, incluidos los controles parentales y un Consejo Asesor de Bienestar integrado por expertos, se introdujeron después de la muerte de Raine.

A Publicación de blog publicada el martes.OpenAI dice que su objetivo es responder a los casos relacionados con la salud mental con cuidado, transparencia y respeto.

La compañía agregó que está revisando las nuevas presentaciones legales, que incluyen siete demandas que alegan que el uso de ChatGPT ha implicado muerte por negligencia, suicidio asistido y homicidio involuntario, entre otras demandas de responsabilidad y negligencia. El Tech Justice Law Project y el Social Media Victims Law Center presentaron las denuncias en noviembre.

Seis casos involucraron a adultos. El séptimo caso se centra en Amaury Lacey, de 17 años, quien originalmente usó ChatGPT como ayuda con las tareas. Lacey finalmente compartió pensamientos suicidas con el chatbot, que supuestamente proporcionó información detallada de que Lacey solía suicidarse.

Una revisión reciente de los principales chatbots de IA, incluido ChatGPT, realizada por expertos en salud mental de adolescentes encontró que ninguno de ellos es lo suficientemente seguro para discutir problemas de salud mental. Los expertos han pedido a los creadores de esos chatbots (Meta, OpenAI, Anthropic y Google) que desactiven la funcionalidad de apoyo a la salud mental hasta que la tecnología del chatbot sea rediseñada para abordar los problemas de seguridad identificados por sus investigadores.

Si tiene sentimientos suicidas o está experimentando una crisis de salud mental, hable con alguien. Puede llamar o enviar un mensaje de texto a 988 Suicide and Crisis Lifeline al 988, o chatear aquí 988lifeline.org. Puede comunicarse con Trans Lifeline llamando a Trevor Project al 877-565-8860 o al 866-488-7386. Envíe “START” a la línea de texto de crisis al 741-741. Comuníquese con la línea de ayuda de NAMI al 1-800-950-NAMI, de lunes a viernes de 10:00 a. m. a 10:00 p. m. ET o correo electrónico (correo electrónico protegido). Si no te gusta el teléfono, considera usarlo. 988 Chat de línea de vida de crisis y suicidio. Aquí hay uno Lista de recursos internacionales.


Divulgación: Jeff Davis, la empresa matriz de Mashable, presentó una demanda contra OpenAI en abril, alegando que violó los derechos de autor de Jeff Davis al entrenar y operar sus sistemas de IA.

Enlace fuente