Home Técnica Funcionarios de Florida dicen que ChatGPT ayudó a planificar el tiroteo en...

Funcionarios de Florida dicen que ChatGPT ayudó a planificar el tiroteo en FSU

22

En abril de 2025, un Un hombre abrió fuego en el campus de la Universidad Estatal de FloridaDos adultos murieron y seis resultaron heridos. El pistolero ha sido acusado de asesinato e intento de asesinato. Ahora, funcionarios de Florida están investigando a OpenAI, el creador del chatbot ChatGPT, para determinar si la empresa también debe ser considerada penalmente responsable.

El fiscal general de Florida, James Uthmeyer, dijo anuncio El 9 de abril, los funcionarios “se enteraron de que ChatGPT pudo haber sido utilizado para ayudar al asesino”.

“A medida que las grandes tecnológicas implementan estas tecnologías, no deberían, no pueden poner en riesgo nuestra seguridad”, añadió Uthmeyer.

en martesUthmeier inició una investigación criminal sobre OpenAI y ChatGPT.

Atlas de IA

(Divulgación: Jeff Davis, la empresa matriz de CNET, presentó una demanda contra OpenAI en 2025, alegando que violó los derechos de autor de Jeff Davis al entrenar y operar sus sistemas de IA).

Aunque ChatGPT y Otros chatbots Fue la primera vez que ChatGPT y OpenAI fueron objeto de una investigación criminal, ya que estuvieron involucrados en demandas por presunta participación en muerte y daños.

Un representante de OpenAI no respondió de inmediato a una solicitud de comentarios.

“El tiroteo masivo del año pasado en la Universidad Estatal de Florida fue una tragedia, pero ChatGPT no es responsable de este terrible crimen”, dijo un portavoz de la compañía a NPR.

El portavoz dijo que ChatGPT “proporciona respuestas objetivas a preguntas con información ampliamente disponible en fuentes públicas en Internet y no fomenta ni promueve actividades ilegales o dañinas”.

Dichos consejos sobre tipo de arma, munición, hora y lugar.

Las autoridades policiales y gubernamentales llevan a cabo una investigación criminal para determinar quién es penalmente responsable de un delito. un tiempo Conferencia de prensa del 21 de abril.Uthmeier dijo que se determinó que la investigación criminal era necesaria después de descubrir que los agentes habían dado importantes consejos al pistolero antes de cometer un crimen tan atroz.

“Las comunicaciones entre ChatGPT y el tirador revelaron que el chatbot aconsejó al tirador qué tipo de arma usar, qué arma llevaba, si un arma sería efectiva a corta distancia”, dijo Uthmeyer durante la conferencia de prensa, y agregó que el chatbot también aconsejó a qué hora del día y en qué área del campus interactuaría el tirador.

“Mis fiscales lo vieron y me dijeron que si hubiera sido una persona al otro lado de esa cortina, los habríamos acusado de asesinato”, dijo Uthmaier.

Sam Altman, un hombre blanco con cabello negro canoso, está sentado frente a un micrófono.

El director ejecutivo de OpenAI, Sam Altman, testificó ante un comité del Senado de EE. UU. en mayo de 2025.

Foto de Demetrius Freeman/The Washington Post vía Getty Images

¿Qué sigue?

La ley de Florida establece que “ayudar e instigar” es penalmente responsable del mismo delito. Sin embargo, dado que ChatGPT no es una persona, Uthmeier dijo que se trata de un “territorio inexplorado”, pero los funcionarios de Florida aún quieren determinar si OpenAI es culpable del crimen.

Uthmeier dijo que OpenAI ha sido citada por la Fiscalía Estatal Para múltiples políticas, información de empleados e información sobre tiroteos en la Universidad Estatal de Florida.

otros casos

Si bien esta es la primera vez que ChatGPT y OpenAI han sido el foco de una investigación criminal, la empresa y otros que han desarrollado chatbots no son ajenos a los litigios.

Los padres de un hombre de 23 años que se suicidó en julio de 2025 presentaron una demanda por muerte por negligencia contra OpenAI ese mismo año. Afirma que el chatbot empeoró su depresión y la empujó a suicidarse.

En octubre de 2025, OpenAI anunció que ChatGPT Actualizado para “reconocer y apoyar mejor a las personas en momentos de duelo”.

Gemini de Google fue nombrado recientemente en una demanda similar después de que la familia de un hombre de 36 años que murió por suicidio dijera que el chatbot lo ayudó a superarlo.

En respuesta a la demanda, Google dijo, En parte, que “Gemini no está diseñado para fomentar la violencia en el mundo real ni sugerir autolesiones”, y luego agregó: “En este caso, Gemini aclaró que refirió a la IA y a la persona a una línea directa de crisis muchas veces”.

Chatbot de inteligencia artificial foto de archivo

Centro de investigación Pew En 2025 se encuestó a 1.458 adolescentes estadounidenses y se descubrió que el 64% de ellos había utilizado un chatbot.

Andriy Onufrienko/Momento/Getty Images

Ambos casos aún están pendientes.

En respuesta a la investigación de Florida, Los abogados representan a una de las víctimas del tiroteo en la FSU dijeron que “planean presentar una demanda contra ChatGPT y su estructura de propiedad muy pronto, y buscan responsabilizarlos por la muerte prematura y sin sentido de nuestro cliente”.

Un portavoz de OpenAI dijo WCTV: “Nuestro más sentido pésame a todos los afectados por esta devastadora tragedia. Después de enterarnos del incidente a finales de abril de 2025, identificamos una cuenta ChatGPT que se cree que está asociada con el sospechoso, compartimos proactivamente esta información con las autoridades y cooperamos con las autoridades. Creamos ChatGPT para comprender la intención humana y continuar mejorando nuestra tecnología, y nuestra tecnología, para responder de manera segura y apropiada”.

Si usted o alguien que conoce está en peligro inmediato, llame al 911. Si tiene pensamientos negativos o sentimientos suicidas, hay recursos disponibles para ayudarlo. En los Estados Unidos, llame a la Línea Nacional de Prevención del Suicidio al 988.

Enlace fuente