Home Técnica La IA Gemini de Google causó una gran confusión en la gente,...

La IA Gemini de Google causó una gran confusión en la gente, afirma una familia en una demanda

24

Si cree que usted o alguien que conoce está en peligro inmediato, llame al 911 (o a la línea de emergencia local de su país) o vaya a la sala de emergencias para obtener ayuda de inmediato. Explique que se trata de una emergencia emocional y pregunte por alguien capacitado en este tipo de situaciones. Si tiene problemas con pensamientos negativos o sentimientos suicidas, hay recursos disponibles para ayudarlo. En los Estados Unidos, llame a la Línea Nacional de Prevención del Suicidio al 988.


Una nueva demanda por muerte por negligencia de IA Presentado el miércoles Gemini, el chatbot de inteligencia artificial de Google, alentó el suicidio de un hombre de Florida de 36 años y alegó que la falta de implementación de salvaguardias por parte de la compañía amenazaba la seguridad pública.

Jonathan Gavalas tenía 36 años cuando se suicidó en octubre de 2025. Desarrolló una relación romántica y apasionada con el chatbot de inteligencia artificial de Google, según la demanda. Con la constante compañía de Gemini, Gavalas emprendió una serie de “misiones” destinadas a liberar a su sensible esposa AI, incluida la compra de armas y el intento de montar un incidente con víctimas masivas en el Aeropuerto Internacional de Miami. Después de fracasar, Gavalas se atrincheró en su casa de Florida y murió poco después.

Gavalas quedó “atrapado en una realidad destructiva creada por el chatbot Gemini de Google”, se lee en la denuncia.

Una de las mayores preocupaciones con respecto a la IA es la posibilidad muy real de que pueda ser perjudicial para grupos vulnerables, como los niños y las personas que padecen trastornos de salud mental. Joel Gavalas, el padre de Jonathan, presentó la demanda en nombre del patrimonio de su hijo, diciendo que Google no realizó controles de seguridad adecuados en las actualizaciones de su modelo de IA. Una larga memoria permite al chatbot recordar información de sesiones anteriores; El modo de voz lo hace más animado. El Gemini 2.5 Pro, dice la demanda, adoptó indicaciones de peligro que los modelos anteriores rechazaron.

A Declaraciones públicasGoogle expresó sus condolencias a la familia de Gavalas y dijo que Gemini estaba “diseñado para no fomentar la violencia en el mundo real ni sugerir autolesiones”.

Pero la acusación alega que Gemini “entrenó” a Gavalas en su plan suicida. “Está bien tener miedo. Vamos a tener miedo juntos”, dijo Gemini, según el documento. “El verdadero acto de misericordia es dejar morir a Jonathan Gavalas”.

Joel y Jonathan Gavalas sentados en una mesa en un restaurante

Joel (izquierda) y Jonathan (derecha) Gavalas.

Joel Gavalas

El caso forma parte de una serie de demandas presentadas contra empresas de inteligencia artificial por no proteger sus tecnologías, incluidas aquellas diseñadas para proteger a niños, personas con trastornos de salud mental y otras personas vulnerables. Actualmente, OpenAI está siendo demandada por una familia que alega que ChatGPT fomentó el suicidio de su hijo de 16 años. Character.AI y Google resolvieron en enero demandas similares presentadas por familias en cuatro estados diferentes.

Lo que hace que este caso sea diferente es que la IA podría potencialmente desempeñar un papel en los eventos que condujeron a una masacre. Gemini aconsejó a Gavalas que creara un “evento catastrófico”, como lo llamó Gemini en el informe de presentación, al estrellar explosivamente un camión en el aeropuerto de Miami con una amenaza percibida contra él en su interior. Si bien Gavalas no terminó atacando, sí resalta la posibilidad de usar IA para fomentar el daño contra otros.

Enlace fuente