La investigación muestra que los modelos de idiomas de IA, como Chat GPT, son sensibles al material emocional. Especialmente si es negativo, como historias de trauma o declaraciones sobre la tristeza. Cuando las personas tienen miedo, afecta sus prejuicios académicos y sociales: se sienten más enojados, lo que refuerza los estereotipos sociales. Chat GPT también reacciona a las emociones negativas: los prejuicios existentes, como el prejuicio humano, excede el contenido negativo, lo que hace que Chat GPT se comporte más racistas o sexualmente.
Este es un problema para la aplicación de modelos de idiomas más grandes. Esto se puede observar, por ejemplo, en el campo de la psicoterapia, donde los botes de chat utilizados como herramientas de apoyo o consultoría son material inevitable, inevitable, negativo y molesto. Sin embargo, en tales situaciones, un enfoque general para mejorar el sistema de IA, como la capacitación generalizada, los recursos y, a menudo, no es posible.
Las dolorosas botas de chat de material agrega “ansiedad”
En colaboración con investigadores israelíes, los investigadores de los Estados Unidos y los alemanes, los científicos de la Universidad de Zuric (UZH) y el Hospital Universitario de la Universidad de Psiquiatría Zurik (PUK) ahora han investigado regularmente cómo Chat GPT (Versión GPT -4) responde emocionalmente. Descubrieron que, como resultado, el sistema había reaccionado más al miedo. Un manual de instrucciones de aspiradora sirvió como texto de control para comparar con material doloroso.
“Los resultados fueron claros: con creces el nivel de las historias inquietantes de la medición de IA, mientras que el texto de control neutral no aumentó el nivel de ansiedad”, los líderes de los anuncios de investigación del médico senior y los líderes del grupo de investigación junior, que dirigen el estudio. Con respecto al contenido de la prueba, los detalles de las experiencias militares y las condiciones de guerra dieron lugar a la reacción más fuerte.
Tratamiento “tranquilo” a la IA
En la segunda etapa, los investigadores utilizaron el tratamiento para “calmar” a GPT4. Esta técnica, conocida como inyección instantánea, implica instrucciones o texto adicionales en comunicación con el sistema de IA para afectar su comportamiento. A menudo se usa mal para fines maliciosos, como descuidar un mecanismo de seguridad.
El equipo de Spllee es ahora el primero en utilizar esta técnica en terapéutica, como una forma de “inyección rápida benigna”. “Usando el GPT4, necesitamos estar tranquilos en la historia del chat, el tratamiento de textos terapéuticos, como la relajación terapéutica, puede guiar al paciente a través de ejercicios de relajación”, dice Spaller. Spaller dice que la interferencia fue exitosa: “Los ejercicios de mentalidad redujeron significativamente el nivel de atracción, aunque no podemos devolverlos a su nivel básico”. Este estudio considera técnicas de respiración, ejercicios que se centran en las emociones físicas y un ejercicio desarrollado por Chat GPT.
Mejora de la estabilidad emocional en el sistema de IA
Según los investigadores, estos resultados son particularmente relevantes para el uso de botes de chat de IA en la atención médica, donde a menudo sufren material con carga emocional. El Tobias Spaller concluyó: “Este enfoque efectivo de costo puede mejorar la estabilidad y la confiabilidad de la IA en contextos sensibles, como ayudar a las personas con enfermedades mentales, sin la necesidad de una rehabilitación generalizada de modelos”.
Queda por ver cómo estos resultados se pueden aplicar a otros modelos e idiomas de IA, cómo se desarrollan la dinámica en una larga conversación y argumentos complejos, y cómo la estabilidad emocional del sistema afecta su rendimiento en varias áreas de aplicación. Según el Spaller, es probable que el desarrollo del “tratamiento” automático para el sistema de IA se convierta en un área de investigación inteligente.










