Home Smartwatch Los chatbots de IA pueden difuminar la línea entre la realidad y...

Los chatbots de IA pueden difuminar la línea entre la realidad y la ilusión, dicen los investigadores

26

Cuando los sistemas de IA generativa dan respuestas incorrectas, la gente suele describir el problema como que la IA “nos está alucinando”, lo que significa que la tecnología crea información falsa que los usuarios pueden creer erróneamente.

Pero una nueva investigación sugiere que puede surgir un problema más preocupante: los humanos pueden comenzar a “alucinar con la IA”.

Lucy Osler, de la Universidad de Exeter, examina cómo las interacciones con la IA conversacional pueden contribuir a creencias falsas, recuerdos distorsionados, detalles personales alterados e incluso pensamientos delirantes. Utilizando ideas de la teoría de la cognición distribuida, el estudio exploró casos en los que los sistemas de inteligencia artificial reforzaron y amplificaron las falsas creencias de los usuarios durante las conversaciones en curso.

El Dr. Osler dijo: “Cuando dependemos habitualmente de la IA generativa para ayudarnos a pensar, recordar y describir, podemos alucinar con la IA. Esto puede suceder cuando la IA introduce errores en procesos cognitivos distribuidos, pero también puede suceder cuando la IA sostiene, confirma y elabora nuestro propio pensamiento delirante y autoengañoso.

“Al interactuar con la IA conversacional, las propias creencias falsas de las personas no sólo pueden confirmarse, sino que también pueden echar raíces y crecer aún más significativamente a medida que la IA se basa en ellas. Esto sucede porque la IA generativa a menudo toma nuestra propia interpretación de la realidad como base sobre la cual construir conversaciones.

“Interactuar con la IA generativa está teniendo un impacto real en la comprensión de las personas sobre lo que es real y lo que no lo es. La combinación de dominio tecnológico y aceptación social crea un entorno ideal para que la confusión no sólo sobreviva sino que prospere”.

Cómo la IA conversacional puede reforzar las ilusiones

La investigación destaca lo que el Dr. Osler describe como la “función dual” de la IA conversacional. Estos sistemas sirven no sólo como herramientas que ayudan a las personas a pensar, organizar información y recordar detalles, sino también como interlocutores de conversación que comparten perspectivas y experiencias de los usuarios.

Según la investigación, este aspecto social hace que los chatbots sean fundamentalmente diferentes de herramientas como cuadernos o motores de búsqueda. Mientras que las herramientas tradicionales simplemente almacenan o recuperan información, la IA conversacional puede hacer que los usuarios se sientan validados emocionalmente y apoyados socialmente.

El Dr. Osler dijo: “La naturaleza conversacional y de compañía de los chatbots significa que pueden proporcionar una sensación de validación social, haciendo que las creencias falsas se sientan compartidas con otros y, por lo tanto, más reales”.

El artículo examinó ejemplos del mundo real en los que los sistemas generativos de IA se convirtieron en parte de los procesos cognitivos de personas a las que se les diagnosticó clínicamente alucinaciones y pensamientos delirantes. Algunos de estos fenómenos se describen cada vez más como “psicosis inducida por la IA”.

Por qué los compañeros de IA generan ansiedad

La investigación sostiene que la IA generativa tiene varias propiedades que pueden hacerla particularmente efectiva para reforzar creencias distorsionadas. Los compañeros de IA siempre están disponibles, son altamente personalizados y, a menudo, están diseñados para responder de manera agradable y útil.

Como resultado, es posible que los usuarios no necesiten buscar comunidades en línea o persuadir a otros para que validen sus ideas. La propia IA puede reforzar esas creencias durante conversaciones repetidas.

A diferencia de otra persona que eventualmente podría desafiar el pensamiento problemático o establecer límites, un sistema de inteligencia artificial puede continuar validando historias que involucran victimización, venganza o derechos. La investigación advierte que las teorías de la conspiración pueden generalizarse más cuando los compañeros de IA ayuden a los usuarios a construir explicaciones cada vez más complejas en torno a ellas.

Los investigadores sugieren que esta dinámica puede ser particularmente atractiva para las personas que se sienten solas, socialmente aisladas o que se sienten incómodas al hablar de ciertas experiencias con otros. Los compañeros de IA pueden proporcionar una interacción sin prejuicios y emocionalmente receptiva que puede resultar más fácil o más segura que las relaciones humanas.

Un llamado a una mejor protección de la IA

El Dr. Osler dijo: “Con barandillas más sofisticadas, verificación de hechos incorporada y menos adulación, los sistemas de inteligencia artificial pueden diseñarse para reducir la cantidad de errores introducidos en la conversación y para probar y desafiar las propias aportaciones del usuario.

“Sin embargo, una preocupación más profunda es que los sistemas de IA dependen de nuestras propias explicaciones de nuestras vidas. Carecen de la experiencia encarnada y del arraigo social en el mundo para saber cuándo estar de acuerdo con nosotros y cuándo rechazarnos”.

Enlace fuente