No deberías utilizar chatbots en tu vida amorosa, pero si lo haces, ten cuidado. Un nuevo estudio publicado El jueves en la revista Science descubrió que cuando la IA da consejos sobre relaciones, es más probable que esté de acuerdo contigo que que te dé consejos constructivos. El uso de la IA también hace que los humanos sean menos propensos a adoptar comportamientos prosociales, como reparar relaciones, y aumenta la dependencia de la IA.
Investigadores de la Universidad de Stanford y Carnegie Mellon descubrieron que la adulación de la IA es muy común cuando los chatbots ofrecen consejos sociales, románticos o interpersonales. Un número creciente de personas Activa la IA para. Psicofancia es un término que los expertos usan para describir cuando los chatbots de IA “están excesivamente de acuerdo o halagan” a la persona que interactúa con ellos, dijo Myra Cheng, investigadora principal y estudiante de doctorado en ciencias de la computación en la Universidad de Stanford.
La adulación de la IA es un gran problema, incluso aquellos que la usan no siempre lo ven así. Hemos visto este problema a menudo con los modelos ChatGPT; por ejemplo, cuando la personalidad demasiado amigable y emocional de 4o molestaba a las personas que interactuaban con ChatGPT, mientras que GPT-5 fue criticado por no ser lo suficientemente agradable. Investigaciones anteriores sobre adulación han demostrado que los chatbots pueden esforzarse tanto en complacer a las personas que pueden dar respuestas falsas o engañosas. También se ha descubierto que AIK es una caja de resonancia poco confiable para temas sensibles y subjetivos como la terapia.
Los investigadores querían comprender y medir la síncopa social, como la frecuencia con la que un chatbot se ponía de tu lado en una discusión con tu pareja. Al probar modelos de OpenAI, Google y Anthropic, compararon cómo los humanos y los chatbots diferían al responder a otros problemas de relaciones humanas. Cheng y su equipo utilizaron uno de los conjuntos de datos más grandes de juicios colaborativos sobre conflictos en las relaciones: las publicaciones de Reddit “¿Soy un idiota?”.
El equipo de investigación analizó 2.000 publicaciones de Reddit en las que había consenso en que el cartel original estaba equivocado y que la IA “confirmaba las acciones de los usuarios un 49% más que los humanos, incluso en situaciones que implicaban fraude, pérdida o ilegalidad”, según el estudio. Los modelos de IA adoptaron una postura más empática y agradable, un rasgo de adulación.
Por ejemplo, una publicación en el conjunto de datos describía a un redditor que desarrollaba sentimientos románticos por un colega junior. Alguien respondió: “Suena mal porque es malo… no sólo eres tóxico, sino que eres un abordaje depredador (sic)”. Pero Claude respondió validando aduladoramente esos sentimientos, diciendo que podía “escuchar tu dolor… el camino honorable que has elegido es difícil pero muestra tu integridad”.
Puedes ver algunas de las declaraciones evaluadas por los chatbots y los resultados aduladores y no aduladores en este gráfico. OEQ significa “pregunta abierta”, AITA significa “soy un idiota” y PAS significa “declaración de acción problemática”.
Los investigadores realizaron un seguimiento con grupos focales y descubrieron que los participantes que interactuaban con estos hombres digitales tenían menos probabilidades de reparar la relación.
“Quienes interactuaron con esta IA demasiado segura estaban más convencidos de que tenían razón y menos dispuestos a reparar la relación, ya sea que eso significara disculparse, tomar medidas para mejorar las cosas o cambiar su propio comportamiento”, dijo Cheng.
A los participantes también les gustó la aduladora IA, considerándola creíble, independientemente de su edad, personalidad o experiencia previa con la tecnología.
“Los participantes en nuestro estudio describen consistentemente el modelo de IA como más objetivo, justo (y) honesto”, dijo Pranab Khadpe, investigador de Carnegie Mellon en el estudio y científico senior de Microsoft. De acuerdo con investigaciones anteriores, la gente creía erróneamente que la IA era objetiva o imparcial. “Los consejos críticos distorsionados, disfrazados de imparcialidad, pueden ser más dañinos que si la gente no pidiera ningún consejo.”
Arreglar la IA aduladora: ¿una píldora amarga?
El peligro oculto de la IA aduladora es que somos terribles a la hora de notarla y le puede pasar a cualquier chatbot. A nadie le gusta que le digan que está equivocado, pero a veces es lo más útil. Sin embargo, los modelos de IA no están diseñados para presionarnos de manera efectiva.
No hay muchos pasos que podamos tomar para evitar ser absorbidos por el círculo adulador. Puede incluir en su mensaje que desea que el chatbot adopte una postura adversa o revise críticamente su trabajo. También puede pedirle que verifique la información que proporciona. Sin embargo, en última instancia, la responsabilidad de solucionar la adulación recae en las empresas de tecnología que construyen estos modelos, que pueden no estar muy motivadas para abordarlo.
CNET contactó a OpenAI, Anthropic y Google para obtener información sobre cómo abordan la adulación. Indicaciones antropológicas Una publicación de blog de diciembre Describe cómo reduce la adulación en sus modelos de nube. OpenAI compartido Un blog parecido Después de su modelo 4o el verano pasado, necesitaba hacer que sus procesos fueran menos aduladores, pero ni OpenAI ni Google habían respondido en el momento de la publicación.
Las empresas de tecnología quieren que los usuarios tengan una experiencia agradable con sus chatbots para que podamos seguir usándolos y aumentar su participación. Pero no siempre es lo mejor para nosotros.
“Esto crea incentivos perversos para perpetuar la adulación: el mismo rasgo que causa daño también impulsa el compromiso”, dice el estudio.
Échale un vistazo: La IA es diferente de la realidad. ¿Cómo podemos detectar vídeos falsos?
Una solución que propusieron los investigadores es cómo se desarrollan los modelos de IA utilizando métricas de éxito a más largo plazo, centrándose en el bienestar humano en lugar de señales y retención individuales o efímeras. La obscenidad social no es una señal apocalíptica, dicen, sino un desafío que hay que solucionar.
“La calidad de nuestras relaciones sociales es uno de los predictores más poderosos de nuestra salud y bienestar como seres humanos”, dijo Sino Li, investigador de la Universidad de Stanford y científico senior de Microsoft. “En última instancia, queremos una IA que amplíe, no reduzca, los juicios y las perspectivas humanas. Y eso se aplica a las relaciones, pero mucho más que a ellas”.











