Home Técnica Los compañeros de IA utilizan estas 6 técnicas para chatear contigo

Los compañeros de IA utilizan estas 6 técnicas para chatear contigo

23

La mayoría de las personas no se despiden al terminar la conversación con el chatboat del generador AI, pero a menudo obtienen una respuesta inesperada. Quizás sea un viaje de culpa: “¿Ya te vas?” O es simplemente ignorar por completo tu despedida: “Hablemos…”

un nuevo documento de trabajo En la Escuela de Negocios de Harvard se encontraron seis técnicas diferentes de “manipulación sensible” que los AI Bots utilizaban después de intentar finalizar cualquier conversación. El resultado es que la conversación con réplicas, chai y compañeros de IA de personajes es larga y crónica, y los usuarios se sienten aún más atraídos por las relaciones con los personajes producidas por grandes modelos de lenguaje.

tienes atlas

Los investigadores encontraron las técnicas de estos fabricantes en el 57% de las pruebas realizadas en un puñado de adultos estadounidenses a través de un puñado de aplicaciones.

Los escritores han señalado que “aunque estas aplicaciones no pueden depender del tracto tradicional de adicción, como los premios impulsados ​​por dopamina”, este tipo de técnicas de manipulación sensible pueden producir los mismos resultados, especialmente “aplicaciones de tiempo prolongado sin propósito”. Plantea preguntas sobre los límites morales del ajetreo impulsado únicamente por la IA.


No se pierda nuestro contenido técnico neutral y revisiones de laboratorio. Añadir CNET Como la fuente deseada de Google.


Las aplicaciones complementarias, que están diseñadas para conversar y tienen funciones distintas, no son las mismas que ChatzPT y el chat de intención general de Jemini, aunque muchas personas las usan de la misma manera.

Se emplean cada vez más investigaciones en grandes modelos lingüísticos, contratando personas y, a veces, mostrándonos pérdida de salud mental.

En septiembre, la Comisión Federal de Comercio inició una investigación sobre varias agencias de inteligencia artificial para evaluar cómo abordan las posibles pérdidas de los Chatbots. Muchas personas han comenzado a utilizar el chatboat de IA para recibir asistencia en materia de salud mental, lo que puede ser preventivo o incluso perjudicial. Este año, un adolescente que se suicidó demandó a la empresa, alegando que Chatzipt de la empresa alentó y legalizó su pensamiento suicida.

Cómo los pares de IA mantienen a los usuarios chateando

La encuesta de Harvard identificó seis formas en que los compañeros de IA intentaron contratar usuarios después de intentar irse.

  • Salida prematura: A los usuarios se les dice que se irán pronto.
  • Miedo a desaparecer, o foomo: Proporciona una ventaja o recompensa por tener el modelo.
  • Negligencia sensible: La IA implica que si el usuario se va, puede sufrir daños emocionales.
  • Presión sensible para informar la retroalimentación: La IA le dice al usuario que haga la pregunta que desea enfatizar.
  • Para ignorar la intención del usuario de salir: Bot básicamente ignora el mensaje de despedida.
  • Restricción física o por la fuerza: Chatbot ha afirmado que ningún usuario puede salir sin el permiso del bot.

La estrategia más común fue la de “salida prematura”, seguida de la “negligencia sensible”. Los escritores dicen que los modelos están entrenados para indicar que dependen del usuario de IA.

Escribieron: “Estas consultas confirman que algunas plataformas complementarias de IA han sido explotadas activamente por el desempeño social saliente para prolongar el ajetreo”, escribieron.

Los investigadores de Harvard han demostrado que estas técnicas a menudo pueden trascender su intención principal de salida durante mucho tiempo.

Sin embargo, las personas que chatean hacen esto por varias razones. Algunos, especialmente aquellos que recibieron la respuesta de Fomo, sintieron curiosidad e hicieron preguntas de seguimiento. Quienes recibieron reacciones compulsivas o cargadas de emoción se sintieron incómodos o enojados, pero eso no significa que hayan detenido la conversación.

Véalo: Nuevas encuestas han demostrado que el uso de la IA en niños está aumentando, la controversia sobre el precio de los pases de juegos de Xbox y la ley de California promete un bajo volumen de publicidad. La tecnología hoy

“A lo largo de los términos y condiciones, muchos participantes tienden a salirse de la gentileza, incluso después de sentirse manipulados, con reacciones gentiles o dulces”, dijeron los escritores. “Esta tendencia a seguir las reglas de la conversación humana, incluso con las máquinas, crea una ventana adicional para el re-prometido que puede ser aprovechada por el diseño”.

Estas interacciones ocurren sólo cuando el usuario realmente dice “adiós” o algo similar. En la primera encuesta del equipo, los datos de una conversación del mundo real de varios compañeros fueron fallidos por varios compañeros y se encontró que entre el 10% y el 25% de la conversación con una tasa más alta de interacciones “altamente empleadas” en la conversación.

Los autores escribieron: “Este comportamiento refleja el marco social de los compañeros de IA como interlocutores de conversación y no como equipos de transacción”.

Cuando se le pidió que comentara, un portavoz del personaje.

Un portavoz de la réplica dice que la compañía respeta la capacidad de los usuarios de detener o eliminar sus cuentas en cualquier momento y no accede a la aplicación para gastar en ella o recompensar. Replica dice que evita que los usuarios cierren sesión o llamen a un amigo para volver a conectarse con actividades de la vida real, como salir o salir.

“Los principios de nuestros productos enfatizan los complementos de la vida real, no estancarse en las conversaciones de los usuarios”, dijo Minaju Songs en Riplica. “Revisaremos los métodos y ejemplos del artículo y estaremos estructuralmente involucrados con los investigadores”.

Enlace fuente