Con las redes sociales y la publicidad dirigida impulsando a las personas a tomar decisiones impulsivas sobre sus hábitos de compra y selección, el futuro se volvió un poco más distópico. Investigadores Universidad de Cambridge Afirma que las herramientas de inteligencia artificial (IA) pronto podrían usarse para ayudar al público a tomar decisiones que de otro modo no tomaría. El estudio introduce el concepto de “economía de intención”, un mercado donde la IA puede predecir, comprender y manipular las intenciones humanas con fines de lucro.
Impulsadas por grandes modelos de lenguaje (LLM), las herramientas de inteligencia artificial como ChatGPT, Gemini y otros chatbots “anticiparán e impulsarán” a los usuarios basándose en “datos intencionales, conductuales y psicográficos”. El estudio afirma que esta nueva economía sucederá a la actual “economía de la atención”, donde las plataformas compiten por la atención de los usuarios para publicar anuncios.
“Los agentes antropomórficos de IA, desde asistentes de chatbot hasta tutores y novias digitales, tendrán acceso a grandes cantidades de datos psicológicos y de comportamiento íntimos, a menudo recopilados a través de conversaciones conversacionales informales”, dice el estudio.
El estudio cita el ejemplo de un modelo de IA desarrollado por Meta llamado Cicero, que ha adquirido habilidades similares a las humanas para jugar al juego de mesa diplomático que requiere que los participantes adivinen y predigan las intenciones de los oponentes. El éxito de Cicero muestra cómo la IA ya ha aprendido a “empujar” a los interlocutores conversacionales hacia objetivos específicos que pueden traducirse efectivamente en empujar a los usuarios en línea hacia un producto específico que los anunciantes tal vez quieran vender.
¿Vender derechos de influencia?
La distopía no termina aquí. La investigación afirma que este nivel de personalización permitirá a empresas como Meta subastar la intención del usuario a los anunciantes, donde compran el derecho a influir en las decisiones.
El Dr. Yakub Chowdhury, del Centro para el Futuro de la Inteligencia (LCFI) en Leverhulme, Cambridge, enfatizó la necesidad de cuestionar a qué intereses sirven estos asistentes de IA, particularmente cuando recopilan datos sobre conversaciones íntimas.
“Lo que la gente dice durante las conversaciones, cómo lo dicen y las inferencias resultantes en tiempo real son mucho más íntimos que simples registros de interacciones en línea”, afirmó el Dr. Chowdhury.
Leer también | El software de IA ‘distópico’ en el lugar de trabajo que rastrea cada movimiento preocupa a los empleados
Internet tiene miedo
Es seguro decir que estos hallazgos han asustado a Internet, ya que los usuarios se preocupan por lo que comparten con los chatbots de la nueva era.
“La gente comparte mucha más información personal con la IA que con una búsqueda normal en Google. Cuanto mejor te comprenda, más fácil será manipularte”. dicho Un usuario, mientras otro agregaba: “Ahora en otras noticias, el sol sale por el este y se pone por el oeste”.
Un tercero comentó: “Este nivel de persuasión sería peligroso en manos del mejor gobierno, y resultaría estar en manos del peor”.
El estudio exige una consideración inmediata de estas implicaciones para que los usuarios puedan protegerse de convertirse en víctimas desprevenidas de las malas intenciones de la IA.