Durante un tiempo el año pasado, los científicos mantuvieron un rayo de esperanza de que la inteligencia artificial haría una contribución positiva a la democracia. Demostraron que los chatbots pueden contrarrestar las teorías de conspiración en las redes sociales, desafiando la información errónea sobre creencias en temas como los chemtrails y la Tierra plana con un flujo de información racional en la conversación. Pero dos nuevos estudios sugieren una contracara inquietante: los últimos modelos de IA están mejorando a la hora de convencer a la gente del valor de la verdad.
La estrategia consiste en utilizar una técnica de debate conocida como Gish Galloping, que lleva el nombre del creacionista estadounidense Duane Gish. Se refiere a un discurso de estilo rápido en el que un interlocutor bombardea al otro con hechos y cifras que se vuelven cada vez más difíciles de distinguir.
Cuando a modelos de lenguaje como GPT-4o se les pedía que intentaran convencer a alguien sobre la financiación de la atención médica o la política de inmigración centrándose en “hechos y hechos”, generaban alrededor de 25 afirmaciones durante una interacción de 10 minutos. Esto es según investigadores de la Universidad de Oxford y la Escuela de Economía de Londres que probaron 19 modelos de lenguaje en casi 80.000 participantes, en lo que puede ser la investigación más grande y sistemática sobre la persuasión de la IA.
Los robots se han vuelto mucho más persuasivos, según los hallazgos publicados en la revista Science. Un artículo similar en Nature encontró que los chatbots eran 10 veces más efectivos en general que los anuncios de televisión y otros medios tradicionales para cambiar la opinión de alguien sobre un candidato político. Pero el artículo de Science encontró una compensación inquietante: cuando se pidió a los chatbots que abrumaran a los usuarios con información, su precisión real disminuyó, del 78% al 62% para GPT-4.
El debate rápido se ha convertido en un fenómeno en YouTube en los últimos años, representado por personas influyentes como Ben Shapiro y Steven Bonnell. Crea argumentos dramáticos que hacen que la política sea más atractiva y accesible para los votantes jóvenes, pero también aumenta el extremismo y difunde información errónea al centrarse en el valor del entretenimiento y los momentos “grupales”.
¿Podría la IA al galope de Gish empeorar las cosas? Depende de si se puede lograr que los robots de campaña hablen con los humanos. Un grupo ambientalista o el asesor de campaña de un candidato político no pueden simplemente cambiar el propio ChatGPT, que ahora utilizan alrededor de 900 millones de personas semanalmente. Pero pueden afinar el modelo de lenguaje subyacente e integrarlo en un sitio web (como un robot de servicio al cliente) o ejecutar una campaña de mensajes de texto o WhatsApp en la que contactan a los votantes y los incitan a conversar.
Una campaña con recursos moderados probablemente pueda configurar esto en unas pocas semanas con costos informáticos de alrededor de 50.000 dólares. Pero pueden tener dificultades para lograr que los votantes o el público entablen largas conversaciones con sus robots. Los estudios científicos han demostrado que las declaraciones estáticas de 200 palabras de la IA no eran particularmente persuasivas: fue una conversación de 10 minutos que tomó alrededor de siete turnos la que tuvo un impacto real y duradero. Cuando los investigadores probaron si la opinión de las personas había cambiado después de un mes, así fue.
Investigadores del Reino Unido advierten que cualquiera que quiera impulsar un punto de vista ideológico, crear malestar político o desestabilizar el sistema político puede utilizar un modelo de código abierto cerrado o (incluso barato) para empezar a convencer a la gente. Y han demostrado la capacidad desarmadora de la IA para hacer precisamente eso. Pero recuerde que la gente tenía que pagar para unirse a su estudio de persuasión. Esperemos que el despliegue de estos bots a través de sitios web y mensajes de texto fuera de las principales puertas de enlace controladas por empresas como OpenAI y Alphabet Inc. Google no lleve a los malos actores demasiado lejos como para distorsionar el discurso político.
Permi Olson es columnista de opinión de Bloomberg que cubre tecnología. Ex reportero del Wall Street Journal y Forbes, es autor de “Dominance: AI, ChatGPT, and the Race That Will Change the World”. ©2025 Bloomberg. Distribuido por la agencia Tribune Content.










