La desinformación, impulsada por la IA, fue difícil de evitar en las horas y días posteriores al ataque terrorista de Bondi Beach, ya que algunas plataformas presentaron afirmaciones dudosas a los usuarios que intentaban encontrar información objetiva.
La página X “Para ti”, que ofrece contenido determinado por un algoritmo, estaba llena de información falsa, que incluía: que el ataque que mató a 15 personas fue una operación de detección o de bandera falsa; Los que estaban detrás del ataque eran soldados de las FDI; Los heridos son actores de la crisis; que una persona inocente es uno de los presuntos agresores; Y el héroe musulmán sirio que luchó contra los invasores era un cristiano con nombre inglés.
La IA generativa sólo empeoró las cosas.
En varias cuentas se ha compartido un clip alterado del primer ministro de Nueva Gales del Sur, Chris Minns, con audio que hace afirmaciones falsas sobre los atacantes.
En otro ejemplo particularmente atroz, una imagen generada por IA basada en una foto real de la víctima fue alterada para que pareciera un actor de crisis y se le aplicó maquillaje rojo en la cara para que pareciera sangre.
“Vi estas imágenes cuando me estaban preparando para la cirugía hoy y no dignificaré esta enfermiza campaña de mentiras y odio con una respuesta”, publicó más tarde en X el hombre que aparece en la foto falsa, el abogado de derechos humanos Arsen Ostrovsky.
El ministro de Información de Pakistán, Ataullah Tarar, dijo que su país fue víctima de una campaña coordinada de desinformación en línea a raíz del ataque terrorista de Bondi Beach, afirmando falsamente que uno de los sospechosos era un ciudadano paquistaní.
El hombre que fue identificado falsamente dijo a Guardian Australia que era “extremadamente perturbador” que su foto circulara en las redes sociales afirmando ser el presunto atacante.
Tarar dijo que el paquistaní fue “víctima de una campaña maliciosa y organizada” y alegó que la campaña engañosa se originó en la India.
Mientras tanto, Grok, el chatbot de inteligencia artificial de X, dijo a los usuarios que un trabajador de TI de nombre inglés que atacó y desarmó a un presunto tirador era el héroe en lugar de Ahmed al-Ahmed, nacido en Siria. La afirmación parece haberse originado en un sitio web creado para hacerse pasar por un sitio de noticias legítimo el día del ataque terrorista.
La imagen de Ahmed generada por IA también se ha difundido en las redes sociales, dando vueltas Esquemas criptográficos y recaudaciones de fondos falsas.
Estaba muy lejos del apogeo de Twitter como centro de noticias de última hora. La información errónea aún se difundía, pero era menos común y no contaba con un algoritmo diseñado para recompensar la participación basada en la indignación (especialmente para las cuentas verificadas que se benefician financieramente de esa participación).
Muchas publicaciones que hacían afirmaciones falsas tuvieron decenas de miles o incluso millones de visitas.
Se difundieron noticias legítimas en X, pero quedaron sepultadas bajo la desinformación impulsada por la IA.
Cuando Musk se hizo cargo de X, descartó el esquema de verificación de datos del sitio en favor de un sistema de calificación de usuarios llamado “Notas de la comunidad”, que agregó verificación de datos de usuarios colaborativa a las publicaciones. Otras plataformas le siguen. Meta abandonó su sistema anterior de verificación de datos a favor de implementar su propia versión de notas comunitarias.
Pero, como dijo esta semana el profesor de QUT, Timothy Graham, el sistema de notas comunitarias no es útil en situaciones en las que la opinión está profundamente dividida. Se necesita mucho tiempo. Las notas de la comunidad se implementan en muchos de los ejemplos anteriores, pero esto sucede mucho después de que la mayoría de las personas ven las publicaciones originales en sus feeds.
X está probando que Grok cree sus propias notas comunitarias para publicaciones de verificación de datos, pero si nos guiamos por el ejemplo de Ahmed, es más preocupante.
La compañía no respondió a las preguntas sobre qué está haciendo para abordar la información errónea publicada en su plataforma o promovida por su chatbot de IA.
Una gracia salvadora es que muchas falsificaciones todavía se detectan fácilmente… por ahora. Los Minn falsos, por ejemplo, tenían un acento americano, dejando claro que no era él. La publicación de Crisis Actor tenía muchas de las características distintivas de una generación de imágenes de IA poco fiable, como texto generado incorrectamente en camisetas.
En la mayoría de los casos, los medios de comunicación ignoraron las publicaciones o las denunciaron.
Pero eso podría cambiar a medida que mejoren los modelos de IA, lo que hará más difícil separar la realidad de la ficción. Mientras tanto, las empresas de inteligencia artificial y sus plataformas de alojamiento de contenidos parecen reacias a hacer algo para evitarlo.
El grupo industrial DG, que representa a las plataformas de redes sociales de Australia, propuso a principios de este año eliminar el requisito de abordar la desinformación de un código de la industria, diciendo que la “experiencia reciente” había demostrado que “la desinformación es un tema polémico y con carga política dentro de la comunidad australiana”.
Es difícil ver cómo cambiará esta semana.










