Home Noticias El algoritmo de TikTok favoreció el contenido republicano en las elecciones estadounidenses...

El algoritmo de TikTok favoreció el contenido republicano en las elecciones estadounidenses de 2024, según un estudio tiktok

26

A Investigación publicada La revista Nature descubrió el miércoles que el algoritmo de TikTok priorizó sistemáticamente el contenido pro republicano en tres estados previos a las elecciones estadounidenses de 2024.

Los investigadores crearon cientos de cuentas ficticias y las condicionaron para imitar el comportamiento de usuarios reales al ver una serie de videos vinculados a los partidos demócrata o republicano de Estados Unidos. Luego, rastrearon los videos recomendados de TikTok para estas cuentas en el feed principal de TikTok, For You Pages.

“Encontramos un desequilibrio constante”, escribieron en Nature.

Alrededor del 42% de los usuarios de redes sociales de EE. UU. dicen que es importante acceder a estas plataformas Comprometidos en temas políticos y sociales.Pero a menudo no está claro cómo los algoritmos de recomendación dan forma a lo que aparece en los feeds, según Pew Research. Talal Rahwan y Yasir Zaki, profesores del campus de Abu Dhabi de la Universidad de Nueva York, se propusieron estudiar cómo se desarrolla la política partidista en TikTok, una plataforma que ahora se ha convertido en una plataforma. Principal fuente de información política.Especialmente para algunos adultos jóvenes. Su estudio señaló que en esta población (de 18 a 29 años) desplazado en 10 puntos porcentuales Hacia Trump entre las elecciones de 2020 y 2024.

TikTok no ofreció comentarios al momento de esta publicación.

Los bots entrenados en contenido pro republicano vieron alrededor de un 11,5% más de contenido que coincidía con sus puntos de vista que sus homólogos demócratas. Ese desequilibrio también se considera para expresar puntos de vista opuestos. El estudio encontró que los bots entrenados en contenido pro-bot tenían aproximadamente un 7,5% más de probabilidades de ver contenido pro-republicano en su página. Los investigadores utilizaron 323 cuentas ficticias en el estudio y las ubicaron en Nueva York, Texas y Georgia. Durante las 27 semanas de la campaña presidencial de 2024, los investigadores examinaron más de 280.000 vídeos recomendados utilizando una combinación de revisión humana y de inteligencia artificial.

“Nuestros hallazgos no se refieren sólo al refuerzo; las cuentas demócratas presentaban significativamente más contenido antidemócrata que las cuentas republicanas presentaban contenido antirepublicano”, dijo Rahwan, uno de los autores del estudio. “El algoritmo no sólo le dio a la gente lo que querían; le dio a un lado más de lo que el otro decía sobre ellos”.

Los tipos de temas cubiertos en los videos también diferían, ya que el estudio encontró que las cuentas prodemócratas recibían proporcionalmente más contenido interpartidista sobre inmigración y crimen, y las cuentas prorepublicanas mostraban más contenido interpartidista sobre el aborto.

“Esto sugiere que el algoritmo puede amplificar el contenido diseñado para atacar al bando contrario en su punto más débil, que es un patrón más específico y posiblemente más relevante que una corriente ideológica uniforme”, añadió Hazem Ibrahim, estudiante de doctorado en NYU Abu Dhabi que trabajó en la investigación.

Los robots en el estudio estaban ubicados en Nueva York fuertemente demócrata, Texas fuertemente republicana y Georgia, un estado campo de batalla, a través de GPS “simulado” y enrutamiento de red privada virtual (VPN). Los investigadores advierten que sus hallazgos no deben generalizarse más allá de estos estados.

Los autores del estudio reconocen que muchos usuarios seleccionan y seleccionan por sí mismos el contenido que ven en varias plataformas de redes sociales. Sin embargo, dicen que la página For You de TikTok ofrece a los usuarios menos control que las interfaces principales de otras plataformas de redes sociales, “impulsadas casi en su totalidad por los algoritmos de la plataforma”, señala el documento.

En TikTok, “los usuarios no necesitan seguir a nadie; el sistema toma decisiones basadas en señales de comportamiento como el tiempo de visualización. Esto lo convierte en un entorno excepcionalmente limpio para estudiar los efectos algorítmicos, ya que se minimiza la autoselección del usuario”, dice Ibrahim. “Los sesgos aquí son difíciles de atribuir a las preferencias del usuario”.

Los autores señalan que si bien su estudio revela los tipos de contenido político a los que están expuestos los usuarios, no analiza el impacto de estos videos en las creencias y el comportamiento políticos, ni por qué existe este desequilibrio. También señalan que los robots solo capturaron los rudimentos de la experiencia de un usuario en la plataforma y analizaron transcripciones de video en inglés, que no capturarían señales políticas transmitidas a través de imágenes u otros idiomas.

Aún así, enfatizan que estudiar cuán sesgado puede ser el contenido político en los feeds de TikTok es relevante para los debates en curso sobre la transparencia y la responsabilidad algorítmica de la plataforma. El artículo de Nature señala: “La Ley de Servicios Digitales de la Unión Europea, por ejemplo, ya exige que las grandes plataformas en línea evalúen y mitiguen los riesgos de los procesos electorales, mientras que la ley estadounidense permite a las plataformas una mayor discreción editorial”.

Zaki añadió: “En un entorno donde los márgenes son estrechos, las diferencias sistemáticas en la información política recomendada a millones de votantes jóvenes deben tomarse en serio”.

Enlace fuente