Más de la mitad de los niños que reciben noticias en las redes sociales se preocupan y molestan después de ver contenido relacionado con la guerra, la violencia y la muerte. Una nueva investigación muestra que las empresas de redes sociales están “enviando” noticias perturbadoras a los niños que no las quieren.
Vídeos del asesinato de Charlie Kirk, el atropello de un coche en el desfile de Liverpool, escenas de peleas, tiroteos, apuñalamientos y accidentes automovilísticos han sido recientemente incluidos en los feeds de los niños, según ha descubierto una investigación de Internet Matters, una empresa de seguridad en línea. Como resultado, el 39% de quienes vieron contenido angustioso se describieron como muy o extremadamente molestos y preocupados.
Más de dos tercios de los niños reciben noticias de aplicaciones de redes sociales, incluidas TikTok e Instagram, pero el 40% no sigue cuentas centradas en noticias y, en cambio, crea historias a través de algoritmos de recomendación. Casi dos tercios (61%) de quienes reciben noticias en las redes sociales han visto una historia alarmante o inquietante en el último mes.
Una niña de 14 años dijo a los investigadores: “En Tiktok ves apuñalamientos y secuestros, lo cual no es agradable de ver, especialmente cuando eres un poco más joven, te hace sentir incómodo”.
Otra chica, de 17 años, dijo: “En Instagram, antes de que quitaran los videos, creo que había muchos videos de apuñalamientos o videos horribles como ese. Cuando Liam Payne murió (la estrella de One Direction se cayó del balcón de un hotel) su video se volvió viral y pensé que no era muy agradable. Me hubiera gustado tener una advertencia”.
Sobre las noticias que aparecen en su feed, un niño de 13 años dijo: “A veces no quieres verlas ni pensar en ellas”.
Los resultados de la encuesta reflejan una tendencia más amplia en el uso de las redes sociales: la proporción de tiempo que los usuarios pasan viendo contenido publicado por sus amigos está cayendo en todas las plataformas. meta dijo Presentaciones judiciales Solo el 8% del tiempo de un usuario de Instagram en abril se dedica a ver publicaciones de amigos, en comparación con un tercio en 2023, ya que las publicaciones recomendadas algorítmicamente dominan cada vez más los feeds de los usuarios, contribuyendo al supuesto fenómeno de “pudrición cerebral”.
La mayoría de los niños (86%) no saben cómo restablecer el algoritmo Explore en sus cuentas sociales, que ofrecen contenido perturbador, según una investigación que incluyó una encuesta y un grupo focal de más de 1.000 niños de 11 a 17 años.
“El alejamiento de los canales de noticias establecidos está cambiando radicalmente la forma en que los niños y los jóvenes consumen noticias, y está teniendo consecuencias preocupantes”, dijo Rachel Huggins, codirectora ejecutiva de Internet Matters, que brinda asesoramiento a los padres y está parcialmente respaldada por empresas tecnológicas como TikTok.
“El diseño algorítmico de las plataformas de redes sociales permite a los niños ver contenidos negativos y perturbadores (y los está distribuyendo) a millones de niños y jóvenes que no los buscan”.
Chi Onourah MP, presidente laborista del Comité de Ciencia y Tecnología de los Comunes, dijo que los hallazgos reforzaron su conclusión de que las leyes de seguridad en línea “no estaban a la altura para proteger a los usuarios”. Pidió un régimen fuerte “que desaliente la difusión viral de información errónea, regule la IA generativa y establezca estándares muy necesarios para las empresas de redes sociales”.
Según la Ley de seguridad en línea, el Código para la protección de la infancia necesidad Las empresas de redes sociales brindan a los niños acceso a contenido apropiado para su edad que representa o fomenta violencia o lesiones graves. Los niños más pequeños ven noticias sobre guerras, conflictos, violencia y crímenes, menos que los niños mayores, pero Internet Matters dijo: “Todavía es preocupante que niños de 11 a 12 años vean contenido para el cual muchas plataformas de redes sociales tienen una edad mínima de 13+ en sus términos de servicio”.
Según TikTok, la sangre humana y el combate físico extremo no pueden incluirse en su feed “Para ti”, y la plataforma no permite contenido sangriento, espantoso, inquietante o extremadamente violento. Dijo que utiliza verificadores de datos independientes y permite a los padres bloquear el uso de la aplicación por parte de sus hijos adolescentes mientras controlan y filtran el contenido.
Se ha contactado a Instagram para hacer comentarios.










