Según la nueva investigación, ocho años después de la trágica muerte de Molly Russell, Tikatok e Instagram todavía se recomiendan suicidio y autodestrucción a los adolescentes en las escalas industriales de los adolescentes.
La Fundación Molly Rose descubrió que los algoritmos de redes sociales ‘han estado en riesgo de la vida de los jóvenes’ porque ofrecen frustración, suicidio y bienes autoconscientes en cuentas abiertas como una niña de 15 años.
Fundación: mi hija de 14 años, Molly, fundada por Ayan Russell, ha pedido al Primer Ministro que introduzca medidas más drásticas para detener el “daño prevenible que ocurre en su reloj” después de ver el contenido dañino en línea.
Los informes, las leyes de seguridad en línea extensas por diginas se ejecutaron en las semanas y afirmaron que las plataformas de redes sociales son ‘nuevas reglas para los juegos de Offcom’.
Molly Rose dijo que su investigación mostró que tanto Tiktok como Instagram ahora propusieron que Molly Russell de los ingredientes propuestos tendrá un efecto perjudicial en el contenido que vio antes de su muerte en 2017 ‘.

El presidente de la Fundación Molly Rose, Ian Russell, dijo que “la muerte de Moli es el contenido de suicidio increíblemente dañino, la caída de la autocompresión y la decepción, ya que todavía deambula por las redes sociales”.

Molly Russell (ilustrado) se quitó la vida en 2017 en noviembre, a la edad de 14 años, estaba viendo material en las redes sociales asociadas con ansiedad, decepción, autosuficiencia y suicidio
La fundación realizó investigaciones anteriores en 2023 y dijo que su último informe “sugiere que las cosas permanecen sin cambios o peor”.
En la organización benéfica, se descubrió que en las cuentas de adolescentes involucrados en puestos de suicidio, autosuficiencia y frustración, los algoritmos bombardean a los jóvenes con el tsunami de bienes dañinos en su página para los carretes y boletos de Instagram.
El presidente de Molly Rose, el Sr. Russell, dijo: “Ocho años después de la muerte de Moli, el suicidio increíblemente dañino, la autosuficiencia y la frustración aún están muy extendidos en las redes sociales”.
El regulador ha criticado los códigos de seguridad infantiles de Offcom por no ser lo suficientemente fuerte antes de la Fundación, y dice que su investigación ha demostrado que se les “recomienda a los usuarios débiles y finalmente no trabajan demasiado para evitar más muerte como Molly”.
El Sr. Russell agregó: ‘Durante más de un año, este daño completamente prevenible está ocurriendo en el reloj del Primer Ministro y ha llegado el momento de que el Offcom sea fuerte y tarde es llevar la ley de salvación de la vida. “
El informe muestra que se recomendó el 975 por ciento del video de relevos de Instagram y el 965 por ciento de los boletos fueron “dañinos”. Los videos tenían más de un millón de veces con ‘preferido’ con ‘nivel inquietante profundo’.
La reina gobernadora de la NSPCC, una organización benéfica de protección infantil, describió los informes como “profundamente preocupantes y absolutamente inaceptables” y dijo que “las empresas de tecnología deben trabajar con urgencia para evitar la propagación de este suicidio y autoestima profundamente dañino”.

Molly, retratada a una edad temprana, vio más de 2,000 publicaciones en línea sobre el suicidio, la autocompresión y la decepción en los últimos seis meses de su vida.
Sin embargo, Tiktok dice que ha realizado una mejora significativa en la protección y aplicado reglas estrictas contra el suicidio o el material de autosuficiencia. Se entiende que ha reclamado ‘rechazo completo’ que es la necesidad de protección de ‘juegos’.
Un portavoz agregó: “Más del 99 por ciento de las violaciones fueron eliminadas por el boleto, los resultados no reflejan la experiencia real de las personas en nuestra plataforma que reconoce el informe”.
Un portavoz de Meta dijo que la investigación no era un representante de la experiencia de los usuarios de Instagram y “no estamos de acuerdo en el reclamo de este informe y el procedimiento limitado detrás de él”.
También agregaron: “Continuamos utilizando tecnología automática para eliminar los materiales de suicidio y autojusticia, el 99 por ciento se ha trabajado activamente antes de informarnos”.
Ha demostrado por separado que la proporción de niños que vieron pornografía en línea ha aumentado en los últimos dos años y probablemente se topó con ella.
La comisionada infantil Dem Rachel de Shuja dijo que su investigación muestra que se presentan materiales dañinos a los niños a través de un algoritmo peligroso en lugar de buscarlos.
Su navegador no admite el IFFrames.
Describió el contenido de que los jóvenes son “violentos, extremos y desobedientes” y a menudo ven tan inválidos y dicen que su búsqueda debe verse como “instantánea de cómo se ve el fondo de roca”.
El informe, que comprende la reacción de 1.220 personas en mayo, y en mayo, mostró que los niños tenían en promedio 5 años cuando vieron por primera vez porno, pero el 2 27 por ciento dijo que eran “seis o menos”.
Un seguidor de la investigación de la Oficina de Niños en 2021 encontró una proporción más alta en este informe, por 5 por ciento, las personas dicen que vieron una pornografía en línea antes del 64 por ciento más del 64 por ciento hace.
Dame Rachel dijo: ‘Este informe debe servir como una línea de arena. Las búsquedas determinan cuánto necesita cambiar la industria de la tecnología para sus plataformas para proteger a los niños. ‘