La Unión Europea descubrió que tanto Meta como TikTok no protegieron adecuadamente a los niños al dificultar la denuncia de la presencia de material de abuso sexual infantil (CSAM) en sus aplicaciones.
Por otra parte, Meta se ha enfrentado a un revés en su defensa ante demandas presentadas por varios estados de EE. UU., alegando que la empresa hizo intencionalmente sus aplicaciones adictivas a pesar de saber que eran perjudiciales para los adolescentes…
Tanto Meta como TikTok son culpables de violar las normas de protección infantil contenidas en la Ley de Servicios Digitales (DSA), que la UE describió como conclusiones preliminares.
En particular, se descubrió que ambas empresas habían obstruido ilegalmente el camino de los investigadores que buscaban información sobre si los niños habían estado expuestos a contenidos ilegales o dañinos.
Hoy, la Comisión Europea consideró inicialmente que tanto TikTok como Meta incumplían sus obligaciones en virtud de la Ley de Servicios Digitales (DSA) (…) de dar a los investigadores un acceso adecuado a los datos públicos.
Las conclusiones preliminares de la comisión muestran que Facebook, Instagram y TikTok pueden haber implementado procedimientos y herramientas difíciles para que los investigadores soliciten acceso a datos públicos. Esto a menudo les deja con datos parciales o poco confiables, lo que afecta su capacidad para realizar investigaciones, como por ejemplo si los usuarios, incluidos los menores, han estado expuestos a contenido ilegal o dañino.
Meta además hizo que fuera más difícil para los usuarios denunciar contenido ilegal como CSAM.
Ni Facebook ni Instagram parecen ofrecer un mecanismo de “aviso y acción” fácil de usar y de fácil acceso para señalar a los usuarios por contenido ilegal, como contenido de abuso sexual infantil y contenido terrorista.
Peor aún, Meta fue acusada de utilizar los llamados patrones oscuros para presentar informes que eran deliberadamente complicados y engañosos.
Facebook e Instagram utilizan los llamados “patrones oscuros”, o diseños de interfaz engañosos, cuando se trata de enfoques de “aviso y acción”.
Ambas organizaciones tendrán ahora la oportunidad de examinar el informe y presentar respuestas. Si las respuestas se consideran inaceptables, las empresas pueden ser multadas con hasta el 6% de su facturación anual global.
En 2021, Meta fue acusada de suprimir una investigación interna que encontró que Instagram era tóxico para los adolescentes. Una es cuando los informes se hacen públicos. El diario de Wall Street En la investigación, la empresa afirmó que los resultados fueron sacados de contexto.
Varios estados de EE. UU. han presentado demandas contra la empresa, alegando que intencionalmente hizo que sus aplicaciones fueran adictivas a pesar de saber que eran perjudiciales para los adolescentes.
Se dijo que los abogados de la empresa aconsejaron a Meta que mantuviera las consultas en silencio y la red social intentó argumentar que ese consejo no sería escuchado en los tribunales por tratarse de una cuestión de privilegio abogado-cliente.
Ley Bloomberg (a través de Engadget) informa que el juez rechazó este argumento.
La jueza Yvonne Williams dictaminó que Meta no podía utilizar el privilegio abogado-cliente para impedir que el fiscal general de D.C. utilizara los documentos internos de Meta en la demanda del distrito sobre los daños a la salud mental de los menores.
En Williams, dictaminó el Tribunal Superior del Distrito de Columbia, la comunicación contenida en el documento entraba dentro de la excepción de fraude penal al privilegio abogado-cliente porque Meta buscó asesoramiento legal para ocultar una posible responsabilidad o participar en fraude.
“El tribunal señala que el abogado de Meta aconsejó expresamente a los investigadores de Meta que ‘eliminaran’, ‘bloquearan’, ‘abrocharan’, ‘limitaran’ y ‘actualizaran’ su investigación”, dijo Williams. “El abogado de Mater brindó dicho asesoramiento legal específicamente para limitar la responsabilidad potencial de Mater”.
El primer caso se conocerá el próximo año.
Accesorios destacados
Foto por Cristóbal Ryan en desempaquetar











