El Parlamento Europeo ha bloqueado la extensión de una ley que permitiría a las grandes empresas tecnológicas escanear sus plataformas en busca de explotación sexual de niños, creando un vacío legal que, según los expertos en protección infantil, podría pasar desapercibido.
La ley, que fue una excepción de la ley de privacidad de la UE, se implementó en 2021 como una medida temporal para permitir que las empresas utilicen tecnología de detección automática para escanear mensajes en busca de daños, incluido material de abuso sexual infantil (CSAM), acoso y abuso sexual. Sin embargo, expiró el 3 de abril y el Parlamento de la UE decidió no votar para extenderlo en medio de preocupaciones sobre la privacidad entre algunos legisladores.
La brecha regulatoria ha creado incertidumbre para las grandes empresas de tecnología, ya que si bien ahora es ilegal escanear sus plataformas en busca de daños, todavía son responsables, según una ley diferente, la Ley de Servicios Digitales, de eliminar cualquier contenido ilegal alojado en sus plataformas. Google, Meta, Snap y Microsoft han dicho que continuarán escaneando voluntariamente sus plataformas en busca de CSAM. declaración conjunta Publicado en un blog de Google.
“Estamos decepcionados por este fracaso irresponsable a la hora de llegar a un acuerdo para mantener los esfuerzos establecidos para proteger a los niños en línea”, dice el comunicado.
El Parlamento Europeo dijo en un comunicado que estaba priorizando su trabajo. la ley Para prevenir y combatir el abuso sexual infantil en línea, se estaban debatiendo sobre un marco legal permanente, aunque la organización no propuso un acuerdo ni un calendario para su implementación.
Los defensores de la protección infantil advirtieron que permitir que la ley caduque probablemente conduciría a una caída importante en las denuncias de abuso sexual infantil. Señalan que se produjo una brecha legal similar en 2021, cuando los informes de dicho material de cuentas con sede en la UE al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) cayeron un 58% durante un período. 18 semanas.
“Cuando las herramientas de detección se interrumpen, perdemos visibilidad, lo que afecta directamente nuestra capacidad de encontrar y proteger a las víctimas de abuso sexual infantil”, afirmó John Sheehan, vicepresidente del NCMEC, una organización con sede en Estados Unidos que actúa como centro de intercambio de información sobre informes de abuso infantil, que se envían a las agencias policiales pertinentes de todo el mundo. “Cuando la detección se vuelve oscura, el abuso no cesa”.
En 2025, el NCMEC recibió 21,3 millones reportados Incluyendo más de 61,8 millones de imágenes, vídeos y otros archivos de todo el mundo sospechosos de estar relacionados con el abuso infantil. Alrededor del 90% de estos informes se relacionan con países fuera de Estados Unidos.
Una portavoz del Parlamento de la UE se negó a comentar si el órgano legislativo había llevado a cabo alguna evaluación para determinar las consecuencias de la legislación.
La decisión de la UE de prohibir el escaneo tendrá un efecto dominó en otras partes del mundo, dicen los expertos en protección infantil. Muchos delitos en Internet son transfronterizos y los delincuentes envían imágenes ilegales a personas o atacan a niños en otros países. Los “sexistas”, que se hacen pasar por intereses románticos para engañar a las personas para que les envíen fotos íntimas antes de intentar chantajearlas, también podrían sacar provecho del cambio de ley, dijo Sheehan.
“Los delincuentes pueden estar en cualquier parte del mundo, pero pueden tener acceso ilimitado a menores en Europa ahora que existe incertidumbre legal en torno a las salvaguardas y salvaguardas para identificar cuándo un niño está siendo acogido”, dijo Sheehan.
Años de intensas negociaciones condujeron al fracaso de la esencial legislación de exclusión
Durante los últimos cuatro años, se han debatido propuestas de regulaciones sobre abuso sexual infantil, lo que ha generado controversia porque obligaría a las empresas a tomar medidas para reducir los riesgos en sus plataformas, dijo Hannah Swirsky, jefa de políticas y asuntos públicos de Internet Watch Foundation, una organización sin fines de lucro de protección infantil con sede en el Reino Unido.
Los defensores de la privacidad sostienen que la gran tecnología para el abuso infantil es escanear mensajes amenaza Los derechos básicos de privacidad y seguridad de los datos de los ciudadanos de la UE equiparan estas medidas con el “control del chat” que puede conducir a una vigilancia masiva y falsos positivos.
“Hay denuncias de invasión de la privacidad o la confidencialidad”, dijo Swirski. “Bloquear CSAM no es una violación de la privacidad. La libertad de expresión no incluye el abuso sexual infantil”.
La tecnología de escaneo utiliza aprendizaje automático para realizar reconocimiento de patrones para identificar imágenes o videos conocidos asociados con el abuso infantil y no almacena ningún dato, dijo Emily Slifer, directora de políticas de Thorn, una organización sin fines de lucro que desarrolla tecnología para detectar el abuso infantil en línea, comúnmente utilizada por empresas y autoridades.
El sistema funciona haciendo que analistas capacitados revisen el CSAM conocido obtenido de fuentes externas, como informes de la policía, el público o investigaciones de sitios web que se sabe albergan material de abuso infantil. Cuando los analistas confirman que el contenido es abuso sexual infantil ilegal, crean una huella digital única, conocida como valor hash, que identifica esa imagen exacta. Luego, las listas de valores hash se comparten con plataformas, que utilizan sistemas automatizados para escanear las cargas y bloquear instantáneamente el contenido coincidente, sin la necesidad de que un humano lo vea.
“La tecnología no encuentra a los niños en las bañeras y cosas así. Si simplemente piensas en cómo se ven las imágenes de abuso versus cómo se ve el contenido consensual: esos son dos elementos muy diferentes, y la tecnología puede determinar esos patrones entre ellos”, dijo Slifer.
Si bien la UE ha bloqueado el escaneo en busca de abuso infantil, ha permitido a las empresas de tecnología escanear voluntariamente mensajes para identificarlos. Contenido terrorista Según la ley adoptada en 2021, dijo.
“La UE corre efectivamente el riesgo de abrir la puerta a los cazadores furtivos”, afirmó Swirski. “Si la UE se toma en serio la protección de los niños en línea, necesita acordar un marco legal permanente que permita la protección e identificación de los niños”.











