Los funcionarios del Grupo de Trabajo sobre Crímenes contra Niños en Internet (ICAC) de EE. UU. dicen que el uso de software de inteligencia artificial por parte de Meta para moderar sus plataformas de redes sociales está generando una gran cantidad de informes inútiles de abuso sexual infantil, desperdiciando recursos e impidiendo las investigaciones.
“Recibimos muchos consejos de Meta que son una especie de basura”, dijo la semana pasada Benjamin Zwiebel, un agente especial del grupo de trabajo ICAC en Nuevo México, durante su testimonio en el juicio estatal contra Meta. El fiscal general del estado ha alegado que las plataformas de la empresa obtienen ganancias en lugar de proteger a los niños. Meta cuestiona estas acusaciones, citando cambios que ha introducido en sus plataformas, como cuentas juveniles con protecciones predeterminadas. El Grupo de Trabajo ICAC es una red nacional de agencias policiales que se coordinan con el Departamento de Justicia de EE. UU. para investigar y procesar casos de explotación y abuso infantil en línea.
Otro funcionario del ICAC, que habló bajo condición de anonimato para discutir asuntos internos, dijo: “Meta está emitiendo miles de pistas cada mes. Es abrumador porque recibimos tantos informes, pero la calidad de los informes realmente carece de nuestra capacidad para tomar medidas serias”. El funcionario del ICAC agregó que su departamento ha duplicado el número total de cibertips de 2024 a 2025.
Los consejos no solicitados de Instagram, Facebook y WhatsApp, en algunos casos, contienen información que no es delictiva, dijeron Zweibel y dos funcionarios del ICAC. Los oficiales anónimos agregaron que las pistas a veces contienen información que indica que se ha producido un delito, pero faltan o están redactados imágenes, vídeos o textos importantes.
“(Los consejos inútiles de) Instagram realmente se han disparado recientemente, especialmente en los últimos meses, y ese es uno de los lugares más grandes donde no brindamos esta información”, agregó el funcionario del ICAC. “En ese caso, no tenemos la información para continuar con la investigación. A usted le corresponde saber que se produjo este crimen, pero no podemos identificar al autor”.
Cuando se le preguntó sobre el testimonio de Zweibel y los comentarios de los oficiales de ICAC, un portavoz de Meta dijo: “Hemos apoyado a las fuerzas del orden en el procesamiento de criminales durante años: el Departamento de Justicia ha elogiado repetidamente nuestra rápida cooperación que condujo a arrestos, y el NCMEC ha recibido más de 9.000 solicitudes de emergencia de las autoridades estadounidenses y más de 9.000 solicitudes de emergencia de las autoridades estadounidenses que condujeron a arrestos y casos de protección infantil y suicidio consistentes con la ley aplicable. Rápidamente, informamos con claridad imágenes de explotación sexual infantil al NCMEC y ayudarlos en todo, desde ayudarles a desarrollar herramientas de gestión de casos hasta etiquetarlos como ciberconsejos”.
La compañía señaló que el agente, Zweibel, recomendó usar la función de cuenta para adolescentes de Meta durante su testimonio, y dijo que “porque es la única opción disponible, suponiendo que los adolescentes no dejen de usar las redes sociales”.
Raúl Torrez, el fiscal general de Nuevo México que lidera el caso contra Meta, reconoció la cooperación de la compañía al proporcionar pistas sobre abuso infantil en el juicio: “Quiero dar crédito a ciertas aplicaciones y plataformas de redes sociales, incluida Meta, que hasta cierto punto reportan las imágenes al Centro Nacional para Niños Desaparecidos y Explotados”.
Los archivos publicados el viernes en el caso muestran que los ejecutivos de Meta hicieron sonar la alarma internamente ya en 2019 sobre el abuso sexual infantil y la capacidad de la compañía para alertar a las autoridades. En ese momento, la compañía se estaba preparando para habilitar el cifrado de extremo a extremo en Facebook Messenger, que oculta los mensajes de los usuarios a cualquiera que no sea el destinatario previsto.
La presentación plantea nuevas preguntas
“Estamos a punto de hacer algo malo como empresa. Es muy irresponsable”, escribió Monika Bickert, directora de política de contenidos de Meta.
Bickert Escribió que si el contenido de Messenger estuviera cifrado “no habría forma de encontrar planes de ataque terrorista o explotación infantil”, lo que podría impedir que las fuerzas del orden trabajen con ellos. Bickert también dijo que Meta estaba haciendo “graves tergiversaciones sobre nuestra capacidad para llevar a cabo operaciones de seguridad”, según documentos internos.
En otro documento, el personal de Meta estimó que cifrar Messenger impedía a la agencia “proporcionar de forma proactiva datos a las fuerzas del orden sobre 600 casos de explotación infantil, 1.454 casos de agresión sexual, 152 casos de terrorismo y 9 amenazas de tiroteos en escuelas”.
Andy Stone, portavoz de Meta, dijo a Reuters: “Las preocupaciones planteadas en 2019 significan que hemos desarrollado una gama de nuevas funciones de seguridad para ayudar a detectar y prevenir abusos, diseñadas para funcionar en chat cifrado”.
Los grupos de protección infantil criticaron el cifrado de Messenger, que finalmente se introdujo en 2023.
Denuncias generalizadas sobre abuso infantil
Por ley, las empresas de redes sociales con sede en Estados Unidos deben informar cualquier material de abuso sexual infantil (CSAM) identificado en sus plataformas al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC). El NCMEC actúa como cámara de compensación nacional para el informe, que envía a las agencias policiales apropiadas en todo Estados Unidos e internacionalmente. El NCMEC no tiene el poder de filtrar información que pueda resultar inutilizable antes de enviarla a las agencias policiales correspondientes.
Meta es el mayor reportero del NCMEC hasta la fecha. En su informe de datos para 2024, NCMEC dijo que Meta generó 13,8 millones de informes en Facebook, Instagram y WhatsApp, recibiendo un total de 20,5 millones de sugerencias.
El NCMEC dijo que en 2024, más de 1 millón de informes de cibertipline estaban vinculados a un estado específico de EE. UU. y esos informes se pusieron a disposición de los grupos de trabajo del ICAC en todo el país para su investigación, así como de otras agencias policiales federales, estatales y locales.
Meta y otras empresas de redes sociales utilizan inteligencia artificial para identificar y denunciar material sospechoso en sus sitios y contratan moderadores humanos para revisar algunos contenidos marcados antes de enviarlos a las autoridades. The Guardian informó anteriormente que un agente de la ley no puede abrir los consejos generados por IA que a menudo no son revisados por un empleado de una empresa de redes sociales sin una orden judicial debido a las protecciones de la Cuarta Enmienda. Este paso adicional también ralentiza la investigación de posibles delitos, dicen los abogados involucrados en tales casos.
Un portavoz de Meta dijo: “Es desafortunado que los fallos judiciales aumenten la carga sobre las fuerzas del orden al exigir órdenes de registro para abrir copias idénticas de contenido que ya hemos revisado y reportado. Nuestro sistema de comparación de imágenes encuentra copias de explotación infantil conocida en una escala que sería imposible hacerlo manualmente, a través de nuestra comunidad para identificar contenido nuevo, explotación infantil a través de nuevas tecnologías que informamos e investigaciones realizadas por nuestros equipos especializados en protección infantil”.
El cambio legal provoca una avalancha de propinas
Según la Ley de denuncias (que modifica los procedimientos existentes sobre denuncias a través de tecnología), que entró en vigor en noviembre de 2024, los proveedores de servicios en línea deben ampliar y fortalecer sus obligaciones de denuncia notificando a CyberTipline del NCMEC no solo sobre contenido de abuso sexual infantil, sino también sobre abuso planificado o inminente, tráfico sexual infantil y explotación relacionada; Deben preservar las pruebas durante períodos de tiempo más largos y enfrentar sanciones más altas si no cumplen con conocimiento.
Desde que se aprobó la ley, el número de pistas no calificadas proporcionadas por Meta ha aumentado dramáticamente, lo que puede deberse al hecho de que la compañía está trabajando para garantizar que la ley no sea infringida, dijeron dos funcionarios del ICAC. Muchos de estos consejos no pretenden ser ofensivos, como que las adolescentes hablen sobre qué celebridades les parecen más atractivas.
“Basado en mi entrenamiento y experiencia, parece que estos se presentan mediante el uso de IA, ya que este es un error común que cometería una IA y que un observador humano no cometería”, dijo Zwiebel en el tribunal.
Por el contrario, el departamento de Zwiebel recibió muchas menos denuncias por parte de Meta sobre casos legítimos de distribución de material de abuso sexual infantil (CSAM) que en años anteriores, afirmó.
Cada denuncia que llega al departamento del ICAC debe ser revisada, y el flujo de denuncias inútiles está quitando tiempo y recursos a la investigación de casos legítimos de abuso infantil, dijeron los dos funcionarios.
“Está acabando con la moral. Nos estamos ahogando en pistas y queremos salir de allí y hacer esto”, dijo un oficial del ICAC. “No tenemos el personal para sostenerlo. No hay manera de seguir el ritmo de la inundación que se avecina”.











