Las empresas de tecnología y las agencias de protección infantil tendrán el poder de comprobar si las herramientas de inteligencia artificial pueden producir imágenes de abuso infantil en virtud de una nueva ley del Reino Unido.
Un organismo de control de seguridad reveló que los informes de material de abuso sexual infantil (CSAM) generado por IA se duplicaron con creces el año pasado, de 199 en 2024 a 426 en 2025.
Según los cambios, el gobierno permitirá que las empresas de inteligencia artificial designadas y las agencias de protección infantil prueben modelos de inteligencia artificial (la tecnología subyacente para chatbots como ChatGPT y generadores de imágenes como Veo 3 de Google) y garantizarán que tengan implementadas salvaguardas para evitar que los niños creen imágenes de abuso sexual.
El Ministro de Inteligencia Artificial y Seguridad en Línea, Kanishk Narayan, dijo que la medida tenía como objetivo “en última instancia detener el abuso antes de que suceda”, y agregó: “Los expertos, bajo condiciones estrictas, ahora pueden identificar riesgos en los modelos de IA”.
Los cambios se introdujeron porque es ilegal crear y poseer CSAM, lo que significa que los desarrolladores de IA y otros no pueden crear este tipo de imágenes como parte de un sistema de prueba. Hasta ahora, las autoridades tenían que esperar hasta que el CSAM generado por IA se subiera a Internet antes de abordarlo. Esta ley tiene como objetivo detener ese problema ayudando a prevenir la creación de esas imágenes en origen.
Los cambios están siendo introducidos por el gobierno como enmiendas al Proyecto de Ley sobre Crimen y Vigilancia, legislación que también introduce una prohibición sobre la posesión, creación o distribución de modelos de IA diseñados para producir material de abuso sexual infantil.
Esta semana, Narayan visitó la base londinense de Childline, una línea de ayuda para niños, y escuchó una llamada simulada a consejeros que contenía un informe de abuso basado en IA. La llamada muestra a un adolescente siendo chantajeado por un deepfake sexual creado con inteligencia artificial después de pedir ayuda.
“Cuando escucho que se chantajea a niños en línea, me enojo muchísimo, y con razón entre los padres”, dijo.
La Internet Watch Foundation, que monitorea el CSAM en línea, dijo que el material de abuso generado por IA, como una página web que puede contener múltiples imágenes, se ha más que duplicado en lo que va del año. Los casos de material de categoría A, la forma más grave de abuso, aumentaron de 2.621 imágenes o vídeos a 3.086.
Las niñas fueron el objetivo desproporcionadamente, representando el 94% de las imágenes ilegales de IA en 2025, mientras que los recién nacidos hasta los dos años aumentaron de cinco en 2024 a 92 en 2025.
Kerry Smith, director ejecutivo de Internet Watch Foundation, dijo que el cambio de ley podría ser “un paso importante para garantizar que los productos de IA sean seguros antes de su lanzamiento”.
“Las herramientas de inteligencia artificial han logrado que los sobrevivientes puedan ser revictimizados con sólo unos pocos clics, dando a los delincuentes la capacidad de crear una cantidad potencialmente ilimitada de material sofisticado y fotorrealista sobre abuso sexual infantil”, dijo. “Materiales que reducen aún más el sufrimiento de las víctimas y hacen que los niños, especialmente las niñas, estén menos seguros en línea”.
Childline también publicó detalles de las sesiones de asesoramiento en las que se mencionó la IA. Los daños de la IA mencionados en la conversación incluyen: el uso de IA para determinar el peso, el cuerpo y la apariencia; Los chatbots impiden que los niños hablen con adultos seguros sobre el abuso; Acoso en línea con contenido generado por IA; y chantaje en línea mediante imágenes falsas de IA.
Entre abril y septiembre de este año, Childline impartió 367 sesiones de asesoramiento en las que se mencionaron IA, chatbots y términos relacionados, cuatro veces más que en el mismo período del año pasado. La mitad de las menciones de la IA en la sesión de 2025 estuvieron relacionadas con la salud y el bienestar mental, incluido el uso de chatbots y aplicaciones de terapia de IA como apoyo.










