Home Noticias Elemento de abuso infantil ‘sistémico’ en X de Elon Musk en medio...

Elemento de abuso infantil ‘sistémico’ en X de Elon Musk en medio del escándalo de Groke, advierte el regulador australiano de seguridad en línea | Tecnología

24

XK, del regulador australiano de seguridad en línea, Elon Musk, advirtió en medio del escándalo de generación de imágenes sexuales de Grok que encontró que el contenido de abuso infantil era “particularmente sistémico” en X y “más accesible que cualquier otro servicio convencional”, según correspondencia obtenida por Guardian Australia.

El comisionado de seguridad electrónica escribió a X en enero que su chatbot, Grok, había sido utilizado para crear imágenes sexualizadas de mujeres y niños en línea, lo que el primer ministro, Antony Albanese, describió como “repugnantes”.

En una carta obtenida por Guardian Australia en virtud de la Ley de Libertad de Información, la directora general de operaciones regulatorias de eSafety, Heidi Snell, señaló la promesa de Musk cuando se hizo cargo de la plataforma en 2022 de que “eliminar la explotación infantil es la prioridad número uno”, pero dijo que “la disponibilidad de CSEM es específicamente para perpetuar el contenido sexual infantil en X”.

Regístrese para recibir el correo electrónico de Breaking News Australia

“E-Safety no ha identificado a CSEM como de fácil acceso en ningún otro servicio convencional”, dijo Snell.

eSafety descubrió que, si bien la medida de X para combatir las cuentas de bots en octubre de 2025 redujo el uso de algunos hashtags y términos utilizados anteriormente para publicitar CSEM, eSafety aún encontró hashtags para publicitar contenido convencional.

“Nos preocupa que hashtags aparentemente inocentes parezcan ser cooptados para publicitar CSEM, especialmente cuando se usan juntos”, dijo Snell. “eSafety encontró CSEM entre otros elementos usando una combinación de hashtags: (redactado). Algunos de estos términos tienen un uso inofensivo, lo que significa que es probable que los usuarios queden expuestos inadvertidamente a CSEM a pesar de intentar utilizar el servicio X de manera legítima”.

ESafety también considerará emitir a X un aviso de eliminación de las imágenes creadas por Grok, sujeto a la respuesta de X, dijo Snell. El regulador también señaló que el análisis realizado por AI Forensics sugirió que Grok estaba creando contenido terrorista y publicándolo en X.

Guardian Australia no recibió la respuesta de X al documento FOI pero, cuando se le contactó para hacer comentarios, X proporcionó su respuesta y una respuesta al asesoramiento de terceros durante el procesamiento de la solicitud de FOI.

X dijo en su carta que tiene una “política de tolerancia cero para cualquier forma de explotación sexual infantil en la plataforma X, incluido el contenido generado por IA”, tiene sistemas automatizados para detectar dicho material y responde a los informes de los usuarios sobre contenido abusivo. X dice que más del 99% de las cuentas relacionadas con CSEM se eliminan activamente antes de recibir un informe.

X dijo que era consciente de que los malos actores podrían cooptar términos inocuos y que evalúa constantemente palabras clave y nuevos términos para agregar a las defensas de bots y a las listas de bloqueo de búsqueda.

“Los términos mencionados en su carta no pueden usarse como una señal ‘fuerte’ de (contenido de abuso sexual infantil) en la plataforma X”, dijo X.

“Su carta hacía acusaciones serias… pero no especificaba las URL ni los identificadores de cuentas para el contenido”.

En Grok, X dijo que se activaron “protocolos de eventos sólidos” durante el incidente de desvestimiento, y que se tomaron “medidas rápidas” en cualquier caso reportado de contenido infractor.

La agencia dijo que entre el 1 de enero de 2026 y el 15 de enero de 2026, eliminó 4.500 contenidos producidos por Grok, como imágenes de mujeres en bikini, y suspendió permanentemente más de 674 cuentas por violar la política de explotación sexual infantil de X. Las suspensiones significaron algo más que aquellos que instaron a Grok a producir material sobre abuso infantil.

X advirtió a eSafety que no publicar su respuesta a la carta a la solicitud de FoI “presentaría una descripción incompleta y potencialmente engañosa del intercambio regulatorio”.

Un portavoz de eSafety dijo que el regulador “continúa evaluando e investigando el cumplimiento de X” con los códigos y estándares de la industria relacionados con CSEM.

El lunes, X, la empresa matriz de xAI, demandó a tres adolescentes, dos de las cuales son menores de edad en Estados Unidos, alegando que Grok utilizó sus imágenes para crear y distribuir material de abuso sexual infantil.

Musk ha negado anteriormente que Grok haya sido utilizado para crear material de abuso sexual infantil, afirmando en enero que “no tenía conocimiento de ninguna imagen de menores desnudos hecha por Grok”.

A pesar de la mordaz condena de X a Albanese en enero, él y los funcionarios del gobierno continuaron publicando en el sitio web a pesar de un número creciente de escándalos en la plataforma, incluido Grok refiriéndose a sí mismo como “MechaHitler” y una abundancia de información errónea en la plataforma después del ataque terrorista de Bondi.

El gobierno federal también ha mantenido el gasto en la plataforma durante los últimos años.

Los datos obtenidos por Guardian Australia durante los dos primeros años desde que Musk asumió el cargo, entre 2022 y noviembre de 2024, muestran que los contribuyentes australianos pagaron 4,26 millones de dólares X por los anuncios publicados en la plataforma.

El Departamento de Finanzas ha rechazado la solicitud de libertad de información de Guardian Australia para obtener datos de gasto para 2025.

Enlace fuente