Una nueva demanda colectiva, Presentado el lunes Tres adolescentes y sus padres han alegado que xAI de Elon Musk creó y distribuyó material de abuso sexual infantil con sus rostros y semejanzas con su tecnología Grok AI.
“Sus vidas se han visto perturbadas por la devastadora pérdida de privacidad, dignidad y seguridad personal resultante de la producción y difusión de este CSAM”, dice el documento. “Las ganancias financieras de xAI han tenido un costo y bienestar a través del mayor uso de sus productos de creación de imágenes y videos”.
Desde diciembre hasta principios de enero, Grok permitió a muchos usuarios de redes sociales AI y X crear imágenes íntimas no consensuadas generadas por AI, a veces conocidas como pornografía deepfake. Estimar el informe Los usuarios de Grok crearon 4,4 millones de fotografías “desnudas” o “nodificadas” en un período de nueve días, lo que representa el 41% del número total de fotografías.
X, xAI y sus departamentos de seguridad y protección infantil no respondieron de inmediato a las solicitudes de comentarios.
La ola de imágenes “desnudas” ha provocado indignación en todo el mundo. La Comisión Europea inició rápidamente una investigación, mientras que Malasia e Indonesia prohibieron X dentro de sus fronteras. Algunos funcionarios del gobierno de EE. UU. han pedido a Apple y Google que eliminen la aplicación de sus App Store por violar sus políticas, pero no se han abierto investigaciones federales sobre X o xAI. Hubo una demanda colectiva separada similar archivado (PDF) por una mujer de Carolina del Sur a finales de enero.
La tendencia Inhuman destacó cuán capaces son las herramientas modernas de imágenes de IA para crear contenido que parezca realista. La nueva denuncia compara la autoproclamada generación de “IA picante” de Grok con las “artes oscuras” que involucran a niños en “cualquier pose, no importa cuán enferma sea, no importa cuán fetichizada sea”.
“Para el espectador, el vídeo resultante parece completamente real. Para el niño, sus rasgos identificativos ahora estarán vinculados para siempre al vídeo que muestra a su propio hijo siendo abusado sexualmente”, se lee en la denuncia.
La denuncia alega que XAI tiene la culpa porque no empleó medidas de seguridad estándar de la industria que impidieran que los abusadores crearan este contenido. Dijo que xAI autorizó el uso de su tecnología a empresas de terceros en el extranjero, que vendían suscripciones que llevaban a los abusadores a crear imágenes de abuso sexual infantil con el rostro y la imagen de la víctima. Las solicitudes pasaron por los servidores de xAI, lo que responsabiliza a la empresa, argumenta la denuncia.
La demanda fue presentada por tres Jane Does, seudónimos dados a los adolescentes para proteger sus identidades. Jane Doe 1 fue alertada por primera vez de que su contenido sexual ofensivo generado por IA circulaba en la web a través de un mensaje anónimo de Instagram a principios de diciembre. El documento dice que un usuario anónimo de Instagram le informó sobre un servidor de Discord, donde se compartía el material. Esto llevó a Jane Doe 1 y su familia y, finalmente, a las autoridades a encontrar y arrestar a un criminal.
La investigación en curso llevó a las familias de Gen Dose 2 y 3 a descubrir que las imágenes de sus hijos se habían convertido en material ofensivo con tecnología xAI.










