Los padres están haciendo sonar la alarma sobre los videos sexuales y violentos generados por IA que, según afirman, YouTube recomienda a sus hijos.
Mamá Liz Guiller le dijo al Daily Mail que se vio “inundada” con contenido horrible después de abrir una cuenta para sus hijos de uno y tres años.
Dijo: “La película puede ser espantosa, con rostros derritiéndose, extremidades que desaparecen y monstruos creados descuidadamente que rivalizarían con Silent Hill, excepto para los niños pequeños que la ven si sus padres dependen de YouTube para la curación de contenidos”. Da mucho miedo.’
Según el experto en inteligencia artificial Jeremy Carrasco, es poco probable que Guiller esté solo en su experiencia, y YouTube puede recomendar rutinariamente contenido espeluznante generado por inteligencia artificial a los niños.
Realizó un experimento que, según afirmó, demostró que un algoritmo dirigido a niños estaba emitiendo clips perturbadores.
Estos incluyen videos que muestran representaciones caricaturescas de abuso infantil, así como personajes de IA que realizan cirugías grotescas, disparan armas, cometen actos violentos o participan en comportamientos sexuales.
Carrasco dijo que sacó sus conclusiones creando una cuenta falsa e imitando los hábitos de transmisión de un niño en YouTube para probar qué tipos de videos serían recomendados.
Le dijo al Daily Mail: “YouTube podría decir que estaba interesado en Bluey o Roblox y aun así sugerirlo en la página de inicio”. Incluso las miniaturas de la página de inicio eran francamente horribles a veces”.
El productor de videos y consultor de inteligencia artificial Jeremy Carrasco dijo que creó una cuenta haciéndose pasar por un niño para ver qué tipo de contenido le empujaban.
Los inquietantes vídeos de IA en YouTube suelen presentar personajes humanoides. En este vídeo, una madre gata asfixia a su bebé con una almohada antes de arrojarla por un acantilado
Afirmó que la página de inicio recomendaba claramente contenido generado por IA de canales con nombres como ‘Meowboom’ y ‘MyoKitten007’ del canal de cortos de YouTube del sitio.
YouTube le dijo al Daily Mail que ninguno de los videos marcados en la prueba de Carrasco apareció en la aplicación YouTube Kids, pero desactivó varios canales destacados por el medio después de descubrir que violaban las pautas de la comunidad.
Jack Mallon, portavoz de la plataforma, dijo al Daily Mail: “Para ser claros, este contenido no está en la aplicación YouTube Kids. Los padres tienen el control de lo que ven sus hijos en YouTube y deben elegir un nivel de restricción de contenido específico para la cuenta de sus hijos durante la configuración.’
Carrasco dijo que si bien estos molestos videos de IA no aparecerán en la aplicación YouTube Kids, la versión normal de la plataforma aún podrá saber si un niño está mirando según el contenido que consume.
“Creo que deberían poder determinar con algunas herramientas de edad: “Oh, oye, nuestro hijo de siete años está mirando, probablemente no deberíamos poner cortos en la página de inicio porque sabemos que es lo más saludable que podemos hacer”, dijo.
‘Ya tienen las herramientas para hacerlo. Podrían hacerlo mañana. Tampoco estoy sugiriendo que bloqueen a esos usuarios para que no vean videos de formato corto si realizan búsquedas. No les empujes algorítmicamente la mierda más dañina.’
Los canales de cortos generados por IA comenzaron a aparecer a finales del año pasado a medida que la tecnología se volvió más sofisticada.
En este vídeo de IA, una madre enojada con cabeza de oveja golpea a un gato con un bate y le echa alquitrán.
Desde entonces, decenas de canales han monetizado vídeos generados por IA con contenido violento, perturbador y sexual.
“Mi reacción inmediata fue pensar en lo horrible que sería si mis hijos lo vieran ellos mismos”, dijo Giller al Daily Mail.
“No creo que los niños pequeños tengan la capacidad de procesar lo que ven de la misma manera que los adultos, por lo que es un fallo ridículo de la IA que podamos confundirlos, asustarlos o incluso normalizar temas perturbadores”.
Guiller hizo una publicación en Reddit a principios de este año que, según dijo, estaba: “Realmente consternado por la cantidad de basura de IA que derrite el cerebro que hay, cosas simplemente horribles”.
En el hilo, decenas de padres compartieron experiencias similares con madres australianas y lamentaron la naturaleza hiriente y perturbadora del contenido que encontraron.
Un padre escribió: ‘Hace poco fui a una peluquera que tiene un estudio privado y ella trajo a su cuarto/quinto año porque cancelaron las clases por el clima y no me importó.
“Pero luego le puso YouTube en la televisión y pasó de canciones y vídeos educativos a una extraña mierda de IA que me devoraba el cerebro y que veía tan rápido”.
Otro padre dijo: ‘Algunos de ellos son verdaderos monstruos. Me gustaría tomar una captura de pantalla del combustible de pesadilla que bloqueé.
Los vídeos de IA también pueden tener personajes humanos. Mientras tanto, una madre aterrorizada arroja a su bebé por la ventanilla del avión estrellado
Liz Guiller quedó ‘horrorizada’ por los inquietantes vídeos generados por IA que encontró en YouTube después de revisar una cuenta que creó para sus hijos.
Guiller también dijo que era ‘aterrador’ imaginarse viendo los videos de IA que encontraron sus hijos.
Este peculiar vídeo que presenta una versión generada por IA del famoso jugador de fútbol Ronaldo tuvo un desempeño particularmente bueno, obteniendo más de 200.000 me gusta.
Andrew Koepp, psicólogo del desarrollo y profesor asistente de psicología aplicada en la Universidad de Nueva York, explicó al Daily Mail el daño que dicho contenido puede tener en los niños.
Dijo: “Las características superficiales del vídeo están claramente diseñadas para atraer a los niños con colores brillantes y personajes exagerados que parecen dibujos animados… sin embargo, el contenido es claramente muy inapropiado para los niños”.
“Antes de los ocho años, los niños tienen dificultades para distinguir entre ficción y realidad”, dijo Koepp, añadiendo que los vídeos que le envía el Daily Mail para su revisión, “abandono y mutilación, son temas que exigen mucha sensibilidad”.
La controversia sigue al escándalo ‘Elsagate’ de YouTube de finales de la década de 2010, donde los creadores utilizaron imágenes de personajes infantiles como Elsa o Spiderman de Frozen para actuar en situaciones inapropiadas con temas violentos y sexuales.
Los videos tuvieron un buen desempeño porque sus creadores pusieron los nombres de los personajes en los títulos y etiquetas, lo que llevó al algoritmo a promocionarlos entre los niños.
El doctor Costantinos Papadamou, informático e investigador, estudió el fenómeno Elsagate y publicó un artículo al respecto en 2020.
El abuso físico de niños es un tema común en estos videos generados por IA
Algunos vídeos incluyen imágenes inquietantes de sangre y heridas.
El problema actual de los videos perturbadores de IA es la última versión de un problema de larga data con YouTube que recomienda videos inapropiados para niños. Estas capturas de pantalla son de videos que fueron parte de la controversia ‘Elsagate’ de finales de la década de 2010.
en EstudiarÉl y su equipo simularon el comportamiento de un niño en YouTube y descubrieron que “había un 3,5 por ciento de posibilidades de que un niño que seguía las recomendaciones de YouTube encontrara (haciera clic) en un video inapropiado entre diez si comenzaba con un video que aparecía aleatoriamente entre los diez primeros resultados de una búsqueda de palabras clave apropiadas para niños”.
YouTube ha realizado cambios en la plataforma en un intento de resolver el problema de Elsagate.
Agregó una función que requería que cualquiera que publicara en el sitio web hiciera clic en un cuadro que indicaba si el video estaba destinado a niños, lo que ayudó a reducir el problema.
Papadamou hizo la conexión entre Elsagate y el problema actual con contenido inapropiado de IA, y le dijo al Daily Mail que estaba preocupado por la facilidad con la que se podían crear estos nuevos e inquietantes videos de IA.
“El problema era bastante grande en 2020 con el volumen de nuestros vídeos, y no podían seguir el ritmo porque la mayoría de los sistemas estaban vinculados (sic) a un hombre”, dijo.
“Se puede imaginar cómo estos sistemas no pueden mantener el volumen hoy en día.”










