Home Apple Según se informa, las sugerencias de búsqueda de la App Store han...

Según se informa, las sugerencias de búsqueda de la App Store han llevado a los usuarios a ‘nodificar’ aplicaciones

75

El Tech Transparency Project (TTP) dio seguimiento a su informe de enero que reveló docenas de aplicaciones “nudify” en la App Store con un enfoque en cómo el propio sistema de búsqueda y publicidad de Apple podría ayudar a los usuarios a encontrarlas. Aquí están los detalles.

Las aplicaciones Nudify siguen siendo un problema en las tiendas de aplicaciones

De acuerdo a Nuevo informeTanto App Store como Google Play Store están “ayudando a los usuarios a encontrar aplicaciones que presenten imágenes profundas de mujeres desnudas”, a veces a través de resultados de búsqueda promocionados y sugerencias de búsqueda de autocompletar.

En el informe, TTP dijo que Apple y Google aún no logran evitar que aparezcan aplicaciones desnudas en sus tiendas de aplicaciones, algunas de las cuales parecen ser adecuadas para menores. El grupo descubrió que casi el 40% de las 10 principales aplicaciones devueltas para búsquedas como “desnudez”, “desnudarse” y “desnudo profundo” “pueden mostrar a las mujeres desnudas o con poca ropa”.

Además, algunas búsquedas revelaron resultados patrocinados para estas aplicaciones. Del informe:

“(…) El primer resultado de una búsqueda de ‘deepfake’ en la App Store fue un anuncio del vídeo FaceSwap de DuoFace. La aplicación permite a los usuarios cambiar el rostro de cualquier persona de una imagen fija a un vídeo. Para probar la aplicación, TTP subió una foto de una mujer con un suéter blanco parada en la acera y un vídeo de una mujer en topless. La aplicación presentó un anuncio después de mostrar el rostro de una mujer con poca ropa. El cuerpo de una mujer desnuda.”

Y

Otra búsqueda en la App Store del término “intercambio de caras” mostró un anuncio de una aplicación llamada AI Face Swap. La aplicación ofrece plantillas de intercambio de caras preestablecidas y permite a los usuarios intercambiar caras en sus propias imágenes cargadas. TTP subió una foto de una mujer con un suéter azul parada en una sala de estar y una foto de una mujer en topless, con una aplicación sucia en la cara.

Curiosamente, además de contactar a Apple y Google sobre estos hallazgos, TPP también contactó a los desarrolladores de algunas de estas aplicaciones. Al menos en un caso, el desarrollador de la aplicación confirmó que estaban usando Grok para crear imágenes, pero afirmó que “no tenían idea de que fuera capaz de crear contenido tan extremo”. El desarrollador ha prometido reforzar la configuración de moderación para la creación de imágenes.

Volviendo al informe, TTP señaló que escribir “AI NS” como parte de una búsqueda que podría conducir a “AI NSFW” hizo que la App Store recomendara “imágenes en video ai nsfw”. Esa búsqueda, a su vez, arrojó varias aplicaciones de nudificación entre los diez primeros resultados.

A pesar de negarse a comentar sobre la solicitud de TTP, Apple respondió al informe eliminando la mayoría de las aplicaciones identificadas por TTP.

Para leer el informe TTP completo, Sigue este enlace.

Vale la pena echarle un vistazo a Amazon

Enlace fuente