Home Técnica Apple y Google rompieron sus propias reglas al promocionar la aplicación ‘Nudify’,...

Apple y Google rompieron sus propias reglas al promocionar la aplicación ‘Nudify’, según un informe

33

Si desea que una aplicación que cree se descargue de Apple App Store o Google Play Store, debe cumplir una serie de criterios, incluidos los estándares de seguridad.

pero Un nuevo informe El miércoles alegó que Apple y Google violaron sus propias reglas al promover aplicaciones “Nudify”, que están prohibidas en sus políticas de la App Store.

El Tech Transparency Project, parte de un organismo de vigilancia tecnológica sin fines de lucro, reveló por primera vez en enero que hay más de 100 aplicaciones desnudas o sin ropa en las tiendas de aplicaciones de Apple y Google. Se trata de aplicaciones cuyo único objetivo es tomar fotografías de personas, normalmente mujeres, y editarlas para que parezcan la persona sin ropa, lo que se conoce como imágenes íntimas no consentidas. Muchas de estas aplicaciones utilizan IA generativa para crear deepfakes.

Apple eliminó algunas aplicaciones prohibidas en ese momento. Pero muchos todavía están fuera, como lo demuestran investigaciones posteriores.

En abril, TTP descubrió que Apple y Google todavía permitían a los usuarios buscar varias palabras clave problemáticas, incluidas “desnudez”, “desnudez” y “desnudez profunda”. Después de una inmersión profunda en las 10 aplicaciones principales en ambas tiendas de aplicaciones, TTP descubrió que el 40% de las aplicaciones se anunciaban como “capaces de mostrar a las mujeres desnudas o con poca ropa”.

El nuevo informe también encontró que Google y Apple realmente promocionaron dichas aplicaciones en sus tiendas, aumentando su visibilidad, y Google creó específicamente “un carrusel de anuncios para algunas de las aplicaciones más atractivas de la investigación”.

Leer más: ¿Cómo mantener a los niños seguros en línea? Europa cree que su aplicación de verificación de edad es la respuesta

Tanto Apple como Google tienen lenguaje en sus políticas que prohíben aplicaciones con “contenido abiertamente sexual o pornográfico” (manzana) y “poses sexualmente sugerentes en las que el sujeto está desnudo, con poca ropa o con poca ropa” (Google) y ambos han aplicado estos principios en el pasado, en particular, persiguiendo aplicaciones pornográficas.

Pero Apple y Google ganan dinero con los desarrolladores de aplicaciones publicando anuncios y tomando una parte de las suscripciones pagas a aplicaciones. La firma de análisis AppMagic descubrió que estas aplicaciones “nudify” se descargaron 483 millones de veces y generaron más de 122 millones de dólares en ingresos de por vida.

“Este flujo de ingresos puede ser la razón por la que las dos compañías han sido menos cuidadosas al exponer aplicaciones que violan sus políticas”, escribió TTP.

Atlas de IA

Google le dijo a CNET que Google Play no permite aplicaciones con contenido sexual y muchas de las aplicaciones citadas en el informe han sido suspendidas por violar sus políticas.

Apple le dijo a CNET que eliminó 15 de las aplicaciones marcadas en el informe y se comunicó con los desarrolladores de otras seis, diciéndoles que tenían que solucionar los problemas o se arriesgaban a ser retirados de la tienda. Bloqueó varios términos de búsqueda adicionales marcados por TTP.

El contenido gráficamente sexual consensual es un problema creciente gracias a la IA. Vimos con sorprendente claridad cómo se pueden usar aplicaciones con IA para crear este contenido ilegal y ofensivo a principios de año, cuando los usuarios de Grok crearon 1,4 millones de deepfakes sexualizados en nueve días.

algo En este momento, el senador estadounidense Llamó a Apple y Google para que eliminaran Grok de sus tiendas de aplicaciones, pero ninguno de los dos lo hizo.

Esta semana nos enteramos de que Apple se acercó personalmente a Grok para expresar su preocupación por sus capacidades abusivas de inteligencia artificial y amenazó con eliminarlas. Grok todavía está disponible en las tiendas de aplicaciones de Apple y Google y todavía es conocido IA abusiva capaz de crear imágenes sexualesA pesar de la empresa dicho De lo contrario

Enlace fuente