Home Apple El resumen de notificaciones de IA puede contener prejuicios raciales y de...

El resumen de notificaciones de IA puede contener prejuicios raciales y de género

20

Cuando las preguntas creadas específicamente para probar la inteligencia de Apple utilizando herramientas de desarrollo son intencionalmente vagas sobre raza y género, los investigadores han visto aparecer sesgos.

AI Forensic, una organización alemana sin fines de lucro, analizó resúmenes de más de 10.000 notificaciones generadas por las funciones de inteligencia artificial de Apple. El informe sugiere que Apple Intelligence trata a los blancos como “predeterminados” cuando no se especifica ningún género.

Según los informes, Apple Intelligence tiende a ignorar el origen étnico de una persona si es caucásica. Por el contrario, cualquier mensaje que mencione otra etnia suele aparecer después del resumen de la notificación.

El informe encontró que cuando se trataba de mensajes idénticos, el modelo de inteligencia artificial de Apple solo identificaba el origen étnico de una persona como blanca el 53% de las veces. Pero estas cifras fueron considerablemente más altas para otras etnias; Su origen étnico se mencionó el 89% de las veces cuando eran asiáticos, el 86% cuando eran hispanos y el 64% cuando eran negros.

El estudio afirma que Apple Intelligence predice que la persona mencionada en los mensajes es blanca la mayor parte del tiempo. Efectivamente, la modelo cree que el blanco es lo ideal.

Otro ejemplo muestra a Apple Intelligence asignando roles de género cuando no había ninguno asignado.

Las pruebas utilizaron una frase que se refería tanto a un médico como a una enfermera, eliminando la falta de especificidad. Sin embargo, Apple Intelligence realizó asociaciones que no estaban en el mensaje original en el 77% de los resúmenes analizados.

Además, en el 67% de estos casos, Apple Intelligence descubrió que el médico era un humano. Luego pasó a hacer suposiciones similares de que la enfermera era una mujer.

En particular, se cree que los datos de entrenamiento de la IA han dado lugar a predicciones. Se alinean estrechamente con la población laboral de EE. UU., lo que sugiere que la IA solo funciona con los datos con los que fue entrenada.

Se observaron sesgos similares en diferentes criterios. El informe muestra que ocho dimensiones sociales, incluidas la edad, la discapacidad, la nacionalidad, la religión y la orientación sexual, estaban sujetas a los supuestos de AI.

Métodos y limitaciones

Un informe que detalla el trabajo de los expertos forenses de IA explica Utilizó una aplicación personalizada creada con las herramientas de desarrollo de Apple para ejecutar las pruebas. Esa aplicación se basa en el marco Foundation Model de Apple para simular mensajes del mundo real.

Este enfoque significa que la prueba se asemeja mucho a lo que podrían experimentar los usuarios de otras aplicaciones de mensajería de terceros. Sin embargo, todavía hay un margen considerable de error.

AI Forensics reconoce que sus “escenarios de prueba son construcciones sintéticas diseñadas para investigar niveles de sesgo específicos, no avisos naturales”. A esto se suma que puede haber diferencias entre la forma en que se escriben los mensajes reales y, en consecuencia, se interpretan por parte de Apple Intelligence.

El equipo también señaló que los mensajes del mundo real pueden no utilizar las mismas “referencias de pronombres ambiguos” que sus mensajes de prueba. Creemos que ésta es la mayor deficiencia del estudio.

Sin embargo, es importante señalar que cualquier sesgo mostrado en este informe podría ser enorme en la escala de Apple. Apple Intelligence se utiliza en cientos de millones de dispositivos todos los días.

Resultados similares a los destacados en este informe pueden ocurrir en cantidades sustanciales.

Más mala prensa para la esencia de Apple

Esta no es la primera vez que Apple introduce resúmenes de notificaciones basados ​​en IA. En diciembre de 2024, bbc Alegó que el resumen de su noticia era incorrecto.

“Luigi Mangione se pegó un tiro”, se lee en un aviso de ejemplo en referencia al hombre arrestado por matar al director ejecutivo de UnitedHealthcare, Brian Thompson. Mangione estaba y está viva y actualmente en espera de juicio.

Posteriormente, Apple deshabilitó los resúmenes de notificaciones para la aplicación Noticias mientras trabajaba para solucionar el problema. Pero este informe muestra que las notificaciones de aplicaciones de comunicación, como Mensajes, siguen resultando problemáticas.

Apple es claramente consciente de los defectos de Apple Intelligence. La compañía firmó recientemente un acuerdo con Google para llevar su modelo Gemini AI a Siri.

Pero después de los informes de que el Siri renovado no se enviaría con iOS 26.4 como se esperaba, las esperanzas de una mejora inminente se desvanecieron.

Curiosamente, AI Forensics también señala que el modelo Gemma3-1B de Google es mucho más pequeño que el de Apple, pero más preciso. Al examen, alucina.

Con menos frecuencia y de forma menos estereotipada.

Apple recientemente puso al jefe de software Craig Federighi a cargo de sus esfuerzos de IA, una señal de que no está contento con Apple Intelligence. Pero el progreso tarda en llegar.

Es probable que las esperanzas de encontrar soluciones rápidas a los sesgos resaltados por los análisis forenses de IA se esfumen mucho más rápido.

Enlace fuente