En un nuevo artículo, investigadores de la Universidad Carnegie Mellon y el Instituto de Tecnología Stevens muestran una nueva forma de pensar sobre los efectos justos de las decisiones de IA. Se basan en una tradición bien establecida conocida como reforma del bienestar social, cuyo objetivo es mejorar las decisiones centrándose en los beneficios y daños agregados de los individuos. Este método se puede utilizar para evaluar las herramientas de evaluación estándar de la industria para la justicia de la IA, que analizan las tasas de aprobación en grupos protegidos.
John Hooker, profesor de investigación de operaciones en la Escuela Tepper de Carnegie Mellon, explicó: “Para evaluar la equidad, la comunidad de IA se esfuerza por garantizar un trato igualitario para grupos que difieren en estatus económico, raza, origen étnico, existen diferencias de género y otras categorías.” Fue autor del estudio y presentó el artículo en la Conferencia Internacional sobre Integración de Programación de Restricciones, Inteligencia Artificial e Investigación de Operaciones (CPAIOR) en Uppsala, Suecia, el 29 de mayo. El artículo recibió el premio al Mejor Artículo.
Imagine una situación en la que un sistema de inteligencia artificial decide quién obtiene la aprobación de una hipoteca o quién consigue una entrevista de trabajo. Los métodos justos tradicionales sólo pueden garantizar que se apruebe el mismo porcentaje de personas de diferentes grupos. Pero ¿qué pasa si la denegación de una hipoteca tiene un impacto mucho más negativo en alguien de un grupo desfavorecido que en alguien de un grupo favorecido? Utilizando métodos de optimización del bienestar social, los sistemas de inteligencia artificial pueden tomar decisiones que conduzcan a mejores resultados para todos, especialmente para aquellos que pertenecen a grupos desfavorecidos.
El estudio se centra en la “equidad alfa”, una forma de encontrar un equilibrio entre ser justo y maximizar los beneficios para todos. La equidad alfa se puede ajustar más o menos, según la situación, para equilibrar la equidad y la eficiencia.
Hooker y sus coautores muestran cómo se puede utilizar la optimización del bienestar social para comparar diferentes evaluaciones de equidad grupal que se utilizan actualmente en la IA. Al utilizar este método, podemos comprender los beneficios de aplicar diferentes herramientas de equidad grupal en diferentes contextos. También conecta estas herramientas de evaluación de equidad grupal con el mundo más amplio de los criterios de desempeño de equidad utilizados en economía e ingeniería.
“Nuestros hallazgos sugieren que la reforma del bienestar social puede arrojar luz sobre la cuestión tan debatida de cómo lograr la equidad grupal en la IA”, dijo Leibn.
Este estudio es importante tanto para los desarrolladores de sistemas de IA como para los responsables de la formulación de políticas. Los desarrolladores pueden crear modelos de IA más justos y eficientes si comprenden las limitaciones de las medidas justas y equitativas. También destaca la importancia de considerar la justicia social en el desarrollo de la IA, garantizando que la tecnología promueva la igualdad entre diversos grupos de la sociedad.