En un nuevo artículo, investigadores de la Universidad Carnegie Mellon y el Instituto de Tecnología Stevens muestran una nueva forma de pensar sobre los efectos justos de las decisiones de IA.
Se basan en una tradición bien establecida conocida como reforma del bienestar social, cuyo objetivo es mejorar las decisiones centrándose en los beneficios y daños agregados de los individuos. Este método se puede utilizar para evaluar las herramientas de evaluación estándar de la industria para la justicia de la IA, que analizan las tasas de aprobación en grupos protegidos.
John Hooker, profesor de investigación de operaciones en la Escuela de Negocios Tapper de Carnegie Mellon, explicó que “al evaluar la equidad, la comunidad de IA se esfuerza por garantizar la igualdad de trato para los grupos según el nivel económico, la raza, el origen étnico, son diferentes según el género y otras categorías.” Es autor del estudio y presentó un artículo en la Conferencia Internacional sobre Integración de Programación de Restricciones, Inteligencia Artificial e Investigación de Operaciones (CPAIOR) el 29 de mayo en Uppsala, Suecia. El artículo recibió el premio al Mejor Artículo.
Imagine una situación en la que un sistema de inteligencia artificial decide quién obtiene la aprobación de una hipoteca o quién consigue una entrevista de trabajo. Los métodos justos tradicionales sólo pueden garantizar que se apruebe el mismo porcentaje de personas de diferentes grupos.
Pero ¿qué pasa si la denegación de una hipoteca tiene un impacto mucho más negativo en alguien de un grupo desfavorecido que en alguien de un grupo favorecido? Utilizando métodos de optimización del bienestar social, los sistemas de inteligencia artificial pueden tomar decisiones que conduzcan a mejores resultados para todos, especialmente para aquellos que pertenecen a grupos desfavorecidos.
El estudio se centra en la “equidad alfa”, una forma de encontrar un equilibrio entre ser justo y maximizar los beneficios para todos. La equidad alfa se puede ajustar más o menos, según la situación, para equilibrar la equidad y la eficiencia.
Hooker y sus coautores muestran cómo se puede utilizar la optimización del bienestar social para comparar diferentes evaluaciones de equidad grupal que se utilizan actualmente en la IA. Al utilizar este método, podemos comprender los beneficios de aplicar diferentes herramientas de equidad grupal en diferentes contextos. También conecta estas herramientas de evaluación de equidad grupal con el mundo más amplio de los criterios de desempeño de equidad utilizados en economía e ingeniería.
Derek Leben, profesor asociado de ética empresarial en la Escuela Tepper, y Violet Chen, profesora asistente en el Instituto de Tecnología Stevens, quien recibió su doctorado. de la Escuela Tepper, coautor del estudio.
“Los criterios comunes de equidad grupal en IA generalmente comparan métricas estadísticas de decisiones respaldadas por IA en diferentes grupos, ignorando los beneficios o daños reales de ser seleccionado o rechazado”, dijo Chen. “Proponemos un enfoque directo, basado en el bienestar, para evaluar la equidad grupal mejorando los juicios sobre el bienestar social. Nuestros hallazgos son útiles para seleccionar y justificar los criterios de equidad grupal. Ofrece nuevas perspectivas”.
“Nuestros hallazgos sugieren que la reforma del bienestar social puede arrojar luz sobre la cuestión tan debatida de cómo lograr la equidad grupal en la IA”, dijo Leibn.
Este estudio es importante tanto para los desarrolladores de sistemas de IA como para los responsables de la formulación de políticas. Los desarrolladores pueden crear modelos de IA más justos y eficientes si comprenden las limitaciones de las medidas justas y equitativas. También destaca la importancia de considerar la justicia social en el desarrollo de la IA, garantizando que la tecnología promueva la igualdad entre diversos grupos de la sociedad.
El artículo se publica en CPAIOR 2024 Proceedings.










