Home Smartwatch Los investigadores desarrollan nuevas técnicas de formación destinadas a hacer que los...

Los investigadores desarrollan nuevas técnicas de formación destinadas a hacer que los sistemas de IA estén menos sesgados socialmente.

108
0

Estudiantes de doctorado de la Universidad Estatal de Oregón e investigadores de Adobe han creado una nueva técnica de capacitación de bajo costo para sistemas de inteligencia artificial que tiene como objetivo hacerlos menos sesgados socialmente.

Eric Slyman de la Facultad de Ingeniería de OSU e investigadores de Adobe llaman al novedoso método FairDeDup, que significa Fair Deduplication. La replicación significa eliminar información redundante de los datos utilizados para entrenar sistemas de IA, reduciendo los altos costos computacionales del entrenamiento.

Los conjuntos de datos obtenidos de Internet a menudo contienen sesgos sociales, dijeron los investigadores. Cuando estos sesgos se incorporan a modelos de IA entrenados, pueden servir para perpetuar pensamientos y comportamientos injustos.

Al comprender cómo la subversión afecta la propagación del prejuicio, es posible mitigar los efectos negativos, como un sistema de inteligencia artificial que presenta automáticamente solo imágenes de hombres blancos si es un director ejecutivo, un médico, etc. Solicite mostrar la imagen cuando lo desee. Mostrar diferentes representaciones de personas.

“Lo llamamos FairDeDup como un juego de palabras para un método rentable anterior, SemDeDup, que mejoramos agregando consideraciones de equidad”, dijo Solomon. “Si bien trabajos anteriores han demostrado que eliminar estos datos redundantes puede permitir un entrenamiento preciso de la IA con menos recursos, descubrimos que este proceso también puede amplificar los prejuicios sociales dañinos que la IA aprende con frecuencia”.

Solomon presentó el algoritmo FairDeDup en la Conferencia IEEE/CVF sobre Visión por Computadora y Reconocimiento de Patrones en Seattle la semana pasada.

FairDeDup funciona adelgazando conjuntos de datos de títulos de imágenes recopilados de la web mediante un proceso conocido como poda. La poda se refiere a seleccionar un subconjunto de datos que sea representativo de todo el conjunto de datos y, si se realiza teniendo en cuenta el contenido, la poda permite tomar decisiones informadas sobre qué partes de los datos permanecen y cuáles no.

“FairDeDup elimina datos redundantes al tiempo que agrega dimensiones de diversidad controlables y definidas por humanos para reducir el sesgo”, dijo Silliman. “Nuestro enfoque permite una formación en IA que no sólo es rentable y precisa, sino también más equitativa”.

Además de la ocupación, la raza y el género, otros prejuicios perpetuados durante la capacitación pueden incluir aquellos relacionados con la edad, la geografía y la cultura.

“Al eliminar los sesgos durante la recopilación de conjuntos de datos, podemos crear sistemas de inteligencia artificial que sean más justos socialmente”, dijo Solomon. “Nuestro trabajo no obliga a la IA a adherirse a nuestra propia noción prescriptiva de justicia, sino que permite que la IA actúe de manera justa cuando se implementa contextualmente dentro de ciertos entornos y bases de usuarios. Se abre un camino en lugar de Internet u otros conjuntos de datos a gran escala. decidirlo.”

Colaboraron con Slyman el profesor asistente de la Facultad de Ingeniería de OSU, Stefan Lee, y Scott Cohen y Kushal Kafle de Adobe.

Source link