Home Smartwatch La confianza de las personas en el sistema de IA para tomar...

La confianza de las personas en el sistema de IA para tomar decisiones éticas sigue siendo una distancia

60
0

Los psicólogos han advertido que la falta de la experiencia humana de la IA y la falta de comprensión real pueden limitar la aceptación de tomar decisiones morales en una estaca más alta.

Asesor ético artificial (AMA) Inteligencia artificial (AI) es un sistema diseñado para ayudar a los humanos a hacer ideas morales, principios o decisiones éticas guías. Aunque el prototipo se está preparando, el AMAS aún no se está utilizando para ofrecer recomendaciones permanentes y prejúcicas libres y consejos morales racionales. Dado que las máquinas de inteligencia artificial mejoran sus habilidades técnicas y se mueven hacia el dominio moral, es importante que entendamos cómo las personas piensan sobre tales asesores morales artificiales.

La investigación, dirigida por la Escuela de Psicología de la Universidad de Kent, descubrió cómo las personas entienden a estos asesores y si confiarían en su decisión, en comparación con los asesores humanos. Se ha encontrado que aunque la inteligencia artificial puede tener la capacidad de ofrecer asesoramiento neutral y racional, las personas aún no confían en ella para tomar decisiones morales sobre el dilema moral.

Apareció en el diario InserciónLa investigación muestra que las personas tienen un odio importante por los amas (frente a los humanos), a pesar de dar consejos morales, incluso cuando el consejo dado es el mismo, al tiempo que demuestra que esto es especialmente cuando los asesores, humanos y la IA son los mismos, basados ​​en la base consejo. Principios útiles (medidas que pueden afectar positivamente a la mayoría). Los asesores que dieron sugerencias no utilizadas (como la adherencia a las reglas morales en lugar de maximizar los resultados) tenían más confianza, especialmente en el daño directo involucrado. Esto muestra que las personas valoran los asesores, humanos o IA que están de acuerdo con los principios que prefieren las personas más que los resultados.

Incluso cuando los participantes estuvieron de acuerdo con la decisión de la AMA, esperaban estar de acuerdo con la IA en el futuro, lo que indica dudas hereditarias.

El Dr. Jim Evaret dirigió una investigación realizada en Kent con el Dr. Simon Mayers en la Universidad de Warwick.

El Dr. Jim Everett, quien dirigió la investigación en Kent, dijo: ‘La confianza de la IA moral no se trata solo de precisión o consistencia, se trata de alinearse con los valores y expectativas humanas. Nuestra investigación destaca un desafío importante para adoptar AMA y cómo diseñar estos sistemas en los que las personas realmente confían. A medida que la tecnología se desarrolla, podemos ver que desde la atención médica de AMA hasta el sistema legal, el proceso de toma de decisiones se vuelve más integrado, por lo que es una gran necesidad de comprender que las capacidades de IA y cómo eliminar la diferencia entre la confianza humana. ‘

Source link