¿Estamos poniendo nuestra confianza en la tecnología que no entendemos completamente? Una nueva investigación de la Universidad de Surrey ha llegado en un momento en que el sistema de IA está tomando decisiones que afectan nuestra vida diaria, desde la banca y la atención médica hasta la detección de delitos. En este estudio, enfatizando la necesidad de transparencia y confianza en estos poderosos algoritmos, cómo los modelos de IA se diseñan y evalúan la demanda de cambio inmediato.
Dado que la IA se integra en campos de alto aumento, los resultados de las decisiones de las decisiones pueden producir los resultados, los riesgos asociados con los modelos de ‘caja negra’ son más que nunca. La investigación destaca ejemplos en los que el sistema de IA tendrá que proporcionar especificaciones apropiadas para sus decisiones, lo que puede permitir a los consumidores confiar y comprender la IA en lugar de la confusión y la debilidad. Advertencias de atención médica y concepto erróneo bancario, con conceptos erróneos, la posibilidad de pérdida, que puede ser fatal.
Los investigadores de Surrey han dado detalles de los eventos peligrosos en los que el sistema de IA no ha podido explicar sus decisiones adecuadamente, lo cual está confundido y en peligro. La atención médica bancaria y las advertencias erróneas son importantes, con mala conducta, la capacidad de pérdida es importante. Las bases de fraude son naturalmente equilibradas (0.01 % son transacciones falsas, lo que causa miles de millones de dólares en pérdidas. Se asegura que las personas sepan que la mayoría de las transacciones son reales, pero el desequilibrio desafía a la IA a aprender muestras de fraude. Sin embargo, los algoritmos de IA pueden identificar una transacción de salud falsa, pero actualmente carece de la capacidad de explicar por qué es fraudulento.
El co -autor de este estudio y el profesor titular de Analytics de la Universidad de Surrey dijo:
“No debemos olvidar que detrás de la solución a cada algoritmo, hay personas reales cuyas vidas se ven afectadas por las decisiones. Nuestro objetivo es crear un sistema de IA que no solo sea inteligente sino que también proporcione aclaraciones a las personas, tecnología. Usuarios, que pueden confiar en y entender.
Este estudio sugiere un marco integral conocido como SAGE (configuración, audiencias, objetivos y ética) para resolver estos temas importantes. El SAGE está diseñado para garantizar que la explicación de AI no solo sea comprensible, sino que también se relaciona con el contexto del cierre de los usuarios. Al centrarse en las necesidades y antecedentes específicos de la audiencia deseada, el marco SAGE tiene como objetivo eliminar la diferencia entre los complejos procesos de toma de decisiones de la IA y los operadores humanos que confían en ellos.
En conjunto con este marco, se han utilizado técnicas de diseño basadas en la investigación (SBD), que son profundas en escenarios del mundo real para descubrir qué los usuarios realmente necesitan con las especificaciones de IA – Este método alienta a los investigadores y desarrolladores a entrar en la zapata de los usuarios de cierre, asegurando que el sistema de IA se desarrolle con su simpatía y comprensión básicas.
Dr. Wolf Gang Garran continuó:
“También necesitamos resaltar las deficiencias de los modelos de IA existentes, que carecen de conciencia del contexto necesario para proporcionar una explicación significativa. Al identificar y resolver estos abiertos, nuestros documentos, nuestros documentos. AI apoya la evolución en el desarrollo de los principios de diseño enfocados del usuario. . Promueva el entorno donde las ideas de diferentes partes interesadas pueden crear el futuro de la IA.
La investigación destaca la importancia del modelo AI que describe sus resultados en la forma de texto o en la representación gráfica, y cumple con la comprensión diversa de los consumidores. El propósito de este cambio es garantizar que las especificaciones no solo sean accesibles sino también viables, lo que permite a los usuarios tomar decisiones informadas perspicaces de IA.
Ha sido publicado en el estudio Aplicación de inteligencia artificial.