¿Cómo le gusta a la gente interactuar con los robots cuando navegan en entornos concurridos? ¿Y qué algoritmos deberían utilizar los robóticos para programar robots para que interactúen con los humanos?
Estas son las preguntas que un equipo de ingenieros mecánicos e informáticos de la Universidad de California en San Diego intentó responder en un estudio presentado recientemente en la conferencia ICRA 2024 en Japón.
“Hasta donde sabemos, este es el primer estudio que investiga robots que evalúan la percepción humana del riesgo para la toma de decisiones inteligentes en entornos cotidianos”, dijo Amodh Suresh, primer autor del estudio, quien escribió su doctorado. En el grupo de investigación de la Profesora Sonia Martínez Díaz en el Departamento de Ingeniería Mecánica y Aeroespacial de UC San Diego. Actualmente es investigador postdoctoral en el Laboratorio de Investigación del Ejército de EE. UU.
“Queríamos crear un marco que nos ayudara a comprender cuán vulnerables son los humanos cuando interactúan con robots”, dijo Angelique Taylor, la segunda autora del estudio, quien escribió su doctorado. en el grupo de investigación de la profesora Laurel Rick en el Departamento de Ingeniería y Ciencias de la Computación de UC San Diego. Taylor ahora forma parte del cuerpo docente de Cornell Tech en Nueva York.
El equipo recurrió a modelos de economía del comportamiento. Pero querían saber cuál usar. El estudio se llevó a cabo durante una pandemia, por lo que los investigadores tuvieron que diseñar un experimento en línea para obtener su respuesta.
Sujetos: grandes estudiantes universitarios y de posgrado de STEM jugaron un juego en el que actuaron como compradores de Instacart. Podían elegir entre tres rutas diferentes para llegar al pasillo de leche del supermercado. Cada ruta puede tardar entre cinco y 20 minutos. Algunas rutas los acercarán a personas con COVID, incluida una con un caso grave. Las rutas también tenían diferentes niveles de riesgo de que alguien tosiera COVID. La ruta más corta pone a los sujetos en contacto con las personas más enfermas. Pero los compradores fueron recompensados por alcanzar su objetivo.
Los investigadores se sorprendieron al descubrir que las personas subestimaban constantemente en las respuestas de su encuesta su disposición a correr el riesgo de estar cerca de compradores afectados por el COVID-19. “A la gente no le importa correr riesgos si hay una recompensa en ello”, dijo Suresh.
Como resultado, para programar los robots para que interactúen con los humanos, los investigadores decidieron confiar en la teoría de la probabilidad, un modelo de economía del comportamiento desarrollado por Daniel Kahneman, quien en 2002 publicó su Ganó el Premio Nobel de Economía por su trabajo. Ganancia en comparación con un punto de referencia. En este marco, las personas experimentan más daño que bien. Entonces, por ejemplo, las personas elegirán ganar $450 en lugar de apostar en algo que tenga un 50% de posibilidades de ganar $1100. Entonces, los sujetos del estudio se centraron en obtener la recompensa de completar la tarea más rápido en lugar de sopesar el riesgo potencial de contraer COVID, que era seguro.
Los investigadores también preguntaron a las personas cómo les gustaría que los robots comunicaran sus intenciones. Las respuestas incluyeron voz, gestos y pantallas táctiles.
A continuación, los investigadores esperan realizar estudios presenciales con un grupo de sujetos más diverso.