La investigación de la Universidad de Cornell muestra que las organizaciones que utilizan la IA para monitorear el comportamiento y la productividad de los empleados pueden esperar que se quejen más, sean menos productivos y abandonen más el trabajo, a menos que la tecnología no les ayude a desarrollarse.

Según las investigaciones, los dispositivos de vigilancia hacen que las personas sientan una mayor pérdida de autonomía que la vigilancia humana. Las empresas y otras organizaciones que utilizan tecnologías que cambian rápidamente para medir el comportamiento de los empleados deberían considerar sus consecuencias no deseadas, que pueden generar resistencia y perjudicar el desempeño, dicen los investigadores. También sugieren una oportunidad para ganar aceptación, si los sujetos monitoreados sienten que hay herramientas para ayudarlos a juzgar su desempeño en lugar de juzgarlo, con evaluaciones que temen que carezcan de contexto y precisión.

“Cuando la inteligencia artificial y otras tecnologías avanzadas se aplican con fines de desarrollo, las personas pueden aprender de ellas y mejorar su desempeño”, afirmó Emily Zitek, profesora asociada de comportamiento organizacional. “El problema es cuando sienten que el diagnóstico se hace automáticamente, directamente a partir de los datos, y no pueden contextualizarlo de ninguna manera”.

Zitek “La supervisión algorítmica frente a la humana conduce a una menor percepción de autonomía y a una mayor resistencia”. es coautor de Rachel Schlund es la primera autora.

Los investigadores realizaron cuatro experimentos con alrededor de 1200 participantes en total. En el primer estudio, cuando se les pidió que recordaran y anotaran las veces que fueron supervisados ​​y evaluados según el tipo de supervisión que recibieron, los participantes informaron que se sentían menos autónomos bajo la IA y “tenían más probabilidades de participar en un “comportamiento de resistencia”.

Un par de estudios pidieron a los participantes que trabajaran en grupo para generar ideas para un parque temático y luego, individualmente, para generar ideas sobre una sección del parque. Se les dijo que su trabajo sería supervisado por un asistente de investigación, o IA, que luego se representaría en videoconferencias de Zoom como una “alimentación de tecnología de IA”. Después de varios minutos, el asistente humano o la “IA” enviaron mensajes de que a los participantes no se les ocurrían suficientes ideas y que debían esforzarse más. En una encuesta realizada después de un estudio, más del 30% de los participantes criticaron la supervisión de la IA, mientras que alrededor del 7% criticó la supervisión humana.

Además de las quejas y críticas, los investigadores descubrieron que las personas que pensaban que estaban siendo monitoreadas por IA generaban menos ideas, lo que indica un peor desempeño.

“Aunque los participantes recibieron el mismo mensaje en ambos casos de que necesitaban generar más ideas, lo interpretaron de manera diferente cuando provenía de una IA en lugar de un asistente de investigación”, dijo Zitek. “La IA de supervisión los ha convertido en los de peor desempeño en múltiples estudios”.

En un cuarto estudio, los participantes imaginaron que trabajaban en un centro de llamadas y que un humano o una IA analizaban una muestra de sus llamadas. Para algunos, se utilizarán análisis para evaluar su desempeño. Para otros, proporcionar retroalimentación sobre el desarrollo. En el escenario de desarrollo, los participantes no percibieron la vigilancia algorítmica como una violación adicional de su autonomía y no informaron una mayor intención de dejar de fumar.

“Las organizaciones que intentan implementar este tipo de seguimiento deben reconocer los pros y los contras”, afirmó Zitek. “Deberían hacerlo más progresivo o asegurarse de que las personas puedan agregar contexto. Si las personas sienten que no tienen autonomía, no serán felices”.

Source link