A medida que la inteligencia artificial se integra cada vez más en el periodismo, los periodistas y editores se enfrentan no sólo a cómo utilizar la tecnología, sino también a cómo demostrar su uso a los lectores. Una nueva investigación de la Universidad de Kansas encontró que cuando los lectores piensan que la IA está de alguna manera involucrada en la producción de noticias, tienen menos confianza en la credibilidad de las noticias, incluso cuando no las comprenden completamente.
Los resultados muestran que los lectores son conscientes del uso de la IA en la elaboración de noticias, incluso si lo ven de forma negativa. Pero entender qué y cómo la tecnología ha contribuido a las noticias, y presentarlas a los lectores de una manera que ellos entiendan, es un problema que debe abordarse claramente, según los investigadores.
“La creciente concentración de IA en el periodismo es una cuestión de la que sabemos que hablan periodistas y académicos, pero estábamos interesados en cómo los lectores le dan sentido. Queríamos aprender más sobre las impresiones de línea y su influencia, o lo que piensa la gente. Las noticias son generadas por IA”, dijo Alisa, profesora asociada de la Escuela de Periodismo y Comunicaciones de Masas William Allen White Appleman, y el tema. Coautor de dos estudios sobre
Appleman y Steve Bienmey, profesores asistentes de la Escuela de Periodismo y Comunicaciones de Masas William Allen White, ayudaron a dirigir un experimento en el que mostraron a los lectores una noticia sobre el edulcorante artificial aspartamo y su seguridad para el consumo humano. A los lectores se les asignó aleatoriamente una de cinco firmas: escritas por un redactor, escritas por un redactor con una herramienta de inteligencia artificial, escritas por un redactor con la ayuda de inteligencia artificial y escritas por un redactor con inteligencia artificial. y escrito con inteligencia artificial. Por lo demás, el artículo era coherente en todos los aspectos.
Los resultados se publicaron en dos artículos de investigación. Ambos fueron escritos por Appelman y Bien-Aime de KU, junto con Haiyan Jia de la Universidad de Lehigh y Mu Wu de la Universidad Estatal de California en Los Ángeles.
Un artículo se centró en cómo los lectores percibían las firmas de IA. Después de leer el artículo, se encuestó a los lectores sobre lo que significaba la firma específica que recibieron y si estaban de acuerdo con varias declaraciones destinadas a medir su alfabetización mediática y sus actitudes hacia la IA. Los resultados mostraron que, independientemente de la firma que recibieran, los participantes tenían una visión amplia de la tecnología. La mayoría informó que sentía que los humanos eran los principales contribuyentes, mientras que algunos dijeron que pensaban que la IA se utilizaría como apoyo a la investigación o para escribir un primer borrador editado por un humano.
Los resultados mostraron que los participantes entendían lo que podía hacer la tecnología de inteligencia artificial y que era guiada por humanos mediante gestos. Sin embargo, las diferentes situaciones de firma dejaron mucho que las personas interpretaran en cuanto a cómo contribuyó específicamente al artículo que estaban leyendo. Cuando se mencionó la contribución de la IA en la firma, afectó negativamente la percepción de los lectores sobre la fuente y la credibilidad del autor. Incluso con la “firma escrita por un redactor”, los lectores entendieron que estaba escrita al menos parcialmente por una IA, ya que no había ningún ser humano vinculado a la historia.
Los autores escribieron que los lectores utilizaron el sentido como técnica para interpretar las contribuciones de la IA. Las tácticas son una forma de utilizar información que uno ya ha aprendido para dar sentido a situaciones con las que quizás no esté familiarizado.
“La gente tiene muchas ideas diferentes sobre lo que podría significar la IA, y cuando no tenemos claro qué hace, la gente llena los espacios en blanco”, dijo Appleman.
Los resultados mostraron que, independientemente de lo que pensaban que aportaba la IA a la historia, su opinión sobre la credibilidad de la noticia se veía afectada negativamente.
Los resultados fueron publicados en la revista. Informes de comunicación.
Otro artículo de investigación exploró cómo las percepciones de humanidad mediaban la relación entre las contribuciones percibidas de la IA y los juicios de credibilidad. Descubrió que reconocer la IA aumentaba la transparencia y que los lectores sentían que la contribución humana a las noticias mejoraba la confianza.
Los participantes informaron que pensaban que la IA estuvo involucrada en la creación del artículo, independientemente de la condición de firma que recibieron. Cuanto mayor era el porcentaje que daban, menor era su juicio sobre su credibilidad. Incluso aquellos que leyeron el “artículo del redactor” informaron que sentían que la IA estaba involucrada hasta cierto punto.
“Lo importante no era si se trataba de IA o humanos: era cuánto pensaban que habían hecho los humanos”, dijo Bien-Aimé. “Esto demuestra que debemos ser claros. Creemos que los periodistas tienen muchas suposiciones que hacemos en nuestro campo y que los consumidores saben lo que hacemos. A menudo no lo saben”.
Los resultados muestran que las personas dan mayor crédito a las contribuciones humanas en campos como el periodismo que tradicionalmente son realizados por humanos. Cuando se reemplaza por tecnología como la IA, puede afectar las percepciones de credibilidad, mientras que podría no ser así para cosas que no son tradicionalmente humanas, como YouTube que rastrea las visualizaciones pasadas de una persona basándose en recomendaciones para ver videos, dijeron los autores. .
Si bien se puede interpretar positivamente que los lectores encuentran más creíbles las noticias escritas por humanos, los periodistas y académicos también deben tener claro cómo utilizan o divulgan la IA. La transparencia es una buena práctica, como lo demuestra un escándalo a principios de este año en el que Sports Illustrated fue acusado de publicar artículos generados por IA escritos por personas. Sin embargo, dicen los investigadores, simplemente afirmar que se utilizó IA puede no ser lo suficientemente claro para que las personas entiendan lo que hizo y, si sintieron que jugó un papel más humano, en todo caso, puede tener un impacto negativo en la reputación.
Los hallazgos sobre la autoría percibida y las humanidades se publicaron en la revista. Las computadoras en el comportamiento humano: humanos artificiales.
Ambos artículos de revistas indican que se deben continuar investigaciones para explorar cómo los lectores perciben la contribución de la IA al periodismo, y también sugieren que el periodismo como campo debería considerar tales enfoques que podrían beneficiarse de una mejor visualización. Appelman y Bien-Aimé estudiaron la comprensión de los lectores sobre las diferentes prácticas periodísticas y descubrieron que los lectores a menudo no entendían que ciertas divulgaciones, como correcciones, firmas, capacitación en ética o el uso de IA, significaban las intenciones de los periodistas.
“Parte de nuestro marco de investigación siempre ha sido examinar si los lectores saben lo que hacen los periodistas”, dijo Bien-Aimé. “Y queremos saber cómo ve la gente el trabajo de los periodistas”.