Home Smartwatch ¿Crees que la IA “sabe” lo que está haciendo? Los científicos dicen...

¿Crees que la IA “sabe” lo que está haciendo? Los científicos dicen que piénselo de nuevo

41

Piensa, conoce, comprende, recuerda.

Estas son palabras cotidianas que la gente usa para describir lo que sucede en la mente de las personas. Pero cuando esos mismos términos se aplican a la inteligencia artificial, sin darse cuenta pueden hacer que las máquinas parezcan más humanas de lo que realmente son.

“Usamos verbos mentales todo el tiempo en nuestra vida diaria, por lo que tiene sentido que también podamos usarlos cuando hablamos de máquinas; nos ayuda a relacionarnos con ellas”, dijo Joe Mackiewicz, profesor de inglés en la Universidad Estatal de Iowa. “Pero al mismo tiempo, cuando aplicamos verbos mentales a las máquinas, también existe el riesgo de desdibujar la línea entre lo que los humanos y la IA pueden hacer”.

Mackiewicz y Jeanine Aune, profesora de inglés y directora del Programa de Comunicación Avanzada del Estado de Iowa, forman parte de un equipo de investigación que estudia cómo los escritores describen la IA utilizando un lenguaje similar al humano. Estos términos, conocidos como antropomorfismo, asignan características humanas a sistemas no humanos. Se publicó su estudio, “Antropomorfización de la inteligencia artificial: un estudio de corpus de verbos mentales utilizados con IA y ChatGPT”. Comunicación Técnica Trimestral.

El equipo de investigación también incluyó a Matthew J. Baker, profesor asociado de lingüística en la Universidad Brigham Young, y Jordan Smith, profesor asistente de inglés en la Universidad del Norte de Colorado. Ambos asistieron previamente a la Universidad Estatal de Iowa.

Por qué el lenguaje humano sobre la IA puede resultar confuso

Según los investigadores, utilizar funciones mentales para describir la IA puede crear una impresión falsa. Palabras como “pensar”, “saber”, “comprender” y “querer” indican que un sistema tiene pensamiento, propósito o conciencia. En realidad, la IA no posee creencias ni sentimientos. Genera retroalimentación analizando patrones en los datos, no generando ideas o tomando decisiones conscientes.

Mackiewicz y Aoun también señalan que este tipo de lenguaje puede exagerar lo que la IA es capaz de hacer. Frases como “la IA decidió” o “ChatGPT lo sabe” pueden hacer que los sistemas parezcan más independientes o inteligentes de lo que realmente son. Esto puede generar expectativas poco realistas sobre cuán confiable o capaz es la IA.

Hay una preocupación más amplia. Cuando se describe a la IA como si tuviera un propósito, se puede distraer la atención de los humanos detrás de ella. Los desarrolladores, ingenieros y organizaciones son responsables de cómo se construyen y utilizan estos sistemas.

“Algunas frases antropomórficas pueden incluso quedarse en la mente de los lectores y moldear las percepciones públicas de la IA de maneras potencialmente inútiles”, dijo Aoun.

Cómo los redactores de noticias utilizan el lenguaje de IA

Para comprender mejor la frecuencia con la que aparece ese lenguaje, los investigadores analizaron el corpus News on the Web (NOW). Este enorme conjunto de datos contiene más de 20 mil millones de palabras de artículos de noticias en inglés publicados en 20 países.

Se centraron en palabras como AI y ChatGPT, así como en la frecuencia con la que se usaban verbos mentales como “aprendido”, “malo” y “sabía”.

Los resultados fueron inesperados.

Las acciones psíquicas son menos comunes de lo esperado.

Las investigaciones muestran que los redactores de noticias a menudo no asocian los términos relacionados con la IA con funciones mentales.

Aunque la etnografía es común en el habla cotidiana, es mucho menos común en la redacción de noticias. “Se ha demostrado que el etnomorfismo es común en el habla cotidiana, pero descubrimos que se usa con mucha menos frecuencia en la redacción de noticias”, dijo Mackiewicz.

Entre los ejemplos identificados, la palabra “necesidad” aparece con mayor frecuencia en la IA, apareciendo 661 veces. Para ChatGPT, “know” fue el par más frecuente, pero apareció sólo 32 veces.

Los investigadores señalaron que los estándares editoriales pueden influir. Las directrices de Associated Press, que desaconsejan atribuir emociones o características humanas a la IA, pueden afectar la forma en que los periodistas escriben sobre estas tecnologías.

El contexto es más que palabras.

Incluso cuando se utilizaban verbos mentales, no siempre eran antropomórficos.

Por ejemplo, la palabra “necesidad” a menudo describe necesidades básicas en lugar de cualidades humanas. Frases como “La IA necesita muchos datos” o “La IA necesita ayuda humana” son similares a la forma en que la gente describe sistemas no humanos como automóviles o recetas. En este caso, el lenguaje no implica que la IA tenga pensamientos o deseos.

En otros casos, se utilizó “necesidad” para expresar lo que se debe hacer, como “es necesario capacitar la IA” o “es necesario implementar la IA”. Auni explica que estos ejemplos a menudo están escritos en voz pasiva, lo que devuelve la responsabilidad a los actores humanos en lugar de a la tecnología.

La antropología existe en un espectro

Las investigaciones también han demostrado que no todos los usos de las funciones mentales son iguales. Pocas frases se acercan a sugerir cualidades humanas.

Por ejemplo, afirmaciones como “La IA debe comprender el mundo real” pueden implicar expectativas ligadas al razonamiento, la ética o la conciencia humana. Estos usos van más allá de simples descripciones y comienzan a sugerir poderes más profundos.

“Estos casos muestran que la antropomorfización no es todo o nada sino que existe en un espectro”, dijo Aoun.

Por qué es importante la elección del idioma sobre la IA

En general, los investigadores encontraron que la etnografía en la cobertura de noticias es menos frecuente y más matizada de lo que muchos piensan.

“En general, nuestro análisis muestra que la antropomorfización de la IA en la redacción de noticias es mucho menos común -y mucho más sutil- de lo que podríamos pensar”, dijo Mackiewicz. “Incluso los paradigmas que han antropomorfizado la IA han variado mucho en fuerza”.

Los resultados resaltan la importancia del contexto. Simplemente contar palabras no es suficiente para comprender cómo el lenguaje da forma al significado.

“Para los autores, este matiz es importante: el lenguaje que elegimos es cómo los lectores entienden los sistemas de IA, sus capacidades y las personas responsables de ellos”.

El equipo de investigación también enfatizó que estos conocimientos pueden ayudar a los profesionales a pensar más detenidamente cómo describen la IA en su trabajo.

“Nuestros hallazgos pueden ayudar a los profesionales de la comunicación técnicos y profesionales a reflexionar sobre cómo piensan sobre la tecnología de IA como herramienta en su proceso de escritura y cómo escriben sobre la IA”, escribió el equipo de investigación en el estudio publicado.

A medida que la IA siga desarrollándose, la forma en que la gente hable de ella seguirá siendo importante. Mackiewicz y Aoun dicen que los escritores deben tener en cuenta cómo la elección de palabras afecta la percepción.

De cara al futuro, el equipo sugirió que estudios futuros podrían explorar cómo diferentes palabras dan forma a la comprensión y si incluso los usos raros del lenguaje etnográfico tienen un fuerte impacto en la forma en que las personas ven la IA.

Enlace fuente