Home Técnica Deja de hablar de IA como si fuera humana. que no es

Deja de hablar de IA como si fuera humana. que no es

55

En la carrera por hacer que los modelos de IA parezcan cada vez más impresionantes, las empresas de tecnología han adoptado un enfoque radical respecto del lenguaje. Hablan de la IA como si fuera una persona. No sólo sobre el “pensamiento” o la “planificación” de la IA (esas palabras ya están cargadas), sino que ahora están discutiendo El “alma” del modelo de IA y cómo el modelo “acepta”, “quiere”, “planea” o “se siente inseguro”.

Esto no es una floritura de marketing inofensiva. La IA antropomórfica es engañosa, irresponsable y, en última instancia, corrosiva para la comprensión pública de una tecnología que ya lucha con la transparencia, en un momento en el que la transparencia es más importante.

Las investigaciones realizadas por grandes empresas de IA, destinadas a arrojar luz sobre el comportamiento de la IA generativa, a menudo se realizan de maneras más oscuras que esclarecedoras. Por ejemplo, Una publicación reciente de OpenAI Detalla su trabajo para lograr que sus modelos “admitan” sus errores o atajos. Este es un experimento valioso que explora cómo un chatbot autoinforma ciertos “malos comportamientos”, como alucinaciones y conspiraciones. Pero la descripción que hace OpenAI del proceso como un “reconocimiento” implica que hay un componente psicológico detrás de los resultados de un modelo de lenguaje grande.

Quizás esto se deba al reconocimiento de lo desafiante que es para un LL.M. para lograr una verdadera claridad. Hemos visto que, por ejemplo, los modelos de IA no pueden demostrar de forma fiable su trabajo. Resolver sudokus.

Hay brechas en el medio qué La IA puede crear y cómo Lo logra, y es precisamente por eso que esta terminología humana es tan peligrosa. Podemos discutir los verdaderos límites y peligros de esta tecnología, pero los términos que etiquetan a la IA como seres sintientes sólo reducen la preocupación o pasan por alto los riesgos.


No se pierda nuestro contenido tecnológico imparcial y reseñas de laboratorio Añadir CNET Como fuente preferida de Google.


La IA no tiene alma.

Los sistemas de IA no tienen alma, propósito, sentimientos ni moralidad. No “confiesan” porque se sienten obligados por la honestidad, las calculadoras no son más que “disculpas” cuando presionas la tecla equivocada. Estos sistemas generan patrones de texto basados ​​en relaciones estadísticas aprendidas de grandes conjuntos de datos.

Eso es todo.

Todo lo que parezca humano es una proyección de nuestra vida interior en un espejo muy sofisticado.

La antropomorfización de la IA da a la gente una idea equivocada de lo que realmente son estos sistemas. Y tiene consecuencias. Cuando comenzamos a asignar conciencia e inteligencia emocional a un ser donde no las hay, comenzamos a confiar en la IA de una manera que nunca había creído.

Hoy en día, cada vez más personas recurren a “Dr. ChatGPT”. Pautas médicas En lugar de depender de médicos calificados y con licencia. Otros se inclinan por respuestas generadas por IA, como en las regiones. financiero, salud mental y relaciones interpersonales. Algunos se están volviendo dependientes Pseudoamistad con chatbots Y acuda a ellos en busca de orientación, asumiendo que todo lo que un LLM escupe es “lo suficientemente bueno” para informar sus decisiones y acciones.

¿Cómo deberíamos hablar de IA?

Cuando las empresas se inclinan hacia el lenguaje antropomórfico, desdibujan la línea entre simulación y sentimiento. La terminología genera expectativas, incita miedo y distrae la atención de los problemas reales que realmente exigen nuestra atención: sesgo en los conjuntos de datos, abuso por parte de malos actores, seguridad, confiabilidad y concentración de poder. Ninguno de estos asuntos necesita metáforas místicas.

Tomemos como ejemplo la última filtración de Anthropic “Documento del alma“, el carácter, la autopercepción y el entrenamiento de identidad de Claude Opus 4.5. Esta modesta pieza de documentación interna nunca tuvo la intención de hacer una afirmación metafísica, como sus ingenieros estudiando minuciosamente una guía de depuración. Sin embargo, el lenguaje que estas empresas usan a puerta cerrada inevitablemente ve cómo el público en general lo discute como nuestro lenguaje y una vez lo moldea como nuestro lenguaje y piensa bien. Cómo nos comportamos alrededor de él. Yo hago

O tome la investigación de OpenAI Investigación sobre “conspiración” de IAMientras que un puñado de respuestas raras pero engañosas han llevado a algunos investigadores a concluir que los modelos ocultaban deliberadamente ciertas habilidades. Validar los resultados de la IA es una buena práctica; Eso no quiere decir que los chatbots puedan tener sus propios motivos o tácticas. El informe de OpenAI en realidad decía que estos comportamientos fueron el resultado de datos de entrenamiento y algunas tendencias, no signos de fraude. Pero como se utilizó la palabra “hojear”, la conversación giró hacia la preocupación de que la IA se convirtiera en un tipo de agente conspirativo.

Hay términos mejores, más precisos y más técnicos. Habla de la arquitectura o formación de un modelo más que del “alma”. Llámelo informe de error o verificación de coherencia interna en lugar de “confesión”. En lugar de llamar “esquema” a un modelo, describa su proceso de optimización. Deberíamos referirnos a la IA utilizando términos como tendencia, resultado, representación, optimizador, actualización de modelo o dinámica de entrenamiento. No son tan dramáticas como “Soul” o “Confesiones”, pero tienen la ventaja de estar basadas en la realidad.

Para ser justos, hay una razón por la que estos comportamientos de LLM son humanos: las empresas los han entrenado para imitarnos.

2021 como autor del artículo “Sobre el peligro estocástico de los loros” Como se señaló, los sistemas creados para replicar el lenguaje y la comunicación humanos reflejarán en última instancia esto: nuestra dicción, sintaxis, tono y tenor. La analogía no implica comprensión real. Significa que el modelo está haciendo aquello para lo que fue optimizado. Cuando un chatbot imita de manera tan convincente como los chatbots ahora pueden hacerlo, aunque no podamos leer nada parecido en una máquina, no terminamos convirtiendo ese tipo de cosas en máquinas.

El lenguaje da forma a la percepción pública. Cuando las palabras son descuidadas, mágicas o intencionalmente antropomorfas, el público termina con una imagen distorsionada. Esta distorsión beneficia sólo a un grupo: las empresas de IA que se benefician de los LLM parecen más capaces, útiles y humanas de lo que realmente son.

Si las empresas de IA quieren generar confianza pública, el primer paso es simple. Deje de tratar los modelos de lenguaje como si las almas fueran criaturas místicas. Ellos no tienen sentimientos, nosotros sí. Nuestras palabras deben reflejar eso, no oscurecerlo.

Leer más: En la era de la IA, ¿qué significa eso?

Enlace fuente