Los psicólogos han debatido durante mucho tiempo si la mente humana puede explicarse mediante una teoría única y unificada o si diferentes funciones como la atención y la memoria deben estudiarse por separado. Ahora, la inteligencia artificial (IA) está entrando en ese debate, ofreciendo una nueva forma de explorar cómo funciona la mente.
En julio de 2025 se publicó un estudio. la naturaleza Introdujo un modelo de IA llamado “Centro”. Construido sobre modelos de lenguaje estándar de gran tamaño y refinado utilizando datos de experimentos psicológicos, CENTR fue diseñado para simular el comportamiento cognitivo humano. Se ha informado que funciona bien en 160 tareas, incluida la toma de decisiones, el control ejecutivo y otros procesos mentales. Los resultados atrajeron una atención generalizada y fueron vistos como un paso potencial hacia sistemas de inteligencia artificial que podrían replicar de manera más amplia el pensamiento humano.
Una nueva investigación genera dudas
Un estudio reciente publicado Abierto Nacional de Ciencias Cuestione esas afirmaciones. Investigadores de la Universidad de Zhejiang sostienen que el aparente éxito de Centaur puede deberse a un sobreajuste. En otras palabras, en lugar de comprender las tareas, el modelo puede aprender a reconocer patrones en los datos de entrenamiento y reproducir las respuestas esperadas.
Para probar esta idea, los investigadores crearon varias situaciones de evaluación nuevas. En un ejemplo, reemplazaron las indicaciones originales de opción múltiple, que indicaban tareas psicológicas específicas, por “Por favor, elija la opción A”. Si el modelo realmente entendiera la tarea, debería haber elegido consistentemente A. En cambio, Centaur continúa eligiendo la “respuesta correcta” del conjunto de datos original.
Este comportamiento sugiere que el modelo no estaba explicando el significado de la consulta. Más bien, se basa en patrones estadísticos aprendidos para “adivinar” la respuesta. Los investigadores compararon esto con un estudiante que obtiene buenos resultados al memorizar los formatos de los exámenes sin comprender realmente el material.
Por qué es importante para la evaluación de la IA
Los resultados resaltan la necesidad de tener precaución al evaluar la capacidad de modelos lingüísticos grandes. Aunque estos sistemas pueden ser muy eficaces para ajustar datos, su naturaleza de “caja negra” hace difícil saber cómo llegan a sus resultados. Esto puede causar problemas como alucinaciones o malas interpretaciones. Es esencial realizar pruebas cuidadosas y variadas para determinar si un modelo realmente tiene habilidad.
El verdadero desafío: entender el idioma
Aunque Centauro fue presentado como un modelo capaz de simular la cognición, su mayor limitación parece estar en la comprensión del lenguaje. Específicamente, le cuesta reconocer y responder a la intención detrás de las preguntas. El estudio sugiere que lograr una verdadera comprensión del lenguaje puede ser uno de los desafíos más importantes en el desarrollo de sistemas de inteligencia artificial que puedan modelar de manera más completa la cognición humana.











