Un nuevo estudio sugiere que el cerebro humano comprende el lenguaje hablado a través de un proceso paso a paso que se asemeja a cómo funcionan los modelos avanzados de lenguaje de IA. Al registrar la actividad cerebral de personas que escuchaban una historia hablada, los investigadores descubrieron que las etapas posteriores de las respuestas cerebrales coincidían con capas más profundas del sistema de inteligencia artificial, particularmente en áreas del lenguaje bien conocidas, como el área de Broker. Los hallazgos cuestionan nociones de comprensión del lenguaje basadas en reglas arraigadas y están respaldadas por un conjunto de datos públicos recientemente publicado que ofrece una nueva y poderosa forma de estudiar cómo se forma el significado en el cerebro.
Investigación, publicada comunicación de la naturalezaEl estudio fue dirigido por el Dr. Ariel Goldstein de la Universidad Hebrea, junto con el Dr. Mariano Schein de Google Research y los profesores Uri Hassan y Eric Hamm de la Universidad de Princeton. Juntos, el equipo descubrió una similitud inesperada entre cómo los humanos interpretan el habla y cómo los modelos modernos de IA procesan el texto.
Utilizando grabaciones de electrocorticografía de participantes que escucharon un podcast de treinta minutos, los científicos rastrearon el momento y la ubicación de la actividad cerebral durante el procesamiento del lenguaje. Descubrieron que el cerebro sigue una secuencia estructural que se asemeja mucho al diseño en capas de los principales modelos de lenguaje, como GPT-2 y Llama 2.
Cómo el cerebro crea significado con el tiempo
Cuando escuchamos a alguien, el cerebro no comprende el significado de inmediato. En cambio, cada palabra pasa por una serie de pasos neuronales. Goldstein y sus colegas han demostrado que estos pasos se desarrollan con el tiempo de manera que reflejan cómo los modelos de IA manejan el lenguaje. Las primeras capas de IA se centran en características sonoras básicas, mientras que las capas más profundas integran contexto, entonación y significado más amplio.
La actividad del cerebro humano sigue un patrón similar. Las primeras señales neuronales corresponden a las primeras etapas del procesamiento de la IA, mientras que las respuestas cerebrales posteriores se alinean con capas más profundas de modelos. Esta coincidencia de tiempos fue particularmente fuerte en áreas lingüísticas de alto nivel, como las áreas de corredores, donde las respuestas alcanzaron su punto máximo después de conectarse a capas más profundas de IA.
Según el Dr. Goldstein, “lo que más nos sorprendió fue cuán estrechamente coincide la expresión temporal del significado en el cerebro con las secuencias de transformaciones en grandes modelos lingüísticos. Aunque estos sistemas están construidos de manera muy diferente, ambos parecen converger en el mismo proceso gradual hacia la comprensión”.
¿Por qué son importantes estos hallazgos?
Las investigaciones sugieren que la inteligencia artificial puede hacer más que generar texto. Esto podría ayudar a los científicos a comprender mejor cómo el cerebro humano crea significado. Durante muchos años, se pensó que el lenguaje dependía principalmente de símbolos fijos y jerarquías rígidas. Estos hallazgos desafían esa visión y, en cambio, apuntan a un proceso más flexible y estadístico mediante el cual el significado emerge gradualmente a través del contexto.
Los investigadores han examinado elementos lingüísticos tradicionales como los fonemas y los morfemas. Estas características clásicas no explican la actividad cerebral en tiempo real ni las representaciones contextuales producidas por los modelos de IA. Esto respalda la idea de que el cerebro depende más de un contexto fluido que de bloques de construcción lingüísticos rígidos.
El lenguaje es un nuevo recurso para la neurociencia
Para ayudar a avanzar en el campo, el equipo ha puesto a disposición del público el conjunto completo de funciones de lenguaje y grabación neuronal. Este conjunto de datos abierto permite a investigadores de todo el mundo comparar teorías sobre la comprensión del lenguaje y desarrollar modelos computacionales que reflejen más fielmente cómo funciona la mente humana.











