Los agentes basados en la inteligencia artificial, los botes de chat y otras herramientas son utilizados rápidamente en la vida cotidiana por muchas personas. El agente basado en el modelo de lenguaje grande (LLM), como Chat GPT y Lama, se ha vuelto impresionantemente fluido en su respuesta, pero a menudo debido a esto, todavía se proporciona información falsa. Los investigadores de la Universidad de Tokio generan una similitud entre el problema y los defectos del lenguaje humano, llamados Afsia, donde los pacientes pueden hablar con fluidez, pero hacer declaraciones que no tienen sentido o no tienen sentido. Esta coincidencia puede apuntar a mejores formas de diagnóstico de Efadia, e incluso puede proporcionar información a los ingenieros de IA que buscan mejorar los agentes basados en LLM.
Este artículo fue escrito por un hombre, pero el uso de IA que produce el texto está en aumento en muchas áreas. Dado que cada vez más personas se usan y confían en tales cosas, deben asegurarse de que estas herramientas proporcionen las reacciones e información correctas e integradas a sus usuarios. Muchas herramientas familiares, incluido el chat GPT y otros, parecen muy fluidos en lo que proporcionen. Pero sus reacciones no se pueden confiar, lo que se debe a la cantidad del material que produjeron. Si el usuario no tiene suficiente información sobre el tema, puede comprender fácilmente que esta información es correcta, especialmente observando el más alto grado de confianza y mostrar a otros.
“No puede dejar de sentir cómo pueden aparecer claramente algunos sistemas de IA”, dijo Takmetsu Watnabi, profesor del Centro Internacional de Investigación de Neurrentials (WPIIR ICN) en la Universidad de Tokio. “Pero lo que impresionó a mi equipo y yo tuvimos una similitud entre las personas de este comportamiento y la pigmentación, donde esas personas hablan con fluidez, pero no siempre significan mucho. Esto nos hace preguntarnos si los mecanismos internos de estos sistemas de IA pueden ser como el cerebro humano y si es como un cerebro humano”.
Para descubrir esta idea, el equipo utilizó un método llamado análisis de paisajes energéticos, una técnica en la que los físicos realmente quieren ver los estados de energía en metal magnético, pero recientemente se moldeó para neurociencias. Examinaron muestras de actividad mental relajante de personas con diferentes tipos de Afsia y las compararon con datos internos de múltiples LLM disponibles públicamente. Y en su análisis, el equipo descubrió algunas similitudes sorprendentes. La forma en que se transmiten información digital o señales dentro de estos modelos de IA y se manipula, ya que algunos indicadores mentales se comportan en los cerebros de las personas, incluidos algunos tipos de efadia, incluidos los pigmentos.
“Puedes imaginar el paisaje energético que tiene una pelota en la superficie”, dijo Watnab. “En Afsia, la pelota representa el estado mental de la persona. En LLM, representa la muestra continua de la señal en el modelo basada en sus instrucciones y conjuntos de datos internos”.
Hay varias implicaciones de investigación. La TI de Neuro Science, solo ofrece una nueva forma de clasificar y monitorear afecciones, como la actividad mental interna, en lugar de los síntomas externos. AIK, puede conducir a mejores herramientas de diagnóstico que ayudan a los ingenieros a mejorar la arquitectura del sistema de IA desde el interior. Sin embargo, a pesar de las similitudes de los investigadores, enfatizan cuidadosamente no hacer demasiado suposiciones.
“No estamos diciendo que los barcos de chat hayan causado daños mentales”, dijo Watnab. “Pero pueden cerrarse de una manera interna estricta, lo que limita cómo pueden atraer el conocimiento almacenado de una manera flexible, al igual que los modelos futuros pueden eliminar este límite, pero para comprender estos paralelos internos, es más confiable, más confiable”.









