Modelos de idiomas grandes (LLMS) – Chat GPT se conecta rápidamente con la vida útil de AI -Everyday Behind Herramientas como GPT, como escribir correos electrónicos, responder preguntas e incluso apoyar las decisiones de atención médica. Pero, ¿pueden estos modelos cooperar con otros como lo hacen los humanos? ¿Pueden comprender, comprometerse o establecer confianza? Una nueva investigación de los investigadores de Helmulus Munich, el Instituto Max Planck de Cibernética Biológica, y la Universidad de Tibetanjin han revelado que la IA de hoy es inteligente, pero aún tiene mucho que aprender sobre la inteligencia social.
Jugando juegos para comprender el comportamiento de la IA
Para aprender cómo LLM se comporta en condiciones sociales, los investigadores aplican la teoría del juego de comportamiento: un método se usa comúnmente para estudiar cómo las personas hacen cooperación, competencia y decisiones. El equipo tenía varios modelos de IA, incluido GPT4, involucrado en una serie de deportes diseñados para imitar la interacción social y evaluar factores clave como la justicia, la confianza y la cooperación.
Los investigadores descubrieron que GPT -4 funcionó bien en los deportes que exigían un razonamiento lógico, especialmente cuando prefirieron sus intereses. Sin embargo, luchó con las tareas que requieren trabajo en equipo y coordinación, lo que a menudo disminuye en estas áreas.
“En algunos casos, la IA fue casi muy racional por su bondad”, dijo el Dr. Eric Schulz, el principal autor del estudio. “Inmediatamente puede observar cualquier acción de peligro o autocompasión y responder a represalias, pero luchó por ver una gran imagen de confianza, cooperación y compromiso”.
Enseñe a la IA a pensar socialmente
Para alentar un tratamiento socialmente familiar, los investigadores implementaron un estilo directo: instaron a la IA a considerar el punto de vista del otro jugador antes de tomar su decisión. Esta técnica, llamada China social del pensamiento (Scott), resultó en una mejora significativa. Con Scott, la IA se convirtió en más cooperativa, más adaptable y más efectiva para lograr resultados beneficiosos mutuos, incluso al interactuar con jugadores humanos reales.
“Una vez que atrajimos al modelo para discutir socialmente, comenzó a trabajar de la manera que hace que el modelo se sintiera más humano”, dijo Eliaf Akta, el primer autor del estudio. “Y lo interesante es que los participantes humanos a menudo no podían decir que estaban jugando con IA”.
Aplicaciones de salud y atención a los pacientes
Las implicaciones de este estudio están más allá de la teoría del juego. Más que estos resultados, los centros humanos son la base para desarrollar el sistema de IA, especialmente en entornos de atención médica donde la comprensión social es esencial. En campos como la salud mental, las enfermedades crónicas y el cuidado de los ancianos, el apoyo efectivo depende no solo de la precisión y la información, sino que también depende de la capacidad de construir la confianza de la IA, traducir gestos sociales y promover la cooperación. Al modelar y mejorar estas dinámicas sociales, el estudio allana el camino para una IA socialmente inteligente, con las importantes implicaciones de la investigación en salud y la interacción humana-A.
“Una IA que puede alentar al paciente a apegarse a sus medicamentos, ayudar a alguien a través de la ansiedad o para guiar la conversación sobre una elección difícil”, dijo Elif Acata. “Investigación similar se dirige”.










