A pesar de chatbot Y Grandes modelos de lenguaje Se pueden responder varias preguntas cotidianas, pero no deberían ser el primer lugar al que acudir en busca de consejo médico, sugiere un nuevo estudio publicado en la revista Scientific Reports. medicina de la naturaleza muestra
Durante el estudio, se pidió a 1.298 participantes en el Reino Unido que utilizaran un modelo de lenguaje grande, es decir chatear o Madre Lama 3Para asesoramiento médico. Cuando se utiliza de esta manera, LLM identificó correctamente condiciones médicas en menos del 34,5% de los casos.
Cómo se desempeñó LLM en la investigación
El estudio reconoció que los LLM ahora obtienen puntajes en estándares de conocimiento médico comparables a aprobar el examen de licencia médica de EE. UU., y que los documentos clínicos de los LLM están “calificados como equivalentes o mejores que los escritos por los médicos”.
Sin embargo, surgió un problema cuando los participantes del estudio intentaron obtener los mismos resultados haciendo preguntas de LLM pero no tuvieron éxito. Esto se debe a que los usuarios a menudo no proporcionan suficiente información, según el estudio. Informa que en 16 de 30 interacciones muestreadas, los mensajes iniciales contenían solo información parcial.
“En dos casos, LLM inicialmente proporcionó respuestas correctas, pero agregó respuestas nuevas e incorrectas después de que los usuarios agregaron detalles adicionales”, dijo el estudio, señalando que más conversaciones con chatbots no mejoraron la probabilidad de un diagnóstico médico correcto.
Después del diagnóstico inicial, LLM proporcionó las medidas de seguimiento correctas el 44,2% de las veces.
Mater Lama 3 es uno de los grandes modelos de lenguaje utilizados en el estudio.
¿Con qué frecuencia la gente utiliza chatbots para consultas médicas?
Según una encuesta realizada por AbiertoAIpropietaria de ChatGPT, informa que 3 de cada 5 adultos estadounidenses usan IA para su salud. “Usan IA para obtener información cuando se sienten enfermos por primera vez, la consultan para prepararse para sus visitas con sus médicos y la usan para comprender mejor las instrucciones y recomendaciones de los pacientes”, dijo OpenAI.
Leer más: ChatGPT para el autodiagnóstico: la IA está cambiando la forma en que respondemos a nuestras propias preguntas sobre salud
Y aunque ChatGPT tiene un pequeño descargo de responsabilidad en su sitio web que dice: “ChatGPT puede cometer errores. Verifique información importante”, muchos creen que la afirmación del chatbot es cierta.
El estudio sirve como recordatorio de que no se debe confiar en ChatGPT y chatbots similares para obtener orientación médica, especialmente en situaciones graves.











