Dado que los hospitales ya están implementando inteligencia artificial para mejorar la atención al paciente, un nuevo estudio encontró que el uso de Chat GPT Plus mejoró significativamente la precisión de los diagnósticos de los médicos en comparación con el uso de recursos convencionales.
En el estudio realizado por Andrew S. Parsons, MD, MPH de UVA Health y sus colegas, se reclutó a 50 médicos en medicina familiar, medicina interna y medicina de emergencia para probar ChatGPT Plus. La mitad fue asignada aleatoriamente para usar ChatGPT Plus para diagnosticar casos complejos, mientras que la otra mitad dependió de métodos tradicionales como sitios de referencia médica (por ejemplo, UpToDate©) y Google. Luego, los investigadores compararon las evaluaciones resultantes y descubrieron que los dos grupos tenían la misma precisión.
Dicho esto, ChatGPT por sí solo superó a ambos grupos, lo que sugiere que todavía es prometedor para mejorar la atención al paciente. Sin embargo, los investigadores concluyeron que los médicos necesitarán más formación y experiencia con la tecnología emergente.
Por ahora, chatGPT se utiliza mejor para aumentar, en lugar de reemplazar, a los terapeutas humanos, dicen los investigadores.
“Nuestro estudio muestra que la IA por sí sola es una herramienta eficaz y poderosa para el diagnóstico”, dijo Parsons, quien supervisa la enseñanza de habilidades clínicas a estudiantes de medicina en la Facultad de Medicina de la Universidad de Virginia y codirige Clinical Reasoning Research Collaborative. ser probado.” “Nos sorprendió descubrir que agregar un médico humano a la mezcla disminuía la precisión del diagnóstico a pesar de que el rendimiento mejoraba. Estos hallazgos probablemente sugieren que necesitamos capacitación formal sobre cómo utilizar mejor la IA”.
Chat GPT para diagnóstico de enfermedades.
Los chatbots llamados “grandes modelos de lenguaje” que producen respuestas similares a las humanas están ganando popularidad y han demostrado una capacidad impresionante para tomar historias de pacientes, comunicarse con empatía y resolver problemas médicos complejos. Pero, por ahora, todavía necesitan la participación de un médico humano.
Parsons y sus colegas estaban ansiosos por determinar cómo se podría utilizar la herramienta de alta tecnología de manera más efectiva. Entonces lanzaron un ensayo aleatorio y controlado en tres hospitales líderes: UVA Health, Stanford y el Centro Médico Beth Israel Deaconess de Harvard.
Los codocumentos evaluaron “viñetas clínicas” basadas en casos reales de atención a pacientes. Estos estudios de casos incluyeron detalles sobre historias de pacientes, exámenes físicos y resultados de pruebas de laboratorio. Luego, los investigadores calificaron los resultados y examinaron la rapidez con la que los dos grupos hicieron sus diagnósticos.
La precisión diagnóstica media de los médicos que utilizaron ChatGPT Plus fue del 76,3 %, en comparación con el 73,7 % de los médicos que utilizaron métodos convencionales. Los miembros del grupo Chat GPT alcanzaron su evaluación un poco más rápido en general: 519 segundos en comparación con 565 segundos.
Los investigadores se sorprendieron del rendimiento de Chat GPT Plus por sí solo, con una precisión diagnóstica promedio de más del 92 %. Dicen que esto puede reflejar las indicaciones utilizadas en el estudio, lo que sugiere que los médicos probablemente se beneficiarían de una capacitación sobre cómo utilizar las indicaciones de manera efectiva. Como alternativa, afirma, las organizaciones sanitarias pueden adquirir indicadores predefinidos para implementarlos en el flujo de trabajo y la documentación clínicos.
Los investigadores también advierten que es probable que ChatGPT Plus sea menos útil en entornos de la vida real, donde entran en juego muchos otros aspectos del razonamiento clínico, en particular determinando los efectos posteriores del diagnóstico y las decisiones de tratamiento. Piden estudios adicionales para evaluar las capacidades de los grandes modelos lingüísticos en estas áreas y estudios similares sobre la toma de decisiones gerenciales.
“A medida que la IA se integra cada vez más en la atención sanitaria, es importante comprender cómo podemos aprovechar estas herramientas para mejorar la atención al paciente y la experiencia del médico”, afirmó Parsons. “Este estudio sugiere que queda mucho por hacer en términos de mejorar nuestra asociación con la IA en el entorno clínico”.
Después de este trabajo innovador, los cuatro sitios de estudio también lanzaron una red de evaluación de IA en ambas costas llamada ARiSE (Evaluación científica e investigación de IA) para evaluar más a fondo los resultados de GenAI en la atención médica. Obtenga más información en el sitio web de ARiSE.