Como parte de una tendencia a nivel nacional, más pacientes de NYU Langone Health han comenzado a utilizar herramientas de registros médicos electrónicos para hacer preguntas a sus médicos, surtir recetas y revisar los resultados de las pruebas durante la pandemia. Muchas de las consultas digitales de los pacientes se produjeron a través de una herramienta de comunicación llamada InBasket, que está integrada en el sistema de registros médicos electrónicos (EHR) de NYU Langone, EPIC.
Según un artículo de Paul A. Testa, MD, director de información médica de NYU Langone, aunque los médicos siempre han dedicado tiempo a gestionar los mensajes de EHR, han visto más del 30% de la cantidad de mensajes que reciben diariamente en los últimos años. Se observa un aumento anual. Testa escribió que no es raro que los médicos reciban más de 150 mensajes de entrada por día. Debido a que el sistema de salud no fue diseñado para manejar ese tipo de tráfico, los médicos llenaron el vacío y pasaron largas horas revisando mensajes después del trabajo. Esta carga se ha citado como una de las razones por las que la mitad de los médicos informaron haber experimentado agotamiento.
Ahora, un nuevo estudio, dirigido por investigadores de la Facultad de Medicina Grossman de la Universidad de Nueva York, muestra que una herramienta de inteligencia artificial puede redactar respuestas a las preguntas de los EHR de los pacientes al igual que sus profesionales de la salud humanos, y con una mayor “empatía”. Los resultados resaltan el potencial de estas herramientas para reducir drásticamente la carga de la cesta de los médicos y al mismo tiempo mejorar su comunicación con los pacientes, siempre que los proveedores humanos revisen los borradores de IA antes de enviarlos.
NYU Langone Health está probando las capacidades de la inteligencia artificial generativa (genAI), en la que algoritmos informáticos generan posibles opciones para la siguiente palabra en cualquier oración en función de cómo lo han hecho las personas en contexto en Internet. El resultado de esta predicción de la siguiente palabra es que los “chatbots” genAI pueden responder preguntas en un lenguaje convincente y similar al humano. NYU Langone autorizó “una instancia privada” de GPT4 en 2023, el último pariente del popular chatbot chatGPT, para permitir a los médicos experimentar utilizando datos reales de pacientes respetando las leyes de privacidad de datos.
Publicado en línea el 16 de julio. Red JAMA abierta.el nuevo estudio examinó borradores generados por GPT4 de estas preguntas de la cesta de pacientes, y los médicos de atención primaria los compararon con respuestas humanas reales a estos mensajes.
““Nuestros hallazgos sugieren que los chatbots pueden reducir la carga de trabajo de los proveedores de atención al proporcionar respuestas eficientes y empáticas a las preocupaciones de los pacientes”, dijo el autor principal del estudio, William Small, MD, profesor clínico asistente en medicina de la Universidad de Nueva York. integrado con el EHR que utiliza datos específicos del paciente puede producir mensajes que coincidan con los criterios de los proveedores humanos”.
Para el estudio, dieciséis médicos de atención primaria calificaron 344 pares de respuestas humanas y de IA asignados al azar a los mensajes de los pacientes en función de su precisión, relevancia, integridad y tono, e indicaron si preferían que la respuesta de IA se usara como borrador o como comienzo. de. Scratch escribiendo el mensaje del paciente. Los médicos no sabían si las respuestas que estaban revisando fueron generadas por humanos o por una herramienta de inteligencia artificial (estudio ciego).
El equipo de investigación descubrió que no había diferencias estadísticamente significativas en la precisión, integridad y relevancia de las respuestas de la IA generativa y los proveedores humanos. Las respuestas creativas de IA superaron a los proveedores humanos en un 9,5% en términos de inteligibilidad y tono. Además, las respuestas de la IA tenían más del doble de probabilidades de ser percibidas como empáticas (125 por ciento más de probabilidades) y un 62 por ciento más de probabilidades de usar un lenguaje que transmitiera positividad (probablemente relacionado con la esperanza) y compromiso (“Estamos juntos en esto”. ).
Por otro lado, las respuestas de la IA también fueron un 38 por ciento más largas y un 31 por ciento más propensas a utilizar un lenguaje complejo, por lo que la herramienta necesita más capacitación, dicen los investigadores. Mientras los humanos respondían las preguntas de los pacientes el 6Th Estaba escribiendo al nivel de grado, AI 8.Th Nivel de grado, según una medida estandarizada de capacidad de lectura llamada puntuación de Flesch Kincaid.
Los investigadores argumentaron que el uso de información privada de los pacientes por parte de chatbots, en lugar de información general de Internet, predice mejor cómo se utilizará la tecnología en el mundo real. Se necesitarían estudios futuros para confirmar si los datos privados mejoraron significativamente el rendimiento de la herramienta de IA.
“Este trabajo demuestra que una herramienta de inteligencia artificial puede generar borradores de respuestas de alta calidad a las solicitudes de los pacientes”, dijo el autor correspondiente Devon Mann, MD, director senior de innovación informática en Tecnología de la Información del Centro Médico Langone (MCIT) de la Universidad de Nueva York. En este lugar, la calidad de los mensajes GenAI estará en un futuro próximo a la par de las respuestas generadas por humanos en términos de calidad, estilo de comunicación y usabilidad”, añadió Mann, quien también es profesor en los Departamentos de Salud de la Población y Medicina.
Con los médicos. Los autores del estudio de Small & Mann, NYU Langone Health fueron Beatrix Brandfield-Harvey, Zoe Jonassen, Soumik Mandal, Elizabeth Stevens, Vincent Major, Erin Lostraglio, Adam Szerencsy, Simon Jones, Yindalon Aphinyanaphongs y Stephen Johnson. También entre los autores se encuentran Oded Nov de la Escuela de Ingeniería Tandon de la Universidad de Nueva York y Batia Wiesenfeld de la Escuela de Negocios Stern de la Universidad de Nueva York.
Este estudio fue financiado por las subvenciones de la Fundación Nacional de Ciencias 1928614 y 2129076) y las subvenciones de la Fundación Nacional de Ciencias de Suiza P500PS_202955 y P5R5PS_217714.










