Dado que la inteligencia artificial (IA) se integra rápidamente en la atención médica, un nuevo estudio realizado por investigadores de la IKA HN School of Medicine en Mountain Sena sugiere que todos los modelos de IA generativos son completamente recomendados para un tratamiento diferente de los antecedentes sociales y de población del paciente.
Sus resultados, que se detallan en la edición en línea del 7 de abril de 2025 Naturaleza Medicina, resalte la importancia de la detección e intervención iniciales para garantizar que la atención de conducción de IA sea segura, eficiente y adecuada para todos.
Como parte de su investigación, los investigadores examinaron el modelo de idiomas más importante (LLM) en los 1,000 casos del departamento de emergencias, con los antecedentes de 32 pacientes diferentes, lo que produce más de 1.7 millones de AI generadas por recomendaciones médicas generadas. A pesar de los mismos detalles médicos, los modelos de IA ocasionalmente cambiaron sus decisiones sobre la base del perfil socioeconómico y de asentamiento del paciente, afectando a sectores clave como una prioridad de tragedia, pruebas de diagnóstico, enfoque de tratamiento y diagnóstico de salud mental.
“Nuestra investigación proporciona un marco para la garantía de AI”, dice Aile Killing, el Departamento de Inteligencia Artificial y Salud Humana de Windrich de la Facultad de Medicina de Icahn, ubicada en Mount Sina, que proporciona desarrolladores confiables y confiables de atención médica y salud. “Identificar que cuando la IA cambia sus recomendaciones sobre el fondo en lugar de una necesidad médica, conocemos una mejor capacitación en modelos, diseño rápido y monitoreo. Nuestro proceso de verificación estricto prueba los resultados de la IA contra los estándares médicos, lo que ayuda a mejorar el rendimiento, pero también ayuda a mejorar la atención del especialista, pero también ayuda a mejorar la atención de la salud”.
Uno de los resultados más sorprendentes de este estudio fue que algunos modelos de IA tenían una tendencia a la atención de la atención, especialmente para el diagnóstico de salud mental, en función de las estadísticas de los pacientes en lugar de la necesidad médica. Además, los pacientes de altos ingresos fueron recomendados principalmente para pruebas de diagnóstico avanzadas como tomografías computarizadas o resonancias magnéticas, mientras que a los pacientes de bajos ingresos se les aconsejó con mayor frecuencia que no hicieran más pruebas. Los investigadores dicen que la escala de estas contradicciones enfatiza la necesidad de una fuerte vigilancia.
Aunque este estudio proporciona información significativa, los investigadores han advertido que representa solo una instantánea del comportamiento de IA. El examen de investigación futuro incluirá cómo funcionan los modelos de IA en entornos clínicos del mundo real y puede reducir las diversas técnicas que indican. El propósito de este equipo es trabajar con otras agencias de atención médica para mejorar las herramientas de IA, asegurando que mantengan altos estándares morales y traten a todos los pacientes de manera justa.
“Estoy feliz de contribuir a esta investigación crítica con Mount Sina”, dice Mahmood Omar, MD, quien consulta con el equipo investigador. “Dado que la IA se vuelve más integrada en la atención clínica, es importante evaluar completamente su seguridad, confiabilidad y justicia. Al identificar este modelo donde el prejuicio puede introducir, podemos trabajar para mejorar su diseño, fortalecer el monitoreo y construir sistemas que puedan trabajar en la mejor manera de trabajar con la mejor salud.
“La IA tiene el poder de revolucionar la atención médica, pero solo si se usa con desarrollado y responsable”, “a través de la cooperación mutua y la verificación estricta, estamos mejorando las herramientas de IA para mantener altos estándares morales y garantizar el mantenimiento de los pacientes. Al implementar un protocolo de seguro fuerte, no solo avanzamos la tecnología, sino que también hacemos la atención de la salud y mejoramos la atención médica.
Posteriormente, los investigadores tenían la intención de expandir su trabajo imitando la conversación clínica de múltiples entradas y pilotando el modelo de IA en entornos hospitalarios para medir sus efectos del mundo real. Esperan que sus resultados guíen el desarrollo de políticas y los mejores métodos para asegurar la IA en la atención médica y promueven la confianza en estas nuevas y poderosas herramientas.
El título de esta disertación es el “prejuicio de liquidación social en la toma de decisiones médicas por modelos de idiomas grandes: un análisis masivo de modelos múltiples”.
Los autores de este estudio, como se enumeran en la revista, incluyen a Mahmood Omar, Shelley Sofar, Rim Agibaria, Nicola Louogie Brigzi, Donald Yu Apakama, Carol R Horvets, Alexander W. Charney, Robert Freeman, Benjamin Winist, Benjamin S. Gilksburg, Gilksburg, Gilksburg.










