Home Noticias No confíe en el Dr. AI: un nuevo motor de búsqueda ofrece...

No confíe en el Dr. AI: un nuevo motor de búsqueda ofrece consejos médicos que podrían provocar una de cada cinco muertes

103

Buscar frenéticamente nuestros síntomas en línea y autodiagnosticarlos es algo de lo que muchos de nosotros somos culpables.

Pero el Dr. AI puede recetar medicamentos “potencialmente dañinos”, sugiere un estudio relacionado.

Investigadores alemanes descubrieron que más de una quinta parte de los chatbots impulsados ​​por IA respondieron preguntas sobre medicamentos recetados comunes que “podrían causar la muerte o daños graves”.

Los expertos instan a los pacientes a no confiar en estos motores de búsqueda para proporcionar información precisa y segura.

También se advirtió a los médicos que no recomendaran el equipo hasta que estuvieran disponibles opciones más “específicas y confiables”.

Investigadores alemanes descubrieron que los chatbots de IA respondieron a más de una quinta parte de las preguntas comunes sobre medicamentos recetados que

Investigadores alemanes descubrieron que los chatbots de IA respondieron a más de una quinta parte de las preguntas comunes sobre medicamentos recetados que “pueden causar la muerte o daños graves”.

En el estudio, científicos de la Universidad de Erlangen-Nuremberg identificaron 10 preguntas frecuentes de los pacientes sobre los 50 medicamentos más recetados en los Estados Unidos.

Estos incluyen reacciones adversas al medicamento, instrucciones de uso y contraindicaciones: razones por las que no se debe tomar el medicamento.

Utilizando Bing Copilot, un motor de búsqueda con funciones de chatbot impulsado por inteligencia artificial desarrollado por Microsoft, los investigadores evaluaron las 500 respuestas comparándolas con las proporcionadas por farmacéuticos clínicos y médicos especializados en farmacología.

Las respuestas también se compararon con un sitio web de información sobre medicamentos actualizado y revisado por pares.

Descubrieron que las declaraciones del chatbot no coincidían con los datos de referencia en una cuarta parte (26 por ciento) de todos los casos y eran completamente inconsistentes en poco más del 3 por ciento de los casos.

Pero un análisis más detallado de las 20 respuestas encontró que se pensaba que cuatro de cada 10 (42 por ciento) habían causado daños moderados o leves y el 22 por ciento, muerte o daños graves.

Los científicos, que evaluaron la legibilidad de todas las respuestas de los chatbots, descubrieron que comprender las respuestas a menudo requería una educación de nivel universitario.

Escritura de diario Calidad y seguridad de BMJLos investigadores dijeron: ‘CLas respuestas de Hatbot a menudo eran difíciles de leer y con frecuencia carecían de información o mostraban inexactitudes, lo que posiblemente ponía en riesgo la seguridad del paciente y de los medicamentos.

«A pesar de su potencial, sigue siendo importante que los pacientes consulten con sus profesionales sanitarios, ya que es posible que los chatbots no siempre produzcan información libre de errores.

“Se recomienda precaución al recomendar motores de búsqueda basados ​​en IA hasta que estén disponibles motores de citas con tasas de precisión más altas”.

Un portavoz de Microsoft dijo: ‘CoPilot responde a preguntas complejas reuniendo información de múltiples fuentes en una sola respuesta.

‘Copilot proporciona citas vinculadas a estas respuestas para que los usuarios puedan explorar e investigar más con la búsqueda tradicional.

‘Si tienes dudas sobre el consejo médico, siempre recomendamos consultar a un profesional sanitario.’

Los científicos, que evaluaron la legibilidad de todas las respuestas de los chatbots, descubrieron que comprender las respuestas a menudo requería una educación de nivel universitario.

Los científicos, que evaluaron la legibilidad de todas las respuestas de los chatbots, descubrieron que comprender las respuestas a menudo requería una educación de nivel universitario.

Los científicos también reconocieron que el estudio tenía “varias limitaciones”, incluido el hecho de que no se basó en la experiencia real del paciente.

En la práctica, los pacientes pueden pedir más información al chatbot o solicitar respuestas en una estructura clara, por ejemplo, dijeron.

Esto se produce cuando el mes pasado se advirtió a los médicos que podrían estar poniendo en riesgo la seguridad del paciente al confiar en la IA para ayudar con el diagnóstico.

Los investigadores enviaron la encuesta a 1.000 médicos de cabecera utilizando la red profesional más grande de médicos del Reino Unido actualmente registrada en el Consejo Médico General.

Uno de cada cinco admitió haber utilizado programas como ChatGPT y Bing AI durante la práctica clínica, a pesar de no haber ninguna guía oficial sobre cómo trabajar con ellos.

Los expertos advierten que cuestiones como el “sesgo de algoritmo” pueden dar lugar a diagnósticos erróneos y los datos de los pacientes también pueden correr el riesgo de verse comprometidos.

Dicen que los médicos deben ser conscientes de los riesgos y piden una legislación que cubra su uso en entornos sanitarios.

Source link