Home Noticias Lo que hay que saber antes de pedirle consejos de salud a...

Lo que hay que saber antes de pedirle consejos de salud a un chatbot con IA – The Mercury News

35

Por Matthew Perrone, Associated Press

WASHINGTON – Con millones de personas recurriendo a los chatbots en busca de consejo, era solo cuestión de tiempo antes de que las empresas de tecnología comenzaran a ofrecer programas diseñados específicamente para responder preguntas sobre salud.

En enero, OpenAI lanzó ChatGPT Health, una nueva versión de su chatbot que, según la compañía, puede analizar los registros médicos de los usuarios, las aplicaciones de bienestar y los datos de los dispositivos portátiles para responder preguntas médicas y de salud. Actualmente, existe una lista de espera para el programa. Anthropic, una empresa rival de inteligencia artificial, ofrece características similares a algunos usuarios de su chatbot en la nube.

Ambas compañías dicen que sus programas, conocidos como Big Language Models, no sustituyen la atención profesional y no deben usarse para diagnosticar afecciones médicas. En cambio, dicen que los chatbots pueden resumir e interpretar resultados de pruebas complejas, ayudar a prepararse para las visitas al médico o analizar tendencias de salud importantes ocultas en registros médicos y métricas de aplicaciones.

Aquí hay algunas cosas que debe considerar antes de hablar con un chatbot sobre su salud:

Los chatbots pueden proporcionar información más personalizada que la búsqueda de Google

Algunos médicos e investigadores que han trabajado con ChatGPT Health y programas similares ven mejoras en sus condiciones.

Las plataformas de inteligencia artificial no son perfectas (a veces pueden alucinar o dar malos consejos), pero es más probable que la información que generan sea personalizada y específica que la que los pacientes pueden encontrar a través de una búsqueda en Google.

“La alternativa a menudo es nada, o el paciente se deja llevar”, afirmó el Dr. Robert Wachter, especialista en tecnología médica de la Universidad de California en San Francisco. “Por eso creo que si se utilizan estas herramientas de manera responsable, se puede obtener información útil”.

Una ventaja de los chatbots recientes es que responden a las preguntas de los usuarios con el contexto de su historial médico, incluidas recetas, edad y notas del médico.

Incluso si no le da a la IA acceso a su información médica, Wachter y otros recomiendan brindar a los chatbots tantos detalles como sea posible para mejorar las respuestas.

Si tiene síntomas preocupantes, evite las IA

Wachter y otros enfatizan que hay situaciones en las que las personas deberían evitar los chatbots y buscar atención médica de inmediato. Síntomas como dificultad para respirar, dolor en el pecho o dolor de cabeza intenso pueden indicar una emergencia médica.

Incluso en situaciones menos urgentes, los pacientes y los médicos deberían abordar los programas de IA “con cierto grado de escepticismo saludable”, afirmó el Dr. Lloyd Minor de la Universidad de Stanford.

“Si estás tomando una decisión médica importante, o incluso una decisión pequeña sobre tu salud, nunca debes confiar en lo que obtienes de un modelo de lenguaje grande”, dijo Minor, decano de la facultad de medicina de Stanford.

Considere su privacidad antes de cargar cualquier información de salud

Muchos de los beneficios que ofrecen los robots de IA provienen de que los usuarios comparten información médica personal. Pero es importante comprender que todo lo que se comparte con empresas de inteligencia artificial no está protegido por las leyes federales de privacidad que generalmente rigen la información médica confidencial.

Comúnmente conocida como HIPAA, la ley permite multas e incluso penas de cárcel para médicos, hospitales, aseguradoras u otros servicios de salud que divulguen registros médicos. Pero la ley no se aplica a las empresas que diseñan chatbots.

“Cuando alguien carga su expediente médico en un modelo de lenguaje grande, es muy diferente a entregárselo a un nuevo médico”, dijo Minor. “Los consumidores deben comprender que tienen estándares de privacidad completamente diferentes”.

Tanto OpenAI como Anthropic dicen que la información de salud de los usuarios se mantiene separada de otros tipos de datos y está sujeta a protecciones de privacidad adicionales. Las empresas no utilizan datos de salud para entrenar sus modelos. Los usuarios deben optar por compartir su información y pueden optar por no hacerlo en cualquier momento.

Las pruebas muestran que los chatbots pueden tropezar

A pesar del entusiasmo que rodea a la IA, las pruebas independientes de la tecnología están en sus primeras etapas. Las primeras investigaciones muestran que programas como ChatGPT pueden pasar pruebas médicas de alto nivel, pero a menudo fallan al interactuar con humanos.

Un estudio con 1.300 participantes en la Universidad de Oxford encontró recientemente que los chatbots de IA utilizados para investigar condiciones de salud hipotéticas no tomaban mejores decisiones que aquellos que usaban búsquedas en línea o juicios personales.

Los chatbots de IA, presentados de forma escrita y completa con escenarios médicos, identificaron correctamente la afección subyacente el 95% de las veces.

“Ese no era el problema”, dijo el autor principal Adam Mahdi del Oxford Internet Institute. “Donde las cosas se desmoronaron fue al interactuar con los participantes reales”.

Mahdi y su equipo encontraron varios problemas de comunicación. Las personas a menudo no brindan a los chatbots la información que necesitan para diagnosticar correctamente un problema de salud. Por el contrario, los sistemas de IA a menudo responden a una combinación de información buena y mala, y los usuarios tienen problemas para distinguir entre ambas.

El estudio, realizado en 2024, no utilizó las últimas versiones de chatbot, incluidas nuevas ofertas como ChatGPT Health.

Una segunda opinión de IA puede resultar útil

La capacidad de los chatbots para hacer preguntas de seguimiento y obtener detalles clave de los usuarios es un área en la que Wachter ve margen de mejora.

“Creo que ahí es cuando las cosas se pondrán realmente buenas, cuando las herramientas se vuelvan un poco más médicas en la forma en que retroceden” con los pacientes, dijo Wachter.

Por ahora, una forma de sentirse más seguro acerca de la información que obtiene es consultar varios chatbots, como obtener una segunda opinión de otro médico.

“A veces pongo datos en ChatGPT y datos en Gemini”, dijo Wachter, refiriéndose a la herramienta de inteligencia artificial de Google. “Y cuando ambos están de acuerdo, me siento un poco más seguro de que ésta es la respuesta correcta”.

___

El Departamento de Salud y Ciencia de Associated Press recibe apoyo del Departamento de Educación Científica del Instituto Médico Howard Hughes y de la Fundación Robert Wood Johnson. AP es el único responsable de todo el contenido.

Enlace fuente