Home Noticias Mind lanzó una investigación sobre la IA y la salud mental tras...

Mind lanzó una investigación sobre la IA y la salud mental tras una investigación del Guardian AI (Inteligencia Artificial)

21

Se está iniciando una importante investigación sobre inteligencia artificial y salud mental después de que una investigación de The Guardian revelara cómo las resúmenes de inteligencia artificial de Google daban a las personas consejos médicos “muy peligrosos”.

En una comisión de un año de duración, la organización benéfica de salud mental, que trabaja en Inglaterra y Gales, examinará los riesgos y salvaguardas necesarios a medida que la IA afecta cada vez más las vidas de millones de personas afectadas por problemas de salud mental en todo el mundo.

La investigación, la primera de su tipo a nivel mundial, reunirá a los principales médicos y profesionales de la salud mental del mundo, así como a experiencias vividas, proveedores de servicios de salud, formuladores de políticas y empresas de tecnología. Mind dice que su objetivo es construir un ecosistema digital seguro de salud mental, con regulaciones, estándares y salvaguardias sólidas.

El lanzamiento se produce después de que The Guardian revelara cómo las personas corrían riesgo de sufrir daños debido a información de salud falsa y engañosa en una descripción general de la IA de Google. Los resúmenes generados por IA se muestran a 2 mil millones de personas al mes y aparecen encima de los resultados de búsqueda tradicionales en los sitios web más visitados del mundo.

Después del informe, Google eliminó la descripción general de IA para algunas, pero no para todas, las búsquedas médicas. La directora ejecutiva de Mind, la Dra. Sarah Hughes, dijo que todavía se estaban dando al público consejos de salud mental “peligrosamente incorrectos”. En el peor de los casos, la información falsa puede poner en riesgo vidas, afirmó.

Hughes dijo: “Creemos que la IA tiene un enorme potencial para mejorar las vidas de las personas con problemas de salud mental, aumentar el acceso al apoyo y fortalecer los servicios públicos. Pero ese potencial sólo se realizará si se desarrolla y se implementa de manera responsable, con salvaguardias proporcionadas a los riesgos”.

“Las cuestiones descubiertas por los informes de The Guardian son la razón por la que estamos lanzando la Comisión Minds sobre IA y Salud Mental, para examinar los riesgos, oportunidades y salvaguardas requeridas a medida que la IA se integra más profundamente en la vida cotidiana.

“Queremos asegurarnos de que la innovación no se produzca a expensas del bienestar de las personas y que aquellos de nosotros con problemas de salud mental estemos en el centro de la configuración del futuro del soporte digital”.

Google dice que su descripción general de IA, que utiliza IA generativa para proporcionar instantáneas de la información necesaria sobre un tema o pregunta, “útil“y”confiable

Pero The Guardian descubrió que algunas resúmenes de IA ofrecían información de salud inexacta y ponían a las personas en riesgo de sufrir daños. La investigación descubrió consejos médicos falsos y engañosos sobre una variedad de temas que incluyen cáncer, enfermedades hepáticas y la salud de la mujer, así como afecciones de salud mental.

Los expertos dicen que algunos informes de IA para enfermedades como la psicosis y los trastornos alimentarios dan “consejos muy peligrosos” y “pueden ser incorrectos, perjudiciales o impedir que las personas busquen ayuda”.

Google también está restando importancia a las advertencias de seguridad de que sus consejos médicos generados por IA podrían estar equivocados, descubrió The Guardian.

Hughes dijo que las personas vulnerables estaban recibiendo “orientaciones peligrosamente erróneas sobre salud mental”, lo que podría “disuadir a las personas de buscar tratamiento, reforzar el estigma o la discriminación y, en el peor de los casos, poner vidas en riesgo”.

Y añadió: “La gente merece información que sea segura, precisa y basada en evidencia, no tecnología no probada presentada con intervalos de confianza”.

Guía rápida

Póngase en contacto con Andrew Gregory acerca de esta historia

espectáculo

Si tiene algo que compartir sobre esta historia, puede comunicarse con Andrew utilizando uno de los siguientes métodos.

La aplicación Guardian tiene una herramienta para enviar sugerencias sobre historias. Los mensajes están cifrados de extremo a extremo y ocultos en cada actividad rutinaria que realiza la aplicación móvil Guardian. Esto impide que un observador sepa que usted se está comunicando con nosotros, y mucho menos lo que se está diciendo.

Si aún no tienes la aplicación Guardian, descárgala (iOS/Androide) y vaya al menú. Seleccione ‘Mensajería segura’.

Correo electrónico (no seguro)

Si no necesita un alto nivel de seguridad o privacidad, puede enviar un correo electrónico a andrew.gregory@theguardian.com

SecureDrop y otros métodos seguros

Si puedes utilizar la red Tor de forma segura sin ser monitoreado ni monitoreado, puedes enviar mensajes y documentos a Guardian a través de nuestra plataforma SecureDrop.

Finalmente, nuestra guía en theguardian.com/tips enumera las diferentes formas de contactarnos de forma segura y analiza los pros y los contras de cada una.

Ilustración: Diseño Guardián / Primos Ricos

Gracias por tus comentarios.

La comisión, que tendrá una duración de un año, recopilará pruebas sobre la intersección entre la IA y la salud mental y proporcionará un “espacio abierto” donde las experiencias de las personas con problemas de salud mental puedan “verse, registrarse y comprenderse”.

La directora de contenido de información de Mind, Rosie Weatherly, dijo que, si bien buscar en Google información sobre salud mental antes de la descripción general de la IA “no era perfecto”, en general funcionaba bien. Dijo: “Los consumidores tenían más posibilidades de hacer clic en un sitio web de salud confiable que respondiera a sus preguntas y luego fuera más allá, ofreciendo un viaje hacia los matices, las experiencias vividas, los estudios de casos, las citas, el contexto social y el apoyo.

“Las reseñas de IA han reemplazado esa riqueza con un resumen que suena clínico y que da la ilusión de especificidad. Le dan al usuario un tipo de claridad (brevedad y lenguaje sencillo), mientras que le dan menos de otro (la seguridad de la fuente de datos y cuánto se puede confiar). Es un enfoque muy tentador, pero irresponsable”.

Un portavoz de Google dijo: “Invertimos significativamente en la calidad de las resúmenes de IA, especialmente para temas como la salud, y brindamos información en su mayoría precisa.

“Para consultas en las que nuestro sistema identifica que una persona puede estar en problemas, trabajamos para mostrar líneas directas de crisis locales relevantes. Sin poder revisar los casos citados, no podemos comentar sobre su exactitud”.

Enlace fuente