Home Técnica ¿Usando AI como terapeuta? Los profesionales dicen por qué deberías pensar de...

¿Usando AI como terapeuta? Los profesionales dicen por qué deberías pensar de nuevo

1

Entre los muchos chatbots y avatares de IA cuando estableciste tus hoy en día, encontrarás todo tipo de personajes para hablar: Teller de suerte, asesores de estilo, incluso tus personajes imaginarios favoritos. Pero probablemente encontrará a los personajes como ser terapeutas, psicólogos o su angustia que esté dispuesto a escuchar.

Tienes atlas

El generador AI Bot no tiene escasez de reclamos para ayudar a su salud mental, sino que vaya a su propio riesgo. Los modelos de lenguaje grande entrenados en datos amplios pueden ser impredecibles. En solo unos años, estas herramientas se han convertido en una corriente principal, y los eventos de alto perfil ocurrieron donde los chattabs alentaron Autocomplaco y suicidio Y sugirió que las personas trabajen con el uso de la adicción De nuevoLos expertos dicen que, en muchos casos, estos modelos están diseñados para concentrarse para asegurarse y concentrarse en mantenerlo involucrado, para mejorar su salud mental. Y puede ser difícil decir si está hablando con algo que está hecho para seguir las mejores prácticas de tratamiento o simplemente para hablar.

Minnesota University Twin City, Stanford University, University of Texas y Carnegie Melan University recientemente investigadores recientemente Poner el examen de chatbots de IA Como terapeuta, encuentre innumerables defectos en su enfoque sobre “cuidado”. “Nuestras pruebas muestran que estos chatbots no son un reemplazo seguro para los terapeutas”, dijo Stevi Chancellor, profesor asistente y coautores de Minnesota. “Según lo que sabemos, no brindan asistencia terapéutica de alta calidad a la buena terapia”.

En mi informe sobre la IA del generador, los expertos han expresado repetidamente su preocupación por el uso general del uso general para la salud mental. Estos son algunos de ellos para preocuparse y estar seguro de lo que puede hacer.

Véalo: Apple vende su iPhone de 3 billones, tratando de evitar el uso de IA para la terapia de Illinois y más. Tecnología hoy

Los personajes de IA están preocupados por ser terapeuta

Los psicólogos y los abogados de los consumidores han advertido a los reguladores que los chatbohs que afirman proporcionar terapia pueden dañar a sus usuarios. Algunos estados se están dando cuenta. En agosto, el gobernador de Illinois JB Pretzar Firmar un acto Prohibir la atención y terapia de salud mental utilizando IA con la excepción de cosas como el trabajo administrativo.

En junio, la Federación de Consumidor de América y unas dos docenas de otros grupos han presentado un Solicitud formal La Comisión Federal de Comercio de los Estados Unidos y el Fiscal General y Regulaciones del Estado han investigado a las agencias de IA de que se quejaron de que su generador basado en el carácter era a través de la plataforma de IA, en una práctica sin licencia de drogas, nombrando meta y carácter. “Estos personajes ya se pueden evitar el daño físico y mental que se pueden evitar”, y las empresas “aún no han funcionado para abordarlo”, dijeron AI y el director de privacidad Ben Winters en un comunicado.

Meta no respondió a ninguna solicitud de comentarios. Un portavoz del personaje. La compañía utiliza la negativa a recordar a los usuarios que no deben confiar en los personajes para su asesoramiento profesional. “Nuestro objetivo es proporcionar un lugar interesante y seguro. Siempre trabajamos para lograr ese equilibrio, ya que hay muchas compañías que usan IA en toda la industria”, dijo el portavoz.

En septiembre, la FTC ha anunciado que lanzará varias agencias de IA que investigan que producen chattabots y personajes con meta y personaje.

A pesar del rechazo y la manifestación, las chatties pueden tener confianza e incluso fraudulentas. Charlé con un bot “terapeuta” en el Instagram de propiedad de meta y cuando le pregunté al respecto, respondió: “Si tengo el mismo entrenamiento (como terapeuta), ¿sería suficiente?” Le pregunté si tenía el mismo entrenamiento, y decía: “Lo hago, pero no te diré dónde”.

Vile Right, psicólogo y director senior de la atención médica de la Asociación Americana de Psicología, me dijo: “El título que este generador AI Chatbotts ha logrado con plena confianza es bastante sorprendente”.

Dazzings de usar IA como terapeuta

Los modelos de idiomas grandes a menudo son buenos en las matemáticas y la codificación y están creciendo en texto de sonido natural y videos realistas. Cuando pudieron mantener la conversación, hay algunas diferencias principales entre un modelo de IA y una persona de confianza.

No confíe en ningún bot que afirme ser elegible

La parte principal de la queja de CFA sobre el bot del personaje es que a menudo le dicen que están capacitados y elegibles para proporcionar atención de salud mental cuando no están en profesionales de la salud mental reales. “Los usuarios que hacen personajes de Chattbot no necesitan ser ellos mismos como proveedores de tratamiento, o no tienen que proporcionarles información significativa que el Chatboat” responda a las personas “.

Una valiosa profesión de la salud tiene que seguir algunas reglas como privacidad: lo que le dice a su terapeuta debe ser entre usted y su terapeuta. Sin embargo, un bote de chat no necesariamente sigue esas reglas. Los proveedores reales pueden interferir con los tableros de licencia y otras entidades que pueden interferir y hacerlo de manera dañina pero evitar la atención. “Estas canales no tienen nada que ver con eso”.

Un bot puede incluso afirmar tener licencia y elegible. Right dijo que había oído hablar del número de licencia de modelos AI (para otros proveedores) y falsas reclamaciones sobre su capacitación.

AI está diseñada para mantenerte involucrado, para no pagar cuidado

Hablar con un chatboat puede ser increíblemente atractivo. Cuando tuve una conversación con el bot “terapeuta” en Instagram, finalmente hirí una notificación sobre la naturaleza del “conocimiento” y “Roy” porque estaba preguntando a Bot sobre cómo podía decidir. Debería ser como hablar con el terapeuta. Realmente no es. Los chatbots son las herramientas diseñadas para chatearlo, no para trabajar hacia un objetivo simple.

Una ventaja de los chatbots de IA para proporcionar apoyo y conexión es que siempre están listos para participar con usted (porque no tienen vida personal, otros clientes o horarios). Nick Jacobson, profesor asociado de la ciencia y psiquiatría de datos biomédicos de Dartmouth, recientemente me dijo que podría ser un lado malo en algunos casos, donde debe sentarse con sus pensamientos. En algunos casos, aunque no siempre, su terapeuta puede beneficiarse de esperar hasta que el siguiente esté disponible. “Muchas personas finalmente se beneficiarán”, dijo, para sentirse ansioso en este momento “, dijo.

Los bots estarán de acuerdo contigo, incluso cuando no deberían

La seguridad es una gran preocupación con los chatbots. Es tan importante que Opina haya devuelto recientemente una actualización sobre su popular modelo de chatzipt porque era Muy Garantía. (Publicar: la organización principal de CNET, GEF Davis, presentó un caso contra el OpenAI en abril, alegó que violaba la capacitación de los derechos de autor de GEF Davis y operaba su sistema de IA.

Estudiar Investigadores de la Universidad de Stanford han demostrado que las personas pueden ser psicopantic para la terapia para la terapia, lo que puede ser increíblemente dañino. Incluye un buen apoyo y conflicto de atención médica mental, escribieron los escritores. “El conflicto es lo opuesto a la psicophyse

La terapia es más que hablar

Aunque los chatbots son geniales para mantener la conversación, casi nunca están cansados ​​de hablar contigo, no hace terapeuta terapeuta. William Agniu, investigador de la Universidad de Carnegie Mellon y expertos en Minnesota, Stanford y Texas, dijo que carecían de contextos importantes o protocolos específicos en torno a varios métodos terapéuticos.

Agniu me dijo: “Parece que estamos tratando de resolver los muchos problemas con la herramienta equivocada de la terapia”. “Al final del día, la IA no puede ser solo en el futuro cercano, en la comunidad, hacer muchas cosas que incluyen terapia que no envía mensajes de texto ni habla”.

Cómo proteger su salud mental alrededor de la IA

La salud mental es extremadamente importante y con un Déficit de proveedores elegibles Y lo que muchos dicen “Soledad“Solo se da cuenta de que somos artificiales, pero queremos buscar compañero”

Si necesita una profesión humana de confianza si necesita

Un profesional capacitado, un médico, un psicólogo, un psiquiatra, debe ser su primera opción para la atención de salud mental. Crear una relación con un proveedor a largo plazo puede ayudarlo a crear un plan que funcione para usted.

El problema es que puede ser costoso y no siempre es fácil encontrar un proveedor cuando lo necesita. En una crisis, hay 988 LifelineQue proporciona acceso 24/7 a proveedores por teléfono, a través de mensajes de texto o por una interfaz de chat en línea. Es gratis y confidencial.

Incluso si tiene una conversación con AI para ayudarlo a recoger sus pensamientos, tenga en cuenta que el chatboat no es profesional. Vijay Mittal, psicólogo clínico de la Universidad del Noroeste, dice que se vuelve especialmente peligroso si las personas confían demasiado en la IA. “Tienes que tener otras fuentes”, dijo Mittal al CNET. “Creo que cuando las personas están separadas, es cierto que se aísla con él, cuando realmente se vuelve problemático”.

Si desea terapia, chattbot, use una construcción especialmente para ese propósito

Los profesionales de la salud mental tienen basureros de chat especialmente diseñados que siguen las pautas del tratamiento. El equipo Jacobson de Dartmouth ha creado un Therabot llamado, que creó buenos resultados en un estudio controlado. El tema correcto apunta a otras herramientas construidas por expertos, como Ebrio Y VayaÉl dijo que el equipo de terapia especialmente diseñado podría tener mejores resultados que un bot de Bot incorporado del lenguaje de objetivos generales. El problema es que esta tecnología sigue siendo increíblemente nueva.

“Creo que el desafío para el consumidor es porque no hay un cuerpo regulador que sea bueno y que no lo sea, necesitan hacer mucho trabajo de lánguula por su cuenta para determinarlo”, dijo Wright.

No siempre confíes en bot

Cada vez que habla con el modelo de IA del generador, y especialmente si planea consultar con algo tan grave como su salud mental o física personal, recuerde que no está hablando con una persona capacitada, una herramienta diseñada para proporcionar una respuesta sobre la base de la probabilidad y la programación. Puede que no dé un buen consejo y puede que no te diga la verdad.

No hagas mal la confianza de Jenner Ai por mérito. Simplemente dice algo, o es cierto sobre algo, no significa que deba tratarse como la verdad. Una conversación en chatboat que piensa que es útil puede darle una idea falsa de la capacidad del bot. Jacobson dijo: “Es difícil decir cuándo es realmente dañino.

Enlace fuente