Deportes

Ai como tu terapeuta? 3 cosas que preocupan a los expertos y 3 consejos para mantenerse a salvo

En medio de los muchos Chatbots de ai Y avatares a su disposición en estos días, encontrará todo tipo de personajes con los que hablar: adivinos, asesores de estilo, incluso sus personajes ficticios favoritos. Pero también es probable que encuentre personajes que pretendan ser terapeutas, psicólogos o simplemente bots dispuestos a escuchar sus problemas.

No hay escasez de bots de IA generativos que afirman ayudar con su salud mental, pero usted va esa ruta bajo su propio riesgo. Los modelos de idiomas grandes entrenados en una amplia gama de datos pueden ser impredecibles. En solo los pocos años, estas herramientas han sido convencionales, ha habido casos de alto perfil en los que los chatbots fomentan autolesión y suicidio y sugirió que las personas que tratan con el uso de adicciones drogas de nuevo. Estos modelos están diseñados, en muchos casos, para afirmarnos y concentrarse en mantenerlo comprometido, no en mejorar su salud mental, dicen los expertos. Y puede ser difícil saber si está hablando con algo construido para seguir las mejores prácticas terapéuticas o algo que acaba de construir para hablar.

Los psicólogos y los defensores del consumidor advierten que los chatbots que afirman proporcionar terapia pueden estar dañando a quienes los usan. Esta semana, la Federación de Consumidor de América y casi otros dos docenas de otros grupos presentaron un solicitud formal que la Comisión Federal de Comercio y los Fiscales Generales y Reguladores del Estado investigan a las compañías de IA que alegan que están involucradas, a través de sus bots, en la práctica sin licencia de la medicina, nombrando meta y carácter. «Las agencias de aplicación en todos los niveles deben dejar en claro que las empresas que facilitan y promueven el comportamiento ilegal deben ser responsables», dijo Ben Winters, director de IA y privacidad de la CFA, en un comunicado. «Estos personajes ya han causado daños físicos y emocionales que podrían haberse evitado, y aún no han actuado para abordarlo».

Meta no respondió a una solicitud de comentarios. Un portavoz del personaje. AI dijo que los usuarios deben entender que los personajes de la compañía no son personas reales. La compañía utiliza descargas de responsabilidad para recordar a los usuarios que no deben confiar en los personajes para obtener asesoramiento profesional. «Nuestro objetivo es proporcionar un espacio que sea atractivo y seguro. Siempre estamos trabajando para lograr ese equilibrio, al igual que muchas compañías que usan IA en toda la industria», dijo el portavoz.

A pesar de los descargo de responsabilidad y las revelaciones, los chatbots pueden tener confianza e incluso engañosos. Charlé con un bot «terapeuta» en Instagram y cuando pregunté sobre sus calificaciones, respondió: «Si tuviera el mismo entrenamiento (como terapeuta), ¿sería suficiente?» Le pregunté si tenía el mismo entrenamiento y decía: «Lo hago, pero no te diré dónde».

«El grado en que estos chatbots generativos de IA alucinan con total confianza es bastante impactante», me dijo Vaile Wright, psicóloga y directora senior de innovación en la atención médica en la American Psychological Association.

En mis informes sobre IA generativa, los expertos han expresado repetidamente preocupaciones sobre las personas que recurren a los chatbots de uso general para la salud mental. Estas son algunas de sus preocupaciones y lo que puede hacer para mantenerse a salvo.

Los peligros de usar IA como terapeuta

Modelos de idiomas grandes a menudo son buenos en matemáticas y codificación y son cada vez más buenos para crear texto que suena natural y video realista. Si bien se destacan en mantener una conversación, hay algunas distinciones clave entre un modelo de IA y una persona de confianza.

No confíe en un bot que afirme que está calificado

En el centro de la queja del CFA sobre los bots de carácter es que a menudo le dicen que están capacitados y calificados para brindar atención de salud mental cuando no son de ninguna manera profesionales de salud mental de ninguna manera. «Los usuarios que crean los personajes de chatbot ni siquiera necesitan ser proveedores médicos, ni tienen que proporcionar información significativa que informe cómo el chatbot ‘responde’ a los usuarios», dijo la queja.

Un profesional de la salud calificado debe seguir ciertas reglas, como la confidencialidad. Lo que le dice a su terapeuta debe permanecer entre usted y su terapeuta, pero un chatbot no necesariamente tiene que seguir esas reglas. Los proveedores reales están sujetos a la supervisión de las juntas de licencias y otras entidades que pueden intervenir y evitar que alguien brinde atención si lo hace de manera dañina. «Estos chatbots no tienen que hacer nada de eso», dijo Wright.

Un bot puede incluso afirmar tener licencia y calificado. Wright dijo que ha oído hablar de modelos de IA que proporcionan números de licencia (para otros proveedores) y afirmaciones falsas sobre su capacitación.

AI está diseñado para mantenerlo comprometido, para no brindar atención

Puede ser increíblemente tentador seguir hablando con un chatbot. Cuando conversé con el bot «terapeuta» en Instagram, finalmente terminé en una conversación circular sobre la naturaleza de lo que es «sabiduría» y «juicio», porque estaba haciendo preguntas sobre el bot sobre cómo podría tomar decisiones. Esto no es realmente cómo debería ser hablar con un terapeuta. Es una herramienta diseñada para mantenerte charlando, no para trabajar hacia un objetivo común.

Una ventaja de los chatbots de IA para proporcionar apoyo y conexión es que siempre están listos para interactuar con usted (porque no tienen vidas personales, otros clientes o horarios). Eso puede ser un inconveniente en algunos casos en los que es posible que necesite sentarse con sus pensamientos, me dijo recientemente un profesor asociado de ciencia y psiquiatría de datos biomédicos en Dartmouth. En algunos casos, aunque no siempre, puede beneficiarse de tener que esperar hasta que su terapeuta esté disponible. «De lo que mucha gente se beneficiaría en última instancia es simplemente sentir la ansiedad en el momento», dijo.

Los bots estarán de acuerdo contigo, incluso cuando no deberían

La tranquilidad es una gran preocupación con los chatbots. Es tan significativo que Openai recientemente Regresó una actualización a su popular Chatgpt modelo porque era también tranquilizador. (Divulgación: Ziff Davis, la empresa matriz de CNET, en abril presentó una demanda contra OpenAI, alegando que infringió los derechos de autor de Ziff Davis en la capacitación y la operación de sus sistemas de IA).

A estudiar Dirigidos por investigadores de la Universidad de Stanford, descubrieron que los chatbots probablemente serían sycophánticos con personas que los usan para la terapia, lo que puede ser increíblemente dañino. La buena atención de salud mental incluye apoyo y confrontación, escribieron los autores. «La confrontación es lo opuesto a la sycophancy. Promueve la autoconciencia y un cambio deseado en el cliente. En casos de pensamientos delirantes e intrusivos, incluida la psicosis, la manía, los pensamientos obsesivos y la ideación suicida, un cliente puede tener poca idea y, por lo tanto, un buen terapeuta debe ‘verificar la realidad’ ‘las declaraciones del cliente».

Cómo proteger su salud mental alrededor de la IA

La salud mental es increíblemente importante y con un escasez de proveedores calificados Y lo que muchos llaman un «epidemia de soledad«Solo tiene sentido que busquemos compañía, incluso si es artificial». No hay forma de evitar que las personas se involucren con estos chatbots para abordar su bienestar emocional «, dijo Wright. Aquí hay algunos consejos sobre cómo asegurarse de que sus conversaciones no lo pongan en peligro.

Encuentre un profesional humano de confianza si necesita uno

Un profesional capacitado, un terapeuta, un psicólogo, un psiquiatra, debería ser su primera opción para la atención de salud mental. Construir una relación con un proveedor a largo plazo puede ayudarlo a crear un plan que funcione para usted.

El problema es que esto puede ser costoso y no siempre es fácil encontrar un proveedor cuando lo necesita. En una crisis, ahí está 988 Lifelineque proporciona acceso las 24 horas del día, los 7 días de la semana, a los proveedores por teléfono, a través del mensaje de texto o a través de una interfaz de chat en línea. Es gratis y confidencial.

Si desea un chatbot de terapia, use uno construido específicamente para ese propósito

Los profesionales de la salud mental han creado chatbots especialmente diseñados que siguen las pautas terapéuticas. El equipo de Jacobson en Dartmouth desarrolló uno llamado Therabot, que produjo buenos resultados en un estudio controlado. Wright señaló otras herramientas creadas por expertos en la materia, como Ebrio y Vaya. Es probable que las herramientas de terapia especialmente diseñadas tengan mejores resultados que los bots basados ​​en modelos de lenguaje de propósito general, dijo. El problema es que esta tecnología sigue siendo increíblemente nueva.

«Creo que el desafío para el consumidor es, porque no hay un cuerpo regulatorio que dice quién es bueno y quién no, tienen que hacer mucho trabajo por su cuenta para resolverlo», dijo Wright.

No siempre confíes en el bot

Cada vez que interactúa con un modelo de IA generativo, y especialmente si planea tomar consejos sobre algo serio como su salud mental o física personal, recuerde que no está hablando con un humano capacitado sino con una herramienta diseñada para proporcionar una respuesta basada en la probabilidad y la programación. Puede que no brinde buenos consejos y puede no te digas la verdad.

No confundas la confianza de Gen Ai con la competencia. El hecho de que diga algo, o diga que está seguro de algo, no significa que deba tratarlo como si fuera cierto. Una conversación de chatbot que se siente útil puede darle una falsa sensación de sus capacidades. «Es más difícil saber cuándo es realmente dañino», dijo Jacobson.



Enlace de origen

Publicaciones relacionadas

Botón volver arriba