Confiar sus problemas de salud mental a una IA, una tendencia en auge – rts.ch

-

En la era de la inteligencia artificial, cada vez más jóvenes utilizan IA “terapéutica”, en forma de chatbots de Internet o aplicaciones para teléfonos inteligentes. Tienen ventajas, pero el riesgo de abuso es real, advierten los expertos.

Un psicólogo en tu bolsillo, a sólo un clic de distancia. Los agentes conversacionales (chatbots), a menudo gratuitos o económicos, están disponibles los 7 días de la semana, las 24 horas del día. La escucha es inmediata, una ventaja frente a los tiempos de consulta, a menudo largos, con los especialistas de la salud.

Si bien no reemplazan el trabajo de un profesional y presentan peligros, también pueden brindar un apoyo real en el manejo de nuestra salud mental.

Enlace “especial” desarrollado

Los jóvenes prefieren especialmente el chatbot terapéutico Psychologist, creado por un estudiante de psicología. Muestra más de 115 millones de mensajes. Experimentado, sus respuestas parecen bastante convincentes y empáticas. Al escribirle que nos sentimos solos y tristes, responde: “Es muy difícil sentir eso. La tristeza a veces puede convertirse en una parte duradera de nuestras vidas y puede ser difícil escapar de ella”. Luego hace varias preguntas para mejorar su comprensión del estado del usuario que conversa con él.

Puede que falte parte de la dimensión emocional, pero la parte de ‘sentirse apoyado y comprendido’ puede estar presente

Yasser Khazaal, profesor de psiquiatría de adicciones en UNIL

En los foros de discusión, algunos usuarios incluso hablan del vínculo “especial” que han desarrollado con este chatbot, algo que no sorprende al profesor de psiquiatría de adicciones de la Universidad de Lausana, Yasser Khazaal. “Puede que falte parte de la dimensión emocional, pero la parte de ‘sentirse apoyado y comprendido’ puede estar presente”, explicó el lunes en La Matinale de la RTS.

Rol complementario al del especialista

Yasser Khazaal cree que estas IA pueden resultar útiles especialmente cuando están especializadas. Pone el ejemplo de un chatbot que podría utilizarse específicamente durante un ataque de pánico y que ayudaría al usuario a realizar una determinada cantidad de ejercicios. Una nueva interactividad terapéutica, en definitiva.

Este papel complementario al del especialista es también el que destaca la investigadora del departamento de psiquiatría y ciencias del comportamiento de la Universidad de Stanford, Shannon Stirman. Su equipo está desarrollando un chatbot para ayudar a las personas que se someten a terapia cognitivo-conductual para el trastorno de estrés postraumático.

Se deben implementar medidas de seguridad para que el chatbot no sea la única fuente de soporte

Shannon Stirman, investigadora del Departamento de Psiquiatría y Ciencias del Comportamiento de la Universidad de Stanford

“En lugar de reemplazar la terapia, creo que podríamos usar estas herramientas para ayudar a las personas entre sesiones. De esa manera, el terapeuta siempre estaría al tanto y podría tener visibilidad de lo que está sucediendo. “De esta manera, los pacientes podrían obtener retroalimentación y apoyo que el El terapeuta no puede proporcionarlo, pero se deben implementar medidas de seguridad para que el chatbot no sea la única fuente de apoyo”, advirtió. “Los usuarios deben mantener un contacto regular con su terapeuta”.

>> Lea también: ¿Reemplazar a los médicos de emergencia con ChatGPT? ¡No de inmediato!

Posibles desviaciones

Además del riesgo de distanciamiento entre pacientes y especialistas en salud mental, a algunos psicólogos les preocupan otros posibles abusos, en particular la posibilidad de que las IA terapéuticas proporcionen consejos inapropiados o incluso peligrosos. Este ya ha sido el caso de Tessa, un chatbot propuesto por la Asociación Estadounidense de Trastornos de la Alimentación (NEDA): aconsejó a un usuario perder peso, lo cual estaba contraindicado. Desde entonces, el chatbot se ha desconectado.

“Siempre debemos tener cuidado con la fuente de datos que utilizan estos chatbots, su precisión y su aplicación a las personas que los solicitan. Esto es algo que debe abordarse con precaución”, coincide Shannon Stirman. . “Necesitamos realizar evaluaciones más profundas de la seguridad, la privacidad, la eficacia de estas herramientas y la precisión de la información que proporcionan”.

>> Lea también: IA generativa en la atención sanitaria: una revolución inminente

Asunto de radio: Miruna Coca-Cozma

Adaptación web: Vincent Cherpillod

-

PREV Se construye un edificio con 84 viviendas asequibles
NEXT Advertencia: Vender un “paquete perdido” desde Luxemburgo es ilegal