DayFR Spanish

El Colectivo MentalTech pide “vigilancia numérica”

-

Mientras la salud mental está experimentando un deterioro alarmante, MentalTech Collective publica este jueves 10 de octubre, Día Mundial de la Salud Mental, un informe que destaca el papel prometedor y preocupante de la IA en esta área crucial. Coordinado por Alexia Adda, cofundadora de KLAVA Innovation, este informe destaca los avances tecnológicos en salud mental al tiempo que plantea cuestiones éticas fundamentales.

MentalTech es el primer colectivo francés dedicado a la aparición de soluciones digitales en salud mental. Creado en marzo de 2022 por 7 miembros fundadores: Qare, hypnoVR, Kwit, moka.care, PetitBamBou, ResilEyes Therapeutics y Tricky, reúne ahora a más de treinta actores (startups, instituciones, profesionales de la salud) con la misma ambición: responder a la urgencia de desplegar herramientas digitales éticas en la prevención y atención de la salud mental.

El colectivo destaca el aumento de los trastornos del estado de ánimo en los últimos años, particularmente entre los adultos jóvenes, y el aumento de las consultas psiquiátricas de urgencia, debido al error de diagnóstico y al tabú que rodea a la salud mental. Ante estos desafíos, la aparición de herramientas digitales se vuelve imprescindible para mejorar la precisión de los diagnósticos, personalizar los tratamientos y facilitar el acceso a la atención.

IA: una herramienta transformadora

En los últimos años, la IA ha logrado avances significativos, ofreciendo soluciones innovadoras en diversas áreas, incluida la salud mental. Según el informe, surgen cuatro marcos principales de intervención de la IA:

  • Predicción de valor : La IA puede predecir estados mentales analizando grandes cantidades de datos, detectando así emociones en vídeos o conversaciones de texto antes de que aparezcan síntomas graves;
  • Generación de diálogo : Los chatbots pueden interactuar directamente con los pacientes, brindándoles apoyo continuo y personalizado. Pueden analizar en tiempo real el estado psicológico de los individuos a través de sus respuestas verbales o escritas, y brindar un primer nivel de asistencia o recomendaciones;
  • Creación de actividades terapéuticas. : La IA puede generar programas adaptados a las necesidades específicas del paciente, incluidos juegos serios y ejercicios de relajación. La realidad virtual puede ayudar a tratar fobias o
    trastorno de estrés postraumático mediante la simulación de entornos terapéuticos controlados;
  • Recomendación de recursos : se pueden realizar recomendaciones relevantes a los pacientes (artículos o vídeos), ayudándoles a comprender y gestionar mejor sus síntomas, y a los profesionales sanitarios (protocolos de atención) según las necesidades expresadas o detectadas.

Estas tecnologías tienen como objetivo mejorar los diagnósticos y crear un sistema de salud más inclusivo, llenando así las brechas en el acceso a la atención de salud mental.

Retos éticos a afrontar

Sin embargo, el uso cada vez mayor de la IA en la salud mental plantea importantes desafíos éticos. Proteger los datos confidenciales de los pacientes es una preocupación importante, especialmente porque la IA a menudo depende de grandes conjuntos de datos personales. Además, el informe advierte sobre el riesgo de deshumanización de la atención, destacando la necesidad de una validación humana de las decisiones tomadas por la IA.

Otro desafío radica en la explicabilidad de los algoritmos. A menudo denominados “cajas negras”, estos modelos pueden tomar decisiones complejas sin que su lógica sea siempre comprensible para los médicos, de ahí la importancia de una mayor transparencia.

Regulaciones europeas

Las aplicaciones de IA en la atención médica a menudo se consideran de alto riesgo, y los nuevos requisitos de la Ley de IA se suman a las regulaciones existentes para dispositivos médicos.

El colectivo recuerda que los editores de IA deben seguir seis pasos para cumplir con los nuevos estándares: definir el marco de uso, obtener el consentimiento del paciente para la recopilación de datos, evaluar el impacto de la IA, anticipar los sesgos, garantizar el cumplimiento normativo y establecer una gobernanza adecuada.

Convocatoria de vigilancia numérica

Para afrontar estos desafíos, el Colectivo MentalTech pide la creación de un marco de “vigilancia numérica”. Inspirado en el modelo de farmacovigilancia, este marco tiene como objetivo garantizar la seguridad del paciente y al mismo tiempo detectar rápidamente posibles abusos de los dispositivos de IA. Según él, permitiría mantener un equilibrio entre la innovación tecnológica y el respeto de los principios éticos fundamentales en la gestión de la salud mental.

El colectivo identifica diez grandes ejes para este marco:

1. Preparar un aviso informativo : crear un documento explicativo para los usuarios, detallando cómo funciona la IA, sus ventajas, sus riesgos, la población objetivo y las medidas en caso de mal funcionamiento, con un lenguaje accesible.

2. La creación de un comité científico multidisciplinar : formar un comité compuesto por al menos un médico, un experto en IA, un especialista en ética y un especialista en reglamentación para supervisar el desarrollo y la evaluación de los sistemas de IA.

3. La implicación de los profesionales sanitarios. : involucrar a los profesionales de la salud en el proceso de desarrollo de la IA para garantizar la solidez y confiabilidad de los sistemas.

4. Formación de profesionales de la salud. : ofrece formación sobre IA, sus aplicaciones en medicina y los principios de evaluación de sistemas de aprendizaje automático.

5. Instalación personalizada para usuarios. : adaptar el uso de herramientas de IA a las inquietudes de los usuarios, desarrollando protocolos específicos para cada caso de uso.

6. La ausencia de conflictos de intereses. : garantizar que no haya conflictos de intereses entre entidades involucradas en la detección y tratamiento de trastornos.

7. Adaptación de las métricas de evaluación : ajustar las métricas de evaluación del algoritmo según el caso de uso y garantizar la transparencia y eficacia de los mecanismos de seguridad.

8. Repasando las decisiones de la IA : documentar el proceso de toma de decisiones de IA, explicando los resultados generados, al tiempo que prevé excepciones cuando se pueden demostrar beneficios médicos sustanciales.

9. Selección de la población formativa. : garantizar la representatividad de los datos utilizados para entrenar la IA y realizar estudios adicionales para evitar sesgos algorítmicos si es necesario.

10. Recopilación de datos parsimoniosa : siga las recomendaciones de la CNIL recopilando solo los datos esenciales para probar la IA de manera pragmática y eficiente.

Related News :