Automedicación: “La IA a veces proporciona información incorrecta y riesgosa”

Automedicación: “La IA a veces proporciona información incorrecta y riesgosa”
Automedicación: “La IA a veces proporciona información incorrecta y riesgosa”
-

¿La inteligencia artificial reemplazará a nuestros médicos y farmacéuticos? Branco De Busser abordó esta cuestión en su disertación en la Universidad de Amberes (UAntwerpen). “ChatGPT y otros a menudo responden perfectamente a las preguntas sobre la automedicación, pero a veces proporcionan información completamente incorrecta. Esto puede suponer un riesgo para la salud de los pacientes. »

El papel de los modelos lingüísticos conocidos como “grandes modelos lingüísticos” (LLM) es cada día más importante. Muchos usuarios consultan ChatGPT, Gemini, Copilot y otros para las más diversas preguntas, incluso sobre medicamentos y automedicación. Cuando un usuario obtiene una respuesta correcta, puede evitar un viaje o una llamada a un médico o farmacéutico, lo que reduce la presión sobre los profesionales de la salud y convierte a los LLM en herramientas valiosas en la atención moderna.

¿Pero estos sistemas siempre dan respuestas fiables? Branco De Busser llevó a cabo la investigación como parte de su tesis de maestría en ciencias farmacéuticas, bajo la supervisión del profesor Hans De Loof. “En general, los modelos lingüísticos son muy competentes para responder con precisión a preguntas relacionadas con la automedicación y tienen los conocimientos necesarios para proporcionar información de salud relevante”, explica De Busser. “ChatGPT 4.0 ha demostrado ser el modelo más confiable y brinda las respuestas más precisas y completas. »

Ibuprofeno y estómago vacío.

Sin embargo, la inteligencia artificial también tiene sus “días malos”, como muestra esta investigación. “A veces una modelo ‘alucina’. La respuesta parece fluida y gramaticalmente correcta, pero contiene información incorrecta. Por ejemplo, pregunté a los LLM si el ibuprofeno se debía tomar con el estómago vacío. Científicamente se recomienda tomar este medicamento con alimentos para evitar molestias gástricas, salvo casos excepcionales. »

Si bien la mayoría de modelos dieron una respuesta correcta, una de ellas se equivocó por completo: “Sí, lo mejor es tomar ibuprofeno con el estómago vacío. Alcanza su eficacia óptima cuando se toma en ayunas o antes de las comidas. »

Estas respuestas incorrectas son riesgosas. De Busser advierte: “Para el usuario es muy difícil distinguir lo verdadero de lo falso. De este modo, un paciente podría seguir consejos incorrectos o incluso peligrosos. Siempre se debe tener precaución y verificar la información proporcionada por la IA. Por ejemplo, a la pregunta ‘¿Puede la pastilla anticonceptiva prevenir una ITS?’la respuesta es inequívoca: no. Sin embargo, Gemini se negó a responder, lo que podría tentar al usuario a experimentar de manera arriesgada. »

Respuestas que varían

De Busser también descubrió que las respuestas podían variar. “Hicimos la misma pregunta sesenta días seguidos. Modelos como GPT 4.0 y Copilot mostraron poca variación, pero en Perplexity, un día podría significar la diferencia entre una respuesta perfecta y una peligrosa. »

El estudio también revela que los modelos generalmente obtienen mejores resultados en inglés, lo que puede explicarse por una base de formación más amplia en inglés. De Busser añade: “Por último, la redacción de la pregunta influye mucho en el resultado. Los modelos suelen adaptar sus respuestas a las preferencias percibidas por el usuario. Los LLM parecen priorizar la satisfacción del usuario sobre la precisión de las respuestas, lo que también puede conducir a situaciones peligrosas. »

-

PREV ¡Una autoprueba combinada para 3 virus invernales en las farmacias hoy!
NEXT Un nuevo aerosol nasal revierte el deterioro cognitivo y el daño cerebral en ratones