Los médicos ya son adictos a ChatGPT, pero ¿es seguro?

Los médicos ya son adictos a ChatGPT, pero ¿es seguro?
Los médicos ya son adictos a ChatGPT, pero ¿es seguro?
-

La inteligencia artificial generativa marca una profunda ruptura con los sistemas tradicionales. Las herramientas de inteligencia artificial anteriores, como las que analizan mamografías para la detección del cáncer de mama, fueron diseñadas para sobresalir en una tarea específica. La nueva generación, formada con cantidades colosales de datos, está dotada de capacidades genéricas que pueden generar textos, imágenes o sonidos según las necesidades.

Es precisamente esta versatilidad la que atrae a los médicos: redactan informes posconsulta, ayudan en la toma de decisiones clínicas y elaboran documentos más comprensibles para los pacientes, como resúmenes de altas hospitalarias o explicaciones terapéuticas relativas. Frente a los problemas que enfrentan los sistemas de salud europeos, podemos comprender el entusiasmo de los profesionales y los tomadores de decisiones que ven la IA como una clave para modernizar los servicios médicos.

Sin embargo, esta flexibilidad, que parece casi ilimitada, plantea una cuestión fundamental de seguridad sanitaria. ¿Cómo podemos garantizar que una herramienta no diseñada para este fin pueda utilizarse sin riesgos en el ámbito médico? Los expertos destacan que, a diferencia de las aplicaciones tradicionales, cuya fiabilidad para una tarea determinada se puede evaluar con precisión, estos sistemas escapan a los métodos tradicionales de evaluación de la seguridad. Sus capacidades, que parecen limitadas únicamente por la imaginación del usuario, hacen que su gestión sea especialmente compleja.

Health

-

PREV Detección de cáncer de próstata: “Los hombres tardan en acudir a consulta”
NEXT 800 inscritos para afrontar un desafío colectivo