La IA coincide con los médicos en la identificación de casos urgentes en el servicio de urgencias

La IA coincide con los médicos en la identificación de casos urgentes en el servicio de urgencias
La IA coincide con los médicos en la identificación de casos urgentes en el servicio de urgencias
-

Un estudio dirigido por la UCSF encuentra que la inteligencia artificial es tan buena como un médico para priorizar qué pacientes deben ser atendidos primero.

Los departamentos de emergencia nacionales están saturados y sobrecargados, pero un nuevo estudio sugiere que algún día la inteligencia artificial (IA) podría ayudar a priorizar qué pacientes necesitan tratamiento con mayor urgencia.

Utilizando registros anónimos de 251.000 visitas al departamento de emergencias (SU) de adultos, investigadores de UC San Francisco evaluaron qué tan bien un modelo de inteligencia artificial era capaz de extraer síntomas de las notas clínicas de los pacientes para determinar su necesidad de ser tratados de inmediato. Luego compararon el análisis de IA con las puntuaciones de los pacientes en el Índice de gravedad de emergencia, una escala del 1 al 5 que utilizan las enfermeras del servicio de urgencias cuando llegan los pacientes para asignar atención y recursos según la mayor necesidad, un proceso conocido como triaje.

Los datos de los pacientes se separaron de sus identidades reales (anonimizadas) para el estudio, que se publica el 7 de mayo de 2024 en Red JAMA abierta. Los investigadores evaluaron los datos utilizando el modelo de lenguaje grande (LLM) ChatGPT-4, accediendo a ellos a través de la plataforma segura de inteligencia artificial generativa de UCSF, que tiene amplias protecciones de privacidad.

Los investigadores probaron el rendimiento del LLM con una muestra de 10.000 pares emparejados (20.000 pacientes en total) que incluían un paciente con una afección grave, como un accidente cerebrovascular, y otro con una afección menos urgente, como una muñeca rota. Teniendo en cuenta solo los síntomas de los pacientes, la IA pudo identificar qué paciente de urgencias del par tenía una afección más grave el 89% de las veces.

En una submuestra de 500 pares que fueron evaluados tanto por un médico como por el LLM, la IA acertó el 88% de las veces, en comparación con el 86% del médico.

Contar con la ayuda de la IA en el proceso de clasificación podría liberar tiempo crítico para los médicos para tratar a los pacientes con las afecciones más graves, al tiempo que ofrece herramientas de respaldo para la toma de decisiones para los médicos que hacen malabarismos con múltiples solicitudes urgentes.

Imagínese dos pacientes que necesitan ser transportados al hospital pero solo hay una ambulancia. O hay un médico de guardia y tres personas la llaman al mismo tiempo y ella tiene que determinar a quién responder primero”.

Christopher Williams, MB, BChir, autor principal, becario postdoctoral de UCSF en el Instituto de Ciencias de la Salud Computacional Bakar

No estoy del todo listo para el horario de máxima audiencia

El estudio es uno de los pocos que evalúa un LLM utilizando datos clínicos del mundo real, en lugar de escenarios simulados, y es el primero en utilizar más de 1000 casos clínicos para este propósito. También es el primer estudio que utiliza datos de visitas al departamento de emergencias, donde existe una amplia gama de posibles afecciones médicas.

A pesar de su éxito en este estudio, Williams respaldó que la IA no está lista para usarse de manera responsable en el servicio de urgencias sin más validación y ensayos clínicos.

“Es fantástico demostrar que la IA puede hacer cosas interesantes, pero lo más importante es considerar quién está siendo ayudado y quién está siendo obstaculizado por esta tecnología”, dijo Williams. “¿Es simplemente poder hacer algo que supera el estándar para el uso de la IA, o es poder hacer algo bien para todo tipo de pacientes?”

Una cuestión importante que hay que desenredar es cómo eliminar el sesgo del modelo. Investigaciones anteriores han demostrado que estos modelos pueden perpetuar los prejuicios raciales y de género en la atención médica, debido a los sesgos en los datos utilizados para entrenarlos. Williams dijo que antes de que se puedan utilizar estos modelos, será necesario modificarlos para eliminar ese sesgo.

“Primero necesitamos saber si funciona y entiende cómo funciona, y luego ser cuidadoso y deliberado en cómo se aplica”, dijo Williams. “El próximo trabajo abordará la mejor manera de implementar esta tecnología en un entorno clínico”.

Fuente:

Universidad de California – San Francisco

-

PREV ¿Qué es este bonito mercado que domina las ciudades de Loira Atlántico y Vendée?
NEXT Los hogares enfrentan las demandas de Eid al-Adha