Se habla de inteligencia artificial casi a diario. Si los usos son múltiples -y a veces poco útiles- hoy tenemos ante nosotros un avance tecnológico que podría mejorar la vida de un gran número de personas. El uso de la IA en el mundo médico está en auge: un equipo de investigadores de la Florida Atlantic University acaba de desarrollar un modelo capaz de decodificar el lenguaje de signos americano (ASL) en tiempo real. Este avance podría transformar profundamente las vidas y las interacciones con la tecnología de las personas sordas y con problemas de audición.
Publicidad, tu contenido continúa abajo
Rompiendo las barreras de la comunicación con la IA
Utilizando tecnología de visión por computadora, los investigadores han desarrollado con éxito un modelo de inteligencia artificial que puede transcribir los gestos del alfabeto ASL en texto con una precisión del 98%. Para lograr este resultado, los investigadores entrenaron un modelo con 29.820 imágenes estáticas de gestos con las manos. Combinaron estas fotografías con tecnología de seguimiento de movimiento basada en 21 puntos de referencia, ubicados en lugares estratégicos para el lenguaje de señas.
En este punto, el modelo ya alcanza una precisión notable. El siguiente paso de los investigadores de la Universidad de Florida es ampliar el hardware de entrenamiento del modelo para hacerlo aún más confiable. El equipo también dice que está trabajando para optimizar el sistema para que pueda funcionar en máquinas menos potentes, como teléfonos inteligentes. ¿El objetivo final de esta investigación? Permitir el despliegue de una herramienta de traducción de lengua de signos en tiempo real para romper las barreras de comunicación entre personas con discapacidad auditiva, personas sordas y el resto de la población. Habría muchos usos posibles para un sistema de este tipo y ya podemos imaginar lo útil que podría ser para los sectores de educación o salud.
Publicidad, tu contenido continúa abajo