DayFR Spanish

Tramitación de solicitudes de asilo | El creciente uso de la IA genera dudas

-

Un número cada vez mayor de países está utilizando sofisticados sistemas de procesamiento de información, incluida la inteligencia artificial (IA), para optimizar y acelerar el análisis de las solicitudes de inmigración y asilo.


Publicado a las 6:00 a.m.

“Los gobiernos impulsan estas tecnologías sin garantizar siempre que sean compatibles con los derechos fundamentales” de las personas afectadas, advierte Petra Molnar, abogada especializada en inmigración adscrita a la Universidad de York en Toronto.

La situación es aún más problemática, afirma, porque estas iniciativas generalmente se lanzan sin consulta pública.

“A menudo, una vez establecidos, gracias a un procedimiento iniciado por un abogado o a un documento obtenido por un periodista, nos enteramos de su existencia”, señala M.a mí Molnar, quien documentó varios casos problemáticos en un libro reciente sobre el tema.

Analizar acentos

En particular, dice, Alemania utiliza software de análisis de voz para estudiar el acento de los solicitantes de asilo.

El resultado sirve para detectar contradicciones en sus testimonios, aunque puede haber una considerable variabilidad en el acento de un individuo a otro, subraya el investigador.

En 2019, Grecia, Hungría y Letonia experimentaron con software basado en inteligencia artificial para intentar analizar las expresiones faciales de las personas que interactúan con los agentes fronterizos para determinar si decían la verdad.

El experimento, financiado en parte por la Unión Europea, generó controversia y terminó después de que se informaran errores importantes. Los diseñadores del software coincidieron públicamente en que corría el riesgo de “socavar los derechos fundamentales”.

Los Países Bajos, por su parte, se han comprometido a analizar las historias de los solicitantes de asilo con IA para encontrar puntos en común con solicitudes anteriores para acelerar su procesamiento.

Un estudio reciente señala que este proceso comparativo es arriesgado ya que puede llevar a los agentes responsables a concluir que una historia demasiado similar está copiada, o que una historia demasiado diferente no es realista.

El gobierno británico, por su parte, ha sido acusado de utilizar un algoritmo que identifica “automáticamente” a los inmigrantes a los que debería imponer medidas represivas.

Acortar las disputas

La organización Privacy International, que ha presentado varias solicitudes de acceso a información sobre este tema, sostiene que el sistema fue diseñado para que el personal no pueda cuestionar las recomendaciones formuladas.

Madeleine Sumption, que dirige el Observatorio de Migraciones de la Universidad de Oxford, señala que el gobierno británico proporciona poca información sobre sus iniciativas en este ámbito, lo que dificulta evaluar su impacto.

El uso de tecnología como la IA en el procesamiento de solicitudes de inmigración no es a priori inaceptable, sostiene.

“Lo que importa es la forma en que se utiliza y las pautas establecidas para controlarlo”, señala el investigador, que considera importante mantener al ser humano en el centro del proceso de toma de decisiones sobre temas delicados.

Hagamos una analogía con el mundo médico. Cuando le pregunten si su médico debería sustituirse por una máquina, dirá que no. Pero cuando te pregunten si estás a favor de que tu médico tenga acceso a una herramienta que le permita tomar una mejor decisión, dirás que sí.

Madeleine Sumption, directora del Observatorio de Migraciones de la Universidad de Oxford

El uso de la inteligencia artificial sigue siendo potencialmente problemático, según Ma mí Sumption, ya que puede resultar difícil entender en qué elementos se basa una determinada recomendación, complicando cualquier proceso de apelación.

Sesgo reproducido por la máquina.

Los datos utilizados para “entrenar la IA” también pueden contener sesgos que luego probablemente sean reproducidos por el sistema, señala.

METROa mí Molnar cree que debería imponerse una moratoria a este tipo de uso hasta que se establezca un sistema para prevenir abusos contra los derechos humanos.

En un informe elaborado con colegas de la Universidad de Toronto en 2018, el investigador expresó su alarma porque el gobierno canadiense había emprendido “experimentos” para automatizar parte del proceso de toma de decisiones que normalmente llevan a cabo los agentes de inmigración.

La Junta de Inmigración y Refugiados (IRB) precisó que había adoptado varios “enfoques innovadores” utilizando “sistemas analíticos sofisticados” para gestionar el “alto volumen” de solicitudes que deben procesarse y mejorar estos servicios.

La organización reveló, en un documento actualizado en 2023, que los utilizaba en particular para clasificar las solicitudes de visado o para extraer datos que pudieran facilitar el proceso de toma de decisiones.

El IRB dijo que “no ha establecido límites absolutos sobre las circunstancias en las que se puede utilizar la automatización y la IA”, pero está “adoptando un enfoque cauteloso” al garantizar, entre otras cosas, que su personal mantenga el control sobre el proceso de toma de decisiones.

Related News :