Solicitudes de asilo escritas por un robot

-

Los comisionados de inmigración están preocupados por la aparición de solicitudes de asilo en Canadá escritas por inteligencia artificial (IA). Los reclamantes utilizan un chatbot como ChatGPT para escribirles una historia de persecución o para detallar los peligros que existen en su país de origen. Una práctica considerada preocupante, porque al menos en un caso se sospecha que el software ha fabricado pruebas falsas para facilitar la obtención del estatuto de refugiado.


Publicado a las 00:53

Actualizado a las 5:00 a.m.

Esto es según una serie de correos electrónicos internos escritos por funcionarios federales el otoño pasado y obtenidos por Prensa bajo la Ley de Acceso a la Información.

“La inteligencia artificial se está convirtiendo en una preocupación cada vez mayor”, se lee en las notas de la reunión entre responsables de la Junta de Inmigración y Refugiados (IRB), un tribunal administrativo responsable de conocer las solicitudes de asilo en Canadá.

El memorando analiza el temor de que el software “escriba una historia” sobre un solicitante.

Para cada una de las decenas de miles de solicitudes de asilo presentadas en Canadá cada año, un miembro del IRB debe estudiar la evidencia y determinar si la persona que tiene ante él tiene una razón real para temer la persecución en su país de origen debido a su raza, religión , nacionalidad, opiniones políticas o pertenencia a un grupo social. Si este es el caso, y la historia contada por el solicitante se considera creíble, se le concede el estatus de refugiado y se le abren las puertas a Canadá.

El sistema permite a los verdaderos refugiados reconstruir sus vidas lejos de la guerra, la dictadura, las pandillas o los fanáticos religiosos que dejaron atrás. Pero también sucede que falsos refugiados intentan ser admitidos en el país con falsos pretextos. Algunos comisarios temen que las nuevas herramientas tecnológicas faciliten su tarea.

“Sorprendentes similitudes”

Como parte del proceso, cada persona que quiera obtener el estatus de refugiado debe primero completar un formulario en el que detalla su viaje y los motivos que lo llevan a buscar refugio en Canadá.

El otoño pasado, los gerentes del IRB informaron sobre algunos casos de historias individuales en estos formularios que parecían haber sido escritas por un chatbot en lugar del solicitante.

“La región Occidental nos reportó seis casos en los que detectaron el uso de ChatGPT. Nos gustaría comprender mejor la magnitud de este problema potencial y los casos detectados”, escribió M.mi Sarah Côté, comisaria coordinadora con sede en Montreal, en un correo electrónico enviado a sus colegas el pasado mes de noviembre, que posteriormente suscitó varias respuestas.

Los ejemplos discutidos en los intercambios obtenidos por Prensa Incluyó un caso en el que un comisionado detectó numerosos formularios que detallaban los antecedentes de diferentes solicitantes que tenían “similitudes sorprendentes” y un estilo particular.

Como si un software hubiera dado la misma respuesta a varias personas que le pidieron que escribiera una historia convincente basada en los peligros que pueden existir en un determinado país.

En otros casos, fue el estilo florido y grandilocuente de la escritura, muy diferente de los demás documentos completados por el demandante, lo que llevó a los comisarios a creer que el relato del viaje del demandante no había sido escrito por él y lo que les llevó a cuestionar su autenticidad.

Hipervínculos aproximados

En otro caso citado en las discusiones, un abogado que representó a un solicitante de asilo de Ruanda admitió ante un comisionado que había pedido a ChatGPT que redactara un documento general sobre los riesgos del reclutamiento forzoso de jóvenes vulnerables en las filas del ejército ruandés.

El documento presentado como prueba hacía referencia a varias fuentes oficiales que debían confirmar los temores del demandante en este sentido. El único problema fue que ninguno de los hipervínculos citados como prueba y que deberían conducir a fuentes oficiales funcionaba.

El comisionado a cargo del caso “cree que ChatGPT fabricó los enlaces”, leemos en uno de los correos electrónicos revelados por el IRB a Prensa.

De hecho, ChatGPT simula hipervínculos a fuentes creíbles (por ejemplo, Human Rights Watch), pero los artículos en realidad no existen. Estas son sólo combinaciones o aproximaciones de enlaces reales.

Un gerente del IRB

El IRB no quiso conceder una entrevista sobre este tema para este artículo.

“En cuanto a los riesgos asociados con el uso de la IA por parte de personas en el contexto de solicitudes de asilo, la Comisión está familiarizada con muchos de los riesgos potenciales”, aclaró simplemente la portavoz Anna Pape en un correo electrónico.

“Al tomar decisiones, los miembros del IRB siempre deben evaluar la credibilidad de las partes y las pruebas que presentan. Esta es una parte clave de su trabajo, que implica decidir cada caso según sus méritos y de conformidad con la ley. La forma en que los solicitantes de asilo preparan sus documentos no cambia esta responsabilidad fundamental”, asegura.

Difícil superar la audiencia

METROmi Stéphanie Valois, presidenta de la Asociación de Abogados de Inmigración de Quebec, cree que se debe hacer una distinción entre un solicitante que simplemente pide a una herramienta como ChatGPT que mejore la redacción o el formato del texto de su historia y una situación en la que los hechos mismos serían “mejorado” por el software.

“En ese caso, eso significaría que el cliente no ha escrito su propia historia”, afirma.

type="image/webp"> type="image/jpeg">>>

FOTO ROBERT SKINNER, ARCHIVOS DE LA PRESSE

METROmi Stéphanie Valois, presidenta de la Asociación de Abogados de Derecho de Inmigración de Quebec

METROmi Valois añade que el abogado del demandante tiene una responsabilidad si detecta algo mal. “Si un cliente miente, no siempre se puede saber. Pero si lo sabemos, no podemos enviar nuestro formulario”, afirma.

METROmi Stéphane Handfield, un abogado de inmigración que trabajó durante mucho tiempo como comisionado del IRB, quiere ser tranquilizador. Según él, sería muy difícil para un solicitante de asilo engañar a los responsables de la toma de decisiones basándose en una narrativa construida por inteligencia artificial.

“Debemos tranquilizar a la gente: siempre hay una audiencia para evaluar la credibilidad del solicitante. A la persona que llega con una historia inventada, haya sido creada por AI o no, le resultará muy difícil sostener un testimonio durante tres horas con las preguntas muchas veces puntiagudas que le harán sobre lo que alega. Tendrá que ser muy fuerte ante el tribunal para responder a todas estas preguntas, si la historia no es suya”, cree.

Con William Leclerc, Prensa

Más información

  • 156.032
    Número de expedientes pendientes ante la Junta de Inmigración y Refugiados al 31 de diciembre
    37.222
    Número de solicitudes de asilo aceptadas en 2023

-

PREV “¡Va a ser mágico!” Miriem, una joven de Castres de 17 años, portará la llama olímpica
NEXT Girondins4Siempre es insoportable este tipo… Si están ahí hoy, también creo que tiene una gran, gran parte de responsabilidad”.