La estafa de los abuelos y la IA: una leyenda urbana que no pierde fuelle

La estafa de los abuelos y la IA: una leyenda urbana que no pierde fuelle
La estafa de los abuelos y la IA: una leyenda urbana que no pierde fuelle
-

Los testimonios de personas convencidas de haber sido blanco de estafadores que han clonado la voz de uno de sus seres queridos han llegado de todas partes desde que se democratizaron las herramientas que facilitan este tipo de manipulación mediante inteligencia artificial (IA).

Sin embargo, todavía no hay pruebas de que los estafadores estén utilizando esta tecnología, confirman la Sûreté du Québec (SQ) y el Service de Police de la Ville de Montréal (SPVM).

Los casos de clonación de voz con fines maliciosos suelen denunciarse en el contexto de fraude de abuelosque consisten en llamar a un anciano haciéndose pasar por un nieto o una nieta que necesita dinero urgentemente, tras un accidente de coche, por ejemplo.

En un artículo publicado a principios de año, el Descifradores Explicó que estas numerosas historias no estaban respaldadas por ningún hecho.

La búsqueda reciente (Nueva ventana) de un call center especializado en estafas a abuelos por parte de la SQ ha iniciado sin embargo un nuevo ciclo (Nueva ventana) bombo publicitario (Nueva ventana) sobre estos fraudes supuestamente impulsados ​​por inteligencia artificial. Incluso se pide a la IA que acuda al rescate en informes para clonar voces y mostrar con qué facilidad se puede hacer esto.

El problema es que no hay pruebas de que se utilice IA para estas estafas, que funcionan de maravilla en Canadá desde hace más de quince años. (Nueva ventana).

La gente piensa que es IA, pero en realidad no lo esexplicó la semana pasada el coordinador de comunicación del SQ, Benoît Richard. Esta es una situación en la que la urgencia y el miedo pasan a primer plano, y eso es lo más importante de esta estratagema.

El uso de la IA sería incluso contraproducente para los estafadores, afirma el teniente Richard. Esto se explica por su modus operandi, que consiste en contactar con el mayor número de personas posible para que, entre todos, unos pocos muerdan el anzuelo. Sin embargo, si los estafadores tuvieran que clonar cada vez la voz de un ser querido, la tarea sería particularmente difícil, porque primero tendrían que rastrear las redes sociales en busca de voces familiares para sus víctimas.

>>>>

Abrir en modo de pantalla completa

En la estafa de los abuelos, los estafadores se hacen pasar por parientes de un anciano y les hacen creer que necesitan dinero con urgencia.

Foto: Getty Images / TatyanaGl

La misma historia del Servicio de Policía de la Ciudad de Montreal (SPVM): : hasta el momento no se nos ha informado de ningún fraude de tipo abuelo que involucre voces creadas por inteligencia artificial”,”text”:”La situación no ha cambiado desde la respuesta que le brindamos en enero pasado: ningún fraude de tipo abuelo que involucre voces creadas por La inteligencia artificial no nos ha sido reportada hasta ahora”}}”>La situación no ha cambiado desde la respuesta que les dimos el pasado mes de enero: hasta ahora no se nos ha informado de ningún fraude tipo abuelo que involucre voces creadas por inteligencia artificial.declaró por escrito el responsable de comunicación de la policía, Anik de Repentigny.

Entonces, ¿por qué sigue circulando esta historia? Simplemente porque las víctimas están convencidas de que la voz al otro lado de la línea es la de su ser querido y que, por tanto, sólo la clonación de voces podría haberlas engañado.

Pero, como mencionamos en enero, las víctimas han estado diciendo lo mismo desde antes de la llegada de la IA generativa. Observación inquietante: la voz del primer estafador era la misma que la del verdadero nieto de la víctima, a quien había visto unos días antes.¿podríamos leer, por ejemplo, en un artículo de Diario de Montreal (Nueva ventana) sobre una estafa de abuelos publicada en 2014.

En Japón, donde las estafas a abuelos han sido una importante fuente de financiación para el crimen organizado durante casi dos décadas, el 62% de las víctimas encuestadas por la policía en 2018 (Nueva ventana) admitió haber pagado dinero a los estafadores porque la voz sonaba como la de su hijo o nieto.

Esto demuestra que las estafas –al igual que la desinformación– no necesitan un alto nivel de sofisticación tecnológica para generar víctimas. Solo necesitas saber cómo jugar hábilmente con los defectos humanos.

-

PREV Empleado de Disneyland muere después de un accidente con un carrito de golf en el lugar
NEXT Maïdine Douane, nuevo refuerzo ofensivo