Joe Biden, que deja voz a los votantes para animarles a no votar, Kamala Harris, que lo llama “senil” en un vídeo, luego aparece con el uniforme de dictador comunista en una foto publicada por el empresario Elon Musk… Bueno, por supuesto, ninguno de esto es cierto. Pero con la llegada de la inteligencia artificial (IA), los deepfakes (estas falsificaciones digitales de voces o rostros) nunca han sido tan fáciles de crear, lo que genera temores de verlos contaminar el debate público. Sin embargo, para los científicos es muy difícil cuantificar su impacto en los resultados electorales. Entonces, ¿deberíamos preocuparnos? Nos responden dos expertos.
Ciencia y vida: ¿Qué son los deepfakes?
Jean-Gabriel Ganascia: El nombre deepfake se forma a partir de aprendizaje profundo “aprendizaje profundo” en inglés – un subcampo de la IA que permite, entre otras cosas, la creación de contenidos ultrarrealistas – y falso “falso” en inglés. Estas técnicas pueden usarse para caricaturizar, como a través de la foto de Kamala Harris como dictadora; otras, como el falso llamado de Biden a no votar en las primarias estadounidenses, son puras operaciones de manipulación.
Nadia Guerouaou: Durante una votación, estos fraudes pretenden engañar a los votantes. Eluden nuestros filtros críticos explotando nuestras vulnerabilidades cognitivas, como el sesgo de confirmación, lo que significa que naturalmente damos más credibilidad a la información que es consistente con nuestras creencias. Abren el camino a una manipulación insidiosa de la opinión pública, aumentando el grado de popularidad de determinados discursos y candidatos o, por el contrario, denigrando al bando contrario.
“Al difuminar la línea entre lo real y lo falso, los deepfakes erosionan la confianza del público en la información política” NADIA GUEROUAOU
S&V: ¿Representan una nueva amenaza para las democracias?
J.-GG: La desinformación siempre ha existido, especialmente durante las elecciones. Lo que cambia con los deep fakes es su sorprendente realismo, que aumenta su efectividad. Además, muchas veces se difunden masivamente en las redes sociales, y el restablecimiento de la verdad no siempre llega a quienes han sido víctimas.
NG: Una consecuencia preocupante en el proceso electoral radica, en mi opinión, en lo que llamamos la “generación de incertidumbre”: al desdibujar los límites entre lo que puede considerarse real o falso, los deepfakes erosionan a largo plazo la confianza pública en la información política. en general. Esto debilita los cimientos mismos de nuestras sociedades democráticas.
S&V: ¿No está un poco sobreestimado el peligro?
¿Es posible cuantificar su impacto concreto en las elecciones?
J.-GG: Es extremadamente complicado determinar si tal o cual fraude que circulaba antes de una elección tuvo un impacto decisivo en sus resultados. La dificultad es metodológica: no podemos realizar un experimento replicable con una población de prueba.
NG: Todavía ha habido algunos intentos en los últimos años. En 2023, un estudio realizado en once países, incluida Francia, basado en informes de los medios locales y búsquedas en Google, concluyó que los deepfakes han contribuido a degradar el entorno informativo e influyeron en la percepción de los votantes de manera sutil pero significativa.
Pero este tipo de estudio no mide su impacto preciso en las elecciones.
“Lo más efectivo sería introducir medidas que obliguen a las redes sociales a cambiar su modelo económico” JEAN-GABRIEL MANDÍBULA
S&V: ¿Hay alguna forma de protegerse contra esto?
NG: Tenemos varias vías, pero aún está por demostrar su eficacia.
El proyecto de reglamento europeo sobre IA (AI Act) exigiría que las herramientas que generan deepfakes indiquen claramente, mediante etiquetado, que su contenido ha sido creado o modificado artificialmente.
¿Pero esto tendrá un efecto beneficioso sobre los procesos cognitivos? Para averiguarlo, sería necesario realizar estudios experimentales, comparando en particular los efectos de estas falsificaciones sobre la confianza o la incertidumbre que provocan en relación con la información política, ya sean etiquetadas como “deepfake” o No.
J. -GG: Además, un proceso de etiquetado de este tipo sólo se aplicaría a los fabricantes de países que respeten la legislación europea. Por lo tanto, podrían producirse ataques masivos por parte de Estados hostiles, destinados a desestabilizar a otros países, sin que la legislación pueda hacer nada al respecto. Lo más efectivo sería introducir medidas que obligaran a las redes sociales a cambiar su modelo económico.
Actualmente, ganan dinero con la publicidad: cuanto más provoca una reacción una publicación – y este es el caso de aquellas que incluyen deepfakes -, más dinero gana la publicidad que se transmite con ella y más las redes la promocionan… Si se modificara este modelo, las empresas ya no tendrían ningún interés en promover la falsificación. Pero sin una voluntad política muy fuerte no se puede hacer nada al respecto.
Related News :