¿Cómo proteger la democracia en la era de los vídeos deepfake?

¿Cómo proteger la democracia en la era de los vídeos deepfake?
¿Cómo proteger la democracia en la era de los vídeos deepfake?
-

A medida que nos acercamos a las elecciones estadounidenses de 2024, una nueva y peligrosa ola de desinformación generada por inteligencia artificial (IA) está arrasando el panorama digital, aumentando los riesgos más que nunca.

En una época en la que la información moldea la opinión pública, surge una pregunta crucial: ¿podemos confiar en la información que moldea nuestra realidad? La desinformación, que abarca desde titulares de noticias falsas (como una publicación aleatoria en Facebook en la que alguien acusa a un inmigrante haitiano de robar y comerse el gato del amigo de la hija de su vecino) hasta videos deepfake (falsificaciones profundas) —como la de Elon Musk en las estafas con criptomonedas— tiene el potencial de sembrar confusión, aumentar la polarización y socavar los cimientos mismos de la democracia.

¿Qué es lo verdaderamente insidioso de las noticias falsas y falsificaciones profundasSe trata de la explotación de una vulnerabilidad clave en la psicología humana: las emociones de las personas. Los estudios muestran que cuando una persona está cargada emocionalmente, positiva o negativamente, es más propensa a compartir contenido sin evaluarlo críticamente.

Según un análisis de 2019, el 8,5% de los usuarios de Facebook compartieron al menos una noticia falsa durante la campaña electoral estadounidense de 2016. falsificaciones profundasQuienes manipulan la apariencia de personas reales con una precisión asombrosa, llevan esto al siguiente nivel al difuminar la línea entre la verdad y la ficción.

Imaginemos un vídeo viral de una figura pública pronunciando un discurso divisivo que luego resulta ser falso. Cuando se revela la verdad, el daño ya está hecho: la reacción emocional ya ha profundizado las divisiones, ha engañado al público y ha generado un apoyo espurio a una causa.

Según un artículo publicado recientemente por ForbesEn 2023, circularon en las redes sociales más de medio millón de vídeos deepfake, una cifra que refleja el hecho de que las plataformas tienen dificultades para detectar el contenido falso con la suficiente rapidez como para evitar que se propague de forma viral. El rápido ritmo de consumo de las redes sociales agrava este problema: la naturaleza interactiva de las plataformas acelera la velocidad a la que se propagan estos contenidos. falsificaciones profundas Los usuarios ven y comparten las noticias casi en tiempo real. A medida que las falsificaciones profundas se vuelven más sofisticadas, inevitablemente serán más difíciles de detectar y controlar, y las mentiras seguirán difundiéndose más rápido de lo que se pueden corregir.

¿Qué podemos hacer entonces para protegernos de su creciente amenaza?

Una solución prometedora son los algoritmos de inteligencia emocional, sistemas de IA diseñados para detectar y desclasificar el contenido manipulador. Estos sistemas aprenderían a marcar el contenido que tiene como objetivo engañar o manipular emocionalmente a los usuarios antes de que se vuelva viral. Si bien plataformas como Facebook y X están avanzando en esta dirección, este tipo de tecnología aún está rezagada respecto de la rápida evolución de las redes sociales. falsificaciones profundasLo que necesitamos son sistemas de IA que puedan operar en tiempo real, aprendiendo patrones de interacción del usuario y detectando falsificaciones profundas tan pronto como aparecen.

Otro enfoque es la tecnología blockchain (cadena de bloques)que podría ofrecer una forma de verificar la autenticidad de los vídeos y las imágenes mediante la creación de un registro inmutable de sus orígenes. Las plataformas podrían utilizar esta tecnología para garantizar que los usuarios puedan rastrear el contenido hasta su origen. Aunque todavía está en desarrollo, la verificación por Cadena de bloques Podría desempeñar un papel en la distinción entre lo real y lo falsificaciones profundas generado por IA.

Por último, se deben implementar regulaciones y políticas más estrictas, en particular en lo que respecta a la creación y difusión de deepfakes. La ley de 2019 de California que prohíbe los deepfakes falsificaciones profundas El uso de técnicas de inteligencia artificial diseñadas para engañar a los ciudadanos durante las campañas electorales es un buen comienzo, pero necesitamos una legislación global integral para abordar realmente el problema. Una solución podría incluir la exigencia de que el contenido generado por inteligencia artificial tenga una marca de agua o una firma digital para distinguir entre el contenido real y el falso.

Las falsificaciones profundas plantean una amenaza real a los procesos democráticos. Los algoritmos de inteligencia emocional y la tecnología blockchain ofrecen esperanza, pero la solución en última instancia radica en una combinación de tecnología, educación y regulación.

La advertencia de la ganadora del Premio Nobel de la Paz, Maria Ressa, sobre la erosión de la confianza en los medios de comunicación y las instituciones parece especialmente aguda hoy en día. Como bien lo expresó: “Sin hechos, no se puede tener verdad. Sin verdad, no se puede tener confianza. Sin confianza, no tenemos una realidad compartida, no tenemos democracia, y se vuelve imposible abordar los problemas existenciales de nuestro mundo”.

Para ver en video

-

PREV Las acciones y el dólar suben mientras la Fed traza rumbo a un “aterrizaje suave”
NEXT En Belle-Île-en-Mer se construirá un hotel de lujo en la ciudadela de Vauban