La personalización de las redes sociales ha ampliado el alcance y el poder de la desinformación.
Popularizado por el auge de TikTok y su página “Para ti”, un flujo interminable de contenido anclado a los intereses de los usuarios, determinado por la información recopilada del historial de navegación, las interacciones y la localización, plataformas como Instagram, YouTube y X han adoptado el modelo y han creado sus propias versiones. Instagram comenzó a mostrar publicaciones recomendadas en su feed principal en 2018 y en 2020 implementó Reels, una función de videos cortos similar a TikTok. YouTube lanzó Shorts, un concepto similar, el mismo año y X agregó su propia pestaña “Para ti” a principios de 2024.
Estos desarrollos han transformado la forma en que los usuarios consumen contenido en las redes sociales, dice Sejin Paik, gerente de producto de TrueMedia.org. “No importa a quién sigas, obtendrás contenido basado en lo que piensa su sistema”, afirma.
En este entorno digital, la información falsa convive con el contenido factual, dando lugar a deepfakes, imágenes o vídeos hiperrealistas manipulados artificialmente para mostrar a alguien haciendo o diciendo algo. A medida que se acercan las elecciones estadounidenses de 2024, junto a información legítima aparecieron vídeos deepfake que mostraban discursos que nunca se pronunciaron, fotos de los guardaespaldas del Servicio Secreto de Donald Trump sonriendo después del ataque que sufrió en julio y capturas de la pantalla de artículos de noticias que difundían información falsa sobre las elecciones. , desdibujando las líneas entre lo que es real y lo que no lo es.
A medida que las tecnologías generadoras de IA se desarrollan, se vuelven más fáciles de usar y más accesibles, se vuelve cada vez más difícil evaluar la autenticidad de las publicaciones en las redes sociales. Una herramienta de detección de IA creada por TrueMedia tiene como objetivo ayudar a identificar signos de fotos y vídeos manipulados publicados en las redes sociales.
Deepfakes y desinformación
El experto en inteligencia artificial Oren Etzioni fundó TrueMedia en enero de 2024, motivado por su preocupación por el impacto de la IA en este año electoral. TrueMedia es una organización sin fines de lucro formada por investigadores, ingenieros y científicos sociales. Su objetivo es crear tecnología que aborde problemas sociales, que Ma mí Paik lo llama “sociotecnología”.
A medida que las tecnologías se vuelven disponibles públicamente, el contenido generado artificialmente ha proliferado como herramienta de manipulación política, y los periodistas temen que su impacto solo crezca a medida que mejore.
La plantilla de página “Para usted” le da a esta información errónea más sofisticada un alcance más amplio, dice Paik. Las publicaciones ganan popularidad aprovechando algoritmos que deciden qué es popular, independientemente de las cuentas detrás de ellas. La información presentada en los feeds de los usuarios generalmente coincide con sus intereses y creencias, y el contenido mostrado, ya sea real o no, se personaliza para generar Me gusta y compartir que amplían las redes a las que llegan.
Los deepfakes tienen un enorme potencial en este entorno. Pueden representar cualquier cosa, desde el Papa Francisco con ropa de diseñador hasta boletines completos de noticias falsas, y su uso está creciendo exponencialmente: en 2023 se compartieron más de 500.000 deepfakes. Independientemente de la prevalencia del contenido ya presente, los periodistas dicen que la revolución de la IA está apenas comienza.
Detectando deepfakes
Los periodistas pueden utilizar el detector de falsificaciones insignia de TrueMedia para identificar si un vídeo o una imagen se creó con IA.
La herramienta es simple: los usuarios envían un enlace de red social al detector, que ejecuta el contenido a través de una serie de software de detección basado en inteligencia artificial creado por empresas de tecnología asociadas para determinar el porcentaje de probabilidad de que el contenido se genere artificialmente.
La herramienta no puede detectar todo el contenido falso, advierte Ma mí Paik. Por ejemplo, tiene dificultades para detectar “falsificaciones baratas”, es decir, fotografías o vídeos engañosos creados por humanos utilizando software de edición no basado en inteligencia artificial. Los propagadores de desinformación también han comenzado a crear soluciones alternativas, como superponer deepfakes en medios reales, para eludir el proceso de detección.
En última instancia, a medida que aumenta el poder de la IA, también lo hacen las herramientas que la detectan. “Estamos muy lejos de poder alcanzarlos el 100% de las veces, pero esta es una de las formas más inteligentes de acercarnos”, afirma M.a mí Paik. “Si la gente está creando deepfakes generados por IA, usaremos IA para contrarrestar eso”.
Vinculando la detección al periodismo
Mientras la avalancha de contenido falso continúa inevitablemente en las redes sociales, los periodistas no deben confiar únicamente en la detección para combatir los deepfakes, insta Ma mí Paik: Deben explorar las fuentes, el razonamiento y el impacto de la información errónea.
Por ejemplo, en las noticias de los usuarios de las redes sociales han proliferado publicaciones falsas generadas por IA sobre huracanes recientes en los Estados Unidos, que muestran comunidades inundadas y destruidas. Aunque algunos de quienes volvieron a publicar estas imágenes y videos sabían que eran falsos, incluidos los políticos, provocaron reacciones emocionales y fueron utilizados para impulsar afirmaciones inexactas sobre la respuesta del gobierno al desastre.
Más importante aún, los periodistas deben pensar por qué estas publicaciones inexactas se vuelven populares, dice M.a mí Paik, y trabajamos para contrarrestar estas narrativas más allá de simplemente verificar la exactitud de un video.
“Decir: ‘¡Oh, detectamos algo!’ no es suficiente”, afirma. “Los periodistas tienen el poder de informar y educar al público. Necesitamos que.”
Amritha R Warrier y AI4Media / Mejores imágenes de IA / Tic Tac Toe / CC-BY con licencia
Related News :