En este año en el que casi la mitad de la población mundial fue llamada a las urnas para las elecciones nacionales, los observadores de la desinformación esperaban especialmente una votación: las elecciones presidenciales estadounidenses.
Por supuesto, el hecho de que Estados Unidos sea nuestro vecino y la principal potencia occidental tiene mucho que ver. Pero el hecho es que esta primera elección estadounidense en la era de la inteligencia artificial (IA) generativa debería ofrecernos un anticipo de cómo esta tecnología podría afectar la democracia. Al menos eso es lo que escuchamos de Silicon Valley.
Una vez pasadas las elecciones presidenciales, ahora podemos decir con un grado bastante alto de certeza que la IA generativa ni siquiera ha estado cerca de inclinar la balanza.
Seguimos viendo a un candidato presidencial utilizando imágenes artificiales como herramienta de comunicación y un vídeo propagandístico, probablemente ruso, erróneamente calificado de hiperfaking (profundo).
También hemos visto circular numerosos montajes (Nueva ventana)foto, audio o vídeo asistido por herramientas de inteligencia artificial, a menudo con fines de caricatura o parodia.
Abrir en modo de pantalla completa
Esta foto publicada por Donald Trump en X fue generada por AI.
Foto: X @realdonaldtrump
Sin embargo, esto no significa que todo sea color de rosa.
Un nuevo informe de investigación del Instituto para el Diálogo Estratégico (ISD) analizó mensajes en los que los autores cuestionaban si un contenido electoral particular publicado en la web era producto de la IA. En el 52% de los casos los internautas se equivocaron.
Este informe se basa en una muestra aleatoria de 300 publicaciones en X, Reddit y YouTube. Éste está lejos de ser un retrato exhaustivo, pero da una idea aproximada de la situación.
Según Isabelle Frances-Wright, coautora del informe, la inclinación de muchos internautas a ver IA donde no la hay demuestra, en particular, su capacidad de hacer realidad sus deseos.
A menudo, el contenido que la gente discutía no era generado por la IA, sino que era el “espectro” de la IA el que tenía un impacto. La IA brinda a las personas la oportunidad de negar la realidad como ya lo hacen, pero de una manera aún más intensa. Si ven contenido que contradice sus creencias políticas o ideología, pueden simplemente decir que es falso.
explica la mujer que también es directora de investigación sobre tecnología y sociedad en la filial americana del ISD.
Otro dato interesante de este informe: el 22% de las publicaciones estudiadas en el informe se referían a la precisión de la información ofrecida por robots conversacionales o asistentes de voz.
Poco después del primer intento de asesinato contra Donald Trump, el autor de un mensaje, por ejemplo, lamentaba que el modelo lingüístico de Meta actuara como si esto nunca hubiera sucedido. Los usuarios de Internet afirmaron entonces que Meta estaba intentando censurar información con su IA.
Lo que realmente sucedió fue que la IA de Meta no estaba conectada a Internet. Por lo tanto, no tuvo acceso a información actualizada sobre acontecimientos actuales, como este intento de asesinato.
Este texto fue publicado inicialmente en el boletín de Descifradores desde 26 noviembre pasado. Suscribir para recibir contenido exclusivo como este cada semana.
El público mal equipado
El informe también revela que los usuarios a menudo confían en estrategias inapropiadas para determinar si el contenido está generado por IA o no.
En los casos en que las personas se equivocaron, el 58 % utilizó estrategias de detección “obsoletas o incorrectas” o herramientas de detección de IA con debilidades conocidas.
Como explicó Decryptors en un artículo anterior, este software tiene inherentemente una cierta tasa de error. Además, los falsos positivos pueden alimentar información errónea tanto como una imagen verdaderamente generada por IA.
Esto es lo que ocurrió con una imagen de un mitin de Kamala Harris en Detroit que fue identificada erróneamente por varios internautas –y por el propio Donald Trump– como generada por IA.
Una captura de pantalla de un software de detección de IA que estimaba que había un 92 % de posibilidades de que fuera artificial ha sido vista más de 1,7 millones de veces y ha seguido circulando a pesar de numerosos artículos de verificación de datos sobre este tema.
Inicio del widget de Twitter. ¿Saltar el widget?Fin del widget de Twitter. ¿Volver al inicio del widget?
Según Isabelle Frances-Wright, los usuarios de Internet suelen seguir pistas falsas basándose en supuestas imprecisiones visuales relativas a las manos o los dedos de las personas en imágenes sospechosas de haber sido generadas por IA.
Los reflejos de la luz, el blanco de los ojos, los reflejos en los ojos y la forma en que se escriben las letras también son objetivos populares.
Para el investigador, saber reconocer los frutos de la IA en las redes sociales requiere ante todo educación, pero la lucha está lejos de estar ganada.
A medida que el contenido se vuelve cada vez más sofisticado, las personas estarán cada vez más confundidas y probablemente harán malas críticas, especialmente si se centran sólo en el contenido en sí. Desde el punto de vista de la alfabetización mediática, realmente animaría a la gente a dar un paso atrás y hacer preguntas sobre las fuentes.
dijo Isabelle Frances-Wright.
Espero que la educación mediática resuelva este problema, porque en realidad es la única solución posible.
Related News :