lLas herramientas digitales, aunque fascinantes por su potencial creativo, se están convirtiendo en armas formidables en la guerra de la información. En el conflicto palestino-israelí y las recientes tensiones entre Israel y Hezbollah, los deepfakes han adquirido una escala preocupante. Un caso notable se produjo en septiembre, cuando varias imágenes que supuestamente mostraban ataques con misiles de Hezbollah contra bases israelíes resultaron ser creaciones generadas por IA.
Por ejemplo, se compartió ampliamente una imagen de un avión en llamas en la base militar de Ramat David, afirmando que la base había sido atacada por Hezbolá. A través del análisis de los expertos de DW Fact Check, se confirmó que esta imagen mostraba anomalías típicas de los deepfakes, con distorsiones visuales flagrantes y detalles inconsistentes, como texto borroso en los vehículos y formas irregulares.
Una amenaza invisible a la verdad
En las redes sociales, los deepfakes (vídeos e imágenes generados por IA) se utilizan cada vez más para sembrar confusión y manipular la opinión pública. En 2023, los expertos estiman que alrededor de 500.000 vídeos y voces deepfake inundarán las plataformas sociales, frente a sólo 14.678 en 2021. La rápida proliferación de estos contenidos, algunos de los cuales se producen con fines propagandísticos, dificulta aún más la verificación de la información. alguna vez. El fenómeno de los deepfakes y la información falsa en los conflictos no se limita a la difusión de contenidos aislados. Es parte de una estrategia más amplia de guerra de información. En 2021, se grabaron en línea más de 85.000 vídeos falsos, una cifra que se ha disparado desde entonces. Esto crea un ambiente donde las imágenes y videos manipulados se vuelven comunes, ahogando hechos verificables en un mar de contenido engañoso. Esta creciente ola de desinformación dificulta que los usuarios de las redes sociales e incluso los periodistas distingan la realidad de la ficción.
Los videos e imágenes generados por IA se difunden rápidamente, a menudo sin verificación, y llegan a millones de personas en cuestión de horas, lo que influye profundamente en las percepciones de conflicto. Las imágenes falsas de bombardeos o víctimas civiles pueden provocar rápidamente indignación, incluso cuando son falsas. Recordamos también el rumor, hace un año, sobre cuarenta bebés supuestamente decapitados en un kibutz israelí, una historia que corrió como la pólvora, aunque posteriormente fue desmentida. Esto tiene un efecto directo en la cobertura de los medios, ya que los periodistas y los medios de comunicación ahora deben hacer mayores esfuerzos para verificar la autenticidad del contenido antes de transmitirlo.
Las redes sociales, un terreno fértil para la manipulación
Las redes sociales también son caldo de cultivo para la polarización. El contenido manipulado está alimentando el debate, y a las plataformas les gustan estos contenidos. El uso de IA generativa para generar imágenes y videos engañosos en el centro de los conflictos recientes en el Medio Oriente demuestra la urgencia de desarrollar herramientas para combatir la desinformación y proteger la integridad de la información difundida en línea. Sin una regulación clara y esfuerzos concertados para combatir estas manipulaciones digitales, las noticias falsas serán aún más difíciles de contrarrestar, comprometiendo la veracidad de las historias de guerra y afectando a la opinión pública a nivel mundial.
Big Tech bajo presión
Las grandes empresas tecnológicas, como Google, Meta y Amazon Web Services, desempeñan un papel fundamental a la hora de proporcionar infraestructura tecnológica para estos sistemas de desinformación. Por ejemplo, los servicios de computación en la nube y de inteligencia artificial que brindan al gobierno israelí, como muestra la investigación sobre “Inteligencia Genocida Artificial”, plantean importantes cuestiones éticas. Estas empresas están bajo presión para adoptar prácticas más responsables y éticas en la gestión de sus contratos, particularmente cuando sus tecnologías se utilizan con fines militares. El Proyecto Nimbus, una colaboración entre Google, Amazon y el gobierno israelí, es un ejemplo de asociación que ha atraído la atención de los defensores de los derechos humanos. Este proyecto proporciona herramientas de inteligencia artificial que podrían usarse para vigilancia masiva o para alimentar sistemas de armas automatizados, mejorando así la capacidad de un estado para llevar a cabo operaciones militares o campañas de desinformación.
!función (f, b, e, v, n, t, s) { if (f.fbq) retorno; n = f.fbq = función () { n.callMethod? n.callMethod.apply(n, argumentos): n.queue.push(argumentos) }; si (! f._fbq) f._fbq = n; n.push = n; n.cargado = !0; n.versión = ‘2.0’; n.cola = []; t = b.createElement(e); t.async = !0; t.src = v; s = b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t, s) }(ventana, documento, ‘script’, ‘https://connect.facebook.net/en_US/fbevents.js’); fbq(‘init’, ‘374460373237501’); fbq(‘pista’, ‘PageView’); (función (d, s, id) { var js, fjs = d.getElementsByTagName(s)[0]; si (d.getElementById(id)) regresa; js = d.createElement(s); js.id = identificación; js.src = “//connect.facebook.net/fr_FR/sdk.js#xfbml=1&version=v2.6&appId=265432710468442”; fjs.parentNode.insertBefore(js, fjs); }(documento, ‘script’, ‘facebook-jssdk’));
Related News :