cuando la tecnología francesa intenta luchar contra la desinformación

cuando la tecnología francesa intenta luchar contra la desinformación
cuando la tecnología francesa intenta luchar contra la desinformación
-

Este martes 5 de noviembre, 244 millones de estadounidenses elegirán al próximo inquilino de la Casa Blanca entre la demócrata Kamala Harris y el republicano Donald Trump. Y para ganar estas elecciones, tan importantes para la geopolítica global, se permite casi todo. Así, ya no contamos las fake news, los deepfakes y otras maniobras de desinformación difundidas por partidarios de ambos bandos (especialmente uno en la realidad) o personas sin escrúpulos para intentar influir en el resultado final de las elecciones.

En este pantano de desinformación, los actores digitales están tratando de ofrecer soluciones, pero a menudo con resultados contrastantes, por no decir decepcionantes. En primera línea frente a las noticias falsas difundidas en sus plataformas, Meta creó en 2018 una “War Room”, es decir una unidad de crisis, repleta de numerosas pantallas, relojes y ordenadores, para combatir las campañas de desinformación durante las campañas electorales. Pero lamentablemente resultó insuficiente para detener el incesante y masivo flujo de “noticias falsas” que inunda la Web.

Buster.ai, un “antivirus contra noticias falsas”

En Francia, algunas empresas emergentes han intentado luchar contra esta lacra que pone en peligro la democracia. Entre ellos encontramos en particular Buster.ai. Fundada en 2019 por Julien Mardas y Aurélien Cluzeau, esta empresa se basó en la inteligencia artificial para analizar grandes cantidades de datos y determinar cuáles se desvían de las fuentes oficiales. En otras palabras, la solución de Buster.ai actuaba como un “antivirus contra noticias falsas”. Lamentablemente, esta aventura empresarial acabó a principios de año a pesar de recaudar 2 millones de euros en enero de 2022.

Sin embargo, este proyecto permitió a Julien Mardas, cofundador y ex director ejecutivo de Buster.ai, aprender lecciones sobre el uso de las tecnologías para luchar contra la desinformación, empezando por la inteligencia artificial, esencial en su opinión para darnos la oportunidad de contrarrestar la desinformación. noticias falsas”. “No hay más remedio que utilizar la IA. Sencillamente porque los humanos no podemos indexar los 3.400 millones de artículos que se publican cada día. Pero estamos en guerra abierta. Y en un estado de guerra, el tiempo y el espacio son las dos dimensiones más importantes junto con el mando, la disciplina y la doctrina. En este contexto, cuanto más tiempo nos tomamos para verificar la información, más colosal es el daño, más aumenta la inestabilidad, más gente ahorra dinero, más colapsa la economía.explica el empresario francés.

“Las noticias falsas son siete veces más virales que las noticias reales”

Las noticias falsas surgieron tras los atentados del 11 de septiembre de 2001, antes de adquirir dimensiones aún más preocupantes a la luz de escándalos como el de “Cambridge Analytica” con Facebook, “WikiLeaks” con Julian Assange o incluso “Snowden” con el Agencia Nacional de Seguridad. Tantos casos sonoros que reforzaron una observación: los datos, y por tanto la información, son efectivamente el oro blanco de la tecnología digital. Y el período actual, marcado por tensiones geopolíticas en varias regiones del mundo, no alienta realmente el optimismo, mientras la desinformación en línea sigue creciendo.

“Las noticias falsas son siete veces más virales que las noticias reales”señala Julien Mardas. “En determinados conflictos, como el entre Israel y Hamás, la información de las redes sociales se repite sin pensar y por tanto sin verificar. Y a veces, estas noticias falsas siguen siendo activistas durante varias semanas, incluso varios meses. No poder verificar la información rápidamente cambia las reglas del juego”.añade.

Ircam Amplify rastrea voces creadas por IA

En un registro más atípico, otro actor tecnológico también intenta poner de su parte en la lucha contra la desinformación. Y contra todas las expectativas, es Ircam Amplify, una filial de Ircam (Instituto de Investigación y Coordinación de la Música y la Acústica), que comercializa innovaciones en audio desde hace cinco años. De hecho, la empresa se basó en su trabajo de detección de música generada por inteligencia artificial para trasladarla a otro dominio: la voz.

Gracias a la experiencia de vanguardia de Ircam, su filial privada se propuso diseñar una solución para identificar una voz creada por IA. Y en un momento de explosión de los deepfakes, esta tecnología puede resultar particularmente útil durante una campaña electoral. “Al igual que un antivirus, nuestro software calcula un índice de confianza en las voces detectadas. Hoy, nuestra tasa de confiabilidad es del 98,5%.indica Nathalie Birocheau, cofundadora y directora general de Ircam Amplify. El margen de error está relacionado con los falsos positivos, pero esa puntuación es obviamente alentadora.

El uso de esta tecnología interesa no sólo a los medios de comunicación para detectar noticias falsas, sino también a los actores de seguridad interna (Ministerio de las Fuerzas Armadas, gendarmería, etc.) para identificar posibles estafas o intentos de manipulación virtual. Sin embargo, detectar voces creadas por IA no es fácil. “La voz es un medio muy particular, difícil de dominar. Clonar voces, transformarlas y detectarlas es bastante complejo. Es incluso más difícil que la música”subraya Nathalie Birocheau. Antes de agregar: “La suerte que tenemos es que somos una empresa comercial con acceso exclusivo a la I+D del IRCAM para integrarla en nuestros productos. El desafío es ser rápidos para lanzar rápidamente el mejor producto al mercado. Y con nuestra lógica de laboratorio a mercado, podemos lanzar algo en tres o cuatro meses. Cuando identificamos un caso de uso, sabemos cómo presionar el botón y obtener los resultados relevantes del IRCAM para lanzar un producto al mercado”.

Actuar rápidamente es crucial para limitar la difusión de noticias falsas, especialmente porque la democratización de las herramientas de inteligencia artificial proporciona nuevas armas que son muy fáciles de usar para los ciberdelincuentes. “No pensamos que las cosas irían tan rápido con los deepfakes”reconoce Nathalie Birocheau. “Da un poco de miedo, pero hay que dar un paso atrás. La historia se escribirá en los próximos años, sólo estamos en el primer capítulo”añade. Para disponer de los medios necesarios para luchar contra esta nueva forma de desinformación, Ircam Amplify pretende completar una ronda de financiación en los próximos meses.

Grandes grupos también son cada vez más blanco de la desinformación

Lo que puede cambiarlo todo por una votación en el ámbito político también puede serlo en el ámbito económico. De hecho, los comunicados de prensa falsos pueden tener un impacto desastroso en el desempeño financiero de una empresa. Vinci puede dar fe de ello después de ver caer el precio de sus acciones en 2016 debido a información falsa. En apenas unos minutos, el grupo francés vio caer su valoración en 7.000 millones de euros. Tras haber sido informado en particular por Bloomberg, la agencia estadounidense recibió una cuantiosa multa de la Autoridad de los Mercados Financieros (AMF). Y este no es un caso aislado ya que jugadores como Intel, Pfizer, Fitbit y Blackrock ya han sufrido percances similares.

No es necesariamente necesario utilizar medios importantes para sacudir los mercados. Hace dos años, una cuenta falsa certificada se hizo pasar por la compañía farmacéutica estadounidense Eli Lilly y tuiteó que la insulina que llegaría a los Estados Unidos ahora sería gratuita. No sólo las acciones del grupo se desplomaron en 20 mil millones de dólares, sino que millones de personas creyeron que se trataba de información cierta, aunque el tema de la insulina también es delicado. “Incluso si fuera información falsa, la empresa parece un bandido.señala Raphaël Labbé, cofundador y director ejecutivo de Wiztrust (antes Wiztopic). Este último evoca el término «hacktivismo» describir estos métodos destinados a “hackear” la comunicación corporativa.

Con su empresa, el emprendedor intenta dar una solución a este creciente problema ofreciendo una plataforma para certificar la información empresarial en blockchain. Una forma de luchar contra las notas de prensa falsas destinadas a dañar la reputación y el rendimiento financiero de los grandes grupos. “El riesgo no hará más que aumentar. A partir de la década de 2010, solo había un truco que funcionaba cada año. A partir de 2015, esto aumentó a dos por año. ¡Desde 2020, es uno por mes! En diez años se ha multiplicado por 12 el número de historias falsas que han funcionado para manipular la información corporativa. Con un poco de meticulosidad se vuelve al alcance de cualquiera”observa Raphaël Labbé.

Si el fenómeno crece, cada vez más grupos intentan protegerse de este tipo de acciones que pueden causar daños muy importantes, aunque sólo sea en términos de imagen. “Cuando hay un incidente importante, otras empresas reaccionan. Vendemos durante las crisis, pero preferiría que la gente compre en modo prevención”subraya el jefe de Wiztrust. Y para ser aún más eficaz, este último no se opondría a la creación de un consorcio que reúna a varios actores que aborden diferentes verticales. “Construimos algo interoperable”indica Raphaël Labbé. Frente a cantidades colosales de noticias falsas, ¡la unión puede ser la fuerza!

“No hay negocio en la desinformación”

Sin embargo, posicionarse en el mercado de la desinformación no es necesariamente sinónimo de rentabilidad, mientras que la industria de los medios de comunicación lleva muchos años en crisis. En consecuencia, pocas startups se han posicionado en la lucha contra las noticias falsas. “Hay dos razones principales: el desafío técnico es extremadamente difícil de abordar y no hay negocio para la desinformación. La única manera de hacer negocios es convertir las herramientas en armas para convertirlas en herramientas de vigilancia masiva. Pero la tecnología debe utilizarse para liberar a las personas, no para esclavizarlas. En la vida, o eres un héroe o estás en un negocio. Pero no podemos hacer ambas cosas”.estima Julien Mardas.

Raphaël Labbé también reconoce que es difícil lanzarse a este sector tan crítico para la democracia. “Es un tema complicado… Hay un enorme problema de confianza a la hora de conseguir clientela. En B2B, existe una verdadera cuestión de masa crítica. Tenemos competidores que han intentado copiarnos. En cuanto al B2C, está el problema del modelo económico. Ciertamente hay una empresa a la que le va bien, NewsGuard, pero vende publicidad. El desafío para la prensa hoy es descubrir quién pagará para educar a la gente. Es una pelea súper dura. Probablemente necesite vincularse a una industria con un modelo económico viable. Acercarse a un actor como Dashlane podría tener sentido, por ejemplo”.cree.

A la espera de resolver esta ecuación económica, tendremos que competir en ingenio para poder absorber la vertiginosa avalancha de noticias falsas que inunda los cerebros de todo el mundo. En este contexto, la IA parece el mejor aliado de los pocos actores involucrados en mi tema para desenmascarar a tantos como sea posible. Pero nada o casi nada sustituirá el método más eficaz: que cada uno se esfuerce en informarse correctamente variando sus fuentes de información, verificando informaciones sensibles o disparatadas y no limitándose a titulares sensacionalistas. Un ejercicio no necesariamente sencillo pero sí esencial para preservar nuestra democracia.

-

PREV Akhannouch acoge con satisfacción la tendencia al alza de las exportaciones
NEXT La región de Barcelona en alerta roja