Deepfakes: muchos riesgos y algunas oportunidades

Deepfakes: muchos riesgos y algunas oportunidades
Deepfakes: muchos riesgos y algunas oportunidades
-

Hiperfaking, desinformación, manipulación. Esto es lo que a menudo nos viene a la mente cuando hablamos de deepfake, esta técnica para sintetizar datos multimedia basada en IA. “Hoy en día, crear deepfakes se puede hacer con relativa facilidad. En ese momento, realmente se necesitaban conocimientos muy técnicos, en TI, en IA… Hoy hablo de ‘deepfake como servicio’ porque puedes crear una cuenta en una plataforma, ingresar tu tarjeta de crédito y listo », piensa Loris Bergeron, ingeniero de software senior del Banque de Luxemburgo. Se trata de una evolución observada por todos los especialistas: la democratización de esta técnica, con cada vez más plataformas online especializadas. Pero Loris Bergeron señala otro avance que muestra los posibles abusos de esta técnica de montaje cada vez más avanzada.

“Por ejemplo, cada vez vemos más deepfakes en las estafas, es decir estafas en Internet, y cada vez más casos de acoso electrónico con estos deepfakes. Básicamente, realmente teníamos campañas de deepfake públicas, publicadas en las redes sociales. Pero estamos viendo cada vez más campañas de intimidación que utilizan deepfakes dirigidos directamente contra las personas”, señala.

Utilizados a menudo con fines de desinformación y manipulación política, por ejemplo durante las elecciones y campañas electorales, o para generar discursos propagandísticos, los deepfakes se utilizan ahora para distribuir vídeos comprometedores de personas que, aunque falsos, perjudican su reputación. También pueden ser una herramienta de chantaje, pero también de fraude financiero o de robo de identidad. Tomemos, por ejemplo, un audio deepfake que podría imitar la voz del director ejecutivo de una empresa para dar instrucciones financieras fraudulentas a empleados o socios comerciales. Abusos que evolucionarán al mismo tiempo que la tecnología y que, por tanto, probablemente serán cada vez más numerosos.

Oportunidades…

Pero estos vídeos falsos también pueden utilizarse en el mundo profesional, que puede beneficiarse de ellos. Al participar en el panel, el director general de Ella Media, Michael Keusgen, también recordó que la técnica del deepfake podría ofrecer oportunidades. Su empresa, Ella Media, desarrolla agentes conversacionales. y soluciones de IA “con un toque humano”. Avatares que se convierten así en representantes de una marca, por chat, por voz o por vídeo. Su arquitectura, denominada “Persona”, permite una amplia personalización hasta el más mínimo detalle.

(De izquierda a derecha) El responsable de TI de la CFL, Maxime Dehaut, moderó un panel en el que participaron la investigadora Djamila Aouada, el ingeniero informático del Banco de Luxemburgo Loris Bergeron, el director general de Ella Media, Michael Keusgen, así como representantes europeos Juha Heikkilä, asesor de la Comisión. (Foto: Maëlle Hamma/Maison Moderne)

La responsable del grupo de investigación sobre Visión por Computador, Imagen e Inteligencia Artificial (CVI2) del grupo de investigación dedicado a las SnT, Djamila Aouada, también ve un lado prometedor, siempre que su uso esté bien pensado, y sea una excelente fuente de creatividad. “Por ejemplo, podemos citar Synthesia, que fue creada por investigadores y que permite crear avatares. Son falsificaciones, pero la herramienta se puede utilizar para evitar la necesidad de crear todo el contenido y ser más eficiente. Es una fuente de esfuerzo y ahorro de dinero. Se trata de herramientas cada vez más utilizadas por los YouTubers, que pueden así producir vídeos sin tener que preocuparse por todos los aspectos técnicos como el brillo, la filmación, el lenguaje utilizado, etc..”

Según Loris Bergeron, la técnica también podría adoptarse en menor medida en las empresas. “Imaginemos que tomamos una empresa que hace videos para sus clientes, clientes internacionales. La persona que va a hacer la presentación lo hará, por ejemplo, en su lengua materna –imagínate francés, inglés, lo que sea. Con un deepfake podemos multiplicar la misma entrevista sintetizando la voz de la persona en otro idioma, cambiando la ambientación u otros. Entonces estos son impactos positivos. Realmente podemos estar mucho más cerca de los clientes cambiando el idioma con el que interactuamos con ellos, por ejemplo”, afirma.

El desafío: saber detectar

Pero aún queda un gran desafío: saber detectarlos. Cosa que en muchos casos todo el mundo es capaz de hacer. Según Djamila Aouada, primero hay que buscar los defectos de los contenidos multimedia falsos, que suelen presentarse en forma de vídeo. “La sincronización puede inducir defectos en el aspecto espacial, en un momento T. Podemos observarlos, por ejemplo, en los contornos del rostro, al nivel de su delimitación. También suele haber fallos temporales, o labios y voz no sincronizados. Pero quienes crean deepfakes a veces juegan con la resolución de los datos, pixelándolos para que estos defectos sean menos notorios. Cuanto mejor es la calidad de un deepfake, más difícil resulta evidentemente detectar estos defectos”, explica Djamila Aouada, que distingue entre “cheapfakes”, esos deepfakes de mala calidad, y “deepfakes de alta calidad”, a menudo realizados con personajes famosos. “Esto está evolucionando muy rápidamente y a nosotros, como usuarios, nos resultará cada vez más difícil detectarlos”.

Por ello, el SnT está llevando a cabo una labor de investigación y desarrollando diferentes categorías de algoritmos para detectar estos hiperfalsos. “Aplicamos un enfoque general, esta es la base de nuestra investigación, con algoritmos independientes de los tipos de deepfake”. Básicamente, los investigadores de la Uni entrenan la máquina con imágenes reales, para que pueda detectar mejor las falsas.

En última instancia, para democratizar las herramientas de detección, “tendremos que tener el ecosistema necesario y todos tendrán que participar para que se desarrollen a gran escala. Pero en realidad es mucho más complejo que tener una sola herramienta. También debemos tener en cuenta elementos de reputación online y de autenticación de las personas en línea”, subraya Djamila Aouada.

Más allá del aspecto técnico, Loris Bergeron aconseja “mantener un espíritu crítico y humano, y comprobar siempre la veracidad de la información. No tomes al pie de la letra un video que viste en un feed de TikTok o lo que sea. El problema de las posibles herramientas de detección es que la creación de deepfakes evoluciona tan rápidamente que estas herramientas no siguen el mismo ritmo de desarrollo. Esto ya lo estamos viendo en el caso de la IA generativa, por ejemplo con ZeroGPT, que permite detectar si un texto fue generado por ChatGPT o no. Vemos que los resultados no son muy buenos porque ChatGPT evoluciona mucho más rápido que la herramienta de detección”, apunta. Contra los excesos de los deepfakes, la Comisión Europea, representada en este panel por Juha Heikkilä, pidió a las plataformas que se responsabilicen de su forma de gestionar los deepfakes.

-

PREV ¿Qué impacto en los precios?
NEXT BANCO UNIDO PARA ÁFRICA (UBA) está contratando para estos 02 puestos (30 de junio de 2024)