Un vídeo generado por el modelo de IA VASA-1 de Microsoft que muestra a la Mona Lisa rapeando provoca fuertes reacciones entre los espectadores, que temen un mal uso.

-

Microsoft lanzó recientemente una demostración de su modelo de IA VASA-1 que muestra a la Mona Lisa del famoso pintor Leonardo da Vinci rapeando. El clip provocó fuertes reacciones en línea que van desde el humor hasta el horror. Microsoft dijo que la tecnología podría usarse con fines educativos o para “mejorar la accesibilidad para personas con dificultades de comunicación”, o para crear compañeros virtuales para humanos. Pero también es fácil ver cómo la herramienta podría ser secuestrada y utilizada para hacerse pasar por personas reales. Por ahora, la empresa mantiene la herramienta internamente debido a los riesgos que presenta.

Des chercheurs de Microsoft ont prsent la semaine dernire un nouveau modle d’IA permettant de crer automatiquement une vido raliste d’une personne en train de parler partir d’une image fixe d’un visage et d’un clip audio avec la voix de la persona. Los vídeos, que pueden estar hechos a partir de rostros fotorrealistas, dibujos animados u obras de arte, presentan una sincronización de labios convincente y movimientos faciales y de cabeza naturales. En un vídeo de demostración, el equipo mostró cómo animaron a la Mona Lisa para cantar un rap cómico de la actriz Anne Hathaway.

En otro clip de Microsoft, un avatar canta, y en otros, generados a partir de fotografías reales, la gente habla de temas comunes. Los videos rápidamente ganaron popularidad en línea, provocando reacciones encontradas. Algunos internautas apreciaron los clips. Otros se mostraron más desconfiados, incluso perturbados. Es salvaje, extraño y aterrador, escribió uno. Otro día, otro terrorífico vídeo de IA, se lamenta otro. ¿Por qué tiene que existir esto? No veo nada positivo en esto, escribió un crítico. Según las revisiones, la herramienta conlleva muchos riesgos.

Es realmente espeluznante. No quería ni terminar de verlo. Esta es la parte más profunda del valle de lo siniestro que he presenciado hasta ahora en mi vida”, se lee en los comentarios. Los investigadores de Microsoft son conscientes de los numerosos riesgos asociados a su nuevo modelo de IA. Cuando anunciaron VASA-1 la semana pasada, los investigadores abordaron los riesgos y dijeron que no tenían intención de lanzar el producto en línea hasta que “el equipo esté seguro de que la tecnología se utilizará de manera responsable y de acuerdo con las regulaciones actuales”.

El objetivo no es crear contenido destinado a inducir a error o engañar. Sin embargo, al igual que otras técnicas de generación de contenidos, podría utilizarse indebidamente para hacerse pasar por un ser humano. Nos oponemos a cualquier comportamiento encaminado a crear contenidos engañosos o dañinos de personas reales, y estamos interesados ​​en aplicar nuestra técnica para avanzar en la detección de falsificaciones. Si bien se reconoce la posibilidad de un mal uso, es imperativo reconocer el potencial positivo sustancial de nuestra técnica, explica el equipo.

Los beneficios (como mejorar la equidad educativa, mejorar la accesibilidad para personas con dificultades de comunicación, brindar compañía o apoyo terapéutico a personas necesitadas, entre muchos otros) resaltan la importancia de nuestra investigación y otras exploraciones relacionadas. “Estamos comprometidos a desarrollar la IA de manera responsable, con el objetivo de promover el bienestar humano”, escribieron los investigadores. Las preocupaciones de los científicos de Microsoft también son compartidas por otros investigadores de la comunidad de IA.

A medida que se multiplican las herramientas para crear imágenes, vídeos y sonidos atractivos generados por IA, los expertos temen que su uso indebido pueda conducir a nuevas formas de desinformación. Algunos también temen que la tecnología perturbe aún más las industrias creativas, desde el cine hasta la publicidad. La negativa de Microsoft a lanzar el modelo de IA VASA-1 recuerda el manejo de OpenAI de las preocupaciones sobre su modelo de IA de generación de video Sora. Hasta ahora, la empresa no ha puesto a Sora a disposición del público en general por motivos de seguridad.

El nuevo modelo de inteligencia artificial de Microsoft ha sido entrenado en numerosos videos de rostros de personas hablando y está diseñado para reconocer movimientos faciales y de cabeza naturales, incluidos “movimientos de labios, expresión (no labial), mirada y parpadeo, entre otros”. El resultado es un vídeo más realista cuando VASA-1 anima una fotografía. También son posibles otros casos de uso. Así, también es posible pedirle a la herramienta de IA que produzca un vídeo en el que el sujeto mira en una determinada dirección o expresa una emoción concreta.

Tras una inspección más cercana, todavía hay signos de que los videos fueron generados por máquinas, como parpadeos poco frecuentes y movimientos exagerados de las cejas. Sin embargo, Microsoft cree que su modelo supera significativamente a otras herramientas similares y allana el camino para interacciones en tiempo real con avatares realistas que emulan comportamientos conversacionales humanos. (La herramienta resultó lo suficientemente convincente como para provocar protestas en la web).

Este último avance en IA se produce mientras los gobiernos de todo el mundo trabajan para regular la tecnología y legislar contra su uso indebido con fines delictivos. Un ejemplo es la pornografía deepfake, que consiste en superponer el rostro de una persona a una foto o vídeo explícito sin su consentimiento, un problema que afectó incluso a Taylor Swift a principios de este año. Los autores de los deepfakes de Taylor Swift utilizaron el generador de imágenes de Microsoft.

Y usted ?

¿Cuál es tu opinión sobre el tema?

¿Qué opinas de la nueva herramienta de IA VASA-1 de Microsoft? ¿Tiene alguna utilidad?

¿Qué preocupaciones plantea? ¿Debería publicarse?

Ver también

VASA-1, la nueva IA de Microsoft, puede crear un deepfake solo a partir de una foto y una pista de audio, y puede hacer que cualquiera diga cualquier cosa, pero no está disponible porque es demasiado peligroso

Sora: OpenAI lanza un modelo de IA que sería capaz de crear un vídeo con escenas realistas e imaginativas a partir de instrucciones textuales, pero la duración está limitada a 60 segundos

Stability.ai presenta Stable Video 3D, una herramienta de inteligencia artificial generativa para renderizado de video 3D que permite a los usuarios generar un video corto a partir de una imagen o texto.

-

PREV que debes hacer
NEXT La jugabilidad de F1 24 Spa, Silverstone y Mónaco ya está disponible – Reserva ahora