La “corte suprema” de Meta se ocupa de los “deepfakes” que sexualizan a mujeres conocidas: Noticias

La “corte suprema” de Meta se ocupa de los “deepfakes” que sexualizan a mujeres conocidas: Noticias
Descriptive text here
-

El consejo de supervisión de Meta (Facebook, Instagram) anunció el martes que se ocuparía de dos casos relacionados con imágenes pornográficas falsas de figuras públicas femeninas, dos meses después del escándalo de los “deepfakes” protagonizado por Taylor Swift.

Los dos casos fueron seleccionados “para evaluar si las normas de Meta y su aplicación son eficaces para abordar (el problema de) las imágenes sexuales generadas por la inteligencia artificial (IA)”, señala en un comunicado de prensa este consejo apodado “tribunal supremo”.

Creado por el gigante de las redes sociales y formado por miembros independientes, el consejo es responsable de decidir cuestiones espinosas de moderación de contenidos.

El auge de la IA generativa, que automatiza la producción de contenidos sofisticados, ha dado un nuevo impulso al fenómeno de los “deepfakes” o “hyperfakes”, en particular imágenes manipuladas y sexualizadas en las que aparecen mujeres, con fines de intimidación o acoso.

El primer caso elegido por el consejo de supervisión de Meta involucra una imagen generada por IA de una mujer desnuda publicada en Instagram, “que se asemeja a una figura pública india”, según el comunicado.

Un usuario se quejó de que la empresa californiana no elimina esta imagen.

“Meta determinó que su decisión de dejar el contenido publicado era errónea y eliminó la publicación por violar sus reglas sobre intimidación y acoso”, señala la junta.

El segundo caso se refiere a una imagen publicada en un grupo de Facebook para la creación de contenidos con IA, que muestra “una mujer desnuda con un hombre tocándole los senos”. La mujer “parece una figura pública estadounidense”, también mencionada en el pie de foto.

Meta eliminó la imagen y la agregó a un banco de contenido que forma parte de su sistema de aplicación de la ley, para encontrar y eliminar automáticamente de sus plataformas imágenes ya identificadas por los empleados como problemáticas.

El pasado mes de enero, una imagen pornográfica falsa de la superestrella estadounidense Taylor Swift fue vista 47 millones de veces en X (antiguo Twitter) antes de ser eliminada por la red social, unas quince horas después de haber sido publicada en Internet.

El asunto despertó la indignación de sus seguidores, de muchas personalidades e incluso de la Casa Blanca.

Según un estudio realizado en 2019 por la empresa holandesa Sensity, especializada en inteligencia artificial, el 96% de los vídeos falsos online son pornografía no consentida y la mayoría de ellos representan a mujeres, famosas o no.

-

PREV “responsable de su angustia”, por qué su pareja Soraya puede culparle
NEXT Nicole Kidman honrada por su trayectoria