La “corte suprema” del Meta retoma “deepfakes” que sexualizan a mujeres conocidas – Telquel.ma

-

lLos dos casos fueron seleccionados”Evaluar si las regulaciones de Meta y su aplicación son efectivas para abordar (el problema de) las imágenes sexuales generadas por inteligencia artificial (IA).”, señala en un comunicado este consejo apodado “tribunal supremo”.

Creado por el gigante de las redes sociales y formado por miembros independientes, el consejo es responsable de decidir cuestiones espinosas de moderación de contenidos.

El auge de la IA generativa, que automatiza la producción de contenidos sofisticados, ha dado un nuevo impulso al fenómeno de los “deepfakes” o “hyperfakes”, en particular imágenes manipuladas y sexualizadas en las que aparecen mujeres, con fines de intimidación o acoso.

El primer caso elegido por la Meta Oversight Board involucra una imagen generada por IA de una mujer desnuda publicada en Instagram, “parecido a una figura pública india”, indica el comunicado de prensa. Un usuario se quejó de que la empresa californiana no elimina esta imagen.

Meta determinó que su decisión de dejar el contenido publicado fue incorrecta y eliminó la publicación por violar sus reglas sobre intimidación y acoso.”, señala el consejo.

El segundo caso se refiere a una imagen publicada en un grupo de Facebook para la creación de contenidos con IA, que muestra “una mujer desnuda con un hombre tocándole los pechos”. La mujer “Parece una figura pública estadounidense.”, también nombrado en la leyenda.

Meta eliminó la imagen y la agregó a un banco de contenido que forma parte de su sistema de aplicación de la ley, para encontrar y eliminar automáticamente de sus plataformas imágenes ya identificadas por los empleados como problemáticas.

El pasado mes de enero, una imagen pornográfica falsa de la superestrella estadounidense Taylor Swift fue vista 47 millones de veces en X (antiguo Twitter) antes de ser eliminada por la red social, unas quince horas después de haber sido publicada en Internet. El asunto despertó la indignación de sus seguidores, de muchas personalidades e incluso de la Casa Blanca.

Según un estudio de 2019 de la empresa holandesa de inteligencia artificial Sensity, el 96% de los videos falsos en línea son pornografía no consensuada y la mayoría de ellos representan a mujeres, famosas o no.

-

PREV La inteligencia artificial acabará con el periodismo… ¡y con buena parte del mundo laboral!
NEXT Arándanos, estas frutas azules que triunfan en Marruecos