Uso malicioso de la IA en las escuelas
En octubre pasado, Francesca Mani, de 14 años, estaba en su clase de historia en la escuela secundaria cuando escuchó el rumor de que algunos niños tenían fotografías de compañeras de clase desnudas. Rápidamente se enteró de que su imagen estaba entre ellas, aunque las fotos habían sido retocadas con un sitio o aplicación de “nudificación”, capaz de transformar fotos de personas vestidas en imágenes realistas de desnudos. Durante los últimos 20 meses, se han registrado casi 30 incidentes similares en escuelas de todo Estados Unidos, sin mencionar otros en todo el mundo. Queremos advertirles: parte de lo que escucharán, o incluso verán, es inquietante, pero es crucial arrojar luz sobre estos sitios de “nudificación”. No están ocultos en la web oscura, pero de hecho son ampliamente accesibles y fáciles de usar, y parece que se han tomado pocas medidas para contrarrestarlos.
Francesca Mani no tenía idea de que existían estos sitios cuando descubrió que ella y varias otras niñas de Westfield High School en Nueva Jersey habían sido atacadas. Según una denuncia presentada por uno de los padres de otra niña, un niño de la escuela supuestamente subió fotos de Instagram a un sitio llamado Clothoff. Estamos nombrando este sitio para crear conciencia sobre sus peligros potenciales.
Hay más de cien de estos sitios de “nudificación” y sólo hay que hacer una búsqueda rápida para encontrarlos. Clothoff es uno de los más populares, con más de 3 millones de visitas el mes pasado, según Graphika, una empresa de análisis de redes sociales. Este sitio ahora también ofrece “desnudar” a los hombres, aunque los desnudos femeninos son, con diferencia, los más solicitados. “¿Tienes a alguien a quien desnudar?” pregunta el sitio Clothoff. Puedes subir una foto o solicitar una demostración gratuita que muestre una imagen de una mujer vestida y segundos después su ropa desaparece. Difuminamos esta imagen, pero los resultados parecen muy realistas.
Francesca nunca vio lo que le hicieron a su foto, pero según la denuncia, al menos un “desnudo” generado por IA fue compartido en Snapchat y varios estudiantes de la escuela lo vieron. Lo peor, dijo Francesca, fue que ella y las otras niñas se enteraron de que eran víctimas cuando se anunciaron sus nombres por el micrófono de la escuela.
Francesca Mani: “Creo que esto fue una violación importante de nuestra privacidad mientras los malos actores fueron sacados a escondidas de sus aulas. Cuando salí de la oficina del director, estaba caminando por un pasillo y vi grupos de niños riéndose de grupos de niñas que lloraban. Fue entonces cuando me di cuenta de que tenía que dejar de llorar y enojarme porque esto es inaceptable”.
Esa tarde, el director de Westfield envió un correo electrónico a todos los padres de la escuela, anunciando que “algunos de nuestros estudiantes habían utilizado inteligencia artificial para crear imágenes pornográficas a partir de fotografías originales”. El director también aclaró que la escuela estaba investigando y en este momento creían que todas las imágenes creadas habían sido eliminadas y no se publicarían.
A Dorota, la madre de Francesca, que también es profesora, no le convenció la reacción del colegio.
Dorota Mani: “No sé si tomaron las medidas adecuadas”.
Es bueno saberlo
- Los sitios de nudificación utilizan algoritmos avanzados de inteligencia artificial para alterar imágenes.
- La legislación sobre imágenes inapropiadas de menores sigue sin estar clara, lo que expone a las víctimas a importantes daños psicológicos.
- Hay iniciativas legislativas en marcha, como la “Take It Down Act”, destinadas a combatir este fenómeno.
- Imagen(es) fuente: www.cbsnews.com
- Fuente: https://www.cbsnews.com/news/schools-face-new-threat-nudify-sites-use-ai-create-realistic-revealing-images-60- Minutes-transcript/
Nuestros editores utilizan IA para ayudarlos a cumplir artículos frescos de fuentes confiables a nuestros usuarios. Si encuentra alguna imagen o contenido que sea inapropiado, contáctenos a través del formulario DMCA y lo eliminaremos de inmediato. / Nuestros editores utilizan IA para ayudarles a ofrecer a nuestros lectores artículos nuevos de fuentes confiables. Si encuentra una imagen o contenido inapropiado, contáctenos a través del formulario DMCA y lo eliminaremos de inmediato.