OpenAI, la empresa emergente detrás de las populares herramientas de inteligencia artificial generativa (IA) ChatGPT y DALL-E, ahora permite a los investigadores probar su herramienta diseñada para detectar si las imágenes digitales fueron creadas por programas de software ‘AI. La autenticación de contenidos en línea se ha convertido en una preocupación importante con la explosión de la IA generativa, que puede producir todo tipo de contenidos a pedido, incluidas fotografías falsas de personas o grabaciones de audio falsas con fines de fraude, por ejemplo.
OpenAI explicó que había desarrollado un programa para detectar imágenes generadas por DALL-E 3. Según pruebas internas en una versión anterior de la herramienta, “identifica correctamente aproximadamente el 98% de las imágenes de DALL-E 3, menos del 0,5% de las que no. -Las imágenes generadas por IA se atribuyeron incorrectamente a DALL-E 3”, dijo la compañía con sede en California en un comunicado en línea.
La start-up, financiada en gran parte por Microsoft, precisó sin embargo que su programa era menos eficaz cuando las imágenes creadas con DALL-E 3 eran retocadas posteriormente o cuando eran generadas por otros modelos.
OpenAI también anunció que ahora agregará marcas de agua a las imágenes de IA para cumplir con los estándares de la Coalición para la procedencia y autenticidad del contenido (C2PA). C2PA es una iniciativa de la industria tecnológica que establece estándares técnicos para determinar la procedencia y autenticidad del contenido digital.
El mes pasado, Meta Group (Facebook, Instagram) dijo que comenzaría a etiquetar contenido generado por IA a partir de mayo utilizando el estándar C2PA. Su vecino Google también se ha sumado a la iniciativa.