Con el lanzamiento de Firefly Video en Beta, Adobe está dando un nuevo paso en la integración de la IA generativa en todos sus productos. JDN se reunió con Ely Greenfield, CTO de Adobe Digital Media, para discutir los planes del editor.
JDN. Adobe recientemente enriqueció Creative Cloud con alrededor de un centenar de funciones nuevas y presentó nuevas integraciones de su modelo Firefly. ¿Cómo cambiará la IA las prácticas de los creativos?
Ely Greenfield. Desde que lanzamos nuestra primera plantilla Adobe Firefly para generación de imágenes hace un año y medio, siempre hemos buscado integrar la IA directamente en los flujos de trabajo creativos. Durante los últimos seis meses, hemos agregado funciones como la capacidad de generar imágenes en estilos específicos a través de imágenes de referencia o incluso plantillas personalizadas, permitiendo por ejemplo a los usuarios entrenar la IA con múltiples imágenes para obtener un modelo de estilo muy específico. Nuestro objetivo es brindar control total para que nuestros clientes puedan operar la IA de manera segura, con resultados estéticos y profesionales. Nuestra familia Firefly de modelos de IA generativa fue diseñada para su uso en un entorno comercial.
Adobe acaba de ampliar su familia de modelos de IA generativa al vídeo, con Firefly Video actualmente disponible en versión beta. ¿Cuánto tiempo se necesitó y qué tipos de datos se utilizaron para el desarrollo de este modelo? ?
Nuestros equipos llevan más de un año trabajando en diferentes modelos de IA para vídeo, pero estábamos esperando a que la tecnología estuviera madura para lanzarla en versión beta. Firefly Video, en desarrollo desde este verano, también se ha beneficiado de los nueve meses de experiencia acumulada con nuestro modelo dedicado a la imagen. En cuanto a los datos, nunca utilizamos los datos de nuestros clientes. Nuestros modelos solo se entrenan en contenido con licencia, datos sobre los que poseemos derechos o recursos de dominio público.
¿Cuáles serán los términos de precios para usar Firefly Video? ?
Aún no lo hemos anunciado. Lo lanzamos en versión beta para que nuestros usuarios ya puedan probarlo. Es probable que tenga un precio más alto que nuestro modelo de generación de imágenes, pero pronto compartiremos los detalles.
Qué esperar de las próximas versiones de Firefly para imagen y vídeo ? ¿Anticipa avances importantes en el corto plazo? ?
Seguimos invirtiendo en mejorar la calidad de los resultados con Firefly Video. Por lo tanto, en términos de mejoras futuras, espere clips más largos, resoluciones más altas y mayor fidelidad a las instrucciones. Por ejemplo, introdujimos la función “imagen a video”, que permite a los usuarios obtener videos con un nivel de control mejorado a partir de una simple imagen. Cuando se trata de movimiento y acciones en videos, trabajaremos más duro para mejorar el control sobre los detalles, como los ángulos de la cámara y las transiciones. En cuanto a las imágenes, Firefly Image 3 ahora permite generar imágenes cuatro veces más rápido. En total, Firefly ya ha generado más de 13 mil millones de imágenes. De cara al futuro, también estamos trabajando para ofrecer más coherencia entre elementos y personajes para permitir la creación de series de imágenes en escenarios variados.
¿Cuáles son las nuevas funciones de IA dedicadas al audio? ¿Será posible pronto generar videos con sonidos o diálogos?
Recientemente integramos Generative Extend en Premiere Pro, que le permite extender un clip de audio o video unos segundos usando AI. Durante nuestra sesión de Sneaks en Adobe MAX, demostramos tecnologías que pueden generar elementos de audio sincronizados, como pasos o sonidos de choques, para acompañar escenas de video. Nos estamos acercando a una IA que pueda generar audio y vídeo por separado y luego combinar las pistas. Aunque existen avances, todavía tendremos que esperar a soluciones que sean totalmente utilizables y controlables por nuestros usuarios.
Adobe introdujo recientemente varias funciones que facilitan el diseño 3D con IA. ¿Esta experiencia será más accesible gracias a Firefly? ?
Sí. Recientemente lanzamos la versión beta de Project Neo, una aplicación web para crear y modificar fácilmente diseños 3D, haciendo que el diseño 3D sea más accesible. La integración de Firefly debería simplificar aún más este proceso, permitiendo, por ejemplo, utilizar una imagen de referencia 2D para generar un render 3D con instrucciones sencillas. Estamos trabajando en tecnologías que presentaremos próximamente y que deberían facilitar enormemente el diseño 3D gracias a la IA. También presentamos una nueva versión de Substance 3D Viewer en versión beta, que le permite ver y editar objetos 3D mientras trabaja en Photoshop, facilitando las transiciones entre 2D y 3D.
¿Cree que Firefly, actualmente integrado en las soluciones de Adobe y disponible a través de una interfaz web, podría convertirse en un producto independiente? ?
Nuestra estrategia de IA se basa en tres pilares. El primero es ofrecer tecnología controlable y adaptada a las necesidades de creativos y profesionales, para garantizar resultados precisos y comercialmente explotables. El segundo pilar es integrar la IA de forma nativa en todos nuestros productos, para que se adapte naturalmente a los flujos de trabajo existentes de los creadores. Finalmente, también desarrollamos herramientas autónomas impulsadas por IA para iniciar nuevos enfoques creativos. Project Concept, por ejemplo, es una herramienta independiente diseñada para la ideación y la conceptualización, que ilustra cómo se puede colocar la IA en el centro del proceso creativo. Esta nueva plataforma de desarrollo creativo y colaborativo permite remezclar imágenes en tiempo real para que los profesionales creativos puedan diseñar conceptos en vivo en una única superficie de trabajo.
Adobe ha anunciado que está abierto a integrar modelos de IA de terceros en sus herramientas. ¿Cuándo planeas integrar estos modelos y cómo imaginas su convivencia con Firefly? ?
Aún no tenemos fecha para anunciar, pero sí estamos hablando con varios actores. Nuestra prioridad es satisfacer las necesidades de nuestros clientes, sin imponerles nuestros modelos si ya existen alternativas eficaces. Por tanto, estamos abiertos a la idea de ofrecer otros modelos dentro de nuestras herramientas. Por ejemplo, podrían resultar interesantes plantillas de terceros para flujos de trabajo como “texto a imagen” o “texto a vídeo”. Sin embargo, algunas integraciones más técnicas, como el relleno generativo en Photoshop, requieren tiempo y ajustes.
Adobe está detrás de Content Credentials, una tecnología de código abierto para identificar el origen del contenido. ¿Crees que podría convertirse en un estándar en la era de la IA generativa, tal como lo ha sido el PDF? ?
Creo que Content Credentials está en camino de convertirse en un estándar y estamos trabajando para que ISO lo adopte. Lanzada en 2019 bajo los auspicios de la Content Authenticity Initiative (CAI), esta tecnología de código abierto fue diseñada para garantizar la autenticidad del contenido. Hoy en día, reúne a más de 3.700 socios, entre ellos redes sociales, medios de comunicación, fabricantes de hardware como Canon y creativos. Content Credentials ayuda a proteger el origen y la integridad del contenido mediante firmas criptográficas. Esta tecnología puede utilizarse para identificar contenidos generados por IA, pero también y sobre todo para autentificar obras creadas por humanos. Por ejemplo, un dispositivo Canon ahora puede firmar criptográficamente una fotografía para certificar su autoría y dar fe de que la imagen no ha sido modificada.
¿Tiene la herramienta Adobe Express, competidor directo de Canva, posibilidades de convertirse en su solución más popular, mientras que el diseño y el diseño gráfico parecen haberse vuelto más populares en los últimos años?
A menudo hablamos de creativos como si fueran un solo grupo, aunque esta comunidad abarca muchas disciplinas diferentes. Adobe Express está diseñado para satisfacer necesidades específicas y, por lo tanto, es una herramienta valiosa para determinados casos de uso. Aunque Express se convertirá en uno de nuestros productos estrella, su objetivo no es reemplazar soluciones avanzadas como Photoshop o Illustrator para usuarios expertos. Por otro lado, los diseñadores profesionales, expertos en Illustrator o Photoshop, pueden utilizar Express para importar su contenido y crear animaciones sencillas de forma rápida. Express pretende ser accesible y eficiente, lo que la convierte en una herramienta apreciada por muchos clientes profesionales, especialmente para el uso móvil diario.
Ely Greenfield es la directora de tecnología de la división de medios digitales de Adobe. Trabaja en estrecha colaboración con los equipos de Creative Cloud y Document Cloud para integrar tecnologías innovadoras y respaldar la innovación del grupo. Más recientemente, supervisó el desarrollo de Adobe Firefly, el primer modelo de IA generativa de la empresa. También supervisa Adobe Research, la división centrada en la innovación en IA y herramientas creativas. Antes de Adobe, fue CTO de AppDynamics. Ely Greenfield tiene una licenciatura en informática de la Universidad de Brown.