Firefly: así funciona la nueva aplicación para crear videos con mensajes de texto usando inteligencia artificial
La nueva aplicación fue presentada en septiembre, y desde entonces, según Adobe, la compañía tras el software, algunos de sus principales clientes y usuarios ya han tenido acceso a ella, quienes están generando increíbles videos con solo escribir un texto.
Imágenes de la superficie de Marte, un lagarto que puede caminar sobre fuego o mariposas con un nivel de detalle extremo. Son algunas de las múltiples creaciones que hoy se pueden producir con la aplicación web Firefly Video Model de la compañía Adobe.
La empresa creadora de Photoshop anunció el lunes el lanzamiento de su nueva herramienta de generación de videos con inteligencia artificial, capaz de generar videos a partir de mensajes de texto, con lo que se une al creciente número de empresas que intentan revolucionar la producción de cine y televisión mediante la inteligencia artificial generativa.
Firefly: así funciona la nueva aplicación para crear videos con mensajes de texto usando inteligencia artificial
El modelo de video Firefly competirá con Sora, de OpenAI, que se presentó a principios de este año, mientras en paralelo, ByteDance, propietaria de TikTok, y Meta Platforms también han anunciado sus herramientas de video en los últimos meses.
“Ya seas un editor de video profesional, un diseñador de gráficos en movimiento, trabajes en una agencia o dirijas tu propia empresa, siempre estás tratando de encontrar nuevas formas de explorar tu visión: más rápido, mejor y de manera más eficiente. Durante la última década, nos has brindado comentarios increíbles sobre cómo quieres que la IA reduzca el tedio y amplifique tu narrativa. Y esos comentarios nos han seguido guiando durante los últimos meses mientras desarrollamos el modelo de video de Firefly para que sea atractivo y fácil de usar para los creadores”, escribió la compañía sobre las capacidades de su herramienta.
Al igual que otros modelos de IA generativos, Firefly simplemente toma descripciones basadas en texto de lo que el usuario quiere que haga y luego activa algoritmos complejos que “imaginan” una respuesta basada en grandes cantidades de datos de entrenamiento; en este caso, videos e imágenes fijas.
En otras palabras, se trata de un sistema de inteligencia artificial entrenado para generar imágenes a partir de texto, de forma que el usuario solo tiene que describir lo que quiere ver y el programa generará la imagen y el video partiendo de cero.
Por ahora solo se trata de una versión beta, que tiene como objetivo recopilar comentarios de profesionales creativos para perfeccionar aún más el modelo.
La nueva aplicación fue presentada en septiembre, y desde entonces, según la compañía, algunos de sus principales clientes y usuarios ya han tenido acceso a ella, quienes ya están generando increíbles videos pasando imágenes o texto “que amplían los límites del video generativo y el ingenio humano”, sostuvo Adobe en su blog.
Adobe, con sede en San José, California, empezará a ofrecer la herramienta a quienes se hayan inscrito en su lista de espera, pero no ha dado una fecha de lanzamiento general.
Protección intelectual
Una de los principales argumentos esgrimidos por Adobe para preferir su producto por sobre otros del mercado, es la protección de los derechos de autor. Según la empresa, su aplicación ha sido entrenada a partir de datos sobre los que tiene derechos de uso, garantizando que el resultado pueda utilizarse legalmente en trabajos comerciales.
La idea es que esta estrategia (la de usar sólo contenido con licencia) le garantice a los equipos de marketing una mayor seguridad jurídica, ya que pueden estar tranquilos de que no infringirán derechos de propiedad intelectual de terceros.
Aunque Adobe todavía no ha anunciado ningún cliente que utilice sus herramientas de video, Reuters señaló que el lunes la empresa dijo que Gatorade, propiedad de PepsiCo, utilizará su modelo de generación de imágenes para un sitio web en el que los clientes pueden encargar botellas hechas a medida y Mattel ha estado utilizando las herramientas de Adobe para ayudar a diseñar el embalaje de su línea de muñecas Barbie.
Según Ely Greenfield, directora de tecnología de Adobe para medios digitales, la aplicación se centró en el control preciso, “enseñando al modelo los conceptos que utilizan los editores de vídeo y los videógrafos, como la posición de la cámara, el ángulo y el movimiento”.
“Nuestra comunidad está generando ideas y explorando más rápido, agregando nuevos elementos a las secuencias existentes y llenando los espacios vacíos para expresar la intención creativa mejor que nunca”, agregó la compañía en su blog.
Según Adobe, desde que presentaron el modelo en septiembre, han brindado acceso anticipado a algunos de los principales líderes de su comunidad, “quienes ya están generando increíbles creaciones de texto a video e imagen a video que amplían los límites del video generativo y el ingenio humano”.
Comenta
Los comentarios en esta sección son exclusivos para suscriptores. Suscríbete aquí.