Adobe libera Firefly Video Model, sua IA para gerar vídeos curtos

Ferramenta cria clipes a partir de textos ou imagens. Processo pode levar até 90 segundos e é seguro para uso comercial, diz empresa.

Giovanni Santa Rosa
Dragão de lava
Firefly Video Model cria vídeos de diversos estilos (Imagem: Divulgação / Adobe)
Resumo
  • A Adobe lançou a versão beta do Firefly Video Model, uma IA generativa para criar vídeos a partir de prompts de texto ou imagens, disponível para assinantes selecionados do Creative Cloud.
  • O Firefly Video Model gera vídeos de até 5 segundos em 720p, e o Premiere Pro agora conta com o recurso Generative Extend para estender clipes em até 2 segundos.
  • A IA foi treinada com conteúdo licenciado e possui medidas de segurança para evitar gerar vídeos de pessoas públicas ou crianças, além de incluir metadados indicando o uso de IA.

A Adobe vai disponibilizar a partir de hoje (dia 14/10) uma versão pública de testes do Firefly Video Model, sua ferramenta de inteligência artificial generativa para gerar vídeos a partir de prompts de texto ou de imagens. Além disso, o Premiere Pro terá um recurso para estender clipes com a tecnologia.

As ferramentas de texto para vídeo e imagem para vídeo estarão disponíveis na web em versão beta, somente para assinantes do Creative Cloud selecionados. Com elas, é possível descrever controles de câmera, como ângulos, movimento e distância, além de poder emular estilos como animações 3D e stop motion.

GIF mostra uma borboleta voando em círculos e pousando em uma flor
Prompt: “As flores estão se mexendo com o vento, e uma bela borboleta pousa sobre uma das flores” (Imagem: Divulgação / Adobe)

O Firefly Video Model — que leva o mesmo nome de outras IAs da empresa — terá a opção de combinar o prompt de texto com uma imagem de referência. A Adobe recomenda que isso seja usado para criar clipes b-roll — aqueles intercalados com um vídeo principal.

Outra possibilidade para o recurso é ter uma ideia de como ficaria uma regravação — o usuário poderia adicionar um frame de um vídeo já gravado e pedir um novo ângulo, movimento, ação, entre muitas outras possibilidades.

Imagem de uma mão de astronauta desligando um cabo
Prompt: “Mão de astronauta usando luva entra na cena e despluga um dos cabos amarelos” (Imagem: Divulgação / Adobe)

O Firefly Video Model é capaz de gerar vídeos de até cinco segundos, com resolução 720p e 24 quadros por segundo.

Qualidade reduzida

As imagens do Firefly Video Model presentes nesta publicação foram convertidas para GIF e perderam qualidade. Para vê-las com a resolução original e no formato de vídeo, acesse o blog post da Adobe.

Premiere Pro poderá estender vídeos

Além das duas ferramentas disponíveis na web, o Firefly Video Model vai acrescentar um novo recurso ao Premiere Pro: o editor poderá estender vídeos.

O Generative Extend, como foi chamado pela Adobe, estará disponível em beta no software. Ele é capaz de gerar clipes de apenas dois segundos a 24 FPS, com resolução 720p ou 1080p.

Devido a estas limitações, a ferramenta é recomendada apenas para pequenos ajustes ou correções, como acrescentar alguns passos a uma cena de uma pessoa andando.

IA leva 90 segundos para gerar imagens

A Adobe diz que as três ferramentas podem demorar até cerca de 90 segundos para gerar os clipes pedidos. A empresa diz estar trabalhando em um “modo turbo” para reduzir este tempo.

Com relação a direitos autorais, a companhia diz ter usado apenas conteúdo licenciado no treinamento e que o modelo gera vídeos “seguros para uso comercial”.

A Adobe também tomou precauções de segurança: O Firefly Video Model não gera vídeos de pessoas públicas ou crianças. Além disso, os arquivos contarão com metadados que indicam o uso de inteligência artificial.

Com informações: Adobe, The Verge e Axios

Leia | Como usar o CapCut [Guia para iniciantes]

Relacionados

Escrito por

Giovanni Santa Rosa

Giovanni Santa Rosa

Repórter

Giovanni Santa Rosa é formado em jornalismo pela ECA-USP e cobre ciência e tecnologia desde 2012. Foi editor-assistente do Gizmodo Brasil e escreveu para o UOL Tilt e para o Jornal da USP. Cobriu o Snapdragon Tech Summit, em Maui (EUA), o Fórum Internacional de Software Livre, em Porto Alegre (RS), e a Campus Party, em São Paulo (SP). Atualmente, é autor no Tecnoblog.