Início » Gadgets » Novo método de animação da Disney deixa os filmes e jogos mais realistas

Novo método de animação da Disney deixa os filmes e jogos mais realistas

Detalhes são capturados com mais precisão e em tempo real; software funciona com câmeras simples

Por
4 anos atrás

metodo-captura-facial-1

Um novo método de animação facial desenvolvido por pesquisadores da Disney Research, empresa que dá suporte em pesquisa e desenvolvimento tecnológico para a Walt Disney Company, pode melhorar seus jogos ou filmes no futuro. Há muita precisão envolvida no reconhecimento de pequenos detalhes do rosto.

Normalmente, uma animação precisa do rosto é feita offline. Isso significa que os pequenos detalhes do rosto não são formados junto com a gravação e por isso é necessário um pré-processamento de possíveis expressões que podem surgir durante a filmagem.

Nesse método introduzido pela Disney Research, todos os detalhes aparecem em tempo real e só é necessário o reconhecimento de alguns segundos de uma nova face. Não é difícil, aliás: um modelo de rosto global pré-definido se adapta às características do rosto e calcula as probabilidades do surgimento de eventuais rugas durante a animação.

Dessa forma, a animação em tempo real é feita com maior velocidade e ainda mantendo qualidade superior. O melhor? Apenas uma câmera qualquer é necessária, sem nenhum hardware adicional. O software é responsável por toda a mágica.

metodo-captura-facial-2

O método foi desenvolvido com base em composições de baixa resolução. A partir do reconhecimento das principais características faciais, o software estima o surgimento de rugas e outros detalhes menores. O PDF (bem pesado, de mais de 50 MB) que detalha toda a pesquisa explica:

“A aparição local de rugas é uma consequência direta do sombreamento formado pela forma local. Ao aprender a relação entre entre a aparência de imagem local e a formação local de rugas, nós conseguimos reconstruir possíveis rugas faciais em tempo real a partir de uma única câmera RGB.”

o novo método não se limita às grandes produções

Derek Bradley, pesquisador na Disney Research, ainda aponta que a inovação não se limita às grandes produções: aplicações variam desde “usuários casuais que querem dar um toque pessoal para um personagem de um jogo a propósitos comerciais nos quais, por exemplo, um consumidor pode aplicar e visualizar maquiagem virtual”.

Como as expressões faciais mais detalhadas são geradas junto com a imagem, o método também pode ajudar grandes produções. “Em uma produção de um filme, o nosso método pode permitir a um diretor a avaliar uma performance de um ator diretamente gerada em uma criatura digital enquanto ele grava”, acrescentou Derek.

metodo-captura-facial-3

Outro método, quando comparado com o da Disney, tem mais ruídos e artefatos da renderização

metodo-captura-facial-4

Apesar de ser mais detalhado, outro método offline não oferece visualização em tempo real

Quando comparado a outros métodos, tanto offline quanto online, o criado pela Disney Research oferece maior precisão em pequenos detalhes faciais, sem artefatos imprecisos e ruídos gerados pela renderização. Outras capturas em alta resolução, apesar de serem mais detalhadas, não oferecem visualização em tempo real. Um vídeo que mostra as comparações e como o novo método funciona está disponível abaixo.

Mas, como sempre, nem tudo são flores. Um dos problemas da animação facial desenvolvida pela Disney Research é que ela é pouco suscetível a mudanças de iluminação. Isto é, caso haja alteração no sentido da luz que produza uma sombra muito visível no rosto, o sistema fica menos preciso. É recomendável que, durante a captura, haja uma fonte de iluminação diretamente na frente da face. Outra limitação está nos movimentos faciais muito rápidos ou ofuscados, que confundem a animação.

Os pesquisadores acreditam que, conforme a resolução da câmera aumenta, os detalhes a serem capturados pelo método também podem crescer a um nível mesoscópico (entre o microscópico e o macroscópico), como o reconhecimento de poros do rosto, por exemplo.

Com informações: Phys.Org.

Mais sobre: ,