Início » Celular » O que é e como funciona o Deep Fusion no iPhone 11

O que é e como funciona o Deep Fusion no iPhone 11

Nove imagens para compor uma única foto; entenda o que é a tecnologia Deep Fusion presente no iPhone 11, 11 Pro e 11 Pro Max

Por
30/09/2019 às 19h43

Os novos iPhones 11, 11 Pro e 11 Pro Max, anunciados em setembro de 2019, introduziram a tecnologia Deep Fusion nas câmeras dos três modelos para melhorar a qualidade das fotos, especialmente quando se fala em detalhes e redução de ruído. O sistema usa nove capturas para compor uma imagem.

Apple iPhone 11 Pro

Como funciona o Deep Fusion

Com o novo processador Apple A13 Bionic, dos iPhones 11, o sistema de câmeras é programado para fazer uma sequência de fotos e depois combiná-las em uma única imagem. Funciona assim:

Ao pressionar o botão para fazer uma foto, o iPhone fará uma imagem em longa exposição após já ter capturado oito imagens — quatro fotos e depois mais quatro secundárias; totalizando nove imagens.

De acordo com a Apple, nesse um segundo em que o usuário aperta o botão, o processador neural do A13 Bionic, chamado de Neural Engine, varre os 24 milhões de pixels das imagens para compor uma foto com melhor alcance dinâmico, maior nível de detalhes e com menos ruído, usando a inteligência artificial.

Detalhes de uma foto com a tecnologia Deep Fusion dos iPhones 11

A imagem acima foi a usada na apresentação da tecnologia Deep Fusion dos novos iPhones 11. De acordo com Phil Schiller, vice-presidente de Marketing da Apple, é a primeira vez que o Neural Engine é responsável por entregar uma imagem final.

O que faz um processador neural?

O processador neural usa o aprendizado de máquina para aperfeiçoar o uso do usuário. Com ele, a inteligência artificial consegue identificar padrões e sugerir o que pode ser melhor para aquele momento.

Em se tratando de câmeras, o Neural Engine, da Apple, é responsável por identificar as condições de iluminação, cenários, objetos e pessoas para aplicar automaticamente as configurações necessárias para cada tipo de cena.

O que os outros smartphones já fazem?

O Google também usa inteligência artificial no seu smartphone Pixel para melhorar a qualidade das fotos. A exemplo disso, o Pixel 3, que tem apenas uma câmera, ficou apenas um ponto abaixo do iPhone XR no teste de câmera do DxOMark.

Acontece que, no Pixel, há um chip dedicado para o processamento de imagem, o Pixel Visual Core. Isso fez dele o melhor Android para fotos com uma câmera. Lembramos também que o Pixel faz modos retratos com apenas uma lente, enquanto outras fabricantes precisam de uma segunda câmera para o recurso.

Já no Nokia 9 PureView são usadas as cinco câmeras — dois sensores RGB (coloridos) e três monocromáticos — para registrar o mesmo momento. Após o disparo, cada câmera registra 12 megapixels e dá ao processador 60 megapixels para serem trabalhados.

Nokia 9 PureView

Esse montante pode aumentar se o software do Nokia 9 PureView entender que precisa de mais imagens de acordo com a cena. Então, são capturadas quatro fotos sequenciais, gerando 240 megapixels de dados para o processador compor uma única imagem.

Assim, com tantos dados de imagem, a ideia por trás do sistema de câmera do Nokia 9 PureView é semelhante ao Deep Fusion do iPhone: analisar o arquivo capturado e tirar proveito dos melhores pixels. Claro que, com até 240 megapixels de imagem, o nível de detalhes da foto promete ser superior a qualquer outro smartphone com duas ou três câmeras.