Os iPhones 11, 11 Pro e 11 Pro Max, anunciados em setembro de 2019, introduziram a tecnologia Deep Fusion nas câmeras dos três modelos, para melhorar a qualidade das fotos, especialmente quando se fala em detalhes e redução de ruído. O sistema usa nove capturas para compor uma imagem. Esse recurso também está presente na geração seguinte, nos iPhones 12.
- Qual a diferença entre iPhone 11, 11 Pro e 11 Pro Max?
- O que é tripofobia [e o que o iPhone 11 tem a ver com isso]?
Como funciona o Deep Fusion
A composição é possível com o processador Apple A13 Bionic e A14 Bionic, respectivamente do iPhone 11 e 12. Com o Deep Fusion, o sistema de câmeras é programado para fazer uma sequência de fotos e depois combiná-las em uma única imagem. Na prática é assim:
Ao pressionar o botão para fazer uma foto, o iPhone fará uma imagem em longa exposição após já ter capturado oito imagens — quatro fotos e depois mais quatro secundárias; totalizando nove imagens.
De acordo com a Apple, nesse um segundo em que o usuário aperta o botão, o processador neural do A13 ou A14 varre os 24 milhões de pixels das imagens para compor uma foto com melhor alcance dinâmico, maior nível de detalhes e com menos ruído, usando a inteligência artificial.
A imagem acima foi a usada na apresentação da tecnologia Deep Fusion dos novos iPhones 11. De acordo com Phil Schiller, vice-presidente de Marketing da Apple, é a primeira vez que o Neural Engine é responsável por entregar uma imagem final.
O que faz um processador neural?
O processador neural usa o aprendizado de máquina para aperfeiçoar o uso do usuário. Com ele, a inteligência artificial consegue identificar padrões e sugerir o que pode ser melhor para aquele momento.
Em se tratando de câmeras, o Neural Engine, da Apple, é responsável por identificar as condições de iluminação, cenários, objetos e pessoas para aplicar automaticamente as configurações necessárias para cada tipo de cena.
O que os outros smartphones já fazem?
O Google também usa inteligência artificial no seu smartphone Pixel para melhorar a qualidade das fotos. A exemplo disso, o Pixel 3, que tem apenas uma câmera, ficou apenas um ponto abaixo do iPhone XR no teste de câmera do DxOMark.
Acontece que, no Pixel, há um chip dedicado para o processamento de imagem, o Pixel Visual Core. Isso fez dele o melhor Android para fotos com uma câmera. Lembramos também que o Pixel faz modos retratos com apenas uma lente, enquanto outras fabricantes precisam de uma segunda câmera para o recurso.
Já no Nokia 9 PureView são usadas as cinco câmeras — dois sensores RGB (coloridos) e três monocromáticos — para registrar o mesmo momento. Após o disparo, cada câmera registra 12 megapixels e dá ao processador 60 megapixels para serem trabalhados.
Esse montante pode aumentar se o software do Nokia 9 PureView entender que precisa de mais imagens de acordo com a cena. Então, são capturadas quatro fotos sequenciais, gerando 240 megapixels de dados para o processador compor uma única imagem.
Assim, com tantos dados de imagem, a ideia por trás do sistema de câmera do Nokia 9 PureView é semelhante ao Deep Fusion do iPhone: analisar o arquivo capturado e tirar proveito dos melhores pixels. Claro que, com até 240 megapixels de imagem, o nível de detalhes da foto promete ser superior a qualquer outro smartphone com duas ou três câmeras.
Comentários da Comunidade
Envie uma perguntaOs mais notáveis