Você olha pela janela, vê um céu cheio de estrelas e decide fazer uma foto com o celular. Aí você confere o resultado e percebe que apenas alguns mirrados pontinhos brancos apareceram. Quem nunca passou por essa frustração? Mas um experimento do Google mostra que é possível fazer boas fotos noturnas com o smartphone. O único problema é que a técnica necessária para isso deve demorar para chegar até nós.

A lógica é bastante interessante. Com câmeras DSLR, fica mais fácil tirar fotos noturnas com boa qualidade de imagem. Mesmo assim, o fotógrafo precisa fazer vários ajustes, regulando exposição e abertura da lente, por exemplo. De certa forma, a técnica do Google faz algo parecido, só que com a câmera do smartphone.

Point Reyes

Florian Kainz, desenvolvedor que faz parte da equipe do Google Daydream, tirou uma foto noturna com uma DSLR e mostrou a colegas de empresa que trabalham com fotografia computacional. Uma dessas pessoas, impressionada com o resultado, desafiou Kainz a fazer uma foto similar, mas usando a câmera de um celular.

Desafio aceito. O projeto começou com o uso do software de câmera do Google Pixel e de aparelhos mais recentes da linha Nexus. Para ser mais preciso, Kainz usou como base o modo HDR+ desse app.

O HDR+, por si só, é capaz de registrar fotos noturnas interessantes. Quando ativado, o modo faz uma sequência de fotos com tempo de exposição curto, aplica algoritmos para reduzir desfocagem e ruído, e depois junta as imagens para gerar uma única foto com mais qualidade.

Mas o HDR+ tem limites. Por isso, Kainz decidiu unir esse modo com o SeeInTheDark (PDF), software criado por Marc Levoy que combina um número maior de fotos e usa mais tempo de exposição. Depois, tudo é mesclado para formar uma só imagem.

Point Reyes

Com base no HDR+ e no SeeInTheDark, Kainz criou um aplicativo de câmera para Android que permite controlar parâmetros como exposição, ISO e distância focal. Para testar o app, o desenvolvedor foi à região de Point Reyes, na Califórnia, e registrou 32 fotos sequenciais noturnas com um Nexus 6P deixando a exposição em quatro segundos (o máximo suportado pelo aparelho) e o ISO em 1600.

Em seguida, Kainz fez outras 32 imagens, mas com a lente coberta por uma fita adesiva opaca para, posteriormente, usar as informações extraídas delas para sobrescrever os pontos de granulação da primeira sequência.

Point Reyes

Houve uma pequena “trapaça” no passo seguinte: Kainz voltou para o escritório e usou o Photoshop para fazer a mesclagem das imagens registradas com o app. Esse trabalho é muito pesado para ser executado no smartphone (pelo menos com um número tão grande de imagens), razão pela qual ele teve que recorrer ao software da Adobe.

Outros registros foram feitos em condições de baixa luminosidade, mas com ajustes diferentes — um deles teve 64 imagens com exposição de dois segundos e ISO 12800, por exemplo. Os resultados da mesclagem foram surpreendentes em todos os testes, como é possível notar neste álbum. Essencialmente, o segredo está em combinar os ajustes certos com uma sequência considerável de imagens.

Point Reyes

A pergunta que todo mundo se faz agora é: teremos algo assim funcionando nos nossos smartphones? Florian Kainz acredita que sim, desde que o software consiga explorar com mais profundidade os recursos da câmera e o hardware dê conta do processamento pesado. É algo que talvez apareça nos topos de linha a serem lançados nos próximos anos.

Mas o desenvolvedor avisa: mesmo o aparelho que atender a esses requisitos precisará ficar apoiado em uma superfície rígida ou em um tripé, do contrário, as imagens ficarão borradas.

Comentários

Envie uma pergunta

Os mais notáveis

Comentários com a maior pontuação

Rafael Santos
Ele está certo Karel, estamos falando de câmeras digitais de smartphones que possuem processamento para outros fins (diferente do processamento de câmeras digitais que o processamento é exclusivo somente para fotografia e mais diferente ainda das câmeras antigas que o tempo ia expondo o filme dispensando processamento claro), se o processamento for lento, a câmera precisa de mais tempo de exposição para poder capturar e processar os Frames. Se esse processamento for mais rápido não precisa de tanta exposição, esses Frames seriam capturados mais rapidamente. Então antes de rir da opinião dos outros é bom parar pra pensar.
Dan F. S
Software e hardware são tecnicas tambem. Tecnicas computacionais.
Jacques
Alguns top de linha samsung fazem longa exposição, já fiz algumas fotos em raw e o resultado é surpreendente, o foda é que precisa de um tripe pois é quase impossível tirar uma boa foto segurando o aparelho com meio segundo de exposição, quem dera 5 ou mais.
Caleb Enyawbruce

que gambiarra da penga... e ainda usou Photoshop. Pela madrugada...
Next!!

Ramon Gonzalez
que gambiarra da penga... e ainda usou Photoshop. Pela madrugada... Next!!
Marsupial radical
Pesquisa se torna protótipo, protótipo se torna produto. Se a pesquisa trouxe uma conclusão positiva, a partir daí é questão de tempo pra virar produto... Não acho que leve tanto tempo pra isso acontecer, se considerar a quantia de evoluções que acontecem em bem menos tempo!
Felipe Xavier
Se vai precisar de tripé, é só retirar a limitação de 4 segundos de exposição. Faz-se 3 exposições de 30" e o pós-processamento reduz bastante e talvez com resultados ainda melhores. Isso está mais parecendo reinventar a roda do que um avanço de fato.
Julio Carvalho
Sim concordo, mas creio eu que estes Smartphones como na maioria não foram feitos para fotos de longo alcance, por isso colocam estas porcarias de flash em Led, talvez até para não prejudicar o desing, ou o custo.
Guilherme Borges Cunha
Algumas fabricantes chegaram a usar flash Xeon em alguns modelos de smartphones, queria entender por quê isso não foi pra frente. Fora o flash de Xeon, o mais interessante que eu vi foi o iPhone 7 com flash em 4 tons.
Guilherme Borges Cunha
Para obter fotos com uma qualidade próxima disso é só aprender a mexer no modo manual dá camera do seu smartphone. Eu aprendi alguma coisa pesquisando no Google e consegui alguns resultados bem melhores.
Alberto Prado
Ele realmente iluminava bem. Mas se a empresa não calibrasse bem ele, as fotos ficavam azuladas ou até chegava a estourar com o reflexo no rosto das pessoas. Fora que ele gastava mais energia. Acho que o sistema com flash duplo com dois tons funciona bem hoje em dia.
Alberto Prado
Tem sensor da Sony que já consegue tirar até 960 fotos em 1 segundo. O problema é esse tempo de exposição aí. Mas isso pode ser compensado por um sensor de maior abertura e pixels maiores (os tais super pixels). Agora o processamento que vai ser problema. Talvez com uma conexão boa possa fazer parte do trabalho na nuvem, mas se estiver "off-line" tem que esperar o aparelho fazer ali mesmo.
palatoqueimado
Então, isso é só um experimento que deu certo. A partir dele os desenvolvedores vão poder trabalhar pra torná-lo mais eficiente. Eu tô bem animado, porque logo em breve isso pode estar disponível (nem que seja como um beta) para nós que somos usuários. A questão do processamento pode ser contornada de outras maneiras, por exemplo, processando num computador ou pela nuvem (embora não seja nada prático dessa maneira...).
Douglas B

Em qualquer câmera o flash xenon será sempre melhor, pois ele ilumina o ambiente com força e de forma homogênea. Já o led é uma luz mais direcionada e fraca, quase impossível chegar perto do xenon (a menos que coloquem um refletor led na traseira do smart, o que seria quase inviável).

Douglas Baião
Em qualquer câmera o flash xenon será sempre melhor, pois ele ilumina o ambiente com força e de forma homogênea. Já o led é uma luz mais direcionada e fraca, quase impossível chegar perto do xenon (a menos que coloquem um refletor led na traseira do smart, o que seria quase inviável).
Exibir mais comentários