Início » Ciência » Algoritmo do Google reduz tamanho de imagens JPEG em 35% (e com qualidade melhor)

Algoritmo do Google reduz tamanho de imagens JPEG em 35% (e com qualidade melhor)

Paulo Higa Por

O Google desenvolveu um algoritmo de compressão que pode reduzir o tamanho dos arquivos JPEG até 35% mais que o método tradicional, sem prejudicar a qualidade da imagem — em alguns casos, o resultado pode ficar até melhor que o obtido atualmente. Chamado de Guetzli, ele foi liberado nesta quinta-feira (16) como um projeto de código aberto.

O JPEG é um formato de imagem bastante flexível: você pode escolher exatamente o nível de compressão ao salvar um arquivo em softwares especializados. A contrapartida é que, quanto menor o tamanho do arquivo, pior será a qualidade: trata-se de uma compressão com perdas, diferente do PNG, por exemplo, que diminui o espaço ocupado pelo arquivo, mas mantém todos os detalhes de cores.

Qual a mágica do Guetzli? Se você gostou de Silicon Valley, provavelmente vai se interessar por isso. Como informa o Google, a compressão de um arquivo JPEG depende de algumas etapas: transformações de espaço de cores (que é um modelo matemático para descrever cores), transformada discreta de cosseno (também adotada em outros formatos, como MP3) e quantização.

O principal culpado pela queda de qualidade no JPEG é o processo de quantização, que basicamente pega uma série de dados desordenados e organiza tudo em dados ordenados, que são mais fáceis de comprimir. Quanto mais agressivo for esse processo, pior será a qualidade do arquivo: detalhes das imagens são eliminados, e gradientes de cores perdem tons.

Mas o Google melhorou o processo com um novo modelo psicovisual que adota um algoritmo de busca e “aproxima a percepção de cor e os mascaramentos visuais de uma forma mais detalhada e minuciosa do que seria possível com simples transformações de cores e transformadas discretas de cosseno”. Segundo os pesquisadores, 75% das pessoas preferiram a compressão do Guetzli em detrimento do libjpeg.

Veja se você concorda com elas (imagens originais à esquerda, libjpeg no centro e Guetzli à direita):

Claro que há um ponto fraco: o Google diz que os algoritmos de busca “levam muito mais tempo para criar imagens comprimidas que os métodos disponíveis atualmente”. Mas os testes mostraram que humanos preferiram, de maneira consistente, o Guetzli ao libjpeg, mesmo quando os arquivos eram do mesmo tamanho ou maiores, por isso, o Google acha que a compressão mais lenta é uma contrapartida que vale a pena.

Eu também acho — ainda mais considerando que as páginas estão cada vez mais cheias de imagens, e estamos acessando cada vez mais a web por meio de conexões móveis, que nem sempre são rápidas. Vamos esperar até que os desenvolvedores adotem o novo algoritmo do Google em seus softwares de compressão. O código-fonte do Guetzli já está disponível no GitHub.

Mais sobre: , ,

Comentários

Envie uma pergunta

Os mais notáveis

Comentários com a maior pontuação

Janio Sarmento
Estou oferecendo aos meus clientes a possibilidade de converter todos seus JPEGs para o novo formato, automaticamente, sem intervenção manual. É demorado para trabalhar cada imagem (comparado à fração de segundos do jpegoptim), mas o resultado final é muito compensador.
Marcus Araújo
"ainda mais considerando que as páginas estão cada vez mais cheias de imagens, e estamos acessando cada vez mais a web por meio de conexões móveis, que nem sempre são rápidas" Isso sem falar nas franquias, né? Uma bela forma de ganhar uns MB no final do mês.
CtbaBr
Não sei, afinal isso nunca acontece, não é mesmo? Talvez seja os relatórios que ele gere, indicando que o site X possui um problema critico relacionado a compactação das imagens!
Guilherme
Não entendo como você pensou por um segundo que o Google pressionasse as pessoas para usarem esse novo algoritmo...Mas respondendo a sua dúvida: não. Eles já criaram um formato melhor que o JPEG (WebP) e infelizmente não foi tão bem adotado.
Guilherme
Mais ou menos 20 minutos para comprimir uma imagem JPEG de 7,8 MB, utilizando um processador Intel i7-4790K. Para uma imagem de 1,4MB, levou 10 minutos usando este mesmo processador. Fonte: https://github.com/google/guetzli/issues/50
Sckillfer
Finalmente a Google reservou um tempinho pra melhorar a web de verdade ao invés de anunciar mais resultados sintéticos fora da realidade sobre seu formato natimorto (WebP). Uso o mozjpeg quando preciso reduzir o peso de uma imagem, é o "compressor" mais promissor, mas a Mozilla deu uma estacionada no 3.1 :(
CtbaBr
Sobre a "compactação" e sobre a "noticia" não existe duvida! Existe duvida apenas se com isso o Google passara a pressionar os sites e blogs a usarem essa compactação, afinal hoje todos temem cair no PageRank do Google!
Helmut
WUT. Vamos com calma, eu não entendi o que você não entendeu da notícia. O que diabos você entendeu disso tudo?
CtbaBr
Não sei, fico na duvida a respeito! A principio parece ser algo muito bom... Desde de que isso não seja imposto de alguma forma, por exemplo, desde que o Google não comece fazer pressão para todos usem esse método, sendo opcional, perfeito!
Magno Machado Paulo
Não melhor que a original, melhor que a comprimida pelo método atual.
CtbaBr
Como seria deixar a qualidade de uma imagem melhor que a original? E se o "aspecto pior" era o pretendido?
Tharcio Souza
Tive a mesma dúvida, ja que não temos um parâmetro de comparação.
Helmut
Quanto é "muito mais tempo"?
Juan Lourenço
Uma das espertezas visíveis e que ele não deixa pixels muito contrastados no meio do nada, melhor amenizar e ainda ganhar uns bytes