Início » Ciência » Algoritmo do Google reduz tamanho de imagens JPEG em 35% (e com qualidade melhor)

Algoritmo do Google reduz tamanho de imagens JPEG em 35% (e com qualidade melhor)

Por
17/03/2017 às 13h39
A nova extensão do Tecnoblog está pronta.Baixe Agora!

O Google desenvolveu um algoritmo de compressão que pode reduzir o tamanho dos arquivos JPEG até 35% mais que o método tradicional, sem prejudicar a qualidade da imagem — em alguns casos, o resultado pode ficar até melhor que o obtido atualmente. Chamado de Guetzli, ele foi liberado nesta quinta-feira (16) como um projeto de código aberto.

O JPEG é um formato de imagem bastante flexível: você pode escolher exatamente o nível de compressão ao salvar um arquivo em softwares especializados. A contrapartida é que, quanto menor o tamanho do arquivo, pior será a qualidade: trata-se de uma compressão com perdas, diferente do PNG, por exemplo, que diminui o espaço ocupado pelo arquivo, mas mantém todos os detalhes de cores.

Qual a mágica do Guetzli? Se você gostou de Silicon Valley, provavelmente vai se interessar por isso. Como informa o Google, a compressão de um arquivo JPEG depende de algumas etapas: transformações de espaço de cores (que é um modelo matemático para descrever cores), transformada discreta de cosseno (também adotada em outros formatos, como MP3) e quantização.

O principal culpado pela queda de qualidade no JPEG é o processo de quantização, que basicamente pega uma série de dados desordenados e organiza tudo em dados ordenados, que são mais fáceis de comprimir. Quanto mais agressivo for esse processo, pior será a qualidade do arquivo: detalhes das imagens são eliminados, e gradientes de cores perdem tons.

Mas o Google melhorou o processo com um novo modelo psicovisual que adota um algoritmo de busca e “aproxima a percepção de cor e os mascaramentos visuais de uma forma mais detalhada e minuciosa do que seria possível com simples transformações de cores e transformadas discretas de cosseno”. Segundo os pesquisadores, 75% das pessoas preferiram a compressão do Guetzli em detrimento do libjpeg.

Veja se você concorda com elas (imagens originais à esquerda, libjpeg no centro e Guetzli à direita):

Claro que há um ponto fraco: o Google diz que os algoritmos de busca “levam muito mais tempo para criar imagens comprimidas que os métodos disponíveis atualmente”. Mas os testes mostraram que humanos preferiram, de maneira consistente, o Guetzli ao libjpeg, mesmo quando os arquivos eram do mesmo tamanho ou maiores, por isso, o Google acha que a compressão mais lenta é uma contrapartida que vale a pena.

Eu também acho — ainda mais considerando que as páginas estão cada vez mais cheias de imagens, e estamos acessando cada vez mais a web por meio de conexões móveis, que nem sempre são rápidas. Vamos esperar até que os desenvolvedores adotem o novo algoritmo do Google em seus softwares de compressão. O código-fonte do Guetzli já está disponível no GitHub.

Mais sobre: , ,
  • Juan Lourenço

    Uma das espertezas visíveis e que ele não deixa pixels muito contrastados no meio do nada, melhor amenizar e ainda ganhar uns bytes

  • Helmut

    Quanto é “muito mais tempo”?

    • Tharcio Souza

      Tive a mesma dúvida, ja que não temos um parâmetro de comparação.

    • Guilherme

      Mais ou menos 20 minutos para comprimir uma imagem JPEG de 7,8 MB, utilizando um processador Intel i7-4790K. Para uma imagem de 1,4MB, levou 10 minutos usando este mesmo processador. Fonte:

      https://github.com/google/guetzli/issues/50

  • CtbaBr

    Como seria deixar a qualidade de uma imagem melhor que a original?
    E se o “aspecto pior” era o pretendido?

    • Magno Machado Paulo

      Não melhor que a original, melhor que a comprimida pelo método atual.

      • CtbaBr

        Não sei, fico na duvida a respeito!
        A principio parece ser algo muito bom… Desde de que isso não seja imposto de alguma forma, por exemplo, desde que o Google não comece fazer pressão para todos usem esse método, sendo opcional, perfeito!

        • Helmut

          WUT. Vamos com calma, eu não entendi o que você não entendeu da notícia.

          O que diabos você entendeu disso tudo?

          • CtbaBr

            Sobre a “compactação” e sobre a “noticia” não existe duvida!
            Existe duvida apenas se com isso o Google passara a pressionar os sites e blogs a usarem essa compactação, afinal hoje todos temem cair no PageRank do Google!

          • Guilherme

            Não entendo como você pensou por um segundo que o Google pressionasse as pessoas para usarem esse novo algoritmo…Mas respondendo a sua dúvida: não. Eles já criaram um formato melhor que o JPEG (WebP) e infelizmente não foi tão bem adotado.

          • CtbaBr

            Não sei, afinal isso nunca acontece, não é mesmo?
            Talvez seja os relatórios que ele gere, indicando que o site X possui um problema critico relacionado a compactação das imagens!

  • Finalmente a Google reservou um tempinho pra melhorar a web de verdade ao invés de anunciar mais resultados sintéticos fora da realidade sobre seu formato natimorto (WebP). Uso o mozjpeg quando preciso reduzir o peso de uma imagem, é o “compressor” mais promissor, mas a Mozilla deu uma estacionada no 3.1 🙁

  • Marcus Araújo

    “ainda mais considerando que as páginas estão cada vez mais cheias de imagens, e estamos acessando cada vez mais a web por meio de conexões móveis, que nem sempre são rápidas”

    Isso sem falar nas franquias, né? Uma bela forma de ganhar uns MB no final do mês.

  • Estou oferecendo aos meus clientes a possibilidade de converter todos seus JPEGs para o novo formato, automaticamente, sem intervenção manual. É demorado para trabalhar cada imagem (comparado à fração de segundos do jpegoptim), mas o resultado final é muito compensador.