Um trio de cientistas da Universidade de São Diego, nos EUA, concluiu que os servidores do mundo inteiro processaram trilhões de dados por ano. Até aí, qualquer pessoa com um conhecimento básico de internet consegue deduzir, certo? Mas eles descobriram que esse número gira em torno de 9.570.000.000.000.000 bytes de dados processados, e apenas no ano de 2008. Sim, o estudo demorou para ser concluído, o que me diz que o número é mesmo bem preciso.
A conclusão do estudo, escrito pelos cientistas James Short, Roger Bohn e Chaitanya Baru, vai ser apresentada hoje em uma convenção nos EUA e estima que esses dados foram gerados por mais de 27 milhões de servidores espalhados ao redor do mundo. Para se ter uma ideia da quantidade de dados que estamos falando aqui, 12 exabytes é o espaço que seria necessário para armazenar todas as informações criadas pela humanidade até o ano 1999. E 1024 EB equivalem a 1 ZB, então que tal essa perspectiva?
Eles também analisaram o custo médio dos servidores que processam esses dados e descobriram que mais de 6,31 zettabytes de dados são processados por servidores de pequeno porte, 2,8 são processados por servidores de médio porte e apenas 0,451 dos dados são criados por servidores mais parrudos, com alto poder de processamento. “Muitos desses dados são criados, processados e descartados sem sequer serem visualizados” afirma um dos cientistas.
Leia mais | Por dentro do data center do UOL Host
Leia mais | Conheça o data center da Locaweb
Para exemplificar ainda mais o quanto de dados, os cientistas dizem que seria necessário empilhar o maior livro já escrito por Stephen King da Terra até Netuno, indo e voltando 20 vezes, para chegar a uma quantidade equivalente.
Com informações: Engadget, Physorg. Imagem sob licença CC do usuário nnova no Flickr.