Início » Ciência » Microsoft testa com sucesso datacenter mergulhado no mar

Microsoft testa com sucesso datacenter mergulhado no mar

Datacenter subaquático do Project Natick ficou mais de um ano no mar e trouxe resultados animadores para Microsoft

Emerson Alecrim Por

Em 2015, a Microsoft Research deu início ao Project Natick, um inusitado experimento que levou um datacenter funcional para dentro do mar. São quase cinco anos de pesquisa, mas a paciência é uma virtude: agora que mais uma fase de testes foi finalizada, a companhia concluiu que datacenters subaquáticos são confiáveis e práticos.

Microsoft Project Natick - datacenter

A primeira fase do projeto consistiu no envio de uma espécie de contêiner para dentro do mar na região litorânea da Califórnia. Após 105 dias de mergulho, o protótipo foi retirado da água e avaliado em vários aspectos.

Os pesquisadores ficaram satisfeitos com o que constataram. Os computadores instalados em um rack dentro do equipamento funcionavam normalmente. Além disso, eles não identificaram vazamentos, infiltrações, corrosão interna e outros problemas do tipo.

Mas era preciso fazer o projeto avançar. Em meados de 2018, a Microsoft enviou outra cápsula para o mar — um gigantesco tubo de aço preenchido com nitrogênio, basicamente —, dessa vez em uma região ao norte da Escócia. O novo contêiner, muito maior, comporta 12 racks com 864 servidores ao todo.

No começo de 2020, a Microsoft repetiu o procedimento: o datacenter subaquático foi retirado do mar e vinha, desde então, sendo estudado pelos pesquisadores do Project Natick. Novamente, os resultados foram animadores.

Os responsáveis pelo projeto acreditam que um contêiner devidamente lacrado lançado ao mar pode oferecer um ambiente mais confiável para datacenters do que as tradicionais instalações em terra. Ao que tudo indica, eles estão certos.

Nos prédios, “a corrosão por oxigênio e umidade, as variações de temperatura e os impactos proporcionados por pessoas que substituem componentes defeituosos estão entre as variáveis que podem contribuir para falhas de equipamento”, diz a Microsoft Research.

Dentro do mar, esses problemas não foram verificados. Na verdade, os pesquisadores concluíram que a cápsula criou um ambiente oito vezes mais confiável para um datacenter do que as instalações convencionais.

Os racks do datacenter subaquático

Os racks do datacenter subaquático

Eles ainda não sabem totalmente o que possibilitou tamanho nível de confiabilidade, mas o preenchimento do contêiner com nitrogênio (elemento muito menos corrosivo que o oxigênio) e a ausência de impacto proporcionada pela água do mar estão entres as hipóteses mais prováveis.

Outro detalhe importante: a operação do datacenter na cápsula resultou em consumo mais sustentável de energia. Isso se deve, em parte, às baixas temperaturas da água do oceano que, como tal, oferecem condições naturais de resfriamento para os computadores, dispensando a necessidade de ar condicionado.

O Project Natick continua. As próximas fases podem incluir o estudo de cápsulas maiores e a interligação entre elas, por exemplo.

Comentários da Comunidade

Participe da discussão
8 usuários participando

Os mais notáveis

Comentários com a maior pontuação

🤷‍♀️ (@xavier)

E como fica o bioma próximo a essa cápsula?
Se a água do mar que irá arrefecer todo o equipamento, invariavelmente aumenta a temperatura.

Com toda certeza eles devem ter feito estes estudos, porém nunca é noticiado isso, como e quais são os impactos externos.

Além disso, uma cápsula pode causar pouco impacto, mas e se essa prática se tornar padrão, com vários datacenters sendo subaquáticos?

imhotep (@imhotep)

É irrisório o impacto de 1 único datacenter.

Naturalmente, ao se instalar um parque, esse aspecto deverá ser analisado durante o processo de licenciamento ambiental.

Matheus Souza (@Matheus_Souza)

E quando um disco dá problema é precisa ser substituído?

 • 令和 • Ward'z de Souza 🇯🇵🎌🦊🔥 - Risonho e Límpido (@Wardz_de_souzA)

Os engenheiros usaram um conceito chamado Degradação Graciosa, onde os componentes de um sistema pode falhar sem comprometer o todo, e com isso projetaram um período sem manutenção para o datacentre de 5 anos.

Felipe Silva (@Felipe_Silva)

Substituir pra que, deixa o redundante operando, se o conjunto se degradar abaixo do ponto de não ser usável tu só desativa ele, mais barato depois de alguns anos montar um servidor novo do que ficar dando manutenção no velho, e parece que eles falham bem menos do que em um datacenter convencional.

Matheus Souza (@Matheus_Souza)

Se tu só tem o redundante, após a falha, tu perde a redundância, sem contar que manutenção em datacenter é algo contínuo, nenhuma empresa somente instala o hardware novo e espera até acabar a garantia.

E se tu tem que aumentar a redundância o custo dessa solução acaba ficando cada vez maior e cada vez mais inviável…

Ainda vejo essa solução apenas como uma prova de que é possível mas que não é viável…
Tipo carros voadores hoje em dia…

🤷‍♀️ (@xavier)

Você por acaso chegou a ler a matéria?

Na verdade, os pesquisadores concluíram que a cápsula criou um ambiente oito vezes mais confiável para um datacenter do que as instalações convencionais.

Se normalmente ocorre uma falha a cada 2 meses, submerso, a mesma falha ocorrerá em torno de 16 meses. Se a redundância desta falha falhar no mesmo período de tempo, quer dizer que ainda continuaria operante por 32 meses, pouco mais de 2 anos e meio.

E não estou questionando o seu conhecimento em projetar datacenters, mas eu acho que o time da Microsoft deve ser minimamente capaz de entender como funciona redundância, não?

Felipe Silva (@Felipe_Silva)

Cluster de armazenamento tem capacidade de redundância adaptativa, o gerenciamento de RAID é por software e não por hardware, então se tu tem um conjunto de 10 discos com 2 de paridade e um dos discos falhar, tu pode migrar o sistema pra outro cluster, isolar o disco com defeito naquele cluster e recriar o raid agora com 9 discos e 2 de paridade novamente, sendo que perde um pouco de espaço, mas não perde a segurança.

Existem muitas soluções de gerenciamento que não envolvem ir lá no servidor e aperta o botão de reset ou arrancar o disco com defeito e colocar um novo.

² (@centauro)

Quem projeta, sim.
Quem dá a canetada pra liberar o projeto e só vê os custos, não necessariamente.

Matheus Souza (@Matheus_Souza)

Vou ignorar o tom agressivo e acreditar que não foi essa a intenção

Sim, li a matéria, mas também entendo que a empresa que projeta os equipamentos tem uma determinada tolerância a falhas e que elas podem ocorrer, entendo que o time da Microsoft fez de tudo para minimizar que o ambiente do datacenter submerso seja 8x melhor que um datacenter comum, porém nada impede de um disco vibrando ao lado de dezenas de outros discos apresente alguma falha, e a Microsoft não pode fazer nada em relação à isso.

O meu questionamento continua válido, em caso de uma peça defeituosa apresentar um problema, a substituição de tal acaba sendo impossível por causa da inviabilidade de parar totalmente o seu datacenter pra trocar um mísero HD, fonte ou placa de rede defeituoso e que agora compromete totalmente a redundância do seu sistema.

Vejo que pra isso ao invés de tu projetar o sistema como atualmente em que tu define a redundância necessária mínima pois tu pode facilmente substituir algum dispositivo que por ventura venha a falhar, tu teria que comprar mais hardware pensando em todas as falhas que podem ocorrer ao longo do tempo total em que o teu datacenter inteiro ficará submerso, fazendo com que o custo de aquisição do teu equipamento seja maior, além do fato de que provavelmente essa solução da Microsoft não terá um preço competitivo com datacenter tradicionais em que tu pode entrar no prédio e dar manutenção

Matheus Souza (@Matheus_Souza)

Então, ou tu projeta o teu sistema com discos a mais pra ficarem disponíveis em caso de falha, ou tu perde capacidade de crescimento…

É algo que quem optar por essa solução terá que colocar no projeto

Felipe Silva (@Felipe_Silva)

Ai que tá a beleza da computação em nuvem, tua aplicação não está limitada a um servidor em especifico, se precisa desabilitar disco daquele servidor tu só move a aplicação para outro ao lado, ou mesmo em outro conteiner submarino, com um problema de indisponibilidade minimo e usa aquele com agora menos capacidade para uma aplicação que use menos espaço.

Isso sem falar dos sistemas de arquivo distribuído que rodam em cima de múltiplos raid em múltiplos servidores inclusive eles podendo estar em lugares fisicamente distantes, hoje em dia tem soluções de software pra lidar com todos esses tipos de problema em data center.

² (@centauro)

Eu acho que o ponto mais é que um datacenter submarino é projetado para ser uma estrutura de “uso único” digamos assim (ou pelo menos parece ser).
Os discos vão falhando lá e eles não podem ser trocados. Eventualmente todos os discos falharão e o datacenter inteiro será abandonado ao invés de você trocar os discos com falha e continuar usando a estrutura do data center.