Microsoft desenvolve chip próprio para economizar em treinamento de IA

Mercado de chips para inteligência artificial é atualmente dominado pela Nvidia, mas Microsoft, Google e Amazon buscam alternativas caseiras

Giovanni Santa Rosa
Por
Chip de computador
Chip de computador (Imagem: Alexandre Debieve/Unsplash)

A Microsoft investiu bilhões de dólares em inteligência artificial nos últimos anos — e, ao que tudo indica, isso não ficou limitado ao software. A gigante de Redmond está preparando um chip dedicado à IA, de codinome Athena.

A notícia vem de uma reportagem do site The Information, que ouviu duas pessoas com acesso aos bastidores da empresa. Segundo elas, o desenvolvimento começou em 2019.

Atualmente, o chip de IA vem sendo testado por um pequeno grupo de funcionários da Microsoft e da OpenAI.

Dado o sucesso do ChatGPT, a Microsoft estaria, inclusive, acelerando o desenvolvimento. Nos últimos meses, a empresa incorporou recursos de inteligência artificial em vários de seus produtos, como o Bing e o Microsoft 365.

Estes chips serão usados para treinar os grandes modelos de linguagem (também conhecidos pela sigla em inglês LLM) e dar suporte a inferências.

Os dois processos são cruciais para inteligências artificiais generativas, como o GPT, usado no ChatGPT. Eles envolvem o processamento de quantidades enormes de dados para reconhecer padrões.

Mercado de chips de IA deve ficar mais concorrido

Atualmente, a Nvidia domina o mercado dos chips que são usadas nessas tarefas. A Microsoft espera que seu chip próprio entregue um desempenho melhor e saia mais barato. Assim, o desenvolvimento de inteligências artificiais ficaria mais rápido e a um custo menor.

Ela não foi a única a ter essa ideia. Amazon e Google também estão criando seus chips para inteligência artificial.

No começo de abril, o Google anunciou uma fornada de novos supercomputadores, que serão usados para treinar seus modelos de inteligência artificial.

Eles usam um chip customizado, chamado Tensor Processing Unit, ou TPU. A empresa diz que eles são mais rápidos e eficientes que o A100 da Nvidia.

Já a Amazon, por meio de sua divisão Amazon Web Services, lançou, em dezembro de 2022, três novas instâncias de cloud computing. Estes servidores usam chips customizados pela empresa.

Com informações: The Information, Reuters

Receba mais sobre Microsoft na sua caixa de entrada

* ao se inscrever você aceita a nossa política de privacidade
Newsletter
Giovanni Santa Rosa

Giovanni Santa Rosa

Repórter

Giovanni Santa Rosa é formado em jornalismo pela ECA-USP e cobre ciência e tecnologia desde 2012. Foi editor-assistente do Gizmodo Brasil e escreveu para o UOL Tilt e para o Jornal da USP. Cobriu o Snapdragon Tech Summit, em Maui (EUA), o Fórum Internacional de Software Livre, em Porto Alegre (RS), e a Campus Party, em São Paulo (SP). Atualmente, é autor no Tecnoblog.

Relacionados