Microsoft desenvolve chip próprio para economizar em treinamento de IA
Mercado de chips para inteligência artificial é atualmente dominado pela Nvidia, mas Microsoft, Google e Amazon buscam alternativas caseiras
Mercado de chips para inteligência artificial é atualmente dominado pela Nvidia, mas Microsoft, Google e Amazon buscam alternativas caseiras
A Microsoft investiu bilhões de dólares em inteligência artificial nos últimos anos — e, ao que tudo indica, isso não ficou limitado ao software. A gigante de Redmond está preparando um chip dedicado à IA, de codinome Athena.
A notícia vem de uma reportagem do site The Information, que ouviu duas pessoas com acesso aos bastidores da empresa. Segundo elas, o desenvolvimento começou em 2019.
Atualmente, o chip de IA vem sendo testado por um pequeno grupo de funcionários da Microsoft e da OpenAI.
Dado o sucesso do ChatGPT, a Microsoft estaria, inclusive, acelerando o desenvolvimento. Nos últimos meses, a empresa incorporou recursos de inteligência artificial em vários de seus produtos, como o Bing e o Microsoft 365.
Estes chips serão usados para treinar os grandes modelos de linguagem (também conhecidos pela sigla em inglês LLM) e dar suporte a inferências.
Os dois processos são cruciais para inteligências artificiais generativas, como o GPT, usado no ChatGPT. Eles envolvem o processamento de quantidades enormes de dados para reconhecer padrões.
Atualmente, a Nvidia domina o mercado dos chips que são usadas nessas tarefas. A Microsoft espera que seu chip próprio entregue um desempenho melhor e saia mais barato. Assim, o desenvolvimento de inteligências artificiais ficaria mais rápido e a um custo menor.
Ela não foi a única a ter essa ideia. Amazon e Google também estão criando seus chips para inteligência artificial.
No começo de abril, o Google anunciou uma fornada de novos supercomputadores, que serão usados para treinar seus modelos de inteligência artificial.
Eles usam um chip customizado, chamado Tensor Processing Unit, ou TPU. A empresa diz que eles são mais rápidos e eficientes que o A100 da Nvidia.
Já a Amazon, por meio de sua divisão Amazon Web Services, lançou, em dezembro de 2022, três novas instâncias de cloud computing. Estes servidores usam chips customizados pela empresa.
Com informações: The Information, Reuters