OpenAI, do ChatGPT, quer fazer seus próprios chips para gastar menos

OpenAI, que também criou o Dall-E, avalia desenvolver processador próprio para depender menos da Nvidia e reduzir custos

Giovanni Santa Rosa

Inteligências artificiais como ChatGPT e Dall-E são impressionantes, mas por trás de tanta capacidade, existe um trabalho pesado de processamento, principalmente na fase de treinamento dos modelos. Por isso, a OpenAI, desenvolvedora dessas duas ferramentas, estaria considerando fazer seus próprios chips.

As discussões internas teriam começado no ano passado, como forma de resolver a escassez e o alto preço dos equipamentos necessários para as atividades de inteligência artificial, um mercado dominado pela Nvidia.

Nvidia T400, uma placa de vídeo com 384 núcleos CUDA (imagem: Emerson Alecrim/Tecnoblog)
Nvidia T400, uma placa de vídeo com 384 núcleos CUDA (imagem: Emerson Alecrim/Tecnoblog)

Segundo reportagem da Reuters, a OpenAI estaria considerando até mesmo comprar uma fabricante de chips. No entanto, a empresa ainda não bateu o martelo sobre qual será sua decisão.

Outras opções seriam desenvolver seu próprio chip de forma “caseira”, trabalhar de forma mais próxima a fabricantes ou diversificar os fornecedores.

Nvidia domina o mercado de chips para IA

Hoje, o principal nome do mercado é a Nvidia. Seus processadores gráficos, que eram usados principalmente para games e aplicações de vídeo, são a melhor opção para as tarefas de inteligência artificial. Ela controla mais de 80% deste mercado.

Nos últimos meses, A Nvidia entrou para o seletíssimo grupo das empresas com mais de US$ 1 trilhão de valor de mercado, se juntando a Alphabet (Google), Amazon, Apple e Microsoft. Ela também teve recorde de receitas e lucro de US$ 6 bilhões no segundo trimestre de 2023.

A OpenAI desenvolveu suas tecnologias usando um supercomputador desenvolvido pela Microsoft com 10 mil GPUs da Nvidia. A Microsoft é uma das maiores investidoras da OpenAI e aproveitou vários modelos de inteligência artificial em seus produtos, como Bing e Office.

ChatGPT é caro (e pode ficar ainda mais)

Desenvolver os próprios chips pode ser uma forma de cortar custos. Segundo estimativas, cada pedido feito ao ChatGPT custa US$ 0,04 (algo próximo de R$ 0,21).

O mercado estima que, caso o ChatGPT chegue a 10% do volume de buscas do Google, precisaria gastar US$ 48,1 bilhões em GPUs inicialmente e US$ 16 bilhões anualmente para manter as operações.

O movimento da OpenAI não seria inédito. Google e Amazon, por exemplo, já empregam chips customizados para IA. Eles estão presentes nos serviços oferecidos por Google Cloud e Amazon Web Services. A Meta também tentou fazer isso, mas não teve resultados satisfatórios.

Com informações: Reuters

Relacionados

Escrito por

Giovanni Santa Rosa

Giovanni Santa Rosa

Repórter

Giovanni Santa Rosa é formado em jornalismo pela ECA-USP e cobre ciência e tecnologia desde 2012. Foi editor-assistente do Gizmodo Brasil e escreveu para o UOL Tilt e para o Jornal da USP. Cobriu o Snapdragon Tech Summit, em Maui (EUA), o Fórum Internacional de Software Livre, em Porto Alegre (RS), e a Campus Party, em São Paulo (SP). Atualmente, é autor no Tecnoblog.