Intel revela os primeiros chips Nervana para inteligência artificial

Chamados de NNP-I (Spring Hill) e NNP-T (Spring Crest), novos chips otimizam redes neurais

Emerson Alecrim
Por
• Atualizado há 2 anos e 6 meses
Intel Nervana
Polly quer biscoito (dscp)

Graças ao evento Hot Chips 31, a semana está sendo bastante movimentada para a Intel. Além de anunciar oficialmente os processadores Comet Lake de décima geração e dar mais detalhes sobre o Lakefield, a companhia apresentou os chips da família Nervana Neural Network Processor (NNP), voltados à inteligência artificial.

Por ora, são dois chips: o NNP-I 1000 (codinome Spring Hill) e o NNP-T (Spring Crest). Ambos foram idealizados para acelerar sistemas baseados em inteligência artificial, mas cada um segue uma abordagem diferente.

Comecemos pelo NNP-I. Esse chip foi desenvolvido com foco em inferência (daí o ‘I’ no nome), o que significa ele deve executar de modo otimizado tarefas de redes neurais já treinadas.

Já o NNP-T tem como foco o treinamento, isto é, o trabalho de ensinar a rede neural a processar dados de acordo com determinados conjuntos de regras e condições.

Frequentemente, o treinamento de redes neurais exige grande capacidade computacional, por isso, o NNP-T foi projetado para ser altamente escalável. Várias unidades do chip podem ser colocadas para trabalhar em conjunto com relativa facilidade.

Intel NNP-T

Intel NNP-T

O NNP-T tem como base um chip de 16 nanômetros da TSMC (pois é). Ele pode lidar com até 32 GB de memória HBM2 (quatro módulos de 8 GB) e vem com 24 TPCs (Tensor Processing Clusters), além de 60 MB de cache (se somados os caches de todos os seus núcleos).

Já o NNP-I tem especificações mais simples. Ele é baseado em um processador Ice Lake de 10 nanômetros: aqui, a GPU e dois núcleos da CPU foram retirados para dar lugar a 12 aceleradores ICE (Inference Compute Engine) que, como o nome indica, são direcionados às tarefas de inferência.

Completam as especificações do NNP-I dois núcleos Ice Lake (de arquitetura Sunny Cove) para inteligência artificial que são acompanhados de 24 MB de cache L3. Ambos lidam com instruções AVX-512 VNNI, que são muito usadas em redes neurais.

Intel NNP-I

Intel NNP-I

A lógica aqui é relativamente simples: o NNP-I lida com tarefas de inferência simples e que, portanto, demandam menos energia — o TDP varia entre 10 e 50 W aqui; já o NNP-T deve entrar em ação nas tarefas mais pesadas, que envolvem aprendizagem profunda, por exemplo. Isso explica o fato de o seu TDP variar entre 150 e 250 W.

Amostras dos chips Nervana já foram enviadas a companhias como Baidu e Facebook. A produção em larga escala deve começar até o fim do ano, pelo menos para os chips NNP-I.

Vale destacar que esse projeto foi possível porque a Intel comprou a Nervana Systems, em 2016. Os chips foram projetados na unidade da Intel em Haifa, Israel.

Com informações: ExtremeTech, Tom’s Hardware.

Receba mais notícias do Tecnoblog na sua caixa de entrada

* ao se inscrever você aceita a nossa política de privacidade
Newsletter
Emerson Alecrim

Emerson Alecrim

Repórter

Emerson Alecrim cobre tecnologia desde 2001 e entrou para o Tecnoblog em 2013, se especializando na cobertura de temas como hardware, sistemas operacionais e negócios. Formado em ciência da computação, seguiu carreira em comunicação, sempre mantendo a tecnologia como base. Em 2022, foi reconhecido no Prêmio ESET de Segurança em Informação. Em 2023, foi reconhecido no Prêmio Especialistas, em eletroeletrônicos. Participa do Tecnocast, já passou pelo TechTudo e mantém o site Infowester.

Canal Exclusivo

Relacionados