Intel revela os primeiros chips Nervana para inteligência artificial
Chamados de NNP-I (Spring Hill) e NNP-T (Spring Crest), novos chips otimizam redes neurais
Chamados de NNP-I (Spring Hill) e NNP-T (Spring Crest), novos chips otimizam redes neurais
Graças ao evento Hot Chips 31, a semana está sendo bastante movimentada para a Intel. Além de anunciar oficialmente os processadores Comet Lake de décima geração e dar mais detalhes sobre o Lakefield, a companhia apresentou os chips da família Nervana Neural Network Processor (NNP), voltados à inteligência artificial.
Por ora, são dois chips: o NNP-I 1000 (codinome Spring Hill) e o NNP-T (Spring Crest). Ambos foram idealizados para acelerar sistemas baseados em inteligência artificial, mas cada um segue uma abordagem diferente.
Comecemos pelo NNP-I. Esse chip foi desenvolvido com foco em inferência (daí o ‘I’ no nome), o que significa ele deve executar de modo otimizado tarefas de redes neurais já treinadas.
Já o NNP-T tem como foco o treinamento, isto é, o trabalho de ensinar a rede neural a processar dados de acordo com determinados conjuntos de regras e condições.
Frequentemente, o treinamento de redes neurais exige grande capacidade computacional, por isso, o NNP-T foi projetado para ser altamente escalável. Várias unidades do chip podem ser colocadas para trabalhar em conjunto com relativa facilidade.
O NNP-T tem como base um chip de 16 nanômetros da TSMC (pois é). Ele pode lidar com até 32 GB de memória HBM2 (quatro módulos de 8 GB) e vem com 24 TPCs (Tensor Processing Clusters), além de 60 MB de cache (se somados os caches de todos os seus núcleos).
Já o NNP-I tem especificações mais simples. Ele é baseado em um processador Ice Lake de 10 nanômetros: aqui, a GPU e dois núcleos da CPU foram retirados para dar lugar a 12 aceleradores ICE (Inference Compute Engine) que, como o nome indica, são direcionados às tarefas de inferência.
Completam as especificações do NNP-I dois núcleos Ice Lake (de arquitetura Sunny Cove) para inteligência artificial que são acompanhados de 24 MB de cache L3. Ambos lidam com instruções AVX-512 VNNI, que são muito usadas em redes neurais.
A lógica aqui é relativamente simples: o NNP-I lida com tarefas de inferência simples e que, portanto, demandam menos energia — o TDP varia entre 10 e 50 W aqui; já o NNP-T deve entrar em ação nas tarefas mais pesadas, que envolvem aprendizagem profunda, por exemplo. Isso explica o fato de o seu TDP variar entre 150 e 250 W.
Amostras dos chips Nervana já foram enviadas a companhias como Baidu e Facebook. A produção em larga escala deve começar até o fim do ano, pelo menos para os chips NNP-I.
Vale destacar que esse projeto foi possível porque a Intel comprou a Nervana Systems, em 2016. Os chips foram projetados na unidade da Intel em Haifa, Israel.
Com informações: ExtremeTech, Tom’s Hardware.