technology

O novo chip monstro de CPU + GPU da Nvidia pode alimentar a próxima geração de chatbots de IA

.

GH200 da NVIDIA
Prolongar / Superchip AI GH200 “Grace Hopper” da NVIDIA.

nvidia

No início da semana passada na COMPUTEX, a Nvidia anunciou que seu novo GH200 Grace Hopper “Superchip” – uma combinação de CPU e GPU criada especificamente para aplicativos de IA em larga escala – entrou em produção total. É uma besta. Possui 528 núcleos tensores de GPU, suporta até 480 GB de CPU RAM e 96 GB de GPU RAM e possui uma largura de banda de memória GPU de até 4 TB por segundo.

Anteriormente, cobrimos o chip Nvidia H100 Hopper, que atualmente é a GPU de data center mais poderosa da Nvidia. Ele alimenta modelos de IA como o ChatGPT da OpenAI e marcou uma atualização significativa em relação ao chip A100 de 2020, que impulsionou a primeira rodada de treinamentos para muitos dos chatbots de IA generativos e geradores de imagens sobre os quais estamos falando hoje.

GPUs mais rápidas traduzem-se aproximadamente em modelos de IA generativos mais poderosos porque podem executar mais multiplicações de matrizes em paralelo (e fazê-lo mais rapidamente), o que é necessário para o funcionamento das redes neurais artificiais de hoje.

O GH200 pega essa base “Hopper” e a combina com a plataforma de CPU “Grace” da Nvidia (ambos nomeados em homenagem à pioneira em computadores Grace Hopper), rolando-a em um chip por meio da tecnologia de interconexão chip-to-chip (C2C) NVLink da Nvidia. A Nvidia espera que a combinação acelere drasticamente os aplicativos de IA e aprendizado de máquina tanto no treinamento (criação de um modelo) quanto na inferência (execução).

“A IA generativa está transformando rapidamente os negócios, abrindo novas oportunidades e acelerando a descoberta em saúde, finanças, serviços empresariais e muitos outros setores”, disse Ian Buck, vice-presidente de computação acelerada da Nvidia, em um comunicado à imprensa. “Com os Grace Hopper Superchips em plena produção, os fabricantes em todo o mundo em breve fornecerão as empresas de infraestrutura acelerada necessárias para construir e implantar aplicativos de IA generativos que alavancam seus dados proprietários exclusivos”.

De acordo com a empresa, os principais recursos do GH200 incluem uma nova interface de memória coerente (compartilhada) de 900 GB/s, que é sete vezes mais rápida que o PCIe Gen5. O GH200 também oferece largura de banda de memória do sistema agregada 30 vezes maior para a GPU em comparação com a já mencionada Nvidia DGX A100. Além disso, o GH200 pode executar todas as plataformas de software da Nvidia, incluindo Nvidia HPC SDK, Nvidia AI e Nvidia Omniverse.

Notavelmente, a Nvidia também anunciou que construirá esse chip combinado de CPU/GPU em um novo supercomputador chamado DGX GH200, que pode utilizar a potência combinada de 256 chips GH200 para funcionar como uma única GPU, fornecendo 1 exaflop de desempenho e 144 terabytes. de memória compartilhada, quase 500 vezes mais memória do que a geração anterior Nvidia DGX A100.

O DGX GH200 será capaz de treinar modelos gigantes de IA de próxima geração (GPT-6, alguém?) Para aplicativos de linguagem generativa, sistemas de recomendação e análise de dados. A Nvidia não anunciou o preço do GH200, mas de acordo com a Anandtech, um único computador DGX GH200 “vai custar facilmente algo em torno de 8 dígitos”.

No geral, é razoável dizer que, graças aos avanços contínuos de hardware de fornecedores como Nvidia e Cerebras, os modelos de IA em nuvem de ponta provavelmente continuarão a se tornar mais capazes ao longo do tempo, processando mais dados e muito mais rápido do que antes. Vamos apenas esperar que eles não discutam com jornalistas de tecnologia.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo