.
Computex Não contente em revelar seu supercomputador DGX GH200 AI na Computex, a Nvidia disse que está envolvida em vários outros supercomputadores direcionados ao processamento de IA, incluindo um em Israel e dois em Taiwan.
Como parte do anúncio em torno de sua Nvidia Spectrum-X Networking Platform, a gigante da GPU disse que pretende construir um sistema de “plano e teste” para mostrar a tecnologia. Isso será conhecido como Israel-1 e descrito como um supercomputador AI gerador de hiperescala, que será implantado em seu centro de dados israelense.
Ao contrário de alguns outros sistemas divulgados, este será baseado na tecnologia HGX H100 existente da Nvidia, BlueField-3 DPUs e construído usando servidores Dell PowerEdge XE9680.
O próprio Spectrum-X é baseado no emparelhamento do switch Ethernet Spectrum-4 da Nvidia com DPUs BlueField-3. Afirma-se que o Spectrum-4 fornece 64 portas de Ethernet de 800 Gbps, enquanto esses DPUs usam RDMA sobre Ethernet convergente (RoCE) para aumentar as transferências de dados.
De acordo com Os tempos de Israelespera-se que este sistema “blueprint and testbed” seja capaz de um desempenho de até 8 exaflops, o que o tornaria um dos supercomputadores de IA mais rápidos do mundo quando estiver online em algum momento no final de 2023.
“O Spectrum-X é uma nova classe de rede Ethernet que remove barreiras para cargas de trabalho de IA de próxima geração que têm o potencial de transformar setores inteiros”, disse Gilad Shainer, vice-presidente sênior de redes da Nvidia, em comunicado.
O Taipei-1 também será construído e operado pela Nvidia e baseado em sua tecnologia H100. Neste caso, serão 64 sistemas DGX H100, mais 64 sistemas OVX. Cada DGX H100 inclui 8 das GPUs H100, baseadas na arquitetura Hopper da Nvidia, enquanto a OVX possui GPUs L40 baseadas na arquitetura Ada Lovelace.
Também baseado em Taiwan estará o Taiwania 4, que será construído pela Asus e localizado no National Center for High-Performance Computing (NCHC). Isso será baseado no Nvidia Grace CPU Superchip, que combina duas matrizes de processador baseadas em Arm para um total de 144 núcleos de computação. Entende-se que o Taiwania 4 compreenderá 44 nós, conectados usando a interconexão Quantum-2 InfiniBand da Nvidia.
Enquanto isso, a Asus também planeja oferecer servidores AI baseados no hardware DGX da Nvidia. De acordo com Bloomberg, o AFS Appliance será oferecido no modelo de assinatura, mas instalado nas próprias instalações do cliente. Isso permite que as organizações aproveitem os modelos de IA generativa, mantendo o controle sobre seus dados, em vez de criar aplicativos na nuvem.
No entanto, isso tem um preço: o AFS Appliance com Nvidia DGX provavelmente custará cerca de US $ 10.000 por mês, embora a Asus tenha dito à Bloomberg que pretende ter de 30 a 50 clientes corporativos em Taiwan e expandir internacionalmente até o final deste ano.
Esta notícia segue-se ao anúncio ontem da DGX GH200 Supercomputador de IA, com 256 superchips Grace-Hopper integrados à tecnologia NVLink da Nvidia, além de uma arquitetura de referência para servidores que usam seus aceleradores conhecidos como MGX.
Todo esse frenesi de interesse em torno da IA, especialmente a última geração de modelos de linguagem grande (LLMs) e IAs generativas ajudou a alimentar a demanda por produtos da Nvidia, com o resultado de que o GPU-flinger atingiu um valor de mercado de trilhões de dólares, de acordo com para Reuters.
Esta reviravolta segue as notícias no início deste mês que o CEO Jen-Hsun Huang viu sua remuneração cair 10% devido ao não cumprimento das metas financeiras para o ano fiscal de 2023, encerrado em janeiro. ®
.