technology

Para quem são os Xeons de 4ª geração da Intel? • Strong The One

.

Análise Depois de incontáveis ​​atrasos, os tão esperados processadores Sapphire Rapids Xeon Scalable da Intel finalmente chegaram, mas para quem eles são?

Os Xeons de 4ª geração da Intel estão sendo lançados no mercado indiscutivelmente mais competitivo Mercado de CPU pelo menos nas últimas duas décadas. A AMD não é mais a única ameaça. A Ampere ganhou participação constante entre os parceiros de nuvem, hiperescala e OEM, a Amazon apostou tudo no Graviton e as CPUs Grace de primeira geração da Nvidia estão chegando.

A Intel pode estar adotando um chiplet, mas o fato de estarem fazendo isso com uma arquitetura mesh… é positivo e negativo

No papel, a Intel Xeons de 4ª geração área façanha de engenharia. Eles não são apenas os primeiros da Intel a usar uma arquitetura de chiplet ou apresentar memória de alta largura de banda integrada, mas também são os primeiros processadores a oferecer suporte a DDR5, PCIe 5.0 e Compute Express Link (CXL). E se eles tivessem sido lançados dentro do cronograma no final de 2021, poderia ter sido a virada de jogo que a Intel estava procurando para derrotar os avanços da AMD. Mas isso não aconteceu.

Graviton3 de 64 núcleos da Amazon bater Intel chega ao mercado com suporte a DDR5 e PCIe 5.0, enquanto AMD Epyc 4 de 96 núcleos adicionado suporte CXL dois meses antes da Intel. Até os próximos lançamentos da Nvidia CPUs Graciosas têm mais núcleos – 72 por die, até 144 por pacote – do que o carro-chefe da Intel.

Então, neste mercado de CPU cada vez mais lotado, onde a Intel se encaixa e para quem são esses chips?

Tudo sobre os aceleradores

Em seu marketing, a Intel se concentrou fortemente em otimizações de carga de trabalho para 5G, inferência de IA, HPC e cargas de trabalho de banco de dados, exibindo mais de 50 SKUs em quase uma dúzia de categorias de produtos.

Essa ênfase não é tão surpreendente. Esses chips otimizados para cargas de trabalho são uma série de blocos aceleradores especializados para acelerar cargas de trabalho criptográficas, analíticas, de IA e de streaming de dados. Na maioria dos SKUs, os clientes que não puderem aproveitar os recursos agora poderão desbloqueá-los posteriormente, por uma taxa adicional.

Os motivos da Intel para buscar silício otimizado para carga de trabalho remontam a quando Sapphire Rapids entrou em desenvolvimento. Na época, o Epyc da AMD não era a ameaça de roubo de participação de mercado que é hoje. A Intel dominou os datacenters e ainda o faz, mas seu controle está escorregando.

Para a Intel, investir em blocos aceleradores especializados foi uma forma de crescer além da computação de uso geral e entrar em novos segmentos de mercado, muitos dos quais há muito tempo contam com placas aceleradoras especializadas ou FPGAs. A ideia é que as CPUs da Intel podem ser mais caras, mas seriam mais baratas e consumiriam menos energia do que rodar uma CPU e um acelerador dedicado.

Se você está se perguntando por que a AMD não adotou aceleradores de função fixa em seus chips, até recentemente a empresa concentrou grande parte de sua energia em ganhar participação no segmento de computação de propósito geral mainstream com seus grandes processadores Epyc de núcleo pesado. .

Pelo que podemos dizer, a AMD também teve bastante sucesso, acumulando vitórias entre provedores de nuvem e hiperescaladores. Para a AMD, essa estratégia faz muito sentido porque a maioria das cargas de trabalho existentes não tiram ou não podem aproveitar esses tipos de aceleradores ainda.

“Eu diria que cerca de 60 ou 70 por cento da maioria dos clientes, eles realmente não vão utilizar esse tipo de recurso”, explicou Bill Chen, chefe de gerenciamento de produto de servidor da Supermicro. Strong The One sobre os aceleradores personalizados da Intel.

Com isso dito, não demorará muito para começarmos a ver chips otimizados para carga de trabalho da AMD também. Seus chips Bergamo de 128 núcleos, otimizados para cargas de trabalho nativas da nuvem, serão lançados este ano, enquanto o Team Red tem um chip focado em telecomunicações chamado Siena em desenvolvimento. E por causa de como a arquitetura de chiplet da AMD foi implementada, não seria surpreendente ver a AMD começar a lançar chiplets derivados do Xilinx ou do Pensando em suas CPUs para aceleração de I/O ou I/O.

Você provavelmente já adivinhou a pegadinha. Como a maioria dos aceleradores, eles só são úteis se seu software for otimizado para usá-los. Para as cargas de trabalho que podem, os analistas dizem Strong The Oneos Xeons de 4ª geração da Intel devem ter um bom desempenho.

“Espero que o Sapphire Rapids se saia extremamente bem em cargas de trabalho que a Intel está acelerando com seus blocos de função fixos”, disse Patrick Moorhead, analista principal da Moor Insights & Strategy. “Isso inclui inferência de IA de baixa latência, criptografia, streaming de dados, consultas de banco de dados de memória, criptografia e vRAN”.

E, embora demorem para se integrar a plataformas de software populares, Dylan Patel, da SemiAnalysis, conta Strong The One que o Advanced Matrix Extensions (AMX) da Intel deve estar entre os aceleradores mais fáceis de implementar.

O AMX foi projetado para acelerar modelos de aprendizado profundo, como processamento de linguagem natural e sistemas de recomendação, e complementar o conjunto de instruções AVX 512 existente da Intel. A nova extensão AI ainda precisa ser chamada pelo software, mas já existe suporte de software para essas extensões, explicou. “Se você treinou um modelo de IA, não há muito trabalho” a ser feito.

E, embora não seja um acelerador em si, os SKUs Xeon Max empilhados em HBM da Intel sem dúvida encontrarão um lar em aplicativos HPC. O supercomputador Aurora do Argonne National Lab, atualmente em desenvolvimento, está entre os primeiros clientes da Intel. Até a divisão de produtos Cray da HPE quebrou a tradição para oferecer uma série de novos sistemas baseados no Sapphire Rapids da Intel, quebrando uma longa tradição de usar peças AMD Epyc.

Os bancos de dados continuam sendo um reduto da Intel

Olhando além dos aceleradores dedicados, Patel espera que a Intel continue a vender bem entre aqueles que executam grandes bancos de dados distribuídos e em memória, como os oferecidos pela SAP e Oracle.

A Intel há muito tem uma vantagem arquitetônica sobre o Epyc da AMD nesse aspecto, e ele espera que continue assim mesmo com a mudança da Intel para uma arquitetura chiplet.

“A Intel pode estar optando pelo chiplet, mas o fato de estar fazendo isso com uma arquitetura mesh… é tanto positivo quanto negativo”, disse ele. “O negativo é que eles não serão capazes de escalar para tantos núcleos e custará mais energia para escalar na contagem de núcleos, mas o positivo é que eles têm essas vantagens em determinadas cargas de trabalho”.

Patel explica que a Intel conseguiu manter a latência chiplet-a-chiplet relativamente baixa, em parte porque eles estão presos a um sistema de interconexão em malha. Isso, explica ele, torna o Sapphire Rapids menos escalável do que o Epyc da AMD, mas permite que ele mantenha uma latência mais previsível entre todos os vários núcleos, independentemente de qual matriz eles ocupam.

Em comparação, a AMD usa várias matrizes de oito núcleos — até 12 no Genoa — que oferecem latência sólida na matriz, mas não funcionam tão bem para cargas de trabalho que abrangem vários chiplets.

Como resultado, “alguns aplicativos de banco de dados continuarão a ser melhores na Intel”, disse Patel.

Menos núcleos, mais soquetes

Essencialmente, todas as plataformas de CPU atuais e futuras oferecem contagens de núcleos mais altas do que os Xeons de alta especificação da Intel – pelo menos em um nível de soquete. No nível da plataforma, a Intel ainda é incontestável, com a escalabilidade do Sapphire Rapids para até oito soquetes.

Por exemplo, no dia do lançamento, a Inspur Systems revelou um sistema 6U de oito soquetes com 128 slots DDR5 DIMM e projetado para bancos de dados principais de grande escala, como SAP HANA e cargas de trabalho de provedores de serviços em nuvem. Maximizado que funciona para 480 núcleos com 960 threads.

O Altra Max da Ampere e o Epyc 4 da AMD podem ter mais núcleos – 128 e 96 respectivamente – mas ambos são limitados a no máximo dois soquetes, o que significa que a configuração mais densa que você pode esperar é de 192 núcleos no caso da AMD e 256 núcleos na plataforma Altra Max.

Portanto, mesmo que você possa obter mais núcleos com outras plataformas, se estiver atrás de mais núcleos por sistema e não puder distribuir sua carga de trabalho em vários blades, os Xeons de 4ª geração da Intel ainda são o único jogo disponível.

Espere, essa coisa custa quanto?!?

Como você pode esperar, o suporte a uma configuração tão grande de vários soquetes tem um custo, e não estamos falando apenas de latência de memória. Os SKUs escaláveis ​​por soquete da Intel não são baratos. O Xeon de 60 núcleos de alta especificação da Intel tem um preço de varejo recomendado de US$ 17.000.

Para efeito de comparação, o Epyc 9654 de 96 núcleos topo de linha da AMD tem um preço de tabela de US$ 11.805, tornando-o mais de US$ 5.000 mais barato e com 44% a mais de núcleos.

Embora seja um pouco arriscado comparar os chips da Intel e da AMD sem entrar em benchmarks, podemos olhar para o preço por núcleo, uma métrica que os provedores de nuvem claramente valorizam dada quantidade de investimento eles fizeram nas CPUs Altra da Ampere nos últimos anos.

Para fazer uma comparação o mais justa possível, veremos as peças de 48 núcleos da Intel e da AMD. O 8468 da Intel tem um clock base de 2,1 GHz, um clock boost de 3,1 GHz para todos os núcleos e preço de tabela de US$ 7.214. Isso resulta em aproximadamente US $ 150 / núcleo.

Enquanto isso, o 9454 da AMD oferece o mesmo número de núcleos, mas com um clock base de 2,75 GHz, um clock de reforço de todos os núcleos de 3,65 GHz e um preço de tabela de US$ 5.225. Isso resulta em cerca de US $ 108 / núcleo.

O 8468 da Intel é uma peça orientada para o desempenho, então talvez a melhor comparação seja o 9474F da AMD, que tem um preço de tabela de $ 6.780. Onde as coisas desmoronam é quando você começa a olhar para as velocidades do clock. O clock base do 9474F é 500MHz mais alto que o boost all-core da Intel.

A situação não fica mais favorável para a Intel quando você compara um Xeon 8468 de soquete duplo com o Epyc 9654P de 96 núcleos de soquete único da AMD. Olhando apenas para o custo da CPU, a plataforma AMD é quase US$ 4.000 mais barata, enquanto ainda oferece velocidades de clock de todos os núcleos mais altas. Além do mais, supondo que nos atenhamos aos TDPs classificados de cada fornecedor, a plataforma AMD usará aproximadamente metade da energia.

Olhando apenas para cargas de trabalho de uso geral, Patel diz que a AMD tem uma clara vantagem aqui quando se trata do custo de propriedade e operação desses sistemas.

“É uma grande vantagem para o Genoa em termos de desempenho de potência e densidade”, disse ele. “Embora esses aceleradores sejam ótimos para um subconjunto de cargas de trabalho, o ponto importante é que… o padrão está rapidamente se tornando AMD, não Intel”

Momento estranho

O momento do lançamento do Sapphire Rapids também pode representar um desafio para os compradores. Dado quantos atrasos a plataforma enfrentou, os clientes seriam perdoados por esperar até o final deste ano para que a Intel resolvesse os problemas no Emerald Rapids.

“É um lançamento um pouco estranho, já que foi adiado tanto que os chips da próxima geração não estão tão longe”, disse Patel.

No entanto, Patel não acha que os clientes que desejam ou precisam mudar para a Intel devam necessariamente esperar. Emerald Rapids está se preparando para ser um refinamento sobre Sapphire Rapids. Além do mais, a próxima plataforma – supondo que seja lançada este ano – será uma substituição imediata para Sapphire Rapids. ®

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo