Ciência e Tecnologia

AMD anuncia sua visão futura para data center e IA

.

A AMD anunciou sua visão para o futuro do data center e da IA ​​generalizada, apresentando os produtos, a estratégia e os parceiros do ecossistema que moldarão o futuro da computação.

O ‘Data Center and AI Technology Premiere’ destaca a próxima fase da inovação do data center. A empresa se juntou ao palco com executivos da Amazon Web Services, Citadel, Hugging Face, Meta, Microsoft Azure e PyTorch para mostrar as parcerias tecnológicas para trazer a próxima geração de soluções de aceleração de IA e CPU de alto desempenho para o mercado.

“Hoje, demos mais um passo significativo em nossa estratégia de data center ao expandirmos nossos 4º A família de processadores Gen EPYC com novas soluções de liderança para cargas de trabalho de computação em nuvem e técnica e anunciou novas instâncias públicas e implantações internas com os maiores provedores de nuvem”, disse a presidente e CEO da AMD, Dra. Lisa Su. “A IA é a tecnologia que define a próxima geração de computação e a maior oportunidade estratégica de crescimento para a AMD. Estamos focados em acelerar a implantação de plataformas AMD AI em escala no data center, liderados pelo lançamento de nossos aceleradores Instinct MI300 planejados para o final deste ano e o crescente ecossistema de software AI pronto para empresas otimizado para nosso hardware.”

A empresa juntou-se à AWS para destacar uma prévia da próxima geração do Amazon Elastic Compute Cloud, ‘Amazon EC2’, instâncias M7a, alimentadas por 4º Processadores Gen AMD EPYC, ‘Genoa’.

AMD introduziu o 4º Processadores Gen AMD EPYC 97X4, anteriormente denominados ‘Bergamo’. Com 128 núcleos Zen 4c por soquete, esses processadores fornecem grande densidade de vCPU, desempenho e eficiência para aplicativos executados na nuvem. A Meta participou da discussão de como esses processadores são adequados para seus principais aplicativos, como Instagram, WhatsApp e muito mais.

Ela também revelou a tecnologia AMD 3D V-Cache, com CPU de servidor x86 e compartilhou sua estratégia de plataforma de IA, oferecendo aos clientes um portfólio de produtos de hardware de nuvem, de ponta a ponta, com profunda colaboração de software do setor, para desenvolver IA escalável e abrangente soluções.

O acelerador AMD Instinct MI300X é um dos aceleradores avançados para IA generativa, juntamente com o impulso do ecossistema de software, com os parceiros PyTorch e Hugging Face. Ele é baseado na arquitetura do acelerador AMD CDNA 3 de última geração e suporta até 192 GB de memória HBM3 para fornecer a eficiência de computação e memória necessária para treinamento e inferência de modelo de linguagem grande para cargas de trabalho de IA generativas.

Por fim, houve uma exibição do ecossistema de software ROCm para aceleradores de data center, destacando a prontidão e as colaborações com artistas do setor para reunir um ecossistema aberto de software de IA. A PyTorch discutiu o trabalho de upstream completo da pilha de software ROCm. Essa integração capacita os desenvolvedores com uma variedade de modelos de IA compatíveis e prontos para uso em aceleradores AMD. A Hugging Face também anunciou que otimizará seus modelos nas plataformas AMD.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo