technology

Intel e AMD acabaram de criar uma dor de cabeça para datacenters legados • Strong The One

.

Em busca de densidade de computação cada vez maior, os fabricantes de chips estão alimentando seus chips com mais e mais potência e, de acordo com o Uptime Institute, isso pode significar problemas para muitos datacenters legados mal equipados para lidar com sistemas novos e de maior potência.

da AMD Epyc 4 Genoa processadores de servidor anunciados no final do ano passado, e a tão esperada quarta geração da Intel Xeon escalável silício lançado no início deste mês, são os chips mais poderosos e famintos de energia da dupla até o momento, sugando 400W e 350W respectivamente, pelo menos na extremidade superior da pilha de produtos.

O TDP mais alto chega na etapa de bloqueio com contagens de núcleo e velocidades de clock mais altas do que os núcleos de CPU anteriores de qualquer fornecedor. Agora é possível colocar mais de 192 núcleos x64 em seu típico sistema de soquete duplo 2U, algo que apenas cinco anos atrás exigiria pelo menos três nós.

No entanto, como o tempo de atividade notado, muitos datacenters legados não foram projetados para acomodar sistemas tão densos em energia. Um único sistema de soquete duplo de qualquer fornecedor pode facilmente exceder um quilowatt e, dependendo dos tipos de aceleradores implantados nesses sistemas, o boxen pode consumir bem mais do que esse valor.

A rápida tendência para sistemas mais quentes e com maior densidade de energia derruba as suposições de décadas sobre o planejamento da capacidade do datacenter, de acordo com a Uptime, que acrescentou: “Essa tendência logo chegará a um ponto em que começará a desestabilizar as suposições de design de instalações existentes”.

Essa tendência logo chegará a um ponto em que começará a desestabilizar as suposições de projeto de instalações existentes

Um rack típico permanece abaixo de 10kW de capacidade projetada, observam os analistas. Mas com os sistemas modernos tendendo a uma maior densidade de computação e, por extensão, densidade de energia, isso não é mais adequado.

Embora o Uptime observe que, para novas construções, os operadores de datacenter podem otimizar para densidades de energia de rack mais altas, eles ainda precisam contabilizar 10 a 15 anos de espaço livre. Como resultado, os operadores de datacenter devem especular sobre as demandas de energia e resfriamento de longo prazo que convidam ao risco de sub ou superconstrução.

Dito isto, a Uptime estima que dentro de alguns anos um quarto de rack atingirá 10kW de consumo. Isso resulta em aproximadamente 1kW por unidade de rack para um rack padrão de 42U.

Mantendo a calma

Alimentar esses sistemas não é o único desafio enfrentado pelos operadores de datacenter. Todos os computadores são essencialmente aquecedores de ambiente que convertem eletricidade em trabalho computacional, sendo o subproduto a energia térmica.

De acordo com a Uptime, os aplicativos de computação de alto desempenho oferecem um vislumbre dos desafios térmicos que virão para as peças mais comuns. Um dos maiores desafios são as temperaturas de caixa substancialmente mais baixas em comparação com as gerações anteriores. Estes caíram de 80°C para 82°C apenas alguns anos atrás, para até 55°C em um número crescente de modelos.

“Este é um problema fundamental: remover grandes volumes de calor de baixa temperatura é um desafio termodinâmico”, escreveram os analistas. “Muitas instalações ‘legadas’ são limitadas em sua capacidade de fornecer o fluxo de ar necessário para resfriar TI de alta densidade.”

Para mitigar isso, a Sociedade Americana de Engenheiros de Aquecimento, Refrigeração e Ar Condicionado (ASHRAE) emitiu recomendações operacionais revisadas [PDF] para datacenters, incluindo provisões para áreas dedicadas de baixa temperatura.

O resfriamento líquido também ganhou atenção considerável, pois os chips ficaram cada vez mais quentes. Durante a Conferência de Supercomputação do ano passado, fizemos uma mergulho mais profundo nas várias tecnologias disponíveis para resfriar sistemas emergentes.

Mas, embora essas tecnologias tenham amadurecido nos últimos anos, a Uptime observa que elas ainda sofrem com a falta geral de padronização, “aumentando o medo de bloqueio do fornecedor e restrições da cadeia de suprimentos para peças-chave, bem como opções reduzidas nas configurações do servidor”.

Esforços para solucionar esses desafios têm sido em andamento por anos. Tanto a Intel quanto o Open Compute Project estão trabalhando em projetos de referência de refrigeração líquida e de imersão para melhorar a compatibilidade entre os fornecedores.

No início do ano passado, a Intel anunciado um “mega laboratório” de US$ 700 milhões que supervisionaria o desenvolvimento de padrões de imersão e refrigeração líquida. Enquanto isso, o subprojeto de soluções avançadas de refrigeração da OCP está trabalhando nesse problema desde 2018.

Apesar desses desafios, a Uptime observa que o fluxo nas tecnologias de datacenter também abre portas para que as operadoras tenham uma vantagem sobre a concorrência, se estiverem dispostas a correr o risco.

A energia está ficando mais cara

E pode haver uma boa razão para fazer exatamente isso, de acordo com a pesquisa da Uptime, que mostra que os preços da energia devem continuar sua trajetória ascendente nos próximos anos.

“Os preços da energia estavam em uma trajetória ascendente antes da invasão da Ucrânia pela Rússia. Os preços futuros no atacado da eletricidade já estavam fechando – nos mercados europeu e americano – em 2021”, observou a Uptime.

Embora não seja abordado diretamente no relatório do instituto, não é segredo que o resfriamento direto por líquido e o resfriamento por imersão podem alcançar eficiência de uso de energia (PUE) consideravelmente menor em comparação com o resfriamento a ar. A métrica descreve quanto da energia usada pelos datacenters vai para equipamentos de computação, armazenamento ou rede. Quanto mais próximo o PUE estiver de 1,0, mais eficiente será a instalação.

O resfriamento por imersão está entre as classificações de PUE mais baixas de qualquer regime de gerenciamento térmico. Fornecedores como o Submer frequentemente alegar classificações de eficiência tão baixas quanto 1,03.

Cada watt economizado pela TI reduz as pressões em outros lugares

O custo da eletricidade não é a única preocupação enfrentada pelos operadores de datacenter, observaram os analistas da Uptime. Eles também enfrentam obstáculos regulatórios e ambientais de municípios preocupados com o espaço e o consumo de energia das operações de datacenters vizinhos.

Espera-se que a Comissão Europeia adote novos regulamentos ao abrigo do Diretiva de Eficiência Energética o que, segundo a Uptime, forçará os datacenters a reduzir o consumo de energia e as emissões de carbono. Regulamentação semelhante foi lançada nos Estados Unidos. Mais recentemente, um projeto de lei foi introduzido na assembléia de Oregon que exigiria datacenters e operações de mineração de criptomoedas para reduzir as emissões de carbono ou enfrentar multas.

A Uptime espera que as oportunidades de ganhos de eficiência se tornem mais evidentes, pois esses regulamentos obrigam a relatórios regulares de consumo de energia e emissões de carbono.

“Cada watt economizado pela TI reduz as pressões em outros lugares”, escreveram os analistas. “Os requisitos de relatórios, mais cedo ou mais tarde, esclarecerão o vasto potencial de maior eficiência energética atualmente oculto na TI.” ®

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo