As novas GPUs com refrigeração líquida da Nvidia estão indo para data centers

A Nvidia está tomando algumas notas dos entusiastas da construção de PCs em um esforço para reduzir a pegada de carbono dos data centers. A empresa anunciou duas novas GPUs com refrigeração líquida durante seu Computex 2022 palestra, mas eles não chegarão ao seu próximo PC para jogos.

Em vez disso, o H100 (anunciado no GTC no início deste ano) e as GPUs A100 serão enviadas como parte dos racks de servidores HGX no final do ano. O resfriamento líquido não é novidade no mundo dos supercomputadores, mas os principais servidores de data centers não têm sido tradicionalmente capazes de acessar esse método de resfriamento eficiente (não sem tentar improvisar uma GPU para jogos em um servidor, isto é).

GPU de data center com refrigeração líquida Nvidia A100.

Além dos racks de servidores HGX, a Nvidia oferecerá as versões com refrigeração líquida do H100 e A100 como placas PCIe slot-in. O A100 será lançado no segundo semestre de 2022 e o H100 será lançado no início de 2023. A Nvidia diz que “pelo menos uma dúzia” de construtores de sistemas terão essas GPUs disponíveis até o final do ano, incluindo opções da Asus, ASRock e Gigabyte.

Relacionado

  • Nvidia não quer que você saiba sobre sua polêmica nova GPU
  • Nvidia desafia resistência e defende 8 GB de VRAM em GPUs recentes
  • Nvidia pode lançar 3 novas GPUs, e elas são uma má notícia para a AMD

Os data centers representam cerca de 1% do uso total de eletricidade no mundo, e quase metade dessa eletricidade é gasto exclusivamente no resfriamento de tudo no data center. Ao contrário do resfriamento a ar tradicional, a Nvidia afirma que suas novas placas com refrigeração líquida podem reduzir o consumo de energia em cerca de 30% e, ao mesmo tempo, reduzir o espaço em rack em 66%.

Vídeos recomendados

Em vez de um sistema tudo-em-um como você encontraria em uma GPU para jogos com refrigeração líquida, o A100 e o H100 usam uma conexão líquida direta com a própria unidade de processamento. Tudo, exceto as linhas de alimentação, está oculto no gabinete da GPU, que ocupa apenas um slot PCIe (em oposição a dois nas versões refrigeradas a ar).

Os data centers analisam a eficácia do uso de energia (PUE) para avaliar o uso de energia – essencialmente uma relação entre quanta energia um data center está consumindo e quanta energia a computação está usando. Com um data center refrigerado a ar, a Equinix teve uma PUE de cerca de 1,6. O resfriamento líquido com as novas GPUs da Nvidia reduziu esse valor para 1,15, o que está notavelmente próximo do objetivo de 1,0 PUE dos data centers.

Uso de energia para GPUs de data center com refrigeração líquida da Nvidia.

Além de melhor eficiência energética, a Nvidia afirma que a refrigeração líquida traz benefícios para a preservação da água. A empresa afirma que milhões de galões de água são evaporados em data centers todos os anos para manter os sistemas refrigerados a ar funcionando. O resfriamento líquido permite que a água recircule, transformando “um desperdício em um ativo”, de acordo com o chefe de infraestrutura de ponta da Equinix, Zac Smith.

Embora esses cartões não apareçam nos enormes data centers administrados pelo Google, Microsoft e Amazon – que provavelmente já usam refrigeração líquida – isso não significa que não terão impacto. Bancos, instituições médicas e provedores de data centers como a Equinix comprometem uma grande parte dos data centers existentes atualmente e todos poderiam se beneficiar de GPUs com refrigeração líquida.

A Nvidia diz que este também é apenas o começo de uma jornada para data centers neutros em carbono. Em um comunicado à imprensa, o gerente sênior de marketing de produto da Nvidia, Joe Delaere, escreveu que a empresa planeja “apoiar refrigeração líquida em nossas GPUs de data center de alto desempenho e em nossas plataformas Nvidia HGX para o futuro próximo.”

Recomendações dos Editores

  • Testei o novo recurso RTX da Nvidia e ele corrigiu a pior parte dos jogos para PC
  • Por que a nova GPU da Nvidia tem desempenho pior do que os gráficos integrados
  • O supercomputador da Nvidia pode trazer uma nova era de ChatGPT
  • A nova ferramenta Guardrails da Nvidia corrige o maior problema com chatbots de IA
  • A Nvidia construiu uma enorme GPU dupla para alimentar modelos como ChatGPT

Atualize seu estilo de vidaDigital Trends ajuda os leitores a manter o controle sobre o mundo acelerado da tecnologia com as últimas notícias, análises divertidas de produtos, editoriais criteriosos e prévias únicas.