Nvidia sta prendendo appunti dagli appassionati di costruzione di PC nel tentativo di ridurre l'impronta di carbonio dei data center. L'azienda ha annunciato due nuove GPU raffreddate a liquido durante la sua Computex 2022 keynote, ma non entreranno nel tuo prossimo PC da gioco.
Invece, l'H100 (annunciato al GTC all'inizio di quest'anno) e le GPU A100 verranno fornite come parte dei rack server HGX verso la fine dell'anno. Il raffreddamento a liquido non è una novità per il mondo dei supercomputer, ma i server dei data center tradizionali non sono stati tradizionalmente in grado di accedere a questo efficiente metodo di raffreddamento (non senza tentare di una GPU da gioco in un server, cioè).
Oltre ai rack per server HGX, Nvidia offrirà le versioni raffreddate a liquido di H100 e A100 come schede PCIe slot-in. L’A100 arriverà nella seconda metà del 2022, mentre l’H100 arriverà all’inizio del 2023. Nvidia afferma che "almeno una dozzina" di system builder avranno queste GPU disponibili entro la fine dell'anno, comprese le opzioni di Asus, ASRock e Gigabyte.
Imparentato
- Nvidia non vuole che tu sappia della sua controversa nuova GPU
- Nvidia sfida le resistenze e difende 8 GB di VRAM nelle recenti GPU
- Nvidia potrebbe lanciare 3 nuove GPU e sono una brutta notizia per AMD
I data center rappresentano circa l’1% del consumo totale di elettricità a livello mondiale quasi la metà di quella elettricità viene speso esclusivamente per raffreddare tutto nel data center. A differenza del tradizionale raffreddamento ad aria, Nvidia afferma che le sue nuove schede raffreddate a liquido possono ridurre il consumo energetico di circa il 30% riducendo allo stesso tempo lo spazio su rack del 66%.
Video consigliati
Invece di un sistema all-in-one come quello che potresti trovare su una GPU da gioco raffreddata a liquido, A100 e H100 utilizzano una connessione liquida diretta all'unità di elaborazione stessa. Tutto tranne le linee di alimentazione è nascosto nell'enclosure della GPU, che a sua volta occupa solo uno slot PCIe (a differenza dei due delle versioni raffreddate ad aria).
I data center esaminano l'efficacia dell'utilizzo dell'energia (PUE) per valutare il consumo di energia, essenzialmente un rapporto tra la quantità di energia assorbita da un data center e la quantità di energia utilizzata dall'elaborazione. Con un data center raffreddato ad aria, Equinix aveva un PUE di circa 1,6. Il raffreddamento a liquido con le nuove GPU di Nvidia ha portato il valore a 1,15, che è notevolmente vicino all'obiettivo PUE di 1,0 a cui mirano i data center.
Oltre a una migliore efficienza energetica, Nvidia afferma che il raffreddamento a liquido offre vantaggi per la conservazione dell’acqua. L’azienda afferma che ogni anno milioni di litri d’acqua vengono evaporati nei data center per mantenere operativi i sistemi raffreddati ad aria. Il raffreddamento a liquido consente all'acqua di ricircolare, trasformando "un rifiuto in una risorsa", secondo il responsabile delle infrastrutture edge di Equinix Zac Smith.
Anche se queste schede non verranno visualizzate negli enormi data center gestiti da Google, Microsoft e Amazon – che probabilmente utilizzano già il raffreddamento a liquido – ciò non significa che non avranno un impatto. Banche, istituzioni mediche e fornitori di data center come Equinix compromettono gran parte dei data center odierni e potrebbero tutti trarre vantaggio dalle GPU raffreddate a liquido.
Nvidia afferma che questo è solo l'inizio di un viaggio verso data center a zero emissioni di carbonio. In un comunicato stampa, Joe Delaere, senior product marketing manager di Nvidia, ha scritto che la società prevede di “supportare raffreddamento a liquido nelle nostre GPU per data center ad alte prestazioni e nelle nostre piattaforme Nvidia HGX per il prossimo futuro."
Raccomandazioni degli editori
- Ho testato la nuova funzionalità RTX di Nvidia e ha risolto la parte peggiore dei giochi per PC
- Perché la nuovissima GPU di Nvidia ha prestazioni peggiori della grafica integrata
- Il supercomputer di Nvidia potrebbe inaugurare una nuova era di ChatGPT
- Il nuovo strumento Guardrails di Nvidia risolve il problema più grande con i chatbot AI
- Nvidia ha creato un'enorme doppia GPU per alimentare modelli come ChatGPT
Migliora il tuo stile di vitaDigital Trends aiuta i lettori a tenere d'occhio il frenetico mondo della tecnologia con tutte le ultime notizie, divertenti recensioni di prodotti, editoriali approfonditi e anteprime uniche nel loro genere.