Nvidia macht sich einige Notizen von PC-Enthusiasten, um den CO2-Fußabdruck von Rechenzentren zu reduzieren. Das Unternehmen kündigte während seines Jahres zwei neue flüssigkeitsgekühlte GPUs an Computex 2022 Keynote, aber sie werden nicht in Ihren nächsten Gaming-PC gelangen.
Stattdessen wird der H100 (angekündigt bei GTC Anfang dieses Jahres) und A100-GPUs werden gegen Ende des Jahres als Teil der HGX-Server-Racks ausgeliefert. Flüssigkeitskühlung ist für die Welt der Supercomputer nichts Neues, aber Mainstream-Rechenzentrumsserver konnten traditionell nicht auf diese effiziente Kühlmethode zugreifen (nicht ohne den Versuch, sie zu manipulieren). eine Gaming-GPU in einen Server, das heißt).
Neben HGX-Serverracks wird Nvidia die flüssigkeitsgekühlten Versionen des H100 und A100 als Slot-in-PCIe-Karten anbieten. Der A100 kommt in der zweiten Jahreshälfte 2022 und der H100 Anfang 2023. Nvidia sagt, dass bis Ende des Jahres „mindestens ein Dutzend“ Systemhersteller über diese GPUs verfügen werden, darunter Optionen von Asus, ASRock und Gigabyte.
Verwandt
- Nvidia möchte nicht, dass Sie etwas über seine umstrittene neue GPU erfahren
- Nvidia trotzt dem Widerstand und verteidigt 8 GB VRAM in aktuellen GPUs
- Nvidia bringt möglicherweise drei neue GPUs auf den Markt, und das sind schlechte Nachrichten für AMD
Auf Rechenzentren entfällt etwa 1 % des weltweiten Gesamtstromverbrauchs fast die Hälfte dieses Stroms wird ausschließlich für die Kühlung aller Komponenten im Rechenzentrum aufgewendet. Im Gegensatz zur herkömmlichen Luftkühlung können die neuen flüssigkeitsgekühlten Karten laut Nvidia den Stromverbrauch um etwa 30 % senken und gleichzeitig den Rack-Platz um 66 % reduzieren.
Empfohlene Videos
Anstelle eines All-in-One-Systems, wie man es bei einer flüssigkeitsgekühlten Gaming-GPU findet, nutzen der A100 und der H100 eine direkte Flüssigkeitsverbindung zur Prozessoreinheit selbst. Bis auf die Zuleitungen ist alles im GPU-Gehäuse versteckt, das selbst nur einen PCIe-Steckplatz belegt (im Gegensatz zu zwei bei den luftgekühlten Versionen).
Rechenzentren betrachten die Power Usage Effectiveness (PUE), um den Energieverbrauch zu messen – im Wesentlichen ein Verhältnis zwischen dem Stromverbrauch eines Rechenzentrums und dem Stromverbrauch des Computers. Mit einem luftgekühlten Rechenzentrum hatte Equinix einen PUE von etwa 1,6. Durch die Flüssigkeitskühlung mit den neuen GPUs von Nvidia konnte dieser Wert auf 1,15 gesenkt werden, was bemerkenswert nahe an dem von Rechenzentren angestrebten PUE-Wert von 1,0 liegt.
Neben einer besseren Energieeffizienz bietet die Flüssigkeitskühlung laut Nvidia auch Vorteile bei der Wassereinsparung. Das Unternehmen gibt an, dass jedes Jahr Millionen Gallonen Wasser in Rechenzentren verdunsten, um den Betrieb luftgekühlter Systeme aufrechtzuerhalten. Laut Zac Smith, Leiter der Edge-Infrastruktur bei Equinix, ermöglicht die Flüssigkeitskühlung die Zirkulation des Wassers und verwandelt so „einen Abfall in einen Vermögenswert“.
Obwohl diese Karten nicht in den riesigen Rechenzentren von Google, Microsoft und Amazon auftauchen werden, die wahrscheinlich bereits Flüssigkeitskühlung verwenden, heißt das nicht, dass sie keine Auswirkungen haben werden. Banken, medizinische Einrichtungen und Rechenzentrumsanbieter wie Equinix gefährden einen großen Teil der heutigen Rechenzentren und sie alle könnten von flüssigkeitsgekühlten GPUs profitieren.
Laut Nvidia ist dies auch erst der Anfang auf dem Weg zu klimaneutralen Rechenzentren. In einer Pressemitteilung schrieb Joe Delaere, Senior Product Marketing Manager bei Nvidia, dass das Unternehmen „zu unterstützen“ plant Flüssigkeitskühlung in unseren Hochleistungs-Rechenzentrums-GPUs und unseren Nvidia HGX-Plattformen für die absehbare Zukunft.“
Empfehlungen der Redaktion
- Ich habe die neue RTX-Funktion von Nvidia getestet und sie hat den schlimmsten Teil des PC-Gamings behoben
- Warum Nvidias brandneue GPU schlechter abschneidet als integrierte Grafikkarten
- Nvidias Supercomputer könnte eine neue Ära von ChatGPT einläuten
- Nvidias neues Guardrails-Tool behebt das größte Problem bei KI-Chatbots
- Nvidia hat eine riesige Dual-GPU gebaut, um Modelle wie ChatGPT anzutreiben
Werten Sie Ihren Lebensstil aufDigital Trends hilft Lesern mit den neuesten Nachrichten, unterhaltsamen Produktrezensionen, aufschlussreichen Leitartikeln und einzigartigen Einblicken, den Überblick über die schnelllebige Welt der Technik zu behalten.