Jensen Huang, CEO von Nvidia, eröffnete die Graphics Technology Conference (GTC) des Unternehmens mit einer Grundsatzrede voller Ankündigungen. Zu den wichtigsten Enthüllungen gehören Nvidias allererste diskrete CPU namens Grace sowie die Hopper-Architektur der nächsten Generation, die später im Jahr 2022 auf den Markt kommen wird.
Der Grace CPU Superchip ist Nvidias erste eigenständige CPU überhaupt, aber er wird nicht das Herzstück Ihres Rechners sein nächster Gaming-PC. Nvidia gab das bekannt Grace CPU im Jahr 2021, aber dieser Superchip, wie Nvidia ihn nennt, ist etwas Neues. Es setzt zwei Grace-CPUs zusammen, ähnlich wie Apples M1 Ultra, verbunden über die NVLink-Technologie von Nvidia.
Im Gegensatz zum M1 Ultra ist der Grace Superchip jedoch nicht auf allgemeine Leistung ausgelegt. Die 144-Kern-GPU ist für KI, Datenwissenschaft und Anwendungen mit hohem Speicherbedarf konzipiert. Die CPU verwendet trotz Nvidias immer noch ARM-Kerne 40-Milliarden-Dollar-Angebot aufgegeben das Unternehmen zu kaufen.
Verwandt
- Nvidias Supercomputer könnte eine neue Ära von ChatGPT einläuten
- Nvidias neues Guardrails-Tool behebt das größte Problem bei KI-Chatbots
- Nvidia hat endlich eine winzige RTX 4000-Grafikkarte entwickelt (aber Sie wollen sie wahrscheinlich nicht)
Neben dem Grace Superchip präsentierte Nvidia seine Hopper-Architektur der nächsten Generation. Spekulationen zufolge ist dies nicht die Architektur, die der RTX 4080 zugrunde liegt. Stattdessen wurde es für die Rechenzentrumsbeschleuniger von Nvidia entwickelt. Nvidia stellt die Architektur erstmals in der H100-GPU vor, die ersetzt werden soll Nvidias bisheriger A100.
Empfohlene Videos
Nvidia bezeichnet den H100 als „den fortschrittlichsten Chip der Welt“. Es wurde mit dem N4-Fertigungsprozess des Chipherstellers TSMC hergestellt und enthält unglaubliche 80 Milliarden Transistoren. Als ob das nicht genug wäre, ist es auch die erste GPU, die PCIe 5.0 und HBM3-Speicher unterstützt. Nvidia sagt, dass nur 20 H100-GPUs „das Äquivalent des Internetverkehrs der gesamten Welt aushalten können“, was die Leistungsfähigkeit von PCIe 5.0 und HBM3 zeigt.
Kunden können über die DGX-Server der vierten Generation von Nvidia auf die GPU zugreifen, die acht H100-GPUs und 640 GB HBM3-Speicher kombinieren. Laut Nvidia stellen diese Maschinen 32 PetaFLOPs an KI bereit. Leistung, die sechsmal so hoch ist wie die des A100 der letzten Generation.
Wem der DGX nicht genug Power bietet, für den bietet Nvidia auch seinen DGX H100 SuperPod an. Dies baut auf der Vermietung von Nvidia auf SuperPod-Beschleuniger letztes Jahr, sodass auch diejenigen, die nicht über das Budget für riesige Rechenzentren verfügen, die Leistungsfähigkeit der KI nutzen können. Diese Maschine kombiniert 32 DGX H100-Systeme und liefert gewaltige 20 TB HBM3-Speicher und 1 exoFLOP A.I. Leistung.
Nvidia stellt die neue Architektur mit seinem eigenen EOS-Supercomputer vor, der 18 DGX H100 SuperPods für insgesamt 4.608 H100 umfasst GPUs. Ermöglicht wird dieses System durch die vierte Generation von NVLink von Nvidia, die eine Verbindung mit hoher Bandbreite zwischen riesigen Clustern von bietet GPUs.
Da die Anzahl der GPUs zunimmt, zeigte Nvidia, dass der A100 der letzten Generation einen Stillstand erreichen würde. Nach Angaben des Unternehmens haben Hopper und NVLink der vierten Generation dieses Problem nicht. Da die Anzahl der GPUs in die Tausende geht, können H100-basierte Systeme laut Nvidia eine bis zu neunmal schnellere KI bieten. Schulung als A100-basierte Systeme.
Diese Architektur der nächsten Generation bietet laut Nvidia „bahnbrechende Leistungsvorteile“. Obwohl es für die Welt der KI spannend ist. und Hochleistungsrechnen warten wir immer noch gespannt auf Ankündigungen rund um Nvidia RTX 4080 der nächsten Generation, das Gerüchten zufolge noch in diesem Jahr auf den Markt kommen soll.
Empfehlungen der Redaktion
- Nvidia möchte nicht, dass Sie etwas über seine umstrittene neue GPU erfahren
- Sie sollten diese 5 vergessenen Nvidia-GPU-Funktionen verwenden
- Hoppla – Nvidia hat gerade versehentlich eine brandneue GPU vorgestellt
- Nvidia hat eine riesige Dual-GPU gebaut, um Modelle wie ChatGPT anzutreiben
- Ich bin für einen Monat auf eine AMD-GPU umgestiegen – deshalb vermisse ich Nvidia nicht
Werten Sie Ihren Lebensstil aufDigital Trends hilft Lesern mit den neuesten Nachrichten, unterhaltsamen Produktrezensionen, aufschlussreichen Leitartikeln und einzigartigen Einblicken, den Überblick über die schnelllebige Welt der Technik zu behalten.