Nvidias vd Jensen Huang inledde företagets Graphics Technology Conference (GTC) med ett huvudtal fullt av tillkännagivanden. Nyckeln avslöjar inkluderar Nvidias första diskreta CPU någonsin, som heter Grace, såväl som dess nästa generations Hopper-arkitektur, som kommer senare under 2022.
Grace CPU Superchip är Nvidias första diskreta CPU någonsin, men det kommer inte att vara i hjärtat av din nästa speldator. Nvidia meddelade Grace CPU 2021, men detta Superchip, som Nvidia kallar det, är något nytt. Den sätter ihop två Grace-processorer, liknande Apples M1 Ultra, ansluten via Nvidias NVLink-teknik.
Till skillnad från M1 Ultra är Grace Superchip dock inte byggd för generell prestanda. Den 144-kärniga GPU: n är byggd för A.I., datavetenskap och applikationer med höga minneskrav. CPU: n använder fortfarande ARM-kärnor, trots Nvidias övergav budet på 40 miljarder dollar att köpa företaget.
Relaterad
- Nvidias superdator kan skapa en ny era av ChatGPT
- Nvidias nya Guardrails-verktyg fixar det största problemet med AI-chatbotar
- Nvidia gjorde äntligen ett litet RTX 4000-grafikkort (men du vill förmodligen inte ha det)
Förutom Grace Superchip visade Nvidia upp sin nästa generations Hopper-arkitektur. Detta är inte arkitekturen som driver RTX 4080, enligt spekulationer. Istället är den byggd för Nvidias datacenteracceleratorer. Nvidia presenterar arkitekturen i H100 GPU, som kommer att ersätta Nvidias tidigare A100.
Rekommenderade videor
Nvidia kallar H100 för "världens mest avancerade chip". Den är byggd med hjälp av chiptillverkaren TSMC: s N4-tillverkningsprocess, packad i häpnadsväckande 80 miljarder transistorer. Som om det inte vore nog är det också den första grafikprocessorn som stöder PCIe 5.0 och HBM3-minne. Nvidia säger att bara 20 H100 GPU: er kan "upprätthålla motsvarande hela världens internettrafik", vilket visar kraften i PCIe 5.0 och HBM3.
Kunder kommer att kunna komma åt GPU: n genom Nvidias fjärde generationens DGX-servrar, som kombinerar åtta H100 GPU: er och 640GB HBM3-minne. Dessa maskiner, enligt Nvidia, tillhandahåller 32 petaFLOPs av A.I. prestanda, vilket är sex gånger så mycket som förra generationens A100.
Om DGX inte erbjuder tillräckligt med kraft, erbjuder Nvidia också sin DGX H100 SuperPod. Detta bygger på att Nvidia hyr ut sina SuperPod-acceleratorer förra året, vilket gör att de som saknar budget för massiva datacenter kan utnyttja kraften i A.I. Den här maskinen kombinerar 32 DGX H100-system och levererar ett enormt 20TB HBM3-minne och 1 exoFLOP A.I. prestanda.
Nvidia debuterar den nya arkitekturen med sin egen EOS superdator, som inkluderar 18 DGX H100 SuperPods för totalt 4 608 H100 GPU: er. Genom att aktivera detta system är Nvidias fjärde generation av NVLink, som tillhandahåller en hög bandbreddsförbindelse mellan massiva kluster av GPU: er.
När antalet GPU: er skalas upp visade Nvidia att den senaste generationens A100 skulle släta ut. Hopper och fjärde generationens NVLink har inte det problemet, enligt företaget. När antalet GPU: er skalas till tusentals säger Nvidia att H100-baserade system kan ge upp till nio gånger snabbare A.I. utbildning än A100-baserade system.
Denna nästa generations arkitektur ger "spelförändrande prestandafördelar", enligt Nvidia. Även om det är spännande för A.I. och högpresterande datorer, vi väntar fortfarande ivrigt på tillkännagivanden kring Nvidias nästa generations RTX 4080, som ryktas att lanseras senare i år.
Redaktörens rekommendationer
- Nvidia vill inte att du ska veta om dess kontroversiella nya GPU
- Du bör använda dessa 5 bortglömda Nvidia GPU-funktioner
- Hoppsan — Nvidia har just av misstag avslöjat en helt ny GPU
- Nvidia byggde en massiv dubbel GPU för att driva modeller som ChatGPT
- Jag bytte till en AMD GPU i en månad - det är därför jag inte saknar Nvidia
Uppgradera din livsstilDigitala trender hjälper läsare att hålla koll på den snabba teknikvärlden med alla de senaste nyheterna, roliga produktrecensioner, insiktsfulla redaktioner och unika smygtittar.