Nvidia avslører første gangs CPU og Hopper GPU på GTC 2022

Nvidia-sjef Jensen Huang startet selskapets Graphics Technology Conference (GTC) med en hovedtale full av kunngjøringer. Nøkkelavsløringene inkluderer Nvidias første diskrete CPU, kalt Grace, samt neste generasjons Hopper-arkitektur, som kommer senere i 2022.

Grace CPU Superchip er Nvidias første diskrete CPU noensinne, men den vil ikke være i hjertet av din neste spill-PC. Nvidia kunngjorde Grace CPU i 2021, men denne Superchippen, som Nvidia kaller den, er noe nytt. Den setter sammen to Grace CPUer, lik Apples M1 Ultra, koblet til via Nvidias NVLink-teknologi.

En gjengivelse av Nvidias Grace Superchip.

I motsetning til M1 Ultra, er Grace Superchip imidlertid ikke bygget for generell ytelse. Den 144-kjerners GPUen er bygget for A.I., datavitenskap og applikasjoner med høye minnekrav. CPU-en bruker fortsatt ARM-kjerner, til tross for Nvidias forlatt bud på 40 milliarder dollar å kjøpe selskapet.

I slekt

  • Nvidias superdatamaskin kan bringe en ny æra av ChatGPT
  • Nvidias nye Guardrails-verktøy løser det største problemet med AI-chatbots
  • Nvidia laget endelig et lite RTX 4000 grafikkort (men du vil sannsynligvis ikke ha det)

I tillegg til Grace Superchip, viste Nvidia frem sin neste generasjons Hopper-arkitektur. Dette er ikke arkitekturen som driver RTX 4080, ifølge spekulasjoner. I stedet er den bygget for Nvidias datasenterakseleratorer. Nvidia debuterer arkitekturen i H100 GPU, som vil erstatte Nvidias forrige A100.

Anbefalte videoer

Nvidia kaller H100 for "verdens mest avanserte brikke." Den er bygget ved hjelp av brikkeprodusenten TSMCs N4-produksjonsprosess, pakket inn i svimlende 80 milliarder transistorer. Som om det ikke var nok, er det også den første GPUen som støtter PCIe 5.0 og HBM3-minne. Nvidia sier at bare 20 H100 GPUer kan "opprettholde tilsvarende hele verdens internettrafikk", og viser kraften til PCIe 5.0 og HBM3.

Kunder vil kunne få tilgang til GPUen gjennom Nvidias fjerde generasjons DGX-servere, som kombinerer åtte H100 GPUer og 640 GB HBM3-minne. Disse maskinene, ifølge Nvidia, gir 32 petaFLOPs av A.I. ytelse, som er seks ganger så mye som siste generasjons A100.

Hvis DGX ikke tilbyr nok kraft, tilbyr Nvidia også sin DGX H100 SuperPod. Dette bygger på at Nvidia leier ut sin SuperPod-akseleratorer i fjor, slik at de uten budsjett for massive datasentre kan utnytte kraften til A.I. Denne maskinen kombinerer 32 DGX H100-systemer, og leverer en massiv 20TB med HBM3-minne og 1 exoFLOP av A.I. opptreden.

Nvidia Hopper GPU-familie.

Nvidia debuterer den nye arkitekturen med sin egen EOS superdatamaskin, som inkluderer 18 DGX H100 SuperPods for totalt 4608 H100 GPUer. Aktivering av dette systemet er Nvidias fjerde generasjon av NVLink, som gir en høy båndbredde-sammenkobling mellom massive klynger av GPUer.

Etter hvert som antallet GPU-er skaleres opp, viste Nvidia at siste generasjons A100 ville flatline. Hopper og fjerde generasjons NVLink har ikke det problemet, ifølge selskapet. Ettersom antall GPU-er skaleres til tusenvis, sier Nvidia at H100-baserte systemer kan gi opptil ni ganger raskere A.I. opplæring enn A100-baserte systemer.

Denne neste generasjonsarkitekturen gir «spillendrende ytelsesfordeler», ifølge Nvidia. Selv om det er spennende for A.I. og høyytelses databehandling, venter vi fortsatt spent på kunngjøringer rundt Nvidias neste generasjons RTX 4080, som ryktes å lanseres senere i år.

Redaktørenes anbefalinger

  • Nvidia vil ikke at du skal vite om den kontroversielle nye GPUen
  • Du bør bruke disse 5 glemte Nvidia GPU-funksjonene
  • Oops – Nvidia har nettopp ved et uhell avslørt en helt ny GPU
  • Nvidia bygde en massiv dobbel GPU for å drive modeller som ChatGPT
  • Jeg byttet til en AMD GPU i en måned - her er grunnen til at jeg ikke savner Nvidia

Oppgrader livsstilen dinDigitale trender hjelper leserne å følge med på den fartsfylte teknologiverdenen med alle de siste nyhetene, morsomme produktanmeldelser, innsiktsfulle redaksjoner og unike sniktitter.