Nvidia heeft een enorme dubbele GPU gebouwd om modellen als ChatGPT van stroom te voorzien

Nvidia's halfjaarlijkse GPU-technologieconferentie (GTC) richt zich doorgaans op de vooruitgang op het gebied van AI, maar dit jaar reageert Nvidia op de enorme opkomst van ChatGPT met een reeks nieuwe GPU's. De belangrijkste daarvan is de H100 NVL, die twee van Nvidia’s H100 GPU’s aan elkaar hecht om Large Language Models (LLM) zoals ChatGPT te implementeren.

De H100 is geen nieuwe GPU. Nvidia heeft dit aangekondigd een jaar geleden bij GTC, met zijn Hopper-architectuur en beloofde de AI-inferentie bij een verscheidenheid aan taken te versnellen. Het nieuwe NVL-model met zijn enorme geheugen van 94 GB zou het beste werken bij het op grote schaal inzetten van LLM's, en biedt tot 12 keer snellere gevolgtrekkingen vergeleken met de A100 van de vorige generatie.

Nvidia's H100 NVL wordt geïnstalleerd op een server.
Nvidia

Deze GPU's vormen de kern van modellen als ChatGPT. Nvidia en Microsoft hebben onlangs onthuld dat duizenden Er werden A100 GPU's gebruikt om ChatGPT te trainen, een project waar al meer dan vijf jaar aan wordt gewerkt.

Verwant

  • ChatGPT: het laatste nieuws, controverses en tips die u moet weten
  • Wat is een DAN-prompt voor ChatGPT?
  • Google Bard kan nu spreken, maar kan het ChatGPT overstemmen?

De H100 NVL werkt door twee H100 GPU's te combineren via Nvidia NVLink-verbinding met hoge bandbreedte. Dit is al mogelijk met de huidige H100 GPU's - je kunt zelfs tot 256 H100's met elkaar verbinden via NVLink - maar deze speciale eenheid is gebouwd voor kleinere implementaties.

Aanbevolen video's

Dit is een product dat vooral voor bedrijven is gebouwd, dus verwacht niet dat de H100 NVL in de schappen van uw plaatselijke Micro Center zal verschijnen. Nvidia zegt echter dat zakelijke klanten dit rond de tweede helft van het jaar kunnen verwachten.

Naast de H100 NVL heeft Nvidia ook de L4 GPU aangekondigd, die speciaal is gebouwd om door AI gegenereerde video's aan te sturen. Nvidia zegt dat het 120 keer krachtiger is voor door AI gegenereerde video's dan een CPU, en een 99% betere energie-efficiëntie biedt. Naast generatieve AI-video zegt Nvidia dat de GPU videodecoderings- en transcoderingsmogelijkheden biedt en kan worden gebruikt voor augmented reality.

Nvidia zegt dat Google Cloud een van de eersten is die de L4 integreert. Google is van plan om later vandaag L4-instanties aan klanten aan te bieden via zijn Vertex AI-platform. Nvidia zei dat de GPU later verkrijgbaar zal zijn bij partners, waaronder onder meer Lenovo, Dell, Asus, HP, Gigabyte en HP.

Aanbevelingen van de redactie

  • Topauteurs eisen betaling van AI-bedrijven voor het gebruik van hun werk
  • GPT-4: hoe je de AI-chatbot gebruikt die ChatGPT te schande maakt
  • Wix gebruikt ChatGPT om u te helpen snel een hele website te bouwen
  • ChatGPT-maker OpenAI wordt geconfronteerd met een FTC-onderzoek naar wetten inzake consumentenbescherming
  • Het websiteverkeer van ChatGPT is voor het eerst gedaald

Upgrade uw levensstijlMet Digital Trends kunnen lezers de snelle technische wereld in de gaten houden met het laatste nieuws, leuke productrecensies, inzichtelijke redactionele artikelen en unieke sneak peeks.