Nvidia ha creato un'enorme doppia GPU per alimentare modelli come ChatGPT

Il semestrale di Nvidia Conferenza sulla tecnologia GPU (GTC) di solito si concentra sui progressi nell'intelligenza artificiale, ma quest'anno Nvidia sta rispondendo al massiccio aumento di ChatGPT con una serie di nuove GPU. Il principale tra questi è l'H100 NVL, che unisce due delle GPU H100 di Nvidia per implementare Large Language Models (LLM) come ChatGPT.

L'H100 non è una nuova GPU. Lo ha annunciato Nvidia un anno fa al GTC, sfoggiando la sua architettura Hopper e promettendo di accelerare l'inferenza dell'intelligenza artificiale in una varietà di compiti. Si dice che il nuovo modello NVL con la sua massiccia memoria da 94 GB funzioni meglio quando si distribuiscono LLM su larga scala, offrendo un'inferenza fino a 12 volte più veloce rispetto all'A100 di ultima generazione.

H100 NVL di Nvidia installato in un server.
Nvidia

Queste GPU sono al centro di modelli come ChatGPT. Nvidia e Microsoft hanno recentemente rivelato che migliaia di Le GPU A100 sono state utilizzate per addestrare ChatGPT, che è un progetto che ha richiesto più di cinque anni di realizzazione.

Imparentato

  • ChatGPT: le ultime novità, controversie e consigli che devi sapere
  • Cos'è un prompt DAN per ChatGPT?
  • Google Bard ora può parlare, ma può soffocare ChatGPT?

L'H100 NVL funziona combinando due GPU H100 tramite l'interconnessione NVLink a larghezza di banda elevata di Nvidia. Ciò è già possibile con le attuali GPU H100 – infatti, puoi collegare fino a 256 H100 insieme tramite NVLink – ma questa unità dedicata è progettata per implementazioni più piccole.

Video consigliati

Questo è un prodotto creato più che altro per le aziende, quindi non aspettarti di vedere l'H100 NVL apparire sullo scaffale del tuo Micro Center locale. Tuttavia, Nvidia afferma che i clienti aziendali possono aspettarsi di vederlo intorno alla seconda metà dell'anno.

Oltre all'H100 NVL, Nvidia ha annunciato anche la GPU L4, appositamente costruita per alimentare video generati dall'intelligenza artificiale. Nvidia afferma che è 120 volte più potente per i video generati dall'intelligenza artificiale rispetto a una CPU e offre un'efficienza energetica migliore del 99%. Oltre al video AI generativo, Nvidia afferma che la GPU offre funzionalità di decodifica e transcodifica video e può essere sfruttata per la realtà aumentata.

Nvidia afferma che Google Cloud è tra i primi a integrare L4. Google prevede di offrire istanze L4 ai clienti attraverso la sua piattaforma Vertex AI più tardi oggi. Nvidia ha affermato che la GPU sarà disponibile successivamente presso i partner, tra cui Lenovo, Dell, Asus, HP, Gigabyte e HP, tra gli altri.

Raccomandazioni degli editori

  • Gli autori più importanti richiedono un pagamento alle aziende di intelligenza artificiale per l’utilizzo del loro lavoro
  • GPT-4: come utilizzare il chatbot AI che fa vergognare ChatGPT
  • Wix utilizza ChatGPT per aiutarti a creare rapidamente un intero sito web
  • OpenAI, produttore di ChatGPT, affronta l'indagine della FTC sulle leggi sulla protezione dei consumatori
  • Il traffico del sito web ChatGPT è diminuito per la prima volta

Migliora il tuo stile di vitaDigital Trends aiuta i lettori a tenere d'occhio il frenetico mondo della tecnologia con tutte le ultime notizie, divertenti recensioni di prodotti, editoriali approfonditi e anteprime uniche nel loro genere.