Nvidia の半年ごと GPU テクノロジー カンファレンス (GTC) 通常、AI の進歩に焦点を当てていますが、今年、Nvidia は AI の大幅な増加に対応しています。 チャットGPT 新しい GPU を多数搭載。 その中で最も重要なのは、H100 NVL です。これは、2 つの Nvidia の H100 GPU をつなぎ合わせて、ChatGPT のようなラージ言語モデル (LLM) を展開します。
H100 は新しい GPU ではありません。 エヌビディアが発表した 1 年前の GTC では、Hopper アーキテクチャを採用し、さまざまなタスクで AI 推論を高速化すると約束しました。 94 GB の大容量メモリを備えた新しい NVL モデルは、LLM を大規模に展開する場合に最適に機能し、前世代の A100 と比較して最大 12 倍高速な推論を提供すると言われています。
これらの GPU は、ChatGPT などのモデルの中心です。 Nvidia と Microsoft は最近、数千もの ChatGPT のトレーニングには A100 GPU が使用されました、これは 5 年以上の歳月を費やしたプロジェクトです。
関連している
- ChatGPT: 最新のニュース、論争、知っておくべきヒント
- ChatGPT の DAN プロンプトとは何ですか?
- Google Bard は話せるようになりましたが、ChatGPT をかき消すことができるでしょうか?
H100 NVL は、Nvidia 高帯域幅 NVLink インターコネクト上で 2 つの H100 GPU を組み合わせることで機能します。 これは現在の H100 GPU ですでに可能であり、実際、NVLink を介して最大 256 台の H100 を接続できますが、この専用ユニットは小規模な導入向けに構築されています。
おすすめ動画
これは何よりもビジネス向けに構築された製品なので、H100 NVL が地元のマイクロ センターの棚に並ぶことを期待しないでください。 ただし、NVIDIA は、企業顧客は今年の後半頃にそれを目にすることが期待できると述べています。
Nvidia は、H100 NVL に加えて、AI 生成ビデオを強化するために特別に構築された L4 GPU も発表しました。 Nvidia によれば、AI 生成ビデオの処理能力は CPU よりも 120 倍高く、エネルギー効率は 99% 優れています。 Nvidia は、生成 AI ビデオに加えて、GPU にはビデオ デコードおよびトランスコーディング機能が備わっており、拡張現実にも活用できると述べています。
Nvidia によると、Google Cloud は L4 を最初に統合したものの 1 つです。 Google は、本日後半に Vertex AI プラットフォームを通じて顧客に L4 インスタンスを提供する予定です。 Nvidiaによると、このGPUは今後、Lenovo、Dell、Asus、HP、Gigabyte、HPなどのパートナーから入手可能になるという。
編集者のおすすめ
- トップクラスの著者がAI企業に作品の使用料を要求
- GPT-4: ChatGPT 顔負けの AI チャットボットの使い方
- Wix は ChatGPT を使用して、ウェブサイト全体を迅速に構築するのに役立ちます
- ChatGPTメーカーのOpenAIは消費者保護法を巡りFTCの捜査に直面している
- ChatGPT Webサイトのトラフィックが初めて減少
ライフスタイルをアップグレードするDigital Trends は、読者が最新ニュース、楽しい製品レビュー、洞察力に富んだ社説、ユニークなスニーク ピークをすべて提供して、ペースの速いテクノロジーの世界を監視するのに役立ちます。