多くの憶測を経て、Nvidia はついに Nvidia Grace と呼ばれる強力なスーパーコンピューター CPU を発表しました。 年次 GPU テクノロジー カンファレンス. アメリカの有名なコンピューター科学者およびコンピューター プログラミングの先駆者にちなんで命名されました グレース・ホッパー, Nvidia の最初のデータセンター プロセッサは、ARM のアーキテクチャに基づいています。 同社は、GTC に先立つ記者セッションで、Nvidia Grace は「10 倍のパフォーマンスを提供できる」と主張しました。 最も複雑な AI 上の今日の最速サーバーのパフォーマンス。 そしてハイパフォーマンスコンピューティング 仕事量。」
これは Nvidia と ARM との初のパートナーシップ それを発表して以来、 2020年に400億ドルで同社を買収.
おすすめ動画
とは異なり Apple の ARM ベースの M1 プロセッサ, Nvidia Grace は近くのコンピューターに向かうことはありません。 代わりに、自然言語処理、レコメンダー システム、AI などのさまざまなアプリケーションで使用できるように設計されています。 Nvidia の幹部らは、スーパーコンピューティングだと語った。 Nvidia Grace は、スイス国立スーパーコンピューティング センター (CSCS) と米国エネルギー省ロス アラモス国立研究所の両方で採用され、科学研究の強化と推進を支援しています。
関連している
- Nvidia は物議を醸している新しい GPU についてあなたに知られたくない
- Nvidia の新しい RTX 4060 を RX 7600 と比較してテストしましたが、あまり良くありませんでした
- 結局のところ、Nvidia の RTX 4060 はそれほど失望するものではないかもしれません
同社は、AIのトレーニングに使用されるデータの量とモデルのサイズは、 システムは急激に成長しており、最大規模のモデルは 2 か月半ごとに 2 倍になっています。 プロセッシング コアとグラフィック コア間の通信のボトルネックを軽減するために、Grace は Nvidia の NVLink 相互接続テクノロジにより、システム メモリ、CPU、およびコンピュータ間で大量のデータを移動できるようになります。 GPU。
Nvidia は、Grace のアーキテクチャ内で CPU と GPU を緊密に結合することにより、このプロセッサは自然言語トレーニングにおいて Nvidia の Selene スーパーコンピューターの 7 倍高速になると述べました。 Seleneの性能は2.8-A.I. エクサフロップスを実現しており、おそらく今日の人工知能アプリケーションとしては世界最速のスーパーコンピューターの 1 つです。
Grace は、エネルギー効率の高い ARM CPU コアと革新的な低電力メモリ サブシステムを組み合わせています。
また、ライバルの Intel 製のような従来の x86 サーバー プロセッサと比較して、Nvidia は Grace が 10 倍高速であると主張しました。
「Grace ベースのシステムは、x86 CPU で実行される現在の最先端の NVIDIA DGXTM ベースのシステムよりも 10 倍速く 1 兆パラメータの NLP モデルをトレーニングできるようになります」と同社は付け加えました。 これは、Grace を使用すると、分析に 1 か月かかるデータがわずか 3 日で済むことを意味します。
このパフォーマンスを強化しているのは、ARM の次世代 Neoverse コアと、CPU と GPU 間の帯域幅 900 GB/秒を持つ Nvidia の第 4 世代 NVLink インターコネクトです。 また、Grace は、DDR4 メモリよりも高速でエネルギー効率の高い LPDDR5X メモリも使用します。
「エネルギー効率の高いARM CPUコアと革新的な低電力メモリサブシステムを組み合わせて、エネルギー効率の高い設計で高性能を実現します」と同社は述べている。
Nvidia Grace は、Hewlett Package Enterprise によって 2023 年に発売される Alps スーパーコンピューターで使用されます。
データセンター向けの Bluefield 3 も
Nvidia Grace に加えて、同社は Bluefield 3 と呼ばれるデータセンター CPU の開発も行いました。 DPU、またはデータ処理ユニットと呼ばれる Bluefield 3 は、A.I. 向けに構築されています。 そして「マルチテナント、 クラウド ネイティブ環境では、ソフトウェア デファインド、ハードウェア アクセラレーションによるネットワーキング、ストレージ、セキュリティ、および管理サービスをデータセンターで提供します。 規模。"
DPU は、データ センター サービスに電力を供給する 300 コアに相当し、CPU を解放して他のアプリケーションを実行できます。
「最新のハイパースケール クラウドは、データ センターの基本的な新しいアーキテクチャを推進しています」と Nvidia CEO のジェンセン ファンは述べています。 「データセンターのインフラストラクチャ ソフトウェアを処理するように設計された新しいタイプのプロセッサが、オフロードと 仮想化、ネットワーキング、ストレージ、セキュリティ、その他のクラウドネイティブ AI の膨大なコンピューティング負荷を加速します。 サービス。 BlueField DPU の時代がやって来ました。」
Nvidia は、Bluefield 3 は前世代の Bluefield 2 の 10 倍のパフォーマンスを実現し、DPU は 16 個の Arm X78 コアを搭載し、暗号化のアクセラレーションが 4 倍になっていると主張しています。 Nvidiaによれば、このチップは初の400 SeE/NDR DPUであり、PCIe 5.0をサポートしているという。
さらに、Nvidia は、DPU がサイバー脅威を検出して対応できるようにするネットワーク セキュリティも組み込みました。
Bluefield 3 は 2022 年初めに利用可能になる予定です。
編集者のおすすめ
- Nvidia の和解案は機能していない
- Nvidia は RTX 4090 の電源コネクタの溶解を修理しただけですか?
- この謎に満ちた Nvidia GPU はまったくの怪物です - そして、私たちはちょうど別の外観を手に入れました
- Nvidia の新しい GPU のパフォーマンスが統合グラフィックスよりも劣る理由
- Nvidia RTX 4090 ケーブルが憂慮すべき新たな方法で溶けている可能性がある
ライフスタイルをアップグレードするDigital Trends は、読者が最新ニュース、楽しい製品レビュー、洞察力に富んだ社説、ユニークなスニーク ピークをすべて提供して、ペースの速いテクノロジーの世界を監視するのに役立ちます。