私たちはマイクロチップがますます小型化することに慣れています。 ムーアの法則の驚くべき傾向 エンジニアは、より小さなチップにさらに多くのトランジスタを詰め込むことができます。 カリフォルニアの新興企業が設計した Wafer Scale Engine (WSE) チップについては同じことが言えません 大脳、最近ステルスから出現しました。 Cerebras は、A.I. を実行するために設計された非常に強力なチップを開発しました。 プロセス — そしてそれを欠くことはまったくありません。 多くのマイクロチップとは異なり、これが iPad ほどの大きさであることが一つの理由です。
46,225 平方ミリメートルの WSE チップは、1.2 兆個の膨大なトランジスタ、400,000 個のコア、および 18 ギガバイトのオンチップ メモリを誇ります。 これは、これまでに作成された最大のチップになります。 これまでの記録保持者は、面積わずか 815 平方ミリメートル、トランジスタ数は 211 億個でした。 CEO兼共同創設者のアンドリュー・フェルドマン氏がDigital Trendsに語ったところによると、これはWSEチップがタイトル獲得で破った巨大チップよりも「56.7倍大きい」ことを意味するという。
おすすめ動画
「人工知能の仕事は、最も急速に成長しているコンピューティング ワークロードの 1 つです」とフェルドマン氏は言います。 「2013 年から 2018 年の間に、30 万倍を超える速度で成長しました。 つまり、このワークロードで実行される作業量が 3.5 か月ごとに 2 倍になったことを意味します。」
関連している
- OpenAI の新しい ChatGPT アプリは iPhone と iPad で無料です
- iPhone、iPad、または MacBook をお持ちですか? この重要なアップデートを今すぐインストールしてください
- 今年のホリデー ショッピングには ChatGPT AI チャットボットを使用しました
ここで、より大きなチップの必要性が生じます。 チップが大きいほど、より多くの情報をより速く処理します。 これは、ユーザーが計算量の多い答えをより短い時間で計算できることを意味します。
「WSE には 78 倍のコンピューティング コアが含まれています。 今日の主要な GPU の 3,000 倍の高速オンチップ メモリ、10,000 倍のメモリ帯域幅、33 倍のファブリック帯域幅を備えています」とフェルドマン氏は説明しました。 「これは、WSE がより多くの計算をより効率的に実行できるようになり、AI のトレーニングにかかる時間を大幅に短縮できることを意味します。 モデル。 AI の研究者や製品開発者にとって、トレーニング時間が短縮されるということは、より多くのデータによる実験のスループットが向上し、より良いソリューションを得るまでの時間が短縮されることを意味します。」
当然のことながら、タブレットほどの大きさのコンピューター チップは家庭での使用を目的としたものではありません。 代わりに、今日のクラウドベースの AI の背後にある負荷の高い処理の多くが行われるデータセンターでの使用を目的としています。 ツールが実行されます。 顧客についての公式発表はありませんが、次のような企業が該当する可能性が高いと思われます。 フェイスブック、Amazon、Baidu、その他の企業は、そのペースでそれを実行することに熱心になるでしょう。
パフォーマンスのベンチマークはまだリリースされていません。 しかし、このチップがその約束を果たせば、私たちをAI分野に留まらせるのに役立つでしょう。 今後数週間、数か月、さらには数年にわたるイノベーションを実現します。
編集者のおすすめ
- iPhone、iPad、または Apple Watch をお持ちですか? 今すぐ更新する必要があります
- Appleの次期MacBookとiPadは深刻な問題に直面する可能性がある
- AI ウェブ検索の (遠い) 未来を見てきました – ここが素晴らしいところであり、どこが苦労しているのか
- MacBook AirとiPad Proはまもなくメジャーアップグレードされる可能性がある
- AppleはmacOSを搭載したFrankenstein iPad Proを発売する可能性がある
ライフスタイルをアップグレードするDigital Trends は、読者が最新ニュース、楽しい製品レビュー、洞察力に富んだ社説、ユニークなスニーク ピークをすべて提供して、ペースの速いテクノロジーの世界を監視するのに役立ちます。