NVIDIA、HBM3eメモリ採用の次世代GH200を発表:生成AI向けプラットフォーム
NVIDIAは、生成AI用途に向けた次世代のコンピューティングプラットフォーム「NVIDIA GH200 Grace Hopper Superchip」を発表した。広帯域幅メモリの最新バージョンである「HBM3e」を採用した。現行製品に比べ、最大で3.5倍のメモリ容量と3倍の帯域幅を実現できるという。
最大で3.5倍のメモリ容量と3倍の帯域幅を実現
NVIDIAは2023年8月、生成AI用途に向けた次世代のコンピューティングプラットフォーム「NVIDIA GH200 Grace Hopper Superchip」を発表した。広帯域幅メモリの最新バージョンである「HBM3e」を採用した。現行製品に比べ、最大で3.5倍のメモリ容量と3倍の帯域幅を実現できるという。
GH200 Grace Hopper Superchip(以下、GH200)は、NVIDIA製GPU(Hopper)とArm製CPU(Grace)を1つのモジュールに統合した製品で、GPU側にはHBMメモリを搭載している。NVIDIAは、2023年5月に台湾で開催された「COMPUTEX TAIPEI 2023」でGH200の量産開始を発表した。今回発表した次世代GH200では、このHBMメモリを現行製品の「HBM3」から「HBM3e」に変更し、製造プロセスも微細化している。
デュアル構成の製品は現行製品と比べ、メモリ容量は最大3.5倍に増え、帯域幅は3倍となった。また、144個のArm「Neoverse」コアを集積し、8ペタフロップスのAI(人工知能)パフォーマンスを備えた製品である。NVIDIA独自のメモリインタフェース「NVLink」の採用によって追加のSuperchipを接続し、容易に拡張することもできるという。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- 「ChatGPT」の躍進、半導体市場の次なるけん引役に
OMDIA シニアコンサルティングディレクターの南川明氏は、半導体市場やマクロ経済が今後、各国のグリーン関連投資や生成系AIの普及に伴うサーバ投資などにより、右肩上がりに成長すると予測した。 - 時価総額1兆ドル超え、生成AIブームに乗るNVIDIA
生成AIの世界的ブームの波に乗り、NVIDIAの時価総額は1兆ドルを突破した。同社CEO、Jensen Huang氏は2023年5月、「COMPUTEX TAIPEI 2023」の基調講演で登壇し、生成AIの持つ可能性や、その基盤として必要となる最新製品について語った。 - ハーバード中退コンビのLLM向けチップ新興が資金獲得
ハーバード大を中退した20代コンビによるAIチップ新興Etched.aiが、シードラウンドで536万米ドルを獲得した。同社のLLMアクセラレーターは、NVIDIAのH100 PCIeと比較し、1ドル当たり140倍のスループットを達成できるという。 - AI需要増で2023年のAIサーバ出荷台数は40%増に
近年のAI需要の高まりを受け、AIサーバの出荷台数が2023年、前年比38.4%増と飛躍的に増加するという。台湾の市場調査会社TrendForceが予測を発表した。 - NVIDIAとMediaTek、車載用SoC開発で協業
NVIDIAとMediaTekは2023年5月、車載用SoCの開発で協業すると発表した。ソフトウェアで定義される車室内システムに向けて、MediaTekが開発する車載用SoCとNVIDIA製GPUチップレットやAI機能などを統合し、自動車メーカーなどに提供していく。 - 計算リソグラフィを40倍高速化するAIライブラリ
NVIDIAは、計算リソグラフィ(Computational Lithography)の高速化に向けたAIライブラリを発表した。1枚のフォトマスクの作成時間が、2週間から8時間に、大幅に短縮されるとする。TSMCは2023年6月から導入するという。