NVIDIAは、生成AI用途に向けた次世代のコンピューティングプラットフォーム「NVIDIA GH200 Grace Hopper Superchip」を発表した。広帯域幅メモリの最新バージョンである「HBM3e」を採用した。現行製品に比べ、最大で3.5倍のメモリ容量と3倍の帯域幅を実現できるという。
NVIDIAは2023年8月、生成AI用途に向けた次世代のコンピューティングプラットフォーム「NVIDIA GH200 Grace Hopper Superchip」を発表した。広帯域幅メモリの最新バージョンである「HBM3e」を採用した。現行製品に比べ、最大で3.5倍のメモリ容量と3倍の帯域幅を実現できるという。
GH200 Grace Hopper Superchip(以下、GH200)は、NVIDIA製GPU(Hopper)とArm製CPU(Grace)を1つのモジュールに統合した製品で、GPU側にはHBMメモリを搭載している。NVIDIAは、2023年5月に台湾で開催された「COMPUTEX TAIPEI 2023」でGH200の量産開始を発表した。今回発表した次世代GH200では、このHBMメモリを現行製品の「HBM3」から「HBM3e」に変更し、製造プロセスも微細化している。
デュアル構成の製品は現行製品と比べ、メモリ容量は最大3.5倍に増え、帯域幅は3倍となった。また、144個のArm「Neoverse」コアを集積し、8ペタフロップスのAI(人工知能)パフォーマンスを備えた製品である。NVIDIA独自のメモリインタフェース「NVLink」の採用によって追加のSuperchipを接続し、容易に拡張することもできるという。
「ChatGPT」の躍進、半導体市場の次なるけん引役に
時価総額1兆ドル超え、生成AIブームに乗るNVIDIA
ハーバード中退コンビのLLM向けチップ新興が資金獲得
AI需要増で2023年のAIサーバ出荷台数は40%増に
NVIDIAとMediaTek、車載用SoC開発で協業
計算リソグラフィを40倍高速化するAIライブラリCopyright © ITmedia, Inc. All Rights Reserved.
記事ランキング