メディア

NVIDIA、HBM3eメモリ採用の次世代GH200を発表生成AI向けプラットフォーム

NVIDIAは、生成AI用途に向けた次世代のコンピューティングプラットフォーム「NVIDIA GH200 Grace Hopper Superchip」を発表した。広帯域幅メモリの最新バージョンである「HBM3e」を採用した。現行製品に比べ、最大で3.5倍のメモリ容量と3倍の帯域幅を実現できるという。

» 2023年08月22日 14時30分 公開
[馬本隆綱EE Times Japan]

最大で3.5倍のメモリ容量と3倍の帯域幅を実現

 NVIDIAは2023年8月、生成AI用途に向けた次世代のコンピューティングプラットフォーム「NVIDIA GH200 Grace Hopper Superchip」を発表した。広帯域幅メモリの最新バージョンである「HBM3e」を採用した。現行製品に比べ、最大で3.5倍のメモリ容量と3倍の帯域幅を実現できるという。

 GH200 Grace Hopper Superchip(以下、GH200)は、NVIDIA製GPU(Hopper)とArm製CPU(Grace)を1つのモジュールに統合した製品で、GPU側にはHBMメモリを搭載している。NVIDIAは、2023年5月に台湾で開催された「COMPUTEX TAIPEI 2023」でGH200の量産開始を発表した。今回発表した次世代GH200では、このHBMメモリを現行製品の「HBM3」から「HBM3e」に変更し、製造プロセスも微細化している。

 デュアル構成の製品は現行製品と比べ、メモリ容量は最大3.5倍に増え、帯域幅は3倍となった。また、144個のArm「Neoverse」コアを集積し、8ペタフロップスのAI(人工知能)パフォーマンスを備えた製品である。NVIDIA独自のメモリインタフェース「NVLink」の採用によって追加のSuperchipを接続し、容易に拡張することもできるという。

次世代GH200の外観 次世代「GH200の外観」[クリックで拡大] 出所:NVIDIA

Copyright © ITmedia, Inc. All Rights Reserved.

RSSフィード

公式SNS

All material on this site Copyright © ITmedia, Inc. All Rights Reserved.
This site contains articles under license from AspenCore LLC.