検索
ニュース

時価総額1兆ドル超え、生成AIブームに乗るNVIDIACOMPUTEX 2023でCEOが登壇(2/3 ページ)

生成AIの世界的ブームの波に乗り、NVIDIAの時価総額は1兆ドルを突破した。同社CEO、Jensen Huang氏は2023年5月、「COMPUTEX TAIPEI 2023」の基調講演で登壇し、生成AIの持つ可能性や、その基盤として必要となる最新製品について語った。

Share
Tweet
LINE
Hatena

大容量メモリと1EFLOPSの性能備えたAIスーパーコンピュータ

 圧倒的な性能が必要な場合に最適なのは、「Grace Hopper DGX GH200」だ。DGX GH200は、「NVLink」インターコネクト技術とNVLinkスイッチシステムを使用して256個のGH200スーパーチップを組み合わせることで、単一のGPUとして動作する新しいクラスの大容量AIスーパーコンピュータである。DGX GH200は、1EFLOPSの性能と144TB(テラバイト)の共有メモリ(2020年に発表された前世代の「NVIDIA DGX A100」の約500倍)を搭載する。

 Huang氏は、「生成AIとLLM、レコメンダーシステムは、現代の経済のデジタルエンジンだ。DGX GH200 AIスーパーコンピュータは、NVIDIAの最先端高速コンピューティングとネットワーキング技術を統合して、AIのフロンティアを拡大するものだ」と述べている。

 GH200 Superchipは、「NVLink-C2C」チップインターコネクトを使用して、ArmベースのGrace CPUと「H100」テンソルコアGPUを同一パッケージに組み合わせることで、従来のCPUからGPUへのPCIe接続を不要としている。これにより、GPUとCPU間の帯域幅が最新のPCIe技術と比較して7倍に増加し、インターコネクトの消費電力は5分の1以下に削減。DGX GH200スーパーコンピュータで600GBのHopperアーキテクチャGPUビルディングブロックを実現できるという。

 DGX GH200は、Grace HopperスーパーチップとNVLinkスイッチシステムを組み合わせた最初のスーパーコンピュータだ。NVLinkスイッチシステムは、DGX GH200システム内の全てのGPUを連携して単一のGPUとして動作させる新しいインターコネクトである。前世代のシステムでは、性能を損なうことなくNVLinkで8つのGPUを1つのGPUとして組み合わせることしかできなかった。DGX GH200のアーキテクチャは、前世代よりも48倍多くのNVLink回線を提供し、単一のGPUをプログラミングするようにシンプルに利用できる大規模AIスーパーコンピュータを実現した。

 Huang氏によると、Google CloudとMeta、Microsoftは、DGX GH200へのアクセスをいち早く獲得し、生成AIワークロードの機能を検証したという。NVIDIAはまた、DGX GH200の設計をクラウドサービスプロバイダーやその他のハイパースケーラーが自社のインフラに合わせてさらにカスタマイズできるように提供する予定だという。

AIに特化した高速ネットワーキングプラットフォーム

 ネットワーキング面では、Huang氏は、高速ネットワーキングプラットフォームである「Spectrum-X」を発表した。Spectrum-Xは、イーサネットベースのAIクラウドの性能と効率の向上に向けて設計された。これは、NVIDIAの「Spectrum-4」イーサネットスイッチと「BlueField-3」DPUの密接な結合によって強化されたネットワークイノベーションに基づいて構築されていて、マルチテナント環境で一貫性のある予測可能な性能を提供する。さらにAI全体の性能と電力効率が従来の1.7倍向上するという。NVIDIAのアクセラレーションソフトウェアとソフトウェア開発キット(SDK)を使用すると、開発者はソフトウェア定義のクラウドネイティブなAIアプリケーションを構築できる。

 Dell Technologies(以下、Dell)とLenovo、Supermicroは、既にSpectrum-Xを使用している。

 NVIDIAはまた、Spectrum-Xリファレンスデザインのブループリントおよびテストベッドとして、8GPU構成の「HGX H100」プラットフォームとBlueField-3 DPU、Spectrum-4スイッチをベースとしたDellの「PowerEdge XE9680」サーバ上で、イスラエルのデータセンターに展開するハイパースケール生成AIスーパーコンピュータ「Israel-1」を構築しているという。

 Spectrum-Xネットワーキングプラットフォームは、さまざまなAIアプリケーションで使用できる。完全に標準ベースのイーサネットを使用しているため、イーサネットベースのスタックと相互運用が可能だ。性能の分離によってマルチテナント機能を強化し、テナントのAIワークロードの最適かつ一貫した性能を保証する。性能のボトルネックを特定できるため、AI性能の可視性が向上し、完全に自動化されたファブリック検証機能も備える。

 このイーサネットプラットフォームは、単一スイッチで接続された256個の200Gビット/秒ポート、または2層リーフスパイントポロジーで1万6000個のポートを実現し、高レベルの性能を維持してネットワーク遅延を最小限に抑えながら、AIクラウドの成長と拡張をサポートする。

NVIDIAのCEO、Jensen Huang氏(左)と本稿筆者であるEE TimesのNitin Dahad記者[クリックで拡大]
NVIDIAのCEO、Jensen Huang氏(左)と本稿筆者であるEE TimesのNitin Dahad記者[クリックで拡大]

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る