検索
連載

2026年のHBM市況、カギを握るのは最新世代「HBM4」福田昭のストレージ通信(301) 半導体メモリの行方をアナリストが解説(5)(2/2 ページ)

2025年8月に開催された「FMS(the Future of Memory and Storage)」の一般講演を紹介するシリーズ。今回はTrendForceのアナリストであるEllie Wang氏の講演を取り上げる。広帯域メモリ(HBM)の生産能力や容量、価格を予測する。

PC用表示 関連情報
Share
Tweet
LINE
Hatena
前のページへ |       

AIチップが搭載するHBM容量は288Gバイト、1年半で2倍に

 続いて需要動向を見ていこう。標準的なAI処理プロセッサであるハイエンドの大規模GPUでは、HBMモジュールを主記憶として同一のパッケージに搭載することがごく当たり前になっている。GPU(厳密にはGPUモジュール)はプロセッサ(GPUダイ)とHBMモジュールで構成された状態になってから販売される。HBMの主要な需要家(最大顧客)とは、GPUベンダー、あるいはAIプロセッサ(モジュール)のベンダーを意味する。

 HBMの最大ユーザーは、市販GPUのトップベンダーNVIDIAであることはDRAM業界では良く知られている。それからGPU大手のAMDも、HBMの重要なユーザーだ。

 Wang氏による講演では、両社のAIチップとHBM仕様(DRAMダイ積層数とモジュール容量、搭載HBMモジュール数、搭載HBMの総記憶容量)が四半期ごとのロードマップとして示されていた。NVIDIAのAIチップが搭載するHBMモジュールの総記憶容量は、2024年前半に80Gバイト〜144Gバイトだった。主力のHBMモジュールは、HBM3E世代(DRAMダイ8枚の積層)の16Gバイトモジュールまたは24Gバイトモジュールである。

 これが2025年後半になると、HBM3E世代でも主力製品はDRAMダイを12枚積層した36Gバイトモジュールに変わる。総記憶容量は288Gバイトで1年半前の2倍に増加する。2026年になるとHBM4世代のモジュールを搭載したAIチップの出荷が始まる。DRAMダイの積層数は12枚、モジュールの記憶容量は36GバイトとHBM3E世代と同じであるものの、データ転送速度が大きく向上する。

NVIDIAとAMDのAIチップとHBM仕様のロードマップ(2024年第1四半期(1Q24)〜2026年第4四半期(4Q26))
NVIDIAとAMDのAIチップとHBM仕様のロードマップ(2024年第1四半期(1Q24)〜2026年第4四半期(4Q26))[クリックで拡大] 出所:2025 Proceedings of FMS、TrendForce

 AMDのAIチップが搭載するHBMモジュールの総記憶容量は2024年前半が128Gバイト(HBM2E世代、8枚積層の16Gバイトモジュール)と192Gバイト(HBM3世代、12枚積層の24Gバイトモジュール)、2024年後半が256Gバイト(HBM3E世代、12枚積層の36Gバイトモジュール)である。2025年には搭載するHBMモジュールの総記憶容量が288Gバイト(HBM3E世代、12枚積層の36Gバイトモジュール)に拡大する。そして2026年には、HBM4世代の36Gバイトモジュールを採用した総記憶容量288GバイトのAIチップが出荷される。

HBMの記憶容量当たり価格は2025年に21%上昇すると予測

 平均価格(ASP)は、HBMモジュールのGビット当たり価格を意味する。HBMの価格交渉は単年ごとに実施されるという。2022年のASPは1.40米ドルだった。2023年には1.38米ドルとわずかに低下した。2024年は1.49米ドルで、ASPは反発した。同年はHBM3E世代の出荷比率が増加したことにより、価格が上昇したとする。

 2025年のASPは大幅に上昇し、1.80米ドルに達すると予測する。12枚積層のHBM3E世代の量産が始まったことによって同世代の比率がさらに増加し、価格を押し上げる。

平均価格(ASP)の推移(2022年〜2025年)
平均価格(ASP)の推移(2022年〜2025年)[クリックで拡大] 出所:2025 Proceedings of FMS、TrendForce

(次回に続く)

⇒「福田昭のストレージ通信」連載バックナンバー一覧

Copyright © ITmedia, Inc. All Rights Reserved.

前のページへ |       
ページトップに戻る