メディア

2026年のHBM市況、カギを握るのは最新世代「HBM4」福田昭のストレージ通信(301) 半導体メモリの行方をアナリストが解説(5)(2/2 ページ)

» 2025年12月19日 11時00分 公開
[福田昭EE Times Japan]
前のページへ 1|2       

AIチップが搭載するHBM容量は288Gバイト、1年半で2倍に

 続いて需要動向を見ていこう。標準的なAI処理プロセッサであるハイエンドの大規模GPUでは、HBMモジュールを主記憶として同一のパッケージに搭載することがごく当たり前になっている。GPU(厳密にはGPUモジュール)はプロセッサ(GPUダイ)とHBMモジュールで構成された状態になってから販売される。HBMの主要な需要家(最大顧客)とは、GPUベンダー、あるいはAIプロセッサ(モジュール)のベンダーを意味する。

 HBMの最大ユーザーは、市販GPUのトップベンダーNVIDIAであることはDRAM業界では良く知られている。それからGPU大手のAMDも、HBMの重要なユーザーだ。

 Wang氏による講演では、両社のAIチップとHBM仕様(DRAMダイ積層数とモジュール容量、搭載HBMモジュール数、搭載HBMの総記憶容量)が四半期ごとのロードマップとして示されていた。NVIDIAのAIチップが搭載するHBMモジュールの総記憶容量は、2024年前半に80Gバイト〜144Gバイトだった。主力のHBMモジュールは、HBM3E世代(DRAMダイ8枚の積層)の16Gバイトモジュールまたは24Gバイトモジュールである。

 これが2025年後半になると、HBM3E世代でも主力製品はDRAMダイを12枚積層した36Gバイトモジュールに変わる。総記憶容量は288Gバイトで1年半前の2倍に増加する。2026年になるとHBM4世代のモジュールを搭載したAIチップの出荷が始まる。DRAMダイの積層数は12枚、モジュールの記憶容量は36GバイトとHBM3E世代と同じであるものの、データ転送速度が大きく向上する。

NVIDIAとAMDのAIチップとHBM仕様のロードマップ(2024年第1四半期(1Q24)〜2026年第4四半期(4Q26)) NVIDIAとAMDのAIチップとHBM仕様のロードマップ(2024年第1四半期(1Q24)〜2026年第4四半期(4Q26))[クリックで拡大] 出所:2025 Proceedings of FMS、TrendForce

 AMDのAIチップが搭載するHBMモジュールの総記憶容量は2024年前半が128Gバイト(HBM2E世代、8枚積層の16Gバイトモジュール)と192Gバイト(HBM3世代、12枚積層の24Gバイトモジュール)、2024年後半が256Gバイト(HBM3E世代、12枚積層の36Gバイトモジュール)である。2025年には搭載するHBMモジュールの総記憶容量が288Gバイト(HBM3E世代、12枚積層の36Gバイトモジュール)に拡大する。そして2026年には、HBM4世代の36Gバイトモジュールを採用した総記憶容量288GバイトのAIチップが出荷される。

HBMの記憶容量当たり価格は2025年に21%上昇すると予測

 平均価格(ASP)は、HBMモジュールのGビット当たり価格を意味する。HBMの価格交渉は単年ごとに実施されるという。2022年のASPは1.40米ドルだった。2023年には1.38米ドルとわずかに低下した。2024年は1.49米ドルで、ASPは反発した。同年はHBM3E世代の出荷比率が増加したことにより、価格が上昇したとする。

 2025年のASPは大幅に上昇し、1.80米ドルに達すると予測する。12枚積層のHBM3E世代の量産が始まったことによって同世代の比率がさらに増加し、価格を押し上げる。

平均価格(ASP)の推移(2022年〜2025年) 平均価格(ASP)の推移(2022年〜2025年)[クリックで拡大] 出所:2025 Proceedings of FMS、TrendForce

(次回に続く)

⇒「福田昭のストレージ通信」連載バックナンバー一覧

前のページへ 1|2       

Copyright © ITmedia, Inc. All Rights Reserved.

特別協賛PR
スポンサーからのお知らせPR
Pickup ContentsPR
Special SitePR
あなたにおすすめの記事PR

RSSフィード

公式SNS

All material on this site Copyright © ITmedia, Inc. All Rights Reserved.
This site contains articles under license from AspenCore LLC.