メディア

AIブームで脚光を浴びるHBM 販売台数は2035年に15倍にHBM4の開発も進む

AIデータセンターの需要が成長する中、ワークロード並列処理をサポートする広帯域幅メモリ(HBM)の注目度が高まっている。HBMの販売台数は、2035年までに2024年の15倍に成長すると見込まれている。

» 2025年03月31日 10時30分 公開
[Majeed AhmadEE Times]

 HBM(広帯域幅メモリ)が再び脚光を浴びている。米国カリフォルニア州サンノゼで2025年3月17〜21日(米国時間)に開催されたイベント「GTC(GPU Technology Conference)2025」では、SK hynixがAIサーバ向けの12層HBM3Eデバイスを展示した。同社は現在開発中の12層HBM4も披露し、2025年後半に量産するための準備作業が完了したことを明かした。

 もう1つの大手メモリメーカーであるMicron Technology(以下、Micron)は、AIおよび高性能コンピューティング(HPC)アプリケーションにおいて同社のHBMチップの需要が非常に強いことを示唆している。同社のCBO(最高業務責任者)であるSumit Sadana氏は、Reutersの取材に対して「2025年分の当社のHBMチップはもう完売した」と述べている。

広帯域幅メモリはキャッシュとメインメモリの間に「ニアメモリ」を作り出す 広帯域幅メモリはキャッシュとメインメモリの間に「ニアメモリ」を作り出す[クリックで拡大] 出所:IDTechEx

 HBMは基本的に、ロジックダイの上にDRAMダイを垂直積層した3D構造で、シリコン貫通電極(TSV)のような先進パッケージング技術を活用し、プロセッサとの相互接続にはシリコンインターポーザーを使用している。HPC/AIワークロードなどの並列コンピューティング環境に非常に適すると実証されている。

 それは、HBMがGPUやAIアクセラレーターの各種コアからの複数のメモリ要件を同時に処理して、ワークロードの並列処理をサポートできるからだ。実際にHBMは、データ集約型のHPC/AIワークロードのメモリボトルネックを解消するための主な手段となっている。HBMがなければ、メモリボトルネックのためにAIプロセッサが十分に活用されなくなってしまうのだ。

2035年までに販売台数は15倍に

 HBMデバイスに関して非常に重要なのが、AIアクセラレーターの性能を向上するための継続的な開発だ。既存世代のHBM3Eデバイスは、マイクロバンプやアンダーフィルに熱圧縮を適用して、DRAMダイを集積する。MicronやSamsung Electronics、SK hynixなどのHBMメーカーは、HBM4デバイスへの移行を進めていて、出入力の向上や低消費電力化、熱放散の向上、電極の減寸などを実現すべく、Cu-Cu接合によるハイブリッドボンディングなどの先進パッケージング技術を採用している。

 市場調査会社IDTechExのレポート「Hardware for HPC, Data Centers, and AI 2025-2035: Technologies, Markets, Forecasts(2025〜2035年のHPC/データセンター/AI向けハードウェア:技術/市場/予測」では、AI/HPCワークロードに対応したHBMデバイスの主要な開発と動向について調査が行われている。HBMの販売台数は、2035年までに2024年の15倍に増加する見込みだという。

HBM販売台数の成長予測 HBM販売台数の成長予測[クリックで拡大] 出所:IDTechEx

 HBMは2024年、AIプロセッサのメモリの壁を打ち破ることが可能な技術として大きな注目を集めた。その傾向はHBM4メモリデバイスの登場によって2025年以降も続いていくとみられる。

【翻訳:田中留美、編集:EE Times Japan】

Copyright © ITmedia, Inc. All Rights Reserved.

RSSフィード

公式SNS

All material on this site Copyright © ITmedia, Inc. All Rights Reserved.
This site contains articles under license from AspenCore LLC.