「CES 2026」では、メモリ大手3社が手掛ける広帯域メモリ(HBM)の最新技術「HBM4」に注目が集まった。長らくSK hynixに後れを取っていたSamsung Electronicsも巻き返しを図っている。
「CES 2026」(2026年1月6〜9日、米国ネバダ州ラスベガス)において最大の目玉となったのは、最新のAIシステムの中でも特に、大規模トレーニングモデルを実行するための重要なコンポーネントとされる広帯域メモリ(HBM)だった。メモリ3大メーカーであるMicron Technology(以下、Micron)とSamsung Electronics(以下、Samsung)、SK hynixは、それぞれHBM4の切り札を持っており、AIスケーリングの進展を阻む「メモリの壁(memory wall)」に対応することが可能なHBM4デバイスの準備態勢が整っていることを大いにアピールしていた。
HBM4は、HBM技術の最も重要なアーキテクチャの全面的な見直しを実行することにより、このメモリの壁に対する解決策になると期待されている。メモリの壁とは、データ処理速度が、そのデータをプロセッサに伝送するためのメモリ性能を超えてしまうというボトルネックだ。HBM4は、次世代AIアクセラレーターやデータセンターワークロード向けに、帯域幅や電力効率、システムレベルのカスタマイズなどの大幅な向上を実現すべく開発された。
第6世代のHBM技術であるHBM4は、こうした課題に対応すべく、漸進的な速度向上の枠を超えて、メモリインタフェースの完全な再設計を実現する。最初に生成AIブームの波を引き起こした初期のHBM3デバイスと比べて、約3倍の性能向上を達成するという。
HBM4は、ロジックダイを統合し、メモリスタックをコプロセッサとして機能させ、基本データがメインのAIプロセッサに到達する前の段階での処理を可能にすることから、メモリアーキテクチャにおけるもう1つの抜本的な移行を実現する。これは、メモリが受動的なストレージから能動的なコンポーネントへと変化すると同時に、計算だけを行っていた時代が終えんを迎えたことを示している。
HBM4の熱狂を巻き起こす主な要素となったのが、NVIDIAのGPUプラットフォーム「Rubin」だ。Rubinは、現在生産が始まっており、初期のHBM4デバイスの最初の独占的な消費者として位置付けられている。報道によれば、MicronとSamsung、SK hynixは、既にNVIDIA向けにHBM4のサンプル出荷を開始していて、2026年にはHBM4チップの量産を開始する予定だという。
現在の世界HBM市場で50%超のシェアを握っている業界リーダーSK hynixは、CES 2026において、容量48ギガバイト(GB)の16層HBM4デバイスを発表した。DRAMを最大16層まで積層することにより、容量と速度の両方を大幅に向上させ、2TB/秒を超える帯域幅を達成したという。同社は2026年第3四半期に、このHBM4デバイスの量産を開始する予定だとしている。
同社は、独自開発技術「MR-MUF(Mass Reflow Molded Underfill)」を適用し、JEDECの厳格な高さ制限である775μmに対応すべく、個々のDRAMウエハーで30μmという驚異的な薄さを実現している。MR-MUF技術は、HBM製品に垂直積層された全てのチップを相互接続することで、さらなる効率化を実現するという。
SK hynixの16層HBM4デバイスに関するもう1つの注目すべき点は、同社がTSMCとの協業により、12nmロジックをベースダイとして搭載し、HBM4スタックの制御ロジックやブレーンとして機能させているという点だ。このようなメモリベースのノードからロジックノードへの移行により、HBM4は実質的に、特殊なAIワークロード向けに適合させることが可能なカスタムメモリソリューションへと進化することになる。
Copyright © ITmedia, Inc. All Rights Reserved.
記事ランキング