以下に、HBFはどのような問題を解決できるのか、また商用化を実現する上で今後どのような課題が待ち受けているのかという点について、概要をまとめたい。
HBFは、HBMのようなパッケージに組み込まれたNANDフラッシュメモリ技術だ。主なターゲットに定めているのは、レイテンシに敏感なアプリケーションではなく、読み出し中心のAI推論タスクである。HBFの特性である大容量と高スループットは、特に現在ではハイパースケーラー企業が推論をエッジ向けに推進していることもあり、AIモデルのストレージや推論要件に合致している。
一般的にエッジAI、一般的に事前学習済みモデルを採用していることが多く、HBFのアドバンテージである高速読み出し帯域幅と大容量にうまく合致する。また、HBFの弱点である書き込み速度の遅さや耐性の低さにも影響を受けない。さらに、HBFは消費電力量が低いため、エネルギー制約が厳しいエッジ環境にも最適だ。
次に、データセンターでは、HBFはトレーニングワークロードの分野でHBMを置き換えるわけではないが、HBM向けの容量拡張として有効に機能し得る。このハイブリッドモデルでは、HBMが高速キャッシュとして機能し、既存の計算に緊急に必要とされる大量データを保持する一方、AIモデルはHBFに保存される。これが、SK hynixが最近発表したハイブリッドメモリアーキテクチャ「H3」の基本的な前提とされている。
HBFは、HBMで補強されることによって、AIアクセラレーターにテラバイト級のメモリを追加する。しかし、HBFが桁外れの容量実現を確約する一方で、桁外れの複雑性にも直面する。特にインターコネクトの部分は、非常に難しい課題になるだろう。書き込み耐性に制約がある上、NANDのブロックレベルのアドレッシング制限といった課題もある。
しかし、懐疑的な見方が強いにもかかわらず、ヘテロジニアススタックで構築されたこのメモリ技術は、AI推論向けとしての優れた適合性から、急速に市場に浸透しつつある。HBFは、1638Gバイト/秒(GB/s)を超える帯域幅を達成する可能性があり、これはSSDと比べると大きな飛躍となる。また、最大512GBを実現すると期待されていて、HBM4の64GBを上回る見込みだ。
Sandiskがこの新しいストレージソリューションを「メモリ中心のAI」と呼ぶのも当然だといえる。
【翻訳:田中留美、編集:EE Times Japan】
2026年半導体市場の3大トピックを深掘り ―― DRAM不足の真相とTSMC、Intelの逆襲
NORフラッシュにもAI需要の波、迫る供給危機
HBMの代替どころか、勇み足で終わりかねない「HBF」
HBMと同等コストで記憶容量8倍、サンディスクが「HBF」推進強化
CESで繰り広げられたHBM4開発競争 Samsungも巻き返しアピール
2026年のHBM市況、カギを握るのは最新世代「HBM4」Copyright © ITmedia, Inc. All Rights Reserved.
記事ランキング