Malik氏は「HBM5は、メモリとコントローラーの配置を含むアーキテクチャの複雑さにより、標準化と導入に課題がある」と指摘する。ワークロードに必要となるコンピューティングダイあたりのHBMスタックが増えるにつれ、次世代AIおよびコンピューティングハードウェアソリューションを設計する顧客にとって、高いメモリ帯域幅と容量の増加のバランスを取ることが重要になる。
Malik氏は「AIが容量のパラメータを爆発的に増加させた」と指摘し、「トップクラスのAIモデルは急速に成長し、パラメータの数は数百万から数十億に増加した。単一モデルで処理するパラメータ数は1兆に上ると予想され、それらのパラメータをメモリ内に保持する必要がある」と述べた。
MarvellのカスタムHBMアーキテクチャは、メモリ容量を33%増加させ、コンピューティング領域を最大25%拡張し、メモリインタフェースの消費電力を70%削減するという。この指標は、AIワークロードを実行する現代のデータセンターにおいて、特に重要となっている。最適化されたインタフェースにより、各ダイに必要なシリコン領域が削減され、HBMサポートロジックをベースダイに統合することが可能になる。
Malik氏は「MarvellがHBM5のアーキテクチャで提案しているのは、ダイツーダイインターコネクトを採用して接続を高速化し、スペースをさらに解放することだ」と述べている。MarvellのアーキテクチャはJEDEC規格に依存せず、新しいコントローラーとカスタマイズ可能な物理インタフェース、新しいダイツーダイインタフェースおよび、刷新されたHBMベースのダイを必要とする。
「ハイパースケーラーや、NVIDIAなどのGPUメーカーは、帯域幅とコンピューティングのニーズに重点を置き、独自のHBMアーキテクチャで革新を加速させている。業界がフルスピードで前進する中、アップデートに時間がかかる標準化団体よりも先行することが多くなっている」(Malik氏)
【翻訳:滝本麻貴、田中留美、編集:EE Times Japan 】
Copyright © ITmedia, Inc. All Rights Reserved.