HBMのさらなる性能向上を実現する代替案としては、メモリをよりプロセッサに近づけて配置することでエネルギー消費量削減を実現するというものがある。
データ通信のエネルギーコストは非常に高く、距離とともに指数関数的に増大する。Samavedam氏によれば、理想的なのは、より多くのメモリを、プロセッサにできるだけ近づけて配置することだという。
「プロセッサの中には、非常にローカルなレジスターファイルがある。これを1倍のエネルギーと考えると、L2/L3キャッシュのような(プロセッサ上部の)SRAMキャッシュを使用すれば、エネルギーは約100倍になる。さらに、HBMにデータをフェッチしなければならない場合、エネルギーは500倍になる。エネルギーの観点からみると、メモリをプロセッサのすぐ近くに移動させるに越したことはないのだ」(Samavedam氏)
AIを実行するデータセンターのエネルギー消費量は、重要な問題となっている。
Jin氏は、イベントで行ったプレゼンの中で、「より多くのデータを高速かつ高い効率で処理するという要望が高まっている。これは、メモリ業界にとって重要なテーマだ」と述べる。
同氏が披露したスライドは、データ使用量の増加による環境への影響を浮き彫りにしている。それによると、全世界のデータセンターのエネルギー消費量は年間1兆kWhに達する見込みで、これは韓国全体の年間消費電力量の4倍に相当するという。
Samavedam氏によれば、AIアプリケーションには、大量のエネルギーを消費するデータの往復移動が必要だという。
「モデルはますます複雑化している。最近では数十億から1兆以上という膨大なパラメータが必要となっている。それらをメモリ領域に格納し、頻繁にアクセスする必要がある。『データアクセス、データ帯域幅、データ容量』。AIのトレーニングや推論が本格化する今後10年ほどの間に、これらが問題化していくだろう」(Samavedam氏)
Jin氏は「プロセッサインメモリ」のような技術革新に期待を寄せている。
「エコシステムがこの新しいソリューションを採用する準備ができていないため、時間はかかるだろうが、将来のAIやビッグデータ計算のための非常に強力な候補になることは間違いないだろう」(同氏)
【翻訳:田中留美、編集:EE Times Japan】
Copyright © ITmedia, Inc. All Rights Reserved.