メディア

東工大ら、PIM型NNアクセラレーターのマクロを開発モバイルエッジ機器向けAI技術

東京工業大学と工学院は、モバイルエッジデバイスに搭載可能な、PIM(プロセッシングインメモリ)型ニューラルネットワーク(NN)アクセラレーターのマクロを開発した。動作時と待機時の電力消費が極めて小さく、高い演算能力とエネルギー効率を実現できるという。

» 2023年04月28日 13時30分 公開
[馬本隆綱EE Times Japan]

動作時で99%、待機時で84%もの電力消費を削減

 東京工業大学科学技術創成研究院未来産業技術研究所の菅原聡准教授と工学院電気電子系の塩津勇作博士後期課程大学院生(研究当時)らによる研究グループは2023年4月、モバイルエッジデバイスに搭載可能な、PIM(プロセッシングインメモリ)型ニューラルネットワーク(NN)アクセラレーターのマクロを開発したと発表した。動作時と待機時の電力消費が極めて小さく、高い演算能力とエネルギー効率を実現できるという。モバイルエッジデバイスに搭載可能なAI技術として注目される。

 SRAM技術を用いたPIM型NNアクセラレーターは、高い性能を得ることができ、現行のCMOS技術で実装することが可能である。また、エネルギー効率を向上させるには、エネルギー最小点(EMP)となる駆動電圧(VEMP)を用いた推論動作が効果的だという。これによって、積和(MAC)演算の並列数を増やすことも可能になる。

 研究グループは最近、3モード動作を実現した超低電圧リテンションSRAM(ULVR-SRAM)セルを提案した。モードの1つ目は通常電圧(VDD=1.2V)下で、従来SRAMと同等の性能で動作する。2つ目は0.2V程度の超低電圧(VUL)になっても、データを保持(ULVR)できるため、待機時の消費電力を大幅に削減できる。3つ目はEMPとなる電圧(VEMP=0.4V)での動作も実現できる可能性があり、エネルギー効率を最大化できる、という3つである。

提案したULVR-SRAMセルの回路構成 出所:東京工業大学

 今回はまず、トランジスタの特性バラツキを考慮しつつ、3モード動作を実現できるULVR-SRAMセルの設計技術を開発した。その上で、ULVR-SRAMセルを用いPIM型NNアクセラレーターのマクロを設計した。NNアーキテクチャには2値化ニューラルネットワーク(BNN)を用いた。

 開発したPIM型BNNアクセラレーター(BNA)マクロは、1個のマクロで256ビットの入力ベクトルに対する積和演算が可能だという。BNAマクロには、重みデータとバイアスデータを格納するためのULVR-SRAMが用意されている。これらを同時に読み出すことで、効率的にMAC演算を実行し、アクティベーション判定を行う。

PIM型BNAマクロのレイアウト 出所:東京工業大学

 開発したBNAマクロのPG(パワーゲーティング)性能を調べ、待機電力削減効果を評価した。メモリセル部をVUL=0.2Vでデータ保持し、その他の回路は電源を遮断した。この結果、クロックゲーティング時のスタンバイ状態に比べ、待機時の電力を84%削減できることが分かった。6TセルのSRAMを用いた場合に比べると、94%の削減になるという。

 続いて、推論動作時の性能を評価した。電源電圧(VDDM)が小さくなると、平均動作時電力(Pavg)と動作周波数(fm)は減少し、0.4Vで消費エネルギー(Ecyc)が最小になった。つまり、0.4VがVEMPとなり、この作動点では通常電圧動作(1.2V)に比べ、動作周波数(fm)は1/10となり、動作時電力は1/100(99%減)となる。これは、MAC演算の並列化に極めて有効だという。BNAにおける推論のエネルギー効率(η)は、0.4Vで最大となり65TOPS/Wと極めて高い値となった。

EcycやPavg、fmおよび、ηのVDDM依存性 出所:東京工業大学

 開発した複数のBNAマクロを用い、1024ノードの全結合層を構成した。Muv(j)が1つのBNAマクロである。v軸(縦)方向にある複数のBNAマクロを同時にMAC演算することをノード内並列化(INP)、u軸(横)方向にある複数のBNAマクロを同時にMAC演算することをレイヤー内並列化(ILP)と呼ぶ。それぞれの並列数を「NINP」「NILP」とすれば、全体の並列数(NP)は、NINPとNILPで表すことができる。1マクロ当たりMAC演算ユニットを1つ有する場合、NPは16となる。1マクロ当たりMAC演算ユニットを増設すれば、NPを大きくすることができる。

開発したBNAマクロを用いた全結合層の構成例 出所:東京工業大学

 研究グループは、並列化の効果についても検証した。平均動作時電力(PFCLMP)や演算能力(TOPSFCLMP)および、エネルギー効率(ηFCLMP)について、ネットワーク層数(m)との関係性を調べた。全結合層1層当たりのニューロン数は1024である。

 検証した結果、「MAC演算の並列化によって高性能化を実現できる」「NP=16の場合に、EMP動作によって1.2V動作時と同程度の演算性能を保ちながら、Pavgを1.2V動作時の約1/10にできる」「NPを128にすると、Pavgは1.2V動作時と同程度でありながら、演算量を約10倍に増大できる」「EMP動作時の演算効率は、どの場合でも約65TOPS/Wと極めて高い」ことなどが分かった。

ネットワーク層数に対する全結合層の平均動作時電力、演算能力、エネルギー効率を示した図 出所:東京工業大学

 研究グループは、「今回開発した成果を、たたみ込み層に応用すれば200TOPS/W以上の高いエネルギー効率を得ることができる」という。

Copyright © ITmedia, Inc. All Rights Reserved.

RSSフィード

公式SNS

All material on this site Copyright © ITmedia, Inc. All Rights Reserved.
This site contains articles under license from AspenCore LLC.