検索
ニュース

IBMがPCMを用いた推論チップ「Hermes」の性能を公開コンピュートインメモリも活用(1/2 ページ)

IBMの研究グループは、Nature Electronicsの最新号で、2022年に初めて作られた、重み400万、64コアの推論チップ「Hermes」の設計と動作を公開した。

Share
Tweet
LINE
Hatena

 IBMの研究グループは、Nature Electronicsの最新号で、2022年に初めて作られた、重み400万、64コアの推論チップ「Hermes」の設計と動作について説明している。

 Hermesは、DNN(ディープニューラルネットワーク)を読み出す場合の速度と電力効率を高めるために、アナログPCM(相変化メモリ)を使用している。IBMは、より自己完結型のエンドツーエンドチップの開発実現に向けたアイデアを実証していくことを目指し、設計を進めているところだ。


IBMの「Hermes」 出所:IBM Research

 IBM スイス リュシュリコン(Rüschlikon)研究センターのAbu Sebastian氏が率いる研究チームによると、Hermesは、エネルギー効率2.48〜9.76TOPS/Wで、行列ベクトル積のスループットは最大16.1〜63.1TOPSを達成するという。

 研究チームのメンバーは、これらの結果を、ここ数年で提出されたさまざまなメーカーのベンチマーク結果と比較した。その中には、台湾の清華大学とTSMCの共同研究チームや、米スタートアップMythicが開発したチップなどが含まれる。IBMの研究チームは、「Hermesのエネルギー効率は全般的に低いが、スループット密度は、抵抗変化型メモリをベースとした前世代のチップ『AiMC』シリーズと比べて1.8倍高く、その低いエネルギー効率を補って余りある」と主張する。またCIFAR-10画像データベースでは、どのAiMCチップよりも優れた結果を出しているという。

 深層学習モデルは乗算演算の規模が大きいため、電力を大量に消費する(図1を参照)。入力層のノードはそれぞれ、次の層に入力するために別の場所に追加される前に、適切な重みで乗算する必要がある。このため、レイヤー1に100ニューロンが存在し、それぞれがレイヤー2の100ニューロンに接続される場合、各時間ステップで1万個の重みが保存され、乗算演算が1万回実行されることになる。厳密にどのリソースを使用するかは、どの程度の精度が必要かによって決まる。またどの程度の速度が必要かは、これらの演算を実行する上でどれくらいの重みを移動させる必要があるのかにもよる。これは、データが応答するために個々のニューロンに到達する前の話だ。


図1:DNN(ディープニューラルネットワーク)の仕組み

Copyright © ITmedia, Inc. All Rights Reserved.

       | 次のページへ
ページトップに戻る