検索
ニュース

スマホに高度なAIモデルを実装できる? アナログメモリスタの抵抗制御技術抵抗レベル数を増やすアルゴリズム

大阪大学の研究グループは、アナログメモリスタの抵抗レベル数を大幅に増やすことができる新たなアルゴリズムを開発した。スマートフォンやIoT機器などにおいて高度なAIモデルの実装が期待される。

Share
Tweet
LINE
Hatena

2000万パラメータのニューラルネットワーク計算で分類精度95.5%

 大阪大学大学院基礎工学研究科システム創成専攻のDIAO ZHUO助教、藤平哲也准教授、酒井朗教授らによる研究グループは2025年3月、アナログメモリスタの抵抗レベル数を大幅に増やすことができる新たなアルゴリズムを開発したと発表した。スマートフォンやIoT機器などにおいて高度なAIモデルの実装が期待される。

 アナログメモリスタは、電圧を加えることで抵抗値を自由に設定できる電子部品で、1つのメモリスタで複数の情報を記憶することができる。この特性を生かし、ニューラルネットワークの重みを抵抗状態に対応させれば、AIハードウェアにおけるエネルギー効率と演算速度を飛躍的に向上できる可能性があるという。ただ、これまでは設定可能な抵抗レベル数が100程度に限られていたことや、非線形な抵抗変化が課題となっていた。

 研究グループは今回、フィードフォワードの抵抗制御アルゴリズムを新たに開発した。制御信号ごとに測定した抵抗変化率を事前に校正することで、メモリスタの抵抗変化にかかわる非線形性を補正でき、抵抗レベルの数を大幅に増やすことが可能となった。

 実験ではバルク型電気伝導メモリスタに着目。これまで研究グループが開発してきたドーパントイオン(酸素空孔)の二次元トポロジーを精密に制御できる「平面型4端子TiO2-xメモリスタ」を用いた。この結果、抵抗比が1.1倍でも512段階の抵抗レベルと、10-3という低非線形性を達成した。

 さらに今回は、アナログメモリスタによるニューラルネットワークの精度評価フレームワークを構築。抵抗レベル数と非線形性がニューラルネットワークの性能に与える影響について、これを定量化する手法を開発した。

 この結果、MNISTの手書き数字認識のように単純なタスクだと「8レベル(3ビット精度)」で十分だが、ResNet-34のように複雑なデータセットでは「256レベル(8ビット精度)」が必要になることが分かった。

 今回開発したアルゴリズムと平面型4端子TiO2-xメモリスタを用いて、精度を検証した。アナログメモリスタをRPU(Resistive Processing Unit)として用い、2000万パラメータのニューラルネットワーク計算を行ったところ、95.5%という分類精度を達成した。

新開発のアルゴリズムを用いることでAIの精度を向上[クリックで拡大] 出所:大阪大学
新開発のアルゴリズムを用いることでAIの精度を向上[クリックで拡大] 出所:大阪大学

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る