理化学研究所(理研)は、教師データがなくても、ノイズが混じった信号源から特定の人の声を聞き分けることができる「脳型学習アルゴリズム」を開発した。
理化学研究所(理研)脳科学総合研究センター神経適応理論研究チームの磯村拓哉基礎科学特別研究員と豊泉太郎チームリーダーは2018年2月、教師データがなくても、ノイズなどが混じった信号源から特定の人の声を聞き分けることができる「脳型学習アルゴリズム」を開発したと発表した。
開発した脳型学習アルゴリズム「EGHR-β(Error-Gated Hebbian Rule β)」は、並列計算でノイズ除去と信号分離を同時に実行することができる。これによって、出力の模範となるべき教師データがなくても、必要な信号を抽出(出力)することができるという。
その一例として、街中に設置された複数個のマイクで収集した音源から、主要な音源を抽出する事例を挙げた。取得した音声データには、ノイズも含め異なる重みで多くの信号が重畳されている。EGHR-βは、これらの混合データをニューラルネットワークへの入力と考え、信号の分布を手掛かりに主要な音源を抽出する。この時、脳で起こるシナプスの学習をヒントに、広域信号を用いて学習を調節するという。
EGHR-βが効率よく信号源を抽出できる理由は、ノイズ除去と信号分離を同時に行うことができるためだ。強いノイズが重畳した合成画像でもEGHR-βを適用すれば、信号源の自然画像を復元することができるという。従来手法だと自然画像の情報もノイズと一緒に除去してしまい、適切に復元することが難しかった。
研究グループは、「将来は脳型計算チップに実装し、高速かつ低電力で信号の抽出が可能になる。EGHR-βは、脳で起こるシナプスの学習と類似した性質を持ち、脳の学習メカニズムを理解することにも役立つ」とみている。
Copyright © ITmedia, Inc. All Rights Reserved.