SynSenseの低次元信号(音声、生体信号、信号監視)処理用ミックスドシグナルプロセッサの消費電力は500μW未満である。SynSenseは、自社技術をすぐに製品化する計画ではなかった。オンチップのリソースがビジョンプロセシングの要件であるCNNを動作させるには十分ではなかったからだ。同社は、CNNに合わせた2つ目のデジタルアーキテクチャを開発した。そのIPはPropheseeのMetavisionセンサーに統合される予定だという。
完全な非同期デジタルアーキテクチャに移行することは、消費電力を減らしつつ、より高度なプロセス技術に移行できることも意味する。
SynSenseのプロセッサIPは、CNNのイベントベースバージョンに合わせたスパイキング畳み込みコアで構成されている。SynSenseは、スパイキングニューラルネットワーク向けの誤差逆伝搬(バックプロパゲーション)をベースとしたトレーニングを採用している。Muir氏によると、そうしたアプローチによって、イベント領域の中で作動するよう変換された標準的なCNNを超えて時間信号の処理を強化できる。誤差逆伝搬は、トレーニング中にスパイクの微分を近似することで得られる。それとは対照的に、推論は完全にスパイクベースとなる。
SynSenseのスパイキングニューロンはシナプスの重みは8ビット、ニューロンステートは16ビット、閾値は16ビット、1ビットの入出力のスパイクを持つ整数論理を用いている。このニューロンはシンプルなニューロンモデルである「積分発火」だ(これは「漏れ積分発火」などのより複雑なモデルに比べ最もシンプルなニューロンモデルといえる。よりシンプルなバージョンでは、入力がない場合は内部状態が減衰しないため、計算要件が減る)。SynSenseのニューロンでは8ビットの数値と16ビットの数値を加算し、それを16ビットの閾値と比較する。
Muir氏は「ニューロンの設計をここまで単純化しながら、極めて優れた性能を実現できたことに、当初われわれも少し驚いた」と述べた。
SynSenseのデジタルチップはCNN処理に特化しており、CNNの各レイヤーは異なるプロセッサコアで処理される。コアは単独で非同期的に動作する。全体の処理パイプラインはイベントによって駆動する。(ユーザーがデバイスを見ているかどうかにかかわらず)相互作用の意図を監視するシステムのデモでは、SynSenseのスタックは100ミリ秒以下の待ち時間(レイテンシ)で入力を処理した。その際、センサーとプロセッサの消費電力は5mW未満だった。
SynSenseはいくつかのバージョンのプロセッサコアをテープアウトしている。また、Speckセンサーは、スマートフォンやスマートホーム用機器などリアルタイムの視覚検知用途で商業化する準備ができている。このカメラの128×128という解像度は、短距離の屋内用途には十分である(監視など屋外用途にはより高い解像度が必要になる)
【翻訳:青山麻由子、編集:EE Times Japan】
Copyright © ITmedia, Inc. All Rights Reserved.