検索
特集

AIは“人の脳への回帰”でさらに進化する?高性能で超省エネ(2/2 ページ)

AI(人工知能)をさらに発展させるヒントは、人間の脳にあるかもしれない。「ISSCC 2018」で、フランスCEA-Letiに聞いた。

Share
Tweet
LINE
Hatena
前のページへ |       

人間の脳は超省エネ

 同氏は、「人間の脳の処理能力は、20Wにおいて1011GOPSだ。現在のところ、人間の脳に匹敵する性能と消費電力を実現することが可能なプロセッサは、世界中のどこにもない。

 人間の体は、長い年月をかけた進化の中で、脳の機能を最大化しながらエネルギーの使用量を最小限に抑えることにより、このような高いレベルの効率性を実現してきたのだ」と説明する。

 「半導体業界は、生物学からヒントを得ることができるのではないか。既存のコンピューティングアーキテクチャは、プロセッサとメモリの間でデータ伝送を行うたびに電力を消費しなければならないため、消費電力要件をいかに満たすか、悪戦苦闘しているところだ。その一方で脳シナプスは、1つのアーキテクチャ上に、メモリとコンピューティングを統合している。このような巧妙な方法から、脳にヒントを得た非ノイマン型(von Neumann)コンピュータアーキテクチャの実現に向け、基礎を構築することができるのではないだろうか」(同氏)

 脳にヒントを得た動作原理に関しては、スパイクコーディングやスパイクタイミング依存シナプス可塑性(STDP:Spike-Timing Dependent Plasticity)などの要素が不可欠である。De Salvo氏は、「ニューロンの状態は、システム上でどのようにエンコードされるのか。ニューロン値はこれまで、アナログ量あるいはデジタル値を使用してエンコードされてきた。だが神経形態学的コンピューティング分野の最近の傾向としては、ニューロン値をパルスまたはスパイクとしてエンコードするようだ。ニューロンは、クロックではなくイベントで駆動する」と述べる。

 科学コミュニティーは、スパイクコーディングとSTDPを有望視しているようだ。入力および出力信号がパルス(スパイク)として表示されるのであれば、入力信号とシナプス荷重を乗算することで、シナプスレベルでゲート操作することになる。これにより消費電力を低減することを目指しているという。


スパイキングニューラルネットワーク 出典:CEA-Leti(クリックで拡大)

 De Salvo氏は、「神経形態学的CMOS集積回路の好例として挙げられるのが、IBMの『TrueNorth』だ。また、現在28nm FD-SOIプロセスが適用されているDynapSEL(Dynamic Neuromorphic Asynchronous Processor Scalable-Learning)も、大規模なマルチコア神経形態学的プロセッサの一例だといえる。DynapSELは、欧州の共同研究プロジェクト『NeuRAM 3』において、開発が進められているところだ」と述べる。

 TrueNorthは、ニューロンをデジタル処理しているが、DynapSELはアナログ処理だ。しかしいずれも、神経形態学的システムの全出力を活用できているわけではない。メモリが、神経形態学的原理をベースとしたものではないからだ。

 科学コミュニティーは現在、既存のメモリに変革をもたらし、“インメモリコンピューティング”の実装を実現すべく、メモリをプロセッサユニットの近くに配置するための取り組みを進めている。De Salvo氏は、「これまでにデモが披露されている神経形態学的ハードウェアは、その能力をまだ最大限に発揮できていない。ニューロンとシナプス間のコネクティビティおよびコンフィギュラビリティを最大化するためには、神経形態学的コンピューティングにおける超高密度3Dアーキテクチャの実現が不可欠だ」と述べる。

 「現在、人間の脳には1000億個のニューロンが存在することが分かっている。ミツバチのような高度な知的能力を持つ昆虫の場合、脳の体積1mm3当たりのニューロン数は、95万個に達する。ミツバチの脳は、昆虫の中でも最も大きい。現在既に、ミツバチの脳の中でこれらのニューロンがどのようにマッピングされているのかが解明されている。だが、人間の脳のニューロンについては、ほとんど解明されていない」(De Salvo氏)


ミツバチの脳のニューロンは解明されているという(クリックで拡大)

【翻訳:田中留美、編集:EE Times Japan】

Copyright © ITmedia, Inc. All Rights Reserved.

前のページへ |       
ページトップに戻る