Rain NeuromorphicsがアナログAIのデモチップをテープアウト:ReRAM利用で高性能を実現(2/2 ページ)
Rain Neuromorphicsが、脳型アナログアーキテクチャのデモチップをテープアウトした。ランダムに接続されたメモリスタの3Dアレイを用い、ニューラルネットワークトレーニング/推論などを超低消費電力で計算することが可能だという。
ランダムに分散されたデンドライト接続
なぜデンドライト接続は、チップ全体でランダムに分散されているのだろうか。
Kendall氏は、「ランダム性が重要とされる理由は、ニューラルネットワークの規模がかなり大きい場合に、ある程度の疎密性を維持する必要があるためだ。しかしその場合、どのニューロンを選べばよいだろうか。例えば格子や規則的なパターンなど、管理された手法で選ぶとなると、その情報を処理すべき方法に対して大きな先入観が入ったり、仮説が導入されたりすることになる。しかしそれは、学習の全体目標に反する」と述べる。
「学習の目標は、“パターンを発見すること”であるべきだ」(Kendall氏)
“ランダム”は、完全に正確であるとはいえない。実際のところ、“ランダムに”分散されたデンドライトは、各層を形成するために使われるリソグラフィマスクによって定義されるため、各チップで同じだ。ある程度の構造が導入される場合もある。1つの戦略として挙げられるのが、脳の接続と同様に、長距離接続ではなく短距離接続を多く導入するというものだ。Rain Neuromorphicsのアルゴリズムは最終的に、最適な接続パターンを決定することができるが、今のところは以下の2つの手法に注力しているという。
1つ目の手法は、広く知られているスパース性パターンで、最適化されたネットワークを取り出し、リソグラフィマスクでパターンを複製するというもの。もう1つは、生物学的モチーフから着手するという方法で、こちらの方が難易度が高い。その理由としては、(このような生物学的モチーフのメリットを評価するために必要とされる)大規模な疎行列の積和演算が、既存のAIアクセラレータハードウェアには適していないという点が挙げられる。Rain NeuromorphicsはToDoリストの中に、「モジュール方式とスモールワールド性を備えたモチーフの実現」を掲げている。
Kendall氏は、「われわれとしては、これらが全て生物学的な脳のプロパティであるということを理解している。これまでにも、脳内でどのように実行され、どのように機能するのかについて、多くの人々が仮説を立てている。当社は直ちに、さまざまな種類の大量のパターンについてテストを開始することにより、機能するものとしないものとを判断できるようにしたい」と述べている。
Rain Neuromorphicsのロードマップには、さまざまな種類のスパース性パターンを備えたチップを開発することが掲げられている。これは、さまざまな部位で異なるタスクを処理するという脳の機能によく似ている。スパース性パターンを備えたチップは、さまざまな種類のAIワークロードに対応することが可能だ。また同社は、ナノワイヤ技術関連の取り組みも進めていくことにより、1つのステップで高密度のメモリ素子を蒸着できるようにしたい考えだ。
ReRAMの特性
商用PIMチップは、フラッシュやDRAMなどのメモリ技術を適用している。Rain Neuromorphicsは、ReRAMの耐性や消費電力量、書き込み速度、保持特性などをベースとして使用しているという。
Kendall氏は、「フラッシュは性能面で大きな壁に直面している。レイヤー数を追加することはできるが、それはニューラルネットワークの学習においてあまり関係がない。より重要な点としては、『基本的なレベルにおいて耐久性が制限されていること』と『デバイスの切り替えに必要な速度』、そして『読み出し動作の消費電力量』の3つが挙げられる。これらが、トレーニングを実行する上でのボトルネックとなっている」と述べる。
同氏は、「ReRAMは、高度なプロセスノードにおいてさらなる微細化が可能なため、密度の面でメリットを提供することができる。フラッシュを超える耐性を実現できる可能性も秘めている」と指摘する。
2021年にテープアウトされたチップは、1万個のニューロンを実装した180nm CMOSプロセスで、Rain Neuromorphicsのアーキテクチャのデモを披露している。研究チームは、メモリスタの重みの更新(トレーニング)と行列の乗算(推論)を行った。同社の学習アルゴリズムは、SONOSのフラッシュアレイ上での学習に比べ3倍以上の速度を示し、「最先端の精度だ」と主張している。
Rain Neuromorphics のCEO(最高経営責任者)、Gordon Wilson氏は、「当社の技術は、例えば40nmプロセス技術に移行することで、1チップ上に数千万個のニューロンを搭載するまでに拡張できる可能性がある」と述べている。
【翻訳:田中留美、編集:EE Times Japan】
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- ラティス、新sensAIソリューションスタックを発表
ラティスセミコンダクター(以下、ラティス)は、次世代のエッジデバイスに向けて、FPGA「Nexus」上で動作する「sensAIソリューションスタック」の最新版(v4.1)を発表した。 - 超高速かつ省電力の光リザバー計算チップを開発
金沢大学と埼玉大学の共同研究グループは、リザバー計算を高速かつ低消費電力で実行できる、新たな「光回路チップ」を作製した。演算速度は現行の光リザバー回路チップの60倍以上、省エネ性は電子回路に比べ100倍以上にできる可能性があるという。 - AIチップ開発の「ユニコーン企業」Hailoが1億3600万ドル調達
イスラエルを拠点とするAI(人工知能)チップのスタートアップHailoは、シリーズCの投資ラウンドにおいて1億3600万米ドルの資金を調達した。同社がこれまでに調達した資金は、2億2400万米ドルに達することになる。また同社は、ユニコーン企業(企業価値が10億米ドル以上で、非上場の民間新興企業)としての位置付けを獲得したと報じられている。 - Cerebras Systemsのウエハースケールエンジンがクラウドで利用可能に
大規模なAIワークロードを高速化するために開発されたCerebras Systems(以下、Cerebras)の第2世代ウエハースケールチップを搭載したディープラーニングシステム「CS-2」が、AIクラウドのスペシャリストプロバイダーであるCirrascale Cloud Services(以下、Cirrascale)のクラウドで、一般利用に向けて公開された。CS-2は、カリフォルニア州サンタクララのCirrascaleに導入されている。 - 超低消費電力のエッジAI、ASICで100TOPS/Wの実現も
エッジでのディープラーニング技術(エッジAI技術)を手掛けるLeapMindは2021年9月30日、超低消費電力のAI(人工知能)推論アクセラレーターIP(Intellectual Property)「Efficiera(エフィシエラ)バージョン2(Efficiera v2)」のβ版をリリースした。正式版は同年11月末に提供を開始する。 - エッジAI新興Deep Vision、22年に第2世代チップを計画
米国のエッジAI(人工知能)チップのスタートアップ企業であるDeep Visionは、Tiger Globalが主導するシリーズBの投資ラウンドで3500万米ドルを調達した。同投資ラウンドには、既存の投資家であるExfinity Venture PartnersとSilicon Motion、Western Digitalが参加している。