予約注文100万ドルに、ニューロモーフィックAIの仏新興企業:GrAI Matter Labs(2/2 ページ)
ニューロモーフィックコンピューティングを手掛けるフランスの新興企業GrAI Matter Labsが米国EE Timesに語ったところによると、同社の「GrAI VIP」チップは100万米ドルの予約注文を受けているという。
FP16対応のエッジAIチップ
GrAI Matter Labsのビジネス開発担当バイスプレジデントを務めるMahesh Makhijani氏は、「この第3世代製品において、当社のニューロンフローファブリックに施した主要なアップグレードは、コアをFP16対応にしたことだ」と説明している。エンドポイントチップでは通常、電力を節約するために可能な限り精度を下げる中で、これは異例のことだ。
Makhijani氏は、「当社のMAC操作は全て16ビット浮動小数点で行っており、これは他のほとんどのエッジアーキテクチャと異なる点だ。一般的には、8ビットINTに移行することで電力と効率をトレードオフすることが多い。スパース性とイベントベースの処理では、過去に起こったことを追跡するために、16ビット浮動小数点を使用する必要がある。16ビット浮動小数点は、得られるものが非常に多くオーバーヘッドではないため、本質的に優位に立つことができる。実際、リアルタイム処理の観点から見ると、重要なユースケースでかなり役に立つ場合もある」と述べている。
これには、開発面のメリットも含まれる。32ビット浮動小数点でトレーニングしたモデルは、16ビット浮動小数点に量子化することが可能で、精度の低下は通常1%未満に抑えられる(Makhijani氏によると、典型的なINT8の量子化では2〜3%低下するという)。その結果、量子化されたモデルは再トレーニングが不要で、開発に多大な時間がかかる可能性のあるステップを省略することができる。
Makhijani氏は、「消費電力に対するスループットを最大化したい場合、特に検出タスクでは、精度をある程度犠牲にすることも可能だ。ただし、トレーニング時間とのトレードオフがあるため、モデルのトレーニングに常に多くの時間を費やすことになる。市場の状況が変化して再トレーニングが必要になると、その点が大きく影響することになる」と述べている。
GrAI Matter Labsは、より高精度なMACへのアップグレードに必要な消費電力と、イベントベースの処理とスパース性に基づく省エネコンセプトのバランスを取っている。精度が高いほど正確さを保持できるため、モデルを大幅にプルーニング(枝刈り)して、特定の予測精度に合わせてサイズを縮小することもできる。
例えば、ImageNetデータセットでトレーニングしたResNet-50の場合、FP16からFP8に量子化すると、プルーニングによってモデルサイズを51.3Mバイトから5.8Mバイト(約9分の1)に削減しながら、精度の低下を0.5%以内に抑えることができる。これは、レイヤーやブランチ、出力クラスを削除することなく実現できる。Makhijani氏は、「さらに、混合精度(FP4とFP8の組み合わせ)を用いれば、さらにサイズを小さくできる」と述べている。
1800万ニューロン、4800万パラメータ
Makhijani氏は、「GrAI Matter Labsの製品はエッジサーバチップとtinyMLの中間に位置するものと考えているが、デバイスはシステム内のセンサーの隣に置かれることを想定している。理想的な使用例としては、コンパクトカメラモジュールのカメラの隣にGrAI VIPを置くことだ」と付け加えた。
「ユースケースに応じて、数十〜数百ミリワットの範囲の能力を提供することを目指している」(Makhijani氏)
第1世代チップのGrAI Oneと比較すると、第3世代のGrAI VIPは7.6mm×7.6mmと物理的に若干小さくなっているが、プロセスノードをスキップしてTSMCの12nmプロセスに移行している。ニューロンコアは196個から144個と若干少なくなっているが、各コアサイズは大きくなっている。その結果、20万ニューロンコア(25万パラメータ)から、約1800万ニューロン、4800万パラメータに跳ね上がっている。オンチップメモリも4Mバイトから36Mバイトに大きく増加している。
【翻訳:滝本麻貴、編集:EE Times Japan】
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- Weebit Nano、ReRAM IPモジュ―ルのデモ初披露
イスラエルのWeebit Nanoは、ReRAM技術の商用化に向けて最も積極的に取り組んできた企業の1つだ。同社は7年間に及ぶ研究開発の末、今回ついに業界で初めてReRAM IPモジュールの公開デモを披露するに至った。 - SiFiveとBrainChip、IP互換性の実現に向け協業へ
SiFiveとBrainChipはパートナー提携により、両社製IPの組み込みAI(人工知能)向けSoC(System on Chip)設計における互換性を実証していくことを明らかにした。 - Samsung、MRAMベースのインメモリコンピューティングを発表
Samsung Electronicsは2022年1月13日(韓国時間)、磁気抵抗メモリ(MRAM)のイノベーションを発表した。同社は、「単一のメモリネットワーク内でデータストレージとデータコンピューティングの両方を実行できる、世界初のMRAMベースのインメモリコンピューティングを実現した。このMRAMアレイチップは、低消費電力AI(人工知能)チップの実現に向けた次なるステップだ」と主張している。 - “脳型プロセッサ”を統合したイメージセンサー開発へ
SynSenseとPropheseeは、Propheseeのイメージセンサー「Metavision」とSynsenseのニューロモーフィックプロセッサ「DYNAP-CNN」を統合したイベントベースの単一チップイメージセンサーを共同開発している。両社は今後、同イメージセンサーの設計、開発、製造、製品化でも連携し、小型化と安価を両立した超低電力センサーを生み出すことを目指す。 - 米BrainChipがSNNプロセッサ向け開発キットを発表
ニューロモーフィックコンピューティングIP(Intellectual Property)のベンダーである米BrainChipは、2021年10月に米国カリフォルニア州サンタクララで開催され 「Linley Fall Processor Conference」で、同社のニューロモーフィックプロセッサSoC(System on Chip)「Akida」の開発キットを発表した。 - SNNを加速するニューロモーフィックAIチップを開発
スパイキングニューラルネットワーク(SNN)向けニューロモーフィックAI(人工知能)アクセラレーターの開発を手掛けるオランダの新興企業Innateraが、同社にとって初となるチップを発表した。チップの測定性能や、アーキテクチャの詳細についても明らかにしている。