検索
ニュース

AlphaICs、深層学習向けコプロセッサをサンプル出荷8TOPSのエッジAI推論性能を実現

スマートビジョンアプリケーション向けエッジAI(人工知能)および学習チップの開発を手掛けるスタートアップAlphaICsは、深層学習向けコプロセッサ「Gluon」のサンプル出荷を開始した。Gluonには、ソフトウェア開発キット(SDK)も付属する。

Share
Tweet
LINE
Hatena

 スマートビジョンアプリケーション向けエッジAI(人工知能)および学習チップの開発を手掛けるスタートアップAlphaICsは、深層学習向けコプロセッサ「Gluon」のサンプル出荷を開始した。Gluonには、ソフトウェア開発キット(SDK)も付属する。

高いfps/ワット性能を実現

 Gluonコプロセッサは、TSMCの16nm FinFETプロセスを適用し、8TOPSのエッジAI推論性能を実現するという。AlphaICsが発表した数値によると、ニューラルネットワークで1秒あたりに分類および検出できるフレーム数(fps)/ワット(W)性能は、「Yolo-V2」オブジェクト検出モデルで32fps/W、「VGG-19」分類モデルで22fps/Wだという。

 Gluonは、監視や産業、小売、自動車、産業用IoT(IIoT)などのアプリケーションにおけるスマートビジョンの分類と検出、セグメンテーションのための深層学習ニューラルネットワークモデルの高速化に特化している。


RAPアーキテクチャは複数の”エージェント”で構成され、各エージェントはそれぞれスカラプロセッサ、複数のTensorプロセッサ、専用のオンチップSRAMメモリが搭載されている 出所:AlphaICs

 Gluonチップは、モジュール式でスケーラブルな独自のアーキテクチャを使用する、AlphaICのRAPアーキテクチャをベースとしている。同チップのフレームワークには複数の”エージェント”が含まれており、それぞれにスカラプロセッサと複数のTensorプロセッサ、専用のオンチップSRAMメモリが搭載されている。スカラプロセッサで基本演算(フェッチ、決定、実行、インタフェース)を実行した後、Tensorプロセッサを使用してAI計算を実行する。エージェントおよびTensorプロセッサの数を増減させることでスケーラビリティを実現する。

 Gluonは、AlphaICsが開発を予定している初のチップファミリーで、16個のRAPエージェントと16個のTensorプロセッサの16×16構成となっている。

 また、GluonはPCIeとLPDDR4インタフェースを組み込むことで、ホストプロセッサとDRAMそれぞれへの高速転送を実現している。同チップのベンチマークは以下のようになっている。

  • Yolo-V2(画像サイズ416×416×3)で153fps、4.73W
  • VGG-19(224×224×3)で79fps、3.6W

 Gluonにはニューラルネットワークを展開するためのSDKが付属しており、開発者は現行のX86/ArmベースのシステムにAI機能を追加できる。AlphaICsは、Gluonプロセッサ上でトレーニングしたモデルの展開を可能にするコンパイルおよびランタイムエンジンなど、Gluonプロセッサに関連するソフトウェアスタックを開発。初期バージョンは「TensorFlow」フレームワークをサポートしており、他のフレームワークもサポートするためにスタックを拡張する計画だという。

 AlphaICsのCEO(最高経営責任者)を務めるPradeep Vajram氏によると、同社は現在、顧客向けにGluon技術のデモを行っているという。同氏は、「当社のチームは過去2年間、この素晴らしいマイルストーンの達成に懸命に取り組んできた」と述べている。対象となるAIビジョンアプリケーションは、監視や小売、産業、スマートシティーなどだ。

 同社はまた、ビデオ監視製品を専門とする日本のCBCとチャンネルパートナーシップを構築している。CBCはAlphaICsと2年近く協力関係にあり、日本でのマーケティングパートナーを務める。

【翻訳:滝本麻貴、編集:EE Times Japan】

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る