検索
ニュース

組み込み機器でも生成AIが使える 日本発のアクセラレーターEdgeCortixが「SAKURA-II」を発表(3/3 ページ)

エッジAI(人工知能)向けのアクセラレーターを手掛ける日本のスタートアップEdgeCortixが、新しいプラットフォーム「SAKURA-II」を発表した。CNN(畳み込みニューラルネットワーク)モデルだけでなく、トランスフォーマーモデルを容易に実装できることが特徴だ。

Share
Tweet
LINE
Hatena
前のページへ |       

1チップで複数モデルを実行するデモ

 展示会ブースでは、SAKURAを使ったデモも幾つか披露していた。1つ目は、1個のSAKURA-Iで、16台のカメラの映像から同時に物体検出を行うもの。AIモデルにはYOLO v5sを用いていた。推論性能は約500fps(フレーム/秒)で、ボード全体の消費電力は8.2Wだという。

デモに使用したコンピュータ16台のカメラの映像から同時に物体検出を行っている様子 左=デモに使用したコンピュータ/右=16台のカメラの映像から同時に物体検出を行っている様子[クリックで拡大]

 2つ目は、RGBカメラで撮影している映像を解析し、リアルタイムで解像度を上げて表示するというデモ。SAKURA-IでABPN(Attention-based Back Projection Network)モデルを実行し、映像の解像度を360×640から1080×1920と3倍に向上させた。これによって、より鮮明な画像の表示が可能になっていた。

ABPNモデルにより映像の解像度をリアルタイムで向上解像度を上げた下段の映像の方が、より明瞭に表示されている 左=ABPNモデルにより映像の解像度をリアルタイムで向上。上段が360×640、下段が1080×1920の映像/右=解像度を上げた下段の映像の方が、より明瞭に表示されている。これがリアルタイムで行える[クリックで拡大]

 3つ目は、1個のSAKURA-Iで複数のAIモデルを同時に実行するデモだ。RGBカメラとサーマルカメラを使用して、YOLO v5mとmono Depthの2つのモデルを同時に実行し、物体検出と深度推定を行っていた。「MERAにモデルを入力後、ワークを分配することで、1チップで複数のモデルを実行できるようになる」(EdgeCortix)

1チップでYOLO v5mとmonodepthの2つのモデルを同時に実行していた
1チップでYOLO v5mとmonodepthの2つのモデルを同時に実行していた[クリックで拡大]
前のページへ |       

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る