展示会ブースでは、SAKURAを使ったデモも幾つか披露していた。1つ目は、1個のSAKURA-Iで、16台のカメラの映像から同時に物体検出を行うもの。AIモデルにはYOLO v5sを用いていた。推論性能は約500fps(フレーム/秒)で、ボード全体の消費電力は8.2Wだという。
2つ目は、RGBカメラで撮影している映像を解析し、リアルタイムで解像度を上げて表示するというデモ。SAKURA-IでABPN(Attention-based Back Projection Network)モデルを実行し、映像の解像度を360×640から1080×1920と3倍に向上させた。これによって、より鮮明な画像の表示が可能になっていた。

左=ABPNモデルにより映像の解像度をリアルタイムで向上。上段が360×640、下段が1080×1920の映像/右=解像度を上げた下段の映像の方が、より明瞭に表示されている。これがリアルタイムで行える[クリックで拡大]3つ目は、1個のSAKURA-Iで複数のAIモデルを同時に実行するデモだ。RGBカメラとサーマルカメラを使用して、YOLO v5mとmono Depthの2つのモデルを同時に実行し、物体検出と深度推定を行っていた。「MERAにモデルを入力後、ワークを分配することで、1チップで複数のモデルを実行できるようになる」(EdgeCortix)
FPGAに実装可能なエッジAI用ハードIP、45fpsで推論
ルネサス、エッジコーティックスと戦略的提携
PALTEK、エッジAI向けハードIPのEdgeCortixと提携
「汎用マイコンでこそエッジAIを」 急加速する市場のけん引役を狙うST
Intelの最新AI戦略と製品 「AIが全てのタスクを引き継ぐ時代へ」Copyright © ITmedia, Inc. All Rights Reserved.
記事ランキング