検索
ニュース

ビジョンモデル+言語モデルをエッジで動作可能なアクセラレーターEdgeCortixがSEMICON Japanでデモ(1/2 ページ)

EdgeCortixは「SEMICON Japan 2024」(2024年12月11〜13日、東京ビッグサイト)に出展。AI(人工知能)アクセラレーター「SAKURA-II」でビジョンモデルや言語モデルを動作させるデモや、チップレット集積型半導体として開発中のAI-RAN向け次世代プラットフォーム「SAKURA-X」の概要などを紹介した。

Share
Tweet
LINE
Hatena

 EdgeCortixは「SEMICON Japan 2024」(2024年12月11〜13日、東京ビッグサイト)で、最新のAI(人工知能)アクセラレーター「SAKURA-II」のデモや、チップレット集積型半導体として現在開発中の「SAKURA-X」のコンセプトなどを紹介した。

 SAKURA-IIは、EdgeCortix独自のプロセッサアーキテクチャ「DNA(Dynamic Neural Accelerator)」技術を用いることで、高い電力効率を実現したプラットフォーム。INT8で最大60TOPS、BF16で30TFLOPSの演算性能を実現しつつ、消費電力はわずか8W(AIアクセラレーターチップの仕様)や10W(ボードの仕様)に抑えている。さらに、この低い消費電力で、Llama 2、Stable Diffusion、Vision Transformer(ViT)といった数十億のパラメーターを持つAIモデルをサポートする。

「SAKURA-II」の外観。フォームファクターはM.2とPCI Express(PCIe)カードの2種類がある
「SAKURA-II」の外観。フォームファクターはM.2とPCI Express(PCIe)カードの2種類がある[クリックで拡大]

 会場では、SAKURA-IIを搭載したPCで、Hugging Faceが開発したクラウド不要の言語モデル「SmolLM 2」を動かすデモを展示した。「組み込み機器のようなエッジ端末で、実際に言語モデルを動作させられることを示している。ロボットに言語で動作を指示するといった使い方ができるのではないか」(EdgeCortix担当者)

SmolLM 2を、SAKURA-II上で動作させるデモ。「EdgeCortixについて詩を作って」というリクエストに対して、答えを出力している様子を示している

SmolLM 2のデモに使用したコンピュータの筐体(写真左の黒い筐体)。この中に、SAKURA-IIが搭載されている
SmolLM 2のデモに使用したコンピュータの筐体(写真左の黒い筐体)。この中に、SAKURA-IIが搭載されている[クリックで拡大]

 画像からテキストを生成するデモも披露した。ビジョンモデルのViTと言語モデル「GPT-2」を組み合わせたもので、画像からリアルタイムでキャプション(何が映っているかを端的に説明するテキスト)を生成している様子を展示した。「SAKURA-IIは、ビジョンモデルと言語モデルを組み合わせて動かすこともできる。生産ライン上で、カメラを使った不良検査などへの応用が期待できる」(EdgeCortix)

ビジョンモデル「ViT」と言語モデル「GPT-2」を組み合わせたデモ。これもSAKURA-IIで動かすことができるビジョンモデル「ViT」と言語モデル「GPT-2」を組み合わせたデモ。これもSAKURA-IIで動かすことができる ビジョンモデル「ViT」と言語モデル「GPT-2」を組み合わせたデモ。これもSAKURA-IIで動かすことができる[クリックで拡大]

Copyright © ITmedia, Inc. All Rights Reserved.

       | 次のページへ
ページトップに戻る