検索
特集

自動運転やロボティクスにマルチモーダルLLM適用を目指す米Ambarella(3/3 ページ)

イメージプロセッサを手掛ける米Ambarellaによれば、マルチモーダル基盤モデルは、より“人間に近いAI”を実現し、より高度な自動運転や、ロボットの自動化の加速に貢献するという。

Share
Tweet
LINE
Hatena
前のページへ |       

LLaVA-34Bを50W未満の消費電力で実行するチップ

 Ambarellaは現在、N1シリコン上で6つのLLM(パラメータサイズは10億〜340億)を稼働させていて、さらにCNN(畳み込みニューラルネットワーク)ベースのビジョンモデルも14個ほど稼働しているという。この選択と微調整でほとんどのユースケースを十分にカバーできるが、他のモデルを移植することも可能だという。Ambarellaチーム最近、Google のオープンLLM「Gemma」を移植したが、それに要した時間は1週間足らずだったという。

 Ambarellaは米国EE Timesに向けて、オンチップAIアクセラレーションを搭載したN1ビジョンSoCのデモを、さまざまなシナリオで行った。N1は、カメラからの画像(スナップショット)の内容を記述するLLaVA-34Bを50W未満の消費電力で実行できる。あるいは、16x 1080pのビデオチャンネルでLLaVA-13Bの実行も可能だ。なおN1は、画像と自然言語を理解するマルチモーダル基盤モデルであるCLIPも実行できる。

「N1」のデモ。
「N1」のデモ。16x 1080pのビデオチャンネルでLLaVA-13Bを実行できる[クリックで拡大]

【翻訳:滝本麻貴、編集:EE Times Japan】

前のページへ |       

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る