Ambarellaは現在、N1シリコン上で6つのLLM(パラメータサイズは10億〜340億)を稼働させていて、さらにCNN(畳み込みニューラルネットワーク)ベースのビジョンモデルも14個ほど稼働しているという。この選択と微調整でほとんどのユースケースを十分にカバーできるが、他のモデルを移植することも可能だという。Ambarellaチーム最近、Google のオープンLLM「Gemma」を移植したが、それに要した時間は1週間足らずだったという。
Ambarellaは米国EE Timesに向けて、オンチップAIアクセラレーションを搭載したN1ビジョンSoCのデモを、さまざまなシナリオで行った。N1は、カメラからの画像(スナップショット)の内容を記述するLLaVA-34Bを50W未満の消費電力で実行できる。あるいは、16x 1080pのビデオチャンネルでLLaVA-13Bの実行も可能だ。なおN1は、画像と自然言語を理解するマルチモーダル基盤モデルであるCLIPも実行できる。
【翻訳:滝本麻貴、編集:EE Times Japan】
32の同時ユーザーで15トークン/秒 TenstorrentがLLMのデモを披露
SK hynixが12層HBM3E製品を「業界初」の量産開始
GPUの台頭と進化がサーバの消費電力を急増させる
AIの消費電力、学習よりも推論がはるかに大きな課題
組み込み機器でも生成AIが使える 日本発のアクセラレーター
「業務でちゃんと使える」特化型生成AIを自動で作る 富士通が開発Copyright © ITmedia, Inc. All Rights Reserved.
記事ランキング