検索
ニュース

生成AIを省電力で実行するアナログインメモリコンピューティング電力やコストの課題解消を狙う(1/2 ページ)

Sagence AIによると、アナログインメモリコンピューティングチップは、高性能CPUおよびGPUベースのシステムと比較してエネルギー効率とコスト削減を促進することで、AI推論アプリケーションが直面する電力と性能の難題を解決できるという。

Share
Tweet
LINE
Hatena

 アナログインメモリコンピューティングチップは、高性能CPUおよびGPUベースのシステムと比較してエネルギー効率とコスト削減を促進することで、AI推論アプリケーションが直面する電力と性能の難題を解決できるという。

高性能CPU/GPUベースは「エネルギー消費量が多すぎ」

 Sagence AI(旧社名はAnalog Inference)は、最大限の統合を実現するモジュール型チップレットアーキテクチャを採用した推論ソリューションを発表した。同ソリューションは、データセンターを用いる生成AIから、さまざまな業界のエッジコンピュータビジョンアプリケーションまで対応可能な、非常に効率的な推論マシンを構築できる。

同社の推論チップは、持続可能なAI運用を可能にする「ディープサブスレッショルドテクノロジー」を活用し、フェムトジュール級のエネルギーでニューラルネットワークのパラメーターを保存するという
同社の推論チップは、持続可能なAI運用を可能にする「ディープサブスレッショルドテクノロジー」を活用し、フェムトジュール級のエネルギーでニューラルネットワークのパラメーターを保存するという[クリックで拡大] 出所:Sagence AI

 Sagence AIの創設者でCEOを務めるVishal Sarin氏は「AIの将来にとって、AI推論ハードウェアの抜本的な進化が不可欠だ。大規模言語モデル(LLM)と生成AIの利用が進む中、コンピューティングの中核における急速かつ大規模な変化が求められている。最小の電力での最高の性能と、創出される価値に見合ったコストを実現する経済性という、前例のない組み合わせが求められる」と述べる。

 CPUやGPUのようなレガシーコンピューティングバイスは、高性能なAIを実行できる一方で、コストがかかりすぎ、環境的に持続可能であるためにはエネルギー消費量が多すぎる。それと同時に、デジタル技術は電力とコストの削減能力の限界に達しつつある。

 英国の市場調査会社Omdiaのアドバンストコンピューティング担当主席アナリストであるAlexander Harrowell氏は「現在最も強力なGPUの消費電力は300Wから1200Wに移行した。さらに、トップクラスのサーバ用CPUは2020年以降、NVIDIAの『A100 GPU』の消費電力レベルに達している。これにより、データセンターの冷却や配電、AIアプリケーションユニットの経済性などに、連鎖的な影響が出ている」と述べている。

 Harrowell氏は「この窮地から抜け出す方法の1つは、消費電力がはるかに少なく、レイテンシが非常に小さい、成熟したプロセスノードで動作可能なアナログコンピューティングのメリットを再認識することだ」と述べる。Sarin氏は、この課題について「AI推論は、汎用コンピューティングの問題ではなく、数学的な集約的データ処理の問題だ」と別の側面からの見解を示した。

 Sarin氏は「CPU/GPUデジタルマシン上でニューラルネットワークを“実行”するために必要な膨大な演算処理を管理するには、極めて複雑なハードウェアの再利用およびスケジューリングが必要だ。つまり、最適なハードウェアソリューションは、汎用コンピューティングマシンではなく、生物学的ニューラルネットワークの動作をより忠実に模倣するアーキテクチャだ」と述べている。

Copyright © ITmedia, Inc. All Rights Reserved.

       | 次のページへ
ページトップに戻る