Rivera氏は、現在AIワークロードを高速化するために使用される選択肢は、GPUやCPUなどの汎用プロセッサ、カスタムASIC、FPGAの3つだと説明。GPUやCPUなどは汎用性と導入のしやすさから、AIワークロードの高速化のため広く利用されている。「特にGPUはベクトル処理機能によって、科学計算、画像処理、シミュレーションなどのAIタスクを高速化するのに非常に効率的だ」(同氏)。カスタムASICは、特定のAIタスクに最適化され高効率を実現する一方、それ以外のケースでは効率が低下する。FPGAは「FPGAの本来の高性能アーキテクチャと柔軟性によって、ユーザーは特定のAIタスクに合わせてハードウェアを最適化できる」ことから、さまざまなニューラルアーキテクチャにわたって比較的一貫した効率を提供可能、とそれぞれの利点について語った。
特にFPGAについては「多くの場合、カスタマイズによって、汎用的なオプションよりも高いパフォーマンスと改善された電力効率が得られる。企業にとって、これは総運用コストの削減を意味する。ASICのような固定機能アクセラレーターと比較すると、FPGAは再プログラム可能なため、ユーザーはシステム要件の進化に合わせてシリコンを再構成できる。エッジユースケースの場合、FPGAは、小型フォームファクタなどから、より大きなフットプリントまでカスタマイズできるスケーラブルなプラットフォームを提供可能だ」と強調。さらに、ライフサイクルが長いといった利点も挙げた。
そのうえで同氏は、AI処理に最適化した「AI Tensor」ブロックを備えたファブリックを使用し、エッジの組み込みアプリケーションに展開されたモデルに対して低遅延のリアルタイム処理が可能となることなど、Alteraの最新FPGAおよび迅速な開発をサポートするソフトウェアやエコシステムサポートついて紹介していた。
Rivera氏は「われわれは、AIの可能性を真に理解し始めたばかりだ」としつつつ、既に3つの重要な発展がみられるとまとめた。1つはアクセス性と低価格化で、「クラウドまたはインテリジェントエッジのAIインフラストラクチャは、膨大な量のデータをほぼリアルタイムで処理するために、すぐに利用可能だ。FPGAなどの追加の選択肢によって、可用性と低価格化はより向上される」とした。2つ目はデータへのアクセス向上とAIモデルの改善で、「AIシステムは、多様で高品質なデータによって成長する。現在、推定400億台を超えるデバイスが、毎日4億テラバイトを超えるデータを収集している。このデータと高度なAIモデルのブレークスルーを組み合わせることで、AIは現実世界のアプリケーションにさらに適応しやすくなるだろう」と説明した。
そして最後に、人々の日常生活へのAI統合が進んでいることを挙げ、「スマートフォン、ウェアラブル、自動車には既にAI機能が組み込まれている。より多くのデバイスに高度なインテリジェンスが統合されるにつれ、デバイスとシステムがリアルタイムデータに基づいて決定を下すシームレスな体験が実現されるだろう」と期待を示していた。
10億パラメータモデルがエッジで動く Armの新プラットフォーム
「エッジAIを再定義」 NXP、米新興Kinaraを3億ドルで買収
AIアルゴリズムを動かしながら監視を支援 車載用レーダーセンサー
エッジAIにも使える無線マイコン ノルディック「nRF54」
ザインがエッジAI開発支援を強化、ワンストップで
AI処理性能が従来の600倍に 独自NPU搭載のSTM32マイコンCopyright © ITmedia, Inc. All Rights Reserved.
記事ランキング