「省エネなAI」に効く? アナログチップの可能性:IBMや新興企業も開発に取り組む(2/2 ページ)
AIの普及によりデータセンターの消費電力の増大が課題になっている。“省エネのAI”を実現する上で鍵になりそうなのがアナログチップの活用だ。
2つの主要課題
アナログチップは、エネルギー効率に優れ、拡張可能なハードウェアソリューションを提供することで、さまざまなAIアプリケーションを進化させる可能性がある。アナログチップが特に影響を与える可能性がある分野として、エッジコンピューティングや、ニューロモーフィックコンピューティングが挙げられる。さらに、AIの学習と推論に適した性能を本質的に備えている。ニューラルネットワークの計算の中核となる行列乗算を、デジタルチップよりもはるかに効率的に実行できるのだ。そのため、AIの学習と推論で大幅にエネルギーを削減できる可能性がある。その結果、AIモデルの展開を(エネルギー消費量の点で)現実的に加速でき、デジタルチップの搭載/採用に伴う膨大なエネルギー増を抑えることができるだろう。アナログチップは、AI技術の持続可能性と拡張性を実現する上で、自然な選択肢になるわけだ。
ただし課題もある。その一つが、デジタル演算の精度と正確性を実現するアナログコンピューティングアーキテクチャの開発だ。アナログ演算は本質的にノイズやばらつきを受けやすいため、これらの問題はAIモデルの信頼性に影響を与える可能性がある。現在、これらの懸念を軽減し、アナログAIシステムの堅ろう性を強化する技術の開発が進められている。
もう一つの課題は、現在のAIシステムの大部分がデジタルインフラであるということだ。ここにアナログチップを統合するには、ハードウェアとソフトウェアスタックの両方に大幅な変更が必要になる。
これらの課題はあるものの、アナログとデジタルの強みを融合するハイブリッドアーキテクチャの構築に向けた取り組みが進んでいる。省エネのAIソリューションの需要が高まる中、アナログチップは重要な役割を果たすと期待されている。
【翻訳:滝本麻貴、編集:EE Times Japan】
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- AIの消費電力、学習よりも推論がはるかに大きな課題
Ampere Computingは、昨今急速に普及している生成AIでは、学習よりも推論の消費電力が大きな課題になると指摘した。「推論のスケールアウトの問題は、確実に破壊的な影響をもたらすだろう」と同氏は懸念を示している。 - AI需要で盛り上がるデータセンター冷却の新技術
AI(人工知能)ワークロードの需要に対応するためにデータセンターが増加する中、冷却システムの重要性も増している。今回、水がいらない液冷や固体冷却など、近年登場してきた革新的新技術をまとめた。 - 「Lunar Lake」ことCore Ultra 200V技術詳細 メモリ統合など設計変更も
Intelは「Lunar Lake」のコード名で開発していたAI(人工知能) PC向けSoC(System on Chip)「Core Ultra 200V」を発表した。DRAMをパッケージ内に統合したほか、P-Coreのハイパースレッディングを廃止するなど、大幅な設計変更を行った。 - 熱に関する基礎知識
「Hot Chips 2024」の技術講座(チュートリアル)のテーマは放熱技術だった。CPU/GPUの消費電力が増加し、サーバやデータセンターの放熱技術に対する注目が集まっているからだ。本シリーズでは、Hot Chips 2024の技術講座などをベースに、最新の放熱技術を解説する。 - 放熱と冷却の基本的な技術
今回は、放熱と冷却の基本的な技術を解説する。