気候変動を前にして社会的に認められるレベルの責任を果たしたいと考える企業は、AIプロジェクトを実施する方法と理由について、より賢明になる必要がある。コンピューティング能力を損なうことなく効率を高める1つの方法は、とにかく、よりエネルギー効率の高いハードウェアに投資して、高効率のハードウェアでAIモデルを展開することだ。
Qualcommの新しいサーバ向けAI推論アクセラレーター「Cloud AI 100」は消費電力の削減を念頭に置いて設計されているが、同社のようなハードウェアメーカーは、エネルギーに関する懸念を考慮して新製品を設計することで前途ある未来を切り開いている。
この他にも、MLPerfがハードウェアの電力効率の測定および比較に向けた別のベンチマークをリリースするなど、AIチップの消費電力を削減するために行われている重要な取り組みは数多くある。
CO2排出量削減のもう1つの重要な鍵となるのが、モデルそのもの、特にサイズと構成だ。端的に言えば、企業が「大きいほど良い」という従来の価値観を見直すべき時が来ている。
他への影響を考慮する必要がなければ、精度はほぼ間違いなく、AIコンピューティングの最も重要な側面だ。しかし、実際のアプリケーションでは、展開を成功させるには精度だけでは不十分で、環境の観点からモデルの効率を犠牲にすることもできない。
良いニュースは、深層学習モデルのコアアーキテクチャを最適化することで、精度を損なうことなく性能効率を向上させる方法があるということだ。AIスタートアップであるDeciの社内試算および計算能力削減/モデル強化の経験によれば、コアアーキテクチャを最適化することで、推論に必要な計算能力を50〜80%の範囲で削減することができるのだ。地球環境に配慮しながらAIを活用する企業にとって、今後の展望は明るいといえるだろう。
ROI(投資利益率)の考慮が表面上、環境への配慮と対立している産業はあまりにも多い。幸いなことに、AIの場合はそうである必要はなく、効率の最適化は双方にとって有利となものになるのである。
より小さく、より効率的で、より少ない処理能力で動作するモデルは、ランニングコストが安く、環境にも優しい。深層学習モデルは、気候変動を悪化させることなく、あらゆる目的に対応することができるのである。
【翻訳:滝本麻貴、編集:EE Times Japan】
Copyright © ITmedia, Inc. All Rights Reserved.