実は盲点、AIの二酸化炭素排出量を削減する方法は?:性能と環境負荷削減を両立(2/2 ページ)
2021年10月31日〜11月12日に英国のグラスゴーで開催された「COP26(国連気候変動枠組み条約第26回締約国会議)」の終了後、民間企業と政府は一様に、気候変動対策の公約を強化し、公共政策と革新的な技術を組み合わせることで、この時代に特徴的な課題の1つに対処しようとしている。
よりスマートな電力効率の向上
気候変動を前にして社会的に認められるレベルの責任を果たしたいと考える企業は、AIプロジェクトを実施する方法と理由について、より賢明になる必要がある。コンピューティング能力を損なうことなく効率を高める1つの方法は、とにかく、よりエネルギー効率の高いハードウェアに投資して、高効率のハードウェアでAIモデルを展開することだ。
Qualcommの新しいサーバ向けAI推論アクセラレーター「Cloud AI 100」は消費電力の削減を念頭に置いて設計されているが、同社のようなハードウェアメーカーは、エネルギーに関する懸念を考慮して新製品を設計することで前途ある未来を切り開いている。
この他にも、MLPerfがハードウェアの電力効率の測定および比較に向けた別のベンチマークをリリースするなど、AIチップの消費電力を削減するために行われている重要な取り組みは数多くある。
小型化によってCO2排出量を削減
CO2排出量削減のもう1つの重要な鍵となるのが、モデルそのもの、特にサイズと構成だ。端的に言えば、企業が「大きいほど良い」という従来の価値観を見直すべき時が来ている。
他への影響を考慮する必要がなければ、精度はほぼ間違いなく、AIコンピューティングの最も重要な側面だ。しかし、実際のアプリケーションでは、展開を成功させるには精度だけでは不十分で、環境の観点からモデルの効率を犠牲にすることもできない。
良いニュースは、深層学習モデルのコアアーキテクチャを最適化することで、精度を損なうことなく性能効率を向上させる方法があるということだ。AIスタートアップであるDeciの社内試算および計算能力削減/モデル強化の経験によれば、コアアーキテクチャを最適化することで、推論に必要な計算能力を50〜80%の範囲で削減することができるのだ。地球環境に配慮しながらAIを活用する企業にとって、今後の展望は明るいといえるだろう。
ROI(投資利益率)の考慮が表面上、環境への配慮と対立している産業はあまりにも多い。幸いなことに、AIの場合はそうである必要はなく、効率の最適化は双方にとって有利となものになるのである。
より小さく、より効率的で、より少ない処理能力で動作するモデルは、ランニングコストが安く、環境にも優しい。深層学習モデルは、気候変動を悪化させることなく、あらゆる目的に対応することができるのである。
【翻訳:滝本麻貴、編集:EE Times Japan】
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- 隠れニューラルネットワーク理論に基づく推論LSI
東京工業大学は、「隠れニューラルネットワーク」理論に基づいた「推論アクセラレータLSI」を開発した。新提案のオンチップモデル構築技術により、外部メモリへのアクセスを大幅に削減。世界最高レベルの電力効率と推論精度を実現した。 - SK hynixがPIMを開発、GDDR6にアクセラレーター統合
SK hynixは2022年2月16日(韓国時間)、同社が開発したPIM(Processing-in-Memory)技術を初めて適用した製品「GDDR6-AiM(Accelerator in memory)」のサンプルを開発したと発表した。 - Intel、22年後半にカスタムブロックチェーンアクセラレーターを出荷
Intelは「カスタムコンピューティンググループ」と呼ぶ新しいアクセラレータグループを創設したことと、同グループが設計したカスタムブロックチェーンアクセラレーターを2022年後半に出荷する予定であることを発表した。 - TSMCの5nmプロセス採用したヘテロジニアスAIプロセッサ
AI(人工知能)チップを手掛ける新興企業Ceremorphicが2022年1月、ステルスモードから姿を現した。同社が提供するヘテロジニアスAIプロセッサは、データセンターや自動車、高性能コンピューティング(HPC)、ロボット工学などのさまざまな新しい用途に向けた、モデルトレーニングをターゲットに定めるという。 - イジング問題をGPUの100倍の速さで解く光チップ
光コンピューティングを手掛ける米の新興企業Lightelligence(ライテリジェンスと発音)が、シリコンフォトニクスアクセラレーターのデモを披露した。一般的なGPU搭載システムに対し、イジングモデルを100倍以上の速さで解くことが可能だという。 - Qualcomm、サーバ向けAIプロセッサのサンプル出荷を開始
Qualcommが2019年に、クラウド向けAI推論アクセラレータ「Cloud AI 100」を最初に発表してから、約18カ月がたとうとしている。同社によると、現在既にCloud AI 100の最終製品の製造を開始しており、2021年前半には出荷を開始できる見込みだという。複数の顧客にはサンプリングを開始している。