検索
特集

AIアクセラレーターはデータセンターの省エネに貢献可能か電力と性能のトレードオフも(1/3 ページ)

データセンターでは機械学習関連のワークロードが増えているが、AI(人工知能)アクセラレーターを使うことは、省エネにつながるのだろうか。

Share
Tweet
LINE
Hatena

電力消費量が多いAIのワークロード

 負荷が高い処理の多くはクラウドで行われるからなのか、AI(人工知能)には膨大な量の計算リソースだけでなく、電力も必要であるということをつい忘れがちだ。


画像はイメージです

 米国マサチューセッツ大学アマースト校(University of Massachusetts at Amherst)が2019年に行った研究によると、1つの大規模な自然言語処理用AIモデル(BERT:Bidirectional Encoder Representations from Transformers)のトレーニングを実施する場合、その時の消費電力で排出される二酸化炭素(CO2)量は、1人の人間が大西洋横断フライトで往復する場合とほぼ同じ量に相当することが明らかになったという。

 モデルの開発時には通常、何度も調整したり再トレーニングを行ったりする場合が多い。ニューラルアーキテクチャ検索(NAS:Neural Architecture Search)として、AutoML(自動化された機械学習)技術を、適切なサイズのTransformerに追加するとなると、その合計CO2排出量は、米国製自動車5台分が廃棄されるまでに排出するCO2と、ほぼ同じ量まで跳ね上がるという。

 AIアクセラレーターは、AI処理の高効率化を実現できる。データセンターは現在、演算負荷の増大を受け、このような新しい専用アクセラレーターの導入を進めているところだ。

 しかし、AIアクセラレーターは、省エネを実現することは可能なのだろうか。全体的な消費電力量は減少するのだろうか。それとも、単にデータセンターが、同じパワーエンベロープの中により多くの計算性能を詰め込んでいるというだけのことなのだろうか。

トレーニング方法が変わるだけで消費電力も変わる

 IBM Cognitive Systemsのテクニカルコンピューティング部門担当バイスプレジデントを務めるDavid Turek氏は、「AI計算で消費されるエネルギー量は、いくつかの要素によって左右される」と述べる。「例えば、モデルのトレーニング方法を変更すると、エネルギー消費量に影響が及ぶ。1W当たりの計算性能などの数値に関しては、特に有益な情報だとはいえない。全体的なエネルギー消費量を削減するために、さまざまな種類の戦略を強制的に課すことが可能であるからだ」(同氏)

 同氏は、「実際のエネルギー量は、全体的なシステムアーキテクチャと、アプリケーションのコンテキストとの組み合わせによって決まる。モデルのトレーニングから導入に至るまでの演算性能の階層は、インフラに直接的な影響を及ぼす。そしてそれが、エネルギー消費量にも影響を及ぼすことになる」と付け加えた。

 AIシステムに関する従来の見解では、1つのモデルのトレーニングを1回実施すれば、他の推論向けに導入することができるとされていた。しかし現実は、これとはかけ離れている。一般的なシステムでは、さまざまな種類のモデルのトレーニングを何度も実施し、複数のモデル上で同時に推論を実行することによって、最善の成果を得ることができるのだ。

 導入後に、エッジ上でモデルの増分更新を行う際に、データセンターに戻すのではなく、連合学習(Federated Learning)などの技術が使われる場合がある。電力プロファイルは、エッジ上でどのような処理が採用されるかによって決まるのだ。

 つまり、特定のAIモデルをトレーニングすることで消費されるエネルギー量は、一概には計算できないということだ。ただし、データセンターのインフラは固定されているため、ワークフローを調整することが低消費電力化の最適な方法だとTurek氏は述べている。

 可能な方法としては、AIモデルを古典的な高性能コンピューティングと統合して必要なコンピューティングの総量を減らす、処理に時間がかかっても、GPUなど消費電力が大きいAIアクセラレーターの使用を減らす、連合学習などの技術を使用してデータセンターでの再トレーニングを回避する、などがある。

Copyright © ITmedia, Inc. All Rights Reserved.

       | 次のページへ
ページトップに戻る