NVIDIAでアクセラレーテッド・コンピューティング製品管理担当ディレクターを務めるParesh Kharya氏は、「データセンターの運営企業は、電力が運用コストの25%を占めているため、全体的にエネルギー効率を向上させたいと考えている」と述べる。
エネルギー節約の指標として広く使用されているのが、電力利用効率(PUE)だ。データセンターの消費電力に対するコンピューティングに直接使用されるエネルギーの比率である。PUEの評価は「1」を目標としている。
Kharya氏は、「ここ数年で、ハイパースケールデータセンターのPUEが1〜1.1に近づいており、非常に効率的になってきている。エンタープライズデータセンターも同様だ」と述べる。ハイパースケールデータセンターでは、ほとんどの企業データセンターでは導入が難しい高度な技術を用いてラックや冷却システムが最適化されていることが多い。
企業が「電気代」として支払っているのは電力ではなくエネルギーであることを考えると、学習/推論にかかる時間が重要な要素だとKharya氏は主張する。「例えば、画像認識向けのResNet-50モデルを学習する場合、CPUのみのサーバでは最大3週間かかるのに対し、NVIDIAのGPU『V100』を搭載したサーバでは1日もかからない」(同氏)
「当社のGPUを搭載したサーバは、CPUサーバに比べれば確かに多くのエネルギーを消費するが、処理完了までの時間は劇的に短縮される。GPUアクセラレーターを使用することで、AIワークロードにかかる全体的なエネルギー消費量は20分の1から25分の1まで減少すると考えられている」(Kharya氏)
そのため、データセンター運営者は、高価なインフラから最大限のコンピューティングを引き出すために、全てのシステムを効率的に動作させることに注力していると、Intelのデータプラットフォーム・マーケティング担当ゼネラルマネジャーであるAllyson Klein氏は述べている。
Klein氏は「データセンター運営者の第1の目標は、インフラから得られるパフォーマンスを最大化することだ」と述べた。「効率を上げるには、システムやラックレベルでなく、データセンター全体を連携させてワット当たりの性能を最大化する必要がある」(同氏)
多くの場合において、ワークロードに、CPUに統合されたアクセラレーション機能を使うか、ディスクリートのアクセラレーターを使うかという2つの間でトレードオフが発生する。「アクセラレーターの使用で電力消費量は増加するが、フルタイムで利用すれば全体的に効率は高まる。アクセラレーターでの処理が多い場合、ディスクリートのアクセラレーターに投資するのは理にかなっているだろう。反対に、アクセラレーターの利用がそれほどない場合は、(アクセラレーションを統合している)CPUソリューションの方が総合的な投資効果は高いとも考えられる」(Klein氏)
ほとんどの実装では、AIは何十万ものさまざまなワークロードのうちの一つにすぎないとKlein氏は述べる。IntelはCPUと、AIアクセラレーター(Habana Labsが手掛けるもの)の両方を提供しているが、多様なワークロードを処理することを考慮すると、「Xeon スケーラブル・プロセッサ」が、消費電力と投資の観点から最も効率的であるといわれる理由なのかもしれない。
データセンターで処理するワークロードにおいて、AI関連の処理は確かに急成長している分野ではあるものの、AI以外の多岐にわたる膨大な量の処理が日々、データセンターでは行われている。AI処理においてアクセラレーターのメリットは大きいものの、しばらくはハイパースケールデータセンターでも、エンタープライズデータセンターでも、より柔軟性の高いCPUが優位になりそうだ。
【翻訳:滝本麻貴、田中留美、編集:EE Times Japan】
Copyright © ITmedia, Inc. All Rights Reserved.