AIアクセラレーターはデータセンターの省エネに貢献可能か:電力と性能のトレードオフも(3/3 ページ)
データセンターでは機械学習関連のワークロードが増えているが、AI(人工知能)アクセラレーターを使うことは、省エネにつながるのだろうか。
CPUかGPUか
NVIDIAでアクセラレーテッド・コンピューティング製品管理担当ディレクターを務めるParesh Kharya氏は、「データセンターの運営企業は、電力が運用コストの25%を占めているため、全体的にエネルギー効率を向上させたいと考えている」と述べる。
エネルギー節約の指標として広く使用されているのが、電力利用効率(PUE)だ。データセンターの消費電力に対するコンピューティングに直接使用されるエネルギーの比率である。PUEの評価は「1」を目標としている。
Kharya氏は、「ここ数年で、ハイパースケールデータセンターのPUEが1〜1.1に近づいており、非常に効率的になってきている。エンタープライズデータセンターも同様だ」と述べる。ハイパースケールデータセンターでは、ほとんどの企業データセンターでは導入が難しい高度な技術を用いてラックや冷却システムが最適化されていることが多い。
企業が「電気代」として支払っているのは電力ではなくエネルギーであることを考えると、学習/推論にかかる時間が重要な要素だとKharya氏は主張する。「例えば、画像認識向けのResNet-50モデルを学習する場合、CPUのみのサーバでは最大3週間かかるのに対し、NVIDIAのGPU『V100』を搭載したサーバでは1日もかからない」(同氏)
「当社のGPUを搭載したサーバは、CPUサーバに比べれば確かに多くのエネルギーを消費するが、処理完了までの時間は劇的に短縮される。GPUアクセラレーターを使用することで、AIワークロードにかかる全体的なエネルギー消費量は20分の1から25分の1まで減少すると考えられている」(Kharya氏)
そのため、データセンター運営者は、高価なインフラから最大限のコンピューティングを引き出すために、全てのシステムを効率的に動作させることに注力していると、Intelのデータプラットフォーム・マーケティング担当ゼネラルマネジャーであるAllyson Klein氏は述べている。
Klein氏は「データセンター運営者の第1の目標は、インフラから得られるパフォーマンスを最大化することだ」と述べた。「効率を上げるには、システムやラックレベルでなく、データセンター全体を連携させてワット当たりの性能を最大化する必要がある」(同氏)
多くの場合において、ワークロードに、CPUに統合されたアクセラレーション機能を使うか、ディスクリートのアクセラレーターを使うかという2つの間でトレードオフが発生する。「アクセラレーターの使用で電力消費量は増加するが、フルタイムで利用すれば全体的に効率は高まる。アクセラレーターでの処理が多い場合、ディスクリートのアクセラレーターに投資するのは理にかなっているだろう。反対に、アクセラレーターの利用がそれほどない場合は、(アクセラレーションを統合している)CPUソリューションの方が総合的な投資効果は高いとも考えられる」(Klein氏)
データセンターのワークロードは多岐にわたる
ほとんどの実装では、AIは何十万ものさまざまなワークロードのうちの一つにすぎないとKlein氏は述べる。IntelはCPUと、AIアクセラレーター(Habana Labsが手掛けるもの)の両方を提供しているが、多様なワークロードを処理することを考慮すると、「Xeon スケーラブル・プロセッサ」が、消費電力と投資の観点から最も効率的であるといわれる理由なのかもしれない。
データセンターで処理するワークロードにおいて、AI関連の処理は確かに急成長している分野ではあるものの、AI以外の多岐にわたる膨大な量の処理が日々、データセンターでは行われている。AI処理においてアクセラレーターのメリットは大きいものの、しばらくはハイパースケールデータセンターでも、エンタープライズデータセンターでも、より柔軟性の高いCPUが優位になりそうだ。
【翻訳:滝本麻貴、田中留美、編集:EE Times Japan】
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- データセンターを支える光伝送技術 〜ハイパースケールデータセンター編
今回は、エンタープライズデータセンターに続き、GoogleやFacebook、Appleなどが抱える巨大なデータセンター、「ハイパースケールデータセンター」について解説する。 - データセンターを支える光伝送技術 〜エンタープライズデータセンター編
現代において、最も重要な社会インフラの一つともいえるのがデータセンターだ。データセンターには光伝送技術が欠かせない。今回は、データセンターに使われる光伝送技術について、エンタープライズデータセンターやハイパースケールデータセンターを取り上げて、解説していく。 - 「Intelは全方位にAIを展開」、汎用GPUにも進出
Intelの日本法人であるインテルは2019年11月27日、AI(人工知能)におけるIntelの取り組みを説明する発表会を都内で開催した。Intelは同年11月12日(米国時間)に米国カリフォルニア州サンフランシスコで「AI Summit 2019」を開催し、AI向けの新製品を発表したが、その内容の一部を日本の報道機関向けに説明するというもの。 - Intel、NervanaのAIチップ開発を打ち切りへ
漠然とではあるが推測されてきた通り、IntelがNervanaのデータセンター向けAI学習用チップ「NNP-T」ならびに推論チップ「NNP-I」を打ち切った。最近買収したHabana Labs(以下、Habana)のチップ「Gaudi」と「Goya」の方を選択したとみられる。 - NVIDIAのMellanox買収、中国の承認取得で完了間近
NVIDIAは、データセンター向けインターコネクト企業であるイスラエルのMellanox Technologies(以下、Mellanox)を69億米ドルで買収する計画に対して、中国当局の承認を得たことを発表した。中国当局の承認の獲得は、この取引における最後のハードルとなっていた。 - NVIDIA、99ドルのAIコンピュータを発表
NVIDIAは、高い演算性能を持ちながら消費電力が小さいCUDA-X AI(人工知能)コンピュータ「Jetson Nano」を発表した。開発者や個人のクリエーターなどに向けた「開発者キット」の価格はわずか99米ドルである。