今回は、今後普及するとみられる伝導液冷を解説する。強制空冷に対し、電力コストやインフラ整備の点で優位性がある。
サーバやデータセンターなどの放熱技術に注目が集まっている。演算処理を担うGPUとCPUの最大消費電力(熱設計電力(TDP))が増加しつつあることで、効率の高い放熱技術が強く求められるようになってきた。
そこで本コラムでは、サーバやデータセンターなどを支える最新の放熱技術を第468回から、シリーズで説明している。前々回は純水や冷却液などの液体を使ってラックマウントサーバを冷却する「液体冷却(液冷)システム」の概要を、前回は間接・伝導方式の液体冷却技術(伝導液冷技術)の構成を述べた。
今回は従来のラックマウントサーバおよびデータセンターの放熱に使われてきた強制空冷に対する、これから普及するとみられる伝導液冷の優位性をご説明する。
始めは放熱に要する電力コストである。大手サーバベンダーのSupermicroによると、強制空冷のコストを100%として相対値で比較するとサーバユニットの放熱に要する電力のコストはわずか8%で済む。データセンター全体でも、放熱に要する電力のコストは60%にとどまるとする。1000台のGPUサーバユニット(1台に8個のGPUを搭載)で構成されるデータセンターで5年間に節約できる電力コストは、6000万米ドルに達するとSupermicroは主張する(電力代金は0.18米ドル/kWhと仮定)。
また重要なのが、放熱システムが発する騒音である。強制空冷は冷却用送風ファンの騒音が無視できない。伝導液冷だとサーバが発生する騒音は強制空冷の約45%に減少する。
伝導液冷では、強制空冷に比べて放熱・冷却のインフラが簡素になるメリットも見逃せない。強制空冷ではサーバユニットを冷却する送風ファン、サーバによって温められた空気の温度を冷却水によって下げる「空調機(CRAC:Computer Room Air Conditioner、「クラック」とも呼ぶ)」、空調機(CRAC)によって温められた冷却水を冷やす「冷却水循環器(チラー:Chiller)」などが必要となる。特に「チラー」は強制空冷のインフラで最も電力を費やす熱交換器だとされる。
伝導液冷では、送風ファン、CRAC、チラーが不要となる。送風ファンはゼロにならなくても、強制空冷に比べるとはるかに低い能力のファンで済む。CRACとチラー、特にチラーが不要になることは電力コストの削減に効く。
伝導液冷は初期コスト(導入コスト)が極めて高いというイメージを持たれやすい。しかし実際には、強制空冷では必須だったいくつかの熱交換器を省ける。新しく伝導液冷のデータセンターを構築するのであれば、導入コストはあまり高くならない。そもそもラック当たりで消費電力が100kW以上に達するGPU主体のAIサーバは、強制空冷による放熱は困難だろう。
その他、サーバルームに配置可能なラックマウントサーバの台数(単位床面積当たり)が強制空冷に比べて増加するというメリットもある。ラック間の熱干渉が原理的には存在しないからだ。
(次回に続く)
⇒「福田昭のデバイス通信」連載バックナンバー一覧
Copyright © ITmedia, Inc. All Rights Reserved.