検索
特集

NVIDIAとGoogle、AI指標でトップ性能達成を主張MLPerf Training v0.7(2/2 ページ)

機械学習の業界標準ベンチマーク「MLPerf」の第3ラウンド(「MLPerf v0.7」)において、8種類の機械学習モデルを対象としたスコア結果が発表された。ライバル同士であるNVIDIAとGoogleは、いずれもトップ性能を達成したと主張する。

Share
Tweet
LINE
Hatena
前のページへ |       

商用向けでトップ性能を主張するNVIDIA

 NVIDIAは、商用利用可能システムに関する全てのベンチマークにおいて、システム性能と、アクセラレーターチップの数による正規化性能の両方で最も優れた成果を達成し、トップの座を獲得したと主張する。同社のフラグシップアーキテクチャであるAmpereは、数カ月前に発表されたばかりで、この最新型Ampere A100チップを使用したベンチマーク申請は全て、商用利用可能カテゴリーに該当する。同社は、他のどの競合企業よりも多いとされる全てのベンチマークスコアを提出している。

 NVIDIAは、同社最大のシステムである最新スパコン「DGX-SuperPod(Selene)」のスコアを提出した。同社によると、Seleneは米国のAI向け商用システムとしては最速を実現するという。Ampere A100チップを2048個搭載し、1EFLOPS(エクサフロップス)を超えるAI処理性能を達成する。

 NVIDIAのデータセンターコンピューティング部門で製品管理担当シニアディレクターを務めるParesh Kharya氏は、「性能記録の検証方法は2つある。1つ目は、全ての基準における絶対的な最速性能だ。当社のDGX-SuperPodは、あらゆる種類のモデルのトレーニングを、わずか18分未満で実行することができる。そして2つ目は、必ずしも全顧客が全てのアプリケーションを大規模に動作させるわけではないため、標準化されたチップ当たりの性能を検証することだ。ここでもNVIDIA A100が、商用利用可能システムのカテゴリーにおいて、全ての性能記録を更新している」と述べる。

 NVIDIAはどのようにして、こうした優れた成果を上げることができたのだろうか。

 Kharya氏は、「当社はこれまで、ソフトウェアをはじめ、常にフルスタックのイノベーションに注力してきた。当社のエコシステムと共同で、アーキテクチャやソフトウェアの開発に数十億米ドルの資金を投じている。基本的に、こうした取り組みが実を結び、優れた性能を達成できたといえる」と述べている。

30秒未満でトレーニング完了を主張するGoogle

 一方Googleも、同じく一連の性能結果に基づき、「世界最速のトレーニングスパコンを実現した」と主張する。


Googleは、今回の「MLPerf v0.7」の「研究開発」のカテゴリーにおいて、6つのモデルのトレーニング性能でトップを記録したと主張する 画像:Google(クリックで拡大)

 Google AIのシニアスタッフエンジニアであるNaveen Kumar氏は、同社のブログ投稿の中で、「全8個のモデルのうち4個は、ゼロの状態から30秒未満でトレーニングを行うことができた」と主張している。


GoogleのTPU v3を使用したスーパーコンピュータ 画像:Google

 Googleは、次世代のTPUであるv4の結果をいくつかプレビューし、その詳細を示した。

 Kumar氏はブログで、「Googleの第4世代TPU ASICは、TPU v3の2倍以上の行列積TFLOP、メモリ帯域幅の大幅な向上、インターコネクト技術の進歩を提供する。TPU v4のMLPerfに向けた提出物は、これらの新しいハードウェア機能を、補完的なコンパイラとモデリングの進歩とともに活用している。その結果、TPU v3に比べてTPU v4のパフォーマンスは2.7倍となっていることを示すことができた」と書いている。

真の勝者は、まだ分からず

 誰を最終的な“勝者”として見なすかは、商業的に入手可能なシステムだけを含めるかどうかによって決まる。システムだけを見れば、NVIDIAのA100が優位に立っている。プレビューと研究開発も含め、チップごとの結果だけで見るならば、GoogleのTPU v4が、8つのモデルのうち3つでNVIDIAを打ち負かしている。

 全体としては、Google、NVIDIA、Intel、Huawei以外の企業からの結果はまだ提出されておらず、もどかしい状況が続いている。GraphcoreやCerebrasといった熱心な企業からの提出も、まだない。

 NVIDIAのKharya氏は「提出される結果の数が少ない理由として、カスタムシリコンの開発に取り組みながら性能を売り込む企業が数多くある一方で、AIで卓越した性能を実現するのは難しいという背景がある。さらに、AI分野では、多数のソフトウェアやAI性能を実現するフルスタックの開発に取り組む、広範なエコシステムも求められる。NVIDIAは、これまで何十億米ドルを投じて、およそ10年間にわたりこの問題に取り組んできた」と述べている。

【翻訳:青山麻由子、田中留美、編集:EE Times Japan】

Copyright © ITmedia, Inc. All Rights Reserved.

前のページへ |       
ページトップに戻る