Intelは2020年6月18日(米国時間)、データセンター向けAI(人工知能)戦略の一環として、この市場に特化したCPU「Cooper Lake」や、専用AIエンジンを搭載した新FPGA「Stratix 10 NX」などを発表した。
Intelは2020年6月18日(米国時間)、データセンター向けAI(人工知能)戦略の一環として、この市場に特化したいくつかのデバイスを発表した。具体的には、第3世代の「Xeon Scalable CPU」や、専用AIエンジンを搭載した新FPGA「Stratix」、新しい「Optane」パーシステントメモリ、NAND SSDなどである。半年前にデータセンターに特化したAIアクセラレータを手掛けるイスラエルのHabana Labsを買収して以降初めて、データセンター向けAI戦略に光明を投じた形となった。
Intelは、データセンター向けのフラグシップ製品であるXeon Scalable CPUシリーズの第3世代の第1版として「Cooper Lake」を発表した。14nmプロセスを適用した製品となる。
Xeon Scalableプロセッサはこれまでに3500万個以上が採用されている。前世代(第2世代、開発コード名は「Cascade Lake」)では、ディープラーニングなどの演算性能を向上する新しい命令セット「AVX(Advanced Vector Extension)-512」に拡張命令を追加した「DL(Deep Learning) Boost」が導入された。これによってINT8での演算性能が従来(3つの命令が必要)に比べて約3倍に向上する。
Cooper Lakeは、Googleの推論向けフォーマット(浮動小数点)「bfloat16(BF16)」をサポートしている。BF16は、計算効率と予測精度のバランスに優れていて、AIトレーニングの標準規格になりつつある。今回のDL Boostのアップデートによって、BF16とベクトルニューラルネットワーク命令(VNNI)のx86でのサポートを「業界で初めて」(Intel)実現した。
IntelのXeon and Memory Groupでコーポレートバイスプレジデント兼ゼネラルマネジャーを務めるLisa Spelman氏は、「BF16の優れた点の1つは、顧客によるソフトウェアの変更の必要性を最小限に抑えられることである。これにより、AI性能の向上において障壁となり得る、ソフトウェアへの膨大な変更作業なしに、トレーニングと推論の両方でハードウェアの効率を向上させることができる」と説明している。
Intelの発表によると、Cooper Lakeの画像分類のトレーニング性能は第2世代と比べて最大1.93倍、推論性能は1.87倍だという。自然言語処理トレーニングでは、前世代の1.7倍の性能になるとする。
この他、第2世代から継承された機能として、特定コアのベース周波数とターボ周波数を動的にコントロールして優先度の高いワークロードの性能を最大化する「Speed Select」がある。
AI処理に最適化した新しいFPGA「Stratix 10 NX」も発表した。ニューラルネットワーク処理に特化した新しいエンジン「AI Tensor Block」が搭載されている。これによって、現行世代の「Stratix 10 MX」に比べ、INT8演算の性能が最大15倍に向上するという。
IntelでProgrammable Solutions Groupのコーポレートバイスプレジデント兼ゼネラルマネジャーを務めるDavid Moore氏は、「AI Tensor Blockの設計は、AIアプリケーションの高速化にフォーカスしている。特に、AIアプリケーションで一般的に使用されている低精度の整数および浮動小数点フォーマットで、高効率のTensorパイプラインを最適化している」と説明する。「これらの技術革新により、当社の標準的なDSPコンピュートブロックと同じ面積に、15倍の性能のコンピュートブロックを搭載できるようになった。Stratix 10 NXにはAI Tensor Blockが数千個搭載されているので、最も要求の厳しいAIアプリケーションでリアルタイムの性能を提供できるようになる」(同氏)。Stratix 10 NXは2020年後半に出荷される予定だ。
【翻訳:滝本麻貴、編集:EE Times Japan】
Copyright © ITmedia, Inc. All Rights Reserved.