検索
ニュース

「ネットワークエッジの高性能化が必要」 AMDが語るAIの開発を加速(1/2 ページ)

AMD(Advanced Micro Devices)は現在、クライアントおよび組み込みシステムのディープラーニングジョブを加速するための競争に参加すべく、準備を進めている。

Share
Tweet
LINE
Hatena

データセンターとエッジの両方にAIエンジンを提供

 AMD(Advanced Micro Devices)は現在、クライアントおよび組み込みシステムのディープラーニングジョブを加速するための競争に参加すべく、準備を進めているところだ。しかし同社は、今後1年の間に提供する予定の、7nmプロセスを適用したx86チップやGPUチップ、そして7nmプロセス以降のロードマップに関しては、まだ詳細を明かすことができないとしている。

 AMDのCTO(最高技術責任者)を務めるMark Papermaster氏は、EE Timesのインタビューで、「現在求められているのは、流入したデータをリアルタイムで分析する場所(ソース)の近くにある、ネットワークエッジの高性能化だ。AMDの包括的なマシンラーニング戦略は、データセンターとエッジの両方に向けてAI(人工知能)エンジンを提供することができる」と述べる。

 AMDは2016年後半に、同社にとって初となる、データセンターのディープラーニングに向けたGPUアクセラレーターを発表している。それ以降、Googleの「TensorFlow Processing Unit(TPU)」などのさまざまな製品が登場したことで、ハードウェアに積和ユニット(MAC:Multiply-Accumulate)アレイを追加し、ディープラーニングアルゴリズムを加速させることによって得られるメリットが提示されてきた。

MACアレイを追加する動き


AMDのMark Papermaster氏

 グラフィックス分野のライバルであるNVIDIAは2017年5月に、同社にとって初となる、組み込みMAC「Tensor Core」を搭載したGPU「Volta」を発表した。一方、AMDのCPU分野のライバルであるIntelは、2018年初めに、「当社は今後、Movidiusのアクセラレーターを、『Windows ML(Machine Learning)*)』を搭載するPCのマザーボードに採用していく予定だ」と述べている。アナリストたちは、「Intelは最終的に、Movidiusのコアを、同社のPCプロセッサに組み込むのではないだろうか」と確信しているようだ。

*)Windows ML:学習済みの機械学習ライブラリを、Windows上で動作させるためのAPI(Application Programming Interface)

 Papermaster氏は、AMDが2018年後半に発表予定の7nmプロセスGPU「Vega」や、2019年初めに発表予定のx86プロセッサ「Zen 2」に、MACアレイを追加する予定かどうかについては、明らかにしなかった。ただし同氏は、「Vegaは、当社の既存のGPUがサポートしている16ビット浮動小数点を超える、追加フォーマットをサポートする予定だ」と述べている。

 現在、ニューラルネットワークの簡素化によってディープラーニングジョブを加速させるための手法をめぐり、活発な議論が展開されている。Armは、マシンラーニング(ML)専用プロセッサのIP(Intellectual Property)である「Arm ML」で、INT8(8ビット整数演算)をサポートする予定だという。NVIDIAは2値化の研究を行っていて、ベルギーimecはシングルビットの精度を利用したアクセラレーターの開発を進めているところだ。

 今のところ、AMDが公開したロードマップは、「2020年をメドに、第2世代の7nmプロセス技術で、Zen 3シリーズに向けたEUV(極端紫外線)リソグラフィを採用する」と明かすにとどめている。Papermaster氏は、その先の予定に関してはコメントを避けている。

 x86チップにおけるAMDの主要なファウンドリパートナーであるGLOBALFOUNDRIESのCEOは、2018年5月にEE Timesが実施したインタビューの中で、同社が5nmよりも3nmを重視して、3nmチップの製造工場の建設に向けて投資者を探していることを示唆していた。長年AMDのグラフィックスチップを製造しているTSMCは、5nmと3nmプロセスの両方の生産体制を整えている。TSMCのライバルであるSamsung Electronicsは、5nmと3nmのノード間の差異を埋めようとしている。

 Papermaster氏は、「ファウンドリー各社は、性能、ワット当たりの性能、密度を向上させているが、業界が慣れ親しんできた従来のムーアの法則のペースに比べると、進展は遅くなっている。当社は、フルノードでの移行を行っている。さらに、CPUやGPU、その他のコアを使用した異種アーキテクチャを採用している」と説明している。

Copyright © ITmedia, Inc. All Rights Reserved.

       | 次のページへ
ページトップに戻る