Intelの日本法人であるインテルは2019年11月27日、AI(人工知能)におけるIntelの取り組みを説明する発表会を都内で開催した。Intelは同年11月12日(米国時間)に米国カリフォルニア州サンフランシスコで「AI Summit 2019」を開催し、AI向けの新製品を発表したが、その内容の一部を日本の報道機関向けに説明するというもの。
Intelの日本法人であるインテルは2019年11月27日、AI(人工知能)におけるIntelの取り組みを説明する発表会を都内で開催した。Intelは同年11月12日(米国時間)に米国カリフォルニア州サンフランシスコで「AI Summit 2019」を開催し、AI向けの新製品を発表したが、その内容の一部を日本の報道機関向けに説明するというもの。
インテル執行役員常務 技術本部 本部長の土岐英秋氏によれば、2019年におけるIntelのAI関連売上高は35億米ドルに上るという。同氏は、「AIはあらゆる領域に浸透し始めているが、Intelも(エッジからクラウドまで)全方位にAIを展開していく。セキュリティも含めて展開していく」と強調した。
エッジ向けの学習および推論チップとしては、次世代の「Movidius Myriad VPU(Vision Processing Unit)」(開発コードネーム:Keem Bay)を発表。メモリはオンチップ搭載で、より高速なメモリ帯域を確保しているという。前世代の「Myriad X」に比べて約10倍の性能向上を実現していると土岐氏は説明する。
Keem Bayは、NVIDIAのAIコンピューティングプラットフォーム「Jetson TX2」に比べて電力当たりの推論性能が約6.2倍で、NVIDIAの「Jetson Xavier」に比べると、同等の推論性能であれば電力は5分の1になるという。単位面積(mm2)当たりの推論性能は、Jetson TX2と比較して8.7倍と主張する。
Keem Bayは2020年前半に市場に投入する予定で、チップレベル、M.2、複数のKeem Bayを搭載したカードと、複数の形で提供していく予定だ。
併せてIntelは、AI開発者向けに新しいツール「DevCloud for the Edge」も発表した。クラウド上に開発環境を用意して、開発したソースコードを、どの割合でどのアーキテクチャ(CPU、GPU、FPGA、VPU)に振り分けると、どのくらいの推論性能が出るのかをテストできるようにするというもの。「これによって、実機で検証する前に、推論のワークロードのバランスをクラウド上で確認できる」(土岐氏)
クラウド向けの機械学習向けアクセラレーターとしては、学習用の「Nervana NNP(ニューラルネットワークプロセッサ)-T1000」、推論用の「Nervana NNP-I1000」を発表。米国のイベントではデモも行ったという。両製品は一部の限定顧客に向けて提供を開始した。
NNP-I1000は1秒当たり50兆回の計算を実現できると土岐氏は強調する。NNP-I1000が32個搭載されている1Uラックと、NVIDIAの「T4」GPUが20個搭載されている4Uラックを比べた場合、ラック当たりのコンピューティング密度は最大3.7倍高くなるという。土岐氏は「エッジ側だけでなく、データセンター側でも、限られたスペースでどのくらいのコンピューティング密度を実現できるかというのは非常に重要になる」と述べる。
併せて土岐氏は、Intelが2019年11月17日(米国時間)に発表したHPC(High Performance Computing)や深層学習向けと最適化された汎用GPUについても触れた。Intelの「Xe」アーキテクチャをベースにしたディスクリートグラフィックスで、開発コードネームは「Ponte Vecchio」。Intelが2018年12月に発表した3D(3次元)積層技術「Foveros」や、CXL(Compute Express Link)ベースのインターコネクト「Xeリンク」が適用され、さらにIntelの次世代製造プロセスである7nmで製造される予定だ。ただし同社は、Ponte Vecchioの市場投入時期については明らかにしていない。
Copyright © ITmedia, Inc. All Rights Reserved.