検索
特集

ArmのAI戦略、見え始めたシナリオIPベンダーならではの出方(4/4 ページ)

機械学習についてなかなか動きを見せなかったArmだが、モバイルやエッジデバイスで機械学習を利用する機運が高まっているという背景を受け、少しずつ戦略のシナリオを見せ始めている。

Share
Tweet
LINE
Hatena
前のページへ |       

Armのシナリオ

 さらに落ちるのがCortex-Aコアを使った場合だ。Cortex-A75を仮に3GHzで駆動させたとして、32Ops/cycleだから96GOps/sec程度になる。要するに、Armが2017年から2018年にかけて提供しているソリューションは、いずれもピーク性能はその他のソリューションに遠く及ばないということになる。


現在の肩書きはVP, Fellow and GM, Machine Learning GroupのJem Davis氏。この写真は2016年のARM TechConの基調講演のもので、この当時の肩書きはARM Fellow, VP of Technology, Imaging and Vision Groupだった記憶が

 何で、という話はかつてJem Davis氏が説明してくれた事がある。特にMLに関して言えば、ものすごい勢いで新しいアーキテクチャとか手法が開発され、普及してゆくので、これに追従するのはArmのビジネスモデル的にも難しい(IPを提供し、ライセンスを受けたベンダーがこれを実装して製品化、なのでIPの提供からシリコンの出荷までのリードタイムが大きいため、うっかりすると製品出荷時に陳腐化している可能性がある)ので、専用IPの提供には慎重にならざるを得ないという話であった。

 第1世代のBifrostにInt 8のサポートを追加しなかったのも、当時の使われ方からすると、MLにGPUが使われるかどうかはまだはっきりしないということで、それをサポートすることによるコスト(若干とはいえエリアサイズは増えるし、まだ当時はArm NN SDKも無かったから、ソフトウェアのフレームワークを開発する必要もあった)増をライセンシーが嫌ったという事らしい。

 ただここに来て、モバイルあるいはエッジデバイスでのML利用の機運が高まってきたので、「取りあえず最小限カバーするための仕組みを提供しよう」というあたりが、2017年から2018年にかけての動きではないかと思う。

 実のところ、こうした端末あるいはエッジデバイス向けのML対応アプリケーションは、現状ではまだ緒に就いたばかりの段階である。新しいマーケットが立ち上がるにはインフラが必要であり、そのインフラを使ってアプリケーションが増えることでインフラがより充実する、というのは良くありがちな話である。なので、最初にインフラを整備しないと、そもそもアプリケーションが1本も生まれてこない。今現在Armがやっているのは、まさにこのインフラを作る作業であって、なのでスペック的にもそれほど追い込んだものではない。「そこそこに動くものを、ただし廉価で」提供することが、現在の目的である。

 ただしこれによってアプリケーションのエコシステムが活性化したら、その段階で必要なリソースや要求性能などの見極めをつけ、よりターゲットを絞り込んだ競争力のあるIPを投入、マーケットをかっさらってゆくという、というのがArmのシナリオと思われる。これは、これまでも繰り返されてきた同社の戦略である。IPベンダーらしい息の長い展開であるが、幸い同社にはこの長い期間を待てる資金的な蓄えも、人材も、そして戦略を理解してくれる親会社もある。その意味では、短期的にどうこう、とか学習向けマーケットをどうこう、というのは現在のArmの視野には一切入っていないだろう。学習向けはサーバ向けプロセッサとの組み合わせの話になり、むしろこちらはCCIXのエコシステム絡みでいろいろ展開はあるかもしれないが、それもやはり短期的にどうこう、という話にはならないと思われる。

Copyright © ITmedia, Inc. All Rights Reserved.

前のページへ |       
ページトップに戻る