さらに落ちるのがCortex-Aコアを使った場合だ。Cortex-A75を仮に3GHzで駆動させたとして、32Ops/cycleだから96GOps/sec程度になる。要するに、Armが2017年から2018年にかけて提供しているソリューションは、いずれもピーク性能はその他のソリューションに遠く及ばないということになる。
何で、という話はかつてJem Davis氏が説明してくれた事がある。特にMLに関して言えば、ものすごい勢いで新しいアーキテクチャとか手法が開発され、普及してゆくので、これに追従するのはArmのビジネスモデル的にも難しい(IPを提供し、ライセンスを受けたベンダーがこれを実装して製品化、なのでIPの提供からシリコンの出荷までのリードタイムが大きいため、うっかりすると製品出荷時に陳腐化している可能性がある)ので、専用IPの提供には慎重にならざるを得ないという話であった。
第1世代のBifrostにInt 8のサポートを追加しなかったのも、当時の使われ方からすると、MLにGPUが使われるかどうかはまだはっきりしないということで、それをサポートすることによるコスト(若干とはいえエリアサイズは増えるし、まだ当時はArm NN SDKも無かったから、ソフトウェアのフレームワークを開発する必要もあった)増をライセンシーが嫌ったという事らしい。
ただここに来て、モバイルあるいはエッジデバイスでのML利用の機運が高まってきたので、「取りあえず最小限カバーするための仕組みを提供しよう」というあたりが、2017年から2018年にかけての動きではないかと思う。
実のところ、こうした端末あるいはエッジデバイス向けのML対応アプリケーションは、現状ではまだ緒に就いたばかりの段階である。新しいマーケットが立ち上がるにはインフラが必要であり、そのインフラを使ってアプリケーションが増えることでインフラがより充実する、というのは良くありがちな話である。なので、最初にインフラを整備しないと、そもそもアプリケーションが1本も生まれてこない。今現在Armがやっているのは、まさにこのインフラを作る作業であって、なのでスペック的にもそれほど追い込んだものではない。「そこそこに動くものを、ただし廉価で」提供することが、現在の目的である。
ただしこれによってアプリケーションのエコシステムが活性化したら、その段階で必要なリソースや要求性能などの見極めをつけ、よりターゲットを絞り込んだ競争力のあるIPを投入、マーケットをかっさらってゆくという、というのがArmのシナリオと思われる。これは、これまでも繰り返されてきた同社の戦略である。IPベンダーらしい息の長い展開であるが、幸い同社にはこの長い期間を待てる資金的な蓄えも、人材も、そして戦略を理解してくれる親会社もある。その意味では、短期的にどうこう、とか学習向けマーケットをどうこう、というのは現在のArmの視野には一切入っていないだろう。学習向けはサーバ向けプロセッサとの組み合わせの話になり、むしろこちらはCCIXのエコシステム絡みでいろいろ展開はあるかもしれないが、それもやはり短期的にどうこう、という話にはならないと思われる。
Copyright © ITmedia, Inc. All Rights Reserved.