2017年の「A11」に話を進めよう。下の写真は、そのSoCのダイである。A11は、Appleにとって初となる自社開発GPUと「Neural Engine」を搭載しており、いずれも設計の重要な一部を担っている。Appleは、「iPhone X」のプレスリリースの中で、マシンラーニング機能でも、この2つを採用していることを明らかにした。特に、顔認識機能「FaceID」とAnimoji(アニ文字)は、Neural Engineによって動作可能になるという。
ここで重要なのは、iPhoneの性能およびユーザーエクスペリエンスの中核を成す、GPUとNeural Engineの2つのSoCブロックが、追加で搭載されているという点だ。いずれのブロックも、マシンラーニングに貢献することから、将来的に重要性が高まっていくとみられる。
Appleが設計能力を高めていることを示す証拠は、数多く存在する。Jobs氏が、A4を発表した当時に期待していたように、他のスマートフォンに対するiPhoneの差別化要素は、こうした設計力なのだろうか。
例として、FaceIDを取り上げてみたい。Appleは、顔認識などの特徴的な機能を、興味深いものとして捉えているようだ。顔認識技術の周辺にIP(Intellectual Property)を実装すべく、企業の買収なども検討している可能性もある。一部の技術はソフトウェアに、その他の技術はハードウェアに実装されることになるだろう。
Appleは長年にわたり、さまざまな基調講演の中で、ソフトウェア/ハードウェアエンジニアの協調関係を重視してきた。
チーム間のミーティングではたいていの場合、以下のような会話を耳にするだろう。
「AとBのルーチンを実行することができるハードウェアが必要だ」
「そのほとんどを提供できるが、このブロックでこうした動作ができるよう、ルーチンを修正してもらえないだろうか」
こうしたやりとりは、ハードウェアとソフトウェアの統合と構築が実現するまで続く。このようなプロセスを経て設計された回路ブロックは、恐らくAppleだけにしか役に立たないものになるだろう。しかし、それで構わないのだ。
Appleは、自社設計した半導体を着々と、他のApple製品にも適用し始めている。「Apple Watch」の「Sシリーズ」、「AirPods」の「Wシリーズ」、そして「MacOS」端末の「Tシリーズ」といった具合だ。
Appleは着実に半導体設計の能力を上げ、興味深いIPを構築し続けている。半導体の設計リソースを垂直統合的に使用することは、Appleのエコシステムに多大な利益をもたらす。Appleの半導体設計者たちは、「世界一」になる必要はない。Appleの顧客にとってのみ、「一番」になればいいのである。
【翻訳:滝本麻貴、田中留美、編集:EE Times Japan】
Copyright © ITmedia, Inc. All Rights Reserved.