「データの保存」については、HDDとDRAMの間を埋めるメモリ/ストレージ階層を示した。まずは、4ビット/セルのQLC(Quad Level Cell)方式を導入した3D(3次元) NAND型フラッシュメモリを用いたSSDがある。これにより、今まではHDDしか搭載していなかったアプリケーションでSSDを使えるようになると土岐氏は説明する。「特に、2017年あたりから見られる傾向として、組み込み系の顧客が、HDDからSSDへの関心が高まっている」(土岐氏)
SSDの上のレイヤーには、「3D XPoint」技術をベースに開発した不揮発性メモリ技術「Optane」を採用したSSD「Optane DC(Data Center) SSD」が、さらにその上、DRAMの一歩手前として「Optane DC パーシステント・メモリー」がある。DRAMと同様にメインメモリとしても使用できるものだ。土岐氏は、「保存をより多く、という考え方もあるのだが、データをいかに効率よくプロセッサに渡すか、という点をIntelは重視し、メモリも含めてさまざまな技術開発に取り組んでいる」と述べた。
「データの処理」については、「Intel Xeon スケーラブルプロセッサ」が2018年に1周年を迎えたと言及。これまでのXeonプロセッサに比べると、最速で100万個の出荷を達成したという。
Xeon スケーラブルプロセッサは、AIへの適用を最大限に意識して再設計したものだと土岐氏は述べる。特長の一つとして、推論を加速する「インテル ディープラーニング ブースト」に対応している。このインテル ディープラーニング ブーストは幾つかのテクノロジーを組み合わせたもので、Cascade Lakeに搭載されるものは、VNNI(Vector Neural Network Instruction)という命令セットを含んでいる。これにより、既存のXeon スケーラブルプロセッサに比べ、最大11倍まで推論性能が向上するという。
さらにIntelは2018年11月、新しいXeon スケーラブルプロセッサとして「Cascade Lake-AP(Advanced Performance)」を発表。最大48個のコアを搭載し、12個のDDR4メモリチャンネルをサポートする。2019年前半に市場に投入する予定だ。性能はAMDの「EPYC 7601」と比較して、LINPACKで最大3.4倍、Stream Triadで最大1.3倍、そして、「Xeon Platinum」に比較して、ディープラーニングの推論性能が最大17倍向上するとしている。
土岐氏は、Intelが2018年12月に発表したばかりの3D積層チップ技術「Foveros」についても言及。同氏は、「これまで3D積層技術は、スマートフォン向けのメモリに適用されることが多かった。Foverosの最大の特長は、メモリだけでなく、高速に動作する必要があるロジックも積層していく点だ。積層することで、異なるプロセスを用いたシリコンを一つのモジュールに入れることができる。最適なプロセスで製造したシリコンを組み合わせることで、高性能なチップを作れる技術として期待している」と語った(関連記事:「Intelが新しい3D積層チップ技術「Foveros」を発表」)。
Intelは十分なCPU供給量を確保できずCPU不足を招いているが、それについて鈴木氏は「改善を進めている。設備投資として、年初の計画から10億米ドルの追加投資を決定し、トータルで150億米ドルを投資する。これは過去最大の規模だ。大半は米国オレゴン州とアリゾナ州、アイルランドおよびイスラエルの14nmプロセスの製造拠点に投入される。2019年には、CPU不足が解消される見込みだ」と述べた。
Copyright © ITmedia, Inc. All Rights Reserved.