検索
ニュース

GoogleのAI用チップ、Intelの性能を上回ると報告機械学習に特化した「TPU」

Googleが2016年に発表した、機械学習の演算に特化したアクセラレータチップ「TPU(Tensor Processing Unit)」が、IntelのCPUやNVIDIAのGPUの性能を上回ったという。Googleが報告した。

Share
Tweet
LINE
Hatena

IntelとNVIDIAのチップを上回ると報告

 Googleによると、同社の人工知能(AI)向けアクセラレータチップ「Tensor Processing Unit(以下、TPU)」が、機械学習のテストでIntelのサーバ向けプロセッサ「Xeon」とNVIDIA製のGPUを1桁以上も上回る結果を出したという。17ページにわたる論文は、TPUとベンチマークについて深く掘り下げる内容になっている。具体的には、TPUが、上記のIntelおよびNVIDIAのチップに比べて15倍の処理速度を実現し、1ワット当たりの処理性能は30倍となっていることが示されている。


TPUの構成。MACアレイと24Mバイトのキャッシュが大半を占める

 GoogleがTPUを発表したのは2016年5月のことだ。TPUは、自社のデータセンター向けサーバ上の幅広いアプリケーションにおける推論プロセスを加速するために開発されたという。

 Googleは現在、2017年6月に開催されるコンピュータアーキテクチャ関連のカンファレンスで発表予定の論文の中で、TPUの詳細を初めて明らかにしている。

 論文では、TPUの他、Googleが取り組むさまざまなニューラルネットワークの開発について述べられている。また、機械学習についてエンジニアが学ぶべきことはたくさんあると示唆している。

 著名なハードウェアエンジニアで、TPUの開発に関わった70人以上のエンジニアから成るチームを率いたNorman P. Jouppi氏は、「われわれは優秀なエンジニアを必要としている。そのため、彼らに、私たちの仕事の質がいかに高いかを知ってもらいたかった。さらに、クラウド分野の顧客に、当社の能力を知っていただきたいと思っている」と述べている。

 米カリフォルニア大学バークレー校の元教授で、ベテランのプロセッサアーキテクトでもあるDavid Patterson氏も、TPU開発プロジェクトに貢献した1人だ。同氏は2017年4月5日(米国時間)にシリコンバレーで開催されたエンジニア向けのシンポジウム「NAE Regional Meeting」で、当該論文を発表したという。

 TPUは、既にGoogleのデータセンターで使われている。ただしJouppi氏は、TPUがどのくらいの規模で使われているのか、今後どの程度拡張していくのかなどについて、詳細を明らかにすることは避けた。

 TPUは28nmプロセスを採用したチップで、動作周波数は700MHzである。Googleが20215年にリリースしたオープンソースのアルゴリズム「TensorFlow」を加速するために開発された。主論理ユニットには8ビットの乗算累算ユニットが6万5536個、24Mバイトのキャッシュが搭載されていて、92TOPS(Tera Operations Per Second)の処理性能を実現するという。


TPUの構成。MACアレイと24Mバイトのキャッシュが大半を占める

 Googleの機械学習処理を用いた、2015年のベンチマークでは、TPUは、Intelのサーバ向けCPU「Haswell」(開発コード名)やNVIDIAのGPU「K80」に比べ、15〜30倍、処理が高速だったという。それだけでなく、1ワット当たりの性能は30〜80倍としている。

 2015年のベンチマークテストでは、Intelの「Haswell E5-2699 v3」(22nmプロセス、18コア)が使われた。同チップの動作周波数は2.3GHzで、TDP(熱設計電力)は145W。NVIDIAのK80のTDPは150Wで、動作周波数は最大875MHzである。

【翻訳:青山麻由子、編集:EE Times Japan】

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る