Googleは、新しいTPUの内部構造やシステム、性能の詳細は明らかにしていない。だが、公表された同チップの仕様や写真を見ると、興味深い疑問が生じる。
同チップで推論と同様にトレーニングをするには、浮動小数点への移行が必要だった。だが、それによって、第1世代のTPUでは40Wだった消費電力が少なくとも2倍に増加する可能性がある。新TPUは、大型ファンとヒートシンクを搭載して、放熱性を限界まで高めていると考えられる。
性能を倍増するために、Googleは単に、第1世代のTPUに使われていた積和演算ブロックとキャッシュの数を増やしただけかもしれないが、第1世代のチップは既に、IntelのサーバCPUと並ぶ、24Mバイトのキャッシュを搭載している。新TPUには、チップのヒートシンクの下にHBM(High Bandwidth Memory)メモリスタックが搭載されている可能性もある。
Googleのシステム設計には、超高速帯域か重要なオンチップメモリのいずれか、もしくはその両方が必要になる。だが、写真を見ると、DRAMは搭載されていないことが分かる。
同システムがどのようなメモリやI/Oを使用しているかについては不明だが、ボードとラックに何らかの変更があったことは間違いない。
Cloud TPUは、大型のヒートシンクを1基、ミドルサイズを2基、小型を8基搭載し、フラッシュメモリ、インターコネクト、スイッチやその他の非公開の素子の放熱を行っている。下記の写真はTPUポッドである。
Dean氏は、「Googleのさまざまなマシンラーニングモデルは既に、Cloud TPU上で動作している」と述べている。ただし、一部のトレーニングはまだ、GPUで行っているという。同氏は、「ゆくゆくはTPUでより多くのトレーニングを行いたいと考えている」と述べている。
開発者は、GoogleのCloudプラットフォームの新しいアルファプログラムを介して、TPU上でソフトウェアを稼働できるようになる。研究者は、1000基のCloud TPUから成るクラスタ「TensorFlow Research Cloud」に無料でアクセスできるという。ただし、研究成果を公開し、少なくともオープンソースの関連ソフトウェアとしてのリリースを検討することに同意することが求められる。
Googleは、TensorFlowフレームワークのバージョン1.2も発表した。同フレームワークには、ニューラルネットワークに関する知識が豊富ではないユーザーもマシンラーニングを活用しやすくなるような新API(Application Programming Interface)が搭載されているという。
米スタンフォード大学の教授で、Googleのマシンラーニング部門のチーフサイエンティストであるFei-fei Li氏は、「私は数カ月前にGoogleに入ったが、Googleでは、習熟度に関係なく誰もがAIを活用して革新技術の開発や問題の解決を行うことができる」と述べている。
実際に、スタンフォード大学のデータサイエンスイニシアチブは、マシンラーニングの普及を目標の1つに掲げている。その他の企業や研究機関も、同じ目標に向かって商用サービスの展開を急いでいる。
Microsoft ResearchのリーダーでFPGAを活用したマシンラーニング研究を率いるPeter Lee氏は、「MicrosoftのCEO(最高経営責任者)を務めるSatya Nadella氏に会うといつも、AIツールの普及を急ぐよう叱咤激励される」と話している。
Googleは、今後もハードウェアに依存しないスタンスを取る。ユーザーは、TPUサーバ、x86サーバ、GPUサーバのいずれにおいてもマシンラーニングを実行できるようになるという。Li氏によると、Googleの既存のマシンラーニングサービスでジョブを稼働している企業は数社あり、そのうちの1社が米国のオークションサイトeBayだという。
【翻訳:滝本麻貴、田中留美、編集:EE Times Japan】
Copyright © ITmedia, Inc. All Rights Reserved.