IBMの8ビットAIに向けた取り組み:DNNの学習を成功(1/2 ページ)
IBMは、「8ビットの浮動小数点数を使用して、深層学習モデルとデータセットのスペクトル精度を完全に維持した深層ニューラルネットワーク(DNN)のトレーニングを初めて成功させた」とするAIチップを披露した。
2018年12月の前半は、AI(人工知能)の研究開発の進展を逃したくない人々にとって、重要な会議が相次いで開催された。電子デバイスの国際会議「IEDM 2018」(2018年12月1〜5日、米国サンフランシスコ)と神経情報処理システムに関する会議「NeurlPS 2018」(2018年12月2〜8日、カナダのモントリオール)である。
IBMの研究者は、デジタルとアナログ両方のAIチップに関する新しいAIアプローチについて詳しく説明した。同社は、「8ビットの浮動小数点数を使用して、深層学習モデルとデータセットのスペクトル精度を完全に維持した深層ニューラルネットワーク(DNN)のトレーニングを初めて成功させた」と主張するデジタルAIチップを披露した。
これとは別に、IBMの研究者はIEDMで、相変化メモリで8ビット精度のインメモリ乗算を行うアナログAIチップを披露した。
IBM Researchのアルマデン研究所(Almaden Research Center)でバイスプレジデント兼ディレクタを務めるJeffrey Welser氏は、EE Timesに対し、「当社は、性能を上げながら消費電力を削減できるようにAIチップの精度の向上に取り組んでいる。AIの進化を続けていくには、こうした取り組みの全てが非常に重要だと考えている」と語った。
Welser氏は、「AIが、インターネットでAIを使ってネコを特定するような“特化型人工知能(Narrow AI)”から、医療画像の分析や、テキストと画像の情報を統合して解を導き出すような“より広範なAI(broader AI)”に移行する中で、これは非常に重要なことだ」と語った。
同氏は、「このような広範な課題には、大規模なニューラルネットワークとデータセット、マルチモデルデータセットが必要となる。全ての課題を実現するには、アーキテクチャとハードウェアの変更が必要だ」と付け加えた。
Welser氏は、IBMが今週発表した2つの論文を、業界が“より広範なAI”という未来に向かって進むことを可能にする“素晴らしく、興味深い進歩”と表現した。
米国の市場調査会社であるThe Linley Groupでプレジデント兼主席アナリストを務めるLinley Gwennap氏は、「機械学習は急速に進化し続けている。既存のハードウェアでは、研究者が構築した大規模なニューラルネットワークを効率的に処理できなくなっている。そのため、性能と効率を向上させるあらゆる手段が検討されている」と述べている。
Gwennap氏は、「こうした新たな進展によって、ハードウェアベンダーに非常に大きなプレッシャーがかかっている。半導体企業がこの混沌とした市場で生き残るには、柔軟かつ迅速な対応が求められる」と付け加えた。
AI向けGPUの時代の終わり
IBMは、「AIにおけるGPUの支配は終わる」と大胆に予測している。
IBMのWelser氏は、EE Timesのインタビューの中で、「GPUは、グラフィックス処理向けに、さまざまな種類の行列演算を並行して実行する。このような行列演算は、ニューラルネットで必要とされるものと全く同じである。私としては、これは一種の偶然だが、非常に重要な事実だと考えている。このようなGPUがなければ、現在既にAIが実現している性能レベルを達成することは、不可能だからだ。しかし、AIに何が必要なのかをもっと学ぶことで、より高効率なハードウェアを開発するための手法を見いだすことができる」と述べている。
Copyright © ITmedia, Inc. All Rights Reserved.