検索
特集

NVIDIAが解説するディープラーニングの基礎(後編)CNN/RNNやフレームワーク概要まで(1/5 ページ)

エヌビディアは2018年4月24日、ディープラーニングに関するセミナー「NVIDIA Deep Learning Seminar 2018」を東京都内で開催した。本稿では、セッション「これから始める人のためのディープラーニング基礎講座」から、各種ニューラルネットワークやその応用例、ディープラーニングフレームワークの概要について紹介する。

Share
Tweet
LINE
Hatena

⇒前編はこちら

 エヌビディアは2018年4月24日、同年3月26日から29日まで米国カリフォルニア州シリコンバレーで開催された年次イベント「GTC 2018」の発表から、特にディープラーニングに関する内容を日本語で紹介するセミナー「NVIDIA Deep Learning Seminar 2018」を東京都内で開催した。


NVIDIA Deep Learning Seminar 2018(クリックで拡大)

 本稿では前編記事に続き、同セミナー最初のセッション「これから始める人のためのディープラーニング基礎講座」で同社ディープラーニングソリューションアーキテクトの山崎和博氏が語った内容から、各種ニューラルネットワークやその応用例、ディープラーニングフレームワークの概要について紹介する(前編記事:NVIDIAが解説するディープラーニングの基礎(前編))。

畳み込みニューラルネットワーク(CNN)

 前編で扱ったニューラルネットワークは、前層にある全ノード(パーセプトロン)が次層のノードに全て接続されており、信号は入力から出力まで一方向に流れる。これを「全結合」な順伝播型多層ニューラルネットワークと定義される。


基本的な多層ニューラルネットワーク(クリックで拡大)

 一方で、画像や2次元的な構造を持つデータについて機械学習を行う場合、「畳み込みニューラルネットワーク(CNN:Convolutional neural network)」が用いられることが多い。このCNNは隠れ層の一部または全部で、局所ノードのみ結合する「畳み込み層(コンボリューションカーネル)」や「プーリング層」を含む構造を持つ。


CNNのネットワーク構造イメージ(クリックで拡大)

 畳み込み層は畳み込み演算と呼ばれる処理を行っており、入力データの任意の範囲に対して畳み込み層の重み係数を乗算し、これらを全て足したものを出力する(積和演算)。また、プーリング層は畳み込み層の後方に通常では設定され、データを圧縮する効果を持つ。これにより、学習コストの低減や過学習の防止、データのズレやノイズへの耐性を上げることができるという。


畳み込み層の概要(クリックで拡大)

Copyright © ITmedia, Inc. All Rights Reserved.

       | 次のページへ
ページトップに戻る