Next: バックプロパゲーション
Up: 学習法
Previous: 学習法の分類
目次
本研究におけるニューラルネットワークの学習は、
バックプロパゲーション法(back-propagation、誤差逆伝搬法)を用いた。
まずバックプロパゲーションについて説明する前に、一般化デルタルールについて説明する。
ある素子
の入力総和
は、
他の素子
の出力
と、重み
をかけて加えたものである。
また、出力
は入力の総和を単調増加関数
に代入したもので表されることにする。即ち、
 |
(4.1) |
と表せる。ただし、閾値は重みの一つとして含まれていると考える。
ここで、出力関数
はシグモイド関数を用いることにする。
これは微分可能な関数であり、解析的に問題を解くことが可能になるからである。
次に、神経回路における学習を一般化して考える。
はある入力
に対して出力素子
が出すべき望ましい出力、
はその時の出力素子が実際にした出力である。
この時の学習評価として、次のような「誤差関数
」
 |
(4.2) |
を考える。このような形の誤差関数を最小にする手続きを一般に
「最小2乗平均誤差法」(least mean square、LMS)という。
はその時の素子間の結合の強さ、 すなわち重み
で決まるため、
誤差関数も重みに関して陰(implicit)に定義された関数となる。
したがって、各重みの値を軸としてできる空間を考え、さらにこの誤差関数
によって定義される値を高さと考えれば、
は重み空間上の超曲面として「誤差曲面」を与えることになる。
任意の重み状態から、この誤差曲面の極小値に達するには、
例えば各重みを、
に比例した量
 |
(4.3) |
ずつ変化させていけばよいことになる。
ここで
は学習定数である。
これは誤差曲面上を最も急な傾斜方向に進んでいくことに相当し、
このような学習則を一般に「最急降下法」(gradient decent method)という。
さて、式(4.1)のように素子の性質が定義されていれば、
式(4.3)は合成関数の微分公式により、
 |
(4.4) |
と展開できる(添字
は省略)。
ここで、素子
に関する誤差項を
とすれば、
 |
(4.5) |
式(4.1)を微分して代入すれば、
式(4.3)は、
 |
(4.8) |
となる。中間層が学習しない場合、
の項は
式(4.2)を微分することにより簡単に
 |
(4.9) |
となり、よって
 |
(4.10) |
と求めることができるので、式(4.8)より、
 |
(4.11) |
という学習則が得られる。
これを一般化デルタルールと呼ぶ。
Next: バックプロパゲーション
Up: 学習法
Previous: 学習法の分類
目次
Deguchi Lab.
2010年3月5日