next up previous contents
Next: 第3章 ゲーム Up: 2.4 バックプロパゲーション(逆伝播誤差法) Previous: 2.4.1 デルタルール

2.4.2 バックプロパゲーション

いくつかの中間層をもつ多層のネットワークを考える。 同じ層の素子間に結合はなく、どの素子も1つ前の層からのみ入力を受け、 次の層へのみ出力を送るものとする。こ のようなネットワークの中間層に対して同様に学習則を導こうとした時、 式( 5.4)の tex2html_wrap1240 (反復的に変化させるとするのでパターンcは無視)の 値はすぐに求めることができない。 この微分値を出力層より逆向きに順々に計算していく、 言い換えれば出力の誤差を前の層へ前の層へと伝えていく、 というのがバックプロパゲーション(一般化デルタルール)のアイディアである。 すなわち、ある層の素子jtex2html_wrap1240 の計算は、 次の層の素子ktex2html_wrap1242 を用いて、

equation189

と展開することができる。式( ##200>)より

equation201

これと式( ##206>)を代入すれば、

equation207

となる。この式を、これがバックプロパゲーションのアルゴリズムである。 バックプロパゲーションはいかなる結合加重の初期値からでも 誤差が極小になる(最小ではない)ことが保証される。

一般に神経回路形計算は、規則性と例外とが入り混じった関係を表現し、 未知の入力パターンに対して出力を推測する必要がある場合に能力を発揮する。 このような例として、英単語の発音規則の学習や凹凸画像の判別に バックプロパゲーションが応用され成果をあげている。



Deguchi Toshinori
Wed May 15 11:03:10 JST 2002