next up previous contents
Next: 内部記憶を用いた学習法 Up: バックプロパゲーション(逆伝播誤差法) Previous: デルタルール

バックプロパゲーション

いくつかの中間層をもつ多層のネットワークを考える。 同じ層の素子間に結合はなく、どの素子も1つ前の層からのみ入力を受け、 次の層へのみ出力を送るものとする。こ のようなネットワークの中間層に対して同様に学習則を導こうとした時、 式 (3.8) の tex2html_wrap3147 (反復的に変化させるとするのでパターンcは無視)の 値はすぐに求めることができない。 この微分値を出力層より逆向きに順々に計算していく、 言いかえれば出力の誤差を前の層へ前の層へと伝えていく、 というのがバックプロパゲーション(一般化デルタルール)のアイディアである。 すなわち、ある層の素子jtex2html_wrap3147 の計算は、 次の層の素子ktex2html_wrap3149 を用いて、

equation2264

と展開することができる。式 (##2275>)より

equation2276

これと式 (##2281>) を代入すれば、

equation2282

となる。この式を、これがバックプロパゲーションのアルゴリズムである。 バックプロパゲーションはいかなる結合加重の初期値からでも 誤差が極小になる(最小ではない)ことが保証される。

一般に神経回路形計算は、規則性と例外とが入り混じった関係を表現し、 未知の入力パターンに対して出力を推測する必要がある場合に能力を発揮する。 このような例として、英単語の発音規則の学習や凹凸画像の判別に バックプロパゲーションが応用され成果をあげている。[3]



Toshinori DEGUCHI
2003年 4月23日 水曜日 17時55分23秒 JST