next up previous contents
Next: 内部記憶を用いた学習法 Up: バックプロパゲーション(逆伝搬誤差法) Previous: デルタルール

バックプロパゲーション

図 6.5 に示すような、いくつかの中間層を持つ多層のネットワークを考える。同じ層の素子間に結合はなく、どの素子も1つ前の層からのみ入力を受け、つぎの層へのみ出力を送るものとする。

   figure222
図 3.1: 多層神経回路

このようなネットワークの中間層に対して同様に学習則を導こうとしたとき、式 (3.8) の tex2html_wrap_inline1244 の値はすぐに求めることはできない。 この微分値を出力層より逆向きに順々に計算していく。 つまり、出力の誤差を、前の層へ、前の層へと伝えていく、というのがバックプロパゲーションのアイデアである。 すなわち、ある層の素子 jtex2html_wrap_inline1244 の計算は、つぎの素子 ktex2html_wrap_inline1252 を用いて

equation234

と展開することができる。式 (##245>) より

equation246

これと式 (##251>) を代入すれば、

equation252

となる。これが、バックプロパゲーションのアルゴリズムである。

バックプロパゲーションはいかなる結合加重の初期値からでも誤差が極小になる(最小ではない)ことが保証される。 一般に神経回路形計算は、規則性と例外とが入り混じった関係を表現し、未知の入力パターンに対して出力を推測する必要がある場合に能力を発揮する。 このような例として、英単語の発音規則の学習や凹凸画像の判別にバックプロパゲーションが応用され成果をあげている。[2]



Toshinori DEGUCHI
2004年 3月22日 月曜日 11時57分15秒 JST