next up previous contents
Next: 5.4 連想記憶 Up: 第5章 学習法 Previous: 5.2 一般化デルタルール

5.3 バックプロパゲーション(逆伝搬法)

  いくつかの中間層を持つ多層ニューラルネットワークを考える。 同じ層の素子間に結合はなく、どの素子も1つ前の層からのみ入力を受け、 次の層へのみ出力を送るものとする。このようなネットワークの中間層に対して 同様に学習則を導こうとしたとき、 式(5.8)の tex2html_wrap_inline2180 の値はすぐに求めることはできない。この微分値を出力層より逆向きに 順々に計算していく、言い換えれば、出力の誤差を、前の層へ、 前の層へと伝えていく、というのがバックプロパゲーションのアイデアである。 すなわち、ある層の素子 jtex2html_wrap_inline2180 の計算は、 次の層の素子 ktex2html_wrap_inline2194 を用いて

  equation354

と展開することができる。式(5.3)より

equation366

これと式(5.5)を代入すれば式(5.14)は

equation373

となる。これが、バックプロパゲーションのアルゴリズムである。

バックプロパゲーションは、いかなる結合荷重の初期値からでも誤差が極小となる (最小ではない)ことが保証されるわけだが、一般に誤差曲面は極小値の近くでは 非常に緩やかな谷底をもつため、学習は非常に遅くなる。 しかし、式(5.2)の tex2html_wrap_inline2184 を大きくすると、 学習は振動してしまう。 振動させずに学習を早めるため幾つかの方法の1つに次のようなものがある。 誤差曲面の傾きを結合荷重空間の位置でなく速度の変化に用いる。 すなわち

equation381

という形の加速法がよく使われる。ここで t は学習の回数を表わす。

また、結合荷重が最初、すべて0であると、中間層の素子に個性が現れず、 中間層を用いる意味がなくなってしまう。この対称性を破るためには、各結合 荷重に小さなランダム値を与えておけばよい [5]。

バックプロパゲーションの特徴は、入力信号と正しい出力教師信号のセットを 次々と与えるだけで、個々の問題の特徴を抽出する内部構造が、 中間層の隠れニューロン群のシナプス結合として自己組織される点である。 また、誤差計算が前方向へ情報の流れとよく類似している点がある。 すなわち、ある素子の学習に使われている情報は、 後の素子から得られる情報のみであり、学習の局所性が保たれていることになる。 これは、人工的な神経回路形計算機をハードウエア化する時に学習則に 要求される性質で、実際の生体の神経回路においては、 tex2html_wrap_inline2180 といった値が神経軸策を通って逆向きに 伝わるはずはなく、バックプロパゲーションは実際の脳の学習則の 生理学的モデルにはなりえないことになる。 実際の脳の多層神経回路においてはどのような学習則が用いられているのかは まだわかっていない。



Deguchi Toshinori
1996年11月14日 (木) 12時50分06秒 JST