next up previous contents
Next: 内部記憶を持つニューラルネットワークの学習[#tokusima##1#] Up: 学習法 Previous: 一般化デルタルール [#nacano1##1#]

バックプロパゲーション [1]

今度はいくつかの中間層を持つ階層型のネットワークを考える。 同じ層の素子間に結合はなく、 どの素子も1つ前の層からのみ入力を受け、 次の層へのみ出力を送るものとする。 このようなネットワークの中間層に対して学習則を導くとき、 式(3.7)の tex2html_wrap_inline1125 (学習信号)の値は すぐには求めることが出来ない。 そのため、この学習信号を出力層から逆向きに順々に計算していく。 すなわち出力の誤差を前の層へ、前の層へと伝えていく。 これがバックプロパゲーションの考え方である。 よって、 ある層の素子 jtex2html_wrap_inline1125 の計算は、 次の層の素子 ktex2html_wrap_inline1135 を用いて

  equation108

と展開することができる。 式(3.1)より

equation120

となる。そして、これと式(3.6)を 代入すれば式(3.10)は

equation127

となる。 これがバックプロパゲーションのアルゴリズムである。

バックプロパゲーションは、いかなる重みの初期値からでも誤差が極小となる (最小ではない)ことが保証されるわけだが、一般に誤差曲面は 極小値の近くでは非常に緩やかな谷底をもつため、学習は非常に遅くなる。 しかし、式(3.3)の tex2html_wrap_inline1121 を大きくすると、学習は振動してしまう。 振動させずに学習を早めるため幾つかの方法が提案されているが、例えば、 誤差曲面の傾きを結合荷重空間の位置でなく速度の変化に用いる。 即ち、

  equation135

という形の加速法がよく使われる。 ここで tex2html_wrap_inline1139 は安定化定数であり、tは学習の回数を表わす。 また、重みが最初、すべて0であると、中間層の素子に個性が現れず、 中間層を用いる意味がなくなってしまう。 この対称性を破るために、重みに小さなランダム値を与えることが必要である。

3.1 に バックプロパゲーション法のネットワーク図を示す。 バックプロパゲーションの特徴としては、

   figure143
図 3.1: バックプロパゲーション(誤差逆伝搬法)

  1. 入力信号と正確な出力教師信号のセットを次々と与えるだけで、 個々の問題の特徴を抽出する内部構造が、 中間層の隠れニューロン群のシナプス結合として自己組織化される。
  2. 誤差計算が出力方向への情報の流れと類似している。

ということが挙げられる。 すなわち、ある素子の学習に使われている情報は、 後の素子から得られる情報のみであり、学習の局所性が保たれていることになる。 この学習の局所性は、人工的な神経回路型計算機をハードウェア化する時の 学習則に要求される性質で、実際の生体における神経回路においては、 tex2html_wrap_inline1125 といった学習信号が神経軸索を通って逆向きに伝わることはなく、 バックプロパゲーションは実際の脳の学習則の生理学的モデルにはなりえないことになる。 実際の脳の多層神経回路において、どのような学習則が用いられているのかは 今だ解明されていない。



Toshinori DEGUCHI
2005年 4月 1日 金曜日 15時56分21秒 JST