next up previous contents
Next: 第5章 実験準備 Up: 第4章 学習法 Previous: バックプロパゲーション[#kiso##1#]

内部記憶を持つニューラルネットワークの学習[7]

一般にリカレントネットワークでは、 ある時点でのある細胞の状態変化は ネットワーク内をめぐりめぐって後々まで 多くのユニットの状態に影響を及ぼすので、 厳密な意味での最急降下学習法は、 フィードフォワードネットのように単純には求められない。 しかし,離散時間モデルのリカレントネットワークを空間的に展開し、 フィードフォワードネットワークとみなして バックプロパゲーションを適応させることにより、 学習を行なわせる方法がある。 内部記憶を持つニューラルネットワークの学習には、 この学習の考え方を流用した[3]。

さて、内部記憶を持つニューラルネットの学習について説明する。 前に記したバックプロパゲーションを用いるだけであると、 この内部記憶を持つニューラルネットは、 フィードバックする信号を出す出力層の一部が学習出来ない。 つまり、教師信号は出力層のユニット数より少ないため、 教師信号を受けとれない出力層ユニットが出てくる。 そのため、教師信号を受けとれない 出力層ユニットは学習できないことになる。 この問題に対して、 中間層から1ステップ前の出力層へと

   figure284
図 4.2: 内部記憶を持つニューラルネットの学習

誤差を伝搬することで出力層の学習を行ない、 解決している。 つまり、ネットワークを時間的に展開し、学習をしていない出力層の一部へ 時間を逆に進み学習信号を与えていることとなる。 図4.2を用いて詳しく説明すると、 時刻 t の中間層の入力値の一部は、 学習できない出力層が出したフィードバックする出力値そのものである。 すると、時刻 t における中間層 tex2html_wrap_inline1593 の一つ前の層と言うのは、 時刻t-1における学習出来なかった出力層 tex2html_wrap_inline1597 ということとなる。 そして、時刻tの中間層 tex2html_wrap_inline1593 から時刻 t-1 の出力層 tex2html_wrap_inline1597 へ誤差伝搬を行ない、 そこで学習できなかった出力層の学習を行なっている。



Deguchi Toshinori
Wed Feb 21 11:55:53 JST 2001