next up previous contents
Next: 第5章 実験の準備 Up: 第4章 バックプロパゲーション Previous: 4.1 結合荷重の学習

4.2 カオスニューロン固有のパラメータの学習

カオスニューロン固有のパラメータ tex2html_wrap1272 も、 基本的にはバックプロパゲーション法で学習する。 しかし、これらのパラメータは値の範囲に制限があるので、 tex2html_wrap1287 という新しいパラメータを作りそれを学習させる。 これらは式(4.5)のような関係になっている。

  eqnarray191

tex2html_wrap1287 を学習させた後、式(4.5) に代入し tex2html_wrap1272 を決める。 具体的には式(4.6)(4.7)(4.8)(4.9)(4.10)(4.11)のように計算する。

  equation203

  equation218

  equation223

  equation238

  equation243

  equation260

これらの学習式を見ると tex2html_wrap_inline1294 については、 単位時間前の tex2html_wrap_inline1296 が大きいときに、 現在の誤差情報 tex2html_wrap_inline1298 が正方向に大きくなると tex2html_wrap_inline1294 の値を減らそうとし、 負方向に大きくなると逆に値を増やそうとすることが分かる。 tex2html_wrap_inline1298 は 式 (4.2) より、ニューロンの出力が相対的に教師信号より大きく なったときに正となる。つまり tex2html_wrap_inline1296 が大きいときに、 続いて tex2html_wrap_inline1306 も 大きくなっているのに教師信号は小さい場合などに、 tex2html_wrap_inline1294 を減らすことによって 過去の情報の影響を少なくしようとするわけである。 逆にこのとき教師信号がさらに大きいならば、 tex2html_wrap_inline1294 を増やすことによって過去の情報の影響を大きくしようとするわけである。 これらのことから、 tex2html_wrap_inline1294 は現在の出力を次にも維持しようとする働きの大きさを 示すものであろうと考えられる。それは tex2html_wrap_inline1314 についても同様に考えられる。 [2]

逆に tex2html_wrap_inline1316 については、単位時間前の tex2html_wrap_inline1318 が大きいときに tex2html_wrap_inline1298 が 大きくなると(すなわち相対的に教師信号が小さくなると) tex2html_wrap_inline1316 の値を増やそうと する。 tex2html_wrap_inline1316 が大きくなれば不応性が大きくなるので、次の単位時間後の 出力 tex2html_wrap_inline1326 は抑えられるようになる。そして、更に次の単位時間後の 出力 tex2html_wrap_inline1328 は再び大きくなるわけである。 つまり、 tex2html_wrap_inline1316 が大きくなることによって出力の変動が激しくなるので、 tex2html_wrap_inline1316 は出力を変動させようとする働きの大きさを示すものであろうと考えられる。 性質の異なるこれら tex2html_wrap_inline1294tex2html_wrap_inline1314tex2html_wrap_inline1316 のバランスによって、様々な反応を 示すわけである。 [2]



Deguchi Toshinori
1999年03月23日 (火) 15時43分49秒 JST