カオスニューロン固有のパラメータ も、
基本的にはバックプロパゲーション法で学習する。
しかし、これらのパラメータは値の範囲に制限があるので、
という新しいパラメータを作りそれを学習させる。
これらは式(4.5)のような関係になっている。
を学習させた後、式(4.5)
に代入し
を決める。
具体的には式(4.6)(4.7)(4.8)(4.9)(4.10)(4.11)のように計算する。
これらの学習式を見ると については、
単位時間前の
が大きいときに、
現在の誤差情報
が正方向に大きくなると
の値を減らそうとし、
負方向に大きくなると逆に値を増やそうとすることが分かる。
は
式 (4.2) より、ニューロンの出力が相対的に教師信号より大きく
なったときに正となる。つまり
が大きいときに、
続いて
も
大きくなっているのに教師信号は小さい場合などに、
を減らすことによって
過去の情報の影響を少なくしようとするわけである。
逆にこのとき教師信号がさらに大きいならば、
を増やすことによって過去の情報の影響を大きくしようとするわけである。
これらのことから、
は現在の出力を次にも維持しようとする働きの大きさを
示すものであろうと考えられる。それは
についても同様に考えられる。
[2]
逆に については、単位時間前の
が大きいときに
が
大きくなると(すなわち相対的に教師信号が小さくなると)
の値を増やそうと
する。
が大きくなれば不応性が大きくなるので、次の単位時間後の
出力
は抑えられるようになる。そして、更に次の単位時間後の
出力
は再び大きくなるわけである。
つまり、
が大きくなることによって出力の変動が激しくなるので、
は出力を変動させようとする働きの大きさを示すものであろうと考えられる。
性質の異なるこれら
、
、
のバランスによって、様々な反応を
示すわけである。
[2]