学習に用いたカオスアトラクタは式(3)のエノン写像と 式(3)の折り曲げ模様の写像である。
バックプロパゲーションによる学習則を式(3)に示す。
Eはx、yの自乗平均誤差、 はi番目のニューロンから
j番目のニューロンへの重みである。
ここで定数
、
が大きすぎると学習は振動してしまう。
逆に小さすぎると学習は遅くなる。
そこで学習時に両定数を順次小さくすることにより
これらの両立が可能となる。
図3は学習させたネットでの教師信号と
ネット出力との誤差の推移である。
横軸が学習回数、縦軸がその学習回数でのネットで
実際に十回ループさせた時の誤差の総和である。
定数を一定のまま学習させたものと定数を小さくしながら
学習させたものでは後者の方が精度がいいことがわかる。
学習させたネットの実際の出力を図4、 図5に示す。 図4はエノン写像を出力した例で、 図5は折り曲げ模様の写像を出力した例である。
ここで教師信号を受けとらない素子の出力を調べてみた。 折り曲げ模様の写像において縦軸は変わらず二番目の素子の出力だが、 横軸を一番目の素子ではなく六番目の素子の出力としてプロットしてみると 図7のようになった。 同様にエノン写像においても横軸を六番目の素子、 縦軸を二番目の素子の出力としてプロットしてみると 図6となった。 折り曲げ模様の写像においては教師信号を反転した図になっている。 すなわち六番目の素子は教師信号と逆の挙動を示していることがわかる。 エノン写像においては同様のことは言えないものの、 両者から教師信号を受けとらない素子も何らかの学習を していることがわかる。