next up previous
Next: 4. まとめ Up: ニューラルネットによるカオスアトラクタの学習 Previous: 2. ネットワーク構造及び学習法

3. 実験結果および考察

学習に用いたカオスアトラクタは式(3)のエノン写像と 式(3)の折り曲げ模様の写像である。

  equation46

  equation52

バックプロパゲーションによる学習則を式(3)に示す。

  equation59

Exyの自乗平均誤差、 tex2html_wrap_inline266i番目のニューロンから j番目のニューロンへの重みである。 ここで定数 tex2html_wrap_inline272tex2html_wrap_inline274 が大きすぎると学習は振動してしまう。 逆に小さすぎると学習は遅くなる。 そこで学習時に両定数を順次小さくすることにより これらの両立が可能となる。 図3は学習させたネットでの教師信号と ネット出力との誤差の推移である。 横軸が学習回数、縦軸がその学習回数でのネットで 実際に十回ループさせた時の誤差の総和である。 定数を一定のまま学習させたものと定数を小さくしながら 学習させたものでは後者の方が精度がいいことがわかる。

   figure68
図 3: 実験結果

学習させたネットの実際の出力を図4、 図5に示す。 図4はエノン写像を出力した例で、 図5は折り曲げ模様の写像を出力した例である。

ここで教師信号を受けとらない素子の出力を調べてみた。 折り曲げ模様の写像において縦軸は変わらず二番目の素子の出力だが、 横軸を一番目の素子ではなく六番目の素子の出力としてプロットしてみると 図7のようになった。 同様にエノン写像においても横軸を六番目の素子、 縦軸を二番目の素子の出力としてプロットしてみると 図6となった。 折り曲げ模様の写像においては教師信号を反転した図になっている。 すなわち六番目の素子は教師信号と逆の挙動を示していることがわかる。 エノン写像においては同様のことは言えないものの、 両者から教師信号を受けとらない素子も何らかの学習を していることがわかる。

   figure82
図 4: エノン写像の出力例

   figure89
図 5: 折り曲げ模様の出力例

   figure96
図 6: エノン写像での他の素子の出力

   figure103
図 7: 折り曲げ模様での他の素子の出力



Deguchi Toshinori
1999年04月27日 (火) 19時39分12秒 JST