next up previous contents
Next: 謝辞 Up: mizoguchi Previous: 実験結果・考察   目次

結論

まとめとして、二種類のニューラルネットを比較して考察を行なう。 同一点としては両方のニューラルネットワークにおいて学習回数が大きくすることによって誤差を小さくすることができる。 次に相違点を述べる。フィードバックのあるニューラルネットでは学習に使用するデータ数(フィードバック数)を増やす事で確実に誤差が小さくなっていった。 しかし、内部記憶のあるニューラルネットワークは統計的にみると、学習に使用するデータ数(遅れ時間)を大きくしても、必ず誤差が小さくなるとは限らない。 遅れ学習についてでは、遅れ時間を増加させると学習の結果が発散をする可能性が高くなる。しかしその反面、成功した場合、収束する速度が早くなる。これにより遅れ時間において学習の性能を評価するうえで、安定性をとるのか収束速度をとるのかが重要になってくる。そのため、一概に大小の善し悪しを定めることはできない。しかし、今回行なった実験では、遅れ時間1すなわち一番安定しているパラメータでも、学習成功の確率が高いため遅れ時間1が最も優れているのではないかと考えられた。一方、フィードバックのあるニューラルネットワークではすべての場合において安定した学習を行う。また、より正確な時系列の学習を行うためにはフィードバック数を大きくしたほうが良い。学習を成功させるためには最悪(本実験でいう方形波)の場合、最大周波数の半周期分のデータ数が必要である。内部容量のあるニューラルネットワークは、遅れ時間が1でも実験では方形波の学習ができていた。すなわち、学習をした過去の教師信号の情報を内部記憶層に保持しているため、周期を考慮する必要はない。

実験5.2より、遅れ学習の特性として、遅れ時間が大きい時は最適状態への収束速度が早くなるが、発散をする可能性が高まるという結果が得られた。そして実験5.3、実験5.4で発散回数について性能を評価した。しかし、収束速度についてはあまり実験を行なっていないため、考察をした内容も推測の域を出ない。そのため、この遅れ学習を変化させた時にどのように収束速度を変化するのかを実験をし、さらなる遅れ学習の特性を測定する必要がある。



Subsections

Deguchi Lab. 2012年3月9日