next up previous contents
Next: 結論 Up: 実験 Previous: 実験結果   目次


考察

今回の研究では、入力パターンにノイズが無い場合では時間減衰定数を考えなくてもいいのではないかという視点から、 5.5.1項の実験を行った。 このとき時間減衰定数を考える場合と考えない場合で条件が異なっている点は 単純に時間減衰定数である$k_{s}$$k_{m}$$k_{r}$が0になっているか、 それぞれが0以外の値を持っているかという点のみとなっている。 使用したパターンは両方とも同じものを用いている。

入力パターンにノイズが無い場合では時間減衰定数を考えなくてもいいという仮説が正しいなら、 双方で同等の結果が得られるはずである。 しかし5.5.2項では時間減衰定数を考える場合と 考えないとする場合で学習結果に違いがあることがわかった。 ここで発生した違いというのは、それぞれの最大完全学習数の違いである。 時間減衰定数を考えない場合の最大完全学習数は48、時間減衰定数を考える場合の最大完全学習数は94となっていた。 これは時間減衰定数を考えない場合の値の方が 時間減衰定数を考える場合の値に比べて小さくなっていることである。 この結果から時間減衰定数以外のパラメータを変化させず、時間減衰定数を0にした場合、 学習結果は時間減衰定数を考える場合よりも悪くなったということがわかる。 したがって、この方法では入力パターンにノイズが無かったとしても学習結果が悪くなってしまうため、 時間減衰定数を0とすることができないといえる。

時間減衰定数を0にした場合、結果は悪くなったが学習自体は行っていた。 このように、学習は行うが学習結果が悪くなったのは、時間減衰定数を0にしたために、 3つの時間減衰定数がそれぞれ関わっている外部入力の項、相互結合の項、不応性の項の値に影響を与えたためだと考えられる。 逐次学習法では、式(4.1)で示したように3つの項のバランスによって結合加重を変化させるかどうかを判断する。 このバランスが崩れることで条件式が成り立つ回数が変化し、学習が行われる回数が変動することが考えられる。 学習回数は多ければ、または少なければ良いということではなく、 実験を行う素子数や用いるパターンによって変化すると考えられる。 時間減衰定数を0にしたとき、それぞれの項の値について調べていないので、 値にどのような変化があったのかはわからない。 しかし学習条件の式が成り立つことで学習が行われた回数は 時間減衰定数を考えた場合よりも少なくなっていたことが確認できた。 逐次学習法で、不応性の項の値と相互結合の項の値は時間が経過すると異符号となり、 不応性の絶対値が相互結合の絶対値より大きいとき学習が進んでいく。 時間減衰定数を考える場合では不応性の項に対してフィードバックが働くため不応性の項の値は緩やかに変化する。 また相互結合の項と不応性の項の足し合わせが外部入力の項の符号と違った場合学習が行われるため、 時間減衰定数を考える場合では学習が散発的に行われることで学習を強めていく。 これに対し、時間減衰定数を考えない場合では、不応性の項に対するフィードバックが働かないため、 $\alpha $の値による変化のみとなり、その変化は急激である。 また $\mathit {\Delta } w$の値により相互結合の項の変化の急峻さが変化する。 をみると$\alpha $の値が小さいときは学習されず、$\alpha $が大きくなると学習が行われている。 $\alpha $の値により不応性の項はほぼ決まり、また不応性の絶対値が 相互結合の絶対値より大きいとき学習が行われることから、 $\alpha $の値が小さいと相互結合の絶対値がすぐに不応性の絶対値より大きくなり学習されなくなると考えられる。 また、$\alpha $の値が大きくなると相互結合の絶対値が不応性の 絶対値より小さくなる時間が増え、学習されるようになる。 しかし$\alpha $が大きくなりすぎると、不応性の項の変化が急激であることから、 学習が頻繁に起こりすぎて学習が収束せずにに学習結果が悪くなると考えられる。

そこで時間減衰定数以外のパラメータを変化させて学習結果を向上させ、 時間減衰定数を考える場合と同等の結果を得ることができれば、時間減衰定数を考えなくてもいいといえるだろう。

時間減衰定数を考えない場合の学習結果を向上させるために 不応性の項に対するスケーリングファクタである$\alpha $、 結合加重の変化量である $\mathit {\Delta } w$の値を変化させた。 その結果が5.6.2項である。 学習結果を向上させるにあたって、時間減衰定数を考えない場合に最適な $\mathit {\Delta } w$の値を0.00016とし、 もう一つの変化させる値である$\alpha $の値を変化させて学習結果を見た。 その結果、時間減衰定数を考えない場合では$\alpha $の値が 0.094から0.721までの範囲で最大完全学習数が132という結果が得られた。 この結果から、時間減衰定数を考えない場合において$\alpha $ $\mathit {\Delta } w$を適した値にすることで 学習結果を向上させることができた。 また、時間減衰定数を考える場合の結果は、$\alpha $の値が0.005から0.074までの範囲で 最大完全学習数が132という結果が得られた。 これらの結果から時間減衰定数を考える場合と考えない場合で、 最大完全学習数の一番大きな値が同じ132であることがわかった。

5.14、図5.15を見ると、最大完全学習数が 一番大きくなる$\alpha $の範囲以外は最大完全学習数が徐々に増減していることから、 今回の学習パターンでは132が最大完全学習数の限界であると考えられる。 また、図5.14、図5.15で最大完全学習数が限界となり、一定の値を保っている範囲が 時間減衰定数を考えない場合の方が広くなっている。 これは、 $\mathit {\Delta } w$の値を時間減衰定数を0とした場合にあわせて決めたためであると考えられる。 このことから $\mathit {\Delta } w$の値が適した値に近づくと、 最大完全学習数が限界となる$\alpha $の範囲が広くなると考えられる。



Deguchi Lab. 2011年3月4日