next up previous contents
Next: 参考文献 Up: 無題 Previous: 4.4.5 考察

第5章 結言

各中間層それぞれにフィードバック層を設けたモデル(モデル1)は、パターン長が3および4のものは検出に成功した。 しかし、パターン長が5になると確実に検出できるほどの学習には至らなかった。 よって、このモデルではパターン長が長くなると確実に学習させるには弱いことが分かる。

中間層2の出力を中間層1にフィードバックさせたモデル(モデル2)では、中間層のニューロン数が30個(実験2.1)のものは、やはりパターン長が3および4のものは検出に成功しているが、5のものは検出するに至っていない。 しかし、モデル1とは違い発火したところもあり、学習されつつあるようだ。 そこで、中間層のニューロン数を50個(実験2.2)に変更した結果、前の二つでは検出できなかったパターン長5のものも検出することに成功した。

結論として、実験2.2で用いたモデルならば、連続パターンを学習させ検出することがほぼ可能であるとがいえる。 (このモデルを用いて、他の連続パターンについて行なった実験の結果(学習回数1000000回のみ)を付録に示す。)

また全体的に見て、学習回数が多い方が良い結果が得られていることが分かる。 このことは、学習回数が多い方がネットワークの性能は向上するということを示している。 その理由としては、バックプロパゲーションの学習則は、学習回数が多ければ多いほど誤差関数が極小値に近付いていくからである。 誤差関数は極小値付近で非常に緩やかな谷底状になっているので、回数を増やすことによって誤差は少しずつ小さくなっていくわけである。

本研究では、出力1がパターン``EDCBA''、出力2が``ABCD''、出力3が``CDE''と固定して行なっている。 この並び順が変わるだけでも、出力値は変化する。 また、今回はパターンは長さ5までで実験を行なっている。 これ以上長くした場合でも学習は可能か、可能だとしたらどこまで対応できるのか、限界はあるのかなどは、現在のところ不明である。

そこで、今後のテーマとしては次のことが挙げられる。

また、複雑にはなるがカオスを用いたカオスニューラルネットワークモデルについても、その性能を検討する必要がある。

謝辞

最後に、本研究に対し一年間を通して多大な御指導を賜わりました出口利憲先生に深く感謝するとともに、同研究室において共に学んだ鈴木真也氏、宗宮由尚氏、玉置千夏子氏、柘植章博氏に厚く御礼を申し上げます。



Deguchi Toshinori
1996年10月17日 (木) 12時31分30秒 JST