next up previous contents
Next: 参考文献 Up: 無題 Previous: 6.7 ノイズによる学習特性の考察

第7章 結言

本研究では、昨年まで本研究室で研究されてきた カオスニューラルネットワークの学習法の一種である 逐次学習法の学習特性ををより詳しく調べるため、 学習条件、学習式、カオスニューロン自体の性質を 変更したモデルを用意し、昨年までのモデルと比較して 学習性能がどのように異なるかを調べた。

実験の結果、用意した60種類のパターンをすべて学習できたのは 従来通りの学習法である学習法4のみであり、今回変更を加えた 3種類の学習法はいずれも学習成功数が減少していた。 入力にノイズが入った場合も同様に、 学習法4がもっともノイズ耐性が高く 学習法2と学習法3のノイズ耐性はかなり低い。 特に、カオスニューロンの内部状態をリセットする機能を持たない 学習法2と学習法3は学習能力の低下が著しい。 ニューロンの内部状態をリセットする機能を持たないと ニューロンの応答速度が遅くなり、 その分学習に時間がかかる。そのため、今回のような短時間の学習には 向いていないことがわかる。

Hebbの学習則に従い、そのニューロン自身の出力と他のニューロンの出力 から正しい学習を行なおうとすると、 そのニューロンの出力に学習させたいパターンが現れる必要がある。 しかし、未知の入力が出力に現れるまでには多くの学習ステップ数が必要となるため、 それまでの間にネットワークが間違った学習を行なうことが 学習性能を低下させる原因の一つとなっている。 その点、学習条件と学習式に外部入力を用いると、外部からの入力が 間違っていない限り、ネットワークの学習は常に正しい方向にのみ行なわれるので 学習時間は短縮され、 入力されたパターンに合わせて素早く結合荷重の変更を行う事ができる。 学習法1と学習法4を比べた場合、 どちらの学習法も学習セット数が多いほど学習成功数は 多くなるので、学習ステップ数が少なくても学習が可能で 学習成功数の限界も多い学習法4のほうが学習性能は高いといえる。 カオスニューロンの内部状態をリセットしない学習法2と学習法3は 学習を始めるまでに多くの学習ステップ数を必要とし、 有効な学習を行うまでにかなりの学習回数が必要となるため、 学習回数を限定した実験ではその学習性能の低さが目立った。 しかし、今回の実験では学習法2と学習法3の学習回数が不足していた可能性があるため、 さらに学習回数を増やして実験を行なえば、学習性能の向上は十分に考えられる。

今回変更点を加えたカオスニューラルネットモデルは、 いずれも昨年までの逐次学習法のモデルに比べて学習性能が低下していた。 結論として、Hebbの学習則を再現したモデルの学習性能は低く、 ニューラルネットの工学的利用価値の点では昨年までのモデルの 方が有用であるといえる。

謝辞

最後に、本研究を進めるにあたり、一年間を通して多大な御指導を 賜わりました出口利憲先生に深く感謝すると共に、同研究室において 助言をいただいた専攻科の畑中誠氏、また、同研究室において共に 学んだ岩佐要氏、高木潤氏に厚く御礼申し上げます。



Deguchi Toshinori
Mon Feb 19 13:32:26 JST 2001