next up previous contents
Next: 参考文献 Up: 無題 Previous: 5.5.2 ノイズ耐性

第6章 結言

本研究では、従来の入力パターンの相関行列に基づく学習法の代表例といえるホップフィールドネットの学習法と浅川らが提案した各々のニューロンが己の内部状態から入力パターンが既知パターンか未知パターンか判別し学習する局所的学習法との連想記憶における性能を比較し、それを評価、検討した。

今回実験に使用したカオスニューラルネットワークは学習段階では学習と想起が分離していないが一度学習が完了したならばそれ以後の想起段階は通常のホップフィールドネットの動作と変わらないため、同じ条件で比較するため各ネットでは学習のみを行ない学習の結果である結合荷重をとりだしそれを同じホップフィールドネットに割り当て実験を行なった。

実験ではアルファベットの大文字と子文字、計52個を学習させるパターンとして用いた。

学習可能なパターン数をみると局所的学習法とホップフィールドネットの学習法との差は非常に大きく、局所的学習法の方が17倍ものパターンを学習できた。これは局所的学習法では結合荷重の変位と学習回数を任意に設定できるためと考えられた。

局所的学習法では結合荷重の変位を細かくとることにより学習可能なパターン数が増え、しかも変位が細か過ぎても逆にマイナスで、学習回数とのバランスをとることが重要であることがわかった。

さらに局所的学習では、学習回数を増やすことでも学習可能なパターン数が増えることがわかった。この方法は学習パターン数を増やす上で、欠点も少なくネット構築者がとれる最善の方法であることが実験から推察された。

ノイズをいくつまでのせても入力パターンを正確に想起できるのかというノイズ耐性の点でもホップフィールドネットの学習法に比べ局所的学習法は優れていることがわかった。

同じ数のパターンが学習できた状態で入力パターンにノイズをのせ、それを段々多くしていったところ同じノイズ数でも想起できた成功率が局所的学習法の方が高かった。

局所的学習法で結合荷重の変位を変えてノイズ耐性を調べたところ、変位が十分に小さいならばノイズ耐性に変化がないことがわかった。

同様に学習回数を変えて調べたところ、学習回数を増やすことによりノイズ耐性が上昇することがわかった。しかし、学習回数が増えパターンを完全に学習しきるとそれ以上ノイズ耐性は上昇しないこともわかった。

これらのことからいえることは、ホップフィールドネットの学習法では結合荷重の値は相関行列により一つに決定されてしまうため性能の向上を図ることができないが、局所的学習法では結合荷重の変位を細かくとることや学習回数を増やすことで性能の向上を図ることができるということである。したがって局所的学習法は非常に優れた学習法であるといえる。

謝辞

最後に本研究に対し一年間を通して多大な御指導を賜わりました出口利憲先生に深く感謝すると共に、同研究室において助言をいただいた専攻科の徳島大己氏、浅川新也氏、山田博久氏、共に学んだ畑中誠氏、保木一樹氏、山田樹一氏に厚く御礼申し上げます。



Deguchi Toshinori
1999年03月23日 (火) 16時14分02秒 JST