next up previous contents
Next: ニューラルネットワーク Up: mizoguchi Previous: 目次   目次

序章

人間の学習能力は非常に高く、完全にその能力を再現するプログラムは存在しない。 そこで、その学習するということをプログラムで模倣したものがこのニューラルネットワークである。

ニューラルネットワークの起源は1943年に発表された McCullochとPittsの神経回路網理論に遡る。 彼らはニューロンの機能や動作についてモデル化を行った。 1949年にはHebbがニューロンの情報入力部分にあるシナプス結合において、 その結合強度がニューロンの興奮によって強まるという変化則を示し、 その結合強度の強弱こそが脳内における情報の分散的な記憶の本質であると提案した。

その二つの提案を受けて1958年、Rosenblattは これらの原理に基づいてパターンを学習識別するパーセプトロンを提案した。 パーセプトロンは一時期能力の限界を厳しく評価されたために研究が停滞したが、 1986年にはRumelhartによって誤差逆伝搬法(バックプロパゲーション) という多層パーセプトロンにおける学習アルゴリズムが発表され、 その後は再び盛んな研究が行われるようになった [1]。 その利用方法の一つに時系列の認識・想起がある。 時系列の想起を行う一つの手法として、 多層パーセプトロンである階層型のニューラルネットワークに対して データを入力すると次の時点でのデータを出力し、 それを次の入力にすることでさらに次の情報を出力させる、 これを繰り返すことで全時間の情報を想起するという手法がある。

ニューラルネットワークの種類のなかに内部記憶を持つニューラルネットワークというものがある。そのネットワークを学習するために、研究室で考えだされた遅れ学習法というものがある。この学習法によって各層をつなぐ結合荷重を効率的に更新することが出来る。

しかし、この学習法はあまり知られていないため、性能が不明で使いにくい。これを脱却すべく、ニューラルネットワークで近い構造を持ち有名なフィードバックのあるニューラルネットワークと比較することでこのネットワークの性能を評価する。本実験では時系列データを同様の条件下において入力した際の結果をもちいて、遅れ学習を用いた内部記憶を持つニューラルネットワークの特性を調査する。そして、実験で得た結果についてさらに追求した実験を行なっていく。



Deguchi Lab. 2012年3月9日