next up previous contents
Next: 第2章 ニューロン Up: 無題 Previous: 目次

第1章 序章

近年において、ニューラルネットワークはまだ開発されて間もない分野ではあるが、画像処理やパターン認識などにおおいに活躍している。また、音声や文字認識の成功例が報告されており、学習できる事が実証されている。

ニューラルネットワークというのは、脳の神経細胞(ニューロン)が結合した神経回路網のことである。その構造や情報処理メカニズムにヒントを得て、脳の持つ学習能力や自己組織化能力など優れた情報処理能力を人工的にコンピュータで実現させようと研究が進められている。

だが、ニューロンの実際の機能を忠実にモデル化するのは不可能である。 1943年にマッカロとピッツが提案した神経回路網理論は、ニューロンの基本的な部分についてのみ考えた多入力−1出力の非線形素子モデルであった。しかしその理論は実際の脳に比べるとあまりに単純化しすぎていたため、当時はほとんど注目されなかった。 ところが、1967年に小脳の神経回路網的な構造が明らかになると、彼らの理論がそれをうまくモデル化していることがわかり、パーセプトロンのブームが起こった。 パーセプトロンとは、1958年にローゼンブラッドにより提案された、学習する神経回路網のパターン識別機械のことである。しかしこれは1969年にミンスキーとパパートによって、その能力の限界が明らかにされた。 それ以後ニューラルネットワークの研究は急激に下火になっていった。 [1]

しかし地道な研究が続けられ、近年になってラメルハートらがバックプロパゲーションと呼ばれる学習則を提案したのをひとつのきっかけとして、1980年代に再びニューラルネットワークとして注目を浴びるようになり、現代に至っている。

本研究は、このニューラルネットワークを用いて連続パターンの検出を行なわせようというものである。 ここでいう連続パターンとは、パターン(主として文字)を二つ以上つなげたパターン列であり、これを連続して入力されるパターンから検出させる。 例えば AABDECDEB という入力に対し、''DEを検出せよ''と指示を与えれば、D のあとに E が入力された時のみ出力に1を返すという具合である。

昨年度作成されたモデルは、カオスニューロンを用いたものはパターンが長くても(最大長5)学習はなされていた。しかし、カオスニューロンを用いなかったものは短いパターンについては問題はなかったが、パターンが長くなると満足な結果が得られなくなった。 [2] そこで今年は、複雑なカオスニューロンを用いなくても長いパターンの検出ができるようなモデルを新たに作成し、その動作を確認する。



Deguchi Toshinori
1996年10月17日 (木) 12時31分30秒 JST