next up previous contents
Next: 第2章 ニューロンとニューラルネットワーク Up: 無題 Previous: 目次

第1章 序論

1990年代に入り集積回路の性能は急激に向上し、コンピュータの情報処理能力は目覚しい発展を遂げた。それに従い、現存する情報処理機能で最も高度な情報処理能力を有する脳の機能に注目が集まり、世界中でその機能を工学的に実現しようとする試みが盛んに行なわれている。現在主流のディジタルコンピュータは、厳密で論理的な直列集中情報処理機能を有するが、人間の脳の様な柔軟で直感的な並列分散処理機能を有しない為、従来にない革新的な処理機能を持つニューロコンピュータにその役割が期待されている。

ニューロコンピュータとは、ニューロンによって構成されたニューラルネットワークの事である。ニューラルネットワークとは脳の神経細胞をモデル化したニューロンを基本構成素子とした神経回路網である。

その起源は1943年に発表されたMcClloとPittsの神経回路網理論まで遡る。彼らはニューロンの機能や動作について簡単なモデルを示し、いくつかのニューロンを結合させたネットワークにより簡単な論理演算ができる事を示した。1949年にはHebbにより、ニューロンの情報入力部位であるシナプス結合において、その結合強度がニューロンの興奮によって強まるという変化則が示され、その結合強弱(結合荷重)こそが記憶の本質であると提案され、これが脳の学習の基本法則とされた。

一時期、1969年にMinskyとPaperttらによりその能力の限界を厳しく評価された為、研究は下火となったが、ディジタルコンピュータには向かない、パターン認識や曖昧なデータの処理の為に近年再び注目され、1982年にHopfieldが相互結合型ニューラルネットワークの連想記憶への応用を提案し、これを基本モデルとした研究が現在も世界中で行なわれている。

一方、生体としてのニューロンも、合原らによりその脳内でのカオス的応答が発見され、カオス的ダイナミクスを有するカオスニューロンモデルが提案された。これは従来のニューロンモデルに実際の神経細胞に見られる時空間加算、不応性、連続値出力を考慮することによりカオスを導入したモデルである。

ホップフィールドネットワークに代表される従来の連想記憶モデルの多くは、学習時にパターンの相関行列に基づき重みを学習し、想起時にはその重みを利用して想起を行なうというものである。つまり学習過程と想起過程とは全く分離されたものとなっている。しかし、脳においての学習と想起とは分離されたものではないと考える方が自然である。

そこで本研究では、従来の入力パターンの相関行列に基づく学習法の代表例といえるホップフィールドネットの学習法とカオスニューロンを用いたネットワークによる、ニューロン自身の内部状態から入力パターンが既知パターンであるか、未知パターンであるかを判別する局所的学習法を用いてその特性を調べることを目的とする。

本研究では大文字と小文字のアルファベット計52個を学習パターンとして用いる。

両学習法により上記のパターンを学習させ、学習結果である結合荷重を各々とりだし、それを共通のホップフィールドネットに割り当てノイズをのせた入力パターンを想起できるか調べる。

局所的学習法の特徴である、任意に結合荷重の変位と学習回数を設定できるという点が学習できるパターンの数や入力パターンにいくつまでノイズをのせても想起することができるかというノイズ耐性に与える影響を調べる。

連想記憶における両学習法の性能の相違や様々な特性を以上のような方法で調べ、評価、検討する。



Deguchi Toshinori
1999年03月23日 (火) 16時14分02秒 JST