next up previous contents
Next: 5.5 自己相関学習 Up: 第5章 学習法 Previous: 5.3 バックプロパゲーション(逆伝搬法)

5.4 連想記憶

  連想記憶モデルは 1970 年代の始めに Nakano(1972)、Kohonen(1972)、Anderson(1972) の3者によって同時期に、しかも独立に提案された。 3者のモデルにはそれぞれ特色があるが、ここでは、特定のモデルに偏らずに、 3者のモデルに共通するような基本原理について説明する [5]。

ニューラルネットにおける連想記憶とは、一般に次のようなものである。 N 個のニューロンに M本の入力信号が加えられているニューラルネットを考える。

入力パターン tex2html_wrap_inline2206tex2html_wrap_inline2208 :入力信号 j がとる値) と出力パターン(想起パターン) tex2html_wrap_inline2212tex2html_wrap_inline2168 :ニューロン i の出力信号がとる値)の組が複数個 tex2html_wrap_inline2218 あって、 上記の P 個の入力パターンの内の1つをニューラルネットに入力した時に、 対応する出力パターン(つまり入力パターン tex2html_wrap_inline2222 に対しては 出力パターン tex2html_wrap_inline2224 )を出力するように、 上記の入出力パターンを記憶することを連想記憶という。 また、連想記憶が学習する過程を記銘過程と呼び、神経回路網が入力パターンを 与えられることによって、何らかの出力をする過程を想起過程と呼ぶ。

記銘する入力パターンと出力パターンとが一致している ( tex2html_wrap_inline2226 )連想記憶のことを 自己相関記憶、異なる連想記憶のことを相互相関記憶と呼ぶ。 自己相関記憶では、入力パターンと出力パターンとの組を複数個記憶するのでなくて、 単純に復数個のパターンを記憶することになる。

自己相関記憶は次のような意味をもつ。いくつかのパターンを記憶した後、 どのパターンとも正確には一致しないが、どれかのパターン tex2html_wrap_inline2228 と 最も近い入力 tex2html_wrap_inline2230 をニューラルネットに与えるとする。 そのとき tex2html_wrap_inline2228 そのものを出力すれば、パターン tex2html_wrap_inline2230 から パターン tex2html_wrap_inline2228 を``連想"したことになる。 人間の脳の機能にあてはめると、これは例えば、複数の文字の形を覚えている状態で、 形の崩れた文字を見せたときに、その文字がなんであるのか、記憶しているものから 最も近いものを答えることに相当する [5]。

つぎに、ニューラルネットにおける連想記憶の特徴となる点をあげる。

  1. 分散多重記憶である。1つの入出力パターンの組を記憶するとき、 その情報はニューラルネットのシナプス全体に分散して記憶される。 そして、複数の入出力パターンの組を記憶する際には、 それぞれの入出力パターンの情報は重なって記憶される。 したがって、ニューラルネットが局所的に壊れても1つの入出力パターンの組が まるごと記憶から失われることはない。
  2. 記憶の取り出し方が並列的である。記憶するパターンの組の数が増えても、 そのうちの1つの入力パターンから、対応する出力パターンを取り出すために 各ニューロンが必要とする動作は増えない。
  3. ニューロンにしきい値作用を持たせた場合、曖昧な入力パターンから 正しい出力パターンを想起する能力(この能力のことを誤り訂正能力とよぶ)を もつことができる。例えば、 ニューラルネットに( tex2html_wrap_inline2238 ) というパターンの組を記憶しているとする。そしてパターン tex2html_wrap_inline2228 と 若干異なるパターン tex2html_wrap_inline2230 を入力した場合でも、ニューラルネットは 正しい出力 tex2html_wrap_inline2244 を出力するのである [5]。


Deguchi Toshinori
1996年11月14日 (木) 12時50分06秒 JST