next up previous contents
Next: 5.2 回想モデル Up: 第5章 連想記憶 Previous: 第5章 連想記憶

5.1 連想記憶モデル

人間は知っている人の顔を見ればその人の名前を思い出すことができる。 また、形の崩れた文字を見せたときでも、その文字が何であるのか、記憶しているものから最も近いものを答えることができる。 このように、入力から前もって覚えているパターンを思い出すことを連想記憶という。 [2]

ニューラルネットワークにおける連想記憶モデルは1970年代の初めに中野、Kohonen、Andersonの三者によって同時期に、しかも独立に提案された。三者のモデルにはそれぞれ特色があるが、基本原理は共通している部分がある。 ここでは出力に2値モデルを用いた中野のモデルを説明する。

   figure117
図 5.1: 連想記憶をする神経回路網の構造

5.1の様に一つのニューロンに入力 tex2html_wrap_inline1273 を全結合させる。 入力パターンを tex2html_wrap_inline1345 、 出力パターンを tex2html_wrap_inline1347 とする。 なお、n はパターンの要素の数であり、要素は全て1と -1 の2値で表される。 P を覚えるパターンの数とし、入力と出力の組 tex2html_wrap_inline1355 を記憶させることを考える。 具体的には、まず i 番目の入力から j 番目の細胞へのシナプス荷重 tex2html_wrap_inline1241 を全て0にする。 入力と出力の組を与えるとき、以下の学習則に従ってシナプス荷重を更新する。

  equation135

ただし、閾値 tex2html_wrap_inline1363 は 0 とする。 これをベクトルで表せば次式となる。

  equation141

これは、入力 x を受けて出力

  equation150

を出す神経細胞で、情報源 I から信号 tex2html_wrap_inline1375 と教師信号 tex2html_wrap_inline1247 を受けて学習する場合である。 シナプス荷重 tex2html_wrap_inline1379 の方程式は式(4.6)より

  equation158

で、I の中では信号は等確率で出現するため、平均学習方程式は

   eqnarray164

で、式(5.6)を式(5.5)に代入すると

  equation178

となるから、シナプス荷重は

  equation186

に収束する。 これをベクトル全体で考えるには tex2html_wrap_inline1407 を縦に並べた ベクトルを tex2html_wrap_inline1409 、横ベクトル tex2html_wrap_inline1379 を 縦に並べたものを行列 W とし、 tex2html_wrap_inline1415 とすれば 式(5.2)となる。 また、これはニューロンが同じ状態にあった場合 tex2html_wrap_inline1417 はシナプス荷重が増加し、そうでない場合にはシナプス荷重が減少するというHebbの変形学習則そのものである。 このようにして学習し、その後、入力 x を与えたときの 出力 y

  eqnarray199

となる。 入力 x が学習したパターンの一つである tex2html_wrap_inline1435 の場合、 tex2html_wrap_inline1437 が互いに直交していれば、式(5.9)で tex2html_wrap_inline1439 は0となるので、 tex2html_wrap_inline1441 となり、 これを単位ステップ関数にいれて2値化すれば tex2html_wrap_inline1443 となるため、 学習した入力に対応したパターンを正しく想起していることが分かる。

xtex2html_wrap_inline1435 に近いパターン tex2html_wrap_inline1449 の場合、 tex2html_wrap_inline1437 が互いに直交していれば tex2html_wrap_inline1453tex2html_wrap_inline1455 に非常に近い。 一方、 tex2html_wrap_inline1457tex2html_wrap_inline1437 とは直交に近い関係にあるのでこれらの項は小さい。 これが十分小さければ、単位ステップ関数で無視され、 tex2html_wrap_inline1461 もしくは tex2html_wrap_inline1461 に近いパターンが出力される。

ここで、ニューラルネットワークが連想記憶を学習する過程を記銘過程という。 また、神経回路網が入力パターンを与えられることによって、何らかの出力を出す過程を想起過程という。 記銘する入力パターンと出力パターンとが一致している連想記憶のことを自己相関記憶、異なる連想記憶のことを相互相関記憶という。 自己相関記憶では、入力パターンと出力パターンとの組を複数個記憶するのではなくて、単純に複数個のパターンを記憶することになる。

ニューラルネットワークにおける連想記憶の特徴はつぎのような点である。

  1. 分散多重記憶である。 つまり、一つの入出力パターンの組を記憶するとき、その情報はニューラルネットワークのシナプス全体に分散して記憶される。 また、複数の入出力パターンの組を記憶する際には、それぞれの入出力パターンの情報は重なって記憶される。 したがって、ニューラルネットワークが局所的に故障しても一つの入出力パターンの組が全て記憶から失われることはない。
  2. 並列分散処理である。 記憶するパターンの組が増しても、そのうちの一つの入力パターンから、対応する出力パターンを取り出すために各ニューロンが必要とする動作は増えない。
  3. 誤り訂正能力を持つ。 ニューロンに閾値作用をもたせた場合、あいまいな入力パターンから正しい出力パターンを想起する能力をもつことができる。


Deguchi Toshinori
1996年10月08日 (火) 12時41分40秒 JST