人間は、複数の文字を覚えている状態で、形の崩れた文字を見せたとき、 その文字が何であるのか、記憶しているものから最も近いものを答える。 このように、入力から前もって覚えているパターンを思い出すことを連想記憶という。
ニューラルネットワークにおける連想記憶とは、一般につぎのようなものである。
図4.1の様に1つのニューロンに入力 を全結合させる。
入力パターンを
、
出力パターンを
とする。
なお、n はパターンの要素の数であり、要素は全て1と -1 の2値で表される。
P を覚えるパターンの数とし、入力と出力の組
を記憶させることを考える。
具体的には、まず i 番目の入力から j 番目の細胞へのシナプス荷重
を全て0にする。
入力と出力の組を与えるとき、以下の学習則に従ってシナプス荷重を更新する。
ただし、閾値 は 0 とする。これをベクトルで表せば次式となる。
これは、入力 x を受けて出力
を出す神経細胞で、情報源 I から信号 と教師信号
を受けて学習する場合である。
シナプス荷重
の方程式は式(3.5)より
で、I の中では信号は等確率で出現するため、平均学習方程式は
で、シナプス荷重は
に収束する。これをベクトル全体で考えるには を縦に並べたベクトルを
y とし、横ベクトル
を縦に並べたものを行列 W とすれば 式(4.2)となる。
また、これはニューロンが同じ状態にあった場合
はシナプス荷重が増加し、
そうでない場合にはシナプス荷重が減少するというHebbの変形学習則そのものである。このようにして学習し、その後、入力 x を与えたときの
出力 y は
となる。
入力 x が学習したパターンの1つである の場合、
が互いに直交していれば、式(4.8)で
は0となるので、
となり、
これを単位ステップ関数にいれて2値化すれば
となるため、
学習した入力に対応したパターンを正しく想起していることが分かる。
x が に近いパターン
の場合、
が互いに直交していれば
は
に非常に近い。
一方、
の
とは直交に近い関係にあるのでこれらの項は小さい。
これが十分小さければ、単位ステップ関数で無視され、
もしくは
に近いパターンが出力される。
また、ニューラルネットワークにおける連想記憶の特徴はつぎのような点である [3]。