1つの入出力パターンの組を記憶するとき、その情報はニューラルネットワークのシナプス全体に分散して記憶される。そして、複数の入出力パターンの組を記憶する際には、それぞれの入出力パターンの情報は重なって記憶される。したがって、ニューラルネットが局所的に壊れたとしても、1つの入出力パターンの組が記憶から失われるということはない。また、記憶の取り出し方が並列的であるため、記憶するパターンの組の数が増えてもそのうちの1つの入力パターンから、対応する出力パターンを取り出すために各ニューロンが必要とする動作は増えない。[5]
ここで、個のパターン
から
を考える。それらのパターンを記憶した後、どのパターンとも正確に一致はしないがどれかのパターン
と最も近い入力
を与える。そのときに、
を出力すれば、パターン
を入力したことにより、パターン
を連想したことになる。これが、自己相関記憶である。
この最も近い入力
を与えたときに、学習したパターン
を連想するというのは、2.5節でも述べたように、相互結合型のニューラルネットワークでエネルギー関数が存在していることが関係していると考えられる。
ある学習させたパターンに近い入力をした場合に、エネルギー関数の斜面の点にいると考えることができ、その学習させたパターンの記憶は極小点であると考えると、近い入力をすることで、その極小点へと収束しようとする。これが想起の過程であると考えられる。
このように、
次元ベクトルであるパターンが、その
次元超平面上でネットワークに入れると
に収束する範囲を、
の引き込み領域であるとする。