ニューラルネットに関する研究としては、1940年から1960年にかけての脳に学ぶコンピュータ研究が行われ、1943年にアメリカの外科医であるマカロックとアメリカの数学者であるピッツの研究で、ニューロンを情報処理素子としてとらえたマカロック・ピッツのモデルが提案された。 実際のニューロンは、興奮すると出力側に多くの電気パルス列を送り出すが、 興奮していないときはほとんど出さない。 彼らは、この電気パルスは1と0に量子化された信号を別のニューロンに送るものと考え、興奮状態に送り出される信号を1、非興奮状態に送り出される信号を0とした。そして、受けとった刺激の総和がしきい値を越えたとき興奮し、越えなければ興奮しないとした。 彼らのモデルでは、伝わる刺激の大きさは1か0しかなかったが、後にシナプス結合の 大きさにより刺激の大きさが変わるように修正された。
1949年にカナダの神経心理学者であるヘッブは、ニューロンが興奮状態となり、刺激を出力すると、その刺激を伝えたシナプス結合の強さは大きくなると考え、より刺激を伝えやすくなるという仮説を立てた。 そして、これがネットワークに過塑性をもたらし、認識や記憶のもとになっていると主張した。これは、ヘッブの学習則と呼ばれ、多くのニューラルネットワークモデルにおいて、学習の原理として採用されている。
1982年、神経回路網のダイナミクスの研究を行なっていたアメリカの物理学者であるホップフィールドによって神経回路モデルが提案された。 彼は、ニューロンの発火アルゴリズムと結合係数の組が定められた神経回路網に与えられる興奮パターンが変化して行く場合において、その変化に伴い減少して行くエネルギー関数が定義できるとした。さらに、その関数の極小値に達するときパターンは安定になるという神経回路網のダイナミクスを示した。 この極小値に対応するパターンを記憶パターンとすれば、ネットワークは適当な刺激パターンから記憶パターンを想起する連想記憶装置となる。
一方、生体としてのニューロンの研究も行なわれた。1970年代後半から物理学の分野では、カオスと呼ばれる、決定論的非周期振動の重要性が認識されるようになり、盛んに研究がされるようになった。 1990年、合原らはヤリイカの巨大軸索にカオス現象が生じることを示し、カオスニューロンモデルを提案した。
また、カオスニューラルネットワークの学習法として、逐次学習法が提案された。 逐次学習法とは、逐次学習法とはヘッブの理論に基づき、まず互いのニューロンが同じ状態にあるときシナプス結合を強め、互いに異なる状態にあるときはシナプス結合を弱めるという動作を行なう。 そして個々のニューロンが自分自身の内部状態から入力されたパターンを既知であるか未知であるかの判断を行ない、追加学習を行なう学習法である。 本研究室では、逐次学習法についての研究が進められ、素子数ごとの最大完全学習数や、適切な結合加重の変化量については明らかとなった。入力パターン数とネットワークが学習したパターン数が同じである場合の学習を完全学習といい、完全学習できる最大のパターン数が最大完全学習数である。また、適切な結合加重の変化量とは完全学習できたときの値である。 過去の研究より、ネットワークへ学習をすることに関する研究はされてきたが、ネットワークがどの程度学習できているかという研究はされてこなかった。
本研究では、カオスニューラルネットワークにパターンを学習させた後に、入力するパターンがどのくらいの違いまでなら、引き込めるのかという研究を行う。 引き込むとは、学習させたパターンと近いパターンを入力して、その学習させたパターンを連想できるということとする。またその学習させたパターンに収束する範囲を引き込み領域として、学習パターンに対してどれだけの引き込み領域があるかを調べる。