これによると、入力パターン数がパターンを越える辺りまで傾きが1であることが分かる。 これは入力パターン数と学習したパターン数が等しいことを示すとともに、完全学習であるということも意味する。 しかし、パターン辺りを越えると学習したパターン数が減少に傾いている事が分かる。 この部分を細かく変化させたところ47パターンが最大完全学習数と分かった。 そこで、次に学習パターン数が47パターンの周辺のパターン数におけると学習したパターン数の関係を図5.3に示す。
図5.2で注目していなかったの情報を加える事で、の変化が学習したパターン数に影響している事がわかる。 入力パターン数が41パターンにおいてはがを過ぎるあたりまで直線を示している。 一方入力パターン数が47パターンではが前後でなければ直線が無く、50パターンにいたっては学習したパターン数が50パターンに到達しておらず、直線も確認できなかった。 直線部分は入力パターン数と軸の学習したパターン数が同じである事から完全学習が行なわれている部分といえる。 つまり、入力パターン数が50パターンでは完全学習が行なわれないことを意味している。
5.4.1項で述べたが、適切なとは完全学習ができた時のである。 そこで図5.3の直線部分を取り出し、図5.4に完全学習数に対する適切なの値の変化を示す。 入力パターン数を小さくして完全学習数を小さく設定すれば用いる事ができる適切なの値の幅は広くなることが分かる。 また、完全学習数がネットワークの最大完全学習数である47パターンに近付くほど幅が狭くなっている。
同様に他の素子数で構成されたネットワークの結果を示す。 素子数の変化によるそれぞれのグラフの変化を明らかにするため、 まず始めにそれぞれのネットワークが学習した最大パターン数の変化を図5.5, 5.6, 5.7, 5.8に示す。 素子数が増える、つまり図5.5, 5.6となるにつれて軸の学習した最大パターン数が増加している。 同時に最大完全学習数も増えている事がいえる。 素子数50と同様に傾きの変化に着目しその前後を調べる事で最大完全学習数が得られた。 具体的な最大完全学習数を表5.2に示す。 これより素子数と最大完全学習数の数値には比例関係があるが傾きは1より若干小さい事が分かる。
次に最大完全学習数が減少に転じる周辺の入力パターン数におけると学習したパターン数の変化を図5.9, 5.10, 5.11, 5.12に示す。 図5.9, 5.10において軸がのところに着目すると、明らかに図5.10の方が学習したパターン数が小さい事が分かる。 言い替えれば素子数が大きいほど適切なの値からはなれた時の、学習したパターン数の減少量が大きい事が分かる。
最後に完全学習数と適切なの変化を図5.13, 5.14, 5.15, 5.16に示す。 また複数の素子数による最大完全学習数が得られる適切なの変化を素子数ごとに確認するため、図5.17にまとめる。 図5.13, 5.14を比較すると、最大完全学習数が大きくなっていることは既に述べた通りであるが、 図5.13における100素子の最大完全学習に用いられる適切なは全部で4点あるのに対し、 図5.14における200素子の最大完全学習に用いられる適切なは全部で2点しか存在していない。 つまり素子数の増加とは反対に最大完全学習に用いられる適切なの幅は狭くなっており、300, 400素子にいたっては1つの値に収束している。 さらに、図5.17に示されている適切なの最大値に着目すると、素子数に対して反比例の関係がある事がわかる。 これは実験で用いたカオスニューラルネットワークのモデルが相互結合型であることが要因の一つと考えられる。 素子数の増加は、一つのニューロンに入力される他のニューロンの数が増えるという事になる。 逐次学習法では入力パターンに近付こうとする力と、それとは反対向きの力とのバランスで学習が行なわれている。 そのため、の値を小さくする事でバランスをとりやすくしていると考えられる。 これは素子数が大きい時が適切な数値から少しずれただけでも学習効率が大きく下がった事からもいえる。 逆に素子数が小さい場合は入力される他のニューロンの数が比較的少ないため多くのを使用しても学習効率を高く保持できるといえるだろう。 ただし、素子数が小さいということは、最大完全学習数が減少する。 つまり学習させるパターン数が少ないので効率を高く保持できるという見方もできる。