next up previous contents
: 実験2の結果 : 実験の結果 : 実験の結果   目次


実験1の結果

まず初めに図5.2は素子数50のネットワークにおいて入力パターン数を増加させた時のネットワークが学習した最大パターン数の変化を示す。
図 5.2: 素子数50のネットワークにおける入力パターン数と学習した最大パターン数
\includegraphics[width=14cm]{Data/50-1.eps}

これによると、入力パターン数が$45$パターンを越える辺りまで傾きが1であることが分かる。 これは入力パターン数と学習したパターン数が等しいことを示すとともに、完全学習であるということも意味する。 しかし、$45$パターン辺りを越えると学習したパターン数が減少に傾いている事が分かる。 この部分を細かく変化させたところ47パターンが最大完全学習数と分かった。 そこで、次に学習パターン数が47パターンの周辺のパターン数における$\Delta w$と学習したパターン数の関係を図5.3に示す。

図 5.3: 素子数50のネットワークにおける$\Delta w$と学習したパターン数
\includegraphics[width=14cm]{Data/50-2.eps}

図 5.4: 素子数50のネットワークにおける完全学習数と適切な$\Delta w$
\includegraphics[width=14cm]{Data/50-3.eps}
5.2で注目していなかった$\Delta w$の情報を加える事で、$\Delta w$の変化が学習したパターン数に影響している事がわかる。 入力パターン数が41パターンにおいては$\Delta w$$0.06$を過ぎるあたりまで直線を示している。 一方入力パターン数が47パターンでは$\Delta w$$0.02$前後でなければ直線が無く、50パターンにいたっては学習したパターン数が50パターンに到達しておらず、直線も確認できなかった。 直線部分は入力パターン数と$y$軸の学習したパターン数が同じである事から完全学習が行なわれている部分といえる。 つまり、入力パターン数が50パターンでは完全学習が行なわれないことを意味している。

5.4.1項で述べたが、適切な$\Delta w$とは完全学習ができた時の$\Delta w$である。 そこで図5.3の直線部分を取り出し、図5.4に完全学習数に対する適切な$\Delta w$の値の変化を示す。 入力パターン数を小さくして完全学習数を小さく設定すれば用いる事ができる適切な$\Delta w$の値の幅は広くなることが分かる。 また、完全学習数がネットワークの最大完全学習数である47パターンに近付くほど幅が狭くなっている。

同様に他の素子数で構成されたネットワークの結果を示す。 素子数の変化によるそれぞれのグラフの変化を明らかにするため、 まず始めにそれぞれのネットワークが学習した最大パターン数の変化を図5.5, 5.6, 5.7, 5.8に示す。 素子数が増える、つまり図5.5, 5.6となるにつれて$x$軸の学習した最大パターン数が増加している。 同時に最大完全学習数も増えている事がいえる。 素子数50と同様に傾きの変化に着目しその前後を調べる事で最大完全学習数が得られた。 具体的な最大完全学習数を表5.2に示す。 これより素子数と最大完全学習数の数値には比例関係があるが傾きは1より若干小さい事が分かる。

図 5.5: 素子数100のネットワークにおける入力パターン数と学習した最大パターン数
\includegraphics[width=14cm]{Data/100-1-1.eps}

図 5.6: 素子数200のネットワークにおける入力パターン数と学習した最大パターン数
\includegraphics[width=14cm]{Data/200-1.eps}

図 5.7: 素子数300のネットワークにおける入力パターン数と学習した最大パターン数
\includegraphics[width=14cm]{Data/300-1.eps}

図 5.8: 素子数400のネットワークにおける入力パターン数と学習した最大パターン数
\includegraphics[width=14cm]{Data/400-1.eps}


表 5.2: 各素子数における最大完全学習数
素子数[個] 最大完全学習数[パターン]
50 47
100 89
200 184
300 277
400 368

次に最大完全学習数が減少に転じる周辺の入力パターン数における$\Delta w$と学習したパターン数の変化を図5.9, 5.10, 5.11, 5.12に示す。 図5.9, 5.10において$x$軸が$0.06$のところに着目すると、明らかに図5.10の方が学習したパターン数が小さい事が分かる。 言い替えれば素子数が大きいほど適切な$\Delta w$の値からはなれた時の、学習したパターン数の減少量が大きい事が分かる。

図 5.9: 素子数100のネットワークにおける$\Delta w$と学習したパターン数
\includegraphics[width=14cm]{Data/100-1-2.eps}

図 5.10: 素子数200のネットワークにおける$\Delta w$と学習したパターン数
\includegraphics[width=14cm]{Data/200-2.eps}

図 5.11: 素子数300のネットワークにおける$\Delta w$と学習したパターン数
\includegraphics[width=14cm]{Data/300-2.eps}

図 5.12: 素子数400のネットワークにおける$\Delta w$と学習したパターン数
\includegraphics[width=14cm]{Data/400-2.eps}

最後に完全学習数と適切な$\Delta w$の変化を図5.13, 5.14, 5.15, 5.16に示す。 また複数の素子数による最大完全学習数が得られる適切な$\Delta w$の変化を素子数ごとに確認するため、図5.17にまとめる。 図5.13, 5.14を比較すると、最大完全学習数が大きくなっていることは既に述べた通りであるが、 図5.13における100素子の最大完全学習に用いられる適切な$\Delta w$は全部で4点あるのに対し、 図5.14における200素子の最大完全学習に用いられる適切な$\Delta w$は全部で2点しか存在していない。 つまり素子数の増加とは反対に最大完全学習に用いられる適切な$\Delta w$の幅は狭くなっており、300, 400素子にいたっては1つの値に収束している。 さらに、図5.17に示されている適切な$\Delta w$の最大値に着目すると、素子数に対して反比例の関係がある事がわかる。 これは実験で用いたカオスニューラルネットワークのモデルが相互結合型であることが要因の一つと考えられる。 素子数の増加は、一つのニューロンに入力される他のニューロンの数が増えるという事になる。 逐次学習法では入力パターンに近付こうとする力と、それとは反対向きの力とのバランスで学習が行なわれている。 そのため、$\Delta w$の値を小さくする事でバランスをとりやすくしていると考えられる。 これは素子数が大きい時$\Delta w$が適切な数値から少しずれただけでも学習効率が大きく下がった事からもいえる。 逆に素子数が小さい場合は入力される他のニューロンの数が比較的少ないため多くの$\Delta w$を使用しても学習効率を高く保持できるといえるだろう。 ただし、素子数が小さいということは、最大完全学習数が減少する。 つまり学習させるパターン数が少ないので効率を高く保持できるという見方もできる。

図 5.13: 素子数100のネットワークにおける完全学習数と適切な$\Delta w$
\includegraphics[width=14cm]{Data/100-1-3.eps}

図 5.14: 素子数200のネットワークにおける完全学習数と適切な$\Delta w$
\includegraphics[width=14cm]{Data/200-3.eps}

図 5.15: 素子数300のネットワークにおける完全学習数と適切な$\Delta w$
\includegraphics[width=14cm]{Data/300-3.eps}

図 5.16: 素子数400のネットワークにおける完全学習数と適切な$\Delta w$
\includegraphics[width=14cm]{Data/400-3.eps}

図 5.17: 各素子数のネットワークにおける適切な$\Delta w$の変化
\includegraphics[width=14cm]{Data/Total1-2.eps}


next up previous contents
: 実験2の結果 : 実験の結果 : 実験の結果   目次
Deguchi Lab. 平成20年3月5日