next up previous contents
Next: セット数を減らす Up: 実験結果 Previous: 結合荷重を対称にしての学習結果

ネットワークに学習させるパターンを増やす

ネットワークに学習させるパターンを増やすために新たにアルファベットの小文字のパターンを用いる。 そのパターンは図 6.5 である。

   figure352
図 6.5: 使用パターン

図 5.3 とともに52パターン学習させる。 学習の順番としては、大文字のパターンを先に入力し、 小文字のパターンを後に学習させる。 26パターン学習させた時との違いを見るため、ニューロンのパラメータ、 学習回数、セット数は26パターンの学習を行なった時と同じとする。

40セット終った後の学習結果は表 6.2 のようになった。

 

 
結合荷重に加えた処理 学習成功数
無処理時 52
40セット後平均 23
40セット後絶対値の大きい方 15
40セット後絶対値の小さい方 8
1セットごと平均 45
1セットごと絶対値の大きい方 50
1セットごと絶対値の小さい方 23
1文字ごと平均 52
1文字ごと絶対値の大きい方 0
1文字ごと絶対値の小さい方 4
表 6.2: 52パターンでの学習個数

また、セットごとの学習の様子は図 6.6 のようになった。

   figure372
図 6.6: パターンを増やした時の学習成功数

40セット学習が終った時に52個すべての学習ができていたネットワークは 非対称の結合荷重を持つネットワークと一文字の学習が終るごとに二つのニューロンの結合荷重を平均をとるネットワークのみであった。 一文字の学習が終るごとに平均値を結合荷重に付け替えたネットワークは 26パターン学習させたときのようにすべてのセット数で非対称のネットワークに 勝ってはいないが、ほぼ非対称のネットワークと同じ学習能力を持っていることがわかる。 これにより結合荷重を対称にするネットワークを作る場合は 一文字の学習が終ることに平均値を結合荷重に付け替える処理をすると良いことがわかる。 対称な結合荷重を持つネットワークの優れている点は 2.5 節で述べた通りである。

1セットごと結合荷重の絶対値が大きい方に付け替えるネットワークは 39セット目で一度すべてのパターンを学習している。 しかし、40セット目で2つのパターンを想起することができなかった。 このネットワークのように26個のパターンの学習では 1セットごとに絶対値の小さい方に付け替えるネットワーク、 一文字学習するごとに絶対値の大きい方に付け替えるネットワーク、 絶対値の小さい方に付け替えるネットワークにしか見られなかった 学習したパターン数が減るという現象がすべてのネットワークに見られた。 学習パターンが増えると学習に対する安定度がどのネットワークも下がっているといえる。

二つのニューロン間の結合荷重の絶対値の大きい方をとる処理、絶対値の小さい方をとる処理を行なったネットワークは上で述べたものを除いて学習能力が下がった。 絶対値を用いる処理において、学習能力が下がった理由としては、非対称な二つのニューロン間の結合においては、一方の結合が協調作用を持つ正の値をとり、 もう一方が競合作用を持つ負の値をとることがあるため、 この状態で絶対値を用いる対称化を行なうと、正の値が大きい時は競合作用を持っていた結合が協調作用を持ち、 逆に負の値が大きい時は協調作用を持っていた結合が競合作用を持つということになる。 さらに絶対値の大きい方を結合荷重とすると全く逆の作用を持ちその影響力が強くなると考えられる。 逆に、小さい方をとるということは、結合を弱めることになる。 そのため、一文字学習するたびに絶対値を用いて学習することは その処理の回数増やすことになり結合荷重の対称化には向いてないと考えられる。

平均化は二つの結合の中間の値を取るため、対称化による結合の変化が少ないと考えられる。 また、一方の結合が正の値を取り、もう一方が負の値を取った時平均化でも 作用の反転が起こる。 しかし正の値と負の値を足し合わせて2で割っているため、 結合は小さくなり影響は小さくなる。 そのため学習能力が良いと思われる。 平均する処理では一度に結合の平均を行なうより、何度かに分けて処理を行なった方が一度に結合荷重を変化させる量が少なくなり、学習に与える影響が少なくなるため学習パターンに与える影響が少ないのだと考えられる。 そのため、一文字ごとに平均化を行なった方が良い学習ができたと予想される。 また、この学習では非対称時とほぼ同じ学習能力を持っているうえ、対称な結合を 持つためネットワークが必ず収束するという利点がある。

学習パターンを増やすことにによって、学習能力が下がったネットワークが多かった。 しかし、一つのパターンの学習ごとに平均をとるネットワークはほぼ、 非対称の結合を持つネットワークに近い学習能力を持っていることがわかった。 これにより、逐次学習法の学習能力は非対称な結合によってもたらされるのではなく、少しずつ結合荷重を変化させ、学習していくことにあるのではないかと考えられる。



Toshinori DEGUCHI
2003年 4月23日 水曜日 17時51分42秒 JST