next up previous contents
Next: 5.4.2 内部記憶を持つネットワークにおける実験結果 Up: 5.4 実験結果と考察 Previous: 5.4 実験結果と考察

5.4.1 一般的なネットワークにおける実験結果

実際に学習を行ないネットワークの特性を測定する。 まずここで測定を行なったのは入力層と出力層の素子の数が2個、 中間層の素子の数は50個のネットワークである。 出力層の素子にはそれぞれ教師信号であるカオスアトラクタのxの値、 yの値をバックプロパゲーション法を用いて学習させた。 すなわちこれは内部記憶を持たない一般的なネットワークである。 この特性を測定したのが図5.3である。

   figure403
図 5.3: 一般的なネットワークによる実験結果

5.3で測定しているネットワークの 学習のさせ方は、

  1. そのまま学習させたもの
  2. 学習回数が百万回ごとに定数を半分にして学習させたもの
  3. 学習回数が百万回ごとに定数を四分の一にして学習させたもの
である。

これを見ると、定数を小さくしつつ学習したものは最良の特性こそ 定数を変化させないときに劣るものの、 振動することなくほぼ一定の誤差を保っている。 すなわち、これにより「学習回数を増やしすぎると誤差が大きくなる」 といったことはなくなる。

また、定数を小さくすることが多ければ誤差の振動は小さくなるが、 誤差自体は大きくなる。 反面、定数をあまり小さくしないと誤差は小さいものの、 振動は大きくなるため、「学習しすぎて特性が悪化する」 という可能性が発生する。 絶対的な特性自体を向上させるか、もしくは学習回数を 増やしても特性が悪化しないことをとるか、この二つの 兼ね合いをとって定数の変化のさせ方を決める必要がある。

以上の実験を、折り曲げ模様の写像においても同様に行なってみたところ、 同様の結果が得られた。



Deguchi Toshinori
Wed Jul 12 17:04:26 JST 2000