実際に学習を行ないネットワークの特性を測定する。 まずここで測定を行なったのは入力層と出力層の素子の数が2個、 中間層の素子の数は50個のネットワークである。 出力層の素子にはそれぞれ教師信号であるカオスアトラクタのxの値、 yの値をバックプロパゲーション法を用いて学習させた。 すなわちこれは内部記憶を持たない一般的なネットワークである。 この特性を測定したのが図5.3である。
図5.3で測定しているネットワークの 学習のさせ方は、
これを見ると、定数を小さくしつつ学習したものは最良の特性こそ 定数を変化させないときに劣るものの、 振動することなくほぼ一定の誤差を保っている。 すなわち、これにより「学習回数を増やしすぎると誤差が大きくなる」 といったことはなくなる。
また、定数を小さくすることが多ければ誤差の振動は小さくなるが、 誤差自体は大きくなる。 反面、定数をあまり小さくしないと誤差は小さいものの、 振動は大きくなるため、「学習しすぎて特性が悪化する」 という可能性が発生する。 絶対的な特性自体を向上させるか、もしくは学習回数を 増やしても特性が悪化しないことをとるか、この二つの 兼ね合いをとって定数の変化のさせ方を決める必要がある。
以上の実験を、折り曲げ模様の写像においても同様に行なってみたところ、 同様の結果が得られた。