この研究では、学習方法としてバックプロパゲーション法を使っている。 この方法は、ネットワークの出力と出力すべき値(教師信号という)との誤差を 計算し、この誤差が小さくなるようにパラメータを変化させる方法である。 これは、誤差逆伝搬法とも呼ばれる。
誤差関数 を式(4.1)のように定義する。
はカオスニューラルネットの出力層の
番目の出力であり、
はその教師信号である。
中間層から出力層への結合荷重は式(4.2)のように変化させる。
は学習定数と言い、変化する量を決めるものである。
この値を小さく設定すると、学習するのに時間がかかる。
しかし多き過ぎても、学習するのに時間がかかる。
それは、図(4.1)をみてわかるように、
極小点を飛び越えてしまうからである。
このため、学習定数は経験によって決めなければならない。
速く学習させる方法として式(4.3)のような加速法を使う。
入力層から中間層への結合荷重は式(4.4)次のように変化させる。
これらの式を見てわかるように、 という情報が前の層へ
伝えられている。これがバックプロパゲーションと言う名前の由来である。