next up previous contents
Next: 5.2.3 比較・検討方法 Up: 5.2 概要 Previous: 5.2.1 エノン写像

5.2.2 学習方法

  ここでは、 実際にカオスアトラクタを学習させるネットワークをもう一度簡単に説明しながら、 学習方法の説明をする。 学習には中間層を一つだけもつ階層型ネットワークを用いる。 学習は第4章で説明したバックプロパゲーションのアルゴリズムを用い、 出力層の出力と教師信号を比較して各層の重み・しきい値を付け替えるという方法で行なう。 中間層の出力関数は図2.4に示したシグモイド関数を用いる。 シグモイド関数の式は前述したがもう一度ここに示す。

  equation324

任意の関数はシグモイド関数の重みつき和で近似できるので 中間層の出力はこのシグモイド関数を用い、 出力層の出力はその重みつき和をとるため、 出力関数は恒等関数を用いる必要がある。 恒等関数 g の式を以下に示す。

  equation329

するとバックプロパゲーションで学習する時の出力関数の微分の項に違いが生じる。 シグモイド関数(5.2)の微分は、

  equation333

となり、 この式はまた、

  equation338

と、関数 f のみで表すことができる。 また、 恒等関数 g の微分は、

  equation341

となる。

以上の変更をもとにあとは第4章で説明したバックプロパゲーションのアルゴリズムに従い学習を行なう。



Deguchi Toshinori
1998年04月02日 (木) 09時05分47秒 JST