第5章までに述べたことを確認するため、電子計算機上で次のような実験を行なった。
シナプス荷重を全結合させた3層モデルで、学習パターン内に同一パターンがない場合、 同一パターンが1サイクル内に1つある時、2つある時の想起能力を測定する。
ランダム層モデルで、学習パターン内に同一パターンがない場合、 同一パターンが1サイクル内に1つある時、2つある時の想起能力を測定する。
ここで、パターンをランダムパターンとした理由を示す[1]。
ニューロン数を173とすると、ランダムパターンは図6.1に示すようなパターンである。
連想記憶モデルでは、第4章にて述べたようにパターンが互いに直交していることが大切である。
各成分が1か0かをほぼ等しい確率でとる場合、
パターンベクトル の大きさは、
ベクトルの成分の数を n とすれば、
であり、他のベクトル との内積は
となり、平均値が0で、標準偏差が 程度にばらついている。
これより
と
の角度
は
程度で、 n が大きければ十分直交状態に近くなる。 このために実験ではランダムパターンを用いた。 数字やアルファベットなどの文字パターンはランダムパターンと違い、 成分の値が1をとる確率と0をとる確率が等しいとはいえず、直交状態とはいえない。 そのため、このような場合には直交学習を行なう[7]。
直交学習とは、
となるベクトル を求めて、シナプス荷重を
とすることで、ランダムパターンによる直交化と同じ効果がでる。
上記の理論はデータに誤りのない場合のことで、ノイズが入った場合の誤り訂正能力について考えてみる。
学習パターンに確率 p でノイズが加わるとする。
パターン にノイズが加わったパターンを
とすれば、式(4.8)は
となる。 N を加えることによって、確率 p で数値1が0に、 0が1に変わるため、 N は確率 p/2 で値2、 確率 p/2 で値0をとるベクトルである。 式(6.6)の右辺第2項が妨害項である。 r = k での妨害項は
であり、本来の値 n に対して -2pn/n = -2p の割合で影響が出る。
直交学習を行なった場合、 を理論的に求めるのは困難のため数値計算による結果のみを示す。
ランダムパターンと同様に r = k で
となる。ここで E はそれぞれの の平均値、
は各要素が1をとる確率で本実験では0.264、
は0をとる確率で今回は0.736である。
本来の値1に対して -0.00118 p n の割合で影響が出る。
これに n = 173 を代入すれば直交学習の方が妨害項の割合が大きくなる。
また、
でランダムパターンでは妨害項の平均値が1であるのに対し、
文字パターンでは妨害項の平均は正の値を持っており、これも影響してくる。
本研究ではニューラルネットワークの特性の限界を調べるため、ランダムパターンを用いた。