next up previous contents
Next: 7.2 結果と考察 Up: 第7章 実験 Previous: 第7章 実験

7.1 実験概要

第6章までに述べたことを確認するため、電子計算機上でランダム層モデルについて、実験を行なった。

   figure353
図 7.1: 実験を行なうパターン

7.1 を参考にして次のような実験を行なった。(図 7.1 において、例えば 、a はパターンを学習させる際に 1 と 5 のパターンを同一パターンとすることを意味する。)

  1. 学習パターン内に同一パターンがない場合の想起能力を測定する ( case 0 ) 。
  2. 学習パターン内に同一パターンが1サイクル内に1つある場合の想起能力を測定する ( case a ) 。
  3. 学習パターン内に同一パターンが1サイクル内に2つある場合の想起能力を測定する ( case a,b or a,c ) 。
  4. 学習パターン内に同一パターンが1サイクル内に3つある場合の想起能力を測定する ( case a,b,c ) 。
  5. 学習パターン内に同一パターンが1サイクル内に4つある場合の想起能力を測定する ( case a,b,c,d ) 。

尚、実験は全て1層あたりのニューロン数173、学習パターン15、サイクル周期5、サイクル数3とした。 また、学習パターンは乱数を用いて作成したランダムパターンとし、 学習パターンに乱数によってノイズを加えたものを初期値とする。 ノイズを加える範囲は15%から50%まで1%刻みで増加させ、各値で100通りの初期値について測定を行なった。

ここで、パターンをランダムパターンとした理由を示す [1] 。 連想記憶モデルでは、第5章にて述べたようにパターンが互いに直交していることが大切である。 各成分が1か0かをほぼ等しい確率でとる場合、 パターンベクトル tex2html_wrap_inline1571 の大きさは、 ベクトルの成分の数を n とすれば、

  equation367

であり、他のベクトル tex2html_wrap_inline1577 との内積は

  equation373

となり、平均値が0、標準偏差が tex2html_wrap_inline1583 程度にばらついている。 故に tex2html_wrap_inline1571tex2html_wrap_inline1577 の角度 tex2html_wrap_inline1215

  eqnarray382

程度で、 n が大きければ十分直交状態に近くなる。 このために実験ではランダムパターンを用いた。

数字やアルファベットなどの文字パターンはランダムパターンと違い、 成分の値が1をとる確率と0をとる確率が等しいとはいえず、直交状態とはいえない。 そのため、このような場合には直交学習を行なう [5] 。

直交学習とは、

  eqnarray394

となるベクトル tex2html_wrap_inline1609 を求めて、シナプス荷重を

  equation402

とすることで、ランダムパターンによる直交化と同じ効果がでる。

上記の理論はデータに誤りのない場合のことで、ノイズが入った場合の誤り訂正能力について考えてみる。 学習パターンに確率 p でノイズが加わるとする。 パターン tex2html_wrap_inline1435 にノイズが加わったパターンを tex2html_wrap_inline1619 とすれば、式(5.9)は

  eqnarray414

となる。 N を加えることによって、確率 p で数値1が0に、 0が1に変わるため、 N は確率 p/2 で値2、 確率 p/2 で値0をとるベクトルである。 式(7.6)の右辺第2項が妨害項である。 r = k での妨害項は

  eqnarray437

であり、本来の値 n に対して -2pn/n = -2p の割合で影響が出る。

直交学習を行なった場合、 tex2html_wrap_inline1681 を理論的に求めるのは厄介であるため数値計算による結果のみを示す。 ランダムパターンと同様に r = k

  eqnarray450

ここで E はそれぞれの tex2html_wrap_inline1701 の平均値、 tex2html_wrap_inline1703 は各要素が1をとる確率で本実験では0.264、 tex2html_wrap_inline1705 は0をとる確率で今回は0.736である。 本来の値1に対して -0.00118 p n の割合で影響が出る。 これに n = 173 を代入すれば直交学習の方が妨害項の割合が大きくなる。 また、 tex2html_wrap_inline1457 でランダムパターンでは妨害項の平均値が1であるのに対し、 文字パターンでは妨害項の平均は正の値を持っており、これも影響してくる。 この結果から、ある程度ニューロン数が大きくなり、更に1と0が出る確率に差が出てくると、直行学習の誤り訂正能力が悪くなることが確認された。

すなわち、記憶能力を最大限に引き出そうとするならば、1と0の出る確率がほぼ等しく、ランダムに近い現れ方をするような符合化をするしかないといえる。 本論文ではニューラルネットワークの特性の限界を調べるため、ランダムパターンを用いた。



Deguchi Toshinori
1996年10月08日 (火) 12時41分40秒 JST