実験モデル

今回の実験で用いるカオスニューラルネットワークのモデルは、相互結合型ネットワークである。各ニ ューロンの出力は、式(3.5)に記した通りである。

今回の実験で用いたパラメータを、Table 6.1に示す。


表 6.1: Various Parameters
Parameters Value Parameters Value Parameters Value  
$\alpha$ 2.0 $v_{ij}$ 2.0 $\theta_i$ 0  
$ k_s $ 0.95 $k_m $ 0.1 $ k_r $ 0.95  

今回の実験では、1と$-1$の2値がランダムで配置されている$10\times10$のバイナリパターンを入力とし 、逐次学習を用いてカオスニューラルネットワークに学習させる。一つ目のパターンを連続で$N$ 回入力し、次に二つ目のパターンを連続$N$回入力し、用意したパターン全てを同様に入力し終え るまで繰り返す。これで1セットの学習が完了したとし、これを$M$セット行う。本研究では、学 習させるパターン数の増加に伴い、逐次学習時の連続学習回数やセット数を調節し、カオスニ ューラルネットワークが全てのパターンを記憶できたと判断できるまで学習を行った。

本研究では、パーセプトロンを二つ用いた。一つは特徴抽出を行うものとして、もう一つはシナプス前 抑制信号を生成するものとしてである。特徴抽出用のパーセプトロンは、入力層が100、中間層が120で、 出力層は学習パターン数が10の時は4、20と30の時は5とした。

シナプス前抑制信号用のパーセプトロンの入力層は、検索したい出力と実際に得られた特徴から構成し た。例えば、検索したい特徴が1001であり、得られた特徴が1011であったら、この二つを結合させた 10011011をシナプス前抑制信号用のパーセプトロンの入力とした。中間層は3、出力層は1とした。シナ プス前抑制信号用のパーセプトロンは望ましい特徴であれば1、そうでなければ0を出力するように学習 させた。また、学習回数は両特徴抽出機構とも50,000回ずつにした。

ネットワークの出力が検索したい特徴と一致した特徴を示した場合、ネットワークの出力を維持する必要がある。複数個のランダムパターンを用いる本研究では、式(5.3)に示した$1.0$という抑制値では出力を維持することができない。そこで、本研究では式(5.3)を式(6.1)のようにして用いる。式(6.1)に示すように、望ましい出力を示した場合に抑制値を10倍にすることで、ネットワークが出力を維持することができることは、実験的にわかっている。

\begin{displaymath}
\Upsilon ( Z ) = \left\{ \begin{array}{ll}
10 & (0 \le Z \le...
...\\
\Upsilon_{cha} & ( gs < Z \le Z_{max})
\end{array} \right.
\end{displaymath} (13)



Deguchi Lab. 2017年3月6日