next up previous contents
Next: 学習 Up: カオスニューラルネットワーク Previous: カオスニューロン   目次


カオスニューラルネットワーク

カオスニューロンによって構成されたネットワークをカオスニューラルネットワークと呼ぶ。 カオスニューロンの入力はネットワーク外部からの入力と、ネットワーク内部での他ニューロンからのフィードバック入力の2種類を考慮する。 $M$ 個の外部入力と $N$ 個のニューロン間相互結合を持つカオスニューラルネットワークの $i$ 番目のニューロンの振る舞いは 式(3.2)で表される。


\begin{displaymath}
\left.
\begin{array}{ll}
x_i(t+1) = & f\biggl[\displayst...
...{t}k_r^d g \{x_i(t-d)\}-\theta_i\biggr]}
\end{array} \right.
\end{displaymath} (3.2)

ここで $x_i(t+1)$ とはi番目のカオスニューロンの時間 $t+1$ における出力値である。 $A_{j}(t)$ は時刻 $t$ における $j$ 番目の外部入力、 $v_{ij}$$A_{j}(t)$ からi番目のニューロンへの結合係数、$w_{ij}$$j$ 番目のニューロンから $i$ 番目のニューロンへの結合荷重、 関数 $h$ は出力と次の刺激に対する不応性との関係を与える関数、 $\theta_i$$i$ 番目のニューロンのしきい値、$\alpha$ は不応性項をスケーリングするパラメータ、 $k_s,k_m,k_r$ はそれぞれ外部入力効果、フィードバック入力効果、不応性効果の時間減衰定数である。

式(3.2)において、外部からの入力を表す項を $\xi_i$ 、 ニューロン間の相互結合を表す項を$\eta_i$、ニューロン自身の不応性の項を $\zeta_i$ で表し、 $h$$g$ を恒等関数とするとそれぞれ次のように簡略化できる。


$\displaystyle % \left.
\xi_i(t+1)$ $\textstyle =$ $\displaystyle \sum_{j=1}^{M}v_{ij}\sum_{d=0}^{t} k_s^d A_j(t-d) = k_s\xi(t)+\sum_{j=1}^{M} v_{ij}A_j(t)$ (3.3)
$\displaystyle \eta_i(t+1)$ $\textstyle =$ $\displaystyle \displaystyle{\sum_{j=1}^{N}w_{ij}\sum_{d=0}^{t}k_m^d h\{x_j(t-d)\}} = k_m\eta_i(t)+\displaystyle{\sum_{j=1}^{N}w_{ij}x_j(t)}$ (3.4)
$\displaystyle \zeta_i(t+1)$ $\textstyle =$ $\displaystyle \displaystyle{-\alpha\sum_{d=0}^{t}k_r^d g \{x_i(t-d)\}-\theta_i} = k_r\zeta_i(t)-\alpha x_i(t)-\theta_i(1-k_r)
% \end{array} $ (3.5)

簡略化した式を用いると $i$ 番目のカオスニューロンの出力値は式(3.6)で与えられる。


\begin{displaymath}
x_i(t+1) = f[\xi_i(t+1)+\eta_i(t+1)+\zeta_i(t+1)]
\end{displaymath} (3.6)

本研究で用いるニューロンの出力関数 $f$ は次のように表される。 $\epsilon$ はシグモイド関数の立ち上がりの鋭さを表すパラメータである。


\begin{displaymath}
f(x) = \frac{2}{1-\exp(-\frac{x}{\varepsilon})}-1
\end{displaymath} (3.7)



Deguchi Lab. 2016年3月1日