カオスニューラルネットワークの多層化

カオスニューラルネットワークを多層化したモデルとして, Figure 6.1のように 表される江本らによって提唱されたモデルがある。[6] このモデルは, 入力層, 海馬モジュール, 連合野モジュールの3層からなるモデルであり, 以下の現象を発現可能としたものである。




図 6.1: Network structure of model modeled by Emoto etc.
\includegraphics[height = 10.0cm]{image1.eps}
このモデルの海馬モジュールのニューロンの状態は次の式で与えられる。
$\displaystyle x_i^{ca}(t + 1)$ $\displaystyle =$ $\displaystyle f[ \sum_{d=0}^t k_s^d A_j^{ca} (t - d)$  
    $\displaystyle + \sum_{d=0}^t k_f^d \sum_{j=1}^N \omega_{ij}^{ca} x_j^{ca}(t - d)$ (13)
    $\displaystyle - \alpha \sum_{d=0}^t k_r^d x_i^{ca} (t - d) - \theta]$  
       
$\displaystyle A_i^{ca}(t)$ $\displaystyle =$ $\displaystyle s[x_i^{ip}(t)]$ (14)
$\displaystyle s(u^{ip})$ $\displaystyle =$ \begin{displaymath}\begin{cases}
8.75    \mbox{if}  u > 0.5\\
1.25    \mbox{else}
\end{cases}\end{displaymath} (15)



また, このモデルの連合野モジュールのニューロンの状態は次の式で与えられる。
$\displaystyle x_i^{cx}(t + 1)$ $\displaystyle =$ $\displaystyle f[ \sum_{d=0}^t k_s^d A_j^{cx} (t - d)$  
    $\displaystyle + \sum_{d=0}^t k_f^d \sum_{j=1}^N \omega_{ij}^{cx} x_j^{cx}(t - d)$ (16)
    $\displaystyle - \alpha \sum_{d=0}^t k_r^d x_i^{cx} (t - d) - \theta]$  
       
$\displaystyle A_i^{cx}(t)$ $\displaystyle =$ $\displaystyle s[x_i^{ip}(t) , x_i^{cx}]$ (17)
$\displaystyle s(u^{ip} , u^{cx})$ $\displaystyle =$ \begin{displaymath}\begin{cases}
8.75    \mbox{if}  u^{ip} > 0.5  or  u^{cx} > 0.5\\
1.25    \mbox{else}
\end{cases}\end{displaymath} (18)



$ ca$ , $ cx$ , $ ip$ はそれぞれ, 海馬モジュール, 連合野モジュール, 入力層を示すインデックスである。

このモデルでは式(6.7), 式(6.8)の条件を共に満たすとき, 式(6.9)の式に基づいて学習を行う。

similarity$\displaystyle (t - 2)$ $\displaystyle \neq$ $\displaystyle N$ (19)
similarity$\displaystyle (t - 1)$ $\displaystyle =$ similarity$\displaystyle (t) = N$ (20)
$\displaystyle \Delta\omega_{ij}$ $\displaystyle =$ $\displaystyle \beta(2x_i (t) - 1 )(2x_j (t - 1) - 1 )$ (21)
       
similarity $\displaystyle =$ $\displaystyle \sum_{i = 1} ^ N x_i^{\mbox{\scriptsize index1}} x_i^{\mbox{\scriptsize index2}}$ (22)

$ N$ 素子数
$ \beta$ 学習定数

Deguchi Lab. 2017年3月6日