シナプス前抑制

カオスニューラルネットワークの動的想起状態を維持、制御するためには、各パラメータを制御 する必要がある。しかしこの方法では、ネットワークを外部から制御する必要がある。 シナプス前抑制では、外部から手を入れることなく、直接カオスニューロンの結合荷重を変化さ せることにより、動的想起状態の制御を行うことが可能である。 そこで本研究では、シナプス前抑制を用いたネットワークの制御を行うこととする。 ここで言うシナプスとは、ニューラルネットワークにおける結合荷重と同義である。

シナプス前抑制を用いない場合、例えばあるカオスニューロンAから他のカオスニューロンBへの 出力は、式(5.1)の様にモデル化される。


\begin{displaymath}
X' = w X
\end{displaymath} (10)

$X$´ :カオスニューロンBへの入力

$w$:カオスニューロンAとB間の結合荷重

$X$ : カオスニューロンAの出力

式(5.1)の時にシナプス前抑制を用いた場合、式(5.1)は 式(5.2)の様にモデル化する事が出来る。


\begin{displaymath}
X' = \Upsilon ( Z ) w X
\end{displaymath} (11)

$\Upsilon (Z) $: シナプス前抑制関数

$Z$ :特徴抽出から得られた制御信号

つまり、シナプス前抑制とは、カオスニューラルネットワークの状態を制御するために、 結合荷重にある値を掛け、結合荷重の大きさを制御することであると言える。

過去の研究により、比較的記憶検索の成功率が高いシナプス前抑制関数として、式(5.3) のような階段関数があげられる。[6]


\begin{displaymath}
\Upsilon ( Z ) = \left\{ \begin{array}{ll}
1.0 & (0 \le Z \l...
...\\
\Upsilon_{cha} & ( gs < Z \le Z_{max})
\end{array} \right.
\end{displaymath} (12)

$gs$:抑制閾値

$ \Upsilon_{cha} $ : 抑制値

$Z_{max}$:抑制値$Z$の最大値

本研究では、ランダムパターンにおける記憶検索の成功率を高める為のシナプス前抑制関数の モデルを検討する。



Deguchi Lab. 2017年3月6日