next up previous contents
Next: ラベル付け Up: 自己組織化マップ Previous: 自己組織化マップ   目次

自己組織化マップの計算過程[3][6]

自己組織化マップは図3.2に示すように入力層と競合層の2つに分かれて競合学習を行うと説明した。

今、入力層から競合層への入力を$x$と定義する。$x$は入力データベクトルと呼ばれ、1以上の次元を持つ。図3.2には、入力層のニューロンが複数個あるが、各々のニューロンがそれぞれの次元に対応した出力を行っていると考える。

また、競合層のニューロンと入力層のそれぞれのニューロンとの結合強度は総称して参照ベクトルと呼ばれ、$m_i$で表される。添え字である$i$は、競合層のニューロンの番号である。 ここで、入力ベクトルと各ニューロンの参照ベクトルとのユークリッド距離で競合層のニューロンを競合させる。

勝者ニューロンを$c$とすると、式3.1または式3.2で表される。

\begin{displaymath}
c = \arg \min_i \{\vert\vert x-m_i\vert\vert\} \\
\end{displaymath} (3.1)


\begin{displaymath}
\vert\vert x-m_c\vert\vert = \min_i \{\vert\vert x-m_i\vert\vert\}
\end{displaymath} (3.2)

3.3のように、勝者ニューロンは自らの参照ベクトルと入力ベクトルを近づける学習を行う。また、勝者ニューロンに近いニューロンについても、同じ入力から何かを学習しようと活性化するため、参照ベクトルを同様に更新させる。

\begin{displaymath}
m_i(t+1)=m_i(t)+h_{ci}(t) \cdot \{x(t)-m_i(t)\}
\end{displaymath} (3.3)

また、$h_{ci}$は勝者ニューロンとの距離によりガウス関数で減衰する係数であり、式3.4で定義される。

\begin{displaymath}
h_{ci}=\alpha (t) \cdot \exp{\frac{-\vert\vert r_c - r_i\vert\vert^2}{2 \sigma ^2 (t)}}
\end{displaymath} (3.4)

ここで、$r_i$$i$番目のニューロンの競合層上での位置、$r_c$は勝者ニューロンの競合層上での位置を示す。また、$\alpha (t)$は学習率係数、$\sigma ^2 (t)$は学習半径という。ともに学習を収束させるため学習回数$t$で減衰する係数である。

図 3.3: 学習段階での参照ベクトルの更新
\includegraphics[height=45mm]{fig3-2.eps}


Deguchi Lab. 2011年3月4日