next up previous contents
Next: 自己組織化マップによる学習と気象予測 Up: 自己組織化マップ Previous: ラベル付け   目次


学習後の自己組織化マップの特徴[5]

図 3.4: 入力データベクトル空間の参照ベクトルによるベクトル量子化
\includegraphics[height=60mm]{fig3-3.eps}
このような学習を行うと、入力データベクトル空間において入力データが多く現れる競合層の領域ではニューロンがよく勝ち残るため、参照ベクトルが頻繁に更新され、結合重みベクトルが密集する。これに対し、入力データが少ない競合層の領域では勝ち残るニューロンが少なく参照ベクトルも希薄になる。

結果的に図3.4のように参照ベクトルによってベクトル空間を分割すると、参照ベクトルが密集している領域では分割した空間が小さいのに対して、参照ベクトルが希薄な領域では分割した空間が大きくなっていることが分かる。したがって、これらの分割した部分空間に属する入力データの数が一様になる傾向があることが分かる。

これは参照ベクトルを入力データを代表するテンプレートであると見なすと、全ての入力データを競合層の参照ベクトルの数(すなわち競合層にあるニューロンの個数)でベクトル量子化したことと等価になる。さらに自己組織化マップで行った競合学習では、入力データベクトルの分布に適応した量子化を行っているため、一様に量子化した場合と比べて量子化誤差が小さくなる。

次に、競合層におけるニューロンの位置空間について考える。学習を行った自己組織化マップは、勝者ニューロンに近いものがそれに近づくように参照ベクトルを更新していく。従って、結果的に競合層の近くにあるニューロンどうしの参照ベクトルは類似するようになる。すなわち、競合層を適当な領域で分割していくと、部分領域に属するニューロンにラベルづけされているものは、互いに同じパターンに属するということが言える。

例えば、様々な種の動物の特徴を入力データとして学習させた場合に競合層のニューロンとラベルの位置関係を見ると肉食動物と草食動物が領域ごとに分類されるようになる。[3]




Deguchi Lab. 2011年3月4日