結果的に図3.4のように参照ベクトルによってベクトル空間を分割すると、 参照ベクトルが密集している領域では分割した空間が小さいのに対して、 参照ベクトルが希薄な領域では分割した空間が大きくなっていることが分かる。 したがって、これらの分割した部分空間に属する入力データの数が 一様になる傾向があることが分かる。
これは参照ベクトルを入力データを代表するテンプレートであると見なすと、 全ての入力データを競合層の参照ベクトルの数(すなわち競合層にあるニューロンの個数) でベクトル量子化したことと等価になる。さらに自己組織化マップで行った競合学習では、 入力データベクトルの分布に適応した量子化を行っているため、 一様に量子化した場合と比べて量子化誤差が小さくなる。
次に、競合層におけるニューロンの位置空間について考える。 学習を行った自己組織化マップは、 勝者ニューロンに近いものがそれに近づくように参照ベクトルを更新していく。 従って、結果的に競合層の近くにあるニューロンどうしの参照ベクトルは類似するようになる。 すなわち、競合層を適当な領域で分割していくと、 部分領域に属するニューロンにラベルづけされているものは、 互いに同じパターンに属するということが言える。
例えば、様々な種の動物の特徴を入力データとして学習させた場合に 競合層のニューロンとラベルの位置関係を見ると肉食動物と 草食動物が領域ごとに分類されるようになる。[3]