next up previous contents
Next: 前実験 Up: 学習実験 Previous: 学習実験

通常の学習

初めに図 3.2 の形状のネットワークに 図 5.2 に示される教師信号を与えて学習を行なわせると, 学習回数に対する出力の誤差は図 6.1 のようになる. この時の素子数は入力層・出力層は音の長さ・高さが入力されるために2個ずつ, 中間層には30個,内部記憶層では30個とした. 縦軸の0.125の値に引いてある線は学習成功となる規定の値であり, 学習途中で量子化誤差を行なわない程度にまで誤差が小さくなっている時があるが, このグラフはある一音の出力とその教師信号との誤差であるため, この1音に関して学習が成功していても他の音では学習が成功していない ために学習が続いている. 最終的には全ての音に関しては間違った量子化をしない範囲には収まらなかった. これは与えられる教師信号が音の長さと高さの二つしかなく, 誤差による学習の影響が少ないため, 内部記憶層の結合荷重の学習が進まないからであると思われる.

   figure288
図 6.1: 内部記憶層を持つネットワークでの学習結果

またElmanのネットワークにも同様の実験を行なった. この場合の素子数は性能を比較するために中間層に30個, 文脈層の素子数は中間層と同じになるため 30個と先の実験と条件が同じになるようにした. その学習回数-誤差特性は図 6.2 のようになり, 誤差は40万回までは規定値以内であるがその後不安定なまま増加し 最終的に学習は成功しなかった. これは第3章で述べたように,過去の情報を直接使用するだけでは 同じフレーズを繰り返すような時系列は学習できないからである. 内部記憶を持つネットワークと比較してみると, その誤差は早い段階で小さくなるが 教師信号の影響が少ないために一度不安定になると誤差が上昇する ようになってしまう.

次の節より内部記憶層を用いて学習を成功させるための実験について述べる.

   figure296
図 6.2: Elmanのネットワークでの学習結果



Toshinori DEGUCHI
2003年 4月11日 金曜日 11時42分54秒 JST