next up previous contents
Next: 手数に応じたニューラルネットの分割 Up: 盤面の単純入力による学習係数の調整実験 Previous: 実験結果

考察

  ETA=0.1のときにグラフに偏りができているのは、過学習のためだと考えられる。 おそらく、1試合中にニューロンが過剰に学習してしまうため以前に学習したことを忘れてしまい、常に最後に学習した教師信号のみを覚えてしまうのだろう。 そのため、最終石差が0のときに学習誤差が0になっていないのだと考えられる。

次に、ETA=0.05,0.01の図を見るとETA=0.1のときとは違い、グラフに偏りが無い点と、終盤に近づくと学習誤差が減少することより、学習が行われていると考えられる。 ETA=0.005,0.001では、終盤での学習誤差がETA=0.01のときより大きいことが分かる。普通であれば学習誤差が減少すると考えられるのだが、そうでないのはおそらく学習回数が十分でなかったと考えられる。 この問題は学習回数を増やすことによって改善することができると考えられる。

最後に、学習誤差と学習係数の傾向を図 7.11から読み取ると、中後半25手〜55手においてはETA=0.01のときに誤差が最大0.005まで下がり、終盤55手〜60手付近では顕著に下がっている。 序盤での誤差が大きいのは仕方が無いとしても、中盤では誤差があまり下がらず、終盤においては1手打つごとに急激に誤差が変動している。

実際にどのくらいの石差があるか、ETA=0.01 の59手目(グラフでは0手目が初手なのでX=58の位置にあたる)の誤差から計算してみる。 この誤差は0.0043であり、式6.1と式4.3から逆算すると石差は11.45となる。 60手目(最終手)についても同様に計算すると、石差は8.10となる。 定量的な判断が出来ないので、この値がどれほどになればいいかということは言えないが、実際にこの評価関数を自作の対戦プログラムに用いて対戦してみた。 対戦プログラムに使われている探索アルゴリズムはAlpha-Beta法と呼ばれるものである。本来ならこれに各種高速化技法を使うのであるが、本研究のテーマとは異なるため使用していない。 先読みは8手とし、対戦してみた結果、素人に負けるほど弱いということが分かった。 よって、この学習データは実戦には使えないと考えられる。



Deguchi Lab.