next up previous contents
Next: 実験結果 Up: 手数に応じたニューラルネットの分割 Previous: 手数に応じたニューラルネットの分割

前提条件

これまでの実験では、序盤から終盤まですべて1つのネットワークに学習させていたが、この実験では全60手をいくつかに分割し、それぞれ別のネットワークに学習させていく。

この方法は、序盤で有利であったパターンが後半になっても有利とは限らないという考えを元にしたもので、ほかの評価アルゴリズムの中にも取り入れられている方法である。

まずパーセプトロンに4万棋譜をそれぞれ1回ずつ学習させる。ただし4万棋譜の中に同一の棋譜は存在しないものとする。 その後、学習に使用した棋譜とは別の4万棋譜をパーセプトロンに入力し、そのときの誤差を出力する。

全60手をいくつかに分割してそのときの学習誤差について検証する。

各種定数は以下のとおりに設定する。7.4で学習係数についての検証をして、ある程度小さいほうがいいことがわかったが、ここでは学習を高速化させるためETA=0.1としている。

[各種係数]
入力層の数:128(0〜63:白石の盤面パターン 64〜127:黒石の盤面パターン)
中間層の数:8
出力層の数:1
ETA=0.1
ALPHA=0.9
分割数:1,3,5,12,15,20


Deguchi Lab.