これらの定義のもとで計算した中間 j の入力層-中間層の論理関数による出力と、 ニューラルネットで予測実験を行ったときの中間 j の実際の出力を比較した結果を図に示す。 ここで、論理関数による出力の計算では、入力は順次ニューラルネットでの入力の値 (入力 i の出力値)を用いている。中間0のグラフを図9.5に、 中間1のグラフを図9.6に、中間2のグラフを図9.7に、 中間3のグラフを図9.8に示す。グラフの縦軸がニューロンの出力または論理関数による出力の値で、 横軸が位相である。凡例のNNとはニューラルネットの出力を、論理とは論理関数の出力を示す。
図 9.2: 入力層-中間層の論理関数とネットワークの出力の比較:中間1
図 9.1: 入力層-中間層の論理関数とネットワークの出力の比較:中間0
図 9.4: 入力層-中間層の論理関数とネットワークの出力の比較:中間3
図 9.3: 入力層-中間層の論理関数とネットワークの出力の比較:中間2
それぞれの図の論理関数による出力(凡例の論理)について見てみる。ここでの誤差とは、 単にニューラルネットの出力と論理関数による出力との差を指す。 論理関数による出力はニューラルネットの複雑な計算の近似であるため、誤差は概して大きくなることが予想される。 そのため、ここでは誤差の大きさについては特に触れず、論理関数による出力の変化の概形が ニューラルネットの出力の変化と比較してどうであるか見てみることにする。 図9.5では、位相が108度のところまではニューラルネットとほぼ同じ出力であり、 つぎの位相での出力からは誤差が大きくなっているが、傾向としては大筋つかめている。 図9.6では、ニューラルネットの出力の傾向を大筋つかめている。 図9.7ではニューラルネットの出力も論理関数の出力もほぼ1で一定になっている。 図9.8では、論理関数のグラフは常に0になっており、 ニューラルネットの出力とは全く違う形になっている。