next up previous contents
Next: 参考文献 Up: 無題 Previous: ルール抽出についての考察

結論

連続値の時系列である正弦波を学習させた内部記憶を持つニューラルネットについて、 本来は2値出力を扱うニューラルネットからのルール抽出法を適用して、 どのようなルールが抽出されるか、またそれはどのような評価ができるかを検証した。

学習においては、正弦波はほぼ正確に学習され、また学習回数が多いほど学習中の誤差は小さくなるが、 予測による誤差は必ずしも小さくならないことが分かった。

論理式として取り出されたルールは、入力の値さえ分かれば簡単に出力を求めることができるものになった。 したがって、ルールの信頼性を無視すれば、学習された時系列の性質を簡単な数式(論理式)として 表現することができたので、ルール抽出の有効性は高いと評価できる。

ルールの有効性を評価する際には、学習された時系列をルールによって忠実に再現できるかどうかも重要である。 しかし、実験を行った結果、抽出されたルールでは、学習させた時系列の特性を十分に表現できているとはいえなかった。

内部記憶層はニューラルネットにおいて、 ひとつ前の時点での出力の一部を結合荷重を通して入力にフィードバックしているものであるので、 実際の入力として使用するデータを入力するわけではない。 さらに、内部記憶層の出力の値は、それまでに各層の計算と入力へのフィードバックを繰り返したプロセスに大きく影響される。 今回の実験では、実際の入力のニューロンは1個であるのに対し、内部記憶層のニューロンは4つある。 つまり、得られるルールに含まれる変数5個のうち、 4個はニューラルネットにおいて計算を繰り返さなければわからないということになる。 よって、内部記憶層については、そのニューロンの論理式がどれだけニューラルネットに 即しているかということより、抽出されたルールから、 内部記憶層が予測においてどのような役割を持っているかを判断することが重要である。 今回はニューラルネットの出力との比較しか行っていないため、 これについては今後の研究で詳しく検証する必要がある。

また今回適用したルール抽出法は本来連続値を扱うニューラルネットに対して行なう手法ではないので、 このようなルール抽出法の適用は無理があったともいえる。しかし、例えば論理式を導く手順のところで、 式(5.1)の条件を細分化して複数用意し、 条件により関数を変えるという方法でより正確なルール抽出ができる可能性も考えられる。 つまり式(5.1)のようにuが正か負かで決めてしまうのではなく、 その値に応じて段階的に条件をつけて、出力の大きさも変化するようにことである。 例えば仮に3段階に条件をつけるとするならば、u<-1、 tex2html_wrap_inline2473u>1と条件を細かくし、 u<-1ならばその項は論理関数に加えず、 tex2html_wrap_inline2473 ならば加えるが項に係数0.7をつけ (0.7×{ tex2html_wrap_inline2037 }というように)、 u>1ならばそのままの形で加える、という具合にである。 また、論理関数による出力の計算法で、“+”や“ tex2html_wrap_inline2341 ”の演算の仕方を変えるという手段も考えられる。

今回適用したルール適用法により抽出されたルールは、 「わかりやすい表現はできているが、信頼性は低い」との評価ができる。 なるべくわかりやすさを低下させず、なおかつ正確に、学習させた知識を表現するルールの抽出法を提案・検討していくことが今後の課題であると結論付ける。



Deguchi Lab.