next up previous contents
Next: ニューロン Up: oguri Previous: 目次   目次

序論

ニューラルネットワークは、ニューロンという入力と出力を持つ最小の情報処理単位で構成されるネットワークである。ニューロンは神経細胞のことであり、神経細胞の集合体が人間の大脳である。 しかしニューラルネットワークの目的は大脳の再現ではない。脳を構成するニューロンの数は多く、それらの結合は複雑であり、また脳の機能も複雑であるため、再現するのは困難である[1]。 ニューラルネットワークは、脳をあくまで手本とし、その知的機能を実現することで工学的応用を図るものである。したがってニューロンの振る舞いは実際よりも単純化される。 単純化されたニューロンの基本的な動作は、入力値と結合の強さを表す重みの積和演算を行い、その演算結果を出力関数により変換して出力を決めることである。 このような処理単位で構成されるネットワークの特徴が、並列性と学習機能である。

1958年Rosenblattは、これからの原理に基づいたパターン学習をするパーセプトロンを作った。 1969年にはMinskyとPapertによりパーセプトロンの限界が呈示されたが、1986年にRumelhart、Hinton、Williamsによりまとめられた階層型ニューラルネットワークの誤差逆伝搬法(back propagation)が定式化された[2]。 ネットワークの学習は、ニューロン間の結合強度を正しい出力が得られるように徐々に更新して、結合強度を調整することでなされる。 この学習機能に注目し、ニューラルネットワークは多方面に応用されている。その利用法の一つに音声などの時系列の認識・想起がある。 多層パーセプトロンである階層型のニューラルネットワークに対して情報を入力することでさらに次の情報を出力させる。 これを繰り返すことで全時間の情報を想起するというものである。

本研究では為替相場の変動にニューラルネットワークを用い、将来の為替の変動を予測してみる。 最も予測精度が高かった際の中間層や重みを求め、学習の進み具合や予測結果について考察、検討する。



Deguchi Lab. 2015年3月4日