next up previous contents
Next: ニューロンとニューラルネットワーク Up: 無題 Previous: 目次

序論

人間の脳は優れた記憶能力、学習能力を持っており、それらの能力はニューロンという神経細胞が構成するネットワークによって生み出されている。 人間の外部からの刺激を受け取ると、その刺激を信号に変換し、脳に送られ情報処理される。 また、一度受け取った刺激はネットワークにより学習され、以後即座に想起することが出来る。 また、この処理速度はコンピュータを遥かに上回る。 その能力を疑似的に再現し、コンピュータの処理に応用したものがニューラルネットワークである。

ニューラルネットワークはモデル化したニューロンを構成要素として神経回路を再現する。 ニューラルネット研究は、1943年のマッカロ(W.S.McCulloch)とピッツ(W.Pitts)の研究に始まる。 彼らは、ニューロンは興奮状態になると、出力側の軸索に1に量子化された電気パルス列の信号を出力し、非興奮状態にある時は0に量子化された信号を出力すると考えた。 また、ニューロンには樹状突起がありそこに他のニューロンからの軸索が結合しており、ここから信号を受けとる。 この結合部はシナプス結合と呼ばれる。受けとった出力の総和がニューロンごとに決められたしきい値を越えると興奮し、そのしきい値以下なら興奮しないと考え、ニューロンのモデル化を行なった。 彼らはシナプス結合の強さはすべて等しいと考えていたが、後の研究者達はシナプス結合の強さはそれぞれ異なり、その強さによった刺激が伝搬されると修正した。

1949年にヘッブ(D.O.Hebb)は、ニューロンが興奮状態となり、刺激を出力すると、その刺激を伝えた結合はより強くなりより刺激を伝えやすくなるという仮説を立てた。 この仮説によりニューロンが可塑性を持ち、認識や記憶のもとになっていると主張した。

1982年、神経回路網のダイナミクスの研究を行なっていたアメリカの物理学者ホップフィールド(J.J.Hopfield)によってホップフィールドのモデルが提案された。 彼は、ニューロンの発火のアルゴリズムと結合係数の組が決められた神経回路網に、適当に与えられた興奮パターンが安定には存在しえず変化していくとき、それにつれて必ず減少していくエネルギー関数が定義でき、その関数の極小値に達するときパターンは安定になるという神経回路網のダイナミクスを示した。 この極小値に対応するパターンを記憶パターンとすれば、ネットワークは適当な刺激パターンから記憶パターンを想起する連想記憶装置となるわけである。

一方、生体としてのニューロンの研究により、ニューロンにはカオス的な反応が認められた。 それを受けて1990年、合原らがカオスニューロンモデルを発表した。カオスの要素を導入することで、ニューラルネットワークがより実際の脳の動作に近くなると期待された。

本研究ではカオスニューロンのネットワークに逐次学習法を用いて学習を行なった。 逐次学習法とはヘッブの理論に基づき、互いのニューロンが同じ状態にあるときシナプス結合を強め、互いに異なる状態にあるときはシナプス結合を弱めるという動作を行なうことで、個々のニューロンが自分自身の内部状態により結合を変化させるか判定を行ない、追加学習を行なう学習法である。 従来の学習方法では2つのニューロン間での結合の強さは同じ(対称)となるが、逐次学習法では強さが違ってくる(非対称)という特徴がある。 そこで、結合の強さが違うことによる利点を見つけるために逐次学習法によって学習を行なったネットワーク結合の強さに処理を加え対称とした時の学習の様子を調べた。 処理としては、二つの結合の強さの平均を取る、絶対値の大きい方を取る、絶対値の小さい方を取るという処理を行なった。 また学習に用いたパターンとしては、アルファベットのAからZの大文字26文字を用いた。 アルファベットのパターンを用いることにより、パターンがどのくらい学習されているかが人間の視覚にもわかりやすいよう表現するためである。 以上のことをもとに逐次学習法における結合の強さの非対称性による利点を探していく。



Toshinori DEGUCHI
2003年 4月23日 水曜日 17時51分42秒 JST