next up previous contents
Next: ニューロンとニューラルネットワーク Up: watanabe Previous: 目次   目次

序論

人間の脳は優れた記憶能力、学習能力を持っている。脳には140億個にも及ぶニューロンと呼ばれる神経細胞があるといわれ、これらが構成するネットワークによって記憶能力、学習能力は生み出されている。人間は、視覚、聴覚、触覚といった外部からの刺激を受けとると、その刺激を信号に変換し、脳内のネットワークに送り情報処理を行なっている。また、一度受けとった刺激はネットワークによって学習され、即座に知覚として想起することができるようになる。また、この処理速度はコンピュータを遥かに上回る速度で行なわれる。ニューラルネットワークとは、この脳内のネットワーク処理をモデル化し、コンピュータ上で再現するものである[2]。脳内のネットワークをモデル化することにより従来の情報処理では実現が難しい柔軟な処理を行なうことが可能になってくると考えられる。

ニューラルネットワークの研究は1943年のマッカロ(W.S.McCulloch)とピッツ(W.Pitts)の研究に始まる。彼らは、ニューロンが興奮状態になると、ニューロンの出力部である軸索に1に量子化されたパルス列の電気信号を出力し、非興奮状態にある時は0に量子化された信号を出力すると考えた。ニューロンには他のニューロンからの入力を受け取る樹状突起があり、そこに軸索が結合している。この結合部はシナプス結合と呼ばれる。彼らは、シナプス結合によって受け取った出力の総和がニューロンごとに決められたしきい値を越えると興奮し、それ以下であれば興奮しないと考えニューロンのモデル化を行なった。彼らのモデル化ではシナプス結合の大きさはすべて同じと考えられていたが、後の研究者たちはシナプス結合の強さはそれぞれ異なり、この強さによって刺激の伝搬量が変わると考えた。

1949年に、ヘッブ(D.O.Hebb)は、ニューロンが興奮状態となり、刺激を出力すると、その刺激を伝えた結合はより強くなりより刺激を伝えやすくなるという仮説を立て、これがニューラルネットに可塑性を与え、認識や記憶のもとになっていると主張した。これをヘッブのシナプス強化説と呼び現在のニューラルネットワークの学習法の基本となっている。本研究においてもヘッブの説を学習の概念に用いている。

一方、物理学の分野では1970年代後半から1980年代にかけてカオスと呼ばれる決定論的非周期振動に関する研究が盛んになり、生体としてのニューロンの研究において、ニューロンにカオス的な反応が認められた。それを受けて1990年、合原らがカオスニューロンモデルを発表した。カオスの要素を導入することで、ニューラルネットワークがより実際の脳の動作に近くなると期待された。

本研究ではカオスニューロンのネットワークに逐次学習法を用いて学習を行なう。逐次学習法とは本研究室が提案した学習法であり、ヘッブの理論に基づき互いのニューロンが同じ状態にあるときシナプス結合を強め、互いに異なる状態にあるときはシナプス結合を弱めるという動作を行なうことで、個々のニューロンが自分自身の内部状態により結合を変化させるか判定を行ない、追加学習を行なう学習法である。この逐次学習法では、従来多く用いられてきた学習法である相関学習法に比べ、ニューロン数あたりに記憶できるパターン数がはるかに多い。また、逐次学習法では、カオスニューロンの内部状態を示す外部入力項、相互結合項、不応性項がある条件を満たす時に学習を行なう。この学習法の特徴として学習条件が成立した時の結合荷重の変化量が少ないため従来の相関学習に比べ結合荷重の取り得る値の数が多くなるという点がある。

本研究では逐次学習がより多いパターン数を記憶することができる原因を、従来の相関学習との明確な違いが現れている結合加重に注目することで追求する。過去の研究では逐次学習の結合加重のとり得る値が多いという特徴を奪うことで学習能力がどう変化するか調べたが、ここに決定的な原因がないことがわかった。よって、今回はその結合加重の分布に焦点を置き、様々なパターン、学習法における結合加重の統計を出すことで、原因の追及をはかる。統計量は主に、分散、平均、標準偏差、歪度、尖度を使用し、それらよりデータの標準化をすることで結合加重そのものの比較も行う。



Deguchi Lab. 2013年2月28日