next up previous contents
Next: ニューロンとニューラルネットワーク Up: kimura_ad2 Previous: 目次   目次

序論

人間の脳は優れた記憶能力、学習能力を持っており、それらの様々な能力はニューロンと呼ばれる神経細胞が構成するネットワークによって生み出されている。 ニューラルネットワークは神経細胞の動作を人工的にモデル化したもので、文字・画像認識をはじめ様々な分野での利用が進んでいる。[1]

ニューラルネットの研究は、1943年マカロックとピッツによって提案されたニューロンモデルが最初の研究とされている。その後、1949年にヘップはニューロンが興奮状態となり、刺激を出力すると、その刺激を伝えたシナプス結合の強さは大きくなると考え、より刺激を伝えやすくなるという仮説を立てた。 そして、これがネットワークに過塑性をもたらし、認識や記憶のもとになっていると主張した。これは、ヘッブの学習則と呼ばれ、多くのニューラルネットワークモデルにおいて、学習の原理として採用されている。 1982年、神経回路網のダイナミクスの研究を行なっていたアメリカの物理学者であるホップフィールドによって神経回路モデルが提案された。 一方、生体としてのニューロンの研究も行われ、ニューロンにはカオス的な反応があると認められた。そして1990年、合原らはヤリイカの巨大軸索にカオス現象が生じることを示し、カオスニューロンモデルを発表した。カオスの要素を導入することで、ニューラルネットワークがより実際の脳の動作に近くなると期待された。[2]

また、カオスニューラルネットワークの学習法として、逐次学習法が提案された。 逐次学習法とはヘッブの理論に基づき、まず互いのニューロンが同じ状態にあるときシナプス結合を強め、互いに異なる状態にあるときはシナプス結合を弱めるという動作を行なう。 そして個々のニューロンが自分自身の内部状態から入力されたパターンを既知であるか未知であるかの判断を行ない、追加学習を行なう学習法である。

この逐次学習法を他に応用して用いる際に、学習をさせたネットワークがどのような振る舞いを見せるのかを把握しておく必要がある。そこで、カオスニューラルネットワークにパターンを学習させた後に、入力するパターンがどのくらいの違いまでなら、引き込めるのかを調べる。 引き込みとは、学習させたパターンと近いパターンを入力して、その学習させたパターンを連想できることと定義する。またその学習させたパターンに収束する範囲を引き込み領域として、この引き込み領域が様々な条件でどのように変化するのかを調べる。



Deguchi Lab. 2011年3月3日