next up previous contents
Next: 第2章 ニューロンとニューラルネットワーク Up: 無題 Previous: 目次

第1章 序論

人間の脳には140億個もの神経細胞(ニューロン)があるとされている。それぞれのニューロンは数千個ものシナプスで連結されており、神経回路網を形成している。ニューロン1個ずつは非常に簡単な機能しかもっていないにもかかわらず、我々の脳における神経回路網は大変優れた情報処理能力を持っている。我々は即座に人の顔を識別したり、目の前の情景を理解し適切な行動をとることが出来る。このように人間の脳は目や耳などから入力された信号を無意識のうちに的確かつ迅速に情報処理することができる。このような日常的情報処理速度は現代のスーパーコンピューターよりも格段に速い。これは、感覚器官から入力された信号が神経回路網の中を並列に伝達されるうちに行なわれる。脳はこのような優れた並列情報処理機構をもっている。[1]

ニューロコンピュータは歴史的には現在主流のノイマン型コンピュータと同じ1940年代に発案されているが、近年あらたに注目されるようになった。コンピュータの機能しを人間の頭脳活動に限りなく近付けたいという思いは、科学者や技術者の永遠の夢である。そんなことが簡単に出来るとは思われないが、「人間というお手本があるのだからその脳神経細胞(ニューロン)の情報処理メカニズムを素直に真似してみてはどうだろう。」という考え方には一理ある。とにかく、現在のコンピュータの原理はニューロンのメカニズムからあまりにもかけ離れている。計算は得意だが、学習、直感、認識など人間らしいことはほとんど何一つ出来ない。ニューロコンピュータは開発の緒についたばかりであるが、学習が出来ることが実証されている。[2]

Freemanらは、ウサギやラットに既知のにおい刺激を与えると嗅球の集合電位が基底カオス状態から安定なリミットサイクル若しくは弱いカオス状態へと遷移する一方、未知のにおい刺激を与えると基底カオス状態とは異なるカオス状態が形成されることを実験的に示している。彼らはカオスが記憶探索する媒体としてだけではなく、新しい感覚パターンを識別 tex2html_wrap_inline1188 学習するためにも使われていると考えている。[3]  このように、生体中に数多く発見されつつあるカオスが一体どのような役割を担っているのか、またそのようなカオスダイナミクスは人工ニューラルコンピューティングにおいてどのように利用できるかという問題は興味深い課題である。

また一方で、人間の連想記憶機能を模擬する試みも盛んに行なわれており、ホップフィールドネット、アソシアトロン、双方向連想メモリなど多くの連想記憶モデルが提案されている。従来の連想記憶モデルの多くは、学習時にパターンの相関行列に基づいて重みを学習し、想起時にはその重みを利用して想起を行なうというものである。この学習のしかたは結合荷重を他のニューロンとの関係だけで決めるものである。

本研究ではカオスニューラルネットワークの学習法として逐次学習法を用いた。この逐次学習法はHebbの互いのニューロンが同じ状態(共に興奮)のときにはシナプス結合を強くする、という理論を応用した学習法で互いのニューロンが同じ状態のときにはシナプス結合を強くし、違う状態のときにはシナプス結合を弱くするという動作により、個々のニューロンが自分自身の内部状態により結合荷重を変化させるか判別を行ない、追加学習を行なう学習法である。逐次学習法では、カオスニューロンの内部状態を表す三つの値、外部入力の項、相互結合の項、不応性の項においてある条件が満たされる時学習を行なう。その条件とは、相互結合の項が外部入力の項と異符合であるということであり、逆にいえば二つの項が同符合になるまで結合荷重を変化させるということである。

学習させるパターンの入力には、過去の研究では、アルファベットの大文字、小文字をパターンとして学習に用いたが、入力パターンには偏りや類似性が多く見られたため、一般的ではないといえる。そこで本研究では、条件別に白と黒の点がランダムでつくられたパターンを用意し、それを識別し学習をさせる。その学習をさせる条件を、入力個数、繰り返し回数、学習回数、入力パターンについてそれぞれを変化させることによって生ずる、学習可能なパターン数にどのような特性が見られるかを調べた。その特性により、カオスニューラルネットワークに高効率な学習をさせる条件を見い出す。



Deguchi Toshinori
Thu Jul 13 13:13:35 JST 2000