next up previous contents
Next: ニューロンとニューラルネットワーク Up: nsakai Previous: 目次   目次


序論

人間が記憶したものを想い出そうとするとき、脳に存在する140億を超える数の神経細胞によってそれは想起される。 神経細胞はニューロンと呼ばれ、ニューロン同士はシナプスという何千もの点で結合し、 ニューラルネットワークと呼ばれる巨大で複雑なネットワークを形成している。 ニューロン単体の活動は、入力を受け、電位が変化し、結合している他のニューロンに信号を送るといった単純なものであるが、 巨大なネットワークを構成することで高度な並列分散情報処理を行っている。 ニューロンの情報処理能力に着目し、それを工学的にモデル化して擬似的に再現したニューラルネットワークは幅広い用途で利用されている。 例えば、文字や画像・音声などといったものを認識し、柔軟な判断を下すことができるようになる。 人間の脳に近い機能を再現でき、現在のコンピュータが苦手な処理を行うことができるという期待から、 多くの研究者によって研究が進められている。[1]

1943年のマッカロ(W.S.McCulloh)とピッツ(W.Pitts)の研究から、ニューラルネットワークの研究が始まったとされる。 彼らはニューロンを演算素子に抽象化して、集団による並列処理を行った。 ニューロンには入力部と出力部がある。他のニューロンの軸索がシナプスによって結合している入力部で他のニューロンの信号を受け取ると、 その総和が決められたしきい値を超えたときにニューロンは興奮し、しきい値以下なら興奮しない。 ニューロンは興奮状態になると出力部である軸索に1に量子化された信号を出力し、 非興奮状態にある時は0に量子化された信号を出力すると考え、ニューロンのモデル化を行なった。 彼らはシナプス結合の強さはすべて等しいと考えていたが、後の研究者によってシナプス結合の強さはそれぞれ異なり、 その強さによった刺激が伝搬されるという形に修正された。[2]

1949年にヘッブ(D.O.Hebb)は、興奮によって刺激を伝えたシナプス結合は強度が増し、 そのニューロン間で次の刺激を伝えやすくなるのではないかという仮説を唱えた。 彼はこの仮説によりネットワークが可塑性を持ち、認識や記憶のもとになっていると主張した。 このヘッブの仮説に基づくシナプスにおける学習則をヘッブの学習則と呼ぶ。[2]

1982年にはアメリカの物理学者であるホップフィールド(J.J.Hopfield)がニューラルネットのモデルを提案した。 彼は、ニューロンの発火のアルゴリズムと結合係数の組が決められた神経回路網に、 適当に与えられた興奮パターンが安定に存在しない状態で変化していく時、それにつれて必ず減少していくエネルギー関数が定義でき、 その関数の極小値に対応するパターンは安定になるという神経回路網のダイナミクスを示した。 この極小値に記憶するパターンを対応させれば、 このシステムは適当な刺激パターンから記憶するパターンを想起することができる連想記憶装置となる。[3]

イカの一種であるヤリイカは神経膜の電気生理実験材料に最適な巨大なニューロンを持っており、 神経の基本動作機構の解明に大きく貢献した。 生体としてのニューロンの研究が行われると、ヤリイカの巨大軸索の実験ではニューロンのカオス的な反応が認められた。 それを受けて1990年、合原らがカオスニューラルネットワークを提唱した。 生体にはごく自然に存在するとされるカオスを導入することによって、 ニューラルネットワークがより実際の脳の動作に近くなると期待された[4]。

本研究では、カオスニューラルネットワークに逐次学習法を用いて学習を行う。 過去の研究によって、逐次学習に適したカオスニューラルネットワークのパラメータが見つかった。 そのパラメータを使って「1」と「$-1$」を1:1という一定の比率にしたパターンを学習させた時、 カオスニューラルネットワークがその比率における性質を学習することが分かった。 その結果、1:1の比率におけるカオスニューラルネットワークの学習は、 パターンをそのまま想起するのではなく、比率の性質を利用して出力していると考えられる。 そこで、1:1に近い比率から遠い比率まで変化させたとき、逐次学習の結果、 特に最大学習成功数にどのような影響があるのか調べることにした。 比率を変化させる実験をする前に、素子数の違いによって1:1の比率の影響の受け方がどう変わるかについても検証した。



Deguchi Lab. 2016年3月1日