next up previous contents
Next: カオスニューラルネットワーク Up: ニューロンとカオスニューラルネットワーク Previous: ニューロンとは   目次


ニューロンモデル

ニューロンの動作は、ニューロコンピューティングの立場からすれば、多入力-$ 1$ 出力の非線形素子といえるが、 実際には精緻な分子機構に基づく複雑な高機能素子であり、たいへん豊富なダイナミクスを有する。 しかし、ニューロンの持つ機能をすべて忠実にモデル化しては、そのダイナミクスが複雑になり、かえって重要な原理を見落としかねない。 ニューロンの持つ機能のうち、必要なものを見極めてモデル化することで、脳における情報処理の重要な原理の見通しがよくなる。

ニューロンのモデルとして重要なものに、マッカロとピッツのモデルがある。 マッカロとピッツが提案したものを図 2.2に示す。

図 2.2: ニューロンのモデル
\includegraphics[scale=1.0]{images/neuron_model.eps}
この図の$ x_i$ は対象となるニューロンの$ i$ 番目の入力であり、0 $ 1$ である。$ w_i$ は結合荷重と呼ばれており、シナプス結合の強さを表す。 $ \theta$ はニューロンに対する閾値であり、ニューロンはこれを越えると発火する。 $ y$ は出力である。このニューロンモデルの式を以下に示す。

$\displaystyle u=\sum_{i=0}^{n}w_i x_i -\theta$ (2.1)

$\displaystyle y=f(u)$ (2.2)

式(2.1)で、$ u$ は膜電位、又は内部ポテンシャルと呼び、$ i$ 番目の入力が来ると(すなわち$ x_i=1$ )ニューロンの膜電位が$ w_i$ 高くなることを示している。 ここで$ w_i>0$ ならば興奮性シナプス、$ w_i<0$ ならば抑制性シナプスを表している。$ w_i=0$ であれば結合していないという事である。 $ \theta$ は閾値を表し、各入力に結合加重を掛けた荷重和 $ \sum_{i=0}^{n}w_i x_i$ が閾値を越えた時、ニューロンは発火する。 このモデルでは入力と出力は0と1の離散的な値である。出力関数$ f$ は以下のように与えられている。

$\displaystyle f(u) = \left\{ \begin{array}{@{ }ll} 1 & \mbox{($u > 0$)} 0 & \mbox{($u \le 0$)} \end{array} \right.$ (2.3)

この関数は階段関数であり図 2.3となる。

図 2.3: ニューロンの出力関数(階段関数)
\includegraphics[scale=1.6]{images/step.eps}

また、多数のニューロンが結合する事によって作られるネットワークをニューラルネットワークと呼ぶ。 このニューラルネットワークには階層型と相互結合型の2種類がある。

階層型ニューラルネットワークは入力層と出力層の間に1つの中間層を持つ多層構造となっている。 各ニューロンは同じ階層のニューロンとは結合していない。 そのためニューロンの信号は一方通行となり、信号を受け取った層は順番に隣接する層のニューロンへと伝搬していく。

相互結合型ニューラルネットワークは、情報の流れが双方向的でニューロンは自分の出力を伝えた相手からも情報を受け取る事が出来る。 このようなネットワークでは自分の出力が別のニューロンを経て、再び自分の入力として戻ってくる事があるので、ネットワーク全体の動作は複雑になる。

最近ニューラルネットワークで最も注目されているのはディープラーニングという手法である。 ディープラーニングでは、階層型ニューラルネットの構造上「入力層」と「出力層」の間にある、「隠れ層」と呼ばれる中間層の数を増やし重層構造にする。 この隠れ層によって何段階かで認識を繰り返し、色、形状、質感、全体像など複数の特徴を抽出して、より正確な識別ができるようになる。 このディープラーニングは人工知能(AI)に使用される。

図 2.4: 階層型ネットワーク
\includegraphics[scale=0.7]{images/kaiso.eps}

図 2.5: 相互結合型ネットワーク
\includegraphics[scale=0.7]{images/sougo.eps}


next up previous contents
Next: カオスニューラルネットワーク Up: ニューロンとカオスニューラルネットワーク Previous: ニューロンとは   目次
Deguchi Lab. 2015年3月4日