ニューロンの動作は、ニューロコンピューティングの立場からすれば、多入力-
出力の非線形素子といえるが、
実際には精緻な分子機構に基づく複雑な高機能素子であり、たいへん豊富なダイナミクスを有する。
しかし、ニューロンの持つ機能をすべて忠実にモデル化しては、そのダイナミクスが複雑になり、かえって重要な原理を見落としかねない。
ニューロンの持つ機能のうち、必要なものを見極めてモデル化することで、脳における情報処理の重要な原理の見通しがよくなる。
ニューロンのモデルとして重要なものに、マッカロとピッツのモデルがある。 マッカロとピッツが提案したものを図 2.2に示す。
この図の
式(2.1)で、
は膜電位、又は内部ポテンシャルと呼び、
番目の入力が来ると(すなわち
)ニューロンの膜電位が
高くなることを示している。
ここで
ならば興奮性シナプス、
ならば抑制性シナプスを表している。
であれば結合していないという事である。
は閾値を表し、各入力に結合加重を掛けた荷重和
が閾値を越えた時、ニューロンは発火する。
このモデルでは入力と出力は0と1の離散的な値である。出力関数
は以下のように与えられている。
この関数は階段関数であり図 2.3となる。
また、多数のニューロンが結合する事によって作られるネットワークをニューラルネットワークと呼ぶ。 このニューラルネットワークには階層型と相互結合型の2種類がある。
階層型ニューラルネットワークは入力層と出力層の間に1つの中間層を持つ多層構造となっている。 各ニューロンは同じ階層のニューロンとは結合していない。 そのためニューロンの信号は一方通行となり、信号を受け取った層は順番に隣接する層のニューロンへと伝搬していく。
相互結合型ニューラルネットワークは、情報の流れが双方向的でニューロンは自分の出力を伝えた相手からも情報を受け取る事が出来る。 このようなネットワークでは自分の出力が別のニューロンを経て、再び自分の入力として戻ってくる事があるので、ネットワーク全体の動作は複雑になる。
最近ニューラルネットワークで最も注目されているのはディープラーニングという手法である。 ディープラーニングでは、階層型ニューラルネットの構造上「入力層」と「出力層」の間にある、「隠れ層」と呼ばれる中間層の数を増やし重層構造にする。 この隠れ層によって何段階かで認識を繰り返し、色、形状、質感、全体像など複数の特徴を抽出して、より正確な識別ができるようになる。 このディープラーニングは人工知能(AI)に使用される。