続いて、入力層のニューロン k と中間層のニューロン j の間の 結合荷重 についても同様に学習することができる。 あらかじめ中間層のニューロン出力 に対する誤差関数の 微分を式 (3.6) で求めておく。
すると、結合荷重 に対する微分は式 (3.7) の ようになる。
最後に、誤差関数が減少する方向に変化させるために、ある定数 を 掛けて式 (3.8) のように結合荷重 を変化させる。
以上のように、どの層のどのニューロンのパラメータについても、誤差関数を 減少させるための式が得られるわけである。
実際に結合荷重 、 を変化させるための数値計算を行なう場合には、 それぞれ式 (3.3) および式 (3.7) が用いられる わけであるが、このとき各パラメータを変化させるために必要なデータは、 全てその層またはその前後の関連するニューロンの中に含まれていることが分かる。
ここで、誤差情報の伝搬について考えてみる。まず、出力層の各ニューロンに対して 教師信号 が与えられると、式 (3.2) によって誤差情報 が作られる。この情報は学習の過程で加工され、 と いう情報が作られる。 このとき、式 (3.6) によって中間層の各ニューロンで作られる 誤差情報 を見ると、それは および 結合荷重 から作られていることが分かる。 つまり、出力層の各ニューロンから なる情報が逆向きに伝搬し、中間層の ニューロンにおいて結合荷重 を考慮して加算されていると考えられる わけである。これが、バックプロパゲーション(逆伝搬)といわれるゆえんである。
しかしながら、実際の生体の神経回路においては なる情報が軸索を 通って逆向きに伝わるとは考えられていない。そのため、バックプロパゲーションは 実際の脳の学習モデルにはなりえない。実際の脳の学習メカニズムは未だ明らかには なっていない。