next up previous
: 最小実現のアルゴリズム : sysconh16 : 実現問題

最小実現

前節までのことから,実現問題,すなわち与えられた伝達関数に対する状態方程式表現を導く問題に少なくとも一つの解が存在すれば同値変換等により無限この解が存在することがわかる.したがって,本節以降,このような実現問題の解の内,状態ベクトルの次数が最小であるものを求めることを考える.なお,このような実現を最小実現と呼ぶ.

 

定理4.4 ある実現が最小実現であるための必要十分条件は,それが可制御かつ可観測なことである.

 

(証明) 必要性,すなわち最小実現が可制御でないか,可観測でないと仮定する.明らかにこの場合はシステムの状態方程式は正準分解でき,これによってより小さな次元数の可制御可観測なサブシステムが得られる.さらにこのサブシステムは定理4.2により,一つの実現となっている.したがって初めに得られた実現は最小実現であることに矛盾する.

十分性をしめす.このため伝達関数行列$G(s)$に対する可制御可観測な$n$次の実現$(A,B,C)$が得られたとし,これが最小実現でないと仮定する.すなわち$\bar{n}(<n)$次の実現 $(\bar{A},\bar{B},\bar{C})$が存在すると仮定する.これらのシステムに対し, $e^{At}$の定義式(2.5):

\begin{displaymath}
e^{At} = I + At + \frac{A^2t^2}{2!} + \frac{A^3t^3}{3!} + \cdots =
\sum_{i=0}^\infty \frac{A^it^i}{i!}.
\end{displaymath}

$e^{At}={\cal L}^{-1}[(sI-A)^{-1}]$(教科書P.10,11:(2.16),(2.22)式参照)により

\begin{displaymath}
(sI-A)^{-1} = \sum_{i=1}^\infty s^{-i}A^{i-1}
\end{displaymath}

が得られる.したがって

\begin{displaymath}
G(s) = C(sI-A)^{-1}B = \sum_{i=1}^\infty s^{-i}CA^{i-1}B
\end{displaymath}

となるから,システム$(A,B,C)$, $(\bar{A},\bar{B},\bar{C})$のそれぞれについて

\begin{displaymath}
J_k = CA^kB,\quad \bar{J}_k = \bar{C}\bar{A}^k\bar{B}\quad (k=0,1,2,\cdots)
\end{displaymath}

とおけば,
\begin{displaymath}
G(s) = \sum_{i=1}^\infty J_{i-1}s^{-i} = \sum_{i=1}^\infty \bar{J}_{i-1}s^{-i}
\end{displaymath} (13.1)

となり, $J_k=\bar{J}_k, \quad k=0,1,2,\cdots$が成り立つ.なお, $J_0,J_1,\cdots$$G(s)$のマルコフパラメータと呼ぶ.

次にハンケル行列と呼ばれる対称行列$H_\nu$を次式により定義する:

\begin{displaymath}
H_\nu = \left[ \begin{array}{ccccc}
J_0 & J_1 & J_2 & \cdots...
...} & J_\nu & J_{\nu+1} & \cdots & J_{2\nu-2}
\end{array}\right]
\end{displaymath}

するとシステム$(A,B,C)$に対するハンケル行列$H_n$

\begin{eqnarray*}
H_n &=& \left[ \begin{array}{ccccc}
CB & CAB & CA^2B & \cdots ...
...cc} B & AB & \cdots & A^{n-1}B \end{array}\right]\\
&=& M_O M_C
\end{eqnarray*}

となり,システム$(A,B,C)$が可制御可観測なことから ${\rm rank}H_n = n$となる.さらに システム $(\bar{A},\bar{B},\bar{C})$に対する$G(s)$のマルコフパラメータ $\bar{J}_0,\bar{J}_1,\cdots$に対して$n$次のハンケル行列を$\bar{H}_\nu$とすると,$\bar{H}_\nu$

\begin{eqnarray*}
\bar{H}_n &=& \left[ \begin{array}{ccccc}
\bar{C}\bar{B} & \ba...
...ar{A}\bar{B} & \cdots &
\bar{A}^{n-1}\bar{B} \end{array}\right]
\end{eqnarray*}

となり $nr \times \bar{n}$行列と $\bar{n} \times nm$行列の積として表せる.したがって ${\rm rank}\bar{H}_n \leq \bar{n} < n$となり, ${\rm rank}H_n = {\rm rank}\bar{H}_n$に矛盾する.したがってシステム$(A,B,C)$は最小実現でなければならない.

 

定理4.5 与えられた伝達関数行列$G(s)$に対する最小実現は全て同値である.

 

(証明) $G(s)$の任意の2つの最小実現($n$次)を $(A,B,C),
(\bar{A},\bar{B},\bar{C})$とすると,前定理の証明からもわかるように,これらのマルコフパラメータ $J_k,\bar{J}_k \quad (k=0,1,2,\cdots)$は一致する.すなわち $CA^kB = \bar{C}\bar{A}^k\bar{B}\quad (k=0,1,2,\cdots)$が成り立つ.システム $(A,B,C),
(\bar{A},\bar{B},\bar{C})$の可制御性行列,可観測性行列をそれぞれ$M_C,M_O$及び $\bar{M}_C,\bar{M}_O$とすると,ハンケル行列$H_n,\bar{H}_n$が一致することより

\begin{displaymath}
M_OM_C=\bar{M}_O\bar{M}_C
\end{displaymath}

が成り立つ.さらに

\begin{displaymath}
M_OAM_C = \bar{M}_O\bar{A}\bar{M}_C \quad M_OB = \bar{M}_O\bar{B}, \quad
CM_C = \bar{C}\bar{M}_C
\end{displaymath}

も成り立つ.さらに両システム共に最小実現であるから可制御可観測であり ${\rm rank}M_C = {\rm rank}M_O = {\rm rank}\bar{M}_C = {\rm rank}\bar{M}_O = n$が成り立つ.したがって

\begin{displaymath}
{\rm rank}(\bar{M}_O^T \bar{M}_O) = {\rm rank}(\bar{M}_C \bar{M}_C^T) = n
\end{displaymath}

であり, $\bar{M}_O^T \bar{M}_O,\bar{M}_C \bar{M}_C^T$は正則である. 以上のことから行列$T_1,T_2$

\begin{eqnarray*}
T_1 &=& (\bar{M}_O^T \bar{M}_O)^{-1} \bar{M}_O^T M_O \\
T_2 &=& M_C \bar{M}_C^T (\bar{M}_C \bar{M}_C^T)^{-1}
\end{eqnarray*}

により定義すると

\begin{eqnarray*}
T_1 T_2 &=& (\bar{M}_O^T \bar{M}_O)^{-1} \bar{M}_O^T M_O
M_C \...
...}_O
\bar{M}_C \bar{M}_C^T (\bar{M}_C \bar{M}_C^T)^{-1} \\
&=& I
\end{eqnarray*}

となり $T_2 = T_1^{-1}$が成り立つ.さらに

\begin{eqnarray*}
T_1 A T_1^{-1} &=& (\bar{M}_O^T \bar{M}_O)^{-1} \bar{M}_O^T M_...
...ar{M}_C \bar{M}_C^T (\bar{M}_C \bar{M}_C^T)^{-1} \\
&=& \bar{C}
\end{eqnarray*}

が成り立つ.したがって正則行列$T_1$を変換行列として考えればシステム $(A,B,C),
(\bar{A},\bar{B},\bar{C})$は同値である.

 

次に最小実現が存在する場合,その次元数を求めることを考える.定理4.4で示したように,最小実現であるための必要十分条件は,それが可制御かつ可観測であることであった.さらに定理4.4の証明から判るように,最小実現のハンケル行列を$H_n$とすると

\begin{displaymath}
H_n = M_O M_C
\end{displaymath}

の関係が成り立ち,${\rm rank}H_n$が最小実現の次元数であることがわかる.しかし実際には$n$が具体的には与えられておらず,$H_n$を何次の行列で構成すればよいかがわかっていない.これを解決するため,以下のマクミラン次数を導入する.

伝達関数行列$G(s)$の各要素の分母の最小公倍多項式を$\gamma(s)$とし,$\gamma(s)$の次数を$\nu$とする.さらに ${\rm rank}H_\nu$$G(s)$マクミラン次数と呼ぶ.

 

定理4.6 最小実現の次元数はマクミラン次数に等しい.

 

(証明)伝達関数行列$G(s)$の最小実現を$(A,B,C)$とし,その次元数を$n$とし,各係数行列$A,B,C$はそれぞれ $n \times n,n \times m, r \times n$行列とする. システム$(A,B,C)$$n$次のハンケル行列を$H_n$とすると

\begin{displaymath}
{\rm rank}H_n = {\rm rank}(M_O M_C) = n
\end{displaymath}

であることは明らかである.さらに$m(>n)$次のハンケル行列$H_m$については

\begin{eqnarray*}
H_m &=& \left[ \begin{array}{c}
M_O  CA^n  \vdots  CA^{m...
...} M_C & C A^{n+m-1} B & \cdots & CA^{2(m-1)}B
\end{array}\right]
\end{eqnarray*}

であり, ${\rm rank}(PQ) \leq \min({\rm rank}P,{\rm rank}Q)$及び

\begin{displaymath}
\begin{array}{c}
{\rm rank}\left[ \begin{array}{cccc}
M_C & ...
...B & \cdots & CA^{2(m-1)}B
\end{array}\right] \geq n
\end{array}\end{displaymath}

により

\begin{displaymath}
{\rm rank}H_m = n
\end{displaymath}

が成り立つ.したがって$n$次の最小実現$(A,B,C)$に対して,$n$次以上のハンケル行列の階数は全て$n$に等しい.したがって定理を証明するためには$k \geq \nu$なるすべての$k$に対し
\begin{displaymath}
{\rm rank}H_k = {\rm rank}H_\nu
\end{displaymath} (13.2)

であることを示せばよい.ただし ${\rm rank}H_\nu = \nu$を主張しているのではなく, ${\rm rank}H_\nu = n$を主張していることに注意.

さて,上記のことを証明するために以下のような準備を行なう.

いま$\gamma(s)$

\begin{displaymath}
\gamma(s) = s^\nu a_{\nu-1}s^{\nu-1} + \cdots + a_1 s + a_0
\end{displaymath}

とする.定理4.4の証明における式(13.1)(教科書(4.10)式)に上式の$\gamma(s)$を乗じると

\begin{displaymath}
G(s)\gamma(s) = \sum_{i=1}^\infty J_{i-1}s^{-i}\gamma(s)
\end{displaymath}

となり,左辺の各要素の分母は$\gamma(s)$により約分されている.したがって左辺は多項式行列となり,右辺の $s^{-j}\quad (j \geq 1)$の項の係数は0でなければならない. したがって

\begin{displaymath}
\sum_{i=1}^\infty J_{i-1}s^{-i}\gamma(s) =
\sum_{i=1}^\infty...
...u-i} + a_{\nu-1}s^{\nu-i-1}+ \cdots +
a_1s^{1-i} + a_0s^{-i}\}
\end{displaymath}

より

\begin{displaymath}
J_{i-1}=0 \;\;(i \geq \nu+1), \quad J_{i-1}a_{\nu-1}=0 \;\;(i \geq \nu), \quad
\cdots, \quad J_{i-1}a_0=0 \;\; (i \geq 1)
\end{displaymath}

となり,上式のそれぞれに対し $j=i-\nu-1,j=i-\nu, \cdots ,j=i-1$と置くと

\begin{displaymath}
J_{j+\nu}=0, \;\; a_{\nu-1}J_{j+\nu-1}=0,\;\; \cdots ,\;\; a_0 J_j = 0 \quad (j \geq 0)
\end{displaymath}

となる.したがって

\begin{displaymath}
J_{j+\nu} + a_{\nu-1}J_{j+\nu-1}+ \cdots + a_0 J_i = 0 \quad (j \geq 0)
\end{displaymath}

が得られる.

以上の準備から,$k \geq \nu$なる任意の$k$に対し$k+1$次のハンケル行列$H_{k+1}$を求めれば

\begin{eqnarray*}
H_{k+1} &=& \left[ \begin{array}{cccc}
J_0 & J_1 & \cdots & J_...
...k+1} & \cdots & J_{2k-1}
\end{array} & J_{2k}
\end{array}\right]
\end{eqnarray*}

となり,前述の注意と各$J_i$$r \times m$行列であることに注意すると

\begin{eqnarray*}
H_{k+1} &=& \left[ \begin{array}{cccccc}
I_r \\
& I_r \\
& &...
... & & \vdots \\
& & & & & I_m & -a_{\nu-1}I_m
\end{array}\right]
\end{eqnarray*}

となる.さらに上式右辺左右の行列の階数は$n$であるから

\begin{displaymath}
{\rm rank}H_{k+1} = {\rm rank}H_k, \quad k \geq \nu
\end{displaymath}

が成り立つ.したがって(13.2)式(教科書(4.14)式)が得られた.

 

例4.2 伝達関数行列$G(s)$

\begin{displaymath}
G(s) = \left[ \begin{array}{cc}
\displaystyle{\frac{2}{s+1}}...
...rac{1}{s+1}} & \displaystyle{\frac{1}{s+1}}
\end{array}\right]
\end{displaymath}

のマクミラン次数を求める.

 

まず $\gamma(s) = s^2 -1 $であるから$\nu = 2$である.またマルコフパラメータ$J_0,J_1,J_2$

\begin{displaymath}
G(s) = \sum_{i=1}^\infty J_{i-1}s^{-i}
\end{displaymath}

より

\begin{eqnarray*}
J_0 &=& \lim_{s \to \infty}sG(s) = \lim_{s \to \infty}
\left[ ...
...ight]=\left[ \begin{array}{cc}
2 & 0  1 & 1 \end{array}\right]
\end{eqnarray*}

よって

\begin{displaymath}
{\rm rank}H_2 = {\rm rank}\left[ \begin{array}{cc}
J_0 & J_1  J_1 & J_2 \end{array}\right] = 3
\end{displaymath}

となる.

 

システム$(A,B,C)$と同じ伝達関数を持ち,より小さな次元の状態変数によって表現されるシステム $(\bar{A},\bar{B},\bar{C})$が存在するとき,システム$(A,B,C)$可約であるといい,可約でないシステムは既約であるということがある.この用語を用いれば,最小実現とは既約な実現であるということになる.またあるシステムが既約であるための必要十分条件は,そのシステムが可制御可観測なことである.


next up previous
: 最小実現のアルゴリズム : sysconh16 : 実現問題
endo 平成16年6月30日