線性代數
A
=
[
1
2
3
4
]
{\displaystyle \mathbf {A} ={\begin{bmatrix}1&2\\3&4\end{bmatrix}}}
向量 · 向量空間 · 基底 · 行列式 · 矩陣
可對角化矩陣 是可化簡為對角矩陣 的方陣 。矩陣對角化後大幅降低了某些屬性的計算難度,比如其行列式 就是對角線上所有數字的乘積,而對角線上的數字就是其特徵值 。
可對角化也使該線性變換的幾何意義更直觀,因為每個線性變換 都可以對應到一個矩陣,所以將矩陣對角化等價於找到一組基底 ,使的線性變換的作用僅僅是伸縮基底向量而已。類似的,若用對角矩陣表示差分方程組或者微分方程組的係數的話,這樣每條等式只含有一個未知函數,這樣也大幅度了化簡了方程式的難度。
若爾當-謝瓦萊分解 表達一個算子為它的對角部分與它的冪零 部分的和。
正式定義
可對角化的線性映射
特徵化
關於可對角化映射和矩陣的基本事實可表達為如下:
在域 F 上的 n × n 矩陣 A 是可對角化的,當且僅當它的特徵空間的和的維度等於 n ,它為真當且僅當存在由 A 的特徵向量組成的 F n 的基 。如果找到了這樣的基,可以形成有基向量 作為縱列的矩陣 P ,而 P -1 AP 將是對角矩陣。這個矩陣的對角元素是 A 的特徵值。
線性映射 T : V → V 是可對角化的,當且僅當它的特徵空間的維度等於 dim(V ),它為真當且僅當存在由 T 的特徵向量組成的 V 的基。T 關於這個基將表示為對角矩陣。這個矩陣的對角元素是 T 的特徵值。
另一個特徵化: 矩陣或線性映射在域 F 上可對角化的,當且僅當它的極小多項式 在 F 上有不同的線性因子。
下列充分(但非必要)條件經常是有用的。
n × n 矩陣 A 只在域 F 上可對角化的,如果它在 F 中有 n 個不同的特徵值,就是說,如果它的特徵多項式 在 F 中有 n 個不同的根。
線性映射 T : V → V 帶有 n =dim(V ) 是可對角化的,如果它有 n 個不同的特徵值,就是說它的特徵多項式在 F 中有 n 個不同的根。
作為經驗規則,在複數域 C 上幾乎所有矩陣都是可對角化的。更精確地說: 在 C 上不可對角化的複數 n × n 矩陣的集合被當作 C n ×n 的子集,它是關於勒貝格測度 的零集 。也可以說可對角化矩陣形成了關於 扎里斯基拓撲 的稠密子集 : 補位於特徵多項式的判別式 變為零的集合內,後者是超平面 。從中得出的還有在平常的(強拓撲)中密度由範數 給出。
對於 R 域就不是這樣了。隨着 n 增長,隨機選擇的實數矩陣是在 R 上可對角化的可能性越來越小。
例子
可對角化矩陣
對合 在實數上(甚至特徵不是 2 的任何域)是可對角化的,帶有 1 和 -1 在對角線上。
有限階自同態(包括對合)是在複數,或域的特徵不整除自同態的階的任何代數閉合域(因為單位一的根是不同的)是可對角化的,帶有單位根 在對角線上。這是循環群的表示理論 的一部分。
投影 是可對角化的,帶有 0 和 1 在對角線上。
非可對角化的矩陣
某些矩陣在任何域上都是不可對角化的,最著名的是冪零 矩陣。如果特徵值的幾何重次 和代數重次 不一致,這會更一般的出現。例如考慮
C
=
[
0
1
0
0
]
{\displaystyle C={\begin{bmatrix}0&1\\0&0\end{bmatrix}}}
這個矩陣是不可對角化的: 沒有矩陣 U 使得
U
−
1
C
U
{\displaystyle U^{-1}CU}
是對角矩陣。實際上,C 有一個特徵值(就是零)而這個特徵值有代數重次 2 和幾何重次 1。
某些實數矩陣在實數上是不可對角化的。例如考慮
B
=
[
0
1
−
1
0
]
{\displaystyle B={\begin{bmatrix}0&1\\-1&0\end{bmatrix}}}
矩陣 B 沒有任何實數特徵值,所以沒有實數矩陣 Q 使得
Q
−
1
B
Q
{\displaystyle Q^{-1}BQ}
是對角矩陣。但是如果允許複數的話 ,
B
{\displaystyle B}
仍可以對角化。實際上,如果我們取
Q
=
[
1
i
i
1
]
{\displaystyle Q={\begin{bmatrix}1&{\textrm {i}}\\{\textrm {i}}&1\end{bmatrix}}}
則
Q
−
1
B
Q
{\displaystyle Q^{-1}BQ}
是對角的。
矩陣對角化的方法
考慮矩陣
A
=
[
1
2
0
0
3
0
2
−
4
2
]
{\displaystyle A={\begin{bmatrix}1&2&0\\0&3&0\\2&-4&2\end{bmatrix}}}
這個矩陣有特徵值
λ
1
=
3
,
λ
2
=
2
,
λ
3
=
1
{\displaystyle \lambda _{1}=3,\quad \lambda _{2}=2,\quad \lambda _{3}=1}
所以 A 是有三個不同特徵值的 3 × 3 矩陣,所以它是可對角化的。
如果我們要對角化 A ,我們需要計算對應的特徵向量 。它們是
v
1
=
[
−
1
−
1
2
]
v
2
=
[
0
0
1
]
v
3
=
[
−
1
0
2
]
{\displaystyle v_{1}={\begin{bmatrix}-1\\-1\\2\end{bmatrix}}\quad v_{2}={\begin{bmatrix}0\\0\\1\end{bmatrix}}\quad v_{3}={\begin{bmatrix}-1\\0\\2\end{bmatrix}}}
我們可以輕易的驗證
A
v
k
=
λ
k
v
k
{\displaystyle Av_{k}=\lambda _{k}v_{k}}
。
現在,設 P 是由這些特徵向量作為縱列的矩陣:
P
=
[
−
1
0
−
1
−
1
0
0
2
1
2
]
{\displaystyle P={\begin{bmatrix}-1&0&-1\\-1&0&0\\2&1&2\end{bmatrix}}}
則 P 對角化了 A ,簡單的計算可驗證:
P
−
1
A
P
=
[
0
−
1
0
2
0
1
−
1
1
0
]
[
1
2
0
0
3
0
2
−
4
2
]
[
−
1
0
−
1
−
1
0
0
2
1
2
]
=
[
3
0
0
0
2
0
0
0
1
]
{\displaystyle P^{-1}AP={\begin{bmatrix}0&-1&0\\2&0&1\\-1&1&0\end{bmatrix}}{\begin{bmatrix}1&2&0\\0&3&0\\2&-4&2\end{bmatrix}}{\begin{bmatrix}-1&0&-1\\-1&0&0\\2&1&2\end{bmatrix}}={\begin{bmatrix}3&0&0\\0&2&0\\0&0&1\end{bmatrix}}}
注意特徵值
λ
k
{\displaystyle \lambda _{k}}
出現在對角矩陣中。
應用
對角化可被用來有效的計算矩陣 A 的冪,假如矩陣是可對角化的。比如我們找到了
P
−
1
A
P
=
D
{\displaystyle P^{-1}AP=D\ }
是對角矩陣,因為矩陣的積是結合的,
A
k
=
(
P
D
P
−
1
)
k
=
(
P
D
P
−
1
)
⋅
(
P
D
P
−
1
)
⋯
(
P
D
P
−
1
)
=
P
D
(
P
−
1
P
)
D
(
P
−
1
P
)
⋯
(
P
−
1
P
)
D
P
−
1
=
P
D
k
P
−
1
{\displaystyle {\begin{aligned}A^{k}&=(PDP^{-1})^{k}=(PDP^{-1})\cdot (PDP^{-1})\cdots (PDP^{-1})\\&=PD(P^{-1}P)D(P^{-1}P)\cdots (P^{-1}P)DP^{-1}=PD^{k}P^{-1}\end{aligned}}}
而後者容易計算,因為它只涉及對角矩陣的冪。
在找到線性遞歸序列 比如斐波那契數列 的項的閉合形式的表達中這是非常有用的。
特定應用
例如,考慮下列矩陣:
M
=
[
a
b
−
a
0
b
]
{\displaystyle M={\begin{bmatrix}a&b-a\\0&b\end{bmatrix}}}
計算 M 個各次冪揭示了一個驚人的模式:
M
2
=
[
a
2
b
2
−
a
2
0
b
2
]
,
M
3
=
[
a
3
b
3
−
a
3
0
b
3
]
,
M
4
=
[
a
4
b
4
−
a
4
0
b
4
]
,
…
{\displaystyle M^{2}={\begin{bmatrix}a^{2}&b^{2}-a^{2}\\0&b^{2}\end{bmatrix}},\quad M^{3}={\begin{bmatrix}a^{3}&b^{3}-a^{3}\\0&b^{3}\end{bmatrix}},\quad M^{4}={\begin{bmatrix}a^{4}&b^{4}-a^{4}\\0&b^{4}\end{bmatrix}},\quad \ldots }
上面的現象可以通過對角化 M 來解釋。要如此我們需要由 M 的特徵向量組成的 R 2 的基。一個這樣的特徵向量基給出自
u
=
[
1
0
]
=
e
1
,
v
=
[
1
1
]
=
e
1
+
e
2
{\displaystyle \mathbf {u} ={\begin{bmatrix}1\\0\end{bmatrix}}=\mathbf {e} _{1},\quad \mathbf {v} ={\begin{bmatrix}1\\1\end{bmatrix}}=\mathbf {e} _{1}+\mathbf {e} _{2}}
這裡的 e i 指示 R n 的標準基。
逆的基變更 給出自
e
1
=
u
,
e
2
=
v
−
u
{\displaystyle \mathbf {e} _{1}=\mathbf {u} ,\qquad \mathbf {e} _{2}=\mathbf {v} -\mathbf {u} }
直接計算證實
M
u
=
a
u
,
M
v
=
b
v
{\displaystyle M\mathbf {u} =a\mathbf {u} ,\qquad M\mathbf {v} =b\mathbf {v} }
所以,a 和 b 是分別是對應於 u 和 v 的特徵值。
根據矩陣乘法的線性,我們有
M
n
u
=
a
n
u
,
M
n
v
=
b
n
v
{\displaystyle M^{n}\mathbf {u} =a^{n}\,\mathbf {u} ,\qquad M^{n}\mathbf {v} =b^{n}\,\mathbf {v} }
切換回標準基,我們有
M
n
e
1
=
M
n
u
=
a
n
e
1
{\displaystyle M^{n}\mathbf {e} _{1}=M^{n}\mathbf {u} =a^{n}\mathbf {e} _{1}}
M
n
e
2
=
M
n
(
v
−
u
)
=
b
n
v
−
a
n
u
=
(
b
n
−
a
n
)
e
1
+
b
n
e
2
{\displaystyle M^{n}\mathbf {e} _{2}=M^{n}(\mathbf {v} -\mathbf {u} )=b^{n}\mathbf {v} -a^{n}\mathbf {u} =(b^{n}-a^{n})\mathbf {e} _{1}+b^{n}\mathbf {e} _{2}}
前面的關係用矩陣形式表達為
M
n
=
[
a
n
b
n
−
a
n
0
b
n
]
{\displaystyle M^{n}={\begin{bmatrix}a^{n}&b^{n}-a^{n}\\0&b^{n}\end{bmatrix}}}
因此解釋了上述現象。
參見
外部連結
引用