线性代数
A
=
[
1
2
3
4
]
{\displaystyle \mathbf {A} ={\begin{bmatrix}1&2\\3&4\end{bmatrix}}}
向量 · 向量空间 · 基底 · 行列式 · 矩阵
线性映射 (英语:linear map )是向量空间 之间,保持向量加法和标量乘法的函数 。线性映射也是向量空间作为模的同态 [ 1] 。
线性算子 (英语:linear operator )与线性变换 (英语:linear transformation ,又称线性变换 )是与线性映射相关的惯用名词,但其实际意义存在许多分歧,详见相关名词 一节。
正式定义
设
V
{\displaystyle V}
和
W
{\displaystyle W}
都是系数体 为
K
{\displaystyle K}
的向量空间,
f
:
V
→
W
{\displaystyle f:V\to W}
是一个从
V
{\displaystyle V}
送到
W
{\displaystyle W}
的一个映射 。如果
f
{\displaystyle f}
具有以下两个性质:
维持向量加法 ——对于任意两个
V
{\displaystyle V}
中的向量
x
{\displaystyle x}
和
y
{\displaystyle y}
:
f
(
x
+
y
)
=
f
(
x
)
+
f
(
y
)
{\displaystyle f(x+y)=f(x)+f(y)}
维持标量乘法 ——对于任何
V
{\displaystyle V}
中的向量
x
{\displaystyle x}
和任何标量
a
∈
K
{\displaystyle a\in K}
:
f
(
a
⋅
x
)
=
a
⋅
f
(
x
)
{\displaystyle f(a\cdot x)=a\cdot f(x)}
则称
f
{\displaystyle f}
是一个
K
{\displaystyle K}
-线性映射 。在系数体不致混淆的情况下也经常简称线性映射。
这等价于要求
f
{\displaystyle f}
对任意向量
x
1
,
…
,
x
m
∈
V
{\displaystyle x_{1},\,\ldots ,\,x_{m}\in V}
和任意标量
a
1
,
…
,
a
m
∈
K
{\displaystyle a_{1},\,\ldots ,\,a_{m}\in K}
:
f
(
a
1
⋅
x
1
+
⋯
+
a
m
⋅
x
m
)
=
a
1
⋅
f
(
x
1
)
+
⋯
+
a
m
⋅
f
(
x
m
)
{\displaystyle f(a_{1}\cdot x_{1}+\cdots +a_{m}\cdot x_{m})=a_{1}\cdot f(x_{1})+\cdots +a_{m}\cdot f(x_{m})}
线性泛函
任何的体
K
{\displaystyle K}
本身就是一维的(系数为自身的)向量空间,所以可以考虑任何从系数体 同样为
K
{\displaystyle K}
的向量空间
V
{\displaystyle V}
送往
K
{\displaystyle K}
的线性映射,这类线性映射被称为线性泛函 。研究线性泛函的学科是线性泛函分析,是泛函分析 最成熟的分支。
注意事项
线性映射中的“线性”与“函数图形是直线”没有任何关联。
定义域和到达域相同的线性映射可以进行函数合成,合成的结果依然会是线性映射。但是如果改变合成的顺序,那合成出来的结果通常不会相同。例如“把函数乘上
x
2
{\displaystyle x^{2}}
”和“对函数进行微分”都是线性算子,但是对一个函数“先乘上
x
2
{\displaystyle x^{2}}
再进行微分”和“先进行微分再乘上
x
2
{\displaystyle x^{2}}
”是不同的线性映射。[ 2]
维持向量加法的映射可能不维持标量乘法;同样地,维持标量乘法的映射也可能不维持向量加法。[ 3]
相关名词
线性变换 和线性算子 这两个名词,与本条目的线性映射 密切相关,但不同作者有不同的定义。而这种定义分歧的根源在于,如
f
:
V
→
V
{\displaystyle f:V\rightarrow V}
这样,定义域和值域落在同个向量空间的特殊线性映射 ,有些人为了凸显而予之不同的称呼。
比如Axler 和龚昇 就称这种特殊线性映射为线性算子 [ 4] [ 5] ,但另一方面将线性映射 和线性变换 视为同义词;李尚志则将这种特殊线性映射称为线性变换 [ 6] ;而泛函分析 的书籍一般将三者都视为本条目所定义的“线性映射 ”,其他细节以函数的符号传达[ 7] [ 8] 。
本条目采用泛函分析的习惯。
例子
对于实数,映射
x
↦
x
2
{\displaystyle x\mapsto x^{2}}
不是线性的。
如果
A
{\displaystyle A}
是
m
×
n
{\displaystyle m\times n}
实矩阵 ,则
A
{\displaystyle A}
定义了一个从
R
n
{\displaystyle R^{n}}
到
R
m
{\displaystyle R^{m}}
的线性映射,这个映射将列向量
x
∈
R
n
{\displaystyle x\in R^{n}}
映射到列向量
A
x
∈
R
m
{\displaystyle Ax\in R^{m}}
。反过来说,在有限维向量空间之间的任何线性映射都可以用这种方式表示;参见后面章节。
积分 生成从在某个区间 上所有可积分实函数的空间到
R
{\displaystyle R}
的线性映射。这只是把积分的基本性质(“积分的可加性”和“可从积分号内提出常数倍数”)用另一种说法表述出来。[ 9]
微分 是从所有可微分函数的空间到所有函数的空间的线性映射。[ 9]
“给函数乘上
x
2
{\displaystyle x^{2}}
”是一种线性映射。[ 9] 设
C
{\displaystyle C}
是由全体连续函数所组成的函数空间,则此运算也是空间
C
{\displaystyle C}
中的算子。
后向移位(backward shift)运算是一种线性映射。即把无穷维向量
(
x
1
,
x
2
,
x
3
,
x
4
,
.
.
.
)
{\displaystyle (x_{1},x_{2},x_{3},x_{4},...)}
的第一个坐标划去:
T
(
x
1
,
x
2
,
x
3
,
x
4
,
.
.
.
)
=
(
x
2
,
x
3
,
x
4
,
.
.
.
)
{\displaystyle \operatorname {T} (x_{1},x_{2},x_{3},x_{4},...)=(x_{2},x_{3},x_{4},...)}
。[ 9]
如果
V
{\displaystyle V}
和
W
{\displaystyle W}
为在体
F
{\displaystyle F}
上的有限维向量空间,则从线性映射
f
:
V
→
W
{\displaystyle f:V\rightarrow W}
到在后面所描述的
dim
F
(
W
)
×
dim
F
(
V
)
{\displaystyle \dim _{F}(W)\times \dim _{F}(V)}
矩阵的函数也是线性映射。[ 9]
一次函数
y
=
f
(
x
)
=
x
+
b
{\displaystyle y=f(x)=x+b}
仅在
b
=
0
{\displaystyle b=0}
时才是一种线性变换。容易验证一次函数仅在
b
=
0
{\displaystyle b=0}
时,线性变换的基本性质
f
(
0
)
=
0
{\displaystyle f(0)=0}
才能成立。(尽管
b
≠
0
{\displaystyle b\neq 0}
时其图像也是一条直线,但这里所说的线性不是指函数图像为直线 。)同理,平移变换一般也不是线性变换(平移距离为零时才是线性变换)。[ 10] [ 11]
矩阵
若
V
{\displaystyle V}
和
W
{\displaystyle W}
是有限维 的、有相同的 系数体
K
{\displaystyle K}
的向量空间,则从
V
{\displaystyle V}
到
W
{\displaystyle W}
的线性映射可以用矩阵 表示。
以矩阵表示线性映射
假设
T
:
V
→
W
{\displaystyle T:V\to W}
是个线性映射,且
B
V
=
{
α
1
,
α
2
,
…
,
α
n
}
{\displaystyle {\mathfrak {B}}_{V}=\left\{\alpha _{1},\alpha _{2},\,\ldots ,\alpha _{n}\right\}}
B
W
=
{
β
1
,
β
2
,
…
,
β
m
}
{\displaystyle {\mathfrak {B}}_{W}=\left\{\beta _{1},\beta _{2},\,\ldots ,\beta _{m}\right\}}
分别是
V
{\displaystyle V}
和
W
{\displaystyle W}
的基底 。
根据基底
B
W
{\displaystyle {\mathfrak {B}}_{W}}
的基本定义,对于每个基向量
α
i
∈
B
V
{\displaystyle \alpha _{i}\in {\mathfrak {B}}_{V}}
,存在唯一一组标量
t
1
i
,
t
2
i
,
…
,
t
m
i
∈
K
{\displaystyle t_{1i},\,t_{2i},\,\ldots ,\,t_{mi}\in K}
使得
T
(
α
i
)
=
∑
j
=
1
m
t
j
i
⋅
β
j
=
t
1
i
⋅
β
1
+
t
2
i
⋅
β
2
+
⋯
+
t
m
i
⋅
β
m
{\displaystyle T(\alpha _{i})=\sum _{j=1}^{m}t_{ji}\cdot \beta _{j}=t_{1i}\cdot \beta _{1}+t_{2i}\cdot \beta _{2}+\cdots +t_{mi}\cdot \beta _{m}}
直观上,标量
t
1
i
,
t
2
i
,
…
,
t
m
i
∈
K
{\displaystyle t_{1i},\,t_{2i},\,\ldots ,\,t_{mi}\in K}
就是对基向量
α
i
∈
B
V
{\displaystyle \alpha _{i}\in {\mathfrak {B}}_{V}}
的作用结果
T
(
α
i
)
∈
W
{\displaystyle T(\alpha _{i})\in W}
,在基底
B
W
{\displaystyle {\mathfrak {B}}_{W}}
下的诸分量。
现在任取一个
V
{\displaystyle V}
里的向量
v
∈
V
{\displaystyle v\in V}
,因为基底
B
V
{\displaystyle {\mathfrak {B}}_{V}}
的基本定义,存在唯一一组标量
v
1
,
v
2
,
…
,
v
n
∈
K
{\displaystyle v_{1},\,v_{2},\,\ldots ,\,v_{n}\in K}
使得
v
=
∑
i
=
1
n
v
i
⋅
α
i
{\displaystyle v=\sum _{i=1}^{n}v_{i}\cdot \alpha _{i}}
这样根据求和符号 的性质,可以得到
T
(
v
)
=
∑
i
=
1
n
v
i
⋅
(
∑
j
=
1
m
t
j
i
⋅
β
j
)
=
∑
i
=
1
n
∑
j
=
1
m
(
t
j
i
v
i
)
⋅
β
j
=
∑
j
=
1
m
∑
i
=
1
n
(
t
j
i
v
i
)
⋅
β
j
=
∑
j
=
1
m
(
∑
i
=
1
n
t
j
i
v
i
)
⋅
β
j
{\displaystyle T(v)=\sum _{i=1}^{n}v_{i}\cdot \left(\sum _{j=1}^{m}t_{ji}\cdot \beta _{j}\right)=\sum _{i=1}^{n}\sum _{j=1}^{m}(t_{ji}v_{i})\cdot \beta _{j}=\sum _{j=1}^{m}\sum _{i=1}^{n}(t_{ji}v_{i})\cdot \beta _{j}=\sum _{j=1}^{m}\left(\sum _{i=1}^{n}t_{ji}v_{i}\right)\cdot \beta _{j}}
然后考虑到
T
(
v
)
∈
W
{\displaystyle T(v)\in W}
,所以根据基底
B
W
{\displaystyle {\mathfrak {B}}_{W}}
的基本定义,存在唯一一组标量
λ
1
,
λ
2
,
…
,
λ
m
∈
K
{\displaystyle \lambda _{1},\,\lambda _{2},\,\ldots ,\,\lambda _{m}\in K}
使得
T
(
v
)
=
∑
j
=
1
m
λ
j
⋅
β
j
{\displaystyle T(v)=\sum _{j=1}^{m}\lambda _{j}\cdot \beta _{j}}
因为这样的标量
λ
1
,
λ
2
,
…
,
λ
M
∈
K
{\displaystyle \lambda _{1},\,\lambda _{2},\,\ldots ,\,\lambda _{M}\in K}
是唯一存在的,所以对
j
=
1
,
2
,
…
,
m
{\displaystyle j=1,\,2,\,\ldots ,\,m}
有
λ
j
=
∑
i
=
1
n
t
j
i
v
i
{\displaystyle \lambda _{j}=\sum _{i=1}^{n}t_{ji}v_{i}}
考虑到矩阵乘法 的定义,上式可以改写为
[
λ
1
λ
2
⋮
λ
m
]
=
[
t
11
t
12
…
t
1
n
t
21
t
22
…
t
2
n
⋮
⋮
⋱
⋮
t
m
1
t
m
2
…
t
m
n
]
[
v
1
v
2
⋮
v
n
]
{\displaystyle {\begin{bmatrix}\lambda _{1}\\\lambda _{2}\\\vdots \\\lambda _{m}\end{bmatrix}}={\begin{bmatrix}t_{11}&t_{12}&\dots &t_{1n}\\t_{21}&t_{22}&\dots &t_{2n}\\\vdots &\vdots &\ddots &\vdots \\t_{m1}&t_{m2}&\dots &t_{mn}\end{bmatrix}}{\begin{bmatrix}v_{1}\\v_{2}\\\vdots \\v_{n}\end{bmatrix}}}
也就是说,只要知道
T
(
α
i
)
{\displaystyle T(\alpha _{i})}
在
B
W
{\displaystyle {\mathfrak {B}}_{W}}
下的诸分量
t
j
i
{\displaystyle t_{ji}}
,任意向量
v
∈
V
{\displaystyle v\in V}
的作用结果
T
(
v
)
{\displaystyle T(v)}
,都可以表示为矩阵
T
=
[
t
j
i
]
m
×
n
{\displaystyle \mathbf {T} ={[t_{ji}]}_{m\times n}}
与行向量
v
=
[
v
i
]
n
×
1
{\displaystyle \mathbf {v} ={[v_{i}]}_{n\times 1}}
的乘积。更直观的来说,矩阵
T
=
[
t
j
i
]
m
×
n
{\displaystyle \mathbf {T} ={[t_{ji}]}_{m\times n}}
就是把
T
(
α
i
)
{\displaystyle T(\alpha _{i})}
的诸分量沿行 (column )摆放所构成的。
由上面的推导可以知道,不同的基底
B
V
{\displaystyle {\mathfrak {B}}_{V}}
和
B
W
{\displaystyle {\mathfrak {B}}_{W}}
下,矩阵
T
=
[
t
j
i
]
m
×
n
{\displaystyle \mathbf {T} ={[t_{ji}]}_{m\times n}}
也不同 ,为了强调这点,也会将矩阵
T
{\displaystyle \mathbf {T} }
记为
T
=
[
T
]
B
W
B
V
{\displaystyle \mathbf {T} ={[T]}_{{\mathfrak {B}}_{W}}^{{\mathfrak {B}}_{V}}}
来强调这种关联性。
若
T
:
V
→
V
{\displaystyle T:V\to V}
,在同个向量空间
V
{\displaystyle V}
通常没有取不同基底的必要,那上面的推导可以在
B
V
=
B
W
{\displaystyle {\mathfrak {B}}_{V}={\mathfrak {B}}_{W}}
的前提下进行。这时上式可以进一步简写为
T
=
[
T
]
B
V
{\displaystyle \mathbf {T} ={[T]}_{{\mathfrak {B}}_{V}}}
以线性映射表示矩阵
若有由
m
×
n
{\displaystyle m\times n}
个标量构成的矩阵
A
=
[
a
i
j
]
m
×
n
∈
K
m
×
n
{\displaystyle \mathbf {A} ={[a_{ij}]}_{m\times n}\in K^{m\times n}}
,如果取
f
:
K
n
×
1
→
K
m
×
1
{\displaystyle f:K^{n\times 1}\to K^{m\times 1}}
为
f
(
x
)
=
A
x
{\displaystyle f(\mathbf {x} )=\mathbf {A} \mathbf {x} }
其中
x
=
[
x
1
x
2
⋮
x
n
]
∈
K
n
×
1
{\displaystyle \mathbf {x} ={\begin{bmatrix}x_{1}\\x_{2}\\\vdots \\x_{n}\end{bmatrix}}\in K^{n\times 1}}
因为矩阵乘法 只有唯一的结果,上面的定义的确符合函数 定义的基本要求。然后考虑
K
n
×
1
{\displaystyle K^{n\times 1}}
和
K
m
×
1
{\displaystyle K^{m\times 1}}
都可以视为定义在同个 标量体
K
{\displaystyle K}
上的向量空间 ,而且矩阵乘法是线性的,所以上述定义的函数
f
{\displaystyle f}
的确符合线性映射的基本定义。
用泛性质做矩阵表示
根据积 和余积 的泛性质,我们有
H
o
m
(
⨁
i
∈
I
U
i
,
∏
j
∈
J
V
j
)
≃
∏
i
∈
I
∏
j
∈
J
H
o
m
(
U
i
,
V
j
)
.
{\displaystyle \mathrm {Hom} \left(\bigoplus _{i\in I}U_{i},\prod _{j\in J}V_{j}\right)\simeq \prod _{i\in I}\prod _{j\in J}\mathrm {Hom} \left(U_{i},V_{j}\right).}
在
K
{\displaystyle K}
-线性空间 构成的范畴 中,有限个线性空间的余积和积是一回事。对于
U
,
V
{\displaystyle U,V}
的基
b
1
,
…
,
b
n
,
b
1
′
,
…
,
b
m
′
{\displaystyle {\mathbf {b}}_{1},\dots ,{\mathbf {b}}_{n},{\mathbf {b}}'_{1},\dots ,{\mathbf {b}}'_{m}}
,取
U
i
=
b
i
K
,
V
i
=
b
i
′
k
{\displaystyle U_{i}={\mathbf {b}}_{i}K,V_{i}={\mathbf {b}}'_{i}k}
,我们有
H
o
m
(
U
i
,
V
j
)
≃
K
{\displaystyle \mathrm {Hom} (U_{i},V_{j})\simeq K}
,所以左边的线性映射
H
o
m
(
U
,
V
)
{\displaystyle \mathrm {Hom} (U,V)}
就被拆解为了
n
m
{\displaystyle nm}
个
K
{\displaystyle K}
中的元素,这就是线性映射的矩阵表示。
用矩阵表示线性映射的原因和好处
把线性映射写成具体而简明的2维数阵形式后,就成了一种矩阵。进而由线性映射的加法规则和覆合规则来分别定义矩阵的加法规则和乘法规则是很自然的想法。[ 12] 当空间的基变化(坐标系变换)时,线性映射的矩阵也会有规律地变化。在特定的基上研究线性映射,就转化为对矩阵的研究。利用矩阵的乘法,可以把一些线性系统的方程表达得更紧凑(比如把线性方程组用矩阵表达和研究),也使几何意义更明显。矩阵可以分块 计算,可以通过适当的变换以“解耦”(把覆杂的变换分解为一些简单变换的组合)。要求出一个线性变换的秩 ,先写出其矩阵形式几乎是不可避免的一个步骤。
遇到
y
=
x
+
3
{\displaystyle y=x+3}
这样的加上了1个常量的非线性映射可以通过增加1个维度的方法,把变换映射写成2×2维的方形矩阵形式,从而在形式上把这一类特殊的非线性映射转化为线性映射。这个办法也适用于处理在高维线性变换上多加了一个常向量的情形。这在计算机图形学 和刚体理论(及其相关机械制造 和机器人学 )中都有大量应用。
对角化的矩阵具有诸多优点。线性映射在写成矩阵后可以进行对角化 (不能对角化的矩阵可以化简成接近对角矩阵的准对角矩阵 ),从而可以获得对角化矩阵拥有的独特优势(极大地简化乘法运算,易于分块,容易看出与基的选取无关的不变量 )。比如,对于作用于同一个空间的可对角化的方形矩阵
A
{\displaystyle A}
,要求出
A
{\displaystyle A}
自乘
n
{\displaystyle n}
次后的结果
A
n
{\displaystyle A^{n}}
,一个一个慢慢地乘是很麻烦的事情。而知道对角化技巧的人会发现,在将这矩阵对角化后,其乘法运算会变得格外简单。实际应用中有很多有意思的问题或解题方法都会涉及到矩阵自乘n次的计算,如1阶非齐次线性递推数列 通项公式 的线性代数求解法和马尔可夫链 的极限状态(极限分布)的求解。线性代数及矩阵论的一个主要问题就是寻找可使矩阵对角化的条件或者可使矩阵化简到含很多个0的条件[ 13] ,以便简化计算(这是主要原因之一)。
线性映射的矩阵的例子
二维空间
R
2
{\displaystyle R^{2}}
的线性变换的一些特殊情况有:
逆时针旋转 90度:
A
=
[
0
−
1
1
0
]
{\displaystyle A={\begin{bmatrix}0&-1\\1&0\end{bmatrix}}}
逆时针旋转
θ
{\displaystyle \theta }
度[ 14] :
A
=
[
cos
(
θ
)
−
sin
(
θ
)
sin
(
θ
)
cos
(
θ
)
]
{\displaystyle A={\begin{bmatrix}\cos(\theta )&-\sin(\theta )\\\sin(\theta )&\cos(\theta )\end{bmatrix}}}
针对y 轴反射 :
A
=
[
1
0
0
−
1
]
{\displaystyle A={\begin{bmatrix}1&0\\0&-1\end{bmatrix}}}
在所有方向上放大 2倍:
A
=
[
2
0
0
2
]
{\displaystyle A={\begin{bmatrix}2&0\\0&2\end{bmatrix}}}
水平错切 :
A
=
[
1
m
0
1
]
{\displaystyle A={\begin{bmatrix}1&m\\0&1\end{bmatrix}}}
挤压 :
A
=
[
k
0
0
1
/
k
]
{\displaystyle A={\begin{bmatrix}k&0\\0&1/k\end{bmatrix}}}
向y 轴投影 :
A
=
[
0
0
0
1
]
{\displaystyle A={\begin{bmatrix}0&0\\0&1\end{bmatrix}}}
从给定线性映射构造新的线性映射
两个线性映射的覆合映射 是线性的:如果
f
:
V
→
W
{\displaystyle f:V\rightarrow W}
和
g
:
W
→
Z
{\displaystyle g:W\rightarrow Z}
是线性的,则
g
∘
f
:
V
→
Z
{\displaystyle g\circ f:V\rightarrow Z}
也是线性的。
若线性映射可逆 ,则该线性映射的逆 也是线性映射。
如果
f
1
:
V
→
W
{\displaystyle f_{1}:V\rightarrow W}
和
f
2
:
V
→
W
{\displaystyle f_{2}:V\rightarrow W}
是线性的,则它们的和
f
1
+
f
2
{\displaystyle f_{1}+f_{2}}
也是线性的(这是由
(
f
1
+
f
2
)
(
x
)
=
f
1
(
x
)
+
f
2
(
x
)
{\displaystyle \left(f_{1}+f_{2}\right)\left(x\right)=f_{1}\left(x\right)+f_{2}\left(x\right)}
定义的)。
如果
f
:
V
→
W
{\displaystyle f:V\rightarrow W}
是线性的,而a 是基础体K 的一个元素,则定义自 (af )(x ) = a (f (x ))的映射af 也是线性的。
所以从
V
{\displaystyle V}
到
W
{\displaystyle W}
的线性映射的集合
L
(
V
,
W
)
{\displaystyle L\left(V,W\right)}
自身形成在
K
{\displaystyle K}
上的向量空间,有时指示为
H
o
m
(
V
,
W
)
{\displaystyle \mathrm {Hom} \left(V,W\right)}
。进一步的说,在
V
=
W
{\displaystyle V=W}
的情况中,这个向量空间(指示为
E
n
d
(
V
)
{\displaystyle \mathrm {End} (V)}
)是在映射覆合 下的结合代数 ,因为两个线性映射的覆合再次是线性映射,所以映射的覆合总是结合律的。
给定有限维的情况,如果基已经选择好了,则线性映射的覆合对应于矩阵乘法 ,线性映射的加法对应于矩阵加法 ,而线性映射与标量的乘法对应于矩阵与标量的乘法。
自同态线性映射
自同态的线性映射在泛函分析和量子力学 中都有很重要的地位。按前文约定,我们用“线性算子”来简称它。(注意泛函分析中所说的“线性算子”不一定是自同态 (endomorphism)映射,但我们为了照顾不同书籍的差异以及叙述的方便,暂用“线性算子”来称呼这种自同态。)
自同态和自同构
自同态 是一个數學對象 到它本身的保持结构的映射(同态 ),例如群
G
{\displaystyle G}
的自同态则是群同态
f
:
G
→
G
{\displaystyle f:G\to G}
。对于向量空间
V
{\displaystyle V}
,其自同态是线性算子
f
:
V
→
V
{\displaystyle f:V\rightarrow V}
;所有这种自同态的集合
E
n
d
(
V
)
{\displaystyle \mathrm {End} (V)}
与如上定义的加法、覆合和标量乘法一起形成一个结合代数 ,带有在体
K
{\displaystyle K}
上的单位元(特别是一个环)。这个代数的乘法单位元是恒等映射
i
d
:
V
→
V
{\displaystyle \mathrm {id} :V\rightarrow V}
。
若
V
{\displaystyle V}
的自同态也刚好是同构 则称之为自同构 。两个自同构的覆合 再次是自同构,所以
V
{\displaystyle V}
的所有的自同构的集合形成一个群 ,
V
{\displaystyle V}
的自同构群 可表为
A
u
t
(
V
)
{\displaystyle \mathrm {Aut} (V)}
或
G
L
(
V
)
{\displaystyle \mathrm {GL} (V)}
。因为自同构正好是那些在覆合运算下拥有逆元的自同态,所以
A
u
t
(
V
)
{\displaystyle \mathrm {Aut} (V)}
也就是在环
E
n
d
(
V
)
{\displaystyle \mathrm {End} (V)}
中的可逆元群 。
如果
V
{\displaystyle V}
之维度
n
{\displaystyle n}
有限
E
n
d
(
V
)
{\displaystyle \mathrm {End} (V)}
同构 于带有在
K
{\displaystyle K}
中元素的所有
n
×
n
{\displaystyle n\times n}
矩阵构成的结合代数 ,且
V
{\displaystyle V}
的自同态群同构 于带有在
K
{\displaystyle K}
中元素的所有
n
×
n
{\displaystyle n\times n}
可逆矩阵构成的一般线性群
G
L
(
n
,
K
)
{\displaystyle \mathrm {GL} (n,K)}
。
自同态在基下矩阵的分类
若尔当标准型 叙述了代数闭域
K
{\displaystyle K}
上的线性空间
V
{\displaystyle V}
上的自同态
φ
{\displaystyle \varphi }
在
V
{\displaystyle V}
的基上的矩阵表示的表现,有理标准型 是将其推广到任意域上的方法。
核、像和秩-零化度定理
对于一个线性映射
f
:
V
→
W
{\displaystyle f:V\rightarrow W}
,可以考虑以下两个:
核 ( Kernel )——送到零向量的那些向量:
K
e
r
(
f
)
:=
f
−
1
(
0
)
=
{
x
∈
V
∣
f
(
x
)
=
0
}
⊆
V
{\displaystyle \mathrm {Ker} (f):=f^{-1}(\mathbf {0} )=\{x\in V\mid f(x)=\mathbf {0} \}\subseteq V}
像 ( Image )——把整个空间送过去后的结果:
I
m
(
f
)
:=
f
(
V
)
=
{
f
(
x
)
∈
W
∣
x
∈
V
}
⊆
W
{\displaystyle \mathrm {Im} (f):=f(V)=\{f(x)\in W\mid x\in V\}\subseteq W}
那么
Ker
(
f
)
{\displaystyle \operatorname {Ker} (f)}
是
V
{\displaystyle V}
的子空间 ,而
Im
(
f
)
{\displaystyle \operatorname {Im} (f)}
是
W
{\displaystyle W}
的子空间。下面的叫做秩-零化度定理 的维度公式经常是有用的:
dim
(
K
e
r
(
f
)
)
+
dim
(
I
m
(
f
)
)
=
dim
(
V
)
{\displaystyle \dim(\mathrm {Ker} (f))+\dim(\mathrm {Im} (f))=\dim(V)}
dim
(
I
m
(
f
)
)
{\displaystyle \dim(\mathrm {Im} (f))}
这个数称做“
f
{\displaystyle f}
的秩”( rank )并写成
r
k
(
f
)
{\displaystyle \mathrm {rk} (f)}
,有时也写成
ρ
(
f
)
{\displaystyle \rho (f)}
;而
dim
(
K
e
r
(
f
)
)
{\displaystyle \dim(\mathrm {Ker} (f))}
这个数则称做“
f
{\displaystyle f}
的零化度”( nullity )并写成
v
(
f
)
{\displaystyle v(f)}
。如果
V
{\displaystyle V}
和
W
{\displaystyle W}
是有限维的,那么
f
{\displaystyle f}
的秩和零化度就是
f
{\displaystyle f}
的矩阵形式的秩 和零化度 。
这个定理在抽象代数的推广是同构定理 。
推广
多重线性映射 是线性映射最重要的推广,它也是格拉斯曼代数 和张量分析 的数学基础。其特例为双线性映射 。
参见
脚注与参考资料
脚注
脚注所引资料
其它参考资料