前言
最近在重温线性代数,对矩阵、向量等概念有了新的理解。这里也强烈推荐3Blue1Brown的系列数学视频,对我的帮助非常大。线性代数给出了一些列概念和工具,使得所有符合一些基础条件的东西都能使用这些工具来解决现实问题。本文是对自己学习的一个总结,专业词汇和符号有偏差。
因为懒得使用公式,本文使用[]
来表示矩阵,使用()
来表示转置之后的矩阵。
向量和向量空间
向量线性代数中最基本的概念。在学习当中我们常常会把这个概念想像成一个有向线段、图上的一个点或者一组数的集合。而向量其实是一个抽象的概念,他可以代表能用多个数描述的状态。比如我们可以把人看作是一个用身高、体重、和三围来描述向量。这种描述非常简陋,但减肥的人会关注这个向量。人也可以通过智商,学历和年龄来构造一个向量。hr会更关注这个向量。这两个向量是不能相提并论的,因为每一个参数的意义不同。在线性代数中,这两个向量处在不同的向量空间。向量空间就是向量所有可能的取值构成的一个集合。
基向量和张成空间
基向量是向量空间当中的若干个向量,他们通过拉伸和相加得到的向量集合称为这组基向量的张成空间。张成空间往往等于向量空间,比如二维平面中我们可以取i = (1, 0)
, j = (0, 1)
两个向量为基向量,那么向量k = (3, 4)
可以表达成3i + 4j
。有时候张成空间比向量空间小,比如取i' = (1, 0)
,j' = (2, 0)
。这组向量无法表达k' = (3, 4)
因为k'
不在i'
、j'
的张成空间中。
矩阵和基变换
矩阵是描述向量线性变化的工具。能将一个向量线性映射到另一个向量。有一种变换很特殊就是没有变换。通常称之为E。比如减肥的人做的一组训练使体重下降这个过程是一个变换,他不做运动也是一个变换E,只是体重没有变化。矩阵还能看作是对基向量组的描述,其中的每一列都是一个基向量。其中E代表的基向量组称为标准基向量。这样一来A = [i', j']
可以看作用i'
, j'
为基向量描述一个向量。
把矩阵A作用到一个向量相当于把这个向量从A语言翻译到E语言,这个翻译的过程或者映射的过程叫做矩阵的乘法。如果映射前后的两个向量是一一对应的,就会存在一个矩阵可以做这个映射的逆运算,类似于函数上的逆函数,也就是这个矩阵的逆矩阵(A^-1)。从翻译的角度看也很简单,就是把一个向量从E语言翻译到A语言。映射和翻译这两种思维方便我们在实际生活中更好的解决问题。
矩阵的秩
从直观上来讲矩阵的秩就是矩阵对应的基向量的张成空间的维度,三维空间的标准基向量秩为三。如果维数和秩相等那这个矩阵就是一个满秩矩阵。非满秩矩阵相当于把三维空间压缩到一个平面或者一条线,甚至一个点。也就是向量空间比张成空间小。从而这个矩阵就是不可逆的。当然,有些映射可以把整个空间的所有点一一对应到一个平面或者一条线上,但是这就不是一个线性变换了。
要计算矩阵的秩需要引入初等变换的概念有三个初等变换矩阵E(i<->j)
,E(i+kj)
, E(ki)
分别代表交换矩阵两行/列,把某一行/列乘以非0数加到另一行/列,某一列乘以非0数。每一个变换都不会使得矩阵的秩发生改变,而经过一系列的变换矩阵最终会转换成最简形式,这时候有多少非0行,矩阵的秩就是几。满秩矩阵P
的最简形式就是E,所以任何一个满秩矩阵都可以看成是从E经过一些列初等变换得来。初等变换可逆,所以满秩矩阵总是可逆的。
行列式
行列式是把矩阵按照特定规律计算得到的一个值,这个值代表了矩阵对应基向量的向量空间的压缩比,这个压缩比为0对应着矩阵不是满秩矩阵。行列式的计算用到很多技巧,一个重要的概念是逆序数,这个使得行列的交换称为可能。行列的交换又得出两行(列)成比例则行列式为0,进一步推导出r1+kr2规则。而余子式的概念可以利用伴随矩阵求出逆矩阵。
点积
点积是两个向量的运算,其值是两个向量的长度之积 乘以 两个向量夹脚的余弦值
其公式为 (a, b) · (c, d) = ac + bd
我们可以把第一个向量看作是一个矩阵并使用映射的方式来思考这个问题:[a, b](c, d) = [ac + bd]
式中[a, b]对第二个向量进行映射,映射成了一个一维的向量也可以看作是一个数字。把一个高维的向量映射到低维上的过程就是一个投影的过程。投影就是忽略这个向量在低维空间法向量上的分量(不够清晰)。可以用低维空间基向量和其法向量构成的基向量来描述一个向量,然后忽略法向量上的分量。这样就完成了一次投影。向量的点积就是把n维向量映射到一维数轴的公式。
差积由于目前无法理解以后再记录。。三维向量的差积为这两个向量张成空间的法向量,其长度为这两个向量围成的面积,二维向量是一个标量,值也是围成的面积,有趣的是三维向量a, b, c围成的体积是 a · (b X c)
特征向量
一个变换有时候对于某些向量是比较温和的,只是简单的对这个向量做了数乘,如果变换存在这种向量,那就称之为特征向量比如变换P
如果有特征向量那Pv = av
如果我们在n维变换种能够找到n个特征向量并且他们的张成空间和P
代表的向量的张成空间一致那我们可以使用这些特征向量来构建一个矩阵Q
,这个空间中P
变换只是简单的把每个基向量拉伸或者收缩,P
变换在Q
的空间中会有一个简单的表现方式R
,R
只有对角线上的值不为0。可以得出P = QR(Q^-1)
,当我们需要计算Pv
我们可以这样计算QR(Q^-1)v
。