※ 引述《NerVGear (Phantom)》之铭言:
: 乳题 明天就要考线代了
: 小鲁看到Orthogonality算nullspace真的不知道在公三小
: 唯一看得懂的只有内积外积那边QQ
: Linear Transformation也看不太懂
: 求众书卷奖指点
Linear transformation(线性转换)
Def T:V->W
(1)T(x+y)=T(x)+T(y)
(2)T(cx)=cT(x)
Where x y属于V c属于F
Nullspace of T note N(T)
蒐集所有打到0的向量,这些向量在V里面
Range of T note R(T)
蒐集所有打过去的向量
最后你可以得到Dimension theorem
dim(V)=Nullity(T)+Rank(T)
Nullity(T)是N(T)的dimension
Rank(T)是R(T)的dimension
事实上T可以写成一个Matrix representation
要是你有V和W的基底的情况
Orthogonal是有内积之后才去讨论
我们期待基底能够彼此Orthogonal
因为要是基底能够Orthogonal,找出任意向量的线性组合系数会非常容易
最后甚至会讨论假设你的Eigenvector也能够有这样的性质,则你的对角化性质会非常强
Ex:A is self-Adjoint (或者A is real symmetric)和A is normal
因为你的矩阵对角化D=Q^(-1)AQ=Q^tAQ
Q是你的Eigenvector构成
则这边的Q是orthogonal matrix Q^t=Q^(-1)
因为妳的Eigenvector彼此互相垂直
推文说的SVD
Singular value decomposition
就是假设A非方阵,但是你的AA^t 为对称矩阵
->Self Adjoint ->Diagonalizable
是利用这个特性去做矩阵分解
线代太多了,很难讲的很完全