Re: [问卦] 现在读线代还来的及吗?

楼主: lovealgebra (calculus)   2017-01-09 21:11:56
※ 引述《NerVGear (Phantom)》之铭言:
: 乳题 明天就要考线代了
: 小鲁看到Orthogonality算nullspace真的不知道在公三小
: 唯一看得懂的只有内积外积那边QQ
: Linear Transformation也看不太懂
: 求众书卷奖指点
Linear transformation(线性转换)
Def T:V->W
(1)T(x+y)=T(x)+T(y)
(2)T(cx)=cT(x)
Where x y属于V c属于F
Nullspace of T note N(T)
蒐集所有打到0的向量,这些向量在V里面
Range of T note R(T)
蒐集所有打过去的向量
最后你可以得到Dimension theorem
dim(V)=Nullity(T)+Rank(T)
Nullity(T)是N(T)的dimension
Rank(T)是R(T)的dimension
事实上T可以写成一个Matrix representation
要是你有V和W的基底的情况
Orthogonal是有内积之后才去讨论
我们期待基底能够彼此Orthogonal
因为要是基底能够Orthogonal,找出任意向量的线性组合系数会非常容易
最后甚至会讨论假设你的Eigenvector也能够有这样的性质,则你的对角化性质会非常强
Ex:A is self-Adjoint (或者A is real symmetric)和A is normal
因为你的矩阵对角化D=Q^(-1)AQ=Q^tAQ
Q是你的Eigenvector构成
则这边的Q是orthogonal matrix Q^t=Q^(-1)
因为妳的Eigenvector彼此互相垂直
推文说的SVD
Singular value decomposition
就是假设A非方阵,但是你的AA^t 为对称矩阵
->Self Adjoint ->Diagonalizable
是利用这个特性去做矩阵分解
线代太多了,很难讲的很完全
作者: mmes (卷毛男)   2017-01-09 21:17:00
哪部
作者: a3899200 (阿歪歪)   2017-01-09 21:19:00
这么用心回文竟然没什么人推
作者: zxasqw0246 (yoyo)   2017-01-09 21:25:00
要怎么求range(t)
作者: ck960785 (Metal 0-4)   2017-01-09 21:32:00
线性转换真的很抽象 花我超多时间
作者: kevininla ((kevin)   2017-01-09 21:45:00
感恩大大

Links booklink

Contact Us: admin [ a t ] ucptt.com