全书上自学线性代数需要几天特征值问题。。

2018线性代数大纲知识点:特征值与特征向量
万学海文 马达
日,教育部考试中心发布2018年硕士研究生入学统一考试大纲,考生最关心的考试大纲当中的线性代数相关考试内容与考试要求没有任何变化,连标点符号都没有变化。共分为六个章节,包含行列式、矩阵、向量、线性方程组、矩阵的特征值与特征向量、二次型。
考研复习从此刻起正式进入到冲刺阶段,很多考生此刻开始做题海战术,去市场上购买各种类型的复习全书,企图用大量的题型和题量来巩固知识,但是有些复习全书里有很多难题,进度很慢,复习不完,既提高不了分数,又打击了信心,得不偿失。
在此海文结合历年真题分析给出有关线性代数模块冲刺阶段的复习规划。一,从考研真题的难度来看,其实并不是很难,得分情况是良好的,因为考研数学的重点是对“三基”的考察,基本概念、基本理论和基本方法,试卷中70%的题目都是基础题目;二,真正需要冥思苦想的偏题、难题只是少数,并且所谓的难题也都是在基础概念、基本理论及基本方法上进行加深的,很多考生由于对这些基础内容掌握不够牢固,理解不够透彻,导致许多不应该失分的现象。综上所述,建议广大考生复习时一定要重视基础,要有针对性的进行相关内容的复习。这一点在矩阵的特征值与特征向量这个模块上体现的更加明显。
特征值、特征向量是线性代数的重点内容,是考研的重点之一,题多分值大。我们从两个角度来进行分析:重点内容和常见题型。
1 重点内容
(1)特征值和特征向量的概念及计算
(2)方阵的相似对角化
(3)实对称矩阵的正交相似对角化
2 常见题型
(1)数值矩阵的特征值和特征向量的求法
(2)抽象矩阵特征值和特征向量的求法
(3)矩阵相似的判定及逆问题(2014出大题)
(3)矩阵的相似对角化及逆问题
(4)由特征值或特征向量反求A
(5)有关实对称矩阵的问题
最后这段时间,考生一定要紧扣考试重点,结合海文大纲解读及高分规划,做到坚持不懈、合理规划。2018考研开始冲刺复习啦,一分耕耘一分收获。海文陪伴你一起加油!
责任编辑:
声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
今日搜狐热点关于线性代数特征值的问题_百度知道
关于线性代数特征值的问题
不明白(£+2)ˇ2(£-4)是怎么具体化简出来的...
不明白(£+2)ˇ2(£-4)是怎么具体化简出来的
答题抽奖
首次认真答题后
即可获得3次抽奖机会,100%中奖。
guopenghua
guopenghua
采纳数:175
获赞数:292
一个(lambda+2)是看第一行最后那个矩阵,第一列提出来的另外(lambda+2)(lambda-4)的可以直接求出第二行的那个行列式,是个二次函数lambda^2-2*lambda-8,容易分解
来自科学教育类芝麻团
采纳数:1385
获赞数:1068
参与团队:
第2行减去第1行,就出来了答题不易,请及时采纳,谢谢!
本回答被网友采纳
为你推荐:
其他类似问题
个人、企业类
违法有害信息,请在下方选择后提交
色情、暴力
我们会通过消息、邮箱等方式尽快将举报结果通知您。线性代数问题:当矩阵中每个列向量的和都为1时,一定有一个特征值是1,这个怎么推导啊?
我的图书馆
线性代数问题:当矩阵中每个列向量的和都为1时,一定有一个特征值是1,这个怎么推导啊?
以aii- λ,代替矩阵的对角线上相应的元素,(i=1,2,.n)并取行列式.这就是特征多项式.将第2,3,...n行加到第一行,由题设知,第一各元素均变为:1- λ,将(1-λ)提出来,知它是特征多项式的一个因子.则知λ= 1是特征方程的一个根.即λ=1是一个特征值.
加入你得矩阵是n阶的,你用一个全是1的n维向量(1,1,1,1,1,...,1)去乘矩阵,就得出来了,而这个向量就是对应特征值1的特征向量。
yangxueqin1989
不明白没看懂啊。。我们求特征值用的是M-λ·I,就是说要论证n阶矩阵M=n阶的单位矩阵嘛,这个全是1 的n维向量和单位矩阵啥关系类??
你不知道矩阵具体是什么怎么用M-λ·I?必须用它“矩阵中每个列向量的和都为1”的这个性质 。矩阵v*A=1*v,其中v=(1,1,...,1)的转置。你试试吧,是这么做的。
第一个回答是对的,你要把所取的向量(1,1,。。。1)取转置来用,并且是用矩阵左乘,好好理解特征值和特征向量的定义在这里的应用,好好试试吧。
喜欢该文的人也喜欢您所在位置: &
&nbsp&&nbsp&nbsp&&nbsp
线性代数特征值与特征向量课程.ppt 153页
本文档一共被下载:
次 ,您可全文免费在线阅读后下载本文档。
下载提示
1.本站不保证该用户上传的文档完整性,不预览、不比对内容而直接下载产生的反悔问题本站不予受理。
2.该文档所得收入(下载+内容+预览三)归上传者、原创者。
3.登录后可充值,立即自动返金币,充值渠道很便利
你可能关注的文档:
二、特征值和特征向量的性质 三.
矩阵的相似 思考题 思考题解答 §5.2 矩阵的相似对角化 二
相似对角化的方法 三、小结 思考题 思考题解答 §5.3实对称矩阵的相似对角化
思考题 思考题解答 §5.4 应 用
二.Markov过程
一、特征值与特征向量的求法 二、已知 的特征值,求与 相关
矩阵的特征值 三、求方阵 的特征多项式 四、关于特征值的其它问题 五、判断方阵 可否对角化 六、利用正交变换将实对称矩阵化为   对角阵 第五章  测试题 测试题答案 一.
求解线性方程组
例5.4.1 求解线性微分方程组
令 则方程组
可表示成矩阵形式 假设
可以相似对角化,即存在可逆矩阵
,使得 其中
的全部特征值。于是令 即 其中
,得 在上式两端同时左乘
,得 即 将上式积分得 其中
为积分常数。将式
,可得 其中
的对应于特征值
的特征向量,
另外,对于
阶线性齐次常系数微分方程 可令
于是,可得与方程
同解的方程组 其中 式
可写成矩阵形式 于是这类微分方程可以归结为等价的线性微分方程组,然后再利用特征值和特征向量求解。
令 例5.4.2 求解微分方程
可变为等价的方程组 即 其中 于是由例5.4.1可知, 可求得
的特征值为
,对应的特征向量分别为 从而 其中
为任意常数。
例5.4.3
某超市为了提高自己的经营、服务水平,年末对附近一个小区的居民作了市场调查。结果表明,该小区有60%的居民使用该超市提供的日用品,而且在这些老顾客中,有70%的人表示,来年仍将继续使用该超市提供的日用品;同时,在尚未使用过该超市提供的日用品的被调查中,有30%的人表示,来年将使用该超市提供的日用品。问:照此趋势,R年后,在这个小区中,有多少比例的居民使用该超市提供的日用品?
这个例子从数学角度看可以抽象出一个数学模型,即一个有限状态的系统。它每一时刻处在一个确定的状态,并随着时间的流逝从一个状态转移为另一个状态,每一状态的概率只与前一个状态相关。这样的一种连续过程被称为Markov过程。
一般地假设系统共有n种可能的状态,分别记为1,2,…,n,在某个观察期间,它的状态为j,而在下一个观察期间,它的状态i为的概率为
,称之为转移概率。它不随时间而变化,且有 称矩阵
为转移矩阵。由系统的初始状态可以构造一个
元向量称之为状态向量,记为
年后的状态向量记为
,于是有 时,有 由上式易见, 要求出
可相似对角化,即存在可逆矩阵
对于例5.4.3系统共有两种状态:使用和不使用,分别记为1和2,于是有 下面求
的特征值及对应的特征向量。 取 于是 于是,特征值为
。对应的特征向量分别为 从而 由上可知,当
时, 第三步 将每一个特征值代入相应的特征方程组, 求出基础解系,即得该特征值的特征向量. 第一步 计算 的特征多项式; 第二步 求出特征多项式的全部根,即得 的全部 特征值; 解 第一步 计算 的特征多项式 第三步 求出 的全部特征向量 求得基础解系 解之得基础解系 故
不能化为对角矩阵. A能否对角化?若能对角 例2 解 解之得基础解系 所以
可对角化. 注意   即矩阵
的列向量和对角矩阵中特征值的位置 要相互对应. 则 从而有
一般地,对任意多项式
,若   1.相似矩阵  
相似是矩阵之间的一种关系,它具有很多良好 的性质,除了课堂内介绍的以外,还有: 2.相似变换与相似变换矩阵   这种变换的重要意义在于简化对矩阵的各种 运算,其方法是先通过相似变换,将矩阵变成与 之等价的对角矩阵,再对对角矩阵进行运算,从 而将比较复杂的矩阵的
正在加载中,请稍后...
12页72页68页141页25页48页24页37页22页20页posts - 12,&
comments - 0,&
trackbacks - 0
&参考:https://www.zhihu.com/question/
想要理解特征值,首先要理解矩阵相似。什么是矩阵相似呢?从定义角度就是:存在可逆矩阵P满足B=则我们说A和B是相似的。让我们来回顾一下之前得出的重要结论:对于同一个线性空间,可以用两组不同的基和基来描述,他们之间的过渡关系是这样的:,而对应坐标之间的过渡关系是这样的:。其中P是可逆矩阵,可逆的意义是我们能变换过去也要能变换回来,这一点很重要。
我们知道,对于一个线性变换,只要你选定一组基,那么就可以用一个矩阵T1来描述这个线性变换。换一组基,就得到另一个不同的矩阵T2(之所以会不同,是因为选定了不同的基,也就是选定了不同的坐标系)。所有这些矩阵都是这同一个线性变换的描述,但又都不是线性变换本身。具体来说,有一个线性变换,我们选择基来描述,对应矩阵是
;同样的道理,我们选择基来描述,,对应矩阵是 ;我们知道基和基是有联系的,那么他们之间的变换 和 有没有联系呢?
当然有, 和 就是相似的关系,具体的请看下图:
没错,所谓相似矩阵,就是同一个线性变换的不同基的描述矩阵。这就是相似变换的几何意义。
这个发现太重要了。原来一族相似矩阵都是同一个线性变换的描述啊!难怪这么重要!工科研究生课程中有矩阵论、矩阵分析等课程,其中讲了各种各样的相似变换,比如什么相似标准型,对角化之类的内容,都要求变换以后得到的那个矩阵与先前的那个矩阵式相似的,为什么这么要求?因为只有这样要求,才能保证变换前后的两个矩阵是描述同一个线性变换的。就像信号处理(积分变换)中将信号(函数)进行拉氏变换,在复数域处理完了之后又进行拉式反变换,回到实数域一样。信号处理中是主要是为了将复杂的卷积运算变成乘法运算。其实这样的变换还有好多,有兴趣可以看积分变换的教材。
为什么这样做呢?矩阵的相似变换可以把一个比较丑的矩阵变成一个比较美的矩阵,而保证这两个矩阵都是描述了同一个线性变换。至于什么样的矩阵是“美”的,什么样的是“丑”的,我们说对角阵是美的。在线性代数中,我们会看到,如果把复杂的矩阵变换成对角矩阵,作用完了之后再变换回来,这种转换很有用处,比如求解矩阵的n次幂!而学了矩阵论之后你会发现,矩阵的n次幂是工程中非常常见的运算。这里顺便说一句,将矩阵对角化在控制工程和机械振动领域具有将复杂方程解耦的妙用!总而言之,相似变换是为了简化计算!
从另一个角度理解矩阵就是:矩阵主对角线上的元素表示自身和自身的关系,其他位置的元素aij表示i位置和j位置元素之间的相互关系。那么好,特征值问题其实就是选取了一组很好的基,就把矩阵 i位置和j位置元素之间的相互关系消除了。而且因为是相似变换,并没有改变矩阵本身的特性。因此矩阵对角化才如此的重要!
特征向量的引入是为了选取一组很好的基。空间中因为有了矩阵,才有了坐标的优劣。对角化的过程,实质上就是找特征向量的过程。如果一个矩阵在复数域不能对角化,我们还有办法把它化成比较优美的形式——Jordan标准型。高等代数理论已经证明:一个方阵在复数域一定可以化成Jordan标准型。这一点有兴趣的同学可以看一下高等代数后或者矩阵论。
经过上面的分析相信你已经可以得出如下结论了:坐标有优劣,于是我们选取特征向量作为基底,那么一个线性变换最核心的部分就被揭露出来——当矩阵表示线性变换时,特征值就是变换的本质!特征值的几何意义前面的答主已经用很多图解释过了,接下来我们分析一下特征值的物理意义:特征值英文名eigen value。“特征”一词译自德语的eigen,由希尔伯特在1904年首先在这个意义下使用(赫尔曼·冯·亥姆霍兹在更早的时候也在类似意义下使用过这一概念)。eigen一词可翻译为“自身的”,“特定于...的”,“有特征的”或者“个体的”—这强调了特征值对于定义特定的变换上是很重要的。它还有好多名字,比如谱,本征值。为什么会有这么多名字呢?
原因就在于他们应用的领域不同,中国人为了区分,给特不同的名字。你看英文文献就会发现,他们的名字都是同一个。当然,特征值的思想不仅仅局限于线性代数,它还延伸到其他领域。在数学物理方程的研究领域,我们就把特征值称为本征值。如在求解薛定谔波动方程时,在波函数满足单值、有限、连续性和归一化条件下,势场中运动粒子的总能量(正)所必须取的特定值,这些值就是正的本征值。
前面我们讨论特征值问题面对的都是有限维度的特征向量,下面我们来看看特征值对应的特征向量都是无限维函数的例子。这时候的特征向量我们称为特征函数,或者本证函数。这还要从你熟悉的微分方程说起。方程本质是一种约束,微分方程就是在世界上各种各样的函数中,约束出一类函数。对于一阶微分方程
我们发现如果我将变量y用括号[]包围起来,微分运算的结构和线性代数中特征值特征向量的结构,即和竟是如此相似。这就是一个求解特征向量的问题啊!只不过“特征向量”变成函数!我们知道只有满足这个式子。这里出现了神奇的数e,一杯开水放在室内,它温度的下降是指数形式的;听说过放射性元素的原子核发生么?随着放射的不断进行,放射强度将按指数曲线下降;化学反应的进程也可以用指数函数描述……类似的现象还有好多。
为什么选择指数函数而不选择其他函数,因为指数函数是特征函数。为什么指数函数是特征?我们从线性代数的特征向量的角度来解释。这已经很明显了就是“特征向量”。于是,很自然的将线性代数的理论应用到线性微分方程中。那么指数函数就是微分方程(实际物理系统)的特征向量。用特征向量作为基表示的矩阵最为简洁。就像你把一个方阵经过相似对角化变换,耦合的矩阵就变成不耦合的对角阵一样。在机械振动里面所说的模态空间也是同样的道理。如果你恰巧学过振动分析一类的课程,也可以来和我交流。
同理,用特征函数解的方程也是最简洁的,不信你用级数的方法解方程,你会发现方程的解有无穷多项。解一些其他方程的时候(比如贝塞尔方程)我们目前没有找到特征函数,于是退而求其次才选择级数求解,至少级数具有完备性。实数的特征值代表能量的耗散或者扩散,比如空间中热量的传导、化学反应的扩散、放射性元素的衰变等。虚数的特征值(对应三角函数)代表能量的无损耗交换,比如空间中的电磁波传递、振动信号的动能势能等。复数的特征值代表既有交换又有耗散的过程,实际过程一般都是这样的。复特征值在电路领域以及振动领域将发挥重要的作用,可以说,没有复数,就没有现代的电气化时代!
对于二阶微分方程方程,它的解都是指数形式或者复指数形式。可以通过欧拉公式将其写成三角函数的形式。复特征值体现最多的地方是在二阶系统,别小看这个方程,整本自动控制原理都在讲它,整个振动分析课程也在讲它、还有好多课程的基础都是以这个微分方程为基础,这里我就不详细说了,有兴趣可以学习先关课程。说了这么多只是想向你传达一个思想,就是复指数函数式系统的特征向量!
如果将二阶微分方程转化成状态空间的形式(具体转化方法见现代控制理论,很简单的)
。则一个二阶线性微分方程就变成一个微分方程组的形式这时就出现了矩阵A,矩阵可以用来描述一个系统:如果是振动问题,矩阵A的特征值是虚数,对应系统的固有频率,也就是我们常说的,特征值代表振动的谱。如果含有耗散过程,特征值是负实数,对应指数衰减;特征值是正实数,对应指数发散过程,这时是不稳定的,说明系统极容易崩溃,如何抑制这种发散就是控制科学研究的内容。
提到振动的谱,突然想到了这个经典的例子:美国数学家斯特让(G..Strang)在其经典教材《线性代数及其应用》中这样介绍了特征值作为频率的物理意义,他说:"大概最简单的例子(我从不相信其真实性,虽然据说1831年有一桥梁毁于此因)是一对士兵通过桥梁的例子。传统上,他们要停止齐步前进而要散步通过。这个理由是因为他们可能以等于桥的特征值之一的频率齐步行进,从而将发生共振。就像孩子的秋千那样,你一旦注意到一个秋千的频率,和此频率相配,你就使频率荡得更高。一个工程师总是试图使他的桥梁或他的火箭的自然频率远离风的频率或液体燃料的频率;而在另一种极端情况,一个证券经纪人则尽毕生精力于努力到达市场的自然频率线。特征值是几乎任何一个动力系统的最重要的特征。"
对于一个线性系统,总可以把高阶的方程转化成一个方程组描述,这被称为状态空间描述。因此,他们之间是等价的。特征值还有好多用处,原因不在特征值本身,而在于特征值问题和你的物理现象有着某种一致的对应关系。学习特征值问题告诉你一种解决问题的方法:寻找事物的特征,然后特征分解。
最后声明一下, 本文是在整理孟岩老师的《理解矩阵》和任广千、胡翠芳老师的《线性代数的几何意义》基础上形成的,只是出于一种对数学的爱好!有兴趣的读者建议阅读原文。也欢迎下载《神奇的矩阵》和《神奇的矩阵第二季》了解更多有关线性代数和矩阵的知识。
41581 条评论
补充:答主现在用到的多数是对称矩阵或酉矩阵的情况,有思维定势了,写了半天才发现主要讲的是对称矩阵,这答案就当科普用了。特征值在很多领域应该都有自己的用途,它的物理意义到了本科高年级或者研究生阶段涉及到具体问题的时候就容易理解了,刚学线性代数的话,确实抽象。
——————————————————以下为正文——————————————————
从线性空间的角度看,在一个定义了内积的线性空间里,对一个N阶对称方阵进行特征分解,就是产生了该空间的N个标准正交基,然后把矩阵投影到这N个基上。N个特征向量就是N个标准正交基,而特征值的模则代表矩阵在每个基上的投影长度。特征值越大,说明矩阵在对应的特征向量上的方差越大,功率越大,信息量越多。
应用到最优化中,意思就是对于R的二次型,自变量在这个方向上变化的时候,对函数值的影响最大,也就是该方向上的方向导数最大。应用到数据挖掘中,意思就是最大特征值对应的特征向量方向上包含最多的信息量,如果某几个特征值很小,说明这几个方向信息量很小,可以用来降维,也就是删除小特征值对应方向的数据,只保留大特征值方向对应的数据,这样做以后数据量减小,但有用信息量变化不大。
——————————————————举两个栗子——————————————————
应用1 二次型最优化问题
二次型,其中R是已知的二阶矩阵,R=[1,0.5;0.5,1],x是二维列向量,x=[x1;x2],求y的最小值。
从图中看,函数值变化最快的方向,也就是曲面最陡峭的方向,归一化以后是[0.1],嗯哼,这恰好是矩阵R的一个特征值,而且它对应的特征向量是最大的。因为这个问题是二阶的,只有两个特征向量,所以另一个特征向量方向就是曲面最平滑的方向。这一点在分析最优化算法收敛性能的时候需要用到。二阶问题比较直观,当R阶数升高时,也是一样的道理。
应用2 数据降维
兴趣不大的可以跳过问题,直接看后面降维方法。机器学习中的分类问题,给出178个葡萄酒样本,每个样本含有13个参数,比如酒精度、酸度、镁含量等,这些样本属于3个不同种类的葡萄酒。任务是提取3种葡萄酒的特征,以便下一次给出一个新的葡萄酒样本的时候,能根据已有数据判断出新样本是哪一种葡萄酒。问题详细描述:训练样本数据:
这是降维以后的分类错误率。
1073114 条评论
特征值不仅仅是数学上的一个定义或是工具,特征值是有具体含义的,是完全看得见摸得着的。
比如说一个三维矩阵,理解成线性变换,作用在一个球体上:
三个特征值决定了 对球体在三个维度上的拉伸/压缩,把球体塑造成一个橄榄球;
剩下的部分决定了这个橄榄球在三维空间里面怎么旋转。
对于一个微分方程:
将系数提取出来
因此y的变化率与特征值息息相关:
再将y由Q变换回x,我们就能得出x在不同时间的值。x的增长速度就是特征值λ,Q用来把x旋转成y。
13512 条评论
各位知友在点赞同之前请看一下评论区。这个例子有待讨论。
-----------我举一个直观一点的例子吧...我也喜欢数学的直观之美。
我们知道,一张图像的像素(如:320 x 320)到了计算机里面事实上就是320x320的矩阵,每一个元素都代表这个像素点的颜色..
如果我们把基于特征值的应用,如PCA、向量奇异值分解SVD这种东西放到图像处理上,大概就可以提供一个看得到的、直观的感受。关于SVD的文章可以参考LeftNotEasy的文章:
简单的说,SVD的效果就是..用一个规模更小的矩阵去近似原矩阵...这里A就是代表图像的原矩阵..其中的尤其值得关注,它是由A的特征值从大到小放到对角线上的..也就是说,我们可以选择其中的某些具有“代表性”的特征值去近似原矩阵!
19733 条评论
7216 条评论
282 条评论
定义很抽象我也一直搞不懂,但是最近开始在图像处理方面具体应用的时候就清晰很多了,用学渣的语言沟通一下吧我们。
抛开学术研究不谈,其实根本不会,特征值eigenvalue和特征向量eigenvector的一大应用是用于大量数据的降维
比如拿淘宝举个例子,每个淘宝店铺有N个统计数据:商品类型,日销量周销量月销量、好评率中评差评率……全淘宝有M家店铺,那么服务器需要记录的数据就是M*N的矩阵;
这是一个很大的数据,实际上我们可以通过求这个矩阵的特征向量和对应的特征值来重新表示这个M*N的矩阵:我们可以用周销量来误差不大的表示日销量和月销量(除以七和乘以四),这个时候周销量就可以当作一个特征向量,它能够表示每个店铺销量这个空间方向的主要能量(也就是数据),这样我们就简略的把一个35维的向量简化成四维的(30个日销量加4个周销量加1个月销量);同理我们也可以把好评率中评率差评率用一个好评率来表示(剩余的百分比默认为差评率),这样的降维大致上也能反映一个店铺的诚信度;这样通过不断的降维我们可以提取到某系列数据最主要的几个特征向量(对应特征值最大的),这些向量反映了这个矩阵空间最主要的能量分布,所以我们可以用这几个特征向量来表示整个空间,实现空间的降维。
这个方法叫做Principle Components Analysis,有兴趣的同学可以wiki一下。
5717 条评论
作为一个线性代数考60+的学渣,我是这么直观地理解的:
把式子中的看作一个线性变换,那么这个定义式就表示对于 向量而言,经过变换之后该向量的方向没有变化(可能会反向),而只是长度变化了(乘以 )。
也就是对于变换来说,存在一些“不变”的量(比如特征向量的方向),我想,“特征”的含义就是“不变”。
而特征值,如你所见,就是变换
在特征方向上的伸展系数吧(乱诹了个名词 :P)。
zh.wikipedia.org/wiki/%E7%89%B9%E5%BE%81%E5%90%91%E9%87%8F
454 条评论
如果把矩阵理解为空间变换的参数,那特征值和特征向量可这样理解:
现在将x(m*1)向量按照A(m*m)矩阵进行空间变换,A矩阵的特征向量为a1,a2,a3,...,am,特征值为b1,b2,b3,...,bm。可以把a1,a2,a3,...,am想象成m维坐标系下的m根柱子,每根柱子都相当于一个有刻度的轨道,上边有一个支点,空间系在这m个支点上,并且会因为支点的变化而变化。支点变化导致空间变化,空间变化导致空间中的向量变化。这个空间中的所有向量,都会随着任何支点的变化而变化,被拉伸旋转。
在原始空间的情况下,每根柱子的支点都在刻度1上。现在要对向量b按照A矩阵进行空间变换,则每根柱子上的支点按照b1,b2,b3,...,bm进行伸缩,空间随之伸缩。而随着空间在不同维度上不同量的伸缩,向量b也随之被伸缩旋转。
推荐一种看法吧,粗略描述如下:
把矩阵看成线性变换,找特征值就是找这个线性变换下的不变自空间。
然后一些好的矩阵、线性变换,就可以分成好多个简单的变换了。不好的矩阵也可以作进一步处理,也能分解。
将复杂的东西变成很多简单的东西,这是数学很美的一点。
什么是方阵?方阵就是n维线性空间上的线性变换。那么我们总要考虑最简单的情况:什么是一维的线性变换呢?就是简单的常数倍拉伸A: x -& ax
11添加评论
看了大部分的回答,基本都没有回答出为什么要求特征值。
特征值和特征向量是为了研究向量在经过线性变换后的方向不变性而提出的,一个空间里的元素通过线性变换到另一个相同维数的空间,那么会有某些向量的方向在变换前后不会改变,方向不变但是这些向量的范数可能会改变,我这里说的都是实数空间的向量。
定义,定义为原始空间中的向量,为变换后空间的向量,简单起见令为阶方阵且特征值互不相同,对应的特征向量线性无关。那么原始空间中的任何一个向量都可以由A的特征向量表示,既那么在变换到另一个空间时,这就求完了!
好,下面再说更深层次的含义。
在不同的领域特征值的大小与特征向量的方向所表示的含义也不同,但是从数学定义上来看,每一个原始空间中的向量都要变换到新空间中,所以他们之间的差异也会随之变化,但是为了保持相对位置,每个方向变换的幅度要随着向量的分散程度进行调整。
你们体会一下拖拽图片使之放大缩小的感觉。
204 条评论
32添加评论
/* 多图预警 */用特征向量作为基,线性变换会很简单,仅仅是伸缩变换,而特征值就是伸缩的大小。各位已经说的很清楚了,我就发几张用mathematica做的图吧。
颜色越深冷,代表向量长度越小。可以看出特征向量所在的直线上的向量经过变换之后方向不变,这意味着一个向量的分量是各自独立的,这对于我们分析矩阵、线性变换就方便了很多。
494 条评论
268 条评论
149 条评论
从相似变换开始讲吧。A=PNP-1如果我们取N是对角阵,那主对角线上的三个数就是三个特征值,而P矩阵就是特征向量的排列。随便给一个向量x,有Ax=PNP-1x
左边我们都知道是线性变换,而右边怎么看呢?首先我们看P-1xP的每一个列向量都是一个特征向量,也就是说P构成线性空间的一组基。那么P逆x即将x变换为特征向量为基表示的坐标。为便于直观理解,特殊的,如果P为单位正交阵(即几个特征向量互相垂直且模长为1),那么P逆等于P转置,即P逆是特征向量排列出来的,每一行元素其实是一个特征向量。由于特征向量无所谓尺度,我们把它的模长归一化一下。这样,P逆x相当于把每一个特征向量与x做内积。由于特征向量模长为1,内积得到的实际上是x在特征向量上的投影长度。整体而言,这一步得到的是x向量在特征向量坐标系下面的坐标值。再乘中间的对角矩阵N,实际上是把刚才得到的新坐标在每一个特征向量上放大或者缩小特征值倍。最后一步,再乘P,相当于把坐标还原到原来的坐标系下面。
所以说,矩阵代表一个线性变换(在某几个方向放大或者缩小)。特征向量代表这个线性变换的几个方向。特征值代表放大或者缩小的倍数。以上。私以为这样理解是直观的。
找了几天, 这个视频(7分钟)是我见过讲解最为直观的, 强烈推荐. 源视频在youtube上: 为了让国内的童鞋也可以看到, 我把它上传到youku了:
另外, 这个简单的网页也挺好的:
仅考虑非奇异矩阵。
以3阶非奇异矩阵为例,设它的3个特征值(多重特征值就重复写)分别为 ,,, 对应的特征向量分别为,和,则线性无关。
此时任一向量可表示为的线性组合,设,则有
使用匿名身份回答
数分入门:极限与实数理论
谈谈微积分的学习方法
线性代数入门:从方程到映射
从几何学看数学之美
如何学好本科数学?
阅读(...) 评论()

我要回帖

更多关于 线性代数公式 的文章

 

随机推荐