大学同济线性代数第六版pdf数

苹果/安卓/wp
唵嘛呢叭咪吽
唵嘛呢叭咪吽
积分 22430, 距离下一级还需 9170 积分
权限: 自定义头衔, 签名中使用图片, 隐身, 设置帖子权限, 设置回复可见, 签名中使用代码
道具: 涂鸦板, 彩虹炫, 雷达卡, 热点灯, 显身卡, 匿名卡, 金钱卡, 抢沙发, 变色卡, 提升卡, 沉默卡, 千斤顶, 置顶卡
购买后可立即获得
权限: 隐身
道具: 金钱卡, 变色卡, 彩虹炫, 雷达卡, 热点灯, 涂鸦板
开心签到天数: 1263 天连续签到: 50 天[LV.10]以坛为家III
《简明线性代数》课件
(广州大学)
本帖隐藏的内容
09:56:27 上传
《简明线性代数》课件
奖励积极上传好的资料
总评分:&经验 + 100&
凡事,一笑而过..................
hylpy1也是免费分享的&&赞!
感谢楼主免费分享
有同济版考研用书不用,非要自己去大地出版社弄个出来
初级热心勋章
初级热心勋章
中级热心勋章
中级热心勋章
高级热心勋章
高级热心勋章
初级学术勋章
初级学术勋章
中级学术勋章
中级学术勋章
高级学术勋章
高级学术勋章
初级信用勋章
初级信用勋章
中级信用勋章
中级信用勋章
高级信用勋章
高级信用勋章
特级热心勋章
高级热心勋章
特级学术勋章
特级学术勋章
特级信用勋章
高级信用勋章
&nbsp&nbsp|
&nbsp&nbsp|
&nbsp&nbsp|
&nbsp&nbsp|
&nbsp&nbsp|
&nbsp&nbsp|
如有投资本站或合作意向,请联系(010-);
邮箱:service@pinggu.org
投诉或不良信息处理:(010-)
论坛法律顾问:王进律师10个例子带你了解机器学习中的线性代数
本文介绍了 10 个常见机器学习案例,这些案例需要用线性代数才能得到最好的理解。
线性代数是数学的分支学科,涉及矢量、矩阵和线性变换。
它是机器学习的重要基础,从描述算法操作的符号到代码中算法的实现,都属于该学科的研究范围。
虽然线性代数是机器学习领域不可或缺的一部分,但二者的紧密关系往往无法解释,或只能用抽象概念(如向量空间或特定矩阵运算)解释。
智能投顾(FOF)与资产配置培训
FOF、智能投顾的发展史与产品结构
优选管理型FOF
恒定组合型FOF
二八轮动类策略的实践
行业轮动类策略的实践
培训时间:日
培训地点:上海(具体地址,开课前通知)
阅读这篇文章后,你将会了解到:
如何在处理数据时使用线性代数结构,如表格数据集和图像。
数据准备过程中用到的线性代数概念,例如 one-hot 编码和降维。
深度学习、自然语言处理和推荐系统等子领域中线性代数符号和方法的深入使用。
让我们开始吧。
这 10 个机器学习案例分别是:
1. Dataset and Data Files 数据集和数据文件
2. Images and Photographs 图像和照片
3. One-Hot Encoding one-hot 编码
4. Linear Regression 线性回归
5. Regularization 正则化
6. Principal Component Analysis 主成分分析
7. Singular-Value Decomposition 奇异值分解
8. Latent Semantic Analysis 潜在语义分析
9. Recommender Systems 推荐系统
10. Deep Learning 深度学习
1. 数据集和数据文件
在机器学习中,你可以在数据集上拟合一个模型。
这是表格式的一组数字,其中每行代表一组观察值,每列代表观测的一个特征。
例如,下面这组数据是鸢尾花数据集的一部分
数据集地址:http://archive.ics.uci.edu/ml/datasets/Iris
5.1, 3.5, 1.4, 0.2,Iris-setosa
4.9, 3.0, 1.4, 0.2,Iris-setosa
4.7, 3.2, 1.3, 0.2,Iris-setosa
4.6, 3.1, 1.5, 0.2,Iris-setosa
5.0, 3.6, 1.4, 0.2,Iris-setosa
这些数据实际上是一个矩阵:线性代数中的一个关键数据结构。
接下来,将数据分解为输入数据和输出数据,来拟合一个监督机器学习模型(如测量值和花卉品种),得到矩阵(X)和矢量(y)。矢量是线性代数中的另一个关键数据结构。
每行长度相同,即每行的数据个数相同,因此我们可以说数据是矢量化的。这些行数据可以一次性或成批地提供给模型,并且可以预先配置模型,以得到固定宽度的行数据。
2. 图像和照片
也许你更习惯于在计算机视觉应用中处理图像或照片。
你使用的每个图像本身都是一个固定宽度和高度的表格结构,每个单元格有用于表示黑白图像的 1 个像素值或表示彩色图像的 3 个像素值。
照片也是线性代数矩阵的一种。
与图像相关的操作,如裁剪、缩放、剪切等,都是使用线性代数的符号和运算来描述的。
3. one-hot 编码
有时机器学习中要用到分类数据。
可能是用于解决分类问题的类别标签,也可能是分类输入变量。
对分类变量进行编码以使它们更易于使用并通过某些技术进行学习是很常见的。one-hot 编码是一种常见的分类变量编码。
one-hot 编码可以理解为:创建一个表格,用列表示每个类别,用行表示数据集中每个例子。在列中为给定行的分类值添加一个检查或「1」值,并将「0」值添加到所有其他列。
例如,共计 3 行的颜色变量:
这些变量可能被编码为:
red, green, blue
每一行都被编码为一个二进制矢量,一个被赋予「0」或「1」值的矢量。这是一个稀疏表征的例子,线性代数的一个完整子域。
4. 线性回归
线性回归是一种用于描述变量之间关系的统计学传统方法。
该方法通常在机器学习中用于预测较简单的回归问题的数值。
描述和解决线性回归问题有很多种方法,即找到一组系数,用这些系数与每个输入变量相乘并将结果相加,得出最佳的输出变量预测。
如果您使用过机器学习工具或机器学习库,解决线性回归问题的最常用方法是通过最小二乘优化,这一方法是使用线性回归的矩阵分解方法解决的(例如 LU 分解或奇异值分解)。
即使是线性回归方程的常用总结方法也使用线性代数符号:
其中,y 是输出变量,A 是数据集,b 是模型系数。
在应用机器学习时,我们往往寻求最简单可行的模型来发挥解决问题的最佳技能。
较简单的模型通常更擅长从具体示例泛化到未见过的数据。
在涉及系数的许多方法中,例如回归方法和人工神经网络,较简单的模型通常具有较小的系数值。
一种常用于模型在数据拟合时尽量减小系数值的技术称为正则化,常见的实现包括正则化的 L2 和 L1 形式。
这两种正则化形式实际上是系数矢量的大小或长度的度量,是直接脱胎于名为矢量范数的线性代数方法。
6. 主成分分析
通常,数据集有许多列,列数可能达到数十、数百、数千或更多。
对具有许多特征的数据进行建模具有一定的挑战性。而且,从包含不相关特征的数据构建的模型通常不如用最相关的数据训练的模型。
自动减少数据集列数的方法称为降维,其中也许最流行的方法是主成分分析法(简称 PCA)。
该方法在机器学习中,为可视化和模型创建高维数据的投影。
PCA 方法的核心是线性代数的矩阵分解方法,可能会用到特征分解,更广义的实现可以使用奇异值分解(SVD)。
7. 奇异值分解
另一种流行的降维方法是奇异值分解方法,简称 SVD。
如上所述,正如该方法名称所示,它是源自线性代数领域的矩阵分解方法。
该方法在线性代数中有广泛的用途,可直接应用于特征选择、可视化、降噪等方面。
在机器学习中我们会看到以下两个使用 SVD 的情况。
8. 潜在语义分析
在用于处理文本数据的机器学习子领域(称为自然语言处理),通常将文档表示为词出现的大矩阵。
例如,矩阵的列可以是词汇表中的已知词,行可以是文本的句子、段落、页面或文档,矩阵中的单元格标记为单词出现的次数或频率。
这是文本的稀疏矩阵表示。矩阵分解方法(如奇异值分解)可以应用于此稀疏矩阵,该分解方法可以提炼出矩阵表示中相关性最强的部分。以这种方式处理的文档比较容易用来比较、查询,并作为监督机器学习模型的基础。
这种形式的数据准备称为潜在语义分析(简称 LSA),也称为潜在语义索引(LSI)。
9. 推荐系统
涉及产品推荐的预测建模问题被称为推荐系统,这是机器学习的一个子领域。
例如,基于你在亚马逊上的购买记录和与你类似的客户的购买记录向你推荐书籍,或根据你或与你相似的用户在 Netflix 上的观看历史向你推荐电影或电视节目。
推荐系统的开发主要涉及线性代数方法。一个简单的例子就是使用欧式距离或点积之类的距离度量来计算稀疏顾客行为向量之间的相似度。
像奇异值分解这样的矩阵分解方法在推荐系统中被广泛使用,以提取项目和用户数据的有用部分,以备查询、检索及比较。
10. 深度学习
人工神经网络是一种非线性机器学习算法,它受大脑中信息处理元素的启发,其有效性已经在一系列问题中得到验证,其中最重要的是预测建模。
深度学习是近期出现的、使用最新方法和更快硬件的人工神经网络的复兴,这一方法使得在非常大的数据集上开发和训练更大更深的(更多层)网络成为可能。深度学习方法通常会在机器翻译、照片字幕、语音识别等一系列具有挑战性的领域取得最新成果。
神经网络的执行涉及线性代数数据结构的相乘和相加。如果扩展到多个维度,深度学习方法可以处理向量、矩阵,甚至输入和系数的张量,此处的张量是一个两维以上的矩阵。
线性代数是描述深度学习方法的核心,它通过矩阵表示法来实现深度学习方法,例如 Google 的 TensorFlow Python 库,其名称中包含「tensor」一词。
选自machinelearningmastery
作者: Jason Brownlee
机器之心编译
参与:张倩、刘晓坤
量化投资与对冲基金实战班(上海站)
上课时间:日—13日
上课地点:上海
责任编辑:
声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
今日搜狐热点《大学线性代数试题及答案》 www.wenku1.com
大学线性代数试题及答案日期:
2006学年第2( A 卷 )一、填空题 (本题共有30分, 每小题3分)?120?1?,则A -1=1301. 已知A =??2???001??2. 设A 为4阶方阵,且A =1, 则3A =________.3. 已知α1=(2,3,4,5)T , α2=(3,4,5,6)T , α3=(4,5,6,7)T , α4=(5,6,7,8)T ,则向量组{α1, α2, α3, α4}的秩为4. 设A 是n 阶方阵,且满足A 2+A -5E =0, 则(A +2E )=_________. 5. 6.7. 8.1??x 1??1??12??x ?=?3?无解,则实数23a +2已知方程组?a =___________. ???2?????1a -2????x 3????1??设α1=(1x ,1) T , α2=(2,-1,2) T , α3=(0,1,2) T ,当x α1, α2, α3线性无关. 设向量α=(2,3,4,1),β=(1, -3,2, x ) ,且α与β正交,则x =1111若4阶矩阵A 与B 相似,矩阵A 的特征值为, , , ,则行列式2345B -1-E =________ .-129. 二次型f (x 1, x 2, x 3)=x 2+2x 1x 3的负惯性指标为10. 在MA TLAB 软件中,inv(A ) 表示求__________. 二、单项选择题(本题共21分,每小题3分)1. 设n 维向量α和β的模分别是4和8,α与β的距离是则α与β的夹角为( )ππ2π2π(A ) (B )- (C ) (D )-33332. 设A 为5阶方阵,且R (A ) =4,β1, β2是Ax =0的两个不同的解向量,则Ax =0的通解为( ) (A )k β1 (B )k β2 (C )k (β1+β2) (D )k (β1-β2) 3. 下列命题中与命题“n 阶方阵A 可逆”不等价的是( ) ...(A )A ≠0 (B )A 的列向量组线性无关 (C)方程组Ax =0有非零解 (D )A 的行向量组线性无关?123??,P 为3阶非零矩阵,且满足PQ =0, 则( ) 24t 4. 已知Q =?????369??(A )t =6时P 的秩必为1 (B )t =6时P 的秩必为2(C )t ≠6时P 的秩必为1 (D )t ≠6时P 的秩必为25. 当下列哪一个命题成立时,n 阶方阵A 与B 相似 ( ) (A )A =B (B )R (A ) =R (B ) (C )A 与B 有相同的特征值 (D )A 与B 有相同的特征值,且n 个特征值各不相同6. 设α1, α2, α3是齐次线性方程组Ax =0的基础解系,则下列向量组不能作为..Ax =0的基础解系的是( )(A )α1,α1+α2, α1+α3 (B )α1,α2+α3, α1+α2+α3 (C )α1,α1+α2, α1+α2+α3 (D )α1+α2,α1+α3, α3-α17. 设A 与B 均是n 阶正定矩阵,A *, B *分别为A ,B 的伴随矩阵,则下列矩阵必为正定矩阵的是( )(A )A *+3B * (B )A *B * (C )k 1A *+k 2B *(k 1,k 2为任意常数) (D )A *-B *21三、计算n 阶行列式D n =M 112M 1L L M L 11的值. (本题8分) 2?(1+λ) x 1+x 2+x 3=0?四、设线性方程组?x 1+(1+λ) x 2+x 3=λ,当λ等于何值时,方程组?2x +x +(1+λ) x =-λ123?(1) 有惟一解;(2)无解;(3)有无穷多解,并用基础解系表示方程组的通解.(本题12分)五、设有向量α=(0,4,2,5)T , β1=(1,2,3,1) T , β2=(2,3,1,2) T ,β3=(3,1,2, -2) T ,问α可否表示成β1,β2,β3的线性组合? 若可以, 请给出一种表达式. (本题9分)六、证明若n 阶方阵A 满足A 2-4A +3E =0, 则A 的特征值只能是1或3.(本题8分)22七、已知二次型f (x 1, x 2, x 3) =2x 12+3x 2+3x 3+2ax 2x 3(a >0) 通过正交变换化成标22准型f =y 12+2y 2,求参数a 及所用的正交变换矩阵.(本题12分) +5y 3
2006学年第2学期线性代数( A 卷 )答案?6-40? ?一. 1. -220? 2. 81 3. 2 4. -( A + 3 E) 5. 3或-1002???6. x ≠﹣17. -1 8. 24 9. 0 10. 10 2二.1. A 2. D 3. C 4. C 5. D 6. B 7. B 三.Dn +1n +1 = nn +11 12 1(4分)=(n+1)1 21 112 1(6分) =(n+1)0 1 201 11 0= n+1(8分) 0 1四.(12分)+λ 11+λ111 = (λ+3)λ2 ………………….. (2分)1+λ11(1). 当λ≠0且λ≠-3时,方程组有唯一解...............(4分) (2). 当λ=-3时10??11-2-9??-21? ?-21-3?→ 0-336?,,,,,,(7分) A = 1 1 1-2-9?0-12????00?R(A)=2≠R(A )=3 ∴方程组无解...........(8分) (3). 当λ=0时?111??111? ? ?A= 111?→ 000?…………………(9分)111? 000?????R(A)=1<3 ∴ 故方程组有无穷多解,,,,,,(10分)x x x+1+2=0 31ξ1=(-110),其中1'ξ2=(-101)…..(11分)2'∴通解x =k 1ξ+k 2ξ2k ,k为任意实数…(12分)k 1+2k 2+3k 3=0五.(9分) 设α=k 1β1+k 2β2+k 3 ∴2k 1+3k 2+k 3=43k 1+k 2+2k 3=2k 1+2k 2-2k 3=5,,,,,,(2分)?1 2A =3 1?0??1230?? ?4? 0-1-54?,,,,,,,,(4分) → ??2001-1? ?? 5??0000??∵R(A)=R(A )=3 ∴方程组有解,,,,,,,,,,,,,,,,,,,,(5分)k 1+2k 2+3k 3=0-k 2-5k 3=4k 3=-1,,,,(7分) k 1=1, k 2=1, k 3=-1 ,,(8分)α=β1+β2-β3 ,,,,,,,,(9分)六.(8分) 证明: 设λ为A 的特征值,?(A ) =A 2-4A +3E =0,,,,,, (2分) 则 ?(λ) 为?(A ) 的特征值 ,,,,,,(4分) 即 (A ) -?(λ) E =0 ,,,,,, (6分) 而 ?(A ) =0 ∴ 0-?(λ) E =?(λ) =0∴ ?(A ) =λ2-4λ+3=0 ∴ λ=1或3 ,,,,(8分) 七.(12分)n?20a ??A = 020?(1分) A的特征值为1,2,5 (2分)a 03???20aA =1?2?5 即 A =02a =2(6-a 2)=10 ∴a=±1 (舍去-1) (5分)a 03λ=1的特征向量为(-101) T ,,,,,,,,(7分) λ=2的特征向量为(010) T ,,,,,,,,,, (9分) λ=5的特征向量为(201) T ,,,,,,,,,,,, (11分)?-102? ?P = 010? 使PX=Y ,,,,,,,, (12分)101??? 本文由(www.wenku1.com)首发,转载请保留网址和出处!
免费下载文档:播放次数 加载中...
由于科学研究中的非线性模型通常可以被近似为线性模型,使得线性代数被广泛地应用于自然科学和社会科学中,并且线性代数也是是理工类、经管类数学课程的重要内容。在考研中的比重也占到22%左右,既然线性代数知识如此重要,小编也为特地收录了这部由吉林大学名师主讲的关于线性代数的精品教程供您学习参考。
线性代数(Linear Algebra)是数学的一个分支,它的研究对象是向量,向量空间(或称线性空间),线性变换和有限维的线性方程组。向量空间是现代数学的一个重要课题;因而,线性代数被广泛地应用于抽象代数和泛函分析中;通过解析几何,线性代数得以被具体表示。线性代数的理论已被泛化为算子理论。
现代线性代数已经扩展到研究任意或无限维空间。一个维数为 n 的向量空间叫做 n 维空间。在二维和三维空间中大多数有用的结论可以扩展到这些高维空间。尽管许多人不容易想象 n 维空间中的向量,这样的向量(即 n 元组)用来表示数据非常有效。由于作为 n 元组,向量是 n 个元素的&有序&列表,大多数人可以在这种框架中有效地概括和操纵数据。比如,在经济学中可以使用 8 维向量来表示 8 个国家的国民生产总值(GNP)。当所有国家的顺序排定之后,比如 (中国, 美国, 英国, 法国, 德国, 西班牙, 印度, 澳大利亚),可以使用向量 (v1, v2, v3, v4, v5, v6, v7, v8) 显示这些国家某一年各自的 GNP。这里,每个国家的 GNP 都在各自的位置上。
作为证明定理而使用的纯抽象概念,向量空间(线性空间)属于抽象代数的一部分,而且已经非常好地融入了这个领域。一些显著的例子有: 不可逆线性映射或矩阵的群,向量空间的线性映射的环。 线性代数也在数学分析中扮演重要角色,特别在 向量分析中描述高阶导数,研究张量积和可交换映射等领域。
向量空间是在域上定义的,比如实数域或复数域。线性算子将线性空间的元素映射到另一个线性空间(也可以是同一个线性空间),保持向量空间上加法和标量乘法的一致性。所有这种变换组成的集合本身也是一个向量空间。如果一个线性空间的基是确定的,所有线性变换都可以表示为一个数表,称为矩阵。对矩阵性质和矩阵算法的深入研究(包括行列式和特征向量)也被认为是线性代数的一部分。
我们可以简单地说数学中的线性问题&&-那些表现出线性的问题&&是最容易被解决的。比如微分学研究很多函数线性近似的问题。 在实践中与非线性问题的差异是很重要的。线性代数方法是指使用线性观点看待问题,并用线性代数的语言描述它、解决它(必要时可使用矩阵运算)的方法。这是数学与工程学中最主要的应用之一。
线性代数课程是高等学校理工科各专业学生的一门必修的重要基础理论课,它广泛应用于科学技术的各个领域。尤其是计算机日益发展和普及的今天,使线性代数成为工科学生所必备的基础理论知识和重要的数学工具。线性代数是为培养我国社会主义现代化建设所需要的高质量专门人才服务的。
吉林大学坐落在吉林省省是教育部直性全国重点大学,1995年首批通过国家教委&211工程&审批,2001年被列入&985工程&国家重点建设的大学之一。学校师资力量雄厚,有教师6360人,其中教授1298人 ,博士生指导教师740人。有中国科学院和中国工程院院士20人( 双聘7人) ,国务院学位委员会委员2人,国务院学位委员会学科评议组成员16人,中央马克思主义理论研究和建设工程项目首席专家4人,国家&973&项目首席科学家2人,国家有突出贡献的中青年专家14人,国家杰出青年基金获得者20人,教育部&长江学者奖励计划&特聘教授18人。 学校拥有190个具有现代化研究手段的实验室,其中教育部人文社会科学重点研究基地6个,&985工程&二期建设哲学社会科学创新基地5个,&985工程&二期建设科技创新平台8个,国室5个实验室10委重点。学校承担了大量国家级和省部级科研项目,有一批 产业化前景好、技术含量高的国家攻关项目、&863&项目、&973&项目等高新技术成果。
更新时间: 00:10您所在位置: &
&nbsp&&nbsp&nbsp&&nbsp
重庆大学线性代数答案.doc 14页
本文档一共被下载:
次 ,您可全文免费在线阅读后下载本文档。
&#xe600;下载提示
1.本站不保证该用户上传的文档完整性,不预览、不比对内容而直接下载产生的反悔问题本站不予受理。
2.该文档所得收入(下载+内容+预览三)归上传者、原创者。
3.登录后可充值,立即自动返金币,充值渠道很便利
你可能关注的文档:
··········
··········
习题一解答
填空 (3)设有行列式含因子的项为
(5)设,的根为
解:根据课本第23页例8得到
(6)设是方程的三个根,则行列式=
解:根据条件,比较系数得到,
;再根据条件,,;
(7)设 ,则=
解:相当于中第一列四个元素分别乘以第四列的代数余子式,其值为0.
(8)设,则=
将按第四列展开得到=,第四列的元素全变成1,此时第四列与第二列对应成比例,所以=0.
因为任何一个行列式根据性质5可以变成三角行列式,假设第一个行列式变成:
行列式的变换和行列式的变换完全相同,同样假设行列式变成
或将的第列连续经过次对换(依次和其前面的列对换)而成为第1列,第列连续经过次对换而成为第2列,如此下去,第列连续经过次对换而成为第列,共经过次列对换而变成,所以=。
7、计算下列行列式:
(1), (2)其中
(4)(5)
解(1)第2行、第3行…、第和第行全加到第1行后,第1行提出得
(4)将按第一行展开
(5)+,其中
习题二解答
设,求为正整数)
解 记,则,
20题 设,,为正整数,证明
因为,,所以
21题设,,,求。
因为,=,,所以
23、填空选择题:(1)为阶方阵,为其伴随阵,,则
解 因,所以,
(7)设均为阶方阵,可逆,则可逆,且=
解法一:题目只说均为阶方阵,没有说可逆,于是全错.
解法二: 因可逆,设其逆矩阵为,则,于是.因为
所以可逆,且=
24、设,(为正整数),证明.
推论:设均为阶方阵,若,则,
26、设均为阶方阵,且,,证明 可逆,并求其逆.
由得,代入得到=,于是
,,所以可逆,
27、若对任意的矩阵,均有=0,证明必为零矩阵.
=,因为对任意的矩阵,均有=0,于是分别取=、、…,代入=0得到,,,….所以
28、设为阶方阵,证明的充分必要条件是.
若,则;反过来
则,,…,,于是
习题三解答
第97页2选择题(4)设线性相关,线性无关,则(
线性相关.线性无关.
能由线性表示.能由线性表示.
因为线性相关,所以线性相关,又因为线性无关;
于是能由线性表示.答:
(5)设向量能由向量组线性表示但不能由向量组(Ι):
线性表示,记向量组(Ⅱ):,则(
不能由(Ι)线性表示,也不能由(Ⅱ)线性表示,
不能由(Ι)线性表示,但能由(Ⅱ)线性表示,
能由(Ι)线性表示,也能由(Ⅱ)线性表示
能由(Ι)线性表示,但不能由(Ⅱ)线性表示.
因为向量能由向量组线性表示,所以存在,使=++;因为不能由向量组线性表示,于是,=++,即能由(Ⅱ)线性表示.
假若能由(Ι)线性表示,则存在,使=++
代入=++得到能由(Ι)线性表示.矛盾,故选择
7、设向量能由向量组线性表示,且表示唯一,证明线性无关.
因为向量能由向量组线性表示,即=++
(1)+(2)得
表示唯一得到
,,,于是全为零,故
8、设向量组线性相关,线性无关,证明:
(1)能由线性表示;(2)不能由线性表示
证(1)因为线性无关,所以线性无关,而线性相关,故能由线性表示,即存在使=+;
(2)假若能由线性表示,则存在,使=++;
将=+代入=++得到能由线性表示,于是线性相关,与条件线性无关矛盾.故不能由线性表示.
12、设维单位坐标向量组能由维向量组线性表示,证明向量组线性无关.
证 因为维向量组能由单位坐标向量组线性表示,根据条件向量组与向量组等价.向量组的秩为.故向量组的秩为,因此向量组线性无关.
13、设是维向量组,证明它们线性无关的充分必要条件是:任一维向量都能由它们线性表示.
设线性无关,为任一维向量. 向量组,一定线性相关,
于是能由线性表示;
若任一维向量都能由线性表示,则维单位坐标向量组能由维向量组线性表示,根据第12题向量组线性无关.
14、设向量组(Ι):的秩为,向量组(Ⅱ):的秩为,
向量组(Ⅲ):,的秩为,证明.
证不妨设向量组(Ι)的最大线性无关组为,向量组(Ⅱ)的最大线性无关组为.向量组(Ι)能由其最大线性无关组线性表示,向量组(Ⅱ)能由其最大线性无关组线性表示,于是向量组(Ⅲ)能由向量
正在加载中,请稍后...

我要回帖

更多关于 大一线性代数必考重点 的文章

 

随机推荐