学完线性代数的同学,可能会对线性代数的很多概念有所疑惑.
这个东西有什么用?那个玩意定义出来有什么意义?
本文将探讨线性代数中及其重要的两个概念:特征值与特征向量.
(PS:下文中的矩阵A均认为是方阵)
从一般的角度看,这个映射无非就是矩阵乘向量,说得具体一点,就是
错!实际上,这个映射本质是一个缩放操作.
举一个简单的例子,矩阵
设向量
我们使用另一种方法计算,首先我们将
然后,我们将特征值和对应的系数相乘,得到:
显然,如果你继续计算下去,你也会得到
特征值和特征向量的意义就在于此!矩阵所充当的映射,实际上就是对特征向量的缩放,每个特征向量的缩放程度就是特征值。
因此,我们需要将向量
基于这样的理解,我们可以很简单地解释很多结论.
对角化分解
对角化分解实际上就是我们解释特征值含义的过程。
那么
首先,
逆矩阵的特征值分别是原矩阵特征值的倒数
是因为原矩阵放大了2倍,逆矩阵就要相应地缩小到原本的
当然,特征向量要保持对应,因此这也解释了为什么逆矩阵的特征向量和原矩阵一样。
特征值为0,意味着不可逆
参考第2点,0没有倒数.
通过解 来寻找特征值
显然,在这里
把
这个时候进行缩放,那么只有
那么,
Related Issues not found
Please contact @zdaiot to initialize the comment