线性代数复习(八):特征值,特征向量与矩阵对角化 eigenvalue, eigenvector and diagonalization

矩阵的特征值和特征向量的定义是,如果有一个数 \(\lambda\) 和一个向量 \(\vec{x}\),满足 \(A\vec{x}=\lambda \vec{x}\), 我们就说 \(\lambda\) 是矩阵 \(A\) 的一个特征值(eigenvalue),而 \(\vec{x}\) 称为 \(A\) 的对应于 \(\lambda\) 的特征向量(eigenvector)。

特征值的计算,是通过解方程 \(|A-\lambda I|=0\) 得到。\(|A-\lambda I|\) 称做特征多项式(characteristic polynomial),而\(|A-\lambda I|=0\) 称做特征方程(characteristic equation)。我们计算特征多项式的时候,行列式的一些计算技巧可以用得上。

计算特征向量的方法就是解方程组 \((A-\lambda I)\vec{x}=0\),将求得的特征值代入这个式子,然后用求解方程组的方法求解。注意,每个特征值都要计算它的特征向量。

矩阵的对角化问题,实际上还是特征值与特征向量的问题。矩阵可以对角化是指存在一个可逆矩阵 \(P\) 和一个对角矩阵,使得 \(P^{-1}AP=D\)。矩阵 \(A\) 可对角化的条件是它有 \(n\) 个线性无关的特征向量。只要特征向量求出来了,\(P\) 和 \(D\) 就求出来了。\(P=(\vec{v}_1, \vec{v}_2,\cdots,\vec{v}_n)\),其中 \(\vec{v}_1, \vec{v}_2,\cdots,\vec{v}_n)\) 都是特征向量; 而 \(D=\text{diag}(\lambda _1, \lambda _2,\cdots,\lambda _n)\),也就是主对角线上的元素都是特征向量所对应的特征值(顺序跟特征向量的顺序一样,别弄错了!)

Posted in 复习与总结, 线性代数 (Linear Algebra) 复习.