Processing math: 100%

Av=λv

A是任意方阵。
v是非零向量,是A的特征向量,通常只考虑单位特征向量 λA$的特征值

特征分解

A=Vdiag(λ)V1

所设A是一个n*n的方阵,则: VA的n个相互正交的特征向量连成的矩阵,即[v1,v2,...,vn] diag(λ)是特征向量对应的特征值形成的对角矩阵,即[λ1 λ2  λn ]

对于任意的实对称矩阵A,有
A=QΛQT A是实对称矩阵。
Λ是A的特征值降序排列形成的对角矩阵。
Q是特征值对应的特征向量组成的正交矩阵。

意义:将A看作是沿方向v(i)延展i倍的空间(没看懂)

实对称矩阵特征分解的应用

优化二次方程:f(x)=xTAx,||x||2=1
当x为A的某个特征向量时,f(x)为对应的特征值。
f(x)max为最大特征值。f(x)min为最小特征值。