向量组与向量组之间的正交化
考虑广义特征值问题 `(N-\lambda M)\boldsymbol x=0`,矩阵`M,N`都是`n`阶实对称正定方阵,如果特征根都是互异的,那么特征向量关于 `M`、`N`加权正交,所以可以用特征向量构成可逆矩阵来将 `M`,`N`对角化。问题是:
1. 如果特征方程中只有某个特征值 `\lambda_s` 是`r`重根,那么剩余互异特征根对应的`n-r`个特征向量满足加权正交性,而重根对应特征向量可以举出一些线性无关的特征向量,然后通过施密特正交化来满足正交性。但如何保证这些线性无关特征向量与`n-r`个互异特征根对应的特征向量也加权正交?
当然,最直接的做法就是将线性无关特征向量线性组合,分别再与剩余`n-r`个互异特征根的特征向量加权正交化,求出线性系数,得到新特征向量,以替换原始`r`组内部正交化后对应的那个特征向量——该过程可反复进行,直到`r`个重根特征向量都更新完毕为止。不过这个办法对于`n`,`r`比较小的时候还行,若`n`,`r`都比较大,因为加权正交是两两组合,这样操作步骤就增加很多了。是否有更简单的办法?
2. 同样,如果重根不止一个,而是多个,也会出现上述麻烦,可有好的方法? 我还是举个实际的例子来说明吧。
比如矩阵 `N=\begin{pmatrix}1&0&0&0\\
0&1&0&0\\
0&0&1&0\\
0&0&0&1\end{pmatrix}`,`M=\begin{pmatrix}1&-1&-1&-1\\
1&3&-1&0\\
1&-1&4&-1\\
1&0&-1&3\end{pmatrix}`,广义特征值要求特征矩阵行列式为零,即`|N-\lambda M|=0`,得特征值 `\lambda_1=1`,`\lambda_2=3`,`\lambda_3=\lambda_4=5`。
将特征值代入`(N-\lambda M)\boldsymbol x=0` 可求出`\lambda_1`的一个特征向量 `\boldsymbol x^{(1)}=(1,1,1,1)^{\mathrm T}`,对应 `\lambda_2` 的一个特征向量 `\boldsymbol x^{(2)}=(0,-1,0,1)^{\mathrm T}`,显然它们是正交的。那么对于 `\lambda_3=\lambda_4`,如何求出两个正交的特征向量 `\boldsymbol x^{(3)}`,`\boldsymbol x^{(4)}`,且都与 `\boldsymbol x^{(1)}`,`\boldsymbol x^{(2)}`正交。注意,为了方便,`N`设为了单位矩阵,所以这里加权正交 `\boldsymbol x^{(1)\mathrm T}N\boldsymbol x^{(2)}` 直接就变成 `\boldsymbol x^{(1)\mathrm T}\boldsymbol x^{(2)}` 了。
补充内容 (2020-3-18 17:43):
突然发现,这里输入错了,应该把M,N所赋值的矩阵实例交换一下,也就是M举应该是单位矩阵。剩余部分都不变。 特征值与特征向量希望这里对你有帮助。
https://bbs.emath.ac.cn/thread-17016-1-1.html zeroieme 发表于 2020-3-18 09:46
特征值与特征向量希望这里对你有帮助。
https://bbs.emath.ac.cn/thread-17016-1-1.html
谢谢,不过这里好像那个办法不能解决重特征值的情况,只能得到一样的特征向量。 kastin 发表于 2020-3-18 14:11
谢谢,不过这里好像那个办法不能解决重特征值的情况,只能得到一样的特征向量。
https://bbs.emath.ac.cn/thread-9216-1-1.html2#
mathe给出的迭代法,可以 “剔除”其中一个特征向量。 由于你已经要求N是实正定阵,那么必然存在正定阵U是的$N=U^2$,另外设$M=UHU$,于是问题变为$(U^2-\lambda UHU)x=0$
$U(I-\lambda H) Ux=0$,即$(I-\lambda H) y=0$, 其中$y=Ux$.所以转化回I=N的问题。 zeroieme 发表于 2020-3-18 14:34
https://bbs.emath.ac.cn/thread-9216-1-1.html2#
mathe给出的迭代法,可以 “剔除”其中一个特征向 ...
谢谢,那里应该是剔除对应的特征值,求第二大特征值和特征向量。重根特征值剔除后,对应特征向量就没法算了。 本帖最后由 kastin 于 2020-3-18 17:48 编辑
mathe 发表于 2020-3-18 16:16
由于你已经要求N是实正定阵,那么必然存在正定阵U是的$N=U^2$,另外设$M=UHU$,于是问题变为$(U^2-\lambda U ...
这样也可以,特征值就变为倒数`\frac{1}{\lambda}`了,从而限制了 `\lambda =0` 的可能。但若 `N` 半正定(现实问题中 `M` 总是正定,而 `N` 其实是半正定的),那么特征值 `\lambda` 有可能为零,所以最好是让 `M=U^2`直接将广义特征值问题转化为标准特征值问题。
也就是,若令 $M=U^2$(`U`对称正定),有 `N=UAU`,则 `U(A-\lambda I)Ux=0`,代换 `y=Ux`,得 `(A-\lambda I)y=0`,于是只需要考虑标准特征值问题即可,特征值不变。 kastin 发表于 2020-3-18 17:15
谢谢,那里应该是剔除对应的特征值,求第二大特征值和特征向量。重根特征值剔除后,对应特征向量就没法算 ...
\(B=A-r_1 v_1 v_1^T\) 中指定了特征向量,可以剔除重根特征值的一个特征向量,可得同特征值的另一特征向量。 zeroieme 发表于 2020-3-18 19:14
\(B=A-r_1 v_1 v_1^T\) 中指定了特征向量,可以剔除重根特征值的一个特征向量,可得同特征值的另一特 ...
你能举个例子试试吗?我感觉我理解的应该没错。
页:
[1]
2