Herleitung der Spektralnorm < Numerik < Hochschule < Mathe < Vorhilfe
|
Hallo Zusammen,
Ich habe einige Verständnisfragen zur Herleitung der Spektralnorm, welche aus der Euklidischen Norm induziert wird. Die Behauptung sieht so aus:
Aufgabe |
Betrachte:
[mm]\left\|A\right\|_2 := \max_{\left\|x\right\|_2 = 1}{\left\|Ax\right\|_2}=\max_{\left\|x\right\|_2 = 1}{\sqrt{(Ax)^H(Ax)}} = \max_{\left\|x\right\|_2 = 1}{\sqrt{x^HA^HAx}}.[/mm]
Es gilt [mm]\left\|A\right\|_2 = \sqrt{\lambda_{\max}\left(A^HA\right)} =: \sqrt{\max\left\{\lambda:\lambda\texttt{ ist Eigenwert von }A^HA\right\}}[/mm]. |
Beweis:
[mm]A^HA[/mm] ist hermitesch (d.h. [mm]A^H =A[/mm]) und positiv semidefinit (d.h. alle Eigenwerte sind [mm]\ge 0[/mm]). Also hat [mm]A^HA[/mm] [mm]n[/mm] nicht-negative Eigenwerte [mm]\lambda_1 \ge \lambda_2 \ge \dotsb \ge \lambda_n \ge 0[/mm] und zugehörige paarweise orthogonale Eigenvektoren [mm]v_1,\dotsc,v_n[/mm]. Jeder Vektor [mm]x\in\mathbb{K}^n,\left\|x\right\|_2=1[/mm] läßt sich durch [mm]\textstyle x=\sum_{i=1}^n{\xi_iv_i}[/mm] entwickeln, woraus folgt:
[mm]1 = \left\|x\right\|_2^2 = x^Hx = \left(\sum_{i=1}^n{\overline{\xi_i}v_i^H}\right)\left(\sum_{j=1}^n{\xi_jv_j}\right) = \sum_{i=1}^n{\sum_{j=1}^n{\overline{\xi_i}\xi_j\underbrace{v_i^Hv_j}_{=\delta_{ij}}}}=\dotsb[/mm],
wobei
[mm]\delta_{ij}:=\begin{cases}0,&i\ne j\\1,&i=j\end{cases}[/mm]
sein soll. Und das verstehe ich nicht. Wieso gilt hier [mm]v_i^Hv_i = 1[/mm]? Genügt dafür etwa allein die Orthogonalität oder hat es etwas mit [mm]\left\|x\right\|_2 = 1[/mm] zu tun?
Ok, weiter hat man dann...
[mm]\dotsb = \sum_{i=1}^n{\left|\xi_i\right|^2}.[/mm]
Einerseits ergibt sich nun
[mm]x^HA^HAx = \left(\sum_{i=1}^n{\overline{\xi_i}v_i^H}\right)\overbrace{A^HA\left(\sum_{j=1}^n{\xi_jv_j}\right)}^{=\sum_{j=1}^n{\xi_j\overbrace{A^HAv_j}^{=\lambda_jv_j}}} = \sum_{i,j=1}^n{\overline{\xi_i}\xi_j\lambda_j\underbrace{v_i^Hv_j}_{=\delta_{ij}}}=\sum_{i=1}^n{\left|\xi_i\right|^2\lambda_i} \le \lambda_1\underbrace{\sum_{i=1}^n{\left|\xi_i\right|^2}}_{=1} = \lambda_1,[/mm]
(Es wird wieder [mm]\delta_{ij}[/mm] benutzt, womit ich ja das obige Problem habe.)
andererseits gilt aber auch:
[mm]\max_{\left\|x\right\|_2=1}{x^HA^HAx} \mathrel{\textcolor{red}{\ge}} v_1^HA^HAv_1 = \lambda_1v_1^Hv_1 = \lambda_1[/mm]
(Wieso gilt die rote Abschätzung? Und [mm]v_1^Hv_1=1[/mm] führt wieder zu diesem sg. Kronecker-Delta und zu meinem Problem... :-( )
Dies bedeutet:
[mm]\max_{\left\|x\right\|_2=1}{x^HA^HAx} = \lambda_1.\quad\Box[/mm]
(Ok, aber bei der Herleitung des ersten Arguments wurde die [mm]\textstyle\max_{\left\|x\right\|_2=1}{\dotsb}\texttt{--Schreibweise}[/mm] nicht benutzt. Und das stört mich irgendwie... . )
Weiß vielleicht jemand einen Rat?
Danke!
Grüße
Karl
|
|
|
|
Hallo KArl,
> Ich habe einige Verständnisfragen zur Herleitung der
> Spektralnorm, welche aus der Euklidischen Norm induziert
> wird. Die Behauptung sieht so aus:
>
>
>
> Betrachte:
>
>
> [mm]\left\|A\right\|_2 := \max_{\left\|x\right\|_2 = 1}{\left\|Ax\right\|_2}=\max_{\left\|x\right\|_2 = 1}{\sqrt{(Ax)^H(Ax)}} = \max_{\left\|x\right\|_2 = 1}{\sqrt{x^HA^HAx}}.[/mm]
>
>
> Es gilt [mm]\left\|A\right\|_2 = \sqrt{\lambda_{\max}\left(A^HA\right)} =: \sqrt{\max\left\{\lambda:\lambda\texttt{ ist Eigenwert von }A^HA\right\}}[/mm].
>
> Beweis:
>
>
> [mm]A^HA[/mm] ist hermitesch (d.h. [mm]A^H =A[/mm]) und positiv semidefinit
> (d.h. alle Eigenwerte sind [mm]\ge 0[/mm]). Also hat [mm]A^HA[/mm] [mm]n[/mm]
> nicht-negative Eigenwerte [mm]\lambda_1 \ge \lambda_2 \ge \dotsb \ge \lambda_n \ge 0[/mm]
> und zugehörige paarweise orthogonale Eigenvektoren
> [mm]v_1,\dotsc,v_n[/mm]. Jeder Vektor
> [mm]x\in\mathbb{K}^n,\left\|x\right\|_2=1[/mm] läßt sich durch
> [mm]\textstyle x=\sum_{i=1}^n{\xi_iv_i}[/mm] entwickeln, woraus
> folgt:
>
>
> [mm]1 = \left\|x\right\|_2^2 = x^Hx = \left(\sum_{i=1}^n{\overline{\xi_i}v_i^H}\right)\left(\sum_{j=1}^n{\xi_jv_j}\right) = \sum_{i=1}^n{\sum_{j=1}^n{\overline{\xi_i}\xi_j\underbrace{v_i^Hv_j}_{=\delta_{ij}}}}=\dotsb[/mm],
>
>
> wobei
>
>
> [mm]\delta_{ij}:=\begin{cases}0,&i\ne j\\1,&i=j\end{cases}[/mm]
>
>
> sein soll. Und das verstehe ich nicht. Wieso gilt hier
> [mm]v_i^Hv_i = 1[/mm]? Genügt dafür etwa allein die Orthogonalität
> oder hat es etwas mit [mm]\left\|x\right\|_2 = 1[/mm] zu tun?
> Ok, weiter hat man dann...
Eigentlich ist die Definition der [mm] v_i [/mm] hier unzureichend. Man müßte orthonormal sagen siehe auch diese Definition von orthogonal/orthonormal.
>
> [mm]\dotsb = \sum_{i=1}^n{\left|\xi_i\right|^2}.[/mm]
>
>
> Einerseits ergibt sich nun
>
>
> [mm]x^HA^HAx = \left(\sum_{i=1}^n{\overline{\xi_i}v_i^H}\right)\overbrace{A^HA\left(\sum_{j=1}^n{\xi_jv_j}\right)}^{=\sum_{j=1}^n{\xi_j\overbrace{A^HAv_j}^{=\lambda_jv_j}}} = \sum_{i,j=1}^n{\overline{\xi_i}\xi_j\lambda_j\underbrace{v_i^Hv_j}_{=\delta_{ij}}}=\sum_{i=1}^n{\left|\xi_i\right|^2\lambda_i} \le \lambda_1\underbrace{\sum_{i=1}^n{\left|\xi_i\right|^2}}_{=1} = \lambda_1,[/mm]
>
>
> (Es wird wieder [mm]\delta_{ij}[/mm] benutzt, womit ich ja das obige
> Problem habe.)
>
> andererseits gilt aber auch:
>
>
> [mm]\max_{\left\|x\right\|_2=1}{x^HA^HAx} \mathrel{\textcolor{red}{\ge}} v_1^HA^HAv_1 = \lambda_1v_1^Hv_1 = \lambda_1[/mm]
>
>
> (Wieso gilt die rote Abschätzung? Und [mm]v_1^Hv_1=1[/mm] führt
> wieder zu diesem sg. Kronecker-Delta und zu meinem
> Problem... :-( )
>
Das max über alle Vektoren ist größer als der Wert für einen (geschickt gewählten) beliebigen Vektor. Klar?
> Dies bedeutet:
>
>
> [mm]\max_{\left\|x\right\|_2=1}{x^HA^HAx} = \lambda_1.\quad\Box[/mm]
>
>
> (Ok, aber bei der Herleitung des ersten Arguments wurde die
> [mm]\textstyle\max_{\left\|x\right\|_2=1}{\dotsb}\texttt{--Schreibweise}[/mm]
> nicht benutzt. Und das stört mich irgendwie... .
> )
DAs die Norm x=1 ist wurde ja benutzt. WEnn x beliebig ist. Dann muß also auch das max über alle x kleiner [mm] \lambda_1 [/mm] sein.
viele grüße
mathemaduenn
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 22:21 Di 24.10.2006 | Autor: | Karl_Pech |
Hallo mathemaduenn,
Danke für die Erklärungen! Ich schreibe es dann so in den Numerikzettel( und stelle dann vielleicht noch weitere Fragen in dieser Diskussion... )
Grüße
Karl
|
|
|
|