Diagonalisierung einer Matrix < Sonstiges < Lineare Algebra < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 19:09 Do 12.08.2010 | Autor: | qsxqsx |
Hallo,
Diagonalisierung:
A = [mm] T*D*T^{-1}
[/mm]
Ich verstehe komplett wie man Diagonalisiert. Aber eine Frage bleibt mir doch:
Wann muss die Transformationsmatrix orthogonalisiert werden und wann nicht?
Wieso macht man das überhaupt, das orthogonalisieren? Einfach damit man für [mm] T^{-1} T^{T} [/mm] schreiben kann? Oder hat das einen tieferen Sinn?
- Löst man ein gekoppeltes Differentialgleichungssystem mitels Diagonalisierung, so orthogonalisiert man die Matrix T ja nicht, richtig?
Wenn man T jetzt noch orthogonalisieren würde, hätte das dann einen Einfluss auf die Lösung oder würden einfach die Koeffizienten der DGL anders ausfallen?
- Was ich mir notiert habe: " T kann orthogonal gewählt werden, wenn die Eigenvektoren senkrecht aufeinander stehen" - ja ist ja logisch das ist ja orthogonalität. Man muss die EigV dann nur noch normieren.
(das gilt ja für mal sicher symetrische Matrizen, das weiss ich auch noch)
- Ja eben, und wenn jetzt die Eigenvektoren nicht senkrecht aufeinander stehen, ist es dann erlaubt die mit Gram-Schmidt zu orthogonalisieren? Weil ich habe schon gesehen dass man Gram-Schmidt darauf anwendet.
Was ich verwirrt: Wenn man diese Matrix T da "verunstaltet" indem man orthogonalisiert, dann ist ja nacher [mm] T*D*T^{-1} [/mm] nicht mehr gleich A ?!
In meinen Übungsaufgaben wird einfach mal manchmal orothognalisiert, und manchmal wirds so stehen gelassen wie es ist. Matlab aufjedenfall, das normiert immer die Eigenvektoren. Muss man das immer machen?
Gruss&ein Danke
Qsxqsx
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 20:01 Do 12.08.2010 | Autor: | felixf |
Moin Qsxqsx!
> Diagonalisierung:
>
> A = [mm]T*D*T^{-1}[/mm]
>
> Ich verstehe komplett wie man Diagonalisiert. Aber eine
> Frage bleibt mir doch:
> Wann muss die Transformationsmatrix orthogonalisiert
> werden und wann nicht?
> Wieso macht man das überhaupt, das orthogonalisieren?
> Einfach damit man für [mm]T^{-1} T^{T}[/mm] schreiben kann? Oder
> hat das einen tieferen Sinn?
Orhonormale Basiswechsel haben eine besondere Bedeutung: sie erhalten Laengen. Wenn du eine Matrix orthogonal diagonalisieren kannst, dann bedeutet das "anschaulich", dass du den Raum so drehen/spiegeln kannst, dass die Matrix wie eine Diagonalmatrix aussieht.
Ist die Matrix zwar diagonalisierbar, aber nicht orthogonal diagonalisierbar, so kannst du den Raum zwar auch durch eine lineare Transformation so ueberfuehren, dass du eine Diagonalmatrix bekommst, aber du musst ihn verzerren und kannst nicht einfach schoen drehen/spiegeln.
Etwas algebraischer: wenn du eine quadratische Form hast mit gemischt-quadratischen Termen, sagen wir [mm] $x^2 [/mm] + x y + [mm] y^2$, [/mm] so ist es schoener, wenn du eine lineare Transformation $x' = a x + b y$, $y' = c x + d y$ machen kannst, so dass [mm] $x^2 [/mm] + x y + [mm] y^2 [/mm] = [mm] \alpha (x')^2 [/mm] + [mm] \beta (y')^2$ [/mm] ist. Dazu machst du aus der urspruenglichen Form [mm] $x^2 [/mm] + x y + [mm] y^2$ [/mm] die Matrix [mm] $\pmat{ 1 & 1/2 \\ 1/2 & 1 }$ [/mm] und bestimmst eine orthogonale Matrix $T$ mit $T [mm] \pmat{ 1 & 1/2 \\ 1/2 & 1 } T^T [/mm] = [mm] \pmat{ \alpha & 0 \\ 0 & \beta }$: [/mm] es ist naemlich [mm] $x^2 [/mm] + x y + [mm] y^2 [/mm] = [mm] \pmat{ x \\ y }^T \pmat{ 1 & 1/2 \\ 1/2 & 1 } \pmat{ x \\ y }$ [/mm] und [mm] $\alpha (x')^2 [/mm] + [mm] \beta (y')^2 [/mm] = [mm] \pmat{ x' \\ y' }^T \pmat{ \alpha & 0 \\ 0 & \beta } \pmat{ x' \\ y' } [/mm] = [mm] \pmat{ x \\ y }^T T^T \pmat{ \alpha & 0 \\ 0 & \beta } [/mm] T [mm] \pmat{ x \\ y }$, [/mm] falls $T = [mm] \pmat{ a & b \\ c & d }$ [/mm] ist.
Hier siehst du, dass es ganz wichig ist, dass du [mm] $T^T$ [/mm] anstelle [mm] $T^{-1}$ [/mm] schreiben kannst -- ansonsten funktioniert das umschreiben gar nicht!
> - Löst man ein gekoppeltes Differentialgleichungssystem
> mitels Diagonalisierung, so orthogonalisiert man die Matrix
> T ja nicht, richtig?
Genau. Da reicht es aus, irgendwelche Eigenvektoren zu haben.
> Wenn man T jetzt noch orthogonalisieren würde, hätte das
Wenn die Matrix $T$ dann immer noch Eigenvektoren der Matrix enthaelt, funktioniert es weiterhin. Enthaelt sie keine Eigenwerte mehr, bekommst du keine Loesungen damit.
> dann einen Einfluss auf die Lösung oder würden einfach
> die Koeffizienten der DGL anders ausfallen?
Es aendern sich nur die Koeffizienten der Loesung.
> - Was ich mir notiert habe: " T kann orthogonal gewählt
> werden, wenn die Eigenvektoren senkrecht aufeinander
> stehen" - ja ist ja logisch das ist ja orthogonalität. Man
> muss die EigV dann nur noch normieren.
> (das gilt ja für mal sicher symetrische Matrizen, das
> weiss ich auch noch)
Genau. Bei symmetrischen Matrizen gibt es sowas immer. (Und umgekehrt, ist eine Matrix ueber [mm] $\IR$ [/mm] orthogonal diagonalisierbar, so muss sie bereits symmetrisch sein.)
> - Ja eben, und wenn jetzt die Eigenvektoren nicht senkrecht
> aufeinander stehen, ist es dann erlaubt die mit
> Gram-Schmidt zu orthogonalisieren? Weil ich habe schon
> gesehen dass man Gram-Schmidt darauf anwendet.
> Was ich verwirrt: Wenn man diese Matrix T da "verunstaltet"
> indem man orthogonalisiert, dann ist ja nacher [mm]T*D*T^{-1}[/mm]
> nicht mehr gleich A ?!
Nun, einfach Gram-Schmidt anwenden geht nur bei symmetrischen Matrizen gut. Ist die Matrix diagonalisierbar aber nicht symmetrisch (also nicht orthogonal diagonalisierbar), so liefert dir Gram-Schmidt zwar eine orthogonale Matrix, jedoch geht die Eigenschaft $T D [mm] T^{-1} [/mm] = A$ verloren.
> In meinen Übungsaufgaben wird einfach mal manchmal
> orothognalisiert, und manchmal wirds so stehen gelassen wie
> es ist.
Es haengt halt davon ab, wofuer man sie braucht :)
> Matlab aufjedenfall, das normiert immer die
> Eigenvektoren. Muss man das immer machen?
Nein, das muss man nicht machen. Matlab (bzw. die Macher davon) finden halt, dass es schoener aussieht
LG Felix
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 20:22 Do 12.08.2010 | Autor: | qsxqsx |
Jetzt wird mir auch folgender Zusammenhang klar:
Die Eigenvektoren zu verschiedenen Eigenwerten stehen senkrecht aufeinander. Symetrische Matrizen können aber wohl auch Eigenwerte mit algebraischer Vielfachheit grösser 1 haben.
In diesem Fall orthogonalisiert man dann mit Gram-Schmidt.
Das was du mir noch als Beispiel gezeigt hast, das nennt sich Hauptachsentransformation. Das kenn ich.
Danke dir, das waren klare, ausführliche Aussagen.
Gruss
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 22:40 Do 12.08.2010 | Autor: | felixf |
Moin,
> Jetzt wird mir auch folgender Zusammenhang klar:
> Die Eigenvektoren zu verschiedenen Eigenwerten stehen
> senkrecht aufeinander.
Nein, das stimmt im Allgemeinen nicht. Bei symmetrischen Matrizen stimmt es jedoch.
> Symetrische Matrizen können aber
> wohl auch Eigenwerte mit algebraischer Vielfachheit
> grösser 1 haben.
Ja, andere Matrizen aber auch.
> In diesem Fall orthogonalisiert man dann mit Gram-Schmidt.
Ja.
> Das was du mir noch als Beispiel gezeigt hast, das nennt
> sich Hauptachsentransformation. Das kenn ich.
Gut.
LG Felix
|
|
|
|