www.matheraum.de
Das Matheforum.
Das Matheforum des MatheRaum.

Für Schüler, Studenten, Lehrer, Mathematik-Interessierte.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Mathe
  Status Schulmathe
    Status Primarstufe
    Status Mathe Klassen 5-7
    Status Mathe Klassen 8-10
    Status Oberstufenmathe
    Status Mathe-Wettbewerbe
    Status Sonstiges
  Status Hochschulmathe
    Status Uni-Analysis
    Status Uni-Lin. Algebra
    Status Algebra+Zahlentheo.
    Status Diskrete Mathematik
    Status Fachdidaktik
    Status Finanz+Versicherung
    Status Logik+Mengenlehre
    Status Numerik
    Status Uni-Stochastik
    Status Topologie+Geometrie
    Status Uni-Sonstiges
  Status Mathe-Vorkurse
    Status Organisatorisches
    Status Schule
    Status Universität
  Status Mathe-Software
    Status Derive
    Status DynaGeo
    Status FunkyPlot
    Status GeoGebra
    Status LaTeX
    Status Maple
    Status MathCad
    Status Mathematica
    Status Matlab
    Status Maxima
    Status MuPad
    Status Taschenrechner

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Mathe-Seiten:Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
StartseiteMatheForenLineare Algebra - MatrizenDiagonalmatrix
Foren für weitere Studienfächer findest Du auf www.vorhilfe.de z.B. Astronomie • Medizin • Elektrotechnik • Maschinenbau • Bauingenieurwesen • Jura • Psychologie • Geowissenschaften
Forum "Lineare Algebra - Matrizen" - Diagonalmatrix
Diagonalmatrix < Matrizen < Lineare Algebra < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Lineare Algebra - Matrizen"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Diagonalmatrix: Aufgabe
Status: (Frage) reagiert/warte auf Reaktion Status 
Datum: 15:19 Mo 14.04.2008
Autor: tobe

Aufgabe
Bestimmen Sie eine orthogonale Matrix S, sodass [mm] S^{-1} \pmat{7 & -2 & 1 \\ -2 & 10 & -2 \\ 1 & -2 & 7 } [/mm] S eine Diagonalmatrix ist.




Häääää? ich peil die Aufgabenstellung nicht so ganz, da kein Punkt und kein komma sowie kein mal und geteilt ist :D

Was soll ich machen?

Solle ich eine orthogonale Matrix finden, die ich S nenne, sodass gilt:
Inverse von S multipliziert mit der Matrix [mm] \pmat{7 & -2 & 1 \\ -2 & 10 & -2 \\ 1 & -2 & 7 } [/mm] multipliziert mit S  gleich eine Matrix der Form [mm] \pmat{a & 0 & 0 \\ 0 & b & 0 \\ 0 & 0 & c } [/mm] raus kommt?

Also [mm] S^{-1} [/mm] *  [mm] \pmat{7 & -2 & 1 \\ -2 & 10 & -2 \\ 1 & -2 & 7 } [/mm]  * S = [mm] \pmat{a & 0 & 0 \\ 0 & b & 0 \\ 0 & 0 & c } [/mm]

Ich muss praktisch eine Matrixtransformation auf Diagonalgestalt rückwärts ablaufen lassen?
Bin ich da auf dem richtigen Weg?

Lg Tobias

        
Bezug
Diagonalmatrix: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 15:56 Mo 14.04.2008
Autor: tobe

AHHH, habe es schon selber kapiert. Ich werde es mal lösen und dann die Lösung schreiben. mal schaun ob ich richtig bin ;D

Bezug
                
Bezug
Diagonalmatrix: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 16:22 Mo 14.04.2008
Autor: tobe

Ok, jetzt bin ich wieder auf ein altes Problem gestoßen. Ich bin einfach zu doof um die Eigenwerte einer Matrix auszurechnen.

Ich habe angefangen:
[mm] A=\pmat{ 7 & -2 & 1 \\ -2 & 10 & -2 \\ 1 & -2 & 7 } [/mm]

[mm] S^{-1}AS=\pmat{ \lambda_{1} & 0 & 0 \\ 0 & \lambda_{2} & 0 \\ 0 & 0 & \lambda_{3}} [/mm]

Eigenwerte berechnen: [mm] \vmat{ 7-\lambda & -2 & 1 \\ -2 & 10-\lambda & -2 \\ 1 & -2 & 7-\lambda } [/mm] = 0

-> [mm] (7-\lambda) (10-\lambda) (7-\lambda) [/mm] +4 +4 - [mm] (10-\lambda) [/mm] - [mm] 4(7-\lambda) -4(7-\lambda) [/mm] = 0

Wenn ich das jetzt ausrechne komme ich auf:
[mm] -\lambda^{3}+24\lambda^{2}-180\lambda+432=0 [/mm]
Und diese Gleichung kann ich nie Lösen. Es gibt doch bestimmt vorher schon einen Trick um [mm] \lambda [/mm] leichter zu bestimmen.

Wenn ich die Eigenwerte habe, würde ich auch weiter kommen :D

Bezug
                        
Bezug
Diagonalmatrix: Antwort
Status: (Antwort) fertig Status 
Datum: 16:44 Mo 14.04.2008
Autor: Marcel

Hallo,

>  [mm]-\lambda^{3}+24\lambda^{2}-180\lambda+432=0[/mm]

wenn man da keine Idee hat:

Der Plot des Graphen von $f(x):= [mm] -x^3+24*x^2-180x+432$ [/mm]

[Dateianhang nicht öffentlich]

Juchhu, ich glaube jedenfalls, zu sehen, dass [mm] $x_0=6$ [/mm] eine Nullstelle meiner Funktion oben ist. Zwischen "glauben zu sehen" und wissen ist noch ein Unterschied, also berechnen wir mal $f(6)$:

[mm] $f(6)=-6^3+24*6^2-180*6+432=-6^3+4*6^3-5*6^3+2*6^3=6^3*(-1+4-5+2)=6^3*0=0$ [/mm]

Was bringt uns das? Wir wissen schonmal, dass [mm] $\lambda=6$ [/mm] ein Eigenwert ist, da mit [mm] $\lambda=6$ [/mm] dann gilt:

[mm] $-\lambda^{3}+24\lambda^{2}-180\lambda+432=0$ [/mm]

Wie kriegen wir die anderen Eigenwerte?

Polynomdivision:

[mm] $(-\lambda^{3}+24\lambda^{2}-180\lambda+432):(\lambda-6)$ [/mm] machen, dann folgt nämlich:

[mm] $-\lambda^{3}+24\lambda^{2}-180\lambda+432=(\lambda-6)*P_2(\lambda)$ [/mm]

wobei Du bei der Polynomdivison dann herausbekommen haben solltest, dass

[mm] $P_2(\lambda)=a\lambda^2+b\lambda+c$ [/mm] mit Konstanten $a,b,c$

Daher:

[mm] $-\lambda^{3}+24\lambda^{2}-180\lambda+432=0$ [/mm]

[mm] $\gdw$ $(\lambda-6)*P_2(\lambda)=0$ [/mm]

[mm] $\gdw$ $\lambda=6$ [/mm] oder [mm] $P_2(\lambda)=0$ [/mm]

[mm] $\gdw$ [/mm] ...

Du brauchst also noch die Nullstellen von [mm] $P_2(\lambda)$, [/mm] aber nach der Polynomdivision hast Du ja [mm] $P_2(\lambda)=a\lambda^2+b\lambda+c$ [/mm] mit konkreten Werten für $a,b,c$ da stehen, also Mitternachtsformel oder p-q-Formel anwenden...

P.S.:
Beachte, dass ein Eigenwert auch ein mehrfacher Eigenwert sein kann!

Gruß,
Marcel

Dateianhänge:
Anhang Nr. 1 (Typ: jpg) [nicht öffentlich]
Bezug
                                
Bezug
Diagonalmatrix: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 17:57 Mo 14.04.2008
Autor: tobe

Ok, ich habe als eigenwerte 6, 6, 12

-> [mm] \lambda=6 [/mm]
  [mm] x_{1}-2x_{2}+x_{3}=0 [/mm]

[mm] -2x_{1}+4x_{2}-2x_{3}=0 [/mm]

  [mm] x_{1} -2x_{2} [/mm] + [mm] x_{3} [/mm] =0

-> Eigenvektor1= [mm] \vektor{-1 \\ 0 \\ 1 } [/mm]

    Eigenvektor2= [mm] \vektor{-1 \\ 0 \\ 1 } [/mm]

[mm] \lambda=12 [/mm]
-> ...
...
... musste irgend wann mal ein x selbst auswählen ....
Eigenvektor3= [mm] \vektor{6 \\ 1 \\ \bruch{1}{2}} [/mm]


--> Orthogonale Matrix S ist [mm] \pmat{ -1 & 0 & 1 \\ -1 & 0 & 1 \\ 6 & 1 & \bruch{1}{2} } [/mm]


Wenn ich das jetzt kontrollieren möchte, könnte ich ja einfach [mm] s^{-1} [/mm] * A * S rechnen und es müsste eine Diagonalmatrix raus kommen. Wie multipliziere ich solche matrizen? bei matrizen ist die reihenfolge ja immer so wichtig. Kann ich jetzt einfach [mm] S^{-1} [/mm] * A rechnen und dann das ergebnis noch * S ?

Lg

Bezug
                                        
Bezug
Diagonalmatrix: Antwort
Status: (Antwort) fertig Status 
Datum: 18:13 Mo 14.04.2008
Autor: angela.h.b.


> Ok, ich habe als eigenwerte 6, 6, 12
>  
> -> [mm]\lambda=6[/mm]
>    [mm]x_{1}-2x_{2}+x_{3}=0[/mm]
>  
> [mm]-2x_{1}+4x_{2}-2x_{3}=0[/mm]
>  
> [mm]x_{1} -2x_{2}[/mm] + [mm]x_{3}[/mm] =0
>  
> -> Eigenvektor1= [mm]\vektor{-1 \\ 0 \\ 1 }[/mm]
>  
> Eigenvektor2= [mm]\vektor{-1 \\ 0 \\ 1 }[/mm]

Hallo,

ist Dir aufgefallen, daß Du heir zwei gleiche Eigenvektoren hingeschrieben hast?

Eine kleine Meditation über das GS und seinen Rang wäre nicht schlecht.

Denk' noch mal 'nen bißchen und melde Dich dann wieder.


>  
> [mm]\lambda=12[/mm]
>  -> ...

>  ...
>  ... musste irgend wann mal ein x selbst auswählen ....
>  Eigenvektor3= [mm]\vektor{6 \\ 1 \\ \bruch{1}{2}}[/mm]
>  
>
> --> Orthogonale Matrix S ist [mm]\pmat{ -1 & 0 & 1 \\ -1 & 0 & 1 \\ 6 & 1 & \bruch{1}{2} }[/mm]

Diese Matrix hier ist nicht orthogonal. Du kannst sie noch nicht einmal invertieren.

Und die Eigenvektoren müssen als Spalten in die Matrix.


>  
>
> Wenn ich das jetzt kontrollieren möchte, könnte ich ja
> einfach [mm]s^{-1}[/mm] * A * S rechnen und es müsste eine
> Diagonalmatrix raus kommen. Wie multipliziere ich solche
> matrizen? bei matrizen ist die reihenfolge ja immer so
> wichtig. Kann ich jetzt einfach [mm]S^{-1}[/mm] * A rechnen und dann
> das ergebnis noch * S ?

ja, das kannst Du tun. Solange Du die reihenfolge der matrizen nicht veränderst, kannst Du beliebig Klammern setzen, denn die Matrizenmultiplikation ist assoziativ.

Du darfst bloß nicht nach Lust und Laune statt ABC  BAC rechnen.

Gruß v. Angela


Bezug
                                                
Bezug
Diagonalmatrix: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 18:21 Mo 14.04.2008
Autor: tobe

Ahhhh, die Aufgabe zerstört mich komplett :D

[mm] \lambda=6 [/mm]

A= [mm] \pmat{ 1 & -2 & 1 \\ -2 & 4 & -2 \\ 1 & -2 & 1} [/mm]
Rang A = 1 !!!! :(((
Rang(A,a)= Rang [mm] \pmat{ 1 & -2 & 1 & 0 \\ -2 & 4 & -2 & 0 \\ 1 & -2 & 1 & 0} [/mm] = 2

Rang A [mm] \not= [/mm] Rang A,a -> Gleichungssystem nicht lösbar. richtig?

Und was mache ich jetzt?
Ahhhhhh, die Aufgabe zerstört mich :D

Bezug
                                                        
Bezug
Diagonalmatrix: Antwort
Status: (Antwort) fertig Status 
Datum: 18:32 Mo 14.04.2008
Autor: angela.h.b.


> Ahhhh, die Aufgabe zerstört mich komplett :D

So'n Quark!

Die Aufgabe macht überhaupt nichts.

Atme jetzt erstmal ganz tief durch.

Wenn ich diesen Thread richtig deute (gerechnet habe ich nichts), interessierst Du Dich zunächst für Eigenwerte und Eigenvektoren der Matrix

[mm] A:=\pmat{7 & -2 & 1 \\ -2 & 10 & -2 \\ 1 & -2 & 7 }. [/mm]

Du hast die Nullstellen des Charakteristischen Polynoms gefunden, nämlich die doppelte Nullstelle 6 und die einfache 12.

Nun möchtest Du den Eigenraum zum Eigenwert 6 berechnen.

Hierzu ist der Kern von [mm] \pmat{7-6 & -2 & 1 \\ -2 & 10-6 & -2 \\ 1 & -2 & 7-6 }=\pmat{1 & -2 & 1 \\ -2 & 4 & -2 \\ 1 & -2 & 1 } [/mm] zu berechnen

und nicht  von

> A= [mm]\pmat{ 1 & -2 & 1 \\ -2 & 4 & -2 \\ 1 & -2 & 1}[/mm]
>  Rang A
> = 1 !!!! :(((

Der Rang obiger Matrix ist 2. Also hat der Eigenraum die Dimension 2 und Du wirst zwei linear unabhängige Eigenvektoren finden.

Finde sie!

Gruß v. Angela




Bezug
                                                                
Bezug
Diagonalmatrix: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 18:43 Mo 14.04.2008
Autor: tobe

Der Rang ist doch die maximale Zahl eines Systems von linear unabhängigen Spaltenvektoren und der Rang ändert sich nicht bei Multiplikation einer Zeile oder Spalte mit einem Faktor [mm] \not= [/mm] 0

-> 1. und 3. Spalte mal -2 -> [mm] \pmat{ -2 & 4 & -2 \\ -2 & 4 & -2 \\ -2 & 4 & -2} [/mm]

Das sind ja jetzt 3 mal die gleichen spaltenvektoren oder nicht? also habe ich ja nur 1 linear unabhängigen vektor und daraus folgt doch dass das gin den Rang 1 hat oder?

Ich glaube ich sollte mal eine kleine Pause machen :D

Danke Leute

Bezug
                                                                        
Bezug
Diagonalmatrix: Antwort
Status: (Antwort) fertig Status 
Datum: 18:57 Mo 14.04.2008
Autor: schachuzipus

Hallo Tobias,

> Der Rang ist doch die maximale Zahl eines Systems von
> linear unabhängigen Spaltenvektoren und der Rang ändert
> sich nicht bei Multiplikation einer Zeile oder Spalte mit
> einem Faktor [mm]\not=[/mm] 0
>  
> -> 1. und 3. Spalte mal -2

Mit welchem Ziel machst du das?

-> [mm]\pmat{ -2 & 4 & -2 \\ -2 & 4 & -2 \\ -2 & 4 & -2}[/mm]

>  
> Das sind ja jetzt 3 mal die gleichen spaltenvektoren oder
> nicht? also habe ich ja nur 1 linear unabhängigen vektor
> und daraus folgt doch dass das gin den Rang 1 hat oder?
>  
> Ich glaube ich sollte mal eine kleine Pause machen :D

Das solltest du in der Tat ;-) Und trinke einen großen [kaffeetrinker] !!

>  
> Danke Leute  

Du musst doch den Kern der Matrix [mm] $\pmat{1 & -2 & 1 \\ -2 & 4 & -2 \\ 1 & -2 & 1 } [/mm] $ (von Angela übernommen) bestimmen

Also bringe das Biest in Zeilenstufenform, bestimme also den Rang.

Kurzes Hinsehen lässt mich dies versuchen:

Addiere das 2fache der 1.Zeile zur 2.Zeile und dann das -1fache der 1.Zeile zur 3.Zeile

das gibt 2 Nullzeilen: [mm] $\pmat{1 & -2 & 1 \\ 0 & 0 & 0 \\ 0 & 0 & 0 } [/mm] $

Also [mm] $Rang(A-6\mathbb{E}_3)=1$ [/mm]

Damit hast du 3-1=2 frei wählbare Parameter

Wieder übersetzt in ein Gleichungssystem steht in der 1. Zeile

$x-2y+z=0$

Du hast 2 freie Parameter, etwa $z=t, y=s$ mit [mm] $s,t\in\IR$ [/mm]

Daraus bastel mal die allg. Lösung und schreibe sie sauber auf.

Damit bekommst du dann deine 2 Eigenvektoren zum Eigenwert [mm] $\lambda=6$ [/mm]

LG

schachuzipus

Bezug
                                                                                
Bezug
Diagonalmatrix: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 20:38 Mo 14.04.2008
Autor: tobe

Sodala, 14 Fischstäbchen und eine Tasse Kaffe später  gehe ich es nun noch einmal an.

Es kann sein dass ich bereits grundlegende Fehler in der Rangbestimmung habe.

Der Rang einer Matrix ist doch nix anderes als die maximale Zahl eines Systems von Linear unabhängigen Spaltenvektoren.

nun habe ich folgende Matrix:

[mm] \pmat{1 & -2 & 1 \\ -2 & 4 & -2 \\ 1 & -2 & 1 } [/mm]

Wenn ich nun die erste und die dritte Spalte mal -2 nehme kommt doch folgendes heraus:

[mm] \pmat{-2 & -2 & -2 \\ 4 & 4 & 4 \\ -2 & -2 & -2 } [/mm]

Die 3 Spaltenvektoren [mm] \vektor{-2 \\ 4 \\ -2} \vektor{-2 \\ 4 \\ -2} \vektor{-2 \\ 4 \\ -2} [/mm] sind doch linear abhängig voneinander, weil sie vielfache voneinander sind bzw. komplett identisch. -> ich habe hier doch nur 1 linear unabhängigen Vektor -> Rang dieser Matrix ist 1

Ist dies bereits falsch? Muss ich die Rangbestimmung über die Zeilenstufenform machen?


---------------------------------------------------------------------
Ich habe z.B. vorher aufgaben wie folgt gerechnet:

"Bestimmen sie für das folgende Gleichungssystem jeweils den Rang der Matrix und den Rang der erweiterten Matrix:
3x-6y-12z=9
-4x +8y+16z=-12

Die Matrix hier lautet A= [mm] \pmat{ 3 & -6 & -12 \\ -4 & 8 & 16 } [/mm]
Spalte 1 * (-4) und Spalte 2 * 2 ergibt ja [mm] \pmat{ -12 & -12 & -12 \\ 16 & 16 & 16 } [/mm]

Sprich ich habe hier ja nur einen linear unabhängigen Vektor und deswegen ist der Rang der Matrix 1.

Die erweiterte Matrix ist doch [mm] \pmat{ 3 & -6 & -12 & 9 \\ -4 & 8 & 16 & -12 } [/mm]
Wieder Spalte 1 * (-4) , Spalte 2 * 2 und Spalte 4 * [mm] (-\bruch{4}{3} [/mm]
ergibt ja:
[mm] \pmat{ -12 & -12 & -12 & -12 \\ 16 & 16 & 16 & 16} [/mm]

d.h. wieder nur 1 linear abhängigen Vektor -> auch Rang1

Da nun der Rand der Matrix = Rang der erweiterten Matrix ist kann ich sagen dass das System Lösbar ist und die Lösungsebenen die 1. Dimension.
Ist dies bereits falsch?

---------------------------------------------------------------------

Nun wieder zurück zu unserer eigentlichen Aufgabe.

Es bleibt nach dem Gauß eliminationsverfahren wenn ich mich nicht täusche x-2y+z=0
Nun kann ich 2 Werte selber bestimmen z.B. z=t und y=s  t,s [mm] \varepsilon \IR [/mm]
-> x=2s-t
=> allgemeine Lösung ist [mm] \vektor{2s-t \\ s \\ t} [/mm]


Bezug
                                                                                        
Bezug
Diagonalmatrix: Antwort
Status: (Antwort) fertig Status 
Datum: 20:58 Mo 14.04.2008
Autor: angela.h.b.


> Der Rang einer Matrix ist doch nix anderes als die maximale
> Zahl eines Systems von Linear unabhängigen
> Spaltenvektoren.

Hallo,

das ist richtig.

>  
> nun habe ich folgende Matrix:
>  
> [mm]\pmat{1 & -2 & 1 \\ -2 & 4 & -2 \\ 1 & -2 & 1 }[/mm]
>  
> Wenn ich nun die erste und die dritte Spalte mal -2 nehme
> kommt doch folgendes heraus:
>  
> [mm]\pmat{-2 & -2 & -2 \\ 4 & 4 & 4 \\ -2 & -2 & -2 }[/mm]
>  
> Die 3 Spaltenvektoren [mm]\vektor{-2 \\ 4 \\ -2} \vektor{-2 \\ 4 \\ -2} \vektor{-2 \\ 4 \\ -2}[/mm]
> sind doch linear abhängig voneinander, weil sie vielfache
> voneinander sind bzw. komplett identisch. -> ich habe hier
> doch nur 1 linear unabhängigen Vektor -> Rang dieser Matrix
> ist 1
>  
> Ist dies bereits falsch? Muss ich die Rangbestimmung über
> die Zeilenstufenform machen?

Das, was Du gemacht hast, ist schon richtig.

Ich würde Dir jedoch eindringlich raten, solche Rangbestimmungen immer über die zeilenstufenform zu machen, denn letztendlich ersparst Du Dir dadurch meist Arbeit, denn die ZSF kann man dann gleich für die Bestimmung der Lösung des GSs weiterverwenden.

Mach Dich damit unbedingt vertraut.

>  
> Nun wieder zurück zu unserer eigentlichen Aufgabe.
>  
> Es bleibt nach dem Gauß eliminationsverfahren wenn ich mich
> nicht täusche x-2y+z=0

Ja. Hättest Du die Matrix auf ZSF gebracht, hättest Du

[mm] \pmat{1 & -2 & 1 \\ 0 & 0& 0 \\ 0 & 0 & 0 } [/mm] erhalten, was genau obigem Gleichungs"system" entspricht.


>  Nun kann ich 2 Werte selber bestimmen z.B. z=t und y=s  
> t,s [mm]\varepsilon \IR[/mm]
>  -> x=2s-t

>  => allgemeine Lösung ist [mm]\vektor{2s-t \\ s \\ t}[/mm]

[mm] =s*\vektor{2 \\ 1 \\ 0}+t*\vektor{-1 \\ 0 \\ 1}. [/mm]

Die beiden Vektoren [mm] \vektor{2 \\ 1 \\ 0}, \vektor{-1 \\ 0 \\ 1} [/mm] bilden eine Basis des Eigenraumes Deiner Ausgangsmatrix  zum Eigenwert 6.

Zusammen mit dem Eigenvektor zum Eigenwert 12 (ich habe nichts nachgerechnet) hast Du nun eine Basis des [mm] \IR^3 [/mm] aus Eigenvektoren gefunden.

Achtung, den anderen Eigenvektor solltest Du nochmal überprüfen. Er scheint mir verkehrt zu sein.
Weißt Du, woran ich das sehe? Ein Hinweis: Deine Ausgangsmatrix ist symmetrisch... Blätter mal im Skript o.ä.


Mal angenommen, Du hast auch den dritten richtigen Eigenvektor gefunden.
Dann bist Du jetzt so weit, daß Deine Matrix  bzgl  Deiner Basis aus Eigenvektoren eine Diagonalmatrix ist.

Du hast aber noch nicht erreicht, daß Du eine Orthonormalbasis aus Eigenvektoren hast. Dazu mußt Du [mm] \vektor{2 \\ 1 \\ 0}, \vektor{-1 \\ 0 \\ 1} [/mm] noch orthonormieren.

Den Eigenvektor zum anderen Eigenwert mußt Du normieren, und dann hast Du alles, was Du brauchst.

Gruß v. Angela









Bezug
                                                                                                
Bezug
Diagonalmatrix: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 21:24 Mo 14.04.2008
Autor: tobe

yeah, fett! :D
jetzt ist doch ein bisschen Licht ins Dunkle leere nichts gekommen :D

Noch einmal zusammenfassen:
Ich kann den Rang der Matrix über wie Anzahl der linear unabhängigen Vektoren bestimmen. Daraus kann man sehen ob das System Lösbar ist oder nicht. Man kann auch die Dimension der Lösung angeben.
Aber man kann nicht das System Lösen.

Wenn ich die Rangbestimmung gleich über die Zeilenstufenbestimmung mache, kann ich neben der Rangbestimmung auch gleich noch das System Lösen.

Nun noch der Eigenvektor für [mm] \lambda=12 [/mm] : sprich

[mm] \pmat{ -5 & -2 & 1 \\ -2 & -2 & -2 \\ 1 & -2 & -5} [/mm]

Spalte1 - Spalte 2 gibt [mm] \pmat{ -3 & -2 & 1 \\ 0 & -2 & -2 \\ 3 & -2 & -5} [/mm]
Zeile3 + Zeile 1 gibt [mm] \pmat{ -3 & -2 & 1 \\ 0 & -2 & -2 \\ 0 & -4 & 6} [/mm]
zeile3 - 2* Zeile 2 gibt  [mm] \pmat{ -3 & -2 & 1 \\ 0 & -2 & -2 \\ 0 & 0 & 10} [/mm]

daraus bekomme ich
[mm] -3x_{1}-2x_{2}+x_{3}=0 [/mm]
[mm] -2x_{2}-2x_{3}=0 [/mm]
[mm] 10x_{3}=0 [/mm]

ergibt [mm] x_{3}=x_{2}=x_{1}=0 [/mm]
-> [mm] \vektor{0 \\ 0 \\ 0} [/mm]

Sodala, diese 3 ergeben eine Basis. Sodass diese eine Orthonormalbasis wird muss ich sie noch orthonormalisieren, z.B. mit  dem "Orthogonalisierungsverfahren von Schmidt"
Das mache ich hier nicht mehr.

Wenn ich dann die 3 orthonormalisierten Vektoren ein eine matrix schreibe, ist dies meine Matrix S welche gesucht war sodass [mm] S^{-1} [/mm] * A * S = Diagonalmatrix ergibt.

Bitte sagt mir dass ich recht habe :D

P.s. bin jetzt schon 6 Stunden dran :D

Lg Tobi

Bezug
                                                                                                        
Bezug
Diagonalmatrix: Antwort
Status: (Antwort) fertig Status 
Datum: 21:55 Mo 14.04.2008
Autor: angela.h.b.


> Wenn ich die Rangbestimmung gleich über die
> Zeilenstufenbestimmung mache, kann ich neben der
> Rangbestimmung auch gleich noch das System Lösen.

Ja.

Ich würde mich von diesen Spaltenumformungen verabschieden und zusehen, daß die Zeilenumformungen in Fleich und Blut übergehen.

>  
> Nun noch der Eigenvektor für [mm]\lambda=12[/mm] : sprich
>  
> [mm]\pmat{ -5 & -2 & 1 \\ -2 & -2 & -2 \\ 1 & -2 & -5}[/mm]
>  
> Spalte1 - Spalte 2 gibt [mm]\pmat{ -3 & -2 & 1 \\ 0 & -2 & -2 \\ 3 & -2 & -5}[/mm]
>  
> Zeile3 + Zeile 1 gibt [mm]\pmat{ -3 & -2 & 1 \\ 0 & -2 & -2 \\ 0 & -4 & 6}[/mm]
>  
> zeile3 - 2* Zeile 2 gibt  [mm]\pmat{ -3 & -2 & 1 \\ 0 & -2 & -2 \\ 0 & 0 & 10}[/mm]
>  
> daraus bekomme ich
>  [mm]-3x_{1}-2x_{2}+x_{3}=0[/mm]
>  [mm]-2x_{2}-2x_{3}=0[/mm]
>  [mm]10x_{3}=0[/mm]
>  
> ergibt [mm]x_{3}=x_{2}=x_{1}=0[/mm]
>  -> [mm]\vektor{0 \\ 0 \\ 0}[/mm]

>  
> Sodala, diese 3 ergeben eine Basis.

Das sieht schlecht aus...

Erstens mal ist der Nullvektor per definitionem kein Eigenvektor, und zweitens macht sich der Nullvektor als Basisvektor ausgesprochen schlecht.

Wenn Du herausbekommst, daß der Nullvektor ein Eigenvektor ist, ist etwas schiefgegangen. Dann muß man sich auf Fehlersuche begeben.

Du hast oben Zeilen- und Spaltenumformungen gemischt.

Der Gaußalgorithmus läuft ausschließlich mit Zeilenumformungen. Once more, please.

[mm] \pmat{ -5 & -2 & 1 \\ -2 & -2 & -2 \\ 1 & -2 & -5}[/mm] [/mm] --> ...


> Sodass diese eine
> Orthonormalbasis wird muss ich sie noch orthonormalisieren,
> z.B. mit  dem "Orthogonalisierungsverfahren von Schmidt"

Genau.
Orthonormieren mußt Du nur die Vektoren, die zum selben Eigenwert gehören.

Denn Du hast eine symmetrische Matrix vorliegen. Symmetrische Matrizen haben die Eigenschaft, daß die Eigenvektoren zu verschiedenen (!) Eigenwerten vollautomatisch orthogonal sind.

Der Eigenvektor zu 12 muß also nur normiert werden und nicht mit Gram-Schmidt traktiert.


> Wenn ich dann die 3 orthonormalisierten Vektoren ein eine
> matrix schreibe, ist dies meine Matrix S welche gesucht war
> sodass [mm]S^{-1}[/mm] * A * S = Diagonalmatrix ergibt.
>  
> Bitte sagt mir dass ich recht habe :D

Bzgl. dieses Absatzes: ja.

>  
> P.s. bin jetzt schon 6 Stunden dran :D

Tja, so ist das Leben...

Gruß v. Angela



Bezug
                                                                                                                
Bezug
Diagonalmatrix: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 22:31 Mo 14.04.2008
Autor: tobe

Ok, here we go ladies :D

*brief an Gehirn* gaußalgo nur mit zeilenumformen!!!
[mm] \pmat{ -5 & -2 & 1 \\ -2 & -2 & -2 \\ 1 & -2 & -5} [/mm]

Zeile2 - [mm] \bruch{2}{5} [/mm] Zeile 1 und Zeile3 + [mm] \bruch{1}{5} [/mm] Zeile 1 ergibt:

[mm] \pmat{ -5 & -2 & 1 \\ 0 & -\bruch{6}{5} & -\bruch{12}{5} \\ 0 & -\bruch{12}{5} & -\bruch{24}{5}} [/mm]

Zeile3 - 2 * Zeile2 ergibt

[mm] \pmat{ -5 & -2 & 1 \\ 0 & \bruch{6}{5} & -\bruch{12}{5} \\ 0 & 0 & 0} [/mm]

Daraus folgt ich kann [mm] x_{3} [/mm] frei wählen: [mm] x_{3} [/mm] = p -> [mm] x_{2}=2p [/mm]  
[mm] x_{1}= \bruch{3}{5} [/mm] p

3. Vektor ist [mm] p\vektor{\bruch{3}{5} \\ 2 \\ 1} [/mm]

Sind das jetzt meine 3 Vektoren? Ich hoffe doch! Dann kann ich endlich ins Bett :D. Hoffentlich hab ich mich ned verrechnet oder irgend nen Fehler gemacht :p

Danke


Bezug
                                                                                                                        
Bezug
Diagonalmatrix: Antwort
Status: (Antwort) fertig Status 
Datum: 22:42 Mo 14.04.2008
Autor: schachuzipus

Hallo nochmal, Tobias,

das ist fast ganz richtig, du hast nur an einer Stelle ein Minuszeichen verschlabbert:

> Ok, here we go ladies :D
>  
> *brief an Gehirn* gaußalgo nur mit zeilenumformen!!!
>  [mm]\pmat{ -5 & -2 & 1 \\ -2 & -2 & -2 \\ 1 & -2 & -5}[/mm]
>  
> Zeile2 - [mm]\bruch{2}{5}[/mm] Zeile 1 und Zeile3 + [mm]\bruch{1}{5}[/mm]
> Zeile 1 ergibt:
>  
> [mm]\pmat{ -5 & -2 & 1 \\ 0 & -\bruch{6}{5} & -\bruch{12}{5} \\ 0 & -\bruch{12}{5} & -\bruch{24}{5}}[/mm]
>  
> Zeile3 - 2 * Zeile2 ergibt
>  
> [mm]\pmat{ -5 & -2 & 1 \\ 0 & \red{-}\bruch{6}{5} & -\bruch{12}{5} \\ 0 & 0 & 0}[/mm]

Hier haste das [mm] \red{-} [/mm] verschustert.

Zur Vereinfachung der weiteren Rechnung empfehle ich, die 2.Zeile vor dem setzen von [mm] $x_3:=p$ [/mm] erst einmal mit [mm] $-\frac{5}{6}$ [/mm] zu multiplizieren, dann kannst du die weitere (richtige) Lösung fast direktameng ablesen

>  
> Daraus folgt ich kann [mm]x_{3}[/mm] frei wählen: [mm]x_{3}[/mm] = p ->
> [mm]x_{2}=2p[/mm]  
> [mm]x_{1}= \bruch{3}{5}[/mm] p
>  
> 3. Vektor ist [mm]p\vektor{\bruch{3}{5} \\ 2 \\ 1}[/mm]
>  
> Sind das jetzt meine 3 Vektoren?

Fast, korrigiere mal das eine Vorzeichen und flicke die Lösung kurz bei!

Ich hoffe doch! Dann kann

> ich endlich ins Bett :D. Hoffentlich hab ich mich ned
> verrechnet oder irgend nen Fehler gemacht :p
>  
> Danke
>  

Gruß

schachuzipus

Bezug
                                                                                                                                
Bezug
Diagonalmatrix: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 22:52 Mo 14.04.2008
Autor: tobe

Dann ist es [mm] p\vektor{ 1 \\ 2 \\ 1} [/mm] .
Wenn es jetzt ned stimmt bin ich zu übermüdet um es zu rechnen1

Danke an schachuzipus und an Angela die mich den ganzen Tag begleitet haben :D

Bekomme ich jetzt wenigstens nen Award für "ersteller des längsten Thread? :D

Bezug
                                                                                                                                        
Bezug
Diagonalmatrix: Antwort
Status: (Antwort) fertig Status 
Datum: 23:04 Mo 14.04.2008
Autor: schachuzipus

Hi nochmal,

nää, längster thread? Bei weitem nicht ;-)

Aber deine Lösung stimmt nicht, ich mache mal die 2 Schritte von der einen Matrix bis zur Lösung, ok?

Dann hat das Leiden ein Ende [biggrin]

Also du hattest es bis auf das VZ richtig bis hierher:


$ [mm] \pmat{ -5 & -2 & 1 \\ 0 & \red{-}\bruch{6}{5} & -\bruch{12}{5} \\ 0 & 0 & 0} [/mm] $

Da machen wir mal [mm] $-\frac{5}{6}\cdot{}$ [/mm] Zeile 2. Das gibt

$ [mm] \pmat{ -5 & -2 & 1 \\ 0 & 1 & 2 \\ 0 & 0 & 0} [/mm] $

Schon übersichtlicher. Nun setze [mm] $x_3=p$ [/mm] mit [mm] $p\in\IR$ [/mm]

Dann ist mit Zeile 2: [mm] $1\cdot{}x_2+2\cdot{}x_3=0$, [/mm] also [mm] $x_2=-2p$ [/mm]

Das nun in Zeile 1 reinstopfen: [mm] $-5x_1-2x_2+x_3=0$ [/mm] bzw. [mm] $-5x_1=2(-2p)-p=-5p$, [/mm] also [mm] $x_1=p$ [/mm]

Damit ist ein allgemeiner Lösungsvektor [mm] $\vektor{x_1\\x_2\\x_3}=\vektor{p\\-2p\\p}=p\cdot{}\vektor{1\\-2\\1}$ [/mm]

Also der Eigenraum zum Eigenwert [mm] $\lambda=12$ [/mm] ist [mm] $\langle\vektor{1\\-2\\1}\rangle$ [/mm] und ein Eigenvektor ist irgendein Vektor [mm] $\neq \vektor{0\\0\\0}$ [/mm] daraus

Du hattest also nur wieder das VZ verhuddelt ;-)


LG

schachuzipus



Bezug
                                                                                                                                                
Bezug
Diagonalmatrix: Aufgabe
Status: (Frage) beantwortet Status 
Datum: 10:24 Di 15.04.2008
Autor: tobe

Aufgabe
Bestimmen Sie eine orthogonale Matrix S, sodass [mm] S^{-1}\pmat{ 0 & 1 & 0 \\ 1 & 0 & 0 \\ 0 & 0 & 1 } [/mm] S eine Diagonalmatrix ist.

Ich habe hier mal eine weitere Aufgabe des selben Typs gerechnet und wäre froh wenn sie jemand Korrektur lesen könnte. Bald ist Test und ich muss das können :P .

Danke schon einmal vorab

[mm] A=\pmat{ 0 & 1 & 0 \\ 1 & 0 & 0 \\ 0 & 0 & 1 } [/mm]

Eigenwerte: [mm] \pmat{ -\lambda & 1 & 0 \\ 1 & -\lambda & 0 \\ 0 & 0 & 1-\lambda }=0 [/mm]

[mm] \lambda^{2}(1-\lambda)-(1-\lambda)=(1-\lambda)(\lambda^{2}-1)=0 [/mm]
->

[mm] \lambda_{1}=1 [/mm] (doppelt)
[mm] \lambda_{2}=-1 [/mm]

Eigenvektoren:
[mm] \lambda=1 [/mm]

[mm] \pmat{ -1 & 1 & 0 \\ 1 & -1 & 0 \\ 0 & 0 & 0 } [/mm]

Zeile2 + Zeile1 ergibt  [mm] \pmat{ -1 & 1 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & 0 } [/mm]

[mm] -x_{1}+x_{2}=0 [/mm]
0=0
0=0

-> [mm] x_{2} [/mm] und [mm] x_{3} [/mm] frei wählbar; [mm] x_{2}=t [/mm] , [mm] x_{3}=u [/mm] , [mm] ->x_{1}=t [/mm]

Hier bekomme ich 2 Vektoren: [mm] u\vektor{0 \\ 0 \\ 1} [/mm] und [mm] t\vektor{1 \\ 1 \\ 0} [/mm]

[mm] \lambda=-1 [/mm]

[mm] \pmat{ 1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 2 } [/mm]

Zeile2-Zeile1 ergibt [mm] \pmat{ 1 & 1 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & 2 } [/mm]

[mm] x_{1}+x_{2}=0 [/mm]
0=0
[mm] 2x_{3}=0 [/mm]

[mm] x_{2} [/mm] ist frei wählbar -> [mm] x_{2}=-s [/mm] ; [mm] x_{1}=s x_{3}=0 [/mm]

Hier erhalte ich den Vektor [mm] s\vektor{1 \\ -1 \\ 0} [/mm]

Die 3 Vektoren [mm] s\vektor{1 \\ -1 \\ 0}, u\vektor{0 \\ 0 \\ 1} [/mm] und [mm] t\vektor{1 \\ 1 \\ 0}Spannen [/mm] nun meine gesuchte Matrix auf.

Ich muss nur noch schauen ob die Matrix orthogonal ist. Wenn ja, passt es, wenn nein, muss ich sie noch orthogonal machen.

S= [mm] \pmat{ 0 & 1 & 1 \\ 0 & 1 & -1 \\ 1 & 0 & 0 } [/mm]

Wenn sie orthogonal ist, muss S * [mm] S^{T}=I [/mm] sein!

[mm] \pmat{ 0 & 1 & 1 \\ 0 & 1 & -1 \\ 1 & 0 & 0 } [/mm] *  [mm] \pmat{ 0 & 0 & 1 \\ 1 & 1 & 0 \\ 1 & -1 & 0 } [/mm] = S= [mm] \pmat{ 2 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 1 } \not= [/mm] I

Ich muss sie also noch orthogonalisieren. Eignet sich das Gram-Schmidtsches Orthogonalisierungsverfahren? oder wäre das mit Kanonen auf Spatzen geschossen?

Danke fürs Korrekturlesen

Bezug
                                                                                                                                                        
Bezug
Diagonalmatrix: Antwort
Status: (Antwort) fertig Status 
Datum: 10:36 Di 15.04.2008
Autor: MathePower

Hallo tobe,

>  
> Die 3 Vektoren [mm]s\vektor{1 \\ -1 \\ 0}, u\vektor{0 \\ 0 \\ 1}[/mm]
> und [mm]t\vektor{1 \\ 1 \\ 0}Spannen[/mm] nun meine gesuchte Matrix
> auf.
>  
> Ich muss nur noch schauen ob die Matrix orthogonal ist.
> Wenn ja, passt es, wenn nein, muss ich sie noch orthogonal
> machen.
>  
> S= [mm]\pmat{ 0 & 1 & 1 \\ 0 & 1 & -1 \\ 1 & 0 & 0 }[/mm]
>  
> Wenn sie orthogonal ist, muss S * [mm]S^{T}=I[/mm] sein!
>  
> [mm]\pmat{ 0 & 1 & 1 \\ 0 & 1 & -1 \\ 1 & 0 & 0 }[/mm] *  [mm]\pmat{ 0 & 0 & 1 \\ 1 & 1 & 0 \\ 1 & -1 & 0 }[/mm]
> = S= [mm]\pmat{ 2 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 1 } \not=[/mm] I
>  
> Ich muss sie also noch orthogonalisieren. Eignet sich das
> Gram-Schmidtsches Orthogonalisierungsverfahren? oder wäre
> das mit Kanonen auf Spatzen geschossen?

Jo, das ist mit Kanonen auf Spatzen geschossen.

Die Vektoren von sich aus sind ja schon orthogonal.

Die Vektoren sind aber nicht alle vom Betrag 1, deshalb normiere die Vektoren so, daß sie den Betrag 1 haben.

>  
> Danke fürs Korrekturlesen

Gruß
MathePower

Bezug
                                                                                                                                                                
Bezug
Diagonalmatrix: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 10:59 Di 15.04.2008
Autor: tobe

Danke fürs Lesen.
habe die Vektoren normiert. [mm] \vektor{0 \\ 0 \\ 1} \vektor{\bruch{1}{\wurzel{2}} \\ \bruch{1}{\wurzel{2}} \\ 0} [/mm] und [mm] \vektor{\bruch{1}{\wurzel{2}} \\ -\bruch{1}{\wurzel{2}} \\ 0} [/mm]

Jetzt kommt auch die Einheitsmatrix raus.

Jetzt habe ich hier noch ein paar formale Fragen, welche sich beim studieren des Skripts und von Aufgaben ergeben.

1. Lineare Gleichungssysteme: ich solle manchmal welche mit dem Gaußschen Verfahren lösen, andere soll ich mit dem Eliminationsverfahren lösen. Hier war einmal die Rede vom Gauß algorithmus.
Ist das Gaußsche Verfahren = Eliminationsverfahren = Gauß algorithmus
Ich dachte schon oder?

2. In meinem Skriptum wird beim Gaußsches Eliminationsverfahren folgendes angegeben: "Die Gesamtheit der Lösungen ändert sich nicht bei Vertauschung von 2 Gleichungen (Zeilentausch) oder Vertauschung der Terme [mm] x_{k} [/mm] mit den Termen [mm] x_{l} [/mm] (Spaltentausch)

Weiter oben im Artikel habe ich jedoch ein System auf Stufenform gebracht indem ich Spalten- und Zeilentausch gemacht habe. Angela meinte, ich dürfte aber nur Zeilentausch verwenden.

Bezug
                                                                                                                                                                        
Bezug
Diagonalmatrix: Antwort
Status: (Antwort) fertig Status 
Datum: 11:19 Di 15.04.2008
Autor: angela.h.b.


>  Ist das Gaußsche Verfahren = Eliminationsverfahren = Gauß
> algorithmus

Hallo,

da ist dasselbe mit gemeint.

>  
> 2. In meinem Skriptum wird beim Gaußsches
> Eliminationsverfahren folgendes angegeben: "Die Gesamtheit
> der Lösungen ändert sich nicht bei Vertauschung von 2
> Gleichungen (Zeilentausch) oder Vertauschung der Terme
> [mm]x_{k}[/mm] mit den Termen [mm]x_{l}[/mm] (Spaltentausch)
>  
> Weiter oben im Artikel habe ich jedoch ein System auf
> Stufenform gebracht indem ich Spalten- und Zeilentausch
> gemacht habe. Angela meinte, ich dürfte aber nur
> Zeilentausch verwenden.  

Angela, die Gute, wollte Dich vor Dir selber retten: wenn Du Spalten vertauschst, mußt Du die Variablen umbenennen.

Guck mal:

x+y+z=1
x+2z=5
y=2

Im Matrixschema wäre das

[mm] \pmat{ 1 & 1 &1& |1\\ 1 & 2 &0& |5\\0 & 1 &0& |2}. [/mm]

Nun könnte man tatsächlich auf die Idee kommen, die letzte und erste Zeile zu tauschen:

--> [mm] \pmat{ 1 & 1 &1& |1\\ 0 & 2 &1& |5\\0 & 1 &0& |2} [/mm]

Nun noch die vorletzt mit der letzten:

--> [mm] \pmat{ 1 & 1 &1& |1\\ 0 & 1 &2& |5\\0 & 0 &1& |2}. [/mm]

Wenn man nun allerdings meint, daß

z=2
y=1
x=-2

die Lösung von

x+y+z=1
x+2z=5
y=2

ist, hat man sich gewaltig getäuscht.

Die Lösung: wenn Du Spalten vertauschst, mußt Du jedesmal die Variablen umbenennen.

Tu's nicht!

Gruß v. Angela






Bezug
                                                                                                                                                                                
Bezug
Diagonalmatrix: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 11:27 Di 15.04.2008
Autor: tobe

Danke an alle für die Unterstützung. Ihr seit Super! Wir werden uns bestimmt bald wieder sprechen, wenn ich bei Augleichsrechnungen  und hauptachsentransformation bin :D
Aber erst mal schauen ob ich einem anderen user helfen kann !

Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Lineare Algebra - Matrizen"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.matheforum.net
[ Startseite | Forum | Wissen | Kurse | Mitglieder | Team | Impressum ]