www.matheraum.de
Das Matheforum.
Das Matheforum des MatheRaum.

Für Schüler, Studenten, Lehrer, Mathematik-Interessierte.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Mathe
  Status Schulmathe
    Status Primarstufe
    Status Mathe Klassen 5-7
    Status Mathe Klassen 8-10
    Status Oberstufenmathe
    Status Mathe-Wettbewerbe
    Status Sonstiges
  Status Hochschulmathe
    Status Uni-Analysis
    Status Uni-Lin. Algebra
    Status Algebra+Zahlentheo.
    Status Diskrete Mathematik
    Status Fachdidaktik
    Status Finanz+Versicherung
    Status Logik+Mengenlehre
    Status Numerik
    Status Uni-Stochastik
    Status Topologie+Geometrie
    Status Uni-Sonstiges
  Status Mathe-Vorkurse
    Status Organisatorisches
    Status Schule
    Status Universität
  Status Mathe-Software
    Status Derive
    Status DynaGeo
    Status FunkyPlot
    Status GeoGebra
    Status LaTeX
    Status Maple
    Status MathCad
    Status Mathematica
    Status Matlab
    Status Maxima
    Status MuPad
    Status Taschenrechner

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Mathe-Seiten:Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
StartseiteMatheForenLineare Algebra - EigenwerteDiagonalisierbarkeit
Foren für weitere Schulfächer findest Du auf www.vorhilfe.de z.B. Deutsch • Englisch • Französisch • Latein • Spanisch • Russisch • Griechisch
Forum "Lineare Algebra - Eigenwerte" - Diagonalisierbarkeit
Diagonalisierbarkeit < Eigenwerte < Lineare Algebra < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Lineare Algebra - Eigenwerte"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Diagonalisierbarkeit: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 14:31 Do 08.03.2007
Autor: Esperanza

Aufgabe
[mm] \vmat{ 5 & -6 & -6 \\ -1 & 4 & 2 \\ 3 & -6 & -4 } [/mm]

Prüfe auf Diagonalisierbarkeit!

Hallo Leute!

Ich hab zu der Aufgabe ein paar Verständnisfragen.

Ich habe die Lösungen zu der Aufgabe vorliegen, verstehe aber teilweise nicht wie man darauf gekommen ist, bzw. fehlen mir Zwischenschritte.

Zuerst bestimme ich das charakteristische Polynom.
Eigentlich ist das kein Problem. Es lautet:

(x-2)(x-2)(x-1)

Zur Berechnung dafür schreib ich die Matrix so:

[mm] \vmat{ x-5 & -6 & -6 \\ -1 & x-4 & 2 \\ 3 & -6 & x+4 } [/mm]

Wie es dann weiter geht weiß ich auch. Nur bei einer anderen Aufgabe zu diesem Thema wurde auf der Diagonale nicht x-y (y für einen diagonaleintrag) gerechnet, sondern y-x. Nun die Frage. Ist das egal wie rum ich das drehe? Komme ich trotzdem auf das gleiche charakteristische Polynom? Warum wird das mal so und mal so gedreht?

Weiter gehts.

Durch das char. Polynom habe ich die Eigenwerte 2 und 1 erhalten, wobei ja die 2 eine doppelte Nullstelle ist...also zweimal vorhanden ist.

Als Eigenwerte für die Aufgabe steht als Lösung hier:
Für 1: [mm] \vektor{3 \\ -1 \\ 3} [/mm]
Für 2: [mm] \vektor{2 \\ 1 \\ 0} [/mm] , [mm] \vektor{2 \\ 0 \\ 1} [/mm]

wenn ich jetzt 1 einsetze ist es zum Beispiel wieder andersherum.

Ich setze in die Matrix ein:

[mm] \vmat{ 5-1 & -6 & -6 \\ -1 & 4-1 & 2 \\ 3 & -6 & -4-1 } [/mm]

(Warum hier nicht 1-5, 1-4 und 1+4???)

Um jetzt die Eigenräume rauszubekommen habe ich durch Gauß die Matrix vereinfacht. Danach steht es so da:

[mm] \vmat{ 1 & 0 & -1 \\ 0 & 1 & 1/3 \\ 0 & 0 & 0 }*\vektor{x1 \\ x2 \\ x3}=\vektor{0\\ 0 \\ 0} [/mm]

Wenn ich jetzt die Lösung für 1: [mm] \vektor{3 \\ -1 \\ 3} [/mm] einsetzte kommt auch der Nullvektor raus. Mein Problem liegt aber darin, dass wenn mir die Lösung nicht gegeben ist, ich es nicht hinbekomme sie zu errechnen. Denn wenn ich das homogene GS löse, kommt für die x (logischerweise) immer Null raus. Das bringt nix. Wie komme ich nun auf die Eigenraumwerte? Durch vorheriges Einsetzungsverfahren habe ich auch schon rausbekommen das x1=x3 ist, was ja auch stimmt.

Was mir auch ein Rätsel ist, ist die Tatsache das für die 2 auch 2 verschiedene Eigenraumvektoren rauskommen. Weil wenn ich 2 mal die 2 einsetze in die Matrix kommt doch eigentlich zweimal das gleiche raus? Wie kommt das zu stande?

Die Basis dazu heißt ja am Ende:

[mm] B=\vektor{2\\ 1 \\ 0}\vektor{2\\ 0 \\ 1}\vektor{3\\ -1 \\ 3} [/mm]

In der Lösung steht jetzt: Wenn man die Ausgangsmatrix nun bezüglich B darstellt erhält man diese hier:

[mm] \vmat{ 2 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 1 } [/mm]

Da bin ich leider auch überfragt wie man dazu kommt.

Ein Haufen Fragen, ich weiß, aber ich will es unbedingt verstehen!

Kann mir jemand weiterhelfen? Vielen Dank!

Esperanza

        
Bezug
Diagonalisierbarkeit: Antwort
Status: (Antwort) fertig Status 
Datum: 16:32 Do 08.03.2007
Autor: angela.h.b.


> [mm]\vmat{ 5 & -6 & -6 \\ -1 & 4 & 2 \\ 3 & -6 & -4 }[/mm]
>  
> Prüfe auf Diagonalisierbarkeit!

> Zuerst bestimme ich das charakteristische Polynom.
>  Eigentlich ist das kein Problem. Es lautet:
>  
> (x-2)(x-2)(x-1)
>  
> Zur Berechnung dafür schreib ich die Matrix so:
>  
> [mm]\vmat{ x-5 & -6 & -6 \\ -1 & x-4 & 2 \\ 3 & -6 & x+4 }[/mm]
>  
> Wie es dann weiter geht weiß ich auch. Nur bei einer
> anderen Aufgabe zu diesem Thema wurde auf der Diagonale
> nicht x-y (y für einen diagonaleintrag) gerechnet, sondern
> y-x. Nun die Frage. Ist das egal wie rum ich das drehe?
> Komme ich trotzdem auf das gleiche charakteristische
> Polynom? Warum wird das mal so und mal so gedreht?

Hallo,

fürs charakteristische Polynom von A sind beide Definitionen, [mm] \chi_A(\lambda):=det(\lambda [/mm] E-A) und [mm] \chi_A(\lambda):=det(A-\lambda [/mm] E) im Umlauf. Die zweite Variante ist eigentlich nicht so hübsch, weil man hierbei Polynome mit dem Leitkoeffizienten -1 bekommen kann.

Im Grunde genommen ist's aber egal, denn wir benötigen das Charakteristische Polynom, um seine Nullstellen, die Eigenwerte der Matrix, zu bestimmen, und die sind bei beiden Polynomem gleich.

Bloß man muß sich entscheiden, wie man's machen will.

> Zur Berechnung dafür schreib ich die Matrix so:
>  
> [mm]\vmat{ x-5 & -6 & -6 \\ -1 & x-4 & 2 \\ 3 & -6 & x+4 }[/mm]

Hier hast Du beides gemixt, das darfst Du nicht. Du mußt Dich entscheiden. Entweder berechnest Du die Determinante von

[mm] A-xE=\vmat{5-x & -6 & -6 \\ -1 & 4-x & 2 \\ 3 & -6 & -4-x } [/mm]

oder von

[mm] xE-A=\vmat{x-5 & 6 & 6 \\ 1 & x-4 & -2 \\ -3 & 6 & x+4 }. [/mm]


>  
> Weiter gehts.
>  
> Durch das char. Polynom habe ich die Eigenwerte 2 und 1
> erhalten, wobei ja die 2 eine doppelte Nullstelle
> ist...also zweimal vorhanden ist.
>  
> Als Eigenwerte für die Aufgabe steht als Lösung hier:
>  Für 1: [mm]\vektor{3 \\ -1 \\ 3}[/mm]
>  Für 2: [mm]\vektor{2 \\ 1 \\ 0}[/mm]
> , [mm]\vektor{2 \\ 0 \\ 1}[/mm]


>  
> wenn ich jetzt 1 einsetze ist es zum Beispiel wieder
> andersherum.


Du mußt Dich entscheiden, in welche der beiden Matrizen Du nun 1 einsetzen möchtest.



>  
> Ich setze in die Matrix ein:
>  
> [mm]\vmat{ 5-1 & -6 & -6 \\ -1 & 4-1 & 2 \\ 3 & -6 & -4-1 }[/mm]
>  
> (Warum hier nicht 1-5, 1-4 und 1+4???)

s.o.


>  
> Um jetzt die Eigenräume rauszubekommen habe ich durch Gauß
> die Matrix vereinfacht. Danach steht es so da:
>  
> [mm]\vmat{ 1 & 0 & -1 \\ 0 & 1 & 1/3 \\ 0 & 0 & 0 }*\vektor{x1 \\ x2 \\ x3}=\vektor{0\\ 0 \\ 0}[/mm]
>  
> Wenn ich jetzt die Lösung für 1: [mm]\vektor{3 \\ -1 \\ 3}[/mm]
> einsetzte kommt auch der Nullvektor raus. Mein Problem
> liegt aber darin, dass wenn mir die Lösung nicht gegeben
> ist, ich es nicht hinbekomme sie zu errechnen. Denn wenn
> ich das homogene GS löse, kommt für die x (logischerweise)
> immer Null raus.

Nein. Aus

[mm] \vmat{ 1 & 0 & -1 \\ 0 & 1 & 1/3 \\ 0 & 0 & 0 }*\vektor{x1 \\ x2 \\ x3}=\vektor{0\\ 0 \\ 0} [/mm]

kannst Du ablesen, daß die Dimension des Lösungsraumes (hier: des Eigenraumes) =1 ist, nämlich 3-Rang A=3-2=1  (Eine Zeile mit Nullen).

Du kannst eine Variable völlig frei wählen, etwa

[mm] x_2=t [/mm] mit [mm] t\in \IR. [/mm] Es muß dann sein (s. die "bearbeitete" Matrix)

[mm] x_2+\bruch{x_3}{3}=0, [/mm] also [mm] x_3=-3x_3=-3t. [/mm]    Für [mm] x_1 [/mm] erhält man

[mm] x_1 [/mm] - [mm] x_3=0, [/mm] d.h. [mm] x_1=x_3=-3t. [/mm]

Wie sehen nun die Lösungsvektoren [mm] \vektor{x_1 \\ x_2 \\ x_3} [/mm] aus?

So: Alle Vektoren der Gestalt [mm] \vektor{x_1 \\ x_2 \\ x_3}=\vektor{-3t \\ t \\ -3t}=t\vektor{-3 \\ 1 \\ -3} [/mm] mit t [mm] \in \IR [/mm]  lösen das Gleichungssystem.

Es ist also [mm] <\vektor{1 \\ -3 \\ 1}> [/mm] der Eigenraum zum Eigenwert 1.

[mm] \vektor{1 \\ -3 \\ 1} [/mm] ist EIN Eigenvektor zum Eigenwert 1, genau wie jedes von Null verschiedenen Vielfache dieses Vektors.




Das bringt nix. Wie komme ich nun auf die

> Eigenraumwerte? Durch vorheriges Einsetzungsverfahren habe
> ich auch schon rausbekommen das x1=x3 ist, was ja auch
> stimmt.
>  
> Was mir auch ein Rätsel ist, ist die Tatsache das für die 2
> auch 2 verschiedene Eigenraumvektoren rauskommen. Weil wenn
> ich 2 mal die 2 einsetze in die Matrix kommt doch
> eigentlich zweimal das gleiche raus? Wie kommt das zu
> stande?

Hast Du's schon gemacht? Setz die 2 ein und forme um.
Die Matrix hat den Rang 1, also bekommst Du zwei Zeilen mit Nullen. Du kannst zwei Variable frei wählen, was Dir einen zweidimensionalen Lösungsraum liefert. Er wird aufgespannt von 2 linear unabhängigen Eigenvektoren zum Eigenwert 2.


>
> Die Basis dazu heißt ja am Ende:
>  
> [mm]B=\vektor{2\\ 1 \\ 0}\vektor{2\\ 0 \\ 1}\vektor{3\\ -1 \\ 3}[/mm]

Die ersten beiden sind zwei unabhängige EVen zum EW 2.
(Möglicherweise sehen die Vektoren, die Du berechnest, anders aus. Das MUSS nicht beunruhigend sein. Verschiedene Vektoren können dieselben Räume aufspannen.)

>  
> In der Lösung steht jetzt: Wenn man die Ausgangsmatrix nun
> bezüglich B darstellt erhält man diese hier:
>  
> [mm]\vmat{ 2 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 1 }[/mm]
>  
> Da bin ich leider auch überfragt wie man dazu kommt.

Wir nehmen jetzt als Basis des [mm] \IR^3 [/mm] nicht die kanonische Einheitsbasis, sondern diese Basis [mm] B=(b_1:=\vektor{2\\ 1 \\ 0}, b_2:=\vektor{2\\ 0 \\ 1}, b_3:=\vektor{3\\ -1 \\ 3}) [/mm]

Eine lineare Abbildung ist ja durch ihre Werte auf einer Basis erklärt.
Jetzt gucken wir uns die durch A bestimmte lineare Abbildung an, insbes. ihre Werte auf [mm] b_1, b_2, b_3. [/mm]

[mm] Ab_1=2b_1=2b_1+0b_2+0b_3=\vektor{2\\ 0 \\ 0}_B [/mm]

[mm] Ab_2=2b_2=0b_1+2b_2+0b_3=\vektor{0\\ 2 \\ 0}_B [/mm]

[mm] Ab_3=1b_3=0b_1+0b_2+1b_3=\vektor{0\\ 0 \\ 1}_B [/mm]

Diese Vektoren in die Spalten der neuen Matrix gesteckt, ergeben die Darstellung von A bezüglich der Basis B.

Gruß v. Angela



Bezug
                
Bezug
Diagonalisierbarkeit: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 19:24 Do 08.03.2007
Autor: felixf

Hallo zusammen,

> fürs charakteristische Polynom von A sind beide
> Definitionen, [mm]\chi_A(\lambda):=det(\lambda[/mm] E-A) und
> [mm]\chi_A(\lambda):=det(A-\lambda[/mm] E) im Umlauf. Die zweite
> Variante ist eigentlich nicht so hübsch, weil man hierbei
> Polynome mit dem Leitkoeffizienten -1 bekommen kann.
>  
> Im Grunde genommen ist's aber egal, denn wir benötigen das
> Charakteristische Polynom, um seine Nullstellen, die
> Eigenwerte der Matrix, zu bestimmen, und die sind bei
> beiden Polynomem gleich.

um das etwas zu konkretisieren: ist $A$ eine $n [mm] \times [/mm] n$-Matrix, so ist [mm] $\det(A [/mm] - [mm] \lambda [/mm] E) = [mm] \det(-(-(A [/mm] - [mm] \lambda [/mm] E))) = [mm] \det(-(\lambda [/mm] E - A)) = [mm] (-1)^n \det(\lambda [/mm] E - A)$. Damit sind also beide Definitionen bis auf den Vorfaktor [mm] $(-1)^n$ [/mm] gleich, also bis aufs Vorzeichen, womit sie insbesondere die gleichen Nullstellen haben.

LG Felix


Bezug
                
Bezug
Diagonalisierbarkeit: Rückfrage
Status: (Frage) beantwortet Status 
Datum: 20:41 Do 08.03.2007
Autor: Esperanza

Hallo Angela!

Danke für die gute Antwort. Sie hat mir schon gut geholfen!

Aber weiter unten sind mir die zwei Berechnungen nicht ganz klar. Wahrscheinlich ist mein Hirn zur zeit etwas überlastet. Und zwar:


> Hast Du's schon gemacht? Setz die 2 ein und forme um.
>  Die Matrix hat den Rang 1, also bekommst Du zwei Zeilen
> mit Nullen. Du kannst zwei Variable frei wählen, was Dir
> einen zweidimensionalen Lösungsraum liefert. Er wird
> aufgespannt von 2 linear unabhängigen Eigenvektoren zum
> Eigenwert 2.

Ich hab die 2 eingesetzt und komme auf eine umgeformte Matrix die da lautet:

[mm] \vmat{ 1 & -1 & 1 \\ 0 & 0 & 0 \\ 0 & 0 & 0 } [/mm]

Wie mach ich das jetzt das ich zwei Variablen frei wähle? Kannst du mir das nochmal zeigen?


>
> Wir nehmen jetzt als Basis des [mm]\IR^3[/mm] nicht die kanonische
> Einheitsbasis, sondern diese Basis [mm]B=(b_1:=\vektor{2\\ 1 \\ 0}, b_2:=\vektor{2\\ 0 \\ 1}, b_3:=\vektor{3\\ -1 \\ 3})[/mm]
>  
> Eine lineare Abbildung ist ja durch ihre Werte auf einer
> Basis erklärt.
>  Jetzt gucken wir uns die durch A bestimmte lineare
> Abbildung an, insbes. ihre Werte auf [mm]b_1, b_2, b_3.[/mm]
>  
> [mm]Ab_1=2b_1=2b_1+0b_2+0b_3=\vektor{2\\ 0 \\ 0}_B[/mm]
>  
> [mm]Ab_2=2b_2=0b_1+2b_2+0b_3=\vektor{0\\ 2 \\ 0}_B[/mm]
>  
> [mm]Ab_3=1b_3=0b_1+0b_2+1b_3=\vektor{0\\ 0 \\ 1}_B[/mm]
>  
> Diese Vektoren in die Spalten der neuen Matrix gesteckt,
> ergeben die Darstellung von A bezüglich der Basis B.

Irgendwie fehlt mir da noch ein Zwischenschritt. Ist mir schon peinlich irgendwie aber ich versteh das noch nicht so ganz wie da auf einmal die Nullen herkommen. Ich setz ja zwei mal die 2 ein und einmal die 1 oder wie?

Danke für deine Hilfe!


Bezug
                        
Bezug
Diagonalisierbarkeit: Antwort
Status: (Antwort) fertig Status 
Datum: 21:25 Do 08.03.2007
Autor: schachuzipus

Hallo Esperanza,

nun, zu deiner ersten Frage:

du hast [mm] \pmat{ 1 & -1 & 1 & | & 0\\ 0 & 0 & 0 & | & 0 \\ 0 & 0 & 0 & | & 0} [/mm]

also 2 frei wählbare Variablen, nehmen wir [mm] x_2=s [/mm] und [mm] x_3=t [/mm] mit s,t [mm] \in\IR [/mm]

Dann ist mit der ersten Zeile [mm] 1\cdot{}x_1+(-1)\cdot{}x_2+1\cdot{}x_3=0, [/mm] also [mm] x_1=s-t [/mm]

Ein Lösungsvektor sieht also so aus: [mm] \vektor{x_1 \\ x_2 \\ x_3}=\vektor{s-t \\ s \\ t}=\vektor{s \\ s \\ 0}+\vektor{-t \\ 0 \\ t}=s\cdot{}\vektor{1 \\ 1 \\ 0}+t\cdot{}\vektor{-1 \\ 0 \\ 1} [/mm]

Also wird der Lösungsraum von [mm] \vektor{1 \\ 1 \\ 0} [/mm] und [mm] \vektor{-1 \\ 0 \\ 1} [/mm] aufgespannt. Diese sind linear unabhängig und somit eine Basis des Lösungsraumes (also hat der Lösungsraum die Dimension 2)


zur zweiten Frage:

als Basis habt ihr genommen [mm] \{b_1,b_2,b_3\}=\{\vektor{2 \\ 1 \\ 0},\vektor{2 \\ 0 \\ 1},\vektor{3 \\ -1 \\ 3}\} [/mm]

A war [mm] \pmat{ 5 & -6 & -6 \\ -1 & 4 & 2 \\ 3 & -6 & -4 } [/mm]

Dann ist [mm] A\cdot{}b_1=\pmat{ 5 & -6 & -6 \\ -1 & 4 & 2 \\ 3 & -6 & -4 }\cdot{}\vektor{2 \\ 1 \\ 0}=...=\vektor{4 \\ 2 \\ 0} [/mm]

Dieser wird nun als Linearkombination von [mm] b_1,b_2,b_3 [/mm] dargestellt. Das geht ja und ist eindeutig, weil [mm] \{b_1,b_2,b_3\} [/mm] eine Basis ist.

Also [mm] \vektor{4 \\ 2 \\ 0}=\lambda\cdot{}\vektor{2 \\ 1 \\ 0}+\mu\cdot{}\vektor{2 \\ 0 \\ 1}+\nu\cdot{}\vektor{3 \\ -1 \\ 3} [/mm]

Wenn du dieses Gleichungssystem löst oder scharf hinschaust, siehst du, dass [mm] \lambda=2, \mu =\nu [/mm] =0 sind, also

[mm] \vektor{4 \\ 2 \\ 0}=\red{2}\cdot{}\vektor{2 \\ 1 \\ 0}+\red{0}\cdot{}\vektor{2 \\ 0 \\ 1}+\red{0}\cdot{}\vektor{3 \\ -1 \\ 3} [/mm]

Somit bildet [mm] \vektor{\red{2} \\ \red{0} \\ \red{0}} [/mm] die erste [mm] \bold{Spalte} [/mm] der Darstellungsmatrix

Die anderen Spalten ergeben sich analog, bilde mal [mm] b_2 [/mm] und [mm] b_3 [/mm] ab und stelle diese Bilder als LK von [mm] b_1,b_2 [/mm] und [mm] b_3 [/mm] dar.


Hoffe, das beantwortet deine Frage(n) ;-)

Gruß

schachuzipus

Bezug
                                
Bezug
Diagonalisierbarkeit: Super!
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 10:38 Fr 09.03.2007
Autor: Esperanza

Hey Danke ihr habt mir super geholfen! :-)

Gruß, Esperanza

Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Lineare Algebra - Eigenwerte"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.matheforum.net
[ Startseite | Forum | Wissen | Kurse | Mitglieder | Team | Impressum ]