www.matheraum.de
Das Matheforum.
Das Matheforum des MatheRaum.

Für Schüler, Studenten, Lehrer, Mathematik-Interessierte.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Mathe
  Status Schulmathe
    Status Primarstufe
    Status Mathe Klassen 5-7
    Status Mathe Klassen 8-10
    Status Oberstufenmathe
    Status Mathe-Wettbewerbe
    Status Sonstiges
  Status Hochschulmathe
    Status Uni-Analysis
    Status Uni-Lin. Algebra
    Status Algebra+Zahlentheo.
    Status Diskrete Mathematik
    Status Fachdidaktik
    Status Finanz+Versicherung
    Status Logik+Mengenlehre
    Status Numerik
    Status Uni-Stochastik
    Status Topologie+Geometrie
    Status Uni-Sonstiges
  Status Mathe-Vorkurse
    Status Organisatorisches
    Status Schule
    Status Universität
  Status Mathe-Software
    Status Derive
    Status DynaGeo
    Status FunkyPlot
    Status GeoGebra
    Status LaTeX
    Status Maple
    Status MathCad
    Status Mathematica
    Status Matlab
    Status Maxima
    Status MuPad
    Status Taschenrechner

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Mathe-Seiten:Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
StartseiteMatheForenUni-Lineare AlgebraVektoren aus K^2, LinearUnabhängig
Foren für weitere Schulfächer findest Du auf www.vorhilfe.de z.B. Philosophie • Religion • Kunst • Musik • Sport • Pädagogik
Forum "Uni-Lineare Algebra" - Vektoren aus K^2, LinearUnabhängig
Vektoren aus K^2, LinearUnabhängig < Lineare Algebra < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Lineare Algebra"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Vektoren aus K^2, LinearUnabhängig: Frage (reagiert)
Status: (Frage) reagiert/warte auf Reaktion Status 
Datum: 18:32 Fr 21.05.2004
Autor: nevinpol

Hallöchen an Alle,

sitze gerade an der Aufgabe:

Man beweise: zwei Vektoren [mm]a_{1}=(a_{11},a_{12}) [/mm] und [mm] a_{2}=(a_{21},a_{22})[/mm]
aus [mm]K^{2}[/mm], [mm]K[/mm] Körper, sind genau dann linear abhängig, wenn die sogenannte
[mm]Determinante \nabla = a_{11}a_{22}-a_{12}a_{21}[/mm] nicht verschwindet.




Also ich muss wegen "genau dann" zwei mal beweisen:
[mm]\Rightarrow[/mm]:
Aus Lineaer Unabhängigkeit folgt [mm]a_{11}a_{22}-a_{12}a_{21} \ne 0[/mm]
und
[mm]\Leftarrow[/mm]:
Aus [mm]a_{11}a_{22}-a_{12}a_{21} \ne 0 [/mm]folgt Linear Unabhängigkeit.



[mm]\Rightarrow[/mm]:

Die Vektoren [mm]a_{1}[/mm] und [mm]a_{2}[/mm] sind linear unabhängig, falls gilt:

[mm]k_{1}a_{1}+k_{2}a_{2}=0 \Rightarrow k_{1}=0[/mm] und [mm] k_{2}=0[/mm]

[mm] \gdw k_{1} \cdot a_{1} + k_{2} \cdot a_{2} = 0[/mm]
[mm] \gdw k_{1} \cdot \begin{pmatrix} a_{11} \\ a_{12} \end{pmatrix} + k_{2} \cdot \begin{pmatrix} a_{21} \\ a_{22} \end{pmatrix} = 0 [/mm]

Irgendwie komme ich an dieser Stelle nicht mehr weiter mit dem Beweis.
Nachvollziehbar ist es schon, aber ich weiss nicht wie ich es zeigen soll.

Grüsse
nevinpol

        
Bezug
Vektoren aus K^2, LinearUnabhängig: Antwort
Status: (Antwort) fertig Status 
Datum: 19:59 Fr 21.05.2004
Autor: Marc

Hallo nevinpol,

> Man beweise: zwei Vektoren [mm]a_{1}=(a_{11},a_{12})[/mm] und
> [mm]a_{2}=(a_{21},a_{22})[/mm]
>  aus [mm]K^{2}[/mm], [mm]K[/mm] Körper, sind genau dann linear abhängig, wenn
> die sogenannte
> [mm]Determinante \nabla = a_{11}a_{22}-a_{12}a_{21}[/mm] nicht
> verschwindet.
>  
>
>
> Also ich muss wegen "genau dann" zwei mal beweisen:
>  [mm]\Rightarrow[/mm]:
>  Aus Lineaer Unabhängigkeit folgt [mm]a_{11}a_{22}-a_{12}a_{21} \ne 0[/mm]
>  
> und
>  [mm]\Leftarrow[/mm]:
>  Aus [mm]a_{11}a_{22}-a_{12}a_{21} \ne 0 [/mm]folgt Linear
> Unabhängigkeit.

[ok], diese beiden Richtungen sollte man --zumindestens gedanklich-- getrennt untersuchen.

> [mm]\Rightarrow[/mm]:
>  
> Die Vektoren [mm]a_{1}[/mm] und [mm]a_{2}[/mm] sind linear unabhängig, falls
> gilt:
>  
> [mm]k_{1}a_{1}+k_{2}a_{2}=0 \Rightarrow k_{1}=0[/mm] und [mm]k_{2}=0[/mm]
>  
> [mm]\gdw k_{1} \cdot a_{1} + k_{2} \cdot a_{2} = 0[/mm]
>  [mm]\gdw k_{1} \cdot \begin{pmatrix} a_{11} \\ a_{12} \end{pmatrix} + k_{2} \cdot \begin{pmatrix} a_{21} \\ a_{22} \end{pmatrix} = 0[/mm]
>  
>
> Irgendwie komme ich an dieser Stelle nicht mehr weiter mit
> dem Beweis.
>  Nachvollziehbar ist es schon, aber ich weiss nicht wie ich
> es zeigen soll.

Das ist doch schon gar nicht schlecht.

Was du oben als Vektorgleichung stehen hast, ist ja "einfach" ein lineares Gleichungssystem, wenn man die Komponenten betrachtet:

[mm] \begin{array}{rrrrl} &k_1*a_{11}&+k_2*a_{12}&=&0\\ \wedge &k_1*a_{21}&+k_2*a_{22}&=&0 \end{array} [/mm]

Dieses würde ich mal versuchen nach [mm] k_1 [/mm] und/oder [mm] k_2 [/mm] aufzulösen, z.B. mit dem Gauß-Algorithmus. Wahrscheinlich reicht es schon, es nur nach einer der beiden Variablen [mm] $k_1$, k_2 [/mm] aufzulösen, denn die gwünschten Aussagen kann man dann an Hand der letzten Gleichung treffen.
Lästig dabei sind die Fallunterscheidungen, die man dabei machen muß (z.B. darf man ja nicht mit 0 multiplizieren/dividieren...)

Mit diesem allgemein aufgelösten LGS kannst du auch die Rückrichtung zeigen.

Probier' es erst mal selbst, wir schauen dir dann bei Bedarf über die Schulter :-)

Viel Erfolg,
Marc

Bezug
                
Bezug
Vektoren aus K^2, LinearUnabhängig: Eine Richtung gezeigt...
Status: (Frage) beantwortet Status 
Datum: 01:39 Sa 22.05.2004
Autor: nevinpol

Hallo...

Also jetzt habe ich eine Lösung für die eine Richtung,
allerdings habe ich das nicht als Matrix aufgeschrieben...

Ich schreibe mal erstmal sohin wie ich es mir aufgeschrieben
habe und dann starte ich mal den Versuch das mit dem
Gauß-Algorithmus zu machen:



[mm] \gdw k_{1} \cdot a_{1} + k_{2} \cdot a_{2} = 0[/mm]
[mm] \gdw k_{1} \cdot \begin{pmatrix} a_{11} \\ a_{12} \end{pmatrix} + k_{2} \cdot \begin{pmatrix} a_{21} \\ a_{22} \end{pmatrix} = 0[/mm]
[mm] \gdw \begin{pmatrix} k_{1} \cdot a_{11} \\ k_{1} \cdot a_{12} \end{pmatrix} + \begin{pmatrix} k_{2} \cdot a_{21} \\ k_{2} \cdot a_{22} \end{pmatrix} = 0[/mm]

Das ist dann lineares Gleichungssystem mit den Variablen [mm]k_{1}[/mm] und [mm]k_{2}[/mm].

(1) [mm] k_{1} \cdot a_{11} + k_{2} \cdot k_{12} = 0 [/mm]
(2) [mm] k_{1} \cdot a_{21} + k_{2} \cdot k_{22} = 0 [/mm]

(1) mal [mm]a_{22} [/mm] = (3) [mm] k_{1} \cdot a_{11} \cdot a_{22}+ k_{2} \cdot k_{12} \cdot a_{22} = 0 [/mm]
(2) mal [mm]a_{12} [/mm] = (4) [mm] k_{1} \cdot a_{21} \cdot a_{12}+ k_{2} \cdot k_{22} \cdot a_{12} = 0 [/mm]

(3) minus (4) = (5) [mm]k_{1} \cdot a_{11} \cdot a_{22} + k_{2} \cdot a_{12} \cdot a_{22} - k_{1} \cdot a_{21} \cdot a_{12} - k_{2} \cdot a_{22} \cdot a_{12} = 0 [/mm]
[mm]\gdw k_{1} \cdot a_{11} \cdot a_{22} - k_{1} \cdot a_{21} \cdot a_{12} = 0[/mm]
[mm]\gdw k_{1} \cdot (a_{11} \cdot a_{22} - a_{21} \cdot a_{12}) = 0 [/mm]
Ich dividiere die Gleichung durch [mm](a_{11} \cdot a_{22} - a_{21} \cdot a_{12}) \ne 0[/mm]
[mm]\gdw k_{1} = 0 [/mm]

Ich setze [mm]k_{1}[/mm] in (3):

(3) [mm] k_{1} \cdot a_{11} \cdot a_{22}+ k_{2} \cdot k_{12} \cdot a_{22} = 0 [/mm]
[mm] \gdw 0 \cdot a_{11} \cdot a_{22}+ k_{2} \cdot k_{12} \cdot a_{22} = 0 [/mm]
[mm] \gdw 0 + k_{2} \cdot k_{12} \cdot a_{22} = 0 [/mm]
[mm] \gdw k_{2} \cdot (k_{12} \cdot a_{22}) = 0 [/mm]

Ich dividiere durch [mm](k_{12} \cdot a_{22}) \ne 0 [/mm]

[mm]\gdw k_{2} = 0 [/mm]

Damit gilt:

[mm]k_{1} \cdot a_{1} + k_{2} \cdot a_{2} = 0 \Rightarrow k_{1}=0[/mm] und [mm] k_{2}=0 [/mm],
wenn [mm]a_{11} \cdot a_{22} - a_{12} \cdot a_{21} \ne 0 [/mm] ist.



Jetzt versuche ich mal die obige lineare Gleichungssystem mit dem
Gauss-Algorithmus zu lösen:

[mm] \begin{pmatrix}a_{11} & a_{12} \\a_{21} & a_{22} \end{pmatrix} \begin{pmatrix}0 \\ 0 \end{pmatrix} [/mm]

Ich multipliziere die 1. Zeile mit [mm]a_{22}[/mm] und die 2. Zeile mit [mm]a_{12}[/mm].

[mm]=\begin{pmatrix}a_{11}\cdot a_{22} & a_{12} \cdot a_{22} \\a_{21} \cdot a_{12} & a_{22} \cdot a_{12} \end{pmatrix} \begin{pmatrix}0 \\ 0 \end{pmatrix} [/mm]

Zur Übersichtlichkeitshalber stelle ich etwas um:

[mm]=\begin{pmatrix}a_{11} \cdot a_{22} & a_{12} \cdot a_{22} \\a_{12} \cdot a_{21} & a_{12} \cdot a_{22} \end{pmatrix} \begin{pmatrix}0 \\ 0 \end{pmatrix} [/mm]

Jetzt subtrahiere ich die 1. Zeile von der 2. Zeile:

[mm]=\begin{pmatrix}a_{11} \cdot a_{22} & a_{12} \cdot a_{22} \\(a_{12} \cdot a_{21})-(a_{11} \cdot a_{22}) & (a_{12} \cdot a_{22})-(a_{12} \cdot a_{22}) \end{pmatrix} \begin{pmatrix}0 \\ 0 \end{pmatrix} [/mm]

[mm]=\begin{pmatrix}a_{11} \cdot a_{22} & a_{12} \cdot a_{22} \\(a_{12} \cdot a_{21})-(a_{11} \cdot a_{22}) & 0 \end{pmatrix} \begin{pmatrix}0 \\ 0 \end{pmatrix} [/mm]

Also ab hier habe ich dann Probleme den Beweis immer noch in dieser
Matrix Form zu erklären; eigentlich habe ich ja damit kein Problem mit
der Aufgabenstellung, nur mit der Beweisausführung dieser
LGS mit Matrix... Ich mache das immer nur mir der ersten
Version (1)+(2) = (4) etc. wie oben :(

Naja okay.. ich bin auch schon froh das mal so gelöst zu haben...
Meint ihr ich muss jetzt noch die andere Richtung beweisen
oder kann ich es so lassen???


Gute Nacht ;)

NevinPol



Bezug
                        
Bezug
Vektoren aus K^2, LinearUnabhängig: Eine Richtung gezeigt...
Status: (Antwort) fertig Status 
Datum: 03:51 Sa 22.05.2004
Autor: Marc

Hallo nevinpol,

> Hallo...
>  
> Also jetzt habe ich eine Lösung für die eine Richtung,
>
> allerdings habe ich das nicht als Matrix
> aufgeschrieben...
>  
> Ich schreibe mal erstmal sohin wie ich es mir
> aufgeschrieben
> habe und dann starte ich mal den Versuch das mit dem
>
> Gauß-Algorithmus zu machen:
>  
>

Hier wäre jetzt eine Erwähnung der Implikationsrichtung angebracht; also so etwas:

Vor.: [mm](a_{11} \cdot a_{22} - a_{21} \cdot a_{12}) \ne 0[/mm]
Beh.: [mm] $a_1,a_2$ [/mm] linear unabhängig
Bew.: ...

> [mm]\gdw k_{1} \cdot a_{1} + k_{2} \cdot a_{2} = 0[/mm]
>  [mm]\gdw k_{1} \cdot \begin{pmatrix} a_{11} \\ a_{12} \end{pmatrix} + k_{2} \cdot \begin{pmatrix} a_{21} \\ a_{22} \end{pmatrix} = 0[/mm]
>  
> [mm]\gdw \begin{pmatrix} k_{1} \cdot a_{11} \\ k_{1} \cdot a_{12} \end{pmatrix} + \begin{pmatrix} k_{2} \cdot a_{21} \\ k_{2} \cdot a_{22} \end{pmatrix} = 0[/mm]
>  
>
> Das ist dann lineares Gleichungssystem mit den Variablen
> [mm]k_{1}[/mm] und [mm]k_{2}[/mm].
>  
> (1) [mm]k_{1} \cdot a_{11} + k_{2} \cdot k_{12} = 0[/mm]
>  (2)
> [mm]k_{1} \cdot a_{21} + k_{2} \cdot k_{22} = 0[/mm]

Okay, hier hast du dich mit dem Buchstaben vertan, nicht schlimm.
  

> (1) mal [mm]a_{22}[/mm] = (3) [mm]k_{1} \cdot a_{11} \cdot a_{22}+ k_{2} \cdot k_{12} \cdot a_{22} = 0[/mm]

Was ist, wenn [mm] $a_{22}=0$? [/mm] Fallunterscheidung!

> (2) mal [mm]a_{12}[/mm] = (4) [mm]k_{1} \cdot a_{21} \cdot a_{12}+ k_{2} \cdot k_{22} \cdot a_{12} = 0[/mm]

Was ist, wenn [mm] $a_{12}=0$? [/mm] Fallunterscheidung!
  

> (3) minus (4) = (5) [mm]k_{1} \cdot a_{11} \cdot a_{22} + k_{2} \cdot a_{12} \cdot a_{22} - k_{1} \cdot a_{21} \cdot a_{12} - k_{2} \cdot a_{22} \cdot a_{12} = 0[/mm]
>  
> [mm]\gdw k_{1} \cdot a_{11} \cdot a_{22} - k_{1} \cdot a_{21} \cdot a_{12} = 0[/mm]
>  
> [mm]\gdw k_{1} \cdot (a_{11} \cdot a_{22} - a_{21} \cdot a_{12}) = 0[/mm]
>  
> Ich dividiere die Gleichung durch [mm](a_{11} \cdot a_{22} - a_{21} \cdot a_{12}) \ne 0[/mm]

Genau, in dieser Beweisrichtung ist das ja gerade Voraussetzung.
  

> [mm]\gdw k_{1} = 0[/mm]
>  
> Ich setze [mm]k_{1}[/mm] in (3):

Hier würde ich vorteilhafter in (1) einsetzen, diese Gleichung ist doch viel einfacher.

> (3) [mm]k_{1} \cdot a_{11} \cdot a_{22}+ k_{2} \cdot k_{12} \cdot a_{22} = 0[/mm]
>  
> [mm]\gdw 0 \cdot a_{11} \cdot a_{22}+ k_{2} \cdot k_{12} \cdot a_{22} = 0[/mm]
>  
> [mm]\gdw 0 + k_{2} \cdot k_{12} \cdot a_{22} = 0[/mm]
>  [mm]\gdw k_{2} \cdot (k_{12} \cdot a_{22}) = 0[/mm]
>  
>
> Ich dividiere durch [mm](k_{12} \cdot a_{22}) \ne 0[/mm]

Warum ist [mm] $(k_{12} \cdot a_{22}) \ne [/mm] 0$ bzw. was ist, falls [mm] $k_{12} \cdot a_{22}=0$? [/mm]

> [mm]\gdw k_{2} = 0[/mm]
>  
> Damit gilt:

Noch nicht, du müßtest noch die ganzen Komplementär-Fälle zu deinen obigen Voraussetzungen untersuchen. Wenn du das gemacht hast, dann gilt...


> [mm]k_{1} \cdot a_{1} + k_{2} \cdot a_{2} = 0 \Rightarrow k_{1}=0[/mm]
> und [mm]k_{2}=0 [/mm],
>  wenn [mm]a_{11} \cdot a_{22} - a_{12} \cdot a_{21} \ne 0[/mm]
> ist.

[ok]

Das grundsätzliche Vorgehen bei diesem Beweis ist dir also klar, das erkennt man deutlich. Allerdings bist du an allen Gabelungen nur einen Weg gegangen und hast nicht überprüft, ob die anderen Wege auch zum Ziel führen.

> Jetzt versuche ich mal die obige lineare Gleichungssystem
> mit dem
> Gauss-Algorithmus zu lösen:

Warum das denn noch? Zur Übung? Okay, das würde ich verstehen. Der Gauß-Algorithmus zeichnet sich aber nicht durch die Darstellung der Rechnung mittels einer Koeffizientenmatrix aus; er kann mit deinen Gleichungen oben,  mit Vektorgleichungen oder einer Koeffizientenmatrix dargestellt werden. Der Algorithmus behandelt nämlich nur, in welcher Reihenfolge man schrittweise Variablen durch das Additionsverfahren eliminieren kann; die Darstellung ist egal.
Deswegen hast du oben schon (fast) den Gauß-Algorihmus angewendet, die Rechnung, die jetzt folgt, ist auch nicht anders.

> [mm] > \begin{pmatrix}a_{11} & a_{12} \\a_{21} & a_{22} \end{pmatrix} > \begin{pmatrix}0 \\ 0 \end{pmatrix} > [/mm]
>  
>
> Ich multipliziere die 1. Zeile mit [mm]a_{22}[/mm] und die 2. Zeile
> mit [mm]a_{12}[/mm].
>  
> [mm]=\begin{pmatrix}a_{11}\cdot a_{22} & a_{12} \cdot a_{22} \\a_{21} \cdot a_{12} & a_{22} \cdot a_{12} \end{pmatrix} > \begin{pmatrix}0 \\ 0 \end{pmatrix} > [/mm]
>  
>
> Zur Übersichtlichkeitshalber stelle ich etwas um:
>  
> [mm]=\begin{pmatrix}a_{11} \cdot a_{22} & a_{12} \cdot a_{22} \\a_{12} \cdot a_{21} & a_{12} \cdot a_{22} \end{pmatrix} > \begin{pmatrix}0 \\ 0 \end{pmatrix} > [/mm]
>  
>
> Jetzt subtrahiere ich die 1. Zeile von der 2. Zeile:
>  
> [mm]=\begin{pmatrix}a_{11} \cdot a_{22} & a_{12} \cdot a_{22} \\(a_{12} \cdot a_{21})-(a_{11} \cdot a_{22}) & (a_{12} \cdot a_{22})-(a_{12} \cdot a_{22}) \end{pmatrix} > \begin{pmatrix}0 \\ 0 \end{pmatrix} > [/mm]
>  
>
> [mm]=\begin{pmatrix}a_{11} \cdot a_{22} & a_{12} \cdot a_{22} \\(a_{12} \cdot a_{21})-(a_{11} \cdot a_{22}) & 0 \end{pmatrix} > \begin{pmatrix}0 \\ 0 \end{pmatrix} > [/mm]
>  
>
> Also ab hier habe ich dann Probleme den Beweis immer noch
> in dieser
> Matrix Form zu erklären; eigentlich habe ich ja damit kein
> Problem mit
> der Aufgabenstellung, nur mit der Beweisausführung dieser
>
> LGS mit Matrix... Ich mache das immer nur mir der ersten
>
> Version (1)+(2) = (4) etc. wie oben :(

Das ist ja auch nicht schlimm, irgendwann muss die Koeffizientenmatrik wieder als in ein Gleichungssystem interpretiert werden.
  

> Naja okay.. ich bin auch schon froh das mal so gelöst zu
> haben...

Das stimmt, das sollte dich ruhig freuen :-)

>  Meint ihr ich muss jetzt noch die andere Richtung beweisen
>
> oder kann ich es so lassen???

Ja klar mußt die andere Richtung noch zeigen, es ist doch eine "genau-dann-wenn-Aussage".
Oder aber du argumentierst, dass die jeder Schritt, den du oben in die eine Richtung gegangen bist auch in umgekehrter Richtung folgt. Das wird aber an einigen Stellen (besonders am Anfang dieser Richtung) nicht schlüssig. Die meisten Schritte können aber auch in beide Richtungen gegangen werden.

Versuch' doch noch mal, die fehlenden Fälle zu untersuchen und dann auch in umgekehrter Richtung den Beweisgang zu führen.

Dann poste ich auch meine Lösung (die ich bereits geschrieben habe und nur noch abzusenden brauche).

Viele Grüße,
Marc


Bezug
                                
Bezug
Vektoren aus K^2, LinearUnabhängig: Eine Richtung gezeigt...
Status: (Frage) beantwortet Status 
Datum: 15:15 Sa 22.05.2004
Autor: nevinpol

Hallo Marc :-)

>Noch nicht, du müßtest noch die ganzen Komplementär-Fälle
>zu deinen obigen Voraussetzungen untersuchen. Wenn
du das gemacht hast, dann gilt...

Aber muss ich wirklich alle Komplementären Fälle zeigen??
Denn laut Aufgabenstellung muss ich doch nur zeigen dass
die Determinante nicht verschwindet? Also weil... ich denke
ich muss dann alle [mm]a_{ii}[/mm] extra zeigen... und das
wird doch irgenwie viel zu lang..
Okay das war jetzt eher ein bauchgefühl als logisch
durchdacht :-).
Wenn ich es zeige, soll ich dann immer

[mm]k_1=0, k_2=0[/mm] in (1) bzw. in (2) einsetzen
und dann immer jeweils sagen [mm]a_{ii}[/mm] kann
nicht gleich null sein, weil die [mm]k_j[/mm] null sind???

Okay ich denke ich habe an der Aufgabe zuviel
rumgerechnet und bin jetzt verwirrt...

Ich habe noch die konkretere Frage:

Also wenn ich z.B. dies hier habe:

Ich setze [mm]k_1=0 [/mm] und [mm]k_2=0[/mm] in

[mm]k_1 \cdot a_1 + k_2 \cdot a_2 = 0 [/mm]

[mm]\gdw k_1 \cdot a_1 + k_2 \cdot a_2 = 0[/mm]
[mm]\gdw 0 \cdot a_1 +0 \cdot a_2 = 0[/mm]

Es könnte ja auch sein dass [mm] a_1 [/mm] und [mm] a_2 [/mm] auch gleich null sind,
die Gleichung auch so richtig ist. Das ist eigentlich, der Hauptgrund
warum mich die Beweisführung so verwirrt.

Okay ich hoffe ich halte dich nicht allzu sehr auf ....

Danke und schönen Samstag noch...


NevinPol

Bezug
                                        
Bezug
Vektoren aus K^2, LinearUnabhängig: Eine Richtung gezeigt...
Status: (Antwort) fertig Status 
Datum: 15:52 Sa 22.05.2004
Autor: Marc

Hallo NevinPol!

> Aber muss ich wirklich alle Komplementären Fälle zeigen??
>
> Denn laut Aufgabenstellung muss ich doch nur zeigen dass
>
> die Determinante nicht verschwindet? Also weil... ich denke

1. Aber du hast doch in deiner Rechnung mehrmals voraussetzen müssen, dass der Term, mit dem du multiplizierst bzw. duch den du dividierst ungleich Null ist. Was ist aber, falls der Term doch Null ist? Das mußt du doch noch untersuchen, denn sonst hast du für bestimmte linear unabhängige Vektoren gar nicht gezeigt, dass die Determinante dann verschwindet. Es ist doch für alle linear unabhängigen Vektoren zu zeigen.

2. Stimmt es nicht, dass du "nur" das zeigen mußt (du mußt ja auch noch die Rückrichtung zeigen, nämlich dass wenn die Determinante nicht verschwindet, dass dann die lineare Unabhängigkeit der Vektoren folgt.

> ich muss dann alle [mm]a_{ii}[/mm] extra zeigen... und das
> wird doch irgenwie viel zu lang..

> Okay das war jetzt eher ein bauchgefühl als logisch
>
> durchdacht :-).
>  Wenn ich es zeige, soll ich dann immer
>
> [mm]k_1=0, k_2=0[/mm] in (1) bzw. in (2) einsetzen
>  und dann immer jeweils sagen [mm]a_{ii}[/mm] kann
> nicht gleich null sein, weil die [mm]k_j[/mm] null sind???
>  
> Okay ich denke ich habe an der Aufgabe zuviel
>
> rumgerechnet und bin jetzt verwirrt...
>  
> Ich habe noch die konkretere Frage:
>  
> Also wenn ich z.B. dies hier habe:
>  
> Ich setze [mm]k_1=0[/mm] und [mm]k_2=0[/mm] in
>
> [mm]k_1 \cdot a_1 + k_2 \cdot a_2 = 0[/mm]
>  
> [mm]\gdw k_1 \cdot a_1 + k_2 \cdot a_2 = 0[/mm]
>  [mm]\gdw 0 \cdot a_1 +0 \cdot a_2 = 0[/mm]
>  
>
> Es könnte ja auch sein dass [mm] a_1 [/mm] und [mm] a_2 [/mm] auch gleich null
> sind,
>  die Gleichung auch so richtig ist. Das ist eigentlich, der
> Hauptgrund
> warum mich die Beweisführung so verwirrt.

So ganz klar sind mir deine Probleme nicht geworden, ich verstehe zum Beispiel hier nicht, warum du [mm] $k_1=k_2=0$ [/mm] irgendwo einsetzen müßtest?

Ich poste jetzt gleich mal meine Lösung, von der ich denke, dass sie alle möglichen Fälle in beiden Richtungen untersucht.

Bis gleich,
Marc

Bezug
                                        
Bezug
Vektoren aus K^2, LinearUnabhängig: Meine Lösung (war: Eine Richtung gezeigt...)
Status: (Antwort) fertig Status 
Datum: 15:53 Sa 22.05.2004
Autor: Marc

Hallo nevinpol,

[mm] $\begin{pmatrix}a_{11}\\a_{21}\end{pmatrix}$,$\begin{pmatrix}a_{12}\\a_{22}\end{pmatrix}$ [/mm] linear unabhängig [mm] $\gdw$ $a_{11}*a_{22}-a_{12}*a_{21}=0$ [/mm]


[mm] "$\Rightarrow$": [/mm]
Vor.: [mm] $\begin{pmatrix}a_{11}\\a_{21}\end{pmatrix}$,$\begin{pmatrix}a_{12}\\a_{22}\end{pmatrix}$ [/mm] linear unabhängig

Bew.: [mm] $\Rightarrow$ $k_1*\begin{pmatrix}a_{11}\\a_{21}\end{pmatrix}+k_2*\begin{pmatrix}a_{12}\\a_{22}\end{pmatrix}=0\ \gdw\ k_1=k_2=0$ [/mm]

[mm] \begin{array}{r|rrrrl} \Rightarrow\ 1&&k_1*a_{11}&+k_2*a_{12}&=&0\\ &\wedge &k_1*a_{21}&+k_2*a_{22}&=&0 \end{array} [/mm]

Zu zeigen: [mm] $a_{22}*a_{11}-a_{12}*a_{21}\not=0$ [/mm]

1. Fall: [mm] $a_{11}=a_{21}=0$ [/mm]
Dieser Fall ist nicht möglich, da dann auch [mm] $k_1\not=0$ [/mm] eine Lösung wäre.

2. Fall: [mm] $a_{11}\not=0,a_{21}\not=0$ [/mm]

Multipliziere erste Gleichung mit [mm] $a_{21}$, [/mm] zweite mit [mm] $a_{11}$: [/mm]
[mm] \begin{array}{r|rrrrl} \Rightarrow\ 2&&k_1*a_{11}*a_{21}&+k_2*a_{12}*a_{21}&=&0\\ &\wedge &k_1*a_{21}*a_{11}&+k_2*a_{22}*a_{11}&=&0 \end{array} [/mm]

Erste Gleichung minus zweite Gleichung:
[mm] \begin{array}{r|rrrrl} \Rightarrow\ 3&&k_1*a_{11}&+k_2*a_{12}&=&0\\ &\wedge &&k_2*a_{22}*a_{11}-k_2*a_{12}*a_{21}&=&0 \end{array} [/mm]

[mm] \begin{array}{r|rrrrl} \Rightarrow\ 4&&k_1*a_{11}&+k_2*a_{12}&=&0\\ &\wedge &&k_2*(a_{22}*a_{11}-a_{12}*a_{21})&=&0 \end{array} [/mm]

Angenommen [mm] $a_{22}*a_{11}-a_{12}*a_{21}=0$, [/mm] dann wäre auch [mm] $k_1=1$ [/mm] und [mm] $k_2=-\bruch{a_{12}}{a_{11}}$ [/mm] eine Lösung, im Widerspruch zur linearen Unabhängigkeit.

[mm] $\Rightarrow\ a_{22}*a_{11}-a_{12}*a_{21}\not=0$ [/mm]

3. Fall: [mm] ($a_{11}=0$ [/mm] und [mm] $a_{21}\not=0$) [/mm] oder [mm] ($a_{11}\not=0$ [/mm] und [mm] $a_{21}=0$) [/mm]
OBdA sei [mm] $a_{21}=0$ [/mm] und [mm] $a_{11}\not=0$ [/mm] (sonst vertausche einfach die Gleichungen und benenne die Variablen um)

[mm] \begin{array}{r|rrrrl} \Rightarrow\ 2&&k_1*a_{11}&+k_2*a_{12}&=&0\\ &\wedge &&k_2*a_{22}&=&0 \end{array} [/mm]

Wie im 2. Fall folgt nun: Angenommen [mm] $a_{22}=0$, [/mm] dann wäre auch [mm] $k_1=1$ [/mm] und [mm] $k_2=-\bruch{a_{12}}{a_{11}}$ [/mm] eine Lösung, im Widerspruch zur linearen Unabhängigkeit.

[mm] $\Rightarrow\ a_{22}\not=0$ [/mm]
[mm] $\Rightarrow\ a_{22}*\underbrace{a_{11}}_{\not=0}\not=0$ [/mm]
[mm] $\Rightarrow\ a_{22}*a_{11}-\underbrace{a_{12}*a_{21}}_{=0}\not=0$ [/mm]

[mm] \Box [/mm]




[mm] "$\Leftarrow$": [/mm]

Vor.: [mm] $a_{22}*a_{11}-a_{12}*a_{21}\not=0$ [/mm]

Bew.: Wie oben betrachte ich die Vektorgleichung
[mm] $k_1*\begin{pmatrix}a_{11}\\a_{21}\end{pmatrix}+k_2*\begin{pmatrix}a_{12}\\a_{22}\end{pmatrix}=0$ [/mm]

[mm] \begin{array}{r|rrrrl} \Rightarrow\ 1&&k_1*a_{11}&+k_2*a_{12}&=&0\\ &\wedge &k_1*a_{21}&+k_2*a_{22}&=&0 \end{array} [/mm]

und werde zeigen, dass unter der obigen Voraussetzung [mm] $k_1=k_2=0$ [/mm] folgt.

1. Fall: [mm] $a_{11}=a_{21}=0$ [/mm]
Offenbar nicht möglich, da sonst [mm] $a_{22}*a_{11}-a_{12}*a_{21}=0$ [/mm]

2. Fall: [mm] $a_{11}\not=0,a_{21}\not=0$ [/mm]
[mm] $\Rightarrow\ \ldots$ [/mm] (die Umformungen 2 und 3 wie oben)

[mm] \begin{array}{r|rrrrl} \Rightarrow\ 4&&k_1*a_{11}&+k_2*a_{12}&=&0\\ &\wedge &&k_2*(a_{22}*a_{11}-a_{12}*a_{21})&=&0 \end{array} [/mm]

Dividiere durch [mm] $a_{22}*a_{11}-a_{12}*a_{21}\not=0$: [/mm]
[mm] \begin{array}{r|rrrrl} \Rightarrow\ 5&&k_1*a_{11}&+k_2*a_{12}&=&0\\ &\wedge &&k_2&=&0 \end{array} [/mm]

[mm] $\Rightarrow\ k_1=k_2=0$ [/mm]

3. Fall: [mm] ($a_{11}=0$ [/mm] und [mm] $a_{21}\not=0$) [/mm] oder [mm] ($a_{11}\not=0$ [/mm] und [mm] $a_{21}=0$) [/mm]
OBdA sei [mm] $a_{21}=0$ [/mm] und [mm] $a_{11}\not=0$ [/mm] (sonst vertausche einfach die Gleichungen und benenne die Variablen um)

[mm] \begin{array}{r|rrrrl} \Rightarrow\ 2&&k_1*a_{11}&+k_2*a_{12}&=&0\\ &\wedge &&k_2*a_{22}&=&0 \end{array} [/mm]

Wegen [mm] $a_{21}=0$ [/mm] wird folgt aus der Vor. [mm] $a_{22}*a_{11}-a_{12}*\underbrace{a_{21}}_{=0}\not=0$ [/mm]
[mm] $\Rightarrow\ a_{22}*\underbrace{a_{11}}_{\not=0}\not=0$ [/mm]
[mm] $\Rightarrow\ a_{22}\not=0$ [/mm]

[mm] $\Rightarrow\ k_1=k_2=0$ [/mm]

[mm] \Box [/mm]

Bin gespannt, ob es nicht vielleicht auch noch einen kürzeren Beweis gibt?!

Viele Grüße,
Marc

Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Lineare Algebra"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.matheforum.net
[ Startseite | Forum | Wissen | Kurse | Mitglieder | Team | Impressum ]