Quellen/Links zu lin. Algebra < Lineare Algebra < Hochschule < Mathe < Vorhilfe
|
Hallo allerseits,
1.) Weiß jemand eine Seite, wo die Frobenius-Matrizen ausführlich (Anwendung, Gesetzmäßigkeiten, ...) dargestellt werden? Unter WikiPedia ist lediglich die Definition zu sehen (mit dem Hinweis auf die LR Zerlegung).
2.) Kennt jemand Internet-Seiten, Skripte, ... , wo generell eine Art Auflistung von Gesetzmäßigkeiten aus der linearen Algebra gemacht wird. Ich bräuche speziell etwas für lineare Gleichungssysteme. Also z.B. sowas wie [mm] $AA^{-1} [/mm] = E$ oder [mm] $\left(A^TB^T\right)^T [/mm] = BA$. Es wäre auch schön (aber nicht unbedingt notwendig), wenn zu diesen Gesetzmäßigkeiten auch kleine Beweise stünden.
Vielen Dank im Vorraus!
Viele Grüße
Karl
|
|
|
|
Liebe Mitglieder!
Ich habe mich an folgender Aufgabe versucht, und wollte wissen, ob meine Gedanken dazu richtig sind!
Zuerst definieren wir eine Frobenius- bzw. Eliminationsmatrix:
[mm]F_{kj}\left(\alpha\right) := \begin{pmatrix}1&{}&{}&{}\\
{}&\ddots&{}&{}\\
{}&\alpha&\ddots&{}\\
{}&{}&{}&1\end{pmatrix} \in \mathbb{K}^{n\times n}[/mm]
heißt [mm]{\color{magenta} \texttt{Frobenius--Matrix}}[/mm]. Das [mm]\alpha[/mm] steht in der [mm]k\texttt{--ten}[/mm] Zeile und [mm]j\texttt{--ten}[/mm] Spalte. Es handelt sich ansonsten um die Einheitsmatrix von [mm]\mathbb{K}^{n\times n}[/mm].
Bemerkung 1.: Die Matrix [mm]\widetilde{A}:=F_{kj}\left(\alpha\right)A[/mm] entsteht aus [mm]A[/mm] indem man das [mm]\alpha\texttt{--fache}[/mm] der [mm]j\texttt{--ten}[/mm] Zeile von [mm]A[/mm] zur [mm]k\texttt{--ten}[/mm] Zeile von [mm]A[/mm] dazuaddiert.
Die Matrix [mm]\widehat{A} := AF_{kj}\left(\alpha\right)[/mm] entsteht aus [mm]A[/mm] indem man das [mm]\alpha\texttt{--fache}[/mm] der [mm]k\texttt{--ten}[/mm] Spalte zur [mm]j\texttt{--ten}[/mm] Spalte von [mm]A[/mm] addiert.
Bemerkung 2.: Es gilt:
[mm]F_{k+1,k}\left(\alpha_{k+1}\right)\cdot{}\ldots\cdot{}F_{n,k}\left(\alpha_n\right) :=
\begin{pmatrix}
1 & {} & {} & {} & {} & {}\\
{} & \ddots & {} & {} & {} & {}\\
{} & {} & 1 & {} & {} & {}\\
{} & {} & \alpha_{k+1} & \ddots & {} & {}\\
{} & {} & \vdots & {} & \ddots & {}\\
{} & {} & \alpha_n & {} & {} & 1
\end{pmatrix}[/mm], was ich wohl auch noch beweisen werde müssen.
Bemerkung 3.: Sei nun [mm]F_k\left(\alpha_{k+1},\dotsc,\alpha_n\right) :=
F_{k+1,k}\left(\alpha_{k+1}\right)\cdot{}\ldots\cdot{}F_{n,k}\left(\alpha_n\right)[/mm].
Man zeige: [mm]F_k\left(\alpha_{k+1},\dotsc,\alpha_n\right)^{-1}
= F_k\left(-\alpha_{k+1},\dotsc,-\alpha_n\right)[/mm].
Ich dachte nun, daß sich hier ein Beweis durch vollständige Induktion anbietet. Mein Problem ist jedoch, daß ich nicht weiß, ob ich den Induktionsanfang richtig gemacht habe. War es richtig die Induktion über [mm]n[/mm] laufen zu lassen, oder wäre [mm]k[/mm] richtig gewesen?
[mm]\underline{\texttt{Induktionsanfang }\left(n = 2\right):}[/mm]
[mm]F_2\left(\alpha_2\right)^{-1} =
\begin{pmatrix}
1 & 0 & 0 & \dots & 0\\
\alpha_2 & 1 & 0 & \ddots & \vdots\\
0 & 0 & 1 & \ddots & 0\\
\vdots & \vdots & \ddots & \ddots & 0\\
0 & 0 & \dots & 0 & 1
\end{pmatrix}^{-1} \in \mathbb{K}^{n\times n}[/mm]
Wir benutzen die Gauss-Inversion:
[Dateianhang nicht öffentlich]
und erhalten
[mm]\left(\begin{array}{ccccc|ccccc}
1 & 0 & 0 & \dots & 0 & 1 & 0 & 0 & \dots & 0\\
0 & 1 & 0 & \ddots & \vdots & -\alpha_2 & 1 & 0 & \ddots & \vdots\\
0 & 0 & 1 & \ddots & 0 & 0 & 0 & 1 & \ddots & 0\\
\vdots & \vdots & \ddots & \ddots & 0 & \vdots & \vdots & \ddots & \ddots & 0\\
0 & 0 & \dots & 0 & 1 & 0 & 0 & \dots & 0 & 1
\end{array}\right)[/mm]
Es gilt also: [mm]F_2\left(\alpha_2\right)^{-1} = F_2\left(-\alpha_2\right)\;\Diamond[/mm]
[mm]\underline{\texttt{Induktionsschritt }\left(n \leadsto n+1\right):}[/mm]
Angenommen die Aussage wäre für $k [mm] \in \mathbb{N}$ [/mm] und $n [mm] \in \mathbb{N}_{\ge 2}$ [/mm] bewiesen. Dann gilt:
[mm]F_k\left(\alpha_{k+1},\dotsc,\alpha_{n+1}\right)^{-1} \mathop = ^{\texttt{Definition}} \left(F_k\left(\alpha_{k+1},\dotsc,\alpha_n\right)F_{n+1,k}\left(\alpha_{n+1}\right)\right)^{-1} \mathop = ^{\left(AB\right)^{-1} = B^{-1}A^{-1}} F_{n+1,k}^{-1}\left(\alpha_{n+1}\right)F_k^{-1}\left(\alpha_{k+1},\dotsc,\alpha_n\right)[/mm]
[mm]\mathop = ^{\texttt{Induktionsannahme}} F_{n+1,k}^{-1}\left(\alpha_{n+1}\right)F_k\left(-\alpha_{k+1},\dotsc,-\alpha_n\right)[/mm]
Um zu sehen, daß [mm]F_{n+1,k}^{-1}\left(\alpha_{n+1}\right) = F_{n+1,k}\left(-\alpha_{n+1}\right)[/mm] ist, gehen wir genauso vor, wie beim Induktionsanfang. Demnach steht im Matrix-Eintrag von [mm] $F_k$ [/mm] in der [mm]n\texttt{--ten}[/mm] Zeile eine 1 und sonst nur Nullen. Eine Multiplikation dieser Zeile mit [mm] $-\alpha_{n+1}$ [/mm] und anschließender Addition mit der [mm]n+1\texttt{--ten}[/mm] Zeile zeigt dies.
Jetzt müssen wir noch die Matrizen ausmultiplizieren:
Da die [mm] $F_{n+1,k}$ [/mm] sich letztlich nur in der letzten Zeile von der Einheitsmatrix unterscheidet, wird [mm] $-\alpha_{n+1}$ [/mm] letztlich mit der 1 aus der [mm] $k\texttt{--ten}$ [/mm] Spalte von [mm] $F_k$ [/mm] mutlipliziert. Das Ergebnis ist dann
[mm] $F_k\left(-\alpha_{k+1},\dotsc,-\alpha_{n+1}\right)\;\Box$.
[/mm]
Wäre das so ok? Ich würde außerdem noch gerne wissen, warum diese Eigenschaft der Frobenius-Matrizen wichtig ist? Wo ist sie den entscheidend?
Viele Grüße
Karl
Dateianhänge: Anhang Nr. 1 (Typ: png) [nicht öffentlich]
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 14:57 Do 29.12.2005 | Autor: | moudi |
Hallo Karl
Ich würde es so machen:
Zuerst zeige ich, dass die Frobeniusmatrizen [mm] $F_{i,k}(\alpha_1)$ [/mm] und [mm] $F_{j.k}(\alpha_2)$ [/mm] kommutieren.
Dann benutze ich, dass für Matrizen [mm] $(ABCD)^{-1}=D^{-1}C^{-1}B^{-1}A^{-1}$ [/mm] ist.
mfG Moudi
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 15:15 Do 29.12.2005 | Autor: | Karl_Pech |
Hallo Moudi!
> Ich würde es so machen:
>
> Zuerst zeige ich, dass die Frobeniusmatrizen
> [mm]F_{i,k}(\alpha_1)[/mm] und [mm]F_{j.k}(\alpha_2)[/mm] kommutieren.
>
> Dann benutze ich, dass für Matrizen
> [mm](ABCD)^{-1}=D^{-1}C^{-1}B^{-1}A^{-1}[/mm] ist.
Vielen Dank schonmal! Ich probier's jetzt aus...
Viele Grüße
Karl
|
|
|
|
|
Hallo Moudi!
> Zuerst zeige ich, dass die Frobeniusmatrizen
> [mm]F_{i,k}(\alpha_1)[/mm] und [mm]F_{j.k}(\alpha_2)[/mm] kommutieren.
Irgendwie komme ich mit den Indizes noch nicht so klar:
[mm] $F_{i,k}\left(\alpha_1\right)$ [/mm] bedeutet doch, daß [mm] $\alpha_1$ [/mm] in Zeile [mm]i[/mm] und Spalte [mm]k[/mm] steht. Aber dann müßte es doch entweder [mm]\alpha_i[/mm] oder [mm] $F_{{\color{red}0},k}$ [/mm] lauten?
Und mit "kommutieren" meinst Du jetzt folgendes, oder?
[mm] $F_{i,k}\left(\alpha_1\right)F_{j,k}\left(\alpha_2\right) [/mm] = [mm] F_{j,k}\left(\alpha_2\right)F_{i,k}\left(\alpha_1\right)$
[/mm]
Soll also das gezeigt werden?
Viele Grüße
Karl
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 20:23 Do 29.12.2005 | Autor: | moudi |
> Hallo Moudi!
Hallo Karl
>
>
> > Zuerst zeige ich, dass die Frobeniusmatrizen
> > [mm]F_{i,k}(\alpha_1)[/mm] und [mm]F_{j.k}(\alpha_2)[/mm] kommutieren.
>
>
> Irgendwie komme ich mit den Indizes noch nicht so klar:
>
>
> [mm]F_{i,k}\left(\alpha_1\right)[/mm] bedeutet doch, daß [mm]\alpha_1[/mm] in
> Zeile [mm]i[/mm] und Spalte [mm]k[/mm] steht. Aber dann müßte es doch
> entweder [mm]\alpha_i[/mm] oder [mm]F_{{\color{red}0},k}[/mm] lauten?
Das mit den Alpha's war mir nicht so wichtig, wichtig ist, dass die Frobeniusmatrizen kommutieren, wenn sie den gleichen zweiten Index haben:
[mm]F_{i,k}\left(\alpha_i\right)F_{j,k}\left(\alpha_j\right) = F_{j,k}\left(\alpha_j\right)F_{i,k}\left(\alpha_i\right)[/mm]
>
>
> Und mit "kommutieren" meinst Du jetzt folgendes, oder?
>
>
> [mm]F_{i,k}\left(\alpha_1\right)F_{j,k}\left(\alpha_2\right) = F_{j,k}\left(\alpha_2\right)F_{i,k}\left(\alpha_1\right)[/mm]
Ja das meinte ich, siehe oben.
>
>
> Soll also das gezeigt werden?
>
>
>
> Viele Grüße
> Karl
mfG Moudi
|
|
|
|
|
Hallo Moudi!
Also ich habe es jetzt einige Zeit versucht, konnte mir das Ganze aber nur schwer im Kopf vorstellen. Hier ist jedenfalls mein Versuch:
Seien also
[mm]F_{i,k}\left(\alpha_i\right) = \left(\begin{array}{ccccccccccc}
1 & 0 & \hdotsfor{8} & 0\\
0 & \ddots & 0 & \hdotsfor{7} & 0\\
\vdots & \ddots & 1 & \ddots & {} & {} & {} & {} & {} & {} & \vdots\\
0 & \dots & 0 & 1 & 0 & \hdotsfor{5} & 0\\
0 & \dots & 0 & 0 & \ddots & 0 & \hdotsfor{4} & 0\\
\vdots & \ddots & \vdots & \vdots & \ddots & 1 & \ddots & {} & {} & {} & \vdots\\
0 & \dots & 0 & 0 & \dots & 0 & \ddots & 0 & \hdotsfor{2} & 0\\
0 & \dots & 0 & \alpha_i & 0 & \dots & 0 & 1 & 0 & \dots & 0\\
0 & \dots & 0 & 0 & 0 & \dots & 0 & 0 & 1 & \ddots & \vdots\\
\vdots & \ddots & \vdots & \vdots & \vdots & \ddots & \vdots & \vdots & \ddots & \ddots & 0\\
0 & \dots & 0 & 0 & 0 & \dots & 0 & 0 & \dots & 0 & 1
\end{array}\right)[/mm]
und
[mm]F_{j,k}\left(\alpha_j\right) = \left(\begin{array}{ccccccccccc}
1 & 0 & \hdotsfor{8} & 0\\
0 & \ddots & 0 & \hdotsfor{7} & 0\\
\vdots & \ddots & 1 & \ddots & {} & {} & {} & {} & {} & {} & \vdots\\
0 & \dots & 0 & 1 & 0 & \hdotsfor{5} & 0\\
0 & \dots & 0 & 0 & \ddots & 0 & \hdotsfor{4} & 0\\
\vdots & \ddots & \vdots & \vdots & \ddots & 1 & \ddots & {} & {} & {} & \vdots\\
0 & \dots & 0 & 0 & \dots & 0 & \ddots & 0 & \hdotsfor{2} & 0\\
0 & \dots & 0 & \alpha_j & 0 & \dots & 0 & 1 & 0 & \dots & 0\\
0 & \dots & 0 & 0 & 0 & \dots & 0 & 0 & 1 & \ddots & \vdots\\
\vdots & \ddots & \vdots & \vdots & \vdots & \ddots & \vdots & \vdots & \ddots & \ddots & 0\\
0 & \dots & 0 & 0 & 0 & \dots & 0 & 0 & \dots & 0 & 1
\end{array}\right)[/mm]
die besagten Frobenius-Matrizen.
Jetzt multiplizieren wir aus:
[mm]F_{i,k}\left(\alpha_i\right)F_{j,k}\left(\alpha_j\right) = \left(\begin{array}{ccccccccccc}
1 & 0 & \hdotsfor{8} & 0\\
0 & \ddots & 0 & \hdotsfor{7} & 0\\
\vdots & \ddots & 1 & \ddots & {} & {} & {} & {} & {} & {} & \vdots\\
0 & \dots & 0 & 1 & 0 & \hdotsfor{5} & 0\\
0 & \dots & 0 & 0 & \ddots & 0 & \hdotsfor{4} & 0\\
\vdots & \ddots & \vdots & \vdots & \ddots & 1 & \ddots & {} & {} & {} & \vdots\\
0 & \dots & 0 & 0 & \dots & 0 & \ddots & 0 & \hdotsfor{2} & 0\\
0 & \dots & 0 & \alpha_i & 0 & \dots & 0 & 1 & 0 & \dots & 0\\
0 & \dots & 0 & 0 & 0 & \dots & 0 & 0 & 1 & \ddots & \vdots\\
\vdots & \ddots & \vdots & \vdots & \vdots & \ddots & \vdots & \vdots & \ddots & \ddots & 0\\
0 & \dots & 0 & 0 & 0 & \dots & 0 & 0 & \dots & 0 & 1
\end{array}\right)\left(\begin{array}{ccccccccccc}
1 & 0 & \hdotsfor{8} & 0\\
0 & \ddots & 0 & \hdotsfor{7} & 0\\
\vdots & \ddots & 1 & \ddots & {} & {} & {} & {} & {} & {} & \vdots\\
0 & \dots & 0 & 1 & 0 & \hdotsfor{5} & 0\\
0 & \dots & 0 & 0 & \ddots & 0 & \hdotsfor{4} & 0\\
\vdots & \ddots & \vdots & \vdots & \ddots & 1 & \ddots & {} & {} & {} & \vdots\\
0 & \dots & 0 & 0 & \dots & 0 & \ddots & 0 & \hdotsfor{2} & 0\\
0 & \dots & 0 & \alpha_j & 0 & \dots & 0 & 1 & 0 & \dots & 0\\
0 & \dots & 0 & 0 & 0 & \dots & 0 & 0 & 1 & \ddots & \vdots\\
\vdots & \ddots & \vdots & \vdots & \vdots & \ddots & \vdots & \vdots & \ddots & \ddots & 0\\
0 & \dots & 0 & 0 & 0 & \dots & 0 & 0 & \dots & 0 & 1
\end{array}\right)[/mm]
Ehrlich gesagt hatte ich auch mit dieser graphischen Darstellung zunächst Probleme... . Allerdings hat sie mich auf eine andere Idee gebracht. Anstatt alles auszumultiplizieren, könnte man sich doch zunutze machen, daß eine Matrix ja bloß ein Vektor ist, dessen Komponenten ebenfalls Vektoren sind. Je nachdem wie man multipliziert sind diese Vektorkomponenten entweder in transponierter Form oder eben nicht. Dann gilt also für die [mm]i\texttt{--te}[/mm] Zeile von [mm] $F_{i,k}$:
[/mm]
[mm]\left(0,\dotsc,0,\alpha_i,0\dotsc,0,1,0,\dotsc,0\right) = \alpha_i + \left(0,\dotsc,0,0,0\dotsc,0,1,0,\dotsc,0\right)[/mm]
Dann wäre eine Frobenius-Matrix ja bloß eine andere Schreibweise für die Addition der Einheitsmatrix mit einem Skalar, und jetzt kann man mit Matrizengesetzen arbeiten. Ich habe diese Idee mal weiterverfolgt:
[mm] $F_{i,k}\left(\alpha_i\right)F_{j,k}\left(\alpha_j\right) [/mm] = [mm] \left(\alpha_{i,k} + E\right)\left(\alpha_{j,k}+E\right) [/mm] = [mm] \left(\alpha_{i,k} + E\right)\alpha_{j,k} [/mm] + [mm] \alpha_{i,k} [/mm] + E = [mm] \alpha_{i,k}\alpha_{j,k} [/mm] + [mm] E\alpha_{j,k} [/mm] + [mm] F_{i,k}\left(\alpha_i\right)$
[/mm]
und
[mm] $F_{j,k}\left(\alpha_j\right)F_{i,k}\left(\alpha_i\right) [/mm] = [mm] \left(\alpha_{j,k} + E\right)\left(\alpha_{i,k}+E\right) [/mm] = [mm] \left(\alpha_{j,k} + E\right)\alpha_{i,k} [/mm] + [mm] \alpha_{j,k} [/mm] + E = [mm] \alpha_{j,k}\alpha_{i,k} [/mm] + [mm] E\alpha_{i,k} [/mm] + [mm] F_{j,k}\left(\alpha_j\right)$
[/mm]
Weiter bin ich aber nicht gekommen. Wenn man das gleichsetzt, fällt der erste Summand natürlich weg, aber wie sieht man die Gleichheit der anderen Summanden?
Viele Grüße
Karl
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 20:27 Fr 30.12.2005 | Autor: | moudi |
Hallo Karl
Man kann explizite Rechnen mit Matrizen umgehen, wenn man die Elementarmatrizen [mm] $E_{i,j}j$ [/mm] einführt.
[mm] $E_{i,j}$ [/mm] besteht aus lauter Nullen ausser das Element in der i-ten Zeile und k-ten Spalte ist eine 1.
Folgendes muss man nun Nachweisen (durch explizites ausmultiplizieren der Matrizen, ein bisschen Arbeit muss sein ): [mm] $E_{i,j}E_{k,l}=0$ [/mm] (Nullmatrix), wenn [mm] $j\neq [/mm] k$ und [mm] $E_{i,j}E_{k,l}=E_{i,l}$, [/mm] wenn $j=k$.
Es gilt dann [mm] $F_{i,k}(\alpha_i)=\alpha_i E_{i,k}+E$ [/mm] (E Einheitsmatrix).
Und jetzt rechnen wir nach:
[mm] $F_{i,k}(\alpha_i)F_{j,k}(\alpha_j)=(\alpha_i E_{i,k}+E)(\alpha_j E_{j,k}+E)=\alpha_i\alpha_j \underbrace{E_{i,k}E_{j,k}}_{0,\ \mathrm{da}\ k\neq j}+\alpha_i E_{i,k}E+\alpha_j [/mm] E [mm] E_{j,k}+E^2=\alpha_i E_{i,k}+\alpha_j E_{j,k}+E$
[/mm]
Es ist klar, dass man dasselbe erhält, wenn man die umgekehrte Reihenfolge berechnet d.h. i und j vertauscht (da auch [mm] $i\neq [/mm] k$).
Auf die gleiche Art weisst man nach, dass [mm] $\left(F_{i,j}(\alpha)\right)^{-1}=F_{i,j}(-\alpha)$.
[/mm]
In der Tat:
[mm] $F_{i,j}(\alpha) F_{i,j}(-\alpha)=(\alpha E_{i,j}+E)(-\alpha E_{i,j}+E)= -\alpha^2\underbrace{E_{i,j}^2}_{0,\ \mathrm{da}\ i\neq j}+ \underbrace{\alpha E_{i,j}E-\alpha E E_{i,j}}_{0}+E^2=E$.
[/mm]
Man beachte auch, dass für Frobeniusmatrizen [mm] $F_{i,j}(\alpha)$ [/mm] immer [mm] $i\neq [/mm] j$ ist.
mfG Moudi
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 21:46 Fr 30.12.2005 | Autor: | Karl_Pech |
Hallo Moudi!
Also ich finde es schon Klasse, daß Mathematik auch mal einfach werden kann. Auf die Idee die Frobenius-Matrizen noch weiter zu "zerlegen" bin ich irgendwie gar nicht gekommen.
> Folgendes muss man nun Nachweisen (durch explizites
> ausmultiplizieren der Matrizen, ein bisschen Arbeit muss
> sein ): [mm]E_{i,j}E_{k,l}=0[/mm] (Nullmatrix), wenn [mm]j\neq k[/mm] und
> [mm]E_{i,j}E_{k,l}=E_{i,l}[/mm], wenn [mm]j=k[/mm].
Also, wenigstens diesen Beweis möchte ich nun mal lösen und die Beweiskette schließen.
Es gilt also:
[mm]E_{i,j}E_{k,l} = \begin{pmatrix}(0,\dotsc,0)\\\vdots\\(0,\dotsc,0)\\(0,\dotsc,0,1,0,\dotsc,0)\\(0,\dotsc,0)\\\vdots\\(0,\dotsc,0)\end{pmatrix}\left(
\begin{pmatrix}0\\\vdots\\0\end{pmatrix},
\dotsc,
\begin{pmatrix}0\\\vdots\\0\end{pmatrix},
\begin{pmatrix}0\\\vdots\\0\\1\\0\\\vdots\\0\end{pmatrix},
\begin{pmatrix}0\\\vdots\\0\end{pmatrix},
\dotsc,
\begin{pmatrix}0\\\vdots\\0\end{pmatrix}
\right)[/mm] mit [mm]E_{i,j} \in \mathbb{K}^{n\times n}[/mm] und [mm]E_{k,l} \in \mathbb{K}^{n\times n}[/mm]
Wir sehen (anhand der graphischen Darstellungen ), daß die ersten [mm]i-1[/mm] komponentenweisen Multiplikationen dieser beiden Vektoren so aussehen:
[mm](0,\dotsc,0)\begin{pmatrix}0\\\vdots\\0\end{pmatrix} = 0[/mm]
Die ersten [mm]i-1[/mm] Zeilen des Matrizenprodukts sehen also so aus:
[mm](0,\dotsc,0)[/mm]
Ein analoges Argument gilt auch für die Zeilen [mm]i+1,\dotsc,n[/mm] des Matrizenprodukts.
Was passiert bei der Multiplikation in der [mm]i\texttt{--ten}[/mm] Zeile? Die Vektorvektorkomponente
[mm](0,\dotsc,0,1,0,\dotsc,0)[/mm]
wird zunächst mit den [mm]l-1[/mm] Spaltenvektoren von [mm]E_{k,l}[/mm] multipliziert. Damit stehen in der [mm]i\texttt{--ten}[/mm] Zeile des Matrizenprodukts dort [mm]l-1[/mm] Nullen. Analoges gilt auch für die Spaltenvektoren [mm]l+1,\dotsc,n[/mm]. Also stehen dort nach dem Ausmultiplizieren nur Nullen. Damit bleibt nur noch eine Multiplikation:
[mm](0,\dotsc,0,1,0,\dotsc,0)\begin{pmatrix}0\\\vdots\\0\\1\\0\\\vdots\\0\end{pmatrix}[/mm]
Die 1 des ersten Vektors steht in Spalte [mm]j[/mm], die des Anderen in Zeile [mm]k[/mm].
Für [mm]k = j[/mm] gilt also:
[mm]0^2 + \dotsb + 0^2 + 1^2 + 0^2 + \dotsb + 0^2 = 1[/mm]
Für [mm]k \ne j[/mm]:
[mm]0^2 + \dotsb + 0^2 + 1\cdot{0} + 0^2 + \dotsb + 0^2 + 0\cdot{1} + 0^2 + \dotsb + 0^2 = 0[/mm]
Das Ergebnis dieser (als einzigen) bemerkenswerten Multiplikation wird also (wie schon oben erwähnt) in die [mm]i\texttt{--te}[/mm] Zeile und [mm]l\texttt{--te}[/mm] Spalte des Produkts eingetragen. War es eine 1, so erhalten wir [mm]E_{i,l}[/mm]. Ansonsten erhalten wir [mm]0 \in \mathbb{K}^{n\times n}[/mm]. Damit ist alles gezeigt! [mm]\Box[/mm]
Nochmals vielen Dank!
und einen guten Rutsch ins neue Jahr!
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 22:04 Fr 30.12.2005 | Autor: | Karl_Pech |
Eingabefehler: "\begin" und "\end" müssen immer paarweise auftreten, es wurde aber ein Teil ohne Entsprechung gefunden (siehe rote Markierung)
$\left(F_{k+1,k}\left(\alpha_{k+1}\right)\cdot{}\ldots\cdot{}F_{n,k}\left(\alpha_n\right)\right)^{-1} \mathop = ^{\texttt{Matrizengesetz}} F_{n,k}^{-1}\left(F_{k+1,k}\cdot{}\ldots\cdot{}F_{n-1,k}\right)^{-1} = \dotsb = F_{n,k}^{-1}\cdot{}\ldots\cdot{}F_{k+1,k}^{-1} \mathop = ^{\texttt{siehe Diskussion! }\textrm{}} F_{n,k}\left(-\alpha_n\right)\cdot{}\ldots\cdot{}F_{k+1,k}\left(-\alpha_{k+1}\right)\end{subarray}}$
Da die Frobenius-Matrizen kommutieren ergibt sich die Behauptung.
|
|
|
|
|
Hallo Moudi!
Ich habe hier noch eine andere Aufgabe (aus unserer Testklausur), die wie ich finde, sehr gut hierher passt. Ich wollte nur wissen, ob folgende Lösung richtig wäre. Wenn ja, so hat die Lösung leider den Nachteil, daß ich dafür den Beweis zu den beiden Eigenschaften der Elementarmatrizen liefern müßte. Und dieser Beweis ist bei mir leider sehr lang geworden. Weißt Du eventuell einen Weg meinen Beweis etwas kürzer zu gestalten?
Also hier die Aufgabe:
Sei $P [mm] \in \mathbb{R}^{n\times n}$ [/mm] eine Permutationsmatrix. Zeige:
[mm] $P^{-1} [/mm] = [mm] P^T$
[/mm]
Beweis:
Sei [mm]E_{i_k,j_k} \in \mathbb{R}^{n\times n}[/mm] eine [mm]k\texttt{--te}[/mm] Matrix, deren Einträge überall 0 sind mit Ausnahme des Eintrags [mm]e_{i_k,j_k} := 1[/mm]. Eine solche Matrix nennen wir Elementarmatrix. Dann existiert eine Summe von [mm]n[/mm] Elementarmatrizen, die [mm]P[/mm] darstellt. (Muß man das auch noch zeigen? Hoffentlich nicht. ) Angenommen:
[mm]P = \sum_{k=1}^{n}{E_{i_k,j_k}}[/mm]
ist diese Summe. Dann gilt:
[mm]PP^T = \left(\sum_{k=1}^{n}{E_{i_k,j_k}}\right)\left(\sum_{z=1}^{n}{E_{i_z,j_z}}\right)^T = \left(\sum_{k=1}^{n}{E_{i_k,j_k}}\right)\left(\sum_{z=1}^{n}{E_{j_z,i_z}}\right)[/mm],
denn eine Matrix transponiert man, indem man die Indizes eines jeden ihrer Einträge vertauscht (reicht das als Begründung oder muß ich diesen Schritt auch irgendwie zeigen?).
Nach den Distributivgesetzen für Matrizen gilt:
[mm]PP^T = \sum_{z=1}^{n}{\left(\left(\sum_{k=1}^{n}{E_{i_k,j_k}}\right)E_{j_z,i_z}\right)} = \sum_{z=1}^{n}{\sum_{k=1}^{n}{E_{i_k,j_k}}E_{j_z,i_z}}[/mm]
In Artikel Nr. 961 , habe ich folgende Gesetze für Elementarmatrizen gezeigt:
Seien [mm]E_{a,b}, E_{c,d} \in \mathbb{R}^{n\times n}[/mm] Elementarmatrizen. Dann gilt:
[mm]E_{a,b}E_{c,d} = \begin{cases}E_{a,d},&\texttt{für }b=c\\0,&\texttt{sonst}\end{cases}[/mm]
Jede Elementarmatrix aus der [mm]P\texttt{--Summe}[/mm] wird beim Ausmultiplizieren mit jeder Elementarmatrix aus der [mm]P^T\texttt{--Summe}[/mm] multipliziert. Wird dabei eine Elementarmatrix [mm]E_{a,b}[/mm] mit ihrer Transponierten multipliziert, ergibt das die Matrix [mm]E_{a,a}[/mm]. Bei jeder Multiplikation entstehen so [mm]n-1[/mm] Nullen, und eine "Diagonal-"Elementarmatrix. (Reichen solche Begründungen, oder kann man das schöner und kürzer ausdrücken?) Wir erhalten die Summe
[mm]PP^T = \sum_{i = 1}^n{E_{i,i}} = E[/mm]
Da die Elementarmatrizen kommutieren, gilt ein analoges Argument auch für [mm]P^TP[/mm]. Also gilt [mm]PP^{-1} = E = P^TP = PP^T[/mm], und durch Linksmultiplikation mit [mm]P^{-1}[/mm]:
[mm]P^{-1} = P^T\quad\Box[/mm]
Wäre das so ok? Und könnte man diesen Beweis insgesamt noch kürzer fassen? Vermutlich ist jetzt nicht nur der Beweis sondern auch die Klausur(zeit) um mit nur einer gelösten Aufgabe. [Dateianhang nicht öffentlich]
Vielen Dank und ein frohes neues Jahr (falls ich es vergessen haben sollte )!
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 17:16 Mi 04.01.2006 | Autor: | moudi |
> Hallo Moudi!
Hallo Karl
>
>
> Ich habe hier noch eine andere Aufgabe (aus unserer
> Testklausur), die wie ich finde, sehr gut hierher passt.
> Ich wollte nur wissen, ob folgende Lösung richtig wäre.
> Wenn ja, so hat die Lösung leider den Nachteil, daß ich
> dafür den Beweis zu den beiden Eigenschaften der
> Elementarmatrizen liefern müßte. Und dieser Beweis ist bei
> mir leider sehr lang geworden. Weißt Du eventuell einen
> Weg meinen Beweis etwas kürzer zu gestalten?
>
>
> Also hier die Aufgabe:
>
>
> Sei [mm]P \in \mathbb{R}^{n\times n}[/mm] eine Permutationsmatrix.
> Zeige:
> [mm]P^{-1} = P^T[/mm]
>
>
> Beweis:
>
>
> Sei [mm]E_{i_k,j_k} \in \mathbb{R}^{n\times n}[/mm] eine
> [mm]k\texttt{--te}[/mm] Matrix, deren Einträge überall 0 sind mit
> Ausnahme des Eintrags [mm]e_{i_k,j_k} := 1[/mm]. Eine solche Matrix
> nennen wir Elementarmatrix. Dann existiert eine Summe von [mm]n[/mm]
> Elementarmatrizen, die [mm]P[/mm] darstellt. (Muß man das auch noch
> zeigen? Hoffentlich nicht. ) Angenommen:
>
>
> [mm]P = \sum_{k=1}^{n}{E_{i_k,j_k}}[/mm]
>
>
> ist diese Summe. Dann gilt:
>
>
> [mm]PP^T = \left(\sum_{k=1}^{n}{E_{i_k,j_k}}\right)\left(\sum_{z=1}^{n}{E_{i_z,j_z}}\right)^T = \left(\sum_{k=1}^{n}{E_{i_k,j_k}}\right)\left(\sum_{z=1}^{n}{E_{j_z,i_z}}\right)[/mm],
>
>
> denn eine Matrix transponiert man, indem man die Indizes
> eines jeden ihrer Einträge vertauscht (reicht das als
> Begründung oder muß ich diesen Schritt auch irgendwie
> zeigen?).
>
>
> Nach den Distributivgesetzen für Matrizen gilt:
>
>
> [mm]PP^T = \sum_{z=1}^{n}{\left(\left(\sum_{k=1}^{n}{E_{i_k,j_k}}\right)E_{j_z,i_z}\right)} = \sum_{z=1}^{n}{\sum_{k=1}^{n}{E_{i_k,j_k}}E_{j_z,i_z}}[/mm]
>
>
> In Artikel Nr. 961 , habe ich folgende
> Gesetze für Elementarmatrizen gezeigt:
>
>
> Seien [mm]E_{a,b}, E_{c,d} \in \mathbb{R}^{n\times n}[/mm]
> Elementarmatrizen. Dann gilt:
>
>
> [mm]E_{a,b}E_{c,d} = \begin{cases}E_{a,d},&\texttt{für }b=c\\0,&\texttt{sonst}\end{cases}[/mm]
>
>
> Jede Elementarmatrix aus der [mm]P\texttt{--Summe}[/mm] wird beim
> Ausmultiplizieren mit jeder Elementarmatrix aus der
> [mm]P^T\texttt{--Summe}[/mm] multipliziert. Wird dabei eine
> Elementarmatrix [mm]E_{a,b}[/mm] mit ihrer Transponierten
> multipliziert, ergibt das die Matrix [mm]E_{a,a}[/mm]. Bei jeder
> Multiplikation entstehen so [mm]n-1[/mm] Nullen, und eine
> "Diagonal-"Elementarmatrix. (Reichen solche Begründungen,
> oder kann man das schöner und kürzer ausdrücken?) Wir
> erhalten die Summe
>
>
> [mm]PP^T = \sum_{i = 1}^n{E_{i,i}} = E[/mm]
Ja es stimmt so schon, allerdings kommt nirgends so richtig zum Ausdruck, dass es sich bei P um eine Permutationsmatrix handelt.
Sei [mm] $\sigma:\{1,\dots,n\}\to\{1,\dots,n\}$ [/mm] eine Permutation und [mm] $P=\sum_{i=1}^{n}E_{i,\sigma(i)}$ [/mm] die entsprechende Permutationsmatrix.
Dann ist [mm] $P^T=\sum_{j=1}^{n}E_{\sigma(j),j}$ [/mm] und es gilt
[mm] $P^TP=\left(\sum_{j=1}^{n}E_{\sigma(j),j}\right)\left(\sum_{i=1}^{n}E_{i,\sigma(i)}\right)$
[/mm]
[mm] $=\sum_{j=1}^{n}\sum_{i=1}^{n} \underbrace{E_{\sigma(j),j}E_{i,\sigma(i)}}_{0,\ \mathrm{falls}\ i\neq j}$
[/mm]
[mm] $=\sum_{j=1}^{n}E_{\sigma(j),\sigma(j)}=I$, [/mm] da [mm] $\sigma(j)$ [/mm] alle Zahlen von 1 bis n durchläuft.
>
>
> Da die Elementarmatrizen kommutieren, gilt ein analoges
aufgepasst es kommutieren nicht alle Elementarmatrizen. [mm] $E_{13}E_{32}=E_{12}$ [/mm] aber [mm] $E_{32}E_{13}=0$, [/mm]
> Argument auch für [mm]P^TP[/mm]. Also gilt [mm]PP^{-1} = E = P^TP = PP^T[/mm],
Es genügt für quadratische Matrizen zu zeigen, dass [mm] $B=A^{-1}$, [/mm] wenn man eine der beiden Möglichkeiten $AB=I$ oder $BA=I$ zeigt.
> und durch Linksmultiplikation mit [mm]P^{-1}[/mm]:
>
>
> [mm]P^{-1} = P^T\quad\Box[/mm]
>
>
> Wäre das so ok? Und könnte man diesen Beweis insgesamt noch
> kürzer fassen? Vermutlich ist jetzt nicht nur der Beweis
> sondern auch die Klausur(zeit) um mit nur einer gelösten
> Aufgabe. [Dateianhang nicht öffentlich]
Vielleich etwas kürzer ist die Begründung, dass es sich bei Permutationsmatrizen um orthogonale Matrizen handelt, denn
wenn man die Spalten einer Permutationsmatriz als Vektoren anschaut, sind verschiedene Spalten zueinander orthogonal, (das Skalarprodukt ist 0) und die Länge 1. Für orthogonale Matrizen P weiss man, dass [mm] $P^{-1}=P^T$.
[/mm]
>
>
> Vielen Dank und ein frohes neues Jahr (falls ich es
> vergessen haben sollte )!
>
>
>
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 20:21 Mi 04.01.2006 | Autor: | Karl_Pech |
Hallo Moudi!
Vielen Dank für deine Hilfe!
Liebe Grüße
Karl
|
|
|
|