definitheit von matrizen < Lineare Algebra < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 03:52 Di 17.01.2006 | Autor: | q.e.d |
Ich habe diese Frage in keinem Forum auf anderen Internetseiten gestellt.
Hallo! Ich habe mal eine dringende Bitte an jeden der das hier liest. Keiner möchte dumm sterben, ich brauche sie, die Beweise, q.e.d.!!
Also, ich höre gerade statische und dynamische Optimierung, eine VWL Vorlesung, sehr allgemein, wenig Beispiele, abstrakt, schon in den Grundlagen fehlt mir ein plastisches Vorstellungsvermögen, ich glaube keiner kann sich das bildlich machen. Also, es geht um Folgendes:
Ich benötige Beweise fürs Verständnis, nicht nur 2-dimensional, sondern wenn es geht allgemein..und Beweise sind leider auch im globalen Netz nicht zu finden?!
Es handelt sich um die Definitheit von Matrizen..ich sehe notwendige Bedingungen, hinreichende Bedingungen, frage mich aber, warum?
Beweise für folgende Sätze(für symmetrische Matrizen):
eine Matrix ist positiv(negativ) definit, wenn alle ihre Eigenwerte positiv(negativ) sind.
eine Matrix ist positiv definit, wenn die Determinaten aller Hauptminoren von ihr positiv sind, bzw. die Matrix ist negativ indefinit, wenn die Determinanten aller Hauptminoren alternierende Vorzeichen haben.
und letztendlich den Beweis für dominante Hauptdiagonalen..der mich gerade liest, weiß welche Bedingung ich meine.
Wo sind die verständlichen Beweise? Welcher Mensch kann so abstrakt denken??!
Unglaublich...
Und warum liegt eine zweifach differenzierbare Funktion konkav auf eine offenen und konvexen Menge, wenn ihre Hesse-Matrix negativ semidefinit ist?
Ich bin leider kein Mathematiker, aber wenn ihr mir helfen könntet, dann wäre ich euch mehr als dankbar!!
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 12:43 Di 17.01.2006 | Autor: | Julius |
Hallo Karl!
Da du dir ja unsicher warst, ganz kurz:
Der Beweis ist richtig. Man sollte noch erwähnen, dass $x$ ein Eigenvektor von $A$ (zum Eigenwert [mm] $\lambda$) [/mm] ist und dann $x^Tx$ sogar eine positive reelle Zahl ist (dadurch ändert sich das Ungleichheitszeichen nicht beim durchmultiplizieren...).
Aber du hast natürlich nur gezeigt: Wenn $A$ positiv definit ist, dann sind alle Eigenwerte positiv. Ich glaube dem Fragesteller ging es mehr um die Umkehrung...
Liebe Grüße
Julius
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 13:44 Di 17.01.2006 | Autor: | q.e.d |
Vielen Dank!!
> Allerdings bin ich mir beim Anfang meines "Beweises" nicht
> ganz sicher...
..du meinst die Matrix einfach durch ihre Eigenwerte zu ersetzen? Lambda wäre aber ein Vektor (Lösung hat mehrere Eigenwerte), und der Skalar 0 müsste durch den 0-Verktor ersetzt werden!! Oder es muss dann diese Bedingung halt für alle Lambda gültig sein...
Mmmh, einfacher Ansatz, wäre schön wenn er so einfach und richtig bleibt!!
Ich hatte noch einen anderen (für den 2dim) -Fall. Durch allgemeines Berechnen des charakteristischen Polynoms (pq-Formel) muss für positive Eigenwerte der linke Summand größer als der rechte sein( rechte Summand der Wurzelteil). Durch Lösen dieser Gleichung erhält man wieder die Bedingung, dass die Determinante der Matrix einfach größer Null sein muss. Dadurch wäre die Eigenwertbedingung auf die Hauptminorbedingung zurückgeführt, leider nur für den 2dim Fall. Der 3dimensionale Fall bedarf glaube ich einiges an Rechenarbeit und Trickserei, für den Allgemeinen Kenntnisse der Determinaten und Matrizen Rechenregeln, aber vielleicht gibt es noch eine andere Möglichkeit?
Wenn das mit Deinem Beweis unter Deiner Annahme stimmt, dann ist meine erste Frage ja schon mal komplett beantwortet!!
>
>
> Jeder Mensch, der es genügend hart und genügend lang
> versucht. Laß' dir von Niemandem etwas anderes einreden.
> Trotz vieler Enttäuschungen glaube ich (immer noch)
> daran...
Danke! Ohne zu suchen und ohne zu verstehen, wie sollte ich dann lernen?! Viele tuen das nicht, oft nimmt man alles so hin, aber bloßes rechnen, wozu? Der Schatz liegt halt im Ursprung, schwer zu finden, ich werde weiter suchen, daran glaube ich..aber was mir immer komisch vorkommt, nicht nur bei diesen Definitannahmen, immer muss man sich wieder alles selber herleiten, obwohl es evtl. schon so viele Menschen getan haben, wird einen oft die Arbeit nicht abgenommen, weil Beweise verloren gehen, und oft nur komplexe Formeln erhalten bleiben, die so gesehen nur Symbole bleiben, und einen oft in den Wahnsinn treiben!!
Vielleicht wisst ihr ja was ich meine?
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 20:50 Di 17.01.2006 | Autor: | Karl_Pech |
Hallo q.e.d,
> ..du meinst die Matrix einfach durch ihre Eigenwerte zu
> ersetzen? Lambda wäre aber ein Vektor (Lösung hat mehrere
> Eigenwerte), und der Skalar 0 müsste durch den 0-Verktor
> ersetzt werden!! Oder es muss dann diese Bedingung halt für
> alle Lambda gültig sein...
> Mmmh, einfacher Ansatz, wäre schön wenn er so einfach und
> richtig bleibt!!
Ok, ich versuch' mich mal an einem Beispiel:
[mm]\begin{pmatrix}5& -2& -1\\ -2& 4& 0\\ -3& -2& 5\end{pmatrix}\begin{pmatrix}x_1 \\ x_2 \\ x_3\end{pmatrix} = \lambda\begin{pmatrix}x_1 \\ x_2 \\ x_3\end{pmatrix} \Leftrightarrow \begin{pmatrix}5& -2& -1\\ -2& 4& 0\\ -3& -2& 5\end{pmatrix}\begin{pmatrix}x_1 \\ x_2 \\ x_3\end{pmatrix} - \lambda\begin{pmatrix}x_1 \\ x_2 \\ x_3\end{pmatrix} = 0[/mm]
[mm]\Leftrightarrow \begin{pmatrix}5& -2& -1\\ -2& 4& 0\\ -3& -2& 5\end{pmatrix}\begin{pmatrix}x_1 \\ x_2 \\ x_3\end{pmatrix}-\lambda\begin{pmatrix}x_1 + 0 + 0\\0 + x_2 + 0\\0 + 0 + x_3\end{pmatrix} = 0[/mm]
[mm]\Leftrightarrow \left(\begin{pmatrix}5& -2& -1\\ -2& 4& 0\\ -3& -2& 5\end{pmatrix}-\lambda\begin{pmatrix}1& 0 & 0\\0 & 1 & 0\\0 & 0 & 1\end{pmatrix}\right)\begin{pmatrix}x_1 \\ x_2 \\ x_3\end{pmatrix} = 0[/mm]
Daher berechnen wir jetzt die Determinante:
[mm]\begin{vmatrix}5-\lambda& -2& -1\\ -2& 4-\lambda& 0\\ -3& -2& 5-\lambda\end{vmatrix} = -\lambda^3 + 14\lambda^2 - 58\lambda + 64[/mm]
Dieses Polynom besitzt 3 Nullstellen [mm]\lambda_1, \lambda_2, \lambda_3[/mm]. Durch das Einsetzen jeder dieser Nullstellen in das ursprüngliche Gleichungssystem, ist jedesmal das System:
[mm]\left(\begin{array}{ccc|c}5-\lambda_i& -2& -1 & 0\\ -2& 4-\lambda_i& 0&0\\ -3& -2& 5-\lambda_i&0\end{array}\right)[/mm]
zu lösen.
Wir erhalten also nicht bloß einen sondern mehrere Eigenwerte. Und für jeden Eigenwert gibt es eine eigene Menge von Eigenvektoren. In diesem Sinne ist der Beweis, wie ich ihn geführt habe, nach den Verbesserungen von Julius korrekt. Denn das [mm]\lambda[/mm] in dem Beweis ist ja bloß ein Symbol für einen beliebigen Eigenwert von [mm]Ax[/mm](, wobei also [mm]x[/mm] ein beliebiger Eigenvektor aus der entsprechenden zum jeweiligen [mm]\lambda_i[/mm] gehörenden Menge von Eigenvektoren ist, so daß insgesamt also [mm]Ax = \lambda x[/mm] gilt). Im Beweis ist es egal, ob es sich dabei um [mm]\lambda_1, \lambda_2[/mm] oder [mm]\lambda_3[/mm] handelt. (Dann kopierst Du die Zeilen des Beweises eben 3x hintereinander für jedes [mm]\lambda_i[/mm] einmal. )
Ok, Ich hoffe das ich das jetzt selber richtig und ein für alle Mal verstanden habe. Wenn nicht, so wäre ich für eine Korrektur dankbar.
Viele Grüße
Karl
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 18:49 Do 19.01.2006 | Autor: | q.e.d |
Ich glaube ich habe es jetzt!! Und es ist ganz einfach!! Vielleicht liest Du es ja noch?
es soll ja gelten:
Ax = [mm] \lambda [/mm] x
Jetzt beide Seiten von links mit x´ (transponierter Vektor) multiplizieren:
x´A x = x´ [mm] \lambda [/mm] x
=> x´A x = [mm] (x_{1}^2 [/mm] + [mm] x_{2}^2 [/mm] + ...+ [mm] x_{n}^2) \lambda
[/mm]
x´x ist immer postiv (nichttriviale und keine komplexen Lösungen), also muss für positive bzw. negative Definitheit von Matrizen [mm] \lambda [/mm] jeweils positiv oder negativ sein!!!
Was sagst Du, damit wäre es doch ganz einfach bewiesen, oder?
Wäre schön, wenn Du mir vielleicht zu den übrigen Fragen auch noch helfen könntest? Wenn nicht, auch nicht schlimm, vielen Dank noch einmal!!
|
|
|
|
|
Hallo Karl,
Was Du da machst kann irgendwie nicht ganz richtig sein.
[mm] \pmat{ 1 & 10 \\ \bruch{1}{40} & 1 }
[/mm]
Von dieser Matrix kannst Du ja mal Eigenwerte berechnen und die positive Definitheit an x= [mm] \vektor{1 \\ -1} [/mm] testen. Mit anderen Worten die Symmetrie ist wesentlich.
viele Grüeß
mathemaduenn
|
|
|
|
|
Hallo mathemaduenn,
> [mm]\pmat{ 1 & 10 \\ \bruch{1}{40} & 1 }[/mm]
> Von dieser Matrix
> kannst Du ja mal Eigenwerte berechnen und die positive
> Definitheit an x= [mm]\vektor{1 \\ -1}[/mm] testen. Mit anderen
> Worten die Symmetrie ist wesentlich.
Julius hat in seiner Antwort geschrieben:
"Man sollte noch erwähnen, dass [mm]x[/mm] ein Eigenvektor von [mm]A[/mm] (zum Eigenwert [mm]\lambda[/mm]) ist."
Die Eigenwerte deiner Matrix sind
[mm]\lambda_1 = \frac{1}{2} > 0 \vee \lambda_2 = \frac{3}{2} > 0[/mm]
Damit ist [mm]A[/mm] positiv definit. Ist [mm]\begin{pmatrix}1\\-1\end{pmatrix}[/mm] ein Eigenvektor von [mm]A[/mm]? Setzen wir mal ein:
[mm](1,-1)\begin{pmatrix}{ 1 & 10 \\ \frac{1}{40} & 1 }\end{pmatrix}\begin{pmatrix}1\\-1\end{pmatrix} \mathop >^{\begin{subarray}{l}\text{nach}\\\text{Vorraussetzung}\end{subarray}} 0[/mm]
Aber das ist doch hier nicht der Fall. Also ist dein [mm]x[/mm] kein Eigenvektor von [mm]A[/mm].
Viele Grüße
Karl
[P.S. Kann auch sein, daß ich mir da ein Wahnsystem aufgebaut habe in welches ich mich immer mehr reinsteigere! ]
|
|
|
|
|
Hallo Karl,
> Julius hat in seiner Antwort geschrieben:
>
>
> "Man sollte noch erwähnen, dass [mm]x[/mm] ein Eigenvektor von [mm]A[/mm]
> (zum Eigenwert [mm]\lambda[/mm]) ist."
... und deshalb funktioniert der Beweis nur in diese Richtung.
pos. definite Matrix [mm] \Rightarrow [/mm] die Eigenwerte sind positiv
Zumindest ursprünglich gings um:
symm. Matrix mit pos. Eigenwerten [mm] \Rightarrow [/mm] die Matrix ist pos. definit
wobei pos. definit heißt x^TAx>0 für alle x
> Die Eigenwerte deiner Matrix sind
>
>
> [mm]\lambda_1 = \frac{1}{2} > 0 \vee \lambda_2 = \frac{3}{2} > 0[/mm]
>
>
> Damit ist [mm]A[/mm] positiv definit. Ist
> [mm]\begin{pmatrix}1\\-1\end{pmatrix}[/mm] ein Eigenvektor von [mm]A[/mm]?
> Setzen wir mal ein:
>
>
> [mm](1,-1)\begin{pmatrix}{ 1 & 10 \\ \frac{1}{40} & 1 }\end{pmatrix}\begin{pmatrix}1\\-1\end{pmatrix} \mathop >^{\begin{subarray}{l}\text{nach}\\\text{Vorraussetzung}\end{subarray}} 0[/mm]
>
>
> Aber das ist doch hier nicht der Fall. Also ist dein [mm]x[/mm] kein
> Eigenvektor von [mm]A[/mm].
Dieser Schluß das mein x kein Eigenvektor sein kann ist richtig aber darum ging's halt beim Beweis nicht. Es soll ja für alle x gelten.
viele Grüße
mathemaduenn
|
|
|
|