Gradient, Richtungsableitung < Sonstiges < Analysis < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 21:44 Mo 14.05.2007 | Autor: | Jan85 |
Aufgabe | Welche Bedeutung hat der Gradient für eine Optimierung?
(Bem: Hier geht es speziell um effizienten Verteilung von medizinischen Guetern und Dienstleistungen und eine Entscheidungsunterstuetzung bei medizinischen Fragestellungen) |
Hallo,
ich muss ein Referat halten über Gradient und Richtungsableitung. Kann mir jemand erklären, wie ich den Gradienten für eine Optimierung nutzen kann?
Hat jemand eine verständliche graphische Interpretation von Gradient und Richtungsableitung? Kann leider nichts finden...
Vielen Dank
|
|
|
|
Hallo,
erstmal zur richtungsableitung: stelle dir eine funktion [mm] $f:\mathbb{R}^n\to \mathbb{R}$ [/mm] vor. Sei weiter [mm] $c:I\to \mathbb{R}^n$ [/mm] eine kurve mit [mm] $c(t_0)=x_0, c'(t_0)=\vec [/mm] r, [mm] \,x_0\in\mathbb{R}^n$. [/mm] die richtungsableitung von f in [mm] $x_0$ [/mm] in richtung [mm] $\vec [/mm] r$ bekommst du nun, indem du f auf die kurve einschraenkst und einfach die eindimensionale ableitung entlang der kurve berechnest. dafuer benoetigst du die mehrdimensionale kettenregel:
[mm] $(f\circ c)'(t_0)=\nabla f(c(t_0))\cdot c'(t_0)=\nabla f(x_0)\cdot \vec [/mm] r$
die richtungsableitung kann man also leicht berechnen, indem man den gradienten mit dem richtungsvektor skalarmultipliziert.
Man leitet auch eine weitere eigenschaft des grad. ab: der gradient ist die richtung des steilsten anstiegs der funktion. setzt man naemlich [mm] $\vec r=\nabla [/mm] f$, so ist das skalarprodukt maximal. in richtung orthogonal zum gradienten ist die ableitung 0, die funktion also lokal 'konstant'. Daraus folgt wiederum, dass der gradient orthogonal auf den hoehenlinien der funktion steht.
[mm] $\vec r=-\nabla [/mm] f$ ist folglich die richtung des steilsten abstiegs und somit kommen wir langsam zur optimierung.
sucht man naemlich fuer eine funktion numerisch ein minimum (zB. fuer eine kostenfkt. in der wirtschaft), so kann man sich entlang von negativen gradienten iterativ in richtung des minimums hangeln. Dieses verfahren heisst 'gradientenverfahren' oder auch 'methode der konjugierten gradienten (CG-verfahren)'. Diese sind sehr beliebt auch zur iterativen loesung von grossen linearen gleichungssystemen.
Schau doch mal in der literatur zur nichtlinearen optimierung nach.
VG
Matthias
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 19:04 Do 17.05.2007 | Autor: | Jan85 |
Hey, danke für deine Antwort. ich habe es verstanden.
Aus mathematischen Büchern werde ich nie schlau
lg
|
|
|
|