Regression Maximum Likelihood < Stochastik < Hochschule < Mathe < Vorhilfe
|
Hi,
ich befasse mich derzeit mit Schätzverfahren zur Parameterschätzung bei linearen Regressionsmodellen. Eines dieser Schätzverfahren ist die Maximum-Likelihood (ML) Methode. Mit Hilfe der ML-Funktion [mm]\mathcal{L}[/mm] kann man ja die W'keit angeben, dass ein geschätzer Parameter dem wahren Parameter des Modells entspricht (bei gegebenen Daten).
Insbesondere interessiert man sich ja für das Maximum von [mm]\mathcal{L}[/mm], also dem Wert der am ehesten dem wahren Wert des Modells entspricht.
Betrachtet man nun das Regressionsmodell in Matrixnotation:
[mm]\underset{n\times1}{Y} \;=\; \underset{n\times2}{X}\cdot\underset{2\times1}{\beta} + \underset{n\times1}{\epsilon}[/mm]
so will man also [mm]\beta[/mm] schätzen. Alles gar kein Problem, doch in der Literatur wird anschließend oftmals auch noch die Maximum-Likelihood Schätzung für [mm]\sigma^2[/mm] durchgeführt. Was hat es damit aufsich?
Schätze ich damit wie meine Daten streuen, oder wie meine Regressionsgerade streut (es gibt ja diese Intervalle in denen die Regressiongerade sehr wahrscheinlich liegt).
Ich hoffe mir kann jmd helfen.
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 19:21 Di 22.03.2011 | Autor: | matux |
$MATUXTEXT(ueberfaellige_frage)
|
|
|
|