vollständige Statistik < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 12:40 Do 12.09.2013 | Autor: | Stern123 |
Hallo zusammen,
ich verstehe überhaupt nicht, was mir der Satz über die Vollständigkeit einer Statistik aussagen soll.
Die Definition lautet folgendermaßen:
Eine Statistik $T:\ [mm] \IR^n\to\IR^k$ [/mm] heißt vollständig für [mm] $P\in\mathcal{P}$ [/mm] (bzw. [mm] $\vartheta\in\Theta$, [/mm] falls [mm] $\mathcal{P}=\{P_\vartheta:\vartheta\in\Theta\}$), [/mm] falls gilt:
Für jede messbare Funktion [mm] $\Psi:\ \IR^k\to\IR$ [/mm] mit [mm] $E_P[\Psi(T)]=0\ \forall P\in\mathcal{P}$ [/mm] (bzw. [mm] $E_\vartheta[\Psi(T)]=0\ \forall \vartheta\in\Theta$) [/mm] folgt [mm] $\Psi(T)=0$ [/mm] P-f.s. [mm] $\forall P\in\mathcal{P}$ [/mm] (bzw. [mm] $P_\vartheta$-f.s. $\forall\vartheta\in\Theta$).
[/mm]
Kann mir hier jemand einen Tipp geben?
Ich habe diese Frage in keinem anderen Forum gestellt.
|
|
|
|
Ich verstehe diese Definition so, dass sie eine Aussage über die Reichhaltigkeit der Familie von Wahrscheinlichkeitsmaßen macht:
die Familie ist nämlich so riesig, dass wenn die Aussage $ [mm] \Psi_(T)=0 [/mm] $ [mm] P_\vartheta-f.s. [/mm] für irgendein [mm] \Psi [/mm] und mindestens ein [mm] \vartheta [/mm] nicht gelten würde, so würde dies zur Folge haben, dass der Erwartungswert [mm] E_\vartheta[\Psi(T)] [/mm] (für irgendein [mm] \vartheta) [/mm] nicht verschwinden würde.
Grüße.
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 11:18 Mo 16.09.2013 | Autor: | Stern123 |
Das mit der Reichhaltigkeit steht auch in meinem Skript. Allerdings verstehe ich nicht ganz, was damit gemeint ist. Kannst du das irgendwie intuitiv erklären?
|
|
|
|
|
Hallo,
Der Begriff der vollständigen Statistik stammt aus der Schätzung von Parametern. Man nimmt an, dass ein gegebenes Experiment eine Wahrscheinlichkeitsverteilung aus einer vorgegebenen Familie [mm] $\{\IP_{\theta}: \theta \in \Theta\}$ [/mm] hat. Ziel ist die Bestimmung vom wahren Parameter [mm] $\theta_0$. [/mm]
Dazu führt man eine bestimmte Anzahl von Experimenten durch und erhält Realisierungen [mm] $X_1,...,X_n$, [/mm] die alle gemäß eines Wahrscheinlichkeitsmaßes [mm] $\IP_{\theta_0}$ [/mm] verteilt sind.
Um den Parameter [mm] $\theta_0$ [/mm] zu schätzen, kann man verschiedene Statistiken $T = [mm] T(X_1,...,X_n)$ [/mm] betrachten.
Ist eine Statistik suffizient für [mm] $\theta$, [/mm] so enthält sie alle nötigen Informationen, um [mm] $\theta$ [/mm] zu schätzen.
Ist eine Statistik vollständig für [mm] $\theta$, [/mm] so enthält sie nicht zu viele Informationen über [mm] $\theta$. [/mm] (Aus der Sicht der Verteilungsfamilie bedeutet das, dass die Verteilungsfamilie sehr groß ist). Die Idee der Vollständigkeit stammt daher, dass man ein "Optimalitätskriterium" für Statistiken sucht. Und Vollständigkeit sorgt dafür, dass die Statistik möglichst klein bleibt. Man konzentriert sich sozusagen auf die wesentlichen Informationen.
Es zeigt sich, dass solche vollständigen und suffizienten Statistiken sogar sehr gute Schätzer erzeugen können (UMVU).
Viele Grüße,
Stefan
|
|
|
|