E(X) und E(X^2) < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 23:07 Mo 02.06.2008 | Autor: | Igor1 |
Hallo,
wenn man die Definition von dem Erwartungswert E(X) kennt, wie kann man dann [mm] E(X^{2}) [/mm] bestimmen?
Gruss
Igor
|
|
|
|
> Hallo,
>
> wenn man die Definition von dem Erwartungswert E(X) kennt,
> wie kann man dann [mm]E(X^{2})[/mm] bestimmen?
Ich bin nicht sicher, ob ich Deine Frage richtig verstehe (wahrscheinlich nicht). Meine erste Reaktion ist einfach zu sagen: wenn $X$ eine Zufallsvariable ist, dann ist [mm] $X^2$ [/mm] auch eine Zufallsvariable und deren Erwartungswert berechnet sich daher nach demselben Verfahren wie der Erwartungswert der Zufallsvariablen $X$.
Wenn Du also z.B. eine geometrisch verteilte Zufallsvariable $X$ mit [mm] $\mathrm{P}(X=n)=(1-p)^{n-1}p$ [/mm] betrachtest ("Wartezeit"), dann ist
[mm]\mathrm{E}(\red{X})=\sum_{n=1}^\infty \red{n}\cdot (1-p)^{n-1}p=\frac{1}{p}[/mm]
und
[mm]\mathrm{E}(\red{X^2})=\sum_{n=1}^\infty \red{n^2}\cdot (1-p)^{n-1}p=\frac{2-p}{p^2}[/mm]
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 09:33 Di 03.06.2008 | Autor: | Igor1 |
Hallo Somebody,
dass [mm] E(X^{2})= [/mm] "was Du geschrieben hast", habe ich schon in wikipedia gesehen. Jedoch wie kommt man auf diesen Ausdruck bzw. wie wird [mm] E(X^{2}) [/mm] hergeleitet (ich meine direkt aus der Definition von E(X) aber ich komme nicht drauf). Soweit ich gesehen habe, wird n durch [mm] n^{2} [/mm] ersetzt .
Wie beweist man , dass [mm] E(X^{2}="was [/mm] Du geschrieben hast"
Gruss
Igor
|
|
|
|
|
> Hallo Somebody,
>
> dass [mm]E(X^{2})=[/mm] "was Du geschrieben hast", habe ich schon in
> wikipedia gesehen. Jedoch wie kommt man auf diesen
> Ausdruck bzw. wie wird [mm]E(X^{2})[/mm] hergeleitet (ich meine
> direkt aus der Definition von E(X) aber ich komme nicht
> drauf). Soweit ich gesehen habe, wird n durch [mm]n^{2}[/mm] ersetzt
> .
> Wie beweist man , dass [mm]E(X^{2}="was[/mm] Du geschrieben hast"
Die Definition von $E(X)$ ist ja eine allgemeine Definition, die auf eine beliebige Zufallsvariable $X$ anwendbar ist. Wie ich gesagt habe, ist, falls $X$ eine Zufallsvariable ist, auch [mm] $X^2$ [/mm] eine Zufallsvariable und daher kann der Wert von [mm] $E(X^2)$ [/mm] direkt aufgrund der Definition von $E(X)$ bestimmt werden, indem man einfach anstelle von $X$ die Zufallsvariable [mm] $X^2$ [/mm] einsetzt. Andersherum formuliert: der Erwartungswert einer Zufallsvariablen $X$ ist das "gewichtete Mittel" ihrer möglichen Werte:
[mm]E(X)=\sum_{x\in X(\Omega)}x\cdot P(X=x)[/mm]
Die möglichen Werte von [mm] $X^2$ [/mm] sind einfach die quadrierten möglichen Werte von $X$. Die Wahrscheinlichkeiten kann man belassen, sofern man weiterhin über [mm] $x\in X(\Omega)$ [/mm] summiert. So erhält man:
[mm]E(X^2)=\sum_{x\in X(\Omega)} x^2\cdot P(X=x)[/mm]
Wenn also zum Beispiel die Zufallsvariable $X$ beide Werte, $x=-3$ und $x=+3$ annehmen kann, so ist bei diesem gewichteten Mittel sichergestellt, dass der mögliche Wert $9$ von [mm] $X^2$ [/mm] zweimal berücksichtigt wird: einmal mit dem Gewicht $P(X=-3)$ und ein zweites Mal mit dem Gewicht $P(X=+3)$.
Allgemein: Ist $f$ eine messbare Funktion, so ist
[mm]E(f(X))=\sum_{x\in X(\Omega)} f(x)\cdot P(X=x)[/mm]
Dies gilt natürlich exakt in dieser Form alles nur im Falle eines abzählbaren Ergebnisraumes [mm] $\Omega$. [/mm] Analoge Beziehungen erhält man im allgemeinen Fall, wenn man $E(X)$ mittels Integration bestimmt.
Nachtrag (1. Revision): Ich glaube nun eine vielleicht bessere Erklärung gefunden zu haben. Sei also [mm] $f:\; X(\Omega)\rightarrow \IR$ [/mm] eine auf dem Bildbereich der Zufallsvariablen $X$ definierte Funktion. Dann ist [mm] $X(\Omega)=\bigcup_{y\in f(X(\Omega))} f^{-1}(y)$ [/mm] eine disjunkte Zerlegung des Bildbereichs von $X$ und daher ist
[mm]E(f(X))\;\;=\sum_{y\in f(X(\Omega))} y\cdot P(f(X)=y)\;\;=\sum_{y\in f(X(\Omega))}y\cdot\sum_{x\in f^{-1}(y)}P(X=x)\;\;=\sum_{y\in f(X(\Omega))}\sum_{x\in f^{-1}(y)} y\cdot P(X=x)\;\;=\sum_{x\in X(\Omega)} f(x)\cdot P(X=x)[/mm]
Das erste Gleichheitszeichen gilt aufgrund der Definition des Erwartungswertes (für die Zufallsvariable $f(X)$). Das zweite Gleichheitzeichen gilt wegen der erwähnten disjunkten Zerlegung von [mm] $X(\Omega)$. [/mm] Das dritte Gleichheitszeichen gilt, weil für ein [mm] $x\in f^{-1}(y)$ [/mm] natürlich gilt, dass $y=f(x)$ ist. Ganz rechts steht die "rätselhafte Summe", deren Begründung Du eingefordert hattest...
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 21:33 Di 03.06.2008 | Autor: | Igor1 |
Es geht um eine diskrete Zufallsvariable.
Ja, genau diese Wahrscheinlichkeiten P(X=x) interessieren mich. Wenn man X einfach durch [mm] X^{2} [/mm] ersetzt, dann sollte formal auch bei P(...) X durch [mm] X^{2} [/mm] ersetzt werden.
Warum steht jedoch am Ende trotzdem nur P(X=x)? D.h es sollten noch Zwischenschritte dabei sein, die möglicherweise trivial sind, die ich jedoch nicht so ganz verstehe.
Ich habe das versucht, so zu verstehen
E(X)= [mm] \summe_{x \in X}^{} [/mm] x P(X=x)
[mm] E(X^{2})= \summe_{x^{2} \in X^{2}}^{} x^{2} P(X^{2}=x^{2}) [/mm] = "was tatsächlich rauskommen muss" , da man die Wurzel bei P(...) auf den beiden Seiten zieht.
Vielleicht hat mich dieser Zwischenschritt mit dem Wurzelziehen verwirrt und ich bei P(X=x) im Endergebnis die Zufallsvariable [mm] X^{2} [/mm] gesucht habe, da ich davon ausging , dass am Ende überall [mm] X^{2} [/mm] stehen sollte .
Jetzt aber sehe ich , dass einfach im Ausdruck [mm] P(X^{2}=x^{2}) [/mm] gekürzt wird.
Stimmt das ?
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 08:01 Mi 04.06.2008 | Autor: | luis52 |
Moin Igor,
tatsaechlich kann man auf zwei Weisen berechnen.
Ich will das mal an einem Beispiel erlaeutern. Betrachte die
Zufallsvariable $X$ mit $P(X=-1)=0.3$, $P(X=0)=0.5$, $P(X=-1)=0.2$ und
$P(X=x)=0$ sonst. Zum einen gilt
[mm] $\operatorname{E}[X^2]=\sum x^2P(X=x)=(-1)^2\times0.3+(0)^2\times0.5+(1)^2\times0.2=0.5$.
[/mm]
Andererseits ist [mm] $Y=X^2$ [/mm] eine Zufallsvariable mit einer Verteilung,
naemlich $P(Y=0)=0.5$, $P(Y=1)=0.5$ und $P(Y=y)=0$ sonst. Man erhaelt
[mm] $\operatorname{E}[X^2]=\operatorname{E}[Y]=\sum yP(Y=y)=0\times0.5+1\times0.5=0.5$.
[/mm]
Du siehst, beide Berechnungen fuehren zum selben Ergebnis. Und man kann
zeigen, dass das immer so ist.
vg Luis
|
|
|
|
|
> Es geht um eine diskrete Zufallsvariable.
>
> Ja, genau diese Wahrscheinlichkeiten P(X=x) interessieren
> mich. Wenn man X einfach durch [mm]X^{2}[/mm] ersetzt, dann sollte
> formal auch bei P(...) X durch [mm]X^{2}[/mm] ersetzt werden.
> Warum steht jedoch am Ende trotzdem nur P(X=x)? D.h es
> sollten noch Zwischenschritte dabei sein, die
> möglicherweise trivial sind, die ich jedoch nicht so ganz
> verstehe.
> Ich habe das versucht, so zu verstehen
>
> E(X)= [mm]\summe_{x \in X}^{}[/mm] x P(X=x)
>
> [mm]E(X^{2})= \summe_{x^{2} \in X^{2}}^{} x^{2} P(X^{2}=x^{2})[/mm]
> = "was tatsächlich rauskommen muss" , da man die Wurzel bei
> P(...) auf den beiden Seiten zieht.
> Vielleicht hat mich dieser Zwischenschritt mit dem
> Wurzelziehen verwirrt und ich bei P(X=x) im Endergebnis die
> Zufallsvariable [mm]X^{2}[/mm] gesucht habe, da ich davon ausging ,
> dass am Ende überall [mm]X^{2}[/mm] stehen sollte .
>
> Jetzt aber sehe ich , dass einfach im Ausdruck
> [mm]P(X^{2}=x^{2})[/mm] gekürzt wird.
>
> Stimmt das ?
Ich sehe dies überhaupt nicht so. Ist $f$ eine Funktion, die auf die Zufallsvariable $X$ angewandt wird, dann ist
[mm] [center]$\{f(X)=y\}=\bigcup_{x\in f^{-1}(y)}\{X=x\}$[/center]
[/mm]
eine disjunkte Zerlegung des Ereignisses [mm] $\{f(X)=y\}$ [/mm] und daher gilt
[mm] [center]$\mathrm{P}(f(X)=y)=\sum_{x\in f^{-1}(y)}\mathrm{P}(X=x)$[/center]
[/mm]
Dies erlaubt dann, die Äquivalenz von
[mm] [center]$\mathrm{E}(f(X))=\sum_{y\in f(X(\Omega))} y\cdot \mathrm{P}(f(X)=y)$[/center]
[/mm]
und
[mm] [center]$\sum_{x\in X(\Omega)} f(x)\cdot \mathrm{P}(X=x)$[/center]
[/mm]
nachzuweisen (wie ich dies im Nachtrag zur 1. Revision meines letzten Beitrages beschrieben habe).
|
|
|
|