Grenzwert von Summe u.i.v. ZV < Wahrscheinlichkeitstheorie < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 16:15 Mo 28.01.2013 | Autor: | triad |
Aufgabe | Sei [mm] X_i, i\in\IN [/mm] eine Folge unabhängig, identisch verteilter (u.i.v.) Zufallsvariablen mit positivem Erwartungswert und endlicher Varianz. Zeigen Sie, dass für jedes $M>0$ gilt
[mm] \limes_{n\rightarrow\infty} P(\sum_{i=1}^{n}X_i>M)=1. [/mm] |
Hallo.
Es wurde behauptet, dass man diese Aussage zeigen kann, indem man zeigt, dass
[mm] $\limes_{n\rightarrow\infty} P(\sum_{i=1}^{n}X_i\le [/mm] M)=0$.
Dies sei leichter, da man hierauf nämlich die Chebychev-Ungleichung anwenden könne.
In unserer Definition der Chebychev-Ungleichung steht aber, dass für eine reelle ZV X mit [mm] E(X^2)<\infty [/mm] und a>0 gilt
[mm] P(|X-E(X)|\ge a)\le\frac{V(X)}{a^2}.
[/mm]
Stimmt das? Weil hier ist das Zeichen ja umgekehrt.
gruß
triad
|
|
|
|
Hiho,
vorweg: ich schreibe statt M mal [mm] \varepsilon [/mm] sonst kommt man mit den ganzen M's durcheinander
zeige zuerst mit Hilfe der Tschebyscheff Ungleichung:
[mm] $\lim_{n\to\infty} \IP\left(\bruch{1}{n}\summe_{i=1}^n \left|M_i - E[M_i]\right| \ge \varepsilon\right) [/mm] = 0$ für beliebiges $M > 0$
Das ist auch bekannt als schwaches Gesetz der großen Zahlen, falls du was zum Nachschlagen haben willst.
Da [mm] $\mu [/mm] := [mm] E[M_1] [/mm] = [mm] E[M_i]$ [/mm] für alle i gilt (warum?), steht dann da nichts anderes als:
[mm] $\lim_{n\to\infty} \IP\left(\left(\bruch{1}{n}\summe_{i=1}^n M_i\right) \in (\mu - \varepsilon, \mu + \varepsilon)\right) [/mm] = 1$.
Schlussfolgere daraus sauber das Gewünschte.
MFG,
Gono.
|
|
|
|