Fairer Münzwurf < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 22:01 Sa 14.06.2014 | Autor: | Cccya |
Aufgabe | Ein Spieler startet mit dem Anfangskapital K0 = 1. In jeder Runde i = 1, . . . , n setzt er die Hälfte
seines Kapitals ein. Es wird eine faire Münze geworfen (jede Runde unabhängig) und bei
Kopf erhält er seinen Einsatz verdoppelt zuruck, bei ¨
Zahl verliert er ihn.
a) Stellen Sie das Kapital nach der n-ten Runde als Kn = [mm] \produkt_{i=1}^{n} [/mm] Ri mit geeigneten, unabhängigen Ri
dar.
b) Weisen Sie nach, dass das Spiel fair ist in dem Sinne, dass E[Kn] = 1 gilt.
c) Zeigen Sie, dass dennoch [mm] \limes_{n\rightarrow\infty}
[/mm]
Kn = 0 P-fast sicher gilt |
a) Versteh ich es richtig, dass die Ri wieder Zufallsvariablen sein sollen? Dann würde ich sagen, dass Ri = Bi + 0.5 wobei Bi mit i = 1,...,n Bernoulli verteilt mit Parameter p = 0.5 sind.
b) Der Ewartungswert der Bernoulli Verteilung ist p * 1 - (1-p) = p = 0.5
Also E( [mm] \produkt_{i=1}^{n} [/mm] Ri) = wegen Unabhängigkeit [mm] \produkt_{i=1}^{n} [/mm] E(Ri) = [mm] \produkt_{i=1}^{n} [/mm] E (Bi +0.5) [mm] =\produkt_{i=1}^{n} [/mm] ( E(Bi) +E(0.5) ) = [mm] \produkt_{i=1}^{n} [/mm] (0.5 +0.5) [mm] =\produkt_{i=1}^{n} [/mm] 1 = 1
c) Tja von der Überlegung her würde ich sagen, dass es in jeder Runder n eine positive Wahrscheinlichkeit gibt eine Niederlagenserie bis zu Kn = 0 starten, egal was vorher passiert ist und d.h. die Wahrscheinlichkeit in jeder Runde n nicht so eine Niederlagenserie zu starten ist (etwas) kleiner als 1. Damit ist die Wahrscheinlichkeit nie so eine Niederlagenserie zu starten, also [mm] P(\limes_{n\rightarrow\infty} [/mm] Kn > 0) = [mm] \produkt_{n=1}^{\infty} p_{n}= [/mm] 0 mit alle [mm] p_{n} [/mm] < 1 die Wahrscheinlichkeit in Runde n nicht die Niederlagenserie bis Kn = 0 zu starten. Negatives Kapital ist ja nicht möglich also ist [mm] P(\limes_{n\rightarrow\infty} [/mm] Kn = 0) = 1 - [mm] P(\limes_{n\rightarrow\infty} [/mm] Kn > 0) = 1
Kann man das so zeigen und wenn ja wie formuliere ich das mathematisch? Besonders wie schreibe ich mathematisch: die Niederlagenserie bis Kn = 0?
Vielen Dank!
|
|
|
|
Hiho,
> a) Versteh ich es richtig, dass die Ri wieder Zufallsvariablen sein sollen?
Ja.
> Dann würde ich sagen, dass Ri = Bi + 0.5 wobei Bi mit i = 1,...,n Bernoulli verteilt mit Parameter p = 0.5 sind.
> b)
> c) Tja von der Überlegung her
Nix überlegen. Wende das starke Gesetz der großen Zahlen an.
Tipp: Logarithmieren.
Gruß,
Gono.
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 03:12 So 15.06.2014 | Autor: | Cccya |
Heißt das ich muss eine Folge von Zufallsvariable finden, für die das zentrale arithmetische Mittel = Kn ist? Wenn ich z.B. log (Ri) nehme hab ich
[mm] 1/n\summe_{i=1}^{n}(log(Ri) [/mm] - E (log(Ri)) = 1/n (log( [mm] \produkt_{i=1}^{n} [/mm] Ri) - [mm] \summe_{i=1}^{n} [/mm] E(log(Ri)) = 1/n (log(Kn) - E( [mm] \summe_{i=1}^{n} [/mm] log(Ri))) = 1/n (log(Kn) - E(log(Kn)) Kommt man da jetzt noch irgendwie weiter oder ist das schon falsch?
|
|
|
|
|
Hiho,
> Heißt das ich muss eine Folge von Zufallsvariable finden, für die das zentrale arithmetische Mittel = Kn ist?
Wat?
> [mm]1/n\summe_{i=1}^{n}(log(Ri)[/mm] - E (log(Ri)) = 1/n (log(
> [mm]\produkt_{i=1}^{n}[/mm] Ri) - [mm]\summe_{i=1}^{n}[/mm] E(log(Ri)) = 1/n
> (log(Kn) - E( [mm]\summe_{i=1}^{n}[/mm] log(Ri))) = 1/n (log(Kn) -
> E(log(Kn)) Kommt man da jetzt noch irgendwie weiter oder ist das schon falsch?
Falsch ist das nicht, nur nicht zielführend
Aber es ist ein guter Ansatz, ich schubs dich mal in die richtige Richtung.
Dass der erste Teil gegen [mm] \bruch{1}{n}\log(K_n) [/mm] geht, ist schon mal gut.
Für den hinteren Teil mach dir mal klar, dass die [mm] R_i [/mm] alle gleich verteilt sind und damit gilt:
[mm] $E[\log(R_i)] [/mm] = [mm] E[\log(R_1)]$
[/mm]
D.h. da bleibt stehen:
[mm] $\bruch{1}{n}\log(K_n) [/mm] - [mm] E[\log(R_1)]$ [/mm]
und wogegen geht das denn nun für [mm] $n\to\infty$? [/mm] Das hast du ja noch gar nicht hingeschrieben.
Was bedeutet das also für [mm] $\log(K_n)$?
[/mm]
Gruß,
Gono.
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 09:21 Mo 16.06.2014 | Autor: | Cccya |
Na ja E(log(Ri)) = E(log(R1) = log(1) = 0
und nach dem Gesetz der gr. Zahlen geht also 1/n log(Kn) gegen 0.
Nur was mach ich jetzt? Das sagt mir doch nur, dass log(Kn) langsamer wächst als n und wie kann ich davon auf Konvergenz von Kn schließen?
Ich steh da ehrlich gesagt voll auf dem Schlauch.
|
|
|
|
|
Hiho,
> Na ja E(log(Ri)) = E(log(R1) = log(1) = 0
Da solltest du dir wohl nochmal Gedanken machen
> und nach dem Gesetz der gr. Zahlen geht also 1/n log(Kn) gegen 0.
> Nur was mach ich jetzt? Das sagt mir doch nur, dass log(Kn) langsamer wächst als n und wie kann ich davon auf Konvergenz von Kn schließen?
Hättest du den Erwartungswert korrekt berechnet, wüsstest du es.
Gruß,
Gono.
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 12:17 Mo 16.06.2014 | Autor: | Cccya |
E(log(Ri)) = 0.5log(1.5)+0.5log(0.5) < 0 also konvergiert 1/n log(Kn) gegen
einen negativen Wert und weil 1/n gegen null konvergiert muss log(Kn) dann gegen - [mm] \infty [/mm] konvergieren. log (x) konvergiert gegen - [mm] \infty [/mm] für x -- > 0,
deshalb muss Kn --> 0?
|
|
|
|
|
Hiho,
> E(log(Ri)) = 0.5log(1.5)+0.5log(0.5) < 0 also konvergiert
> 1/n log(Kn) gegen
> einen negativen Wert und weil 1/n gegen null konvergiert
> muss log(Kn) dann gegen - [mm]\infty[/mm] konvergieren. log (x)
> konvergiert gegen - [mm]\infty[/mm] für x -- > 0,
> deshalb muss Kn --> 0?
Und wenn du in Zukunft noch den Formeleditor dafür verwendest, sieht das ganze auch schön aus...
Gruß,
Gono.
|
|
|
|