Erzeugende Funktion < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 21:20 Mi 10.12.2014 | Autor: | YuSul |
Aufgabe | Wir untersuchen die erzeugende Funktion von [mm] $\mathbb{N}_0$-wertigen [/mm] Zufallsvariablen.
Beweisen Sie folgende Aussage: Seien [mm] $X_1, X_2$ [/mm] stochastisch unabhängige [mm] $\mathbb{N}_0$-wertige [/mm] Zufallsvariablen, dann gilt für alle [mm] $s\in(-1,1)$
[/mm]
[mm] $G_{X_1+X_2}(s)=G_{X_1}(s)G_{X_2}(s)$ [/mm] |
Hallo,
ich möchte gerade diese Aufgabe lösen, aber ich komme nicht wirklich zurecht.
[mm] $G_X(s)$ [/mm] hatten wir so definiert:
[mm] $G_X(s)=\sum_{k=0}^\infty P(X=k)s^k=E[s^x]$
[/mm]
Also
[mm] $G_{X_1+X_2}(s)=\sum_{k=0}^\infty P(X_1+X_2=k)s^k$
[/mm]
Aber nun komme ich leider nicht weiter, da ich nicht weiß wie ich diese Summe bzw. [mm] $P(X_1+X_2=k)$ [/mm] "zerlegen" kann.
Klar ist, dass diese Reihe konvergiert und ich sie daher auch "auseinanderziehen" kann.
Doch ich weiß nicht wie...
Könnte ich etwa [mm] $k=k_1+k_2$ [/mm] definieren.
[mm] $X_1$ [/mm] und [mm] $X_2$ [/mm] sind ja [mm] $\mathbb{N}_0$-wertig. [/mm] Also [mm] $X_1, X_2\in\mathbb{N_0}$
[/mm]
Mit [mm] $P(X_1=k_1)$ [/mm] und [mm] $P(X_2=k_2)$ [/mm] und eben [mm] $P(X_1+X_2=k_1+k_2)$
[/mm]
Lässt sich [mm] $P(X_1+X_2=k_1+k_2)$ [/mm] auch so schreiben:
[mm] $P(X_1=k_1, X_2=k_2)=P(X_1=k_1)P(X_2=k_2)$ [/mm] Wegen der stochastischen Unabhängigkeit? Aber dann sehe ich auch nicht wie ich die Reihe dementsprechend umschreiben kann so, dass ich auf
[mm] $\sum_{k=0}^\infty P(X_1=k)s^k\sum_{k=0}^\infty P(X_2=k)s^k$
[/mm]
Über etwas Hilfestellung würde ich mich sehr freuen.
Vielen Dank im voraus.
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 22:02 Mi 10.12.2014 | Autor: | hippias |
Es gibt ja viele Moeglichkeiten fuer [mm] $k_{1}+k_{2}= [/mm] k$. Genauer: Sei [mm] $k\in \IN_{0}$. [/mm] Dann ist [mm] $\{(k_{1},k_{2})\in \IN_{0}^{2}|k_{1}+k_{2}=k\}= \{(k_{1},k-k_{1})|k_{1}=0,\ldots k\}$. [/mm] Damit kann ich sagen, dass [mm] $G_{X_{1}+X_{2}}(s)= \sum_{k=0}^{\infty} P(X_{1}+X_{2}=k)s^{k}= \sum_{k=0}^{\infty} \sum_{k_{1}=0}^{k}P(X_{1}=k_{1},X_{2}=k-k_{1})s^{k}$. [/mm] Siehst Du nun, wie die Unabhaengigkeit eingeht? Vielleicht faengst Du auch mit der rechten Seite der Gleichung an, um die Gleichung herauszubekommen.
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 22:15 Mi 10.12.2014 | Autor: | YuSul |
Also mit der Unabhängigkeit kann ich dies ja nun in ein Produkt zerlegen.
[mm] $P(X_1=k_1)P(X_2=k-k_1)=P(X_1=k_1, X_2=k-k_1)$
[/mm]
Aber wo bekommst du eigentlich die zweite Summe her?
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 22:31 Mi 10.12.2014 | Autor: | YuSul |
Ich habe nochmal nachgesehen wie man (absolut) konvergente Reihen multipliziert. Damit wird eigentlich ein Schuh draus:
[mm] $\left(\sum_{k=0}^\infty P(X_1=k)s^k\right)\left(\sum_{n=0}^k P(X_2=n)s^n\right)=\sum_{n=0}^\infty\sum_{k=0}^n P(X_1=k)s^kP(X_2=n-k)s^{n-k}=\sum_{n=0}^\infty\sum_{k=0}^n P(X_1=k, X_2=n-k)s^n$
[/mm]
Jetzt besteht nur noch das Problem wie ich in dem P(...) die Addition bekomme, die Summe fällt ja hinterher weg, weil die Abhängigkeit von k fehlt und daher erhalte ich einfach den Faktor (n+1), aber der taucht in der Formel ja auch nirgends auf, oder übersehe ich etwas?
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 23:58 Mi 10.12.2014 | Autor: | Teufel |
Hi!
Ok, also du weißt ja, wo du hin musst. Am Ende willst du haben: [mm] \sum_{n=0}^\infty\sum_{k=0}^n P(X_1=k, X_2=n-k)s^n=\sum_{n=0}^\infty P(X_1+X_2=n)s^n.
[/mm]
Zeige also: [mm] \sum_{k=0}^n P(X_1=k, X_2=n-k)= P(X_1+X_2=n). [/mm] Fange damit am besten auf der rechten Seite an und nutze den Satz über die totale Wahrscheinlichkeit,
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 18:13 Do 11.12.2014 | Autor: | YuSul |
Du meinst ich soll diese Formel anwenden:
[mm] $P(A)=\sum_{j=0}^\infty P(A|B_j)\cdot P(B_j)$
[/mm]
Gibt es diesen Satz auch explizit für Zufallsvariablen?
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 19:14 Do 11.12.2014 | Autor: | Teufel |
Ja, gibt es. ;)
Setze $A := [mm] \{X_1+X_2=n\}$ [/mm] und [mm] $B_j [/mm] := [mm] \{X_2 = j\}$ [/mm] zum Beispiel.
Beachte, dass Ausdrücke wie [mm] \{X_1+X_2=n\} [/mm] eigentlich [mm] \{\omega\in\Omega | X_1(\omega)+X_2(\omega)=n\} [/mm] bedeuten, also auch nur Teilmengen von einem Ws-Raum [mm] \Omega [/mm] (also Ereignisse!) sind.
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 19:23 Do 11.12.2014 | Autor: | YuSul |
Ok, dann erhalte ich fürs erste
[mm] $\sum_{j=1}^\infty P(\{X_1+X_2=n\}|\{X_2=j\})\cdot P(\{X_2=j\})$
[/mm]
Für j>n ist sind die Summanden dieser Reihe doch bestimmt einfach Null, weshalb es sich auf
[mm] $\sum_{j=1}^n P(\{X_1+X_2=n\}|\{X_2=j\})\cdot P(\{X_2=j\})$
[/mm]
reduzieren lässt.
Naja, aber ich wüsste nicht wieso das gelten sollte, wenn es gilt.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 19:36 Do 11.12.2014 | Autor: | Teufel |
Also die Summe muss auch von $j=0$ starten, denn [mm] X_2 [/mm] kann ja auch 0 annehmen. Und eine wichtige Beobachtung ist jetzt noch die Folgende:
[mm] P(X_1+X_2=n|X_2=j)=P(X_1=n-j|X_2=j)=P(X_1=n-j). [/mm] Der rechte Ausdruck ist ja 0 für j>n. Das zweite Gleichheitszeichen solltest du sofort nachvollziehen können. Das erste erfordert noch ein bisschen Denkarbeit, obwohl es intuitiv klar sein sollte. Wenn die Summe n ist unter der Bedingung dass der eine Summand j ist, dann muss der andere Summand eben n-j sein.
Um das zu zeigen, mach mal die bedingten Wahrscheinlichkeiten da weg.
[mm] P(X_1+X_2=n|X_2=j)=P(X_1=n-j|X_2=j) \gdw P(X_1+X_2=n \cap X_2=j)=P(X_1=n-j \cap X_2=j). [/mm] Zeige jetzt, dass die beiden Ereignisse [mm] \{X_1+X_2=n \cap X_2=j\} [/mm] und [mm] \{X_1=n-j \cap X_2=j\} [/mm] gleich sind.
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 19:51 Do 11.12.2014 | Autor: | YuSul |
"Das zweite Gleichheitszeichen solltest du sofort nachvollziehen können. Das erste erfordert noch ein bisschen Denkarbeit"
Hmm, eigentlich ist es eher umgekehrt der Fall. Das erste Gleichheitszeichen kann ich nachvollziehen und das zweite ist mir nicht ganz klar. Jedenfalls wenn ich es richtig sehe. Es wurde doch lediglich die Bedingung [mm] $X_2=j$ [/mm] eingesetzt, beim ersten Gleichheitszeichen. Wahrscheinlich betrachte ich es aber zu naiv?
Was meinst du damit, dass ich zeigen soll, dass die zwei Ereignisse
$ [mm] \{X_1+X_2=n \cap X_2=j\} [/mm] $ und $ [mm] \{X_1=n-j \cap X_2=j\} [/mm] $ gleich sein sollen?
Wie lässt sich denn $ [mm] \{X_1+X_2=n \cap X_2=j\} [/mm] $ als Wahrscheinlichkeit interpretieren. Ich stoße mich ein wenig an dieser Schreibweise bei Zufallsvariablen. Ansonsten würde ich nun eben versuchen dies als Wahrscheinlichkeit darzustellen und dann so umzuformen, dass ich auf $ [mm] \{X_1=n-j \cap X_2=j\} [/mm] $ komme.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 20:35 Do 11.12.2014 | Autor: | Teufel |
Ja, die Bedingung [mm] X_2=j [/mm] wurde eingesetzt, aber warum darf man das einfach machen?
Bevor wir die Aufgabe aber weiter machen, noch ein paar Basics, die immer hilfreich bei so was sind:
Sagen wir mal $X$ ist gleichverteilt auf [mm] \{1,2,3,4,5,6\}, [/mm] d.h. $X$ kannst du als fairen, 6-seitigen Würfel ansehen. Aber das ist nur die naive Sichtweise. Reelle Zufallsvariablen sind Abbildungen von Wahrscheinlichkeitsräumen in die reellen Zahlen, d.h. [mm] $X:\Omega \rightarrow \IR$, [/mm] aber für gewöhnlich sagt man (bei diskreten Zufallsvariablen) nur, was $X$ für Werte in [mm] \IR [/mm] ausspuckt und mit welcher Wahrscheinlichkeit. z.B. [mm] P(X=1)=\ldots=P(X=6)=\frac{1}{6}. [/mm]
Wo die Zufallsvariable $X$ aber herkommt [mm] (\Omega) [/mm] wird oft weggelassen, weil es oft einfach egal ist. z.B. kann bei dem Würfelwurf auch einfach [mm] $\Omega=\{1,2,3,4,5,6\}$ [/mm] mit uniformer Verteilung sein. Dann wäre $X$ einfach die Identität, also [mm] X:\Omega\rightarrow \{1,2,3,4,5,6\}\subseteq\IR, X(\omega)=\omega. [/mm] Man kann aber auch [mm] \Omega'=\{2,4,6,8,10,12\} [/mm] mit Gleichverteilung wählen und dann [mm] X':\Omega'\rightarrow \{1,2,3,4,5,6\}, X'(\omega)=\frac{1}{2}\omega [/mm] definieren. $X$ und $X'$ hätten dann die gleiche Verteilung, aber kommen von unterschiedlichen Wahrscheinlichkeitsräumen her.
Ok, jetzt hat man oft Ausdrücke der Form z.B. [mm] \{X=3\}. [/mm] Das ist einfach kurz für [mm] \{\omega\in\Omega | X(\omega)=3\}=\{3\}=X^{-1}(3)\subseteq\Omega [/mm] in unserem Beispiel. Ein anderes Beispiel wäre [mm] \{2\le X' \le 4\}=\{\omega\in\Omega' | 2\le X'(\omega) \le 4\}=\{4,6,8\}=X'^{-1}(\{2,3,4\})\subseteq\Omega'. [/mm] Das sind also einfach alles Teilmengen von Wahrscheinlichkeitsräumen, auch Ereignisse genannt (das ist nicht genau genau, aber hier ausreichen).
Behalte also immer folgendes im Hinterkopf: Eine Zufallsvariable $X$ kommt immer von irgendeinem Wahrscheinlichkeitsraum [mm] \Omega [/mm] her. Es gilt stets [mm] \{X\in M\}=X^{-1}(M)=\{\omega \in \Omega | X(\omega)\in M\}. [/mm] Wie das [mm] \Omega [/mm] genau aussieht, interessiert dich meistens nicht, aber es existiert.
Ist das so weit ok?
|
|
|
|
|
Status: |
(Frage) überfällig | Datum: | 20:39 Do 11.12.2014 | Autor: | YuSul |
Ja, das sollte soweit ok sein.
Danke für die Auffrischung.
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 21:26 Do 11.12.2014 | Autor: | YuSul |
Eingabefehler: "{" und "}" müssen immer paarweise auftreten, es wurde aber ein Teil ohne Entsprechung gefunden (siehe rote Markierung)
Leider komme ich bei der Anwendung von dem was du schreibst dennoch nicht weiter.
Brauch ich für $X_1$ und $X_2$ verschiedene Wahrscheinlichkeitsräume? Wie bringe ich das ganze in Mengenschreibweise?
$\{X_1+X_2=n\cap X_2=j\}$
Das ist ja nicht einfach die Menge
$\{\omega\in\Omega|\{X(\omega)=n\}\cap\{X(\omega)=j\}$
Ich weiß, das es keinen Sinn macht. Ich denke ich muss eben für X_1 und X_2 zwei verschiedene Wahrscheinlichkeitsräume nehmen oder dies eben genauer trennen, aber ich weiß nicht so recht wie.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 00:36 Sa 13.12.2014 | Autor: | Teufel |
Das ordentlich zu machen ist ein klein wenig aufwendiger. Ok, also du arbeitest mit 2 Zufallsvariablen [mm] X_1 [/mm] und [mm] X_2 [/mm] mit gegebenen Verteilungen.
Sagen wir [mm] $X_1:\Omega_1\rightarrow \IN_0$ [/mm] und [mm] $X_2:\Omega_2\rightarrow \IN_0$ [/mm] (hierbei sei [mm] p_i [/mm] ein W-Maß auf [mm] \Omega_i). [/mm] Nun machen wir etwas komisches, wir mischen die Zufallsvariablen irgendwie. Das kann man so modellieren:
Wähle [mm] \Omega:=\Omega_1\times\Omega_2 [/mm] mit der Produktwahrscheinlichkeit drauf, d.h. [mm] p(\omega_1,\omega_2)=p_1(\omega_1)p_2(\omega_2).
[/mm]
Dann kannst du [mm] X'_1:\Omega\rightarrow\IN_0, X'_1(\omega_1,\omega_2)=X_1(\omega_1) [/mm] und [mm] X'_2:\Omega\rightarrow\IN_0, X'_2(\omega_1,\omega_2)=X_2(\omega_2) [/mm] definieren. Dann haben X'_1 bzw. X'_2 die gleiche Verteilung wie [mm] X_1 [/mm] bzw. [mm] X_2 [/mm] (wieso?). D.h. du kannst [mm] \Omega [/mm] als gemeinsamen Wahrscheinlichkeitsraum nehmen und damit arbeiten. Das Gute daran: Dir kann es jetzt egal sein, wie [mm] \Omega [/mm] genau aussieht und einfach Sachen wie [mm] \{X_1+X_2=n\} [/mm] als [mm] \{\omega\in\Omega| X_1(\omega)+X_2(\omega)=n\} [/mm] hinschreiben.
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 21:20 Sa 13.12.2014 | Autor: | matux |
$MATUXTEXT(ueberfaellige_frage)
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 23:27 Do 11.12.2014 | Autor: | DieAcht |
Hallo YuSul,
Ich habe gerade leider nicht genug Zeit um mir den ganzen Thread
durchzulesen, aber ich meine festgestellt zu haben, dass bislang
nur von einer analytischen Lösung ausgegangen wird. Das muss man
hier allerdings nicht unbedingt.
Wir benötigen dazu nur zwei Vorüberlegungen:
1) Die erzeugende Funktion [mm] G_X [/mm] einer [mm] $\IN_0$-wertigen [/mm] Zufallsvariablen [mm] $X\$
[/mm]
ist definiert als die erzeugende Funktion der Verteilung von [mm] $X\$:
[/mm]
[mm] G_X(s)=\sum_{k\in\IN_0}\mathbb{P}(X=k)s^k=\mathbb{E}(s^X),\quad $|s|<1\$.
[/mm]
2) Sind die Zufallsvariablen [mm] $X_i\$ [/mm] mit [mm] i\in\IN [/mm] unabhängig, dann sind auch
die Zufallsvariablen [mm] f_i(X_i) [/mm] mit [mm] i\in\IN, [/mm] wobei [mm] f_i [/mm] beliebige Funktionen sind,
unabhängig.
(Die erste Vorüberlegung ist die Definition und diese hattet ihr.
Kannst du die zweite Vorüberlegung auch nachvollziehen?)
Es seien also [mm] $X_1\$ [/mm] und [mm] $X_2\$ [/mm] zwei unabhängige [mm] $\IN_0$-wertige [/mm] Zufallsvariablen.
Dann sind auch die Zufallvariablen [mm] s^{X_1} [/mm] und [mm] s^{X_2} [/mm] unabhängig und wir erhalten
[mm] G_{X_1+X_2}(s)=\mathbb{E}(s^{X_1+X_2})=\mathbb{E}(S^{X_1}*S^{X_2})=\mathbb{E}(s^{X_1})*\mathbb{E}(s^{X_2})=G_{X_1}(s)*G_{X_2}(s) [/mm] für alle [mm] $|s|<1\$.
[/mm]
Übrigens folgt auch, dass für zwei Verteilungen [mm] $\mathbb{P}_1\$ [/mm] und [mm] $\mathbb{P}_2\$ [/mm] auf [mm] \IN_0 [/mm] gilt:
[mm] G_{\mathbb{P}_1\star \mathbb{P}_2}=G_{\mathbb{P}_1}(s)*G_{\mathbb{P}_2}(s) [/mm] für alle [mm] $|s|<1\$.
[/mm]
(Die Aussage ist ein Spezialfall der ersten Aussage. Wieso? Für
endlich viele unabhängige Zufallsvariablen kannst du auch einmal
probieren die Aussagen ausformulieren.)
Gruß
DieAcht
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 03:48 Fr 12.12.2014 | Autor: | DieAcht |
Hallo YuSul!
> Beweisen Sie folgende Aussage: Seien [mm]X_1, X_2[/mm] stochastisch
> unabhängige [mm]\mathbb{N}_0[/mm]-wertige Zufallsvariablen, dann
> gilt für alle [mm]s\in(-1,1)[/mm]
>
> [mm]G_{X_1+X_2}(s)=G_{X_1}(s)G_{X_2}(s)[/mm]
> Hallo,
>
> ich möchte gerade diese Aufgabe lösen, aber ich komme
> nicht wirklich zurecht.
>
> [mm]G_X(s)[/mm] hatten wir so definiert:
>
> [mm]G_X(s)=\sum_{k=0}^\infty P(X=k)s^k=E[s^x][/mm]
für alle [mm] $|s|<1\$.
[/mm]
Am Ende muss im Exponenten ein großes [mm] $X\$ [/mm] stehen!
(Ist dir eigentlich klar, weshalb wir [mm] $|s|<1\$ [/mm] brauchen?)
> Also
>
> [mm]G_{X_1+X_2}(s)=\sum_{k=0}^\infty P(X_1+X_2=k)s^k[/mm]
für alle [mm] $|s|<1\$.
[/mm]
Hier hätte man in der Regel mit der Definition weiter gemacht:
[mm] G_{X_1+X_2}(s)=\sum_{k=0}^\infty P(X_1+X_2=k)s^k=E[s^{X_1+X_2}] [/mm] für alle [mm] $|s|<1\$
[/mm]
(Siehe dazu meine andere Antwort hier.)
> Aber nun komme ich leider nicht weiter, da ich nicht weiß
> wie ich diese Summe bzw. [mm]P(X_1+X_2=k)[/mm] "zerlegen" kann.
> Klar ist, dass diese Reihe konvergiert und ich sie daher
> auch "auseinanderziehen" kann.
> Doch ich weiß nicht wie...
Dazu wurde eigentlich alles gesagt, aber ich will trotzdem meinen
Senf dazugeben, denn man kann das hier eleganter machen.
Faltungssatz: Seien [mm] $X\$ [/mm] und [mm] $Y\$ [/mm] zwei unabhängige [mm] $\IZ$-wertige [/mm] Zufalls-
variablen. Dann ist die Verteilung von [mm] $X+Y\$ [/mm] gleich der Faltung
[mm] $p_X\star p_Y$. [/mm] Demnach gilt:
[mm] P(X+Y=z)=(p_X\star p_Y)(z) [/mm] für alle [mm] z\in\IZ.
[/mm]
[mm] (p_Y [/mm] ist die Verteilungsfunktion von [mm] $X\$ [/mm] und [mm] p_Y [/mm] die Verteilungsfunktion von [mm] $Y\$.)
[/mm]
Beweis (Summation über alle möglichen Werte von [mm] $X\$):
[/mm]
[mm] P(X+Y=z)=\sum_{x\in\IZ}P(X=x,Y=z-x)=\sum_{x\in\IZ}P(X=x)*P(Y=z-x)=\sum_{x\in\IZ}p_X(x)*p(y)(z-x)=(p_X\star p_Y)(z) [/mm] für alle [mm] z\in\IZ.
[/mm]
Der Beweis dieses Satzes klärt nicht nur deine Fragen bezüglich
der Umstrukturierung der Reihe, sondern lässt den Beweis der zu
zeigende Aussage eleganter erscheinen:
Es seien [mm] $X_1\$ [/mm] und [mm] $X_2\$ [/mm] zwei unabhängige [mm] $\IN_0$-wertige [/mm] Zufallsvariablen.
Zu zeigen:
[mm] G_{X_1+X_2}(s)=G_{X_1}(s)*G_{X_2}(s) [/mm] für alle [mm] $|s|<1\$.
[/mm]
Beweis:
[mm] G_{X_1}(s)*G_{X_2}(s)=\left(\sum_{k=0}^{\infty}p_{X_1}(k)s^k\right)*\left(\sum_{k=0}^{\infty}p_{X_2}(k)s^k\right)\overset{\text{Faltung}}{=}\sum_{k=0}^{\infty}(p_{X_1}\star p_{X_2})(k)s^k\overset{\text{Faltungssatz}}{=}\sum_{k=0}^{\infty}p_{X_1+X_2}(k)s^k=G_{X_1+X_2}(s) [/mm] für alle [mm] $|s|<1\$.
[/mm]
Alles klar?
Eine Sache die mir noch aufgefallen ist:
> [mm] $X_1$ [/mm] und [mm] $X_2$ [/mm] sind ja [mm] $\mathbb{N}_0$-wertig. [/mm] Also [mm] $X_1, X_2\in\mathbb{N_0}$ [/mm]
Zufallsvariablen sind Abbildungen, so dass dein Ende falsch ist!
In diesem Fall sind [mm] $X_1\$ [/mm] und [mm] $X_2\$ $\IN_0$-wertige [/mm] Zufallsvariablen. Also
[mm] X_i\colon\Omega\to\IN_0 [/mm] für [mm] i\in\{1,2\}.
[/mm]
Du kannst zum Beispiel
[mm] X_i\in\Omega^{\IN} [/mm] für [mm] i\in\{1,2\} [/mm] (Ist dir das klar?)
schreiben, aber nicht
[mm] X_i\in\IN_0 [/mm] für [mm] i\in\{1,2\}.
[/mm]
Gruß
DieAcht
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 01:34 Sa 13.12.2014 | Autor: | YuSul |
Wir brauchen $|s|<1$ damit die Reihe konvergiert. (Geometrische Reihe)
[mm] $P(X_1+X_2=k)$ [/mm] nimmt ja Werte in [0,1] an.
Stimmt, die Faltung von zwei Zufallsvariablen hatten wir bestimmt.
Seien [mm] $X_1, X_2 [/mm] : [mm] \Omega \to \mathbb{Z}$ [/mm] unabhängige diskrete Zufallsvariablen mit Wahrscheinlichkeitsgewichten
$p1, p2 : [mm] \mathbb{Z} \mapsto [/mm] [0, 1]$.
Dann hat die Zufallsvariable [mm] $X_1+X_2:\Omega\to\mathbb{Z}$ [/mm] die Gewichte:
[mm] $p:\mathbb{Z}\to[0,\infty)$
[/mm]
[mm] $n\mapsto \sum_{m\in\mathbb{Z}} p_1(n-m)p_2(m)$
[/mm]
Kann ich das hier verwenden?
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 23:45 So 14.12.2014 | Autor: | DieAcht |
> Wir brauchen [mm]|s|<1[/mm] damit die Reihe konvergiert.
> (Geometrische Reihe)
> [mm]P(X_1+X_2=k)[/mm] nimmt ja Werte in [0,1] an.
Richtig.
> Stimmt, die Faltung von zwei Zufallsvariablen hatten wir
> bestimmt.
Dann sollte alles klar sein.
> Seien [mm]X_1, X_2 : \Omega \to \mathbb{Z}[/mm] unabhängige
> diskrete Zufallsvariablen mit Wahrscheinlichkeitsgewichten
> [mm]p1, p2 : \mathbb{Z} \mapsto [0, 1][/mm].
>
> Dann hat die Zufallsvariable [mm]X_1+X_2:\Omega\to\mathbb{Z}[/mm]
> die Gewichte:
>
> [mm]p:\mathbb{Z}\to[0,\infty)[/mm]
>
> [mm]n\mapsto \sum_{m\in\mathbb{Z}} p_1(n-m)p_2(m)[/mm]
>
> Kann ich das hier verwenden?
Was willst du denn damit? Unsere Zufallsvariablen sind nicht
einmal diskret! Wir benötigen für den analytischen Beweis nur
die Faltung bzw. den Faltungssatz und dieser folgt sofort mit
der Definition der Faltung.
|
|
|
|