www.matheraum.de
Das Matheforum.
Das Matheforum des MatheRaum.

Für Schüler, Studenten, Lehrer, Mathematik-Interessierte.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Mathe
  Status Schulmathe
    Status Primarstufe
    Status Mathe Klassen 5-7
    Status Mathe Klassen 8-10
    Status Oberstufenmathe
    Status Mathe-Wettbewerbe
    Status Sonstiges
  Status Hochschulmathe
    Status Uni-Analysis
    Status Uni-Lin. Algebra
    Status Algebra+Zahlentheo.
    Status Diskrete Mathematik
    Status Fachdidaktik
    Status Finanz+Versicherung
    Status Logik+Mengenlehre
    Status Numerik
    Status Uni-Stochastik
    Status Topologie+Geometrie
    Status Uni-Sonstiges
  Status Mathe-Vorkurse
    Status Organisatorisches
    Status Schule
    Status Universität
  Status Mathe-Software
    Status Derive
    Status DynaGeo
    Status FunkyPlot
    Status GeoGebra
    Status LaTeX
    Status Maple
    Status MathCad
    Status Mathematica
    Status Matlab
    Status Maxima
    Status MuPad
    Status Taschenrechner

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Mathe-Seiten:Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
StartseiteMatheForenUni-StochastikErzeugende Funktion
Foren für weitere Studienfächer findest Du auf www.vorhilfe.de z.B. Astronomie • Medizin • Elektrotechnik • Maschinenbau • Bauingenieurwesen • Jura • Psychologie • Geowissenschaften
Forum "Uni-Stochastik" - Erzeugende Funktion
Erzeugende Funktion < Stochastik < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Stochastik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Erzeugende Funktion: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 21:20 Mi 10.12.2014
Autor: YuSul

Aufgabe
Wir untersuchen die erzeugende Funktion von [mm] $\mathbb{N}_0$-wertigen [/mm] Zufallsvariablen.

Beweisen Sie folgende Aussage: Seien [mm] $X_1, X_2$ [/mm] stochastisch unabhängige [mm] $\mathbb{N}_0$-wertige [/mm] Zufallsvariablen, dann gilt für alle [mm] $s\in(-1,1)$ [/mm]

[mm] $G_{X_1+X_2}(s)=G_{X_1}(s)G_{X_2}(s)$ [/mm]

Hallo,

ich möchte gerade diese Aufgabe lösen, aber ich komme nicht wirklich zurecht.

[mm] $G_X(s)$ [/mm] hatten wir so definiert:

[mm] $G_X(s)=\sum_{k=0}^\infty P(X=k)s^k=E[s^x]$ [/mm]

Also

[mm] $G_{X_1+X_2}(s)=\sum_{k=0}^\infty P(X_1+X_2=k)s^k$ [/mm]

Aber nun komme ich leider nicht weiter, da ich nicht weiß wie ich diese Summe bzw. [mm] $P(X_1+X_2=k)$ [/mm] "zerlegen" kann.
Klar ist, dass diese Reihe konvergiert und ich sie daher auch "auseinanderziehen" kann.
Doch ich weiß nicht wie...

Könnte ich etwa [mm] $k=k_1+k_2$ [/mm] definieren.
[mm] $X_1$ [/mm] und [mm] $X_2$ [/mm] sind ja [mm] $\mathbb{N}_0$-wertig. [/mm] Also [mm] $X_1, X_2\in\mathbb{N_0}$ [/mm]

Mit [mm] $P(X_1=k_1)$ [/mm] und [mm] $P(X_2=k_2)$ [/mm] und eben [mm] $P(X_1+X_2=k_1+k_2)$ [/mm]

Lässt sich [mm] $P(X_1+X_2=k_1+k_2)$ [/mm] auch so schreiben:

[mm] $P(X_1=k_1, X_2=k_2)=P(X_1=k_1)P(X_2=k_2)$ [/mm] Wegen der stochastischen Unabhängigkeit? Aber dann sehe ich auch nicht wie ich die Reihe dementsprechend umschreiben kann so, dass ich auf

[mm] $\sum_{k=0}^\infty P(X_1=k)s^k\sum_{k=0}^\infty P(X_2=k)s^k$ [/mm]

Über etwas Hilfestellung würde ich mich sehr freuen.
Vielen Dank im voraus.

        
Bezug
Erzeugende Funktion: Antwort
Status: (Antwort) fertig Status 
Datum: 22:02 Mi 10.12.2014
Autor: hippias

Es gibt ja viele Moeglichkeiten fuer [mm] $k_{1}+k_{2}= [/mm] k$. Genauer: Sei [mm] $k\in \IN_{0}$. [/mm] Dann ist [mm] $\{(k_{1},k_{2})\in \IN_{0}^{2}|k_{1}+k_{2}=k\}= \{(k_{1},k-k_{1})|k_{1}=0,\ldots k\}$. [/mm] Damit kann ich sagen, dass [mm] $G_{X_{1}+X_{2}}(s)= \sum_{k=0}^{\infty} P(X_{1}+X_{2}=k)s^{k}= \sum_{k=0}^{\infty} \sum_{k_{1}=0}^{k}P(X_{1}=k_{1},X_{2}=k-k_{1})s^{k}$. [/mm] Siehst Du nun, wie die Unabhaengigkeit eingeht? Vielleicht faengst Du auch mit der rechten Seite der Gleichung an, um die Gleichung herauszubekommen.

Bezug
                
Bezug
Erzeugende Funktion: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 22:15 Mi 10.12.2014
Autor: YuSul

Also mit der Unabhängigkeit kann ich dies ja nun in ein Produkt zerlegen.

[mm] $P(X_1=k_1)P(X_2=k-k_1)=P(X_1=k_1, X_2=k-k_1)$ [/mm]

Aber wo bekommst du eigentlich die zweite Summe her?

Bezug
                        
Bezug
Erzeugende Funktion: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 22:31 Mi 10.12.2014
Autor: YuSul

Ich habe nochmal nachgesehen wie man (absolut) konvergente Reihen multipliziert. Damit wird eigentlich ein Schuh draus:

[mm] $\left(\sum_{k=0}^\infty P(X_1=k)s^k\right)\left(\sum_{n=0}^k P(X_2=n)s^n\right)=\sum_{n=0}^\infty\sum_{k=0}^n P(X_1=k)s^kP(X_2=n-k)s^{n-k}=\sum_{n=0}^\infty\sum_{k=0}^n P(X_1=k, X_2=n-k)s^n$ [/mm]

Jetzt besteht nur noch das Problem wie ich in dem P(...) die Addition bekomme, die Summe fällt ja hinterher weg, weil die Abhängigkeit von k fehlt und daher erhalte ich einfach den Faktor (n+1), aber der taucht in der Formel ja auch nirgends auf, oder übersehe ich etwas?

Bezug
                                
Bezug
Erzeugende Funktion: Antwort
Status: (Antwort) fertig Status 
Datum: 23:58 Mi 10.12.2014
Autor: Teufel

Hi!

Ok, also du weißt ja, wo du hin musst. Am Ende willst du haben: [mm] \sum_{n=0}^\infty\sum_{k=0}^n P(X_1=k, X_2=n-k)s^n=\sum_{n=0}^\infty P(X_1+X_2=n)s^n. [/mm]

Zeige also: [mm] \sum_{k=0}^n P(X_1=k, X_2=n-k)= P(X_1+X_2=n). [/mm] Fange damit am besten auf der rechten Seite an und nutze den Satz über die totale Wahrscheinlichkeit,



Bezug
                                        
Bezug
Erzeugende Funktion: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 18:13 Do 11.12.2014
Autor: YuSul

Du meinst ich soll diese Formel anwenden:

[mm] $P(A)=\sum_{j=0}^\infty P(A|B_j)\cdot P(B_j)$ [/mm]

Gibt es diesen Satz auch explizit für Zufallsvariablen?

Bezug
                                                
Bezug
Erzeugende Funktion: Antwort
Status: (Antwort) fertig Status 
Datum: 19:14 Do 11.12.2014
Autor: Teufel

Ja, gibt es.  ;)

Setze $A := [mm] \{X_1+X_2=n\}$ [/mm] und [mm] $B_j [/mm] := [mm] \{X_2 = j\}$ [/mm] zum Beispiel.

Beachte, dass Ausdrücke wie [mm] \{X_1+X_2=n\} [/mm] eigentlich [mm] \{\omega\in\Omega | X_1(\omega)+X_2(\omega)=n\} [/mm] bedeuten, also auch nur Teilmengen von einem Ws-Raum [mm] \Omega [/mm] (also Ereignisse!) sind.

Bezug
                                                        
Bezug
Erzeugende Funktion: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 19:23 Do 11.12.2014
Autor: YuSul

Ok, dann erhalte ich fürs erste

[mm] $\sum_{j=1}^\infty P(\{X_1+X_2=n\}|\{X_2=j\})\cdot P(\{X_2=j\})$ [/mm]

Für j>n ist sind die Summanden dieser Reihe doch bestimmt einfach Null, weshalb es sich auf

[mm] $\sum_{j=1}^n P(\{X_1+X_2=n\}|\{X_2=j\})\cdot P(\{X_2=j\})$ [/mm]

reduzieren lässt.
Naja, aber ich wüsste nicht wieso das gelten sollte, wenn es gilt.

Bezug
                                                                
Bezug
Erzeugende Funktion: Antwort
Status: (Antwort) fertig Status 
Datum: 19:36 Do 11.12.2014
Autor: Teufel

Also die Summe muss auch von $j=0$ starten, denn [mm] X_2 [/mm] kann ja auch 0 annehmen. Und eine wichtige Beobachtung ist jetzt noch die Folgende:

[mm] P(X_1+X_2=n|X_2=j)=P(X_1=n-j|X_2=j)=P(X_1=n-j). [/mm] Der rechte Ausdruck ist ja 0 für j>n. Das zweite Gleichheitszeichen solltest du sofort nachvollziehen können. Das erste erfordert noch ein bisschen Denkarbeit, obwohl es intuitiv klar sein sollte. Wenn die Summe n ist unter der Bedingung dass der eine Summand j ist, dann muss der andere Summand eben n-j sein.

Um das zu zeigen, mach mal die bedingten Wahrscheinlichkeiten da weg.

[mm] P(X_1+X_2=n|X_2=j)=P(X_1=n-j|X_2=j) \gdw P(X_1+X_2=n \cap X_2=j)=P(X_1=n-j \cap X_2=j). [/mm] Zeige jetzt, dass die beiden Ereignisse [mm] \{X_1+X_2=n \cap X_2=j\} [/mm] und [mm] \{X_1=n-j \cap X_2=j\} [/mm] gleich sind.

Bezug
                                                                        
Bezug
Erzeugende Funktion: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 19:51 Do 11.12.2014
Autor: YuSul

"Das zweite Gleichheitszeichen solltest du sofort nachvollziehen können. Das erste erfordert noch ein bisschen Denkarbeit"

Hmm, eigentlich ist es eher umgekehrt der Fall. Das erste Gleichheitszeichen kann ich nachvollziehen und das zweite ist mir nicht ganz klar. Jedenfalls wenn ich es richtig sehe. Es wurde doch lediglich die Bedingung [mm] $X_2=j$ [/mm] eingesetzt, beim ersten Gleichheitszeichen. Wahrscheinlich betrachte ich es aber zu naiv?

Was meinst du damit, dass ich zeigen soll, dass die zwei Ereignisse

$ [mm] \{X_1+X_2=n \cap X_2=j\} [/mm] $ und $ [mm] \{X_1=n-j \cap X_2=j\} [/mm] $ gleich sein sollen?

Wie lässt sich denn $ [mm] \{X_1+X_2=n \cap X_2=j\} [/mm] $ als Wahrscheinlichkeit interpretieren. Ich stoße mich ein wenig an dieser Schreibweise bei Zufallsvariablen. Ansonsten würde ich nun eben versuchen dies als Wahrscheinlichkeit darzustellen und dann so umzuformen, dass ich auf $ [mm] \{X_1=n-j \cap X_2=j\} [/mm] $ komme.



Bezug
                                                                                
Bezug
Erzeugende Funktion: Antwort
Status: (Antwort) fertig Status 
Datum: 20:35 Do 11.12.2014
Autor: Teufel

Ja, die Bedingung [mm] X_2=j [/mm] wurde eingesetzt, aber warum darf man das einfach machen?

Bevor wir die Aufgabe aber weiter machen, noch ein paar Basics, die immer hilfreich bei so was sind:

Sagen wir mal $X$ ist gleichverteilt auf [mm] \{1,2,3,4,5,6\}, [/mm] d.h. $X$ kannst du als fairen, 6-seitigen Würfel ansehen. Aber das ist nur die naive Sichtweise. Reelle Zufallsvariablen sind Abbildungen von Wahrscheinlichkeitsräumen in die reellen Zahlen, d.h. [mm] $X:\Omega \rightarrow \IR$, [/mm] aber für gewöhnlich sagt man (bei diskreten Zufallsvariablen) nur, was $X$ für Werte in [mm] \IR [/mm] ausspuckt und mit welcher Wahrscheinlichkeit. z.B. [mm] P(X=1)=\ldots=P(X=6)=\frac{1}{6}. [/mm]

Wo die Zufallsvariable $X$ aber herkommt [mm] (\Omega) [/mm] wird oft weggelassen, weil es oft einfach egal ist. z.B. kann bei dem Würfelwurf auch einfach [mm] $\Omega=\{1,2,3,4,5,6\}$ [/mm] mit uniformer Verteilung sein. Dann wäre $X$ einfach die Identität, also [mm] X:\Omega\rightarrow \{1,2,3,4,5,6\}\subseteq\IR, X(\omega)=\omega. [/mm] Man kann aber auch [mm] \Omega'=\{2,4,6,8,10,12\} [/mm] mit Gleichverteilung wählen und dann [mm] X':\Omega'\rightarrow \{1,2,3,4,5,6\}, X'(\omega)=\frac{1}{2}\omega [/mm] definieren. $X$ und $X'$ hätten dann die gleiche Verteilung, aber kommen von unterschiedlichen Wahrscheinlichkeitsräumen her.

Ok, jetzt hat man oft Ausdrücke der Form z.B. [mm] \{X=3\}. [/mm] Das ist einfach kurz für [mm] \{\omega\in\Omega | X(\omega)=3\}=\{3\}=X^{-1}(3)\subseteq\Omega [/mm] in unserem Beispiel. Ein anderes Beispiel wäre [mm] \{2\le X' \le 4\}=\{\omega\in\Omega' | 2\le X'(\omega) \le 4\}=\{4,6,8\}=X'^{-1}(\{2,3,4\})\subseteq\Omega'. [/mm] Das sind also einfach alles Teilmengen von Wahrscheinlichkeitsräumen, auch Ereignisse genannt (das ist nicht genau genau, aber hier ausreichen).

Behalte also immer folgendes im Hinterkopf: Eine Zufallsvariable $X$ kommt immer von irgendeinem Wahrscheinlichkeitsraum [mm] \Omega [/mm] her. Es gilt stets [mm] \{X\in M\}=X^{-1}(M)=\{\omega \in \Omega | X(\omega)\in M\}. [/mm] Wie das [mm] \Omega [/mm] genau aussieht, interessiert dich meistens nicht, aber es existiert.

Ist das so weit ok?



Bezug
                                                                                        
Bezug
Erzeugende Funktion: Frage (überfällig)
Status: (Frage) überfällig Status 
Datum: 20:39 Do 11.12.2014
Autor: YuSul

Ja, das sollte soweit ok sein.
Danke für die Auffrischung.

Bezug
                                                                                                
Bezug
Erzeugende Funktion: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 21:26 Do 11.12.2014
Autor: YuSul

Eingabefehler: "{" und "}" müssen immer paarweise auftreten, es wurde aber ein Teil ohne Entsprechung gefunden (siehe rote Markierung)

Leider komme ich bei der Anwendung von dem was du schreibst dennoch nicht weiter.

Brauch ich für $X_1$ und $X_2$ verschiedene Wahrscheinlichkeitsräume? Wie bringe ich das ganze in Mengenschreibweise?

$\{X_1+X_2=n\cap X_2=j\}$

Das ist ja nicht einfach die Menge

$\{\omega\in\Omega|\{X(\omega)=n\}\cap\{X(\omega)=j\}$

Ich weiß, das es keinen Sinn macht. Ich denke ich muss eben für X_1 und X_2 zwei verschiedene Wahrscheinlichkeitsräume nehmen oder dies eben genauer trennen, aber ich weiß nicht so recht wie.

Bezug
                                                                                                        
Bezug
Erzeugende Funktion: Antwort
Status: (Antwort) fertig Status 
Datum: 00:36 Sa 13.12.2014
Autor: Teufel

Das ordentlich zu machen ist ein klein wenig aufwendiger. Ok, also du arbeitest mit 2 Zufallsvariablen [mm] X_1 [/mm] und [mm] X_2 [/mm] mit gegebenen Verteilungen.
Sagen wir [mm] $X_1:\Omega_1\rightarrow \IN_0$ [/mm] und [mm] $X_2:\Omega_2\rightarrow \IN_0$ [/mm] (hierbei sei [mm] p_i [/mm] ein W-Maß auf [mm] \Omega_i). [/mm] Nun machen wir etwas komisches, wir mischen die Zufallsvariablen irgendwie. Das kann man so modellieren:

Wähle [mm] \Omega:=\Omega_1\times\Omega_2 [/mm] mit der Produktwahrscheinlichkeit drauf, d.h. [mm] p(\omega_1,\omega_2)=p_1(\omega_1)p_2(\omega_2). [/mm]

Dann kannst du [mm] X'_1:\Omega\rightarrow\IN_0, X'_1(\omega_1,\omega_2)=X_1(\omega_1) [/mm] und [mm] X'_2:\Omega\rightarrow\IN_0, X'_2(\omega_1,\omega_2)=X_2(\omega_2) [/mm] definieren. Dann haben X'_1 bzw. X'_2 die gleiche Verteilung wie [mm] X_1 [/mm] bzw. [mm] X_2 [/mm] (wieso?). D.h. du kannst [mm] \Omega [/mm] als gemeinsamen Wahrscheinlichkeitsraum nehmen und damit arbeiten. Das Gute daran: Dir kann es jetzt egal sein, wie [mm] \Omega [/mm] genau aussieht und einfach Sachen wie [mm] \{X_1+X_2=n\} [/mm] als [mm] \{\omega\in\Omega| X_1(\omega)+X_2(\omega)=n\} [/mm] hinschreiben.

Bezug
                                                                                                
Bezug
Erzeugende Funktion: Fälligkeit abgelaufen
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 21:20 Sa 13.12.2014
Autor: matux

$MATUXTEXT(ueberfaellige_frage)
Bezug
        
Bezug
Erzeugende Funktion: Editiert
Status: (Antwort) fertig Status 
Datum: 23:27 Do 11.12.2014
Autor: DieAcht

Hallo YuSul,


Ich habe gerade leider nicht genug Zeit um mir den ganzen Thread
durchzulesen, aber ich meine festgestellt zu haben, dass bislang
nur von einer analytischen Lösung ausgegangen wird. Das muss man
hier allerdings nicht unbedingt.

Wir benötigen dazu nur zwei Vorüberlegungen:

1) Die erzeugende Funktion [mm] G_X [/mm] einer [mm] $\IN_0$-wertigen [/mm] Zufallsvariablen [mm] $X\$ [/mm]
ist definiert als die erzeugende Funktion der Verteilung von [mm] $X\$: [/mm]

      [mm] G_X(s)=\sum_{k\in\IN_0}\mathbb{P}(X=k)s^k=\mathbb{E}(s^X),\quad $|s|<1\$. [/mm]

2) Sind die Zufallsvariablen [mm] $X_i\$ [/mm] mit [mm] i\in\IN [/mm] unabhängig, dann sind auch
die Zufallsvariablen [mm] f_i(X_i) [/mm] mit [mm] i\in\IN, [/mm] wobei [mm] f_i [/mm] beliebige Funktionen sind,
unabhängig.

(Die erste Vorüberlegung ist die Definition und diese hattet ihr.
Kannst du die zweite Vorüberlegung auch nachvollziehen?)

Es seien also [mm] $X_1\$ [/mm] und [mm] $X_2\$ [/mm] zwei unabhängige [mm] $\IN_0$-wertige [/mm] Zufallsvariablen.
Dann sind auch die Zufallvariablen [mm] s^{X_1} [/mm] und [mm] s^{X_2} [/mm] unabhängig und wir erhalten

      
      [mm] G_{X_1+X_2}(s)=\mathbb{E}(s^{X_1+X_2})=\mathbb{E}(S^{X_1}*S^{X_2})=\mathbb{E}(s^{X_1})*\mathbb{E}(s^{X_2})=G_{X_1}(s)*G_{X_2}(s) [/mm] für alle [mm] $|s|<1\$. [/mm]


Übrigens folgt auch, dass für zwei Verteilungen [mm] $\mathbb{P}_1\$ [/mm] und [mm] $\mathbb{P}_2\$ [/mm] auf [mm] \IN_0 [/mm] gilt:

      [mm] G_{\mathbb{P}_1\star \mathbb{P}_2}=G_{\mathbb{P}_1}(s)*G_{\mathbb{P}_2}(s) [/mm] für alle [mm] $|s|<1\$. [/mm]

(Die Aussage ist ein Spezialfall der ersten Aussage. Wieso? Für
endlich viele unabhängige Zufallsvariablen kannst du auch einmal
probieren die Aussagen ausformulieren.)


Gruß
DieAcht

Bezug
        
Bezug
Erzeugende Funktion: Antwort
Status: (Antwort) fertig Status 
Datum: 03:48 Fr 12.12.2014
Autor: DieAcht

Hallo YuSul!


> Beweisen Sie folgende Aussage: Seien [mm]X_1, X_2[/mm] stochastisch
> unabhängige [mm]\mathbb{N}_0[/mm]-wertige Zufallsvariablen, dann
> gilt für alle [mm]s\in(-1,1)[/mm]
>  
> [mm]G_{X_1+X_2}(s)=G_{X_1}(s)G_{X_2}(s)[/mm]
>  Hallo,
>  
> ich möchte gerade diese Aufgabe lösen, aber ich komme
> nicht wirklich zurecht.
>
> [mm]G_X(s)[/mm] hatten wir so definiert:
>  
> [mm]G_X(s)=\sum_{k=0}^\infty P(X=k)s^k=E[s^x][/mm]

für alle [mm] $|s|<1\$. [/mm]

Am Ende muss im Exponenten ein großes [mm] $X\$ [/mm] stehen!

(Ist dir eigentlich klar, weshalb wir [mm] $|s|<1\$ [/mm] brauchen?)

> Also
>  
> [mm]G_{X_1+X_2}(s)=\sum_{k=0}^\infty P(X_1+X_2=k)s^k[/mm]

für alle [mm] $|s|<1\$. [/mm]

Hier hätte man in der Regel mit der Definition weiter gemacht:

      [mm] G_{X_1+X_2}(s)=\sum_{k=0}^\infty P(X_1+X_2=k)s^k=E[s^{X_1+X_2}] [/mm] für alle [mm] $|s|<1\$ [/mm]

(Siehe dazu meine andere Antwort hier.)

> Aber nun komme ich leider nicht weiter, da ich nicht weiß
> wie ich diese Summe bzw. [mm]P(X_1+X_2=k)[/mm] "zerlegen" kann.
>  Klar ist, dass diese Reihe konvergiert und ich sie daher
> auch "auseinanderziehen" kann.
> Doch ich weiß nicht wie...

Dazu wurde eigentlich alles gesagt, aber ich will trotzdem meinen
Senf dazugeben, denn man kann das hier eleganter machen.

Faltungssatz: Seien [mm] $X\$ [/mm] und [mm] $Y\$ [/mm] zwei unabhängige [mm] $\IZ$-wertige [/mm] Zufalls-
variablen. Dann ist die Verteilung von [mm] $X+Y\$ [/mm] gleich der Faltung
[mm] $p_X\star p_Y$. [/mm] Demnach gilt:

      [mm] P(X+Y=z)=(p_X\star p_Y)(z) [/mm] für alle [mm] z\in\IZ. [/mm]

[mm] (p_Y [/mm] ist die Verteilungsfunktion von [mm] $X\$ [/mm] und [mm] p_Y [/mm] die Verteilungsfunktion von [mm] $Y\$.) [/mm]

Beweis (Summation über alle möglichen Werte von [mm] $X\$): [/mm]

      [mm] P(X+Y=z)=\sum_{x\in\IZ}P(X=x,Y=z-x)=\sum_{x\in\IZ}P(X=x)*P(Y=z-x)=\sum_{x\in\IZ}p_X(x)*p(y)(z-x)=(p_X\star p_Y)(z) [/mm] für alle [mm] z\in\IZ. [/mm]

Der Beweis dieses Satzes klärt nicht nur deine Fragen bezüglich
der Umstrukturierung der Reihe, sondern lässt den Beweis der zu
zeigende Aussage eleganter erscheinen:

Es seien [mm] $X_1\$ [/mm] und [mm] $X_2\$ [/mm] zwei unabhängige [mm] $\IN_0$-wertige [/mm] Zufallsvariablen.

Zu zeigen:

      [mm] G_{X_1+X_2}(s)=G_{X_1}(s)*G_{X_2}(s) [/mm] für alle [mm] $|s|<1\$. [/mm]

Beweis:

      [mm] G_{X_1}(s)*G_{X_2}(s)=\left(\sum_{k=0}^{\infty}p_{X_1}(k)s^k\right)*\left(\sum_{k=0}^{\infty}p_{X_2}(k)s^k\right)\overset{\text{Faltung}}{=}\sum_{k=0}^{\infty}(p_{X_1}\star p_{X_2})(k)s^k\overset{\text{Faltungssatz}}{=}\sum_{k=0}^{\infty}p_{X_1+X_2}(k)s^k=G_{X_1+X_2}(s) [/mm] für alle [mm] $|s|<1\$. [/mm]

Alles klar?


Eine Sache die mir noch aufgefallen ist:

> [mm] $X_1$ [/mm] und [mm] $X_2$ [/mm] sind ja [mm] $\mathbb{N}_0$-wertig. [/mm] Also [mm] $X_1, X_2\in\mathbb{N_0}$ [/mm]

Zufallsvariablen sind Abbildungen, so dass dein Ende falsch ist!
In diesem Fall sind [mm] $X_1\$ [/mm] und [mm] $X_2\$ $\IN_0$-wertige [/mm] Zufallsvariablen. Also

      [mm] X_i\colon\Omega\to\IN_0 [/mm] für [mm] i\in\{1,2\}. [/mm]

Du kannst zum Beispiel

      [mm] X_i\in\Omega^{\IN} [/mm] für [mm] i\in\{1,2\} [/mm] (Ist dir das klar?)

schreiben, aber nicht

      [mm] X_i\in\IN_0 [/mm] für [mm] i\in\{1,2\}. [/mm]


Gruß
DieAcht

Bezug
                
Bezug
Erzeugende Funktion: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 01:34 Sa 13.12.2014
Autor: YuSul

Wir brauchen $|s|<1$ damit die Reihe konvergiert. (Geometrische Reihe)
[mm] $P(X_1+X_2=k)$ [/mm] nimmt ja Werte in [0,1] an.

Stimmt, die Faltung von zwei Zufallsvariablen hatten wir bestimmt.

Seien [mm] $X_1, X_2 [/mm] : [mm] \Omega \to \mathbb{Z}$ [/mm] unabhängige diskrete Zufallsvariablen mit Wahrscheinlichkeitsgewichten
$p1, p2 : [mm] \mathbb{Z} \mapsto [/mm] [0, 1]$.

Dann hat die Zufallsvariable [mm] $X_1+X_2:\Omega\to\mathbb{Z}$ [/mm] die Gewichte:

[mm] $p:\mathbb{Z}\to[0,\infty)$ [/mm]

[mm] $n\mapsto \sum_{m\in\mathbb{Z}} p_1(n-m)p_2(m)$ [/mm]

Kann ich das hier verwenden?



Bezug
                        
Bezug
Erzeugende Funktion: Antwort
Status: (Antwort) fertig Status 
Datum: 23:45 So 14.12.2014
Autor: DieAcht


> Wir brauchen [mm]|s|<1[/mm] damit die Reihe konvergiert.
> (Geometrische Reihe)
>  [mm]P(X_1+X_2=k)[/mm] nimmt ja Werte in [0,1] an.

Richtig.

> Stimmt, die Faltung von zwei Zufallsvariablen hatten wir
> bestimmt.

Dann sollte alles klar sein.

> Seien [mm]X_1, X_2 : \Omega \to \mathbb{Z}[/mm] unabhängige
> diskrete Zufallsvariablen mit Wahrscheinlichkeitsgewichten
>  [mm]p1, p2 : \mathbb{Z} \mapsto [0, 1][/mm].
>  
> Dann hat die Zufallsvariable [mm]X_1+X_2:\Omega\to\mathbb{Z}[/mm]
> die Gewichte:
>  
> [mm]p:\mathbb{Z}\to[0,\infty)[/mm]
>  
> [mm]n\mapsto \sum_{m\in\mathbb{Z}} p_1(n-m)p_2(m)[/mm]
>  
> Kann ich das hier verwenden?

Was willst du denn damit? Unsere Zufallsvariablen sind nicht
einmal diskret! Wir benötigen für den analytischen Beweis nur
die Faltung bzw. den Faltungssatz und dieser folgt sofort mit
der Definition der Faltung.

Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Stochastik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.matheforum.net
[ Startseite | Forum | Wissen | Kurse | Mitglieder | Team | Impressum ]