Erwartungswert Binomialvt. < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 11:05 Mi 24.11.2010 | Autor: | janisE |
Aufgabe 1 | Zufallsvariable X sei binomialverteilt mit [mm] $n\in \mathbb{N}, [/mm] p [mm] \in [/mm] (0,1)$. Bestimmen Sie E(X). |
Aufgabe 2 | Sei X nun negativ binomialverteilt mit gegebenen Parametern. Zeigen Sie
$E(X) = n [mm] \cdot \frac{1-p}{p}$
[/mm]
Definition: EIne ZV X heißt negativ binomialverteilt mit Parametern $n [mm] \in [/mm] N$ und $p [mm] \in [/mm] (0,1)$ wenn gilt:
$P(X=k) = [mm] \binom{-n}{k} p^n(p-1)^k [/mm] = [mm] \binom{k+n-1}{k} p^n(1-p)^k, \; [/mm] k [mm] \in \mathbb{N}_0$ [/mm] |
Hallo!
Ich bin neu hier und hoffe, dass ihr mir weiterhelfen könnt.
Was ich bisher habe:
1)
Da p fest gilt [mm] $E(X_i) [/mm] = [mm] E(X_j) \forall [/mm] i,j [mm] \in \{1,\cdots,n\} \Rightarrow [/mm] E(X) = [mm] E(X_1 [/mm] + [mm] \cdots [/mm] + [mm] X_n) [/mm] = [mm] E(X_1) [/mm] + [mm] \cdots [/mm] + [mm] E(X_n) [/mm] = n [mm] \cdot E(X_1) [/mm] = np$.
Ist das so richtig?
2)
Hier wird es jetzt schwierig(er). Die negative Binomialverteilung haben wir nicht inder VL durchgenommen, und auch "googeln" hat mich nicht viel weiter gebracht - zumal wir eine andere Definition als viele Andere zu verwenden scheinen.
Könnt ihr mir hier wohl bitte etwas auf die Sprünge helfen? Ich habe versucht anzufangen, aber bin nicht einmal sicher worüber ich jetzt summieren muss. Grundsätzlich habe ich mir angelesen worum es geht (Bei "unserer" Definition: Anzahl der k Misserfolge bis zum Eintreten des n-ten Erfolges).
Ich habe diese Frage in keinem Forum auf anderen Internetseiten gestellt.
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 20:51 Mi 24.11.2010 | Autor: | luis52 |
Moin janisE
>
> Hallo!
>
> Ich bin neu hier und hoffe, dass ihr mir weiterhelfen
> könnt.
>
> Was ich bisher habe:
>
> 1)
>
> Da p fest gilt [mm]E(X_i) = E(X_j) \forall i,j \in \{1,\cdots,n\} \Rightarrow E(X) = E(X_1 + \cdots + X_n) = E(X_1) + \cdots + E(X_n) = n \cdot E(X_1) = np[/mm].
>
> Ist das so richtig?
Vielleicht. Du muesstest nur verraten was [mm] $X_i$ [/mm] ist. Und anscheinend nutzt du aus, dass [mm] $X_1+\dots+X_n$ [/mm] binomialverteilt ist. Kannst du das?
>
> 2)
>
> Hier wird es jetzt schwierig(er). Die negative
> Binomialverteilung haben wir nicht inder VL durchgenommen,
> und auch "googeln" hat mich nicht viel weiter gebracht -
> zumal wir eine andere Definition als viele Andere zu
> verwenden scheinen.
>
> Könnt ihr mir hier wohl bitte etwas auf die Sprünge
> helfen? Ich habe versucht anzufangen, aber bin nicht einmal
> sicher worüber ich jetzt summieren muss. Grundsätzlich
> habe ich mir angelesen worum es geht (Bei "unserer"
> Definition: Anzahl der k Misserfolge bis zum Eintreten des
> n-ten Erfolges).
Worauf kannst du zurueckgreifen? Auf die Technik der momenterzeugenden Funktion?
vg Luis
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 21:23 Mi 24.11.2010 | Autor: | janisE |
> Moin janisE
>
>
Danke!
> > 1)
> >
> > Da p fest gilt [mm]E(X_i) = E(X_j) \forall i,j \in \{1,\cdots,n\} \Rightarrow E(X) = E(X_1 + \cdots + X_n) = E(X_1) + \cdots + E(X_n) = n \cdot E(X_1) = np[/mm].
>
> >
> > Ist das so richtig?
>
> Vielleicht. Du muesstest nur verraten was [mm]X_i[/mm] ist. Und
> anscheinend nutzt du aus, dass [mm]X_1+\dots+X_n[/mm]
> binomialverteilt ist. Kannst du das?
Nun ja, die Binomialverteilung beschreibt eine Serie von Bernoulli Experimenten (d.h. unabhängig, gleiche Wahrscheinlichkeit und boolescher-Ausgang). Mit [mm] $X_i$ [/mm] habe ich die einzelnen Teilexperimente bezeichnet. Diese haben gemäßg Definition einen Erwartungswert von p. Da sie unabhängig sind, kann man sie alle addieren. Da genau n davon durchgeführt werden, wird der gesamte Erwartungswert als $n [mm] \cdot [/mm] p$ zusammengefasst.
Das beschreibt wenigstens mein Verständnis davon, ist das richtig so?
> > 2)
> Worauf kannst du zurueckgreifen? Auf die Technik der
> momenterzeugenden Funktion?
Das sagt mir leider überhaupt nichts. Ich bin jetzt in der 5. Woche meiner didaktisch weniger gelungenen Stochastikvorlesung. Wir haben über die Verteilungen, Unabhängigkeit, Zufallsvariablen und Dichte(-funktionen) gesprochen.
Gibt es andere Techniken die mir helfen könnten?
Ich habe mir versucht im Netz andere Definitionen des Erwartungswertes anzusehen, aber die führen auf das Lebesgue Integral hinaus, und das hatte ich ebenfalls noch nicht...
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 21:49 Mi 24.11.2010 | Autor: | luis52 |
> > Moin janisE
> >
> >
>
> Danke!
>
>
> > > 1)
> > >
> > > Da p fest gilt [mm]E(X_i) = E(X_j) \forall i,j \in \{1,\cdots,n\} \Rightarrow E(X) = E(X_1 + \cdots + X_n) = E(X_1) + \cdots + E(X_n) = n \cdot E(X_1) = np[/mm].
>
> >
> > >
> > > Ist das so richtig?
> >
> > Vielleicht. Du muesstest nur verraten was [mm]X_i[/mm] ist. Und
> > anscheinend nutzt du aus, dass [mm]X_1+\dots+X_n[/mm]
> > binomialverteilt ist. Kannst du das?
>
> Nun ja, die Binomialverteilung beschreibt eine Serie von
> Bernoulli Experimenten (d.h. unabhängig, gleiche
> Wahrscheinlichkeit und boolescher-Ausgang). Mit [mm]X_i[/mm] habe
> ich die einzelnen Teilexperimente bezeichnet. Diese haben
> gemäßg Definition einen Erwartungswert von p. Da sie
> unabhängig sind, kann man sie alle addieren. Da genau n
> davon durchgeführt werden, wird der gesamte Erwartungswert
> als [mm]n \cdot p[/mm] zusammengefasst.
>
> Das beschreibt wenigstens mein Verständnis davon, ist das
> richtig so?
Schon gut, schon gut, wollte nur mal sehen. Man kann ja nie wissen.
>
>
> > > 2)
> > Worauf kannst du zurueckgreifen? Auf die Technik der
> > momenterzeugenden Funktion?
>
> Das sagt mir leider überhaupt nichts. Ich bin jetzt in der
> 5. Woche meiner didaktisch weniger gelungenen
> Stochastikvorlesung. Wir haben über die Verteilungen,
> Unabhängigkeit, Zufallsvariablen und Dichte(-funktionen)
> gesprochen.
>
> Gibt es andere Techniken die mir helfen könnten?
Oh ja.
>
> Ich habe mir versucht im Netz andere Definitionen des
> Erwartungswertes anzusehen, aber die führen auf das
> Lebesgue Integral hinaus, und das hatte ich ebenfalls noch
> nicht...
>
Ich fuerchte, es wird haarig, wenn du
$E[X] = [mm] \sum_{k=0}^\infty k\binom{k+n-1}{k} p^n(1-p)^k$
[/mm]
zu Fuss berechnen willst.
Alternative: Argumentiere analog zu oben und zeige, dass
[mm] $X=X_1+\dots+X_n$ [/mm] eine Summe von $n_$ unabhaegigen geometrisch
verteilten Zufallsvariablen ist. Der Nachweis von [mm] $E[X_i]=(1-p)/p$ [/mm] ist
poplig.
Ansonsten google mal pascal distribution expectation.
vg Luis
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 22:47 Mi 24.11.2010 | Autor: | janisE |
> Ich fuerchte, es wird haarig, wenn du
>
> [mm]E[X] = \sum_{k=0}^\infty k\binom{k+n-1}{k} p^n(1-p)^k[/mm]
>
> zu Fuss berechnen willst.
Da hast du wohl Recht ;)
> Alternative: Argumentiere analog zu oben und zeige, dass
> [mm]X=X_1+\dots+X_n[/mm] eine Summe von [mm]n_[/mm] unabhaegigen
> geometrisch
> verteilten Zufallsvariablen ist.
Hmm, inwieweit muss (und kann) ich hier argumentieren? Das sie Unabhängig sind ist doch die Bedingung, um diese Verteilung einsetzen zu können (nämlich, dass es sich um ein Bernoulli System handelt, oder?)
> Der Nachweis von
> [mm]E[X_i]=(1-p)/p[/mm] ist
> poplig.
Aber daran genau scheitert es (bei mir) doch, oder? Kannst du mir bitte sagen, wie du diesen Schritt machst?
> Ansonsten google mal pascal distribution expectation.
Sogar das habe ich schon versucht. Aber leider nur den Erwartungswert gefunden - ohne Herleitung.
Vielen Dank und Grüße, Janis
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 23:00 Mi 24.11.2010 | Autor: | Blech |
Hi,
so wie Du's beschrieben hast, weißt Du doch nix über die negative Binomialverteilung, außer daß sie die angegebene Zähldichte hat.
Luis meinte jetzt, daß Du zeigen sollst, daß die Summe von n unabhängig geometrisch verteilten Zufallsvariablen auch genau diese Zähldichte hat. Dann kannst Du den Erwartungswert einer geometrisch verteilten ZV berechnen und der der negativ binomialverteilten ist dann genau das n-fache davon.
> Aber daran genau scheitert es (bei mir) doch, oder? Kannst du mir bitte sagen, wie du diesen Schritt machst?
Nein, Du scheiterst an E(X)= n(1-p)/p
Wenn Du zeigen kannst, daß [mm] $X_1+\ldots+X_n$ [/mm] die gleiche Verteilung haben, dann mußt Du nur zeigen, daß [mm] $E(X_i)=(1-p)/p$, [/mm] was einfach ist.
Schau Dir mal auf Wikipedia den Eintrag zur geometrischen Vtlg an.
ciao
Stefan
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 05:49 Do 25.11.2010 | Autor: | janisE |
> Hi,
>
> so wie Du's beschrieben hast, weißt Du doch nix über die
> negative Binomialverteilung, außer daß sie die angegebene
> Zähldichte hat.
>
>
> Luis meinte jetzt, daß Du zeigen sollst, daß die Summe
> von n unabhängig geometrisch verteilten Zufallsvariablen
> auch genau diese Zähldichte hat. Dann kannst Du den
> Erwartungswert einer geometrisch verteilten ZV berechnen
> und der der negativ binomialverteilten ist dann genau das
> n-fache davon.
>
>
> > Aber daran genau scheitert es (bei mir) doch, oder? Kannst
> du mir bitte sagen, wie du diesen Schritt machst?
>
>
> Nein, Du scheiterst an E(X)= n(1-p)/p
>
> Wenn Du zeigen kannst, daß [mm]X_1+\ldots+X_n[/mm] die gleiche
> Verteilung haben, dann mußt Du nur zeigen, daß
> [mm]E(X_i)=(1-p)/p[/mm], was einfach ist.
>
> Schau Dir mal auf Wikipedia den Eintrag zur geometrischen
> Vtlg an.
Jetzt verstehe ich auch, worauf ihr hinauswolltet. Anhand der Definitionen ist mir klar geworden, dass die negative Binomialverteilung eine n-fache Geometrische Verteilung ist. Ist es das, was du meintest? Den Erwartungswert eine geometrischen ZV kann ich auch berechnen.
Also ist es [mm] $\sum\limits_{i=1}^n p(1-p)^k [/mm] = [mm] \binom{k+n-1}{k} p^n (1-p)^k$ [/mm] was ich zeigen soll? Das bekomme ich allerdings nicht vernünftig aufgelöst. Oder bekomme ich jetzt die Begrifflichkeiten durcheinander und bin auf dem Holzweg?
Danke für eure Geduld!
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 07:27 Do 25.11.2010 | Autor: | luis52 |
> Jetzt verstehe ich auch, worauf ihr hinauswolltet. Anhand
> der Definitionen ist mir klar geworden, dass die negative
> Binomialverteilung eine n-fache Geometrische Verteilung
> ist. Ist es das, was du meintest?
Ja.
> Den Erwartungswert eine
> geometrischen ZV kann ich auch berechnen.
Prima.
>
> Also ist es [mm]\sum\limits_{i=1}^n p(1-p)^k = \binom{k+n-1}{k} p^n (1-p)^k[/mm] was ich zeigen soll? Das bekomme ich allerdings nicht
> vernünftig aufgelöst.
Das wird dir nicht gelingen, denn es ist falsch.
Mir ist noch eine weitere Moeglichkeit eingefallen. Vielleicht kanst du durch vollstaendige Induktion zeigen, dass die Summe negativ binomialverteilt ist. Kennst du den Faltungssatz?
vg Luis
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 18:53 Do 25.11.2010 | Autor: | janisE |
> > Jetzt verstehe ich auch, worauf ihr hinauswolltet. Anhand
> > der Definitionen ist mir klar geworden, dass die negative
> > Binomialverteilung eine n-fache Geometrische Verteilung
> > ist. Ist es das, was du meintest?
>
> Ja.
>
> > Den Erwartungswert eine
> > geometrischen ZV kann ich auch berechnen.
>
> Prima.
>
> >
> > Also ist es [mm]\sum\limits_{i=1}^n p(1-p)^k = \binom{k+n-1}{k} p^n (1-p)^k[/mm]
> was ich zeigen soll? Das bekomme ich allerdings nicht
> > vernünftig aufgelöst.
>
> Das wird dir nicht gelingen, denn es ist falsch.
Das habe ich mir gedacht.
Also, ich versuche mich mal weiter:
Nach meinem Verständnis ist eben gemäß der Definition ([mm]n = 1 \Rightarrow [/mm] geometrisch verteilt) [mm] E(X_1) = \frac{1}{p}[/mm] . Da aber gilt $X = [mm] X_1 [/mm] + [mm] \cdots [/mm] + [mm] X_n \sim b_{n,p}$ [/mm] komme ich hier nicht weiter. Ich habe also meine unabhängigen Bernoulli-Zufallsvariablen, kenne [mm] $X_1$ [/mm] und suche X.
Bin ich auf dem richtigen Weg?
> Mir ist noch eine weitere Moeglichkeit eingefallen.
> Vielleicht kanst du durch vollstaendige Induktion zeigen,
> dass die Summe negativ binomialverteilt ist. Kennst du den
> Faltungssatz?
Das sagt mir leider nichts. Ich habe zwar die Definition ansatzweise verstanden, aber ich fürchte eben doch nicht soweit, dass ich damit im Moment etwas anfangen könnte.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 20:05 Do 25.11.2010 | Autor: | luis52 |
Moin,
folge dem Rat von Felix und versuche, die Gleichung [mm] $\sum_{k=0}^\infty k\binom{k+n-1}{k} p^n(1-p)^k=\frac{n(1-p)}{p} [/mm] $ durch vollstaendige Induktion zu beweisen. Es sieht so aus, als ob du die Aufgabe so am leichtesten mit "Bordmitteln" loesen kannst.
vg Luis
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 22:28 Do 25.11.2010 | Autor: | janisE |
> Moin,
>
> folge dem Rat von Felix und versuche, die Gleichung
> [mm]\sum_{k=0}^\infty k\binom{k+n-1}{k} p^n(1-p)^k=\frac{n(1-p)}{p}[/mm]
> durch vollstaendige Induktion zu beweisen. Es sieht so aus,
> als ob du die Aufgabe so am leichtesten mit "Bordmitteln"
> loesen kannst.
>
> vg Luis
>
mich irritiert dabei das [mm] $\infty$. [/mm] Mir ist nicht klar über was für einen Parameter ich die Induktion aufziehen soll. k macht keinen Sinn - n aber scheinbar genauso wenig, oder?
Könnt ihr mir bitte den Hinweis geben, wie der Induktionsanfang auszusehen hat?
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 00:52 Fr 26.11.2010 | Autor: | felixf |
Moin!
> > folge dem Rat von Felix und versuche, die Gleichung
> > [mm]\sum_{k=0}^\infty k\binom{k+n-1}{k} p^n(1-p)^k=\frac{n(1-p)}{p}[/mm]
> > durch vollstaendige Induktion zu beweisen. Es sieht so aus,
> > als ob du die Aufgabe so am leichtesten mit "Bordmitteln"
> > loesen kannst.
> >
> > vg Luis
> >
>
> mich irritiert dabei das [mm]\infty[/mm]. Mir ist nicht klar über
> was für einen Parameter ich die Induktion aufziehen soll.
> k macht keinen Sinn - n aber scheinbar genauso wenig,
> oder?
Warum sollte $n$ keinen Sinn machen?
Ich hab das per Induktion nach $n$ zeigen koennen...
> Könnt ihr mir bitte den Hinweis geben, wie der
> Induktionsanfang auszusehen hat?
Der Anfang ist $n = 1$.
(In dem Fall sollte dir die Verteilung auch bekannt vorkommen.)
LG Felix
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 09:05 Fr 26.11.2010 | Autor: | janisE |
> Moin!
>
> > > folge dem Rat von Felix und versuche, die Gleichung
> > > [mm]\sum_{k=0}^\infty k\binom{k+n-1}{k} p^n(1-p)^k=\frac{n(1-p)}{p}[/mm]
> > > durch vollstaendige Induktion zu beweisen. Es sieht so aus,
> > > als ob du die Aufgabe so am leichtesten mit "Bordmitteln"
> > > loesen kannst.
> > >
> > > vg Luis
> > >
> >
> > mich irritiert dabei das [mm]\infty[/mm]. Mir ist nicht klar über
> > was für einen Parameter ich die Induktion aufziehen soll.
> > k macht keinen Sinn - n aber scheinbar genauso wenig,
> > oder?
>
> Warum sollte [mm]n[/mm] keinen Sinn machen?
>
> Ich hab das per Induktion nach [mm]n[/mm] zeigen koennen...
>
> > Könnt ihr mir bitte den Hinweis geben, wie der
> > Induktionsanfang auszusehen hat?
>
> Der Anfang ist [mm]n = 1[/mm].
>
> (In dem Fall sollte dir die Verteilung auch bekannt
> vorkommen.)
>
> LG Felix
>
Wie gesagt, mir macht das [mm] $\infty$ [/mm] zu schaffen:
Sei n = 1. Dann ist
[mm] $\sum_{k=0}^\infty \binom{k}{k} [/mm] p [mm] \cdot (1-p)^k [/mm] = [mm] \sum_{k=0}^\infty [/mm] p [mm] \cdot (1-p)^k \underbrace{=}_{\text{???}} \frac{(1-p)}{p}$ [/mm]
Normalerweise hab ich mit vollständiger Induktion wenig Probleme. Aber ich habe keine Ahnung, wie ichi das [mm] $\infty$ [/mm] auflösen, und dann den rechten Termin zeigen soll.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 12:03 Fr 26.11.2010 | Autor: | luis52 |
> Normalerweise hab ich mit vollständiger Induktion wenig
> Probleme. Aber ich habe keine Ahnung, wie ichi das [mm]\infty[/mm]
> auflösen, und dann den rechten Termin zeigen soll.
Kannst du mit dem Begriff der geometrischen Reihe etwas anfangen?
vg Luis
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 16:47 Di 30.11.2010 | Autor: | janisE |
Tut mir leid für die späte Reaktion - mich hat die Grippewelle schwer erwischt.
Das mit dem geometrischen Reihe werde ich mir einmal anschauen - guter Ansatz, danke!
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 00:32 Sa 27.11.2010 | Autor: | felixf |
Moin!
> Wie gesagt, mir macht das [mm]\infty[/mm] zu schaffen:
Das solltest du doch aus der Analysis I kennen?
> Sei n = 1. Dann ist
>
> [mm]\sum_{k=0}^\infty \binom{k}{k} p \cdot (1-p)^k = \sum_{k=0}^\infty p \cdot (1-p)^k \underbrace{=}_{\text{???}} \frac{(1-p)}{p}[/mm]
Zusaetzlich zu dem, was Luis schreibt: du wirfst hier verschiedene Formeln durcheinander! Das letzte Gleichheitszeichen (mit den drei Fragezeichen) ist z.B. Quark, die Reihe ergibt naemlich 1.
LG Felix
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 07:52 Do 25.11.2010 | Autor: | felixf |
Moin Luis,
> Ich fuerchte, es wird haarig, wenn du
>
> [mm]E[X] = \sum_{k=0}^\infty k\binom{k+n-1}{k} p^n(1-p)^k[/mm]
>
> zu Fuss berechnen willst.
so schlimm ist das gar nicht Man muss beim Induktionsschluss einen kleinen Trick benutzen.
Das mit den geometrischen Verteilungen ist aber vermutlich eleganter :) Ob es allerdings kuerzer ist, da bin ich mir nicht so sicher...
LG Felix
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 08:50 Do 25.11.2010 | Autor: | felixf |
Moin Luis,
> das hoert sich vielversprechend an. Ich hatte auch schon
> an die Verwendung von
> Newton's generalized binomial theorem
> gedacht, indem man einmal nach [mm]x_[/mm] ableitet. Dafuer braucht
> man aber Kenntnisse ueber Potenzreihen. Also vermute ich,
> dass in der Tat dein Weg einfacher ist.
nun, wenn man mit momenterzeugenden Funktionen arbeiten will, kommt man um Potenzreihen auch nicht wirklich herum :)
Und Janis gibt ja an, Mathematik zu studieren, wird also vermutlich bereits Potenzreihen in der Analysis kennengelernt haben.
> > Das mit den geometrischen Verteilungen ist aber vermutlich
> > eleganter :) Ob es allerdings kuerzer ist, da bin ich mir
> > nicht so sicher...
>
> Es laesst sich in einem Jiffy erledigen, wenn sie etwas
> ueber momemterzeugende Funktionen gehoert haette.
Ja. Das kommt allerdings nicht immer in Stochastik-Vorlesungen vor. In der Einfuehrungsvorlesung, die ich gehoert hab, kam es nicht dran, erst spaeter in einer Spezialvorlesung.
LG Felix
|
|
|
|