Poissonprozess < Wahrscheinlichkeitstheorie < Stochastik < Hochschule < Mathe < Vorhilfe
|
Guten Tag
Ich untersuche folgendes Problem: [mm]Z_i [/mm] i.i.d. und zwar normalverteilt mit Erwartungswert [mm] \mu[/mm] und Varianz [mm]\sigma^2 [/mm]. Weiter sei [mm]N_t [/mm] ein Poissonprozess. Ich betrachte nun
[mm] E[\sum_{i=1}^{N_t} Z_i | N_t=n] [/mm]
Dabei habe ich folgendes gemacht:
[mm] E[\sum_{i=1}^{N_t} Z_i | N_t=n]=\frac{E[\sum_{i=1}^{N_t} Z_i \mathbf1_{\{N_t=n\}}]}{P[N_t=n]}\mathbf1_{\{N_t=n\}} =\sum_{i=1}^{n} Z_i \frac{E[\mathbf1_{\{N_t=n\}}]}{P[N_t=n]}\mathbf1_{\{N_t=n\}}=1_{\{N_t=n\}}\sum_{i=1}^{n} Z_i \mathbf[/mm]
Da die [mm] Z_i[/mm] i.i.d sind, kann ich nun sagen, dass bedingt auf [mm]N_t=n[/mm], normalverteilt mit Erwartungswert [mm]n\mu[/mm] und Varianz [mm]n\sigma^2[/mm] sind?
Liebe Grüsse
marianne
|
|
|
|
Hiho,
eu nutzt während deiner Umformung die (nicht angegebene!) Unabhängigkeit von [mm] N_t [/mm] zu den [mm] $Z_i$.
[/mm]
Ist das gegeben oder nicht?
MFG,
Gono.
|
|
|
|
|
Guten Tag Gonozal
Ja, wir können annehmen, dass diese Grössen unabhängig sind. Mir fällt aber gerade auf, dass die Formel doch nicht stimmt, oder sehe ich das falsch?:
[mm] E[\sum_{i=1}^nZ_i \mathbf1_{\{N_t=N\}}]=E[\sum_{i=1}^nZ_i] E[\mathbf1_{\{N_t=N\}}][/mm]
wobei ich zuerst die Unabhängigkeit verwendet habe. Allerdings habe ich vergessen den Erwartungswert auch über die Summe zu bilden, oder?
|
|
|
|
|
Hallo marianne,
> Guten Tag Gonozal
>
> Ja, wir können annehmen, dass diese Grössen unabhängig
> sind. Mir fällt aber gerade auf, dass die Formel doch
> nicht stimmt, oder sehe ich das falsch?:
>
> [mm]E[\sum_{i=1}^nZ_i \mathbf1_{\{N_t=N\}}]=E[\sum_{i=1}^nZ_i] E[\mathbf1_{\{N_t=N\}}][/mm]
>
> wobei ich zuerst die Unabhängigkeit verwendet habe.
> Allerdings habe ich vergessen den Erwartungswert auch über
> die Summe zu bilden, oder?
Ja.
Ich sehe aber sowieso nicht, wie du auf das erste Gleichheitszeichen deiner Formel aus deinem ersten Post kommst.
Wenn Z, [mm] N_t [/mm] unabhängig sind, so gilt
[mm] $E[\sum_{i=1}^{N_t}Z_i|N_t [/mm] = n] = [mm] E[\sum_{i=1}^{n}Z_i] [/mm] = n [mm] \cdot E[Z_i]$ [/mm] und somit [mm] $E[\sum_{i=1}^{N_t}Z_i|N_t] [/mm] = [mm] N_t \cdot E[Z_1]$.
[/mm]
Nur durch Berechnung des bedingten Erwartungswertes wirst du aber nicht sagen können, welche Verteilung [mm] $\sum_{i=1}^{N_t}Z_i|N_t$ [/mm] besitzt.
Viele Grüße,
Stefan
|
|
|
|
|
Guten Abend steppenhahn und Gonozal
Die erste Gleichung kommt von dem Theorem über bedingte Erwartung, wenn du dein Wahrscheinlichkeitsraum in eine disjunkte Teilmenge zerlegen kannst.
Leider habe ich einen Denkfehler begangen. Die Frage ist eigentlich folgende: Sei [mm]V(T)=V(t)e^{\sigma (W_T-W_t)+(\mu-\frac{1}{2}\sigma^2)(T-t)} [/mm], wobei [mm]W [/mm] eine Brownsche Bewegung ist und [mm]V [/mm] somit eine geometrische Brownsche Bewegung, [mm] dV=V(\mu dt +\sigam dW)[/mm] mit Konstanten [mm]\sigma,\mu [/mm]. Nun modifiziere ich das ganze, indemm ich Sprünge hinzufüge, es gilt dann [mm]\log(V(T))= \log(V(t)) + {\sigma (W_T-W_t)+(\mu-\frac{1}{2}\sigma^2)(T-t)}+\sum_{i=N(t)+1}^{N(T)}Z_i[/mm]. Die [mm]Z_i [/mm] sind iid und normalverteilt mit Erwartungswert [mm]m[/mm] und Varianz [mm]\rho^2[/mm]. Wir können annehmen, dass [mm]W,N,Z_i[/mm] alle paarweise unabhängig sind.
Wie bereits geschrieben habe ich einen fürchterlichen Denkfehler begangen! Ich dachte, dass die eigentliche Frage sich auf die von mir gestellte reduziert. Es wird behauptet, dass die Verteilung von [mm]\log(V(T))[/mm] gegeben [mm]\mathcal{F}_t\wedge N(T)-N(t)=n[/mm], normalverteilt mit Erwartungswert [mm]\log(V(t)) +nm + (\mu-\frac{\sigma^2}{2})(T-t)[/mm] und Varianz [mm]n\rho^2+\sigma^2(T-t)[/mm]. Wir nennen diese Zufallsvariable [mm] X[/mm], i.e. [mm]X:=E[\log(V(T))|\mathcal{F}_t,N(T)-N(t)=n][/mm].
Dabei habe ich wie folgt begonnen:
[mm]X=E[ \log(V(t)) + {\sigma (W_T-W_t)+(\mu-\frac{1}{2}\sigma^2)(T-t)}+\sum_{i=N(t)+1}^{N(T)}Z_i|\mathcal{F}_t,N(T)-N(t)=n][/mm]
unter der Verwendung der Unabhängigkeit und Messbarkeiten, ergibt dies:
[mm] \log(V(t)) + \sigma E[(W_T-W_t)]+(\mu-\frac{1}{2}\sigma^2)(T-t)}+E[\sum_{i=N(t)+1}^{N(T)}Z_i|\mathcal{F}_t,N(T)-N(t)=n] [/mm]
Dies ist wiederum
[mm] \log(V(t))+(\mu-\frac{1}{2}\sigma^2)(T-t)}+E[\sum_{i=N(t)+1}^{N(T)}Z_i|\mathcal{F}_t,N(T)-N(t)=n] [/mm]
Jetzt bin ich mir nicht ganz sicher bei der letzten bedingten Erwartung: Ich hätte gedacht, da sie Unabhängig sind, ergibt dies:
[mm] \log(V(t))+(\mu-\frac{1}{2}\sigma^2)(T-t)}+E[\sum_{i=1}^{n}Z_i]=\log(V(t))+(\mu-\frac{1}{2}\sigma^2)(T-t)}+nm [/mm]
Dies ist zwar normalverteilt, aber der Erwartungswert stimmt nicht. Wo liegt mein Fehler?
Herzlichen Dank für eure Hilfe,
Liebe Grüsse
marianne
|
|
|
|
|
Hallo Marianne,
> Guten Abend steppenhahn und Gonozal
>
> Die erste Gleichung kommt von dem Theorem über bedingte
> Erwartung, wenn du dein Wahrscheinlichkeitsraum in eine
> disjunkte Teilmenge zerlegen kannst.
>
> Leider habe ich einen Denkfehler begangen. Die Frage ist
> eigentlich folgende: Sei [mm]V(T)=V(t)e^{\sigma (W_T-W_t)+(\mu-\frac{1}{2}\sigma^2)(T-t)} [/mm],
> wobei [mm]W[/mm] eine Brownsche Bewegung ist und [mm]V[/mm] somit eine
> geometrische Brownsche Bewegung, [mm]dV=V(\mu dt +\sigam dW)[/mm]
> mit Konstanten [mm]\sigma,\mu [/mm]. Nun modifiziere ich das ganze,
> indemm ich Sprünge hinzufüge, es gilt dann [mm]\log(V(T))= \log(V(t)) + {\sigma (W_T-W_t)+(\mu-\frac{1}{2}\sigma^2)(T-t)}+\sum_{i=N(t)+1}^{N(T)}Z_i[/mm].
> Die [mm]Z_i[/mm] sind iid und normalverteilt mit Erwartungswert [mm]m[/mm]
> und Varianz [mm]\rho^2[/mm]. Wir können annehmen, dass [mm]W,N,Z_i[/mm] alle
> paarweise unabhängig sind.
>
> Wie bereits geschrieben habe ich einen fürchterlichen
> Denkfehler begangen! Ich dachte, dass die eigentliche Frage
> sich auf die von mir gestellte reduziert. Es wird
> behauptet, dass die Verteilung von [mm]\log(V(T))[/mm] gegeben
> [mm]\mathcal{F}_t\wedge N(T)-N(t)=n[/mm], normalverteilt mit
> Erwartungswert [mm]\log(V(t)) +nm + (\mu-\frac{\sigma^2}{2})(T-t)[/mm]
> und Varianz [mm]n\rho^2+\sigma^2(T-t)[/mm].
Das möchtest du also am Ende herausbekommen?
> Wir nennen diese
> Zufallsvariable [mm]X[/mm], i.e.
> [mm]X:=E[\log(V(T))|\mathcal{F}_t,N(T)-N(t)=n][/mm].
>
> Dabei habe ich wie folgt begonnen:
>
> [mm]X=E[ \log(V(t)) + {\sigma (W_T-W_t)+(\mu-\frac{1}{2}\sigma^2)(T-t)}+\sum_{i=N(t)+1}^{N(T)}Z_i|\mathcal{F}_t,N(T)-N(t)=n][/mm]
>
> unter der Verwendung der Unabhängigkeit und Messbarkeiten,
> ergibt dies:
> [mm]\log(V(t)) + \sigma E[(W_T-W_t)]+(\mu-\frac{1}{2}\sigma^2)(T-t)}+E[\sum_{i=N(t)+1}^{N(T)}Z_i|\mathcal{F}_t,N(T)-N(t)=n][/mm]
>
> Dies ist wiederum
>
> [mm]\log(V(t))+(\mu-\frac{1}{2}\sigma^2)(T-t)}+E[\sum_{i=N(t)+1}^{N(T)}Z_i|\mathcal{F}_t,N(T)-N(t)=n][/mm]
>
> Jetzt bin ich mir nicht ganz sicher bei der letzten
> bedingten Erwartung: Ich hätte gedacht, da sie Unabhängig
> sind, ergibt dies:
>
> [mm]\log(V(t))+(\mu-\frac{1}{2}\sigma^2)(T-t)}+E[\sum_{i=1}^{n}Z_i]=\log(V(t))+(\mu-\frac{1}{2}\sigma^2)(T-t)}+nm[/mm]
>
> Dies ist zwar normalverteilt, aber der Erwartungswert
> stimmt nicht. Wo liegt mein Fehler?
Ich sehe dein Problem noch nicht. Es kommt doch genau raus, was du wolltest? Und in deiner Rechnung sehe ich keinen Fehler?
Viele Grüße,
Stefan
|
|
|
|
|
Guten Moren steppenhahn
Noch einmal Danke für deine nette Hilfe. Leider kommt eben nicht das heraus, was ich will. Ich habe also gezeigt, dass
[mm]X=E[\log V(T)|\mathcal{F}_t]=\log (V(t))+(\mu-\frac{1}{2}\sigma^2)(T-t)}+nm [/mm]
Nur der erste Term ist stochastisch, die anderen sind deterministisch. Ich weiss, dass [mm] \log V(t)[/mm] normalverteilt ist. Somit stimmt schon einmal, dass ich die Richtige Verteilung habe, allerdings stimmen die Parameter nicht, Erwartungswert und Varianz. Der Erwartungswert von [mm] X[/mm] sollte sein:
[mm] E[X]=\log (V(t))+(\mu-\frac{1}{2}\sigma^2)(T-t)}+nm [/mm]
Ich bekomme aber einen Erwartungswert:
[mm] E[X]=E[E[\log V(T)|\mathcal{F}_t]]=E[\log V(t)] +(\mu-\frac{1}{2}\sigma^2)(T-t)}+nm[/mm]
und der Erwartungswert von [mm] \log V(t)[/mm] ist:
[mm] E[\log V(t)]=(\mu -\frac{\sigma^2}{2})t[/mm]
Sodass mein Erwartungswert von [mm] X[/mm] gleich:
[mm] E[X]=(\mu -\frac{\sigm^2}{2})t +(\mu-\frac{1}{2}\sigma^2)(T-t)}+nm=(\mu-\frac{1}{2}\sigma^2)T}+nm[/mm]
Ich zitiere was sie hingeschrieben haben: "It is clear that the distribution of [mm] \log V(T) [/mm] conditional on [mm] \mathcal{F}_t [/mm] and [mm] N(T)- N(t)=n [/mm] is Gaussian with mean:
[mm]\log (V(t))+(\mu-\frac{1}{2}\sigma^2)(T-t)}+nm [/mm]
and variance
[mm] nm^2+\sigma^2(T-t)[/mm]
."
Dabei verstehe ich sowieso nicht, wieso im Erwartungswert noch eine stochastische Grösse auftauchen kann ([mm] \log V(t)[/mm]). Oder meinen sie damit die bedingte Erwartungs? Wenn ja, ist dies aber sehr undeutlich und schlecht geschrieben!
Liebe Grüsse
Marianne
|
|
|
|
|
Hallo Marianne!
ich habe Deine Herleitung gelesen, und vielleicht kann ich Licht in die Sache bringen.
$V(t)$ fällt aus dem Erwartungswert heraus, weil die Zufallsvariable $V(T)$ eine Funktion der Zeit $t$ ist. Das heisst: jeder einzelne Ausfall des Zufallsexperiments ist eine Zeitfunktion von $0$ bis [mm] $\infty$.
[/mm]
Der Operator $E[.]$ ist hier der Scharmittelwert, das heisst der Mittelwert über alle möglichen Zeitfunktionen, die Du sehen könntest, und ist deshalb selber eine Funktion der Zeit $t$, so wie es in Deinem Englischen Zitat ja dann auch stehen gelassen wird.
Was Du nun aber versuchst, ist, den Zeit-Mittelwert dieser neuen Zeitfunktion zu berechnen. Du vermischt damit Zeit- und Schar-Mittelwert, was für einen nicht-ergodischen Zufallsprozess eigentlich sinnfrei ist. Deshalb müsstest Du mir als nächstes erklären, weshalb Du das versuchst :)
Liebe Grüsse,
Hanspeter
|
|
|
|