mehrdimensionale Verteilungsfu < stoch. Analysis < Stochastik < Hochschule < Mathe < Vorhilfe
|
Aufgabe | auf [mm](\IR^d,\mathcal{B})[/mm] sei P ein W-Maß und F die zugehörige Verteilungsfunktion.
zeige
[mm]P(\overset{d}{\underset{i=1}{{X}}} (x_i,x_i+y_i] ) = \sum_{\theta \in \{0,1\}^d}(-1)^{\sum_{i=1}^d(1-\theta_i)} F(x_1+\theta_1 y_1,\ldots,x_d+\theta_d y_d)[/mm]
[mm]\forall x_j\in \IR,y_j\geq 0[/mm] |
Also anschaulich ist das mir schon klar. Sowohl für d=1, d=2
Ich möchte das ganze per Induktion beweisen.
Für den Induktionsanfang d=1 und d=2 ist auch schon alles fertig. Lediglich der Induktionschritt gelingt mir nicht:
[mm]P(\overset{d+1}{\underset{i=1}{{X}}} (x_i,x_i+y_i] ) = \sum_{\theta \in \{0,1\}^{d+1}}(-1)^{\sum_{i=1}^{d+1}(1-\theta_i)} F(x_1+\theta_1 y_1,\ldots,x_{d+1}+\theta_{d+1} y_{d+1})[/mm]
[mm]\ldots = \sum_{\theta \in \{0,1\}\blue{\times\{0\}}}(-1)^{\sum_{i=1}^{d+1}(1-\theta_i)} F(x_1+\theta_1 y_1,\ldots,x_{d+1}+\theta_{d+1} y_{d+1})\quad + \sum_{\theta \in \{0,1\}\blue{\times\{1\}}}(-1)^{\sum_{i=1}^{d+1}(1-\theta_i)} F(x_1+\theta_1 y_1,\ldots,x_{d+1}+\theta_{d+1} y_{d+1})[/mm]
[mm]\ldots = \sum_{\theta \in \{0,1\}}(-1)^{1+\sum_{i=1}^{d}(1-\theta_i)} F(x_1+\theta_1 y_1,\ldots,x_{d+1}) + \sum_{\theta \in \{0,1\}}(-1)^{\sum_{i=1}^{d}(1-\theta_i)} F(x_1+\theta_1 y_1,\ldots,x_{d+1}+y_{d+1})[/mm]
[mm]\ldots = (-1)\cdot \sum_{\theta \in \{0,1\}}(-1)^{\sum_{i=1}^{d}(1-\theta_i)} F(x_1+\theta_1 y_1,\ldots,x_{d+1}) + \sum_{\theta \in \{0,1\}}(-1)^{\sum_{i=1}^{d}(1-\theta_i)} F(x_1+\theta_1 y_1,\ldots,x_{d+1}+y_{d+1})[/mm]
[mm]\ldots = \sum_{\theta \in \{0,1\}}(-1)^{\sum_{i=1}^{d}(1-\theta_i)} F(x_1+\theta_1 y_1,\ldots,x_{d+1}+y_{d+1}) \quad - \sum_{\theta \in \{0,1\}}(-1)^{\sum_{i=1}^{d}(1-\theta_i)} F(x_1+\theta_1 y_1,\ldots,x_{d+1})[/mm]
[mm]\ldots = \sum_{\theta \in \{0,1\}}(-1)^{\sum_{i=1}^{d}(1-\theta_i)} F(x_1+\theta_1 y_1,\ldots,x_{d+1}+y_{d+1}) -F(x_1+\theta_1 y_1,\ldots,x_{d+1})[/mm]
So meine Frage wäre: Wie komme ich weiter? Kann ich annehmen, dass die Komponenten unabhängig verteilt sind und daraus schlussfoglern, dass
[mm]F(x_1,\ldots, x_n)=F(x_1)\cdots F(x_n)[/mm]
gilt?
Selbst dann komme ich nicht (glaube ich) so viel weiter
[mm]\ldots = \sum_{\theta \in \{0,1\}}(-1)^{\sum_{i=1}^{d}(1-\theta_i)} F(x_1+\theta_1 y_1,\ldots, x_d+\theta_d y_d)\left ( F(x_{d+1}+y_{d+1})-F(x_{d+1}) \right ) [/mm]
[mm]\ldots = \sum_{\theta \in \{0,1\}}(-1)^{\sum_{i=1}^{d}(1-\theta_i)} F(x_1+\theta_1 y_1,\ldots, x_d+\theta_d y_d)\left P((x_{d+1},x_{d+1}+y_{d+1}] \right ) [/mm]
[mm]\ldots = P(\overset{d}{\underset{i=1}{{X}}} (x_i,x_i+y_i] ) P((x_{d+1},x_{d+1}+y_{d+1}] ) [/mm]
Passt das so?
Sieht jemand vielleicht eine Abkürzung. Oder kann mir jemand sagen: Vergiss, was du gemacht hast, denn so ...... geht es einfacher. Selbst Google scheint mir keine große Hilfe zu sein.
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 19:20 Do 28.04.2011 | Autor: | matux |
$MATUXTEXT(ueberfaellige_frage)
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 22:14 Mo 02.05.2011 | Autor: | wieschoo |
Ich weiß jetzt, wie es geht:
1. Möglichkeit Induktion: Achtung das P-Maß auf [mm] $\IR^n\neq$ [/mm] P-Maß auf [mm] $\IR^{n-1}$
[/mm]
2. Möglichkeit leider auch nicht selber darauf gekommen. Ein- und Ausschlussformel von Poincaré und Sylvester.
Falls es jemanden interessiert.
|
|
|
|