Kovarianz - Rechnungen < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 17:28 Di 30.11.2010 | Autor: | janisE |
Aufgabe | Seien [mm] $X_1,\cdots,X_n \in \mathfrak{L}^2(P)$. [/mm]
Zeigen Sie:
a)
Die Kovarianz ist bilinear und symmetrisch.
b)
[mm] $Cov(X_i [/mm] + [mm] b,X_j) [/mm] = [mm] Cov(X_i,X_j)$
[/mm]
c)
[mm] $Var(\sum_{i=1}^n X_i) [/mm] = [mm] \sum_{i=1}^n Var(X_i) [/mm] + 2 [mm] \sum_{i |
Hallo!
a) war simples Umformen, damit hatte ich keine Probleme
b)
Hier bin ich mir nicht sicher, wie ich verfahren soll.
Es ergibt sich für [mm] $Cov(X_i [/mm] + [mm] b,X_j) [/mm] = [mm] \sum_{i=1}^n p_i (x_i [/mm] + a - [mm] E[X-a])(y_i [/mm] - E[X])$.
Für a) hatte ich eine Analoge Situation, jedoch mit einem Produkt. Hier hat mir in die Hände gespielt, dass der Erwartungswert linear ist.
Könnt ihr mir bitte helfen, wie ich das $E[X-a]$ umformen kann?
c)
Hier habe ich viel Papier verschwendet ohne auf ein sinnvolles Ergebnis zu kommen.
$Var(X) = [mm] \sum_{i=1}^n p_i(x_i [/mm] - [mm] E[X])^2$
[/mm]
[mm] $Var\left(\sum_{i=1}^n X_i\right) [/mm] = [mm] \sum_{j=1}^?$
[/mm]
Hier hört es bei mir auf. Mir ist wirklich nicht klar, wie ich die Summe in die Definition integrieren soll. Meine Idee war vielleicht den Ansatz der Kovarianz zu fahren. Aber auch hier stört mich wieder das "Produkt".
Könnt ihr mir einen Tipp geben, wie ich die Aufgabe angehen kann?
Danke im Voraus!
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 17:48 Di 30.11.2010 | Autor: | luis52 |
> Könnt ihr mir bitte helfen, wie ich das [mm]E[X-a][/mm] umformen
> kann?
Gerne: $E[X-a]=E[X]-a_$. Boah!
>
> c)
>
> Hier habe ich viel Papier verschwendet ohne auf ein
> sinnvolles Ergebnis zu kommen.
>
> [mm]Var(X) = \sum_{i=1}^n p_i(x_i - E[X])^2[/mm]
>
> [mm]Var\left(\sum_{i=1}^n X_i\right) = \sum_{j=1}^?[/mm]
2 Vorschlaege fuer noch mehr Schmierpapier:
1) Vollst. Indunktion
2) [mm] $Var[\sum _iX_i]=Cov[\sum_i X_i,\sum_j X_j]$
[/mm]
vg Luis
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 17:57 Di 30.11.2010 | Autor: | janisE |
Danke für deine schnelle und hilfreiche Reaktion, Luis!
> Gerne: $E[X-a]=E[X]-a$. Boah!
Öhm, das ist mir jetzt irgendwie peinlich...
$ [mm] Cov(X_i [/mm] + [mm] b,X_j) [/mm] = [mm] \sum_{i=1}^n p_i (x_i [/mm] + a - [mm] E[X-a])(y_i [/mm] - E[X]) = [mm] \sum_{i=1}^n p_i (x_i [/mm] + a - E[X] - [mm] a)(y_i [/mm] - E[X]) = [mm] \sum_{i=1}^n p_i (x_i [/mm] - [mm] E[X])(y_i [/mm] - E[X])
= [mm] Cov(X_i [/mm] + [mm] b,X_j) [/mm] $
war es das etwa??
>
> >
> > c)
> >
> > Hier habe ich viel Papier verschwendet ohne auf ein
> > sinnvolles Ergebnis zu kommen.
> >
> > [mm]Var(X) = \sum_{i=1}^n p_i(x_i - E[X])^2[/mm]
> >
> > [mm]Var\left(\sum_{i=1}^n X_i\right) = \sum_{j=1}^?[/mm]
>
> 2 Vorschlaege fuer noch mehr Schmierpapier:
>
> 1) Vollst. Indunktion
>
> 2) [mm]Var[\sum _iX_i]=Cov[\sum_i X_i,\sum_j X_j][/mm]
>
Die 2) hatte ich mir auch schon überlegt, etwas Ähnliches habe ich ja schon für die a) gezeigt. Die Frage ist halt, warum das gilt bzw. was dann i und j sind??
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 18:14 Di 30.11.2010 | Autor: | luis52 |
> $ [mm]Cov(X_i[/mm] + [mm]b,X_j)[/mm] = [mm]\sum_{i=1}^n p_i (x_i[/mm] + a -
> [mm]E[X-a])(y_i[/mm] - E[X]) = [mm]\sum_{i=1}^n p_i (x_i[/mm] + a - E[X] -
> [mm]a)(y_i[/mm] - E[X]) = [mm]\sum_{i=1}^n p_i (x_i[/mm] - [mm]E[X])(y_i[/mm] - E[X])
> = [mm]Cov(X_i[/mm] + [mm]b,X_j)[/mm] $
>
> war es das etwa??
>
Lass doch mal die laestigen Summen weg:
[mm] $Cov(X_i [/mm] + [mm] b,X_j) [/mm] = [mm] E[(X_i+b-E[X_i+b])(X_j-E[X_j])]= E[(X_i-E[X_i])(X_j-E[X_j])]=Cov(X_i,X_j) [/mm] $
>
> Die 2) hatte ich mir auch schon überlegt, etwas Ähnliches
> habe ich ja schon für die a) gezeigt. Die Frage ist halt,
> warum das gilt bzw. was dann i und j sind??
Fang doch mal ganz gemuetlich an mit zwei Variablen:
$Var[X+Y]=Cov[X+Y,X+Y]=..._$
Nutze aus, was du schon weisst.
vg Luis
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 20:28 Di 30.11.2010 | Autor: | janisE |
> > $ [mm]Cov(X_i[/mm] + [mm]b,X_j)[/mm] = [mm]\sum_{i=1}^n p_i (x_i[/mm] + a -
> > [mm]E[X-a])(y_i[/mm] - E[X]) = [mm]\sum_{i=1}^n p_i (x_i[/mm] + a - E[X] -
> > [mm]a)(y_i[/mm] - E[X]) = [mm]\sum_{i=1}^n p_i (x_i[/mm] - [mm]E[X])(y_i[/mm] - E[X])
> > = [mm]Cov(X_i[/mm] + [mm]b,X_j)[/mm] $
> >
> > war es das etwa??
> >
>
> Lass doch mal die laestigen Summen weg:
>
>
> [mm]Cov(X_i + b,X_j) = E[(X_i+b-E[X_i+b])(X_j-E[X_j])]= E[(X_i-E[X_i])(X_j-E[X_j])]=Cov(X_i,X_j)[/mm]
>
Das ist schöner - hast du Recht. Danke! :)
> > Die 2) hatte ich mir auch schon überlegt, etwas Ähnliches
> > habe ich ja schon für die a) gezeigt. Die Frage ist halt,
> > warum das gilt bzw. was dann i und j sind??
>
> Fang doch mal ganz gemuetlich an mit zwei Variablen:
>
> [mm]Var[X+Y]=Cov[X+Y,X+Y]=..._[/mm]
>
> Nutze aus, was du schon weisst.
$Var[X+Y]=Cov[X+Y,X+Y]=Cov[X,X+Y] + Cov[Y,X+Y] = Cov[X,X] + Cov[X,Y] + Cov[Y,X] + Cov[Y,Y] = Var[X] + Var[Y] + 2 Cov[X,Y]$
So, bei Zweien ist das unkompliziert. Aber bei Dreien finde ich den Anfang nicht. Ich neige dazu, die Dinge komplizierter zu machen als sie sind. Wahrscheinlich ist das auch hier wieder der Fall, oder?
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 20:37 Di 30.11.2010 | Autor: | luis52 |
Nun der entscheidende Tipp:
[mm] $Cov[\sum_{i=1}^nX_i,\sum_{j=1}^nX_j]=\sum_{i=1}^n\sum_{j=1}^n Cov[X_i,X_j]$. [/mm] Beachte [mm] $Cov[X_i,X_j]=Cov[X_j,X_i]$.
[/mm]
vg Luis
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 18:59 Do 02.12.2010 | Autor: | janisE |
> Nun der entscheidende Tipp:
>
> [mm]Cov[\sum_{i=1}^nX_i,\sum_{j=1}^nX_j]=\sum_{i=1}^n\sum_{j=1}^n Cov[X_i,X_j][/mm].
> Beachte [mm]Cov[X_i,X_j]=Cov[X_j,X_i][/mm].
>
> vg Luis
Nur wie bekomme ich den Term [mm] "$Var(\sum_{i=1}^n X_i)$" [/mm] aufgelöst?
Ich habe mir auch mal den Induktionsweg angesehen.
Hier habe ich das Problem, dass ich beim Induktionsschluss:
Sei n = (n+1)
[mm] $Var(\sum_{i=1}^{n+1} X_i)$ [/mm] aber ich stolpere schon hier am Anfang. Denn wie bekomme ich den Term [mm] $Var(\sum_{i=1}^{n} X_i)$ [/mm] daraus extrahiert?
Vielen Dank!
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 15:06 Fr 03.12.2010 | Autor: | luis52 |
Moin JanisE,
ich fuerchte, du siehst dan Wald vor lauter Summen nicht.
Nochmal mundgerecht:
[mm] $Var\left[\sum_{i=1}^nX_i\right]=Cov\left[\sum_{i=1}^nX_i,\sum_{j=1}^nX_j\right]=\sum_{i=1}^n\sum_{j=1}^nCov[X_i,X_j]$.
[/mm]
Die letztere Summe kannst du in drei Bestandteile zerlegen: Summanden mit
$i=j_$, solche mit $i<j_$ und solche mit $i>j_$. Schau dir diese einmal genau an.
(Vollst. Induktion brauchst du nicht.)
vg Luis
|
|
|
|