Markoff-Ketten ... wiedermal < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 22:14 Do 21.10.2004 | Autor: | psjan |
Hallo alle,
ich habe wiedermal ne Frage zu Krengels "Einführung in die Wahrscheinlichkeitstheorie und Statistik": Falls jemand die Stelle suchen sollte: Beweis zu Satz 15.1.
Dort taucht ziemlich mittig die folgende (und mir unverständliche) Zeile auf:
"Da die Folge [mm] $M^{(n)}_j$ [/mm] fallend und die Folge [mm] $m^{(n)}_j$ [/mm] wachsend ist, ..."
Hintergrund / Notation dazu:
- Wir befinden uns im Kontext der Markoff-Ketten
- [mm] $M^{(n)}_j [/mm] := [mm] \max_i p^{(n)}_{ij}$
[/mm]
- [mm] $m^{(n)}_j [/mm] := [mm] \min_i p^{(n)}_{ij}$
[/mm]
- [mm] $p^{(n)}_{ij}$ [/mm] ist hier etwas salopp formuliert die Wahrscheinlichkeit, im Zustandraum einer Markoffschen Kette in genau $n$ Schritten vom Zustand $i$ in den Zustand $j$ zu gelangen
- damit wäre dann [mm] $M^{(n)}_j$ [/mm] die unter allen Zuständen der Markoff-Kette ermittelte maximale Wahrscheinlichkeit, in genau $n$ Schritten beim Zustand $j$ zu landen.
- Was offenbar auch noch wichtig ist: Im Kapitel vor dem Satz wird eingeschränkt, dass man sich scheinbar erstmal auf Graphen / Ketten mit folgender Eigenschaft beschränken will:
--(1) Man muss von jedem Zustand zu jedem anderen gelangen können, aber nicht notwenigerweise in einem Schritt
--(2) Eine Art zyklischer Bewegung soll ausgechlossen werden und zwar so: Der Zustandraum soll NICHT in echte Teilmengen [mm] $C_0, \ldots, C_{d-1}$ [/mm] zerlegbar sein, für die man von einem Zustand in [mm] $C_s$ [/mm] in einem Schritt stets NUR nach [mm] $C_{s+1 (\mod d)}$ [/mm] gelangt.
Ich habe mir mal ein möglichst einfaches nichtpathologisches Beispiel gesucht, die Behauptung mal nachgerechnet und es hat tatsächlich gestimmt (zumindest für die ersten paar $n$). Ich habe dafür folgende Kette verwendet:
1->1 mit Wahrscheinlichkeit 1/2
1->2 mit Wahrscheinlichkeit 1/2
2->1 mit Wahrscheinlichkeit 1
Nur konnte ich nicht mal ansatzweise sehen, warum das obige Maximum in $n$ fallen müssen sollte. Je mehr Schritte man machen muss, desto kleiner wird zwar die Wahrscheinlichkeit für einen einzelnen Pfad, aber desto mehr mögliche Pfade gibt es doch. Warum also sollte da also was insgesamt kleiner werden? (Ich nehme an, für die Aussage zum Minimum kann man ähnlich argumentieren)
Für Anregungen wäre ich sehr dankbar.
Grüße
psjan
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 14:19 Fr 22.10.2004 | Autor: | Julius |
Hallo psjan!
Mir ist deine Frage insofern nicht verständlich, da diese Beziehung im Krengel doch erklärt wird. Oder hast du eine andere Auflage als ich (ich habe die dritte)?
Bei mir steht ganz am Anfang des Beweises, dass dies aus
[mm] $m_j^{(n+1)} [/mm] = [mm] \mbox{Min}_i \, p_{ij}^{(n+1)} [/mm] = [mm] \mbox{Min}_i \sum\limits_{h \in I} p_{ih} p_{hj}^{(n)} \ge \mbox{Min}_i \underbrace{\sum\limits_{h \in I} p_{ih}}_{=\, 1 \ \forall i \in I} m_j^{(n)} [/mm] = [mm] m_j^{(n)}$
[/mm]
(und analog für [mm] $M_j^{(n)}$) [/mm] folgt, und diese Ungleichung finde ich sehr einsichtig (du nicht? -> dann frag bitte genau nach, was dir daran unklar ist).
Ich bin jetzt etwas ratlos, was ich zu deiner Frage mehr (als das obig Zitierte) schreiben soll.
Vielleicht meldest du dich einfach noch einmal und fragst nach...
Liebe Grüße
Julius
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 15:51 Fr 22.10.2004 | Autor: | psjan |
Hi julius,
*mitderflachenhandvordiestirnschlag*
danke für die schnelle Antwort. Stimmt alles. Ich hatte das Problem beim Lesen entdeckt und dann noch nur ausm Kopf und aufm Papier gearbeitet, weil ich das Buch nicht immer bei mir hatte - und wenn , dann hab ich irgendwie den Wald vor lauter Bäumen nicht gesehen. So und jetzt geh ich und übe mich in der Kulturfähighkeit "Lesen", vielleicht mit ISBN 3789143073 oder gar mit 347341252X :)
Vielen Dank!
psjan
|
|
|
|