Definition Markovkette < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 13:52 Fr 19.09.2008 | Autor: | sie-nuss |
Hallo,
ich hab mal eine ganz grundlegende Frage zu Markovketten: Eine Markovkette ist doch eine Folge [mm] X_n [/mm] von Zufallsvariablen ueber einem Zustandsraum S. Jedes [mm] X_i [/mm] aus der Folge hat eine eigene Verteilung. Was ist aber die Verteilung der Markovkette [mm] X_n? [/mm] Sind es einfach die Verteilungen der Folgenglieder zusammengenommen? Ich lese staendig, Markovketten haben mindestens eine stationaere Verteilung, das heisst doch, dass so eine Kette mehrere Verteilungen haben kann, wie geht das denn? Zufallsvariablen koennen doch auch nicht mehrere Verteilungen haben ... wenn ich das richtig verstanden habe ist eine stationaere Verteilung eine, die fuer alle [mm] X_n [/mm] dieselbe ist.
Wuerd mich echt freuen wenn mir da jemand auf die Spruenge helfen koennte.
Viele Gruesse,
sie-nuss
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 10:15 Sa 04.10.2008 | Autor: | Infinit |
Hallo sie-nuss,
in diesem Bereich gibt es leider eine ganze Menge leicht unterschiedlicher Definitionen, so dass es mitunter schwer ist, herauszufinden, was denn nun wirklich gemeint ist.
Die Markov-Ketten geben für eine oder mehrere Zufallsvariable die Übergangswahrscheinlichkeiten verschiedener Zustände eines Systems an. Ob die Eingangsdaten für dieses System nun aus einem stochastischen Prozess stammen oder aus mehreren, ist für die Betrachtung der Kette unerheblich. Das Ganze arbeitet taktgesteuert und so kann man sich überlegen, ob es nach unendlich langer Zeit (oder auch kürzer) einen stationären Zustand der Zufallsvariablen gibt, also einen Zustand, der sich in weiteren Taktschritten nicht mehr ändert. Eine Aussage darüber lässt sich mit Hilfe von Grenzwertbetrachtungen gewinnen. Ist dies möglich, so haben dann diese Zufallsvariablen eine stationäre Verteilung. Somit entsteht aus dem zeitabhängigen Zufallsprozess eine Zufallsvariable.
Viele Grüße,
Infinit
|
|
|
|