Totale Wahrscheinlichkeit < Wahrscheinlichkeitstheorie < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Umfrage) Beendete Umfrage | Datum: | 10:45 Mi 08.07.2015 | Autor: | Michi4590 |
Aufgabe | Es gibt keine direkte Aufgabe, brauche bitte nur mal Hilfe bei totalen Wahrscheinlichkeiten und die ganzen Zusammenhänge. |
Hi zusammen,
ich beschäftige mich gerade mit den totalen Wahrscheinlichkeiten, Satz von Bayes, Mulitplikationssatz, stochastische Abhängigkeit und stochastische Unabhängigkeit.
Ich finde einfach keinen Zusammenhang bei diesen Aufgaben. Dann habe ich formeln über die stochastische Unabhängigkeit usw.
Ich hoffe ihr könnt mir weiterhelfen, vielen Dank.
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 00:26 Do 09.07.2015 | Autor: | Fulla |
Hallo Michi,
deine Frage ist sehr allgemein gestellt. Vermutlich hast du deshalb noch keine Antwort bekommen.
Gib uns doch mal eine Beispielaufgabe, bei der du Schwierigkeiten hast. Das macht es einfacher, dein Problem zu verstehen und auch dir zu helfen.
Lieben Gruß,
Fulla
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 08:55 Do 09.07.2015 | Autor: | Ladon |
Hallo Michi,
allgemeine Frage - allgemeine Antwort
Sei im folgenden [mm] $(\Omega, [/mm] p)$ stets ein diskretes Zufallsexperiment mit Wahrscheinlichkeitsverteilung $P$ und [mm] $A,B,B_i\subseteq \Omega$ [/mm] für jedes [mm] $i\in [/mm] I$ mit [mm] $P(B),P(B_i)>0$ [/mm] und [mm] $B_i$ [/mm] paarweise disjunkt, wobei [mm] $\bigcup B_i=\Omega$.
[/mm]
Die totale Wahrscheinlichkeit (Wkt.) und die Formel von Bayes sind unmittelbar mit dem Begriff der bedingten Wkt. verknüpft. Wir definieren
[mm] $$P(A|B):=\frac{P(A\cap B)}{P(B)}\qquad\forall \quad A\subseteq \Omega$$ [/mm] als die bedingte Wkt. von $A$ unter $B$.
Standardbeispiel: Beim Würfeln mit 2 fairen Würfeln gewinnt man stets, wenn der 2. Wurf eine Augenzahl größer oder gleich dem ersten Wurf bringt. Beim ersten Wurf wurde eine 4 gewürfelt. Wie hoch ist die Wkt. für einen Gewinn?
Die totale Wahrscheinlichkeit beschreibt im Prinzip das, was man aus der Schule als Pfadmultiplikations/additionsregel kennt. Es gilt für alle [mm] $A\subseteq \Omega$:
[/mm]
[mm] $$P(A)=\sum_{i\in I}P(A|B_i)\cdot P(B_i)$$
[/mm]
Beispiel: Siehe PDF, 1 a).
Die Formel von Bayes ist eigentlich mit der totalen Wahrscheinlichkeit und bedingten Wahrscheinlichkeit nur noch ein Korollar:
[mm] $$P(B_j|A)=\frac{P(B_j\cap A)}{P(A)}=\frac{P(A|B_j)\cdot P(B_j)}{\sum_{i\in I}P(A|B_i)\cdot P(B_i)}$$
[/mm]
Sie ist bei diversen Berechnungen äußerst hilfreich. Am Besten man erprobt es in der Praxis:
Beispiel: Siehe PDF, 1 b).
Ich habe jetzt leider keine Zeit mehr meinen Artikel weiter auszuführen. Es ist oft hilfreich die Aufgaben selbstsständig (!) zu berechnen. Vielleicht hilft dir ja auch dieser Link.
MfG
Ladon
PS: Wer Tippfehler findet darf sie behalten.
|
|
|
|