next up previous contents
Next: Bedingte Verteilung; bedingte Dichte Up: Bedingte Wahrscheinlichkeiten Previous: Definition und Multiplikationssatz   Contents


Formel der totalen Wahrscheinlichkeit; Bayessche Formel

Sei $ (\Omega ,\mathcal{F},P)$ ein beliebiger Wahrscheinlichkeitsraum.

Bei der Berechnung der Wahrscheinlichkeit $ P(A)$ eines Ereignisses $ A\in\mathcal{F}$ ist es manchmal nützlich, die (unbedingte) Wahrscheinlichkeit $ P(A)$ als gewichtete Summe von bedingten Wahrscheinlichkeiten darzustellen.

Hierfür ist es erforderlich, den Grundraum $ \Omega$ wie folgt in (meßbare) Teilmengen zu zerlegen.

Definition 3.13
$ \;$ Sei $ n\in\mathbb{N}$ eine beliebige natürliche Zahl, und sei $ B_1,B_2,\ldots,B_n\in\mathcal{F}$ eine (endliche) Folge von Ereignissen mit den Eigenschaften
(Z1)
$ B_i\cap B_j=\emptyset$ für $ i\not= j$,
(Z2)
$ \bigcup_{i=1}^n B_i=\Omega$,
(Z3)
$ P(B_i)>0$ für alle $ i=1,\ldots,n$.
Dann heißt $ B_1,B_2,\ldots,B_n$ meßbare Zerlegung von $ \Omega$.
Theorem 3.14
$ \;$ Sei $ A\in\mathcal{F}$ ein beliebiges Ereignis und $ B_1,B_2,\ldots,B_n$ eine meßbare Zerlegung von $ \Omega$. Dann gilt
  1. Formel der totalen Wahrscheinlichkeit

    $\displaystyle P (A)=\sum\limits _{j=1}^n P(B_j) P(A\mid B_j)\,,$ (14)

  2. Bayessche Formel

    $\displaystyle P(B_i\mid A)=\frac{P(B_i)P(A\mid B_i)}{\sum\limits _{j=1}^n P(B_j)P(A\mid B_j)}$ (15)

    für jedes $ i=1,\ldots,n$, wobei in (15) vorausgesetzt wird, daß $ P(A)>0$.
Beweis
$ \;$ Aus (Z1)-(Z3) und aus der Additivität des Wahrscheinlichkeitsmaßes $ P$ ergibt sich, daß
$\displaystyle P(A)$ $\displaystyle =$ $\displaystyle P(A\cap\Omega)
= P\Bigl(A\cap \bigl(\bigcup_{i=1}^n B_i\bigr)\Bigr)$  
  $\displaystyle =$ $\displaystyle P\Bigl(\bigcup _{i=1}^n(A\cap B_i)\Bigr)
= \sum_{i=1}^n P(A\cap B_i)$  
  $\displaystyle =$ $\displaystyle \sum_{i=1}^n P(B_i)\frac{P(A\cap B_i)}{P(B_i)}
= \sum_{i=1}^n P(B_i)P(A\mid B_i)\,,$  

wobei im letzten Schritt die Definitionsgleichung (12) benutzt wird. Damit ist (14) bewiesen. Aus (12) und (14) ergibt sich nun

$\displaystyle P(B_i\mid A) = \frac{P(B_i\cap A)}{P(A)}
= \frac{P(B_i)P(A\mid B_i)}{\sum_{j=1}^n
P(B_j)P(A\mid B_j)}\;.
$

Beachte
$ \;$ Die Aussagen von Theorem 3.14 bleiben gültig, wenn anstelle einer Zerlegung von $ \Omega$ in endlich viele Teilmengen eine unendliche Folge $ B_1,B_2,\ldots\in\mathcal{F}$ von Ereignissen mit den Eigenschaften
(Z'1)
$ B_i\cap B_j=\emptyset$ für $ i\not= j$,
(Z'2)
$ \bigcup_{i=1}^\infty B_i=\Omega$,
(Z'3)
$ P(B_i)>0$ für alle $ i=1,2,\ldots$
betrachtet wird. Die Formeln (14) und (15) sind dann lediglich wie folgt zu modifizieren:

$\displaystyle P (A)=\sum_{j=1}^\infty P(B_j) P(A\mid B_j)\,,$ (16)

bzw.

$\displaystyle P(B_i\mid A)=\frac{P(B_i)P(A\mid B_i)}{\sum_{j=1}^\infty P(B_j)P(A\mid B_j)}$ (17)

für jedes $ i=1,2,\ldots$, wobei in (17) erneut vorausgesetzt wird, daß $ P(A)>0$.
Beispiel
 


next up previous contents
Next: Bedingte Verteilung; bedingte Dichte Up: Bedingte Wahrscheinlichkeiten Previous: Definition und Multiplikationssatz   Contents
Roland Maier 2001-08-20