next up previous contents
Next: Eigenschaften multivariater Verteilungsfunktionen Up: Zufallsvektoren Previous: Zufallsvektoren   Contents


Definition, Verteilung und Verteilungsfunktion

Bei Anwendungen besteht oft die Notwendigkeit, nicht nur eine Kennzahl $ X(\omega)$, sondern gleichzeitig mehrere Kennzahlen $ X_1(\omega),\ldots,X_n(\omega)$ von $ \omega \in \Omega$ zu betrachten.

Beispiele
 
  1. zweimaliges Würfeln
    • Als Grundraum wählen wir so wie bisher $ \Omega =\{(i,j):1\leq i,j\leq 6\}$, vgl. Abschnitt 2.4.1.
    • Sei $ X:\Omega\to\{0,1,2\}$ bzw. $ Y:\Omega\to\{0,1,2\}$ die (zufällige) Anzahl, mit der die Augenzahl ,,6'' bzw. ,,1'' beim zweimaligen Würfeln erzielt wird.
    • Dann gilt für die Wahrscheinlichkeiten $ P(X=x,Y=y)$ bzw. für die Einzelwahrscheinlichkeiten $ P(X=x)$ und $ P(Y=y)$ von $ X$ und $ Y$:



          $ y$  
      $ P(X=x,Y=y)$ $ 0 $ $ 1 $ $ 2 $ $ P(X=x)$
        $ 0 $ $ \frac{16}{36} $ $ \frac{8}{36} $ $ \frac{1}{36} $ $ \frac{25}{36} $
      $ x$ $ 1 $ $ \frac{8}{36} $ $ \frac{2}{36} $ $ 0 $ $ \frac{10}{36} $
        $ 2 $ $ \frac{1}{36} $ $ 0 $ $ 0 $ $ \frac{1}{36} $
      $ P(Y=y)$ $ \frac{25}{36} $ $ \frac{10}{36} $ $ \frac{1}{36} $  



    • Aus der Tabelle kann man auch die Einzelwahrscheinlichkeiten der Summe $ X+Y$ erhalten. Beispielsweise gilt

      $\displaystyle P(X+Y=1)=P(X=1,Y=0)+P(X=0,Y=1)=\frac{8}{36}+\frac{8}{36}=\frac{16}{36}\;.
$

    • Analog ergibt sich

      $\displaystyle P(X+Y=0)=\frac{16}{36}\;,\qquad P(X+Y=2)=\frac{4}{36}
$

      bzw.

      $\displaystyle P(X\cdot Y=1)=\frac{2}{36}\;,\qquad P(X\cdot Y=0)=\frac{34}{36}\;.
$

  2. Analyse von Kommunikationsnetzen
    • Betrachten ein Kommunikationsnetz mit $ n$ Komponenten.
    • Sei $ \Omega=\Omega_1\times\ldots\times\Omega_n$, wobei $ \Omega$ die Menge aller möglichen Momentanzustände $ \omega=(\omega_1,\ldots,\omega_n)$ des Netzes und $ \Omega_i$ die Menge aller möglichen Momentanzustände $ \omega_i$ der $ i$-ten Komponente bezeichnet; $ i=1,\ldots,n$.
    • Dann kann beispielsweise durch die Abbildung $ \omega\to X_i(\omega)$ die Belastung $ X_i(\omega)$ der $ i$-ten Komponente in Abhängigkeit vom Momentanzustand $ \omega$ des Netzes modelliert werden.
    • Die (globale) Belastung des gesamten Netzes kann dann durch den Vektor $ (X_1(\omega),\ldots,X_n(\omega))$ beschrieben werden.


Die gleichzeitige Betrachtung mehrerer Kennzahlen $ X_1(\omega),\ldots,X_n(\omega)$ von $ \omega \in \Omega$ führt zum Begriff des Zufallsvektors.

Definition
$ \;$ Sei $ (\Omega ,\mathcal{F},P)$ ein beliebiger Wahrscheinlichkeitsraum, und sei $ X_1,\ldots,X_n$ eine beliebige Folge von Zufallsvariablen $ X_i:\Omega\to\mathbb{R}$; $ i=1,\ldots,n$.

Theorem 3.7   Die Abbildung $ X:\Omega\to\mathbb{R}^n$ ist genau dann ein Zufallsvektor, wenn

$\displaystyle \left\{ \omega :\omega \in \Omega ,X(\omega )\in B\right\} \in \mathcal{F}\qquad \forall B\in \mathcal{B}(\mathbb{R}^n )\,.$ (22)

Die Verteilung $ P_X$ von $ X$ wird eindeutig durch die Verteilungsfunktion $ F_{X}$ von $ X$ bestimmt.

Der Beweis ist analog zum Beweis der Theoreme 3.1 und 3.4. Er wird deshalb weggelassen.


next up previous contents
Next: Eigenschaften multivariater Verteilungsfunktionen Up: Zufallsvektoren Previous: Zufallsvektoren   Contents
Ursa Pantle 2004-05-10