next up previous contents
Next: Abschätzungen und Grenzwertsätze Up: Gemischte Momente Previous: Linearer Zusammenhang von Zufallsvariablen   Contents


Erwartungswertvektor und Kovarianzmatrix

Wir zeigen zunächst, wie der Begriff der Kovarianz genutzt werden kann, um das in Korollar 4.8 angegebene Additionstheorem (20) für Varianzen zu verallgemeinern.

Theorem 4.13
Seien $ X_1,\ldots,X_n:\Omega\to\mathbb{R}$ beliebige Zufallsvariable mit $ {\mathbb{E}\,}(X_i^2)<\infty$ für jedes $ i\in\{1,\ldots,n\}$. Dann gilt

Var $\displaystyle (X_1+\ldots+X_n)=\sum\limits_{i=1}^n$Var $\displaystyle X_i+ 2\sum\limits_{1\le j<k\le n}$   Cov $\displaystyle (X_j,X_k)\,.$ (31)

Falls die Zufallsvariablen $ X_1,\ldots,X_n$ paarweise unkorreliert sind, dann gilt insbesondere

Var $\displaystyle (X_1+\ldots+X_n)=$Var $\displaystyle X_1+\ldots+$Var $\displaystyle X_n\,.$ (32)

Beweis
 

Beachte
$ \;$ Neben den Erwartungswerten $ {\mathbb{E}\,}X_1,\ldots,{\mathbb{E}\,}
X_n$ und den Varianzen Var $ X_1,\ldots,$Var $ X_n$ sind die in (31) auftretenden Kovarianzen $ \{$Cov $ (X_i,X_j),\,
1\le i<j\le n\}$ wichtige Charakteristiken des Zufallsvektors $ X=(X_1,\ldots,X_n)$.


Dies führt zu den folgenden Begriffsbildungen.

Definition 4.14
$ \;$ Seien $ X_1,\ldots,X_n:\Omega\to\mathbb{R}$ beliebige Zufallsvariable mit $ {\mathbb{E}\,}(X_i^2)<\infty$ für jedes $ i\in\{1,\ldots,n\}$.
  1. Der Vektor $ ({\mathbb{E}\,}X_1,\ldots,{\mathbb{E}\,}X_n)$ heißt der Erwartungswertvektor des Zufallsvektors $ X=(X_1,\ldots,X_n)$.
    Schreibweise: $ {\mathbb{E}\,}X=({\mathbb{E}\,}X_1,\ldots,{\mathbb{E}\,}X_n)$
  2. Die $ n\times n$-Matrix

       Cov $\displaystyle X=\left(
\begin{matrix}
\text{Cov\,}(X_1,X_1) &\cdots & \text{Cov...
...
\text{Cov\,}(X_n,X_1) &\cdots & \text{Cov\,}(X_n,X_n)
\end{matrix}\right)
=($Cov $\displaystyle (X_i,X_j))_{ij}$

    heißt die Kovarianzmatrix von $ X=(X_1,\ldots,X_n)$.

Theorem 4.15
$ \;$ Die Kovarianzmatrix Cov $ X$ ist
  1. symmetrisch, d.h., für beliebige $ i,j\in\{1,\ldots,n\}$ gilt

    Cov $\displaystyle (X_i,X_j)=$Cov $\displaystyle (X_j,X_i)\,.$ (33)

  2. nichtnegativ definit, d.h., für jedes $ x\in\mathbb{R}^n$ gilt

    $\displaystyle x^\top$   Cov $\displaystyle X\, x\ge 0\,,$ (34)

    wobei $ x^\top$ ist der zu $ x$ transponierte Vektor ist.
Beweis
 

Beachte
$ \;$ Die Matrix Cov $ X$ heißt positiv definit, falls

$\displaystyle x^\top$   Cov $\displaystyle X\, x> 0$ (35)

für jedes $ x\in\mathbb{R}^n$ mit $ x\not= 0$.

Beispiel
$ \;$ (zweidimensionale Normalverteilung)


Beachte
 


Für Zufallsvektoren mit einer beliebigen Dimension $ n\in\mathbb{N}$ kann man den Begriff der $ n$-dimensionalen Normalverteilung einführen, indem man eine zu (38) analoge Dichte-Formel betrachtet.

Definition 4.16
 


next up previous contents
Next: Abschätzungen und Grenzwertsätze Up: Gemischte Momente Previous: Linearer Zusammenhang von Zufallsvariablen   Contents
Roland Maier 2001-08-20