next up previous contents
Next: Eigenschaften von Erwartungswert und Up: Momente von Zufallsvariablen Previous: Erwartungswert   Contents


Varianz und höhere Momente

Es ist klar, daß der Erwartungswert $ {\mathbb{E}\,}X$ einer (diskreten bzw. absolutstetigen) Zufallsvariablen $ X$ eindeutig durch die Wahrscheinlichkeitsfunktion bzw. die Dichte von $ X$ bestimmt wird; vgl. Definition 4.1.

Umgekehrt ist jedoch im allgemeinen die Wahrscheinlichkeitsfunktion bzw. die Dichte einer (diskreten bzw. absolutstetigen) Zufallsvariablen $ X$ nicht eindeutig durch den Erwartungswert $ {\mathbb{E}\,}X$ von $ X$ festgelegt.

Beispiel
$ \;$ (symmetrische diskrete Gleichverteilung)

Der Erwartungswert $ {\mathbb{E}\,}X$ der Zufallsvariablen $ X$ wird manchmal auch das erste Moment von $ X$ genannt. Völlig analog lassen sich die Begriffe der Varianz bzw. der höheren Momente einer beliebigen Zufallsvariable $ X$ einführen, und zwar durch die Betrachtung des Erwartungswertes $ {\mathbb{E}\,}\varphi(X)$ entsprechend gewählter Funktionen $ \varphi(X)$ von $ X$.

In diesem Zusammenhang ist der folgende Hilfssatz nützlich.

Lemma 4.2
$ \;$ Sei $ X:\Omega\to\mathbb{R}$ eine beliebige Zufallsvariable, und sei $ \varphi:\mathbb{R}\to\mathbb{R}$ eine stetige Abbildung. Dann läßt sich der Erwartungswert $ {\mathbb{E}\,}\varphi(X)$ der Zufallsvariablen $ \varphi(X):\Omega\to\mathbb{R}$ wie folgt darstellen.
  1. Falls $ X$ diskret ist mit $ P(X\in C) =1$ für eine abzählbare Menge $ C\subset \mathbb{R}$, dann gilt

    $\displaystyle {\mathbb{E}\,}\varphi(X)=\sum\limits _{x\in C}\varphi(x)P(X=x)\,,$ (9)

    wobei vorausgesetzt wird, daß $ \sum\limits _{x\in C}\vert\varphi(x)\vert P(X=x)<\infty$.
  2. Falls $ X$ absolutstetig ist mit der Dichte $ f_X(x)$, dann gilt

    $\displaystyle {\mathbb{E}\,}\varphi(X)=\int\limits ^{\infty}_{-\infty} \varphi(x)\, f_{X}(x)\, dx\,,$ (10)

    wobei vorausgesetzt wird, daß $ \int\limits ^{\infty}_{-\infty}
\vert\varphi(x)\vert\, f_{X}(x)\,
dx<\infty$.
Beweis
$ \;$ Wir zeigen nur die Gültigkeit von (9). Die Herleitung von (10) erfordert mathematische Hilfsmittel, die über den Rahmen dieser einführenden Vorlesung hinausgehen. Sei also $ X$ diskret ist mit $ P(X\in C) =1$ für eine abzählbare Menge $ C\subset \mathbb{R}$. Dann ist auch $ \varphi(X)$ eine diskrete Zufallsvariable mit

$\displaystyle P(\{\omega:\omega\in\Omega,\varphi(X)(\omega)\in\varphi(C))=1\,,
$

wobei $ \varphi(C)=\{\varphi(x):x\in C\}$. Aus der Definition (3) für den Erwartungswert diskreter Zufallsvariablen ergibt sich somit
$\displaystyle {\mathbb{E}\,}\varphi(X)$ $\displaystyle =$ $\displaystyle \sum\limits _{y\in\varphi(C)}yP(\varphi(X)=y)$  
  $\displaystyle =$ $\displaystyle \sum\limits _{y\in\varphi(C)}y\Bigl(\sum\limits _{x:\varphi(x)=y}
P(X=x)\Bigr)$  
  $\displaystyle =$ $\displaystyle \sum\limits _{x\in C}\varphi(x)P(X=x)\,.$  

Definition 4.3
 
Beispiele
 
  1. Binomialverteilung
    • Sei $ X$ binomialverteilt mit den Parametern $ n\in\mathbb{N}$ und $ p\in[0,1]$.
    • In Abschnitt 4.1.1 wurde gezeigt, daß $ {\mathbb{E}\,}X=np$.
    • Analog ergibt sich, daß
      $\displaystyle \sum_{i=1}^n i^2 P(X=i)$ $\displaystyle =$ $\displaystyle \sum_{i=1}^n \bigl(i(i-1)+i\bigr)P(X=i)$  
        $\displaystyle =$ $\displaystyle \sum_{i=1}^n i(i-1)P(X=i)+
\sum_{i=1}^n i P(X=i)$  
        $\displaystyle =$ $\displaystyle n(n-1)p^2 + np$  

    • Also gilt
      Var $\displaystyle X$ $\displaystyle =$ $\displaystyle \sum_{i=0}^n (i-np)^2P(X=i)$  
        $\displaystyle =$ $\displaystyle \sum_{i=0}^n \bigl(i^2-2npi+(np)^2\bigr)P(X=i)$  
        $\displaystyle =$ $\displaystyle \sum_{i=1}^n i^2P(X=i)-2np\sum_{i=1}^n iP(X=i)+(np)^2
\sum_{i=0}^n P(X=i)$  
        $\displaystyle =$ $\displaystyle n(n-1)p^2+np-2(np)^2+(np)^2 = np(1-p)\,.$  

  2. Normalverteilung
    • Sei $ X$ normalverteilt mit den Parametern $ \mu\in\mathbb{R}$ und $ \sigma>0$.
    • In Abschnitt 4.1.1 wurde gezeigt, daß $ {\mathbb{E}\,}X=\mu$.
    • Somit gilt
      Var $\displaystyle X$ $\displaystyle =$ $\displaystyle {\mathbb{E}\,}((X-\mu)^2)
=\frac{1}{\sigma\sqrt{2\pi}}\int\limits...
...(-\frac{1}{2}\Bigl(\underbrace{\frac{x-\mu }{\sigma }}_{=t}\Bigr)^2
\Bigr)\, dx$  
        $\displaystyle =$ $\displaystyle \sigma ^{2}\frac{1}{\sqrt{2\pi}}
\int\limits ^{\infty }_{-\infty }t^2\exp
\Bigl(-\underbrace{\frac{1}{2}t^{2}}_{=u}\Bigr)\, dt$  
        $\displaystyle =$ $\displaystyle \sigma ^{2}\frac{2}{\sqrt{2\pi}}
\int\limits ^{\infty }_{0}
\sqrt{2u}\exp (-u)\, du$  
        $\displaystyle =$ $\displaystyle \sigma ^{2}\frac{2}{\sqrt{\pi}}
\underbrace{\int\limits ^\infty_0...
...le\Gamma(3/2)
=\displaystyle\frac{1}{2}\Gamma(1/2)=\sqrt{\pi}/2 } = \sigma^2\,.$  

Beachte
 


Beachte
$ \;$ Sei $ k\in\mathbb{N}$, und sei $ X:\Omega\to\mathbb{R}$ eine beliebige Zufallsvariable mit $ {\mathbb{E}\,}(\vert X\vert^k)<\infty$.


next up previous contents
Next: Eigenschaften von Erwartungswert und Up: Momente von Zufallsvariablen Previous: Erwartungswert   Contents
Roland Maier 2001-08-20