next up previous contents
Next: Konvergenzarten und Grenzwertsätze Up: Ungleichungen für Momente und Previous: Jensen-Ungleichung   Contents


Tschebyschew-Ungleichung; Markow-Ungleichung

Theorem 4.18   (Tschebyschew-Ungleichung) $ \;$ Sei $ X:\Omega\to\mathbb{R}$ eine Zufallsvariable mit

$\displaystyle {\mathbb{E}\,}(X^2)<\infty\,.$

Dann gilt für jedes $ \varepsilon>0$

$\displaystyle P(\vert X-{\mathbb{E}\,}X\vert>\varepsilon)\leq \frac{{\rm Var\,}X}{\varepsilon^2}\;.$ (72)

Beweis
 


Beachte
 

Beispiele
 
  1. fehlerbehaftete Messungen 
    • Von einem Messgerät sei bekannt, dass die Messergebnisse fehlerbehaftet sind.
    • Die $ n$-te Messung einer (unbekannten) Größe $ \mu\in\mathbb{R}$ liefere den Wert $ \mu+X_n(\omega)$ für $ \omega \in \Omega$.
    • Die Messfehler $ X_1,X_2,\ldots$ seien unabhängige und identisch verteilte Zufallsvariablen.
    • Über die Verteilung von $ X_n$ sei lediglich bekannt, dass

      $\displaystyle {\mathbb{E}\,}X_n=0$   und$\displaystyle \qquad {\rm Var\,}X_n= 1\,.$ (74)

    • Es soll nun die Frage diskutiert werden, wieviele Messungen erforderlich sind, um mit Hilfe der Tschebyschew-Ungleichung (72) schlussfolgern zu können, dass das arithmetische Mittel

      $\displaystyle Y_n=\frac{1}{n}\sum\limits _{i=1}^n(\mu+X_i)
$

      der zufälligen Messwerte $ \mu+X_i$ höchstens mit Wahrscheinlichkeit $ 0.1$ um mehr als $ 1 $ vom ,,wahren'', jedoch unbekannten Wert $ \mu$ abweicht.
    • Aus den elementaren Eigenschaften von Erwartungswert und Varianz der Summe von $ n$ unabhängigen Zufallsvariablen ergibt sich (vgl. Korollar 4.2 bzw. die Theoreme 4.6 und 4.10), dass
      $\displaystyle {\mathbb{E}\,}Y_n$ $\displaystyle =$ $\displaystyle {\mathbb{E}\,}\frac{1}{n}\sum\limits
_{i=1}^n(\mu+X_i)$  
        $\displaystyle =$ $\displaystyle \frac{1}{n}\sum\limits
_{i=1}^n(\mu+{\mathbb{E}\,}X_i)= \mu$  

      und
      $\displaystyle {\rm Var\,}Y_n$ $\displaystyle =$ $\displaystyle {\rm Var\,}\frac{1}{n}\sum\limits
_{i=1}^n(\mu+X_i)$  
        $\displaystyle =$ $\displaystyle \frac{1}{n^2}\sum\limits
_{i=1}^n{\rm Var\,}(\mu+ X_i)$  
        $\displaystyle =$ $\displaystyle \frac{1}{n^2}\sum\limits
_{i=1}^n{\rm Var\,}X_i=\frac{1}{n}\,.$  

    • Hieraus und aus der Tschebyschew-Ungleichung (72) ergibt sich, dass

      $\displaystyle P(\vert Y_n-\mu\vert>1) \le \frac{1}{n}\;.
$

    • Es gilt also $ P(\vert Y_n-\mu\vert>1)\le 0.1$, falls $ n^{-1}\le 0.1$.
    • Aus diesen Überlegungen folgt, dass die obengenannten Genauigkeitsvorgaben erfüllt sind, falls $ n\ge 10$ Messungen durchgeführt werden.


  2. normalverteilte Messfehler
    • Es wird nun zusätzlich angenommen, dass die Messfehler normalverteilt sind, d.h. $ X_n\sim$ N$ (0,\, 1)$.
    • Man kann zeigen, dass dann $ Y_n\sim$ N $ (\mu,\, 1/n)$ bzw. $ \sqrt{n}(Y_n-\mu)\sim$ N$ (0,1)$, vgl. das Beispiel in Abschnitt 3.4.2 bzw. den Kommentar nach Korollar 3.2.
    • Es gilt also
      $\displaystyle P(\vert Y_n-\mu\vert>1)$ $\displaystyle =$ $\displaystyle P(\sqrt{n}\,\vert Y_n-\mu\vert>\sqrt{n})$  
        $\displaystyle =$ $\displaystyle P(\sqrt{n}\,(Y_n-\mu)<-\sqrt{n})+
P(\sqrt{n}\,(Y_n-\mu)>\sqrt{n})$  
        $\displaystyle =$ $\displaystyle \Phi(-\sqrt{n})+(1-\Phi(\sqrt{n}))$  
        $\displaystyle =$ $\displaystyle 2 \bigl(1-\Phi(\sqrt{n})\bigr)\,,$  

      wobei

      $\displaystyle \Phi(x)=\int\limits _{-\infty}^x\frac{1}{\sqrt{2\pi}}\exp\Bigl(-\frac{u^2}{2}\Bigr) \, du$ (75)

      die Verteilungsfunktion der Standardnormalverteilung ist.
    • Somit ist $ P(\vert Y_n-\mu\vert>1)\le 0.1$ genau dann erfüllt, wenn $ \Phi(\sqrt{n})\ge 0.95$.
    • Dies gilt dann, wenn $ \sqrt{n}\ge 1.645$ bzw. $ n\ge 3$.


Beachte
 


next up previous contents
Next: Konvergenzarten und Grenzwertsätze Up: Ungleichungen für Momente und Previous: Jensen-Ungleichung   Contents
Ursa Pantle 2004-05-10