next up previous contents
Next: Schätzung von Parametern Up: Grundideen der statistischen Datenanalyse Previous: Stichprobenvarianz   Contents


Empirische Verteilungsfunktion

Außer der Schätzung von Erwartungswert $ \mu$ und Varianz $ \sigma^2$ der Stichprobenvariablen $ X_i$ kann auch deren Verteilungsfunktion $ F$ aus den vorliegenden Daten $ x_1,\ldots,x_n$ geschätzt werden.

Beachte
 


Dies führt zu der folgenden Begriffsbildung.

Definition 5.9
$ \;$ Die Abbildung $ \hat F_n:\mathbb{R}\times\Omega\to[0,1]$ mit

$\displaystyle \hat F_n(x,\omega)=\frac{1}{n}\vert\{i:\,1\le i\le n,\, X_i(\omega)\le x\}\vert$ (16)

heißt empirische Verteilungsfunktion der Zufallsstichprobe $ (X_1,\ldots,X_n)$.

Beachte
 

Theorem 5.10
$ \;$ Für jedes $ x\in\mathbb{R}$ gilt:
  1. Die Zufallsvariable $ n\hat F_n(x)$ ist binomialverteilt mit den Parametern $ n$ und $ p=F(x)$. D.h., für $ k=0,1,\ldots,n$ gilt

    $\displaystyle P(n\hat F_n(x)=k)={n\choose k}(F(x))^k(1-F(x))^{n-k}\,.$ (17)

  2. Insbesondere gilt also

    $\displaystyle {\mathbb{E}\,}\hat F_n(x)=F(x)$   und   Var $\displaystyle \hat F_n(x)= \frac{1}{n}F(x)(1-F(x))\,.$ (18)

  3. $\displaystyle P\Bigl(\lim\limits _{n\to\infty}\hat F_n(x)= F(x)\Bigr)=1\,.$ (19)

  4. Falls $ 0<F(x)<1$, dann gilt außerdem für jedes $ y\in\mathbb{R}$

    $\displaystyle \lim\limits _{n\to\infty}P\Bigl(\sqrt{n} \frac{\hat F_n(x)-F(x)}{\sqrt{F(x)(1-F(x))}}\le y\Bigr)=\Phi(y)\,,$ (20)

    wobei $ \Phi(y)$ die Verteilungsfunktion der Standardnormalverteilung ist.

Beweis
 


Beachte
 

Theorem 5.11
$ \;$ Sei

$\displaystyle D_n=\sup\limits _{x\in\mathbb{R}}\vert\hat F_n(x)-F(x)\vert\,.$ (21)

Dann gilt

$\displaystyle P\Bigl(\lim\limits _{n\to\infty} D_n=0\Bigr)=1\,.$ (22)

Beweis
$ \;$ Der Beweis von Theorem 5.11 ist tiefliegend und geht über den Rahmen dieser einführenden Vorlesung hinaus.

Beachte
$ \;$ Ein JAVA-Applet, mit dem die Aussage des Satzes von Gliwenko/Cantelli, d.h. der Grenzübergang (22) simuliert werden kann, findet man beispielsweise auf der Internet-Seite: Dieses JAVA-Applet simuliert die empirische Verteilungsfunktion $ \hat F_n$ für den Fall, daß $ F(x)=1-\exp(-x)$ für $ x\ge 0$, d.h., $ F$ ist die Verteilungsfunktion der Exponentialverteilung Exp$ (\lambda)$ mit dem Parameter $ \lambda=1$.

Ähnlich wie beim zentralen Grenzwertsatz für Summen von unabhängigen und identisch verteilten Zufallsvariablen (vgl. Theorem 4.24) kann man zeigen, daß auch $ D_n$ bei entsprechend gewählter Normierung gegen einen nichtdeterministischen, d.h. zufälligen Grenzwert (im Sinne der Verteilungskonvergenz) strebt.

Dies ist die Aussage des folgenden Theorems, das Satz von Kolmogorow/Smirnow genannt wird.

Theorem 5.12
$ \;$ Falls die Verteilungsfunktion $ F$ der Stichprobenvariablen $ X_i$ ein stetige Funktion ist, dann gilt für $ n\to\infty$

$\displaystyle \sqrt{n}D_n\overset{\textrm{d}}{\longrightarrow} D\,,$ (23)

wobei $ D$ eine Zufallsvariable ist, deren Verteilungsfunktion gegeben ist durch

$\displaystyle P(D\le y)=\left\{\begin{array}{ll}\sum\limits _{k=-\infty}^\infty...
...xp(-2k^2y^2) & \mbox{für $y\ge 0$,}\\  0 & \mbox{für $y<0$.} \end{array}\right.$ (24)

Beweis
$ \;$ Der Beweis von Theorem 5.12 ist tiefliegend und geht über den Rahmen dieser einführenden Vorlesung hinaus.


next up previous contents
Next: Schätzung von Parametern Up: Grundideen der statistischen Datenanalyse Previous: Stichprobenvarianz   Contents
Roland Maier 2001-08-20