next up previous contents
Next: Methoden der Statistik Up: Abschätzungen und Grenzwertsätze Previous: Beispiel (Buffonsches Nadelexperiment)   Contents


Zentraler Grenzwertsatz

Neben der stochastischen Konvergenz und der fast sicheren Konvergenz, die in Abschnitt 4.3.2 eingeführt wurden, gibt es noch weitere Konvergenzarten von Zufallsvariablen.

Wir diskutieren nun

In Verallgemeinerung des zentralen Grenzwertsatzes von DeMoivre-Laplace, der bereits in Abschnitt 3.2.3 erwähnt wurde, gilt

Theorem 4.24
$ \;$ $ \;$ Sei $ X_1,X_2,\ldots:\Omega\to\mathbb{R}$ eine Folge von unabhängigen und identisch verteilten Zufallsvariablen mit $ {\mathbb{E}\,}(X_i^2)<\infty$ und Var $ X_i>0$ für alle $ i=1,2,\ldots$; $ \mu={\mathbb{E}\,}X_i$, $ \sigma^2=$Var $ X_i$. Dann gilt für jedes $ x\in\mathbb{R}$

$\displaystyle \lim\limits _{n\to\infty}P\Bigl(\frac{(X_1+\ldots+X_n)-n\mu}{\sigma\sqrt{n}} \le x\Bigr)=\Phi(x)\,,$ (48)

wobei $ \Phi(x)$ die Verteilungsfunktion der Standardnormalverteilung ist.

Beweis
$ \;$ Der Beweis von Theorem 4.24 ist tiefliegend und geht über den Rahmen dieser einführenden Vorlesung hinaus.

Korollar 4.25
Unter den Voraussetzungen von Theorem 4.24 gilt

$\displaystyle \lim\limits _{n\to\infty}P\Bigl(\frac{(X_1+\ldots+X_n)-n\mu}{\sigma\sqrt{n}} <x\Bigr)=\Phi(x)$ (49)

für jedes $ x\in\mathbb{R}$, und

$\displaystyle \lim\limits _{n\to\infty}P\Bigl(a\le\frac{(X_1+\ldots+X_n)-n\mu}{\sigma\sqrt{n}} \le b\Bigr)=\Phi(b)-\Phi(a)$ (50)

für beliebige $ a,b\in\mathbb{R}$ mit $ a\le b$.

Beweis
$ \;$ Die Behauptung (49) ergibt sich aus (48), weil
$\displaystyle \lim\limits
_{n\to\infty}P\Bigl(\frac{(X_1+\ldots+X_n)-n\mu}{\sigma\sqrt{n}}
<x\Bigr)$ $\displaystyle =$ $\displaystyle \lim\limits _{n\to\infty}\lim\limits _{h\downarrow 0}
P\Bigl(\frac{(X_1+\ldots+X_n)-n\mu}{\sigma\sqrt{n}}
\le x-h\Bigr)$  
  $\displaystyle =$ $\displaystyle \lim\limits _{h\downarrow 0}\lim\limits _{n\to\infty}
P\Bigl(\frac{(X_1+\ldots+X_n)-n\mu}{\sigma\sqrt{n}}
\le x-h\Bigr)$  
  % latex2html id marker 23742
$\displaystyle \stackrel{(\ref{zgws})}{=}$ $\displaystyle \lim\limits _{h\downarrow 0}\Phi(x-h)$  
  $\displaystyle =$ $\displaystyle \Phi(x) \,.$  

Die Behauptung (50) ergibt sich nun aus (48) und (49), denn es gilt
$\displaystyle {
\lim\limits
_{n\to\infty}P\Bigl(a\le\frac{(X_1+\ldots+X_n)-n\mu}{\sigma\sqrt{n}}
\le b\Bigr)}$
  $\displaystyle =$ $\displaystyle \lim\limits
_{n\to\infty}\Bigl(P\Bigl(\frac{(X_1+\ldots+X_n)-n\mu...
...
\le b\Bigr)-P\Bigl(\frac{(X_1+\ldots+X_n)-n\mu}{\sigma\sqrt{n}}
<a\Bigr)\Bigr)$  
  $\displaystyle =$ $\displaystyle \lim\limits
_{n\to\infty}P\Bigl(\frac{(X_1+\ldots+X_n)-n\mu}{\sig...
...mits
_{n\to\infty}
P\Bigl(\frac{(X_1+\ldots+X_n)-n\mu}{\sigma\sqrt{n}}
<a\Bigr)$  
  $\displaystyle =$ $\displaystyle \Phi(b)-\Phi(a)$  


Beachte
$ \;$ Es ist die folgende Sprechweise üblich: Falls (48) für jedes $ x\in\mathbb{R}$ gilt, dann sagt man, daß

$\displaystyle Y_n=\frac{(X_1+\ldots+X_n)-n\mu}{\sigma\sqrt{n}}
$

in Verteilung gegen die Standardnormalverteilung (bzw. gegen eine N$ (0,1)$-verteilte Zufallsvariable $ Y$) strebt.

Allgemein definiert man den Begriff der Verteilungskonvergenz von Zufallsvariablen wie folgt.

Definition 4.26
$ \;$ Sei $ Y,Y_1,Y_2,\ldots:\Omega\to\mathbb{R}$ eine beliebige Folge von Zufallsvariablen. Man sagt, daß die Zufallsvariablen $ Y_1,Y_2,\ldots$ in Verteilung gegen die Zufallsvariable $ Y$ konvergieren, falls

$\displaystyle \lim\limits _{n\to\infty} P(Y_n\le y)=P(Y\le y)$ (51)

für jedes $ y\in\mathbb{R}$ gilt, das ein Stetigkeitspunkt der Verteilungsfunktion $ F_Y$ ist, d.h. $ \lim_{h\downarrow 0}F_Y(y-h)=F_Y(y)$. $ \;$ Schreibweise: $ Y_n \overset{\textrm{d}}{\longrightarrow}
Y$

Beachte
 


Beispiel
$ \;$ (fehlerbehaftete Messungen)


next up previous contents
Next: Methoden der Statistik Up: Abschätzungen und Grenzwertsätze Previous: Beispiel (Buffonsches Nadelexperiment)   Contents
Roland Maier 2001-08-20