next up previous contents
Next: Gesetz der großen Zahlen Up: Konvergenzarten Previous: Charakterisierung der Verteilungskonvergenz   Contents


Konvergenz zusammengesetzter Abbildungen; Satz von Slutsky

Wir zeigen zunächst, dass die fast sichere Konvergenz, die Konvergenz in Wahrscheinlichkeit, die $ L^1$-Konvergenz und die Konvergenz im quadratischen Mittel bei der Addition von Zufallsvariablen erhalten bleiben.

Theorem 5.8   Seien $ X,X_n,Y,Y_n:\Omega\to\mathbb{R}$ beliebige Zufallsvariablen über einunddemselben Wahrscheinlichkeitsraum. Dann gilt
1.
$ X_n+Y_n\stackrel{{\rm f.s.}}{\longrightarrow}X+Y$, falls $ X_n\stackrel{{\rm f.s.}}{\longrightarrow}X$ und $ Y_n\stackrel{{\rm f.s.}}{\longrightarrow}Y$,
2.
$ X_n+Y_n\stackrel{{\rm P}}{\longrightarrow}X+Y$, falls $ X_n\stackrel{{\rm P}}{\longrightarrow}X$ und $ Y_n\stackrel{{\rm P}}{\longrightarrow}Y$,
3.
$ X_n+Y_n\stackrel{{\mbox{\small L$^1$}}}{\longrightarrow}X+Y$, falls $ X,X_n,Y,Y_n\in L^1$, $ X_n\stackrel{{\mbox{\small L$^1$}}}{\longrightarrow}X$ und $ Y_n\stackrel{{\mbox{\small L$^1$}}}{\longrightarrow}Y$,
4.
$ X_n+Y_n\stackrel{{\mbox{\small L$^2$}}}{\longrightarrow}X+Y$, falls $ X,X_n,Y,Y_n\in L^2$, $ X_n\stackrel{{\mbox{\small L$^2$}}}{\longrightarrow}X$ und $ Y_n\stackrel{{\mbox{\small L$^2$}}}{\longrightarrow}Y$.

Beweis
$ \;$
Zu 1:
$ \;$ Falls $ X_n(\omega)\to X(\omega)$ und $ Y_n(\omega)\to
Y(\omega)$ für ein $ \omega \in \Omega$, dann gilt auch $ X_n(\omega)+Y_n(\omega)\to X(\omega)+Y(\omega)$. Hieraus folgt die erste Teilaussage.
Zu 2:
$ \;$ Für jedes $ \varepsilon>0$ gilt

$\displaystyle \{\vert X_n-X\vert\le\varepsilon/2\}\cap\{\vert Y_n-Y\vert\le\varepsilon/2\} \subset
\{\vert(X_n+Y_n)-(X+Y)\vert\le \varepsilon\}
$

bzw. nach Übergang zu den Komplementen

$\displaystyle \{\vert(X_n+Y_n)-(X+Y)\vert>\varepsilon\} \subset
\{\vert X_n-X\vert>\varepsilon/2\}\cup\{\vert Y_n-Y\vert>\varepsilon/2\}\,.
$

Hieraus folgt, dass

$\displaystyle P(\vert(X_n+Y_n)-(X+Y)\vert>\varepsilon) \le
P(\vert X_n-X\vert>\varepsilon/2)+P(\vert Y_n-Y\vert>\varepsilon/2)
$

und somit die Gültigkeit der zweiten Teilaussage.
Zu 3:
$ \;$ Die dritte Teilaussage ergibt sich unmittelbar aus der Monotonie und der Linearität des Erwartungswertes (vgl. Theorem 4.4), denn es gilt
$\displaystyle {\mathbb{E}\,}\vert(X_n+Y_n)-(X+Y)\vert$ $\displaystyle =$ $\displaystyle {\mathbb{E}\,}\vert(X_n-X)+(Y_n-Y)\vert$  
  $\displaystyle \le$ $\displaystyle {\mathbb{E}\,}(\vert X_n-X\vert+\vert Y_n-Y\vert)$  
  $\displaystyle =$ $\displaystyle {\mathbb{E}\,}\vert X_n-X\vert+{\mathbb{E}\,}\vert Y_n-Y\vert\,.$  

Zu 4:
$ \;$ Für $ p=2$ ergibt sich aus der Minkowski-Ungleichung (4.68), dass

$\displaystyle \sqrt{{\mathbb{E}\,}\bigl(((X_n+Y_n)-(X+Y))^2\bigr)}\le
\sqrt{{\mathbb{E}\,}\bigl((X_n-X)^2\bigr)}+\sqrt{{\mathbb{E}\,}\bigl((Y_n-Y)^2\bigr)}\,.
$

Hieraus folgt die vierte Teilaussage.

$ \Box$

Beachte
 

Theorem 5.9   Seien $ X,X_n,Y_n:\Omega\to\mathbb{R}$ beliebige Zufallsvariablen über einunddemselben Wahrscheinlichkeitsraum $ (\Omega ,\mathcal{F},P)$, und sei $ c\in\mathbb{R}$. Dann gilt $ X_n+Y_n\stackrel{{\rm d}}{\longrightarrow}X+c$, falls $ X_n\stackrel{{\rm d}}{\longrightarrow}X$ und $ Y_n\stackrel{{\rm d}}{\longrightarrow}c$.

Beweis
 


Beachte
 

Theorem 5.10   Seien $ X,X_n,Y,Y_n:\Omega\to\mathbb{R}$ Zufallsvariablen über einunddemselben Wahrscheinlichkeitsraum $ (\Omega ,\mathcal{F},P)$. Dann gilt
1.
$ X_nY_n\stackrel{{\rm f.s.}}{\longrightarrow}XY$, falls $ X_n\stackrel{{\rm f.s.}}{\longrightarrow}X$ und $ Y_n\stackrel{{\rm f.s.}}{\longrightarrow}Y$,
2.
$ X_nY_n\stackrel{{\rm P}}{\longrightarrow}XY$, falls $ X_n\stackrel{{\rm P}}{\longrightarrow}X$ und $ Y_n\stackrel{{\rm P}}{\longrightarrow}Y$,
3.
$ X_nY_n\stackrel{{\mbox{\small L$^1$}}}{\longrightarrow}XY$, falls $ X,X_n,Y,Y_n\in L^2$, $ X_n\stackrel{{\mbox{\small L$^2$}}}{\longrightarrow}X$ und $ Y_n\stackrel{{\mbox{\small L$^2$}}}{\longrightarrow}Y$

Beweis
$ \;$
Zu 1:
$ \;$ Falls $ X_n(\omega)\to X(\omega)$ und $ Y_n(\omega)\to
Y(\omega)$ für ein $ \omega \in \Omega$, dann gilt auch $ X_n(\omega)Y_n(\omega)\to X(\omega)Y(\omega)$. Hieraus folgt die erste Teilaussage.
Zu 2:
 
  • Es gelte $ X_n\stackrel{{\rm P}}{\longrightarrow}X$ und $ Y_n\stackrel{{\rm P}}{\longrightarrow}Y$.
  • Aus Theorem 5.2 folgt dann, dass es für jede Teilfolge $ \{n_i\}$ von $ \mathbb{N}$ eine Teilfolge $ \{n_{i_j}\}\subset\{n_i\}$ gibt, so dass $ X_{n_{i_j}}\stackrel{{\rm f.s.}}{\longrightarrow}X$ und $ Y_{n_{i_j}}\stackrel{{\rm f.s.}}{\longrightarrow}Y$.
  • Aus Teilaussage 1 ergibt sich somit, dass $ X_{n_{i_j}}Y_{n_{i_j}}\stackrel{{\rm f.s.}}{\longrightarrow}XY$.
  • Die erneute Anwendung von Theorem 5.2 zeigt nun, dass $ X_nY_n\stackrel{{\rm P}}{\longrightarrow}XY$.
Zu 3:
  • Es gelte $ X,X_n,Y,Y_n\in L^2$, $ X_n\stackrel{{\mbox{\small L$^2$}}}{\longrightarrow}X$ und $ Y_n\stackrel{{\mbox{\small L$^2$}}}{\longrightarrow}Y$.
  • Aus der Monotonie bzw. Linearität des Erwartungswertes und aus der Ungleichung (4.48) von Cauchy-Schwarz ergibt sich die Abschätzung
    $\displaystyle {\mathbb{E}\,}\vert X_nY_n-XY\vert$ $\displaystyle \le$ $\displaystyle {\mathbb{E}\,}\vert X_nY_n-X_nY\vert +{\mathbb{E}\,}\vert X_nY-XY\vert$  
      $\displaystyle \le$ $\displaystyle \sqrt{{\mathbb{E}\,}(X_n^2){\mathbb{E}\,}\bigl((Y_n-Y)^2\bigr)}+
\sqrt{{\mathbb{E}\,}(Y^2){\mathbb{E}\,}\bigl((X_n-X)^2\bigr)}\,.$  

  • Der zweite Summand konvergiert gegen Null für $ n\to\infty$, weil $ X_n\stackrel{{\mbox{\small L$^2$}}}{\longrightarrow}X$ und $ Y\in L^2$.
  • Der erste Summand konvergiert gegen Null für $ n\to\infty$, weil $ Y_n\stackrel{{\mbox{\small L$^2$}}}{\longrightarrow}Y$ bzw. weil $ {\mathbb{E}\,}(X_n^2)\to{\mathbb{E}\,}(X^2)$ aus $ X_n\stackrel{{\mbox{\small L$^2$}}}{\longrightarrow}X$ folgt und somit $ \sup_{n\in\mathbb{N}}{\mathbb{E}\,}(X_n^2)<\infty$ gilt.

    $ \Box$


Die folgende Aussage wird Satz von Slutsky über die Erhaltung der Verteilungskonvergenz bei der Multiplikation von Zufallsvariablen genannt.


Theorem 5.11   Seien $ X,X_n,Y_n:\Omega\to\mathbb{R}$ beliebige Zufallsvariablen über einunddemselben Wahrscheinlichkeitsraum $ (\Omega ,\mathcal{F},P)$, und sei $ c\in\mathbb{R}$. Dann gilt $ X_nY_n\stackrel{{\rm d}}{\longrightarrow}cX$, falls $ X_n\stackrel{{\rm d}}{\longrightarrow}X$ und $ Y_n\stackrel{{\rm d}}{\longrightarrow}c$.


Beweis
 


Wir zeigen nun noch, dass die fast sichere Konvergenz, die Konvergenz in Wahrscheinlichkeit und die Konvergenz in Verteilung bei der stetigen Abbildung von Zufallsvariablen erhalten bleiben. Aussagen dieses Typs werden in der Literatur Continuous Mapping Theorem genannt.

Theorem 5.12   Seien $ X,X_n:\Omega\to\mathbb{R}$ beliebige Zufallsvariablen über einunddemselben Wahrscheinlichkeitsraum $ (\Omega ,\mathcal{F},P)$, und sei $ \varphi:\mathbb{R}\to\mathbb{R}$ eine stetige Funktion. Dann gilt
1.
$ \varphi(X_n)\stackrel{{\rm f.s.}}{\longrightarrow}\varphi(X)$, falls $ X_n\stackrel{{\rm f.s.}}{\longrightarrow}X$,
2.
$ \varphi(X_n)\stackrel{{\rm P}}{\longrightarrow}\varphi(X)$, falls $ X_n\stackrel{{\rm P}}{\longrightarrow}X$,
3.
$ \varphi(X_n)\stackrel{{\rm d}}{\longrightarrow}\varphi(X)$, falls $ X_n\stackrel{{\rm d}}{\longrightarrow}X$.

Beweis
$ \;$
Zu 1:
$ \;$ Falls $ X_n(\omega)\to X(\omega)$ für ein $ \omega \in \Omega$, dann gilt wegen der Stetigkeit von $ \varphi$ auch $ \varphi(X_n)(\omega)\to \varphi(X)(\omega)$. Hieraus folgt die erste Teilaussage.
Zu 2:
 
  • Es gelte $ X_n\stackrel{{\rm P}}{\longrightarrow}X$.
  • Aus Theorem 5.2 folgt dann, dass es für jede Teilfolge $ \{n_i\}$ von $ \mathbb{N}$ eine Teilfolge $ \{n_{i_j}\}\subset\{n_i\}$ gibt, so dass $ X_{n_{i_j}}\stackrel{{\rm f.s.}}{\longrightarrow}X$.
  • Hieraus und aus Teilaussage 1 folgt, dass $ \varphi(X_{n_{i_j}})\stackrel{{\rm f.s.}}{\longrightarrow}
\varphi(X)$.
  • Durch die erneute Anwendung von Theorem 5.2 ergibt sich nun, dass $ \varphi(X_n)\stackrel{{\rm P}}{\longrightarrow}\varphi(X)$.
Zu 3:
$ \;$
  • Sei $ \varphi^\prime:\mathbb{R}\to\mathbb{R}$ eine beschränkte, stetige Funktion.
  • Dann hat auch die Superposition $ \varphi^\prime\circ\varphi:\mathbb{R}\to\mathbb{R}$ mit $ (\varphi^\prime\circ\varphi)(x)=\varphi^\prime(\varphi(x))$ diese beiden Eigenschaften.
  • Falls $ X_n\stackrel{{\rm d}}{\longrightarrow}X$, dann ergibt sich deshalb aus Theorem 5.7, dass

    $\displaystyle {\mathbb{E}\,}
\varphi^\prime(\varphi(X_n))={\mathbb{E}\,}
(\varp...
...,}
(\varphi^\prime\circ\varphi)(X)={\mathbb{E}\,}\varphi^\prime(\varphi(X))\,.
$

  • Hieraus ergibt sich die Gültigkeit von $ \varphi(X_n)\stackrel{{\rm d}}{\longrightarrow}\varphi(X)$ durch die erneute Anwendung von Theorem 5.7.

    $ \Box$


next up previous contents
Next: Gesetz der großen Zahlen Up: Konvergenzarten Previous: Charakterisierung der Verteilungskonvergenz   Contents
Ursa Pantle 2004-05-10