next up previous contents
Next: Integral-Darstellung mittels Quantilfunktion Up: Erwartungswert Previous: Alternative Integral-Darstellungen   Contents


Weitere Eigenschaften des Erwartungswertes

Mit Hilfe der Darstellungsformeln des Erwartungswertes, die in Abschnitt 4.1.2 diskutiert wurden, lassen sich weitere Eigenschaften des Erwartungswertes von Zufallsvariablen herleiten.

Theorem 4.4   Seien $ X,Y,X_1,X_2,\ldots:\Omega\to\mathbb{R}$ beliebige Zufallsvariablen über einem beliebigen Wahrscheinlichkeitsraum $ (\Omega ,\mathcal{F},P)$. Dann gilt:
1.
Monotonie:$ \;$ Falls $ X$ und $ Y$ integrierbar sind und falls $ X\le Y$ f.s., dann gilt

$\displaystyle {\mathbb{E}\,}X\le {\mathbb{E}\,}Y\,.$ (14)

Falls $ Y$ integrierbar ist und falls $ 0\le X\le Y$ f.s., dann ist auch $ X$ integrierbar, und es gilt % latex2html id marker 31787
$ (\ref{mon.eig.erw})$.
2.
Falls $ X$ integrierbar ist, dann ist

$\displaystyle \vert{\mathbb{E}\,}X\vert\le {\mathbb{E}\,}\vert X\vert\,.$ (15)

3.
Linearität:$ \;$ Falls $ X$ und $ Y$ integrierbar sind, dann ist auch $ aX+bY$ integrierbar für beliebige $ a,b\in\mathbb{R}$, und es gilt

$\displaystyle {\mathbb{E}\,}(aX+bY) = a{\mathbb{E}\,}X+b{\mathbb{E}\,}Y\,.$ (16)

4.
monotone Konvergenz:$ \;$ Falls $ X_n\ge 0$ f.s. für alle $ n=1,2,\ldots$ und falls $ X_n\uparrow X$ f.s., dann gilt

$\displaystyle {\mathbb{E}\,}X_n\uparrow {\mathbb{E}\,}X\,.$ (17)

5.
majorisierte Konvergenz und $ L_1$-Konvergenz:$ \;$ Falls $ Y$ integrierbar ist, falls $ \vert X_n\vert\le Y$ f.s. für alle $ n=1,2,\ldots$ und falls $ X_n\to X$ f.s., dann ist auch $ X$ integrierbar, und es gilt

$\displaystyle \lim\limits_{n\to\infty}{\mathbb{E}\,}X_n={\mathbb{E}\,}X$ (18)

und

$\displaystyle \lim\limits_{n\to\infty}{\mathbb{E}\,}\vert X_n-X\vert=0\,.$ (19)

6.
$ \;$ Falls $ X={1\hspace{-1mm}{\rm I}}_A$ für ein $ A\in\mathcal{F}$, dann gilt

$\displaystyle {\mathbb{E}\,}X=P(A)\,.$ (20)

7.
$ \;$ Falls $ X$ integrierbar ist und falls $ X\ge 0$ f.s. und $ {\mathbb{E}\,}X=0$, dann gilt

$\displaystyle X=0$   f.s. (21)

Beweis
 
Zu 1)
$ \;$ Die Ungleichung (14) ergibt sich unmittelbar aus der Integral-Darstellung (12) des Erwartungswertes und aus der entsprechenden Monotonie-Eigenschaft des Lebesgue-Integrals in (12). Die andere Teilaussage von 1. ergibt sich auf die gleiche Weise.
Zu 2)
$ \;$ Weil mit $ X$ offenbar auch $ \vert X\vert$ bzw. $ -\vert X\vert$ integrierbar sind und weil $ X\le\vert X\vert$ bzw. $ -\vert X\vert\le X$, ergibt sich aus (14), dass

$\displaystyle {\mathbb{E}\,}X\le{\mathbb{E}\,}\vert X\vert$   bzw.$\displaystyle \qquad-{\mathbb{E}\,}\vert X\vert={\mathbb{E}\,}(-\vert X\vert)\le {\mathbb{E}\,}X\,,
$

wobei sich die Gleichheit aus der Linearität des Lebesgue-Integrals ergibt.
Zu 3)
$ \;$ Die Integrierbarkeit von $ aX+bY$ ergibt sich unmittelbar aus der Ungleichung

$\displaystyle \vert aX+bY\vert\le \vert a\vert\vert X\vert+\vert b\vert\vert Y\vert\,, $

aus (14) und aus der Linearität des Lebesgue-Integrals, denn es gilt

$\displaystyle {\mathbb{E}\,}\vert aX+bY\vert\le {\mathbb{E}\,}(\vert a\vert\ver...
...ert{\mathbb{E}\,}\vert X\vert+\vert b\vert{\mathbb{E}\,}\vert Y\vert<\infty\,.
$

Die Gültigkeit von (16) folgt dann ebenfalls aus der Linearität des Lebesgue-Integrals.
Zu 4/5)
$ \;$ Diese Teilaussagen ergeben sich unmittelbar aus dem Sätzen über die monotone bzw. majorisierte Konvergenz von Lebesgue-Integralen.
Zu 6)
$ \;$ Falls $ X={1\hspace{-1mm}{\rm I}}_A$ für ein $ A\in\mathcal{F}$, dann ergibt sich aus der Darstellungsformel (6) für den Erwartungswert diskreter Verteilungen, dass

$\displaystyle {\mathbb{E}\,}
X={\mathbb{E}\,}{1\hspace{-1mm}{\rm I}}_A=0\cdot P({1\hspace{-1mm}{\rm I}}_A=0)+1\cdot P({1\hspace{-1mm}{\rm I}}_A=1)=P(A)\,,
$

vgl. auch den ersten Teil des Beweises von Theorem 4.3.
Zu 7)
$ \;$ Sei $ X$ integrierbar, und es gelte $ X\ge 0$ f.s. und $ {\mathbb{E}\,}X=0$. Wir führen einen indirekten Beweis und nehmen an, dass $ P(X>0)>0$. Wegen der Stetigkeitseigenschaften von Wahrscheinlichkeitsmaßen (vgl. Theorem 2.3) gilt dann auch $ P(X>\varepsilon)>0$ für ein $ \varepsilon>0$. Hieraus und aus (14) folgt, dass

$\displaystyle {\mathbb{E}\,}X\ge {\mathbb{E}\,}
(X{1\hspace{-1mm}{\rm I}}_{\{X>...
...{1\hspace{-1mm}{\rm I}}_{\{X>\varepsilon\}}
=\varepsilon P(X>\varepsilon)>0\,.
$

Dies ist aber im Widerspruch zu $ {\mathbb{E}\,}X=0$.

$ \Box$

Korollar 4.2   Sei $ n\in\mathbb{N}$ eine beliebige, jedoch fest vorgegebene natürliche Zahl, und seien $ X_1,\ldots,X_n$ beliebige Zufallsvariablen mit $ {\mathbb{E}\,}\vert X_1\vert<\infty,\ldots,{\mathbb{E}\,}\vert X_n\vert<\infty$. Dann gilt für beliebige Konstanten $ a_1,\ldots,a_n\in\mathbb{R}$

$\displaystyle {\mathbb{E}\,}(a_1\,X_1+\ldots+a_n\,X_n)=a_1\,{\mathbb{E}\,}X_1+\ldots+a_n\,{\mathbb{E}\,}X_n\,.$ (22)

Beweis
$ \;$ Die Behauptung ergibt sich aus (16) mittels vollständiger Induktion.


Beispiel
$ \;$ (wiederholtes Würfeln)


next up previous contents
Next: Integral-Darstellung mittels Quantilfunktion Up: Erwartungswert Previous: Alternative Integral-Darstellungen   Contents
Ursa Pantle 2004-05-10