next up previous contents
Next: Bedingungen von Lindeberg und Up: Zentraler Grenzwertsatz Previous: Anwendungsbeispiele   Contents


Charakteristische Funktionen

Charakteristische Funktionen sind ein wichtiges analytisches Hilfsmittel in der Stochastik, insbesondere bei der Herleitung des zentralen Grenzwertsatzes für Summen von unabhängigen, jedoch nichtnotwendig identisch verteilten Zufallsvariablen; vgl. die Abschnitte 5.3.4 und 5.3.5.



Definition
$ \;$ Sei $ X:\Omega\to\mathbb{R}$ eine beliebige Zufallsvariable. Die charakteristische Funktion $ \varphi_X:\mathbb{R}\to\mathbb{C}$ von $ X$ ist dann gegeben durch

$\displaystyle \varphi_X(t)={\mathbb{E}\,}e^{{\rm i}\,tX}=\int\limits_{-\infty}^\infty e^{{\rm i}\, tx} \, dF_X(x)\,,$ (78)

wobei das Integral als Lebesgue-Stieltjes-Integral aufgefasst wird.


Beachte
 


Wir zeigen zunächst einige elementare Eigenschaften von charakteristischen Funktionen.

Theorem 5.17   Sei $ X:\Omega\to\mathbb{R}$ eine beliebige Zufallsvariable, und seien $ a,b\in\mathbb{R}$ beliebige reelle Zahlen. Dann gilt:
1.
Für jedes $ t\in\mathbb{R}$ ist

$\displaystyle \vert\varphi_X(t)\vert\le \varphi_X(0)=1$ (79)

und

$\displaystyle \varphi_X(-t)=\overline{\varphi_X(t)}\,.$ (80)

2.
Die charakteristische Funktion $ \varphi_X:\mathbb{R}\to\mathbb{C}$ ist gleichmäßig stetig.
3.
Für die charakteristische Funktion $ \varphi_Y$ von $ Y=aX+b$ gilt

$\displaystyle \varphi_Y(t)=e^{{\rm i}\,tb}\varphi_X(at)\qquad\forall t\in\mathbb{R}\,.$ (81)


Beweis
 


Beispiel
 


Wir leiten nun eine einfache Formel für die charakteristische Funktion von Summen von unabhängigen Zufallsvariablen her.

Theorem 5.18   Seien $ X,Y:\Omega\to\mathbb{R}$ unabhängige Zufallsvariablen. Dann gilt für jedes $ t\in\mathbb{R}$

$\displaystyle \varphi_{X+Y}(t)=\varphi_{X}(t)\varphi_{Y}(t)\,.$ (86)

Beweis
$ \;$ Weil $ X$ und $ Y$ unabhängig sind, sind wegen Theorem 3.18 auch die Zufallsvariablen $ \cos(tX)$ und $ \cos(tY)$, $ \sin(tX)$ und $ \sin(tY)$ bzw. $ \sin(tX)$ und $ \cos(tY)$ jeweils unabhängig, und für jedes $ t\in\mathbb{R}$ gilt somit
$\displaystyle \varphi_{X+Y}(t)$ $\displaystyle =$ $\displaystyle {\mathbb{E}\,}e^{{\rm i}\,t(X+Y)}
= {\mathbb{E}\,}\bigl(e^{{\rm i}\,tX}e^{{\rm i}\,tY}\bigr)$  
  $\displaystyle =$ $\displaystyle {\mathbb{E}\,}\bigl((\cos(tX)+{\rm i}\,\sin(tX))(\cos(tY)+{\rm i}\,
\sin(tY))\bigr)$  
  $\displaystyle =$ $\displaystyle {\mathbb{E}\,}\bigl(\cos(tX)\cos(tY)-\sin(tX)\sin(tY)$  
    $\displaystyle \hspace{1cm}
+{\rm i}\,\sin(tX)\cos(tY)+{\rm i}\,\cos(tX)
\sin(tY)\bigr)$  
  $\displaystyle =$ $\displaystyle {\mathbb{E}\,}\cos(tX){\mathbb{E}\,}\cos(tY)-{\mathbb{E}\,}\sin(tX){\mathbb{E}\,}\sin(tY)$  
    $\displaystyle \hspace{1cm}
+{\rm i}\,
{\mathbb{E}\,}\sin(tX){\mathbb{E}\,}\cos(tY)+{\rm i}\,{\mathbb{E}\,}\cos(tX)
{\mathbb{E}\,}\sin(tY)$  
  $\displaystyle =$ $\displaystyle {\mathbb{E}\,}(\cos(tX)+{\rm i}\,\sin(tX)){\mathbb{E}\,}(\cos(tY)+{\rm i}\,\sin(tY))
=\varphi_{X}(t)\varphi_{Y}(t)\,.$  


 
  $ \Box$



In Theorem 5.19 beweisen wir eine nützliche Umkehrformel für charakteristische Funktionen. Hierfür benötigen wir die folgende trigonometrische Identität.

Lemma 5.10   Für jedes $ c\in\mathbb{R}$ gilt

$\displaystyle \int\limits_0^\infty \frac{\sin(cx)}{x}\, dx=({\rm sgn\,} c)\,\frac{\pi}{2}\;,$ (87)

wobei

$\displaystyle {\rm sgn\,} c=\left\{\begin{array}{rl} 1 \,,&\mbox{falls $c>0$,}\...
... &\mbox{falls $c=0$,}\\  [1\jot]
-1\,, &\mbox{falls $c<0$.}
\end{array}\right.
$

Einen Beweis von Lemma 5.10 kann man beispielsweise in dem Buch von K.L. Chung (A Course in Probability Theory, Academic Press, New York 1974) finden.

Theorem 5.19   Sei $ X:\Omega\to\mathbb{R}$ eine beliebige Zufallsvariable mit der Verteilungsfunktion $ F_X$. Für beliebige Stetigkeitspunkte $ a,b\in\mathbb{R}$ von $ F_X$ mit $ a<b$ gilt

$\displaystyle P(a<X<b)=\lim\limits_{c\to\infty}\frac{1}{2\pi}\int\limits_{-c}^c\frac{e^{-{\rm i}\, ta}-e^{-{\rm i}\,tb}}{{\rm i}\,t}\,\varphi_X(t)\, dt\,,$ (88)

wobei $ \varphi_X:\mathbb{R}\to\mathbb{C}$ die charakteristische Funktion von $ X$ ist.

Beweis
 

Beachte
 

Korollar 5.5   Seien $ X,Y:\Omega\to\mathbb{R}$ beliebige Zufallsvariablen. Dann gilt $ X\stackrel{{\rm d}}{=}Y$, falls

$\displaystyle \varphi_X(t)=\varphi_Y(t)\qquad\forall\, t\in\mathbb{R}\,.$ (89)

Beweis
 


Aus Theorem 5.19 ergibt sich schließlich der folgende Stetigkeitssatz für charakteristische Funktionen.

Theorem 5.20   Seien $ X,X_1,X_2,\ldots:\Omega\to\mathbb{R}$ beliebige Zufallsvariablen. Es gilt $ X_n\stackrel{{\rm d}}{\longrightarrow}X$ genau dann, wenn

$\displaystyle \lim\limits_{n\to\infty}\varphi_{X_n}(t)=\varphi_X(t)\qquad\forall\, t\in\mathbb{R}\,.$ (91)

Beweis
 

Wir betrachten nun noch den Zusammenhang zwischen den Momenten und der charakteristischen Funktion von Zufallsvariablen. Dabei zeigen wir, wie die charakteristische Funktion in eine Taylor-Reihe entwickelt werden kann.

Theorem 5.21   Sei $ X:\Omega\to\mathbb{R}$ eine beliebige Zufallsvariable mit der Verteilungsfunktion $ F_X$. Falls $ {\mathbb{E}\,}(\vert X\vert^n)<\infty$ für ein $ n\in\mathbb{N}$, dann gilt:
1.
Die charakteristische Funktion $ \varphi_X$ von $ X$ ist $ n$-mal stetig differenzierbar, und
2.
für jedes $ k\in\{1,\ldots,n\}$

$\displaystyle \varphi_X^{(k)}(t)=\int\limits_{-\infty}^\infty({\rm i}\,x)^k e^{{\rm i}\, tx}\, dF_X(x)\qquad\forall t\in\mathbb{R}$ (93)

bzw.

$\displaystyle {\mathbb{E}\,}(X^k)=\frac{\varphi_X^{(k)}(0)}{{\rm i}\,^k}\;.$ (94)

3.
Außerdem gilt die Taylor-Reihenentwicklung

$\displaystyle \varphi_X(t)=\sum\limits_{k=0}^n\frac{({\rm i}\, t)^k}{k!}{\mathb...
...\rm i}\, t)^n}{n!}{\mathbb{E}\,}\varepsilon_n(t)\qquad\forall t\in\mathbb{R}\,,$ (95)

wobei $ \varepsilon_n(t):\Omega\to\mathbb{R}$ eine Zufallsvariable ist mit $ \vert\varepsilon_n(t)\vert\le 3\vert X\vert^n$ für jedes $ t\in\mathbb{R}$ und $ \lim_{t\to
0}{\mathbb{E}\,}\varepsilon_n(t)=0$.

Beweis
 


Beachte
 


next up previous contents
Next: Bedingungen von Lindeberg und Up: Zentraler Grenzwertsatz Previous: Anwendungsbeispiele   Contents
Ursa Pantle 2004-05-10