next up previous contents
Next: Beste erwartungstreue Schätzer Up: Güteeigenschaften von Punktschätzern Previous: Suffizienz   Contents


Vollständigkeit

Um in Abschnitt 2.3.5 die Frage untersuchen zu können, unter welchen Bedingungen erwartungstreue Schätzer mit minimaler Varianz existieren und wie man solche Schätzer gewinnen kann, benötigen wir noch eine weitere Eigenschaft von Punktschätzern.
Definition
$ \;$ Sei $ \varphi:\mathbb{R}^n\to\mathbb{R}^m$ eine beliebige Stichprobenfunktion. Der Schätzer $ \varphi(X_1,\ldots,X_n)$ für $ \theta$ heißt vollständig, falls für jede meßbare Funktion $ g:\mathbb{R}^m\to\mathbb{R}$ aus der Gültigkeit von

$\displaystyle {\mathbb{E}\,}_\theta
\bigl\vert g\bigl(\varphi(X_1,\ldots,X_n)\bigr)\bigr\vert<\infty$   und% latex2html id marker 28261
$\displaystyle \qquad
{\mathbb{E}\,}_\theta
g\bigl(\varphi(X_1,\ldots,X_n)\bigr)=0\,,\qquad\forall\,\theta\in\Theta
$

stets folgt, daß $ P_\theta\bigl(g\bigl(\varphi(X_1,\ldots,X_n)\bigr)=0\bigr)=1$ für jedes % latex2html id marker 28265
$ \theta\in\Theta$.

Lemma 2.4   Für jede meßbare Funktion $ \varphi:\mathbb{R}^n\to\mathbb{R}^m$ und für jede meßbare Abbildung $ g^\prime:\mathbb{R}^m\to\mathbb{R}^m$ ist der Schätzer $ g^\prime\bigl(\varphi(X_1,\ldots,X_n)\bigr)$ für $ \theta$ vollständig, falls $ \varphi(X_1,\ldots,X_n)$ diese Eigenschaft besitzt.

Der Beweis von Lemma 2.4 ergibt sich unmittelbar aus der Definition der Vollständigkeit.
Beachte
$ \;$ Für einige Verteilungsfamilien % latex2html id marker 28283
$ \{P_\theta,\,\theta\in\Theta\}$ ergibt sich die Vollständigkeit von Punktschätzern direkt aus der Definition dieses Begriffes, ohne daß weitere analytische Hilfsmittel erforderlich sind.
Beispiele
 
  1. $ \;$ Bernoulli-verteilte Stichprobenvariablen
    • Es gelte % latex2html id marker 28287
$ \{P_\theta,\,\theta\in\Theta\}=\{$Bin $ (1,p),\,p\in(0,1)\}$.
    • Zur Erinnerung: In Abschnitt 2.3.3 hatten wir gezeigt, daß $ Y=X_1\ldots+X_n$ und damit auch $ \overline X_n$ suffiziente Schätzer für $ p$ sind.
    • Wir zeigen nun, daß $ Y=X_1\ldots+X_n$ und damit (wegen Lemma 2.4) auch $ \overline X_n$ vollständige Schätzer für $ p$ sind.
    • Sei $ g:\mathbb{R}\to\mathbb{R}$ eine Funktion, so daß $ {\mathbb{E}\,}_p g(Y)=0$ für jedes $ p\in(0,1)$.
    • Dann gilt für jedes $ p\in(0,1)$
      $\displaystyle 0={\mathbb{E}\,}_p g(Y)$ $\displaystyle =$ $\displaystyle \sum\limits_{i=0}^n g(i){n\choose i}p^i(1-p)^{n-i}$  
        $\displaystyle =$ $\displaystyle (1-p)^n\sum\limits_{i=0}^n g(i){n\choose
i}\Bigl(\frac{p}{1-p}\Bigr)^i$  

      und damit für jedes $ t\in(0,\infty)$

      $\displaystyle 0=\sum\limits_{i=0}^n g(i){n\choose i}t^i\,.
$

    • Hieraus folgt, daß jeder Koeffizient des Polynoms auf der rechten Seite dieser Gleichung Null sein muß, d.h.

      $\displaystyle g(i)=0\,,\qquad\forall\, i\in\{0,1,\ldots,n\}\,.
$

  2. $ \;$ Poisson-verteilte Stichprobenvariablen
    • Es gelte % latex2html id marker 28330
$ \{P_\theta,\,\theta\in\Theta\}=\{$Poi $ (\lambda),\,\lambda>0\}$.
    • Dann ist $ Y=X_1+\ldots+X_n$ für $ \lambda$ vollständig, denn
    • es gilt $ Y\sim$ Poi $ (n\lambda)$, vgl. Übungsaufgabe WR-5.4, und somit gilt

      $\displaystyle 0={\mathbb{E}\,}_\lambda g(Y)=\sum\limits_{k=0}^\infty
g(k)\frac{(n\lambda)^k}{k!}\;e^{-n\lambda}\,,\qquad\forall\,\lambda>0
$

      bzw. äquivalent hierzu

      $\displaystyle 0= \sum\limits_{k=0}^\infty g(k)\frac{(n\lambda)^k}{k!}
\;,\qquad\forall\,\lambda>0
$

      genau dann, wenn $ g(k)=0$ für jedes $ k=0,1,\ldots$.
    • Zur Erinnerung: In Abschnitt 2.3.3 hatten wir außerdem mit Hilfe des Faktorisierungssatzes von Neyman-Fisher (vgl.Theorem 2.3) gezeigt, daß $ Y=X_1+\ldots+X_n$ auch suffizient für $ \lambda$ ist.
  3. $ \;$ Gleichverteilte Stichprobenvariablen
    • Es gelte % latex2html id marker 28356
$ \{P_\theta,\,\theta\in\Theta\}=\{$U $ (0,\theta),\,\theta>0\}$, d.h., die Stichprobenvariablen $ X_1,\ldots,X_n$ sind gleichverteilt über dem Intervall $ (0,\theta)$, wobei $ \theta>0$ ein unbekannte Zahl ist.
    • Wir zeigen nun, daß $ \max \{X_1,\ldots,X_n\}$ ein vollständiger Schätzer für $ \theta$ ist.
    • Für die Dichte $ f_{\max \{X_1,\ldots,X_n\}}(t;\theta)$ von $ \max \{X_1,\ldots,X_n\}$ gilt (vgl. Abschnitt 1.4.3)

      $\displaystyle f_{\max \{X_1,\ldots,X_n\}}(t;\theta)=\left\{\begin{array}{ll}
n...
...x{falls
$t\in(0,\theta)$,}\\  [3\jot]
0 & \mbox{sonst.}
\end{array}\right.
$

    • Sei $ g:\mathbb{R}\to\mathbb{R}$ eine Funktion, so daß $ {\mathbb{E}\,}_\theta g(\max
\{X_1,\ldots,X_n\})=0$ für jedes $ \theta\in(0,\infty)$.
    • Dann gilt für jedes $ \theta\in(0,\infty)$
      $\displaystyle 0=\frac{d}{d\theta}{\mathbb{E}\,}_\theta g(\max \{X_1,\ldots,X_n\})$ $\displaystyle =$ $\displaystyle \frac{d}{d\theta}\int\limits_0^\theta
g(t)nt^{n-1}\theta^{-n}\,dt$  
        $\displaystyle \stackrel{\rm Produktregel}{=}$ $\displaystyle \theta^{-n}\frac{d}{d\theta}\int\limits_0^\theta g(t)nt^{n-1}\,dt...
...d\theta}\theta^{-n}\Bigr)\underbrace{\int\limits_0^\theta
g(t)nt^{n-1}\,dt}_{0}$  
        $\displaystyle =$ $\displaystyle \theta^{-n}ng(\theta)\theta^{n-1}+0$  
        $\displaystyle =$ $\displaystyle \theta^{-1}ng(\theta)\,.$  

    • Hieraus folgt, daß $ g(\theta)=0$ für jedes $ \theta\in(0,\infty)$.


Beachte
 

Lemma 2.5   Seien $ G_1$ und $ G_2$ zwei $ \sigma$-endliche Maße über $ (\mathbb{R},\mathcal{B}(\mathbb{R}))$. Falls die Integrale

% latex2html id marker 28424
$\displaystyle I_j(\theta)=\int\limits_\mathbb{R}e^{\theta
 y}G_j(dy)\,,\qquad\forall\,\theta\in\Theta,\,j=1,2$ (42)

existieren (und endlich sind) und falls $ I_1(\theta)=I_2(\theta)$ für jedes % latex2html id marker 28428
$ \theta\in\Theta$, dann gilt $ G_1=G_2$.

Beweis
 
Beispiele
 
  1. $ \;$ Exponentialverteilte Stichprobenvariablen
    • Es gelte % latex2html id marker 28494
$ \{P_\theta,\,\theta\in\Theta\}=\{$ Exp $ (\lambda),\,\lambda>0\}$. Dann ist $ Y=X_1+\ldots+X_n$ Erlang-verteilt mit der Dichte

      $\displaystyle f_Y(y;\lambda)=\frac{\lambda^ny^{n-1}e^{-\lambda
y}}{(n-1)!}\,,\qquad\forall\, y>0\,.
$

    • Hieraus folgt, daß $ Y$ nicht nur ein suffizienter Schätzer (vgl. Abschnitt 2.3.3), sondern auch ein vollständiger Schätzer für $ \lambda$ ist, denn es gilt

      $\displaystyle 0={\mathbb{E}\,}_\lambda
g(Y)=\lambda^n\int\limits_0^\infty\frac{g(y)y^{n-1}\,e^{-\lambda
y}}{(n-1)!}\;dy\;,\qquad\forall\,\lambda>0
$

      genau dann, wenn

      $\displaystyle \int\limits_0^\infty \,e^{-\lambda y} g^+(y)y^{n-1}
 \;dy=\int\limits_0^\infty \,e^{-\lambda y} g^-(y)y^{n-1}
 \;dy\;,\qquad\forall\,\lambda>0\,,$ (44)

      wobei $ g^+(y)=\max\{0,g(y)\}$ und $ g^-(y)=\max\{0,-g(y)\}$.
    • Weil dabei $ {\mathbb{E}\,}_\lambda \vert g(Y)\vert<\infty$ vorausgesetzt wird, sind mit $ G_1(B)=\int_B g^+(y)y^{n-1} \;dy$ und $ G_2(B)=\int_B g^-(y)y^{n-1} \;dy$ zwei $ \sigma$-endliche Maße $ G_1$ und $ G_2$ gegeben.
    • Wegen Lemma 2.5 gilt somit (44) genau dann, wenn $ G_1=G_2$, d.h., $ g^+(y)=g^-(y)$ bzw. $ g(y)=0$ für fast jedes $ y\in\mathbb{R}$.


  2. $ \;$ Normalverteilte Stichprobenvariablen
    • Es gelte % latex2html id marker 28536
$ \{P_\theta,\,\theta\in\Theta\}=\{$N $ (\mu,\sigma^2),\,\mu\in\mathbb{R}\}$, wobei die Varianz $ \sigma^2>0$ bekannt sei.
    • Wir zeigen, daß $ \overline X_n$ ein vollständiger Schätzer für $ \mu$ ist.
    • Weil $ \overline X_n\sim$ N $ (\mu,\sigma^2/n)$, gilt somit

      $\displaystyle f_{\overline X_n}(y;\mu) =
\frac{1}{(2\pi\sigma^2/n)^{1/2}}\exp\Bigl(\frac{-n(y-\mu)^2}{2\sigma^2}\Bigr)
$

    • Hieraus folgt, daß

      $\displaystyle 0={\mathbb{E}\,}_\mu g(\overline X_n)
=\int\limits_\mathbb{R}g(y...
...l(\frac{-n(y-\mu)^2}{2\sigma^2}\Bigr)\;dy\;,
\qquad\forall\,\mu\in\mathbb{R}
$

      genau dann, wenn

      $\displaystyle 0=\int\limits_\mathbb{R}\exp\Bigl(\frac{n\mu}{\sigma^2}\;y\Bigr) ...
...Bigl(\frac{-ny^2}{2\sigma^2}\Bigr)\;dy\;,
\qquad\forall\,\mu\in\mathbb{R}\,.
$

    • Hieraus und aus Lemma 2.5 ergibt sich nun (genauso wie in dem vorhergehenden Beispiel exponentialverteilter Stichprobenvariablen), daß diese genau dann gilt, wenn $ g(y)=0$ für fast jedes $ y\in\mathbb{R}$.

next up previous contents
Next: Beste erwartungstreue Schätzer Up: Güteeigenschaften von Punktschätzern Previous: Suffizienz   Contents
Roland Maier 2003-03-06