next up previous contents
Nächste Seite: Beste erwartungstreue Schätzer Aufwärts: Güteeigenschaften von Punktschätzern Vorherige Seite: Suffizienz   Inhalt


Vollständigkeit

Um in Abschnitt 2.3.5 die Frage untersuchen zu können, unter welchen Bedingungen erwartungstreue Schätzer mit minimaler Varianz existieren und wie man solche Schätzer gewinnen kann, benötigen wir noch eine weitere Eigenschaft von Punktschätzern.
Definition
$ \;$ Sei $ \varphi:\mathbb{R}^n\to\mathbb{R}^m$ eine beliebige Stichprobenfunktion. Der Schätzer $ \varphi(X_1,\ldots,X_n)$ für $ \theta$ heißt vollständig, falls für jede messbare Funktion $ g:\mathbb{R}^m\to\mathbb{R}$ aus der Gültigkeit von

$\displaystyle {\mathbb{E}\,}_\theta
\bigl\vert g\bigl(\varphi(X_1,\ldots,X_n)\bigr)\bigr\vert<\infty$   und% latex2html id marker 28300
$\displaystyle \qquad
{\mathbb{E}\,}_\theta
g\bigl(\varphi(X_1,\ldots,X_n)\bigr)=0\,,\qquad\forall\,\theta\in\Theta
$

folgt, dass $ P_\theta\bigl(g\bigl(\varphi(X_1,\ldots,X_n)\bigr)=0\bigr)=1$ für jedes % latex2html id marker 28304
$ \theta\in\Theta$.

Lemma 2.4   Für jede messbare Funktion $ \varphi:\mathbb{R}^n\to\mathbb{R}^m$ und für jede messbare Abbildung $ g^\prime:\mathbb{R}^m\to\mathbb{R}^m$ ist der Schätzer $ g^\prime\bigl(\varphi(X_1,\ldots,X_n)\bigr)$ für $ \theta$ vollständig, falls $ \varphi(X_1,\ldots,X_n)$ diese Eigenschaft besitzt.

Der Beweis von Lemma 2.4 ergibt sich unmittelbar aus der Definition der Vollständigkeit.
Beachte
$ \;$ Für einige Verteilungsfamilien % latex2html id marker 28322
$ \{P_\theta,\,\theta\in\Theta\}$ ergibt sich die Vollständigkeit von Punktschätzern direkt aus der Definition dieses Begriffes, ohne dass weitere analytische Hilfsmittel erforderlich sind.
Beispiele
 
  1. $ \;$ Bernoulli-verteilte Stichprobenvariablen
    • Es gelte % latex2html id marker 28326
$ \{P_\theta,\,\theta\in\Theta\}=\{$Bin $ (1,p),\,p\in(0,1)\}$.
    • Zur Erinnerung: In Abschnitt 2.3.3 hatten wir gezeigt, dass $ Y=X_1\ldots+X_n$ und damit auch $ \overline X_n$ suffiziente Schätzer für $ p$ sind.
    • Wir zeigen nun, dass $ Y=X_1\ldots+X_n$ und damit (wegen Lemma 2.4) auch $ \overline X_n$ vollständige Schätzer für $ p$ sind.
    • Sei $ g:\mathbb{R}\to\mathbb{R}$ eine Funktion, so dass $ {\mathbb{E}\,}_p g(Y)=0$ für jedes $ p\in(0,1)$.
    • Dann gilt für jedes $ p\in(0,1)$
      $\displaystyle 0={\mathbb{E}\,}_p g(Y)$ $\displaystyle =$ $\displaystyle \sum\limits_{i=0}^n g(i){n\choose i}p^i(1-p)^{n-i}$  
        $\displaystyle =$ $\displaystyle (1-p)^n\sum\limits_{i=0}^n g(i){n\choose
i}\Bigl(\frac{p}{1-p}\Bigr)^i$  

      und damit für jedes $ t\in(0,\infty)$

      $\displaystyle 0=\sum\limits_{i=0}^n g(i){n\choose i}t^i\,.
$

    • Hieraus folgt, dass jeder Koeffizient des Polynoms auf der rechten Seite dieser Gleichung Null sein muss, d.h.

      $\displaystyle g(i)=0\,,\qquad\forall\, i\in\{0,1,\ldots,n\}\,.
$

  2. $ \;$ Poisson-verteilte Stichprobenvariablen
    • Es gelte % latex2html id marker 28369
$ \{P_\theta,\,\theta\in\Theta\}=\{$Poi $ (\lambda),\,\lambda>0\}$.
    • Dann ist $ Y=X_1+\ldots+X_n$ für $ \lambda$ vollständig, denn
    • es gilt $ Y\sim$ Poi $ (n\lambda)$, vgl. Übungsaufgabe WR-5.4, und somit gilt

      $\displaystyle 0={\mathbb{E}\,}_\lambda g(Y)=\sum\limits_{k=0}^\infty
g(k)\frac{(n\lambda)^k}{k!}\;e^{-n\lambda}\,,\qquad\forall\,\lambda>0
$

      bzw. äquivalent hierzu

      $\displaystyle 0= \sum\limits_{k=0}^\infty g(k)\frac{(n\lambda)^k}{k!}
\;,\qquad\forall\,\lambda>0
$

      genau dann, wenn $ g(k)=0$ für jedes $ k=0,1,\ldots$.
    • Zur Erinnerung: In Abschnitt 2.3.3 hatten wir außerdem mit Hilfe des Faktorisierungssatzes von Neyman-Fisher (vgl.Theorem 2.3) gezeigt, dass $ Y=X_1+\ldots+X_n$ auch suffizient für $ \lambda$ ist.
  3. $ \;$ Gleichverteilte Stichprobenvariablen
    • Es gelte % latex2html id marker 28395
$ \{P_\theta,\,\theta\in\Theta\}=\{$U $ (0,\theta),\,\theta>0\}$, d.h., die Stichprobenvariablen $ X_1,\ldots,X_n$ sind gleichverteilt über dem Intervall $ (0,\theta)$, wobei $ \theta>0$ eine unbekannte Zahl ist.
    • Wir zeigen nun, dass $ \max \{X_1,\ldots,X_n\}$ ein vollständiger Schätzer für $ \theta$ ist.
    • Für die Dichte $ f_{\max \{X_1,\ldots,X_n\}}(t;\theta)$ von $ \max \{X_1,\ldots,X_n\}$ gilt (vgl. Abschnitt 1.4.3)

      $\displaystyle f_{\max \{X_1,\ldots,X_n\}}(t;\theta)=\left\{\begin{array}{ll}
n...
...x{falls
$t\in(0,\theta)$,}\\  [3\jot]
0 & \mbox{sonst.}
\end{array}\right.
$

    • Sei $ g:\mathbb{R}\to\mathbb{R}$ eine Funktion, so dass $ {\mathbb{E}\,}_\theta g(\max
\{X_1,\ldots,X_n\})=0$ für jedes $ \theta\in(0,\infty)$.
    • Dann gilt für jedes $ \theta\in(0,\infty)$
      $\displaystyle 0=\frac{d}{d\theta}{\mathbb{E}\,}_\theta g(\max \{X_1,\ldots,X_n\})$ $\displaystyle =$ $\displaystyle \frac{d}{d\theta}\int\limits_0^\theta
g(t)nt^{n-1}\theta^{-n}\,dt$  
        $\displaystyle \stackrel{\rm Produktregel}{=}$ $\displaystyle \theta^{-n}\frac{d}{d\theta}\int\limits_0^\theta g(t)nt^{n-1}\,dt...
...d\theta}\theta^{-n}\Bigr)\underbrace{\int\limits_0^\theta
g(t)nt^{n-1}\,dt}_{0}$  
        $\displaystyle =$ $\displaystyle \theta^{-n}ng(\theta)\theta^{n-1}+0$  
        $\displaystyle =$ $\displaystyle \theta^{-1}ng(\theta)\,.$  

    • Hieraus folgt, dass $ g(\theta)=0$ für jedes $ \theta\in(0,\infty)$.


Beachte
 

Lemma 2.5   Seien $ G_1$ und $ G_2$ zwei $ \sigma$-endliche Maße über $ (\mathbb{R},\mathcal{B}(\mathbb{R}))$, die entweder beide diskret oder beide absolutstetig sind. Falls die Integrale

% latex2html id marker 28463
$\displaystyle I_j(\theta)=\int\limits_\mathbb{R}e^{\theta
 y}G_j(dy)\,,\qquad\forall\,\theta\in\Theta,\,j=1,2$ (47)

existieren (und endlich sind) und falls $ I_1(\theta)=I_2(\theta)$ für jedes % latex2html id marker 28467
$ \theta\in\Theta$, dann gilt $ G_1=G_2$.

Beweis
 
Beispiele
 
  1. $ \;$ Exponentialverteilte Stichprobenvariablen
    • Es gelte % latex2html id marker 28547
$ \{P_\theta,\,\theta\in\Theta\}=\{$Exp $ (\lambda),\,\lambda>0\}$. Dann ist $ Y=X_1+\ldots+X_n$ Erlang-verteilt mit der Dichte

      $\displaystyle f_Y(y;\lambda)=\frac{\lambda^ny^{n-1}e^{-\lambda
y}}{(n-1)!}\,,\qquad\forall\, y>0\,.
$

    • Hieraus folgt, dass $ Y$ nicht nur ein suffizienter Schätzer (vgl. Abschnitt 2.3.3), sondern auch ein vollständiger Schätzer für $ \lambda$ ist, denn es gilt

      $\displaystyle 0={\mathbb{E}\,}_\lambda
g(Y)=\lambda^n\int\limits_0^\infty\frac{g(y)y^{n-1}\,e^{-\lambda
y}}{(n-1)!}\;dy\;,\qquad\forall\,\lambda>0
$

      genau dann, wenn

      $\displaystyle \int\limits_0^\infty \,e^{-\lambda y} g^+(y)y^{n-1}
 \;dy=\int\limits_0^\infty \,e^{-\lambda y} g^-(y)y^{n-1}
 \;dy\;,\qquad\forall\,\lambda>0\,,$ (49)

      wobei $ g^+(y)=\max\{0,g(y)\}$ und $ g^-(y)=\max\{0,-g(y)\}$.
    • Weil dabei $ {\mathbb{E}\,}_\lambda \vert g(Y)\vert<\infty$ vorausgesetzt wird, sind mit $ G_1(B)=\int_B g^+(y)y^{n-1}e^{-y} \;dy$ und $ G_2(B)=\int_B g^-(y)y^{n-1}e^{-y} \;dy$ zwei $ \sigma$-endliche Maße $ G_1$ und $ G_2$ gegeben.
    • Wegen Lemma 2.5 gilt somit (49) genau dann, wenn $ G_1=G_2$, d.h., $ g^+(y)=g^-(y)$ bzw. $ g(y)=0$ für fast jedes $ y\in\mathbb{R}$.


  2. $ \;$ Normalverteilte Stichprobenvariablen
    • Es gelte % latex2html id marker 28589
$ \{P_\theta,\,\theta\in\Theta\}=\{$N $ (\mu,\sigma^2),\,\mu\in\mathbb{R}\}$, wobei die Varianz $ \sigma^2>0$ bekannt sei.
    • Wir zeigen, dass $ \overline X_n$ ein vollständiger Schätzer für $ \mu$ ist.
    • Weil $ \overline X_n\sim$ N $ (\mu,\sigma^2/n)$, gilt somit

      $\displaystyle f_{\overline X_n}(y;\mu) =
\frac{1}{(2\pi\sigma^2/n)^{1/2}}\exp\Bigl(\frac{-n(y-\mu)^2}{2\sigma^2}\Bigr)
$

    • Hieraus folgt, dass

      $\displaystyle 0={\mathbb{E}\,}_\mu g(\overline X_n)
=\int\limits_\mathbb{R}g(y...
...l(\frac{-n(y-\mu)^2}{2\sigma^2}\Bigr)\;dy\;,
\qquad\forall\,\mu\in\mathbb{R}
$

      genau dann, wenn

      $\displaystyle 0=\int\limits_\mathbb{R}\exp\Bigl(\frac{n\mu}{\sigma^2}\;y\Bigr) ...
...Bigl(\frac{-ny^2}{2\sigma^2}\Bigr)\;dy\;,
\qquad\forall\,\mu\in\mathbb{R}\,.
$

    • Hieraus und aus Lemma 2.5 ergibt sich nun (genauso wie in dem vorhergehenden Beispiel exponentialverteilter Stichprobenvariablen), dass dies genau dann gilt, wenn $ g(y)=0$ für fast jedes $ y\in\mathbb{R}$.

next up previous contents
Nächste Seite: Beste erwartungstreue Schätzer Aufwärts: Güteeigenschaften von Punktschätzern Vorherige Seite: Suffizienz   Inhalt
Ursa Pantle 2004-07-14