next up previous contents
Next: Konfidenzintervalle Up: Schätzung von Parametern Previous: Momentenmethode   Contents


Maximum-Likelihood-Methode


Wir betrachten nur die beiden (grundlegenden) Fälle, daß die Stichprobenvariablen $ X_1,\ldots,X_n$ entweder diskret oder absolutstetig sind. D.h., für jedes $ \theta\in\Theta$ gelte entweder

oder

Definition 5.18
$ \;$ Die Abbildung $ L:\mathbb{R}^n\times\Theta\to[0,\infty)$ sei durch die folgende Vorschrift gegeben. Für jeden Vektor $ (x_1,\ldots,x_n)\in\mathbb{R}^n$ heißt die Abbildung $ \theta\to L(x_1,\ldots,x_n;\theta)$ die Likelihood-Funktion der Stichprobe $ (x_1,\ldots,x_n)$.

Die Idee der Maximum-Likelihood-Methode besteht nun darin, für jede (konkrete) Stichprobe $ (x_1,\ldots,x_n)$ einen Parametervektor $ \theta\in\Theta$ zu bestimmen, so daß der Wert $ L(x_1,\ldots,x_n;\theta)$ der Likelihood-Funktion möglichst groß wird. Dies führt zu der folgenden

Definition 5.19
$ \;$ Sei $ \hat\theta:\mathbb{R}^n\to\Theta\subset\mathbb{R}^m$ eine Stichprobenfunktion mit

$\displaystyle L(x_1,\ldots,x_n;\theta)\le L(x_1,\ldots,x_n;\hat\theta(x_1,\ldots,x_n))\qquad\forall (x_1,\ldots,x_n)\in\mathbb{R}^n,\;\theta\in\Theta\,.$ (35)

Der Zufallsvektor $ \hat\theta(X_1,\ldots,X_n)$ wird dann Maximum-Likelihood-Schätzer von $ \theta$ genannt.

Beispiel
 

Beachte
 

Beispiele
 
  1. Bernoulli-Verteilung
    • Betrachten die Familie $ \{P_\theta,\,\theta\in\Theta\}=\{$Bin $ (1,p),\,p\in[0,1]\}$ der Bernoulli-Verteilungen.
    • Dann gilt

      $\displaystyle p(x;p)=\left\{\begin{array}{ll}
p^x(1-p)^{1-x}\,,&\mbox{falls $x\in\{0,1\}$}\\
0 & \mbox{sonst}
\end{array}\right.
$

    • Die Likelihood-Funktion $ L$ ist also gegeben durch

      $\displaystyle L(x_1,\ldots,x_n;p)=\left\{\begin{array}{ll}
\prod\limits _{i=1}^...
...{falls
$(x_1,\ldots,x_n)\in\{0,1\}^n$}\\
0 & \mbox{sonst}
\end{array}\right.
$

    • Falls $ x_1=\ldots=x_n=0$ bzw. $ x_1=\ldots=x_n=n$, dann sieht man leicht, daß die Abbildung $ p\to L(x_1,\ldots,x_n;p)$ an der Stelle $ p=0$ bzw. $ p=1$ ein (eindeutig bestimmtes) Maximum hat.
    • Sei nun $ (x_1,\ldots,x_n)\in\{0,1\}^n$ mit $ 0<\sum\limits _{i=1}^n x_i<n$. Dann ist

      $\displaystyle p\to
\log L(x_1,\ldots,x_n;p)=\Bigl(\sum\limits _{i=1}^n
x_i\Bigr)\log p+\Bigl(n-\sum\limits _{i=1}^n x_i\Bigr)\log
(1-p)
$

      eine stetige Funktion im Intervall $ (0,1)$, und es gilt

      $\displaystyle \lim\limits _{p\to 0}\log L(x_1,\ldots,x_n;p)=-\infty$   bzw.$\displaystyle \qquad
\lim\limits _{p\to 1}\log L(x_1,\ldots,x_n;p)=-\infty\,.
$

    • Die Abbildung $ p\to\log L(x_1,\ldots,x_n;p)$ hat also ein Maximum im Intervall $ (0,1)$.
    • Durch Differenzieren nach $ p$ ergibt sich

      $\displaystyle \frac{\partial\log L(x_1,\ldots,x_n;p)}{\partial p}=
\Bigl(\sum\l...
...^n
x_i\Bigr)\frac{1}{p}-\Bigl(n-\sum\limits _{i=1}^n
x_i\Bigr)\frac{1}{1-p}\;.
$

    • Weil die Gleichung

      $\displaystyle \Bigl(\sum\limits _{i=1}^n
x_i\Bigr)\frac{1}{p}-\Bigl(n-\sum\limits _{i=1}^n
x_i\Bigr)\frac{1}{1-p}=0
$

      die (eindeutig bestimmte) Lösung

      $\displaystyle \hat p(x_1,\ldots,x_n)=\frac{1}{n}\sum\limits _{i=1}^n
x_i\qquad \Bigl(=\overline x_n\Bigr)
$

      hat, nimmt die Abbildung $ p\to\log L(x_1,\ldots,x_n;p)$ an der Stelle $ p=\overline x_n$ ihr Maximum an.
    • Also ist der Maximum-Likelihood-Schätzer für den Parameter $ p$ gegeben durch

      $\displaystyle \hat p(X_1,\ldots,X_n)=\frac{1}{n}\sum\limits _{i=1}^n X_i
\qquad \Bigl(=\overline X_n\Bigr)\,.
$


  2. Binomial-Verteilung
    • Für eine beliebige, jedoch vorgegebene (d.h. bekannte) natürliche Zahl $ n_0\ge 1$ betrachten wir nun die Familie $ \{P_\theta,\,\theta\in\Theta\}=\{$Bin $ (n_0,p),\,p\in[0,1]\}$ von Binomialerteilungen.
    • Dann gilt

      $\displaystyle p(x;p)=\left\{\begin{array}{ll} \displaystyle
{n_0\choose x} p^x(...
...&\mbox{falls $x\in\{0,1,\ldots,n_0\}$}\\
0 & \mbox{sonst}
\end{array}\right.
$

    • Genauso wie in Beispiel 1 ergibt sich der Maximum-Likelihood-Schätzer

      $\displaystyle \hat p(X_1,\ldots,X_n)=\frac{\overline X_n}{n_0}
$

      für den (unbekannten) Parameter $ p$.


  3. Poisson-Verteilung
    • Betrachten die Familie $ \{P_\theta,\,\theta\in\Theta\}=\{$Poi $ (\lambda),\,\lambda\ge 0\}$ der Poisson-Verteilungen.
    • Dann gilt

      $\displaystyle p(x;\lambda)=\left\{\begin{array}{ll}\displaystyle
\frac{\lambda^...
...}\,,&\mbox{falls $x\in\{0,1,\ldots\}$}\\
0 & \mbox{sonst}
\end{array}\right.
$

    • Auf die gleiche Weise wie in den Beispielen 1 und 2 ergibt sich der Maximum-Likelihood-Schätzer

      $\displaystyle \hat \lambda(X_1,\ldots,X_n)=\overline X_n
$

      für den Parameter $ \lambda$.


  4. Normalverteilung
    • Betrachten nun die Familie $ \{P_\theta,\,\theta\in\Theta\}=\{$N $ (\mu,\sigma^2),\,
\mu\in\mathbb{R},\sigma^2>0\}$ der Normalverteilungen.
    • Dann gilt

      $\displaystyle f(x;\mu,\sigma^2)= \frac{1}{\sqrt{2\pi}\sigma}
\exp \Bigl( -\frac{1}{2}\Bigl(\frac{x-\mu}{\sigma
}\Bigr)^{2}\Bigr)\,.
$

    • Die Likelihood-Funktion $ L$ ist somit gegeben durch

      $\displaystyle L(x_1,\ldots,x_n;\mu,\sigma^2)=\Bigl(\frac{1}{\sqrt{2\pi}\sigma}\Bigr)^n
\exp \Bigl( -\frac{1}{2\sigma^2}\sum\limits _{i=1}^n (x_i-\mu)^2\Bigr)\,.
$

    • Für die Loglikelihood-Funktion gilt

      $\displaystyle \log
L(x_1,\ldots,x_n;\mu,\sigma^2)=-n\log(\sqrt{2\pi}\sigma)
-\frac{1}{2\sigma^2}\sum\limits _{i=1}^n (x_i-\mu)^2\,.
$

    • Durch Differenzieren nach $ \mu$ ergibt sich

      $\displaystyle \frac{\partial \log
L(x_1,\ldots,x_n;\mu,\sigma^2)}{\partial\mu}=...
... \log
L(x_1,\ldots,x_n;\mu,\sigma^2)}{\partial^2\mu}=
-\frac{1}{\sigma^2}<0\,.
$

    • Für jedes (fest vorgegebene) $ \sigma^2>0$ nimmt also die Abbildung

      $\displaystyle \mu\to\log L(x_1,\ldots,x_n;\mu,\sigma^2)
$

      ihr Maximum an der Stelle $ \mu=\overline x_n$ an.
    • Es ist nun noch das Maximum der Abbildung

      $\displaystyle \sigma^2\to\log L(x_1,\ldots,x_n;\overline x_n,\sigma^2)$ (37)

      zu bestimmen.
    • Weil $ P(X_1=\ldots=X_n)=0$ gilt, können wir annehmen, daß nicht alle Stichprobenwerte $ x_1,\ldots,x_n$ gleich sind.
    • Dann ist die Abbildung (37) stetig für alle $ \sigma^2>0$, und es gilt

      $\displaystyle \lim\limits _{\sigma^2\to 0}\log L(x_1,\ldots,x_n;\overline x_n,\sigma^2)
=-\infty$   bzw.$\displaystyle \qquad
\lim\limits _{\sigma^2\to\infty}\log L(x_1,\ldots,x_n;\overline x_n,\sigma^2)
=-\infty\,.
$

    • Die Abbildung (37) hat also ein Maximum im Intervall $ (0,\infty)$.
    • Durch Differenzieren nach $ \sigma^2$ ergibt sich

      $\displaystyle \frac{\partial \log
L(x_1,\ldots,x_n;\overline x_n,\sigma^2)}{\pa...
...}{2\sigma^2}
+\frac{1}{2\sigma^4}\sum\limits _{i=1}^n (x_i-\overline x_n)^2\,.
$

    • Weil vorausgesetzt wird, daß nicht alle Stichprobenwerte $ x_1,\ldots,x_n$ gleich sind, gilt

      $\displaystyle \sum\limits _{i=1}^n (x_i-\overline x_n)^2>0\,.
$

    • Deshalb hat die Gleichung

      $\displaystyle -\frac{n}{2\hat\sigma^2}
+\frac{1}{2\hat\sigma^4}\sum\limits _{i=1}^n (x_i-\overline x_n)^2
= 0
$

      die (eindeutig bestimmte) Lösung

      $\displaystyle \hat\sigma^2(x_1,\ldots,x_n)
=\frac{1}{n}\sum\limits _{i=1}^n(x_i-\overline
x_n)^2\,.
$

    • Hieraus ergeben sich die Maximum-Likelihood-Schätzer

      $\displaystyle \hat\mu(X_1,\ldots,X_n)=\overline X_n\,,\qquad
\hat\sigma^2(X_1,\ldots,X_n)
=\frac{1}{n}\sum\limits _{i=1}^n(X_i-\overline X_n)^2
$

      für die Parameter $ \mu$ und $ \sigma^2$.


  5. Gleichverteilung
    • Betrachten die Familie $ \{P_\theta,\,\theta\in\Theta\}=\{$U $ (0,b),\,b>0\}$ von Gleichverteilungen.
    • Dann gilt

      $\displaystyle f(x;b)=\left\{ \begin{array}{ll}\displaystyle
\frac{1}{b}\;, & \mbox{falls $0<x<b$}\\  0 & \mbox{sonst}
\end{array}\right.
$

    • Die Likelihood-Funktion $ L$ ist somit gegeben durch

      $\displaystyle L(x_1,\ldots,x_n;b)=\left\{ \begin{array}{ll}\displaystyle
\frac{...
...;, & \mbox{falls $0<x_1,\ldots,x_n
<b$}\\  0 & \mbox{sonst}
\end{array}\right.
$

    • Weil die Abbildung $ b\to L(x_1,\ldots,x_n;b)$ monoton fallend ist für $ b>\max\{x_1,\ldots,x_n\}\ge 0$, ergibt sich der Maximum-Likelihood-Schätzer

      $\displaystyle \hat b(X_1,\ldots,X_n)=\max\{X_1,\ldots,X_n\}
$

    für den Parameter $ b$.


next up previous contents
Next: Konfidenzintervalle Up: Schätzung von Parametern Previous: Momentenmethode   Contents
Roland Maier 2001-08-20