next up previous contents
Nächste Seite: Hesse-Matrix Aufwärts: Maximum-Likelihood-Schätzer für Vorherige Seite: Maximum-Likelihood-Schätzer für   Inhalt


Loglikelihood-Funktion und ihre partiellen Ableitungen

Zur Bestimmung von Maximum-Likelihood-Schätzern ist die Kenntnis der so genannten Scorefunktionen, d.h. der partiellen Ableitungen der Loglikelihood-Funktion, sowie der Fisher-Informationsmatrix nützlich, die wie folgt definiert ist.

Definition
$ \;$ Für beliebige $ i,j=1,\ldots,m$ sei

$\displaystyle U_i({\boldsymbol{\beta}})=\;\frac{\partial}{\partial\beta_i}\;\log
L({\mathbf{Y}},{\boldsymbol{\beta}})$   und$\displaystyle \qquad
I_{ij}({\boldsymbol{\beta}})={\mathbb{E} }\bigl(U_i({\boldsymbol{\beta}})U_j({\boldsymbol{\beta}})\bigr) .
$

Dann wird der $ m$-dimensionale Zufallsvektor $ {\mathbf{U}}({\boldsymbol{\beta}})=\bigl(U_1({\boldsymbol{\beta}}),\ldots,U_m({\boldsymbol{\beta}})\bigr)^\top$ bzw. die (deterministische) $ m\times m$-Matrix $ {\mathbf{I}}({\boldsymbol{\beta}})=\bigl(I_{ij}({\boldsymbol{\beta}})\bigr)$ der Scorevektor bzw. die Fisher-Informationsmatrix genannt.


Mit der Schreibweise

$\displaystyle \frac{d\mu_i}{d\eta_i}({\boldsymbol{\beta}})\;=\;\frac{dh(s)}{ds}...
..._{s=\eta_i} \;=\; {\Bigl(\frac{dg(t)}{dt}\Bigr)^{-1}}\bigl\vert _{ t=h(\eta_i)}$ (26)

ergibt sich das folgende Resultat.

Theorem 4.1   $ \;$ Für beliebige $ j,k=1,\ldots,m$ gilt

$\displaystyle U_j({\boldsymbol{\beta}})=\sum_{i=1}^nx_{ij}\bigl(Y_i-\mu_i({\bol...
...u_i}{d\eta_i}({\boldsymbol{\beta}})\;\frac{1}{\sigma_i^2({\boldsymbol{\beta}})}$ (27)

und

$\displaystyle I_{jk}({\boldsymbol{\beta}})=\sum_{i=1}^nx_{ij}x_{ik}\Bigl(\frac{...
...a_i}({\boldsymbol{\beta}})\Bigr)^2 \;\frac{1}{\sigma_i^2({\boldsymbol{\beta}})}$ (28)

bzw. in Matrix-Schreibweise

$\displaystyle {\mathbf{U}}({\boldsymbol{\beta}})={\mathbf{X}}^\top{\mathbf{V}}^...
...{\boldsymbol{\beta}})\; ({\mathbf{Y}}-{\boldsymbol{\mu}}({\boldsymbol{\beta}}))$   und$\displaystyle \qquad {\mathbf{I}}({\boldsymbol{\beta}})={\mathbf{X}}^\top{\math...
...ol{\mu}}}{d{\boldsymbol{\eta}}}({\boldsymbol{\beta}})\Bigr)^2\; {\mathbf{X}} ,$ (29)

wobei

$\displaystyle {\mathbf{V}}({\boldsymbol{\beta}})\;=\;{\rm diag}\bigl(\sigma_i^2...
...a}})\;=\;{\rm diag}\Bigl(\frac{d\mu_i}{d\eta_i}({\boldsymbol{\beta}})\Bigr) .
$

Beweis
 

Korollar 4.1     Sei $ \bigl(g({\mathbb{E} }Y_1),\ldots,g({\mathbb{E} }Y_n)\bigr)^\top={\mathbf{X}}{\boldsymbol{\beta}}$ ein GLM mit natürlicher Linkfunktion $ g:G\to\mathbb{R}$. Dann gilt für beliebige $ j,k=1,\ldots,m$

$\displaystyle U_j({\boldsymbol{\beta}})=\frac{1}{\tau^2}\;\sum_{i=1}^nx_{ij}\bigl(Y_i-\mu_i({\boldsymbol{\beta}})\bigr)$   bzw.$\displaystyle \qquad {\mathbf{U}}({\boldsymbol{\beta}})=\frac{1}{\tau^2}\;{\mathbf{X}}^\top({\mathbf{Y}}-{\boldsymbol{\mu}}({\boldsymbol{\beta}}))$ (32)

und

$\displaystyle I_{jk}({\boldsymbol{\beta}})=\frac{1}{\tau^4}\;\sum_{i=1}^nx_{ij}x_{ik}\sigma_i^2({\boldsymbol{\beta}})$   bzw.$\displaystyle \qquad {\mathbf{I}}({\boldsymbol{\beta}})=\frac{1}{\tau^4}\;{\mathbf{X}}^\top{\mathbf{V}}({\boldsymbol{\beta}}){\mathbf{X}} .$ (33)

Beweis
$ \;$ Weil $ g:G\to\mathbb{R}$ eine natürliche Linkfunktion ist, gilt $ \theta_i=\eta_i$ für jedes $ i=1,\ldots,n$. Hieraus und aus Lemma 4.2 ergibt sich, dass

$\displaystyle \frac{d\mu_i}{d\eta_i}\;=\;b^{(2)}(\theta_i)\;=\;\frac{1}{\tau^2}\;\sigma_i^2 .
$

Die Behauptung ergibt sich somit aus Theorem 4.1.

$ \Box$



next up previous contents
Nächste Seite: Hesse-Matrix Aufwärts: Maximum-Likelihood-Schätzer für Vorherige Seite: Maximum-Likelihood-Schätzer für   Inhalt
Hendrik Schmidt 2006-02-27