next up previous contents
Next: Güteeigenschaften des MKQ-Schätzers Up: Methode der kleinsten Quadrate Previous: Grundlagen der Matrix-Algebra   Contents


Schätzung des Vektors $ {\boldsymbol {\beta }}$ der Regressionskoeffizienten

Lemma 3.5   Die $ n\times n$ Matrix $ {\mathbf{A}}$ ist genau dann die Orthogonalprojektion von $ \mathbb{R}^n$ auf den $ m$-dimensionalen linearen Unterraum $ \mathcal{L}_{\mathbf{X}}$, d.h. $ {\mathbf{A}}{\mathbf{x}}={\mathbf{x}}^\prime\in\mathcal{L}_{\mathbf{X}}$ für jedes $ {\mathbf{x}}\in\mathbb{R}^n$, wenn $ {\mathbf{A}}(\mathbb{R}^n)=\mathcal{L}_{\mathbf{X}}$ und wenn $ {\mathbf{A}}$ idempotent und symmetrisch ist, d.h.,

$\displaystyle {\mathbf{A}}={\mathbf{A}}^2$   bzw.$\displaystyle \qquad{\mathbf{A}}={\mathbf{A}}^\top\,.$ (16)


Mit Hilfe von Lemma 3.5 können wir nun einen MKQ-Schätzer für den Vektor $ {\boldsymbol {\beta }}$ der Regressionskoeffizienten bestimmen.

Theorem 3.2   $ \;$ Der mittlere quadratische Fehler $ e({\boldsymbol{\beta}})$ in % latex2html id marker 40145
$ (\ref{mul.qua.pri})$ ist genau dann minimal, wenn $ {\boldsymbol{\beta}}=\widehat{\boldsymbol{\beta}}$, wobei

$\displaystyle \widehat{\boldsymbol{\beta}}=({\mathbf{X}}^\top{\mathbf{X}})^{-1}{\mathbf{X}}^\top{\mathbf{Y}}\,.$ (17)


Beweis
 


next up previous contents
Next: Güteeigenschaften des MKQ-Schätzers Up: Methode der kleinsten Quadrate Previous: Grundlagen der Matrix-Algebra   Contents
Ursa Pantle 2003-03-10