Schätzung des Vektors
der
Regressionskoeffizienten
Wir bestimmen nun einen Vektor
, so
daß der mittlere quadratische Fehler
(15)
für
minimal wird.
Dabei benutzen wir die folgenden Grundbegriffe der Vektor-Algebra:
Für jedes
heißt
die Norm des Vektors
.
Für beliebige
und
heißt
das Skalarprodukt der Vektoren
und
.
Mit
bezeichnen wir den (-dimensionalen) linearen Vektorraum, der durch die (-dimensionalen) linear
unabhängigen Basisvektoren
,
aufgespannt wird, d.h.,
Mit
bezeichnen wir das -dimensionale
orthogonale Komplement von
in
, d.h.,
Beachte: Für jeden Vektor
gibt es eine
Darstellung
mit
und
, wobei die
Zerlegungskomponenten
und
eindeutig bestimmt sind.
Die Abbildung
mit
heißt die Orthogonalprojektion von
auf den -dimrnsionalen
linearen Unterraum
.
In diesem Zusammenhang ist der folgende Hilfssatz nützlich, den
wir hier ohne Beweis angeben.
Lemma 3.5
Die Matrix
ist genau dann die
Orthogonalprojektion von
auf den -dimensionalen
linearen Unterraum
, d.h.
für jedes
,
wenn
und wenn
idempotent und
symmetrisch ist, d.h.,
bzw.
(16)
Mit Hilfe von Lemma 3.5 können wir nun einen
MKQ-Schätzer für den Vektor
der
Regressionskoeffizienten bestimmen.
Theorem 3.2
Der mittlere quadratische Fehler
in
ist genau dann minimal, wenn
, wobei
(17)
Beweis
Für jeden Vektor
gilt
Hieraus folgt, daß
genau dann minimal ist, wenn
(18)
Weil vorausgesetzt wird, daß die Designmatrix
den
,,vollen'' Rang hat, ergibt sich aus Lemma 3.1,
daß auch
gilt.
Wegen Theorem 3.1 ist somit
regulär, d.h., die inverse Matrix
ist
wohldefiniert.
Die Gleichung (18) läßt sich also wie folgt nach
umstellen: Aus (18) ergibt sich die
Gleichung
mit
der Lösung