next up previous contents
Nächste Seite: Schätzung der Modellparameter Aufwärts: Varianzanalyse als lineares Modell Vorherige Seite: Reparametrisierung der Erwartungswerte   Inhalt


Zweifaktorielle Varianzanalyse

Beachte
 


Außerdem betrachten wir eine ähnliche Reparametrisierung der Erwartungswerte $ \theta_{i_1i_2}$ wie in Abschnitt 3.1.2.

Beachte
 


Zur Konstruktion von Schätzern für die Modellparameter $ \mu$, $ \alpha^{(1)}_{i_1}$, $ \alpha^{(2)}_{i_2}$ bzw. $ \alpha_{i_1i_2}$ verwenden wir die folgende Notation: Sei

$\displaystyle Y_{i_1\cdot\cdot}=\sum\limits_{i_2=1}^{k_2}\sum\limits_{j=1}^r Y_...
...s_{j=1}^r Y_{i_1i_2j} ,\qquad Y_{i_1 i_2\cdot}=\sum\limits_{j=1}^r Y_{i_1i_2j}$ (19)

bzw.

$\displaystyle \overline Y_{i_1\cdot\cdot}=\frac{1}{rk_2}\; Y_{i_1\cdot\cdot} ,...
...imits_{i_1=1}^{k_1} \sum\limits_{i_2=1}^{k_2}\sum\limits_{j=1}^r Y_{i_1i_2j} .$ (20)

Theorem 3.3   $ \;$ Es gilt

$\displaystyle {\mathbb{E} }\overline Y_{\cdot\cdot\cdot}=\mu ,\quad{\mathbb{E...
...\overline Y_{i_1\cdot\cdot}-\overline Y_{\cdot i_2\cdot}\bigr)=\alpha_{i_1i_2}$ (21)

für beliebige $ i_1=1,\ldots,k_1$, $ i_2=1,\ldots,k_2$, d.h., durch $ \overline Y_{\cdot\cdot\cdot}$, $ \overline Y_{i_1\cdot\cdot}-
\overline Y_{\cdot\cdot\cdot}$, $ \overline Y_{\cdot i_2\cdot}-
\overline Y_{\cdot\cdot\cdot}$ und $ \overline
Y_{\cdot\cdot\cdot}+\overline Y_{i_1i_2\cdot}-\overline
Y_{i_1\cdot\cdot}-\overline Y_{\cdot i_2\cdot}$ sind erwartungstreue Schätzer für die Modellparameter $ \mu$, $ \alpha^{(1)}_{i_1}$, $ \alpha^{(2)}_{i_2}$ bzw. $ \alpha_{i_1i_2}$ gegeben .

Beweis
$ \;$ Aus der Definitionsgleichung von $ \overline Y_{\cdot\cdot\cdot}$ in (20) ergibt sich, dass
$\displaystyle {\mathbb{E} }\overline Y_{\cdot\cdot\cdot}$ $\displaystyle =$ $\displaystyle \frac{1}{rk_1k_2}\;\sum\limits_{i_1=1}^{k_1}
\sum\limits_{i_2=1}^...
...{1}{k_1k_2}\;\sum\limits_{i_1=1}^{k_1}\sum\limits_{i_2=1}^{k_2}
\theta_{i_1i_2}$  
  $\displaystyle =$ $\displaystyle \mu +
\frac{1}{k_1k_2}\;\sum\limits_{i_1=1}^{k_1}\sum\limits_{i_2=1}^{k_2}\bigl(
\alpha^{(1)}_{i_1}+\alpha^{(2)}_{i_2}+\alpha_{i_1i_2}\bigr)=\mu ,$  

wobei sich die letzte Gleichheit aus den Reparametrisierungsbedingungen (18) ergibt. Die anderen drei Teilaussagen in (21) lassen sich auf analoge Weise beweisen.

$ \Box$


Beachte
 

Das folgende Resultat enthält eine Quadratsummenzerlegung, vgl. auch die Theoreme 2.9 und 3.1.

Theorem 3.4   $ \;$ Es gilt
$\displaystyle \sum\limits_{i_1=1}^{k_1}\sum\limits_{i_2=1}^{k_2}
\sum\limits_{j=1}^r\bigl(Y_{i_1i_2j}-
\overline Y_{\cdot\cdot\cdot}\bigr)^2$ $\displaystyle =$ $\displaystyle rk_2 \sum\limits_{i_1=1}^{k_1}
\bigl(\overline Y_{i_1\cdot\cdot}-...
...1}^{k_2}\sum\limits_{j=1}^r
\bigl(Y_{i_1i_2j}-\overline Y_{i_1i_2\cdot}\bigr)^2$  
    $\displaystyle + \;r \sum\limits_{i_1=1}^{k_1}\sum\limits_{i_2=1}^{k_2}
\bigl(\o...
...t\cdot}-\overline Y_{\cdot  i_2\cdot}+\overline
Y_{\cdot\cdot\cdot}\bigr)^2 .$ (22)

Beweis
$ \;$ Mit der in (19) bzw. (20) eingeführten Notation gilt
$\displaystyle {
\sum\limits_{i_1=1}^{k_1}\sum\limits_{i_2=1}^{k_2}
\sum\limits_{j=1}^r\Bigl(Y_{i_1i_2j}-
\overline Y_{\cdot\cdot\cdot}\Bigr)^2}$
  $\displaystyle =$ $\displaystyle \sum\limits_{i_1=1}^{k_1}\sum\limits_{i_2=1}^{k_2}\sum\limits_{j=...
...ot}-\overline
Y_{\cdot  i_2\cdot}+\overline Y_{\cdot\cdot\cdot}\bigr) \Bigr)^2$  
  $\displaystyle =$ $\displaystyle \sum\limits_{i_1=1}^{k_1}\sum\limits_{i_2=1}^{k_2}\sum\limits_{j=...
...1}^{k_2}\sum\limits_{j=1}^r
\Bigl(Y_{i_1i_2j}-\overline Y_{i_1i_2\cdot}\Bigr)^2$  
    $\displaystyle +
\sum\limits_{i_1=1}^{k_1}\sum\limits_{i_2=1}^{k_2}\sum\limits_{...
...dot}-\overline Y_{\cdot  i_2\cdot}+\overline
Y_{\cdot\cdot\cdot}\Bigr)^2 +R ,$  

wobei ähnlich wie im Beweis von Theorem 3.1 gezeigt werden kann, dass die Summe $ R$ der gemischten Produkte gleich Null ist.

$ \Box$

Beachte
 


next up previous contents
Nächste Seite: Schätzung der Modellparameter Aufwärts: Varianzanalyse als lineares Modell Vorherige Seite: Reparametrisierung der Erwartungswerte   Inhalt
Hendrik Schmidt 2006-02-27