next up previous contents
Next: t-Tests für Regressionskonstante und Up: Einfache lineare Regression Previous: Beste lineare erwartungstreue Schätzer   Contents


Normalverteilte Störgrößen

Beachte
 

Lemma 2.1   $ \;$ Seien $ Y_1,\ldots,Y_n:\Omega\to\mathbb{R}$ beliebige unkorrelierte Zufallsvariablen mit $ {\mathbb{E}\,}(Y_i^2)<\infty$ und $ {\rm Var\,}Y_i=\sigma^2$ für jedes $ i=1,\ldots,n$. Für beliebige Konstanten $ c_1,\ldots,c_n\in\mathbb{R}$ und $ d_1,\ldots,d_n\in\mathbb{R}$ gilt dann

$\displaystyle {\rm Cov\,}\Bigl(\sum\limits_{i=1}^n c_iY_i,\,\sum\limits_{j=1}^n d_jY_j\Bigr)=\sigma^2\sum\limits_{i=1}^n c_id_i\,.$ (20)

Beweis
$ \;$ Es gilt
$\displaystyle {\rm Cov\,}\Bigl(\sum\limits_{i=1}^n
c_iY_i,\,\sum\limits_{j=1}^n d_jY_j\Bigr)$ $\displaystyle =$ $\displaystyle \sum\limits_{i=1}^n
c_i{\rm Cov\,}
\Bigl(Y_i,\,\sum\limits_{j=1}^n d_jY_j\Bigr)$  
  $\displaystyle =$ $\displaystyle \sum\limits_{i=1}^n \sum\limits_{j=1}^n c_id_j{\rm Cov\,}
(Y_i,Y_j)$  
  $\displaystyle =$ $\displaystyle \sum\limits_{i=1}^n c_id_i{\rm Cov\,}
(Y_i,Y_i)$  
  $\displaystyle =$ $\displaystyle \sigma^2\sum\limits_{i=1}^n c_id_i\,.$  


 
  $ \Box$


Theorem 2.4   $ \;$ Für den Erwartungswert $ {\mathbb{E}\,}\widehat\varepsilon _i$ und die Varianz $ {\rm Var\,}\widehat\varepsilon _i$ der Residuen $ \widehat\varepsilon _i$ gilt für jedes $ i=1,\ldots,n$

$\displaystyle {\mathbb{E}\,}\widehat\varepsilon _i=0$ (21)

und

$\displaystyle {\rm Var\,}\widehat\varepsilon _i={\mathbb{E}\,}(\widehat\varepsi...
...its_{j=1}^n x_j^2+x_i^2-2(x_i-\overline x_n)^2-2x_i\overline x_n\Bigr)\Bigr)\,.$ (22)

Beweis
 

Korollar 2.1   $ \;$ Für den Erwartungswert des in % latex2html id marker 37971
$ (\ref{def.mal.sig})$ gegebenen ML-Schätzers $ \widehat\sigma^2$ gilt

$\displaystyle {\mathbb{E}\,}\widehat\sigma^2=\frac{n-2}{n}\;\sigma^2\,.$ (25)

Beweis
 


Beachte
 


Lemma 2.2    

Beweis
 


Beachte
 

Lemma 2.3    


Beweis
 


Theorem 2.5    
1.
Für das einfache lineare Regressionsmodell mit normalverteilten Störgrößen $ \,\varepsilon _1,\ldots,\varepsilon _n$ gilt

$\displaystyle \widehat\alpha\sim\,{\rm N}\Bigl(\alpha,\frac{\sigma^2}{n(n-1)s^2...
...idehat\beta\sim\,{\rm N}\Bigl(\beta\,,\;\frac{\sigma^2}{(n-1)s^2_{xx}}\Bigr)\,,$ (29)

wobei

$\displaystyle {\rm Cov\,}(\widehat\alpha,\widehat\beta)=-\;\frac{\sigma^2\overline x_n}{(n-1)s^2_{xx}}\;.$ (30)

2.
Die Zufallsvariablen $ (\widehat\alpha,\widehat\beta)$ und $ S^2$ sind unabhängig, und es gilt

$\displaystyle \frac{(n-2) S^2}{\sigma^2}\;\sim\chi^2_{n-2}\,.$ (31)


Beweis
 


next up previous contents
Next: t-Tests für Regressionskonstante und Up: Einfache lineare Regression Previous: Beste lineare erwartungstreue Schätzer   Contents
Ursa Pantle 2003-03-10