next up previous contents
Nächste Seite: Fehleranalyse bei MCMC-Simulation Aufwärts: Simulationsmethoden mit Markov-Ketten Vorherige Seite: Gibbs-Sampler   Inhalt


Metropolis-Hastings-Algorithmus


Beachte
 


Theorem 3.14   $ \;$ Die in % latex2html id marker 33137
$ (\ref{ube.mat.met})$- % latex2html id marker 33139
$ (\ref{bed.mat.ess})$ gegebene Übergangsmatrix $ {\mathbf{P}}=(p_{{\mathbf{x}}{\mathbf{x}}^\prime})$ ist irreduzibel und aperiodisch, und das Paar $ ({\mathbf{P}},{\boldsymbol{\pi}})$ ist reversibel.

Beweis
 


Beispiele
 
  1. Metropolis-Algorithmus 
    • Der klassische Metropolis-Algorithmus ergibt sich, wenn in (50) die Gleichheit betrachtet wird, d.h., wenn

      $\displaystyle s_{{\mathbf{x}}{\mathbf{x}}^\prime}=
1+\min\,\bigl\{t_{{\mathbf{x...
...athbf{x}}}\bigr\}\,,
\qquad\forall\,{\mathbf{x}},\,{\mathbf{x}}^\prime\in E\,.
$

    • Für die Akzeptanzwahrscheinlichkeiten $ a_{{\mathbf{x}}{\mathbf{x}}^\prime}$ gilt dann für beliebige $ {\mathbf{x}},\,{\mathbf{x}}^\prime\in E$ mit $ q_{{\mathbf{x}}{\mathbf{x}}^\prime}>0$, dass
      $\displaystyle a_{{\mathbf{x}}{\mathbf{x}}^\prime}$ $\displaystyle =$ $\displaystyle \frac{1+\min\,\bigl\{t_{{\mathbf{x}}{\mathbf{x}}^\prime}\,,t_{{\mathbf{x}}^\prime{\mathbf{x}}}
\bigr\}}{1+t_{{\mathbf{x}}^\prime{\mathbf{x}}}}$  
        $\displaystyle =$ $\displaystyle \frac{\min\,\bigl\{1+t_{{\mathbf{x}}{\mathbf{x}}^\prime}\,,\,1+t_...
...mathbf{x}}^\prime{\mathbf{x}}}}{
1+t_{{\mathbf{x}}{\mathbf{x}}^\prime}}\Biggr\}$  
        $\displaystyle =$ $\displaystyle \min\Biggl\{1,\;\frac{\pi_{{\mathbf{x}}^\prime}q_{{\mathbf{x}}^\p...
...{\mathbf{x}}}}{
\pi_{\mathbf{x}}q_{{\mathbf{x}}{\mathbf{x}}^\prime}}\Biggr\}\,,$  

      d.h.,

      $\displaystyle a_{{\mathbf{x}}{\mathbf{x}}^\prime}=\min\Biggl\{1,\;\frac{\pi_{{\...
...x}}^\prime}}\Biggr\}\,,\qquad\forall\,{\mathbf{x}},\,{\mathbf{x}}^\prime\in E\;$$\displaystyle \mbox{mit $q_{{\mathbf{x}}{\mathbf{x}}^\prime}>0$.}$ (52)

    • Wenn die Matrix $ {\mathbf{Q}}=(q_{{\mathbf{x}}{\mathbf{x}}^\prime})$ der ,,potentiellen'' Übergangswahrscheinlichkeiten symmetrisch ist, dann ergibt sich aus (52), dass

      $\displaystyle a_{{\mathbf{x}}{\mathbf{x}}^\prime}=\min\Bigl\{1,\;\frac{\pi_{{\m...
...{\mathbf{x}}}\Bigr\}\,,\qquad\forall\,{\mathbf{x}},\,{\mathbf{x}}^\prime\in E\;$$\displaystyle \mbox{mit $q_{{\mathbf{x}}{\mathbf{x}}^\prime}>0$.}$ (53)

    • Die Akzeptanzwahrscheinlichkeiten $ a_{{\mathbf{x}}{\mathbf{x}}^\prime}$ sind also insbesondere dann durch (53) gegeben, wenn die ,,potentiellen'' Updates $ {\mathbf{x}}\longrightarrow{\mathbf{x}}^\prime$ ,,auf gut Glück'' gewählt werden, d.h., wenn

      $\displaystyle q_{{\mathbf{x}}{\mathbf{x}}^\prime}=\frac{1}{\vert E\vert}\;,\qquad\forall\,{\mathbf{x}},\,{\mathbf{x}}^\prime\in
E\,.
$


  2. Barker-Algorithmus 
    • Der sogenannte Barker-Algorithmus ergibt sich, wenn die Matrix $ {\mathbf{S}}=\bigl(s_{{\mathbf{x}}{\mathbf{x}}^\prime}\bigr)$ mit $ s_{{\mathbf{x}}{\mathbf{x}}^\prime}=1$ für beliebige $ {\mathbf{x}},\,{\mathbf{x}}^\prime\in E$ betrachtet wird.
    • Für die Akzeptanzwahrscheinlichkeiten $ a_{{\mathbf{x}}{\mathbf{x}}^\prime}$ gilt dann

      $\displaystyle a_{{\mathbf{x}}{\mathbf{x}}^\prime}= \frac{\pi_{{\mathbf{x}}^\pri...
...\mathbf{x}}^\prime}}\;,\qquad\forall\,{\mathbf{x}},\,{\mathbf{x}}^\prime\in E\;$$\displaystyle \mbox{mit $q_{{\mathbf{x}}{\mathbf{x}}^\prime}>0$.}$ (54)

    • Wenn die Matrix $ {\mathbf{Q}}=(q_{{\mathbf{x}}{\mathbf{x}}^\prime})$ der ,,potentiellen'' Übergangswahrscheinlichkeiten symmetrisch ist, dann gilt insbesondere

      $\displaystyle a_{{\mathbf{x}}{\mathbf{x}}^\prime}= \frac{\pi_{{\mathbf{x}}^\pri...
... + \pi_{\mathbf{x}}}\;,\qquad\forall\,{\mathbf{x}},\,{\mathbf{x}}^\prime\in E\;$$\displaystyle \mbox{mit $q_{{\mathbf{x}}{\mathbf{x}}^\prime}>0$.}$ (55)


MCMC-Simulationsalgorithmus
 



next up previous contents
Nächste Seite: Fehleranalyse bei MCMC-Simulation Aufwärts: Simulationsmethoden mit Markov-Ketten Vorherige Seite: Gibbs-Sampler   Inhalt
Ursa Pantle 2003-09-29