next up previous contents
Nächste Seite: Metropolis-Hastings-Algorithmus Aufwärts: Simulationsmethoden mit Markov-Ketten Vorherige Seite: Beispiel: Hard-Core-Modell   Inhalt


Gibbs-Sampler

Der in Abschnitt 3.3.1 betrachtete MCMC-Algorithmus, um ,,zufällig ausgewählte'' zulässige Konfigurationen des Hard-Core-Modells zu erzeugen, ist ein Spezialfall des sogenannnten Gibbs-Samplers zur MCMC-Simulation von diskreten (hochdimensionalen) Zufallsvektoren.

MCMC-Simulationsalgorithmus
 

Theorem 3.11   $ \;$ Die Übergangsmatrix $ {\mathbf{P}}=(p_{{\mathbf{x}}{\mathbf{x}}^\prime})$ sei gegeben durch

$\displaystyle p_{{\mathbf{x}}{\mathbf{x}}^\prime}=\sum\limits_{v\in V} q_v \pi_...
...x}}^\prime(-v)\bigr)\,,\qquad\forall\, {\mathbf{x}},{\mathbf{x}}^\prime\in E\,,$ (36)

wobei die bedingten Wahrscheinlichkeiten $ \pi_{x^\prime(v)\mid\,
{\mathbf{x}}(-v)}$ in % latex2html id marker 32744
$ (\ref{def.deb.gib})$ gegeben sind. Dann ist $ {\mathbf{P}}$ irreduzibel und aperiodisch, und das Paar $ ({\mathbf{P}},{\boldsymbol{\pi}})$ ist reversibel.

Beweis
$ \;$ Die Behauptung ergibt sich auf ähnliche Weise wie im Beweis von Theorem 3.10.


Sei $ {\mathbf{X}}_0,{\mathbf{X}}_1,\ldots$ eine Markov-Kette mit dem Zustandsraum $ E$ und mit der in (36) gegebenen Übergangsmatrix $ {\mathbf{P}}=(p_{{\mathbf{x}}{\mathbf{x}}^\prime})$. Aus Theorem 3.11 ergibt sich dann, dass

$\displaystyle \lim\limits_{n\to\infty} d_{\rm TV}({\boldsymbol{\alpha}}_n,{\boldsymbol{\pi}})=0$ (39)

für jede Anfangsverteilung $ {\boldsymbol{\alpha}}_0$, wobei $ {\boldsymbol{\alpha}}_n$ die Verteilung von $ {\mathbf{X}}_n$ bezeichnet. Außerdem gilt für den Gibbs-Sampler die folgende Monotonie-Eigenschaft.

Theorem 3.12   $ \;$ Für jedes $ n=0,1,\ldots$ gilt

$\displaystyle d_{\rm TV}({\boldsymbol{\alpha}}_n,{\boldsymbol{\pi}})\ge d_{\rm TV}({\boldsymbol{\alpha}}_{n+1},{\boldsymbol{\pi}})\,.$ (40)

Beweis
 


Beachte
 

Theorem 3.13   $ \;$ Es gilt

$\displaystyle {\mathbf{M}}={\mathbf{P}}(1)\cdot\ldots\cdot{\mathbf{P}}(\vert V\vert)\cdot{\mathbf{P}}(\vert V\vert)\cdot\ldots\cdot{\mathbf{P}}(1)\,,$ (45)

d.h., die multiplikativ reversible Version $ {\mathbf{M}}$ der ,,Vorwärts-Scan-Matrix'' $ {\mathbf{P}}$ stimmt mit der ,,Vorwärts-Rückwärts-Scan-Matrix'' überein.

Beweis
 

Beachte
 


next up previous contents
Nächste Seite: Metropolis-Hastings-Algorithmus Aufwärts: Simulationsmethoden mit Markov-Ketten Vorherige Seite: Beispiel: Hard-Core-Modell   Inhalt
Ursa Pantle 2003-09-29