Study/Lecture - Basic

W10.L7. Sampling Based Inference - Gibbs Sampling

공부해라이 2023. 6. 20. 22:11

| INTRO

Gibbs sampling: A special case of M-H algorithm

 

Metropolis-Hastings Algorithm

Proposal Distribution $q$ 가 어떤 특징을 가지고 있는지 알 수 없기 때문에

Acceptance Probability 를 정의하여 Stational Distribution 까지 Converge 하도록 했었음

 

Gibbs Sampling

왜 Proposal Distribution 을 새로운 걸 잡아?

이미 잘 정의된 $P$ 라는 것이 있는데, 그걸 재사용하지 그래?

 

 

| Gibbs Sampling

Let's suppose $z^t=(z_{k}^{\ t}, z_{-k}^{\ t})$

 

$$z^* = (z_{k}^{\ *}, z_{-k}^{\ t})$$

$$q(z^* \mid z^t)=P(z_{k}^{*}, z_{-k}^{\ t} \mid z_{-k}^{\ t})=P(z_{k}^{*} \mid z_{-k}^{\ t})$$

 

MH 알고리즘에서는 ​$z^t=(z_{k}^{\ t}, z_{-k}^{\ t})$ (모든 Index) 를 한 번에 Update 했었는데

이번에는 여러 Latent Variable 중에서 $k$ 라는 Index 에 있는 하나의 Latent Variable 에 대해서만 

Update 하고, 나머지는 그대로 Keep 해보자!

 

| Example

Markov Blanket 활용해서 P 계산을 Simplification 가능!

| Concept of Gibbs Sampling

 

 

| Two Dimensional Case

 

 

 

Reference
문일철 교수님 강의 
https://www.youtube.com/watch?v=mnUcZbT5E28&list=PLbhbGI_ppZISMV4tAWHlytBqNq1-lb8bz&index=68