MLE의 경우를 생각해보면 우리는 샘플들을 보고 그 샘플들을 가장 잘 설명하는 모델을 찾아나가게 된다.
MLE가 아니라 전반적인 ML이란 것 자체가 샘플(학습인풋)들을 보고 그 샘플을 가장 잘 설명하는 모델(딥러닝 웨이트 등)을 찾는 과정이라는 점에서 동일함을 알 수 있다.
근데 이 샘플을 주어진 샘플을 사용하는게 아니라 generation해야 한다고 생각해보면 어떻게 될까?
예를 들어 $\pi$를 구하는 몬테카를로의 경우 사각영역안에서 uniform random으로 좌표를 찍어서 샘플링을 하게된다.
이런 uniform random sampling의 경우는 간단한데..
uniform하지 않고 특정 확률분포를 따르는 경우는 복잡해지기 시작한다.
그리고 샘플이 보통 1차원이 아니라 n차원이 되는데(딥러닝 인풋이 n개면 n차원으로 볼 수 있다)
이런경우에 각각의 차원이 별도의 확률분포를 가지는 경우 샘플링이 상당히 힘들어지게 된다.
깁스 샘플링은 이러한 경우에 한번에 하나의 차원씩 샘플링하면서 만들어 나가는 방법론인걸로 일단 파악중이다.
(자세한건 전혀 모름)
반응형
'수학 > 통계' 카테고리의 다른 글
베르누이 분포(bernoulli distribution) (0) | 2019.06.27 |
---|---|
베타함수, 베타분포 (0) | 2019.06.27 |
카이제곱 검정(chi-squared test) (0) | 2019.06.21 |
정규분포 (1) | 2019.06.20 |
가설검정, 유의수준, 귀무가설, 대립가설, p-value(p값), t-test(t검정), z-test(z검정) (0) | 2019.04.26 |