논문: https://arxiv.org/pdf/0710.3742.pdf


첫번째 핵심이 되는 수식은 다음과 같다.

결합확률 $$P(x_{t+1} \cap x_{1:t}) = P(x_{t+1}|x_{1:t})P(x_{1:t}) = \sum_{r_t}P(x_{t+1}|r_t, x_t^{(r)})P(r_t|x_{1:t})$$

해석해보면.. 1부터 t까지의 샘플을 보고 t+1의 샘플을 예측하는 것(확률 분포를 구하는것)

대략 아래 그림에서 층별로 잘라내서 분리해서 더한걸로 어느정도 이해가 된다.

중간식에서 오른쪽 식으로 변하는 수학적 디테일이 좀 불명확하긴 함

근데 change point에 대한 확률이 아니라 $x_{t+1}$자체를 예측하는거임? > $x_{1:t}$를 보고 $r_t$를 예측하는 식이 더 중요하고 곧 나옴 ㅋ


run length: time since the last changepoint


$r_t$: length of the current run at time t. 

아래를 보면 $r_t$개념은 명확해진다. $r_2=1, r_3=2, r_5=0, r_6=1$이런식인것


$x_t^{(r)}$: set of observations associated with the run $r_t$  .. 흠 정의가 좀 모호하네

이 논문에서는 $x_t^{(r_t)}$ denotes the most recent data corresponding to the run $r_t$라고 돼있네.

즉 $r_{13}$에 대한 $x_t^{(r_13)} = \{x_{11}, x_{12}, x_{13}\}$이라는것 같다.



조건부 확률공식 $P(A|B)=\frac{P(A, B)}{P(B)}$ 에 따라 가장 핵심이 되는 수식은 다음과 같다.

$$P(r_t|x_{1:t}) = \frac{P(r_t,x_{1:t})}{P(x_{1:t})}$$

그다음에 이걸 $P(r_t, x_{1:t})$에 대해서 정리하면서 r-1과 r에 대한 recursive form으로 바꿔보면 다음과 같이 된다.

(수학적 디테일은 살짝 스킵하자)


반응형

'AI, ML > ML' 카테고리의 다른 글

윈도우 환경에서 ML환경 구축  (0) 2022.03.09
케라스(Keras)  (0) 2020.04.13
부스팅(boosting)  (0) 2019.05.28
Word2Vec  (0) 2019.04.24
weka  (0) 2019.02.28

+ Recent posts