논문: https://arxiv.org/pdf/0710.3742.pdf
첫번째 핵심이 되는 수식은 다음과 같다.
결합확률 P(xt+1∩x1:t)=P(xt+1|x1:t)P(x1:t)=∑rtP(xt+1|rt,x(r)t)P(rt|x1:t)
해석해보면.. 1부터 t까지의 샘플을 보고 t+1의 샘플을 예측하는 것(확률 분포를 구하는것)
대략 아래 그림에서 층별로 잘라내서 분리해서 더한걸로 어느정도 이해가 된다.
중간식에서 오른쪽 식으로 변하는 수학적 디테일이 좀 불명확하긴 함
근데 change point에 대한 확률이 아니라 xt+1자체를 예측하는거임? > x1:t를 보고 rt를 예측하는 식이 더 중요하고 곧 나옴 ㅋ
run length: time since the last changepoint
rt: length of the current run at time t.
아래를 보면 rt개념은 명확해진다. r2=1,r3=2,r5=0,r6=1이런식인것
x(r)t: set of observations associated with the run rt .. 흠 정의가 좀 모호하네
이 논문에서는 x(rt)t denotes the most recent data corresponding to the run rt라고 돼있네.
즉 r13에 대한 x(r13)t={x11,x12,x13}이라는것 같다.
조건부 확률공식 P(A|B)=P(A,B)P(B) 에 따라 가장 핵심이 되는 수식은 다음과 같다.
P(rt|x1:t)=P(rt,x1:t)P(x1:t)
그다음에 이걸 P(rt,x1:t)에 대해서 정리하면서 r-1과 r에 대한 recursive form으로 바꿔보면 다음과 같이 된다.
(수학적 디테일은 살짝 스킵하자)
'AI, ML > ML' 카테고리의 다른 글
윈도우 환경에서 ML환경 구축 (0) | 2022.03.09 |
---|---|
케라스(Keras) (0) | 2020.04.13 |
부스팅(boosting) (0) | 2019.05.28 |
Word2Vec (0) | 2019.04.24 |
weka (0) | 2019.02.28 |