논문: https://arxiv.org/pdf/0710.3742.pdf
첫번째 핵심이 되는 수식은 다음과 같다.
결합확률 $$P(x_{t+1} \cap x_{1:t}) = P(x_{t+1}|x_{1:t})P(x_{1:t}) = \sum_{r_t}P(x_{t+1}|r_t, x_t^{(r)})P(r_t|x_{1:t})$$
해석해보면.. 1부터 t까지의 샘플을 보고 t+1의 샘플을 예측하는 것(확률 분포를 구하는것)
대략 아래 그림에서 층별로 잘라내서 분리해서 더한걸로 어느정도 이해가 된다.
중간식에서 오른쪽 식으로 변하는 수학적 디테일이 좀 불명확하긴 함
근데 change point에 대한 확률이 아니라 $x_{t+1}$자체를 예측하는거임? > $x_{1:t}$를 보고 $r_t$를 예측하는 식이 더 중요하고 곧 나옴 ㅋ
run length: time since the last changepoint
$r_t$: length of the current run at time t.
아래를 보면 $r_t$개념은 명확해진다. $r_2=1, r_3=2, r_5=0, r_6=1$이런식인것
$x_t^{(r)}$: set of observations associated with the run $r_t$ .. 흠 정의가 좀 모호하네
이 논문에서는 $x_t^{(r_t)}$ denotes the most recent data corresponding to the run $r_t$라고 돼있네.
즉 $r_{13}$에 대한 $x_t^{(r_13)} = \{x_{11}, x_{12}, x_{13}\}$이라는것 같다.
조건부 확률공식 $P(A|B)=\frac{P(A, B)}{P(B)}$ 에 따라 가장 핵심이 되는 수식은 다음과 같다.
$$P(r_t|x_{1:t}) = \frac{P(r_t,x_{1:t})}{P(x_{1:t})}$$
그다음에 이걸 $P(r_t, x_{1:t})$에 대해서 정리하면서 r-1과 r에 대한 recursive form으로 바꿔보면 다음과 같이 된다.
(수학적 디테일은 살짝 스킵하자)
'AI, ML > ML' 카테고리의 다른 글
윈도우 환경에서 ML환경 구축 (0) | 2022.03.09 |
---|---|
케라스(Keras) (0) | 2020.04.13 |
부스팅(boosting) (0) | 2019.05.28 |
Word2Vec (0) | 2019.04.24 |
weka (0) | 2019.02.28 |