math #mathematics #마르코프 #체인 #markov #chain1 Markov Chain (마르코프 체인) 1. 개념 Markov chain은 Markov 성질(특정 상태의 확률은 오직 과거의 상태에 의존하는 것)을 가진 이산확률과정(Discrete-time Stochastic Process)이다. 예를 들어, 오늘의 날씨가 맑다면 내일의 날씨는 맑을지 비가 내릴지를 확률적으로 표현할 수 있다. 여러 상태들($x_1, x_2, x_3, ...$)이 있고, $x_i$에서 $x_j$로 이동할 조건부 확률분포(transition distribution) $T(x_j|x_i)$가 주어져 있어서 매턴마다 이 확률 값에 따라 상태들 사이를 이동하는 것을 말한다. 이는 확률이 정해져 있으므로 "특정조건"을 만족할 때는 일정한 패턴이 나타나게 된다. 예를 들어, "100번 이동했다면 평균적으로 3번은 출발점에 돌아온다"라는.. 2024. 4. 2. 이전 1 다음