Markov Chain
Definition 마르코프 체인(Markov Chain)은 마르코프 성질(Markov Property)을 지닌 확률 과정을 의미합니다. 여기서 두가지 정의하 등장하게 됩니다. '마르코프 성질(Markov Property)', '이산 확률 과정(Discrete-time Stochastic Process). 마르코프 성질이라는 것은 현재의 상태가 오로지 바로 이전의 상태에만 영향을 받는 것을 의미합니다. 다시 말해, 이전의 상태가 바로 지금 현재의 상황을 결정하는 것이라고도 할 수 있는 것입니다. 확률 과정이라는 것은 '확률 분포를 가진 임의의 변수가 일정 시간 간격으로 값을 발생시키는 것'을 수학적으로 모델링하는 데에 사용되는 개념입니다. 예를 들어 주사위를 여러번 던지는 시행이 있다고 할 때, 주사위를..
2020.03.24