Markov Chain은 Markov 성질을 가진 이산 확률 과정을 말합니다.
여기서 Markov 성질이란 특정 상태의 확률은 오직 과거의 상태에 의존한다는 성질을 의미한다.
예를 들어 동전 던지기는 n번째 상태가 n+1 번째 상태에 영향을 주지 않지만
날씨 예측같이 연속적인 현상을 단순히 표현할 때는 오늘의 날씨가 맑다면 내일의 날씨는 맑을지 비가 내릴지를 확률적으로 표현하는 Markov chain으로 가정할 수 있다.
https://www.puzzledata.com/blog190423/