새소식

Interview

Markov Chain을 설명해주세요

  • -

Markov Chain은 Markov 성질을 가진 이산 확률 과정을 말합니다.

여기서 Markov  성질이란 특정 상태의 확률은 오직 과거의 상태에 의존한다는 성질을 의미한다.

 

예를 들어 동전 던지기는 n번째 상태가 n+1 번째 상태에 영향을 주지 않지만

날씨 예측같이 연속적인 현상을 단순히 표현할 때는 오늘의 날씨가 맑다면 내일의 날씨는 맑을지 비가 내릴지를 확률적으로 표현하는 Markov chain으로 가정할 수 있다.

 

 

https://www.puzzledata.com/blog190423/

728x90
Contents