زنجیر مارکوف

از ویکیجو | دانشنامه آزاد پارسی
(تغییرمسیر از Markov chain)

زنجیر مارْکوف (Markov chain)
در آمار و احتمال، دنباله‌[۱]ای از حالت‌‌ها یا متغیرهای تصادفی[۲] گسستۀ[۳]  xn, ..., xi....,x۲,x۱ ؛ به‌طوری که احتمال xi فقط به حالت xi -۱ که دقیقاً قبل از xi  است، بستگی داشته باشد و به حالت‌های قبل از xi -۱ بستگی نداشته باشد. اگر احتمال مستقل از n باشد، زنجیر همگن[۴] است.

 


  1. sequence
  2. random variables
  3. discrete states
  4. homogeneous