زنجیر مارکوف
(تغییرمسیر از Markov chain)
زنجیر مارْکوف (Markov chain)
در آمار و احتمال، دنباله[۱]ای از حالتها یا متغیرهای تصادفی[۲] گسستۀ[۳] xn, ..., xi....,x۲,x۱ ؛ بهطوری که احتمال xi فقط به حالت xi -۱ که دقیقاً قبل از xi است، بستگی داشته باشد و به حالتهای قبل از xi -۱ بستگی نداشته باشد. اگر احتمال مستقل از n باشد، زنجیر همگن[۴] است.