Rachunek prawdopodobieństwa i statystyka/Wykład 10: Łańcuchy Markowa: Różnice pomiędzy wersjami

Z Studia Informatyczne
Przejdź do nawigacjiPrzejdź do wyszukiwania
Linia 92: Linia 92:
===Spacer losowy===
===Spacer losowy===


Chyba najbardziej klasycznym przykładem łańcucha Markowa jest spacer
Chyba najbardziej klasycznym przykładem łańcucha Markowa jest spacer losowy po prostej.
losowy po prostej.
 
{{przykład|10.2||


Wyobraźmy sobie cząsteczkę, która
Wyobraźmy sobie cząsteczkę, która
Linia 99: Linia 100:
następujących reguł: w chwili zero cząsteczka znajduje
następujących reguł: w chwili zero cząsteczka znajduje
się w punkcie o współrzędnej zero, natomiast w
się w punkcie o współrzędnej zero, natomiast w
następnych momentach czasu (<math>\displaystyle 1</math>, <math>\displaystyle 2</math>, <math>\displaystyle 3</math> i tak dalej) może się
następnych momentach czasu (<math>\displaystyle 1</math>, <math>\displaystyle 2</math>, <math>\displaystyle 3</math> i tak dalej) może się przesuwać o jeden w lewo lub o jeden w prawo,
przesuwać o jeden w lewo lub o jeden w prawo,
z&nbsp;prawdopodobieństwami odpowiednio <math>\displaystyle q</math> oraz <math>\displaystyle p</math>, przy
z&nbsp;prawdopodobieństwami odpowiednio <math>\displaystyle q</math> oraz <math>\displaystyle p</math>, przy
czym <math>\displaystyle p + q = 1</math>. Jeżeli <math>\displaystyle p = q = \frac{1}{2}</math> to
czym <math>\displaystyle p + q = 1</math>. Jeżeli <math>\displaystyle p = q = \frac{1}{2}</math> to
mówimy, że spacer losowy  jest
mówimy, że spacer losowy  jest standardowy.  
standardowy.  


Oto przykładowa animacja, prezentująca standardowy spacer losowy o 300 krokach:
Oto przykładowa animacja, prezentująca standardowy spacer losowy o 300 krokach:
[[animacja 101.gif]]


Okazuje się, że spacer losowy po prostej jest łańcuchem Markowa.
Okazuje się, że spacer losowy po prostej jest łańcuchem Markowa.
Linia 118: Linia 119:
\end{array}  
\end{array}  
</math></center>
</math></center>


oraz
oraz
Linia 165: Linia 167:


Tutaj ekrany ustawiono w punktach <math>\displaystyle -3</math> i <math>\displaystyle 3</math>,
Tutaj ekrany ustawiono w punktach <math>\displaystyle -3</math> i <math>\displaystyle 3</math>,
parametry wynoszą: <center><math>\displaystyle p = q = 0.5,\; r = 0, \;sa = sb = 0.8,</math></center> zaś wykonanych jest 30 kroków.
parametry wynoszą:  
 
<center><math>\displaystyle  
p = q = 0.5,\; r = 0, \;sa = sb = 0.8,
</math></center>  
 
zaś wykonanych jest 30 kroków.


W poniższej animacji także ustawiono bariery w punktach <math>\displaystyle -3</math> oraz <math>\displaystyle 3</math>, ale tym razem:
W poniższej animacji także ustawiono bariery w punktach <math>\displaystyle -3</math> oraz <math>\displaystyle 3</math>, ale tym razem:
<center><math>\displaystyle p = 0.1, \;q = 0.15,\;r = 0.75,\;sa = sb = 0.4.</math></center>
<center><math>\displaystyle p = 0.1, \;q = 0.15,\;r = 0.75,\;sa = sb = 0.4.</math></center>
[[animacja 102.gif]]


Kolejny przykład pokazuje, iż można też opisać spacer losowy w trochę inny sposób.
Kolejny przykład pokazuje, iż można też opisać spacer losowy w trochę inny sposób.
Linia 175: Linia 186:
poprzednio, że cząsteczka startuje w chwili 0 z
poprzednio, że cząsteczka startuje w chwili 0 z
punktu  <math>\displaystyle i</math>. Gdy nie uwzględniamy barier, mamy:
punktu  <math>\displaystyle i</math>. Gdy nie uwzględniamy barier, mamy:
<center><math>\displaystyle  
<center><math>\displaystyle  
X_0 = i \ \mbox{ oraz } \ \ X_{n+1} = X_n + \xi_{n+1}
X_0 = i \ \mbox{ oraz } \ \ X_{n+1} = X_n + \xi_{n+1}
\mbox{ dla } n = 0,1,2, \dots,
\mbox{ dla } n = 0,1,2, \dots,
</math></center>
</math></center>
gdzie <math>\displaystyle \xi_1, \xi_2, \xi_3, \ldots</math>  są niezależnymi
gdzie <math>\displaystyle \xi_1, \xi_2, \xi_3, \ldots</math>  są niezależnymi
zmiennymi losowymi, przyjmującymi wartości <math>\displaystyle -1</math>, <math>\displaystyle 0</math>,
zmiennymi losowymi, przyjmującymi wartości <math>\displaystyle -1</math>, <math>\displaystyle 0</math>,

Wersja z 19:22, 22 sie 2006

Łańcuchy Markowa

Założenie o niezależności zmiennych losowych nie zawsze jest spełnione. Poznamy teraz sytuację, w której zmienne losowe są zależne, ale znamy dobrze charakter tej zależności - sytuację tę opisują tak zwane łańcuchy Markowa. Podamy podstawowe definicje i twierdzenia oraz standardowe przykłady łańcuchów Markowa.


Andriej Markow (1856-1922)
Zobacz biografię

W tym wykładzie przedstawimy jedną z najprostszych sytuacji, gdy rozważne zmienne losowe są zależne. Warto podkreślić, że łańcuchy Markowa, które będziemy za chwilę omawiać, stanowią bardzo interesujący przykład procesów stochastycznych. Ich teoria ma z kolei podstawowe znaczenie przy budowie probabilistycznych modeli wielu zjawisk przyrodniczych, technicznych, a także ekonomicznych. W szczególności, teoria procesów stochastycznych znajduje w ostatnich latach coraz większe zastosowanie przy wycenie instrumentów finansowych.

Definicje i przykłady

Niech Ed będzie zbiorem skończonym lub przeliczalnym oraz niech

𝐏:E×Ei𝐩:E

będą ustalonymi funkcjami. Będziemy myśleć o 𝐏 i 𝐩 jako o skończonej lub przeliczalnej macierzy AG 𝐏(i,j) oraz wektorze AG o współrzędnych 𝐩(i), gdzie i,jE.

Definicja 10.1.[łańcuch Markowa]

Niech będzie dany ciąg wektorów losowych Xn, n=0,1,2,, zdefiniowanych na przestrzeni probabilistycznej (Ω,Σ,P) i przyjmujących wartości w d. Mówimy, że {Xn} jest łańcuchem Markowa, jeżeli spełnione są następujące warunki:

1. P(X0=i)=𝐩(i) dla każdego iE,

2. dla każdego n0 zachodzi równość:

P(Xn+1=in+1|(X0=i0,,Xn=in))


=P(Xn+1=in+1|Xn=in)=𝐏(in,in+1),

dla wszystkich i0,,in+1E,


3. iE𝐩(i)=1,

4. jE𝐏(i,j)=1 dla każdego iE.

Powyższe warunki mają prostą interpretację. Mianowicie, utożsamiamy zbiór E ze zbiorem wszystkich możliwych stanów pewnego systemu. Wówczas Xn oznacza stan, w którym znajduje się nasz system w chwili czasowej n. Warunek, że Xn jest wektorem losowym oznacza, że faktycznie nie znamy dokładnie tego położenia, natomiast pozostałe warunki dają nam o nim pewne informacje. Po pierwsze, znamy rozkład prawdopodobieństwa położenia systemu w chwili zerowej (warunki 1 i 3). Po drugie, prawdopodobieństwo przejścia układu z jednego stanu do innego stanu, w jednostkowym odcinku czasu, zależy jedynie od samych stanów, a nie zależy od historii układu ani od konkretnej chwili, w której to przejście następuje (warunek 2). Wreszcie, układ nigdy nie opuści swojej przestrzeni stanów E, gdyż:

P(X0E)=iE𝐩i=1,

zaś warunek 4 implikuje następującą równość dla wszystkich iE:

P(Xn+1E|Xn=i)=jEP(Xn+1=j|Xn=i)=jE𝐏(i,j)=1.

W związku z powyższą interpretacją, E będziemy nazywać zbiorem stanów lub przestrzenią stanów, 𝐩 - rozkładem początkowym, zaś 𝐏 - macierzą przejścia łańcucha Markowa.

W dalszej części zaprezentujemy kilka typowych przykładów łańcuchów Markowa.

Spacer losowy

Chyba najbardziej klasycznym przykładem łańcucha Markowa jest spacer losowy po prostej.

{{przykład|10.2||

Wyobraźmy sobie cząsteczkę, która może się poruszać wzdłuż linii prostej według następujących reguł: w chwili zero cząsteczka znajduje się w punkcie o współrzędnej zero, natomiast w następnych momentach czasu (1, 2, 3 i tak dalej) może się przesuwać o jeden w lewo lub o jeden w prawo, z prawdopodobieństwami odpowiednio q oraz p, przy czym p+q=1. Jeżeli p=q=12 to mówimy, że spacer losowy jest standardowy.

Oto przykładowa animacja, prezentująca standardowy spacer losowy o 300 krokach:

animacja 101.gif

Okazuje się, że spacer losowy po prostej jest łańcuchem Markowa. Rzeczywiście, stanami są wszystkie możliwe liczby całkowite, czyli E=, natomiast Xn oznacza pozycję cząsteczki w chwili n. Zdefiniujmy:

𝐩(i)=1 dla i=0,𝐩(i)=0 dla i0


oraz

𝐏(i,j)=q dla j=i1,𝐏(i,j)=p dla j=i+1,𝐏(i,j)=0 dla j{i1,i+1}.

Zauważmy, że określony powyżej spacer losowy może być modyfikowany na różne sposoby. Załóżmy, na przykład, że cząsteczka może nie zmieniać swojego położenia z prawdopodobieństwem r (wtedy oczywiście zakładamy, że p+q+r=1). Inną modyfikacją jest założenie o istnieniu jednej lub dwóch barier (ekranów), które ograniczają możliwość ruchu cząsteczki. Przykładowo, jeżeli są one usytuowane w punktach A i B, gdzie A<0<B, to zbiór E składa się A+B+1 stanów, zaś (A+B+1)-wymiarowa macierz 𝐏 może być zdefiniowana w następujący sposób:

𝐏=[sa1sa000qrp000000qrp0001sbsb].

Liczby sa oraz sb oznaczają prawdopodobieństwa tego, że cząsteczka jest pochłaniana przez barierę A lub B. Dwa interesujące przypadki skrajne są wtedy, gdy liczby te są albo zerami, co oznacza pełną elastyczność barier, albo jedynkami, co oznacza pełną absorbcję cząsteczki z chwilą jej dojścia do bariery.

Przykładowy spacer losowy może wyglądać tak:

<flash>file=Rp.1.101.swf|width=350|height=350</flash>

Tutaj ekrany ustawiono w punktach 3 i 3, parametry wynoszą:

p=q=0.5,r=0,sa=sb=0.8,

zaś wykonanych jest 30 kroków.

W poniższej animacji także ustawiono bariery w punktach 3 oraz 3, ale tym razem:

p=0.1,q=0.15,r=0.75,sa=sb=0.4.

animacja 102.gif

Kolejny przykład pokazuje, iż można też opisać spacer losowy w trochę inny sposób.

Załóżmy, nieco ogólniej niż poprzednio, że cząsteczka startuje w chwili 0 z punktu i. Gdy nie uwzględniamy barier, mamy:

X0=i  oraz   Xn+1=Xn+ξn+1 dla n=0,1,2,,

gdzie ξ1,ξ2,ξ3, są niezależnymi zmiennymi losowymi, przyjmującymi wartości 1, 0, 1 z prawdopodobieństwami, odpowiednio, q, r i p.

Można także rozpatrywać spacery losowe na płaszczyźnie, a także (ogólnie) w przestrzeni wielowymiarowej.

Dla uproszczenia załóżmy, że p=q=12, czyli także, że r=0. Dla i=(i1,,id)d mamy:

X0=i  oraz   Xn+1=Xn+ξn+1 dla n=0,1,2,

Tym razem ξ1,ξ2,ξ3, są niezależnymi wektorami losowymi, przyjmującymi 2d wartości (ε1,,εd), gdzie εj=±1, z jednakowym prawdopodobieństwem 12d.

Zauważmy, że współrzędnymi zdefiniowanego w powyższym przykładzie d-wymiarowego spaceru losowego są niezależne jednowymiarowe standardowe spacery losowe.

Poniżej przedstawiamy dalsze przykłady łańcuchów Markowa.

Załóżmy, że dwaj gracze, powiedzmy Antoni i Bolesław, mają kapitał, odpowiednio, A i B złotych. Powtarzają oni tę samą grę (może, na przykład, grają w szachy), przy czym przegrywający płaci wygrywającemu złotówkę. Gra kończy się wtedy, gdy jednemu z graczy skończą się pieniądze. Załóżmy, że w każdej grze prawdopodobieństwo wygrania przez Antoniego wynosi p, zaś prawdopodobieństwo wygrania przez Bolesława wynosi q. Zakładamy, że p+q1 i oznaczamy przez r prawdopodobieństwo remisu, czyli r=1pq. Oznaczmy kapitał Antoniego po zakończeniu n-tej gry przez Xn. Zauważmy, że opisana sytuacja jest faktycznie spacerem losowym, startującym w punkcie A i mającym bariery pochłaniające w punktach 0 oraz A+B.

W każdej z dwóch urn umieszczono po k kul, przy czym k z nich ma kolor zielony, a pozostałe k -- kolor czerwony. Następnie w kolejnych momentach czasu zamieniamy miejscami jednocześnie wylosowane 2 kule (po jednej z obu urn). Niech Xn oznacza liczbę zielonych kul w pierwszej urnie (więc tym samym liczbę czerwonych kul w drugiej urnie) w chwili n. Widzimy, że zmienne Xn tworzą łańcuch Markowa z macierzą przejścia 𝐏 mającą zerowe wyrazy oprócz:

Parser nie mógł rozpoznać (błąd składni): {\displaystyle \displaystyle {\mathbf{P}}(i,i-1)= \left(\frac{i}{k}\right)^2, \ \ \ \ {\mathbf{P}}(i,i+1) = \left(\frac{k - i}{k}\right)^2, \ \ \ \ {\mathbf{P}}(i,i) = \frac{2(k-i)i}{k^2}. }

Badanie własności łańcuchów Markowa zaczniemy od wyznaczenia rozkładów wektorów losowych Xn, co sprowadza się do wyznaczenia, dla wszystkich n1, funkcji (wektorów) 𝐩n:E takich, że:

𝐩n(j)=P(Xn=j)dlajE.

Stosując wzór na prawdopodobieństwo całkowite, mamy:

𝐩n(j)=P(Xn=j)=iEP(Xn=j|Xn1=i)P(Xn1=i)
=iE𝐏(i,j)𝐩n1(i),

czyli:

𝐩n=𝐏T𝐩n1,

gdzie 𝐏T oznacza macierz transponowaną AG do macierzy 𝐏. Oznaczając n-tą potęgę macierzy 𝐏 przez 𝐏n, otrzymujemy wreszcie poszukiwany rozkład:

𝐩n=(𝐏T)n𝐩0.

W szczególności, jeżeli wiemy, że X0=i, czyli że łańcuch w chwili 0 znajduje się w stanie i z prawdopodobieństwem 1, powyższy wzór implikuje następującą własność:

𝐩n(j)=𝐏n(i,j) dla wszystkich n,

co nieco wyjaśnia znaczenie wyrazów 𝐏n(i,j) macierzy 𝐏n.

Niech teraz A oznacza zbiór opisany przez wektory losowe X0,Xn1, co oznacza, że A ma postać:

A={X0=i0,,Xn1=in1},

gdzie suma jest brana po pewnym zbiorze indeksów i0,,in1 -- zbiór tych indeksów oznaczmy przez B. Wówczas:

P(Xn+1=j|(Xn=i oraz A))=𝐏(i,j).

Aby udowodnić powyższą równość zauważmy, że:

P(Xn+1=j|(Xn=i oraz A))=P(Xn+1=j,Xn=i,A)P(Xn=i,A)
=P(Xn+1=j,Xn=i,Xn1=in1,,X0=i0)P(Xn=i,Xn1=in1,,X0=i0),

gdzie obie sumy brane są po zbiorze B. Z własności 2 w definicji łańcucha Markowa (definicja Uzupelnic dlm|) otrzymujemy:

P(Xn+1=j,Xn=i,Xn1=in1,,X0=i0)
=P(Xn+1=j|(Xn=i,Xn1=in1,,X0=i0))
P(Xn=i,Xn1=in1,,X0=i0)
=P(Xn+1=j|Xn=i)P(Xn=i,Xn1=in1,,X0=i0)
=𝐏(i,j)P(Xn=i,Xn1=in1,,X0=i0),

co daje wzór (Uzupelnic eq:markov1|).

Kolejne twierdzenie prezentuje inną (bardziej ogólną) interpretację wyrazów 𝐏n(i,j) macierzy 𝐏n, jako prawdopodobieństw przejścia w n krokach ze stanu i do stanu j.

Twierdzenie

Dla każdego n1 oraz i,jE mamy:

P(Xk+n=j|Xk=i)=𝐏n(i,j).

Dowód. Dla n=1 formuła (Uzupelnic eq:markov2|) jest konsekwencją własności 2 w definicji Uzupelnic dlm|. Dla przeprowadzenia kroku indukcyjnego załóżmy, że wzór (Uzupelnic eq:markov2|) zachodzi dla pewnego n. Mamy wówczas:

P(Xk+(n+1)=j|Xk=i)=P(Xk+n+1=j,Xk=i)P(Xk=i)
=lEP(Xk+n+1=j,Xk+n=l,Xk=i)P(Xk=i)
=lEP(Xk+n+1=j|Xk+n=l,Xk=i)P(Xk+n=l,Xk=i)P(Xk=i).

Korzystając ze wzoru (Uzupelnic eq:markov1|) oraz z założenia indukcyjnego dostajemy:

P(Xk+(n+1)=j|Xk=i)
=lE𝐏(l,j)P(Xk+n=l|Xk=i)P(Xk=i)P(Xk=i)
=lE𝐏n(i,l)𝐏(l,j)=𝐏n+1(i,j),

a więc dowiedliśmy wzór (Uzupelnic eq:markov2|) dla n+1, co kończy dowód. {}

Nieredukowalne łańcuchy Markowa

W dalszej części będziemy się zajmować tylko takimi łańcuchami Markowa, których każde dwa stany mogą się komunikować. Mówiąc dokładniej, będziemy zakładać, że dla każdych dwóch stanów i oraz j prawdopodobieństwo przejścia Pk(i,j) jest dodatnie dla pewnego k=k(i,j). Łańcuch Markowa o tej własności nazywa się łańcuchem nieredukowalnym. Większość spotykanych w zastosowaniach łańcuchów Markowa jest nieredukowalna, jakkolwiek łatwo pokazać przykłady łańcuchów, które nie spełniają tego warunku -- na przykład spacer losowy z ekranami pochłaniającymi nie jest nieredukowalny, gdyż prawdopodobieństwo przejścia z jednego do drugiego ekranu jest równe 0.

Powracanie i okresowość

Dla nieredukowalnego łańcucha Markowa, przez fn(i) oznaczmy prawdopodobieństwo pierwszego powrotu do stanu i w dokładnie n krokach, czyli:

fn(i)=P(Xn=i,Xn1i,,X1i|X0=i).

Określmy F(i) jako:

F(i)=n=1fn(i)

-- jest to prawdopodobieństwo pierwszego powrotu do stanu i w czasie skończonym.

Oczywiście, F(i)1. Będziemy mówić, że stan i jest powracający, jeżeli F(i)=1, zaś niepowracający -- jeżeli F(i)<1. Można udowodnić, że albo wszystkie stany są powracające, albo wszystkie stany są niepowracające. W związku z tym mówimy, że (nieredukowalny) łańcuch Markowa jest, odpowiednio, powracający albo niepowracający.

Następujące twierdzenie, które podajemy bez dowodu, pozwala w wielu przypadkach stwierdzić, czy łańcuch Markowa jest powracający, czy niepowracający. Oznaczmy:

𝐏(i)=n=1𝐏n(i,i).

Twierdzenie

Niech iE będzie ustalonym stanem nieredukowalnego łańcucha Markowa. Wtedy: [#] stan i jest powracający wtedy i tylko wtedy,

gdy:
𝐏(i)=,
jeżeli i jest stanem niepowracającym, to:
F(i)=𝐏(i)1+𝐏(i).

Liczby 𝐏(i) mają także nieco inną interpretację, którą prezentuje poniższe twierdzenie. Oznaczmy przez ri liczbę wszystkich powrotów do stanu i.

Twierdzenie

Dla każdego iE:
𝔼(ri)=𝐏(i).

Dowód. Załóżmy, że w chwili 0 system znajdował

się w stanie

i

. W takim razie:

𝐩(i)=1oraz𝐩(j)=0dlaji.

Mamy więc:

P(Xn=i)=P(Xn=i|X0=i)=𝐏n(i,i).

Wiemy, że (patrz zadanie Uzupelnic zfch|):

𝔼(I{Xn=i})=P(Xn=i),

zatem:

𝔼(ri)=𝔼(n=1I{Xn=i})=n=1P(Xn=i)=n=1𝐏n(i,i)=𝐏(i).

{}

Rozważmy jednowymiarowy spacer losowy bez barier z prawdopodobieństwami p=q=12 (patrz przykład Uzupelnic markov1|). Wyraźnie widać, że jest to nieredukowalny łańcuch Markowa oraz że:

Parser nie mógł rozpoznać (błąd składni): {\displaystyle \displaystyle \mathbf{P}^n(i,i) = {\mathbf{P}}^n(0,0) \;\; \textrm{dla każdego } i \in {\Bbb Z}.}

Można też łatwo się przekonać (ćwiczenie), że:

Parser nie mógł rozpoznać (nieznana funkcja „\begin{array}”): {\displaystyle \displaystyle {\mathbf{P}}^n(0,0) = \left\{\begin{array} {rl} 0, & \mbox{ gdy } n = 2k - 1\\[2mm] \frac{\left(\begin{array} {@{}c@{}}2k\\k\end{array} \right)}{\displaystyle 2^{2k}}, & \mbox{ gdy } n = 2k. \end{array} \right. }

Teraz:

Parser nie mógł rozpoznać (nieznana funkcja „\begin{array}”): {\displaystyle \displaystyle {\mathbf{P}}(i) = \sum_{n=1}^\infty{\mathbf{P}}^n(i,i)=\sum_{n=1}^\infty{\mathbf{P}}^n(0,0) = \sum_{k=1}^\infty \frac{\left(\begin{array} {@{}c@{}}2k\\k\end{array} \right)}{\displaystyle 2^{2k}}. }

Tę ostatnią sumę można obliczyć analitycznie, co jest zadaniem dość trudnym. Jednakże, korzystając z programu Maple wynik uzyskujemy bardzo szybko:

{active}{1d}{sum(binomial(2*k,k)/4^k,k=1..infinity);}{}

Tak więc okazało się, iż jednowymiarowy standardowy spacer losowy jest powracający.

Można też pokazać, że dwuwymiarowy standardowy spacer losowy (patrz przykład Uzupelnic markov3|) jest powracający, natomiast spacer losowy w przestrzeni o wymiarze co najmniej trzy nie jest powracający -- wrócimy do tego problemu w ćwiczeniu Uzupelnic cwsl|.

Rozważmy nieredukowalny łańcuch Markowa i ustalmy pewien jego stan iE. Ponieważ i komunikuje się z samym sobą, zatem istnieje liczba n1 taka, że 𝐏n(i,i)>0 -- niech Ni oznacza zbiór wszystkich takich liczb n. Zauważmy, że:

m,nNim+nNi.

Wynika to z następującej

(ogólniejszej) obserwacji: dla wszystkich stanów i, j oraz k:

𝐏m+n(i,j)=lE𝐏m(i,l)𝐏n(l,j)𝐏m(i,k)𝐏n(k,j),

a więc, w szczególności:

𝐏m+n(i,i)𝐏m(i,i)𝐏n(i,i)>0.

Mówimy, że stan i jest okresowy o okresie ν>1, jeżeli ν jest największym wspólnym podzielnikiem liczb ze zbioru Ni. Można udowodnić, że w nieredukowalnym łańcuchu Markowa zachodzi dokładnie jeden z następujących warunków: [#] wszystkie stany są okresowe i mają wspólny okres,

żaden ze stanów nie jest okresowy. W pierwszym z powyższych przypadków mówimy, że łańcuch Markowa jest okresowy, a jego okresem jest (wspólny) okres każdego z jego stanów.

Spacer losowy opisany w przykładzie Uzupelnic markov1| jest okresowy o okresie 2, natomiast jego nie posiadająca ekranów modyfikacja, dla której p+q<1, nie jest okresowa. Pamiętajmy jednak, iż sam warunek p+q=1 nie gwarantuje jeszcze okresowości (jeżeli istnieją ekrany pochłaniające, to łańcuch nie jest nieredukowalny).

Ergodyczność

W pewnych okolicznościach możemy być zainteresowani tym, jak zachowuje się łańcuch Markowa po upływie długiego czasu. W szczególności, warto się pytać o asymptotyczny rozkład prawdopodobieństwa wektorów Xn, o ile oczywiście taki rozkład istnieje. Poniżej prezentujemy tak zwane twierdzenie ergodyczne, które opisuje właśnie taką sytuację.

Twierdzenie

Rozważamy nieredukowalny łańcuch Markowa o skończonej liczbie stanów k (to znaczy #E=k) i macierzy przejścia 𝐏. Wówczas zachodzi dokładnie jeden z następujących warunków:

łańcuch jest okresowy,

istnieje wektor π o współrzędnych π1, , πk taki, że:

πi>0 dla wszystkich iE,

dla wszystkich i,jE:

limn𝐏n(i,j)=πj,

wektor π jest jedynym rozwiązaniem równania:

𝐏Tx=x,
spełniającym warunek:
iExi=1.

Jeżeli spełniony jest warunek 2 z powyższego twierdzenia, to łańcuch Markowa nazywamy ergodycznym, zaś wektor π -- jego rozkładem stacjonarnym. Mówiąc niezbyt precyzyjnie, ergodyczność oznacza, że dla dużych n prawdopodobieństwo przejścia ze stanu i do stanu j w n krokach jest dodatnie i zależy faktycznie od stanu końcowego j, zaś nie zależy od stanu początkowego i -- prawdopodobieństwa te można otrzymać, rozwiązując odpowiedni układ równań liniowych.

Nie podajemy dość długiego i trudnego dowodu twierdzenia ergodycznego. Zamiast tego, w ćwiczeniu Uzupelnic cetw| "sprawdzimy" to twierdzenie eksperymentalnie.