Rachunek prawdopodobieństwa i statystyka/Wykład 10: Łańcuchy Markowa: Różnice pomiędzy wersjami

Z Studia Informatyczne
Przejdź do nawigacjiPrzejdź do wyszukiwania
Linia 13: Linia 13:
==Definicje i przykłady==
==Definicje i przykłady==


Niech <math>\displaystyle E\subset {\Bbb R}^d</math> będzie zbiorem skończonym lub przeliczalnym oraz&nbsp;niech  
Niech <math>\displaystyle E\subset {\Bbb R}^d</math> będzie zbiorem skończonym lub przeliczalnym oraz niech  


<center><math>\displaystyle  
<center><math>\displaystyle  
Linia 104: Linia 104:
czym <math>\displaystyle p + q = 1</math>. Jeżeli <math>\displaystyle p = q = \frac{1}{2}</math> to
czym <math>\displaystyle p + q = 1</math>. Jeżeli <math>\displaystyle p = q = \frac{1}{2}</math> to
mówimy, że spacer losowy  jest standardowy.  
mówimy, że spacer losowy  jest standardowy.  


Oto przykładowa animacja, prezentująca standardowy spacer losowy o 300 krokach:
Oto przykładowa animacja, prezentująca standardowy spacer losowy o 300 krokach:
Linia 182: Linia 183:


Kolejny przykład pokazuje, iż można też opisać spacer losowy w trochę inny sposób.
Kolejny przykład pokazuje, iż można też opisać spacer losowy w trochę inny sposób.
{{przykład|10.3||


Załóżmy, nieco ogólniej niż
Załóżmy, nieco ogólniej niż
Linia 198: Linia 201:
Można także rozpatrywać spacery losowe na płaszczyźnie, a także (ogólnie)
Można także rozpatrywać spacery losowe na płaszczyźnie, a także (ogólnie)
w&nbsp;przestrzeni wielowymiarowej.
w&nbsp;przestrzeni wielowymiarowej.
{{przykład|10.4||


Dla uproszczenia załóżmy, że
Dla uproszczenia załóżmy, że
<math>\displaystyle p
<math>\displaystyle p = q = \frac{1}{2}</math>, czyli także, że  <math>\displaystyle r = 0</math>. Dla <math>\displaystyle i = (i_1,\dots, i_d)\in
= q = \frac{1}{2}</math>, czyli także, że  <math>\displaystyle r = 0</math>. Dla <math>\displaystyle i = (i_1,\dots, i_d)\in
{\Bbb Z}^d</math> mamy:
{\Bbb Z}^d</math> mamy:
<center><math>\displaystyle  
<center><math>\displaystyle  
X_0 = i \ \mbox{ oraz } \ \ X_{n+1} = X_n + \xi_{n+1}
X_0 = i \ \mbox{ oraz } \ \ X_{n+1} = X_n + \xi_{n+1}
\mbox{ dla } n = 0,1,2, \dots
\mbox{ dla } n = 0,1,2, \dots
</math></center>
</math></center>
Tym razem <math>\displaystyle \xi_1, \xi_2, \xi_3, \ldots</math> są
Tym razem <math>\displaystyle \xi_1, \xi_2, \xi_3, \ldots</math> są
niezależnymi wektorami losowymi, przyjmującymi
niezależnymi wektorami losowymi, przyjmującymi
Linia 217: Linia 223:


Poniżej przedstawiamy dalsze przykłady łańcuchów Markowa.
Poniżej przedstawiamy dalsze przykłady łańcuchów Markowa.
{{przykład|10.5||


Załóżmy, że  dwaj gracze, powiedzmy
Załóżmy, że  dwaj gracze, powiedzmy
Linia 230: Linia 238:
kapitał Antoniego po zakończeniu <math>\displaystyle n</math>-tej gry przez
kapitał Antoniego po zakończeniu <math>\displaystyle n</math>-tej gry przez
<math>\displaystyle X_n</math>. Zauważmy, że opisana sytuacja jest faktycznie
<math>\displaystyle X_n</math>. Zauważmy, że opisana sytuacja jest faktycznie
spacerem losowym, startującym w&nbsp;punkcie
spacerem losowym, startującym w punkcie
<math>\displaystyle A</math> i mającym bariery pochłaniające w&nbsp;punktach  <math>\displaystyle 0</math> oraz <math>\displaystyle A+B</math>.  
<math>\displaystyle A</math> i mającym bariery pochłaniające w punktach  <math>\displaystyle 0</math> oraz <math>\displaystyle A+B</math>.  
 
{{przykład|10.6||


W każdej z dwóch urn umieszczono po <math>\displaystyle k</math>
W każdej z dwóch urn umieszczono po <math>\displaystyle k</math>
kul, przy czym <math>\displaystyle k</math> z nich ma kolor zielony, a pozostałe <math>\displaystyle k</math> --
kul, przy czym <math>\displaystyle k</math> z nich ma kolor zielony, a pozostałe <math>\displaystyle k</math> -
kolor czerwony. Następnie w kolejnych momentach czasu
kolor czerwony. Następnie w kolejnych momentach czasu
zamieniamy miejscami jednocześnie wylosowane 2 kule (po jednej z obu urn). Niech <math>\displaystyle X_n</math> oznacza
zamieniamy miejscami jednocześnie wylosowane 2 kule (po jednej z obu urn). Niech <math>\displaystyle X_n</math> oznacza
Linia 242: Linia 252:
macierzą przejścia  <math>\displaystyle {\mathbf{P}}</math> mającą zerowe wyrazy
macierzą przejścia  <math>\displaystyle {\mathbf{P}}</math> mającą zerowe wyrazy
oprócz:
oprócz:
<center><math>\displaystyle  
<center><math>\displaystyle  
{\mathbf{P}}(i,i-1)= \left(\frac{i}{k}\right)^2, \ \  \ \
{\mathbf{P}}(i,i-1)= \left(\frac{i}{k}\right)^2, \ \  \ \
Linia 252: Linia 263:
dla wszystkich <math>\displaystyle n \ge 1</math>, funkcji (wektorów)
dla wszystkich <math>\displaystyle n \ge 1</math>, funkcji (wektorów)
<math>\displaystyle {\mathbf{p}}_n\colon E\longrightarrow {\Bbb R}</math> takich, że:
<math>\displaystyle {\mathbf{p}}_n\colon E\longrightarrow {\Bbb R}</math> takich, że:
<center><math>\displaystyle  
<center><math>\displaystyle  
{\mathbf{p}}_n(j) = P(X_n = j) \;\;\textrm{ dla } j \in E.
{\mathbf{p}}_n(j) = P(X_n = j) \;\;\textrm{ dla } j \in E.
</math></center>
</math></center>
Stosując wzór
 
na prawdopodobieństwo całkowite, mamy:
Stosując wzór na prawdopodobieństwo całkowite, mamy:
 
<center><math>\displaystyle  
<center><math>\displaystyle  
{\mathbf{p}}_n(j) = P(X_n = j) = \sum_{i \in E}P(X_n = j|X_{n-1}
{\mathbf{p}}_n(j) = P(X_n = j) = \sum_{i \in E}P(X_n = j|X_{n-1}
= i)P(X_{n-1} = i)</math></center>
= i)P(X_{n-1} = i)</math></center>
<center><math>\displaystyle  
<center><math>\displaystyle  
= \sum_{i \in E}{\mathbf{P}}(i,j){\mathbf{p}_{n-1}}(i),
= \sum_{i \in E}{\mathbf{P}}(i,j){\mathbf{p}_{n-1}}(i),
</math></center>
</math></center>
czyli:
czyli:


Linia 272: Linia 288:
Oznaczając <math>\displaystyle n</math>-tą potęgę macierzy <math>\displaystyle {\mathbf{P}}</math> przez
Oznaczając <math>\displaystyle n</math>-tą potęgę macierzy <math>\displaystyle {\mathbf{P}}</math> przez
<math>\displaystyle {\mathbf{P}}^n</math>, otrzymujemy wreszcie poszukiwany rozkład:
<math>\displaystyle {\mathbf{P}}^n</math>, otrzymujemy wreszcie poszukiwany rozkład:
<center><math>\displaystyle  
<center><math>\displaystyle  
{\mathbf{p}}_n = \left({\mathbf{P}}^T\right)^n{\mathbf{p}}_0.
{\mathbf{p}}_n = \left({\mathbf{P}}^T\right)^n{\mathbf{p}}_0.
</math></center>
</math></center>
W szczególności, jeżeli wiemy, że <math>\displaystyle X_0 = i</math>, czyli że
W szczególności, jeżeli wiemy, że <math>\displaystyle X_0 = i</math>, czyli że
łańcuch w chwili 0 znajduje się w stanie <math>\displaystyle i</math> z prawdopodobieństwem
łańcuch w chwili 0 znajduje się w stanie <math>\displaystyle i</math> z prawdopodobieństwem 1, powyższy wzór implikuje następującą własność:
1, powyższy wzór implikuje następującą własność:
 
<center><math>\displaystyle  
<center><math>\displaystyle  
{\mathbf{p}}_n(j) = {\mathbf{P}}^n(i,j) \mbox{ dla wszystkich } n,
{\mathbf{p}}_n(j) = {\mathbf{P}}^n(i,j) \mbox{ dla wszystkich } n,
</math></center>
</math></center>
co nieco wyjaśnia znaczenie wyrazów <math>\displaystyle {\mathbf{P}}^n(i,j)</math> macierzy <math>\displaystyle \mathbf{P}^n</math>.
co nieco wyjaśnia znaczenie wyrazów <math>\displaystyle {\mathbf{P}}^n(i,j)</math> macierzy <math>\displaystyle \mathbf{P}^n</math>.


Niech teraz <math>\displaystyle A</math> oznacza zbiór opisany przez wektory losowe
Niech teraz <math>\displaystyle A</math> oznacza zbiór opisany przez wektory losowe
<math>\displaystyle X_0, \dots X_{n-1}</math>, co oznacza, że <math>\displaystyle A</math> ma postać:
<math>\displaystyle X_0, \dots X_{n-1}</math>, co oznacza, że <math>\displaystyle A</math> ma postać:
<center><math>\displaystyle  
<center><math>\displaystyle  
A = \bigcup \{X_0 = i_0, \dots,X_{n-1} = i_{n-1} \},
A = \bigcup \{X_0 = i_0, \dots,X_{n-1} = i_{n-1} \},
</math></center>
</math></center>
gdzie suma jest brana po pewnym zbiorze
gdzie suma jest brana po pewnym zbiorze
indeksów <math>\displaystyle i_0, \dots, i_{n-1}</math> -- zbiór tych indeksów oznaczmy przez <math>\displaystyle B</math>. Wówczas:
indeksów <math>\displaystyle i_0, \dots, i_{n-1}</math> - zbiór tych indeksów oznaczmy przez <math>\displaystyle B</math>. Wówczas:


<center><math>\displaystyle  
<center><math>\displaystyle  
Linia 296: Linia 317:


Aby udowodnić powyższą równość zauważmy, że:
Aby udowodnić powyższą równość zauważmy, że:
<center><math>\displaystyle  
<center><math>\displaystyle  
P(X_{n+1} = j|(X_{n} = i \mbox{ oraz } A)) =
P(X_{n+1} = j|(X_{n} = i \mbox{ oraz } A)) =
\frac{P(X_{n+1} = j,X_{n} = i, A)}{P(X_{n} = i, A)}
\frac{P(X_{n+1} = j,X_{n} = i, A)}{P(X_{n} = i, A)}
</math></center>
</math></center>
<center><math>\displaystyle  =
<center><math>\displaystyle  =
\frac{\sum P(X_{n+1} = j,X_{n} = i, X_{n-1} = i_{n-1},
\frac{\sum P(X_{n+1} = j,X_{n} = i, X_{n-1} = i_{n-1},
Linia 305: Linia 329:
\dots, X_0 = i_0)},
\dots, X_0 = i_0)},
</math></center>
</math></center>
gdzie obie sumy brane są po zbiorze <math>\displaystyle B</math>. Z własności 2
gdzie obie sumy brane są po zbiorze <math>\displaystyle B</math>. Z własności 2
w definicji łańcucha Markowa (definicja [[##dlm|Uzupelnic dlm|]]) otrzymujemy:
w definicji łańcucha Markowa (definicja [[##dlm|Uzupelnic dlm|]]) otrzymujemy:
<center><math>\displaystyle P(X_{n+1} = j,X_{n} = i, X_{n-1}=i_{n-1},
 
<center><math>\displaystyle  
P(X_{n+1} = j,X_{n} = i, X_{n-1}=i_{n-1},
\dots, X_0 = i_0)
\dots, X_0 = i_0)
</math></center>
</math></center>
<center><math>\displaystyle  
<center><math>\displaystyle  
=P(X_{n+1} = j|(X_{n} = i, X_{n-1} = i_{n-1},
=P(X_{n+1} = j|(X_{n} = i, X_{n-1} = i_{n-1},
\dots, X_0 = i_0))
\dots, X_0 = i_0))
</math></center>
</math></center>
<center><math>\displaystyle  
<center><math>\displaystyle  
\cdot
\cdot
Linia 319: Linia 348:
\dots, X_0 = i_0)
\dots, X_0 = i_0)
</math></center>
</math></center>
<center><math>\displaystyle  
<center><math>\displaystyle  
= P(X_{n+1} = j|X_{n} = i) P(X_{n} = i, X_{n-1} =
= P(X_{n+1} = j|X_{n} = i) P(X_{n} = i, X_{n-1} =
i_{n-1}, \dots, X_0 = i_0)
i_{n-1}, \dots, X_0 = i_0)
</math></center>
</math></center>
<center><math>\displaystyle  
<center><math>\displaystyle  
= {\mathbf{P}}(i,j)P(X_{n} = i, X_{n-1} = i_{n-1}, \dots, X_0 =
= {\mathbf{P}}(i,j)P(X_{n} = i, X_{n-1} = i_{n-1}, \dots, X_0 =
i_0),
i_0),
</math></center>
</math></center>
co daje wzór ([[##eq:markov1|Uzupelnic eq:markov1|]]).
co daje wzór ([[##eq:markov1|Uzupelnic eq:markov1|]]).


Linia 334: Linia 366:
krokach ze stanu <math>\displaystyle i</math> do stanu <math>\displaystyle j</math>.
krokach ze stanu <math>\displaystyle i</math> do stanu <math>\displaystyle j</math>.


{{twierdzenie|||
{{twierdzenie|10.7.||


Dla każdego <math>\displaystyle n \ge 1</math> oraz <math>\displaystyle i, j \in E</math> mamy:
Dla każdego <math>\displaystyle n \ge 1</math> oraz <math>\displaystyle i, j \in E</math> mamy:
Linia 341: Linia 373:
P(X_{k+n} = j|X_k = i) = {\mathbf{P}}^n(i,j).
P(X_{k+n} = j|X_k = i) = {\mathbf{P}}^n(i,j).
</math></center>
</math></center>
}}
}}


Linia 349: Linia 380:
indukcyjnego załóżmy, że wzór ([[##eq:markov2|Uzupelnic eq:markov2|]]) zachodzi dla
indukcyjnego załóżmy, że wzór ([[##eq:markov2|Uzupelnic eq:markov2|]]) zachodzi dla
pewnego  <math>\displaystyle n</math>.  Mamy wówczas:
pewnego  <math>\displaystyle n</math>.  Mamy wówczas:
<center><math>\displaystyle  
<center><math>\displaystyle  
P(X_{k+(n+1)} = j|X_k = i) = \frac{P(X_{k+n+1} = j,X_k =
P(X_{k+(n+1)} = j|X_k = i) = \frac{P(X_{k+n+1} = j,X_k =
i)}{P(X_k = i)}
i)}{P(X_k = i)}
</math></center>
</math></center>
<center><math>\displaystyle  
<center><math>\displaystyle  
= \frac{\sum_{l \in E}P(X_{k+n+1} = j,X_{k+n} = l,X_k =
= \frac{\sum_{l \in E}P(X_{k+n+1} = j,X_{k+n} = l,X_k =
i)}{P(X_k = i)}
i)}{P(X_k = i)}
</math></center>
</math></center>
<center><math>\displaystyle  
<center><math>\displaystyle  
= \frac{\sum_{l \in E}P(X_{k+n+1} = j|X_{k+n} = l,X_k =
= \frac{\sum_{l \in E}P(X_{k+n+1} = j|X_{k+n} = l,X_k =
i) P(X_{k+n} = l,X_k = i)}{P(X_k = i)}.
i) P(X_{k+n} = l,X_k = i)}{P(X_k = i)}.
</math></center>
</math></center>
Korzystając ze wzoru ([[##eq:markov1|Uzupelnic eq:markov1|]]) oraz z założenia indukcyjnego dostajemy:
Korzystając ze wzoru ([[##eq:markov1|Uzupelnic eq:markov1|]]) oraz z założenia indukcyjnego dostajemy:
<center><math>\displaystyle  
<center><math>\displaystyle  
P(X_{k+(n+1)} = j|X_k = i)
P(X_{k+(n+1)} = j|X_k = i)
</math></center>
</math></center>
<center><math>\displaystyle  
<center><math>\displaystyle  
= \frac{\sum_{l \in
= \frac{\sum_{l \in
Linia 370: Linia 407:
i)P(X_k = i)}{P(X_k = i)}
i)P(X_k = i)}{P(X_k = i)}
</math></center>
</math></center>
<center><math>\displaystyle  
<center><math>\displaystyle  
=\sum_{l \in E}{\mathbf{P}}^n(i,l){\mathbf{P}}(l,j) = {\mathbf{P}}^{n+1}(i,j),
=\sum_{l \in E}{\mathbf{P}}^n(i,l){\mathbf{P}}(l,j) = {\mathbf{P}}^{n+1}(i,j),
</math></center>
</math></center>
a więc dowiedliśmy wzór ([[##eq:markov2|Uzupelnic eq:markov2|]]) dla <math>\displaystyle n+1</math>, co kończy dowód. {<math>\displaystyle \Box</math>}
 
a więc dowiedliśmy wzór ([[##eq:markov2|Uzupelnic eq:markov2|]]) dla <math>\displaystyle n+1</math>, co kończy dowód.


==Nieredukowalne łańcuchy Markowa==
==Nieredukowalne łańcuchy Markowa==

Wersja z 19:46, 22 sie 2006

Łańcuchy Markowa

Założenie o niezależności zmiennych losowych nie zawsze jest spełnione. Poznamy teraz sytuację, w której zmienne losowe są zależne, ale znamy dobrze charakter tej zależności - sytuację tę opisują tak zwane łańcuchy Markowa. Podamy podstawowe definicje i twierdzenia oraz standardowe przykłady łańcuchów Markowa.


Andriej Markow (1856-1922)
Zobacz biografię

W tym wykładzie przedstawimy jedną z najprostszych sytuacji, gdy rozważne zmienne losowe są zależne. Warto podkreślić, że łańcuchy Markowa, które będziemy za chwilę omawiać, stanowią bardzo interesujący przykład procesów stochastycznych. Ich teoria ma z kolei podstawowe znaczenie przy budowie probabilistycznych modeli wielu zjawisk przyrodniczych, technicznych, a także ekonomicznych. W szczególności, teoria procesów stochastycznych znajduje w ostatnich latach coraz większe zastosowanie przy wycenie instrumentów finansowych.

Definicje i przykłady

Niech Ed będzie zbiorem skończonym lub przeliczalnym oraz niech

𝐏:E×Ei𝐩:E

będą ustalonymi funkcjami. Będziemy myśleć o 𝐏 i 𝐩 jako o skończonej lub przeliczalnej macierzy AG 𝐏(i,j) oraz wektorze AG o współrzędnych 𝐩(i), gdzie i,jE.

Definicja 10.1.[łańcuch Markowa]

Niech będzie dany ciąg wektorów losowych Xn, n=0,1,2,, zdefiniowanych na przestrzeni probabilistycznej (Ω,Σ,P) i przyjmujących wartości w d. Mówimy, że {Xn} jest łańcuchem Markowa, jeżeli spełnione są następujące warunki:

1. P(X0=i)=𝐩(i) dla każdego iE,

2. dla każdego n0 zachodzi równość:

P(Xn+1=in+1|(X0=i0,,Xn=in))


=P(Xn+1=in+1|Xn=in)=𝐏(in,in+1),

dla wszystkich i0,,in+1E,


3. iE𝐩(i)=1,

4. jE𝐏(i,j)=1 dla każdego iE.

Powyższe warunki mają prostą interpretację. Mianowicie, utożsamiamy zbiór E ze zbiorem wszystkich możliwych stanów pewnego systemu. Wówczas Xn oznacza stan, w którym znajduje się nasz system w chwili czasowej n. Warunek, że Xn jest wektorem losowym oznacza, że faktycznie nie znamy dokładnie tego położenia, natomiast pozostałe warunki dają nam o nim pewne informacje. Po pierwsze, znamy rozkład prawdopodobieństwa położenia systemu w chwili zerowej (warunki 1 i 3). Po drugie, prawdopodobieństwo przejścia układu z jednego stanu do innego stanu, w jednostkowym odcinku czasu, zależy jedynie od samych stanów, a nie zależy od historii układu ani od konkretnej chwili, w której to przejście następuje (warunek 2). Wreszcie, układ nigdy nie opuści swojej przestrzeni stanów E, gdyż:

P(X0E)=iE𝐩i=1,

zaś warunek 4 implikuje następującą równość dla wszystkich iE:

P(Xn+1E|Xn=i)=jEP(Xn+1=j|Xn=i)=jE𝐏(i,j)=1.

W związku z powyższą interpretacją, E będziemy nazywać zbiorem stanów lub przestrzenią stanów, 𝐩 - rozkładem początkowym, zaś 𝐏 - macierzą przejścia łańcucha Markowa.

W dalszej części zaprezentujemy kilka typowych przykładów łańcuchów Markowa.

Spacer losowy

Chyba najbardziej klasycznym przykładem łańcucha Markowa jest spacer losowy po prostej.

{{przykład|10.2||

Wyobraźmy sobie cząsteczkę, która może się poruszać wzdłuż linii prostej według następujących reguł: w chwili zero cząsteczka znajduje się w punkcie o współrzędnej zero, natomiast w następnych momentach czasu (1, 2, 3 i tak dalej) może się przesuwać o jeden w lewo lub o jeden w prawo, z prawdopodobieństwami odpowiednio q oraz p, przy czym p+q=1. Jeżeli p=q=12 to mówimy, że spacer losowy jest standardowy.


Oto przykładowa animacja, prezentująca standardowy spacer losowy o 300 krokach:

animacja 101.gif

Okazuje się, że spacer losowy po prostej jest łańcuchem Markowa. Rzeczywiście, stanami są wszystkie możliwe liczby całkowite, czyli E=, natomiast Xn oznacza pozycję cząsteczki w chwili n. Zdefiniujmy:

𝐩(i)=1 dla i=0,𝐩(i)=0 dla i0


oraz

𝐏(i,j)=q dla j=i1,𝐏(i,j)=p dla j=i+1,𝐏(i,j)=0 dla j{i1,i+1}.

Zauważmy, że określony powyżej spacer losowy może być modyfikowany na różne sposoby. Załóżmy, na przykład, że cząsteczka może nie zmieniać swojego położenia z prawdopodobieństwem r (wtedy oczywiście zakładamy, że p+q+r=1). Inną modyfikacją jest założenie o istnieniu jednej lub dwóch barier (ekranów), które ograniczają możliwość ruchu cząsteczki. Przykładowo, jeżeli są one usytuowane w punktach A i B, gdzie A<0<B, to zbiór E składa się A+B+1 stanów, zaś (A+B+1)-wymiarowa macierz 𝐏 może być zdefiniowana w następujący sposób:

𝐏=[sa1sa000qrp000000qrp0001sbsb].

Liczby sa oraz sb oznaczają prawdopodobieństwa tego, że cząsteczka jest pochłaniana przez barierę A lub B. Dwa interesujące przypadki skrajne są wtedy, gdy liczby te są albo zerami, co oznacza pełną elastyczność barier, albo jedynkami, co oznacza pełną absorbcję cząsteczki z chwilą jej dojścia do bariery.

Przykładowy spacer losowy może wyglądać tak:

<flash>file=Rp.1.101.swf|width=350|height=350</flash>

Tutaj ekrany ustawiono w punktach 3 i 3, parametry wynoszą:

p=q=0.5,r=0,sa=sb=0.8,

zaś wykonanych jest 30 kroków.

W poniższej animacji także ustawiono bariery w punktach 3 oraz 3, ale tym razem:

p=0.1,q=0.15,r=0.75,sa=sb=0.4.

animacja 102.gif

Kolejny przykład pokazuje, iż można też opisać spacer losowy w trochę inny sposób.

{{przykład|10.3||

Załóżmy, nieco ogólniej niż poprzednio, że cząsteczka startuje w chwili 0 z punktu i. Gdy nie uwzględniamy barier, mamy:

X0=i  oraz   Xn+1=Xn+ξn+1 dla n=0,1,2,,

gdzie ξ1,ξ2,ξ3, są niezależnymi zmiennymi losowymi, przyjmującymi wartości 1, 0, 1 z prawdopodobieństwami, odpowiednio, q, r i p.

Można także rozpatrywać spacery losowe na płaszczyźnie, a także (ogólnie) w przestrzeni wielowymiarowej.

{{przykład|10.4||

Dla uproszczenia załóżmy, że p=q=12, czyli także, że r=0. Dla i=(i1,,id)d mamy:

X0=i  oraz   Xn+1=Xn+ξn+1 dla n=0,1,2,

Tym razem ξ1,ξ2,ξ3, są niezależnymi wektorami losowymi, przyjmującymi 2d wartości (ε1,,εd), gdzie εj=±1, z jednakowym prawdopodobieństwem 12d.

Zauważmy, że współrzędnymi zdefiniowanego w powyższym przykładzie d-wymiarowego spaceru losowego są niezależne jednowymiarowe standardowe spacery losowe.

Poniżej przedstawiamy dalsze przykłady łańcuchów Markowa.

{{przykład|10.5||

Załóżmy, że dwaj gracze, powiedzmy Antoni i Bolesław, mają kapitał, odpowiednio, A i B złotych. Powtarzają oni tę samą grę (może, na przykład, grają w szachy), przy czym przegrywający płaci wygrywającemu złotówkę. Gra kończy się wtedy, gdy jednemu z graczy skończą się pieniądze. Załóżmy, że w każdej grze prawdopodobieństwo wygrania przez Antoniego wynosi p, zaś prawdopodobieństwo wygrania przez Bolesława wynosi q. Zakładamy, że p+q1 i oznaczamy przez r prawdopodobieństwo remisu, czyli r=1pq. Oznaczmy kapitał Antoniego po zakończeniu n-tej gry przez Xn. Zauważmy, że opisana sytuacja jest faktycznie spacerem losowym, startującym w punkcie A i mającym bariery pochłaniające w punktach 0 oraz A+B.

{{przykład|10.6||

W każdej z dwóch urn umieszczono po k kul, przy czym k z nich ma kolor zielony, a pozostałe k - kolor czerwony. Następnie w kolejnych momentach czasu zamieniamy miejscami jednocześnie wylosowane 2 kule (po jednej z obu urn). Niech Xn oznacza liczbę zielonych kul w pierwszej urnie (więc tym samym liczbę czerwonych kul w drugiej urnie) w chwili n. Widzimy, że zmienne Xn tworzą łańcuch Markowa z macierzą przejścia 𝐏 mającą zerowe wyrazy oprócz:

Parser nie mógł rozpoznać (błąd składni): {\displaystyle \displaystyle {\mathbf{P}}(i,i-1)= \left(\frac{i}{k}\right)^2, \ \ \ \ {\mathbf{P}}(i,i+1) = \left(\frac{k - i}{k}\right)^2, \ \ \ \ {\mathbf{P}}(i,i) = \frac{2(k-i)i}{k^2}. }

Badanie własności łańcuchów Markowa zaczniemy od wyznaczenia rozkładów wektorów losowych Xn, co sprowadza się do wyznaczenia, dla wszystkich n1, funkcji (wektorów) 𝐩n:E takich, że:

𝐩n(j)=P(Xn=j)dlajE.

Stosując wzór na prawdopodobieństwo całkowite, mamy:

𝐩n(j)=P(Xn=j)=iEP(Xn=j|Xn1=i)P(Xn1=i)


=iE𝐏(i,j)𝐩n1(i),

czyli:

𝐩n=𝐏T𝐩n1,

gdzie 𝐏T oznacza macierz transponowaną AG do macierzy 𝐏. Oznaczając n-tą potęgę macierzy 𝐏 przez 𝐏n, otrzymujemy wreszcie poszukiwany rozkład:

𝐩n=(𝐏T)n𝐩0.

W szczególności, jeżeli wiemy, że X0=i, czyli że łańcuch w chwili 0 znajduje się w stanie i z prawdopodobieństwem 1, powyższy wzór implikuje następującą własność:

𝐩n(j)=𝐏n(i,j) dla wszystkich n,

co nieco wyjaśnia znaczenie wyrazów 𝐏n(i,j) macierzy 𝐏n.

Niech teraz A oznacza zbiór opisany przez wektory losowe X0,Xn1, co oznacza, że A ma postać:

A={X0=i0,,Xn1=in1},

gdzie suma jest brana po pewnym zbiorze indeksów i0,,in1 - zbiór tych indeksów oznaczmy przez B. Wówczas:

P(Xn+1=j|(Xn=i oraz A))=𝐏(i,j).

Aby udowodnić powyższą równość zauważmy, że:

P(Xn+1=j|(Xn=i oraz A))=P(Xn+1=j,Xn=i,A)P(Xn=i,A)


=P(Xn+1=j,Xn=i,Xn1=in1,,X0=i0)P(Xn=i,Xn1=in1,,X0=i0),

gdzie obie sumy brane są po zbiorze B. Z własności 2 w definicji łańcucha Markowa (definicja Uzupelnic dlm|) otrzymujemy:

P(Xn+1=j,Xn=i,Xn1=in1,,X0=i0)
=P(Xn+1=j|(Xn=i,Xn1=in1,,X0=i0))
P(Xn=i,Xn1=in1,,X0=i0)
=P(Xn+1=j|Xn=i)P(Xn=i,Xn1=in1,,X0=i0)
=𝐏(i,j)P(Xn=i,Xn1=in1,,X0=i0),

co daje wzór (Uzupelnic eq:markov1|).

Kolejne twierdzenie prezentuje inną (bardziej ogólną) interpretację wyrazów 𝐏n(i,j) macierzy 𝐏n, jako prawdopodobieństw przejścia w n krokach ze stanu i do stanu j.

Twierdzenie 10.7.

Dla każdego n1 oraz i,jE mamy:

P(Xk+n=j|Xk=i)=𝐏n(i,j).

Dowód. Dla n=1 formuła (Uzupelnic eq:markov2|) jest konsekwencją własności 2 w definicji Uzupelnic dlm|. Dla przeprowadzenia kroku indukcyjnego załóżmy, że wzór (Uzupelnic eq:markov2|) zachodzi dla pewnego n. Mamy wówczas:

P(Xk+(n+1)=j|Xk=i)=P(Xk+n+1=j,Xk=i)P(Xk=i)
=lEP(Xk+n+1=j,Xk+n=l,Xk=i)P(Xk=i)
=lEP(Xk+n+1=j|Xk+n=l,Xk=i)P(Xk+n=l,Xk=i)P(Xk=i).

Korzystając ze wzoru (Uzupelnic eq:markov1|) oraz z założenia indukcyjnego dostajemy:

P(Xk+(n+1)=j|Xk=i)
=lE𝐏(l,j)P(Xk+n=l|Xk=i)P(Xk=i)P(Xk=i)
=lE𝐏n(i,l)𝐏(l,j)=𝐏n+1(i,j),

a więc dowiedliśmy wzór (Uzupelnic eq:markov2|) dla n+1, co kończy dowód.

Nieredukowalne łańcuchy Markowa

W dalszej części będziemy się zajmować tylko takimi łańcuchami Markowa, których każde dwa stany mogą się komunikować. Mówiąc dokładniej, będziemy zakładać, że dla każdych dwóch stanów i oraz j prawdopodobieństwo przejścia Pk(i,j) jest dodatnie dla pewnego k=k(i,j). Łańcuch Markowa o tej własności nazywa się łańcuchem nieredukowalnym. Większość spotykanych w zastosowaniach łańcuchów Markowa jest nieredukowalna, jakkolwiek łatwo pokazać przykłady łańcuchów, które nie spełniają tego warunku -- na przykład spacer losowy z ekranami pochłaniającymi nie jest nieredukowalny, gdyż prawdopodobieństwo przejścia z jednego do drugiego ekranu jest równe 0.

Powracanie i okresowość

Dla nieredukowalnego łańcucha Markowa, przez fn(i) oznaczmy prawdopodobieństwo pierwszego powrotu do stanu i w dokładnie n krokach, czyli:

fn(i)=P(Xn=i,Xn1i,,X1i|X0=i).

Określmy F(i) jako:

F(i)=n=1fn(i)

-- jest to prawdopodobieństwo pierwszego powrotu do stanu i w czasie skończonym.

Oczywiście, F(i)1. Będziemy mówić, że stan i jest powracający, jeżeli F(i)=1, zaś niepowracający -- jeżeli F(i)<1. Można udowodnić, że albo wszystkie stany są powracające, albo wszystkie stany są niepowracające. W związku z tym mówimy, że (nieredukowalny) łańcuch Markowa jest, odpowiednio, powracający albo niepowracający.

Następujące twierdzenie, które podajemy bez dowodu, pozwala w wielu przypadkach stwierdzić, czy łańcuch Markowa jest powracający, czy niepowracający. Oznaczmy:

𝐏(i)=n=1𝐏n(i,i).

Twierdzenie

Niech iE będzie ustalonym stanem nieredukowalnego łańcucha Markowa. Wtedy: [#] stan i jest powracający wtedy i tylko wtedy,

gdy:
𝐏(i)=,
jeżeli i jest stanem niepowracającym, to:
F(i)=𝐏(i)1+𝐏(i).

Liczby 𝐏(i) mają także nieco inną interpretację, którą prezentuje poniższe twierdzenie. Oznaczmy przez ri liczbę wszystkich powrotów do stanu i.

Twierdzenie

Dla każdego iE:
𝔼(ri)=𝐏(i).

Dowód. Załóżmy, że w chwili 0 system znajdował

się w stanie

i

. W takim razie:

𝐩(i)=1oraz𝐩(j)=0dlaji.

Mamy więc:

P(Xn=i)=P(Xn=i|X0=i)=𝐏n(i,i).

Wiemy, że (patrz zadanie Uzupelnic zfch|):

𝔼(I{Xn=i})=P(Xn=i),

zatem:

𝔼(ri)=𝔼(n=1I{Xn=i})=n=1P(Xn=i)=n=1𝐏n(i,i)=𝐏(i).

{}

Rozważmy jednowymiarowy spacer losowy bez barier z prawdopodobieństwami p=q=12 (patrz przykład Uzupelnic markov1|). Wyraźnie widać, że jest to nieredukowalny łańcuch Markowa oraz że:

Parser nie mógł rozpoznać (błąd składni): {\displaystyle \displaystyle \mathbf{P}^n(i,i) = {\mathbf{P}}^n(0,0) \;\; \textrm{dla każdego } i \in {\Bbb Z}.}

Można też łatwo się przekonać (ćwiczenie), że:

Parser nie mógł rozpoznać (nieznana funkcja „\begin{array}”): {\displaystyle \displaystyle {\mathbf{P}}^n(0,0) = \left\{\begin{array} {rl} 0, & \mbox{ gdy } n = 2k - 1\\[2mm] \frac{\left(\begin{array} {@{}c@{}}2k\\k\end{array} \right)}{\displaystyle 2^{2k}}, & \mbox{ gdy } n = 2k. \end{array} \right. }

Teraz:

Parser nie mógł rozpoznać (nieznana funkcja „\begin{array}”): {\displaystyle \displaystyle {\mathbf{P}}(i) = \sum_{n=1}^\infty{\mathbf{P}}^n(i,i)=\sum_{n=1}^\infty{\mathbf{P}}^n(0,0) = \sum_{k=1}^\infty \frac{\left(\begin{array} {@{}c@{}}2k\\k\end{array} \right)}{\displaystyle 2^{2k}}. }

Tę ostatnią sumę można obliczyć analitycznie, co jest zadaniem dość trudnym. Jednakże, korzystając z programu Maple wynik uzyskujemy bardzo szybko:

{active}{1d}{sum(binomial(2*k,k)/4^k,k=1..infinity);}{}

Tak więc okazało się, iż jednowymiarowy standardowy spacer losowy jest powracający.

Można też pokazać, że dwuwymiarowy standardowy spacer losowy (patrz przykład Uzupelnic markov3|) jest powracający, natomiast spacer losowy w przestrzeni o wymiarze co najmniej trzy nie jest powracający -- wrócimy do tego problemu w ćwiczeniu Uzupelnic cwsl|.

Rozważmy nieredukowalny łańcuch Markowa i ustalmy pewien jego stan iE. Ponieważ i komunikuje się z samym sobą, zatem istnieje liczba n1 taka, że 𝐏n(i,i)>0 -- niech Ni oznacza zbiór wszystkich takich liczb n. Zauważmy, że:

m,nNim+nNi.

Wynika to z następującej

(ogólniejszej) obserwacji: dla wszystkich stanów i, j oraz k:

𝐏m+n(i,j)=lE𝐏m(i,l)𝐏n(l,j)𝐏m(i,k)𝐏n(k,j),

a więc, w szczególności:

𝐏m+n(i,i)𝐏m(i,i)𝐏n(i,i)>0.

Mówimy, że stan i jest okresowy o okresie ν>1, jeżeli ν jest największym wspólnym podzielnikiem liczb ze zbioru Ni. Można udowodnić, że w nieredukowalnym łańcuchu Markowa zachodzi dokładnie jeden z następujących warunków: [#] wszystkie stany są okresowe i mają wspólny okres,

żaden ze stanów nie jest okresowy. W pierwszym z powyższych przypadków mówimy, że łańcuch Markowa jest okresowy, a jego okresem jest (wspólny) okres każdego z jego stanów.

Spacer losowy opisany w przykładzie Uzupelnic markov1| jest okresowy o okresie 2, natomiast jego nie posiadająca ekranów modyfikacja, dla której p+q<1, nie jest okresowa. Pamiętajmy jednak, iż sam warunek p+q=1 nie gwarantuje jeszcze okresowości (jeżeli istnieją ekrany pochłaniające, to łańcuch nie jest nieredukowalny).

Ergodyczność

W pewnych okolicznościach możemy być zainteresowani tym, jak zachowuje się łańcuch Markowa po upływie długiego czasu. W szczególności, warto się pytać o asymptotyczny rozkład prawdopodobieństwa wektorów Xn, o ile oczywiście taki rozkład istnieje. Poniżej prezentujemy tak zwane twierdzenie ergodyczne, które opisuje właśnie taką sytuację.

Twierdzenie

Rozważamy nieredukowalny łańcuch Markowa o skończonej liczbie stanów k (to znaczy #E=k) i macierzy przejścia 𝐏. Wówczas zachodzi dokładnie jeden z następujących warunków:

łańcuch jest okresowy,

istnieje wektor π o współrzędnych π1, , πk taki, że:

πi>0 dla wszystkich iE,

dla wszystkich i,jE:

limn𝐏n(i,j)=πj,

wektor π jest jedynym rozwiązaniem równania:

𝐏Tx=x,
spełniającym warunek:
iExi=1.

Jeżeli spełniony jest warunek 2 z powyższego twierdzenia, to łańcuch Markowa nazywamy ergodycznym, zaś wektor π -- jego rozkładem stacjonarnym. Mówiąc niezbyt precyzyjnie, ergodyczność oznacza, że dla dużych n prawdopodobieństwo przejścia ze stanu i do stanu j w n krokach jest dodatnie i zależy faktycznie od stanu końcowego j, zaś nie zależy od stanu początkowego i -- prawdopodobieństwa te można otrzymać, rozwiązując odpowiedni układ równań liniowych.

Nie podajemy dość długiego i trudnego dowodu twierdzenia ergodycznego. Zamiast tego, w ćwiczeniu Uzupelnic cetw| "sprawdzimy" to twierdzenie eksperymentalnie.