Rachunek prawdopodobieństwa i statystyka/Wykład 10: Łańcuchy Markowa: Różnice pomiędzy wersjami
Linia 13: | Linia 13: | ||
==Definicje i przykłady== | ==Definicje i przykłady== | ||
Niech <math>\displaystyle E\subset {\Bbb R}^d</math> będzie zbiorem skończonym lub przeliczalnym oraz | Niech <math>\displaystyle E\subset {\Bbb R}^d</math> będzie zbiorem skończonym lub przeliczalnym oraz niech | ||
<center><math>\displaystyle | <center><math>\displaystyle | ||
Linia 104: | Linia 104: | ||
czym <math>\displaystyle p + q = 1</math>. Jeżeli <math>\displaystyle p = q = \frac{1}{2}</math> to | czym <math>\displaystyle p + q = 1</math>. Jeżeli <math>\displaystyle p = q = \frac{1}{2}</math> to | ||
mówimy, że spacer losowy jest standardowy. | mówimy, że spacer losowy jest standardowy. | ||
Oto przykładowa animacja, prezentująca standardowy spacer losowy o 300 krokach: | Oto przykładowa animacja, prezentująca standardowy spacer losowy o 300 krokach: | ||
Linia 182: | Linia 183: | ||
Kolejny przykład pokazuje, iż można też opisać spacer losowy w trochę inny sposób. | Kolejny przykład pokazuje, iż można też opisać spacer losowy w trochę inny sposób. | ||
{{przykład|10.3|| | |||
Załóżmy, nieco ogólniej niż | Załóżmy, nieco ogólniej niż | ||
Linia 198: | Linia 201: | ||
Można także rozpatrywać spacery losowe na płaszczyźnie, a także (ogólnie) | Można także rozpatrywać spacery losowe na płaszczyźnie, a także (ogólnie) | ||
w przestrzeni wielowymiarowej. | w przestrzeni wielowymiarowej. | ||
{{przykład|10.4|| | |||
Dla uproszczenia załóżmy, że | Dla uproszczenia załóżmy, że | ||
<math>\displaystyle p | <math>\displaystyle p = q = \frac{1}{2}</math>, czyli także, że <math>\displaystyle r = 0</math>. Dla <math>\displaystyle i = (i_1,\dots, i_d)\in | ||
= q = \frac{1}{2}</math>, czyli także, że <math>\displaystyle r = 0</math>. Dla <math>\displaystyle i = (i_1,\dots, i_d)\in | |||
{\Bbb Z}^d</math> mamy: | {\Bbb Z}^d</math> mamy: | ||
<center><math>\displaystyle | <center><math>\displaystyle | ||
X_0 = i \ \mbox{ oraz } \ \ X_{n+1} = X_n + \xi_{n+1} | X_0 = i \ \mbox{ oraz } \ \ X_{n+1} = X_n + \xi_{n+1} | ||
\mbox{ dla } n = 0,1,2, \dots | \mbox{ dla } n = 0,1,2, \dots | ||
</math></center> | </math></center> | ||
Tym razem <math>\displaystyle \xi_1, \xi_2, \xi_3, \ldots</math> są | Tym razem <math>\displaystyle \xi_1, \xi_2, \xi_3, \ldots</math> są | ||
niezależnymi wektorami losowymi, przyjmującymi | niezależnymi wektorami losowymi, przyjmującymi | ||
Linia 217: | Linia 223: | ||
Poniżej przedstawiamy dalsze przykłady łańcuchów Markowa. | Poniżej przedstawiamy dalsze przykłady łańcuchów Markowa. | ||
{{przykład|10.5|| | |||
Załóżmy, że dwaj gracze, powiedzmy | Załóżmy, że dwaj gracze, powiedzmy | ||
Linia 230: | Linia 238: | ||
kapitał Antoniego po zakończeniu <math>\displaystyle n</math>-tej gry przez | kapitał Antoniego po zakończeniu <math>\displaystyle n</math>-tej gry przez | ||
<math>\displaystyle X_n</math>. Zauważmy, że opisana sytuacja jest faktycznie | <math>\displaystyle X_n</math>. Zauważmy, że opisana sytuacja jest faktycznie | ||
spacerem losowym, startującym w | spacerem losowym, startującym w punkcie | ||
<math>\displaystyle A</math> i mającym bariery pochłaniające w | <math>\displaystyle A</math> i mającym bariery pochłaniające w punktach <math>\displaystyle 0</math> oraz <math>\displaystyle A+B</math>. | ||
{{przykład|10.6|| | |||
W każdej z dwóch urn umieszczono po <math>\displaystyle k</math> | W każdej z dwóch urn umieszczono po <math>\displaystyle k</math> | ||
kul, przy czym <math>\displaystyle k</math> z nich ma kolor zielony, a pozostałe <math>\displaystyle k</math> | kul, przy czym <math>\displaystyle k</math> z nich ma kolor zielony, a pozostałe <math>\displaystyle k</math> - | ||
kolor czerwony. Następnie w kolejnych momentach czasu | kolor czerwony. Następnie w kolejnych momentach czasu | ||
zamieniamy miejscami jednocześnie wylosowane 2 kule (po jednej z obu urn). Niech <math>\displaystyle X_n</math> oznacza | zamieniamy miejscami jednocześnie wylosowane 2 kule (po jednej z obu urn). Niech <math>\displaystyle X_n</math> oznacza | ||
Linia 242: | Linia 252: | ||
macierzą przejścia <math>\displaystyle {\mathbf{P}}</math> mającą zerowe wyrazy | macierzą przejścia <math>\displaystyle {\mathbf{P}}</math> mającą zerowe wyrazy | ||
oprócz: | oprócz: | ||
<center><math>\displaystyle | <center><math>\displaystyle | ||
{\mathbf{P}}(i,i-1)= \left(\frac{i}{k}\right)^2, \ \ \ \ | {\mathbf{P}}(i,i-1)= \left(\frac{i}{k}\right)^2, \ \ \ \ | ||
Linia 252: | Linia 263: | ||
dla wszystkich <math>\displaystyle n \ge 1</math>, funkcji (wektorów) | dla wszystkich <math>\displaystyle n \ge 1</math>, funkcji (wektorów) | ||
<math>\displaystyle {\mathbf{p}}_n\colon E\longrightarrow {\Bbb R}</math> takich, że: | <math>\displaystyle {\mathbf{p}}_n\colon E\longrightarrow {\Bbb R}</math> takich, że: | ||
<center><math>\displaystyle | <center><math>\displaystyle | ||
{\mathbf{p}}_n(j) = P(X_n = j) \;\;\textrm{ dla } j \in E. | {\mathbf{p}}_n(j) = P(X_n = j) \;\;\textrm{ dla } j \in E. | ||
</math></center> | </math></center> | ||
Stosując wzór | |||
na prawdopodobieństwo całkowite, mamy: | Stosując wzór na prawdopodobieństwo całkowite, mamy: | ||
<center><math>\displaystyle | <center><math>\displaystyle | ||
{\mathbf{p}}_n(j) = P(X_n = j) = \sum_{i \in E}P(X_n = j|X_{n-1} | {\mathbf{p}}_n(j) = P(X_n = j) = \sum_{i \in E}P(X_n = j|X_{n-1} | ||
= i)P(X_{n-1} = i)</math></center> | = i)P(X_{n-1} = i)</math></center> | ||
<center><math>\displaystyle | <center><math>\displaystyle | ||
= \sum_{i \in E}{\mathbf{P}}(i,j){\mathbf{p}_{n-1}}(i), | = \sum_{i \in E}{\mathbf{P}}(i,j){\mathbf{p}_{n-1}}(i), | ||
</math></center> | </math></center> | ||
czyli: | czyli: | ||
Linia 272: | Linia 288: | ||
Oznaczając <math>\displaystyle n</math>-tą potęgę macierzy <math>\displaystyle {\mathbf{P}}</math> przez | Oznaczając <math>\displaystyle n</math>-tą potęgę macierzy <math>\displaystyle {\mathbf{P}}</math> przez | ||
<math>\displaystyle {\mathbf{P}}^n</math>, otrzymujemy wreszcie poszukiwany rozkład: | <math>\displaystyle {\mathbf{P}}^n</math>, otrzymujemy wreszcie poszukiwany rozkład: | ||
<center><math>\displaystyle | <center><math>\displaystyle | ||
{\mathbf{p}}_n = \left({\mathbf{P}}^T\right)^n{\mathbf{p}}_0. | {\mathbf{p}}_n = \left({\mathbf{P}}^T\right)^n{\mathbf{p}}_0. | ||
</math></center> | </math></center> | ||
W szczególności, jeżeli wiemy, że <math>\displaystyle X_0 = i</math>, czyli że | W szczególności, jeżeli wiemy, że <math>\displaystyle X_0 = i</math>, czyli że | ||
łańcuch w chwili 0 znajduje się w stanie <math>\displaystyle i</math> z prawdopodobieństwem | łańcuch w chwili 0 znajduje się w stanie <math>\displaystyle i</math> z prawdopodobieństwem 1, powyższy wzór implikuje następującą własność: | ||
1, powyższy wzór implikuje następującą własność: | |||
<center><math>\displaystyle | <center><math>\displaystyle | ||
{\mathbf{p}}_n(j) = {\mathbf{P}}^n(i,j) \mbox{ dla wszystkich } n, | {\mathbf{p}}_n(j) = {\mathbf{P}}^n(i,j) \mbox{ dla wszystkich } n, | ||
</math></center> | </math></center> | ||
co nieco wyjaśnia znaczenie wyrazów <math>\displaystyle {\mathbf{P}}^n(i,j)</math> macierzy <math>\displaystyle \mathbf{P}^n</math>. | co nieco wyjaśnia znaczenie wyrazów <math>\displaystyle {\mathbf{P}}^n(i,j)</math> macierzy <math>\displaystyle \mathbf{P}^n</math>. | ||
Niech teraz <math>\displaystyle A</math> oznacza zbiór opisany przez wektory losowe | Niech teraz <math>\displaystyle A</math> oznacza zbiór opisany przez wektory losowe | ||
<math>\displaystyle X_0, \dots X_{n-1}</math>, co oznacza, że <math>\displaystyle A</math> ma postać: | <math>\displaystyle X_0, \dots X_{n-1}</math>, co oznacza, że <math>\displaystyle A</math> ma postać: | ||
<center><math>\displaystyle | <center><math>\displaystyle | ||
A = \bigcup \{X_0 = i_0, \dots,X_{n-1} = i_{n-1} \}, | A = \bigcup \{X_0 = i_0, \dots,X_{n-1} = i_{n-1} \}, | ||
</math></center> | </math></center> | ||
gdzie suma jest brana po pewnym zbiorze | gdzie suma jest brana po pewnym zbiorze | ||
indeksów <math>\displaystyle i_0, \dots, i_{n-1}</math> | indeksów <math>\displaystyle i_0, \dots, i_{n-1}</math> - zbiór tych indeksów oznaczmy przez <math>\displaystyle B</math>. Wówczas: | ||
<center><math>\displaystyle | <center><math>\displaystyle | ||
Linia 296: | Linia 317: | ||
Aby udowodnić powyższą równość zauważmy, że: | Aby udowodnić powyższą równość zauważmy, że: | ||
<center><math>\displaystyle | <center><math>\displaystyle | ||
P(X_{n+1} = j|(X_{n} = i \mbox{ oraz } A)) = | P(X_{n+1} = j|(X_{n} = i \mbox{ oraz } A)) = | ||
\frac{P(X_{n+1} = j,X_{n} = i, A)}{P(X_{n} = i, A)} | \frac{P(X_{n+1} = j,X_{n} = i, A)}{P(X_{n} = i, A)} | ||
</math></center> | </math></center> | ||
<center><math>\displaystyle = | <center><math>\displaystyle = | ||
\frac{\sum P(X_{n+1} = j,X_{n} = i, X_{n-1} = i_{n-1}, | \frac{\sum P(X_{n+1} = j,X_{n} = i, X_{n-1} = i_{n-1}, | ||
Linia 305: | Linia 329: | ||
\dots, X_0 = i_0)}, | \dots, X_0 = i_0)}, | ||
</math></center> | </math></center> | ||
gdzie obie sumy brane są po zbiorze <math>\displaystyle B</math>. Z własności 2 | gdzie obie sumy brane są po zbiorze <math>\displaystyle B</math>. Z własności 2 | ||
w definicji łańcucha Markowa (definicja [[##dlm|Uzupelnic dlm|]]) otrzymujemy: | w definicji łańcucha Markowa (definicja [[##dlm|Uzupelnic dlm|]]) otrzymujemy: | ||
<center><math>\displaystyle P(X_{n+1} = j,X_{n} = i, X_{n-1}=i_{n-1}, | |||
<center><math>\displaystyle | |||
P(X_{n+1} = j,X_{n} = i, X_{n-1}=i_{n-1}, | |||
\dots, X_0 = i_0) | \dots, X_0 = i_0) | ||
</math></center> | </math></center> | ||
<center><math>\displaystyle | <center><math>\displaystyle | ||
=P(X_{n+1} = j|(X_{n} = i, X_{n-1} = i_{n-1}, | =P(X_{n+1} = j|(X_{n} = i, X_{n-1} = i_{n-1}, | ||
\dots, X_0 = i_0)) | \dots, X_0 = i_0)) | ||
</math></center> | </math></center> | ||
<center><math>\displaystyle | <center><math>\displaystyle | ||
\cdot | \cdot | ||
Linia 319: | Linia 348: | ||
\dots, X_0 = i_0) | \dots, X_0 = i_0) | ||
</math></center> | </math></center> | ||
<center><math>\displaystyle | <center><math>\displaystyle | ||
= P(X_{n+1} = j|X_{n} = i) P(X_{n} = i, X_{n-1} = | = P(X_{n+1} = j|X_{n} = i) P(X_{n} = i, X_{n-1} = | ||
i_{n-1}, \dots, X_0 = i_0) | i_{n-1}, \dots, X_0 = i_0) | ||
</math></center> | </math></center> | ||
<center><math>\displaystyle | <center><math>\displaystyle | ||
= {\mathbf{P}}(i,j)P(X_{n} = i, X_{n-1} = i_{n-1}, \dots, X_0 = | = {\mathbf{P}}(i,j)P(X_{n} = i, X_{n-1} = i_{n-1}, \dots, X_0 = | ||
i_0), | i_0), | ||
</math></center> | </math></center> | ||
co daje wzór ([[##eq:markov1|Uzupelnic eq:markov1|]]). | co daje wzór ([[##eq:markov1|Uzupelnic eq:markov1|]]). | ||
Linia 334: | Linia 366: | ||
krokach ze stanu <math>\displaystyle i</math> do stanu <math>\displaystyle j</math>. | krokach ze stanu <math>\displaystyle i</math> do stanu <math>\displaystyle j</math>. | ||
{{twierdzenie||| | {{twierdzenie|10.7.|| | ||
Dla każdego <math>\displaystyle n \ge 1</math> oraz <math>\displaystyle i, j \in E</math> mamy: | Dla każdego <math>\displaystyle n \ge 1</math> oraz <math>\displaystyle i, j \in E</math> mamy: | ||
Linia 341: | Linia 373: | ||
P(X_{k+n} = j|X_k = i) = {\mathbf{P}}^n(i,j). | P(X_{k+n} = j|X_k = i) = {\mathbf{P}}^n(i,j). | ||
</math></center> | </math></center> | ||
}} | }} | ||
Linia 349: | Linia 380: | ||
indukcyjnego załóżmy, że wzór ([[##eq:markov2|Uzupelnic eq:markov2|]]) zachodzi dla | indukcyjnego załóżmy, że wzór ([[##eq:markov2|Uzupelnic eq:markov2|]]) zachodzi dla | ||
pewnego <math>\displaystyle n</math>. Mamy wówczas: | pewnego <math>\displaystyle n</math>. Mamy wówczas: | ||
<center><math>\displaystyle | <center><math>\displaystyle | ||
P(X_{k+(n+1)} = j|X_k = i) = \frac{P(X_{k+n+1} = j,X_k = | P(X_{k+(n+1)} = j|X_k = i) = \frac{P(X_{k+n+1} = j,X_k = | ||
i)}{P(X_k = i)} | i)}{P(X_k = i)} | ||
</math></center> | </math></center> | ||
<center><math>\displaystyle | <center><math>\displaystyle | ||
= \frac{\sum_{l \in E}P(X_{k+n+1} = j,X_{k+n} = l,X_k = | = \frac{\sum_{l \in E}P(X_{k+n+1} = j,X_{k+n} = l,X_k = | ||
i)}{P(X_k = i)} | i)}{P(X_k = i)} | ||
</math></center> | </math></center> | ||
<center><math>\displaystyle | <center><math>\displaystyle | ||
= \frac{\sum_{l \in E}P(X_{k+n+1} = j|X_{k+n} = l,X_k = | = \frac{\sum_{l \in E}P(X_{k+n+1} = j|X_{k+n} = l,X_k = | ||
i) P(X_{k+n} = l,X_k = i)}{P(X_k = i)}. | i) P(X_{k+n} = l,X_k = i)}{P(X_k = i)}. | ||
</math></center> | </math></center> | ||
Korzystając ze wzoru ([[##eq:markov1|Uzupelnic eq:markov1|]]) oraz z założenia indukcyjnego dostajemy: | Korzystając ze wzoru ([[##eq:markov1|Uzupelnic eq:markov1|]]) oraz z założenia indukcyjnego dostajemy: | ||
<center><math>\displaystyle | <center><math>\displaystyle | ||
P(X_{k+(n+1)} = j|X_k = i) | P(X_{k+(n+1)} = j|X_k = i) | ||
</math></center> | </math></center> | ||
<center><math>\displaystyle | <center><math>\displaystyle | ||
= \frac{\sum_{l \in | = \frac{\sum_{l \in | ||
Linia 370: | Linia 407: | ||
i)P(X_k = i)}{P(X_k = i)} | i)P(X_k = i)}{P(X_k = i)} | ||
</math></center> | </math></center> | ||
<center><math>\displaystyle | <center><math>\displaystyle | ||
=\sum_{l \in E}{\mathbf{P}}^n(i,l){\mathbf{P}}(l,j) = {\mathbf{P}}^{n+1}(i,j), | =\sum_{l \in E}{\mathbf{P}}^n(i,l){\mathbf{P}}(l,j) = {\mathbf{P}}^{n+1}(i,j), | ||
</math></center> | </math></center> | ||
a więc dowiedliśmy wzór ([[##eq:markov2|Uzupelnic eq:markov2|]]) dla <math>\displaystyle n+1</math>, co kończy dowód. | |||
a więc dowiedliśmy wzór ([[##eq:markov2|Uzupelnic eq:markov2|]]) dla <math>\displaystyle n+1</math>, co kończy dowód. | |||
==Nieredukowalne łańcuchy Markowa== | ==Nieredukowalne łańcuchy Markowa== |
Wersja z 19:46, 22 sie 2006
Łańcuchy Markowa
Założenie o niezależności zmiennych losowych nie zawsze jest spełnione. Poznamy teraz sytuację, w której zmienne losowe są zależne, ale znamy dobrze charakter tej zależności - sytuację tę opisują tak zwane łańcuchy Markowa. Podamy podstawowe definicje i twierdzenia oraz standardowe przykłady łańcuchów Markowa.

Zobacz biografię
W tym wykładzie przedstawimy jedną z najprostszych sytuacji, gdy rozważne zmienne losowe są zależne. Warto podkreślić, że łańcuchy Markowa, które będziemy za chwilę omawiać, stanowią bardzo interesujący przykład procesów stochastycznych. Ich teoria ma z kolei podstawowe znaczenie przy budowie probabilistycznych modeli wielu zjawisk przyrodniczych, technicznych, a także ekonomicznych. W szczególności, teoria procesów stochastycznych znajduje w ostatnich latach coraz większe zastosowanie przy wycenie instrumentów finansowych.
Definicje i przykłady
Niech będzie zbiorem skończonym lub przeliczalnym oraz niech
będą ustalonymi funkcjami. Będziemy myśleć o i jako o skończonej lub przeliczalnej macierzy AG oraz wektorze AG o współrzędnych , gdzie .
Definicja 10.1.[łańcuch Markowa]
Niech będzie dany ciąg wektorów losowych , , zdefiniowanych na przestrzeni probabilistycznej i przyjmujących wartości w . Mówimy, że jest łańcuchem Markowa, jeżeli spełnione są następujące warunki:
1. dla każdego ,
2. dla każdego zachodzi równość:
dla wszystkich ,
3. ,
4. dla każdego .
Powyższe warunki mają prostą interpretację. Mianowicie, utożsamiamy zbiór ze zbiorem wszystkich możliwych stanów pewnego systemu. Wówczas oznacza stan, w którym znajduje się nasz system w chwili czasowej . Warunek, że jest wektorem losowym oznacza, że faktycznie nie znamy dokładnie tego położenia, natomiast pozostałe warunki dają nam o nim pewne informacje. Po pierwsze, znamy rozkład prawdopodobieństwa położenia systemu w chwili zerowej (warunki 1 i 3). Po drugie, prawdopodobieństwo przejścia układu z jednego stanu do innego stanu, w jednostkowym odcinku czasu, zależy jedynie od samych stanów, a nie zależy od historii układu ani od konkretnej chwili, w której to przejście następuje (warunek 2). Wreszcie, układ nigdy nie opuści swojej przestrzeni stanów , gdyż:
zaś warunek 4 implikuje następującą równość dla wszystkich :
W związku z powyższą interpretacją, będziemy nazywać zbiorem stanów lub przestrzenią stanów, - rozkładem początkowym, zaś - macierzą przejścia łańcucha Markowa.
W dalszej części zaprezentujemy kilka typowych przykładów łańcuchów Markowa.
Spacer losowy
Chyba najbardziej klasycznym przykładem łańcucha Markowa jest spacer losowy po prostej.
{{przykład|10.2||
Wyobraźmy sobie cząsteczkę, która może się poruszać wzdłuż linii prostej według następujących reguł: w chwili zero cząsteczka znajduje się w punkcie o współrzędnej zero, natomiast w następnych momentach czasu (, , i tak dalej) może się przesuwać o jeden w lewo lub o jeden w prawo, z prawdopodobieństwami odpowiednio oraz , przy czym . Jeżeli to mówimy, że spacer losowy jest standardowy.
Oto przykładowa animacja, prezentująca standardowy spacer losowy o 300 krokach:
Okazuje się, że spacer losowy po prostej jest łańcuchem Markowa. Rzeczywiście, stanami są wszystkie możliwe liczby całkowite, czyli , natomiast oznacza pozycję cząsteczki w chwili . Zdefiniujmy:
oraz
Zauważmy, że określony powyżej spacer losowy może być modyfikowany na różne sposoby. Załóżmy, na przykład, że cząsteczka może nie zmieniać swojego położenia z prawdopodobieństwem (wtedy oczywiście zakładamy, że ). Inną modyfikacją jest założenie o istnieniu jednej lub dwóch barier (ekranów), które ograniczają możliwość ruchu cząsteczki. Przykładowo, jeżeli są one usytuowane w punktach i , gdzie , to zbiór składa się stanów, zaś -wymiarowa macierz może być zdefiniowana w następujący sposób:
Liczby oraz oznaczają prawdopodobieństwa tego, że cząsteczka jest pochłaniana przez barierę lub . Dwa interesujące przypadki skrajne są wtedy, gdy liczby te są albo zerami, co oznacza pełną elastyczność barier, albo jedynkami, co oznacza pełną absorbcję cząsteczki z chwilą jej dojścia do bariery.
Przykładowy spacer losowy może wyglądać tak:
<flash>file=Rp.1.101.swf|width=350|height=350</flash>
Tutaj ekrany ustawiono w punktach i , parametry wynoszą:
zaś wykonanych jest 30 kroków.
W poniższej animacji także ustawiono bariery w punktach oraz , ale tym razem:
Kolejny przykład pokazuje, iż można też opisać spacer losowy w trochę inny sposób.
{{przykład|10.3||
Załóżmy, nieco ogólniej niż poprzednio, że cząsteczka startuje w chwili 0 z punktu . Gdy nie uwzględniamy barier, mamy:
gdzie są niezależnymi zmiennymi losowymi, przyjmującymi wartości , , z prawdopodobieństwami, odpowiednio, , i .
Można także rozpatrywać spacery losowe na płaszczyźnie, a także (ogólnie) w przestrzeni wielowymiarowej.
{{przykład|10.4||
Dla uproszczenia załóżmy, że , czyli także, że . Dla mamy:
Tym razem są niezależnymi wektorami losowymi, przyjmującymi wartości , gdzie , z jednakowym prawdopodobieństwem .
Zauważmy, że współrzędnymi zdefiniowanego w powyższym przykładzie -wymiarowego spaceru losowego są niezależne jednowymiarowe standardowe spacery losowe.
Poniżej przedstawiamy dalsze przykłady łańcuchów Markowa.
{{przykład|10.5||
Załóżmy, że dwaj gracze, powiedzmy Antoni i Bolesław, mają kapitał, odpowiednio, i złotych. Powtarzają oni tę samą grę (może, na przykład, grają w szachy), przy czym przegrywający płaci wygrywającemu złotówkę. Gra kończy się wtedy, gdy jednemu z graczy skończą się pieniądze. Załóżmy, że w każdej grze prawdopodobieństwo wygrania przez Antoniego wynosi , zaś prawdopodobieństwo wygrania przez Bolesława wynosi . Zakładamy, że i oznaczamy przez prawdopodobieństwo remisu, czyli . Oznaczmy kapitał Antoniego po zakończeniu -tej gry przez . Zauważmy, że opisana sytuacja jest faktycznie spacerem losowym, startującym w punkcie i mającym bariery pochłaniające w punktach oraz .
{{przykład|10.6||
W każdej z dwóch urn umieszczono po kul, przy czym z nich ma kolor zielony, a pozostałe - kolor czerwony. Następnie w kolejnych momentach czasu zamieniamy miejscami jednocześnie wylosowane 2 kule (po jednej z obu urn). Niech oznacza liczbę zielonych kul w pierwszej urnie (więc tym samym liczbę czerwonych kul w drugiej urnie) w chwili . Widzimy, że zmienne tworzą łańcuch Markowa z macierzą przejścia mającą zerowe wyrazy oprócz:
Badanie własności łańcuchów Markowa zaczniemy od wyznaczenia rozkładów wektorów losowych , co sprowadza się do wyznaczenia, dla wszystkich , funkcji (wektorów) takich, że:
Stosując wzór na prawdopodobieństwo całkowite, mamy:
czyli:
gdzie oznacza macierz transponowaną AG do macierzy . Oznaczając -tą potęgę macierzy przez , otrzymujemy wreszcie poszukiwany rozkład:
W szczególności, jeżeli wiemy, że , czyli że łańcuch w chwili 0 znajduje się w stanie z prawdopodobieństwem 1, powyższy wzór implikuje następującą własność:
co nieco wyjaśnia znaczenie wyrazów macierzy .
Niech teraz oznacza zbiór opisany przez wektory losowe , co oznacza, że ma postać:
gdzie suma jest brana po pewnym zbiorze indeksów - zbiór tych indeksów oznaczmy przez . Wówczas:
Aby udowodnić powyższą równość zauważmy, że:
gdzie obie sumy brane są po zbiorze . Z własności 2 w definicji łańcucha Markowa (definicja Uzupelnic dlm|) otrzymujemy:
co daje wzór (Uzupelnic eq:markov1|).
Kolejne twierdzenie prezentuje inną (bardziej ogólną) interpretację wyrazów macierzy , jako prawdopodobieństw przejścia w krokach ze stanu do stanu .
Twierdzenie 10.7.
Dla każdego oraz mamy:
Dowód. Dla formuła (Uzupelnic eq:markov2|) jest konsekwencją własności 2 w definicji Uzupelnic dlm|. Dla przeprowadzenia kroku indukcyjnego załóżmy, że wzór (Uzupelnic eq:markov2|) zachodzi dla pewnego . Mamy wówczas:
Korzystając ze wzoru (Uzupelnic eq:markov1|) oraz z założenia indukcyjnego dostajemy:
a więc dowiedliśmy wzór (Uzupelnic eq:markov2|) dla , co kończy dowód.
Nieredukowalne łańcuchy Markowa
W dalszej części będziemy się zajmować tylko takimi łańcuchami Markowa, których każde dwa stany mogą się komunikować. Mówiąc dokładniej, będziemy zakładać, że dla każdych dwóch stanów oraz prawdopodobieństwo przejścia jest dodatnie dla pewnego . Łańcuch Markowa o tej własności nazywa się łańcuchem nieredukowalnym. Większość spotykanych w zastosowaniach łańcuchów Markowa jest nieredukowalna, jakkolwiek łatwo pokazać przykłady łańcuchów, które nie spełniają tego warunku -- na przykład spacer losowy z ekranami pochłaniającymi nie jest nieredukowalny, gdyż prawdopodobieństwo przejścia z jednego do drugiego ekranu jest równe 0.
Powracanie i okresowość
Dla nieredukowalnego łańcucha Markowa, przez oznaczmy prawdopodobieństwo pierwszego powrotu do stanu w dokładnie krokach, czyli:
Określmy jako:
-- jest to prawdopodobieństwo pierwszego powrotu do stanu w czasie skończonym.
Oczywiście, . Będziemy mówić, że stan jest powracający, jeżeli , zaś niepowracający -- jeżeli . Można udowodnić, że albo wszystkie stany są powracające, albo wszystkie stany są niepowracające. W związku z tym mówimy, że (nieredukowalny) łańcuch Markowa jest, odpowiednio, powracający albo niepowracający.
Następujące twierdzenie, które podajemy bez dowodu, pozwala w wielu przypadkach stwierdzić, czy łańcuch Markowa jest powracający, czy niepowracający. Oznaczmy:
Twierdzenie
Niech będzie ustalonym stanem nieredukowalnego łańcucha Markowa. Wtedy: [#] stan jest powracający wtedy i tylko wtedy,
gdy:Liczby mają także nieco inną interpretację, którą prezentuje poniższe twierdzenie. Oznaczmy przez liczbę wszystkich powrotów do stanu .
Twierdzenie
Dowód. Załóżmy, że w chwili system znajdował
się w stanie
. W takim razie:
Mamy więc:
Wiemy, że (patrz zadanie Uzupelnic zfch|):
zatem:
{}
Rozważmy jednowymiarowy spacer losowy bez barier z prawdopodobieństwami (patrz przykład Uzupelnic markov1|). Wyraźnie widać, że jest to nieredukowalny łańcuch Markowa oraz że:
Można też łatwo się przekonać (ćwiczenie), że:
Teraz:
Tę ostatnią sumę można obliczyć analitycznie, co jest zadaniem dość trudnym. Jednakże, korzystając z programu Maple wynik uzyskujemy bardzo szybko:
{active}{1d}{sum(binomial(2*k,k)/4^k,k=1..infinity);}{}
Tak więc okazało się, iż jednowymiarowy standardowy spacer losowy jest powracający.
Można też pokazać, że dwuwymiarowy standardowy spacer losowy (patrz przykład Uzupelnic markov3|) jest powracający, natomiast spacer losowy w przestrzeni o wymiarze co najmniej trzy nie jest powracający -- wrócimy do tego problemu w ćwiczeniu Uzupelnic cwsl|.
Rozważmy nieredukowalny łańcuch Markowa i ustalmy pewien jego stan . Ponieważ komunikuje się z samym sobą, zatem istnieje liczba taka, że -- niech oznacza zbiór wszystkich takich liczb . Zauważmy, że:
Wynika to z następującej
(ogólniejszej) obserwacji: dla wszystkich stanów , oraz :
a więc, w szczególności:
Mówimy, że stan jest okresowy o okresie , jeżeli jest największym wspólnym podzielnikiem liczb ze zbioru . Można udowodnić, że w nieredukowalnym łańcuchu Markowa zachodzi dokładnie jeden z następujących warunków: [#] wszystkie stany są okresowe i mają wspólny okres,
żaden ze stanów nie jest okresowy. W pierwszym z powyższych przypadków mówimy, że łańcuch Markowa jest okresowy, a jego okresem jest (wspólny) okres każdego z jego stanów.
Spacer losowy opisany w przykładzie Uzupelnic markov1| jest okresowy o okresie 2, natomiast jego nie posiadająca ekranów modyfikacja, dla której , nie jest okresowa. Pamiętajmy jednak, iż sam warunek nie gwarantuje jeszcze okresowości (jeżeli istnieją ekrany pochłaniające, to łańcuch nie jest nieredukowalny).
Ergodyczność
W pewnych okolicznościach możemy być zainteresowani tym, jak zachowuje się łańcuch Markowa po upływie długiego czasu. W szczególności, warto się pytać o asymptotyczny rozkład prawdopodobieństwa wektorów , o ile oczywiście taki rozkład istnieje. Poniżej prezentujemy tak zwane twierdzenie ergodyczne, które opisuje właśnie taką sytuację.
Twierdzenie
Rozważamy nieredukowalny łańcuch Markowa o skończonej liczbie stanów (to znaczy ) i macierzy przejścia . Wówczas zachodzi dokładnie jeden z następujących warunków:
łańcuch jest okresowy,
istnieje wektor o współrzędnych , , taki, że:
dla wszystkich ,
dla wszystkich :
wektor jest jedynym rozwiązaniem równania:
Jeżeli spełniony jest warunek 2 z powyższego twierdzenia, to łańcuch Markowa nazywamy ergodycznym, zaś wektor -- jego rozkładem stacjonarnym. Mówiąc niezbyt precyzyjnie, ergodyczność oznacza, że dla dużych prawdopodobieństwo przejścia ze stanu do stanu w krokach jest dodatnie i zależy faktycznie od stanu końcowego , zaś nie zależy od stanu początkowego -- prawdopodobieństwa te można otrzymać, rozwiązując odpowiedni układ równań liniowych.
Nie podajemy dość długiego i trudnego dowodu twierdzenia ergodycznego. Zamiast tego, w ćwiczeniu Uzupelnic cetw| "sprawdzimy" to twierdzenie eksperymentalnie.