Rachunek prawdopodobieństwa i statystyka/Wykład 10: Łańcuchy Markowa: Różnice pomiędzy wersjami
Nie podano opisu zmian |
|||
(Nie pokazano 41 wersji utworzonych przez 5 użytkowników) | |||
Linia 1: | Linia 1: | ||
== | ==Łańcuchy Markowa== | ||
Założenie o niezależności zmiennych losowych nie zawsze jest | Założenie o niezależności zmiennych losowych nie zawsze jest | ||
spełnione. Poznamy teraz sytuację, w której zmienne | spełnione. Poznamy teraz sytuację, w której zmienne | ||
losowe są zależne, ale znamy dobrze charakter tej | losowe są zależne, ale znamy dobrze charakter tej | ||
zależności | zależności - sytuację tę opisują tak zwane łańcuchy Markowa. Podamy podstawowe definicje i twierdzenia oraz standardowe przykłady łańcuchów Markowa. | ||
[[grafika:Markow.jpg|thumb|right||Andriej Markow (1856-1922)<br>[[Biografia Markow|Zobacz biografię]]]]W tym wykładzie przedstawimy jedną z najprostszych sytuacji, gdy rozważne zmienne losowe są zależne. Warto podkreślić, że łańcuchy Markowa, które będziemy za chwilę omawiać, stanowią bardzo interesujący przykład procesów stochastycznych. Ich teoria ma z kolei podstawowe znaczenie przy budowie probabilistycznych modeli wielu zjawisk przyrodniczych, technicznych, a także ekonomicznych. W szczególności, teoria procesów stochastycznych znajduje w ostatnich latach coraz większe zastosowanie przy wycenie instrumentów finansowych. | [[grafika:Markow.jpg|thumb|right||Andriej Markow (1856-1922)<br>[[Biografia Markow|Zobacz biografię]]]] | ||
W tym wykładzie przedstawimy jedną z najprostszych sytuacji, gdy rozważne zmienne losowe są zależne. Warto podkreślić, że łańcuchy Markowa, które będziemy za chwilę omawiać, stanowią bardzo interesujący przykład procesów stochastycznych. Ich teoria ma z kolei podstawowe znaczenie przy budowie probabilistycznych modeli wielu zjawisk przyrodniczych, technicznych, a także ekonomicznych. W szczególności, teoria procesów stochastycznych znajduje w ostatnich latach coraz większe zastosowanie przy wycenie instrumentów finansowych. | |||
==Definicje i przykłady== | ==Definicje i przykłady== | ||
Niech <math> | Niech <math>E\subset {\Bbb R}^d</math> będzie zbiorem skończonym lub przeliczalnym oraz niech | ||
przeliczalnym oraz | |||
{\Bbb R} | |||
<center> | |||
<math> | |||
{\mathbf{P}}\colon E \times E \longrightarrow {\Bbb R}\;\;\text{i}\;\;{\mathbf{p}}\colon E \longrightarrow | |||
{\Bbb R} | |||
</math> | |||
</center> | |||
będą ustalonymi funkcjami. | |||
Będziemy myśleć o <math>{\mathbf{P}}</math> i <math>{\mathbf{p}}</math> jako o skończonej lub | |||
przeliczalnej macierzy (patrz wykład z [[Algebra liniowa z geometrią analityczną|Algebry liniowej z geometrią analityczną]]) <math>{\mathbf{P}}(i,j)</math> oraz wektorze (patrz wykład z [[Algebra liniowa z geometrią analityczną|Algebry liniowej z geometrią analityczną]]) o współrzędnych | |||
<math>{\mathbf{p}}(i)</math>, gdzie <math>i,j \in E</math>. | |||
{{definicja|10.1.[łańcuch Markowa]|def 10.1| | |||
Niech będzie dany ciąg | Niech będzie dany ciąg | ||
wektorów losowych <math> | wektorów losowych <math>X_n</math>, <math>n = 0,1,2, \dots</math>, | ||
zdefiniowanych na przestrzeni probabilistycznej <math> | zdefiniowanych na przestrzeni probabilistycznej <math>(\Omega, | ||
\Sigma,P)</math> i przyjmujących wartości w <math> | \Sigma,P)</math> i przyjmujących wartości w <math>{\Bbb R}^d</math>. Mówimy, że | ||
<math> | <math>\{X_n\}</math> jest łańcuchem Markowa, jeżeli spełnione są | ||
następujące warunki: | następujące warunki: | ||
<math> | 1. <math>P(X_0 = i) = {\mathbf{p}}(i)</math> dla każdego <math>i \in E</math>, | ||
dla każdego <math> | 2. dla każdego <math>n \ge 0</math> zachodzi równość: | ||
<center><math> | |||
<center><math> | |||
P(X_{n+1} = i_{n+1}|(X_0 = i_0, \dots, X_n = i_n)) | P(X_{n+1} = i_{n+1}|(X_0 = i_0, \dots, X_n = i_n)) | ||
</math></center> | </math></center> | ||
<math>\ | <center><math> | ||
= P(X_{n+1} = i_{n+1}|X_n = i_n) = {\mathbf{P}}(i_n,i_{n+1})</math>,</center> | |||
dla wszystkich <math>i_0,\dots,i_{n+1} \in E</math>, | |||
3. <math>\sum_{i \in E}{\mathbf{p}}(i) = 1</math>, | |||
4. <math>\sum_{ j \in E}{\mathbf{P}}(i,j) = 1</math> dla każdego <math>i \in | |||
E</math>. | E</math>. | ||
}} | }} | ||
Powyższe warunki mają prostą interpretację. Mianowicie, utożsamiamy | Powyższe warunki mają prostą interpretację. Mianowicie, utożsamiamy | ||
zbiór <math> | zbiór <math>E</math> ze zbiorem wszystkich możliwych stanów | ||
pewnego systemu. Wówczas <math> | pewnego systemu. Wówczas <math>X_n</math> oznacza stan, w którym znajduje się nasz system w chwili | ||
czasowej <math> | czasowej <math>n</math>. Warunek, że <math>X_n</math> jest wektorem losowym | ||
oznacza, że faktycznie nie znamy dokładnie tego | oznacza, że faktycznie nie znamy dokładnie tego | ||
położenia, natomiast pozostałe warunki dają nam o nim | położenia, natomiast pozostałe warunki dają nam o nim | ||
pewne informacje. Po pierwsze, znamy rozkład | pewne informacje. Po pierwsze, znamy rozkład | ||
prawdopodobieństwa położenia systemu w chwili zerowej | prawdopodobieństwa położenia systemu w chwili zerowej | ||
(warunki 1 i 3). Po drugie, | (warunki 1 i 3). Po drugie, prawdopodobieństwo | ||
prawdopodobieństwo | |||
przejścia układu z jednego stanu do innego stanu, w | przejścia układu z jednego stanu do innego stanu, w | ||
jednostkowym odcinku czasu, zależy jedynie od samych | jednostkowym odcinku czasu, zależy jedynie od samych | ||
Linia 60: | Linia 74: | ||
konkretnej chwili, w której to przejście następuje | konkretnej chwili, w której to przejście następuje | ||
(warunek 2). Wreszcie, układ nigdy nie opuści swojej | (warunek 2). Wreszcie, układ nigdy nie opuści swojej | ||
przestrzeni stanów <math> | przestrzeni stanów <math>E</math>, gdyż: | ||
<center><math> | |||
P(X_0 \in E) = \sum_{i \in E}{\mathbf{p}}_i = 1 | |||
</math></center> | <center><math> | ||
zaś warunek 4 implikuje następującą równość dla wszystkich <math> | P(X_0 \in E) = \sum_{i \in E}{\mathbf{p}}_i = 1</math>,</center> | ||
<center><math> | |||
zaś warunek 4 implikuje następującą równość dla wszystkich <math>i \in E</math>: | |||
<center><math> | |||
P(X_{n+1} \in E|X_{n} = i) = \sum_{j \in E}P(X_{n+1} = | P(X_{n+1} \in E|X_{n} = i) = \sum_{j \in E}P(X_{n+1} = | ||
j|X_n = i) = \sum_{ j \in E}{\mathbf{P}}(i,j) = 1 | j|X_n = i) = \sum_{ j \in E}{\mathbf{P}}(i,j) = 1</math></center> | ||
</math></center> | |||
W związku z powyższą interpretacją, <math> | W związku z powyższą interpretacją, <math>E</math> będziemy nazywać | ||
zbiorem stanów lub | zbiorem stanów lub przestrzenią stanów, | ||
przestrzenią stanów, | <math>\mathbf{p}</math> - rozkładem początkowym, zaś <math>\mathbf{P}</math> - macierzą | ||
<math> | |||
przejścia łańcucha Markowa. | przejścia łańcucha Markowa. | ||
W dalszej części zaprezentujemy kilka typowych przykładów łańcuchów | W dalszej części zaprezentujemy kilka typowych przykładów łańcuchów Markowa. | ||
Markowa. | |||
===Spacer losowy=== | ===Spacer losowy=== | ||
Chyba najbardziej klasycznym przykładem łańcucha Markowa jest spacer | Chyba najbardziej klasycznym przykładem łańcucha Markowa jest spacer losowy po prostej. | ||
losowy po prostej. | |||
{{przyklad|10.2|przy 10.2| | |||
Wyobraźmy sobie cząsteczkę, która | Wyobraźmy sobie cząsteczkę, która | ||
może się poruszać wzdłuż linii prostej według | może się poruszać wzdłuż linii prostej według | ||
następujących reguł: w chwili zero cząsteczka znajduje | następujących reguł: w chwili zero cząsteczka znajduje | ||
się w punkcie o współrzędnej zero, natomiast w | się w punkcie o współrzędnej zero, natomiast w | ||
następnych momentach czasu (<math> | następnych momentach czasu (<math>1</math>, <math>2</math>, <math>3</math> i tak dalej) może się przesuwać o jeden w lewo lub o jeden w prawo, | ||
przesuwać o jeden w lewo lub o jeden w prawo, | z prawdopodobieństwami odpowiednio <math>q</math> oraz <math>p</math>, przy | ||
z prawdopodobieństwami odpowiednio <math> | czym <math>p + q = 1</math>. Jeżeli <math>p = q = \frac{1}{2}</math> to | ||
czym <math> | mówimy, że spacer losowy jest standardowy. }} | ||
mówimy, że spacer losowy jest | |||
standardowy. | |||
Oto przykładowa animacja, prezentująca standardowy spacer losowy o 300 krokach: | Oto przykładowa animacja, prezentująca standardowy spacer losowy o 300 krokach: | ||
<div class="thumb" align="center"><flash>file=Rp101.swf|width=500|height=500</flash></div> | |||
Okazuje się, że spacer losowy po prostej jest łańcuchem Markowa. | Okazuje się, że spacer losowy po prostej jest łańcuchem Markowa. | ||
Rzeczywiście, stanami są wszystkie możliwe liczby | Rzeczywiście, stanami są wszystkie możliwe liczby | ||
całkowite, czyli <math> | całkowite, czyli <math>E = {\Bbb Z} \subset {\Bbb R}</math>, natomiast <math>X_n</math> oznacza | ||
pozycję cząsteczki w chwili <math> | pozycję cząsteczki w chwili <math>n</math>. Zdefiniujmy: | ||
<center><math> | <center><math>\begin{array} {llc} | ||
{\mathbf{p}}(i) = 1 & \mbox{ dla } & i = 0, \\ | {\mathbf{p}}(i) = 1 & \mbox{ dla } & i = 0, \\ | ||
{\mathbf{p}}(i) = 0 & \mbox{ dla } & i \neq 0 | {\mathbf{p}}(i) = 0 & \mbox{ dla } & i \neq 0 | ||
\end{array} | \end{array} | ||
</math></center> | </math></center> | ||
oraz | oraz | ||
<center><math> | |||
<center><math>\begin{array} {lll} | |||
{\mathbf{P}}(i,j) = q & \mbox{ dla } & j = i-1, \\ | {\mathbf{P}}(i,j) = q & \mbox{ dla } & j = i-1, \\ | ||
{\mathbf{P}}(i,j) = p & \mbox{ dla } & j = i+1, \\ | {\mathbf{P}}(i,j) = p & \mbox{ dla } & j = i+1, \\ | ||
{\mathbf{P}}(i,j) = 0 & \mbox{ dla } & j\notin\{i-1,i+1\} | {\mathbf{P}}(i,j) = 0 & \mbox{ dla } & j\notin\{i-1,i+1\} | ||
\end{array} | \end{array} | ||
</math></center> | </math></center> | ||
Zauważmy, że określony powyżej spacer losowy może być | Zauważmy, że określony powyżej spacer losowy może być | ||
modyfikowany na różne sposoby. Załóżmy, na przykład, że | modyfikowany na różne sposoby. Załóżmy, na przykład, że | ||
cząsteczka może nie zmieniać swojego położenia z | cząsteczka może nie zmieniać swojego położenia z | ||
prawdopodobieństwem <math> | prawdopodobieństwem <math>r</math> (wtedy oczywiście zakładamy, że | ||
<math> | <math>p + q + r = 1</math>). Inną modyfikacją jest założenie o | ||
istnieniu jednej lub dwóch barier (ekranów), które | istnieniu jednej lub dwóch barier (ekranów), które | ||
ograniczają możliwość ruchu cząsteczki. Przykładowo, jeżeli są one usytuowane w | ograniczają możliwość ruchu cząsteczki. Przykładowo, jeżeli są one usytuowane w | ||
punktach <math> | punktach <math>A</math> i <math>B</math>, gdzie <math>A < 0 < B</math>, to zbiór <math>E</math> | ||
składa się <math> | składa się <math>A+B+1</math> stanów, zaś <math>(A+B+1)</math>-wymiarowa | ||
macierz <math> | macierz <math>{\mathbf{P}}</math> może być zdefiniowana w następujący sposób: | ||
<center><math> | |||
<center><math>{\mathbf{P}} = \left[ \begin{array} {cccccc} | |||
sa & 1 - sa & 0 & 0 & \cdots & 0 \\ | sa & 1 - sa & 0 & 0 & \cdots & 0 \\ | ||
q & r & p & 0 & \ddots & \vdots \\ | q & r & p & 0 & \ddots & \vdots \\ | ||
Linia 136: | Linia 159: | ||
0 & \cdots & 0 & 0 & 1 - sb & sb | 0 & \cdots & 0 & 0 & 1 - sb & sb | ||
\end{array} | \end{array} | ||
\right] | \right] | ||
</math></center> | </math></center> | ||
Liczby <math> | |||
tego, że cząsteczka jest pochłaniana przez barierę <math> | Liczby <math>sa</math> oraz <math>sb</math> oznaczają prawdopodobieństwa | ||
lub <math> | tego, że cząsteczka jest pochłaniana przez barierę <math>A</math> | ||
lub <math>B</math>. Dwa interesujące przypadki skrajne są wtedy, | |||
gdy liczby te są albo zerami, co oznacza pełną | gdy liczby te są albo zerami, co oznacza pełną | ||
elastyczność barier, albo jedynkami, co oznacza | elastyczność barier, albo jedynkami, co oznacza | ||
Linia 153: | Linia 177: | ||
</center> | </center> | ||
Tutaj ekrany ustawiono w punktach <math> | Tutaj ekrany ustawiono w punktach <math>-3</math> i <math>3</math>, | ||
parametry wynoszą: | parametry wynoszą: | ||
W poniższej animacji także ustawiono bariery w punktach <math> | |||
<center><math> | <center><math> | ||
p = q = 0.5,\; r = 0, \;sa = sb = 0.8 | |||
</math></center> | |||
zaś wykonanych jest 30 kroków. | |||
W poniższej animacji także ustawiono bariery w punktach <math>-3</math> oraz <math>3</math>, ale tym razem: | |||
<center><math>p = 0.1, \;q = 0.15,\;r = 0.75,\;sa = sb = 0.4</math></center> | |||
<div class="thumb" align="center"><flash>file=Rp102.swf|width=500|height=500</flash></div> | |||
Kolejny przykład pokazuje, iż można też opisać spacer losowy w trochę inny sposób. | Kolejny przykład pokazuje, iż można też opisać spacer losowy w trochę inny sposób. | ||
{{przyklad|10.3|przy 10.3| | |||
Załóżmy, nieco ogólniej niż | Załóżmy, nieco ogólniej niż | ||
poprzednio, że cząsteczka startuje w chwili 0 z | poprzednio, że cząsteczka startuje w chwili 0 z | ||
punktu <math> | punktu <math>i</math>. Gdy nie uwzględniamy barier, mamy: | ||
<center><math> | |||
<center><math> | |||
X_0 = i \ \mbox{ oraz } \ \ X_{n+1} = X_n + \xi_{n+1} | X_0 = i \ \mbox{ oraz } \ \ X_{n+1} = X_n + \xi_{n+1} | ||
\mbox{ dla } n = 0,1,2, \dots | \mbox{ dla } n = 0,1,2, \dots | ||
</math></center> | </math></center> | ||
gdzie <math> | |||
zmiennymi losowymi, przyjmującymi wartości <math> | |||
<math> | gdzie <math>\xi_1, \xi_2, \xi_3, \ldots</math> są niezależnymi | ||
zmiennymi losowymi, przyjmującymi wartości <math>-1</math>, <math>0</math>, | |||
<math>1</math> z prawdopodobieństwami, odpowiednio, <math>q</math>, <math>r</math> i <math>p</math>.}} | |||
Można także rozpatrywać spacery losowe na płaszczyźnie, a także (ogólnie) | Można także rozpatrywać spacery losowe na płaszczyźnie, a także (ogólnie) | ||
w | w przestrzeni wielowymiarowej. | ||
{{przyklad|10.4|przy 10.4| | |||
Dla uproszczenia załóżmy, że | Dla uproszczenia załóżmy, że | ||
<math> | <math>p = q = \frac{1}{2}</math>, czyli także, że <math>r = 0</math>. Dla <math>i = (i_1,\dots, i_d)\in | ||
= q = \frac{1}{2}</math>, czyli także, że <math> | |||
{\Bbb Z}^d</math> mamy: | {\Bbb Z}^d</math> mamy: | ||
<center><math> | |||
<center><math> | |||
X_0 = i \ \mbox{ oraz } \ \ X_{n+1} = X_n + \xi_{n+1} | X_0 = i \ \mbox{ oraz } \ \ X_{n+1} = X_n + \xi_{n+1} | ||
\mbox{ dla } n = 0,1,2, \dots | \mbox{ dla } n = 0,1,2, \dots | ||
</math></center> | </math></center> | ||
Tym razem <math> | |||
Tym razem <math>\xi_1, \xi_2, \xi_3, \ldots</math> są | |||
niezależnymi wektorami losowymi, przyjmującymi | niezależnymi wektorami losowymi, przyjmującymi | ||
<math> | <math>2^d</math> wartości <math>(\varepsilon_1, \dots, \varepsilon_d)</math>, | ||
gdzie <math> | gdzie <math>\varepsilon_j = \pm 1</math>, z jednakowym prawdopodobieństwem <math> | ||
\frac{1}{2^d}</math>. | \frac{1}{2^d}</math>.}} | ||
Zauważmy, że współrzędnymi zdefiniowanego w powyższym przykładzie <math> | Zauważmy, że współrzędnymi zdefiniowanego w powyższym przykładzie <math>d</math>-wymiarowego spaceru losowego | ||
są niezależne jednowymiarowe standardowe spacery losowe. | są niezależne jednowymiarowe standardowe spacery losowe. | ||
Poniżej przedstawiamy dalsze przykłady łańcuchów Markowa. | Poniżej przedstawiamy dalsze przykłady łańcuchów Markowa. | ||
{{przyklad|10.5|przy 10.5| | |||
Załóżmy, że dwaj gracze, powiedzmy | Załóżmy, że dwaj gracze, powiedzmy | ||
Antoni i Bolesław, mają kapitał, odpowiednio, <math> | Antoni i Bolesław, mają kapitał, odpowiednio, <math>A</math> i <math>B</math> | ||
złotych. Powtarzają oni tę samą grę (może, na przykład, grają | złotych. Powtarzają oni tę samą grę (może, na przykład, grają | ||
w szachy), przy czym przegrywający płaci wygrywającemu | w szachy), przy czym przegrywający płaci wygrywającemu | ||
złotówkę. Gra kończy się wtedy, gdy jednemu z graczy | złotówkę. Gra kończy się wtedy, gdy jednemu z graczy | ||
skończą się pieniądze. Załóżmy, że w każdej grze | skończą się pieniądze. Załóżmy, że w każdej grze | ||
prawdopodobieństwo wygrania przez Antoniego wynosi <math> | prawdopodobieństwo wygrania przez Antoniego wynosi <math>p</math>, | ||
zaś prawdopodobieństwo wygrania przez Bolesława wynosi <math> | zaś prawdopodobieństwo wygrania przez Bolesława wynosi <math>q</math>. | ||
Zakładamy, że <math> | Zakładamy, że <math>p+q \le 1</math> i oznaczamy przez <math>r</math> | ||
prawdopodobieństwo remisu, czyli <math> | prawdopodobieństwo remisu, czyli <math>r = 1 - p - q</math>. Oznaczmy | ||
kapitał Antoniego po zakończeniu <math> | kapitał Antoniego po zakończeniu <math>n</math>-tej gry przez | ||
<math> | <math>X_n</math>. Zauważmy, że opisana sytuacja jest faktycznie | ||
spacerem losowym, startującym w | spacerem losowym, startującym w punkcie | ||
<math> | <math>A</math> i mającym bariery pochłaniające w punktach <math>0</math> oraz <math>A+B</math>. }} | ||
W każdej z dwóch urn umieszczono po <math> | {{przyklad|10.6|przy 10.6| | ||
kul, przy czym <math> | W każdej z dwóch urn umieszczono po <math>k</math> | ||
kul, przy czym <math>k</math> z nich ma kolor zielony, a pozostałe <math>k</math> - | |||
kolor czerwony. Następnie w kolejnych momentach czasu | kolor czerwony. Następnie w kolejnych momentach czasu | ||
zamieniamy miejscami jednocześnie wylosowane 2 kule (po jednej z obu urn). Niech <math> | zamieniamy miejscami jednocześnie wylosowane 2 kule (po jednej z obu urn). Niech <math>X_n</math> oznacza | ||
liczbę zielonych kul w pierwszej urnie (więc tym samym | liczbę zielonych kul w pierwszej urnie (więc tym samym | ||
liczbę czerwonych kul w drugiej urnie) w chwili <math> | liczbę czerwonych kul w drugiej urnie) w chwili <math>n</math>. | ||
Widzimy, że zmienne <math> | Widzimy, że zmienne <math>X_n</math> tworzą łańcuch Markowa z | ||
macierzą przejścia <math> | macierzą przejścia <math>{\mathbf{P}}</math> mającą zerowe wyrazy | ||
oprócz: | oprócz: | ||
<center><math> | |||
{\mathbf{P}}(i,i-1)= \left(\frac{i}{k}\right)^2, \ \ | |||
{\mathbf{P}}(i,i+1) = \left(\frac{k - i}{k}\right)^2, | <center><math> | ||
{\mathbf{P}}(i,i) = \frac{2(k-i)i}{k^2} | {\mathbf{P}}(i,i-1)= \left(\frac{i}{k}\right)^2, \ \ \ | ||
</math></center> | {\mathbf{P}}(i,i+1) = \left(\frac{k - i}{k}\right)^2, \ \ \ | ||
{\mathbf{P}}(i,i) = \frac{2(k-i)i}{k^2} | |||
</math></center> }} | |||
Badanie własności łańcuchów Markowa zaczniemy od | Badanie własności łańcuchów Markowa zaczniemy od | ||
wyznaczenia rozkładów wektorów losowych <math> | wyznaczenia rozkładów wektorów losowych <math>X_n</math>, co sprowadza się do wyznaczenia, | ||
dla wszystkich <math> | dla wszystkich <math>n \ge 1</math>, funkcji (wektorów) | ||
<math> | <math>{\mathbf{p}}_n\colon E\longrightarrow {\Bbb R}</math> takich, że: | ||
<center><math> | |||
{\mathbf{p}}_n(j) = P(X_n = j) \;\;\ | |||
<center><math> | |||
{\mathbf{p}}_n(j) = P(X_n = j) \;\;\text{ dla } j \in E | |||
</math></center> | </math></center> | ||
Stosując wzór | |||
na prawdopodobieństwo całkowite, mamy: | |||
<center><math> | Stosując wzór na prawdopodobieństwo całkowite, mamy: | ||
<center><math> | |||
{\mathbf{p}}_n(j) = P(X_n = j) = \sum_{i \in E}P(X_n = j|X_{n-1} | {\mathbf{p}}_n(j) = P(X_n = j) = \sum_{i \in E}P(X_n = j|X_{n-1} | ||
= i)P(X_{n-1} = i)</math></center> | = i)P(X_{n-1} = i)</math></center> | ||
<center><math> | |||
= \sum_{i \in E}{\mathbf{P}}(i,j){\mathbf{p}_{n-1}}(i) | |||
<center><math> | |||
= \sum_{i \in E}{\mathbf{P}}(i,j){\mathbf{p}_{n-1}}(i) | |||
</math></center> | </math></center> | ||
czyli: | czyli: | ||
{\mathbf{p}}_n = {\mathbf{P}}^T{\mathbf{p}}_{n-1}, | {{wzor|10.1|10.1| | ||
<math> | |||
{\mathbf{p}}_n = {\mathbf{P}}^T{\mathbf{p}}_{n-1} | |||
</math>}} | |||
gdzie <math>{\mathbf{P}}^T</math> oznacza macierz transponowaną (patrz wykład z [[Algebra liniowa z geometrią analityczną|Algebry liniowej z geometrią analityczną]]) do macierzy <math>{\mathbf{P}}</math>. | |||
Oznaczając <math>n</math>-tą potęgę macierzy <math>{\mathbf{P}}</math> przez | |||
<math>{\mathbf{P}}^n</math>, otrzymujemy wreszcie poszukiwany rozkład: | |||
<center><math> | |||
{\mathbf{p}}_n = \left({\mathbf{P}}^T\right)^n{\mathbf{p}}_0 | |||
</math></center> | </math></center> | ||
W szczególności, jeżeli wiemy, że <math>X_0 = i</math>, czyli że | |||
<math> | łańcuch w chwili 0 znajduje się w stanie <math>i</math> z prawdopodobieństwem 1, powyższy wzór implikuje następującą własność: | ||
<center><math> | |||
{\mathbf{p}}_n = | |||
<center><math> | |||
{\mathbf{p}}_n(j) = {\mathbf{P}}^n(i,j) \mbox{ dla wszystkich } n | |||
</math></center> | </math></center> | ||
1, | co nieco wyjaśnia znaczenie wyrazów <math>{\mathbf{P}}^n(i,j)</math> macierzy <math>\mathbf{P}^n</math>. | ||
<center><math>\ | |||
{\ | Niech teraz <math>A</math> oznacza zbiór opisany przez wektory losowe | ||
<math>X_0, \dots X_{n-1}</math>, co oznacza, że <math>A</math> ma postać: | |||
<center><math> | |||
A = \bigcup \{X_0 = i_0, \dots,X_{n-1} = i_{n-1} \} | |||
</math></center> | </math></center> | ||
gdzie suma jest brana po pewnym zbiorze | gdzie suma jest brana po pewnym zbiorze | ||
indeksów <math> | indeksów <math>i_0, \dots, i_{n-1}</math> - zbiór tych indeksów oznaczmy przez <math>B</math>. Wówczas: | ||
{{wzor|10.2|10.2| | |||
<math> | |||
P(X_{n+1} = j|(X_{n} = i \mbox{ oraz } A)) = {\mathbf{P}}(i,j) | |||
</math>}} | |||
Aby udowodnić powyższą równość zauważmy, że: | Aby udowodnić powyższą równość zauważmy, że: | ||
<center><math> | |||
<center><math> | |||
P(X_{n+1} = j|(X_{n} = i \mbox{ oraz } A)) = | P(X_{n+1} = j|(X_{n} = i \mbox{ oraz } A)) = | ||
\frac{P(X_{n+1} = j,X_{n} = i, A)}{P(X_{n} = i, A)} | \frac{P(X_{n+1} = j,X_{n} = i, A)}{P(X_{n} = i, A)} | ||
</math></center> | </math></center> | ||
<center><math> | |||
<center><math>= | |||
\frac{\sum P(X_{n+1} = j,X_{n} = i, X_{n-1} = i_{n-1}, | \frac{\sum P(X_{n+1} = j,X_{n} = i, X_{n-1} = i_{n-1}, | ||
\dots, X_0 = i_0) }{\sum P(X_{n} = i, X_{n-1} = i_{n-1} | \dots, X_0 = i_0) }{\sum P(X_{n} = i, X_{n-1} = i_{n-1} | ||
\dots, X_0 = i_0)} | \dots, X_0 = i_0)}</math>,</center> | ||
</math></center> | |||
gdzie obie sumy brane są po zbiorze <math> | |||
w definicji łańcucha Markowa ( | gdzie obie sumy brane są po zbiorze <math>B</math>. Z własności 2 | ||
<center><math> | w definicji łańcucha Markowa ([[#def_10.1|definicja 10.1]]) otrzymujemy: | ||
<center><math> | |||
P(X_{n+1} = j,X_{n} = i, X_{n-1}=i_{n-1}, | |||
\dots, X_0 = i_0) | \dots, X_0 = i_0) | ||
</math></center> | </math></center> | ||
<center><math> | |||
<center><math> | |||
=P(X_{n+1} = j|(X_{n} = i, X_{n-1} = i_{n-1}, | =P(X_{n+1} = j|(X_{n} = i, X_{n-1} = i_{n-1}, | ||
\dots, X_0 = i_0)) | \dots, X_0 = i_0)) | ||
</math></center> | </math></center> | ||
<center><math> | |||
<center><math> | |||
\cdot | \cdot | ||
P(X_{n} = i, X_{n-1} = i_{n-1}, | P(X_{n} = i, X_{n-1} = i_{n-1}, | ||
\dots, X_0 = i_0) | \dots, X_0 = i_0) | ||
</math></center> | </math></center> | ||
<center><math> | |||
<center><math> | |||
= P(X_{n+1} = j|X_{n} = i) P(X_{n} = i, X_{n-1} = | = P(X_{n+1} = j|X_{n} = i) P(X_{n} = i, X_{n-1} = | ||
i_{n-1}, \dots, X_0 = i_0) | i_{n-1}, \dots, X_0 = i_0) | ||
</math></center> | </math></center> | ||
<center><math> | |||
<center><math> | |||
= {\mathbf{P}}(i,j)P(X_{n} = i, X_{n-1} = i_{n-1}, \dots, X_0 = | = {\mathbf{P}}(i,j)P(X_{n} = i, X_{n-1} = i_{n-1}, \dots, X_0 = | ||
i_0) | i_0) | ||
</math></center> | </math></center> | ||
co daje wzór | |||
co daje wzór [[#10.2|10.2]]. | |||
Kolejne twierdzenie prezentuje inną (bardziej ogólną) | Kolejne twierdzenie prezentuje inną (bardziej ogólną) | ||
interpretację wyrazów <math> | interpretację wyrazów <math>{\mathbf{P}}^n(i,j)</math> macierzy | ||
<math> | <math>{\mathbf{P}}^n</math>, jako prawdopodobieństw przejścia w <math>n</math> | ||
krokach ze stanu <math> | krokach ze stanu <math>i</math> do stanu <math>j</math>. | ||
{{twierdzenie||| | {{twierdzenie|10.7.|tw 10.7| | ||
Dla każdego <math>n \ge 1</math> oraz <math>i, j \in E</math> mamy:}} | |||
{{wzor|10.3|10.3| | |||
P(X_{k+n} = j|X_k = i) = {\mathbf{P}}^n(i,j) | <math> | ||
</math> | P(X_{k+n} = j|X_k = i) = {\mathbf{P}}^n(i,j) | ||
</math>}} | |||
{{dowod|.|| | |||
jest konsekwencją własności 2 w definicji [[# | Dla <math>n = 1</math> ([[#10.3|formuła 10.3]]) | ||
jest konsekwencją własności 2 w definicji [[#def_10.1|definicji 10.1]]. | |||
Dla przeprowadzenia kroku | Dla przeprowadzenia kroku | ||
indukcyjnego załóżmy, że wzór | indukcyjnego załóżmy, że wzór [[#10.3|10.3]] zachodzi dla | ||
pewnego <math> | pewnego <math>n</math>. Mamy wówczas: | ||
<center><math> | |||
<center><math> | |||
P(X_{k+(n+1)} = j|X_k = i) = \frac{P(X_{k+n+1} = j,X_k = | P(X_{k+(n+1)} = j|X_k = i) = \frac{P(X_{k+n+1} = j,X_k = | ||
i)}{P(X_k = i)} | i)}{P(X_k = i)} | ||
</math></center> | </math></center> | ||
<center><math> | |||
<center><math> | |||
= \frac{\sum_{l \in E}P(X_{k+n+1} = j,X_{k+n} = l,X_k = | = \frac{\sum_{l \in E}P(X_{k+n+1} = j,X_{k+n} = l,X_k = | ||
i)}{P(X_k = i)} | i)}{P(X_k = i)} | ||
</math></center> | </math></center> | ||
<center><math> | |||
<center><math> | |||
= \frac{\sum_{l \in E}P(X_{k+n+1} = j|X_{k+n} = l,X_k = | = \frac{\sum_{l \in E}P(X_{k+n+1} = j|X_{k+n} = l,X_k = | ||
i) P(X_{k+n} = l,X_k = i)}{P(X_k = i)} | i) P(X_{k+n} = l,X_k = i)}{P(X_k = i)} | ||
</math></center> | </math></center> | ||
Korzystając ze wzoru | |||
<center><math> | |||
Korzystając ze wzoru [[#10.2|10.2]] oraz z założenia indukcyjnego dostajemy: | |||
<center><math> | |||
P(X_{k+(n+1)} = j|X_k = i) | P(X_{k+(n+1)} = j|X_k = i) | ||
</math></center> | </math></center> | ||
<center><math> | |||
<center><math> | |||
= \frac{\sum_{l \in | = \frac{\sum_{l \in | ||
E}{\mathbf{P}}(l,j) P(X_{k+n} = l|X_k = | E}{\mathbf{P}}(l,j) P(X_{k+n} = l|X_k = | ||
i)P(X_k = i)}{P(X_k = i)} | i)P(X_k = i)}{P(X_k = i)} | ||
</math></center> | </math></center> | ||
<center><math> | |||
=\sum_{l \in E}{\mathbf{P}}^n(i,l){\mathbf{P}}(l,j) = {\mathbf{P}}^{n+1}(i,j) | |||
<center><math> | |||
=\sum_{l \in E}{\mathbf{P}}^n(i,l){\mathbf{P}}(l,j) = {\mathbf{P}}^{n+1}(i,j) | |||
</math></center> | </math></center> | ||
a więc dowiedliśmy wzór | |||
a więc dowiedliśmy wzór [[#10.3|10.3]] dla <math>n+1</math>, co kończy dowód. | |||
}} | |||
==Nieredukowalne łańcuchy Markowa== | ==Nieredukowalne łańcuchy Markowa== | ||
Linia 356: | Linia 468: | ||
łańcuchami Markowa, których każde dwa stany mogą się | łańcuchami Markowa, których każde dwa stany mogą się | ||
komunikować. Mówiąc dokładniej, będziemy zakładać, że dla | komunikować. Mówiąc dokładniej, będziemy zakładać, że dla | ||
każdych dwóch stanów <math> | każdych dwóch stanów <math>i</math> oraz <math>j</math> prawdopodobieństwo | ||
przejścia <math> | przejścia <math>P^k(i,j)</math> jest dodatnie dla pewnego <math>k = | ||
k(i,j)</math>. Łańcuch Markowa o tej własności nazywa się | k(i,j)</math>. Łańcuch Markowa o tej własności nazywa się | ||
łańcuchem nieredukowalnym. Większość spotykanych w zastosowaniach | łańcuchem nieredukowalnym. Większość spotykanych w zastosowaniach | ||
łańcuchów Markowa jest nieredukowalna, | łańcuchów Markowa jest nieredukowalna, | ||
jakkolwiek łatwo pokazać przykłady łańcuchów, które nie | jakkolwiek łatwo pokazać przykłady łańcuchów, które nie | ||
spełniają tego warunku | spełniają tego warunku - na przykład spacer losowy z ekranami | ||
pochłaniającymi nie jest nieredukowalny, gdyż | pochłaniającymi nie jest nieredukowalny, gdyż | ||
prawdopodobieństwo przejścia z jednego do drugiego | prawdopodobieństwo przejścia z jednego do drugiego | ||
Linia 369: | Linia 481: | ||
===Powracanie i okresowość=== | ===Powracanie i okresowość=== | ||
Dla nieredukowalnego łańcucha Markowa, przez <math> | Dla nieredukowalnego łańcucha Markowa, przez <math>f_n(i)</math> oznaczmy | ||
prawdopodobieństwo pierwszego powrotu do stanu <math> | prawdopodobieństwo pierwszego powrotu do stanu <math>i</math> w dokładnie <math>n</math> | ||
krokach, czyli: | krokach, czyli: | ||
<center><math> | |||
<center><math> | |||
f_n(i) = P(X_n = i,X_{n-1} \neq i, \dots, X_1 \neq i|X_0 | f_n(i) = P(X_n = i,X_{n-1} \neq i, \dots, X_1 \neq i|X_0 | ||
= i) | = i)</math></center> | ||
</math></center> | |||
Określmy <math> | |||
<center><math> | Określmy <math>F(i)</math> jako: | ||
<center><math> | |||
F(i) = \sum_{n=1}^\infty f_n(i) | F(i) = \sum_{n=1}^\infty f_n(i) | ||
</math></center> | </math></center> | ||
Oczywiście, <math> | |||
jeżeli <math> | - jest to prawdopodobieństwo pierwszego powrotu do | ||
stanu <math>i</math> w czasie skończonym. | |||
Oczywiście, <math>F(i)\leq 1</math>. Będziemy mówić, że stan <math>i</math> jest powracający, | |||
jeżeli <math>F(i) = 1</math>, zaś niepowracający - jeżeli <math>F(i) < 1</math>. | |||
Można udowodnić, że albo wszystkie stany są | Można udowodnić, że albo wszystkie stany są | ||
powracające, albo wszystkie stany są niepowracające. W | powracające, albo wszystkie stany są niepowracające. W | ||
związku z tym mówimy, że (nieredukowalny) łańcuch Markowa | związku z tym mówimy, że (nieredukowalny) łańcuch Markowa | ||
jest, odpowiednio, | jest, odpowiednio,powracający albo niepowracający. | ||
powracający albo | |||
niepowracający. | |||
Następujące twierdzenie, które podajemy bez dowodu, | Następujące twierdzenie, które podajemy bez dowodu, | ||
pozwala w wielu przypadkach stwierdzić, czy łańcuch | pozwala w wielu przypadkach stwierdzić, czy łańcuch | ||
Markowa jest powracający, czy niepowracający. Oznaczmy: | Markowa jest powracający, czy niepowracający. Oznaczmy: | ||
Niech <math> | <center><math> | ||
\mathbf{P}(i) = \sum_{n = 1}^\infty{\mathbf{P}}^n(i,i)</math></center> | |||
{{twierdzenie|10.8|tw 10.8| | |||
Niech <math>i \in E</math> będzie ustalonym stanem | |||
nieredukowalnego łańcucha Markowa. Wtedy: | nieredukowalnego łańcucha Markowa. Wtedy: | ||
jeżeli <math> | 1. stan <math>i</math> jest powracający wtedy i tylko wtedy,gdy: | ||
\frac{\mathbf{P}(i)}{1+\mathbf{P}(i)} | |||
<center><math> | |||
\mathbf{P}(i) = \infty</math>,</center> | |||
2. jeżeli <math>i</math> jest stanem niepowracającym, to: | |||
<center><math> | |||
F(i) = \frac{\mathbf{P}(i)}{1+\mathbf{P}(i)}</math></center> | |||
}} | }} | ||
Liczby <math> | Liczby <math>\mathbf{P}(i)</math> mają także nieco inną interpretację, którą prezentuje | ||
poniższe twierdzenie. | poniższe twierdzenie. | ||
Oznaczmy przez <math> | Oznaczmy przez <math>r_i</math> liczbę wszystkich powrotów do | ||
stanu <math> | stanu <math>i</math>. | ||
{{twierdzenie||| | {{twierdzenie|10.9|tw 10.9| | ||
Dla każdego <math>i \in E</math>: | |||
<center><math> | |||
{\Bbb E}\left(r_i\right) = \mathbf{P}(i)</math></center> | |||
}} | |||
{{dowod|.|| | |||
Załóżmy, że w chwili <math>0</math> system znajdował | |||
się w stanie <math>i</math>. W takim razie: | |||
<center><math> | |||
{\mathbf{p}}(i) = 1 \text{ oraz } | |||
{\mathbf{p}}(j) = 0\;\;\text{dla } j \neq i</math></center> | |||
Mamy więc: | |||
<center><math> | |||
P(X_n = i) = P(X_n = i|X_0 = i) = {\mathbf{P}}^n(i,i)</math></center> | |||
Wiemy, że (patrz [[Rachunek prawdopodobieństwa i statystyka/Ćwiczenia 7: Parametry rozkładów zmiennych losowych#cw_7_15|zadanie 7.15]]): | |||
<center><math> | |||
{\Bbb E}(I_{\{X_n = i\}})=P(X_n = i)</math>,</center> | |||
zatem: | zatem: | ||
<center><math> | |||
<center><math> | |||
{\Bbb E}(r_i) = {\Bbb E}(\sum_{n=1}^\infty I_{\{X_n = i\}}) | {\Bbb E}(r_i) = {\Bbb E}(\sum_{n=1}^\infty I_{\{X_n = i\}}) | ||
=\sum_{n=1}^\infty P(X_n=i)=\sum_{n=1}^\infty {\mathbf{P}}^n(i,i)={\mathbf{P}}(i) | =\sum_{n=1}^\infty P(X_n=i)=\sum_{n=1}^\infty {\mathbf{P}}^n(i,i)={\mathbf{P}}(i)</math></center>}} | ||
{<math>\ | |||
{{przyklad|10.10|przy_10.10| | |||
Rozważmy jednowymiarowy spacer losowy bez barier z prawdopodobieństwami <math>p = q = | |||
\frac{1}{2}</math> (patrz [[#przy_10.2|przykład 10.2]]). | |||
Wyraźnie widać, że jest to nieredukowalny łańcuch Markowa oraz że: | |||
<center><math> | |||
\mathbf{P}^n(i,i) = | |||
{\mathbf{P}}^n(0,0) \;\; \text{dla każdego } i \in {\Bbb Z}</math></center> | |||
Można też łatwo się przekonać (ćwiczenie), że: | Można też łatwo się przekonać (ćwiczenie), że: | ||
<center><math> | |||
{\mathbf{P}}^n(0,0) = \left\{\begin{array} {rl} 0, & \mbox{ gdy | |||
} | <center><math> | ||
n = 2k - 1\\[2mm] | {\mathbf{P}}^n(0,0) = \left\{\begin{array} {rl} 0, & \mbox{ gdy }n = 2k - 1\\ | ||
\frac{\ | [2mm]\frac{\dbinom{2k}{k}}{2^{2k}}, & \mbox{ gdy } n = 2k. | ||
\end{array} \right. | \end{array} \right.</math></center> | ||
</math></center> | |||
Teraz: | Teraz: | ||
<center><math> | |||
{\mathbf{P}}(i) = \sum_{n=1}^\infty{\mathbf{P}}^n(i,i)=\sum_{n=1}^\infty{\mathbf{P}}^n(0,0) = \sum_{k=1}^\infty \frac{\ | |||
</math></center> | <center><math> | ||
{\mathbf{P}}(i) = \sum_{n=1}^\infty{\mathbf{P}}^n(i,i)=\sum_{n=1}^\infty{\mathbf{P}}^n(0,0) = \sum_{k=1}^\infty \frac{\dbinom{2k}{k}}{2^{2k}}</math></center> | |||
Tę ostatnią sumę można obliczyć analitycznie, co jest zadaniem dość trudnym. Jednakże, korzystając z programu Maple | Tę ostatnią sumę można obliczyć analitycznie, co jest zadaniem dość trudnym. Jednakże, korzystając z programu Maple | ||
wynik uzyskujemy bardzo szybko: | wynik uzyskujemy bardzo szybko: | ||
''> sum(binomial(2*k,k)/4^k,k<nowiki>=</nowiki>1..infinity);'' | |||
<center><math> | <center><math>\infty | ||
</math></center> | </math></center> | ||
Można też pokazać, że | Tak więc okazało się, iż jednowymiarowy standardowy spacer losowy jest powracający.}} | ||
dwuwymiarowy standardowy spacer | |||
losowy (patrz | Można też pokazać, że dwuwymiarowy standardowy spacer | ||
spacer losowy w przestrzeni o wymiarze co najmniej trzy nie jest powracający | losowy (patrz [[#przy_10.4|przykład 10.4]]) jest powracający, natomiast | ||
[[# | spacer losowy w przestrzeni o wymiarze co najmniej trzy nie jest powracający - wrócimy do tego problemu w ćwiczeniu | ||
[[#cw_10.2|ćwiczeniu 10.2]]. | |||
Rozważmy nieredukowalny łańcuch Markowa i ustalmy | Rozważmy nieredukowalny łańcuch Markowa i ustalmy | ||
pewien jego stan <math> | pewien jego stan <math>i \in E</math>. Ponieważ <math>i</math> komunikuje się | ||
z samym sobą, zatem istnieje liczba <math> | z samym sobą, zatem istnieje liczba <math>n \ge 1</math> taka, że <math>{\mathbf{P}}^n(i,i) | ||
> 0</math> | > 0</math> - niech <math>N_i</math> oznacza zbiór wszystkich takich liczb <math>n</math>. | ||
Zauważmy, że: | Zauważmy, że: | ||
<center><math> | |||
(ogólniejszej) obserwacji: dla wszystkich stanów <math> | |||
oraz <math> | <center><math> | ||
<center><math> | m,n \in N_i\Longrightarrow m + n \in N_i</math></center> | ||
Wynika to z następującej (ogólniejszej) obserwacji: dla wszystkich stanów <math>i</math>, <math>j</math> oraz <math>k</math>: | |||
<center><math> | |||
{\mathbf{P}}^{m+n}(i,j) = \sum_{l\in E}{\mathbf{P}}^m(i,l){\mathbf{P}}^n(l,j) \ge | {\mathbf{P}}^{m+n}(i,j) = \sum_{l\in E}{\mathbf{P}}^m(i,l){\mathbf{P}}^n(l,j) \ge | ||
{\mathbf{P}}^m(i,k){\mathbf{P}}^n(k,j) | {\mathbf{P}}^m(i,k){\mathbf{P}}^n(k,j)</math>,</center> | ||
</math></center> | |||
a więc, w szczególności: <center><math> | |||
>0 | a więc, w szczególności: | ||
<center><math> | |||
{\mathbf{P}}^{m+n}(i,i) \ge {\mathbf{P}}^m(i,i){\mathbf{P}}^n(i,i)>0</math></center> | |||
Mówimy, że stan <math> | Mówimy, że stan <math>i</math> jest okresowy o okresie <math>\nu > 1</math>, jeżeli <math>\nu</math> jest największym wspólnym | ||
podzielnikiem liczb ze zbioru <math> | podzielnikiem liczb ze zbioru <math>N_i</math>. Można udowodnić, | ||
że w nieredukowalnym łańcuchu Markowa zachodzi dokładnie jeden z następujących warunków: | że w nieredukowalnym łańcuchu Markowa zachodzi dokładnie jeden z następujących warunków: | ||
żaden ze stanów nie jest okresowy. | 1. wszystkie stany są okresowe i mają wspólny okres, | ||
2. żaden ze stanów nie jest okresowy. | |||
W pierwszym z powyższych przypadków | W pierwszym z powyższych przypadków | ||
mówimy, że łańcuch Markowa jest okresowy, a jego okresem jest (wspólny) okres każdego z jego | mówimy, że łańcuch Markowa jest okresowy, a jego okresem jest (wspólny) okres każdego z jego | ||
stanów. | stanów. | ||
Spacer losowy opisany w | Spacer losowy opisany w [[#przy_10.2|przykładzie 10.2]] jest | ||
okresowy o okresie 2, natomiast jego nie posiadająca ekranów modyfikacja, | okresowy o okresie 2, natomiast jego nie posiadająca ekranów modyfikacja, | ||
dla której <math> | dla której <math>p + q < 1</math>, nie | ||
jest okresowa. Pamiętajmy jednak, iż sam warunek <math> | jest okresowa. Pamiętajmy jednak, iż sam warunek <math>p + q = 1</math> | ||
nie gwarantuje jeszcze okresowości (jeżeli istnieją ekrany pochłaniające, to łańcuch nie jest nieredukowalny). | nie gwarantuje jeszcze okresowości (jeżeli istnieją ekrany pochłaniające, to łańcuch nie jest nieredukowalny). | ||
Linia 508: | Linia 678: | ||
zachowuje się łańcuch Markowa po upływie długiego | zachowuje się łańcuch Markowa po upływie długiego | ||
czasu. W szczególności, warto się pytać o asymptotyczny | czasu. W szczególności, warto się pytać o asymptotyczny | ||
rozkład prawdopodobieństwa wektorów <math> | rozkład prawdopodobieństwa wektorów <math>X_n</math>, o ile | ||
oczywiście taki rozkład istnieje. Poniżej | oczywiście taki rozkład istnieje. Poniżej | ||
prezentujemy tak zwane twierdzenie ergodyczne, które opisuje właśnie taką | prezentujemy tak zwane twierdzenie ergodyczne, które opisuje właśnie taką | ||
sytuację. | sytuację. | ||
{{twierdzenie||| | {{twierdzenie|10.11|tw_10.11| | ||
Rozważamy nieredukowalny łańcuch Markowa o | Rozważamy nieredukowalny łańcuch Markowa o | ||
skończonej liczbie stanów <math> | skończonej liczbie stanów <math>k</math> (to znaczy <math>\#E=k</math>) i macierzy | ||
przejścia <math> | przejścia <math>{\mathbf{P}}</math>. Wówczas zachodzi dokładnie jeden | ||
z następujących warunków: | z następujących warunków: | ||
łańcuch jest okresowy, | 1. łańcuch jest okresowy, | ||
2. istnieje wektor <math>\pi</math> o współrzędnych <math>\pi_1</math>, , | |||
<math>\pi_k</math> taki, że: | |||
a) <math>\pi_i > 0</math> dla wszystkich <math>i \in E</math>, | |||
b) dla wszystkich <math>i, j \in E</math>: | |||
<center><math> | |||
\lim_{n \rightarrow \infty}{\mathbf{P}}^n(i,j) = \pi_j</math>,</center> | |||
c) wektor <math>\pi</math> jest jedynym rozwiązaniem równania: | |||
<center><math> | |||
{\mathbf{P}}^T x = x</math>,</center> | |||
spełniającym warunek: | |||
< | <center><math>\sum_{i\in E}x_i = 1</math>.</center> | ||
}} | }} | ||
Jeżeli spełniony jest warunek 2 z powyższego twierdzenia, to | Jeżeli spełniony jest warunek 2 z powyższego twierdzenia, to | ||
łańcuch Markowa nazywamy ergodycznym, zaś | łańcuch Markowa nazywamy ergodycznym, zaś | ||
wektor <math> | wektor <math>\pi</math> - jego rozkładem | ||
stacjonarnym. Mówiąc niezbyt precyzyjnie, ergodyczność oznacza, że dla dużych <math> | stacjonarnym. Mówiąc niezbyt precyzyjnie, ergodyczność oznacza, że dla dużych <math>n</math> | ||
prawdopodobieństwo przejścia ze stanu <math> | prawdopodobieństwo przejścia ze stanu <math>i</math> do stanu <math>j</math> | ||
w <math> | w <math>n</math> krokach jest dodatnie i zależy faktycznie od | ||
stanu końcowego <math> | stanu końcowego <math>j</math>, zaś nie zależy od stanu | ||
początkowego <math> | początkowego <math>i</math> - prawdopodobieństwa te można otrzymać, | ||
rozwiązując odpowiedni układ równań liniowych. | rozwiązując odpowiedni układ równań liniowych. | ||
Nie podajemy dość długiego i trudnego dowodu | Nie podajemy dość długiego i trudnego dowodu | ||
twierdzenia ergodycznego. Zamiast tego, w | twierdzenia ergodycznego. Zamiast tego, w [[#cw_10.4|ćwiczeniu 10.4]] | ||
"sprawdzimy" to twierdzenie eksperymentalnie. | "sprawdzimy" to twierdzenie eksperymentalnie. |
Aktualna wersja na dzień 23:31, 11 wrz 2023
Łańcuchy Markowa
Założenie o niezależności zmiennych losowych nie zawsze jest spełnione. Poznamy teraz sytuację, w której zmienne losowe są zależne, ale znamy dobrze charakter tej zależności - sytuację tę opisują tak zwane łańcuchy Markowa. Podamy podstawowe definicje i twierdzenia oraz standardowe przykłady łańcuchów Markowa.

Zobacz biografię
W tym wykładzie przedstawimy jedną z najprostszych sytuacji, gdy rozważne zmienne losowe są zależne. Warto podkreślić, że łańcuchy Markowa, które będziemy za chwilę omawiać, stanowią bardzo interesujący przykład procesów stochastycznych. Ich teoria ma z kolei podstawowe znaczenie przy budowie probabilistycznych modeli wielu zjawisk przyrodniczych, technicznych, a także ekonomicznych. W szczególności, teoria procesów stochastycznych znajduje w ostatnich latach coraz większe zastosowanie przy wycenie instrumentów finansowych.
Definicje i przykłady
Niech będzie zbiorem skończonym lub przeliczalnym oraz niech
będą ustalonymi funkcjami.
Będziemy myśleć o i jako o skończonej lub
przeliczalnej macierzy (patrz wykład z Algebry liniowej z geometrią analityczną) oraz wektorze (patrz wykład z Algebry liniowej z geometrią analityczną) o współrzędnych
, gdzie .
Definicja 10.1.[łańcuch Markowa]
Niech będzie dany ciąg wektorów losowych , , zdefiniowanych na przestrzeni probabilistycznej i przyjmujących wartości w . Mówimy, że jest łańcuchem Markowa, jeżeli spełnione są następujące warunki:
1. dla każdego ,
2. dla każdego zachodzi równość:
dla wszystkich ,
3. ,
4. dla każdego .
Powyższe warunki mają prostą interpretację. Mianowicie, utożsamiamy zbiór ze zbiorem wszystkich możliwych stanów pewnego systemu. Wówczas oznacza stan, w którym znajduje się nasz system w chwili czasowej . Warunek, że jest wektorem losowym oznacza, że faktycznie nie znamy dokładnie tego położenia, natomiast pozostałe warunki dają nam o nim pewne informacje. Po pierwsze, znamy rozkład prawdopodobieństwa położenia systemu w chwili zerowej (warunki 1 i 3). Po drugie, prawdopodobieństwo przejścia układu z jednego stanu do innego stanu, w jednostkowym odcinku czasu, zależy jedynie od samych stanów, a nie zależy od historii układu ani od konkretnej chwili, w której to przejście następuje (warunek 2). Wreszcie, układ nigdy nie opuści swojej przestrzeni stanów , gdyż:
zaś warunek 4 implikuje następującą równość dla wszystkich :
W związku z powyższą interpretacją, będziemy nazywać
zbiorem stanów lub przestrzenią stanów,
- rozkładem początkowym, zaś - macierzą
przejścia łańcucha Markowa.
W dalszej części zaprezentujemy kilka typowych przykładów łańcuchów Markowa.
Spacer losowy
Chyba najbardziej klasycznym przykładem łańcucha Markowa jest spacer losowy po prostej.
Przykład 10.2
Wyobraźmy sobie cząsteczkę, która może się poruszać wzdłuż linii prostej według następujących reguł: w chwili zero cząsteczka znajduje się w punkcie o współrzędnej zero, natomiast w następnych momentach czasu (, , i tak dalej) może się przesuwać o jeden w lewo lub o jeden w prawo, z prawdopodobieństwami odpowiednio oraz , przy czym . Jeżeli to
mówimy, że spacer losowy jest standardowy.
Oto przykładowa animacja, prezentująca standardowy spacer losowy o 300 krokach:
Okazuje się, że spacer losowy po prostej jest łańcuchem Markowa. Rzeczywiście, stanami są wszystkie możliwe liczby całkowite, czyli , natomiast oznacza pozycję cząsteczki w chwili . Zdefiniujmy:
oraz
Zauważmy, że określony powyżej spacer losowy może być
modyfikowany na różne sposoby. Załóżmy, na przykład, że
cząsteczka może nie zmieniać swojego położenia z
prawdopodobieństwem (wtedy oczywiście zakładamy, że
). Inną modyfikacją jest założenie o
istnieniu jednej lub dwóch barier (ekranów), które
ograniczają możliwość ruchu cząsteczki. Przykładowo, jeżeli są one usytuowane w
punktach i , gdzie , to zbiór
składa się stanów, zaś -wymiarowa
macierz może być zdefiniowana w następujący sposób:
Liczby oraz oznaczają prawdopodobieństwa
tego, że cząsteczka jest pochłaniana przez barierę
lub . Dwa interesujące przypadki skrajne są wtedy,
gdy liczby te są albo zerami, co oznacza pełną
elastyczność barier, albo jedynkami, co oznacza
pełną absorbcję cząsteczki z chwilą jej dojścia do
bariery.
Przykładowy spacer losowy może wyglądać tak:
<flash>file=Rp.1.101.swf|width=350|height=350</flash>
Tutaj ekrany ustawiono w punktach i , parametry wynoszą:
zaś wykonanych jest 30 kroków.
W poniższej animacji także ustawiono bariery w punktach oraz , ale tym razem:
Kolejny przykład pokazuje, iż można też opisać spacer losowy w trochę inny sposób.
Przykład 10.3
Załóżmy, nieco ogólniej niż poprzednio, że cząsteczka startuje w chwili 0 z punktu . Gdy nie uwzględniamy barier, mamy:
gdzie są niezależnymi
zmiennymi losowymi, przyjmującymi wartości , ,
Można także rozpatrywać spacery losowe na płaszczyźnie, a także (ogólnie) w przestrzeni wielowymiarowej.
Przykład 10.4
Dla uproszczenia załóżmy, że , czyli także, że . Dla mamy:
Tym razem są
niezależnymi wektorami losowymi, przyjmującymi
wartości ,
Zauważmy, że współrzędnymi zdefiniowanego w powyższym przykładzie -wymiarowego spaceru losowego są niezależne jednowymiarowe standardowe spacery losowe.
Poniżej przedstawiamy dalsze przykłady łańcuchów Markowa.
Przykład 10.5
Załóżmy, że dwaj gracze, powiedzmy Antoni i Bolesław, mają kapitał, odpowiednio, i złotych. Powtarzają oni tę samą grę (może, na przykład, grają w szachy), przy czym przegrywający płaci wygrywającemu złotówkę. Gra kończy się wtedy, gdy jednemu z graczy skończą się pieniądze. Załóżmy, że w każdej grze prawdopodobieństwo wygrania przez Antoniego wynosi , zaś prawdopodobieństwo wygrania przez Bolesława wynosi . Zakładamy, że i oznaczamy przez prawdopodobieństwo remisu, czyli . Oznaczmy kapitał Antoniego po zakończeniu -tej gry przez . Zauważmy, że opisana sytuacja jest faktycznie spacerem losowym, startującym w punkcie
i mającym bariery pochłaniające w punktach oraz .Przykład 10.6
W każdej z dwóch urn umieszczono po kul, przy czym z nich ma kolor zielony, a pozostałe - kolor czerwony. Następnie w kolejnych momentach czasu zamieniamy miejscami jednocześnie wylosowane 2 kule (po jednej z obu urn). Niech oznacza liczbę zielonych kul w pierwszej urnie (więc tym samym liczbę czerwonych kul w drugiej urnie) w chwili . Widzimy, że zmienne tworzą łańcuch Markowa z macierzą przejścia mającą zerowe wyrazy oprócz:
Badanie własności łańcuchów Markowa zaczniemy od
wyznaczenia rozkładów wektorów losowych , co sprowadza się do wyznaczenia,
dla wszystkich , funkcji (wektorów)
takich, że:
Stosując wzór na prawdopodobieństwo całkowite, mamy:
czyli:
(10.1)
gdzie oznacza macierz transponowaną (patrz wykład z Algebry liniowej z geometrią analityczną) do macierzy .
Oznaczając -tą potęgę macierzy przez
, otrzymujemy wreszcie poszukiwany rozkład:
W szczególności, jeżeli wiemy, że , czyli że
łańcuch w chwili 0 znajduje się w stanie z prawdopodobieństwem 1, powyższy wzór implikuje następującą własność:
co nieco wyjaśnia znaczenie wyrazów macierzy .
Niech teraz oznacza zbiór opisany przez wektory losowe , co oznacza, że ma postać:
gdzie suma jest brana po pewnym zbiorze
indeksów - zbiór tych indeksów oznaczmy przez . Wówczas:
(10.2)
Aby udowodnić powyższą równość zauważmy, że:
gdzie obie sumy brane są po zbiorze . Z własności 2
w definicji łańcucha Markowa (definicja 10.1) otrzymujemy:
co daje wzór 10.2.
Kolejne twierdzenie prezentuje inną (bardziej ogólną) interpretację wyrazów macierzy , jako prawdopodobieństw przejścia w krokach ze stanu do stanu .
Twierdzenie 10.7.
(10.3)
Dowód .
Dla (formuła 10.3) jest konsekwencją własności 2 w definicji definicji 10.1. Dla przeprowadzenia kroku indukcyjnego załóżmy, że wzór 10.3 zachodzi dla pewnego . Mamy wówczas:
Korzystając ze wzoru 10.2 oraz z założenia indukcyjnego dostajemy:
a więc dowiedliśmy wzór 10.3 dla , co kończy dowód.

Nieredukowalne łańcuchy Markowa
W dalszej części będziemy się zajmować tylko takimi łańcuchami Markowa, których każde dwa stany mogą się komunikować. Mówiąc dokładniej, będziemy zakładać, że dla każdych dwóch stanów oraz prawdopodobieństwo przejścia jest dodatnie dla pewnego . Łańcuch Markowa o tej własności nazywa się łańcuchem nieredukowalnym. Większość spotykanych w zastosowaniach łańcuchów Markowa jest nieredukowalna, jakkolwiek łatwo pokazać przykłady łańcuchów, które nie spełniają tego warunku - na przykład spacer losowy z ekranami pochłaniającymi nie jest nieredukowalny, gdyż prawdopodobieństwo przejścia z jednego do drugiego ekranu jest równe 0.
Powracanie i okresowość
Dla nieredukowalnego łańcucha Markowa, przez oznaczmy prawdopodobieństwo pierwszego powrotu do stanu w dokładnie krokach, czyli:
Określmy jako:
- jest to prawdopodobieństwo pierwszego powrotu do
stanu w czasie skończonym.
Oczywiście, . Będziemy mówić, że stan jest powracający, jeżeli , zaś niepowracający - jeżeli . Można udowodnić, że albo wszystkie stany są powracające, albo wszystkie stany są niepowracające. W związku z tym mówimy, że (nieredukowalny) łańcuch Markowa jest, odpowiednio,powracający albo niepowracający.
Następujące twierdzenie, które podajemy bez dowodu, pozwala w wielu przypadkach stwierdzić, czy łańcuch Markowa jest powracający, czy niepowracający. Oznaczmy:
Twierdzenie 10.8
Niech będzie ustalonym stanem nieredukowalnego łańcucha Markowa. Wtedy:
1. stan jest powracający wtedy i tylko wtedy,gdy:
2. jeżeli jest stanem niepowracającym, to:
Liczby mają także nieco inną interpretację, którą prezentuje poniższe twierdzenie. Oznaczmy przez liczbę wszystkich powrotów do stanu .
Twierdzenie 10.9
Dla każdego :
Dowód .
Załóżmy, że w chwili system znajdował się w stanie . W takim razie:
Mamy więc:
Wiemy, że (patrz zadanie 7.15):
zatem:

Przykład 10.10
Rozważmy jednowymiarowy spacer losowy bez barier z prawdopodobieństwami (patrz przykład 10.2). Wyraźnie widać, że jest to nieredukowalny łańcuch Markowa oraz że:
Można też łatwo się przekonać (ćwiczenie), że:
Teraz:
Tę ostatnią sumę można obliczyć analitycznie, co jest zadaniem dość trudnym. Jednakże, korzystając z programu Maple
wynik uzyskujemy bardzo szybko:
> sum(binomial(2*k,k)/4^k,k=1..infinity);
Można też pokazać, że dwuwymiarowy standardowy spacer losowy (patrz przykład 10.4) jest powracający, natomiast spacer losowy w przestrzeni o wymiarze co najmniej trzy nie jest powracający - wrócimy do tego problemu w ćwiczeniu ćwiczeniu 10.2.
Rozważmy nieredukowalny łańcuch Markowa i ustalmy pewien jego stan . Ponieważ komunikuje się z samym sobą, zatem istnieje liczba taka, że - niech oznacza zbiór wszystkich takich liczb . Zauważmy, że:
Wynika to z następującej (ogólniejszej) obserwacji: dla wszystkich stanów , oraz :
a więc, w szczególności:
Mówimy, że stan jest okresowy o okresie , jeżeli jest największym wspólnym
podzielnikiem liczb ze zbioru . Można udowodnić,
że w nieredukowalnym łańcuchu Markowa zachodzi dokładnie jeden z następujących warunków:
1. wszystkie stany są okresowe i mają wspólny okres,
2. żaden ze stanów nie jest okresowy.
W pierwszym z powyższych przypadków mówimy, że łańcuch Markowa jest okresowy, a jego okresem jest (wspólny) okres każdego z jego stanów.
Spacer losowy opisany w przykładzie 10.2 jest okresowy o okresie 2, natomiast jego nie posiadająca ekranów modyfikacja, dla której , nie jest okresowa. Pamiętajmy jednak, iż sam warunek nie gwarantuje jeszcze okresowości (jeżeli istnieją ekrany pochłaniające, to łańcuch nie jest nieredukowalny).
Ergodyczność
W pewnych okolicznościach możemy być zainteresowani tym, jak zachowuje się łańcuch Markowa po upływie długiego czasu. W szczególności, warto się pytać o asymptotyczny rozkład prawdopodobieństwa wektorów , o ile oczywiście taki rozkład istnieje. Poniżej prezentujemy tak zwane twierdzenie ergodyczne, które opisuje właśnie taką sytuację.
Twierdzenie 10.11
Rozważamy nieredukowalny łańcuch Markowa o skończonej liczbie stanów (to znaczy ) i macierzy przejścia . Wówczas zachodzi dokładnie jeden z następujących warunków:
1. łańcuch jest okresowy,
2. istnieje wektor o współrzędnych , , taki, że:
a) dla wszystkich ,
b) dla wszystkich :
c) wektor jest jedynym rozwiązaniem równania:
spełniającym warunek:
Jeżeli spełniony jest warunek 2 z powyższego twierdzenia, to łańcuch Markowa nazywamy ergodycznym, zaś wektor - jego rozkładem stacjonarnym. Mówiąc niezbyt precyzyjnie, ergodyczność oznacza, że dla dużych prawdopodobieństwo przejścia ze stanu do stanu w krokach jest dodatnie i zależy faktycznie od stanu końcowego , zaś nie zależy od stanu początkowego - prawdopodobieństwa te można otrzymać, rozwiązując odpowiedni układ równań liniowych.
Nie podajemy dość długiego i trudnego dowodu twierdzenia ergodycznego. Zamiast tego, w ćwiczeniu 10.4 "sprawdzimy" to twierdzenie eksperymentalnie.