Rachunek prawdopodobieństwa i statystyka/Ćwiczenia 10: Łańcuchy Markowa: Różnice pomiędzy wersjami
m Zastępowanie tekstu – „<math> ” na „<math>” |
|||
(Nie pokazano 33 wersji utworzonych przez 3 użytkowników) | |||
Linia 9: | Linia 9: | ||
od czasu, podczas spaceru losowego o zadanych parametrach. | od czasu, podczas spaceru losowego o zadanych parametrach. | ||
Funkcja <tt>empirical[q,r,p]</tt> generuje rozkład, według którego losuje się liczby 1, 2 i 3 | Funkcja <tt>empirical[q,r,p]</tt> generuje rozkład, według którego losuje się liczby 1, 2 i 3 | ||
z prawdopodobieństwami <math> | z prawdopodobieństwami <math>q</math>, <math>r</math> i <math>p</math>. | ||
''> Spacer :<nowiki>=</nowiki> proc(N,p,q,sa,sb,M) | ''> Spacer :<nowiki>=</nowiki> proc(N,p,q,sa,sb,M) | ||
Linia 43: | Linia 43: | ||
Wygenerujemy teraz cztery ścieżki w spacerze | Wygenerujemy teraz cztery ścieżki w spacerze | ||
losowym o 300 krokach. Bariery ustawiamy w punktach <math> | losowym o 300 krokach. Bariery ustawiamy w punktach <math>-10</math> i <math>10</math> oraz przyjmujemy następujące parametry: | ||
<center><math> | <center><math>p = 0.5, \;q = 0.45, \;r = 0.05,\; sa = sb = 0.8</math>.</center> | ||
Linia 71: | Linia 71: | ||
</center> | </center> | ||
{{cwiczenie|10.2| | {{cwiczenie|10.2|cw_10.2| | ||
Przyjrzymy się jeszcze raz | Przyjrzymy się jeszcze raz [[Rachunek prawdopodobieństwa i statystyka/Wykład 10: Łańcuchy Markowa#przy_10.4|przykładowi 10.4]] przy założeniu, że | ||
<math> | <math>d \ge 2</math>. | ||
}} | }} | ||
Niech <math> | Niech <math>{\mathbf{P}}_d</math> oznacza macierz przejścia naszego | ||
łańcucha Markowa. Ustalmy stan <math> | łańcucha Markowa. Ustalmy stan <math>i = (i_1, \dots, i_d) \in {\Bbb Z}^d</math>. | ||
Zauważmy, że przejście w <math> | Zauważmy, że przejście w <math>n</math> krokach ze stanu <math>i</math> z | ||
powrotem do tego stanu podczas <math> | powrotem do tego stanu podczas <math>d</math>-wymiarowego spaceru losowego, jest równoważne przejściom ze | ||
stanów <math> | stanów <math>i_j</math> do <math>i_j</math> w <math>n</math> krokach podczas niezależnych od siebie jednowymiarowych | ||
spacerów losowych. Właśnie korzystając z | spacerów losowych. Właśnie korzystając z | ||
tej niezależności, dostajemy: | tej niezależności, dostajemy: | ||
<center><math> | <center><math> | ||
{\mathbf{P}}^n_d(i)={\mathbf{P}}_d^n(i,i) = {\mathbf{P}}^n(i_1,i_1)\cdot \dots \cdot | {\mathbf{P}}^n_d(i)={\mathbf{P}}_d^n(i,i) = {\mathbf{P}}^n(i_1,i_1)\cdot \dots \cdot | ||
{\mathbf{P}}^n(i_d,i_d) = \left({\mathbf{P}}^n(0,0)\right)^d | {\mathbf{P}}^n(i_d,i_d) = \left({\mathbf{P}}^n(0,0)\right)^d</math></center> | ||
</math></center> | |||
Korzystając z powyższego wzoru oraz z | Korzystając z powyższego wzoru oraz z [[Rachunek prawdopodobieństwa i statystyka/Wykład 10: Łańcuchy Markowa#tw_10.8|twierdzenia 10.8]], można obliczyć prawdopodobieństwa <math>{\mathbf{P}}_d^n(i)</math> oraz | ||
prawdopodobieństwa powrotu w czasie skończonym <math> | prawdopodobieństwa powrotu w czasie skończonym <math>F^d_n(i)</math> dla <math>d = 2, 3, 4, 5, 6</math>. | ||
Warto w tym przypadku znowu skorzystać z programu Maple. Okazuje się, że: | Warto w tym przypadku znowu skorzystać z programu Maple. Okazuje się, że: | ||
; | ; | ||
:<math> | :<math>{\mathbf{P}}_2^n(i) \approx \infty</math>, <math>F_2(0) = 1</math>, | ||
; | ; | ||
:<math> | :<math>{\mathbf{P}}_3^n(i) \approx 0.3932039296</math>, <math>F_3(0) \approx 0.2822299888</math>, | ||
; | ; | ||
:<math> | :<math>{\mathbf{P}}_4^n(i) \approx 0.1186363871</math>, <math>F_4(0) \approx 0.1060544682</math>, | ||
; | ; | ||
:<math> | :<math>{\mathbf{P}}_5^n(i) \approx 0.04682554981</math>, <math>F_5(0) \approx 0.04473099631</math>, | ||
; | ; | ||
:<math> | :<math>{\mathbf{P}}_6^n(i) \approx 0.02046077706</math>, <math>F_6(0) \approx 0.02005052768</math>. | ||
Powyższe wyniki można interpretować w sposób następujący: w przypadku jedno i dwuwymiarowym | Powyższe wyniki można interpretować w sposób następujący: w przypadku jedno i dwuwymiarowym | ||
nie można się podczas spaceru zgubić, natomiast jest to możliwe w wyższych wymiarach, przy czym im wymiar większy, | nie można się podczas spaceru zgubić, natomiast jest to możliwe w wyższych wymiarach, przy czym im wymiar większy, | ||
Linia 119: | Linia 118: | ||
}} | }} | ||
Tym razem bariery ustawiamy w punktach <math> | Tym razem bariery ustawiamy w punktach <math>-2</math> oraz <math>2</math>, zaś parametrami określającymi spacer są: | ||
<center><math> | <center><math>p = 0.5, \; q = 0.3,\; r = 0.2, \;sa = 0.9,\;sb = 0.1</math>.</center> | ||
Linia 128: | Linia 127: | ||
<center><math> | <center><math>\mathbf{P} = \left[ \begin{array} {ccccc} 0.9& 0.1& 0.0& 0.0& 0.0 | ||
\\\noalign{\medskip} 0.3& 0.2& 0.5& 0.0& 0.0\\\noalign{\medskip} 0.0& | \\\noalign{\medskip} 0.3& 0.2& 0.5& 0.0& 0.0\\\noalign{\medskip} 0.0& | ||
0.3& 0.2& 0.5& 0.0\\\noalign{\medskip} 0.0& 0.0& 0.3& 0.2& 0.5 | 0.3& 0.2& 0.5& 0.0\\\noalign{\medskip} 0.0& 0.0& 0.3& 0.2& 0.5 | ||
\\\noalign{\medskip} 0.0& 0.0& 0.0& 0.9& 0.1\end{array} \right] | \\\noalign{\medskip} 0.0& 0.0& 0.0& 0.9& 0.1\end{array} \right]</math></center> | ||
Linia 137: | Linia 136: | ||
<center><math> | <center><math> | ||
\mathbf{P}^{10} \approx \left[ \begin{array} {ccccc} 0.545& 0.115& 0.122& 0.145& 0.0731 | \mathbf{P}^{10} \approx \left[ \begin{array} {ccccc} 0.545& 0.115& 0.122& 0.145& 0.0731 | ||
\\\noalign{\medskip} 0.346& 0.103& 0.159& 0.252& 0.140 | \\\noalign{\medskip} 0.346& 0.103& 0.159& 0.252& 0.140 | ||
Linia 143: | Linia 142: | ||
\\\noalign{\medskip} 0.157& 0.0906& 0.195& 0.353& 0.205 | \\\noalign{\medskip} 0.157& 0.0906& 0.195& 0.353& 0.205 | ||
\\\noalign{\medskip} 0.142& 0.0909& 0.194& 0.368& 0.205\end{array} | \\\noalign{\medskip} 0.142& 0.0909& 0.194& 0.368& 0.205\end{array} | ||
\right] | \right]</math></center> | ||
</math></center> | |||
Linia 156: | Linia 154: | ||
{{cwiczenie|10.4|cw 10.4| | {{cwiczenie|10.4|cw 10.4| | ||
Zobaczymy, jak funkcjonuje twierdzenie ergodyczne w przypadku | Zobaczymy, jak funkcjonuje twierdzenie ergodyczne w przypadku | ||
spaceru losowego opisanego w | spaceru losowego opisanego w [[#cw_10.3|ćwiczeniu 10.3]]. | ||
}} | }} | ||
Macierze <math> | Macierze <math>\mathbf{P}^{30}</math> i <math>\mathbf{P}^{50}</math> wyglądają następująco: | ||
<center><math> | <center><math>\mathbf{P}^{30} \approx \left[ \begin{array} {ccccc} 0.345& 0.103& 0.159& 0.254& 0.140 | ||
\\\noalign{\medskip} 0.309& 0.101& 0.165& 0.274& 0.152 | \\\noalign{\medskip} 0.309& 0.101& 0.165& 0.274& 0.152 | ||
\\\noalign{\medskip} 0.286& 0.0992& 0.170& 0.286& 0.159 | \\\noalign{\medskip} 0.286& 0.0992& 0.170& 0.286& 0.159 | ||
\\\noalign{\medskip} 0.274& 0.0985& 0.172& 0.293& 0.163 | \\\noalign{\medskip} 0.274& 0.0985& 0.172& 0.293& 0.163 | ||
\\\noalign{\medskip} 0.271& 0.0983& 0.172& 0.294& 0.164\end{array} | \\\noalign{\medskip} 0.271& 0.0983& 0.172& 0.294& 0.164\end{array} | ||
\right] | \right]</math>,</center> | ||
</math></center> | |||
<center><math> | <center><math>\mathbf{P}^{50} \approx \left[ \begin{array} {ccccc} 0.309& 0.101& 0.165& 0.274& 0.152 | ||
\\\noalign{\medskip} 0.302& 0.100& 0.167& 0.277& 0.154 | \\\noalign{\medskip} 0.302& 0.100& 0.167& 0.277& 0.154 | ||
\\\noalign{\medskip} 0.298& 0.100& 0.167& 0.280& 0.155 | \\\noalign{\medskip} 0.298& 0.100& 0.167& 0.280& 0.155 | ||
\\\noalign{\medskip} 0.296& 0.0998& 0.168& 0.281& 0.156 | \\\noalign{\medskip} 0.296& 0.0998& 0.168& 0.281& 0.156 | ||
\\\noalign{\medskip} 0.295& 0.0998& 0.168& 0.281& 0.156\end{array} | \\\noalign{\medskip} 0.295& 0.0998& 0.168& 0.281& 0.156\end{array} | ||
\right] | \right]</math></center> | ||
</math></center> | |||
Linia 184: | Linia 180: | ||
Znajdziemy teraz rozkład stacjonarny, rozwiązując | Znajdziemy teraz rozkład stacjonarny, rozwiązując | ||
odpowiedni układ równań postaci <math> | odpowiedni układ równań postaci <math>Ax = b</math>. Wyznaczamy | ||
najpierw <math> | najpierw <math>A</math> oraz <math>b</math> tak, aby układ ten był równoważny układowi występującemu | ||
w twierdzeniu ergodycznym ( | w twierdzeniu ergodycznym ([[Rachunek prawdopodobieństwa i statystyka/Wykład 10: Łańcuchy Markowa#tw_10.11|twierdzenie 10.11]]). Otrzymujemy: | ||
<center><math> | <center><math> | ||
A = \left[ \begin{array} {ccccc} - 0.1& 0.3&0&0&0\\\noalign{\medskip} 0.1&- 0.8& 0.3&0&0\\\noalign{\medskip}0& 0.5&- 0.8& 0.3&0 | A = \left[ \begin{array} {ccccc} - 0.1& 0.3&0&0&0\\\noalign{\medskip} 0.1&- 0.8& 0.3&0&0\\\noalign{\medskip}0& 0.5&- 0.8& 0.3&0 | ||
\\\noalign{\medskip}0&0& 0.5&- 0.8& 0.9\\\noalign{\medskip}0&0&0& 0.5& | \\\noalign{\medskip}0&0& 0.5&- 0.8& 0.9\\\noalign{\medskip}0&0&0& 0.5& | ||
- 0.9\\\noalign{\medskip}1&1&1&1&1\end{array} \right], \ \ b = \left[ \begin{array} {c} 0\\\noalign{\medskip}0\\\noalign{\medskip}0\\\noalign{\medskip}0\\\noalign{\medskip}0\\\noalign{\medskip}1 | - 0.9\\\noalign{\medskip}1&1&1&1&1\end{array} \right], \ \ b = \left[ \begin{array} {c} 0\\\noalign{\medskip}0\\\noalign{\medskip}0\\\noalign{\medskip}0\\\noalign{\medskip}0\\\noalign{\medskip}1 | ||
\end{array} \right] | \end{array} \right]</math></center> | ||
</math></center> | |||
Łatwo obliczyć (można, oczywiście, skorzystać z programu Maple), | Łatwo obliczyć (można, oczywiście, skorzystać z programu Maple), | ||
że przybliżonym rozwiązaniem naszego układu równań jest następujący wektor <math> | że przybliżonym rozwiązaniem naszego układu równań jest następujący wektor <math>\pi</math>: | ||
<center><math> | <center><math> | ||
\pi \approx \left[ \begin{array} {c} 0.30037 \\ 0.10012 \\ 0.16687\\ 0.27812\\ | \pi \approx \left[ \begin{array} {c} 0.30037 \\ 0.10012 \\ 0.16687\\ 0.27812\\ | ||
0.15451\end{array} \right] | 0.15451\end{array} \right]</math></center> | ||
</math></center> | |||
Widzimy, że rzeczywiście rozkład stacjonarny niewiele różni się od wierszy macierzy | Widzimy, że rzeczywiście rozkład stacjonarny niewiele różni się od wierszy macierzy | ||
<math> | <math>P^{50}</math>. | ||
{{cwiczenie|10.5|cw 10.5| | {{cwiczenie|10.5|cw 10.5| | ||
Znajdziemy rozkłady i wartości oczekiwane zmiennych losowych <math> | Znajdziemy rozkłady i wartości oczekiwane zmiennych losowych <math>X_n</math> (dla | ||
niektórych wartości <math> | niektórych wartości <math>n</math>), oznaczających kapitał | ||
Antoniego z | Antoniego z [[Rachunek prawdopodobieństwa i statystyka/Wykład 10: Łańcuchy Markowa#przy_10.5|przykładu 10.5]]. Przyjmiemy następujące założenia: | ||
<center><math> | <center><math>A = 8, \; B=5, \; p = 0.2,\; q = 0.4</math>,</center> | ||
Linia 225: | Linia 219: | ||
}} | }} | ||
Przypominamy, że mamy tutaj 14 stanów: <center><math> | Przypominamy, że mamy tutaj 14 stanów: <center><math>E = \{0,1,\dots, 13\}</math>.</center> | ||
Stan "0" oznacza definitywną ruinę Adama, zaś stan "13" - jego całkowitą wygraną, | Stan "0" oznacza definitywną ruinę Adama, zaś stan "13" - jego całkowitą wygraną, | ||
natomiast gra startuje ze stanu "8". | natomiast gra startuje ze stanu "8". | ||
Konstruujemy macierz przejścia <math> | Konstruujemy macierz przejścia <math>\mathbf{P}</math>: | ||
<center><math> | <center><math> | ||
\mathbf{P} = \left[ \begin{array} {cccccccccccccc} 1&0&0&0&0&0&0&0&0&0&0&0&0&0 | \mathbf{P} = \left[ \begin{array} {cccccccccccccc} 1&0&0&0&0&0&0&0&0&0&0&0&0&0 | ||
\\\noalign{\medskip} 0.4& 0.4& 0.2&0&0&0&0&0&0&0&0&0&0&0 | \\\noalign{\medskip} 0.4& 0.4& 0.2&0&0&0&0&0&0&0&0&0&0&0 | ||
Linia 254: | Linia 248: | ||
<center><math> | <center><math> | ||
\mathbf{p} = \left[ \begin{array} {cccccccccccccc} 0 & 0 & 0 & 0 & 0 & 0 & 0 & 0 & 1 & 0 & 0 & 0 & 0 & 0 \end{array} \right] | \mathbf{p} = \left[ \begin{array} {cccccccccccccc} 0 & 0 & 0 & 0 & 0 & 0 & 0 & 0 & 1 & 0 & 0 & 0 & 0 & 0 \end{array} \right]</math>,</center> | ||
</math></center> | |||
Można teraz łatwo obliczać kolejne rozkłady korzystając z | Można teraz łatwo obliczać kolejne rozkłady korzystając z [[Rachunek prawdopodobieństwa i statystyka/Wykład 10: Łańcuchy Markowa#10.1|wzoru 10.1]] - | ||
tak wyglądają, obliczone przy pomocy programu Maple, | tak wyglądają, obliczone przy pomocy programu Maple, | ||
rozkłady po zakończeniu piątej, dwudziestej i dwusetnej gry: | rozkłady po zakończeniu piątej, dwudziestej i dwusetnej gry: | ||
<center><math> | <center><math> | ||
\mathbf{p}_5 \approx \left[ \begin{array} {c} 0 \\ 0 \\ | \mathbf{p}_5 \approx \left[ \begin{array} {c} 0 \\ 0 \\ | ||
0 \\ 0.0102 \\ 0.0512 \\ 0.128 \\ 0.205 \\ 0.230 \\ 0.189 \\ | 0 \\ 0.0102 \\ 0.0512 \\ 0.128 \\ 0.205 \\ 0.230 \\ 0.189 \\ | ||
Linia 274: | Linia 267: | ||
0.0000114\\ 0.854\cdot 10^{-5}\\ 0.604\cdot 10^{-5}\\ 0.402\cdot 10^{-5}\\ 0.250\cdot 10^{-5}\\ | 0.0000114\\ 0.854\cdot 10^{-5}\\ 0.604\cdot 10^{-5}\\ 0.402\cdot 10^{-5}\\ 0.250\cdot 10^{-5}\\ | ||
0.143\cdot 10^{-5}\\ 0.707\cdot 10^{-6}\\ 0.257\cdot 10^{-6}\\ | 0.143\cdot 10^{-5}\\ 0.707\cdot 10^{-6}\\ 0.257\cdot 10^{-6}\\ | ||
0.0311 \end{array} \right] | 0.0311 \end{array} \right]</math>,</center> | ||
</math></center> | |||
Linia 281: | Linia 273: | ||
<center><math> | <center><math>{\Bbb E}(X_5) \approx 7.00000,\;\; | ||
{\Bbb E}(X_{20}) \approx 4.157931285, \;\; | {\Bbb E}(X_{20}) \approx 4.157931285, \;\; | ||
{\Bbb E}(X_{200}) \approx 0.4050783639 | {\Bbb E}(X_{200}) \approx 0.4050783639</math></center> | ||
</math></center> | |||
Linia 291: | Linia 282: | ||
(formalnie toczy się przez cały czas, tylko pozostaje w jednym ze stanów pochłaniających: "0" lub " 13"). | (formalnie toczy się przez cały czas, tylko pozostaje w jednym ze stanów pochłaniających: "0" lub " 13"). | ||
Powyższą sytuację ilustruje także następująca animacja rozkładów prawdopodobieństwa zmiennych losowych <math> | Powyższą sytuację ilustruje także następująca animacja rozkładów prawdopodobieństwa zmiennych losowych <math>X_1, \dots, X_{200}</math>: | ||
[[File:Rp103.mp4|253x253px|thumb|center]] | |||
-------------------------------------------------- | |||
'''Zadanie 10.1'''<br> | |||
Napisz i uruchom program, który dla zadanej macierzy przejścia i zadanego rozkładu prawdopodobieństwa: (a) symuluje łańcuch Markowa, (b) wyznacza kolejne rozkłady prawdopodobieństwa tego łańcucha. | Napisz i uruchom program, który dla zadanej macierzy przejścia i zadanego rozkładu prawdopodobieństwa: (a) symuluje łańcuch Markowa, (b) wyznacza kolejne rozkłady prawdopodobieństwa tego łańcucha. | ||
= | <span id="zad_10.2"> | ||
'''Zadanie 10.2'''<br> | |||
Rozważmy spacer losowy po | Rozważmy spacer losowy po | ||
okręgu. Załóżmy, że cząsteczka może się znajdować w | okręgu. Załóżmy, że cząsteczka może się znajdować w | ||
punktach odpowiadającym kątom <math> | punktach odpowiadającym kątom <math>k\frac{2\pi}{n}</math>, | ||
gdzie <math> | gdzie <math>n</math> jest ustaloną liczbą naturalną, natomiast <math>k | ||
= 0, \dots, n-1</math>. Cząsteczka porusza się zgodnie z | = 0, \dots, n-1</math>. Cząsteczka porusza się zgodnie z | ||
ruchem wskazówek zegara z prawdopodobieństwem <math> | ruchem wskazówek zegara z prawdopodobieństwem <math>p</math>, | ||
przeciwnie do ruchu wskazówek zegara - z | przeciwnie do ruchu wskazówek zegara - z | ||
prawdopodobieństwem <math> | prawdopodobieństwem <math>q</math> i nie zmienia położenia z | ||
prawdopodobieństwem <math> | prawdopodobieństwem <math>r</math> (<math>p + q + r = 1</math>). Wskaż | ||
macierz przejścia odpowiedniego łańcucha Markowa. | macierz przejścia odpowiedniego łańcucha Markowa.</span> | ||
'''Zadanie 10.3'''<br> | |||
Znajdź macierz przejścia oraz | Znajdź macierz przejścia oraz | ||
rozkład początkowy łańcucha Markowa, który jest modelem | rozkład początkowy łańcucha Markowa, który jest modelem | ||
zagadnienia opisanego w | zagadnienia opisanego w (patrz [[Rachunek prawdopodobieństwa i statystyka/Ćwiczenia 5: Prawdopodobieństwo warunkowe i niezależność#cw_5_9|zadaniu 5.9]]). | ||
'''Zadanie 10.4'''<br> | |||
Niech <math> | Niech <math>\xi_0, \dots , \xi_n</math> będą niezależnymi | ||
zmiennymi losowymi, przyjmującymi jedynie wartości | zmiennymi losowymi, przyjmującymi jedynie wartości | ||
całkowite. Załóżmy, że zmienna <math> | całkowite. Załóżmy, że zmienna <math>\xi_0</math> ma rozkład | ||
<math> | <math>q_0</math>, natomiast zmienne <math>\xi_1, \dots , \xi_n</math> mają | ||
wspólny rozkład <math> | wspólny rozkład <math>q</math>. Określmy: | ||
<center><math> | <center><math> | ||
X_0 = \xi_0\ | X_0 = \xi_0\ </math> oraz <math> \ X_{n+1} = X_n + \xi_{n+1} | ||
\;\; | \;\;</math> dla <math>\ n = 0,1,2, \dots</math></center> | ||
Sprawdź, że zmienne losowe | Sprawdź, że zmienne losowe | ||
<math> | <math>X_n</math> tworzą łańcuch Markowa. | ||
'''Zadanie 10.5'''<br> | |||
Niech <math> | Niech <math>{\mathbf{P}}</math> będzie macierzą przejścia pewnego | ||
łańcucha Markowa. Wykaż, że dla wszystkich potęg <math> | łańcucha Markowa. Wykaż, że dla wszystkich potęg <math>k</math> zachodzi warunek: | ||
<center><math> | <center><math> | ||
\sum_{ j \in E}{\mathbf{P}^k}(i,j) = 1 </math> dla każdego <math> | \sum_{ j \in E}{\mathbf{P}^k}(i,j) = 1</math> dla każdego <math>i | ||
\in E | \in E</math>.</center> | ||
'''Zadanie 10.6'''<br> | |||
Niech zmienne losowe <math> | Niech zmienne losowe <math>X_n</math>, <math>n = 0,1,2, \dots</math>, | ||
tworzą łańcuch Markowa. Pokaż, że zmienne <math> | tworzą łańcuch Markowa. Pokaż, że zmienne <math>X_0, X_k, X_{2k}, | ||
\dots</math>, gdzie <math> | \dots</math>, gdzie <math>k >1</math> jest | ||
ustaloną liczbą, także tworzą łańcuch Markowa. | ustaloną liczbą, także tworzą łańcuch Markowa. | ||
'''Zadanie 10.7'''<br> | |||
Napisz procedury, które symulują łańcuchy Markowa | Napisz procedury, które symulują łańcuchy Markowa | ||
z | z [[Rachunek prawdopodobieństwa i statystyka/Wykład 10: Łańcuchy Markowa#przy_10.6|przykładu 10.6]] oraz z zadań [[#zad_10.2|10.2]] i | ||
[[# | [[#zad_10.3|10.3]]. | ||
'''Zadanie 10.8'''<br> | |||
Pokaż, że dla ergodycznego łańcucha Markowa | Pokaż, że dla ergodycznego łańcucha Markowa | ||
oraz dla dowolnego rozkładu początkowego <math> | oraz dla dowolnego rozkładu początkowego <math>{\mathbf{p}}</math>, | ||
rozkłady wektorów losowych <math> | rozkłady wektorów losowych <math>X_n</math> są zbieżne do | ||
rozkładu stacjonarnego <math> | rozkładu stacjonarnego <math>\pi</math>, to znaczy: | ||
<center><math> | <center><math> | ||
\lim_{n \rightarrow \infty}{\mathbf{p}}_n(i) = \pi(i) | \lim_{n \rightarrow \infty}{\mathbf{p}}_n(i) = \pi(i)</math> dla | ||
każdego <math> | każdego <math> i \in E</math></center> | ||
</math></center> | |||
'''Zadanie 10.9'''<br> | |||
Znajdź rozkłady stacjonarne (o ile istnieją) dla | Znajdź rozkłady stacjonarne (o ile istnieją) dla | ||
łańcuchów Markowa z | łańcuchów Markowa z [[Rachunek prawdopodobieństwa i statystyka/Wykład 10: Łańcuchy Markowa#przy_10.6|przykładu 10.6]] oraz zadań | ||
[[# | [[#zad_10.2|10.2]] i | ||
[[#zad_10.2|10.3]]. | |||
'''Zadanie 10.10'''<br> | |||
Podaj przykład nieredukowalnego łańcucha Markowa o | Podaj przykład nieredukowalnego łańcucha Markowa o | ||
skończonej liczbie stanów, który nie jest ergodyczny. | skończonej liczbie stanów, który nie jest ergodyczny. | ||
'''Zadanie 10.11'''<br> | |||
Wykaż, że ergodyczny łańcuch Markowa jest powracający. | Wykaż, że ergodyczny łańcuch Markowa jest powracający. |
Aktualna wersja na dzień 22:17, 11 wrz 2023
Ćwiczenia
Ćwiczenie 10.1
Opiszemy symulację spaceru losowego za pomocą programu Maple.
Poniższa procedura rysuje położenie cząsteczki w zależności od czasu, podczas spaceru losowego o zadanych parametrach. Funkcja empirical[q,r,p] generuje rozkład, według którego losuje się liczby 1, 2 i 3 z prawdopodobieństwami , i .
> Spacer := proc(N,p,q,sa,sb,M)
> local A, B, r, PA, PC, PB, stan, krok, droga:
> A := -N: B := N: r := 1 -p - q:
> PA := empirical[0.,sa,1-sa]: > PC := empirical[q,r,p]: > PB := empirical[1-sb,sb,0.]:
> stan := 0: > droga := stan: > from 1 to M do > if (A < stan and stan < B) then > krok := random[PC](1) - 2 > elif > stan = A then krok := random[PA](1) - 2 > elif > stan = B then krok := random[PB](1) - 2 > fi: > stan := stan + krok: > droga := droga,stan >od:}{} > plots[pointplot]([seq([i,droga[i+1]], > i = 0..nops([droga])-1)],axes=BOXED): > end:
Rysunek ze strony {ryssl} został utworzony poleceniem:
> Spacer(3,0.5,0.5,0.8,0.8,20);
Wygenerujemy teraz cztery ścieżki w spacerze losowym o 300 krokach. Bariery ustawiamy w punktach i oraz przyjmujemy następujące parametry:
Teraz wykonujemy cztery razy polecenie:
> Spacer(10,0.45,0.5,0.8,0.8,300);
otrzymując następujące wyniki:
<flash>file=Rp.1.102.swf|width=350|height=350</flash>
<flash>file=Rp.1.103.swf|width=350|height=350</flash>
<flash>file=Rp.1.104.swf|width=350|height=350</flash>
<flash>file=Rp.1.105.swf|width=350|height=350</flash>
Ćwiczenie 10.2
Przyjrzymy się jeszcze raz przykładowi 10.4 przy założeniu, że .
Niech oznacza macierz przejścia naszego łańcucha Markowa. Ustalmy stan . Zauważmy, że przejście w krokach ze stanu z powrotem do tego stanu podczas -wymiarowego spaceru losowego, jest równoważne przejściom ze stanów do w krokach podczas niezależnych od siebie jednowymiarowych spacerów losowych. Właśnie korzystając z tej niezależności, dostajemy:
Korzystając z powyższego wzoru oraz z twierdzenia 10.8, można obliczyć prawdopodobieństwa oraz
prawdopodobieństwa powrotu w czasie skończonym dla .
Warto w tym przypadku znowu skorzystać z programu Maple. Okazuje się, że:
- , ,
- , ,
- , ,
- , ,
- , .
Powyższe wyniki można interpretować w sposób następujący: w przypadku jedno i dwuwymiarowym nie można się podczas spaceru zgubić, natomiast jest to możliwe w wyższych wymiarach, przy czym im wymiar większy, tym prawdopodobieństwo powrotu jest mniejsze.
Ćwiczenie 10.3
Rozważymy pewien spacer losowy z barierami i zbadamy numerycznie zachowanie się kolejnych potęg macierzy przejścia.
Tym razem bariery ustawiamy w punktach oraz , zaś parametrami określającymi spacer są:
Macierz przejścia ma wówczas postać:
zatem:
Widzimy więc, na przykład, że prawdopodobieństwo
przejścia w 10 krokach z lewej bariery do niej samej
wynosi około 55, prawdopodobieństwo
przejścia z lewej do prawej bariery -
około 7, zaś z punktu 0 do niego
samego - około 18.
Ćwiczenie 10.4
Zobaczymy, jak funkcjonuje twierdzenie ergodyczne w przypadku spaceru losowego opisanego w ćwiczeniu 10.3.
Macierze i wyglądają następująco:
Widzimy, że (tak jak przewiduje twierdzenie) wiersze
powyższych macierzy stają się do siebie coraz bardziej podobne.
Znajdziemy teraz rozkład stacjonarny, rozwiązując odpowiedni układ równań postaci . Wyznaczamy najpierw oraz tak, aby układ ten był równoważny układowi występującemu w twierdzeniu ergodycznym (twierdzenie 10.11). Otrzymujemy:
Łatwo obliczyć (można, oczywiście, skorzystać z programu Maple),
że przybliżonym rozwiązaniem naszego układu równań jest następujący wektor :
Widzimy, że rzeczywiście rozkład stacjonarny niewiele różni się od wierszy macierzy
.
Ćwiczenie 10.5
Znajdziemy rozkłady i wartości oczekiwane zmiennych losowych (dla niektórych wartości ), oznaczających kapitał Antoniego z przykładu 10.5. Przyjmiemy następujące założenia:
które oznaczają, że Antoni ma większy kapitał, ale Bolesław
jest lepszym graczem.
Przypominamy, że mamy tutaj 14 stanów:
Stan "0" oznacza definitywną ruinę Adama, zaś stan "13" - jego całkowitą wygraną, natomiast gra startuje ze stanu "8".
Konstruujemy macierz przejścia :
i zadajemy rozkład początkowy:
Można teraz łatwo obliczać kolejne rozkłady korzystając z wzoru 10.1 -
tak wyglądają, obliczone przy pomocy programu Maple,
rozkłady po zakończeniu piątej, dwudziestej i dwusetnej gry:
natomiast ich nadzieje matematyczne wynoszą:
Tak więc po 200 grach mamy prawie 97 pewności, że Adam będzie bankrutem (jest też niewielka nadzieja, że wygra).
Jednakże jest niezwykle mało prawdopodobne, że gra w ogóle będzie się toczyć
(formalnie toczy się przez cały czas, tylko pozostaje w jednym ze stanów pochłaniających: "0" lub " 13").
Powyższą sytuację ilustruje także następująca animacja rozkładów prawdopodobieństwa zmiennych losowych :
Zadanie 10.1
Napisz i uruchom program, który dla zadanej macierzy przejścia i zadanego rozkładu prawdopodobieństwa: (a) symuluje łańcuch Markowa, (b) wyznacza kolejne rozkłady prawdopodobieństwa tego łańcucha.
Zadanie 10.2
Rozważmy spacer losowy po
okręgu. Załóżmy, że cząsteczka może się znajdować w
punktach odpowiadającym kątom ,
gdzie jest ustaloną liczbą naturalną, natomiast . Cząsteczka porusza się zgodnie z
ruchem wskazówek zegara z prawdopodobieństwem ,
przeciwnie do ruchu wskazówek zegara - z
prawdopodobieństwem i nie zmienia położenia z
prawdopodobieństwem (). Wskaż
macierz przejścia odpowiedniego łańcucha Markowa.
Zadanie 10.3
Znajdź macierz przejścia oraz
rozkład początkowy łańcucha Markowa, który jest modelem
zagadnienia opisanego w (patrz zadaniu 5.9).
Zadanie 10.4
Niech będą niezależnymi
zmiennymi losowymi, przyjmującymi jedynie wartości
całkowite. Załóżmy, że zmienna ma rozkład
, natomiast zmienne mają
wspólny rozkład . Określmy:
Sprawdź, że zmienne losowe
tworzą łańcuch Markowa.
Zadanie 10.5
Niech będzie macierzą przejścia pewnego
łańcucha Markowa. Wykaż, że dla wszystkich potęg zachodzi warunek:
Zadanie 10.6
Niech zmienne losowe , ,
tworzą łańcuch Markowa. Pokaż, że zmienne , gdzie jest
ustaloną liczbą, także tworzą łańcuch Markowa.
Zadanie 10.7
Napisz procedury, które symulują łańcuchy Markowa
z przykładu 10.6 oraz z zadań 10.2 i
10.3.
Zadanie 10.8
Pokaż, że dla ergodycznego łańcucha Markowa
oraz dla dowolnego rozkładu początkowego ,
rozkłady wektorów losowych są zbieżne do
rozkładu stacjonarnego , to znaczy:
Zadanie 10.9
Znajdź rozkłady stacjonarne (o ile istnieją) dla
łańcuchów Markowa z przykładu 10.6 oraz zadań
10.2 i
10.3.
Zadanie 10.10
Podaj przykład nieredukowalnego łańcucha Markowa o
skończonej liczbie stanów, który nie jest ergodyczny.
Zadanie 10.11
Wykaż, że ergodyczny łańcuch Markowa jest powracający.