Rachunek prawdopodobieństwa i statystyka/Wykład 8: Przegląd ważniejszych rozkładów: Różnice pomiędzy wersjami
(Nie pokazano 72 wersji utworzonych przez 4 użytkowników) | |||
Linia 19: | Linia 19: | ||
Aby umieć odpowiadać na te i podobne pytania, najpierw należy zawsze zdać sobie sprawę z natury rozważanego zjawiska, czyli, mówiąc bardziej precyzyjnie, z charakteru rozkładu prawdopodobieństwa odpowiadającego danej sytuacji. Okazuje się, że wiele zupełnie różnych od siebie zjawisk zachodzi według podobnych schematów - na przykład jest w istocie losowaniem bez zwracania lub ze zwracaniem. Omówimy teraz kolejno kilka podstawowych rozkładów, odpowiedzialnych za większość tego typu sytuacji. | Aby umieć odpowiadać na te i podobne pytania, najpierw należy zawsze zdać sobie sprawę z natury rozważanego zjawiska, czyli, mówiąc bardziej precyzyjnie, z charakteru rozkładu prawdopodobieństwa odpowiadającego danej sytuacji. Okazuje się, że wiele zupełnie różnych od siebie zjawisk zachodzi według podobnych schematów - na przykład jest w istocie losowaniem bez zwracania lub ze zwracaniem. Omówimy teraz kolejno kilka podstawowych rozkładów, odpowiedzialnych za większość tego typu sytuacji. | ||
Na początku powtórzymy poznaną już wcześniej (patrz | Na początku powtórzymy poznaną już wcześniej (patrz [[Rachunek prawdopodobieństwa i statystyka/Wykład 6: Rozkłady prawdopodobieństwa i zmienne losowe#przy_6.6|przykład 6.6]]) definicję rozkładu dwumianowego. | ||
===Rozkład dwumianowy=== | ===Rozkład dwumianowy=== | ||
Linia 26: | Linia 26: | ||
<center><math> P(k) = \ | <center><math>P(k) = \dbinom{n}{k} p^kq^{n-k}\ ;\ ; \mbox{ dla } k = 0,1,\dots,n | ||
dla } k = 0,1,\dots,n | |||
</math></center> | </math></center> | ||
Następujący wykres przedstawia rozkład dwumianowy z parametrami <math>n = 12</math> i <math>p = 0.6</math>: | Następujący wykres przedstawia rozkład dwumianowy z parametrami <math>n = 12</math> i <math>p = 0.6</math>: | ||
Linia 46: | Linia 46: | ||
ma rozkład dwumianowy.}} | ma rozkład dwumianowy.}} | ||
{{dowod||| | {{dowod|.|| | ||
Zdarzenie <math>\{S_n = k\}</math> jest sumą rozłącznych zdarzeń polegających na tym, że dokładnie <math>k</math> spośród zmiennych losowych <math>X_1, | Zdarzenie <math>\{S_n = k\}</math> jest sumą rozłącznych zdarzeń polegających na tym, że dokładnie <math>k</math> spośród zmiennych losowych <math>X_1, \dots \, X_n</math> przyjmuje wartość <math>1</math>, a więc pozostałe <math>n-k</math> zmiennych przyjmuje wartość <math>0</math>. Niech <math>A_{i_1, \dots, i_k}</math> będzie jednym z takich zdarzeń, gdzie <math>i_1, \dots, i_k</math> oznaczają numery tych zmiennych, które przyjmują wartość <math>1</math>. Z kolei każde zdarzenie <math>A_{i_1, \dots, i_k}</math> jest iloczynem <math>n</math> zdarzeń postaci <math>\{X_j = \varepsilon_j\}</math>, gdzie <math>\varepsilon_j = 1</math> lub <math>\varepsilon_j = 0</math>, a prawdopodobieństwa tych zdarzeń są równe odpowiednio <math>p</math> i <math>q</math>. Z niezależności zmiennych <math>X_1, \dots \, X_n</math> wynika, że: | ||
<center><math>P(A_{i_1, \dots, i_k} ) = p^kq^{n-k} | <center><math>P(A_{i_1, \dots, i_k} ) = p^kq^{n-k}</math></center> | ||
Ponieważ wskaźniki <math>i_1, \dots, i_k</math> można wybrać na <math>\ | Ponieważ wskaźniki <math>i_1, \dots, i_k</math> można wybrać na <math>\dbinom{n}{k}</math> sposobów, więc: | ||
Linia 61: | Linia 61: | ||
<center><math> = | <center><math>= | ||
\sum_{i_1, \dots, i_k}p^kq^{n-k} = \ | \sum_{i_1, \dots, i_k}p^kq^{n-k} = \dbinom{n}{k}p^kq^{n-k} | ||
</math></center>}} | </math></center>}} | ||
Linia 69: | Linia 69: | ||
Przypuśćmy, że pewna populacja składa się z <math>N</math> elementów. Niech <math>p</math> będzie prawdopodobieństwem tego, że dany element z tej populacji ma pewną własność, powiedzmy własność <math>W</math>. Losujemy ze zwracaniem <math>n</math> elementów i oznaczamy przez <math>X</math> liczbę tych spośród nich, które mają własność <math>W</math>. Widać, że zmienna losowa <math>X</math> ma rozkład dwumianowy.}} | Przypuśćmy, że pewna populacja składa się z <math>N</math> elementów. Niech <math>p</math> będzie prawdopodobieństwem tego, że dany element z tej populacji ma pewną własność, powiedzmy własność <math>W</math>. Losujemy ze zwracaniem <math>n</math> elementów i oznaczamy przez <math>X</math> liczbę tych spośród nich, które mają własność <math>W</math>. Widać, że zmienna losowa <math>X</math> ma rozkład dwumianowy.}} | ||
Przypomnimy teraz wyprowadzone w | Przypomnimy teraz wyprowadzone w [[Rachunek prawdopodobieństwa i statystyka/Ćwiczenia 7: Parametry rozkładów zmiennych losowych#cw_7.2|ćwiczeniu 7.2]] wzory na nadzieję matematyczną i wariancję zmiennej losowej o rozkładzie dwumianowym. Wyrażają się one następującymi wzorami: | ||
<center><math> | <center><math> | ||
{\Bbb E}(X) = np, | {\Bbb E}(X) = np, {\Bbb D}^2(X) = npq | ||
</math></center> | </math></center> | ||
Linia 79: | Linia 79: | ||
W celu wyrobienia sobie intuicji związanej z rozkładem dwumianowym, proponujemy obejrzeć animację: | W celu wyrobienia sobie intuicji związanej z rozkładem dwumianowym, proponujemy obejrzeć animację: | ||
[[File:Rp81-rys.mp4|253x253px|thumb|center]] | |||
===Rozkład wielomianowy=== | ===Rozkład wielomianowy=== | ||
Linia 85: | Linia 85: | ||
Uogólnieniem rozkładu dwumianowego jest rozkład wielomianowy. | Uogólnieniem rozkładu dwumianowego jest rozkład wielomianowy. | ||
Rozkład <math>P</math> nazywamy rozkładem wielomianowym, jeżeli istnieje liczba naturalna <math>n</math> oraz liczby <math>p_i > 0</math>, <math> i = 1.\dots r</math>, <math>r>1</math>, takie, że <math>\sum_{i= 1}^rp_i = 1</math> oraz dla wszystkich układów liczb całkowitych nieujemnych <math>k_1, \dots ,k_r</math>, dla których <math>\sum_{i=1}^r k_i = n</math>, zachodzi równość: | Rozkład <math>P</math> nazywamy rozkładem wielomianowym, jeżeli istnieje liczba naturalna <math>n</math> oraz liczby <math>p_i > 0</math>, <math>i = 1.\dots r</math>, <math>r>1</math>, takie, że <math>\sum_{i= 1}^rp_i = 1</math> oraz dla wszystkich układów liczb całkowitych nieujemnych <math>k_1, \dots ,k_r</math>, dla których <math>\sum_{i=1}^r k_i = n</math>, zachodzi równość: | ||
<center><math> | <center><math> | ||
P(k_1, \dots, k_r) = \frac{n!}{k_1! \cdot \dots \cdot | P(k_1, \dots, k_r) = \frac{n!}{k_1! \cdot \dots \cdot | ||
k_r!}p_1^{k_1} \cdot \dots \cdot p_r^{k_r} | k_r!}p_1^{k_1} \cdot \dots \cdot p_r^{k_r}</math></center> | ||
</math></center> | |||
Linia 109: | Linia 108: | ||
<center><math> | <center> | ||
<math> | |||
P(k) = e^{-\lambda}\,\frac{\lambda^k}{k!}\;\; \mbox{ dla } k = | P(k) = e^{-\lambda}\,\frac{\lambda^k}{k!}\;\; \mbox{ dla } k = | ||
0,1,2,\dots | 0,1,2,\dots | ||
</math></center> | </math> | ||
</center> | |||
Linia 127: | Linia 128: | ||
<center><math>\lim_{n\rightarrow \infty}n p_n = \lambda >0</math></center> | <center> | ||
<math>\lim_{n\rightarrow \infty}n p_n = \lambda >0</math> | |||
</center> | |||
oraz niech <math>k </math> będzie nieujemną liczbą naturalną. Wtedy: | oraz niech <math>k</math> będzie nieujemną liczbą naturalną. Wtedy: | ||
<center><math> \lim_{n\rightarrow \infty} \ | <center><math>\lim_{n\rightarrow \infty}\dbinom{n}{k}p_n^k(1 - p_n)^{n-k} = | ||
e^{-\lambda}\,\frac{\lambda^k}{k!} | e^{-\lambda}\,\frac{\lambda^k}{k!}</math></center> | ||
</math></center> | |||
}} | }} | ||
{{dowod||| | {{dowod|.|| | ||
Oznaczając <math>\lambda_n = np_n</math>, dostajemy równość: | Oznaczając <math>\lambda_n = np_n</math>, dostajemy równość: | ||
<center><math> | <center><math> | ||
\ | \dbinom{n}{k}p_n^k(1-p_n)^{n-k} = | ||
\frac{\lambda_n^k}{k!}\cdot\frac{n(n-1)\cdot | \frac{\lambda_n^k}{k!}\cdot\frac{n(n-1)\cdot | ||
\dots \cdot(n-k+1)}{n^k}\cdot\left(1- \frac{\lambda_n}{n}\right)^n\cdot | \dots \cdot(n-k+1)}{n^k}\cdot\left(1- \frac{\lambda_n}{n}\right)^n\cdot | ||
\left(1-\frac{\lambda_n}{n}\right)^{-k}\!\! | \left(1-\frac{\lambda_n}{n}\right)^{-k}\!\!</math></center> | ||
</math></center> | |||
Linia 155: | Linia 156: | ||
<center><math>1\cdot (1 - \frac{1}{n}) \cdot \dots \cdot (1- \frac{k-1}{n}) | <center><math>1\cdot (1 - \frac{1}{n}) \cdot \dots \cdot (1- \frac{k-1}{n})</math>,</center> | ||
Linia 162: | Linia 163: | ||
<center><math>\frac{\lambda^k}{k!}\;\;\textrm {oraz}\;\; | <center><math>\frac{\lambda^k}{k!}\;\;\textrm {oraz}\;\; | ||
e^{-\lambda} | e^{-\lambda}</math>.</center>}} | ||
Linia 168: | Linia 169: | ||
{| border=1 | {| border=1 align="center" cellpadding="5" cellspacing="0" | ||
|+ <span style="font-variant:small-caps">Rozkład dwumianowy a rozkład Poissona</span> | |+ <span style="font-variant:small-caps">Rozkład dwumianowy a rozkład Poissona</span> | ||
|- | |- | ||
Linia 211: | Linia 212: | ||
| 15 || 0,0000 || 0,0000 || 0,0001 || 0,0002 || 0,0327 || 0,0347 | | 15 || 0,0000 || 0,0000 || 0,0001 || 0,0002 || 0,0327 || 0,0347 | ||
|- | |- | ||
|} | |} | ||
Linia 218: | Linia 218: | ||
<center><math> | <center><math> | ||
{\Bbb E}(X) = \lambda, | {\Bbb E}(X) = \lambda, {\Bbb D}^2 (X) = \lambda</math></center> | ||
</math></center> | |||
Następująca animacja pokazuje, jak zmienia się kształt rozkładu Poissona dla najczęściej spotykanych wartości parametrów: | Następująca animacja pokazuje, jak zmienia się kształt rozkładu Poissona dla najczęściej spotykanych wartości parametrów: | ||
[[File:Rp82-rys.mp4|253x253px|thumb|center]] | |||
===Rozkład hipergeometryczny=== | ===Rozkład hipergeometryczny=== | ||
Linia 230: | Linia 229: | ||
Rozkład <math>P</math> nazywamy hipergeometrycznym, jeżeli istnieją liczby naturalne <math>N</math> i <math>n</math> oraz liczby dodatnie <math>p</math> i <math>q</math> takie, że <math>p+q=1</math> oraz dla każdego <math>k =0,1,2, \dots n</math> zachodzi równość: | Rozkład <math>P</math> nazywamy hipergeometrycznym, jeżeli istnieją liczby naturalne <math>N</math> i <math>n</math> oraz liczby dodatnie <math>p</math> i <math>q</math> takie, że <math>p+q=1</math> oraz dla każdego <math>k =0,1,2, \dots n</math> zachodzi równość: | ||
<center> | |||
<center><math> | <math> | ||
P(k) =\frac{\ | P(k) =\frac{\dbinom{Np}{K}\dbinom{Nq}{n-k}}{\dbinom{N}{k}}</math> | ||
</center> | |||
Mamy tutaj do czynienia z uogólnionym symbolem Newtona (<math>Np</math> nie jest na ogół liczbą naturalną). Symbol ten definiuje się dla <math>x\in {\Bbb R}</math> oraz <math>k\in \mathbb{N}</math> w sposób nastpujący: | Mamy tutaj do czynienia z uogólnionym symbolem Newtona (<math>Np</math> nie jest na ogół liczbą naturalną). Symbol ten definiuje się dla <math>x\in {\Bbb R}</math> oraz <math>k\in \mathbb{N}</math> w sposób nastpujący: | ||
Linia 239: | Linia 238: | ||
<center><math> | <center><math> | ||
\ | \dbinom{x}{k} = \frac{x(x-1) \dots (x-k+1)}{k!}</math>,</center> | ||
</math></center> | |||
Linia 258: | Linia 256: | ||
<center><math> | <center><math> | ||
{\Bbb E}(X) = np, | {\Bbb E}(X) = np, {\Bbb D}^2 (X) = npq\frac{N-n}{N-1}</math></center> | ||
</math></center> | |||
Linia 267: | Linia 264: | ||
W poniższej animacji założono, że losujemy bez zwracania <math>n</math> elementów spośród 50 elementów, przy czym wiadomo, że 20 elementów ma własność <math>A</math>. Animacja pokazuje rozkład liczby wylosowanych elementów mających własność <math>A</math>, w zależności od <math>n</math>. | W poniższej animacji założono, że losujemy bez zwracania <math>n</math> elementów spośród 50 elementów, przy czym wiadomo, że 20 elementów ma własność <math>A</math>. Animacja pokazuje rozkład liczby wylosowanych elementów mających własność <math>A</math>, w zależności od <math>n</math>. | ||
[[File:Rp83-rys.mp4|253x253px|thumb|center]] | |||
==Rozkłady czasu oczekiwania== | ==Rozkłady czasu oczekiwania== | ||
Linia 291: | Linia 288: | ||
Następujący wykres przedstawia rozkład geometryczny o parametrze <math>p = 0.25</math>: | Następujący wykres przedstawia rozkład geometryczny o parametrze <math>p = 0.25</math>: | ||
{{kotwica|rozklad_geometryczny|}} | |||
<center> | <center> | ||
<flash>file=Rp.1.84.swf|width=350|height=350</flash> | <flash>file=Rp.1.84.swf|width=350|height=350</flash> | ||
Linia 297: | Linia 295: | ||
Zauważmy, że jest to rozkład dyskretny skupiony na zbiorze nieskończonym. | Zauważmy, że jest to rozkład dyskretny skupiony na zbiorze nieskończonym. | ||
Rozkład geometryczny jest związany z nieskończonym ciągiem niezależnych prób Bernoulliego. Wykażemy mianowicie, że czas oczekiwania na pierwszy sukces w takim ciągu posiada właśnie rozkład geometryczny. Konkretną sytuację oczekiwanie na pierwszą "szóstkę") omawia | Rozkład geometryczny jest związany z nieskończonym ciągiem niezależnych prób Bernoulliego. Wykażemy mianowicie, że czas oczekiwania na pierwszy sukces w takim ciągu posiada właśnie rozkład geometryczny. Konkretną sytuację oczekiwanie na pierwszą "szóstkę") omawia [[Rachunek prawdopodobieństwa i statystyka/Ćwiczenia 4: Przestrzeń probabilistyczna II#cw_4.2|ćwiczenie 4.2]]. | ||
{{twierdzenie|8.6|tw 8.6| | {{twierdzenie|8.6|tw 8.6| | ||
Niech <math>X_1,X_2,X_3,\dots </math> będą niezależnymi zmiennymi losowymi o takim samym rozkładzie dwupunktowym. Wtedy funkcja: | Niech <math>X_1,X_2,X_3,\dots</math> będą niezależnymi zmiennymi losowymi o takim samym rozkładzie dwupunktowym. Wtedy funkcja: | ||
<center><math>T =\min \{n \ge 1: X_n = 1\} | <center><math>T =\min \{n \ge 1: X_n = 1\}</math>,</center> | ||
nazywana czasem oczekiwania na pierwszy sukces w nieskończonym ciągu prób Bernoulliego, jest zmienną losową o rozkładzie geometrycznym.}} | nazywana czasem oczekiwania na pierwszy sukces w nieskończonym ciągu prób Bernoulliego, jest zmienną losową o rozkładzie geometrycznym.}} | ||
{{dowod||| | {{dowod|.|| | ||
Zauważmy, że zdarzenie <math>\{T = n\}</math> jest takie samo jak zdarzenie: | Zauważmy, że zdarzenie <math>\{T = n\}</math> jest takie samo jak zdarzenie: | ||
<center><math>\{X_1 = 0,\dots,X_{n-1} = 0, X_n = 1\} | <center><math>\{X_1 = 0,\dots,X_{n-1} = 0, X_n = 1\}</math>.</center> | ||
Linia 325: | Linia 323: | ||
<center><math> | <center><math> | ||
P(X_1 = 0)\cdot\dots\cdot P(X_{n-1} = 0)\cdot P(X_n = | P(X_1 = 0)\cdot\dots\cdot P(X_{n-1} = 0)\cdot P(X_n = | ||
1) = q^{n-1}p | 1) = q^{n-1}p</math></center>}} | ||
</math></center>}} | |||
Linia 334: | Linia 331: | ||
{{wzor|brakpam|8.1| | {{wzor|brakpam|8.1| | ||
<math>P(T > m + n|T > n) = P(T > m)\;\; \mbox{ dla wszystkich } m,n \ge | <math>P(T > m + n|T > n) = P(T > m)\;\; \mbox{ dla wszystkich } m,n \ge | ||
1 | 1</math>.}} | ||
Poniższe twierdzenie, a w szczególności implikacja "<math>\Longleftarrow</math>", odpowiada powyższej intuicji. Ponieważ zachodzi nawet równoważność, | Poniższe twierdzenie, a w szczególności implikacja "<math>\Longleftarrow</math>", odpowiada powyższej intuicji. Ponieważ zachodzi nawet równoważność, ([[#brakpam|warunek 8.1]]) może być przyjęty za inną definicję rozkładu geometrycznego. | ||
{{twierdzenie|8.7|tw 8.7| | {{twierdzenie|8.7|tw 8.7| | ||
Linia 343: | Linia 340: | ||
<center><math>T</math> spełnia | <center><math>T</math> spełnia [[#brakpam|warunek 8.1]]<math>\,\Longleftrightarrow,T</math> ma rozkład geometryczny.</center>}} | ||
{{dowod||| | {{dowod|.|| | ||
<math>(\Longrightarrow)</math> Oznaczmy <math>a_n = P(T>n)</math>. Z założenia otrzymujemy: | |||
<center><math>a_{n+1} = P(T> n+1) = | <center><math> | ||
P(T> n+ 1,T> 1) = P(T >n + 1|T > 1)\,P(T>1)</math></center> | a_{n+1} = P(T> n+1) = P(T> n+ 1,T> 1) = P(T >n + 1|T > 1)\,P(T>1) | ||
</math></center> | |||
<center><math>=P(T>n)\,P(T>1) = a_nq | <center><math> | ||
=P(T>n)\,P(T>1) = a_nq</math>,</center> | |||
Linia 359: | Linia 358: | ||
<center><math>a_n = q^{n-1}a_1 = q^n | <center><math>a_n = q^{n-1}a_1 = q^n</math>.</center> | ||
Linia 366: | Linia 365: | ||
<center><math>P(T=n)= P(T>n-1) - P(T>n) = q^{n-1} - | <center><math>P(T=n)= P(T>n-1) - P(T>n) = q^{n-1} - | ||
q^n = q^{n-1}p | q^n = q^{n-1}p</math>,</center> | ||
gdzie <math>p = 1 -q</math>. | gdzie <math>p = 1 -q</math>. | ||
<math>(\Longleftarrow)</math> Obliczmy lewą stronę wzoru [[#brakpam|8.1]]: | |||
<center><math> | <center><math> | ||
P(T>m+n|T>n) = \frac{P(T>m+n,T>n)}{P(T>n)}= \frac{P(T>m+n)}{P(T>n)}= </math></center> | P(T>m+n|T>n) = \frac{P(T>m+n,T>n)}{P(T>n)}= \frac{P(T>m+n)}{P(T>n)}=</math></center> | ||
Linia 381: | Linia 380: | ||
\frac{\sum_{k>m+n}P(T=k)}{\sum_{k>n}P(T=k)} = | \frac{\sum_{k>m+n}P(T=k)}{\sum_{k>n}P(T=k)} = | ||
\frac{\sum_{k>m+n}q^{k-1}p}{\sum_{k>n}q^{k-1}p} = | \frac{\sum_{k>m+n}q^{k-1}p}{\sum_{k>n}q^{k-1}p} = | ||
\frac{\frac{q^{n+m}p}{1-q}}{\frac{q^np}{1-q}} = q^m | \frac{\frac{q^{n+m}p}{1-q}}{\frac{q^np}{1-q}} = q^m</math></center> | ||
</math></center> | |||
Jak łatwo sprawdzić, również <math>P(T > m) = q^m</math>.}} | Jak łatwo sprawdzić, również <math>P(T > m) = q^m</math>. | ||
}} | |||
Nadzieja matematyczna oraz wariancja w rozkładzie geometrycznym wyrażają się wzorami: | Nadzieja matematyczna oraz wariancja w rozkładzie geometrycznym wyrażają się wzorami: | ||
Linia 391: | Linia 390: | ||
<center><math> | <center><math> | ||
{\Bbb E}(X) = \frac{1}{p}, | {\Bbb E}(X) = \frac{1}{p}, {\Bbb D}^2 (X) = \frac{1-p}{p^2}</math></center> | ||
</math></center> | |||
Poniższa animacja pokazuje kształt rozkładu geometrycznego w zależności od parametru <math>p</math>. | Poniższa animacja pokazuje kształt rozkładu geometrycznego w zależności od parametru <math>p</math>. | ||
[[ | [[File:Rp84-rys.mp4|253x253px|thumb|center]] | ||
===Rozkład Pascala=== | ===Rozkład Pascala=== | ||
Linia 405: | Linia 403: | ||
<center><math> | <center><math> | ||
P(r+k) = \ | P(r+k) = \dbinom{r+k-1}{r-1}p^r(1-p)^k\;\; \mbox{ dla } k = 0,1,2,\dots | ||
</math></center> | </math></center> | ||
Linia 427: | Linia 425: | ||
<center><math> \ | <center><math>\text{ oraz } X_{k_i} =1 \mbox{ dla } i =1,\dots,r\}</math></center> | ||
</math></center> | |||
Linia 435: | Linia 432: | ||
Inaczej: czas oczekiwania na pierwszych <math>r</math> sukcesów w nieskończonym schemacie Bernoulliego ma ujemny rozkład dwumianowy.}} | Inaczej: czas oczekiwania na pierwszych <math>r</math> sukcesów w nieskończonym schemacie Bernoulliego ma ujemny rozkład dwumianowy.}} | ||
{{dowod||| | {{dowod|.|| | ||
Dowód jest bardzo podobny do analogicznego twierdzenia o rozkładzie geometrycznym ( | Dowód jest bardzo podobny do analogicznego twierdzenia o rozkładzie geometrycznym ([[#tw_8.6|twierdzenie 8.6]]). | ||
}} | |||
Można także udowodnić następujące twierdzenie, które jeszcze inaczej pozwala spojrzeć na problem czasu oczekiwania: | Można także udowodnić następujące twierdzenie, które jeszcze inaczej pozwala spojrzeć na problem czasu oczekiwania: | ||
Linia 447: | Linia 445: | ||
<center><math> | <center><math> | ||
{\Bbb E}(X) = \frac{r}{p}, | {\Bbb E}(X) = \frac{r}{p}, {\Bbb D}^2 (X) = \frac{r(1-p)}{p^2}</math></center> | ||
</math></center> | |||
===Rozkład wykładniczy=== | ===Rozkład wykładniczy=== | ||
Linia 459: | Linia 455: | ||
0 & \mbox{ dla } x<0\\ | 0 & \mbox{ dla } x<0\\ | ||
\lambda e^{-\lambda x} & \mbox{ dla } x \ge 0, | \lambda e^{-\lambda x} & \mbox{ dla } x \ge 0, | ||
\end{array} \right. </math></center> | \end{array} \right.</math></center> | ||
Linia 468: | Linia 464: | ||
<flash>file=Rp.1.86.swf|width=350|height=350</flash> | <flash>file=Rp.1.86.swf|width=350|height=350</flash> | ||
</center> | </center> | ||
Wykres ten oraz wykres rozkładu geometrycznego | Wykres ten oraz [[#rozklad_geometryczny|wykres rozkładu geometrycznego]] sugerują, że między rozkładem geometrycznym i wykładniczym mogą istnieć pewne związki. Tak rzeczywiście jest - będzie to uzasadnione poniżej. | ||
Jak łatwo sprawdzić, dystrybuanta tego rozkładu wyraża się wzorem: | Jak łatwo sprawdzić, dystrybuanta tego rozkładu wyraża się wzorem: | ||
Linia 477: | Linia 475: | ||
0 & \mbox{ dla } x<0\\ | 0 & \mbox{ dla } x<0\\ | ||
1 - e^{-\lambda x} & \mbox{ dla } x \ge 0. | 1 - e^{-\lambda x} & \mbox{ dla } x \ge 0. | ||
\end{array} \right. </math></center> | \end{array} \right.</math></center> | ||
Nadzieja matematyczna oraz wariancja w rozkładzie wykładniczym wyrażają się wzorami: | Nadzieja matematyczna oraz wariancja w rozkładzie wykładniczym wyrażają się wzorami: | ||
<center><math> | <center><math> | ||
{\Bbb E}(X) = \frac{1}{\lambda}, | {\Bbb E}(X) = \frac{1}{\lambda}, {\Bbb D}^2 (X) = | ||
\frac{1}{\lambda^2} | \frac{1}{\lambda^2}</math></center> | ||
</math></center> | |||
Następująca animacja pokazuje, jak zmienia się gęstość rozkładu wykładniczego w zależności od parametru <math>\lambda</math>: | Następująca animacja pokazuje, jak zmienia się gęstość rozkładu wykładniczego w zależności od parametru <math>\lambda</math>: | ||
[[ | [[File:Rp85-rys.mp4|253x253px|thumb|center]] | ||
Spróbujemy teraz uzasadnić, że rozkład wykładniczy jest ciągłym odpowiednikiem rozkładu geometrycznego. Mówiąc niezbyt ściśle, najpierw pokażemy, że czas oczekiwania na pierwszy sukces w nieskończonym ciągu niezależnych prób Bernoulliego ma w przybliżeniu rozkład wykładniczy o parametrze <math>\lambda</math>, o ile czas pomiędzy kolejnymi próbami jest bardzo mały, a prawdopodobieństwo sukcesu w pojedynczej próbie jest małe i wprost proporcjonalne do tego czasu, przy czym parametr <math>\lambda</math> jest współczynnikiem tej proporcjonalności. | Spróbujemy teraz uzasadnić, że rozkład wykładniczy jest ciągłym odpowiednikiem rozkładu geometrycznego. Mówiąc niezbyt ściśle, najpierw pokażemy, że czas oczekiwania na pierwszy sukces w nieskończonym ciągu niezależnych prób Bernoulliego ma w przybliżeniu rozkład wykładniczy o parametrze <math>\lambda</math>, o ile czas pomiędzy kolejnymi próbami jest bardzo mały, a prawdopodobieństwo sukcesu w pojedynczej próbie jest małe i wprost proporcjonalne do tego czasu, przy czym parametr <math>\lambda</math> jest współczynnikiem tej proporcjonalności. | ||
Linia 499: | Linia 497: | ||
<center><math>p = | <center><math>p = | ||
p_\delta = \lambda \delta\;\; \ | p_\delta = \lambda \delta\;\; \text{dla każdego} \;\delta >0</math>.</center> | ||
Linia 506: | Linia 504: | ||
<center><math>T = | <center><math>T = | ||
\delta \min\{n \ge 1: X_n = 1\} | \delta \min\{n \ge 1: X_n = 1\}</math>.</center> | ||
Linia 517: | Linia 515: | ||
<center><math> | <center><math> | ||
F_T(t) \longrightarrow F(t), \;\; \mbox{ gdy }\; | F_T(t) \longrightarrow F(t), \;\; \mbox{ gdy }\; | ||
\delta\longrightarrow 0 | \delta\longrightarrow 0</math></center>}} | ||
{{dowod||| | {{dowod|.|| | ||
Dla <math>t\le 0</math> sytuacja jest trywialna. Niech zatem <math>t > 0</math>. Zauważając, że zmienna losowa <math> | Dla <math>t\le 0</math> sytuacja jest trywialna. Niech zatem <math>t > 0</math>. Zauważając, że zmienna losowa <math>T\over \delta</math> ma rozkład geometryczny (patrz [[#tw_8.6|twierdzenie 8.6]]) i oznaczając część całkowitą liczby <math>t\over \delta</math> przez <math>n</math>, mamy kolejno: | ||
Linia 533: | Linia 531: | ||
=1 - (1 - p)^n = 1 - (1 - | =1 - (1 - p)^n = 1 - (1 - | ||
\frac{\lambda}{\delta^{-1}})^{\delta ^{-1}t | \frac{\lambda}{\delta^{-1}})^{\delta ^{-1}t | ||
-r_\delta} \longrightarrow 1 - e^{-\lambda t} = F(t) | -r_\delta} \longrightarrow 1 - e^{-\lambda t} = F(t)</math>,</center> | ||
</math></center> | |||
przy <math>\delta \rightarrow 0</math>, gdyż <math>0 \le r_\delta = \frac{t}{\delta} - n < 1</math>.}} | przy <math>\delta \rightarrow 0</math>, gdyż <math>0 \le r_\delta = \frac{t}{\delta} - n < 1</math>. | ||
}} | |||
Można też pokazać (dowody pomijamy) odpowiedniki | Można też pokazać (dowody pomijamy) odpowiedniki [[#tw_8.7|twierdzenia 8.7]] i [[#tw_8.9|twierdzenia 8.9]] dla przypadku ciągłego. | ||
{{twierdzenie|8.11|tw 8.11| | {{twierdzenie|8.11|tw 8.11| | ||
Linia 545: | Linia 544: | ||
<center><math> | <center><math> | ||
P(T > t + s|T > s) = P(T > t)\; \mbox{ dla wszystkich } s,t > 0 | P(T > t + s|T > s) = P(T > t)\; \mbox{ dla wszystkich } s,t > 0</math>,</center> | ||
</math></center> | |||
Linia 552: | Linia 550: | ||
{{uwaga|8.12|uw 8.12| | {{uwaga|8.12|uw 8.12| | ||
Zachodzi także twierdzenie odwrotne do | Zachodzi także twierdzenie odwrotne do [[#tw_8.11|twierdzenia 8.11]]. | ||
}} | |||
{{twierdzenie|8.13|tw 8.13| | {{twierdzenie|8.13|tw 8.13| | ||
Linia 562: | Linia 561: | ||
\frac{\lambda(\lambda x)^{n-1}}{(n-1)!} e^{-\lambda x} & \mbox{ dla } x>0\\ | \frac{\lambda(\lambda x)^{n-1}}{(n-1)!} e^{-\lambda x} & \mbox{ dla } x>0\\ | ||
0 & \mbox{ dla } x \le 0. | 0 & \mbox{ dla } x \le 0. | ||
\end{array} \right. | \end{array} \right.</math></center> | ||
</math></center> | |||
Rozkład ten nosi nazwę rozkładu Erlanga.}} | Rozkład ten nosi nazwę rozkładu Erlanga. | ||
}} | |||
===Proces Poissona=== | ===Proces Poissona=== | ||
Na zakończenie niniejszego wykładu sformułujemy twierdzenie, które pokazuje głęboki związek między rozkładem wykładniczym i rozkładem Poissona. Zdefiniujemy mianowicie tak zwany proces Poissona, czyli dla każdego dodatniego <math>t</math> określimy zmienną losową <math>N_t</math> mającą rozkład Poissona o parametrze <math>\lambda t</math>. Mówiąc (na razie) nieprecyzyjnie, zmienna <math>N_t</math> oznacza liczbę sukcesów w ciągu niezależnych prób Bernoulliego, o ile próby te mogą być powtarzane nieskończenie często, zaś prawdopodobieństwo pojawienia się sukcesu w bardzo krótkim odcinku czasu <math>\Delta t</math> wynosi w przybliżeniu <math>\lambda t</math> - mamy więc sytuację opisaną w | Na zakończenie niniejszego wykładu sformułujemy twierdzenie, które pokazuje głęboki związek między rozkładem wykładniczym i rozkładem Poissona. Zdefiniujemy mianowicie tak zwany proces Poissona, czyli dla każdego dodatniego <math>t</math> określimy zmienną losową <math>N_t</math> mającą rozkład Poissona o parametrze <math>\lambda t</math>. Mówiąc (na razie) nieprecyzyjnie, zmienna <math>N_t</math> oznacza liczbę sukcesów w ciągu niezależnych prób Bernoulliego, o ile próby te mogą być powtarzane nieskończenie często, zaś prawdopodobieństwo pojawienia się sukcesu w bardzo krótkim odcinku czasu <math>\Delta t</math> wynosi w przybliżeniu <math>\lambda t</math> - mamy więc sytuację opisaną w [[#tw_8.10|twierdzeniu 8.10]] i w poprzedzającym go komentarzu. W takim razie, czas oczekiwania na pierwszy sukces ma rozkład wykładniczy o parametrze <math>\lambda</math>, a czas oczekiwania na <math>n</math> sukcesów ma, zgodnie z [[#tw_8.13|twierdzeniem 8.13]], rozkład Erlanga. Na tej podstawie nietrudno jest już określić rozkład zmiennej <math>N_t</math>. | ||
{{twierdzenie|8.14|tw 8.14| | {{twierdzenie|8.14|tw 8.14| | ||
Niech <math>T_1,T_2, T_3,\dots </math> będą niezależnymi zmiennymi losowymi o takim samym rozkładzie wykładniczym z parametrem <math>\lambda</math>. Niech <math>S_n =T_1+\dots+T_n</math> oraz niech <math>S_0 = 0</math>. Wtedy zmienna losowa <math>N_t</math>, zdefiniowana wzorem: | Niech <math>T_1,T_2, T_3,\dots</math> będą niezależnymi zmiennymi losowymi o takim samym rozkładzie wykładniczym z parametrem <math>\lambda</math>. Niech <math>S_n =T_1+\dots+T_n</math> oraz niech <math>S_0 = 0</math>. Wtedy zmienna losowa <math>N_t</math>, zdefiniowana wzorem: | ||
<center><math> | <center><math> | ||
N_t := \max \{n: S_n \le t\} | N_t := \max \{n: S_n \le t\}</math>,</center> | ||
</math></center> | |||
gdzie <math>t> 0</math> jest ustaloną liczbą, ma rozkład Poissona o parametrze <math>\lambda t | gdzie <math>t> 0</math> jest ustaloną liczbą, ma rozkład Poissona o parametrze <math>\lambda t</math>.}} | ||
{{dowod||| | {{dowod|.|| | ||
Zauważmy, że zdarzenie <math>\{N_t = k\}</math> jest równoważne zdarzeniu: | Zauważmy, że zdarzenie <math>\{N_t = k\}</math> jest równoważne zdarzeniu: | ||
<center><math>\{S_k \le t\} \setminus | <center><math>\{S_k \le t\} \setminus | ||
\{S_{k+1} \le t \} | \{S_{k+1} \le t \}</math>.</center> | ||
Linia 595: | Linia 593: | ||
<center><math> | <center><math> | ||
P(N_t = k) = F_k(t) - F_{k+1}(t) | P(N_t = k) = F_k(t) - F_{k+1}(t)</math>,</center> | ||
</math></center> | |||
gdzie <math>F_k</math> oznacza dystrybuantę zmiennej losowej <math>S_k</math>. Z | gdzie <math>F_k</math> oznacza dystrybuantę zmiennej losowej <math>S_k</math>. Z [[#tw_8.13|twierdzenia 8.13]] wynika, że <math>S_k</math> na rozkład Erlanga, tak więc: | ||
<center><math> | <center><math> | ||
F_k(t) = \int_0^t \frac{\lambda(\lambda x)^{k-1}}{(k-1)!} | F_k(t) = \int_0^t \frac{\lambda(\lambda x)^{k-1}}{(k-1)!} | ||
e^{-\lambda x}\, dx \;\; \mbox{ dla } t >0 | e^{-\lambda x}\, dx \;\; \mbox{ dla } t >0</math></center> | ||
</math></center> | |||
Indukcyjnie można pokazać, że: | Indukcyjnie można pokazać, że: | ||
Linia 612: | Linia 608: | ||
<center><math> | <center><math> | ||
F_k(t) = 1 - e^{-\lambda t} \left(1 + \frac{\lambda t}{1!} + | F_k(t) = 1 - e^{-\lambda t} \left(1 + \frac{\lambda t}{1!} + | ||
\dots + \frac{(\lambda t)^{k-1}}{(k-1)!} \right) | \dots + \frac{(\lambda t)^{k-1}}{(k-1)!} \right)</math>,</center> | ||
</math></center> | |||
Linia 619: | Linia 614: | ||
<center><math> | <center><math>P(N_t = k) = \frac{(\lambda | ||
t)^k}{k!}e^{-\lambda t} | t)^k}{k!}e^{-\lambda t}</math>.</center>}} |
Aktualna wersja na dzień 23:18, 11 wrz 2023
Omówimy kilka najczęściej spotykanych w zastosowaniach rozkładów dyskretnych i ciągłych, charakteryzujących często zmienne losowe związane ze zliczaniem oraz czasem oczekiwania na szczególne zdarzenia. Jednak najważniejszy rozkład, tak zwany rozkład normalny, zostanie omówiony w następnym rozdziale.
W poprzednich wykładach "uprawialiśmy" dość ogólną teorię rachunku prawdopodobieństwa, dlatego teraz zajmiemy się aspektem bardziej praktycznym i omówimy kilka podstawowych rozkładów oraz wskażemy na niektóre typowe sytuacje, w których rozkłady te występują. Pragniemy jednak podkreślić, iż rozważane tutaj rozkłady nie wyczerpują wszystkich ważnych, występujących w literaturze przedmiotu rozkładów prawdopodobieństwa.
Rozkłady związane ze zliczaniem
- Ile eksperymentów zakończy się sukcesem?
- Ile jest zdarzeń sprzyjających wylosowaniu "naszych" numerów w grze liczbowej?
- Ile zgłoszeń napływa średnio w ciągu godziny do pogotowia ratunkowego w godzinach nocnych?
- Ile wypadków śmiertelnych ma miejsce podczas kąpieli w morzu?
Aby umieć odpowiadać na te i podobne pytania, najpierw należy zawsze zdać sobie sprawę z natury rozważanego zjawiska, czyli, mówiąc bardziej precyzyjnie, z charakteru rozkładu prawdopodobieństwa odpowiadającego danej sytuacji. Okazuje się, że wiele zupełnie różnych od siebie zjawisk zachodzi według podobnych schematów - na przykład jest w istocie losowaniem bez zwracania lub ze zwracaniem. Omówimy teraz kolejno kilka podstawowych rozkładów, odpowiedzialnych za większość tego typu sytuacji.
Na początku powtórzymy poznaną już wcześniej (patrz przykład 6.6) definicję rozkładu dwumianowego.
Rozkład dwumianowy
Rozkład nazywamy rozkładem dwumianowym, jeżeli istnieją liczby oraz i takie, że , oraz zachodzi równość:
Następujący wykres przedstawia rozkład dwumianowy z parametrami i :
<flash>file=Rp.1.81.swf|width=350|height=350</flash>
Wzór dwumienny Newtona pozwala stwierdzić, że , a więc powyższa równość rzeczywiście określa rozkład w sposób jednoznaczny (jest to oczywiście rozkład dyskretny). Poprzednio mieliśmy już okazję poznać różne sytuacje, w których on występuje - następujące twierdzenie formalizuje nasze dotychczasowe rozważania
Twierdzenie 8.1
Niech będą niezależnymi zmiennymi losowymi o takim samym rozkładzie dwupunktowym. Wtedy suma:
Dowód .
Zdarzenie jest sumą rozłącznych zdarzeń polegających na tym, że dokładnie spośród zmiennych losowych przyjmuje wartość , a więc pozostałe zmiennych przyjmuje wartość . Niech będzie jednym z takich zdarzeń, gdzie oznaczają numery tych zmiennych, które przyjmują wartość . Z kolei każde zdarzenie jest iloczynem zdarzeń postaci , gdzie lub , a prawdopodobieństwa tych zdarzeń są równe odpowiednio i . Z niezależności zmiennych wynika, że:
Ponieważ wskaźniki można wybrać na sposobów, więc:

Przykład 8.2 [Losowanie ze zwracaniem]
Przypomnimy teraz wyprowadzone w ćwiczeniu 7.2 wzory na nadzieję matematyczną i wariancję zmiennej losowej o rozkładzie dwumianowym. Wyrażają się one następującymi wzorami:
W celu wyrobienia sobie intuicji związanej z rozkładem dwumianowym, proponujemy obejrzeć animację:
Rozkład wielomianowy
Uogólnieniem rozkładu dwumianowego jest rozkład wielomianowy.
Rozkład nazywamy rozkładem wielomianowym, jeżeli istnieje liczba naturalna oraz liczby , , , takie, że oraz dla wszystkich układów liczb całkowitych nieujemnych , dla których , zachodzi równość:
Widzimy oczywiście, że gdy , rozkład wielomianowy jest w istocie równoważny rozkładowi dwumianowemu (kładziemy i ).
Wyobraźmy sobie, że pewien eksperyment powtarzamy razy, przy czym spełnione są następujące warunki:
- każdy eksperyment może dać dokładnie różnych wyników, powiedzmy "",... , "",
- prawdopodobieństwa poszczególnych wyników są w każdym eksperymencie zawsze takie same - oznaczamy je przez , ,
- eksperymenty są niezależne od siebie.
Niech oznaczają odpowiednio liczbę eksperymentów zakończonych wynikiem "", ... , "". Wtedy łatwo stwierdzić, stosując indukcję, że wektor losowy ma rozkład wielomianowy.
Rozkład Poissona

Zobacz biografię
Rozkład
jest rozkładem Poissona, jeżeli istnieje taka liczba
, że:
Poniższy wykres przedstawia rozkład Poissona o parametrze .
<flash>file=Rp.1.82.swf|width=350|height=350</flash>
Okazuje się, że wiele zjawisk podlega właśnie rozkładowi Poissona. Kolejne twierdzenie mówi o tym, że jest on w pewnym sensie granicą rozkładów dwumianowych. W szczególności, gdy mamy do czynienia z dużą liczbą niezależnych prób Bernoulliego, z jednakowym, małym prawdopodobieństwem sukcesu każda, to liczba sukcesów ma niemal dokładnie rozkład Poissona z parametrem . Zgodność taka została zaobserwowana w wielu konkretnych sytuacjach praktycznych. Co więcej, istnieją dość dokładne oszacowania błędu, jaki popełniamy przybliżając rozkład dwumianowy rozkładem Poissona. W tym miejscu poprzestaniemy jedynie na wykazaniu prostego twierdzenia wskazującego na możliwość takiego przybliżania oraz na podaniu danych liczbowych ilustrujących jego dokładność.
Twierdzenie 8.3
Niech liczby tworzą taki ciąg, że:
oraz niech będzie nieujemną liczbą naturalną. Wtedy:
Dowód .
Oznaczając , dostajemy równość:
Ponieważ jest ustalone, zatem ostatni czynnik zmierza do 1. Drugi czynnik jest równy:
a więc też zmierza do 1. Istotne są natomiast czynniki pierwszy oraz trzeci, które zmierzają odpowiednio do:

Poniższa tabela porównuje rozkład dwumianowy z rozkładem Poissona.
, | , | , |
| |||
rozkład | rozkład | rozkład | rozkład | rozkład | rozkład | |
dwum. | Poissona | dwum. | Poissona | dwum. | Poissona | |
0 | 0,3660 | 0,3679 | 0,0052 | 0,0067 | 0,0000 | 0,0000 |
1 | 0,3697 | 0,3679 | 0,0286 | 0,0337 | 0,0003 | 0,0005 |
2 | 0,1849 | 0,1839 | 0,0779 | 0,0842 | 0,0016 | 0,0023 |
3 | 0,0610 | 0,0613 | 0,1386 | 0,1404 | 0,0059 | 0,0076 |
4 | 0,0149 | 0,0153 | 0,1809 | 0,1755 | 0,0159 | 0,0189 |
5 | 0,0029 | 0,0031 | 0,1849 | 0,1755 | 0,0339 | 0,0378 |
6 | 0,0005 | 0,0005 | 0,1541 | 0,1462 | 0,0596 | 0,0631 |
7 | 0,0001 | 0,0001 | 0,1076 | 0,1044 | 0,0889 | 0,0901 |
8 | 0,0000 | 0,0000 | 0,0643 | 0,0653 | 0,1148 | 0,1126 |
9 | 0,0000 | 0,0000 | 0,0333 | 0,0363 | 0,1304 | 0,1251 |
10 | 0,0000 | 0,0000 | 0,0152 | 0,0181 | 0,1319 | 0,1251 |
11 | 0,0000 | 0,0000 | 0,0061 | 0,0082 | 0,1199 | 0,1137 |
12 | 0,0000 | 0,0000 | 0,0022 | 0,0034 | 0,0988 | 0,0948 |
13 | 0,0000 | 0,0000 | 0,0007 | 0,0013 | 0,0743 | 0,0729 |
14 | 0,0000 | 0,0000 | 0,0002 | 0,0005 | 0,0513 | 0,0521 |
15 | 0,0000 | 0,0000 | 0,0001 | 0,0002 | 0,0327 | 0,0347 |
Nadzieja matematyczna oraz wariancja w rozkładzie Poissona wyrażają się wzorami:
Następująca animacja pokazuje, jak zmienia się kształt rozkładu Poissona dla najczęściej spotykanych wartości parametrów:
Rozkład hipergeometryczny
Rozkład nazywamy hipergeometrycznym, jeżeli istnieją liczby naturalne i oraz liczby dodatnie i takie, że oraz dla każdego zachodzi równość:
Mamy tutaj do czynienia z uogólnionym symbolem Newtona ( nie jest na ogół liczbą naturalną). Symbol ten definiuje się dla oraz w sposób nastpujący:
co oczywiście jest zgodne ze standardową definicją, gdy jest liczbą naturalną.
Poniższy wykres przedstawia rozkład hipergeometryczny o parametrach , oraz .
<flash>file=Rp.1.83.swf|width=350|height=350</flash>
Przykład 8.4 [Losowanie bez zwracania]
Nadzieja matematyczna oraz wariancja w rozkładzie hipergeometrycznym wyrażają się wzorami:
W poniższej animacji założono, że losujemy bez zwracania elementów spośród 50 elementów, przy czym wiadomo, że 20 elementów ma własność . Animacja pokazuje rozkład liczby wylosowanych elementów mających własność , w zależności od .
Rozkłady czasu oczekiwania
- Jak długo trzeba rzucać kostką, aby wypadła "szóstka"?
- Jak długi jest czas oczekiwania na kolejne zgłoszenie do centrali telefonicznej?
- Jak często dochodzi do wypadków drogowych?
Podobnie jak w poprzednim punkcie, omówimy tutaj kilka typowych rozkładów prawdopodobieństwa, które na ogół występują, gdy rozważamy zmienną losową będącą czasem czekania na określone zdarzenie.
Rozkład geometryczny
Rozkład jest rozkładem geometrycznym, jeżeli istnieją liczby i takie, że , , oraz zachodzi równość:
Następujący wykres przedstawia rozkład geometryczny o parametrze :
<flash>file=Rp.1.84.swf|width=350|height=350</flash>
Zauważmy, że jest to rozkład dyskretny skupiony na zbiorze nieskończonym.
Rozkład geometryczny jest związany z nieskończonym ciągiem niezależnych prób Bernoulliego. Wykażemy mianowicie, że czas oczekiwania na pierwszy sukces w takim ciągu posiada właśnie rozkład geometryczny. Konkretną sytuację oczekiwanie na pierwszą "szóstkę") omawia ćwiczenie 4.2.
Twierdzenie 8.6
Niech będą niezależnymi zmiennymi losowymi o takim samym rozkładzie dwupunktowym. Wtedy funkcja:
Dowód .
Zauważmy, że zdarzenie jest takie samo jak zdarzenie:
Z niezależności zmiennych losowych otrzymujemy:

Pokażemy jeszcze inną sytuację, w której pojawia się rozkład geometryczny -będzie to, w pewnym sensie, uogólnienie poprzedniego twierdzenia. Mianowicie, intuicja podpowiada, że czas oczekiwania na pierwszy sukces w nieskończonym ciągu niezależnych prób Bernoulliego ma następującą własność, zwaną brakiem pamięci:
. (8.1)
Poniższe twierdzenie, a w szczególności implikacja "", odpowiada powyższej intuicji. Ponieważ zachodzi nawet równoważność, (warunek 8.1) może być przyjęty za inną definicję rozkładu geometrycznego.
Twierdzenie 8.7
Niech będzie zmienną losową przyjmującą jedynie wartości naturalne taką, że . Wtedy:
Dowód .
Oznaczmy . Z założenia otrzymujemy:
gdzie . Tak więc liczby tworzą ciąg geometryczny i stąd mamy:
Następnie obliczamy:
gdzie .
Obliczmy lewą stronę wzoru 8.1:
Jak łatwo sprawdzić, również .

Nadzieja matematyczna oraz wariancja w rozkładzie geometrycznym wyrażają się wzorami:
Poniższa animacja pokazuje kształt rozkładu geometrycznego w zależności od parametru .
Rozkład Pascala
Rozkład nazywamy ujemnym rozkładem dwumianowym (lub rozkładem Pascala), jeżeli istnieją liczba naturalna oraz liczba rzeczywista takie, że:
Poniższy wykres przedstawia ujemny rozkład dwumianowy o parametrach i .
<flash>file=Rp.1.85.swf|width=350|height=350</flash>
Zauważmy, że rozkład geometryczny jest szczególnym przypadkiem ujemnego rozkładu dwumianowego.
Twierdzenie 8.8
Niech będzie ciągiem niezależnych prób Bernoulliego o takim samym prawdopodobieństwie sukcesu w każdej próbie. Określmy:
Wtedy jest zmienną losową o ujemnym rozkładzie dwumianowym.
Dowód .
Dowód jest bardzo podobny do analogicznego twierdzenia o rozkładzie geometrycznym (twierdzenie 8.6).

Można także udowodnić następujące twierdzenie, które jeszcze inaczej pozwala spojrzeć na problem czasu oczekiwania:
Twierdzenie 8.9
Nadzieja matematyczna oraz wariancja w rozkładzie Pascala wyrażają się wzorami:
Rozkład wykładniczy
Rozkład nazywamy rozkładem wykładniczym, jeżeli istnieje taka liczba , że funkcja , określona wzorem:
jest gęstością tego rozkładu.
Poniższy wykres przedstawia rozkład wykładniczy o parametrze .
<flash>file=Rp.1.86.swf|width=350|height=350</flash>
Wykres ten oraz wykres rozkładu geometrycznego sugerują, że między rozkładem geometrycznym i wykładniczym mogą istnieć pewne związki. Tak rzeczywiście jest - będzie to uzasadnione poniżej.
Jak łatwo sprawdzić, dystrybuanta tego rozkładu wyraża się wzorem:
Nadzieja matematyczna oraz wariancja w rozkładzie wykładniczym wyrażają się wzorami:
Następująca animacja pokazuje, jak zmienia się gęstość rozkładu wykładniczego w zależności od parametru :
Spróbujemy teraz uzasadnić, że rozkład wykładniczy jest ciągłym odpowiednikiem rozkładu geometrycznego. Mówiąc niezbyt ściśle, najpierw pokażemy, że czas oczekiwania na pierwszy sukces w nieskończonym ciągu niezależnych prób Bernoulliego ma w przybliżeniu rozkład wykładniczy o parametrze , o ile czas pomiędzy kolejnymi próbami jest bardzo mały, a prawdopodobieństwo sukcesu w pojedynczej próbie jest małe i wprost proporcjonalne do tego czasu, przy czym parametr jest współczynnikiem tej proporcjonalności.
Niech będzie ustalone. Oznaczamy:
Niech będzie ciągiem niezależnych zmiennych losowych, z których każda ma rozkład dwupunktowy o parametrze oraz niech:
Oznaczmy przez dystrybuantę rozkładu wykładniczego o parametrze .
Twierdzenie 8.10
Dla każdego :
Dowód .
Dla sytuacja jest trywialna. Niech zatem . Zauważając, że zmienna losowa ma rozkład geometryczny (patrz twierdzenie 8.6) i oznaczając część całkowitą liczby przez , mamy kolejno:
przy , gdyż .

Można też pokazać (dowody pomijamy) odpowiedniki twierdzenia 8.7 i twierdzenia 8.9 dla przypadku ciągłego.
Twierdzenie 8.11
Niech będzie nieujemną zmienną losową, spełniającą warunek:
Zachodzi także twierdzenie odwrotne do twierdzenia 8.11.
Twierdzenie 8.13
Niech będą niezależnymi zmiennymi losowymi o takim samym rozkładzie wykładniczym z parametrem oraz niech . Wtedy ma rozkład o gęstości , zadanej wzorem:
Rozkład ten nosi nazwę rozkładu Erlanga.
Proces Poissona
Na zakończenie niniejszego wykładu sformułujemy twierdzenie, które pokazuje głęboki związek między rozkładem wykładniczym i rozkładem Poissona. Zdefiniujemy mianowicie tak zwany proces Poissona, czyli dla każdego dodatniego określimy zmienną losową mającą rozkład Poissona o parametrze . Mówiąc (na razie) nieprecyzyjnie, zmienna oznacza liczbę sukcesów w ciągu niezależnych prób Bernoulliego, o ile próby te mogą być powtarzane nieskończenie często, zaś prawdopodobieństwo pojawienia się sukcesu w bardzo krótkim odcinku czasu wynosi w przybliżeniu - mamy więc sytuację opisaną w twierdzeniu 8.10 i w poprzedzającym go komentarzu. W takim razie, czas oczekiwania na pierwszy sukces ma rozkład wykładniczy o parametrze , a czas oczekiwania na sukcesów ma, zgodnie z twierdzeniem 8.13, rozkład Erlanga. Na tej podstawie nietrudno jest już określić rozkład zmiennej .
Twierdzenie 8.14
Niech będą niezależnymi zmiennymi losowymi o takim samym rozkładzie wykładniczym z parametrem . Niech oraz niech . Wtedy zmienna losowa , zdefiniowana wzorem:
Dowód .
Zauważmy, że zdarzenie jest równoważne zdarzeniu:
Tak więc:
gdzie oznacza dystrybuantę zmiennej losowej . Z twierdzenia 8.13 wynika, że na rozkład Erlanga, tak więc:
Indukcyjnie można pokazać, że:
a stąd:
