Rachunek prawdopodobieństwa i statystyka/Wykład 8: Przegląd ważniejszych rozkładów

From Studia Informatyczne

Omówimy kilka najczęściej spotykanych w zastosowaniach rozkładów dyskretnych i ciągłych, charakteryzujących często zmienne losowe związane ze zliczaniem oraz czasem oczekiwania na szczególne zdarzenia. Jednak najważniejszy rozkład, tak zwany rozkład normalny, zostanie omówiony w następnym rozdziale.

W poprzednich wykładach "uprawialiśmy" dość ogólną teorię rachunku prawdopodobieństwa, dlatego teraz zajmiemy się aspektem bardziej praktycznym i omówimy kilka podstawowych rozkładów oraz wskażemy na niektóre typowe sytuacje, w których rozkłady te występują. Pragniemy jednak podkreślić, iż rozważane tutaj rozkłady nie wyczerpują wszystkich ważnych, występujących w literaturze przedmiotu rozkładów prawdopodobieństwa.

Spis treści

Rozkłady związane ze zliczaniem

  • Ile eksperymentów zakończy się sukcesem?
  • Ile jest zdarzeń sprzyjających wylosowaniu "naszych" numerów w grze liczbowej?
  • Ile zgłoszeń napływa średnio w ciągu godziny do pogotowia ratunkowego w godzinach nocnych?
  • Ile wypadków śmiertelnych ma miejsce podczas kąpieli w morzu?

Aby umieć odpowiadać na te i podobne pytania, najpierw należy zawsze zdać sobie sprawę z natury rozważanego zjawiska, czyli, mówiąc bardziej precyzyjnie, z charakteru rozkładu prawdopodobieństwa odpowiadającego danej sytuacji. Okazuje się, że wiele zupełnie różnych od siebie zjawisk zachodzi według podobnych schematów - na przykład jest w istocie losowaniem bez zwracania lub ze zwracaniem. Omówimy teraz kolejno kilka podstawowych rozkładów, odpowiedzialnych za większość tego typu sytuacji.

Na początku powtórzymy poznaną już wcześniej (patrz przykład 6.6) definicję rozkładu dwumianowego.

Rozkład dwumianowy

Rozkład P nazywamy rozkładem dwumianowym, jeżeli istnieją liczby n > 0 oraz p i q takie, że 0 <p,q <1, p + q = 1 oraz zachodzi równość:


P(k) = \left(\begin{array} {@{}c@{}}n\\k\end{array} \right)p^kq^{n-k}\;\; \mbox{ dla } k = 0,1,\dots,n.


Następujący wykres przedstawia rozkład dwumianowy z parametrami n = 12 i p = 0.6:



Wzór dwumienny Newtona pozwala stwierdzić, że \sum_{k=0}^n P(k) = 1, a więc powyższa równość rzeczywiście określa rozkład P w sposób jednoznaczny (jest to oczywiście rozkład dyskretny). Poprzednio mieliśmy już okazję poznać różne sytuacje, w których on występuje - następujące twierdzenie formalizuje nasze dotychczasowe rozważania

Twierdzenie 8.1

Niech X_1,\dots, X_n będą niezależnymi zmiennymi losowymi o takim samym rozkładzie dwupunktowym. Wtedy suma:


S_n = X_1 + \dots + X_n


ma rozkład dwumianowy.

Dowód .

Zdarzenie \{S_n = k\} jest sumą rozłącznych zdarzeń polegających na tym, że dokładnie k spośród zmiennych losowych X_1,  \dots , X_n przyjmuje wartość 1, a więc pozostałe n-k zmiennych przyjmuje wartość 0. Niech A_{i_1, \dots, i_k} będzie jednym z takich zdarzeń, gdzie i_1, \dots, i_k oznaczają numery tych zmiennych, które przyjmują wartość 1. Z kolei każde zdarzenie A_{i_1, \dots, i_k} jest iloczynem n zdarzeń postaci \{X_j = \varepsilon_j\}, gdzie \varepsilon_j = 1 lub \varepsilon_j = 0, a prawdopodobieństwa tych zdarzeń są równe odpowiednio p i q. Z niezależności zmiennych X_1,  \dots , X_n wynika, że:


P(A_{i_1, \dots, i_k} ) = p^kq^{n-k}.


Ponieważ wskaźniki i_1, \dots, i_k można wybrać na \left(\begin{array} {@{}c@{}}n\\k\end{array} \right) sposobów, więc:


P(A) = P\left(\bigcup_{i_1, \dots, i_k}A_{i_1, \dots, i_k}\right) = \sum_{i_1, \dots, i_k}P(A_{i_1, \dots, i_k})


= \sum_{i_1, \dots, i_k}p^kq^{n-k} = \left(\begin{array} {@{}c@{}}n\\k\end{array} \right)p^kq^{n-k}.
image:End_of_proof.gif


Przykład 8.2 [Losowanie ze zwracaniem]

Przypuśćmy, że pewna populacja składa się z N elementów. Niech p będzie prawdopodobieństwem tego, że dany element z tej populacji ma pewną własność, powiedzmy własność W. Losujemy ze zwracaniem n elementów i oznaczamy przez X liczbę tych spośród nich, które mają własność W. Widać, że zmienna losowa X ma rozkład dwumianowy.

Przypomnimy teraz wyprowadzone w ćwiczeniu 7.2 wzory na nadzieję matematyczną i wariancję zmiennej losowej o rozkładzie dwumianowym. Wyrażają się one następującymi wzorami:


{\Bbb E}(X) = np, \hspace{1.5cm} {\Bbb D}^2(X) = npq.


W celu wyrobienia sobie intuicji związanej z rozkładem dwumianowym, proponujemy obejrzeć animację:



Rozkład wielomianowy

Uogólnieniem rozkładu dwumianowego jest rozkład wielomianowy.

Rozkład P nazywamy rozkładem wielomianowym, jeżeli istnieje liczba naturalna n oraz liczby p_i > 0, i = 1.\dots r, r>1, takie, że \sum_{i= 1}^rp_i = 1 oraz dla wszystkich układów liczb całkowitych nieujemnych k_1, \dots ,k_r, dla których \sum_{i=1}^r k_i = n, zachodzi równość:


P(k_1,  \dots,  k_r)   =   \frac{n!}{k_1!   \cdot   \dots   \cdot k_r!}p_1^{k_1} \cdot \dots \cdot p_r^{k_r}.


Widzimy oczywiście, że gdy r= 2, rozkład wielomianowy jest w istocie równoważny rozkładowi dwumianowemu (kładziemy p_1  =  p i p_2 =q).

Wyobraźmy sobie, że pewien eksperyment powtarzamy n razy, przy czym spełnione są następujące warunki:

  1. każdy eksperyment może dać dokładnie r różnych wyników, powiedzmy "1",... , "r",
  2. prawdopodobieństwa poszczególnych wyników są w każdym eksperymencie zawsze takie same - oznaczamy je przez p_i, i = 1 \dots r,
  3. eksperymenty są niezależne od siebie.

Niech X_1, \dots ,X_r oznaczają odpowiednio liczbę eksperymentów zakończonych wynikiem "1", ... , "r". Wtedy łatwo stwierdzić, stosując indukcję, że wektor losowy (X, \dots ,X_r) ma rozkład wielomianowy.

Rozkład Poissona

Siméon Denis Poisson (1781-1840)Zobacz biografię
Enlarge
Siméon Denis Poisson (1781-1840)
Zobacz biografię
Rozkład P jest rozkładem Poissona, jeżeli istnieje taka liczba \lambda > 0, że:


P(k) = e^{-\lambda}\,\frac{\lambda^k}{k!}\;\; \mbox{ dla } k  = 0,1,2,\dots


Poniższy wykres przedstawia rozkład Poissona o parametrze \lambda = 5.



Okazuje się, że wiele zjawisk podlega właśnie rozkładowi Poissona. Kolejne twierdzenie mówi o tym, że jest on w pewnym sensie granicą rozkładów dwumianowych. W szczególności, gdy mamy do czynienia z dużą (n  >100) liczbą niezależnych prób Bernoulliego, z jednakowym, małym (p <0.1) prawdopodobieństwem sukcesu każda, to liczba sukcesów ma niemal dokładnie rozkład Poissona z parametrem \lambda = np. Zgodność taka została zaobserwowana w wielu konkretnych sytuacjach praktycznych. Co więcej, istnieją dość dokładne oszacowania błędu, jaki popełniamy przybliżając rozkład dwumianowy rozkładem Poissona. W tym miejscu poprzestaniemy jedynie na wykazaniu prostego twierdzenia wskazującego na możliwość takiego przybliżania oraz na podaniu danych liczbowych ilustrujących jego dokładność.

Twierdzenie 8.3

Niech liczby p_n >0 tworzą taki ciąg, że:


\lim_{n\rightarrow \infty}n p_n = \lambda  >0


oraz niech k będzie nieujemną liczbą naturalną. Wtedy:


\lim_{n\rightarrow \infty} \left(\begin{array} {@{}c@{}}n\\k\end{array} \right)p_n^k(1 - p_n)^{n-k} = e^{-\lambda}\,\frac{\lambda^k}{k!}.


Dowód .

Oznaczając \lambda_n = np_n, dostajemy równość:


\left(\begin{array} {@{}c@{}}n\\k\end{array} \right)p_n^k(1-p_n)^{n-k}  = \frac{\lambda_n^k}{k!}\cdot\frac{n(n-1)\cdot \dots \cdot(n-k+1)}{n^k}\cdot\left(1- \frac{\lambda_n}{n}\right)^n\cdot \left(1-\frac{\lambda_n}{n}\right)^{-k}\!\!.


Ponieważ k jest ustalone, zatem ostatni czynnik zmierza do 1. Drugi czynnik jest równy:


1\cdot (1 - \frac{1}{n})  \cdot  \dots  \cdot (1- \frac{k-1}{n}),


a więc też zmierza do 1. Istotne są natomiast czynniki pierwszy oraz trzeci, które zmierzają odpowiednio do:


\frac{\lambda^k}{k!}\;\;\textrm {oraz}\;\; e^{-\lambda}.
image:End_of_proof.gif


Poniższa tabela porównuje rozkład dwumianowy z rozkładem Poissona.


Rozkład dwumianowy a rozkład Poissona
n = 100, p = 0,01 n = 50, p = 0,1 n = 100,

p = 0,1

rozkład rozkład rozkład rozkład rozkład rozkład
k dwum. Poissona dwum. Poissona dwum. Poissona
0 0,3660 0,3679 0,0052 0,0067 0,0000 0,0000
1 0,3697 0,3679 0,0286 0,0337 0,0003 0,0005
2 0,1849 0,1839 0,0779 0,0842 0,0016 0,0023
3 0,0610 0,0613 0,1386 0,1404 0,0059 0,0076
4 0,0149 0,0153 0,1809 0,1755 0,0159 0,0189
5 0,0029 0,0031 0,1849 0,1755 0,0339 0,0378
6 0,0005 0,0005 0,1541 0,1462 0,0596 0,0631
7 0,0001 0,0001 0,1076 0,1044 0,0889 0,0901
8 0,0000 0,0000 0,0643 0,0653 0,1148 0,1126
9 0,0000 0,0000 0,0333 0,0363 0,1304 0,1251
10 0,0000 0,0000 0,0152 0,0181 0,1319 0,1251
11 0,0000 0,0000 0,0061 0,0082 0,1199 0,1137
12 0,0000 0,0000 0,0022 0,0034 0,0988 0,0948
13 0,0000 0,0000 0,0007 0,0013 0,0743 0,0729
14 0,0000 0,0000 0,0002 0,0005 0,0513 0,0521
15 0,0000 0,0000 0,0001 0,0002 0,0327 0,0347

Nadzieja matematyczna oraz wariancja w rozkładzie Poissona wyrażają się wzorami:


{\Bbb E}(X) = \lambda, \hspace{2cm} {\Bbb D}^2 (X) = \lambda.


Następująca animacja pokazuje, jak zmienia się kształt rozkładu Poissona dla najczęściej spotykanych wartości parametrów:



Rozkład hipergeometryczny

Rozkład P nazywamy hipergeometrycznym, jeżeli istnieją liczby naturalne N i n oraz liczby dodatnie p i q takie, że p+q=1 oraz dla każdego k =0,1,2, \dots n zachodzi równość:

\displaystyle P(k) =\displaystyle \frac{\left(\begin{array}{@{}c@{}} Np\\K\end{array}\right)\left(\begin{array}{@{}c@{}} Nq\\n-k\end{array}\right)}{\left(\begin{array}{@{}c@{}} N\\k\end{array}\right)}

Mamy tutaj do czynienia z uogólnionym symbolem Newtona (Np nie jest na ogół liczbą naturalną). Symbol ten definiuje się dla x\in {\Bbb R} oraz k\in \mathbb{N} w sposób nastpujący:


\left(\begin{array} {@{}c@{}} x\\k\end{array} \right) = \frac{x(x-1) \dots (x-k+1)}{k!},


co oczywiście jest zgodne ze standardową definicją, gdy x jest liczbą naturalną.

Poniższy wykres przedstawia rozkład hipergeometryczny o parametrach N = 50, n = 5 oraz p = 0.4.



Przykład 8.4 [Losowanie bez zwracania]
Przypuśćmy, że pewna populacja składa się z N elementów. Niech p będzie prawdopodobieństwem tego, że dany element z tej populacji ma pewną własność, powiedzmy własność A. Losujemy bez zwracania n elementów i oznaczamy przez X liczbę wylosowanych elementów mających własność A. Dość łatwo zauważyć, nawiązując do przeprowadzonych w punkcie Schemat klasyczny rozważań dotyczących losowania ze zwracaniem, że zmienna losowa X ma rozkład hipergeometryczny.

Nadzieja matematyczna oraz wariancja w rozkładzie hipergeometrycznym wyrażają się wzorami:


{\Bbb E}(X) = np, \hspace{2cm} {\Bbb D}^2 (X) = npq\frac{N-n}{N-1}.


Uwaga 8.5
Przy losowaniu n elementów ze zwracaniem i przy losowaniu n elementów bez zwracania z populacji o liczebności N z frakcją elementów wyróżnionych, losujemy średnio tyle samo elementów wyróżnionych. Zauważmy jednak, że przy losowaniu bez zwracania wariancja jest mniejsza.

W poniższej animacji założono, że losujemy bez zwracania n elementów spośród 50 elementów, przy czym wiadomo, że 20 elementów ma własność A. Animacja pokazuje rozkład liczby wylosowanych elementów mających własność A, w zależności od n.



Rozkłady czasu oczekiwania

  • Jak długo trzeba rzucać kostką, aby wypadła "szóstka"?
  • Jak długi jest czas oczekiwania na kolejne zgłoszenie do centrali telefonicznej?
  • Jak często dochodzi do wypadków drogowych?

Podobnie jak w poprzednim punkcie, omówimy tutaj kilka typowych rozkładów prawdopodobieństwa, które na ogół występują, gdy rozważamy zmienną losową będącą czasem czekania na określone zdarzenie.

Rozkład geometryczny

Rozkład P jest rozkładem geometrycznym, jeżeli istnieją liczby p i q takie, że 0<p, q <1, p + q = 1 oraz zachodzi równość:


P(k) = q^{k-1}p \;\; \mbox{ dla } k = 1,2,3,\dots


Następujący wykres przedstawia rozkład geometryczny o parametrze p = 0.25:



Zauważmy, że jest to rozkład dyskretny skupiony na zbiorze nieskończonym. Rozkład geometryczny jest związany z nieskończonym ciągiem niezależnych prób Bernoulliego. Wykażemy mianowicie, że czas oczekiwania na pierwszy sukces w takim ciągu posiada właśnie rozkład geometryczny. Konkretną sytuację oczekiwanie na pierwszą "szóstkę") omawia ćwiczenie 4.2.

Twierdzenie 8.6

Niech X_1,X_2,X_3,\dots będą niezależnymi zmiennymi losowymi o takim samym rozkładzie dwupunktowym. Wtedy funkcja:


T =\min  \{n  \ge  1:  X_n  =  1\},


nazywana czasem oczekiwania na pierwszy sukces w nieskończonym ciągu prób Bernoulliego, jest zmienną losową o rozkładzie geometrycznym.

Dowód .

Zauważmy, że zdarzenie \{T = n\} jest takie samo jak zdarzenie:


\{X_1 =  0,\dots,X_{n-1}  =  0, X_n  = 1\}.


Z niezależności zmiennych losowych X_i otrzymujemy:


P(T=n)  = P(X_1 =  0,\dots,X_{n-1}  =  0,  X_n  = 1) =


P(X_1 = 0)\cdot\dots\cdot P(X_{n-1} =  0)\cdot  P(X_n  = 1) = q^{n-1}p.
image:End_of_proof.gif


Pokażemy jeszcze inną sytuację, w której pojawia się rozkład geometryczny -będzie to, w pewnym sensie, uogólnienie poprzedniego twierdzenia. Mianowicie, intuicja podpowiada, że czas oczekiwania na pierwszy sukces w nieskończonym ciągu niezależnych prób Bernoulliego ma następującą własność, zwaną brakiem pamięci:


P(T > m + n|T > n) = P(T > m)\;\; \mbox{ dla wszystkich } m,n  \ge 1.      (8.1)


Poniższe twierdzenie, a w szczególności implikacja "\Longleftarrow", odpowiada powyższej intuicji. Ponieważ zachodzi nawet równoważność, (warunek 8.1) może być przyjęty za inną definicję rozkładu geometrycznego.

Twierdzenie 8.7

Niech T będzie zmienną losową przyjmującą jedynie wartości naturalne taką, że P(T>1)>0. Wtedy:


T spełnia warunek 8.1\,\Longleftrightarrow\,T ma rozkład geometryczny.

Dowód .

(\Longrightarrow) Oznaczmy a_n = P(T>n). Z założenia otrzymujemy:


a_{n+1} = P(T>  n+1)  = P(T>  n+  1,T>  1)  =  P(T  >n  + 1|T > 1)\,P(T>1)


=P(T>n)\,P(T>1) = a_nq,


gdzie q  = P(T>1). Tak więc liczby a_n tworzą ciąg geometryczny i stąd mamy:


a_n = q^{n-1}a_1  =  q^n.


Następnie obliczamy:


P(T=n)= P(T>n-1) - P(T>n) = q^{n-1} - q^n = q^{n-1}p,


gdzie p = 1  -q.

(\Longleftarrow) Obliczmy lewą stronę wzoru 8.1:


P(T>m+n|T>n) = \frac{P(T>m+n,T>n)}{P(T>n)}= \frac{P(T>m+n)}{P(T>n)}=


\displaystyle \frac{\sum_{k>m+n}P(T=k)}{\sum_{k>n}P(T=k)} = \frac{\sum_{k>m+n}q^{k-1}p}{\sum_{k>n}q^{k-1}p} = \frac{\frac{q^{n+m}p}{1-q}}{\frac{q^np}{1-q}}  =  q^m.


Jak łatwo sprawdzić, również P(T > m) = q^m.

image:End_of_proof.gif

Nadzieja matematyczna oraz wariancja w rozkładzie geometrycznym wyrażają się wzorami:


{\Bbb E}(X) = \frac{1}{p}, \hspace{2cm} {\Bbb D}^2 (X) = \frac{1-p}{p^2}.


Poniższa animacja pokazuje kształt rozkładu geometrycznego w zależności od parametru p.



Rozkład Pascala

Rozkład P nazywamy ujemnym rozkładem dwumianowym (lub rozkładem Pascala), jeżeli istnieją liczba naturalna r \ge 1 oraz liczba rzeczywista p>0 takie, że:


P(r+k) = \left(\begin{array} {@{}c@{}}r+k-1\\\ r-1\end{array} \right)p^r(1-p)^k\;\; \mbox{ dla } k = 0,1,2,\dots


Poniższy wykres przedstawia ujemny rozkład dwumianowy o parametrach r = 5 i p = 0.25.



Zauważmy, że rozkład geometryczny jest szczególnym przypadkiem ujemnego rozkładu dwumianowego.

Twierdzenie 8.8

Niech X_1,X_2,X_3,\dots będzie ciągiem niezależnych prób Bernoulliego o takim samym prawdopodobieństwie sukcesu p w każdej próbie. Określmy:


T_r =  \min\{n: \exists k_1,\ldots, k_r \mbox{ takie, że } 1\leq k_1<\ldots<k_r=n


\textrm{ oraz } X_{k_i} =1 \mbox{ dla } i =1,\dots,r\}.


Wtedy T_r jest zmienną losową o ujemnym rozkładzie dwumianowym.

Inaczej: czas oczekiwania na pierwszych r sukcesów w nieskończonym schemacie Bernoulliego ma ujemny rozkład dwumianowy.

Dowód .

Dowód jest bardzo podobny do analogicznego twierdzenia o rozkładzie geometrycznym (twierdzenie 8.6).

image:End_of_proof.gif

Można także udowodnić następujące twierdzenie, które jeszcze inaczej pozwala spojrzeć na problem czasu oczekiwania:

Twierdzenie 8.9

Niech T_1,\dots,T_r będzie ciągiem niezależnych zmiennych losowych o takim samym rozkładzie geometrycznym każda. Wtedy suma T_1 + \dots +  T_r ma ujemny rozkład dwumianowy.

Nadzieja matematyczna oraz wariancja w rozkładzie Pascala wyrażają się wzorami:


{\Bbb E}(X) = \frac{r}{p}, \hspace{2cm} {\Bbb D}^2 (X) = \frac{r(1-p)}{p^2}.

Rozkład wykładniczy

Rozkład P nazywamy rozkładem wykładniczym, jeżeli istnieje taka liczba \lambda > 0, że funkcja f\colon {\Bbb R}\longrightarrow {\Bbb R}, określona wzorem:


f(x) = \left\{ \begin{array} {rl} 0 & \mbox{ dla } x<0\\ \lambda e^{-\lambda x} & \mbox{ dla }  x \ge 0, \end{array}  \right.


jest gęstością tego rozkładu.

Poniższy wykres przedstawia rozkład wykładniczy o parametrze \lambda = 0.25.



Wykres ten oraz wykres rozkładu geometrycznego sugerują, że między rozkładem geometrycznym i wykładniczym mogą istnieć pewne związki. Tak rzeczywiście jest - będzie to uzasadnione poniżej. Jak łatwo sprawdzić, dystrybuanta tego rozkładu wyraża się wzorem:
F(x) = \int_{-\infty}^xf(t)\,dt = \left\{ \begin{array} {rl} 0 & \mbox{ dla } x<0\\ 1 -  e^{-\lambda x} & \mbox{ dla }  x \ge 0. \end{array}  \right.


Nadzieja matematyczna oraz wariancja w rozkładzie wykładniczym wyrażają się wzorami:


{\Bbb E}(X) = \frac{1}{\lambda},  \hspace{2cm}  {\Bbb D}^2 (X)  = \frac{1}{\lambda^2}.


Następująca animacja pokazuje, jak zmienia się gęstość rozkładu wykładniczego w zależności od parametru \lambda:



Spróbujemy teraz uzasadnić, że rozkład wykładniczy jest ciągłym odpowiednikiem rozkładu geometrycznego. Mówiąc niezbyt ściśle, najpierw pokażemy, że czas oczekiwania na pierwszy sukces w nieskończonym ciągu niezależnych prób Bernoulliego ma w przybliżeniu rozkład wykładniczy o parametrze \lambda, o ile czas pomiędzy kolejnymi próbami jest bardzo mały, a prawdopodobieństwo sukcesu w pojedynczej próbie jest małe i wprost proporcjonalne do tego czasu, przy czym parametr \lambda jest współczynnikiem tej proporcjonalności.

Niech \lambda > 0 będzie ustalone. Oznaczamy:


p  = p_\delta  =  \lambda \delta\;\; \textrm{dla każdego} \;\delta >0.


Niech X_1,X_2,X_3,\dots będzie ciągiem niezależnych zmiennych losowych, z których każda ma rozkład dwupunktowy o parametrze p oraz niech:


T = \delta \min\{n \ge 1: X_n = 1\}.


Oznaczmy przez F dystrybuantę rozkładu wykładniczego o parametrze \lambda.

Twierdzenie 8.10

Dla każdego t \in {\Bbb R}:


F_T(t)   \longrightarrow   F(t),    \;\;    \mbox{    gdy    }\; \delta\longrightarrow 0.


Dowód .

Dla t\le 0 sytuacja jest trywialna. Niech zatem t > 0. Zauważając, że zmienna losowa \displaystyle T\over \delta ma rozkład geometryczny (patrz twierdzenie 8.6) i oznaczając część całkowitą liczby t\over \delta przez n, mamy kolejno:


F_T(t) = P(T \le t) = 1 - P(T>t) = 1 - P(\frac{T}{\delta}  > \frac{t}{\delta}) = 1 - \sum_{k = n+1}^\infty (1-p)^{k-1}p


=1     -     (1     -     p)^n     =     1     -     (1     - \frac{\lambda}{\delta^{-1}})^{\delta ^{-1}t -r_\delta} \longrightarrow 1 - e^{-\lambda t} = F(t),


przy \delta \rightarrow 0, gdyż 0 \le r_\delta   = \frac{t}{\delta} - n < 1.

image:End_of_proof.gif

Można też pokazać (dowody pomijamy) odpowiedniki twierdzenia 8.7 i twierdzenia 8.9 dla przypadku ciągłego.

Twierdzenie 8.11

Niech T będzie nieujemną zmienną losową, spełniającą warunek:


P(T  >  t  +  s|T  >  s)  = P(T  >  t)\;  \mbox{  dla  wszystkich } s,t > 0,


zwany brakiem pamięci. Wówczas T ma rozkład wykładniczy.
Uwaga 8.12

Zachodzi także twierdzenie odwrotne do twierdzenia 8.11.

Twierdzenie 8.13

Niech T_1,\dots, T_n będą niezależnymi zmiennymi losowymi o takim samym rozkładzie wykładniczym z parametrem \lambda oraz niech S_n =T_1+\dots+T_n. Wtedy S_n ma rozkład o gęstości f_n, zadanej wzorem:


f_n(x)=\left\{ \begin{array} {rl} \frac{\lambda(\lambda x)^{n-1}}{(n-1)!}  e^{-\lambda  x} & \mbox{ dla } x>0\\ 0 & \mbox{ dla }  x \le 0. \end{array}  \right.


Rozkład ten nosi nazwę rozkładu Erlanga.

Proces Poissona

Na zakończenie niniejszego wykładu sformułujemy twierdzenie, które pokazuje głęboki związek między rozkładem wykładniczym i rozkładem Poissona. Zdefiniujemy mianowicie tak zwany proces Poissona, czyli dla każdego dodatniego t określimy zmienną losową N_t mającą rozkład Poissona o parametrze \lambda t. Mówiąc (na razie) nieprecyzyjnie, zmienna N_t oznacza liczbę sukcesów w ciągu niezależnych prób Bernoulliego, o ile próby te mogą być powtarzane nieskończenie często, zaś prawdopodobieństwo pojawienia się sukcesu w bardzo krótkim odcinku czasu \Delta t wynosi w przybliżeniu \lambda t - mamy więc sytuację opisaną w twierdzeniu 8.10 i w poprzedzającym go komentarzu. W takim razie, czas oczekiwania na pierwszy sukces ma rozkład wykładniczy o parametrze \lambda, a czas oczekiwania na n sukcesów ma, zgodnie z twierdzeniem 8.13, rozkład Erlanga. Na tej podstawie nietrudno jest już określić rozkład zmiennej N_t.

Twierdzenie 8.14

Niech T_1,T_2, T_3,\dots będą niezależnymi zmiennymi losowymi o takim samym rozkładzie wykładniczym z parametrem \lambda. Niech S_n =T_1+\dots+T_n oraz niech S_0 = 0. Wtedy zmienna losowa N_t, zdefiniowana wzorem:


N_t := \max \{n: S_n \le  t\},


gdzie t> 0 jest ustaloną liczbą, ma rozkład Poissona o parametrze \lambda t.

Dowód .

Zauważmy, że zdarzenie \{N_t = k\} jest równoważne zdarzeniu:


\{S_k \le t\} \setminus \{S_{k+1} \le t \}.


Tak więc:


P(N_t = k) = F_k(t) - F_{k+1}(t),


gdzie F_k oznacza dystrybuantę zmiennej losowej S_k. Z twierdzenia 8.13 wynika, że S_k na rozkład Erlanga, tak więc:


F_k(t)  =   \int_0^t   \frac{\lambda(\lambda   x)^{k-1}}{(k-1)!} e^{-\lambda x}\, dx \;\; \mbox{ dla } t >0.

Indukcyjnie można pokazać, że:


F_k(t) = 1 - e^{-\lambda t} \left(1  +  \frac{\lambda  t}{1!}  + \dots + \frac{(\lambda t)^{k-1}}{(k-1)!} \right),


a stąd:


\displaystyle P(N_t = k) = \frac{(\lambda t)^k}{k!}e^{-\lambda t}.
image:End_of_proof.gif