Rachunek prawdopodobieństwa i statystyka/Wykład 9: Rozkład normalny i centralne twierdzenie graniczne: Różnice pomiędzy wersjami

Z Studia Informatyczne
Przejdź do nawigacjiPrzejdź do wyszukiwania
m Zastępowanie tekstu – „,↵</math>” na „</math>,”
 
(Nie pokazano 12 pośrednich wersji utworzonych przez tego samego użytkownika)
Linia 11: Linia 11:
[[grafika:Gauss.jpg|thumb|right||Carl Friedrich Gauss (1777-1855)<br>[[Biografia Gauss|Zobacz biografię]]]]Chyba najważniejszym ze znanych rozkładów jest tak zwany rozkład normalny, określany niekiedy jako rozkład Gaussa.
[[grafika:Gauss.jpg|thumb|right||Carl Friedrich Gauss (1777-1855)<br>[[Biografia Gauss|Zobacz biografię]]]]Chyba najważniejszym ze znanych rozkładów jest tak zwany rozkład normalny, określany niekiedy jako rozkład Gaussa.


Rozkład <math>\displaystyle P</math> nazywamy rozkładem normalnym,  jeżeli
Rozkład <math>P</math> nazywamy rozkładem normalnym,  jeżeli
istnieją takie liczby rzeczywiste <math>\displaystyle m</math> oraz <math>\displaystyle \sigma>0</math>, że funkcja
istnieją takie liczby rzeczywiste <math>m</math> oraz <math>\sigma>0</math>, że funkcja
<math>\displaystyle f\colon {\Bbb R}\longrightarrow {\Bbb R}</math>, określona wzorem:
<math>f\colon {\Bbb R}\longrightarrow {\Bbb R}</math>, określona wzorem:




<center>
<center>
<math>
<math>
\displaystyle
 
f(x) =  \frac{1}{\sqrt{2\pi}\sigma}\,e^{-\frac{1}{2}(\frac{x
f(x) =  \frac{1}{\sqrt{2\pi}\sigma}\,e^{-\frac{1}{2}(\frac{x
- m}{\sigma})^2}\;\;\mbox{ dla } x\in {\Bbb R},
- m}{\sigma})^2}\;\;\mbox{ dla } x\in {\Bbb R}</math>,
</math>
</center>
</center>


Linia 28: Linia 27:


Stosowana w tym przypadku notacja jest następująca:
Stosowana w tym przypadku notacja jest następująca:
<math>\displaystyle N(m,\sigma)</math> oznacza rozkład normalny o
<math>N(m,\sigma)</math> oznacza rozkład normalny o
parametrach <math>\displaystyle m</math> oraz <math>\displaystyle \sigma</math> - jego
parametrach <math>m</math> oraz <math>\sigma</math> - jego
dystrybuantę oznaczamy przez <math>\displaystyle \Phi_{m,\sigma}</math>. Wykres gęstości rozkładu normalnego nosi
dystrybuantę oznaczamy przez <math>\Phi_{m,\sigma}</math>. Wykres gęstości rozkładu normalnego nosi
nazwę krzywej Gaussa.  
nazwę krzywej Gaussa.  


Poniższy wykres przedstawia gęstości rozkładów
Poniższy wykres przedstawia gęstości rozkładów
<math>\displaystyle N(20,1)</math>, <math>\displaystyle N(20,2)</math> i <math>\displaystyle N(20,3)</math>, przy czym mniejszym wartościom <math>\displaystyle \sigma</math>
<math>N(20,1)</math>, <math>N(20,2)</math> i <math>N(20,3)</math>, przy czym mniejszym wartościom <math>\sigma</math>
odpowiada bardziej stromy wykres.
odpowiada bardziej stromy wykres.


Linia 41: Linia 40:
</center>
</center>


Znaczenie parametru <math>\displaystyle \sigma</math> ilustruje też następująca animacja (tutaj <math>\displaystyle m = 20</math>):
Znaczenie parametru <math>\sigma</math> ilustruje też następująca animacja (tutaj <math>m = 20</math>):


<div class="thumb" align="center"><flashwrap>file=Rp91.swf|size=small</flashwrap></div>
[[File:Rp91-rys.mp4|253x253px|thumb|center]]




Kolejny wykres przedstawia gęstości rozkładów
Kolejny wykres przedstawia gęstości rozkładów
<math>\displaystyle N(15,3)</math>, <math>\displaystyle N(20,3)</math> i <math>\displaystyle N(25,3)</math>.
<math>N(15,3)</math>, <math>N(20,3)</math> i <math>N(25,3)</math>.


<center>
<center>
Linia 53: Linia 52:
</center>
</center>


Aby jeszcze lepiej uzmysłowić sobie  znaczenie parametru <math>\displaystyle m</math>, proponujemy uruchomić następującą animację (<math>\displaystyle \sigma = 2</math>):
Aby jeszcze lepiej uzmysłowić sobie  znaczenie parametru <math>m</math>, proponujemy uruchomić następującą animację (<math>\sigma = 2</math>):


<div class="thumb" align="center"><flashwrap>file=Rp92.swf|size=small</flashwrap></div>
[[File:Rp92-rys.mp4|253x253px|thumb|center]]


<span id="dystrybuanta">Dystrybuantę</span> <math>\displaystyle \Phi_{0,1}</math>
<span id="dystrybuanta">Dystrybuantę</span> <math>\Phi_{0,1}</math>
oznaczamy krótko przez <math>\displaystyle \Phi</math>. Wyraża się więc ona następującym wzorem:
oznaczamy krótko przez <math>\Phi</math>. Wyraża się więc ona następującym wzorem:




{{wzor|9.1|9.1|
{{wzor|9.1|9.1|
<math>\displaystyle
<math>
\Phi(x)                 =                 \frac{1}{\sqrt{2\pi}}
\Phi(x) = \frac{1}{\sqrt{2\pi}}
\int_{-\infty}^xe^{-\frac{1}{2}t^2}dt.
\int_{-\infty}^xe^{-\frac{1}{2}t^2}dt
</math>}}
</math>}}




Poniższy wykres przedstawia gęstość rozkładu
Poniższy wykres przedstawia gęstość rozkładu
<math>\displaystyle N(0,1)</math>, który nazywamy standardowym rozkładem normalnym. Zauważmy, że zakreskowany obszar posiada pole równe <math>\displaystyle \Phi(1)</math>.
<math>N(0,1)</math>, który nazywamy standardowym rozkładem normalnym. Zauważmy, że zakreskowany obszar posiada pole równe <math>\Phi(1)</math>.


<center>
<center>
Linia 76: Linia 75:




Wartości dystrybuanty <math>\displaystyle \Phi</math> zostały stablicowane
Wartości dystrybuanty <math>\Phi</math> zostały stablicowane
oraz są dostępne w wielu komputerowych
oraz są dostępne w wielu komputerowych
programach matematycznych lub statystycznych.
programach matematycznych lub statystycznych.
Linia 82: Linia 81:


Zwróćmy uwagę na dwie własności
Zwróćmy uwagę na dwie własności
funkcji <math>\displaystyle \Phi</math>,posiadające (przede wszystkim)
funkcji <math>\Phi</math>,posiadające (przede wszystkim)
rachunkowe znaczenie. Wynikają one
rachunkowe znaczenie. Wynikają one
bezpośrednio ze wzoru na [[#9.1|9.1]] <math>\displaystyle \Phi_{0,1}</math>
bezpośrednio ze wzoru na [[#9.1|9.1]] <math>\Phi_{0,1}</math>
i mają oczywistą interpretację geometryczną (ćwiczenie). Mianowicie:
i mają oczywistą interpretację geometryczną (ćwiczenie). Mianowicie:






<center><math>\displaystyle
<center><math>
\Phi (0) = \frac{1}{2}\;\; \mbox{ oraz } \;\;\Phi
\Phi (0) = \frac{1}{2}\;\; \mbox{ oraz } \;\;\Phi
(x) = 1 - \Phi (-x) \mbox{ dla każdego } x \in {\Bbb R}
(x) = 1 - \Phi (-x) \mbox{ dla każdego } x \in {\Bbb R}
Linia 98: Linia 97:




<center><math>\displaystyle
<center><math>
\Phi^{-1} (\alpha) = -\Phi^{-1}(1-\alpha) \mbox{ dla każdego } \alpha \in [0,1].
\Phi^{-1} (\alpha) = -\Phi^{-1}(1-\alpha) \mbox{ dla każdego } \alpha \in [0,1]
</math></center>
</math></center>


Linia 108: Linia 107:
przekształceniach. Podobnie następna równość, którą
przekształceniach. Podobnie następna równość, którą
można otrzymać stosując prostą  zmianę zmiennych (patrz wykład z [[Analiza matematyczna|Analizy matematycznej]]), pozwala za
można otrzymać stosując prostą  zmianę zmiennych (patrz wykład z [[Analiza matematyczna|Analizy matematycznej]]), pozwala za
pomocą <math>\displaystyle \Phi</math> obliczać dystrybuanty
pomocą <math>\Phi</math> obliczać dystrybuanty
<math>\displaystyle \Phi_{m,\sigma}</math> dla pozostałych parametrów <math>\displaystyle m</math> i <math>\displaystyle \sigma</math>. Mianowicie:
<math>\Phi_{m,\sigma}</math> dla pozostałych parametrów <math>m</math> i <math>\sigma</math>. Mianowicie:




{{wzor|9.2|9.2|
{{wzor|9.2|9.2|
<math>\displaystyle
<math>
\Phi_{m,\sigma}(x) = \Phi\left(\frac{x-m}{\sigma}\right).
\Phi_{m,\sigma}(x) = \Phi\left(\frac{x-m}{\sigma}\right)
</math>}}
</math>}}




Parametry  <math>\displaystyle m</math> i <math>\displaystyle \sigma</math> mają bardzo wyraźną interpretację
Parametry  <math>m</math> i <math>\sigma</math> mają bardzo wyraźną interpretację
probabilistyczną. Okazuje się bowiem, iż nadzieja
probabilistyczną. Okazuje się bowiem, iż nadzieja
matematyczna oraz wariancja w rozkładzie <math>\displaystyle N(m,\sigma)</math>
matematyczna oraz wariancja w rozkładzie <math>N(m,\sigma)</math>
wyrażają się wzorami:
wyrażają się wzorami:




<center><math>\displaystyle
<center><math>
{\Bbb E}(X) = m, \hspace{2cm} {\Bbb D}^2 (X) = \sigma^2.
{\Bbb E}(X) = m, {\Bbb D}^2 (X) = \sigma^2
</math></center>
</math></center>




Zauważmy też, że <math>\displaystyle m</math> jest punktem, w którym  gęstość
Zauważmy też, że <math>m</math> jest punktem, w którym  gęstość
rozkładu <math>\displaystyle N(m,\sigma)</math> osiąga wartość
rozkładu <math>N(m,\sigma)</math> osiąga wartość
największą, prosta <math>\displaystyle x = m</math> jest osią symetrii jej wykresu,
największą, prosta <math>x = m</math> jest osią symetrii jej wykresu,
zaś punkty  <math>\displaystyle m-  \sigma </math> i  <math>\displaystyle m+\sigma</math> - punktami
zaś punkty  <math>m-  \sigma</math> i  <math>m+\sigma</math> - punktami
przegięcia (patrz wykład z [[Analiza matematyczna|Analizy matematycznej]]).
przegięcia (patrz wykład z [[Analiza matematyczna|Analizy matematycznej]]).


{{przyklad|9.1|przy_9.1||
{{przyklad|9.1|przy_9.1||
Postaramy się uzasadnić ilościowo, że  parametr  <math>\displaystyle \sigma</math>
Postaramy się uzasadnić ilościowo, że  parametr  <math>\sigma</math>
jest miarą "rozrzutu" rozkładu
jest miarą "rozrzutu" rozkładu
<math>\displaystyle N(m,\sigma)</math>, względem punktu <math>\displaystyle m</math>. Obliczmy w tym celu:
<math>N(m,\sigma)</math>, względem punktu <math>m</math>. Obliczmy w tym celu:
}}
}}


<center><math>\displaystyle
<center><math>
r_k = P(m - k\sigma,m +k\sigma) \;\;\mbox{ dla } k =1,2,3,
r_k = P(m - k\sigma,m +k\sigma) \;\;\mbox{ dla } k =1,2,3
</math></center>
</math></center>




gdzie <math>\displaystyle P</math> jest rozkładem <math>\displaystyle N(m,\sigma)</math>.
gdzie <math>P</math> jest rozkładem <math>N(m,\sigma)</math>.
Otrzymujemy:
Otrzymujemy:




<center><math>\displaystyle
<center><math>
r_k = \Phi_{m,\sigma}(m + k\sigma) - \Phi_{m,\sigma}(m - k\sigma)
r_k = \Phi_{m,\sigma}(m + k\sigma) - \Phi_{m,\sigma}(m - k\sigma)
= \Phi(k) - \Phi(-k) = 2\Phi(k) - 1.
= \Phi(k) - \Phi(-k) = 2\Phi(k) - 1</math></center>
</math></center>




Linia 159: Linia 157:




<center><math>\displaystyle
<center><math>
r1 \approx 0.682689492, \;\;r2 \approx 0.954499736, \;\;r3 \approx 0.997300204.
r1 \approx 0.682689492, \;\;r2 \approx 0.954499736, \;\;r3 \approx 0.997300204</math></center>
</math></center>




Tak  więc  szansa znajdowania się poza przedziałem  <math>\displaystyle (m  -3\sigma,\;m  +
Tak  więc  szansa znajdowania się poza przedziałem  <math>(m  -3\sigma,\;m  +
3\sigma)</math> wynosi istotnie mniej niż <math>\displaystyle 1\%</math>. Im mniejszy
3\sigma)</math> wynosi istotnie mniej niż <math>1\%</math>. Im mniejszy
jest parametr <math>\displaystyle \sigma</math>, tym bardziej rozkład
jest parametr <math>\sigma</math>, tym bardziej rozkład
<math>\displaystyle N(m,\sigma)</math> jest "skupiony w  okolicy"  punktu <math>\displaystyle x
<math>N(m,\sigma)</math> jest "skupiony w  okolicy"  punktu <math>x
=m</math>.   
=m</math>.   




Dystrybuanta <math>\displaystyle \Phi</math> rozkładu normalnego <math>\displaystyle N(0,1)</math> (w tablicy podano wartości    <math>\displaystyle \Phi(x)</math> dla <math>\displaystyle x\in [0, 3.09]</math>).
Dystrybuanta <math>\Phi</math> rozkładu normalnego <math>N(0,1)</math> (w tablicy podano wartości    <math>\Phi(x)</math> dla <math>x\in [0, 3.09]</math>).
{| border=1 align="center" cellpadding="5" cellspacing="0"
{| border=1 align="center" cellpadding="5" cellspacing="0"
|+ <span style="font-variant:small-caps"></span>
|+ <span style="font-variant:small-caps"></span>
|-  
|-  
| <math>\displaystyle x</math> || 0,00 || 0,01 || 0,02 || 0,03 || 0,04 || 0,05 || 0,06 || 0,07 || 0,08 || 0,09
| <math>x</math> || 0,00 || 0,01 || 0,02 || 0,03 || 0,04 || 0,05 || 0,06 || 0,07 || 0,08 || 0,09
|-
|-
| 0,0 || 0,5000 || 0,5040 || 0,5080 || 0,5120 || 0,5160 || 0,5199 || 0,5239 || 0,5279 || 0,5319 || 0,5359
| 0,0 || 0,5000 || 0,5040 || 0,5080 || 0,5120 || 0,5160 || 0,5199 || 0,5239 || 0,5279 || 0,5319 || 0,5359
Linia 256: Linia 253:


{{twierdzenie|9.2|tw_9.2|
{{twierdzenie|9.2|tw_9.2|
Niech <math>\displaystyle X_1</math> oraz <math>\displaystyle X_2</math> będą niezależnymi zmiennymi losowymi o rozkładach normalnych, odpowiednio <math>\displaystyle N(m_1,\sigma_1)</math> oraz <math>\displaystyle N(m_2,\sigma_2)</math>.
Niech <math>X_1</math> oraz <math>X_2</math> będą niezależnymi zmiennymi losowymi o rozkładach normalnych, odpowiednio <math>N(m_1,\sigma_1)</math> oraz <math>N(m_2,\sigma_2)</math>.
   
   
Wtedy:
Wtedy:
# <math>\displaystyle X_1 + X_2 \sim N(m_1+m_2, \sqrt{\sigma_1^2+ \sigma_2^2}),</math>
# <math>X_1 + X_2 \sim N(m_1+m_2, \sqrt{\sigma_1^2+ \sigma_2^2})</math>,
# <math>\displaystyle aX_1 + b \sim N(am_1 + b, |a|\sigma_1)</math> dla wszystkich <math>\displaystyle a, b \in {\Bbb R}.</math>
# <math>aX_1 + b \sim N(am_1 + b, |a|\sigma_1)</math> dla wszystkich <math>a, b \in {\Bbb R}</math>.


}}
}}
Linia 289: Linia 286:
'''Założenie.'''<br>
'''Założenie.'''<br>


''<math>\displaystyle (\Omega, \Sigma,P)</math> jest przestrzenią
''<math>(\Omega, \Sigma,P)</math> jest przestrzenią
probabilistyczną, zaś  <math>\displaystyle X_1,\,X_2,\, X_3,\dots</math>
probabilistyczną, zaś  <math>X_1,\,X_2,\, X_3,\dots</math>
- ciągiem niezależnych zmiennych losowych
- ciągiem niezależnych zmiennych losowych
określonych na <math>\displaystyle \Omega</math>. Wszystkie zmienne losowe
określonych na <math>\Omega</math>. Wszystkie zmienne losowe
<math>\displaystyle X_i</math> mają taki sam rozkład, a ich wspólna nadzieja
<math>X_i</math> mają taki sam rozkład, a ich wspólna nadzieja
matematyczna <math>\displaystyle m</math> oraz wariancja <math>\displaystyle \sigma^2</math> istnieją i
matematyczna <math>m</math> oraz wariancja <math>\sigma^2</math> istnieją i
są skończone, przy czym <math>\displaystyle \sigma
są skończone, przy czym <math>\sigma
> 0</math> (ten ostatni warunek oznacza, że zmienne losowe nie są stałymi). Jak zawsze oznaczamy:''  
> 0</math> (ten ostatni warunek oznacza, że zmienne losowe nie są stałymi). Jak zawsze oznaczamy:''  




<center><math>\displaystyle
<center><math>
S_n = X_1 + \dots +X_n.
S_n = X_1 + \dots +X_n</math></center>
</math></center>




Będziemy  badać  najpierw zbieżność tak zwanych
Będziemy  badać  najpierw zbieżność tak zwanych
sum standaryzowanych, a dopiero potem wyciągniemy
sum standaryzowanych, a dopiero potem wyciągniemy
wnioski dotyczące samych sum <math>\displaystyle S_n</math> oraz średnich <math>\displaystyle \displaystyle S_n
wnioski dotyczące samych sum <math>S_n</math> oraz średnich <math>S_n
\over n</math>.
\over n</math>.


Linia 312: Linia 308:




<center><math>\displaystyle
<center><math>
Z_n  :=  \frac{S_n  -E(S_n)}{\sqrt{D^2(S_n)}}  =    \frac{S_n
Z_n  :=  \frac{S_n  -E(S_n)}{\sqrt{D^2(S_n)}}  =    \frac{S_n
-nm}{\sigma \sqrt{n}}
-nm}{\sigma \sqrt{n}}
Linia 318: Linia 314:




nazywamy standaryzacją  sumy <math>\displaystyle S_n</math>.
nazywamy standaryzacją  sumy <math>S_n</math>.
Jak łatwo zauważyć:  
Jak łatwo zauważyć:  




<center><math>\displaystyle
<center><math>
E(Z_n) = 0\;\; \textrm{oraz}\;\; D^2(Z_n) = 1.
E(Z_n) = 0\;\; \text{oraz}\;\; D^2(Z_n) = 1</math></center>
</math></center>




Linia 330: Linia 325:




Dla każdego <math>\displaystyle x \in  {\Bbb R}</math> zachodzi równość:
Dla każdego <math>x \in  {\Bbb R}</math> zachodzi równość:




<center><math>\displaystyle
<center><math>
\lim_{n\rightarrow \infty}P(Z_n \le  x)  =  \Phi(x),
\lim_{n\rightarrow \infty}P(Z_n \le  x)  =  \Phi(x)</math>,</center>
</math></center>




gdzie <math>\displaystyle \Phi</math>  jest
gdzie <math>\Phi</math>  jest
dystrybuantą rozkładu <math>\displaystyle N(0,1)</math>.  
dystrybuantą rozkładu <math>N(0,1)</math>.  
}}
}}


Linia 348: Linia 342:
Twierdzenie Lindeberga-Levy'ego można wypowiedzieć
Twierdzenie Lindeberga-Levy'ego można wypowiedzieć
w  wersjach bardziej naturalnych - bez używania
w  wersjach bardziej naturalnych - bez używania
standaryzacji <math>\displaystyle Z_n</math>.
standaryzacji <math>Z_n</math>.


{{twierdzenie|9.4 [Centralne tw. graniczne dla sum]|tw 9.4|
{{twierdzenie|9.4 [Centralne tw. graniczne dla sum]|tw 9.4|


Rozkład zmiennej losowej <math>\displaystyle S_n</math> jest asymptotycznie równy rozkładowi
Rozkład zmiennej losowej <math>S_n</math> jest asymptotycznie równy rozkładowi
<math>\displaystyle N(nm,\sigma\sqrt{n})</math>. Inaczej:
<math>N(nm,\sigma\sqrt{n})</math>. Inaczej:




<center><math>\displaystyle
<center><math>
\lim_{n\rightarrow              \infty}(F_{S_n}(x)              -
\lim_{n\rightarrow              \infty}(F_{S_n}(x)              -
\Phi_{nm,\sigma\sqrt{n}}(x)) = 0,
\Phi_{nm,\sigma\sqrt{n}}(x)) = 0</math>,</center>
</math></center>




dla  <math>\displaystyle x
dla  <math>x
\in  {\Bbb R}.</math>  }}
\in  {\Bbb R}</math>. }}


{{twierdzenie|9.5 [Centralne tw. graniczne dla średnich]|tw_9.5|
{{twierdzenie|9.5 [Centralne tw. graniczne dla średnich]|tw_9.5|
Rozkład zmiennej losowej <math>\frac{S_n}{n}</math>  jest  asymptotycznie  równy
Rozkład zmiennej losowej <math>\frac{S_n}{n}</math>  jest  asymptotycznie  równy
rozkładowi <math>\displaystyle N(m,{\sigma\over \sqrt{n}})</math>.
rozkładowi <math>N(m,{\sigma\over \sqrt{n}})</math>.
Inaczej:
Inaczej:




<center><math>\displaystyle
<center><math>
\lim_{n\rightarrow        \infty}(F_{\frac{S_n}{n}}(x)        -
\lim_{n\rightarrow        \infty}(F_{\frac{S_n}{n}}(x)        -
\Phi_{m,{\sigma\over \sqrt{n}}}(x)) = 0,
\Phi_{m,{\sigma\over \sqrt{n}}}(x)) = 0</math>,</center>
</math></center>




dla  <math>\displaystyle x
dla  <math>x
\in  {\Bbb R}.</math> }}
\in  {\Bbb R}</math>. }}


{{przyklad|9.6.|przy_9.6|
{{przyklad|9.6.|przy_9.6|
Linia 384: Linia 376:
o  rozkładzie sumy niezależnych zmiennych losowych.
o  rozkładzie sumy niezależnych zmiennych losowych.
Wyobraźmy sobie  eksperyment polegający na wielokrotnym
Wyobraźmy sobie  eksperyment polegający na wielokrotnym
rzucie kostką do gry. Suma  uzyskanych oczek <math>\displaystyle S</math> jest
rzucie kostką do gry. Suma  uzyskanych oczek <math>S</math> jest
zmienną losową mającą, zgodnie  z  cytowanym twierdzeniem,  w
zmienną losową mającą, zgodnie  z  cytowanym twierdzeniem,  w
przybliżeniu rozkład <math>\displaystyle N(nm, \sigma \sqrt{n})</math>,
przybliżeniu rozkład <math>N(nm, \sigma \sqrt{n})</math>,
gdzie <math>\displaystyle m</math> oraz <math>\displaystyle \sigma</math> są odpowiednio nadzieją
gdzie <math>m</math> oraz <math>\sigma</math> są odpowiednio nadzieją
matematyczną oraz odchyleniem standardowym zmiennej
matematyczną oraz odchyleniem standardowym zmiennej
losowej <math>\displaystyle X</math>, reprezentującej wynik pojedynczego
losowej <math>X</math>, reprezentującej wynik pojedynczego
rzutu, a <math>\displaystyle n</math> jest liczbą wykonanych prób. Ponieważ
rzutu, a <math>n</math> jest liczbą wykonanych prób. Ponieważ
<math>\displaystyle X</math>  ma rozkład dyskretny,  skupiony  w  punktach
<math>X</math>  ma rozkład dyskretny,  skupiony  w  punktach
<math>\displaystyle 1,2,3,4,5,6</math>  przyjmowanych  z jednakowym
<math>1,2,3,4,5,6</math>  przyjmowanych  z jednakowym
prawdopodobieństwem  <math>\displaystyle \frac{1}{6}</math>, więc  bez
prawdopodobieństwem  <math>\frac{1}{6}</math>, więc  bez
trudu    można stwierdzić, że:  
trudu    można stwierdzić, że:  




<center><math>\displaystyle
<center><math>
m =  3.5 \;\;\textrm{oraz}\;\; \sigma  =
m =  3.5 \;\;\text{oraz}\;\; \sigma  =
\frac{\sqrt{105}}{6}  \approx  1.7078251.
\frac{\sqrt{105}}{6}  \approx  1.7078251</math></center> }}
</math></center> }}




Przypuśćmy, że wykonano 1000 rzutów (<math>\displaystyle n = 1000</math>). Wówczas  suma <math>\displaystyle S_{1000}</math>
Przypuśćmy, że wykonano 1000 rzutów (<math>n = 1000</math>). Wówczas  suma <math>S_{1000}</math>
ma w przybliżeniu rozkład <math>\displaystyle N(3500,54,00617)</math>.
ma w przybliżeniu rozkład <math>N(3500,54,00617)</math>.


Zweryfikujmy "doświadczalnie" uzyskany wynik. W  tym
Zweryfikujmy "doświadczalnie" uzyskany wynik. W  tym
Linia 410: Linia 401:
kostką  za  pomocą komputera, uzyskując odpowiednią
kostką  za  pomocą komputera, uzyskując odpowiednią
wartość  sumy  wszystkich  uzyskanych oczek.
wartość  sumy  wszystkich  uzyskanych oczek.
Doświadczenie to powtórzymy 400 razy, uzyskując <math>\displaystyle 400</math>
Doświadczenie to powtórzymy 400 razy, uzyskując <math>400</math>
wartości sumy oczek. Poniżej przytaczamy kod programu Maple, umożliwiający przeprowadzenie takiej symulacji.
wartości sumy oczek. Poniżej przytaczamy kod programu Maple, umożliwiający przeprowadzenie takiej symulacji.


Linia 446: Linia 437:
   ''> skrajne;''
   ''> skrajne;''


<center><math>\displaystyle \mathit{skrajne}
<center><math>\mathit{skrajne}
</math></center>
</math></center>


Linia 452: Linia 443:


W celu sporządzenia histogramu, dobieramy wysokości słupków tak,
W celu sporządzenia histogramu, dobieramy wysokości słupków tak,
aby pola wszystkich słupków dawały w sumie <math>\displaystyle 1</math>:
aby pola wszystkich słupków dawały w sumie <math>1</math>:


   > dane1 := stats[transform,
   > dane1 := stats[transform,
Linia 486: Linia 477:




<center><math>\displaystyle \mathit{es} := 3500
<center><math>\mathit{es} := 3500
</math></center>
</math></center>




<center><math>\displaystyle
<center><math>
\mathit{vs} := {\displaystyle \frac {8750}{3}}
\mathit{vs} := {\frac {8750}{3}}
</math></center>
</math></center>


Linia 505: Linia 496:




<center><math>\displaystyle \mathit{ee} := 3501.587500
<center><math>\mathit{ee} := 3501.587500
</math></center>
</math></center>


Linia 512: Linia 503:




<center><math>\displaystyle \mathit{ve} := 57.07764311
<center><math>\mathit{ve} := 57.07764311
</math></center>
</math></center>


Linia 539: Linia 530:


{{twierdzenie|9.7 [de Moivre'a-Laplace'a]|tw_9.7|
{{twierdzenie|9.7 [de Moivre'a-Laplace'a]|tw_9.7|
Niech  <math>\displaystyle X_1,
Niech  <math>X_1,
\,X_2,  \,  X_3,\dots</math>  będzie  ciągiem
\,X_2,  \,  X_3,\dots</math>  będzie  ciągiem
niezależnych prób Bernoulliego, z takim samym
niezależnych prób Bernoulliego, z takim samym
prawdopodobieństwem  sukcesu <math>\displaystyle p</math> i
prawdopodobieństwem  sukcesu <math>p</math> i
porażki <math>\displaystyle q = 1 - p</math> w każdej próbie (<math>\displaystyle 0<p<1</math>). Wtedy:
porażki <math>q = 1 - p</math> w każdej próbie (<math>0<p<1</math>). Wtedy:




<center><math>\displaystyle
<center><math>
P\left(\frac{S_n - np}{\sqrt{npq}} \le  x\right)  \longrightarrow
P\left(\frac{S_n - np}{\sqrt{npq}} \le  x\right)  \longrightarrow
\Phi(x),
\Phi(x)</math>,</center>
</math></center>




dla każdego <math>\displaystyle x \in {\Bbb R}</math>. }}
dla każdego <math>x \in {\Bbb R}</math>. }}


Oczywiście, [[#tw_9.4|twierdzenie 9.4]] i [[#tw_9.5|twierdzenie 9.5]] można także z&nbsp;łatwością przeformułować dla
Oczywiście, [[#tw_9.4|twierdzenie 9.4]] i [[#tw_9.5|twierdzenie 9.5]] można także z&nbsp;łatwością przeformułować dla

Aktualna wersja na dzień 21:46, 11 wrz 2023

Rozkład normalny i centralne twierdzenie graniczne

Centralną rolę w rachunku prawdopodobieństwa i statystyce pełni tak zwany rozkład normalny. Związane jest z nim słynne twierdzenie nazywane centralnym twierdzeniem granicznym. Na jego podstawie można w wielu sytuacjach zakładać, że zmienna losowa, którą jesteśmy właśnie zainteresowani, ma rozkład normalny.

Rozkład normalny

Carl Friedrich Gauss (1777-1855)
Zobacz biografię

Chyba najważniejszym ze znanych rozkładów jest tak zwany rozkład normalny, określany niekiedy jako rozkład Gaussa.

Rozkład P nazywamy rozkładem normalnym, jeżeli istnieją takie liczby rzeczywiste m oraz σ>0, że funkcja f:, określona wzorem:


f(x)=12πσe12(xmσ)2 dla x,


jest gęstością tego rozkładu.

Stosowana w tym przypadku notacja jest następująca: N(m,σ) oznacza rozkład normalny o parametrach m oraz σ - jego dystrybuantę oznaczamy przez Φm,σ. Wykres gęstości rozkładu normalnego nosi nazwę krzywej Gaussa.

Poniższy wykres przedstawia gęstości rozkładów N(20,1), N(20,2) i N(20,3), przy czym mniejszym wartościom σ odpowiada bardziej stromy wykres.

<flash>file=Rp.1.91.swf|width=350|height=350</flash>

Znaczenie parametru σ ilustruje też następująca animacja (tutaj m=20):


Kolejny wykres przedstawia gęstości rozkładów N(15,3), N(20,3) i N(25,3).

<flash>file=Rp.1.92.swf|width=350|height=350</flash>

Aby jeszcze lepiej uzmysłowić sobie znaczenie parametru m, proponujemy uruchomić następującą animację (σ=2):

Dystrybuantę Φ0,1 oznaczamy krótko przez Φ. Wyraża się więc ona następującym wzorem:


Φ(x)=12πxe12t2dt      (9.1)


Poniższy wykres przedstawia gęstość rozkładu N(0,1), który nazywamy standardowym rozkładem normalnym. Zauważmy, że zakreskowany obszar posiada pole równe Φ(1).

<flash>file=Rp.1.93.swf|width=350|height=350</flash>


Wartości dystrybuanty Φ zostały stablicowane oraz są dostępne w wielu komputerowych programach matematycznych lub statystycznych. Oczywiście, pakiety statystyczne programu Maple zawierają odpowiednie procedury (jakie?).

Zwróćmy uwagę na dwie własności funkcji Φ,posiadające (przede wszystkim) rachunkowe znaczenie. Wynikają one bezpośrednio ze wzoru na 9.1 Φ0,1 i mają oczywistą interpretację geometryczną (ćwiczenie). Mianowicie:


Φ(0)=12 oraz Φ(x)=1Φ(x) dla każdego x


oraz


Φ1(α)=Φ1(1α) dla każdego α[0,1]


Użyteczność powyższych wzorów można zaobserwować zwłaszcza wtedy, gdy nie dysponujemy odpowiednim pakietem komputerowym czy kalkulatorem, ale są one także ważne przy pewnych przekształceniach. Podobnie następna równość, którą można otrzymać stosując prostą zmianę zmiennych (patrz wykład z Analizy matematycznej), pozwala za pomocą Φ obliczać dystrybuanty Φm,σ dla pozostałych parametrów m i σ. Mianowicie:


Φm,σ(x)=Φ(xmσ)      (9.2)


Parametry m i σ mają bardzo wyraźną interpretację probabilistyczną. Okazuje się bowiem, iż nadzieja matematyczna oraz wariancja w rozkładzie N(m,σ) wyrażają się wzorami:


𝔼(X)=m,𝔻2(X)=σ2


Zauważmy też, że m jest punktem, w którym gęstość rozkładu N(m,σ) osiąga wartość największą, prosta x=m jest osią symetrii jej wykresu, zaś punkty mσ i m+σ - punktami przegięcia (patrz wykład z Analizy matematycznej).

Przykład 9.1

rk=P(mkσ,m+kσ) dla k=1,2,3


gdzie P jest rozkładem N(m,σ). Otrzymujemy:


rk=Φm,σ(m+kσ)Φm,σ(mkσ)=Φ(k)Φ(k)=2Φ(k)1


Korzystając z tablic lub z komputera, bez trudu dostajemy:


r10.682689492,r20.954499736,r30.997300204


Tak więc szansa znajdowania się poza przedziałem (m3σ,m+3σ) wynosi istotnie mniej niż 1%. Im mniejszy jest parametr σ, tym bardziej rozkład N(m,σ) jest "skupiony w okolicy" punktu x=m.


Dystrybuanta Φ rozkładu normalnego N(0,1) (w tablicy podano wartości Φ(x) dla x[0,3.09]).

x 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0 0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 0,5359
0,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,5753
0,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,6141
0,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,6517
0,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,6879
0,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 0,7224
0,6 0,7257 0,7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,7549
0,7 0,7580 0,7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,7852
0,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0,8106 0,8133
0,9 0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 0,8389
1,0 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,8621
1,1 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 0,8830
1,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,9015
1,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,9177
1,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,9319
1,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0,9429 0,9441
1,6 0,9452 0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0,9535 0,9545
1,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,9633
1,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,9706
1,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9756 0,9761 0,9767
2,0 0,9772 0,9778 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,9817
2,1 0,9821 0,9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0,9854 0,9857
2,2 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,9890
2,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,9916
2,4 0,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,9932 0,9934 0,9936
2,5 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,9952
2,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0,9963 0,9964
2,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0,9973 0,9974
2,8 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9979 0,9980 0,9981
2,9 0,9981 0,9982 0,9982 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,9986
3,0 0,9987 0,9987 0,9987 0,9988 0,9988 0,9989 0,9989 0,9989 0,9990 0,9990


Jak powyżej wspomnieliśmy, rozkład normalny jest bardzo ważnym rozkładem. Dzieje się tak między innymi dlatego, że wiele zjawisk przyrodniczych, społecznych i innych przebiega zgodnie z tym rozkładem. Ma on również olbrzymie znaczenie teoretyczne. Poniżej przedstawiamy tak zwane centralne twierdzenie graniczne, które częściowo wyjaśnia znaczenie rozkładu normalnego. Twierdzenie to gwarantuje, że (pod pewnymi dość naturalnymi założeniami) suma dużej ilości niezależnych zmiennych losowych ma w przybliżeniu rozkład normalny. Na zakończenie tego punktu wypowiemy jeszcze jedno ważne twierdzenie dotyczące rozkładu normalnego.

Twierdzenie 9.2

Niech X1 oraz X2 będą niezależnymi zmiennymi losowymi o rozkładach normalnych, odpowiednio N(m1,σ1) oraz N(m2,σ2).

Wtedy:

  1. X1+X2N(m1+m2,σ12+σ22),
  2. aX1+bN(am1+b,|a|σ1) dla wszystkich a,b.

Centralne twierdzenie graniczne

Prawa wielkich liczb mówią o zbieżności średnich arytmetycznych, interpretowanych czasem jako średnie czasowe, niezależnych zmiennych losowych. Twierdzenia te mają olbrzymią wartość poznawczą, jednak ich wartość praktyczna jest nieco mniejsza. W szczególności, prawa wielkich liczb nie dają żadnej informacji o rozkładzie sumy zmiennych losowych, podczas gdy w wielu konkretnych zagadnieniach znajomość rozkładu ma podstawowe znaczenie. Właśnie centralne twierdzenie graniczne pozwala rozwiązać ten problem. Jak już wspominaliśmy, wynika z niego, że suma niezależnych zmiennych losowych spełniających zupełnie naturalne warunki ma w przybliżeniu rozkład normalny.

Ze względu na wagę centralnego twierdzenia granicznego wypowiemy je w trzech wersjach. Pierwsza z nich - do niedawna najczęściej używana - ma w dobie komputerów mniejsze znaczenie praktyczne,jednak w dalszym ciągu jest najbardziej popularna.

Założenie.

(Ω,Σ,P) jest przestrzenią probabilistyczną, zaś X1,X2,X3, - ciągiem niezależnych zmiennych losowych określonych na Ω. Wszystkie zmienne losowe Xi mają taki sam rozkład, a ich wspólna nadzieja matematyczna m oraz wariancja σ2 istnieją i są skończone, przy czym σ>0 (ten ostatni warunek oznacza, że zmienne losowe nie są stałymi). Jak zawsze oznaczamy:


Sn=X1++Xn


Będziemy badać najpierw zbieżność tak zwanych sum standaryzowanych, a dopiero potem wyciągniemy wnioski dotyczące samych sum Sn oraz średnich Snn.

Zmienną losową:


Zn:=SnE(Sn)D2(Sn)=Snnmσn


nazywamy standaryzacją sumy Sn. Jak łatwo zauważyć:


E(Zn)=0orazD2(Zn)=1


Twierdzenie 9.3 [Lindeberga-Levy'ego]


Dla każdego x zachodzi równość:


limnP(Znx)=Φ(x),


gdzie Φ jest dystrybuantą rozkładu N(0,1).

Dowód

Dowód tego twierdzenia jest długi i skomplikowany, więc nie przytaczamy go tutaj.

Twierdzenie Lindeberga-Levy'ego można wypowiedzieć w wersjach bardziej naturalnych - bez używania standaryzacji Zn.

Twierdzenie 9.4 [Centralne tw. graniczne dla sum]

Rozkład zmiennej losowej Sn jest asymptotycznie równy rozkładowi N(nm,σn). Inaczej:


limn(FSn(x)Φnm,σn(x))=0,


dla x.

Twierdzenie 9.5 [Centralne tw. graniczne dla średnich]

Rozkład zmiennej losowej Snn jest asymptotycznie równy rozkładowi N(m,σn). Inaczej:


limn(FSnn(x)Φm,σn(x))=0,


dla x.

Przykład 9.6.

Zinterpretujemy twierdzenie, mówiące o rozkładzie sumy niezależnych zmiennych losowych. Wyobraźmy sobie eksperyment polegający na wielokrotnym rzucie kostką do gry. Suma uzyskanych oczek S jest zmienną losową mającą, zgodnie z cytowanym twierdzeniem, w przybliżeniu rozkład N(nm,σn), gdzie m oraz σ są odpowiednio nadzieją matematyczną oraz odchyleniem standardowym zmiennej losowej X, reprezentującej wynik pojedynczego rzutu, a n jest liczbą wykonanych prób. Ponieważ X ma rozkład dyskretny, skupiony w punktach 1,2,3,4,5,6 przyjmowanych z jednakowym prawdopodobieństwem 16, więc bez trudu można stwierdzić, że:


m=3.5orazσ=10561.7078251


Przypuśćmy, że wykonano 1000 rzutów (n=1000). Wówczas suma S1000 ma w przybliżeniu rozkład N(3500,54,00617).

Zweryfikujmy "doświadczalnie" uzyskany wynik. W tym celu można przeprowadzić symulację tysiąca rzutów kostką za pomocą komputera, uzyskując odpowiednią wartość sumy wszystkich uzyskanych oczek. Doświadczenie to powtórzymy 400 razy, uzyskując 400 wartości sumy oczek. Poniżej przytaczamy kod programu Maple, umożliwiający przeprowadzenie takiej symulacji.

 > kostka := rand(1..6):
 > k := 400: n := 1000: lista := NULL:
 > from 1 to k do
 > S := 0:
 > from 1 to n do
 > S := S + kostka():
 > od:
 > lista := lista,S
 > od:

Aby graficznie zinterpretować otrzymane dane, najpierw sporządzamy odpowiedni szereg rozdzielczy (rozważamy 18 klas):

 > dane := stats[transform,tallyinto['skrajne']]([lista],
 > [seq(3320 + (i - 1)*20..3320 + i*20, i = 1..18)]);
         dane := [Weight(3480 .. 3500,55),
         Weight(3560 .. 3580,33), Weight(3660 .. 3680,0),
         Weight(3340 .. 3360,5), Weight(3540 .. 3560,31),
         Weight(3640 .. 3660,4), Weight(3360 .. 3380,2),
         Weight(3520 .. 3540,43), Weight(3420 .. 3440,28),
         Weight(3620 .. 3640,4), Weight(3460 .. 3480,53),
         Weight(3320 .. 3340,0), Weight(3500 .. 3520,66),
         Weight(3600 .. 3620,10), Weight(3380 .. 3400,8),
         Weight(3400 .. 3420,13), Weight(3440 .. 3460,28),
         Weight(3580 .. 3600,17)];

Sprawdzamy, czy są sumy, które nie zostały uwzględnione - sumy te byłyby wpisane na listę o nazwie skrajne:

 > skrajne;
skrajne

Okazało się więc, że w tym przypadku wszystkie sumy zostały uwzględnione.

W celu sporządzenia histogramu, dobieramy wysokości słupków tak, aby pola wszystkich słupków dawały w sumie 1:

 > dane1 := stats[transform,
 > scaleweight[1/nops([lista])]](dane);}{}
         dane1 := [Weight(3480 .. 3500,11/80), Weight(3560 .. 3580,33/400),
         Weight(3660 .. 3680,0), Weight(3340 .. 3360,1/80), Weight(3540 .. 3560,31/400),
         Weight(3640 .. 3660,1/100), Weight(3360 .. 3380,1/200), Weight(3520 .. 3540,43/400),
         Weight(3420 .. 3440,7/100), Weight(3620 .. 3640,1/100), Weight(3460 .. 3480,53/400),
         Weight(3320 .. 3340,0), Weight(3500 .. 3520,33/200), Weight(3600 .. 3620,1/40),
         Weight(3380 .. 3400,1/50), Weight(3400 .. 3420,13/400), Weight(3440 .. 3460,7/100),
         Weight(3580 .. 3600,17/400)];

Teraz rysujemy histogram:

 > stats[statplots,histogram](dane1);

<flash>file=Rp.1.94.swf|width=350|height=350</flash>

oraz zachowujemy powyższy wykres:

 > g1 := %:

Dla wygody obliczamy jeszcze raz nadzieję i wariancję dla pojedynczej kostki:

> ek := add(i,i=1..6)/6: vk := add(i^2,i=1..6)/6 - ek^2:

a następnie obliczamy nadzieję i wariancję sumy:

> es := n*ek;  vs := n*vk;


es:=3500


vs:=87503


Przygotowujemy wykres gęstości rozkładu teoretycznego (lecz go jeszcze nie wyświetlamy):

 > g2 := plot(f(es,sqrt(vs)),3320..3680, color=black):

Obliczamy średnią i odchylenie standardowe dla szeregu rozdzielczego:

 > ee := evalf(stats[describe,mean]([lista]));


ee:=3501.587500


 > ve := evalf(stats[describe,standarddeviation]([lista]));


ve:=57.07764311


Teraz przygotowujemy wykres gęstości rozkładu normalnego o parametrach obliczonych z szeregu rozdzielczego:

 > g3 := plot(f(ee,ve),3320..3680, color=black,thickness=2):

aby następnie wyświetlić, na jednym rysunku, histogram i dwie poprzednio otrzymane gęstości:

 > plots[display](g1,g2,g3);


<flash>file=Rp.1.95.swf|width=350|height=350</flash>


Ponieważ bardzo często zmiennymi losowymi są niezależne próby Bernoulliego, więc sformułujemy centralne twierdzenie graniczne specjalnie dla tego przypadku. Jest to natychmiastowy wniosek z twierdzenia Lindeberga-Levy'ego (twierdzenie 9.3).


Twierdzenie 9.7 [de Moivre'a-Laplace'a]

Niech X1,X2,X3, będzie ciągiem niezależnych prób Bernoulliego, z takim samym prawdopodobieństwem sukcesu p i porażki q=1p w każdej próbie (0<p<1). Wtedy:


P(Snnpnpqx)Φ(x),


dla każdego x.

Oczywiście, twierdzenie 9.4 i twierdzenie 9.5 można także z łatwością przeformułować dla przypadku niezależnych prób Bernoulliego.

Uwaga 9.8

Wyraźnie zaznaczamy, że centralne twierdzenie graniczne jest prawdziwe przy dużo ogólniejszych założeniach. W szczególności zmienne losowe nie muszą mieć takiego samego rozkładu, a nawet nie muszą być niezależne. Jednakże, różnym wersjom centralnego twierdzenia granicznego przyświeca ta sama idea:

suma niewiele zależnych od siebie składników losowych, z których żaden nie dominuje istotnie nad pozostałymi, ma w przybliżeniu rozkład normalny.

<references/>