Rachunek prawdopodobieństwa i statystyka/Wykład 11: Wnioskowanie statystyczne: Różnice pomiędzy wersjami

Z Studia Informatyczne
Przejdź do nawigacjiPrzejdź do wyszukiwania
m Zastępowanie tekstu – „<math> ” na „<math>”
 
(Nie pokazano 17 wersji utworzonych przez 2 użytkowników)
Linia 9: Linia 9:


==Pojęcia podstawowe==
==Pojęcia podstawowe==
<div class="thumb tright"><flashwrap>file=Rp-11-1-1.swf|size=small</flashwrap></div>
[[File:Rp-11-1-1.mp4|253x253px|thumb|right| ]]
Jak pamiętamy, statystyka opisowa dotyczy sytuacji, w których mamy
Jak pamiętamy, statystyka opisowa dotyczy sytuacji, w których mamy
do czynienia z pewną cechą (lub cechami) elementów określonej
do czynienia z pewną cechą (lub cechami) elementów określonej
Linia 19: Linia 19:
komisja wyborcza po przeliczeniu wszystkich oddanych głosów
komisja wyborcza po przeliczeniu wszystkich oddanych głosów
pozwalają jednoznacznie podać procent wyborców popierających daną partię,
pozwalają jednoznacznie podać procent wyborców popierających daną partię,
powiedzmy partię <math>\displaystyle ABC</math>. Jest to zrobione na podstawie danych o
powiedzmy partię <math>ABC</math>. Jest to zrobione na podstawie danych o
każdej osobie, która poszła do wyborów. Natomiast sondaż
każdej osobie, która poszła do wyborów. Natomiast sondaż
przeprowadzany przez ankieterów przed lokalami wyborczymi dotyczy
przeprowadzany przez ankieterów przed lokalami wyborczymi dotyczy
tylko niewielkiej części głosujących, a jednak na jego podstawie
tylko niewielkiej części głosujących, a jednak na jego podstawie
jest podawany procent wyborców popierających partię <math>\displaystyle ABC</math>. Jest to
jest podawany procent wyborców popierających partię <math>ABC</math>. Jest to
możliwe dzięki metodom tak zwanego wnioskowania
możliwe dzięki metodom tak zwanego wnioskowania
statystycznego.
statystycznego.
Linia 33: Linia 33:
parametru tej cechy (na przykład jej wartości średniej).
parametru tej cechy (na przykład jej wartości średniej).


1. Ile wynosi parametr (na przykład średnia) naszej cechy w całej populacji? <math>\displaystyle \longrightarrow</math> ''Estymacja punktowa''
1. Ile wynosi parametr (na przykład średnia) naszej cechy w całej populacji? <math>\longrightarrow</math> ''Estymacja punktowa''


2. W jakim zakresie (zbiorze) znajduje się ten parametr? <math>\displaystyle \longrightarrow</math> ''Estymacja przedziałowa''
2. W jakim zakresie (zbiorze) znajduje się ten parametr? <math>\longrightarrow</math> ''Estymacja przedziałowa''


3. Czy prawdą jest, że nasz parametr należy do określonego zbioru? <math>\displaystyle \longrightarrow</math> ''Testowanie hipotez statystycznych''
3. Czy prawdą jest, że nasz parametr należy do określonego zbioru? <math>\longrightarrow</math> ''Testowanie hipotez statystycznych''


Zauważmy, że  tak sformułowane problemy są faktycznie
Zauważmy, że  tak sformułowane problemy są faktycznie
niemożliwe do rozwiązania. Przykładowo, nie możemy z całą
niemożliwe do rozwiązania. Przykładowo, nie możemy z całą
pewnością , na podstawie sondażu przed lokalami wyborczymi,
pewnością , na podstawie sondażu przed lokalami wyborczymi,
jakie poparcie uzyskała partia <math>\displaystyle ABC</math>. Dlatego nasze pytania
jakie poparcie uzyskała partia <math>ABC</math>. Dlatego nasze pytania
muszą zostać przeformułowane tak, aby można było na nie
muszą zostać przeformułowane tak, aby można było na nie
sensownie odpowiedzieć. Aby to zrobić, najpierw zbudujemy
sensownie odpowiedzieć. Aby to zrobić, najpierw zbudujemy
Linia 52: Linia 52:
estymacji przedziałowej i testowania hipotez.
estymacji przedziałowej i testowania hipotez.


Na początku zakładamy, że interesująca nas cecha <math>\displaystyle X</math>
Na początku zakładamy, że interesująca nas cecha <math>X</math>
ma charakter losowy, czyli że jest ona  zmienną losową (lub wektorem losowym)
ma charakter losowy, czyli że jest ona  zmienną losową (lub wektorem losowym)
określoną na pewnej przestrzeni probabilistycznej,
określoną na pewnej przestrzeni probabilistycznej,
powiedzmy <math>\displaystyle (\Omega, \Sigma, P)</math>. W takim razie,
powiedzmy <math>(\Omega, \Sigma, P)</math>. W takim razie,
interesujący nas parametr jest parametrem zmiennej losowej
interesujący nas parametr jest parametrem zmiennej losowej
<math>\displaystyle X</math> lub, bardziej precyzyjnie, parametrem rozkładu <math>\displaystyle P_X</math> tej
<math>X</math> lub, bardziej precyzyjnie, parametrem rozkładu <math>P_X</math> tej
<div class="thumb tright"><flashwrap>file=Rp-11-1-2.swf|size=small</flashwrap></div>zmiennej. Wówczas zamiast mówić, na przykład, o wartości średniej danej cechy, będziemy mówić o nadziei
[[File:Rp-11-1-2.mp4|253x253px|thumb|right| ]]zmiennej. Wówczas zamiast mówić, na przykład, o wartości średniej danej cechy, będziemy mówić o nadziei
matematycznej odpowiadającej jej zmiennej losowej. Tak więc sformułowane
matematycznej odpowiadającej jej zmiennej losowej. Tak więc sformułowane
powyżej pytania dotyczą parametrów rozkładu <math>\displaystyle P_X</math>.
powyżej pytania dotyczą parametrów rozkładu <math>P_X</math>.


Dość często możemy z góry założyć, że nasza cecha posiada rozkład
Dość często możemy z góry założyć, że nasza cecha posiada rozkład
określonego typu. Na przykład, gdy prowadzimy sondaż, nasza
określonego typu. Na przykład, gdy prowadzimy sondaż, nasza
cecha ma rozkład dwupunktowy <math>\displaystyle (0,1,p)</math>: "0" oznacza, że wyborca nie
cecha ma rozkład dwupunktowy <math>(0,1,p)</math>: "0" oznacza, że wyborca nie
głosował na partię <math>\displaystyle ABC</math>, zaś "1" oznacza, że na tę partię głosował - nas natomiast
głosował na partię <math>ABC</math>, zaś "1" oznacza, że na tę partię głosował - nas natomiast
interesuje parametr <math>\displaystyle p</math>, a właściwie <math>\displaystyle p\cdot 100\%</math>. Często też,
interesuje parametr <math>p</math>, a właściwie <math>p\cdot 100\%</math>. Często też,
korzystając z centralnego twierdzenia granicznego, można
korzystając z centralnego twierdzenia granicznego, można
założyć, że dana cecha ma rozkład <math>\displaystyle N(m,\sigma)</math> -wtedy
założyć, że dana cecha ma rozkład <math>N(m,\sigma)</math> - wtedy
parametr <math>\displaystyle m</math> odpowiada średniej wartości cechy, zaś <math>\displaystyle \sigma</math> - jej odchyleniu
parametr <math>m</math> odpowiada średniej wartości cechy, zaś <math>\sigma</math> - jej odchyleniu
standardowemu.
standardowemu.


W związku z powyższym, przyjmujemy ogólne założenie, że mamy
W związku z powyższym, przyjmujemy ogólne założenie, że mamy
ustaloną jakąś rodzinę rozkładów prawdopodobieństwa,
ustaloną jakąś rodzinę rozkładów prawdopodobieństwa,
indeksowaną przez pewien parametr <math>\displaystyle \theta \in \Theta</math> - będziemy pisać:  
indeksowaną przez pewien parametr <math>\theta \in \Theta</math> - będziemy pisać:  




<center><math>\displaystyle
<center>
\mathcal{P} = \{P_\theta :  \theta \in \Theta\}.
<math>
</math></center>  
\mathcal{P} = \{P_\theta :  \theta \in \Theta\}</math>
</center>  




W pierwszym z powyższych przypadków
W pierwszym z powyższych przypadków
<math>\displaystyle \mathcal{P}</math> jest rodziną rozkładów dwupunktowych <math>\displaystyle (0,1,p)</math>, a więc <math>\displaystyle \Theta</math> jest
<math>\mathcal{P}</math> jest rodziną rozkładów dwupunktowych <math>(0,1,p)</math>, a więc <math>\Theta</math> jest
przedziałem <math>\displaystyle (0,1)</math>, zaś w drugim - <math>\displaystyle \mathcal{P}</math> jest rodziną wszystkich
przedziałem <math>(0,1)</math>, zaś w drugim - <math>\mathcal{P}</math> jest rodziną wszystkich
rozkładów normalnych, zatem <math>\displaystyle \Theta</math> jest iloczynem
rozkładów normalnych, zatem <math>\Theta</math> jest iloczynem
kartezjańskim <math>\displaystyle {\Bbb R}\times(0, \infty)</math>. Dopuszcza się też
kartezjańskim <math>{\Bbb R}\times(0, \infty)</math>. Dopuszcza się też
możliwość, że <math>\displaystyle \mathcal{P}</math> jest zbiorem wszystkich możliwych
możliwość, że <math>\mathcal{P}</math> jest zbiorem wszystkich możliwych
rozkładów prawdopodobieństwa, czyli że <math>\displaystyle \Theta=\mathcal{P}</math>.
rozkładów prawdopodobieństwa, czyli że <math>\Theta=\mathcal{P}</math>.


Możemy teraz, przy powyższych założeniach i oznaczeniach, interesujące nas zagadnienia
Możemy teraz, przy powyższych założeniach i oznaczeniach, interesujące nas zagadnienia
sformułować w następujący sposób:
sformułować w następujący sposób:


1' znaleźć <math>\displaystyle \theta \in \Theta</math> takie, że <math>\displaystyle P_X = P_\theta</math>,
1' znaleźć <math>\theta \in \Theta</math> takie, że <math>P_X = P_\theta</math>,


2' znaleźć zbiór <math>\displaystyle \Theta_0 \subset \Theta</math> taki, że <math>\displaystyle P_X =
2' znaleźć zbiór <math>\Theta_0 \subset \Theta</math> taki, że <math>P_X =
P_\theta</math> dla pewnego <math>\displaystyle \theta \in \Theta_0</math>,
P_\theta</math> dla pewnego <math>\theta \in \Theta_0</math>,


3' czy prawdą jest, że <math>\displaystyle P_X = P_\theta</math> dla pewnego <math>\displaystyle \theta \in \Theta_0</math>, gdzie <math>\displaystyle \Theta_0</math> jest z góry
3' czy prawdą jest, że <math>P_X = P_\theta</math> dla pewnego <math>\theta \in \Theta_0</math>, gdzie <math>\Theta_0</math> jest z góry
ustalonym zbiorem?
ustalonym zbiorem?


Linia 109: Linia 110:


Załóżmy, że obserwujemy ciąg zmiennych losowych,
Załóżmy, że obserwujemy ciąg zmiennych losowych,
powiedzmy <math>\displaystyle X_1,\dots, X_n</math>, określonych na
powiedzmy <math>X_1,\dots, X_n</math>, określonych na
przestrzeni probabilistycznej <math>\displaystyle (\Omega, \Sigma, P)</math> (przypominamy, że na tej samej przestrzeni jest określona także zmienna losowa <math>\displaystyle X</math>, reprezentująca daną cechę), z których każda ma
przestrzeni probabilistycznej <math>(\Omega, \Sigma, P)</math> (przypominamy, że na tej samej przestrzeni jest określona także zmienna losowa <math>X</math>, reprezentująca daną cechę), z których każda ma
taki sam rozkład jak <math>\displaystyle X</math>, czyli:  
taki sam rozkład jak <math>X</math>, czyli:  




<center><math>\displaystyle
<center><math>
P_{X_i} = P_X\;\; </math> dla <math>\displaystyle  \; i = 1, \dots, n.
P_{X_i} = P_X\;\;</math> dla <math>\; i = 1, \dots, n
</math></center>  
</math></center>  




Tak zdefiniowany ciąg nazywa się próbką ze
Tak zdefiniowany ciąg nazywa się próbką ze
zmiennej losowej <math>\displaystyle X</math> -
zmiennej losowej <math>X</math> -
odpowiada on zaobserwowanym faktycznie wartościom cechy, powiedzmy <math>\displaystyle x_1,\dots,
odpowiada on zaobserwowanym faktycznie wartościom cechy, powiedzmy <math>x_1,\dots,
x_n</math> (ten ostatni ciąg także nazywa się próbką wartości
x_n</math> (ten ostatni ciąg także nazywa się próbką wartości
cechy, tak więc w dalszej części będziemy mówić po prostu o próbce, a
cechy, tak więc w dalszej części będziemy mówić po prostu o próbce, a
z kontekstu będzie wynikać znaczenie, w jakim słowo to
z kontekstu będzie wynikać znaczenie, w jakim słowo to
zostało użyte). Bardzo często zdarza się, iż obserwacje wartości cechy są
zostało użyte). Bardzo często zdarza się, iż obserwacje wartości cechy są
niezależne od siebie - jeżeli tak jest, to ciąg <math>\displaystyle x_1,\dots, x_n</math>
niezależne od siebie - jeżeli tak jest, to ciąg <math>x_1,\dots, x_n</math>
nazywa się próbką prostą. W języku zmiennych losowych
nazywa się próbką prostą. W języku zmiennych losowych
mówimy, że <math>\displaystyle X_1,\dots, X_n</math> jest próbką prostą, gdy zmienne
mówimy, że <math>X_1,\dots, X_n</math> jest próbką prostą, gdy zmienne
losowe <math>\displaystyle X_1,\dots, X_n</math> tworzą próbkę i są niezależnymi
losowe <math>X_1,\dots, X_n</math> tworzą próbkę i są niezależnymi
zmiennymi losowymi. W dalszej części będziemy rozważać
zmiennymi losowymi. W dalszej części będziemy rozważać
tylko próbki proste.
tylko próbki proste.
Linia 136: Linia 137:


{{definicja|11.1|def 11.1|
{{definicja|11.1|def 11.1|
Statystyką nazywamy dowolną funkcję  <math>\displaystyle T\colon {\Bbb R}^n \longrightarrow {\Bbb R}^d</math>, która jest mierzalna  ze względu na
Statystyką nazywamy dowolną funkcję  <math>T\colon {\Bbb R}^n \longrightarrow {\Bbb R}^d</math>, która jest mierzalna  ze względu na
<math>\displaystyle \sigma</math>-algebrę zbiorów borelowskich <math>\displaystyle {\cal
<math>\sigma</math>-algebrę zbiorów borelowskich <math>{\cal
B}({{\Bbb R}^n})</math>, to znaczy:
B}({{\Bbb R}^n})</math>, to znaczy:




<center><math>\displaystyle
<center><math>
T^{-1}(B)\in {\cal B}({{\Bbb R}^n})\;\; </math> dla każdego <math>\displaystyle  \; B\in {\cal B}({{\Bbb R}^d}).
T^{-1}(B)\in {\cal B}({{\Bbb R}^n})\;\;</math> dla każdego <math>\; B\in {\cal B}({{\Bbb R}^d})
</math></center>
</math></center>


Linia 148: Linia 149:
}}
}}


Okazuje się, iż zdecydowana większość rozważanych w praktyce funkcji <math>\displaystyle {\Bbb R}^n \longrightarrow \ {\Bbb R}^d</math> spełnia powyższą definicję.
Okazuje się, iż zdecydowana większość rozważanych w praktyce funkcji <math>{\Bbb R}^n \longrightarrow \ {\Bbb R}^d</math> spełnia powyższą definicję.
Zauważmy, ze jeżeli na przestrzeni <math>\displaystyle {\Bbb R}^n</math> określimy rozkład prawdopodobieństwa, powiedzmy <math>\displaystyle Q</math>, to znaczy gdy  <math>\displaystyle ({\Bbb R}^n,{\cal
Zauważmy, ze jeżeli na przestrzeni <math>{\Bbb R}^n</math> określimy rozkład prawdopodobieństwa, powiedzmy <math>Q</math>, to znaczy gdy  <math>({\Bbb R}^n,{\cal
B}({{\Bbb R}^n}),Q)</math> jest przestrzenią probabilistyczną, to statystyka
B}({{\Bbb R}^n}),Q)</math> jest przestrzenią probabilistyczną, to statystyka
<math>\displaystyle T\colon {\Bbb R}^n \longrightarrow {\Bbb R}^d</math> jest  <math>\displaystyle d</math>-wymiarowym wektorem losowym, określonym na tej przestrzeni.
<math>T\colon {\Bbb R}^n \longrightarrow {\Bbb R}^d</math> jest  <math>d</math>-wymiarowym wektorem losowym, określonym na tej przestrzeni.


{{definicja|11.2|def 11.2|
{{definicja|11.2|def 11.2|
Niech <math>\displaystyle X_1, \dots , X_n</math> będzie próbką prostą
Niech <math>X_1, \dots , X_n</math> będzie próbką prostą
ze zmiennej losowej <math>\displaystyle X</math>. Estymatorem parametru zmiennej
ze zmiennej losowej <math>X</math>. Estymatorem parametru zmiennej
<math>\displaystyle X</math> nazywamy zmienną losową, będącą złożeniem wektora
<math>X</math> nazywamy zmienną losową, będącą złożeniem wektora
losowego <math>\displaystyle (X_1, \dots , X_n)</math> ze statystyką <math>\displaystyle T</math>, czyli
losowego <math>(X_1, \dots , X_n)</math> ze statystyką <math>T</math>, czyli
funkcję:  
funkcję:  




<center><math>\displaystyle
<center><math>
T\circ (X_1, \dots , X_n).
T\circ (X_1, \dots , X_n)
</math></center>
</math></center>


Linia 168: Linia 169:
}}
}}


Opuszczając znak operatora złożenia "<math>\displaystyle \circ </math>", co się często w praktyce czyni,
Opuszczając znak operatora złożenia "<math>\circ</math>", co się często w praktyce czyni,
możemy estymator oznaczyć (nieściśle) jako:
możemy estymator oznaczyć (nieściśle) jako:




<center><math>\displaystyle
<center><math>
T(X_1, \dots , X_n).
T(X_1, \dots , X_n)
</math></center>
</math></center>


Linia 181: Linia 182:




<center><math>\displaystyle
<center><math>
T( \displaystyle x_1, \dots, x_n\displaystyle  )
T(x_1, \dots, x_n )
= \frac{x_1+ \dots + x_n}{n},
= \frac{x_1+ \dots + x_n}{n}
</math></center>  
</math></center>  


Linia 190: Linia 191:




<center><math>\displaystyle
<center><math>
T( \displaystyle X_1, \dots, X_n\displaystyle  ) = \frac{X_1+ \dots + X_n}{n}.
T(X_1, \dots, X_n ) = \frac{X_1+ \dots + X_n}{n}
</math></center>
</math></center>


Linia 200: Linia 201:




<center><math>\displaystyle
<center><math>
\bar{x}\; </math> lub <math>\displaystyle  \;\bar{x}_n\;\; </math> oraz, odpowiednio, <math>\displaystyle  \;\;\bar{X}\; </math> lub <math>\displaystyle  \;\bar{X}_n.
\bar{x}\;</math> lub <math>\;\bar{x}_n\;\;</math> oraz, odpowiednio, <math>\;\;\bar{X}\;</math> lub <math>\;\bar{X}_n
</math></center>  
</math></center>  


Linia 209: Linia 210:




<center><math>\displaystyle 
<center><math>
T( \displaystyle x_1, \dots, x_n\displaystyle  ) = (x_{(1)}, \dots x_{(n)}),
T(x_1, \dots, x_n ) = (x_{(1)}, \dots x_{(n)})
</math></center>
</math></center>




gdzie <math>\displaystyle x_{(1)}, \dots, x_{(n)}</math> oznaczają elementy próbki <math>\displaystyle  \displaystyle x_1, \dots, x_n\displaystyle  </math> ustawione w porządku rosnącym:
gdzie <math>x_{(1)}, \dots, x_{(n)}</math> oznaczają elementy próbki <math>x_1, \dots, x_n</math> ustawione w porządku rosnącym:




<center><math>\displaystyle
<center><math>
x_{(1)} \le \dots  \le x_{(n)}.
x_{(1)} \le \dots  \le x_{(n)}
</math></center>
</math></center>


Linia 224: Linia 225:
}}
}}


Estymator, jak każdy wektor losowy, posiada swój rozkład <math>\displaystyle P_{T(X_1,
Estymator, jak każdy wektor losowy, posiada swój rozkład <math>P_{T(X_1,
\dots, X_n)}</math>, który będziemy w skrócie oznaczać symbolem
\dots, X_n)}</math>, który będziemy w skrócie oznaczać symbolem
<math>\displaystyle P_T</math>. Dość często utożsamia się statystykę <math>\displaystyle T</math> z
<math>P_T</math>. Dość często utożsamia się statystykę <math>T</math> z
odpowiadającym jej estymatorem <math>\displaystyle T(X_1, \dots , X_n)</math> i w
odpowiadającym jej estymatorem <math>T(X_1, \dots , X_n)</math> i w
związku z tym mówi się także, że <math>\displaystyle P_T</math> jest rozkładem
związku z tym mówi się także, że <math>P_T</math> jest rozkładem
statystyki <math>\displaystyle T</math>. Oczywiście, rozkład <math>\displaystyle P_T</math> zależy w sposób
statystyki <math>T</math>. Oczywiście, rozkład <math>P_T</math> zależy w sposób
jednoznaczny od rozkładu <math>\displaystyle P_X</math> zmiennej losowej <math>\displaystyle X</math>, z której
jednoznaczny od rozkładu <math>P_X</math> zmiennej losowej <math>X</math>, z której
pochodzi próbka prosta. Istnieją twierdzenia, dzięki którym
pochodzi próbka prosta. Istnieją twierdzenia, dzięki którym
można w szczególnych przypadkach efektywnie wyznaczyć tę zależność.
można w szczególnych przypadkach efektywnie wyznaczyć tę zależność.
Linia 236: Linia 237:


{{przyklad|11.5|przy 11.5|
{{przyklad|11.5|przy 11.5|
Wiadomo (patrz twierdzenie [[Rachunek prawdopodobieństwa i statystyka/Wykład 9: Rozkład normalny i centralne twierdzenie graniczne#tw_9_2|9.2]]), że gdy zmienna <math>\displaystyle X</math> ma rozkład
Wiadomo (patrz [[Rachunek prawdopodobieństwa i statystyka/Wykład 9: Rozkład normalny i centralne twierdzenie graniczne#tw_9.2|twierdzenie 9.2]]), że gdy zmienna <math>X</math> ma rozkład
<math>\displaystyle N(m,\sigma)</math>, to rozkład <math>\displaystyle P_T</math> statystyki <math>\displaystyle T = \bar{x}</math> jest rozkładem <math>\displaystyle N(m,\frac{\sigma}{\sqrt{n}})</math>. Natomiast w przypadku, gdy
<math>N(m,\sigma)</math>, to rozkład <math>P_T</math> statystyki <math>T = \bar{x}</math> jest rozkładem <math>N(m,\frac{\sigma}{\sqrt{n}})</math>. Natomiast w przypadku, gdy
nie znamy rozkładu zmiennej <math>\displaystyle X</math>, a jedynie jej nadzieję
nie znamy rozkładu zmiennej <math>X</math>, a jedynie jej nadzieję
matematyczną <math>\displaystyle m</math> i odchylenie standardowe <math>\displaystyle \sigma</math>, ale wielkość
matematyczną <math>m</math> i odchylenie standardowe <math>\sigma</math>, ale wielkość
próbki <math>\displaystyle n</math> jest duża, to z centralnego twierdzenia granicznego
próbki <math>n</math> jest duża, to z centralnego twierdzenia granicznego
wynika, że <math>\displaystyle P_T</math> ma w przybliżeniu rozkład
wynika, że <math>P_T</math> ma w przybliżeniu rozkład
<math>\displaystyle N(m,\frac{\sigma}{\sqrt{n}})</math>. }}
<math>N(m,\frac{\sigma}{\sqrt{n}})</math>. }}


==Estymatory nieobciążone i zgodne==
==Estymatory nieobciążone i zgodne==
<div class="thumb tright"><flashwrap>file=Rp-11-3.swf|size=small</flashwrap>
[[File:Rp-11-3.mp4|253x253px|thumb|right]]
<div.thumbcaption>Rp-11-3.swf</div></div>
Jednym z zadań statystyki jest znajdowanie estymatorów (a więc statystyk), które w jakimś sensie mówią nam o
Jednym z zadań statystyki jest znajdowanie estymatorów (a więc statystyk), które w jakimś sensie mówią nam o
rozkładzie <math>\displaystyle P_X</math> zmiennej losowej <math>\displaystyle X</math>, z której pochodzi dana próbka. Na przykład, wydaje się, że znajomość średniej arytmetycznej:
rozkładzie <math>P_X</math> zmiennej losowej <math>X</math>, z której pochodzi dana próbka. Na przykład, wydaje się, że znajomość średniej arytmetycznej:




<center><math>\displaystyle
<center>
\bar{X} = \frac{X_1+ \dots + X_n}{n},
<math>
</math></center>
\bar{X} = \frac{X_1+ \dots + X_n}{n}</math>,
</center>




daje nam pewne informacje o nadziei matematycznej <math>\displaystyle {\Bbb E}(X)</math>. Zauważmy jednak, że istnieją inne estymatory, które także dają pewne informacje o wartości średniej - przykładowo:  
daje nam pewne informacje o nadziei matematycznej <math>{\Bbb E}(X)</math>. Zauważmy jednak, że istnieją inne estymatory, które także dają pewne informacje o wartości średniej - przykładowo:  




<center><math>\displaystyle
<center>
T( \displaystyle x_1, \dots, x_n\displaystyle  )
<math>
T(x_1, \dots, x_n )
= \frac{x_1+ x_n}{2}
= \frac{x_1+ x_n}{2}
</math></center>  
</math>
</center>  




Linia 268: Linia 271:




<center><math>\displaystyle
<center>
T( \displaystyle x_1, \dots, x_n\displaystyle  )
<math>
T(x_1, \dots, x_n )
= \frac{
= \frac{
\min_{1 \le i \le n} \{x_i\} + \max_{1\le i \le n} \{x_i\} }{2}.
\min_{1 \le i \le n} \{x_i\} + \max_{1\le i \le n} \{x_i\} }{2}</math>
</math></center>
</center>




Linia 284: Linia 288:


{{definicja|11.6|def 11.6|
{{definicja|11.6|def 11.6|
Niech <math>\displaystyle X_1, \dots , X_n</math> będzie próbką prostą
Niech <math>X_1, \dots , X_n</math> będzie próbką prostą
ze zmiennej losowej <math>\displaystyle X</math> oraz niech <math>\displaystyle \mathcal{P} = \{P_\theta :  \theta \in \Theta\}</math> będzie rodziną rozkładów, przy czym <math>\displaystyle \Theta \subset {\Bbb R}</math>.
ze zmiennej losowej <math>X</math> oraz niech <math>\mathcal{P} = \{P_\theta :  \theta \in \Theta\}</math> będzie rodziną rozkładów, przy czym <math>\Theta \subset {\Bbb R}</math>.
Estymator <math>\displaystyle T(X_1, \dots , X_n)</math>  nazywamy estymatorem
Estymator <math>T(X_1, \dots , X_n)</math>  nazywamy estymatorem
nieobciążonym parametru <math>\displaystyle \theta \in \Theta</math>, jeżeli:  
nieobciążonym parametru <math>\theta \in \Theta</math>, jeżeli:  




<center><math>\displaystyle
<center><math>
{\Bbb E}(T(X_1, \dots , X_n)) = \theta.
{\Bbb E}(T(X_1, \dots , X_n)) = \theta</math></center>
</math></center>




Linia 299: Linia 302:


{{przyklad|11.7|przy 11.7|
{{przyklad|11.7|przy 11.7|
Średnia arytmetyczna jest estymatorem nieobciążonym nadziei matematycznej <math>\displaystyle {\Bbb E}(X)</math>.
Średnia arytmetyczna jest estymatorem nieobciążonym nadziei matematycznej <math>{\Bbb E}(X)</math>.
Rzeczywiście, stosując podstawowe własności nadziei matematycznej otrzymujemy:
Rzeczywiście, stosując podstawowe własności nadziei matematycznej otrzymujemy:




<center><math>\displaystyle
<center><math>
{\Bbb E}(\bar{X}_n) = {\Bbb E}\left(\frac{X_1+ \dots + X_n}{n}\right) =
{\Bbb E}(\bar{X}_n) = {\Bbb E}\left(\frac{X_1+ \dots + X_n}{n}\right) =
\frac{1}{n}{\Bbb E}(X_1+ \dots + X_n) = \frac{1}{n} n {\Bbb E}(X) = {\Bbb E}(X).
\frac{1}{n}{\Bbb E}(X_1+ \dots + X_n) = \frac{1}{n} n {\Bbb E}(X) = {\Bbb E}(X)</math></center>
</math></center>




Linia 312: Linia 314:


{{przyklad|11.8|przy 11.8|
{{przyklad|11.8|przy 11.8|
Niech <math>\displaystyle m = {\Bbb E}(X)</math> oraz niech <math>\displaystyle s^2</math> będzie statystyką określoną wzorem:
Niech <math>m = {\Bbb E}(X)</math> oraz niech <math>s^2</math> będzie statystyką określoną wzorem:




<center><math>\displaystyle
<center><math>
s^{2}( \displaystyle x_1, \dots, x_n\displaystyle  ) = \frac{1}{n} \sum_{i=1}^{n} ( x_{i}-m)^{2}.
s^{2}(x_1, \dots, x_n ) = \frac{1}{n} \sum_{i=1}^{n} ( x_{i}-m)^{2}</math></center>  
</math></center>  




Wówczas estymator odpowiadający statystyce <math>\displaystyle s^2</math> jest nieobciążonym estymatorem wariancji <math>\displaystyle {\Bbb D}^2 (X)</math>. Rzeczywiście:
Wówczas estymator odpowiadający statystyce <math>s^2</math> jest nieobciążonym estymatorem wariancji <math>{\Bbb D}^2 (X)</math>. Rzeczywiście:




<center><math>\displaystyle
<center><math>
{\Bbb E}(s^2( \displaystyle X_1, \dots, X_n\displaystyle  ))  = {\Bbb E}\left( \frac{1}{n} \sum_{i=1}^{n} ( X_{i}-m)^{2} \right)
{\Bbb E}(s^2(X_1, \dots, X_n ))  = {\Bbb E}\left( \frac{1}{n} \sum_{i=1}^{n} ( X_{i}-m)^{2} \right)
= \frac{1}{n}\sum_{i=1}^{n}{\Bbb E} ( (X_{i}-m)^{2})
= \frac{1}{n}\sum_{i=1}^{n}{\Bbb E} ( (X_{i}-m)^{2})
</math></center>
</math></center>




<center><math>\displaystyle
<center><math>
= \frac{1}{n} n {\Bbb D}^2 (X)  = {\Bbb D}^2 (X).
= \frac{1}{n} n {\Bbb D}^2 (X)  = {\Bbb D}^2 (X)</math></center>
</math></center>




Linia 338: Linia 338:
{{przyklad|11.9|przy 11.9|
{{przyklad|11.9|przy 11.9|
W przypadku, gdy nie znamy nadziei
W przypadku, gdy nie znamy nadziei
matematycznej <math>\displaystyle m</math>, możemy także estymować wariancję -
matematycznej <math>m</math>, możemy także estymować wariancję -
definiujemy wtedy <math>\displaystyle s^2</math> następująco:
definiujemy wtedy <math>s^2</math> następująco:




<center><math>\displaystyle
<center><math>
s^{2}( \displaystyle x_1, \dots, x_n\displaystyle  ) = \frac{1}{n} \sum_{i=1}^{n} ( x_{i}-\bar{x})^{2}.
s^{2}(x_1, \dots, x_n ) = \frac{1}{n} \sum_{i=1}^{n} ( x_{i}-\bar{x})^{2}</math></center>
</math></center>




Okazuje się niestety, iż jest to estymator obciążony. Aby to wykazać, zauważmy najpierw, że ponieważ
Okazuje się niestety, iż jest to estymator obciążony. Aby to wykazać, zauważmy najpierw, że ponieważ
zmienne losowe <math>\displaystyle X_i - \bar{X}</math> mają takie same rozkłady, zatem:
zmienne losowe <math>X_i - \bar{X}</math> mają takie same rozkłady, zatem:




<center><math>\displaystyle
<center><math>
{\Bbb E}(s^2( \displaystyle X_1, \dots, X_n\displaystyle  )) =  \frac{1}{n} n {\Bbb E}((X_1 - \bar{X})^2)
{\Bbb E}(s^2(X_1, \dots, X_n )) =  \frac{1}{n} n {\Bbb E}((X_1 - \bar{X})^2)
= {\Bbb E}\left(\left(X_1 - \frac{X_1 + \dots + X_n}{n} \right)^2\right)
= {\Bbb E}\left(\left(X_1 - \frac{X_1 + \dots + X_n}{n} \right)^2\right)
</math></center>
</math></center>




<center><math>\displaystyle
<center><math>
= {\Bbb E}\left(\left(\frac{n-1}{n}X_1 - \frac{X_2 + \dots + X_n}{n} \right)^2\right) =
= {\Bbb E}\left(\left(\frac{n-1}{n}X_1 - \frac{X_2 + \dots + X_n}{n} \right)^2\right)  
</math></center>
</math></center>




<center><math>\displaystyle
<center><math>
{\Bbb E}\left(\left(\frac{n-1}{n}(X_1 - m)- \frac{(X_2-m) + \dots + (X_n - m)}{n} \right)^2\right)
= {\Bbb E}\left(\left(\frac{n-1}{n}(X_1 - m)- \frac{(X_2-m) + \dots + (X_n - m)}{n} \right)^2\right)
</math></center>
</math></center>




(tę ostatnią równość otrzymano dodając i odejmując liczbę <math>\displaystyle \frac{n-1}{n}m</math>).
(tę ostatnią równość otrzymano dodając i odejmując liczbę <math>\frac{n-1}{n}m</math>).
Po podniesieniu do kwadratu odpowiednich wyrażeń i wykorzystaniu następującego faktu,
Po podniesieniu do kwadratu odpowiednich wyrażeń i wykorzystaniu następującego faktu,
wynikającego z niezależności zmiennych losowych
wynikającego z niezależności zmiennych losowych
<math>\displaystyle X_i</math> i <math>\displaystyle X_j</math> (patrz twierdzenie [[Rachunek prawdopodobieństwa i statystyka/Wykład 7: Parametry rozkładów zmiennych losowych#tw_7.15|7.15]]):
<math>X_i</math> i <math>X_j</math> (patrz [[Rachunek prawdopodobieństwa i statystyka/Wykład 7: Parametry rozkładów zmiennych losowych#tw_7.15|twierdzenie 7.15]]):




<center><math>\displaystyle
<center><math>
{\Bbb E}((X_i - m)(X_j - m)) = {\Bbb E}(X_i - m){\Bbb E}(X_j - m) = 0 \cdot 0 = 0\;\; </math> dla <math>\displaystyle  \;i \neq j,
{\Bbb E}((X_i - m)(X_j - m)) = {\Bbb E}(X_i - m){\Bbb E}(X_j - m) = 0 \cdot 0 = 0\;\;</math> dla <math>\;i \neq j</math>,</center>
</math></center>




Linia 381: Linia 379:




<center><math>\displaystyle
<center><math>
{\Bbb E}(s^2( \displaystyle X_1, \dots, X_n\displaystyle  )) = \frac{1}{n^2}\left((n-1)^2{\Bbb E}((X_1-m)^2) +E((X_2 - m)^2)+\dots\right.  
{\Bbb E}(s^2(X_1, \dots, X_n )) = \frac{1}{n^2}\left((n-1)^2{\Bbb E}((X_1-m)^2) +E((X_2 - m)^2)+\dots\right.  
</math></center>
</math></center>




<center><math>\displaystyle
<center><math>
\left.+  E((X_n - m)^2)\right)
\left.+  E((X_n - m)^2)\right)
= \frac{1}{n^2} \left((n-1)^2 {\Bbb D}^2 (X) + (n-1) {\Bbb D}^2 (X) \right)
= \frac{1}{n^2} \left((n-1)^2 {\Bbb D}^2 (X) + (n-1) {\Bbb D}^2 (X) \right)
Linia 392: Linia 390:




<center><math>\displaystyle   
<center><math>
= \frac{1}{n^2}(n-1) (n -1+1) {\Bbb D}^2 (X) = \frac{n-1}{n} {\Bbb D}^2 (X).
= \frac{1}{n^2}(n-1) (n -1+1) {\Bbb D}^2 (X) = \frac{n-1}{n} {\Bbb D}^2 (X)</math></center>
</math></center>




Linia 400: Linia 397:


{{uwaga|11.10|uw 11.10|
{{uwaga|11.10|uw 11.10|
Pomimo tego, iż zdefiniowany w poprzednim przykładzie estymator <math>\displaystyle s^2( \displaystyle X_1, \dots, X_n\displaystyle  )</math> jest obciążony, jest on często używany, gdyż dla dużej próbki:  
Pomimo tego, iż zdefiniowany w poprzednim przykładzie estymator <math>s^2(X_1, \dots, X_n )</math> jest obciążony, jest on często używany, gdyż dla dużej próbki:  




<center><math>\displaystyle
<center><math>
\frac{n-1}{n}\approx 1.
\frac{n-1}{n}\approx 1</math></center>
</math></center>




Inaczej mówiąc, obciążenie tego estymatora jest dla dużych <math>\displaystyle n</math> nieistotne. Estymatory o takiej
Inaczej mówiąc, obciążenie tego estymatora jest dla dużych <math>n</math> nieistotne. Estymatory o takiej
własności nazywa się estymatorami asymptotycznie nieobciążonymi.
własności nazywa się estymatorami asymptotycznie nieobciążonymi.
}}
}}


{{uwaga|11.11|uw 11.11|
{{uwaga|11.11|uw 11.11|
Wynik uzyskany w przykładzie [[#przy_11.9|11.9]] można wykorzystać do konstrukcji nieobciążonego estymatora wariancji.
Wynik uzyskany w [[#przy_11.9|przykładzie 11.9]] można wykorzystać do konstrukcji nieobciążonego estymatora wariancji.
Jest nim oczywiście:
Jest nim oczywiście:




<center><math>\displaystyle
<center><math>
s_*^{2}( \displaystyle X_1, \dots, X_n\displaystyle  ) = \frac{n}{n-1} s^2( \displaystyle X_1, \dots, X_n\displaystyle  ) = \frac{1}{n-1} \sum_{i=1}^{n} ( X_{i}-\bar{X})^{2},
s_*^{2}(X_1, \dots, X_n ) = \frac{n}{n-1} s^2(X_1, \dots, X_n ) = \frac{1}{n-1} \sum_{i=1}^{n} ( X_{i}-\bar{X})^{2}</math>,</center>
</math></center>




Linia 425: Linia 420:




<center><math>\displaystyle 
<center><math>
{\Bbb E}(s_*^{2}( \displaystyle X_1, \dots, X_n\displaystyle  )) = \frac{n}{n-1} {\Bbb E}(s^2( \displaystyle X_1, \dots, X_n\displaystyle  ) ) = {\Bbb D}^2 (X).
{\Bbb E}(s_*^{2}(X_1, \dots, X_n )) = \frac{n}{n-1} {\Bbb E}(s^2(X_1, \dots, X_n ) ) = {\Bbb D}^2 (X)</math></center>
</math></center>




Linia 433: Linia 427:


{{definicja|11.12|def 11.12|
{{definicja|11.12|def 11.12|
Niech <math>\displaystyle X_1, \dots , X_n</math> będzie próbką prostą
Niech <math>X_1, \dots , X_n</math> będzie próbką prostą
ze zmiennej losowej <math>\displaystyle X</math> oraz niech <math>\displaystyle \mathcal{P} = \{P_\theta :  \theta \in \Theta\}</math> będzie rodziną rozkładów,
ze zmiennej losowej <math>X</math> oraz niech <math>\mathcal{P} = \{P_\theta :  \theta \in \Theta\}</math> będzie rodziną rozkładów,
przy czym <math>\displaystyle \theta\subset {\Bbb R}</math>. Estymator <math>\displaystyle T(X_1, \dots , X_n)</math> nazywamy
przy czym <math>\theta\subset {\Bbb R}</math>. Estymator <math>T(X_1, \dots , X_n)</math> nazywamy
estymatorem zgodnym parametru <math>\displaystyle \theta \in \Theta</math>, jeżeli:
estymatorem zgodnym parametru <math>\theta \in \Theta</math>, jeżeli:




<center><math>\displaystyle
<center><math>
T( \displaystyle X_1, \dots, X_n\displaystyle  ) \stackrel{1}{\longrightarrow} \theta.
T(X_1, \dots, X_n ) \stackrel{1}{\longrightarrow} \theta</math></center>
</math></center>




Linia 447: Linia 440:


{{przyklad|11.13|przy 11.13|
{{przyklad|11.13|przy 11.13|
Średnia <math>\displaystyle \bar{X}</math> jest estymatorem zgodnym nadziei matematycznej - wynika to natychmiast z mocnego prawa wielkich liczb (twierdzenie [[Rachunek prawdopodobieństwa i statystyka/Wykład 7: Parametry rozkładów zmiennych losowych#tw_7.22|7.22]]).
Średnia <math>\bar{X}</math> jest estymatorem zgodnym nadziei matematycznej - wynika to natychmiast z mocnego prawa wielkich liczb ([[Rachunek prawdopodobieństwa i statystyka/Wykład 7: Parametry rozkładów zmiennych losowych#tw_7.22|twierdzenie 7.22]]).
}}
}}

Aktualna wersja na dzień 22:12, 11 wrz 2023

Wnioskowanie statystyczne

Omówimy ogólne aspekty wnioskowania statystycznego. Postawimy trzy naturalne problemy: problem estymacji punktowej, problem estymacji przedziałowej oraz problem testowania hipotez, a następnie przeformułujemy je w sposób dający szansę na ich rozwiązanie. Podamy definicje statystyki i estymatora oraz ich podstawowe własności.

Pojęcia podstawowe

Jak pamiętamy, statystyka opisowa dotyczy sytuacji, w których mamy do czynienia z pewną cechą (lub cechami) elementów określonej populacji oraz znamy wartość tej cechy dla każdego jej elementu (lub przynajmniej znamy dane zgrupowane w szeregu rozdzielczym). Z zupełnie innym problemem mamy do czynienia w przypadku, gdy znamy wartości cechy tylko dla pewnej liczby elementów, a chcemy tę cechę jakoś scharakteryzować w odniesieniu do całej populacji. Na przykład, wyniki jakie podaje komisja wyborcza po przeliczeniu wszystkich oddanych głosów pozwalają jednoznacznie podać procent wyborców popierających daną partię, powiedzmy partię ABC. Jest to zrobione na podstawie danych o każdej osobie, która poszła do wyborów. Natomiast sondaż przeprowadzany przez ankieterów przed lokalami wyborczymi dotyczy tylko niewielkiej części głosujących, a jednak na jego podstawie jest podawany procent wyborców popierających partię ABC. Jest to możliwe dzięki metodom tak zwanego wnioskowania statystycznego.

Wymienimy poniżej trzy typowe problemy, które dają się rozwiązać metodami wnioskowania statystycznego. Ogólny kontekst jest w każdym przypadku taki sam: obserwujemy wartości pewnej cechy dla wybranych jej elementów i na tej podstawie chcemy odpowiedzieć na jedno z pytań, dotyczących konkretnego parametru tej cechy (na przykład jej wartości średniej).

1. Ile wynosi parametr (na przykład średnia) naszej cechy w całej populacji? Estymacja punktowa

2. W jakim zakresie (zbiorze) znajduje się ten parametr? Estymacja przedziałowa

3. Czy prawdą jest, że nasz parametr należy do określonego zbioru? Testowanie hipotez statystycznych

Zauważmy, że tak sformułowane problemy są faktycznie niemożliwe do rozwiązania. Przykładowo, nie możemy z całą pewnością , na podstawie sondażu przed lokalami wyborczymi, jakie poparcie uzyskała partia ABC. Dlatego nasze pytania muszą zostać przeformułowane tak, aby można było na nie sensownie odpowiedzieć. Aby to zrobić, najpierw zbudujemy pewien model matematyczny, a następnie zajmiemy się kolejno rozwiązywaniem powyższych problemów. W tym miejscu zauważmy jeszcze tylko to, że są one ze sobą silnie związane - gdybyśmy umieli w pełni rozwiązać problem estymacji punktowej, umielibyśmy też oczywiście rozwiązać problemy estymacji przedziałowej i testowania hipotez.

Na początku zakładamy, że interesująca nas cecha X ma charakter losowy, czyli że jest ona zmienną losową (lub wektorem losowym) określoną na pewnej przestrzeni probabilistycznej, powiedzmy (Ω,Σ,P). W takim razie, interesujący nas parametr jest parametrem zmiennej losowej X lub, bardziej precyzyjnie, parametrem rozkładu PX tej

zmiennej. Wówczas zamiast mówić, na przykład, o wartości średniej danej cechy, będziemy mówić o nadziei

matematycznej odpowiadającej jej zmiennej losowej. Tak więc sformułowane powyżej pytania dotyczą parametrów rozkładu PX.

Dość często możemy z góry założyć, że nasza cecha posiada rozkład określonego typu. Na przykład, gdy prowadzimy sondaż, nasza cecha ma rozkład dwupunktowy (0,1,p): "0" oznacza, że wyborca nie głosował na partię ABC, zaś "1" oznacza, że na tę partię głosował - nas natomiast interesuje parametr p, a właściwie p100%. Często też, korzystając z centralnego twierdzenia granicznego, można założyć, że dana cecha ma rozkład N(m,σ) - wtedy parametr m odpowiada średniej wartości cechy, zaś σ - jej odchyleniu standardowemu.

W związku z powyższym, przyjmujemy ogólne założenie, że mamy ustaloną jakąś rodzinę rozkładów prawdopodobieństwa, indeksowaną przez pewien parametr θΘ - będziemy pisać:


𝒫={Pθ:θΘ}


W pierwszym z powyższych przypadków 𝒫 jest rodziną rozkładów dwupunktowych (0,1,p), a więc Θ jest przedziałem (0,1), zaś w drugim - 𝒫 jest rodziną wszystkich rozkładów normalnych, zatem Θ jest iloczynem kartezjańskim ×(0,). Dopuszcza się też możliwość, że 𝒫 jest zbiorem wszystkich możliwych rozkładów prawdopodobieństwa, czyli że Θ=𝒫.

Możemy teraz, przy powyższych założeniach i oznaczeniach, interesujące nas zagadnienia sformułować w następujący sposób:

1' znaleźć θΘ takie, że PX=Pθ,

2' znaleźć zbiór Θ0Θ taki, że PX=Pθ dla pewnego θΘ0,

3' czy prawdą jest, że PX=Pθ dla pewnego θΘ0, gdzie Θ0 jest z góry ustalonym zbiorem?

Zauważmy jednak, iż tak sformułowane zadania są w dalszym ciągu niewykonalne, a zatem powinny zostać jeszcze trochę przeformułowane, czym zajmujemy się w kolejnym punkcie.

Model statystyczny

Wracamy do budowy modelu matematycznego dla naszych zagadnień.

Załóżmy, że obserwujemy ciąg zmiennych losowych, powiedzmy X1,,Xn, określonych na przestrzeni probabilistycznej (Ω,Σ,P) (przypominamy, że na tej samej przestrzeni jest określona także zmienna losowa X, reprezentująca daną cechę), z których każda ma taki sam rozkład jak X, czyli:


PXi=PX dla i=1,,n


Tak zdefiniowany ciąg nazywa się próbką ze zmiennej losowej X - odpowiada on zaobserwowanym faktycznie wartościom cechy, powiedzmy x1,,xn (ten ostatni ciąg także nazywa się próbką wartości cechy, tak więc w dalszej części będziemy mówić po prostu o próbce, a z kontekstu będzie wynikać znaczenie, w jakim słowo to zostało użyte). Bardzo często zdarza się, iż obserwacje wartości cechy są niezależne od siebie - jeżeli tak jest, to ciąg x1,,xn nazywa się próbką prostą. W języku zmiennych losowych mówimy, że X1,,Xn jest próbką prostą, gdy zmienne losowe X1,,Xn tworzą próbkę i są niezależnymi zmiennymi losowymi. W dalszej części będziemy rozważać tylko próbki proste.

Wprowadzimy teraz dwa nowe terminy.

Definicja 11.1

Statystyką nazywamy dowolną funkcję T:nd, która jest mierzalna ze względu na σ-algebrę zbiorów borelowskich (n), to znaczy:


T1(B)(n) dla każdego B(d)


Okazuje się, iż zdecydowana większość rozważanych w praktyce funkcji n d spełnia powyższą definicję. Zauważmy, ze jeżeli na przestrzeni n określimy rozkład prawdopodobieństwa, powiedzmy Q, to znaczy gdy (n,(n),Q) jest przestrzenią probabilistyczną, to statystyka T:nd jest d-wymiarowym wektorem losowym, określonym na tej przestrzeni.

Definicja 11.2

Niech X1,,Xn będzie próbką prostą ze zmiennej losowej X. Estymatorem parametru zmiennej X nazywamy zmienną losową, będącą złożeniem wektora losowego (X1,,Xn) ze statystyką T, czyli funkcję:


T(X1,,Xn)


Opuszczając znak operatora złożenia "", co się często w praktyce czyni, możemy estymator oznaczyć (nieściśle) jako:


T(X1,,Xn)


Przykład 11.3

Przykładem statystyki jest średnia:


T(x1,,xn)=x1++xnn


a odpowiadającym jej estymatorem jest:


T(X1,,Xn)=X1++Xnn


Dla tej statystyki jak i tego estymatora zarezerwowano następujące oznaczenia:


x¯ lub x¯n oraz, odpowiednio, X¯ lub X¯n


Przykład 11.4

Innym przykładem statystyki jest tak zwana statystyka pozycyjna:


T(x1,,xn)=(x(1),x(n))


gdzie x(1),,x(n) oznaczają elementy próbki x1,,xn ustawione w porządku rosnącym:


x(1)x(n)


Estymator, jak każdy wektor losowy, posiada swój rozkład PT(X1,,Xn), który będziemy w skrócie oznaczać symbolem PT. Dość często utożsamia się statystykę T z odpowiadającym jej estymatorem T(X1,,Xn) i w związku z tym mówi się także, że PT jest rozkładem statystyki T. Oczywiście, rozkład PT zależy w sposób jednoznaczny od rozkładu PX zmiennej losowej X, z której pochodzi próbka prosta. Istnieją twierdzenia, dzięki którym można w szczególnych przypadkach efektywnie wyznaczyć tę zależność.


Przykład 11.5

Wiadomo (patrz twierdzenie 9.2), że gdy zmienna X ma rozkład N(m,σ), to rozkład PT statystyki T=x¯ jest rozkładem N(m,σn). Natomiast w przypadku, gdy nie znamy rozkładu zmiennej X, a jedynie jej nadzieję matematyczną m i odchylenie standardowe σ, ale wielkość próbki n jest duża, to z centralnego twierdzenia granicznego wynika, że PT ma w przybliżeniu rozkład

N(m,σn).

Estymatory nieobciążone i zgodne

Plik:Rp-11-3.mp4

Jednym z zadań statystyki jest znajdowanie estymatorów (a więc statystyk), które w jakimś sensie mówią nam o rozkładzie PX zmiennej losowej X, z której pochodzi dana próbka. Na przykład, wydaje się, że znajomość średniej arytmetycznej:


X¯=X1++Xnn,


daje nam pewne informacje o nadziei matematycznej 𝔼(X). Zauważmy jednak, że istnieją inne estymatory, które także dają pewne informacje o wartości średniej - przykładowo:


T(x1,,xn)=x1+xn2


lub


T(x1,,xn)=min1in{xi}+max1in{xi}2


Oczywiście, można wskazać jeszcze inne, dość "rozsądne" estymatory nadziei matematycznej.

Powstaje więc problem, jaki estymator należy stosować w konkretnej sytuacji. Rozwiązuje się go w ten sposób, że wprowadza się kilka kryteriów, które powinien spełniać "dobry" estymator, a następnie bada się, czy rozpatrywany przez nas estymator spełnia te kryteria. Istnieją też sposoby porównywania między sobą estymatorów tego samego parametru.

W dalszej części podajemy dwa kryteria oceny jakości estymatorów parametrów liczbowych.

Definicja 11.6

Niech X1,,Xn będzie próbką prostą ze zmiennej losowej X oraz niech 𝒫={Pθ:θΘ} będzie rodziną rozkładów, przy czym Θ. Estymator T(X1,,Xn) nazywamy estymatorem nieobciążonym parametru θΘ, jeżeli:


𝔼(T(X1,,Xn))=θ


Estymator, który nie jest nieobciążony nazywamy estymatorem obciążonym.

Przykład 11.7

Średnia arytmetyczna jest estymatorem nieobciążonym nadziei matematycznej 𝔼(X). Rzeczywiście, stosując podstawowe własności nadziei matematycznej otrzymujemy:


𝔼(X¯n)=𝔼(X1++Xnn)=1n𝔼(X1++Xn)=1nn𝔼(X)=𝔼(X)


Przykład 11.8

Niech m=𝔼(X) oraz niech s2 będzie statystyką określoną wzorem:


s2(x1,,xn)=1ni=1n(xim)2


Wówczas estymator odpowiadający statystyce s2 jest nieobciążonym estymatorem wariancji 𝔻2(X). Rzeczywiście:


𝔼(s2(X1,,Xn))=𝔼(1ni=1n(Xim)2)=1ni=1n𝔼((Xim)2)


=1nn𝔻2(X)=𝔻2(X)


Przykład 11.9

W przypadku, gdy nie znamy nadziei matematycznej m, możemy także estymować wariancję - definiujemy wtedy s2 następująco:


s2(x1,,xn)=1ni=1n(xix¯)2


Okazuje się niestety, iż jest to estymator obciążony. Aby to wykazać, zauważmy najpierw, że ponieważ zmienne losowe XiX¯ mają takie same rozkłady, zatem:


𝔼(s2(X1,,Xn))=1nn𝔼((X1X¯)2)=𝔼((X1X1++Xnn)2)


=𝔼((n1nX1X2++Xnn)2)


=𝔼((n1n(X1m)(X2m)++(Xnm)n)2)


(tę ostatnią równość otrzymano dodając i odejmując liczbę n1nm). Po podniesieniu do kwadratu odpowiednich wyrażeń i wykorzystaniu następującego faktu, wynikającego z niezależności zmiennych losowych Xi i Xj (patrz twierdzenie 7.15):


𝔼((Xim)(Xjm))=𝔼(Xim)𝔼(Xjm)=00=0 dla ij,


otrzymujemy:


𝔼(s2(X1,,Xn))=1n2((n1)2𝔼((X1m)2)+E((X2m)2)+


+E((Xnm)2))=1n2((n1)2𝔻2(X)+(n1)𝔻2(X))


=1n2(n1)(n1+1)𝔻2(X)=n1n𝔻2(X)


Uwaga 11.10

Pomimo tego, iż zdefiniowany w poprzednim przykładzie estymator s2(X1,,Xn) jest obciążony, jest on często używany, gdyż dla dużej próbki:


n1n1


Inaczej mówiąc, obciążenie tego estymatora jest dla dużych n nieistotne. Estymatory o takiej własności nazywa się estymatorami asymptotycznie nieobciążonymi.

Uwaga 11.11

Wynik uzyskany w przykładzie 11.9 można wykorzystać do konstrukcji nieobciążonego estymatora wariancji. Jest nim oczywiście:


s*2(X1,,Xn)=nn1s2(X1,,Xn)=1n1i=1n(XiX¯)2,


gdyż:


𝔼(s*2(X1,,Xn))=nn1𝔼(s2(X1,,Xn))=𝔻2(X)


Definicja 11.12

Niech X1,,Xn będzie próbką prostą ze zmiennej losowej X oraz niech 𝒫={Pθ:θΘ} będzie rodziną rozkładów, przy czym θ. Estymator T(X1,,Xn) nazywamy estymatorem zgodnym parametru θΘ, jeżeli:


T(X1,,Xn)1θ


Przykład 11.13

Średnia X¯ jest estymatorem zgodnym nadziei matematycznej - wynika to natychmiast z mocnego prawa wielkich liczb (twierdzenie 7.22).