Rachunek prawdopodobieństwa i statystyka/Wykład 11: Wnioskowanie statystyczne: Różnice pomiędzy wersjami
Nie podano opisu zmian |
Nie podano opisu zmian |
||
Linia 1: | Linia 1: | ||
==Streszczenie== | ==Streszczenie== | ||
Linia 135: | Linia 117: | ||
zmienna losowa <math>\displaystyle X</math>, reprezentująca daną cechę), z których każda ma | zmienna losowa <math>\displaystyle X</math>, reprezentująca daną cechę), z których każda ma | ||
taki sam rozkład jak <math>\displaystyle X</math>, czyli: <center><math>\displaystyle P_{X_i} = | taki sam rozkład jak <math>\displaystyle X</math>, czyli: <center><math>\displaystyle P_{X_i} = | ||
P_X\;\;\ | P_X\;\; </math> dla <math>\displaystyle \; i = 1, \dots, n.</math></center> Tak zdefiniowany ciąg nazywa się próbką ze | ||
zmiennej losowej <math>\displaystyle X</math> -- | zmiennej losowej <math>\displaystyle X</math> -- | ||
odpowiada on zaobserwowanym | odpowiada on zaobserwowanym | ||
Linia 159: | Linia 141: | ||
B}({{\Bbb R}^n})</math>, to znaczy: | B}({{\Bbb R}^n})</math>, to znaczy: | ||
<center><math>\displaystyle | <center><math>\displaystyle | ||
T^{-1}(B)\in {\cal B}({{\Bbb R}^n})\;\; | T^{-1}(B)\in {\cal B}({{\Bbb R}^n})\;\; </math> dla każdego <math>\displaystyle \; B\in {\cal B}({{\Bbb R}^d}).</math></center> | ||
}} | }} | ||
Linia 180: | Linia 162: | ||
możemy estymator oznaczyć (nieściśle) jako: <center><math>\displaystyle T(X_1, \dots , X_n).</math></center> | możemy estymator oznaczyć (nieściśle) jako: <center><math>\displaystyle T(X_1, \dots , X_n).</math></center> | ||
Przykładem statystyki jest średnia: <center><math>\displaystyle T(\ | Przykładem statystyki jest średnia: <center><math>\displaystyle T( \displaystyle x_1, \dots, x_n\displaystyle ) | ||
= \frac{x_1+ \dots + x_n}{n},</math></center> a odpowiadającym jej | = \frac{x_1+ \dots + x_n}{n},</math></center> a odpowiadającym jej | ||
estymatorem jest: <center><math>\displaystyle T(\ | estymatorem jest: <center><math>\displaystyle T( \displaystyle X_1, \dots, X_n\displaystyle ) = \frac{X_1+ \dots + X_n}{n}.</math></center> | ||
Dla tej statystyki jak i tego estymatora zarezerwowano następujące oznaczenia: | Dla tej statystyki jak i tego estymatora zarezerwowano następujące oznaczenia: | ||
<center><math>\displaystyle \bar{x}\;\ | <center><math>\displaystyle \bar{x}\; </math> lub <math>\displaystyle \;\bar{x}_n\;\; </math> oraz, odpowiednio, <math>\displaystyle \;\;\bar{X}\; </math> lub <math>\displaystyle \;\bar{X}_n.</math></center> | ||
Innym przykładem statystyki jest tak zwana statystyka pozycyjna: | Innym przykładem statystyki jest tak zwana statystyka pozycyjna: | ||
<center><math>\displaystyle T(\ | <center><math>\displaystyle T( \displaystyle x_1, \dots, x_n\displaystyle ) = (x_{(1)}, \dots x_{(n)}),</math></center> | ||
gdzie <math>\displaystyle x_{(1)}, \dots, x_{(n)}</math> oznaczają elementy próbki <math>\displaystyle \ | gdzie <math>\displaystyle x_{(1)}, \dots, x_{(n)}</math> oznaczają elementy próbki <math>\displaystyle \displaystyle x_1, \dots, x_n\displaystyle </math> ustawione w porządku rosnącym: | ||
<center><math>\displaystyle x_{(1)} \le \dots \le x_{(n)}.</math></center> | <center><math>\displaystyle x_{(1)} \le \dots \le x_{(n)}.</math></center> | ||
Linia 220: | Linia 202: | ||
</math></center> | </math></center> | ||
daje nam pewne informacje o nadziei matematycznej <math>\displaystyle {\Bbb E}(X)</math>. Zauważmy jednak, że istnieją inne estymatory, które także | daje nam pewne informacje o nadziei matematycznej <math>\displaystyle {\Bbb E}(X)</math>. Zauważmy jednak, że istnieją inne estymatory, które także | ||
dają pewne informacje o wartości średniej -- przykładowo: <center><math>\displaystyle T(\ | dają pewne informacje o wartości średniej -- przykładowo: <center><math>\displaystyle T( \displaystyle x_1, \dots, x_n\displaystyle ) | ||
= \frac{x_1+ x_n}{2}</math></center> lub | = \frac{x_1+ x_n}{2}</math></center> lub | ||
<center><math>\displaystyle T(\ | <center><math>\displaystyle T( \displaystyle x_1, \dots, x_n\displaystyle ) | ||
= \frac{ | = \frac{ | ||
\min_{1 \le i \le n} \{x_i\} + \max_{1\le i \le n} \{x_i\} }{2}. | \min_{1 \le i \le n} \{x_i\} + \max_{1\le i \le n} \{x_i\} }{2}. | ||
Linia 252: | Linia 234: | ||
Niech <math>\displaystyle m = {\Bbb E}(X)</math> oraz niech <math>\displaystyle s^2</math> będzie statystyką określoną wzorem: | Niech <math>\displaystyle m = {\Bbb E}(X)</math> oraz niech <math>\displaystyle s^2</math> będzie statystyką określoną wzorem: | ||
<center><math>\displaystyle | <center><math>\displaystyle | ||
s^{2}(\ | s^{2}( \displaystyle x_1, \dots, x_n\displaystyle ) = \frac{1}{n} \sum_{i=1}^{n} ( x_{i}-m)^{2}. | ||
</math></center> | </math></center> | ||
Wówczas estymator odpowiadający statystyce <math>\displaystyle s^2</math> jest nieobciążonym estymatorem wariancji <math>\displaystyle {\Bbb D}^2 (X)</math>. Rzeczywiście: | Wówczas estymator odpowiadający statystyce <math>\displaystyle s^2</math> jest nieobciążonym estymatorem wariancji <math>\displaystyle {\Bbb D}^2 (X)</math>. Rzeczywiście: | ||
<center><math>\displaystyle | <center><math>\displaystyle | ||
{\Bbb E}(s^2(\ | {\Bbb E}(s^2( \displaystyle X_1, \dots, X_n\displaystyle )) = {\Bbb E}\left( \frac{1}{n} \sum_{i=1}^{n} ( X_{i}-m)^{2} \right) | ||
= \frac{1}{n}\sum_{i=1}^{n}{\Bbb E} ( (X_{i}-m)^{2}) | = \frac{1}{n}\sum_{i=1}^{n}{\Bbb E} ( (X_{i}-m)^{2}) | ||
</math></center> | </math></center> | ||
Linia 267: | Linia 249: | ||
definiujemy wtedy <math>\displaystyle s^2</math> następująco: | definiujemy wtedy <math>\displaystyle s^2</math> następująco: | ||
<center><math>\displaystyle | <center><math>\displaystyle | ||
s^{2}(\ | s^{2}( \displaystyle x_1, \dots, x_n\displaystyle ) = \frac{1}{n} \sum_{i=1}^{n} ( x_{i}-\bar{x})^{2}. | ||
</math></center> | </math></center> | ||
Okazuje się niestety, iż jest to estymator obciążony. Aby to wykazać, zauważmy najpierw, że ponieważ | Okazuje się niestety, iż jest to estymator obciążony. Aby to wykazać, zauważmy najpierw, że ponieważ | ||
zmienne losowe <math>\displaystyle X_i - \bar{X}</math> mają takie same rozkłady, zatem: | zmienne losowe <math>\displaystyle X_i - \bar{X}</math> mają takie same rozkłady, zatem: | ||
<center><math>\displaystyle {\Bbb E}(s^2(\ | <center><math>\displaystyle {\Bbb E}(s^2( \displaystyle X_1, \dots, X_n\displaystyle )) = \frac{1}{n} n {\Bbb E}((X_1 - \bar{X})^2) | ||
= {\Bbb E}\left(\left(X_1 - \frac{X_1 + \dots + X_n}{n} \right)^2\right) | = {\Bbb E}\left(\left(X_1 - \frac{X_1 + \dots + X_n}{n} \right)^2\right) | ||
</math></center> | </math></center> | ||
Linia 283: | Linia 265: | ||
wynikającego z niezależności zmiennych losowych | wynikającego z niezależności zmiennych losowych | ||
<math>\displaystyle X_i</math> i <math>\displaystyle X_j</math> (patrz twierdzenie [[##dwar|Uzupelnic dwar|]]): | <math>\displaystyle X_i</math> i <math>\displaystyle X_j</math> (patrz twierdzenie [[##dwar|Uzupelnic dwar|]]): | ||
<center><math>\displaystyle {\Bbb E}((X_i - m)(X_j - m)) = {\Bbb E}(X_i - m){\Bbb E}(X_j - m) = 0 \cdot 0 = 0\;\;\ | <center><math>\displaystyle {\Bbb E}((X_i - m)(X_j - m)) = {\Bbb E}(X_i - m){\Bbb E}(X_j - m) = 0 \cdot 0 = 0\;\; </math> dla <math>\displaystyle \;i \neq j,</math></center> | ||
otrzymujemy: | otrzymujemy: | ||
<center><math>\displaystyle {\Bbb E}(s^2(\ | <center><math>\displaystyle {\Bbb E}(s^2( \displaystyle X_1, \dots, X_n\displaystyle )) = \frac{1}{n^2}\left((n-1)^2{\Bbb E}((X_1-m)^2) +E((X_2 - m)^2)+\dots\right. </math></center> | ||
<center><math>\displaystyle \left.+ E((X_n - m)^2)\right) | <center><math>\displaystyle \left.+ E((X_n - m)^2)\right) | ||
= \frac{1}{n^2} \left((n-1)^2 {\Bbb D}^2 (X) + (n-1) {\Bbb D}^2 (X) \right) | = \frac{1}{n^2} \left((n-1)^2 {\Bbb D}^2 (X) + (n-1) {\Bbb D}^2 (X) \right) | ||
Linia 294: | Linia 276: | ||
{{uwaga||| | {{uwaga||| | ||
Pomimo tego, iż zdefiniowany w poprzednim przykładzie estymator <math>\displaystyle s^2(\ | Pomimo tego, iż zdefiniowany w poprzednim przykładzie estymator <math>\displaystyle s^2( \displaystyle X_1, \dots, X_n\displaystyle )</math> jest obciążony, | ||
jest on często używany, gdyż dla dużej próbki: <center><math>\displaystyle \frac{n-1}{n}\approx 1.</math></center> | jest on często używany, gdyż dla dużej próbki: <center><math>\displaystyle \frac{n-1}{n}\approx 1.</math></center> | ||
Inaczej mówiąc, obciążenie tego estymatora jest dla dużych <math>\displaystyle n</math> nieistotne. Estymatory o takiej | Inaczej mówiąc, obciążenie tego estymatora jest dla dużych <math>\displaystyle n</math> nieistotne. Estymatory o takiej | ||
Linia 305: | Linia 287: | ||
Jest nim oczywiście: | Jest nim oczywiście: | ||
<center><math>\displaystyle | <center><math>\displaystyle | ||
s_*^{2}(\ | s_*^{2}( \displaystyle X_1, \dots, X_n\displaystyle ) = \frac{n}{n-1} s^2( \displaystyle X_1, \dots, X_n\displaystyle ) = \frac{1}{n-1} \sum_{i=1}^{n} ( X_{i}-\bar{X})^{2}, | ||
</math></center> | </math></center> | ||
gdyż: <center><math>\displaystyle {\Bbb E}(s_*^{2}(\ | gdyż: <center><math>\displaystyle {\Bbb E}(s_*^{2}( \displaystyle X_1, \dots, X_n\displaystyle )) = \frac{n}{n-1} {\Bbb E}(s^2( \displaystyle X_1, \dots, X_n\displaystyle ) ) = {\Bbb D}^2 (X).</math></center> | ||
}} | }} | ||
Linia 317: | Linia 299: | ||
estymatorem zgodnym parametru <math>\displaystyle \theta \in \Theta</math>, jeżeli: | estymatorem zgodnym parametru <math>\displaystyle \theta \in \Theta</math>, jeżeli: | ||
<center><math>\displaystyle | <center><math>\displaystyle | ||
T(\ | T( \displaystyle X_1, \dots, X_n\displaystyle ) \stackrel{1}{\longrightarrow} \theta. | ||
</math></center> | </math></center> | ||
}} | }} |
Wersja z 10:18, 22 sie 2006
Streszczenie
Omówimy ogólne aspekty wnioskowania statystycznego. Postawimy trzy naturalne problemy: problem estymacji punktowej, problem estymacji przedziałowej oraz problem testowania hipotez, a następnie przeformułujemy je w sposób dający szansę na ich rozwiązanie. Podamy definicje statystyki i estymatora oraz ich podstawowe własności.
Słowa kluczowe: próbka, próbka prosta, statystyka, estymator, estymator zgodny, estymator nieobciążony.
Pojęcia podstawowe
Jak pamiętamy, statystyka opisowa dotyczy sytuacji, w których mamy do czynienia z pewną cechą (lub cechami) elementów określonej populacji oraz znamy wartość tej cechy dla każdego jej elementu (lub przynajmniej znamy dane zgrupowane w szeregu rozdzielczym). Z zupełnie innym problemem mamy do czynienia w przypadku, gdy znamy wartości cechy tylko dla pewnej liczby elementów, a chcemy tę cechę jakoś scharakteryzować w odniesieniu do całej populacji. Na przykład, wyniki jakie podaje komisja wyborcza po przeliczeniu wszystkich oddanych głosów pozwalają jednoznacznie podać procent wyborców popierających daną partię, powiedzmy partię . Jest to zrobione na podstawie danych o każdej osobie, która poszła do wyborów. Natomiast sondaż przeprowadzany przez ankieterów przed lokalami wyborczymi dotyczy tylko niewielkiej części głosujących, a jednak na jego podstawie jest podawany procent wyborców popierających partię . Jest to możliwe dzięki metodom tak zwanego wnioskowania statystycznego.
Wymienimy poniżej trzy typowe problemy, które dają się rozwiązać metodami wnioskowania statystycznego. Ogólny kontekst jest w każdym przypadku taki sam: obserwujemy wartości pewnej cechy dla wybranych jej elementów i na tej podstawie chcemy odpowiedzieć na jedno z pytań, dotyczących konkretnego parametru tej cechy (na przykład jej wartości średniej).
Ile wynosi parametr (na przykład średnia) naszej cechy w całej populacji? Estymacja punktowa
W jakim zakresie (zbiorze) znajduje się ten parametr? Estymacja przedziałowa
Czy prawdą jest, że nasz parametr należy do określonego zbioru? Testowanie hipotez statystycznych
Zauważmy, że tak sformułowane problemy są faktycznie niemożliwe do rozwiązania. Przykładowo, nie możemy z całą pewnością , na podstawie sondażu przed lokalami wyborczymi, jakie poparcie uzyskała partia . Dlatego nasze pytania muszą zostać przeformułowane tak, aby można było na nie sensownie odpowiedzieć. Aby to zrobić, najpierw zbudujemy pewien model matematyczny, a następnie zajmiemy się kolejno rozwiązywaniem powyższych problemów. W tym miejscu zauważmy jeszcze tylko to, że są one ze sobą silnie związane -- gdybyśmy umieli w pełni rozwiązać problem estymacji punktowej, umielibyśmy też oczywiście rozwiązać problemy estymacji przedziałowej i testowania hipotez.
Na początku zakładamy, że interesująca nas cecha ma charakter losowy, czyli że jest ona zmienną losową (lub wektorem losowym) określoną na pewnej przestrzeni probabilistycznej, powiedzmy . W takim razie, interesujący nas parametr jest parametrem zmiennej losowej lub, bardziej precyzyjnie, parametrem rozkładu tej zmiennej. Wówczas zamiast mówić, na przykład, o wartości średniej danej cechy, będziemy mówić o nadziei matematycznej odpowiadającej jej zmiennej losowej. Tak więc sformułowane powyżej pytania dotyczą parametrów rozkładu .
Dość często możemy z góry założyć, że nasza cecha posiada rozkład określonego typu. Na przykład, gdy prowadzimy sondaż, nasza cecha ma rozkład dwupunktowy : "0" oznacza, że wyborca nie głosował na partię , zaś "1" oznacza, że na tę partię głosował -- nas natomiast interesuje parametr , a właściwie . Często też, korzystając z centralnego twierdzenia granicznego, można założyć, że dana cecha ma rozkład -- wtedy parametr odpowiada średniej wartości cechy, zaś -- jej odchyleniu standardowemu.
W związku z powyższym, przyjmujemy ogólne założenie, że mamy ustaloną jakąś rodzinę rozkładów prawdopodobieństwa, indeksowaną przez pewien parametr -- będziemy
pisać:
W pierwszym z powyższych przypadków
jest rodziną rozkładów dwupunktowych , a więc jest przedziałem , zaś w drugim -- jest rodziną wszystkich rozkładów normalnych, zatem jest iloczynem kartezjańskim . Dopuszcza się też możliwość, że jest zbiorem wszystkich możliwych rozkładów prawdopodobieństwa, czyli że .
Możemy teraz, przy powyższych założeniach i oznaczeniach, interesujące nas zagadnienia sformułować w następujący sposób:
- 1'
- [:]znaleźć takie, że ,
- 2'
- [:]znaleźć zbiór taki, że dla pewnego ,
- 3'
- [:]czy prawdą jest, że
dla pewnego , gdzie jest z góry ustalonym zbiorem?
Zauważmy jednak, iż tak sformułowane zadania są w dalszym ciągu niewykonalne, a zatem powinny zostać jeszcze trochę przeformułowane, czym zajmujemy się w kolejnym punkcie.
Model statystyczny
Wracamy do budowy modelu matematycznego dla naszych zagadnień.
Załóżmy, że obserwujemy ciąg zmiennych losowych, powiedzmy , określonych na przestrzeni probabilistycznej (przypominamy, że na tej samej przestrzeni jest określona także zmienna losowa , reprezentująca daną cechę), z których każda ma
taki sam rozkład jak
, czyli:
Tak zdefiniowany ciąg nazywa się próbką ze
zmiennej losowej -- odpowiada on zaobserwowanym faktycznie wartościom cechy, powiedzmy (ten ostatni ciąg także nazywa się próbką wartości cechy, tak więc w dalszej części będziemy mówić po prostu o próbce, a z kontekstu będzie wynikać znaczenie, w jakim słowo to zostało użyte). Bardzo często zdarza się, iż obserwacje wartości cechy są niezależne od siebie -- jeżeli tak jest, to ciąg nazywa się próbką prostą. W języku zmiennych losowych mówimy, że jest próbką prostą, gdy zmienne losowe tworzą próbkę i są niezależnymi zmiennymi losowymi. W dalszej części będziemy rozważać tylko próbki proste.
Wprowadzimy teraz dwa nowe terminy.
Definicja
Statystyką nazywamy dowolną funkcję , która jest mierzalna ze względu na -algebrę zbiorów borelowskich , to znaczy:
Okazuje się, iż zdecydowana większość rozważanych w praktyce funkcji spełnia powyższą definicję. Zauważmy, ze jeżeli na przestrzeni określimy rozkład prawdopodobieństwa, powiedzmy , to znaczy gdy jest przestrzenią probabilistyczną, to statystyka jest -wymiarowym wektorem losowym, określonym na tej przestrzeni.
Definicja
Niech będzie próbką prostą ze zmiennej losowej . Estymatorem parametru zmiennej nazywamy zmienną losową, będącą złożeniem wektora losowego ze statystyką , czyli
funkcję:Opuszczając znak operatora złożenia "", co się często w praktyce czyni,
możemy estymator oznaczyć (nieściśle) jako:
Przykładem statystyki jest średnia:
a odpowiadającym jej estymatorem jest:
Dla tej statystyki jak i tego estymatora zarezerwowano następujące oznaczenia:
Innym przykładem statystyki jest tak zwana statystyka pozycyjna:
gdzie oznaczają elementy próbki ustawione w porządku rosnącym:
Estymator, jak każdy wektor losowy, posiada swój rozkład , który będziemy w skrócie oznaczać symbolem . Dość często utożsamia się statystykę z odpowiadającym jej estymatorem i w związku z tym mówi się także, że jest rozkładem statystyki . Oczywiście, rozkład zależy w sposób jednoznaczny od rozkładu zmiennej losowej , z której pochodzi próbka prosta. Istnieją twierdzenia, dzięki którym można w szczególnych przypadkach efektywnie wyznaczyć tę zależność.
Wiadomo (patrz twierdzenie Uzupelnic torn|), że gdy zmienna ma rozkład , to rozkład statystyki jest rozkładem . Natomiast w przypadku, gdy nie znamy rozkładu zmiennej , a jedynie jej nadzieję matematyczną i odchylenie standardowe , ale wielkość próbki jest duża, to z centralnego twierdzenia granicznego wynika, że ma w przybliżeniu rozkład .
Estymatory nieobciążone i zgodne
Jednym z zadań statystyki jest znajdowanie estymatorów (a więc statystyk), które w jakimś sensie mówią nam o rozkładzie zmiennej losowej , z której pochodzi dana próbka. Na przykład, wydaje się, że znajomość średniej arytmetycznej:
daje nam pewne informacje o nadziei matematycznej . Zauważmy jednak, że istnieją inne estymatory, które także
dają pewne informacje o wartości średniej -- przykładowo:
lub
Oczywiście, można wskazać jeszcze inne, dość "rozsądne" estymatory nadziei matematycznej.
Powstaje więc problem, jaki estymator należy stosować w konkretnej sytuacji. Rozwiązuje się go w ten sposób, że wprowadza się kilka kryteriów, które powinien spełniać "dobry" estymator, a następnie bada się, czy rozpatrywany przez nas estymator spełnia te kryteria. Istnieją też sposoby porównywania między sobą estymatorów tego samego parametru.
W dalszej części podajemy dwa kryteria oceny jakości estymatorów parametrów liczbowych.
Definicja
Niech będzie próbką prostą ze zmiennej losowej oraz niech będzie rodziną rozkładów, przy czym . Estymator nazywamy estymatorem
nieobciążonym parametru , jeżeli:Estymator, który nie jest nieobciążony nazywamy estymatorem obciążonym.
Średnia arytmetyczna jest estymatorem nieobciążonym nadziei matematycznej . Rzeczywiście, stosując podstawowe własności nadziei matematycznej otrzymujemy:
Niech oraz niech będzie statystyką określoną wzorem:
Wówczas estymator odpowiadający statystyce jest nieobciążonym estymatorem wariancji . Rzeczywiście:
W przypadku, gdy nie znamy nadziei matematycznej , możemy także estymować wariancję -- definiujemy wtedy następująco:
Okazuje się niestety, iż jest to estymator obciążony. Aby to wykazać, zauważmy najpierw, że ponieważ zmienne losowe mają takie same rozkłady, zatem:
(tę ostatnią równość otrzymano dodając i odejmując liczbę ). Po podniesieniu do kwadratu odpowiednich wyrażeń i wykorzystaniu następującego faktu, wynikającego z niezależności zmiennych losowych i (patrz twierdzenie Uzupelnic dwar|):
otrzymujemy:
Pomimo tego, iż zdefiniowany w poprzednim przykładzie estymator jest obciążony,
jest on często używany, gdyż dla dużej próbki:Inaczej mówiąc, obciążenie tego estymatora jest dla dużych nieistotne. Estymatory o takiej własności nazywa się estymatorami asymptotycznie nieobciążonymi.
Wynik uzyskany w przykładzie Uzupelnic pwzp| można wykorzystać do konstrukcji nieobciążonego estymatora wariancji. Jest nim oczywiście:
Definicja
Niech będzie próbką prostą ze zmiennej losowej oraz niech będzie rodziną rozkładów, przy czym . Estymator nazywamy estymatorem zgodnym parametru , jeżeli:
Średnia jest estymatorem zgodnym nadziei matematycznej -- wynika to natychmiast z mocnego prawa wielkich liczb (twierdzenie Uzupelnic tmpwl|).