Rachunek prawdopodobieństwa i statystyka/Wykład 11: Wnioskowanie statystyczne

Z Studia Informatyczne
Przejdź do nawigacjiPrzejdź do wyszukiwania

Wnioskowanie statystyczne

Omówimy ogólne aspekty wnioskowania statystycznego. Postawimy trzy naturalne problemy: problem estymacji punktowej, problem estymacji przedziałowej oraz problem testowania hipotez, a następnie przeformułujemy je w sposób dający szansę na ich rozwiązanie. Podamy definicje statystyki i estymatora oraz ich podstawowe własności.

Pojęcia podstawowe

Jak pamiętamy, statystyka opisowa dotyczy sytuacji, w których mamy do czynienia z pewną cechą (lub cechami) elementów określonej populacji oraz znamy wartość tej cechy dla każdego jej elementu (lub przynajmniej znamy dane zgrupowane w szeregu rozdzielczym). Z zupełnie innym problemem mamy do czynienia w przypadku, gdy znamy wartości cechy tylko dla pewnej liczby elementów, a chcemy tę cechę jakoś scharakteryzować w odniesieniu do całej populacji. Na przykład, wyniki jakie podaje komisja wyborcza po przeliczeniu wszystkich oddanych głosów pozwalają jednoznacznie podać procent wyborców popierających daną partię, powiedzmy partię ABC. Jest to zrobione na podstawie danych o każdej osobie, która poszła do wyborów. Natomiast sondaż przeprowadzany przez ankieterów przed lokalami wyborczymi dotyczy tylko niewielkiej części głosujących, a jednak na jego podstawie jest podawany procent wyborców popierających partię ABC. Jest to możliwe dzięki metodom tak zwanego wnioskowania statystycznego.

Wymienimy poniżej trzy typowe problemy, które dają się rozwiązać metodami wnioskowania statystycznego. Ogólny kontekst jest w każdym przypadku taki sam: obserwujemy wartości pewnej cechy dla wybranych jej elementów i na tej podstawie chcemy odpowiedzieć na jedno z pytań, dotyczących konkretnego parametru tej cechy (na przykład jej wartości średniej).

1. Ile wynosi parametr (na przykład średnia) naszej cechy w całej populacji? Estymacja punktowa

2. W jakim zakresie (zbiorze) znajduje się ten parametr? Estymacja przedziałowa

3. Czy prawdą jest, że nasz parametr należy do określonego zbioru? Testowanie hipotez statystycznych

Zauważmy, że tak sformułowane problemy są faktycznie niemożliwe do rozwiązania. Przykładowo, nie możemy z całą pewnością , na podstawie sondażu przed lokalami wyborczymi, jakie poparcie uzyskała partia ABC. Dlatego nasze pytania muszą zostać przeformułowane tak, aby można było na nie sensownie odpowiedzieć. Aby to zrobić, najpierw zbudujemy pewien model matematyczny, a następnie zajmiemy się kolejno rozwiązywaniem powyższych problemów. W tym miejscu zauważmy jeszcze tylko to, że są one ze sobą silnie związane - gdybyśmy umieli w pełni rozwiązać problem estymacji punktowej, umielibyśmy też oczywiście rozwiązać problemy estymacji przedziałowej i testowania hipotez.

Na początku zakładamy, że interesująca nas cecha X ma charakter losowy, czyli że jest ona zmienną losową (lub wektorem losowym) określoną na pewnej przestrzeni probabilistycznej, powiedzmy (Ω,Σ,P). W takim razie, interesujący nas parametr jest parametrem zmiennej losowej X lub, bardziej precyzyjnie, parametrem rozkładu PX tej

zmiennej. Wówczas zamiast mówić, na przykład, o wartości średniej danej cechy, będziemy mówić o nadziei

matematycznej odpowiadającej jej zmiennej losowej. Tak więc sformułowane powyżej pytania dotyczą parametrów rozkładu PX.

Dość często możemy z góry założyć, że nasza cecha posiada rozkład określonego typu. Na przykład, gdy prowadzimy sondaż, nasza cecha ma rozkład dwupunktowy (0,1,p): "0" oznacza, że wyborca nie głosował na partię ABC, zaś "1" oznacza, że na tę partię głosował - nas natomiast interesuje parametr p, a właściwie p100%. Często też, korzystając z centralnego twierdzenia granicznego, można założyć, że dana cecha ma rozkład N(m,σ) - wtedy parametr m odpowiada średniej wartości cechy, zaś σ - jej odchyleniu standardowemu.

W związku z powyższym, przyjmujemy ogólne założenie, że mamy ustaloną jakąś rodzinę rozkładów prawdopodobieństwa, indeksowaną przez pewien parametr θΘ - będziemy pisać:


𝒫={Pθ:θΘ}


W pierwszym z powyższych przypadków 𝒫 jest rodziną rozkładów dwupunktowych (0,1,p), a więc Θ jest przedziałem (0,1), zaś w drugim - 𝒫 jest rodziną wszystkich rozkładów normalnych, zatem Θ jest iloczynem kartezjańskim ×(0,). Dopuszcza się też możliwość, że 𝒫 jest zbiorem wszystkich możliwych rozkładów prawdopodobieństwa, czyli że Θ=𝒫.

Możemy teraz, przy powyższych założeniach i oznaczeniach, interesujące nas zagadnienia sformułować w następujący sposób:

1' znaleźć θΘ takie, że PX=Pθ,

2' znaleźć zbiór Θ0Θ taki, że PX=Pθ dla pewnego θΘ0,

3' czy prawdą jest, że PX=Pθ dla pewnego θΘ0, gdzie Θ0 jest z góry ustalonym zbiorem?

Zauważmy jednak, iż tak sformułowane zadania są w dalszym ciągu niewykonalne, a zatem powinny zostać jeszcze trochę przeformułowane, czym zajmujemy się w kolejnym punkcie.

Model statystyczny

Wracamy do budowy modelu matematycznego dla naszych zagadnień.

Załóżmy, że obserwujemy ciąg zmiennych losowych, powiedzmy X1,,Xn, określonych na przestrzeni probabilistycznej (Ω,Σ,P) (przypominamy, że na tej samej przestrzeni jest określona także zmienna losowa X, reprezentująca daną cechę), z których każda ma taki sam rozkład jak X, czyli:


PXi=PX dla i=1,,n


Tak zdefiniowany ciąg nazywa się próbką ze zmiennej losowej X - odpowiada on zaobserwowanym faktycznie wartościom cechy, powiedzmy x1,,xn (ten ostatni ciąg także nazywa się próbką wartości cechy, tak więc w dalszej części będziemy mówić po prostu o próbce, a z kontekstu będzie wynikać znaczenie, w jakim słowo to zostało użyte). Bardzo często zdarza się, iż obserwacje wartości cechy są niezależne od siebie - jeżeli tak jest, to ciąg x1,,xn nazywa się próbką prostą. W języku zmiennych losowych mówimy, że X1,,Xn jest próbką prostą, gdy zmienne losowe X1,,Xn tworzą próbkę i są niezależnymi zmiennymi losowymi. W dalszej części będziemy rozważać tylko próbki proste.

Wprowadzimy teraz dwa nowe terminy.

Definicja 11.1

Statystyką nazywamy dowolną funkcję T:nd, która jest mierzalna ze względu na σ-algebrę zbiorów borelowskich (n), to znaczy:


T1(B)(n) dla każdego B(d)


Okazuje się, iż zdecydowana większość rozważanych w praktyce funkcji n d spełnia powyższą definicję. Zauważmy, ze jeżeli na przestrzeni n określimy rozkład prawdopodobieństwa, powiedzmy Q, to znaczy gdy (n,(n),Q) jest przestrzenią probabilistyczną, to statystyka T:nd jest d-wymiarowym wektorem losowym, określonym na tej przestrzeni.

Definicja 11.2

Niech X1,,Xn będzie próbką prostą ze zmiennej losowej X. Estymatorem parametru zmiennej X nazywamy zmienną losową, będącą złożeniem wektora losowego (X1,,Xn) ze statystyką T, czyli funkcję:


T(X1,,Xn)


Opuszczając znak operatora złożenia "", co się często w praktyce czyni, możemy estymator oznaczyć (nieściśle) jako:


T(X1,,Xn)


Przykład 11.3

Przykładem statystyki jest średnia:


T(x1,,xn)=x1++xnn


a odpowiadającym jej estymatorem jest:


T(X1,,Xn)=X1++Xnn


Dla tej statystyki jak i tego estymatora zarezerwowano następujące oznaczenia:


x¯ lub x¯n oraz, odpowiednio, X¯ lub X¯n


Przykład 11.4

Innym przykładem statystyki jest tak zwana statystyka pozycyjna:


T(x1,,xn)=(x(1),x(n))


gdzie x(1),,x(n) oznaczają elementy próbki x1,,xn ustawione w porządku rosnącym:


x(1)x(n)


Estymator, jak każdy wektor losowy, posiada swój rozkład PT(X1,,Xn), który będziemy w skrócie oznaczać symbolem PT. Dość często utożsamia się statystykę T z odpowiadającym jej estymatorem T(X1,,Xn) i w związku z tym mówi się także, że PT jest rozkładem statystyki T. Oczywiście, rozkład PT zależy w sposób jednoznaczny od rozkładu PX zmiennej losowej X, z której pochodzi próbka prosta. Istnieją twierdzenia, dzięki którym można w szczególnych przypadkach efektywnie wyznaczyć tę zależność.


Przykład 11.5

Wiadomo (patrz twierdzenie 9.2), że gdy zmienna X ma rozkład N(m,σ), to rozkład PT statystyki T=x¯ jest rozkładem N(m,σn). Natomiast w przypadku, gdy nie znamy rozkładu zmiennej X, a jedynie jej nadzieję matematyczną m i odchylenie standardowe σ, ale wielkość próbki n jest duża, to z centralnego twierdzenia granicznego wynika, że PT ma w przybliżeniu rozkład

N(m,σn).

Estymatory nieobciążone i zgodne

Plik:Rp-11-3.mp4

Jednym z zadań statystyki jest znajdowanie estymatorów (a więc statystyk), które w jakimś sensie mówią nam o rozkładzie PX zmiennej losowej X, z której pochodzi dana próbka. Na przykład, wydaje się, że znajomość średniej arytmetycznej:


X¯=X1++Xnn,


daje nam pewne informacje o nadziei matematycznej 𝔼(X). Zauważmy jednak, że istnieją inne estymatory, które także dają pewne informacje o wartości średniej - przykładowo:


T(x1,,xn)=x1+xn2


lub


T(x1,,xn)=min1in{xi}+max1in{xi}2


Oczywiście, można wskazać jeszcze inne, dość "rozsądne" estymatory nadziei matematycznej.

Powstaje więc problem, jaki estymator należy stosować w konkretnej sytuacji. Rozwiązuje się go w ten sposób, że wprowadza się kilka kryteriów, które powinien spełniać "dobry" estymator, a następnie bada się, czy rozpatrywany przez nas estymator spełnia te kryteria. Istnieją też sposoby porównywania między sobą estymatorów tego samego parametru.

W dalszej części podajemy dwa kryteria oceny jakości estymatorów parametrów liczbowych.

Definicja 11.6

Niech X1,,Xn będzie próbką prostą ze zmiennej losowej X oraz niech 𝒫={Pθ:θΘ} będzie rodziną rozkładów, przy czym Θ. Estymator T(X1,,Xn) nazywamy estymatorem nieobciążonym parametru θΘ, jeżeli:


𝔼(T(X1,,Xn))=θ


Estymator, który nie jest nieobciążony nazywamy estymatorem obciążonym.

Przykład 11.7

Średnia arytmetyczna jest estymatorem nieobciążonym nadziei matematycznej 𝔼(X). Rzeczywiście, stosując podstawowe własności nadziei matematycznej otrzymujemy:


𝔼(X¯n)=𝔼(X1++Xnn)=1n𝔼(X1++Xn)=1nn𝔼(X)=𝔼(X)


Przykład 11.8

Niech m=𝔼(X) oraz niech s2 będzie statystyką określoną wzorem:


s2(x1,,xn)=1ni=1n(xim)2


Wówczas estymator odpowiadający statystyce s2 jest nieobciążonym estymatorem wariancji 𝔻2(X). Rzeczywiście:


𝔼(s2(X1,,Xn))=𝔼(1ni=1n(Xim)2)=1ni=1n𝔼((Xim)2)


=1nn𝔻2(X)=𝔻2(X)


Przykład 11.9

W przypadku, gdy nie znamy nadziei matematycznej m, możemy także estymować wariancję - definiujemy wtedy s2 następująco:


s2(x1,,xn)=1ni=1n(xix¯)2


Okazuje się niestety, iż jest to estymator obciążony. Aby to wykazać, zauważmy najpierw, że ponieważ zmienne losowe XiX¯ mają takie same rozkłady, zatem:


𝔼(s2(X1,,Xn))=1nn𝔼((X1X¯)2)=𝔼((X1X1++Xnn)2)


=𝔼((n1nX1X2++Xnn)2)


=𝔼((n1n(X1m)(X2m)++(Xnm)n)2)


(tę ostatnią równość otrzymano dodając i odejmując liczbę n1nm). Po podniesieniu do kwadratu odpowiednich wyrażeń i wykorzystaniu następującego faktu, wynikającego z niezależności zmiennych losowych Xi i Xj (patrz twierdzenie 7.15):


𝔼((Xim)(Xjm))=𝔼(Xim)𝔼(Xjm)=00=0 dla ij,


otrzymujemy:


𝔼(s2(X1,,Xn))=1n2((n1)2𝔼((X1m)2)+E((X2m)2)+


+E((Xnm)2))=1n2((n1)2𝔻2(X)+(n1)𝔻2(X))


=1n2(n1)(n1+1)𝔻2(X)=n1n𝔻2(X)


Uwaga 11.10

Pomimo tego, iż zdefiniowany w poprzednim przykładzie estymator s2(X1,,Xn) jest obciążony, jest on często używany, gdyż dla dużej próbki:


n1n1


Inaczej mówiąc, obciążenie tego estymatora jest dla dużych n nieistotne. Estymatory o takiej własności nazywa się estymatorami asymptotycznie nieobciążonymi.

Uwaga 11.11

Wynik uzyskany w przykładzie 11.9 można wykorzystać do konstrukcji nieobciążonego estymatora wariancji. Jest nim oczywiście:


s*2(X1,,Xn)=nn1s2(X1,,Xn)=1n1i=1n(XiX¯)2,


gdyż:


𝔼(s*2(X1,,Xn))=nn1𝔼(s2(X1,,Xn))=𝔻2(X)


Definicja 11.12

Niech X1,,Xn będzie próbką prostą ze zmiennej losowej X oraz niech 𝒫={Pθ:θΘ} będzie rodziną rozkładów, przy czym θ. Estymator T(X1,,Xn) nazywamy estymatorem zgodnym parametru θΘ, jeżeli:


T(X1,,Xn)1θ


Przykład 11.13

Średnia X¯ jest estymatorem zgodnym nadziei matematycznej - wynika to natychmiast z mocnego prawa wielkich liczb (twierdzenie 7.22).