Rachunek prawdopodobieństwa i statystyka/Wykład 11: Wnioskowanie statystyczne: Różnice pomiędzy wersjami

Z Studia Informatyczne
Przejdź do nawigacjiPrzejdź do wyszukiwania
Arek (dyskusja | edycje)
Nie podano opisu zmian
 
Arek (dyskusja | edycje)
Nie podano opisu zmian
Linia 1: Linia 1:
{dal}{{-1.1cm}}[chapter]
{dak}[dal]{{-0.1cm}}
{zad}{Zadanie }[chapter]
{zam}{Ćwiczenie}[chapter]
{ptst}{Pytanie}[chapter]
{{przyklad|||
}
{{przyklad|#1||
}
{mapleex}
{Wnioskowanie statystyczne}
==Streszczenie==
==Streszczenie==


Linia 135: Linia 117:
zmienna losowa <math>\displaystyle X</math>, reprezentująca daną cechę), z których każda ma
zmienna losowa <math>\displaystyle X</math>, reprezentująca daną cechę), z których każda ma
taki sam rozkład jak <math>\displaystyle X</math>, czyli: <center><math>\displaystyle P_{X_i} =
taki sam rozkład jak <math>\displaystyle X</math>, czyli: <center><math>\displaystyle P_{X_i} =
P_X\;\;\textrm{dla}\; i = 1, \dots, n.</math></center> Tak zdefiniowany ciąg nazywa się próbką ze
P_X\;\; </math> dla <math>\displaystyle  \; i = 1, \dots, n.</math></center> Tak zdefiniowany ciąg nazywa się próbką ze
zmiennej losowej <math>\displaystyle X</math> --
zmiennej losowej <math>\displaystyle X</math> --
odpowiada on zaobserwowanym
odpowiada on zaobserwowanym
Linia 159: Linia 141:
B}({{\Bbb R}^n})</math>, to znaczy:
B}({{\Bbb R}^n})</math>, to znaczy:
<center><math>\displaystyle  
<center><math>\displaystyle  
T^{-1}(B)\in {\cal B}({{\Bbb R}^n})\;\;\textrm{dla każdego}\; B\in {\cal B}({{\Bbb R}^d}).</math></center>
T^{-1}(B)\in {\cal B}({{\Bbb R}^n})\;\; </math> dla każdego <math>\displaystyle  \; B\in {\cal B}({{\Bbb R}^d}).</math></center>
}}
}}


Linia 180: Linia 162:
możemy estymator oznaczyć (nieściśle) jako: <center><math>\displaystyle T(X_1, \dots , X_n).</math></center>
możemy estymator oznaczyć (nieściśle) jako: <center><math>\displaystyle T(X_1, \dots , X_n).</math></center>


Przykładem statystyki jest średnia: <center><math>\displaystyle T(\mbox{</math>x_1, , x_n<math>\displaystyle })
Przykładem statystyki jest średnia: <center><math>\displaystyle T( \displaystyle x_1, \dots, x_n\displaystyle )
= \frac{x_1+ \dots + x_n}{n},</math></center> a odpowiadającym jej
= \frac{x_1+ \dots + x_n}{n},</math></center> a odpowiadającym jej
estymatorem jest: <center><math>\displaystyle T(\mbox{</math>X_1, , X_n<math>\displaystyle }) = \frac{X_1+ \dots + X_n}{n}.</math></center>
estymatorem jest: <center><math>\displaystyle T( \displaystyle X_1, \dots, X_n\displaystyle ) = \frac{X_1+ \dots + X_n}{n}.</math></center>
Dla tej statystyki jak i tego estymatora zarezerwowano następujące oznaczenia:
Dla tej statystyki jak i tego estymatora zarezerwowano następujące oznaczenia:
<center><math>\displaystyle \bar{x}\;\textrm{lub}\;\bar{x}_n\;\;\textrm{oraz, odpowiednio,}\;\;\bar{X}\;\textrm{lub}\;\bar{X}_n.</math></center>
<center><math>\displaystyle \bar{x}\; </math> lub <math>\displaystyle  \;\bar{x}_n\;\; </math> oraz, odpowiednio, <math>\displaystyle  \;\;\bar{X}\; </math> lub <math>\displaystyle  \;\bar{X}_n.</math></center>


Innym przykładem statystyki jest tak zwana statystyka pozycyjna:
Innym przykładem statystyki jest tak zwana statystyka pozycyjna:
<center><math>\displaystyle  T(\mbox{</math>x_1, , x_n<math>\displaystyle }) = (x_{(1)}, \dots x_{(n)}),</math></center>
<center><math>\displaystyle  T( \displaystyle x_1, \dots, x_n\displaystyle ) = (x_{(1)}, \dots x_{(n)}),</math></center>
gdzie <math>\displaystyle x_{(1)}, \dots, x_{(n)}</math> oznaczają elementy próbki <math>\displaystyle \mbox{</math>x_1, , x_n<math>\displaystyle }</math> ustawione w porządku rosnącym:
gdzie <math>\displaystyle x_{(1)}, \dots, x_{(n)}</math> oznaczają elementy próbki <math>\displaystyle \displaystyle x_1, \dots, x_n\displaystyle </math> ustawione w porządku rosnącym:
<center><math>\displaystyle x_{(1)} \le \dots  \le x_{(n)}.</math></center>
<center><math>\displaystyle x_{(1)} \le \dots  \le x_{(n)}.</math></center>


Linia 220: Linia 202:
</math></center>
</math></center>
daje nam pewne informacje o nadziei matematycznej <math>\displaystyle {\Bbb E}(X)</math>. Zauważmy jednak, że istnieją inne estymatory, które także
daje nam pewne informacje o nadziei matematycznej <math>\displaystyle {\Bbb E}(X)</math>. Zauważmy jednak, że istnieją inne estymatory, które także
dają pewne informacje o wartości średniej -- przykładowo: <center><math>\displaystyle T(\mbox{</math>x_1, , x_n<math>\displaystyle })
dają pewne informacje o wartości średniej -- przykładowo: <center><math>\displaystyle T( \displaystyle x_1, \dots, x_n\displaystyle )
= \frac{x_1+ x_n}{2}</math></center> lub
= \frac{x_1+ x_n}{2}</math></center> lub
<center><math>\displaystyle T(\mbox{</math>x_1, , x_n<math>\displaystyle })
<center><math>\displaystyle T( \displaystyle x_1, \dots, x_n\displaystyle )
= \frac{
= \frac{
\min_{1 \le i \le n} \{x_i\} + \max_{1\le i \le n} \{x_i\} }{2}.
\min_{1 \le i \le n} \{x_i\} + \max_{1\le i \le n} \{x_i\} }{2}.
Linia 252: Linia 234:
Niech <math>\displaystyle m = {\Bbb E}(X)</math> oraz niech <math>\displaystyle s^2</math> będzie statystyką określoną wzorem:
Niech <math>\displaystyle m = {\Bbb E}(X)</math> oraz niech <math>\displaystyle s^2</math> będzie statystyką określoną wzorem:
<center><math>\displaystyle  
<center><math>\displaystyle  
s^{2}(\mbox{</math>x_1, , x_n<math>\displaystyle }) = \frac{1}{n} \sum_{i=1}^{n} ( x_{i}-m)^{2}.
s^{2}( \displaystyle x_1, \dots, x_n\displaystyle ) = \frac{1}{n} \sum_{i=1}^{n} ( x_{i}-m)^{2}.
</math></center>
</math></center>
Wówczas estymator odpowiadający statystyce <math>\displaystyle s^2</math> jest nieobciążonym estymatorem wariancji <math>\displaystyle {\Bbb D}^2 (X)</math>. Rzeczywiście:
Wówczas estymator odpowiadający statystyce <math>\displaystyle s^2</math> jest nieobciążonym estymatorem wariancji <math>\displaystyle {\Bbb D}^2 (X)</math>. Rzeczywiście:
<center><math>\displaystyle  
<center><math>\displaystyle  
{\Bbb E}(s^2(\mbox{</math>X_1, , X_n<math>\displaystyle }))  = {\Bbb E}\left( \frac{1}{n} \sum_{i=1}^{n} ( X_{i}-m)^{2} \right)
{\Bbb E}(s^2( \displaystyle X_1, \dots, X_n\displaystyle ))  = {\Bbb E}\left( \frac{1}{n} \sum_{i=1}^{n} ( X_{i}-m)^{2} \right)
= \frac{1}{n}\sum_{i=1}^{n}{\Bbb E} ( (X_{i}-m)^{2})
= \frac{1}{n}\sum_{i=1}^{n}{\Bbb E} ( (X_{i}-m)^{2})
</math></center>
</math></center>
Linia 267: Linia 249:
definiujemy wtedy <math>\displaystyle s^2</math> następująco:
definiujemy wtedy <math>\displaystyle s^2</math> następująco:
<center><math>\displaystyle  
<center><math>\displaystyle  
s^{2}(\mbox{</math>x_1, , x_n<math>\displaystyle }) = \frac{1}{n} \sum_{i=1}^{n} ( x_{i}-\bar{x})^{2}.
s^{2}( \displaystyle x_1, \dots, x_n\displaystyle ) = \frac{1}{n} \sum_{i=1}^{n} ( x_{i}-\bar{x})^{2}.
</math></center>
</math></center>
Okazuje się niestety, iż jest to estymator obciążony. Aby to wykazać, zauważmy najpierw, że ponieważ
Okazuje się niestety, iż jest to estymator obciążony. Aby to wykazać, zauważmy najpierw, że ponieważ
zmienne losowe <math>\displaystyle X_i - \bar{X}</math> mają takie same rozkłady, zatem:
zmienne losowe <math>\displaystyle X_i - \bar{X}</math> mają takie same rozkłady, zatem:
<center><math>\displaystyle {\Bbb E}(s^2(\mbox{</math>X_1, , X_n<math>\displaystyle })) =  \frac{1}{n} n {\Bbb E}((X_1 - \bar{X})^2)
<center><math>\displaystyle {\Bbb E}(s^2( \displaystyle X_1, \dots, X_n\displaystyle )) =  \frac{1}{n} n {\Bbb E}((X_1 - \bar{X})^2)
= {\Bbb E}\left(\left(X_1 - \frac{X_1 + \dots + X_n}{n} \right)^2\right)
= {\Bbb E}\left(\left(X_1 - \frac{X_1 + \dots + X_n}{n} \right)^2\right)
</math></center>
</math></center>
Linia 283: Linia 265:
wynikającego z niezależności zmiennych losowych
wynikającego z niezależności zmiennych losowych
<math>\displaystyle X_i</math> i <math>\displaystyle X_j</math> (patrz twierdzenie [[##dwar|Uzupelnic dwar|]]):
<math>\displaystyle X_i</math> i <math>\displaystyle X_j</math> (patrz twierdzenie [[##dwar|Uzupelnic dwar|]]):
<center><math>\displaystyle {\Bbb E}((X_i - m)(X_j - m)) = {\Bbb E}(X_i - m){\Bbb E}(X_j - m) = 0 \cdot 0 = 0\;\;\textrm{dla}\;i \neq j,</math></center>
<center><math>\displaystyle {\Bbb E}((X_i - m)(X_j - m)) = {\Bbb E}(X_i - m){\Bbb E}(X_j - m) = 0 \cdot 0 = 0\;\; </math> dla <math>\displaystyle  \;i \neq j,</math></center>
otrzymujemy:
otrzymujemy:
<center><math>\displaystyle {\Bbb E}(s^2(\mbox{</math>X_1, , X_n<math>\displaystyle })) = \frac{1}{n^2}\left((n-1)^2{\Bbb E}((X_1-m)^2) +E((X_2 - m)^2)+\dots\right. </math></center>
<center><math>\displaystyle {\Bbb E}(s^2( \displaystyle X_1, \dots, X_n\displaystyle )) = \frac{1}{n^2}\left((n-1)^2{\Bbb E}((X_1-m)^2) +E((X_2 - m)^2)+\dots\right. </math></center>
<center><math>\displaystyle \left.+  E((X_n - m)^2)\right)
<center><math>\displaystyle \left.+  E((X_n - m)^2)\right)
= \frac{1}{n^2} \left((n-1)^2 {\Bbb D}^2 (X) + (n-1) {\Bbb D}^2 (X) \right)
= \frac{1}{n^2} \left((n-1)^2 {\Bbb D}^2 (X) + (n-1) {\Bbb D}^2 (X) \right)
Linia 294: Linia 276:
{{uwaga|||
{{uwaga|||


Pomimo tego, iż zdefiniowany w poprzednim przykładzie estymator <math>\displaystyle s^2(\mbox{</math>X_1, , X_n<math>\displaystyle })</math> jest obciążony,
Pomimo tego, iż zdefiniowany w poprzednim przykładzie estymator <math>\displaystyle s^2( \displaystyle X_1, \dots, X_n\displaystyle )</math> jest obciążony,
jest on często używany, gdyż dla dużej próbki: <center><math>\displaystyle \frac{n-1}{n}\approx 1.</math></center>
jest on często używany, gdyż dla dużej próbki: <center><math>\displaystyle \frac{n-1}{n}\approx 1.</math></center>
Inaczej mówiąc, obciążenie tego estymatora jest dla dużych <math>\displaystyle n</math> nieistotne. Estymatory o takiej
Inaczej mówiąc, obciążenie tego estymatora jest dla dużych <math>\displaystyle n</math> nieistotne. Estymatory o takiej
Linia 305: Linia 287:
Jest nim oczywiście:
Jest nim oczywiście:
<center><math>\displaystyle  
<center><math>\displaystyle  
s_*^{2}(\mbox{</math>X_1, , X_n<math>\displaystyle }) = \frac{n}{n-1} s^2(\mbox{</math>X_1, , X_n<math>\displaystyle }) = \frac{1}{n-1} \sum_{i=1}^{n} ( X_{i}-\bar{X})^{2},
s_*^{2}( \displaystyle X_1, \dots, X_n\displaystyle ) = \frac{n}{n-1} s^2( \displaystyle X_1, \dots, X_n\displaystyle ) = \frac{1}{n-1} \sum_{i=1}^{n} ( X_{i}-\bar{X})^{2},
</math></center>
</math></center>
gdyż: <center><math>\displaystyle  {\Bbb E}(s_*^{2}(\mbox{</math>X_1, , X_n<math>\displaystyle })) = \frac{n}{n-1} {\Bbb E}(s^2(\mbox{</math>X_1, , X_n<math>\displaystyle }) ) = {\Bbb D}^2 (X).</math></center>
gdyż: <center><math>\displaystyle  {\Bbb E}(s_*^{2}( \displaystyle X_1, \dots, X_n\displaystyle )) = \frac{n}{n-1} {\Bbb E}(s^2( \displaystyle X_1, \dots, X_n\displaystyle ) ) = {\Bbb D}^2 (X).</math></center>
}}
}}


Linia 317: Linia 299:
estymatorem zgodnym parametru <math>\displaystyle \theta \in \Theta</math>, jeżeli:
estymatorem zgodnym parametru <math>\displaystyle \theta \in \Theta</math>, jeżeli:
<center><math>\displaystyle  
<center><math>\displaystyle  
T(\mbox{</math>X_1, , X_n<math>\displaystyle }) \stackrel{1}{\longrightarrow} \theta.
T( \displaystyle X_1, \dots, X_n\displaystyle ) \stackrel{1}{\longrightarrow} \theta.
</math></center>
</math></center>
}}
}}

Wersja z 10:18, 22 sie 2006

Streszczenie

Omówimy ogólne aspekty wnioskowania statystycznego. Postawimy trzy naturalne problemy: problem estymacji punktowej, problem estymacji przedziałowej oraz problem testowania hipotez, a następnie przeformułujemy je w sposób dający szansę na ich rozwiązanie. Podamy definicje statystyki i estymatora oraz ich podstawowe własności.

Słowa kluczowe: próbka, próbka prosta, statystyka, estymator, estymator zgodny, estymator nieobciążony.

Pojęcia podstawowe

Jak pamiętamy, statystyka opisowa dotyczy sytuacji, w których mamy do czynienia z pewną cechą (lub cechami) elementów określonej populacji oraz znamy wartość tej cechy dla każdego jej elementu (lub przynajmniej znamy dane zgrupowane w szeregu rozdzielczym). Z zupełnie innym problemem mamy do czynienia w przypadku, gdy znamy wartości cechy tylko dla pewnej liczby elementów, a chcemy tę cechę jakoś scharakteryzować w odniesieniu do całej populacji. Na przykład, wyniki jakie podaje komisja wyborcza po przeliczeniu wszystkich oddanych głosów pozwalają jednoznacznie podać procent wyborców popierających daną partię, powiedzmy partię ABC. Jest to zrobione na podstawie danych o każdej osobie, która poszła do wyborów. Natomiast sondaż przeprowadzany przez ankieterów przed lokalami wyborczymi dotyczy tylko niewielkiej części głosujących, a jednak na jego podstawie jest podawany procent wyborców popierających partię ABC. Jest to możliwe dzięki metodom tak zwanego wnioskowania statystycznego.

Wymienimy poniżej trzy typowe problemy, które dają się rozwiązać metodami wnioskowania statystycznego. Ogólny kontekst jest w każdym przypadku taki sam: obserwujemy wartości pewnej cechy dla wybranych jej elementów i na tej podstawie chcemy odpowiedzieć na jedno z pytań, dotyczących konkretnego parametru tej cechy (na przykład jej wartości średniej).

Ile wynosi parametr (na przykład średnia) naszej cechy w całej populacji? Estymacja punktowa

W jakim zakresie (zbiorze) znajduje się ten parametr? Estymacja przedziałowa

Czy prawdą jest, że nasz parametr należy do określonego zbioru? Testowanie hipotez statystycznych

Zauważmy, że tak sformułowane problemy są faktycznie niemożliwe do rozwiązania. Przykładowo, nie możemy z całą pewnością , na podstawie sondażu przed lokalami wyborczymi, jakie poparcie uzyskała partia ABC. Dlatego nasze pytania muszą zostać przeformułowane tak, aby można było na nie sensownie odpowiedzieć. Aby to zrobić, najpierw zbudujemy pewien model matematyczny, a następnie zajmiemy się kolejno rozwiązywaniem powyższych problemów. W tym miejscu zauważmy jeszcze tylko to, że są one ze sobą silnie związane -- gdybyśmy umieli w pełni rozwiązać problem estymacji punktowej, umielibyśmy też oczywiście rozwiązać problemy estymacji przedziałowej i testowania hipotez.

Na początku zakładamy, że interesująca nas cecha X ma charakter losowy, czyli że jest ona zmienną losową (lub wektorem losowym) określoną na pewnej przestrzeni probabilistycznej, powiedzmy (Ω,Σ,P). W takim razie, interesujący nas parametr jest parametrem zmiennej losowej X lub, bardziej precyzyjnie, parametrem rozkładu PX tej zmiennej. Wówczas zamiast mówić, na przykład, o wartości średniej danej cechy, będziemy mówić o nadziei matematycznej odpowiadającej jej zmiennej losowej. Tak więc sformułowane powyżej pytania dotyczą parametrów rozkładu PX.

Dość często możemy z góry założyć, że nasza cecha posiada rozkład określonego typu. Na przykład, gdy prowadzimy sondaż, nasza cecha ma rozkład dwupunktowy (0,1,p): "0" oznacza, że wyborca nie głosował na partię ABC, zaś "1" oznacza, że na tę partię głosował -- nas natomiast interesuje parametr p, a właściwie p100%. Często też, korzystając z centralnego twierdzenia granicznego, można założyć, że dana cecha ma rozkład N(m,σ) -- wtedy parametr m odpowiada średniej wartości cechy, zaś σ -- jej odchyleniu standardowemu.

W związku z powyższym, przyjmujemy ogólne założenie, że mamy ustaloną jakąś rodzinę rozkładów prawdopodobieństwa, indeksowaną przez pewien parametr θΘ -- będziemy

pisać:

𝒫={Pθ:θΘ}.

W pierwszym z powyższych przypadków

𝒫 jest rodziną rozkładów dwupunktowych (0,1,p), a więc Θ jest przedziałem (0,1), zaś w drugim -- 𝒫 jest rodziną wszystkich rozkładów normalnych, zatem Θ jest iloczynem kartezjańskim ×(0,). Dopuszcza się też możliwość, że 𝒫 jest zbiorem wszystkich możliwych rozkładów prawdopodobieństwa, czyli że Θ=𝒫.

Możemy teraz, przy powyższych założeniach i oznaczeniach, interesujące nas zagadnienia sformułować w następujący sposób:

1'
[:]znaleźć θΘ takie, że PX=Pθ,
2'
[:]znaleźć zbiór Θ0Θ taki, że PX=Pθ dla pewnego θΘ0,
3'
[:]czy prawdą jest, że PX=Pθ

dla pewnego θΘ0, gdzie Θ0 jest z góry ustalonym zbiorem?

Zauważmy jednak, iż tak sformułowane zadania są w dalszym ciągu niewykonalne, a zatem powinny zostać jeszcze trochę przeformułowane, czym zajmujemy się w kolejnym punkcie.

Model statystyczny

Wracamy do budowy modelu matematycznego dla naszych zagadnień.

Załóżmy, że obserwujemy ciąg zmiennych losowych, powiedzmy X1,,Xn, określonych na przestrzeni probabilistycznej (Ω,Σ,P) (przypominamy, że na tej samej przestrzeni jest określona także zmienna losowa X, reprezentująca daną cechę), z których każda ma

taki sam rozkład jak

X

, czyli:

PXi=PX dla i=1,,n.

Tak zdefiniowany ciąg nazywa się próbką ze

zmiennej losowej X -- odpowiada on zaobserwowanym faktycznie wartościom cechy, powiedzmy x1,,xn (ten ostatni ciąg także nazywa się próbką wartości cechy, tak więc w dalszej części będziemy mówić po prostu o próbce, a z kontekstu będzie wynikać znaczenie, w jakim słowo to zostało użyte). Bardzo często zdarza się, iż obserwacje wartości cechy są niezależne od siebie -- jeżeli tak jest, to ciąg x1,,xn nazywa się próbką prostą. W języku zmiennych losowych mówimy, że X1,,Xn jest próbką prostą, gdy zmienne losowe X1,,Xn tworzą próbkę i są niezależnymi zmiennymi losowymi. W dalszej części będziemy rozważać tylko próbki proste.

Wprowadzimy teraz dwa nowe terminy.

Definicja

Statystyką nazywamy dowolną funkcję T:nd, która jest mierzalna ze względu na σ-algebrę zbiorów borelowskich (n), to znaczy:

T1(B)(n) dla każdego B(d).

Okazuje się, iż zdecydowana większość rozważanych w praktyce funkcji n d spełnia powyższą definicję. Zauważmy, ze jeżeli na przestrzeni n określimy rozkład prawdopodobieństwa, powiedzmy Q, to znaczy gdy (n,(n),Q) jest przestrzenią probabilistyczną, to statystyka T:nd jest d-wymiarowym wektorem losowym, określonym na tej przestrzeni.

Definicja

Niech X1,,Xn będzie próbką prostą ze zmiennej losowej X. Estymatorem parametru zmiennej X nazywamy zmienną losową, będącą złożeniem wektora losowego (X1,,Xn) ze statystyką T, czyli

funkcję:
T(X1,,Xn).

Opuszczając znak operatora złożenia "", co się często w praktyce czyni,

możemy estymator oznaczyć (nieściśle) jako:

T(X1,,Xn).

Przykładem statystyki jest średnia:

T(x1,,xn)=x1++xnn,

a odpowiadającym jej estymatorem jest:

T(X1,,Xn)=X1++Xnn.

Dla tej statystyki jak i tego estymatora zarezerwowano następujące oznaczenia:

x¯ lub x¯n oraz, odpowiednio, X¯ lub X¯n.

Innym przykładem statystyki jest tak zwana statystyka pozycyjna:

T(x1,,xn)=(x(1),x(n)),

gdzie x(1),,x(n) oznaczają elementy próbki x1,,xn ustawione w porządku rosnącym:

x(1)x(n).

Estymator, jak każdy wektor losowy, posiada swój rozkład PT(X1,,Xn), który będziemy w skrócie oznaczać symbolem PT. Dość często utożsamia się statystykę T z odpowiadającym jej estymatorem T(X1,,Xn) i w związku z tym mówi się także, że PT jest rozkładem statystyki T. Oczywiście, rozkład PT zależy w sposób jednoznaczny od rozkładu PX zmiennej losowej X, z której pochodzi próbka prosta. Istnieją twierdzenia, dzięki którym można w szczególnych przypadkach efektywnie wyznaczyć tę zależność.

Wiadomo (patrz twierdzenie Uzupelnic torn|), że gdy zmienna X ma rozkład N(m,σ), to rozkład PT statystyki T=x¯ jest rozkładem N(m,σn). Natomiast w przypadku, gdy nie znamy rozkładu zmiennej X, a jedynie jej nadzieję matematyczną m i odchylenie standardowe σ, ale wielkość próbki n jest duża, to z centralnego twierdzenia granicznego wynika, że PT ma w przybliżeniu rozkład N(m,σn).

Estymatory nieobciążone i zgodne

Jednym z zadań statystyki jest znajdowanie estymatorów (a więc statystyk), które w jakimś sensie mówią nam o rozkładzie PX zmiennej losowej X, z której pochodzi dana próbka. Na przykład, wydaje się, że znajomość średniej arytmetycznej:

X¯=X1++Xnn,

daje nam pewne informacje o nadziei matematycznej 𝔼(X). Zauważmy jednak, że istnieją inne estymatory, które także

dają pewne informacje o wartości średniej -- przykładowo:

T(x1,,xn)=x1+xn2

lub

T(x1,,xn)=min1in{xi}+max1in{xi}2.

Oczywiście, można wskazać jeszcze inne, dość "rozsądne" estymatory nadziei matematycznej.

Powstaje więc problem, jaki estymator należy stosować w konkretnej sytuacji. Rozwiązuje się go w ten sposób, że wprowadza się kilka kryteriów, które powinien spełniać "dobry" estymator, a następnie bada się, czy rozpatrywany przez nas estymator spełnia te kryteria. Istnieją też sposoby porównywania między sobą estymatorów tego samego parametru.

W dalszej części podajemy dwa kryteria oceny jakości estymatorów parametrów liczbowych.

Definicja

Niech X1,,Xn będzie próbką prostą ze zmiennej losowej X oraz niech 𝒫={Pθ:θΘ} będzie rodziną rozkładów, przy czym Θ. Estymator T(X1,,Xn) nazywamy estymatorem

nieobciążonym parametru θΘ, jeżeli:
𝔼(T(X1,,Xn))=θ.

Estymator, który nie jest nieobciążony nazywamy estymatorem obciążonym.

Średnia arytmetyczna jest estymatorem nieobciążonym nadziei matematycznej 𝔼(X). Rzeczywiście, stosując podstawowe własności nadziei matematycznej otrzymujemy:

𝔼(X¯n)=𝔼(X1++Xnn)=1n𝔼(X1++Xn)=1nn𝔼(X)=𝔼(X).

Niech m=𝔼(X) oraz niech s2 będzie statystyką określoną wzorem:

s2(x1,,xn)=1ni=1n(xim)2.

Wówczas estymator odpowiadający statystyce s2 jest nieobciążonym estymatorem wariancji 𝔻2(X). Rzeczywiście:

𝔼(s2(X1,,Xn))=𝔼(1ni=1n(Xim)2)=1ni=1n𝔼((Xim)2)
=1nn𝔻2(X)=𝔻2(X).

W przypadku, gdy nie znamy nadziei matematycznej m, możemy także estymować wariancję -- definiujemy wtedy s2 następująco:

s2(x1,,xn)=1ni=1n(xix¯)2.

Okazuje się niestety, iż jest to estymator obciążony. Aby to wykazać, zauważmy najpierw, że ponieważ zmienne losowe XiX¯ mają takie same rozkłady, zatem:

𝔼(s2(X1,,Xn))=1nn𝔼((X1X¯)2)=𝔼((X1X1++Xnn)2)
=𝔼((n1nX1X2++Xnn)2)=
𝔼((n1n(X1m)(X2m)++(Xnm)n)2)

(tę ostatnią równość otrzymano dodając i odejmując liczbę n1nm). Po podniesieniu do kwadratu odpowiednich wyrażeń i wykorzystaniu następującego faktu, wynikającego z niezależności zmiennych losowych Xi i Xj (patrz twierdzenie Uzupelnic dwar|):

𝔼((Xim)(Xjm))=𝔼(Xim)𝔼(Xjm)=00=0 dla ij,

otrzymujemy:

𝔼(s2(X1,,Xn))=1n2((n1)2𝔼((X1m)2)+E((X2m)2)+
+E((Xnm)2))=1n2((n1)2𝔻2(X)+(n1)𝔻2(X))
=1n2(n1)(n1+1)𝔻2(X)=n1n𝔻2(X).
Uwaga

Pomimo tego, iż zdefiniowany w poprzednim przykładzie estymator s2(X1,,Xn) jest obciążony,

jest on często używany, gdyż dla dużej próbki:
n1n1.

Inaczej mówiąc, obciążenie tego estymatora jest dla dużych n nieistotne. Estymatory o takiej własności nazywa się estymatorami asymptotycznie nieobciążonymi.

Uwaga

Wynik uzyskany w przykładzie Uzupelnic pwzp| można wykorzystać do konstrukcji nieobciążonego estymatora wariancji. Jest nim oczywiście:

s*2(X1,,Xn)=nn1s2(X1,,Xn)=1n1i=1n(XiX¯)2,
gdyż:
𝔼(s*2(X1,,Xn))=nn1𝔼(s2(X1,,Xn))=𝔻2(X).

Definicja

Niech X1,,Xn będzie próbką prostą ze zmiennej losowej X oraz niech 𝒫={Pθ:θΘ} będzie rodziną rozkładów, przy czym θ. Estymator T(X1,,Xn) nazywamy estymatorem zgodnym parametru θΘ, jeżeli:

T(X1,,Xn)1θ.

Średnia X¯ jest estymatorem zgodnym nadziei matematycznej -- wynika to natychmiast z mocnego prawa wielkich liczb (twierdzenie Uzupelnic tmpwl|).