Rachunek prawdopodobieństwa i statystyka/Ćwiczenia 11: Wnioskowanie statystyczne: Różnice pomiędzy wersjami
m Zastępowanie tekstu – „ \displaystyle ” na „” |
m Zastępowanie tekstu – „\displaystyle ” na „” |
||
Linia 2: | Linia 2: | ||
{{cwiczenie|11.1|cw 11.1| | {{cwiczenie|11.1|cw 11.1| | ||
Przypuśćmy, że próbka prosta pochodzi z rozkładu jednostajnego na odcinku <math> | Przypuśćmy, że próbka prosta pochodzi z rozkładu jednostajnego na odcinku <math>(0,a)</math>, gdzie <math>a > 0 </math> | ||
jest nieznanym parametrem. Zastanowimy się, co może być "dobrym" estymatorem parametru <math> | jest nieznanym parametrem. Zastanowimy się, co może być "dobrym" estymatorem parametru <math>a</math>. | ||
}} | }} | ||
Jako sensowne przybliżenie <math> | Jako sensowne przybliżenie <math>a</math> można wziąć największy element próbki, czyli statystykę: | ||
<center><math> | <center><math> | ||
T(x_1, \dots, x_n | T(x_1, \dots, x_n ) = \max \{x_1, \dots, x_n \}. | ||
</math></center> | </math></center> | ||
Linia 17: | Linia 17: | ||
Można udowodnić, że jest to estymator zgodny. Sprawdzimy, czy jest on także nieobciążony. | Można udowodnić, że jest to estymator zgodny. Sprawdzimy, czy jest on także nieobciążony. | ||
Aby obliczyć nadzieję matematyczną zmiennej losowej <math> | Aby obliczyć nadzieję matematyczną zmiennej losowej <math>\max \{X_1, \dots, X_n \}</math>, wyznaczymy najpierw dystrybuantę <math>F</math> | ||
oraz gęstość <math> | oraz gęstość <math>f</math> tej zmiennej, a następnie wykorzystamy wzór (patrz [[Rachunek prawdopodobieństwa i statystyka/Wykład 7: Parametry rozkładów zmiennych losowych#tw_7.22|twierdzenie 7.22]]): | ||
<center><math> | <center><math>{\Bbb E}(\max \{X_1, \dots, X_n \}) = \int_{-\infty}^\infty x f(x)\, dx.</math></center> | ||
Oczywiście, z określenia naszej zmiennej losowej wynika natychmiast, że <math> | Oczywiście, z określenia naszej zmiennej losowej wynika natychmiast, że <math>F(x) \leq 0</math> dla <math>x < 0</math> oraz | ||
<math> | <math>F(x) = 1</math> dla <math>x \geq a</math> (wtedy też <math>f(x)=0</math>), zaś dla <math>x \in (0,a)</math>, z niezależności | ||
zmiennych <math> | zmiennych <math>X_1, \dots, X_n</math> otrzymujemy: | ||
<center><math> | <center><math> | ||
F(x) = P(\max \{X_1, \dots, X_n | F(x) = P(\max \{X_1, \dots, X_n \} \le x) | ||
= P(X_1 \le x, \dots, X_n \le x) | = P(X_1 \le x, \dots, X_n \le x) | ||
</math></center> | </math></center> | ||
<center><math> | <center><math> | ||
= P(X_1 \le x)\cdot \dots \cdot P(X_n \le x) | = P(X_1 \le x)\cdot \dots \cdot P(X_n \le x) | ||
= \left( \frac{x}{a} \right )^n. | = \left( \frac{x}{a} \right )^n. | ||
Linia 44: | Linia 44: | ||
<center><math> | <center><math> f(x) = F'(x)=\frac{1}{a^n} n x^{n-1}\;\; </math> dla <math> \; x\in (0,a),</math></center> | ||
Linia 50: | Linia 50: | ||
<center><math> | <center><math> | ||
{\Bbb E}(T(X_1, \dots, X_n | {\Bbb E}(T(X_1, \dots, X_n )) = \frac{1}{a^n}\, n \int_0^a x x^{n-1}\,dx = \frac{n}{n+1}a. | ||
</math></center> | </math></center> | ||
Powyższy estymator jest więc obciążony, ale jest także asymptotycznie nieobciążony. | Powyższy estymator jest więc obciążony, ale jest także asymptotycznie nieobciążony. | ||
Jednak już teraz widać, że estymatorem nieobciążonym parametru <math> | Jednak już teraz widać, że estymatorem nieobciążonym parametru <math>p</math> jest estymator: | ||
<center><math> | <center><math> | ||
T_*(X_1, \dots, X_n | T_*(X_1, \dots, X_n )=\frac{n+1}{n} \max\{X_1, \dots, X_n \}. | ||
</math></center> | </math></center> | ||
Zauważmy, iż właściwie można było z góry przewidzieć, że estymator <math> | Zauważmy, iż właściwie można było z góry przewidzieć, że estymator <math>\max\{X_1, \dots, X_n \}</math> będzie obciążony, gdyż | ||
praktycznie zawsze: | praktycznie zawsze: | ||
<center><math> | <center><math>\max\{x_1, \dots, x_n \} < a</math></center> | ||
- okazuje się, że wymnożenie przez współczynnik <math> | - okazuje się, że wymnożenie przez współczynnik <math>\frac{n+1}{n}</math> zwiększa go tyle, ile trzeba. | ||
{{cwiczenie|11.2|cw_11.2| | {{cwiczenie|11.2|cw_11.2| | ||
Innym podejściem do estymacji parametru <math> | Innym podejściem do estymacji parametru <math>a</math> w rozkładzie jednostajnym na przedziale <math>(0,a)</math>, jest wykorzystanie | ||
wiadomości, że nadzieja matematyczna, której "dobrym" estymatorem jest średnia, w tym rozkładzie wynosi <math> | wiadomości, że nadzieja matematyczna, której "dobrym" estymatorem jest średnia, w tym rozkładzie wynosi <math>\frac{a}{2}</math>, | ||
a więc jako estymator <math> | a więc jako estymator <math>a</math> można przyjąć estymator określony przez statystykę: <center><math>S(X_1, \dots, X_n )=2 \bar{x} .</math></center> | ||
Można łatwo | Można łatwo | ||
stwierdzić, że jest to estymator zgodny i nieobciążony. Nasuwa się więc naturalne pytanie o to, | stwierdzić, że jest to estymator zgodny i nieobciążony. Nasuwa się więc naturalne pytanie o to, | ||
który estymator jest lepszy: | który estymator jest lepszy: | ||
estymator <math> | estymator <math>T_*</math>, określony w [[#cw_11.1|ćwiczeniu 11.1]], czy zdefiniowany powyżej estymator <math>S</math>. | ||
}} | }} | ||
Linia 86: | Linia 86: | ||
Aby odpowiedzieć na powyższe pytanie, należy ustalić jakieś kryterium pozwalające na porównywanie estymatorów. | Aby odpowiedzieć na powyższe pytanie, należy ustalić jakieś kryterium pozwalające na porównywanie estymatorów. | ||
Wśród estymatorów nieobciążonych kryterium tym jest wielkość wariancji, przy czym im mniejsza wariancja, tym lepszy | Wśród estymatorów nieobciążonych kryterium tym jest wielkość wariancji, przy czym im mniejsza wariancja, tym lepszy | ||
estymator. Liczymy więc wariancje <math> | estymator. Liczymy więc wariancje <math>T_*</math> i <math>S</math>, wykorzystując (między innymi) wzór na wariancję w rozkładzie jednostajnym | ||
(patrz [[Rachunek prawdopodobieństwa i statystyka/Wykład 7: Parametry rozkładów zmiennych losowych#przy_7.11|przykład 7.11]]) oraz [[Rachunek prawdopodobieństwa i statystyka/Wykład 7: Parametry rozkładów zmiennych losowych#tw_7.13|twierdzenie 7.13]] (patrz punkt 6): | (patrz [[Rachunek prawdopodobieństwa i statystyka/Wykład 7: Parametry rozkładów zmiennych losowych#przy_7.11|przykład 7.11]]) oraz [[Rachunek prawdopodobieństwa i statystyka/Wykład 7: Parametry rozkładów zmiennych losowych#tw_7.13|twierdzenie 7.13]] (patrz punkt 6): | ||
<center><math> | <center><math> | ||
{\Bbb D}^2 (S)={\Bbb D}^2 (2 \bar{X}) = \frac{4}{n^2} {\Bbb D}^2 (X_1+ \dots + X_n) | {\Bbb D}^2 (S)={\Bbb D}^2 (2 \bar{X}) = \frac{4}{n^2} {\Bbb D}^2 (X_1+ \dots + X_n) | ||
= \frac{4}{n^2} n {\Bbb D}^2 (X) | = \frac{4}{n^2} n {\Bbb D}^2 (X) | ||
Linia 98: | Linia 98: | ||
<center><math> | <center><math> | ||
{\Bbb D}^2 (T_*)={\Bbb D}^2 \left(\frac{n+1}{n} \max\{X_1, \dots, X_n | {\Bbb D}^2 (T_*)={\Bbb D}^2 \left(\frac{n+1}{n} \max\{X_1, \dots, X_n \}\right) = \left(\frac{n+1}{n}\right)^2 {\Bbb D}^2 ( \max(X_1, \dots, X_n )) | ||
</math></center> | </math></center> | ||
<center><math> | <center><math> | ||
= \left(\frac{n+1}{n}\right)^2 \left(\int_0^ax^2\frac{1}{a^n} n x^{n-1}\,dx - \left(\frac{n}{n+1}a\right)^2\right) | = \left(\frac{n+1}{n}\right)^2 \left(\int_0^ax^2\frac{1}{a^n} n x^{n-1}\,dx - \left(\frac{n}{n+1}a\right)^2\right) | ||
</math></center> | </math></center> | ||
<center><math> | <center><math> = \left( \frac{n +1}{n} \right) ^{2} | ||
\left( {\frac {{a}^{2}n}{n+2}}-{\frac {{a}^{2}{n}^{2}}{ \left( n+1 \right) ^{2}}} \right) | \left( {\frac {{a}^{2}n}{n+2}}-{\frac {{a}^{2}{n}^{2}}{ \left( n+1 \right) ^{2}}} \right) | ||
= {\frac {{a}^{2}}{n \left( n+2 \right) }}. | = {\frac {{a}^{2}}{n \left( n+2 \right) }}. | ||
Linia 117: | Linia 117: | ||
<center><math> | <center><math> | ||
\frac{ {\Bbb D}^2 (S)}{{\Bbb D}^2 (T_*)} = \frac{2+n}{3} > 1\;\; </math> dla <math> | \frac{ {\Bbb D}^2 (S)}{{\Bbb D}^2 (T_*)} = \frac{2+n}{3} > 1\;\; </math> dla <math> n > 1, | ||
</math></center> | </math></center> | ||
co oznacza, że wariancja estymatora <math> | co oznacza, że wariancja estymatora <math>S</math> jest | ||
większa od wariancji estymatora <math> | większa od wariancji estymatora <math>T_*</math>, a w związku z tym, ten drugi estymator jest lepszy w sensie naszego kryterium. | ||
Co więcej, im większa jest próbka, tym większy jest stosunek obu wariancji. | Co więcej, im większa jest próbka, tym większy jest stosunek obu wariancji. | ||
{{cwiczenie|11.3|cw 11.3| | {{cwiczenie|11.3|cw 11.3| | ||
Naturalnym estymatorem parametru <math> | Naturalnym estymatorem parametru <math>p</math> w rozkładzie dwupunktowym <math>(0,1,p)</math> jest średnia z próbki. | ||
Zauważmy, że tutaj: | Zauważmy, że tutaj: | ||
<center><math> | <center><math>\bar{x}=\frac{k}{n},</math></center> | ||
gdzie <math> | gdzie <math>k</math> jest liczbą zaobserwowanych jedynek. | ||
Łatwo sprawdzić, że jest to estymator zgodny i nieobciążony parametru <math> | Łatwo sprawdzić, że jest to estymator zgodny i nieobciążony parametru <math>p</math>. | ||
}} | }} | ||
Linia 142: | Linia 142: | ||
'''{{kotwica|zad 11.1|Zadanie 11.1}}''' | '''{{kotwica|zad 11.1|Zadanie 11.1}}''' | ||
Wylosowano następującą próbkę prostą z rozkładu geometrycznego: | Wylosowano następującą próbkę prostą z rozkładu geometrycznego: | ||
<center><math> | <center><math>8,\; 10,\; 11,\; 11,\; 3,\; 8,\; 10,\; 12,\; 17,\; 16,\; 14.</math></center> | ||
Jaka liczba będzie dobrym przybliżeniem parametru <math> | Jaka liczba będzie dobrym przybliżeniem parametru <math>p</math>? | ||
'''{{kotwica|zad 11.2|Zadanie 11.2}}''' | '''{{kotwica|zad 11.2|Zadanie 11.2}}''' | ||
Wylosowano następującą próbkę prostą z rozkładu jednostajnego na odcinku <math> | Wylosowano następującą próbkę prostą z rozkładu jednostajnego na odcinku <math>(-a,a)</math>: | ||
<center><math> | <center><math>-2.11, \; -4.71, \; 1.63,\; -2.52,\; 3.33,\; 0.46,\; 1.02,\; -0.96.</math></center> | ||
Jak przybliżyć wartość parametru <math> | Jak przybliżyć wartość parametru <math>a</math>? | ||
'''{{kotwica|zad 11.3|Zadanie 11.3}}''' | '''{{kotwica|zad 11.3|Zadanie 11.3}}''' | ||
Dana jest próbka prosta <math> | Dana jest próbka prosta <math>X_1, \dots, X_n</math> z rozkładu dwupunktowego <math>(0,1,p)</math>. Znajdź rozkład estymatora <math>\bar{X}</math>. | ||
'''{{kotwica|zad 11.4|Zadanie 11.4}}''' | '''{{kotwica|zad 11.4|Zadanie 11.4}}''' | ||
Linia 161: | Linia 161: | ||
'''{{kotwica|zad 11.5|Zadanie 11.5}}''' | '''{{kotwica|zad 11.5|Zadanie 11.5}}''' | ||
Uzasadnij, że estymator <math> | Uzasadnij, że estymator <math>S</math> z [[#cw_11.2|ćwiczenia 11.2]]. jest zgodny i nieobciążony. | ||
'''{{kotwica|zad 11.6|Zadanie 11.6}}''' | '''{{kotwica|zad 11.6|Zadanie 11.6}}''' | ||
Linia 167: | Linia 167: | ||
'''{{kotwica|zad 11.7|Zadanie 11.7}}''' | '''{{kotwica|zad 11.7|Zadanie 11.7}}''' | ||
Zaproponuj estymator parametru <math> | Zaproponuj estymator parametru <math>\lambda</math> w rozkładzie Poissona. | ||
'''{{kotwica|zad 11.8|Zadanie 11.8}}''' | '''{{kotwica|zad 11.8|Zadanie 11.8}}''' | ||
Zaproponuj estymator parametru <math> | Zaproponuj estymator parametru <math>\lambda</math> w rozkładzie wykładniczym. | ||
'''{{kotwica|zad 11.9|Zadanie 11.9}}''' | '''{{kotwica|zad 11.9|Zadanie 11.9}}''' | ||
Linia 176: | Linia 176: | ||
<center><math> | <center><math> | ||
s^{2}(X_1, \dots, X_n | s^{2}(X_1, \dots, X_n ) = \frac{1}{n} \sum_{i=1}^{n} ( X_{i}-m)^{2}, | ||
</math></center> | </math></center> | ||
jest zgodnym estymatorem wariancji (<math> | jest zgodnym estymatorem wariancji (<math>m</math>, jak zwykle, oznacza nadzieję matematyczną <math>X</math>). | ||
'''{{kotwica|zad 11.10|Zadanie 11.10}}''' | '''{{kotwica|zad 11.10|Zadanie 11.10}}''' | ||
Linia 187: | Linia 187: | ||
<center><math> | <center><math> | ||
s_*(X_1, \dots, X_n | s_*(X_1, \dots, X_n ) = \sqrt{\frac{1}{n-1} \sum_{i=1}^{n} ( X_{i}-\bar{X})^{2} }, | ||
</math></center> | </math></center> | ||
Linia 195: | Linia 195: | ||
'''{{kotwica|zad 11.11|Zadanie 11.11}}''' | '''{{kotwica|zad 11.11|Zadanie 11.11}}''' | ||
Wykorzystując statystykę pozycyjną, zaproponuj estymator kwantyla <math> | Wykorzystując statystykę pozycyjną, zaproponuj estymator kwantyla <math>q_p</math>. | ||
'''{{kotwica|zad 11.12|Zadanie 11.12}}''' | '''{{kotwica|zad 11.12|Zadanie 11.12}}''' | ||
Linia 201: | Linia 201: | ||
<center><math> | <center><math> | ||
\sum_{i=1}^n(x_i - \bar{x})^2 = \sum_{i=1}^nx_i^2 - n\bar{x}^2. | \sum_{i=1}^n(x_i - \bar{x})^2 = \sum_{i=1}^nx_i^2 - n\bar{x}^2. | ||
</math></center> | </math></center> | ||
Linia 207: | Linia 207: | ||
'''{{kotwica|zad 11.13|Zadanie 11.13}}''' | '''{{kotwica|zad 11.13|Zadanie 11.13}}''' | ||
Wykonaj 100 razy następujący eksperyment: z rozkładu jednostajnego na przedziale <math> | Wykonaj 100 razy następujący eksperyment: z rozkładu jednostajnego na przedziale <math>(0,10)</math> losujemy | ||
30 liczb i obliczamy wartości statystyk <math> | 30 liczb i obliczamy wartości statystyk <math>2 \bar{x}</math> oraz <math>\frac{n+1}{n} \max\{x_1, \dots, x_n \}</math>. | ||
Otrzymasz dwa ciągi liczb, powiedzmy <math> | Otrzymasz dwa ciągi liczb, powiedzmy <math>a_1, \dots, a_{100}</math> oraz | ||
<math> | <math>b_1, \dots, b_{100}</math>. Dla każdego z tych dwóch ciągów oblicz średnią i wariancję. | ||
Porównaj otrzymane wyniki z wnioskami zawartymi w [[#cw_11.2|ćwiczeniu 11.2]]. | Porównaj otrzymane wyniki z wnioskami zawartymi w [[#cw_11.2|ćwiczeniu 11.2]]. |
Wersja z 08:57, 28 sie 2023
Ćwiczenia
Ćwiczenie 11.1
Przypuśćmy, że próbka prosta pochodzi z rozkładu jednostajnego na odcinku , gdzie jest nieznanym parametrem. Zastanowimy się, co może być "dobrym" estymatorem parametru .
Jako sensowne przybliżenie można wziąć największy element próbki, czyli statystykę:
Można udowodnić, że jest to estymator zgodny. Sprawdzimy, czy jest on także nieobciążony.
Aby obliczyć nadzieję matematyczną zmiennej losowej , wyznaczymy najpierw dystrybuantę oraz gęstość tej zmiennej, a następnie wykorzystamy wzór (patrz twierdzenie 7.22):
Oczywiście, z określenia naszej zmiennej losowej wynika natychmiast, że dla oraz
dla (wtedy też ), zaś dla , z niezależności
zmiennych otrzymujemy:
Stąd:
zatem:
Powyższy estymator jest więc obciążony, ale jest także asymptotycznie nieobciążony.
Jednak już teraz widać, że estymatorem nieobciążonym parametru jest estymator:
Zauważmy, iż właściwie można było z góry przewidzieć, że estymator będzie obciążony, gdyż
praktycznie zawsze:
- okazuje się, że wymnożenie przez współczynnik zwiększa go tyle, ile trzeba.
Ćwiczenie 11.2
Innym podejściem do estymacji parametru w rozkładzie jednostajnym na przedziale , jest wykorzystanie wiadomości, że nadzieja matematyczna, której "dobrym" estymatorem jest średnia, w tym rozkładzie wynosi ,
a więc jako estymator można przyjąć estymator określony przez statystykę:Można łatwo stwierdzić, że jest to estymator zgodny i nieobciążony. Nasuwa się więc naturalne pytanie o to, który estymator jest lepszy: estymator , określony w ćwiczeniu 11.1, czy zdefiniowany powyżej estymator .
Aby odpowiedzieć na powyższe pytanie, należy ustalić jakieś kryterium pozwalające na porównywanie estymatorów. Wśród estymatorów nieobciążonych kryterium tym jest wielkość wariancji, przy czym im mniejsza wariancja, tym lepszy estymator. Liczymy więc wariancje i , wykorzystując (między innymi) wzór na wariancję w rozkładzie jednostajnym (patrz przykład 7.11) oraz twierdzenie 7.13 (patrz punkt 6):
Dzielimy teraz przez siebie te dwie wariacje:
co oznacza, że wariancja estymatora jest
większa od wariancji estymatora , a w związku z tym, ten drugi estymator jest lepszy w sensie naszego kryterium.
Co więcej, im większa jest próbka, tym większy jest stosunek obu wariancji.
Ćwiczenie 11.3
Naturalnym estymatorem parametru w rozkładzie dwupunktowym jest średnia z próbki. Zauważmy, że tutaj:
gdzie jest liczbą zaobserwowanych jedynek.
Łatwo sprawdzić, że jest to estymator zgodny i nieobciążony parametru .
Zadanie 11.1 Wylosowano następującą próbkę prostą z rozkładu geometrycznego:
Jaka liczba będzie dobrym przybliżeniem parametru ?
Zadanie 11.2 Wylosowano następującą próbkę prostą z rozkładu jednostajnego na odcinku :
Jak przybliżyć wartość parametru ?
Zadanie 11.3
Dana jest próbka prosta z rozkładu dwupunktowego . Znajdź rozkład estymatora .
Zadanie 11.4 Uzasadnij tezy zawarte w przykładzie 11.5.
Zadanie 11.5 Uzasadnij, że estymator z ćwiczenia 11.2. jest zgodny i nieobciążony.
Zadanie 11.6 Zaproponuj estymator odchylenia standardowego.
Zadanie 11.7 Zaproponuj estymator parametru w rozkładzie Poissona.
Zadanie 11.8 Zaproponuj estymator parametru w rozkładzie wykładniczym.
Zadanie 11.9 Sprawdź, że estymator:
jest zgodnym estymatorem wariancji (, jak zwykle, oznacza nadzieję matematyczną ).
Zadanie 11.10 Czy następujący estymator:
jest obciążonym estymatorem odchylenia standardowego?
Zadanie 11.11 Wykorzystując statystykę pozycyjną, zaproponuj estymator kwantyla .
Zadanie 11.12 Wykaż wzór:
Zadanie 11.13
Wykonaj 100 razy następujący eksperyment: z rozkładu jednostajnego na przedziale losujemy
30 liczb i obliczamy wartości statystyk oraz .
Otrzymasz dwa ciągi liczb, powiedzmy oraz
. Dla każdego z tych dwóch ciągów oblicz średnią i wariancję.
Porównaj otrzymane wyniki z wnioskami zawartymi w ćwiczeniu 11.2.