Rachunek prawdopodobieństwa i statystyka/Wykład 13: Przedziały ufności i testy

Z Studia Informatyczne
Przejdź do nawigacjiPrzejdź do wyszukiwania

Istotną część wnioskowania statystycznego stanowią estymacja przedziałowa i testowanie hipotez. Podamy przykłady podstawowych metod związanych z tymi zagadnieniami. Wyznaczymy przedziały ufności dla średniej w standardowych sytuacjach. Pokażemy jak się wykonuje testy statystyczne, stosując podejście klasyczne i współczesne. Opiszemy test χ2 dopasowania rozkładu.

Estymacja przedziałowa

Estymacja punktowa omówiona na poprzednim wykładzie nie daje odpowiedzi na pytanie, jak pewny jest otrzymany wynik estymacji, czyli jak dokładnie przybliża on prawdziwą wartość estymatora. Niedogodność tę można częściowo pokonać, wyznaczając tak zwane przedziały ufności dla określonych parametrów, które definiujemy następująco:

Definicja 13.1

Niech α(0,1) będzie ustaloną liczbą (zwykle α jest równe 0.01, 0.05 lub 0.1). Przedział A=AX1,,Xn, zależny od próbki losowej X1,,Xn , nazywamy przedziałem ufności parametru θT na poziomie ufności α, jeżeli:


P(θA)=1α.


Przykład 13.2

Kontrolując pewną hurtownię zważono 10 torebek cukru, otrzymując następujące wyniki (w gramach):


1002,1003,997,997,994,995,998,997,1003,999.


Jaka jest średnia waga torebki cukru w tej hurtowni?

Zakładając, że waga torebki cukru ma rozkład normalny, można na przykład użyć metody największej wiarygodności i obliczyć estymator:


x¯10=998.5.


Jednak nas interesuje coś więcej - od czego jest mniejsza średnia waga torebki cukru, przy czym nie musimy (i nie potrafimy) mieć absolutnie pewnego wyniku. Mówiąc inaczej, szukamy liczby b takiej, że:


P(mb)=0.9,


gdzie m oznacza nadzieję matematyczną wagi torebki cukru w hurtowni.

Przed przystąpieniem do rozwiązywania naszego zadania, ujawnijmy wynik:


b=999.716.


(wynik ten otrzymano przy założeniu, że dokładność wagi wynosi 3 g). Używając języka potocznego możemy więc powiedzieć, że mamy 90% pewności, że średnia waga torebki cukru jest mniejsza niż 999.716 g. Przedział:


(,999.716)


nazywamy 90% przedziałem ufności dla nadziei matematycznej. Oczywiście, można mówić także o 95%, 99% oraz innych przedziałach ufności. W naszym przypadku 95% przedział ufności to (,1000.060), zaś 99% przedział ufności to (,1000.707). Tak więc nie możemy już twierdzić, że na 95%, ani tym bardziej na 99%, waga jednej torebki cukru jest mniejsza od 1 kg.

Przedstawimy teraz rozwiązanie problemu, który jest oczywistym uogólnieniem powyższego przykładu, uzyskując, jako wyniki szczególne, przytoczone powyżej rozwiązania.

Załóżmy, że dana jest próbka prosta x1,,xn z rozkładu N(m,σ), przy czym zakładamy najpierw, że znamy odchylenie standardowe σ (w przypadku ważenia cukru może ono odpowiadać znanej dokładności wagi, którą dysponujemy). Dla ustalonej liczby α(0,1) szukamy takiej liczby b, że:


P(mb)=1α.<ref>Równie dobrze

można było pisać α zamiast 1α; my jednak postępujemy zgodnie z tradycją.</ref>


Ponieważ (patrz twierdzenie 9.2) estymator:


Zn=X¯nmσn


ma rozkład N(0,1), zatem:


P(mb)=P(mb)=P(X¯nmσnX¯nbσn)


=P(ZnX¯nbσn).


Teraz, z jednej strony:


P(mb)=1α,


zaś z drugiej strony:


P(ZnX¯nbσn)=1Φ(X¯naσn).


Mamy więc:


Φ(X¯nbσn)=α


i stąd:


X¯nbσn=Φ1(α),


co daje wynik:


b=X¯nσΦ1(α)n=X¯n+σΦ1(1α)n.


Wracając do przykładu 13.2 - w tym przypadku n=10 oraz σ=3 (dokładność wagi). Ponieważ obserwujemy próbkę, więc w powyższym wzorze w miejsce estymatora średniej podstawiamy wartość odpowiadającej mu statystyki (obliczonej na podstawie tej próbki), czyli:


X¯10=x¯10=998.5.


Teraz przyjmując za α kolejno liczby 0.1, 0.05 oraz 0.01, otrzymamy ujawnione wcześniej wartości b.

Opisane powyżej zagadnienie można modyfikować na różne sposoby. Po pierwsze, może nas interesować przedział ufności innego typu, na przykład postaci (a,) lub (x¯nε,x¯n+ε). Po drugie, nie zawsze można założyć, że znamy odchylenie standardowe σ. Po trzecie, założenie, że rozkład jest normalny, często nie jest spełnione. Możemy także być zainteresowani znalezieniem przedziału ufności dla innego, niż nadzieja matematyczna, parametru rozkładu.

Istnieją różne metody radzenia sobie w wymienionych przypadkach, ale większość z nich polega na zastosowaniu podobnego do poprzedniego schematu postępowania, który polega on na wykorzystaniu pewnej zmiennej losowej o znanym rozkładzie, będącej funkcją estymatora interesującego nas parametru, a następnie na obliczeniu na jej podstawie (oraz na podstawie zaobserwowanej próbki) końców przedziału ufności na określonym z góry poziomie ufności 1α. W naszych wcześniejszych rozważaniach tą zmienną losową była zmienna Zn, zaś jej rozkład był znany na podstawie twierdzenia 9.2, przy czym uwzględniliśmy założoną wcześniej znajomość σ. Poniżej opiszemy dwie sytuacje, w których kolejny raz zastosujemy opisany właśnie sposób postępowania.

Zakładamy najpierw, że obserwujemy próbkę prostą x1,,xn z pewnego nieznanego rozkładu, przy czym n jest dużą liczbą (już dla n30 poniższe rozumowanie prowadzi do dobrych rezultatów). Na podstawie tej próbki chcemy wyznaczyć 100(1α)% przedział ufności dla nadziei matematycznej m tego rozkładu, postaci:


(xn¯ε,xn¯+ε).


Aby rozwiązać powyższe zadanie wykorzystamy pewną modyfikację zmiennej losowej:


Zn=X¯nmσn.


Po pierwsze, na podstawie centralnego twierdzenia granicznego (oraz tego, że n jest duże) możemy założyć, że zmienna ta ma rozkład N(0,1). Nie możemy jednak bezpośrednio jej wykorzystać, tak jak to zrobiliśmy poprzednio, gdyż tym razem nie założyliśmy znajomości parametru σ. Problem ten pokonujemy wykorzystując to, że dla dużych n liczba:


s=1ni=1(xix¯n)2


dobrze przybliża σ (dlaczego?). Rozważamy więc zmienną losową:


Wn=X¯nmsn,


o której można założyć, że ma rozkład N(0,1), a której wartość może być już teraz wyliczona na podstawie samej tylko próbki x1,,xn. Naszym zadaniem jest znalezienie takiego ε, że:


P(m(Xn¯ε,Xn¯+ε))=1α.


Przekształcamy więc kolejno:


P(m(Xn¯ε,Xn¯+ε))=P(|X¯nm|ε)=P(|Wn|εsn)


=Φ(εsn)Φ(εsn)=2Φ(εsn)1.


Stąd:


Φ(εsn)=1α2,


czyli:


εsn=Φ1(1α2)


i wreszcie:


ε=snΦ1(1α2).


Wiem zatem, że z prawdopodobieństwem 1α wartość parametru m znajduje się w przedziale:


(x¯nsnΦ1(1α2), x¯n+snΦ1(1α2)).


Nasuwa się teraz pytanie o to, jak postępować gdy próbka x1,,xn jest mała, a (tak jak poprzednio) chcemy wyznaczyć 100(1α)% przedział ufności dla nadziei matematycznej m rozkładu, z którego ona pochodzi. Niestety, w przypadku gdy nie znamy charakteru tego rozkładu, zadanie to jest niewykonalne przy użyciu naszej metody<ref>Można wtedy stosować metodę bootstrap, o której będzie mowa na wykładzie 14.</ref>

Załóżmy więc dodatkowo, że próbka pochodzi z rozkładu N(m,σ) o nieznanym odchyleniu standardowym. Zmienną losową, którą tutaj wykorzystamy, jest:


t=X¯nmsn,    gdzie s=1n1i=1(XiX¯n)2.      (13.1)


Okazuje się, że zmienna ta ma tak zwany rozkład Studenta, nazywany czasem także rozkładem t. Rozkład ten posiada jeden parametr n, który określa się jako liczbę stopni swobody. Nie podajemy tutaj dość skomplikowanego wzoru na gęstość tego rozkładu - praktycznie wszystkie standardowe programy komputerowe posiadające odpowiednie pakiety funkcji statystycznych (a więc, między innymi, programy Maple i Excel), podają wartości dystrybuanty Ftn(x) oraz kwantyli Ftn1(α) dla wszystkich wartości n, gdzie tn oznacza rozkład Studenta o n stopniach swobody. Rozkład Studenta, podobnie jak rozkład N(0,1), jest symetryczny, zatem:


Ftn(x)=1Ftn(x) dla każdego x,


co znakomicie ułatwia korzystanie z tablic. Co więcej, dystrybuanta Ftn zmierza do dystrybuanty standardowego rozkładu normalnego, czyli dla każdego x:


Ftn(x)Φ(x), gdy n.


Okazuje się, że już dla n=20 wynikające z powyższej zbieżności przybliżenie jest całkiem dobre. Następująca animacja obrazuje zbieżność gęstości rozkładu t (linia niebieska) do gęstości standardowego rozkładu normalnego (linia czerwona):

<flashwrap>file=Rp131.swf|size=small</flashwrap>

Kluczowym dla naszych dalszych rozważań jest następujące:

Twierdzenie 13.3

Dla próbki prostej X1,,Xn pochodzącej z rozkładu N(m,σ), estymator t, określony wzorem (13.1), ma rozkład Studenta o n1 stopniach swobody. Inaczej:


P(tx)=Ftn1(x) dla każdego x.


Dzięki temu, że rozkład Studenta jest symetryczny można, tak jak poprzednio, wyprowadzić wzory na przedziały ufności typu (,b), (a,) oraz (x¯nε,x¯n+ε). Proponujemy Czytelnikowi aby sprawdził, że przedziałami tymi odpowiednio są:


(,X¯n+sFtn11(1α)n),      (13.2)


(X¯nsFtn11(1α)n,),      (13.3)


(X¯nsFtn11(1α2)n,X¯n+sFtn11(1α2)n),      (13.4)

gdzie, zgodnie z naszymi oznaczeniami, Ftn11(u) oznacza kwantyl rzędu u w rozkładzie t o n1 stopniach swobody.

Powyższe wzory stosuje się zazwyczaj, gdy próbka jest mała, to znaczy gdy n30. Faktycznie, dla n20 rozkład tn niewiele różni się od rozkładu N(0,1), a wraz ze wzrostem n różnica ta jest coraz mniejsza. Tak więc, zadane wzorami (13.2), (13.3) i (13.4) przedziały ufności są praktycznie takie same jak te wcześniejsze, wyznaczone w oparciu o centralne twierdzenie graniczne.

Można także wyprowadzić wzory na przedziały ufności dla pozostałych parametrów, przyjmując zarówno takie same, jak i inne niż poprzednio założenia o charakterze rozkładu. Tutaj jednak ograniczymy się tylko do jednego, ale bardzo ważnego przypadku.

Załóżmy, że próbka prosta x1,,xnpochodzi z rozkładu dwupunktowego (0,1,p) i że na jej podstawie chcemy wyznaczyć przedział ufności dla parametru p. W przypadku, gdy liczność próbki jest mała (n<30), wzory takie są dość skomplikowane. Natomiast, gdy wielkość próbki jest duża, można wykorzystać to, że nadzieja matematyczna zmiennej losowej, z której pochodzi dana próbka, wynosi p, natomiast jej wariancja jest równa p(1p). Stosując podobne rozumowanie jak poprzednio można otrzymać następujące wzory na (1α)100% przedziały ufności dla p:


(p^p^(1p^)nΦ1(1α2), p^+p^(1p^)nΦ1(1α2)),


(0, p^+p^(1p^)nΦ1(1α)),


(p^p^(1p^)nΦ1(1α),1),


gdzie:


p^=x¯n=kn,


zaś k oznacza liczbę jedynek (czyli liczbę "sukcesów") w próbce x1,,xn .

Na zakończenie tego punktu zwróćmy uwagę na to, że przedziały ufności dla niektórych parametrów mogą być także wyznaczane przy pomocy programów typu Maple lub Excel.

Testowanie hipotez

Często zdarzają się sytuacje, w których, na podstawie posiadanych obserwacji, powinniśmy podjąć określone decyzje. Pomocą może nam służyć tutaj teoria testowania hipotez statystycznych. W naszym kursie ograniczamy się jedynie do najprostszych przypadków testów parametrycznych, a nasz sposób podejścia opiera się na wyznaczaniu tak zwanej wartości-p (ang. p-value) - metodzie, która stała się popularna dopiero po upowszechnieniu się komputerów. Oczywiście, omówimy także podejście tradycyjne - więcej na ten temat można przeczytać praktycznie we wszystkich podręcznikach, które zawierają elementy statystyki.

Jak zwykle, zaczniemy od przykładu. Powróćmy do zagadnienia oceny średniej wagi torebki cukru w pewnej hurtowni (patrz przykład 13.2) i postawmy nasz problem trochę inaczej. Zapytajmy mianowicie, czy prawdą jest, że średnia waga torebki cukru w tej hurtowni wynosi 1 kg, czy może jednak jest mniejsza od 1 kg?

Formalnie rzecz ujmując, stawiamy tutaj dwie hipotezy: tak zwaną hipotezę zerową, oznaczaną zwykle jako H0, oraz hipotezę alternatywną, oznaczaną jako H1. W naszym przypadku:


H0:m=1000,    H1:m<1000,


gdzie m jest średnią wagą torebki. Aby rozstrzygnąć zadany problem, musimy dysponować statystyką testową, powiedzmy T, która przy założeniu prawdziwości hipotezy H0 posiada następujące własności:

(1) znany jest rozkład T,
(2) można obliczyć wartość T dladanej próbki prostej,
(3) jej zachowanie wyraźnie wskazuje na zachodzenie H0 lub H1.

Następnie dla zaobserwowanej próbki prostej x1,,xn liczymy tak zwaną wartość-p (p-value), to znaczy:


P(T(x1,,xn)K),


przy czym K jest tak dobrane, że:

(1) K najlepiej świadczy na korzyść H1,
(2) T(x1,,xn)K.

Przykład 13.4

Rozważmy następujące wyniki (te same co w przykładzie 13.2) ważenia 10 torebek cukru (w gramach):


1002,1003,997,997,994,995,998,997,1003,999.


Załóżmy, że jest to próbka prosta z rozkładu N(m,σ) o znanym odchyleniu standardowym σ=3. Jako statystykę testową bierzemy:


Zn=X¯nmσn,


która, jak wiemy, posiada rozkład N(0,1). Z przykładu 13.2 pamiętamy, że x¯10=998.5, łatwo więc obliczyć wartość powyższej statystyki dla naszej próbki danych:


z=998.510003101.581.


Teraz zakładamy hipotezę H0, czyli że m=1000. Zauważmy, iż ujemne wartości Zn sugerują, że wartość średnia jest raczej mniejsza niż 1000, tak więc największym zbiorem świadczącym na korzyść H1 i jednocześnie zawierającym obliczoną wcześniej wartość statystyki Zn, jest przedział:


K=(,z](,1.581],


zatem wartość-p wynosi:


P(ZnK)Φ(1.581)0.057.


Nietrudno zauważyć, że otrzymana powyżej wartość jest prawdopodobieństwem tego, że, przy założeniu prawdziwości hipotezy zerowej, zachodzi zaobserwowane przez nas zdarzenie lub inne zdarzenie, które jeszcze bardziej świadczy na korzyść hipotezy alternatywnej. Inaczej mówiąc, jeżeli średnia waga torebki cukru rzeczywiście wynosiłaby 1 kg, to szansa na to, że 10 (wylosowanych zupełnie przypadkowo) torebek będzie miało zadane wagi, jest mniejsza niż 5.7. Podejmując teraz decyzję co do prawdziwości hipotezy zerowej mamy następującą wskazówkę: jeżeli odrzucimy H0 na korzyść H1, to prawdopodobieństwo tego, że decyzja ta jest błędna, wynosi około 5.7%.

Dla jeszcze lepszego zrozumienia przeprowadzonego powyżej rozumowania, rozważmy dwa inne zestawy danych oraz obliczone na ich podstawie wartości-p. Dla próbki:


999,1004,1001,994,997,999,1002,1001,999,1000,


mamy:


x¯10=999.6,z0.422 oraz wartość- p0.337,


natomiast dla próbki:


999,996,1001,996,996,996,1002,990,995,1000,


otrzymujemy:


x¯10=997.1,z3.057 oraz wartość- p0.001.


W pierwszym przypadku, odrzucając hipotezę zerową, z dość dużym prawdopodobieństwem narazilibyśmy się na popełnienie błędu, zaś w drugim przypadku popełnienie takiego błądu jest niezwykle mało prawdopodobne.

W powyższym przykładzie nie powiedzieliśmy, kiedy należy odrzucić hipotezę zerową, bowiem jest to decyzja "poza matematyczna". Dlatego też wskazaliśmy jedynie, jak określić prawdopodobieństwo błędu, z jakim należy się liczyć odrzucając prawdziwą hipotezę zerową -- błąd ten jest nazywany błędem pierwszego rodzaju. Rozważa się też tak zwany błąd drugiego rodzaju, polegający na nieodrzuceniu fałszywej hipotezy zerowej. Jednak, w większości przypadków, policzenie prawdopodobieństwa tego błędu nie jest możliwe, a poza tym istnieje przekonanie, że jest on mniej istotny niż błąd pierwszego rodzaju, co w konsekwencji sprawia, iż hipoteza zerowa jest w pewnym sensie uprzywilejowana.

Spójrzmy teraz ogólnie na nasze dotychczasowe rozważania. Na podstawie próbki prostej x1,,xn chcemy przetestować hipotezę zerową:


H0:θ=θ0,


względem hipotezy alternatywnej H1, przy czym H1 może być tak zwaną hipotezą jednostronną:


H1:θ<θ0 lub H1:θ>θ0,


albo hipotezą dwustronną:


H1:θθ0.


W klasycznym podejściu do problemu testowania hipotez wykonujemy następujące kroki:

(1) ustalamy zawsze tak zwany poziom istotności α -

jest to zwykle mała liczba dodatnia, np. α=0.01, α=0.05 lub α=0.1,

(2) wybieramy statystykę testową T o znanym rozkładzie,
(3) wybieramy zbiór K, zwany zbiorem krytycznym, taki że


P(T(X1,,Xn)K)=α,


zaś warunek:


T(X1,,Xn)K


wskazuje na prawdziwość hipotezy H1,

(4) obliczamy T(x1,,xn), czyli wartość statystyki T na zaobserwowanej próbce,
(5) jeżeli


T(x1,,xn)K,


to stwierdzamy, iż nie ma podstaw do odrzucenia hipotezy H0, natomiast jeżeli:


T(x1,,xn)K,


to odrzucamy hipotezę H0 na korzyść hipotezy H1.

Jaki widać, z technicznego punktu widzenia najistotniejszą sprawą jest wyznaczenie zbioru krytycznego K, który na ogół jest przedziałem, przy czym dla jednostronnych hipotez alternatywnych:


K=(,a] lub K=[b,),


zaś dla hipotez dwustronnych:


K=(,a][b,).


Tak więc wyznaczenie zbioru K redukuje się do wyznaczenia pewnych kwantyli rozkładu statystyki T. Kwantyle typowych rzędów dla wielu używanych w praktyce rozkładów są od lat stablicowane, dlatego też opisane powyżej podejście klasyczne mogło być (i było) stosowane od dawna.

Z kolei w podejściu opartym na obliczaniu wartości-p, zamiast kroków (3) i (5) wykonujemy następujące:

(3') obliczamy wartość-p dla T(x1,,xn), co (zgodnie z poprzednim określeniem) oznacza, że


P(T(x1,,xn)K),


przy czym K jest tak dobrane, że K najlepiej świadczy na korzyść H1 oraz T(x1,,xn)K,

(5') jeżeli


wartość- p>α,


to stwierdzamy, iż nie ma podstaw do odrzucenia hipotezy H0, natomiast jeżeli:


wartość- pα,


to odrzucamy hipotezę H0 na korzyść hipotezy H1. Zauważmy zatem, że podejście oparte na obliczaniu wartości-p może być istotnie trudniejsze, jednakże obecnie, kiedy dysponujemy komputerami z odpowiednim oprogramowaniem, nie nastręcza ono większych problemów i dlatego też podejście to zyskuje sobie ostatnio coraz więcej zwolenników, gdyż z metodologicznego punktu widzenia jest ono równoważne podejściu klasycznemu, a zarazem istotnie od niego prostsze.

Wracając do przykładu 13.4, ustalmy poziom istotności α=0.05. W dwóch pierwszych przypadkach nie ma podstaw do odrzucenia hipotezy H0, natomiast w trzecim - hipoteza H0 powinna zostać odrzucona na korzyść hipotezy H1. Gdybyśmy ustalili α=0.1, to również w drugim przypadku należałoby odrzucić hipotezę H0.

Jak już wcześniej wspominaliśmy, dla skutecznego przeprowadzenia testu statystycznego wymagane jest dysponowanie odpowiednią statystyką o znanym rozkładzie. Okazuje się, iż nie zawsze jest to możliwe - gdyby, na przykład, liczebność próbki była zbyt mała, zaś rozkład z którego ona pochodzi nie byłby rozkładem normalnym, sprawa nie wyglądałaby zbyt obiecująco. Podobne problemy z doborem odpowiedniej statystyki o znanym rozkładzie powstają także wtedy, gdy chcemy testować hipotezy o innych (niż wartość oczekiwana) parametrach. Z drugiej strony, wiele szczegółowych sytuacji zostało dokładnie "rozpracowanych" - znaleziono pożyteczne statystyki i ich rozkłady, a w ostatnich latach niezbędne obliczenia numeryczne zostały zaimplementowane jako funkcje z pakietów statystycznych wielu programów komputerowych (w szczególności, program Maple posiada szereg wbudowanych testów statystycznych).

Jak pamiętamy, najistotniejszym wynikiem testu statystycznego jest wartość-p: mała wskazuje na H1, zaś duża - na H0. Uważny Czytelnik przypuszczalnie zauważył, że istnieje związek pomiędzy procedurą wyznaczania przedziałów ufności, a procedurą testowania hipotez. Tak rzeczywiście w wielu przypadkach jest - dlatego też programy Maple i Excel, przeprowadzając testy statystyczne wyliczają przy okazji przedziały ufności.

Test χ2 dopasowania rozkładu

Do testów parametrycznych sprowadza się także niektóre inne problemy statystyczne - można, na przykład, testować hipotezę, że próbka prosta pochodzi z rozkładu normalnego, istnieją też testy dotyczące niezależności zmiennych losowych, losowości próbki oraz wielu innych zagadnień. Opiszemy poniżej jeden z takich testów, znany jako test χ2 dopasowania rozkładu (faktycznie pod tą nazwą kryją się dwa, różniące się nieco, problemy).

Równość rozkładów

Obserwujemy próbkę prostą x1,,xn ze zmiennej losowej X i stawiamy hipotezę:


H0:PX=Q,


przeciw hipotezie alternatywnej:


H0:PXQ,


gdzie Q jest pewnym ustalonym rozkładem.

Formalnie rzecz biorąc, zagadnienie to różni się istotnie od poprzednio omawianych przykładów wnioskowania parametrycznego, niemniej, godząc się na utratę części informacji, można przeprowadzić opisany poniżej test.

Najpierw tworzymy z naszej próbki szereg rozdzielczy, czyli ustalamy takie liczby a0<<ak, że:


a0min{x1,,xn},akmax{x1,,xn},


a następnie zliczamy elementy próbki w poszczególnych klasach, otrzymując:


ni=#{xj: xj(ai1,ai]} dla i=1,,k.


Teraz obliczamy "teoretyczne" prawdopodobieństwa poszczególnych klas:


πi=Q((ai1,ai]) dla i=1,,k.


Jeżeli hipoteza zerowa jest prawdziwa, to należy oczekiwać, iż wielkości ni będą bardzo bliskie iloczynom nπi - jest to z kolei równoważne temu, że wielkość określona jako:


χ=i=1k(ninπi)2nπi,


jest bliska zeru.

Zauważmy, że zdefiniowana powyżej wielkość zależy od próbki, a więc jest zmienną losową. Co więcej, znamy rozkład tej zmiennej - jest to tak zwany rozkład χ2 o k1 stopniach swobody. Rozkład ten jest dobrze znany - został on stablicowany w wielu podręcznikach, jest także obecny (praktycznie we wszystkich) programach komputerowych, zawierających odpowiednie pakiety statystyczne. Poniższa animacja pokazuje przebieg gęstości rozkładu χ2, dla najczęściej używanych ilości stopni swobody.

animacja 132.gif

Tak więc w naszym przypadku:


wartość- p=P(χχ0)=1Fχk12(χ0),


gdzie χ0 jest obliczoną dla danej próbki wartością statystyki χ, natomiast zbiór krytyczny ma postać:


K=[k,),


przy czym dla danego poziomu istotności α, liczba k jest kwantylem rzędu 1α rozkładu χ2 o k1 stopniach swobody, czyli:


k=Fχk121(1α).


Przynależność do rodziny rozkładów

Obserwujemy próbkę prostą x1,,xn ze zmiennej losowej X i stawiamy hipotezę:


H0:PX𝒫,


przeciw hipotezie alternatywnej:


H0:PX𝒫,


gdzie 𝒫 jest pewną ustaloną rodziną rozkładów.

O ile wiemy, że rodzina rozkładów 𝒫 zależy od skończonej liczby parametrów, powiedzmy λ1,,λr, to powyższy problem sprowadza się w następujący sposób do poprzedniego: na podstawie danej próbki wyznaczamy metodą największej wiarygodności estymatory λ1^,,λr^ parametrów λ1, , λr, a następnie rozważamy rozkład Q𝒫 odpowiadający wyestymowanym wartościom parametrów λ1^,,λr^ i stosujemy dla niego opisaną powyżej procedurę, pamiętając jednak, że teraz należy użyć rozkładu χ2 o kr1 stopniach swobody.