Rachunek prawdopodobieństwa i statystyka/Wykład 5: Prawdopodobieństwo warunkowe i niezależność

Z Studia Informatyczne
Przejdź do nawigacjiPrzejdź do wyszukiwania

Wprowadzimy pojęcie prawdopodobieństwa warunkowego i omówimy możliwości jego wykorzystanie do obliczenia prawdopodobieństwa zdarzenia w wielu istotnych sytuacjach. Podamy definicję zdarzeń niezależnych i pokażemy jej działanie w tak zwanym schemacie Bernoulliego.

Prawdopodobieństwo warunkowe

Pojęcie prawdopodobieństwa warunkowego jest znane z kursu szkolnego, tak więc nie wymaga komentarza następująca definicja:

Definicja 5.1

Dana jest przestrzeń probabilistyczna (Ω,Σ,P) oraz zdarzenie AΣ, przy czym P(A)>0. Dla

dowolnego zdarzenia BΣ określamy jego prawdopodobieństwo warunkowe P(B|A) wzorem:


P(B|A)=P(BA)P(A).      (5.1)


Jak łatwo się przekonać, funkcja P(|A) jest miarą probabilistyczną na Σ posiadającą tę właściwość, że dwa zbiory mające jednakowe przecięcia ze zbiorem A, mają także taką samą miarę.

Prawdopodobieństwo całkowite

Z prawdopodobieństwami warunkowymi spotykamy się najczęściej przy obliczaniu tak zwanego prawdopodobieństwa całkowitego. Mówi o tym następujące proste, lecz bardzo ważne twierdzenie:

Twierdzenie 5.2 [Prawdopodobieństwo całkowite]

Dana jest przestrzeń probabilistyczna (Ω,Σ,P) oraz zdarzenia A1,,AnΣ spełniające warunki:

  1. P(Ai)>0 dla każdego i=1,,n,
  2. AiAj=, dla wszystkich ij,
  3. A1An=Ω.

Wtedy dla każdego zdarzenia BΣ zachodzi wzór:


P(B)=i=1nP(B|Ai)P(Ai).


Dowód

Ponieważ


B=BΩ=B(i=1nAi)=i=1n(BAi),


mamy


P(B)=i=1nP(BAi)=i=1nP(B|Ai)P(Ai).


Uwaga 5.3
Powyższe twierdzenie można wypowiedzieć tak: mając zespół istotnych warunków, które się wzajemnie wykluczają, ale których alternatywa jest zdarzeniem pewnym, możemy obliczyć prawdopodobieństwo każdego zdarzenia, o ile tylko znamy odpowiednie prawdopodobieństwa warunkowe oraz prawdopodobieństwa samych warunków.

Z praktycznego punktu widzenia, wzór na prawdopodobieństwo całkowite jest wygodny także i z tego powodu, że stosując go nie musimy na ogół wyznaczać przestrzeni probabilistycznej. Rozumiemy raczej, że taka przestrzeń istnieje i to nam w zupełności wystarcza.

<flashwrap>file=Rp-5.1-1.swf|size=small</flashwrap>

Przykład 5.4

Przed konkursem ogłoszono listę 200 pytań z dziedziny D1, 100 pytań z dziedziny D2 oraz 100 pytań z dziedziny D3. Umiemy odpowiedzieć na 150 pytań z dziedziny D1, na wszystkie pytania z dziedziny D2 oraz na 80 pytań z dziedziny D3. Jakie jest prawdopodobieństwo, że podczas konkursu odpowiemy na losowo zadane pytanie?

Mamy tutaj alternatywę trzech wykluczających się warunków D1, D2 i D3 polegających na tym, że zadane pytanie pochodzić będzie z odpowiedniej dziedziny. Jest to alternatywa pewna, to znaczy nie istnieją inne możliwości oprócz tych trzech. Chcemy obliczyć prawdopodobieństwo zdarzenia B, polegającego na udzieleniu poprawnej odpowiedzi na otrzymane pytanie. Z treści zadania wynika jednak, że znamy prawdopodobieństwa warunków oraz prawdopodobieństwa warunkowe:


P(D1)=200400=12,P(D2)=100400=14,P(D3)=100400=14,P(B|D1)=150200=34,P(B|D2)=100100=1,P(B|D3)=80100=45.


Z twierdzenia o prawdopodobieństwie całkowitym otrzymujemy więc:


P(B)=3412+114+4514=3340=0.825.


Mamy zatem 82.5-procentową szansę udzielenia poprawnej odpowiedzi na zadane pytanie.}}

Uwaga 5.5
Twierdzenie o prawdopodobieństwie całkowitym można w oczywisty sposób sformułować (i udowodnić) dla przeliczalnego ciągu zdarzeń A1, A2, A3, (ćwiczenie).

Wzór Bayesa

Możemy teraz podać tak zwany wzór Bayesa.

życiorys, zdjęcie: Thomas Bayes

Twierdzenie 5.6 [Wzór Bayes'a]

Przy założeniach twierdzenia 5.2, zachodzi następująca równość:


P(Ak|B)=P(B|Ak)P(Ak)i=1nP(B|Ai)P(Ai)


dla każdego k=1,,n.

Dowód


Parser nie mógł rozpoznać (błąd składni): {\displaystyle \ \ \ \ \ \ \ \ \ \ \ \ P \displaystyle (A_k|B) = \frac{P(B\cap A_k)}{P(B)} = \frac{P(B|A_k) P(A_k)}{ \sum_{i=1}^n P(B|A_i) P(A_i)}. }


Twierdzenie to budziło z początku pewne kontrowersje. Mianowicie, zdarzenia Ai są często w zastosowaniach traktowane jako przyczyny, zaś zdarzenie B jako skutek. W tej terminologii wzór na prawdopodobieństwo warunkowe (definicja 5.1) można rozumieć w sposób następujący: znając prawdopodobieństwo przyczyny można, o ile ona zaistnieje, obliczyć prawdopodobieństwo skutku - jest to intuicyjnie jasne. Tymczasem twierdzenie Bayesa pozwala wyliczyć prawdopodobieństwo przyczyny, o ile już znamy jej skutek. To powodowało pewne wątpliwości, niemniej na gruncie naszej teorii twierdzenie Bayesa jest oczywiście jak najbardziej poprawne.

<flashwrap>file=Rp-5.1-3.swf|size=small</flashwrap>

Przykład 5.7 [kontynuacja przykładu 5.4]

Na drugi dzień po egzaminie pamiętamy tylko to, że dostaliśmy jedno pytanie oraz to, że zdaliśmy egzamin.

Jakie jest prawdopodobieństwo tego, że odpowiadaliśmy na pytanie z dziedziny D1?

Pamiętając o poprzednich oznaczeniach możemy nasze zadanie sformułować następująco: oblicz prawdopodobieństwo warunkowe P(D1|B). Z Twierdzenia Bayesa otrzymujemy natychmiastową odpowiedź:


P(D1|B)=P(BD1)P(B)=P(B|D1)P(D1)P(B)=34123340=5110.45.

Zdarzenia niezależne

Pojęcie niezależności jest podstawowym pojęciem w rachunku prawdopodobieństwa - można powiedzieć, że pojęcie to wyodrębnia rachunek prawdopodobieństwa z teorii miary. Najprostszą postać pojęcie to posiada w przypadku dwóch zdarzeń: zdarzenia A i B powinny być, jak podpowiada intuicja, uważane za niezależne, jeśli dla każdego z nich prawdopodobieństwo warunkowe względem tego drugiego nie zależy od warunku, czyli P(A|B)=P(A) oraz P(B|A)=P(B). Każda z tych równości oznacza, że:


P(AB)=P(A)P(B).


Właśnie ta równość służy za definicję niezależności dwóch zdarzeń; obejmuje ona jednak również przypadki, gdy P(A)=0 lub P(B)=0.

Podamy teraz formalną definicję niezależności dla dowolnej, skończonej liczby zdarzeń.

Definicja 5.8

Zdarzenia A1,,An są niezależne, jeżeli dla każdego podciągu Ak1,,Akr zachodzi:


P(Ak1Akr)=P(Ak1)P(Akr).
<flashwrap>file=Rp-5-2.swf|size=small</flashwrap>

Przykład 5.9

Podamy teraz przykłady zdarzeń niezależnych oraz zdarzeń zależnych. Przypuśćmy, że rzucamy dwiema kostkami. Niech A oznacza wypadnięcie "szóstki" na pierwszej kostce, B - wypadnięcie liczby nieparzystej na drugiej kostce, zaś S - wypadnięcie w sumie 10 oczek na obu kostkach. Intuicja podpowiada nam, że:

  1. A i B są niezależne - wynik na pierwszej kostce nie ma nic wspólnego z wynikiem na drugiej kostce,
  2. A i S są zależne - "szóstka" na pierwszej kostce oznacza, że suma oczek na obu kostkach musi być większa niż 6, a więc wiadomość o wypadnięciu liczby 6 zwiększa szansę zajścia zdarzenia S,
  3. B i S są zależne - wiadomość o wypadnięciu liczby
nieparzystej 1, 3 lub 5 na drugiej kostce zmniejsza trochę szansę tego, że w sumie wypadnie 10.

Aby formalnie uzasadnić te intuicje, zbudujemy przestrzeń probabilistyczną opisującą nasz eksperyment. Mamy oczywiście do czynienia ze schematem klasycznym, przy czym zbiorem Ω jest tutaj zbiór złożony z 36 par liczb (ω1,ω2), gdzie ω1,ω2=1,,6. Łatwo teraz policzyć, ile elementów wchodzi w skład zdarzeń A, B i S oraz ich iloczynów AB, AS i BS. Dzieląc te liczby przez 36, mamy:

ad.(1). P(AB)=336=112, P(A)P(B)=1612=112.

ad.(2). P(AS)=136, P(A)P(S)=16336=172.

ad.(3). P(BS)=136, P(B)P(S)=12336=124.

Jak widać, powyższe obliczenia potwierdzają nasze intuicje.

Definicję niezależności można rozszerzyć na przypadek nieskończonego ciągu zdarzeń, co w dalszej części rozważań będzie miało istotne znaczenie.

Definicja 5.10

Zdarzenia A1,A2,A3, są niezależne, jeżeli dla każdego n2 zdarzenia A1,,An są niezależne.

Należy zauważyć, że w na ogół spotykamy się z takimi sytuacjami, w których wiemy (a dokładniej zakładamy), że pewne zdarzenia są niezależne. Możemy wtedy stosować wzory występujące w definicji niezależności lub inne twierdzenia bazujące na tej definicji.

Iloczyn kartezjański

Niezależność zdarzeń łączy się z pojęciem iloczynu kartezjańskiego przestrzeni probabilistycznych. My rozważymy tutaj jedynie najprostszą sytuację.

Niech będą dane dwie przestrzenie probabilistyczne (Ω1,Σ1,P1) oraz (Ω2,Σ2,P2). Niech Ω=Ω1×Ω2 oznacza iloczyn kartezjański zbiorów [LM] Ω1 i Ω2, czyli:


Ω={(ω1,ω2):ω1Ω1,ω2Ω2}.


Można teraz zbudować σ-algebrę Σ na zbiorze Ω oraz miarę probabilistyczną P:Ω (jest to dość skomplikowana procedura<ref>Jako Σ bierze się najmniejszą σ-algebrę zawierającą wszystkie iloczyny kartezjańskie A1×A2, gdzie A1Σ1 i A2Σ2, a następnie dowodzi się w żmudny sposób, że istnieje dokładnie jedna miara P spełniająca żądane warunki.</ref>) taką, że dla każdych dwóch zdarzeń A1Σ1 i A2Σ2 mamy pewność, że A1×A2Σ oraz że:


P(A1×A2)=P1(A1)P2(A2).


Stosujemy często następujące oznaczenie: P=P1×P2.

Dla wyrobienia intuicji proponujemy wyobrazić sobie iloczyn kartezjański dwóch odcinków Ω1=Ω2=[0,1], którym jest oczywiście kwadrat o boku równym jeden. Jeżeli A1Ω1 oraz A2Ω2 są odcinkami, to ich iloczyn kartezjański jest prostokątem o polu równym iloczynowi długości tych odcinków. Odpowiada to właśnie powyższemu wzorowi, o ile P(A1) i P(A2) są długościami, zaś P(A1×A2) - polem. Rzeczywiście, w ogólnej sytuacji konstrukcja miary P, na bazie miar P1 i P2, odpowiada sposobowi określania pola figury płaskiej przy użyciu pojęcia długości odcinka. Zaznaczmy jeszcze, że wielu podzbiorów kwadratu (na przykład koła) nie da się przedstawić jako iloczynów kartezjańskich, a mimo to mają one dobrze określone pola, co odpowiada temu, że miara P jest określona dla dużo szerszej klasy zdarzeń niż iloczyny kartezjańskie A1×A2.

Innym przykładem iloczynu kartezjańskiego jest przestrzeń probabilistyczna opisująca, omawiany już, eksperyment rzutu dwiema kostkami.

Pojęcie iloczynu kartezjańskiego przestrzeni probabilistycznych można w prosty sposób zdefiniować także w przypadku skończenie wielu przestrzeni, a nawet (tutaj jest trudniej) w przypadku nieskończenie wielu przestrzeni probabilistycznych.

Związek iloczynów kartezjańskich z pojęciem niezależności wyjaśnia następujący:

Przykład 5.11

Rozważmy dwie przestrzenie probabilistyczne (Ω1,Σ1,P1) i (Ω2,Σ2,P2) oraz niech A1Σ1 i A2Σ2 będą dowolnymi zdarzeniami. Wtedy zdarzenia A=A1×Ω2 oraz B=Ω1×A2 są niezależne w iloczynie kartezjańskim (Ω,Σ,P) tych przestrzeni, gdyż z definicji miary P=P1×P2 mamy:


P(AB)=P(A1×A2)=P1(A1)P2(A2)=P(A)P(B).


Uogólnienie tego przykładu dla skończonego oraz przeliczalnego iloczynu kartezjańskiego przestrzeni probabilistycznych nie jest trudne.

Iloczyn kartezjański dwóch przestrzeni probabilistycznych stanowi więc naturalny model do opisu 2-etapowego eksperymentu, w którym etapy są od siebie niezależne.

Warto zaznaczyć, że rozważa się także przestrzenie probabilistyczne, w których zbiór zdarzeń jest iloczynem kartezjańskim dwóch lub więcej zbiorów zdarzeń, natomiast miara probabilistyczna nie jest iloczynem kartezjańskim odpowiednich miar. Taka sytuacja występuje najczęściej wtedy, gdy opisujemy dwuetapowy lub wieloetapowy eksperyment, przy czym poszczególne etapy są od siebie zależne.

Schemat Bernoulliego

Jakob Bernoulli (1654-1705)
Zobacz biografię

Pojęcie niezależności odgrywa podstawową rolę w konstrukcji tak zwanego schematu Bernoulliego.

Wyobraźmy sobie, że wielokrotnie powtarzamy pewien eksperyment, przy czym spełnione są następujące warunki:

  1. każdy eksperyment może dać dokładnie dwa różne wyniki - mówi się odpowiednio o sukcesie oznaczanym przez "1" oraz o porażce oznaczanej przez "0",
  2. prawdopodobieństwo sukcesu w każdym eksperymencie jest zawsze takie samo - oznaczamy to prawdopodobieństwo przez p (w takim razie prawdopodobieństwo porażki w każdym eksperymencie wynosi q=1p),
  3. eksperymenty są niezależne od siebie.

Powyższe warunki są spełnione na przykład w przypadku, gdy rzucamy wielokrotnie kostką do gry i określimy, co rozumiemy przez porażkę, a co przez sukces (mają być dokładnie dwa wyniki eksperymentu). Jeżeli za sukces uważamy wypadnięcie "szóstki", a za porażkę wypadnięcie każdej innej liczby, mamy p=16. Bardziej ogólnym przykładem może być losowanie ze zwracaniem omówione w poprzednim module - trzeba wtedy oczywiście znowu określić, co uważamy za sukces, a co za porażkę.

Możemy skonstruować przestrzeń probabilistyczną stanowiącą matematyczny model opisanej sytuacji.

Załóżmy, że wykonujemy n eksperymentów. Każdemu z nich odpowiada bardzo prosta przestrzeń probabilistyczna (Ωi,Σi,Pi), gdzie Ωi={0,1}, Σi jest σ-algebrą wszystkich podzbiorów Ωi (są jedynie cztery takie podzbiory), natomiast Pi jest jednoznacznie określone równościami:


Pi({1})=porazPi({0})=1pdlai=1n.


Niezależność poszczególnych eksperymentów oraz omówiony już poprzednio związek iloczynu kartezjańskiego z niezależnością sugerują, że nasz model może być właśnie iloczynem kartezjańskim. Oznaczmy więc przez (Ω,𝒫(Ω),P)n-krotny iloczyn kartezjański powyższych przestrzeni, czyli:


Ω={ω=(ω1,,ωn):ωiΩi},


P(ω1,ωn)=P1(ω1)P(ωn)

<ref>Aby zapis był czytelniejszy, opuszczamy kilka par nawiasów, które formalnie powinny się pojawić.</ref>


oraz dla dowolnego AΩ<ref>Przypominamy, że 𝒫(Ω) oznacza σ-algebrę wszystkich podzbiorów Ω.</ref>:


P(A)=ω:ωAP(ω).


Tak skonstruowaną przestrzeń nazywamy schematem Bernoulliego.

Podamy teraz rozwiązanie standardowego problemu, polegającego na obliczeniu prawdopodobieństwa uzyskania dokładnie k sukcesów podczas n eksperymentów, przeprowadzanych zgodnie ze sformułowanymi powyżej warunkami.

Niech A będzie interesującym nas zdarzeniem. Elementami A są więc ciągi ω={ω1,,ωm}, w których dokładnie k elementów stanowią "1", a pozostałe nk elementów stanowią "0". Dla każdego takiego ω mamy więc:


P(ω)=pk(1p)nk.


Tak więc:


P(A)=ω:ωAP(ω)=ω:ωApk(1p)nk.


Wystarczy teraz tylko znać liczbę wszystkich elementów zbioru A. Liczba ta jest jednak równa liczbie wszystkich podzbiorów k-elementowych wybranych ze zbioru n-elementowego - każdy taki zbiór określa k (spośród n) pozycji, przeznaczonych "sukcesów". Mamy więc ostatecznie:


Parser nie mógł rozpoznać (nieznana funkcja „\begin{array}”): {\displaystyle P(A) = \left(\begin{array} {@{}c@{}}n\\k\end{array} \right) p^k(1 -p)^{n-k}.}      (5.2)


<references/>