Rachunek Prawdopodobieństwa i Statystyka (UW) Wykład 5

Z Studia Informatyczne
Przejdź do nawigacjiPrzejdź do wyszukiwania

Intuicja

W poprzednim wykładzie zdefiniowaliśmy zmienną , która opisywała sumę oczek na dwóch kostkach. Jaka jest średnia wartość tej zmiennej? Zanim odpowiemy na to pytanie, zastanówmy się co ono właściwie powinno znaczyć.

Intuicyjnie, jeśli będziemy rzucać parą kostek bardzo dużo razy, to średnia z wyników będzie zbiegać do pewnej wartości i tę wartość można nazwać średnią sumą oczek. Jeśli powtórzylibyśmy rzut dwiema kostkami razy, to spodziewamy się, że wynik uzyskamy mniej więcej razy. A zatem średnia suma z powtórzeń będzie miała wartość bliską . Ta wartość wydaje się być rozsądną definicją średniej wartości .

Uwaga 5.1 W powyższym rozumowaniu uznaliśmy, że jeśli jest duże, to w powtórzeniach rzutu dwiema kostkami wynik uzyskamy mniej więcej razy. Ogólniej, w powtórzeniach pewnego doświadczenia zdarzenie powinno wystąpić mniej więcej razy. Warto zwrócić uwagę, że korzystamy tu z intuicji częstościowej prawdopodobieństwa, o której mówiliśmy już w pierwszym wykładzie. W szczególności nasze uzasadnienie definicji wartości oczekiwanej ma raczej charakter nieformalny. Co ciekawe, wkrótce okaże się, że intuicji częstościowej odpowiada twierdzenie w naszej teorii (szczególny przypadek tzw. Prawa Wielkich Liczb).


Definicja

Definicja (Wartość oczekiwana) Niech będzie zmienną losową o rozkładzie dyskretnym. Wartością oczekiwaną (ew. średnią) nazywamy wartość sumy , o ile jest ona absolutnie zbieżna.

Przykład 5.2 Założenie absolutnej zbieżności jest niejako konieczne - nie chcemy, żeby wartość zależała od kolejności sumowania. Z drugiej strony prowadzi ono czasem do zaskakujących wyników. Rozważmy zmienną zdefiniowaną następująco: przyjmuje tylko wartości postaci i dla , przy czym . Zmienna ta ma rozkład symetryczny względem , intuicyjnie więc jej wartością oczekiwaną powinno być . Ponieważ jednak szereg definiujący nie jest absolutnie zbieżny (składa się on z nieskończenie wielu wartości i nieskończenie wielu ), to jest nieokreślone.

Przykład 5.3 Spróbujmy obliczyć wprost z definicji wartość oczekiwaną zmiennej o rozkładzie Bernoulliego i zmiennej o rozkładzie dwumianowym.

Dla o rozkładzie Bernoulliego z prawdopodobieństwem sukcesu mamy . Dla o rozkładzie dwumianowym mamy . Korzystając z pochłaniania dostajemy . (bo ostatnia suma jest po prostu rozwinięciem dwumianu ).

Jest to bardzo interesujący wynik. Zmienna jest sumą zmiennych , gdzie każda ze zmiennych ma rozkład Bernoulliego z prawdopodobieństwem sukcesu . Okazuje się, że . Czyżby wartość oczekiwana była addytywna, a nasze rozwlekłe obliczenia zupełnie niepotrzebne? Już wkrótce poznamy odpowiedź na to pytanie.


Własności wartości oczekiwanej

Bardzo przydatną i fundamentalną własność wartości oczekiwanej opisuje poniższe twierdzenie Twierdzenie 5.4 Niech będzie dyskretną zmienną losową o skończonej wartości oczekiwanej. Niech ponadto będzie przeliczalna, lub ogólniej, niech . Wtedy: .

Innymi słowy: zamiast sumować po możliwych wartościach zmiennej możemy sumować po zdarzeniach elementarnych.

Dowód .

Z twierdzenia 5.4 w prosty sposób wynika następujący:

Wniosek 5.5 Jeśli jest zmienną losową o rozkładzie dyskretnym, a dowolną funkcją, to zachodzi , o ile istnieje. Dowód Wystarczy popatrzeć na jako na zmienną losową określoną na , ew. powtórzyć dowód twierdzenia 5.4.

Wniosek ten okaże się bardzo przydatny przy obliczaniu wariancji - pojęcia, które wkrótce zdefiniujemy.

Twierdzenie 5.4 ma zaskakująco wiele zastosowań i warto o nim pamiętać, nawet jeśli wydaje się zupełnie oczywiste (a może właśnie szczególnie wtedy). Zobaczmy przykład:

Przykład 5.6 Spróbujmy obliczyć wartość oczekiwaną sumy oczek w rzucie dwiema kostkami. Niech będzie zmienną opisującą sumę oczek. Wtedy z definicji mamy . Należałoby teraz obliczyć wszystkie wartości . Nie jest to bardzo trudne, ale jest nieco uciążliwe i łatwo się przy tych obliczeniach pomylić.

Spróbujmy inaczej. Przyjmijmy, że i oczywiście dla każdych . Wtedy i z twierdzenia 5.4 mamy . Oczywiście z symetrii, więc . Wyprowadzenie wymagające więcej spostrzegawczości niż rachunków, zdecydowanie mniej uciążliwe niż nasz pierwszy pomysł.

Twierdzenie 5.4 pozwala też w prosty sposób pokazać zapowiadaną wcześniej addytywność wartości oczekiwanej (choć nie w pełnej ogólności): Twierdzenie 5.7(Liniowość wartości oczekiwanej) Niech dyskretne zmienne losowe o skończonej wartości oczekiwanej. Wtedy:

  1. ,
  2. .

Dowód Jeśli (np. jest przeliczalna), to pierwszy punkt tezy natychmiast wynika z twierdzenia 5.4: . Drugi punkt nie jest dużo trudniejszy: . Ogólny przypadek nie jest dużo trudniejszy. Zbiory postaci stanowią podział i zachodzi bo i dyskretne. Można zatem myśleć o tych zbiorach jako o elementach pewnej nowej przestrzeni probabilistycznej, na której są określone i i która spełnia założenia twierdzenia 5.4. Bardziej formalnie możemy nasz dowód uogólnić następująco: . Podobnie uogólniamy pierwszą część dowodu.


Trudno jest przecenić znaczenie tego twierdzenia - jeśli musielibyśmy wskazać w całym kursie rachunku prawdopodobieństwa jedno twierdzenie o największym znaczeniu w informatyce teoretycznej, to prawdopodobnie byłaby nim właśnie liniowość wartości oczekiwanej. Siła tego twierdzenia bierze się przede wszystkim stąd, że nie wymaga ono żadnych założeń, w szczególności zmienne i nie muszą być niezależne.

Przykład 5.8 Spróbujmy raz jeszcze obliczyć oczekiwaną sumę oczek z dwóch kostek. Tym razem przedstawimy sumę oczek jako , gdzie są wynikami z poszczególnych kostek. Wtedy .

Przykład 5.9 Wrzucamy losowo kul do urn. Jaka jest wartość oczekiwana frakcji pustych urn?

Niech będzie zmienną, która przyjmuje wartość jeśli -ta urna jest pusta, a wartość gdy nie jest pusta. Wtedy jest liczbą pustych urn. Mamy A zatem z liniowości dostajemy . A zatem oczekiwana frakcja pustych urn jest równa . Co ciekawe dla wartość ta zbiega do .

Ten przykład pokazuje siłę twierdzenia o liniowości wartości oczekiwanej. Zachęcamy czytelnika do próby rozwiązania powyższego zadania wprost z definicji.

Skoro , to naturalne wydaje się pytanie, czy zachodzi , czyli czy wartość oczekiwana jest multiplikatywna. Łatwo zauważyć, że nie może to być prawdą - wystarczy wziąć o rozkładzie Bernoulliego i .

Okazuje się jednak, że czasem wartość oczekiwana jest multiplikatywna: Twierdzenie 5.10 Jeśli niezależne zmienne dyskretne o skończonych wartościach oczekiwanych, to . Dowód . Zmieniając kolejność sumowania i podstawiając dostajemy .

Na koniec odnotujmy bardzo przydatny wzór na wartość oczekiwaną zmiennej o wartościach naturalnych: Twierdzenie 5.11 Niech będzie zmienną losową o wartościach naturalnych. Wtedy . Dowód . Przykład Obliczmy wartość oczekiwaną zmiennej o rozkładzie geometrycznym. Niech . Wtedy i z powyższego twierdzenia dostajemy . Obliczanie wprost jest istotnie bardziej skomplikowane - sprowadza się, de facto, do powtórzenia dowodu twierdzenia 5.11.


Warunkowa wartość oczekiwana

W poprzednim wykładzie zdefiniowaliśmy, dla dowolnej dyskretnej zmiennej losowej i zdarzenia o niezerowym prawdopodobieństwie, nową zmienną . Można oczywiście obliczyć wartość oczekiwaną tak zdefiniowanej zmiennej: .

Związek między tak określonymi warunkowymi wartościami oczekiwanymi, a zwykłą wartością oczekiwaną, jest taki sam jak między prawdopodobieństwami warunkowymi, a zwykłym prawdopodobieństwem: Twierdzenie 5.12 (Wzór na całkowitą wartość oczekiwaną) Niech będzie dyskretną zmienną losową i niech będzie podziałem . Wtedy: . Dowód Na mocy twierdzenia o prawdopodobieństwie całkowitym dla każdego i . Mnożąc tę tożsamość stronami przez i sumując po wszystkich dostajemy tezę: .

Uwaga Podobnie jak w przypadku wzoru na prawdopodobieństwo całkowite, prawdziwa jest także wersja powyższego twierdzenia dla skończonych podziałów , dowód analogiczny. Ponadto tak jak w przypadku wzoru na prawdopodobieństwo całkowite, można powyższe twierdzenie traktować jako przepis na obliczanie wartości oczekiwanej przez przypadki.

Przykład 5.13 Korzystając ze wzoru na całkowitą wartość oczekiwaną obliczymy ponownie wartość oczekiwaną zmiennej . . Zauważmy, że ma taki sam rozkład jak . Intuicyjnie jest to dość oczywiste, (prosty) formalny dowód dużo ogólniejszego faktu pojawi się na ćwiczeniach. A zatem . Stąd i ostatecznie .


Wariancja - motywacja i definicja

Wartość oczekiwana niesie bardzo istotną informację na temat zmiennej losowej. Tym niemniej, ograniczanie się w analizie do samej wartości oczekiwanej może być zwodnicze, a czasem wręcz niebezpieczne.

Jest duża różnica między inwestycją, w której z prawdopodobieństwem zyskujemy zł i z prawdopodobieństwem tracimy zł, a inwestycją w której z prawdopodobieństwem zyskujemy i z prawdopodobieństwem zyskujemy . W obu przypadkach wartość oczekiwana zysku wynosi zł, a pomimo to większość osób bez wahania wybrałaby drugą opcję.

Podobnie, jest duża różnica między algorytmem, którego oczekiwany czas działania jest równy , ale który często działa w czasie bliskim zeru i często działa wielokrotnie wolniej niż średnio, a algorytmem o tym samym średnim czasie działania, który prawie zawsze działa w czasie bliskim średniej. Znów jasne jest, że opcja druga jest z reguły bardziej pożądana.

Aby móc porównywać inwestycje w pierwszym przykładzie i algorytmy w drugim, wprowadzimy miarę tego jak bardzo zmienna losowa odchyla się od swojej wartości średniej. Naturalnym pomysłem byłoby rozważenie wielkości . Pomysł ten jest dobry, a tak zdefiniowaną wielkość nazywa się z reguły średnim odchyleniem . Posługiwanie się odchyleniem średnim jest jednak z wielu różnych względów dość problematyczne. W dużym uproszczeniu "pojęcie to nie ma dobrych własności", choćby dlatego, że użyta w definicji wartość bezwględna skutecznie utrudnia korzystanie z narzędzi analitycznych takich jak różniczkowanie.

Zamiast średniego odchylenia będziemy używać pojęć wariancji i odchylenia standardowego: Definicja (Wariancja i odchylenie standardowe) Wariancją dyskretnej zmiennej losowej nazywamy wartość , o ile ona istnieje. Odchyleniem standardowym nazywamy .

W tym miejscu należy się wyjaśnienie kwestii: po co nam aż dwie wielkości?

Wariancja, w przeciwieństwie do średniego odchylenia, ma bardzo dobre własności i pojawia się w wielu sytuacjach w naturalny sposób. Wbrew pozorom nie jest ona jednak dobrym substytutem średniego odchylenia z tego prostego powodu, że średniego odchylenia nie mierzy. Łatwo to zauważyć, jeśli zastanowimy się co się dzieje z wariancją, jeśli pomnożymy zmienną losową przez stałą: To nie wygląda dobrze - sensowna miara średniego odchylenia powinna w takiej sytuacji wzrastać -krotnie. Rozwiązaniem tego problemu jest odchylenie standardowe, dla którego jak łatwo zauważyć mamy .

Okazuje się, że odchylenie standardowe jest bardzo dobrą miarą "typowych odchyleń" od średniej, w szczególności ma z reguły wartość bardzo bliską odchyleniu średniemu.


Własności wariancji

Wariancję rzadko oblicza się wprost z definicji. Jedną z przydatniejszych metod jest poniższy wzór: Twierdzenie 5.14 . Dowód .

Przykład 5.15 Spróbujmy za pomocą tego wzoru obliczyć wariancję rozkładu Bernoulliego i rozkładu dwumianowego.

Dla zmiennej o rozkładzie Bernoulliego z prawdopodobieństwem sukcesu mamy: .

Dla zmiennej mamy: . Korzystając z pochłaniania dostajemy: . Jedno z wyrażeń w nawiasie jest dwumianem , a drugie wartością oczekiwaną zmiennej o rozkładzie . Dostajemy więc: .

Okazało się, że , co sugeruje, że być może wariancja jest addytywna, tak jak wartość oczekiwana (liniowa być nie może, bo ). Sprawdźmy: .

Prawie się udało, niestety pojawił się dodatkowy człon , sprawdźmy czy jest on równy 0: .

I wszystko jasne: wariancja jest addytywna wtw, gdy wartość oczekiwana jest multiplikatywna. Ważny szczególny przypadek takiej sytuacji opisuje poniższe twierdzenie: Twierdzenie 5.16 Jeśli dyskretne zmienne losowe i są niezależne i mają skończoną wariancję, to . Dowód Wynika z wcześniejszych rozważań i multiplikatywności wartości oczekiwanej dla zmiennych niezależnych.

Uwaga 5.17 Człon nazywa się kowariancją X i Y. Kowariancja jest duża/dodatnia dla zmiennych, które razem przyjmują małe wartości i razem duże, czyli są "w tej samej fazie". Małe/ujemne wartości kowariancji oznaczają zmienne "w przeciwnym fazach".

Czasem jesteśmy zmuszeni obliczyć wariancję sumy zmiennych, które nie są niezależne. Poniższy przykład pokazuję bardzo typową sytuację tego rodzaju i standardowy sposób radzenia sobie z zależnością zmiennych 0/1-kowych. Przykład 5.9 (c.d.) Obliczmy wariancję liczby pustych urn. Korzystając z twierdzenia 5.14 mamy . Wartość drugiego członu już znamy, aby obliczyć pierwszy rozbijemy na poszczególne składniki i skorzystamy z liniowości wartości oczekiwanej . W tej sumie występują dwa rodzaje wyrazów:

  1. wyrazy postaci , oraz
  2. wyrazy postaci .

Tych pierwszych jest , drugich - . A zatem .


Wyższe momenty

Wartość oczekiwana i wariancja są szczególnymi przypadkami następujących dwóch pojęć: Definicja (Moment) Jeśli jest zmienną losową, to -tym momentem zmiennej losowej nazywamy wartość wyrażenia , o ile ona istnieje. Definicja (Moment centralny) Jeśli jest zmienną losową i , to -tym momentem centralnym zmiennej losowej nazywamy wartość wyrażenia , o ile ona istnieje. A zatem wartość oczekiwana jest pierwszym momentem zmiennej, a wariancja drugim momentem centralnym.

Z wyższych momentów korzysta się istotnie rzadziej, niż z i , mają one jednak swoje miejsce w zastosowaniach. Czytelnikowi polecamy zastanowienie się, co mierzą trzeci, a co czwarty moment centralny?


Funkcje tworzące prawdopodobieństwa

Obliczanie wartości oczekiwanej i wariancji wprost z definicji lub za pomocą jednego z wyprowadzonych przez nas wzorów bywa często uciążliwe i pracochłonne. Poznamy teraz metodę, która pozwala często znacznie uprościć te rachunki.

Definicja (Funkcja tworząca prawdopodobieństwa) Niech będzie zmienną losową o wartościach naturalnych. Funkcją tworzącą prawdopodobieństwa zmiennej zmiennej nazywamy: .

Tak jak to z reguły bywa z funkcjami tworzącymi, często wygodnie jest je traktować jako szeregi formalne i nie przejmować się zbieżnością. Tym niemniej, z twierdzenia o zbieżności zmajoryzowanej wynika łatwo natychmiast następujący: Fakt 5.18 Szereg definiujący jest zawsze absolutnie zbieżny co najmniej na przedziale .

Czasem wygodniej jest korzystać z następującej tożsamości: Fakt 5.19 Dla tych dla których szereg definiujący jest absolutnie zbieżny zachodzi: . Dowód Oczywisty.

Jak obliczać wartość oczekiwaną i wariancję za pomocą funkcji tworzących prawdopodobieństwa? Wystarczy je zróżniczkować.

(Prawie prawdziwe) twierdzenie Jeśli o wartościach naturalnych ma skończoną wartość oczekiwaną, to: .

(Prawie poprawny) dowód . Podstawiając dostajemy tezę.

Powyższe rozumowanie wygląda przekonująco, formalnie jednak nie jest całkiem poprawne. Z tego, że szereg jest zbieżny w przedziale wynika, że możemy go zróżniczkować wewnątrz tego przedziału, ale niekoniecznie w . Dlatego należy sformułować twierdzenie tak: Twierdzenie 5.20 Jeśli o wartościach naturalnych ma skończoną wartość oczekiwaną, to: . Dowód Z twierdzenia Abela suma szeregu potęgowego jest funkcją ciągłą (ew. jednostronnie ciągłą) wszedzie tam gdzie jest zbieżna. A zatem: .

W praktyce tego rodzaju niuansy nie mają znaczenia. Funkcje tworzące prawdopodobieństwa, z którymi będziemy mieli do czynienia będą zbieżne na całej prostej rzeczywistej i problemy opisane powyżej nie będą występować. W szczególności prawdziwy będzie wzór .

Łatwo zgadnąć jak za pomocą funkcji tworzących prawdopodobieństwa oblicza się wariancję. Różniczkując dwukrotnie! Spróbujmy: . A zatem oraz , o ile oczywiście te pochodne istnieją. Z tego właśnie wzoru będziemy korzystać w praktyce, w ogólnym przypadku zachodzi Twierdzenie 5.21 Jeśli o wartościach naturalnych ma skończoną wartość oczekiwaną i wariancję, to oraz . Dowód Analogiczny jak dla twierdzenia 5.20.

Przykład 5.22 Znajdźmy funkcję tworzącą prawdopodobieństwa rozkładu dwumianowego (w tym przypadku mamy do czynienia z wielomianem tworzącym i większość rozważań powyżej mocno się upraszcza). Niech . Wtedy . Obliczmy pierwszą i drugą pochodną : , . A zatem , oraz

Udowodnimy teraz kilka własności funkcji tworzących prawdopodobieństwa, które znacząco ułatwiają posługiwanie się nimi.

Twierdzenie 5.23 Niech będą niezależnymi zmiennymi o wartościach naturalnych. Wtedy . Dowód Dla zachodzi , więc musi też zachodzić teza.

Twierdzenie to w naturalny sposób uogólnia się na dowolną skończoną liczbę niezależnych zmiennych losowych.

Przykład 5.24 Korzystając z powyższego twierdzenia możemy policzyć dla w alternatywny sposób. Zauważmy mianowicie, że dla zmiennej o rozkładzie Bernoulliego z prawdopodobieństwem sukcesu mamy , a ponieważ jest sumą niezależnych zmiennych o takim właśnie rozkładzie, to .

Twierdzenie 5.25 Jeśli jest zmienną losową o wartościach naturalnych, a , to . Dowód .

Twierdzenie 5.26 Niech będą niezależnymi zmiennymi losowymi o wartościach naturalnych. Ponadto, niech wszystkie mają ten sam rozkład . Wtedy dla zachodzi oraz . Dowód Dla mamy z twierdzenia o całkowitej wartości oczekiwanej . Z niezalezności dostajemy . Druga część twierdzenia wynika z pierwszej, ciągłości funkcji tworzących w oraz tego, że . .

Przykład 5.27 Rzucamy kostką, niech będzie wynikiem rzutu. Następnie rzucamy razy monetą. Jaki rozkład ma łączna liczba orłów? W szczególności jak wygląda funkcja tworząca prawdopodobieństwa tego rozkładu?

Niech będą wynikami rzutów monetą. Wtedy łączna liczba orłów jest równa i mamy do czynienia z sytuacją z udowodnionego właśnie twierdzenia.

Ponieważ oraz , to .