Rachunek Prawdopodobieństwa i Statystyka (UW) Wykład 6

Z Studia Informatyczne
Przejdź do nawigacjiPrzejdź do wyszukiwania

Szacowanie ogonów

Zdefiniowane w poprzednim wykładzie pojęcia wartości oczekiwanej umożliwia sformułowanie w języku rachunku prawdopodobieństwa następujących naturalnych pytań

  1. Ile średnio wypada orłów w rzutach symetryczną monetą?
  2. Ile średnio urn będzie pustych, jeśli wrzucimy losowo kul do urn?
  3. Jak długo średnio działa algorytm Quicksort dla losowej permutacji? (ew. jak duża może być ta średnia dla konkretnej permutacji jeśli element dzielący jest wybierany losowo)
  4. Jak głębokie jest średnio drzewo BST powstałe przez wstawienie do początkowo pustego drzewa losowej permutacji elementów ?

i wielu innych. Sprowadzają się one do znalezienia wartości oczekiwanej odpowiednio zdefiniowanej zmiennej losowej.

W poprzednim wykładzie zdefiniowaliśmy także pojęcia wariancji i odchylenia standardowego, mierzące rozmiar odchyleń zmiennej losowej od jej wartości oczekiwanej. Dla rozkładów, dla których obliczyliśmy wariancję (rozkład dwumianowy, Poissona i geometryczny) te typowe odchylenia są małe, istotnie mniejsze niż wartość oczekiwana. Powinniśmy się więc spodziewać, że z dużym prawdopodobieństwem zmienne losowe będą przyjmować wartości bliskie swoim wartościom oczekiwanym. Na przykład, w rzutach monetą nie tylko średnio wypada orłów, ale też z dużym prawdopodobieństwem liczba orłów jest niezbyt odległa od . Postaramy się teraz pokazać podstawowe metody dowodzenia tego rodzaju stwierdzeń.

Wartości zmiennej losowej odległe od jej wartości oczekiwanej nazywa się z reguły ogonami. Można więc powiedzieć, że naszym celem jest szacowanie prawdopodobieństw ogonów. Często mówi się też po prostu o szacowaniu ogonów.


Nierówność Markowa

Jedną z najprostszych i najbardziej ogólnych metod szacowania ogonów jest nierówność Markowa Twierdzenie 6.1 (Nierówność Markowa) Niech będzie dyskretną zmienną losową o wartościach nieujemnych i niech . Wtedy dla dowolnego Dowód Z definicji mamy , z czego wynika teza.

Powyższy dowód ma bardzo prostą intuicję fizyczną: Jeśli o myśleć jako o środku ciężkości masy rozłożonej zgodnie z , to na prawo od nie może być tej masy więcej niż , bo nie dałoby się jej w żaden sposób zrównoważyć. Widać, że kluczowe jest tu założenie o nieujemności zmiennej . Gdyby zmienna mogła przyjmować ujemne wartości to moglibyśmy do równoważenia użyć masy położonej daleko na lewo od .

Uwaga 6.2 Często podaje się nierówność Markowa w równoważnym sformułowaniu:

Przykład 6.3 Jakie jest prawdopodobieństwo uzyskania w rzutach co najmniej orłów? Wydaje się, że prawdopodobieństwo to powinno być bardzo małe. Zobaczmy jakie oszacowanie uzyskamy korzystając z nierówności Markowa.

Niech będą wynikami poszczególnych rzutów, przy czym wartość 1 oznacza orła, a 0 - reszkę. Wtedy jest łączną liczbą orłów. Ponieważ , to z nierówności Markowa dostajemy niezbyt imponujące oszacowanie:

Poniższy przykład pokazuje, że nierówność Markowa nie jest zbyt mocna. Pomimo tego jest to nierówność ważna z co najmniej dwóch powodów. Po pierwsze, wymaga bardzo słabych założeń: nieujemności i istnienia wartości oczekiwanej. Czasem dysponujemy jedynie wartością oczekiwaną i nierówność Markowa jest jedynym narzędziem jakiego możemy użyć. Po drugie, jak się wkrótce przekonamy, aplikując nierówność Markowa do odpowiednio zdefiniowanej zmiennej można uzyskać nierówności dużo mocniejsze.


Nierówność Czebyszewa

Nierówności Markowa nie da się poprawić, jeżeli dysponujemy jedynie wartością oczekiwaną. Niech na przykład będzie zmienną zdefiniowaną następująco: oraz , gdzie . Wtedy i . Zauważmy jednak, że tak określona zmienna jest skoncentrowana w dwóch punktach - swoich ekstremach. W szczególności, wartości zmiennej mają bardzo duży "rozrzut". Można się spodziewać, że dla zmiennych o małym odchyleniu standardowym, a więc dużo bardziej skoncentrowanych wokół wartości oczekiwanej, powinniśmy być w stanie uzyskać dużo lepsze oszacowanie.

Twierdzenie 6.4 (Nierówność Czebyszewa) Niech będzie dyskretną zmienną losową taką, że oraz i niech będzie odchyleniem standardowym . Wtedy dla dowolnego . Dowód Niech . Wtedy korzystając z nierówności Markowa dostajemy .

Uwaga 6.5 Tak jak w przypadku nierówności Markowa, często używa się alternatywnego sformułowania nierówności Czebyszewa: .

Przykład 6.3 (c.d.) Zobaczmy jakie oszacowanie można uzyskać za pomocą nierówności Czebyszewa.

Zmienna ma rozkład Binom, a zatem . Korzystając z alternatywnej wersji nierówności Czebyszewa dostajemy: (w pierwszym kroku skorzystaliśmy z tego, że ).

Jest to oszacowanie dużo lepsze niż uzyskane z nierówności Markowa. Jak jednak wkrótce zobaczymy, jest ono wciąż bardzo daleko od prawdziwej wartości tego prawdopodobieństwa.

Zanim przejdziemy do kolejnej nierówności, udowodnimy bardzo ważny wniosek z nierówności Czebyszewa Twierdzenie 6.6 (Słabe Prawo Wielkich Liczb (SPWL)) Niech zmienne losowe będą niezależne o tym samym rozkładzie i niech dla . Niech ponadto i . Wtedy dla każdego .

Dowód Z liniowości wartości oczekiwanej dla wszystkich mamy . Ponadto z niezależności wynika, że . A zatem z nierówności Czebyszewa dostajemy , co kończy dowód.

Uwaga 6.7 Założenie, że zmienne mają skończoną wariancję nie jest konieczne, ale bez niego nie możemy użyć nierówności Czebyszewa i dowód istotnie się komplikuje.

Prawdziwe jest również następujące twierdzenie: Twierdzenie 6.8 (Mocne Prawo Wielkich Liczb (MPWL)) Przy założeniach jak w twierdzeniu 6.6 zachodzi .

Twierdzenie to pozostawimy bez dowodu. Polecamy jednak czytelnikowi zastanowienie się nad tym dlaczego MPWL jest silniejszym twierdzeniem niż SPWL?

Intuicja częstościowa

Rozważmy nieskończony ciąg niezależnych powtórzeń tego samego doświadczenia modelowanego przestrzenią . Niech i niech zdarzenia odpowiadają zajściu w doświadczeniach . Niech ponadto zmienne będą zdefiniowane następująco: , t.j. zmienna jest równa jeśli zaszło i wpp.

W naszych dotychczasowych rozważaniach dwukrotnie już pojawiała się tzw. intuicja częstościowa, którą można opisać następującą równością: . Używaliśmy tej intuicji dobierając modele probabilistyczne w wykładzie 1 i definiując wartość oczekiwaną w wykładzie 5. Dlatego należy traktować jako dobrą wiadomość to, że intuicję tę można w naszej teorii "udowodnić" aplikując MPWL do zmiennych (zachęcamy czytelnika do sprawdzenia tego faktu).


Nierówność Chernoffa

Wzorując się na dowodzie nierówności Czebyszewa możemy próbować aplikować nierówność Markowa do dowolnej zmiennej , o ile tylko funkcja jest nieujemna i monotonicznie rosnąca: . (w pierwszym kroku korzystamy z monotoniczności , a w drugim z nierówności Markowa, do której jest potrzebna nieujemność ).

Oczywiście takie postępowanie ma sens jedynie jeśli:

  1. jesteśmy w stanie obliczyć bądź oszacować , oraz
  2. uzyskane w ten sposób oszacowanie jest lepsze niż znane nam nierówności.


Okazuje się, że oba te warunki są spełnione, jeśli przyjmiemy , gdzie jest parametrem, który ustalimy później. W szczególności, podstawą naszych dalszych rozważań będzie następujące twierdzenie: Twierdzenie 6.9 (Ogólna nierówność typu Chernoffa) Dla dowolnej zmiennej losowej zachodzi oraz .

Dowód Aby uzyskać pierwszą nierówność powtarzamy rozumowanie przeprowadzone na początku tego paragrafu dla funkcji i otrzymujemy dla dowolnego . Skoro nierówność ta zachodzi dla każdego , to zachodzi też nierówność z tezy twierdzenia.

Drugą nierówność dostajemy w analogiczny sposób. Dla dowolnego zachodzi bowiem .

Aby uzyskać konkretne oszacowanie na lub , bez nieustalonego parametru i tajemniczego wyrażenia , musimy zdecydować jaki rozkład ma mieć zmienna . Bardzo ciekawe wyniki można uzyskać w sytuacji opisanej w następującym twierdzeniu: Twierdzenie 6.10 (nierówność Chernoffa dla prób Poissona) Niech niezależne zmienne o rozkładzie 0/1-kowym, przy czym . Niech ponadto i niech . Wtedy:

  1. dla dowolnego zachodzi
  2. dla dowolnego zachodzi
  3. dla zachodzi ,

lub prościej: dla zachodzi . Uwaga 6.11 Ciąg zmiennych jak w twierdzeniu powyżej nazywa się często próbami Poissona (nie mylić z rozkładem Poissona!). Jest to uogólnienie prób Bernoulliego na przypadek niekoniecznie równych prawdopodobieństw sukcesu. Uwaga 6.12 Może dziwić to, że w tezie twierdzenia sformułowane są aż trzy nierówności. Przyczyna jest bardzo prosta. Formułując konkretną nierówność dokonujemy kompromisu między jej siłą, a prostotą zapisu. Nierówność pierwsza jest najmocniejsza i zachodzi dla wszystkich wartości , jest jednak najbardziej skomplikowana. Nierówności druga i trzecia są słabsze i zachodzą tylko dla pewnych przedziałow wartości , są jednak zdecydowanie prostsze. Przykład 6.3 (c.d.) Zanim przejdziemy do dość technicznego dowodu, sprawdźmy jakie oszacowanie możemy uzyskać korzystając z nierówności Chernoffa dla przykładu z rzutami monetą. To oszacowanie jest nieporównywalnie lepsze od oszacowania uzyskanego za pomocą nierówności Czebyszewa. Jeśli przyjmiemy rzutów to dostaniemy:

  1. Markow: ,
  2. Czebyszew: ,
  3. Chernoff: .

Zachęceni tak spektakularnym sukcesem przystąpmy do dowodu. Dowód (nierówności Chernoffa dla prób Poissona) Wiemy, że zachodzi Zajmijmy się członem . Korzystając z przedstawienia jako sumy niezależnych zmiennych 0/1-kowych dostajemy . A zatem Dla jakiej wartości parametru wyrażenie w wykładniku przyjmuje najmniejszą wartość? Pochodna wykładnika to . Przyrównując ją do zera dostajemy . Podstawiając optymalną wartość do naszego oszacowania dostajemy: , co dowodzi pierwszej części tezy. Aby udowodnić drugą część wystarczy pokazać, że dla dowolnego zachodzi , czyli . Niech . Wtedy mamy , oraz . Łatwo zauważyć, że dla oraz dla . A zatem, na przedziale druga pochodna najpierw maleje, a potem rośnie. Skoro jednak i , to musi być na całym przedziale , czyli jest malejąca. A ponieważ , to jest ujemna na całym przedziale , co kończy dowód drugiej nierówności. Trzecia część tezy w prosty sposób wynika z pierwszej. Jeśli , to mamy: co kończy dowód. Zachodzą również nierówności dla "dolnych ogonów" Twierdzenie 6.13 (nierówność Chernoffa dla prób Poissona - dolne ogony) Niech niezależne zmienne o rozkładzie 0/1-kowym, przy czym . Niech ponadto i niech . Wtedy dla dowolnego zachodzi

  1. (tak, tutaj jest 2, a nie 3).

Dowód, analogiczny do przed chwilą przeprowadzonego, pomijamy. Uwaga 6.14 Nieprzypadkowo w nierównościach Chernoffa korzysta się z funkcji . Wyrażenie , które zmuszeni byliśmy szacować, jest w teorii prawdopodobieństwa dobrze znane i zbadane. Nazywa się je z reguły funkcją tworzącą momentów i oznacza . Funkcja przypomina trochę znaną nam funkcję tworzącą prawdopodobieństwa, w szczególności dla o wartościach naturalnych zachodzi: . Funkcji tworzących momentów można jednak używać dla dowolnych zmiennych, niekoniecznie dyskretnych. Z ciekawszych ich własności warto wspomnieć następujące rozwinięcie w szereg potęgowy , które jest możliwe przy pewnych założeniach dotyczących . Okazuje się, że jest wykładniczą funkcją tworzącą ciągu momentów , i stąd jej nazwa.

Uwagi końcowe

Z punktu widzenia zastosowań w informatyce, materiał omówiony w ramach tego rozdziału jest szczególnie ważny. Wiele naturalnych i fundamentalnych pytań pojawiających się w zastosowaniach sprowadza się bowiem do szacowania ogonów. Z tego względu umiejętność sprawnego posługiwania się nierównościami probabilistycznymi jest bardzo przydatna. Należy jednak pamiętać, że najmocniejsza nawet ogólna nierówność nie zastąpi solidnej analizy i dobrego zrozumienia konkretnego problemu. Nierzadko najlepsze oszacowanie prawdopodobieństwa ogonów uzyskuje się wprost, bez użycia nierówności. Przykład takiej sytuacji zobaczymy na ćwiczeniach.