Teoria informacji/TI Ćwiczenia 2: Różnice pomiędzy wersjami
Nie podano opisu zmian |
Nie podano opisu zmian |
||
Linia 33: | Linia 33: | ||
{{cwiczenie|3 [Losowanie ze zwracaniem i bez]|Ćwiczenie 3| | |||
Urna zawiera <math>z</math> zielonych kul, <math>c</math> czerwonych i <math>n</math> niebieskich. Które losowanie da wynik o większej entropii: losowanie <math>k\ge 2</math> kul ze zwracaniem czy bez zwracania?}} | |||
{{rozwiazanie||| | |||
<div class="mw-collapsible mw-made=collapsible mw-collapsed"> | |||
<div class="mw-collapsible-content" style="display:none"> | |||
Większą entropię ma losowanie kul ze zwracaniem. W tym przypadku kolory kolejnych kul są zdarzeniami niezależnymi. | |||
Losując bez zwracania zmniejszamy oczekiwaną entropię każdej kolejnej kuli. | |||
</div> | |||
</div> | |||
}} | |||
=== Zadanie 1 === | == Zadania domowe == | ||
=== Zadanie 1 - Aksjomatyzacja entropii === | |||
Niech <math>H</math> będzie funkcją rzeczywistą określoną na rozkładach prawdopodobieństwa, spełniającą warunki: | Niech <math>H</math> będzie funkcją rzeczywistą określoną na rozkładach prawdopodobieństwa, spełniającą warunki: | ||
Linia 59: | Linia 71: | ||
=== Zadanie 2 - Inne miary entropii === | |||
=== Zadanie 2 === | |||
W kryptografii używa się często innych miar entropii. Przykładami są: | W kryptografii używa się często innych miar entropii. Przykładami są: | ||
Linia 77: | Linia 88: | ||
=== Zadanie 3 - Nieskończona entropia === | |||
=== Zadanie 3 === | |||
W szczególnych przypadkach wartość entropii zmiennej losowej może być nieskończona. Niech <math>P(X=n)= \frac{1}{c} \cdot \frac{1}{n \log^2 n}</math> dla <math>n = 2, 3, \ldots </math>. c jest tu stałą normalizującą: <math>c = \sum_{n=2}^{\infty} \frac{1}{n \log^2 n}</math>. Pokaż że c ma skończoną wartość (np. przez ograniczenie jej z góry przez całkę funkcji <math>\frac{1}{x \log^2 x}</math>), a więc definicja jest sensowna. Pokaż że entropia tak zdefiniowanej zmiennej losowej jest nieskończona. | W szczególnych przypadkach wartość entropii zmiennej losowej może być nieskończona. Niech <math>P(X=n)= \frac{1}{c} \cdot \frac{1}{n \log^2 n}</math> dla <math>n = 2, 3, \ldots </math>. c jest tu stałą normalizującą: <math>c = \sum_{n=2}^{\infty} \frac{1}{n \log^2 n}</math>. Pokaż że c ma skończoną wartość (np. przez ograniczenie jej z góry przez całkę funkcji <math>\frac{1}{x \log^2 x}</math>), a więc definicja jest sensowna. Pokaż że entropia tak zdefiniowanej zmiennej losowej jest nieskończona. |
Wersja z 19:36, 19 sie 2006
Ćwiczenia
Ćwiczenie 1 [Obliczanie entropii]
Oblicz entropię wyniku w następujących eksperymentach
- a) Rzucamy jedną kostką sześcienną
- b) Rzucamy dwiema kostkami sześciennymi i sumujemy liczbę oczek
- c) Rzucamy symetryczną monetą do uzyskania pierwszego orła. Wynikiem jest liczba wykonanych rzutów
Rozwiązanie
Ćwiczenie 2 [Entropia funkcji]
Niech X będzie zmienną losową przyjmującą skończoną liczbę wartości. Jaka będzie zależność między entropią X a entropią Y jeśli
- a)
- b)
Rozwiązanie
Ćwiczenie 3 [Losowanie ze zwracaniem i bez]
Rozwiązanie
Zadania domowe
Zadanie 1 - Aksjomatyzacja entropii
Niech będzie funkcją rzeczywistą określoną na rozkładach prawdopodobieństwa, spełniającą warunki:
(a) jest ciągłą funkcją p
(b)
(c) Parser nie mógł rozpoznać (nieznana funkcja „\aligned”): {\displaystyle \aligned H(\langle p_1, \ldots, p_m \rangle)& =H(\langle p_1 + \ldots + p_k, p_{k+1} + \ldots + p_m\rangle)\\ & + (p_1 + \ldots + p_k)H(\langle\frac{p_1}{\sum_{i=1}^k p_i}, \ldots, \frac{p_k}{\sum_{i=1}^k p_i}\rangle)\\ & + (p_{k+1} + \ldots + p_m)H(\langle\frac{p_{k+1}}{\sum_{i=k+1}^m p_i}, \ldots, \frac{p_m}{\sum_{i=k+1}^m p_i}\rangle) \endaligned }
Udowodnij że H jest miarą entropii Shannona. Innymi słowy że z dokładnością do wyboru podstawy logarytmu, jedyną funkcją spełniającą podane warunki jest
Zadanie 2 - Inne miary entropii
W kryptografii używa się często innych miar entropii. Przykładami są:
Definicja [Entropia kolizji]
Entropia kolizji mierzy prawdopodobieństwo że dwie zmienne z danego rozkładu będą sobie równe
Definicja [Entropia minimum]
Entropia minimum mierzy prawdopodobieństwo odgadnięcia wartości zmiennej pochodzącej z danego rozkładu
Udowodnij następujące nierówności:
Zadanie 3 - Nieskończona entropia
W szczególnych przypadkach wartość entropii zmiennej losowej może być nieskończona. Niech dla . c jest tu stałą normalizującą: . Pokaż że c ma skończoną wartość (np. przez ograniczenie jej z góry przez całkę funkcji ), a więc definicja jest sensowna. Pokaż że entropia tak zdefiniowanej zmiennej losowej jest nieskończona.