Teoria informacji/TI Ćwiczenia 2: Różnice pomiędzy wersjami
Nie podano opisu zmian |
|||
Linia 2: | Linia 2: | ||
{{cwiczenie|1 [Obliczanie entropii]|oe| | {{cwiczenie|1 [Obliczanie entropii]|oe| | ||
Oblicz entropię wyniku w następujących eksperymentach | Oblicz entropię wyniku w następujących eksperymentach: | ||
: a) Rzucamy jedną kostką sześcienną | : a) Rzucamy jedną kostką sześcienną, | ||
: b) Rzucamy dwiema kostkami sześciennymi i sumujemy liczbę oczek | : b) Rzucamy dwiema kostkami sześciennymi i sumujemy liczbę oczek, | ||
: c) Rzucamy symetryczną monetą do uzyskania pierwszego orła. Wynikiem jest liczba wykonanych rzutów | : c) Rzucamy symetryczną monetą do uzyskania pierwszego orła. Wynikiem jest liczba wykonanych rzutów. | ||
}} | }} | ||
Linia 19: | Linia 19: | ||
{{cwiczenie|2 [Entropia funkcji]|ef| | {{cwiczenie|2 [Entropia funkcji]|ef| | ||
Niech X będzie zmienną losową przyjmującą skończoną liczbę wartości. Jaka będzie zależność między entropią X a entropią Y jeśli | Niech X będzie zmienną losową przyjmującą skończoną liczbę wartości. Jaka będzie zależność między entropią X a entropią Y, jeśli: | ||
: a) <math>Y = 2^X</math> | : a) <math>Y = 2^X</math> | ||
: b) <math>Y = \sin X</math> | : b) <math>Y = \sin X</math>? | ||
}} | }} | ||
Linia 47: | Linia 47: | ||
{{cwiczenie|4 [Kombinacja entropii]|ke| | {{cwiczenie|4 [Kombinacja entropii]|ke| | ||
Załóżmy że mamy dwa źródła <math>X</math> i <math>Y</math> o entropiach <math>H(X)</math> i <math>H(Y)</math>, takie że zbiory ich symboli są rozłączne. | Załóżmy, że mamy dwa źródła <math>X</math> i <math>Y</math> o entropiach <math>H(X)</math> i <math>H(Y)</math>, takie że zbiory ich symboli są rozłączne. | ||
Przeprowadzamy losowanie i z prawdopodobieństwem <math>p</math> podajemy symbol ze źródła <math>X</math>, a z prawdopodobieństwem <math>1-p</math> ze źródła <math>Y</math>. | Przeprowadzamy losowanie i z prawdopodobieństwem <math>p</math> podajemy symbol ze źródła <math>X</math>, a z prawdopodobieństwem <math>1-p</math> ze źródła <math>Y</math>. | ||
Jaka jest entropia wyniku takiej procedury?}} | Jaka jest entropia wyniku takiej procedury?}} | ||
Linia 69: | Linia 69: | ||
</div> | </div> | ||
}} | }} | ||
== Zadania domowe == | == Zadania domowe == |
Wersja z 18:29, 17 wrz 2006
Ćwiczenia
Ćwiczenie 1 [Obliczanie entropii]
Oblicz entropię wyniku w następujących eksperymentach:
- a) Rzucamy jedną kostką sześcienną,
- b) Rzucamy dwiema kostkami sześciennymi i sumujemy liczbę oczek,
- c) Rzucamy symetryczną monetą do uzyskania pierwszego orła. Wynikiem jest liczba wykonanych rzutów.
Rozwiązanie
Ćwiczenie 2 [Entropia funkcji]
Niech X będzie zmienną losową przyjmującą skończoną liczbę wartości. Jaka będzie zależność między entropią X a entropią Y, jeśli:
- a)
- b) ?
Rozwiązanie
Ćwiczenie 3 [Losowanie ze zwracaniem i bez]
Rozwiązanie
Ćwiczenie 4 [Kombinacja entropii]
Załóżmy, że mamy dwa źródła i o entropiach i , takie że zbiory ich symboli są rozłączne. Przeprowadzamy losowanie i z prawdopodobieństwem podajemy symbol ze źródła , a z prawdopodobieństwem ze źródła .
Jaka jest entropia wyniku takiej procedury?Rozwiązanie
Zadania domowe
Zadanie 1 - Aksjomatyzacja entropii
Niech będzie funkcją rzeczywistą określoną na rozkładach prawdopodobieństwa, spełniającą warunki:
(a) jest ciągłą funkcją p
(b)
(c) Parser nie mógł rozpoznać (nieznana funkcja „\aligned”): {\displaystyle \aligned H(\langle p_1, \ldots, p_m \rangle)& =H(\langle p_1 + \ldots + p_k, p_{k+1} + \ldots + p_m\rangle)\\ & + (p_1 + \ldots + p_k)H(\langle\frac{p_1}{\sum_{i=1}^k p_i}, \ldots, \frac{p_k}{\sum_{i=1}^k p_i}\rangle)\\ & + (p_{k+1} + \ldots + p_m)H(\langle\frac{p_{k+1}}{\sum_{i=k+1}^m p_i}, \ldots, \frac{p_m}{\sum_{i=k+1}^m p_i}\rangle) \endaligned }
Udowodnij że H jest miarą entropii Shannona. Innymi słowy że z dokładnością do wyboru podstawy logarytmu, jedyną funkcją spełniającą podane warunki jest
Zadanie 2 - Inne miary entropii
W kryptografii używa się często innych miar entropii. Przykładami są:
Definicja [Entropia kolizji]
Entropia kolizji mierzy prawdopodobieństwo że dwie zmienne z danego rozkładu będą sobie równe
Definicja [Entropia minimum]
Entropia minimum mierzy prawdopodobieństwo odgadnięcia wartości zmiennej pochodzącej z danego rozkładu
Udowodnij następujące nierówności:
Zadanie 3 - Nieskończona entropia
W szczególnych przypadkach wartość entropii zmiennej losowej może być nieskończona. Niech dla . c jest tu stałą normalizującą: . Pokaż że c ma skończoną wartość (np. przez ograniczenie jej z góry przez całkę funkcji ), a więc definicja jest sensowna. Pokaż że entropia tak zdefiniowanej zmiennej losowej jest nieskończona.