Teoria informacji/TI Ćwiczenia 2: Różnice pomiędzy wersjami
m Zastępowanie tekstu – „<math> ” na „<math>” |
|||
(Nie pokazano 2 pośrednich wersji utworzonych przez tego samego użytkownika) | |||
Linia 79: | Linia 79: | ||
Niech <math>H</math> będzie funkcją rzeczywistą określoną na rozkładach prawdopodobieństwa, spełniającą warunki: | Niech <math>H</math> będzie funkcją rzeczywistą określoną na rozkładach prawdopodobieństwa, spełniającą warunki: | ||
(a) <math> H(\langle p,1-p \rangle)</math> jest ciągłą funkcją p | (a) <math>H(\langle p,1-p \rangle)</math> jest ciągłą funkcją p | ||
(b) <math> H(\langle \frac{1}{mn}, \ldots, \frac{1}{mn} \rangle)= H(\langle \frac{1}{n}, \ldots, \frac{1}{n} \rangle) + H(\langle \frac{1}{m}, \ldots, \frac{1}{m} \rangle) </math> | (b) <math>H(\langle \frac{1}{mn}, \ldots, \frac{1}{mn} \rangle)= H(\langle \frac{1}{n}, \ldots, \frac{1}{n} \rangle) + H(\langle \frac{1}{m}, \ldots, \frac{1}{m} \rangle)</math> | ||
Linia 94: | Linia 94: | ||
:<math>H(\langle p_1, \ldots, p_m \rangle)= - \sum_{i=1}^{m} p_i \log p_i</math> | :<math>H(\langle p_1, \ldots, p_m \rangle)= - \sum_{i=1}^{m} p_i \log p_i</math> | ||
=== Zadanie 2 - Inne miary entropii === | === Zadanie 2 - Inne miary entropii === | ||
Linia 115: | Linia 114: | ||
=== Zadanie 3 - Nieskończona entropia === | === Zadanie 3 - Nieskończona entropia === | ||
W szczególnych przypadkach wartość entropii zmiennej losowej może być nieskończona. Niech <math>P(X=n)= \frac{1}{c} \cdot \frac{1}{n \log^2 n}</math> dla <math>n = 2, 3, \ldots </math>. <math>c</math> jest tu stałą normalizującą: <math>c = \sum_{n=2}^{\infty} \frac{1}{n \log^2 n}</math>. Pokaż, że <math>c</math> ma skończoną wartość (np. przez ograniczenie jej z góry przez całkę funkcji <math>\frac{1}{x \log^2 x}</math>), a więc definicja jest sensowna. Pokaż, że entropia tak zdefiniowanej zmiennej losowej jest nieskończona. | W szczególnych przypadkach wartość entropii zmiennej losowej może być nieskończona. Niech <math>P(X=n)= \frac{1}{c} \cdot \frac{1}{n \log^2 n}</math> dla <math>n = 2, 3, \ldots</math>. <math>c</math> jest tu stałą normalizującą: <math>c = \sum_{n=2}^{\infty} \frac{1}{n \log^2 n}</math>. Pokaż, że <math>c</math> ma skończoną wartość (np. przez ograniczenie jej z góry przez całkę funkcji <math>\frac{1}{x \log^2 x}</math>), a więc definicja jest sensowna. Pokaż, że entropia tak zdefiniowanej zmiennej losowej jest nieskończona. |
Aktualna wersja na dzień 22:14, 11 wrz 2023
Ćwiczenia
Ćwiczenie 1 [Obliczanie entropii]
Oblicz entropię wyniku w następujących eksperymentach:
- a) Rzucamy jedną kostką sześcienną,
- b) Rzucamy dwiema kostkami sześciennymi i sumujemy liczbę oczek,
- c) Rzucamy symetryczną monetą do uzyskania pierwszego orła. Wynikiem jest liczba wykonanych rzutów.
Rozwiązanie
Ćwiczenie 2 [Entropia funkcji]
Niech X będzie zmienną losową przyjmującą skończoną liczbę wartości. Jaka będzie zależność między entropią X a entropią Y, jeśli:
- a)
- b) ?
Rozwiązanie
Ćwiczenie 3 [Losowanie ze zwracaniem i bez]
Rozwiązanie
Ćwiczenie 4 [Kombinacja entropii]
Załóżmy, że mamy dwa źródła i o entropiach i , takie że zbiory ich symboli są rozłączne. Przeprowadzamy losowanie i z prawdopodobieństwem podajemy symbol ze źródła , a z prawdopodobieństwem ze źródła .
Jaka jest entropia wyniku takiej procedury?Rozwiązanie
Zadania domowe
Zadanie 1 - Aksjomatyzacja entropii
Niech będzie funkcją rzeczywistą określoną na rozkładach prawdopodobieństwa, spełniającą warunki:
(a) jest ciągłą funkcją p
(b)
(c)
Udowodnij, że H jest miarą entropii Shannona. Innymi słowy, że z dokładnością do wyboru podstawy logarytmu, jedyną funkcją spełniającą podane warunki jest
Zadanie 2 - Inne miary entropii
W kryptografii używa się często innych miar entropii. Przykładami są:
Definicja [Entropia kolizji]
Entropia kolizji mierzy prawdopodobieństwo, że dwie zmienne z danego rozkładu będą sobie równe
Definicja [Entropia minimum]
Entropia minimum mierzy prawdopodobieństwo odgadnięcia wartości zmiennej pochodzącej z danego rozkładu
Udowodnij następujące nierówności:
Zadanie 3 - Nieskończona entropia
W szczególnych przypadkach wartość entropii zmiennej losowej może być nieskończona. Niech dla . jest tu stałą normalizującą: . Pokaż, że ma skończoną wartość (np. przez ograniczenie jej z góry przez całkę funkcji ), a więc definicja jest sensowna. Pokaż, że entropia tak zdefiniowanej zmiennej losowej jest nieskończona.