Teoria informacji/TI Ćwiczenia 2: Różnice pomiędzy wersjami

Z Studia Informatyczne
Przejdź do nawigacjiPrzejdź do wyszukiwania
m Zastępowanie tekstu – „<math> ” na „<math>”
 
(Nie pokazano 2 pośrednich wersji utworzonych przez tego samego użytkownika)
Linia 79: Linia 79:
Niech <math>H</math> będzie funkcją rzeczywistą określoną na rozkładach prawdopodobieństwa, spełniającą warunki:
Niech <math>H</math> będzie funkcją rzeczywistą określoną na rozkładach prawdopodobieństwa, spełniającą warunki:


(a) <math> H(\langle p,1-p \rangle)</math> jest ciągłą funkcją p
(a) <math>H(\langle p,1-p \rangle)</math> jest ciągłą funkcją p


(b) <math> H(\langle \frac{1}{mn}, \ldots, \frac{1}{mn} \rangle)= H(\langle \frac{1}{n}, \ldots, \frac{1}{n} \rangle) + H(\langle \frac{1}{m}, \ldots, \frac{1}{m} \rangle) </math>
(b) <math>H(\langle \frac{1}{mn}, \ldots, \frac{1}{mn} \rangle)= H(\langle \frac{1}{n}, \ldots, \frac{1}{n} \rangle) + H(\langle \frac{1}{m}, \ldots, \frac{1}{m} \rangle)</math>




Linia 94: Linia 94:


:<math>H(\langle p_1, \ldots, p_m \rangle)= - \sum_{i=1}^{m} p_i \log p_i</math>
:<math>H(\langle p_1, \ldots, p_m \rangle)= - \sum_{i=1}^{m} p_i \log p_i</math>


=== Zadanie 2 - Inne miary entropii ===
=== Zadanie 2 - Inne miary entropii ===
Linia 115: Linia 114:
=== Zadanie 3 - Nieskończona entropia ===
=== Zadanie 3 - Nieskończona entropia ===


W szczególnych przypadkach wartość entropii zmiennej losowej może być nieskończona. Niech <math>P(X=n)= \frac{1}{c} \cdot \frac{1}{n \log^2 n}</math> dla <math>n = 2, 3, \ldots </math>. <math>c</math> jest tu stałą normalizującą: <math>c = \sum_{n=2}^{\infty} \frac{1}{n \log^2 n}</math>. Pokaż, że <math>c</math> ma skończoną wartość (np. przez ograniczenie jej z góry przez całkę funkcji <math>\frac{1}{x \log^2 x}</math>), a więc definicja jest sensowna. Pokaż, że entropia tak zdefiniowanej zmiennej losowej jest nieskończona.
W szczególnych przypadkach wartość entropii zmiennej losowej może być nieskończona. Niech <math>P(X=n)= \frac{1}{c} \cdot \frac{1}{n \log^2 n}</math> dla <math>n = 2, 3, \ldots</math>. <math>c</math> jest tu stałą normalizującą: <math>c = \sum_{n=2}^{\infty} \frac{1}{n \log^2 n}</math>. Pokaż, że <math>c</math> ma skończoną wartość (np. przez ograniczenie jej z góry przez całkę funkcji <math>\frac{1}{x \log^2 x}</math>), a więc definicja jest sensowna. Pokaż, że entropia tak zdefiniowanej zmiennej losowej jest nieskończona.

Aktualna wersja na dzień 22:14, 11 wrz 2023

Ćwiczenia

Ćwiczenie 1 [Obliczanie entropii]

Oblicz entropię wyniku w następujących eksperymentach:

a) Rzucamy jedną kostką sześcienną,
b) Rzucamy dwiema kostkami sześciennymi i sumujemy liczbę oczek,
c) Rzucamy symetryczną monetą do uzyskania pierwszego orła. Wynikiem jest liczba wykonanych rzutów.

Rozwiązanie


Ćwiczenie 2 [Entropia funkcji]

Niech X będzie zmienną losową przyjmującą skończoną liczbę wartości. Jaka będzie zależność między entropią X a entropią Y, jeśli:

a) Y=2X
b) Y=sinX?

Rozwiązanie


Ćwiczenie 3 [Losowanie ze zwracaniem i bez]

Urna zawiera z zielonych kul, c czerwonych i n niebieskich. Które losowanie da wynik o większej entropii: losowanie k2 kul ze zwracaniem czy bez zwracania?

Rozwiązanie


Ćwiczenie 4 [Kombinacja entropii]

Załóżmy, że mamy dwa źródła X i Y o entropiach H(X) i H(Y), takie że zbiory ich symboli są rozłączne. Przeprowadzamy losowanie i z prawdopodobieństwem p podajemy symbol ze źródła X, a z prawdopodobieństwem 1p ze źródła Y.

Jaka jest entropia wyniku takiej procedury?

Rozwiązanie

Zadania domowe

Zadanie 1 - Aksjomatyzacja entropii

Niech H będzie funkcją rzeczywistą określoną na rozkładach prawdopodobieństwa, spełniającą warunki:

(a) H(p,1p) jest ciągłą funkcją p

(b) H(1mn,,1mn)=H(1n,,1n)+H(1m,,1m)


(c) H(p1,,pm)=H(p1++pk,pk+1++pm)+(p1++pk)H(p1i=1kpi,,pki=1kpi)+(pk+1++pm)H(pk+1i=k+1mpi,,pmi=k+1mpi)

Udowodnij, że H jest miarą entropii Shannona. Innymi słowy, że z dokładnością do wyboru podstawy logarytmu, jedyną funkcją spełniającą podane warunki jest

H(p1,,pm)=i=1mpilogpi

Zadanie 2 - Inne miary entropii

W kryptografii używa się często innych miar entropii. Przykładami są:

Definicja [Entropia kolizji]

Entropia kolizji mierzy prawdopodobieństwo, że dwie zmienne z danego rozkładu będą sobie równe

H2(X)=log(xXP2(x))

Definicja [Entropia minimum]

Entropia minimum mierzy prawdopodobieństwo odgadnięcia wartości zmiennej pochodzącej z danego rozkładu

H(X)=logmaxxXP(x)

Udowodnij następujące nierówności:

H(X)H2(X)H(X)H2(X)2


Zadanie 3 - Nieskończona entropia

W szczególnych przypadkach wartość entropii zmiennej losowej może być nieskończona. Niech P(X=n)=1c1nlog2n dla n=2,3,. c jest tu stałą normalizującą: c=n=21nlog2n. Pokaż, że c ma skończoną wartość (np. przez ograniczenie jej z góry przez całkę funkcji 1xlog2x), a więc definicja jest sensowna. Pokaż, że entropia tak zdefiniowanej zmiennej losowej jest nieskończona.