Teoria informacji/TI Ćwiczenia 2: Różnice pomiędzy wersjami
Nie podano opisu zmian |
m Zastępowanie tekstu – „<math> ” na „<math>” |
||
(Nie pokazano 10 wersji utworzonych przez 3 użytkowników) | |||
Linia 1: | Linia 1: | ||
== Ćwiczenia == | == Ćwiczenia == | ||
{{cwiczenie|1 [Obliczanie entropii]| | {{cwiczenie|1 [Obliczanie entropii]|oe| | ||
Oblicz entropię wyniku w następujących eksperymentach | Oblicz entropię wyniku w następujących eksperymentach: | ||
: a) Rzucamy jedną kostką sześcienną | : a) Rzucamy jedną kostką sześcienną, | ||
: b) Rzucamy dwiema kostkami sześciennymi i sumujemy liczbę oczek | : b) Rzucamy dwiema kostkami sześciennymi i sumujemy liczbę oczek, | ||
: c) Rzucamy symetryczną monetą do uzyskania pierwszego orła. Wynikiem jest liczba wykonanych rzutów | : c) Rzucamy symetryczną monetą do uzyskania pierwszego orła. Wynikiem jest liczba wykonanych rzutów. | ||
}} | }} | ||
{{rozwiazanie||| | {{rozwiazanie||| | ||
}} | |||
<div class="mw-collapsible mw-made=collapsible mw-collapsed"> | <div class="mw-collapsible mw-made=collapsible mw-collapsed"> | ||
<div class="mw-collapsible-content" style="display:none"> | <div class="mw-collapsible-content" style="display:none"> | ||
Linia 15: | Linia 16: | ||
: c) <math>H(X)=\frac{1}{2} \log 2 + \frac{1}{4} \log 4 + \ldots = \sum_{i=1}^{\infty} i2^{-i} = \sum_{i=1}^{\infty} 2^{-i} + \sum_{i=2}^{\infty} 2^{-i} + \ldots = \sum_{i=0}^{\infty} 2^{-i} = 2</math> | : c) <math>H(X)=\frac{1}{2} \log 2 + \frac{1}{4} \log 4 + \ldots = \sum_{i=1}^{\infty} i2^{-i} = \sum_{i=1}^{\infty} 2^{-i} + \sum_{i=2}^{\infty} 2^{-i} + \ldots = \sum_{i=0}^{\infty} 2^{-i} = 2</math> | ||
</div> | </div> | ||
</div> | </div> | ||
{{cwiczenie|2 [Entropia funkcji]| | {{cwiczenie|2 [Entropia funkcji]|ef| | ||
Niech X będzie zmienną losową przyjmującą skończoną liczbę wartości. Jaka będzie zależność między entropią X a entropią Y jeśli | Niech X będzie zmienną losową przyjmującą skończoną liczbę wartości. Jaka będzie zależność między entropią X a entropią Y, jeśli: | ||
: a) <math>Y = 2^X</math> | : a) <math>Y = 2^X</math> | ||
: b) <math>Y = \sin X</math> | : b) <math>Y = \sin X</math>? | ||
}} | }} | ||
{{rozwiazanie||| | {{rozwiazanie||| | ||
}} | |||
<div class="mw-collapsible mw-made=collapsible mw-collapsed"> | <div class="mw-collapsible mw-made=collapsible mw-collapsed"> | ||
<div class="mw-collapsible-content" style="display:none"> | <div class="mw-collapsible-content" style="display:none"> | ||
Linia 30: | Linia 32: | ||
: b) <math>\sin X</math> nie jest funkcją różnowartościową. W ogólności Y może przyjmować takie same wartości dla różnych X. <math>H(Y)\le H(X)</math> | : b) <math>\sin X</math> nie jest funkcją różnowartościową. W ogólności Y może przyjmować takie same wartości dla różnych X. <math>H(Y)\le H(X)</math> | ||
</div> | </div> | ||
</div> | </div> | ||
{{cwiczenie|3 [Losowanie ze zwracaniem i bez]|lzz| | |||
Urna zawiera <math>z</math> zielonych kul, <math>c</math> czerwonych i <math>n</math> niebieskich. Które losowanie da wynik o większej entropii: losowanie <math>k\ge 2</math> kul ze zwracaniem czy bez zwracania?}} | |||
{{rozwiazanie||| | |||
}} | |||
<div class="mw-collapsible mw-made=collapsible mw-collapsed"> | |||
<div class="mw-collapsible-content" style="display:none"> | |||
Większą entropię ma losowanie kul ze zwracaniem. W tym przypadku kolory kolejnych kul są zdarzeniami niezależnymi. | |||
Losując bez zwracania zmniejszamy oczekiwaną entropię każdej kolejnej kuli. | |||
</div> | |||
</div> | |||
=== Zadanie 1 === | {{cwiczenie|4 [Kombinacja entropii]|ke| | ||
Załóżmy, że mamy dwa źródła <math>X</math> i <math>Y</math> o entropiach <math>H(X)</math> i <math>H(Y)</math>, takie że zbiory ich symboli są rozłączne. | |||
Przeprowadzamy losowanie i z prawdopodobieństwem <math>p</math> podajemy symbol ze źródła <math>X</math>, a z prawdopodobieństwem <math>1-p</math> ze źródła <math>Y</math>. | |||
Jaka jest entropia wyniku takiej procedury?}} | |||
{{rozwiazanie||| | |||
}} | |||
<div class="mw-collapsible mw-made=collapsible mw-collapsed"> | |||
<div class="mw-collapsible-content" style="display:none"> | |||
Rozpisujemy: | |||
<center><math> | |||
\begin{align} | |||
H & = - \sum_{s \in S} p(s) \cdot \log {p(s)} \\ | |||
& = - \sum_{s \in X} p \cdot p(s|X) \log (p \cdot p(s|X)) | |||
- \sum_{s \in Y} (1-p) \cdot p(s|Y) \log ((1-p) \cdot p(s|Y)) \\ | |||
& = - p \sum_{s \in X} p(s|X) (\log p + \log p(s|X)) | |||
- (1-p) \sum_{s \in Y} p(s|Y) (\log(1-p) + \log p(s|Y)) \\ | |||
& = -p \log p - (1-p) \log{(1-p)} + p H(X) +(1-p) H(Y)\\ | |||
& = H(p) + p H(X) + (1-p) H(Y) | |||
\end{align} | |||
</math></center> | |||
</div> | |||
</div> | |||
== Zadania domowe == | |||
=== Zadanie 1 - Aksjomatyzacja entropii === | |||
Niech <math>H</math> będzie funkcją rzeczywistą określoną na rozkładach prawdopodobieństwa, spełniającą warunki: | Niech <math>H</math> będzie funkcją rzeczywistą określoną na rozkładach prawdopodobieństwa, spełniającą warunki: | ||
(a) <math> H(\langle p,1-p \rangle)</math> jest ciągłą funkcją p | (a) <math>H(\langle p,1-p \rangle)</math> jest ciągłą funkcją p | ||
(b) <math> H(\langle \frac{1}{mn}, \ldots, \frac{1}{mn} \rangle)= H(\langle \frac{1}{n}, \ldots, \frac{1}{n} \rangle) + H(\langle \frac{1}{m}, \ldots, \frac{1}{m} \rangle) </math> | (b) <math>H(\langle \frac{1}{mn}, \ldots, \frac{1}{mn} \rangle)= H(\langle \frac{1}{n}, \ldots, \frac{1}{n} \rangle) + H(\langle \frac{1}{m}, \ldots, \frac{1}{m} \rangle)</math> | ||
(c) <math>\ | (c) <math>\begin{align} | ||
H(\langle p_1, \ldots, p_m \rangle)& =H(\langle p_1 + \ldots + p_k, p_{k+1} + \ldots + p_m\rangle)\\ | H(\langle p_1, \ldots, p_m \rangle)& =H(\langle p_1 + \ldots + p_k, p_{k+1} + \ldots + p_m\rangle)\\ | ||
& + (p_1 + \ldots + p_k)H(\langle\frac{p_1}{\sum_{i=1}^k p_i}, \ldots, \frac{p_k}{\sum_{i=1}^k p_i}\rangle)\\ | & + (p_1 + \ldots + p_k)H(\langle\frac{p_1}{\sum_{i=1}^k p_i}, \ldots, \frac{p_k}{\sum_{i=1}^k p_i}\rangle)\\ | ||
& + (p_{k+1} + \ldots + p_m)H(\langle\frac{p_{k+1}}{\sum_{i=k+1}^m p_i}, \ldots, \frac{p_m}{\sum_{i=k+1}^m p_i}\rangle) | & + (p_{k+1} + \ldots + p_m)H(\langle\frac{p_{k+1}}{\sum_{i=k+1}^m p_i}, \ldots, \frac{p_m}{\sum_{i=k+1}^m p_i}\rangle) | ||
\ | \end{align} | ||
</math> | </math> | ||
Udowodnij że H jest miarą entropii Shannona. Innymi słowy że z dokładnością do wyboru podstawy logarytmu, jedyną funkcją spełniającą podane warunki jest | Udowodnij, że H jest miarą entropii Shannona. Innymi słowy, że z dokładnością do wyboru podstawy logarytmu, jedyną funkcją spełniającą podane warunki jest | ||
:<math>H(\langle p_1, \ldots, p_m \rangle)= - \sum_{i=1}^{m} p_i \log p_i</math> | :<math>H(\langle p_1, \ldots, p_m \rangle)= - \sum_{i=1}^{m} p_i \log p_i</math> | ||
=== Zadanie 2 - Inne miary entropii === | |||
=== Zadanie 2 === | |||
W kryptografii używa się często innych miar entropii. Przykładami są: | W kryptografii używa się często innych miar entropii. Przykładami są: | ||
{{definicja|[Entropia kolizji]|entropia_kolizji| | {{definicja|[Entropia kolizji]|entropia_kolizji| | ||
'''Entropia kolizji''' mierzy prawdopodobieństwo że dwie zmienne z danego rozkładu będą sobie równe | '''Entropia kolizji''' mierzy prawdopodobieństwo, że dwie zmienne z danego rozkładu będą sobie równe | ||
<center><math>H_2(X)=-\log (\sum_{x \in X} P^2(x))</math></center>}} | <center><math>H_2(X)=-\log (\sum_{x \in X} P^2(x))</math></center>}} | ||
Linia 77: | Linia 112: | ||
=== Zadanie 3 - Nieskończona entropia === | |||
W szczególnych przypadkach wartość entropii zmiennej losowej może być nieskończona. Niech <math>P(X=n)= \frac{1}{c} \cdot \frac{1}{n \log^2 n}</math> dla <math>n = 2, 3, \ldots</math>. <math>c</math> jest tu stałą normalizującą: <math>c = \sum_{n=2}^{\infty} \frac{1}{n \log^2 n}</math>. Pokaż, że <math>c</math> ma skończoną wartość (np. przez ograniczenie jej z góry przez całkę funkcji <math>\frac{1}{x \log^2 x}</math>), a więc definicja jest sensowna. Pokaż, że entropia tak zdefiniowanej zmiennej losowej jest nieskończona. | |||
W szczególnych przypadkach wartość entropii zmiennej losowej może być nieskończona. Niech <math>P(X=n)= \frac{1}{c} \cdot \frac{1}{n \log^2 n}</math> dla <math>n = 2, 3, \ldots </math>. c jest tu stałą normalizującą: <math>c = \sum_{n=2}^{\infty} \frac{1}{n \log^2 n}</math>. Pokaż że c ma skończoną wartość (np. przez ograniczenie jej z góry przez całkę funkcji <math>\frac{1}{x \log^2 x}</math>), a więc definicja jest sensowna. Pokaż że entropia tak zdefiniowanej zmiennej losowej jest nieskończona. |
Aktualna wersja na dzień 22:14, 11 wrz 2023
Ćwiczenia
Ćwiczenie 1 [Obliczanie entropii]
Oblicz entropię wyniku w następujących eksperymentach:
- a) Rzucamy jedną kostką sześcienną,
- b) Rzucamy dwiema kostkami sześciennymi i sumujemy liczbę oczek,
- c) Rzucamy symetryczną monetą do uzyskania pierwszego orła. Wynikiem jest liczba wykonanych rzutów.
Rozwiązanie
Ćwiczenie 2 [Entropia funkcji]
Niech X będzie zmienną losową przyjmującą skończoną liczbę wartości. Jaka będzie zależność między entropią X a entropią Y, jeśli:
- a)
- b) ?
Rozwiązanie
Ćwiczenie 3 [Losowanie ze zwracaniem i bez]
Rozwiązanie
Ćwiczenie 4 [Kombinacja entropii]
Załóżmy, że mamy dwa źródła i o entropiach i , takie że zbiory ich symboli są rozłączne. Przeprowadzamy losowanie i z prawdopodobieństwem podajemy symbol ze źródła , a z prawdopodobieństwem ze źródła .
Jaka jest entropia wyniku takiej procedury?Rozwiązanie
Zadania domowe
Zadanie 1 - Aksjomatyzacja entropii
Niech będzie funkcją rzeczywistą określoną na rozkładach prawdopodobieństwa, spełniającą warunki:
(a) jest ciągłą funkcją p
(b)
(c)
Udowodnij, że H jest miarą entropii Shannona. Innymi słowy, że z dokładnością do wyboru podstawy logarytmu, jedyną funkcją spełniającą podane warunki jest
Zadanie 2 - Inne miary entropii
W kryptografii używa się często innych miar entropii. Przykładami są:
Definicja [Entropia kolizji]
Entropia kolizji mierzy prawdopodobieństwo, że dwie zmienne z danego rozkładu będą sobie równe
Definicja [Entropia minimum]
Entropia minimum mierzy prawdopodobieństwo odgadnięcia wartości zmiennej pochodzącej z danego rozkładu
Udowodnij następujące nierówności:
Zadanie 3 - Nieskończona entropia
W szczególnych przypadkach wartość entropii zmiennej losowej może być nieskończona. Niech dla . jest tu stałą normalizującą: . Pokaż, że ma skończoną wartość (np. przez ograniczenie jej z góry przez całkę funkcji ), a więc definicja jest sensowna. Pokaż, że entropia tak zdefiniowanej zmiennej losowej jest nieskończona.