Teoria informacji/TI Ćwiczenia 2: Różnice pomiędzy wersjami

Z Studia Informatyczne
Przejdź do nawigacjiPrzejdź do wyszukiwania
Stromy (dyskusja | edycje)
Nie podano opisu zmian
Stromy (dyskusja | edycje)
Linia 1: Linia 1:
== Ćwiczenia ==
== Ćwiczenia ==


{{cwiczenie|1 [Obliczanie entropii]|Ćwiczenie 1|
{{cwiczenie|1 [Obliczanie entropii]|oe|
Oblicz entropię wyniku w następujących eksperymentach
Oblicz entropię wyniku w następujących eksperymentach
: a) Rzucamy jedną kostką sześcienną
: a) Rzucamy jedną kostką sześcienną
Linia 18: Linia 18:




{{cwiczenie|2 [Entropia funkcji]|Ćwiczenie 2|
{{cwiczenie|2 [Entropia funkcji]|ef|
Niech X będzie zmienną losową przyjmującą skończoną liczbę wartości. Jaka będzie zależność między entropią X a entropią Y jeśli
Niech X będzie zmienną losową przyjmującą skończoną liczbę wartości. Jaka będzie zależność między entropią X a entropią Y jeśli
: a) <math>Y = 2^X</math>
: a) <math>Y = 2^X</math>
Linia 33: Linia 33:




{{cwiczenie|3 [Losowanie ze zwracaniem i bez]|Ćwiczenie 3|
{{cwiczenie|3 [Losowanie ze zwracaniem i bez]|lzz|
Urna zawiera <math>z</math> zielonych kul, <math>c</math> czerwonych i <math>n</math> niebieskich. Które losowanie da wynik o większej entropii: losowanie <math>k\ge 2</math> kul ze zwracaniem czy bez zwracania?}}
Urna zawiera <math>z</math> zielonych kul, <math>c</math> czerwonych i <math>n</math> niebieskich. Które losowanie da wynik o większej entropii: losowanie <math>k\ge 2</math> kul ze zwracaniem czy bez zwracania?}}


Linia 46: Linia 46:




{{cwiczenie|4 [Kombinacja entropii]|ke|
Załóżmy że mamy dwa źródła <math>X</math> i <math>Y</math> o entropiach <math>H(X)</math> i <math>H(Y)</math>, takie że zbiory ich symboli są rozłączne.
Przeprowadzamy losowanie i z prawdopodobieństwem <math>p</math> podajemy symbol ze źródła <math>X</math>, a z prawdopodobieństwem <math>1-p</math> ze źródła <math>Y</math>.
Jaka jest entropia wyniku takiej procedury?}}
{{rozwiazanie|||
<div class="mw-collapsible mw-made=collapsible mw-collapsed">
<div class="mw-collapsible-content" style="display:none">
Rozpisujemy:
<center><math>
\aligned
H & = - \sum_{s \in S} p(s) \cdot \log {p(s)} \\
& = - \sum_{s \in X} p \cdot p(s|X) \log (p \cdot p(s|X))
- \sum_{s \in Y} (1-p) \cdot p(s|Y) \log ((1-p) \cdot p(s|Y)) \\
& = - p \sum_{s \in X} p(s|X) (\log p + \log p(s|X))
- (1-p) \sum_{s \in Y} p(s|Y) (\log(1-p) + \log p(s|Y)) \\
& = -p \log p - (1-p) \log{(1-p)} + p H(X) +(1-p) H(Y)\\
& = H(p) + p H(X) + (1-p) H(Y)
\endaligned
</math></center>
</div>
</div>
}}


== Zadania domowe ==
== Zadania domowe ==

Wersja z 12:43, 1 wrz 2006

Ćwiczenia

Ćwiczenie 1 [Obliczanie entropii]

Oblicz entropię wyniku w następujących eksperymentach

a) Rzucamy jedną kostką sześcienną
b) Rzucamy dwiema kostkami sześciennymi i sumujemy liczbę oczek
c) Rzucamy symetryczną monetą do uzyskania pierwszego orła. Wynikiem jest liczba wykonanych rzutów

Rozwiązanie

{{{3}}}


Ćwiczenie 2 [Entropia funkcji]

Niech X będzie zmienną losową przyjmującą skończoną liczbę wartości. Jaka będzie zależność między entropią X a entropią Y jeśli

a) Y=2X
b) Y=sinX

Rozwiązanie

{{{3}}}


Ćwiczenie 3 [Losowanie ze zwracaniem i bez]

Urna zawiera z zielonych kul, c czerwonych i n niebieskich. Które losowanie da wynik o większej entropii: losowanie k2 kul ze zwracaniem czy bez zwracania?

Rozwiązanie

{{{3}}}


Ćwiczenie 4 [Kombinacja entropii]

Załóżmy że mamy dwa źródła X i Y o entropiach H(X) i H(Y), takie że zbiory ich symboli są rozłączne. Przeprowadzamy losowanie i z prawdopodobieństwem p podajemy symbol ze źródła X, a z prawdopodobieństwem 1p ze źródła Y.

Jaka jest entropia wyniku takiej procedury?

Rozwiązanie

{{{3}}}

Zadania domowe

Zadanie 1 - Aksjomatyzacja entropii

Niech H będzie funkcją rzeczywistą określoną na rozkładach prawdopodobieństwa, spełniającą warunki:

(a) H(p,1p) jest ciągłą funkcją p

(b) H(1mn,,1mn)=H(1n,,1n)+H(1m,,1m)


(c) Parser nie mógł rozpoznać (nieznana funkcja „\aligned”): {\displaystyle \aligned H(\langle p_1, \ldots, p_m \rangle)& =H(\langle p_1 + \ldots + p_k, p_{k+1} + \ldots + p_m\rangle)\\ & + (p_1 + \ldots + p_k)H(\langle\frac{p_1}{\sum_{i=1}^k p_i}, \ldots, \frac{p_k}{\sum_{i=1}^k p_i}\rangle)\\ & + (p_{k+1} + \ldots + p_m)H(\langle\frac{p_{k+1}}{\sum_{i=k+1}^m p_i}, \ldots, \frac{p_m}{\sum_{i=k+1}^m p_i}\rangle) \endaligned }

Udowodnij że H jest miarą entropii Shannona. Innymi słowy że z dokładnością do wyboru podstawy logarytmu, jedyną funkcją spełniającą podane warunki jest

H(p1,,pm)=i=1mpilogpi


Zadanie 2 - Inne miary entropii

W kryptografii używa się często innych miar entropii. Przykładami są:

Definicja [Entropia kolizji]

Entropia kolizji mierzy prawdopodobieństwo że dwie zmienne z danego rozkładu będą sobie równe

H2(X)=log(xXP2(x))

Definicja [Entropia minimum]

Entropia minimum mierzy prawdopodobieństwo odgadnięcia wartości zmiennej pochodzącej z danego rozkładu

H(X)=logmaxxXP(x)

Udowodnij następujące nierówności:

H(X)H2(X)H(X)H2(X)2


Zadanie 3 - Nieskończona entropia

W szczególnych przypadkach wartość entropii zmiennej losowej może być nieskończona. Niech P(X=n)=1c1nlog2n dla n=2,3,. c jest tu stałą normalizującą: c=n=21nlog2n. Pokaż że c ma skończoną wartość (np. przez ograniczenie jej z góry przez całkę funkcji 1xlog2x), a więc definicja jest sensowna. Pokaż że entropia tak zdefiniowanej zmiennej losowej jest nieskończona.