Teoria informacji/TI Wykład 4: Różnice pomiędzy wersjami

Z Studia Informatyczne
Przejdź do nawigacjiPrzejdź do wyszukiwania
m Zastępowanie tekstu - "\aligned" na "\begin{align}"
m Zastępowanie tekstu – „ </math>” na „</math>”
Linia 24: Linia 24:
<center><math>\sum_{p(s) > 0} \frac{1}{r^{\ell (s)}} <1</math></center>
<center><math>\sum_{p(s) > 0} \frac{1}{r^{\ell (s)}} <1</math></center>
to łatwo możemy rozszerzyć definicję <math>\ell</math> na wszystkie ''s'', tak że nierówność Krafta <math>\sum_{s \in S}  \frac{1}{r^{\ell (s)}} \leq 1</math> dalej będzie spełniona. Będzie zatem istniał kod o długościach <math>\ell</math>, spełniający <math>{\ell }(s) < \log_r \frac{1}{p(s)} +1</math> zawsze, gdy <math>p(s)>0</math>, a więc
to łatwo możemy rozszerzyć definicję <math>\ell</math> na wszystkie ''s'', tak że nierówność Krafta <math>\sum_{s \in S}  \frac{1}{r^{\ell (s)}} \leq 1</math> dalej będzie spełniona. Będzie zatem istniał kod o długościach <math>\ell</math>, spełniający <math>{\ell }(s) < \log_r \frac{1}{p(s)} +1</math> zawsze, gdy <math>p(s)>0</math>, a więc
<center><math>\sum_{s \in S} p(s) \cdot {\ell }(s) < \sum_{s \in S} p(s) \cdot \left( \log_r \frac{1}{p(s)} +1 \right) = H_r(S) + 1 </math></center>
<center><math>\sum_{s \in S} p(s) \cdot {\ell }(s) < \sum_{s \in S} p(s) \cdot \left( \log_r \frac{1}{p(s)} +1 \right) = H_r(S) + 1</math></center>


(Pamiętamy o naszej konwencji <math>0 \cdot \log \frac{1}{0} = 0</math>.)
(Pamiętamy o naszej konwencji <math>0 \cdot \log \frac{1}{0} = 0</math>.)
Linia 43: Linia 43:


Kod o długości <math>\ell'</math> spełnia
Kod o długości <math>\ell'</math> spełnia
<center><math>\sum_{s \in S} p(s) \cdot {\ell}' (s) = \sum_{p(s) > 0} p(s) \cdot {\ell}' (s) = p(s') + \sum_{p(s) > 0} p(s) \cdot {\ell} (s) </math></center>
<center><math>\sum_{s \in S} p(s) \cdot {\ell}' (s) = \sum_{p(s) > 0} p(s) \cdot {\ell}' (s) = p(s') + \sum_{p(s) > 0} p(s) \cdot {\ell} (s)</math></center>


<center><math> =  p(s') + H_r (S)</math></center>
<center><math> =  p(s') + H_r (S)</math></center>

Wersja z 10:44, 5 wrz 2023

Minimalna długość kodu - kontynuacja

Aby oszacować Lr(Sn)nHr(S), zaczniemy od uzupełnienia naszej nierówności o górne ograniczenie.

Twierdzenie [Kod Shannona-Fano]

Dla dowolnej skończonej przestrzeni probabilistycznej S i r2, istnieje kod φ:SΣ* (gdzie |Σ|=r), spełniający
L(φ)Hr(S)+1

W ten sposób mamy

Hr(S)Lr(S)Hr(S)+1
Dodatkowo, ścisła nierówność Lr(S)<Hr(S)+1 jest prawdziwa za wyjątkiem przypadku p(s)=1 dla pewnego sS (wtedy Hr(S)=0).

Dowód

Dla |S|=1 mamy trywialnie Hr(S)=0 i Lr(S)=1. Załóżmy że |S|2. Niech
(s)=logr1p(s)

dla tych sS, dla których p(s)>0. Wtedy

p(s)>01r(s)p(s)>0p(s)=sSp(s)=1

Rozważmy kilka przypadków. W najprostszym, kiedy (sS)p(s)>0, powyższa nierówność odpowiada dokładnie nierówności Krafta, a zatem istnieje kod φ spełniający |φ(s)|=(s) dla wszystkich sS. Uwzględniając, że (s)<logr1p(s)+1, dostajemy

sSp(s)(s)<sSp(s)(logr1p(s)+1)=Hr(S)+1.

Załóżmy zatem, że p(s) może być równe 0. Jeśli

p(s)>01r(s)<1

to łatwo możemy rozszerzyć definicję na wszystkie s, tak że nierówność Krafta sS1r(s)1 dalej będzie spełniona. Będzie zatem istniał kod o długościach , spełniający (s)<logr1p(s)+1 zawsze, gdy p(s)>0, a więc

sSp(s)(s)<sSp(s)(logr1p(s)+1)=Hr(S)+1

(Pamiętamy o naszej konwencji 0log10=0.)

Ostatni przypadek to taki, gdy

p(s)>01r(s)=1

Wybierzmy s’, takie że p(s)>0, i zdefiniujmy nowe długości

(s)=(s)+1(s)=(s), dla ss

Znów możemy rozszerzyć na wszystkie s w taki sposób, żeby zachować nierówność Krafta. Aby obliczyć średnią długość kodu musimy zauważyć, że w tym przypadku mieliśmy zawsze (s)=logr1p(s) gdy tylko p(s)>0. (Wynika to z tego, że z definicji musi być 1r(s)p(s) i 1=p(s)>01r(s)=p(s)>0p(s), a więc p(s)=1r(s) gdy p(s)>0.)


Kod o długości spełnia

sSp(s)(s)=p(s)>0p(s)(s)=p(s)+p(s)>0p(s)(s)
=p(s)+Hr(S)
Ostatecznie Lr(S)Hr(S)+1 i nierówność nie jest ostra tylko wtedy, gdy nie istnieje żadne 0<p(s)<1.


Jesteśmy gotowi do sformułowania pierwszego z głównych twierdzeń tego wykładu:


Twierdzenie [Pierwsze Twierdzenie Shannona]

Dla każdej skończonej przestrzeni probabilistycznej S i r2

limnLr(Sn)n=Hr(S).

Dowód

Z poprzedniego twierdzenia

Hr(Sn)Lr(Sn)Hr(Sn)+1

Uwzględniając Hr(Sn)=nHr(S), dostajemy

Hr(S)Lr(Sn)nHr(S)+1n