Teoria informacji/TI Wykład 1: Różnice pomiędzy wersjami
m TI Wykład 1 moved to Teoria informacji/TI Wykład 1: Przeniesienie na podstronę wykładu |
Nie podano opisu zmian |
||
Linia 11: | Linia 11: | ||
Zauważmy że w przeciwieństwie do słów w języku naturalnym, liczby całkowite w systemie dziesiętnym są „ciasno upakowane”. Dowolny ciąg znaków ze zbioru {0, 1, …, 9} jest jakąś liczbą (o ile nie zaczyna się od zera), ale bardzo niewiele ciągów z liter {a, b, …, z} jest sensownymi słowami. Wynika to między innymi z tego że nasze „algorytmy” do komunikacji za pomocą słów wymagają znacznie więcej redundancji niż te do operowania liczbami. Tę redundancję szczególnie widać gdy jest ona wykorzystywana celowo: | Zauważmy że w przeciwieństwie do słów w języku naturalnym, liczby całkowite w systemie dziesiętnym są „ciasno upakowane”. Dowolny ciąg znaków ze zbioru {0, 1, …, 9} jest jakąś liczbą (o ile nie zaczyna się od zera), ale bardzo niewiele ciągów z liter {a, b, …, z} jest sensownymi słowami. Wynika to między innymi z tego że nasze „algorytmy” do komunikacji za pomocą słów wymagają znacznie więcej redundancji niż te do operowania liczbami. Tę redundancję szczególnie widać gdy jest ona wykorzystywana celowo: | ||
Przykład: Wypełniając czek wpisujemy kwotę zarówno przy pomocy liczb, jak i słownie. Zajmuje to oczywiście znacznie więcej miejsca, ale dzięki temu | Przykład: Wypełniając czek wpisujemy kwotę zarówno przy pomocy liczb, jak i słownie. Zajmuje to oczywiście znacznie więcej miejsca, ale dzięki temu nie musimy obawiać się że jakaś literówka zmieni wartość wpisanej kwoty. | ||
Linia 19: | Linia 19: | ||
Zacznijmy od podstaw. Czy istnieją wiadomości których nie da się zapisać zwięźlej? Dowolną wiadomość możemy traktować jako ciąg bitów, czyli po prostu liczbę naturalną. | Zacznijmy od podstaw. Czy istnieją wiadomości których nie da się zapisać zwięźlej? Dowolną wiadomość możemy traktować jako ciąg bitów, czyli po prostu liczbę naturalną. Liczby naturalne można oczywiście zapisywać na wiele sposobów, i co więcej nie możemy zajmować się nimi wszystkimi „w ogólności”. Prowadzi do paradoksów: | ||
''Niech | Rozważmy przykładowe zdanie ('''paradoks Berrego'''): | ||
''Niech ''n'' będzie najmniejszą liczbą naturalną której nie da się zdefiniować za pomocą mniej niż dwudziestu słów.'' | |||
Dwadzieścia słów można dobrać tylko na skończenie wiele sposobów. Nawet gdyby każdy sposób definiował inną liczbę, pozostaje nieskończenie wiele liczb których zdefiniować tak się nie daje. Wśród nich któraś jest najmniejsza, i właśnie ją zdefiniowaliśmy za pomocą mniej niż dwudziestu słów – sprzeczność. | Dwadzieścia słów można dobrać tylko na skończenie wiele sposobów. Nawet gdyby każdy sposób definiował inną liczbę, pozostaje nieskończenie wiele liczb których zdefiniować tak się nie daje. Wśród nich któraś jest najmniejsza, i właśnie ją zdefiniowaliśmy za pomocą mniej niż dwudziestu słów – sprzeczność. | ||
Istotne jest zatem prawidłowe zdefiniowanie notacji, która służy nam do definiowania liczb. | Istotne jest zatem prawidłowe zdefiniowanie notacji, która służy nam do definiowania liczb. Aby uniknąć paradoksów takich jak wyżej, notacja nie może być częścią badanego obiektu. Musi być czymś zewnętrznym, nadanym w celu rozróżniania pomiędzy obiektami. | ||
''' | {{definicja|[Notacja]|Notacja| '''Notacją''' dla ''S'' nazywamy dowolną różnowartościową funkcję <math>\alpha:S \to \Sigma^*</math> gdzie <math>\Sigma</math> jest skończonym alfabetem. | ||
}} | |||
{{fakt||fakt_notacji| Jeśli <math> |S| = m \ge 1</math> i <math>|\Sigma|=r\ge2</math> to dla pewnego <math>s \in S</math> zachodzi: | |||
:<math>|\alpha(s)|\ge \lfloor log_r m \rfloor</math> | :<math>|\alpha(s)|\ge \lfloor log_r m \rfloor</math> | ||
}} | |||
'''Dowód: ''' | '''Dowód: ''' | ||
Linia 41: | Linia 43: | ||
:<math>1 + r + r^2 + \ldots + r^{k-1}=\frac{r^k-1}{r-1}<r^k </math> | :<math>1 + r + r^2 + \ldots + r^{k-1}=\frac{r^k-1}{r-1}<r^k </math> | ||
Podstawiając <math>k=\lfloor log_r m \rfloor </math> stwierdzamy że nie ma wystarczająco wiele ciągów krótszych niż ''k'' do oznaczenia wszystkich elementów ''S''. | Podstawiając <math>k=\lfloor log_r m \rfloor </math>, stwierdzamy że nie ma wystarczająco wiele ciągów krótszych niż ''k'' do oznaczenia wszystkich elementów ''S''. | ||
QED. | QED. | ||
{{wniosek||wniosek_notacji| Jeśli <math>\alpha: N\to \Sigma^*</math> jest dowolną notacją dla liczb naturalnych, to dla nieskończenie wielu ''n'' musi zajść: <math>\alpha(n)> \lfloor log_r n \rfloor </math>. | |||
}} | |||
'''Dowód: ''' Wybierzmy ''m'' takie że <math>\lfloor log_r m \rfloor > |\alpha(0)| </math>. Z powyższego Faktu, dla pewnego <math>i_0 \in \{0, 1, \ldots, m-1\}</math> mamy <math>|\alpha(i_0)|\ge \lfloor log_r m \rfloor>\lfloor log_r i_0 \rfloor </math>. Z tego wynika również że <math>i_0>0</math>. | '''Dowód: ''' Wybierzmy ''m'' takie że <math>\lfloor log_r m \rfloor > |\alpha(0)| </math>. Z powyższego Faktu, dla pewnego <math>i_0 \in \{0, 1, \ldots, m-1\}</math> mamy <math>|\alpha(i_0)|\ge \lfloor log_r m \rfloor>\lfloor log_r i_0 \rfloor </math>. Z tego wynika również że <math>i_0>0</math>. | ||
Wybierzmy teraz ''m’'' takie że <math>\lfloor log_r m' \rfloor > |a(i_0)| </math>. Znów musi istnieć <math>i_1 \in \{0, 1, \ldots, m'-1\}</math> takie że <math>|a(i_1)|\ge \lfloor log_r m' \rfloor>\lfloor log_r i_1 \rfloor</math>. Analogicznie <math>i_1>i_0</math>. I tak dalej. QED. | Wybierzmy teraz ''m’'' takie że <math>\lfloor log_r m' \rfloor > |a(i_0)| </math>. Znów musi istnieć <math>i_1 \in \{0, 1, \ldots, m'-1\}</math> takie że <math>|a(i_1)|\ge \lfloor log_r m' \rfloor>\lfloor log_r i_1 \rfloor</math>. Analogicznie <math>i_1>i_0</math>. I tak dalej. | ||
QED. | |||
Jako zastosowanie, możemy podać teorioinformacyjny dowód znanego faktu: | Jako zastosowanie, możemy podać teorioinformacyjny dowód znanego faktu: | ||
''' | {{fakt|(Euklides)|euklides|Istnieje nieskończenie wiele liczb pierwszych.}} | ||
'''Dowód: ''' Załóżmy przeciwnie, że istnieje tylko ''M'' liczb pierwszych: <math>p_1, p_2, \ldots , p_M</math>. Wprowadzamy notację <math>\alpha: \mathbb{N} \to \{0,1,\#\}^* </math> w następujący sposób: Dla <math>n = p_1^{\beta_1}p_2^{\beta _2}\ldots p_M^{\beta _M}</math> niech | |||
:<math>\alpha(n) = bin(\beta _1)\#bin(\beta _2)\# \ldots \#bin(\beta _M)</math> | :<math>\alpha(n) = bin(\beta _1)\#bin(\beta _2)\# \ldots \#bin(\beta _M)</math> | ||
Linia 63: | Linia 68: | ||
Ponieważ <math>2^{\beta _i}\le p_i^{\beta _i}\le n</math>, mamy <math>\beta _i \le log_2 n</math>, dla wszystkich ''i''. A zatem | Ponieważ <math>2^{\beta _i}\le p_i^{\beta _i}\le n</math>, mamy <math>\beta _i \le log_2 n</math>, dla wszystkich ''i''. A zatem | ||
:<math>|\alpha(n)|\le M(1+\log_2 \log_2 n) </math> | :<math>|\alpha(n)|\le M(1+\log_2 \log_2 n) </math> | ||
dla wszystkich ''n'', co oczywiście przeczy twierdzeniu że dla nieskończenie wielu ''n'' <math>|a(n)|\ge \log_3 n</math>. QED | dla wszystkich ''n'', co oczywiście przeczy twierdzeniu że dla nieskończenie wielu ''n'' <math>|a(n)|\ge \log_3 n</math>. | ||
QED. | |||
Linia 75: | Linia 81: | ||
Mając dany wynikowy ciąg znaków, kluczowe znaczenie ma czy potrafimy odtworzyć jednoznacznie ciąg argumentów. | Mając dany wynikowy ciąg znaków, kluczowe znaczenie ma czy potrafimy odtworzyć jednoznacznie ciąg argumentów. | ||
{{definicja|[Kod]|kod| Odwzorowanie <math> \varphi : S \to \Sigma^*</math> dla skończonego niepustego zbioru ''S'' jest '''kodem''', jeśli jego naturalne rozszerzenie do morfizmu <math> \hat\varphi</math> jest różnowartościowe. Mówimy że kod jest '''bezprefiksowy''' jeśli dodatkowo <math> \hat\varphi(s) \not\leq \hat\varphi(s') </math> dla <math>s \neq s'</math>. | |||
}} | |||
Jak widać własność bezprefiksowości zależy wyłącznie od postaci zbioru <math>\varphi(S)</math>. Ponadto dla każdego kodu <math>\varepsilon \not\in \varphi (S)</math>. | Jak widać własność bezprefiksowości zależy wyłącznie od postaci zbioru <math>\varphi(S)</math>. Ponadto dla każdego kodu <math>\varepsilon \not\in \varphi (S)</math>. | ||
Linia 87: | Linia 96: | ||
Czasem możemy jednak wymyśleć bardziej efektywne kodowanie. Jeśli wiemy że jakieś obiekty z ''S'' pojawiają się częściej, możemy im przyporządkować krótsze ciągi znaków. W ten sposób średnio możemy uzyskać mniejsze <math>|\varphi(w)| </math>. | Czasem możemy jednak wymyśleć bardziej efektywne kodowanie. Jeśli wiemy że jakieś obiekty z ''S'' pojawiają się częściej, możemy im przyporządkować krótsze ciągi znaków. W ten sposób średnio możemy uzyskać mniejsze <math>|\varphi(w)| </math>. | ||
Bliską analogią jest tu ''Gra w 20 pytań''. W tej grze jedna osoba wymyśla obiekt o (w domyśle z jakiegoś dużego zbioru możliwości ''S''), a druga osoba stara się zgadnąć jaki to obiekt przez zadawanie pytań ( | Bliską analogią jest tu ''Gra w 20 pytań''. W tej grze jedna osoba wymyśla obiekt o (w domyśle z jakiegoś dużego zbioru możliwości ''S''), a druga osoba stara się zgadnąć jaki to obiekt przez zadawanie pytań (co najwyżej 20), na które odpowiedzą może być tylko ''tak'' lub ''nie''. Tym samym pytania są tak naprawdę postaci <math>o \in S'</math>?, gdzie <math>S' \subseteq S</math>. | ||
Linia 96: | Linia 105: | ||
Zapiszmy to formalnie. ''Drzewem nad zbiorem X'' (albo krócej 'X-drzewem'), będziemy nazywać dowolny niepusty zbiór <math>T \subseteq X^*</math> zamknięty na operację brania prefiksu. Relację bycia prefiksem będziemy oznaczać przez <math>\le</math>. W X-drzewie dowolny element ''w'' jest ''węzłem'' rzędu |''w''|, <math>\varepsilon</math> jest ''korzeniem'', <math>\le</math>-maksymalne węzły są ''liśćmi''. | |||
Dodatkowo będziemy posługiwać się następującymi pojęciami: dla dowolnego <math>w \in T</math>, <math>x \in X</math> i <math>v \in X^*</math>: | Dodatkowo będziemy posługiwać się następującymi pojęciami: dla dowolnego <math>w \in T</math>, <math>x \in X</math> i <math>v \in X^*</math>: | ||
* ''wx'' jest ''bezpośrednim następnikiem'' (lub ''dzieckiem'') ''w'' | * ''wx'' jest ''bezpośrednim następnikiem'' (lub ''dzieckiem'') ''w'' | ||
Linia 112: | Linia 115: | ||
Korzystając z tych definicji, możemy powiedzieć że dowolny bezprefiksowy kod <math>\varphi:S\to \Sigma^*</math> indukuje drzewo nad <math>\Sigma</math>: :<math>T_\varphi = \{w: \exists s: w \le \varphi(s)\}</math>. | Korzystając z tych definicji, możemy powiedzieć że dowolny bezprefiksowy kod <math>\varphi:S\to \Sigma^*</math> indukuje drzewo nad <math>\Sigma</math>: :<math>T_\varphi = \{w: \exists s: w \le \varphi(s)\}</math>. | ||
W drugą stronę, dowolne drzewo <math>T \subset \Sigma^*</math> z |S| liśćmi indukuje bezprefiksowy kod nad ''S'' (z dokładnością do permutacji elementów zbioru ''S''). | W drugą stronę, dowolne drzewo <math>T \subset \Sigma^*</math> z |S| liśćmi indukuje bezprefiksowy kod nad ''S'' (z dokładnością do permutacji elementów zbioru ''S''). | ||
Jak wspominaliśmy wcześniej, naszym zadaniem jest optymalizacja długości kodu, jednocześnie zabezpieczając się na przekłamania w czasie transmisji. Pierwszym krokiem będzie sprawdzenie jak krótkie mogą być długości słów kodowych. | |||
Dla danego kodu <math>\varphi:S\to \Sigma^*</math>, niech <math>|\varphi|:S \to \mathbb{N}</math> określa ''funkcję długości'', zdefiniowaną jako <math>|\varphi|(s)= |\varphi(s)|</math>. | |||
{{twierdzenie|[Nierówność Krafta]|kraft| Niech <math>2 \le |S| < \infty </math> i niech <math>|\Sigma|=r</math>. Funkcja <math>\ell:S \to \mathbb{N}</math> jest funkcją długości (<math>\ell = |\varphi|</math>) dla pewnego bezprefiksowego kodu <math>\varphi:S\to \Sigma^*</math> wtedy i tylko wtedy gdy: | |||
:<math>\sum_{s \in S} \frac{1}{r^{\ell (s)}} \leq 1.</math> | |||
}} | |||
'''Dowód: ''' | |||
<math>\Rightarrow</math> | |||
Jeśli wszystkie słowa <math>\varphi(S)</math> mają tą samą długość ''k'', to uwzględniając różnowartościowość <math>\varphi</math> dostajemy | |||
<math>\sum_{s \in S} \frac{1}{r^{|\varphi (s)|}} \leq \frac{r^k}{r^k} = 1.</math> | |||
Jeśli teraz mamy słowa różnej długości, to oznaczmy przez ''k'' maksymalną długość <math>\varphi(s)</math>. Następnie dla każdego ''s'' mierzymy długość jego kodu <math>|\varphi (s)| = i</math> i definiujemy | |||
:<math>P_s = \{ \varphi (s) v : v \in \Sigma^{k-i} \}</math> | |||
(czyli zbiór wszystkich liści na poziomie ''k'' poniżej <math>\varphi(s)</math> w pełnym <math>\Sigma</math>-drzewie). Łatwo teraz zauważyć że podmienienie <math>\varphi(s)</math> na cały zbiór <math>P_s</math> nie zmieni sumy: | |||
:<math>\sum_{w \in P_s} \frac{1}{r^{|w|}} = \frac{r^{k-i}}{r^{k}} = \frac{1}{r^i}</math>, | |||
a zbiory <math>P_s</math>,<math>P_{s'}</math> są parami rozłączne. Tym samym | |||
:<math>\sum_{s \in S} \frac{1}{r^{|\varphi (s)|}} = \sum_{s \in S} \sum_{w \in P_s} \frac{1}{r^{|w|}} \leq \frac{r^k}{r^k} = 1</math> | |||
<math>\Leftarrow</math> | |||
Posortujmy elementy zbioru S względem rosnącej długości ich kodów <math>\ell (s)</math>, tak że <math>\ell (s_1 ) \leq \ldots \leq \ell (s_m )</math>. Indukcyjnie dla <math>i = 0,1, \ldots ,m-1</math> będziemy definiować <math> \varphi (s_{i+1})</math> jako ''leksykograficznie'' pierwsze słowo długości <math>\ell(s_{i+1})</math> które nie jest porównywalne z żadnym ze słów <math>\varphi (s_1), \ldots , \varphi (s_i)</math> (względem porządku prefiksowego). Jedyne co musimy pokazać to że takie słowo zawsze istnieje. Tak jak w poprzednim przypadku, oznaczmy przez <math>P_{s_j}</math> zbiór wszystkich węzłów rzędu <math>\ell(s_{i+1})</math> poniżej <math>\varphi(s_j)</math>. Łatwo sprawdzić że <math>|P_{s_j}| = r^{\ell (i+1)-\ell (j)}</math>. Warunkiem koniecznym i wystarczającym do istnienia szukanego wierzchołka jest | |||
:<math> r^{\ell (i+1)-\ell (1)} + r^{\ell (i+1)-\ell (2)}+ \ldots + r^{\ell (i+1)-\ell (i)} < r^{\ell (i+1)}</math> | |||
co można zapisać jako | |||
:<math> \frac{1}{r^{\ell (1)}} + \frac{1}{r^{\ell (2)}}+ \ldots + \frac{1}{r^{\ell (i)}} < 1</math> | |||
To z kolej jest spełnione na mocy założenia dla każdego <math>i<m</math>. QED | |||
Jeśli kod nie jest bezprefiksowy, nierówność Krafta wciąż jest spełniona, co można pokazać za pomocą sprytnej techniki. | |||
{{twierdzenie|(Mcmillan)|McMillan| Dla dowolnego kodu <math>\varphi : S \to \Sigma^*</math> istnieje bezprefiksowy kod <math>\varphi'</math> dla którego <math>|\varphi | = |\varphi'|</math> | |||
}} | |||
'''Dowód:''' Przypadek <math>|S| = 1</math> jest trywialny. Dla <math>|S|\ge 2</math> musi zachodzić również <math>r=|\Sigma| \ge 2</math>. Wystarczy wtedy pokazać że <math>\varphi</math> spełnia nierówność Krafta. Wprowadźmy oznaczenie <math> K = \sum_{s \in S} \frac{1}{r^{|\varphi (s)|}}</math> i załóżmy że ta nierówność nie jest spełniona, czyli <math>K>1</math>. Niech <math>\mathit{Min} = \min \{ |\varphi (s)| : s \in S \}</math>, <math>\mathit{Max} = \max \{ |\varphi (s)| : s \in S \}</math>. Rozważmy teraz | |||
:<math>K^n = \left( \sum_{s \in S} \frac{1}{r^{|\varphi (s)|}} \right)^n = \sum_{i = \mathit{Min} \cdot n}^{\mathit{Max}\cdot n} \frac{N_{n,i}}{r^i}</math> | |||
Gdzie <math>N_{n,i}</math> jest liczbą sekwencji <math>q_1, \ldots ,q_n \in S^n</math> takich że <math>i = |\varphi (q_1)| + \ldots + |\varphi (q_n)| =| \varphi (q_1 \ldots q_n)|</math>. Z warunku że <math>\varphi</math> jest kodem, wynika że każda sekwencja odpowiada innemu słowu długości i, a więc takich sekwencji jest nie więcej niż słów. | |||
:<math>\frac{N_{n,i}}{r^i} \leq 1</math> | |||
Stąd otrzymujemy | |||
:<math>K^n \leq (\mathit{Max} - \mathit{Min}) \cdot n +1</math> | |||
co dla wystarczająco dużego n musi być fałszem, ponieważ funkcja wykładnicza rośnie szybciej niż liniowa. W konsekwencji mamy <math>K \leq 1</math>. QED. |
Wersja z 11:26, 15 lip 2006
Je n’ai fait celle-ci plus longue que parce que je n’ai pas eu le loisir de la faire plus courte.
(Napisałem ten list trochę dłuższy, gdyż nie miałem czasu napisać go krócej).
Blaise Pascal, Lettres provinciales, 1657
Notacja, co to takiego?
Zaczynamy od prostego eksperymentu: Odgadnij słowo o którym ktoś myśli – na przykład zgadując literę po literze. Czy będzie to równie łatwe w przypadku odgadywania liczby? Zauważmy że w przeciwieństwie do słów w języku naturalnym, liczby całkowite w systemie dziesiętnym są „ciasno upakowane”. Dowolny ciąg znaków ze zbioru {0, 1, …, 9} jest jakąś liczbą (o ile nie zaczyna się od zera), ale bardzo niewiele ciągów z liter {a, b, …, z} jest sensownymi słowami. Wynika to między innymi z tego że nasze „algorytmy” do komunikacji za pomocą słów wymagają znacznie więcej redundancji niż te do operowania liczbami. Tę redundancję szczególnie widać gdy jest ona wykorzystywana celowo:
Przykład: Wypełniając czek wpisujemy kwotę zarówno przy pomocy liczb, jak i słownie. Zajmuje to oczywiście znacznie więcej miejsca, ale dzięki temu nie musimy obawiać się że jakaś literówka zmieni wartość wpisanej kwoty.
Teoria informacji charakteryzuje w sposób matematyczny sposoby zapisywania, transmitowana i odtwarzania informacji. W szczególności zajmuje się godzeniem dwóch przeciwstawnych celów:
- zapisywania wiadomości jak najzwięźlej
- chronienia wiadomości przed przekłamaniami podczas transmisji
Zacznijmy od podstaw. Czy istnieją wiadomości których nie da się zapisać zwięźlej? Dowolną wiadomość możemy traktować jako ciąg bitów, czyli po prostu liczbę naturalną. Liczby naturalne można oczywiście zapisywać na wiele sposobów, i co więcej nie możemy zajmować się nimi wszystkimi „w ogólności”. Prowadzi do paradoksów:
Rozważmy przykładowe zdanie (paradoks Berrego):
Niech n będzie najmniejszą liczbą naturalną której nie da się zdefiniować za pomocą mniej niż dwudziestu słów.
Dwadzieścia słów można dobrać tylko na skończenie wiele sposobów. Nawet gdyby każdy sposób definiował inną liczbę, pozostaje nieskończenie wiele liczb których zdefiniować tak się nie daje. Wśród nich któraś jest najmniejsza, i właśnie ją zdefiniowaliśmy za pomocą mniej niż dwudziestu słów – sprzeczność.
Istotne jest zatem prawidłowe zdefiniowanie notacji, która służy nam do definiowania liczb. Aby uniknąć paradoksów takich jak wyżej, notacja nie może być częścią badanego obiektu. Musi być czymś zewnętrznym, nadanym w celu rozróżniania pomiędzy obiektami.
Definicja [Notacja]
Fakt
Dowód: Ciągów znaków z o długości mniejszej niż k jest:
Podstawiając , stwierdzamy że nie ma wystarczająco wiele ciągów krótszych niż k do oznaczenia wszystkich elementów S. QED.
Wniosek
Dowód: Wybierzmy m takie że . Z powyższego Faktu, dla pewnego mamy . Z tego wynika również że .
Wybierzmy teraz m’ takie że . Znów musi istnieć takie że . Analogicznie . I tak dalej. QED.
Jako zastosowanie, możemy podać teorioinformacyjny dowód znanego faktu:
Fakt (Euklides)
Dowód: Załóżmy przeciwnie, że istnieje tylko M liczb pierwszych: . Wprowadzamy notację w następujący sposób: Dla niech
gdzie jest zwykłym zapisem binarnym liczby (a więc ).
Ponieważ , mamy , dla wszystkich i. A zatem
dla wszystkich n, co oczywiście przeczy twierdzeniu że dla nieskończenie wielu n . QED.
Kody
Niektóre własności notacji mają szczególne znaczenie dla ich praktycznego zastosowania. Przyjrzyjmy się na przykład co się dzieje jeśli w naturalny sposób rozszerzymy notację do morfizmu :
Mając dany wynikowy ciąg znaków, kluczowe znaczenie ma czy potrafimy odtworzyć jednoznacznie ciąg argumentów.
Definicja [Kod]
Jak widać własność bezprefiksowości zależy wyłącznie od postaci zbioru . Ponadto dla każdego kodu .
Łatwo zauważyć że każdy zbiór bezprefiksowy jest kodem. Istnieją oczywiście kody które nie są bezprefiksowe (np. dla ), a nie każda notacja jest kodem (np. dla ).
W dalszej części będziemy omijać daszek i utożsamiać z .
Aby kodować zbiór S o m elementach za pomocą alfabetu o r elementach (dla ), wystarczy oczywiście używać ciągów długości . Wtedy , dla dowolnego .
Czasem możemy jednak wymyśleć bardziej efektywne kodowanie. Jeśli wiemy że jakieś obiekty z S pojawiają się częściej, możemy im przyporządkować krótsze ciągi znaków. W ten sposób średnio możemy uzyskać mniejsze .
Bliską analogią jest tu Gra w 20 pytań. W tej grze jedna osoba wymyśla obiekt o (w domyśle z jakiegoś dużego zbioru możliwości S), a druga osoba stara się zgadnąć jaki to obiekt przez zadawanie pytań (co najwyżej 20), na które odpowiedzą może być tylko tak lub nie. Tym samym pytania są tak naprawdę postaci ?, gdzie .
Łatwo zauważyć że pytań wystarczy do zidentyfikowania dowolnego obiektu w S. Czy da się to zrobić lepiej? W ogólności oczywiście nie. Dowolną strategię zadawania pytań możemy sobie wyobrazić jako drzewo binarne, z pytaniem w każdym wierzchołku i rozwiązaniami w liściach. Jeśli liści jest , to drzewo musi oczywiście mieć głębokość co najmniej k. Jednak jeśli niektóre rozwiązania są bardziej prawdopodobne niż inne, możemy zmniejszyć oczekiwaną liczbę pytań. (Faktycznie dopiero taka wersja tej gry jest interesująca.)
Zapiszmy to formalnie. Drzewem nad zbiorem X (albo krócej 'X-drzewem'), będziemy nazywać dowolny niepusty zbiór zamknięty na operację brania prefiksu. Relację bycia prefiksem będziemy oznaczać przez . W X-drzewie dowolny element w jest węzłem rzędu |w|, jest korzeniem, -maksymalne węzły są liśćmi.
Dodatkowo będziemy posługiwać się następującymi pojęciami: dla dowolnego , i :
- wx jest bezpośrednim następnikiem (lub dzieckiem) w
- wv jest poniżej w
- zbiór nazywamy poddrzewem indukowanym przez w
Korzystając z tych definicji, możemy powiedzieć że dowolny bezprefiksowy kod indukuje drzewo nad : :.
W drugą stronę, dowolne drzewo z |S| liśćmi indukuje bezprefiksowy kod nad S (z dokładnością do permutacji elementów zbioru S).
Jak wspominaliśmy wcześniej, naszym zadaniem jest optymalizacja długości kodu, jednocześnie zabezpieczając się na przekłamania w czasie transmisji. Pierwszym krokiem będzie sprawdzenie jak krótkie mogą być długości słów kodowych.
Dla danego kodu , niech określa funkcję długości, zdefiniowaną jako .
Twierdzenie [Nierówność Krafta]
Dowód:
Jeśli wszystkie słowa mają tą samą długość k, to uwzględniając różnowartościowość dostajemy
Jeśli teraz mamy słowa różnej długości, to oznaczmy przez k maksymalną długość . Następnie dla każdego s mierzymy długość jego kodu i definiujemy
(czyli zbiór wszystkich liści na poziomie k poniżej w pełnym -drzewie). Łatwo teraz zauważyć że podmienienie na cały zbiór nie zmieni sumy:
- ,
a zbiory , są parami rozłączne. Tym samym
Posortujmy elementy zbioru S względem rosnącej długości ich kodów , tak że . Indukcyjnie dla będziemy definiować jako leksykograficznie pierwsze słowo długości które nie jest porównywalne z żadnym ze słów (względem porządku prefiksowego). Jedyne co musimy pokazać to że takie słowo zawsze istnieje. Tak jak w poprzednim przypadku, oznaczmy przez zbiór wszystkich węzłów rzędu poniżej . Łatwo sprawdzić że . Warunkiem koniecznym i wystarczającym do istnienia szukanego wierzchołka jest
co można zapisać jako
To z kolej jest spełnione na mocy założenia dla każdego . QED
Jeśli kod nie jest bezprefiksowy, nierówność Krafta wciąż jest spełniona, co można pokazać za pomocą sprytnej techniki.
Twierdzenie (Mcmillan)
Dowód: Przypadek jest trywialny. Dla musi zachodzić również . Wystarczy wtedy pokazać że spełnia nierówność Krafta. Wprowadźmy oznaczenie i załóżmy że ta nierówność nie jest spełniona, czyli . Niech , . Rozważmy teraz
Gdzie jest liczbą sekwencji takich że . Z warunku że jest kodem, wynika że każda sekwencja odpowiada innemu słowu długości i, a więc takich sekwencji jest nie więcej niż słów.
Stąd otrzymujemy
co dla wystarczająco dużego n musi być fałszem, ponieważ funkcja wykładnicza rośnie szybciej niż liniowa. W konsekwencji mamy . QED.