Teoria informacji/TI Wykład 12: Różnice pomiędzy wersjami
Nie podano opisu zmian |
m Zastępowanie tekstu – „<math> ” na „<math>” |
||
(Nie pokazano 7 wersji utworzonych przez 3 użytkowników) | |||
Linia 1: | Linia 1: | ||
Wracamy do szacowania <math>Pr_E(\Delta, C)</math>. Przypomnijmy że wyprowadzone na poprzednim wykładzie [[Teoria informacji/TI Wykład 11#metoda_prob|szacowanie]] obowiązuje dla dowolnego kodu C, o ile n jest wystarczająco duże. Pokażemy teraz że dla wystarczająco dużych n ''istnieje'' kod C który spełnia warunki Twierdzenia Shannona. W szczególności taki dla którego drugi składnik [[Teoria informacji/TI Wykład 11#metoda_prob|szacowania]] można ograniczyć z góry przez <math>\frac{\delta}{2}</math>. | Wracamy do szacowania <math>Pr_E(\Delta, C)</math>. Przypomnijmy, że wyprowadzone na poprzednim wykładzie [[Teoria informacji/TI Wykład 11#metoda_prob|szacowanie]] obowiązuje dla dowolnego kodu C, o ile n jest wystarczająco duże. Pokażemy teraz, że dla wystarczająco dużych n ''istnieje'' kod C, który spełnia warunki Twierdzenia Shannona. W szczególności taki, dla którego drugi składnik [[Teoria informacji/TI Wykład 11#metoda_prob|szacowania]] można ograniczyć z góry przez <math>\frac{\delta}{2}</math>. | ||
Do dowodu użyjemy ''metody probabilistycznej''. Ustalmy <math>m < 2^n</math>. Niech <math>\mathcal{C}</math> będzie zbiorem wszystkich możliwych m-elementowych sekwencji <math>c_1, \ldots, c_m \in \{0,1\}^n</math> takich że <math>c_i</math> są parami różne. Niech <math>N = |\mathcal{C}|</math>. | Do dowodu użyjemy ''metody probabilistycznej''. Ustalmy <math>m < 2^n</math>. Niech <math>\mathcal{C}</math> będzie zbiorem wszystkich możliwych m-elementowych sekwencji <math>c_1, \ldots, c_m \in \{0,1\}^n</math>, takich że <math>c_i</math> są parami różne. Niech <math>N = |\mathcal{C}|</math>. | ||
<center><math> N = {2^n \choose m} \cdot m!</math></center> | <center><math>N = {2^n \choose m} \cdot m!</math></center> | ||
Od tego miejsca będziemy używać notacji <math>\bar{C}</math> na oznaczenie sekwencji z <math>\mathcal{C}</math>. Argument probabilistyczny Shannona opiera się na prostej obserwacji. Jeśli | Od tego miejsca będziemy używać notacji <math>\bar{C}</math> na oznaczenie sekwencji z <math>\mathcal{C}</math>. Argument probabilistyczny Shannona opiera się na prostej obserwacji. Jeśli | ||
<center><math>\frac{1}{N} \sum_{\bar{C}} Pr_E ( \Delta , \bar{C}) \leq \delta</math></center> | <center><math>\frac{1}{N} \sum_{\bar{C}} Pr_E ( \Delta , \bar{C}) \leq \delta</math></center> | ||
to istnieje kod C taki że <math>Pr_E(\Delta, | to istnieje kod C, taki że <math>Pr_E(\Delta,{C}) \le \delta</math>. | ||
Zauważmy że jeśli <math>\bar{C}</math> jest sekwencją w <math>\mathcal{C}</math> o wartościach <math>C=\{c_1, \ldots, | Zauważmy, że jeśli <math>\bar{C}</math> jest sekwencją w <math>\mathcal{C}</math> o wartościach | ||
<center><math> \sum_{u \in C} \sum_{v \in C - \{ u \}} p ( d (v,u \oplus E) \leq \rho ) = | <math>C=\{c_1, \ldots, c_m \}</math> to | ||
<center><math>\sum_{u \in C} \sum_{v \in C - \{ u \}} p ( d (v,u \oplus E) \leq \rho ) = | |||
\sum_{i = 1}^m \sum_{j \neq i} \, p ( d (c_j,c_i \oplus E) \leq \rho )</math></center> | \sum_{i = 1}^m \sum_{j \neq i} \, p ( d (c_j,c_i \oplus E) \leq \rho )</math></center> | ||
Nasze [[Teoria informacji/TI Wykład 11#metoda_prob|szacowanie]] daje zatem | Nasze [[Teoria informacji/TI Wykład 11#metoda_prob|szacowanie]] daje zatem | ||
<center>{{kotwica|metoda_prob2|}}<math>\ | <center>{{kotwica|metoda_prob2|}}<math>\begin{align} | ||
\frac{1}{N} \sum_{\bar{C}} | \frac{1}{N} \sum_{\bar{C}} Pr_E ( \Delta , \bar{C} ) & \leq | ||
\frac{1}{N} \sum_{\bar{C}} \left( \frac{\delta }{2} + \frac{1}{m} \sum_{i = 1}^m \sum_{j \neq i} \, p ( d (c_j,c_i \oplus E) \leq \rho ) \right) \\ | \frac{1}{N} \sum_{\bar{C}} \left( \frac{\delta }{2} + \frac{1}{m} \sum_{i = 1}^m \sum_{j \neq i} \, p ( d (c_j,c_i \oplus E) \leq \rho ) \right) \\ | ||
& = \frac{\delta }{2} + \frac{1}{m} \sum_{i = 1}^m \sum_{j \neq i} | & = \frac{\delta }{2} + \frac{1}{m} \sum_{i = 1}^m \sum_{j \neq i} | ||
\underbrace{\frac{1}{N} \sum_{\bar{C}} p ( d (c_j,c_i \oplus E) \leq \rho )}_{(*)} | \underbrace{\frac{1}{N} \sum_{\bar{C}} p ( d (c_j,c_i \oplus E) \leq \rho )}_{(*)} | ||
\ | \end{align} | ||
</math></center> | </math></center> | ||
Linia 29: | Linia 30: | ||
<center><math>S_{\rho } (e) = \{ v \in \{ 0,1 \}^n : d(v,e) \leq \rho \}</math></center> | <center><math>S_{\rho } (e) = \{ v \in \{ 0,1 \}^n : d(v,e) \leq \rho \}</math></center> | ||
Łatwo zauważyć że | Łatwo zauważyć, że | ||
<center><math>d (v, u \oplus e ) \leq \rho \Longleftrightarrow v \oplus u \in S_{\rho } (e) </math></center> | <center><math>d (v, u \oplus e ) \leq \rho \Longleftrightarrow v \oplus u \in S_{\rho } (e)</math></center> | ||
Zatem | Zatem | ||
<center><math>\ | <center><math>\begin{align} | ||
\frac{1}{N} \sum_{\bar{C}} p ( d (c_j,c_i \oplus E) \leq \rho ) & = | \frac{1}{N} \sum_{\bar{C}} p ( d (c_j,c_i \oplus E) \leq \rho ) & = | ||
\frac{1}{N} \sum_{\bar{C}} p \left( c_i \oplus c_j \in S_{\rho } (E) \right) \\ | \frac{1}{N} \sum_{\bar{C}} p \left( c_i \oplus c_j \in S_{\rho } (E) \right) \\ | ||
& = \sum_{e \in \{ 0, 1 \}^n } p (E = e) \cdot \underbrace{\frac{1}{N} \sum_{\bar{C}} | & = \sum_{e \in \{ 0, 1 \}^n } p (E = e) \cdot \underbrace{\frac{1}{N} \sum_{\bar{C}} | ||
\chi (c_i \oplus c_j \in S_{\rho } (e) )}_{(**)} | |||
\ | \end{align} | ||
</math></center> | </math></center> | ||
(gdzie <math>\chi</math> oznacza funkcję charakterystyczną: <math>\chi(\varphi)=1 \Longleftrightarrow \varphi</math> jest spełniona). | (gdzie <math>\chi</math> oznacza funkcję charakterystyczną: <math>\chi(\varphi)=1 \Longleftrightarrow \varphi</math> jest spełniona). | ||
Możemy oszacować teraz wartość (**) dla ustalonego e. Z pewnością każdy wektor inny niż <math>0^n</math> pojawia się jako <math>c_i \oplus c_j</math> dla pewnej sekwencji <math>\bar{C} \in \mathcal{C}</math>, i łatwo zauważyć że każdy taki wektor pojawia się taką samą liczbę razy | Możemy oszacować teraz wartość (**) dla ustalonego e. Z pewnością każdy wektor inny niż <math>0^n</math> pojawia się jako <math>c_i \oplus c_j</math> dla pewnej sekwencji <math>\bar{C} \in \mathcal{C}</math>, i łatwo zauważyć, że każdy taki wektor pojawia się taką samą liczbę razy, tzn. | ||
<center><math>| \{ \bar{C} : u = c_i \oplus c_j \} | = | \{ \bar{C} : v = c_i \oplus c_j \} | = \frac{N}{2^n - 1}</math></center> | <center><math>| \{ \bar{C} : u = c_i \oplus c_j \} | = | \{ \bar{C} : v = c_i \oplus c_j \} | = \frac{N}{2^n - 1}</math></center> | ||
dla dowolnych <math>u,v \in \{0,1\}^n-\{0^n\}</math>. A zatem każde <math>u \in S_{\rho}(e) - \{0^n\}</math> dodaje <math>\frac{N}{2^n-1}</math> do sumy <math>\sum_{\bar{C}} | dla dowolnych <math>u,v \in \{0,1\}^n-\{0^n\}</math>. A zatem każde <math>u \in S_{\rho}(e) - \{0^n\}</math> dodaje <math>\frac{N}{2^n-1}</math> do sumy <math>\sum_{\bar{C}} | ||
\chi (c_i \oplus c_j \in S_{\rho } (e) )</math>, czyli | |||
<center><math>\sum_{\bar{C}} | <center><math>\sum_{\bar{C}} \chi (c_i \oplus c_j \in S_{\rho } (e) ) = | ||
\frac{N}{2^n - 1} | S_{\rho } (e) - \{ 0^n \} |</math></center> | \frac{N}{2^n - 1} | S_{\rho } (e) - \{ 0^n \} |</math></center> | ||
Na poprzednim wykładzie dokonaliśmy [[Teoria informacji/TI Wykład 11#rozmiar_kuli|oszacowania rozmiaru kuli]] o promieniu <math>\rho = n \cdot (Q + \eta )</math>, mamy zatem | |||
<center><math>| S_{\rho } (e) - \{ 0^n \} | \leq 2^{n \cdot H(Q + \eta )}</math></center> | |||
<center><math>\ | Możemy już oszacować (**): | ||
\sum_{ | |||
<center><math> | |||
\frac{1}{ | \frac{1}{N} \sum_{\bar{C}} \chi (c_i \oplus c_j \in S_{\rho } (e) ) \leq | ||
\frac{1}{N} \cdot \frac{N}{2^n - 1} \cdot 2^{n \cdot H(Q + \eta )} \leq | |||
\frac{1}{2^n - 1} \cdot 2^{n \cdot H(Q + \eta )} | |||
</math></center> | |||
Pamiętając, że <math>\sum_{e \in \{ 0, 1 \}^n } p (E = e) = 1</math>, otrzymujemy stąd również | |||
szacowanie dla (*): | |||
<center><math>\begin{align} | |||
\sum_{e \in \{ 0, 1 \}^n } p (E = e) \cdot \underbrace{\frac{1}{N} \sum_{\bar{C}} | |||
\chi (c_i \oplus c_j \in S_{\rho } (e) )}_{(**)} & \leq \frac{1}{2^n - 1} \cdot 2^{n \cdot H(Q + \eta )} | |||
\end{align} | |||
</math></center> | </math></center> | ||
Wracając do [[#metoda_prob2|głównego szacowania]] dostajemy | Wracając do [[#metoda_prob2|głównego szacowania]], dostajemy | ||
<center><math>\ | <center><math>\begin{align} | ||
\frac{1}{N} \sum_{\bar{C}} \, | \frac{1}{N} \sum_{\bar{C}} \, _E ( \Delta , \bar{C} ) & \leq | ||
\frac{\delta }{2} + \frac{1}{m} \sum_{i = 1}^m \sum_{j \neq i} \frac{1}{2^n - 1} \cdot 2^{n \cdot H(Q + \eta )} \\ | \frac{\delta }{2} + \frac{1}{m} \sum_{i = 1}^m \sum_{j \neq i} \frac{1}{2^n - 1} \cdot 2^{n \cdot H(Q + \eta )} \\ | ||
& = \frac{\delta }{2} + \frac{1}{m} \cdot m \cdot \underbrace{(m-1) \cdot \frac{1}{2^n - 1}}_{\leq \frac{m}{2^n}} \cdot 2^{n \cdot H(Q + \eta )} \\ | & = \frac{\delta }{2} + \frac{1}{m} \cdot m \cdot \underbrace{(m-1) \cdot \frac{1}{2^n - 1}}_{\leq \frac{m}{2^n}} \cdot 2^{n \cdot H(Q + \eta )} \\ | ||
& \leq \frac{\delta }{2} + \frac{m}{2^n} \cdot 2^{n \cdot H(Q + \eta )} \\ | & \leq \frac{\delta }{2} + \frac{m}{2^n} \cdot 2^{n \cdot H(Q + \eta )} \\ | ||
& = \frac{\delta }{2} + 2^{ n \cdot \left( \frac{\log_2 m}{n} + H(Q + \eta ) - 1 \right) } | & = \frac{\delta }{2} + 2^{ n \cdot \left( \frac{\log_2 m}{n} + H(Q + \eta ) - 1 \right) } | ||
\ | \end{align} | ||
</math></center> | </math></center> | ||
Jesteśmy tu już blisko celu, gdyż <math>\left( \frac{\log_2 m}{n} + H(Q + \eta ) - 1 \right)</math> odpowiada „prawie” <math>R(C)-C_{\Gamma}</math>. | Jesteśmy tu już blisko celu, gdyż <math>\left( \frac{\log_2 m}{n} + H(Q + \eta ) - 1 \right)</math> odpowiada „prawie” <math>R(C)-C_{\Gamma}</math>. | ||
Konkretniej, do tej pory wiemy że powyższe równanie jest spełnione dla wystarczająco dużych n, | Konkretniej, do tej pory wiemy, że powyższe równanie jest spełnione dla wystarczająco dużych n, powiedzmy <math>n \ge n_1</math>, i dla dowolnych <math>2 \le m \le 2^n</math>, <math>0 < \eta < \frac{1}{2} - Q</math>. Twierdzimy, że można dobrać <math>n_0 \ge n_1</math> m i <math>\eta</math> w ten sposób, że dla dowolnego <math>n \ge n_0</math> spełnione jest | ||
<center><math>C_{\Gamma } - \varepsilon \leq \frac{\log_2 m}{n} \leq C_{\Gamma } | <center><math>C_{\Gamma } - \varepsilon \leq \frac{\log_2 m}{n} \leq C_{\Gamma } {(i)}</math></center> | ||
<center><math> \frac{\log_2 m}{n} + H(Q + \eta ) - 1 \leq - \frac{\varepsilon }{3}</math></center> | <center><math>\frac{\log_2 m}{n} + H(Q + \eta ) - 1 \leq - \frac{\varepsilon }{3}</math></center> | ||
W szczególności druga nierówność implikuje | W szczególności druga nierówność implikuje | ||
Linia 87: | Linia 96: | ||
\frac{1}{2^{n \cdot \frac{\varepsilon }{3}}}</math></center> | \frac{1}{2^{n \cdot \frac{\varepsilon }{3}}}</math></center> | ||
A więc jeśli n jest wystarczająco duże, | A więc jeśli n jest wystarczająco duże, dostajemy | ||
<center><math> \frac{1}{N} \sum_{\bar{C}} \, | <center><math>\frac{1}{N} \sum_{\bar{C}} \, _E ( \Delta , \bar{C} ) \leq | ||
\frac{\delta }{2} + \frac{\delta }{2} = \delta </math></center> | \frac{\delta }{2} + \frac{\delta }{2} = \delta</math></center> | ||
Używając argumentu probabilistycznego wnioskujemy że musi istnieć kod C rozmiaru m, spełniający <math>Pr_E(\Delta,C) \leq \delta</math>. Ponieważ <math>R(C)=\frac{\log_2 m}{n}</math>, ten kod spełnia warunki Shannona. | Używając argumentu probabilistycznego, wnioskujemy, że musi istnieć kod C rozmiaru m, spełniający <math>Pr_E(\Delta,C) \leq \delta</math>. Ponieważ <math>R(C)=\frac{\log_2 m}{n}</math>, ten kod spełnia warunki Shannona. | ||
Wybór spełniający oba konieczne warunki najłatwiej | Wybór <math>\eta</math> i <math>m</math> spełniający oba konieczne warunki najłatwiej | ||
przedstawimy na diagramie | |||
<center>[[grafika:Teoria_Informacji_diag1.PNG]]</center> | <center>[[grafika:Teoria_Informacji_diag1.PNG]]</center> | ||
Używając ciągłości H, wybieramy <math>\eta</math> takie że <math>C_ {\Gamma } - \frac{1}{3} \cdot \varepsilon \leq 1 - H(Q + \eta ) \leq C_ {\Gamma }</math>. Jeśli n jest wystarczająco duże, | Używając ciągłości H, wybieramy <math>\eta</math> takie, że <math>C_ {\Gamma } - \frac{1}{3} \cdot \varepsilon \leq 1 - H(Q + \eta ) \leq C_ {\Gamma }</math>. Jeśli n jest wystarczająco duże, potem możemy znaleźć k takie, że <math>C_ {\Gamma } - \varepsilon \leq \frac{k}{n} \leq C_ {\Gamma } - \frac{2}{3}\cdot \varepsilon</math>. Tym samym oba warunki są spełnione, co kończy dowód. |
Aktualna wersja na dzień 22:11, 11 wrz 2023
Wracamy do szacowania . Przypomnijmy, że wyprowadzone na poprzednim wykładzie szacowanie obowiązuje dla dowolnego kodu C, o ile n jest wystarczająco duże. Pokażemy teraz, że dla wystarczająco dużych n istnieje kod C, który spełnia warunki Twierdzenia Shannona. W szczególności taki, dla którego drugi składnik szacowania można ograniczyć z góry przez .
Do dowodu użyjemy metody probabilistycznej. Ustalmy . Niech będzie zbiorem wszystkich możliwych m-elementowych sekwencji , takich że są parami różne. Niech .
Od tego miejsca będziemy używać notacji na oznaczenie sekwencji z . Argument probabilistyczny Shannona opiera się na prostej obserwacji. Jeśli
to istnieje kod C, taki że .
Zauważmy, że jeśli jest sekwencją w o wartościach to
Nasze szacowanie daje zatem
Oszacujemy teraz (*) dla ustalonej pary indeksów .
Dla niech oznacza kulę w o promieniu i środku w punkcie e, tzn.
Łatwo zauważyć, że
Zatem
(gdzie oznacza funkcję charakterystyczną: jest spełniona).
Możemy oszacować teraz wartość (**) dla ustalonego e. Z pewnością każdy wektor inny niż pojawia się jako dla pewnej sekwencji , i łatwo zauważyć, że każdy taki wektor pojawia się taką samą liczbę razy, tzn.
dla dowolnych . A zatem każde dodaje do sumy , czyli
Na poprzednim wykładzie dokonaliśmy oszacowania rozmiaru kuli o promieniu , mamy zatem
Możemy już oszacować (**):
Pamiętając, że , otrzymujemy stąd również szacowanie dla (*):
Wracając do głównego szacowania, dostajemy
Jesteśmy tu już blisko celu, gdyż odpowiada „prawie” .
Konkretniej, do tej pory wiemy, że powyższe równanie jest spełnione dla wystarczająco dużych n, powiedzmy , i dla dowolnych , . Twierdzimy, że można dobrać m i w ten sposób, że dla dowolnego spełnione jest
W szczególności druga nierówność implikuje
A więc jeśli n jest wystarczająco duże, dostajemy
Używając argumentu probabilistycznego, wnioskujemy, że musi istnieć kod C rozmiaru m, spełniający . Ponieważ , ten kod spełnia warunki Shannona.
Wybór i spełniający oba konieczne warunki najłatwiej przedstawimy na diagramie
Używając ciągłości H, wybieramy takie, że . Jeśli n jest wystarczająco duże, potem możemy znaleźć k takie, że . Tym samym oba warunki są spełnione, co kończy dowód.