Teoria informacji/TI Wykład 12: Różnice pomiędzy wersjami
Nie podano opisu zmian |
m Zastępowanie tekstu – „<math> ” na „<math>” |
||
(Nie pokazano 4 pośrednich wersji utworzonych przez tego samego użytkownika) | |||
Linia 2: | Linia 2: | ||
Do dowodu użyjemy ''metody probabilistycznej''. Ustalmy <math>m < 2^n</math>. Niech <math>\mathcal{C}</math> będzie zbiorem wszystkich możliwych m-elementowych sekwencji <math>c_1, \ldots, c_m \in \{0,1\}^n</math>, takich że <math>c_i</math> są parami różne. Niech <math>N = |\mathcal{C}|</math>. | Do dowodu użyjemy ''metody probabilistycznej''. Ustalmy <math>m < 2^n</math>. Niech <math>\mathcal{C}</math> będzie zbiorem wszystkich możliwych m-elementowych sekwencji <math>c_1, \ldots, c_m \in \{0,1\}^n</math>, takich że <math>c_i</math> są parami różne. Niech <math>N = |\mathcal{C}|</math>. | ||
<center><math> N = {2^n \choose m} \cdot m!</math></center> | <center><math>N = {2^n \choose m} \cdot m!</math></center> | ||
Od tego miejsca będziemy używać notacji <math>\bar{C}</math> na oznaczenie sekwencji z <math>\mathcal{C}</math>. Argument probabilistyczny Shannona opiera się na prostej obserwacji. Jeśli | Od tego miejsca będziemy używać notacji <math>\bar{C}</math> na oznaczenie sekwencji z <math>\mathcal{C}</math>. Argument probabilistyczny Shannona opiera się na prostej obserwacji. Jeśli | ||
<center><math>\frac{1}{N} \sum_{\bar{C}} Pr_E ( \Delta , \bar{C}) \leq \delta</math></center> | <center><math>\frac{1}{N} \sum_{\bar{C}} Pr_E ( \Delta , \bar{C}) \leq \delta</math></center> | ||
to istnieje kod C, taki że <math>Pr_E(\Delta,{C}) \le \delta </math>. | to istnieje kod C, taki że <math>Pr_E(\Delta,{C}) \le \delta</math>. | ||
Zauważmy, że jeśli <math>\bar{C}</math> jest sekwencją w <math>\mathcal{C}</math> o wartościach | Zauważmy, że jeśli <math>\bar{C}</math> jest sekwencją w <math>\mathcal{C}</math> o wartościach | ||
<math>C=\{c_1, \ldots, c_m \}</math> to | <math>C=\{c_1, \ldots, c_m \}</math> to | ||
<center><math> \sum_{u \in C} \sum_{v \in C - \{ u \}} p ( d (v,u \oplus E) \leq \rho ) = | <center><math>\sum_{u \in C} \sum_{v \in C - \{ u \}} p ( d (v,u \oplus E) \leq \rho ) = | ||
\sum_{i = 1}^m \sum_{j \neq i} \, p ( d (c_j,c_i \oplus E) \leq \rho )</math></center> | \sum_{i = 1}^m \sum_{j \neq i} \, p ( d (c_j,c_i \oplus E) \leq \rho )</math></center> | ||
Nasze [[Teoria informacji/TI Wykład 11#metoda_prob|szacowanie]] daje zatem | Nasze [[Teoria informacji/TI Wykład 11#metoda_prob|szacowanie]] daje zatem | ||
<center>{{kotwica|metoda_prob2|}}<math>\ | <center>{{kotwica|metoda_prob2|}}<math>\begin{align} | ||
\frac{1}{N} \sum_{\bar{C}} Pr_E ( \Delta , \bar{C} ) & \leq | \frac{1}{N} \sum_{\bar{C}} Pr_E ( \Delta , \bar{C} ) & \leq | ||
\frac{1}{N} \sum_{\bar{C}} \left( \frac{\delta }{2} + \frac{1}{m} \sum_{i = 1}^m \sum_{j \neq i} \, p ( d (c_j,c_i \oplus E) \leq \rho ) \right) \\ | \frac{1}{N} \sum_{\bar{C}} \left( \frac{\delta }{2} + \frac{1}{m} \sum_{i = 1}^m \sum_{j \neq i} \, p ( d (c_j,c_i \oplus E) \leq \rho ) \right) \\ | ||
& = \frac{\delta }{2} + \frac{1}{m} \sum_{i = 1}^m \sum_{j \neq i} | & = \frac{\delta }{2} + \frac{1}{m} \sum_{i = 1}^m \sum_{j \neq i} | ||
\underbrace{\frac{1}{N} \sum_{\bar{C}} p ( d (c_j,c_i \oplus E) \leq \rho )}_{(*)} | \underbrace{\frac{1}{N} \sum_{\bar{C}} p ( d (c_j,c_i \oplus E) \leq \rho )}_{(*)} | ||
\ | \end{align} | ||
</math></center> | </math></center> | ||
Linia 31: | Linia 31: | ||
Łatwo zauważyć, że | Łatwo zauważyć, że | ||
<center><math>d (v, u \oplus e ) \leq \rho \Longleftrightarrow v \oplus u \in S_{\rho } (e) </math></center> | <center><math>d (v, u \oplus e ) \leq \rho \Longleftrightarrow v \oplus u \in S_{\rho } (e)</math></center> | ||
Zatem | Zatem | ||
<center><math>\ | <center><math>\begin{align} | ||
\frac{1}{N} \sum_{\bar{C}} p ( d (c_j,c_i \oplus E) \leq \rho ) & = | \frac{1}{N} \sum_{\bar{C}} p ( d (c_j,c_i \oplus E) \leq \rho ) & = | ||
\frac{1}{N} \sum_{\bar{C}} p \left( c_i \oplus c_j \in S_{\rho } (E) \right) \\ | \frac{1}{N} \sum_{\bar{C}} p \left( c_i \oplus c_j \in S_{\rho } (E) \right) \\ | ||
& = \sum_{e \in \{ 0, 1 \}^n } p (E = e) \cdot \underbrace{\frac{1}{N} \sum_{\bar{C}} | & = \sum_{e \in \{ 0, 1 \}^n } p (E = e) \cdot \underbrace{\frac{1}{N} \sum_{\bar{C}} | ||
\chi (c_i \oplus c_j \in S_{\rho } (e) )}_{(**)} | \chi (c_i \oplus c_j \in S_{\rho } (e) )}_{(**)} | ||
\ | \end{align} | ||
</math></center> | </math></center> | ||
Linia 53: | Linia 53: | ||
\frac{N}{2^n - 1} | S_{\rho } (e) - \{ 0^n \} |</math></center> | \frac{N}{2^n - 1} | S_{\rho } (e) - \{ 0^n \} |</math></center> | ||
Na poprzednim wykładzie dokonaliśmy [[Teoria informacji/TI Wykład 11#rozmiar_kuli|oszacowania rozmiaru kuli]] o promieniu <math>\rho = n \cdot (Q + \eta ) </math>, mamy zatem | Na poprzednim wykładzie dokonaliśmy [[Teoria informacji/TI Wykład 11#rozmiar_kuli|oszacowania rozmiaru kuli]] o promieniu <math>\rho = n \cdot (Q + \eta )</math>, mamy zatem | ||
<center><math>| S_{\rho } (e) - \{ 0^n \} | \leq 2^{n \cdot H(Q + \eta )}</math></center> | <center><math>| S_{\rho } (e) - \{ 0^n \} | \leq 2^{n \cdot H(Q + \eta )}</math></center> | ||
Linia 64: | Linia 64: | ||
</math></center> | </math></center> | ||
Pamiętając, że <math> \sum_{e \in \{ 0, 1 \}^n } p (E = e) = 1 </math>, otrzymujemy stąd również | Pamiętając, że <math>\sum_{e \in \{ 0, 1 \}^n } p (E = e) = 1</math>, otrzymujemy stąd również | ||
szacowanie dla (*): | szacowanie dla (*): | ||
<center><math>\ | <center><math>\begin{align} | ||
\sum_{e \in \{ 0, 1 \}^n } p (E = e) \cdot \underbrace{\frac{1}{N} \sum_{\bar{C}} | \sum_{e \in \{ 0, 1 \}^n } p (E = e) \cdot \underbrace{\frac{1}{N} \sum_{\bar{C}} | ||
\chi (c_i \oplus c_j \in S_{\rho } (e) )}_{(**)} & \leq \frac{1}{2^n - 1} \cdot 2^{n \cdot H(Q + \eta )} | \chi (c_i \oplus c_j \in S_{\rho } (e) )}_{(**)} & \leq \frac{1}{2^n - 1} \cdot 2^{n \cdot H(Q + \eta )} | ||
\ | \end{align} | ||
</math></center> | </math></center> | ||
Linia 76: | Linia 76: | ||
Wracając do [[#metoda_prob2|głównego szacowania]], dostajemy | Wracając do [[#metoda_prob2|głównego szacowania]], dostajemy | ||
<center><math>\ | <center><math>\begin{align} | ||
\frac{1}{N} \sum_{\bar{C}} \, | \frac{1}{N} \sum_{\bar{C}} \, _E ( \Delta , \bar{C} ) & \leq | ||
\frac{\delta }{2} + \frac{1}{m} \sum_{i = 1}^m \sum_{j \neq i} \frac{1}{2^n - 1} \cdot 2^{n \cdot H(Q + \eta )} \\ | \frac{\delta }{2} + \frac{1}{m} \sum_{i = 1}^m \sum_{j \neq i} \frac{1}{2^n - 1} \cdot 2^{n \cdot H(Q + \eta )} \\ | ||
& = \frac{\delta }{2} + \frac{1}{m} \cdot m \cdot \underbrace{(m-1) \cdot \frac{1}{2^n - 1}}_{\leq \frac{m}{2^n}} \cdot 2^{n \cdot H(Q + \eta )} \\ | & = \frac{\delta }{2} + \frac{1}{m} \cdot m \cdot \underbrace{(m-1) \cdot \frac{1}{2^n - 1}}_{\leq \frac{m}{2^n}} \cdot 2^{n \cdot H(Q + \eta )} \\ | ||
& \leq \frac{\delta }{2} + \frac{m}{2^n} \cdot 2^{n \cdot H(Q + \eta )} \\ | & \leq \frac{\delta }{2} + \frac{m}{2^n} \cdot 2^{n \cdot H(Q + \eta )} \\ | ||
& = \frac{\delta }{2} + 2^{ n \cdot \left( \frac{\log_2 m}{n} + H(Q + \eta ) - 1 \right) } | & = \frac{\delta }{2} + 2^{ n \cdot \left( \frac{\log_2 m}{n} + H(Q + \eta ) - 1 \right) } | ||
\ | \end{align} | ||
</math></center> | </math></center> | ||
Jesteśmy tu już blisko celu, gdyż <math>\left( \frac{\log_2 m}{n} + H(Q + \eta ) - 1 \right)</math> odpowiada „prawie” <math>R(C)-C_{\Gamma}</math>. | Jesteśmy tu już blisko celu, gdyż <math>\left( \frac{\log_2 m}{n} + H(Q + \eta ) - 1 \right)</math> odpowiada „prawie” <math>R(C)-C_{\Gamma}</math>. | ||
Konkretniej, do tej pory wiemy, że powyższe równanie jest spełnione dla wystarczająco dużych n, powiedzmy <math> n \ge n_1 </math>, i dla dowolnych <math>2 \le m \le 2^n</math>, <math>0 < \eta < \frac{1}{2} | Konkretniej, do tej pory wiemy, że powyższe równanie jest spełnione dla wystarczająco dużych n, powiedzmy <math>n \ge n_1</math>, i dla dowolnych <math>2 \le m \le 2^n</math>, <math>0 < \eta < \frac{1}{2} - Q</math>. Twierdzimy, że można dobrać <math>n_0 \ge n_1</math> m i <math>\eta</math> w ten sposób, że dla dowolnego <math>n \ge n_0</math> spełnione jest | ||
<center><math>C_{\Gamma } - \varepsilon \leq \frac{\log_2 m}{n} \leq C_{\Gamma } | <center><math>C_{\Gamma } - \varepsilon \leq \frac{\log_2 m}{n} \leq C_{\Gamma } {(i)}</math></center> | ||
<center><math> \frac{\log_2 m}{n} + H(Q + \eta ) - 1 \leq - \frac{\varepsilon }{3}</math></center> | <center><math>\frac{\log_2 m}{n} + H(Q + \eta ) - 1 \leq - \frac{\varepsilon }{3}</math></center> | ||
W szczególności druga nierówność implikuje | W szczególności druga nierówność implikuje | ||
Linia 97: | Linia 97: | ||
A więc jeśli n jest wystarczająco duże, dostajemy | A więc jeśli n jest wystarczająco duże, dostajemy | ||
<center><math> \frac{1}{N} \sum_{\bar{C}} \, | <center><math>\frac{1}{N} \sum_{\bar{C}} \, _E ( \Delta , \bar{C} ) \leq | ||
\frac{\delta }{2} + \frac{\delta }{2} = \delta </math></center> | \frac{\delta }{2} + \frac{\delta }{2} = \delta</math></center> | ||
Używając argumentu probabilistycznego, wnioskujemy, że musi istnieć kod C rozmiaru m, spełniający <math>Pr_E(\Delta,C) \leq \delta</math>. Ponieważ <math>R(C)=\frac{\log_2 m}{n}</math>, ten kod spełnia warunki Shannona. | Używając argumentu probabilistycznego, wnioskujemy, że musi istnieć kod C rozmiaru m, spełniający <math>Pr_E(\Delta,C) \leq \delta</math>. Ponieważ <math>R(C)=\frac{\log_2 m}{n}</math>, ten kod spełnia warunki Shannona. | ||
Wybór <math> \eta </math> i <math> m </math> spełniający oba konieczne warunki najłatwiej | Wybór <math>\eta</math> i <math>m</math> spełniający oba konieczne warunki najłatwiej | ||
przedstawimy na diagramie | przedstawimy na diagramie | ||
Aktualna wersja na dzień 22:11, 11 wrz 2023
Wracamy do szacowania . Przypomnijmy, że wyprowadzone na poprzednim wykładzie szacowanie obowiązuje dla dowolnego kodu C, o ile n jest wystarczająco duże. Pokażemy teraz, że dla wystarczająco dużych n istnieje kod C, który spełnia warunki Twierdzenia Shannona. W szczególności taki, dla którego drugi składnik szacowania można ograniczyć z góry przez .
Do dowodu użyjemy metody probabilistycznej. Ustalmy . Niech będzie zbiorem wszystkich możliwych m-elementowych sekwencji , takich że są parami różne. Niech .
Od tego miejsca będziemy używać notacji na oznaczenie sekwencji z . Argument probabilistyczny Shannona opiera się na prostej obserwacji. Jeśli
to istnieje kod C, taki że .
Zauważmy, że jeśli jest sekwencją w o wartościach to
Nasze szacowanie daje zatem
Oszacujemy teraz (*) dla ustalonej pary indeksów .
Dla niech oznacza kulę w o promieniu i środku w punkcie e, tzn.
Łatwo zauważyć, że
Zatem
(gdzie oznacza funkcję charakterystyczną: jest spełniona).
Możemy oszacować teraz wartość (**) dla ustalonego e. Z pewnością każdy wektor inny niż pojawia się jako dla pewnej sekwencji , i łatwo zauważyć, że każdy taki wektor pojawia się taką samą liczbę razy, tzn.
dla dowolnych . A zatem każde dodaje do sumy , czyli
Na poprzednim wykładzie dokonaliśmy oszacowania rozmiaru kuli o promieniu , mamy zatem
Możemy już oszacować (**):
Pamiętając, że , otrzymujemy stąd również szacowanie dla (*):
Wracając do głównego szacowania, dostajemy
Jesteśmy tu już blisko celu, gdyż odpowiada „prawie” .
Konkretniej, do tej pory wiemy, że powyższe równanie jest spełnione dla wystarczająco dużych n, powiedzmy , i dla dowolnych , . Twierdzimy, że można dobrać m i w ten sposób, że dla dowolnego spełnione jest
W szczególności druga nierówność implikuje
A więc jeśli n jest wystarczająco duże, dostajemy
Używając argumentu probabilistycznego, wnioskujemy, że musi istnieć kod C rozmiaru m, spełniający . Ponieważ , ten kod spełnia warunki Shannona.
Wybór i spełniający oba konieczne warunki najłatwiej przedstawimy na diagramie
Używając ciągłości H, wybieramy takie, że . Jeśli n jest wystarczająco duże, potem możemy znaleźć k takie, że . Tym samym oba warunki są spełnione, co kończy dowód.