Teoria informacji/TI Wykład 12: Różnice pomiędzy wersjami
Nie podano opisu zmian |
Nie podano opisu zmian |
||
Linia 7: | Linia 7: | ||
<center><math>\frac{1}{N} \sum_{\bar{C}} Pr_E ( \Delta , \bar{C}) \leq \delta</math></center> | <center><math>\frac{1}{N} \sum_{\bar{C}} Pr_E ( \Delta , \bar{C}) \leq \delta</math></center> | ||
to istnieje kod C, taki że <math>Pr_E(\Delta, | to istnieje kod C, taki że <math>Pr_E(\Delta,{C}) \le \delta </math>. | ||
Zauważmy, że jeśli <math>\bar{C}</math> jest sekwencją w <math>\mathcal{C}</math> o wartościach <math>C=\{c_1, \ldots, | Zauważmy, że jeśli <math>\bar{C}</math> jest sekwencją w <math>\mathcal{C}</math> o wartościach | ||
<math>C=\{c_1, \ldots, c_m \}</math> to | |||
<center><math> \sum_{u \in C} \sum_{v \in C - \{ u \}} p ( d (v,u \oplus E) \leq \rho ) = | <center><math> \sum_{u \in C} \sum_{v \in C - \{ u \}} p ( d (v,u \oplus E) \leq \rho ) = | ||
\sum_{i = 1}^m \sum_{j \neq i} \, p ( d (c_j,c_i \oplus E) \leq \rho )</math></center> | \sum_{i = 1}^m \sum_{j \neq i} \, p ( d (c_j,c_i \oplus E) \leq \rho )</math></center> | ||
Linia 16: | Linia 17: | ||
<center>{{kotwica|metoda_prob2|}}<math>\aligned | <center>{{kotwica|metoda_prob2|}}<math>\aligned | ||
\frac{1}{N} \sum_{\bar{C}} | \frac{1}{N} \sum_{\bar{C}} Pr_E ( \Delta , \bar{C} ) & \leq | ||
\frac{1}{N} \sum_{\bar{C}} \left( \frac{\delta }{2} + \frac{1}{m} \sum_{i = 1}^m \sum_{j \neq i} \, p ( d (c_j,c_i \oplus E) \leq \rho ) \right) \\ | \frac{1}{N} \sum_{\bar{C}} \left( \frac{\delta }{2} + \frac{1}{m} \sum_{i = 1}^m \sum_{j \neq i} \, p ( d (c_j,c_i \oplus E) \leq \rho ) \right) \\ | ||
& = \frac{\delta }{2} + \frac{1}{m} \sum_{i = 1}^m \sum_{j \neq i} | & = \frac{\delta }{2} + \frac{1}{m} \sum_{i = 1}^m \sum_{j \neq i} | ||
Linia 38: | Linia 39: | ||
\frac{1}{N} \sum_{\bar{C}} p \left( c_i \oplus c_j \in S_{\rho } (E) \right) \\ | \frac{1}{N} \sum_{\bar{C}} p \left( c_i \oplus c_j \in S_{\rho } (E) \right) \\ | ||
& = \sum_{e \in \{ 0, 1 \}^n } p (E = e) \cdot \underbrace{\frac{1}{N} \sum_{\bar{C}} | & = \sum_{e \in \{ 0, 1 \}^n } p (E = e) \cdot \underbrace{\frac{1}{N} \sum_{\bar{C}} | ||
\chi (c_i \oplus c_j \in S_{\rho } (e) )}_{(**)} | |||
\endaligned | \endaligned | ||
</math></center> | </math></center> | ||
Linia 44: | Linia 45: | ||
(gdzie <math>\chi</math> oznacza funkcję charakterystyczną: <math>\chi(\varphi)=1 \Longleftrightarrow \varphi</math> jest spełniona). | (gdzie <math>\chi</math> oznacza funkcję charakterystyczną: <math>\chi(\varphi)=1 \Longleftrightarrow \varphi</math> jest spełniona). | ||
Możemy oszacować teraz wartość (**) dla ustalonego e. Z pewnością każdy wektor inny niż <math>0^n</math> pojawia się jako <math>c_i \oplus c_j</math> dla pewnej sekwencji <math>\bar{C} \in \mathcal{C}</math>, i łatwo zauważyć, że każdy taki wektor pojawia się taką samą liczbę razy | Możemy oszacować teraz wartość (**) dla ustalonego e. Z pewnością każdy wektor inny niż <math>0^n</math> pojawia się jako <math>c_i \oplus c_j</math> dla pewnej sekwencji <math>\bar{C} \in \mathcal{C}</math>, i łatwo zauważyć, że każdy taki wektor pojawia się taką samą liczbę razy, tzn. | ||
<center><math>| \{ \bar{C} : u = c_i \oplus c_j \} | = | \{ \bar{C} : v = c_i \oplus c_j \} | = \frac{N}{2^n - 1}</math></center> | <center><math>| \{ \bar{C} : u = c_i \oplus c_j \} | = | \{ \bar{C} : v = c_i \oplus c_j \} | = \frac{N}{2^n - 1}</math></center> | ||
dla dowolnych <math>u,v \in \{0,1\}^n-\{0^n\}</math>. A zatem każde <math>u \in S_{\rho}(e) - \{0^n\}</math> dodaje <math>\frac{N}{2^n-1}</math> do sumy <math>\sum_{\bar{C}} | dla dowolnych <math>u,v \in \{0,1\}^n-\{0^n\}</math>. A zatem każde <math>u \in S_{\rho}(e) - \{0^n\}</math> dodaje <math>\frac{N}{2^n-1}</math> do sumy <math>\sum_{\bar{C}} | ||
\chi (c_i \oplus c_j \in S_{\rho } (e) )</math>, czyli | |||
<center><math>\sum_{\bar{C}} \cdot \chi (c_i \oplus c_j \in S_{\rho } (e) ) = | <center><math>\sum_{\bar{C}} \cdot \chi (c_i \oplus c_j \in S_{\rho } (e) ) = | ||
\frac{N}{2^n - 1} | S_{\rho } (e) - \{ 0^n \} |</math></center> | \frac{N}{2^n - 1} | S_{\rho } (e) - \{ 0^n \} |</math></center> |
Wersja z 15:47, 11 gru 2006
Wracamy do szacowania . Przypomnijmy, że wyprowadzone na poprzednim wykładzie szacowanie obowiązuje dla dowolnego kodu C, o ile n jest wystarczająco duże. Pokażemy teraz, że dla wystarczająco dużych n istnieje kod C, który spełnia warunki Twierdzenia Shannona. W szczególności taki, dla którego drugi składnik szacowania można ograniczyć z góry przez .
Do dowodu użyjemy metody probabilistycznej. Ustalmy . Niech będzie zbiorem wszystkich możliwych m-elementowych sekwencji , takich że są parami różne. Niech .
Od tego miejsca będziemy używać notacji na oznaczenie sekwencji z . Argument probabilistyczny Shannona opiera się na prostej obserwacji. Jeśli
to istnieje kod C, taki że .
Zauważmy, że jeśli jest sekwencją w o wartościach to
Nasze szacowanie daje zatem
Oszacujemy teraz (*) dla ustalonej pary indeksów .
Dla niech oznacza kulę w o promieniu i środku w punkcie e, tzn.
Łatwo zauważyć, że
Zatem
(gdzie oznacza funkcję charakterystyczną: jest spełniona).
Możemy oszacować teraz wartość (**) dla ustalonego e. Z pewnością każdy wektor inny niż pojawia się jako dla pewnej sekwencji , i łatwo zauważyć, że każdy taki wektor pojawia się taką samą liczbę razy, tzn.
dla dowolnych . A zatem każde dodaje do sumy , czyli
Możemy to teraz zsumować po możliwych wartościach e:
Znamy ponadto objętość , więc
Wracając do głównego szacowania, dostajemy
Jesteśmy tu już blisko celu, gdyż odpowiada „prawie” .
Konkretniej, do tej pory wiemy, że powyższe równanie jest spełnione dla wystarczająco dużych n, np. , i dla , Parser nie mógł rozpoznać (błąd składni): {\displaystyle 0 < \eta < \frac{1}{2} – Q} . Twierdzimy, że można dobrać m i </math>\eta</math> w ten sposób, że dla dowolnego spełnione jest
W szczególności druga nierówność implikuje
A więc jeśli n jest wystarczająco duże, dostajemy
Używając argumentu probabilistycznego, wnioskujemy, że musi istnieć kod C rozmiaru m, spełniający . Ponieważ , ten kod spełnia warunki Shannona.
Wybór spełniający oba konieczne warunki najłatwiej przedstawić na diagramie
Używając ciągłości H, wybieramy takie, że . Jeśli n jest wystarczająco duże, potem możemy znaleźć k takie, że . Tym samym oba warunki są spełnione, co kończy dowód.