Teoria informacji/TI Wykład 9: Różnice pomiędzy wersjami
m Zastępowanie tekstu – „<math> ” na „<math>” |
|||
(Nie pokazano 5 wersji utworzonych przez 2 użytkowników) | |||
Linia 11: | Linia 11: | ||
gdzie <math>P>Q</math>. W takim przypadku <math>\Delta_{\max}(i)=i</math> dla <math>i=0,1</math> i dla dowolnego rozkładu A: | gdzie <math>P>Q</math>. W takim przypadku <math>\Delta_{\max}(i)=i</math> dla <math>i=0,1</math> i dla dowolnego rozkładu A: | ||
<center><math>\ | <center><math>\begin{align} | ||
Pr_C ( \Delta_{\max } , A ) & = \sum_{b \in \{ 0,1 \} } p (\Delta_{\max } (b) )\cdot p (\Delta_{\max } (b) \to b)\\ | Pr_C ( \Delta_{\max } , A ) & = \sum_{b \in \{ 0,1 \} } p (\Delta_{\max } (b) )\cdot p (\Delta_{\max } (b) \to b)\\ | ||
& = p (A = 0)\cdot P + p (A = 1)\cdot P \\ | & = p (A = 0)\cdot P + p (A = 1)\cdot P \\ | ||
& = P | & = P | ||
\ | \end{align} | ||
</math></center> | </math></center> | ||
Z konieczności <math>Pr_E(\Delta_{\max},A)=Q</math>. Ponieważ nie zależy to od A, będziemy zapisywać <math> Pr_E(\Delta_{\max})=Q</math>. | Z konieczności <math>Pr_E(\Delta_{\max},A)=Q</math>. Ponieważ nie zależy to od A, będziemy zapisywać <math>Pr_E(\Delta_{\max})=Q</math>. | ||
Czy jest możliwe uzyskanie mniejszego prawdopodobieństwa błędu przez jakieś sprytniejsze wykorzystanie kanału? Z pewnością tak, jeśli poświęcimy więcej bitów na przesłanie jednego znaku. Naturalnym pomysłem jest wysyłanie każdego bitu kilka (np. 3) razy. Skoro poprawna transmisja jest bardziej prawdopodobna niż przekłamanie (<math>P>Q</math>), odbiorca powinien sprawdzać po prostu, który bit na wyjściu pojawia się częściej. | Czy jest możliwe uzyskanie mniejszego prawdopodobieństwa błędu przez jakieś sprytniejsze wykorzystanie kanału? Z pewnością tak, jeśli poświęcimy więcej bitów na przesłanie jednego znaku. Naturalnym pomysłem jest wysyłanie każdego bitu kilka (np. 3) razy. Skoro poprawna transmisja jest bardziej prawdopodobna niż przekłamanie (<math>P>Q</math>), odbiorca powinien sprawdzać po prostu, który bit na wyjściu pojawia się częściej. | ||
Linia 60: | Linia 60: | ||
<center><math>Pr_E ( \Delta_{\max } ) = Q^3 + 3 Q^2 P</math></center> | <center><math>Pr_E ( \Delta_{\max } ) = Q^3 + 3 Q^2 P</math></center> | ||
Aby sprawdzić, czy to jest mniej niż Q, wystarczy przyjrzeć się funkcji <math>Q^3 + 3 Q^2 (1-Q)-Q</math>. Ma ona pierwiastki <math>Q = \frac{1}{2}, 1 </math>. Przyjmuje więc wartości ujemne dla <math> Q < \frac{1}{2} | Aby sprawdzić, czy to jest mniej niż Q, wystarczy przyjrzeć się funkcji <math>Q^3 + 3 Q^2 (1-Q)-Q</math>. Ma ona pierwiastki <math>Q = \frac{1}{2}, 1</math>. Przyjmuje więc wartości ujemne dla <math>Q < \frac{1}{2}</math>. | ||
Linia 78: | Linia 78: | ||
Prawdopodobieństwo błędu wynosi | Prawdopodobieństwo błędu wynosi | ||
<center><math> Pr_E ( \Delta_{\max } ) = \sum_{i= 0}^{\lfloor \frac{n}{2} \rfloor} | <center><math>Pr_E ( \Delta_{\max } ) = \sum_{i= 0}^{\lfloor \frac{n}{2} \rfloor} | ||
{n \choose i} P^i \cdot Q^{n-i} \leq \underbrace{\sum_{i= 0}^{\lfloor \frac{n}{2} \rfloor} | {n \choose i} P^i \cdot Q^{n-i} \leq \underbrace{\sum_{i= 0}^{\lfloor \frac{n}{2} \rfloor} | ||
{n \choose i} }_{=2^{n-1}} | {n \choose i} }_{=2^{n-1}} | ||
Linia 85: | Linia 85: | ||
Ponieważ <math>P \cdot Q < \frac{1}{4}</math>, możemy podstawić <math>PQ= \frac{\delta }{4}</math> dla pewnego <math>\delta < 1</math>. Wtedy | Ponieważ <math>P \cdot Q < \frac{1}{4}</math>, możemy podstawić <math>PQ= \frac{\delta }{4}</math> dla pewnego <math>\delta < 1</math>. Wtedy | ||
<center><math> Pr_E ( \Delta_{\max } ) \leq 2^{n-1} \cdot (PQ)^{\lfloor \frac{n}{2} \rfloor} = | <center><math>Pr_E ( \Delta_{\max } ) \leq 2^{n-1} \cdot (PQ)^{\lfloor \frac{n}{2} \rfloor} = | ||
2^{n-1} \cdot \frac{\delta^{\lfloor \frac{n}{2} \rfloor}}{2^{2 \cdot \lfloor \frac{n}{2} \rfloor }}= \delta^{\lfloor \frac{n}{2} \rfloor}</math></center> | 2^{n-1} \cdot \frac{\delta^{\lfloor \frac{n}{2} \rfloor}}{2^{2 \cdot \lfloor \frac{n}{2} \rfloor }}= \delta^{\lfloor \frac{n}{2} \rfloor}</math></center> | ||
A więc <math> Pr_E ( \Delta_{\max } ) \to 0</math> gdy <math> n \to \infty</math>. | A więc <math>Pr_E ( \Delta_{\max } ) \to 0</math> gdy <math>n \to \infty</math>. | ||
Pokazaliśmy, że możemy sprowadzić prawdopodobieństwo błędu do dowolnie małej wartości za cenę wydłużania coraz bardziej wiadomości. Główne twierdzenie Shannona (które poznamy na następnym wykładzie) pokazuje, że w pewnym sensie ta cena nie jest konieczna. Dla wyrobienia intuicji, że coś takiego jest możliwe, zauważmy, że wybraliśmy powtarzanie tego samego symbolu dla uproszczenia i że możliwe są inne kodowania. Przykładowo, dyktując komuś przez telefon trudne słowo, każdą literę opisujemy całym słowem: przykładowo nazwę stolicy Gruzji, powiemy: T jak Teresa, B jak Barbara, I jak Iwona, L jak Lucyna, I jak Iwona, S jak Stanisław, I jak Iwona. | Pokazaliśmy, że możemy sprowadzić prawdopodobieństwo błędu do dowolnie małej wartości za cenę wydłużania coraz bardziej wiadomości. Główne twierdzenie Shannona (które poznamy na następnym wykładzie) pokazuje, że w pewnym sensie ta cena nie jest konieczna. Dla wyrobienia intuicji, że coś takiego jest możliwe, zauważmy, że wybraliśmy powtarzanie tego samego symbolu dla uproszczenia i że możliwe są inne kodowania. Przykładowo, dyktując komuś przez telefon trudne słowo, każdą literę opisujemy całym słowem: przykładowo nazwę stolicy Gruzji, powiemy: T jak Teresa, B jak Barbara, I jak Iwona, L jak Lucyna, I jak Iwona, S jak Stanisław, I jak Iwona. | ||
Linia 100: | Linia 100: | ||
*<math>d(u,v)\ge 0</math> | *<math>d(u,v)\ge 0</math> | ||
*<math>d(u,v) = 0 \Longleftrightarrow u = v </math> | *<math>d(u,v) = 0 \Longleftrightarrow u = v</math> | ||
*<math>d(u,v) = d(v,u)</math> | *<math>d(u,v) = d(v,u)</math> | ||
*<math>d(u,w) \leq d(u,v) + d(v,w)</math> | *<math>d(u,w) \leq d(u,v) + d(v,w)</math> | ||
(ostatnia nierówność wynika z faktu że <math>\{ i : u_i \neq w_i \} \subseteq \{ i : u_i \neq v_i \} \cup \{ i : v_i \neq w_i \} </math>) | (ostatnia nierówność wynika z faktu że <math>\{ i : u_i \neq w_i \} \subseteq \{ i : u_i \neq v_i \} \cup \{ i : v_i \neq w_i \}</math>) | ||
Pojęcie odległości Hamminga umożliwia wygodne zapisywanie prawdopodobieństwa warunkowego sekwencji wyjściowej <math>\vec{b} = b_1 \ldots b_k</math> dla sekwencji wejściowej <math>\vec{a} = a_1 \ldots a_k</math>. Dla BSC prawdopodobieństwo to ma wartość: | Pojęcie odległości Hamminga umożliwia wygodne zapisywanie prawdopodobieństwa warunkowego sekwencji wyjściowej <math>\vec{b} = b_1 \ldots b_k</math> dla sekwencji wejściowej <math>\vec{a} = a_1 \ldots a_k</math>. Dla BSC prawdopodobieństwo to ma wartość: | ||
<center><math>p( b_1 \ldots b_k | a_1 \ldots a_k ) = Q^{d (\vec{a},\vec{b})} \cdot P^{ | <center><math>p( b_1 \ldots b_k | a_1 \ldots a_k ) = Q^{d (\vec{a},\vec{b})} \cdot P^{k - d (\vec{a},\vec{b})}</math></center> |
Aktualna wersja na dzień 22:13, 11 wrz 2023
Poprawa jakości kanału
Załóżmy, że korzystamy z symetrycznego kanału określonego przez macierz
gdzie . W takim przypadku dla i dla dowolnego rozkładu A:
Z konieczności . Ponieważ nie zależy to od A, będziemy zapisywać .
Czy jest możliwe uzyskanie mniejszego prawdopodobieństwa błędu przez jakieś sprytniejsze wykorzystanie kanału? Z pewnością tak, jeśli poświęcimy więcej bitów na przesłanie jednego znaku. Naturalnym pomysłem jest wysyłanie każdego bitu kilka (np. 3) razy. Skoro poprawna transmisja jest bardziej prawdopodobna niż przekłamanie (), odbiorca powinien sprawdzać po prostu, który bit na wyjściu pojawia się częściej.
Całą procedurę możemy interpretować jako nowy kanał .
Jaka jest macierz tego kanału?
Korzystając z niezależności symboli, możemy policzyć, że prawdopodobieństwo , że wyjściowy symbol 0 odpowiada wejściowemu 0, wynosi
Podobne obliczenia dla pozostałych prawdopodobieństw pokazują, że jest znów symetrycznym kanałem, charakteryzowanym przez macierz
Oczywiście . Prawdopodobieństwo błędu wynosi tu
Aby sprawdzić, czy to jest mniej niż Q, wystarczy przyjrzeć się funkcji . Ma ona pierwiastki . Przyjmuje więc wartości ujemne dla .
Ogólnie, jeśli każdy bit zostanie powtórzony n razy i odbiorca będzie zawsze brał wartość częściej występującą (dla uproszczenia załóżmy że n jest nieparzyste), otrzymamy kanał BSC określony macierzą
Prawdopodobieństwo błędu wynosi
Ponieważ , możemy podstawić dla pewnego . Wtedy
A więc gdy .
Pokazaliśmy, że możemy sprowadzić prawdopodobieństwo błędu do dowolnie małej wartości za cenę wydłużania coraz bardziej wiadomości. Główne twierdzenie Shannona (które poznamy na następnym wykładzie) pokazuje, że w pewnym sensie ta cena nie jest konieczna. Dla wyrobienia intuicji, że coś takiego jest możliwe, zauważmy, że wybraliśmy powtarzanie tego samego symbolu dla uproszczenia i że możliwe są inne kodowania. Przykładowo, dyktując komuś przez telefon trudne słowo, każdą literę opisujemy całym słowem: przykładowo nazwę stolicy Gruzji, powiemy: T jak Teresa, B jak Barbara, I jak Iwona, L jak Lucyna, I jak Iwona, S jak Stanisław, I jak Iwona.
Odległość Hamminga
Definicja [Odległość Hamminga]
Łatwo sprawdzić, że ta odległość spełnia warunki metryki:
(ostatnia nierówność wynika z faktu że )
Pojęcie odległości Hamminga umożliwia wygodne zapisywanie prawdopodobieństwa warunkowego sekwencji wyjściowej dla sekwencji wejściowej . Dla BSC prawdopodobieństwo to ma wartość: