Teoria informacji/TI Wykład 9: Różnice pomiędzy wersjami
Nie podano opisu zmian |
Nie podano opisu zmian |
||
Linia 1: | Linia 1: | ||
==Poprawa jakości kanału== | ==Poprawa jakości kanału== | ||
Załóżmy że korzystamy z symetrycznego kanału <math>\Gamma</math> określonego przez macierz <math>\left( | Załóżmy że korzystamy z symetrycznego kanału <math>\Gamma</math> określonego przez macierz | ||
<center><math>\left( | |||
\begin{matrix} | \begin{matrix} | ||
P & Q \\ | P & Q \\ | ||
Q & P | Q & P | ||
\end{matrix} | \end{matrix} | ||
\right)</math> | \right)</math></center> | ||
gdzie <math>P>Q</math>. W takim przypadku <math>\Delta_{\max}(i)=i</math> dla <math>i=0,1</math> i dla dowolnego rozkładu A: | gdzie <math>P>Q</math>. W takim przypadku <math>\Delta_{\max}(i)=i</math> dla <math>i=0,1</math> i dla dowolnego rozkładu A: | ||
<math> Pr_C ( \Delta_{\max } , A ) = \sum_{b \in \{ 0,1 \} } p (\Delta_{\max } (b) )\cdot p (\Delta_{\max } (b) \to b) | <center><math>\aligned | ||
Pr_C ( \Delta_{\max } , A ) & = \sum_{b \in \{ 0,1 \} } p (\Delta_{\max } (b) )\cdot p (\Delta_{\max } (b) \to b)\\ | |||
& = p (A = 0)\cdot P + p (A = 1)\cdot P \\ | |||
& = P | |||
\endaligned | |||
</math></center> | |||
Z konieczności <math>Pr_E(\Delta_{\max},A)=Q</math>. Ponieważ nie zależy to od A, będziemy zapisywać <math> Pr_E(\Delta_{\max})=Q</math>. | Z konieczności <math>Pr_E(\Delta_{\max},A)=Q</math>. Ponieważ nie zależy to od A, będziemy zapisywać <math> Pr_E(\Delta_{\max})=Q</math>. | ||
Linia 17: | Linia 22: | ||
Czy jest możliwe uzyskanie mniejszego prawdopodobieństwa błędu przez jakieś sprytniejsze wykorzystanie kanału? Z pewnością tak, jeśli poświęcimy więcej bitów na przesłanie jednego znaku. Naturalnym pomysłem jest wysyłanie każdego bitu kilka (np. 3) razy. Skoro poprawna transmisja jest bardziej prawdopodobna niż przekłamanie (<math>P>Q</math>), odbiorca powinien sprawdzać po prostu który bit na wyjściu pojawia się częściej. | Czy jest możliwe uzyskanie mniejszego prawdopodobieństwa błędu przez jakieś sprytniejsze wykorzystanie kanału? Z pewnością tak, jeśli poświęcimy więcej bitów na przesłanie jednego znaku. Naturalnym pomysłem jest wysyłanie każdego bitu kilka (np. 3) razy. Skoro poprawna transmisja jest bardziej prawdopodobna niż przekłamanie (<math>P>Q</math>), odbiorca powinien sprawdzać po prostu który bit na wyjściu pojawia się częściej. | ||
<math>\begin{matrix} | <center><math>\begin{matrix} | ||
0 & \ | 0 & \mapsto & 000 & \to \\ | ||
1 & \ | 1 & \mapsto & 111 & \to | ||
\end{matrix}</math> | \end{matrix}</math> | ||
[[grafika:gamma.PNG]] | [[grafika:gamma.PNG]] | ||
<math>\begin{matrix} | <math>\begin{matrix} | ||
\to & 000 & 001 & 010 & 100 & \ | \to & 000 & 001 & 010 & 100 & \mapsto & 0 \\ | ||
\to & 111 & 110 & 101 & 011 & \ | \to & 111 & 110 & 101 & 011 & \mapsto & 1 | ||
\end{matrix}</math> | \end{matrix}</math></center> | ||
Całą procedurę możemy interpretować jako nowy kanał <math>\Gamma'</math>. | Całą procedurę możemy interpretować jako nowy kanał <math>\Gamma'</math>. | ||
<math>\begin{matrix} | <center><math>\begin{matrix} | ||
0 & \to \\ | 0 & \to \\ | ||
1 & \to | 1 & \to | ||
Linia 37: | Linia 42: | ||
\to & 0 \\ | \to & 0 \\ | ||
\to & 1 | \to & 1 | ||
\end{matrix}</math> | \end{matrix}</math></center> | ||
Jaka jest macierz tego kanału? | Jaka jest macierz tego kanału? | ||
Korzystając z [[Teoria informacji/TI Wykład 8#niez_symboli|niezależności symboli]], możemy policzyć że prawdopodobieństwo <math>p(0|0)</math> że wyjściowy symbol 0 odpowiada wejściowemu 0, wynosi | Korzystając z [[Teoria informacji/TI Wykład 8#niez_symboli|niezależności symboli]], możemy policzyć że prawdopodobieństwo <math>p(0|0)</math> że wyjściowy symbol 0 odpowiada wejściowemu 0, wynosi | ||
<center><math>p (000 | 000) + p (001 |000) + p (010 |000) + p (100 |000) = P^3 + 3 P^2 Q</math></center> | |||
Podobne obliczenia dla pozostałych prawdopodobieństw pokazują że <math>\Gamma'</math> jest znów symetrycznym kanałem, charakteryzowanym przez macierz | Podobne obliczenia dla pozostałych prawdopodobieństw pokazują że <math>\Gamma'</math> jest znów symetrycznym kanałem, charakteryzowanym przez macierz | ||
<center><math>\left( | |||
\begin{matrix} | \begin{matrix} | ||
P^3 + 3 P^2 Q & Q^3 + 3 Q^2 P \\ | P^3 + 3 P^2 Q & Q^3 + 3 Q^2 P \\ | ||
Q^3 + 3 Q^2 P & P^3 + 3 P^2 Q | Q^3 + 3 Q^2 P & P^3 + 3 P^2 Q | ||
\end{matrix} | \end{matrix} | ||
\right)</math> | \right)</math></center> | ||
Oczywiście <math>Q^3 + 3 Q^2 P < P^3 + 3 P^2 Q</math>. Prawdopodobieństwo błędu wynosi tu | Oczywiście <math>Q^3 + 3 Q^2 P < P^3 + 3 P^2 Q</math>. Prawdopodobieństwo błędu wynosi tu | ||
<center><math>Pr_E ( \Delta_{\max } ) = Q^3 + 3 Q^2 P</math></center> | |||
Aby sprawdzić czy to jest mniej niż Q, wystarczy przyjrzeć się funkcji <math>Q^3 + 3 Q^2 (1-Q) – Q</math>. Przyjmuje ona wartości ujemne dla <math>Q < \frac{1}{2} + \frac{1}{\sqrt{12}} </math> | Aby sprawdzić czy to jest mniej niż Q, wystarczy przyjrzeć się funkcji <math>Q^3 + 3 Q^2 (1-Q) – Q</math>. Przyjmuje ona wartości ujemne dla <math>Q < \frac{1}{2} + \frac{1}{\sqrt{12}} </math> | ||
Linia 58: | Linia 64: | ||
W ogólności, jeśli każdy bit zostanie powtórzony n razy i odbiorca będzie zawsze brał wartość częściej występującą (dla uproszczenia załóżmy że n jest nieparzyste), otrzymamy kanał BSC określony macierzą | W ogólności, jeśli każdy bit zostanie powtórzony n razy i odbiorca będzie zawsze brał wartość częściej występującą (dla uproszczenia załóżmy że n jest nieparzyste), otrzymamy kanał BSC określony macierzą | ||
<center><math>\left( | |||
\begin{matrix} | \begin{matrix} | ||
\sum_{i= \lceil \frac{n}{2} \rceil }^{n} | \sum_{i= \lceil \frac{n}{2} \rceil }^{n} | ||
Linia 69: | Linia 75: | ||
{n \choose i} P^{i} \cdot Q^{n-i} | {n \choose i} P^{i} \cdot Q^{n-i} | ||
\end{matrix} | \end{matrix} | ||
\right)</math> | \right)</math></center> | ||
Prawdopodobieństwo błędu wynosi | Prawdopodobieństwo błędu wynosi | ||
<center><math> Pr_E ( \Delta_{\max } ) = \sum_{i= 0}^{\lfloor \frac{n}{2} \rfloor} | |||
{n \choose i} P^i \cdot Q^{n-i} \leq \underbrace{\sum_{i= 0}^{\lfloor \frac{n}{2} \rfloor} | {n \choose i} P^i \cdot Q^{n-i} \leq \underbrace{\sum_{i= 0}^{\lfloor \frac{n}{2} \rfloor} | ||
{n \choose i} }_{=2^{n-1}} | {n \choose i} }_{=2^{n-1}} | ||
{P^{\lfloor \frac{n}{2} \rfloor} \cdot | {P^{\lfloor \frac{n}{2} \rfloor} \cdot | ||
Q^{\lfloor \frac{n}{2} \rfloor}}</math> | Q^{\lfloor \frac{n}{2} \rfloor}}</math></center> | ||
Ponieważ <math>P \cdot Q < \frac{1}{4}</math>, możemy podstawić <math>PQ= \frac{\delta }{4}</math> dla pewnego <math>\delta < 1</math>. Wtedy | Ponieważ <math>P \cdot Q < \frac{1}{4}</math>, możemy podstawić <math>PQ= \frac{\delta }{4}</math> dla pewnego <math>\delta < 1</math>. Wtedy | ||
<center><math> Pr_E ( \Delta_{\max } ) \leq 2^{n-1} \cdot (PQ)^{\lfloor \frac{n}{2} \rfloor} = | |||
2^{n-1} \cdot \frac{\delta^{\lfloor \frac{n}{2} \rfloor}}{2^{2 \cdot \lfloor \frac{n}{2} \rfloor }}= \delta^{\lfloor \frac{n}{2} \rfloor}</math> | 2^{n-1} \cdot \frac{\delta^{\lfloor \frac{n}{2} \rfloor}}{2^{2 \cdot \lfloor \frac{n}{2} \rfloor }}= \delta^{\lfloor \frac{n}{2} \rfloor}</math></center> | ||
A więc <math> Pr_E ( \Delta_{\max } ) \to 0</math> gdy <math> n \to \infty</math>. | A więc <math> Pr_E ( \Delta_{\max } ) \to 0</math> gdy <math> n \to \infty</math>. | ||
Linia 90: | Linia 96: | ||
{{definicja|[Odległość Hamminga]|hamming| Dla skończonego zbioru <math>\mathcal{A}</math> i <math>n \in \mathbb{N}</math>, '''odległość Hamminga''' między słowami <math>u, v \in \mathcal{A}^n</math> definiujemy jako | {{definicja|[Odległość Hamminga]|hamming| Dla skończonego zbioru <math>\mathcal{A}</math> i <math>n \in \mathbb{N}</math>, '''odległość Hamminga''' między słowami <math>u, v \in \mathcal{A}^n</math> definiujemy jako | ||
<center><math>d (u,v) = | \{ i : u_i \neq v_i \}|</math></center>}} | |||
Łatwo sprawdzić że ta odległość spełnia warunki metryki | Łatwo sprawdzić że ta odległość spełnia warunki metryki | ||
Linia 103: | Linia 109: | ||
Pojęcie odległości Hamminga umożliwia wygodne zapisywanie prawdopodobieństwa warunkowego sekwencji wyjściowej <math>\vec{b} = b_1 \ldots b_k</math> dla sekwencji wejściowej <math>\vec{a} = a_1 \ldots a_k</math>. Dla BSC prawdopodobieństwo to ma wartość: | Pojęcie odległości Hamminga umożliwia wygodne zapisywanie prawdopodobieństwa warunkowego sekwencji wyjściowej <math>\vec{b} = b_1 \ldots b_k</math> dla sekwencji wejściowej <math>\vec{a} = a_1 \ldots a_k</math>. Dla BSC prawdopodobieństwo to ma wartość: | ||
<center><math>p( b_1 \ldots b_k | a_1 \ldots a_k ) = Q^{d (\vec{a},\vec{b})} \cdot P^{1 - d (\vec{a},\vec{b})}</math></center> |
Wersja z 13:17, 2 sie 2006
Poprawa jakości kanału
Załóżmy że korzystamy z symetrycznego kanału określonego przez macierz
gdzie . W takim przypadku dla i dla dowolnego rozkładu A:
Z konieczności . Ponieważ nie zależy to od A, będziemy zapisywać .
Czy jest możliwe uzyskanie mniejszego prawdopodobieństwa błędu przez jakieś sprytniejsze wykorzystanie kanału? Z pewnością tak, jeśli poświęcimy więcej bitów na przesłanie jednego znaku. Naturalnym pomysłem jest wysyłanie każdego bitu kilka (np. 3) razy. Skoro poprawna transmisja jest bardziej prawdopodobna niż przekłamanie (), odbiorca powinien sprawdzać po prostu który bit na wyjściu pojawia się częściej.
Całą procedurę możemy interpretować jako nowy kanał .
Jaka jest macierz tego kanału?
Korzystając z niezależności symboli, możemy policzyć że prawdopodobieństwo że wyjściowy symbol 0 odpowiada wejściowemu 0, wynosi
Podobne obliczenia dla pozostałych prawdopodobieństw pokazują że jest znów symetrycznym kanałem, charakteryzowanym przez macierz
Oczywiście . Prawdopodobieństwo błędu wynosi tu
Aby sprawdzić czy to jest mniej niż Q, wystarczy przyjrzeć się funkcji Parser nie mógł rozpoznać (błąd składni): {\displaystyle Q^3 + 3 Q^2 (1-Q) – Q} . Przyjmuje ona wartości ujemne dla
W ogólności, jeśli każdy bit zostanie powtórzony n razy i odbiorca będzie zawsze brał wartość częściej występującą (dla uproszczenia załóżmy że n jest nieparzyste), otrzymamy kanał BSC określony macierzą
Prawdopodobieństwo błędu wynosi
Ponieważ , możemy podstawić dla pewnego . Wtedy
A więc gdy .
Pokazaliśmy że możemy sprowadzić prawdopodobieństwo błędu do dowolnie małej wartości, za cenę wydłużania coraz bardziej wiadomości. Główne twierdzenie Shannona (które poznamy na następnym wykładzie) pokazuje że, w pewnym sensie, ta cena nie jest konieczna. Dla wyrobienia intuicji że coś takiego jest możliwe, zauważmy że wybraliśmy powtarzanie tego samego symbolu dla uproszczenia, i możliwe są inne kodowania. Przykładowo, dyktując komuś przez telefon trudne słowo, każdą literę opisujemy całym słowem: przykładowo nazwę stolicy Gruzji, powiemy: T jak Teresa, B jak Barbara, I jak Iwona, L jak Lucyna, I jak Iwona, S jak Stanisław, I jak Iwona.
Odległość Hamminga
Definicja [Odległość Hamminga]
Łatwo sprawdzić że ta odległość spełnia warunki metryki
(ostatnia nierówność wynika z faktu że )
Pojęcie odległości Hamminga umożliwia wygodne zapisywanie prawdopodobieństwa warunkowego sekwencji wyjściowej dla sekwencji wejściowej . Dla BSC prawdopodobieństwo to ma wartość: