Teoria informacji/TI Wykład 9: Różnice pomiędzy wersjami
Nie podano opisu zmian |
Nie podano opisu zmian |
||
Linia 1: | Linia 1: | ||
==Poprawa jakości kanału== | ==Poprawa jakości kanału== | ||
Załóżmy że korzystamy z symetrycznego kanału <math>\Gamma</math> określonego przez macierz | Załóżmy, że korzystamy z symetrycznego kanału <math>\Gamma</math> określonego przez macierz | ||
<center><math>\left( | <center><math>\left( | ||
\begin{matrix} | \begin{matrix} | ||
Linia 20: | Linia 20: | ||
Z konieczności <math>Pr_E(\Delta_{\max},A)=Q</math>. Ponieważ nie zależy to od A, będziemy zapisywać <math> Pr_E(\Delta_{\max})=Q</math>. | Z konieczności <math>Pr_E(\Delta_{\max},A)=Q</math>. Ponieważ nie zależy to od A, będziemy zapisywać <math> Pr_E(\Delta_{\max})=Q</math>. | ||
Czy jest możliwe uzyskanie mniejszego prawdopodobieństwa błędu przez jakieś sprytniejsze wykorzystanie kanału? Z pewnością tak, jeśli poświęcimy więcej bitów na przesłanie jednego znaku. Naturalnym pomysłem jest wysyłanie każdego bitu kilka (np. 3) razy. Skoro poprawna transmisja jest bardziej prawdopodobna niż przekłamanie (<math>P>Q</math>), odbiorca powinien sprawdzać po prostu który bit na wyjściu pojawia się częściej. | Czy jest możliwe uzyskanie mniejszego prawdopodobieństwa błędu przez jakieś sprytniejsze wykorzystanie kanału? Z pewnością tak, jeśli poświęcimy więcej bitów na przesłanie jednego znaku. Naturalnym pomysłem jest wysyłanie każdego bitu kilka (np. 3) razy. Skoro poprawna transmisja jest bardziej prawdopodobna niż przekłamanie (<math>P>Q</math>), odbiorca powinien sprawdzać po prostu, który bit na wyjściu pojawia się częściej. | ||
<center><math>\begin{matrix} | <center><math>\begin{matrix} | ||
Linia 46: | Linia 46: | ||
Jaka jest macierz tego kanału? | Jaka jest macierz tego kanału? | ||
Korzystając z [[Teoria informacji/TI Wykład 8#niez_symboli|niezależności symboli]], możemy policzyć że prawdopodobieństwo <math>p(0|0)</math> że wyjściowy symbol 0 odpowiada wejściowemu 0, wynosi | Korzystając z [[Teoria informacji/TI Wykład 8#niez_symboli|niezależności symboli]], możemy policzyć, że prawdopodobieństwo <math>p(0|0)</math>, że wyjściowy symbol 0 odpowiada wejściowemu 0, wynosi | ||
<center><math>p (000 | 000) + p (001 |000) + p (010 |000) + p (100 |000) = P^3 + 3 P^2 Q</math></center> | <center><math>p (000 | 000) + p (001 |000) + p (010 |000) + p (100 |000) = P^3 + 3 P^2 Q</math></center> | ||
Podobne obliczenia dla pozostałych prawdopodobieństw pokazują że <math>\Gamma'</math> jest znów symetrycznym kanałem, charakteryzowanym przez macierz | Podobne obliczenia dla pozostałych prawdopodobieństw pokazują, że <math>\Gamma'</math> jest znów symetrycznym kanałem, charakteryzowanym przez macierz | ||
<center><math>\left( | <center><math>\left( | ||
\begin{matrix} | \begin{matrix} | ||
Linia 60: | Linia 60: | ||
<center><math>Pr_E ( \Delta_{\max } ) = Q^3 + 3 Q^2 P</math></center> | <center><math>Pr_E ( \Delta_{\max } ) = Q^3 + 3 Q^2 P</math></center> | ||
Aby sprawdzić czy to jest mniej niż Q, wystarczy przyjrzeć się funkcji <math>Q^3 + 3 Q^2 (1-Q)-Q</math>. Przyjmuje ona wartości ujemne dla <math>Q < \frac{1}{2} + \frac{1}{\sqrt{12}} </math> | Aby sprawdzić, czy to jest mniej niż Q, wystarczy przyjrzeć się funkcji <math>Q^3 + 3 Q^2 (1-Q)-Q</math>. Przyjmuje ona wartości ujemne dla <math>Q < \frac{1}{2} + \frac{1}{\sqrt{12}} </math> | ||
Ogólnie, jeśli każdy bit zostanie powtórzony n razy i odbiorca będzie zawsze brał wartość częściej występującą (dla uproszczenia załóżmy że n jest nieparzyste), otrzymamy kanał BSC określony macierzą | |||
<center><math>\left( | <center><math>\left( | ||
\begin{matrix} | \begin{matrix} | ||
Linia 90: | Linia 90: | ||
A więc <math> Pr_E ( \Delta_{\max } ) \to 0</math> gdy <math> n \to \infty</math>. | A więc <math> Pr_E ( \Delta_{\max } ) \to 0</math> gdy <math> n \to \infty</math>. | ||
Pokazaliśmy że możemy sprowadzić prawdopodobieństwo błędu do dowolnie małej wartości | Pokazaliśmy, że możemy sprowadzić prawdopodobieństwo błędu do dowolnie małej wartości za cenę wydłużania coraz bardziej wiadomości. Główne twierdzenie Shannona (które poznamy na następnym wykładzie) pokazuje, że w pewnym sensie ta cena nie jest konieczna. Dla wyrobienia intuicji, że coś takiego jest możliwe, zauważmy, że wybraliśmy powtarzanie tego samego symbolu dla uproszczenia i że możliwe są inne kodowania. Przykładowo, dyktując komuś przez telefon trudne słowo, każdą literę opisujemy całym słowem: przykładowo nazwę stolicy Gruzji, powiemy: T jak Teresa, B jak Barbara, I jak Iwona, L jak Lucyna, I jak Iwona, S jak Stanisław, I jak Iwona. | ||
==Odległość Hamminga== | ==Odległość Hamminga== | ||
{{definicja|[Odległość Hamminga]|hamming| Dla skończonego zbioru <math>\mathcal{A}</math> i <math>n \in \mathbb{N}</math> | {{definicja|[Odległość Hamminga]|hamming| Dla skończonego zbioru <math>\mathcal{A}</math> i <math>n \in \mathbb{N}</math> '''odległość Hamminga''' między słowami <math>u, v \in \mathcal{A}^n</math> definiujemy jako: | ||
<center><math>d (u,v) = | \{ i : u_i \neq v_i \}|</math></center>}} | <center><math>d (u,v) = | \{ i : u_i \neq v_i \}|</math></center>}} | ||
Łatwo sprawdzić że ta odległość spełnia warunki metryki | Łatwo sprawdzić, że ta odległość spełnia warunki metryki: | ||
*<math>d(u,v)\ge 0</math> | *<math>d(u,v)\ge 0</math> |
Wersja z 09:26, 20 wrz 2006
Poprawa jakości kanału
Załóżmy, że korzystamy z symetrycznego kanału określonego przez macierz
gdzie . W takim przypadku dla i dla dowolnego rozkładu A:
Z konieczności . Ponieważ nie zależy to od A, będziemy zapisywać .
Czy jest możliwe uzyskanie mniejszego prawdopodobieństwa błędu przez jakieś sprytniejsze wykorzystanie kanału? Z pewnością tak, jeśli poświęcimy więcej bitów na przesłanie jednego znaku. Naturalnym pomysłem jest wysyłanie każdego bitu kilka (np. 3) razy. Skoro poprawna transmisja jest bardziej prawdopodobna niż przekłamanie (), odbiorca powinien sprawdzać po prostu, który bit na wyjściu pojawia się częściej.
Całą procedurę możemy interpretować jako nowy kanał .
Jaka jest macierz tego kanału?
Korzystając z niezależności symboli, możemy policzyć, że prawdopodobieństwo , że wyjściowy symbol 0 odpowiada wejściowemu 0, wynosi
Podobne obliczenia dla pozostałych prawdopodobieństw pokazują, że jest znów symetrycznym kanałem, charakteryzowanym przez macierz
Oczywiście . Prawdopodobieństwo błędu wynosi tu
Aby sprawdzić, czy to jest mniej niż Q, wystarczy przyjrzeć się funkcji . Przyjmuje ona wartości ujemne dla
Ogólnie, jeśli każdy bit zostanie powtórzony n razy i odbiorca będzie zawsze brał wartość częściej występującą (dla uproszczenia załóżmy że n jest nieparzyste), otrzymamy kanał BSC określony macierzą
Prawdopodobieństwo błędu wynosi
Ponieważ , możemy podstawić dla pewnego . Wtedy
A więc gdy .
Pokazaliśmy, że możemy sprowadzić prawdopodobieństwo błędu do dowolnie małej wartości za cenę wydłużania coraz bardziej wiadomości. Główne twierdzenie Shannona (które poznamy na następnym wykładzie) pokazuje, że w pewnym sensie ta cena nie jest konieczna. Dla wyrobienia intuicji, że coś takiego jest możliwe, zauważmy, że wybraliśmy powtarzanie tego samego symbolu dla uproszczenia i że możliwe są inne kodowania. Przykładowo, dyktując komuś przez telefon trudne słowo, każdą literę opisujemy całym słowem: przykładowo nazwę stolicy Gruzji, powiemy: T jak Teresa, B jak Barbara, I jak Iwona, L jak Lucyna, I jak Iwona, S jak Stanisław, I jak Iwona.
Odległość Hamminga
Definicja [Odległość Hamminga]
Łatwo sprawdzić, że ta odległość spełnia warunki metryki:
(ostatnia nierówność wynika z faktu że )
Pojęcie odległości Hamminga umożliwia wygodne zapisywanie prawdopodobieństwa warunkowego sekwencji wyjściowej dla sekwencji wejściowej . Dla BSC prawdopodobieństwo to ma wartość: