Teoria informacji/TI Wykład 9: Różnice pomiędzy wersjami
Nie podano opisu zmian |
Nie podano opisu zmian |
||
Linia 11: | Linia 11: | ||
<math> Pr_C ( \Delta_{\max } , A ) = \sum_{b \in \{ 0,1 \} } p (\Delta_{\max } (b) )\cdot p (\Delta_{\max } (b) \to b) </math> | <math> Pr_C ( \Delta_{\max } , A ) = \sum_{b \in \{ 0,1 \} } p (\Delta_{\max } (b) )\cdot p (\Delta_{\max } (b) \to b) </math> | ||
::<math>= p (A = 0)\cdot P + p (A = 1)\cdot P </math> | ::<math>= p (A = 0)\cdot P + p (A = 1)\cdot P </math> | ||
::<math>= P</math> | ::<math>= P</math> | ||
Z konieczności <math>Pr_E(\Delta_{\max},A)=Q</math>. Ponieważ nie zależy to od A, będziemy zapisywać <math> Pr_E(\Delta_{\max})=Q</math>. | Z konieczności <math>Pr_E(\Delta_{\max},A)=Q</math>. Ponieważ nie zależy to od A, będziemy zapisywać <math> Pr_E(\Delta_{\max})=Q</math>. | ||
Linia 17: | Linia 17: | ||
Czy jest możliwe uzyskanie mniejszego prawdopodobieństwa błędu przez jakieś sprytniejsze wykorzystanie kanału? Z pewnością tak, jeśli poświęcimy więcej bitów na przesłanie jednego znaku. Naturalnym pomysłem jest wysyłanie każdego bitu kilka (np. 3) razy. Skoro poprawna transmisja jest bardziej prawdopodobna niż przekłamanie (<math>P>Q</math>), odbiorca powinien sprawdzać po prostu który bit na wyjściu pojawia się częściej. | Czy jest możliwe uzyskanie mniejszego prawdopodobieństwa błędu przez jakieś sprytniejsze wykorzystanie kanału? Z pewnością tak, jeśli poświęcimy więcej bitów na przesłanie jednego znaku. Naturalnym pomysłem jest wysyłanie każdego bitu kilka (np. 3) razy. Skoro poprawna transmisja jest bardziej prawdopodobna niż przekłamanie (<math>P>Q</math>), odbiorca powinien sprawdzać po prostu który bit na wyjściu pojawia się częściej. | ||
<math>\begin{matrix} | |||
0 & \to & 000 & \to \\ | |||
1 & \to & 111 & \to | |||
\end{matrix}</math> | |||
[[grafika:gamma.PNG]] | |||
<math>\begin{matrix} | |||
\to & 000 & 001 & 010 & 100 & \to & 0 \\ | |||
\to & 111 & 110 & 101 & 011 & \to & 1 | |||
\end{matrix}</math> | |||
Całą procedurę możemy | Całą procedurę możemy interpretować jako nowy kanał <math>\Gamma'</math>. | ||
<math>\begin{matrix} | |||
0 & \to \\ | |||
1 & \to | |||
\end{matrix}</math> | |||
[[grafika:gamma1.PNG]] | |||
<math>\begin{matrix} | |||
\to & 0 \\ | |||
\to & 1 | |||
\end{matrix}</math> | |||
Jaka jest macierz tego kanału? | Jaka jest macierz tego kanału? | ||
Linia 39: | Linia 55: | ||
Aby sprawdzić czy to jest mniej niż Q, wystarczy przyjrzeć się funkcji <math>Q^3 + 3 Q^2 (1-Q) – Q</math>. Przyjmuje ona wartości ujemne dla <math>Q < \frac{1}{2} + \frac{1}{\sqrt{12}} </math> | Aby sprawdzić czy to jest mniej niż Q, wystarczy przyjrzeć się funkcji <math>Q^3 + 3 Q^2 (1-Q) – Q</math>. Przyjmuje ona wartości ujemne dla <math>Q < \frac{1}{2} + \frac{1}{\sqrt{12}} </math> | ||
W ogólności, jeśli każdy bit zostanie powtórzony n razy i odbiorca będzie zawsze brał wartość częściej występującą (dla uproszczenia załóżmy że n jest nieparzyste), otrzymamy kanał BSC określony macierzą | W ogólności, jeśli każdy bit zostanie powtórzony n razy i odbiorca będzie zawsze brał wartość częściej występującą (dla uproszczenia załóżmy że n jest nieparzyste), otrzymamy kanał BSC określony macierzą | ||
Linia 68: | Linia 85: | ||
Pokazaliśmy że możemy sprowadzić prawdopodobieństwo błędu do dowolnie małej wartości, za cenę wydłużania coraz bardziej wiadomości. Główne twierdzenie Shannona (które poznamy na następnym wykładzie) pokazuje że, w pewnym sensie, ta cena nie jest konieczna. Dla wyrobienia intuicji że coś takiego jest możliwe, zauważmy że wybraliśmy powtarzanie tego samego symbolu dla uproszczenia, i możliwe są inne kodowania. Przykładowo, dyktując komuś przez telefon trudne słowo, każdą literę opisujemy całym słowem: przykładowo nazwę stolicy Gruzji, powiemy: T jak Teresa, B jak Barbara, I jak Iwona, L jak Lucyna, I jak Iwona, S jak Stanisław, I jak Iwona. | Pokazaliśmy że możemy sprowadzić prawdopodobieństwo błędu do dowolnie małej wartości, za cenę wydłużania coraz bardziej wiadomości. Główne twierdzenie Shannona (które poznamy na następnym wykładzie) pokazuje że, w pewnym sensie, ta cena nie jest konieczna. Dla wyrobienia intuicji że coś takiego jest możliwe, zauważmy że wybraliśmy powtarzanie tego samego symbolu dla uproszczenia, i możliwe są inne kodowania. Przykładowo, dyktując komuś przez telefon trudne słowo, każdą literę opisujemy całym słowem: przykładowo nazwę stolicy Gruzji, powiemy: T jak Teresa, B jak Barbara, I jak Iwona, L jak Lucyna, I jak Iwona, S jak Stanisław, I jak Iwona. | ||
==Odległość Hamminga== | ==Odległość Hamminga== |
Wersja z 08:46, 2 sie 2006
Poprawa jakości kanału
Załóżmy że korzystamy z symetrycznego kanału określonego przez macierz , gdzie . W takim przypadku dla i dla dowolnego rozkładu A:
Z konieczności . Ponieważ nie zależy to od A, będziemy zapisywać .
Czy jest możliwe uzyskanie mniejszego prawdopodobieństwa błędu przez jakieś sprytniejsze wykorzystanie kanału? Z pewnością tak, jeśli poświęcimy więcej bitów na przesłanie jednego znaku. Naturalnym pomysłem jest wysyłanie każdego bitu kilka (np. 3) razy. Skoro poprawna transmisja jest bardziej prawdopodobna niż przekłamanie (), odbiorca powinien sprawdzać po prostu który bit na wyjściu pojawia się częściej.
Całą procedurę możemy interpretować jako nowy kanał .
Jaka jest macierz tego kanału?
Korzystając z niezależności symboli, możemy policzyć że prawdopodobieństwo że wyjściowy symbol 0 odpowiada wejściowemu 0, wynosi
Podobne obliczenia dla pozostałych prawdopodobieństw pokazują że jest znów symetrycznym kanałem, charakteryzowanym przez macierz
Oczywiście . Prawdopodobieństwo błędu wynosi tu
Aby sprawdzić czy to jest mniej niż Q, wystarczy przyjrzeć się funkcji Parser nie mógł rozpoznać (błąd składni): {\displaystyle Q^3 + 3 Q^2 (1-Q) – Q} . Przyjmuje ona wartości ujemne dla
W ogólności, jeśli każdy bit zostanie powtórzony n razy i odbiorca będzie zawsze brał wartość częściej występującą (dla uproszczenia załóżmy że n jest nieparzyste), otrzymamy kanał BSC określony macierzą
Prawdopodobieństwo błędu wynosi
Ponieważ , możemy podstawić dla pewnego . Wtedy
A więc gdy .
Pokazaliśmy że możemy sprowadzić prawdopodobieństwo błędu do dowolnie małej wartości, za cenę wydłużania coraz bardziej wiadomości. Główne twierdzenie Shannona (które poznamy na następnym wykładzie) pokazuje że, w pewnym sensie, ta cena nie jest konieczna. Dla wyrobienia intuicji że coś takiego jest możliwe, zauważmy że wybraliśmy powtarzanie tego samego symbolu dla uproszczenia, i możliwe są inne kodowania. Przykładowo, dyktując komuś przez telefon trudne słowo, każdą literę opisujemy całym słowem: przykładowo nazwę stolicy Gruzji, powiemy: T jak Teresa, B jak Barbara, I jak Iwona, L jak Lucyna, I jak Iwona, S jak Stanisław, I jak Iwona.
Odległość Hamminga
Definicja [Odległość Hamminga]
- .
Łatwo sprawdzić że ta odległość spełnia warunki metryki
(ostatnia nierówność wynika z faktu że )
Pojęcie odległości Hamminga umożliwia wygodne zapisywanie prawdopodobieństwa warunkowego sekwencji wyjściowej dla sekwencji wejściowej . Dla BSC prawdopodobieństwo to ma wartość: