Teoria informacji/TI Wykład 9: Różnice pomiędzy wersjami

Z Studia Informatyczne
Przejdź do nawigacjiPrzejdź do wyszukiwania
Stromy (dyskusja | edycje)
Nie podano opisu zmian
Stromy (dyskusja | edycje)
Nie podano opisu zmian
Linia 11: Linia 11:
<math> Pr_C ( \Delta_{\max } , A ) = \sum_{b \in \{ 0,1 \} } p (\Delta_{\max } (b) )\cdot p (\Delta_{\max } (b) \to b) </math>
<math> Pr_C ( \Delta_{\max } , A ) = \sum_{b \in \{ 0,1 \} } p (\Delta_{\max } (b) )\cdot p (\Delta_{\max } (b) \to b) </math>
::<math>= p (A = 0)\cdot P + p (A = 1)\cdot P </math>
::<math>= p (A = 0)\cdot P + p (A = 1)\cdot P </math>
::<math>= P</math>,
::<math>= P</math>


Z konieczności <math>Pr_E(\Delta_{\max},A)=Q</math>. Ponieważ nie zależy to od A, będziemy zapisywać <math> Pr_E(\Delta_{\max})=Q</math>.
Z konieczności <math>Pr_E(\Delta_{\max},A)=Q</math>. Ponieważ nie zależy to od A, będziemy zapisywać <math> Pr_E(\Delta_{\max})=Q</math>.
Linia 17: Linia 17:
Czy jest możliwe uzyskanie mniejszego prawdopodobieństwa błędu przez jakieś sprytniejsze wykorzystanie kanału? Z pewnością tak, jeśli poświęcimy więcej bitów na przesłanie jednego znaku. Naturalnym pomysłem jest wysyłanie każdego bitu kilka (np. 3) razy. Skoro poprawna transmisja jest bardziej prawdopodobna niż przekłamanie (<math>P>Q</math>), odbiorca powinien sprawdzać po prostu który bit na wyjściu pojawia się częściej.
Czy jest możliwe uzyskanie mniejszego prawdopodobieństwa błędu przez jakieś sprytniejsze wykorzystanie kanału? Z pewnością tak, jeśli poświęcimy więcej bitów na przesłanie jednego znaku. Naturalnym pomysłem jest wysyłanie każdego bitu kilka (np. 3) razy. Skoro poprawna transmisja jest bardziej prawdopodobna niż przekłamanie (<math>P>Q</math>), odbiorca powinien sprawdzać po prostu który bit na wyjściu pojawia się częściej.


(rysunek TODO)
<math>\begin{matrix}
0 & \to & 000 & \to \\
1 & \to & 111 & \to
\end{matrix}</math>
[[grafika:gamma.PNG]]
<math>\begin{matrix}
\to & 000 & 001 & 010 & 100 & \to & 0 \\
\to & 111 & 110 & 101 & 011 & \to & 1
\end{matrix}</math>


Całą procedurę możemy intrpretować jako nowy kanał <math>\Gamma'</math>.
Całą procedurę możemy interpretować jako nowy kanał <math>\Gamma'</math>.


(rysunek TODO)
<math>\begin{matrix}
0 & \to \\
1 & \to
\end{matrix}</math>
[[grafika:gamma1.PNG]]
<math>\begin{matrix}
\to & 0 \\
\to & 1
\end{matrix}</math>


Jaka jest macierz tego kanału?
Jaka jest macierz tego kanału?
Linia 39: Linia 55:


Aby sprawdzić czy to jest mniej niż Q, wystarczy przyjrzeć się funkcji <math>Q^3 + 3 Q^2 (1-Q) – Q</math>. Przyjmuje ona wartości ujemne dla <math>Q < \frac{1}{2} + \frac{1}{\sqrt{12}}  </math>
Aby sprawdzić czy to jest mniej niż Q, wystarczy przyjrzeć się funkcji <math>Q^3 + 3 Q^2 (1-Q) – Q</math>. Przyjmuje ona wartości ujemne dla <math>Q < \frac{1}{2} + \frac{1}{\sqrt{12}}  </math>


W ogólności, jeśli każdy bit zostanie powtórzony n razy i odbiorca będzie zawsze brał wartość częściej występującą (dla uproszczenia załóżmy że n jest nieparzyste), otrzymamy kanał BSC określony macierzą
W ogólności, jeśli każdy bit zostanie powtórzony n razy i odbiorca będzie zawsze brał wartość częściej występującą (dla uproszczenia załóżmy że n jest nieparzyste), otrzymamy kanał BSC określony macierzą
Linia 68: Linia 85:


Pokazaliśmy że możemy sprowadzić prawdopodobieństwo błędu do dowolnie małej wartości, za cenę wydłużania coraz bardziej wiadomości. Główne twierdzenie Shannona (które poznamy na następnym wykładzie) pokazuje że, w pewnym sensie, ta cena nie jest konieczna. Dla wyrobienia intuicji że coś takiego jest możliwe, zauważmy że wybraliśmy powtarzanie tego samego symbolu dla uproszczenia, i możliwe są inne kodowania. Przykładowo, dyktując komuś przez telefon trudne słowo, każdą literę opisujemy całym słowem: przykładowo nazwę stolicy Gruzji, powiemy: T jak Teresa, B jak Barbara, I jak Iwona, L jak Lucyna, I jak Iwona, S jak Stanisław, I jak Iwona.
Pokazaliśmy że możemy sprowadzić prawdopodobieństwo błędu do dowolnie małej wartości, za cenę wydłużania coraz bardziej wiadomości. Główne twierdzenie Shannona (które poznamy na następnym wykładzie) pokazuje że, w pewnym sensie, ta cena nie jest konieczna. Dla wyrobienia intuicji że coś takiego jest możliwe, zauważmy że wybraliśmy powtarzanie tego samego symbolu dla uproszczenia, i możliwe są inne kodowania. Przykładowo, dyktując komuś przez telefon trudne słowo, każdą literę opisujemy całym słowem: przykładowo nazwę stolicy Gruzji, powiemy: T jak Teresa, B jak Barbara, I jak Iwona, L jak Lucyna, I jak Iwona, S jak Stanisław, I jak Iwona.


==Odległość Hamminga==
==Odległość Hamminga==

Wersja z 08:46, 2 sie 2006

Poprawa jakości kanału

Załóżmy że korzystamy z symetrycznego kanału Γ określonego przez macierz (PQQP), gdzie P>Q. W takim przypadku Δmax(i)=i dla i=0,1 i dla dowolnego rozkładu A:

PrC(Δmax,A)=b{0,1}p(Δmax(b))p(Δmax(b)b)

=p(A=0)P+p(A=1)P
=P

Z konieczności PrE(Δmax,A)=Q. Ponieważ nie zależy to od A, będziemy zapisywać PrE(Δmax)=Q.

Czy jest możliwe uzyskanie mniejszego prawdopodobieństwa błędu przez jakieś sprytniejsze wykorzystanie kanału? Z pewnością tak, jeśli poświęcimy więcej bitów na przesłanie jednego znaku. Naturalnym pomysłem jest wysyłanie każdego bitu kilka (np. 3) razy. Skoro poprawna transmisja jest bardziej prawdopodobna niż przekłamanie (P>Q), odbiorca powinien sprawdzać po prostu który bit na wyjściu pojawia się częściej.

00001111 00000101010001111101010111

Całą procedurę możemy interpretować jako nowy kanał Γ.

01 01

Jaka jest macierz tego kanału?

Korzystając z niezależności symboli, możemy policzyć że prawdopodobieństwo p(0|0) że wyjściowy symbol 0 odpowiada wejściowemu 0, wynosi

p(000|000)+p(001|000)+p(010|000)+p(100|000)=P3+3P2Q

Podobne obliczenia dla pozostałych prawdopodobieństw pokazują że Γ jest znów symetrycznym kanałem, charakteryzowanym przez macierz

(P3+3P2QQ3+3Q2PQ3+3Q2PP3+3P2Q)

Oczywiście Q3+3Q2P<P3+3P2Q. Prawdopodobieństwo błędu wynosi tu

PrE(Δmax)=Q3+3Q2P.

Aby sprawdzić czy to jest mniej niż Q, wystarczy przyjrzeć się funkcji Parser nie mógł rozpoznać (błąd składni): {\displaystyle Q^3 + 3 Q^2 (1-Q) – Q} . Przyjmuje ona wartości ujemne dla Q<12+112


W ogólności, jeśli każdy bit zostanie powtórzony n razy i odbiorca będzie zawsze brał wartość częściej występującą (dla uproszczenia załóżmy że n jest nieparzyste), otrzymamy kanał BSC określony macierzą

(i=n2n(ni)PiQnii=0n2(ni)PiQnii=0n2(ni)PiQnii=n2n(ni)PiQni)

Prawdopodobieństwo błędu wynosi

PrE(Δmax)=i=0n2(ni)PiQnii=0n2(ni)=2n1Pn2Qn2

Ponieważ PQ<14, możemy podstawić PQ=δ4 dla pewnego δ<1. Wtedy

PrE(Δmax)2n1(PQ)n2=2n1δn222n2=δn2

A więc PrE(Δmax)0 gdy n.

Pokazaliśmy że możemy sprowadzić prawdopodobieństwo błędu do dowolnie małej wartości, za cenę wydłużania coraz bardziej wiadomości. Główne twierdzenie Shannona (które poznamy na następnym wykładzie) pokazuje że, w pewnym sensie, ta cena nie jest konieczna. Dla wyrobienia intuicji że coś takiego jest możliwe, zauważmy że wybraliśmy powtarzanie tego samego symbolu dla uproszczenia, i możliwe są inne kodowania. Przykładowo, dyktując komuś przez telefon trudne słowo, każdą literę opisujemy całym słowem: przykładowo nazwę stolicy Gruzji, powiemy: T jak Teresa, B jak Barbara, I jak Iwona, L jak Lucyna, I jak Iwona, S jak Stanisław, I jak Iwona.


Odległość Hamminga

Definicja [Odległość Hamminga]

Dla skończonego zbioru 𝒜 i n, odległość Hamminga między słowami u,v𝒜n definiujemy jako
d(u,v)=|{i:uivi}|.

Łatwo sprawdzić że ta odległość spełnia warunki metryki

  • d(u,v)0
  • d(u,v)=0u=v
  • d(u,v)=d(v,u)
  • d(u,w)d(u,v)+d(v,w)

(ostatnia nierówność wynika z faktu że {i:uiwi}{i:uivi}{i:viwi})


Pojęcie odległości Hamminga umożliwia wygodne zapisywanie prawdopodobieństwa warunkowego sekwencji wyjściowej b=b1bk dla sekwencji wejściowej a=a1ak. Dla BSC prawdopodobieństwo to ma wartość:

p(b1bk|a1ak)=Qd(a,b)P1d(a,b)