Teoria informacji/TI Wykład 7: Różnice pomiędzy wersjami
m Zastępowanie tekstu – „ </math>” na „</math>” |
|||
Linia 38: | Linia 38: | ||
P_{m 1} & \ldots & P_{m n} | P_{m 1} & \ldots & P_{m n} | ||
\end{matrix} | \end{matrix} | ||
\right) </math></center> | \right)</math></center> | ||
gdzie <math> P_{i j} = p (a_i \to b_j )</math> | gdzie <math> P_{i j} = p (a_i \to b_j )</math> | ||
Linia 184: | Linia 184: | ||
{{fakt||entropia_BSC|Jeśli (A,B) jest parą wejście-wyjście dla BSC, to | {{fakt||entropia_BSC|Jeśli (A,B) jest parą wejście-wyjście dla BSC, to | ||
<center><math> H(B) \ge H(A) </math></center>}} | <center><math> H(B) \ge H(A)</math></center>}} | ||
Ponadto równość zachodzi wyłącznie jeśli <math>P \in \{0,1\}</math> (czyli kanał jest wierny lub wierny-odwracający) lub jeśli H(A)=1 (czyli entropia A jest maksymalna). | Ponadto równość zachodzi wyłącznie jeśli <math>P \in \{0,1\}</math> (czyli kanał jest wierny lub wierny-odwracający) lub jeśli H(A)=1 (czyli entropia A jest maksymalna). | ||
Linia 210: | Linia 210: | ||
Przypominamy naszą [[Teoria informacji/TI Wykład 2#konwencja_log|konwencję]] <math>0 \log_r 0 = 0 \log_r \frac{1}{0} = 0</math> i oznaczamy przez h funkcję | Przypominamy naszą [[Teoria informacji/TI Wykład 2#konwencja_log|konwencję]] <math>0 \log_r 0 = 0 \log_r \frac{1}{0} = 0</math> i oznaczamy przez h funkcję | ||
<center><math>h(x)=x \ln x + (1-x) \ln (1-x) </math></center> | <center><math>h(x)=x \ln x + (1-x) \ln (1-x)</math></center> | ||
Dla <math> 0 \le x \le 1 </math>. Łatwo możemy policzyć (dla <math> 0<x<1 </math>): | Dla <math> 0 \le x \le 1</math>. Łatwo możemy policzyć (dla <math> 0<x<1</math>): | ||
<center><math>\begin{align} | <center><math>\begin{align} | ||
h'(x)& =1+\ln x -1 -\ln (1-x)\\ | h'(x)& =1+\ln x -1 -\ln (1-x)\\ | ||
Linia 234: | Linia 234: | ||
Wyliczymy teraz <math> C_{\Gamma }</math>. Wygodnie będzie nam używać notacji | Wyliczymy teraz <math> C_{\Gamma }</math>. Wygodnie będzie nam używać notacji | ||
<center><math> H(s) = - s \log_2 s - (1-s) \log_2 (1-s) </math></center> | <center><math> H(s) = - s \log_2 s - (1-s) \log_2 (1-s)</math></center> | ||
(co interpretujemy jako entropię zmiennej binarnej o prawdopodobieństwach s i 1-s). | (co interpretujemy jako entropię zmiennej binarnej o prawdopodobieństwach s i 1-s). |
Wersja z 10:44, 5 wrz 2023
Kanały
Definicja [Kanał komunikacyjny]
- skończony zbiór symboli wejściowych
- skończony zbiór symboli wyjściowych
- mapowanie określające dla każdej pary (a,b) prawdopodobieństwo zamiany symbolu a na B, spełniające warunek:
Zmienne losowe A i B o wartościach odpowiednio z i stanowią parę wejście-wyjście dla kanału , jeśli dla dowolnych
Kanał taki możemy zobrazować jako
Możemy od razu zauważyć, że
A więc rozkład (A,B) jest jednoznacznie wyznaczony przez A (dla ustalonego ). W szczególności odpowiednie B zawsze istnieje i jest zdefiniowane jako
Wiedząc to, można bezpośrednio policzyć , , itp. (w zależności od i A).
Definicja [Przepustowość kanału]
(dla ustalenia uwagi, tutaj). Maksimum jest tutaj brane po wszystkich rozkładach zmiennej losowej A na . Istnieje ono zawsze, ponieważ jest ciągłym odwzorowaniem ze zbioru zwartego w i dodatkowo ograniczonym ().
Jeśli i , to możemy kanał reprezentować jako macierz :
gdzie
W tej postaci wzór na rozkład zmiennej losowej B ma postać:
Przykłady
Proste kanały łatwo przedstawiać jako dwudzielne grafy skierowane o wierzchołkach z i oraz krawędziach etykietowanych przez (rysowanych o ile ).
Przykład [Wierny (bezszumowy) kanał]
Niech . Wierny kanał przekazuje informację bez przekłamań:
Macierz reprezentująca ten kanał to
Skoro A jest zawsze równe B, to , a więc przepustowość tego kanału jest równa
Przykład [Wierny kanał odwracający]
Kanał analogiczny do poprzedniego, ale odwracający wszystkie przekazywane bity:
Reprezentacja macierzowa to
Przykład [Kanał zaszumiony bez nakładania]
Przykład [Wadliwa maszyna do pisania]
Niech (załóżmy 26 liter), i
gdzie , , . . . , .
(wyobrażenie sobie reprezentacji grafowej i macierzowej zostawiamy czytelnikowi).
Aby obliczyć przepustowość, zacznijmy od obserwacji:
Skoro tak, możemy łatwo policzyć przepustowość rozpisując ją następująco:
Czytelnik być może już ma intuicyjne pojęcie przepustowości kanału jako konkretnej liczby, tak jak informacja lub entropia. Zadamy zatem kolejne pytanie: jakie kanały mają zerową przepustowość?
Złe kanały Aby uzyskać , musimy mieć I(A;B)=0 dla dowolnego rozkładu danych wejściowych, czyli pary A i B zawsze muszą być niezależne. Formalnie to wymaganie oznacza, że , dla wszystkich . Przykładowymi złymi kanałami są:
Ostatni przykład przedstawia szczególnie bezużyteczny kanał, który na wyjściu zawsze daje taką samą wartość. W tym przypadku , co pokazuje, że entropia może czasem maleć przy przesyłaniu wiadomości przez kanał. Najbardziej interesujące są jednak przypadki, gdy ta entropia rośnie. Jednym z takich przypadków zajmiemy się teraz dokładniej:
Binarny kanał symetryczny (BSC)
W tym przypadku znów
Wprowadzając oznaczenie , macierz kanału możemy zapisać jako:
Fakt
Ponadto równość zachodzi wyłącznie jeśli (czyli kanał jest wierny lub wierny-odwracający) lub jeśli H(A)=1 (czyli entropia A jest maksymalna).
Dowód
Wprowadźmy oznaczenie . Wtedy
Przypominamy naszą konwencję i oznaczamy przez h funkcję
Dla . Łatwo możemy policzyć (dla ):
Zatem na podstawie lematu o funkcjach wypukłych funkcja jest ściśle wypukła na przedziale , a więc wypukła jest też funkcja
Korzystając teraz z faktu, że zdefiniowane wyżej r jest kombinacją liniową q i (kontretnie ), a , otrzymujemy

Wyliczymy teraz . Wygodnie będzie nam używać notacji
(co interpretujemy jako entropię zmiennej binarnej o prawdopodobieństwach s i 1-s).
Funkcja ta przyjmuje maksimum równe dla . Jej wykres wygląda następująco:
Z definicji entropii warunkowej dostajemy:
A zatem nie zależy od A.
Korzystając z powyższego wyliczenia rozkładu B, mamy
Możemy teraz znaleźć rozkład A, który maksymalizuje tę wartość (dla ), i otrzymujemy: