Teoria informacji/TI Wykład 7
Kanały
Definicja [Kanał komunikacyjny]
- skończony zbiór symboli wejściowych
- skończony zbiór symboli wyjściowych
- mapowanie określające dla każdej pary (a,b) prawdopodobieństwo zamiany symbolu a na B, spełniające warunek:
Zmienne losowe A i B o wartościach odpowiednio z i stanowią parę wejście-wyjście dla kanału jeśli dla dowolnych
Rysunek TODO
Możemy od razu zauważyć że
A więc rozkład (A,B) jest jednoznacznie wyznaczony przez A (dla ustalonego . W szczególności odpowiednie B zawsze istnieje i jest zdefiniowane jako
Więdząc to, można bezpośrednio policzyć H(A,B), H(B|A), I(A;B) itp. (w zależności od i A).
Definicja [Przepustowość kanału]
(dla ustalenia uwagi, tutaj). Maksimum jest tutaj brane po wszystkich rozkładach zmiennej losowej A na . Istnieje ono zawsze, ponieważ I(A;B) jest ciągłym odwzorowaniem ze zbioru zwartego w , i dodatkowo ograniczonym ().
Jeśli i , to możemy kanał reprezentować jako macierz:
gdzie
W tej postaci wzór na rozkład zmiennej losowej B ma postać:
Przykłady
Poste kanały łatwo przestawiać jako dwudzielne grafy skierowane o wierzchołkach z i , i krawędziach etykietowanych przez (rysowanych o ile .
Wierny (bezszumowy) kanał Niech
Rysunek TODO
Macierz reprezentująca ten kanał to
Skoro A jest zawsze równe B, to I(A;B)=H(A), a więc przepustowość tego kanału jest równa:
Wierny kanał odwracający
Rysunek TODO
Reprezentacja macierzowa , przepustowość
Kanał zaszumiony bez nakładania
Macierz ma postać:
Jak widać, A jest tutaj funkcją B, a więc I(A;B)=H(A)-H(A|B)=H(A). Czyli znów .
Wadliwa maszyna do pisania Niech (załóżmy 26 liter), i
- ,
Gdzie , , . . . , .
(wyobrażenie sobie reprezentacji grafowej i macierzowej zostawiamy czytelnikowi).
Aby obliczyć przepustowość, zacznijmy od obserwacji:
A skoro tak, to możemy łatwo policzyć przepustowość rozpisując ją następująco:
- .
(ponieważ możemy uzyskać maksymalną entropię B, np. dla jednostajnego rozkładu prawdopodobieństwa na A).
Czytelnik być może już ma intuicyjne pojęcie przepustowości kanału jako konkretnej liczby, tak jak informacja lub entropia. Zadamy zatem kolejne pytanie: jakie kanały mają zerową przepustowość?
Złe kanały Aby uzyskać , musimy mieć I(A;B)=0 dla dowolnego rozkładu danych wejściowych, czyli pary A i B zawsze muszą być niezależne. Formalnie to wymaganie oznacza że p(B=b|A=a)=p(B=b), dla wszystkich . Przykładowymi złymi kanałami są:
Ostatni przykład przedstawia szczególnie bezużyteczny kanał, który na wejściu zawsze daje taką samą wartość. W tym przypadku H(B)=0, co pokazuje że entropia może czasem maleć przy przesyłaniu wiadomości przez kanał. Najbardziej interesujące są jednak przypadki gdy ta entropia rośnie. Jednym z takich przypadków zajmiemy się teraz dokładniej:
Binarny kanał symetryczny (BSC)
W tym przypadku znów
Rysunek TODO
Wprowadzając oznaczenie , macierz kanału możemy zapisać jako:
Fakt
Ponadto równości zachodzi wyłącznie jeśli (czyli kanał jest wierny lub wierny-odwracający), lub jeśli H(A)=1 (czyli entropia A jest maksymalna).
Dowód Niech q=p(A=0). Wtedy , i możemy wyznaczyć rozkład B z formuły:
Wprowadźmy oznaczenie r=p(B=0). Wtedy
Przypominamy naszą konwencję (TODO link) , i oznaczamy przez h funkcję
Dla . Łatwo możemy policzyć (dla ):
Zatem na podstawie lematu o funkcjach wypukłych (TODO link), funkcja h(x) jest ściśle wypukła na przedziale [0,1], a więc wypukła jest też funkcja
Korzystając teraz z faktu że zdefiniowane wyżej r jest kombinacją liniową q i (r=Pq+(1-P)q'), a , otrzymujemy
i równość zachodzi tylko jeśli , lub jeśli q=q' (co zachodzi tylko gdy H(A)=1). QED.
Wyliczymy teraz . Wygodnie będzie nam używać notacji
(co interpretujemy jako entropię zmiennej binarnej o prawdopodobieństwach s i 1-s).
Z definicji entropii warunkowej dostajemy:
A zatem H(B|A) nie zależy od A.
Korzystając z powyższego wyliczenia rozkładu B, mamy
Możemy teraz znaleźć rozkład A który maksymalizuję tę wartość (dla ), i otrzymujemy: