Teoria informacji/TI Ćwiczenia 8: Różnice pomiędzy wersjami
Nie podano opisu zmian |
|||
Linia 69: | Linia 69: | ||
Wykres informacji wzajemnej w zależności od P oraz od rozkładu prawdopodobieństwa na wejściu powinien wyglądać mniej więcej tak: | Wykres informacji wzajemnej w zależności od P oraz od rozkładu prawdopodobieństwa na wejściu powinien wyglądać mniej więcej tak: | ||
<center>[[Grafika: | <center>[[Grafika:ti_wykres2.jpg]]</center> | ||
</div> | </div> | ||
</div>}} | </div>}} |
Wersja z 18:28, 8 wrz 2006
Ćwiczenia
Ćwiczenie 1 [Nieoptymalność reguły maksymalnego podobieństwa]
Wskazówka
Rozwiązanie
Ćwiczenie 2 [Wiedza zwiększająca niepewność]
Na wykładzie wcześniej zostało pokazane że . Pokaż że nie zawsze tak jest w przypadku innych miar entropii.
Znajdź przykład gdy uzyskanie jakiejś informacji może zwiększyć entropię Shannona innej informacji, tzn.
Ćwiczenie 3 [Binarny kanał wymazujący]
Rozwiązanie
Ćwiczenie 4 [Feedbacku dla kanału wymazującego]
Rozwiązanie
Zadania domowe
Zadanie 1 - Przepustowość kanałów z feedbackiem
Rozważmy kanał z pełną informacją zwrotną, w którym po przesłaniu każdego symbolu nadawca poznaje symbol na wyjściu. Kod z feedbackiem definiujemy jako sekwencję mapowań określających kolejny symbol na podstawie przesyłanej wiadomości i dotychczas dostarczonych symboli . Przepustowość kanału z feedbackiem jest określana jako maksymalna szybkość transmisji przez kanał przy wykorzystaniu kodu takiej postaci. Udowodnij że ta przepustowość jest równa klasycznej przepustowości kanału, czyli że wykorzystanie informacji zwrotnej nie może zwiększyć szybkości transmisji. Zauważ że nie jest to sprzeczne z ćwiczeniem 4 - jej wykorzystanie może znacząco uprościć konstrukcję samego kodu.