Teoria informacji/TI Wykład 8: Różnice pomiędzy wersjami
Nie podano opisu zmian |
m Zastępowanie tekstu - "\endaligned" na "\end{align}" |
||
Linia 20: | Linia 20: | ||
& = \sum_{b \in {\mathcal B}} p(A = \Delta (b)) \cdot (B = b | A = \Delta (b) )\\ | & = \sum_{b \in {\mathcal B}} p(A = \Delta (b)) \cdot (B = b | A = \Delta (b) )\\ | ||
& = \sum_{b \in {\mathcal B}} p(A = \Delta (b)) \cdot P (\Delta (b) \to b) | & = \sum_{b \in {\mathcal B}} p(A = \Delta (b)) \cdot P (\Delta (b) \to b) | ||
\ | \end{align} | ||
</math></center> | </math></center> | ||
Linia 29: | Linia 29: | ||
& = \sum_{a \in {\mathcal A}, b \in {\mathcal B}} p (A = a \wedge B = b \wedge \Delta (b) \neq a )\\ | & = \sum_{a \in {\mathcal A}, b \in {\mathcal B}} p (A = a \wedge B = b \wedge \Delta (b) \neq a )\\ | ||
& = \sum_{a \in {\mathcal A}} p (A = a) \cdot p (\Delta \circ B \neq a | A = a) | & = \sum_{a \in {\mathcal A}} p (A = a) \cdot p (\Delta \circ B \neq a | A = a) | ||
\ | \end{align} | ||
</math></center> | </math></center> | ||
Linia 68: | Linia 68: | ||
& = \int_{{\textbf p} \in {\mathcal P}} \sum_{b \in {\mathcal B}} {\textbf p} (\Delta (b)) \cdot p (\Delta (b) \to b)\, d {\textbf p}\\ | & = \int_{{\textbf p} \in {\mathcal P}} \sum_{b \in {\mathcal B}} {\textbf p} (\Delta (b)) \cdot p (\Delta (b) \to b)\, d {\textbf p}\\ | ||
& = \sum_{b \in {\mathcal B}} p (\Delta (b) \to b) \cdot \int_{{\textbf p} \in {\mathcal P}} {\textbf p} (\Delta (b)) \, d {\textbf p} | & = \sum_{b \in {\mathcal B}} p (\Delta (b) \to b) \cdot \int_{{\textbf p} \in {\mathcal P}} {\textbf p} (\Delta (b)) \, d {\textbf p} | ||
\ | \end{align} | ||
</math></center> | </math></center> | ||
Wersja z 12:36, 9 cze 2020
Reguły decyzyjne
Przypuśćmy, że na wyjściu z kanału otrzymujemy sekwencję znaków . Znając mapowanie dla , czy możemy odzyskać pierwotną wiadomość wysłaną kanałem?
W niektórych przypadkach jest to oczywiste. Przykładowo dla wiernego kanału odwracającego wystarczy, że odwrócimy wszystkie bity w sekwencji. W większości przypadków jednak nie ma jedynej pewnej metody odkodowania. Przykładowo, dla wadliwej maszyny do pisania tekst wynikowy afu mógł pochodzić z tekstu zet, ale również z tekstu aft i wielu innych. W ogólności zadaniem dla odbiorcy jest wybranie w jakiś sposób wejścia, które mogło dać wskazany wynik. Oczywiście odbiorca chce zmaksymalizować p(A=a|B=b).
Definicja [Reguła decyzyjna}
Jakość reguły mierzymy przez
Używając prawdopodobieństwa warunkowego, jakość reguły możemy policzyć na kilka sposobów, np.:
Dualnie, prawdopodobieństwo błędu reguły , definiujemy jako
Interesuje nas maksymalizacja , a więc minimalizacja .
Jeśli rozkład prawdopodobieństwa na A jest znany, możemy taką regułę jednoznacznie wyznaczyć:
Definicja [Reguła idealnego obserwatora]
Z definicji wynika, że
dla dowolnej reguły decyzyjnej .
Jeśli rozkład prawdopodobieństwa na A jest nieznany, racjonalnym wyborem jest
Definicja [Reguła maksymalnego podobieństwa]
Jeśli rozkład na A jest jednostajny (), to reguła ta odpowiada regule .
Jeśli rozkład na A nie jest jednostajny, ta reguła nie musi być optymalna. Jest jednak w pewnym sensie „globalnie optymalna”. Przedstawimy tutaj szkic dowodu:
Niech , i niech będzie zbiorem wszystkich rozkładów prawdopodobieństwa na ,
Utożsamiamy tutaj zmienną losową A z jej rozkładem prawdopodobieństwa . Średnią (globalną) jakością reguły niech będzie
Można teraz zauważyć (lub udowodnić formalnie, korzystając z całki Lebesgue'a), że nie zależy od wyboru a. Zatem jest zawsze takie samo, i żeby zmaksymalizować , musimy maksymalizować , co realizuje właśnie reguła maksymalnego podobieństwa.
Wielokrotne używanie kanału
Przypuśćmy, że wysyłamy przez kanał ciąg symboli . Jakie jest prawdopodobieństwo, że wyjściowym ciągiem będzie ? Jeśli transmisje są niezależne, prawdopodobieństwo to będzie iloczynem kolejnych .
Przypomnijmy, że zmienne losowe są niezależne, jeśli
(warto zauważyć, że jest to wymaganie silniejsze niż niezależność każdej pary zmiennych).
Rozszerzając naszą konwencję zapisową, będziemy skracać do .
Lemat
Dowód
Wniosek [Niezależność symboli]
Dowód

Założenie o niezależności kolejnych par w powyższym wniosku jest bardzo silne i w większości wypadków nie możemy go użyć. Okazuje się, że można je zastąpić czymś znacznie słabszym:
Twierdzenie
Bezstanowość
Brak feedbacku
Wtedy niezależność symboli jest zachowana.
Dowód
jeśli tylko ostatnie prawdopodobieństwo jest niezerowe. Przypadek jest trywialny. Krok indukcyjny uzyskujemy łącząc bezstanowość:
i włączając założenie indukcyjne:

Komentarz Od tej pory domyślnie będziemy przyjmować, że niezależność symboli jest zachowana za każdym razem, gdy wielokrotnie używamy kanału BSC.