Teoria informacji/TI Ćwiczenia 10

From Studia Informatyczne

Kod Hamminga (7,4)

Projektowaniem efektywnych kodów korygujących błędy zajmuje się dziedzina informatyki nazywana teorią kodów. Zwykle projektowanie kodu oznacza znalezienie kompromisu między efektywnością kodu i jego prostotą (mierzoną zarówno jako stopień złożoności samego algorytmu kodowania i dekodowania, jak i mocą obliczeniową potrzebną do tych operacji). Szczególnie użytecznymi kodami, ze względu na zwięzłość ich definicji, są kody liniowe.


Definicja [Kod liniowy]

Kod liniowy długości n i rzędu k to dowolna liniowa podprzestrzeń \mathcal{C} wymiaru k w przestrzeni wektorowej \mathbb{F}^n, gdzie \mathbb{F} jest skończonym ciałem. Przestrzeń \mathcal{C} definiuje zestaw poprawnych słów kodowych.

Bazę tej przestrzeni (w postaci k wektorów długości n) zapisuje się często w postaci macierzy generującej kodu.


Na tych ćwiczeniach będziemy się zajmować tylko ciałem Z_2, czyli operacjami modulo 2. Przykładem prostego kodu liniowego nad ciałem Z_2 jest Kod Hamminga (7,4). Koduje on czterobitowe wiadomości przy użyciu siedmiobitowych słów w ten sposób, że minimalna odległość Hamminga pomiędzy słowami kodowymi wynosi 3. Dzięki temu przekłamanie jednego bitu w każdym słowie może zostać zawsze wykryte i naprawione (czyli poprawny przekaz wiadomości jest możliwy gdy ilość błędów nie przekroczy 14%).

Macierz generująca tego kodu wygląda następująco: G := \begin{pmatrix} 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \\ 0 & 1 & 1 & 1 \\ 1 & 0 & 1 & 1 \\ 1 & 1 & 0 & 1 \\ \end{pmatrix}


Macierz wykrywania błędów dla tego kodu wygląda następująco:

H_e := \begin{pmatrix} 0 & 0 & 0 & 1 & 1 & 1 & 1 \\ 0 & 1 & 1 & 0 & 0 & 1 & 1 \\ 1 & 0 & 1 & 0 & 1 & 0 & 1 \\ \end{pmatrix}


Aby zakodować czterobitową wiadomość m mnoży się ją przez macierz G (wyliczając każdy współczynnik modulo 2). Uzyskane siedmiobitowe słowo przesyła się następnie przez kanał. Odbiorca mnoży otrzymaną wiadomość przez macierz wykrywania błędów H_e, uzyskując wektor o długości trzech bitów. Jeśli ten wektor jest zerowy, oznacza to, że nie nastąpiło żadne przekłamanie (bądź nastąpiło ich więcej niż 2, czego przy uzyciu tego kodu może nie dać się wykryć). Jeśli wektor jest różny od zerowego, wektor odczytany jako liczba binarna wskazuje, na którym bicie nastąpiło przekłamanie - wystarczy zatem odwrócić wartość tego bitu, aby uzyskać pierwotną wiadomość. W przypadku, gdy w bloku nastąpiło więcej niż jedno przekłamanie, końcowy wynik może być oczywiście nieprawidłowy.


Ćwiczenie [Dekodowanie kodu (7,4)]

Udowodnij, że jeśli nie nastąpiło przekłamanie, iloczyn macierzy wykrywania błędów i przesłanego wektora zawsze jest zerowy.

Rozwiązanie

Wystarczy policzyć iloczyn H_e \cdot G nad ciałem Z_2. Wynik jest macierzą zerową, a więc dla każdego wektora wejściowego sygnatura błędu będzie zerowa.


Ćwiczenie [Sygnatura błędu]

Pokaż, że jeśli nastąpiło jedno przekłamanie, iloczyn macierzy wykrywania błędów i przesłanego wektora wskazuje pozycję, na której to przekłamanie nastąpiło.

Rozwiązanie

Zgodnie z poprzednim ćwiczeniem, wynik będzie równy iloczynowi macierzy H_e i wektora błędu, zawierającego jedną jedynkę na przekłamanej pozycji. Wystarczy zauważyć zatem, że kolejne komumny H_e są zapisem binarnym kolejnych liczb naturalnych.


Ćwiczenie [Jakość przekazu]

Załóżmy, że prawdopodobieństwo przekłamania każdego bitu wynosi 5%. Jaka byłaby szansa bezbłędnego przekazu czterobitowej wiadomości przy zwykłym przekazywnaiu jej bit po bicie? Jaka jest szansa bezbłędnego przekazania, gdy jest zakodowana kodem Hamminga (7,4)?

Rozwiązanie

W przypadku zwykłego przekazu, informacja zostałaby przekazana bezbłędnie, jeśli wszystkie 4 bity dotarłyby bez zmian. Prawdopodobieństwo tego jest równe 0,95^4 \approx 0,815. Po zakodowaniu informacja dociera poprawnie, jeśli wszystkie 7 bitów dociera bez zmian lub następuje tylko jedno przekłamanie. Prawdopodobieństwo tego jest równe 0,95^7 + 7 \cdot 0,05 \cdot 0,95^6 \approx 0,956.

Kody liniowe

Ćwiczenie [Idealne kody]

Kodem (n,k,d) nazywamy kod liniowy, w którym k-bitowe słowa są zapisywane na n bitach, a minimalna odległość pomiędzy słowami kodowymi wynosi d.

a) Ile maksymalnie błędów może poprawiać taki kod?
b) Jaką nierówność muszą spełniać wartości n, k i d, aby taki kod mógł istnieć?
c) Kod nazwiemy idealnym, gdy może poprawiać r błędów i każde słowo jest w odległości co najwyżej r od najbliższego słowa kodowego. Dla jakich wartości n mogą istnieć kody idealne poprawiające 1 błąd?

Rozwiązanie

a) Kod taki może poprawiać maksymalnie r=\frac{d-1}{2} błędów.
b) Z poprzedniego punktu wynika że wokół każdego słowa kodowego isnieje kula z \sum_{i=0}^{r}{n \choose i} słów, które są do niego sprowadzane przy naprawianiu błędów. Tym samym 2^n \ge 2^k \cdot \sum_{i=0}^{r}{n \choose i}, czyli n-k \ge \log_2 \sum_{i=0}^{r}{n \choose i}
c) Dla kodu idealnego n-k = \log_2 \sum_{i=0}^{r}{n \choose i}. Jeśli r=1 to n-k = \log_2 (n+1). Takie kody istnieją dla n=2^j-1 i j\ge 2.
Dwa najmniejsze przykłady już znamy: kod idealny (3,1,3) to trzykrotne powtórzenie każdego bitu, kod idealny (7,4,3) to kod Hamminga (7,4).


Ćwiczenie [Szacowanie efektywnosci]

W zapisie informacji na płytach CD używa się kodu, który do każdych 224 bitów dodaje 32 bity korygujące błędy (zapisując całość w bloku 256 bitów). Oszacuj, jaka może być dla tego kodu maksymalna ilość korygowanych błędów w każdym bloku.

Rozwiązanie

32 bity korygujące błędy oznaczają, że na każde słowo kodowe przypada 2^{32}-1 słów, które nie są kodowe. Dla każdego słowa kodowego w odległości 1 od niego znajduje się 256 słów, w odległości 2: {256 \choose 2} \approx 2^{31} słów, a w odległości 3 {256 \choose 3} > 2^{45} słów. Przy optymalnym rozmieszczeniu słów kodowych można zatem umożliwić korekcję maksymalnie 2 błędów w każdym bloku 256 bitów. Kod ten zatem nie potrafi poprawnie odczytywać danych już przy 1% szumów.


LDPC - macierze parzystości małej gęstości

Jedną z metod generowania efektywnych kodów blokowych jest metoda LDPC. W metodzie tej na n-bitowe słowo nakładanych jest k losowych restrykcji postaci x_{i_1} \oplus \ldots \oplus x_{i_p} = 0, gdzie x_i oznacza i-ty bit słowa kodowego. Parametry k i p są dobrane tak, aby każdego bitu dotyczyła co najmniej jedna restrykcja. Kod tworzony jest tylko przez słowa spełniające wszystkie restrykcje.

Ćwiczenie [Kod LDPC jest liniowy]

Udowodnij, że kod LDPC jest kodem liniowym.

Rozwiązanie

Słowo 0^n spełnia wszystkie restrykcje, jest zatem słowem kodowym. Jeśli dwa słowa x i y spełniają wszystkie restrykcje, to x \oplus y również je spełnia. Tym samym zbiór słów kodowych jest podprzestrzenią Z_2^n, co należało pokazać.


Ćwiczenie [Szybkość kodów LDPC]

Jaka jest oczekiwana liczba słów spełniających wszystkie k restrykcji?

Rozwiązanie

Dla losowego słowa prawdopodobieństwo, że spełnia on wybraną restrykcję, wynosi \frac{1}{2}. Skoro wybór restrykcji jest losowy i niezależny, oczekiwana liczba słów spełniających je wszystkie wynosi 2^n \cdot (\frac{1}{2})^k = 2^{n-k}.


Ćwiczenie [Wydajność kodów LDPC]

Udowodnij, że z dużym prawdopodobieństwem minimalna odległość między dowolną parą słów kodowych wynosi co najmniej \frac{k}{\log n}.