Algorytmy i struktury danych/Algorytmy tekstowe II

Z Studia Informatyczne
Przejdź do nawigacjiPrzejdź do wyszukiwania


Najważniejszymi strukturami danych związanymi z tekstami są te, które dotyczą efektywnej reprezentacji zbioru wszystkich podsłów tekstu. Przed wszystkim interesuje nas to, żeby taka reprezentacja przyspieszała wyszukiwanie słów, a jednocześnie żeby była konstruowalna w czasie liniowym albo prawie liniowym (z dokładnością do logarytmów).

Oznaczmy przez wszystkie podsłowa tekstu , a wszystkie wystąpienia (początkowe pozycje) słowa w słowie oznaczmy przez . (Oznaczenie jest skrótem od ang. occurrences).

Chcemy znaleźć taką reprezentację zbioru , by można było łatwo odpowiedzieć na pytanie, czy , co jest równoważne , jak również rozwiązywać inne problemy tekstowe. Poza tym chcemy, by rozmiar tej reprezentacji był liniowy, podczas gdy rozmiar może być kwadratowy. Spośród wielu dobrych reprezentacji najbardziej znanymi są tablice sufiksowe (oznaczane przez ), drzewa sufiksowe i grafy podsłów (nie rozważane w tym module).

Tablice i drzewa sufiksowe

Niech i niech będzie specjalnym znakiem leksykograficznie większym od każdego innego symbolu 9w przyszłości będziemy również używać jako najmniejszego symbolu).

Oznaczmy przez sufiks tekstu x zaczynający się na pozycji i-tej.

Niech będzie pozycją, od której zaczyna się k-ty leksykograficznie sufiks x. Sufiks zaczynający się na pozycji -szej nie jest brany pod uwagę.

Ciąg sufiksów posortowany leksykograficznie wygląda następująco:


Zasd 2 1.jpg


Rysunek 1: Tablicą sufiksową tekstu jest ciąg

Oznaczmy przez długość wspólnego prefiksu -tego i następnego sufiksu w kolejności leksykograficznej. Na rysunku wartości najdłuższego wspólnego prefiksu między kolejnymi słowami są przedstawione jako zacienione segmenty. Odpowiadają one tablicy .
Tablica sufiksowa ma następująca ‘’sympatyczną’’ własność: Niech

, .

Wtedy jest przedziałem w tablicy sufiksowej od do .

Drzewo sufiksowe jest drzewem, w którym każda ścieżka jest etykietowana kolejnymi symbolami pewnego sufiksu, oraz każdy sufiks jest obecny w drzewie. Gdy dwie ścieżki się rozjeżdżają, tworzy się wierzchołek. Mówiąc bardziej formalnie, każdej krawędzi jest przypisane jako etykieta pewne podsłowo . Krawędzie wychodzące z tego samego węzła różnią się pierwszymi symbolami swoich etykiet (patrz rysunek).


Etykiety są kodowane przedziałami w tekście : para liczb reprezentuje podsłowo (zobacz prawe drzewo na rysunku). Dzięki temu reprezentacja ma rozmiar . Wagą krawędzi jest długość odpowiadającego jej słowa.

Zasd 2 2.jpg


Rysunek 2: Drzewo sufiksowe dla tekstu . Na końcu jest dodany znak . Końcowe węzły zawierają informację, gdzie zaczyna się sufiks, którym dochodzimy do danego węzła.


Obie reprezentacje pozwalają szybko rozwiązywać problem string-matchingu oraz mają rozmiar liniowy. Niech z będzie wzorcem o długości m, a słowem długości n. Z reguły .

Szukanie podsłów

Pokażemy, jak sprawdzać, czy występuje w .

Używając drzewa sufiksowego (czas )

Idziemy od korzenia w dół czytając kolejne symbole , czasami posuwamy się po wewnętrznej etykiecie pewnej krawędzi. Zbiór wystąpień odpowiada zbiorowi liści w poddrzewie węzła, do którego doszliśmy. Jeśli po drodze utknęliśmy i nie dało się dalej schodzić po drzewie, oznacza to, że

Używając tablicy sufiksowej (czas )

Możemy sprawdzić, czy jest prefiksem -tego sufiksu w czasie . Korzystając z tego, wykonujemy rodzaj binarnego szukania. W ten sposób znajdujemy pierwszy sufiks, którego prefiksem jest z. Jeśli jest taki sufiks, to . W przeciwnym wypadku z nie jest podsłowem x.

Podobnie znajdujemy ostatni sufiks. Zbiór wystąpień odpowiada przedziałowi w tablicy między obliczonymi pierwszym i ostatnim sufiksem zaczynającym się od z.

Wyznaczanie liczby podsłów

Pokażemy, jak znaleźć liczbę podsłów słowa przy pomocy tablicy sufiksowej lub drzewa sufiksowego. Końcowego markera nie traktujemy jako części słowa . Liczba podsłów jest równa . Jeśli wszystkie symbole słowa są różne to .

Używając drzewa sufiksowego, czas


Sumujemy wagi krawędzi drzewa.

Używając tablicy sufiksowej, czas

Niech będzie sumą elementów tablicy . Liczbę podsłów obliczamy jako



Pozostawiamy jako ćwiczenie uzasadnienie tego, że liczba podsłów jest poprawnie obliczona (korzystając z drzewa sufisowego lub z tablicy sufiksowej).


Przykład

Dla przykładowego tekstu mamy . Proponujemy to wyliczyć z tablicy sufiksowej i drzewa sufiksowego dla, danego na rysunku. Suma elementów tablicy wynosi 23. Liczba podsłów to:

Podobnie jak tablicę sufiksową możemy zdefiniować tablicę odpowiadającą posortowanemu ciągowi wszystkich cyklicznych przesunięć słowa (rotacji ).

Pozostawiamy jako ćwiczenie znalezienie liniowego algorytmu obliczania tablicy , przy założeniu, że mamy liniowy algorytm obliczania tablicy sufiksowej.


Dygresja. Ciekawą klasę słów, dla których tablice są szczególnie interesujące, stanowią słowa Fibonacciego . W tym szczególnym przypadku załóżmy, że pozycje numerujemy od zera. Dla każdego tablica jest postępem arytmetycznym (modulo długość słowa). Natomiast tablica jest postępem arytmetycznym, gdy jest parzyste.


Słowa Fibonacciego definiujemy następująco: Na przykład: Oznaczmy przez tablicę dla słowa Fibonacciego ; wtedy:


Pozostawiamy jako ćwiczenie znalezienie wzoru na .

Drzewa sufiksowe =>tablice sufiksowe

W celu znalezienia początkowych pozycji sufiksów w porządku leksykograficznym przechodzimy drzewo sufiksowe metodą DFS, zakładając, że dla każdego węzła lista jego synów jest w kolejności leksykograficznej etykiet krawędzi prowadzących do synów. Wystarczy sprawdzać pierwsze symbole tych etykiet.

Załóżmy, że w liściach mamy początki sufiksów, które do nich prowadzą.

Kolejność odwiedzania liści w naszym przejściu metodą DFS automatycznie generuje elementy tablicy sufiksowej.

Tablice sufiksowe =>drzewa sufiksowe

Pokażemy konstruktywnie następujący istotny fakt:

jeśli znamy tablicę sufiksową i tablicę , to drzewo sufiksowe dla danego tekstu możemy łatwo skonstruować w czasie liniowym.

Przypuśćmy, że , a więc:


Algorytm Drzewo-Sufiksowe


1   drzewo reprezentujące  (jedna krawędź);
2  for  to  do
3    wstaw nową ścieżkę o sumarycznej etykiecie  do ; 


Zasd 2 3.jpg
Rysunek 3: Wstawianie kolejnego sufiksu do drzewa sufiksowego, przed włożeniem wszystkie krawędzie ścieżki roboczej od do korzenia są skierowane w lewo.


Opiszemy w jaki sposób wstawiamy kolejny sufiks do drzewa. Operacja ta jest zilustrowana na rysunku. Załóżmy, że w każdym węźle drzewa trzymamy długość tekstu, który ten węzeł reprezentuje (jako pełna etykieta od korzenia do węzła).

Niech będzie poprzednio wstawionym sufiksem, a ostatnio utworzonym liściem.

Wtedy wstawienie polega na znalezieniu maksymalnego wspólnego prefiksu tekstów , . Niech . Znajdujemy węzeł odpowiadający ścieżce od korzenia etykietowanej .

Kluczowym pomyslem algorytmicznym jest tutaj to, że węzła szukamy nie od korzenia, ale od ostatnio utworzonego liścia . Jeśli takiego węzła nie ma (jest wewnątrz krawędzi) to go tworzymy. Następnie tworzymy nowy liść odpowiadający sufiksowi , oraz krawędź etykietowaną .


Z tablicy odczytujemy długość .

W celu obliczenia posuwamy się ścieżką od w górę drzewa, aż znajdziemy węzeł oddalony od korzenia o .

Przechodząc drzewo posuwamy się po węzłach drzewa, przeskakując (w czasie stalym) potencjalnie długie teksty na krawędziach.


Koszt operacji wstawienia jest proporcjonalny do sumy: jeden plus zmniejszenie głębokości nowego liścia w stosunku do starego. Suma tych zmniejszeń jest liniowa. jest najdłuższym wspólnym prefiksem słów i . Kluczowe znaczenie w operacji ma znajomość wartości . Wiemy kiedy się zatrzymać idąc do góry od węzła w kierunku korzenia.

Lokalnie wykonana praca w jednej iteracji jest zamortyzowana zmniejszeniem się głębokości aktualnego liścia w stosunku do poprzedniego. W sumie praca jest liniowa.

Historia algorytmu jest pokazana dla przykładowego tekstu na rysunkach.

Zasd 2 4.jpg


Rysunek 4: Pierwsze 6 iteracji algorytmu Drzewo-Sufiksowe dla tekstu .



Zasd 2 5.jpg
Rysunek 5: Ostatnie 6 iteracji algorytmu Drzewo-Sufiksowe dla tekstu .



Obliczanie tablicy lcp

Niech będzie pozycją w porządku leksykograficznym. W naszym przykładowym słowie mamy:

Niech .

Załóżmy, dla uproszczenia, że oraz że tekst kończy się specjalnym symbolem Obliczamy tablice następująco:


Algorytm Oblicz-lcp


1  for  to  do
2    oblicz  korzystając z faktu, że ; 
3    // koszt iteracji 
4  for  to  do
 5     

Można to zapisać w języku C++ następująco

Algorytm Oblicz-lcp1


for 

for ) 
  if 
      while ;
      
  



Pozostawiamy jako ćwiczenie dowód tego, że

.

Jeśli , to obliczamy sprawdzając symbol po symbolu (od lewej do prawej) zgodność prefiksów odpowiednich słów startując od pozycji . W ten sposób sumaryczny koszt jest liniowy. W każdej iteracji cofamy się o jeden, a potem idziemy do przodu (sprawdzając kolejne symbole). Jest to analiza typu jeden krok do tyłu i kilka do przodu. Liczba iteracji jest liniowa, więc liczba kroków do tyłu też. Ponieważ odległość do celu jest liniowa, to suma kroków też jest liniowa.

Słownik podsłów bazowych i konstrukcja tablicy sufiksowej w czasie O(n log n)

Opiszemy uproszczoną wersję algorytmu Karpa-Millera-Rosenberga (w skrócie algorytmu KMR) rozwiązywania problemów tekstowych metodą słownika podsłów bazowych. Ustalmy pewnie tekst długości .

Zakładamy w tej sekcji, że dodatkowym symbolem jest , leksykograficznie najmniejszy symbol. Przez segment -bazowy rozumiemy segment tekstu długości lub kończący się na .

Teoretycznie możemy założyć, że po symbolu mamy bardzo dużo takich symboli na prawo i każdy segment startujący w ma dokładnie długość .


Słownik podsłów bazowych (w skrócie DBF(x), od ang. dictionary of basic factors) składa się z tablic

, , ,.

Zakładamy, że jest pozycją słowa na posortowanej liście (bez powtórzeń) wszystkich podsłów długości słowa . Jeśli długość wystaje poza koniec to przyjmujemy że są tam (wirtualnie) same symbole . Poniżej przedstawiamy przykład słownika podsłów bazowych .

Zasd 2 4a.jpg

Algorytm liczenia tablic Nazwa jest bardzo prosty. Załóżmy od razu, że symbole są ponumerowane leksykograficznie. Wtedy jest zasadniczo równa tekstowi .

Zasd 2 6.jpg
Rysunek6: Słowo rozmiaru otrzymuje najpierw nazwę-kompozycję: kombinacją nazw (będących liczbami naturalnymi z przedziału ) dwóch podsłów długości .


Opis jednej iteracji )


Dla każdego tworzymy nazwę-kompozycję slowa jako

Każda taka kompozycja jest parą liczb naturalnych. Sortujemy te pary za pomocą algorytmu radix-sort i w ten sposób otrzymujemy tablicę, która koduje (w porządku leksykograficznym) każdą parę liczbą naturalną (pozycją w porządku leksykograficznym). Wartością jest kod pary .


Zauważmy, że tablica sufiksowa odpowiada tablicy . Możemy to podsumować następująco:
1. słownik DBF(x) możemy skonstruować w czasie i pamięci (jest to również rozmiar słownika).
2. Tablicę sufiksową możemy otrzymać,stosując algorytm KMR, w czasie i pamięci . (Potrzebujemy pamiętać jedynie ostatnie dwie tablice w każdej iteracji.)

Konstrukcja tablicy SUF w czasie O(n): algorytm KS

Opiszemy teraz błyskotliwy algorytm Karkkainena-Sandersa ( w skrócie KS) będący zoptymalizowaną wersją algorytmu KMR liczenia tablicy sufiksowej. Zauważmy, że algorytm KMR oblicza znacznie więcej niż tablica sufiksowa, ponieważ konstruuje słownik podsłów bazowych wielkości (mający liczne inne zastosowania, ale jako całość być może niepotrzebny przy liczeniu tablicy sufiksowej)

Główną częścią algorytmu KS jest obliczanie częściowej tablicy sufiksowej w sposób rekurencyjny. Rozbijmy zbiór pozycji [1..n] tekstu na dwa zbiory N, M :

Zbiór N składa się z co trzeciej pozycji, a M jest zbiorem pozostałych pozycji.

N = {3,6,9,12,15,....}, M = {1,2,4,5,7,8,10,11,...}

Przez , oznaczmy tablicę sufiksową dla pozycji ze zbioru , podobnie zdefiniujmy .

daje posortowany ciąg sufiksów zaczynających się na pozycjach ze zbioru .

Dla początkowego przykładowego tekstu mamy




Sprowadzenie obliczania do obliczania tablicy sufiksowej rozmiaru


Posortujmy leksykograficznie wszystkie podsłowa długości 3 w słowie korzystając z radix-sort. Każdemu takiemu słowu przyporządkujmy nazwę będącą jego pozycją w posortowanym leksykograficznie ciągu, oznaczmy otrzymaną nazwę podsłowa długości 3. Zakładamy, że kończy się dodatkowo dwoma symbolami , ale rozważamy tylko podsłowa zaczynające się w . Dla uproszczenia załóżmy, że 3 jest dzielnikiem n.

Tworzymy nowe słowo w następujący sposób:

gdzie jest nowym maksymalnym symbolem



Przykład. Weźmy początkowy przykład , gdzie jest większe niże a,b. Mamy

,

Zatem kody tych trójek są kolejno .

Oznaczmy. Wtedy


,



Jeśli mamy tablicę sufiksową dla słowa , można łatwo obliczyć w czasie liniowym. Pozostawiamy to jako ćwiczenie.


Algorytm (Karkkainen-Sanders)


1. ;

2. obliczamy tablicę sufiksową dla x' rekurencyjnie;

3. obliczamy w czasie liniowym, znając tablicę sufiksową dla x';

4. obliczamy w czasie liniowym (bez rekursji), znając ;

5. scalamy posortowane ciągi w tablicę sufiksową dla całego słowa


Krok 1 algorytmu sprowadza się do radix-sortu, podobnie jak w algorytmie KMR. Kroki 3,4 są proste i ich implementację pozostawiamy czytelnikowi jako ćwiczenie.

Najważniejszy jest krok scalania. Mamy dwie posortowane listy sufiksów i trzeba je scalić w jedną posortowaną listę. Zasadniczym problemem jest implementacja operacji porównania leksykograficznego dwóch (długich) sufiksów w czasie stałym. Jeśli oba sufiksy są typu lub oba są typu , to porównanie jest w czasie stałym, bo mamy posortowane listy takich sufiksów.

Pokażemy na przykładzie kluczową operację porównania sufiksu typu M z sufiksem typu N w czasie stałym.

Przykład

Nierówność jest równoważna temu, że zachodzi co najmniej jeden z warunków:

1.
2.
3.


Jednakże , zatem i , są typu M i można je porównać w czasie stałym.


Niech będzie czasem działania algorytmu KS. Zachodzi

Rozwiązaniem jest . Mamy więc liniowy algorytm liczenia tablicy sufiksowej. Daje to również liniowy algorytm konstrukcji drzewa sufiksowego.

Istnieje kilka interesujących algorytmów, które konstruują drzewo sufiksowe w czasie liniowym, bez korzystania z tablicy sufiksowej (algorytmy Weinera, McCreighta, Ukkonena). W algorytmach tych współczynnik przy złożoności liniowej wynosi \log |A| , gdzie A jest alfabetem.