Złożoność obliczeniowa/Wykład 8: Schematy aproksymacji i klasa MAXSNP

Z Studia Informatyczne
Przejdź do nawigacjiPrzejdź do wyszukiwania

Wprowadzenie

W poprzednim wykładzie zajmowaliśmy się algorytmami aproksymacyjnymi dla przykładowych trudnych problemów optymalizacyjnych. Dla większości z tych algorytmów udawało nam się podać gwarancję dokładności za pomocą stałego współczynnika efektywności przybliżenia.

W tym module postawimy sobie znacznie ambitniejsze zadanie. Będziemy szukać algorytmów, którym na wejściu ustala się dopuszczalny błąd przybliżenia rozwiązania optymalnego. Pokażemy problemy, dla których jest możliwa taka "dowolnie dokładna" aproksymacja.

W drugiej części poznamy klasę MAXSNP. Jest to bardzo szeroka i interesująca klasa problemów optymalizacyjnych, a pytanie o to, czy należące do niej problemy mogą być dowolnie dobrze aproksymowane, było bardzo istotnym zagadnieniem teorii algorytmów aproksymacyjnych. Odpowiedź na to pytanie poznamy dopiero w następnym module.

Schematy aproksymacji

Żeby wyrazić te nowe oczekiwania potrzebujemy nowych notacji:

Definicja 2.1

Mówimy, że algorytm 𝒜 jest {schematem aproksymacji} dla problemu NP-optymalizacyjnego Π, jeżeli dla wejścia (I,ϵ), gdzie I jest instancją problemu Π, a ϵ>0 opisuje dopuszczalny błąd, znajduje rozwiązanie takie, że:

  • objΠ(I,𝒜(I,ϵ))(1+ϵ)optΠ(I) dla problemu minimalizacji.
  • objΠ(I,𝒜(I,ϵ))(1ϵ)optΠ(I) dla problemu maksymalizacji.

Definicja 2.2

Jeśli dla dowolnego ϵ>0 czas działania 𝒜 na wejściu (I,ϵ) jest wielomianowy względem |I|, to 𝒜 jest {wielomianowym schematem aproksymacji}. Będziemy używać skróconej notacji PTAS (od polynomial time approximation scheme) dla oznaczenia tego faktu.

Zauważmy, że w tej definicji wymagamy wielomianowego czasu działania tylko względem rozmiaru instancji przy ustalonym dopuszczalnym błędzie. Oznacza to, że czas działania może być nawet wykładniczy względem wartości parametru ϵ. Nie jest to sytuacja komfortowa. Możemy w związku z tym wzmocnić wymagania postawione dla algorytmu.

Definicja 2.3

Jeżeli czas działania algorytmu 𝒜 jest wielomianowy względem |I| oraz wartości 1ϵ, to 𝒜 jest {w pełni wielomianowym schematem aproksymacji}. Omawiając takie algorytmy, będziemy używać notacji FPTAS (fully polynomial time approximation scheme).

Ćwiczenie 2.4

FPTAS dla problemów silnie NP-zupełnych.

Wykaż, że o ile PNP i Π jest silnie NP-zupełnym problemem optymalizacyjnym takim, że funkcja celu objΠ przyjmuje wartości całkowite i ograniczone wielomianowo od rozmiaru instancji wejściowej oraz jej największej liczby, to nie istnieje algorytm FPTAS dla Π.

Wskazówka
Rozwiązanie

Schemat aproksymacji dla problemu KNAPSACK

Pokazaliśmy, że nie warto szukać algorytmów FPTAS dla problemów silnie NP-zupełnych. Rozpoczniemy w związku z tym dalsze poszukiwania schematów aproksymacyjnych od przyjrzenia się raz jeszcze problemowi plecakowemu. Wiemy, że nie jest to problem silnie NP-zupełny i znamy dla niego algorytm pseudowielomianowy. Bardzo często istnienie algorytmu pseudowielomianowego można wykorzystać przy konstrukcjii schematów aproksymacji. Zobaczymy teraz klasyczną konstrukcję opartą o ten pomysł.

Pokażemy teraz algorytm pseudowielomianowy rozwiązujący problem KNAPSACK. Poznaliśmy już jeden taki alorytm, ale tamten nie nadaje się do konstrukcji schematu aproksymacji.

Algorytm 3.1 [Algorytm pseudowielomianowy dla problemu plecakowego]


1. Oblicz V=maxi=1,2,,nv(ai).

2. Oblicz Wi,u określone dla 0in i 0unV jako "minimalny sumaryczny rozmiar podzbioru przedmiotów Sa1,a2,,ai taki, że sumaryczna wartość tych przedmiotów wynosi dokładnie u". Obliczenia można dokonać metodą dynamiczną, korzystając z następujących własności rekurencyjnych: W0,u=,Wi+1,u=min(Wi,u,Wi,uv(ai+1)+w(ai+1)).

3. Odczytaj rozwiązanie z wartości W.

Algorytm ten można zakodować tak, aby znajdował optymalne rozwiązanie w czasie 𝒪(n2V). Szczegóły implementacji pozostawiamy jako ćwiczenie.

Zauważmy, że gdyby wartości przedmiotów były ograniczone przez wielomianową funkcję n, to skonstruowany algorytm byłby wielomianowy. To jest podstawą schematu aproksymacji, który będzie zaokrąglał wartości przedmiotów tak, aby były one wielomianowe względem n i 1ϵ. Oto algorytm:

Algorytm 3.2 [Algorytm zaokrągleniowy]


1. Oblicz K=ϵVn.

2. Dla każdego przedmiotu oblicz v(ai)=[v(ai)K].

3. Używając algorytmu pseudowielomianowego, rozwiąż problem z wartościami v.

Twierdzenie 3.3

Algorytm zaokrągleniowy jest FPTAS dla problemu plecakowego.

Dowód

Musimy pokazać, że dla zbioru S znajdowanego przez algorytm zachodzi:

iSv(ai)(1ϵ)opt.

Niech O będzie rozwiązaniem optymalnym. Możemy wtedy zapisać ciąg nierówności:

iSv(ai)iS[v(ai)K]KiO[v(ai)K]KiO(v(ai))KiOv(ai)nK.

Korzystamy po kolei z własności zaokrąglenia, optymalności rozwiązania S przy wartościach wydzielonych przez K, własności zaokrąglenia i tego, że |S|n.

Udowodniliśmy, że wartość rozwiązania znajdowanego przez algorytm jest nie mniejsze niż optnK=optϵV(1ϵ)opt. Jest to zatem schemat aproksymacyjny. Musimy jeszcze oszacować czas działania algorytmu. Wynosi on 𝒪(n2[VK])=𝒪(n2[nϵ]), a więc jest wielomianowy zarówno względem n, jak i 1ϵ.

Ćwiczenie 3.4

Algorytm pseudowielomianowy.

Doprecyzuj implementację algorytmu pseudowielomianowego dla problemu plecakowego. Jak odzyskać wybór przedmiotów z tablicy Wi,u?

Wskazówka
Rozwiązanie

Asymptotyczny PTAS dla BIN PACKING

Pokazaliśmy, że problem plecakowy może być aproksymowalny z dowolną dokładnością w czasie wielomianowo zależnym od wielkości danych i dopuszczalnego błędu. Dla problemuu pakowania nie możemy się spodziewać równie dobrych wyników. Jest to problem silnie NP-zupełny i o ile PNP, to nie może istnieć FPTAS. Pokazaliśmy również, że nie ma algorytmu osiągającego stałą aproksymacji mniejszą od 32. Dowód opierał się o fakt, że o ile PNP, to nie da się efektywnie sprawdzać, czy da się przedmioty upakować do dwóch pojemników.

Instancje, które zabraniały aproksymacji lepszej niż 32 miały ograniczoną wartość optimum. Skonstruujemy teraz asymptotyczny PTAS dla problemu pakowania, który może osiągać dowolnie dobrą aproksymację, ale dla odpowiednio dużych wartości optimum.

Precyzując, podamy rodzinę algorytmów 𝒜ϵ dla 0<ϵ12 działających w czasie wielomianowym od liczby przedmiotów i znajdujących rozwiązanie używające co najwyżej (1+2ϵ)opt+1 pojemników.

Zanim będziemy mogli przedstawić algorytmy 𝒜ϵ musimy pokazać dwa pomocnicze lematy, które pokazują rozwiązania dla pewnych uproszczonych instancji problemu.

Lemat 4.1

Dla dowolnego ϵ>0 oraz liczby całkowitej K istnieje algorytm wielomianowy rozwiązujący problem pakowania dla instancji, w których występują przedmioty o co najwyżej K różnych rozmiarach, z których każdy jest nie mniejszy niż ϵ.

Dowód

Liczba przedmiotów w jednym pojemniku jest ograniczona przez M=[1ϵ]. Suma rozmiarów większej liczby przedmiotów musi przekraczać 1, gdyż każdy z nich ma rozmiar nie mniejszy niż ϵ.

Liczba możliwych zawartości jednego pojemnika jest zatem ograniczona przez R=(M+KM). Ograniczenie to uzyskujemy, gdyż jest to liczba M-elementowych multipodzbiorów zbioru K-elementowego. Zauważmy, że liczb R jest stałą zależną tylko od K i ϵ.

Liczba pojemników w rozwiązaniu jest ograniczona w oczywisty sposób przez n. Zatem liczba możliwych rozwiązań dopuszczalnych jest ograniczona przez P=(n+RR). Tym razem jest to liczba n-elementowych multipodzbiorów zbioru R-elementowego.

Liczba P wyraża się wielomianem względem n. Możemy w związku z tym w czasie wielomianowym przejrzeć wszystkie rozwiązania dopuszczalne i wybrać optymalne.

Uwaga 4.2

Niestety czas tego algorytmu jest wielomianem stopnia R. Jest to bardzo wysoki stopień i przez to algorytm ten nie może być traktowany jako praktyczne rozwiązanie problemu.

Lemat 4.3

Dla dowolnego ϵ>0 istnieje wielomianowy algorytm (1+ϵ)-aproksymacyjny dla problemu pakowania dla instancji, w których występują przedmioty o rozmiarach nie mniejszych niż ϵ.

Dowód

Algorytm 4.4 [Algorytm dzielący na grupy]


1. Oblicz K=[1ϵ2].

2. Posortuj przedmioty względem rosnącego rozmiaru i podziel posortowany ciąg na K grup tak, aby w każdej grupie było co najwyżej Q=[nϵ2] przedmiotów.

3. Zamień rozmiar każdego z przedmiotów na rozmiar największego przedmiotu w tej samej grupie.

4. Użyj algorytmu z poprzedniego lematu działającego na przedmiotach o K różnych rozmiarach nie mniejszych niż ϵ.

Niech I będzie instancją podaną na wejściu algorytmu. Niech I* będzie instancją otrzymaną w trzecim kroku algorytmu, a I* instancją, którą otrzymalibyśmy, zamieniając rozmiar każdego z przedmiotów na rozmiar najmniejszego w tej samej grupie.

Wynikiem działania algorytmu jest rozwiązanie optymalne dla instancji I*. Musimy wykazać, że opt(I*)(1+ϵ)opt(I). Łatwo jest uzasadnić oszacowanie opt(I*)opt(I).

Możemy teraz zauważyć, że każde rozwiązanie instancjii I* wyznacza pewne rozwiązanie dla I*, ponieważ najmniejszy przedmiot z i+1 grupy przedmiotów jest większy lub równy największemu przedmiotowi z grupy i. Zatem rozwiązanie instancji I* pozwala upakować wszystkie przedmioty z instancji I* oprócz ostatniej grupy. Więc nawet jeżeli każdy z tych przedmiotów zostałby upakowany do osobnego pojemnika, otrzymujemy ograniczenie:

opt(I*)opt(I*)+Qopt(I)+Qopt(I)+[nϵ2](1+ϵ)opt(I).

Ostatnia nierówność wynika z tego, że nϵopt(I). Pokazaliśmy zatem, że algorytm jest (1+ϵ)-aproksymacyjny.

Mając w ręku te dwa pomocnicze lematy, możemy już pokazać algorytm 𝒜ϵ.

Algorytm 4.5 [Algorytm 𝒜ϵ]


1. Stwórz instancję Iϵ, usuwając wszystkie przedmioty o rozmiarze mniejszym od ϵ z I.

2. Oblicz instancję Iϵ* i znajdź dla niej optymalne upakowanie, korzystając z algorytmu przeglądającego wszystkie rozwiązania dopuszczalne.

3. Dopakuj przedmioty o rozmiarze mniejszym od ϵ za pomocą algorytmu First-Fit, otrzymując rozwiązanie dla instancji wejściowej I.

Twierdzenie 4.6

Dla dowolnego 0<ϵ12 algorytm 𝒜ϵ znajduje upakowanie przedmiotów instancji I w co najwyżej (1+2ϵ)opt(I)+1 pojemnikach.

Dowód

Jeżeli w ostatnim kroku algorytmu nie zostały utworzone żadne nowe pojemniki, to rozwiązanie znalezione dla Iϵ używa (1+ϵ)opt(Iϵ) pojemników, a więc spełnia warunki twierdzenia.

Jeżeli natomiast zostały utworzone nowe pojemniki, to zauważmy, że tylko w jednym ze wszystkich pojemników mogą znajdować się przedmioty o sumarycznym rozmiarze mniejszym niż 1ϵ. Zatem jeżeli oznaczymy przez M liczbę wszystkich użytych pojemników, to sumarczyny rozmiar wszystkich przedmiotów (a więc i optimum) możemy ograniczyć z dołu przez (M1)(1ϵ). W związku z tym możemy napisać:

Mopt(I)1ϵ+1(1+2ϵ)opt(I)+1.

Druga nierówność wynika z prostego przekształcenia arytmetycznego przy 0<ϵ12.

Ćwiczenie 4.7

Aproksymacja dla problemu PARTITION.

Optymalizacyjna wersja problemu PARTITION powstaje, kiedy chcemy wybrać podzbiór AA taki, że minimalizuje wartość |aA|s(a)aAAs(a)|.

Uzasadnij, że dla tego problemu nie ma algorytmu PTAS.

Inna wersja optymalizacyjna problemu PARTITION powstaje, kiedy mierzymy odległość od równomiernego podziału przez iloraz zamiast przez różnicę. Chcemy wtedy wybrać podzbiór AA taki, że iloraz:

aAs(a)aAAs(a)1,

jednocześnie minimalizując wartość tego ilorazu.

Pokaż algorytm FPTAS dla tej wersji problemu PARTITION.

Wskazówka
Rozwiązanie


Ćwiczenie 4.8

Problem BIN COVERING.

Rozważ problem dualny do BIN PACKING:

Problem

Pokrywanie BIN COVERING.

Mając dany zbiór n przedmiotów o wagach wymiernych w1,w2,,wn(0,1], należy znaleźć przyporządkowanie ich do jak największej liczby pojemników. Suma wag przedmiotów w jednym pojemniku musi przekraczać 1, a część przedmiotów może być w ogóle niewykorzystana.

Można się domyślać, że problem ten ma charakterystykę podobną do BIN PACKING.

Pokaż, że o ile PNP, to nie ma dla niego algorytmu a-aproksymacyjnego dla a>12. Skonstruuj asymptotyczny PTAS przy dodatkowym założeniu, że rozmiary wszystkich przedmiotów są większe niż pewna stała c>0 (istnieje również asymptotyczny PTAS bez tego dodatkowego założenia, ale jego analiza jest znacznie trudniejsza).

Wskazówka
Rozwiązanie

L-redukcje

Wprowadzimy teraz pojęcie redukcji zachowującej aproksymację. Pozwoli nam to na bardziej systematyczne niż do tej pory zbadanie klasy problemów, dla których możliwa jest aproksymacja. W dalszej części będziemy poszukiwać klasy problemów aproksymowalnych i problemów w tej klasie zupełnych względem podanej redukcji. Definicja interesującej nas redukcji jest podobna do tej, jaką wprowadziliśmy pomiędzy problemami funkcyjnymi.

Definicja 5.1

Dla dwóch problemów optymalizacyjnych A i B, parę funkcji R:DADB i S:SBSA obliczalnych w pamięci logarytmicznej nazywamy L-redukcją, jeżeli istnieją dwie stałe dodatnie α i β takie, że spełnione są następujące własności:

  • Dla dowolnej instancji x problemu A zachodzi:
optB(R(x))αoptA(x).
  • Dla dowolnego rozwiązania dopuszczalnego s instancji R(x) zachodzi:
|optA(x)objA(x,S(s))|β|optB(R(x))objB(R(x),s)|.

Intuicyjnie, funkcja R L-redukcji (redukcji liniowej) zamienia instancję problemu A na instancję problemu B, nie zmieniając wartości rozwiązania optymalnego bardziej niż o stałą α. Funkcja S pozwala natomiast przeprowadzić dowolne z rozwiązań z powrotem na rozwiązanie instancji A, nie zmieniając odległości od optimum bardziej niż o stałą β.

Uwaga 5.2

Warto zauważyć, że definicja L-redukcji nie zależy od tego, czy problemy A i B są problami minimalizacyjnymi, czy maksymalizacyjnymi.

Przyjrzyjmy się teraz jeszcze raz redukcji problemu zbioru niezależnego do pokrycia wierzchołkowego. Jest ona oparta o fakt, że problemy te są do siebie dualne. Dopełnienie dowolnego zbioru niezależnego jest pokryciem wierzchołkowym i na odwrót.

Definicje odpowiednich funkcji są w związku z tym bardzo proste. R to po prostu funkcja identycznościowa na grafach, a S zwraca dopełnienie zbioru wierzchołków. Okazuje się, że nie jest to jednak L-redukcja, gdyż stosunku rozmiarów rozwiązań obu problemów nie da się w żaden sposób ograniczyć przez stałe.

Takie ograniczenie można uzyskać, zawężając klasę grafów. Jeżeli ograniczymy maksymalny stopień wierzchołków występujących w grafie przez liczbę k, to otrzymamy problemy k-INDPENDENT SET i k-VERTEX COVER. Przypomnijmy, że z redukcji problemu 3SAT wynika, że już problem 4-INDEPENDENT SET jest NP-zupełny.

Pokażemy, że funkcje R i S tworzą L-redukcję problemu k-INDEPENDENT SET do k-NODE COVER.

Zauważmy, że dla grafu G=(V,E) ze stopniem wierzchołków ograniczonym przez k rozmiar maksymalnego zbioru niezależnego to co najmniej |V|k+1. Dla każdego zbioru niezależnego o mniejszym rozmiarze, zbiór jego wszystkich sąsiadów jest co najwyżej k razy większy i nie obejmuje w związku z tym całego grafu. Można zatem taki zbiór niezależny poszerzyć.

Tymczasem minimalne pokrycie wierzchołkowe ma w oczywisty sposób co najwyżej |V| elementów. W związku z tym możemy ustalić wartość parametru α na k+1.

Wystarczy teraz zauważyć, że odległość rozwiązania znalezionego od optymalnego nie zmienia się przy przejściu przez funkcję S. W związku z tym możemy ustalić wartość parametru β na 1.

Ta krótka analiza pozwala stwierdzić, że para (R,S) jest L-redukcją problemu k-INDEPENDENT SET do k-NODE COVER.

Można też skonstruować odwrotną L-redukcję problemu k-NODE COVER do k-INDEPENDENT SET. Oczywiście należy użyć tych samych funkcji R i S, ale żeby uzyskać liniową zależność rozmiaru maksymalnego zbioru niezależnego od minimlanego pokrycia wierzchołkowego trzeba się trochę postarać. Zauważmy, że dla antykliki rozmiar minimalnego pokrycia wierzchołkowego wynosi 0, a maksymalny zbiór niezależny ma rozmiar równy ilości wierzchołków. Wynika stąd, że punkty izolowane mogą sprawiać problem dla L-redukcji.

W nowej redukcji funkcja R będzie usuwać wierzchołki izolowane z grafu (które i tak nie należą do minimalnego pokrycia wierzchołkowego). Funkcja S nadal będzie zamieniać zbiór wierzchołków na jego uzupełnienie (ale tylko w obrębie wierzchołków nieizolowanych). Rozmiar minimalnego pokrycia wierzchołkowego w grafie bez wierzchołków izolowanych wynosi co najmniej |V|k ponieważ jest co najmniej |V| krawędzi, a każdy wierzchołek pokrywa co najwyżej k z nich. To oszacowanie pozwala nam stwierdzić, że nowa redukcja jest L-redukcją z parametrami k i 1.

Ćwiczenie 5.3

Złożenie L-redukcji.

Pokaż, że jeżeli para (R1,S1) jest L-redukcją problemu Π1 do Π2, a para (R2,S2) L-reduckją Π2 do Π3, to (R1R2,S2S1) jest L-redukcją Π1 do Π3.

Wskazówka
Rozwiązanie


Ćwiczenie 5.4

Przenoszenie aproksymacji przez L-redukcje.

Pokaż, że jeżeli problem minimalizacyjny A L-redukuje się do problemu B i dla problemu B istnieje algorytm b-aproksymacyjny, to istnieje stała a taka, że dla problemu A istnieje algorytm a-aproksymacyjny.

Pokaż, że dla dowolnych problemów optymalizacyjnych A i B, że jeżeli A L-redukuje się do B i istnieje wielomianowy schemat aproksymacji dla problemu B, to istnieje też taki schemat dla problemu A.

Wskazówka
Rozwiązanie


Ćwiczenie 5.5

Różnica optimum dla NODE COVER i INDEPENDENT SET.

Pokaż, że dla dowolnej liczby wymiernej q>0 można skonstruować graf, dla którego iloraz rozmiaru maksymalnego zbioru niezależnego do minimalnego pokrycia wierzchołkowego wynosi q.

Rozwiązanie

Klasa MAXSNP

Wprowadzimy teraz formalną definicję klasy MAXSNP, która pozwoli nam bardziej metodycznie zbadać problemy optymalizacyjne. Dalsze badania nad tą klasą doprowadzą nas do bardzo ciekawych rezultatów dotyczących możliwości aproksymacji.

Zaczniemy od zdefiniowania klasy MAXSNP0, która opisuje problemy maksymalizacyjne. Jej charakteryzacja jest analogiczna do charakteryzacji klasy NP podanej w twierdzeniu Fagina.

Definicja 6.1

Problem A należy do klasy MAXSNP0, jeżeli można go wyrazić za pomocą formuły:

maxS{(x1,x2,,xk)Vk:ϕ(G1,G2,,Gm,S,x1,x2,,xk)}.

Wejściem dla problemu A jest ciąg relacji (być może wieloargumentowych) Gi,i=1,2,,m nad skończonym uniwersum V. Poszukiwana jest natomiast relacja S, która maksymalizowałaby liczbę naborów zmiennych xi takich, że formuła pierwszego rzędu bez kwantyfikatorów ϕ jest spełniona.

Definicja 6.2

Klasa MAXSNP jest domknięciem MAXSNP0 ze względu na L-redukcje.

Zobaczmy teraz przykład problemu, który należy do MAXSNP0. Wybierzemy problem k-INDEPENDENT SET. Zwykła reprezentacja grafu poprzez relację binarną nie pozwala wygodnie przedstawić ograniczenia stopnia wierzchołka i raczej nie prowadzi do reprezentacji poprzez odpowiednią formułę. Dlatego użyjemy niestandardowej reprezentacji grafu poprzez k+1-argumentową relację H. Każdemu wierzchołkowi G odpowiada jedna krotka relacji H - (x,y1,y2,,yk), która koduje sąsiedztwo wierzchołka x. Wierzchołki y1,y2,,yk to sąsiedzi x. Jeżeli x nie ma k sąsiadów, to na brakujących pozycjach występuje x. Problem k-zbioru niezależnego koduje się wtedy w następujący sposób:

maxSV{(x,y1,y2,,yk)Vk:(x,y1,y2,,yk)HxS[x=y1y1S][x=y2y2S][x=ykykS]}.

Wybór relacji S koduje pewien podzbiór wierzchołków. Formuła kodująca problem jest spełniona dla krotek odpowiadających tym wierzchołkom x, które należą do wybranego zbioru, a żaden z sąsiadów nie należy. Odpowiada to więc zbiorowi niezależnemu.

Pokazaliśmy zatem, że problem k-INDEPENDENT SET należy do klasy MAXSNP0. Natychmiastowym wnioskiem jest, że problem k-NODE COVER jest problemem z MAXSNP. Znamy przecież jego L-redukcję do k-INDEPENDENT SET.

Ćwiczenie 6.3

MAX CUT w MAXSNP.

Pokaż, że problem MAX CUT należy do MAXSNP.

Wskazówka
Rozwiązanie

Problemy MAXSAT i MAX FUNCTION SAT

Problem maksymalnej spełnialności MAXSAT i jego zawężenia pełnią podobną rolę dla klasy MAXSNP jak problem SAT dla NP. W tej części przyjrzymy się dokładniej temu problemowi i jego różnym wersjom. Podamy również algorytmy aproksymacyjne i udowodnimy zupełność zawężeń tego problemu dla klasy MAXSNP.

Przypomnijmy, że na wejściu problemu MAXSAT dostajemy formułę logiczną w koniunkcyjnej postaci normalnej z n zmiennymi. Poszukujemy takiego wartościowania tych zmiennych, które zmaksymalizowałoby liczbę spełnionych klauzul. Dla wygody dodajemy warunek, aby każda z klauzul była inna.

12-aproksymację problemu MAXSAT można osiągnąć bardzo prostą metodą:

Algorytm 7.1 [Algorytm wybierający wartościowanie x lub x]


1. Wybierz dowolne wartościowanie x dla n zmiennych występujących w formule.

2. Skonstruuj wartościowanie x, które przyporządkowuje zmiennym wartościowanie odwrotne do x.

3. Jako wynik podaj to z wartościowań x, x, przy którym więcej klauzul jest spełnionych.

Twierdzenie 7.2

Podany algorytm jest algorytmem 12-aproksymacyjnym.

Dowód

Zauważmy, że jeżeli któraś z alternatyw jest niespełniona przy wartościowaniu x, to musi być spełniona przy wartościowaniu x. Jeżeli alternatywa jest niespełniona przy jakimś wartościowaniu, to znaczy, że każda ze zmiennych występujących w klauzuli jest wartościowana odwrotnie niż jej wystąpienie. Zatem przy wartościowaniu odwrotnym każdy z literałów występujących w alternatywie jest wartościowany pozytywnie i alternatywa musi być spełniona.

Jeżeli zatem oznaczymy przez m - liczbę alternatyw w formule, przez c liczbę alternatyw spełnionych przy wartościowaniu x, a przez c liczbę alternatyw spełnionych przy wartościowaniu x, to zachodzą następującee nierówności:

cmc,cmc,c+c2mcc,c+cm.

Ponieważ algorytm wybiera to z wartościowań x lub x, przy którym więcej alternatyw jest spełnionych, to liczba spełnionych alternatyw jest nie mniejsza niż 12m. Nawet jeżeli rozwiązanie optymalne zapewnia spełnienie wszystkich m alternatyw, to algorytm jest 12-aproksymacyjny.

Pokażemy teraz pewną wariację na temat problemu MAXSAT.

Problem

Problem maksymalnej spełnialności funkcyjnej MAX FUNCTION SAT.

Danych jest n zmiennych logicznych x1,x2,,xn oraz m funkcji logicznych f1,f2,,fm. Należy znaleźć wartościowanie zmiennych x1,x2,,xn, przy którym największa liczba funkcji daje wynik pozytywny.

Ciekawym i istotnym dla dalszych rozważań zawężeniem problemów MAXSAT i MAX FUNCTION SAT jest ograniczenie liczby różnych zmiennych występujących w pojedynczej klauzuli lub funkcji logicznej. Jeżeli ta liczba jest ograniczonaa przez k, to mamy do czynienia z problemem MAXkSAT i MAXkFSAT.

Przypomnijmy, iż pokazaliśmy, że już problem MAX2SAT jest NP-zupełny (mimo że problem 2SAT nie jest). Teraz okaże się, dlaczego te problemy są dla nas tak interesujące:

Twierdzenie 7.3

Problemy MAXkSAT należą do klasy MAXSNP0.

Dowód

Pokażemy, że problem MAX2SAT należy do MAXSNP0. Konstrukcja reprezentacji formuły i kodowania problemu dla większych k jest analogiczna.

Zatem ustalamy, że uniwersum V to zbiór zmiennych występujących w formule, a trzy relacje binarne G0,G1,G2 kodują formułę. Para (x1,x2) w relacji Gi koduje wystąpienie klauzuli zawierającej literały x1 i x2, z których i występuje pozytywnie. Żeby zapewnić reprezentację każdej alternatywy przez dokładnie jedną krotkę którejś z relacji, wprowadzamy taką odpowiedniość pomiędzy relacjami i klauzulami:

G0(xi,xj)(¬xi¬xj);i<j,G1(xi,xj)(xi¬xj),G2(xi,xj)(xixj);i<j.

Możemy teraz użyć następującej formuły reprezentującej problem MAX2SAT:

maxSV{(x,y):[G0(x,y)(¬S(x)¬S(y))][G1(x,y)(S(x)¬S(y))][G2(x,y)(S(x)S(y))]}.

Wybór relacji S odpowiada ustaleniu wartościowania, a konstrukcja formuły zapewnia, że liczba krotek (x,y) spełniających formułę odpowiada liczbie alternatyw spełnionych przy danym wartościowaniu.

Drzewo wartościowań

Zbudowanie algorytmu aproksymacyjnego dla problemu MAXkFSAT nie jest już tak proste, jak dla problemu MAXSAT. Załóżmy, że mamy n zmiennych x1,x2,,xn i m funkcji logicznych f1,f2,,fm, z których każda zależy od co najwyżej k zmiennych. Żeby dobrze zobrazować działanie algorytmu, wyobraźmy sobie pełne drzewo binarne o 2n liściach. Każdy węzeł wewnętrzny reprezentuje pewne częściowe wartościowanie zmiennych (rysunek Drzewo wartościowań).

Dla każdego węzła drzewa t i funkcji fi określamy funkcję:

p(t,fi)=liczba wartościowań rozszerzających t przy których fi daje wynik pozytywnyliczba wszystkich wartościowań rozszerzających t.

Łatwo zauważyć, że jeżeli węzły t0 i t1 są dziećmi t w drzewie wartościowań, to zachodzi:

p(t,fi)=12(p(t0,fi)+p(t1,fi)).

Rozważmy teraz funkcję P(t)=i=1mp(t,fi). Oczywistym wnioskiem z poprzedniej równości jest:

P(t)=12(P(t0)+P(t1)).

Zauważmy jeszcze, że obliczenia wartości P(t) dla konkretnego t można dokonać w czasie wielomianowym. Ponieważ każda z funkcji fi zależy tylko od k zmiennych, więc można dokonać wyczerpującego przeglądu wszystkich 2k wartościowań tych zmiennych, zliczając te, dla których fi daje wynik pozytywny i są rozszerzeniami wartościowania t. Można zatem w czasie wielomianowym zsumować wartości p(t,fi) dla wszystkich m funkcji fi.

Możemy już teraz przedstawić algorytm:

Algorytm 7.4 [Algorytm schodzący po drzewie wartościowań]


1. Ustaw zmienną t na korzeń r drzewa wartościowań.

2. Dopóki t nie będzie liściem drzewa wartościowań:

obliczaj wartość P(t0) i P(t1) dla dzieci węzła t

i ustaw t na to z dzieci, dla którego wartość P(ti) jest większa.

3. Podaj wartościowanie opisywane przez węzeł t jako wynik.

Twierdzenie 7.5

Algorytm schodzący po drzewie wartościowań jest algorytmem 12k-aproksymacyjnym dla problemu MAXkFSAT.

Dowód

Liczba funkcji dających wynik pozytywny przy wartościowaniu t znalezionym przez algorytm jest równa dokładnie P(t). Ponieważ węzeł t określa wartość każdej ze zmiennych, to p(t,fi) jest równe 1 dla funkcji dających wynik pozytywny, a 0 dla tych dających wynik negatywny.

Zauważmy, że P(t)P(r). Jest tak dlatego, że przy każdym zejściu w dół drzewa od węzła s jest spełnione P(s)=12(P(s0)+P(s1)), więc któraś z wartości P(s0), lub P(s1) jest większa lub równa P(s), a algorytm wybiera zejście w kierunku większej z nich. W związku z tym wartość funkcji P dla aktualnie przeglądanego węzła nigdy nie maleje.

Zatem liczba funkcji z wynikiem pozytywnym w rozwiązaniu znalezionym przez algorytm jest nie mniejsza niż [P(r)]. Ponieważ dla każdej funkcji, która może w ogóle dać wynik pozytywny, przy jakimkolwiek wartościowaniu zachodzi p(r,fi)12k, to liczba funkcji, które dają wynik pozytywny w rozwiązaniu optymalnym, jest ograniczona z góry przez P(r)12k. To dowodzi, że algorytm jest algorytmem 12k-aproksymacyjnym.

Ćwiczenie 7.6

Kodowanie MAXkFSAT w MAX3SAT.

Pokaż L-redukcję problemu MAXkFSAT do MAX3SAT.

Wskazówka
Rozwiązanie


Ćwiczenie 7.7

Lepsza aproksymacja MAXSAT.

Pokaż, że jeżeli wymagalibyśmy od instancji problemu MAXSAT, aby w każdej alternatywie występowało przynajmniej k literałów, to istnieje algorytm (112k)-aproksymacyjny dla takiego problemu.

Wskazówka
Rozwiązanie

Problemy MAXSNP-zupełne

Pokażemy teraz, że problem MAX3SAT jest problemem zupełnym w sensie L-redukcji w klasie MAXSNP. Jest to bardzo istotny fakt, bo oznacza, że pozytywne wyniki aproksymacjii tego elementarnego problemu przekładają się poprzez L-redukcje na wszystkie problemy z klasy MAXSNP. Jest też to fakt interesujący ze względu na to, że wcale nie jest oczywiste, iż problemy MAXSNP-zupełne muszą w ogóle istnieć.

Twierdzenie 8.1

MAX3SAT jest problemem zupełnym w sensie L-redukcji w klasie MAXSNP.

Dowód

Przypomnijmy, że klasa MAXSNP jest definiowana jako klasa problemów L-redukowalnych do problemów z MAXSNP0. Zatem wystarczy, że pokażemy, iż każdy problem z MAXSNP0 jest L-redukowalny do problemu MAX3SAT i skorzystamy z tego, że złożenie L-redukcji jest L-redukcją.

Rozważmy zatem problem A z klasy MAXSNP0 definiowany formułą:

maxS{(x1,x2,,xk):ϕ}.

Rozważymy teraz konkretną instancję problemu A z ustalonym uniwersum V i relacjami G1,G2,,Gm. Dla każdej krotki v=(v1,v2,,vk)Vk definiujemy formułę ϕv, która powstaje z ϕ przez podstawienie wartości v1,v2,,vk za zmienne x1,x2,,xk. Każdą w formuł ϕv możemy uprościć, zamieniając każde wystąpienie relacji G i symbolu = wartościami prawdy i fałszu, które w konkretnej instancji są ustalone. W wyniku otrzymujemy formułę ϕv, w której występują tylko symbole logiczne i relacja S.

Możemy teraz spojrzeć na rozwiązanie tej instancjii problemu A jak na ustalenie wartościowania formuł S(vi1,vi2,,vir), tak aby zmaksymalizować liczbę spełnionych formuł ϕv. Jeżeli któraś z formuł ϕv jest niespełnialna dla żadnego wartościowania, to już na tym etapie usuwamy ją z opisu problemu.

Właśnie opisaliśmy redukcję problemu A do problemu MAXlFSAT, gdzie jest |V|r zmiennych odpowiadających S(vi1,vi2,,vir) i |V|r funkcji logicznych odpowiadających formułom ϕv. Stała l zależy tylko od postaci formuły ϕ i należy ją ustalić równą liczbie wystąpień symbolu relacyjnego S w formule ϕ. Możemy teraz użyć redukcji MAXlFSAT do MAX3SAT.

Musimy teraz pokazać, że otrzymana w ten sposób redukcja jest L-redukcją. Na podstawie instancji x problemu A możemy zbudować R(x) instancję problemu MAX3SAT. Rozwiązanie S(s) możemy łatwo obliczyć, odczytując relację S z wartości zmiennych występujących w rozwiązaniu problemu R(x).

Musimy teraz skorzystać z pewnych własności problemu MAXlFSAT i jego redukcji do MAX3SAT.

Po pierwsze, każda formuła ϕv jest reprezentowana przez co najwyżej c klauzul, gdzie c zależy tylko od liczby bramek potrzebnych do wyrażenia formuły ϕ.

Po drugie, istnieje stała d taka, że dla m funkcji w problemie MAXlSAT istnieje wartościowanie, przy którym przynajmniej dm spośród funkcji ma wartość pozytywną. Skorzystamy z tego, że odrzuciliśmy funkcje, które stale przyjmują wartość negatywną. Stałą d równą 12l otrzymujemy z dowodu, że algorytm schodzący po drzewie wartościowań jest algorytmem 12l-aproksymacyjnym.

Po trzecie, zastosowana redukcja MAXlFSAT do MAX3SAT gwarantuje, że w rozwiązaniu optymalnym problemu R(x) wszystkie klauzule poza tymi przechowującymi wyniki funkcji są spełnione.

Te trzy fakty sprawiają, że opisana redukcja jest L-redukcją z parametrami α=cd(opt(x)dm, opt(R(x))cm) i β=1 (w rozwiązaniu optymalnym opt problemu R(x) liczba spełnionych alternatyw zmniejszona o liczbę alternatyw innych niż przechowujące wyniki funkcji wyznacza dokładnie liczbę krotek Vk, dla których relacja S zachodzi).

Ćwiczenie 8.2

Problemy z MAXSNP0 są aproksymowalne ze stałą.

Pokaż, że dla każdego problemu z klasy MAXSNP istnieje algorytm a-aproksymacyjny dla pewnej stałej.

Wskazówka
Rozwiązanie

Testy końcowe