Złożoność obliczeniowa/Wykład 8: Schematy aproksymacji i klasa MAXSNP: Różnice pomiędzy wersjami
Matiunreal (dyskusja | edycje) |
m Zastępowanie tekstu – „<math> ” na „<math>” |
||
(Nie pokazano 56 wersji utworzonych przez 3 użytkowników) | |||
Linia 1: | Linia 1: | ||
==Wprowadzenie== | ==Wprowadzenie== | ||
W poprzednim wykładzie zajmowaliśmy się algorytmami | |||
aproksymacyjnymi dla przykładowych trudnych problemów | aproksymacyjnymi dla przykładowych trudnych problemów | ||
optymalizacyjnych. Dla większości z tych algorytmów udawało nam się | optymalizacyjnych. Dla większości z tych algorytmów udawało nam się | ||
Linia 7: | Linia 7: | ||
efektywności przybliżenia. | efektywności przybliżenia. | ||
W tym module postawimy sobie znacznie ambitniejsze zadanie | W tym module postawimy sobie znacznie ambitniejsze zadanie. | ||
Będziemy szukać algorytmów, którym na wejściu ustala się | |||
dopuszczalny błąd przybliżenia rozwiązania optymalnego. Pokażemy | dopuszczalny błąd przybliżenia rozwiązania optymalnego. Pokażemy | ||
problemy, dla których jest możliwa taka "dowolnie dokładna" | problemy, dla których jest możliwa taka "dowolnie dokładna" | ||
aproksymacja. | aproksymacja. | ||
W drugiej części poznamy klasę <math>\ | W drugiej części poznamy klasę <math>\mathrm{MAXSNP}</math>. Jest to bardzo szeroka i interesująca klasa problemów optymalizacyjnych, a pytanie o to, czy należące do niej problemy mogą być dowolnie dobrze aproksymowane, było bardzo istotnym zagadnieniem teorii algorytmów aproksymacyjnych. Odpowiedź na to pytanie poznamy dopiero w następnym module. | ||
==Schematy aproksymacji== | ==Schematy aproksymacji== | ||
Linia 20: | Linia 20: | ||
{{definicja|2.1|| | {{definicja|2.1|| | ||
Mówimy, że algorytm <math> | Mówimy, że algorytm <math>\mathcal{A}</math> jest {schematem aproksymacji} dla problemu <math>\mathrm{NP}</math>-optymalizacyjnego <math>\Pi</math>, jeżeli dla wejścia <math>(\mathit{I,\epsilon})</math>, gdzie <math>I</math> jest instancją problemu <math>\Pi</math>, a <math>\epsilon > 0</math> opisuje dopuszczalny błąd, znajduje rozwiązanie takie, że: | ||
* <math>\ | * <math>\text{obj}_\Pi(I,{ \mathcal{A}(I,\epsilon) }) \leq (\mathit{1 + \epsilon}) \text{opt} _\Pi(I)</math> dla problemu minimalizacji. | ||
* <math>\ | * <math>\text{obj}_\Pi(I,{ \mathcal{A}(I,\epsilon) }) \geq (\mathit{1 - \epsilon}) \text{opt} _\Pi(I)</math> dla problemu maksymalizacji. | ||
}} | }} | ||
{{definicja|2.2|| | {{definicja|2.2|| | ||
Jeśli dla dowolnego <math> | Jeśli dla dowolnego <math>\epsilon > 0</math> czas działania <math>\mathcal{A}</math> na wejściu <math>(\mathit{I,\epsilon})</math> jest wielomianowy względem <math>|\mathit{I}|</math>, to <math>\mathcal{A}</math> jest {wielomianowym schematem aproksymacji}. Będziemy używać skróconej notacji PTAS (od ''polynomial time approximation scheme'') dla oznaczenia tego faktu. | ||
}} | }} | ||
Linia 33: | Linia 33: | ||
tylko względem rozmiaru instancji przy ustalonym dopuszczalnym | tylko względem rozmiaru instancji przy ustalonym dopuszczalnym | ||
błędzie. Oznacza to, że czas działania może być nawet wykładniczy | błędzie. Oznacza to, że czas działania może być nawet wykładniczy | ||
względem wartości parametru <math> | względem wartości parametru <math>\epsilon</math>. Nie jest to sytuacja | ||
komfortowa. Możemy w związku z tym wzmocnić wymagania postawione dla | komfortowa. Możemy w związku z tym wzmocnić wymagania postawione dla | ||
algorytmu. | algorytmu. | ||
{{definicja|2.3|| | {{definicja|2.3|| | ||
Jeżeli czas działania algorytmu <math> | Jeżeli czas działania algorytmu <math>\mathcal{A}</math> jest wielomianowy względem <math>|\mathit{I}|</math> | ||
oraz wartości <math> | oraz wartości <math>\frac{1}{\epsilon}</math>, to <math>\mathcal{A}</math> jest | ||
{w pełni wielomianowym schematem aproksymacji}. | {w pełni wielomianowym schematem aproksymacji}. | ||
Omawiając takie algorytmy będziemy używać notacji FPTAS (''fully | Omawiając takie algorytmy, będziemy używać notacji FPTAS (''fully | ||
polynomial time approximation scheme''). | polynomial time approximation scheme''). | ||
}} | }} | ||
{{cwiczenie|2.4|| | {{cwiczenie|2.4|| | ||
FPTAS dla problemów silnie <math>\ | FPTAS dla problemów silnie <math>\mathrm{NP}</math>-zupełnych. | ||
Wykaż, że o ile <math>\ | Wykaż, że o ile <math>\mathrm{P} \neq \mathrm{NP}</math> i <math>\Pi</math> jest silnie <math>\mathrm{NP}</math>-zupełnym | ||
problemem optymalizacyjnym takim, że funkcja celu <math>\ | problemem optymalizacyjnym takim, że funkcja celu <math>\text{obj}_\Pi</math> | ||
przyjmuje wartości całkowite i ograniczone wielomianowo od rozmiaru | przyjmuje wartości całkowite i ograniczone wielomianowo od rozmiaru | ||
instancji wejściowej oraz jej największej liczby, to nie istnieje | instancji wejściowej oraz jej największej liczby, to nie istnieje | ||
algorytm FPTAS dla <math> | algorytm FPTAS dla <math>\Pi</math>. | ||
}} | |||
<div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Wskazówka </span><div class="mw-collapsible-content" style="display:none"> | <div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Wskazówka </span><div class="mw-collapsible-content" style="display:none"> | ||
Wykorzystaj ograniczenie na wartości funkcji celu do zdefiniowania odpowiedniego | Wykorzystaj ograniczenie na wartości funkcji celu do zdefiniowania odpowiedniego | ||
progu dopuszczalnego błędu w algorytmie FPTAS. Otrzymasz algorytm pseudowielomianowy | progu dopuszczalnego błędu w algorytmie FPTAS. Otrzymasz algorytm pseudowielomianowy | ||
dla silnie <math>\ | dla silnie <math>\mathrm{NP}</math>-zupełnej decyzyjnej wersji problemu <math>\Pi</math>. | ||
</div></div> | </div></div> | ||
<div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Rozwiązanie </span><div class="mw-collapsible-content" style="display:none"> | <div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Rozwiązanie </span><div class="mw-collapsible-content" style="display:none"> | ||
Niech <math> | Niech <math>\Pi</math> będzie problemem maksymalizacji z funkcją celu | ||
<math>\ | <math>\text{obj}_\Pi</math> (dla problemu minimalizacji dowód przebiega | ||
analogicznie). Załóżmy, że jej wartości są całkowite dodatnie oraz | analogicznie). Załóżmy, że jej wartości są całkowite dodatnie oraz | ||
dla każdej instancji <math> | dla każdej instancji <math>I</math>, <math>\text{obj}_\Pi(I) < p(|I|,NUM(I))</math>, gdzie <math>p</math> | ||
jest pewnym wielomianem dwóch zmiennych, a <math> | jest pewnym wielomianem dwóch zmiennych, a <math>NUM(I)</math> jest skojarzoną | ||
z problemem funkcją określającą wartość największej liczby | z problemem funkcją określającą wartość największej liczby | ||
występującej w instancji. Załóżmy, że <math> | występującej w instancji. Załóżmy, że <math>A</math> jest FPTAS dla <math>\Pi</math>. | ||
Skonstruujemy algorytm pseudowielomianowy dla <math> | Skonstruujemy algorytm pseudowielomianowy dla <math>\Pi</math>. | ||
Na wejściu dana jest instancja <math> | Na wejściu dana jest instancja <math>I</math>. Algorytm składa sie z dwóch | ||
kroków: | kroków: | ||
1. oblicz <math> | 1. oblicz <math>\delta = 1/p(|I|,NUM(I))</math>, | ||
2. zastosuj <math> | 2. zastosuj <math>A</math> dla instancji <math>I</math> i dokładności <math>\delta</math> obliczone | ||
rozwiązanie dopuszczalne <math> | rozwiązanie dopuszczalne <math>S</math> wypisz na wyjście. | ||
Ponieważ <math> | Ponieważ <math>\Pi</math> jest maksymalizacyjny, więc <math>\text{obj}_\Pi(I,S)\geq | ||
(1-\delta)</math>. Zatem <math>\ | (1-\delta)</math>. Zatem <math>\text{opt}(I)-\text{obj}_\Pi(I,S) \leq \delta \, \text{opt}(I) < 1</math>. | ||
Z tego, że wartości funkcji celu są całkowitoliczbowe, wynika | Z tego, że wartości funkcji celu są całkowitoliczbowe, wynika | ||
<math>\ | <math>\text{obj}_\Pi(I,S)=\text{opt}(I)</math>, a zatem nasz algorytm znajduje rozwiązania | ||
optymalne. Zgodnie z | optymalne. Zgodnie z definicją FPTAS, algorytm działa w czasie | ||
wielomianowym od <math> | wielomianowym od <math>|I|</math> oraz <math>1/\delta</math>, jest to więc algorytm | ||
pseudowielomianowy dla <math> | pseudowielomianowy dla <math>\Pi</math>. | ||
Z analizowanych | Z analizowanych w poprzednim wykładzie własności silnej | ||
NP-zupełności wynika, że musi to być algorytm wielomianowy dla | NP-zupełności wynika, że musi to być algorytm wielomianowy dla | ||
<math> | <math>\Pi</math>, co oczywiście jest sprzeczne z założeniem <math>\mathrm{P} \neq \mathrm{NP}</math>. | ||
</div></div> | </div></div> | ||
==Schemat aproksymacji dla problemu KNAPSACK== | ==Schemat aproksymacji dla problemu KNAPSACK== | ||
Pokazaliśmy, że nie warto szukać algorytmów FPTAS dla problemów silnie <math>\ | Pokazaliśmy, że nie warto szukać algorytmów FPTAS dla problemów silnie <math>\mathrm{NP}</math>-zupełnych. Rozpoczniemy w związku z tym dalsze poszukiwania schematów aproksymacyjnych od przyjrzenia się raz jeszcze problemowi plecakowemu. Wiemy, że nie jest to problem silnie <math>\mathrm{NP}</math>-zupełny i znamy dla niego algorytm pseudowielomianowy. Bardzo często istnienie algorytmu pseudowielomianowego można wykorzystać przy konstrukcjii schematów aproksymacji. Zobaczymy teraz klasyczną konstrukcję opartą o ten pomysł. | ||
Pokażemy teraz algorytm | Pokażemy teraz algorytm pseudowielomianowy rozwiązujący problem KNAPSACK. Poznaliśmy już jeden taki alorytm, ale tamten nie nadaje się do konstrukcji schematu aproksymacji. | ||
{{algorytm|3.1 [Algorytm pseudowielomianowy dla problemu plecakowego]|al 2.1| | |||
1. Oblicz <math>V = \max_{i=1,2,\ldots,n} v(a_i)</math>. | |||
2. Oblicz <math>W_{i,u}</math> określone dla <math>0 \leq i \leq n</math> i <math>0 \leq u \leq nV</math> jako "minimalny sumaryczny rozmiar podzbioru przedmiotów <math>S \subseteq{a_1,a_2,\ldots,a_i}</math> taki, że sumaryczna wartość tych przedmiotów wynosi dokładnie <math>u</math>". Obliczenia można dokonać metodą dynamiczną, korzystając z następujących własności rekurencyjnych: | |||
<math>\begin{align} W_{0,u} &= \infty\text{,} \\ W_{i+1,u} &= \min(W_{i,u},W_{i,u- v(a_{i+1}) }+ w(a_{i+1}) )\text{.} \end{align}</math> | |||
3. Odczytaj rozwiązanie z wartości <math>W</math>.}} | |||
Algorytm ten można zakodować tak, aby znajdował optymalne rozwiązanie w czasie <math>\mathcal{O}({n^2V})</math>. Szczegóły implementacji pozostawiamy jako ćwiczenie. | |||
Zauważmy, że gdyby wartości przedmiotów były ograniczone przez wielomianową funkcję <math>n</math>, to skonstruowany algorytm byłby wielomianowy. To jest podstawą schematu aproksymacji, który będzie zaokrąglał wartości przedmiotów tak, aby były one wielomianowe względem <math>n</math> i <math>\frac{1}{\epsilon}</math>. Oto algorytm: | |||
{{algorytm|3.2 [Algorytm zaokrągleniowy]|al 2.2| | |||
1. Oblicz <math>K = \frac{\epsilon V}{n}</math>. | |||
2. Dla każdego przedmiotu oblicz <math>v'(a_i) = [{\frac{ v(a_i) }{K}}]</math>. | |||
3. Używając algorytmu pseudowielomianowego, rozwiąż problem z wartościami <math>v'</math>.}} | |||
{{twierdzenie|3.3|| | {{twierdzenie|3.3|| | ||
Linia 123: | Linia 122: | ||
{{dowod||| | {{dowod||| | ||
Musimy pokazać, że dla zbioru <math> | Musimy pokazać, że dla zbioru <math>S</math> znajdowanego przez algorytm zachodzi: | ||
<center><math> | <center><math>\sum_{i \in S} v(a_i) \geq (\mathit{1 - \epsilon}) \text{opt}\text{.}</math></center> | ||
Niech <math> | Niech <math>O</math> będzie rozwiązaniem optymalnym. Możemy wtedy zapisać ciąg nierówności: | ||
<center><math> | <center><math>\sum_{i \in S} v(a_i) \geq \sum_{i \in S} [{\frac{ v(a_i) }{K}}] K \geq \sum_{i \in O} [{\frac{ v(a_i) }{K}}] K \geq \sum_{i \in O} (\mathit{ v(a_i)) - K} \geq \sum_{i \in O} v(a_i) - nK\text{.} | ||
</math></center> | </math></center> | ||
Korzystamy po kolei z własności zaokrąglenia, optymalności rozwiązania <math> | Korzystamy po kolei z własności zaokrąglenia, optymalności rozwiązania <math>S</math> przy wartościach wydzielonych przez <math>K</math>, własności zaokrąglenia i tego, że <math>|\mathit{S}| \leq n</math>. | ||
Udowodniliśmy, że wartość rozwiązania znajdowanego przez algorytm jest nie mniejsze niż | Udowodniliśmy, że wartość rozwiązania znajdowanego przez algorytm jest nie mniejsze niż <math>\text{opt} - nK = \text{opt} - \epsilon V \geq (\mathit{1-\epsilon}) \text{opt}</math>. Jest to zatem schemat aproksymacyjny. Musimy jeszcze oszacować czas działania algorytmu. Wynosi on <math>\mathcal{O}({n^2[{\frac{V}{K}}]}) = \mathcal{O}({n^2[{\frac{n}{\epsilon}}]})</math>, a więc jest wielomianowy zarówno względem <math>n</math>, jak i <math>\frac{1}{\epsilon}</math>. | ||
}} | }} | ||
Linia 140: | Linia 139: | ||
Algorytm pseudowielomianowy. | Algorytm pseudowielomianowy. | ||
Doprecyzuj implementację algorytmu pseudowielomianowego dla problemu plecakowego. Jak odzyskać wybór przedmiotów z tablicy <math> | Doprecyzuj implementację algorytmu pseudowielomianowego dla problemu plecakowego. Jak odzyskać wybór przedmiotów z tablicy <math>W_{i,u}</math>? | ||
}} | |||
<div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Wskazówka </span><div class="mw-collapsible-content" style="display:none"> | <div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Wskazówka </span><div class="mw-collapsible-content" style="display:none"> | ||
Użyj standardowej konstrukcji algorytmu dynamicznego w oparciu o | Użyj standardowej konstrukcji algorytmu dynamicznego w oparciu o | ||
Linia 148: | Linia 147: | ||
<div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Rozwiązanie </span><div class="mw-collapsible-content" style="display:none"> | <div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Rozwiązanie </span><div class="mw-collapsible-content" style="display:none"> | ||
Następujący program wypełni tablicę <math> | Następujący program wypełni tablicę <math>W_{i,u}</math>: | ||
'''for''' <math> | '''for''' <math>u=0,1,\ldots,V</math> '''do''' | ||
<math> | <math>W_{0,u} = \infty</math> | ||
'''end for''' | '''end for''' | ||
'''for''' <math> | '''for''' <math>i=1,2,\ldots,n</math> '''do''' | ||
'''for''' <math> | '''for''' <math>u=0,1,\ldots,nV</math> '''do''' | ||
<math> | <math>W_{i,u} = W_{i-1,u}</math> | ||
'''if''' <math> | '''if''' <math>u- v(a_i) \geq 0</math> '''and''' <math>W_{i-1,u- v(a_i) }+ w(a_i) < W_{i,u}</math> '''then''' | ||
<math> | <math>W_{i,u} = W_{i-1,u- v(a_i) }+ w(a_{i})</math> | ||
'''end if''' | '''end if''' | ||
'''end for''' | '''end for''' | ||
Linia 164: | Linia 163: | ||
A ten pozowoli odszukać rozwiązanie optymalne: | A ten pozowoli odszukać rozwiązanie optymalne: | ||
<math> | <math>S=\emptyset</math> | ||
<math> | <math>o=0</math> | ||
'''for''' <math> | '''for''' <math>u=0,1,\ldots,nV</math> '''do''' | ||
'''if''' <math> | '''if''' <math>W_{n,u} \leq B</math> | ||
<math> | <math>o=u</math> | ||
'''end if''' | '''end if''' | ||
'''end for''' | '''end for''' | ||
<math> | <math>i=n</math> | ||
'''while''' <math> | '''while''' <math>o > 0</math> '''do''' | ||
'''if''' <math> | '''if''' <math>W_{i,o} = W_{i-1,o}</math> '''then''' | ||
<math> | <math>i = i-1</math> | ||
'''else''' | '''else''' | ||
<math> | <math>S = S \cup \{i\}</math> | ||
<math> | <math>o = o - v(a_i)</math> | ||
<math> | <math>i = i-1</math> | ||
'''end if''' | '''end if''' | ||
'''end while''' | '''end while''' | ||
'''return''' <math> | '''return''' <math>S</math> | ||
</div></div> | </div></div> | ||
==Asymptotyczny PTAS dla BIN PACKING== | ==Asymptotyczny PTAS dla BIN PACKING== | ||
Linia 193: | Linia 190: | ||
dopuszczalnego błędu. Dla problemuu pakowania nie możemy się | dopuszczalnego błędu. Dla problemuu pakowania nie możemy się | ||
spodziewać równie dobrych wyników. Jest to problem silnie | spodziewać równie dobrych wyników. Jest to problem silnie | ||
<math>\ | <math>\mathrm{NP}</math>-zupełny i o ile <math>\mathrm{P} \neq \mathrm{NP}</math>, to nie może istnieć FPTAS. | ||
Pokazaliśmy również, że nie ma algorytmu osiągającego stałą | Pokazaliśmy również, że nie ma algorytmu osiągającego stałą | ||
aproksymacji mniejszą od <math> | aproksymacji mniejszą od <math>\frac{3}{2}</math>. Dowód opierał się o fakt, że | ||
o ile <math>\ | o ile <math>\mathrm{P} \neq \mathrm{NP}</math>, to nie da się efektywnie sprawdzać, czy da się | ||
przedmioty upakować do dwóch pojemników. | przedmioty upakować do dwóch pojemników. | ||
Instancje, które zabraniały aproksymacji lepszej niż <math> | Instancje, które zabraniały aproksymacji lepszej niż <math>\frac{3}{2}</math> | ||
miały ograniczoną wartość optimum. Skonstruujemy teraz asymptotyczny | miały ograniczoną wartość optimum. Skonstruujemy teraz asymptotyczny | ||
PTAS dla problemu pakowania, który może osiągać dowolnie dobrą | PTAS dla problemu pakowania, który może osiągać dowolnie dobrą | ||
aproksymację ale dla odpowiednio dużych wartości optimum. | aproksymację, ale dla odpowiednio dużych wartości optimum. | ||
Precyzując, podamy rodzinę algorytmów <math> | Precyzując, podamy rodzinę algorytmów <math>\mathcal{A}_\epsilon</math> dla <math>0 < \epsilon \leq \frac{1}{2}</math> działających w czasie wielomianowym od liczby przedmiotów i znajdujących rozwiązanie używające co najwyżej <math>(\mathit{1 + 2\epsilon}) \text{opt} + 1</math> pojemników. | ||
Zanim będziemy mogli przedstawić algorytmy <math> | Zanim będziemy mogli przedstawić algorytmy <math>\mathcal{A}_\epsilon</math> musimy pokazać dwa pomocnicze lematy, które pokazują rozwiązania dla pewnych uproszczonych instancji problemu. | ||
{{lemat|4.1|| | {{lemat|4.1|| | ||
Dla dowolnego <math> | Dla dowolnego <math>\epsilon > 0</math> oraz liczby całkowitej <math>K</math> istnieje algorytm wielomianowy rozwiązujący problem pakowania dla instancji, w których występują przedmioty o co najwyżej <math>K</math> różnych rozmiarach, z których każdy jest nie mniejszy niż <math>\epsilon</math>. | ||
}} | }} | ||
{{dowod||| | {{dowod||| | ||
Liczba przedmiotów w jednym pojemniku jest ograniczona przez <math> | Liczba przedmiotów w jednym pojemniku jest ograniczona przez <math>M=[{\frac{1}{\epsilon}}]</math>. Suma rozmiarów większej liczby przedmiotów musi przekraczać <math>1</math>, gdyż każdy z nich ma rozmiar nie mniejszy niż <math>\epsilon</math>. | ||
Liczba możliwych zawartości jednego pojemnika jest zatem ograniczona przez <math> | Liczba możliwych zawartości jednego pojemnika jest zatem ograniczona przez <math>R=\binom{M+K}{M}</math>. Ograniczenie to uzyskujemy, gdyż jest to liczba <math>M</math>-elementowych multipodzbiorów zbioru <math>K</math>-elementowego. Zauważmy, że liczb <math>R</math> jest stałą zależną tylko od <math>K</math> i <math>\epsilon</math>. | ||
Liczba pojemników w rozwiązaniu jest ograniczona w oczywisty sposób przez <math> | Liczba pojemników w rozwiązaniu jest ograniczona w oczywisty sposób przez <math>n</math>. Zatem liczba możliwych rozwiązań dopuszczalnych jest ograniczona przez <math>P=\binom{n+R}{R}</math>. Tym razem jest to liczba <math>n</math>-elementowych multipodzbiorów zbioru <math>R</math>-elementowego. | ||
Liczba <math> | Liczba <math>P</math> wyraża się wielomianem względem <math>n</math>. Możemy w związku z tym w czasie wielomianowym przejrzeć wszystkie rozwiązania dopuszczalne i wybrać optymalne. | ||
}} | }} | ||
{{uwaga|4.2|| | {{uwaga|4.2|| | ||
Niestety czas tego algorytmu jest wielomianem stopnia <math> | Niestety czas tego algorytmu jest wielomianem stopnia <math>R</math>. Jest to bardzo wysoki stopień i przez to algorytm ten nie może być traktowany jako praktyczne rozwiązanie problemu. | ||
}} | }} | ||
{{lemat|4.3|| | {{lemat|4.3|| | ||
Dla dowolnego <math> | Dla dowolnego <math>\epsilon > 0</math> istnieje wielomianowy algorytm <math>(\mathit{1+\epsilon})</math>-aproksymacyjny dla problemu pakowania dla instancji, w których występują przedmioty o rozmiarach nie mniejszych niż <math>\epsilon</math>. | ||
}} | }} | ||
{{dowod||| | {{dowod||| | ||
{{algorytm|4.4 [Algorytm dzielący na grupy]|al 3.4| | |||
1. Oblicz <math>K=[{\frac{1}{\epsilon^2}}]</math>. | |||
2. Posortuj przedmioty względem rosnącego rozmiaru i podziel posortowany ciąg na <math>K</math> grup tak, aby w każdej grupie było co najwyżej <math>Q=[{n\epsilon^2}]</math> przedmiotów. | |||
3. Zamień rozmiar każdego z przedmiotów na rozmiar największego przedmiotu w tej samej grupie. | |||
4. Użyj algorytmu z poprzedniego lematu działającego na przedmiotach o <math>K</math> różnych rozmiarach nie mniejszych niż <math>\epsilon</math>.}} | |||
Niech <math> | Niech <math>I</math> będzie instancją podaną na wejściu algorytmu. Niech <math>I^*</math> będzie instancją otrzymaną w trzecim kroku algorytmu, a <math>I_*</math> instancją, którą otrzymalibyśmy, zamieniając rozmiar każdego z przedmiotów na rozmiar najmniejszego w tej samej grupie. | ||
Wynikiem działania algorytmu jest rozwiązanie optymalne dla instancji <math> | Wynikiem działania algorytmu jest rozwiązanie optymalne dla instancji <math>I^*</math>. Musimy wykazać, że <math>\text{opt} (I^*) \leq (\mathit{1+\epsilon}) \text{opt} (I)</math>. Łatwo jest uzasadnić oszacowanie <math>\text{opt} (I_*) \leq \text{opt} (I)</math>. | ||
Możemy teraz zauważyć, że każde rozwiązanie instancjii <math> | Możemy teraz zauważyć, że każde rozwiązanie instancjii <math>I_*</math> wyznacza pewne rozwiązanie dla <math>I^*</math>, ponieważ najmniejszy przedmiot z <math>i+1</math> grupy przedmiotów jest większy lub równy największemu przedmiotowi z grupy <math>i</math>. Zatem rozwiązanie instancji <math>I_*</math> pozwala upakować wszystkie przedmioty z instancji <math>I^*</math> oprócz ostatniej grupy. Więc nawet jeżeli każdy z tych przedmiotów zostałby upakowany do osobnego pojemnika, otrzymujemy ograniczenie: | ||
<center> | <center><math>\text{opt} (I^*) \leq \text{opt} (I_*) + Q \leq \text{opt} (I) + Q \leq \text{opt} (I) + [{n\epsilon^2}] \leq (\mathit{1+\epsilon}) \text{opt} (I)\text{.} | ||
</math></center> | </math></center> | ||
Ostatnia nierówność wynika z tego, że <math> | Ostatnia nierówność wynika z tego, że <math>n\epsilon \leq \text{opt} (I)</math>. Pokazaliśmy zatem, że algorytm jest <math>(\mathit{1+\epsilon})</math>-aproksymacyjny. | ||
}} | }} | ||
Mając w ręku te dwa pomocnicze lematy możemy już pokazać algorytm <math>\ | Mając w ręku te dwa pomocnicze lematy, możemy już pokazać algorytm <math>\mathcal{A}_\epsilon</math>. | ||
{{algorytm|4.5 [Algorytm <math>\mathcal{A}_\epsilon</math>]|al 3.5| | |||
1. Stwórz instancję <math>I_{\geq\epsilon}</math>, usuwając wszystkie przedmioty o rozmiarze mniejszym od <math>\epsilon</math> z <math>I</math>. | |||
2. Oblicz instancję <math>I_{\geq\epsilon}^*</math> i znajdź dla niej optymalne upakowanie, korzystając z algorytmu przeglądającego wszystkie rozwiązania dopuszczalne. | |||
3. Dopakuj przedmioty o rozmiarze mniejszym od <math>\epsilon</math> za pomocą algorytmu First-Fit, otrzymując rozwiązanie dla instancji wejściowej <math>I</math>.}} | |||
{{twierdzenie|4.6|| | {{twierdzenie|4.6|| | ||
Dla dowolnego <math> | Dla dowolnego <math>0 < \epsilon \leq \frac{1}{2}</math> algorytm <math>\mathcal{A}_\epsilon</math> znajduje upakowanie przedmiotów instancji <math>I</math> w co najwyżej <math>(\mathit{1 + 2\epsilon}) \text{opt} (I) + 1</math> pojemnikach. | ||
}} | }} | ||
{{dowod||| | {{dowod||| | ||
Jeżeli w ostatnim kroku algorytmu nie zostały utworzone żadne nowe pojemniki, to rozwiązanie znalezione dla <math> | Jeżeli w ostatnim kroku algorytmu nie zostały utworzone żadne nowe pojemniki, to rozwiązanie znalezione dla <math>I_{\geq\epsilon}</math> używa <math>(\mathit{1+\epsilon}) \text{opt} (I_{\geq\epsilon})</math> pojemników, a więc spełnia warunki twierdzenia. | ||
Jeżeli natomiast zostały utworzone nowe pojemniki, to zauważmy, że tylko w jednym ze wszystkich pojemników mogą znajdować się przedmioty o sumarycznym rozmiarze mniejszym niż <math> | Jeżeli natomiast zostały utworzone nowe pojemniki, to zauważmy, że tylko w jednym ze wszystkich pojemników mogą znajdować się przedmioty o sumarycznym rozmiarze mniejszym niż <math>1 - \epsilon</math>. Zatem jeżeli oznaczymy przez <math>M</math> liczbę wszystkich użytych pojemników, to sumarczyny rozmiar wszystkich przedmiotów (a więc i optimum) możemy ograniczyć z dołu przez <math>(\mathit{M-1})(\mathit{1-\epsilon})</math>. W związku z tym możemy napisać: | ||
<center><math> | <center><math>M \leq \frac{ \text{opt} (I) }{1-\epsilon} + 1 \leq (\mathit{1 + 2\epsilon}) \text{opt} (I) + 1\text{.} | ||
</math></center> | </math></center> | ||
Druga nierówność wynika z prostego przekształcenia arytmetycznego przy <math> | Druga nierówność wynika z prostego przekształcenia arytmetycznego przy <math>0 < \epsilon \leq \frac{1}{2}</math>. | ||
}} | }} | ||
Linia 286: | Linia 277: | ||
Aproksymacja dla problemu PARTITION. | Aproksymacja dla problemu PARTITION. | ||
Optymalizacyjna wersja problemu PARTITION powstaje, kiedy chcemy wybrać podzbiór <math> | Optymalizacyjna wersja problemu PARTITION powstaje, kiedy chcemy wybrać podzbiór <math>A' \subseteq A</math> taki, że minimalizuje wartość <math>|\mathit{\sum_{a \in A'}| s(a) - \sum_{a \in A \setminus A'} s(a) }|</math>. | ||
Uzasadnij, że dla tego problemu nie ma algorytmu PTAS. | Uzasadnij, że dla tego problemu nie ma algorytmu PTAS. | ||
Inna wersja optymalizacyjna problemu PARTITION powstaje, kiedy mierzymy odległość od równomiernego podziału przez iloraz zamiast przez różnicę. Chcemy wtedy wybrać podzbiór <math> | Inna wersja optymalizacyjna problemu PARTITION powstaje, kiedy mierzymy odległość od równomiernego podziału przez iloraz zamiast przez różnicę. Chcemy wtedy wybrać podzbiór <math>A' \subseteq A</math> taki, że iloraz: | ||
<center><math> | <center><math>\frac{\sum_{a \in A'} s(a) }{\sum_{a \in A \setminus A'} s(a) } \geq 1\text{,} | ||
</math></center> | </math></center> | ||
Linia 298: | Linia 289: | ||
Pokaż algorytm FPTAS dla tej wersji problemu PARTITION. | Pokaż algorytm FPTAS dla tej wersji problemu PARTITION. | ||
}} | |||
<div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Wskazówka </span><div class="mw-collapsible-content" style="display:none"> | <div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Wskazówka </span><div class="mw-collapsible-content" style="display:none"> | ||
Zauważ, że optimum dla pierwszego problemu wynosi <math> | Zauważ, że optimum dla pierwszego problemu wynosi <math>0</math> wtedy i tylko wtedy, gdy elementy wejściowe są pozytywnym przykładem dla zwykłego problemu PARTITION. | ||
Konstrukcję FPTAS dla drugiego problemu rozpocznij od przypomnienia sobie algorytmu pseudowielomianowego. | Konstrukcję FPTAS dla drugiego problemu rozpocznij od przypomnienia sobie algorytmu pseudowielomianowego. | ||
Linia 306: | Linia 297: | ||
<div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Rozwiązanie </span><div class="mw-collapsible-content" style="display:none"> | <div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Rozwiązanie </span><div class="mw-collapsible-content" style="display:none"> | ||
Pokażemy, że dla pierwszego problemu nie istnieje żaden algorytm <math> | Pokażemy, że dla pierwszego problemu nie istnieje żaden algorytm <math>a</math>-aproksymacyjny. To w oczywisty sposób pociąga za sobą brak algorytmu PTAS. | ||
Ponieważ optimum dla pierwszego problemu wynosi <math> | Ponieważ optimum dla pierwszego problemu wynosi <math>0</math> tylko dla takiego zbioru <math>A</math>, który da się podzielić na dwie równe części, więc dowolny algorytm <math>a</math>-aproksymacyjny musiałby znajdować rozwiązanie nie większe niż <math>a\cdot 0 = 0</math> i tym samym rozstrzygać problem PARTITION. | ||
Żeby skonstruować FPTAS dla drugiego problemu załóżmy, że <math> | Żeby skonstruować FPTAS dla drugiego problemu, załóżmy, że <math>A=\{a_1,a_2,\ldots,a_n\}</math> i przypomnijmy, że znamy algorytm pseudowielomianowy dla tego problemu. | ||
Algorytm FPTAS dla tego problemu powstaje poprzez zaokrąglenie liczb podanych na wejściu i wykonanie pseudowielomianowego algorytmu dokładnego. | Algorytm FPTAS dla tego problemu powstaje poprzez zaokrąglenie liczb podanych na wejściu i wykonanie pseudowielomianowego algorytmu dokładnego. | ||
Przyjmując <math> | Przyjmując <math>T=\sum_{i=1}^n s(a_i)</math> i <math>K=\frac{\epsilon T}{4n}</math> i znajdując rozwiązanie dokładne przy <math>s'(a) = \frac{ s(a) }{K}</math>, możemy przeprowadzić analizę podobną do tej wykorzystanej w problemie KNAPSACK. Są jednak subtelne różnice. | ||
Może się zdarzyć, że podzbiór <math> | Może się zdarzyć, że podzbiór <math>A'</math> znaleziony przy wagach <math>s'</math> nie jest rozwiązaniem dopuszczalnym przy wagach <math>s</math>, gdyż <math>\frac{\sum_{a \in A'} s'(a) }{\sum_{a \in A\setminus A'} s'(a) } \geq 1</math> nie pociąga za sobą takiej samej nierówności przy wagach <math>s</math>. Z problemem tym możemy sobie na szczęście łatwo poradzić, zamieniając znaleziony zbiór <math>A'</math> na <math>A\setminus A'</math>. Dalszą analizę przeprowadzimy tylko w przypadku, kiedy nie jest potrzebna taka zamiana, gdyż drugi przypadek jest analogiczny. | ||
Możemy zatem zapisać następujący ciąg nierówności, gdzie <math> | Możemy zatem zapisać następujący ciąg nierówności, gdzie <math>O</math> jest rozwiązaniem optymalnym: | ||
<center><math> | <center><math>\frac{T}{2} \leq \sum_{a \in A'} s(a) \leq \sum_{a \in A'} [{\frac{ s(a) +K}{K}}]K \leq \sum_{a \in O} [{\frac{ s(a) }{K}}]K + Kn \leq \text{opt} + 2Kn \leq \text{opt} + \epsilon\frac{T}{2} \leq (\mathit{1+\epsilon}) \text{opt}\text{.}</math></center> | ||
Przy przekształceniach korzystamy z własności zaokrągleń, a ostatnia nierówność wynika z tego, że | Przy przekształceniach korzystamy z własności zaokrągleń, a ostatnia nierówność wynika z tego, że <math>\text{opt} \geq \frac{T}{2}</math>. | ||
</div></div> | </div></div> | ||
{{cwiczenie|4.8|| | {{cwiczenie|4.8|| | ||
Linia 334: | Linia 325: | ||
{{problem||| | {{problem||| | ||
Pokrywanie | Pokrywanie BIN COVERING. | ||
Mając dany zbiór <math> | Mając dany zbiór <math>n</math> przedmiotów o wagach wymiernych <math>w_1,w_2,\ldots,w_n\in(0,1]</math>, należy znaleźć przyporządkowanie ich do jak największej liczby pojemników. Suma wag przedmiotów w jednym pojemniku musi przekraczać <math>1</math>, a część przedmiotów może być w ogóle niewykorzystana. | ||
}} | }} | ||
Można się domyślać, | Można się domyślać, że problem ten ma charakterystykę podobną do BIN PACKING. | ||
Pokaż, że o ile <math>\ | Pokaż, że o ile <math>\mathrm{P} \neq \mathrm{NP}</math>, to nie ma dla niego algorytmu <math>a</math>-aproksymacyjnego dla <math>a>\frac{1}{2}</math>. Skonstruuj asymptotyczny PTAS przy dodatkowym założeniu, że rozmiary wszystkich przedmiotów są większe niż pewna stała <math>c>0</math> (istnieje również asymptotyczny PTAS bez tego dodatkowego założenia, ale jego analiza jest znacznie trudniejsza). | ||
<div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Wskazówka </span><div class="mw-collapsible-content" style="display:none"> | <div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Wskazówka </span><div class="mw-collapsible-content" style="display:none"> | ||
Wykorzystaj te same techniki co w problemie BIN PACKING. Użyj redukcji problemu PARTITION do pokazania, że nie istnieje algorytm <math> | Wykorzystaj te same techniki co w problemie BIN PACKING. Użyj redukcji problemu PARTITION do pokazania, że nie istnieje algorytm <math>a</math>-aproksymacyjny. Skonstruuj rodzinę algorytmów <math>\mathcal{A}_\epsilon</math> pokrywających conajmniej <math>(\mathit{1 - \epsilon}) \text{opt}</math> pojemników przy pomocy grupowania, zaokrąglania i przeglądania wyczerpującego. Dzięki stałej <math>c</math> nie musisz się przejmować przedmiotami o wadze mniejszej niż <math>\epsilon</math>. | ||
</div></div> | </div></div> | ||
<div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Rozwiązanie </span><div class="mw-collapsible-content" style="display:none"> | <div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Rozwiązanie </span><div class="mw-collapsible-content" style="display:none"> | ||
Aby pokazać pierwszą część wystarczy zauważyć, że jeżeli mamy instancję problemu PARTITION z elementami <math> | Aby pokazać pierwszą część, wystarczy zauważyć, że jeżeli mamy instancję problemu PARTITION z elementami <math>a_1,a_2,\ldots,a_n</math> i sumą wag <math>S=\sum_{i=1}^{n} s(a_i)</math>, to przy użyciu przedmiotów o wagach <math>\frac{ s(a_1) }{S},\frac{ s(a_2) }{S},\ldots,\frac{ s(a_n) }{S}</math> można pokryć <math>2</math> pojemniki tylko wtedy, kiedy da się elementy <math>A</math> rozbić na dwa podzbiory o tej samej wadze sumarycznej. Zatem algorytm <math>a</math>-aproksymacyjny dla <math>a> \frac{1}{2}</math> pozwoliłby rozstrzygać o problemie PARTITION. | ||
Konstrukcja asymptotycznego PTAS przebiega dokładnie tak samo jak dla prolemu BIN PACKING. | Konstrukcja asymptotycznego PTAS przebiega dokładnie tak samo jak dla prolemu BIN PACKING. | ||
Istnieje algorytm, który dla instancji z co najwyżej <math> | Istnieje algorytm, który dla instancji z co najwyżej <math>K</math> różnymi wagami większymi niż <math>\epsilon</math> w czasie wielomianowym podaje rozwiązanie optymalne. Tak jak poprzednio można wtedy rozważyć wszystkie przypadki, których jest wielomianowo wiele. | ||
Dla zadanego <math> | Dla zadanego <math>\epsilon</math> i ograniczeniu instancji do zawierających przedmioty większe niż <math>\epsilon</math> możemy przeprowadzić taki sam podział przedmiotów na <math>K=[{\frac{1}{\epsilon^2}}]</math> grup tak, aby w każdej grupie było co najwyżej <math>Q=[{n\epsilon^2}]</math> przedmiotów, a następnie zastosować algorytm dokładny dla zaokrągleń do najmniejszego przedmiotu w grupie. | ||
Powtórzenie tej samej analizy pokazuje, że jest to algorytm <math>\ | Powtórzenie tej samej analizy pokazuje, że jest to algorytm <math>(\mathit{1-\epsilon})</math>-aproksymacyjny. | ||
Dodatkowe założenie o tym, że <math> | Dodatkowe założenie o tym, że <math>w_i > c</math>, pozwala dla <math>\epsilon < c</math>,nie rozważać przedmiotów o wagach mniejszych od <math>\epsilon</math>. Jeżeli natomiast <math>\epsilon > c</math>, możemy użyć algorytmu <math>\mathcal{A}_c</math>. | ||
</div></div> | </div></div> | ||
==L-redukcje== | ==L-redukcje== | ||
Wprowadzimy teraz pojęcie redukcji zachowującej aproksymację. Pozwoli nam to na bardziej systematyczne niż do tej pory zbadanie klasy problemów, dla których możliwa jest aproksymacja. W dalszej części będziemy poszukiwać klasy problemów aproksymowalnych i problemów w tej klasie zupełnych względem podanej redukcji. Definicja interesującej nas redukcji jest podobna do tej jaką wprowadziliśmy pomiędzy problemami funkcyjnymi. | Wprowadzimy teraz pojęcie redukcji zachowującej aproksymację. Pozwoli nam to na bardziej systematyczne niż do tej pory zbadanie klasy problemów, dla których możliwa jest aproksymacja. W dalszej części będziemy poszukiwać klasy problemów aproksymowalnych i problemów w tej klasie zupełnych względem podanej redukcji. Definicja interesującej nas redukcji jest podobna do tej, jaką wprowadziliśmy pomiędzy problemami funkcyjnymi. | ||
{{definicja|5.1|| | {{definicja|5.1|| | ||
Dla dwóch problemów optymalizacyjnych <math> | Dla dwóch problemów optymalizacyjnych <math>A</math> i <math>B</math>, parę funkcji <math>R: D_A \rightarrow D_B</math> i <math>S: S_B \rightarrow S_A</math> obliczalnych w pamięci logarytmicznej nazywamy L-redukcją, jeżeli istnieją dwie stałe dodatnie <math>\alpha</math> i <math>\beta</math> takie, że spełnione są następujące własności: | ||
* Dla dowolnej instancji <math> | * Dla dowolnej instancji <math>x</math> problemu <math>A</math> zachodzi: | ||
<center> | <center><math>\text{opt} _B( R(x) ) \leq \alpha \cdot \text{opt} _A(x)\text{.} | ||
</math></center> | </math></center> | ||
* Dla dowolnego rozwiązania dopuszczalnego <math> | * Dla dowolnego rozwiązania dopuszczalnego <math>s</math> instancji <math>R(x)</math> zachodzi: | ||
<center><math>\ | <center><math>|\mathit{ \text{opt} _A(x) - \text{obj}_A(x, S(s) ) }| \leq \beta |\mathit{ \text{opt} _B( R(x) ) - \text{obj}_B( R(x) ,s) }|\text{.} | ||
</math></center> | </math></center> | ||
}} | }} | ||
Intuicyjnie, funkcja <math> | Intuicyjnie, funkcja <math>R</math> L-redukcji (redukcji liniowej) zamienia instancję problemu <math>A</math> na instancję problemu <math>B</math>, nie zmieniając wartości rozwiązania optymalnego bardziej niż o stałą <math>\alpha</math>. Funkcja <math>S</math> pozwala natomiast przeprowadzić dowolne z rozwiązań z powrotem na rozwiązanie instancji <math>A</math>, nie zmieniając odległości od optimum bardziej niż o stałą <math>\beta</math>. | ||
{{uwaga|5.2|| | {{uwaga|5.2|| | ||
Warto zauważyć, że definicja L-redukcji nie zależy od tego, czy problemy <math> | Warto zauważyć, że definicja L-redukcji nie zależy od tego, czy problemy <math>A</math> i <math>B</math> są problami minimalizacyjnymi, czy maksymalizacyjnymi. | ||
}} | }} | ||
Przyjrzyjmy się teraz jeszcze raz redukcji problemu zbioru niezależnego do pokrycia wierzchołkowego. Jest ona oparta o fakt, że problemy te są do siebie dualne. Dopełnienie dowolnego zbioru niezależnego jest pokryciem wierzchołkowym i na odwrót. | Przyjrzyjmy się teraz jeszcze raz redukcji problemu zbioru niezależnego do pokrycia wierzchołkowego. Jest ona oparta o fakt, że problemy te są do siebie dualne. Dopełnienie dowolnego zbioru niezależnego jest pokryciem wierzchołkowym i na odwrót. | ||
Definicje odpowiednich funkcji są w związku z tym bardzo proste. <math> | Definicje odpowiednich funkcji są w związku z tym bardzo proste. <math>R</math> to po prostu funkcja identycznościowa na grafach, a <math>S</math> zwraca dopełnienie zbioru wierzchołków. Okazuje się, że nie jest to jednak L-redukcja, gdyż stosunku rozmiarów rozwiązań obu problemów nie da się w żaden sposób ograniczyć przez stałe. | ||
Takie ograniczenie można uzyskać zawężając klasę grafów. Jeżeli ograniczymy maksymalny stopień wierzchołków występujących w grafie przez liczbę <math> | Takie ograniczenie można uzyskać, zawężając klasę grafów. Jeżeli ograniczymy maksymalny stopień wierzchołków występujących w grafie przez liczbę <math>k</math>, to otrzymamy problemy <math>k</math>-INDPENDENT SET i <math>k</math>-VERTEX COVER. Przypomnijmy, że z redukcji problemu <math>3</math>SAT wynika, że już problem <math>4</math>-INDEPENDENT SET jest <math>\mathrm{NP}</math>-zupełny. | ||
Pokażemy, że funkcje <math> | Pokażemy, że funkcje <math>R</math> i <math>S</math> tworzą L-redukcję problemu <math>k</math>-INDEPENDENT SET do <math>k</math>-NODE COVER. | ||
Zauważmy, że dla grafu <math> | Zauważmy, że dla grafu <math>G=(\mathit{V,E})</math> ze stopniem wierzchołków ograniczonym przez <math>k</math> rozmiar maksymalnego zbioru niezależnego to co najmniej <math>\frac{|\mathit{V}|}{k+1}</math>. Dla każdego zbioru niezależnego o mniejszym rozmiarze, zbiór jego wszystkich sąsiadów jest co najwyżej <math>k</math> razy większy i nie obejmuje w związku z tym całego grafu. Można zatem taki zbiór niezależny poszerzyć. | ||
Tymczasem minimalne pokrycie wierzchołkowe ma w oczywisty sposób co najwyżej <math>\ | Tymczasem minimalne pokrycie wierzchołkowe ma w oczywisty sposób co najwyżej <math>|\mathit{V}|</math> elementów. W związku z tym możemy ustalić wartość parametru <math>\alpha</math> na <math>k+1</math>. | ||
Wystarczy teraz zauważyć, że odległość rozwiązania znalezionego od optymalnego nie zmienia się przy przejściu przez funkcję <math> | Wystarczy teraz zauważyć, że odległość rozwiązania znalezionego od optymalnego nie zmienia się przy przejściu przez funkcję <math>S</math>. W związku z tym możemy ustalić wartość parametru <math>\beta</math> na <math>1</math>. | ||
Ta krótka analiza pozwala stwierdzić, że para <math>\ | Ta krótka analiza pozwala stwierdzić, że para <math>(\mathit{R,S})</math> jest L-redukcją problemu <math>k</math>-INDEPENDENT SET do <math>k</math>-NODE COVER. | ||
Można też skonstruować odwrotną L-redukcję problemu <math> | Można też skonstruować odwrotną L-redukcję problemu <math>k</math>-NODE COVER do <math>k</math>-INDEPENDENT SET. Oczywiście należy użyć tych samych funkcji <math>R</math> i <math>S</math>, ale żeby uzyskać liniową zależność rozmiaru maksymalnego zbioru niezależnego od minimlanego pokrycia wierzchołkowego trzeba się trochę postarać. Zauważmy, że dla antykliki rozmiar minimalnego pokrycia wierzchołkowego wynosi <math>0</math>, a maksymalny zbiór niezależny ma rozmiar równy ilości wierzchołków. Wynika stąd, że punkty izolowane mogą sprawiać problem dla L-redukcji. | ||
W nowej redukcji funkcja <math> | W nowej redukcji funkcja <math>R</math> będzie usuwać wierzchołki izolowane z grafu (które i tak nie należą do minimalnego pokrycia wierzchołkowego). Funkcja <math>S</math> nadal będzie zamieniać zbiór wierzchołków na jego uzupełnienie (ale tylko w obrębie wierzchołków nieizolowanych). Rozmiar minimalnego pokrycia wierzchołkowego w grafie bez wierzchołków izolowanych wynosi co najmniej <math>\frac{|\mathit{V}|}{k}</math> ponieważ jest co najmniej <math>|\mathit{V}|</math> krawędzi, a każdy wierzchołek pokrywa co najwyżej <math>k</math> z nich. To oszacowanie pozwala nam stwierdzić, że nowa redukcja jest L-redukcją z parametrami <math>k</math> i <math>1</math>. | ||
{{cwiczenie|5.3|| | {{cwiczenie|5.3|| | ||
Złożenie L-redukcji. | Złożenie L-redukcji. | ||
Pokaż, że jeżeli para <math>\ | Pokaż, że jeżeli para <math>(\mathit{R_1,S_1})</math> jest L-redukcją problemu <math>\Pi_1</math> do <math>\Pi_2</math>, a para <math>(\mathit{R_2,S_2})</math> L-reduckją <math>\Pi_2</math> do <math>\Pi_3</math>, to <math>(\mathit{R_1 \circ R_2, S_2 \circ S_1})</math> jest L-redukcją <math>\Pi_1</math> do <math>\Pi_3</math>. | ||
}} | |||
<div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Wskazówka </span><div class="mw-collapsible-content" style="display:none"> | <div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Wskazówka </span><div class="mw-collapsible-content" style="display:none"> | ||
Współczynniki nowej redukcji są iloczynami współczynników redukcji <math>\ | Współczynniki nowej redukcji są iloczynami współczynników redukcji <math>(\mathit{R_1,S_1})</math> i <math>(\mathit{R_2,S_2})</math>. | ||
</div></div> | </div></div> | ||
<div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Rozwiązanie </span><div class="mw-collapsible-content" style="display:none"> | <div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Rozwiązanie </span><div class="mw-collapsible-content" style="display:none"> | ||
Niech <math> | Niech <math>\alpha_1</math> i <math>\beta_1</math> będą współczynnikami pierwszej redukcji, a <math>\alpha_2</math> i <math>\beta_2</math> drugiej. Zatem dla dowolnej instancji <math>x</math> problemu <math>\Pi_1</math> zachodzi: | ||
<center><math>\ | <center><math>\text{opt}_{\Pi_3}( R_2( R_1(x) ) ) \leq \alpha_2 \text{opt}_{\Pi_2}( R_1(x) ) \leq \alpha_1 \alpha_2 \text{opt}_{\Pi_1}(x)\text{,} | ||
</math></center> | </math></center> | ||
Dla dowolnego rozwiązania dopuszczalnego <math> | Dla dowolnego rozwiązania dopuszczalnego <math>s</math>, dla <math>R_2( R_1(x) )</math> zachodzi: | ||
<center><math>\ | <center><math>|\mathit{ \text{opt}_{\Pi_1}(x) - \text{obj}_{\Pi_1}(x, S_1( S_2(s) ) ) }| \leq | ||
\beta_1 \ | \beta_1 |\mathit{ \text{opt}_{\Pi_2}( R_1(x) ) - \text{obj}_{\Pi_2}( R_1(x) , S_2(s) ) }| \leq | ||
\beta_1 \beta_2 \ | \beta_1 \beta_2 |\mathit{ \text{opt}_{\Pi_3}( R_2( R_1(x) ) ) - \text{obj}_{\Pi_3}( R_2( R_1(x) ) ,s) }|\text{.} | ||
</math></center> | </math></center> | ||
Zatem skonstruowana redukcja jest L-redukcją z parametrami <math> | Zatem skonstruowana redukcja jest L-redukcją z parametrami <math>\alpha_1 \alpha_2</math> i <math>\beta_1 \beta_2</math>. | ||
</div></div> | </div></div> | ||
{{cwiczenie|5.4|| | {{cwiczenie|5.4|| | ||
Przenoszenie aproksymacji przez L-redukcje. | Przenoszenie aproksymacji przez L-redukcje. | ||
Pokaż, że jeżeli problem minimalizacyjny <math> | Pokaż, że jeżeli problem minimalizacyjny <math>A</math> L-redukuje się do problemu <math>B</math> i dla problemu <math>B</math> istnieje algorytm <math>b</math>-aproksymacyjny, to istnieje stała <math>a</math> taka, że dla problemu <math>A</math> istnieje algorytm <math>a</math>-aproksymacyjny. | ||
Pokaż, że dla dowolnych problemów optymalizacyjnych <math>A</math> i <math>B</math>, że jeżeli <math>A</math> L-redukuje się do <math>B</math> i istnieje wielomianowy schemat aproksymacji dla problemu <math>B</math>, to istnieje też taki schemat dla problemu <math>A</math>. | |||
}} | |||
<div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Wskazówka </span><div class="mw-collapsible-content" style="display:none"> | <div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Wskazówka </span><div class="mw-collapsible-content" style="display:none"> | ||
Przeprowadź instancję problemu <math> | Przeprowadź instancję problemu <math>A</math> na instnację <math>B</math>, użyj algorytmu aproksymacyjnego i przeprowadź znalezione rozwiązanie z powrotem na wynik problemu <math>A</math>. Użyj ograniczeń <math>\alpha</math> i <math>\beta</math> do przeniesienia gwarancji aproksymacji. | ||
</div></div> | </div></div> | ||
<div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Rozwiązanie </span><div class="mw-collapsible-content" style="display:none"> | <div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Rozwiązanie </span><div class="mw-collapsible-content" style="display:none"> | ||
Niech <math>\ | Niech <math>(\mathit{R,S})</math> będzie L-redukcją problemu <math>A</math> do <math>B</math> ze stałymi <math>\alpha</math> i <math>\beta</math>. | ||
Niech <math> | Niech <math>\mathcal{B}</math> będzie <math>b</math>-aproksymacyjnym algorytmem dla problemu <math>B</math>. Skonstruujemy teraz algorytm <math>\mathcal{A}</math> dla problemu <math>A</math>, którego działanie dla dowolnej instancji <math>x</math> można opisać poprzez równanie: | ||
<center><math> | <center><math>\mathcal{A}(x) = S( \mathcal{B}( R(x) ) )\text{.} | ||
</math></center> | </math></center> | ||
Załóżmy, że <math> | Załóżmy, że <math>B</math> jest problemem maksymalizacyjnym. | ||
Fakt, że <math> | Fakt, że <math>\mathcal{B}</math> jest algorytmem <math>b</math>-aproksymacyjnym i własności L-redukcji gwarantują nam wtedy następujące nierówności: | ||
<center><math>\ | <center><math>\begin{align} \text{opt}_B( R(x) ) &\leq \alpha \text{opt}_A(x) \\ | ||
\ | \text{obj}_B( R(x) , \mathcal{B}( R(x) ) ) &\geq b \cdot \text{opt}_B( R(x) ) \\ | ||
\ | \text{obj}_A(x, \mathcal{A}(x) ) - \text{opt}_A(x) &\leq \beta(\mathit{ \text{opt}_B( R(x) ) - \text{obj}_B( R(x) , \mathcal{B}( R(x) ) ) }) \text{, } | ||
\ | \end{align}</math></center> | ||
co po prostym przekształceniu daje: | co po prostym przekształceniu daje: | ||
<center><math>\ | <center><math>\text{obj}_A(x, \mathcal{A}(x) ) \leq (\mathit{1 + \alpha\beta(\mathit{1-b})}) \text{opt} _A(x) | ||
</math></center> | </math></center> | ||
i pozwala stwierdzić, że <math> | i pozwala stwierdzić, że <math>\mathcal{A}</math> jest algorytmem <math>(\mathit{1+\alpha\beta(\mathit{1-b})})</math>-aproksymacyjnym. | ||
Jeżeli <math> | Jeżeli <math>B</math> jest problemem minimalizacyjnym to analogiczna analiza dowodzi, że <math>\mathcal{A}</math> jest algorytmem <math>a</math>-aproksymacyjnym dla <math>a=1+\alpha\beta(\mathit{b-1})</math>. | ||
Przeprowadzenie analogicznego rozumowania przy założeniu, że <math> | Przeprowadzenie analogicznego rozumowania przy założeniu, że <math>A</math> jest problemem maksymalizacyjnym prowadzi do następujących nierówności: | ||
<center><math>\ | <center><math>\text{obj}_A(x, \mathcal{A}(x) ) \geq (\mathit{1 - \alpha\beta(\mathit{1-b})}) \text{opt} _A(x)\text{,} | ||
</math></center> | </math></center> | ||
dla <math> | dla <math>B</math> maksymalizacyjnego i | ||
<center><math>\ | <center><math>\text{obj}_A(x, \mathcal{A}(x) ) \geq (\mathit{1 - \alpha\beta(\mathit{b-1})}) \text{opt} _A(x)\text{,} | ||
</math></center> | </math></center> | ||
dla <math> | dla <math>B</math> minimalizacyjnego. | ||
Te wyniki nie pozwalają przenieść gwarancji aproksymacji, gdyż otrzymane współczynniki mogą być ujemne, ale wszystkie cztery ograniczenia mają | Te wyniki nie pozwalają przenieść gwarancji aproksymacji, gdyż otrzymane współczynniki mogą być ujemne, ale wszystkie cztery ograniczenia mają tę własność, że zmierzają do <math>1</math> przy <math>b</math> zmierzającym do <math>1</math>. To pozwala przenieść PTAS dla problemu <math>B</math> na PTAS dla problemu <math>A</math>. | ||
</div></div> | </div></div> | ||
{{cwiczenie|5.5|| | {{cwiczenie|5.5|| | ||
Różnica optimum dla NODE COVER i INDEPENDENT SET. | Różnica optimum dla NODE COVER i INDEPENDENT SET. | ||
Pokaż, że dla dowolnej liczby wymiernej <math> | Pokaż, że dla dowolnej liczby wymiernej <math>q > 0</math> można skonstruować graf, dla którego iloraz rozmiaru maksymalnego zbioru niezależnego do minimalnego pokrycia wierzchołkowego wynosi <math>q</math>. | ||
}} | |||
<div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Rozwiązanie </span><div class="mw-collapsible-content" style="display:none"> | |||
[[File:ZO-8-1.mp4|253x253px|thumb|center]] | |||
Przykładem grafu spełniającego warunki zadania dla liczby <math>q=\frac{k}{l}</math> jest graf składający się z <math>k-1</math> elementowej antykliki i <math>l+1</math> elementowej kliki. Rozmiar minimalnego pokrycia wierzchołkowego dla tego grafu to <math>l</math>, a największy zbiór niezależny ma <math>k</math> wierzchołków. | |||
Przykładem grafu spełniającego warunki zadania dla liczby <math> | |||
</div></div> | </div></div> | ||
==Klasa <math>\mathrm{MAXSNP}</math>== | |||
==Klasa <math>\ | |||
Wprowadzimy teraz formalną definicję klasy <math>\ | Wprowadzimy teraz formalną definicję klasy <math>\mathrm{MAXSNP}</math>, która pozwoli nam bardziej metodycznie zbadać problemy optymalizacyjne. Dalsze badania nad tą klasą doprowadzą nas do bardzo ciekawych rezultatów dotyczących możliwości aproksymacji. | ||
Zaczniemy od zdefiniowania klasy <math>\ | Zaczniemy od zdefiniowania klasy <math>\mathrm{MAXSNP}_0</math>, która opisuje problemy maksymalizacyjne. Jej charakteryzacja jest analogiczna do charakteryzacji klasy <math>\mathrm{NP}</math> podanej w twierdzeniu Fagina. | ||
{{definicja|6.1|| | {{definicja|6.1|| | ||
Problem <math> | Problem <math>A</math> należy do klasy <math>\mathrm{MAXSNP}_0</math>, jeżeli można go wyrazić za pomocą formuły: | ||
<center><math> | <center><math>\max_{S}{\{(\mathit{x_1,x_2,\ldots,x_k}) \in V^k} : { \phi(G_1,G_2,\ldots,G_m,S,x_1,x_2,\ldots,x_k) }\}\text{.} | ||
</math></center> | </math></center> | ||
Wejściem dla problemu <math> | Wejściem dla problemu <math>A</math> jest ciąg relacji (być może wieloargumentowych) <math>G_i,i=1,2,\ldots,m</math> nad skończonym uniwersum <math>V</math>. Poszukiwana jest natomiast relacja <math>S</math>, która maksymalizowałaby liczbę naborów zmiennych <math>x_i</math> takich, że formuła pierwszego rzędu bez kwantyfikatorów <math>\phi</math> jest spełniona. | ||
}} | }} | ||
{{definicja|6.2|| | {{definicja|6.2|| | ||
Klasa <math>\ | Klasa <math>\mathrm{MAXSNP}</math> jest domknięciem <math>\mathrm{MAXSNP}_0</math> ze względu na L-redukcje. | ||
}} | }} | ||
Zobaczmy teraz przykład problemu, który należy do <math>\mathrm{MAXSNP}_0</math>. Wybierzemy problem <math>k</math>-INDEPENDENT SET. Zwykła reprezentacja grafu poprzez relację binarną nie pozwala wygodnie przedstawić ograniczenia stopnia wierzchołka i raczej nie prowadzi do reprezentacji poprzez odpowiednią formułę. Dlatego użyjemy niestandardowej reprezentacji grafu poprzez <math>k+1</math>-argumentową relację <math>H</math>. Każdemu wierzchołkowi <math>G</math> odpowiada jedna krotka relacji <math>H</math> - <math>(\mathit{x,y_1,y_2,\ldots,y_k})</math>, która koduje sąsiedztwo wierzchołka <math>x</math>. Wierzchołki <math>y_1,y_2,\ldots,y_k</math> to sąsiedzi <math>x</math>. Jeżeli <math>x</math> nie ma <math>k</math> sąsiadów, to na brakujących pozycjach występuje <math>x</math>. Problem <math>k</math>-zbioru niezależnego koduje się wtedy w następujący sposób: | |||
<center><math>\begin{align} \max_{S\subseteq V}\{(\mathit{x,y_1,y_2,\ldots,y_k}) \in V^k : (\mathit{x,y_1,y_2,\ldots,y_k}) \in H \wedge x \in S \wedge \\ | |||
\wedge \left[x = y_1 \vee y_1 \notin S\right] \wedge \left[ x = y_2 \vee y_2 \notin S\right] \wedge \ldots \wedge \left[ x = y_k \vee y_k \notin S\right]\} | \wedge \left[x = y_1 \vee y_1 \notin S\right] \wedge \left[ x = y_2 \vee y_2 \notin S\right] \wedge \ldots \wedge \left[ x = y_k \vee y_k \notin S\right]\} | ||
\ | \end{align}\text{.}</math></center> | ||
Wybór relacji <math> | Wybór relacji <math>S</math> koduje pewien podzbiór wierzchołków. Formuła kodująca problem jest spełniona dla krotek odpowiadających tym wierzchołkom <math>x</math>, które należą do wybranego zbioru, a żaden z sąsiadów nie należy. Odpowiada to więc zbiorowi niezależnemu. | ||
Pokazaliśmy zatem, że problem <math> | Pokazaliśmy zatem, że problem <math>k</math>-INDEPENDENT SET należy do klasy <math>\mathrm{MAXSNP}_0</math>. | ||
Natychmiastowym wnioskiem jest, że problem <math> | Natychmiastowym wnioskiem jest, że problem <math>k</math>-NODE COVER jest problemem z <math>\mathrm{MAXSNP}</math>. Znamy przecież jego L-redukcję do <math>k</math>-INDEPENDENT SET. | ||
{{cwiczenie|6.3|| | {{cwiczenie|6.3|| | ||
MAX CUT w <math>\ | MAX CUT w <math>\mathrm{MAXSNP}</math>. | ||
Pokaż, że problem MAX CUT należy do <math>\mathrm{MAXSNP}</math>. | |||
}} | |||
<div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Wskazówka </span><div class="mw-collapsible-content" style="display:none"> | <div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Wskazówka </span><div class="mw-collapsible-content" style="display:none"> | ||
Użyj zwykłej binarnej reprezentacji grafu do skonstruowania odpowiedniej formuły pokazującej, że MAX CUT należy do <math>\ | Użyj zwykłej binarnej reprezentacji grafu do skonstruowania odpowiedniej formuły pokazującej, że MAX CUT należy do <math>\mathrm{MAXSNP}_0</math>. | ||
</div></div> | </div></div> | ||
<div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Rozwiązanie </span><div class="mw-collapsible-content" style="display:none"> | <div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Rozwiązanie </span><div class="mw-collapsible-content" style="display:none"> | ||
Formuła kodująca problem MAX CUT to | Formuła kodująca problem MAX CUT to: | ||
<center><math> | <center><math>\max_{S\subseteq V} \{ {(\mathit{x,y}) \in V^2} : {(\mathit{x,y})\in G \wedge x \in S \wedge y \notin S} \}\text{.} | ||
</math></center> | </math></center> | ||
</div></div> | </div></div> | ||
==Problemy MAXSAT i MAX FUNCTION SAT== | ==Problemy MAXSAT i MAX FUNCTION SAT== | ||
Problem maksymalnej spełnialności MAXSAT i jego zawężenia pełnią podobną rolę dla klasy <math>\ | Problem maksymalnej spełnialności MAXSAT i jego zawężenia pełnią podobną rolę dla klasy <math>\mathrm{MAXSNP}</math> jak problem SAT dla <math>\mathrm{NP}</math>. W tej części przyjrzymy się dokładniej temu problemowi i jego różnym wersjom. Podamy również algorytmy aproksymacyjne i udowodnimy zupełność zawężeń tego problemu dla klasy <math>\mathrm{MAXSNP}</math>. | ||
Przypomnijmy, że na wejściu problemu MAXSAT dostajemy formułę logiczną w koniunkcyjnej postaci normalnej z <math> | Przypomnijmy, że na wejściu problemu MAXSAT dostajemy formułę logiczną w koniunkcyjnej postaci normalnej z <math>n</math> zmiennymi. Poszukujemy takiego wartościowania tych zmiennych, które zmaksymalizowałoby liczbę spełnionych klauzul. Dla wygody dodajemy warunek, aby każda z klauzul była inna. | ||
<math> | <math>\frac{1}{2}</math>-aproksymację problemu MAXSAT można osiągnąć bardzo prostą metodą: | ||
{{algorytm|7.1 [Algorytm wybierający wartościowanie <math>x</math> lub <math>\overline{x}</math>]|al 6.1| | |||
1. Wybierz dowolne wartościowanie <math>x</math> dla <math>n</math> zmiennych występujących w formule. | |||
2. Skonstruuj wartościowanie <math>\overline{x}</math>, które przyporządkowuje zmiennym wartościowanie odwrotne do <math>x</math>. | |||
3. Jako wynik podaj to z wartościowań <math>x</math>, <math>\overline{x}</math>, przy którym więcej klauzul jest spełnionych.}} | |||
{{twierdzenie|7.2|| | {{twierdzenie|7.2|| | ||
Podany algorytm jest algorytmem <math> | Podany algorytm jest algorytmem <math>\frac{1}{2}</math>-aproksymacyjnym. | ||
}} | }} | ||
{{dowod||| | {{dowod||| | ||
Zauważmy, że jeżeli któraś z alternatyw jest niespełniona przy wartościowaniu <math> | Zauważmy, że jeżeli któraś z alternatyw jest niespełniona przy wartościowaniu <math>x</math>, to musi być spełniona przy wartościowaniu <math>\overline{x}</math>. Jeżeli alternatywa jest niespełniona przy jakimś wartościowaniu, to znaczy, że każda ze zmiennych występujących w klauzuli jest wartościowana odwrotnie niż jej wystąpienie. Zatem przy wartościowaniu odwrotnym każdy z literałów występujących w alternatywie jest wartościowany pozytywnie i alternatywa musi być spełniona. | ||
Jeżeli zatem oznaczymy przez <math> | Jeżeli zatem oznaczymy przez <math>m</math> - liczbę alternatyw w formule, przez <math>c</math> liczbę alternatyw spełnionych przy wartościowaniu <math>x</math>, a przez <math>\overline{c}</math> liczbę alternatyw spełnionych przy wartościowaniu <math>\overline{x}</math>, to zachodzą następującee nierówności: | ||
<center><math>\ | <center><math>\begin{align} c &\geq m - \overline{c}\text{,} \\ | ||
\overline{c} &\geq m - c \\ | \overline{c} &\geq m - c\text{,} \\ | ||
c + \overline{c} &\geq 2m - c - \overline{c} \\ | c + \overline{c} &\geq 2m - c - \overline{c}\text{,} \\ | ||
c + \overline{c} &\geq m | c + \overline{c} &\geq m\text{.} | ||
\ | \end{align}</math></center> | ||
Ponieważ algorytm wybiera to z wartościowań <math> | Ponieważ algorytm wybiera to z wartościowań <math>x</math> lub <math>\overline{x}</math>, przy którym więcej alternatyw jest spełnionych, to liczba spełnionych alternatyw jest nie mniejsza niż <math>\frac{1}{2}m</math>. Nawet jeżeli rozwiązanie optymalne zapewnia spełnienie wszystkich <math>m</math> alternatyw, to algorytm jest <math>\frac{1}{2}</math>-aproksymacyjny. | ||
}} | }} | ||
Linia 585: | Linia 566: | ||
{{problem||| | {{problem||| | ||
Problem maksymalnej spełnialności funkcyjnej MAX FUNCTION SAT | Problem maksymalnej spełnialności funkcyjnej MAX FUNCTION SAT. | ||
Danych jest <math> | Danych jest <math>n</math> zmiennych logicznych <math>x_1,x_2,\ldots,x_n</math> oraz <math>m</math> funkcji logicznych <math>f_1,f_2,\ldots,f_m</math>. Należy znaleźć wartościowanie zmiennych <math>x_1,x_2,\ldots,x_n</math>, przy którym największa liczba funkcji daje wynik pozytywny. | ||
}} | }} | ||
Ciekawym i istotnym dla dalszych rozważań zawężeniem problemów MAXSAT i MAX FUNCTION SAT jest ograniczenie liczby różnych zmiennych występujących w pojedynczej klauzuli lub funkcji logicznej. Jeżeli ta liczba jest ograniczonaa przez <math> | Ciekawym i istotnym dla dalszych rozważań zawężeniem problemów MAXSAT i MAX FUNCTION SAT jest ograniczenie liczby różnych zmiennych występujących w pojedynczej klauzuli lub funkcji logicznej. Jeżeli ta liczba jest ograniczonaa przez <math>k</math>, to mamy do czynienia z problemem MAX<math>k</math>SAT i MAX<math>k</math>FSAT. | ||
Przypomnijmy, | Przypomnijmy, iż pokazaliśmy, że już problem MAX<math>2</math>SAT jest <math>\mathrm{NP}</math>-zupełny (mimo że problem <math>2</math>SAT nie jest). Teraz okaże się, dlaczego te problemy są dla nas tak interesujące: | ||
{{twierdzenie|7.3|| | {{twierdzenie|7.3|| | ||
Problemy MAX<math> | Problemy MAX<math>k</math>SAT należą do klasy <math>\mathrm{MAXSNP}_0</math>. | ||
}} | }} | ||
{{dowod||| | {{dowod||| | ||
Pokażemy, że problem MAX<math> | Pokażemy, że problem MAX<math>2</math>SAT należy do <math>\mathrm{MAXSNP}_0</math>. Konstrukcja reprezentacji formuły i kodowania problemu dla większych <math>k</math> jest analogiczna. | ||
Zatem ustalamy, że uniwersum <math> | Zatem ustalamy, że uniwersum <math>V</math> to zbiór zmiennych występujących w formule, a trzy relacje binarne <math>G_0,G_1,G_2</math> kodują formułę. Para <math>(\mathit{x_1,x_2})</math> w relacji <math>G_i</math> koduje wystąpienie klauzuli zawierającej literały <math>x_1</math> i <math>x_2</math>, z których <math>i</math> występuje pozytywnie. Żeby zapewnić reprezentację każdej alternatywy przez dokładnie jedną krotkę którejś z relacji, wprowadzamy taką odpowiedniość pomiędzy relacjami i klauzulami: | ||
<center><math>\ | <center><math>\begin{align} G_0(x_i,x_j) & \Longleftrightarrow & (\mathit{\neg x_i \vee \neg x_j}); i < j\text{,} \\ | ||
G_1(x_i,x_j) & \Longleftrightarrow & \ | G_1(x_i,x_j) & \Longleftrightarrow & (\mathit{x_i \vee \neg x_j})\text{,} \\ | ||
G_2(x_i,x_j) & \Longleftrightarrow & \ | G_2(x_i,x_j) & \Longleftrightarrow & (\mathit{x_i \vee x_j}); i < j\text{.} | ||
\ | \end{align}</math></center> | ||
Możemy teraz użyć następującej formuły reprezentującej problem MAX<math> | Możemy teraz użyć następującej formuły reprezentującej problem MAX<math>2</math>SAT: | ||
<center><math> | <center><math>\max_{S\subseteq V} \{ {(\mathit{x,y})} : {\left[ G_0(x,y) \wedge (\mathit{\neg S(x) \vee \neg S(y) })\right] \vee \left[ G_1(x,y) \wedge (\mathit{ S(x) \vee \neg S(y) })\right] \vee \left[ G_2(x,y) \wedge (\mathit{ S(x) \vee S(y) })\right]} \}\text{.} | ||
</math></center> | </math></center> | ||
Wybór relacji <math> | Wybór relacji <math>S</math> odpowiada ustaleniu wartościowania, a konstrukcja formuły zapewnia, że liczba krotek <math>(\mathit{x,y})</math> spełniających formułę odpowiada liczbie alternatyw spełnionych przy danym wartościowaniu. | ||
}} | }} | ||
[[File:ZO-8-2.svg|300x200px|thumb|right|Drzewo wartościowań]] | |||
Zbudowanie algorytmu aproksymacyjnego dla problemu MAX<math> | Zbudowanie algorytmu aproksymacyjnego dla problemu MAX<math>k</math>FSAT nie jest już tak proste, jak dla problemu MAXSAT. Załóżmy, że mamy <math>n</math> zmiennych <math>x_1,x_2,\ldots,x_n</math> i <math>m</math> funkcji logicznych <math>f_1,f_2,\ldots,f_m</math>, z których każda zależy od co najwyżej <math>k</math> zmiennych. Żeby dobrze zobrazować działanie algorytmu, wyobraźmy sobie pełne drzewo binarne o <math>2^n</math> liściach. Każdy węzeł wewnętrzny reprezentuje pewne częściowe wartościowanie zmiennych (rysunek [http://osilek.mimuw.edu.pl/images/d/da/ZO-8-2.swf Drzewo wartościowań]). | ||
Dla każdego węzła drzewa <math> | Dla każdego węzła drzewa <math>t</math> i funkcji <math>f_i</math> określamy funkcję: | ||
<center><math> | <center><math>p(t,f_i) = \frac{\text{liczba wartościowań rozszerzających }t\text{ przy których }f_i\text{ daje wynik pozytywny}}{\text{liczba wszystkich wartościowań rozszerzających }t}\text{.} | ||
</math></center> | </math></center> | ||
Łatwo zauważyć, że jeżeli węzły <math> | Łatwo zauważyć, że jeżeli węzły <math>t_0</math> i <math>t_1</math> są dziećmi <math>t</math> w drzewie wartościowań, to zachodzi: | ||
<center><math> | <center><math>p(t,f_i) = \frac{1}{2}(\mathit{ p(t_0,f_i) + p(t_1,f_i) })\text{.} | ||
</math></center> | </math></center> | ||
Rozważmy teraz funkcję <math> | Rozważmy teraz funkcję <math>P(t) = \sum_{i=1}^{m} p(t,f_i)</math>. Oczywistym wnioskiem z poprzedniej równości jest: | ||
<center><math> | <center><math>P(t) = \frac{1}{2}(\mathit{ P(t_0) + P(t_1) })\text{.} | ||
</math></center> | </math></center> | ||
Zauważmy jeszcze, że obliczenia wartości <math> | Zauważmy jeszcze, że obliczenia wartości <math>P(t)</math> dla konkretnego <math>t</math> można dokonać w czasie wielomianowym. Ponieważ każda z funkcji <math>f_i</math> zależy tylko od <math>k</math> zmiennych, więc można dokonać wyczerpującego przeglądu wszystkich <math>2^k</math> wartościowań tych zmiennych, zliczając te, dla których <math>f_i</math> daje wynik pozytywny i są rozszerzeniami wartościowania <math>t</math>. Można zatem w czasie wielomianowym zsumować wartości <math>p(t,f_i)</math> dla wszystkich <math>m</math> funkcji <math>f_i</math>. | ||
Możemy już teraz przedstawić algorytm: | Możemy już teraz przedstawić algorytm: | ||
{{algorytm|7.4 [Algorytm schodzący po drzewie wartościowań]|al 6.4| | |||
1. Ustaw zmienną <math>t</math> na korzeń <math>r</math> drzewa wartościowań. | |||
2. Dopóki <math>t</math> nie będzie liściem drzewa wartościowań: | |||
obliczaj wartość <math>P(t_0)</math> i <math>P(t_1)</math> dla dzieci węzła <math>t</math> | |||
i ustaw <math>t</math> na to z dzieci, dla którego wartość <math>P(t_i)</math> jest większa. | |||
3. Podaj wartościowanie opisywane przez węzeł <math>t</math> jako wynik.}} | |||
{{twierdzenie|7.5|| | {{twierdzenie|7.5|| | ||
Algorytm schodzący po drzewie wartościowań jest algorytmem <math> | Algorytm schodzący po drzewie wartościowań jest algorytmem <math>\frac{1}{2^k}</math>-aproksymacyjnym dla problemu MAX<math>k</math>FSAT. | ||
}} | }} | ||
{{dowod||| | {{dowod||| | ||
Liczba funkcji dających wynik pozytywny przy wartościowaniu <math> | Liczba funkcji dających wynik pozytywny przy wartościowaniu <math>t</math> znalezionym przez algorytm jest równa dokładnie <math>P(t)</math>. Ponieważ węzeł <math>t</math> określa wartość każdej ze zmiennych, to <math>p(t,f_i)</math> jest równe <math>1</math> dla funkcji dających wynik pozytywny, a <math>0</math> dla tych dających wynik negatywny. | ||
Zauważmy, że <math> | Zauważmy, że <math>P(t) \geq P(r)</math>. Jest tak dlatego, że przy każdym zejściu w dół drzewa od węzła <math>s</math> jest spełnione <math>P(s) = \frac{1}{2}(\mathit{ P(s_0) + P(s_1) })</math>, więc któraś z wartości <math>P(s_0)</math>, lub <math>P(s_1)</math> jest większa lub równa <math>P(s)</math>, a algorytm wybiera zejście w kierunku większej z nich. W związku z tym wartość funkcji <math>P</math> dla aktualnie przeglądanego węzła nigdy nie maleje. | ||
Zatem liczba funkcji z wynikiem pozytywnym w rozwiązaniu znalezionym przez algorytm jest nie mniejsza niż <math> | Zatem liczba funkcji z wynikiem pozytywnym w rozwiązaniu znalezionym przez algorytm jest nie mniejsza niż <math>[{ P(r) }]</math>. Ponieważ dla każdej funkcji, która może w ogóle dać wynik pozytywny, przy jakimkolwiek wartościowaniu zachodzi <math>p(r,f_i) \geq \frac{1}{2^k}</math>, to liczba funkcji, które dają wynik pozytywny w rozwiązaniu optymalnym, jest ograniczona z góry przez <math>\frac{ P(r) }{\frac{1}{2^k}}</math>. To dowodzi, że algorytm jest algorytmem <math>\frac{1}{2^k}</math>-aproksymacyjnym. | ||
}} | }} | ||
{{cwiczenie|7.6|| | {{cwiczenie|7.6|| | ||
Kodowanie MAX<math> | Kodowanie MAX<math>k</math>FSAT w MAX<math>3</math>SAT. | ||
Pokaż L-redukcję problemu MAX<math>k</math>FSAT do MAX<math>3</math>SAT. | |||
}} | |||
<div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Wskazówka </span><div class="mw-collapsible-content" style="display:none"> | <div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Wskazówka </span><div class="mw-collapsible-content" style="display:none"> | ||
Użyj reprezentacji funkcji logicznej przez układ bramek logicznych, a następnie przedstaw każdą bramkę jako klauzulę <math> | Użyj reprezentacji funkcji logicznej przez układ bramek logicznych, a następnie przedstaw każdą bramkę jako klauzulę <math>3</math>SAT. | ||
</div></div> | </div></div> | ||
Linia 676: | Linia 656: | ||
Skorzystamy teraz z tego, że każdą funkcję logiczną można przedstawić jako układ bramek logicznych zbudowany z bramek: | Skorzystamy teraz z tego, że każdą funkcję logiczną można przedstawić jako układ bramek logicznych zbudowany z bramek: | ||
* wejściowych | * wejściowych, | ||
* negacji (<math> | * negacji (<math>\neg</math>), | ||
* koniunkcji (<math> | * koniunkcji (<math>\wedge</math>), | ||
* alternatywy (<math> | * alternatywy (<math>\vee</math>), | ||
* jednej bramki wyjściowej | * jednej bramki wyjściowej. | ||
Skonstruowana formuła <math> | Skonstruowana formuła <math>3</math>SAT będzie modelować układ takich bramek. Zmienne formuły będą odpowiadać bramkom i zmiennym występującym w modelowanej funkcji. | ||
Dla każdej bramki wejściowej <math> | Dla każdej bramki wejściowej <math>g</math> dodajemy klauzule: | ||
* <math>\ | * <math>(\mathit{g \vee \neg x}) \wedge (\mathit{\neg g \vee x})</math> jeżeli bramka <math>g</math> odpowiada zmiennej <math>x</math>. | ||
* <math>\ | * <math>(\mathit{g})</math> lub <math>(\mathit{\neg g})</math> jeżeli bramka <math>g</math> ma stałą wartość logiczną. | ||
Dalej, konstrukcja dla bramek operatorów logicznych jest następująca: | Dalej, konstrukcja dla bramek operatorów logicznych jest następująca: | ||
* <math>\ | * <math>(\mathit{g \vee a}) \wedge (\mathit{\neg g \vee \neg a})</math> bramka <math>g</math> odpowiadająca operacji <math>\neg</math> z wejściem z bramki <math>a</math>. | ||
* <math>\ | * <math>(\mathit{g \vee \neg a}) \wedge (\mathit{g \vee \neg b}) \wedge (\mathit{\neg b \vee a \vee b})</math> bramka <math>g</math> odpowiadająca operacji <math>\vee</math> z wejściami z bramek <math>a</math> i <math>b</math>. | ||
* <math>\ | * <math>(\mathit{\neg g \vee a}) \wedge (\mathit{\neg g \vee b}) \wedge (\mathit{g \vee \neg a \vee \neg b})</math> bramka <math>g</math> odpowiadająca operacji <math>\wedge</math> z wejściami z bramek <math>a</math> i <math>b</math>. | ||
Dla bramki wyjściowej <math> | Dla bramki wyjściowej <math>g</math> dodajemy jedną klauzulę <math>(\mathit{g})</math>. W tak skonstruowanej formule wszystkie klauzule mogą być spełnione, być może z wyjątkiem ostatniej. Wystarczy zauważyć, że w każdej dodanej grupie mogą być spełnione wszystkie klauzule, o ile wartościowania są "zgodne" z zachowaniem bramki. | ||
Możemy zatem zamienić wszystkie funkcje logiczne występujące w problemie MAX<math> | Możemy zatem zamienić wszystkie funkcje logiczne występujące w problemie MAX<math>k</math>FSAT na formuły MAX<math>3</math>SAT. Optimum tego drugiego problemu będzie równe ilości wszystkich bramek poza wyjściowymi zwiększonym o liczbę funkcji, które mogą jednocześnie dawać wynik pozytywny. Stąd możemy ustalić współczynnik <math>\beta</math> redukcji na <math>1</math>. | ||
Żeby uzasadnić, że optimum w skonstruowanej formule jest ograniczone liniowo od optimum problemu MAX<math> | Żeby uzasadnić, że optimum w skonstruowanej formule jest ograniczone liniowo od optimum problemu MAX<math>k</math>FSAT, przypomnijmy dowód dla algorytmu aproksymacyjnego dla problemu MAX<math>k</math>FSAT. Pokazaliśmy tam, że optimum problemu wynosi co najmniej <math>\frac{1}{2^k}m</math>, gdzie <math>m</math> jest liczbą funkcji. Tymczasem liczba klauzul zależy liniowo od liczby funkcji. Skonstruowana redukcja jest zatem L-redukcją. | ||
</div></div> | </div></div> | ||
{{cwiczenie|7.7|| | {{cwiczenie|7.7|| | ||
Lepsza aproksymacja MAXSAT. | Lepsza aproksymacja MAXSAT. | ||
Pokaż, że jeżeli wymagalibyśmy od instancji problemu MAXSAT aby w każdej alternatywie występowało przynajmniej <math> | Pokaż, że jeżeli wymagalibyśmy od instancji problemu MAXSAT, aby w każdej alternatywie występowało przynajmniej <math>k</math> literałów, to istnieje algorytm <math>(\mathit{1-\frac{1}{2^k}})</math>-aproksymacyjny dla takiego problemu. | ||
}} | |||
<div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Wskazówka </span><div class="mw-collapsible-content" style="display:none"> | <div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Wskazówka </span><div class="mw-collapsible-content" style="display:none"> | ||
Jak wygląda oszacowanie <math> | Jak wygląda oszacowanie <math>P(r,f_i)</math>, gdy <math>f_i</math> reprezentuje klauzulę? | ||
</div></div> | </div></div> | ||
<div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Rozwiązanie </span><div class="mw-collapsible-content" style="display:none"> | <div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Rozwiązanie </span><div class="mw-collapsible-content" style="display:none"> | ||
Wystarczy zauważyć, że jeżeli <math> | Wystarczy zauważyć, że jeżeli <math>f_i</math> reprezentuje klauzulę z <math>j</math> literałami, to <math>P(r,f_i) =1-\frac{1}{2^j}</math>, gdyż jest tylko jedno wartościowanie występujących w niej zmiennych, które jej nie spełnia. Możemy w związku z tym powtórzyć rozumowanie z dowodu aproksymacji problemu MAX<math>k</math>FSAT i podany tam algorytm w tym wypadku jest algorytmem <math>(\mathit{1-\frac{1}{2^k}})</math>-aproksymacyjnym. | ||
</div></div> | </div></div> | ||
==Problemy <math>\mathrm{MAXSNP}</math>-zupełne== | |||
==Problemy <math>\ | |||
Pokażemy teraz, że problem MAX<math> | Pokażemy teraz, że problem MAX<math>3</math>SAT jest problemem zupełnym w sensie L-redukcji w klasie <math>\mathrm{MAXSNP}</math>. Jest to bardzo istotny fakt, bo oznacza, że pozytywne wyniki aproksymacjii tego elementarnego problemu przekładają się poprzez L-redukcje na wszystkie problemy z klasy <math>\mathrm{MAXSNP}</math>. Jest też to fakt interesujący ze względu na to, że wcale nie jest oczywiste, iż problemy <math>\mathrm{MAXSNP}</math>-zupełne muszą w ogóle istnieć. | ||
{{twierdzenie|8.1|| | {{twierdzenie|8.1|| | ||
MAX<math> | MAX<math>3</math>SAT jest problemem zupełnym w sensie L-redukcji w klasie <math>\mathrm{MAXSNP}</math>. | ||
}} | }} | ||
{{dowod||| | {{dowod||| | ||
Przypomnijmy, że klasa <math>\ | Przypomnijmy, że klasa <math>\mathrm{MAXSNP}</math> jest definiowana jako klasa problemów L-redukowalnych do problemów z <math>\mathrm{MAXSNP}_0</math>. Zatem wystarczy, że pokażemy, iż każdy problem z <math>\mathrm{MAXSNP}_0</math> jest L-redukowalny do problemu MAX<math>3</math>SAT i skorzystamy z tego, że złożenie L-redukcji jest L-redukcją. | ||
Rozważmy zatem problem <math> | Rozważmy zatem problem <math>A</math> z klasy <math>\mathrm{MAXSNP}_0</math> definiowany formułą: | ||
<center><math> | <center><math>\max_S \{ {(\mathit{x_1,x_2,\ldots,x_k})} : {\phi} \}\text{.} | ||
</math></center> | </math></center> | ||
Rozważymy teraz konkretną instancję problemu <math> | Rozważymy teraz konkretną instancję problemu <math>A</math> z ustalonym uniwersum <math>V</math> i relacjami <math>G_1,G_2,\ldots,G_m</math>. Dla każdej krotki <math>v = (\mathit{v_1,v_2,\ldots,v_k}) \in V^k</math> definiujemy formułę <math>\phi_v</math>, która powstaje z <math>\phi</math> przez podstawienie wartości <math>v_1,v_2,\ldots,v_k</math> za zmienne <math>x_1,x_2,\ldots,x_k</math>. Każdą w formuł <math>\phi_v</math> możemy uprościć, zamieniając każde wystąpienie relacji <math>G</math> i symbolu <math>=</math> wartościami prawdy i fałszu, które w konkretnej instancji są ustalone. W wyniku otrzymujemy formułę <math>\phi_v</math>, w której występują tylko symbole logiczne i relacja <math>S</math>. | ||
Możemy teraz spojrzeć na rozwiązanie tej instancjii problemu <math> | Możemy teraz spojrzeć na rozwiązanie tej instancjii problemu <math>A</math> jak na ustalenie wartościowania formuł <math>S(v_{i_1},v_{i_2},\ldots,v_{i_r})</math>, tak aby zmaksymalizować liczbę spełnionych formuł <math>\phi_v</math>. Jeżeli któraś z formuł <math>\phi_v</math> jest niespełnialna dla żadnego wartościowania, to już na tym etapie usuwamy ją z opisu problemu. | ||
Właśnie opisaliśmy redukcję problemu <math> | Właśnie opisaliśmy redukcję problemu <math>A</math> do problemu MAX<math>l</math>FSAT, gdzie jest <math>|\mathit{V}|^r</math> zmiennych odpowiadających <math>S(v_{i_1},v_{i_2},\ldots,v_{i_r})</math> i <math>|\mathit{V}|^r</math> funkcji logicznych odpowiadających formułom <math>\phi_v</math>. Stała <math>l</math> zależy tylko od postaci formuły <math>\phi</math> i należy ją ustalić równą liczbie wystąpień symbolu relacyjnego <math>S</math> w formule <math>\phi</math>. Możemy teraz użyć redukcji MAX<math>l</math>FSAT do MAX<math>3</math>SAT. | ||
Musimy teraz pokazać, że otrzymana w ten sposób redukcja jest L-redukcją. Na podstawie instancji <math> | Musimy teraz pokazać, że otrzymana w ten sposób redukcja jest L-redukcją. Na podstawie instancji <math>x</math> problemu <math>A</math> możemy zbudować <math>R(x)</math> instancję problemu MAX<math>3</math>SAT. Rozwiązanie <math>S(s)</math> możemy łatwo obliczyć, odczytując relację <math>S</math> z wartości zmiennych występujących w rozwiązaniu problemu <math>R(x)</math>. | ||
Musimy teraz skorzystać z pewnych własności problemu MAX<math> | Musimy teraz skorzystać z pewnych własności problemu MAX<math>l</math>FSAT i jego redukcji do MAX<math>3</math>SAT. | ||
Po pierwsze | Po pierwsze, każda formuła <math>\phi_v</math> jest reprezentowana przez co najwyżej <math>c</math> klauzul, gdzie <math>c</math> zależy tylko od liczby bramek potrzebnych do wyrażenia formuły <math>\phi</math>. | ||
Po drugie | Po drugie, istnieje stała <math>d</math> taka, że dla <math>m</math> funkcji w problemie MAX<math>l</math>SAT istnieje wartościowanie, przy którym przynajmniej <math>dm</math> spośród funkcji ma wartość pozytywną. Skorzystamy z tego, że odrzuciliśmy funkcje, które stale przyjmują wartość negatywną. Stałą <math>d</math> równą <math>\frac{1}{2^l}</math> otrzymujemy z dowodu, że algorytm schodzący po drzewie wartościowań jest algorytmem <math>\frac{1}{2^l}</math>-aproksymacyjnym. | ||
Po trzecie | Po trzecie, zastosowana redukcja MAX<math>l</math>FSAT do MAX<math>3</math>SAT gwarantuje, że w rozwiązaniu optymalnym problemu <math>R(x)</math> wszystkie klauzule poza tymi przechowującymi wyniki funkcji są spełnione. | ||
Te trzy fakty sprawiają, że opisana redukcja jest L-redukcją z parametrami <math> | Te trzy fakty sprawiają, że opisana redukcja jest L-redukcją z parametrami <math>\alpha = \frac{c}{d}( \text{opt} (x) \geq dm</math>, <math>\text{opt} ( R(x) ) \leq cm</math>) i <math>\beta = 1</math> (w rozwiązaniu optymalnym <math>\text{opt}</math> problemu <math>R(x)</math> liczba spełnionych alternatyw zmniejszona o liczbę alternatyw innych niż przechowujące wyniki funkcji wyznacza dokładnie liczbę krotek <math>V^k</math>, dla których relacja <math>S</math> zachodzi). | ||
}} | }} | ||
{{cwiczenie|8.2|| | {{cwiczenie|8.2|| | ||
Problemy z <math>\ | Problemy z <math>\mathrm{MAXSNP}_0</math> są aproksymowalne ze stałą. | ||
Pokaż, że dla każdego problemu z klasy <math>\mathrm{MAXSNP}</math> istnieje algorytm <math>a</math>-aproksymacyjny dla pewnej stałej. | |||
}} | |||
<div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Wskazówka </span><div class="mw-collapsible-content" style="display:none"> | <div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Wskazówka </span><div class="mw-collapsible-content" style="display:none"> | ||
Wykorzystaj technikę użytą w dowodzie <math>\ | Wykorzystaj technikę użytą w dowodzie <math>\mathrm{MAXSNP}</math>-zupełności problemu MAX<math>3</math>SAT. | ||
</div></div> | </div></div> | ||
<div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Rozwiązanie </span><div class="mw-collapsible-content" style="display:none"> | <div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Rozwiązanie </span><div class="mw-collapsible-content" style="display:none"> | ||
W dowodzie <math>\ | W dowodzie <math>\mathrm{MAXSNP}</math>-zupełności problemu MAX<math>3</math>SAT pokazaliśmy, że na każdy problem <math>A</math> z klasy <math>\mathrm{MAXSNP}_0</math> można patrzeć jak na problem MAX<math>k</math>FSAT dla pewnego <math>k</math>. Tymczasem pokazaliśmy wcześniej, że problem MAX<math>k</math>FSAT może być aproksymowany ze stałą <math>\frac{1}{2^k}</math>, co przenosi się bezpośrednio na taką samą aproksymację dla problemu <math>A</math>. | ||
</div></div> | </div></div> | ||
==Testy końcowe== | ==Testy końcowe== |
Aktualna wersja na dzień 22:15, 11 wrz 2023
Wprowadzenie
W poprzednim wykładzie zajmowaliśmy się algorytmami aproksymacyjnymi dla przykładowych trudnych problemów optymalizacyjnych. Dla większości z tych algorytmów udawało nam się podać gwarancję dokładności za pomocą stałego współczynnika efektywności przybliżenia.
W tym module postawimy sobie znacznie ambitniejsze zadanie. Będziemy szukać algorytmów, którym na wejściu ustala się dopuszczalny błąd przybliżenia rozwiązania optymalnego. Pokażemy problemy, dla których jest możliwa taka "dowolnie dokładna" aproksymacja.
W drugiej części poznamy klasę . Jest to bardzo szeroka i interesująca klasa problemów optymalizacyjnych, a pytanie o to, czy należące do niej problemy mogą być dowolnie dobrze aproksymowane, było bardzo istotnym zagadnieniem teorii algorytmów aproksymacyjnych. Odpowiedź na to pytanie poznamy dopiero w następnym module.
Schematy aproksymacji
Żeby wyrazić te nowe oczekiwania potrzebujemy nowych notacji:
Definicja 2.1
Mówimy, że algorytm jest {schematem aproksymacji} dla problemu -optymalizacyjnego , jeżeli dla wejścia , gdzie jest instancją problemu , a opisuje dopuszczalny błąd, znajduje rozwiązanie takie, że:
- dla problemu minimalizacji.
- dla problemu maksymalizacji.
Definicja 2.2
Jeśli dla dowolnego czas działania na wejściu jest wielomianowy względem , to jest {wielomianowym schematem aproksymacji}. Będziemy używać skróconej notacji PTAS (od polynomial time approximation scheme) dla oznaczenia tego faktu.
Zauważmy, że w tej definicji wymagamy wielomianowego czasu działania tylko względem rozmiaru instancji przy ustalonym dopuszczalnym błędzie. Oznacza to, że czas działania może być nawet wykładniczy względem wartości parametru . Nie jest to sytuacja komfortowa. Możemy w związku z tym wzmocnić wymagania postawione dla algorytmu.
Definicja 2.3
Jeżeli czas działania algorytmu jest wielomianowy względem oraz wartości , to jest {w pełni wielomianowym schematem aproksymacji}. Omawiając takie algorytmy, będziemy używać notacji FPTAS (fully polynomial time approximation scheme).
Ćwiczenie 2.4
FPTAS dla problemów silnie -zupełnych.
Wykaż, że o ile i jest silnie -zupełnym problemem optymalizacyjnym takim, że funkcja celu przyjmuje wartości całkowite i ograniczone wielomianowo od rozmiaru instancji wejściowej oraz jej największej liczby, to nie istnieje algorytm FPTAS dla .
Schemat aproksymacji dla problemu KNAPSACK
Pokazaliśmy, że nie warto szukać algorytmów FPTAS dla problemów silnie -zupełnych. Rozpoczniemy w związku z tym dalsze poszukiwania schematów aproksymacyjnych od przyjrzenia się raz jeszcze problemowi plecakowemu. Wiemy, że nie jest to problem silnie -zupełny i znamy dla niego algorytm pseudowielomianowy. Bardzo często istnienie algorytmu pseudowielomianowego można wykorzystać przy konstrukcjii schematów aproksymacji. Zobaczymy teraz klasyczną konstrukcję opartą o ten pomysł.
Pokażemy teraz algorytm pseudowielomianowy rozwiązujący problem KNAPSACK. Poznaliśmy już jeden taki alorytm, ale tamten nie nadaje się do konstrukcji schematu aproksymacji.
Algorytm 3.1 [Algorytm pseudowielomianowy dla problemu plecakowego]
1. Oblicz .
2. Oblicz określone dla i jako "minimalny sumaryczny rozmiar podzbioru przedmiotów taki, że sumaryczna wartość tych przedmiotów wynosi dokładnie ". Obliczenia można dokonać metodą dynamiczną, korzystając z następujących własności rekurencyjnych:
3. Odczytaj rozwiązanie z wartości .
Algorytm ten można zakodować tak, aby znajdował optymalne rozwiązanie w czasie . Szczegóły implementacji pozostawiamy jako ćwiczenie.
Zauważmy, że gdyby wartości przedmiotów były ograniczone przez wielomianową funkcję , to skonstruowany algorytm byłby wielomianowy. To jest podstawą schematu aproksymacji, który będzie zaokrąglał wartości przedmiotów tak, aby były one wielomianowe względem i . Oto algorytm:
Algorytm 3.2 [Algorytm zaokrągleniowy]
1. Oblicz .
2. Dla każdego przedmiotu oblicz .
3. Używając algorytmu pseudowielomianowego, rozwiąż problem z wartościami .
Twierdzenie 3.3
Algorytm zaokrągleniowy jest FPTAS dla problemu plecakowego.
Dowód
Musimy pokazać, że dla zbioru znajdowanego przez algorytm zachodzi:
Niech będzie rozwiązaniem optymalnym. Możemy wtedy zapisać ciąg nierówności:
Korzystamy po kolei z własności zaokrąglenia, optymalności rozwiązania przy wartościach wydzielonych przez , własności zaokrąglenia i tego, że .
Udowodniliśmy, że wartość rozwiązania znajdowanego przez algorytm jest nie mniejsze niż . Jest to zatem schemat aproksymacyjny. Musimy jeszcze oszacować czas działania algorytmu. Wynosi on , a więc jest wielomianowy zarówno względem , jak i .

Ćwiczenie 3.4
Algorytm pseudowielomianowy.
Doprecyzuj implementację algorytmu pseudowielomianowego dla problemu plecakowego. Jak odzyskać wybór przedmiotów z tablicy ?
Asymptotyczny PTAS dla BIN PACKING
Pokazaliśmy, że problem plecakowy może być aproksymowalny z dowolną dokładnością w czasie wielomianowo zależnym od wielkości danych i dopuszczalnego błędu. Dla problemuu pakowania nie możemy się spodziewać równie dobrych wyników. Jest to problem silnie -zupełny i o ile , to nie może istnieć FPTAS. Pokazaliśmy również, że nie ma algorytmu osiągającego stałą aproksymacji mniejszą od . Dowód opierał się o fakt, że o ile , to nie da się efektywnie sprawdzać, czy da się przedmioty upakować do dwóch pojemników.
Instancje, które zabraniały aproksymacji lepszej niż miały ograniczoną wartość optimum. Skonstruujemy teraz asymptotyczny PTAS dla problemu pakowania, który może osiągać dowolnie dobrą aproksymację, ale dla odpowiednio dużych wartości optimum.
Precyzując, podamy rodzinę algorytmów dla działających w czasie wielomianowym od liczby przedmiotów i znajdujących rozwiązanie używające co najwyżej pojemników.
Zanim będziemy mogli przedstawić algorytmy musimy pokazać dwa pomocnicze lematy, które pokazują rozwiązania dla pewnych uproszczonych instancji problemu.
Lemat 4.1
Dla dowolnego oraz liczby całkowitej istnieje algorytm wielomianowy rozwiązujący problem pakowania dla instancji, w których występują przedmioty o co najwyżej różnych rozmiarach, z których każdy jest nie mniejszy niż .
Dowód
Liczba przedmiotów w jednym pojemniku jest ograniczona przez . Suma rozmiarów większej liczby przedmiotów musi przekraczać , gdyż każdy z nich ma rozmiar nie mniejszy niż .
Liczba możliwych zawartości jednego pojemnika jest zatem ograniczona przez . Ograniczenie to uzyskujemy, gdyż jest to liczba -elementowych multipodzbiorów zbioru -elementowego. Zauważmy, że liczb jest stałą zależną tylko od i .
Liczba pojemników w rozwiązaniu jest ograniczona w oczywisty sposób przez . Zatem liczba możliwych rozwiązań dopuszczalnych jest ograniczona przez . Tym razem jest to liczba -elementowych multipodzbiorów zbioru -elementowego.
Liczba wyraża się wielomianem względem . Możemy w związku z tym w czasie wielomianowym przejrzeć wszystkie rozwiązania dopuszczalne i wybrać optymalne.

Niestety czas tego algorytmu jest wielomianem stopnia . Jest to bardzo wysoki stopień i przez to algorytm ten nie może być traktowany jako praktyczne rozwiązanie problemu.
Lemat 4.3
Dla dowolnego istnieje wielomianowy algorytm -aproksymacyjny dla problemu pakowania dla instancji, w których występują przedmioty o rozmiarach nie mniejszych niż .
Dowód
Algorytm 4.4 [Algorytm dzielący na grupy]
1. Oblicz .
2. Posortuj przedmioty względem rosnącego rozmiaru i podziel posortowany ciąg na grup tak, aby w każdej grupie było co najwyżej przedmiotów.
3. Zamień rozmiar każdego z przedmiotów na rozmiar największego przedmiotu w tej samej grupie.
4. Użyj algorytmu z poprzedniego lematu działającego na przedmiotach o różnych rozmiarach nie mniejszych niż .
Niech będzie instancją podaną na wejściu algorytmu. Niech będzie instancją otrzymaną w trzecim kroku algorytmu, a instancją, którą otrzymalibyśmy, zamieniając rozmiar każdego z przedmiotów na rozmiar najmniejszego w tej samej grupie.
Wynikiem działania algorytmu jest rozwiązanie optymalne dla instancji . Musimy wykazać, że . Łatwo jest uzasadnić oszacowanie .
Możemy teraz zauważyć, że każde rozwiązanie instancjii wyznacza pewne rozwiązanie dla , ponieważ najmniejszy przedmiot z grupy przedmiotów jest większy lub równy największemu przedmiotowi z grupy . Zatem rozwiązanie instancji pozwala upakować wszystkie przedmioty z instancji oprócz ostatniej grupy. Więc nawet jeżeli każdy z tych przedmiotów zostałby upakowany do osobnego pojemnika, otrzymujemy ograniczenie:
Ostatnia nierówność wynika z tego, że . Pokazaliśmy zatem, że algorytm jest -aproksymacyjny.

Mając w ręku te dwa pomocnicze lematy, możemy już pokazać algorytm .
Algorytm 4.5 [Algorytm ]
1. Stwórz instancję , usuwając wszystkie przedmioty o rozmiarze mniejszym od z .
2. Oblicz instancję i znajdź dla niej optymalne upakowanie, korzystając z algorytmu przeglądającego wszystkie rozwiązania dopuszczalne.
3. Dopakuj przedmioty o rozmiarze mniejszym od za pomocą algorytmu First-Fit, otrzymując rozwiązanie dla instancji wejściowej .
Twierdzenie 4.6
Dla dowolnego algorytm znajduje upakowanie przedmiotów instancji w co najwyżej pojemnikach.
Dowód
Jeżeli w ostatnim kroku algorytmu nie zostały utworzone żadne nowe pojemniki, to rozwiązanie znalezione dla używa pojemników, a więc spełnia warunki twierdzenia.
Jeżeli natomiast zostały utworzone nowe pojemniki, to zauważmy, że tylko w jednym ze wszystkich pojemników mogą znajdować się przedmioty o sumarycznym rozmiarze mniejszym niż . Zatem jeżeli oznaczymy przez liczbę wszystkich użytych pojemników, to sumarczyny rozmiar wszystkich przedmiotów (a więc i optimum) możemy ograniczyć z dołu przez . W związku z tym możemy napisać:
Druga nierówność wynika z prostego przekształcenia arytmetycznego przy .

Ćwiczenie 4.7
Aproksymacja dla problemu PARTITION.
Optymalizacyjna wersja problemu PARTITION powstaje, kiedy chcemy wybrać podzbiór taki, że minimalizuje wartość .
Uzasadnij, że dla tego problemu nie ma algorytmu PTAS.
Inna wersja optymalizacyjna problemu PARTITION powstaje, kiedy mierzymy odległość od równomiernego podziału przez iloraz zamiast przez różnicę. Chcemy wtedy wybrać podzbiór taki, że iloraz:
jednocześnie minimalizując wartość tego ilorazu.
Pokaż algorytm FPTAS dla tej wersji problemu PARTITION.
Ćwiczenie 4.8
Problem BIN COVERING.
Rozważ problem dualny do BIN PACKING:
Pokrywanie BIN COVERING.
Mając dany zbiór przedmiotów o wagach wymiernych , należy znaleźć przyporządkowanie ich do jak największej liczby pojemników. Suma wag przedmiotów w jednym pojemniku musi przekraczać , a część przedmiotów może być w ogóle niewykorzystana.
Można się domyślać, że problem ten ma charakterystykę podobną do BIN PACKING.
Pokaż, że o ile , to nie ma dla niego algorytmu -aproksymacyjnego dla . Skonstruuj asymptotyczny PTAS przy dodatkowym założeniu, że rozmiary wszystkich przedmiotów są większe niż pewna stała (istnieje również asymptotyczny PTAS bez tego dodatkowego założenia, ale jego analiza jest znacznie trudniejsza).
L-redukcje
Wprowadzimy teraz pojęcie redukcji zachowującej aproksymację. Pozwoli nam to na bardziej systematyczne niż do tej pory zbadanie klasy problemów, dla których możliwa jest aproksymacja. W dalszej części będziemy poszukiwać klasy problemów aproksymowalnych i problemów w tej klasie zupełnych względem podanej redukcji. Definicja interesującej nas redukcji jest podobna do tej, jaką wprowadziliśmy pomiędzy problemami funkcyjnymi.
Definicja 5.1
Dla dwóch problemów optymalizacyjnych i , parę funkcji i obliczalnych w pamięci logarytmicznej nazywamy L-redukcją, jeżeli istnieją dwie stałe dodatnie i takie, że spełnione są następujące własności:
- Dla dowolnej instancji problemu zachodzi:
- Dla dowolnego rozwiązania dopuszczalnego instancji zachodzi:
Intuicyjnie, funkcja L-redukcji (redukcji liniowej) zamienia instancję problemu na instancję problemu , nie zmieniając wartości rozwiązania optymalnego bardziej niż o stałą . Funkcja pozwala natomiast przeprowadzić dowolne z rozwiązań z powrotem na rozwiązanie instancji , nie zmieniając odległości od optimum bardziej niż o stałą .
Warto zauważyć, że definicja L-redukcji nie zależy od tego, czy problemy i są problami minimalizacyjnymi, czy maksymalizacyjnymi.
Przyjrzyjmy się teraz jeszcze raz redukcji problemu zbioru niezależnego do pokrycia wierzchołkowego. Jest ona oparta o fakt, że problemy te są do siebie dualne. Dopełnienie dowolnego zbioru niezależnego jest pokryciem wierzchołkowym i na odwrót.
Definicje odpowiednich funkcji są w związku z tym bardzo proste. to po prostu funkcja identycznościowa na grafach, a zwraca dopełnienie zbioru wierzchołków. Okazuje się, że nie jest to jednak L-redukcja, gdyż stosunku rozmiarów rozwiązań obu problemów nie da się w żaden sposób ograniczyć przez stałe.
Takie ograniczenie można uzyskać, zawężając klasę grafów. Jeżeli ograniczymy maksymalny stopień wierzchołków występujących w grafie przez liczbę , to otrzymamy problemy -INDPENDENT SET i -VERTEX COVER. Przypomnijmy, że z redukcji problemu SAT wynika, że już problem -INDEPENDENT SET jest -zupełny.
Pokażemy, że funkcje i tworzą L-redukcję problemu -INDEPENDENT SET do -NODE COVER.
Zauważmy, że dla grafu ze stopniem wierzchołków ograniczonym przez rozmiar maksymalnego zbioru niezależnego to co najmniej . Dla każdego zbioru niezależnego o mniejszym rozmiarze, zbiór jego wszystkich sąsiadów jest co najwyżej razy większy i nie obejmuje w związku z tym całego grafu. Można zatem taki zbiór niezależny poszerzyć.
Tymczasem minimalne pokrycie wierzchołkowe ma w oczywisty sposób co najwyżej elementów. W związku z tym możemy ustalić wartość parametru na .
Wystarczy teraz zauważyć, że odległość rozwiązania znalezionego od optymalnego nie zmienia się przy przejściu przez funkcję . W związku z tym możemy ustalić wartość parametru na .
Ta krótka analiza pozwala stwierdzić, że para jest L-redukcją problemu -INDEPENDENT SET do -NODE COVER.
Można też skonstruować odwrotną L-redukcję problemu -NODE COVER do -INDEPENDENT SET. Oczywiście należy użyć tych samych funkcji i , ale żeby uzyskać liniową zależność rozmiaru maksymalnego zbioru niezależnego od minimlanego pokrycia wierzchołkowego trzeba się trochę postarać. Zauważmy, że dla antykliki rozmiar minimalnego pokrycia wierzchołkowego wynosi , a maksymalny zbiór niezależny ma rozmiar równy ilości wierzchołków. Wynika stąd, że punkty izolowane mogą sprawiać problem dla L-redukcji.
W nowej redukcji funkcja będzie usuwać wierzchołki izolowane z grafu (które i tak nie należą do minimalnego pokrycia wierzchołkowego). Funkcja nadal będzie zamieniać zbiór wierzchołków na jego uzupełnienie (ale tylko w obrębie wierzchołków nieizolowanych). Rozmiar minimalnego pokrycia wierzchołkowego w grafie bez wierzchołków izolowanych wynosi co najmniej ponieważ jest co najmniej krawędzi, a każdy wierzchołek pokrywa co najwyżej z nich. To oszacowanie pozwala nam stwierdzić, że nowa redukcja jest L-redukcją z parametrami i .
Ćwiczenie 5.3
Złożenie L-redukcji.
Pokaż, że jeżeli para jest L-redukcją problemu do , a para L-reduckją do , to jest L-redukcją do .
Ćwiczenie 5.4
Przenoszenie aproksymacji przez L-redukcje.
Pokaż, że jeżeli problem minimalizacyjny L-redukuje się do problemu i dla problemu istnieje algorytm -aproksymacyjny, to istnieje stała taka, że dla problemu istnieje algorytm -aproksymacyjny.
Pokaż, że dla dowolnych problemów optymalizacyjnych i , że jeżeli L-redukuje się do i istnieje wielomianowy schemat aproksymacji dla problemu , to istnieje też taki schemat dla problemu .
Ćwiczenie 5.5
Różnica optimum dla NODE COVER i INDEPENDENT SET.
Pokaż, że dla dowolnej liczby wymiernej można skonstruować graf, dla którego iloraz rozmiaru maksymalnego zbioru niezależnego do minimalnego pokrycia wierzchołkowego wynosi .
Klasa
Wprowadzimy teraz formalną definicję klasy , która pozwoli nam bardziej metodycznie zbadać problemy optymalizacyjne. Dalsze badania nad tą klasą doprowadzą nas do bardzo ciekawych rezultatów dotyczących możliwości aproksymacji.
Zaczniemy od zdefiniowania klasy , która opisuje problemy maksymalizacyjne. Jej charakteryzacja jest analogiczna do charakteryzacji klasy podanej w twierdzeniu Fagina.
Definicja 6.1
Problem należy do klasy , jeżeli można go wyrazić za pomocą formuły:
Wejściem dla problemu jest ciąg relacji (być może wieloargumentowych) nad skończonym uniwersum . Poszukiwana jest natomiast relacja , która maksymalizowałaby liczbę naborów zmiennych takich, że formuła pierwszego rzędu bez kwantyfikatorów jest spełniona.
Definicja 6.2
Klasa jest domknięciem ze względu na L-redukcje.
Zobaczmy teraz przykład problemu, który należy do . Wybierzemy problem -INDEPENDENT SET. Zwykła reprezentacja grafu poprzez relację binarną nie pozwala wygodnie przedstawić ograniczenia stopnia wierzchołka i raczej nie prowadzi do reprezentacji poprzez odpowiednią formułę. Dlatego użyjemy niestandardowej reprezentacji grafu poprzez -argumentową relację . Każdemu wierzchołkowi odpowiada jedna krotka relacji - , która koduje sąsiedztwo wierzchołka . Wierzchołki to sąsiedzi . Jeżeli nie ma sąsiadów, to na brakujących pozycjach występuje . Problem -zbioru niezależnego koduje się wtedy w następujący sposób:
Wybór relacji koduje pewien podzbiór wierzchołków. Formuła kodująca problem jest spełniona dla krotek odpowiadających tym wierzchołkom , które należą do wybranego zbioru, a żaden z sąsiadów nie należy. Odpowiada to więc zbiorowi niezależnemu.
Pokazaliśmy zatem, że problem -INDEPENDENT SET należy do klasy . Natychmiastowym wnioskiem jest, że problem -NODE COVER jest problemem z . Znamy przecież jego L-redukcję do -INDEPENDENT SET.
Ćwiczenie 6.3
MAX CUT w .
Pokaż, że problem MAX CUT należy do .
Problemy MAXSAT i MAX FUNCTION SAT
Problem maksymalnej spełnialności MAXSAT i jego zawężenia pełnią podobną rolę dla klasy jak problem SAT dla . W tej części przyjrzymy się dokładniej temu problemowi i jego różnym wersjom. Podamy również algorytmy aproksymacyjne i udowodnimy zupełność zawężeń tego problemu dla klasy .
Przypomnijmy, że na wejściu problemu MAXSAT dostajemy formułę logiczną w koniunkcyjnej postaci normalnej z zmiennymi. Poszukujemy takiego wartościowania tych zmiennych, które zmaksymalizowałoby liczbę spełnionych klauzul. Dla wygody dodajemy warunek, aby każda z klauzul była inna.
-aproksymację problemu MAXSAT można osiągnąć bardzo prostą metodą:
Algorytm 7.1 [Algorytm wybierający wartościowanie lub ]
1. Wybierz dowolne wartościowanie dla zmiennych występujących w formule.
2. Skonstruuj wartościowanie , które przyporządkowuje zmiennym wartościowanie odwrotne do .
3. Jako wynik podaj to z wartościowań , , przy którym więcej klauzul jest spełnionych.
Twierdzenie 7.2
Podany algorytm jest algorytmem -aproksymacyjnym.
Dowód
Zauważmy, że jeżeli któraś z alternatyw jest niespełniona przy wartościowaniu , to musi być spełniona przy wartościowaniu . Jeżeli alternatywa jest niespełniona przy jakimś wartościowaniu, to znaczy, że każda ze zmiennych występujących w klauzuli jest wartościowana odwrotnie niż jej wystąpienie. Zatem przy wartościowaniu odwrotnym każdy z literałów występujących w alternatywie jest wartościowany pozytywnie i alternatywa musi być spełniona.
Jeżeli zatem oznaczymy przez - liczbę alternatyw w formule, przez liczbę alternatyw spełnionych przy wartościowaniu , a przez liczbę alternatyw spełnionych przy wartościowaniu , to zachodzą następującee nierówności:
Ponieważ algorytm wybiera to z wartościowań lub , przy którym więcej alternatyw jest spełnionych, to liczba spełnionych alternatyw jest nie mniejsza niż . Nawet jeżeli rozwiązanie optymalne zapewnia spełnienie wszystkich alternatyw, to algorytm jest -aproksymacyjny.

Pokażemy teraz pewną wariację na temat problemu MAXSAT.
Problem maksymalnej spełnialności funkcyjnej MAX FUNCTION SAT.
Danych jest zmiennych logicznych oraz funkcji logicznych . Należy znaleźć wartościowanie zmiennych , przy którym największa liczba funkcji daje wynik pozytywny.
Ciekawym i istotnym dla dalszych rozważań zawężeniem problemów MAXSAT i MAX FUNCTION SAT jest ograniczenie liczby różnych zmiennych występujących w pojedynczej klauzuli lub funkcji logicznej. Jeżeli ta liczba jest ograniczonaa przez , to mamy do czynienia z problemem MAXSAT i MAXFSAT.
Przypomnijmy, iż pokazaliśmy, że już problem MAXSAT jest -zupełny (mimo że problem SAT nie jest). Teraz okaże się, dlaczego te problemy są dla nas tak interesujące:
Twierdzenie 7.3
Problemy MAXSAT należą do klasy .
Dowód
Pokażemy, że problem MAXSAT należy do . Konstrukcja reprezentacji formuły i kodowania problemu dla większych jest analogiczna.
Zatem ustalamy, że uniwersum to zbiór zmiennych występujących w formule, a trzy relacje binarne kodują formułę. Para w relacji koduje wystąpienie klauzuli zawierającej literały i , z których występuje pozytywnie. Żeby zapewnić reprezentację każdej alternatywy przez dokładnie jedną krotkę którejś z relacji, wprowadzamy taką odpowiedniość pomiędzy relacjami i klauzulami:
Możemy teraz użyć następującej formuły reprezentującej problem MAXSAT:
Wybór relacji odpowiada ustaleniu wartościowania, a konstrukcja formuły zapewnia, że liczba krotek spełniających formułę odpowiada liczbie alternatyw spełnionych przy danym wartościowaniu.


Zbudowanie algorytmu aproksymacyjnego dla problemu MAXFSAT nie jest już tak proste, jak dla problemu MAXSAT. Załóżmy, że mamy zmiennych i funkcji logicznych , z których każda zależy od co najwyżej zmiennych. Żeby dobrze zobrazować działanie algorytmu, wyobraźmy sobie pełne drzewo binarne o liściach. Każdy węzeł wewnętrzny reprezentuje pewne częściowe wartościowanie zmiennych (rysunek Drzewo wartościowań).
Dla każdego węzła drzewa i funkcji określamy funkcję:
Łatwo zauważyć, że jeżeli węzły i są dziećmi w drzewie wartościowań, to zachodzi:
Rozważmy teraz funkcję . Oczywistym wnioskiem z poprzedniej równości jest:
Zauważmy jeszcze, że obliczenia wartości dla konkretnego można dokonać w czasie wielomianowym. Ponieważ każda z funkcji zależy tylko od zmiennych, więc można dokonać wyczerpującego przeglądu wszystkich wartościowań tych zmiennych, zliczając te, dla których daje wynik pozytywny i są rozszerzeniami wartościowania . Można zatem w czasie wielomianowym zsumować wartości dla wszystkich funkcji .
Możemy już teraz przedstawić algorytm:
Algorytm 7.4 [Algorytm schodzący po drzewie wartościowań]
1. Ustaw zmienną na korzeń drzewa wartościowań.
2. Dopóki nie będzie liściem drzewa wartościowań:
obliczaj wartość i dla dzieci węzła
i ustaw na to z dzieci, dla którego wartość jest większa.
3. Podaj wartościowanie opisywane przez węzeł jako wynik.
Twierdzenie 7.5
Algorytm schodzący po drzewie wartościowań jest algorytmem -aproksymacyjnym dla problemu MAXFSAT.
Dowód
Liczba funkcji dających wynik pozytywny przy wartościowaniu znalezionym przez algorytm jest równa dokładnie . Ponieważ węzeł określa wartość każdej ze zmiennych, to jest równe dla funkcji dających wynik pozytywny, a dla tych dających wynik negatywny.
Zauważmy, że . Jest tak dlatego, że przy każdym zejściu w dół drzewa od węzła jest spełnione , więc któraś z wartości , lub jest większa lub równa , a algorytm wybiera zejście w kierunku większej z nich. W związku z tym wartość funkcji dla aktualnie przeglądanego węzła nigdy nie maleje.
Zatem liczba funkcji z wynikiem pozytywnym w rozwiązaniu znalezionym przez algorytm jest nie mniejsza niż . Ponieważ dla każdej funkcji, która może w ogóle dać wynik pozytywny, przy jakimkolwiek wartościowaniu zachodzi , to liczba funkcji, które dają wynik pozytywny w rozwiązaniu optymalnym, jest ograniczona z góry przez . To dowodzi, że algorytm jest algorytmem -aproksymacyjnym.

Ćwiczenie 7.6
Kodowanie MAXFSAT w MAXSAT.
Pokaż L-redukcję problemu MAXFSAT do MAXSAT.
Ćwiczenie 7.7
Lepsza aproksymacja MAXSAT.
Pokaż, że jeżeli wymagalibyśmy od instancji problemu MAXSAT, aby w każdej alternatywie występowało przynajmniej literałów, to istnieje algorytm -aproksymacyjny dla takiego problemu.
Problemy -zupełne
Pokażemy teraz, że problem MAXSAT jest problemem zupełnym w sensie L-redukcji w klasie . Jest to bardzo istotny fakt, bo oznacza, że pozytywne wyniki aproksymacjii tego elementarnego problemu przekładają się poprzez L-redukcje na wszystkie problemy z klasy . Jest też to fakt interesujący ze względu na to, że wcale nie jest oczywiste, iż problemy -zupełne muszą w ogóle istnieć.
Twierdzenie 8.1
MAXSAT jest problemem zupełnym w sensie L-redukcji w klasie .
Dowód
Przypomnijmy, że klasa jest definiowana jako klasa problemów L-redukowalnych do problemów z . Zatem wystarczy, że pokażemy, iż każdy problem z jest L-redukowalny do problemu MAXSAT i skorzystamy z tego, że złożenie L-redukcji jest L-redukcją.
Rozważmy zatem problem z klasy definiowany formułą:
Rozważymy teraz konkretną instancję problemu z ustalonym uniwersum i relacjami . Dla każdej krotki definiujemy formułę , która powstaje z przez podstawienie wartości za zmienne . Każdą w formuł możemy uprościć, zamieniając każde wystąpienie relacji i symbolu wartościami prawdy i fałszu, które w konkretnej instancji są ustalone. W wyniku otrzymujemy formułę , w której występują tylko symbole logiczne i relacja .
Możemy teraz spojrzeć na rozwiązanie tej instancjii problemu jak na ustalenie wartościowania formuł , tak aby zmaksymalizować liczbę spełnionych formuł . Jeżeli któraś z formuł jest niespełnialna dla żadnego wartościowania, to już na tym etapie usuwamy ją z opisu problemu.
Właśnie opisaliśmy redukcję problemu do problemu MAXFSAT, gdzie jest zmiennych odpowiadających i funkcji logicznych odpowiadających formułom . Stała zależy tylko od postaci formuły i należy ją ustalić równą liczbie wystąpień symbolu relacyjnego w formule . Możemy teraz użyć redukcji MAXFSAT do MAXSAT.
Musimy teraz pokazać, że otrzymana w ten sposób redukcja jest L-redukcją. Na podstawie instancji problemu możemy zbudować instancję problemu MAXSAT. Rozwiązanie możemy łatwo obliczyć, odczytując relację z wartości zmiennych występujących w rozwiązaniu problemu .
Musimy teraz skorzystać z pewnych własności problemu MAXFSAT i jego redukcji do MAXSAT.
Po pierwsze, każda formuła jest reprezentowana przez co najwyżej klauzul, gdzie zależy tylko od liczby bramek potrzebnych do wyrażenia formuły .
Po drugie, istnieje stała taka, że dla funkcji w problemie MAXSAT istnieje wartościowanie, przy którym przynajmniej spośród funkcji ma wartość pozytywną. Skorzystamy z tego, że odrzuciliśmy funkcje, które stale przyjmują wartość negatywną. Stałą równą otrzymujemy z dowodu, że algorytm schodzący po drzewie wartościowań jest algorytmem -aproksymacyjnym.
Po trzecie, zastosowana redukcja MAXFSAT do MAXSAT gwarantuje, że w rozwiązaniu optymalnym problemu wszystkie klauzule poza tymi przechowującymi wyniki funkcji są spełnione.
Te trzy fakty sprawiają, że opisana redukcja jest L-redukcją z parametrami , ) i (w rozwiązaniu optymalnym problemu liczba spełnionych alternatyw zmniejszona o liczbę alternatyw innych niż przechowujące wyniki funkcji wyznacza dokładnie liczbę krotek , dla których relacja zachodzi).

Ćwiczenie 8.2
Problemy z są aproksymowalne ze stałą.
Pokaż, że dla każdego problemu z klasy istnieje algorytm -aproksymacyjny dla pewnej stałej.