Złożoność obliczeniowa/Wykład 15: Kryptografia a złożoność: Różnice pomiędzy wersjami

Z Studia Informatyczne
Przejdź do nawigacjiPrzejdź do wyszukiwania
Slusarek (dyskusja | edycje)
Slusarek (dyskusja | edycje)
Linia 313: Linia 313:
funkcję <math>\displaystyle V</math> (''verifier'') o tym, że słowo wejściowe należy do rozpatrywanego języka, natomiast ostateczna decyzja w tej sprawie należy do <math>\displaystyle V</math>.
funkcję <math>\displaystyle V</math> (''verifier'') o tym, że słowo wejściowe należy do rozpatrywanego języka, natomiast ostateczna decyzja w tej sprawie należy do <math>\displaystyle V</math>.


Komunikacja odbywa się naprzemiennie: Funkcja <math>\displaystyle V</math> generuje wiadomość,
Komunikacja odbywa się naprzemiennie: funkcja <math>\displaystyle V</math> generuje wiadomość,
przekazywaną funkcji <math>\displaystyle P</math> jako argument; funkcja <math>\displaystyle P</math> z kolei generuje odpowiedź przekazywaną funkcji <math>\displaystyle V</math> w następnej iteracji. Taka komunikacja odbywa się do momentu zaakceptowania lub odrzucenia słowa wejściowego przez funkcję <math>\displaystyle V</math>. W każdym kroku obie funkcje mają do dyspozycji zarówno słowo wejściowe, jak również pełną historię przekazanych dotychczas wiadomości.
przekazywaną funkcji <math>\displaystyle P</math> jako argument; funkcja <math>\displaystyle P</math> z kolei generuje odpowiedź przekazywaną funkcji <math>\displaystyle V</math> w następnej iteracji. Taka komunikacja odbywa się do momentu zaakceptowania lub odrzucenia słowa wejściowego przez funkcję <math>\displaystyle V</math>. W każdym kroku obie funkcje mają do dyspozycji zarówno słowo wejściowe, jak również pełną historię przekazanych dotychczas wiadomości.


Określmy teraz, co dokładnie oznaczają argumenty funkcji <math>\displaystyle V</math> i <math>\displaystyle P</math>. Argumenty funkcji <math>\displaystyle V</math> będziemy oznaczać w następujący sposób:
Określmy teraz, co dokładnie oznaczają argumenty funkcji <math>\displaystyle V</math> i <math>\displaystyle P</math>. Argumenty funkcji <math>\displaystyle V</math> będziemy oznaczać w następujący sposób:


<math>\displaystyle V(w, r, m_1 \# m_2 \# \ldots \# m_i)</math>
<math>\displaystyle V(w, r, m_1 \# m_2 \# \ldots \# m_i)</math>.


Mają one następujące znaczenie:
Mają one następujące znaczenie:
* <math>\displaystyle w</math> to słowo wejściowe,
* <math>\displaystyle w</math> to słowo wejściowe,
* <math>\displaystyle r</math> jest losowym ciągiem bitów,
* <math>\displaystyle r</math> jest losowym ciągiem bitów,
* <math>\displaystyle m_1 \# m_2 \# \ldots \# m_i</math> to konkatenacja dotychczasowych wiadomości, które zostały przekazane w procesie komunikacji (wiadomości o indeksach nieparzystych sa wynikami działania funkcji <math>\displaystyle V</math>, natomiast wiadomości o indeksach parzystych sa wynikami działania funkcji <math>\displaystyle P</math>).
* <math>\displaystyle m_1 \# m_2 \# \ldots \# m_i</math> to konkatenacja dotychczasowych wiadomości, które zostały przekazane w procesie komunikacji (wiadomości o indeksach nieparzystych wynikami działania funkcji <math>\displaystyle V</math>, natomiast wiadomości o indeksach parzystych wynikami działania funkcji <math>\displaystyle P</math>).


Zwróćmy uwagę, że <math>\displaystyle V</math> ma do dyspozycji losowe słowo <math>\displaystyle r</math>; w praktyce oznacza to,
Zwróćmy uwagę, że <math>\displaystyle V</math> ma do dyspozycji losowe słowo <math>\displaystyle r</math>; w praktyce oznacza to,
Linia 334: Linia 334:
Argumenty funkcji <math>\displaystyle P</math> będziemy oznaczać następująco:
Argumenty funkcji <math>\displaystyle P</math> będziemy oznaczać następująco:


<math>\displaystyle P(w, m_1 \# m_2 \# \ldots \# m_i)</math>
<math>\displaystyle P(w, m_1 \# m_2 \# \ldots \# m_i)</math>.


Ich znaczenie jest identyczne jak w przypadku argumentów funkcji <math>\displaystyle V</math>, nie ma wśród nich jednak słowa losowego.
Ich znaczenie jest identyczne jak w przypadku argumentów funkcji <math>\displaystyle V</math>, nie ma wśród nich jednak słowa losowego.
Linia 341: Linia 341:


{{definicja|2.2||
{{definicja|2.2||
Niech <math>\displaystyle L \subseteq \Sigma^\star</math>. Mówimy, że <math>\displaystyle L \in IP</math> wtedy i tylko wtedy gdy istnieje system dowodów interaktywnych <math>\displaystyle (V, P)</math> oraz wielomiany <math>\displaystyle p(n)</math> i <math>\displaystyle q(n)</math> takie, że dla każdego słowa wejściowego <math>\displaystyle w</math> oraz losowego słowa <math>\displaystyle r</math> o długości <math>\displaystyle p(|x|)</math>:
Niech <math>\displaystyle L \subseteq \Sigma^\star</math>. Mówimy, że <math>\displaystyle L \in IP</math> wtedy i tylko wtedy, gdy istnieje system dowodów interaktywnych <math>\displaystyle (V, P)</math> oraz wielomiany <math>\displaystyle p(n)</math> i <math>\displaystyle q(n)</math> takie, że dla każdego słowa wejściowego <math>\displaystyle w</math> oraz losowego słowa <math>\displaystyle r</math> o długości <math>\displaystyle p(|x|)</math>:
* system daje odpowiedź po co najwyżej <math>\displaystyle p(|x|)</math> krokach,
* system daje odpowiedź po co najwyżej <math>\displaystyle p(|x|)</math> krokach,
* w każdej iteracji czas działania maszyny obliczającej funkcję <math>\displaystyle V</math> jest ograniczony od góry przez <math>\displaystyle q(|x|)</math>,
* w każdej iteracji czas działania maszyny obliczającej funkcję <math>\displaystyle V</math> jest ograniczony od góry przez <math>\displaystyle q(|x|)</math>,
* długość każdej wiadomości <math>\displaystyle m_i</math> jest nie większa niż <math>\displaystyle p(|x|)</math>,
* długość każdej wiadomości <math>\displaystyle m_i</math> jest nie większa niż <math>\displaystyle p(|x|)</math>,
* jeżeli <math>\displaystyle w \in L</math> to prawdopodobieństwo zaakceptowania słowa przez system wynosi co najmniej <math>\displaystyle 2/3</math>,
* jeżeli <math>\displaystyle w \in L</math>, to prawdopodobieństwo zaakceptowania słowa przez system wynosi co najmniej <math>\displaystyle 2/3</math>,
* jeżeli <math>\displaystyle w \notin L</math> oraz <math>\displaystyle \bar P</math> jest dowolną funkcją o sygnaturze zgodnej z <math>\displaystyle P</math>, zwracającą wiadomości nie dłuższe niż <math>\displaystyle p(|x|)</math>, to system <math>\displaystyle (V, \bar P)</math> spełnia powyższe założenia na ilość iteracji, czas działania i długość wiadomości oraz akceptuje słowo <math>\displaystyle w</math> z prawdopodobieństwem nie większym niż <math>\displaystyle 1/3</math>.
* jeżeli <math>\displaystyle w \notin L</math> oraz <math>\displaystyle \bar P</math> jest dowolną funkcją o sygnaturze zgodnej z <math>\displaystyle P</math>, zwracającą wiadomości nie dłuższe niż <math>\displaystyle p(|x|)</math>, to system <math>\displaystyle (V, \bar P)</math> spełnia powyższe założenia na ilość iteracji, czas działania i długość wiadomości oraz akceptuje słowo <math>\displaystyle w</math> z prawdopodobieństwem nie większym niż <math>\displaystyle 1/3</math>.


Linia 351: Linia 351:
}}
}}


Innymi słowy jeżeli słowo <math>\displaystyle w</math> należy do języka, to <math>\displaystyle V</math> z dużym prawdopodobieństwem
Innymi słowy, jeżeli słowo <math>\displaystyle w</math> należy do języka, to <math>\displaystyle V</math> z dużym prawdopodobieństwem
da się przekonać o tej przynależności przez pewną ustaloną funkcję <math>\displaystyle P</math>. Jeżeli
da się przekonać o tej przynależności przez pewną ustaloną funkcję <math>\displaystyle P</math>. Jeżeli
jednak <math>\displaystyle w</math> nie należy do <math>\displaystyle L</math>, to <math>\displaystyle V</math> nie da się oszukać ''żadnej'' funkcji
jednak <math>\displaystyle w</math> nie należy do <math>\displaystyle L</math>, to <math>\displaystyle V</math> nie da się oszukać ''żadnej'' funkcji
Linia 358: Linia 358:
{{uwaga|2.3||
{{uwaga|2.3||
Zwróćmy jeszcze uwagę, że branie pod uwagę tylko takich funkcji <math>\displaystyle \bar P</math>, które
Zwróćmy jeszcze uwagę, że branie pod uwagę tylko takich funkcji <math>\displaystyle \bar P</math>, które
nie zwracają zbyt długich słów nie jest istotnym ograniczeniem; funkcja <math>\displaystyle V</math>
nie zwracają zbyt długich słów, nie jest istotnym ograniczeniem; funkcja <math>\displaystyle V</math>
może w każdym kroku sprawdzać, czy odpowiedź funkcji <math>\displaystyle \bar P</math> nie jest zbyt
może w każdym kroku sprawdzać, czy odpowiedź funkcji <math>\displaystyle \bar P</math> nie jest zbyt
długa i jeśli tak to odrzucać słowo. W dalszej części rozdziału będziemy
długa i jeśli tak, to odrzucać słowo. W dalszej części rozdziału będziemy
zakładali takie właśnie zachowanie funkcji <math>\displaystyle V</math>.
zakładali takie właśnie zachowanie funkcji <math>\displaystyle V</math>.
}}
}}


Widzimy zatem, że funkcja <math>\displaystyle V</math> musi być zabezpieczona przed oszustwami; jeżeli <math>\displaystyle V</math> mogłaby zaufać funkcji <math>\displaystyle P</math> to mogłaby rozwiązać każdy problem decyzyjny -- wystarczyłoby po prostu skorzystać z nieograniczonej mocy obliczeniowej <math>\displaystyle P</math>.
Widzimy zatem, że funkcja <math>\displaystyle V</math> musi być zabezpieczona przed oszustwami; jeżeli <math>\displaystyle V</math> mogłaby zaufać funkcji <math>\displaystyle P</math>, to mogłaby rozwiązać każdy problem decyzyjny -- wystarczyłoby po prostu skorzystać z nieograniczonej mocy obliczeniowej <math>\displaystyle P</math>.
W naszym przypadku jednak nie wystarczy aby <math>\displaystyle P</math> tylko rozwiązała problem decyzyjny -- musi jeszcze przekonać <math>\displaystyle V</math> do swojego rozwiązania.
W naszym przypadku jednak nie wystarczy, aby <math>\displaystyle P</math> tylko rozwiązała problem decyzyjny -- musi jeszcze przekonać <math>\displaystyle V</math> do swojego rozwiązania.


{{przyklad|2.4||
{{przyklad|2.4||
Rozważmy problem <math>\displaystyle NON-GRAPH-ISO</math>. Jest on zdefiniowany następująco:
Rozważmy problem <math>\displaystyle NON-GRAPH-ISO</math>. Jest on zdefiniowany następująco:


<math>\displaystyle NON-GRAPH-ISO = \{ \langle G, H \rangle: </math> grafy <math>\displaystyle G</math> i <math>\displaystyle H</math> nie są izomorficzne <math>\displaystyle \}</math>
<math>\displaystyle NON-GRAPH-ISO = \{ \langle G, H \rangle: </math> grafy <math>\displaystyle G</math> i <math>\displaystyle H</math> nie są izomorficzne <math>\displaystyle \}</math>.


Łatwo sie przekonać, że problem izomorfizmu grafów jest w klasie <math>\displaystyle NP</math> -- wystarczy zgadnąć odpowiednią permutację wierzchołków, po czym zweryfikować ją w trywialny sposób. <math>\displaystyle NON-GRAPH-ISO</math> należy zatem do <math>\displaystyle coNP</math>. Nie jest jednak obecnie znana odpowiedź na pytanie o przynależność tego problemu do
Łatwo sie przekonać, że problem izomorfizmu grafów jest w klasie <math>\displaystyle NP</math> -- wystarczy zgadnąć odpowiednią permutację wierzchołków, po czym zweryfikować ją w trywialny sposób. <math>\displaystyle NON-GRAPH-ISO</math> należy zatem do <math>\displaystyle coNP</math>. Nie jest jednak obecnie znana odpowiedź na pytanie o przynależność tego problemu do
Linia 385: Linia 385:


<div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Rozwiązanie </span><div class="mw-collapsible-content" style="display:none">   
<div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Rozwiązanie </span><div class="mw-collapsible-content" style="display:none">   
Zachowanie <math>\displaystyle V</math> powinno być następujące: Jeżeli <math>\displaystyle P</math> pomyli się w odpowiedzi, <math>\displaystyle V</math> powinno odrzucić parę grafów -- czyli stwierdzić, że są izomorficzne.
Zachowanie <math>\displaystyle V</math> powinno być następujące. Jeżeli <math>\displaystyle P</math> pomyli się w odpowiedzi, <math>\displaystyle V</math> powinno odrzucić parę grafów -- czyli stwierdzić, że są izomorficzne.
<math>\displaystyle V</math> powinno zaakceptować grafy -- czyli stwierdzić, że nie są izomorficzne -- jeżeli <math>\displaystyle P</math> dwukrotnie poprawnie odgadnie, który graf został wylosowany przez <math>\displaystyle V</math>. Pokażemy teraz, że system ten rozpoznaje <math>\displaystyle NON-GRAPH-ISO</math>. Załóżmy, że grafy wejściowe nie są izomorficzne. W tym przypadku łatwo wskazać funkcję <math>\displaystyle P</math>, która zawsze będzie udzielała prawidłowej odpowiedzi; prawdopodobieństwo akceptacji wyniesie zatem <math>\displaystyle 1</math>. Pozostaje jeszcze tylko pokazać, że jeżeli grafy nie są izomorficzne, to <math>\displaystyle V</math> nie da się oszukać żadnej funkcji <math>\displaystyle \bar P</math>.
<math>\displaystyle V</math> powinno zaakceptować grafy -- czyli stwierdzić, że nie są izomorficzne -- jeżeli <math>\displaystyle P</math> dwukrotnie poprawnie odgadnie, który graf został wylosowany przez <math>\displaystyle V</math>. Pokażemy teraz, że system ten rozpoznaje <math>\displaystyle NON-GRAPH-ISO</math>. Załóżmy, że grafy wejściowe nie są izomorficzne. W tym przypadku łatwo wskazać funkcję <math>\displaystyle P</math>, która zawsze będzie udzielała prawidłowej odpowiedzi; prawdopodobieństwo akceptacji wyniesie zatem <math>\displaystyle 1</math>. Pozostaje jeszcze tylko pokazać, że jeżeli grafy nie są izomorficzne, to <math>\displaystyle V</math> nie da się oszukać żadnej funkcji <math>\displaystyle \bar P</math>.
Funkcja <math>\displaystyle \bar P</math> nie ma jednak żadnej możliwości sprawdzenia, który graf został wybrany. Niezależnie zatem jak się zachowa, prawdopodobieństwo udzielenia
Funkcja <math>\displaystyle \bar P</math> nie ma jednak żadnej możliwości sprawdzenia, który graf został wybrany. Niezależnie zatem jak się zachowa, prawdopodobieństwo udzielenia
Linia 409: Linia 409:


<div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Rozwiązanie </span><div class="mw-collapsible-content" style="display:none">   
<div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Rozwiązanie </span><div class="mw-collapsible-content" style="display:none">   
Zauważmy najpierw, że z tak określone protokoły komunikacyjne są w pełni deterministyczne (w tym sensie, że pozbawione są losowości). Zatem dla ustalonego systemu <math>\displaystyle (V, P)</math> i ustalonego słowa wejściowego odpowiedź protokołu zawsze jest taka sama.
Zauważmy najpierw, że tak określone protokoły komunikacyjne są w pełni deterministyczne (w tym sensie, że pozbawione są losowości). Zatem dla ustalonego systemu <math>\displaystyle (V, P)</math> i ustalonego słowa wejściowego odpowiedź protokołu zawsze jest taka sama.


Łatwo się przekonać, że za pomocą opisanych powyżej systemów można rozpoznać dowolny język z klasy <math>\displaystyle NP</math>. Protokół wygląda w następujący sposób: Dla zadanego
Łatwo się przekonać, że za pomocą opisanych powyżej systemów można rozpoznać dowolny język z klasy <math>\displaystyle NP</math>. Protokół wygląda w następujący sposób: dla zadanego
słowa wejściowego <math>\displaystyle w</math> funkcja <math>\displaystyle P</math> zwraca świadka jego przynależności do rozważanego języka. Funkcja <math>\displaystyle V</math> następnie weryfikuje świadka w sposób deterministyczny w czasie wielomianowym i na tej podstawie udziela odpowiedzi. Jest jasne, że w przypadku gdy <math>\displaystyle w</math> należy do rozważanego języka, odpowiednia funkcja <math>\displaystyle P</math> jest w stanie przekonać <math>\displaystyle V</math> o tej przynależności -- ponieważ nie ma żadnych restrykcji na złożoność funkcji <math>\displaystyle P</math>, może ona po prostu rozważyć
słowa wejściowego <math>\displaystyle w</math> funkcja <math>\displaystyle P</math> zwraca świadka jego przynależności do rozważanego języka. Funkcja <math>\displaystyle V</math> następnie weryfikuje świadka w sposób deterministyczny w czasie wielomianowym i na tej podstawie udziela odpowiedzi. Jest jasne, że w przypadku, gdy <math>\displaystyle w</math> należy do rozważanego języka, odpowiednia funkcja <math>\displaystyle P</math> jest w stanie przekonać <math>\displaystyle V</math> o tej przynależności -- ponieważ nie ma żadnych restrykcji na złożoność funkcji <math>\displaystyle P</math>, może ona po prostu rozważyć
wszystkich możliwych kandydatów na świadków o pewnej ustalonej z góry długości. Ponadto jeśli <math>\displaystyle w</math> nie należy do rozważanego języka to <math>\displaystyle V</math> jest w stanie wykryć każdą próbę oszustwa.
wszystkich możliwych kandydatów na świadków o pewnej ustalonej z góry długości. Ponadto jeśli <math>\displaystyle w</math> nie należy do rozważanego języka, to <math>\displaystyle V</math> jest w stanie wykryć każdą próbę oszustwa.


Pokażemy teraz, że każdy język rozpoznawalny przez systemy opisane w treści zadania należy do <math>\displaystyle NP</math>. Ustalmy zatem pewien język <math>\displaystyle L</math> i rozpoznający go system <math>\displaystyle (V, P)</math>. Załóżmy bez straty ogólności, że system ten dla słowa wejściowego <math>\displaystyle w</math> wykonuje dokładnie <math>\displaystyle p(|w|)</math> kroków, oraz że każda przekazywana wiadomość ma długość <math>\displaystyle p(|w|)</math>. Zdefiniujmy teraz niedeterministyczną maszynę Turinga
Pokażemy teraz, że każdy język rozpoznawalny przez systemy opisane w treści zadania należy do <math>\displaystyle NP</math>. Ustalmy zatem pewien język <math>\displaystyle L</math> i rozpoznający go system <math>\displaystyle (V, P)</math>. Załóżmy bez straty ogólności, że system ten dla słowa wejściowego <math>\displaystyle w</math> wykonuje dokładnie <math>\displaystyle p(|w|)</math> kroków oraz że każda przekazywana wiadomość ma długość <math>\displaystyle p(|w|)</math>. Zdefiniujmy teraz niedeterministyczną maszynę Turinga
<math>\displaystyle M</math>, rozpoznającą język <math>\displaystyle L</math>. Załóżmy, że maszyna oprócz taśmy roboczej ma też (początkowo pustą) taśmę służącą do przechowywania kolejnych komunikatów. Działanie maszyny <math>\displaystyle M</math> będzie podzielone na fazy; w fazach nieparzystych maszyna będzie symulować działanie funkcji <math>\displaystyle V</math> -- to znaczy <math>\displaystyle M</math> przeczyta historię wysłanych dotychczas wiadomości i słowo wejściowe, i na tej podstawie dopisze kolejną wiadomość. W fazach parzystych maszyna <math>\displaystyle M</math> w sposób niedeterministyczny wygeneruje wiadomość o długości <math>\displaystyle p(|w|)</math> i dopisze ją na taśmę. W przypadku, gdy <math>\displaystyle w \in L</math> łatwo wskazać ścieżkę postępowania dla tej maszyny, która doprowadzi do akceptacji; będzie to ścieżka, w której wygenerowane w fazach parzystych wiadomości pokrywają się z odpowiedziami udzielanymi przez funkcję <math>\displaystyle P</math>. Rozważmy teraz przypadek <math>\displaystyle w \notin L</math>. Załóżmy nie wprost, że istnieje taka ścieżka postępowania maszyny <math>\displaystyle M</math>, która doprowadzi
<math>\displaystyle M</math>, rozpoznającą język <math>\displaystyle L</math>. Załóżmy, że maszyna oprócz taśmy roboczej ma też (początkowo pustą) taśmę służącą do przechowywania kolejnych komunikatów. Działanie maszyny <math>\displaystyle M</math> będzie podzielone na fazy; w fazach nieparzystych maszyna będzie symulować działanie funkcji <math>\displaystyle V</math> -- to znaczy <math>\displaystyle M</math> przeczyta historię wysłanych dotychczas wiadomości i słowo wejściowe, i na tej podstawie dopisze kolejną wiadomość. W fazach parzystych maszyna <math>\displaystyle M</math> w sposób niedeterministyczny wygeneruje wiadomość o długości <math>\displaystyle p(|w|)</math> i dopisze ją na taśmę. W przypadku, gdy <math>\displaystyle w \in L</math> łatwo wskazać ścieżkę postępowania dla tej maszyny, która doprowadzi do akceptacji; będzie to ścieżka, w której wygenerowane w fazach parzystych wiadomości pokrywają się z odpowiedziami udzielanymi przez funkcję <math>\displaystyle P</math>. Rozważmy teraz przypadek <math>\displaystyle w \notin L</math>. Załóżmy nie wprost, że istnieje taka ścieżka postępowania maszyny <math>\displaystyle M</math>, która doprowadzi
do akceptacji tego słowa. W takim przypadku możemy jednak utworzyć funkcję <math>\displaystyle \bar P</math>, która będzie zwracała wiadomości wygenerowane w fazach parzystych postępowania maszyny <math>\displaystyle M</math>. W tym przypadku funkcja <math>\displaystyle V</math> da się oszukać funkcji <math>\displaystyle \bar P</math> dla słowa <math>\displaystyle w</math> z prawdopodobieństwem równym 1 -- a zatem system <math>\displaystyle (V, P)</math> nie będzie rozpoznawał języka <math>\displaystyle L</math>, co jest sprzeczne z założeniem.
do akceptacji tego słowa. W takim przypadku możemy jednak utworzyć funkcję <math>\displaystyle \bar P</math>, która będzie zwracała wiadomości wygenerowane w fazach parzystych postępowania maszyny <math>\displaystyle M</math>. W tym przypadku funkcja <math>\displaystyle V</math> da się oszukać funkcji <math>\displaystyle \bar P</math> dla słowa <math>\displaystyle w</math> z prawdopodobieństwem równym 1 -- a zatem system <math>\displaystyle (V, P)</math> nie będzie rozpoznawał języka <math>\displaystyle L</math>, co jest sprzeczne z założeniem.
Linia 422: Linia 422:
</div></div>
</div></div>


Możemy w tym momencie przypuszczać, że klasa <math>\displaystyle IP</math> jest znacząco większa od klasy <math>\displaystyle NP</math>. Nie wiemy obecnie czy przypuszczenie to jest prawdziwe; przemawia jednak za nim poniższe twierdzenie.
Możemy w tym momencie przypuszczać, że klasa <math>\displaystyle IP</math> jest znacząco większa od klasy <math>\displaystyle NP</math>. Nie wiemy obecnie, czy przypuszczenie to jest prawdziwe; przemawia jednak za nim poniższe twierdzenie.


{{twierdzenie|2.8||
{{twierdzenie|2.8||
Linia 434: Linia 434:
Załóżmy, że system <math>\displaystyle (V, P')</math> akceptuje wybrany język w czasie wielomianowym.
Załóżmy, że system <math>\displaystyle (V, P')</math> akceptuje wybrany język w czasie wielomianowym.


Ustalmy słowo <math>\displaystyle w</math>. Będziemy mówić, że ciąg wiadomości <math>\displaystyle m_1\#m_2\#\ldots\#m_i</math> jest zgodny ze słowem losowym <math>\displaystyle r</math> jeżeli stanowi on historię wiadomości po
Ustalmy słowo <math>\displaystyle w</math>. Będziemy mówić, że ciąg wiadomości <math>\displaystyle m_1\#m_2\#\ldots\#m_i</math> jest zgodny ze słowem losowym <math>\displaystyle r</math>, jeżeli stanowi on historię wiadomości po
<math>\displaystyle i</math> iteracjach pewnego systemu <math>\displaystyle (V, P'')</math>, używającego słowa losowego <math>\displaystyle r</math>.
<math>\displaystyle i</math> iteracjach pewnego systemu <math>\displaystyle (V, P'')</math> używającego słowa losowego <math>\displaystyle r</math>.
Warto zauważyć, że ciąg wiadomości może być zgodny z wieloma słowami losowymi (na przykład ciąg pusty jest zgodny z każdym słowem losowym), a słowo losowe może być zgodne z różnymi ciągami wiadomości (w zależności od funkcji <math>\displaystyle P''</math>).
Warto zauważyć, że ciąg wiadomości może być zgodny z wieloma słowami losowymi (na przykład ciąg pusty jest zgodny z każdym słowem losowym), a słowo losowe może być zgodne z różnymi ciągami wiadomości (w zależności od funkcji <math>\displaystyle P''</math>).


Zdefiniujmy teraz funkcję <math>\displaystyle P</math> w taki sposób, by miała ona następującą własność:
Zdefiniujmy teraz funkcję <math>\displaystyle P</math> w taki sposób, by miała ona następującą własność:


<math>\displaystyle \forall_w Pr((V, P)</math> akceptuje <math>\displaystyle w) = max_{P''} Pr((V, P'')</math> akceptuje <math>\displaystyle w)</math>
<math>\displaystyle \forall_w Pr((V, P)</math> akceptuje <math>\displaystyle w) = max_{P''} Pr((V, P'')</math> akceptuje <math>\displaystyle w)</math>.


Funkcja <math>\displaystyle P</math> zatem dla każdego słowa wejściowego zachowuje się w najlepszy możliwy sposób. Jest ona dobrze zdefiniowana, gdyż dla każdego wejściowego
Funkcja <math>\displaystyle P</math> zatem dla każdego słowa wejściowego zachowuje się w najlepszy możliwy sposób. Jest ona dobrze zdefiniowana, gdyż dla każdego wejściowego
Linia 447: Linia 447:
Jest jasne, że <math>\displaystyle (V, P)</math> również akceptuje wybrany język w czasie wielomianowym -- od tej pory będziemy się zatem zajmowali tym konkretnym systemem. Nasz
Jest jasne, że <math>\displaystyle (V, P)</math> również akceptuje wybrany język w czasie wielomianowym -- od tej pory będziemy się zatem zajmowali tym konkretnym systemem. Nasz
algorytm będzie dla każdego słowa wejściowego wprost obliczał prawdopodobieństwo
algorytm będzie dla każdego słowa wejściowego wprost obliczał prawdopodobieństwo
zaakceptowania go przez system <math>\displaystyle (V, P)</math>; tym samym, w zależności od wyniku, będzie mógł okreslić, czy słowo wejściowe należy do języka. Dla uproszczenia
zaakceptowania go przez system <math>\displaystyle (V, P)</math>; tym samym, w zależności od wyniku, będzie mógł określić, czy słowo wejściowe należy do języka. Dla uproszczenia
założymy, że system <math>\displaystyle (V, P)</math> daje odpowiedzi po dokładnie <math>\displaystyle p(|x|)</math> krokach.
założymy, że system <math>\displaystyle (V, P)</math> daje odpowiedzi po dokładnie <math>\displaystyle p(|x|)</math> krokach.


Zdefiniujmy teraz funkcję, mierzącą prawdopodobieństwo akceptacji słowa przez
Zdefiniujmy teraz funkcję mierzącą prawdopodobieństwo akceptacji słowa przez
system <math>\displaystyle (V, P)</math> przy ustalonej częściowej historii komunikacji:
system <math>\displaystyle (V, P)</math> przy ustalonej częściowej historii komunikacji:


<math>\displaystyle N(m_1\#m_2\#\ldots\#m_i) = Pr(</math>słowo <math>\displaystyle w</math> zostanie zaakceptowane pod warunkiem, że dotychczasowe komunikaty reprezentowane są przez <math>\displaystyle m_1\#m_2\#\ldots\#m_i)</math>
<math>\displaystyle N(m_1\#m_2\#\ldots\#m_i) = Pr(</math>słowo <math>\displaystyle w</math> zostanie zaakceptowane pod warunkiem, że dotychczasowe komunikaty reprezentowane są przez <math>\displaystyle m_1\#m_2\#\ldots\#m_i)</math>.


W przypadku, gdy nie ma słowa losowego zgodnego z <math>\displaystyle m_1\#m_2\#\ldots\#m_i</math>,
W przypadku, gdy nie ma słowa losowego zgodnego z <math>\displaystyle m_1\#m_2\#\ldots\#m_i</math>,
Linia 460: Linia 460:
* jeżeli <math>\displaystyle m_{p(|x|)} = accept</math> i <math>\displaystyle m_1\#m_2 \#\ldots\#m_{p(|x|)}</math> jest zgodne z pewnym słowem losowym, to
* jeżeli <math>\displaystyle m_{p(|x|)} = accept</math> i <math>\displaystyle m_1\#m_2 \#\ldots\#m_{p(|x|)}</math> jest zgodne z pewnym słowem losowym, to


<math>\displaystyle N(m_1\#m_2\#\ldots\#m_{p(|x|)}) = 1</math>
<math>\displaystyle N(m_1\#m_2\#\ldots\#m_{p(|x|)}) = 1</math>,


* w przeciwnym przypadku
* w przeciwnym przypadku


<math>\displaystyle N(m_1\#m_2\#\ldots\#m_{p(|x|)}) = 0</math>
<math>\displaystyle N(m_1\#m_2\#\ldots\#m_{p(|x|)}) = 0</math>.


Do obliczania wartości <math>\displaystyle N</math> dla mniejszej ilości kroków, możemy posłużyć się następującym wzorem rekurencyjnym:
Do obliczania wartości <math>\displaystyle N</math> dla mniejszej ilości kroków, możemy posłużyć się następującym wzorem rekurencyjnym:
* jeżeli <math>\displaystyle i</math> jest nieparzyste, to
* jeżeli <math>\displaystyle i</math> jest nieparzyste, to


<math>\displaystyle N(m_1\#m_2\#\ldots\#m_i) = \max_{m_{i+1}} N(m_1\#m_2\#\ldots\#m_{i+1}) </math>
<math>\displaystyle N(m_1\#m_2\#\ldots\#m_i) = \max_{m_{i+1}} N(m_1\#m_2\#\ldots\#m_{i+1}) </math>,


* jeżeli <math>\displaystyle i</math> jest parzyste, to
* jeżeli <math>\displaystyle i</math> jest parzyste, to


<math>\displaystyle N(m_1\#m_2\#\ldots\#m_i) = \sum_{m_{i+1}} Pr(m_{i+1}|m_1\#m_2\#\ldots\#m_i) \cdot N(m_1\#m_2\#\ldots\#m_{i+1}) </math>
<math>\displaystyle N(m_1\#m_2\#\ldots\#m_i) = \sum_{m_{i+1}} Pr(m_{i+1}|m_1\#m_2\#\ldots\#m_i) \cdot N(m_1\#m_2\#\ldots\#m_{i+1}) </math>.


Wzór ten jest konsekwencją zachowania <math>\displaystyle P</math> i <math>\displaystyle V</math>: <math>\displaystyle P</math> w każdym kroku maksymalizuje
Wzór ten jest konsekwencją zachowania <math>\displaystyle P</math> i <math>\displaystyle V</math>: <math>\displaystyle P</math> w każdym kroku maksymalizuje
prawdopodobieństwo akceptacji, natomiast zachowanie <math>\displaystyle V</math> zależne jest od historii wiadomości i słowa losowego.
prawdopodobieństwo akceptacji, natomiast zachowanie <math>\displaystyle V</math> zależne jest od historii wiadomości i słowa losowego.


W tym momencie wystarczą dwa spostrzeżenia; po pierwsze <math>\displaystyle N(\epsilon)</math> jest poszukiwanym przez nas prawdopodobieństwem zaakceptowania przez system <math>\displaystyle (V, P)</math> słowa <math>\displaystyle w</math>. Po drugie <math>\displaystyle N(\epsilon)</math> jest obliczalne w pamięci wielomianowej:
W tym momencie wystarczą dwa spostrzeżenia. Po pierwsze, <math>\displaystyle N(\epsilon)</math> jest poszukiwanym przez nas prawdopodobieństwem zaakceptowania przez system <math>\displaystyle (V, P)</math> słowa <math>\displaystyle w</math>. Po drugie, <math>\displaystyle N(\epsilon)</math> jest obliczalne w pamięci wielomianowej:
Każde rekurencyjne wywołanie funkcji <math>\displaystyle N</math> powoduje sekwencyjne rozważenie wszystkich możliwych odpowiedzi, których długość jest jednak ograniczona od góry przez <math>\displaystyle p(|x|)</math>. Dodatkowo przy obliczeniach na poziomie zagłębienia <math>\displaystyle p(|x|)</math> należy rozważyć wszystkie możliwe słowa losowe i sprawdzić ich zgodność z aktualnie rozważanym ciągiem komunikatów. Wszystkie te operacje można wykonać
każde rekurencyjne wywołanie funkcji <math>\displaystyle N</math> powoduje sekwencyjne rozważenie wszystkich możliwych odpowiedzi, których długość jest jednak ograniczona od góry przez <math>\displaystyle p(|x|)</math>. Dodatkowo przy obliczeniach na poziomie zagłębienia <math>\displaystyle p(|x|)</math> należy rozważyć wszystkie możliwe słowa losowe i sprawdzić ich zgodność z aktualnie rozważanym ciągiem komunikatów. Wszystkie te operacje można wykonać
z użyciem <math>\displaystyle O(p(|x|)^2)</math> komórek pamięci.
z użyciem <math>\displaystyle O(p(|x|)^2)</math> komórek pamięci.


Linia 486: Linia 486:


Dowód zawierania w drugą stronę odbywa się poprzez przedstawienie protokołu
Dowód zawierania w drugą stronę odbywa się poprzez przedstawienie protokołu
komunikacji dla problemu <math>\displaystyle QSAT</math>. Aby przybliżyć stosowaną w tym protokole technikę, zaprezentujemy najpierw dowód przynależności do klasy <math>\displaystyle IP</math> problemu <math>\displaystyle \#SAT(D)</math>, będącego wersją decyzyjną problemu <math>\displaystyle \#SAT</math>:
komunikacji dla problemu <math>\displaystyle QSAT</math>. Aby przybliżyć stosowaną w tym protokole technikę, zaprezentujemy najpierw dowód przynależności do klasy <math>\displaystyle IP</math> problemu <math>\displaystyle \#SAT(D)</math> będącego wersją decyzyjną problemu <math>\displaystyle \#SAT</math>:


{{definicja|2.9||
{{definicja|2.9||
<math>\displaystyle \#SAT(D) = \{ \langle \phi, k \rangle:</math> liczba wartościowań spełniających dla
<math>\displaystyle \#SAT(D) = \{ \langle \phi, k \rangle:</math> liczba wartościowań spełniających dla
formuły <math>\displaystyle \phi</math> jest nie mniejsza niż <math>\displaystyle k \}</math>
formuły <math>\displaystyle \phi</math> jest nie mniejsza niż <math>\displaystyle k \}</math>.
}}
}}


Linia 506: Linia 506:
Niech <math>\displaystyle \phi</math> będzie formułą z <math>\displaystyle m</math> zmiennymi, natomiast <math>\displaystyle W(x_1, \ldots, x_m)</math>
Niech <math>\displaystyle \phi</math> będzie formułą z <math>\displaystyle m</math> zmiennymi, natomiast <math>\displaystyle W(x_1, \ldots, x_m)</math>
wielomianem otrzymanych w sposób przedstawiony powyżej. Weźmy dowolne
wielomianem otrzymanych w sposób przedstawiony powyżej. Weźmy dowolne
wartościowanie zmiennych formuły <math>\displaystyle \phi</math> i podstawmy je do wielomianu <math>\displaystyle W</math> (to znaczy podstawmy 0 gdy zmienna jest wartościowana na "fałsz" i
wartościowanie zmiennych formuły <math>\displaystyle \phi</math> i podstawmy je do wielomianu <math>\displaystyle W</math> (to znaczy podstawmy 0, gdy zmienna jest wartościowana na "fałsz" i
1 w przeciwnym przypadku). Pokaż, że wartość wielomianu <math>\displaystyle W</math> jest równa 1 gdy wybrane wartościowanie jest wartościowaniem spełniającym dla <math>\displaystyle \phi</math> oraz 0 w przeciwnym przypadku.
1 w przeciwnym przypadku). Pokaż, że wartość wielomianu <math>\displaystyle W</math> jest równa 1, gdy wybrane wartościowanie jest wartościowaniem spełniającym dla <math>\displaystyle \phi</math> oraz 0 w przeciwnym przypadku.
}}
}}


Linia 517: Linia 517:
Indukcja będzie zdefiniowana ze względu na ilość literałów w formule. Niech
Indukcja będzie zdefiniowana ze względu na ilość literałów w formule. Niech
<math>\displaystyle \phi</math> będzie formułą z jednym literałem. Będzie ona zatem postaci <math>\displaystyle \phi = x</math>
<math>\displaystyle \phi</math> będzie formułą z jednym literałem. Będzie ona zatem postaci <math>\displaystyle \phi = x</math>
lub <math>\displaystyle \phi = \neg x</math>. Po zastosowaniu procesu arytmetyzacji, wielomian będzie
lub <math>\displaystyle \phi = \neg x</math>. Po zastosowaniu procesu arytmetyzacji wielomian będzie
miał postać odpowiednio <math>\displaystyle W(x) = x</math> lub <math>\displaystyle W(x) = (1 - x)</math>. Jest zatem jasne,
miał postać odpowiednio <math>\displaystyle W(x) = x</math> lub <math>\displaystyle W(x) = (1 - x)</math>. Jest zatem jasne,
że dla wartościowania zmiennej <math>\displaystyle x</math> na "fałsz" wartości wielomianów wynoszą
że dla wartościowania zmiennej <math>\displaystyle x</math> na "fałsz" wartości wielomianów wynoszą
Linia 531: Linia 531:
spełniającym dla formuły <math>\displaystyle \phi</math>; jest ono zatem wartościowaniem spełniającym
spełniającym dla formuły <math>\displaystyle \phi</math>; jest ono zatem wartościowaniem spełniającym
dla <math>\displaystyle \alpha</math> i <math>\displaystyle \beta</math>. Formuły <math>\displaystyle \alpha</math> i <math>\displaystyle \beta</math> mają co najwyżej <math>\displaystyle n-1</math>
dla <math>\displaystyle \alpha</math> i <math>\displaystyle \beta</math>. Formuły <math>\displaystyle \alpha</math> i <math>\displaystyle \beta</math> mają co najwyżej <math>\displaystyle n-1</math>
literałów -- korzystając z założenia indukcyjnego możemy stwierdzić, że
literałów -- korzystając z założenia indukcyjnego, możemy stwierdzić, że:


<math>\displaystyle W_\alpha(a_1,\ldots,a_m) = W_\beta(a_1,\ldots,a_m) = 1</math>  
<math>\displaystyle W_\alpha(a_1,\ldots,a_m) = W_\beta(a_1,\ldots,a_m) = 1</math>.


W związku z tym
W związku z tym:


<math>\displaystyle W(a_1,\ldots,a_m) = 1</math>  
<math>\displaystyle W(a_1,\ldots,a_m) = 1</math>.


Załóżmy teraz, że <math>\displaystyle a_1,\ldots,a_m</math> nie jest wartościowaniem spełniającym
Załóżmy teraz, że <math>\displaystyle a_1,\ldots,a_m</math> nie jest wartościowaniem spełniającym
dla <math>\displaystyle \phi</math>. Nie jest zatem wartościowaniem spełniającym dla przynajmniej
dla <math>\displaystyle \phi</math>. Nie jest zatem wartościowaniem spełniającym dla przynajmniej
jednej z formuł <math>\displaystyle \alpha</math> lub <math>\displaystyle \beta</math>. W związku z tym zachodzi własnosć:
jednej z formuł <math>\displaystyle \alpha</math> lub <math>\displaystyle \beta</math>. W związku z tym zachodzi własność:


<math>\displaystyle W_\alpha(a_1,\ldots,a_m) = 0</math>  
<math>\displaystyle W_\alpha(a_1,\ldots,a_m) = 0</math>  
Linia 547: Linia 547:
lub
lub


<math>\displaystyle W_\beta(a_1,\ldots,a_m) = 0</math>  
<math>\displaystyle W_\beta(a_1,\ldots,a_m) = 0</math>.


W konsekwencji  
W konsekwencji:


<math>\displaystyle W(a_1,\ldots,a_m) = 0</math>  
<math>\displaystyle W(a_1,\ldots,a_m) = 0</math>.


Dowód przypadku gdy <math>\displaystyle \phi = \alpha \vee \beta</math> jest analogiczny.  
Dowód przypadku, gdy <math>\displaystyle \phi = \alpha \vee \beta</math>, jest analogiczny.  
</div></div>
</div></div>


Linia 582: Linia 582:
W przypadku, gdy <math>\displaystyle \phi = \alpha \vee \beta</math>, wielomian <math>\displaystyle W</math> jest postaci:
W przypadku, gdy <math>\displaystyle \phi = \alpha \vee \beta</math>, wielomian <math>\displaystyle W</math> jest postaci:


<math>\displaystyle W(\ldots) = 1 - (1 - W_\alpha(\ldots))\cdot(1 - W_\beta(\ldots))</math>  
<math>\displaystyle W(\ldots) = 1 - (1 - W_\alpha(\ldots))\cdot(1 - W_\beta(\ldots))</math>.


Po dokonaniu mnożenia otrzymamy:
Po dokonaniu mnożenia otrzymamy:


<math>\displaystyle W(\ldots) = W_\alpha (\ldots) + W_\beta (\ldots) - W_\alpha (\ldots) \cdot W_\beta(\ldots)</math>  
<math>\displaystyle W(\ldots) = W_\alpha (\ldots) + W_\beta (\ldots) - W_\alpha (\ldots) \cdot W_\beta(\ldots)</math>.


Jest zatem jasne, że stopień <math>\displaystyle W</math> jako zmiennej <math>\displaystyle x_i</math> jest nie większy niż
Jest zatem jasne, że stopień <math>\displaystyle W</math> jako zmiennej <math>\displaystyle x_i</math> jest nie większy niż
Linia 634: Linia 634:


W tym momencie jesteśmy gotowi do przedstawienia protokołu dla <math>\displaystyle \#SAT(D)</math>:
W tym momencie jesteśmy gotowi do przedstawienia protokołu dla <math>\displaystyle \#SAT(D)</math>:
* Krok 1 (P): Znajdź liczbę pierwszą <math>\displaystyle p</math> z przedziału <math>\displaystyle [2^n, 2^{n+1}]</math> oraz jej certyfikat pierwszości (taka liczba na pewno istnieje -- wynika to z twierdzenia Bertranda-Czebyszewa). Prześlij je jako wiadomość.
* Krok 1 (P): Znajdź liczbę pierwszą <math>\displaystyle p</math> z przedziału <math>\displaystyle [2^n, 2^{n+1}]</math> oraz jej certyfikat pierwszości (taka liczba na pewno istnieje -- wynika to z twierdzenia Bertranda--Czebyszewa). Prześlij je jako wiadomość.
* Krok 2 (V): Sprawdź poprawność liczby <math>\displaystyle p</math>, odrzuć słowo wejściowe jeśli <math>\displaystyle p</math> lub jej certyfikat są nieprawidłowe,
* Krok 2 (V): Sprawdź poprawność liczby <math>\displaystyle p</math>, odrzuć słowo wejściowe, jeśli <math>\displaystyle p</math> lub jej certyfikat są nieprawidłowe.
* Krok 3 (P): Oblicz <math>\displaystyle f_0()</math> i prześlij jako wiadomość,
* Krok 3 (P): Oblicz <math>\displaystyle f_0()</math> i prześlij jako wiadomość.
* Krok 4 (V): Sprawdź, czy <math>\displaystyle f_0() \geq k</math> -- jeśli nie to odrzuć słowo wejściowe,
* Krok 4 (V): Sprawdź, czy <math>\displaystyle f_0() \geq k</math> -- jeśli nie to odrzuć słowo wejściowe.
* Krok 5 (P): Oblicz <math>\displaystyle f_1(z)</math> (wielomian ze zmienną <math>\displaystyle z</math>) i prześlij jego współczynniki jako wiadomość,
* Krok 5 (P): Oblicz <math>\displaystyle f_1(z)</math> (wielomian ze zmienną <math>\displaystyle z</math>) i prześlij jego współczynniki jako wiadomość.
* Krok 6 (V): Sprawdź, czy <math>\displaystyle f_0() = f_1(0) + f_1(1)</math>. Wylosuj dowolną liczbę <math>\displaystyle r_1</math> z <math>\displaystyle {\mathbb Z}_p</math> i prześlij ją jako wiadomość,
* Krok 6 (V): Sprawdź, czy <math>\displaystyle f_0() = f_1(0) + f_1(1)</math>. Wylosuj dowolną liczbę <math>\displaystyle r_1</math> z <math>\displaystyle {\mathbb Z}_p</math> i prześlij ją jako wiadomość,
* Krok 7 (P): Oblicz <math>\displaystyle f_2(r_1, z)</math> (to też jest wielomian z jedną zmienną <math>\displaystyle z</math>) i prześlij jego współczynniki jako wiadomość,
* Krok 7 (P): Oblicz <math>\displaystyle f_2(r_1, z)</math> (to też jest wielomian z jedną zmienną <math>\displaystyle z</math>) i prześlij jego współczynniki jako wiadomość.
* Krok 8 (V): Sprawdź, czy <math>\displaystyle f_1(r_1)=f_2(r_1,0)+f_2(r_1,1)</math>. Wylosuj dowolną liczbę <math>\displaystyle r_2</math> z <math>\displaystyle {\mathbb Z}_p</math> i prześlij ją jako wiadomość,
* Krok 8 (V): Sprawdź, czy <math>\displaystyle f_1(r_1)=f_2(r_1,0)+f_2(r_1,1)</math>. Wylosuj dowolną liczbę <math>\displaystyle r_2</math> z <math>\displaystyle {\mathbb Z}_p</math> i prześlij ją jako wiadomość.
* <math>\displaystyle \cdots</math>
* <math>\displaystyle \cdots</math>
* Krok <math>\displaystyle 2m + 4</math> (V): Sprawdź, czy <math>\displaystyle f_{m-1}(r_1, \ldots, r_{m-1})=f_m(r_1,\ldots,r_{m-1},0)+f_m(r_1,\ldots,r_{m-1},1)</math>. Sprawdź, czy <math>\displaystyle f_m(r_1,\ldots,r_{m-1},z)</math> jest wielomianem otrzymanym przez arytmetyzację formuły <math>\displaystyle \phi</math> i podstawienie <math>\displaystyle r_1,\ldots,r_{m-1}</math> jako pierwszych <math>\displaystyle m-1</math> argumentów otrzymanego wielomianu. Jeżeli tak, to zaakceptuj słowo wejściowe, w przeciwnym przypadku je odrzuć.
* Krok <math>\displaystyle 2m + 4</math> (V): Sprawdź, czy <math>\displaystyle f_{m-1}(r_1, \ldots, r_{m-1})=f_m(r_1,\ldots,r_{m-1},0)+f_m(r_1,\ldots,r_{m-1},1)</math>. Sprawdź, czy <math>\displaystyle f_m(r_1,\ldots,r_{m-1},z)</math> jest wielomianem otrzymanym przez arytmetyzację formuły <math>\displaystyle \phi</math> i podstawienie <math>\displaystyle r_1,\ldots,r_{m-1}</math> jako pierwszych <math>\displaystyle m-1</math> argumentów otrzymanego wielomianu. Jeżeli tak, to zaakceptuj słowo wejściowe, w przeciwnym przypadku odrzuć je.


W przypadku gdy słowo wejściowe należy do <math>\displaystyle \#SAT(D)</math> jest jasne, że funkcja <math>\displaystyle P</math>
W przypadku, gdy słowo wejściowe należy do <math>\displaystyle \#SAT(D)</math>, jest jasne, że funkcja <math>\displaystyle P</math>,
postępująca zgodnie z powyższym protokołem zawsze przekona <math>\displaystyle V</math> o tej
postępująca zgodnie z powyższym protokołem, zawsze przekona <math>\displaystyle V</math> o tej
przynależności. Popatrzmy teraz, co się stanie, gdy słowo wejściowe nie należy
przynależności. Popatrzmy teraz, co się stanie, gdy słowo wejściowe nie należy
do <math>\displaystyle \#SAT(D)</math>; w tym przypadku wartość <math>\displaystyle f_0()</math> podana przez <math>\displaystyle \bar P</math> będzie
do <math>\displaystyle \#SAT(D)</math>; w tym przypadku wartość <math>\displaystyle f_0()</math> podana przez <math>\displaystyle \bar P</math> będzie
Linia 652: Linia 652:
W związku z tym przynajmniej jedna z wartości <math>\displaystyle f_1(0)</math> lub <math>\displaystyle f_1(1)</math> będzie
W związku z tym przynajmniej jedna z wartości <math>\displaystyle f_1(0)</math> lub <math>\displaystyle f_1(1)</math> będzie
różna od oczekiwanej -- <math>\displaystyle \bar {f_1}(0)</math> lub <math>\displaystyle \bar {f_1}(1)</math> -- a co za tym
różna od oczekiwanej -- <math>\displaystyle \bar {f_1}(0)</math> lub <math>\displaystyle \bar {f_1}(1)</math> -- a co za tym
idzie wielomian <math>\displaystyle f_1(z)</math> będzie różny od <math>\displaystyle \bar {f_1}(z)</math>. Pokażemy teraz fakt,
idzie wielomian <math>\displaystyle f_1(z)</math> będzie różny od <math>\displaystyle \bar {f_1}(z)</math>. Pokażemy teraz fakt
będący sednem naszego dowodu: Jeżeli wielomian <math>\displaystyle f_i(r_1,r_2,\ldots,r_{i-1},z)</math>
będący sednem naszego dowodu: jeżeli wielomian <math>\displaystyle f_i(r_1,r_2,\ldots,r_{i-1},z)</math>
jest różny od wielomianu <math>\displaystyle \bar {f_i}(r_1,r_2,\ldots,r_{i-1},z)</math>, to z dużym
jest różny od wielomianu <math>\displaystyle \bar {f_i}(r_1,r_2,\ldots,r_{i-1},z)</math>, to z dużym
prawdopodobieństwem również <math>\displaystyle f_{i+1}(r_1,r_2,\ldots,r_i,z)</math> będzie różny od
prawdopodobieństwem również <math>\displaystyle f_{i+1}(r_1,r_2,\ldots,r_i,z)</math> będzie różny od
Linia 688: Linia 688:
przedstawiając ten proces schematycznie jako:
przedstawiając ten proces schematycznie jako:


<math>\displaystyle {Q_1}_{x_1} {Q_2}_{x_2} \ldots {Q_m}_{x_m} \langle \phi \rangle</math>
<math>\displaystyle {Q_1}_{x_1} {Q_2}_{x_2} \ldots {Q_m}_{x_m} \langle \phi \rangle</math>,


gdzie <math>\displaystyle Q_i \in \{ \exists, \forall \}</math>, natomiast <math>\displaystyle \langle \phi \rangle</math> to
gdzie <math>\displaystyle Q_i \in \{ \exists, \forall \}</math>, natomiast <math>\displaystyle \langle \phi \rangle</math> to
Linia 696: Linia 696:
W(x_1,x_2,\ldots,1,\ldots,x_m)</math> gdy <math>\displaystyle Q_i = \forall</math>,
W(x_1,x_2,\ldots,1,\ldots,x_m)</math> gdy <math>\displaystyle Q_i = \forall</math>,
* <math>\displaystyle {Q_i}_{x_i} W(x_1,x_2,\ldots,x_i,\ldots,x_m) = 1 - (1 - W(x_1,x_2,\ldots,0,\ldots,x_m)) \cdot
* <math>\displaystyle {Q_i}_{x_i} W(x_1,x_2,\ldots,x_i,\ldots,x_m) = 1 - (1 - W(x_1,x_2,\ldots,0,\ldots,x_m)) \cdot
(1 - W(x_1,x_2,\ldots,1,\ldots,x_m)) \mbox{ gdy }\displaystyle Q_i = \exists</math>.
(1 - W(x_1,x_2,\ldots,1,\ldots,x_m)), \mbox{ gdy }\displaystyle Q_i = \exists</math>.


Możemy w tym momencie spróbować powtórzyć poprzedni dowód, to znaczy zdefiniować
Możemy w tym momencie spróbować powtórzyć poprzedni dowód, to znaczy zdefiniować
Linia 709: Linia 709:


<math>\displaystyle R_{x_i} W(x_1,x_2,\ldots,x_i,\ldots,x_m) = x_i \cdot W(x_1,x_2,\ldots,1,\ldots,x_m)
<math>\displaystyle R_{x_i} W(x_1,x_2,\ldots,x_i,\ldots,x_m) = x_i \cdot W(x_1,x_2,\ldots,1,\ldots,x_m)
+ (1 - x_i) \cdot W(x_1,x_2,\ldots,0,\ldots,x_m)</math>
+ (1 - x_i) \cdot W(x_1,x_2,\ldots,0,\ldots,x_m)</math>.


Wielomian otrzymany w wyniku takiej transformacji ma następujące cechy:
Wielomian otrzymany w wyniku takiej transformacji ma następujące cechy:
Linia 719: Linia 719:


<math>\displaystyle {Q_1}_{x_1} R_{x_1} {Q_2}_{x_2} R_{x_1} R_{x_2} {Q_3}_{x_3} \ldots
<math>\displaystyle {Q_1}_{x_1} R_{x_1} {Q_2}_{x_2} R_{x_1} R_{x_2} {Q_3}_{x_3} \ldots
{Q_m}_{x_m} R_{x_1} \ldots R_{x_m} \langle \phi \rangle</math>
{Q_m}_{x_m} R_{x_1} \ldots R_{x_m} \langle \phi \rangle</math>.


Zauważmy, że <math>\displaystyle R</math> nie zmienia ilości zmiennych wielomianu, natomiast operacje
Zauważmy, że <math>\displaystyle R</math> nie zmienia ilości zmiennych wielomianu, natomiast operacje
<math>\displaystyle Q_i</math> zmniejszają liczbę o 1.
<math>\displaystyle Q_i</math> zmniejszają liczbę o 1.
Liczbę transformacji oznaczymy jako <math>\displaystyle k</math> -- będzie ona kwadratowo zależna od
Liczbę transformacji oznaczymy jako <math>\displaystyle k</math> -- będzie ona kwadratowo zależna od
liczby zmiennych <math>\displaystyle m</math>. W tym momencie możemy już zdefiniować ciąg wielomianów
liczby zmiennych <math>\displaystyle m</math>. W tym momencie możemy już zdefiniować ciąg wielomianów
Linia 735: Linia 735:
jednak założymy, że otrzymana zostanie ona tak samo jak <math>\displaystyle p</math> w protokole dla
jednak założymy, że otrzymana zostanie ona tak samo jak <math>\displaystyle p</math> w protokole dla
<math>\displaystyle \#SAT(D)</math>.
<math>\displaystyle \#SAT(D)</math>.
Właściwy protokół będzie oparty na tej samej zasadzie, co poprzednio: <math>\displaystyle P</math>
Właściwy protokół będzie oparty na tej samej zasadzie co poprzednio: <math>\displaystyle P</math>
wypisze wartość <math>\displaystyle f_0()</math>, po czym będzie wypisywała pewne zawężenia wielomianów
wypisze wartość <math>\displaystyle f_0()</math>, po czym będzie wypisywała pewne zawężenia wielomianów
<math>\displaystyle f_1, \ldots, f_k</math>; <math>\displaystyle V</math> będzie sprawdzała, czy kolejne wielomiany nie są sprzeczne
<math>\displaystyle f_1, \ldots, f_k</math>; <math>\displaystyle V</math> będzie sprawdzała, czy kolejne wielomiany nie są sprzeczne
z poprzednimi (czyli również z <math>\displaystyle f_0</math>), a na końcu samodzielnie obliczy
z poprzednimi (czyli również z <math>\displaystyle f_0</math>), a na końcu samodzielnie obliczy
zawężenie wielomianu <math>\displaystyle \bar {f_k}</math> i porówna je z wielomianem otrzymanym od <math>\displaystyle P</math>.
zawężenie wielomianu <math>\displaystyle \bar {f_k}</math> i porówna je z wielomianem otrzymanym od <math>\displaystyle P</math>.
Ponownie jeśli <math>\displaystyle P</math> skłamie przy podawaniu wartości <math>\displaystyle f_0()</math>, prawdopodobieństwo
Ponownie, jeśli <math>\displaystyle P</math> skłamie przy podawaniu wartości <math>\displaystyle f_0()</math>, prawdopodobieństwo
tego, że uda jej się to kłamstwo zamaskować, będzie nieduże.
tego, że uda jej się to kłamstwo zamaskować, będzie nieduże.
Popatrzmy teraz jak wygląda pojedynczy krok protokołu: Oznaczmy <math>\displaystyle i</math>-tą
Popatrzmy teraz jak wygląda pojedynczy krok protokołu. W tym celu oznaczmy <math>\displaystyle i</math>-tą
transformację jako <math>\displaystyle {S_i}_{y_i}</math>. Załóżmy bez utraty ogólności, że <math>\displaystyle {y_i} = x_1</math>,
transformację jako <math>\displaystyle {S_i}_{y_i}</math>. Załóżmy bez utraty ogólności, że <math>\displaystyle {y_i} = x_1</math>,
natomiast <math>\displaystyle y_{i-1} = x_2</math> -- założenie to ma na celu jedynie uproszczenie
natomiast <math>\displaystyle y_{i-1} = x_2</math> -- założenie to ma na celu jedynie uproszczenie
Linia 754: Linia 754:
<math>\displaystyle f_{i-1}(x_2,r_3,r_4,\ldots,r_s)</math> nie jest prawidłowy -- czyli gdy funkcja <math>\displaystyle P</math> próbuje
<math>\displaystyle f_{i-1}(x_2,r_3,r_4,\ldots,r_s)</math> nie jest prawidłowy -- czyli gdy funkcja <math>\displaystyle P</math> próbuje
oszukać <math>\displaystyle V</math> i nie udało jej się jeszcze "zatrzeć śladów oszustwa" --
oszukać <math>\displaystyle V</math> i nie udało jej się jeszcze "zatrzeć śladów oszustwa" --
to prawdopodobieństwo, że wielomian <math>\displaystyle f_i(x_1,r_2,\ldots,r_s)</math> będzie prawidłowy
to prawdopodobieństwo, że wielomian <math>\displaystyle f_i(x_1,r_2,\ldots,r_s)</math> będzie prawidłowy,
będzie równe co najwyżej <math>\displaystyle n/{n^4}</math>, czyli <math>\displaystyle 1/{n^3}</math>.
wyniesie co najwyżej <math>\displaystyle n/{n^4}</math>, czyli <math>\displaystyle 1/{n^3}</math>.
Rozpatrzmy teraz przypadek, gdy <math>\displaystyle S_i = R</math>. <math>\displaystyle V</math> ma do dyspozycji wielomian
Rozpatrzmy teraz przypadek, gdy <math>\displaystyle S_i = R</math>. <math>\displaystyle V</math> ma do dyspozycji wielomian
<math>\displaystyle f_{i-1}(r_1,x_2,r_3,\ldots,r_s)</math>. W pierwszej kolejności <math>\displaystyle V</math> losuje pewną
<math>\displaystyle f_{i-1}(r_1,x_2,r_3,\ldots,r_s)</math>. W pierwszej kolejności <math>\displaystyle V</math> losuje pewną
Linia 776: Linia 776:
być też wielomian <math>\displaystyle f_i(x_1,{r'}_2,r_3,\ldots,r_s)</math>. Reasumując -- prawdopodobieństwo,
być też wielomian <math>\displaystyle f_i(x_1,{r'}_2,r_3,\ldots,r_s)</math>. Reasumując -- prawdopodobieństwo,
że w kroku odpowiadającym pewnej transformacji <math>\displaystyle R</math> funkcji <math>\displaystyle V</math> uda się
że w kroku odpowiadającym pewnej transformacji <math>\displaystyle R</math> funkcji <math>\displaystyle V</math> uda się
skutecznie "zatrzeć ślad" po wcześniejszym oszustwie jest nie większe niż
skutecznie "zatrzeć ślad" po wcześniejszym oszustwie, jest nie większe niż
<math>\displaystyle 1/{n^3}</math>.
<math>\displaystyle 1/{n^3}</math>.


Linia 794: Linia 794:
kwadratowo zależna od <math>\displaystyle m</math>; w szczególności natychmiastowe jest oszacowanie
kwadratowo zależna od <math>\displaystyle m</math>; w szczególności natychmiastowe jest oszacowanie
<math>\displaystyle k < (m+1)^2</math>. W związku z tym prawdopodobieństwo, że <math>\displaystyle V</math> zaakceptuje słowo
<math>\displaystyle k < (m+1)^2</math>. W związku z tym prawdopodobieństwo, że <math>\displaystyle V</math> zaakceptuje słowo
wejściowe nie należące do <math>\displaystyle QSAT</math> jest nie większe niż <math>\displaystyle (m+1)^2/{n^3}</math>, co
wejściowe nienależące do <math>\displaystyle QSAT</math> jest nie większe niż <math>\displaystyle (m+1)^2/{n^3}</math>, co
z kolei jest nie większe niż <math>\displaystyle (n+1)^2/{n^3} = O(1/n)</math>. Ponownie zatem <math>\displaystyle V</math>
z kolei jest nie większe niż <math>\displaystyle (n+1)^2/{n^3} = O(1/n)</math>. Ponownie zatem <math>\displaystyle V</math>
musi "stablicować" wyniki dla pewnej skończonej liczby formuł (w tym przypadku
musi "stablicować" wyniki dla pewnej skończonej liczby formuł (w tym przypadku
Linia 817: Linia 817:
słowa spoza języka, wystarczy ciało o wielkości <math>\displaystyle n^3</math>. W przypadku <math>\displaystyle \#SAT(D)</math>
słowa spoza języka, wystarczy ciało o wielkości <math>\displaystyle n^3</math>. W przypadku <math>\displaystyle \#SAT(D)</math>
ciało <math>\displaystyle {\mathbb Z}_p</math> służy nam jednak nie tylko jako dostarczyciel dużej
ciało <math>\displaystyle {\mathbb Z}_p</math> służy nam jednak nie tylko jako dostarczyciel dużej
przestrzeni prawdobodobieństwa, lecz również do zliczania ilości spełniających
przestrzeni prawdopodobieństwa, lecz również do zliczania ilości spełniających
wartościowań dla zadanej formuły logicznej. Z tego powodu potrzebujemy co
wartościowań dla zadanej formuły logicznej. Z tego powodu potrzebujemy co
najmniej <math>\displaystyle 2^m</math> liczb -- co oznacza, że w zdegenerowanym przypadku gdy
najmniej <math>\displaystyle 2^m</math> liczb -- co oznacza, że w zdegenerowanym przypadku, gdy
każda zmienna jest używana w dokładnie jednym literale wymagane ciało musi mieć
każda zmienna jest używana w dokładnie jednym literale wymagane ciało musi mieć
liczność
liczność

Wersja z 19:33, 9 paź 2006

Funkcje jednokierunkowe

W dotychczasowych rozważaniach naszym celem było znalezienie możliwie efektywnego rozwiązania dla zadanych problemów; nadmierna złożoność problemu była przez nas traktowana jako cecha niepożądana, utrudniająca nam zadanie. W tym rozdziale nasze podejście będzie odmienne; duża złożoność będzie dla nas cechą bardzo cenną. Będzie nas przy tym, w mniejszym niż dotychczas stopniu, interesować złożoność pesymistyczna -- w końcu nie satysfakcjonuje nas "gwarancja" mówiąca, że "jeżeli osoba podsłuchująca będzie miała pecha, to odszyfrowanie wiadomości będzie dla niej zadaniem czasochłonnym". Wolelibyśmy, żeby odszyfrowywanie wiadomości przez osoby nieuprawnione było czasochłonne, praktycznie zawsze -- tak, by próba podsłuchiwania dawała szansę sukcesu bardzo bliską zeru. Duża pesymistyczna złożoność nie będzie zatem warunkiem wystarczającym bycia dobrym kryptosystemem; przyda nam się jednak w charakterze warunku koniecznego.

Definicja 1.1

Niech f:{0,1}{0,1}. Mówimy, że f jest funkcją jednokierunkową wtedy i tylko wtedy, gdy:

  • f jest różnowartościowa,
  • istnieje pewna stała k>1 taka, że x{0,1}|x|1/kf(x)|x|k,
  • f jest obliczalna w czasie wielomianowym (czyli należy do klasy FP),
  • nie istnieje wielomianowy algorytm obliczający odwrotność funkcji f -- czyli znajdujący dla słowa y słowo x, takie że f(x)=y lub stwierdzający, że takie słowo nie istnieje.

Warto zauważyć, że powyższa definicja niejawnie zakłada prawdziwość zdania PNP.

Ćwiczenie 1.2

Niech f spełnia pierwsze trzy warunki podane w definicji funkcji jednokierunkowej. Pokaż, że obliczanie odwrotności funkcji f jest problemem z klasy FNP.

Rozwiązanie

Z drugiej strony nierówność PNP wcale nie gwaratuje istnienia funkcji jednokierunkowych; jak się okazuje istnienie tego typu funkcji jest ściśle powiązane z pewną klasą złożoności, którą przedstawiamy poniżej.

Definicja 1.3

Jednoznaczną maszyną Turinga nazywamy niedeterministyczną maszynę Turinga taką, że dla każdego słowa wejściowego x istnieje co najwyżej jedna akceptująca ścieżka obliczeń.

Definicja 1.4

Klasa UP to klasa problemów rozstrzygalnych za pomocą jednoznacznych maszyn Turinga w czasie wielomianowym.

Uwaga 1.5

Klasę UP, podobnie jak klasę NP, można zdefiniować z użyciem pojęcia świadka:

LUPp(x)wielomianLPnw{0,1}n[wL(!v{0,1}p(n)w,vL)][wL(¬v{0,1}p(n)w,vL)].

W językach z klasy UL każde słowo ma dokładnie jednego świadka. Dowód równoważności powyższych definicji jest analogiczny jak w przypadku klasy NP.

Jest jasne, że PUPNP -- maszyny deterministyczne są specjalnymi przypadkami maszyn jednoznacznych. Dość powszechny jest pogląd, że obie powyższe relacje zawierania są właściwe (to znaczy nie zachodzi równość).

Pokażemy teraz bardzo ciekawy związek pomiędzy klasą UP a funkcjami jednokierunkowymi.

Twierdzenie 1.6

Funkcje jednokierunkowe istnieją wtedy i tylko wtedy, gdy UPP.

Dowód

Zaczniemy od dowodu w kierunku . Załóżmy, że istnieje pewna funkcja jednokierunkowa f. Możemy wtedy zdefiniować następujący język:

Lf={(x,y):zf(z)=yzx},

przy czym mówimy, że zx wtedy i tylko wtedy, gdy

  • |z||y| lub
  • |z|=|y| i w porządku leksykograficznym z występuje nie później niż x.

Łatwo można zauważyć, że LfUP - maszyna rozwiązująca ten problem najpierw "zgaduje" słowo z o wielkości nie większej niż |y|k, po czym sprawdza, czy w ustalonym porządku występuje ono nie później niż x i czy zachodzi f(z)=y. Z własności funkcji jednokierunkowych -- konkretnie z różnowartościowości -- wynika, że maszyna ta ma co najwyżej jedną akceptującą ścieżkę postępowania.

Chcemy teraz pokazać, że LfP. Załóżmy zatem nie wprost, że istnieje jakiś wielomianowy algorytm rozwiązujący Lf. Wykorzystamy go teraz do obliczenia odwrotności funkcji f w czasie wielomianowym. W pierwszym kroku zapytamy algorytm, czy (1|y|k,y)Lf (przez 1|y|k oznaczamy tutaj ciąg |y|k symboli 1) - jeżeli otrzymamy odpowiedź NIE, to korzystając z definicji funkcji jednokierunkowej, możemy od razu stwierdzić, że nie istnieje słowo x takie, że f(x)=y. Jeżeli otrzymamy odpowiedź TAK, to z użyciem co najwyżej |y|k1 zapytań do naszego algorytmu jesteśmy w stanie ustalić długość szukanego słowa x (pytamy kolejno o (1|y|k1,y), (1|y|k2,y), itd., aż do momentu, gdy uzyskamy odpowiedź NIE). Gdy znamy już długość słowa x pozostaje nam tylko obliczyć kolejne jego bity. Pierwszy bit otrzymamy, pytając o parę (01|x|1,y) -- odpowiedź "tak" oznacza, że pierwszym bitem jest 0. Aby uzyskać drugi bit zapytamy -- w zależności od pierwszej odpowiedzi -- o (001|x|2,y) lub (101|x|2,y). Kolejne bity odgadujemy w analogiczny sposób -- łącznie zatem wykonamy algorytm dla LfO(|y|k) razy. W ten sposób uzyskamy deterministycznty algorytm odwracający funkcję f w czasie wielomianowym.

Doszliśmy więc do sprzeczności z definicją funkcji jednokierunkowej, co oznacza, że istnienie funkcji jednokierunkowych implikuje nierówność PUP.

Załóżmy teraz, że istnieje język LUPP, rozpoznawany przez jednoznaczną maszynę U. Zdefiniujmy funkcję fU(w) w następujący sposób:

  • jeżeli w jest zakodowaną parą słów x,y oraz x jest (jedynym) świadkiem przynależności słowa y do L, to

fU(w)=1y,

  • w przeciwnym przypadku

fU(w)=0w.

Widzimy, że pierwszy symbol wartości funkcji gwarantuje nam jej różnowartościowość. Spełniony jest również drugi warunek z definicji funkcji jednokierunkowej -- świadek dla słowa y nie może być nadmiernie długi (bo jego długość jest wielomianowo zależna od długości y), a zatem fU nie może nadmiernie "skracać" słów. Funkcja fU jest też obliczalna w czasie wielomianowym -- wystarczy deterministycznie zweryfikować świadka, tak jak zrobiłaby to maszyna U. Pozostaje nam zatem tylko pokazanie, że funkcja odwrotna do d nie jest obliczalna w czasie wielomianowym. Gdyby tak jednak było, to moglibyśmy rozpoznawać język L w czasie wielomianowym: aby sprawdzić, czy yL wystarczy zastosować odwrotność funkcji fU do słowa 1y; jeżeli yL, to dostaniemy odpowiedź mówiącą, że 1y nie można odwrócić; w przeciwnym przypadku otrzymamy świadka przynależności y do języka L.

Na dzień dzisiejszy nie znamy oczywiście funkcji, o której wiedzielibyśmy, że jest jednokierunkowa; istnienie takiej funkcji natychmiastowo implikuje przecież nierówność PNP. Jest jednak kilku "kandydatów" na funkcje jednokierunkowe, dla których nie znamy efektywnego algorytmu pozwalającego na ich odwrócenie. Jedną z takich funkcji jest fMUL. Argumentami tej funkcji są dwie liczby pierwsze wraz ze swoimi certyfikatami pierwszości. Wartością funkcji jest iloczyn tych dwóch liczb. Bardziej formalnie:

  • jeżeli w=p,C(p),q,C(q), gdzie p<q a C(p) i C(q) są certyfikatami pierwszości odpowiednio dla p i q, to

fMUL(w)=1pq,

  • w przeciwnym przypadku

fMUL(w)=0w.

Korzystamy tutaj z faktu, że możemy wymusić jednoznaczną reprezentację certyfikatu pierwszości dla danej liczby oraz że certyfikaty mają rozmiar wielomianowo zależny od rozmiaru certyfikowanych liczb. fMUL jest zatem różnowartościowa i nie "skraca" nadmiernie słowa wejściowego.

Łatwo zauważyć, gdzie tkwi trudność w odwracaniu tej funkcji -- nie znamy efektywnego algorytmu potrafiącego faktoryzować iloczyn dwóch liczb pierwszych; znane nam obecnie algorytmy stają się niepraktyczne już przy iloczynach liczb pierwszych o długości kilkuset bitów.

Drugi ze znanych nam "kandydatów na funkcję jednokierunkową" również oparty jest na zagadnieniu z dziedziny teorii liczb -- problemie logarytmu dyskretnego. Funkcję tą można zdefiniować w następujący sposób:

  • dla w postaci p,C(p),r,x, gdzie p jest liczbą pierwszą, C(p) certyfikatem jej pierwszości, r jest najmniejszym generatorem grupy cyklicznej p, a x jest liczbą naturalną z zakresu [1,p1]

fEXP(w)=1p,r,rxmodp)

  • dla pozostałych w

fEXP(w)=0w.

W tym przypadku, aby odwrócić funkcję fEXP, musielibyśmy na podstawie liczb p, r i rxmodp umieć obliczyć wartość x. Również dla tego, znanego od wielu lat, problemu nie potrafimy przedstawić wydajnego rozwiązania.

Jak zauważyliśmy, we wprowadzeniu do tego rozdziału, w kryptografii duża złożoność pesymistyczna próby zdekodowania zaszyfrowanej wiadomości nie jest własnością wystarczającą. Z tego powodu przytoczymy alternatywną definicję funkcji jednokierunkowych, lepiej odwzorowującą nasze oczekiwania. Należy pamiętać, że definicja ta jest istotnie różna od definicji podanej wcześniej.

Definicja 1.7

Niech f:{0,1}{0,1}. Mówimy, że f jest funkcją jednokierunkową wtedy i tylko wtedy, gdy:

  • f jest obliczalna w czasie wielomianowym,
  • f nie jest stale równa ϵ (słowu pustemu),
  • istnieje pewna stała k>1 taka, że x{0,1}f(x)=ϵ|x|1/kf(x)|x|k,
  • jeżeli x i y są słowami nad alfabetem {0,1} i f(x)=f(y), to x=y lub f(x)=f(y)=ϵ,
  • dla każdej losowej maszyny Turinga E działającej w czasie wielomianowym, każdej liczby l i dostatecznie dużej liczby n, jeżeli x jest losowym słowem ze zbioru {x:|x|nf(x)ϵ}, to

Pr[E(f(x))=x]nl.

W tej definicji zrezygnowaliśmy z wymagania o różnowartościowości funkcji; zamiast tego dopuszczamy, aby różne słowa dawały jako wynik wartość ϵ, którą możemy traktować jako odpowiedź mówiącą, że wejście jest nieprawidłowe; dla przykładu przy adaptowaniu funkcji fMUL do powyższej definicji, w przypadku gdy p lub q nie będą liczbami pierwszymi lub gdy C(p), lub C(q) nie będą odpowiednimi certyfikatami, funkcja zwróci wartość ϵ. Zauważmy, że w powyższej definicji interesuje nas tylko trudność odszyfrowania wartości funkcji dla poprawnych wejść -- to znaczy w przypadku fMUL dla par liczb, które są pierwsze i których pierwszość jest potwierdzana przez C(p) i C(q). Funkcje fMUL jak i fEXP -- po odpowiednim ich zmodyfikowaniu w sposób przedstawiony powyżej -- są poważnymi "kandydatami" na funkcje jednokierunkowe również w sensie definicji opisanej w poprzednim paragrafie.

Warto się w tym momencie zastanowić, w jaki sposób funkcje jednokierunkowe mogą się przydać w kryptografii. Otóż widzimy, że jedna ze stron -- zwyczajowo zwana Alicją -- może wydajnie zaszyfrować swoją wiadomość, na przykład używając ją jako argument x do funkcji fEXP. Niestety druga strona -- zazwyczaj o imieniu Bob -- może mieć duże trudności z odszyfrowaniem wiadomości. W tej sytuacji fakt, że osoba podsłuchująca -- Cecylia -- niczego ciekawego się nie dowie, stanowi słabe pocieszenie.

Widzimy zatem, że aby zapewnić poufność komunikacji pochodzącej od Alicji, ale również możliwość odebrania tej wiadomości, Bob musi posiadać pewną tajną wiedzę, pozwalającą na wydajne odwrócenie funkcji szyfrującej. Zdefiniujemy teraz pewną modyfikację pojęcia funkcji jednokierunkowej mającą szersze zastosowanie w kryptografii.

Definicja 1.8

Niech f:{0,1}×{0,1}{0,1}. Mówimy, że f jest funkcją z wytrychem wtedy i tylko wtedy gdy istnieje losowa maszyna Turinga G oraz funkcja h:{0,1}×{0,1}{0,1} taka, że:

  • funkcje f i h są obliczalne w czasie wielomianowym,
  • G oczekuje na wejściu słowa nad alfabetem {0,1}, zwraca zakodowaną parę słów nad alfabetem {0,1} i działa w czasie wielomianowym,
  • istnieje stała k>1 taka, że jeżeli i,t stanowi wynik działania maszyny M dla słowa 1n, natomiast x jest słowem o długości nie większej niż n, to |i,x|1/k|t,f(i,x)||i,x|k,
  • jeżeli i,t stanowi wynik działania maszyny M dla słowa 1n, natomiast x i y są słowami o długości nie większej niż n, to

f(i,x)=f(i,y)x=y,

  • dla każdej losowej maszyny Turinga E, każdej liczby l i dostatecznie dużej liczby n, jeżeli i,t stanowi wynik działania maszyny M dla słowa 1n, x jest losowym słowem nad alfabetem {0,1} nie dłuższym niż n, to

Pr[E(i,f(i,x))=x]nl,

  • dla każdego n, każdego słowa x nie dłuższego niż n i każdej pary i,t mogącej być wynikiem działania maszyny G, dla słowa wejściowego 1nh(t,f(i,x))=x.

Funkcje z wytrychem mogą zostać wykorzystane w celu stworzenia systemów kryptograficznych z kluczem publicznym. Sposób postępowania jest w tym przypadku następujący:

  • Bob ustala długość przekazywanych wiadomości (n) oraz parametr wyznaczający prawdopodobieństwo odszyfrowania pojedynczej wiadomości (k),
  • Bob uruchamia maszynę G i otrzymuje parę słów i,t. Słowo i staje się dostępnym dla wszystkich kluczem publicznym, natomiast t pozostaje tajemnicą znaną tylko Bobowi,
  • Alicja, chcąc wysłać wiadomość do Boba, używa znanego jej klucza publicznego i. Własności funkcji z wytrychem sprawiają, że odszyfrowanie wiadomości jest łatwe dla Boba, natomiast trudne dla osób trzecich nieznających klucza t.

Najbardziej znanym systemem kryptograficznym opartym na powyższej zasadzie jest system RSA. Pamiętajmy przy tym, że nie znamy formalnego dowodu, mówiącego, że RSA spełnia warunki określone w definicji funkcji z wytrychem.

Prześledźmy teraz, w jaki sposób zdefiniowane są f, h i G dla systemu RSA.

Zadaniem maszyny G jest wygenerowanie pary kluczy. W tym celu losuje ona dwie liczby pierwsze p i q, z których każda ma długość większą niż n/2 (gdzie n to długość przekazywanych wiadomości). Następnie oblicza ona liczbę N=pq oraz wartość funkcji Eulera dla tej liczby: ϕ(N)=(p1)(q1). W kolejnym kroku znajdywana jest dowolna liczba e z zakresu [2,N2], względnie pierwsza z ϕ(N). Dla liczby e znajdywana jest następnie liczba d z zakresu [2,N2] taka, że

de=1modϕ(N).

Istnienie takiej liczby spowodowane jest faktem, że e i ϕ(N) są względnie pierwsze; liczbę d można efektywnie obliczyć z użyciem uogólnionego algorytmu Euklidesa.

W tym momencie można już zdefiniować parę kluczy: kluczem publicznym jest para liczb e oraz N; kluczem prywatnym jest para liczb d oraz N. Szyfrowanie słowa x wygląda następująco:

f(e,N,x)=xemodN,

przy czym wiadomość x traktujemy jako binarny zapis pewnej liczby naturalnej. Dekodowanie słowa y określone jest w praktycznie identyczny sposób:

h(d,N,y)=ydmodN.

Wystarczy teraz przypomnieć sobie, że iloczyn de jest postaci kϕ(N)+1, dla pewnej liczby całkowitej k. W związku z tym

h(d,N,f(e,N,x))=(xe)dmodN=xkϕ(N)+1modN=xkϕ(N)xmodN=x.

Widzimy zatem, że funkcja h poprawnie dekoduje słowa zaszyfrowane z użyciem funkcji f -- Bob będzie zatem w stanie odtworzyć wiadomość wysłaną przez Alicję.

Systemy dowodów interaktywnych

W ostatnim fragmencie niniejszego kursu zajmiemy się klasą złożoności, będącą uogólnieniem klas NP i BPP. W tym celu zdefiniujemy pojęcie systemu dowodów interaktywnych.

Definicja 2.1

Systemem dowodów interaktywnych nazywamy parę funkcji V oraz P o sygnaturach:

V:Σ×Σ×ΣΣ{accept,reject}P:Σ×ΣΣ

taką, że funkcja V jest obliczalna na maszynie Turinga.

Działanie systemu dowodów interaktywnych polega na wymianie komunikatów między funkcjami V i P, przy czym funkcja P (z angielskiego prover) stara się "przekonać" funkcję V (verifier) o tym, że słowo wejściowe należy do rozpatrywanego języka, natomiast ostateczna decyzja w tej sprawie należy do V.

Komunikacja odbywa się naprzemiennie: funkcja V generuje wiadomość, przekazywaną funkcji P jako argument; funkcja P z kolei generuje odpowiedź przekazywaną funkcji V w następnej iteracji. Taka komunikacja odbywa się do momentu zaakceptowania lub odrzucenia słowa wejściowego przez funkcję V. W każdym kroku obie funkcje mają do dyspozycji zarówno słowo wejściowe, jak również pełną historię przekazanych dotychczas wiadomości.

Określmy teraz, co dokładnie oznaczają argumenty funkcji V i P. Argumenty funkcji V będziemy oznaczać w następujący sposób:

V(w,r,m1#m2##mi).

Mają one następujące znaczenie:

  • w to słowo wejściowe,
  • r jest losowym ciągiem bitów,
  • m1#m2##mi to konkatenacja dotychczasowych wiadomości, które zostały przekazane w procesie komunikacji (wiadomości o indeksach nieparzystych są wynikami działania funkcji V, natomiast wiadomości o indeksach parzystych są wynikami działania funkcji P).

Zwróćmy uwagę, że V ma do dyspozycji losowe słowo r; w praktyce oznacza to, że o funkcji V będziemy myśleć jako o pewnej losowej maszynie Turinga.

Zakładamy, że zarówno w jak i r są stałe w kolejnych iteracjach; słowo r jest zatem losowane jednokrotnie, przed rozpoczęciem procesu komunikacji. Warto też zauważyć, że słowa w i r całkowicie determinują działanie systemu.

Argumenty funkcji P będziemy oznaczać następująco:

P(w,m1#m2##mi).

Ich znaczenie jest identyczne jak w przypadku argumentów funkcji V, nie ma wśród nich jednak słowa losowego.

Możemy w tym momencie zdefiniować klasę IP:

Definicja 2.2

Niech LΣ. Mówimy, że LIP wtedy i tylko wtedy, gdy istnieje system dowodów interaktywnych (V,P) oraz wielomiany p(n) i q(n) takie, że dla każdego słowa wejściowego w oraz losowego słowa r o długości p(|x|):

  • system daje odpowiedź po co najwyżej p(|x|) krokach,
  • w każdej iteracji czas działania maszyny obliczającej funkcję V jest ograniczony od góry przez q(|x|),
  • długość każdej wiadomości mi jest nie większa niż p(|x|),
  • jeżeli wL, to prawdopodobieństwo zaakceptowania słowa przez system wynosi co najmniej 2/3,
  • jeżeli wL oraz P¯ jest dowolną funkcją o sygnaturze zgodnej z P, zwracającą wiadomości nie dłuższe niż p(|x|), to system (V,P¯) spełnia powyższe założenia na ilość iteracji, czas działania i długość wiadomości oraz akceptuje słowo w z prawdopodobieństwem nie większym niż 1/3.

O systemie (V,P) mówimy, że rozpoznaje język L w czasie wielomianowym.

Innymi słowy, jeżeli słowo w należy do języka, to V z dużym prawdopodobieństwem da się przekonać o tej przynależności przez pewną ustaloną funkcję P. Jeżeli jednak w nie należy do L, to V nie da się oszukać żadnej funkcji P¯ ze zbyt dużym prawdopodobieństwem.

Uwaga 2.3

Zwróćmy jeszcze uwagę, że branie pod uwagę tylko takich funkcji P¯, które nie zwracają zbyt długich słów, nie jest istotnym ograniczeniem; funkcja V może w każdym kroku sprawdzać, czy odpowiedź funkcji P¯ nie jest zbyt długa i jeśli tak, to odrzucać słowo. W dalszej części rozdziału będziemy zakładali takie właśnie zachowanie funkcji V.

Widzimy zatem, że funkcja V musi być zabezpieczona przed oszustwami; jeżeli V mogłaby zaufać funkcji P, to mogłaby rozwiązać każdy problem decyzyjny -- wystarczyłoby po prostu skorzystać z nieograniczonej mocy obliczeniowej P. W naszym przypadku jednak nie wystarczy, aby P tylko rozwiązała problem decyzyjny -- musi jeszcze przekonać V do swojego rozwiązania.

Przykład 2.4

Rozważmy problem NONGRAPHISO. Jest on zdefiniowany następująco:

NONGRAPHISO={G,H: grafy G i H nie są izomorficzne }.

Łatwo sie przekonać, że problem izomorfizmu grafów jest w klasie NP -- wystarczy zgadnąć odpowiednią permutację wierzchołków, po czym zweryfikować ją w trywialny sposób. NONGRAPHISO należy zatem do coNP. Nie jest jednak obecnie znana odpowiedź na pytanie o przynależność tego problemu do klasy NP. Pokażemy teraz, w jaki sposób można rozwiązać NONGRAPHISO za pomocą systemów dowodów interaktywnych, pokazując przynależność tego problemu do klasy IP.

System działa w prosty sposób: W kolejnych iteracjach funkcja V wybiera losowo jeden z grafów, a następnie w losowy sposób permutuje jego wierzchołki. Taki graf jest przekazywany jako wiadomość do funkcji P. Zadaniem funkcji P jest rozpoznanie, który z wyjściowych grafów został wylosowany i przekształcony przez V.

Ćwiczenie 2.5

Zdefiniuj, w jakich przypadkach V powinien zaakceptować, a w jakich odrzucić wejściową parę grafów. Oblicz, ile iteracji jest potrzebnych, aby system rozpoznawał język NONGRAPHISO w czasie wielomianowym zgodnie z wcześniejszą definicją.

Rozwiązanie

Ćwiczenie 2.6

Pokaż, że klasa BPP jest zawarta w klasie IP.

Rozwiązanie

Ćwiczenie 2.7

Rozpatrzmy takie systemy dowodów interaktywnych, w których funkcje V nie zależą od argumentu r (słowa losowego). Jaką klasę języków rozpoznają takie systemy, przy założeniach o złożoności analogicznych jak w przypadku klasy IP?

Rozwiązanie

Możemy w tym momencie przypuszczać, że klasa IP jest znacząco większa od klasy NP. Nie wiemy obecnie, czy przypuszczenie to jest prawdziwe; przemawia jednak za nim poniższe twierdzenie.

Twierdzenie 2.8

IP=PSPACE

Dowód

Pokażemy najpierw fakt IPPSPACE. W tym celu wybierzemy dowolny problem z klasy IP i rozwiążemy go z użyciem wielomianowej ilości pamięci.

Załóżmy, że system (V,P) akceptuje wybrany język w czasie wielomianowym.

Ustalmy słowo w. Będziemy mówić, że ciąg wiadomości m1#m2##mi jest zgodny ze słowem losowym r, jeżeli stanowi on historię wiadomości po i iteracjach pewnego systemu (V,P) używającego słowa losowego r. Warto zauważyć, że ciąg wiadomości może być zgodny z wieloma słowami losowymi (na przykład ciąg pusty jest zgodny z każdym słowem losowym), a słowo losowe może być zgodne z różnymi ciągami wiadomości (w zależności od funkcji P).

Zdefiniujmy teraz funkcję P w taki sposób, by miała ona następującą własność:

wPr((V,P) akceptuje w)=maxPPr((V,P) akceptuje w).

Funkcja P zatem dla każdego słowa wejściowego zachowuje się w najlepszy możliwy sposób. Jest ona dobrze zdefiniowana, gdyż dla każdego wejściowego słowa zbiór prawdopodobieństw jest skończony -- przy ustalonym słowie w wszystkie możliwe funkcje P można przypisać do skończonej liczby klas równoważności, w ramach których system (V,P) zachowuje się identycznie (pamiętajmy, że w całym procesie komunikacji funkcja V wykonuje co najwyżej skończoną, ustaloną dla danego słowa wejściowego liczbę kroków).

Jest jasne, że (V,P) również akceptuje wybrany język w czasie wielomianowym -- od tej pory będziemy się zatem zajmowali tym konkretnym systemem. Nasz algorytm będzie dla każdego słowa wejściowego wprost obliczał prawdopodobieństwo zaakceptowania go przez system (V,P); tym samym, w zależności od wyniku, będzie mógł określić, czy słowo wejściowe należy do języka. Dla uproszczenia założymy, że system (V,P) daje odpowiedzi po dokładnie p(|x|) krokach.

Zdefiniujmy teraz funkcję mierzącą prawdopodobieństwo akceptacji słowa przez system (V,P) przy ustalonej częściowej historii komunikacji:

N(m1#m2##mi)=Pr(słowo w zostanie zaakceptowane pod warunkiem, że dotychczasowe komunikaty reprezentowane są przez m1#m2##mi).

W przypadku, gdy nie ma słowa losowego zgodnego z m1#m2##mi, funkcji N(m1#m2##mi) nadajemy wartość 0. Łatwo jest obliczyć N(m1#m2##mp(|x|)):

  • jeżeli mp(|x|)=accept i m1#m2##mp(|x|) jest zgodne z pewnym słowem losowym, to

N(m1#m2##mp(|x|))=1,

  • w przeciwnym przypadku

N(m1#m2##mp(|x|))=0.

Do obliczania wartości N dla mniejszej ilości kroków, możemy posłużyć się następującym wzorem rekurencyjnym:

  • jeżeli i jest nieparzyste, to

N(m1#m2##mi)=maxmi+1N(m1#m2##mi+1),

  • jeżeli i jest parzyste, to

N(m1#m2##mi)=mi+1Pr(mi+1|m1#m2##mi)N(m1#m2##mi+1).

Wzór ten jest konsekwencją zachowania P i V: P w każdym kroku maksymalizuje prawdopodobieństwo akceptacji, natomiast zachowanie V zależne jest od historii wiadomości i słowa losowego.

W tym momencie wystarczą dwa spostrzeżenia. Po pierwsze, N(ϵ) jest poszukiwanym przez nas prawdopodobieństwem zaakceptowania przez system (V,P) słowa w. Po drugie, N(ϵ) jest obliczalne w pamięci wielomianowej: każde rekurencyjne wywołanie funkcji N powoduje sekwencyjne rozważenie wszystkich możliwych odpowiedzi, których długość jest jednak ograniczona od góry przez p(|x|). Dodatkowo przy obliczeniach na poziomie zagłębienia p(|x|) należy rozważyć wszystkie możliwe słowa losowe i sprawdzić ich zgodność z aktualnie rozważanym ciągiem komunikatów. Wszystkie te operacje można wykonać z użyciem O(p(|x|)2) komórek pamięci.

Pokazaliśmy zatem, że IPPSPACE.

Dowód zawierania w drugą stronę odbywa się poprzez przedstawienie protokołu komunikacji dla problemu QSAT. Aby przybliżyć stosowaną w tym protokole technikę, zaprezentujemy najpierw dowód przynależności do klasy IP problemu #SAT(D) będącego wersją decyzyjną problemu #SAT:

Definicja 2.9

#SAT(D)={ϕ,k: liczba wartościowań spełniających dla formuły ϕ jest nie mniejsza niż k}.

W dowodzie posłużymy się techniką zwaną arytmetyzacją; formuły logiczne będziemy zastępować wielomianami w następujący sposób:

  • zmienne formuły stają się zmiennymi wielomianu,
  • wyrażenia typu ¬x zastępujemy przez (1x),
  • wyrażenia typu αβ zastępujemy przez αβ,
  • wyrażenia typu αβ zastępujemy przez (1(1α)(1β)).

Dla uproszczenia założymy na razie, że wielomiany te określone są na liczbach rzeczywistych.

Ćwiczenie 2.10

Niech ϕ będzie formułą z m zmiennymi, natomiast W(x1,,xm) wielomianem otrzymanych w sposób przedstawiony powyżej. Weźmy dowolne wartościowanie zmiennych formuły ϕ i podstawmy je do wielomianu W (to znaczy podstawmy 0, gdy zmienna jest wartościowana na "fałsz" i 1 w przeciwnym przypadku). Pokaż, że wartość wielomianu W jest równa 1, gdy wybrane wartościowanie jest wartościowaniem spełniającym dla ϕ oraz 0 w przeciwnym przypadku.

Wskazówka
Rozwiązanie

Ćwiczenie 2.11

Niech n oznacza liczbę -- niekoniecznie różnych -- literałów (zmiennych i ich zaprzeczeń) w formule ϕ. Pokaż, że stopień każdej zmiennej w wielomianie W jest nie większy niż n.

Rozwiązanie

Zdefiniujmy teraz ciąg wielomianów f0,f1,,fm w następujący sposób:

  • fm jest wielomianem otrzymanym z formuły ϕ w wyniku procesu arytmetyzacji,
  • fi(x1,x2,,xi):=fi+1(x1,x2,,xi,0)+fi+1(x1,x2,,xi,1).

Zauważmy, że ilość argumentów zmniejsza się w kolejnych funkcjach, a f0 nie posiada żadnych argumentów (czyli jest stałą). Funkcje te spełniają następującą własność:

a1,a2,,ai{0,1}fi(a1,a2,,ai)=xi+1{0,1}xm{0,1}fm(a1,a2,,ai,xi+1,,xm)

Oznacza to, że jeżeli a1,,ai reprezentują pewne wartościowanie zmiennych x1,,xi, to fi(a1,,ai) wyznacza liczbę wartościwoań spełniających formułę ϕ rozpoczynających się od (a1,,ai). Oczywistym wnioskiem z powyższego spostrzeżenia jest to, że f0() jest liczbą wszystkich wartościowań spełniających ϕ.

Zauważmy jeszcze, że w wielomianach fi zachowana jest własność, mówiąca że każda zmienna występuje co najwyżej w stopniu n. Ilość wyrazów występujących w tych wielomianach może być jednak wykładnicza ze względu na długość formuły; z tego powodu obliczanie tych wielomianów może być procesem czasochłonnym.

Przedstawiany protokół komunikacyjny obliczanie wielomianów f0,,fm1 zleca funkcji P. Ta następnie przekazuje funkcji V pewne informacje o wielomianach, na podstawie których V może z dużym prawdopodobieństwem rozstrzygnąć, czy f0,,fm1 zostały "uczciwie" obliczone zgodnie z powyższą rekurencyjną procedurą, czy też P próbuje oszukać V.

Protokół nie operuje na liczbach rzeczywistych -- zamiast nich używamy ciała p, gdzie p jest liczbą pierwszą większą niż 2n. Wielomiany określone nad takim ciałem mają wiele cech wspólnych z wielomianami nad -- w szczególności wielomian jednej zmiennej o stopniu n, który nie jest stale równy 0, ma co najwyżej n pierwiastków. W rezultacie dwa różne wielomiany stopnia nie większego niż n mogą być równe w co najwyżej n punktach.

W tym momencie jesteśmy gotowi do przedstawienia protokołu dla #SAT(D):

  • Krok 1 (P): Znajdź liczbę pierwszą p z przedziału [2n,2n+1] oraz jej certyfikat pierwszości (taka liczba na pewno istnieje -- wynika to z twierdzenia Bertranda--Czebyszewa). Prześlij je jako wiadomość.
  • Krok 2 (V): Sprawdź poprawność liczby p, odrzuć słowo wejściowe, jeśli p lub jej certyfikat są nieprawidłowe.
  • Krok 3 (P): Oblicz f0() i prześlij jako wiadomość.
  • Krok 4 (V): Sprawdź, czy f0()k -- jeśli nie to odrzuć słowo wejściowe.
  • Krok 5 (P): Oblicz f1(z) (wielomian ze zmienną z) i prześlij jego współczynniki jako wiadomość.
  • Krok 6 (V): Sprawdź, czy f0()=f1(0)+f1(1). Wylosuj dowolną liczbę r1 z p i prześlij ją jako wiadomość,
  • Krok 7 (P): Oblicz f2(r1,z) (to też jest wielomian z jedną zmienną z) i prześlij jego współczynniki jako wiadomość.
  • Krok 8 (V): Sprawdź, czy f1(r1)=f2(r1,0)+f2(r1,1). Wylosuj dowolną liczbę r2 z p i prześlij ją jako wiadomość.
  • Krok 2m+4 (V): Sprawdź, czy fm1(r1,,rm1)=fm(r1,,rm1,0)+fm(r1,,rm1,1). Sprawdź, czy fm(r1,,rm1,z) jest wielomianem otrzymanym przez arytmetyzację formuły ϕ i podstawienie r1,,rm1 jako pierwszych m1 argumentów otrzymanego wielomianu. Jeżeli tak, to zaakceptuj słowo wejściowe, w przeciwnym przypadku odrzuć je.

W przypadku, gdy słowo wejściowe należy do #SAT(D), jest jasne, że funkcja P, postępująca zgodnie z powyższym protokołem, zawsze przekona V o tej przynależności. Popatrzmy teraz, co się stanie, gdy słowo wejściowe nie należy do #SAT(D); w tym przypadku wartość f0() podana przez P¯ będzie musiała się różnić od wartości prawdziwej (oznaczmy ją jako f0¯()). W związku z tym przynajmniej jedna z wartości f1(0) lub f1(1) będzie różna od oczekiwanej -- f1¯(0) lub f1¯(1) -- a co za tym idzie wielomian f1(z) będzie różny od f1¯(z). Pokażemy teraz fakt będący sednem naszego dowodu: jeżeli wielomian fi(r1,r2,,ri1,z) jest różny od wielomianu fi¯(r1,r2,,ri1,z), to z dużym prawdopodobieństwem również fi+1(r1,r2,,ri,z) będzie różny od fi+1¯(r1,r2,,ri,z). Zauważmy, że jesli ri zostanie wylosowane w taki sposób, że fi(r1,,ri)=fi¯(r1,,ri), to P¯ w kolejnym kroku będzie mógł zwrócić wielomian fi+1¯(r1,,ri,z) -- a zatem skutecznie oszuka V. Aby tak się jednak stało wylosowana wartość ri musi być jednym z punktów, w których fi¯(r1,r2,,ri1,z) i fi¯(r1,r2,,ri1,z) są równe. Prawdopodobieństwo takiego zdarzenia to co najwyżej n/2n. Jeżeli fi(r1,,ri)fi¯(r1,,ri), to niewątpliwie fi+1(r1,,ri,0)fi+1¯(r1,,ri,0) lub fi+1(r1,,ri,1)fi+1¯(r1,,ri,1) -- a co za tym idzie wielomian fi+1(r1,,ri,z) będzie różny od wielomianu fi+1¯(r1,,ri,z).

Widzimy więc, że prawdopodobieństwo zdarzenia, w którym fm(r1,,rm1,z) jest równy fm¯(r1,,rm1,z) jest ograniczone od góry przez wyrażenie mn/2n, co z kolei jest nie większe niż n2/2n. V jest w stanie wykryć niezgodność tych wielomianów w czasie wielomianowym w sposób deterministyczny -- a zatem n2/2n jest górnym ograniczeniem na prawdopodobieństwo zaakceptowania przez V słowa spoza #SAT(D).

W tym momencie wystarczy już tylko zauważyć, że n2/2n jest mniejsze od 1/3 dla każdego n8; protokół będziemy zatem stosować dla formuł o co najmniej 8 literałach. Pozostałe mogą zostać stablicowane przez V i rozstrzygane w czasie stałym, bez angażowania P.

Powyższy protokół pokazuje zatem przynależność #SAT(D) do klasy IP.

Powróćmy teraz do problemu QSAT. Możemy myśleć o kwantyfikatorach jako o pewnych transformacjach wykonywanych na zarytmetyzowanej formule logicznej, przedstawiając ten proces schematycznie jako:

Q1x1Q2x2Qmxmϕ,

gdzie Qi{,}, natomiast ϕ to formuła ϕ przekształcona w procesie arytmetyzacji. Operacje Qi definiujemy następująco:

  • QixiW(x1,x2,,xi,,xm)=W(x1,x2,,0,,xm)W(x1,x2,,1,,xm) gdy Qi=,
  • QixiW(x1,x2,,xi,,xm)=1(1W(x1,x2,,0,,xm))(1W(x1,x2,,1,,xm)), gdy Qi=.

Możemy w tym momencie spróbować powtórzyć poprzedni dowód, to znaczy zdefiniować ciąg wielomianów f0,f1,,fm tak, aby fm był zarytmetyzowaną formułą ϕ, a fi1=Qixifi. Niestety w tym przypadku wielomiany w kolejnych krokach są mnożone, a nie dodawane -- w związku z tym stopnie zmiennych w kolejnych wielomianach mogą rosnąć eksponencjalnie; nie będziemy zatem w stanie wypisać współczynników nawet po zawężeniu do jednej zmiennej.

Aby temu zaradzić, będziemy "po drodze" przekształcać wielomiany z użyciem następującej operacji:

RxiW(x1,x2,,xi,,xm)=xiW(x1,x2,,1,,xm)+(1xi)W(x1,x2,,0,,xm).

Wielomian otrzymany w wyniku takiej transformacji ma następujące cechy:

  • jest liniowy ze względu na xi,
  • maksymalne stopnie pozostałych zmiennych pozostają takie same,
  • nowy wielomian daje takie same wyniki co wyjściowy dla argumentów Boole'owskich (to znaczy dla liczb 0 i 1).

Zmodyfikowana procedura postępowania będzie wyglądała następująco:

Q1x1Rx1Q2x2Rx1Rx2Q3x3QmxmRx1Rxmϕ.

Zauważmy, że R nie zmienia ilości zmiennych wielomianu, natomiast operacje Qi zmniejszają tę liczbę o 1. Liczbę transformacji oznaczymy jako k -- będzie ona kwadratowo zależna od liczby zmiennych m. W tym momencie możemy już zdefiniować ciąg wielomianów f0,f1,,fk: fk będzie zarytmetyzowaną formułą ϕ, natomiast fi1 będzie otrzymywany z fi za pomocą odpowiedniej transformacji Qj lub R. Ze względu na stosowanie R stopień każdej zmiennej w tych wielomianach jest ograniczony przez liczbę literałów w ϕ (oznaczaną ponownie jako n). Podobnie jak wcześniej, f0() będzie szukanym przez nas wynikiem; wielomiany ponownie będą określone nad pewnym skończonym ciałem p -- tym razem jednak wystarczy nam dowolna liczba pierwsza p większa niż n4. Taką liczbę V może znaleźć samodzielnie, dla uproszczenia jednak założymy, że otrzymana zostanie ona tak samo jak p w protokole dla #SAT(D). Właściwy protokół będzie oparty na tej samej zasadzie co poprzednio: P wypisze wartość f0(), po czym będzie wypisywała pewne zawężenia wielomianów f1,,fk; V będzie sprawdzała, czy kolejne wielomiany nie są sprzeczne z poprzednimi (czyli również z f0), a na końcu samodzielnie obliczy zawężenie wielomianu fk¯ i porówna je z wielomianem otrzymanym od P. Ponownie, jeśli P skłamie przy podawaniu wartości f0(), prawdopodobieństwo tego, że uda jej się to kłamstwo zamaskować, będzie nieduże. Popatrzmy teraz jak wygląda pojedynczy krok protokołu. W tym celu oznaczmy i-tą transformację jako Siyi. Załóżmy bez utraty ogólności, że yi=x1, natomiast yi1=x2 -- założenie to ma na celu jedynie uproszczenie indeksowania. Podobnie jak w przypadku #SAT(D)V dysponuje współczynnikami fi1 jako wielomianu zmiennej x2, gdzie za pozostałe zmienne zostały podstawione pewne wylosowane uprzednio stałe. Jeżeli operacja Si jest kwantyfikatorem, to protokół zachowuje się praktycznie identycznie jak w poprzednim dowodzie; w tym przypadku V ma do dyspozycji wielomian fi1(x2,r3,r4,,rs), losuje liczbę r2 i prosi P o przesłanie współczynników fi(x1,r2,,rs). Jeżeli wielomian fi1(x2,r3,r4,,rs) nie jest prawidłowy -- czyli gdy funkcja P próbuje oszukać V i nie udało jej się jeszcze "zatrzeć śladów oszustwa" -- to prawdopodobieństwo, że wielomian fi(x1,r2,,rs) będzie prawidłowy, wyniesie co najwyżej n/n4, czyli 1/n3. Rozpatrzmy teraz przypadek, gdy Si=R. V ma do dyspozycji wielomian fi1(r1,x2,r3,,rs). W pierwszej kolejności V losuje pewną liczbę r2, po czym prosi P o przesłanie współczynników wielomianu fi1(x1,r2,r3,,rs). Następnie V sprawdza, czy podstawienie r2 do pierwszego z tych wielomianów daje ten sam wynik, co podstawienie r1 do drugiego. Ponownie argumentujemy, że jeśli wielomian fi1(r1,x2,r3,,rs) był nieprawidłowy -- czyli różny od "wzorcowego" wielomianu fi1¯(r1,x2,r3,,rs) -- to prawdopodobieństwo, że dla wylosowanej wartości r2 zachodzi fi1(r1,r2,r3,,rs)=fi1¯(r1,r2,r3,,rs) jest nie większe niż 1/n3. W związku z tym wielomian fi1(x1,r2,r3,,rs) będzie poprawny z prawdopodobieństwem co najwyżej równym 1/n3. W następnym kroku P przesyła współczynniki wielomianu fi(x1,r2,r3,,rs). Zauważmy, że V jest w stanie samodzielnie sprawdzić, czy wielomian fi1(x1,r2,r3,,rs) został otrzymany z fi(x1,r2,r3,,rs) w wyniku transformacji R -- transformacja ta jest przecież jednoznacznie określona. Jeżeli założymy zatem, że wielomian fi1(x1,r2,r3,,rs) jest nieprawidłowy, to nieprawidłowy musi być też wielomian fi(x1,r2,r3,,rs). Reasumując -- prawdopodobieństwo, że w kroku odpowiadającym pewnej transformacji R funkcji V uda się skutecznie "zatrzeć ślad" po wcześniejszym oszustwie, jest nie większe niż 1/n3.

Uwaga 2.12

Zauważmy, że w trakcie działania protokołu losujemy k liczb; jest zatem możliwe (i pewne), że w tym procesie V będzie podstawiać w miejsce tej samej zmiennej różne wylosowane liczby. Dla przykładu -- powyżej wylosowaliśmy liczbę r2; być może jednak już wcześniej dokonywaliśmy innej operacji na zmiennej x2 i wylosowaliśmy inną liczbę r2. Widzimy zatem, że pewne wylosowane wartości zostają w tym procesie "zapomniane" i na ich miejsce losowane są nowe. Oczywiście wyniki nowych losowań powinny być niezależne od poprzednich -- inaczej P mógłby osiągnąć większe prawdopodobieństwo skutecznego oszukania V.

Jak zauważyliśmy wcześniej, liczba wykonywanych transformacji k jest kwadratowo zależna od m; w szczególności natychmiastowe jest oszacowanie k<(m+1)2. W związku z tym prawdopodobieństwo, że V zaakceptuje słowo wejściowe nienależące do QSAT jest nie większe niż (m+1)2/n3, co z kolei jest nie większe niż (n+1)2/n3=O(1/n). Ponownie zatem V musi "stablicować" wyniki dla pewnej skończonej liczby formuł (w tym przypadku stablicowane muszą zostać formuły o co najwyżej 4 literałach), a dla reszty protokół będzie dawał prawidłowe wyniki z wymaganym prawdopodobieństwem.

Powyższy protokół pokazuje więc przynależność QSAT do klasy IP. W tym momencie wystarczy zauważyć, że klasa IP jest domknięta ze względu na redukcje wielomianowe; jeśli L1 redukuje się do L2 oraz znamy protokół rozwiązujący L2, to V może w pierwszym kroku dokonać redukcji, po czym postępować zgodnie z protokołem dla L2. Korzystając z faktu, że QSAT jest problemem PSPACE-zupełnym, stwierdzamy, że każdy problem z klasy PSPACE zawarty jest w klasie IP.

Ćwiczenie 2.13

Wyjaśnij, czemu w protokole #SAT(D) potrzebowaliśmy ciała o co najmniej 2n elementach.

Rozwiązanie

Testy końcowe