Złożoność obliczeniowa/Wykład 15: Kryptografia a złożoność: Różnice pomiędzy wersjami
Linia 313: | Linia 313: | ||
funkcję <math>\displaystyle V</math> (''verifier'') o tym, że słowo wejściowe należy do rozpatrywanego języka, natomiast ostateczna decyzja w tej sprawie należy do <math>\displaystyle V</math>. | funkcję <math>\displaystyle V</math> (''verifier'') o tym, że słowo wejściowe należy do rozpatrywanego języka, natomiast ostateczna decyzja w tej sprawie należy do <math>\displaystyle V</math>. | ||
Komunikacja odbywa się naprzemiennie: | Komunikacja odbywa się naprzemiennie: funkcja <math>\displaystyle V</math> generuje wiadomość, | ||
przekazywaną funkcji <math>\displaystyle P</math> jako argument; funkcja <math>\displaystyle P</math> z kolei generuje odpowiedź przekazywaną funkcji <math>\displaystyle V</math> w następnej iteracji. Taka komunikacja odbywa się do momentu zaakceptowania lub odrzucenia słowa wejściowego przez funkcję <math>\displaystyle V</math>. W każdym kroku obie funkcje mają do dyspozycji zarówno słowo wejściowe, jak również pełną historię przekazanych dotychczas wiadomości. | przekazywaną funkcji <math>\displaystyle P</math> jako argument; funkcja <math>\displaystyle P</math> z kolei generuje odpowiedź przekazywaną funkcji <math>\displaystyle V</math> w następnej iteracji. Taka komunikacja odbywa się do momentu zaakceptowania lub odrzucenia słowa wejściowego przez funkcję <math>\displaystyle V</math>. W każdym kroku obie funkcje mają do dyspozycji zarówno słowo wejściowe, jak również pełną historię przekazanych dotychczas wiadomości. | ||
Określmy teraz, co dokładnie oznaczają argumenty funkcji <math>\displaystyle V</math> i <math>\displaystyle P</math>. Argumenty funkcji <math>\displaystyle V</math> będziemy oznaczać w następujący sposób: | Określmy teraz, co dokładnie oznaczają argumenty funkcji <math>\displaystyle V</math> i <math>\displaystyle P</math>. Argumenty funkcji <math>\displaystyle V</math> będziemy oznaczać w następujący sposób: | ||
<math>\displaystyle V(w, r, m_1 \# m_2 \# \ldots \# m_i)</math> | <math>\displaystyle V(w, r, m_1 \# m_2 \# \ldots \# m_i)</math>. | ||
Mają one następujące znaczenie: | Mają one następujące znaczenie: | ||
* <math>\displaystyle w</math> to słowo wejściowe, | * <math>\displaystyle w</math> to słowo wejściowe, | ||
* <math>\displaystyle r</math> jest losowym ciągiem bitów, | * <math>\displaystyle r</math> jest losowym ciągiem bitów, | ||
* <math>\displaystyle m_1 \# m_2 \# \ldots \# m_i</math> to konkatenacja dotychczasowych wiadomości, które zostały przekazane w procesie komunikacji (wiadomości o indeksach nieparzystych | * <math>\displaystyle m_1 \# m_2 \# \ldots \# m_i</math> to konkatenacja dotychczasowych wiadomości, które zostały przekazane w procesie komunikacji (wiadomości o indeksach nieparzystych są wynikami działania funkcji <math>\displaystyle V</math>, natomiast wiadomości o indeksach parzystych są wynikami działania funkcji <math>\displaystyle P</math>). | ||
Zwróćmy uwagę, że <math>\displaystyle V</math> ma do dyspozycji losowe słowo <math>\displaystyle r</math>; w praktyce oznacza to, | Zwróćmy uwagę, że <math>\displaystyle V</math> ma do dyspozycji losowe słowo <math>\displaystyle r</math>; w praktyce oznacza to, | ||
Linia 334: | Linia 334: | ||
Argumenty funkcji <math>\displaystyle P</math> będziemy oznaczać następująco: | Argumenty funkcji <math>\displaystyle P</math> będziemy oznaczać następująco: | ||
<math>\displaystyle P(w, m_1 \# m_2 \# \ldots \# m_i)</math> | <math>\displaystyle P(w, m_1 \# m_2 \# \ldots \# m_i)</math>. | ||
Ich znaczenie jest identyczne jak w przypadku argumentów funkcji <math>\displaystyle V</math>, nie ma wśród nich jednak słowa losowego. | Ich znaczenie jest identyczne jak w przypadku argumentów funkcji <math>\displaystyle V</math>, nie ma wśród nich jednak słowa losowego. | ||
Linia 341: | Linia 341: | ||
{{definicja|2.2|| | {{definicja|2.2|| | ||
Niech <math>\displaystyle L \subseteq \Sigma^\star</math>. Mówimy, że <math>\displaystyle L \in IP</math> wtedy i tylko wtedy gdy istnieje system dowodów interaktywnych <math>\displaystyle (V, P)</math> oraz wielomiany <math>\displaystyle p(n)</math> i <math>\displaystyle q(n)</math> takie, że dla każdego słowa wejściowego <math>\displaystyle w</math> oraz losowego słowa <math>\displaystyle r</math> o długości <math>\displaystyle p(|x|)</math>: | Niech <math>\displaystyle L \subseteq \Sigma^\star</math>. Mówimy, że <math>\displaystyle L \in IP</math> wtedy i tylko wtedy, gdy istnieje system dowodów interaktywnych <math>\displaystyle (V, P)</math> oraz wielomiany <math>\displaystyle p(n)</math> i <math>\displaystyle q(n)</math> takie, że dla każdego słowa wejściowego <math>\displaystyle w</math> oraz losowego słowa <math>\displaystyle r</math> o długości <math>\displaystyle p(|x|)</math>: | ||
* system daje odpowiedź po co najwyżej <math>\displaystyle p(|x|)</math> krokach, | * system daje odpowiedź po co najwyżej <math>\displaystyle p(|x|)</math> krokach, | ||
* w każdej iteracji czas działania maszyny obliczającej funkcję <math>\displaystyle V</math> jest ograniczony od góry przez <math>\displaystyle q(|x|)</math>, | * w każdej iteracji czas działania maszyny obliczającej funkcję <math>\displaystyle V</math> jest ograniczony od góry przez <math>\displaystyle q(|x|)</math>, | ||
* długość każdej wiadomości <math>\displaystyle m_i</math> jest nie większa niż <math>\displaystyle p(|x|)</math>, | * długość każdej wiadomości <math>\displaystyle m_i</math> jest nie większa niż <math>\displaystyle p(|x|)</math>, | ||
* jeżeli <math>\displaystyle w \in L</math> to prawdopodobieństwo zaakceptowania słowa przez system wynosi co najmniej <math>\displaystyle 2/3</math>, | * jeżeli <math>\displaystyle w \in L</math>, to prawdopodobieństwo zaakceptowania słowa przez system wynosi co najmniej <math>\displaystyle 2/3</math>, | ||
* jeżeli <math>\displaystyle w \notin L</math> oraz <math>\displaystyle \bar P</math> jest dowolną funkcją o sygnaturze zgodnej z <math>\displaystyle P</math>, zwracającą wiadomości nie dłuższe niż <math>\displaystyle p(|x|)</math>, to system <math>\displaystyle (V, \bar P)</math> spełnia powyższe założenia na ilość iteracji, czas działania i długość wiadomości oraz akceptuje słowo <math>\displaystyle w</math> z prawdopodobieństwem nie większym niż <math>\displaystyle 1/3</math>. | * jeżeli <math>\displaystyle w \notin L</math> oraz <math>\displaystyle \bar P</math> jest dowolną funkcją o sygnaturze zgodnej z <math>\displaystyle P</math>, zwracającą wiadomości nie dłuższe niż <math>\displaystyle p(|x|)</math>, to system <math>\displaystyle (V, \bar P)</math> spełnia powyższe założenia na ilość iteracji, czas działania i długość wiadomości oraz akceptuje słowo <math>\displaystyle w</math> z prawdopodobieństwem nie większym niż <math>\displaystyle 1/3</math>. | ||
Linia 351: | Linia 351: | ||
}} | }} | ||
Innymi słowy jeżeli słowo <math>\displaystyle w</math> należy do języka, to <math>\displaystyle V</math> z dużym prawdopodobieństwem | Innymi słowy, jeżeli słowo <math>\displaystyle w</math> należy do języka, to <math>\displaystyle V</math> z dużym prawdopodobieństwem | ||
da się przekonać o tej przynależności przez pewną ustaloną funkcję <math>\displaystyle P</math>. Jeżeli | da się przekonać o tej przynależności przez pewną ustaloną funkcję <math>\displaystyle P</math>. Jeżeli | ||
jednak <math>\displaystyle w</math> nie należy do <math>\displaystyle L</math>, to <math>\displaystyle V</math> nie da się oszukać ''żadnej'' funkcji | jednak <math>\displaystyle w</math> nie należy do <math>\displaystyle L</math>, to <math>\displaystyle V</math> nie da się oszukać ''żadnej'' funkcji | ||
Linia 358: | Linia 358: | ||
{{uwaga|2.3|| | {{uwaga|2.3|| | ||
Zwróćmy jeszcze uwagę, że branie pod uwagę tylko takich funkcji <math>\displaystyle \bar P</math>, które | Zwróćmy jeszcze uwagę, że branie pod uwagę tylko takich funkcji <math>\displaystyle \bar P</math>, które | ||
nie zwracają zbyt długich słów nie jest istotnym ograniczeniem; funkcja <math>\displaystyle V</math> | nie zwracają zbyt długich słów, nie jest istotnym ograniczeniem; funkcja <math>\displaystyle V</math> | ||
może w każdym kroku sprawdzać, czy odpowiedź funkcji <math>\displaystyle \bar P</math> nie jest zbyt | może w każdym kroku sprawdzać, czy odpowiedź funkcji <math>\displaystyle \bar P</math> nie jest zbyt | ||
długa i jeśli tak to odrzucać słowo. W dalszej części rozdziału będziemy | długa i jeśli tak, to odrzucać słowo. W dalszej części rozdziału będziemy | ||
zakładali takie właśnie zachowanie funkcji <math>\displaystyle V</math>. | zakładali takie właśnie zachowanie funkcji <math>\displaystyle V</math>. | ||
}} | }} | ||
Widzimy zatem, że funkcja <math>\displaystyle V</math> musi być zabezpieczona przed oszustwami; jeżeli <math>\displaystyle V</math> mogłaby zaufać funkcji <math>\displaystyle P</math> to mogłaby rozwiązać każdy problem decyzyjny -- wystarczyłoby po prostu skorzystać z nieograniczonej mocy obliczeniowej <math>\displaystyle P</math>. | Widzimy zatem, że funkcja <math>\displaystyle V</math> musi być zabezpieczona przed oszustwami; jeżeli <math>\displaystyle V</math> mogłaby zaufać funkcji <math>\displaystyle P</math>, to mogłaby rozwiązać każdy problem decyzyjny -- wystarczyłoby po prostu skorzystać z nieograniczonej mocy obliczeniowej <math>\displaystyle P</math>. | ||
W naszym przypadku jednak nie wystarczy aby <math>\displaystyle P</math> tylko rozwiązała problem decyzyjny -- musi jeszcze przekonać <math>\displaystyle V</math> do swojego rozwiązania. | W naszym przypadku jednak nie wystarczy, aby <math>\displaystyle P</math> tylko rozwiązała problem decyzyjny -- musi jeszcze przekonać <math>\displaystyle V</math> do swojego rozwiązania. | ||
{{przyklad|2.4|| | {{przyklad|2.4|| | ||
Rozważmy problem <math>\displaystyle NON-GRAPH-ISO</math>. Jest on zdefiniowany następująco: | Rozważmy problem <math>\displaystyle NON-GRAPH-ISO</math>. Jest on zdefiniowany następująco: | ||
<math>\displaystyle NON-GRAPH-ISO = \{ \langle G, H \rangle: </math> grafy <math>\displaystyle G</math> i <math>\displaystyle H</math> nie są izomorficzne <math>\displaystyle \}</math> | <math>\displaystyle NON-GRAPH-ISO = \{ \langle G, H \rangle: </math> grafy <math>\displaystyle G</math> i <math>\displaystyle H</math> nie są izomorficzne <math>\displaystyle \}</math>. | ||
Łatwo sie przekonać, że problem izomorfizmu grafów jest w klasie <math>\displaystyle NP</math> -- wystarczy zgadnąć odpowiednią permutację wierzchołków, po czym zweryfikować ją w trywialny sposób. <math>\displaystyle NON-GRAPH-ISO</math> należy zatem do <math>\displaystyle coNP</math>. Nie jest jednak obecnie znana odpowiedź na pytanie o przynależność tego problemu do | Łatwo sie przekonać, że problem izomorfizmu grafów jest w klasie <math>\displaystyle NP</math> -- wystarczy zgadnąć odpowiednią permutację wierzchołków, po czym zweryfikować ją w trywialny sposób. <math>\displaystyle NON-GRAPH-ISO</math> należy zatem do <math>\displaystyle coNP</math>. Nie jest jednak obecnie znana odpowiedź na pytanie o przynależność tego problemu do | ||
Linia 385: | Linia 385: | ||
<div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Rozwiązanie </span><div class="mw-collapsible-content" style="display:none"> | <div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Rozwiązanie </span><div class="mw-collapsible-content" style="display:none"> | ||
Zachowanie <math>\displaystyle V</math> powinno być następujące | Zachowanie <math>\displaystyle V</math> powinno być następujące. Jeżeli <math>\displaystyle P</math> pomyli się w odpowiedzi, <math>\displaystyle V</math> powinno odrzucić parę grafów -- czyli stwierdzić, że są izomorficzne. | ||
<math>\displaystyle V</math> powinno zaakceptować grafy -- czyli stwierdzić, że nie są izomorficzne -- jeżeli <math>\displaystyle P</math> dwukrotnie poprawnie odgadnie, który graf został wylosowany przez <math>\displaystyle V</math>. Pokażemy teraz, że system ten rozpoznaje <math>\displaystyle NON-GRAPH-ISO</math>. Załóżmy, że grafy wejściowe nie są izomorficzne. W tym przypadku łatwo wskazać funkcję <math>\displaystyle P</math>, która zawsze będzie udzielała prawidłowej odpowiedzi; prawdopodobieństwo akceptacji wyniesie zatem <math>\displaystyle 1</math>. Pozostaje jeszcze tylko pokazać, że jeżeli grafy nie są izomorficzne, to <math>\displaystyle V</math> nie da się oszukać żadnej funkcji <math>\displaystyle \bar P</math>. | <math>\displaystyle V</math> powinno zaakceptować grafy -- czyli stwierdzić, że nie są izomorficzne -- jeżeli <math>\displaystyle P</math> dwukrotnie poprawnie odgadnie, który graf został wylosowany przez <math>\displaystyle V</math>. Pokażemy teraz, że system ten rozpoznaje <math>\displaystyle NON-GRAPH-ISO</math>. Załóżmy, że grafy wejściowe nie są izomorficzne. W tym przypadku łatwo wskazać funkcję <math>\displaystyle P</math>, która zawsze będzie udzielała prawidłowej odpowiedzi; prawdopodobieństwo akceptacji wyniesie zatem <math>\displaystyle 1</math>. Pozostaje jeszcze tylko pokazać, że jeżeli grafy nie są izomorficzne, to <math>\displaystyle V</math> nie da się oszukać żadnej funkcji <math>\displaystyle \bar P</math>. | ||
Funkcja <math>\displaystyle \bar P</math> nie ma jednak żadnej możliwości sprawdzenia, który graf został wybrany. Niezależnie zatem jak się zachowa, prawdopodobieństwo udzielenia | Funkcja <math>\displaystyle \bar P</math> nie ma jednak żadnej możliwości sprawdzenia, który graf został wybrany. Niezależnie zatem jak się zachowa, prawdopodobieństwo udzielenia | ||
Linia 409: | Linia 409: | ||
<div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Rozwiązanie </span><div class="mw-collapsible-content" style="display:none"> | <div class="mw-collapsible mw-made=collapsible mw-collapsed"><span class="mw-collapsible-toogle mw-collapsible-toogle-default style="font-variant:small-caps">Rozwiązanie </span><div class="mw-collapsible-content" style="display:none"> | ||
Zauważmy najpierw, że | Zauważmy najpierw, że tak określone protokoły komunikacyjne są w pełni deterministyczne (w tym sensie, że pozbawione są losowości). Zatem dla ustalonego systemu <math>\displaystyle (V, P)</math> i ustalonego słowa wejściowego odpowiedź protokołu zawsze jest taka sama. | ||
Łatwo się przekonać, że za pomocą opisanych powyżej systemów można rozpoznać dowolny język z klasy <math>\displaystyle NP</math>. Protokół wygląda w następujący sposób: | Łatwo się przekonać, że za pomocą opisanych powyżej systemów można rozpoznać dowolny język z klasy <math>\displaystyle NP</math>. Protokół wygląda w następujący sposób: dla zadanego | ||
słowa wejściowego <math>\displaystyle w</math> funkcja <math>\displaystyle P</math> zwraca świadka jego przynależności do rozważanego języka. Funkcja <math>\displaystyle V</math> następnie weryfikuje świadka w sposób deterministyczny w czasie wielomianowym i na tej podstawie udziela odpowiedzi. Jest jasne, że w przypadku gdy <math>\displaystyle w</math> należy do rozważanego języka, odpowiednia funkcja <math>\displaystyle P</math> jest w stanie przekonać <math>\displaystyle V</math> o tej przynależności -- ponieważ nie ma żadnych restrykcji na złożoność funkcji <math>\displaystyle P</math>, może ona po prostu rozważyć | słowa wejściowego <math>\displaystyle w</math> funkcja <math>\displaystyle P</math> zwraca świadka jego przynależności do rozważanego języka. Funkcja <math>\displaystyle V</math> następnie weryfikuje świadka w sposób deterministyczny w czasie wielomianowym i na tej podstawie udziela odpowiedzi. Jest jasne, że w przypadku, gdy <math>\displaystyle w</math> należy do rozważanego języka, odpowiednia funkcja <math>\displaystyle P</math> jest w stanie przekonać <math>\displaystyle V</math> o tej przynależności -- ponieważ nie ma żadnych restrykcji na złożoność funkcji <math>\displaystyle P</math>, może ona po prostu rozważyć | ||
wszystkich możliwych kandydatów na świadków o pewnej ustalonej z góry długości. Ponadto jeśli <math>\displaystyle w</math> nie należy do rozważanego języka to <math>\displaystyle V</math> jest w stanie wykryć każdą próbę oszustwa. | wszystkich możliwych kandydatów na świadków o pewnej ustalonej z góry długości. Ponadto jeśli <math>\displaystyle w</math> nie należy do rozważanego języka, to <math>\displaystyle V</math> jest w stanie wykryć każdą próbę oszustwa. | ||
Pokażemy teraz, że każdy język rozpoznawalny przez systemy opisane w treści zadania należy do <math>\displaystyle NP</math>. Ustalmy zatem pewien język <math>\displaystyle L</math> i rozpoznający go system <math>\displaystyle (V, P)</math>. Załóżmy bez straty ogólności, że system ten dla słowa wejściowego <math>\displaystyle w</math> wykonuje dokładnie <math>\displaystyle p(|w|)</math> kroków | Pokażemy teraz, że każdy język rozpoznawalny przez systemy opisane w treści zadania należy do <math>\displaystyle NP</math>. Ustalmy zatem pewien język <math>\displaystyle L</math> i rozpoznający go system <math>\displaystyle (V, P)</math>. Załóżmy bez straty ogólności, że system ten dla słowa wejściowego <math>\displaystyle w</math> wykonuje dokładnie <math>\displaystyle p(|w|)</math> kroków oraz że każda przekazywana wiadomość ma długość <math>\displaystyle p(|w|)</math>. Zdefiniujmy teraz niedeterministyczną maszynę Turinga | ||
<math>\displaystyle M</math>, rozpoznającą język <math>\displaystyle L</math>. Załóżmy, że maszyna oprócz taśmy roboczej ma też (początkowo pustą) taśmę służącą do przechowywania kolejnych komunikatów. Działanie maszyny <math>\displaystyle M</math> będzie podzielone na fazy; w fazach nieparzystych maszyna będzie symulować działanie funkcji <math>\displaystyle V</math> -- to znaczy <math>\displaystyle M</math> przeczyta historię wysłanych dotychczas wiadomości i słowo wejściowe, i na tej podstawie dopisze kolejną wiadomość. W fazach parzystych maszyna <math>\displaystyle M</math> w sposób niedeterministyczny wygeneruje wiadomość o długości <math>\displaystyle p(|w|)</math> i dopisze ją na taśmę. W przypadku, gdy <math>\displaystyle w \in L</math> łatwo wskazać ścieżkę postępowania dla tej maszyny, która doprowadzi do akceptacji; będzie to ścieżka, w której wygenerowane w fazach parzystych wiadomości pokrywają się z odpowiedziami udzielanymi przez funkcję <math>\displaystyle P</math>. Rozważmy teraz przypadek <math>\displaystyle w \notin L</math>. Załóżmy nie wprost, że istnieje taka ścieżka postępowania maszyny <math>\displaystyle M</math>, która doprowadzi | <math>\displaystyle M</math>, rozpoznającą język <math>\displaystyle L</math>. Załóżmy, że maszyna oprócz taśmy roboczej ma też (początkowo pustą) taśmę służącą do przechowywania kolejnych komunikatów. Działanie maszyny <math>\displaystyle M</math> będzie podzielone na fazy; w fazach nieparzystych maszyna będzie symulować działanie funkcji <math>\displaystyle V</math> -- to znaczy <math>\displaystyle M</math> przeczyta historię wysłanych dotychczas wiadomości i słowo wejściowe, i na tej podstawie dopisze kolejną wiadomość. W fazach parzystych maszyna <math>\displaystyle M</math> w sposób niedeterministyczny wygeneruje wiadomość o długości <math>\displaystyle p(|w|)</math> i dopisze ją na taśmę. W przypadku, gdy <math>\displaystyle w \in L</math> łatwo wskazać ścieżkę postępowania dla tej maszyny, która doprowadzi do akceptacji; będzie to ścieżka, w której wygenerowane w fazach parzystych wiadomości pokrywają się z odpowiedziami udzielanymi przez funkcję <math>\displaystyle P</math>. Rozważmy teraz przypadek <math>\displaystyle w \notin L</math>. Załóżmy nie wprost, że istnieje taka ścieżka postępowania maszyny <math>\displaystyle M</math>, która doprowadzi | ||
do akceptacji tego słowa. W takim przypadku możemy jednak utworzyć funkcję <math>\displaystyle \bar P</math>, która będzie zwracała wiadomości wygenerowane w fazach parzystych postępowania maszyny <math>\displaystyle M</math>. W tym przypadku funkcja <math>\displaystyle V</math> da się oszukać funkcji <math>\displaystyle \bar P</math> dla słowa <math>\displaystyle w</math> z prawdopodobieństwem równym 1 -- a zatem system <math>\displaystyle (V, P)</math> nie będzie rozpoznawał języka <math>\displaystyle L</math>, co jest sprzeczne z założeniem. | do akceptacji tego słowa. W takim przypadku możemy jednak utworzyć funkcję <math>\displaystyle \bar P</math>, która będzie zwracała wiadomości wygenerowane w fazach parzystych postępowania maszyny <math>\displaystyle M</math>. W tym przypadku funkcja <math>\displaystyle V</math> da się oszukać funkcji <math>\displaystyle \bar P</math> dla słowa <math>\displaystyle w</math> z prawdopodobieństwem równym 1 -- a zatem system <math>\displaystyle (V, P)</math> nie będzie rozpoznawał języka <math>\displaystyle L</math>, co jest sprzeczne z założeniem. | ||
Linia 422: | Linia 422: | ||
</div></div> | </div></div> | ||
Możemy w tym momencie przypuszczać, że klasa <math>\displaystyle IP</math> jest znacząco większa od klasy <math>\displaystyle NP</math>. Nie wiemy obecnie czy przypuszczenie to jest prawdziwe; przemawia jednak za nim poniższe twierdzenie. | Możemy w tym momencie przypuszczać, że klasa <math>\displaystyle IP</math> jest znacząco większa od klasy <math>\displaystyle NP</math>. Nie wiemy obecnie, czy przypuszczenie to jest prawdziwe; przemawia jednak za nim poniższe twierdzenie. | ||
{{twierdzenie|2.8|| | {{twierdzenie|2.8|| | ||
Linia 434: | Linia 434: | ||
Załóżmy, że system <math>\displaystyle (V, P')</math> akceptuje wybrany język w czasie wielomianowym. | Załóżmy, że system <math>\displaystyle (V, P')</math> akceptuje wybrany język w czasie wielomianowym. | ||
Ustalmy słowo <math>\displaystyle w</math>. Będziemy mówić, że ciąg wiadomości <math>\displaystyle m_1\#m_2\#\ldots\#m_i</math> jest zgodny ze słowem losowym <math>\displaystyle r</math> jeżeli stanowi on historię wiadomości po | Ustalmy słowo <math>\displaystyle w</math>. Będziemy mówić, że ciąg wiadomości <math>\displaystyle m_1\#m_2\#\ldots\#m_i</math> jest zgodny ze słowem losowym <math>\displaystyle r</math>, jeżeli stanowi on historię wiadomości po | ||
<math>\displaystyle i</math> iteracjach pewnego systemu <math>\displaystyle (V, P'')</math> | <math>\displaystyle i</math> iteracjach pewnego systemu <math>\displaystyle (V, P'')</math> używającego słowa losowego <math>\displaystyle r</math>. | ||
Warto zauważyć, że ciąg wiadomości może być zgodny z wieloma słowami losowymi (na przykład ciąg pusty jest zgodny z każdym słowem losowym), a słowo losowe może być zgodne z różnymi ciągami wiadomości (w zależności od funkcji <math>\displaystyle P''</math>). | Warto zauważyć, że ciąg wiadomości może być zgodny z wieloma słowami losowymi (na przykład ciąg pusty jest zgodny z każdym słowem losowym), a słowo losowe może być zgodne z różnymi ciągami wiadomości (w zależności od funkcji <math>\displaystyle P''</math>). | ||
Zdefiniujmy teraz funkcję <math>\displaystyle P</math> w taki sposób, by miała ona następującą własność: | Zdefiniujmy teraz funkcję <math>\displaystyle P</math> w taki sposób, by miała ona następującą własność: | ||
<math>\displaystyle \forall_w Pr((V, P)</math> akceptuje <math>\displaystyle w) = max_{P''} Pr((V, P'')</math> akceptuje <math>\displaystyle w)</math> | <math>\displaystyle \forall_w Pr((V, P)</math> akceptuje <math>\displaystyle w) = max_{P''} Pr((V, P'')</math> akceptuje <math>\displaystyle w)</math>. | ||
Funkcja <math>\displaystyle P</math> zatem dla każdego słowa wejściowego zachowuje się w najlepszy możliwy sposób. Jest ona dobrze zdefiniowana, gdyż dla każdego wejściowego | Funkcja <math>\displaystyle P</math> zatem dla każdego słowa wejściowego zachowuje się w najlepszy możliwy sposób. Jest ona dobrze zdefiniowana, gdyż dla każdego wejściowego | ||
Linia 447: | Linia 447: | ||
Jest jasne, że <math>\displaystyle (V, P)</math> również akceptuje wybrany język w czasie wielomianowym -- od tej pory będziemy się zatem zajmowali tym konkretnym systemem. Nasz | Jest jasne, że <math>\displaystyle (V, P)</math> również akceptuje wybrany język w czasie wielomianowym -- od tej pory będziemy się zatem zajmowali tym konkretnym systemem. Nasz | ||
algorytm będzie dla każdego słowa wejściowego wprost obliczał prawdopodobieństwo | algorytm będzie dla każdego słowa wejściowego wprost obliczał prawdopodobieństwo | ||
zaakceptowania go przez system <math>\displaystyle (V, P)</math>; tym samym, w zależności od wyniku, będzie mógł | zaakceptowania go przez system <math>\displaystyle (V, P)</math>; tym samym, w zależności od wyniku, będzie mógł określić, czy słowo wejściowe należy do języka. Dla uproszczenia | ||
założymy, że system <math>\displaystyle (V, P)</math> daje odpowiedzi po dokładnie <math>\displaystyle p(|x|)</math> krokach. | założymy, że system <math>\displaystyle (V, P)</math> daje odpowiedzi po dokładnie <math>\displaystyle p(|x|)</math> krokach. | ||
Zdefiniujmy teraz funkcję | Zdefiniujmy teraz funkcję mierzącą prawdopodobieństwo akceptacji słowa przez | ||
system <math>\displaystyle (V, P)</math> przy ustalonej częściowej historii komunikacji: | system <math>\displaystyle (V, P)</math> przy ustalonej częściowej historii komunikacji: | ||
<math>\displaystyle N(m_1\#m_2\#\ldots\#m_i) = Pr(</math>słowo <math>\displaystyle w</math> zostanie zaakceptowane pod warunkiem, że dotychczasowe komunikaty reprezentowane są przez <math>\displaystyle m_1\#m_2\#\ldots\#m_i)</math> | <math>\displaystyle N(m_1\#m_2\#\ldots\#m_i) = Pr(</math>słowo <math>\displaystyle w</math> zostanie zaakceptowane pod warunkiem, że dotychczasowe komunikaty reprezentowane są przez <math>\displaystyle m_1\#m_2\#\ldots\#m_i)</math>. | ||
W przypadku, gdy nie ma słowa losowego zgodnego z <math>\displaystyle m_1\#m_2\#\ldots\#m_i</math>, | W przypadku, gdy nie ma słowa losowego zgodnego z <math>\displaystyle m_1\#m_2\#\ldots\#m_i</math>, | ||
Linia 460: | Linia 460: | ||
* jeżeli <math>\displaystyle m_{p(|x|)} = accept</math> i <math>\displaystyle m_1\#m_2 \#\ldots\#m_{p(|x|)}</math> jest zgodne z pewnym słowem losowym, to | * jeżeli <math>\displaystyle m_{p(|x|)} = accept</math> i <math>\displaystyle m_1\#m_2 \#\ldots\#m_{p(|x|)}</math> jest zgodne z pewnym słowem losowym, to | ||
<math>\displaystyle N(m_1\#m_2\#\ldots\#m_{p(|x|)}) = 1</math> | <math>\displaystyle N(m_1\#m_2\#\ldots\#m_{p(|x|)}) = 1</math>, | ||
* w przeciwnym przypadku | * w przeciwnym przypadku | ||
<math>\displaystyle N(m_1\#m_2\#\ldots\#m_{p(|x|)}) = 0</math> | <math>\displaystyle N(m_1\#m_2\#\ldots\#m_{p(|x|)}) = 0</math>. | ||
Do obliczania wartości <math>\displaystyle N</math> dla mniejszej ilości kroków, możemy posłużyć się następującym wzorem rekurencyjnym: | Do obliczania wartości <math>\displaystyle N</math> dla mniejszej ilości kroków, możemy posłużyć się następującym wzorem rekurencyjnym: | ||
* jeżeli <math>\displaystyle i</math> jest nieparzyste, to | * jeżeli <math>\displaystyle i</math> jest nieparzyste, to | ||
<math>\displaystyle N(m_1\#m_2\#\ldots\#m_i) = \max_{m_{i+1}} N(m_1\#m_2\#\ldots\#m_{i+1}) </math> | <math>\displaystyle N(m_1\#m_2\#\ldots\#m_i) = \max_{m_{i+1}} N(m_1\#m_2\#\ldots\#m_{i+1}) </math>, | ||
* jeżeli <math>\displaystyle i</math> jest parzyste, to | * jeżeli <math>\displaystyle i</math> jest parzyste, to | ||
<math>\displaystyle N(m_1\#m_2\#\ldots\#m_i) = \sum_{m_{i+1}} Pr(m_{i+1}|m_1\#m_2\#\ldots\#m_i) \cdot N(m_1\#m_2\#\ldots\#m_{i+1}) </math> | <math>\displaystyle N(m_1\#m_2\#\ldots\#m_i) = \sum_{m_{i+1}} Pr(m_{i+1}|m_1\#m_2\#\ldots\#m_i) \cdot N(m_1\#m_2\#\ldots\#m_{i+1}) </math>. | ||
Wzór ten jest konsekwencją zachowania <math>\displaystyle P</math> i <math>\displaystyle V</math>: <math>\displaystyle P</math> w każdym kroku maksymalizuje | Wzór ten jest konsekwencją zachowania <math>\displaystyle P</math> i <math>\displaystyle V</math>: <math>\displaystyle P</math> w każdym kroku maksymalizuje | ||
prawdopodobieństwo akceptacji, natomiast zachowanie <math>\displaystyle V</math> zależne jest od historii wiadomości i słowa losowego. | prawdopodobieństwo akceptacji, natomiast zachowanie <math>\displaystyle V</math> zależne jest od historii wiadomości i słowa losowego. | ||
W tym momencie wystarczą dwa spostrzeżenia | W tym momencie wystarczą dwa spostrzeżenia. Po pierwsze, <math>\displaystyle N(\epsilon)</math> jest poszukiwanym przez nas prawdopodobieństwem zaakceptowania przez system <math>\displaystyle (V, P)</math> słowa <math>\displaystyle w</math>. Po drugie, <math>\displaystyle N(\epsilon)</math> jest obliczalne w pamięci wielomianowej: | ||
każde rekurencyjne wywołanie funkcji <math>\displaystyle N</math> powoduje sekwencyjne rozważenie wszystkich możliwych odpowiedzi, których długość jest jednak ograniczona od góry przez <math>\displaystyle p(|x|)</math>. Dodatkowo przy obliczeniach na poziomie zagłębienia <math>\displaystyle p(|x|)</math> należy rozważyć wszystkie możliwe słowa losowe i sprawdzić ich zgodność z aktualnie rozważanym ciągiem komunikatów. Wszystkie te operacje można wykonać | |||
z użyciem <math>\displaystyle O(p(|x|)^2)</math> komórek pamięci. | z użyciem <math>\displaystyle O(p(|x|)^2)</math> komórek pamięci. | ||
Linia 486: | Linia 486: | ||
Dowód zawierania w drugą stronę odbywa się poprzez przedstawienie protokołu | Dowód zawierania w drugą stronę odbywa się poprzez przedstawienie protokołu | ||
komunikacji dla problemu <math>\displaystyle QSAT</math>. Aby przybliżyć stosowaną w tym protokole technikę, zaprezentujemy najpierw dowód przynależności do klasy <math>\displaystyle IP</math> problemu <math>\displaystyle \#SAT(D)</math> | komunikacji dla problemu <math>\displaystyle QSAT</math>. Aby przybliżyć stosowaną w tym protokole technikę, zaprezentujemy najpierw dowód przynależności do klasy <math>\displaystyle IP</math> problemu <math>\displaystyle \#SAT(D)</math> będącego wersją decyzyjną problemu <math>\displaystyle \#SAT</math>: | ||
{{definicja|2.9|| | {{definicja|2.9|| | ||
<math>\displaystyle \#SAT(D) = \{ \langle \phi, k \rangle:</math> liczba wartościowań spełniających dla | <math>\displaystyle \#SAT(D) = \{ \langle \phi, k \rangle:</math> liczba wartościowań spełniających dla | ||
formuły <math>\displaystyle \phi</math> jest nie mniejsza niż <math>\displaystyle k \}</math> | formuły <math>\displaystyle \phi</math> jest nie mniejsza niż <math>\displaystyle k \}</math>. | ||
}} | }} | ||
Linia 506: | Linia 506: | ||
Niech <math>\displaystyle \phi</math> będzie formułą z <math>\displaystyle m</math> zmiennymi, natomiast <math>\displaystyle W(x_1, \ldots, x_m)</math> | Niech <math>\displaystyle \phi</math> będzie formułą z <math>\displaystyle m</math> zmiennymi, natomiast <math>\displaystyle W(x_1, \ldots, x_m)</math> | ||
wielomianem otrzymanych w sposób przedstawiony powyżej. Weźmy dowolne | wielomianem otrzymanych w sposób przedstawiony powyżej. Weźmy dowolne | ||
wartościowanie zmiennych formuły <math>\displaystyle \phi</math> i podstawmy je do wielomianu <math>\displaystyle W</math> (to znaczy podstawmy 0 gdy zmienna jest wartościowana na "fałsz" i | wartościowanie zmiennych formuły <math>\displaystyle \phi</math> i podstawmy je do wielomianu <math>\displaystyle W</math> (to znaczy podstawmy 0, gdy zmienna jest wartościowana na "fałsz" i | ||
1 w przeciwnym przypadku). Pokaż, że wartość wielomianu <math>\displaystyle W</math> jest równa 1 gdy wybrane wartościowanie jest wartościowaniem spełniającym dla <math>\displaystyle \phi</math> oraz 0 w przeciwnym przypadku. | 1 w przeciwnym przypadku). Pokaż, że wartość wielomianu <math>\displaystyle W</math> jest równa 1, gdy wybrane wartościowanie jest wartościowaniem spełniającym dla <math>\displaystyle \phi</math> oraz 0 w przeciwnym przypadku. | ||
}} | }} | ||
Linia 517: | Linia 517: | ||
Indukcja będzie zdefiniowana ze względu na ilość literałów w formule. Niech | Indukcja będzie zdefiniowana ze względu na ilość literałów w formule. Niech | ||
<math>\displaystyle \phi</math> będzie formułą z jednym literałem. Będzie ona zatem postaci <math>\displaystyle \phi = x</math> | <math>\displaystyle \phi</math> będzie formułą z jednym literałem. Będzie ona zatem postaci <math>\displaystyle \phi = x</math> | ||
lub <math>\displaystyle \phi = \neg x</math>. Po zastosowaniu procesu arytmetyzacji | lub <math>\displaystyle \phi = \neg x</math>. Po zastosowaniu procesu arytmetyzacji wielomian będzie | ||
miał postać odpowiednio <math>\displaystyle W(x) = x</math> lub <math>\displaystyle W(x) = (1 - x)</math>. Jest zatem jasne, | miał postać odpowiednio <math>\displaystyle W(x) = x</math> lub <math>\displaystyle W(x) = (1 - x)</math>. Jest zatem jasne, | ||
że dla wartościowania zmiennej <math>\displaystyle x</math> na "fałsz" wartości wielomianów wynoszą | że dla wartościowania zmiennej <math>\displaystyle x</math> na "fałsz" wartości wielomianów wynoszą | ||
Linia 531: | Linia 531: | ||
spełniającym dla formuły <math>\displaystyle \phi</math>; jest ono zatem wartościowaniem spełniającym | spełniającym dla formuły <math>\displaystyle \phi</math>; jest ono zatem wartościowaniem spełniającym | ||
dla <math>\displaystyle \alpha</math> i <math>\displaystyle \beta</math>. Formuły <math>\displaystyle \alpha</math> i <math>\displaystyle \beta</math> mają co najwyżej <math>\displaystyle n-1</math> | dla <math>\displaystyle \alpha</math> i <math>\displaystyle \beta</math>. Formuły <math>\displaystyle \alpha</math> i <math>\displaystyle \beta</math> mają co najwyżej <math>\displaystyle n-1</math> | ||
literałów -- korzystając z założenia indukcyjnego możemy stwierdzić, że | literałów -- korzystając z założenia indukcyjnego, możemy stwierdzić, że: | ||
<math>\displaystyle W_\alpha(a_1,\ldots,a_m) = W_\beta(a_1,\ldots,a_m) = 1</math> | <math>\displaystyle W_\alpha(a_1,\ldots,a_m) = W_\beta(a_1,\ldots,a_m) = 1</math>. | ||
W związku z tym | W związku z tym: | ||
<math>\displaystyle W(a_1,\ldots,a_m) = 1</math> | <math>\displaystyle W(a_1,\ldots,a_m) = 1</math>. | ||
Załóżmy teraz, że <math>\displaystyle a_1,\ldots,a_m</math> nie jest wartościowaniem spełniającym | Załóżmy teraz, że <math>\displaystyle a_1,\ldots,a_m</math> nie jest wartościowaniem spełniającym | ||
dla <math>\displaystyle \phi</math>. Nie jest zatem wartościowaniem spełniającym dla przynajmniej | dla <math>\displaystyle \phi</math>. Nie jest zatem wartościowaniem spełniającym dla przynajmniej | ||
jednej z formuł <math>\displaystyle \alpha</math> lub <math>\displaystyle \beta</math>. W związku z tym zachodzi | jednej z formuł <math>\displaystyle \alpha</math> lub <math>\displaystyle \beta</math>. W związku z tym zachodzi własność: | ||
<math>\displaystyle W_\alpha(a_1,\ldots,a_m) = 0</math> | <math>\displaystyle W_\alpha(a_1,\ldots,a_m) = 0</math> | ||
Linia 547: | Linia 547: | ||
lub | lub | ||
<math>\displaystyle W_\beta(a_1,\ldots,a_m) = 0</math> | <math>\displaystyle W_\beta(a_1,\ldots,a_m) = 0</math>. | ||
W konsekwencji | W konsekwencji: | ||
<math>\displaystyle W(a_1,\ldots,a_m) = 0</math> | <math>\displaystyle W(a_1,\ldots,a_m) = 0</math>. | ||
Dowód przypadku gdy <math>\displaystyle \phi = \alpha \vee \beta</math> jest analogiczny. | Dowód przypadku, gdy <math>\displaystyle \phi = \alpha \vee \beta</math>, jest analogiczny. | ||
</div></div> | </div></div> | ||
Linia 582: | Linia 582: | ||
W przypadku, gdy <math>\displaystyle \phi = \alpha \vee \beta</math>, wielomian <math>\displaystyle W</math> jest postaci: | W przypadku, gdy <math>\displaystyle \phi = \alpha \vee \beta</math>, wielomian <math>\displaystyle W</math> jest postaci: | ||
<math>\displaystyle W(\ldots) = 1 - (1 - W_\alpha(\ldots))\cdot(1 - W_\beta(\ldots))</math> | <math>\displaystyle W(\ldots) = 1 - (1 - W_\alpha(\ldots))\cdot(1 - W_\beta(\ldots))</math>. | ||
Po dokonaniu mnożenia otrzymamy: | Po dokonaniu mnożenia otrzymamy: | ||
<math>\displaystyle W(\ldots) = W_\alpha (\ldots) + W_\beta (\ldots) - W_\alpha (\ldots) \cdot W_\beta(\ldots)</math> | <math>\displaystyle W(\ldots) = W_\alpha (\ldots) + W_\beta (\ldots) - W_\alpha (\ldots) \cdot W_\beta(\ldots)</math>. | ||
Jest zatem jasne, że stopień <math>\displaystyle W</math> jako zmiennej <math>\displaystyle x_i</math> jest nie większy niż | Jest zatem jasne, że stopień <math>\displaystyle W</math> jako zmiennej <math>\displaystyle x_i</math> jest nie większy niż | ||
Linia 634: | Linia 634: | ||
W tym momencie jesteśmy gotowi do przedstawienia protokołu dla <math>\displaystyle \#SAT(D)</math>: | W tym momencie jesteśmy gotowi do przedstawienia protokołu dla <math>\displaystyle \#SAT(D)</math>: | ||
* Krok 1 (P): Znajdź liczbę pierwszą <math>\displaystyle p</math> z przedziału <math>\displaystyle [2^n, 2^{n+1}]</math> oraz jej certyfikat pierwszości (taka liczba na pewno istnieje -- wynika to z twierdzenia Bertranda-Czebyszewa). Prześlij je jako wiadomość. | * Krok 1 (P): Znajdź liczbę pierwszą <math>\displaystyle p</math> z przedziału <math>\displaystyle [2^n, 2^{n+1}]</math> oraz jej certyfikat pierwszości (taka liczba na pewno istnieje -- wynika to z twierdzenia Bertranda--Czebyszewa). Prześlij je jako wiadomość. | ||
* Krok 2 (V): Sprawdź poprawność liczby <math>\displaystyle p</math>, odrzuć słowo wejściowe jeśli <math>\displaystyle p</math> lub jej certyfikat są nieprawidłowe | * Krok 2 (V): Sprawdź poprawność liczby <math>\displaystyle p</math>, odrzuć słowo wejściowe, jeśli <math>\displaystyle p</math> lub jej certyfikat są nieprawidłowe. | ||
* Krok 3 (P): Oblicz <math>\displaystyle f_0()</math> i prześlij jako wiadomość | * Krok 3 (P): Oblicz <math>\displaystyle f_0()</math> i prześlij jako wiadomość. | ||
* Krok 4 (V): Sprawdź, czy <math>\displaystyle f_0() \geq k</math> -- jeśli nie to odrzuć słowo wejściowe | * Krok 4 (V): Sprawdź, czy <math>\displaystyle f_0() \geq k</math> -- jeśli nie to odrzuć słowo wejściowe. | ||
* Krok 5 (P): Oblicz <math>\displaystyle f_1(z)</math> (wielomian ze zmienną <math>\displaystyle z</math>) i prześlij jego współczynniki jako wiadomość | * Krok 5 (P): Oblicz <math>\displaystyle f_1(z)</math> (wielomian ze zmienną <math>\displaystyle z</math>) i prześlij jego współczynniki jako wiadomość. | ||
* Krok 6 (V): Sprawdź, czy <math>\displaystyle f_0() = f_1(0) + f_1(1)</math>. Wylosuj dowolną liczbę <math>\displaystyle r_1</math> z <math>\displaystyle {\mathbb Z}_p</math> i prześlij ją jako wiadomość, | * Krok 6 (V): Sprawdź, czy <math>\displaystyle f_0() = f_1(0) + f_1(1)</math>. Wylosuj dowolną liczbę <math>\displaystyle r_1</math> z <math>\displaystyle {\mathbb Z}_p</math> i prześlij ją jako wiadomość, | ||
* Krok 7 (P): Oblicz <math>\displaystyle f_2(r_1, z)</math> (to też jest wielomian z jedną zmienną <math>\displaystyle z</math>) i prześlij jego współczynniki jako wiadomość | * Krok 7 (P): Oblicz <math>\displaystyle f_2(r_1, z)</math> (to też jest wielomian z jedną zmienną <math>\displaystyle z</math>) i prześlij jego współczynniki jako wiadomość. | ||
* Krok 8 (V): Sprawdź, czy <math>\displaystyle f_1(r_1)=f_2(r_1,0)+f_2(r_1,1)</math>. Wylosuj dowolną liczbę <math>\displaystyle r_2</math> z <math>\displaystyle {\mathbb Z}_p</math> i prześlij ją jako wiadomość | * Krok 8 (V): Sprawdź, czy <math>\displaystyle f_1(r_1)=f_2(r_1,0)+f_2(r_1,1)</math>. Wylosuj dowolną liczbę <math>\displaystyle r_2</math> z <math>\displaystyle {\mathbb Z}_p</math> i prześlij ją jako wiadomość. | ||
* <math>\displaystyle \cdots</math> | * <math>\displaystyle \cdots</math> | ||
* Krok <math>\displaystyle 2m + 4</math> (V): Sprawdź, czy <math>\displaystyle f_{m-1}(r_1, \ldots, r_{m-1})=f_m(r_1,\ldots,r_{m-1},0)+f_m(r_1,\ldots,r_{m-1},1)</math>. Sprawdź, czy <math>\displaystyle f_m(r_1,\ldots,r_{m-1},z)</math> jest wielomianem otrzymanym przez arytmetyzację formuły <math>\displaystyle \phi</math> i podstawienie <math>\displaystyle r_1,\ldots,r_{m-1}</math> jako pierwszych <math>\displaystyle m-1</math> argumentów otrzymanego wielomianu. Jeżeli tak, to zaakceptuj słowo wejściowe, w przeciwnym przypadku je | * Krok <math>\displaystyle 2m + 4</math> (V): Sprawdź, czy <math>\displaystyle f_{m-1}(r_1, \ldots, r_{m-1})=f_m(r_1,\ldots,r_{m-1},0)+f_m(r_1,\ldots,r_{m-1},1)</math>. Sprawdź, czy <math>\displaystyle f_m(r_1,\ldots,r_{m-1},z)</math> jest wielomianem otrzymanym przez arytmetyzację formuły <math>\displaystyle \phi</math> i podstawienie <math>\displaystyle r_1,\ldots,r_{m-1}</math> jako pierwszych <math>\displaystyle m-1</math> argumentów otrzymanego wielomianu. Jeżeli tak, to zaakceptuj słowo wejściowe, w przeciwnym przypadku odrzuć je. | ||
W przypadku gdy słowo wejściowe należy do <math>\displaystyle \#SAT(D)</math> jest jasne, że funkcja <math>\displaystyle P</math> | W przypadku, gdy słowo wejściowe należy do <math>\displaystyle \#SAT(D)</math>, jest jasne, że funkcja <math>\displaystyle P</math>, | ||
postępująca zgodnie z powyższym protokołem zawsze przekona <math>\displaystyle V</math> o tej | postępująca zgodnie z powyższym protokołem, zawsze przekona <math>\displaystyle V</math> o tej | ||
przynależności. Popatrzmy teraz, co się stanie, gdy słowo wejściowe nie należy | przynależności. Popatrzmy teraz, co się stanie, gdy słowo wejściowe nie należy | ||
do <math>\displaystyle \#SAT(D)</math>; w tym przypadku wartość <math>\displaystyle f_0()</math> podana przez <math>\displaystyle \bar P</math> będzie | do <math>\displaystyle \#SAT(D)</math>; w tym przypadku wartość <math>\displaystyle f_0()</math> podana przez <math>\displaystyle \bar P</math> będzie | ||
Linia 652: | Linia 652: | ||
W związku z tym przynajmniej jedna z wartości <math>\displaystyle f_1(0)</math> lub <math>\displaystyle f_1(1)</math> będzie | W związku z tym przynajmniej jedna z wartości <math>\displaystyle f_1(0)</math> lub <math>\displaystyle f_1(1)</math> będzie | ||
różna od oczekiwanej -- <math>\displaystyle \bar {f_1}(0)</math> lub <math>\displaystyle \bar {f_1}(1)</math> -- a co za tym | różna od oczekiwanej -- <math>\displaystyle \bar {f_1}(0)</math> lub <math>\displaystyle \bar {f_1}(1)</math> -- a co za tym | ||
idzie wielomian <math>\displaystyle f_1(z)</math> będzie różny od <math>\displaystyle \bar {f_1}(z)</math>. Pokażemy teraz fakt | idzie wielomian <math>\displaystyle f_1(z)</math> będzie różny od <math>\displaystyle \bar {f_1}(z)</math>. Pokażemy teraz fakt | ||
będący sednem naszego dowodu: | będący sednem naszego dowodu: jeżeli wielomian <math>\displaystyle f_i(r_1,r_2,\ldots,r_{i-1},z)</math> | ||
jest różny od wielomianu <math>\displaystyle \bar {f_i}(r_1,r_2,\ldots,r_{i-1},z)</math>, to z dużym | jest różny od wielomianu <math>\displaystyle \bar {f_i}(r_1,r_2,\ldots,r_{i-1},z)</math>, to z dużym | ||
prawdopodobieństwem również <math>\displaystyle f_{i+1}(r_1,r_2,\ldots,r_i,z)</math> będzie różny od | prawdopodobieństwem również <math>\displaystyle f_{i+1}(r_1,r_2,\ldots,r_i,z)</math> będzie różny od | ||
Linia 688: | Linia 688: | ||
przedstawiając ten proces schematycznie jako: | przedstawiając ten proces schematycznie jako: | ||
<math>\displaystyle {Q_1}_{x_1} {Q_2}_{x_2} \ldots {Q_m}_{x_m} \langle \phi \rangle</math> | <math>\displaystyle {Q_1}_{x_1} {Q_2}_{x_2} \ldots {Q_m}_{x_m} \langle \phi \rangle</math>, | ||
gdzie <math>\displaystyle Q_i \in \{ \exists, \forall \}</math>, natomiast <math>\displaystyle \langle \phi \rangle</math> to | gdzie <math>\displaystyle Q_i \in \{ \exists, \forall \}</math>, natomiast <math>\displaystyle \langle \phi \rangle</math> to | ||
Linia 696: | Linia 696: | ||
W(x_1,x_2,\ldots,1,\ldots,x_m)</math> gdy <math>\displaystyle Q_i = \forall</math>, | W(x_1,x_2,\ldots,1,\ldots,x_m)</math> gdy <math>\displaystyle Q_i = \forall</math>, | ||
* <math>\displaystyle {Q_i}_{x_i} W(x_1,x_2,\ldots,x_i,\ldots,x_m) = 1 - (1 - W(x_1,x_2,\ldots,0,\ldots,x_m)) \cdot | * <math>\displaystyle {Q_i}_{x_i} W(x_1,x_2,\ldots,x_i,\ldots,x_m) = 1 - (1 - W(x_1,x_2,\ldots,0,\ldots,x_m)) \cdot | ||
(1 - W(x_1,x_2,\ldots,1,\ldots,x_m)) \mbox{ gdy }\displaystyle Q_i = \exists</math>. | (1 - W(x_1,x_2,\ldots,1,\ldots,x_m)), \mbox{ gdy }\displaystyle Q_i = \exists</math>. | ||
Możemy w tym momencie spróbować powtórzyć poprzedni dowód, to znaczy zdefiniować | Możemy w tym momencie spróbować powtórzyć poprzedni dowód, to znaczy zdefiniować | ||
Linia 709: | Linia 709: | ||
<math>\displaystyle R_{x_i} W(x_1,x_2,\ldots,x_i,\ldots,x_m) = x_i \cdot W(x_1,x_2,\ldots,1,\ldots,x_m) | <math>\displaystyle R_{x_i} W(x_1,x_2,\ldots,x_i,\ldots,x_m) = x_i \cdot W(x_1,x_2,\ldots,1,\ldots,x_m) | ||
+ (1 - x_i) \cdot W(x_1,x_2,\ldots,0,\ldots,x_m)</math> | + (1 - x_i) \cdot W(x_1,x_2,\ldots,0,\ldots,x_m)</math>. | ||
Wielomian otrzymany w wyniku takiej transformacji ma następujące cechy: | Wielomian otrzymany w wyniku takiej transformacji ma następujące cechy: | ||
Linia 719: | Linia 719: | ||
<math>\displaystyle {Q_1}_{x_1} R_{x_1} {Q_2}_{x_2} R_{x_1} R_{x_2} {Q_3}_{x_3} \ldots | <math>\displaystyle {Q_1}_{x_1} R_{x_1} {Q_2}_{x_2} R_{x_1} R_{x_2} {Q_3}_{x_3} \ldots | ||
{Q_m}_{x_m} R_{x_1} \ldots R_{x_m} \langle \phi \rangle</math> | {Q_m}_{x_m} R_{x_1} \ldots R_{x_m} \langle \phi \rangle</math>. | ||
Zauważmy, że <math>\displaystyle R</math> nie zmienia ilości zmiennych wielomianu, natomiast operacje | Zauważmy, że <math>\displaystyle R</math> nie zmienia ilości zmiennych wielomianu, natomiast operacje | ||
<math>\displaystyle Q_i</math> zmniejszają | <math>\displaystyle Q_i</math> zmniejszają tę liczbę o 1. | ||
Liczbę transformacji oznaczymy jako <math>\displaystyle k</math> -- będzie ona kwadratowo zależna od | Liczbę transformacji oznaczymy jako <math>\displaystyle k</math> -- będzie ona kwadratowo zależna od | ||
liczby zmiennych <math>\displaystyle m</math>. W tym momencie możemy już zdefiniować ciąg wielomianów | liczby zmiennych <math>\displaystyle m</math>. W tym momencie możemy już zdefiniować ciąg wielomianów | ||
Linia 735: | Linia 735: | ||
jednak założymy, że otrzymana zostanie ona tak samo jak <math>\displaystyle p</math> w protokole dla | jednak założymy, że otrzymana zostanie ona tak samo jak <math>\displaystyle p</math> w protokole dla | ||
<math>\displaystyle \#SAT(D)</math>. | <math>\displaystyle \#SAT(D)</math>. | ||
Właściwy protokół będzie oparty na tej samej zasadzie | Właściwy protokół będzie oparty na tej samej zasadzie co poprzednio: <math>\displaystyle P</math> | ||
wypisze wartość <math>\displaystyle f_0()</math>, po czym będzie wypisywała pewne zawężenia wielomianów | wypisze wartość <math>\displaystyle f_0()</math>, po czym będzie wypisywała pewne zawężenia wielomianów | ||
<math>\displaystyle f_1, \ldots, f_k</math>; <math>\displaystyle V</math> będzie sprawdzała, czy kolejne wielomiany nie są sprzeczne | <math>\displaystyle f_1, \ldots, f_k</math>; <math>\displaystyle V</math> będzie sprawdzała, czy kolejne wielomiany nie są sprzeczne | ||
z poprzednimi (czyli również z <math>\displaystyle f_0</math>), a na końcu samodzielnie obliczy | z poprzednimi (czyli również z <math>\displaystyle f_0</math>), a na końcu samodzielnie obliczy | ||
zawężenie wielomianu <math>\displaystyle \bar {f_k}</math> i porówna je z wielomianem otrzymanym od <math>\displaystyle P</math>. | zawężenie wielomianu <math>\displaystyle \bar {f_k}</math> i porówna je z wielomianem otrzymanym od <math>\displaystyle P</math>. | ||
Ponownie jeśli <math>\displaystyle P</math> skłamie przy podawaniu wartości <math>\displaystyle f_0()</math>, prawdopodobieństwo | Ponownie, jeśli <math>\displaystyle P</math> skłamie przy podawaniu wartości <math>\displaystyle f_0()</math>, prawdopodobieństwo | ||
tego, że uda jej się to kłamstwo zamaskować, będzie nieduże. | tego, że uda jej się to kłamstwo zamaskować, będzie nieduże. | ||
Popatrzmy teraz jak wygląda pojedynczy krok protokołu | Popatrzmy teraz jak wygląda pojedynczy krok protokołu. W tym celu oznaczmy <math>\displaystyle i</math>-tą | ||
transformację jako <math>\displaystyle {S_i}_{y_i}</math>. Załóżmy bez utraty ogólności, że <math>\displaystyle {y_i} = x_1</math>, | transformację jako <math>\displaystyle {S_i}_{y_i}</math>. Załóżmy bez utraty ogólności, że <math>\displaystyle {y_i} = x_1</math>, | ||
natomiast <math>\displaystyle y_{i-1} = x_2</math> -- założenie to ma na celu jedynie uproszczenie | natomiast <math>\displaystyle y_{i-1} = x_2</math> -- założenie to ma na celu jedynie uproszczenie | ||
Linia 754: | Linia 754: | ||
<math>\displaystyle f_{i-1}(x_2,r_3,r_4,\ldots,r_s)</math> nie jest prawidłowy -- czyli gdy funkcja <math>\displaystyle P</math> próbuje | <math>\displaystyle f_{i-1}(x_2,r_3,r_4,\ldots,r_s)</math> nie jest prawidłowy -- czyli gdy funkcja <math>\displaystyle P</math> próbuje | ||
oszukać <math>\displaystyle V</math> i nie udało jej się jeszcze "zatrzeć śladów oszustwa" -- | oszukać <math>\displaystyle V</math> i nie udało jej się jeszcze "zatrzeć śladów oszustwa" -- | ||
to prawdopodobieństwo, że wielomian <math>\displaystyle f_i(x_1,r_2,\ldots,r_s)</math> będzie prawidłowy | to prawdopodobieństwo, że wielomian <math>\displaystyle f_i(x_1,r_2,\ldots,r_s)</math> będzie prawidłowy, | ||
wyniesie co najwyżej <math>\displaystyle n/{n^4}</math>, czyli <math>\displaystyle 1/{n^3}</math>. | |||
Rozpatrzmy teraz przypadek, gdy <math>\displaystyle S_i = R</math>. <math>\displaystyle V</math> ma do dyspozycji wielomian | Rozpatrzmy teraz przypadek, gdy <math>\displaystyle S_i = R</math>. <math>\displaystyle V</math> ma do dyspozycji wielomian | ||
<math>\displaystyle f_{i-1}(r_1,x_2,r_3,\ldots,r_s)</math>. W pierwszej kolejności <math>\displaystyle V</math> losuje pewną | <math>\displaystyle f_{i-1}(r_1,x_2,r_3,\ldots,r_s)</math>. W pierwszej kolejności <math>\displaystyle V</math> losuje pewną | ||
Linia 776: | Linia 776: | ||
być też wielomian <math>\displaystyle f_i(x_1,{r'}_2,r_3,\ldots,r_s)</math>. Reasumując -- prawdopodobieństwo, | być też wielomian <math>\displaystyle f_i(x_1,{r'}_2,r_3,\ldots,r_s)</math>. Reasumując -- prawdopodobieństwo, | ||
że w kroku odpowiadającym pewnej transformacji <math>\displaystyle R</math> funkcji <math>\displaystyle V</math> uda się | że w kroku odpowiadającym pewnej transformacji <math>\displaystyle R</math> funkcji <math>\displaystyle V</math> uda się | ||
skutecznie "zatrzeć ślad" po wcześniejszym oszustwie jest nie większe niż | skutecznie "zatrzeć ślad" po wcześniejszym oszustwie, jest nie większe niż | ||
<math>\displaystyle 1/{n^3}</math>. | <math>\displaystyle 1/{n^3}</math>. | ||
Linia 794: | Linia 794: | ||
kwadratowo zależna od <math>\displaystyle m</math>; w szczególności natychmiastowe jest oszacowanie | kwadratowo zależna od <math>\displaystyle m</math>; w szczególności natychmiastowe jest oszacowanie | ||
<math>\displaystyle k < (m+1)^2</math>. W związku z tym prawdopodobieństwo, że <math>\displaystyle V</math> zaakceptuje słowo | <math>\displaystyle k < (m+1)^2</math>. W związku z tym prawdopodobieństwo, że <math>\displaystyle V</math> zaakceptuje słowo | ||
wejściowe | wejściowe nienależące do <math>\displaystyle QSAT</math> jest nie większe niż <math>\displaystyle (m+1)^2/{n^3}</math>, co | ||
z kolei jest nie większe niż <math>\displaystyle (n+1)^2/{n^3} = O(1/n)</math>. Ponownie zatem <math>\displaystyle V</math> | z kolei jest nie większe niż <math>\displaystyle (n+1)^2/{n^3} = O(1/n)</math>. Ponownie zatem <math>\displaystyle V</math> | ||
musi "stablicować" wyniki dla pewnej skończonej liczby formuł (w tym przypadku | musi "stablicować" wyniki dla pewnej skończonej liczby formuł (w tym przypadku | ||
Linia 817: | Linia 817: | ||
słowa spoza języka, wystarczy ciało o wielkości <math>\displaystyle n^3</math>. W przypadku <math>\displaystyle \#SAT(D)</math> | słowa spoza języka, wystarczy ciało o wielkości <math>\displaystyle n^3</math>. W przypadku <math>\displaystyle \#SAT(D)</math> | ||
ciało <math>\displaystyle {\mathbb Z}_p</math> służy nam jednak nie tylko jako dostarczyciel dużej | ciało <math>\displaystyle {\mathbb Z}_p</math> służy nam jednak nie tylko jako dostarczyciel dużej | ||
przestrzeni | przestrzeni prawdopodobieństwa, lecz również do zliczania ilości spełniających | ||
wartościowań dla zadanej formuły logicznej. Z tego powodu potrzebujemy co | wartościowań dla zadanej formuły logicznej. Z tego powodu potrzebujemy co | ||
najmniej <math>\displaystyle 2^m</math> liczb -- co oznacza, że w zdegenerowanym przypadku gdy | najmniej <math>\displaystyle 2^m</math> liczb -- co oznacza, że w zdegenerowanym przypadku, gdy | ||
każda zmienna jest używana w dokładnie jednym literale wymagane ciało musi mieć | każda zmienna jest używana w dokładnie jednym literale wymagane ciało musi mieć | ||
liczność | liczność |
Wersja z 19:33, 9 paź 2006
Funkcje jednokierunkowe
W dotychczasowych rozważaniach naszym celem było znalezienie możliwie efektywnego rozwiązania dla zadanych problemów; nadmierna złożoność problemu była przez nas traktowana jako cecha niepożądana, utrudniająca nam zadanie. W tym rozdziale nasze podejście będzie odmienne; duża złożoność będzie dla nas cechą bardzo cenną. Będzie nas przy tym, w mniejszym niż dotychczas stopniu, interesować złożoność pesymistyczna -- w końcu nie satysfakcjonuje nas "gwarancja" mówiąca, że "jeżeli osoba podsłuchująca będzie miała pecha, to odszyfrowanie wiadomości będzie dla niej zadaniem czasochłonnym". Wolelibyśmy, żeby odszyfrowywanie wiadomości przez osoby nieuprawnione było czasochłonne, praktycznie zawsze -- tak, by próba podsłuchiwania dawała szansę sukcesu bardzo bliską zeru. Duża pesymistyczna złożoność nie będzie zatem warunkiem wystarczającym bycia dobrym kryptosystemem; przyda nam się jednak w charakterze warunku koniecznego.
Definicja 1.1
Niech . Mówimy, że jest funkcją jednokierunkową wtedy i tylko wtedy, gdy:
- jest różnowartościowa,
- istnieje pewna stała taka, że ,
- jest obliczalna w czasie wielomianowym (czyli należy do klasy ),
- nie istnieje wielomianowy algorytm obliczający odwrotność funkcji -- czyli znajdujący dla słowa słowo , takie że lub stwierdzający, że takie słowo nie istnieje.
Warto zauważyć, że powyższa definicja niejawnie zakłada prawdziwość zdania .
Ćwiczenie 1.2
Niech spełnia pierwsze trzy warunki podane w definicji funkcji jednokierunkowej. Pokaż, że obliczanie odwrotności funkcji jest problemem z klasy .
Z drugiej strony nierówność wcale nie gwaratuje istnienia funkcji jednokierunkowych; jak się okazuje istnienie tego typu funkcji jest ściśle powiązane z pewną klasą złożoności, którą przedstawiamy poniżej.
Definicja 1.3
Jednoznaczną maszyną Turinga nazywamy niedeterministyczną maszynę Turinga taką, że dla każdego słowa wejściowego istnieje co najwyżej jedna akceptująca ścieżka obliczeń.
Definicja 1.4
Klasa to klasa problemów rozstrzygalnych za pomocą jednoznacznych maszyn Turinga w czasie wielomianowym.
Klasę , podobnie jak klasę , można zdefiniować z użyciem pojęcia świadka:
.
W językach z klasy każde słowo ma dokładnie jednego świadka. Dowód równoważności powyższych definicji jest analogiczny jak w przypadku klasy .
Jest jasne, że -- maszyny deterministyczne są specjalnymi przypadkami maszyn jednoznacznych. Dość powszechny jest pogląd, że obie powyższe relacje zawierania są właściwe (to znaczy nie zachodzi równość).
Pokażemy teraz bardzo ciekawy związek pomiędzy klasą a funkcjami jednokierunkowymi.
Twierdzenie 1.6
Funkcje jednokierunkowe istnieją wtedy i tylko wtedy, gdy .
Dowód
Zaczniemy od dowodu w kierunku . Załóżmy, że istnieje pewna funkcja jednokierunkowa . Możemy wtedy zdefiniować następujący język:
,
przy czym mówimy, że wtedy i tylko wtedy, gdy
- lub
- i w porządku leksykograficznym występuje nie później niż .
Łatwo można zauważyć, że - maszyna rozwiązująca ten problem najpierw "zgaduje" słowo o wielkości nie większej niż , po czym sprawdza, czy w ustalonym porządku występuje ono nie później niż i czy zachodzi . Z własności funkcji jednokierunkowych -- konkretnie z różnowartościowości -- wynika, że maszyna ta ma co najwyżej jedną akceptującą ścieżkę postępowania.
Chcemy teraz pokazać, że . Załóżmy zatem nie wprost, że istnieje jakiś wielomianowy algorytm rozwiązujący . Wykorzystamy go teraz do obliczenia odwrotności funkcji w czasie wielomianowym. W pierwszym kroku zapytamy algorytm, czy (przez oznaczamy tutaj ciąg symboli ) - jeżeli otrzymamy odpowiedź NIE, to korzystając z definicji funkcji jednokierunkowej, możemy od razu stwierdzić, że nie istnieje słowo takie, że . Jeżeli otrzymamy odpowiedź TAK, to z użyciem co najwyżej zapytań do naszego algorytmu jesteśmy w stanie ustalić długość szukanego słowa (pytamy kolejno o , , itd., aż do momentu, gdy uzyskamy odpowiedź NIE). Gdy znamy już długość słowa pozostaje nam tylko obliczyć kolejne jego bity. Pierwszy bit otrzymamy, pytając o parę -- odpowiedź "tak" oznacza, że pierwszym bitem jest 0. Aby uzyskać drugi bit zapytamy -- w zależności od pierwszej odpowiedzi -- o lub . Kolejne bity odgadujemy w analogiczny sposób -- łącznie zatem wykonamy algorytm dla razy. W ten sposób uzyskamy deterministycznty algorytm odwracający funkcję w czasie wielomianowym.
Doszliśmy więc do sprzeczności z definicją funkcji jednokierunkowej, co oznacza, że istnienie funkcji jednokierunkowych implikuje nierówność .
Załóżmy teraz, że istnieje język , rozpoznawany przez jednoznaczną maszynę . Zdefiniujmy funkcję w następujący sposób:
- jeżeli jest zakodowaną parą słów oraz jest (jedynym) świadkiem przynależności słowa do , to
,
- w przeciwnym przypadku
.
Widzimy, że pierwszy symbol wartości funkcji gwarantuje nam jej różnowartościowość. Spełniony jest również drugi warunek z definicji funkcji jednokierunkowej -- świadek dla słowa nie może być nadmiernie długi (bo jego długość jest wielomianowo zależna od długości ), a zatem nie może nadmiernie "skracać" słów. Funkcja jest też obliczalna w czasie wielomianowym -- wystarczy deterministycznie zweryfikować świadka, tak jak zrobiłaby to maszyna . Pozostaje nam zatem tylko pokazanie, że funkcja odwrotna do nie jest obliczalna w czasie wielomianowym. Gdyby tak jednak było, to moglibyśmy rozpoznawać język w czasie wielomianowym: aby sprawdzić, czy wystarczy zastosować odwrotność funkcji do słowa ; jeżeli , to dostaniemy odpowiedź mówiącą, że nie można odwrócić; w przeciwnym przypadku otrzymamy świadka przynależności do języka .

Na dzień dzisiejszy nie znamy oczywiście funkcji, o której wiedzielibyśmy, że jest jednokierunkowa; istnienie takiej funkcji natychmiastowo implikuje przecież nierówność . Jest jednak kilku "kandydatów" na funkcje jednokierunkowe, dla których nie znamy efektywnego algorytmu pozwalającego na ich odwrócenie. Jedną z takich funkcji jest . Argumentami tej funkcji są dwie liczby pierwsze wraz ze swoimi certyfikatami pierwszości. Wartością funkcji jest iloczyn tych dwóch liczb. Bardziej formalnie:
- jeżeli , gdzie a i są certyfikatami pierwszości odpowiednio dla i , to
,
- w przeciwnym przypadku
.
Korzystamy tutaj z faktu, że możemy wymusić jednoznaczną reprezentację certyfikatu pierwszości dla danej liczby oraz że certyfikaty mają rozmiar wielomianowo zależny od rozmiaru certyfikowanych liczb. jest zatem różnowartościowa i nie "skraca" nadmiernie słowa wejściowego.
Łatwo zauważyć, gdzie tkwi trudność w odwracaniu tej funkcji -- nie znamy efektywnego algorytmu potrafiącego faktoryzować iloczyn dwóch liczb pierwszych; znane nam obecnie algorytmy stają się niepraktyczne już przy iloczynach liczb pierwszych o długości kilkuset bitów.
Drugi ze znanych nam "kandydatów na funkcję jednokierunkową" również oparty jest na zagadnieniu z dziedziny teorii liczb -- problemie logarytmu dyskretnego. Funkcję tą można zdefiniować w następujący sposób:
- dla postaci , gdzie jest liczbą pierwszą, certyfikatem jej pierwszości, jest najmniejszym generatorem grupy cyklicznej , a jest liczbą naturalną z zakresu
- dla pozostałych
.
W tym przypadku, aby odwrócić funkcję , musielibyśmy na podstawie liczb , i umieć obliczyć wartość . Również dla tego, znanego od wielu lat, problemu nie potrafimy przedstawić wydajnego rozwiązania.
Jak zauważyliśmy, we wprowadzeniu do tego rozdziału, w kryptografii duża złożoność pesymistyczna próby zdekodowania zaszyfrowanej wiadomości nie jest własnością wystarczającą. Z tego powodu przytoczymy alternatywną definicję funkcji jednokierunkowych, lepiej odwzorowującą nasze oczekiwania. Należy pamiętać, że definicja ta jest istotnie różna od definicji podanej wcześniej.
Definicja 1.7
Niech . Mówimy, że jest funkcją jednokierunkową wtedy i tylko wtedy, gdy:
- jest obliczalna w czasie wielomianowym,
- nie jest stale równa (słowu pustemu),
- istnieje pewna stała taka, że ,
- jeżeli i są słowami nad alfabetem i , to lub ,
- dla każdej losowej maszyny Turinga działającej w czasie wielomianowym, każdej liczby i dostatecznie dużej liczby , jeżeli jest losowym słowem ze zbioru , to
.
W tej definicji zrezygnowaliśmy z wymagania o różnowartościowości funkcji; zamiast tego dopuszczamy, aby różne słowa dawały jako wynik wartość , którą możemy traktować jako odpowiedź mówiącą, że wejście jest nieprawidłowe; dla przykładu przy adaptowaniu funkcji do powyższej definicji, w przypadku gdy lub nie będą liczbami pierwszymi lub gdy , lub nie będą odpowiednimi certyfikatami, funkcja zwróci wartość . Zauważmy, że w powyższej definicji interesuje nas tylko trudność odszyfrowania wartości funkcji dla poprawnych wejść -- to znaczy w przypadku dla par liczb, które są pierwsze i których pierwszość jest potwierdzana przez i . Funkcje jak i -- po odpowiednim ich zmodyfikowaniu w sposób przedstawiony powyżej -- są poważnymi "kandydatami" na funkcje jednokierunkowe również w sensie definicji opisanej w poprzednim paragrafie.
Warto się w tym momencie zastanowić, w jaki sposób funkcje jednokierunkowe mogą się przydać w kryptografii. Otóż widzimy, że jedna ze stron -- zwyczajowo zwana Alicją -- może wydajnie zaszyfrować swoją wiadomość, na przykład używając ją jako argument do funkcji . Niestety druga strona -- zazwyczaj o imieniu Bob -- może mieć duże trudności z odszyfrowaniem wiadomości. W tej sytuacji fakt, że osoba podsłuchująca -- Cecylia -- niczego ciekawego się nie dowie, stanowi słabe pocieszenie.
Widzimy zatem, że aby zapewnić poufność komunikacji pochodzącej od Alicji, ale również możliwość odebrania tej wiadomości, Bob musi posiadać pewną tajną wiedzę, pozwalającą na wydajne odwrócenie funkcji szyfrującej. Zdefiniujemy teraz pewną modyfikację pojęcia funkcji jednokierunkowej mającą szersze zastosowanie w kryptografii.
Definicja 1.8
Niech . Mówimy, że jest funkcją z wytrychem wtedy i tylko wtedy gdy istnieje losowa maszyna Turinga oraz funkcja taka, że:
- funkcje i są obliczalne w czasie wielomianowym,
- oczekuje na wejściu słowa nad alfabetem , zwraca zakodowaną parę słów nad alfabetem i działa w czasie wielomianowym,
- istnieje stała taka, że jeżeli stanowi wynik działania maszyny dla słowa , natomiast jest słowem o długości nie większej niż , to ,
- jeżeli stanowi wynik działania maszyny dla słowa , natomiast i są słowami o długości nie większej niż , to
,
- dla każdej losowej maszyny Turinga , każdej liczby i dostatecznie dużej liczby , jeżeli stanowi wynik działania maszyny dla słowa , jest losowym słowem nad alfabetem nie dłuższym niż , to
,
- dla każdego , każdego słowa nie dłuższego niż i każdej pary mogącej być wynikiem działania maszyny , dla słowa wejściowego .
Funkcje z wytrychem mogą zostać wykorzystane w celu stworzenia systemów kryptograficznych z kluczem publicznym. Sposób postępowania jest w tym przypadku następujący:
- Bob ustala długość przekazywanych wiadomości () oraz parametr wyznaczający prawdopodobieństwo odszyfrowania pojedynczej wiadomości (),
- Bob uruchamia maszynę i otrzymuje parę słów . Słowo staje się dostępnym dla wszystkich kluczem publicznym, natomiast pozostaje tajemnicą znaną tylko Bobowi,
- Alicja, chcąc wysłać wiadomość do Boba, używa znanego jej klucza publicznego . Własności funkcji z wytrychem sprawiają, że odszyfrowanie wiadomości jest łatwe dla Boba, natomiast trudne dla osób trzecich nieznających klucza .
Najbardziej znanym systemem kryptograficznym opartym na powyższej zasadzie jest system RSA. Pamiętajmy przy tym, że nie znamy formalnego dowodu, mówiącego, że RSA spełnia warunki określone w definicji funkcji z wytrychem.
Prześledźmy teraz, w jaki sposób zdefiniowane są , i dla systemu RSA.
Zadaniem maszyny jest wygenerowanie pary kluczy. W tym celu losuje ona dwie liczby pierwsze i , z których każda ma długość większą niż (gdzie to długość przekazywanych wiadomości). Następnie oblicza ona liczbę oraz wartość funkcji Eulera dla tej liczby: . W kolejnym kroku znajdywana jest dowolna liczba z zakresu , względnie pierwsza z . Dla liczby znajdywana jest następnie liczba z zakresu taka, że
.
Istnienie takiej liczby spowodowane jest faktem, że i są względnie pierwsze; liczbę można efektywnie obliczyć z użyciem uogólnionego algorytmu Euklidesa.
W tym momencie można już zdefiniować parę kluczy: kluczem publicznym jest para liczb oraz ; kluczem prywatnym jest para liczb oraz . Szyfrowanie słowa wygląda następująco:
,
przy czym wiadomość traktujemy jako binarny zapis pewnej liczby naturalnej. Dekodowanie słowa określone jest w praktycznie identyczny sposób:
.
Wystarczy teraz przypomnieć sobie, że iloczyn jest postaci , dla pewnej liczby całkowitej . W związku z tym
.
Widzimy zatem, że funkcja poprawnie dekoduje słowa zaszyfrowane z użyciem funkcji -- Bob będzie zatem w stanie odtworzyć wiadomość wysłaną przez Alicję.
Systemy dowodów interaktywnych
W ostatnim fragmencie niniejszego kursu zajmiemy się klasą złożoności, będącą uogólnieniem klas i . W tym celu zdefiniujemy pojęcie systemu dowodów interaktywnych.
Definicja 2.1
Systemem dowodów interaktywnych nazywamy parę funkcji oraz o sygnaturach:
taką, że funkcja jest obliczalna na maszynie Turinga.
Działanie systemu dowodów interaktywnych polega na wymianie komunikatów między funkcjami i , przy czym funkcja (z angielskiego prover) stara się "przekonać" funkcję (verifier) o tym, że słowo wejściowe należy do rozpatrywanego języka, natomiast ostateczna decyzja w tej sprawie należy do .
Komunikacja odbywa się naprzemiennie: funkcja generuje wiadomość, przekazywaną funkcji jako argument; funkcja z kolei generuje odpowiedź przekazywaną funkcji w następnej iteracji. Taka komunikacja odbywa się do momentu zaakceptowania lub odrzucenia słowa wejściowego przez funkcję . W każdym kroku obie funkcje mają do dyspozycji zarówno słowo wejściowe, jak również pełną historię przekazanych dotychczas wiadomości.
Określmy teraz, co dokładnie oznaczają argumenty funkcji i . Argumenty funkcji będziemy oznaczać w następujący sposób:
.
Mają one następujące znaczenie:
- to słowo wejściowe,
- jest losowym ciągiem bitów,
- to konkatenacja dotychczasowych wiadomości, które zostały przekazane w procesie komunikacji (wiadomości o indeksach nieparzystych są wynikami działania funkcji , natomiast wiadomości o indeksach parzystych są wynikami działania funkcji ).
Zwróćmy uwagę, że ma do dyspozycji losowe słowo ; w praktyce oznacza to, że o funkcji będziemy myśleć jako o pewnej losowej maszynie Turinga.
Zakładamy, że zarówno jak i są stałe w kolejnych iteracjach; słowo jest zatem losowane jednokrotnie, przed rozpoczęciem procesu komunikacji. Warto też zauważyć, że słowa i całkowicie determinują działanie systemu.
Argumenty funkcji będziemy oznaczać następująco:
.
Ich znaczenie jest identyczne jak w przypadku argumentów funkcji , nie ma wśród nich jednak słowa losowego.
Możemy w tym momencie zdefiniować klasę :
Definicja 2.2
Niech . Mówimy, że wtedy i tylko wtedy, gdy istnieje system dowodów interaktywnych oraz wielomiany i takie, że dla każdego słowa wejściowego oraz losowego słowa o długości :
- system daje odpowiedź po co najwyżej krokach,
- w każdej iteracji czas działania maszyny obliczającej funkcję jest ograniczony od góry przez ,
- długość każdej wiadomości jest nie większa niż ,
- jeżeli , to prawdopodobieństwo zaakceptowania słowa przez system wynosi co najmniej ,
- jeżeli oraz jest dowolną funkcją o sygnaturze zgodnej z , zwracającą wiadomości nie dłuższe niż , to system spełnia powyższe założenia na ilość iteracji, czas działania i długość wiadomości oraz akceptuje słowo z prawdopodobieństwem nie większym niż .
O systemie mówimy, że rozpoznaje język w czasie wielomianowym.
Innymi słowy, jeżeli słowo należy do języka, to z dużym prawdopodobieństwem da się przekonać o tej przynależności przez pewną ustaloną funkcję . Jeżeli jednak nie należy do , to nie da się oszukać żadnej funkcji ze zbyt dużym prawdopodobieństwem.
Zwróćmy jeszcze uwagę, że branie pod uwagę tylko takich funkcji , które nie zwracają zbyt długich słów, nie jest istotnym ograniczeniem; funkcja może w każdym kroku sprawdzać, czy odpowiedź funkcji nie jest zbyt długa i jeśli tak, to odrzucać słowo. W dalszej części rozdziału będziemy zakładali takie właśnie zachowanie funkcji .
Widzimy zatem, że funkcja musi być zabezpieczona przed oszustwami; jeżeli mogłaby zaufać funkcji , to mogłaby rozwiązać każdy problem decyzyjny -- wystarczyłoby po prostu skorzystać z nieograniczonej mocy obliczeniowej . W naszym przypadku jednak nie wystarczy, aby tylko rozwiązała problem decyzyjny -- musi jeszcze przekonać do swojego rozwiązania.
Przykład 2.4
Rozważmy problem . Jest on zdefiniowany następująco:
grafy i nie są izomorficzne .
Łatwo sie przekonać, że problem izomorfizmu grafów jest w klasie -- wystarczy zgadnąć odpowiednią permutację wierzchołków, po czym zweryfikować ją w trywialny sposób. należy zatem do . Nie jest jednak obecnie znana odpowiedź na pytanie o przynależność tego problemu do klasy . Pokażemy teraz, w jaki sposób można rozwiązać za pomocą systemów dowodów interaktywnych, pokazując przynależność tego problemu do klasy .
System działa w prosty sposób: W kolejnych iteracjach funkcja wybiera losowo jeden z grafów, a następnie w losowy sposób permutuje jego wierzchołki. Taki graf jest przekazywany jako wiadomość do funkcji . Zadaniem funkcji jest rozpoznanie, który z wyjściowych grafów został wylosowany i przekształcony przez .
Ćwiczenie 2.5
Zdefiniuj, w jakich przypadkach powinien zaakceptować, a w jakich odrzucić wejściową parę grafów. Oblicz, ile iteracji jest potrzebnych, aby system rozpoznawał język w czasie wielomianowym zgodnie z wcześniejszą definicją.
Ćwiczenie 2.6
Pokaż, że klasa jest zawarta w klasie .
Ćwiczenie 2.7
Rozpatrzmy takie systemy dowodów interaktywnych, w których funkcje nie zależą od argumentu (słowa losowego). Jaką klasę języków rozpoznają takie systemy, przy założeniach o złożoności analogicznych jak w przypadku klasy ?
Możemy w tym momencie przypuszczać, że klasa jest znacząco większa od klasy . Nie wiemy obecnie, czy przypuszczenie to jest prawdziwe; przemawia jednak za nim poniższe twierdzenie.
Twierdzenie 2.8
Dowód
Pokażemy najpierw fakt . W tym celu wybierzemy dowolny problem z klasy i rozwiążemy go z użyciem wielomianowej ilości pamięci.
Załóżmy, że system akceptuje wybrany język w czasie wielomianowym.
Ustalmy słowo . Będziemy mówić, że ciąg wiadomości jest zgodny ze słowem losowym , jeżeli stanowi on historię wiadomości po iteracjach pewnego systemu używającego słowa losowego . Warto zauważyć, że ciąg wiadomości może być zgodny z wieloma słowami losowymi (na przykład ciąg pusty jest zgodny z każdym słowem losowym), a słowo losowe może być zgodne z różnymi ciągami wiadomości (w zależności od funkcji ).
Zdefiniujmy teraz funkcję w taki sposób, by miała ona następującą własność:
akceptuje akceptuje .
Funkcja zatem dla każdego słowa wejściowego zachowuje się w najlepszy możliwy sposób. Jest ona dobrze zdefiniowana, gdyż dla każdego wejściowego słowa zbiór prawdopodobieństw jest skończony -- przy ustalonym słowie wszystkie możliwe funkcje można przypisać do skończonej liczby klas równoważności, w ramach których system zachowuje się identycznie (pamiętajmy, że w całym procesie komunikacji funkcja wykonuje co najwyżej skończoną, ustaloną dla danego słowa wejściowego liczbę kroków).
Jest jasne, że również akceptuje wybrany język w czasie wielomianowym -- od tej pory będziemy się zatem zajmowali tym konkretnym systemem. Nasz algorytm będzie dla każdego słowa wejściowego wprost obliczał prawdopodobieństwo zaakceptowania go przez system ; tym samym, w zależności od wyniku, będzie mógł określić, czy słowo wejściowe należy do języka. Dla uproszczenia założymy, że system daje odpowiedzi po dokładnie krokach.
Zdefiniujmy teraz funkcję mierzącą prawdopodobieństwo akceptacji słowa przez system przy ustalonej częściowej historii komunikacji:
słowo zostanie zaakceptowane pod warunkiem, że dotychczasowe komunikaty reprezentowane są przez .
W przypadku, gdy nie ma słowa losowego zgodnego z , funkcji nadajemy wartość . Łatwo jest obliczyć :
- jeżeli i jest zgodne z pewnym słowem losowym, to
,
- w przeciwnym przypadku
.
Do obliczania wartości dla mniejszej ilości kroków, możemy posłużyć się następującym wzorem rekurencyjnym:
- jeżeli jest nieparzyste, to
,
- jeżeli jest parzyste, to
.
Wzór ten jest konsekwencją zachowania i : w każdym kroku maksymalizuje prawdopodobieństwo akceptacji, natomiast zachowanie zależne jest od historii wiadomości i słowa losowego.
W tym momencie wystarczą dwa spostrzeżenia. Po pierwsze, jest poszukiwanym przez nas prawdopodobieństwem zaakceptowania przez system słowa . Po drugie, jest obliczalne w pamięci wielomianowej: każde rekurencyjne wywołanie funkcji powoduje sekwencyjne rozważenie wszystkich możliwych odpowiedzi, których długość jest jednak ograniczona od góry przez . Dodatkowo przy obliczeniach na poziomie zagłębienia należy rozważyć wszystkie możliwe słowa losowe i sprawdzić ich zgodność z aktualnie rozważanym ciągiem komunikatów. Wszystkie te operacje można wykonać z użyciem komórek pamięci.
Pokazaliśmy zatem, że .

Dowód zawierania w drugą stronę odbywa się poprzez przedstawienie protokołu komunikacji dla problemu . Aby przybliżyć stosowaną w tym protokole technikę, zaprezentujemy najpierw dowód przynależności do klasy problemu będącego wersją decyzyjną problemu :
Definicja 2.9
liczba wartościowań spełniających dla formuły jest nie mniejsza niż .
W dowodzie posłużymy się techniką zwaną arytmetyzacją; formuły logiczne będziemy zastępować wielomianami w następujący sposób:
- zmienne formuły stają się zmiennymi wielomianu,
- wyrażenia typu zastępujemy przez ,
- wyrażenia typu zastępujemy przez ,
- wyrażenia typu zastępujemy przez .
Dla uproszczenia założymy na razie, że wielomiany te określone są na liczbach rzeczywistych.
Ćwiczenie 2.10
Niech będzie formułą z zmiennymi, natomiast wielomianem otrzymanych w sposób przedstawiony powyżej. Weźmy dowolne wartościowanie zmiennych formuły i podstawmy je do wielomianu (to znaczy podstawmy 0, gdy zmienna jest wartościowana na "fałsz" i 1 w przeciwnym przypadku). Pokaż, że wartość wielomianu jest równa 1, gdy wybrane wartościowanie jest wartościowaniem spełniającym dla oraz 0 w przeciwnym przypadku.
Ćwiczenie 2.11
Niech oznacza liczbę -- niekoniecznie różnych -- literałów (zmiennych i ich zaprzeczeń) w formule . Pokaż, że stopień każdej zmiennej w wielomianie jest nie większy niż .
Zdefiniujmy teraz ciąg wielomianów w następujący sposób:
- jest wielomianem otrzymanym z formuły w wyniku procesu arytmetyzacji,
- .
Zauważmy, że ilość argumentów zmniejsza się w kolejnych funkcjach, a nie posiada żadnych argumentów (czyli jest stałą). Funkcje te spełniają następującą własność:
Oznacza to, że jeżeli reprezentują pewne wartościowanie zmiennych , to wyznacza liczbę wartościwoań spełniających formułę rozpoczynających się od . Oczywistym wnioskiem z powyższego spostrzeżenia jest to, że jest liczbą wszystkich wartościowań spełniających .
Zauważmy jeszcze, że w wielomianach zachowana jest własność, mówiąca że każda zmienna występuje co najwyżej w stopniu . Ilość wyrazów występujących w tych wielomianach może być jednak wykładnicza ze względu na długość formuły; z tego powodu obliczanie tych wielomianów może być procesem czasochłonnym.
Przedstawiany protokół komunikacyjny obliczanie wielomianów zleca funkcji . Ta następnie przekazuje funkcji pewne informacje o wielomianach, na podstawie których może z dużym prawdopodobieństwem rozstrzygnąć, czy zostały "uczciwie" obliczone zgodnie z powyższą rekurencyjną procedurą, czy też próbuje oszukać .
Protokół nie operuje na liczbach rzeczywistych -- zamiast nich używamy ciała , gdzie jest liczbą pierwszą większą niż . Wielomiany określone nad takim ciałem mają wiele cech wspólnych z wielomianami nad -- w szczególności wielomian jednej zmiennej o stopniu , który nie jest stale równy 0, ma co najwyżej pierwiastków. W rezultacie dwa różne wielomiany stopnia nie większego niż mogą być równe w co najwyżej punktach.
W tym momencie jesteśmy gotowi do przedstawienia protokołu dla :
- Krok 1 (P): Znajdź liczbę pierwszą z przedziału oraz jej certyfikat pierwszości (taka liczba na pewno istnieje -- wynika to z twierdzenia Bertranda--Czebyszewa). Prześlij je jako wiadomość.
- Krok 2 (V): Sprawdź poprawność liczby , odrzuć słowo wejściowe, jeśli lub jej certyfikat są nieprawidłowe.
- Krok 3 (P): Oblicz i prześlij jako wiadomość.
- Krok 4 (V): Sprawdź, czy -- jeśli nie to odrzuć słowo wejściowe.
- Krok 5 (P): Oblicz (wielomian ze zmienną ) i prześlij jego współczynniki jako wiadomość.
- Krok 6 (V): Sprawdź, czy . Wylosuj dowolną liczbę z i prześlij ją jako wiadomość,
- Krok 7 (P): Oblicz (to też jest wielomian z jedną zmienną ) i prześlij jego współczynniki jako wiadomość.
- Krok 8 (V): Sprawdź, czy . Wylosuj dowolną liczbę z i prześlij ją jako wiadomość.
- Krok (V): Sprawdź, czy . Sprawdź, czy jest wielomianem otrzymanym przez arytmetyzację formuły i podstawienie jako pierwszych argumentów otrzymanego wielomianu. Jeżeli tak, to zaakceptuj słowo wejściowe, w przeciwnym przypadku odrzuć je.
W przypadku, gdy słowo wejściowe należy do , jest jasne, że funkcja , postępująca zgodnie z powyższym protokołem, zawsze przekona o tej przynależności. Popatrzmy teraz, co się stanie, gdy słowo wejściowe nie należy do ; w tym przypadku wartość podana przez będzie musiała się różnić od wartości prawdziwej (oznaczmy ją jako ). W związku z tym przynajmniej jedna z wartości lub będzie różna od oczekiwanej -- lub -- a co za tym idzie wielomian będzie różny od . Pokażemy teraz fakt będący sednem naszego dowodu: jeżeli wielomian jest różny od wielomianu , to z dużym prawdopodobieństwem również będzie różny od . Zauważmy, że jesli zostanie wylosowane w taki sposób, że , to w kolejnym kroku będzie mógł zwrócić wielomian -- a zatem skutecznie oszuka . Aby tak się jednak stało wylosowana wartość musi być jednym z punktów, w których i są równe. Prawdopodobieństwo takiego zdarzenia to co najwyżej . Jeżeli , to niewątpliwie lub -- a co za tym idzie wielomian będzie różny od wielomianu .
Widzimy więc, że prawdopodobieństwo zdarzenia, w którym jest równy jest ograniczone od góry przez wyrażenie , co z kolei jest nie większe niż . jest w stanie wykryć niezgodność tych wielomianów w czasie wielomianowym w sposób deterministyczny -- a zatem jest górnym ograniczeniem na prawdopodobieństwo zaakceptowania przez słowa spoza .
W tym momencie wystarczy już tylko zauważyć, że jest mniejsze od dla każdego ; protokół będziemy zatem stosować dla formuł o co najmniej 8 literałach. Pozostałe mogą zostać stablicowane przez i rozstrzygane w czasie stałym, bez angażowania .
Powyższy protokół pokazuje zatem przynależność do klasy .
Powróćmy teraz do problemu . Możemy myśleć o kwantyfikatorach jako o pewnych transformacjach wykonywanych na zarytmetyzowanej formule logicznej, przedstawiając ten proces schematycznie jako:
,
gdzie , natomiast to formuła przekształcona w procesie arytmetyzacji. Operacje definiujemy następująco:
- gdy ,
- .
Możemy w tym momencie spróbować powtórzyć poprzedni dowód, to znaczy zdefiniować ciąg wielomianów tak, aby był zarytmetyzowaną formułą , a . Niestety w tym przypadku wielomiany w kolejnych krokach są mnożone, a nie dodawane -- w związku z tym stopnie zmiennych w kolejnych wielomianach mogą rosnąć eksponencjalnie; nie będziemy zatem w stanie wypisać współczynników nawet po zawężeniu do jednej zmiennej.
Aby temu zaradzić, będziemy "po drodze" przekształcać wielomiany z użyciem następującej operacji:
.
Wielomian otrzymany w wyniku takiej transformacji ma następujące cechy:
- jest liniowy ze względu na ,
- maksymalne stopnie pozostałych zmiennych pozostają takie same,
- nowy wielomian daje takie same wyniki co wyjściowy dla argumentów Boole'owskich (to znaczy dla liczb 0 i 1).
Zmodyfikowana procedura postępowania będzie wyglądała następująco:
.
Zauważmy, że nie zmienia ilości zmiennych wielomianu, natomiast operacje zmniejszają tę liczbę o 1. Liczbę transformacji oznaczymy jako -- będzie ona kwadratowo zależna od liczby zmiennych . W tym momencie możemy już zdefiniować ciąg wielomianów : będzie zarytmetyzowaną formułą , natomiast będzie otrzymywany z za pomocą odpowiedniej transformacji lub . Ze względu na stosowanie stopień każdej zmiennej w tych wielomianach jest ograniczony przez liczbę literałów w (oznaczaną ponownie jako ). Podobnie jak wcześniej, będzie szukanym przez nas wynikiem; wielomiany ponownie będą określone nad pewnym skończonym ciałem -- tym razem jednak wystarczy nam dowolna liczba pierwsza większa niż . Taką liczbę może znaleźć samodzielnie, dla uproszczenia jednak założymy, że otrzymana zostanie ona tak samo jak w protokole dla . Właściwy protokół będzie oparty na tej samej zasadzie co poprzednio: wypisze wartość , po czym będzie wypisywała pewne zawężenia wielomianów ; będzie sprawdzała, czy kolejne wielomiany nie są sprzeczne z poprzednimi (czyli również z ), a na końcu samodzielnie obliczy zawężenie wielomianu i porówna je z wielomianem otrzymanym od . Ponownie, jeśli skłamie przy podawaniu wartości , prawdopodobieństwo tego, że uda jej się to kłamstwo zamaskować, będzie nieduże. Popatrzmy teraz jak wygląda pojedynczy krok protokołu. W tym celu oznaczmy -tą transformację jako . Załóżmy bez utraty ogólności, że , natomiast -- założenie to ma na celu jedynie uproszczenie indeksowania. Podobnie jak w przypadku dysponuje współczynnikami jako wielomianu zmiennej , gdzie za pozostałe zmienne zostały podstawione pewne wylosowane uprzednio stałe. Jeżeli operacja jest kwantyfikatorem, to protokół zachowuje się praktycznie identycznie jak w poprzednim dowodzie; w tym przypadku ma do dyspozycji wielomian , losuje liczbę i prosi o przesłanie współczynników . Jeżeli wielomian nie jest prawidłowy -- czyli gdy funkcja próbuje oszukać i nie udało jej się jeszcze "zatrzeć śladów oszustwa" -- to prawdopodobieństwo, że wielomian będzie prawidłowy, wyniesie co najwyżej , czyli . Rozpatrzmy teraz przypadek, gdy . ma do dyspozycji wielomian . W pierwszej kolejności losuje pewną liczbę , po czym prosi o przesłanie współczynników wielomianu . Następnie sprawdza, czy podstawienie do pierwszego z tych wielomianów daje ten sam wynik, co podstawienie do drugiego. Ponownie argumentujemy, że jeśli wielomian był nieprawidłowy -- czyli różny od "wzorcowego" wielomianu -- to prawdopodobieństwo, że dla wylosowanej wartości zachodzi jest nie większe niż . W związku z tym wielomian będzie poprawny z prawdopodobieństwem co najwyżej równym . W następnym kroku przesyła współczynniki wielomianu . Zauważmy, że jest w stanie samodzielnie sprawdzić, czy wielomian został otrzymany z w wyniku transformacji -- transformacja ta jest przecież jednoznacznie określona. Jeżeli założymy zatem, że wielomian jest nieprawidłowy, to nieprawidłowy musi być też wielomian . Reasumując -- prawdopodobieństwo, że w kroku odpowiadającym pewnej transformacji funkcji uda się skutecznie "zatrzeć ślad" po wcześniejszym oszustwie, jest nie większe niż .
Zauważmy, że w trakcie działania protokołu losujemy liczb; jest zatem możliwe (i pewne), że w tym procesie będzie podstawiać w miejsce tej samej zmiennej różne wylosowane liczby. Dla przykładu -- powyżej wylosowaliśmy liczbę ; być może jednak już wcześniej dokonywaliśmy innej operacji na zmiennej i wylosowaliśmy inną liczbę . Widzimy zatem, że pewne wylosowane wartości zostają w tym procesie "zapomniane" i na ich miejsce losowane są nowe. Oczywiście wyniki nowych losowań powinny być niezależne od poprzednich -- inaczej mógłby osiągnąć większe prawdopodobieństwo skutecznego oszukania .
Jak zauważyliśmy wcześniej, liczba wykonywanych transformacji jest kwadratowo zależna od ; w szczególności natychmiastowe jest oszacowanie . W związku z tym prawdopodobieństwo, że zaakceptuje słowo wejściowe nienależące do jest nie większe niż , co z kolei jest nie większe niż . Ponownie zatem musi "stablicować" wyniki dla pewnej skończonej liczby formuł (w tym przypadku stablicowane muszą zostać formuły o co najwyżej 4 literałach), a dla reszty protokół będzie dawał prawidłowe wyniki z wymaganym prawdopodobieństwem.
Powyższy protokół pokazuje więc przynależność do klasy . W tym momencie wystarczy zauważyć, że klasa jest domknięta ze względu na redukcje wielomianowe; jeśli redukuje się do oraz znamy protokół rozwiązujący , to może w pierwszym kroku dokonać redukcji, po czym postępować zgodnie z protokołem dla . Korzystając z faktu, że jest problemem -zupełnym, stwierdzamy, że każdy problem z klasy zawarty jest w klasie .
Ćwiczenie 2.13
Wyjaśnij, czemu w protokole potrzebowaliśmy ciała o co najmniej elementach.