Teoria informacji/TI Wykład 13: Różnice pomiędzy wersjami

Z Studia Informatyczne
Przejdź do nawigacjiPrzejdź do wyszukiwania
Niwinski (dyskusja | edycje)
Niwinski (dyskusja | edycje)
Linia 196: Linia 196:


(iii) Jeśli <math>M(x) \downarrow </math> i dla każdego <math>y \neq x </math>, prefiksowo porównywalnego
(iii) Jeśli <math>M(x) \downarrow </math> i dla każdego <math>y \neq x </math>, prefiksowo porównywalnego
z ''x'' (tzn. <math>y < x </math> lub <math>x < y </math>), <math>M(y) \uparrow </math>, to
z ''x'' (tzn. <math>y < x </math> lub <math>x < y </math>), zachodzi <math>M(y) \uparrow </math>, to


<center><math>
<center><math>
Linia 210: Linia 210:


{{dowod|||
{{dowod|||
Mając dane <math>M </math>, nasz algorytm konstruuje maszynę <math>M' </math>, której działanie opiszemy nieformalnym programem.


1. Input (dla <math>M' </math>) <math> = x = x_1 \ldots x_k</math>.
2. <math> A := \varepsilon </math>  (* ''A'' przebiega kolejne prefiksy ''x'').
3. Przeglądaj wszystkie słowa w <math> \{ 0, 1 \}^* </math> w porządku wojskowym
<math> \varepsilon = w_0, w_1, w_2, \ldots , w_i, \ldots </math> i "ruchem zygzakowym" symuluj działanie
<math>M </math> na wejściu <math>A w_i </math>.
Dokładniej, symulacja przebiega w fazach: <math>0,1,\ldots </math> W i-tej fazie wykonuje się kolejny krok w obliczeniach <math>M </math> na
<math>A w_0,  A w_1, \ldots , A w_{i-1}</math> i pierwszy krok w obliczeniu <math>M </math> na
<math>A w_i</math>.
Jeśli w czasie tej symulacji stwierdzisz, że <math>M (A w_i) \downarrow </math>,  GOTO 4.
4.
}}
}}

Wersja z 18:58, 15 sty 2007

Andriej Nikołajewicz Kołmogorow (1903-1987)

Złożoność informacyjna Kołmogorowa

Odwołajmy się do codziennego doświadczenia. Chyba każdy się zgodzi, że niektóre liczby można zapamiętać łatwiej niż inne i nie zależy to tylko od wielkości liczby. Bez trudu zapamiętamy liczbę 1000100 czy nawet

100100100100

natomiast zapamietanie 20 „losowych˝ cyfr sprawi nam kłopot. No, chyba, że to będą np.

31415926535897932384

wtedy, nawet jeśli nie, „trzymamy˝ tych cyfr w pamięci, możemy je w razie potrzeby odtworzyć, np. korzystając z formuły Leibniza 1113+1517+19=π4.

Nie inaczej ma się sprawa z tekstami. Mamy świadomość, że przy odpowiednim nakładzie pracy i czasu potrafilibyśmy się nauczyć na pamięć wybranej księgi „Pana Tadeusza˝ (a może nawet całego poematu), natomiast zapamiętanie - powiedzmy - 10 stron „losowych˝ symboli wydaje się przekraczać możliwości zwykłego człowieka. No chyba, że znowu -- znaleźlibyśmy jakiś „klucz˝, na przykład okazałoby się, że jest to tekst w obcym języku, którego jednak jesteśmy w stanie się nauczyć.

Jakie pojęcia matematyczne kryją się za tym zjawiskiem? W przypadku liczb odpowiedź jest stosunkowo prosta: niektóre liczby całkowite można opisać znacznie krócej niż podając ich rozwinięcia dziesiętne; wystarczy wtedy zapamiętać ów krótszy „opis˝. W pierwszym przybliżeniu, za złożoność liczby bylibysmy więc skłonni uznać długość jej najkrótszego opisu. Jednak widzieliśmy już na pierwszym wykładzie, że takie postawienie sprawy prowadzi do paradoksu Berry'ego, dlatego też wprowadziliśmy wtedy pojęcie notacji.

A jednak - po lepszym zrozumieniu - idea najktótszego opisu prowadzi do sensownej miary złożoności, którą przedstawimy na tym wykładzie.

Przyjmiemy, że obiekty, które chcemy opisywać, to słowa nad alfabetem {0,1}; zarówno liczby naturalne, jak też słowa nad większymi alfabetami można łatwo sprowadzić do tego przypadku.

Ideą Kołmogorowa było, by za złożoność słowa w przyjąć długość najkrótszego programu generującego to słowo, przy wybranym języku programowania, np. języku Pascal. W istocie Kołmogorow nie użył języka Pascal, lecz uniwersalnej maszyny Turinga, jednak - jak wkrótce się przekonamy - wybór ten nie ma większego znaczenia, podobnie jak zresztą wybór innego języka programowania (np. C++ zamiast Pascala).

Zakładamy, że Czytelnik jest zaznajomiony z pojęciem maszyny Turinga (zob. Języki, automaty i obliczenia, wykład 12), choć nie będziemy go używać bardzo intensywnie - jeśli ktoś woli, może nadal myśleć o ulubionym języku programowania. Wszystkie rozważane przez nas maszyny Turinga są deterministyczne i używają binarnego alfabetu wejściowego ({0,1}).

Ważną własnością maszyn Turinga jest, że można je kodować za pomocą słów binarnych, jedno z wielu możliwych kodowań opisane jest w wykładzie 1 ze Złożoności obliczeniowej. Nie jest przy tym trudno zagwarantować, by kodowanie było bezprefiksowe (tzn. żaden kod nie jest właściwym prefiksem innego).

Zakładając ustalone kodowanie, Turing podał konstrukcję maszyny uniwersalnej.

Definicja [Uniwersalna maszyna Turinga]

Uniwersalna maszyna Turinga ma następujące własności:

(1) jeśli na wejściu jest w=vu, gdzie v jest kodem pewnej maszyny Mv, to U symuluje działanie Mv na u.

W szczególności

(1a) jeśli Mv się zatrzymuje, to U też się zatrzymuje z tym samym wynikiem, który oznaczamy U(w) (=Mv(u)),

(1b) jeśli Mv się zapętla, to U też się zapętla.

(2) jeśli słowo wejściowe w nie ma prefiksu będącego kodem maszyny, to U się zapętla.

Definicja [Złożoność Kołmogorowa]

Złożonością informacyjną Kołmogorowa słowa x jest
CU(x)=min{|v|:U(v)=x}

Innymi słowy, CU(x) jest długością najkrótszego kodu maszyny Turinga wraz z wejściem, My, takich że M(y)=x.

Na pierwszy rzut oka definicja ta istotnie zależy od wyboru kodowania i maszyny uniwersalnej. Istotnie, przyjmując inne kodowanie, moglibyśmy otrzymać inną maszynę uniwersalną U i w konsekwencji inną wartość CU(x). Okazuje się jednak, że nie polepszymy w ten sposób złożoności Kołmogorowa więcej niż o stałą (zależną od U i U, ale nie od x.

Fakt

Niech M będzie dowolną maszyną Turinga i niech
CM(x)=min{|v|:M(v)=x}.

Wtedy istnieje taka stała cUM, że

CU(x)KM(x)+cUM

dla każdego x.

Dowód

Niech M oznacza kod maszyny M. Wtedy, zgodnie z definicją U, M(v)=U(Mv), dla każdego v, dla którego którakolwiek ze stron jest określona. Mamy więc

CU(x)min{|M|+|v|:M(v)=x}=CM(x)+|M|.

Wystarczy więc przyjąć cUM=|M|.

Wniosek [niezmienniczość]

Jeśli U,U są dwiema maszynami uniwersalnymi (być może dla różnych kodowań), to istnieje stała cUU, że
CU(x)CU(x)+cUU

dla każdego x.

Wniosek [szacowanie]

Istnieje stała cU, że
CU(x)|x|+cU.

Dowód

W powyższym fakcie wystarczy przyjąć za M maszynę obliczajacą funkcję identycznościową.


Wybierając dowolną funkcję xv, gdzie U(v)=x i |v|=CU(x), otrzymujemy oczywiście notację. Z Faktu na temat notacji wynika, że dla każdego n istnieje słowo x długości n dla którego CU(x)|x|.

Definicja [Słowa losowe]

Słowo x spełniające CU(x)|x| nazywamy losowym (w sensie Kołmogorowa).

Intuicyjnie, w terminach języka Pascal, powiedzielibyśmy, że są to słowa, dla których nie ma istotnie lepszego programu niż write ('x').

Wspomniana powyżej notacja xv wydaje się być bardzo sensowną propozycją, ma jednak poważną wadę: przy żadnym wyborze tej funkcji nie jest obliczalna. W równoważnym sformułowaniu, mamy następujące

Twierdzenie

Funkcja xCU(x) nie jest obliczalna.

Dowód

Dowód oparty jest na pomyśle paradoksu Berry'ego: dla każdego n znajdujemy słowo wn, którego ,,opis wymaga n symboli" i w ten sposób dochodzimy do sprzeczności.

Przypuśćmy, że powyższa funkcja jest obliczalna. Wówczas obliczalna byłaby również funkcja, która binarną reprezentację liczby n (oznaczmy ją bin (n)) przekształca na pierwsze w porządku wojskowym słowo w, takie że CU(w)n (oznaczmy je wn; porządek wojskowy porządkuje wszystkie słowa najpierw według długości a potem leksykograficznie). Niech M będzie maszyną realizującą tę funkcję, tzn. M(bin (n))=wn. Wtedy oczywiście CM(wn)|bin (n)|. Z drugiej strony, zgodnie z udowodnionym przed chwilą Faktem,

CU(wn)CM(wn)+cUM

a założyliśmy, że nCU(wn), co dałoby nam

n|bin (n)|+cUM

dla wszystkich n, co jest oczywiście niemożliwe.

Złożoność bezprefiksowa

Wprowadzimy teraz pewną modyfikację uniwersalnej maszyny Turinga i co za tym idzie modyfikację pojęcia informacyjnej złożoności algorytmicznej, która w pewnych zastosowaniach jest wygodniejsza, przede wszystkim przy określeniu "prawdopodobieństwa stopu" i stałej Chaitina, czym zajmiemy się na następnym wykładzie. Otóż, podobnie jak w teorii kodów, wygodnie jest wykluczyć przypadek, kiedy jedno akceptowalne słowo wejściowe jest prefiksem innego takiego słowa. Zauważmy, że własność ta jest spełniona w większości języków programowania, gdzie koniec programu (z danymi) jest ściśle określony.

Zbiór słów L{0,1}* jest bezprefiksowy, kiedy żadne słowo w L nie jest prefiksem innego słowa w L. Maszynę Turinga M nazwiemy bezprefiksową, o ile język L(M) jest bezprefiksowy. Z samej postaci maszyny nie jest łatwo wydedukować, czy jest ona bezprefiksowa, czy nie; w istocie nietrudno jest wykazać, że w ogólności jest to problem nierozstrzygalny. Na pierwszy rzut oka jest to istotna przeszkoda dla stworzenia "bezprefiksowej maszyny uniwersalnej". Okazuje się jednak, że dowolną maszynę Turinga można w pewnym sensie efektywnie "poprawić" do maszyny bezprefiksowej i w ten sposób z listy wszystkich maszyn Turinga otrzymać listę maszyn bezprefiksowych N0,N1,, tak że każdy częsciowo-obliczalny język bezprefiksowy L znajdzie się na tej liście jako L=L(Ni), dla pewnego i.

Fakt [Maszyny bezprefiksowe]

Istnieje algorytm, który dla danej maszyny Turinga M znajduje maszynę M taką, że

(i) M jest bezprefiksowa.

(ii) L(M)L(M).

(iii) Jeśli M(x) i dla każdego yx, prefiksowo porównywalnego z x (tzn. y<x lub x<y), zachodzi M(y), to

M(x)=M(x).

W szczególności, jeśli maszyna M jest bezprefiksowa, to

L(M)=L(M).

Dowód

Mając dane M, nasz algorytm konstruuje maszynę M, której działanie opiszemy nieformalnym programem.

1. Input (dla M) =x=x1xk.

2. A:=ε (* A przebiega kolejne prefiksy x).

3. Przeglądaj wszystkie słowa w {0,1}* w porządku wojskowym ε=w0,w1,w2,,wi, i "ruchem zygzakowym" symuluj działanie M na wejściu Awi.

Dokładniej, symulacja przebiega w fazach: 0,1, W i-tej fazie wykonuje się kolejny krok w obliczeniach M na Aw0,Aw1,,Awi1 i pierwszy krok w obliczeniu M na Awi.

Jeśli w czasie tej symulacji stwierdzisz, że M(Awi), GOTO 4.

4.