Algorytmy i struktury danych/Wstęp: poprawność i złożoność algorytmu
Podstawowym elementem przy rozwiązywaniu zadanego problemu na komputerze jest dobór
algorytmu i struktury danych. Najważniejszymi aspektami algorytmu są jego "poprawność" i
złożoność.
Zasadniczo rozpatrywać będziemy tylko złożoność czasową i pamięciową.
W przypadku złożoności czasowej, z reguły wyróżnimy pewną operację dominującą, a czas będziemy traktować jako liczbę wykonanych operacji dominujących. W ten sposób nasza analiza będzie zależna jedynie od algorytmu a nie od implementacji i sprzętu. W przypadku sortowania, operacją dominującą jest przeważnie porównanie dwóch elementów, a w przypadku przeglądania drzewa jedno przejście w drzewie między wierzchołkami. W przypadku algorytmów tekstowych operacją dominującą jest porównanie dwóch symboli. Z reguły będziemy przyjmować, że każda operacja arytmetyczna na małych liczbach daje się wykonać w jednym kroku. Przez małe rozumiemy liczby mające bitów. Zazwyczaj określamy pewien parametr , będący rozmiarem problemu wejściowego i określamy złożoność jako funkcję , której argumentem jest rozmiar problemu.
Przeważnie rozważamy złożoność pesymistyczną - maksymalną złożoność dla danych tego samego rozmiaru . W praktyce ważniejszą może się okazać złożoność średnia, lub oczekiwana. W tym przypadku jest średnią (oczekiwaną) wartością złożoności dla wszystkich problemów rozmiaru . Tego typu złożoność zależy istotnie od tego, jaka się pod tym kryje przestrzeń probabilistyczna danych wejściowych. Z reguły zakładamy, że wszystkie dane wejściowe tego samego rozmiaru mogą się pojawić z tym samym prawdopodobieństwem. Jednakże jest to często mało realistyczne założenie. Przestrzeń probabilistyczna danych wejściowych może być bardzo skomplikowana. Prowadzić to może do bardzo trudnych (i wykraczających poza ten kurs) analiz.
Rozważmy następujący przykład. Przypuśćmy, że chcemy znaleźć pierwszą jedynkę w n-elementowej tablicy zerojedynkowej i nasz algorytm przegląda tablicę od strony lewej sprawdzając kolejne elementy. Niech operacją dominującą będzie sprawdzenie jednego elementu. Jeśli nie ma jedynki, to wykonamy sprawdzeń. Jest to maksymalna liczba, zatem złożoność pesymistyczna wynosi . Jeśli każdy ciąg binarny jest dany z tym samym prawdopodobieństwem, to łatwo policzyć, że złożoność średnia jest ograniczona przez stałą.
Do wyrażania złożoności stosujemy opis asymptotycznego wzrostu funkcji: oznacza, że dla pewnej stałej . Gdy , to mówimy, że jest liniowa, oraz dla mówimy, że złożoność jest kwadratowa. Jeśli jest wielomianem, to wtedy mówimy o złożoności wielomianowej.
Będziemy używać dodatkowych notacji:
. Były one wprowadzone na wykładach z matematyki dyskretnej.
Dla przypomnienia:
&
, gdy dla nieskończenie wielu i pewnej stałej zachodzi
Przykład
,
Jeśli , to , ale nie
Konwencje językowe. Jaki jest najlepszy język do opisu algorytmu? Jest to przykład problemu
nierozstrzygalnego. Niewątpliwie język ojczysty jest najlepszym
językiem potocznym, a ulubiony język programowania jest najlepszym językiem do implementacji
algorytmu. Język, którym będziemy opisywać algorytmy jest gdzieś pomiędzy tymi językami, język
potoczny nie wystarcza, a konkretny język programowania może spowodować, że "prosty" algorytm
się zrobi nieczytelny. Będziemy używać, o ile się da, nieformalnych konstrukcji programistycznych, a
w przypadkach bardzo prostych będziemy się starali pisać algorytm w języku Pascalo-podobnym.
Poprawność algorytmu: niezmienniki, własność stopu
Przez poprawność algorytmu rozumiemy to, że daje on takie odpowiedzi, jakich oczekujemy. Oczywiście algorytm musi być poprawny, aby miało sens rozpatrywanie jego złożoność.
Pojęcie niezmiennika
Poprawność algorytmu sprowadza się do spełniania określonych niezmienników na różnych etapach wykonywania tego algorytmu. Rozważmy kilka przykładów pozwalających zrozumieć znaczenie niezmiennika.
Załóżmy, że mamy zbiór składający się z przedmiotów. Niektóre z przedmiotów są czarne, a niektóre białe. Zakładamy, że liczba czarnych przedmiotów jest nieparzysta.
Algorytm Biało-czarne1
1 while do begin 2 pobierz dwa przedmioty z S; 3 if przedmioty są różnego koloru then wstaw z powrotem czarny 4 end; 5 return kolor ostatniego przedmiotu w S;
Załóżmy, że mamy 10000001 czarnych przedmiotów i 1000000001 białych, jaki jest ostatni przedmiot? Rozpatrzmy niezmiennik: parzystość liczby czarnych przedmiotów.
Ponieważ na początku mamy nieparzystą liczbę czarnych przedmiotów, zatem na wyjściu mamy kolor czarny.
Rozpatrzmy modyfikację tego algorytmu, zakładamy że n jest niezerowe.
Algorytm Biało-czarne2
1 while do begin 2 pobierz dwa przedmioty z S; 3 if co najmniej jeden jest biały then wstaw z powrotem jeden biały; 4 end; 5 return kolor ostatniego przedmiotu w S;
Załóżmy, że mamy 10000001 czarnych przedmiotów i 1000000001 białych, jaki jest ostatni przedmiot? Tym razem rozważmy niezmiennik: znak liczby białych przedmiotów. (Znak liczby jest równy 0, jeśli jest ona równa zeru, 1 - jeśli jest większa od zera.) Zatem ostatnim przedmiotem jest przedmiot biały.
Własność stopu
Podstawowym elementem poprawności algorytmu jest to, że ma on własność stopu: dla poprawnych danych wejściowych da odpowiedź po skończonym czasie. Na przykładzie dwóch prostych algorytmów pokażemy, że sprawdzanie własności stopu może nie być czynnością trywialną.
Algorytm Suma-Kwadratów-Cyfr
1 while ((n <>4) and (n<> 1)) do 2 suma kwadratów cyfr liczby ;
Algorytm 6174
// n jest czterocyfrową liczbą naturalną niepodzielną przez 1111 // pierwszymi cyframi n mogą być zera 1 while (n<>6174) do begin 2 największa liczba czterocyfrowa, której cyfry są permutacją cyfr liczby n; 3 najmniejsza liczba czterocyfrowa, której cyfry są permutacją cyfr liczby n; 4 n1 - n2 5 end
Algorytm X
1 while (n<>1) do 2 if n parzyste then n div 2 3 else 3*n+1;
Pierwsze dwa algorytmy mają własność stopu. W pierwszym łatwo to sprawdzić, gdyż dla następna wartość jest istotnie mniejsza.
Pozostawiamy jako ćwiczenie znalezienie najkrótszego koncepcyjnie dowodu własności stopu obu algorytmów (nie chodzi nam tu o brutalny dowód polegający na sprawdzeniu wszystkich przypadków przez komputer).
Algorytm X jest dosyć zagadkowy. Nie wiadomo, czy dla dowolnego naturalnego i dodatniego ma on własność stopu.
Złożoność algorytmów: analiza siedmiu prostych algorytmów
Na przykładzie siedmiu prostych algorytmów pokażemy, jak się analizuje i przyspiesza algorytmy. Po dokładniejsze uzasadnienia i analizy odsyłamy do ćwiczeń. Naiwne wersje tych algorytmów działają w czasie kwadratowym (Wybraliśmy "siedem" losowo, na przykład jest siedem dni w tygodniu, był taki film pt. Siedmiu wspaniałych itp.). Poza tym siedem przykładów jest np. lepsze od siedemdziesięciu (student tez człowiek, ma jeszcze inne sprawy).
Przywódca ciągu
Przywódcą ciągu jest element, który występuje w ciągu więcej razy niż połowa długości tego ciągu. Naszym problemem jest policzenie przywódcy ciągu danego tablicą . Dla uproszczenia przyjmijmy, że w tym ciągu jest przywódca. Łatwo można modyfikować algorytm, by sprawdzał istnienie przywódcy.
Algorytm Liczenie-Przywódcy
1 ; 2 for i 1 to n do 4 if begin 5 6 end else if 7 else ;
8 return ;
Przyspieszenie wynika z następującej własności problemu: jeśli mamy dwa różne elementy w tablicy, to możemy je usunąć i przywódca pozostanie taki sam.
Algorytm można zmodyfikować tak, aby w czasie liniowym liczył on słabego przywódcę: element, który występuje w tablicy więcej niż n/5 razy. W tym przypadku potrzebne są cztery liczniki odpowiadające czterem kandydatom na słabego przywódcę. Algorytm liczy element, który jest kandydatem na słabego przywódcę (jeśli istnieje taki przywódca, to na pewno jest nim wyliczony element). Jeśli istnieje słaby przywódca i mamy pięć różnych elementów, to można je usunąć bez zmiany wyniku. Pozostawiamy napisanie odpowiedniego algorytmu jako ćwiczenie.
Problem można rozwiązać inaczej, sortując tablicę, wtedy mamy złożoność O(n log n). Podamy potem również rozwiązanie metodą "dziel i zwyciężaj".
W animacji kolorem żółtym na końcu zaznacza się licznik słabego przywódcy, jego nazwa jest w niebieskim kwadraciku.
====Szukanie sumy==== Mamy dane dwie posortowane rosnąco tablice i liczbę x,pytamy czy są takie, że .
Algorytm Szukanie Sumy
Szukanie Sumy 1 2 while and do 3 if then return true; 4 else if then 5 else ; 6 return false;
Przyspieszenie jest możliwe dzięki odpowiedniej kolejności sprawdzania i pominięciu zbędnych sprawdzeń.
==== Maksymalny segment ==== Dla tablicy liczymy maksymalną wartość z zera i ze wszystkich liczb , gdzie .
Algorytm Maksymalny-Segment;
1 wynik := 0; sufiks := 0; 2 for i := 1 to n do begin 3 sufiks := max(A[i]+sufiks,0); 4 wynik := max(wynik, sufiks); 5 end
Przyspieszenie w stosunku do algorytmu kwadratowego następuje dzięki wprowadzeniu dodatkowej zmiennej sufiks. Po każdym zakończeniu pętli "for" zachodzi: wynik jest maksymalną sumą przedziału zawierającego się w oraz sufiks jest maksymalną sumą segmentu który jest sufiksem przedziału .
Najbliższy mniejszy sąsiad z lewej strony
Dla każdego zdefiniujmy najbliższego mniejszego sąsiada jako: Dla uproszczenia zakładamy, że dla oraz .
Algorytm Najbliższy-Mniejszy-Sąsiad
Najbliższy Mniejszy Sąsiad 1 for to n do begin 2 3 while 4 5 end;
Przyspieszenie następuje dzięki temu, że nie ma potrzeby sprawdzania tablicy dla indeksów istotnie wewnątrz przedziału . Niech będzie liczbą tych , dla których . Wystarczy pokazać, że suma wszystkich jest liniowa. Może się zdarzyć, że niektóre mają wartość liniową. Zauważmy jednak, że dany indeks pojawia się co najwyżej raz w sytuacji, gdy , potem będzie "przeskoczony".
Najdłuższy malejący podciąg
Niech będzie ciągiem dodatnich liczb. Następujący algorytm oblicza długość najdłuższego malejącego podciągu.
Algorytm Najdłuższy-Malejący
Najdłuższy-Malejący 1 2 for to n do begin 3 4 5 6 7 end;
Algorytm może, po niewielkim dodatkowym wysiłku fizycznym procesora, podać najdłuższy malejący
podciąg, albo też rozkład na minimalną liczbę podciągów niemalejących.
Nie jest jasne, jak policzyć leksykograficznie minimalny i leksykograficznie maksymalny podciąg
malejący o długości k, gdzie
k jest wynikiem powyższego algorytmu. Jak również możemy się zastanowić nad efektywnym
algorytmem znajdowania liczby wszystkich takich ciągów długości k.
Proste Pakowanie
Załóżmy, że mamy n pudełek, każde o rozmiarze R, oraz n przedmiotów o rozmiarach . Mamy włożyć przedmioty do pudełek, co najwyżej dwa do jednego pudełka. Pozostawiamy jako ćwiczenie analizę następującego algorytmu, który oblicza minimalną liczbę pudełek.
Algorytm Proste-Pakowanie
1 2 for to n do 3 if and then 4
Naiwne wersje powyższych sześciu algorytmów działają w czasie kwadratowym. W każdym z tych algorytmów bardzo proste spostrzeżenia prowadzą do algorytmów liniowych. Podamy jeszcze jeden bardzo krótki ciekawy algorytm (chociaż bez żadnego widocznego zastosowania praktycznego).
Permutacje wagowe
Przypuśćmy, że mamy wagę
szalkową, początkowo obie szalki są puste, oraz mamy odważniki o numerach 1,2,..n. Waga i-tego
odważnika wynosi .
Dla danej permutacji numerów odważników będziemy je wkładać na wagę
zgodnie z permutacją. Kładziemy kolejno odważniki
w kolejności na lewą lub prawa szalkę, raz położony odważnik nie zmienia już
nigdy swego położenia na szalce (wybór szalki jest dosyć
niedeterministyczny). Otrzymujemy ciąg wyników ważenia: +1, gdy lewa szalka przeważa, wpp. -1.
Ciąg ten oznaczamy przez Input.
Mówimy, że permutacja jest zgodna z ciągiem wyników ważeń danych tablicą
Input. Zajmiemy się problemem: dany
jest na wejściu ciąg Input wyników ważeń i mamy znaleźć
jakąkolwiek permutację zgodną z ciągiem Input. Takich permutacji może być
wiele. Zauważmy, że
liczba permutacji wynosi n!, a liczba ciągów wyników ważeń wynosi , co jest
liczbą znacznie mniejszą.
Następujący algorytm znajduje pewną permutację zgodną.
Zakładamy, że
Algorytm Permutacja-Wagowa
1 2 for downto do 3 if and then 4 5 else 6 ;
Jeśli Input = [+1,+1,+1,-1,-1,-1,+1,+1,-1], to Wynik = [6 5 4 7 3 2 8 1 9]. Ciąg Input jest zrealizowany przez następujący ciąg wyborów wkładania kolejnego odważnika:
,
gdzie L oznacza połóż na lewą szalkę, P na prawą. Korzystając (tylko częściowo) z dialektu C++, możemy zapisać algorytm krócej
Algorytm Permutacja-Wagowa1
1 2 for downto do 3 if and then 4 5 else ;
Wynik algorytmu pozostawia pewien niedosyt. Generujemy dobry wynik, ale w pewnym sensie jakikolwiek dobry. Nie jest jasne, jak policzyć efektywnie liczbę wszystkich permutacji zgodnych z danym ciągiem wyników, albo znaleźć jakąś szczególną permutację, np. leksykograficznie pierwszą lub ostatnią. Co będzie jeśli tablica Input zawiera również zera (wagi szalek są równe). Wtedy nie każdy ciąg Input jest realizowalny. Jak to można efektywnie sprawdzać?
Koszt zamortyzowany
Jeśli mamy ciąg operacji , to koszt zamortyzowany jednej z nich jest sumarycznym kosztem wykonania wszystkich operacji podzielonym przez liczbę operacji, inaczej mówiąc jest to, dla danego ciągu operacji, średni koszt jednej z nich. Zauważmy, że nie mówimy tu nic o prawdopodobieństwie, model jest deterministyczny. Na przykład w algorytmie Najbliższy-Mniejszy-Sąsiad rozważmy ciąg operacji
: while
Koszt pojedynczej operacji może być liniowy, również sumaryczny koszt ciągu tych operacji jest liniowy. Zatem pesymistyczny koszt jednej operacji jest tutaj liniowy, natomiast zamortyzowany koszt jednej operacji jest ograniczony przez stałą. W tym przypadku wiemy, że każde sprawdzenie z wynikiem negatywnym odbywa się tylko raz dla danej wartości . Możemy powiedzieć, że księgujemy koszt operacji elementom
o tej własności. Nieformalna metoda księgowania kosztów polega na rozdzielaniu (księgowaniu) kosztu, a następnie szacowaniu sumarycznej złożoności poprzez sumowanie wszystkich zaksięgowanych kosztów. Operacje pożyczają, w pewnym sensie, fundusze na pokrycie kosztów z różnych źródeł. Metoda ta będzie wykorzystana do analizy algorytmu dla interesującego problemu Find-Union.
Typowym przykładem liczenia kosztu w sposób zamortyzowany jest analiza generacji kolejnych reprezentacji binarnych kolejnych liczb naturalnych od 0 do , dodając jedynkę. W jednym kroku zastępujemy najdłuższy ciąg jedynek od końca zerami, następnie wstawiamy jedną jedynkę. Ponieważ w sumie wstawiliśmy jedynek w ciągu operacji, to zamortyzowana liczba operacji zamiany zera na jedynkę wynosi 1.
Zasada magazynu. W ostatnim przykładzie możemy powiedzieć, że analizowaliśmy koszt tzw. metodą magazynu. W każdej operacji koszt jest proporcjonalny do liczby przedmiotów włożonych do magazynu lub do liczby przedmiotów wyjętych z magazynu. Magazyn początkowo jest pusty. Wtedy całkowity koszt jest proporcjonalny do liczby przedmiotów włożonych. W przypadku generowania liczb binarnych do magazynu wkładamy nowe jedynki, a wyjmujemy te jedynki, które zamieniamy na zera.
Potencjał - Fundusz Ubezpieczeń Kosztów Algorytmicznych
Metodę magazynu można uogólnić na tzw. metodę potencjału. Niech będzie pewną liczbą naturalną (włączając zero) odpowiadającą potencjałowi po wykonaniu operacji. (Wyglądałoby to mniej tajemniczo, gdybyśmy zamiast pisali Bilans(i).
Niech będzie kosztem wykonania operacji i-tej.
Zakładamy, że potencjał jest początkowo zero, nigdy nie jest ujemny oraz że:
Wtedy całkowity koszt jest tego samego rzędu co . W naszych poprzednich przykładach rozmiar magazynu jest w tym sensie potencjałem.
Można powiedzieć obrazowo że potencjał jest kapitałem Funduszu Ubezpieczeń Kosztów Algorytmicznych. Jeśli wszystkie wpłaty są takie same, to koszt zamortyzowany jednej operacji jest wpłatą (składką), którą ta operacja wpłaca do funduszu.
Operacja najpierw wpłaca swoją składkę, a następnie pobiera z funduszu tyle, żeby proporcjonalnie (być może z dokładnością do stałego współczynnika) zapłacić za swój koszt wykonania.
Dzięki temu, że wiele operacji pobiera z funduszu znacznie mniej, niż wpłaca, niektóre operacje mogą jednorazowo pobrać dużą kwotę, którą płacą za koszt wykonania. Operacje ubezpieczają się od kosztów ich wykonania. Poszczególne operacje płacą drobne składki , a swój koszt za każdym razem opłacają, biorąc pieniądze z Funduszu. Czasami koszt operacji jest duży, ale do tego czasu wpłacono tyle drobnych składek, że możemy ten koszt pokryć. Istotne jest jedynie, żeby Fundusz nie zbankrutował i kapitał nie zszedł poniżej zera. Możliwa jest również sytuacja, gdy Fundusz startuje z kapitałem początkowym. Wtedy kapitał ten wlicza się do całkowitego kosztu algorytmu, który się dodaje do sumy składek.
Rozważmy przykłady ilustrujące wykorzystanie potencjału. Najistotniejsze jest określenie składek
Tablica dynamiczna
Przypuśćmy, że mamy dynamiczną tablicę. W każdym momencie wiemy, ile elementów w tablicy jest aktywnych, elementy nieaktywne zaznaczamy. W każdej operacji, jeśli liczba elementów nieaktywnych jest mniejsza od wielkości tablicy, to tworzymy tablicę dwa razy mniejszą i tam przepisujemy elementy aktywne, starą tablicę zwalniamy. W przeciwnym wypadku jeśli chcemy dodać element, który spowoduje przepełnienie tablicy, to całą tablicę kopiujemy do tablicy dwa razy większej. Początkowo tablica ma rozmiar 1. Zakładamy, że operacją dominującą jest kopiowanie aktywnego elementu do nowej tablicy. Jeśli mamy operacji, to całkowity koszt kopiowania jest liniowy. Wystarczy w każdej operacji dać składkę 4 jednostek do Funduszu (potencjału). Wtedy koszt jednej dużej operacji przepisywania zamortyzuje się zmianą potencjału.
Zastąpienie kolejki dwoma stosami
Jedną kolejkę Q można zastąpić dwoma stosami . Jeśli pierwszy element stosu lub kolejki w reprezentacji poziomej jest w ciągu na pierwszej pozycji (tzn. pobieramy , stawiamy za ), oraz , to dla pewnego mamy:
.
Inaczej mówiąc pierwszy element kolejki jest na wierzchołku drugiego stosu, a ostatni element kolejki jest na wierzchołku pierwszego stosu.
Operacja wstawiania do A odpowiada wstawieniu elementu do , operacja pobrania z Q odpowiada pobraniu elementu z S2 z tym, że jeśli jest pusty, to przepisujemy najpierw wszystkie elementy z S1 do S2. Niech operacją dominującą będzie jedna operacja stosowa (wstawienie lub pobranie pojedynczego elementu ze stosu). Wtedy ciąg operacji kolejkowych startujących od pustej kolejki ma koszt liniowy w tej implementacji. Wystarczy, że każda operacja wkłada do Funduszu składkę 3 jednostek. Dowód tego pozostawiamy jako ćwiczenie.
Zastąpienie kolejki dwustronnej trzema stosami
Rozważmy podobny problem z tym, że nasza kolejka jest dwustronna, możemy wkładać i pobierać element z każdego z dwóch końców kolejki. Wtedy możemy taką kolejkę zastąpić trzema stosami tak, że teraz również każda operacja kolejkowa będzie mieć zamortyzowany koszt stały. Elementy kolejki trzymamy w dwóch stosach S1, S2 tak, jak poprzednio. Niezmiennikiem jest to, że oba stosy są niepuste, lub mają w sumie co najwyżej jeden element. Zapewniamy zachodzenie niezmiennika wykorzystując trzeci stos. W momencie, gdy jeden ze stosów ma więcej niż jeden element, a drugi jest pusty, korzystając z trzeciego stosu, doprowadzamy do reprezentacji aktualnej kolejki przez stosy S1 i S2 tak, aby miały one tę samą liczbę elementów (z dokładnością do 1). Pozostawiamy jako ćwiczenie dowód (metodą potencjału) tego, że zamortyzowany koszt jest stały. Plik:Example.jpg