Algorytmy i struktury danych/Wstęp: poprawność i złożoność algorytmu: Różnice pomiędzy wersjami

Z Studia Informatyczne
Przejdź do nawigacjiPrzejdź do wyszukiwania
Rytter (dyskusja | edycje)
Nie podano opisu zmian
Tprybick (dyskusja | edycje)
Nie podano opisu zmian
Linia 1: Linia 1:
TEST:
Moduł 1.\ Wstęp: poprawność i złożoność algorytmów.} \myskip Podstawowym elementem przy rozwiązywaniu
Siła algorytmu jest proporcjonalna do czasu jego działania
zadanego problemu na komputerze jest dobór algorytmu i struktury danych. Najważniejszymi aspektami algorytmu są
najmocniejszym jest algorytm który nigdy się nie zatrzymuje
jego ''poprawność'' i złożoność.
w biegu i nie traci siły, jest to tzw. algorytm
Będziemy zasadniczo rozpatrywać tylko złożoność czasową i
[[perpetum mobile]]
pamięciową.
 
 
W przypadku złożoności czasowej z reguły wyróżnimy pewną operację dominującą i czas
będziemy traktować jako liczbę wykonanych operacji dominujących. W ten sposób nasza analiza będzie
  zależna jedynie od algorytmu a nie od implementacji i sprzętu.
  W przypadku sortowania przeważnie operacją dominującą jest porównanie dwóch elementów
  (mniejsze, równe, mniejsze), a w przypadku przeglądania drzewa jedno przejście w drzewie między
  wierzchołkami. W przypadku algorytmów tekstowych operacją dominującą jest porównanie dwóch symboli.
Z reguły
będziemy przyjmować, że każda operacja arytmetyczna na małych liczbach daje się zrobić w jednym kroku.
Przez ''małe'' rozumiemy liczby mające <math>O(\log n)</math> bitów.
  Z reguły określamy pewien parametr <math>n</math>, będący rozmiarem problemu wejściowego i
określamy złożoność jako funkcję <math>T(n)</math>, której arguementem jest rozmiar problemu.
 
Przeważnie rozważamy złożoność pesymistyczną -maksymalną złożoność dla danych tego samego rozmiaru
<math>n</math>.
W praktyce ważniejszą może się okazać złożoność średnią, lub oczekiwaną, w tym przypadku <math>T(n)</math> jest średnią (oczekiwaną) wartością
złożoności dla wszystkich problemów rozmiaru <math>n</math>. Tego typu złożoność zależy  istotnie od tego, jaka się od tym kryje
przestrzeń probablistyczna problemów. Z reguły zakładamy, że wszystkie problemy wejściowe tego
samego rozmiaru mogą się pojawić z tym samym prawodopodobieństwem. Jednakże jest to często mało
realistyczne założenie. Przestrzeń probabilistyczna danych wejściowych może być bardzo skomplikowana,
prowadzić to może do bardzo trudnych (i wykraczających poza ten kurs) analiz.
\myskip '''Przykład.'''\
Przypuśćmy, że chcemy znaleźć pierwszą jedynkę w tablicy zerojedynkowej i nasz algorytm przegląda
tablicę od strony lewej sprawdzając kolejne elementy. Niech operacją dominującą będzie
sprawdzenie jednego elementu. Jeśli nie ma jedynki, to wykonamy <math>n</math> sprawdzeń, jest to maksymalna
liczba, zatem złożoność pesymistyczna wynosi <math>T(n)=n</math>. Jeśli każdy ciąg binarny jest dany z tym samym
prawdopodobieństwem to łatwo policzyć, że złożoność średnia jest ograniczona przez stałą.
\myskip
Do wyrażania złożoności stosujemy opis asymptotycznego wzrostu funkcji:
 
  <math>f(n)\ =\ O(g(n))</math>  oznacza
że <math>f(n) \le c\cdot g(n)</math> dla pewnej stałej <math>n</math>. \\
Gdy <math>g(n)=n</math> to mówimy, że <math>f(n)</math> jest liniowa, oraz dla <math>g(n)=n^2</math> mówimy, że złożoność <math>f(n)</math> jest
kwadratowa. Jeśli <math>g(n)</math> jest wielomianem to wtedy mówimy o złożoności wielomianowej. Będziemy używać
dodatkowych notacji
 
<math>f(n)=\Theta(g(n)),\ f(n)=\Omega(n)</math>. \myskip Były one wprowadzone na wykładach z matematyki dyskretnej.
Dla przypomnienia:
<math><math>f(n)=\Omega(g(n)</math>, gdy  dla nieskończenie wielu <math>n</math> i pewnej stąlej <math>c>0</math> zachodzi\  <math>f(n) \ge c\cdot g(n)</math>.
<!--%--------------------------------------
-->\myskip '''Przykład'''. \\
<math>\frac{1}{100}\cdot n^2- 2n = \Theta(n^2 )</math>.\
<math>n^5+2^n = \Theta(2^n), n!=\Omega(10^n)</math>,\\
Jeśli <math>f(n)=(1+(-1)^n)\cdot n</math>, to <math>f(n)=\Omega(n),\ f(n)=O(n)</math> ale nie zachodzi <math>f(n)=\Theta(n)</math>.
<!--%*********************************************************
-->\paragraph{Konwencje językowe.} Jaki jest najlepszy język do opisu algorytmu ? Jest to przykład problemu
nierozstrzygalnego. Niewątpliwie język ojczysty jest najlepszym językiem potocznym , a ulubiony język
programowania jest najlepszym językiem do implementacji algorytmu. Język, którym będziemy opisywać
algorytmy jest gdzieś pomiędzy tymi językami, język potoczny nie wystarcza a konkretny język programowania
może spowodować to, że ''prosty'' algorytm się zrobi nieczytelny. \ Będziemy używać, o ile się da,
nieformalnych konstrukcji programistycznych, a w przypadku bardzo prostych algorytm będziemy się starali pisać
algorytm w języku C-podobnym.
<!--%
-->\section{Poprawność algorytmu:\ niezmienniki, własność stopu}
Przez poprawność algorytmu rozumiemy to, że
daje on takie odpowiedzi jakich oczekujemy.
Oczywiście algorytm musi być poprawny aby miało sens rozpatrywanie jego złożoność.
<!--%
-->\subsection*{Pojęcie niezmiennika}
Poprawność algorytmu sprowadza się do spełniania określonych niezmienników na różnych etapach
tego algorytmu.
Rozważmy kilka przykładów pozwalających zrozumieć znaczenie niezmiennika. \vskip 0.2cm \noindent
Załóżmy, że mamy zbiór <math>S</math> składający się z <math>n</math> przedmiotów, gdzie <math>n</math> jest nieparzyste,
niektóre z przedmiotów są czarne a niektóre białe.
 
'''Algorytm''' while  <math>|S|>1</math>
 
\hspace*{0.5cm} {pobierz dwa przedmioty z <math>S</math>;
 
\hspace*{0.5cm}  '''if''' przedmioty są różnego koloru to wstaw z powrotem czarny  \hspace*{0.5cm}  '''else''' usuń oba przedmioty;  return kolor ostatniego przedmiotu w <math>S</math>;
\myskip
Zaóżmy, że mamy 1000000 czarnych przedmiotów i  1000000001 białych, jaki jest ostatni przedmiot ? Rozpatrzmy
niezmiennik: parzystość liczby czarnych przedmiotów.
 
Ponieważ na początku mamy parzystą liczbę czarnych przedmiotów, zatem na wyjściu mamy kolor biały \myskip
Rozpatrzmy modyfikację tego algorytmu:
 
 
'''Algorytm''' while  <math>|S|>1</math>
 
\hspace*{0.5cm} {pobierz dwa przedmioty z <math>S</math>;
 
\hspace*{0.5cm}  '''if''' co najmniej jeden jest czarny to wstaw z powrotem jeden czarny; \hspace*{0.5cm}      '''else''' usuń oba przedmioty;  return kolor ostatniego przedmiotu w <math>S</math>.
\myskip Załóżmy, że mamy  10000001 czarnych przedmiotów i  1000000001 białych, jaki jest ostatni przedmiot
? Tym razem rozważmy niezmiennik: znak liczby czarnych przedmiotów. (Znak liczby jest równy 0 jeśli jest ona
równa zeru, 1 jeśli jest większa od zera.) Zatem ostatnim przedmiotem jest przedmiot czarny.
<!--%
-->\subsection*{Własność stopu}
\noindent Podstawowym elementem poprawności algorytmu jest to, że ma on własność stopu: dla poprawnych
danych wejściowych da odpowiedź po skończonym czasie. Na przykładzie dwóch prostych algorytmów pokażemy,
że sprawdzanie własności stopu może nie być czynnością trywialną.
 
 
    '''Algorytm''' Suma-Kwadratów-Cyfr;    \hspace*{0.5cm} while ($(n <>
4)<math> and </math>(n<> 1))
 
    \hspace*{0.8cm} n := suma cyfr liczby n;
<!--%
-->\myskip
 
    '''Algorytm''' 6174;      \hspace*{0.5cm} wejściem jest czterocyfrowa liczba naturalna niepodzielna przez 1111
 
      \hspace*{0.5cm} pierwszymi cyframi mogą być zera
 
 
    \hspace*{0.5cm} '''while''' $(n<>
6174)$
 
    \hspace*{0.9cm} n1 := największa liczba czterocyfrowa której cyfry są permutacją cyfr liczby <math>n</math>;
 
    \hspace*{0.9cm} n2 := najmniejsza liczba czterocyfrowa której  cyfry są permutacją cyfr liczby <math>n</math>;
 
    \hspace*{0.9cm} n := n1 - n2;\
    \myskip
 
    '''Algorytm''' Tajemniczy;  %  \hspace*{0.5cm} n jest dodatnią liczbą naturalną;
<!--%
-->    \hspace*{0.5cm} while $(n<>
1)$
 
    \hspace*{1cm}  if n parzyste n := n div 2; else n := 3*n+1;
    %
    %----------------------------------
      \myskip Pierwsze dwa algorytmy mają własność stopu, w pierwszym łatwo to
sprawdzić gdyż dla <math>n>100</math> następna wartość jest istotnie mniejsza. Podobnie jest w drugim algorytmie.
Algorytm Tajemniczy jest dosyć zagadkowy, nie wiadomo, czy dla dowolnego naturalnego dodatniego <math>n</math> ma on
własność stopu.
 
\section{Złożoność algorytmów:\ analiza sześciu prostych algorytmów}
Na przykładzie sześciu prostych algorytmów pokażemy, jak się analizuje i osiąga złożoność liniową.
Dokładniejsze uzasadnienia i analizy odsyłamy do ćwiczeń.  Naiwne wersje tych algorytmów działają w czasie
kwadratowym.
<!--%--------------------------------------------------------
-->\paragraph{Przywódca ciągu.}\ Przywódcą ciągu jest element, który występuje w ciągu więcej
razy niż połowa długości tego ciągu. Naszym problemem jest policzenie przywódcy ciągu danego tablicą
<math>A[1..n]</math>. Dla uproszczenia przyjmijmy, że w tym ciągu jest przywódca. łatwo można zmodyfikować algorytm
by sprawdzał istnienie przywódcy. \myskip
    \hspace*{.5cm}
    '''Algorytm''' Liczenie-Przywódcy;
    \begin{verbatim}
    j:=0; ile:=1;
    for i:=1 to n do
      if (ile:=0) {ile:=ile+1; j:=i};
      else if (A[i]=A[j]) ile:=ile+1; else ile:=ile-1;
    return A[j];
\end{verbatim}
\myskip
Przyspieszenie wynika z następującej własności problemu:
\ jeśli mamy dwa różne elementy w tablicy to możemy je usunąć i przywódca pozostanie taki sam. \myskip
<!--%
--><!--%
-->\paragraph'''Szukanie sumy.'''\ Mamy dane dwie posortowane rosnąco tablice <math>A,B</math> i liczbę x,
pytamy  czy są  <math>a \in A,\ b \in B</math> takie, że\ <math>x=a+b</math>.
<!--%
-->\myskip
        \hspace*{1.5cm} '''Algorytm''' Szukanie-Sumy;
\begin{verbatim}
        i := 1; j := n;
        while (i <= n and j > 0)
            if (A[i]+B[j]=x) return true; else
            if (A[i]+B[j]<x) i:=i+1; else j:=j-1;
        return false;
\end{verbatim}
\myskip Przyspieszenie jest możliwe dzięki odpowiedniej kolejności sprawdzania <math>i,j</math> i pominięciu zbędnych
sprawdzeń.
<!--%
-->\paragraph{Maksymalny segment.}\  Dla tablicy <math>A[1..n]</math> liczymy
maksymalną wartość z zera i ze wszystkich liczb <math>\sum_{k=i}^j\ A[k]</math>, gdzie <math>1\le i\le j\le n</math>.
\myskip
        \hspace*{1.5cm} '''Algorytm''' Maksymalny-Segment;
        \begin{verbatim}
        wynik := 0; sufiks := 0;
        for i := 1 to n do
            sufiks := max(A[i]+sufiks,0);
            wynik := max(wynik,sufiks);
\end{verbatim}
\myskip Przyspieszenie do algorytmu liniowego następuje dzięki wprowadzeniu dodatkowej zmiennej sufiks. Po
każdym zakończeniu  pętli ''for'' zachodzi: \ wynik jest maksymalną sumą przedziału zawierającego się w
<math>[1..i]</math> oraz sufiks jest maksymalną sumą segmentu który jest sufiksem przedziału <math>[1..i]</math>.
<!--%
-->\paragraph'''Najbliższy mniejszy sąsiad.'''\
<!--%
-->Dla każdego <math>i > 1</math> zdefiniujmy najbliższego mniejszego są siada <math>i</math> jako: \ {Lewy[i]\ =\ \max \{j<i\ :\
A[j]<A[i]$.}
 
\noindent Dla uproszczenia zakładamy, że  <math>A[i]> 0</math> dla <math>i>0</math> oraz <math>A[0]=0</math>.  \myskip
        \hspace*{1.5cm} '''Algorytm''' Najbliższy-Mniejszy-Sąsiad;
        \begin{verbatim}
        for i := 1 to n do
            j := i-1;
            while ( A[j] >= A[i]) j := Lewy[j];
            Lewy[i] := j;
\end{verbatim}
\myskip Przyspieszenie następuje dzięki temu, że nie ma potrzeby sprawdzania tablicy dla indeksów istotnie
pomiędzy <math>i-1</math> i <math>Lewy[i-1]</math> itd. Niech <math>k_i</math> będzie liczbą tych <math>j</math> dla których <math>A[j]>=A[i]</math>. Wystarczy
pokazać, że suma wszystkich <math>k_i</math> jest liniowa. Może się zdarzyć, że niektóre <math>k_i</math> mają wartość
liniową. Zauważmy jednak, że dany indeks <math>j</math> pojawia się co najwyżej raz w sytuacji gdy <math>A[j] >= A[i]</math>,
potem będzie ''przeskoczony''.
<!--%****************
--><!--%
-->\paragraph'''Najdłuższy malejący podciąg.'''\
Niech <math>A[1], A[2],\ldots A[n]</math> będzie ciągiem dodatnich liczb. Następujący algorytm oblicza
długość najdłuższego  malejącego podciągu. \myskip
        \hspace{1.5cm}
        '''Algorytm''' Najdłuższy-Malejący;
        \begin{verbatim}
        wynik := 1;
        for i := 1 to n do
            x := A[i]; A[i]:=0;
            k := min { j : x  > A[j]}; A[k] := x ;
            wynik := max(k, wynik);
\end{verbatim}
<!--%
-->\paragraph{Liczba inwersji.}\ Mamy dane dwie posortowane rosnąco tablice <math>A[1..n],B[1..n]</math>, mamy policzyć liczbę par
<math>i,j</math> takich, że <math>A[i]>B[j]</math>
\myskip
        \hspace*{1.5cm} '''Algorytm''' Liczba-Inwersji;
        \begin{verbatim}
        wynik := 0; j := 0;
        for i := 1 to n do
            while (j<n and A[i]>B[j+1]) j := j+1;
            wynik := wynik + j;
\end{verbatim}
\myskip \noindent Naiwne wersje powyższych sześciu algorytmów  działają w czasie kwadratowym. W każdym z
tych algorytmów bardzo proste spostrzeżenia prowadzą do algorytmów liniowych.
<!--%------------------------------------------------------------------------
-->\section{Koszt zamortyzowany}
Jeśli mamy ciąg operacji <math>op_1,op_2,\ldots, op_n</math> to koszt zamortyzowany jednej z nich jest sumarycznym kosztem
wykonania wszystkich operacji podzielonym przez liczbę operacji, inaczej mówiąc jest to, dla danego ciągu
operacji, średni koszt jednej z nich. Zauważmy, że nie mówmy tu nic o prawdopodobieństwie, model jest
deterministyczny.
 
 
\noindent Na przykład w algorytmie Najbliższy-Mniejszy-Sąsiad rozważmy ciąg operacji \vskip 0.4cm
\centerline{<math>op_i</math>: while <math>( A[j] >= A[i])\ j = Lewy[j]</math>} \vskip 0.1cm \noindent  Koszt pojedynczej operacji
może być liniowy, również sumaryczny koszt ciągu tych operacji <math>op_1,op_2,\ldots, op_n</math> jest liniowy. Zatem
pesymistyczny koszt jednej operacji jest tutaj liniowy, natomiast zamortyzowany koszt jednej operacji jest
ograniczony przez stałą. W tym przypadku wiemy, że każde sprawdzenie <math>A[j]>=A[i])</math> z wynikiem negatywnym
odbywa się tylko raz dla danej wartości <math>j</math>. Możemy powiedzieć, że księgujemy koszt operacji elementom <math>j</math>
o tej własności. Nieformalna metoda księgowania kosztów polega na rozdzielaniu (księgowaniu) kosztu, a
następnie szacowania sumarycznej złożoności poprzez sumowanie wszystkich zaksięgowanych kosztów. Operacje
pożyczają, w pewnym sensie, fundusze na pokrycie kosztów z różnych źródeł. Metoda ta będzie wykorzystana
do analizy algorytmu dla interesującego problemu Find-Union. \myskip Typowym przykładem liczenia kosztu w
sposób zamortyzowany jest analiza generacji reprezentacji binarnych kolejnych liczb naturalnych od 0 do <math>2^n-1</math>,
dodając jedynkę. W jednym kroku zastępujemy najdłuższy ciąg jedynek od końca zerami, następnie wstawiamy
jedną jedynkę. Ponieważ w sumie wstawiliśmy <math>2^n-1</math> jedynek w ciągu <math>2^n-1</math> operacji, to zamortyzowana
liczba operacji zamiany zera na jedynkę wynosi 1. W tym przykładzie możemy powiedzieć, że analizowaliśmy
koszt tzw. metoda ''magazynu''. W każdej operacji koszt jest proporcjonalny do liczby przedmiotów włożonych
do magazynu lub do liczby przedmiotów wyjętych z magazynu. Magazyn początkowo jest pusty. Wtedy całkowity
koszt jest proporcjonalny do liczby przedmiotów włożonych. W przypadku generowania liczb binarnych do magazynu
wkładamy nowe jedynki, a wyjmujemy te jedynki, które zamieniamy na zera.
\subsection*{Potencjał - Fundusz Ubezpieczeń Kosztów Algorytmicznych}
 
Metodę magazynu można uogólnić na tzw. metodę potencjału. Niech <math>\Phi_i</math> będzie pewną liczbą naturalną
(włączając zero) odpowiadającą potencjałowi po wykonaniu <math>i</math> operacji. Zakładamy, że potencjał jest
początkowo zero, nigdy nie jest ujemny, a każda operacja <math>op_i</math> ma koszt proporcjonalny do
<math>c_i+|\Phi_i-\Phi_{i-1}|</math>. Wtedy całkowity koszt jest tego samego rzędu co <math> \sum c_i</math>. W naszych poprzednich
przykładach rozmiar magazynu jest w tym sensie potencjałem.
 
 
 
Można powiedzieć obrazowo że potencjał jest kapitałem Funduszu Ubezpieczeń Kosztów Algorytmicznych (FUKA,
w skrócie). Koszt zamortyzowany jednej operacji jest składką, którą ta operacja wpłaca do funduszu. Dzięki
temu, że wiele operacji pobiera z funduszu znacznie mniej niż wpłaca niektóre operacje mogą jednorazowo
pobrać dużą kwotę, którą płacą za koszt wykonania. Operacje <math>op_i</math> ubezpieczają się od kosztów ich
wykonani. Poszczególne operacje płacą drobne składki <math>c_i</math>, a swój koszt za każdym razem opłacają
biorąc pieniądze z FUKA. Czasami koszt operacji jest duży ale do tego czasu wpłacono tyle drobnych składek,
że możemy ten koszt pokryć. Istotne jest jedynie żeby FUKA nie zbankrutował i kapitał nie zszedł poniżej
zera. Możliwa jest również sytuacja gdy FUKA startuje z kapitałem początkowym. Wtedy kapitał ten wlicza
się do całkowitego kosztu algorytmu, który się dodajemy do sumy składek.
<!--%------------------------------
--> \myskip Rozważmy  przykłady
ilustrujące wykorzystanie potencjału.
<!--%-------------------------------------------------------
-->\paragraph'''Tablica dynamiczna.'''\ Przypuśćmy, że mamy dynamiczną
tablicę. W każdym momencie wiemy ile elementów w tablicy jest aktywnych, elementy nieaktywne zaznaczamy. W
każdej operacji, jeśli liczba elementów nieaktywnych jest mniejsza od 1/4 wielkości tablicy to tworzymy
tablicę dwa razy mniejszą i tam przepisujemy elementy aktywne, starą tablicę zwalniamy. W przeciwnym wypadku
jeśli chcemy dodać element, który spowoduje przepełnienie tablicy to całą tablicę kopiujemy do tablicy dwa
razy większej. Początkowo tablica ma rozmiar 1. Zakładamy, że operacją dominującą jest kopiowanie
aktywnego elementu do nowej tablicy. Jeśli mamy <math>n</math> operacji to całkowity koszt kopiowania jest liniowy.
Wystarczy w każdej operacji dać składkę 4 jednostek do funduszu ubezpieczeń (potencjału).  Wtedy koszt
jednej dużej operacji przepisywania  zamortyzuje się zmianą potencjału.
<!--%-------------------------------------------------------
-->\paragraph'''Zastąpienie kolejki dwoma stosami.'''\
Jedną kolejkę Q można zastąpić dwoma stosami <math>S1,\ S2</math>. Jeśli pierwszy element stosu lub kolejki w
reprezentacji poziomej jest w ciągu na pierwszej pozycji, oraz <math>Q = (e_1,e_2,..,e_k)</math> to dla pewnego <math>j</math> mamy:
 
<math>S1 = (e_j,e_{j-1},...,e_1),\ S2 = (e_{j+1},e_{j+2}, ...,e_k)</math>.
 
\noindent Operacja wstawiania do A odpowiada wstawieniu elementu do <math>S1</math>, operacja pobrania z Q odpowiada
pobraniu elementu z S2, z tym, że jeśli <math>S2</math> jest pusty to przepisujemy najpierw wszystkie elementy z S1 do S2.
Niech operacją dominującą będzie jedna operacja stosowa (wstawienie lub pobranie pojedynczego elementu ze
stosu). Wtedy ciąg <math>n</math> operacji kolejkowych, sterujących od pustej kolejki, ma koszt liniowy w tej
implementacji. Wystarczy, że każda operacja da do FUKA składkę 3 jednostek. Dowód tego pozostawiamy jako
ćwiczenie.

Wersja z 15:28, 14 lip 2006

Moduł 1.\ Wstęp: poprawność i złożoność algorytmów.} \myskip Podstawowym elementem przy rozwiązywaniu zadanego problemu na komputerze jest dobór algorytmu i struktury danych. Najważniejszymi aspektami algorytmu są jego poprawność i złożoność.

Będziemy zasadniczo rozpatrywać tylko złożoność czasową i
pamięciową.


W przypadku złożoności czasowej z reguły wyróżnimy pewną operację dominującą i czas
będziemy traktować jako liczbę wykonanych operacji dominujących. W ten sposób nasza analiza będzie
 zależna jedynie od algorytmu a nie od implementacji i sprzętu.
 W przypadku sortowania przeważnie operacją dominującą jest porównanie dwóch elementów
 (mniejsze, równe, mniejsze), a w przypadku przeglądania drzewa jedno przejście w drzewie między
 wierzchołkami. W przypadku algorytmów tekstowych operacją dominującą jest porównanie dwóch symboli.
Z reguły

będziemy przyjmować, że każda operacja arytmetyczna na małych liczbach daje się zrobić w jednym kroku. Przez małe rozumiemy liczby mające O(logn) bitów.

 Z reguły określamy pewien parametr n, będący rozmiarem problemu wejściowego i
określamy złożoność jako funkcję T(n), której arguementem jest rozmiar problemu.
Przeważnie rozważamy złożoność pesymistyczną -maksymalną złożoność dla danych tego samego rozmiaru
n.
W praktyce ważniejszą może się okazać złożoność średnią, lub oczekiwaną, w tym przypadku T(n) jest średnią (oczekiwaną) wartością
złożoności dla wszystkich problemów rozmiaru n. Tego typu złożoność zależy  istotnie od tego, jaka się od tym kryje
przestrzeń probablistyczna problemów. Z reguły zakładamy, że wszystkie problemy wejściowe tego
samego rozmiaru mogą się pojawić z tym samym prawodopodobieństwem. Jednakże jest to często mało
realistyczne założenie. Przestrzeń probabilistyczna danych wejściowych może być bardzo skomplikowana,
prowadzić to może do bardzo trudnych (i wykraczających poza ten kurs) analiz.
\myskip Przykład.\
Przypuśćmy, że chcemy znaleźć pierwszą jedynkę w tablicy zerojedynkowej i nasz algorytm przegląda
tablicę od strony lewej sprawdzając kolejne elementy. Niech operacją dominującą będzie
sprawdzenie jednego elementu. Jeśli nie ma jedynki, to wykonamy n sprawdzeń, jest to maksymalna
liczba, zatem złożoność pesymistyczna wynosi T(n)=n. Jeśli każdy ciąg binarny jest dany z tym samym
prawdopodobieństwem to łatwo policzyć, że złożoność średnia jest ograniczona przez stałą.

\myskip

Do wyrażania złożoności stosujemy opis asymptotycznego wzrostu funkcji:
 f(n) = O(g(n))  oznacza

że f(n)cg(n) dla pewnej stałej n. \\ Gdy g(n)=n to mówimy, że f(n) jest liniowa, oraz dla g(n)=n2 mówimy, że złożoność f(n) jest kwadratowa. Jeśli g(n) jest wielomianem to wtedy mówimy o złożoności wielomianowej. Będziemy używać dodatkowych notacji

f(n)=Θ(g(n)), f(n)=Ω(n). \myskip Były one wprowadzone na wykładach z matematyki dyskretnej.

Dla przypomnienia:

<math>f(n)=Ω(g(n), gdy dla nieskończenie wielu n i pewnej stąlej c>0 zachodzi\ f(n)cg(n). \myskip Przykład. \\

1100n22n=Θ(n2).\
n5+2n=Θ(2n),n!=Ω(10n),\\
Jeśli f(n)=(1+(1)n)n, to f(n)=Ω(n), f(n)=O(n) ale nie zachodzi f(n)=Θ(n).

\paragraph{Konwencje językowe.} Jaki jest najlepszy język do opisu algorytmu ? Jest to przykład problemu nierozstrzygalnego. Niewątpliwie język ojczysty jest najlepszym językiem potocznym , a ulubiony język programowania jest najlepszym językiem do implementacji algorytmu. Język, którym będziemy opisywać algorytmy jest gdzieś pomiędzy tymi językami, język potoczny nie wystarcza a konkretny język programowania może spowodować to, że prosty algorytm się zrobi nieczytelny. \ Będziemy używać, o ile się da, nieformalnych konstrukcji programistycznych, a w przypadku bardzo prostych algorytm będziemy się starali pisać algorytm w języku C-podobnym. \section{Poprawność algorytmu:\ niezmienniki, własność stopu}

Przez poprawność algorytmu rozumiemy to, że

daje on takie odpowiedzi jakich oczekujemy.

Oczywiście algorytm musi być poprawny aby miało sens rozpatrywanie jego złożoność.

\subsection*{Pojęcie niezmiennika} Poprawność algorytmu sprowadza się do spełniania określonych niezmienników na różnych etapach

tego algorytmu.

Rozważmy kilka przykładów pozwalających zrozumieć znaczenie niezmiennika. \vskip 0.2cm \noindent Załóżmy, że mamy zbiór S składający się z n przedmiotów, gdzie n jest nieparzyste, niektóre z przedmiotów są czarne a niektóre białe.

Algorytm while |S|>1

\hspace*{0.5cm} {pobierz dwa przedmioty z S;
\hspace*{0.5cm}  if przedmioty są różnego koloru to wstaw z powrotem czarny  \hspace*{0.5cm}  else usuń oba przedmioty;  return kolor ostatniego przedmiotu w S;
\myskip

Zaóżmy, że mamy 1000000 czarnych przedmiotów i 1000000001 białych, jaki jest ostatni przedmiot ? Rozpatrzmy niezmiennik: parzystość liczby czarnych przedmiotów.

Ponieważ na początku mamy parzystą liczbę czarnych przedmiotów, zatem na wyjściu mamy kolor biały \myskip Rozpatrzmy modyfikację tego algorytmu:


Algorytm while |S|>1

\hspace*{0.5cm} {pobierz dwa przedmioty z S;

\hspace*{0.5cm} if co najmniej jeden jest czarny to wstaw z powrotem jeden czarny; \hspace*{0.5cm} else usuń oba przedmioty; return kolor ostatniego przedmiotu w S. \myskip Załóżmy, że mamy 10000001 czarnych przedmiotów i 1000000001 białych, jaki jest ostatni przedmiot ? Tym razem rozważmy niezmiennik: znak liczby czarnych przedmiotów. (Znak liczby jest równy 0 jeśli jest ona równa zeru, 1 jeśli jest większa od zera.) Zatem ostatnim przedmiotem jest przedmiot czarny. \subsection*{Własność stopu} \noindent Podstawowym elementem poprawności algorytmu jest to, że ma on własność stopu: dla poprawnych danych wejściowych da odpowiedź po skończonym czasie. Na przykładzie dwóch prostych algorytmów pokażemy, że sprawdzanie własności stopu może nie być czynnością trywialną.


   Algorytm Suma-Kwadratów-Cyfr;     \hspace*{0.5cm} while ($(n <>

4)and(n<> 1))

    \hspace*{0.8cm} n := suma cyfr liczby n;

\myskip

   Algorytm 6174;      \hspace*{0.5cm} wejściem jest czterocyfrowa liczba naturalna niepodzielna przez 1111
     \hspace*{0.5cm} pierwszymi cyframi mogą być zera


   \hspace*{0.5cm} while $(n<>

6174)$

    \hspace*{0.9cm} n1 := największa liczba czterocyfrowa której cyfry są permutacją cyfr liczby n;
    \hspace*{0.9cm} n2 := najmniejsza liczba czterocyfrowa której  cyfry są permutacją cyfr liczby n;
    \hspace*{0.9cm} n := n1 - n2;\
    \myskip
   Algorytm Tajemniczy;  %   \hspace*{0.5cm} n jest dodatnią liczbą naturalną;
   \hspace*{0.5cm} while $(n<>

1)$

    \hspace*{1cm}  if n parzyste n := n div 2; else n := 3*n+1;
    %
    %----------------------------------
     \myskip Pierwsze dwa algorytmy mają własność stopu, w pierwszym łatwo to

sprawdzić gdyż dla n>100 następna wartość jest istotnie mniejsza. Podobnie jest w drugim algorytmie. Algorytm Tajemniczy jest dosyć zagadkowy, nie wiadomo, czy dla dowolnego naturalnego dodatniego n ma on własność stopu.

\section{Złożoność algorytmów:\ analiza sześciu prostych algorytmów} Na przykładzie sześciu prostych algorytmów pokażemy, jak się analizuje i osiąga złożoność liniową. Dokładniejsze uzasadnienia i analizy odsyłamy do ćwiczeń. Naiwne wersje tych algorytmów działają w czasie kwadratowym. \paragraph{Przywódca ciągu.}\ Przywódcą ciągu jest element, który występuje w ciągu więcej razy niż połowa długości tego ciągu. Naszym problemem jest policzenie przywódcy ciągu danego tablicą A[1..n]. Dla uproszczenia przyjmijmy, że w tym ciągu jest przywódca. łatwo można zmodyfikować algorytm by sprawdzał istnienie przywódcy. \myskip

   \hspace*{.5cm}
   Algorytm Liczenie-Przywódcy;
   \begin{verbatim}
   j:=0; ile:=1;
   for i:=1 to n do
      if (ile:=0) {ile:=ile+1; j:=i};
      else if (A[i]=A[j]) ile:=ile+1; else ile:=ile-1;
   return A[j];

\end{verbatim} \myskip

Przyspieszenie wynika z następującej własności problemu:

\ jeśli mamy dwa różne elementy w tablicy to możemy je usunąć i przywódca pozostanie taki sam. \myskip \paragraphSzukanie sumy.\ Mamy dane dwie posortowane rosnąco tablice A,B i liczbę x, pytamy czy są aA, bB takie, że\ x=a+b. \myskip

       \hspace*{1.5cm} Algorytm Szukanie-Sumy;

\begin{verbatim}

        i := 1; j := n;
        while (i <= n and j > 0)
           if (A[i]+B[j]=x) return true; else
            if (A[i]+B[j]<x) i:=i+1; else j:=j-1;
        return false;

\end{verbatim} \myskip Przyspieszenie jest możliwe dzięki odpowiedniej kolejności sprawdzania i,j i pominięciu zbędnych sprawdzeń. \paragraph{Maksymalny segment.}\ Dla tablicy A[1..n] liczymy maksymalną wartość z zera i ze wszystkich liczb k=ij A[k], gdzie 1ijn.

\myskip
       \hspace*{1.5cm} Algorytm Maksymalny-Segment;
       \begin{verbatim}
        wynik := 0; sufiks := 0;
        for i := 1 to n do
           sufiks := max(A[i]+sufiks,0);
           wynik := max(wynik,sufiks);

\end{verbatim} \myskip Przyspieszenie do algorytmu liniowego następuje dzięki wprowadzeniu dodatkowej zmiennej sufiks. Po każdym zakończeniu pętli for zachodzi: \ wynik jest maksymalną sumą przedziału zawierającego się w [1..i] oraz sufiks jest maksymalną sumą segmentu który jest sufiksem przedziału [1..i]. \paragraphNajbliższy mniejszy sąsiad.\ Dla każdego i>1 zdefiniujmy najbliższego mniejszego są siada i jako: \ {Lewy[i]\ =\ \max \{j<i\ :\ A[j]<A[i]$.}

\noindent Dla uproszczenia zakładamy, że  A[i]>0 dla i>0 oraz A[0]=0.  \myskip
        \hspace*{1.5cm} Algorytm Najbliższy-Mniejszy-Sąsiad;
        \begin{verbatim}
        for i := 1 to n do
           j := i-1;
           while ( A[j] >= A[i]) j := Lewy[j];
           Lewy[i] := j;

\end{verbatim} \myskip Przyspieszenie następuje dzięki temu, że nie ma potrzeby sprawdzania tablicy dla indeksów istotnie pomiędzy i1 i Lewy[i1] itd. Niech ki będzie liczbą tych j dla których A[j]>=A[i]. Wystarczy pokazać, że suma wszystkich ki jest liniowa. Może się zdarzyć, że niektóre ki mają wartość liniową. Zauważmy jednak, że dany indeks j pojawia się co najwyżej raz w sytuacji gdy A[j]>=A[i], potem będzie przeskoczony. \paragraphNajdłuższy malejący podciąg.\

Niech A[1],A[2],A[n] będzie ciągiem dodatnich liczb. Następujący algorytm oblicza

długość najdłuższego malejącego podciągu. \myskip

        \hspace{1.5cm}
        Algorytm Najdłuższy-Malejący;
        \begin{verbatim}
        wynik := 1;
        for i := 1 to n do
            x := A[i]; A[i]:=0;
            k := min { j : x  > A[j]}; A[k] := x ;
            wynik := max(k, wynik);

\end{verbatim} \paragraph{Liczba inwersji.}\ Mamy dane dwie posortowane rosnąco tablice A[1..n],B[1..n], mamy policzyć liczbę par i,j takich, że A[i]>B[j]

\myskip
       \hspace*{1.5cm} Algorytm Liczba-Inwersji;
       \begin{verbatim}
        wynik := 0; j := 0;
        for i := 1 to n do
           while (j<n and A[i]>B[j+1]) j := j+1;
           wynik := wynik + j;

\end{verbatim} \myskip \noindent Naiwne wersje powyższych sześciu algorytmów działają w czasie kwadratowym. W każdym z tych algorytmów bardzo proste spostrzeżenia prowadzą do algorytmów liniowych. \section{Koszt zamortyzowany} Jeśli mamy ciąg operacji op1,op2,,opn to koszt zamortyzowany jednej z nich jest sumarycznym kosztem wykonania wszystkich operacji podzielonym przez liczbę operacji, inaczej mówiąc jest to, dla danego ciągu operacji, średni koszt jednej z nich. Zauważmy, że nie mówmy tu nic o prawdopodobieństwie, model jest deterministyczny.


\noindent Na przykład w algorytmie Najbliższy-Mniejszy-Sąsiad rozważmy ciąg operacji \vskip 0.4cm \centerline{opi: while (A[j]>=A[i]) j=Lewy[j]} \vskip 0.1cm \noindent Koszt pojedynczej operacji może być liniowy, również sumaryczny koszt ciągu tych operacji op1,op2,,opn jest liniowy. Zatem pesymistyczny koszt jednej operacji jest tutaj liniowy, natomiast zamortyzowany koszt jednej operacji jest ograniczony przez stałą. W tym przypadku wiemy, że każde sprawdzenie A[j]>=A[i]) z wynikiem negatywnym odbywa się tylko raz dla danej wartości j. Możemy powiedzieć, że księgujemy koszt operacji elementom j o tej własności. Nieformalna metoda księgowania kosztów polega na rozdzielaniu (księgowaniu) kosztu, a następnie szacowania sumarycznej złożoności poprzez sumowanie wszystkich zaksięgowanych kosztów. Operacje pożyczają, w pewnym sensie, fundusze na pokrycie kosztów z różnych źródeł. Metoda ta będzie wykorzystana do analizy algorytmu dla interesującego problemu Find-Union. \myskip Typowym przykładem liczenia kosztu w sposób zamortyzowany jest analiza generacji reprezentacji binarnych kolejnych liczb naturalnych od 0 do 2n1, dodając jedynkę. W jednym kroku zastępujemy najdłuższy ciąg jedynek od końca zerami, następnie wstawiamy jedną jedynkę. Ponieważ w sumie wstawiliśmy 2n1 jedynek w ciągu 2n1 operacji, to zamortyzowana liczba operacji zamiany zera na jedynkę wynosi 1. W tym przykładzie możemy powiedzieć, że analizowaliśmy koszt tzw. metoda magazynu. W każdej operacji koszt jest proporcjonalny do liczby przedmiotów włożonych do magazynu lub do liczby przedmiotów wyjętych z magazynu. Magazyn początkowo jest pusty. Wtedy całkowity koszt jest proporcjonalny do liczby przedmiotów włożonych. W przypadku generowania liczb binarnych do magazynu wkładamy nowe jedynki, a wyjmujemy te jedynki, które zamieniamy na zera. \subsection*{Potencjał - Fundusz Ubezpieczeń Kosztów Algorytmicznych}

Metodę magazynu można uogólnić na tzw. metodę potencjału. Niech Φi będzie pewną liczbą naturalną (włączając zero) odpowiadającą potencjałowi po wykonaniu i operacji. Zakładamy, że potencjał jest początkowo zero, nigdy nie jest ujemny, a każda operacja opi ma koszt proporcjonalny do ci+|ΦiΦi1|. Wtedy całkowity koszt jest tego samego rzędu co ci. W naszych poprzednich przykładach rozmiar magazynu jest w tym sensie potencjałem.


Można powiedzieć obrazowo że potencjał jest kapitałem Funduszu Ubezpieczeń Kosztów Algorytmicznych (FUKA, w skrócie). Koszt zamortyzowany jednej operacji jest składką, którą ta operacja wpłaca do funduszu. Dzięki temu, że wiele operacji pobiera z funduszu znacznie mniej niż wpłaca niektóre operacje mogą jednorazowo pobrać dużą kwotę, którą płacą za koszt wykonania. Operacje opi ubezpieczają się od kosztów ich wykonani. Poszczególne operacje płacą drobne składki ci, a swój koszt za każdym razem opłacają biorąc pieniądze z FUKA. Czasami koszt operacji jest duży ale do tego czasu wpłacono tyle drobnych składek, że możemy ten koszt pokryć. Istotne jest jedynie żeby FUKA nie zbankrutował i kapitał nie zszedł poniżej zera. Możliwa jest również sytuacja gdy FUKA startuje z kapitałem początkowym. Wtedy kapitał ten wlicza się do całkowitego kosztu algorytmu, który się dodajemy do sumy składek.

\myskip Rozważmy  przykłady

ilustrujące wykorzystanie potencjału. \paragraphTablica dynamiczna.\ Przypuśćmy, że mamy dynamiczną tablicę. W każdym momencie wiemy ile elementów w tablicy jest aktywnych, elementy nieaktywne zaznaczamy. W każdej operacji, jeśli liczba elementów nieaktywnych jest mniejsza od 1/4 wielkości tablicy to tworzymy tablicę dwa razy mniejszą i tam przepisujemy elementy aktywne, starą tablicę zwalniamy. W przeciwnym wypadku jeśli chcemy dodać element, który spowoduje przepełnienie tablicy to całą tablicę kopiujemy do tablicy dwa razy większej. Początkowo tablica ma rozmiar 1. Zakładamy, że operacją dominującą jest kopiowanie aktywnego elementu do nowej tablicy. Jeśli mamy n operacji to całkowity koszt kopiowania jest liniowy. Wystarczy w każdej operacji dać składkę 4 jednostek do funduszu ubezpieczeń (potencjału). Wtedy koszt jednej dużej operacji przepisywania zamortyzuje się zmianą potencjału. \paragraphZastąpienie kolejki dwoma stosami.\ Jedną kolejkę Q można zastąpić dwoma stosami S1, S2. Jeśli pierwszy element stosu lub kolejki w reprezentacji poziomej jest w ciągu na pierwszej pozycji, oraz Q=(e1,e2,..,ek) to dla pewnego j mamy:

S1=(ej,ej1,...,e1), S2=(ej+1,ej+2,...,ek).

\noindent Operacja wstawiania do A odpowiada wstawieniu elementu do S1, operacja pobrania z Q odpowiada pobraniu elementu z S2, z tym, że jeśli S2 jest pusty to przepisujemy najpierw wszystkie elementy z S1 do S2. Niech operacją dominującą będzie jedna operacja stosowa (wstawienie lub pobranie pojedynczego elementu ze stosu). Wtedy ciąg n operacji kolejkowych, sterujących od pustej kolejki, ma koszt liniowy w tej implementacji. Wystarczy, że każda operacja da do FUKA składkę 3 jednostek. Dowód tego pozostawiamy jako ćwiczenie.