Sztuczna inteligencja/SI Moduł 11 - Zadanie i metody regresji
Metody regresji
W rozdziale tym zajmiemy się nieco dokładniej regresyjnym modelem aproksymacji, w którym aproksymowana funkcja ma postać
, (1)
W nieco ogólniejszym sformułowaniu, o regresji mówi się również wówczas gdy poszukuje się aproksymacji odwzorowania ,. Jeśli jednak nie zaznaczono inaczej, zakłada się postać funkcji (1).
Kwadratowa funkcja błędu
Załóżmy, że zbiór , tworzą funkcje ,, przy czym każda funkcja z , jest całkowalna z kwadratem w ,. Przyjmiemy typowe założenie, że w zbiorze , obowiązuje metryka
, (2)
czyli błąd kwadratowy. Założymy także, że próbkowy błąd aproksymacji jest błędem średniokwadratowym
, (3)
gdzie , jest liczebnością zbioru ,, będącego zbiorem próbek.
Parametryczny model regresji
Załóżmy, że funkcja aproksymująca ma postać
,, (4)
co oznacza, że przyjmuje ona , argumentów. Te dodatkowe , argumentów (dodatkowe w porównaniu z , argumentami funkcji z ,) stanowi zbiór parametrów funkcji aproksymującej, a sama funkcja , definiuje całą rodzinę funkcji ,, przy czym każda funkcja , jest wyznaczona przez zbiór , wartości parametrów. W ten sposób, zadanie poszukiwania takiej funkcji ,, dla której błąd aproksymacji jest najmniejszy, da się sprowadzić do zadania poszukiwania ,-elementowego wektora wartości parametrów. Innymi słowy, zadanie regresji parametrycznej jest zadaniem przeszukiwania przestrzeni , w celu znalezienia punktu, dla którego funkcja błędu przyjmuje minimum - punkt ten jest wektorem wartości parametrów funkcji ,.
Funkcja reszt i gradient funkcji błędu
Powstaje pytanie - czy można podać warunki, które powinien spełniać punkt - wektor parametrów modelu - dla którego błąd jest minimalny? Odpowiedź na nie jest twierdząca.
Załóżmy, że funkcja , jest różniczkowalna względem swoich parametrów. Wówczas można skorzystać z warunku koniecznego istnienia minimum funkcji w punkcie, który mówi że jeśli różniczkowalna funkcja , przyjmuje minimum w punkcie ,, to dla każdego , mamy ,. Innymi słowy, gradient funkcji , zeruje się w punkcie ,.
W celu znalezienia punktu, w którym funkcja przyjmuje swoje minimum, należy poszukiwać takich punktów, dla których gradient się zeruje, a jeden z nich będzie poszukiwanym punktem.
W przypadku modelu danego funkcją ,, interesować nas będzie gradient funkcji błędu (której minimum poszukujemy) względem wartości , parametrów. Oznaczmy wektor parametrów przez , i wektor argumentów przez ,, zatem funkcja aproksymująca jest oznaczana jako ,. Dla wygody wprowadźmy także funkcję reszt ,, która jest dana wzorem ,. Błąd średniokwadratowy dla zbioru , wynosi
, (5)
Zauważmy, że błąd ten jest funkcją wartości parametrów ,.
Gradient próbkowego błędu średniokwadratowego względem parametrów wynosi
, (6)
co, gdy uwzględnimy postać ,, prowadzi do
, (7)
Reguła delta
Reguła delta jest przykładem wykorzystania warunku koniecznego istnienia minimum funkcji w punkcie, do skonstruowania prostego algorytmu poszukiwania. Zasada metody jest następująca - należy wybrać pewien początkowy wektor parametrów, obliczyć gradient funkcji błędu względem tego wektora i jeśli gradient nie jest zerowy, należy zmodyfikować wartości parametrów dodając do nich wartości wyprowadzone z gradientu. Po wykonaniu modyfikacji, powyższe czynności (począwszy od obliczania gradientu) należy powtarzać aż do osiągnięcia zerowego gradientu.
Tytułowa „delta” w nazwie reguły jest wyrażeniem
, (8)
i jak łatwo się przekonać, wzór na gradient błędu próbkowego można przepisać jako
, (9)
Algorytm uczenia z nauczycielem, wykorzystujący regułę delta, jest podany poniżej. W algorytmie tym , oznacza zbiór trenujący, , oznacza normę wektora (typowo jest to norma euklidesowa), zaś , i , są parametrami liczbowymi określanym przez użytkownika, o wartościach dodatnich.
- Wybierz wektor parametrów ,, ,.
- Oblicz ,.
- Jeżeli , lub zakończ działanie, w przeciwnym przypadku przejdź do 4.
- Zmodyfikuj wektor parametrów ,
- Zwiększ indeks iteracji , i przejdź do 2
Uczenie polega na modyfikacjach wektora parametrów. Informacja przekazywana przez nauczyciela (który dostarcza zbioru trenującego) jest wykorzystywana do obliczenia wektora poprawek ,, a faza uczenia jest związana z wykonaniem kroku 4, będącego modyfikacją wektora parametrów o wektor poprawek.
Można udowodnić, że jeśli współczynnik uczenia , dąży do zera, to algorytm reguły delta jest zbieżny do punktu, którego odległość od jednego z minimów funkcji błędu dąży do zera. Potocznie mówiąc, algorytm reguły delta jest zbieżny do jednego z minimów lokalnych funkcji błędu. Jeśli minimów takich jest wiele i jeśli algorytm reguły delta jest wielokrotnie uruchamiany z różnym startowym zestawem parametrów ,, to należy liczyć się z tym, że za każdym razem może być osiągane inne minimum lokalne. Przy tym warto zauważyć, że dla konkretnego startowego zestawu parametrów będzie to zawsze to samo minimum lokalne.
Model liniowy i modele „składane”
Szczególne miejsce wśród modeli regresji zajmują modele liniowe, które mają formę równania liniowego
, (10)
gdzie , jest wektorem parametrów. Regresja liniowa jest omawiana zazwyczaj w czasie kursu statystyki, wspomnimy więc tylko w tym miejscu, że swoją szczególną popularność model liniowy zawdzięcza między innymi temu, że funkcja błędu ma dokładnie jedno minimum. Wystarczy więc wyznaczyć jeden zbiór wartości parametrów, dla którego gradient funkcji błędu się zeruje i tym samym mieć gwarancję znalezienia tego minimum. Przy tym metoda reguły delta nie jest najbardziej efektywna w przypadku modelu liniowego, zamiast niej stosuje się raczej metodę najmniejszych kwadratów.
Prostota modelu liniowego, stanowiąca jego niewątpliwą zaletę, nie pozwala jednak na aproksymację funkcji nieliniowych z dowolnie małym błędem. Model liniowy był jednak inspiracją do powstania całej grupy modeli nieliniowych, które nazwiemy modelami „składanymi”, gdyż każdy z nich jest liniową kombinacją funkcji nieliniowych. Dokładniej mówiąc, modele składane mają postać
, (11)
gdzie , jest macierzą ,-elementową, , jej ,-tym wektorem wierszowym, zaś , oznacza pewną funkcję, zwaną funkcją bazową.
W zależności od przyjętej klasy funkcji bazowych, mówi się o różnych rodzajach modeli „składanych” Poniżej wymienimy tylko niektóre z nich.
W perceptronie dwuwarstwowym funkcja , jest dana wzorem
, (12)
gdzie , jest funkcją sigmoidalną - monotonicznie rosnącą, przyjmującą asymptoty skończone w minus i plus nieskończoności. Przykładami takiej funkcji mogą być funkcje , (asymptoty , oraz ,) oraz , (asymptoty , oraz ,). Szerszy opis perceptronu jest podany w rozdziale 12.
W modelu RBF (ang. Radial Basis Functions - funkcje bazowe o symetrii radialnej) i w modelu falkowym (ang. wavelet) funkcja , jest dana wzorem
, (13)
Modele te różnią się wzorem funkcji ,. W modelu RBF <ref name="rbf">Więcej na temat modelu RBF można znaleźć w http://pl.wikipedia.org/wiki/Sieci_radialne.</ref> przyjmuje się, że , jest funkcją monotonicznie malejącą do zera na dodatniej półosi, np. funkcją Gaussa <ref name="gauss">http://pl.wikipedia.org/wiki/Rozkład_normalny</ref>. Z kolei model falkowy <ref name="falki">Więcej na temat modeli falkowych można przeczytać w http://pl.wikipedia.org/wiki/Falki.</ref> jako funkcję , przyjmuje falkę, czyli funkcję, która nie jest monotoniczna, natomiast da się ograniczyć na dodatniej półosi od góry funkcją monotocznie malejącą do zera, a od dołu funkcją monotonicznie rosnącą do zera.
Właściwość uniwersalnej aproksymacji
Powodem, dla którego interesujemy się modelami „składanymi”, jest to, że mają one właściwość uniwersalnej aproksymacji.
Definicja Właściwość uniwersalnej aproksymacji
Innymi słowy, właściwość uniwersalnej aproksymacji zbioru , oznacza, że znajduje się w nim funkcja dowolnie „bliska” funkcji aproksymowanej.
Zauważmy, że nie sposób wykorzystać powyższej właściwości do konstrukcji aproksymatora. Istotnie, wprawdzie wszystkie z wymienionych powyżej modeli „składanych” mają właściwość uniwersalnej aproksymacji, lecz warunkiem jest to, żeby liczba funkcji składowych (a zatem rozmiar macierzy ,) była dowolnie duża. Nie jest to bardzo praktyczne rozwiązanie, zarówno ze względu na możliwość przetwarzania, jak i co ważniejsze, ze względu na niebezpieczeństwo przeuczenia rosnące wraz z rozmiarem macierzy ,. Nieco bardziej praktyczne wyniki niesie wymiar Wapnika-Czerwonenkisa, który, mówiąc w dużym uproszczeniu, jest wartością określającą liczbę stopni swobody modelu w zależności od liczby dostępnych danych uczących, tak aby rodzina funkcji , była dostatecznie bogata aby osiągnąć mały błąd aproksymacji i jednocześnie zredukować niebezpieczeństwo przeuczenia.
Przykład zastosowania - metody regresji w prognozowaniu szeregów czasowych
Szczególne miejsce z punktu widzenia częstości zastosowań metod regresji zajmują szeregi czasowe. Szeregiem czasowym jest ciąg liczb , wygenerowanych jako wartości zmiennych losowych ,. Zmienne losowe , stanowią ciąg zwany procesem stochastycznym. Nie wnikając w złożoną i ciekawą teorię procesów stochastycznych i szeregów czasowych, przyjmiemy, że między kolejnymi wartościami , istnieją pewne współzależności, a także że charakter tych współzależności nie zmienia się wraz z , (tzn. szereg czasowy jest stacjonarny).
Modelując stacjonarny szereg czasowy zakłada się często, że istnieje pewna funkcja ,, która pozwala na opisanie szeregu czasowego przez równanie
, (14)
gdzie , oznacza wartość zmiennej losowej o zerowej wartości oczekiwanej (typowo jest to zmienna losowa o rozkładzie normalnym). Tak więc przeszłe obserwacje szeregu pozwalają na określenie wartości oczekiwanej zmiennej losowej opisującej wartość przyszłą - innymi słowy, na podstawie przeszłych wartość można przewidzieć przyszłość z błędem opisanym przez rozkład ,.
Poczyniwszy takie założenie, można zadanie prognozowania wartości przyszłych szeregu czasowego przedstawić jako zadanie regresji, w którym aproksymowana jest funkcja , opisująca wartość oczekiwaną rozkładu przyszłych wartości. Oznacza to, że jeśli dysponujemy zapiskami historii szeregu czasowego z chwil ,, to jest to równoznaczne z posiadaniem , obserwacji argumentów i wartości funkcji ,, którymi są pary:
,
Chcąc wykonać modelowanie szeregu czasowego, z tego zbioru obserwacji należy wydzielić zbiór trenujący i testowy. Warto zauważyć, że po przygotowaniu zbioru trenującego i testowego można proces modelowania prowadzić tak, jak w przypadku dowolnego zadania regresji, gdyż nie ma potrzeby brania pod uwagę faktu, że obserwacje zostały utworzone na podstawie szeregu czasowego.
Szereg czasowy (14) jest nazywany szeregiem autoregresyjnym (i oznaczany AR, z ang. AutoRegressive), gdyż zakłada się w jego modelu, że przyszłe wartości szeregu zależą tylko od jego przeszłości i nie mają na niego wpływu inne czynniki, w szczególności inne szeregi czasowe. Tak nie musi być. Typowym przykładem jest szereg czasowy opisujący zmiany zapotrzebowania na energię elektryczną w wielkim mieście, gdzie na typowe zachowania odbiorców energii (takich jak wieczorne zwiększenie poboru mocy przez gospodarstwa domowe) związane z trybem życia, nakładają się zależności od temperatury zewnętrznej. Pomiary temperatury zewnętrznej można również traktować jako szereg czasowy, którego jednak nie musimy modelować (chyba że chcielibyśmy w ten sposób uzyskać narzędzie prognozowania temperatury), lecz tylko uwzględniać wpływ jego przeszłych obserwacji na szereg zapotrzebowania na energię. Dostajemy wówczas model autoregresyjno-regresyjny (oznaczany ARX, z ang. AutoRegressive with auXiliary input)
, (15)
w którym funkcja , jest odwzorowaniem ,. Obserwacje będą miały postać par
,
Pozostałe uwagi dotyczące procesu modelowania są identyczne z poczynionymi dla szeregu autoregresyjnego. Warto również zauważyć, że w sposób naturalny można w modelu ARX uwzględniać więcej niż jeden dodatkowy szereg czasowy, w sposób analogiczny do tego, jak uwzględniono szereg ,.
Przykład Rozważmy szereg czasowy
202, 186, 146, 138, 172, 274, 310, 434, 442, 370, 197, 259, 283, 343, 349, 383, 412, 411, 427, 378, 327, 276, 196, 166, 171, 137, 156, 185, 155, 431, 533, 815, 792, 674, 401, 429, 534, 649, 635, 671, 748, 704, 765, 671, 552, 430, 341, 262, 311, 313, 316, 333
Załóżmy, że szeregu czasowy będzie modelowany za pomocą funkcji ,. Oznacza to, że zbiór obserwacji wartości szeregu jest w istocie zbiorem następujących par
([202,186,146],138), ([186,146,138],172), ([146,138,172],274), ([138,172,274],310), ([172,274,310],434), ([274,310,434],442), ([310,434,442],370), ([434,442,370],197), ([442,370,197],259), ([370,197,259],283), ([197,259,283],343), ([259,283,343],349), ([283,343,349],383), ([343,349,383],412), ([349,383,412],411), ([383,412,411],427), ([412,411,427],378), ([411,427,378],327), ([427,378,327],276), ([378,327,276],196), ([327,276,196],166), ([276,196,166],171), ([196,166,171],137), ([166,171,137],156),
([171,137,156],185), ([137,156,185],155), ([156,185,155],431), ([185,155,431],533), ([155,431,533],815), ([431,533,815],792), ([533,815,792],674), ([815,792,674],401), ([792,674,401],429), ([674,401,429],534), ([401,429,534],649), ([429,534,649],635), ([534,649,635],671), ([649,635,671],748), ([635,671,748],704), ([671,748,704],765), ([748,704,765],671), ([704,765,671],552), ([765,671,552],430), ([671,552,430],341), ([552,430,341],262), ([430,341,262],311), ([341,262,311],313), ([262,311,313],316), ([311,313,316],333)
Załóżmy, że pary oznaczone kolorem czerwonym są elementami zbioru trenującego, a zaznaczone kolorem zielonym - zbioru testowego.
Wykonajmy modelowanie szeregu za pomocą modelu liniowego. Model ten ma cztery parametry. W celu określenia ich wartości skorzystamy z reguły delta. Początkowe wartości przyjmijmy jako ,. Gradient funkcji błędu jest w modelu liniowym łatwy do obliczenia, gdyż , oraz , dla ,. W przypadku naszego przykładu gradient wynosi wynosi ,. Przyjmując współczynnik uczenia , otrzymamy nowe wartości parametrów , i zaobserwujemy zmniejszenie wartości błędu średniokwadratowego. (warto tu zwrócić uwagę, że zbyt duży współczynnik uczenia, np. ,, będzie prowadzić do zwiększenia wartości błędu). Postępując tak dalej, otrzymamy w końcu model, którego wartości parametrów prowadzą do minimalnego błędu średniokwadratowego na zbiorze trenującym. Znalezienie tego modelu oraz obliczenie wartości błędu próbkowego na zbiorze testowym pozostawiamy Czytelnikowi jako zadanie do samodzielnego wykonania.
<references/>