MO Moduł 4

Z Studia Informatyczne
Przejdź do nawigacjiPrzejdź do wyszukiwania
MO M4 Slajd1.png

MO M4 Slajd2.png

MO M4 Slajd3.png

MO M4 Slajd4.png

MO M4 Slajd5.png

MO M4 Slajd6.png

MO M4 Slajd7.png

MO M4 Slajd8.png

MO M4 Slajd9.png
Z rozważań geometrycznych wiadomo, że iloczyn skalarny dwu wektorów jest ujemny wtedy gdy kąt miedzy nimi jest rozwarty. Tak też jest na rysunku dla wybranego wektora .

MO M4 Slajd10.png

MO M4 Slajd11.png

MO M4 Slajd12.png

MO M4 Slajd13.png

MO M4 Slajd14.png

MO M4 Slajd15.png

MO M4 Slajd16.png

MO M4 Slajd17.png

MO M4 Slajd18.png

MO M4 Slajd19.png

MO M4 Slajd20.png

MO M4 Slajd21.png
Uwaga: intuicyjnie wydaje się, że tezy powinny być zamienione miejscami! Konieczność sformułowania jak w lemacie wynika z faktu, że dla macierzy zerowej 0 mamy dla każdego , zatem macierz ta jest dodatnio (i ujemnie też!) półokreślona.

MO M4 Slajd22.png

MO M4 Slajd23.png

MO M4 Slajd24.png

MO M4 Slajd25.png

MO M4 Slajd26.png

MO M4 Slajd27.png

MO M4 Slajd28.png

MO M4 Slajd29.png

MO M4 Slajd30.png

MO M4 Slajd31.png

MO M4 Slajd32.png

MO M4 Slajd33.png

MO M4 Slajd34.png

MO M4 Slajd35.png

MO M4 Slajd36.png

MO M4 Slajd37.png

MO M4 Slajd38.png

MO M4 Slajd39.png

MO M4 Slajd40.png

MO M4 Slajd41.png

MO M4 Slajd42.png

MO M4 Slajd43.png

MO M4 Slajd44.png

MO M4 Slajd45.png

MO M4 Slajd46.png

MO M4 Slajd47.png
Zatem, dla funkcji dostatecznie gładkich możemy sobie poradzić z zagadnieniem punktu szóstego procedury (teraz powinno być jasne, dlaczego jest tam wstawiona uwaga „gdy wiemy, że nasze zadanie ma rozwiązanie”).

MO M4 Slajd48.png

MO M4 Slajd49.png

MO M4 Slajd50.png

MO M4 Slajd51.png

MO M4 Slajd52.png
Piękny rezultat teoretyczny, sprowadzający procedurę redukcji do układu równań wyłącznie do rachunków: liczenia pochodnych i rozwiązywania równań, czyli do takiego postępowania, które zastosowaliśmy z ochotą lecz błędnie w przykładzie. Trzeba tylko policzyć macierz Hessego by stwierdzić wypukłość funkcji celu i zastanowić się nad sposobem rozwiązania stosownych równań, ale odpadają zagadnienia związane z dowodem istnienia rozwiązania.

MO M4 Slajd53.png
Napisaliśmy, w zasadzie, ponieważ opracowano procedury automatycznego różniczkowania (nie mylić z procedurami symbolicznego różniczkowania), które przetwarzają kod wyliczający funkcję wyboru na kod wyliczający jej pochodne. Zatem wymaganie znajomości wzoru nie jest już takie kategoryczne

MO M4 Slajd54.png
Zauważmy, że jednym z plusów tej metody jest to, że idealnie nadaje się do, nazwijmy to tak, sprawdzania wiadomości i zdolności rachunkowych studentów.

MO M4 Slajd55.png

MO M4 Slajd56.png

MO M4 Slajd57.png

MO M4 Slajd58.png

MO M4 Slajd59.png

MO M4 Slajd60.png

MO M4 Slajd61.png

MO M4 Slajd62.png

MO M4 Slajd63.png

MO M4 Slajd64.png

MO M4 Slajd65.png
Widać, że otoczenie, w którym aproksymację uznalibyśmy za dobrą nie jest duże i jego kształt jest zbliżony do elipsy o osiach nierównoległych do osi współrzędnych kartezjańskich.

MO M4 Slajd66.png

MO M4 Slajd67.png

MO M4 Slajd68.png
Korzystać z aproksymacji – nie korzystać ?
Tego rodzaju dylemat jest typowy dla sytuacji, w której znajduje się twórca nowych rozwiązań konstrukcyjnych – magister, a więc mistrz – a także twórca nowych teorii naukowych. Za podejściem optymisty opowiedział się Albert Einstein, który stwierdził, że "God is subtle but he is not malicious". Co w naszym przypadku przekłada się na przeświadczenie, że nieliniowe zadania optymalizacji związane z rozwiązywaniem zagadnień praktycznych, są takie, że zręczne wykorzystanie możliwości jakie daje posługiwanie się aproksymacją (APR) pozwoli opracować skuteczne algorytmy ich rozwiązywania. Współcześni optymiści mają sławnego poprzednika – Izaaka Newtona, który wymyślił metodę stycznych rozwiązywania równań nieliniowych opartą o jeszcze prostszą aproksymację, bo ograniczoną tylko do składnika afinicznego.

MO M4 Slajd69.png

MO M4 Slajd70.png
Intuicyjnie – dodanie członu afinicznego “przesuwa” formę kwadratową nie zmieniając jej kształtu, tzn. nie zmienia jej podstawowych własności

MO M4 Slajd71.png

MO M4 Slajd72.png

MO M4 Slajd73.png

MO M4 Slajd74.png

MO M4 Slajd75.png
Wektory własne nie są wyznaczone jednoznacznie, i nie jest to przypadek. W terminologii używanej w teorii metod optymalizacji wektory własne wyznaczają tylko kierunki (proste).

MO M4 Slajd76.png

MO M4 Slajd77.png

MO M4 Slajd78.png

MO M4 Slajd79.png

MO M4 Slajd80.png

MO M4 Slajd81.png

MO M4 Slajd82.png

MO M4 Slajd83.png
Niestety, możemy narysować tylko funkcję dwu zmiennych (jak często mówimy, na płaszczyźnie). Przedstawmy zatem wykresy trójwymiarowe i poziomicowe dla pierwszych trzech przypadków, ponieważ funkcje określone ujemnie to “odwrócone w dół” funkcje określone dodatnio.

MO M4 Slajd84.png

MO M4 Slajd85.png

MO M4 Slajd86.png

MO M4 Slajd87.png

MO M4 Slajd88.png

MO M4 Slajd89.png

MO M4 Slajd90.png

MO M4 Slajd91.png

MO M4 Slajd92.png

MO M4 Slajd93.png

MO M4 Slajd94.png
Widać, ze funkcja Rosenbrocka jest dobrze dobrana jako “tor badania sprawności” dla różnych algorytmów. Tylko w centralnej części (tam gdzie nie ma minimum) jej uwarunkowanie jest mniejsze od pięciu, a w okolicy minimum jest większe od 500.