5. Metody Newtona. 5.1 Wzór Taylora

Wielkość: px
Rozpocząć pokaz od strony:

Download "5. Metody Newtona. 5.1 Wzór Taylora"

Transkrypt

1 5. Metody Newtona Na ostatnich zajęciach zidentyfikowaliśmy ważny problem poznanych dotychczas metod (Gaussa-Seidel a, Cauchy iego, spadku wzdłuż gradientu, stochastycznego spadku wzdłuż gradientu): ich zbieżność staje się znacznie wolniejsza dla problemów o wysokim współczynniku uwarunkowania. Na dzisiejszych laboratoriach poznamy metodę która dobrze radzi sobie z tego typu problemami poprzez stosowanie odpowiedniego przybliżenia funkcji funkcją kwadratową. 5.1 Wzór Taylora Rozpocznijmy od przypomnienia aparatu matematycznego, który pozwala nam na przybliżanie funkcji wielomianem w danym punkcie - mowa tu oczywiście o wzorze Taylora. Ta technika była już wcześniej przez nas stosowana, chociaż nie wprost. Na przykład intuicje, że pochodna jest liniowym przybliżeniem funkcji w okolicach pewnego punktu x 0 można zbudować na podstawie tego wzoru (zamiast naszej długiej opowieści w skrypcie do drugich laboratoriów). Jak się okaże, dotychczas poznawane przez nas algorytmy można spostrzegać jako właśnie algorytmy przybliżające sobie lokalnie optymalizowaną funkcję funkcją liniową. Rozdział ten jest niezwykle ważny, ponieważ w niedalekiej przyszłości pozwoli nam na konstrukcje algorytmów optymalizacyjnych, które przybliżają funkcję lepiej niż linią prostą! Definicja 5.1 Twierdzenie Taylora. Niech K 1 będzie liczbą całkowitą, a funkcja f będzie K razy różniczkowalna w punkcie x 0, wtedy istnieje taka funkcja h K że f = K ( (x x0 ) k ) f (k) (x 0 ) + h K (x x 0 ) K k=0 k! a lim x x0 h K = 0 (reszta dąży do 0 gdy x dąży do x 0 przybliżenie lokalne).

2 2 Laboratorium 5. Metody Newtona Jak zbudować przybliżenie funkcji korzystając z tego twierdzenia? Na początku musisz ustalić jakiś punkt x 0 wokół którego budujesz przybliżenie. Pamiętaj, że tak zbudowane przybliżenie jest dobre tylko w okolicach tego punktu, powinieneś więc wybrać takie x 0 które jest stosunkowo najbliższe xom dla których będziesz chciał przybliżyć sobie wartość funkcji. Po wybraniu tego punktu obliczmy wartość pochodnej w punkcie x 0 oraz tyle pochodnych ile tylko jesteśmy w stanie obliczyć rozbudowując nasz wzór. Im więcej ich dodamy tym nasze przybliżenie będzie lepsze. f K ( (x x0 ) k ) f (k) (x 0 ) k=0 k! = (x x 0) 0 0! f (x 0 ) + (x x 0) 1 1! f (x 0 ) + (x x 0) 2 2! = f (x 0 ) + (x x 0 ) f (x 0 ) (x x 0) (x 0 ) +... f (x 0 ) +... = f (x 0 ) +x f (x }{{} 0 ) x }{{} 0 f (x 0 ) + 1 }{{} (x 0 ) x 2 xx 0 f (x 0 ) +x }{{}}{{} 0 (x 0 ) +... }{{} stała stała stała stała stała stała Zwróć uwagę, że po ustaleniu punktu x 0 wokół którego budujemy przybliżenie oraz obliczeniu jego pochodnych otrzymujemy przybliżenie funkcji wielomianem stopnia K! Jak podejrzewasz może być to niezwykle użyteczne, bo dowolną 1 funkcję możesz w taki sposób przybliżyć wielomianem, który najczęściej jest łatwiejszy w obliczeniach (i w optymalizacji, jeśli jest niskiego rzędu!). Ustalając K = 1 otrzymujemy przybliżenie funkcji poprzez pierwszą pochodną: f 1 k=0 ( (x x0 ) k k! ) f (k) (x 0 ) = (x x 0) 0 f (x 0 )+ (x x 0) 1 f (x 0 ) = f (x 0 )+ f (x 0 )(x x 0 ) 0! 1! Jest to przybliżeniem wielomianem stopnia 1 czyli funkcją liniową. Warto zauważyć, że jest to dokładnie wzór stycznej do funkcji, który wyprowadzaliśmy na poprzednich laboratoriach! Przykład 5.1 Przybliżmy sobie funkcję f = 5x 2 +10x+5 poprzez linię prostą wokół punktu x 0 = 1. Z treści zadania wynika, że K = 1. Otrzymujemy więc z twierdzenia Taylora f f (x 0 ) + f (x 0 )(x x 0 ) = f (1) + f (1)(x 1) Obliczamy pochodną oraz wartość funkcji w punkcie x 0 = 1 f (1) = = 20 f = 10x + 10 f (1) = = 20 Podstawiając do wzoru otrzymujemy: f (x 1) = x 20 = 20x 1 St. z o.o. stwierdzenie z ograniczoną odpowiedzialnością

3 5.1 Wzór Taylora 3 Przykład 5.2 Przybliżmy sobie tę samą funkcję f = 5x x + 5, ale tym razem przyjmując K = 2. Z twierdzenia Taylora: f f (x 0 ) + f (x 0 )(x x 0 ) + (x x 0) 2 f (x 0 ) = f (1) + f (1)(x 1) + 2! Obliczmy tylko brakującą wartość drugiej pochodnej: Podstawiając do wzoru otrzymujemy: f = (10x + 10) = 10 f (1) = 10 f f (1) + f (x 1)2 (1)(x 1) + f (1) 2 (x 1)2 = (x 1) = x (x 1) 2 = 20x + 5(x 2 2x + 1) = 20x + 5x 2 10x + 5 = 5x x + 5 (x 1)2 2 f (1) Czyli dostaliśmy oryginalną funkcję f! Cóż, najlepsze przybliżenie wielomianu stopnia 2 poprzez wielomian stopnia 2 to ten sam wielomian ;) Pochodne w ekstremach W lokalnym minimum lub maksimum pochodna funkcji wynosi zawsze 0. Jednak pamiętaj, że zerowa wartość pochodnej może także sygnalizować np. punkt siodłowy - nie jest to więc ostateczny wskaźnik, że funkcja osiąga ekstremum. Typ punktu podejrzanego o bycie ekstremum możemy zweryfikować poprzez obliczenie kolejnych pochodnych Jeśli druga pochodna jest dodatnia to funkcja osiąga swoje minimum (pamiętasz warunek wypukłości?) Jeśli druga pochodna jest ujemna to funkcja osiąga swoje maksimum Jeśli druga pochodna jest równa 0 to... masz kłopoty!!! Musisz policzyć kolejne pochodne, aż znajdziesz pierwszą, która się nie zeruje. Jeśli jest to pochodna rzędu nieparzystego to nie jest to ekstremum Jeśli jest to pochodna rzędu parzystego to interpretujesz ją jak drugą pochodną Przykład 5.3 Z jakim typem punktu mamy do czynienia w x = 0 funkcji f = x 3? Obliczmy pierwszą pochodną f = 2x 2 f (0) = 0 Widzimy, że funkcja w danym punkcie ani nie rośnie ani nie maleje. Obliczmy więc drugą pochodną, aby ustalić typ punktu... f = 6x f (0) = 0 Co za pech! Druga pochodna się zeruje, więc nie jesteśmy w stanie określić typu punktu... Obliczmy kolejną pochodną f = 6 f (0) = 6

4 4 Laboratorium 5. Metody Newtona Pierwsza pochodna, która nie wynosi 0 jest trzeciego (czyli nieparzystego) rzędu. Funkcja nie osiąga ekstremum w tym punkcie. Twierdzenie 5.1 Jeśli funkcja f jest wypukła to warunek f = 0 jest wystarczający, by stwierdzić, że jest to lokalne/globalne minimum. Powyższe twierdzenie dla funkcji ściśle wypukłych jest proste do udowodnienia używając naszych wcześniej zdefiniowanych reguł. Jak dowiedzieliśmy się na drugich laboratoriach, jednym z warunków ścisłej wypukłości jest f > 0, więc wiemy że jeśli f = 0 to f > 0 czyli mamy minimum. Dla funkcji (nieściśle) wypukłych dowód można znaleźć w Internecie. 5.2 Algorytm spadku wzdłuż gradientu (znowu) Jedną z naszych intuicji dot. algorytmu spadku wzdłuż gradientów była ta, że w każdym kroku konstruuje on liniowe przybliżenia funkcji i je minimalizuje (patrz Laboratorium 3). Przypomnijmy, że równanie stycznej skonstruowane wokół punktu x 0 wygląda następująco: g = f (x 0 ) + f (x 0 ) T (x x 0 ) Ponieważ algorytm spadku wzdłuż gradientu w każdej swojej iteracji oblicza gradient f (x 0 ) to w zasadzie w każdej iteracji możemy skonstruować sobie liniowe przybliżenie funkcji. Funkcje liniowe są stosunkowo proste w optymalizacji, w przeciwieństwie do naszej (zwykle nieliniowej) funkcji celu. Jeśli więc f g to zamiast optymalizować trudne f optymalizujemy jej liniowe i łatwe w optymalizacji przybliżenie g. Wiemy, że aby znaleźć minimum unkcji liniowej to przy funkcji rosnącej znajduje się ono skrajnie w lewo ( ), a dla funkcji malejącej musimy go szukać jak najbardziej w prawo. Jednak takie postawienie problemu doprowadziłoby nas do algorytmu który po zobaczeniu liniowego przybliżenia ląduje w ±. Cały szkopuł polega jednak na tym, że g dobrze przybliża naszą funkcję celu jedynie lokalnie tj. w pewnej małej okolicy wokół punktu dla którego to przybliżenie skonstruowano. Jeśli więc zrobimy zbyt daleki krok (a już na pewno jak zrobimy krok do ) narażamy się na bardzo duży błąd przybliżenia. W każdej iteracji chcielibyśmy więc z jednej strony skorzystać z naszego przybliżenia tak bardzo jak się tylko da, minimalizując nasze g. Jednocześnie, żeby nadal mieć nadzieję, że g f chcemy wykonać możliwie mały krok. Konkretnie, chcemy aby odległość x x 0 pomiędzy wybranym minimum lokalnego przybieżenia x a punktem wokół którego to przybliżenie skonstruowaliśmy x 0 była jak najmniejsza. W każdej iteracji wybieramy więc takie kolejne x, aby minimalizowało ono wyrażenie: min η ( f (x 0 ) + f (x 0 ) T (x x 0 ) ) + 1 x }{{} 2 x x 0 2 }{{} odległość od x 0 nasze przybliżenie gdzie η jest parametrem regulującym przetarg pomiędzy jak największym zminimalizowaniem naszej funkcji a wybraniem punktu bliskiego x 0. Czy ten problem optymalizacyjny 2 Formalnie minimum nie istnieje

5 5.3 Metoda Newtona-Raphsona 5 a) b) Rysunek 5.1: a) Dwa kroki metody spadku gradientu używającej przybliżenia liniowego oraz b) krok metody Newtona używającej przybliżenia kwadratowego. Gdyby zastosować przybliżenie kwadratowe do funkcji kwadratowej na rysunku a) to osiągnęlibyśmy minimum w jednym kroku (minimalizacja przybliżenia to minimalizacja funkcji) [2, 1]. jest problemem wypukłym? Oczywiście tak, co możemy szybko zobaczyć poprzez operacje zachowujące wypukłość. Nasze przybliżenie jest liniowe (wypukłe), dowolna norma jest wypukła, a suma z dodatnimi współczynnikami zachowuje wypukłość. Zobaczmy ile powinno wynosić nasze nowe x, które minimalizuje to wyrażenie poprzez policzenie gradientu i przyrównanie go do wektora zer 3. (η ( f (x 0 ) + f (x 0 ) T (x x 0 ) ) + 12 ) x x 0 2 = η f (x 0 ) + (x x 0 ) η f (x 0 ) + x x 0 = 0 η f (x 0 ) x 0 = x x = x 0 η f (x 0 ) Uzyskaliśmy więc dokładnie algorytmu spadku wzdłuż gradientu. Algorytm więc możemy interpretować jako konstruowanie lokalnego liniowego przybliżenia w każdej kolejnej iteracji oraz optymalizowanie tego łatwego w optymalizacji przybliżenia zamiast oryginalnego problemu optymalizacyjnego. Powstaje więc niezręczne pytanie. Czy naprawdę limit możliwości studentów naszej kochanej Politechniki to konstruowanie liniowych przybliżeń funkcji? Oczywiście, że nie! Tak jak przypominaliśmy to sobie kilka tygodni temu: potrafimy konstruować przybliżenia poprzez funkcje kwadratowe i wyższych rzędów poprzez wykorzystanie twierdzenia Taylora. Zobaczmy jak możemy je wykorzystać w optymalizacji. 5.3 Metoda Newtona-Raphsona Skonstruujmy więc przybliżenie funkcji celu korzystając z szeregu Taylora f f (x 0 ) + f (x 0 ) T (x x 0 ) + 1 }{{} 2 (x x 0) T (x 0 )(x x 0 ) nasze stare przybliżenie liniowe Podobnie jak w przypadku algorytmu spadku wzdłuż gradientu, będziemy w każdej iteracji budować lokalne przybliżenie funkcji g wokół naszego aktualnego punktu 3 Nie trzeba sprawdzać dalej drugiej pochodnej, bo wiemy że problem jest wypukły. Przypominam też, że ze względu na liczenie gradientu względem x wyrażenie f (x 0 ) jest pewną stałą.

6 6 Laboratorium 5. Metody Newtona x 0. Przybliżenie to będzie tym razem funkcją kwadratową, co będzie nam pozwalało na większą dokładność. Następnie wierząc, że nasze g f będziemy optymalizować nasze przybliżenie g trzymając kciuki, że jednocześnie optymalizujemy f. W przypadku funkcji liniowej musieliśmy się trochę namęczyć poprzez uwzględnienie przetargu pomiędzy minimalizacją naszego przybliżenia a jego jakością (bliskością kolejnego x), ponieważ jej minimum 4 znajduje się w nieskończoności. Funkcja kwadratowa jest o tyle sympatyczna, że jej minimum jest określone - po prostu więc ją zminimalizujmy. Znajdźmy minimum naszego przybliżenia funkcji g poprzez przyrównanie gradientu do wektora zer oraz zakładając, że jest ono funkcją wypukłą 5. Rozpocznijmy od policzenia gradientu: ( g = f (x 0 ) + f (x 0 ) T (x x 0 ) + 1 ) 2 (x x 0) T (x 0 )(x x 0 ) = f (x 0 ) + f (x }{{} 0 ) T x f (x 0 ) T x }{{} 2 (x x 0) T (x 0 )(x x 0 ) stała stała = 0 + ( f (x 0 ) T x ) }{{} 2 ( (x x 0 ) T (x 0 )(x x 0 ) ) }{{} a T x=a x T Ax=(A+A T )x = f (x 0 ) + 1 ( (x 0 ) + ( (x 0 ) ) T ) (x x 0 ) /wiemy że hesjan jest symetryczny/ 2 }{{} =2 (x 0 ) = f (x 0 ) + (x 0 )(x x 0 ) Przyrównujemy gradient do zera (funkcja jest wypukła, więc jest to wystarczające). f (x 0 ) + (x 0 )(x x 0 ) = 0 (x 0 )(x x 0 ) = f (x 0 ) x x 0 = [ (x 0 ) ] 1 f (x0 ) x = x 0 [ (x 0 ) ] 1 f (x0 ) Rezultatem tego jest nowy algorytm, który wykorzystuje przybliżenie funkcją kwadratową! Nazywamy go metodą Newtona-Raphsona. Algorytm 5.1 Metoda Newtona-Raphsona. while warunek stopu nie jest spełniony do x x [ ] 1 f end while x INICJALIZUJ Przesuń x w kierunku minimum W algorytmie spadku wzdłuż gradientu musieliśmy mieć współczynnik η, który kontrolował nam długość kroku. Było to konieczne, ponieważ liniowe przybliżenie miało swoje minimum w ± nie mogliśmy więc bezpośrednio założyć prawdziwości przybliżenia i go bezpośrednio zminimalizować. Taką bezpośrednią optymalizację możemy zrobić z przybliżeniem kwadratowym: w każdej iteracji tworzymy funkcję kwadratową przybliżającą naszą funkcję i skaczemy do jej optimum. Zwróć uwagę, że odwrotność Hesjanu 4 St. z o. o. 5 Z warunków wypukłości wiemy, że druga pochodna jest nieujemna. Tutaj: hesjan jest dodatnio półokreślony.

7 5.3 Metoda Newtona-Raphsona 7 pełni jakby funkcję samo dostosowującego się η czyli szybkości optymalizacji. Nie jest więc konieczny żaden parametr Hesjan Póki co bardzo sympatycznie wpisaliśmy sobie do wzoru (x 0 ). Jednak co to jest? Żeby zaatakować funkcje wielowymiarowe zwracające jedną wartość potrzebowaliśmy całego wektora pochodnych (gradient). Co więc pojawi się gdy chcemy policzyć pochodne drugiego rzędu? Macierz. Macierz ta jest macierzą kwadratową, (zwykle) symetryczną, zawierającą wszystkie możliwe pochodne drugiego rzędu. Nazywamy ją Hesjanem. Definicja 5.2 Hesjan. Hesjanem nazywamy macierz x 2 x 1 1 x 2 x 1 x n H = x 2 x 1 x2 2 x 2 x n x n x 1 x n x 2 xn 2! Zapamiętaj, że i-ty wiersz Hesjanu zwiera wszystkie drugie pochodne policzone z pierwszej pochodnej po x i. Przykład 5.4 Wyznacz Hesjan funkcji f (x,y) = x 2 + 3xy + 5y 3. Wyznaczmy najpierw gradient: [ ] f [ ] f = x 2x + 3y f = 3x + 15y 2 y Następnie policzmy drugie pochodne z pierwszej pochodnej po x: oraz po y: Wpisując to do macierzy: f x x = (2x + 3y) = 2 x f x y = (2x + 3y) = 3 y f y x = x (3x + 15y2 ) = 3 f y y = y (3x + 15y2 ) = 30y (x,y) H(x,y) = x 2 x y (x,y) x y (x,y) 2 = f (x,y) y 2 [ ] y

8 8 Laboratorium 5. Metody Newtona Zwróć uwagę, że liczenie jednej z pochodnych x y lub y x było zbędne ponieważ wiemy, że macierz jest symetryczna Przykład: regresja liniowa Kontynuując nasz przykład z poprzedniego laboratorium, zobaczmy jak wygląda algorytm Newtona dla problemu regresji liniowej. Przypomnijmy, że w problemie regresji liniowej minimalizujemy: min θ Wymnażając otrzymujemy 7 L(θ) = N i=1 (y i x T i θ) 2 = (y Xθ) T (y Xθ) L(θ) = y T y y T Xθ (Xθ) T y + (Xθ) T Xθ = y T y 2y T Xθ + θ T X T Xθ Obliczając gradient otrzymujemy: θ L(θ) = 2X T y + 2X T Xθ Dalej musimy obliczyć Hesjan. Pierwszy term gradientu znika, ponieważ nie występuje tam zmienna θ po której liczymy pochodną. Drugi term zależy od θ liniowo czyli H(θ) = 2X T X Krok naszej metody wygląda następująco x x [ ] 1 f. Zauważ więc, że w naszej metodzie Hesjan nie tylko trzeba obliczyć, ale także trzeba go jeszcze odwrócić. [H(θ)] 1 = 1 2 (XT X) 1 Ostatecznie więc krok metody Newtona dla regresji liniowej wygląda następująco θ θ 1 2 (XT X) 1 ( 2X T y + 2X T Xθ) Moglibyśmy więc już skończyć w tym miejscu, ale dla spokoju ducha przemnóżmy ten wzór. θ θ 1 2 (XT X) 1 ( 2X T y + 2X T Xθ) θ 1 2 (XT X) 1 ( 2X T y) 1 2 (XT X) 1 2X T Xθ θ + (X T X) 1 X T y (X T X) 1 X T X }{{} θ macierz razy jej odwrotność θ + (X T X) 1 X T y θ (X T X) 1 X T y 6 Hesjan jest symetryczny dla funkcji o ciągłych drugich pochodnych czyli w zdecydowanej większości praktycznych przypadków. Na tym przedmiocie możesz spokojnie założyć, że Hesjan jest zawsze symetryczny. Warunki symetryczności Hesjanu są określone w twierdzeniu Schwarza. 7 Jeśli tego nie pamiętasz to wróć się do skryptu z Laboratorium 3

9 5.4 Metoda Levenberga-Marquardta 9 Rysunek 5.2: Zachowanie metody Newtona na funkcji wypukłej oraz funkcji niewypukłej. Dla funkcji niewypukłej Hesjan nie jest zawsze dodatnio półokreślony, więc punktem zerowania się pierwszej pochodnej może być maksimum (metoda zaczyna maksymalizować!) [1]. Po przemnożeniu nasza aktualizacja stała się przypisywaniem pewnej stałej (do θ już nic nie dodajemy!). Ale zaraz... jeśli przypomnisz sobie nasze rozwiązanie metodami analitycznymi to jest to dokładnie rozwiązanie problemu regresji liniowej. Stało się tak dlatego, że funkcja optymalizowana w regresji liniowej jest funkcją kwadratową. Metoda Newtona w jednym swoim kroku minimalizuje skonstruowane przybliżenie kwadratowe funkcji celu. W przypadku kwadratowej funkcji celu jej kwadratowe przybliżenie jest dokładnie tę samą funkcją, więc minimalizacja przybliżenia wiąże się z minimalizacją funkcji celu w jednym kroku! 5.4 Metoda Levenberga-Marquardta Metoda Newtona minimalizuje w jednym kroku kwadratowe przybliżenie funkcji. No właśnie czy aby minimalizowała? Z chwilą gdy wyprowadzaliśmy metodę Newtona przyrównaliśmy pierwszą pochodną do zera i znaleźliśmy punkt stacjonarny. Następnie założyliśmy, że nie musimy sprawdzać czy jest to minimum ponieważ funkcja jest wypukła. Gdyby więc optymalizowana funkcja nie była funkcją wypukłą nie ma żadnej gwarancji, że krok wykonany przez metodę Newtona zamiast minimum nie znajduje... maksimum 8. Metoda więc zamiast szukać minimum nagle zaczyna szukać maksimum! Taką sytuacje dobrze obrazuje rysunek 5.2. Dodatkowo, nawet w przypadku funkcji wypukłych może się zdarzyć, że Hesjan będzie macierzą nieodwracalną. Z warunków wypukłości wiemy, że Hesjan będzie macierzą 8 Dla funkcji wieluzmiennych możemy także wykonać test sprawdzający czy jest to minimum poprzez obliczenie drugiej pochodnej czyli w tym przypadku Hesjanu. Jeżeli Hesjan jest dodatnio określony (wszystkie wartości własne są dodatnie) to funkcja osiąga swoje minimum.

10 10 Laboratorium 5. Metody Newtona Rysunek 5.3: Funkcja z punktem siodłowym h 1, funkcja kwadratowa zbudowana na macierzy jednostkowej h 2 oraz suma funkcji h 1 + εh 2 gdzie ε został tutaj dobrany na wartość [1] dodatnio półokreśloną i to pół nas może zaboleć. Oznacza to, że macierz potencjalnie nie musi być dodatnio określona i może się zdarzyć że któraś z jej wartości własnych będzie zerowa (czyli macierz będzie nieodwracalna 9 ). Co zrobić w takiej sytuacji? Z pomocą przychodzi nam metoda Levenberga-Marquardta. Pomysł jest następujący: jeżeli przybliżenie kwadratowe funkcji nie jest wypukłe (czyli ma maksimum, a nie minimum) to... na siłę zróbmy je wypukłe! Jak to osiągniemy? Do przybliżenia kwadratowego funkcji będziemy dodawać standardową, symetryczną wielowymiarową parabolę (wg. niektórych lecący nabój rozcinający powietrze). Taka parabola ma wzór: x x = x T Ix gdzie I jest oczywiście macierzą jednostkową. Dodajemy taką parabolę z pewną wagą do naszego kwadratowego przybliżenia, aby w końcu uzyskać funkcję wypukłą. Przy dostatecznie dużej wadze nasza parabola zdominuje wklęsły kształt przybliżenia i sprawi, żeby był on na powrót wypukły. Oczywiście powinniśmy wybrać możliwie jak najmniejszą wagą, aby niezniekształcać przybliżenia bardziej niż to konieczne. Przykład takiego dodawania paraboli zilustrowano na rysunku 5.3. Algorytm 5.2 Metoda Levenberga-Marquardta. x INICJALIZUJ while warunek stopu nie jest spełniony do x x ( [ ] + ε k I) 1 f Przesuń x w kierunku minimum end while Zauważ, że w przypadku problemów z nieodwracalnym Hesjanem funkcji wypukłej wystarczy dodać parabolę z bardzo małą wagą ε k. Macierz ta ma najmniejszą wartość własną równą zero, więc po dodaniu paraboli natychmiast ta wartość własna odbije się od zera i stanie się macierzą odwracalną. Dla funkcji wypukłych zalecaną wartością jest więc np. ε k = Dla funkcji niewypukłych należy zwiększać wagę ε k tak długo, aż najmniejsza jej wartość własna nie znajdzie się powyżej zera. Dodatkowo, ponieważ przybliżenie kwadratowe może być dużo mniej wiarygodne dla funkcji niewypukłych, zaleca się dodatkowo wpro- 9 Wyznacznik macierzy to iloczyn jej wartości własnych. Wystarczy jedno zero, aby wyzerować iloczyn.

11 BIBLIOGRAFIA 11 wadzenie parametru szybkości optymalizacji η aby kontrolować wielkość wykonywanego kroku. Literatura Literatura powtórkowa Opis metody Newtona można znaleźć w praktycznie każdej książce do optymalizacji np. [3]. Literatura dla chętnych Hesjan jest dla problemów wielowymiarowych olbrzymią macierzą przez co zarówno jego odwracanie jak i przechowywanie w pamięci jest często niemożliwe. Z tego powodu stosuje się metody quasi-newtonowskie, które starają się przybliżać od razu odwrotność Hesjanu (nie trzeba wtedy odwracać:). Taką metodą jest np. L-BFGS, które nie wymaga strojenia szybkości optymalizacji (jak spadek gradientu), a z drugiej strony nie jest tak kosztowna obliczeniowo jak metoda Newtona. Zapoznaj się z opisem tej metody: http: //aria42.com/blog/2014/12/understanding-lbfgs Bibliografia [1] Newton s method Mathematical Optimization ). io/mlrefined/blog_posts/mathematical_optimization/part_5_newtons_ method.html. Dostęp: [2] Stochastic Gradient Descent: Mini-batch and more (Adventures in Machine Learning ). stochastic-gradient-descent/. Dostęp: [3] Jacek Stadnicki. Teoria i praktyka rozwi azywania zadań optymalizacji z przykładami zastosowań technicznych. Wydawnictwo Naukowo-Techniczne, 2006.

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metody kierunków poparwy (metoda Newtona-Raphsona, metoda gradientów sprzężonych) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.03.2019 1

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 4. Metody kierunków poprawy (metoda spadku wzdłuż gradientu) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 21.03.2019 1 / 41 Plan wykładu Minimalizacja

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 1. Optymalizacja funkcji jednej zmiennej Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.02.2019 1 / 54 Plan wykładu Optymalizacja funkcji jednej

Bardziej szczegółowo

1 Metody rozwiązywania równań nieliniowych. Postawienie problemu

1 Metody rozwiązywania równań nieliniowych. Postawienie problemu 1 Metody rozwiązywania równań nieliniowych. Postawienie problemu Dla danej funkcji ciągłej f znaleźć wartości x, dla których f(x) = 0. (1) 2 Przedział izolacji pierwiastka Będziemy zakładać, że równanie

Bardziej szczegółowo

ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ

ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ Maciej Patan Uniwersytet Zielonogórski WSTEP Zadanie minimalizacji bez ograniczeń f(ˆx) = min x R nf(x) f : R n R funkcja ograniczona z dołu Algorytm rozwiazywania Rekurencyjny

Bardziej szczegółowo

1 Pochodne wyższych rzędów

1 Pochodne wyższych rzędów Pochodne wyższych rzędów Pochodną rzędu drugiego lub drugą pochodną funkcji y = f(x) nazywamy pochodną pierwszej pochodnej tej funkcji. Analogicznie definiujemy pochodne wyższych rzędów, jako pochodne

Bardziej szczegółowo

Metody numeryczne I Równania nieliniowe

Metody numeryczne I Równania nieliniowe Metody numeryczne I Równania nieliniowe Janusz Szwabiński szwabin@ift.uni.wroc.pl Metody numeryczne I (C) 2004 Janusz Szwabiński p.1/66 Równania nieliniowe 1. Równania nieliniowe z pojedynczym pierwiastkiem

Bardziej szczegółowo

Iteracyjne rozwiązywanie równań

Iteracyjne rozwiązywanie równań Elementy metod numerycznych Plan wykładu 1 Wprowadzenie Plan wykładu 1 Wprowadzenie 2 Plan wykładu 1 Wprowadzenie 2 3 Wprowadzenie Metoda bisekcji Metoda siecznych Metoda stycznych Plan wykładu 1 Wprowadzenie

Bardziej szczegółowo

KADD Minimalizacja funkcji

KADD Minimalizacja funkcji Minimalizacja funkcji n-wymiarowych Forma kwadratowa w n wymiarach Procedury minimalizacji Minimalizacja wzdłuż prostej w n-wymiarowej przestrzeni Metody minimalizacji wzdłuż osi współrzędnych wzdłuż kierunków

Bardziej szczegółowo

Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji

Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji Adam Kiersztyn Lublin 2014 Adam Kiersztyn () Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji maj 2014 1 / 24 Zanim przejdziemy

Bardziej szczegółowo

Programowanie nieliniowe. Badania operacyjne Wykład 3 Metoda Lagrange a

Programowanie nieliniowe. Badania operacyjne Wykład 3 Metoda Lagrange a Programowanie nieliniowe Badania operacyjne Wykład 3 Metoda Lagrange a Plan wykładu Przykład problemu z nieliniową funkcją celu Sformułowanie problemu programowania matematycznego Podstawowe definicje

Bardziej szczegółowo

WYKŁAD 9 METODY ZMIENNEJ METRYKI

WYKŁAD 9 METODY ZMIENNEJ METRYKI WYKŁAD 9 METODY ZMIENNEJ METRYKI Kierunki sprzężone. Metoda Newtona Raphsona daje dobre przybliżenie najlepszego kierunku poszukiwań, lecz jest to okupione znacznym kosztem obliczeniowym zwykle postać

Bardziej szczegółowo

Metoda Karusha-Kuhna-Tuckera

Metoda Karusha-Kuhna-Tuckera Badania operacyjne i teoria optymalizacji Poznań, 2015/2016 Plan 1 Sformułowanie problemu 2 3 Warunki ortogonalności 4 Warunki Karusha-Kuhna-Tuckera 5 Twierdzenia Karusha-Kuhna-Tuckera 6 Ograniczenia w

Bardziej szczegółowo

Wzór Maclaurina. Jeśli we wzorze Taylora przyjmiemy x 0 = 0 oraz h = x, to otrzymujemy tzw. wzór Maclaurina: f (x) = x k + f (n) (θx) x n.

Wzór Maclaurina. Jeśli we wzorze Taylora przyjmiemy x 0 = 0 oraz h = x, to otrzymujemy tzw. wzór Maclaurina: f (x) = x k + f (n) (θx) x n. Wzór Maclaurina Jeśli we wzorze Taylora przyjmiemy x 0 = 0 oraz h = x, to otrzymujemy tzw. wzór Maclaurina: f (x) = n 1 k=0 f (k) (0) k! x k + f (n) (θx) x n. n! Wzór Maclaurina Przykład. Niech f (x) =

Bardziej szczegółowo

Rozwiązania prac domowych - Kurs Pochodnej. x 2 4. (x 2 4) 2. + kπ, gdzie k Z

Rozwiązania prac domowych - Kurs Pochodnej. x 2 4. (x 2 4) 2. + kπ, gdzie k Z 1 Wideo 5 1.1 Zadanie 1 1.1.1 a) f(x) = x + x f (x) = x + f (x) = 0 x + = 0 x = 1 [SZKIC] zatem w x = 1 występuje minimum 1.1. b) f(x) = x x 4 f (x) = x(x 4) x (x) (x 4) f (x) = 0 x(x 4) x (x) (x 4) =

Bardziej szczegółowo

Z52: Algebra liniowa Zagadnienie: Zastosowania algebry liniowej Zadanie: Operatory różniczkowania, zagadnienie brzegowe.

Z52: Algebra liniowa Zagadnienie: Zastosowania algebry liniowej Zadanie: Operatory różniczkowania, zagadnienie brzegowe. Z5: Algebra liniowa Zagadnienie: Zastosowania algebry liniowej Zadanie: Operatory różniczkowania zagadnienie brzegowe Dyskretne operatory różniczkowania Numeryczne obliczanie pochodnych oraz rozwiązywanie

Bardziej szczegółowo

Funkcje dwóch zmiennych

Funkcje dwóch zmiennych Funkcje dwóch zmiennych Andrzej Musielak Str Funkcje dwóch zmiennych Wstęp Funkcja rzeczywista dwóch zmiennych to funkcja, której argumentem jest para liczb rzeczywistych, a wartością liczba rzeczywista.

Bardziej szczegółowo

1 Pochodne wyższych rzędów

1 Pochodne wyższych rzędów 1 Pochodne wyższych rzędów Definicja 1.1 (Pochodne cząstkowe drugiego rzędu) Niech f będzie odwzorowaniem o wartościach w R m, określonym na zbiorze G R k. Załóżmy, że zbiór tych x G, dla których istnieje

Bardziej szczegółowo

Wykład 4 Przebieg zmienności funkcji. Badanie dziedziny oraz wyznaczanie granic funkcji poznaliśmy na poprzednich wykładach.

Wykład 4 Przebieg zmienności funkcji. Badanie dziedziny oraz wyznaczanie granic funkcji poznaliśmy na poprzednich wykładach. Wykład Przebieg zmienności funkcji. Celem badania przebiegu zmienności funkcji y = f() jest poznanie ważnych własności tej funkcji na podstawie jej wzoru. Efekty badania pozwalają naszkicować wykres badanej

Bardziej szczegółowo

Pochodne wyższych rzędów definicja i przykłady

Pochodne wyższych rzędów definicja i przykłady Pochodne wyższych rzędów definicja i przykłady Pochodne wyższych rzędów Drugą pochodną funkcji nazywamy pochodną pochodnej tej funkcji. Trzecia pochodna jest pochodną drugiej pochodnej; itd. Ogólnie, -ta

Bardziej szczegółowo

3. Metoda najszybszego spadku

3. Metoda najszybszego spadku 3. Metoda najszybszego spadku 3.1 Wielowymiarowa funkcja kwadratowa Na ostatnich zajęciach poznaliśmy podstawy dotyczące funkcji wielowymiarowych. Szczególnie interesującą dla nas klasą funkcji będą funkcje

Bardziej szczegółowo

KADD Minimalizacja funkcji

KADD Minimalizacja funkcji Minimalizacja funkcji Poszukiwanie minimum funkcji Foma kwadratowa Metody przybliżania minimum minimalizacja Minimalizacja w n wymiarach Metody poszukiwania minimum Otaczanie minimum Podział obszaru zawierającego

Bardziej szczegółowo

Rozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów.

Rozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów. Rozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów. Plan wykładu: 1. Wyznaczanie pojedynczych pierwiastków rzeczywistych równań nieliniowych metodami a) połowienia (bisekcji)

Bardziej szczegółowo

2. Optymalizacja bez ograniczeń

2. Optymalizacja bez ograniczeń 2. Optymalizacja bez ograniczeń 1. Podaj definicję ścisłego minimum lokalnego zadania 2. Podaj definicję minimum lokalnego zadania 3. Podaj definicję ścisłego minimum globalnego zadania 4. Podaj definicję

Bardziej szczegółowo

13. Funkcje wielu zmiennych pochodne, gradient, Jacobian, ekstrema lokalne.

13. Funkcje wielu zmiennych pochodne, gradient, Jacobian, ekstrema lokalne. 13. Funkcje wielu zmiennych pochodne, gradient, Jacobian, ekstrema lokalne. 1. Wprowadzenie. Dotąd rozważaliśmy funkcje działające z podzbioru liczb rzeczywistych w zbiór liczb rzeczywistych, zatem funkcje

Bardziej szczegółowo

13. Równania różniczkowe - portrety fazowe

13. Równania różniczkowe - portrety fazowe 13. Równania różniczkowe - portrety fazowe Grzegorz Kosiorowski Uniwersytet Ekonomiczny w Krakowie rzegorz Kosiorowski (Uniwersytet Ekonomiczny 13. wrównania Krakowie) różniczkowe - portrety fazowe 1 /

Bardziej szczegółowo

IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych,

IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych, IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. Definicja 1.1. Niech D będzie podzbiorem przestrzeni R n, n 2. Odwzorowanie f : D R nazywamy

Bardziej szczegółowo

Wstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych. P. F. Góra

Wstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych. P. F. Góra Wstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2012 Strategia minimalizacji wielowymiarowej Zakładamy, że metody poszukiwania minimów

Bardziej szczegółowo

Metody Numeryczne Optymalizacja. Wojciech Szewczuk

Metody Numeryczne Optymalizacja. Wojciech Szewczuk Metody Numeryczne Optymalizacja Optymalizacja Definicja 1 Przez optymalizację będziemy rozumieć szukanie minimów lub maksimów funkcji. Optymalizacja Definicja 2 Optymalizacja lub programowanie matematyczne

Bardziej szczegółowo

1 Funkcje dwóch zmiennych podstawowe pojęcia

1 Funkcje dwóch zmiennych podstawowe pojęcia 1 Funkcje dwóch zmiennych podstawowe pojęcia Definicja 1 Funkcją dwóch zmiennych określoną na zbiorze A R 2 o wartościach w zbiorze R nazywamy przyporządkowanie każdemu punktowi ze zbioru A dokładnie jednej

Bardziej szczegółowo

Zaawansowane metody numeryczne

Zaawansowane metody numeryczne Wykład 11 Ogólna postać metody iteracyjnej Definicja 11.1. (metoda iteracyjna rozwiązywania układów równań) Metodą iteracyjną rozwiązywania { układów równań liniowych nazywamy ciąg wektorów zdefiniowany

Bardziej szczegółowo

Układy równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona) f(x) = 0, gdzie. dla n=2 np.

Układy równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona) f(x) = 0, gdzie. dla n=2 np. Układy równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona f(x 0, f ( f, f,..., f n gdzie 2 x ( x, x 2,..., x n dla n2 np. f ( x, y 0 g( x, y 0 dla każdej wielowymiarowej rozwinięcie w szereg Taylora

Bardziej szczegółowo

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH Transport, studia I stopnia rok akademicki 2011/2012 Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Uwagi wstępne Układ liniowych równań algebraicznych można

Bardziej szczegółowo

Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych

Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych mgr inż. C. Dendek prof. nzw. dr hab. J. Mańdziuk Politechnika Warszawska, Wydział Matematyki i Nauk Informacyjnych Outline 1 Uczenie

Bardziej szczegółowo

3. Macierze i Układy Równań Liniowych

3. Macierze i Układy Równań Liniowych 3. Macierze i Układy Równań Liniowych Rozważamy równanie macierzowe z końcówki ostatniego wykładu ( ) 3 1 X = 4 1 ( ) 2 5 Podstawiając X = ( ) x y i wymnażając, otrzymujemy układ 2 równań liniowych 3x

Bardziej szczegółowo

METODY ROZWIĄZYWANIA RÓWNAŃ NIELINIOWYCH

METODY ROZWIĄZYWANIA RÓWNAŃ NIELINIOWYCH METODY ROZWIĄZYWANIA RÓWNAŃ NIELINIOWYCH Jednym z zastosowań metod numerycznych jest wyznaczenie pierwiastka lub pierwiastków równania nieliniowego. W tym celu stosuje się szereg metod obliczeniowych np:

Bardziej szczegółowo

2. Definicja pochodnej w R n

2. Definicja pochodnej w R n 2. Definicja pochodnej w R n Niech będzie dana funkcja f : U R określona na zbiorze otwartym U R n. Pochodną kierunkową w punkcie a U w kierunku wektora u R n nazywamy granicę u f(a) = lim t 0 f(a + tu)

Bardziej szczegółowo

2. ZASTOSOWANIA POCHODNYCH. (a) f(x) = ln 3 x ln x, (b) f(x) = e2x x 2 2.

2. ZASTOSOWANIA POCHODNYCH. (a) f(x) = ln 3 x ln x, (b) f(x) = e2x x 2 2. 2. ZASTOSOWANIA POCHODNYCH. Koniecznie trzeba znać: twierdzenia o ekstremach (z wykorzystaniem pierwszej i drugiej pochodnej), Twierdzenie Lagrange a, Twierdzenie Taylora (z resztą w postaci Peano, Lagrange

Bardziej szczegółowo

Programowanie celowe #1

Programowanie celowe #1 Programowanie celowe #1 Problem programowania celowego (PC) jest przykładem problemu programowania matematycznego nieliniowego, który można skutecznie zlinearyzować, tzn. zapisać (i rozwiązać) jako problem

Bardziej szczegółowo

Rozwiązywanie równań nieliniowych

Rozwiązywanie równań nieliniowych Rozwiązywanie równań nieliniowych Marcin Orchel 1 Wstęp Przykłady wyznaczania miejsc zerowych funkcji f : f(ξ) = 0. Wyszukiwanie miejsc zerowych wielomianu n-tego stopnia. Wymiar tej przestrzeni wektorowej

Bardziej szczegółowo

Pochodna funkcji. Zastosowania

Pochodna funkcji. Zastosowania Pochodna funkcji Zastosowania Informatyka (sem.1 2015/16) Analiza Matematyczna Temat 3 1 / 33 Niektóre zastosowania pochodnych 1 Pochodna jako narzędzie do przybliżania wartości 2 Pochodna jako narzędzie

Bardziej szczegółowo

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Metody optymalizacji Metody poszukiwania ekstremum funkcji jednej zmiennej Materiały pomocnicze do ćwiczeń

Bardziej szczegółowo

Funkcja kwadratowa. f(x) = ax 2 + bx + c = a

Funkcja kwadratowa. f(x) = ax 2 + bx + c = a Funkcja kwadratowa. Funkcją kwadratową nazywamy funkcję f : R R określoną wzorem gdzie a, b, c R, a 0. f(x) = ax + bx + c, Szczególnym przypadkiem funkcji kwadratowej jest funkcja f(x) = ax, a R \ {0}.

Bardziej szczegółowo

9. BADANIE PRZEBIEGU ZMIENNOŚCI FUNKCJI

9. BADANIE PRZEBIEGU ZMIENNOŚCI FUNKCJI BADANIE PRZEBIEGU ZMIENNOŚCI FUNKCJI Ekstrema i monotoniczność funkcji Oznaczmy przez D f dziedzinę funkcji f Mówimy, że funkcja f ma w punkcie 0 D f maksimum lokalne (minimum lokalne), gdy dla każdego

Bardziej szczegółowo

Funkcja kwadratowa. f(x) = ax 2 + bx + c,

Funkcja kwadratowa. f(x) = ax 2 + bx + c, Funkcja kwadratowa. Funkcją kwadratową nazywamy funkcję f : R R określoną wzorem gdzie a, b, c R, a 0. f(x) = ax 2 + bx + c, Szczególnym przypadkiem funkcji kwadratowej jest funkcja f(x) = ax 2, a R \

Bardziej szczegółowo

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:

Bardziej szczegółowo

1 Wartości własne oraz wektory własne macierzy

1 Wartości własne oraz wektory własne macierzy Rozwiązania zadania umieszczonego na końcu poniższych notatek proszę przynieść na kartkach Proszę o staranne i formalne uzasadnienie odpowiedzi Za zadanie można uzyskać do 6 punktów (jeżeli przyniesione

Bardziej szczegółowo

Metody rozwiązywania równań nieliniowych

Metody rozwiązywania równań nieliniowych Metody rozwiązywania równań nieliniowych Rozwiązywanie równań nieliniowych Ogólnie równanie o jednej niewiadomej x można przedstawić w postaci f ( x)=0, x R, (1) gdzie f jest wystarczająco regularną funkcją.

Bardziej szczegółowo

Definicja pochodnej cząstkowej

Definicja pochodnej cząstkowej 1 z 8 gdzie punkt wewnętrzny Definicja pochodnej cząstkowej JeŜeli iloraz ma granicę dla to granicę tę nazywamy pochodną cząstkową funkcji względem w punkcie. Oznaczenia: Pochodną cząstkową funkcji względem

Bardziej szczegółowo

1.3. Optymalizacja geometrii czasteczki

1.3. Optymalizacja geometrii czasteczki 0 1 Część teoretyczna 13 Optymalizacja geometrii czasteczki Poszukiwanie punktów stacjonarnych (krytycznych) funkcji stanowi niezwykle istotny problem w obliczeniowej chemii kwantowej Sprowadza się on

Bardziej szczegółowo

Egzamin z Metod Numerycznych ZSI, Egzamin, Gr. A

Egzamin z Metod Numerycznych ZSI, Egzamin, Gr. A Egzamin z Metod Numerycznych ZSI, 06.2007. Egzamin, Gr. A Imię i nazwisko: Nr indeksu: Section 1. Test wyboru, max 33 pkt Zaznacz prawidziwe odpowiedzi literą T, a fałszywe N. Każda prawidłowa odpowiedź

Bardziej szczegółowo

Elementy metod numerycznych

Elementy metod numerycznych Wykład nr 5 i jej modyfikacje. i zera wielomianów Założenia metody Newtona Niech będzie dane równanie f (x) = 0 oraz przedział a, b taki, że w jego wnętrzu znajduje się dokładnie jeden pierwiastek α badanego

Bardziej szczegółowo

Wstęp do metod numerycznych 9a. Układy równań algebraicznych. P. F. Góra

Wstęp do metod numerycznych 9a. Układy równań algebraicznych. P. F. Góra Wstęp do metod numerycznych 9a. Układy równań algebraicznych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2012 Układy równań algebraicznych Niech g:r N równanie R N będzie funkcja klasy co najmniej

Bardziej szczegółowo

Materiały wykładowe (fragmenty)

Materiały wykładowe (fragmenty) Materiały wykładowe (fragmenty) 1 Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL kontakt osobisty Centrum Wykładowe, blok informatyki, pok. 7

Bardziej szczegółowo

VIII. Zastosowanie rachunku różniczkowego do badania funkcji. 1. Twierdzenia o wartości średniej. Monotoniczność funkcji.

VIII. Zastosowanie rachunku różniczkowego do badania funkcji. 1. Twierdzenia o wartości średniej. Monotoniczność funkcji. VIII. Zastosowanie rachunku różniczkowego do badania funkcji. 1. Twierdzenia o wartości średniej. Monotoniczność funkcji. Twierdzenie 1.1. (Rolle a) Jeżeli funkcja f jest ciągła w przedziale domkniętym

Bardziej szczegółowo

Rzut oka na współczesną matematykę spotkanie 3: jak liczy kalkulator i o źródłach chaosu

Rzut oka na współczesną matematykę spotkanie 3: jak liczy kalkulator i o źródłach chaosu Rzut oka na współczesną matematykę spotkanie 3: jak liczy kalkulator i o źródłach chaosu P. Strzelecki pawelst@mimuw.edu.pl Instytut Matematyki, Uniwersytet Warszawski MISH UW, semestr zimowy 2011-12 P.

Bardziej szczegółowo

Wstęp do metod numerycznych 9. Minimalizacja: funkcje jednej zmiennej. P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/

Wstęp do metod numerycznych 9. Minimalizacja: funkcje jednej zmiennej. P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ Wstęp do metod numerycznych 9. Minimalizacja: funkcje jednej zmiennej P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2011 Lokalna minimalizacja ciagła Minimalizacja funkcji jest jedna z najważniejszych

Bardziej szczegółowo

CIĄGI wiadomości podstawowe

CIĄGI wiadomości podstawowe 1 CIĄGI wiadomości podstawowe Jak głosi definicja ciąg liczbowy to funkcja, której dziedziną są liczby naturalne dodatnie (w zadaniach oznacza się to najczęściej n 1) a wartościami tej funkcji są wszystkie

Bardziej szczegółowo

II. FUNKCJE WIELU ZMIENNYCH

II. FUNKCJE WIELU ZMIENNYCH II. FUNKCJE WIELU ZMIENNYCH 1. Zbiory w przestrzeni R n Ustalmy dowolne n N. Definicja 1.1. Zbiór wszystkich uporzadkowanych układów (x 1,..., x n ) n liczb rzeczywistych, nazywamy przestrzenią n-wymiarową

Bardziej szczegółowo

Metody optymalizacji. notatki dla studentów matematyki semestr zimowy 2015/2016

Metody optymalizacji. notatki dla studentów matematyki semestr zimowy 2015/2016 Metody optymalizacji notatki dla studentów matematyki semestr zimowy 2015/2016 Aktualizacja: 11 stycznia 2016 Spis treści Spis treści 2 1 Wprowadzenie do optymalizacji 1 11 Podstawowe definicje i własności

Bardziej szczegółowo

Pochodna funkcji odwrotnej

Pochodna funkcji odwrotnej Pochodna funkcji odwrotnej Niech będzie dana w przedziale funkcja różniczkowalna i różnowartościowa. Wiadomo, że istnieje wówczas funkcja odwrotna (którą oznaczymy tu : ), ciągła w przedziale (lub zależnie

Bardziej szczegółowo

WYDAWNICTWO PAŃSTWOWEJ WYŻSZEJ SZKOŁY ZAWODOWEJ WE WŁOCŁAWKU

WYDAWNICTWO PAŃSTWOWEJ WYŻSZEJ SZKOŁY ZAWODOWEJ WE WŁOCŁAWKU WYDAWNICTWO PAŃSTWOWEJ WYŻSZEJ SZKOŁY ZAWODOWEJ WE WŁOCŁAWKU Karolina Kalińska MATEMATYKA: PRZYKŁADY I ZADANIA Włocławek 2011 REDAKCJA WYDAWNICTWA PAŃSTWOWEJ WYŻSZEJ SZKOŁY ZAWODOWEJ WE WŁOCŁAWKU Matematyka:

Bardziej szczegółowo

Metody numeryczne. Równania nieliniowe. Janusz Szwabiński.

Metody numeryczne. Równania nieliniowe. Janusz Szwabiński. Metody numeryczne Równania nieliniowe Janusz Szwabiński szwabin@ift.uni.wroc.pl nm_slides-9.tex Metody numeryczne Janusz Szwabiński 7/1/2003 20:18 p.1/64 Równania nieliniowe 1. Równania nieliniowe z pojedynczym

Bardziej szczegółowo

Oznacza to, że chcemy znaleźć minimum, a właściwie wartość najmniejszą funkcji

Oznacza to, że chcemy znaleźć minimum, a właściwie wartość najmniejszą funkcji Wykład 11. Metoda najmniejszych kwadratów Szukamy zależności Dane są wyniki pomiarów dwóch wielkości x i y: (x 1, y 1 ), (x 2, y 2 ),..., (x n, y n ). Przypuśćmy, że nanieśliśmy je na wykres w układzie

Bardziej szczegółowo

Elementy Modelowania Matematycznego

Elementy Modelowania Matematycznego Elementy Modelowania Matematycznego Wykład 8 Programowanie nieliniowe Spis treści Programowanie nieliniowe Zadanie programowania nieliniowego Zadanie programowania nieliniowego jest identyczne jak dla

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium Zadanie nr 3 Osada autor: A Gonczarek Celem poniższego zadania jest zrealizowanie fragmentu komputerowego przeciwnika w grze strategiczno-ekonomicznej

Bardziej szczegółowo

Znaleźć wzór ogólny i zbadać istnienie granicy ciągu określonego rekurencyjnie:

Znaleźć wzór ogólny i zbadać istnienie granicy ciągu określonego rekurencyjnie: Ciągi rekurencyjne Zadanie 1 Znaleźć wzór ogólny i zbadać istnienie granicy ciągu określonego rekurencyjnie: w dwóch przypadkach: dla i, oraz dla i. Wskazówka Należy poszukiwać rozwiązania w postaci, gdzie

Bardziej szczegółowo

Funkcja jednej zmiennej - przykładowe rozwiązania 1. Badając przebieg zmienności funkcji postępujemy według poniższego schematu:

Funkcja jednej zmiennej - przykładowe rozwiązania 1. Badając przebieg zmienności funkcji postępujemy według poniższego schematu: Funkcja jednej zmiennej - przykładowe rozwiązania Zadanie 4 c) Badając przebieg zmienności funkcji postępujemy według poniższego schematu:. Analiza funkcji: (a) Wyznaczenie dziedziny funkcji (b) Obliczenie

Bardziej szczegółowo

Wstęp do metod numerycznych 12. Minimalizacja: funkcje wielu zmiennych. P. F. Góra

Wstęp do metod numerycznych 12. Minimalizacja: funkcje wielu zmiennych. P. F. Góra Wstęp do metod numerycznych 12. Minimalizacja: funkcje wielu zmiennych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2015 Strategia minimalizacji wielowymiarowej Zakładamy, że metody poszukiwania minimów

Bardziej szczegółowo

Metody numeryczne. materiały do wykładu dla studentów. 7. Całkowanie numeryczne

Metody numeryczne. materiały do wykładu dla studentów. 7. Całkowanie numeryczne Metody numeryczne materiały do wykładu dla studentów 7. Całkowanie numeryczne 7.1. Całkowanie numeryczne 7.2. Metoda trapezów 7.3. Metoda Simpsona 7.4. Metoda 3/8 Newtona 7.5. Ogólna postać wzorów kwadratur

Bardziej szczegółowo

1 Równania nieliniowe

1 Równania nieliniowe 1 Równania nieliniowe 1.1 Postać ogólna równania nieliniowego Często występującym, ważnym problemem obliczeniowym jest numeryczne poszukiwanie rozwiązań równań nieliniowych, np. algebraicznych (wielomiany),

Bardziej szczegółowo

3. Funkcje wielu zmiennych

3. Funkcje wielu zmiennych 3 Funkcje wielu zmiennych 31 Ciagłość Zanim podamy definicję ciagłości dla funkcji wielu zmiennych wprowadzimy bardzo ogólne i abstrakcyjne pojęcie przestrzeni metrycznej Przestrzeń metryczna Metryka w

Bardziej szczegółowo

Pochodne funkcji wraz z zastosowaniami - teoria

Pochodne funkcji wraz z zastosowaniami - teoria Pochodne funkcji wraz z zastosowaniami - teoria Pochodne Definicja 2.38. Niech f : O(x 0 ) R. Jeżeli istnieje skończona granica f(x 0 + h) f(x 0 ) h 0 h to granicę tę nazywamy pochodną funkcji w punkcie

Bardziej szczegółowo

Następnie przypominamy (dla części studentów wprowadzamy) podstawowe pojęcia opisujące funkcje na poziomie rysunków i objaśnień.

Następnie przypominamy (dla części studentów wprowadzamy) podstawowe pojęcia opisujące funkcje na poziomie rysunków i objaśnień. Zadanie Należy zacząć od sprawdzenia, co studenci pamiętają ze szkoły średniej na temat funkcji jednej zmiennej. Na początek można narysować kilka krzywych na tle układu współrzędnych (funkcja gładka,

Bardziej szczegółowo

Wstęp do metod numerycznych Rozwiazywanie równań algebraicznych. P. F. Góra

Wstęp do metod numerycznych Rozwiazywanie równań algebraicznych. P. F. Góra Wstęp do metod numerycznych Rozwiazywanie równań algebraicznych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2010 Co to znaczy rozwiazać równanie? Przypuśmy, że postawiono przed nami problem rozwiazania

Bardziej szczegółowo

RACHUNEK RÓŻNICZKOWY FUNKCJI JEDNEJ ZMIENNEJ. Wykorzystano: M A T E M A T Y K A Wykład dla studentów Część 1 Krzysztof KOŁOWROCKI

RACHUNEK RÓŻNICZKOWY FUNKCJI JEDNEJ ZMIENNEJ. Wykorzystano: M A T E M A T Y K A Wykład dla studentów Część 1 Krzysztof KOŁOWROCKI RACHUNEK RÓŻNICZKOWY FUNKCJI JEDNEJ ZMIENNEJ Wykorzystano: M A T E M A T Y K A Wykład dla studentów Część 1 Krzyszto KOŁOWROCKI Przyjmijmy, że y (, D, jest unkcją określoną w zbiorze D R oraz niec D Deinicja

Bardziej szczegółowo

RÓWNANIA NIELINIOWE Maciej Patan

RÓWNANIA NIELINIOWE Maciej Patan RÓWNANIA NIELINIOWE Maciej Patan Uniwersytet Zielonogórski Przykład 1 Prędkość v spadającego spadochroniarza wyraża się zależnością v = mg ( 1 e c t) m c gdzie g = 9.81 m/s 2. Dla współczynnika oporu c

Bardziej szczegółowo

Wykład 4. Określimy teraz pewną ważną klasę pierścieni.

Wykład 4. Określimy teraz pewną ważną klasę pierścieni. Wykład 4 Określimy teraz pewną ważną klasę pierścieni. Twierdzenie 1 Niech m, n Z. Jeśli n > 0 to istnieje dokładnie jedna para licz q, r, że: m = qn + r, 0 r < n. Liczbę r nazywamy resztą z dzielenia

Bardziej szczegółowo

Zastosowania pochodnych

Zastosowania pochodnych Zastosowania pochodnych Zbigniew Koza Wydział Fizyki i Astronomii Wrocław, 2015 SZACOWANIE NIEPEWNOŚCI POMIAROWEJ Przykład: objętość kuli Kulka z łożyska tocznego ma średnicę 2,3 mm, co oznacza, że objętość

Bardziej szczegółowo

Funkcje dwóch zmiennych

Funkcje dwóch zmiennych Maciej Grzesiak Instytut Matematyki Politechniki Poznańskiej Funkcje dwóch zmiennych 1. Funkcje dwóch zmiennych: pojęcia podstawowe Definicja 1. Funkcją dwóch zmiennych określoną na zbiorze A R 2 o wartościach

Bardziej szczegółowo

Zestaw zadań przygotowujących do egzaminu z Matematyki 1

Zestaw zadań przygotowujących do egzaminu z Matematyki 1 Uniwersytet Ekonomiczny w Katowicach Wydział Finansów i Ubezpieczeń, Kierunek: Finanse i Zarządzanie w Ochronie Zdrowia Zestaw zadań przygotowujących do egzaminu z Matematyki 1 Powtórka materiału przed

Bardziej szczegółowo

Politechnika Wrocławska, Wydział Informatyki i Zarządzania. Optymalizacja

Politechnika Wrocławska, Wydział Informatyki i Zarządzania. Optymalizacja Politechnika Wrocławska, Wydział Informatyki i Zarządzania Optymalizacja Dla podanych niżej problemów decyzyjnych (zad.1 zad.5) należy sformułować zadania optymalizacji, tj.: określić postać zmiennych

Bardziej szczegółowo

3. FUNKCJA LINIOWA. gdzie ; ół,.

3. FUNKCJA LINIOWA. gdzie ; ół,. 1 WYKŁAD 3 3. FUNKCJA LINIOWA FUNKCJĄ LINIOWĄ nazywamy funkcję typu : dla, gdzie ; ół,. Załóżmy na początek, że wyraz wolny. Wtedy mamy do czynienia z funkcją typu :.. Wykresem tej funkcji jest prosta

Bardziej szczegółowo

ANALIZA MATEMATYCZNA Z ELEMENTAMI STATYSTYKI MATEMATYCZNEJ

ANALIZA MATEMATYCZNA Z ELEMENTAMI STATYSTYKI MATEMATYCZNEJ ANALIZA MATEMATYCZNA Z ELEMENTAMI STATYSTYKI MATEMATYCZNEJ FUNKCJE DWÓCH ZMIENNYCH RZECZYWISTYCH Definicja 1. Niech A będzie dowolnym niepustym zbiorem. Metryką w zbiorze A nazywamy funkcję rzeczywistą

Bardziej szczegółowo

Optymalizacja Ci gªa

Optymalizacja Ci gªa Institute of Computing Science Poznan University of Technology Optymalizacja Ci gªa Rozszerzenia SGD Mateusz Lango Michaª Kempka June 13, 2018 Gradient Descent - przypomnienie 1 x t+1 = x t η f (x t )

Bardziej szczegółowo

2. Optymalizacja jednowymiarowa

2. Optymalizacja jednowymiarowa . Optymalizacja jednowymiarowa.1 Metody bezgradientowe Metodami bezgradientowymi nazywamy algorytmy optymalizacyjne, które, jak sama nazwa wskazuje, nie wykorzystają informacji o gradiencie (pochodnej).

Bardziej szczegółowo

Metody eksploracji danych 2. Metody regresji. Piotr Szwed Katedra Informatyki Stosowanej AGH 2017

Metody eksploracji danych 2. Metody regresji. Piotr Szwed Katedra Informatyki Stosowanej AGH 2017 Metody eksploracji danych 2. Metody regresji Piotr Szwed Katedra Informatyki Stosowanej AGH 2017 Zagadnienie regresji Dane: Zbiór uczący: D = {(x i, y i )} i=1,m Obserwacje: (x i, y i ), wektor cech x

Bardziej szczegółowo

Wprowadzenie Metoda bisekcji Metoda regula falsi Metoda siecznych Metoda stycznych RÓWNANIA NIELINIOWE

Wprowadzenie Metoda bisekcji Metoda regula falsi Metoda siecznych Metoda stycznych RÓWNANIA NIELINIOWE Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać ogólna równania nieliniowego Zazwyczaj nie można znaleźć

Bardziej szczegółowo

1 Nierówność Minkowskiego i Hoeldera

1 Nierówność Minkowskiego i Hoeldera 1 Nierówność Minkowskiego i Hoeldera Na państwa użytek załączam precyzyjne sformułowania i dowody nierówności Hoeldera i Minkowskiego: Twierdzenie 1.1 Nierówność Hoeldera). Niech p, q będą takimi liczbami

Bardziej szczegółowo

Metody numeryczne. materiały do wykładu dla studentów

Metody numeryczne. materiały do wykładu dla studentów Metody numeryczne materiały do wykładu dla studentów 5. Przybliżone metody rozwiązywania równań 5.1 Lokalizacja pierwiastków 5.2 Metoda bisekcji 5.3 Metoda iteracji 5.4 Metoda stycznych (Newtona) 5.5 Metoda

Bardziej szczegółowo

Rachunek różniczkowy funkcji dwóch zmiennych

Rachunek różniczkowy funkcji dwóch zmiennych Rachunek różniczkowy funkcji dwóch zmiennych Definicja Spis treści: Wykres Ciągłość, granica iterowana i podwójna Pochodne cząstkowe Różniczka zupełna Gradient Pochodna kierunkowa Twierdzenie Schwarza

Bardziej szczegółowo

ANALIZA MATEMATYCZNA

ANALIZA MATEMATYCZNA ANALIZA MATEMATYCZNA TABLICE Spis treści: 1.) Pochodne wzory 2 2.) Całki wzory 3 3.) Kryteria zbieżności szeregów 4 4.) Przybliżona wartość wyrażenia 5 5.) Równanie płaszczyzny stycznej i prostej normalnej

Bardziej szczegółowo

Wykłady z matematyki inżynierskiej EKSTREMA FUNKCJI. JJ, IMiF UTP

Wykłady z matematyki inżynierskiej EKSTREMA FUNKCJI. JJ, IMiF UTP Wykłady z matematyki inżynierskiej EKSTREMA FUNKCJI JJ, IMiF UTP 05 MINIMUM LOKALNE y y = f () f ( 0 ) 0 DEFINICJA. Załóżmy, że funkcja f jest określona w pewnym otoczeniu punktu 0. MINIMUM LOKALNE y y

Bardziej szczegółowo

WKLĘSŁOŚĆ I WYPUKŁOŚĆ KRZYWEJ. PUNKT PRZEGIĘCIA.

WKLĘSŁOŚĆ I WYPUKŁOŚĆ KRZYWEJ. PUNKT PRZEGIĘCIA. WKLĘSŁOŚĆ I WYPUKŁOŚĆ KRZYWEJ. PUNKT PRZEGIĘCIA. Załóżmy, że funkcja y f jest dwukrotnie różniczkowalna w Jeżeli Jeżeli przedziale a;b. Punkt P, f nazywamy punktem przegięcia funkcji y f wtedy i tylko

Bardziej szczegółowo

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać układu równań liniowych Układ liniowych równań algebraicznych

Bardziej szczegółowo

Programowanie liniowe

Programowanie liniowe Badania operacyjne Problem Model matematyczny Metoda rozwiązania Znaleźć optymalny program produkcji. Zmaksymalizować 1 +3 2 2 3 (1) Przy ograniczeniach 3 1 2 +2 3 7 (2) 2 1 +4 2 12 (3) 4 1 +3 2 +8 3 10

Bardziej szczegółowo

Notatki z Analizy Matematycznej 3. Jacek M. Jędrzejewski

Notatki z Analizy Matematycznej 3. Jacek M. Jędrzejewski Notatki z Analizy Matematycznej 3 Jacek M. Jędrzejewski ROZDZIAŁ 6 Różniczkowanie funkcji rzeczywistej 1. Pocodna funkcji W tym rozdziale rozważać będziemy funkcje rzeczywiste określone w pewnym przedziale

Bardziej szczegółowo

jeśli nie jest spełnione kryterium zatrzymania, to nowym punktem roboczym x(t+1) staje i następuje przejście do 1)

jeśli nie jest spełnione kryterium zatrzymania, to nowym punktem roboczym x(t+1) staje i następuje przejście do 1) Metody automatycznej optymalizacji cz.i metody dwufazowe Święta Wielkanocne już za nami, tak więc bierzemy się wspólnie do pracy. Ostatnim razem dokonaliśmy charakterystyki zadań optymalizacji i wskazaliśmy

Bardziej szczegółowo

Optymalizacja (minimalizacja) funkcji. Plan wykładu: 1. Sformułowanie problemu, funkcja celu. 2. Metody bezgradientowe

Optymalizacja (minimalizacja) funkcji. Plan wykładu: 1. Sformułowanie problemu, funkcja celu. 2. Metody bezgradientowe Optymalizacja (minimalizacja) funkcji Plan wykładu: 1. Sformułowanie problemu, funkcja celu. Metody bezgradientowe a) metoda złotego podziału b) metoda sympleks c) metoda interpolacji Powell'a 3. Metody

Bardziej szczegółowo