5. Metody Newtona. 5.1 Wzór Taylora
|
|
- Wiktoria Maria Barańska
- 4 lat temu
- Przeglądów:
Transkrypt
1 5. Metody Newtona Na ostatnich zajęciach zidentyfikowaliśmy ważny problem poznanych dotychczas metod (Gaussa-Seidel a, Cauchy iego, spadku wzdłuż gradientu, stochastycznego spadku wzdłuż gradientu): ich zbieżność staje się znacznie wolniejsza dla problemów o wysokim współczynniku uwarunkowania. Na dzisiejszych laboratoriach poznamy metodę która dobrze radzi sobie z tego typu problemami poprzez stosowanie odpowiedniego przybliżenia funkcji funkcją kwadratową. 5.1 Wzór Taylora Rozpocznijmy od przypomnienia aparatu matematycznego, który pozwala nam na przybliżanie funkcji wielomianem w danym punkcie - mowa tu oczywiście o wzorze Taylora. Ta technika była już wcześniej przez nas stosowana, chociaż nie wprost. Na przykład intuicje, że pochodna jest liniowym przybliżeniem funkcji w okolicach pewnego punktu x 0 można zbudować na podstawie tego wzoru (zamiast naszej długiej opowieści w skrypcie do drugich laboratoriów). Jak się okaże, dotychczas poznawane przez nas algorytmy można spostrzegać jako właśnie algorytmy przybliżające sobie lokalnie optymalizowaną funkcję funkcją liniową. Rozdział ten jest niezwykle ważny, ponieważ w niedalekiej przyszłości pozwoli nam na konstrukcje algorytmów optymalizacyjnych, które przybliżają funkcję lepiej niż linią prostą! Definicja 5.1 Twierdzenie Taylora. Niech K 1 będzie liczbą całkowitą, a funkcja f będzie K razy różniczkowalna w punkcie x 0, wtedy istnieje taka funkcja h K że f = K ( (x x0 ) k ) f (k) (x 0 ) + h K (x x 0 ) K k=0 k! a lim x x0 h K = 0 (reszta dąży do 0 gdy x dąży do x 0 przybliżenie lokalne).
2 2 Laboratorium 5. Metody Newtona Jak zbudować przybliżenie funkcji korzystając z tego twierdzenia? Na początku musisz ustalić jakiś punkt x 0 wokół którego budujesz przybliżenie. Pamiętaj, że tak zbudowane przybliżenie jest dobre tylko w okolicach tego punktu, powinieneś więc wybrać takie x 0 które jest stosunkowo najbliższe xom dla których będziesz chciał przybliżyć sobie wartość funkcji. Po wybraniu tego punktu obliczmy wartość pochodnej w punkcie x 0 oraz tyle pochodnych ile tylko jesteśmy w stanie obliczyć rozbudowując nasz wzór. Im więcej ich dodamy tym nasze przybliżenie będzie lepsze. f K ( (x x0 ) k ) f (k) (x 0 ) k=0 k! = (x x 0) 0 0! f (x 0 ) + (x x 0) 1 1! f (x 0 ) + (x x 0) 2 2! = f (x 0 ) + (x x 0 ) f (x 0 ) (x x 0) (x 0 ) +... f (x 0 ) +... = f (x 0 ) +x f (x }{{} 0 ) x }{{} 0 f (x 0 ) + 1 }{{} (x 0 ) x 2 xx 0 f (x 0 ) +x }{{}}{{} 0 (x 0 ) +... }{{} stała stała stała stała stała stała Zwróć uwagę, że po ustaleniu punktu x 0 wokół którego budujemy przybliżenie oraz obliczeniu jego pochodnych otrzymujemy przybliżenie funkcji wielomianem stopnia K! Jak podejrzewasz może być to niezwykle użyteczne, bo dowolną 1 funkcję możesz w taki sposób przybliżyć wielomianem, który najczęściej jest łatwiejszy w obliczeniach (i w optymalizacji, jeśli jest niskiego rzędu!). Ustalając K = 1 otrzymujemy przybliżenie funkcji poprzez pierwszą pochodną: f 1 k=0 ( (x x0 ) k k! ) f (k) (x 0 ) = (x x 0) 0 f (x 0 )+ (x x 0) 1 f (x 0 ) = f (x 0 )+ f (x 0 )(x x 0 ) 0! 1! Jest to przybliżeniem wielomianem stopnia 1 czyli funkcją liniową. Warto zauważyć, że jest to dokładnie wzór stycznej do funkcji, który wyprowadzaliśmy na poprzednich laboratoriach! Przykład 5.1 Przybliżmy sobie funkcję f = 5x 2 +10x+5 poprzez linię prostą wokół punktu x 0 = 1. Z treści zadania wynika, że K = 1. Otrzymujemy więc z twierdzenia Taylora f f (x 0 ) + f (x 0 )(x x 0 ) = f (1) + f (1)(x 1) Obliczamy pochodną oraz wartość funkcji w punkcie x 0 = 1 f (1) = = 20 f = 10x + 10 f (1) = = 20 Podstawiając do wzoru otrzymujemy: f (x 1) = x 20 = 20x 1 St. z o.o. stwierdzenie z ograniczoną odpowiedzialnością
3 5.1 Wzór Taylora 3 Przykład 5.2 Przybliżmy sobie tę samą funkcję f = 5x x + 5, ale tym razem przyjmując K = 2. Z twierdzenia Taylora: f f (x 0 ) + f (x 0 )(x x 0 ) + (x x 0) 2 f (x 0 ) = f (1) + f (1)(x 1) + 2! Obliczmy tylko brakującą wartość drugiej pochodnej: Podstawiając do wzoru otrzymujemy: f = (10x + 10) = 10 f (1) = 10 f f (1) + f (x 1)2 (1)(x 1) + f (1) 2 (x 1)2 = (x 1) = x (x 1) 2 = 20x + 5(x 2 2x + 1) = 20x + 5x 2 10x + 5 = 5x x + 5 (x 1)2 2 f (1) Czyli dostaliśmy oryginalną funkcję f! Cóż, najlepsze przybliżenie wielomianu stopnia 2 poprzez wielomian stopnia 2 to ten sam wielomian ;) Pochodne w ekstremach W lokalnym minimum lub maksimum pochodna funkcji wynosi zawsze 0. Jednak pamiętaj, że zerowa wartość pochodnej może także sygnalizować np. punkt siodłowy - nie jest to więc ostateczny wskaźnik, że funkcja osiąga ekstremum. Typ punktu podejrzanego o bycie ekstremum możemy zweryfikować poprzez obliczenie kolejnych pochodnych Jeśli druga pochodna jest dodatnia to funkcja osiąga swoje minimum (pamiętasz warunek wypukłości?) Jeśli druga pochodna jest ujemna to funkcja osiąga swoje maksimum Jeśli druga pochodna jest równa 0 to... masz kłopoty!!! Musisz policzyć kolejne pochodne, aż znajdziesz pierwszą, która się nie zeruje. Jeśli jest to pochodna rzędu nieparzystego to nie jest to ekstremum Jeśli jest to pochodna rzędu parzystego to interpretujesz ją jak drugą pochodną Przykład 5.3 Z jakim typem punktu mamy do czynienia w x = 0 funkcji f = x 3? Obliczmy pierwszą pochodną f = 2x 2 f (0) = 0 Widzimy, że funkcja w danym punkcie ani nie rośnie ani nie maleje. Obliczmy więc drugą pochodną, aby ustalić typ punktu... f = 6x f (0) = 0 Co za pech! Druga pochodna się zeruje, więc nie jesteśmy w stanie określić typu punktu... Obliczmy kolejną pochodną f = 6 f (0) = 6
4 4 Laboratorium 5. Metody Newtona Pierwsza pochodna, która nie wynosi 0 jest trzeciego (czyli nieparzystego) rzędu. Funkcja nie osiąga ekstremum w tym punkcie. Twierdzenie 5.1 Jeśli funkcja f jest wypukła to warunek f = 0 jest wystarczający, by stwierdzić, że jest to lokalne/globalne minimum. Powyższe twierdzenie dla funkcji ściśle wypukłych jest proste do udowodnienia używając naszych wcześniej zdefiniowanych reguł. Jak dowiedzieliśmy się na drugich laboratoriach, jednym z warunków ścisłej wypukłości jest f > 0, więc wiemy że jeśli f = 0 to f > 0 czyli mamy minimum. Dla funkcji (nieściśle) wypukłych dowód można znaleźć w Internecie. 5.2 Algorytm spadku wzdłuż gradientu (znowu) Jedną z naszych intuicji dot. algorytmu spadku wzdłuż gradientów była ta, że w każdym kroku konstruuje on liniowe przybliżenia funkcji i je minimalizuje (patrz Laboratorium 3). Przypomnijmy, że równanie stycznej skonstruowane wokół punktu x 0 wygląda następująco: g = f (x 0 ) + f (x 0 ) T (x x 0 ) Ponieważ algorytm spadku wzdłuż gradientu w każdej swojej iteracji oblicza gradient f (x 0 ) to w zasadzie w każdej iteracji możemy skonstruować sobie liniowe przybliżenie funkcji. Funkcje liniowe są stosunkowo proste w optymalizacji, w przeciwieństwie do naszej (zwykle nieliniowej) funkcji celu. Jeśli więc f g to zamiast optymalizować trudne f optymalizujemy jej liniowe i łatwe w optymalizacji przybliżenie g. Wiemy, że aby znaleźć minimum unkcji liniowej to przy funkcji rosnącej znajduje się ono skrajnie w lewo ( ), a dla funkcji malejącej musimy go szukać jak najbardziej w prawo. Jednak takie postawienie problemu doprowadziłoby nas do algorytmu który po zobaczeniu liniowego przybliżenia ląduje w ±. Cały szkopuł polega jednak na tym, że g dobrze przybliża naszą funkcję celu jedynie lokalnie tj. w pewnej małej okolicy wokół punktu dla którego to przybliżenie skonstruowano. Jeśli więc zrobimy zbyt daleki krok (a już na pewno jak zrobimy krok do ) narażamy się na bardzo duży błąd przybliżenia. W każdej iteracji chcielibyśmy więc z jednej strony skorzystać z naszego przybliżenia tak bardzo jak się tylko da, minimalizując nasze g. Jednocześnie, żeby nadal mieć nadzieję, że g f chcemy wykonać możliwie mały krok. Konkretnie, chcemy aby odległość x x 0 pomiędzy wybranym minimum lokalnego przybieżenia x a punktem wokół którego to przybliżenie skonstruowaliśmy x 0 była jak najmniejsza. W każdej iteracji wybieramy więc takie kolejne x, aby minimalizowało ono wyrażenie: min η ( f (x 0 ) + f (x 0 ) T (x x 0 ) ) + 1 x }{{} 2 x x 0 2 }{{} odległość od x 0 nasze przybliżenie gdzie η jest parametrem regulującym przetarg pomiędzy jak największym zminimalizowaniem naszej funkcji a wybraniem punktu bliskiego x 0. Czy ten problem optymalizacyjny 2 Formalnie minimum nie istnieje
5 5.3 Metoda Newtona-Raphsona 5 a) b) Rysunek 5.1: a) Dwa kroki metody spadku gradientu używającej przybliżenia liniowego oraz b) krok metody Newtona używającej przybliżenia kwadratowego. Gdyby zastosować przybliżenie kwadratowe do funkcji kwadratowej na rysunku a) to osiągnęlibyśmy minimum w jednym kroku (minimalizacja przybliżenia to minimalizacja funkcji) [2, 1]. jest problemem wypukłym? Oczywiście tak, co możemy szybko zobaczyć poprzez operacje zachowujące wypukłość. Nasze przybliżenie jest liniowe (wypukłe), dowolna norma jest wypukła, a suma z dodatnimi współczynnikami zachowuje wypukłość. Zobaczmy ile powinno wynosić nasze nowe x, które minimalizuje to wyrażenie poprzez policzenie gradientu i przyrównanie go do wektora zer 3. (η ( f (x 0 ) + f (x 0 ) T (x x 0 ) ) + 12 ) x x 0 2 = η f (x 0 ) + (x x 0 ) η f (x 0 ) + x x 0 = 0 η f (x 0 ) x 0 = x x = x 0 η f (x 0 ) Uzyskaliśmy więc dokładnie algorytmu spadku wzdłuż gradientu. Algorytm więc możemy interpretować jako konstruowanie lokalnego liniowego przybliżenia w każdej kolejnej iteracji oraz optymalizowanie tego łatwego w optymalizacji przybliżenia zamiast oryginalnego problemu optymalizacyjnego. Powstaje więc niezręczne pytanie. Czy naprawdę limit możliwości studentów naszej kochanej Politechniki to konstruowanie liniowych przybliżeń funkcji? Oczywiście, że nie! Tak jak przypominaliśmy to sobie kilka tygodni temu: potrafimy konstruować przybliżenia poprzez funkcje kwadratowe i wyższych rzędów poprzez wykorzystanie twierdzenia Taylora. Zobaczmy jak możemy je wykorzystać w optymalizacji. 5.3 Metoda Newtona-Raphsona Skonstruujmy więc przybliżenie funkcji celu korzystając z szeregu Taylora f f (x 0 ) + f (x 0 ) T (x x 0 ) + 1 }{{} 2 (x x 0) T (x 0 )(x x 0 ) nasze stare przybliżenie liniowe Podobnie jak w przypadku algorytmu spadku wzdłuż gradientu, będziemy w każdej iteracji budować lokalne przybliżenie funkcji g wokół naszego aktualnego punktu 3 Nie trzeba sprawdzać dalej drugiej pochodnej, bo wiemy że problem jest wypukły. Przypominam też, że ze względu na liczenie gradientu względem x wyrażenie f (x 0 ) jest pewną stałą.
6 6 Laboratorium 5. Metody Newtona x 0. Przybliżenie to będzie tym razem funkcją kwadratową, co będzie nam pozwalało na większą dokładność. Następnie wierząc, że nasze g f będziemy optymalizować nasze przybliżenie g trzymając kciuki, że jednocześnie optymalizujemy f. W przypadku funkcji liniowej musieliśmy się trochę namęczyć poprzez uwzględnienie przetargu pomiędzy minimalizacją naszego przybliżenia a jego jakością (bliskością kolejnego x), ponieważ jej minimum 4 znajduje się w nieskończoności. Funkcja kwadratowa jest o tyle sympatyczna, że jej minimum jest określone - po prostu więc ją zminimalizujmy. Znajdźmy minimum naszego przybliżenia funkcji g poprzez przyrównanie gradientu do wektora zer oraz zakładając, że jest ono funkcją wypukłą 5. Rozpocznijmy od policzenia gradientu: ( g = f (x 0 ) + f (x 0 ) T (x x 0 ) + 1 ) 2 (x x 0) T (x 0 )(x x 0 ) = f (x 0 ) + f (x }{{} 0 ) T x f (x 0 ) T x }{{} 2 (x x 0) T (x 0 )(x x 0 ) stała stała = 0 + ( f (x 0 ) T x ) }{{} 2 ( (x x 0 ) T (x 0 )(x x 0 ) ) }{{} a T x=a x T Ax=(A+A T )x = f (x 0 ) + 1 ( (x 0 ) + ( (x 0 ) ) T ) (x x 0 ) /wiemy że hesjan jest symetryczny/ 2 }{{} =2 (x 0 ) = f (x 0 ) + (x 0 )(x x 0 ) Przyrównujemy gradient do zera (funkcja jest wypukła, więc jest to wystarczające). f (x 0 ) + (x 0 )(x x 0 ) = 0 (x 0 )(x x 0 ) = f (x 0 ) x x 0 = [ (x 0 ) ] 1 f (x0 ) x = x 0 [ (x 0 ) ] 1 f (x0 ) Rezultatem tego jest nowy algorytm, który wykorzystuje przybliżenie funkcją kwadratową! Nazywamy go metodą Newtona-Raphsona. Algorytm 5.1 Metoda Newtona-Raphsona. while warunek stopu nie jest spełniony do x x [ ] 1 f end while x INICJALIZUJ Przesuń x w kierunku minimum W algorytmie spadku wzdłuż gradientu musieliśmy mieć współczynnik η, który kontrolował nam długość kroku. Było to konieczne, ponieważ liniowe przybliżenie miało swoje minimum w ± nie mogliśmy więc bezpośrednio założyć prawdziwości przybliżenia i go bezpośrednio zminimalizować. Taką bezpośrednią optymalizację możemy zrobić z przybliżeniem kwadratowym: w każdej iteracji tworzymy funkcję kwadratową przybliżającą naszą funkcję i skaczemy do jej optimum. Zwróć uwagę, że odwrotność Hesjanu 4 St. z o. o. 5 Z warunków wypukłości wiemy, że druga pochodna jest nieujemna. Tutaj: hesjan jest dodatnio półokreślony.
7 5.3 Metoda Newtona-Raphsona 7 pełni jakby funkcję samo dostosowującego się η czyli szybkości optymalizacji. Nie jest więc konieczny żaden parametr Hesjan Póki co bardzo sympatycznie wpisaliśmy sobie do wzoru (x 0 ). Jednak co to jest? Żeby zaatakować funkcje wielowymiarowe zwracające jedną wartość potrzebowaliśmy całego wektora pochodnych (gradient). Co więc pojawi się gdy chcemy policzyć pochodne drugiego rzędu? Macierz. Macierz ta jest macierzą kwadratową, (zwykle) symetryczną, zawierającą wszystkie możliwe pochodne drugiego rzędu. Nazywamy ją Hesjanem. Definicja 5.2 Hesjan. Hesjanem nazywamy macierz x 2 x 1 1 x 2 x 1 x n H = x 2 x 1 x2 2 x 2 x n x n x 1 x n x 2 xn 2! Zapamiętaj, że i-ty wiersz Hesjanu zwiera wszystkie drugie pochodne policzone z pierwszej pochodnej po x i. Przykład 5.4 Wyznacz Hesjan funkcji f (x,y) = x 2 + 3xy + 5y 3. Wyznaczmy najpierw gradient: [ ] f [ ] f = x 2x + 3y f = 3x + 15y 2 y Następnie policzmy drugie pochodne z pierwszej pochodnej po x: oraz po y: Wpisując to do macierzy: f x x = (2x + 3y) = 2 x f x y = (2x + 3y) = 3 y f y x = x (3x + 15y2 ) = 3 f y y = y (3x + 15y2 ) = 30y (x,y) H(x,y) = x 2 x y (x,y) x y (x,y) 2 = f (x,y) y 2 [ ] y
8 8 Laboratorium 5. Metody Newtona Zwróć uwagę, że liczenie jednej z pochodnych x y lub y x było zbędne ponieważ wiemy, że macierz jest symetryczna Przykład: regresja liniowa Kontynuując nasz przykład z poprzedniego laboratorium, zobaczmy jak wygląda algorytm Newtona dla problemu regresji liniowej. Przypomnijmy, że w problemie regresji liniowej minimalizujemy: min θ Wymnażając otrzymujemy 7 L(θ) = N i=1 (y i x T i θ) 2 = (y Xθ) T (y Xθ) L(θ) = y T y y T Xθ (Xθ) T y + (Xθ) T Xθ = y T y 2y T Xθ + θ T X T Xθ Obliczając gradient otrzymujemy: θ L(θ) = 2X T y + 2X T Xθ Dalej musimy obliczyć Hesjan. Pierwszy term gradientu znika, ponieważ nie występuje tam zmienna θ po której liczymy pochodną. Drugi term zależy od θ liniowo czyli H(θ) = 2X T X Krok naszej metody wygląda następująco x x [ ] 1 f. Zauważ więc, że w naszej metodzie Hesjan nie tylko trzeba obliczyć, ale także trzeba go jeszcze odwrócić. [H(θ)] 1 = 1 2 (XT X) 1 Ostatecznie więc krok metody Newtona dla regresji liniowej wygląda następująco θ θ 1 2 (XT X) 1 ( 2X T y + 2X T Xθ) Moglibyśmy więc już skończyć w tym miejscu, ale dla spokoju ducha przemnóżmy ten wzór. θ θ 1 2 (XT X) 1 ( 2X T y + 2X T Xθ) θ 1 2 (XT X) 1 ( 2X T y) 1 2 (XT X) 1 2X T Xθ θ + (X T X) 1 X T y (X T X) 1 X T X }{{} θ macierz razy jej odwrotność θ + (X T X) 1 X T y θ (X T X) 1 X T y 6 Hesjan jest symetryczny dla funkcji o ciągłych drugich pochodnych czyli w zdecydowanej większości praktycznych przypadków. Na tym przedmiocie możesz spokojnie założyć, że Hesjan jest zawsze symetryczny. Warunki symetryczności Hesjanu są określone w twierdzeniu Schwarza. 7 Jeśli tego nie pamiętasz to wróć się do skryptu z Laboratorium 3
9 5.4 Metoda Levenberga-Marquardta 9 Rysunek 5.2: Zachowanie metody Newtona na funkcji wypukłej oraz funkcji niewypukłej. Dla funkcji niewypukłej Hesjan nie jest zawsze dodatnio półokreślony, więc punktem zerowania się pierwszej pochodnej może być maksimum (metoda zaczyna maksymalizować!) [1]. Po przemnożeniu nasza aktualizacja stała się przypisywaniem pewnej stałej (do θ już nic nie dodajemy!). Ale zaraz... jeśli przypomnisz sobie nasze rozwiązanie metodami analitycznymi to jest to dokładnie rozwiązanie problemu regresji liniowej. Stało się tak dlatego, że funkcja optymalizowana w regresji liniowej jest funkcją kwadratową. Metoda Newtona w jednym swoim kroku minimalizuje skonstruowane przybliżenie kwadratowe funkcji celu. W przypadku kwadratowej funkcji celu jej kwadratowe przybliżenie jest dokładnie tę samą funkcją, więc minimalizacja przybliżenia wiąże się z minimalizacją funkcji celu w jednym kroku! 5.4 Metoda Levenberga-Marquardta Metoda Newtona minimalizuje w jednym kroku kwadratowe przybliżenie funkcji. No właśnie czy aby minimalizowała? Z chwilą gdy wyprowadzaliśmy metodę Newtona przyrównaliśmy pierwszą pochodną do zera i znaleźliśmy punkt stacjonarny. Następnie założyliśmy, że nie musimy sprawdzać czy jest to minimum ponieważ funkcja jest wypukła. Gdyby więc optymalizowana funkcja nie była funkcją wypukłą nie ma żadnej gwarancji, że krok wykonany przez metodę Newtona zamiast minimum nie znajduje... maksimum 8. Metoda więc zamiast szukać minimum nagle zaczyna szukać maksimum! Taką sytuacje dobrze obrazuje rysunek 5.2. Dodatkowo, nawet w przypadku funkcji wypukłych może się zdarzyć, że Hesjan będzie macierzą nieodwracalną. Z warunków wypukłości wiemy, że Hesjan będzie macierzą 8 Dla funkcji wieluzmiennych możemy także wykonać test sprawdzający czy jest to minimum poprzez obliczenie drugiej pochodnej czyli w tym przypadku Hesjanu. Jeżeli Hesjan jest dodatnio określony (wszystkie wartości własne są dodatnie) to funkcja osiąga swoje minimum.
10 10 Laboratorium 5. Metody Newtona Rysunek 5.3: Funkcja z punktem siodłowym h 1, funkcja kwadratowa zbudowana na macierzy jednostkowej h 2 oraz suma funkcji h 1 + εh 2 gdzie ε został tutaj dobrany na wartość [1] dodatnio półokreśloną i to pół nas może zaboleć. Oznacza to, że macierz potencjalnie nie musi być dodatnio określona i może się zdarzyć że któraś z jej wartości własnych będzie zerowa (czyli macierz będzie nieodwracalna 9 ). Co zrobić w takiej sytuacji? Z pomocą przychodzi nam metoda Levenberga-Marquardta. Pomysł jest następujący: jeżeli przybliżenie kwadratowe funkcji nie jest wypukłe (czyli ma maksimum, a nie minimum) to... na siłę zróbmy je wypukłe! Jak to osiągniemy? Do przybliżenia kwadratowego funkcji będziemy dodawać standardową, symetryczną wielowymiarową parabolę (wg. niektórych lecący nabój rozcinający powietrze). Taka parabola ma wzór: x x = x T Ix gdzie I jest oczywiście macierzą jednostkową. Dodajemy taką parabolę z pewną wagą do naszego kwadratowego przybliżenia, aby w końcu uzyskać funkcję wypukłą. Przy dostatecznie dużej wadze nasza parabola zdominuje wklęsły kształt przybliżenia i sprawi, żeby był on na powrót wypukły. Oczywiście powinniśmy wybrać możliwie jak najmniejszą wagą, aby niezniekształcać przybliżenia bardziej niż to konieczne. Przykład takiego dodawania paraboli zilustrowano na rysunku 5.3. Algorytm 5.2 Metoda Levenberga-Marquardta. x INICJALIZUJ while warunek stopu nie jest spełniony do x x ( [ ] + ε k I) 1 f Przesuń x w kierunku minimum end while Zauważ, że w przypadku problemów z nieodwracalnym Hesjanem funkcji wypukłej wystarczy dodać parabolę z bardzo małą wagą ε k. Macierz ta ma najmniejszą wartość własną równą zero, więc po dodaniu paraboli natychmiast ta wartość własna odbije się od zera i stanie się macierzą odwracalną. Dla funkcji wypukłych zalecaną wartością jest więc np. ε k = Dla funkcji niewypukłych należy zwiększać wagę ε k tak długo, aż najmniejsza jej wartość własna nie znajdzie się powyżej zera. Dodatkowo, ponieważ przybliżenie kwadratowe może być dużo mniej wiarygodne dla funkcji niewypukłych, zaleca się dodatkowo wpro- 9 Wyznacznik macierzy to iloczyn jej wartości własnych. Wystarczy jedno zero, aby wyzerować iloczyn.
11 BIBLIOGRAFIA 11 wadzenie parametru szybkości optymalizacji η aby kontrolować wielkość wykonywanego kroku. Literatura Literatura powtórkowa Opis metody Newtona można znaleźć w praktycznie każdej książce do optymalizacji np. [3]. Literatura dla chętnych Hesjan jest dla problemów wielowymiarowych olbrzymią macierzą przez co zarówno jego odwracanie jak i przechowywanie w pamięci jest często niemożliwe. Z tego powodu stosuje się metody quasi-newtonowskie, które starają się przybliżać od razu odwrotność Hesjanu (nie trzeba wtedy odwracać:). Taką metodą jest np. L-BFGS, które nie wymaga strojenia szybkości optymalizacji (jak spadek gradientu), a z drugiej strony nie jest tak kosztowna obliczeniowo jak metoda Newtona. Zapoznaj się z opisem tej metody: http: //aria42.com/blog/2014/12/understanding-lbfgs Bibliografia [1] Newton s method Mathematical Optimization ). io/mlrefined/blog_posts/mathematical_optimization/part_5_newtons_ method.html. Dostęp: [2] Stochastic Gradient Descent: Mini-batch and more (Adventures in Machine Learning ). stochastic-gradient-descent/. Dostęp: [3] Jacek Stadnicki. Teoria i praktyka rozwi azywania zadań optymalizacji z przykładami zastosowań technicznych. Wydawnictwo Naukowo-Techniczne, 2006.
Optymalizacja ciągła
Optymalizacja ciągła 5. Metody kierunków poparwy (metoda Newtona-Raphsona, metoda gradientów sprzężonych) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.03.2019 1
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 4. Metody kierunków poprawy (metoda spadku wzdłuż gradientu) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 21.03.2019 1 / 41 Plan wykładu Minimalizacja
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 1. Optymalizacja funkcji jednej zmiennej Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.02.2019 1 / 54 Plan wykładu Optymalizacja funkcji jednej
Bardziej szczegółowo1 Metody rozwiązywania równań nieliniowych. Postawienie problemu
1 Metody rozwiązywania równań nieliniowych. Postawienie problemu Dla danej funkcji ciągłej f znaleźć wartości x, dla których f(x) = 0. (1) 2 Przedział izolacji pierwiastka Będziemy zakładać, że równanie
Bardziej szczegółowoZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ
ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ Maciej Patan Uniwersytet Zielonogórski WSTEP Zadanie minimalizacji bez ograniczeń f(ˆx) = min x R nf(x) f : R n R funkcja ograniczona z dołu Algorytm rozwiazywania Rekurencyjny
Bardziej szczegółowo1 Pochodne wyższych rzędów
Pochodne wyższych rzędów Pochodną rzędu drugiego lub drugą pochodną funkcji y = f(x) nazywamy pochodną pierwszej pochodnej tej funkcji. Analogicznie definiujemy pochodne wyższych rzędów, jako pochodne
Bardziej szczegółowoMetody numeryczne I Równania nieliniowe
Metody numeryczne I Równania nieliniowe Janusz Szwabiński szwabin@ift.uni.wroc.pl Metody numeryczne I (C) 2004 Janusz Szwabiński p.1/66 Równania nieliniowe 1. Równania nieliniowe z pojedynczym pierwiastkiem
Bardziej szczegółowoIteracyjne rozwiązywanie równań
Elementy metod numerycznych Plan wykładu 1 Wprowadzenie Plan wykładu 1 Wprowadzenie 2 Plan wykładu 1 Wprowadzenie 2 3 Wprowadzenie Metoda bisekcji Metoda siecznych Metoda stycznych Plan wykładu 1 Wprowadzenie
Bardziej szczegółowoKADD Minimalizacja funkcji
Minimalizacja funkcji n-wymiarowych Forma kwadratowa w n wymiarach Procedury minimalizacji Minimalizacja wzdłuż prostej w n-wymiarowej przestrzeni Metody minimalizacji wzdłuż osi współrzędnych wzdłuż kierunków
Bardziej szczegółowoPochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji
Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji Adam Kiersztyn Lublin 2014 Adam Kiersztyn () Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji maj 2014 1 / 24 Zanim przejdziemy
Bardziej szczegółowoProgramowanie nieliniowe. Badania operacyjne Wykład 3 Metoda Lagrange a
Programowanie nieliniowe Badania operacyjne Wykład 3 Metoda Lagrange a Plan wykładu Przykład problemu z nieliniową funkcją celu Sformułowanie problemu programowania matematycznego Podstawowe definicje
Bardziej szczegółowoWYKŁAD 9 METODY ZMIENNEJ METRYKI
WYKŁAD 9 METODY ZMIENNEJ METRYKI Kierunki sprzężone. Metoda Newtona Raphsona daje dobre przybliżenie najlepszego kierunku poszukiwań, lecz jest to okupione znacznym kosztem obliczeniowym zwykle postać
Bardziej szczegółowoMetoda Karusha-Kuhna-Tuckera
Badania operacyjne i teoria optymalizacji Poznań, 2015/2016 Plan 1 Sformułowanie problemu 2 3 Warunki ortogonalności 4 Warunki Karusha-Kuhna-Tuckera 5 Twierdzenia Karusha-Kuhna-Tuckera 6 Ograniczenia w
Bardziej szczegółowoWzór Maclaurina. Jeśli we wzorze Taylora przyjmiemy x 0 = 0 oraz h = x, to otrzymujemy tzw. wzór Maclaurina: f (x) = x k + f (n) (θx) x n.
Wzór Maclaurina Jeśli we wzorze Taylora przyjmiemy x 0 = 0 oraz h = x, to otrzymujemy tzw. wzór Maclaurina: f (x) = n 1 k=0 f (k) (0) k! x k + f (n) (θx) x n. n! Wzór Maclaurina Przykład. Niech f (x) =
Bardziej szczegółowoRozwiązania prac domowych - Kurs Pochodnej. x 2 4. (x 2 4) 2. + kπ, gdzie k Z
1 Wideo 5 1.1 Zadanie 1 1.1.1 a) f(x) = x + x f (x) = x + f (x) = 0 x + = 0 x = 1 [SZKIC] zatem w x = 1 występuje minimum 1.1. b) f(x) = x x 4 f (x) = x(x 4) x (x) (x 4) f (x) = 0 x(x 4) x (x) (x 4) =
Bardziej szczegółowoZ52: Algebra liniowa Zagadnienie: Zastosowania algebry liniowej Zadanie: Operatory różniczkowania, zagadnienie brzegowe.
Z5: Algebra liniowa Zagadnienie: Zastosowania algebry liniowej Zadanie: Operatory różniczkowania zagadnienie brzegowe Dyskretne operatory różniczkowania Numeryczne obliczanie pochodnych oraz rozwiązywanie
Bardziej szczegółowoFunkcje dwóch zmiennych
Funkcje dwóch zmiennych Andrzej Musielak Str Funkcje dwóch zmiennych Wstęp Funkcja rzeczywista dwóch zmiennych to funkcja, której argumentem jest para liczb rzeczywistych, a wartością liczba rzeczywista.
Bardziej szczegółowo1 Pochodne wyższych rzędów
1 Pochodne wyższych rzędów Definicja 1.1 (Pochodne cząstkowe drugiego rzędu) Niech f będzie odwzorowaniem o wartościach w R m, określonym na zbiorze G R k. Załóżmy, że zbiór tych x G, dla których istnieje
Bardziej szczegółowoWykład 4 Przebieg zmienności funkcji. Badanie dziedziny oraz wyznaczanie granic funkcji poznaliśmy na poprzednich wykładach.
Wykład Przebieg zmienności funkcji. Celem badania przebiegu zmienności funkcji y = f() jest poznanie ważnych własności tej funkcji na podstawie jej wzoru. Efekty badania pozwalają naszkicować wykres badanej
Bardziej szczegółowoPochodne wyższych rzędów definicja i przykłady
Pochodne wyższych rzędów definicja i przykłady Pochodne wyższych rzędów Drugą pochodną funkcji nazywamy pochodną pochodnej tej funkcji. Trzecia pochodna jest pochodną drugiej pochodnej; itd. Ogólnie, -ta
Bardziej szczegółowo3. Metoda najszybszego spadku
3. Metoda najszybszego spadku 3.1 Wielowymiarowa funkcja kwadratowa Na ostatnich zajęciach poznaliśmy podstawy dotyczące funkcji wielowymiarowych. Szczególnie interesującą dla nas klasą funkcji będą funkcje
Bardziej szczegółowoKADD Minimalizacja funkcji
Minimalizacja funkcji Poszukiwanie minimum funkcji Foma kwadratowa Metody przybliżania minimum minimalizacja Minimalizacja w n wymiarach Metody poszukiwania minimum Otaczanie minimum Podział obszaru zawierającego
Bardziej szczegółowoRozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów.
Rozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów. Plan wykładu: 1. Wyznaczanie pojedynczych pierwiastków rzeczywistych równań nieliniowych metodami a) połowienia (bisekcji)
Bardziej szczegółowo2. Optymalizacja bez ograniczeń
2. Optymalizacja bez ograniczeń 1. Podaj definicję ścisłego minimum lokalnego zadania 2. Podaj definicję minimum lokalnego zadania 3. Podaj definicję ścisłego minimum globalnego zadania 4. Podaj definicję
Bardziej szczegółowo13. Funkcje wielu zmiennych pochodne, gradient, Jacobian, ekstrema lokalne.
13. Funkcje wielu zmiennych pochodne, gradient, Jacobian, ekstrema lokalne. 1. Wprowadzenie. Dotąd rozważaliśmy funkcje działające z podzbioru liczb rzeczywistych w zbiór liczb rzeczywistych, zatem funkcje
Bardziej szczegółowo13. Równania różniczkowe - portrety fazowe
13. Równania różniczkowe - portrety fazowe Grzegorz Kosiorowski Uniwersytet Ekonomiczny w Krakowie rzegorz Kosiorowski (Uniwersytet Ekonomiczny 13. wrównania Krakowie) różniczkowe - portrety fazowe 1 /
Bardziej szczegółowoIX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych,
IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. Definicja 1.1. Niech D będzie podzbiorem przestrzeni R n, n 2. Odwzorowanie f : D R nazywamy
Bardziej szczegółowoWstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych. P. F. Góra
Wstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2012 Strategia minimalizacji wielowymiarowej Zakładamy, że metody poszukiwania minimów
Bardziej szczegółowoMetody Numeryczne Optymalizacja. Wojciech Szewczuk
Metody Numeryczne Optymalizacja Optymalizacja Definicja 1 Przez optymalizację będziemy rozumieć szukanie minimów lub maksimów funkcji. Optymalizacja Definicja 2 Optymalizacja lub programowanie matematyczne
Bardziej szczegółowo1 Funkcje dwóch zmiennych podstawowe pojęcia
1 Funkcje dwóch zmiennych podstawowe pojęcia Definicja 1 Funkcją dwóch zmiennych określoną na zbiorze A R 2 o wartościach w zbiorze R nazywamy przyporządkowanie każdemu punktowi ze zbioru A dokładnie jednej
Bardziej szczegółowoZaawansowane metody numeryczne
Wykład 11 Ogólna postać metody iteracyjnej Definicja 11.1. (metoda iteracyjna rozwiązywania układów równań) Metodą iteracyjną rozwiązywania { układów równań liniowych nazywamy ciąg wektorów zdefiniowany
Bardziej szczegółowoUkłady równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona) f(x) = 0, gdzie. dla n=2 np.
Układy równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona f(x 0, f ( f, f,..., f n gdzie 2 x ( x, x 2,..., x n dla n2 np. f ( x, y 0 g( x, y 0 dla każdej wielowymiarowej rozwinięcie w szereg Taylora
Bardziej szczegółowoUKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH
Transport, studia I stopnia rok akademicki 2011/2012 Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Uwagi wstępne Układ liniowych równań algebraicznych można
Bardziej szczegółowoZrównoleglona optymalizacja stochastyczna na dużych zbiorach danych
Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych mgr inż. C. Dendek prof. nzw. dr hab. J. Mańdziuk Politechnika Warszawska, Wydział Matematyki i Nauk Informacyjnych Outline 1 Uczenie
Bardziej szczegółowo3. Macierze i Układy Równań Liniowych
3. Macierze i Układy Równań Liniowych Rozważamy równanie macierzowe z końcówki ostatniego wykładu ( ) 3 1 X = 4 1 ( ) 2 5 Podstawiając X = ( ) x y i wymnażając, otrzymujemy układ 2 równań liniowych 3x
Bardziej szczegółowoMETODY ROZWIĄZYWANIA RÓWNAŃ NIELINIOWYCH
METODY ROZWIĄZYWANIA RÓWNAŃ NIELINIOWYCH Jednym z zastosowań metod numerycznych jest wyznaczenie pierwiastka lub pierwiastków równania nieliniowego. W tym celu stosuje się szereg metod obliczeniowych np:
Bardziej szczegółowo2. Definicja pochodnej w R n
2. Definicja pochodnej w R n Niech będzie dana funkcja f : U R określona na zbiorze otwartym U R n. Pochodną kierunkową w punkcie a U w kierunku wektora u R n nazywamy granicę u f(a) = lim t 0 f(a + tu)
Bardziej szczegółowo2. ZASTOSOWANIA POCHODNYCH. (a) f(x) = ln 3 x ln x, (b) f(x) = e2x x 2 2.
2. ZASTOSOWANIA POCHODNYCH. Koniecznie trzeba znać: twierdzenia o ekstremach (z wykorzystaniem pierwszej i drugiej pochodnej), Twierdzenie Lagrange a, Twierdzenie Taylora (z resztą w postaci Peano, Lagrange
Bardziej szczegółowoProgramowanie celowe #1
Programowanie celowe #1 Problem programowania celowego (PC) jest przykładem problemu programowania matematycznego nieliniowego, który można skutecznie zlinearyzować, tzn. zapisać (i rozwiązać) jako problem
Bardziej szczegółowoRozwiązywanie równań nieliniowych
Rozwiązywanie równań nieliniowych Marcin Orchel 1 Wstęp Przykłady wyznaczania miejsc zerowych funkcji f : f(ξ) = 0. Wyszukiwanie miejsc zerowych wielomianu n-tego stopnia. Wymiar tej przestrzeni wektorowej
Bardziej szczegółowoPochodna funkcji. Zastosowania
Pochodna funkcji Zastosowania Informatyka (sem.1 2015/16) Analiza Matematyczna Temat 3 1 / 33 Niektóre zastosowania pochodnych 1 Pochodna jako narzędzie do przybliżania wartości 2 Pochodna jako narzędzie
Bardziej szczegółowoPolitechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania
Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Metody optymalizacji Metody poszukiwania ekstremum funkcji jednej zmiennej Materiały pomocnicze do ćwiczeń
Bardziej szczegółowoFunkcja kwadratowa. f(x) = ax 2 + bx + c = a
Funkcja kwadratowa. Funkcją kwadratową nazywamy funkcję f : R R określoną wzorem gdzie a, b, c R, a 0. f(x) = ax + bx + c, Szczególnym przypadkiem funkcji kwadratowej jest funkcja f(x) = ax, a R \ {0}.
Bardziej szczegółowo9. BADANIE PRZEBIEGU ZMIENNOŚCI FUNKCJI
BADANIE PRZEBIEGU ZMIENNOŚCI FUNKCJI Ekstrema i monotoniczność funkcji Oznaczmy przez D f dziedzinę funkcji f Mówimy, że funkcja f ma w punkcie 0 D f maksimum lokalne (minimum lokalne), gdy dla każdego
Bardziej szczegółowoFunkcja kwadratowa. f(x) = ax 2 + bx + c,
Funkcja kwadratowa. Funkcją kwadratową nazywamy funkcję f : R R określoną wzorem gdzie a, b, c R, a 0. f(x) = ax 2 + bx + c, Szczególnym przypadkiem funkcji kwadratowej jest funkcja f(x) = ax 2, a R \
Bardziej szczegółowoTechniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I
Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:
Bardziej szczegółowo1 Wartości własne oraz wektory własne macierzy
Rozwiązania zadania umieszczonego na końcu poniższych notatek proszę przynieść na kartkach Proszę o staranne i formalne uzasadnienie odpowiedzi Za zadanie można uzyskać do 6 punktów (jeżeli przyniesione
Bardziej szczegółowoMetody rozwiązywania równań nieliniowych
Metody rozwiązywania równań nieliniowych Rozwiązywanie równań nieliniowych Ogólnie równanie o jednej niewiadomej x można przedstawić w postaci f ( x)=0, x R, (1) gdzie f jest wystarczająco regularną funkcją.
Bardziej szczegółowoDefinicja pochodnej cząstkowej
1 z 8 gdzie punkt wewnętrzny Definicja pochodnej cząstkowej JeŜeli iloraz ma granicę dla to granicę tę nazywamy pochodną cząstkową funkcji względem w punkcie. Oznaczenia: Pochodną cząstkową funkcji względem
Bardziej szczegółowo1.3. Optymalizacja geometrii czasteczki
0 1 Część teoretyczna 13 Optymalizacja geometrii czasteczki Poszukiwanie punktów stacjonarnych (krytycznych) funkcji stanowi niezwykle istotny problem w obliczeniowej chemii kwantowej Sprowadza się on
Bardziej szczegółowoEgzamin z Metod Numerycznych ZSI, Egzamin, Gr. A
Egzamin z Metod Numerycznych ZSI, 06.2007. Egzamin, Gr. A Imię i nazwisko: Nr indeksu: Section 1. Test wyboru, max 33 pkt Zaznacz prawidziwe odpowiedzi literą T, a fałszywe N. Każda prawidłowa odpowiedź
Bardziej szczegółowoElementy metod numerycznych
Wykład nr 5 i jej modyfikacje. i zera wielomianów Założenia metody Newtona Niech będzie dane równanie f (x) = 0 oraz przedział a, b taki, że w jego wnętrzu znajduje się dokładnie jeden pierwiastek α badanego
Bardziej szczegółowoWstęp do metod numerycznych 9a. Układy równań algebraicznych. P. F. Góra
Wstęp do metod numerycznych 9a. Układy równań algebraicznych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2012 Układy równań algebraicznych Niech g:r N równanie R N będzie funkcja klasy co najmniej
Bardziej szczegółowoMateriały wykładowe (fragmenty)
Materiały wykładowe (fragmenty) 1 Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL kontakt osobisty Centrum Wykładowe, blok informatyki, pok. 7
Bardziej szczegółowoVIII. Zastosowanie rachunku różniczkowego do badania funkcji. 1. Twierdzenia o wartości średniej. Monotoniczność funkcji.
VIII. Zastosowanie rachunku różniczkowego do badania funkcji. 1. Twierdzenia o wartości średniej. Monotoniczność funkcji. Twierdzenie 1.1. (Rolle a) Jeżeli funkcja f jest ciągła w przedziale domkniętym
Bardziej szczegółowoRzut oka na współczesną matematykę spotkanie 3: jak liczy kalkulator i o źródłach chaosu
Rzut oka na współczesną matematykę spotkanie 3: jak liczy kalkulator i o źródłach chaosu P. Strzelecki pawelst@mimuw.edu.pl Instytut Matematyki, Uniwersytet Warszawski MISH UW, semestr zimowy 2011-12 P.
Bardziej szczegółowoWstęp do metod numerycznych 9. Minimalizacja: funkcje jednej zmiennej. P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/
Wstęp do metod numerycznych 9. Minimalizacja: funkcje jednej zmiennej P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2011 Lokalna minimalizacja ciagła Minimalizacja funkcji jest jedna z najważniejszych
Bardziej szczegółowoCIĄGI wiadomości podstawowe
1 CIĄGI wiadomości podstawowe Jak głosi definicja ciąg liczbowy to funkcja, której dziedziną są liczby naturalne dodatnie (w zadaniach oznacza się to najczęściej n 1) a wartościami tej funkcji są wszystkie
Bardziej szczegółowoII. FUNKCJE WIELU ZMIENNYCH
II. FUNKCJE WIELU ZMIENNYCH 1. Zbiory w przestrzeni R n Ustalmy dowolne n N. Definicja 1.1. Zbiór wszystkich uporzadkowanych układów (x 1,..., x n ) n liczb rzeczywistych, nazywamy przestrzenią n-wymiarową
Bardziej szczegółowoMetody optymalizacji. notatki dla studentów matematyki semestr zimowy 2015/2016
Metody optymalizacji notatki dla studentów matematyki semestr zimowy 2015/2016 Aktualizacja: 11 stycznia 2016 Spis treści Spis treści 2 1 Wprowadzenie do optymalizacji 1 11 Podstawowe definicje i własności
Bardziej szczegółowoPochodna funkcji odwrotnej
Pochodna funkcji odwrotnej Niech będzie dana w przedziale funkcja różniczkowalna i różnowartościowa. Wiadomo, że istnieje wówczas funkcja odwrotna (którą oznaczymy tu : ), ciągła w przedziale (lub zależnie
Bardziej szczegółowoWYDAWNICTWO PAŃSTWOWEJ WYŻSZEJ SZKOŁY ZAWODOWEJ WE WŁOCŁAWKU
WYDAWNICTWO PAŃSTWOWEJ WYŻSZEJ SZKOŁY ZAWODOWEJ WE WŁOCŁAWKU Karolina Kalińska MATEMATYKA: PRZYKŁADY I ZADANIA Włocławek 2011 REDAKCJA WYDAWNICTWA PAŃSTWOWEJ WYŻSZEJ SZKOŁY ZAWODOWEJ WE WŁOCŁAWKU Matematyka:
Bardziej szczegółowoMetody numeryczne. Równania nieliniowe. Janusz Szwabiński.
Metody numeryczne Równania nieliniowe Janusz Szwabiński szwabin@ift.uni.wroc.pl nm_slides-9.tex Metody numeryczne Janusz Szwabiński 7/1/2003 20:18 p.1/64 Równania nieliniowe 1. Równania nieliniowe z pojedynczym
Bardziej szczegółowoOznacza to, że chcemy znaleźć minimum, a właściwie wartość najmniejszą funkcji
Wykład 11. Metoda najmniejszych kwadratów Szukamy zależności Dane są wyniki pomiarów dwóch wielkości x i y: (x 1, y 1 ), (x 2, y 2 ),..., (x n, y n ). Przypuśćmy, że nanieśliśmy je na wykres w układzie
Bardziej szczegółowoElementy Modelowania Matematycznego
Elementy Modelowania Matematycznego Wykład 8 Programowanie nieliniowe Spis treści Programowanie nieliniowe Zadanie programowania nieliniowego Zadanie programowania nieliniowego jest identyczne jak dla
Bardziej szczegółowoMetody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium Zadanie nr 3 Osada autor: A Gonczarek Celem poniższego zadania jest zrealizowanie fragmentu komputerowego przeciwnika w grze strategiczno-ekonomicznej
Bardziej szczegółowoZnaleźć wzór ogólny i zbadać istnienie granicy ciągu określonego rekurencyjnie:
Ciągi rekurencyjne Zadanie 1 Znaleźć wzór ogólny i zbadać istnienie granicy ciągu określonego rekurencyjnie: w dwóch przypadkach: dla i, oraz dla i. Wskazówka Należy poszukiwać rozwiązania w postaci, gdzie
Bardziej szczegółowoFunkcja jednej zmiennej - przykładowe rozwiązania 1. Badając przebieg zmienności funkcji postępujemy według poniższego schematu:
Funkcja jednej zmiennej - przykładowe rozwiązania Zadanie 4 c) Badając przebieg zmienności funkcji postępujemy według poniższego schematu:. Analiza funkcji: (a) Wyznaczenie dziedziny funkcji (b) Obliczenie
Bardziej szczegółowoWstęp do metod numerycznych 12. Minimalizacja: funkcje wielu zmiennych. P. F. Góra
Wstęp do metod numerycznych 12. Minimalizacja: funkcje wielu zmiennych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2015 Strategia minimalizacji wielowymiarowej Zakładamy, że metody poszukiwania minimów
Bardziej szczegółowoMetody numeryczne. materiały do wykładu dla studentów. 7. Całkowanie numeryczne
Metody numeryczne materiały do wykładu dla studentów 7. Całkowanie numeryczne 7.1. Całkowanie numeryczne 7.2. Metoda trapezów 7.3. Metoda Simpsona 7.4. Metoda 3/8 Newtona 7.5. Ogólna postać wzorów kwadratur
Bardziej szczegółowo1 Równania nieliniowe
1 Równania nieliniowe 1.1 Postać ogólna równania nieliniowego Często występującym, ważnym problemem obliczeniowym jest numeryczne poszukiwanie rozwiązań równań nieliniowych, np. algebraicznych (wielomiany),
Bardziej szczegółowo3. Funkcje wielu zmiennych
3 Funkcje wielu zmiennych 31 Ciagłość Zanim podamy definicję ciagłości dla funkcji wielu zmiennych wprowadzimy bardzo ogólne i abstrakcyjne pojęcie przestrzeni metrycznej Przestrzeń metryczna Metryka w
Bardziej szczegółowoPochodne funkcji wraz z zastosowaniami - teoria
Pochodne funkcji wraz z zastosowaniami - teoria Pochodne Definicja 2.38. Niech f : O(x 0 ) R. Jeżeli istnieje skończona granica f(x 0 + h) f(x 0 ) h 0 h to granicę tę nazywamy pochodną funkcji w punkcie
Bardziej szczegółowoNastępnie przypominamy (dla części studentów wprowadzamy) podstawowe pojęcia opisujące funkcje na poziomie rysunków i objaśnień.
Zadanie Należy zacząć od sprawdzenia, co studenci pamiętają ze szkoły średniej na temat funkcji jednej zmiennej. Na początek można narysować kilka krzywych na tle układu współrzędnych (funkcja gładka,
Bardziej szczegółowoWstęp do metod numerycznych Rozwiazywanie równań algebraicznych. P. F. Góra
Wstęp do metod numerycznych Rozwiazywanie równań algebraicznych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2010 Co to znaczy rozwiazać równanie? Przypuśmy, że postawiono przed nami problem rozwiazania
Bardziej szczegółowoRACHUNEK RÓŻNICZKOWY FUNKCJI JEDNEJ ZMIENNEJ. Wykorzystano: M A T E M A T Y K A Wykład dla studentów Część 1 Krzysztof KOŁOWROCKI
RACHUNEK RÓŻNICZKOWY FUNKCJI JEDNEJ ZMIENNEJ Wykorzystano: M A T E M A T Y K A Wykład dla studentów Część 1 Krzyszto KOŁOWROCKI Przyjmijmy, że y (, D, jest unkcją określoną w zbiorze D R oraz niec D Deinicja
Bardziej szczegółowoRÓWNANIA NIELINIOWE Maciej Patan
RÓWNANIA NIELINIOWE Maciej Patan Uniwersytet Zielonogórski Przykład 1 Prędkość v spadającego spadochroniarza wyraża się zależnością v = mg ( 1 e c t) m c gdzie g = 9.81 m/s 2. Dla współczynnika oporu c
Bardziej szczegółowoWykład 4. Określimy teraz pewną ważną klasę pierścieni.
Wykład 4 Określimy teraz pewną ważną klasę pierścieni. Twierdzenie 1 Niech m, n Z. Jeśli n > 0 to istnieje dokładnie jedna para licz q, r, że: m = qn + r, 0 r < n. Liczbę r nazywamy resztą z dzielenia
Bardziej szczegółowoZastosowania pochodnych
Zastosowania pochodnych Zbigniew Koza Wydział Fizyki i Astronomii Wrocław, 2015 SZACOWANIE NIEPEWNOŚCI POMIAROWEJ Przykład: objętość kuli Kulka z łożyska tocznego ma średnicę 2,3 mm, co oznacza, że objętość
Bardziej szczegółowoFunkcje dwóch zmiennych
Maciej Grzesiak Instytut Matematyki Politechniki Poznańskiej Funkcje dwóch zmiennych 1. Funkcje dwóch zmiennych: pojęcia podstawowe Definicja 1. Funkcją dwóch zmiennych określoną na zbiorze A R 2 o wartościach
Bardziej szczegółowoZestaw zadań przygotowujących do egzaminu z Matematyki 1
Uniwersytet Ekonomiczny w Katowicach Wydział Finansów i Ubezpieczeń, Kierunek: Finanse i Zarządzanie w Ochronie Zdrowia Zestaw zadań przygotowujących do egzaminu z Matematyki 1 Powtórka materiału przed
Bardziej szczegółowoPolitechnika Wrocławska, Wydział Informatyki i Zarządzania. Optymalizacja
Politechnika Wrocławska, Wydział Informatyki i Zarządzania Optymalizacja Dla podanych niżej problemów decyzyjnych (zad.1 zad.5) należy sformułować zadania optymalizacji, tj.: określić postać zmiennych
Bardziej szczegółowo3. FUNKCJA LINIOWA. gdzie ; ół,.
1 WYKŁAD 3 3. FUNKCJA LINIOWA FUNKCJĄ LINIOWĄ nazywamy funkcję typu : dla, gdzie ; ół,. Załóżmy na początek, że wyraz wolny. Wtedy mamy do czynienia z funkcją typu :.. Wykresem tej funkcji jest prosta
Bardziej szczegółowoANALIZA MATEMATYCZNA Z ELEMENTAMI STATYSTYKI MATEMATYCZNEJ
ANALIZA MATEMATYCZNA Z ELEMENTAMI STATYSTYKI MATEMATYCZNEJ FUNKCJE DWÓCH ZMIENNYCH RZECZYWISTYCH Definicja 1. Niech A będzie dowolnym niepustym zbiorem. Metryką w zbiorze A nazywamy funkcję rzeczywistą
Bardziej szczegółowoOptymalizacja Ci gªa
Institute of Computing Science Poznan University of Technology Optymalizacja Ci gªa Rozszerzenia SGD Mateusz Lango Michaª Kempka June 13, 2018 Gradient Descent - przypomnienie 1 x t+1 = x t η f (x t )
Bardziej szczegółowo2. Optymalizacja jednowymiarowa
. Optymalizacja jednowymiarowa.1 Metody bezgradientowe Metodami bezgradientowymi nazywamy algorytmy optymalizacyjne, które, jak sama nazwa wskazuje, nie wykorzystają informacji o gradiencie (pochodnej).
Bardziej szczegółowoMetody eksploracji danych 2. Metody regresji. Piotr Szwed Katedra Informatyki Stosowanej AGH 2017
Metody eksploracji danych 2. Metody regresji Piotr Szwed Katedra Informatyki Stosowanej AGH 2017 Zagadnienie regresji Dane: Zbiór uczący: D = {(x i, y i )} i=1,m Obserwacje: (x i, y i ), wektor cech x
Bardziej szczegółowoWprowadzenie Metoda bisekcji Metoda regula falsi Metoda siecznych Metoda stycznych RÓWNANIA NIELINIOWE
Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać ogólna równania nieliniowego Zazwyczaj nie można znaleźć
Bardziej szczegółowo1 Nierówność Minkowskiego i Hoeldera
1 Nierówność Minkowskiego i Hoeldera Na państwa użytek załączam precyzyjne sformułowania i dowody nierówności Hoeldera i Minkowskiego: Twierdzenie 1.1 Nierówność Hoeldera). Niech p, q będą takimi liczbami
Bardziej szczegółowoMetody numeryczne. materiały do wykładu dla studentów
Metody numeryczne materiały do wykładu dla studentów 5. Przybliżone metody rozwiązywania równań 5.1 Lokalizacja pierwiastków 5.2 Metoda bisekcji 5.3 Metoda iteracji 5.4 Metoda stycznych (Newtona) 5.5 Metoda
Bardziej szczegółowoRachunek różniczkowy funkcji dwóch zmiennych
Rachunek różniczkowy funkcji dwóch zmiennych Definicja Spis treści: Wykres Ciągłość, granica iterowana i podwójna Pochodne cząstkowe Różniczka zupełna Gradient Pochodna kierunkowa Twierdzenie Schwarza
Bardziej szczegółowoANALIZA MATEMATYCZNA
ANALIZA MATEMATYCZNA TABLICE Spis treści: 1.) Pochodne wzory 2 2.) Całki wzory 3 3.) Kryteria zbieżności szeregów 4 4.) Przybliżona wartość wyrażenia 5 5.) Równanie płaszczyzny stycznej i prostej normalnej
Bardziej szczegółowoWykłady z matematyki inżynierskiej EKSTREMA FUNKCJI. JJ, IMiF UTP
Wykłady z matematyki inżynierskiej EKSTREMA FUNKCJI JJ, IMiF UTP 05 MINIMUM LOKALNE y y = f () f ( 0 ) 0 DEFINICJA. Załóżmy, że funkcja f jest określona w pewnym otoczeniu punktu 0. MINIMUM LOKALNE y y
Bardziej szczegółowoWKLĘSŁOŚĆ I WYPUKŁOŚĆ KRZYWEJ. PUNKT PRZEGIĘCIA.
WKLĘSŁOŚĆ I WYPUKŁOŚĆ KRZYWEJ. PUNKT PRZEGIĘCIA. Załóżmy, że funkcja y f jest dwukrotnie różniczkowalna w Jeżeli Jeżeli przedziale a;b. Punkt P, f nazywamy punktem przegięcia funkcji y f wtedy i tylko
Bardziej szczegółowoUKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH
Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać układu równań liniowych Układ liniowych równań algebraicznych
Bardziej szczegółowoProgramowanie liniowe
Badania operacyjne Problem Model matematyczny Metoda rozwiązania Znaleźć optymalny program produkcji. Zmaksymalizować 1 +3 2 2 3 (1) Przy ograniczeniach 3 1 2 +2 3 7 (2) 2 1 +4 2 12 (3) 4 1 +3 2 +8 3 10
Bardziej szczegółowoNotatki z Analizy Matematycznej 3. Jacek M. Jędrzejewski
Notatki z Analizy Matematycznej 3 Jacek M. Jędrzejewski ROZDZIAŁ 6 Różniczkowanie funkcji rzeczywistej 1. Pocodna funkcji W tym rozdziale rozważać będziemy funkcje rzeczywiste określone w pewnym przedziale
Bardziej szczegółowojeśli nie jest spełnione kryterium zatrzymania, to nowym punktem roboczym x(t+1) staje i następuje przejście do 1)
Metody automatycznej optymalizacji cz.i metody dwufazowe Święta Wielkanocne już za nami, tak więc bierzemy się wspólnie do pracy. Ostatnim razem dokonaliśmy charakterystyki zadań optymalizacji i wskazaliśmy
Bardziej szczegółowoOptymalizacja (minimalizacja) funkcji. Plan wykładu: 1. Sformułowanie problemu, funkcja celu. 2. Metody bezgradientowe
Optymalizacja (minimalizacja) funkcji Plan wykładu: 1. Sformułowanie problemu, funkcja celu. Metody bezgradientowe a) metoda złotego podziału b) metoda sympleks c) metoda interpolacji Powell'a 3. Metody
Bardziej szczegółowo