Optymalizacja ciągła
|
|
- Agnieszka Makowska
- 4 lat temu
- Przeglądów:
Transkrypt
1 Optymalizacja ciągła 5. Metody kierunków poparwy (metoda Newtona-Raphsona, metoda gradientów sprzężonych) Wojciech Kotłowski Instytut Informatyki PP / 56
2 Plan wykładu Minimalizacja różniczkowalnej funkcji f(x) bez ograniczeń: min f(x) x R n Często będziemy zakładać wypukłość f(x) 1. Wprowadzenie (poprzedni wykład) 2. Metoda spadku wzdłuż gradientu (poprzedni wykład) 3. Metoda Newtona-Raphsona 4. Modyfikacje metody Newtona-Rapshona 5. Metoda gradientów sprzężonych 2 / 56
3 Przypomnienie: metody kierunków poprawy Iteracyjne metody generujące punkty x 1, x 2,... zgodnie z: x k+1 = x k + α k v k, Kierunek v k jest kierunkiem poprawy: gwarantuje, że przy dostatecznie małych α R: f(x k + αv k ) < f(x k ) Równoważnie, pochodna kierunkowa wzdłuż v k musi być ujemna: f(x k ) v k = f(x k ) v k < 0 Długość kroku α k dobierana jest aby zapewnić odpowiednio duży spadek funkcji celu 3 / 56
4 Metoda Newtona-Raphsona 4 / 56
5 Przypomnienie: metoda Newtona x k+1 = x k f (x k ) f (x k ) f(x) f(x k ) + f (x k )(x x k ) + f (x k ) 2 (x x k ) 2 x k x k+1 5 / 56
6 Metoda Newtona-Raphsona Wielowymiarowa wersja metody Newtona Generujemy iteracyjnie ciąg punktów x 1, x 2,... W każdej iteracji k = 1, 2,..., przybliżamy funkcję f(x) wielomianem Taylora drugiego rzędu w aktualnym punkcie x k : P 2 (x; x k ) = f(x k ) + f(x k ) (x x k ) (x x k) 2 f(x k )(x x k ) Założenie: hesjan 2 f(x k ) jest dodatnio określony Jako kolejny punkt x k+1 bierzemy punkt minimalizujący P 2 (x; x k ) 6 / 56
7 Metoda Newtona-Raphsona Przypomnienie: Minimum funkcji kwadratowej x Ax + b x + c z dodatnio określoną macierzą A ma postać x = 1 2 A 1 b 7 / 56
8 Metoda Newtona-Raphsona Przypomnienie: Minimum funkcji kwadratowej x Ax + b x + c z dodatnio określoną macierzą A ma postać x = 1 2 A 1 b Wniosek: Minimum funkcji kwadratowej: F (v) = 1 2 v 2 f(x k )v + f(x k ) v + f(x k ) jest w punkcie v = ( 2 f(x k )) 1 f(x k ) 7 / 56
9 Metoda Newtona-Raphsona Przypomnienie: Minimum funkcji kwadratowej x Ax + b x + c z dodatnio określoną macierzą A ma postać x = 1 2 A 1 b Wniosek: Minimum funkcji kwadratowej: F (v) = 1 2 v 2 f(x k )v + f(x k ) v + f(x k ) jest w punkcie v = ( 2 f(x k )) 1 f(x k ) Wniosek: Biorąc v = x x k, minimum wielomianu: P 2 (x; x k ) = f(x k ) + f(x k ) (x x k ) (x x k) 2 f(x k )(x x k ) jest w punkcie x spełniającym: x x k = ( 2 f(x k )) 1 f(x k ) 7 / 56
10 Metoda Newtona-Raphsona Przypomnienie: Minimum funkcji kwadratowej x Ax + b x + c z dodatnio określoną macierzą A ma postać x = 1 2 A 1 b Wniosek: Minimum funkcji kwadratowej: F (v) = 1 2 v 2 f(x k )v + f(x k ) v + f(x k ) jest w punkcie v = ( 2 f(x k )) 1 f(x k ) Wniosek: Biorąc v = x x k, minimum wielomianu: P 2 (x; x k ) = f(x k ) + f(x k ) (x x k ) (x x k) 2 f(x k )(x x k ) jest w punkcie x spełniającym: x x k = ( 2 f(x k )) 1 f(x k ) Metoda Newtona-Raphsona: x k+1 = x k ( 2 f(x k )) 1 f(x k ) 7 / 56
11 Metoda Newtona-Raphsona 2 1 x2 0 1 x x 1 8 / 56
12 Metoda Newtona-Raphsona 2 1 x2 0 1 x x 1 8 / 56
13 Metoda Newtona-Raphsona 2 1 x 2 x2 0 1 x x 1 8 / 56
14 Metoda Newtona-Raphsona Rozpocznij od punktu x 1 i powtarzaj dla k = 1, 2,...: x k+1 = x k ( 2 f(x k )) 1 f(x k ) 9 / 56
15 Metoda Newtona-Raphsona Rozpocznij od punktu x 1 i powtarzaj dla k = 1, 2,...: x k+1 = x k ( 2 f(x k )) 1 f(x k ) Porównaj z metodą Newtona dla jednej zmiennej: x k+1 = x k f (x k ) f (x k ) 9 / 56
16 Metoda Newtona-Raphsona Rozpocznij od punktu x 1 i powtarzaj dla k = 1, 2,...: x k+1 = x k ( 2 f(x k )) 1 f(x k ) Porównaj z metodą Newtona dla jednej zmiennej: x k+1 = x k f (x k ) f (x k ) Metoda obliczeniowo wolniejsza od spadku wzdłuż gradientu: wymaga odwrócenia macierzy w każdej iteracji (w praktyce zamiast odwracać macierz rozwiązuje się układ równań liniowych Ax = b z A = 2 f(x k ) i b = f(x k )) 9 / 56
17 Metoda Newtona-Raphsona Rozpocznij od punktu x 1 i powtarzaj dla k = 1, 2,...: x k+1 = x k ( 2 f(x k )) 1 f(x k ) Porównaj z metodą Newtona dla jednej zmiennej: x k+1 = x k f (x k ) f (x k ) Metoda obliczeniowo wolniejsza od spadku wzdłuż gradientu: wymaga odwrócenia macierzy w każdej iteracji (w praktyce zamiast odwracać macierz rozwiązuje się układ równań liniowych Ax = b z A = 2 f(x k ) i b = f(x k )) Zainicjalizowana dostatecznie blisko minimum zbiega bardzo szybko, ale źle zainicjalizowana może się rozbiec! 9 / 56
18 Metoda Newtona-Raphsona: przykład x2 0 x 2 f(x 1, x 2 ) = x x x x 1 10 / 56
19 Metoda Newtona-Raphsona: przykład x2 0 x 2 f(x 1, x 2 ) = x x x x 1 Metoda Newtona-Rapshona znajduje minimum funkcji kwadratowej: f(x) = x Ax + b x + c w jednym kroku, niezależnie od punktu inicjalizacji! 10 / 56
20 Metoda Newtona-Raphsona dla funkcji kwadratowej Rozważmy minimalizację funkcji funkcji kwadratowej z dodatnio określoną macierzą A: f(x) = x Ax + x b + c, 11 / 56
21 Metoda Newtona-Raphsona dla funkcji kwadratowej Rozważmy minimalizację funkcji funkcji kwadratowej z dodatnio określoną macierzą A: f(x) = x Ax + x b + c, f(x) = 2Ax + b, 2 f(x) = 2A, ( 2 f(x)) 1 = 1 2 A 1 11 / 56
22 Metoda Newtona-Raphsona dla funkcji kwadratowej Rozważmy minimalizację funkcji funkcji kwadratowej z dodatnio określoną macierzą A: f(x) = x Ax + x b + c, f(x) = 2Ax + b, 2 f(x) = 2A, ( 2 f(x)) 1 = 1 2 A 1 Rozpoczynamy od dowolnego punktu x 1 i wybieramy punkt x 2 jako: x 2 = x 1 ( 2 f(x 1 )) 1 f(x 1 ) 11 / 56
23 Metoda Newtona-Raphsona dla funkcji kwadratowej Rozważmy minimalizację funkcji funkcji kwadratowej z dodatnio określoną macierzą A: f(x) = x Ax + x b + c, f(x) = 2Ax + b, 2 f(x) = 2A, ( 2 f(x)) 1 = 1 2 A 1 Rozpoczynamy od dowolnego punktu x 1 i wybieramy punkt x 2 jako: x 2 = x A 1 (2Ax 1 + b) 11 / 56
24 Metoda Newtona-Raphsona dla funkcji kwadratowej Rozważmy minimalizację funkcji funkcji kwadratowej z dodatnio określoną macierzą A: f(x) = x Ax + x b + c, f(x) = 2Ax + b, 2 f(x) = 2A, ( 2 f(x)) 1 = 1 2 A 1 Rozpoczynamy od dowolnego punktu x 1 i wybieramy punkt x 2 jako: x 2 = x 1 A } 1 {{ A } x A 1 b I 11 / 56
25 Metoda Newtona-Raphsona dla funkcji kwadratowej Rozważmy minimalizację funkcji funkcji kwadratowej z dodatnio określoną macierzą A: f(x) = x Ax + x b + c, f(x) = 2Ax + b, 2 f(x) = 2A, ( 2 f(x)) 1 = 1 2 A 1 Rozpoczynamy od dowolnego punktu x 1 i wybieramy punkt x 2 jako: x 2 = x 1 x A 1 b 11 / 56
26 Metoda Newtona-Raphsona dla funkcji kwadratowej Rozważmy minimalizację funkcji funkcji kwadratowej z dodatnio określoną macierzą A: f(x) = x Ax + x b + c, f(x) = 2Ax + b, 2 f(x) = 2A, ( 2 f(x)) 1 = 1 2 A 1 Rozpoczynamy od dowolnego punktu x 1 i wybieramy punkt x 2 jako: x 2 = 1 2 A 1 b Ale jest to punkt minimum x funkcji kwadratowej! 11 / 56
27 Metoda Newtona-Raphsona: przykład f(x 1, x 2 ) = 2.5(x 2 1 x 2 ) 2 + (1 x 1 ) x 2 x2 0 1 x 1 2 x x 1 12 / 56
28 Metoda Newtona-Raphsona: przykład f(x 1, x 2 ) = 2.5(x 2 1 x 2 ) 2 + (1 x 1 ) 2 2 x 1 x 2 1 x2 0 1 x x 1 12 / 56
29 Metoda Newtona-Raphsona jako metoda spadkowa Rozpocznij od punktu x 1 i powtarzaj dla k = 1, 2,...: x k+1 = x k + v k, v k = ( 2 f(x k )) 1 f(x k ) Z założenia 2 f(x k ) jest dodatnio określona, czyli ma wszystkie wartości własne dodatnie 13 / 56
30 Metoda Newtona-Raphsona jako metoda spadkowa Rozpocznij od punktu x 1 i powtarzaj dla k = 1, 2,...: x k+1 = x k + v k, v k = ( 2 f(x k )) 1 f(x k ) Z założenia 2 f(x k ) jest dodatnio określona, czyli ma wszystkie wartości własne dodatnie Wtedy ( 2 f(x k )) 1 jest też dodatnio określona, gdyż wartości własne A 1 są odwrotnościami wartości własnych A 13 / 56
31 Metoda Newtona-Raphsona jako metoda spadkowa Rozpocznij od punktu x 1 i powtarzaj dla k = 1, 2,...: x k+1 = x k + v k, v k = ( 2 f(x k )) 1 f(x k ) Z założenia 2 f(x k ) jest dodatnio określona, czyli ma wszystkie wartości własne dodatnie Wtedy ( 2 f(x k )) 1 jest też dodatnio określona, gdyż wartości własne A 1 są odwrotnościami wartości własnych A Czyli x ( 2 f(x k )) 1 x > 0 dla dowolnego niezerowego x 13 / 56
32 Metoda Newtona-Raphsona jako metoda spadkowa Rozpocznij od punktu x 1 i powtarzaj dla k = 1, 2,...: x k+1 = x k + v k, v k = ( 2 f(x k )) 1 f(x k ) Z założenia 2 f(x k ) jest dodatnio określona, czyli ma wszystkie wartości własne dodatnie Wtedy ( 2 f(x k )) 1 jest też dodatnio określona, gdyż wartości własne A 1 są odwrotnościami wartości własnych A Czyli x ( 2 f(x k )) 1 x > 0 dla dowolnego niezerowego x Wniosek: v k = ( 2 f(x k )) 1 f(x k ) jest kierunkiem poprawy f(x k ) v k = f(x k )( 2 f(x k )) 1 f(x k ) < 0 13 / 56
33 Metoda Newtona-Raphsona jako metoda spadkowa Rozpocznij od punktu x 1 i powtarzaj dla k = 1, 2,...: x k+1 = x k + v k, v k = ( 2 f(x k )) 1 f(x k ) Z założenia 2 f(x k ) jest dodatnio określona, czyli ma wszystkie wartości własne dodatnie Wtedy ( 2 f(x k )) 1 jest też dodatnio określona, gdyż wartości własne A 1 są odwrotnościami wartości własnych A Czyli x ( 2 f(x k )) 1 x > 0 dla dowolnego niezerowego x Wniosek: v k = ( 2 f(x k )) 1 f(x k ) jest kierunkiem poprawy f(x k ) v k = f(x k )( 2 f(x k )) 1 f(x k ) < 0 Uwaga: Długość kroku α k jest stała i równa 1 13 / 56
34 Zbieżność metody Newtona-Raphsona Jeśli funkcja f(x) jest trzykrotnie różniczkowalna w sposób ciągły, algorytm Newtona zainicjalizowany odpowiednio blisko minimum lokalnego x z dodatnio określonym hesjanem 2 f(x ) zbiega z kwadratowym rzędem zbieżności Dowód koncepcyjnie bardzo podobny jak w przypadku jednowymiarowym, ale skomplikowany przez wektorowo-macierzowe przybliżenie Taylora 14 / 56
35 Zbieżność metody Newtona-Raphsona Jeśli funkcja f(x) jest trzykrotnie różniczkowalna w sposób ciągły, algorytm Newtona zainicjalizowany odpowiednio blisko minimum lokalnego x z dodatnio określonym hesjanem 2 f(x ) zbiega z kwadratowym rzędem zbieżności Dowód koncepcyjnie bardzo podobny jak w przypadku jednowymiarowym, ale skomplikowany przez wektorowo-macierzowe przybliżenie Taylora Źle zainicjalizowana metoda Newtona-Raphsona może się nawet rozbiec! Z tego powodu stosuje się modyfikacje metody, które mają zapobiec problemom ze zbieżnością 14 / 56
36 Modyfikacje metody Newtona-Raphsona 15 / 56
37 Zmienna długość kroku (damped Newton-Raphson) Metoda Newtona-Raphsona (oryginalna): Rozpocznij od punktu x 1 i powtarzaj dla k = 1, 2,...: x k+1 = x k + α k v k, v k = ( 2 f(x k )) 1 f(x k ), α k = 1 Metoda nie gwarantuje spadku wartości funkcji f(x k+1 ) < f(x k )! 16 / 56
38 Zmienna długość kroku (damped Newton-Raphson) Metoda Newtona-Raphsona (oryginalna): Rozpocznij od punktu x 1 i powtarzaj dla k = 1, 2,...: x k+1 = x k + α k v k, v k = ( 2 f(x k )) 1 f(x k ), α k = 1 Metoda nie gwarantuje spadku wartości funkcji f(x k+1 ) < f(x k )! Jeśli hesjan 2 f(x k ) jest dodatnio określony, v k jest kierunkiem poprawy i możemy zmodyfikować metodę dobierając α k : optymalnie: α k = argmin α 0 f(x k + α k v k ), za pomocą algorytmu backtracking, co zagwarantuje nam f(x k+1 ) < f(x k ) 16 / 56
39 Metoda Newtona Raphsona z optymalnym doborem kroku f(x 1, x 2 ) = 2.5(x 2 1 x 2 ) 2 + (1 x 1 ) x 2 x2 0 x 3 1 x x 1 17 / 56
40 Dla porównania: klasyczna metoda Newtona Raphsona f(x 1, x 2 ) = 2.5(x 2 1 x 2 ) 2 + (1 x 1 ) x 2 x2 0 1 x 1 2 x x 1 18 / 56
41 Metoda Newtona Raphsona z optymalnym doborem kroku f(x 1, x 2 ) = 2.5(x 2 1 x 2 ) 2 + (1 x 1 ) 2 2 x 1 x 2, x 3, x 4,... 1 x x 1 19 / 56
42 Metoda Newtona Raphsona z optymalnym doborem kroku f(x 1, x 2 ) = 2.5(x 2 1 x 2 ) 2 + (1 x 1 ) 2 2 x 1 x 2, x 3, x 4,... 1 x x 1 Dlaczego algorytm utknął w x 2? 19 / 56
43 x 2 = (0.99, 1.46) f(x 2 ) = (0.77, 2.4) [ ] f(x 2 ) = Analiza v 2 = ( 2 (x 2 )) 1 (x 2 ) = ( 1.42, 2.33) f(x 2 ) v 2 = 4.5 > 0 x v 2 x 2 f(x 2 ) x 1 20 / 56
44 x 2 = (0.99, 1.46) f(x 2 ) = (0.77, 2.4) [ ] f(x 2 ) = Analiza v 2 = ( 2 (x 2 )) 1 (x 2 ) = ( 1.42, 2.33) f(x 2 ) v 2 = 4.5 > 0 Kierunek v 2 nie jest kierunkiem poprawy x v 2 x 2 f(x 2 ) x 1 20 / 56
45 x 2 = (0.99, 1.46) f(x 2 ) = (0.77, 2.4) [ ] f(x 2 ) = Analiza v 2 = ( 2 (x 2 )) 1 (x 2 ) = ( 1.42, 2.33) f(x 2 ) v 2 = 4.5 > 0 Kierunek v 2 nie jest kierunkiem poprawy x v 2 x 2 f(x 2 ) Wartości własne hesjanu: (22.4, 0.62) = nie jest dodatnio określony Optymalna długość kroku to α 2 = 0, ponieważ nie możemy polepszyć funkcji celu wzdłuż kierunku v 2 x 1 20 / 56
46 x 2 = (0.99, 1.46) f(x 2 ) = (0.77, 2.4) [ ] f(x 2 ) = Analiza v 2 = ( 2 (x 2 )) 1 (x 2 ) = ( 1.42, 2.33) f(x 2 ) v 2 = 4.5 > 0 Kierunek v 2 nie jest kierunkiem poprawy x v 2 x 2 f(x 2 ) Wartości własne hesjanu: (22.4, 0.62) = nie jest dodatnio określony Optymalna długość kroku to α 2 = 0, ponieważ nie możemy polepszyć funkcji celu wzdłuż kierunku v 2 Wniosek: Optymalizacja długości kroku może zawieść, jeśli hesjan nie jest dodatnio określony! x 1 20 / 56
47 Wartości własne hesjanu Dotychczas zakładaliśmy, że hesjan 2 f(x k ) jest dodatnio określony, czyli ma wszystkie wartości własne dodatnie i stąd jest odwracalny. W praktyce: Nawet dla funkcji wypukłych, hesjan może być tylko dodatnio półokreślony i jedna lub więcej wartości własnych może być równa zero; wtedy odwrotność ( 2 f(x k )) 1 nie istnieje Dla funkcji niewypukłych, wartości własne mogą być ujemne, a wtedy kierunek v k = ( 2 f(x k )) 1 f(x k ) nie musi być już kierunkiem poprawy! 21 / 56
48 Przykład Rozważmy minimalizację funkcji postaci: f(x) = x x 2 2 x 1 x 2 22 / 56
49 Przykład Rozważmy minimalizację funkcji postaci: f(x) = x x 2 2 x 1 x 2 f x 1 = 4x 3 1 1, f x 2 = 2x / 56
50 Przykład Rozważmy minimalizację funkcji postaci: f(x) = x x 2 2 x 1 x 2 2 f x 2 1 = 12x 2 1, f x 1 = 4x 3 1 1, 2 f x 2 2 = 2, f x 2 = 2x f x 1 x 2 = 0, 2 f(x) = [ ] 12x / 56
51 Przykład Rozważmy minimalizację funkcji postaci: 2 f x 2 1 = 12x 2 1, f(x) = x x 2 2 x 1 x 2 f x 1 = 4x 3 1 1, 2 f x 2 2 = 2, f x 2 = 2x f x 1 x 2 = 0, 2 f(x) = [ ] 12x Ponieważ hesjan w x ma wartości własne (12x 2 1, 2), nieujemne dla dowolnego x 1, jest macierzą dodatnio półokreśloną dla każdego x, a więc f(x) jest funkcją wypukłą 22 / 56
52 Przykład Rozważmy minimalizację funkcji postaci: 2 f x 2 1 = 12x 2 1, f(x) = x x 2 2 x 1 x 2 f x 1 = 4x 3 1 1, 2 f x 2 2 = 2, f x 2 = 2x f x 1 x 2 = 0, 2 f(x) = [ ] 12x Ponieważ hesjan w x ma wartości własne (12x 2 1, 2), nieujemne dla dowolnego x 1, jest macierzą dodatnio półokreśloną dla każdego x, a więc f(x) jest funkcją wypukłą Rozpoczynając metodę Newtona-Raphsona od x 1 = 0 mamy hesjan: [ ] f(x 1 ) =, 0 2 o wartościach własnych (0, 2), nie dający się odwrócić! 22 / 56
53 Rozważmy minimalizację funkcji: Przykład 2 1 f(x) = 2.5(x 2 1 x 2 ) 2 + (1 x 1 ) 2 2 f(x) = [ 30x x ] 10x 1 10x 1 5 x x 1 23 / 56
54 Rozważmy minimalizację funkcji: Przykład 2 1 f(x) = 2.5(x 2 1 x 2 ) 2 + (1 x 1 ) 2 2 f(x) = [ 30x x ] 10x 1 10x 1 5 x x 1 Rozpoczynając metodę Newtona-Raphsona od x 1 = (0, 0.3) dostajemy: 2 f(x 1 ) = [ ] o wartościach własnych ( 1, 5) 23 / 56
55 Rozważmy minimalizację funkcji: Przykład 2 1 f(x) = 2.5(x 2 1 x 2 ) 2 + (1 x 1 ) 2 2 f(x) = [ 30x x ] 10x 1 10x 1 5 x x 1 Rozpoczynając metodę Newtona-Raphsona od x 1 = (0, 0.3) dostajemy: 2 f(x 1 ) = [ ] o wartościach własnych ( 1, 5) Wielomian Taylora w x 1 nie jest funkcją wypukłą, a kolejny punkt x 2 jest jego punktem siodłowym, a nie minimum! Kierunek ( 2 f(x 1 )) 1 f(x 1 ) nie jest kierunkiem poprawy! 23 / 56
56 Przykład f(x) = 2.5(x 2 1 x 2 ) 2 + (1 x 1 ) 2, x 1 = (0, 0.3) 2 1 x 1 x2 0 x x 1 24 / 56
57 Przesunięcie wartości własnych Fakt: jeśli symetryczna macierz A ma wartości własne (λ 1,..., λ n ) to macierz A + ɛi ma wartości własne (λ 1 + ɛ,..., λ n + ɛ) 25 / 56
58 Przesunięcie wartości własnych Fakt: jeśli symetryczna macierz A ma wartości własne (λ 1,..., λ n ) to macierz A + ɛi ma wartości własne (λ 1 + ɛ,..., λ n + ɛ) Dowód: Jeśli v k jest wektorem własnym A z wartością własną λ k : Av k = λ k v k, to v k jest też wektorem własnym A + ɛi z wartością własną λ k + ɛ: (A + ɛi)v k = Av k + ɛiv k = λ k v k + ɛv k = (λ k + ɛ)v k 25 / 56
59 Przesunięcie wartości własnych Fakt: jeśli symetryczna macierz A ma wartości własne (λ 1,..., λ n ) to macierz A + ɛi ma wartości własne (λ 1 + ɛ,..., λ n + ɛ) Dowód: Jeśli v k jest wektorem własnym A z wartością własną λ k : Av k = λ k v k, to v k jest też wektorem własnym A + ɛi z wartością własną λ k + ɛ: (A + ɛi)v k = Av k + ɛiv k = λ k v k + ɛv k = (λ k + ɛ)v k Wniosek: Przy odpowiednim doborze ɛ, możemy zagwarantować, że wszystkie wartości własne macierzy A + ɛi będą dodatnie (tzn. macierz będzie dodatnio określona 25 / 56
60 Przykład f(x) = 3x 2 1 8x 1 x 2 + 2x 2 2, x = (x 1, x 2 ) v v x 2 x / 56
61 f(x) = x Ax, A = Przykład [ ] 3 4, λ = 6.53, λ 2 = v v x 2 x / 56
62 f(x) = x (A + I)x, A + I = Przykład [ ] 4 4, λ = 7.53, λ 2 = v v x 2 x / 56
63 Przykład f(x) = x (A + 2I)x, A + 2I = [ ] 5 4, λ = 8.53, λ 2 = v v x 2 x / 56
64 Metoda Levenberga-Marquardta W każdej iteracji k = 1, 2,... dodajemy do hesjanu macierz ɛ k I aby zapewnić jego dodatnią określoność: x k+1 = x k + α k v k, v k = ( 2 f(x k ) + ɛ k I) 1 f(x k ) 29 / 56
65 Metoda Levenberga-Marquardta W każdej iteracji k = 1, 2,... dodajemy do hesjanu macierz ɛ k I aby zapewnić jego dodatnią określoność: x k+1 = x k + α k v k, v k = ( 2 f(x k ) + ɛ k I) 1 f(x k ) Dobór współczynnika ɛ k : Dla funkcji wypukłych wystarczy stała, niewielka wartość ɛ, np. ɛ = Długość kroku można dobrać jako α k = 1 (jak w metodzie Newtona-Raphsona) lub optymalizować Dla funkcji niewypukłych, w każdej iteracji trzeba wyznaczyć wartości własne hesjanu i wybrać ɛ k tak, aby wszystkie przesunąć powyżej zera W tym przypadku zaleca się zawsze używanie zmiennej (optymalizowanej) długości kroku α k! 29 / 56
66 Metoda Levenberga-Marquardta: interpretacja Rozważmy ogólną metodę spadkową postaci x k+1 = x k + α k v k 30 / 56
67 Metoda Levenberga-Marquardta: interpretacja Rozważmy ogólną metodę spadkową postaci x k+1 = x k + α k v k W metodzie Newtona-Rapshona v k = ( 2 f(x k )) 1 f(x k ) możemy przedstawić jako rozwiązanie problemu minimalizacji funkcji kwadratowej: g(v) = f(x k ) v+ 1 2 v 2 f(x k )v 30 / 56
68 Metoda Levenberga-Marquardta: interpretacja Rozważmy Minimum ogólną funkcji metodę kwadratowej spadkową x b postaci x Ax x k+1 = x k + α k v k to x = A 1 b W metodzie Newtona-Rapshona v k = ( 2 f(x k )) 1 f(x k ) możemy przedstawić jako rozwiązanie problemu minimalizacji funkcji kwadratowej: g(v) = f(x k ) v+ 1 2 v 2 f(x k )v 30 / 56
69 Metoda Levenberga-Marquardta: interpretacja Rozważmy ogólną metodę spadkową postaci x k+1 = x k + α k v k W metodzie Newtona-Rapshona v k = ( 2 f(x k )) 1 f(x k ) możemy przedstawić jako rozwiązanie problemu minimalizacji funkcji kwadratowej: g(v) = f(x k ) v+ 1 2 v 2 f(x k )v W metodzie spadku wzdłuż gradientu v k = f(x k ) możemy przedstawić jako rozwiązanie problemu minimalizacji funkcji: g(v) = f(x k ) v v Iv 30 / 56
70 Metoda Levenberga-Marquardta: interpretacja Rozważmy ogólną metodę spadkową postaci x k+1 = x k + α k v k W metodzie Newtona-Rapshona v k = ( 2 f(x k )) 1 f(x k ) możemy przedstawić jako rozwiązanie problemu minimalizacji funkcji kwadratowej: g(v) = f(x k ) v+ 1 2 v 2 f(x k )v W metodzie spadku wzdłuż gradientu v k = f(x k ) możemy przedstawić jako rozwiązanie problemu minimalizacji funkcji: g(v) = f(x k ) v v Iv Metoda Levenberga-Marquardta jest interpolacją obu metod dobierając kierunek spadku jako rozwiązanie problemu minimalizacji funkcji: g(v) = f(x k ) v + 1 ) 2 v ( ɛ k I + 2 f(x k ) v Jest to szczególny przypadek metod quasi-newtonowskich, gdzie w funkcji kwadratowej dobiera się dowolną macierz dodatnio określoną A k 30 / 56
71 Metoda Newtona Raphsona z optymalnym doborem kroku f(x 1, x 2 ) = 2.5(x 2 1 x 2 ) 2 + (1 x 1 ) 2 2 x 1 x 2, x 3, x 4,... 1 x x 1 31 / 56
72 M. Levenberga-Marquardta z optymalnym doborem kroku f(x 1, x 2 ) = 2.5(x 2 1 x 2 ) 2 + (1 x 1 ) 2 2 x 1 x 2 1 x2 0 x x 1 32 / 56
73 Dla porównania: klasyczna metoda Newtona Raphsona f(x 1, x 2 ) = 2.5(x 2 1 x 2 ) 2 + (1 x 1 ) 2 2 x 1 x 2 1 x2 0 1 x x 1 33 / 56
74 Podsumowanie Dwie modyfikacje: 1. Optymalizacja długości kroku α k 2. Zapewnienie dodatniej określoności hesjanu (Levenberg-Marquardt) 34 / 56
75 Podsumowanie Dwie modyfikacje: 1. Optymalizacja długości kroku α k 2. Zapewnienie dodatniej określoności hesjanu (Levenberg-Marquardt) Jeśli stosujemy (1), powinniśmy również stosować (2), inaczej algorytm może się zatrzymać w nieoptymalnym rozwiązaniu! 34 / 56
76 Podsumowanie Dwie modyfikacje: 1. Optymalizacja długości kroku α k 2. Zapewnienie dodatniej określoności hesjanu (Levenberg-Marquardt) Jeśli stosujemy (1), powinniśmy również stosować (2), inaczej algorytm może się zatrzymać w nieoptymalnym rozwiązaniu! Optymalizacja długości kroku zapewnia zbieżność algortymu, ale niekoniecznie polepsza szybkość jego działania, a równocześnie zwiększa złożoność obliczeniową 34 / 56
77 Podsumowanie Dwie modyfikacje: 1. Optymalizacja długości kroku α k 2. Zapewnienie dodatniej określoności hesjanu (Levenberg-Marquardt) Jeśli stosujemy (1), powinniśmy również stosować (2), inaczej algorytm może się zatrzymać w nieoptymalnym rozwiązaniu! Optymalizacja długości kroku zapewnia zbieżność algortymu, ale niekoniecznie polepsza szybkość jego działania, a równocześnie zwiększa złożoność obliczeniową Dobry kompromis: Stosuj klasyczną metodę Newtona-Raphsona (z α k = 1), ale jeśli jej krok nie daje spadku funkcji celu (lub hesjan jest nieodwracalny), zastosuj krok Levenberga-Marquardta z optymalizacją α k. 34 / 56
78 Metoda gradientów sprzężonych 35 / 56
79 Przypomnienie z algebry: baza przestrzeni wektorowej Zbiór wektorów {v 1,..., v m } nazywamy liniowo niezależnym, jeśli żaden wektor z tego zbioru nie da się przedstawić w postaci kombinacji liniowej pozostałych W przestrzeni R n zbiór wektorów liniowo niezależnych może składać się maksymalnie z n wektorów, i zbiór taki nazywamy bazą przestrzeni wektorowej Wniosek: Jeśli {v 1,..., v n } jest bazą to dowolny inny wektor x R n musi być kombinacją liniową wektorów z bazy, tzn. dla pewnych współczynników c 1,..., c n R n x = c k v k k=1 36 / 56
80 Wektory sprzężone Niech A będzie macierzą dodatnio określoną Zbiór niezerowych wektorów {v 1,..., v n } nazywamy sprzężonymi (ze względu na macierz A), jeśli v i Av j = 0, dla dowolnych i j 37 / 56
81 Wektory sprzężone Niech A będzie macierzą dodatnio określoną Zbiór niezerowych wektorów {v 1,..., v n } nazywamy sprzężonymi (ze względu na macierz A), jeśli v i Av j = 0, dla dowolnych i j Fakt: Zbiór wektorów sprzężonych jest bazą 37 / 56
82 Wektory sprzężone Niech A będzie macierzą dodatnio określoną Zbiór niezerowych wektorów {v 1,..., v n } nazywamy sprzężonymi (ze względu na macierz A), jeśli v i Av j = 0, dla dowolnych i j Fakt: Zbiór wektorów sprzężonych jest bazą Dowód: Wystarczy pokazać ich liniową niezależność. Załóżmy przeciwnie, że istnieje wektor v k liniowo zależny od pozostałych, tzn. v k = i k α i v i 37 / 56
83 Wektory sprzężone Niech A będzie macierzą dodatnio określoną Zbiór niezerowych wektorów {v 1,..., v n } nazywamy sprzężonymi (ze względu na macierz A), jeśli v i Av j = 0, dla dowolnych i j Fakt: Zbiór wektorów sprzężonych jest bazą Dowód: Wystarczy pokazać ich liniową niezależność. Załóżmy przeciwnie, że istnieje wektor v k liniowo zależny od pozostałych, tzn. v k = i k α i v i Ale oznacza to, że: Av k = i k α i Av i 37 / 56
84 Wektory sprzężone Niech A będzie macierzą dodatnio określoną Zbiór niezerowych wektorów {v 1,..., v n } nazywamy sprzężonymi (ze względu na macierz A), jeśli v i Av j = 0, dla dowolnych i j Fakt: Zbiór wektorów sprzężonych jest bazą Dowód: Wystarczy pokazać ich liniową niezależność. Załóżmy przeciwnie, że istnieje wektor v k liniowo zależny od pozostałych, tzn. v k = i k α i v i Ale oznacza to, że: v k Av k = i k α i v k Av i 37 / 56
85 Wektory sprzężone Niech A będzie macierzą dodatnio określoną Zbiór niezerowych wektorów {v 1,..., v n } nazywamy sprzężonymi (ze względu na macierz A), jeśli v i Av j = 0, dla dowolnych i j Fakt: Zbiór wektorów sprzężonych jest bazą Dowód: Wystarczy pokazać ich liniową niezależność. Załóżmy przeciwnie, że istnieje wektor v k liniowo zależny od pozostałych, tzn. v k = i k α i v i Ale oznacza to, że: v k Av k = i k α i v k Av i }{{} =0 37 / 56
86 Wektory sprzężone Niech A będzie macierzą dodatnio określoną Zbiór niezerowych wektorów {v 1,..., v n } nazywamy sprzężonymi (ze względu na macierz A), jeśli v i Av j = 0, dla dowolnych i j Fakt: Zbiór wektorów sprzężonych jest bazą Dowód: Wystarczy pokazać ich liniową niezależność. Załóżmy przeciwnie, że istnieje wektor v k liniowo zależny od pozostałych, tzn. v k = i k α i v i Ale oznacza to, że: v k Av k = 0 co prowadzi do sprzeczności, ponieważ A jest dodatnio określona, a v k jest niezerowy, więc v k Av k > 0 37 / 56
87 Funkcja kwadratowa Będziemy rozważali minimalizację funkcji kwadratowej: f(x) = 1 2 x Ax x b, A dodatnio określona Pomijamy współczynnik c (nie wpływa na optymalizację) Pozostałe współczynniki dobieramy w ten sposób, aby: f(x) = 0 Ax = b, tzn. minimum x = A 1 b jest rozwiązaniem układu równań Ax = b 38 / 56
88 Metoda gradientów sprzężonych: wprowadzenie f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } będzie zbiorem wektorów sprzężonych ze względu na A Będziemy rozważali metodę spadkową minimalizacji funkcji kwadratowej, w której kolejne kierunki poprawy to kolejne wektory sprzężone, tzn.: k x k+1 = x k + α k v k, tzn. x k+1 = x 1 + α i v i, natomiast współczynniki α k wyznaczamy rozwiązując: α k = argmin f(x k + α k v k ) α }{{} g(α) i=1 39 / 56
89 Metoda gradientów sprzężonych: wprowadzenie f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } będzie zbiorem wektorów sprzężonych ze względu na A Będziemy rozważali metodę spadkową minimalizacji funkcji kwadratowej, w której kolejne kierunki poprawy to kolejne wektory sprzężone, tzn.: k x k+1 = x k + α k v k, tzn. x k+1 = x 1 + α i v i, natomiast współczynniki α k wyznaczamy rozwiązując: α k = argmin f(x k + α k v k ) α }{{} g(α) i=1 g(α) = 1 2 (x k + αv k ) A(x k + αv k ) (x k + αv k ) b 39 / 56
90 Metoda gradientów sprzężonych: wprowadzenie f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } będzie zbiorem wektorów sprzężonych ze względu na A Będziemy rozważali metodę spadkową minimalizacji funkcji kwadratowej, w której kolejne kierunki poprawy to kolejne wektory sprzężone, tzn.: k x k+1 = x k + α k v k, tzn. x k+1 = x 1 + α i v i, natomiast współczynniki α k wyznaczamy rozwiązując: α k = argmin f(x k + α k v k ) α }{{} g(α) i=1 g(α) = α2 2 v k Av k + α ( v k Ax k v k b ) + const 39 / 56
91 Metoda gradientów sprzężonych: wprowadzenie f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } będzie zbiorem wektorów sprzężonych ze względu na A Będziemy rozważali metodę spadkową minimalizacji funkcji kwadratowej, w której kolejne kierunki poprawy to kolejne wektory sprzężone, tzn.: k x k+1 = x k + α k v k, tzn. x k+1 = x 1 + α i v i, gradient: Ax k b = f(x k ) i=1 natomiast współczynniki oznaczamyα przez k wyznaczamy g k rozwiązując: α k = argmin f(x k + α k v k ) α }{{} g(α) g(α) = α2 2 v k Av k + αvk ( Axk b ) + const 39 / 56
92 Metoda gradientów sprzężonych: wprowadzenie f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } będzie zbiorem wektorów sprzężonych ze względu na A Będziemy rozważali metodę spadkową minimalizacji funkcji kwadratowej, w której kolejne kierunki poprawy to kolejne wektory sprzężone, tzn.: k x k+1 = x k + α k v k, tzn. x k+1 = x 1 + α i v i, natomiast współczynniki α k wyznaczamy rozwiązując: α k = argmin f(x k + α k v k ) α }{{} g(α) g(α) = α2 2 v k Av k + αv k g k + const i=1 39 / 56
93 Metoda gradientów sprzężonych: wprowadzenie f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } będzie zbiorem wektorów sprzężonych ze względu na A Będziemy rozważali metodę spadkową minimalizacji funkcji kwadratowej, w której kolejne kierunki poprawy to kolejne wektory sprzężone, tzn.: k x k+1 = x k + α k v k, tzn. x k+1 = x 1 + α i v i, natomiast współczynniki α k wyznaczamy rozwiązując: α k = argmin f(x k + α k v k ) α }{{} g(α) g (α) = αv k Av k + v k g k i=1 39 / 56
94 Metoda gradientów sprzężonych: wprowadzenie f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } będzie zbiorem wektorów sprzężonych ze względu na A Będziemy rozważali metodę spadkową minimalizacji funkcji kwadratowej, w której kolejne kierunki poprawy to kolejne wektory sprzężone, tzn.: k x k+1 = x k + α k v k, tzn. x k+1 = x 1 + α i v i, natomiast współczynniki α k wyznaczamy rozwiązując: α k = argmin f(x k + α k v k ) α }{{} g(α) g (α) = 0 αv k Av k = v k g k i=1 39 / 56
95 Metoda gradientów sprzężonych: wprowadzenie f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } będzie zbiorem wektorów sprzężonych ze względu na A Będziemy rozważali metodę spadkową minimalizacji funkcji kwadratowej, w której kolejne kierunki poprawy to kolejne wektory sprzężone, tzn.: k x k+1 = x k + α k v k, tzn. x k+1 = x 1 + α i v i, natomiast współczynniki α k wyznaczamy rozwiązując: α k = argmin f(x k + α k v k ) α }{{} g(α) α k = v k g k v k Av k i=1 39 / 56
96 Metoda gradientów sprzężonych: wprowadzenie f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } będzie zbiorem wektorów sprzężonych ze względu na A Będziemy rozważali metodę spadkową minimalizacji funkcji kwadratowej, w której kolejne kierunki poprawy to kolejne wektory sprzężone, tzn.: k x k+1 = x k + α k v k, tzn. x k+1 = x 1 + α i v i, natomiast współczynniki α k wyznaczamy rozwiązując: α k = argmin f(x k + α k v k ) α }{{} g(α) α k = v k g k v k Av k i=1 = v k (Ax k b) v k Av k 39 / 56
97 Metoda gradientów sprzężonych: wprowadzenie f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } będzie zbiorem wektorów sprzężonych ze względu na A Będziemy rozważali metodę spadkową minimalizacji funkcji kwadratowej, w której kolejne kierunki poprawy to kolejne wektory sprzężone, tzn.: k x k+1 = x k + α k v k, tzn. x k+1 = x 1 + α i v i, natomiast współczynniki α k wyznaczamy rozwiązując: α k = v k g k v k Av k α k = argmin f(x k + α k v k ) α }{{} g(α) i=1 = v k (Ax k Ax 1 + Ax 1 b) v k Av k 39 / 56
98 Metoda gradientów sprzężonych: wprowadzenie k 1 f(x) = 1 Ponieważ x k x 1 = 2 x Ax α i v i, xotrzymujemy b, A dodatnio określona i=1 Niech {v 1,..., v n } będzie k 1 zbiorem wektorów sprzężonych ze względu na A v k A(x k x 1 ) = α i vk Av i = 0 Będziemy rozważali metodę } spadkową {{} minimalizacji funkcji kwadratowej, i=1 =0 w której kolejne kierunki poprawy to kolejne wektory sprzężone, tzn.: k x k+1 = x k + α k v k, tzn. x k+1 = x 1 + α i v i, natomiast współczynniki α k wyznaczamy rozwiązując: α k = v k g k v k Av k α k = argmin f(x k + α k v k ) α }{{} g(α) i=1 = v k (Ax 1 b) + v k A(x k x 1 ) v k Av k 39 / 56
99 Metoda gradientów sprzężonych: wprowadzenie f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } będzie zbiorem wektorów sprzężonych ze względu na A Będziemy rozważali metodę spadkową minimalizacji funkcji kwadratowej, w której kolejne kierunki poprawy to kolejne wektory sprzężone, tzn.: k x k+1 = x k + α k v k, tzn. x k+1 = x 1 + α i v i, natomiast współczynniki α k wyznaczamy rozwiązując: α k = argmin f(x k + α k v k ) α }{{} g(α) α k = v k g k v k Av k = v k (b Ax 1) v k Av k Optymalna wartość α k zależy tylko od punktu startowego x 1! Możemy wyznaczyć α k niezależne od pozostałych współczynników i wcześniejszych kroków algorytmu 39 / 56 i=1
100 Funkcja kwadratowa a wektory sprzężone f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } zbiór wektorów sprzężonych. Ponieważ jest to baza, n x x 1 = α i v i Wyznaczmy optymalne współczynniki α k i=1 40 / 56
101 Funkcja kwadratowa a wektory sprzężone f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } zbiór wektorów sprzężonych. Ponieważ jest to baza, n x x 1 = α i v i i=1 Wyznaczmy optymalne współczynniki α k n Ax Ax 1 = α i Av i i=1 40 / 56
102 Funkcja kwadratowa a wektory sprzężone f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } zbiór wektorów sprzężonych. Ponieważ jest to baza, n x x 1 = α i v i i=1 Wyznaczmy optymalne współczynniki α k n b Ax 1 = α i Av i i=1 40 / 56
103 Funkcja kwadratowa a wektory sprzężone f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } zbiór wektorów sprzężonych. Ponieważ jest to baza, n x x 1 = α i v i i=1 Wyznaczmy optymalne współczynniki α k n vk (b Ax 1 ) = α k vk Av i }{{} i=1 =0 dla k i 40 / 56
104 Funkcja kwadratowa a wektory sprzężone f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } zbiór wektorów sprzężonych. Ponieważ jest to baza, n x x 1 = α i v i i=1 Wyznaczmy optymalne współczynniki α k vk (b Ax 1 ) = α k vk Av k 40 / 56
105 Funkcja kwadratowa a wektory sprzężone f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } zbiór wektorów sprzężonych. Ponieważ jest to baza, n x x 1 = α i v i Wyznaczmy optymalne współczynniki α k i=1 α k = v k (b Ax 1) vk Av, k 40 / 56
106 Funkcja kwadratowa a wektory sprzężone f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } zbiór wektorów sprzężonych. Ponieważ jest to baza, n x x 1 = α i v i Wyznaczmy optymalne współczynniki α k α k = v k (b Ax 1) vk Av, k Ale są to te same współczynniki, które dobiera w kolejnych krokach metoda gradientów sprzężonych, tzn. n x n+1 = x 1 + α k v k = x k=1 i=1 40 / 56
107 Funkcja kwadratowa a wektory sprzężone f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } zbiór wektorów sprzężonych. Ponieważ jest to baza, n x x 1 = α i v i Wyznaczmy optymalne współczynniki α k α k = v k (b Ax 1) vk Av, k Ale są to te same współczynniki, które dobiera w kolejnych krokach metoda gradientów sprzężonych, tzn. n x n+1 = x 1 + α k v k = x Wniosek: Metoda gradientów sprzężonych w każdym kroku optymalnie dobiera współczynnik α k, a rozwiązanie x otrzymujemy po n iteracjach! k=1 i=1 40 / 56
108 Ortogonalność gradientów Gradient w danej iteracji g k = f(x k ) jest ortogonalny do wszystkich poprzednich kierunków poprawy v 1,..., v k 1, tzn. v i g k = 0, dla i = 1,..., k 1 41 / 56
109 Ortogonalność gradientów Gradient w danej iteracji g k = f(x k ) jest ortogonalny do wszystkich poprzednich kierunków poprawy v 1,..., v k 1, tzn. Dowód: v i g k = 0, dla i = 1,..., k 1 v i g k = v i (Ax k b) 41 / 56
110 Ortogonalność gradientów Gradient w danej iteracji g k = f(x k ) jest ortogonalny do wszystkich poprzednich kierunków poprawy v 1,..., v k 1, tzn. Dowód: v i g k = 0, dla i = 1,..., k 1 vi g k = vi (Ax k b) ( = vi Ax 1 + A ( k 1 j=1 ) ) α j v j b 41 / 56
111 Ortogonalność gradientów Gradient w danej iteracji g k = f(x k ) jest ortogonalny do wszystkich poprzednich kierunków poprawy v 1,..., v k 1, tzn. Dowód: v i g k = 0, dla i = 1,..., k 1 vi g k = vi (Ax k b) ( = vi Ax 1 + A ( k 1 j=1 k 1 = vi (Ax 1 b) + α j j=1 ) ) α j v j b v i Av j }{{} =0 dla i j 41 / 56
112 Ortogonalność gradientów Gradient w danej iteracji g k = f(x k ) jest ortogonalny do wszystkich poprzednich kierunków poprawy v 1,..., v k 1, tzn. Dowód: v i g k = 0, dla i = 1,..., k 1 vi g k = vi (Ax k b) ( = vi Ax 1 + A ( k 1 j=1 k 1 = vi (Ax 1 b) + α j j=1 ) ) α j v j b = v i (Ax 1 b) + α i v i Av i v i Av j }{{} =0 dla i j 41 / 56
113 Ortogonalność gradientów Gradient w danej iteracji g k = f(x k ) jest ortogonalny do wszystkich poprzednich kierunków poprawy v 1,..., v k 1, tzn. Dowód: v i g k = 0, dla i = 1,..., k 1 vi g k = vi (Ax k b) ( = vi Ax 1 + A ( k 1 j=1 k 1 = vi (Ax 1 b) + α j j=1 ) ) α j v j b = v i (Ax 1 b) + α i v i Av i v i Av j }{{} =0 dla i j = vi (Ax 1 b) + v i (b Ax 1) vi Av vi Av i = 0 i 41 / 56
114 Jak znaleźć kierunki sprzężone? 42 / 56
115 Jak znaleźć kierunki sprzężone? Jako pierwszy kierunek sprzężony możemy obrać negatywny gradient: v 1 = f(x 1 ) = g 1 42 / 56
116 Jak znaleźć kierunki sprzężone? Jako pierwszy kierunek sprzężony możemy obrać negatywny gradient: v 1 = f(x 1 ) = g 1 Załóżmy, że dobraliśmy już kierunki sprzężone v 1,..., v k i chcemy dobrać kierunek v k+1. Ponownie, sensownym kandydatem jest g k+1, ale niekoniecznie jest on sprzężony do {v 1,..., v k } 42 / 56
117 Jak znaleźć kierunki sprzężone? Jako pierwszy kierunek sprzężony możemy obrać negatywny gradient: v 1 = f(x 1 ) = g 1 Załóżmy, że dobraliśmy już kierunki sprzężone v 1,..., v k i chcemy dobrać kierunek v k+1. Ponownie, sensownym kandydatem jest g k+1, ale niekoniecznie jest on sprzężony do {v 1,..., v k } Pomysł: dodajmy do gradientu kombinację liniową poprzednich kierunków aby stał się sprzężony, tzn. aby v j Av k+1 = 0 dla j k v k+1 = k g k+1 + β k,i v i i=1 42 / 56
118 Jak znaleźć kierunki sprzężone? Jako pierwszy kierunek sprzężony możemy obrać negatywny gradient: v 1 = f(x 1 ) = g 1 Załóżmy, że dobraliśmy już kierunki sprzężone v 1,..., v k i chcemy dobrać kierunek v k+1. Ponownie, sensownym kandydatem jest g k+1, ale niekoniecznie jest on sprzężony do {v 1,..., v k } Pomysł: dodajmy do gradientu kombinację liniową poprzednich kierunków aby stał się sprzężony, tzn. aby v j Av k+1 = 0 dla j k v k+1 = k g k+1 + β k,i v i i=1 Wyznaczmy te współczynniki: v k+1 = k g k+1 + β k,i v i i=1 42 / 56
119 Jak znaleźć kierunki sprzężone? Jako pierwszy kierunek sprzężony możemy obrać negatywny gradient: v 1 = f(x 1 ) = g 1 Załóżmy, że dobraliśmy już kierunki sprzężone v 1,..., v k i chcemy dobrać kierunek v k+1. Ponownie, sensownym kandydatem jest g k+1, ale niekoniecznie jest on sprzężony do {v 1,..., v k } Pomysł: dodajmy do gradientu kombinację liniową poprzednich kierunków aby stał się sprzężony, tzn. aby v j Av k+1 = 0 dla j k v k+1 = k g k+1 + β k,i v i i=1 Wyznaczmy te współczynniki: Av k+1 = k Ag k+1 + β k,i Av i i=1 42 / 56
120 Jak znaleźć kierunki sprzężone? Jako pierwszy kierunek sprzężony możemy obrać negatywny gradient: v 1 = f(x 1 ) = g 1 Załóżmy, że dobraliśmy już kierunki sprzężone v 1,..., v k i chcemy dobrać kierunek v k+1. Ponownie, sensownym kandydatem jest g k+1, ale niekoniecznie jest on sprzężony do {v 1,..., v k } Pomysł: dodajmy do gradientu kombinację liniową poprzednich kierunków aby stał się sprzężony, tzn. aby v j Av k+1 = 0 dla j k v k+1 = k g k+1 + β k,i v i i=1 Wyznaczmy te współczynniki: vj Av k+1 = k vj Ag k+1 + β k,i vj Av i i=1 }{{} =0 dla j i 42 / 56
121 Jak znaleźć kierunki sprzężone? Jako pierwszy kierunek sprzężony możemy obrać negatywny gradient: v 1 = f(x 1 ) = g 1 Załóżmy, że dobraliśmy już kierunki sprzężone v 1,..., v k i chcemy dobrać kierunek v k+1. Ponownie, sensownym kandydatem jest g k+1, ale niekoniecznie jest on sprzężony do {v 1,..., v k } Pomysł: dodajmy do gradientu kombinację liniową poprzednich kierunków aby stał się sprzężony, tzn. aby v j Av k+1 = 0 dla j k v k+1 = k g k+1 + β k,i v i i=1 Wyznaczmy te współczynniki: v j Av k+1 }{{} =0 = v j Ag k+1 + β k,j v j Av j 42 / 56
122 Jak znaleźć kierunki sprzężone? Jako pierwszy kierunek sprzężony możemy obrać negatywny gradient: v 1 = f(x 1 ) = g 1 Załóżmy, że dobraliśmy już kierunki sprzężone v 1,..., v k i chcemy dobrać kierunek v k+1. Ponownie, sensownym kandydatem jest g k+1, ale niekoniecznie jest on sprzężony do {v 1,..., v k } Pomysł: dodajmy do gradientu kombinację liniową poprzednich kierunków aby stał się sprzężony, tzn. aby v j Av k+1 = 0 dla j k v k+1 = k g k+1 + β k,i v i i=1 Wyznaczmy te współczynniki: v j Ag k+1 = β k,j v j Av j 42 / 56
123 Jak znaleźć kierunki sprzężone? Jako pierwszy kierunek sprzężony możemy obrać negatywny gradient: v 1 = f(x 1 ) = g 1 Załóżmy, że dobraliśmy już kierunki sprzężone v 1,..., v k i chcemy dobrać kierunek v k+1. Ponownie, sensownym kandydatem jest g k+1, ale niekoniecznie jest on sprzężony do {v 1,..., v k } Pomysł: dodajmy do gradientu kombinację liniową poprzednich kierunków aby stał się sprzężony, tzn. aby v j Av k+1 = 0 dla j k v k+1 = k g k+1 + β k,i v i i=1 Wyznaczmy te współczynniki: β k,j = v j Ag k+1 v j Av j 42 / 56
124 Jak znaleźć kierunki sprzężone? Jako pierwszy kierunek sprzężony możemy obrać negatywny gradient: v 1 = f(x 1 ) = g 1 Załóżmy, że dobraliśmy już kierunki sprzężone v 1,..., v k i chcemy dobrać kierunek v k+1. Ponownie, sensownym kandydatem jest g k+1, ale niekoniecznie jest on sprzężony do {v 1,..., v k } Pomysł: dodajmy do gradientu kombinację liniową poprzednich kierunków aby stał się sprzężony, tzn. aby v j Av k+1 = 0 dla j k v k+1 = k g k+1 + β k,i v i i=1 Wyznaczmy te współczynniki: β k,j = g k+1 Av j v j Av j Problem: w danej iteracji trzeba wyznaczyć k współczynników β k,1,..., β k,k i zapamiętać poprzednie kierunku poprawy v 1,..., v k 42 / 56
125 Jak znaleźć kierunki sprzężone? Jako pierwszy kierunek sprzężony możemy obrać negatywny gradient: v 1 = f(x 1 ) = g 1 Załóżmy, że dobraliśmy już kierunki sprzężone v 1,..., v k i chcemy dobrać kierunek v k+1. Ponownie, sensownym kandydatem jest g k+1, ale niekoniecznie jest on sprzężony do {v 1,..., v k } Pomysł: dodajmy do gradientu kombinację liniową poprzednich kierunków aby stał się sprzężony, tzn. aby v j Av k+1 = 0 dla j k v k+1 = k g k+1 + β k,i v i i=1 Wyznaczmy te współczynniki: β k,j = g k+1 Av j v j Av j Problem: Magia w danej gradientów iteracji trzeba sprzężonych: wyznaczyć k współczynników β k,1,..., Zachodzi β k,k i zapamiętać β k,j = 0 dla poprzednie j = 1,.. kierunku., k 1, czyli poprawy pozostaje v 1,..., v k tylko jeden niezerowy współczynnik β k,k 42 / 56
126 Kluczowy punkt konstrukcji algorytmu Zachodzi g k+1 Av j = 0 dla j = 1,..., k 1 43 / 56
127 Kluczowy punkt konstrukcji algorytmu Zachodzi g k+1 Av j = 0 dla j = 1,..., k 1 Dowód: Najpierw pokazujemy, że gradient g k+1 jest ortogonalny do wszystkich poprzednich gradientów, tzn. g k+1g j = 0, dla j = 1,..., k 43 / 56
128 Kluczowy punkt konstrukcji algorytmu Zachodzi g k+1 Av j = 0 dla j = 1,..., k 1 Dowód: Najpierw pokazujemy, że gradient g k+1 jest ortogonalny do wszystkich poprzednich gradientów, tzn. g k+1g j = 0, dla j = 1,..., k Pokazaliśmy już, że gradient jest ortogonalny do poprzednich kierunków poprawy, tzn. dla j k mamy g k+1 v j = 0 43 / 56
129 Kluczowy punkt konstrukcji algorytmu Zachodzi g k+1 Av j = 0 dla j = 1,..., k 1 Dowód: Najpierw pokazujemy, że gradient g k+1 jest ortogonalny do wszystkich poprzednich gradientów, tzn. g k+1g j = 0, dla j = 1,..., k Pokazaliśmy już, że gradient jest ortogonalny do poprzednich kierunków poprawy, tzn. dla j k mamy g k+1 v j = 0 Z zasady doboru kierunku poprawy: j 1 j 1 v j = g j + β j 1,i v i = g j = v j + β j 1,i v i i=1 i=1 43 / 56
130 Kluczowy punkt konstrukcji algorytmu Zachodzi g k+1 Av j = 0 dla j = 1,..., k 1 Dowód: Najpierw pokazujemy, że gradient g k+1 jest ortogonalny do wszystkich poprzednich gradientów, tzn. g k+1g j = 0, dla j = 1,..., k Pokazaliśmy już, że gradient jest ortogonalny do poprzednich kierunków poprawy, tzn. dla j k mamy g k+1 v j = 0 Z zasady doboru kierunku poprawy: j 1 j 1 v j = g j + β j 1,i v i = g j = v j + β j 1,i v i i=1 i=1 Czyli dla j k: gk+1g j = gk+1v j }{{} =0 j 1 + i=1 β j 1,i g k+1v i }{{} =0 = 0 43 / 56
131 Kluczowy punkt konstrukcji algorytmu Zachodzi g k+1 Av j = 0 dla j = 1,..., k 1 Dowód: Pokazaliśmy, że gradient g k+1 jest ortogonalny do wszystkich poprzednich gradientów, tzn. g k+1 g j = 0 dla j = 1,..., k 43 / 56
132 Kluczowy punkt konstrukcji algorytmu Zachodzi g k+1 Av j = 0 dla j = 1,..., k 1 Dowód: Pokazaliśmy, że gradient g k+1 jest ortogonalny do wszystkich poprzednich gradientów, tzn. g k+1 g j = 0 dla j = 1,..., k Teraz wykorzystamy fakt, że: g k+1 = Ax k+1 b = A(x k + α k v k ) b = Ax k b }{{} =g k +Aα k v k, 43 / 56
133 Kluczowy punkt konstrukcji algorytmu Zachodzi g k+1 Av j = 0 dla j = 1,..., k 1 Dowód: Pokazaliśmy, że gradient g k+1 jest ortogonalny do wszystkich poprzednich gradientów, tzn. g k+1 g j = 0 dla j = 1,..., k Teraz wykorzystamy fakt, że: g k+1 = Ax k+1 b = A(x k + α k v k ) b = Ax k b }{{} =g k +Aα k v k, Jeśli α k = 0, to g k+1 = g k, a ponieważ g k+1 g k = 0, wnioskujemy, że g k+1 = f(x k+1 ) = 0, czyli jesteśmy w optimum. 43 / 56
134 Kluczowy punkt konstrukcji algorytmu Zachodzi g k+1 Av j = 0 dla j = 1,..., k 1 Dowód: Pokazaliśmy, że gradient g k+1 jest ortogonalny do wszystkich poprzednich gradientów, tzn. g k+1 g j = 0 dla j = 1,..., k Teraz wykorzystamy fakt, że: g k+1 = Ax k+1 b = A(x k + α k v k ) b = Ax k b }{{} =g k +Aα k v k, Jeśli α k = 0, to g k+1 = g k, a ponieważ g k+1 g k = 0, wnioskujemy, że g k+1 = f(x k+1 ) = 0, czyli jesteśmy w optimum. Jeśli α k 0, mamy: Av k = 1 α k (g k+1 g k ) 43 / 56
135 Kluczowy punkt konstrukcji algorytmu Zachodzi g k+1 Av j = 0 dla j = 1,..., k 1 Dowód: Pokazaliśmy, że gradient g k+1 jest ortogonalny do wszystkich poprzednich gradientów, tzn. g k+1 g j = 0 dla j = 1,..., k Teraz wykorzystamy fakt, że: g k+1 = Ax k+1 b = A(x k + α k v k ) b = Ax k b }{{} =g k +Aα k v k, Jeśli α k = 0, to g k+1 = g k, a ponieważ g k+1 g k = 0, wnioskujemy, że g k+1 = f(x k+1 ) = 0, czyli jesteśmy w optimum. Jeśli α k 0, mamy: Av k = 1 α k (g k+1 g k ) Stąd otrzymujemy dla j k 1: gk+1av j = 1 g α k+1(g j+1 g j ) = 1 ( g k α k+1g j+1 gk+1g j k }{{}}{{} =0 =0 ) = 0 43 / 56
136 Dobór kierunków sprzężonych Wniosek: W algorytmie gradientów sprzężonych: x k+1 = x k + α k v k, α k = v k g k v k Av k kierunki sprzężone {v 1,..., v n } można otrzymać jako: v 1 = g 1 v k+1 = g k+1 + β k v k, β k = g k+1 Av k vk Av, k 44 / 56
137 Dobór kierunków sprzężonych Wniosek: W algorytmie gradientów sprzężonych: x k+1 = x k + α k v k, α k = v k g k v k Av k kierunki sprzężone {v 1,..., v n } można otrzymać jako: v 1 = g 1 v k+1 = g k+1 + β k v k, β k = g k+1 Av k vk Av, k Uwaga: Zwykle stosuje się inną postać współczynników α k : α k = v k g k v k Av k 44 / 56
138 Dobór kierunków sprzężonych Wniosek: W algorytmie gradientów sprzężonych: x k+1 = x k + α k v k, α k = v k g k v k Av k kierunki sprzężone {v 1,..., v n } można Zgodnie otrzymać z v k = jako: g k + β k 1 v k 1 v 1 = g 1 v k+1 = g k+1 + β k v k, β k = g k+1 Av k vk Av, k Uwaga: Zwykle stosuje się inną postać współczynników α k : α k = (g k β k 1 v k 1 ) g k v k Av k 44 / 56
139 Dobór kierunków sprzężonych Wniosek: W algorytmie gradientów sprzężonych: x k+1 = x k + α k v k, α k = v k g k v k Av k kierunki sprzężone gradient {vortogonalny 1,..., v n } można do poprzednich otrzymaćkierunków: jako: v 1 = gv 1 j g k = 0 dla j < k v k+1 = g k+1 + β k v k, β k = g k+1 Av k vk Av, k Uwaga: Zwykle stosuje się inną postać współczynników α k : α k = g k g k β k 1 v k 1 g k v k Av k 44 / 56
140 Dobór kierunków sprzężonych Wniosek: W algorytmie gradientów sprzężonych: x k+1 = x k + α k v k, α k = v k g k v k Av k kierunki sprzężone {v 1,..., v n } można otrzymać jako: v 1 = g 1 v k+1 = g k+1 + β k v k, β k = g k+1 Av k vk Av, k Uwaga: Zwykle stosuje się inną postać współczynników α k : α k = g k g k v k Av k 44 / 56
141 Dobór kierunków sprzężonych Wniosek: W algorytmie gradientów sprzężonych: x k+1 = x k + α k v k, α k = v k g k v k Av k kierunki sprzężone {v 1,..., v n } można otrzymać jako: v 1 = g 1 v k+1 = g k+1 + β k v k, β k = g k+1 Av k vk Av, k Uwaga: Zwykle stosuje się inną postać współczynników α k : Podobnie, dla współczynnika β k : α k = g k g k v k Av k β k = g k+1 Av k v k Av k 44 / 56
142 Dobór kierunków sprzężonych Wniosek: W algorytmie gradientów sprzężonych: x k+1 = x k + α k v k, α k = v k g k v k Av k kierunki sprzężone {v 1,..., v n } można otrzymać jako: v 1 = g 1 v k+1 = g k+1 + β k v k, β k = g k+1 Av k vk Av, k Uwaga: Zwykle stosuje się inną postać współczynników α k : Podobnie, dla współczynnika β k : α k = g k g k v k Av k β k = g k+1 (α kav k ) v k (α kav k ) 44 / 56
143 Dobór kierunków sprzężonych Wniosek: W algorytmie gradientów sprzężonych: x k+1 = x k + α k v k, α k = v k g k v k Av k kierunki sprzężone {v 1,..., v n } można otrzymać jako: W dowodzie v 1 = na gpoprzednim 1 slajdzie pokazaliśmy, że: v k+1 = g α k+1 + β k v k, β = g k+1 Av k Av k = g k+1 g k k vk Av, k Uwaga: Zwykle stosuje się inną postać współczynników α k : Podobnie, dla współczynnika β k : α k = g k g k v k Av k β k = g k+1 (α kav k ) v k (α kav k ) 44 / 56
144 Dobór kierunków sprzężonych Wniosek: W algorytmie gradientów sprzężonych: x k+1 = x k + α k v k, α k = v k g k v k Av k kierunki sprzężone {v 1,..., v n } można otrzymać jako: v 1 = g 1 v k+1 = g k+1 + β k v k, β k = g k+1 Av k vk Av, k Uwaga: Zwykle stosuje się inną postać współczynników α k : Podobnie, dla współczynnika β k : α k = g k g k v k Av k β k = g k+1 (g k+1 g k ) v k (g k+1 g k ) 44 / 56
145 Dobór kierunków sprzężonych Wniosek: W algorytmie gradientów sprzężonych: x k+1 = x k + α k v k, α k = v k g k v k Av k kierunki sprzężone {v 1,..., v n } można otrzymać jako: gradient v 1 = ortogonalny g 1 do poprzednich gradientów: g v k+1 = g k+1 + β k v k, β k = g k+1 Av k+1 g j = 0 dla j k k vk Av, k Uwaga: Zwykle stosuje się inną postać współczynników α k : Podobnie, dla współczynnika β k : α k = g k g k v k Av k β k = g k+1 g k+1 g k+1 g k v k g k+1 v k g k 44 / 56
146 Dobór kierunków sprzężonych Wniosek: W algorytmie gradientów sprzężonych: x k+1 = x k + α k v k, α k = v k g k v k Av k kierunki sprzężone {v 1,..., v n } można otrzymać jako: v 1 = g 1 v k+1 = g k+1 + β k v k, β k = g k+1 Av k gradient ortogonalny do poprzednich kierunków: vk Av, k vj Uwaga: Zwykle stosuje się inną g k+1 = 0 dla j k postać współczynników α k : Podobnie, dla współczynnika β k : α k = g k g k v k Av k β k = g k+1 g k+1 v k g k+1 v k g k 44 / 56
147 Dobór kierunków sprzężonych Wniosek: W algorytmie gradientów sprzężonych: x k+1 = x k + α k v k, α k = v k g k v k Av k kierunki sprzężone {v 1,..., v n } można otrzymać jako: v 1 = g 1 Pokazaliśmy przy przekształceniu α k, że v k+1 = g k+1 + β k v k, β v k = g k+1 Av k g vk k = g Av k, g k k Uwaga: Zwykle stosuje się inną postać współczynników α k : Podobnie, dla współczynnika β k : α k = g k g k v k Av k β k = g k+1 g k+1 v k g k 44 / 56
148 Dobór kierunków sprzężonych Wniosek: W algorytmie gradientów sprzężonych: x k+1 = x k + α k v k, α k = v k g k v k Av k kierunki sprzężone {v 1,..., v n } można otrzymać jako: v 1 = g 1 v k+1 = g k+1 + β k v k, β k = g k+1 Av k vk Av, k Uwaga: Zwykle stosuje się inną postać współczynników α k : Podobnie, dla współczynnika β k : α k = g k g k v k Av k β k = g k+1 g k+1 g k g k 44 / 56
Optymalizacja ciągła
Optymalizacja ciągła 4. Metody kierunków poprawy (metoda spadku wzdłuż gradientu) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 21.03.2019 1 / 41 Plan wykładu Minimalizacja
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 1. Optymalizacja funkcji jednej zmiennej Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.02.2019 1 / 54 Plan wykładu Optymalizacja funkcji jednej
Bardziej szczegółowoWYKŁAD 9 METODY ZMIENNEJ METRYKI
WYKŁAD 9 METODY ZMIENNEJ METRYKI Kierunki sprzężone. Metoda Newtona Raphsona daje dobre przybliżenie najlepszego kierunku poszukiwań, lecz jest to okupione znacznym kosztem obliczeniowym zwykle postać
Bardziej szczegółowoZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ
ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ Maciej Patan Uniwersytet Zielonogórski WSTEP Zadanie minimalizacji bez ograniczeń f(ˆx) = min x R nf(x) f : R n R funkcja ograniczona z dołu Algorytm rozwiazywania Rekurencyjny
Bardziej szczegółowoKADD Minimalizacja funkcji
Minimalizacja funkcji n-wymiarowych Forma kwadratowa w n wymiarach Procedury minimalizacji Minimalizacja wzdłuż prostej w n-wymiarowej przestrzeni Metody minimalizacji wzdłuż osi współrzędnych wzdłuż kierunków
Bardziej szczegółowoKADD Minimalizacja funkcji
Minimalizacja funkcji Poszukiwanie minimum funkcji Foma kwadratowa Metody przybliżania minimum minimalizacja Minimalizacja w n wymiarach Metody poszukiwania minimum Otaczanie minimum Podział obszaru zawierającego
Bardziej szczegółowo5. Metody Newtona. 5.1 Wzór Taylora
5. Metody Newtona Na ostatnich zajęciach zidentyfikowaliśmy ważny problem poznanych dotychczas metod (Gaussa-Seidel a, Cauchy iego, spadku wzdłuż gradientu, stochastycznego spadku wzdłuż gradientu): ich
Bardziej szczegółowoWstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych. P. F. Góra
Wstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2012 Strategia minimalizacji wielowymiarowej Zakładamy, że metody poszukiwania minimów
Bardziej szczegółowoTechniki Optymalizacji: Optymalizacja wypukła
Techniki Optymalizacji: Optymalizacja wypukła Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje: piątek 15:10-16:40
Bardziej szczegółowoMetody numeryczne I Równania nieliniowe
Metody numeryczne I Równania nieliniowe Janusz Szwabiński szwabin@ift.uni.wroc.pl Metody numeryczne I (C) 2004 Janusz Szwabiński p.1/66 Równania nieliniowe 1. Równania nieliniowe z pojedynczym pierwiastkiem
Bardziej szczegółowoWprowadzenie Metoda bisekcji Metoda regula falsi Metoda siecznych Metoda stycznych RÓWNANIA NIELINIOWE
Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać ogólna równania nieliniowego Zazwyczaj nie można znaleźć
Bardziej szczegółowoUKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH
Transport, studia I stopnia rok akademicki 2011/2012 Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Uwagi wstępne Układ liniowych równań algebraicznych można
Bardziej szczegółowo1 Równania nieliniowe
1 Równania nieliniowe 1.1 Postać ogólna równania nieliniowego Często występującym, ważnym problemem obliczeniowym jest numeryczne poszukiwanie rozwiązań równań nieliniowych, np. algebraicznych (wielomiany),
Bardziej szczegółowo1 Metody rozwiązywania równań nieliniowych. Postawienie problemu
1 Metody rozwiązywania równań nieliniowych. Postawienie problemu Dla danej funkcji ciągłej f znaleźć wartości x, dla których f(x) = 0. (1) 2 Przedział izolacji pierwiastka Będziemy zakładać, że równanie
Bardziej szczegółowoROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH
Transport, studia I stopnia Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać ogólna równania nieliniowego Często występującym, ważnym problemem obliczeniowym
Bardziej szczegółowo1 Pochodne wyższych rzędów
1 Pochodne wyższych rzędów Definicja 1.1 (Pochodne cząstkowe drugiego rzędu) Niech f będzie odwzorowaniem o wartościach w R m, określonym na zbiorze G R k. Załóżmy, że zbiór tych x G, dla których istnieje
Bardziej szczegółowoFormy kwadratowe. Rozdział 10
Rozdział 10 Formy kwadratowe Rozważmy rzeczywistą macierz symetryczną A R n n Definicja 101 Funkcję h : R n R postaci h (x) = x T Ax (101) nazywamy formą kwadratową Macierz symetryczną A występującą w
Bardziej szczegółowoMetoda Karusha-Kuhna-Tuckera
Badania operacyjne i teoria optymalizacji Poznań, 2015/2016 Plan 1 Sformułowanie problemu 2 3 Warunki ortogonalności 4 Warunki Karusha-Kuhna-Tuckera 5 Twierdzenia Karusha-Kuhna-Tuckera 6 Ograniczenia w
Bardziej szczegółowoUkłady równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona) f(x) = 0, gdzie. dla n=2 np.
Układy równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona f(x 0, f ( f, f,..., f n gdzie 2 x ( x, x 2,..., x n dla n2 np. f ( x, y 0 g( x, y 0 dla każdej wielowymiarowej rozwinięcie w szereg Taylora
Bardziej szczegółowoZaawansowane metody numeryczne
Wykład 11 Ogólna postać metody iteracyjnej Definicja 11.1. (metoda iteracyjna rozwiązywania układów równań) Metodą iteracyjną rozwiązywania { układów równań liniowych nazywamy ciąg wektorów zdefiniowany
Bardziej szczegółowoRÓWNANIA NIELINIOWE Maciej Patan
RÓWNANIA NIELINIOWE Maciej Patan Uniwersytet Zielonogórski Przykład 1 Prędkość v spadającego spadochroniarza wyraża się zależnością v = mg ( 1 e c t) m c gdzie g = 9.81 m/s 2. Dla współczynnika oporu c
Bardziej szczegółowoPrzegląd metod optymalizacji wielowymiarowej. Funkcja testowa. Funkcja testowa. Notes. Notes. Notes. Notes. Tomasz M. Gwizdałła
Przegląd metod optymalizacji wielowymiarowej Tomasz M. Gwizdałła 2012.12.06 Funkcja testowa Funkcją testową dla zagadnień rozpatrywanych w ramach tego wykładu będzie funkcja postaci f (x) = (x 1 1) 4 +
Bardziej szczegółowowszystkich kombinacji liniowych wektorów układu, nazywa się powłoką liniową uk ładu wektorów
KOINACJA LINIOWA UKŁADU WEKTORÓW Definicja 1 Niech będzie przestrzenią liniową (wektorową) nad,,,, układem wektorów z przestrzeni, a,, współczynnikami ze zbioru (skalarami). Wektor, nazywamy kombinacją
Bardziej szczegółowoProgramowanie nieliniowe. Badania operacyjne Wykład 3 Metoda Lagrange a
Programowanie nieliniowe Badania operacyjne Wykład 3 Metoda Lagrange a Plan wykładu Przykład problemu z nieliniową funkcją celu Sformułowanie problemu programowania matematycznego Podstawowe definicje
Bardziej szczegółowoMatematyka stosowana i metody numeryczne
Ewa Pabisek Adam Wosatko Piotr Pluciński Matematyka stosowana i metody numeryczne Konspekt z wykładu 6 Rozwiązywanie równań nieliniowych Rozwiązaniem lub pierwiastkiem równania f(x) = 0 lub g(x) = h(x)
Bardziej szczegółowoMetody Numeryczne Optymalizacja. Wojciech Szewczuk
Metody Numeryczne Optymalizacja Optymalizacja Definicja 1 Przez optymalizację będziemy rozumieć szukanie minimów lub maksimów funkcji. Optymalizacja Definicja 2 Optymalizacja lub programowanie matematyczne
Bardziej szczegółowoRozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów.
Rozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów. Plan wykładu: 1. Wyznaczanie pojedynczych pierwiastków rzeczywistych równań nieliniowych metodami a) połowienia (bisekcji)
Bardziej szczegółowoWstęp do metod numerycznych 12. Minimalizacja: funkcje wielu zmiennych. P. F. Góra
Wstęp do metod numerycznych 12. Minimalizacja: funkcje wielu zmiennych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2015 Strategia minimalizacji wielowymiarowej Zakładamy, że metody poszukiwania minimów
Bardziej szczegółowoVII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa.
VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa. W rozdziale tym zajmiemy się dokładniej badaniem stabilności rozwiązań równania różniczkowego. Pojęcie stabilności w
Bardziej szczegółowoII. FUNKCJE WIELU ZMIENNYCH
II. FUNKCJE WIELU ZMIENNYCH 1. Zbiory w przestrzeni R n Ustalmy dowolne n N. Definicja 1.1. Zbiór wszystkich uporzadkowanych układów (x 1,..., x n ) n liczb rzeczywistych, nazywamy przestrzenią n-wymiarową
Bardziej szczegółowoWstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa. P. F. Góra
Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2012 Uwarunkowanie zadania numerycznego Niech ϕ : R n R m będzie pewna funkcja odpowiednio wiele
Bardziej szczegółowoMetody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 3 autorzy: A. Gonczarek, J.M. Tomczak Zbiory i funkcje wypukłe Zad. 1 Pokazać, że następujące zbiory są wypukłe: a) płaszczyzna S = {x
Bardziej szczegółowoOptymalizacja (minimalizacja) funkcji. Plan wykładu: 1. Sformułowanie problemu, funkcja celu. 2. Metody bezgradientowe
Optymalizacja (minimalizacja) funkcji Plan wykładu: 1. Sformułowanie problemu, funkcja celu. Metody bezgradientowe a) metoda złotego podziału b) metoda sympleks c) metoda interpolacji Powell'a 3. Metody
Bardziej szczegółowoMetody Optymalizacji: Przeszukiwanie z listą tabu
Metody Optymalizacji: Przeszukiwanie z listą tabu Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje: wtorek
Bardziej szczegółowoPolitechnika Wrocławska, Wydział Informatyki i Zarządzania. Optymalizacja
Politechnika Wrocławska, Wydział Informatyki i Zarządzania Optymalizacja Dla podanych niżej problemów decyzyjnych (zad.1 zad.5) należy sformułować zadania optymalizacji, tj.: określić postać zmiennych
Bardziej szczegółowo5. Metody stochastyczne (symulowane wyżarzanie, algorytmy genetyczne) -> metody Monte Carlo
Optymalizacja (minimalizacja) funkcji Plan wykładu: 1. Sformułowanie problemu, funkcja celu 2. Metody bezgradientowe a) metoda złotego podziału b) metoda sympleks c) metoda interpolacji Powell'a 3. Metody
Bardziej szczegółowoTechniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I
Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:
Bardziej szczegółowo1 Wartości własne oraz wektory własne macierzy
Rozwiązania zadania umieszczonego na końcu poniższych notatek proszę przynieść na kartkach Proszę o staranne i formalne uzasadnienie odpowiedzi Za zadanie można uzyskać do 6 punktów (jeżeli przyniesione
Bardziej szczegółowojeśli nie jest spełnione kryterium zatrzymania, to nowym punktem roboczym x(t+1) staje i następuje przejście do 1)
Metody automatycznej optymalizacji cz.i metody dwufazowe Święta Wielkanocne już za nami, tak więc bierzemy się wspólnie do pracy. Ostatnim razem dokonaliśmy charakterystyki zadań optymalizacji i wskazaliśmy
Bardziej szczegółowoUkłady równań i nierówności liniowych
Układy równań i nierówności liniowych Wiesław Krakowiak 1 grudnia 2010 1 Układy równań liniowych DEFINICJA 11 Układem równań m liniowych o n niewiadomych X 1,, X n, nazywamy układ postaci: a 11 X 1 + +
Bardziej szczegółowoMetody optymalizacji. notatki dla studentów matematyki semestr zimowy 2015/2016
Metody optymalizacji notatki dla studentów matematyki semestr zimowy 2015/2016 Aktualizacja: 11 stycznia 2016 Spis treści Spis treści 2 1 Wprowadzenie do optymalizacji 1 11 Podstawowe definicje i własności
Bardziej szczegółowo2. Definicja pochodnej w R n
2. Definicja pochodnej w R n Niech będzie dana funkcja f : U R określona na zbiorze otwartym U R n. Pochodną kierunkową w punkcie a U w kierunku wektora u R n nazywamy granicę u f(a) = lim t 0 f(a + tu)
Bardziej szczegółowoFormy kwadratowe. Mirosław Sobolewski. Wydział Matematyki, Informatyki i Mechaniki UW. 14. wykład z algebry liniowej Warszawa, styczeń 2017
Formy kwadratowe Mirosław Sobolewski Wydział Matematyki, Informatyki i Mechaniki UW 14. wykład z algebry liniowej Warszawa, styczeń 2017 Mirosław Sobolewski (UW) Warszawa, 2017 1 / 10 Definicja Funkcja
Bardziej szczegółowo3. Funkcje wielu zmiennych
3 Funkcje wielu zmiennych 31 Ciagłość Zanim podamy definicję ciagłości dla funkcji wielu zmiennych wprowadzimy bardzo ogólne i abstrakcyjne pojęcie przestrzeni metrycznej Przestrzeń metryczna Metryka w
Bardziej szczegółowoWykład 12 i 13 Macierz w postaci kanonicznej Jordana , 0 A 2
Wykład 12 i 13 Macierz w postaci kanonicznej Jordana Niech A - macierz kwadratowa stopnia n Jak obliczyć np A 100? a 11 0 0 0 a 22 0 Jeśli A jest macierzą diagonalną tzn A =, to Ak = 0 0 a nn Niech B =
Bardziej szczegółowoALGEBRA Z GEOMETRIĄ BAZY PRZESTRZENI WEKTOROWYCH
ALGEBRA Z GEOMETRIĄ 1/10 BAZY PRZESTRZENI WEKTOROWYCH Piotr M. Hajac Uniwersytet Warszawski Wykład 11, 18.12.2013 Typeset by Jakub Szczepanik. Istnienie bazy Tak jak wśród wszystkich pierścieni wyróżniamy
Bardziej szczegółowoZrównoleglona optymalizacja stochastyczna na dużych zbiorach danych
Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych mgr inż. C. Dendek prof. nzw. dr hab. J. Mańdziuk Politechnika Warszawska, Wydział Matematyki i Nauk Informacyjnych Outline 1 Uczenie
Bardziej szczegółowoPochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji
Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji Adam Kiersztyn Lublin 2014 Adam Kiersztyn () Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji maj 2014 1 / 24 Zanim przejdziemy
Bardziej szczegółowoAlgebra liniowa z geometrią
Algebra liniowa z geometrią Maciej Czarnecki 15 stycznia 2013 Spis treści 1 Geometria płaszczyzny 2 1.1 Wektory i skalary........................... 2 1.2 Macierze, wyznaczniki, układy równań liniowych.........
Bardziej szczegółowoAproksymacja. funkcji: ,a 2. ,...,a m. - są funkcjami bazowymi m+1 wymiarowej podprzestrzeni liniowej X m+1
Założenie: f(x) funkcja którą aproksymujemy X jest przestrzenią liniową Aproksymacja liniowa funkcji f(x) polega na wyznaczeniu współczynników a 0,a 1,a 2,...,a m funkcji: Gdzie: - są funkcjami bazowymi
Bardziej szczegółowoMetody numeryczne. Równania nieliniowe. Janusz Szwabiński.
Metody numeryczne Równania nieliniowe Janusz Szwabiński szwabin@ift.uni.wroc.pl nm_slides-9.tex Metody numeryczne Janusz Szwabiński 7/1/2003 20:18 p.1/64 Równania nieliniowe 1. Równania nieliniowe z pojedynczym
Bardziej szczegółowoKADD Metoda najmniejszych kwadratów funkcje nieliniowe
Metoda najmn. kwadr. - funkcje nieliniowe Metoda najmniejszych kwadratów Funkcje nieliniowe Procedura z redukcją kroku iteracji Przykłady zastosowań Dopasowanie funkcji wykładniczej Dopasowanie funkcji
Bardziej szczegółowoIteracyjne rozwiązywanie równań
Elementy metod numerycznych Plan wykładu 1 Wprowadzenie Plan wykładu 1 Wprowadzenie 2 Plan wykładu 1 Wprowadzenie 2 3 Wprowadzenie Metoda bisekcji Metoda siecznych Metoda stycznych Plan wykładu 1 Wprowadzenie
Bardziej szczegółowoZaawansowane metody numeryczne
Wykład 10 Rozkład LU i rozwiązywanie układów równań liniowych Niech będzie dany układ równań liniowych postaci Ax = b Załóżmy, że istnieją macierze L (trójkątna dolna) i U (trójkątna górna), takie że macierz
Bardziej szczegółowoMetody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium Zadanie nr 3 Osada autor: A Gonczarek Celem poniższego zadania jest zrealizowanie fragmentu komputerowego przeciwnika w grze strategiczno-ekonomicznej
Bardziej szczegółowoTeoretyczne podstawy programowania liniowego
Teoretyczne podstawy programowania liniowego Elementy algebry liniowej Plan Kombinacja liniowa Definicja Kombinacja liniowa wektorów (punktów) x 1, x 2,, x k R n to wektor x R n k taki, że x = i=1 λ i
Bardziej szczegółowoProgramowanie celowe #1
Programowanie celowe #1 Problem programowania celowego (PC) jest przykładem problemu programowania matematycznego nieliniowego, który można skutecznie zlinearyzować, tzn. zapisać (i rozwiązać) jako problem
Bardziej szczegółowoPrzekształcenia liniowe
Przekształcenia liniowe Zadania Które z następujących przekształceń są liniowe? (a) T : R 2 R 2, T (x, x 2 ) = (2x, x x 2 ), (b) T : R 2 R 2, T (x, x 2 ) = (x + 3x 2, x 2 ), (c) T : R 2 R, T (x, x 2 )
Bardziej szczegółowoElementy metod numerycznych
Wykład nr 5 i jej modyfikacje. i zera wielomianów Założenia metody Newtona Niech będzie dane równanie f (x) = 0 oraz przedział a, b taki, że w jego wnętrzu znajduje się dokładnie jeden pierwiastek α badanego
Bardziej szczegółowoMetoda gradientu prostego
Metoda gradientu prostego Metoda gradientu prostego jest pojęciem z zakresu optymalizacji matematycznej. Jest to algorytm numeryczny mający na celu znalezienie minimum zadanej funkcji celu. Jest to jedna
Bardziej szczegółowo1.3. Optymalizacja geometrii czasteczki
0 1 Część teoretyczna 13 Optymalizacja geometrii czasteczki Poszukiwanie punktów stacjonarnych (krytycznych) funkcji stanowi niezwykle istotny problem w obliczeniowej chemii kwantowej Sprowadza się on
Bardziej szczegółowoPolitechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania
Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Metody optymalizacji Metody poszukiwania ekstremum funkcji jednej zmiennej Materiały pomocnicze do ćwiczeń
Bardziej szczegółowoIII. Układy liniowe równań różniczkowych. 1. Pojęcie stabilności rozwiązań.
III. Układy liniowe równań różniczkowych. 1. Pojęcie stabilności rozwiązań. Analiza stabilności rozwiązań stanowi ważną część jakościowej teorii równań różniczkowych. Jej istotą jest poszukiwanie odpowiedzi
Bardziej szczegółowoPROGRAMOWANIE KWADRATOWE
PROGRAMOWANIE KWADRATOWE Programowanie kwadratowe Zadanie programowania kwadratowego: Funkcja celu lub/i co najmniej jedno z ograniczeń jest funkcją kwadratową. 2 Programowanie kwadratowe Nie ma uniwersalnej
Bardziej szczegółowoa 11 a a 1n a 21 a a 2n... a m1 a m2... a mn x 1 x 2... x m ...
Wykład 15 Układy równań liniowych Niech K będzie ciałem i niech α 1, α 2,, α n, β K. Równanie: α 1 x 1 + α 2 x 2 + + α n x n = β z niewiadomymi x 1, x 2,, x n nazywamy równaniem liniowym. Układ: a 21 x
Bardziej szczegółowoPrzestrzenie wektorowe
Rozdział 4 Przestrzenie wektorowe Rozważania dotyczące przestrzeni wektorowych rozpoczniemy od kilku prostych przykładów. Przykład 4.1. W przestrzeni R 3 = {(x, y, z) : x, y, z R} wprowadzamy dwa działania:
Bardziej szczegółowo1 Formy hermitowskie. GAL (Informatyka) Wykład - formy hermitowskie. Paweł Bechler
GAL (Informatyka) Wykład - formy hermitowskie Wersja z dnia 23 stycznia 2014 Paweł Bechler 1 Formy hermitowskie Niech X oznacza przestrzeń liniową nad ciałem K. Definicja 1. Funkcję φ : X X K nazywamy
Bardziej szczegółowoWstęp do metod numerycznych Rozwiazywanie równań algebraicznych. P. F. Góra
Wstęp do metod numerycznych Rozwiazywanie równań algebraicznych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2010 Co to znaczy rozwiazać równanie? Przypuśmy, że postawiono przed nami problem rozwiazania
Bardziej szczegółowoMacierze. Rozdział Działania na macierzach
Rozdział 5 Macierze Funkcję, która każdej parze liczb naturalnych (i, j) (i 1,..., n; j 1,..., m) przyporządkowuje dokładnie jedną liczbę a ij F, gdzie F R lub F C, nazywamy macierzą (rzeczywistą, gdy
Bardziej szczegółowoProgramowanie liniowe
Programowanie liniowe Maciej Drwal maciej.drwal@pwr.wroc.pl 1 Problem programowania liniowego min x c T x (1) Ax b, (2) x 0. (3) gdzie A R m n, c R n, b R m. Oznaczmy przez x rozwiązanie optymalne, tzn.
Bardziej szczegółowo5. Rozwiązywanie układów równań liniowych
5. Rozwiązywanie układów równań liniowych Wprowadzenie (5.1) Układ n równań z n niewiadomymi: a 11 +a 12 x 2 +...+a 1n x n =a 10, a 21 +a 22 x 2 +...+a 2n x n =a 20,..., a n1 +a n2 x 2 +...+a nn x n =a
Bardziej szczegółowoUkłady równań liniowych. Krzysztof Patan
Układy równań liniowych Krzysztof Patan Motywacje Zagadnienie kluczowe dla przetwarzania numerycznego Wiele innych zadań redukuje się do problemu rozwiązania układu równań liniowych, często o bardzo dużych
Bardziej szczegółowo3. Macierze i Układy Równań Liniowych
3. Macierze i Układy Równań Liniowych Rozważamy równanie macierzowe z końcówki ostatniego wykładu ( ) 3 1 X = 4 1 ( ) 2 5 Podstawiając X = ( ) x y i wymnażając, otrzymujemy układ 2 równań liniowych 3x
Bardziej szczegółowoLaboratorium 5 Przybliżone metody rozwiązywania równań nieliniowych
Uniwersytet Zielonogórski Wydział Informatyki, Elektrotechniki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych Elektrotechnika niestacjonarne-zaoczne pierwszego stopnia z tyt. inżyniera
Bardziej szczegółowoMetody Obliczeniowe w Nauce i Technice
9 - Rozwiązywanie układów równań nieliniowych Marian Bubak Department of Computer Science AGH University of Science and Technology Krakow, Poland bubak@agh.edu.pl dice.cyfronet.pl Contributors Anna Marciniec
Bardziej szczegółowoWykład z równań różnicowych
Wykład z równań różnicowych 1 Wiadomości wstępne Umówmy się, że na czas tego wykładu zrezygnujemy z oznaczania n-tego wyrazu ciągu symbolem typu x n, y n itp. Zamiast tego pisać będziemy x (n), y (n) itp.
Bardziej szczegółowoIloczyn skalarny. Mirosław Sobolewski. Wydział Matematyki, Informatyki i Mechaniki UW. 10. wykład z algebry liniowej Warszawa, grudzień 2013
Iloczyn skalarny Mirosław Sobolewski Wydział Matematyki, Informatyki i Mechaniki UW 10. wykład z algebry liniowej Warszawa, grudzień 2013 Mirosław Sobolewski (UW) Warszawa, grudzień 2013 1 / 14 Standardowy
Bardziej szczegółowoTreść wykładu. Układy równań i ich macierze. Rząd macierzy. Twierdzenie Kroneckera-Capellego.
. Metoda eliminacji. Treść wykładu i ich macierze... . Metoda eliminacji. Ogólna postać układu Układ m równań liniowych o n niewiadomych x 1, x 2,..., x n : a 11 x 1 + a 12 x 2 + + a 1n x n = b 1 a 21
Bardziej szczegółowoMetody numeryczne Wykład 7
Metody numeryczne Wykład 7 Dr inż. Michał Łanczont Instytut Elektrotechniki i Elektrotechnologii E419, tel. 4293, m.lanczont@pollub.pl, http://m.lanczont.pollub.pl Plan wykładu Rozwiązywanie równań algebraicznych
Bardziej szczegółowoMetody numeryczne. Janusz Szwabiński. Metody numeryczne I (C) 2004 Janusz Szwabiński p.1/50
Metody numeryczne Układy równań liniowych, część II Janusz Szwabiński szwabin@ift.uni.wroc.pl Metody numeryczne I (C) 2004 Janusz Szwabiński p.1/50 Układy równań liniowych, część II 1. Iteracyjne poprawianie
Bardziej szczegółowoKomputerowa analiza zagadnień różniczkowych 2. Metoda gradientów sprzężonych Minimalizacja i układy równań algebraicznych
Komputerowa analiza zagadnień różniczkowych 2. Metoda gradientów sprzężonych Minimalizacja i układy równań algebraicznych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ semestr letni 2007/08 Metoda gradientów
Bardziej szczegółowoRozwiązywanie równań nieliniowych
Rozwiązywanie równań nieliniowych Marcin Orchel 1 Wstęp Przykłady wyznaczania miejsc zerowych funkcji f : f(ξ) = 0. Wyszukiwanie miejsc zerowych wielomianu n-tego stopnia. Wymiar tej przestrzeni wektorowej
Bardziej szczegółowoAlgebra liniowa. 1. Macierze.
Algebra liniowa 1 Macierze Niech m oraz n będą liczbami naturalnymi Przestrzeń M(m n F) = F n F n będącą iloczynem kartezjańskim m egzemplarzy przestrzeni F n z naturalnie określonymi działaniami nazywamy
Bardziej szczegółowoMateriały wykładowe (fragmenty)
Materiały wykładowe (fragmenty) 1 Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL kontakt osobisty Centrum Wykładowe, blok informatyki, pok. 7
Bardziej szczegółowoModyfikacja schematu SCPF obliczeń energii polaryzacji
Modyfikacja schematu SCPF obliczeń energii polaryzacji Zakład Metod Obliczeniowych Chemii 11 kwietnia 2006 roku 1 Po co? Jak? 2 Algorytm Analiza zbieżności 3 dla układów symetrycznych 4 Fulleren 5 Po co?
Bardziej szczegółowoZadania z algebry liniowej - sem. I Przestrzenie liniowe, bazy, rząd macierzy
Zadania z algebry liniowej - sem I Przestrzenie liniowe bazy rząd macierzy Definicja 1 Niech (K + ) będzie ciałem (zwanym ciałem skalarów a jego elementy nazywać będziemy skalarami) Przestrzenią liniową
Bardziej szczegółowoMetody numeryczne II
Metody numeryczne II Poszukiwanie ekstremów funkcji Janusz Szwabiński szwabin@ift.uni.wroc.pl nmslides-13.tex Metody numeryczne II Janusz Szwabiński 29/5/2003 14:40 p.1/55 Poszukiwanie ekstremów funkcji
Bardziej szczegółowoWstęp do metod numerycznych 9a. Układy równań algebraicznych. P. F. Góra
Wstęp do metod numerycznych 9a. Układy równań algebraicznych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2012 Układy równań algebraicznych Niech g:r N równanie R N będzie funkcja klasy co najmniej
Bardziej szczegółowoWykład 3 Równania rózniczkowe cd
7 grudnia 2010 Definicja Równanie różniczkowe dy dx + p (x) y = q (x) (1) nazywamy równaniem różniczkowym liniowym pierwszego rzędu. Jeśli q (x) 0, to równanie (1) czyli równanie dy dx + p (x) y = 0 nazywamy
Bardziej szczegółowoUKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH
Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać układu równań liniowych Układ liniowych równań algebraicznych
Bardziej szczegółowoEgzamin z Metod Numerycznych ZSI, Egzamin, Gr. A
Egzamin z Metod Numerycznych ZSI, 06.2007. Egzamin, Gr. A Imię i nazwisko: Nr indeksu: Section 1. Test wyboru, max 33 pkt Zaznacz prawidziwe odpowiedzi literą T, a fałszywe N. Każda prawidłowa odpowiedź
Bardziej szczegółowoStabilność II Metody Lapunowa badania stabilności
Metody Lapunowa badania stabilności Interesuje nas w sposób szczególny system: Wprowadzamy dla niego pojęcia: - stabilności wewnętrznej - odnosi się do zachowania się systemu przy zerowym wejściu, czyli
Bardziej szczegółowo2.1. Postać algebraiczna liczb zespolonych Postać trygonometryczna liczb zespolonych... 26
Spis treści Zamiast wstępu... 11 1. Elementy teorii mnogości... 13 1.1. Algebra zbiorów... 13 1.2. Iloczyny kartezjańskie... 15 1.2.1. Potęgi kartezjańskie... 16 1.2.2. Relacje.... 17 1.2.3. Dwa szczególne
Bardziej szczegółowoZ52: Algebra liniowa Zagadnienie: Zastosowania algebry liniowej Zadanie: Operatory różniczkowania, zagadnienie brzegowe.
Z5: Algebra liniowa Zagadnienie: Zastosowania algebry liniowej Zadanie: Operatory różniczkowania zagadnienie brzegowe Dyskretne operatory różniczkowania Numeryczne obliczanie pochodnych oraz rozwiązywanie
Bardziej szczegółowoUkłady równań liniowych
Układy równań liniowych Niech K będzie ciałem. Niech n, m N. Równanie liniowe nad ciałem K z niewiadomymi (lub zmiennymi) x 1, x 2,..., x n K definiujemy jako formę zdaniową zmiennej (x 1,..., x n ) K
Bardziej szczegółowoIX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych,
IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. Definicja 1.1. Niech D będzie podzbiorem przestrzeni R n, n 2. Odwzorowanie f : D R nazywamy
Bardziej szczegółowoMETODY NUMERYCZNE. Wykład 4. Numeryczne rozwiązywanie równań nieliniowych z jedną niewiadomą. prof. dr hab.inż. Katarzyna Zakrzewska
METODY NUMERYCZNE Wykład 4. Numeryczne rozwiązywanie równań nieliniowych z jedną niewiadomą prof. dr hab.inż. Katarzyna Zakrzewska Met.Numer. Wykład 4 1 Rozwiązywanie równań nieliniowych z jedną niewiadomą
Bardziej szczegółowoR n = {(x 1, x 2,..., x n ): x i R, i {1,2,...,n} },
nazywa- Definicja 1. Przestrzenią liniową R n my zbiór wektorów R n = {(x 1, x 2,..., x n ): x i R, i {1,2,...,n} }, z określonymi działaniami dodawania wektorów i mnożenia wektorów przez liczby rzeczywiste.
Bardziej szczegółowoPodstawowe struktury algebraiczne
Rozdział 1 Podstawowe struktury algebraiczne 1.1. Działania wewnętrzne Niech X będzie zbiorem niepustym. Dowolną funkcję h : X X X nazywamy działaniem wewnętrznym w zbiorze X. Działanie wewnętrzne, jak
Bardziej szczegółowo