Optymalizacja ciągła

Wielkość: px
Rozpocząć pokaz od strony:

Download "Optymalizacja ciągła"

Transkrypt

1 Optymalizacja ciągła 5. Metody kierunków poparwy (metoda Newtona-Raphsona, metoda gradientów sprzężonych) Wojciech Kotłowski Instytut Informatyki PP / 56

2 Plan wykładu Minimalizacja różniczkowalnej funkcji f(x) bez ograniczeń: min f(x) x R n Często będziemy zakładać wypukłość f(x) 1. Wprowadzenie (poprzedni wykład) 2. Metoda spadku wzdłuż gradientu (poprzedni wykład) 3. Metoda Newtona-Raphsona 4. Modyfikacje metody Newtona-Rapshona 5. Metoda gradientów sprzężonych 2 / 56

3 Przypomnienie: metody kierunków poprawy Iteracyjne metody generujące punkty x 1, x 2,... zgodnie z: x k+1 = x k + α k v k, Kierunek v k jest kierunkiem poprawy: gwarantuje, że przy dostatecznie małych α R: f(x k + αv k ) < f(x k ) Równoważnie, pochodna kierunkowa wzdłuż v k musi być ujemna: f(x k ) v k = f(x k ) v k < 0 Długość kroku α k dobierana jest aby zapewnić odpowiednio duży spadek funkcji celu 3 / 56

4 Metoda Newtona-Raphsona 4 / 56

5 Przypomnienie: metoda Newtona x k+1 = x k f (x k ) f (x k ) f(x) f(x k ) + f (x k )(x x k ) + f (x k ) 2 (x x k ) 2 x k x k+1 5 / 56

6 Metoda Newtona-Raphsona Wielowymiarowa wersja metody Newtona Generujemy iteracyjnie ciąg punktów x 1, x 2,... W każdej iteracji k = 1, 2,..., przybliżamy funkcję f(x) wielomianem Taylora drugiego rzędu w aktualnym punkcie x k : P 2 (x; x k ) = f(x k ) + f(x k ) (x x k ) (x x k) 2 f(x k )(x x k ) Założenie: hesjan 2 f(x k ) jest dodatnio określony Jako kolejny punkt x k+1 bierzemy punkt minimalizujący P 2 (x; x k ) 6 / 56

7 Metoda Newtona-Raphsona Przypomnienie: Minimum funkcji kwadratowej x Ax + b x + c z dodatnio określoną macierzą A ma postać x = 1 2 A 1 b 7 / 56

8 Metoda Newtona-Raphsona Przypomnienie: Minimum funkcji kwadratowej x Ax + b x + c z dodatnio określoną macierzą A ma postać x = 1 2 A 1 b Wniosek: Minimum funkcji kwadratowej: F (v) = 1 2 v 2 f(x k )v + f(x k ) v + f(x k ) jest w punkcie v = ( 2 f(x k )) 1 f(x k ) 7 / 56

9 Metoda Newtona-Raphsona Przypomnienie: Minimum funkcji kwadratowej x Ax + b x + c z dodatnio określoną macierzą A ma postać x = 1 2 A 1 b Wniosek: Minimum funkcji kwadratowej: F (v) = 1 2 v 2 f(x k )v + f(x k ) v + f(x k ) jest w punkcie v = ( 2 f(x k )) 1 f(x k ) Wniosek: Biorąc v = x x k, minimum wielomianu: P 2 (x; x k ) = f(x k ) + f(x k ) (x x k ) (x x k) 2 f(x k )(x x k ) jest w punkcie x spełniającym: x x k = ( 2 f(x k )) 1 f(x k ) 7 / 56

10 Metoda Newtona-Raphsona Przypomnienie: Minimum funkcji kwadratowej x Ax + b x + c z dodatnio określoną macierzą A ma postać x = 1 2 A 1 b Wniosek: Minimum funkcji kwadratowej: F (v) = 1 2 v 2 f(x k )v + f(x k ) v + f(x k ) jest w punkcie v = ( 2 f(x k )) 1 f(x k ) Wniosek: Biorąc v = x x k, minimum wielomianu: P 2 (x; x k ) = f(x k ) + f(x k ) (x x k ) (x x k) 2 f(x k )(x x k ) jest w punkcie x spełniającym: x x k = ( 2 f(x k )) 1 f(x k ) Metoda Newtona-Raphsona: x k+1 = x k ( 2 f(x k )) 1 f(x k ) 7 / 56

11 Metoda Newtona-Raphsona 2 1 x2 0 1 x x 1 8 / 56

12 Metoda Newtona-Raphsona 2 1 x2 0 1 x x 1 8 / 56

13 Metoda Newtona-Raphsona 2 1 x 2 x2 0 1 x x 1 8 / 56

14 Metoda Newtona-Raphsona Rozpocznij od punktu x 1 i powtarzaj dla k = 1, 2,...: x k+1 = x k ( 2 f(x k )) 1 f(x k ) 9 / 56

15 Metoda Newtona-Raphsona Rozpocznij od punktu x 1 i powtarzaj dla k = 1, 2,...: x k+1 = x k ( 2 f(x k )) 1 f(x k ) Porównaj z metodą Newtona dla jednej zmiennej: x k+1 = x k f (x k ) f (x k ) 9 / 56

16 Metoda Newtona-Raphsona Rozpocznij od punktu x 1 i powtarzaj dla k = 1, 2,...: x k+1 = x k ( 2 f(x k )) 1 f(x k ) Porównaj z metodą Newtona dla jednej zmiennej: x k+1 = x k f (x k ) f (x k ) Metoda obliczeniowo wolniejsza od spadku wzdłuż gradientu: wymaga odwrócenia macierzy w każdej iteracji (w praktyce zamiast odwracać macierz rozwiązuje się układ równań liniowych Ax = b z A = 2 f(x k ) i b = f(x k )) 9 / 56

17 Metoda Newtona-Raphsona Rozpocznij od punktu x 1 i powtarzaj dla k = 1, 2,...: x k+1 = x k ( 2 f(x k )) 1 f(x k ) Porównaj z metodą Newtona dla jednej zmiennej: x k+1 = x k f (x k ) f (x k ) Metoda obliczeniowo wolniejsza od spadku wzdłuż gradientu: wymaga odwrócenia macierzy w każdej iteracji (w praktyce zamiast odwracać macierz rozwiązuje się układ równań liniowych Ax = b z A = 2 f(x k ) i b = f(x k )) Zainicjalizowana dostatecznie blisko minimum zbiega bardzo szybko, ale źle zainicjalizowana może się rozbiec! 9 / 56

18 Metoda Newtona-Raphsona: przykład x2 0 x 2 f(x 1, x 2 ) = x x x x 1 10 / 56

19 Metoda Newtona-Raphsona: przykład x2 0 x 2 f(x 1, x 2 ) = x x x x 1 Metoda Newtona-Rapshona znajduje minimum funkcji kwadratowej: f(x) = x Ax + b x + c w jednym kroku, niezależnie od punktu inicjalizacji! 10 / 56

20 Metoda Newtona-Raphsona dla funkcji kwadratowej Rozważmy minimalizację funkcji funkcji kwadratowej z dodatnio określoną macierzą A: f(x) = x Ax + x b + c, 11 / 56

21 Metoda Newtona-Raphsona dla funkcji kwadratowej Rozważmy minimalizację funkcji funkcji kwadratowej z dodatnio określoną macierzą A: f(x) = x Ax + x b + c, f(x) = 2Ax + b, 2 f(x) = 2A, ( 2 f(x)) 1 = 1 2 A 1 11 / 56

22 Metoda Newtona-Raphsona dla funkcji kwadratowej Rozważmy minimalizację funkcji funkcji kwadratowej z dodatnio określoną macierzą A: f(x) = x Ax + x b + c, f(x) = 2Ax + b, 2 f(x) = 2A, ( 2 f(x)) 1 = 1 2 A 1 Rozpoczynamy od dowolnego punktu x 1 i wybieramy punkt x 2 jako: x 2 = x 1 ( 2 f(x 1 )) 1 f(x 1 ) 11 / 56

23 Metoda Newtona-Raphsona dla funkcji kwadratowej Rozważmy minimalizację funkcji funkcji kwadratowej z dodatnio określoną macierzą A: f(x) = x Ax + x b + c, f(x) = 2Ax + b, 2 f(x) = 2A, ( 2 f(x)) 1 = 1 2 A 1 Rozpoczynamy od dowolnego punktu x 1 i wybieramy punkt x 2 jako: x 2 = x A 1 (2Ax 1 + b) 11 / 56

24 Metoda Newtona-Raphsona dla funkcji kwadratowej Rozważmy minimalizację funkcji funkcji kwadratowej z dodatnio określoną macierzą A: f(x) = x Ax + x b + c, f(x) = 2Ax + b, 2 f(x) = 2A, ( 2 f(x)) 1 = 1 2 A 1 Rozpoczynamy od dowolnego punktu x 1 i wybieramy punkt x 2 jako: x 2 = x 1 A } 1 {{ A } x A 1 b I 11 / 56

25 Metoda Newtona-Raphsona dla funkcji kwadratowej Rozważmy minimalizację funkcji funkcji kwadratowej z dodatnio określoną macierzą A: f(x) = x Ax + x b + c, f(x) = 2Ax + b, 2 f(x) = 2A, ( 2 f(x)) 1 = 1 2 A 1 Rozpoczynamy od dowolnego punktu x 1 i wybieramy punkt x 2 jako: x 2 = x 1 x A 1 b 11 / 56

26 Metoda Newtona-Raphsona dla funkcji kwadratowej Rozważmy minimalizację funkcji funkcji kwadratowej z dodatnio określoną macierzą A: f(x) = x Ax + x b + c, f(x) = 2Ax + b, 2 f(x) = 2A, ( 2 f(x)) 1 = 1 2 A 1 Rozpoczynamy od dowolnego punktu x 1 i wybieramy punkt x 2 jako: x 2 = 1 2 A 1 b Ale jest to punkt minimum x funkcji kwadratowej! 11 / 56

27 Metoda Newtona-Raphsona: przykład f(x 1, x 2 ) = 2.5(x 2 1 x 2 ) 2 + (1 x 1 ) x 2 x2 0 1 x 1 2 x x 1 12 / 56

28 Metoda Newtona-Raphsona: przykład f(x 1, x 2 ) = 2.5(x 2 1 x 2 ) 2 + (1 x 1 ) 2 2 x 1 x 2 1 x2 0 1 x x 1 12 / 56

29 Metoda Newtona-Raphsona jako metoda spadkowa Rozpocznij od punktu x 1 i powtarzaj dla k = 1, 2,...: x k+1 = x k + v k, v k = ( 2 f(x k )) 1 f(x k ) Z założenia 2 f(x k ) jest dodatnio określona, czyli ma wszystkie wartości własne dodatnie 13 / 56

30 Metoda Newtona-Raphsona jako metoda spadkowa Rozpocznij od punktu x 1 i powtarzaj dla k = 1, 2,...: x k+1 = x k + v k, v k = ( 2 f(x k )) 1 f(x k ) Z założenia 2 f(x k ) jest dodatnio określona, czyli ma wszystkie wartości własne dodatnie Wtedy ( 2 f(x k )) 1 jest też dodatnio określona, gdyż wartości własne A 1 są odwrotnościami wartości własnych A 13 / 56

31 Metoda Newtona-Raphsona jako metoda spadkowa Rozpocznij od punktu x 1 i powtarzaj dla k = 1, 2,...: x k+1 = x k + v k, v k = ( 2 f(x k )) 1 f(x k ) Z założenia 2 f(x k ) jest dodatnio określona, czyli ma wszystkie wartości własne dodatnie Wtedy ( 2 f(x k )) 1 jest też dodatnio określona, gdyż wartości własne A 1 są odwrotnościami wartości własnych A Czyli x ( 2 f(x k )) 1 x > 0 dla dowolnego niezerowego x 13 / 56

32 Metoda Newtona-Raphsona jako metoda spadkowa Rozpocznij od punktu x 1 i powtarzaj dla k = 1, 2,...: x k+1 = x k + v k, v k = ( 2 f(x k )) 1 f(x k ) Z założenia 2 f(x k ) jest dodatnio określona, czyli ma wszystkie wartości własne dodatnie Wtedy ( 2 f(x k )) 1 jest też dodatnio określona, gdyż wartości własne A 1 są odwrotnościami wartości własnych A Czyli x ( 2 f(x k )) 1 x > 0 dla dowolnego niezerowego x Wniosek: v k = ( 2 f(x k )) 1 f(x k ) jest kierunkiem poprawy f(x k ) v k = f(x k )( 2 f(x k )) 1 f(x k ) < 0 13 / 56

33 Metoda Newtona-Raphsona jako metoda spadkowa Rozpocznij od punktu x 1 i powtarzaj dla k = 1, 2,...: x k+1 = x k + v k, v k = ( 2 f(x k )) 1 f(x k ) Z założenia 2 f(x k ) jest dodatnio określona, czyli ma wszystkie wartości własne dodatnie Wtedy ( 2 f(x k )) 1 jest też dodatnio określona, gdyż wartości własne A 1 są odwrotnościami wartości własnych A Czyli x ( 2 f(x k )) 1 x > 0 dla dowolnego niezerowego x Wniosek: v k = ( 2 f(x k )) 1 f(x k ) jest kierunkiem poprawy f(x k ) v k = f(x k )( 2 f(x k )) 1 f(x k ) < 0 Uwaga: Długość kroku α k jest stała i równa 1 13 / 56

34 Zbieżność metody Newtona-Raphsona Jeśli funkcja f(x) jest trzykrotnie różniczkowalna w sposób ciągły, algorytm Newtona zainicjalizowany odpowiednio blisko minimum lokalnego x z dodatnio określonym hesjanem 2 f(x ) zbiega z kwadratowym rzędem zbieżności Dowód koncepcyjnie bardzo podobny jak w przypadku jednowymiarowym, ale skomplikowany przez wektorowo-macierzowe przybliżenie Taylora 14 / 56

35 Zbieżność metody Newtona-Raphsona Jeśli funkcja f(x) jest trzykrotnie różniczkowalna w sposób ciągły, algorytm Newtona zainicjalizowany odpowiednio blisko minimum lokalnego x z dodatnio określonym hesjanem 2 f(x ) zbiega z kwadratowym rzędem zbieżności Dowód koncepcyjnie bardzo podobny jak w przypadku jednowymiarowym, ale skomplikowany przez wektorowo-macierzowe przybliżenie Taylora Źle zainicjalizowana metoda Newtona-Raphsona może się nawet rozbiec! Z tego powodu stosuje się modyfikacje metody, które mają zapobiec problemom ze zbieżnością 14 / 56

36 Modyfikacje metody Newtona-Raphsona 15 / 56

37 Zmienna długość kroku (damped Newton-Raphson) Metoda Newtona-Raphsona (oryginalna): Rozpocznij od punktu x 1 i powtarzaj dla k = 1, 2,...: x k+1 = x k + α k v k, v k = ( 2 f(x k )) 1 f(x k ), α k = 1 Metoda nie gwarantuje spadku wartości funkcji f(x k+1 ) < f(x k )! 16 / 56

38 Zmienna długość kroku (damped Newton-Raphson) Metoda Newtona-Raphsona (oryginalna): Rozpocznij od punktu x 1 i powtarzaj dla k = 1, 2,...: x k+1 = x k + α k v k, v k = ( 2 f(x k )) 1 f(x k ), α k = 1 Metoda nie gwarantuje spadku wartości funkcji f(x k+1 ) < f(x k )! Jeśli hesjan 2 f(x k ) jest dodatnio określony, v k jest kierunkiem poprawy i możemy zmodyfikować metodę dobierając α k : optymalnie: α k = argmin α 0 f(x k + α k v k ), za pomocą algorytmu backtracking, co zagwarantuje nam f(x k+1 ) < f(x k ) 16 / 56

39 Metoda Newtona Raphsona z optymalnym doborem kroku f(x 1, x 2 ) = 2.5(x 2 1 x 2 ) 2 + (1 x 1 ) x 2 x2 0 x 3 1 x x 1 17 / 56

40 Dla porównania: klasyczna metoda Newtona Raphsona f(x 1, x 2 ) = 2.5(x 2 1 x 2 ) 2 + (1 x 1 ) x 2 x2 0 1 x 1 2 x x 1 18 / 56

41 Metoda Newtona Raphsona z optymalnym doborem kroku f(x 1, x 2 ) = 2.5(x 2 1 x 2 ) 2 + (1 x 1 ) 2 2 x 1 x 2, x 3, x 4,... 1 x x 1 19 / 56

42 Metoda Newtona Raphsona z optymalnym doborem kroku f(x 1, x 2 ) = 2.5(x 2 1 x 2 ) 2 + (1 x 1 ) 2 2 x 1 x 2, x 3, x 4,... 1 x x 1 Dlaczego algorytm utknął w x 2? 19 / 56

43 x 2 = (0.99, 1.46) f(x 2 ) = (0.77, 2.4) [ ] f(x 2 ) = Analiza v 2 = ( 2 (x 2 )) 1 (x 2 ) = ( 1.42, 2.33) f(x 2 ) v 2 = 4.5 > 0 x v 2 x 2 f(x 2 ) x 1 20 / 56

44 x 2 = (0.99, 1.46) f(x 2 ) = (0.77, 2.4) [ ] f(x 2 ) = Analiza v 2 = ( 2 (x 2 )) 1 (x 2 ) = ( 1.42, 2.33) f(x 2 ) v 2 = 4.5 > 0 Kierunek v 2 nie jest kierunkiem poprawy x v 2 x 2 f(x 2 ) x 1 20 / 56

45 x 2 = (0.99, 1.46) f(x 2 ) = (0.77, 2.4) [ ] f(x 2 ) = Analiza v 2 = ( 2 (x 2 )) 1 (x 2 ) = ( 1.42, 2.33) f(x 2 ) v 2 = 4.5 > 0 Kierunek v 2 nie jest kierunkiem poprawy x v 2 x 2 f(x 2 ) Wartości własne hesjanu: (22.4, 0.62) = nie jest dodatnio określony Optymalna długość kroku to α 2 = 0, ponieważ nie możemy polepszyć funkcji celu wzdłuż kierunku v 2 x 1 20 / 56

46 x 2 = (0.99, 1.46) f(x 2 ) = (0.77, 2.4) [ ] f(x 2 ) = Analiza v 2 = ( 2 (x 2 )) 1 (x 2 ) = ( 1.42, 2.33) f(x 2 ) v 2 = 4.5 > 0 Kierunek v 2 nie jest kierunkiem poprawy x v 2 x 2 f(x 2 ) Wartości własne hesjanu: (22.4, 0.62) = nie jest dodatnio określony Optymalna długość kroku to α 2 = 0, ponieważ nie możemy polepszyć funkcji celu wzdłuż kierunku v 2 Wniosek: Optymalizacja długości kroku może zawieść, jeśli hesjan nie jest dodatnio określony! x 1 20 / 56

47 Wartości własne hesjanu Dotychczas zakładaliśmy, że hesjan 2 f(x k ) jest dodatnio określony, czyli ma wszystkie wartości własne dodatnie i stąd jest odwracalny. W praktyce: Nawet dla funkcji wypukłych, hesjan może być tylko dodatnio półokreślony i jedna lub więcej wartości własnych może być równa zero; wtedy odwrotność ( 2 f(x k )) 1 nie istnieje Dla funkcji niewypukłych, wartości własne mogą być ujemne, a wtedy kierunek v k = ( 2 f(x k )) 1 f(x k ) nie musi być już kierunkiem poprawy! 21 / 56

48 Przykład Rozważmy minimalizację funkcji postaci: f(x) = x x 2 2 x 1 x 2 22 / 56

49 Przykład Rozważmy minimalizację funkcji postaci: f(x) = x x 2 2 x 1 x 2 f x 1 = 4x 3 1 1, f x 2 = 2x / 56

50 Przykład Rozważmy minimalizację funkcji postaci: f(x) = x x 2 2 x 1 x 2 2 f x 2 1 = 12x 2 1, f x 1 = 4x 3 1 1, 2 f x 2 2 = 2, f x 2 = 2x f x 1 x 2 = 0, 2 f(x) = [ ] 12x / 56

51 Przykład Rozważmy minimalizację funkcji postaci: 2 f x 2 1 = 12x 2 1, f(x) = x x 2 2 x 1 x 2 f x 1 = 4x 3 1 1, 2 f x 2 2 = 2, f x 2 = 2x f x 1 x 2 = 0, 2 f(x) = [ ] 12x Ponieważ hesjan w x ma wartości własne (12x 2 1, 2), nieujemne dla dowolnego x 1, jest macierzą dodatnio półokreśloną dla każdego x, a więc f(x) jest funkcją wypukłą 22 / 56

52 Przykład Rozważmy minimalizację funkcji postaci: 2 f x 2 1 = 12x 2 1, f(x) = x x 2 2 x 1 x 2 f x 1 = 4x 3 1 1, 2 f x 2 2 = 2, f x 2 = 2x f x 1 x 2 = 0, 2 f(x) = [ ] 12x Ponieważ hesjan w x ma wartości własne (12x 2 1, 2), nieujemne dla dowolnego x 1, jest macierzą dodatnio półokreśloną dla każdego x, a więc f(x) jest funkcją wypukłą Rozpoczynając metodę Newtona-Raphsona od x 1 = 0 mamy hesjan: [ ] f(x 1 ) =, 0 2 o wartościach własnych (0, 2), nie dający się odwrócić! 22 / 56

53 Rozważmy minimalizację funkcji: Przykład 2 1 f(x) = 2.5(x 2 1 x 2 ) 2 + (1 x 1 ) 2 2 f(x) = [ 30x x ] 10x 1 10x 1 5 x x 1 23 / 56

54 Rozważmy minimalizację funkcji: Przykład 2 1 f(x) = 2.5(x 2 1 x 2 ) 2 + (1 x 1 ) 2 2 f(x) = [ 30x x ] 10x 1 10x 1 5 x x 1 Rozpoczynając metodę Newtona-Raphsona od x 1 = (0, 0.3) dostajemy: 2 f(x 1 ) = [ ] o wartościach własnych ( 1, 5) 23 / 56

55 Rozważmy minimalizację funkcji: Przykład 2 1 f(x) = 2.5(x 2 1 x 2 ) 2 + (1 x 1 ) 2 2 f(x) = [ 30x x ] 10x 1 10x 1 5 x x 1 Rozpoczynając metodę Newtona-Raphsona od x 1 = (0, 0.3) dostajemy: 2 f(x 1 ) = [ ] o wartościach własnych ( 1, 5) Wielomian Taylora w x 1 nie jest funkcją wypukłą, a kolejny punkt x 2 jest jego punktem siodłowym, a nie minimum! Kierunek ( 2 f(x 1 )) 1 f(x 1 ) nie jest kierunkiem poprawy! 23 / 56

56 Przykład f(x) = 2.5(x 2 1 x 2 ) 2 + (1 x 1 ) 2, x 1 = (0, 0.3) 2 1 x 1 x2 0 x x 1 24 / 56

57 Przesunięcie wartości własnych Fakt: jeśli symetryczna macierz A ma wartości własne (λ 1,..., λ n ) to macierz A + ɛi ma wartości własne (λ 1 + ɛ,..., λ n + ɛ) 25 / 56

58 Przesunięcie wartości własnych Fakt: jeśli symetryczna macierz A ma wartości własne (λ 1,..., λ n ) to macierz A + ɛi ma wartości własne (λ 1 + ɛ,..., λ n + ɛ) Dowód: Jeśli v k jest wektorem własnym A z wartością własną λ k : Av k = λ k v k, to v k jest też wektorem własnym A + ɛi z wartością własną λ k + ɛ: (A + ɛi)v k = Av k + ɛiv k = λ k v k + ɛv k = (λ k + ɛ)v k 25 / 56

59 Przesunięcie wartości własnych Fakt: jeśli symetryczna macierz A ma wartości własne (λ 1,..., λ n ) to macierz A + ɛi ma wartości własne (λ 1 + ɛ,..., λ n + ɛ) Dowód: Jeśli v k jest wektorem własnym A z wartością własną λ k : Av k = λ k v k, to v k jest też wektorem własnym A + ɛi z wartością własną λ k + ɛ: (A + ɛi)v k = Av k + ɛiv k = λ k v k + ɛv k = (λ k + ɛ)v k Wniosek: Przy odpowiednim doborze ɛ, możemy zagwarantować, że wszystkie wartości własne macierzy A + ɛi będą dodatnie (tzn. macierz będzie dodatnio określona 25 / 56

60 Przykład f(x) = 3x 2 1 8x 1 x 2 + 2x 2 2, x = (x 1, x 2 ) v v x 2 x / 56

61 f(x) = x Ax, A = Przykład [ ] 3 4, λ = 6.53, λ 2 = v v x 2 x / 56

62 f(x) = x (A + I)x, A + I = Przykład [ ] 4 4, λ = 7.53, λ 2 = v v x 2 x / 56

63 Przykład f(x) = x (A + 2I)x, A + 2I = [ ] 5 4, λ = 8.53, λ 2 = v v x 2 x / 56

64 Metoda Levenberga-Marquardta W każdej iteracji k = 1, 2,... dodajemy do hesjanu macierz ɛ k I aby zapewnić jego dodatnią określoność: x k+1 = x k + α k v k, v k = ( 2 f(x k ) + ɛ k I) 1 f(x k ) 29 / 56

65 Metoda Levenberga-Marquardta W każdej iteracji k = 1, 2,... dodajemy do hesjanu macierz ɛ k I aby zapewnić jego dodatnią określoność: x k+1 = x k + α k v k, v k = ( 2 f(x k ) + ɛ k I) 1 f(x k ) Dobór współczynnika ɛ k : Dla funkcji wypukłych wystarczy stała, niewielka wartość ɛ, np. ɛ = Długość kroku można dobrać jako α k = 1 (jak w metodzie Newtona-Raphsona) lub optymalizować Dla funkcji niewypukłych, w każdej iteracji trzeba wyznaczyć wartości własne hesjanu i wybrać ɛ k tak, aby wszystkie przesunąć powyżej zera W tym przypadku zaleca się zawsze używanie zmiennej (optymalizowanej) długości kroku α k! 29 / 56

66 Metoda Levenberga-Marquardta: interpretacja Rozważmy ogólną metodę spadkową postaci x k+1 = x k + α k v k 30 / 56

67 Metoda Levenberga-Marquardta: interpretacja Rozważmy ogólną metodę spadkową postaci x k+1 = x k + α k v k W metodzie Newtona-Rapshona v k = ( 2 f(x k )) 1 f(x k ) możemy przedstawić jako rozwiązanie problemu minimalizacji funkcji kwadratowej: g(v) = f(x k ) v+ 1 2 v 2 f(x k )v 30 / 56

68 Metoda Levenberga-Marquardta: interpretacja Rozważmy Minimum ogólną funkcji metodę kwadratowej spadkową x b postaci x Ax x k+1 = x k + α k v k to x = A 1 b W metodzie Newtona-Rapshona v k = ( 2 f(x k )) 1 f(x k ) możemy przedstawić jako rozwiązanie problemu minimalizacji funkcji kwadratowej: g(v) = f(x k ) v+ 1 2 v 2 f(x k )v 30 / 56

69 Metoda Levenberga-Marquardta: interpretacja Rozważmy ogólną metodę spadkową postaci x k+1 = x k + α k v k W metodzie Newtona-Rapshona v k = ( 2 f(x k )) 1 f(x k ) możemy przedstawić jako rozwiązanie problemu minimalizacji funkcji kwadratowej: g(v) = f(x k ) v+ 1 2 v 2 f(x k )v W metodzie spadku wzdłuż gradientu v k = f(x k ) możemy przedstawić jako rozwiązanie problemu minimalizacji funkcji: g(v) = f(x k ) v v Iv 30 / 56

70 Metoda Levenberga-Marquardta: interpretacja Rozważmy ogólną metodę spadkową postaci x k+1 = x k + α k v k W metodzie Newtona-Rapshona v k = ( 2 f(x k )) 1 f(x k ) możemy przedstawić jako rozwiązanie problemu minimalizacji funkcji kwadratowej: g(v) = f(x k ) v+ 1 2 v 2 f(x k )v W metodzie spadku wzdłuż gradientu v k = f(x k ) możemy przedstawić jako rozwiązanie problemu minimalizacji funkcji: g(v) = f(x k ) v v Iv Metoda Levenberga-Marquardta jest interpolacją obu metod dobierając kierunek spadku jako rozwiązanie problemu minimalizacji funkcji: g(v) = f(x k ) v + 1 ) 2 v ( ɛ k I + 2 f(x k ) v Jest to szczególny przypadek metod quasi-newtonowskich, gdzie w funkcji kwadratowej dobiera się dowolną macierz dodatnio określoną A k 30 / 56

71 Metoda Newtona Raphsona z optymalnym doborem kroku f(x 1, x 2 ) = 2.5(x 2 1 x 2 ) 2 + (1 x 1 ) 2 2 x 1 x 2, x 3, x 4,... 1 x x 1 31 / 56

72 M. Levenberga-Marquardta z optymalnym doborem kroku f(x 1, x 2 ) = 2.5(x 2 1 x 2 ) 2 + (1 x 1 ) 2 2 x 1 x 2 1 x2 0 x x 1 32 / 56

73 Dla porównania: klasyczna metoda Newtona Raphsona f(x 1, x 2 ) = 2.5(x 2 1 x 2 ) 2 + (1 x 1 ) 2 2 x 1 x 2 1 x2 0 1 x x 1 33 / 56

74 Podsumowanie Dwie modyfikacje: 1. Optymalizacja długości kroku α k 2. Zapewnienie dodatniej określoności hesjanu (Levenberg-Marquardt) 34 / 56

75 Podsumowanie Dwie modyfikacje: 1. Optymalizacja długości kroku α k 2. Zapewnienie dodatniej określoności hesjanu (Levenberg-Marquardt) Jeśli stosujemy (1), powinniśmy również stosować (2), inaczej algorytm może się zatrzymać w nieoptymalnym rozwiązaniu! 34 / 56

76 Podsumowanie Dwie modyfikacje: 1. Optymalizacja długości kroku α k 2. Zapewnienie dodatniej określoności hesjanu (Levenberg-Marquardt) Jeśli stosujemy (1), powinniśmy również stosować (2), inaczej algorytm może się zatrzymać w nieoptymalnym rozwiązaniu! Optymalizacja długości kroku zapewnia zbieżność algortymu, ale niekoniecznie polepsza szybkość jego działania, a równocześnie zwiększa złożoność obliczeniową 34 / 56

77 Podsumowanie Dwie modyfikacje: 1. Optymalizacja długości kroku α k 2. Zapewnienie dodatniej określoności hesjanu (Levenberg-Marquardt) Jeśli stosujemy (1), powinniśmy również stosować (2), inaczej algorytm może się zatrzymać w nieoptymalnym rozwiązaniu! Optymalizacja długości kroku zapewnia zbieżność algortymu, ale niekoniecznie polepsza szybkość jego działania, a równocześnie zwiększa złożoność obliczeniową Dobry kompromis: Stosuj klasyczną metodę Newtona-Raphsona (z α k = 1), ale jeśli jej krok nie daje spadku funkcji celu (lub hesjan jest nieodwracalny), zastosuj krok Levenberga-Marquardta z optymalizacją α k. 34 / 56

78 Metoda gradientów sprzężonych 35 / 56

79 Przypomnienie z algebry: baza przestrzeni wektorowej Zbiór wektorów {v 1,..., v m } nazywamy liniowo niezależnym, jeśli żaden wektor z tego zbioru nie da się przedstawić w postaci kombinacji liniowej pozostałych W przestrzeni R n zbiór wektorów liniowo niezależnych może składać się maksymalnie z n wektorów, i zbiór taki nazywamy bazą przestrzeni wektorowej Wniosek: Jeśli {v 1,..., v n } jest bazą to dowolny inny wektor x R n musi być kombinacją liniową wektorów z bazy, tzn. dla pewnych współczynników c 1,..., c n R n x = c k v k k=1 36 / 56

80 Wektory sprzężone Niech A będzie macierzą dodatnio określoną Zbiór niezerowych wektorów {v 1,..., v n } nazywamy sprzężonymi (ze względu na macierz A), jeśli v i Av j = 0, dla dowolnych i j 37 / 56

81 Wektory sprzężone Niech A będzie macierzą dodatnio określoną Zbiór niezerowych wektorów {v 1,..., v n } nazywamy sprzężonymi (ze względu na macierz A), jeśli v i Av j = 0, dla dowolnych i j Fakt: Zbiór wektorów sprzężonych jest bazą 37 / 56

82 Wektory sprzężone Niech A będzie macierzą dodatnio określoną Zbiór niezerowych wektorów {v 1,..., v n } nazywamy sprzężonymi (ze względu na macierz A), jeśli v i Av j = 0, dla dowolnych i j Fakt: Zbiór wektorów sprzężonych jest bazą Dowód: Wystarczy pokazać ich liniową niezależność. Załóżmy przeciwnie, że istnieje wektor v k liniowo zależny od pozostałych, tzn. v k = i k α i v i 37 / 56

83 Wektory sprzężone Niech A będzie macierzą dodatnio określoną Zbiór niezerowych wektorów {v 1,..., v n } nazywamy sprzężonymi (ze względu na macierz A), jeśli v i Av j = 0, dla dowolnych i j Fakt: Zbiór wektorów sprzężonych jest bazą Dowód: Wystarczy pokazać ich liniową niezależność. Załóżmy przeciwnie, że istnieje wektor v k liniowo zależny od pozostałych, tzn. v k = i k α i v i Ale oznacza to, że: Av k = i k α i Av i 37 / 56

84 Wektory sprzężone Niech A będzie macierzą dodatnio określoną Zbiór niezerowych wektorów {v 1,..., v n } nazywamy sprzężonymi (ze względu na macierz A), jeśli v i Av j = 0, dla dowolnych i j Fakt: Zbiór wektorów sprzężonych jest bazą Dowód: Wystarczy pokazać ich liniową niezależność. Załóżmy przeciwnie, że istnieje wektor v k liniowo zależny od pozostałych, tzn. v k = i k α i v i Ale oznacza to, że: v k Av k = i k α i v k Av i 37 / 56

85 Wektory sprzężone Niech A będzie macierzą dodatnio określoną Zbiór niezerowych wektorów {v 1,..., v n } nazywamy sprzężonymi (ze względu na macierz A), jeśli v i Av j = 0, dla dowolnych i j Fakt: Zbiór wektorów sprzężonych jest bazą Dowód: Wystarczy pokazać ich liniową niezależność. Załóżmy przeciwnie, że istnieje wektor v k liniowo zależny od pozostałych, tzn. v k = i k α i v i Ale oznacza to, że: v k Av k = i k α i v k Av i }{{} =0 37 / 56

86 Wektory sprzężone Niech A będzie macierzą dodatnio określoną Zbiór niezerowych wektorów {v 1,..., v n } nazywamy sprzężonymi (ze względu na macierz A), jeśli v i Av j = 0, dla dowolnych i j Fakt: Zbiór wektorów sprzężonych jest bazą Dowód: Wystarczy pokazać ich liniową niezależność. Załóżmy przeciwnie, że istnieje wektor v k liniowo zależny od pozostałych, tzn. v k = i k α i v i Ale oznacza to, że: v k Av k = 0 co prowadzi do sprzeczności, ponieważ A jest dodatnio określona, a v k jest niezerowy, więc v k Av k > 0 37 / 56

87 Funkcja kwadratowa Będziemy rozważali minimalizację funkcji kwadratowej: f(x) = 1 2 x Ax x b, A dodatnio określona Pomijamy współczynnik c (nie wpływa na optymalizację) Pozostałe współczynniki dobieramy w ten sposób, aby: f(x) = 0 Ax = b, tzn. minimum x = A 1 b jest rozwiązaniem układu równań Ax = b 38 / 56

88 Metoda gradientów sprzężonych: wprowadzenie f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } będzie zbiorem wektorów sprzężonych ze względu na A Będziemy rozważali metodę spadkową minimalizacji funkcji kwadratowej, w której kolejne kierunki poprawy to kolejne wektory sprzężone, tzn.: k x k+1 = x k + α k v k, tzn. x k+1 = x 1 + α i v i, natomiast współczynniki α k wyznaczamy rozwiązując: α k = argmin f(x k + α k v k ) α }{{} g(α) i=1 39 / 56

89 Metoda gradientów sprzężonych: wprowadzenie f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } będzie zbiorem wektorów sprzężonych ze względu na A Będziemy rozważali metodę spadkową minimalizacji funkcji kwadratowej, w której kolejne kierunki poprawy to kolejne wektory sprzężone, tzn.: k x k+1 = x k + α k v k, tzn. x k+1 = x 1 + α i v i, natomiast współczynniki α k wyznaczamy rozwiązując: α k = argmin f(x k + α k v k ) α }{{} g(α) i=1 g(α) = 1 2 (x k + αv k ) A(x k + αv k ) (x k + αv k ) b 39 / 56

90 Metoda gradientów sprzężonych: wprowadzenie f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } będzie zbiorem wektorów sprzężonych ze względu na A Będziemy rozważali metodę spadkową minimalizacji funkcji kwadratowej, w której kolejne kierunki poprawy to kolejne wektory sprzężone, tzn.: k x k+1 = x k + α k v k, tzn. x k+1 = x 1 + α i v i, natomiast współczynniki α k wyznaczamy rozwiązując: α k = argmin f(x k + α k v k ) α }{{} g(α) i=1 g(α) = α2 2 v k Av k + α ( v k Ax k v k b ) + const 39 / 56

91 Metoda gradientów sprzężonych: wprowadzenie f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } będzie zbiorem wektorów sprzężonych ze względu na A Będziemy rozważali metodę spadkową minimalizacji funkcji kwadratowej, w której kolejne kierunki poprawy to kolejne wektory sprzężone, tzn.: k x k+1 = x k + α k v k, tzn. x k+1 = x 1 + α i v i, gradient: Ax k b = f(x k ) i=1 natomiast współczynniki oznaczamyα przez k wyznaczamy g k rozwiązując: α k = argmin f(x k + α k v k ) α }{{} g(α) g(α) = α2 2 v k Av k + αvk ( Axk b ) + const 39 / 56

92 Metoda gradientów sprzężonych: wprowadzenie f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } będzie zbiorem wektorów sprzężonych ze względu na A Będziemy rozważali metodę spadkową minimalizacji funkcji kwadratowej, w której kolejne kierunki poprawy to kolejne wektory sprzężone, tzn.: k x k+1 = x k + α k v k, tzn. x k+1 = x 1 + α i v i, natomiast współczynniki α k wyznaczamy rozwiązując: α k = argmin f(x k + α k v k ) α }{{} g(α) g(α) = α2 2 v k Av k + αv k g k + const i=1 39 / 56

93 Metoda gradientów sprzężonych: wprowadzenie f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } będzie zbiorem wektorów sprzężonych ze względu na A Będziemy rozważali metodę spadkową minimalizacji funkcji kwadratowej, w której kolejne kierunki poprawy to kolejne wektory sprzężone, tzn.: k x k+1 = x k + α k v k, tzn. x k+1 = x 1 + α i v i, natomiast współczynniki α k wyznaczamy rozwiązując: α k = argmin f(x k + α k v k ) α }{{} g(α) g (α) = αv k Av k + v k g k i=1 39 / 56

94 Metoda gradientów sprzężonych: wprowadzenie f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } będzie zbiorem wektorów sprzężonych ze względu na A Będziemy rozważali metodę spadkową minimalizacji funkcji kwadratowej, w której kolejne kierunki poprawy to kolejne wektory sprzężone, tzn.: k x k+1 = x k + α k v k, tzn. x k+1 = x 1 + α i v i, natomiast współczynniki α k wyznaczamy rozwiązując: α k = argmin f(x k + α k v k ) α }{{} g(α) g (α) = 0 αv k Av k = v k g k i=1 39 / 56

95 Metoda gradientów sprzężonych: wprowadzenie f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } będzie zbiorem wektorów sprzężonych ze względu na A Będziemy rozważali metodę spadkową minimalizacji funkcji kwadratowej, w której kolejne kierunki poprawy to kolejne wektory sprzężone, tzn.: k x k+1 = x k + α k v k, tzn. x k+1 = x 1 + α i v i, natomiast współczynniki α k wyznaczamy rozwiązując: α k = argmin f(x k + α k v k ) α }{{} g(α) α k = v k g k v k Av k i=1 39 / 56

96 Metoda gradientów sprzężonych: wprowadzenie f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } będzie zbiorem wektorów sprzężonych ze względu na A Będziemy rozważali metodę spadkową minimalizacji funkcji kwadratowej, w której kolejne kierunki poprawy to kolejne wektory sprzężone, tzn.: k x k+1 = x k + α k v k, tzn. x k+1 = x 1 + α i v i, natomiast współczynniki α k wyznaczamy rozwiązując: α k = argmin f(x k + α k v k ) α }{{} g(α) α k = v k g k v k Av k i=1 = v k (Ax k b) v k Av k 39 / 56

97 Metoda gradientów sprzężonych: wprowadzenie f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } będzie zbiorem wektorów sprzężonych ze względu na A Będziemy rozważali metodę spadkową minimalizacji funkcji kwadratowej, w której kolejne kierunki poprawy to kolejne wektory sprzężone, tzn.: k x k+1 = x k + α k v k, tzn. x k+1 = x 1 + α i v i, natomiast współczynniki α k wyznaczamy rozwiązując: α k = v k g k v k Av k α k = argmin f(x k + α k v k ) α }{{} g(α) i=1 = v k (Ax k Ax 1 + Ax 1 b) v k Av k 39 / 56

98 Metoda gradientów sprzężonych: wprowadzenie k 1 f(x) = 1 Ponieważ x k x 1 = 2 x Ax α i v i, xotrzymujemy b, A dodatnio określona i=1 Niech {v 1,..., v n } będzie k 1 zbiorem wektorów sprzężonych ze względu na A v k A(x k x 1 ) = α i vk Av i = 0 Będziemy rozważali metodę } spadkową {{} minimalizacji funkcji kwadratowej, i=1 =0 w której kolejne kierunki poprawy to kolejne wektory sprzężone, tzn.: k x k+1 = x k + α k v k, tzn. x k+1 = x 1 + α i v i, natomiast współczynniki α k wyznaczamy rozwiązując: α k = v k g k v k Av k α k = argmin f(x k + α k v k ) α }{{} g(α) i=1 = v k (Ax 1 b) + v k A(x k x 1 ) v k Av k 39 / 56

99 Metoda gradientów sprzężonych: wprowadzenie f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } będzie zbiorem wektorów sprzężonych ze względu na A Będziemy rozważali metodę spadkową minimalizacji funkcji kwadratowej, w której kolejne kierunki poprawy to kolejne wektory sprzężone, tzn.: k x k+1 = x k + α k v k, tzn. x k+1 = x 1 + α i v i, natomiast współczynniki α k wyznaczamy rozwiązując: α k = argmin f(x k + α k v k ) α }{{} g(α) α k = v k g k v k Av k = v k (b Ax 1) v k Av k Optymalna wartość α k zależy tylko od punktu startowego x 1! Możemy wyznaczyć α k niezależne od pozostałych współczynników i wcześniejszych kroków algorytmu 39 / 56 i=1

100 Funkcja kwadratowa a wektory sprzężone f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } zbiór wektorów sprzężonych. Ponieważ jest to baza, n x x 1 = α i v i Wyznaczmy optymalne współczynniki α k i=1 40 / 56

101 Funkcja kwadratowa a wektory sprzężone f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } zbiór wektorów sprzężonych. Ponieważ jest to baza, n x x 1 = α i v i i=1 Wyznaczmy optymalne współczynniki α k n Ax Ax 1 = α i Av i i=1 40 / 56

102 Funkcja kwadratowa a wektory sprzężone f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } zbiór wektorów sprzężonych. Ponieważ jest to baza, n x x 1 = α i v i i=1 Wyznaczmy optymalne współczynniki α k n b Ax 1 = α i Av i i=1 40 / 56

103 Funkcja kwadratowa a wektory sprzężone f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } zbiór wektorów sprzężonych. Ponieważ jest to baza, n x x 1 = α i v i i=1 Wyznaczmy optymalne współczynniki α k n vk (b Ax 1 ) = α k vk Av i }{{} i=1 =0 dla k i 40 / 56

104 Funkcja kwadratowa a wektory sprzężone f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } zbiór wektorów sprzężonych. Ponieważ jest to baza, n x x 1 = α i v i i=1 Wyznaczmy optymalne współczynniki α k vk (b Ax 1 ) = α k vk Av k 40 / 56

105 Funkcja kwadratowa a wektory sprzężone f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } zbiór wektorów sprzężonych. Ponieważ jest to baza, n x x 1 = α i v i Wyznaczmy optymalne współczynniki α k i=1 α k = v k (b Ax 1) vk Av, k 40 / 56

106 Funkcja kwadratowa a wektory sprzężone f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } zbiór wektorów sprzężonych. Ponieważ jest to baza, n x x 1 = α i v i Wyznaczmy optymalne współczynniki α k α k = v k (b Ax 1) vk Av, k Ale są to te same współczynniki, które dobiera w kolejnych krokach metoda gradientów sprzężonych, tzn. n x n+1 = x 1 + α k v k = x k=1 i=1 40 / 56

107 Funkcja kwadratowa a wektory sprzężone f(x) = 1 2 x Ax x b, A dodatnio określona Niech {v 1,..., v n } zbiór wektorów sprzężonych. Ponieważ jest to baza, n x x 1 = α i v i Wyznaczmy optymalne współczynniki α k α k = v k (b Ax 1) vk Av, k Ale są to te same współczynniki, które dobiera w kolejnych krokach metoda gradientów sprzężonych, tzn. n x n+1 = x 1 + α k v k = x Wniosek: Metoda gradientów sprzężonych w każdym kroku optymalnie dobiera współczynnik α k, a rozwiązanie x otrzymujemy po n iteracjach! k=1 i=1 40 / 56

108 Ortogonalność gradientów Gradient w danej iteracji g k = f(x k ) jest ortogonalny do wszystkich poprzednich kierunków poprawy v 1,..., v k 1, tzn. v i g k = 0, dla i = 1,..., k 1 41 / 56

109 Ortogonalność gradientów Gradient w danej iteracji g k = f(x k ) jest ortogonalny do wszystkich poprzednich kierunków poprawy v 1,..., v k 1, tzn. Dowód: v i g k = 0, dla i = 1,..., k 1 v i g k = v i (Ax k b) 41 / 56

110 Ortogonalność gradientów Gradient w danej iteracji g k = f(x k ) jest ortogonalny do wszystkich poprzednich kierunków poprawy v 1,..., v k 1, tzn. Dowód: v i g k = 0, dla i = 1,..., k 1 vi g k = vi (Ax k b) ( = vi Ax 1 + A ( k 1 j=1 ) ) α j v j b 41 / 56

111 Ortogonalność gradientów Gradient w danej iteracji g k = f(x k ) jest ortogonalny do wszystkich poprzednich kierunków poprawy v 1,..., v k 1, tzn. Dowód: v i g k = 0, dla i = 1,..., k 1 vi g k = vi (Ax k b) ( = vi Ax 1 + A ( k 1 j=1 k 1 = vi (Ax 1 b) + α j j=1 ) ) α j v j b v i Av j }{{} =0 dla i j 41 / 56

112 Ortogonalność gradientów Gradient w danej iteracji g k = f(x k ) jest ortogonalny do wszystkich poprzednich kierunków poprawy v 1,..., v k 1, tzn. Dowód: v i g k = 0, dla i = 1,..., k 1 vi g k = vi (Ax k b) ( = vi Ax 1 + A ( k 1 j=1 k 1 = vi (Ax 1 b) + α j j=1 ) ) α j v j b = v i (Ax 1 b) + α i v i Av i v i Av j }{{} =0 dla i j 41 / 56

113 Ortogonalność gradientów Gradient w danej iteracji g k = f(x k ) jest ortogonalny do wszystkich poprzednich kierunków poprawy v 1,..., v k 1, tzn. Dowód: v i g k = 0, dla i = 1,..., k 1 vi g k = vi (Ax k b) ( = vi Ax 1 + A ( k 1 j=1 k 1 = vi (Ax 1 b) + α j j=1 ) ) α j v j b = v i (Ax 1 b) + α i v i Av i v i Av j }{{} =0 dla i j = vi (Ax 1 b) + v i (b Ax 1) vi Av vi Av i = 0 i 41 / 56

114 Jak znaleźć kierunki sprzężone? 42 / 56

115 Jak znaleźć kierunki sprzężone? Jako pierwszy kierunek sprzężony możemy obrać negatywny gradient: v 1 = f(x 1 ) = g 1 42 / 56

116 Jak znaleźć kierunki sprzężone? Jako pierwszy kierunek sprzężony możemy obrać negatywny gradient: v 1 = f(x 1 ) = g 1 Załóżmy, że dobraliśmy już kierunki sprzężone v 1,..., v k i chcemy dobrać kierunek v k+1. Ponownie, sensownym kandydatem jest g k+1, ale niekoniecznie jest on sprzężony do {v 1,..., v k } 42 / 56

117 Jak znaleźć kierunki sprzężone? Jako pierwszy kierunek sprzężony możemy obrać negatywny gradient: v 1 = f(x 1 ) = g 1 Załóżmy, że dobraliśmy już kierunki sprzężone v 1,..., v k i chcemy dobrać kierunek v k+1. Ponownie, sensownym kandydatem jest g k+1, ale niekoniecznie jest on sprzężony do {v 1,..., v k } Pomysł: dodajmy do gradientu kombinację liniową poprzednich kierunków aby stał się sprzężony, tzn. aby v j Av k+1 = 0 dla j k v k+1 = k g k+1 + β k,i v i i=1 42 / 56

118 Jak znaleźć kierunki sprzężone? Jako pierwszy kierunek sprzężony możemy obrać negatywny gradient: v 1 = f(x 1 ) = g 1 Załóżmy, że dobraliśmy już kierunki sprzężone v 1,..., v k i chcemy dobrać kierunek v k+1. Ponownie, sensownym kandydatem jest g k+1, ale niekoniecznie jest on sprzężony do {v 1,..., v k } Pomysł: dodajmy do gradientu kombinację liniową poprzednich kierunków aby stał się sprzężony, tzn. aby v j Av k+1 = 0 dla j k v k+1 = k g k+1 + β k,i v i i=1 Wyznaczmy te współczynniki: v k+1 = k g k+1 + β k,i v i i=1 42 / 56

119 Jak znaleźć kierunki sprzężone? Jako pierwszy kierunek sprzężony możemy obrać negatywny gradient: v 1 = f(x 1 ) = g 1 Załóżmy, że dobraliśmy już kierunki sprzężone v 1,..., v k i chcemy dobrać kierunek v k+1. Ponownie, sensownym kandydatem jest g k+1, ale niekoniecznie jest on sprzężony do {v 1,..., v k } Pomysł: dodajmy do gradientu kombinację liniową poprzednich kierunków aby stał się sprzężony, tzn. aby v j Av k+1 = 0 dla j k v k+1 = k g k+1 + β k,i v i i=1 Wyznaczmy te współczynniki: Av k+1 = k Ag k+1 + β k,i Av i i=1 42 / 56

120 Jak znaleźć kierunki sprzężone? Jako pierwszy kierunek sprzężony możemy obrać negatywny gradient: v 1 = f(x 1 ) = g 1 Załóżmy, że dobraliśmy już kierunki sprzężone v 1,..., v k i chcemy dobrać kierunek v k+1. Ponownie, sensownym kandydatem jest g k+1, ale niekoniecznie jest on sprzężony do {v 1,..., v k } Pomysł: dodajmy do gradientu kombinację liniową poprzednich kierunków aby stał się sprzężony, tzn. aby v j Av k+1 = 0 dla j k v k+1 = k g k+1 + β k,i v i i=1 Wyznaczmy te współczynniki: vj Av k+1 = k vj Ag k+1 + β k,i vj Av i i=1 }{{} =0 dla j i 42 / 56

121 Jak znaleźć kierunki sprzężone? Jako pierwszy kierunek sprzężony możemy obrać negatywny gradient: v 1 = f(x 1 ) = g 1 Załóżmy, że dobraliśmy już kierunki sprzężone v 1,..., v k i chcemy dobrać kierunek v k+1. Ponownie, sensownym kandydatem jest g k+1, ale niekoniecznie jest on sprzężony do {v 1,..., v k } Pomysł: dodajmy do gradientu kombinację liniową poprzednich kierunków aby stał się sprzężony, tzn. aby v j Av k+1 = 0 dla j k v k+1 = k g k+1 + β k,i v i i=1 Wyznaczmy te współczynniki: v j Av k+1 }{{} =0 = v j Ag k+1 + β k,j v j Av j 42 / 56

122 Jak znaleźć kierunki sprzężone? Jako pierwszy kierunek sprzężony możemy obrać negatywny gradient: v 1 = f(x 1 ) = g 1 Załóżmy, że dobraliśmy już kierunki sprzężone v 1,..., v k i chcemy dobrać kierunek v k+1. Ponownie, sensownym kandydatem jest g k+1, ale niekoniecznie jest on sprzężony do {v 1,..., v k } Pomysł: dodajmy do gradientu kombinację liniową poprzednich kierunków aby stał się sprzężony, tzn. aby v j Av k+1 = 0 dla j k v k+1 = k g k+1 + β k,i v i i=1 Wyznaczmy te współczynniki: v j Ag k+1 = β k,j v j Av j 42 / 56

123 Jak znaleźć kierunki sprzężone? Jako pierwszy kierunek sprzężony możemy obrać negatywny gradient: v 1 = f(x 1 ) = g 1 Załóżmy, że dobraliśmy już kierunki sprzężone v 1,..., v k i chcemy dobrać kierunek v k+1. Ponownie, sensownym kandydatem jest g k+1, ale niekoniecznie jest on sprzężony do {v 1,..., v k } Pomysł: dodajmy do gradientu kombinację liniową poprzednich kierunków aby stał się sprzężony, tzn. aby v j Av k+1 = 0 dla j k v k+1 = k g k+1 + β k,i v i i=1 Wyznaczmy te współczynniki: β k,j = v j Ag k+1 v j Av j 42 / 56

124 Jak znaleźć kierunki sprzężone? Jako pierwszy kierunek sprzężony możemy obrać negatywny gradient: v 1 = f(x 1 ) = g 1 Załóżmy, że dobraliśmy już kierunki sprzężone v 1,..., v k i chcemy dobrać kierunek v k+1. Ponownie, sensownym kandydatem jest g k+1, ale niekoniecznie jest on sprzężony do {v 1,..., v k } Pomysł: dodajmy do gradientu kombinację liniową poprzednich kierunków aby stał się sprzężony, tzn. aby v j Av k+1 = 0 dla j k v k+1 = k g k+1 + β k,i v i i=1 Wyznaczmy te współczynniki: β k,j = g k+1 Av j v j Av j Problem: w danej iteracji trzeba wyznaczyć k współczynników β k,1,..., β k,k i zapamiętać poprzednie kierunku poprawy v 1,..., v k 42 / 56

125 Jak znaleźć kierunki sprzężone? Jako pierwszy kierunek sprzężony możemy obrać negatywny gradient: v 1 = f(x 1 ) = g 1 Załóżmy, że dobraliśmy już kierunki sprzężone v 1,..., v k i chcemy dobrać kierunek v k+1. Ponownie, sensownym kandydatem jest g k+1, ale niekoniecznie jest on sprzężony do {v 1,..., v k } Pomysł: dodajmy do gradientu kombinację liniową poprzednich kierunków aby stał się sprzężony, tzn. aby v j Av k+1 = 0 dla j k v k+1 = k g k+1 + β k,i v i i=1 Wyznaczmy te współczynniki: β k,j = g k+1 Av j v j Av j Problem: Magia w danej gradientów iteracji trzeba sprzężonych: wyznaczyć k współczynników β k,1,..., Zachodzi β k,k i zapamiętać β k,j = 0 dla poprzednie j = 1,.. kierunku., k 1, czyli poprawy pozostaje v 1,..., v k tylko jeden niezerowy współczynnik β k,k 42 / 56

126 Kluczowy punkt konstrukcji algorytmu Zachodzi g k+1 Av j = 0 dla j = 1,..., k 1 43 / 56

127 Kluczowy punkt konstrukcji algorytmu Zachodzi g k+1 Av j = 0 dla j = 1,..., k 1 Dowód: Najpierw pokazujemy, że gradient g k+1 jest ortogonalny do wszystkich poprzednich gradientów, tzn. g k+1g j = 0, dla j = 1,..., k 43 / 56

128 Kluczowy punkt konstrukcji algorytmu Zachodzi g k+1 Av j = 0 dla j = 1,..., k 1 Dowód: Najpierw pokazujemy, że gradient g k+1 jest ortogonalny do wszystkich poprzednich gradientów, tzn. g k+1g j = 0, dla j = 1,..., k Pokazaliśmy już, że gradient jest ortogonalny do poprzednich kierunków poprawy, tzn. dla j k mamy g k+1 v j = 0 43 / 56

129 Kluczowy punkt konstrukcji algorytmu Zachodzi g k+1 Av j = 0 dla j = 1,..., k 1 Dowód: Najpierw pokazujemy, że gradient g k+1 jest ortogonalny do wszystkich poprzednich gradientów, tzn. g k+1g j = 0, dla j = 1,..., k Pokazaliśmy już, że gradient jest ortogonalny do poprzednich kierunków poprawy, tzn. dla j k mamy g k+1 v j = 0 Z zasady doboru kierunku poprawy: j 1 j 1 v j = g j + β j 1,i v i = g j = v j + β j 1,i v i i=1 i=1 43 / 56

130 Kluczowy punkt konstrukcji algorytmu Zachodzi g k+1 Av j = 0 dla j = 1,..., k 1 Dowód: Najpierw pokazujemy, że gradient g k+1 jest ortogonalny do wszystkich poprzednich gradientów, tzn. g k+1g j = 0, dla j = 1,..., k Pokazaliśmy już, że gradient jest ortogonalny do poprzednich kierunków poprawy, tzn. dla j k mamy g k+1 v j = 0 Z zasady doboru kierunku poprawy: j 1 j 1 v j = g j + β j 1,i v i = g j = v j + β j 1,i v i i=1 i=1 Czyli dla j k: gk+1g j = gk+1v j }{{} =0 j 1 + i=1 β j 1,i g k+1v i }{{} =0 = 0 43 / 56

131 Kluczowy punkt konstrukcji algorytmu Zachodzi g k+1 Av j = 0 dla j = 1,..., k 1 Dowód: Pokazaliśmy, że gradient g k+1 jest ortogonalny do wszystkich poprzednich gradientów, tzn. g k+1 g j = 0 dla j = 1,..., k 43 / 56

132 Kluczowy punkt konstrukcji algorytmu Zachodzi g k+1 Av j = 0 dla j = 1,..., k 1 Dowód: Pokazaliśmy, że gradient g k+1 jest ortogonalny do wszystkich poprzednich gradientów, tzn. g k+1 g j = 0 dla j = 1,..., k Teraz wykorzystamy fakt, że: g k+1 = Ax k+1 b = A(x k + α k v k ) b = Ax k b }{{} =g k +Aα k v k, 43 / 56

133 Kluczowy punkt konstrukcji algorytmu Zachodzi g k+1 Av j = 0 dla j = 1,..., k 1 Dowód: Pokazaliśmy, że gradient g k+1 jest ortogonalny do wszystkich poprzednich gradientów, tzn. g k+1 g j = 0 dla j = 1,..., k Teraz wykorzystamy fakt, że: g k+1 = Ax k+1 b = A(x k + α k v k ) b = Ax k b }{{} =g k +Aα k v k, Jeśli α k = 0, to g k+1 = g k, a ponieważ g k+1 g k = 0, wnioskujemy, że g k+1 = f(x k+1 ) = 0, czyli jesteśmy w optimum. 43 / 56

134 Kluczowy punkt konstrukcji algorytmu Zachodzi g k+1 Av j = 0 dla j = 1,..., k 1 Dowód: Pokazaliśmy, że gradient g k+1 jest ortogonalny do wszystkich poprzednich gradientów, tzn. g k+1 g j = 0 dla j = 1,..., k Teraz wykorzystamy fakt, że: g k+1 = Ax k+1 b = A(x k + α k v k ) b = Ax k b }{{} =g k +Aα k v k, Jeśli α k = 0, to g k+1 = g k, a ponieważ g k+1 g k = 0, wnioskujemy, że g k+1 = f(x k+1 ) = 0, czyli jesteśmy w optimum. Jeśli α k 0, mamy: Av k = 1 α k (g k+1 g k ) 43 / 56

135 Kluczowy punkt konstrukcji algorytmu Zachodzi g k+1 Av j = 0 dla j = 1,..., k 1 Dowód: Pokazaliśmy, że gradient g k+1 jest ortogonalny do wszystkich poprzednich gradientów, tzn. g k+1 g j = 0 dla j = 1,..., k Teraz wykorzystamy fakt, że: g k+1 = Ax k+1 b = A(x k + α k v k ) b = Ax k b }{{} =g k +Aα k v k, Jeśli α k = 0, to g k+1 = g k, a ponieważ g k+1 g k = 0, wnioskujemy, że g k+1 = f(x k+1 ) = 0, czyli jesteśmy w optimum. Jeśli α k 0, mamy: Av k = 1 α k (g k+1 g k ) Stąd otrzymujemy dla j k 1: gk+1av j = 1 g α k+1(g j+1 g j ) = 1 ( g k α k+1g j+1 gk+1g j k }{{}}{{} =0 =0 ) = 0 43 / 56

136 Dobór kierunków sprzężonych Wniosek: W algorytmie gradientów sprzężonych: x k+1 = x k + α k v k, α k = v k g k v k Av k kierunki sprzężone {v 1,..., v n } można otrzymać jako: v 1 = g 1 v k+1 = g k+1 + β k v k, β k = g k+1 Av k vk Av, k 44 / 56

137 Dobór kierunków sprzężonych Wniosek: W algorytmie gradientów sprzężonych: x k+1 = x k + α k v k, α k = v k g k v k Av k kierunki sprzężone {v 1,..., v n } można otrzymać jako: v 1 = g 1 v k+1 = g k+1 + β k v k, β k = g k+1 Av k vk Av, k Uwaga: Zwykle stosuje się inną postać współczynników α k : α k = v k g k v k Av k 44 / 56

138 Dobór kierunków sprzężonych Wniosek: W algorytmie gradientów sprzężonych: x k+1 = x k + α k v k, α k = v k g k v k Av k kierunki sprzężone {v 1,..., v n } można Zgodnie otrzymać z v k = jako: g k + β k 1 v k 1 v 1 = g 1 v k+1 = g k+1 + β k v k, β k = g k+1 Av k vk Av, k Uwaga: Zwykle stosuje się inną postać współczynników α k : α k = (g k β k 1 v k 1 ) g k v k Av k 44 / 56

139 Dobór kierunków sprzężonych Wniosek: W algorytmie gradientów sprzężonych: x k+1 = x k + α k v k, α k = v k g k v k Av k kierunki sprzężone gradient {vortogonalny 1,..., v n } można do poprzednich otrzymaćkierunków: jako: v 1 = gv 1 j g k = 0 dla j < k v k+1 = g k+1 + β k v k, β k = g k+1 Av k vk Av, k Uwaga: Zwykle stosuje się inną postać współczynników α k : α k = g k g k β k 1 v k 1 g k v k Av k 44 / 56

140 Dobór kierunków sprzężonych Wniosek: W algorytmie gradientów sprzężonych: x k+1 = x k + α k v k, α k = v k g k v k Av k kierunki sprzężone {v 1,..., v n } można otrzymać jako: v 1 = g 1 v k+1 = g k+1 + β k v k, β k = g k+1 Av k vk Av, k Uwaga: Zwykle stosuje się inną postać współczynników α k : α k = g k g k v k Av k 44 / 56

141 Dobór kierunków sprzężonych Wniosek: W algorytmie gradientów sprzężonych: x k+1 = x k + α k v k, α k = v k g k v k Av k kierunki sprzężone {v 1,..., v n } można otrzymać jako: v 1 = g 1 v k+1 = g k+1 + β k v k, β k = g k+1 Av k vk Av, k Uwaga: Zwykle stosuje się inną postać współczynników α k : Podobnie, dla współczynnika β k : α k = g k g k v k Av k β k = g k+1 Av k v k Av k 44 / 56

142 Dobór kierunków sprzężonych Wniosek: W algorytmie gradientów sprzężonych: x k+1 = x k + α k v k, α k = v k g k v k Av k kierunki sprzężone {v 1,..., v n } można otrzymać jako: v 1 = g 1 v k+1 = g k+1 + β k v k, β k = g k+1 Av k vk Av, k Uwaga: Zwykle stosuje się inną postać współczynników α k : Podobnie, dla współczynnika β k : α k = g k g k v k Av k β k = g k+1 (α kav k ) v k (α kav k ) 44 / 56

143 Dobór kierunków sprzężonych Wniosek: W algorytmie gradientów sprzężonych: x k+1 = x k + α k v k, α k = v k g k v k Av k kierunki sprzężone {v 1,..., v n } można otrzymać jako: W dowodzie v 1 = na gpoprzednim 1 slajdzie pokazaliśmy, że: v k+1 = g α k+1 + β k v k, β = g k+1 Av k Av k = g k+1 g k k vk Av, k Uwaga: Zwykle stosuje się inną postać współczynników α k : Podobnie, dla współczynnika β k : α k = g k g k v k Av k β k = g k+1 (α kav k ) v k (α kav k ) 44 / 56

144 Dobór kierunków sprzężonych Wniosek: W algorytmie gradientów sprzężonych: x k+1 = x k + α k v k, α k = v k g k v k Av k kierunki sprzężone {v 1,..., v n } można otrzymać jako: v 1 = g 1 v k+1 = g k+1 + β k v k, β k = g k+1 Av k vk Av, k Uwaga: Zwykle stosuje się inną postać współczynników α k : Podobnie, dla współczynnika β k : α k = g k g k v k Av k β k = g k+1 (g k+1 g k ) v k (g k+1 g k ) 44 / 56

145 Dobór kierunków sprzężonych Wniosek: W algorytmie gradientów sprzężonych: x k+1 = x k + α k v k, α k = v k g k v k Av k kierunki sprzężone {v 1,..., v n } można otrzymać jako: gradient v 1 = ortogonalny g 1 do poprzednich gradientów: g v k+1 = g k+1 + β k v k, β k = g k+1 Av k+1 g j = 0 dla j k k vk Av, k Uwaga: Zwykle stosuje się inną postać współczynników α k : Podobnie, dla współczynnika β k : α k = g k g k v k Av k β k = g k+1 g k+1 g k+1 g k v k g k+1 v k g k 44 / 56

146 Dobór kierunków sprzężonych Wniosek: W algorytmie gradientów sprzężonych: x k+1 = x k + α k v k, α k = v k g k v k Av k kierunki sprzężone {v 1,..., v n } można otrzymać jako: v 1 = g 1 v k+1 = g k+1 + β k v k, β k = g k+1 Av k gradient ortogonalny do poprzednich kierunków: vk Av, k vj Uwaga: Zwykle stosuje się inną g k+1 = 0 dla j k postać współczynników α k : Podobnie, dla współczynnika β k : α k = g k g k v k Av k β k = g k+1 g k+1 v k g k+1 v k g k 44 / 56

147 Dobór kierunków sprzężonych Wniosek: W algorytmie gradientów sprzężonych: x k+1 = x k + α k v k, α k = v k g k v k Av k kierunki sprzężone {v 1,..., v n } można otrzymać jako: v 1 = g 1 Pokazaliśmy przy przekształceniu α k, że v k+1 = g k+1 + β k v k, β v k = g k+1 Av k g vk k = g Av k, g k k Uwaga: Zwykle stosuje się inną postać współczynników α k : Podobnie, dla współczynnika β k : α k = g k g k v k Av k β k = g k+1 g k+1 v k g k 44 / 56

148 Dobór kierunków sprzężonych Wniosek: W algorytmie gradientów sprzężonych: x k+1 = x k + α k v k, α k = v k g k v k Av k kierunki sprzężone {v 1,..., v n } można otrzymać jako: v 1 = g 1 v k+1 = g k+1 + β k v k, β k = g k+1 Av k vk Av, k Uwaga: Zwykle stosuje się inną postać współczynników α k : Podobnie, dla współczynnika β k : α k = g k g k v k Av k β k = g k+1 g k+1 g k g k 44 / 56

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 4. Metody kierunków poprawy (metoda spadku wzdłuż gradientu) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 21.03.2019 1 / 41 Plan wykładu Minimalizacja

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 1. Optymalizacja funkcji jednej zmiennej Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.02.2019 1 / 54 Plan wykładu Optymalizacja funkcji jednej

Bardziej szczegółowo

WYKŁAD 9 METODY ZMIENNEJ METRYKI

WYKŁAD 9 METODY ZMIENNEJ METRYKI WYKŁAD 9 METODY ZMIENNEJ METRYKI Kierunki sprzężone. Metoda Newtona Raphsona daje dobre przybliżenie najlepszego kierunku poszukiwań, lecz jest to okupione znacznym kosztem obliczeniowym zwykle postać

Bardziej szczegółowo

ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ

ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ Maciej Patan Uniwersytet Zielonogórski WSTEP Zadanie minimalizacji bez ograniczeń f(ˆx) = min x R nf(x) f : R n R funkcja ograniczona z dołu Algorytm rozwiazywania Rekurencyjny

Bardziej szczegółowo

KADD Minimalizacja funkcji

KADD Minimalizacja funkcji Minimalizacja funkcji n-wymiarowych Forma kwadratowa w n wymiarach Procedury minimalizacji Minimalizacja wzdłuż prostej w n-wymiarowej przestrzeni Metody minimalizacji wzdłuż osi współrzędnych wzdłuż kierunków

Bardziej szczegółowo

KADD Minimalizacja funkcji

KADD Minimalizacja funkcji Minimalizacja funkcji Poszukiwanie minimum funkcji Foma kwadratowa Metody przybliżania minimum minimalizacja Minimalizacja w n wymiarach Metody poszukiwania minimum Otaczanie minimum Podział obszaru zawierającego

Bardziej szczegółowo

5. Metody Newtona. 5.1 Wzór Taylora

5. Metody Newtona. 5.1 Wzór Taylora 5. Metody Newtona Na ostatnich zajęciach zidentyfikowaliśmy ważny problem poznanych dotychczas metod (Gaussa-Seidel a, Cauchy iego, spadku wzdłuż gradientu, stochastycznego spadku wzdłuż gradientu): ich

Bardziej szczegółowo

Wstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych. P. F. Góra

Wstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych. P. F. Góra Wstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2012 Strategia minimalizacji wielowymiarowej Zakładamy, że metody poszukiwania minimów

Bardziej szczegółowo

Techniki Optymalizacji: Optymalizacja wypukła

Techniki Optymalizacji: Optymalizacja wypukła Techniki Optymalizacji: Optymalizacja wypukła Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje: piątek 15:10-16:40

Bardziej szczegółowo

Metody numeryczne I Równania nieliniowe

Metody numeryczne I Równania nieliniowe Metody numeryczne I Równania nieliniowe Janusz Szwabiński szwabin@ift.uni.wroc.pl Metody numeryczne I (C) 2004 Janusz Szwabiński p.1/66 Równania nieliniowe 1. Równania nieliniowe z pojedynczym pierwiastkiem

Bardziej szczegółowo

Wprowadzenie Metoda bisekcji Metoda regula falsi Metoda siecznych Metoda stycznych RÓWNANIA NIELINIOWE

Wprowadzenie Metoda bisekcji Metoda regula falsi Metoda siecznych Metoda stycznych RÓWNANIA NIELINIOWE Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać ogólna równania nieliniowego Zazwyczaj nie można znaleźć

Bardziej szczegółowo

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH Transport, studia I stopnia rok akademicki 2011/2012 Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Uwagi wstępne Układ liniowych równań algebraicznych można

Bardziej szczegółowo

1 Równania nieliniowe

1 Równania nieliniowe 1 Równania nieliniowe 1.1 Postać ogólna równania nieliniowego Często występującym, ważnym problemem obliczeniowym jest numeryczne poszukiwanie rozwiązań równań nieliniowych, np. algebraicznych (wielomiany),

Bardziej szczegółowo

1 Metody rozwiązywania równań nieliniowych. Postawienie problemu

1 Metody rozwiązywania równań nieliniowych. Postawienie problemu 1 Metody rozwiązywania równań nieliniowych. Postawienie problemu Dla danej funkcji ciągłej f znaleźć wartości x, dla których f(x) = 0. (1) 2 Przedział izolacji pierwiastka Będziemy zakładać, że równanie

Bardziej szczegółowo

ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH

ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH Transport, studia I stopnia Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać ogólna równania nieliniowego Często występującym, ważnym problemem obliczeniowym

Bardziej szczegółowo

1 Pochodne wyższych rzędów

1 Pochodne wyższych rzędów 1 Pochodne wyższych rzędów Definicja 1.1 (Pochodne cząstkowe drugiego rzędu) Niech f będzie odwzorowaniem o wartościach w R m, określonym na zbiorze G R k. Załóżmy, że zbiór tych x G, dla których istnieje

Bardziej szczegółowo

Formy kwadratowe. Rozdział 10

Formy kwadratowe. Rozdział 10 Rozdział 10 Formy kwadratowe Rozważmy rzeczywistą macierz symetryczną A R n n Definicja 101 Funkcję h : R n R postaci h (x) = x T Ax (101) nazywamy formą kwadratową Macierz symetryczną A występującą w

Bardziej szczegółowo

Metoda Karusha-Kuhna-Tuckera

Metoda Karusha-Kuhna-Tuckera Badania operacyjne i teoria optymalizacji Poznań, 2015/2016 Plan 1 Sformułowanie problemu 2 3 Warunki ortogonalności 4 Warunki Karusha-Kuhna-Tuckera 5 Twierdzenia Karusha-Kuhna-Tuckera 6 Ograniczenia w

Bardziej szczegółowo

Układy równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona) f(x) = 0, gdzie. dla n=2 np.

Układy równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona) f(x) = 0, gdzie. dla n=2 np. Układy równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona f(x 0, f ( f, f,..., f n gdzie 2 x ( x, x 2,..., x n dla n2 np. f ( x, y 0 g( x, y 0 dla każdej wielowymiarowej rozwinięcie w szereg Taylora

Bardziej szczegółowo

Zaawansowane metody numeryczne

Zaawansowane metody numeryczne Wykład 11 Ogólna postać metody iteracyjnej Definicja 11.1. (metoda iteracyjna rozwiązywania układów równań) Metodą iteracyjną rozwiązywania { układów równań liniowych nazywamy ciąg wektorów zdefiniowany

Bardziej szczegółowo

RÓWNANIA NIELINIOWE Maciej Patan

RÓWNANIA NIELINIOWE Maciej Patan RÓWNANIA NIELINIOWE Maciej Patan Uniwersytet Zielonogórski Przykład 1 Prędkość v spadającego spadochroniarza wyraża się zależnością v = mg ( 1 e c t) m c gdzie g = 9.81 m/s 2. Dla współczynnika oporu c

Bardziej szczegółowo

Przegląd metod optymalizacji wielowymiarowej. Funkcja testowa. Funkcja testowa. Notes. Notes. Notes. Notes. Tomasz M. Gwizdałła

Przegląd metod optymalizacji wielowymiarowej. Funkcja testowa. Funkcja testowa. Notes. Notes. Notes. Notes. Tomasz M. Gwizdałła Przegląd metod optymalizacji wielowymiarowej Tomasz M. Gwizdałła 2012.12.06 Funkcja testowa Funkcją testową dla zagadnień rozpatrywanych w ramach tego wykładu będzie funkcja postaci f (x) = (x 1 1) 4 +

Bardziej szczegółowo

wszystkich kombinacji liniowych wektorów układu, nazywa się powłoką liniową uk ładu wektorów

wszystkich kombinacji liniowych wektorów układu, nazywa się powłoką liniową uk ładu wektorów KOINACJA LINIOWA UKŁADU WEKTORÓW Definicja 1 Niech będzie przestrzenią liniową (wektorową) nad,,,, układem wektorów z przestrzeni, a,, współczynnikami ze zbioru (skalarami). Wektor, nazywamy kombinacją

Bardziej szczegółowo

Programowanie nieliniowe. Badania operacyjne Wykład 3 Metoda Lagrange a

Programowanie nieliniowe. Badania operacyjne Wykład 3 Metoda Lagrange a Programowanie nieliniowe Badania operacyjne Wykład 3 Metoda Lagrange a Plan wykładu Przykład problemu z nieliniową funkcją celu Sformułowanie problemu programowania matematycznego Podstawowe definicje

Bardziej szczegółowo

Matematyka stosowana i metody numeryczne

Matematyka stosowana i metody numeryczne Ewa Pabisek Adam Wosatko Piotr Pluciński Matematyka stosowana i metody numeryczne Konspekt z wykładu 6 Rozwiązywanie równań nieliniowych Rozwiązaniem lub pierwiastkiem równania f(x) = 0 lub g(x) = h(x)

Bardziej szczegółowo

Metody Numeryczne Optymalizacja. Wojciech Szewczuk

Metody Numeryczne Optymalizacja. Wojciech Szewczuk Metody Numeryczne Optymalizacja Optymalizacja Definicja 1 Przez optymalizację będziemy rozumieć szukanie minimów lub maksimów funkcji. Optymalizacja Definicja 2 Optymalizacja lub programowanie matematyczne

Bardziej szczegółowo

Rozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów.

Rozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów. Rozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów. Plan wykładu: 1. Wyznaczanie pojedynczych pierwiastków rzeczywistych równań nieliniowych metodami a) połowienia (bisekcji)

Bardziej szczegółowo

Wstęp do metod numerycznych 12. Minimalizacja: funkcje wielu zmiennych. P. F. Góra

Wstęp do metod numerycznych 12. Minimalizacja: funkcje wielu zmiennych. P. F. Góra Wstęp do metod numerycznych 12. Minimalizacja: funkcje wielu zmiennych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2015 Strategia minimalizacji wielowymiarowej Zakładamy, że metody poszukiwania minimów

Bardziej szczegółowo

VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa.

VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa. VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa. W rozdziale tym zajmiemy się dokładniej badaniem stabilności rozwiązań równania różniczkowego. Pojęcie stabilności w

Bardziej szczegółowo

II. FUNKCJE WIELU ZMIENNYCH

II. FUNKCJE WIELU ZMIENNYCH II. FUNKCJE WIELU ZMIENNYCH 1. Zbiory w przestrzeni R n Ustalmy dowolne n N. Definicja 1.1. Zbiór wszystkich uporzadkowanych układów (x 1,..., x n ) n liczb rzeczywistych, nazywamy przestrzenią n-wymiarową

Bardziej szczegółowo

Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa. P. F. Góra

Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa. P. F. Góra Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2012 Uwarunkowanie zadania numerycznego Niech ϕ : R n R m będzie pewna funkcja odpowiednio wiele

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 3 autorzy: A. Gonczarek, J.M. Tomczak Zbiory i funkcje wypukłe Zad. 1 Pokazać, że następujące zbiory są wypukłe: a) płaszczyzna S = {x

Bardziej szczegółowo

Optymalizacja (minimalizacja) funkcji. Plan wykładu: 1. Sformułowanie problemu, funkcja celu. 2. Metody bezgradientowe

Optymalizacja (minimalizacja) funkcji. Plan wykładu: 1. Sformułowanie problemu, funkcja celu. 2. Metody bezgradientowe Optymalizacja (minimalizacja) funkcji Plan wykładu: 1. Sformułowanie problemu, funkcja celu. Metody bezgradientowe a) metoda złotego podziału b) metoda sympleks c) metoda interpolacji Powell'a 3. Metody

Bardziej szczegółowo

Metody Optymalizacji: Przeszukiwanie z listą tabu

Metody Optymalizacji: Przeszukiwanie z listą tabu Metody Optymalizacji: Przeszukiwanie z listą tabu Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje: wtorek

Bardziej szczegółowo

Politechnika Wrocławska, Wydział Informatyki i Zarządzania. Optymalizacja

Politechnika Wrocławska, Wydział Informatyki i Zarządzania. Optymalizacja Politechnika Wrocławska, Wydział Informatyki i Zarządzania Optymalizacja Dla podanych niżej problemów decyzyjnych (zad.1 zad.5) należy sformułować zadania optymalizacji, tj.: określić postać zmiennych

Bardziej szczegółowo

5. Metody stochastyczne (symulowane wyżarzanie, algorytmy genetyczne) -> metody Monte Carlo

5. Metody stochastyczne (symulowane wyżarzanie, algorytmy genetyczne) -> metody Monte Carlo Optymalizacja (minimalizacja) funkcji Plan wykładu: 1. Sformułowanie problemu, funkcja celu 2. Metody bezgradientowe a) metoda złotego podziału b) metoda sympleks c) metoda interpolacji Powell'a 3. Metody

Bardziej szczegółowo

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:

Bardziej szczegółowo

1 Wartości własne oraz wektory własne macierzy

1 Wartości własne oraz wektory własne macierzy Rozwiązania zadania umieszczonego na końcu poniższych notatek proszę przynieść na kartkach Proszę o staranne i formalne uzasadnienie odpowiedzi Za zadanie można uzyskać do 6 punktów (jeżeli przyniesione

Bardziej szczegółowo

jeśli nie jest spełnione kryterium zatrzymania, to nowym punktem roboczym x(t+1) staje i następuje przejście do 1)

jeśli nie jest spełnione kryterium zatrzymania, to nowym punktem roboczym x(t+1) staje i następuje przejście do 1) Metody automatycznej optymalizacji cz.i metody dwufazowe Święta Wielkanocne już za nami, tak więc bierzemy się wspólnie do pracy. Ostatnim razem dokonaliśmy charakterystyki zadań optymalizacji i wskazaliśmy

Bardziej szczegółowo

Układy równań i nierówności liniowych

Układy równań i nierówności liniowych Układy równań i nierówności liniowych Wiesław Krakowiak 1 grudnia 2010 1 Układy równań liniowych DEFINICJA 11 Układem równań m liniowych o n niewiadomych X 1,, X n, nazywamy układ postaci: a 11 X 1 + +

Bardziej szczegółowo

Metody optymalizacji. notatki dla studentów matematyki semestr zimowy 2015/2016

Metody optymalizacji. notatki dla studentów matematyki semestr zimowy 2015/2016 Metody optymalizacji notatki dla studentów matematyki semestr zimowy 2015/2016 Aktualizacja: 11 stycznia 2016 Spis treści Spis treści 2 1 Wprowadzenie do optymalizacji 1 11 Podstawowe definicje i własności

Bardziej szczegółowo

2. Definicja pochodnej w R n

2. Definicja pochodnej w R n 2. Definicja pochodnej w R n Niech będzie dana funkcja f : U R określona na zbiorze otwartym U R n. Pochodną kierunkową w punkcie a U w kierunku wektora u R n nazywamy granicę u f(a) = lim t 0 f(a + tu)

Bardziej szczegółowo

Formy kwadratowe. Mirosław Sobolewski. Wydział Matematyki, Informatyki i Mechaniki UW. 14. wykład z algebry liniowej Warszawa, styczeń 2017

Formy kwadratowe. Mirosław Sobolewski. Wydział Matematyki, Informatyki i Mechaniki UW. 14. wykład z algebry liniowej Warszawa, styczeń 2017 Formy kwadratowe Mirosław Sobolewski Wydział Matematyki, Informatyki i Mechaniki UW 14. wykład z algebry liniowej Warszawa, styczeń 2017 Mirosław Sobolewski (UW) Warszawa, 2017 1 / 10 Definicja Funkcja

Bardziej szczegółowo

3. Funkcje wielu zmiennych

3. Funkcje wielu zmiennych 3 Funkcje wielu zmiennych 31 Ciagłość Zanim podamy definicję ciagłości dla funkcji wielu zmiennych wprowadzimy bardzo ogólne i abstrakcyjne pojęcie przestrzeni metrycznej Przestrzeń metryczna Metryka w

Bardziej szczegółowo

Wykład 12 i 13 Macierz w postaci kanonicznej Jordana , 0 A 2

Wykład 12 i 13 Macierz w postaci kanonicznej Jordana , 0 A 2 Wykład 12 i 13 Macierz w postaci kanonicznej Jordana Niech A - macierz kwadratowa stopnia n Jak obliczyć np A 100? a 11 0 0 0 a 22 0 Jeśli A jest macierzą diagonalną tzn A =, to Ak = 0 0 a nn Niech B =

Bardziej szczegółowo

ALGEBRA Z GEOMETRIĄ BAZY PRZESTRZENI WEKTOROWYCH

ALGEBRA Z GEOMETRIĄ BAZY PRZESTRZENI WEKTOROWYCH ALGEBRA Z GEOMETRIĄ 1/10 BAZY PRZESTRZENI WEKTOROWYCH Piotr M. Hajac Uniwersytet Warszawski Wykład 11, 18.12.2013 Typeset by Jakub Szczepanik. Istnienie bazy Tak jak wśród wszystkich pierścieni wyróżniamy

Bardziej szczegółowo

Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych

Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych mgr inż. C. Dendek prof. nzw. dr hab. J. Mańdziuk Politechnika Warszawska, Wydział Matematyki i Nauk Informacyjnych Outline 1 Uczenie

Bardziej szczegółowo

Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji

Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji Adam Kiersztyn Lublin 2014 Adam Kiersztyn () Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji maj 2014 1 / 24 Zanim przejdziemy

Bardziej szczegółowo

Algebra liniowa z geometrią

Algebra liniowa z geometrią Algebra liniowa z geometrią Maciej Czarnecki 15 stycznia 2013 Spis treści 1 Geometria płaszczyzny 2 1.1 Wektory i skalary........................... 2 1.2 Macierze, wyznaczniki, układy równań liniowych.........

Bardziej szczegółowo

Aproksymacja. funkcji: ,a 2. ,...,a m. - są funkcjami bazowymi m+1 wymiarowej podprzestrzeni liniowej X m+1

Aproksymacja. funkcji: ,a 2. ,...,a m. - są funkcjami bazowymi m+1 wymiarowej podprzestrzeni liniowej X m+1 Założenie: f(x) funkcja którą aproksymujemy X jest przestrzenią liniową Aproksymacja liniowa funkcji f(x) polega na wyznaczeniu współczynników a 0,a 1,a 2,...,a m funkcji: Gdzie: - są funkcjami bazowymi

Bardziej szczegółowo

Metody numeryczne. Równania nieliniowe. Janusz Szwabiński.

Metody numeryczne. Równania nieliniowe. Janusz Szwabiński. Metody numeryczne Równania nieliniowe Janusz Szwabiński szwabin@ift.uni.wroc.pl nm_slides-9.tex Metody numeryczne Janusz Szwabiński 7/1/2003 20:18 p.1/64 Równania nieliniowe 1. Równania nieliniowe z pojedynczym

Bardziej szczegółowo

KADD Metoda najmniejszych kwadratów funkcje nieliniowe

KADD Metoda najmniejszych kwadratów funkcje nieliniowe Metoda najmn. kwadr. - funkcje nieliniowe Metoda najmniejszych kwadratów Funkcje nieliniowe Procedura z redukcją kroku iteracji Przykłady zastosowań Dopasowanie funkcji wykładniczej Dopasowanie funkcji

Bardziej szczegółowo

Iteracyjne rozwiązywanie równań

Iteracyjne rozwiązywanie równań Elementy metod numerycznych Plan wykładu 1 Wprowadzenie Plan wykładu 1 Wprowadzenie 2 Plan wykładu 1 Wprowadzenie 2 3 Wprowadzenie Metoda bisekcji Metoda siecznych Metoda stycznych Plan wykładu 1 Wprowadzenie

Bardziej szczegółowo

Zaawansowane metody numeryczne

Zaawansowane metody numeryczne Wykład 10 Rozkład LU i rozwiązywanie układów równań liniowych Niech będzie dany układ równań liniowych postaci Ax = b Załóżmy, że istnieją macierze L (trójkątna dolna) i U (trójkątna górna), takie że macierz

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium Zadanie nr 3 Osada autor: A Gonczarek Celem poniższego zadania jest zrealizowanie fragmentu komputerowego przeciwnika w grze strategiczno-ekonomicznej

Bardziej szczegółowo

Teoretyczne podstawy programowania liniowego

Teoretyczne podstawy programowania liniowego Teoretyczne podstawy programowania liniowego Elementy algebry liniowej Plan Kombinacja liniowa Definicja Kombinacja liniowa wektorów (punktów) x 1, x 2,, x k R n to wektor x R n k taki, że x = i=1 λ i

Bardziej szczegółowo

Programowanie celowe #1

Programowanie celowe #1 Programowanie celowe #1 Problem programowania celowego (PC) jest przykładem problemu programowania matematycznego nieliniowego, który można skutecznie zlinearyzować, tzn. zapisać (i rozwiązać) jako problem

Bardziej szczegółowo

Przekształcenia liniowe

Przekształcenia liniowe Przekształcenia liniowe Zadania Które z następujących przekształceń są liniowe? (a) T : R 2 R 2, T (x, x 2 ) = (2x, x x 2 ), (b) T : R 2 R 2, T (x, x 2 ) = (x + 3x 2, x 2 ), (c) T : R 2 R, T (x, x 2 )

Bardziej szczegółowo

Elementy metod numerycznych

Elementy metod numerycznych Wykład nr 5 i jej modyfikacje. i zera wielomianów Założenia metody Newtona Niech będzie dane równanie f (x) = 0 oraz przedział a, b taki, że w jego wnętrzu znajduje się dokładnie jeden pierwiastek α badanego

Bardziej szczegółowo

Metoda gradientu prostego

Metoda gradientu prostego Metoda gradientu prostego Metoda gradientu prostego jest pojęciem z zakresu optymalizacji matematycznej. Jest to algorytm numeryczny mający na celu znalezienie minimum zadanej funkcji celu. Jest to jedna

Bardziej szczegółowo

1.3. Optymalizacja geometrii czasteczki

1.3. Optymalizacja geometrii czasteczki 0 1 Część teoretyczna 13 Optymalizacja geometrii czasteczki Poszukiwanie punktów stacjonarnych (krytycznych) funkcji stanowi niezwykle istotny problem w obliczeniowej chemii kwantowej Sprowadza się on

Bardziej szczegółowo

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Metody optymalizacji Metody poszukiwania ekstremum funkcji jednej zmiennej Materiały pomocnicze do ćwiczeń

Bardziej szczegółowo

III. Układy liniowe równań różniczkowych. 1. Pojęcie stabilności rozwiązań.

III. Układy liniowe równań różniczkowych. 1. Pojęcie stabilności rozwiązań. III. Układy liniowe równań różniczkowych. 1. Pojęcie stabilności rozwiązań. Analiza stabilności rozwiązań stanowi ważną część jakościowej teorii równań różniczkowych. Jej istotą jest poszukiwanie odpowiedzi

Bardziej szczegółowo

PROGRAMOWANIE KWADRATOWE

PROGRAMOWANIE KWADRATOWE PROGRAMOWANIE KWADRATOWE Programowanie kwadratowe Zadanie programowania kwadratowego: Funkcja celu lub/i co najmniej jedno z ograniczeń jest funkcją kwadratową. 2 Programowanie kwadratowe Nie ma uniwersalnej

Bardziej szczegółowo

a 11 a a 1n a 21 a a 2n... a m1 a m2... a mn x 1 x 2... x m ...

a 11 a a 1n a 21 a a 2n... a m1 a m2... a mn x 1 x 2... x m ... Wykład 15 Układy równań liniowych Niech K będzie ciałem i niech α 1, α 2,, α n, β K. Równanie: α 1 x 1 + α 2 x 2 + + α n x n = β z niewiadomymi x 1, x 2,, x n nazywamy równaniem liniowym. Układ: a 21 x

Bardziej szczegółowo

Przestrzenie wektorowe

Przestrzenie wektorowe Rozdział 4 Przestrzenie wektorowe Rozważania dotyczące przestrzeni wektorowych rozpoczniemy od kilku prostych przykładów. Przykład 4.1. W przestrzeni R 3 = {(x, y, z) : x, y, z R} wprowadzamy dwa działania:

Bardziej szczegółowo

1 Formy hermitowskie. GAL (Informatyka) Wykład - formy hermitowskie. Paweł Bechler

1 Formy hermitowskie. GAL (Informatyka) Wykład - formy hermitowskie. Paweł Bechler GAL (Informatyka) Wykład - formy hermitowskie Wersja z dnia 23 stycznia 2014 Paweł Bechler 1 Formy hermitowskie Niech X oznacza przestrzeń liniową nad ciałem K. Definicja 1. Funkcję φ : X X K nazywamy

Bardziej szczegółowo

Wstęp do metod numerycznych Rozwiazywanie równań algebraicznych. P. F. Góra

Wstęp do metod numerycznych Rozwiazywanie równań algebraicznych. P. F. Góra Wstęp do metod numerycznych Rozwiazywanie równań algebraicznych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2010 Co to znaczy rozwiazać równanie? Przypuśmy, że postawiono przed nami problem rozwiazania

Bardziej szczegółowo

Macierze. Rozdział Działania na macierzach

Macierze. Rozdział Działania na macierzach Rozdział 5 Macierze Funkcję, która każdej parze liczb naturalnych (i, j) (i 1,..., n; j 1,..., m) przyporządkowuje dokładnie jedną liczbę a ij F, gdzie F R lub F C, nazywamy macierzą (rzeczywistą, gdy

Bardziej szczegółowo

Programowanie liniowe

Programowanie liniowe Programowanie liniowe Maciej Drwal maciej.drwal@pwr.wroc.pl 1 Problem programowania liniowego min x c T x (1) Ax b, (2) x 0. (3) gdzie A R m n, c R n, b R m. Oznaczmy przez x rozwiązanie optymalne, tzn.

Bardziej szczegółowo

5. Rozwiązywanie układów równań liniowych

5. Rozwiązywanie układów równań liniowych 5. Rozwiązywanie układów równań liniowych Wprowadzenie (5.1) Układ n równań z n niewiadomymi: a 11 +a 12 x 2 +...+a 1n x n =a 10, a 21 +a 22 x 2 +...+a 2n x n =a 20,..., a n1 +a n2 x 2 +...+a nn x n =a

Bardziej szczegółowo

Układy równań liniowych. Krzysztof Patan

Układy równań liniowych. Krzysztof Patan Układy równań liniowych Krzysztof Patan Motywacje Zagadnienie kluczowe dla przetwarzania numerycznego Wiele innych zadań redukuje się do problemu rozwiązania układu równań liniowych, często o bardzo dużych

Bardziej szczegółowo

3. Macierze i Układy Równań Liniowych

3. Macierze i Układy Równań Liniowych 3. Macierze i Układy Równań Liniowych Rozważamy równanie macierzowe z końcówki ostatniego wykładu ( ) 3 1 X = 4 1 ( ) 2 5 Podstawiając X = ( ) x y i wymnażając, otrzymujemy układ 2 równań liniowych 3x

Bardziej szczegółowo

Laboratorium 5 Przybliżone metody rozwiązywania równań nieliniowych

Laboratorium 5 Przybliżone metody rozwiązywania równań nieliniowych Uniwersytet Zielonogórski Wydział Informatyki, Elektrotechniki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych Elektrotechnika niestacjonarne-zaoczne pierwszego stopnia z tyt. inżyniera

Bardziej szczegółowo

Metody Obliczeniowe w Nauce i Technice

Metody Obliczeniowe w Nauce i Technice 9 - Rozwiązywanie układów równań nieliniowych Marian Bubak Department of Computer Science AGH University of Science and Technology Krakow, Poland bubak@agh.edu.pl dice.cyfronet.pl Contributors Anna Marciniec

Bardziej szczegółowo

Wykład z równań różnicowych

Wykład z równań różnicowych Wykład z równań różnicowych 1 Wiadomości wstępne Umówmy się, że na czas tego wykładu zrezygnujemy z oznaczania n-tego wyrazu ciągu symbolem typu x n, y n itp. Zamiast tego pisać będziemy x (n), y (n) itp.

Bardziej szczegółowo

Iloczyn skalarny. Mirosław Sobolewski. Wydział Matematyki, Informatyki i Mechaniki UW. 10. wykład z algebry liniowej Warszawa, grudzień 2013

Iloczyn skalarny. Mirosław Sobolewski. Wydział Matematyki, Informatyki i Mechaniki UW. 10. wykład z algebry liniowej Warszawa, grudzień 2013 Iloczyn skalarny Mirosław Sobolewski Wydział Matematyki, Informatyki i Mechaniki UW 10. wykład z algebry liniowej Warszawa, grudzień 2013 Mirosław Sobolewski (UW) Warszawa, grudzień 2013 1 / 14 Standardowy

Bardziej szczegółowo

Treść wykładu. Układy równań i ich macierze. Rząd macierzy. Twierdzenie Kroneckera-Capellego.

Treść wykładu. Układy równań i ich macierze. Rząd macierzy. Twierdzenie Kroneckera-Capellego. . Metoda eliminacji. Treść wykładu i ich macierze... . Metoda eliminacji. Ogólna postać układu Układ m równań liniowych o n niewiadomych x 1, x 2,..., x n : a 11 x 1 + a 12 x 2 + + a 1n x n = b 1 a 21

Bardziej szczegółowo

Metody numeryczne Wykład 7

Metody numeryczne Wykład 7 Metody numeryczne Wykład 7 Dr inż. Michał Łanczont Instytut Elektrotechniki i Elektrotechnologii E419, tel. 4293, m.lanczont@pollub.pl, http://m.lanczont.pollub.pl Plan wykładu Rozwiązywanie równań algebraicznych

Bardziej szczegółowo

Metody numeryczne. Janusz Szwabiński. Metody numeryczne I (C) 2004 Janusz Szwabiński p.1/50

Metody numeryczne. Janusz Szwabiński. Metody numeryczne I (C) 2004 Janusz Szwabiński p.1/50 Metody numeryczne Układy równań liniowych, część II Janusz Szwabiński szwabin@ift.uni.wroc.pl Metody numeryczne I (C) 2004 Janusz Szwabiński p.1/50 Układy równań liniowych, część II 1. Iteracyjne poprawianie

Bardziej szczegółowo

Komputerowa analiza zagadnień różniczkowych 2. Metoda gradientów sprzężonych Minimalizacja i układy równań algebraicznych

Komputerowa analiza zagadnień różniczkowych 2. Metoda gradientów sprzężonych Minimalizacja i układy równań algebraicznych Komputerowa analiza zagadnień różniczkowych 2. Metoda gradientów sprzężonych Minimalizacja i układy równań algebraicznych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ semestr letni 2007/08 Metoda gradientów

Bardziej szczegółowo

Rozwiązywanie równań nieliniowych

Rozwiązywanie równań nieliniowych Rozwiązywanie równań nieliniowych Marcin Orchel 1 Wstęp Przykłady wyznaczania miejsc zerowych funkcji f : f(ξ) = 0. Wyszukiwanie miejsc zerowych wielomianu n-tego stopnia. Wymiar tej przestrzeni wektorowej

Bardziej szczegółowo

Algebra liniowa. 1. Macierze.

Algebra liniowa. 1. Macierze. Algebra liniowa 1 Macierze Niech m oraz n będą liczbami naturalnymi Przestrzeń M(m n F) = F n F n będącą iloczynem kartezjańskim m egzemplarzy przestrzeni F n z naturalnie określonymi działaniami nazywamy

Bardziej szczegółowo

Materiały wykładowe (fragmenty)

Materiały wykładowe (fragmenty) Materiały wykładowe (fragmenty) 1 Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL kontakt osobisty Centrum Wykładowe, blok informatyki, pok. 7

Bardziej szczegółowo

Modyfikacja schematu SCPF obliczeń energii polaryzacji

Modyfikacja schematu SCPF obliczeń energii polaryzacji Modyfikacja schematu SCPF obliczeń energii polaryzacji Zakład Metod Obliczeniowych Chemii 11 kwietnia 2006 roku 1 Po co? Jak? 2 Algorytm Analiza zbieżności 3 dla układów symetrycznych 4 Fulleren 5 Po co?

Bardziej szczegółowo

Zadania z algebry liniowej - sem. I Przestrzenie liniowe, bazy, rząd macierzy

Zadania z algebry liniowej - sem. I Przestrzenie liniowe, bazy, rząd macierzy Zadania z algebry liniowej - sem I Przestrzenie liniowe bazy rząd macierzy Definicja 1 Niech (K + ) będzie ciałem (zwanym ciałem skalarów a jego elementy nazywać będziemy skalarami) Przestrzenią liniową

Bardziej szczegółowo

Metody numeryczne II

Metody numeryczne II Metody numeryczne II Poszukiwanie ekstremów funkcji Janusz Szwabiński szwabin@ift.uni.wroc.pl nmslides-13.tex Metody numeryczne II Janusz Szwabiński 29/5/2003 14:40 p.1/55 Poszukiwanie ekstremów funkcji

Bardziej szczegółowo

Wstęp do metod numerycznych 9a. Układy równań algebraicznych. P. F. Góra

Wstęp do metod numerycznych 9a. Układy równań algebraicznych. P. F. Góra Wstęp do metod numerycznych 9a. Układy równań algebraicznych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2012 Układy równań algebraicznych Niech g:r N równanie R N będzie funkcja klasy co najmniej

Bardziej szczegółowo

Wykład 3 Równania rózniczkowe cd

Wykład 3 Równania rózniczkowe cd 7 grudnia 2010 Definicja Równanie różniczkowe dy dx + p (x) y = q (x) (1) nazywamy równaniem różniczkowym liniowym pierwszego rzędu. Jeśli q (x) 0, to równanie (1) czyli równanie dy dx + p (x) y = 0 nazywamy

Bardziej szczegółowo

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać układu równań liniowych Układ liniowych równań algebraicznych

Bardziej szczegółowo

Egzamin z Metod Numerycznych ZSI, Egzamin, Gr. A

Egzamin z Metod Numerycznych ZSI, Egzamin, Gr. A Egzamin z Metod Numerycznych ZSI, 06.2007. Egzamin, Gr. A Imię i nazwisko: Nr indeksu: Section 1. Test wyboru, max 33 pkt Zaznacz prawidziwe odpowiedzi literą T, a fałszywe N. Każda prawidłowa odpowiedź

Bardziej szczegółowo

Stabilność II Metody Lapunowa badania stabilności

Stabilność II Metody Lapunowa badania stabilności Metody Lapunowa badania stabilności Interesuje nas w sposób szczególny system: Wprowadzamy dla niego pojęcia: - stabilności wewnętrznej - odnosi się do zachowania się systemu przy zerowym wejściu, czyli

Bardziej szczegółowo

2.1. Postać algebraiczna liczb zespolonych Postać trygonometryczna liczb zespolonych... 26

2.1. Postać algebraiczna liczb zespolonych Postać trygonometryczna liczb zespolonych... 26 Spis treści Zamiast wstępu... 11 1. Elementy teorii mnogości... 13 1.1. Algebra zbiorów... 13 1.2. Iloczyny kartezjańskie... 15 1.2.1. Potęgi kartezjańskie... 16 1.2.2. Relacje.... 17 1.2.3. Dwa szczególne

Bardziej szczegółowo

Z52: Algebra liniowa Zagadnienie: Zastosowania algebry liniowej Zadanie: Operatory różniczkowania, zagadnienie brzegowe.

Z52: Algebra liniowa Zagadnienie: Zastosowania algebry liniowej Zadanie: Operatory różniczkowania, zagadnienie brzegowe. Z5: Algebra liniowa Zagadnienie: Zastosowania algebry liniowej Zadanie: Operatory różniczkowania zagadnienie brzegowe Dyskretne operatory różniczkowania Numeryczne obliczanie pochodnych oraz rozwiązywanie

Bardziej szczegółowo

Układy równań liniowych

Układy równań liniowych Układy równań liniowych Niech K będzie ciałem. Niech n, m N. Równanie liniowe nad ciałem K z niewiadomymi (lub zmiennymi) x 1, x 2,..., x n K definiujemy jako formę zdaniową zmiennej (x 1,..., x n ) K

Bardziej szczegółowo

IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych,

IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych, IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. Definicja 1.1. Niech D będzie podzbiorem przestrzeni R n, n 2. Odwzorowanie f : D R nazywamy

Bardziej szczegółowo

METODY NUMERYCZNE. Wykład 4. Numeryczne rozwiązywanie równań nieliniowych z jedną niewiadomą. prof. dr hab.inż. Katarzyna Zakrzewska

METODY NUMERYCZNE. Wykład 4. Numeryczne rozwiązywanie równań nieliniowych z jedną niewiadomą. prof. dr hab.inż. Katarzyna Zakrzewska METODY NUMERYCZNE Wykład 4. Numeryczne rozwiązywanie równań nieliniowych z jedną niewiadomą prof. dr hab.inż. Katarzyna Zakrzewska Met.Numer. Wykład 4 1 Rozwiązywanie równań nieliniowych z jedną niewiadomą

Bardziej szczegółowo

R n = {(x 1, x 2,..., x n ): x i R, i {1,2,...,n} },

R n = {(x 1, x 2,..., x n ): x i R, i {1,2,...,n} }, nazywa- Definicja 1. Przestrzenią liniową R n my zbiór wektorów R n = {(x 1, x 2,..., x n ): x i R, i {1,2,...,n} }, z określonymi działaniami dodawania wektorów i mnożenia wektorów przez liczby rzeczywiste.

Bardziej szczegółowo

Podstawowe struktury algebraiczne

Podstawowe struktury algebraiczne Rozdział 1 Podstawowe struktury algebraiczne 1.1. Działania wewnętrzne Niech X będzie zbiorem niepustym. Dowolną funkcję h : X X X nazywamy działaniem wewnętrznym w zbiorze X. Działanie wewnętrzne, jak

Bardziej szczegółowo