M eto dy o p ty m a liza cji
|
|
- Krystyna Turek
- 6 lat temu
- Przeglądów:
Transkrypt
1 M eto dy o p ty m a liza cji M e to d y d et erm i ni s ty cz n e M et od y st oc h a sty cz n e b e z o gr an ic z eń z o gra n ic z en ia m i m e to d a M o nt e-c ar lo b ezg r ad ie n to w e g r ad ie nto w e b ez gr a d ien to w e g rad ie n to w e b ezp ośr ed n ie z m in im alizac ją m et od a s ym u lo w a n eg o w yŝ a rz an ia R o s en b r o ck a, G au s sa -S eid ela, g r ad ien tu p ro steg o, al go ry tm y g e n et yc z n e H o o k a -J eev e sa, S im p lek su N e ld er a i M ea d a, zło te go p o d zia łu, in ter p o lac yjn e. D av ies a-sw an n a C am p e y a, Po w ella, Z an g w illa, G au s sa -N ew to n a i n ajs zy b sz eg o s p ad k u, g r ad ien tu sp rzęŝ o n eg o, N ew to n a-r ap h s o n a, M arq u ard ta.
2 2 METODY POSZUKIWANIA EKSTREMUM BEZ OGRANICZEŃ Metoda złotego podziału Funkcja f(x) jest ciągła i posiada w przedziale [a, b] pojedynczy punkt stacjonarny. W celu znalezienia podprzedziału, w którym leŝy ten punkt stacjonarny trzeba obliczyć wartości funkcji w dwóch punktach przedziału. Utworzenie tylko jednego punktu x nie pozwala określić, w którym przedziale mieści się minimum. Dopiero po obliczeniu x 2 moŝna stwierdzić, czy minimum znajduje się w przedziale [x, b], czy w [a, x 2 ]. Rys. Jeden z punktów znajduje się zawsze wewnątrz nowego przedziału, tak więc w kolejnej iteracji wystarczy wyliczyć wartość funkcji w jednym punkcie. Algorytm "złotego podziału" zakłada, Ŝe wielkość nowy podprzedziałów będzie się zmniejszała o pewien stały czynnik τ. ZałóŜmy, Ŝe w bieŝącym przedziale [a (i),b (i) ] zostały wyznaczone dwie wartości funkcji celu w punktach x (i) oraz x (i) 2 naleŝących do tego przedziału, przy czym x (i) < x (i) 2. Punkty te spełniają zaleŝność: (i) (i) (i) (i) x2 -a b -x = = τ (i) (i) (i) (i) b -a b -a skąd: x (i) - a (i) = b (i) - x 2 (i).
3 3 Jeśli f(x 2 (i) ) > f(x (i) ) wówczas nowy przedział będzie : Wyznaczanie wartości τ : oraz b (i+) = x 2 (i), a (i+) = a (i), x 2 (i+) = x (i). (i+) (i) (i) (i) (i) (i) x2 -a x -a x2 -a = = = τ (i) (i) (i) (i) (i) (i) x2 -a x2 -a b -a x (i) - a (i) = b (i) - a (i) - (x 2 (i) - a (i) ). Wynika stąd, Ŝe - x (i) (i) a = 2 + = τ, czyli τ + τ = 0. (i) (i) 2 - τ x a Szukana wartość τ wynosi więc : 5 τ = 0,68. 2 Algorytm "złotego podziału" w punktach:. jeśli f(x 2 (i) ) > f(x (i) ), to : b (i+) = x 2 (i), x 2 (i+) = x (i), x (i+) = a (i) + ( - τ) (b (i+) - a (i) ). 2. jeśli f(x 2 (i) ) f(x (i) ), to : a (i+) = x (i), x (i+) = x 2 (i), x 2 (i+) = b (i) + ( - τ) (b (i) - a (i+) ). Po n - krotnych obliczeniach długość przedziału redukuje się do wielkości : Zalety: b (n) - a (n) = [b () - a () ] t n- DuŜa prostota oraz dobra zbieŝność. Wady: Niewielka szybkość zbieŝności przy duŝej dokładności.
4 4 Metoda interpolacji kwadratowej W otoczeniu minimum badaną funkcję moŝna zastąpić wielomianem drugiego stopnia: -szy sposób : 2-gi sposób : wartość funkcji jest wyliczana w trzech kolejnych punktach, przez które jest prowadzony wielomian interpolacyjny drugiego stopnia. Następnie określa się minimum tego wielomianu. Następnie punkt ten jest wprowadzany zamiast jednego z punktów początkowych. Procedura jest powtarzana do osiągnięcia załoŝonej zbieŝności. Niewłaściwa zamiana punktów moŝe doprowadzić do braku zbieŝności. najpierw wyznacza się przedział, w którym znajduje się minimum, a potem stosuje interpolację kwadratową. ZałóŜmy, Ŝe znamy wartości funkcji w trzech punktach a, b, c: f a (x a ), f b (x b ), f c (x c ), przy czym x a < x b < x c. Rys. 2 Wielomian interpolacyjny jest parabolą i ma postać : ( x-x )( x-x ) ( x-x )( x-x ) ( x-x )( x-x ) f ( x ) = f + f + f. ( )( ) ( )( ) ( )( ) b c a c a b a b c xa -xb xa -xc xb -xa xb -xc xc -xa xc -xb Warunkiem koniecznym istnienia w punkcie x min ekstremum jest warunek: a więc: i : f ( x ) = 0 x dla x=x min b c min a c min a b a b c xa xb xa xc xb xa xb xc xc xa xc xb min 2 x ( x +x ) 2 x ( x +x ) 2 x ( x +x ) f + f + f = 0. ( )( ) ( )( ) ( )( ) ( xb -xc ) f a+ ( xc -xa ) f b+ ( xa -xb ) fc x min =. 2 ( x -x ) f + ( x -x ) f + ( x -x ) f b c a c a b a b c
5 5 Inna postać wzoru (zaproponowana przez Daviesa, Swanna i Campeya): L c a x m=x b, 2 fc 2f b+ fa pod warunkiem zachowania równych odległości L pomiędzy bieŝącymi punktami x a, x b, x c. f f Metoda interpolacji sześciennej Metoda najefektywniejsza, jednak wymagana jest znajomość pochodnej kierunkowej. Stosowana jest we wszystkich metodach gradientowych. Przebieg wartości funkcji aproksymujemy krzywą trzeciego stopnia. Rys. 3. Współczynniki a,b,c,r wyznaczane są z układu czterech równań: Poszukiwana wartość minimum x min : Y a = a x a 3 + b x a 2 + c x a + r Y b = a x b 3 + b x b 2 + c x b + r P a = 3a x a 2 + 2b x a + c P b = 3a x b 2 + 2b x b + c 2 2b+ 4b 2ac xmin= b ac 6a 2, gdzie: Zazwyczaj korzysta się z równowaŝnej postaci zaleŝności: e= x x, a b 3 a b, 2 w= z Pa Pb b d= e P b P a + 2 w x = x d. min b b a Y Y z= + P+ P e, P+ w z,
6 6 METODY BEZGRADIENTOWE POSZUKIWANIA EKSTREMUM Metoda Hooka-Jeevesa Punkt minimalny x min jest granicą ciągu x 0, x, x 2,..., gdzie x 0 jest punktem początkowym. Występują dwa sposoby poruszania się: próbny : roboczy : badanie zachowania funkcji w pewnym niewielkim obszarze przez wykonywanie kroków próbnych wzdłuŝ wszystkich kierunków bazy ortogonalnej, przejście w określony sposób do następnego obszaru. Przejście do następnego obszaru następuje, gdy przynajmniej jeden z kroków etapu próbnego był pomyślny, to znaczy nastąpiło zmniejszenie wartości funkcji f(x). W przeciwnym wypadku etap próbny jest powtarzany przy zmniejszonym kroku. a) informacje wejściowe x 0 - punkt startowy ξ,ξ 2,...,ξ n - baza wektorów ortogonalnych, e - początkowa długość kroku, β - współczynnik zmniejszenia kroku, 0 < β <, ε - wymagana dokładność obliczeń, n - liczba zmiennych niezaleŝnych. Etap próbny: podstaw j = oraz oblicz wartość funkcji f(x 0 ) i podstaw pod F 0. 2 wykonaj krok próbny w kierunku ξ j : x j = x j - + e ξ j oraz oblicz f(x j ) i podstaw pod F. 3 jeŝeli F < F 0 to podstaw F w miejsce F 0 i przejdź do pkt.6. jeŝeli F F 0 to przejdź do punktu następnego (4 ). 4 wykonaj krok próbny w przeciwnym kierunku : x j = x j - 2eξ j, oblicz f(x j ) i podstaw pod F. 5 jeŝeli krok ten był pomyślny podstaw F w miejsce F 0. JeŜeli nie, to j = j + i wróć do (2 ). 6 zbadaj, czy j = n (wykonano kroki we wszystkich kierunkach bazy ortogonalnej). Jeśli nie, to j = j + i wróć do (2 ). JeŜeli tak, to: 7 Zbadaj, czy w wykonanym cyklu wystąpiły kroki pomyślne. JeŜeli tak, podstaw x j jako punkt bazowy x B i wykonaj etap roboczy. JeŜeli nie, to: 8 JeŜeli nie minimum, to: przy pierwszej iteracji zmień punkt startowy, a przy następnych zmniejsz długość kroku i wróć do poprzedniego punktu bazowego i do ( ). Etap roboczy: wykonaj krok roboczy : x 0 = x B + (x B - x B0 ) = 2 x B - x B0. 2 podstaw x B w miejsce x B0 i wróć do etapu próbnego.
7 7 Schemat działania opisanego algorytmu: - start 4 - etap próbny (x B ) 5 - etap roboczy 8 - etap próbny 9 - etap roboczy 3 - nie jest spełniony warunek (7 ), powrót do 8, zmniejszenie e. Kryterium zbieŝności : aktualna długość kroku e < ε.
8 8 Metoda Rosenbrocka Metoda ta jest dość podobna do metody Hooka-Jeevesa, gdyŝ równieŝ poszukujemy ekstremum w n wzajemnie ortogonalnych kierunkach. RóŜnica między tymi metodami polega na tym, iŝ tutaj kierunki te nie pozostają stałe, lecz ulegają zmianom w wyniku obrotu. Baza wyjściowa ξ.. ξ n tworzona jest najczęściej z wektorów jednostkowych (wersorów) układu współrzędnych kartezjańskich. Na wstępie wykonuje się po jednym kroku o długości e w kaŝdym z tych kierunków. Jeśli w danym kierunku uzyskujemy sukces, to zwiększamy długość kroku w tym kierunku, natomiast w przeciwnym wypadku, długość kroku mnoŝymy przez współczynnik -b z przedziału (0..), a więc wykonujemy krótszy krok w kierunku przeciwnym do danego. Procedura taka jest powtarzana aŝ do momentu, gdy wykonanie kroku we wszystkich n kierunkach daje efekt niepomyślny, czyli f(x j ) > f(x j- ) dla wszystkich j. W tej sytuacji jeŝeli jest spełnione kryterium na ekstremum, to procedurę moŝna uznać za zakończoną, w przeciwnym wypadku zaś wykonujemy algorytm obrotu współrzędnych i rozpoczynamy jej działanie od początku. Kryterium zbieŝności tej metody zaproponowane przez Rosenbrocka opiera się na załoŝeniu, iŝ bieŝący punkt moŝna uznać za minimum, jeśli w czasie pięciu kolejnych obrotów współrzędnych (i wykonaniu kroków we wszystkich ortogonalnych kierunkach po kaŝdym obrocie) nie wystąpił Ŝaden pomyślny krok. Jednak w realizacjach praktycznych ze względu na zbytnie przedłuŝenie czasu wykonywania procedury stosuje się zwykle znacznie prostsze kryterium narzucając z góry ilość iteracji. Po wykonaniu tej ilości iteracji porównuje się uzyskany wynik z oczekiwaniami i ewentualnie przyjmuje nową wartość ilości iteracji startując z ostatnio wyliczonego punktu. Współczynniki a, b naleŝy dobrać eksperymentalnie; w przypadkach rozpatrywanych przez Rosenbrocka jako optymalne wartości przyjęto a = 3 i b = 0,5.
9 9 Oznaczenia: x 0 - punkt startowy, ξ.. ξ n - baza wektorów ortogonalnych (dla dwóch zmiennych n = 2), e - początkowa długość kroku (wektor n-wymiarowy), a - współczynnik korekcyjny zwiększający wartość kroku (a > ), b - współczynnik korekcyjny zmniejszający wartość kroku (b < ). Algorytm: ) Obliczenie wartości funkcji w punkcie startowym i obliczenie wartości funkcji f(x j- + e j S j ) dla wszystkich kierunków bazy (j =.. n). Gdy f(x j- + e j ξ j ) < f(x j- ) to obliczamy sumę pomyślnych kroków : d j = d j- + e j, przy czym d 0 = 0, przesunięcie punktu x j = x j- + e j ξ j oraz zwiększamy krok (e j = a e j ). W przeciwnym przypadku zmniejszamy krok (e j = -b e j ) oraz podstawiamy x j = x j-. Krok ten jest powtarzany aŝ do momentu, gdy d j = 0 dla wszystkich j =.. n. JeŜeli nastąpiło to po jego jednokrotnym wykonaniu, to przechodzimy do punktu 2. 2) Zmiana punktu startowego x 0 i powtórzenie kroku. W przeciwnym wypadku, jeśli minimum nie zostało osiągnięte przechodzimy do punktu 3. 3) Wykonanie algorytmu obrotu ortogonalnego układu współrzędnych ξ i powrót do wykonywania kroku.
10 0
11 Algorytm obrotu współrzędnych: ) Wyznaczenie układu wektorów: q = d ξ + d 2 ξ d n ξ n q 2 = d 2 ξ d n ξ n... q n = d n ξ n 2) Ortogonalizacja tego układu przy zastosowaniu procedury Gram-Schmidta ν ν= q ξ= ν ν ν2= q2 ( q2, ξ) ξ ξ2= ν... n n n ( qn, ξ j) ξ j ξn j= ν ν= q = ν 2 2 n n ) Podstawienie znalezionego układu wektorów bazy ξ w miejsce poprzedniego. Warunkiem jednoznaczności przejścia jest, aby nie zachodziło d j = 0 dla j =.. n, gdzie d j jest sumą pomyślnych kroków wykonanych w j-tym kierunku. Spełnia się go poprzez odpowiedni sposób doboru długości kroku oraz stosowane kryterium oceny, czy osiągnięto minimum.
12 2 Metoda Gaussa-Seidela Minimalizacja funkcji f(x) wzdłuŝ ortogonalnej bazy ξ,ξ 2,ξ 3,..,ξ n. Jest to minimalizacja funkcji w kierunku. ZbieŜność metody : JeŜeli funkcja celu f(x) ma postać f(x) = /2 x T A x to metoda Gaussa-Seidela jest zbieŝna do punktu ekstremalnego x * wtedy i tylko wtedy, gdy macierz A jest dodatnio określona. Gradient funkcji: grad f(x) = A x, stąd przesunięcie punktu w i-tej iteracji wynosi na podstawie warunku koniecznego na istnienie ekstremum w kierunku: ( x λ ) ξ A ξ. T i i+ i i= 0 Z równania tego otrzymuje się λ i minimalizujące funkcję f(x) w kierunku ξ i : λ i = -a i x i / a ii, a i - i-ty wiersz macierzy A, a ii - odpowiedni element tej macierzy. Wartość funkcji celu w punkcie x i+ = x i + λ i ξ i wynosi : f(x i+ ) = f(x i ) + λ i ξ i T A x i + /2 λ i 2 a ii, a po podstawieniu poprzedniego równania: f(x i+ ) = f(x i ) - /2 λ i 2 a ii. Oznacza to, Ŝe wartość funkcji celu będzie malała w kolejnych iteracjach, gdyŝ a ii > 0 dla A dodatnio określonej. a) informacje wejściowe x 0 ξ,ξ 2,...,ξ n e 0 ε j ε 0 n - punkt startowy - baza wektorów ortogonalnych, - początkowa długość kroku, - wymagana dokładność obliczeń minimum w j-tym kierunku, - wymagana dokładność obliczeń globalnego minimum, - liczba zmiennych niezaleŝnych. b) Algorytm obliczeń dla j =, 2,..., n oblicz λ j minimalizujące f(x j - + λ j ξ j ) oraz współrzędne nowego punktu x j = x j - + λ j ξ j ; 2 jeŝeli kryterium zbieŝności nie zostało spełnione, podstaw x j w miejsce x 0 i wróć do ().
13 3
14 4 Metoda Daviesa, Swanna i Campeya (DSC) Jest to metoda Gaussa-Seidela uzupełniona o obrót współrzędnych. - występuje zmienna długość kroku, powiększana dwukrotnie przy krokach pomyślnych, - wyznaczanie minimum w kierunku występuje w oparciu o wzór dla interpolacji kwadratowej ( w przestrzeni wielowymiarowej połoŝenia x stają się wektorami x) x min ( xb -xc ) f a+ ( xc -xa ) f b+ ( xa -xb ) fc =. 2 ( x -x ) f + ( x - x ) f + ( x - x ) f b c a c a b a b c Algorytm ten ma dobrą szybkość zbieŝności i jest stosowany we wszystkich metodach bezgradientowych. a) informacje wejściowe x 0 ξ,ξ 2,...,ξ n e ε n - punkt startowy - baza wyjściowa utworzona z wektorów ortogonalnych, - początkowa długość kroku, - wymagana dokładność obliczeń globalnego minimum, - liczba zmiennych niezaleŝnych. b) Algorytm obliczeń 0 Oblicz F 0 = f(x 0 ) dla j =, 2,..., n oblicz λ j minimalizujące f(x j - + λ j ξ j ) oraz zbiór x j = x j - + λ j ξ j ; 2 oblicz wektor przesunięć d = x 0 - x n, 3 jeŝeli dla j =,2,...,n d j > e j lub ε < d j < e j dokonaj obrotu układu współrzędnych i powtórz od kroku ( ), przy czym : jeŝeli d k < ε, k [, n], podstaw d k = 0 ε, lub: jeŝeli ε < d j < e j, podstaw e j = β d j. Kryterium zbieŝności moŝe być analogiczne jak w metodzie Gaussa-Seidela.
15 5 Metoda Powella Metoda Gaussa-Seidela jest bardzo wolno zbieŝna, gdy poziomice funkcji mają kształt wąskich, długich dolin. Poprawę szybkości moŝna uzyskać przez modyfikację kierunku poszukiwań. W metodzie DSC występował obrót układu współrzędnych wraz z bazą ortogonalną. Powell zaproponował, aby do istniejącej bazy wprowadzać na miejsce "starych" kierunków poszukiwań nowe, sprzęŝone do pozostałych. Dwa kierunki ξ i oraz ξ j są wzajemnie sprzęŝone względem dodatnio określonej macierzy A, jeśli: ξ i A ξ j = 0 dla i j. Kierunki sprzęŝone są liniowo niezaleŝne, co zapewnia jednoznaczność przekształcenia bazy kierunków poszukiwań. I wariant metody Powella (P). Procedura iteracyjna ma zbieŝność II rzędu, jeśli pozostaje w mocy następujące twierdzenie : Tw.I. Jeśli ξ, ξ 2,...,ξ n są wzajemnie sprzęŝonymi kierunkami poszukiwań względem A, a ponadto stanowią bazę rozpatrywanej przestrzeni, wtedy zaczynając w dowolnie wybranym punkcie x 0 moŝna wyznaczyć w skończonej liczbie kroków minimum formy kwadratowej: F = a + b T x + /2 x T A x
16 6 Dowód: Dowolny wektor w moŝna wyrazić wzorem: n i = ξ Aw w= αiξi, gdzie: αi= ξ Aξ ZałóŜmy, Ŝe po p iteracjach osiągnęliśmy punkt x p : p p= 0+ λi i i= x x ξ to wartość λ p+ minimalizującą funkcję f(x) wzdłuŝ kierunku ξ p+ moŝna określić z równania : p T T ( ) ξ p+ f xp + = 0, a więc podstawiając ξ p A + x0 λiξi λp + ξ p+ b = 0 i= otrzymujemy λ ( + b) ξ Ax =, gdyŝ wyraŝenie = 0 z załoŝenia. T p+ p+ 0 T ξ T p+ A ξ p+ Aξ p+ λiξi Wynika stąd, Ŝe wartość λ p+ zaleŝy jedynie od połoŝenia punktu startowego x 0, natomiast sposób przejścia nie ma Ŝadnego znaczenia. Po n iteracjach otrzymuje się: x T i T i ( + b) ξ n T ξi Ax0 i n= x0, T ξ i n i Aξ = p + ale na podstawie dwóch pierwszych równań widać, Ŝe jest ono równowaŝne równaniu: x n = x 0 x 0 A - b = A - b, co oznacza, Ŝe osiągnięte zostało szukane ekstremum. i Tw.II. JeŜeli x 0 jest minimum w kierunku ξ oraz x jest równieŝ minimum wzdłuŝ tego samego kierunku, to kierunek (x - x 0 ) łączący te dwa minima jest sprzęŝony z kierunkiem ξ. Dowód: Z warunku koniecznego na ekstremum w kierunku mamy : ξ T (Ax + b) = 0 oraz ξ T (A x 0 + b) = 0, ξ T A (x - x 0 ) = 0 (warunek sprzęŝenia).
17 7 a) informacje wejściowe x 0 ξ,ξ 2,...,ξ n e 0 ε n - punkt startowy - baza wyjściowa utworzona z wektorów ortogonalnych, - początkowa długość kroku, - wymagana dokładność obliczeń globalnego minimum, - liczba zmiennych niezaleŝnych. b) Algorytm obliczeń : dla j =, 2,..., n oblicz λ j minimalizujące f(x j + λ j ξ j ) oraz współrzędne nowego punktu x j = x j - + λ j ξ j, 2 wyznacz składowe kierunku sprzęŝonego w myśl wzoru : ξ x x x n n+ = xn 3 przeprowadź minimalizację λ wzdłuŝ kierunku ξ n+ : f(x n + λ ξ n+ ) oraz wyznacz współrzędne nowego punktu startowego : x n+ = x n + λ ξ n+ x 0. 4 dokonaj modyfikacji kierunków poszukiwań wg zasady : ξ r+ ξ r dla r =, 2,...,n. JeŜeli nie minimum, powtarzaj od ( ). Kryterium zbieŝności. wykonywać procedurę tak długo, aŝ przesunięcie punktu będzie mniejsze niŝ 0.ε 0 (P A ), 2. obliczyć nowy punkt startowy mnoŝąc współrzędne P A przez 0 ε 0, 3. powtórzyć procedurę znajdując P B 4. znaleźć minimum funkcji na linii P A - P B P C, 5. zakończyć działanie, jeŝeli P A - P C oraz P B - P C < 0.ε 0, jeŝeli nie, to : 6. wyznaczyć nowe ξ k równe (P A - P C ) / P A - P C i włączyć je do bazy na miejsce ξ, 7. wrócić do pkt. Często poprzestaje się na warunku pkt. 0 0
18 8 Przebieg algorytmu Powella (P).
19 9 II wariant metody Powella (P2) W metodzie P w układach wielowymiarowych mogą powstawać kierunki liniowo zaleŝne. W metodzie P2 modyfikacja kierunków poszukiwań następuje dopiero po spełnieniu warunku : λ max 0,8, α gdzie: λ max - maks przesunięcie wzdłuŝ jednego z n kierunków poszukiwań ξ s, - wyznacznik macierzy utworzonej z n wektorów ξ i, α - całkowite przesunięcie po dokonaniu kolejnego obiegu. JeŜeli warunek ten nie jest spełniony, w nowym obiegu obowiązują poprzednie kierunki. Twierdzenie 3. JeŜeli kierunki ξ,..., ξ n są tak wybrane, Ŝe : ξ i A ξ i =, i =, 2,...,n to wyznacznik macierzy, której kolumnami są wektory ξ i osiąga wartość maksymalną wtedy i tylko wtedy, gdy kierunki te są wzajemnie sprzęŝone. Dowód: JeŜeli dany jest zbiór kierunków wzajemnie sprzęŝonych η,η 2,...,η n to z definicji : η i A η j = δ ij, i =, 2,..., n ; j =, 2,..., n ; gdzie δ ij jest deltą Kroneckera : 0 dla i j δij= dla i= j ZałóŜmy, Ŝe istnieje transformacja wiąŝąca {ξ} z {η} : ξ n i= Uijηj j= to z podanej wcześniej własności otrzymujemy : a w szczególności : n n n i j= U iku jlηαη k l= UikU jk k= l= k= ξ Aξ n k= U U =, i=,2,..., n. ik ik
20 20 Oznacza to, Ŝe wyznacznik macierzy U nie przewyŝsza i jest równy jedności tylko wówczas, gdy U jest macierzą ortogonalną. A więc ξ i A ξ j = δ ij, co oznacza, Ŝe kierunki ξ i są wzajemnie sprzęŝone. Kierunki ξ,..., ξ n naleŝy dobierać tak, aby wyznacznik macierzy był jak największy. Wyklucza to liniową zaleŝność pomiędzy nowoutworzonymi kierunkami. Ze starej bazy usuwa się kierunek ξ m, wzdłuŝ którego następuje największe przesunięcie punktu. ZałóŜmy, Ŝe x i jest punktem, w którym funkcja f(x) osiąga minimum w kierunku ξ i, przy czym: ξ i A ξ i =. Przesunięcie wzdłuŝ tego kierunku moŝna wyrazić : x i - x i ξ i = α i ξ i, gdzie x i - jest punktem odpowiadającym minimum wzdłuŝ kierunku ξ i -. Po wykonaniu całego obiegu : x n - x 0 = α ξ + α 2 ξ α n ξ n, gdzie x 0 - punkt startowy, x n - punkt wynikowy po zakończeniu obiegu. Zgodnie z zasadą tworzenia kierunku sprzęŝonego : x n - x 0 = µ ξ n + oraz ξ n + A ξ n + =. Oznacza to, Ŝe zamiana ξ i na ξ n+ powoduje pomnoŝenie wyznacznika macierzy kierunków przez α i / µ. Wybierać trzeba takie ξ m, dla którego przesunięcie α i jest największe. Zamiana ta ma sens tylko dla α i µ.
21 2 Informacje wejściowe : jak w metodzie P. Algorytm obliczeń : k = dla j =, 2,..., n oblicz λ k j minimalizując f ( x k j- + λ k j ξ k j ) i określ x k j = x k j- + λ k j ξ k j ; 2 określ α k = x n k - x k 0 i ξ k n + = ( x n k - x k 0 ) / α k oblicz λ k n+ minimalizujące f ( x k n + λ n+ k ξ k n+ ) i określ zbiór x k+ 0 = x k n+ = x k n + λ k n+ ξ k n+ ; 3 znajdź λ k s = max λ k j dla j =, 2,..., n a. jeŝeli λ k s k / α k 0,8 niech ξ k+ k j = ξ j dla j s, ξ k+ k+ s = ξ n+ i niech k+ = λ k s k / α k ; b. jeŝeli λ k s k / α k < 0,8 niech ξ k+ j = ξ k j dla j =, 2,..., n i k+ = k. Powtórz czynności od kroku zwiększając k = k +.
22 22 Metoda Zangwilla Metoda ta została opracowana ze względu na to, iŝ w pewnych przypadkach metoda Powella (dokładniej jej I wariant) nie posiada zbieŝności II rzędu. NaleŜało wówczas przed jej rozpoczęciem dokonać minimalizacji funkcji wzdłuŝ wszystkich kierunków ortogonalnej bazy początkowej. Dodatkowa modyfikacja polega tutaj na wprowadzeniu dodatkowego zbioru ortogonalnych kierunków poszukiwań, który pozostaje niezmienny w trakcie poszukiwań ekstremum (na wstępie identycznego ze zbiorem wektorów ξ.. ξ n ). Za kaŝdym razem przed wykonaniem pełnego obiegu (takiego jak w metodzie Powella) dokonuje się minimalizacji funkcji wzdłuŝ kierunku c t ze wspomnianego zbioru dla wartości od t = zmieniając ją cyklicznie o co jeden krok. JeŜeli efekt jest pomyślny (czyli przesunięcie α t jest róŝne od zera), to zostaje wykonany jeden obieg procedury Powella, w przeciwnym przypadku zaś zastępuje minimalizacja wzdłuŝ kolejnego kierunku c t+. Po n kolejnych niepomyślnych próbach wzdłuŝ kierunków c znaleziony punkt jest uznawany za minimum. Ta metoda posiada więc zbieŝność II rzędu. Jako kryterium zbieŝności przyjęto więc podobnie jak w metodzie Gaussa-Seidela uznawanie bieŝącego punktu za minimum, jeśli kolejne przesunięcia wzdłuŝ ortogonalnych kierunków c t dla t =.. n są mniejsze od z góry załoŝonej dokładności. Oznaczenia: x 0 ξ.. ξ n c.. c n e Algorytm: punkt startowy baza wektorów ortogonalnych (wyjściowa dla pętli Powella) baza wektorów ortogonalnych nie ulegająca zmianie w trakcie poszukiwań początkowa długość kroku ) Obliczenie λ n 0 minimalizującego f(x n 0 + λ n 0 ξn ) i określenie x n+ 0 = x n 0 + λ n 0 ξn 2) Podstawienie t = i rozpoczęcie iteracji k dla k = 3) Obliczenie α minimalizującego f(x n+ k- + αc t ) i ustawienie t = t + (jeŝeli t < n) lub t = (jeŝeli t = n). a) jeśli α jest róŝne od zera, to wówczas obliczamy x 0 k = x n+ k- + αc t oraz przechodzimy do kroku 4 b) jeśli α =0, powtarzamy krok 3, zaś w przypadku n-krotnego powtórzenia uznajemy punkt za minimum. 4) Dla j =.. n obliczamy λ j k minimalizujące f(x j- k + λ j k ξj k ) oraz określamy x j k = x j- k + λ j k ξ j k. Niech: ξ x x k k k n n+ n+ = k k xn xn + 5) Obliczenie λ n+ k minimalizującego f(x n k + λ n+ k ξ n+ k ) oraz określamy x n+ k = x n k + λ n+ k ξ n+ k. Modyfikacja kierunków zgodnie z ξ j k+ = ξ j+ k dla j =.. n. 6) Powtarzamy kroki począwszy od 3 podstawiając k = k+.
23 23
24 24 Metoda simpleksu Neldera i Meada Metoda ta powstała w 965 roku i jest często zwana metodą pełzającego simpleksu. Jest metodą numeryczną słuŝącą do minimalizacji funkcji w wielowymiarowej przestrzeni. Polega ona na utworzeniu w przestrzeni E n+ n - wymiarowego simpleksu o n+ wierzchołkach tak, aby moŝna było go wpisać w powierzchnię reprezentującą badaną funkcję celu. Jednowymiarowym simpleksem jest odcinek o dwóch wierzchołkach, simpleksem dwuwymiarowym jest trójkąt i ogólnie simpleksem n - wymiarowym o n+ wierzchołkach jest wielościan rozpięty na n+ wektorach bazowych. Współrzędne punktów simpleksu oznaczono jako x i. Na początku procedury wylicza się współrzędne punktów wierzchołkowych simpleksu x i (dla i =,..,n+) przy załoŝeniu pewnej odległości między tymi wierzchołkami. W następnych iteracjach dokonuje się przekształceń simpleksu tak długo, aŝ odległość pomiędzy jego wierzchołkami w pobliŝu poszukiwanego ekstremum będzie mniejsza od załoŝonej dokładności obliczeń e. To właśnie zostało przyjęte jako kryterium zbieŝności dla tej metody. PoniŜej opisano jeden z wariantów metody Neldera i Meada. opracowano na podstawie
25 25 Wariant algorytmu Neldera-Meada. porządkowanie według wartości funkcji w węzłach: ( xlow)... ( xi)... ( xhigh) ( xlow= x, xhigh= x n ) f f f + 2. odbicie: wyznaczamy nowy punkt ( ) x= x+ α x x, r 0 0 high przy czym x 0 jest środkiem cięŝkości figury, za wyjątkiem węzła x high. Jeśli f( ) > f( ) f( ) x x x, to i wyznaczamy nowy simpleks z uŝyciem x r w miejsce x high. Idziemy do kroku. r low x x, wtedy 3. ekspansja: gdy f( r) < f( low) obliczamy e= 0+ γ( 0 high) Jeśli f( x) < f( ) e x x x x. x wyznaczamy nowy r simpleks z uŝyciem x e zamiast x high oraz idziemy do kroku. W innym przypadku wyznaczamy simpleks zawierający x r w miejsce x high, a następnie wracamy do kroku. 4. kontrakcja: gdy f( xr) f( xi), xi x wtedy wyznaczamy c= high+ ρ( 0 high) Jeśli f( c) f( high) high x x x x. x x wyznaczamy nowy simpleks zawierający x c w miejsce x high, po czym wracamy do kroku. W innym wypadku idziemy do kroku zmniejszanie: dla wierzchołków i wyznaczamy nowe współrzędne: σ( ), gdzie: { 2,... } x= x + x x + i low i low i n Idziemy do kroku. Standardowe wartości to: α =, γ = 2, ρ = /2, σ = /2.
26 26 Uwaga: α,ρ,γ oraz σ są odpowiednio współczynnikami odbicia, ekspansji, kontrakcji lub zmniejszenia. Ich typowe wartości wynoszą α =, γ = 2, ρ = /2 oraz σ = /2. W przypadku odbicia, jeśli x high jest wierzchołkiem o największej wartości funkcji, moŝemy oczekiwać znalezienia mniejszej wartości po odbiciu tego wierzchołka względem bryły (powierzchni) uformowanej z pozostałych wierzchołków. Podczas ekspansji, jeśli odbity punkt x r jest nowym minimum spośród wierzchołków, to moŝemy spodziewać się znalezienia interesujących wartości na linii od x o do x r. Odnośnie kontrakcji: jeśli f(x r ) > f(x i ) moŝemy się spodziewać, Ŝe lepsza wartość wystąpi wewnątrz simpleksu uformowanego przez wszystkie wierzchołki x i. Wybór początkowego simpleksu jest istotny, poniewaŝ zbyt mały moŝe powodować długie lokalne poszukiwanie. Oznaczenia: e - wymagana dokładność obliczeń, x high - wybrany punkt wierzchołkowy simpleksu spośród n+ wierzchołków x i, w którym wartość badanej funkcji osiąga maksimum, x low - wybrany punkt wierzchołkowy simpleksu spośród n+ wierzchołków x i, w którym wartość badanej funkcji osiąga minimum, x 0 - d - środek symetrii simpleksu z wyłączeniem punktu x high zdefiniowany jako: n x i i= x0=, xn + = x high n początkowa odległość pomiędzy wierzchołkami wyjściowego simpleksu α - współczynnik odbicia (α > 0), γ - współczynnik kontrakcji (0< γ <), ρ - współczynnik ekspansji (ρ > ), σ - współczynnik zmniejszenia (σ < ) n - liczba zmiennych niezaleŝnych. Wartości współczynników α, ρ, γ, σ dobiera się w sposób eksperymentalny, choć w przykładach rozpatrywanych przez autorów metody jako optymalne przyjęto wartości α =, ρ = 0,5, σ = 0,5 oraz γ = 2.
Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania
Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Metody optymalizacji Metody bezgradientowe optymalizacji bez ograniczeń Materiały pomocnicze do ćwiczeń
Bardziej szczegółowoPrzegląd metod optymalizacji wielowymiarowej. Funkcja testowa. Funkcja testowa. Notes. Notes. Notes. Notes. Tomasz M. Gwizdałła
Przegląd metod optymalizacji wielowymiarowej Tomasz M. Gwizdałła 2012.12.06 Funkcja testowa Funkcją testową dla zagadnień rozpatrywanych w ramach tego wykładu będzie funkcja postaci f (x) = (x 1 1) 4 +
Bardziej szczegółowoBezgradientowe metody optymalizacji funkcji wielu zmiennych. informacje dodatkowe
Bezgradientowe metody optymalizacji funkcji wielu zmiennych informacje dodatkowe Wybór kierunku poszukiwań Kierunki bazowe i ich modyfikacje metody bezgradientowe. Kierunki oparte na gradiencie funkcji
Bardziej szczegółowoKADD Minimalizacja funkcji
Minimalizacja funkcji Poszukiwanie minimum funkcji Foma kwadratowa Metody przybliżania minimum minimalizacja Minimalizacja w n wymiarach Metody poszukiwania minimum Otaczanie minimum Podział obszaru zawierającego
Bardziej szczegółowoDefinicja pochodnej cząstkowej
1 z 8 gdzie punkt wewnętrzny Definicja pochodnej cząstkowej JeŜeli iloraz ma granicę dla to granicę tę nazywamy pochodną cząstkową funkcji względem w punkcie. Oznaczenia: Pochodną cząstkową funkcji względem
Bardziej szczegółowoKolejny krok iteracji polega na tym, że przechodzimy do następnego wierzchołka, znajdującego się na jednej krawędzi z odnalezionym już punktem, w
Metoda Simpleks Jak wiadomo, problem PL z dowolną liczbą zmiennych można rozwiązać wyznaczając wszystkie wierzchołkowe punkty wielościanu wypukłego, a następnie porównując wartości funkcji celu w tych
Bardziej szczegółowoZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ
ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ Maciej Patan Uniwersytet Zielonogórski WSTEP Zadanie minimalizacji bez ograniczeń f(ˆx) = min x R nf(x) f : R n R funkcja ograniczona z dołu Algorytm rozwiazywania Rekurencyjny
Bardziej szczegółowoWYKŁAD 9 METODY ZMIENNEJ METRYKI
WYKŁAD 9 METODY ZMIENNEJ METRYKI Kierunki sprzężone. Metoda Newtona Raphsona daje dobre przybliżenie najlepszego kierunku poszukiwań, lecz jest to okupione znacznym kosztem obliczeniowym zwykle postać
Bardziej szczegółowoKADD Minimalizacja funkcji
Minimalizacja funkcji n-wymiarowych Forma kwadratowa w n wymiarach Procedury minimalizacji Minimalizacja wzdłuż prostej w n-wymiarowej przestrzeni Metody minimalizacji wzdłuż osi współrzędnych wzdłuż kierunków
Bardziej szczegółowoMetody numeryczne I Równania nieliniowe
Metody numeryczne I Równania nieliniowe Janusz Szwabiński szwabin@ift.uni.wroc.pl Metody numeryczne I (C) 2004 Janusz Szwabiński p.1/66 Równania nieliniowe 1. Równania nieliniowe z pojedynczym pierwiastkiem
Bardziej szczegółowoUkłady równań liniowych. Ax = b (1)
Układy równań liniowych Dany jest układ m równań z n niewiadomymi. Liczba równań m nie musi być równa liczbie niewiadomych n, tj. mn. a a... a b n n a a... a b n n... a a... a b m m mn n m
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 5. Metody kierunków poparwy (metoda Newtona-Raphsona, metoda gradientów sprzężonych) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.03.2019 1
Bardziej szczegółowo1 Metody rozwiązywania równań nieliniowych. Postawienie problemu
1 Metody rozwiązywania równań nieliniowych. Postawienie problemu Dla danej funkcji ciągłej f znaleźć wartości x, dla których f(x) = 0. (1) 2 Przedział izolacji pierwiastka Będziemy zakładać, że równanie
Bardziej szczegółowoZaawansowane metody numeryczne
Wykład 11 Ogólna postać metody iteracyjnej Definicja 11.1. (metoda iteracyjna rozwiązywania układów równań) Metodą iteracyjną rozwiązywania { układów równań liniowych nazywamy ciąg wektorów zdefiniowany
Bardziej szczegółowojest rozwiązaniem równania jednorodnego oraz dla pewnego to jest toŝsamościowo równe zeru.
Układy liniowe Układ liniowy pierwszego rzędu, niejednorodny. gdzie Jeśli to układ nazywamy jednorodnym Pamiętamy, Ŝe kaŝde równanie liniowe rzędu m moŝe zostać sprowadzone do układu n równań liniowych
Bardziej szczegółowoMetody Numeryczne Optymalizacja. Wojciech Szewczuk
Metody Numeryczne Optymalizacja Optymalizacja Definicja 1 Przez optymalizację będziemy rozumieć szukanie minimów lub maksimów funkcji. Optymalizacja Definicja 2 Optymalizacja lub programowanie matematyczne
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 4. Metody kierunków poprawy (metoda spadku wzdłuż gradientu) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 21.03.2019 1 / 41 Plan wykładu Minimalizacja
Bardziej szczegółowoRozwiązywanie równań nieliniowych
Rozwiązywanie równań nieliniowych Marcin Orchel 1 Wstęp Przykłady wyznaczania miejsc zerowych funkcji f : f(ξ) = 0. Wyszukiwanie miejsc zerowych wielomianu n-tego stopnia. Wymiar tej przestrzeni wektorowej
Bardziej szczegółowoUKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH
Transport, studia I stopnia rok akademicki 2011/2012 Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Uwagi wstępne Układ liniowych równań algebraicznych można
Bardziej szczegółowo3. Interpolacja. Interpolacja w sensie Lagrange'a (3.1) Dana jest funkcja y= f x określona i ciągła w przedziale [a ;b], która
3. Interpolacja Interpolacja w sensie Lagrange'a (3.1) Dana jest funkcja y= f x określona i ciągła w przedziale [a ;b], która przyjmuje wartości y 1, y 2,, y n, dla skończonego zbioru argumentów x 1, x
Bardziej szczegółowoWEKTORY I WARTOŚCI WŁASNE MACIERZY. = λ c (*) problem przybliżonego rozwiązania zagadnienia własnego dla operatorów w mechanice kwantowej
WEKTORY I WARTOŚCI WŁASNE MACIERZY Ac λ c (*) ( A λi) c nietrywialne rozwiązanie gdy det A λi problem przybliżonego rozwiązania zagadnienia własnego dla operatorów w mechanice kwantowej A - macierzowa
Bardziej szczegółowoUkłady równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona) f(x) = 0, gdzie. dla n=2 np.
Układy równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona f(x 0, f ( f, f,..., f n gdzie 2 x ( x, x 2,..., x n dla n2 np. f ( x, y 0 g( x, y 0 dla każdej wielowymiarowej rozwinięcie w szereg Taylora
Bardziej szczegółowo1.UKŁADY RÓWNAŃ LINIOWYCH
UKŁADY RÓWNAŃ 1.UKŁADY RÓWNAŃ LINIOWYCH Układ: a1x + b1y = c1 a x + by = c nazywamy układem równań liniowych. Rozwiązaniem układu jest kaŝda para liczb spełniająca kaŝde z równań. Przy rozwiązywaniu układów
Bardziej szczegółowoA,B M! v V ; A + v = B, (1.3) AB = v. (1.4)
Rozdział 1 Prosta i płaszczyzna 1.1 Przestrzeń afiniczna Przestrzeń afiniczna to matematyczny model przestrzeni jednorodnej, bez wyróżnionego punktu. Można w niej przesuwać punkty równolegle do zadanego
Bardziej szczegółowoMetody iteracyjne rozwiązywania układów równań liniowych (5.3) Normy wektorów i macierzy (5.3.1) Niech. x i. i =1
Normy wektorów i macierzy (5.3.1) Niech 1 X =[x x Y y =[y1 x n], oznaczają wektory przestrzeni R n, a yn] niech oznacza liczbę rzeczywistą. Wyrażenie x i p 5.3.1.a X p = p n i =1 nosi nazwę p-tej normy
Bardziej szczegółowoTeoretyczne podstawy programowania liniowego
Teoretyczne podstawy programowania liniowego Elementy algebry liniowej Plan Kombinacja liniowa Definicja Kombinacja liniowa wektorów (punktów) x 1, x 2,, x k R n to wektor x R n k taki, że x = i=1 λ i
Bardziej szczegółowoVII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa.
VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa. W rozdziale tym zajmiemy się dokładniej badaniem stabilności rozwiązań równania różniczkowego. Pojęcie stabilności w
Bardziej szczegółowoWłasności wyznacznika
Własności wyznacznika Rozwinięcie Laplace a względem i-tego wiersza: n det(a) = ( 1) i+j a ij M ij (A), j=1 gdzie M ij (A) to minor (i, j)-ty macierzy A, czyli wyznacznik macierzy uzyskanej z macierzy
Bardziej szczegółowoA B. Modelowanie reakcji chemicznych: numeryczne rozwiązywanie równań na szybkość reakcji chemicznych B: 1. da dt. A v. v t
B: 1 Modelowanie reakcji chemicznych: numeryczne rozwiązywanie równań na szybkość reakcji chemicznych 1. ZałóŜmy, Ŝe zmienna A oznacza stęŝenie substratu, a zmienna B stęŝenie produktu reakcji chemicznej
Bardziej szczegółowoOptymalizacja (minimalizacja) funkcji. Plan wykładu: 1. Sformułowanie problemu, funkcja celu. 2. Metody bezgradientowe
Optymalizacja (minimalizacja) funkcji Plan wykładu: 1. Sformułowanie problemu, funkcja celu. Metody bezgradientowe a) metoda złotego podziału b) metoda sympleks c) metoda interpolacji Powell'a 3. Metody
Bardziej szczegółowoRozdział 1 PROGRAMOWANIE LINIOWE
Wprowadzenie do badań operacyjnych z komputerem Opisy programów, ćwiczenia komputerowe i zadania. T. Trzaskalik (red.) Rozdział 1 PROGRAMOWANIE LINIOWE 1.2 Ćwiczenia komputerowe Ćwiczenie 1.1 Wykorzystując
Bardziej szczegółowoa 11 a a 1n a 21 a a 2n... a m1 a m2... a mn x 1 x 2... x m ...
Wykład 15 Układy równań liniowych Niech K będzie ciałem i niech α 1, α 2,, α n, β K. Równanie: α 1 x 1 + α 2 x 2 + + α n x n = β z niewiadomymi x 1, x 2,, x n nazywamy równaniem liniowym. Układ: a 21 x
Bardziej szczegółowoStosowana Analiza Regresji
Stosowana Analiza Regresji Wykład VIII 30 Listopada 2011 1 / 18 gdzie: X : n p Q : n n R : n p Zał.: n p. X = QR, - macierz eksperymentu, - ortogonalna, - ma zera poniżej głównej diagonali. [ R1 X = Q
Bardziej szczegółowo5. Rozwiązywanie układów równań liniowych
5. Rozwiązywanie układów równań liniowych Wprowadzenie (5.1) Układ n równań z n niewiadomymi: a 11 +a 12 x 2 +...+a 1n x n =a 10, a 21 +a 22 x 2 +...+a 2n x n =a 20,..., a n1 +a n2 x 2 +...+a nn x n =a
Bardziej szczegółowoVI. Równania różniczkowe liniowe wyższych rzędów
VI. 1. Równanie różniczkowe liniowe n-tego rzędu o zmiennych współczynnikach Niech podobnie jak w poprzednim paragrafie K = C lub K = R. Podobnie jak w dziedzinie rzeczywistej wprowadzamy pochodne wyższych
Bardziej szczegółowoVIII. Zastosowanie rachunku różniczkowego do badania funkcji. 1. Twierdzenia o wartości średniej. Monotoniczność funkcji.
VIII. Zastosowanie rachunku różniczkowego do badania funkcji. 1. Twierdzenia o wartości średniej. Monotoniczność funkcji. Twierdzenie 1.1. (Rolle a) Jeżeli funkcja f jest ciągła w przedziale domkniętym
Bardziej szczegółowoUkłady równań i równania wyższych rzędów
Rozdział Układy równań i równania wyższych rzędów Układy równań różniczkowych zwyczajnych Wprowadzenie W poprzednich paragrafach zajmowaliśmy się równaniami różniczkowymi y = f(x, y), których rozwiązaniem
Bardziej szczegółowo3. Macierze i Układy Równań Liniowych
3. Macierze i Układy Równań Liniowych Rozważamy równanie macierzowe z końcówki ostatniego wykładu ( ) 3 1 X = 4 1 ( ) 2 5 Podstawiając X = ( ) x y i wymnażając, otrzymujemy układ 2 równań liniowych 3x
Bardziej szczegółowoTENSOMETRIA ZARYS TEORETYCZNY
TENSOMETRIA ZARYS TEORETYCZNY Stan naprężenia jest niemożliwy do pomiaru, natomiast łatwo zmierzyć stan odkształcenia na powierzchni zewnętrznej badanej konstrukcji. Aby wyznaczyć stan naprężenia trzeba
Bardziej szczegółowoIII. Układy liniowe równań różniczkowych. 1. Pojęcie stabilności rozwiązań.
III. Układy liniowe równań różniczkowych. 1. Pojęcie stabilności rozwiązań. Analiza stabilności rozwiązań stanowi ważną część jakościowej teorii równań różniczkowych. Jej istotą jest poszukiwanie odpowiedzi
Bardziej szczegółowoAnaliza numeryczna Kurs INP002009W. Wykłady 6 i 7 Rozwiązywanie układów równań liniowych. Karol Tarnowski A-1 p.
Analiza numeryczna Kurs INP002009W Wykłady 6 i 7 Rozwiązywanie układów równań liniowych Karol Tarnowski karol.tarnowski@pwr.wroc.pl A-1 p.223 Plan wykładu Podstawowe pojęcia Własności macierzy Działania
Bardziej szczegółowoPYTANIA KONTROLNE STAN NAPRĘŻENIA, ODKSZTAŁCENIA PRAWO HOOKE A
PYTANIA KONTROLNE STAN NAPRĘŻENIA, ODKSZTAŁCENIA PRAWO HOOKE A TENSOMETRIA ZARYS TEORETYCZNY Stan naprężenia jest niemożliwy do pomiaru, natomiast łatwo zmierzyć stan odkształcenia na powierzchni zewnętrznej
Bardziej szczegółowoMatematyka stosowana i metody numeryczne
Ewa Pabisek Adam Wosatko Piotr Pluciński Matematyka stosowana i metody numeryczne Konspekt z wykładu 6 Rozwiązywanie równań nieliniowych Rozwiązaniem lub pierwiastkiem równania f(x) = 0 lub g(x) = h(x)
Bardziej szczegółowoMetoda simpleks. Gliwice
Sprowadzenie modelu do postaci bazowej Sprowadzenie modelu do postaci bazowej Przykład 4 Model matematyczny z Przykładu 1 sprowadzić do postaci bazowej. FC: ( ) Z x, x = 6x + 5x MAX 1 2 1 2 O: WB: 1 2
Bardziej szczegółowoWstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych. P. F. Góra
Wstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2012 Strategia minimalizacji wielowymiarowej Zakładamy, że metody poszukiwania minimów
Bardziej szczegółowoMatematyka II. Bezpieczeństwo jądrowe i ochrona radiologiczna Semestr letni 2018/2019 wykład 13 (27 maja)
Matematyka II Bezpieczeństwo jądrowe i ochrona radiologiczna Semestr letni 208/209 wykład 3 (27 maja) Całki niewłaściwe przedział nieograniczony Rozpatrujemy funkcje ciągłe określone na zbiorach < a, ),
Bardziej szczegółowoWprowadzenie do badań operacyjnych - wykład 2 i 3
Wprowadzenie do badań operacyjnych - wykład 2 i 3 Hanna Furmańczyk 14 listopada 2008 Programowanie liniowe (PL) - wszystkie ograniczenia muszą być liniowe - wszystkie zmienne muszą być ciągłe n j=1 c j
Bardziej szczegółowoRozwiązywanie układów równań liniowych
Rozwiązywanie układów równań liniowych Marcin Orchel 1 Wstęp Jeśli znamy macierz odwrotną A 1, to możęmy znaleźć rozwiązanie układu Ax = b w wyniku mnożenia x = A 1 b (1) 1.1 Metoda eliminacji Gaussa Pierwszy
Bardziej szczegółowoPROGRAMOWANIE KWADRATOWE
PROGRAMOWANIE KWADRATOWE Programowanie kwadratowe Zadanie programowania kwadratowego: Funkcja celu lub/i co najmniej jedno z ograniczeń jest funkcją kwadratową. 2 Programowanie kwadratowe Nie ma uniwersalnej
Bardziej szczegółowoMacierze. Rozdział Działania na macierzach
Rozdział 5 Macierze Funkcję, która każdej parze liczb naturalnych (i, j) (i 1,..., n; j 1,..., m) przyporządkowuje dokładnie jedną liczbę a ij F, gdzie F R lub F C, nazywamy macierzą (rzeczywistą, gdy
Bardziej szczegółowoObliczenia iteracyjne
Lekcja Strona z Obliczenia iteracyjne Zmienne iteracyjne (wyliczeniowe) Obliczenia iteracyjne wymagają zdefiniowania specjalnej zmiennej nazywanej iteracyjną lub wyliczeniową. Zmienną iteracyjną od zwykłej
Bardziej szczegółowo2. Układy równań liniowych
2. Układy równań liniowych Grzegorz Kosiorowski Uniwersytet Ekonomiczny w Krakowie zima 2017/2018 rzegorz Kosiorowski (Uniwersytet Ekonomiczny w Krakowie) 2. Układy równań liniowych zima 2017/2018 1 /
Bardziej szczegółowoPolitechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania
Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania KOMPUTEROWE SYSTEMY STEROWANIA I WSPOMAGANIA DECYZJI Rozproszone programowanie produkcji z wykorzystaniem
Bardziej szczegółowoUKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH
Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać układu równań liniowych Układ liniowych równań algebraicznych
Bardziej szczegółowoMetody numeryczne. Janusz Szwabiński. Metody numeryczne I (C) 2004 Janusz Szwabiński p.1/50
Metody numeryczne Układy równań liniowych, część II Janusz Szwabiński szwabin@ift.uni.wroc.pl Metody numeryczne I (C) 2004 Janusz Szwabiński p.1/50 Układy równań liniowych, część II 1. Iteracyjne poprawianie
Bardziej szczegółowoIX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych,
IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. Definicja 1.1. Niech D będzie podzbiorem przestrzeni R n, n 2. Odwzorowanie f : D R nazywamy
Bardziej szczegółowoElementy Modelowania Matematycznego
Elementy Modelowania Matematycznego Wykład 8 Programowanie nieliniowe Spis treści Programowanie nieliniowe Zadanie programowania nieliniowego Zadanie programowania nieliniowego jest identyczne jak dla
Bardziej szczegółowo10. Metody obliczeniowe najmniejszych kwadratów
10. Metody obliczeniowe najmniejszych kwadratów 1. Dowód twierdzenia o faktoryzacji macierzy Twierdzenie 1 Każdadodatniookreślon aisymetryczn amacierzm można przedstawíc wpostaci M = PP T gdzie P jest
Bardziej szczegółowoWektory i wartości własne
Treść wykładu Podprzestrzenie niezmiennicze... Twierdzenie Cayley Hamiltona Podprzestrzenie niezmiennicze Definicja Niech f : V V będzie przekształceniem liniowym. Podprzestrzeń W V nazywamy niezmienniczą
Bardziej szczegółowo1 Funkcje dwóch zmiennych podstawowe pojęcia
1 Funkcje dwóch zmiennych podstawowe pojęcia Definicja 1 Funkcją dwóch zmiennych określoną na zbiorze A R 2 o wartościach w zbiorze R nazywamy przyporządkowanie każdemu punktowi ze zbioru A dokładnie jednej
Bardziej szczegółowoEkstrema globalne funkcji
SIMR 2013/14, Analiza 1, wykład 9, 2013-12-13 Ekstrema globalne funkcji Definicja: Funkcja f : D R ma w punkcie x 0 D minimum globalne wtedy i tylko (x D) f(x) f(x 0 ). Wartość f(x 0 ) nazywamy wartością
Bardziej szczegółowoRÓŻNICZKOWANIE FUNKCJI WIELU ZMIENNYCH: rachunek pochodnych dla funkcji wektorowych. Pochodne cząstkowe funkcji rzeczywistej wielu zmiennych
RÓŻNICZKOWANIE FUNKCJI WIELU ZMIENNYCH: rachunek pochodnych dla funkcji wektorowych Pochodne cząstkowe funkcji rzeczywistej wielu zmiennych wyliczamy według wzoru (x, x 2,..., x n ) f(x, x 2,..., x n )
Bardziej szczegółowoDefinicja problemu programowania matematycznego
Definicja problemu programowania matematycznego minimalizacja lub maksymalizacja funkcji min (max) f(x) gdzie: x 1 x R n x 2, czyli: x = [ ] x n przy ograniczeniach (w skrócie: p.o.) p.o. g i (x) = b i
Bardziej szczegółowoWektory i wartości własne
Treść wykładu Podprzestrzenie niezmiennicze Podprzestrzenie niezmiennicze... Twierdzenie Cayley Hamiltona Podprzestrzenie niezmiennicze Definicja Niech f : V V będzie przekształceniem liniowym. Podprzestrzeń
Bardziej szczegółowoUkłady równań i nierówności liniowych
Układy równań i nierówności liniowych Wiesław Krakowiak 1 grudnia 2010 1 Układy równań liniowych DEFINICJA 11 Układem równań m liniowych o n niewiadomych X 1,, X n, nazywamy układ postaci: a 11 X 1 + +
Bardziej szczegółowo13 Układy równań liniowych
13 Układy równań liniowych Definicja 13.1 Niech m, n N. Układem równań liniowych nad ciałem F m równaniach i n niewiadomych x 1, x 2,..., x n nazywamy koniunkcję równań postaci a 11 x 1 + a 12 x 2 +...
Bardziej szczegółowo13. Funkcje wielu zmiennych pochodne, gradient, Jacobian, ekstrema lokalne.
13. Funkcje wielu zmiennych pochodne, gradient, Jacobian, ekstrema lokalne. 1. Wprowadzenie. Dotąd rozważaliśmy funkcje działające z podzbioru liczb rzeczywistych w zbiór liczb rzeczywistych, zatem funkcje
Bardziej szczegółowoPrzekształcanie równań stanu do postaci kanonicznej diagonalnej
Przekształcanie równań stanu do postaci kanonicznej diagonalnej Przygotowanie: Dariusz Pazderski Liniowe przekształcenie równania stanu Rozważmy liniowe równanie stanu i równanie wyjścia układu niesingularnego
Bardziej szczegółowoPrzekształcenia liniowe
Przekształcenia liniowe Zadania Które z następujących przekształceń są liniowe? (a) T : R 2 R 2, T (x, x 2 ) = (2x, x x 2 ), (b) T : R 2 R 2, T (x, x 2 ) = (x + 3x 2, x 2 ), (c) T : R 2 R, T (x, x 2 )
Bardziej szczegółowo1. Podstawowe pojęcia
1. Podstawowe pojęcia Sterowanie optymalne obiektu polega na znajdowaniu najkorzystniejszej decyzji dotyczącej zamierzonego wpływu na obiekt przy zadanych ograniczeniach. Niech dany jest obiekt opisany
Bardziej szczegółowo[ P ] T PODSTAWY I ZASTOSOWANIA INŻYNIERSKIE MES. [ u v u v u v ] T. wykład 4. Element trójkątny płaski stan (naprężenia lub odkształcenia)
PODSTAWY I ZASTOSOWANIA INŻYNIERSKIE MES wykład 4 Element trójkątny płaski stan (naprężenia lub odkształcenia) Obszar zdyskretyzowany trójkątami U = [ u v u v u v ] T stopnie swobody elementu P = [ P ]
Bardziej szczegółowoII. FUNKCJE WIELU ZMIENNYCH
II. FUNKCJE WIELU ZMIENNYCH 1. Zbiory w przestrzeni R n Ustalmy dowolne n N. Definicja 1.1. Zbiór wszystkich uporzadkowanych układów (x 1,..., x n ) n liczb rzeczywistych, nazywamy przestrzenią n-wymiarową
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
Bardziej szczegółowoInterpolacja. Marcin Orchel. Drugi przypadek szczególny to interpolacja trygonometryczna
Interpolacja Marcin Orchel 1 Wstęp Mamy daną funkcję φ (x; a 0,..., a n ) zależną od n + 1 parametrów a 0,..., a n. Zadanie interpolacji funkcji φ polega na określeniu parametrów a i tak aby dla n + 1
Bardziej szczegółowoINTERPOLACJA I APROKSYMACJA FUNKCJI
Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Wprowadzenie Na czym polega interpolacja? Interpolacja polega
Bardziej szczegółowoO MACIERZACH I UKŁADACH RÓWNAŃ
O MACIERZACH I UKŁADACH RÓWNAŃ Problem Jak rozwiązać podany układ równań? 2x + 5y 8z = 8 4x + 3y z = 2x + 3y 5z = 7 x + 8y 7z = Definicja Równanie postaci a x + a 2 x 2 + + a n x n = b gdzie a, a 2, a
Bardziej szczegółowoD. Miszczyńska, M.Miszczyński KBO UŁ 1 GRY KONFLIKTOWE GRY 2-OSOBOWE O SUMIE WYPŁAT ZERO
D. Miszczyńska, M.Miszczyński KBO UŁ GRY KONFLIKTOWE GRY 2-OSOBOWE O SUMIE WYPŁAT ZERO Gra w sensie niżej przedstawionym to zasady którymi kierują się decydenci. Zakładamy, że rezultatem gry jest wypłata,
Bardziej szczegółowo5. Metody stochastyczne (symulowane wyżarzanie, algorytmy genetyczne) -> metody Monte Carlo
Optymalizacja (minimalizacja) funkcji Plan wykładu: 1. Sformułowanie problemu, funkcja celu 2. Metody bezgradientowe a) metoda złotego podziału b) metoda sympleks c) metoda interpolacji Powell'a 3. Metody
Bardziej szczegółowo1 Pochodne wyższych rzędów
Pochodne wyższych rzędów Pochodną rzędu drugiego lub drugą pochodną funkcji y = f(x) nazywamy pochodną pierwszej pochodnej tej funkcji. Analogicznie definiujemy pochodne wyższych rzędów, jako pochodne
Bardziej szczegółowoNumeryczne metody optymalizacji Optymalizacja w kierunku. informacje dodatkowe
Numeryczne metody optymalizacji Optymalizacja w kierunku informacje dodatkowe Numeryczne metody optymalizacji x F x = min x D x F(x) Problemy analityczne: 1. Nieliniowa złożona funkcja celu F i ograniczeń
Bardziej szczegółowoDr inż. Janusz Dębiński Mechanika ogólna Wykład 2 Podstawowe wiadomości z matematyki Kalisz
Dr inż. Janusz Dębiński Mechanika ogólna Wykład 2 Podstawowe wiadomości z matematyki Kalisz Dr inż. Janusz Dębiński 1 2.1. Przestrzeń i płaszczyzna Podstawowe definicje Punkt - najmniejszy bezwymiarowy
Bardziej szczegółowoWykład 5. Metoda eliminacji Gaussa
1 Wykład 5 Metoda eliminacji Gaussa Rozwiązywanie układów równań liniowych Układ równań liniowych może mieć dokładnie jedno rozwiązanie, nieskończenie wiele rozwiązań lub nie mieć rozwiązania. Metody dokładne
Bardziej szczegółowoMETODY ROZWIĄZYWANIA RÓWNAŃ NIELINIOWYCH
METODY ROZWIĄZYWANIA RÓWNAŃ NIELINIOWYCH Jednym z zastosowań metod numerycznych jest wyznaczenie pierwiastka lub pierwiastków równania nieliniowego. W tym celu stosuje się szereg metod obliczeniowych np:
Bardziej szczegółowoMetody numeryczne II
Metody numeryczne II Poszukiwanie ekstremów funkcji Janusz Szwabiński szwabin@ift.uni.wroc.pl Metody numeryczne II (C) 2004 Janusz Szwabiński p.1/55 Poszukiwanie ekstremów funkcji 1. Funkcje jednej zmiennej
Bardziej szczegółowo1 Pochodne wyższych rzędów
1 Pochodne wyższych rzędów Definicja 1.1 (Pochodne cząstkowe drugiego rzędu) Niech f będzie odwzorowaniem o wartościach w R m, określonym na zbiorze G R k. Załóżmy, że zbiór tych x G, dla których istnieje
Bardziej szczegółowoProgramowanie matematyczne
dr Adam Sojda Badania Operacyjne Wykład Politechnika Śląska Programowanie matematyczne Programowanie matematyczne, to problem optymalizacyjny w postaci: f ( x) max przy warunkach g( x) 0 h( x) = 0 x X
Bardziej szczegółowoZadanie transportowe i problem komiwojażera. Tadeusz Trzaskalik
Zadanie transportowe i problem komiwojażera Tadeusz Trzaskalik 3.. Wprowadzenie Słowa kluczowe Zbilansowane zadanie transportowe Rozwiązanie początkowe Metoda minimalnego elementu macierzy kosztów Metoda
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 1. Optymalizacja funkcji jednej zmiennej Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.02.2019 1 / 54 Plan wykładu Optymalizacja funkcji jednej
Bardziej szczegółowoBadanie funkcji. Zad. 1: 2 3 Funkcja f jest określona wzorem f( x) = +
Badanie funkcji Zad : Funkcja f jest określona wzorem f( ) = + a) RozwiąŜ równanie f() = 5 b) Znajdź przedziały monotoniczności funkcji f c) Oblicz największą i najmniejszą wartość funkcji f w przedziale
Bardziej szczegółowoMetody numeryczne w przykładach
Metody numeryczne w przykładach Bartosz Ziemkiewicz Wydział Matematyki i Informatyki UMK, Toruń Regionalne Koło Matematyczne 8 kwietnia 2010 r. Bartosz Ziemkiewicz (WMiI UMK) Metody numeryczne w przykładach
Bardziej szczegółowoPRZYKŁADY ROZWIĄZAŃ MES. Piotr Nikiel
PRZYKŁADY ROZWIĄZAŃ MES Piotr Nikiel Metoda elementów skooczonych Metoda elementów skooczonych jest metodą rozwiązywania zadao brzegowych. MES jest wykorzystywana obecnie praktycznie we wszystkich dziedzinach
Bardziej szczegółowodr Mariusz Grządziel 15,29 kwietnia 2014 Przestrzeń R k R k = R R... R k razy Elementy R k wektory;
Wykłady 8 i 9 Pojęcia przestrzeni wektorowej i macierzy Układy równań liniowych Elementy algebry macierzy dodawanie, odejmowanie, mnożenie macierzy; macierz odwrotna dr Mariusz Grządziel 15,29 kwietnia
Bardziej szczegółowo1 Macierz odwrotna metoda operacji elementarnych
W tej części skupimy się na macierzach kwadratowych. Zakładać będziemy, że A M(n, n) dla pewnego n N. Definicja 1. Niech A M(n, n). Wtedy macierzą odwrotną macierzy A (ozn. A 1 ) nazywamy taką macierz
Bardziej szczegółowoMatematyka licea ogólnokształcące, technika
Matematyka licea ogólnokształcące, technika Opracowano m.in. na podstawie podręcznika MATEMATYKA w otaczającym nas świecie zakres podstawowy i rozszerzony Funkcja liniowa Funkcję f: R R określoną wzorem
Bardziej szczegółowoMetody numeryczne. Równania nieliniowe. Janusz Szwabiński.
Metody numeryczne Równania nieliniowe Janusz Szwabiński szwabin@ift.uni.wroc.pl nm_slides-9.tex Metody numeryczne Janusz Szwabiński 7/1/2003 20:18 p.1/64 Równania nieliniowe 1. Równania nieliniowe z pojedynczym
Bardziej szczegółowoRównania prostych i krzywych; współrzędne punktu
Równania prostych i krzywych; współrzędne punktu Zad 1: Na paraboli o równaniu y = 1 x znajdź punkt P leŝący najbliŝej prostej o równaniu x + y = 0 Napisz równanie stycznej do tej paraboli, poprowadzonej
Bardziej szczegółowoMetoda eliminacji Gaussa. Autorzy: Michał Góra
Metoda eliminacji Gaussa Autorzy: Michał Góra 9 Metoda eliminacji Gaussa Autor: Michał Góra Przedstawiony poniżej sposób rozwiązywania układów równań liniowych jest pewnym uproszczeniem algorytmu zwanego
Bardziej szczegółowoPRÓBNA MATURA ZADANIA PRZYKŁADOWE
ZESPÓŁ SZKÓŁ HOTELARSKO TURYSTYCZNO GASTRONOMICZNYCH NR UL. KRASNOŁĘCKA, WARSZAWA Z A D AN I A Z A M K N I Ę T E ) Liczba, której 5% jest równe 6, to : A. 0, C. 0. D. 0 5% 6 II sposób: x nieznana liczba
Bardziej szczegółowoMETODY NUMERYCZNE. wykład. konsultacje: wtorek 10:00-11:30 środa 10:00-11:30. dr inż. Grażyna Kałuża pokój
METODY NUMERYCZNE wykład dr inż. Grażyna Kałuża pokój 103 konsultacje: wtorek 10:00-11:30 środa 10:00-11:30 www.kwmimkm.polsl.pl Program przedmiotu wykład: 15 godzin w semestrze laboratorium: 30 godzin
Bardziej szczegółowoUkłady równań liniowych
Układy równań liniowych ozważmy układ n równań liniowych o współczynnikach a ij z n niewiadomymi i : a + a +... + an n d a a an d a + a +... + a n n d a a a n d an + an +... + ann n d n an an a nn n d
Bardziej szczegółowo