M eto dy o p ty m a liza cji

Wielkość: px
Rozpocząć pokaz od strony:

Download "M eto dy o p ty m a liza cji"

Transkrypt

1 M eto dy o p ty m a liza cji M e to d y d et erm i ni s ty cz n e M et od y st oc h a sty cz n e b e z o gr an ic z eń z o gra n ic z en ia m i m e to d a M o nt e-c ar lo b ezg r ad ie n to w e g r ad ie nto w e b ez gr a d ien to w e g rad ie n to w e b ezp ośr ed n ie z m in im alizac ją m et od a s ym u lo w a n eg o w yŝ a rz an ia R o s en b r o ck a, G au s sa -S eid ela, g r ad ien tu p ro steg o, al go ry tm y g e n et yc z n e H o o k a -J eev e sa, S im p lek su N e ld er a i M ea d a, zło te go p o d zia łu, in ter p o lac yjn e. D av ies a-sw an n a C am p e y a, Po w ella, Z an g w illa, G au s sa -N ew to n a i n ajs zy b sz eg o s p ad k u, g r ad ien tu sp rzęŝ o n eg o, N ew to n a-r ap h s o n a, M arq u ard ta.

2 2 METODY POSZUKIWANIA EKSTREMUM BEZ OGRANICZEŃ Metoda złotego podziału Funkcja f(x) jest ciągła i posiada w przedziale [a, b] pojedynczy punkt stacjonarny. W celu znalezienia podprzedziału, w którym leŝy ten punkt stacjonarny trzeba obliczyć wartości funkcji w dwóch punktach przedziału. Utworzenie tylko jednego punktu x nie pozwala określić, w którym przedziale mieści się minimum. Dopiero po obliczeniu x 2 moŝna stwierdzić, czy minimum znajduje się w przedziale [x, b], czy w [a, x 2 ]. Rys. Jeden z punktów znajduje się zawsze wewnątrz nowego przedziału, tak więc w kolejnej iteracji wystarczy wyliczyć wartość funkcji w jednym punkcie. Algorytm "złotego podziału" zakłada, Ŝe wielkość nowy podprzedziałów będzie się zmniejszała o pewien stały czynnik τ. ZałóŜmy, Ŝe w bieŝącym przedziale [a (i),b (i) ] zostały wyznaczone dwie wartości funkcji celu w punktach x (i) oraz x (i) 2 naleŝących do tego przedziału, przy czym x (i) < x (i) 2. Punkty te spełniają zaleŝność: (i) (i) (i) (i) x2 -a b -x = = τ (i) (i) (i) (i) b -a b -a skąd: x (i) - a (i) = b (i) - x 2 (i).

3 3 Jeśli f(x 2 (i) ) > f(x (i) ) wówczas nowy przedział będzie : Wyznaczanie wartości τ : oraz b (i+) = x 2 (i), a (i+) = a (i), x 2 (i+) = x (i). (i+) (i) (i) (i) (i) (i) x2 -a x -a x2 -a = = = τ (i) (i) (i) (i) (i) (i) x2 -a x2 -a b -a x (i) - a (i) = b (i) - a (i) - (x 2 (i) - a (i) ). Wynika stąd, Ŝe - x (i) (i) a = 2 + = τ, czyli τ + τ = 0. (i) (i) 2 - τ x a Szukana wartość τ wynosi więc : 5 τ = 0,68. 2 Algorytm "złotego podziału" w punktach:. jeśli f(x 2 (i) ) > f(x (i) ), to : b (i+) = x 2 (i), x 2 (i+) = x (i), x (i+) = a (i) + ( - τ) (b (i+) - a (i) ). 2. jeśli f(x 2 (i) ) f(x (i) ), to : a (i+) = x (i), x (i+) = x 2 (i), x 2 (i+) = b (i) + ( - τ) (b (i) - a (i+) ). Po n - krotnych obliczeniach długość przedziału redukuje się do wielkości : Zalety: b (n) - a (n) = [b () - a () ] t n- DuŜa prostota oraz dobra zbieŝność. Wady: Niewielka szybkość zbieŝności przy duŝej dokładności.

4 4 Metoda interpolacji kwadratowej W otoczeniu minimum badaną funkcję moŝna zastąpić wielomianem drugiego stopnia: -szy sposób : 2-gi sposób : wartość funkcji jest wyliczana w trzech kolejnych punktach, przez które jest prowadzony wielomian interpolacyjny drugiego stopnia. Następnie określa się minimum tego wielomianu. Następnie punkt ten jest wprowadzany zamiast jednego z punktów początkowych. Procedura jest powtarzana do osiągnięcia załoŝonej zbieŝności. Niewłaściwa zamiana punktów moŝe doprowadzić do braku zbieŝności. najpierw wyznacza się przedział, w którym znajduje się minimum, a potem stosuje interpolację kwadratową. ZałóŜmy, Ŝe znamy wartości funkcji w trzech punktach a, b, c: f a (x a ), f b (x b ), f c (x c ), przy czym x a < x b < x c. Rys. 2 Wielomian interpolacyjny jest parabolą i ma postać : ( x-x )( x-x ) ( x-x )( x-x ) ( x-x )( x-x ) f ( x ) = f + f + f. ( )( ) ( )( ) ( )( ) b c a c a b a b c xa -xb xa -xc xb -xa xb -xc xc -xa xc -xb Warunkiem koniecznym istnienia w punkcie x min ekstremum jest warunek: a więc: i : f ( x ) = 0 x dla x=x min b c min a c min a b a b c xa xb xa xc xb xa xb xc xc xa xc xb min 2 x ( x +x ) 2 x ( x +x ) 2 x ( x +x ) f + f + f = 0. ( )( ) ( )( ) ( )( ) ( xb -xc ) f a+ ( xc -xa ) f b+ ( xa -xb ) fc x min =. 2 ( x -x ) f + ( x -x ) f + ( x -x ) f b c a c a b a b c

5 5 Inna postać wzoru (zaproponowana przez Daviesa, Swanna i Campeya): L c a x m=x b, 2 fc 2f b+ fa pod warunkiem zachowania równych odległości L pomiędzy bieŝącymi punktami x a, x b, x c. f f Metoda interpolacji sześciennej Metoda najefektywniejsza, jednak wymagana jest znajomość pochodnej kierunkowej. Stosowana jest we wszystkich metodach gradientowych. Przebieg wartości funkcji aproksymujemy krzywą trzeciego stopnia. Rys. 3. Współczynniki a,b,c,r wyznaczane są z układu czterech równań: Poszukiwana wartość minimum x min : Y a = a x a 3 + b x a 2 + c x a + r Y b = a x b 3 + b x b 2 + c x b + r P a = 3a x a 2 + 2b x a + c P b = 3a x b 2 + 2b x b + c 2 2b+ 4b 2ac xmin= b ac 6a 2, gdzie: Zazwyczaj korzysta się z równowaŝnej postaci zaleŝności: e= x x, a b 3 a b, 2 w= z Pa Pb b d= e P b P a + 2 w x = x d. min b b a Y Y z= + P+ P e, P+ w z,

6 6 METODY BEZGRADIENTOWE POSZUKIWANIA EKSTREMUM Metoda Hooka-Jeevesa Punkt minimalny x min jest granicą ciągu x 0, x, x 2,..., gdzie x 0 jest punktem początkowym. Występują dwa sposoby poruszania się: próbny : roboczy : badanie zachowania funkcji w pewnym niewielkim obszarze przez wykonywanie kroków próbnych wzdłuŝ wszystkich kierunków bazy ortogonalnej, przejście w określony sposób do następnego obszaru. Przejście do następnego obszaru następuje, gdy przynajmniej jeden z kroków etapu próbnego był pomyślny, to znaczy nastąpiło zmniejszenie wartości funkcji f(x). W przeciwnym wypadku etap próbny jest powtarzany przy zmniejszonym kroku. a) informacje wejściowe x 0 - punkt startowy ξ,ξ 2,...,ξ n - baza wektorów ortogonalnych, e - początkowa długość kroku, β - współczynnik zmniejszenia kroku, 0 < β <, ε - wymagana dokładność obliczeń, n - liczba zmiennych niezaleŝnych. Etap próbny: podstaw j = oraz oblicz wartość funkcji f(x 0 ) i podstaw pod F 0. 2 wykonaj krok próbny w kierunku ξ j : x j = x j - + e ξ j oraz oblicz f(x j ) i podstaw pod F. 3 jeŝeli F < F 0 to podstaw F w miejsce F 0 i przejdź do pkt.6. jeŝeli F F 0 to przejdź do punktu następnego (4 ). 4 wykonaj krok próbny w przeciwnym kierunku : x j = x j - 2eξ j, oblicz f(x j ) i podstaw pod F. 5 jeŝeli krok ten był pomyślny podstaw F w miejsce F 0. JeŜeli nie, to j = j + i wróć do (2 ). 6 zbadaj, czy j = n (wykonano kroki we wszystkich kierunkach bazy ortogonalnej). Jeśli nie, to j = j + i wróć do (2 ). JeŜeli tak, to: 7 Zbadaj, czy w wykonanym cyklu wystąpiły kroki pomyślne. JeŜeli tak, podstaw x j jako punkt bazowy x B i wykonaj etap roboczy. JeŜeli nie, to: 8 JeŜeli nie minimum, to: przy pierwszej iteracji zmień punkt startowy, a przy następnych zmniejsz długość kroku i wróć do poprzedniego punktu bazowego i do ( ). Etap roboczy: wykonaj krok roboczy : x 0 = x B + (x B - x B0 ) = 2 x B - x B0. 2 podstaw x B w miejsce x B0 i wróć do etapu próbnego.

7 7 Schemat działania opisanego algorytmu: - start 4 - etap próbny (x B ) 5 - etap roboczy 8 - etap próbny 9 - etap roboczy 3 - nie jest spełniony warunek (7 ), powrót do 8, zmniejszenie e. Kryterium zbieŝności : aktualna długość kroku e < ε.

8 8 Metoda Rosenbrocka Metoda ta jest dość podobna do metody Hooka-Jeevesa, gdyŝ równieŝ poszukujemy ekstremum w n wzajemnie ortogonalnych kierunkach. RóŜnica między tymi metodami polega na tym, iŝ tutaj kierunki te nie pozostają stałe, lecz ulegają zmianom w wyniku obrotu. Baza wyjściowa ξ.. ξ n tworzona jest najczęściej z wektorów jednostkowych (wersorów) układu współrzędnych kartezjańskich. Na wstępie wykonuje się po jednym kroku o długości e w kaŝdym z tych kierunków. Jeśli w danym kierunku uzyskujemy sukces, to zwiększamy długość kroku w tym kierunku, natomiast w przeciwnym wypadku, długość kroku mnoŝymy przez współczynnik -b z przedziału (0..), a więc wykonujemy krótszy krok w kierunku przeciwnym do danego. Procedura taka jest powtarzana aŝ do momentu, gdy wykonanie kroku we wszystkich n kierunkach daje efekt niepomyślny, czyli f(x j ) > f(x j- ) dla wszystkich j. W tej sytuacji jeŝeli jest spełnione kryterium na ekstremum, to procedurę moŝna uznać za zakończoną, w przeciwnym wypadku zaś wykonujemy algorytm obrotu współrzędnych i rozpoczynamy jej działanie od początku. Kryterium zbieŝności tej metody zaproponowane przez Rosenbrocka opiera się na załoŝeniu, iŝ bieŝący punkt moŝna uznać za minimum, jeśli w czasie pięciu kolejnych obrotów współrzędnych (i wykonaniu kroków we wszystkich ortogonalnych kierunkach po kaŝdym obrocie) nie wystąpił Ŝaden pomyślny krok. Jednak w realizacjach praktycznych ze względu na zbytnie przedłuŝenie czasu wykonywania procedury stosuje się zwykle znacznie prostsze kryterium narzucając z góry ilość iteracji. Po wykonaniu tej ilości iteracji porównuje się uzyskany wynik z oczekiwaniami i ewentualnie przyjmuje nową wartość ilości iteracji startując z ostatnio wyliczonego punktu. Współczynniki a, b naleŝy dobrać eksperymentalnie; w przypadkach rozpatrywanych przez Rosenbrocka jako optymalne wartości przyjęto a = 3 i b = 0,5.

9 9 Oznaczenia: x 0 - punkt startowy, ξ.. ξ n - baza wektorów ortogonalnych (dla dwóch zmiennych n = 2), e - początkowa długość kroku (wektor n-wymiarowy), a - współczynnik korekcyjny zwiększający wartość kroku (a > ), b - współczynnik korekcyjny zmniejszający wartość kroku (b < ). Algorytm: ) Obliczenie wartości funkcji w punkcie startowym i obliczenie wartości funkcji f(x j- + e j S j ) dla wszystkich kierunków bazy (j =.. n). Gdy f(x j- + e j ξ j ) < f(x j- ) to obliczamy sumę pomyślnych kroków : d j = d j- + e j, przy czym d 0 = 0, przesunięcie punktu x j = x j- + e j ξ j oraz zwiększamy krok (e j = a e j ). W przeciwnym przypadku zmniejszamy krok (e j = -b e j ) oraz podstawiamy x j = x j-. Krok ten jest powtarzany aŝ do momentu, gdy d j = 0 dla wszystkich j =.. n. JeŜeli nastąpiło to po jego jednokrotnym wykonaniu, to przechodzimy do punktu 2. 2) Zmiana punktu startowego x 0 i powtórzenie kroku. W przeciwnym wypadku, jeśli minimum nie zostało osiągnięte przechodzimy do punktu 3. 3) Wykonanie algorytmu obrotu ortogonalnego układu współrzędnych ξ i powrót do wykonywania kroku.

10 0

11 Algorytm obrotu współrzędnych: ) Wyznaczenie układu wektorów: q = d ξ + d 2 ξ d n ξ n q 2 = d 2 ξ d n ξ n... q n = d n ξ n 2) Ortogonalizacja tego układu przy zastosowaniu procedury Gram-Schmidta ν ν= q ξ= ν ν ν2= q2 ( q2, ξ) ξ ξ2= ν... n n n ( qn, ξ j) ξ j ξn j= ν ν= q = ν 2 2 n n ) Podstawienie znalezionego układu wektorów bazy ξ w miejsce poprzedniego. Warunkiem jednoznaczności przejścia jest, aby nie zachodziło d j = 0 dla j =.. n, gdzie d j jest sumą pomyślnych kroków wykonanych w j-tym kierunku. Spełnia się go poprzez odpowiedni sposób doboru długości kroku oraz stosowane kryterium oceny, czy osiągnięto minimum.

12 2 Metoda Gaussa-Seidela Minimalizacja funkcji f(x) wzdłuŝ ortogonalnej bazy ξ,ξ 2,ξ 3,..,ξ n. Jest to minimalizacja funkcji w kierunku. ZbieŜność metody : JeŜeli funkcja celu f(x) ma postać f(x) = /2 x T A x to metoda Gaussa-Seidela jest zbieŝna do punktu ekstremalnego x * wtedy i tylko wtedy, gdy macierz A jest dodatnio określona. Gradient funkcji: grad f(x) = A x, stąd przesunięcie punktu w i-tej iteracji wynosi na podstawie warunku koniecznego na istnienie ekstremum w kierunku: ( x λ ) ξ A ξ. T i i+ i i= 0 Z równania tego otrzymuje się λ i minimalizujące funkcję f(x) w kierunku ξ i : λ i = -a i x i / a ii, a i - i-ty wiersz macierzy A, a ii - odpowiedni element tej macierzy. Wartość funkcji celu w punkcie x i+ = x i + λ i ξ i wynosi : f(x i+ ) = f(x i ) + λ i ξ i T A x i + /2 λ i 2 a ii, a po podstawieniu poprzedniego równania: f(x i+ ) = f(x i ) - /2 λ i 2 a ii. Oznacza to, Ŝe wartość funkcji celu będzie malała w kolejnych iteracjach, gdyŝ a ii > 0 dla A dodatnio określonej. a) informacje wejściowe x 0 ξ,ξ 2,...,ξ n e 0 ε j ε 0 n - punkt startowy - baza wektorów ortogonalnych, - początkowa długość kroku, - wymagana dokładność obliczeń minimum w j-tym kierunku, - wymagana dokładność obliczeń globalnego minimum, - liczba zmiennych niezaleŝnych. b) Algorytm obliczeń dla j =, 2,..., n oblicz λ j minimalizujące f(x j - + λ j ξ j ) oraz współrzędne nowego punktu x j = x j - + λ j ξ j ; 2 jeŝeli kryterium zbieŝności nie zostało spełnione, podstaw x j w miejsce x 0 i wróć do ().

13 3

14 4 Metoda Daviesa, Swanna i Campeya (DSC) Jest to metoda Gaussa-Seidela uzupełniona o obrót współrzędnych. - występuje zmienna długość kroku, powiększana dwukrotnie przy krokach pomyślnych, - wyznaczanie minimum w kierunku występuje w oparciu o wzór dla interpolacji kwadratowej ( w przestrzeni wielowymiarowej połoŝenia x stają się wektorami x) x min ( xb -xc ) f a+ ( xc -xa ) f b+ ( xa -xb ) fc =. 2 ( x -x ) f + ( x - x ) f + ( x - x ) f b c a c a b a b c Algorytm ten ma dobrą szybkość zbieŝności i jest stosowany we wszystkich metodach bezgradientowych. a) informacje wejściowe x 0 ξ,ξ 2,...,ξ n e ε n - punkt startowy - baza wyjściowa utworzona z wektorów ortogonalnych, - początkowa długość kroku, - wymagana dokładność obliczeń globalnego minimum, - liczba zmiennych niezaleŝnych. b) Algorytm obliczeń 0 Oblicz F 0 = f(x 0 ) dla j =, 2,..., n oblicz λ j minimalizujące f(x j - + λ j ξ j ) oraz zbiór x j = x j - + λ j ξ j ; 2 oblicz wektor przesunięć d = x 0 - x n, 3 jeŝeli dla j =,2,...,n d j > e j lub ε < d j < e j dokonaj obrotu układu współrzędnych i powtórz od kroku ( ), przy czym : jeŝeli d k < ε, k [, n], podstaw d k = 0 ε, lub: jeŝeli ε < d j < e j, podstaw e j = β d j. Kryterium zbieŝności moŝe być analogiczne jak w metodzie Gaussa-Seidela.

15 5 Metoda Powella Metoda Gaussa-Seidela jest bardzo wolno zbieŝna, gdy poziomice funkcji mają kształt wąskich, długich dolin. Poprawę szybkości moŝna uzyskać przez modyfikację kierunku poszukiwań. W metodzie DSC występował obrót układu współrzędnych wraz z bazą ortogonalną. Powell zaproponował, aby do istniejącej bazy wprowadzać na miejsce "starych" kierunków poszukiwań nowe, sprzęŝone do pozostałych. Dwa kierunki ξ i oraz ξ j są wzajemnie sprzęŝone względem dodatnio określonej macierzy A, jeśli: ξ i A ξ j = 0 dla i j. Kierunki sprzęŝone są liniowo niezaleŝne, co zapewnia jednoznaczność przekształcenia bazy kierunków poszukiwań. I wariant metody Powella (P). Procedura iteracyjna ma zbieŝność II rzędu, jeśli pozostaje w mocy następujące twierdzenie : Tw.I. Jeśli ξ, ξ 2,...,ξ n są wzajemnie sprzęŝonymi kierunkami poszukiwań względem A, a ponadto stanowią bazę rozpatrywanej przestrzeni, wtedy zaczynając w dowolnie wybranym punkcie x 0 moŝna wyznaczyć w skończonej liczbie kroków minimum formy kwadratowej: F = a + b T x + /2 x T A x

16 6 Dowód: Dowolny wektor w moŝna wyrazić wzorem: n i = ξ Aw w= αiξi, gdzie: αi= ξ Aξ ZałóŜmy, Ŝe po p iteracjach osiągnęliśmy punkt x p : p p= 0+ λi i i= x x ξ to wartość λ p+ minimalizującą funkcję f(x) wzdłuŝ kierunku ξ p+ moŝna określić z równania : p T T ( ) ξ p+ f xp + = 0, a więc podstawiając ξ p A + x0 λiξi λp + ξ p+ b = 0 i= otrzymujemy λ ( + b) ξ Ax =, gdyŝ wyraŝenie = 0 z załoŝenia. T p+ p+ 0 T ξ T p+ A ξ p+ Aξ p+ λiξi Wynika stąd, Ŝe wartość λ p+ zaleŝy jedynie od połoŝenia punktu startowego x 0, natomiast sposób przejścia nie ma Ŝadnego znaczenia. Po n iteracjach otrzymuje się: x T i T i ( + b) ξ n T ξi Ax0 i n= x0, T ξ i n i Aξ = p + ale na podstawie dwóch pierwszych równań widać, Ŝe jest ono równowaŝne równaniu: x n = x 0 x 0 A - b = A - b, co oznacza, Ŝe osiągnięte zostało szukane ekstremum. i Tw.II. JeŜeli x 0 jest minimum w kierunku ξ oraz x jest równieŝ minimum wzdłuŝ tego samego kierunku, to kierunek (x - x 0 ) łączący te dwa minima jest sprzęŝony z kierunkiem ξ. Dowód: Z warunku koniecznego na ekstremum w kierunku mamy : ξ T (Ax + b) = 0 oraz ξ T (A x 0 + b) = 0, ξ T A (x - x 0 ) = 0 (warunek sprzęŝenia).

17 7 a) informacje wejściowe x 0 ξ,ξ 2,...,ξ n e 0 ε n - punkt startowy - baza wyjściowa utworzona z wektorów ortogonalnych, - początkowa długość kroku, - wymagana dokładność obliczeń globalnego minimum, - liczba zmiennych niezaleŝnych. b) Algorytm obliczeń : dla j =, 2,..., n oblicz λ j minimalizujące f(x j + λ j ξ j ) oraz współrzędne nowego punktu x j = x j - + λ j ξ j, 2 wyznacz składowe kierunku sprzęŝonego w myśl wzoru : ξ x x x n n+ = xn 3 przeprowadź minimalizację λ wzdłuŝ kierunku ξ n+ : f(x n + λ ξ n+ ) oraz wyznacz współrzędne nowego punktu startowego : x n+ = x n + λ ξ n+ x 0. 4 dokonaj modyfikacji kierunków poszukiwań wg zasady : ξ r+ ξ r dla r =, 2,...,n. JeŜeli nie minimum, powtarzaj od ( ). Kryterium zbieŝności. wykonywać procedurę tak długo, aŝ przesunięcie punktu będzie mniejsze niŝ 0.ε 0 (P A ), 2. obliczyć nowy punkt startowy mnoŝąc współrzędne P A przez 0 ε 0, 3. powtórzyć procedurę znajdując P B 4. znaleźć minimum funkcji na linii P A - P B P C, 5. zakończyć działanie, jeŝeli P A - P C oraz P B - P C < 0.ε 0, jeŝeli nie, to : 6. wyznaczyć nowe ξ k równe (P A - P C ) / P A - P C i włączyć je do bazy na miejsce ξ, 7. wrócić do pkt. Często poprzestaje się na warunku pkt. 0 0

18 8 Przebieg algorytmu Powella (P).

19 9 II wariant metody Powella (P2) W metodzie P w układach wielowymiarowych mogą powstawać kierunki liniowo zaleŝne. W metodzie P2 modyfikacja kierunków poszukiwań następuje dopiero po spełnieniu warunku : λ max 0,8, α gdzie: λ max - maks przesunięcie wzdłuŝ jednego z n kierunków poszukiwań ξ s, - wyznacznik macierzy utworzonej z n wektorów ξ i, α - całkowite przesunięcie po dokonaniu kolejnego obiegu. JeŜeli warunek ten nie jest spełniony, w nowym obiegu obowiązują poprzednie kierunki. Twierdzenie 3. JeŜeli kierunki ξ,..., ξ n są tak wybrane, Ŝe : ξ i A ξ i =, i =, 2,...,n to wyznacznik macierzy, której kolumnami są wektory ξ i osiąga wartość maksymalną wtedy i tylko wtedy, gdy kierunki te są wzajemnie sprzęŝone. Dowód: JeŜeli dany jest zbiór kierunków wzajemnie sprzęŝonych η,η 2,...,η n to z definicji : η i A η j = δ ij, i =, 2,..., n ; j =, 2,..., n ; gdzie δ ij jest deltą Kroneckera : 0 dla i j δij= dla i= j ZałóŜmy, Ŝe istnieje transformacja wiąŝąca {ξ} z {η} : ξ n i= Uijηj j= to z podanej wcześniej własności otrzymujemy : a w szczególności : n n n i j= U iku jlηαη k l= UikU jk k= l= k= ξ Aξ n k= U U =, i=,2,..., n. ik ik

20 20 Oznacza to, Ŝe wyznacznik macierzy U nie przewyŝsza i jest równy jedności tylko wówczas, gdy U jest macierzą ortogonalną. A więc ξ i A ξ j = δ ij, co oznacza, Ŝe kierunki ξ i są wzajemnie sprzęŝone. Kierunki ξ,..., ξ n naleŝy dobierać tak, aby wyznacznik macierzy był jak największy. Wyklucza to liniową zaleŝność pomiędzy nowoutworzonymi kierunkami. Ze starej bazy usuwa się kierunek ξ m, wzdłuŝ którego następuje największe przesunięcie punktu. ZałóŜmy, Ŝe x i jest punktem, w którym funkcja f(x) osiąga minimum w kierunku ξ i, przy czym: ξ i A ξ i =. Przesunięcie wzdłuŝ tego kierunku moŝna wyrazić : x i - x i ξ i = α i ξ i, gdzie x i - jest punktem odpowiadającym minimum wzdłuŝ kierunku ξ i -. Po wykonaniu całego obiegu : x n - x 0 = α ξ + α 2 ξ α n ξ n, gdzie x 0 - punkt startowy, x n - punkt wynikowy po zakończeniu obiegu. Zgodnie z zasadą tworzenia kierunku sprzęŝonego : x n - x 0 = µ ξ n + oraz ξ n + A ξ n + =. Oznacza to, Ŝe zamiana ξ i na ξ n+ powoduje pomnoŝenie wyznacznika macierzy kierunków przez α i / µ. Wybierać trzeba takie ξ m, dla którego przesunięcie α i jest największe. Zamiana ta ma sens tylko dla α i µ.

21 2 Informacje wejściowe : jak w metodzie P. Algorytm obliczeń : k = dla j =, 2,..., n oblicz λ k j minimalizując f ( x k j- + λ k j ξ k j ) i określ x k j = x k j- + λ k j ξ k j ; 2 określ α k = x n k - x k 0 i ξ k n + = ( x n k - x k 0 ) / α k oblicz λ k n+ minimalizujące f ( x k n + λ n+ k ξ k n+ ) i określ zbiór x k+ 0 = x k n+ = x k n + λ k n+ ξ k n+ ; 3 znajdź λ k s = max λ k j dla j =, 2,..., n a. jeŝeli λ k s k / α k 0,8 niech ξ k+ k j = ξ j dla j s, ξ k+ k+ s = ξ n+ i niech k+ = λ k s k / α k ; b. jeŝeli λ k s k / α k < 0,8 niech ξ k+ j = ξ k j dla j =, 2,..., n i k+ = k. Powtórz czynności od kroku zwiększając k = k +.

22 22 Metoda Zangwilla Metoda ta została opracowana ze względu na to, iŝ w pewnych przypadkach metoda Powella (dokładniej jej I wariant) nie posiada zbieŝności II rzędu. NaleŜało wówczas przed jej rozpoczęciem dokonać minimalizacji funkcji wzdłuŝ wszystkich kierunków ortogonalnej bazy początkowej. Dodatkowa modyfikacja polega tutaj na wprowadzeniu dodatkowego zbioru ortogonalnych kierunków poszukiwań, który pozostaje niezmienny w trakcie poszukiwań ekstremum (na wstępie identycznego ze zbiorem wektorów ξ.. ξ n ). Za kaŝdym razem przed wykonaniem pełnego obiegu (takiego jak w metodzie Powella) dokonuje się minimalizacji funkcji wzdłuŝ kierunku c t ze wspomnianego zbioru dla wartości od t = zmieniając ją cyklicznie o co jeden krok. JeŜeli efekt jest pomyślny (czyli przesunięcie α t jest róŝne od zera), to zostaje wykonany jeden obieg procedury Powella, w przeciwnym przypadku zaś zastępuje minimalizacja wzdłuŝ kolejnego kierunku c t+. Po n kolejnych niepomyślnych próbach wzdłuŝ kierunków c znaleziony punkt jest uznawany za minimum. Ta metoda posiada więc zbieŝność II rzędu. Jako kryterium zbieŝności przyjęto więc podobnie jak w metodzie Gaussa-Seidela uznawanie bieŝącego punktu za minimum, jeśli kolejne przesunięcia wzdłuŝ ortogonalnych kierunków c t dla t =.. n są mniejsze od z góry załoŝonej dokładności. Oznaczenia: x 0 ξ.. ξ n c.. c n e Algorytm: punkt startowy baza wektorów ortogonalnych (wyjściowa dla pętli Powella) baza wektorów ortogonalnych nie ulegająca zmianie w trakcie poszukiwań początkowa długość kroku ) Obliczenie λ n 0 minimalizującego f(x n 0 + λ n 0 ξn ) i określenie x n+ 0 = x n 0 + λ n 0 ξn 2) Podstawienie t = i rozpoczęcie iteracji k dla k = 3) Obliczenie α minimalizującego f(x n+ k- + αc t ) i ustawienie t = t + (jeŝeli t < n) lub t = (jeŝeli t = n). a) jeśli α jest róŝne od zera, to wówczas obliczamy x 0 k = x n+ k- + αc t oraz przechodzimy do kroku 4 b) jeśli α =0, powtarzamy krok 3, zaś w przypadku n-krotnego powtórzenia uznajemy punkt za minimum. 4) Dla j =.. n obliczamy λ j k minimalizujące f(x j- k + λ j k ξj k ) oraz określamy x j k = x j- k + λ j k ξ j k. Niech: ξ x x k k k n n+ n+ = k k xn xn + 5) Obliczenie λ n+ k minimalizującego f(x n k + λ n+ k ξ n+ k ) oraz określamy x n+ k = x n k + λ n+ k ξ n+ k. Modyfikacja kierunków zgodnie z ξ j k+ = ξ j+ k dla j =.. n. 6) Powtarzamy kroki począwszy od 3 podstawiając k = k+.

23 23

24 24 Metoda simpleksu Neldera i Meada Metoda ta powstała w 965 roku i jest często zwana metodą pełzającego simpleksu. Jest metodą numeryczną słuŝącą do minimalizacji funkcji w wielowymiarowej przestrzeni. Polega ona na utworzeniu w przestrzeni E n+ n - wymiarowego simpleksu o n+ wierzchołkach tak, aby moŝna było go wpisać w powierzchnię reprezentującą badaną funkcję celu. Jednowymiarowym simpleksem jest odcinek o dwóch wierzchołkach, simpleksem dwuwymiarowym jest trójkąt i ogólnie simpleksem n - wymiarowym o n+ wierzchołkach jest wielościan rozpięty na n+ wektorach bazowych. Współrzędne punktów simpleksu oznaczono jako x i. Na początku procedury wylicza się współrzędne punktów wierzchołkowych simpleksu x i (dla i =,..,n+) przy załoŝeniu pewnej odległości między tymi wierzchołkami. W następnych iteracjach dokonuje się przekształceń simpleksu tak długo, aŝ odległość pomiędzy jego wierzchołkami w pobliŝu poszukiwanego ekstremum będzie mniejsza od załoŝonej dokładności obliczeń e. To właśnie zostało przyjęte jako kryterium zbieŝności dla tej metody. PoniŜej opisano jeden z wariantów metody Neldera i Meada. opracowano na podstawie

25 25 Wariant algorytmu Neldera-Meada. porządkowanie według wartości funkcji w węzłach: ( xlow)... ( xi)... ( xhigh) ( xlow= x, xhigh= x n ) f f f + 2. odbicie: wyznaczamy nowy punkt ( ) x= x+ α x x, r 0 0 high przy czym x 0 jest środkiem cięŝkości figury, za wyjątkiem węzła x high. Jeśli f( ) > f( ) f( ) x x x, to i wyznaczamy nowy simpleks z uŝyciem x r w miejsce x high. Idziemy do kroku. r low x x, wtedy 3. ekspansja: gdy f( r) < f( low) obliczamy e= 0+ γ( 0 high) Jeśli f( x) < f( ) e x x x x. x wyznaczamy nowy r simpleks z uŝyciem x e zamiast x high oraz idziemy do kroku. W innym przypadku wyznaczamy simpleks zawierający x r w miejsce x high, a następnie wracamy do kroku. 4. kontrakcja: gdy f( xr) f( xi), xi x wtedy wyznaczamy c= high+ ρ( 0 high) Jeśli f( c) f( high) high x x x x. x x wyznaczamy nowy simpleks zawierający x c w miejsce x high, po czym wracamy do kroku. W innym wypadku idziemy do kroku zmniejszanie: dla wierzchołków i wyznaczamy nowe współrzędne: σ( ), gdzie: { 2,... } x= x + x x + i low i low i n Idziemy do kroku. Standardowe wartości to: α =, γ = 2, ρ = /2, σ = /2.

26 26 Uwaga: α,ρ,γ oraz σ są odpowiednio współczynnikami odbicia, ekspansji, kontrakcji lub zmniejszenia. Ich typowe wartości wynoszą α =, γ = 2, ρ = /2 oraz σ = /2. W przypadku odbicia, jeśli x high jest wierzchołkiem o największej wartości funkcji, moŝemy oczekiwać znalezienia mniejszej wartości po odbiciu tego wierzchołka względem bryły (powierzchni) uformowanej z pozostałych wierzchołków. Podczas ekspansji, jeśli odbity punkt x r jest nowym minimum spośród wierzchołków, to moŝemy spodziewać się znalezienia interesujących wartości na linii od x o do x r. Odnośnie kontrakcji: jeśli f(x r ) > f(x i ) moŝemy się spodziewać, Ŝe lepsza wartość wystąpi wewnątrz simpleksu uformowanego przez wszystkie wierzchołki x i. Wybór początkowego simpleksu jest istotny, poniewaŝ zbyt mały moŝe powodować długie lokalne poszukiwanie. Oznaczenia: e - wymagana dokładność obliczeń, x high - wybrany punkt wierzchołkowy simpleksu spośród n+ wierzchołków x i, w którym wartość badanej funkcji osiąga maksimum, x low - wybrany punkt wierzchołkowy simpleksu spośród n+ wierzchołków x i, w którym wartość badanej funkcji osiąga minimum, x 0 - d - środek symetrii simpleksu z wyłączeniem punktu x high zdefiniowany jako: n x i i= x0=, xn + = x high n początkowa odległość pomiędzy wierzchołkami wyjściowego simpleksu α - współczynnik odbicia (α > 0), γ - współczynnik kontrakcji (0< γ <), ρ - współczynnik ekspansji (ρ > ), σ - współczynnik zmniejszenia (σ < ) n - liczba zmiennych niezaleŝnych. Wartości współczynników α, ρ, γ, σ dobiera się w sposób eksperymentalny, choć w przykładach rozpatrywanych przez autorów metody jako optymalne przyjęto wartości α =, ρ = 0,5, σ = 0,5 oraz γ = 2.

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Metody optymalizacji Metody bezgradientowe optymalizacji bez ograniczeń Materiały pomocnicze do ćwiczeń

Bardziej szczegółowo

Przegląd metod optymalizacji wielowymiarowej. Funkcja testowa. Funkcja testowa. Notes. Notes. Notes. Notes. Tomasz M. Gwizdałła

Przegląd metod optymalizacji wielowymiarowej. Funkcja testowa. Funkcja testowa. Notes. Notes. Notes. Notes. Tomasz M. Gwizdałła Przegląd metod optymalizacji wielowymiarowej Tomasz M. Gwizdałła 2012.12.06 Funkcja testowa Funkcją testową dla zagadnień rozpatrywanych w ramach tego wykładu będzie funkcja postaci f (x) = (x 1 1) 4 +

Bardziej szczegółowo

Bezgradientowe metody optymalizacji funkcji wielu zmiennych. informacje dodatkowe

Bezgradientowe metody optymalizacji funkcji wielu zmiennych. informacje dodatkowe Bezgradientowe metody optymalizacji funkcji wielu zmiennych informacje dodatkowe Wybór kierunku poszukiwań Kierunki bazowe i ich modyfikacje metody bezgradientowe. Kierunki oparte na gradiencie funkcji

Bardziej szczegółowo

KADD Minimalizacja funkcji

KADD Minimalizacja funkcji Minimalizacja funkcji Poszukiwanie minimum funkcji Foma kwadratowa Metody przybliżania minimum minimalizacja Minimalizacja w n wymiarach Metody poszukiwania minimum Otaczanie minimum Podział obszaru zawierającego

Bardziej szczegółowo

Definicja pochodnej cząstkowej

Definicja pochodnej cząstkowej 1 z 8 gdzie punkt wewnętrzny Definicja pochodnej cząstkowej JeŜeli iloraz ma granicę dla to granicę tę nazywamy pochodną cząstkową funkcji względem w punkcie. Oznaczenia: Pochodną cząstkową funkcji względem

Bardziej szczegółowo

Kolejny krok iteracji polega na tym, że przechodzimy do następnego wierzchołka, znajdującego się na jednej krawędzi z odnalezionym już punktem, w

Kolejny krok iteracji polega na tym, że przechodzimy do następnego wierzchołka, znajdującego się na jednej krawędzi z odnalezionym już punktem, w Metoda Simpleks Jak wiadomo, problem PL z dowolną liczbą zmiennych można rozwiązać wyznaczając wszystkie wierzchołkowe punkty wielościanu wypukłego, a następnie porównując wartości funkcji celu w tych

Bardziej szczegółowo

ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ

ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ Maciej Patan Uniwersytet Zielonogórski WSTEP Zadanie minimalizacji bez ograniczeń f(ˆx) = min x R nf(x) f : R n R funkcja ograniczona z dołu Algorytm rozwiazywania Rekurencyjny

Bardziej szczegółowo

WYKŁAD 9 METODY ZMIENNEJ METRYKI

WYKŁAD 9 METODY ZMIENNEJ METRYKI WYKŁAD 9 METODY ZMIENNEJ METRYKI Kierunki sprzężone. Metoda Newtona Raphsona daje dobre przybliżenie najlepszego kierunku poszukiwań, lecz jest to okupione znacznym kosztem obliczeniowym zwykle postać

Bardziej szczegółowo

KADD Minimalizacja funkcji

KADD Minimalizacja funkcji Minimalizacja funkcji n-wymiarowych Forma kwadratowa w n wymiarach Procedury minimalizacji Minimalizacja wzdłuż prostej w n-wymiarowej przestrzeni Metody minimalizacji wzdłuż osi współrzędnych wzdłuż kierunków

Bardziej szczegółowo

Metody numeryczne I Równania nieliniowe

Metody numeryczne I Równania nieliniowe Metody numeryczne I Równania nieliniowe Janusz Szwabiński szwabin@ift.uni.wroc.pl Metody numeryczne I (C) 2004 Janusz Szwabiński p.1/66 Równania nieliniowe 1. Równania nieliniowe z pojedynczym pierwiastkiem

Bardziej szczegółowo

Układy równań liniowych. Ax = b (1)

Układy równań liniowych. Ax = b (1) Układy równań liniowych Dany jest układ m równań z n niewiadomymi. Liczba równań m nie musi być równa liczbie niewiadomych n, tj. mn. a a... a b n n a a... a b n n... a a... a b m m mn n m

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metody kierunków poparwy (metoda Newtona-Raphsona, metoda gradientów sprzężonych) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.03.2019 1

Bardziej szczegółowo

1 Metody rozwiązywania równań nieliniowych. Postawienie problemu

1 Metody rozwiązywania równań nieliniowych. Postawienie problemu 1 Metody rozwiązywania równań nieliniowych. Postawienie problemu Dla danej funkcji ciągłej f znaleźć wartości x, dla których f(x) = 0. (1) 2 Przedział izolacji pierwiastka Będziemy zakładać, że równanie

Bardziej szczegółowo

Zaawansowane metody numeryczne

Zaawansowane metody numeryczne Wykład 11 Ogólna postać metody iteracyjnej Definicja 11.1. (metoda iteracyjna rozwiązywania układów równań) Metodą iteracyjną rozwiązywania { układów równań liniowych nazywamy ciąg wektorów zdefiniowany

Bardziej szczegółowo

jest rozwiązaniem równania jednorodnego oraz dla pewnego to jest toŝsamościowo równe zeru.

jest rozwiązaniem równania jednorodnego oraz dla pewnego to jest toŝsamościowo równe zeru. Układy liniowe Układ liniowy pierwszego rzędu, niejednorodny. gdzie Jeśli to układ nazywamy jednorodnym Pamiętamy, Ŝe kaŝde równanie liniowe rzędu m moŝe zostać sprowadzone do układu n równań liniowych

Bardziej szczegółowo

Metody Numeryczne Optymalizacja. Wojciech Szewczuk

Metody Numeryczne Optymalizacja. Wojciech Szewczuk Metody Numeryczne Optymalizacja Optymalizacja Definicja 1 Przez optymalizację będziemy rozumieć szukanie minimów lub maksimów funkcji. Optymalizacja Definicja 2 Optymalizacja lub programowanie matematyczne

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 4. Metody kierunków poprawy (metoda spadku wzdłuż gradientu) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 21.03.2019 1 / 41 Plan wykładu Minimalizacja

Bardziej szczegółowo

Rozwiązywanie równań nieliniowych

Rozwiązywanie równań nieliniowych Rozwiązywanie równań nieliniowych Marcin Orchel 1 Wstęp Przykłady wyznaczania miejsc zerowych funkcji f : f(ξ) = 0. Wyszukiwanie miejsc zerowych wielomianu n-tego stopnia. Wymiar tej przestrzeni wektorowej

Bardziej szczegółowo

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH Transport, studia I stopnia rok akademicki 2011/2012 Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Uwagi wstępne Układ liniowych równań algebraicznych można

Bardziej szczegółowo

3. Interpolacja. Interpolacja w sensie Lagrange'a (3.1) Dana jest funkcja y= f x określona i ciągła w przedziale [a ;b], która

3. Interpolacja. Interpolacja w sensie Lagrange'a (3.1) Dana jest funkcja y= f x określona i ciągła w przedziale [a ;b], która 3. Interpolacja Interpolacja w sensie Lagrange'a (3.1) Dana jest funkcja y= f x określona i ciągła w przedziale [a ;b], która przyjmuje wartości y 1, y 2,, y n, dla skończonego zbioru argumentów x 1, x

Bardziej szczegółowo

WEKTORY I WARTOŚCI WŁASNE MACIERZY. = λ c (*) problem przybliżonego rozwiązania zagadnienia własnego dla operatorów w mechanice kwantowej

WEKTORY I WARTOŚCI WŁASNE MACIERZY. = λ c (*) problem przybliżonego rozwiązania zagadnienia własnego dla operatorów w mechanice kwantowej WEKTORY I WARTOŚCI WŁASNE MACIERZY Ac λ c (*) ( A λi) c nietrywialne rozwiązanie gdy det A λi problem przybliżonego rozwiązania zagadnienia własnego dla operatorów w mechanice kwantowej A - macierzowa

Bardziej szczegółowo

Układy równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona) f(x) = 0, gdzie. dla n=2 np.

Układy równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona) f(x) = 0, gdzie. dla n=2 np. Układy równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona f(x 0, f ( f, f,..., f n gdzie 2 x ( x, x 2,..., x n dla n2 np. f ( x, y 0 g( x, y 0 dla każdej wielowymiarowej rozwinięcie w szereg Taylora

Bardziej szczegółowo

1.UKŁADY RÓWNAŃ LINIOWYCH

1.UKŁADY RÓWNAŃ LINIOWYCH UKŁADY RÓWNAŃ 1.UKŁADY RÓWNAŃ LINIOWYCH Układ: a1x + b1y = c1 a x + by = c nazywamy układem równań liniowych. Rozwiązaniem układu jest kaŝda para liczb spełniająca kaŝde z równań. Przy rozwiązywaniu układów

Bardziej szczegółowo

A,B M! v V ; A + v = B, (1.3) AB = v. (1.4)

A,B M! v V ; A + v = B, (1.3) AB = v. (1.4) Rozdział 1 Prosta i płaszczyzna 1.1 Przestrzeń afiniczna Przestrzeń afiniczna to matematyczny model przestrzeni jednorodnej, bez wyróżnionego punktu. Można w niej przesuwać punkty równolegle do zadanego

Bardziej szczegółowo

Metody iteracyjne rozwiązywania układów równań liniowych (5.3) Normy wektorów i macierzy (5.3.1) Niech. x i. i =1

Metody iteracyjne rozwiązywania układów równań liniowych (5.3) Normy wektorów i macierzy (5.3.1) Niech. x i. i =1 Normy wektorów i macierzy (5.3.1) Niech 1 X =[x x Y y =[y1 x n], oznaczają wektory przestrzeni R n, a yn] niech oznacza liczbę rzeczywistą. Wyrażenie x i p 5.3.1.a X p = p n i =1 nosi nazwę p-tej normy

Bardziej szczegółowo

Teoretyczne podstawy programowania liniowego

Teoretyczne podstawy programowania liniowego Teoretyczne podstawy programowania liniowego Elementy algebry liniowej Plan Kombinacja liniowa Definicja Kombinacja liniowa wektorów (punktów) x 1, x 2,, x k R n to wektor x R n k taki, że x = i=1 λ i

Bardziej szczegółowo

VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa.

VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa. VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa. W rozdziale tym zajmiemy się dokładniej badaniem stabilności rozwiązań równania różniczkowego. Pojęcie stabilności w

Bardziej szczegółowo

Własności wyznacznika

Własności wyznacznika Własności wyznacznika Rozwinięcie Laplace a względem i-tego wiersza: n det(a) = ( 1) i+j a ij M ij (A), j=1 gdzie M ij (A) to minor (i, j)-ty macierzy A, czyli wyznacznik macierzy uzyskanej z macierzy

Bardziej szczegółowo

A B. Modelowanie reakcji chemicznych: numeryczne rozwiązywanie równań na szybkość reakcji chemicznych B: 1. da dt. A v. v t

A B. Modelowanie reakcji chemicznych: numeryczne rozwiązywanie równań na szybkość reakcji chemicznych B: 1. da dt. A v. v t B: 1 Modelowanie reakcji chemicznych: numeryczne rozwiązywanie równań na szybkość reakcji chemicznych 1. ZałóŜmy, Ŝe zmienna A oznacza stęŝenie substratu, a zmienna B stęŝenie produktu reakcji chemicznej

Bardziej szczegółowo

Optymalizacja (minimalizacja) funkcji. Plan wykładu: 1. Sformułowanie problemu, funkcja celu. 2. Metody bezgradientowe

Optymalizacja (minimalizacja) funkcji. Plan wykładu: 1. Sformułowanie problemu, funkcja celu. 2. Metody bezgradientowe Optymalizacja (minimalizacja) funkcji Plan wykładu: 1. Sformułowanie problemu, funkcja celu. Metody bezgradientowe a) metoda złotego podziału b) metoda sympleks c) metoda interpolacji Powell'a 3. Metody

Bardziej szczegółowo

Rozdział 1 PROGRAMOWANIE LINIOWE

Rozdział 1 PROGRAMOWANIE LINIOWE Wprowadzenie do badań operacyjnych z komputerem Opisy programów, ćwiczenia komputerowe i zadania. T. Trzaskalik (red.) Rozdział 1 PROGRAMOWANIE LINIOWE 1.2 Ćwiczenia komputerowe Ćwiczenie 1.1 Wykorzystując

Bardziej szczegółowo

a 11 a a 1n a 21 a a 2n... a m1 a m2... a mn x 1 x 2... x m ...

a 11 a a 1n a 21 a a 2n... a m1 a m2... a mn x 1 x 2... x m ... Wykład 15 Układy równań liniowych Niech K będzie ciałem i niech α 1, α 2,, α n, β K. Równanie: α 1 x 1 + α 2 x 2 + + α n x n = β z niewiadomymi x 1, x 2,, x n nazywamy równaniem liniowym. Układ: a 21 x

Bardziej szczegółowo

Stosowana Analiza Regresji

Stosowana Analiza Regresji Stosowana Analiza Regresji Wykład VIII 30 Listopada 2011 1 / 18 gdzie: X : n p Q : n n R : n p Zał.: n p. X = QR, - macierz eksperymentu, - ortogonalna, - ma zera poniżej głównej diagonali. [ R1 X = Q

Bardziej szczegółowo

5. Rozwiązywanie układów równań liniowych

5. Rozwiązywanie układów równań liniowych 5. Rozwiązywanie układów równań liniowych Wprowadzenie (5.1) Układ n równań z n niewiadomymi: a 11 +a 12 x 2 +...+a 1n x n =a 10, a 21 +a 22 x 2 +...+a 2n x n =a 20,..., a n1 +a n2 x 2 +...+a nn x n =a

Bardziej szczegółowo

VI. Równania różniczkowe liniowe wyższych rzędów

VI. Równania różniczkowe liniowe wyższych rzędów VI. 1. Równanie różniczkowe liniowe n-tego rzędu o zmiennych współczynnikach Niech podobnie jak w poprzednim paragrafie K = C lub K = R. Podobnie jak w dziedzinie rzeczywistej wprowadzamy pochodne wyższych

Bardziej szczegółowo

VIII. Zastosowanie rachunku różniczkowego do badania funkcji. 1. Twierdzenia o wartości średniej. Monotoniczność funkcji.

VIII. Zastosowanie rachunku różniczkowego do badania funkcji. 1. Twierdzenia o wartości średniej. Monotoniczność funkcji. VIII. Zastosowanie rachunku różniczkowego do badania funkcji. 1. Twierdzenia o wartości średniej. Monotoniczność funkcji. Twierdzenie 1.1. (Rolle a) Jeżeli funkcja f jest ciągła w przedziale domkniętym

Bardziej szczegółowo

Układy równań i równania wyższych rzędów

Układy równań i równania wyższych rzędów Rozdział Układy równań i równania wyższych rzędów Układy równań różniczkowych zwyczajnych Wprowadzenie W poprzednich paragrafach zajmowaliśmy się równaniami różniczkowymi y = f(x, y), których rozwiązaniem

Bardziej szczegółowo

3. Macierze i Układy Równań Liniowych

3. Macierze i Układy Równań Liniowych 3. Macierze i Układy Równań Liniowych Rozważamy równanie macierzowe z końcówki ostatniego wykładu ( ) 3 1 X = 4 1 ( ) 2 5 Podstawiając X = ( ) x y i wymnażając, otrzymujemy układ 2 równań liniowych 3x

Bardziej szczegółowo

TENSOMETRIA ZARYS TEORETYCZNY

TENSOMETRIA ZARYS TEORETYCZNY TENSOMETRIA ZARYS TEORETYCZNY Stan naprężenia jest niemożliwy do pomiaru, natomiast łatwo zmierzyć stan odkształcenia na powierzchni zewnętrznej badanej konstrukcji. Aby wyznaczyć stan naprężenia trzeba

Bardziej szczegółowo

III. Układy liniowe równań różniczkowych. 1. Pojęcie stabilności rozwiązań.

III. Układy liniowe równań różniczkowych. 1. Pojęcie stabilności rozwiązań. III. Układy liniowe równań różniczkowych. 1. Pojęcie stabilności rozwiązań. Analiza stabilności rozwiązań stanowi ważną część jakościowej teorii równań różniczkowych. Jej istotą jest poszukiwanie odpowiedzi

Bardziej szczegółowo

Analiza numeryczna Kurs INP002009W. Wykłady 6 i 7 Rozwiązywanie układów równań liniowych. Karol Tarnowski A-1 p.

Analiza numeryczna Kurs INP002009W. Wykłady 6 i 7 Rozwiązywanie układów równań liniowych. Karol Tarnowski A-1 p. Analiza numeryczna Kurs INP002009W Wykłady 6 i 7 Rozwiązywanie układów równań liniowych Karol Tarnowski karol.tarnowski@pwr.wroc.pl A-1 p.223 Plan wykładu Podstawowe pojęcia Własności macierzy Działania

Bardziej szczegółowo

PYTANIA KONTROLNE STAN NAPRĘŻENIA, ODKSZTAŁCENIA PRAWO HOOKE A

PYTANIA KONTROLNE STAN NAPRĘŻENIA, ODKSZTAŁCENIA PRAWO HOOKE A PYTANIA KONTROLNE STAN NAPRĘŻENIA, ODKSZTAŁCENIA PRAWO HOOKE A TENSOMETRIA ZARYS TEORETYCZNY Stan naprężenia jest niemożliwy do pomiaru, natomiast łatwo zmierzyć stan odkształcenia na powierzchni zewnętrznej

Bardziej szczegółowo

Matematyka stosowana i metody numeryczne

Matematyka stosowana i metody numeryczne Ewa Pabisek Adam Wosatko Piotr Pluciński Matematyka stosowana i metody numeryczne Konspekt z wykładu 6 Rozwiązywanie równań nieliniowych Rozwiązaniem lub pierwiastkiem równania f(x) = 0 lub g(x) = h(x)

Bardziej szczegółowo

Metoda simpleks. Gliwice

Metoda simpleks. Gliwice Sprowadzenie modelu do postaci bazowej Sprowadzenie modelu do postaci bazowej Przykład 4 Model matematyczny z Przykładu 1 sprowadzić do postaci bazowej. FC: ( ) Z x, x = 6x + 5x MAX 1 2 1 2 O: WB: 1 2

Bardziej szczegółowo

Wstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych. P. F. Góra

Wstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych. P. F. Góra Wstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2012 Strategia minimalizacji wielowymiarowej Zakładamy, że metody poszukiwania minimów

Bardziej szczegółowo

Matematyka II. Bezpieczeństwo jądrowe i ochrona radiologiczna Semestr letni 2018/2019 wykład 13 (27 maja)

Matematyka II. Bezpieczeństwo jądrowe i ochrona radiologiczna Semestr letni 2018/2019 wykład 13 (27 maja) Matematyka II Bezpieczeństwo jądrowe i ochrona radiologiczna Semestr letni 208/209 wykład 3 (27 maja) Całki niewłaściwe przedział nieograniczony Rozpatrujemy funkcje ciągłe określone na zbiorach < a, ),

Bardziej szczegółowo

Wprowadzenie do badań operacyjnych - wykład 2 i 3

Wprowadzenie do badań operacyjnych - wykład 2 i 3 Wprowadzenie do badań operacyjnych - wykład 2 i 3 Hanna Furmańczyk 14 listopada 2008 Programowanie liniowe (PL) - wszystkie ograniczenia muszą być liniowe - wszystkie zmienne muszą być ciągłe n j=1 c j

Bardziej szczegółowo

Rozwiązywanie układów równań liniowych

Rozwiązywanie układów równań liniowych Rozwiązywanie układów równań liniowych Marcin Orchel 1 Wstęp Jeśli znamy macierz odwrotną A 1, to możęmy znaleźć rozwiązanie układu Ax = b w wyniku mnożenia x = A 1 b (1) 1.1 Metoda eliminacji Gaussa Pierwszy

Bardziej szczegółowo

PROGRAMOWANIE KWADRATOWE

PROGRAMOWANIE KWADRATOWE PROGRAMOWANIE KWADRATOWE Programowanie kwadratowe Zadanie programowania kwadratowego: Funkcja celu lub/i co najmniej jedno z ograniczeń jest funkcją kwadratową. 2 Programowanie kwadratowe Nie ma uniwersalnej

Bardziej szczegółowo

Macierze. Rozdział Działania na macierzach

Macierze. Rozdział Działania na macierzach Rozdział 5 Macierze Funkcję, która każdej parze liczb naturalnych (i, j) (i 1,..., n; j 1,..., m) przyporządkowuje dokładnie jedną liczbę a ij F, gdzie F R lub F C, nazywamy macierzą (rzeczywistą, gdy

Bardziej szczegółowo

Obliczenia iteracyjne

Obliczenia iteracyjne Lekcja Strona z Obliczenia iteracyjne Zmienne iteracyjne (wyliczeniowe) Obliczenia iteracyjne wymagają zdefiniowania specjalnej zmiennej nazywanej iteracyjną lub wyliczeniową. Zmienną iteracyjną od zwykłej

Bardziej szczegółowo

2. Układy równań liniowych

2. Układy równań liniowych 2. Układy równań liniowych Grzegorz Kosiorowski Uniwersytet Ekonomiczny w Krakowie zima 2017/2018 rzegorz Kosiorowski (Uniwersytet Ekonomiczny w Krakowie) 2. Układy równań liniowych zima 2017/2018 1 /

Bardziej szczegółowo

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania KOMPUTEROWE SYSTEMY STEROWANIA I WSPOMAGANIA DECYZJI Rozproszone programowanie produkcji z wykorzystaniem

Bardziej szczegółowo

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać układu równań liniowych Układ liniowych równań algebraicznych

Bardziej szczegółowo

Metody numeryczne. Janusz Szwabiński. Metody numeryczne I (C) 2004 Janusz Szwabiński p.1/50

Metody numeryczne. Janusz Szwabiński. Metody numeryczne I (C) 2004 Janusz Szwabiński p.1/50 Metody numeryczne Układy równań liniowych, część II Janusz Szwabiński szwabin@ift.uni.wroc.pl Metody numeryczne I (C) 2004 Janusz Szwabiński p.1/50 Układy równań liniowych, część II 1. Iteracyjne poprawianie

Bardziej szczegółowo

IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych,

IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych, IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. Definicja 1.1. Niech D będzie podzbiorem przestrzeni R n, n 2. Odwzorowanie f : D R nazywamy

Bardziej szczegółowo

Elementy Modelowania Matematycznego

Elementy Modelowania Matematycznego Elementy Modelowania Matematycznego Wykład 8 Programowanie nieliniowe Spis treści Programowanie nieliniowe Zadanie programowania nieliniowego Zadanie programowania nieliniowego jest identyczne jak dla

Bardziej szczegółowo

10. Metody obliczeniowe najmniejszych kwadratów

10. Metody obliczeniowe najmniejszych kwadratów 10. Metody obliczeniowe najmniejszych kwadratów 1. Dowód twierdzenia o faktoryzacji macierzy Twierdzenie 1 Każdadodatniookreślon aisymetryczn amacierzm można przedstawíc wpostaci M = PP T gdzie P jest

Bardziej szczegółowo

Wektory i wartości własne

Wektory i wartości własne Treść wykładu Podprzestrzenie niezmiennicze... Twierdzenie Cayley Hamiltona Podprzestrzenie niezmiennicze Definicja Niech f : V V będzie przekształceniem liniowym. Podprzestrzeń W V nazywamy niezmienniczą

Bardziej szczegółowo

1 Funkcje dwóch zmiennych podstawowe pojęcia

1 Funkcje dwóch zmiennych podstawowe pojęcia 1 Funkcje dwóch zmiennych podstawowe pojęcia Definicja 1 Funkcją dwóch zmiennych określoną na zbiorze A R 2 o wartościach w zbiorze R nazywamy przyporządkowanie każdemu punktowi ze zbioru A dokładnie jednej

Bardziej szczegółowo

Ekstrema globalne funkcji

Ekstrema globalne funkcji SIMR 2013/14, Analiza 1, wykład 9, 2013-12-13 Ekstrema globalne funkcji Definicja: Funkcja f : D R ma w punkcie x 0 D minimum globalne wtedy i tylko (x D) f(x) f(x 0 ). Wartość f(x 0 ) nazywamy wartością

Bardziej szczegółowo

RÓŻNICZKOWANIE FUNKCJI WIELU ZMIENNYCH: rachunek pochodnych dla funkcji wektorowych. Pochodne cząstkowe funkcji rzeczywistej wielu zmiennych

RÓŻNICZKOWANIE FUNKCJI WIELU ZMIENNYCH: rachunek pochodnych dla funkcji wektorowych. Pochodne cząstkowe funkcji rzeczywistej wielu zmiennych RÓŻNICZKOWANIE FUNKCJI WIELU ZMIENNYCH: rachunek pochodnych dla funkcji wektorowych Pochodne cząstkowe funkcji rzeczywistej wielu zmiennych wyliczamy według wzoru (x, x 2,..., x n ) f(x, x 2,..., x n )

Bardziej szczegółowo

Definicja problemu programowania matematycznego

Definicja problemu programowania matematycznego Definicja problemu programowania matematycznego minimalizacja lub maksymalizacja funkcji min (max) f(x) gdzie: x 1 x R n x 2, czyli: x = [ ] x n przy ograniczeniach (w skrócie: p.o.) p.o. g i (x) = b i

Bardziej szczegółowo

Wektory i wartości własne

Wektory i wartości własne Treść wykładu Podprzestrzenie niezmiennicze Podprzestrzenie niezmiennicze... Twierdzenie Cayley Hamiltona Podprzestrzenie niezmiennicze Definicja Niech f : V V będzie przekształceniem liniowym. Podprzestrzeń

Bardziej szczegółowo

Układy równań i nierówności liniowych

Układy równań i nierówności liniowych Układy równań i nierówności liniowych Wiesław Krakowiak 1 grudnia 2010 1 Układy równań liniowych DEFINICJA 11 Układem równań m liniowych o n niewiadomych X 1,, X n, nazywamy układ postaci: a 11 X 1 + +

Bardziej szczegółowo

13 Układy równań liniowych

13 Układy równań liniowych 13 Układy równań liniowych Definicja 13.1 Niech m, n N. Układem równań liniowych nad ciałem F m równaniach i n niewiadomych x 1, x 2,..., x n nazywamy koniunkcję równań postaci a 11 x 1 + a 12 x 2 +...

Bardziej szczegółowo

13. Funkcje wielu zmiennych pochodne, gradient, Jacobian, ekstrema lokalne.

13. Funkcje wielu zmiennych pochodne, gradient, Jacobian, ekstrema lokalne. 13. Funkcje wielu zmiennych pochodne, gradient, Jacobian, ekstrema lokalne. 1. Wprowadzenie. Dotąd rozważaliśmy funkcje działające z podzbioru liczb rzeczywistych w zbiór liczb rzeczywistych, zatem funkcje

Bardziej szczegółowo

Przekształcanie równań stanu do postaci kanonicznej diagonalnej

Przekształcanie równań stanu do postaci kanonicznej diagonalnej Przekształcanie równań stanu do postaci kanonicznej diagonalnej Przygotowanie: Dariusz Pazderski Liniowe przekształcenie równania stanu Rozważmy liniowe równanie stanu i równanie wyjścia układu niesingularnego

Bardziej szczegółowo

Przekształcenia liniowe

Przekształcenia liniowe Przekształcenia liniowe Zadania Które z następujących przekształceń są liniowe? (a) T : R 2 R 2, T (x, x 2 ) = (2x, x x 2 ), (b) T : R 2 R 2, T (x, x 2 ) = (x + 3x 2, x 2 ), (c) T : R 2 R, T (x, x 2 )

Bardziej szczegółowo

1. Podstawowe pojęcia

1. Podstawowe pojęcia 1. Podstawowe pojęcia Sterowanie optymalne obiektu polega na znajdowaniu najkorzystniejszej decyzji dotyczącej zamierzonego wpływu na obiekt przy zadanych ograniczeniach. Niech dany jest obiekt opisany

Bardziej szczegółowo

[ P ] T PODSTAWY I ZASTOSOWANIA INŻYNIERSKIE MES. [ u v u v u v ] T. wykład 4. Element trójkątny płaski stan (naprężenia lub odkształcenia)

[ P ] T PODSTAWY I ZASTOSOWANIA INŻYNIERSKIE MES. [ u v u v u v ] T. wykład 4. Element trójkątny płaski stan (naprężenia lub odkształcenia) PODSTAWY I ZASTOSOWANIA INŻYNIERSKIE MES wykład 4 Element trójkątny płaski stan (naprężenia lub odkształcenia) Obszar zdyskretyzowany trójkątami U = [ u v u v u v ] T stopnie swobody elementu P = [ P ]

Bardziej szczegółowo

II. FUNKCJE WIELU ZMIENNYCH

II. FUNKCJE WIELU ZMIENNYCH II. FUNKCJE WIELU ZMIENNYCH 1. Zbiory w przestrzeni R n Ustalmy dowolne n N. Definicja 1.1. Zbiór wszystkich uporzadkowanych układów (x 1,..., x n ) n liczb rzeczywistych, nazywamy przestrzenią n-wymiarową

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej

Bardziej szczegółowo

Interpolacja. Marcin Orchel. Drugi przypadek szczególny to interpolacja trygonometryczna

Interpolacja. Marcin Orchel. Drugi przypadek szczególny to interpolacja trygonometryczna Interpolacja Marcin Orchel 1 Wstęp Mamy daną funkcję φ (x; a 0,..., a n ) zależną od n + 1 parametrów a 0,..., a n. Zadanie interpolacji funkcji φ polega na określeniu parametrów a i tak aby dla n + 1

Bardziej szczegółowo

INTERPOLACJA I APROKSYMACJA FUNKCJI

INTERPOLACJA I APROKSYMACJA FUNKCJI Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Wprowadzenie Na czym polega interpolacja? Interpolacja polega

Bardziej szczegółowo

O MACIERZACH I UKŁADACH RÓWNAŃ

O MACIERZACH I UKŁADACH RÓWNAŃ O MACIERZACH I UKŁADACH RÓWNAŃ Problem Jak rozwiązać podany układ równań? 2x + 5y 8z = 8 4x + 3y z = 2x + 3y 5z = 7 x + 8y 7z = Definicja Równanie postaci a x + a 2 x 2 + + a n x n = b gdzie a, a 2, a

Bardziej szczegółowo

D. Miszczyńska, M.Miszczyński KBO UŁ 1 GRY KONFLIKTOWE GRY 2-OSOBOWE O SUMIE WYPŁAT ZERO

D. Miszczyńska, M.Miszczyński KBO UŁ 1 GRY KONFLIKTOWE GRY 2-OSOBOWE O SUMIE WYPŁAT ZERO D. Miszczyńska, M.Miszczyński KBO UŁ GRY KONFLIKTOWE GRY 2-OSOBOWE O SUMIE WYPŁAT ZERO Gra w sensie niżej przedstawionym to zasady którymi kierują się decydenci. Zakładamy, że rezultatem gry jest wypłata,

Bardziej szczegółowo

5. Metody stochastyczne (symulowane wyżarzanie, algorytmy genetyczne) -> metody Monte Carlo

5. Metody stochastyczne (symulowane wyżarzanie, algorytmy genetyczne) -> metody Monte Carlo Optymalizacja (minimalizacja) funkcji Plan wykładu: 1. Sformułowanie problemu, funkcja celu 2. Metody bezgradientowe a) metoda złotego podziału b) metoda sympleks c) metoda interpolacji Powell'a 3. Metody

Bardziej szczegółowo

1 Pochodne wyższych rzędów

1 Pochodne wyższych rzędów Pochodne wyższych rzędów Pochodną rzędu drugiego lub drugą pochodną funkcji y = f(x) nazywamy pochodną pierwszej pochodnej tej funkcji. Analogicznie definiujemy pochodne wyższych rzędów, jako pochodne

Bardziej szczegółowo

Numeryczne metody optymalizacji Optymalizacja w kierunku. informacje dodatkowe

Numeryczne metody optymalizacji Optymalizacja w kierunku. informacje dodatkowe Numeryczne metody optymalizacji Optymalizacja w kierunku informacje dodatkowe Numeryczne metody optymalizacji x F x = min x D x F(x) Problemy analityczne: 1. Nieliniowa złożona funkcja celu F i ograniczeń

Bardziej szczegółowo

Dr inż. Janusz Dębiński Mechanika ogólna Wykład 2 Podstawowe wiadomości z matematyki Kalisz

Dr inż. Janusz Dębiński Mechanika ogólna Wykład 2 Podstawowe wiadomości z matematyki Kalisz Dr inż. Janusz Dębiński Mechanika ogólna Wykład 2 Podstawowe wiadomości z matematyki Kalisz Dr inż. Janusz Dębiński 1 2.1. Przestrzeń i płaszczyzna Podstawowe definicje Punkt - najmniejszy bezwymiarowy

Bardziej szczegółowo

Wykład 5. Metoda eliminacji Gaussa

Wykład 5. Metoda eliminacji Gaussa 1 Wykład 5 Metoda eliminacji Gaussa Rozwiązywanie układów równań liniowych Układ równań liniowych może mieć dokładnie jedno rozwiązanie, nieskończenie wiele rozwiązań lub nie mieć rozwiązania. Metody dokładne

Bardziej szczegółowo

METODY ROZWIĄZYWANIA RÓWNAŃ NIELINIOWYCH

METODY ROZWIĄZYWANIA RÓWNAŃ NIELINIOWYCH METODY ROZWIĄZYWANIA RÓWNAŃ NIELINIOWYCH Jednym z zastosowań metod numerycznych jest wyznaczenie pierwiastka lub pierwiastków równania nieliniowego. W tym celu stosuje się szereg metod obliczeniowych np:

Bardziej szczegółowo

Metody numeryczne II

Metody numeryczne II Metody numeryczne II Poszukiwanie ekstremów funkcji Janusz Szwabiński szwabin@ift.uni.wroc.pl Metody numeryczne II (C) 2004 Janusz Szwabiński p.1/55 Poszukiwanie ekstremów funkcji 1. Funkcje jednej zmiennej

Bardziej szczegółowo

1 Pochodne wyższych rzędów

1 Pochodne wyższych rzędów 1 Pochodne wyższych rzędów Definicja 1.1 (Pochodne cząstkowe drugiego rzędu) Niech f będzie odwzorowaniem o wartościach w R m, określonym na zbiorze G R k. Załóżmy, że zbiór tych x G, dla których istnieje

Bardziej szczegółowo

Programowanie matematyczne

Programowanie matematyczne dr Adam Sojda Badania Operacyjne Wykład Politechnika Śląska Programowanie matematyczne Programowanie matematyczne, to problem optymalizacyjny w postaci: f ( x) max przy warunkach g( x) 0 h( x) = 0 x X

Bardziej szczegółowo

Zadanie transportowe i problem komiwojażera. Tadeusz Trzaskalik

Zadanie transportowe i problem komiwojażera. Tadeusz Trzaskalik Zadanie transportowe i problem komiwojażera Tadeusz Trzaskalik 3.. Wprowadzenie Słowa kluczowe Zbilansowane zadanie transportowe Rozwiązanie początkowe Metoda minimalnego elementu macierzy kosztów Metoda

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 1. Optymalizacja funkcji jednej zmiennej Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.02.2019 1 / 54 Plan wykładu Optymalizacja funkcji jednej

Bardziej szczegółowo

Badanie funkcji. Zad. 1: 2 3 Funkcja f jest określona wzorem f( x) = +

Badanie funkcji. Zad. 1: 2 3 Funkcja f jest określona wzorem f( x) = + Badanie funkcji Zad : Funkcja f jest określona wzorem f( ) = + a) RozwiąŜ równanie f() = 5 b) Znajdź przedziały monotoniczności funkcji f c) Oblicz największą i najmniejszą wartość funkcji f w przedziale

Bardziej szczegółowo

Metody numeryczne w przykładach

Metody numeryczne w przykładach Metody numeryczne w przykładach Bartosz Ziemkiewicz Wydział Matematyki i Informatyki UMK, Toruń Regionalne Koło Matematyczne 8 kwietnia 2010 r. Bartosz Ziemkiewicz (WMiI UMK) Metody numeryczne w przykładach

Bardziej szczegółowo

PRZYKŁADY ROZWIĄZAŃ MES. Piotr Nikiel

PRZYKŁADY ROZWIĄZAŃ MES. Piotr Nikiel PRZYKŁADY ROZWIĄZAŃ MES Piotr Nikiel Metoda elementów skooczonych Metoda elementów skooczonych jest metodą rozwiązywania zadao brzegowych. MES jest wykorzystywana obecnie praktycznie we wszystkich dziedzinach

Bardziej szczegółowo

dr Mariusz Grządziel 15,29 kwietnia 2014 Przestrzeń R k R k = R R... R k razy Elementy R k wektory;

dr Mariusz Grządziel 15,29 kwietnia 2014 Przestrzeń R k R k = R R... R k razy Elementy R k wektory; Wykłady 8 i 9 Pojęcia przestrzeni wektorowej i macierzy Układy równań liniowych Elementy algebry macierzy dodawanie, odejmowanie, mnożenie macierzy; macierz odwrotna dr Mariusz Grządziel 15,29 kwietnia

Bardziej szczegółowo

1 Macierz odwrotna metoda operacji elementarnych

1 Macierz odwrotna metoda operacji elementarnych W tej części skupimy się na macierzach kwadratowych. Zakładać będziemy, że A M(n, n) dla pewnego n N. Definicja 1. Niech A M(n, n). Wtedy macierzą odwrotną macierzy A (ozn. A 1 ) nazywamy taką macierz

Bardziej szczegółowo

Matematyka licea ogólnokształcące, technika

Matematyka licea ogólnokształcące, technika Matematyka licea ogólnokształcące, technika Opracowano m.in. na podstawie podręcznika MATEMATYKA w otaczającym nas świecie zakres podstawowy i rozszerzony Funkcja liniowa Funkcję f: R R określoną wzorem

Bardziej szczegółowo

Metody numeryczne. Równania nieliniowe. Janusz Szwabiński.

Metody numeryczne. Równania nieliniowe. Janusz Szwabiński. Metody numeryczne Równania nieliniowe Janusz Szwabiński szwabin@ift.uni.wroc.pl nm_slides-9.tex Metody numeryczne Janusz Szwabiński 7/1/2003 20:18 p.1/64 Równania nieliniowe 1. Równania nieliniowe z pojedynczym

Bardziej szczegółowo

Równania prostych i krzywych; współrzędne punktu

Równania prostych i krzywych; współrzędne punktu Równania prostych i krzywych; współrzędne punktu Zad 1: Na paraboli o równaniu y = 1 x znajdź punkt P leŝący najbliŝej prostej o równaniu x + y = 0 Napisz równanie stycznej do tej paraboli, poprowadzonej

Bardziej szczegółowo

Metoda eliminacji Gaussa. Autorzy: Michał Góra

Metoda eliminacji Gaussa. Autorzy: Michał Góra Metoda eliminacji Gaussa Autorzy: Michał Góra 9 Metoda eliminacji Gaussa Autor: Michał Góra Przedstawiony poniżej sposób rozwiązywania układów równań liniowych jest pewnym uproszczeniem algorytmu zwanego

Bardziej szczegółowo

PRÓBNA MATURA ZADANIA PRZYKŁADOWE

PRÓBNA MATURA ZADANIA PRZYKŁADOWE ZESPÓŁ SZKÓŁ HOTELARSKO TURYSTYCZNO GASTRONOMICZNYCH NR UL. KRASNOŁĘCKA, WARSZAWA Z A D AN I A Z A M K N I Ę T E ) Liczba, której 5% jest równe 6, to : A. 0, C. 0. D. 0 5% 6 II sposób: x nieznana liczba

Bardziej szczegółowo

METODY NUMERYCZNE. wykład. konsultacje: wtorek 10:00-11:30 środa 10:00-11:30. dr inż. Grażyna Kałuża pokój

METODY NUMERYCZNE. wykład. konsultacje: wtorek 10:00-11:30 środa 10:00-11:30. dr inż. Grażyna Kałuża pokój METODY NUMERYCZNE wykład dr inż. Grażyna Kałuża pokój 103 konsultacje: wtorek 10:00-11:30 środa 10:00-11:30 www.kwmimkm.polsl.pl Program przedmiotu wykład: 15 godzin w semestrze laboratorium: 30 godzin

Bardziej szczegółowo

Układy równań liniowych

Układy równań liniowych Układy równań liniowych ozważmy układ n równań liniowych o współczynnikach a ij z n niewiadomymi i : a + a +... + an n d a a an d a + a +... + a n n d a a a n d an + an +... + ann n d n an an a nn n d

Bardziej szczegółowo