Optymalizacja (minimalizacja) funkcji. Plan wykładu: 1. Sformułowanie problemu, funkcja celu. 2. Metody bezgradientowe

Wielkość: px
Rozpocząć pokaz od strony:

Download "Optymalizacja (minimalizacja) funkcji. Plan wykładu: 1. Sformułowanie problemu, funkcja celu. 2. Metody bezgradientowe"

Transkrypt

1 Optymalizacja (minimalizacja) funkcji Plan wykładu: 1. Sformułowanie problemu, funkcja celu. Metody bezgradientowe a) metoda złotego podziału b) metoda sympleks c) metoda interpolacji Powell'a 3. Metody gradientowe a) metoda największego spadku b) metoda gradientów sprzężonych c) metoda Newtona 4. Minimalizacja z ograniczeniami: metoda funkcji kary zewnętrznej i wewnętrznej.

2 Sformułowanie problemu, definicje pomocnicze Przykład Zadaniem optymalizacji jest poszukiwanie minimum lub maksimum funkcji (wielu zmiennych). W praktyce problem sprowadza się do poszukiwania minimum czyli takiego punktu dla którego zachodzi Problem jednowymiarowy x [x1 ; x ; : : : ; xn ]T z warunkami x ) 0; gj (x j 1; ; : : : ; m x ) 0; hj (x j 1; ; : : : ; r Problem dwuwymiarowy Funkcje: f(,g(, h( są funkcjami skalarnymi. f( funkcja celu, celem jest znalezienie jej minimum (optymalizacja) g( i h( są funkcjami określającymi warunki jakie musi spełniać rozwiązanie (więzy) ograniczają przestrzeń dopuszczalnych rozwiązań

3 Gradient funkcji wektor gradientu Dla funkcji celu C f (x definiujemy funkcję wektorową będącą gradientem funkcji 3 minimum Rys. Przykład poszukiwania minimum z nałożonymi warunkami na rozwiązanie g (x x ) rf ( (x (x 5 Trzy przypadki: 1) Problem bez więzów oraz dla g(>0 minimum znajdujemy dla f(0 ) Jeśli warunkiem jest g(0 to minimum znajduje się w punkcie takim że f(1 3) Jeśli warunkiem jest g(<0 to rozwiązanie znajdziemy w pobliżu punktu w którym f(1 3

4 Hesjan (macierz Hessego) Minimum lokalne, minimum globalne oraz punkt siodłowy funkcji celu Dla funkcji celu C f (x a) Punkt x* stanowi minimum globalne funkcji jeśli definiujemy macierz (hesjan) której elementami są jej drugie pochodne cząstkowe H(x ½ @ @ ¾ b) Punkt x* stanowi minimum lokalne funkcji jeśli r f ::: ::: ::: ::: ::: ::: f " : " > 0; " R c) Punkt x µ ^ > f (x x ) f (x x x x k<" x :kx x0 y0 jest punktem siodłowym funkcji jeśli Macierz H( jest symetryczna implikacje numeryczne. 9 " : " > 0; " R ^ x x x0 k<" x :kx y y y0 k<" y :ky x; y 0 ) f (x x0 ; y 0 ) f (x x0 ; yy) f (x; 4

5 Minima lokalne Rys. Minima lokalne i minimum globalne Rys. Punkt siodłowy funkcji 5

6 Metoda złotego podziału (metoda jednowymiarowa) 1) Wstępnie wyznaczamy przedział [a,b] w którym spodziewamy się minimum wartości funkcji )W przedziale [a,b] wyznaczamy dwa punkty 1 i 3) Jeśli F ( ) > F ( 1 ) to zmieniamy granice przedziału na [a, ] 4) Jeśli F ( ) < F ( 1 ) to zmieniamy granice przedziału na [ 1,B] 5)Proces podziału prowadzimy iteracyjnie aż do spełnienia warunku jai bi j < " bi ai Rys. Wyznaczanie kolejnych przybliżeń w metodzie złotego podziału Pozostaje tylko kwestia jak wyznaczyć punkty tak aby wybór był optymalny tzn. chcemy wykonać jak najmniejszą ilość podziałów.

7 Pierwiastki równania Punktem wyjścia jest zależność ( 1 a) + (b 1 ) b 1 ' b 1 1 a b a L )b L+a L L + a 1 L + a 1 1 a r1 r p 5 1 0:18034 > 0 p 5 1 <0 Po wyborze rr1 możemy określić wartości 1 i zakładając ponadto, że oba punkty powinny być symetryczne względem krańców przedziału 1 a + r L a + rl L( 1 a) (L ( 1 a)) µ ( 1 a) ( 1 a) L 1 Lr L µ ( 1 a) b 1 L 1 Lr L Lr + Lr Lr 1 ) r +r 1 0 Lr Lr r

8 Metoda interpolacji kwadratowej Powell'a gdzie: F[ 0, 1] iloraz różnicowy 1 rzędu, F[ 0, 1, ] iloraz różnicowy rzędu Punkt m jest kolejnym przybliżeniem m Rys. Wyznaczanie przybliżonego rozwiązania w metodzie Powell'a. Przez trzy punkty: 1,, 3 przechodzi wielomian stopnia p ( ) F ( 0 ) + F [ 0 ; 1 ]( 0 ) + F [ 0 ; 1 ; ]( 0 )( 1 ) Z warunkiem na minimum dp d F [ 0 ; 1 ] + F [ 0 ; 1 ; ] F [ 0 ; 1 ; ]( ) F [ 0 ; 1 ; ]( ) F [ 0 ; 1 ] ¼ F [ 0 ; 1 ; ] Aby znaleziony punkt był rzeczywistym minimum, druga pochodna (F[ 0, 1, ]) musi spełniać warunek F [ 0 ; 1 ; ] > 0 Algorytm: 1) Wybierz 0 i oblicz F[ +h]<f[ ], F[ +h]<f[ +h] (ewentualnie zmień znak: -h, jeśli nierówności nie są spełnione) ) Wyznacz m i sprawdź czy jest minimum 3) Jeśli j m n j > h odrzuć najdalej położony od m punkt i ponownie wykonaj obliczenia z pkt.. n najbliżej położony punkt względem m Punkt m akceptujemy jako minimum jeśli j m n j < " 8

9 Metoda sympleks (Neldera-Meada) Rozwiązania poszukujemy iteracyjnie dążąc do znalezienia minimum fukcji poprzez obliczanie jej wartości w ściśle określonych punktach. Do wyznaczenia kierunków poszukiwań oraz punktów, w których oblicza się wartości funkcji wykorzystuje się obiekt zwany sympleksem. Sympleks jest to n-wymiarowy obiekt, stanowiący najmniejszy zbiór wypukły zawierający punkty p0 ; p 1 ; : : : ; p n będące jego wierzchołkami. Wierzchołki sympleksu tworzą tylko takie punkty, dla których zbiór wektorów fppi p 0 g jest liniowo niezależny (punkty nie są współliniowe). Przykład. Sympleksy w i w 3 wymiarach Sposób postępowania w jednej iteracji 1. wybieramy zestaw N+1 punktów startowych (N liczba wymiarów), np. w postaci p i p 0 + id i ; i 1; ; : : : ; n wektory di możemy przyjąć jako wersory układu kartezjańskiego d i e i ; i 1; ; : : : ; n Położenie p0 wybieramy arbitralnie, wartości i zależą od rozpatrywanego problemu.. Dla wszystkich wierzchołków obliczamy ciąg f (pp 0 ); f (pp1 ); : : : ; f (ppn ) i szukamy dwóch punktów odpowiednio dla największej i najmniejszej wartości funkcji p min p j () f (ppj ) f (ppi ); i 0; 1; : : : ; N pmax pj () f (ppj ) f (pp i ); i 0; 1; : : : ; N 3. Wyznaczamy środek ciężkości wierzchołków z wyłączeniem punktu pmax 1 X p~ pi n imax 9

10 4. Odbicie Wyznaczamy punkt podb leżący na linii łączacej środek ciężkości i wierzchołek pmax p odb p~ + (~ p p max ); [0; 1) Jeśli f (pp e ) < f (ppodb ) To wierzchołki nowego sympleksu tworzą poprzednie za wyjątkiem wierzchołka pmax który zastępujemy pe. W przeciwnym wypadku f (pp e ) f (ppodb ) wierzchołek pmax zastępujemy podb I jeśli zachodzi warunek f (pp min ) f (ppodb ) < f (ppmax ) to odbicie akceptujemy. W nowym sympleksie wierzchołek pmax zostaje zastąpiony przez podb. 5. Ekspansja Po odbiciu sprawdzamy też czy zachodzi warunek f (pp odb ) < f (ppmin ) Jeśli tak to wtedy zamiast podb wyznaczamy podb p~); > 1 e p~ + (p. Zawężenie Jeśli f (ppodb ) f (ppmax ) to należy wykonać tzw. zawężenie sympleksu. Wyznaczamy nowe przybliżenie podb p~ + (ppmax p~); (0; 1) 10

11 Jeśli zachodzi warunek f (pp z ) < f (pp max ) to wierzchołek pmax zastępujemy pz. Przy sprawdzaniu warunków akceptacji nowego wierzchołka sympleksu sprawdzamy też warunek stopu jako kryterium stopu przyjmując. Redukcja Jeśli max f (pp z ) f (pp max ) i0;1;:::;n dokonujemy redukcji sympleksu p i à ±(ppi + p min ); i 0; 1; : : : ; n; i min ± (0; 1) kppmin p i k < " Metoda sympleks jest mało efektywna, nierzadko potrzeba dużej liczby iteracji w celu znalezienia minimum funcji. 11

12 Kierunkowe metody poszukiwania minimum funkcji Możemy teraz wyrazić pochodną kierunkową funkcji celu w punkcie x dla kierunku u następująco df ( ) df (x T u u r f (x d d u Pochodna kierunkowa funkcji celu Różniczka zupełna dx x df dx1 + : : : + dxn r Jeśli wektor u wyznacza kierunek prostej łączącej punkty x i x' to są one ze sobą powiązane 0 u x ( ) x + u Dla bardzo małych zmian wartości możemy zapisać Jeśli korzystamy z pochodnej kierunkowej, to musimy ją wyliczać w każdej iteracji. Jak wykorzystać pochodną kierunkową do znalezienia minimum funkcji? Startując z określonego punktu x0 poszukujemy kolejnego przybliżenia tj. x1 w kierunku spadku wartości funkcji. W ten sposób wyznaczamy ciąg kolejnych przybliżeń x0 ; x1 ; x ; : : : x u d dx Na prostej łączącej (ustalone punkty) x i x' wartość funkcji celu zależna będzie od nowej zmiennej poszukiwanego minimum. Procedurę iteracyjną przerywamy, gdy spełniony jest jeden z warunków: a) 0 x + u u ) f (x F ( ) f (x Liczmy różniczkę zupełną dla funkcji celu zależnej od T x )u ud df df r f (x b) xi+1 x i k < " kx 0 r f (x c) w kolejnych iteracjach rośnie wartość xi+1 x i k kx co oznacza brak zbieżności 1

13 Metoda największego spadku Korzystamy z nierówności Schwartza x )u u kr rt f (x x )k ku uk kr rt f (x x )k min r T f (x Jeśli wektor kierunkowy wybierzemy w postaci 0 u rf (x r 0 rf (x x )k kr to będzie on wskazywał kierunek największego spadku. Rys. Gradient funkcji i kierunek poszukiwań w metodzie największego spadku. Korzystamy z pochodnej kierunkowej funkcji w punkcie x' 0 x ) df (x df (0) x )u u rt f (x d d Pochodna kierunkowa osiąga wtedy najmniejszą wartość df (0) r f (x rt f (x r min 00 d rf (x x )k kr 0 u Wektor kierunkowy u ma długość równą 1 uk 1 ku 13

14 Algorytm: 1) Wybierz x0 ) Iteracyjnie obliczaj r f (x xi 1 ) r u rf (x xi 1 )k kr i ui x i x i 1 + u xi 1 + iu i ) min f (x xi 1 + u ui) F ( i ) f (x 3) Warunki zakończenia obliczeń x i x i k < "1 kx Metoda największego spadku może być mało wydajna, jeśli kontur wartości funkcji celu jest wydłużony (elipsa). Pojawiają się wówczas częste zmiany kierunków poszukiwań zigzag. rf (x xi )k < " kr x i ) f (x xi 1 )j < "3 jf (x 14

15 f (x; y) 5 (x y) + (1 rf µ 10(x y)x + x 5x + 5y 15

16 Metoda największego spadku z optymalizacją parametru xi + u ui f (x; y) 5 (x y) + (1 xi + u (x ui xi + u u i ))T u i 0 (rf (x x i + u u i ) rf (x x i+1 ) u ui+1 rf (x u Ti+1 u i 0 Kierunki poszukiwań w dwóch kolejnych iteracjach są ortogonalne. Jest to duży problem w przypadku, gdy funkcja ma wydłużony kształt w jednym z kierunków (poziomice funkcji są równoległe w szerokim zakresie). 1

17 Metoda sprzężonego gradientu (CG) Algorytm CG Fletchera-Reevsa Metoda jest wydajna i dostarcza rozwiązania w skończonej liczbie kroków dla problemu w postaci 1) Wybieramy punkt startowy x0 Obliczamy iteracyjnie 1 x T Ax x + xt b + c f (x x i x i 1 + iu i kierunek poszukiwań: Dwa wektory są wzajemnie sprzężone jeśli rf (x x0 ) u 1 r a) i0 u; Avv ) 0 u T Avv (u gdzie: A jest macierzą dodatniookreśloną b) i1,,3..,n Jeśli ciąg wektorów u i Rn ; i 1; ; : : : ; n tworzą wektory wzajemnie sprzężone, to stanowią one bazę w przestrzeni R n i wówczas każdy wektor xi R n x ku k x 0 + k1 i ui ; Ax (u ui ; Au ui ) (u Wartość i wyznaczamy identycznie jak w metodzie największego spadku. Wektory ui wyznaczają bazę Aortogonalną. Parametr i rf (x xi )k kr i rf (x x i 1 )k kr można rozwinąć w tej bazie n X rf (x xi ) + iu i u i+1 r n X i1 iu i silnie ogranicza zmiany kierunku poszukiwania rozwiązania w kolejnej iteracji. 1

18 5 f (x; y) (x y) + (1 18

19 Metoda Newtona poszukiwania minimum funkcji kwadratowej w Rn W metodzie Newtona zakładamy Funkcję kwadratową definiujemy następująco gdzie: xi przybliżone rozwiązanie w i-tej iteracji 1 x T Ax x + xt b + c f (x gdzie: A jest pewną macierzą kwadratową oraz x ; b Rn cr Jeśli macierz A jest symetryczna to wówczas zachodzi oraz x xi + ± Korzystając z rozwinięcia funkcji w szereg Taylora możemy zapisać 0 x ) r f (x xi + ± ) r f (x xi ) + H(x x i )±± + O(k±± k ) r f (x Jeśli pominiemy wyrazy rzędu to xi ) + H(x xi )±± 0 r f (x W i-tej iteracji poprawiamy rozwiązanie, tj. x i+1 x i + ± x ) Ax x +b r f (x i ostatecznie A r f (x A H(x Jeśli A jest dodatniookreślona to rozwiązanie można łatwo znaleźć, ponieważ x ) Ax x +b 0 r f (x x A 1b xi )r rf (x xi) x i+1 x i H 1 (x Oczekujemy, że metoda Newtona będzie pracować również dla innych funkcji niż kwadratowe tj. gdy badaną funkcję celu można przybliżyć lokalnie funkcją kwadratową. Wadą metody jest konieczność wyznaczania hesjanu w każdym punkcie. Gdy ta staje się osobliwa wówczas metoda przestaje działać co może być spowodowane np. występowaniem błędów numerycznych. 19

20 Zastosujmy schemat do funkcji kwadratowej 1 x AT x + b T x + c f (x W pierwszej iteracji dostajemy x1 Czyli 5 (x y) + (1 µ 30x 10y + 10x H(x; y) 10x 5 f (x; y) x0 + b ) x 0 A 1 (Ax x 0 x 0 A 1b A 1b x1 x Zbieżność do minimum uzyskujemy w jednym kroku. Ale metoda ma wady: 1) Metoda nie zawsze jest zbieżna nawet w pobliżu minimum ) Wymaga znalezienia A-1 w każdej iteracji Rys. Metoda Newtona w połączeniu z metodą złotego podziału użytą w każdej iteracji. 0

21 Metoda funkcji kary Prosty przykład funkcji kary zewnętrznej Jeśli ograniczamy przestrzeń dopuszczalnych rozwiązań czyli nakładamy warunki np. lub x ) 0; gj (x j 1; ; : : : ; m x ) 0; hj (x j 1; ; : : : ; r to mamy do czynienia z problemem z ograniczeniami. Ograniczenia te chcemy wbudować w nasz algorytm w taki sposób aby znów problem stał się problemem bez ograniczeń bez konieczności sprawdzania warunków. S(x m X )) + (max(0; gj (x j1 r X ) (hj (x j1 Jeśli spełniony jest pierwszy warunek to pierwsza suma się zeruje. Podobnie jest dla drugiego przypadku. Wtedy 0 S(x czyli brak kary w przestrzeni rozwiązań dopuszczalnych. W pozostałym obszarze (na zewnątrz), wartość funkcji celu rośnie w kolejnych iteracjach a więc nie znajdziemy tam minimum. Metoda funkcji kary zewnętrznej Zmodyfikowana funkcja celu może nie być różniczkowalna ze względu na funkcję max() w definicji funkcji kary co eliminuje metody gradientowe przy poszukiwaniu minimum. Stosujemy zmodyfikowaną funkcję celu Sposób postępowania: x ) f (x + ci S(x Fi (x gdzie: S( jest funkcją kary, a ci współczynnikiem rosnącym w kolejnych iteracjach lim ci 1 i!1 (ci+1 ci ) 1) wybieramy punkt startowy x0 ) określamy ci oraz modyfikujemy funkcję celu 3) znajdujemy rozwiązanie x* przy użyciu wybranej metody 4) sprawdzamy przyjęty warunek stopu jak w metodzie bez ograniczeń 5) jeśli warunek stopu nie jest spełniony to wykonujemy kolejną iterację przyjmując x i x ; ci+1 a ci 1

22 Metoda funkcji kary wewnętrznej to xi )! 1 lim S(x i!1 Zakładamy że warunki ograniczające mają postać x ) 0; gj (x j 1; ; : : : ; m W każdej iteracji modyfikujemy funkcję celu wprowadzając funkcję kary S( f (x + ci S(x Fi (x z warunkiem dla współczynnika ci lim ci 0 i!1 (ci+1 a ci ; a (0; 1)) Własności funkcji kary wewnętrznej: a) x ) < 0; j 1; : : : ; m ) S(x > 0 gj (x b) jeśli dla ciągu przybliżeń x1 ; x ; : : : ; xi spełniony jest warunek xi ) < 0; j 1; : : : ; m; i 1; ; : : : gj (x oraz dla określonego j xi ) 0 lim gj (x i!1 Funkcja kary przyjmuje wartości dodatnie wewnątrz obszaru rozwiązań dopuszczalnych, a jej wartość gwałtownie rośnie przy zbliżaniu się do brzegu (bariera). Przykłady funkcji barierowych: S(x S(x Sposób postępowania: m X j1 m X 1 gj (x ) ln( gj (x j1 1) wybieramy punkt startowy x0 ) określamy ci oraz modyfikujemy funkcję celu 3) znajdujemy rozwiązanie x* przy użyciu wybranej metody 4) sprawdzamy przyjęty warunek stopu oraz dodatkowo sprawdzamy zgodność z warunkami ograniczającymi xi )j < " ci js(x 5) jeśli warunki stopu nie są spełnione to wykonujemy kolejną iterację przyjmując x i x ; ci+1 a ci

5. Metody stochastyczne (symulowane wyżarzanie, algorytmy genetyczne) -> metody Monte Carlo

5. Metody stochastyczne (symulowane wyżarzanie, algorytmy genetyczne) -> metody Monte Carlo Optymalizacja (minimalizacja) funkcji Plan wykładu: 1. Sformułowanie problemu, funkcja celu 2. Metody bezgradientowe a) metoda złotego podziału b) metoda sympleks c) metoda interpolacji Powell'a 3. Metody

Bardziej szczegółowo

IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych,

IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych, IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. Definicja 1.1. Niech D będzie podzbiorem przestrzeni R n, n 2. Odwzorowanie f : D R nazywamy

Bardziej szczegółowo

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Metody optymalizacji Metody bezgradientowe optymalizacji bez ograniczeń Materiały pomocnicze do ćwiczeń

Bardziej szczegółowo

KADD Minimalizacja funkcji

KADD Minimalizacja funkcji Minimalizacja funkcji Poszukiwanie minimum funkcji Foma kwadratowa Metody przybliżania minimum minimalizacja Minimalizacja w n wymiarach Metody poszukiwania minimum Otaczanie minimum Podział obszaru zawierającego

Bardziej szczegółowo

1 Równania nieliniowe

1 Równania nieliniowe 1 Równania nieliniowe 1.1 Postać ogólna równania nieliniowego Często występującym, ważnym problemem obliczeniowym jest numeryczne poszukiwanie rozwiązań równań nieliniowych, np. algebraicznych (wielomiany),

Bardziej szczegółowo

1 Metody rozwiązywania równań nieliniowych. Postawienie problemu

1 Metody rozwiązywania równań nieliniowych. Postawienie problemu 1 Metody rozwiązywania równań nieliniowych. Postawienie problemu Dla danej funkcji ciągłej f znaleźć wartości x, dla których f(x) = 0. (1) 2 Przedział izolacji pierwiastka Będziemy zakładać, że równanie

Bardziej szczegółowo

WYKŁAD 9 METODY ZMIENNEJ METRYKI

WYKŁAD 9 METODY ZMIENNEJ METRYKI WYKŁAD 9 METODY ZMIENNEJ METRYKI Kierunki sprzężone. Metoda Newtona Raphsona daje dobre przybliżenie najlepszego kierunku poszukiwań, lecz jest to okupione znacznym kosztem obliczeniowym zwykle postać

Bardziej szczegółowo

KADD Minimalizacja funkcji

KADD Minimalizacja funkcji Minimalizacja funkcji n-wymiarowych Forma kwadratowa w n wymiarach Procedury minimalizacji Minimalizacja wzdłuż prostej w n-wymiarowej przestrzeni Metody minimalizacji wzdłuż osi współrzędnych wzdłuż kierunków

Bardziej szczegółowo

ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ

ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ Maciej Patan Uniwersytet Zielonogórski WSTEP Zadanie minimalizacji bez ograniczeń f(ˆx) = min x R nf(x) f : R n R funkcja ograniczona z dołu Algorytm rozwiazywania Rekurencyjny

Bardziej szczegółowo

Wprowadzenie Metoda bisekcji Metoda regula falsi Metoda siecznych Metoda stycznych RÓWNANIA NIELINIOWE

Wprowadzenie Metoda bisekcji Metoda regula falsi Metoda siecznych Metoda stycznych RÓWNANIA NIELINIOWE Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać ogólna równania nieliniowego Zazwyczaj nie można znaleźć

Bardziej szczegółowo

ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH

ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH Transport, studia I stopnia Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać ogólna równania nieliniowego Często występującym, ważnym problemem obliczeniowym

Bardziej szczegółowo

Metody numeryczne I Równania nieliniowe

Metody numeryczne I Równania nieliniowe Metody numeryczne I Równania nieliniowe Janusz Szwabiński szwabin@ift.uni.wroc.pl Metody numeryczne I (C) 2004 Janusz Szwabiński p.1/66 Równania nieliniowe 1. Równania nieliniowe z pojedynczym pierwiastkiem

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 4. Metody kierunków poprawy (metoda spadku wzdłuż gradientu) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 21.03.2019 1 / 41 Plan wykładu Minimalizacja

Bardziej szczegółowo

Rozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów.

Rozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów. Rozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów. Plan wykładu: 1. Wyznaczanie pojedynczych pierwiastków rzeczywistych równań nieliniowych metodami a) połowienia (bisekcji)

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metody kierunków poparwy (metoda Newtona-Raphsona, metoda gradientów sprzężonych) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.03.2019 1

Bardziej szczegółowo

Rozwiązywanie równań nieliniowych

Rozwiązywanie równań nieliniowych Rozwiązywanie równań nieliniowych Marcin Orchel 1 Wstęp Przykłady wyznaczania miejsc zerowych funkcji f : f(ξ) = 0. Wyszukiwanie miejsc zerowych wielomianu n-tego stopnia. Wymiar tej przestrzeni wektorowej

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 1. Optymalizacja funkcji jednej zmiennej Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.02.2019 1 / 54 Plan wykładu Optymalizacja funkcji jednej

Bardziej szczegółowo

Układy równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona) f(x) = 0, gdzie. dla n=2 np.

Układy równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona) f(x) = 0, gdzie. dla n=2 np. Układy równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona f(x 0, f ( f, f,..., f n gdzie 2 x ( x, x 2,..., x n dla n2 np. f ( x, y 0 g( x, y 0 dla każdej wielowymiarowej rozwinięcie w szereg Taylora

Bardziej szczegółowo

Metody Numeryczne Optymalizacja. Wojciech Szewczuk

Metody Numeryczne Optymalizacja. Wojciech Szewczuk Metody Numeryczne Optymalizacja Optymalizacja Definicja 1 Przez optymalizację będziemy rozumieć szukanie minimów lub maksimów funkcji. Optymalizacja Definicja 2 Optymalizacja lub programowanie matematyczne

Bardziej szczegółowo

Rozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów.

Rozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów. Rozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów. Plan wykładu: 1. Wyznaczanie pojedynczych pierwiastków rzeczywistych równań nieliniowych metodami a) połowienia (bisekcji)

Bardziej szczegółowo

1 Funkcje dwóch zmiennych podstawowe pojęcia

1 Funkcje dwóch zmiennych podstawowe pojęcia 1 Funkcje dwóch zmiennych podstawowe pojęcia Definicja 1 Funkcją dwóch zmiennych określoną na zbiorze A R 2 o wartościach w zbiorze R nazywamy przyporządkowanie każdemu punktowi ze zbioru A dokładnie jednej

Bardziej szczegółowo

VIII. Zastosowanie rachunku różniczkowego do badania funkcji. 1. Twierdzenia o wartości średniej. Monotoniczność funkcji.

VIII. Zastosowanie rachunku różniczkowego do badania funkcji. 1. Twierdzenia o wartości średniej. Monotoniczność funkcji. VIII. Zastosowanie rachunku różniczkowego do badania funkcji. 1. Twierdzenia o wartości średniej. Monotoniczność funkcji. Twierdzenie 1.1. (Rolle a) Jeżeli funkcja f jest ciągła w przedziale domkniętym

Bardziej szczegółowo

Matematyka stosowana i metody numeryczne

Matematyka stosowana i metody numeryczne Ewa Pabisek Adam Wosatko Piotr Pluciński Matematyka stosowana i metody numeryczne Konspekt z wykładu 6 Rozwiązywanie równań nieliniowych Rozwiązaniem lub pierwiastkiem równania f(x) = 0 lub g(x) = h(x)

Bardziej szczegółowo

Wstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych. P. F. Góra

Wstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych. P. F. Góra Wstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2012 Strategia minimalizacji wielowymiarowej Zakładamy, że metody poszukiwania minimów

Bardziej szczegółowo

II. FUNKCJE WIELU ZMIENNYCH

II. FUNKCJE WIELU ZMIENNYCH II. FUNKCJE WIELU ZMIENNYCH 1. Zbiory w przestrzeni R n Ustalmy dowolne n N. Definicja 1.1. Zbiór wszystkich uporzadkowanych układów (x 1,..., x n ) n liczb rzeczywistych, nazywamy przestrzenią n-wymiarową

Bardziej szczegółowo

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH Transport, studia I stopnia rok akademicki 2011/2012 Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Uwagi wstępne Układ liniowych równań algebraicznych można

Bardziej szczegółowo

METODY NUMERYCZNE. Wykład 4. Numeryczne rozwiązywanie równań nieliniowych z jedną niewiadomą. prof. dr hab.inż. Katarzyna Zakrzewska

METODY NUMERYCZNE. Wykład 4. Numeryczne rozwiązywanie równań nieliniowych z jedną niewiadomą. prof. dr hab.inż. Katarzyna Zakrzewska METODY NUMERYCZNE Wykład 4. Numeryczne rozwiązywanie równań nieliniowych z jedną niewiadomą prof. dr hab.inż. Katarzyna Zakrzewska Met.Numer. Wykład 4 1 Rozwiązywanie równań nieliniowych z jedną niewiadomą

Bardziej szczegółowo

Całkowanie numeryczne przy użyciu kwadratur

Całkowanie numeryczne przy użyciu kwadratur Całkowanie numeryczne przy użyciu kwadratur Plan wykładu: 1. Kwadratury Newtona-Cotesa a) wzory: trapezów, parabol etc. b) kwadratury złożone 2. Ekstrapolacja a) ekstrapolacja Richardsona b) metoda Romberga

Bardziej szczegółowo

Iteracyjne rozwiązywanie równań

Iteracyjne rozwiązywanie równań Elementy metod numerycznych Plan wykładu 1 Wprowadzenie Plan wykładu 1 Wprowadzenie 2 Plan wykładu 1 Wprowadzenie 2 3 Wprowadzenie Metoda bisekcji Metoda siecznych Metoda stycznych Plan wykładu 1 Wprowadzenie

Bardziej szczegółowo

Funkcje dwóch zmiennych

Funkcje dwóch zmiennych Funkcje dwóch zmiennych Andrzej Musielak Str Funkcje dwóch zmiennych Wstęp Funkcja rzeczywista dwóch zmiennych to funkcja, której argumentem jest para liczb rzeczywistych, a wartością liczba rzeczywista.

Bardziej szczegółowo

KADD Metoda najmniejszych kwadratów funkcje nieliniowe

KADD Metoda najmniejszych kwadratów funkcje nieliniowe Metoda najmn. kwadr. - funkcje nieliniowe Metoda najmniejszych kwadratów Funkcje nieliniowe Procedura z redukcją kroku iteracji Przykłady zastosowań Dopasowanie funkcji wykładniczej Dopasowanie funkcji

Bardziej szczegółowo

Programowanie nieliniowe. Badania operacyjne Wykład 3 Metoda Lagrange a

Programowanie nieliniowe. Badania operacyjne Wykład 3 Metoda Lagrange a Programowanie nieliniowe Badania operacyjne Wykład 3 Metoda Lagrange a Plan wykładu Przykład problemu z nieliniową funkcją celu Sformułowanie problemu programowania matematycznego Podstawowe definicje

Bardziej szczegółowo

Rozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów.

Rozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów. Rozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów. Plan wykładu: 1. Wyznaczanie pojedynczych pierwiastków rzeczywistych równań nieliniowych metodami a) połowienia (bisekcji)

Bardziej szczegółowo

Przegląd metod optymalizacji wielowymiarowej. Funkcja testowa. Funkcja testowa. Notes. Notes. Notes. Notes. Tomasz M. Gwizdałła

Przegląd metod optymalizacji wielowymiarowej. Funkcja testowa. Funkcja testowa. Notes. Notes. Notes. Notes. Tomasz M. Gwizdałła Przegląd metod optymalizacji wielowymiarowej Tomasz M. Gwizdałła 2012.12.06 Funkcja testowa Funkcją testową dla zagadnień rozpatrywanych w ramach tego wykładu będzie funkcja postaci f (x) = (x 1 1) 4 +

Bardziej szczegółowo

Metody numeryczne II

Metody numeryczne II Metody numeryczne II Poszukiwanie ekstremów funkcji Janusz Szwabiński szwabin@ift.uni.wroc.pl nmslides-13.tex Metody numeryczne II Janusz Szwabiński 29/5/2003 14:40 p.1/55 Poszukiwanie ekstremów funkcji

Bardziej szczegółowo

METODY NUMERYCZNE. Wykład 4. Numeryczne rozwiązywanie równań nieliniowych z jedną niewiadomą. Rozwiązywanie równań nieliniowych z jedną niewiadomą

METODY NUMERYCZNE. Wykład 4. Numeryczne rozwiązywanie równań nieliniowych z jedną niewiadomą. Rozwiązywanie równań nieliniowych z jedną niewiadomą METODY NUMERYCZNE Wykład 4. Numeryczne rozwiązywanie równań nieliniowych z jedną niewiadomą dr hab.inż. Katarzyna Zakrzewska, prof.agh Met.Numer. Wykład 4 1 Rozwiązywanie równań nieliniowych z jedną niewiadomą

Bardziej szczegółowo

Definicja pochodnej cząstkowej

Definicja pochodnej cząstkowej 1 z 8 gdzie punkt wewnętrzny Definicja pochodnej cząstkowej JeŜeli iloraz ma granicę dla to granicę tę nazywamy pochodną cząstkową funkcji względem w punkcie. Oznaczenia: Pochodną cząstkową funkcji względem

Bardziej szczegółowo

Metody Rozmyte i Algorytmy Ewolucyjne

Metody Rozmyte i Algorytmy Ewolucyjne mgr inż. Wydział Matematyczno-Przyrodniczy Szkoła Nauk Ścisłych Uniwersytet Kardynała Stefana Wyszyńskiego Podstawy optymalizacji Plan prezentacji 1 Podstawy matematyczne 2 3 Eliminacja ograniczeń Metody

Bardziej szczegółowo

Metody iteracyjne rozwiązywania układów równań liniowych (5.3) Normy wektorów i macierzy (5.3.1) Niech. x i. i =1

Metody iteracyjne rozwiązywania układów równań liniowych (5.3) Normy wektorów i macierzy (5.3.1) Niech. x i. i =1 Normy wektorów i macierzy (5.3.1) Niech 1 X =[x x Y y =[y1 x n], oznaczają wektory przestrzeni R n, a yn] niech oznacza liczbę rzeczywistą. Wyrażenie x i p 5.3.1.a X p = p n i =1 nosi nazwę p-tej normy

Bardziej szczegółowo

Metody numeryczne. Równania nieliniowe. Janusz Szwabiński.

Metody numeryczne. Równania nieliniowe. Janusz Szwabiński. Metody numeryczne Równania nieliniowe Janusz Szwabiński szwabin@ift.uni.wroc.pl nm_slides-9.tex Metody numeryczne Janusz Szwabiński 7/1/2003 20:18 p.1/64 Równania nieliniowe 1. Równania nieliniowe z pojedynczym

Bardziej szczegółowo

Funkcje wielu zmiennych

Funkcje wielu zmiennych Funkcje wielu zmiennych Wykresy i warstwice funkcji wielu zmiennych. Granice i ciagłość funkcji wielu zmiennych. Pochodne czastkowe funkcji wielu zmiennych. Gradient. Pochodna kierunkowa. Różniczka zupełna.

Bardziej szczegółowo

1.3. Optymalizacja geometrii czasteczki

1.3. Optymalizacja geometrii czasteczki 0 1 Część teoretyczna 13 Optymalizacja geometrii czasteczki Poszukiwanie punktów stacjonarnych (krytycznych) funkcji stanowi niezwykle istotny problem w obliczeniowej chemii kwantowej Sprowadza się on

Bardziej szczegółowo

Rachunek różniczkowy funkcji dwóch zmiennych

Rachunek różniczkowy funkcji dwóch zmiennych Rachunek różniczkowy funkcji dwóch zmiennych Definicja Spis treści: Wykres Ciągłość, granica iterowana i podwójna Pochodne cząstkowe Różniczka zupełna Gradient Pochodna kierunkowa Twierdzenie Schwarza

Bardziej szczegółowo

METODY ROZWIĄZYWANIA RÓWNAŃ NIELINIOWYCH

METODY ROZWIĄZYWANIA RÓWNAŃ NIELINIOWYCH METODY ROZWIĄZYWANIA RÓWNAŃ NIELINIOWYCH Jednym z zastosowań metod numerycznych jest wyznaczenie pierwiastka lub pierwiastków równania nieliniowego. W tym celu stosuje się szereg metod obliczeniowych np:

Bardziej szczegółowo

Rozwiązywanie algebraicznych układów równań liniowych metodami iteracyjnymi. Plan wykładu:

Rozwiązywanie algebraicznych układów równań liniowych metodami iteracyjnymi. Plan wykładu: Rozwiązywanie algebraicznych układów równań liniowych metodami iteracynymi Plan wykładu: 1. Przykłady macierzy rzadkich i formaty ich zapisu 2. Metody: Jacobiego, Gaussa-Seidla, nadrelaksaci 3. Zbieżność

Bardziej szczegółowo

Wykład Matematyka A, I rok, egzamin ustny w sem. letnim r. ak. 2002/2003. Każdy zdający losuje jedno pytanie teoretyczne i jedno praktyczne.

Wykład Matematyka A, I rok, egzamin ustny w sem. letnim r. ak. 2002/2003. Każdy zdający losuje jedno pytanie teoretyczne i jedno praktyczne. Wykład Matematyka A, I rok, egzamin ustny w sem. letnim r. ak. 2002/2003. Każdy zdający losuje jedno pytanie teoretyczne i jedno praktyczne. pytania teoretyczne:. Co to znaczy, że wektory v, v 2 i v 3

Bardziej szczegółowo

Wybrane metody przybliżonego. wyznaczania rozwiązań (pierwiastków) równań nieliniowych

Wybrane metody przybliżonego. wyznaczania rozwiązań (pierwiastków) równań nieliniowych Wykład trzeci 1 Wybrane metody przybliżonego wyznaczania rozwiązań pierwiastków równań nieliniowych 2 Metody rozwiązywania równań nieliniowych = 0 jest unkcją rzeczywistą zmiennej rzeczywistej Rozwiązanie

Bardziej szczegółowo

Metody numeryczne II

Metody numeryczne II Metody numeryczne II Poszukiwanie ekstremów funkcji Janusz Szwabiński szwabin@ift.uni.wroc.pl Metody numeryczne II (C) 2004 Janusz Szwabiński p.1/55 Poszukiwanie ekstremów funkcji 1. Funkcje jednej zmiennej

Bardziej szczegółowo

PROGRAMOWANIE KWADRATOWE

PROGRAMOWANIE KWADRATOWE PROGRAMOWANIE KWADRATOWE Programowanie kwadratowe Zadanie programowania kwadratowego: Funkcja celu lub/i co najmniej jedno z ograniczeń jest funkcją kwadratową. 2 Programowanie kwadratowe Nie ma uniwersalnej

Bardziej szczegółowo

13. Funkcje wielu zmiennych pochodne, gradient, Jacobian, ekstrema lokalne.

13. Funkcje wielu zmiennych pochodne, gradient, Jacobian, ekstrema lokalne. 13. Funkcje wielu zmiennych pochodne, gradient, Jacobian, ekstrema lokalne. 1. Wprowadzenie. Dotąd rozważaliśmy funkcje działające z podzbioru liczb rzeczywistych w zbiór liczb rzeczywistych, zatem funkcje

Bardziej szczegółowo

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Metody optymalizacji Metody poszukiwania ekstremum funkcji jednej zmiennej Materiały pomocnicze do ćwiczeń

Bardziej szczegółowo

Rozwiązywanie układów równań liniowych

Rozwiązywanie układów równań liniowych Rozwiązywanie układów równań liniowych Marcin Orchel 1 Wstęp Jeśli znamy macierz odwrotną A 1, to możęmy znaleźć rozwiązanie układu Ax = b w wyniku mnożenia x = A 1 b (1) 1.1 Metoda eliminacji Gaussa Pierwszy

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 13. PROBLEMY OPTYMALIZACYJNE Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska PROBLEMY OPTYMALIZACYJNE Optymalizacja poszukiwanie

Bardziej szczegółowo

Bezgradientowe metody optymalizacji funkcji wielu zmiennych. informacje dodatkowe

Bezgradientowe metody optymalizacji funkcji wielu zmiennych. informacje dodatkowe Bezgradientowe metody optymalizacji funkcji wielu zmiennych informacje dodatkowe Wybór kierunku poszukiwań Kierunki bazowe i ich modyfikacje metody bezgradientowe. Kierunki oparte na gradiencie funkcji

Bardziej szczegółowo

Metoda gradientu prostego

Metoda gradientu prostego Metoda gradientu prostego Metoda gradientu prostego jest pojęciem z zakresu optymalizacji matematycznej. Jest to algorytm numeryczny mający na celu znalezienie minimum zadanej funkcji celu. Jest to jedna

Bardziej szczegółowo

jeśli nie jest spełnione kryterium zatrzymania, to nowym punktem roboczym x(t+1) staje i następuje przejście do 1)

jeśli nie jest spełnione kryterium zatrzymania, to nowym punktem roboczym x(t+1) staje i następuje przejście do 1) Metody automatycznej optymalizacji cz.i metody dwufazowe Święta Wielkanocne już za nami, tak więc bierzemy się wspólnie do pracy. Ostatnim razem dokonaliśmy charakterystyki zadań optymalizacji i wskazaliśmy

Bardziej szczegółowo

Uczenie sieci typu MLP

Uczenie sieci typu MLP Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik

Bardziej szczegółowo

Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji

Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji Adam Kiersztyn Lublin 2014 Adam Kiersztyn () Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji maj 2014 1 / 24 Zanim przejdziemy

Bardziej szczegółowo

Rozwiązywanie algebraicznych układów równań liniowych metodami iteracyjnymi

Rozwiązywanie algebraicznych układów równań liniowych metodami iteracyjnymi Rozwiązywanie algebraicznych układów równań liniowych metodami iteracyjnymi Plan wykładu: 1. Przykłady macierzy rzadkich i formaty ich zapisu 2. Metody: Jacobiego, Gaussa-Seidla, nadrelaksacji 3. Zbieżność

Bardziej szczegółowo

x y

x y Przykłady pytań na egzamin końcowy: (Uwaga! Skreślone pytania nie obowiązują w tym roku.). Oblicz wartość interpolacji funkcjami sklejanymi (przypadek (case) a), dla danych i =[- 4 5], y i =[0 4 -]. Jaka

Bardziej szczegółowo

Elementy metod numerycznych

Elementy metod numerycznych Wykład nr 5 i jej modyfikacje. i zera wielomianów Założenia metody Newtona Niech będzie dane równanie f (x) = 0 oraz przedział a, b taki, że w jego wnętrzu znajduje się dokładnie jeden pierwiastek α badanego

Bardziej szczegółowo

Wstęp do metod numerycznych 12. Minimalizacja: funkcje wielu zmiennych. P. F. Góra

Wstęp do metod numerycznych 12. Minimalizacja: funkcje wielu zmiennych. P. F. Góra Wstęp do metod numerycznych 12. Minimalizacja: funkcje wielu zmiennych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2015 Strategia minimalizacji wielowymiarowej Zakładamy, że metody poszukiwania minimów

Bardziej szczegółowo

Funkcje dwóch zmiennych

Funkcje dwóch zmiennych Maciej Grzesiak Instytut Matematyki Politechniki Poznańskiej Funkcje dwóch zmiennych 1. Funkcje dwóch zmiennych: pojęcia podstawowe Definicja 1. Funkcją dwóch zmiennych określoną na zbiorze A R 2 o wartościach

Bardziej szczegółowo

Interpolacja. Marcin Orchel. Drugi przypadek szczególny to interpolacja trygonometryczna

Interpolacja. Marcin Orchel. Drugi przypadek szczególny to interpolacja trygonometryczna Interpolacja Marcin Orchel 1 Wstęp Mamy daną funkcję φ (x; a 0,..., a n ) zależną od n + 1 parametrów a 0,..., a n. Zadanie interpolacji funkcji φ polega na określeniu parametrów a i tak aby dla n + 1

Bardziej szczegółowo

Wykład 5. Zagadnienia omawiane na wykładzie w dniu r

Wykład 5. Zagadnienia omawiane na wykładzie w dniu r Wykład 5. Zagadnienia omawiane na wykładzie w dniu 14.11.2018r Definicja (iloraz różnicowy) Niech x 0 R oraz niech funkcja f będzie określona przynajmnniej na otoczeniu O(x 0 ). Ilorazem różnicowym funkcji

Bardziej szczegółowo

W naukach technicznych większość rozpatrywanych wielkości możemy zapisać w jednej z trzech postaci: skalara, wektora oraz tensora.

W naukach technicznych większość rozpatrywanych wielkości możemy zapisać w jednej z trzech postaci: skalara, wektora oraz tensora. 1. Podstawy matematyki 1.1. Geometria analityczna W naukach technicznych większość rozpatrywanych wielkości możemy zapisać w jednej z trzech postaci: skalara, wektora oraz tensora. Skalarem w fizyce nazywamy

Bardziej szczegółowo

Pochodna funkcji. Pochodna funkcji w punkcie. Różniczka funkcji i obliczenia przybliżone. Zastosowania pochodnych. Badanie funkcji.

Pochodna funkcji. Pochodna funkcji w punkcie. Różniczka funkcji i obliczenia przybliżone. Zastosowania pochodnych. Badanie funkcji. Pochodna funkcji Pochodna funkcji w punkcie. Różniczka funkcji i obliczenia przybliżone. Zastosowania pochodnych. Badanie funkcji. Małgorzata Wyrwas Katedra Matematyki Wydział Informatyki Politechnika

Bardziej szczegółowo

8. Funkcje wielu zmiennych - pochodne cząstkowe

8. Funkcje wielu zmiennych - pochodne cząstkowe 8. Funkcje wielu zmiennych - pochodne cząstkowe Grzegorz Kosiorowski Uniwersytet Ekonomiczny w Krakowie lato 2015/2016 rzegorz Kosiorowski (Uniwersytet Ekonomiczny 8. Funkcje w Krakowie) wielu zmiennych

Bardziej szczegółowo

RÓŻNICZKOWANIE FUNKCJI WIELU ZMIENNYCH: rachunek pochodnych dla funkcji wektorowych. Pochodne cząstkowe funkcji rzeczywistej wielu zmiennych

RÓŻNICZKOWANIE FUNKCJI WIELU ZMIENNYCH: rachunek pochodnych dla funkcji wektorowych. Pochodne cząstkowe funkcji rzeczywistej wielu zmiennych RÓŻNICZKOWANIE FUNKCJI WIELU ZMIENNYCH: rachunek pochodnych dla funkcji wektorowych Pochodne cząstkowe funkcji rzeczywistej wielu zmiennych wyliczamy według wzoru (x, x 2,..., x n ) f(x, x 2,..., x n )

Bardziej szczegółowo

Programowanie liniowe metoda sympleks

Programowanie liniowe metoda sympleks Programowanie liniowe metoda sympleks Mirosław Sobolewski Wydział Matematyki, Informatyki i Mechaniki UW wykład z algebry liniowej Warszawa, styczeń 2009 Mirosław Sobolewski (UW) Warszawa, 2009 1 / 13

Bardziej szczegółowo

RÓWNANIA NIELINIOWE Maciej Patan

RÓWNANIA NIELINIOWE Maciej Patan RÓWNANIA NIELINIOWE Maciej Patan Uniwersytet Zielonogórski Przykład 1 Prędkość v spadającego spadochroniarza wyraża się zależnością v = mg ( 1 e c t) m c gdzie g = 9.81 m/s 2. Dla współczynnika oporu c

Bardziej szczegółowo

Kolejny krok iteracji polega na tym, że przechodzimy do następnego wierzchołka, znajdującego się na jednej krawędzi z odnalezionym już punktem, w

Kolejny krok iteracji polega na tym, że przechodzimy do następnego wierzchołka, znajdującego się na jednej krawędzi z odnalezionym już punktem, w Metoda Simpleks Jak wiadomo, problem PL z dowolną liczbą zmiennych można rozwiązać wyznaczając wszystkie wierzchołkowe punkty wielościanu wypukłego, a następnie porównując wartości funkcji celu w tych

Bardziej szczegółowo

INTERPOLACJA I APROKSYMACJA FUNKCJI

INTERPOLACJA I APROKSYMACJA FUNKCJI Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Wprowadzenie Na czym polega interpolacja? Interpolacja polega

Bardziej szczegółowo

Elementy Modelowania Matematycznego

Elementy Modelowania Matematycznego Elementy Modelowania Matematycznego Wykład 8 Programowanie nieliniowe Spis treści Programowanie nieliniowe Zadanie programowania nieliniowego Zadanie programowania nieliniowego jest identyczne jak dla

Bardziej szczegółowo

3. Interpolacja. Interpolacja w sensie Lagrange'a (3.1) Dana jest funkcja y= f x określona i ciągła w przedziale [a ;b], która

3. Interpolacja. Interpolacja w sensie Lagrange'a (3.1) Dana jest funkcja y= f x określona i ciągła w przedziale [a ;b], która 3. Interpolacja Interpolacja w sensie Lagrange'a (3.1) Dana jest funkcja y= f x określona i ciągła w przedziale [a ;b], która przyjmuje wartości y 1, y 2,, y n, dla skończonego zbioru argumentów x 1, x

Bardziej szczegółowo

Programowanie celowe #1

Programowanie celowe #1 Programowanie celowe #1 Problem programowania celowego (PC) jest przykładem problemu programowania matematycznego nieliniowego, który można skutecznie zlinearyzować, tzn. zapisać (i rozwiązać) jako problem

Bardziej szczegółowo

Matematyka II. Bezpieczeństwo jądrowe i ochrona radiologiczna Semestr letni 2018/2019 wykład 13 (27 maja)

Matematyka II. Bezpieczeństwo jądrowe i ochrona radiologiczna Semestr letni 2018/2019 wykład 13 (27 maja) Matematyka II Bezpieczeństwo jądrowe i ochrona radiologiczna Semestr letni 208/209 wykład 3 (27 maja) Całki niewłaściwe przedział nieograniczony Rozpatrujemy funkcje ciągłe określone na zbiorach < a, ),

Bardziej szczegółowo

2. Optymalizacja bez ograniczeń

2. Optymalizacja bez ograniczeń 2. Optymalizacja bez ograniczeń 1. Podaj definicję ścisłego minimum lokalnego zadania 2. Podaj definicję minimum lokalnego zadania 3. Podaj definicję ścisłego minimum globalnego zadania 4. Podaj definicję

Bardziej szczegółowo

ANALIZA MATEMATYCZNA Z ELEMENTAMI STATYSTYKI MATEMATYCZNEJ

ANALIZA MATEMATYCZNA Z ELEMENTAMI STATYSTYKI MATEMATYCZNEJ ANALIZA MATEMATYCZNA Z ELEMENTAMI STATYSTYKI MATEMATYCZNEJ FUNKCJE DWÓCH ZMIENNYCH RZECZYWISTYCH Definicja 1. Niech A będzie dowolnym niepustym zbiorem. Metryką w zbiorze A nazywamy funkcję rzeczywistą

Bardziej szczegółowo

Metody numeryczne rozwiązywania równań różniczkowych

Metody numeryczne rozwiązywania równań różniczkowych Metody numeryczne rozwiązywania równań różniczkowych Marcin Orchel Spis treści Wstęp. Metody przybliżone dla równań pierwszego rzędu................ Metoda kolejnych przybliżeń Picarda...................2

Bardziej szczegółowo

y f x 0 f x 0 x x 0 x 0 lim 0 h f x 0 lim x x0 - o ile ta granica właściwa istnieje. f x x2 Definicja pochodnych jednostronnych 1.5 0.

y f x 0 f x 0 x x 0 x 0 lim 0 h f x 0 lim x x0 - o ile ta granica właściwa istnieje. f x x2 Definicja pochodnych jednostronnych 1.5 0. Matematyka ZLic - 3 Pochodne i różniczki funkcji jednej zmiennej Definicja Pochodną funkcji f w punkcie x, nazwiemy liczbę oznaczaną symbolem f x lub df x dx, równą granicy właściwej f x lim h - o ile

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej

Bardziej szczegółowo

Ekstrema globalne funkcji

Ekstrema globalne funkcji SIMR 2013/14, Analiza 1, wykład 9, 2013-12-13 Ekstrema globalne funkcji Definicja: Funkcja f : D R ma w punkcie x 0 D minimum globalne wtedy i tylko (x D) f(x) f(x 0 ). Wartość f(x 0 ) nazywamy wartością

Bardziej szczegółowo

Wstęp do metod numerycznych 9a. Układy równań algebraicznych. P. F. Góra

Wstęp do metod numerycznych 9a. Układy równań algebraicznych. P. F. Góra Wstęp do metod numerycznych 9a. Układy równań algebraicznych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2012 Układy równań algebraicznych Niech g:r N równanie R N będzie funkcja klasy co najmniej

Bardziej szczegółowo

Metody numeryczne. materiały do wykładu dla studentów

Metody numeryczne. materiały do wykładu dla studentów Metody numeryczne materiały do wykładu dla studentów 5. Przybliżone metody rozwiązywania równań 5.1 Lokalizacja pierwiastków 5.2 Metoda bisekcji 5.3 Metoda iteracji 5.4 Metoda stycznych (Newtona) 5.5 Metoda

Bardziej szczegółowo

Komputerowa Analiza Danych Doświadczalnych

Komputerowa Analiza Danych Doświadczalnych Komputerowa Analiza Danych Doświadczalnych Prowadząca: dr inż. Hanna Zbroszczyk e-mail: gos@if.pw.edu.pl tel: +48 22 234 58 51 konsultacje: poniedziałek, 10-11; środa: 11-12 www: http://www.if.pw.edu.pl/~gos/students/kadd

Bardziej szczegółowo

Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych

Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych mgr inż. C. Dendek prof. nzw. dr hab. J. Mańdziuk Politechnika Warszawska, Wydział Matematyki i Nauk Informacyjnych Outline 1 Uczenie

Bardziej szczegółowo

Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa. P. F. Góra

Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa. P. F. Góra Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2012 Uwarunkowanie zadania numerycznego Niech ϕ : R n R m będzie pewna funkcja odpowiednio wiele

Bardziej szczegółowo

Aproksymacja. funkcji: ,a 2. ,...,a m. - są funkcjami bazowymi m+1 wymiarowej podprzestrzeni liniowej X m+1

Aproksymacja. funkcji: ,a 2. ,...,a m. - są funkcjami bazowymi m+1 wymiarowej podprzestrzeni liniowej X m+1 Założenie: f(x) funkcja którą aproksymujemy X jest przestrzenią liniową Aproksymacja liniowa funkcji f(x) polega na wyznaczeniu współczynników a 0,a 1,a 2,...,a m funkcji: Gdzie: - są funkcjami bazowymi

Bardziej szczegółowo

Zastosowania pochodnych

Zastosowania pochodnych Zastosowania pochodnych Zbigniew Koza Wydział Fizyki i Astronomii Wrocław, 2015 SZACOWANIE NIEPEWNOŚCI POMIAROWEJ Przykład: objętość kuli Kulka z łożyska tocznego ma średnicę 2,3 mm, co oznacza, że objętość

Bardziej szczegółowo

Programowanie liniowe metoda sympleks

Programowanie liniowe metoda sympleks Programowanie liniowe metoda sympleks Mirosław Sobolewski Wydział Matematyki, Informatyki i Mechaniki UW wykład z algebry liniowej Warszawa, styczeń 2012 Mirosław Sobolewski (UW) Warszawa, 2012 1 / 12

Bardziej szczegółowo

METODY NUMERYCZNE. Wykład 3. Plan. Aproksymacja Interpolacja wielomianowa Przykłady. dr hab.inż. Katarzyna Zakrzewska, prof.agh. Met.Numer.

METODY NUMERYCZNE. Wykład 3. Plan. Aproksymacja Interpolacja wielomianowa Przykłady. dr hab.inż. Katarzyna Zakrzewska, prof.agh. Met.Numer. METODY NUMERYCZNE Wykład 3. dr hab.inż. Katarzyna Zakrzewska, prof.agh Met.Numer. wykład 3 1 Plan Aproksymacja Interpolacja wielomianowa Przykłady Met.Numer. wykład 3 2 1 Aproksymacja Metody numeryczne

Bardziej szczegółowo

Metody Numeryczne w Budowie Samolotów/Śmigłowców Wykład I

Metody Numeryczne w Budowie Samolotów/Śmigłowców Wykład I Metody Numeryczne w Budowie Samolotów/Śmigłowców Wykład I dr inż. Tomasz Goetzendorf-Grabowski (tgrab@meil.pw.edu.pl) Dęblin, 11 maja 2009 1 Organizacja wykładu 5 dni x 6 h = 30 h propozycja zmiany: 6

Bardziej szczegółowo

Metoda Karusha-Kuhna-Tuckera

Metoda Karusha-Kuhna-Tuckera Badania operacyjne i teoria optymalizacji Poznań, 2015/2016 Plan 1 Sformułowanie problemu 2 3 Warunki ortogonalności 4 Warunki Karusha-Kuhna-Tuckera 5 Twierdzenia Karusha-Kuhna-Tuckera 6 Ograniczenia w

Bardziej szczegółowo

Z52: Algebra liniowa Zagadnienie: Zastosowania algebry liniowej Zadanie: Operatory różniczkowania, zagadnienie brzegowe.

Z52: Algebra liniowa Zagadnienie: Zastosowania algebry liniowej Zadanie: Operatory różniczkowania, zagadnienie brzegowe. Z5: Algebra liniowa Zagadnienie: Zastosowania algebry liniowej Zadanie: Operatory różniczkowania zagadnienie brzegowe Dyskretne operatory różniczkowania Numeryczne obliczanie pochodnych oraz rozwiązywanie

Bardziej szczegółowo

WYKŁADY Z MATEMATYKI DLA STUDENTÓW UCZELNI EKONOMICZNYCH

WYKŁADY Z MATEMATYKI DLA STUDENTÓW UCZELNI EKONOMICZNYCH WYKŁADY Z MATEMATYKI DLA STUDENTÓW UCZELNI EKONOMICZNYCH Pod redakcją Anny Piweckiej Staryszak Autorzy poszczególnych rozdziałów Anna Piwecka Staryszak: 2-13; 14.1-14.6; 15.1-15.4; 16.1-16.3; 17.1-17.6;

Bardziej szczegółowo

y i b) metoda różnic skończonych nadal problem nieliniowy 2 go rzędu z warunkiem Dirichleta

y i b) metoda różnic skończonych nadal problem nieliniowy 2 go rzędu z warunkiem Dirichleta b) metoda różnic skończonych nadal problem nieliniowy 2 go rzędu z warunkiem Dirichleta przedział (a,b) dzielimy na siatkę, powiedzmy o stałym kroku: punkty siatki: u A y i w metodzie strzałów używamy

Bardziej szczegółowo

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać układu równań liniowych Układ liniowych równań algebraicznych

Bardziej szczegółowo

n=0 (n + r)a n x n+r 1 (n + r)(n + r 1)a n x n+r 2. Wykorzystując te obliczenia otrzymujemy, że lewa strona równania (1) jest równa

n=0 (n + r)a n x n+r 1 (n + r)(n + r 1)a n x n+r 2. Wykorzystując te obliczenia otrzymujemy, że lewa strona równania (1) jest równa Równanie Bessela Będziemy rozważać następujące równanie Bessela x y xy x ν )y 0 ) gdzie ν 0 jest pewnym parametrem Rozwiązania równania ) nazywamy funkcjami Bessela rzędu ν Sprawdzamy, że x 0 jest regularnym

Bardziej szczegółowo