Optymalizacja (minimalizacja) funkcji. Plan wykładu: 1. Sformułowanie problemu, funkcja celu. 2. Metody bezgradientowe
|
|
- Dominik Stankiewicz
- 6 lat temu
- Przeglądów:
Transkrypt
1 Optymalizacja (minimalizacja) funkcji Plan wykładu: 1. Sformułowanie problemu, funkcja celu. Metody bezgradientowe a) metoda złotego podziału b) metoda sympleks c) metoda interpolacji Powell'a 3. Metody gradientowe a) metoda największego spadku b) metoda gradientów sprzężonych c) metoda Newtona 4. Minimalizacja z ograniczeniami: metoda funkcji kary zewnętrznej i wewnętrznej.
2 Sformułowanie problemu, definicje pomocnicze Przykład Zadaniem optymalizacji jest poszukiwanie minimum lub maksimum funkcji (wielu zmiennych). W praktyce problem sprowadza się do poszukiwania minimum czyli takiego punktu dla którego zachodzi Problem jednowymiarowy x [x1 ; x ; : : : ; xn ]T z warunkami x ) 0; gj (x j 1; ; : : : ; m x ) 0; hj (x j 1; ; : : : ; r Problem dwuwymiarowy Funkcje: f(,g(, h( są funkcjami skalarnymi. f( funkcja celu, celem jest znalezienie jej minimum (optymalizacja) g( i h( są funkcjami określającymi warunki jakie musi spełniać rozwiązanie (więzy) ograniczają przestrzeń dopuszczalnych rozwiązań
3 Gradient funkcji wektor gradientu Dla funkcji celu C f (x definiujemy funkcję wektorową będącą gradientem funkcji 3 minimum Rys. Przykład poszukiwania minimum z nałożonymi warunkami na rozwiązanie g (x x ) rf ( (x (x 5 Trzy przypadki: 1) Problem bez więzów oraz dla g(>0 minimum znajdujemy dla f(0 ) Jeśli warunkiem jest g(0 to minimum znajduje się w punkcie takim że f(1 3) Jeśli warunkiem jest g(<0 to rozwiązanie znajdziemy w pobliżu punktu w którym f(1 3
4 Hesjan (macierz Hessego) Minimum lokalne, minimum globalne oraz punkt siodłowy funkcji celu Dla funkcji celu C f (x a) Punkt x* stanowi minimum globalne funkcji jeśli definiujemy macierz (hesjan) której elementami są jej drugie pochodne cząstkowe H(x ½ @ @ ¾ b) Punkt x* stanowi minimum lokalne funkcji jeśli r f ::: ::: ::: ::: ::: ::: f " : " > 0; " R c) Punkt x µ ^ > f (x x ) f (x x x x k<" x :kx x0 y0 jest punktem siodłowym funkcji jeśli Macierz H( jest symetryczna implikacje numeryczne. 9 " : " > 0; " R ^ x x x0 k<" x :kx y y y0 k<" y :ky x; y 0 ) f (x x0 ; y 0 ) f (x x0 ; yy) f (x; 4
5 Minima lokalne Rys. Minima lokalne i minimum globalne Rys. Punkt siodłowy funkcji 5
6 Metoda złotego podziału (metoda jednowymiarowa) 1) Wstępnie wyznaczamy przedział [a,b] w którym spodziewamy się minimum wartości funkcji )W przedziale [a,b] wyznaczamy dwa punkty 1 i 3) Jeśli F ( ) > F ( 1 ) to zmieniamy granice przedziału na [a, ] 4) Jeśli F ( ) < F ( 1 ) to zmieniamy granice przedziału na [ 1,B] 5)Proces podziału prowadzimy iteracyjnie aż do spełnienia warunku jai bi j < " bi ai Rys. Wyznaczanie kolejnych przybliżeń w metodzie złotego podziału Pozostaje tylko kwestia jak wyznaczyć punkty tak aby wybór był optymalny tzn. chcemy wykonać jak najmniejszą ilość podziałów.
7 Pierwiastki równania Punktem wyjścia jest zależność ( 1 a) + (b 1 ) b 1 ' b 1 1 a b a L )b L+a L L + a 1 L + a 1 1 a r1 r p 5 1 0:18034 > 0 p 5 1 <0 Po wyborze rr1 możemy określić wartości 1 i zakładając ponadto, że oba punkty powinny być symetryczne względem krańców przedziału 1 a + r L a + rl L( 1 a) (L ( 1 a)) µ ( 1 a) ( 1 a) L 1 Lr L µ ( 1 a) b 1 L 1 Lr L Lr + Lr Lr 1 ) r +r 1 0 Lr Lr r
8 Metoda interpolacji kwadratowej Powell'a gdzie: F[ 0, 1] iloraz różnicowy 1 rzędu, F[ 0, 1, ] iloraz różnicowy rzędu Punkt m jest kolejnym przybliżeniem m Rys. Wyznaczanie przybliżonego rozwiązania w metodzie Powell'a. Przez trzy punkty: 1,, 3 przechodzi wielomian stopnia p ( ) F ( 0 ) + F [ 0 ; 1 ]( 0 ) + F [ 0 ; 1 ; ]( 0 )( 1 ) Z warunkiem na minimum dp d F [ 0 ; 1 ] + F [ 0 ; 1 ; ] F [ 0 ; 1 ; ]( ) F [ 0 ; 1 ; ]( ) F [ 0 ; 1 ] ¼ F [ 0 ; 1 ; ] Aby znaleziony punkt był rzeczywistym minimum, druga pochodna (F[ 0, 1, ]) musi spełniać warunek F [ 0 ; 1 ; ] > 0 Algorytm: 1) Wybierz 0 i oblicz F[ +h]<f[ ], F[ +h]<f[ +h] (ewentualnie zmień znak: -h, jeśli nierówności nie są spełnione) ) Wyznacz m i sprawdź czy jest minimum 3) Jeśli j m n j > h odrzuć najdalej położony od m punkt i ponownie wykonaj obliczenia z pkt.. n najbliżej położony punkt względem m Punkt m akceptujemy jako minimum jeśli j m n j < " 8
9 Metoda sympleks (Neldera-Meada) Rozwiązania poszukujemy iteracyjnie dążąc do znalezienia minimum fukcji poprzez obliczanie jej wartości w ściśle określonych punktach. Do wyznaczenia kierunków poszukiwań oraz punktów, w których oblicza się wartości funkcji wykorzystuje się obiekt zwany sympleksem. Sympleks jest to n-wymiarowy obiekt, stanowiący najmniejszy zbiór wypukły zawierający punkty p0 ; p 1 ; : : : ; p n będące jego wierzchołkami. Wierzchołki sympleksu tworzą tylko takie punkty, dla których zbiór wektorów fppi p 0 g jest liniowo niezależny (punkty nie są współliniowe). Przykład. Sympleksy w i w 3 wymiarach Sposób postępowania w jednej iteracji 1. wybieramy zestaw N+1 punktów startowych (N liczba wymiarów), np. w postaci p i p 0 + id i ; i 1; ; : : : ; n wektory di możemy przyjąć jako wersory układu kartezjańskiego d i e i ; i 1; ; : : : ; n Położenie p0 wybieramy arbitralnie, wartości i zależą od rozpatrywanego problemu.. Dla wszystkich wierzchołków obliczamy ciąg f (pp 0 ); f (pp1 ); : : : ; f (ppn ) i szukamy dwóch punktów odpowiednio dla największej i najmniejszej wartości funkcji p min p j () f (ppj ) f (ppi ); i 0; 1; : : : ; N pmax pj () f (ppj ) f (pp i ); i 0; 1; : : : ; N 3. Wyznaczamy środek ciężkości wierzchołków z wyłączeniem punktu pmax 1 X p~ pi n imax 9
10 4. Odbicie Wyznaczamy punkt podb leżący na linii łączacej środek ciężkości i wierzchołek pmax p odb p~ + (~ p p max ); [0; 1) Jeśli f (pp e ) < f (ppodb ) To wierzchołki nowego sympleksu tworzą poprzednie za wyjątkiem wierzchołka pmax który zastępujemy pe. W przeciwnym wypadku f (pp e ) f (ppodb ) wierzchołek pmax zastępujemy podb I jeśli zachodzi warunek f (pp min ) f (ppodb ) < f (ppmax ) to odbicie akceptujemy. W nowym sympleksie wierzchołek pmax zostaje zastąpiony przez podb. 5. Ekspansja Po odbiciu sprawdzamy też czy zachodzi warunek f (pp odb ) < f (ppmin ) Jeśli tak to wtedy zamiast podb wyznaczamy podb p~); > 1 e p~ + (p. Zawężenie Jeśli f (ppodb ) f (ppmax ) to należy wykonać tzw. zawężenie sympleksu. Wyznaczamy nowe przybliżenie podb p~ + (ppmax p~); (0; 1) 10
11 Jeśli zachodzi warunek f (pp z ) < f (pp max ) to wierzchołek pmax zastępujemy pz. Przy sprawdzaniu warunków akceptacji nowego wierzchołka sympleksu sprawdzamy też warunek stopu jako kryterium stopu przyjmując. Redukcja Jeśli max f (pp z ) f (pp max ) i0;1;:::;n dokonujemy redukcji sympleksu p i à ±(ppi + p min ); i 0; 1; : : : ; n; i min ± (0; 1) kppmin p i k < " Metoda sympleks jest mało efektywna, nierzadko potrzeba dużej liczby iteracji w celu znalezienia minimum funcji. 11
12 Kierunkowe metody poszukiwania minimum funkcji Możemy teraz wyrazić pochodną kierunkową funkcji celu w punkcie x dla kierunku u następująco df ( ) df (x T u u r f (x d d u Pochodna kierunkowa funkcji celu Różniczka zupełna dx x df dx1 + : : : + dxn r Jeśli wektor u wyznacza kierunek prostej łączącej punkty x i x' to są one ze sobą powiązane 0 u x ( ) x + u Dla bardzo małych zmian wartości możemy zapisać Jeśli korzystamy z pochodnej kierunkowej, to musimy ją wyliczać w każdej iteracji. Jak wykorzystać pochodną kierunkową do znalezienia minimum funkcji? Startując z określonego punktu x0 poszukujemy kolejnego przybliżenia tj. x1 w kierunku spadku wartości funkcji. W ten sposób wyznaczamy ciąg kolejnych przybliżeń x0 ; x1 ; x ; : : : x u d dx Na prostej łączącej (ustalone punkty) x i x' wartość funkcji celu zależna będzie od nowej zmiennej poszukiwanego minimum. Procedurę iteracyjną przerywamy, gdy spełniony jest jeden z warunków: a) 0 x + u u ) f (x F ( ) f (x Liczmy różniczkę zupełną dla funkcji celu zależnej od T x )u ud df df r f (x b) xi+1 x i k < " kx 0 r f (x c) w kolejnych iteracjach rośnie wartość xi+1 x i k kx co oznacza brak zbieżności 1
13 Metoda największego spadku Korzystamy z nierówności Schwartza x )u u kr rt f (x x )k ku uk kr rt f (x x )k min r T f (x Jeśli wektor kierunkowy wybierzemy w postaci 0 u rf (x r 0 rf (x x )k kr to będzie on wskazywał kierunek największego spadku. Rys. Gradient funkcji i kierunek poszukiwań w metodzie największego spadku. Korzystamy z pochodnej kierunkowej funkcji w punkcie x' 0 x ) df (x df (0) x )u u rt f (x d d Pochodna kierunkowa osiąga wtedy najmniejszą wartość df (0) r f (x rt f (x r min 00 d rf (x x )k kr 0 u Wektor kierunkowy u ma długość równą 1 uk 1 ku 13
14 Algorytm: 1) Wybierz x0 ) Iteracyjnie obliczaj r f (x xi 1 ) r u rf (x xi 1 )k kr i ui x i x i 1 + u xi 1 + iu i ) min f (x xi 1 + u ui) F ( i ) f (x 3) Warunki zakończenia obliczeń x i x i k < "1 kx Metoda największego spadku może być mało wydajna, jeśli kontur wartości funkcji celu jest wydłużony (elipsa). Pojawiają się wówczas częste zmiany kierunków poszukiwań zigzag. rf (x xi )k < " kr x i ) f (x xi 1 )j < "3 jf (x 14
15 f (x; y) 5 (x y) + (1 rf µ 10(x y)x + x 5x + 5y 15
16 Metoda największego spadku z optymalizacją parametru xi + u ui f (x; y) 5 (x y) + (1 xi + u (x ui xi + u u i ))T u i 0 (rf (x x i + u u i ) rf (x x i+1 ) u ui+1 rf (x u Ti+1 u i 0 Kierunki poszukiwań w dwóch kolejnych iteracjach są ortogonalne. Jest to duży problem w przypadku, gdy funkcja ma wydłużony kształt w jednym z kierunków (poziomice funkcji są równoległe w szerokim zakresie). 1
17 Metoda sprzężonego gradientu (CG) Algorytm CG Fletchera-Reevsa Metoda jest wydajna i dostarcza rozwiązania w skończonej liczbie kroków dla problemu w postaci 1) Wybieramy punkt startowy x0 Obliczamy iteracyjnie 1 x T Ax x + xt b + c f (x x i x i 1 + iu i kierunek poszukiwań: Dwa wektory są wzajemnie sprzężone jeśli rf (x x0 ) u 1 r a) i0 u; Avv ) 0 u T Avv (u gdzie: A jest macierzą dodatniookreśloną b) i1,,3..,n Jeśli ciąg wektorów u i Rn ; i 1; ; : : : ; n tworzą wektory wzajemnie sprzężone, to stanowią one bazę w przestrzeni R n i wówczas każdy wektor xi R n x ku k x 0 + k1 i ui ; Ax (u ui ; Au ui ) (u Wartość i wyznaczamy identycznie jak w metodzie największego spadku. Wektory ui wyznaczają bazę Aortogonalną. Parametr i rf (x xi )k kr i rf (x x i 1 )k kr można rozwinąć w tej bazie n X rf (x xi ) + iu i u i+1 r n X i1 iu i silnie ogranicza zmiany kierunku poszukiwania rozwiązania w kolejnej iteracji. 1
18 5 f (x; y) (x y) + (1 18
19 Metoda Newtona poszukiwania minimum funkcji kwadratowej w Rn W metodzie Newtona zakładamy Funkcję kwadratową definiujemy następująco gdzie: xi przybliżone rozwiązanie w i-tej iteracji 1 x T Ax x + xt b + c f (x gdzie: A jest pewną macierzą kwadratową oraz x ; b Rn cr Jeśli macierz A jest symetryczna to wówczas zachodzi oraz x xi + ± Korzystając z rozwinięcia funkcji w szereg Taylora możemy zapisać 0 x ) r f (x xi + ± ) r f (x xi ) + H(x x i )±± + O(k±± k ) r f (x Jeśli pominiemy wyrazy rzędu to xi ) + H(x xi )±± 0 r f (x W i-tej iteracji poprawiamy rozwiązanie, tj. x i+1 x i + ± x ) Ax x +b r f (x i ostatecznie A r f (x A H(x Jeśli A jest dodatniookreślona to rozwiązanie można łatwo znaleźć, ponieważ x ) Ax x +b 0 r f (x x A 1b xi )r rf (x xi) x i+1 x i H 1 (x Oczekujemy, że metoda Newtona będzie pracować również dla innych funkcji niż kwadratowe tj. gdy badaną funkcję celu można przybliżyć lokalnie funkcją kwadratową. Wadą metody jest konieczność wyznaczania hesjanu w każdym punkcie. Gdy ta staje się osobliwa wówczas metoda przestaje działać co może być spowodowane np. występowaniem błędów numerycznych. 19
20 Zastosujmy schemat do funkcji kwadratowej 1 x AT x + b T x + c f (x W pierwszej iteracji dostajemy x1 Czyli 5 (x y) + (1 µ 30x 10y + 10x H(x; y) 10x 5 f (x; y) x0 + b ) x 0 A 1 (Ax x 0 x 0 A 1b A 1b x1 x Zbieżność do minimum uzyskujemy w jednym kroku. Ale metoda ma wady: 1) Metoda nie zawsze jest zbieżna nawet w pobliżu minimum ) Wymaga znalezienia A-1 w każdej iteracji Rys. Metoda Newtona w połączeniu z metodą złotego podziału użytą w każdej iteracji. 0
21 Metoda funkcji kary Prosty przykład funkcji kary zewnętrznej Jeśli ograniczamy przestrzeń dopuszczalnych rozwiązań czyli nakładamy warunki np. lub x ) 0; gj (x j 1; ; : : : ; m x ) 0; hj (x j 1; ; : : : ; r to mamy do czynienia z problemem z ograniczeniami. Ograniczenia te chcemy wbudować w nasz algorytm w taki sposób aby znów problem stał się problemem bez ograniczeń bez konieczności sprawdzania warunków. S(x m X )) + (max(0; gj (x j1 r X ) (hj (x j1 Jeśli spełniony jest pierwszy warunek to pierwsza suma się zeruje. Podobnie jest dla drugiego przypadku. Wtedy 0 S(x czyli brak kary w przestrzeni rozwiązań dopuszczalnych. W pozostałym obszarze (na zewnątrz), wartość funkcji celu rośnie w kolejnych iteracjach a więc nie znajdziemy tam minimum. Metoda funkcji kary zewnętrznej Zmodyfikowana funkcja celu może nie być różniczkowalna ze względu na funkcję max() w definicji funkcji kary co eliminuje metody gradientowe przy poszukiwaniu minimum. Stosujemy zmodyfikowaną funkcję celu Sposób postępowania: x ) f (x + ci S(x Fi (x gdzie: S( jest funkcją kary, a ci współczynnikiem rosnącym w kolejnych iteracjach lim ci 1 i!1 (ci+1 ci ) 1) wybieramy punkt startowy x0 ) określamy ci oraz modyfikujemy funkcję celu 3) znajdujemy rozwiązanie x* przy użyciu wybranej metody 4) sprawdzamy przyjęty warunek stopu jak w metodzie bez ograniczeń 5) jeśli warunek stopu nie jest spełniony to wykonujemy kolejną iterację przyjmując x i x ; ci+1 a ci 1
22 Metoda funkcji kary wewnętrznej to xi )! 1 lim S(x i!1 Zakładamy że warunki ograniczające mają postać x ) 0; gj (x j 1; ; : : : ; m W każdej iteracji modyfikujemy funkcję celu wprowadzając funkcję kary S( f (x + ci S(x Fi (x z warunkiem dla współczynnika ci lim ci 0 i!1 (ci+1 a ci ; a (0; 1)) Własności funkcji kary wewnętrznej: a) x ) < 0; j 1; : : : ; m ) S(x > 0 gj (x b) jeśli dla ciągu przybliżeń x1 ; x ; : : : ; xi spełniony jest warunek xi ) < 0; j 1; : : : ; m; i 1; ; : : : gj (x oraz dla określonego j xi ) 0 lim gj (x i!1 Funkcja kary przyjmuje wartości dodatnie wewnątrz obszaru rozwiązań dopuszczalnych, a jej wartość gwałtownie rośnie przy zbliżaniu się do brzegu (bariera). Przykłady funkcji barierowych: S(x S(x Sposób postępowania: m X j1 m X 1 gj (x ) ln( gj (x j1 1) wybieramy punkt startowy x0 ) określamy ci oraz modyfikujemy funkcję celu 3) znajdujemy rozwiązanie x* przy użyciu wybranej metody 4) sprawdzamy przyjęty warunek stopu oraz dodatkowo sprawdzamy zgodność z warunkami ograniczającymi xi )j < " ci js(x 5) jeśli warunki stopu nie są spełnione to wykonujemy kolejną iterację przyjmując x i x ; ci+1 a ci
5. Metody stochastyczne (symulowane wyżarzanie, algorytmy genetyczne) -> metody Monte Carlo
Optymalizacja (minimalizacja) funkcji Plan wykładu: 1. Sformułowanie problemu, funkcja celu 2. Metody bezgradientowe a) metoda złotego podziału b) metoda sympleks c) metoda interpolacji Powell'a 3. Metody
Bardziej szczegółowoIX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych,
IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. Definicja 1.1. Niech D będzie podzbiorem przestrzeni R n, n 2. Odwzorowanie f : D R nazywamy
Bardziej szczegółowoPolitechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania
Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Metody optymalizacji Metody bezgradientowe optymalizacji bez ograniczeń Materiały pomocnicze do ćwiczeń
Bardziej szczegółowoKADD Minimalizacja funkcji
Minimalizacja funkcji Poszukiwanie minimum funkcji Foma kwadratowa Metody przybliżania minimum minimalizacja Minimalizacja w n wymiarach Metody poszukiwania minimum Otaczanie minimum Podział obszaru zawierającego
Bardziej szczegółowo1 Równania nieliniowe
1 Równania nieliniowe 1.1 Postać ogólna równania nieliniowego Często występującym, ważnym problemem obliczeniowym jest numeryczne poszukiwanie rozwiązań równań nieliniowych, np. algebraicznych (wielomiany),
Bardziej szczegółowo1 Metody rozwiązywania równań nieliniowych. Postawienie problemu
1 Metody rozwiązywania równań nieliniowych. Postawienie problemu Dla danej funkcji ciągłej f znaleźć wartości x, dla których f(x) = 0. (1) 2 Przedział izolacji pierwiastka Będziemy zakładać, że równanie
Bardziej szczegółowoWYKŁAD 9 METODY ZMIENNEJ METRYKI
WYKŁAD 9 METODY ZMIENNEJ METRYKI Kierunki sprzężone. Metoda Newtona Raphsona daje dobre przybliżenie najlepszego kierunku poszukiwań, lecz jest to okupione znacznym kosztem obliczeniowym zwykle postać
Bardziej szczegółowoKADD Minimalizacja funkcji
Minimalizacja funkcji n-wymiarowych Forma kwadratowa w n wymiarach Procedury minimalizacji Minimalizacja wzdłuż prostej w n-wymiarowej przestrzeni Metody minimalizacji wzdłuż osi współrzędnych wzdłuż kierunków
Bardziej szczegółowoZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ
ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ Maciej Patan Uniwersytet Zielonogórski WSTEP Zadanie minimalizacji bez ograniczeń f(ˆx) = min x R nf(x) f : R n R funkcja ograniczona z dołu Algorytm rozwiazywania Rekurencyjny
Bardziej szczegółowoWprowadzenie Metoda bisekcji Metoda regula falsi Metoda siecznych Metoda stycznych RÓWNANIA NIELINIOWE
Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać ogólna równania nieliniowego Zazwyczaj nie można znaleźć
Bardziej szczegółowoROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH
Transport, studia I stopnia Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać ogólna równania nieliniowego Często występującym, ważnym problemem obliczeniowym
Bardziej szczegółowoMetody numeryczne I Równania nieliniowe
Metody numeryczne I Równania nieliniowe Janusz Szwabiński szwabin@ift.uni.wroc.pl Metody numeryczne I (C) 2004 Janusz Szwabiński p.1/66 Równania nieliniowe 1. Równania nieliniowe z pojedynczym pierwiastkiem
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 4. Metody kierunków poprawy (metoda spadku wzdłuż gradientu) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 21.03.2019 1 / 41 Plan wykładu Minimalizacja
Bardziej szczegółowoRozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów.
Rozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów. Plan wykładu: 1. Wyznaczanie pojedynczych pierwiastków rzeczywistych równań nieliniowych metodami a) połowienia (bisekcji)
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 5. Metody kierunków poparwy (metoda Newtona-Raphsona, metoda gradientów sprzężonych) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.03.2019 1
Bardziej szczegółowoRozwiązywanie równań nieliniowych
Rozwiązywanie równań nieliniowych Marcin Orchel 1 Wstęp Przykłady wyznaczania miejsc zerowych funkcji f : f(ξ) = 0. Wyszukiwanie miejsc zerowych wielomianu n-tego stopnia. Wymiar tej przestrzeni wektorowej
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 1. Optymalizacja funkcji jednej zmiennej Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.02.2019 1 / 54 Plan wykładu Optymalizacja funkcji jednej
Bardziej szczegółowoUkłady równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona) f(x) = 0, gdzie. dla n=2 np.
Układy równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona f(x 0, f ( f, f,..., f n gdzie 2 x ( x, x 2,..., x n dla n2 np. f ( x, y 0 g( x, y 0 dla każdej wielowymiarowej rozwinięcie w szereg Taylora
Bardziej szczegółowoMetody Numeryczne Optymalizacja. Wojciech Szewczuk
Metody Numeryczne Optymalizacja Optymalizacja Definicja 1 Przez optymalizację będziemy rozumieć szukanie minimów lub maksimów funkcji. Optymalizacja Definicja 2 Optymalizacja lub programowanie matematyczne
Bardziej szczegółowoRozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów.
Rozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów. Plan wykładu: 1. Wyznaczanie pojedynczych pierwiastków rzeczywistych równań nieliniowych metodami a) połowienia (bisekcji)
Bardziej szczegółowo1 Funkcje dwóch zmiennych podstawowe pojęcia
1 Funkcje dwóch zmiennych podstawowe pojęcia Definicja 1 Funkcją dwóch zmiennych określoną na zbiorze A R 2 o wartościach w zbiorze R nazywamy przyporządkowanie każdemu punktowi ze zbioru A dokładnie jednej
Bardziej szczegółowoVIII. Zastosowanie rachunku różniczkowego do badania funkcji. 1. Twierdzenia o wartości średniej. Monotoniczność funkcji.
VIII. Zastosowanie rachunku różniczkowego do badania funkcji. 1. Twierdzenia o wartości średniej. Monotoniczność funkcji. Twierdzenie 1.1. (Rolle a) Jeżeli funkcja f jest ciągła w przedziale domkniętym
Bardziej szczegółowoMatematyka stosowana i metody numeryczne
Ewa Pabisek Adam Wosatko Piotr Pluciński Matematyka stosowana i metody numeryczne Konspekt z wykładu 6 Rozwiązywanie równań nieliniowych Rozwiązaniem lub pierwiastkiem równania f(x) = 0 lub g(x) = h(x)
Bardziej szczegółowoWstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych. P. F. Góra
Wstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2012 Strategia minimalizacji wielowymiarowej Zakładamy, że metody poszukiwania minimów
Bardziej szczegółowoII. FUNKCJE WIELU ZMIENNYCH
II. FUNKCJE WIELU ZMIENNYCH 1. Zbiory w przestrzeni R n Ustalmy dowolne n N. Definicja 1.1. Zbiór wszystkich uporzadkowanych układów (x 1,..., x n ) n liczb rzeczywistych, nazywamy przestrzenią n-wymiarową
Bardziej szczegółowoUKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH
Transport, studia I stopnia rok akademicki 2011/2012 Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Uwagi wstępne Układ liniowych równań algebraicznych można
Bardziej szczegółowoMETODY NUMERYCZNE. Wykład 4. Numeryczne rozwiązywanie równań nieliniowych z jedną niewiadomą. prof. dr hab.inż. Katarzyna Zakrzewska
METODY NUMERYCZNE Wykład 4. Numeryczne rozwiązywanie równań nieliniowych z jedną niewiadomą prof. dr hab.inż. Katarzyna Zakrzewska Met.Numer. Wykład 4 1 Rozwiązywanie równań nieliniowych z jedną niewiadomą
Bardziej szczegółowoCałkowanie numeryczne przy użyciu kwadratur
Całkowanie numeryczne przy użyciu kwadratur Plan wykładu: 1. Kwadratury Newtona-Cotesa a) wzory: trapezów, parabol etc. b) kwadratury złożone 2. Ekstrapolacja a) ekstrapolacja Richardsona b) metoda Romberga
Bardziej szczegółowoIteracyjne rozwiązywanie równań
Elementy metod numerycznych Plan wykładu 1 Wprowadzenie Plan wykładu 1 Wprowadzenie 2 Plan wykładu 1 Wprowadzenie 2 3 Wprowadzenie Metoda bisekcji Metoda siecznych Metoda stycznych Plan wykładu 1 Wprowadzenie
Bardziej szczegółowoFunkcje dwóch zmiennych
Funkcje dwóch zmiennych Andrzej Musielak Str Funkcje dwóch zmiennych Wstęp Funkcja rzeczywista dwóch zmiennych to funkcja, której argumentem jest para liczb rzeczywistych, a wartością liczba rzeczywista.
Bardziej szczegółowoKADD Metoda najmniejszych kwadratów funkcje nieliniowe
Metoda najmn. kwadr. - funkcje nieliniowe Metoda najmniejszych kwadratów Funkcje nieliniowe Procedura z redukcją kroku iteracji Przykłady zastosowań Dopasowanie funkcji wykładniczej Dopasowanie funkcji
Bardziej szczegółowoProgramowanie nieliniowe. Badania operacyjne Wykład 3 Metoda Lagrange a
Programowanie nieliniowe Badania operacyjne Wykład 3 Metoda Lagrange a Plan wykładu Przykład problemu z nieliniową funkcją celu Sformułowanie problemu programowania matematycznego Podstawowe definicje
Bardziej szczegółowoRozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów.
Rozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów. Plan wykładu: 1. Wyznaczanie pojedynczych pierwiastków rzeczywistych równań nieliniowych metodami a) połowienia (bisekcji)
Bardziej szczegółowoPrzegląd metod optymalizacji wielowymiarowej. Funkcja testowa. Funkcja testowa. Notes. Notes. Notes. Notes. Tomasz M. Gwizdałła
Przegląd metod optymalizacji wielowymiarowej Tomasz M. Gwizdałła 2012.12.06 Funkcja testowa Funkcją testową dla zagadnień rozpatrywanych w ramach tego wykładu będzie funkcja postaci f (x) = (x 1 1) 4 +
Bardziej szczegółowoMetody numeryczne II
Metody numeryczne II Poszukiwanie ekstremów funkcji Janusz Szwabiński szwabin@ift.uni.wroc.pl nmslides-13.tex Metody numeryczne II Janusz Szwabiński 29/5/2003 14:40 p.1/55 Poszukiwanie ekstremów funkcji
Bardziej szczegółowoMETODY NUMERYCZNE. Wykład 4. Numeryczne rozwiązywanie równań nieliniowych z jedną niewiadomą. Rozwiązywanie równań nieliniowych z jedną niewiadomą
METODY NUMERYCZNE Wykład 4. Numeryczne rozwiązywanie równań nieliniowych z jedną niewiadomą dr hab.inż. Katarzyna Zakrzewska, prof.agh Met.Numer. Wykład 4 1 Rozwiązywanie równań nieliniowych z jedną niewiadomą
Bardziej szczegółowoDefinicja pochodnej cząstkowej
1 z 8 gdzie punkt wewnętrzny Definicja pochodnej cząstkowej JeŜeli iloraz ma granicę dla to granicę tę nazywamy pochodną cząstkową funkcji względem w punkcie. Oznaczenia: Pochodną cząstkową funkcji względem
Bardziej szczegółowoMetody Rozmyte i Algorytmy Ewolucyjne
mgr inż. Wydział Matematyczno-Przyrodniczy Szkoła Nauk Ścisłych Uniwersytet Kardynała Stefana Wyszyńskiego Podstawy optymalizacji Plan prezentacji 1 Podstawy matematyczne 2 3 Eliminacja ograniczeń Metody
Bardziej szczegółowoMetody iteracyjne rozwiązywania układów równań liniowych (5.3) Normy wektorów i macierzy (5.3.1) Niech. x i. i =1
Normy wektorów i macierzy (5.3.1) Niech 1 X =[x x Y y =[y1 x n], oznaczają wektory przestrzeni R n, a yn] niech oznacza liczbę rzeczywistą. Wyrażenie x i p 5.3.1.a X p = p n i =1 nosi nazwę p-tej normy
Bardziej szczegółowoMetody numeryczne. Równania nieliniowe. Janusz Szwabiński.
Metody numeryczne Równania nieliniowe Janusz Szwabiński szwabin@ift.uni.wroc.pl nm_slides-9.tex Metody numeryczne Janusz Szwabiński 7/1/2003 20:18 p.1/64 Równania nieliniowe 1. Równania nieliniowe z pojedynczym
Bardziej szczegółowoFunkcje wielu zmiennych
Funkcje wielu zmiennych Wykresy i warstwice funkcji wielu zmiennych. Granice i ciagłość funkcji wielu zmiennych. Pochodne czastkowe funkcji wielu zmiennych. Gradient. Pochodna kierunkowa. Różniczka zupełna.
Bardziej szczegółowo1.3. Optymalizacja geometrii czasteczki
0 1 Część teoretyczna 13 Optymalizacja geometrii czasteczki Poszukiwanie punktów stacjonarnych (krytycznych) funkcji stanowi niezwykle istotny problem w obliczeniowej chemii kwantowej Sprowadza się on
Bardziej szczegółowoRachunek różniczkowy funkcji dwóch zmiennych
Rachunek różniczkowy funkcji dwóch zmiennych Definicja Spis treści: Wykres Ciągłość, granica iterowana i podwójna Pochodne cząstkowe Różniczka zupełna Gradient Pochodna kierunkowa Twierdzenie Schwarza
Bardziej szczegółowoMETODY ROZWIĄZYWANIA RÓWNAŃ NIELINIOWYCH
METODY ROZWIĄZYWANIA RÓWNAŃ NIELINIOWYCH Jednym z zastosowań metod numerycznych jest wyznaczenie pierwiastka lub pierwiastków równania nieliniowego. W tym celu stosuje się szereg metod obliczeniowych np:
Bardziej szczegółowoRozwiązywanie algebraicznych układów równań liniowych metodami iteracyjnymi. Plan wykładu:
Rozwiązywanie algebraicznych układów równań liniowych metodami iteracynymi Plan wykładu: 1. Przykłady macierzy rzadkich i formaty ich zapisu 2. Metody: Jacobiego, Gaussa-Seidla, nadrelaksaci 3. Zbieżność
Bardziej szczegółowoWykład Matematyka A, I rok, egzamin ustny w sem. letnim r. ak. 2002/2003. Każdy zdający losuje jedno pytanie teoretyczne i jedno praktyczne.
Wykład Matematyka A, I rok, egzamin ustny w sem. letnim r. ak. 2002/2003. Każdy zdający losuje jedno pytanie teoretyczne i jedno praktyczne. pytania teoretyczne:. Co to znaczy, że wektory v, v 2 i v 3
Bardziej szczegółowoWybrane metody przybliżonego. wyznaczania rozwiązań (pierwiastków) równań nieliniowych
Wykład trzeci 1 Wybrane metody przybliżonego wyznaczania rozwiązań pierwiastków równań nieliniowych 2 Metody rozwiązywania równań nieliniowych = 0 jest unkcją rzeczywistą zmiennej rzeczywistej Rozwiązanie
Bardziej szczegółowoMetody numeryczne II
Metody numeryczne II Poszukiwanie ekstremów funkcji Janusz Szwabiński szwabin@ift.uni.wroc.pl Metody numeryczne II (C) 2004 Janusz Szwabiński p.1/55 Poszukiwanie ekstremów funkcji 1. Funkcje jednej zmiennej
Bardziej szczegółowoPROGRAMOWANIE KWADRATOWE
PROGRAMOWANIE KWADRATOWE Programowanie kwadratowe Zadanie programowania kwadratowego: Funkcja celu lub/i co najmniej jedno z ograniczeń jest funkcją kwadratową. 2 Programowanie kwadratowe Nie ma uniwersalnej
Bardziej szczegółowo13. Funkcje wielu zmiennych pochodne, gradient, Jacobian, ekstrema lokalne.
13. Funkcje wielu zmiennych pochodne, gradient, Jacobian, ekstrema lokalne. 1. Wprowadzenie. Dotąd rozważaliśmy funkcje działające z podzbioru liczb rzeczywistych w zbiór liczb rzeczywistych, zatem funkcje
Bardziej szczegółowoPolitechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania
Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Metody optymalizacji Metody poszukiwania ekstremum funkcji jednej zmiennej Materiały pomocnicze do ćwiczeń
Bardziej szczegółowoRozwiązywanie układów równań liniowych
Rozwiązywanie układów równań liniowych Marcin Orchel 1 Wstęp Jeśli znamy macierz odwrotną A 1, to możęmy znaleźć rozwiązanie układu Ax = b w wyniku mnożenia x = A 1 b (1) 1.1 Metoda eliminacji Gaussa Pierwszy
Bardziej szczegółowoSZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 13. PROBLEMY OPTYMALIZACYJNE Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska PROBLEMY OPTYMALIZACYJNE Optymalizacja poszukiwanie
Bardziej szczegółowoBezgradientowe metody optymalizacji funkcji wielu zmiennych. informacje dodatkowe
Bezgradientowe metody optymalizacji funkcji wielu zmiennych informacje dodatkowe Wybór kierunku poszukiwań Kierunki bazowe i ich modyfikacje metody bezgradientowe. Kierunki oparte na gradiencie funkcji
Bardziej szczegółowoMetoda gradientu prostego
Metoda gradientu prostego Metoda gradientu prostego jest pojęciem z zakresu optymalizacji matematycznej. Jest to algorytm numeryczny mający na celu znalezienie minimum zadanej funkcji celu. Jest to jedna
Bardziej szczegółowojeśli nie jest spełnione kryterium zatrzymania, to nowym punktem roboczym x(t+1) staje i następuje przejście do 1)
Metody automatycznej optymalizacji cz.i metody dwufazowe Święta Wielkanocne już za nami, tak więc bierzemy się wspólnie do pracy. Ostatnim razem dokonaliśmy charakterystyki zadań optymalizacji i wskazaliśmy
Bardziej szczegółowoUczenie sieci typu MLP
Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik
Bardziej szczegółowoPochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji
Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji Adam Kiersztyn Lublin 2014 Adam Kiersztyn () Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji maj 2014 1 / 24 Zanim przejdziemy
Bardziej szczegółowoRozwiązywanie algebraicznych układów równań liniowych metodami iteracyjnymi
Rozwiązywanie algebraicznych układów równań liniowych metodami iteracyjnymi Plan wykładu: 1. Przykłady macierzy rzadkich i formaty ich zapisu 2. Metody: Jacobiego, Gaussa-Seidla, nadrelaksacji 3. Zbieżność
Bardziej szczegółowox y
Przykłady pytań na egzamin końcowy: (Uwaga! Skreślone pytania nie obowiązują w tym roku.). Oblicz wartość interpolacji funkcjami sklejanymi (przypadek (case) a), dla danych i =[- 4 5], y i =[0 4 -]. Jaka
Bardziej szczegółowoElementy metod numerycznych
Wykład nr 5 i jej modyfikacje. i zera wielomianów Założenia metody Newtona Niech będzie dane równanie f (x) = 0 oraz przedział a, b taki, że w jego wnętrzu znajduje się dokładnie jeden pierwiastek α badanego
Bardziej szczegółowoWstęp do metod numerycznych 12. Minimalizacja: funkcje wielu zmiennych. P. F. Góra
Wstęp do metod numerycznych 12. Minimalizacja: funkcje wielu zmiennych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2015 Strategia minimalizacji wielowymiarowej Zakładamy, że metody poszukiwania minimów
Bardziej szczegółowoFunkcje dwóch zmiennych
Maciej Grzesiak Instytut Matematyki Politechniki Poznańskiej Funkcje dwóch zmiennych 1. Funkcje dwóch zmiennych: pojęcia podstawowe Definicja 1. Funkcją dwóch zmiennych określoną na zbiorze A R 2 o wartościach
Bardziej szczegółowoInterpolacja. Marcin Orchel. Drugi przypadek szczególny to interpolacja trygonometryczna
Interpolacja Marcin Orchel 1 Wstęp Mamy daną funkcję φ (x; a 0,..., a n ) zależną od n + 1 parametrów a 0,..., a n. Zadanie interpolacji funkcji φ polega na określeniu parametrów a i tak aby dla n + 1
Bardziej szczegółowoWykład 5. Zagadnienia omawiane na wykładzie w dniu r
Wykład 5. Zagadnienia omawiane na wykładzie w dniu 14.11.2018r Definicja (iloraz różnicowy) Niech x 0 R oraz niech funkcja f będzie określona przynajmnniej na otoczeniu O(x 0 ). Ilorazem różnicowym funkcji
Bardziej szczegółowoW naukach technicznych większość rozpatrywanych wielkości możemy zapisać w jednej z trzech postaci: skalara, wektora oraz tensora.
1. Podstawy matematyki 1.1. Geometria analityczna W naukach technicznych większość rozpatrywanych wielkości możemy zapisać w jednej z trzech postaci: skalara, wektora oraz tensora. Skalarem w fizyce nazywamy
Bardziej szczegółowoPochodna funkcji. Pochodna funkcji w punkcie. Różniczka funkcji i obliczenia przybliżone. Zastosowania pochodnych. Badanie funkcji.
Pochodna funkcji Pochodna funkcji w punkcie. Różniczka funkcji i obliczenia przybliżone. Zastosowania pochodnych. Badanie funkcji. Małgorzata Wyrwas Katedra Matematyki Wydział Informatyki Politechnika
Bardziej szczegółowo8. Funkcje wielu zmiennych - pochodne cząstkowe
8. Funkcje wielu zmiennych - pochodne cząstkowe Grzegorz Kosiorowski Uniwersytet Ekonomiczny w Krakowie lato 2015/2016 rzegorz Kosiorowski (Uniwersytet Ekonomiczny 8. Funkcje w Krakowie) wielu zmiennych
Bardziej szczegółowoRÓŻNICZKOWANIE FUNKCJI WIELU ZMIENNYCH: rachunek pochodnych dla funkcji wektorowych. Pochodne cząstkowe funkcji rzeczywistej wielu zmiennych
RÓŻNICZKOWANIE FUNKCJI WIELU ZMIENNYCH: rachunek pochodnych dla funkcji wektorowych Pochodne cząstkowe funkcji rzeczywistej wielu zmiennych wyliczamy według wzoru (x, x 2,..., x n ) f(x, x 2,..., x n )
Bardziej szczegółowoProgramowanie liniowe metoda sympleks
Programowanie liniowe metoda sympleks Mirosław Sobolewski Wydział Matematyki, Informatyki i Mechaniki UW wykład z algebry liniowej Warszawa, styczeń 2009 Mirosław Sobolewski (UW) Warszawa, 2009 1 / 13
Bardziej szczegółowoRÓWNANIA NIELINIOWE Maciej Patan
RÓWNANIA NIELINIOWE Maciej Patan Uniwersytet Zielonogórski Przykład 1 Prędkość v spadającego spadochroniarza wyraża się zależnością v = mg ( 1 e c t) m c gdzie g = 9.81 m/s 2. Dla współczynnika oporu c
Bardziej szczegółowoKolejny krok iteracji polega na tym, że przechodzimy do następnego wierzchołka, znajdującego się na jednej krawędzi z odnalezionym już punktem, w
Metoda Simpleks Jak wiadomo, problem PL z dowolną liczbą zmiennych można rozwiązać wyznaczając wszystkie wierzchołkowe punkty wielościanu wypukłego, a następnie porównując wartości funkcji celu w tych
Bardziej szczegółowoINTERPOLACJA I APROKSYMACJA FUNKCJI
Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Wprowadzenie Na czym polega interpolacja? Interpolacja polega
Bardziej szczegółowoElementy Modelowania Matematycznego
Elementy Modelowania Matematycznego Wykład 8 Programowanie nieliniowe Spis treści Programowanie nieliniowe Zadanie programowania nieliniowego Zadanie programowania nieliniowego jest identyczne jak dla
Bardziej szczegółowo3. Interpolacja. Interpolacja w sensie Lagrange'a (3.1) Dana jest funkcja y= f x określona i ciągła w przedziale [a ;b], która
3. Interpolacja Interpolacja w sensie Lagrange'a (3.1) Dana jest funkcja y= f x określona i ciągła w przedziale [a ;b], która przyjmuje wartości y 1, y 2,, y n, dla skończonego zbioru argumentów x 1, x
Bardziej szczegółowoProgramowanie celowe #1
Programowanie celowe #1 Problem programowania celowego (PC) jest przykładem problemu programowania matematycznego nieliniowego, który można skutecznie zlinearyzować, tzn. zapisać (i rozwiązać) jako problem
Bardziej szczegółowoMatematyka II. Bezpieczeństwo jądrowe i ochrona radiologiczna Semestr letni 2018/2019 wykład 13 (27 maja)
Matematyka II Bezpieczeństwo jądrowe i ochrona radiologiczna Semestr letni 208/209 wykład 3 (27 maja) Całki niewłaściwe przedział nieograniczony Rozpatrujemy funkcje ciągłe określone na zbiorach < a, ),
Bardziej szczegółowo2. Optymalizacja bez ograniczeń
2. Optymalizacja bez ograniczeń 1. Podaj definicję ścisłego minimum lokalnego zadania 2. Podaj definicję minimum lokalnego zadania 3. Podaj definicję ścisłego minimum globalnego zadania 4. Podaj definicję
Bardziej szczegółowoANALIZA MATEMATYCZNA Z ELEMENTAMI STATYSTYKI MATEMATYCZNEJ
ANALIZA MATEMATYCZNA Z ELEMENTAMI STATYSTYKI MATEMATYCZNEJ FUNKCJE DWÓCH ZMIENNYCH RZECZYWISTYCH Definicja 1. Niech A będzie dowolnym niepustym zbiorem. Metryką w zbiorze A nazywamy funkcję rzeczywistą
Bardziej szczegółowoMetody numeryczne rozwiązywania równań różniczkowych
Metody numeryczne rozwiązywania równań różniczkowych Marcin Orchel Spis treści Wstęp. Metody przybliżone dla równań pierwszego rzędu................ Metoda kolejnych przybliżeń Picarda...................2
Bardziej szczegółowoy f x 0 f x 0 x x 0 x 0 lim 0 h f x 0 lim x x0 - o ile ta granica właściwa istnieje. f x x2 Definicja pochodnych jednostronnych 1.5 0.
Matematyka ZLic - 3 Pochodne i różniczki funkcji jednej zmiennej Definicja Pochodną funkcji f w punkcie x, nazwiemy liczbę oznaczaną symbolem f x lub df x dx, równą granicy właściwej f x lim h - o ile
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
Bardziej szczegółowoEkstrema globalne funkcji
SIMR 2013/14, Analiza 1, wykład 9, 2013-12-13 Ekstrema globalne funkcji Definicja: Funkcja f : D R ma w punkcie x 0 D minimum globalne wtedy i tylko (x D) f(x) f(x 0 ). Wartość f(x 0 ) nazywamy wartością
Bardziej szczegółowoWstęp do metod numerycznych 9a. Układy równań algebraicznych. P. F. Góra
Wstęp do metod numerycznych 9a. Układy równań algebraicznych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2012 Układy równań algebraicznych Niech g:r N równanie R N będzie funkcja klasy co najmniej
Bardziej szczegółowoMetody numeryczne. materiały do wykładu dla studentów
Metody numeryczne materiały do wykładu dla studentów 5. Przybliżone metody rozwiązywania równań 5.1 Lokalizacja pierwiastków 5.2 Metoda bisekcji 5.3 Metoda iteracji 5.4 Metoda stycznych (Newtona) 5.5 Metoda
Bardziej szczegółowoKomputerowa Analiza Danych Doświadczalnych
Komputerowa Analiza Danych Doświadczalnych Prowadząca: dr inż. Hanna Zbroszczyk e-mail: gos@if.pw.edu.pl tel: +48 22 234 58 51 konsultacje: poniedziałek, 10-11; środa: 11-12 www: http://www.if.pw.edu.pl/~gos/students/kadd
Bardziej szczegółowoZrównoleglona optymalizacja stochastyczna na dużych zbiorach danych
Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych mgr inż. C. Dendek prof. nzw. dr hab. J. Mańdziuk Politechnika Warszawska, Wydział Matematyki i Nauk Informacyjnych Outline 1 Uczenie
Bardziej szczegółowoWstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa. P. F. Góra
Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2012 Uwarunkowanie zadania numerycznego Niech ϕ : R n R m będzie pewna funkcja odpowiednio wiele
Bardziej szczegółowoAproksymacja. funkcji: ,a 2. ,...,a m. - są funkcjami bazowymi m+1 wymiarowej podprzestrzeni liniowej X m+1
Założenie: f(x) funkcja którą aproksymujemy X jest przestrzenią liniową Aproksymacja liniowa funkcji f(x) polega na wyznaczeniu współczynników a 0,a 1,a 2,...,a m funkcji: Gdzie: - są funkcjami bazowymi
Bardziej szczegółowoZastosowania pochodnych
Zastosowania pochodnych Zbigniew Koza Wydział Fizyki i Astronomii Wrocław, 2015 SZACOWANIE NIEPEWNOŚCI POMIAROWEJ Przykład: objętość kuli Kulka z łożyska tocznego ma średnicę 2,3 mm, co oznacza, że objętość
Bardziej szczegółowoProgramowanie liniowe metoda sympleks
Programowanie liniowe metoda sympleks Mirosław Sobolewski Wydział Matematyki, Informatyki i Mechaniki UW wykład z algebry liniowej Warszawa, styczeń 2012 Mirosław Sobolewski (UW) Warszawa, 2012 1 / 12
Bardziej szczegółowoMETODY NUMERYCZNE. Wykład 3. Plan. Aproksymacja Interpolacja wielomianowa Przykłady. dr hab.inż. Katarzyna Zakrzewska, prof.agh. Met.Numer.
METODY NUMERYCZNE Wykład 3. dr hab.inż. Katarzyna Zakrzewska, prof.agh Met.Numer. wykład 3 1 Plan Aproksymacja Interpolacja wielomianowa Przykłady Met.Numer. wykład 3 2 1 Aproksymacja Metody numeryczne
Bardziej szczegółowoMetody Numeryczne w Budowie Samolotów/Śmigłowców Wykład I
Metody Numeryczne w Budowie Samolotów/Śmigłowców Wykład I dr inż. Tomasz Goetzendorf-Grabowski (tgrab@meil.pw.edu.pl) Dęblin, 11 maja 2009 1 Organizacja wykładu 5 dni x 6 h = 30 h propozycja zmiany: 6
Bardziej szczegółowoMetoda Karusha-Kuhna-Tuckera
Badania operacyjne i teoria optymalizacji Poznań, 2015/2016 Plan 1 Sformułowanie problemu 2 3 Warunki ortogonalności 4 Warunki Karusha-Kuhna-Tuckera 5 Twierdzenia Karusha-Kuhna-Tuckera 6 Ograniczenia w
Bardziej szczegółowoZ52: Algebra liniowa Zagadnienie: Zastosowania algebry liniowej Zadanie: Operatory różniczkowania, zagadnienie brzegowe.
Z5: Algebra liniowa Zagadnienie: Zastosowania algebry liniowej Zadanie: Operatory różniczkowania zagadnienie brzegowe Dyskretne operatory różniczkowania Numeryczne obliczanie pochodnych oraz rozwiązywanie
Bardziej szczegółowoWYKŁADY Z MATEMATYKI DLA STUDENTÓW UCZELNI EKONOMICZNYCH
WYKŁADY Z MATEMATYKI DLA STUDENTÓW UCZELNI EKONOMICZNYCH Pod redakcją Anny Piweckiej Staryszak Autorzy poszczególnych rozdziałów Anna Piwecka Staryszak: 2-13; 14.1-14.6; 15.1-15.4; 16.1-16.3; 17.1-17.6;
Bardziej szczegółowoy i b) metoda różnic skończonych nadal problem nieliniowy 2 go rzędu z warunkiem Dirichleta
b) metoda różnic skończonych nadal problem nieliniowy 2 go rzędu z warunkiem Dirichleta przedział (a,b) dzielimy na siatkę, powiedzmy o stałym kroku: punkty siatki: u A y i w metodzie strzałów używamy
Bardziej szczegółowoUKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH
Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać układu równań liniowych Układ liniowych równań algebraicznych
Bardziej szczegółowon=0 (n + r)a n x n+r 1 (n + r)(n + r 1)a n x n+r 2. Wykorzystując te obliczenia otrzymujemy, że lewa strona równania (1) jest równa
Równanie Bessela Będziemy rozważać następujące równanie Bessela x y xy x ν )y 0 ) gdzie ν 0 jest pewnym parametrem Rozwiązania równania ) nazywamy funkcjami Bessela rzędu ν Sprawdzamy, że x 0 jest regularnym
Bardziej szczegółowo