Wstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych. P. F. Góra
|
|
- Monika Wiśniewska
- 6 lat temu
- Przeglądów:
Transkrypt
1 Wstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych P. F. Góra
2 Strategia minimalizacji wielowymiarowej Zakładamy, że metody poszukiwania minimów lokalnych fukncji jednej zmiennej sa znane. Rozważmy funkcję f:r N R. Przedstawimy strategię poszukiwania (lokalnego) minimum tej funkcji w postaci ciagu minimalizacji jednowymiarowych. Copyright c P. F. Góra 11 2
3 1. Aktualnym przybliżeniem minimum jest punkt x k. 2. Wybieramy pewien kierunek poszukiwań p k. 3. Konstruujemy funkcję g k :R R g k (α) = f(x k + αp k ). (1) Zauważmy, że funkcja g k (α) jest funkcja jednej zmiennej. Geometrycznie jest to ślad N +1-wymiarowego wykresu funkcji f(x) przeciętego płaszczyzna zawierajac a punkt x k i wektor p k. 4. Znanymi metodami jednowymiarowymi znajdujemy α min takie, że funkcja (1) osiaga minimum. Jest to minimum kierunkowe funkcji f goto 1. x k+1 = x k + α min p k. (2) Copyright c P. F. Góra 11 3
4 Jak wybierać kierunki poszukiwań? Cały problem sprowadza się zatem do wyboru odpowiedniej sekwencji kolejnych kierunków {p k }. Bardzo popularne sa metody Minimalizacji po współrzędnych kolejnymi kierunkami poszukiwań sa kierunki równoległe do kolejnych osi układu współrzędnych. Metoda najszybszego spadku, w której kierunek poszukiwań pokrywa się z minus gradientem minimalizowanej funkcji w punkcie startowym. Jeśli jesteśmy blisko minimum nie sa to dobre pomysły, gdyż prowadza do wielu drobnych kroków, które częściowo likwiduja efekty osiagnięte w krokach poprzednich. Dlaczego? Copyright c P. F. Góra 11 4
5 Znajdźmy warunek na to, aby f osiagała minimum kierunkowe, czyli aby g k osiagała minimum: dg k dα = i f x i (p k ) i = ( f x=xmin ) T pk = 0. (3) W minimum kierunkowym gradient funkcji jest prostopadły do kierunku poszukiwań. Widać stad natychmiast, że krok minimalizacji w metodzie najszybszego spadku co prawda zaczyna się prostopadle do poziomnic funkcji, ale kończy się stycznie do poziomnic. Dodatkowo w minimalizacji po współrzędnych kolejne kierunki poszukiwań, czyli tutaj kolejne współrzędne, nie zależa od kształtu minimalizowanej funkcji; taka strategia nie może być optymalna. Copyright c P. F. Góra 11 5
6 Przykład minimalizacja po współrzędnych Dużo małych kroków Copyright c P. F. Góra 11 6
7 Przykład metoda najszybszego spadku Wyglada lepiej, ale kroków prawie tyle samo Copyright c P. F. Góra 11 7
8 Przybliżenie formy kwadratowej Przypuśćmy, że jesteśmy dostatecznie blisko minimum. Rozwijamy minimalizowana funkcję w szereg Taylora wokół minimum i otrzymujemy f(x) 1 2 xt Ax b T x + f 0, (4) gdzie A jest macierza drugich pochodnych czastkowych (hessjanem) obliczanym w minimum. Z definicji minimum, macierz ta jest dodatnio określona, jeśli zaś funkcja jest dostatecznie gładka, macierz ta jest symetryczna. Zatem w pobliżu minimum, funkcja w przybliżeniu zachowuje się jak dodatnio określona forma kwadratowa. Copyright c P. F. Góra 11 8
9 Gradienty sprzężone W przybliżeniu (4) gradient funkcji f w punkcie x k wynosi f x=xk = Ax k b. (5) Kolejne poszukiwania odbywaja się w kierunku p k+1. w pewnym nowym punkcie x = x k + αp k+1 wynosi Gradient funkcji Zmiana gradientu wynosi f x = Ax k + αap k+1 b. (6) δ ( f) = αap k+1. (7) Copyright c P. F. Góra 11 9
10 Punkt x k jest minimum kierunkowym w kierunku p k, a więc gradient funkcji w tym punkcie spełnia warunek (3). Jeżeli chcemy aby poszukiwania w nowym kierunku nie zepsuły minimum kierunkowego w kierunku p k, zmiana gradientu musi być prostopadła do starego kierunku poszukiwań, δ ( f) T p k = 0. Tak jednak musi być dla wszystkich poprzednich kierunków, nie chcemy bowiem naruszyć żadnego z poprzednich minimów kierunkowych. A zatem p T i Ap j = 0, i > j. (8) Metodę wybierania kierunków poszukiwań spełniajacych (8) nazywamy metoda gradientów sprzężonych. Copyright c P. F. Góra 11 10
11 Jak się obejść bez hessjanu? Z jednego z poprzednich wykładów znamy algebraiczna metodę gradientów sprzężonych, wydaje się zatem, iż moglibyśmy jej użyć do skonstruowania ciagu wektorów {p k }. Niestety, nie możemy, nie znamy bowiem macierzy A, czyli hessjanu w minimum. Czy możemy się bez tego obejść? Twierdzenie 1. Niech f ma postać (4) i niech r k = f xk. Z punktu x k idziemy w kierunku p k do punktu, w którym f osiaga minimum kierunkowe. Oznaczmy ten punkt x k+1. Wówczas r k+1 = f xk+1 jest tym samym wektorem, który zostałby skonstruowany w algebraicznej metodzie gradientów sprzężonych. Copyright c P. F. Góra 11 11
12 Dowód. Na podstawie równania (5), r k = Ax k + b oraz r k+1 = A(x k + αp k ) + b = r k αap k. (9) W minimum kierunkowym p T k f x k+1 = p T k r k+1 = 0 (por. (3)). Wobec tego mnożac równanie (9) lewostronnie przez p T k, otrzymujemy α = pt k r k p T k Ap k. (10) Ponieważ w algebraicznej metodzie gradientów sprzężonych r T k p k = r T k r k, otrzymujemy dokładnie takie samo α jak we wzorach na metodę algebraiczna, co kończy dowód. Copyright c P. F. Góra 11 12
13 Algorytm gradientów sprzężonych Rozpoczynamy w pewnym punkcie x 1. Bierzemy r 1 = p 1 = f x1. 1. Będac w punkcie x k, dokonujemy minimalizacji kierunkowej w kierunku p k ; osiagamy punkt x k Obliczamy r k+1 = f xk Obliczamy (jak w metodzie algebraicznej) β = rt k+1 r k+1 r T k r k. (11) 4. Obliczamy (jak w metodzie algebraicznej) p k+1 = r k+1 + βp k. Copyright c P. F. Góra 11 13
14 Zamiast używać równania (11), można skorzystać z β = rt k+1 (r k+1 r k ) r T k r k. (12) Jeżeli funkcja f ma ściśle postać (4), nie ma to znaczenia, gdyż r T k+1 r k = 0. Ponieważ jednak f jest tylko w przybliżeniu forma kwadratowa, (12) może przyspieszyć obliczenia gdy grozi stagnacja. Copyright c P. F. Góra 11 14
15 Przykład metoda gradientów sprzężonych Tylko dwa kroki! Drugi krok nie jest prostopadły do pierwszego, ale jest z nim sprzężony. Copyright c P. F. Góra 11 15
16 Metoda zmiennej metryki Formalna konieczność rozwiazywania równania f = 0 sugeruje zastosowanie następujacego algorytmu opartego na metodzie Newtona: x i+1 = x i H 1 f xi, (13) gdzie H oznacza macierz drugich pochodnych czastkowych funkcji f wyliczanych w punkcie x i (aktualnym). Copyright c P. F. Góra 11 16
17 W pobliżu minimum f ma w przybliżeniu postać (4). Wówczas położenie minimum możemy znaleźć formalnie w jednym kroku jako x min x i = A 1 f xi, (14) gdzie A jest hessjanem w minimum. Zauważmy, że aby krok Newtona w istocie prowadził do zmniejszenia się wartości funkcji, musi zachodzić (x x i ) T f xi < 0, czyli (x x i ) T A(x x i ) < 0 (15) co jest spełnione, jeżeli A jest dodatnio określone. Copyright c P. F. Góra 11 17
18 Wreszcie jeśli x i, x i+1 sa kolejnymi krokami iteracji prowadzacej do minimalizacji, oddejmujac odpowiednie równania (14) od siebie dostajemy x i+1 x i = A 1 ( f xi+1 f xi ). (16) Ale my wciaż nie znamy A. Celem metody zmiennej metryki jest wobec tego skonstruowanie pewnego ciagu przybliżeń hessjanu zamiast równania (16) mamy x i+1 x i = H i+1 ( f xi+1 f xi ). (17) Copyright c P. F. Góra 11 18
19 W powyższym równaniu H i oznaczaja kolejne przybliżenia hessjanu w minimum. Przyliżenia te musza spełniać 1. H i jest symetryczne i dodatnio określone. 2. Zachodzi lim H i = A 1. (18) i Jeśli nie mamy żadnego lepszego pomysłu, możemy przyjać H 1 = I. Metoda ma formalnie postać x i+1 = x i H i f xi. (19) Copyright c P. F. Góra 11 19
20 Konstruowanie kolejnych H i DFP updating formula: H i+1 = H i + (x i+1 x i )(x i+1 x i ) T (x i+1 x i ) T ( f xi+1 f xi ) [ Hi ( f xi+1 f x i )] [ Hi ( f xi+1 f x i )] T ( f xi+1 f x i ) T Hi ( f xi+1 f x i ). (20) Copyright c P. F. Góra 11 20
21 BFGS updating formula: H i+1 = + ( f xi+1 f xi ) T Hi ( f xi+1 f xi ) uu T, u = x i+1 x i (x i+1 x i ) T ( f xi+1 f xi ) (21a) H i ( f xi+1 f xi ) ( f xi+1 f x i ) T Hi ( f xi+1 f x i ), (21b) gdzie kropki oznaczaja cała formułę DFP. Copyright c P. F. Góra 11 21
22 Własności metody zmiennej metryki Można pokazać, że H i modyfikowane tak według formuły DFP, jak i BFGS 1. Jest symetryczne i dodatnio określone, jeśli tylko H 1 jest symetryczne i dodatnio określone. 2. Spełnia warunek (17). 3. Spełnia (18). 4. Dodatkowo, jeśli f jest forma kwadratowa (4), H i N+1 A 1 w arytmetyce dokładnej. Copyright c P. F. Góra 11 22
23 Metoda Levenberga-Marquardta Tak metoda gradientów sprzężonych, jak i metoda zmiennej metryki, sa dostosowane do przypadku, w którym funkcja jest z dobrym przybliżeniem postaci (4), a więc gdy jesteśmy dostatecznie blisko poszukiwanego minimum. Jednak daleko od minimum metody te sa powolne trudno oczekiwać, że wzory słuszne dla formy kwadratowej będa dobrze działać gdy funkcja forma kwadratowa nie jest. Daleko od minimum jest sens stosować metodę najszybszego spadku. Powinniśmy zatem mieć metodę, która daleko od minimum zachowuje się jak najszybszy spadek, blisko zaś minimum redukuje się do zmiennej metryki (lub gradientów sprzężonych). Copyright c P. F. Góra 11 23
24 Powróćmy do algorytmu opartego na metodzie Newtona (13): x i+1 = x i H 1 (x i ) f xi, Daleko od minimum hessjan nie musi być nawet dodatnio określony, co powoduje, iż krok newtonowski wcale nie musi prowadzić do spadku wartości funkcji (por. (15)). My jednak chcemy aby wartość funkcji w kolejnych krokach spadała. Zmodyfikujmy więc hessjan: przy czym λ 0. H ii = (1 + λ) 2 f x 2, (22a) i H ij = 2 f, i j, (22b) x i x j Copyright c P. F. Góra 11 24
25 Zauważmy, że zachodzi jedna z dwu możliwych sytuacji: (i) jeśli znajdujemy się w basenie atrakcji minimum, wówczas dla odpowiednio dużego λ macierz (22) stanie się dodatnio określona lub też (ii) jeśli dla żadnego dodatniego λ macierz (22) nie staje się dodatnio określona, znajdujemy się na monotonicznej gałęzi funkcji, poza basenem atrakcji minimum. Rozpoczynamy z jakimś niewielkim λ, na przykład λ = λ 0 = 2 10 = 1/1024. Przypuśćmy, iż aktualnym przybliżeniem minimum jest punkt x i. Dostajemy zatem... verte Copyright c P. F. Góra 11 25
26 Algorytm Levenberga-Marquardta 1. Oblicz f(x i ). 2. Oblicz H(x i ). 3. Oblicz x test = x i H 1 (x i ) f(x i ). (23) 4. Jeżeli f(x test ) > f(x i ), to (a) λ 8λ (można też powiększać o inny znaczny czynnik). (b) Idź do punktu Jeżeli f(x test ) < f(x i ), to (a) λ λ/8 (można też zmniejszać o inny znaczny czynnik). (b) x i+1 = x test. (c) Idź do punktu 1. Copyright c P. F. Góra 11 26
27 Komentarz Dodatkowo, jeśli λ > λ max 1, uznajemy, iż znajdujemy się poza basenem atrakcji minimum i algorytm zawodzi. Jeśli natomiast λ < λ min 1, macierz H jest w praktyce równa hessjanowi, a zatem modyfikacja (22) przestaje być potrzebna. Możemy wówczas przerzucić się na metodę gradientów sprzężonych lub metodę zmiennej metryki aby wykorzystać ich szybka zbieżność w pobliżu minimum, gdzie funkcja ma postać (4). Ponadto w celu przyspieszenia obliczeń, jeżeli f(x test ) < f(x i ), możemy chwilowo zrezygnować ze zmniejszania λ i modyfikowania H i przeprowadzić kilka kroków z ta sama macierza, a więc korzystajac z tej samej faktoryzacji. Copyright c P. F. Góra 11 27
28 Zauważmy, iż przypadek λ 1 oznacza, iż jesteśmy daleko od minimum. Z drugiej strony jeśli λ 1, macierz H staje się w praktyce diagonalna, a zatem x test x i (1 + λ) 1 diag ( 2 f x 2 1 ) 1, ( 2 ) 1 ( f 2 f,..., x 2 2 x 2 N ) 1 f(x i) x i const f(x i ), (24) o ile drugie pochodne czastkowe w poszczególnych kierunkach nie różnia się znacznie od siebie. Widać, iż daleko od minimum, gdzie warunek zachowujacy raz osiagnięte minima kierunkowe nie zachodzi, algorytm Levenberga-Marquardta zachowuje się prawie jak metoda najszybszego spadku. Copyright c P. F. Góra 11 28
29 Przykład funkcja Rosenbrocka 1600 Rosenbrock function z = (1-x) (y-x 2 ) y x Funkcja Rosenbrocka f(x, y) = (1 x) (y x 2 ) 2 jest przykładem funkcji, w której daleko od minimum metody gradientów sprzężonych i zmiennej metryki nie zapewniaja szybkiej zbieżności. Copyright c P. F. Góra 11 29
30 Metoda Powella Wszystkie omówione wyżej metody wymagały obliczania pochodnych (gradientu) funkcji f(x). Co jednak zrobić, jeśli obliczenie pochodnych jest kosztowne, niemożliwe lub funkcja jest nieróżniczkowalna? Zasadnicza strategia postępowania minimalizacja kierunkowa, wybór nowego kierunku etc pozostaje w mocy, zmienia się tylko sposób wyboru kolejnych kierunków. Metoda Powella polega na konstrukcji kierunków, które z czasem, po wielu iteracjach, staja się sprzężone. Copyright c P. F. Góra 11 30
31 Inicjalizujemy biorac {p i } N i=1 = {e i} N i=1, gdzie {e i} N i=1 s a kolejnymi wersorami (innymi słowy, zaczynamy od minimalizacji po współrzędnych). Następnie 1. Znajdujemy się w pewnym punkcie X Minimalizujemy wzdłuż kolejnych kierunków p i, osiagaj ac kolejno punkty X i. 3. Dla i = 1,..., N 1: p i = p i p N = X N X Minimalizujemy wzdłuż (nowego) p N, oznaczajac znaleziony punkt przez X GOTO 1 Jeśli badana funkcja jest rozwijalna w szereg Taylora wokół minimum, po N iteracjach powyższej procedury kierunki {p i } N i=1 staj a się sprzężone. Copyright c P. F. Góra 11 31
32 Przykład metoda Powella Mniej kroków niż w minimalizacji po współrzędnych. W większej liczbie wymiarów byłoby jeszcze lepiej. Copyright c P. F. Góra 11 32
Wstęp do metod numerycznych 12. Minimalizacja: funkcje wielu zmiennych. P. F. Góra
Wstęp do metod numerycznych 12. Minimalizacja: funkcje wielu zmiennych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2015 Strategia minimalizacji wielowymiarowej Zakładamy, że metody poszukiwania minimów
Wstęp do metod numerycznych 12. Minimalizacja: funkcje wielu zmiennych. P. F. Góra
Wstęp do metod numerycznych 12. Minimalizacja: funkcje wielu zmiennych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2018 Strategia minimalizacji wielowymiarowej Zakładamy, że metody poszukiwania minimów
P. F. Góra.
Komputerowa analiza zagadnień różniczkowych 10. Dygresje matematycze: Metody iteracyjne rozwiazywania układów równań liniowych, minimalizacja wielowymiarowa i układy równań algebraicznych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/
Komputerowa analiza zagadnień różniczkowych 2. Metoda gradientów sprzężonych Minimalizacja i układy równań algebraicznych
Komputerowa analiza zagadnień różniczkowych 2. Metoda gradientów sprzężonych Minimalizacja i układy równań algebraicznych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ semestr letni 2007/08 Metoda gradientów
KADD Minimalizacja funkcji
Minimalizacja funkcji n-wymiarowych Forma kwadratowa w n wymiarach Procedury minimalizacji Minimalizacja wzdłuż prostej w n-wymiarowej przestrzeni Metody minimalizacji wzdłuż osi współrzędnych wzdłuż kierunków
Optymalizacja ciągła
Optymalizacja ciągła 5. Metody kierunków poparwy (metoda Newtona-Raphsona, metoda gradientów sprzężonych) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.03.2019 1
Wstęp do metod numerycznych 9a. Układy równań algebraicznych. P. F. Góra
Wstęp do metod numerycznych 9a. Układy równań algebraicznych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2012 Układy równań algebraicznych Niech g:r N równanie R N będzie funkcja klasy co najmniej
Optymalizacja ciągła
Optymalizacja ciągła 4. Metody kierunków poprawy (metoda spadku wzdłuż gradientu) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 21.03.2019 1 / 41 Plan wykładu Minimalizacja
KADD Minimalizacja funkcji
Minimalizacja funkcji Poszukiwanie minimum funkcji Foma kwadratowa Metody przybliżania minimum minimalizacja Minimalizacja w n wymiarach Metody poszukiwania minimum Otaczanie minimum Podział obszaru zawierającego
Wstęp do metod numerycznych Algebraiczna metoda gradientów sprzężonych. P. F. Góra
Wstęp do metod numerycznych Algebraiczna metoda gradientów sprzężonych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2015 Metoda gradientów sprzężonych motywacja Rozważmy funcję f : R N R f(x) = 1 2
WYKŁAD 9 METODY ZMIENNEJ METRYKI
WYKŁAD 9 METODY ZMIENNEJ METRYKI Kierunki sprzężone. Metoda Newtona Raphsona daje dobre przybliżenie najlepszego kierunku poszukiwań, lecz jest to okupione znacznym kosztem obliczeniowym zwykle postać
UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH
Transport, studia I stopnia rok akademicki 2011/2012 Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Uwagi wstępne Układ liniowych równań algebraicznych można
ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH
Transport, studia I stopnia Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać ogólna równania nieliniowego Często występującym, ważnym problemem obliczeniowym
ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ
ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ Maciej Patan Uniwersytet Zielonogórski WSTEP Zadanie minimalizacji bez ograniczeń f(ˆx) = min x R nf(x) f : R n R funkcja ograniczona z dołu Algorytm rozwiazywania Rekurencyjny
Wstęp do metod numerycznych Rozwiazywanie równań algebraicznych. P. F. Góra
Wstęp do metod numerycznych Rozwiazywanie równań algebraicznych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2010 Co to znaczy rozwiazać równanie? Przypuśmy, że postawiono przed nami problem rozwiazania
IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych,
IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. Definicja 1.1. Niech D będzie podzbiorem przestrzeni R n, n 2. Odwzorowanie f : D R nazywamy
Wstęp do metod numerycznych 9. Minimalizacja: funkcje jednej zmiennej. P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/
Wstęp do metod numerycznych 9. Minimalizacja: funkcje jednej zmiennej P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2011 Lokalna minimalizacja ciagła Minimalizacja funkcji jest jedna z najważniejszych
Metody numeryczne I Równania nieliniowe
Metody numeryczne I Równania nieliniowe Janusz Szwabiński szwabin@ift.uni.wroc.pl Metody numeryczne I (C) 2004 Janusz Szwabiński p.1/66 Równania nieliniowe 1. Równania nieliniowe z pojedynczym pierwiastkiem
Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa. P. F. Góra
Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2012 Uwarunkowanie zadania numerycznego Niech ϕ : R n R m będzie pewna funkcja odpowiednio wiele
Funkcje wielu zmiennych
Funkcje wielu zmiennych Wykresy i warstwice funkcji wielu zmiennych. Granice i ciagłość funkcji wielu zmiennych. Pochodne czastkowe funkcji wielu zmiennych. Gradient. Pochodna kierunkowa. Różniczka zupełna.
Optymalizacja (minimalizacja) funkcji. Plan wykładu: 1. Sformułowanie problemu, funkcja celu. 2. Metody bezgradientowe
Optymalizacja (minimalizacja) funkcji Plan wykładu: 1. Sformułowanie problemu, funkcja celu. Metody bezgradientowe a) metoda złotego podziału b) metoda sympleks c) metoda interpolacji Powell'a 3. Metody
Układy równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona) f(x) = 0, gdzie. dla n=2 np.
Układy równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona f(x 0, f ( f, f,..., f n gdzie 2 x ( x, x 2,..., x n dla n2 np. f ( x, y 0 g( x, y 0 dla każdej wielowymiarowej rozwinięcie w szereg Taylora
Iteracyjne rozwiązywanie równań
Elementy metod numerycznych Plan wykładu 1 Wprowadzenie Plan wykładu 1 Wprowadzenie 2 Plan wykładu 1 Wprowadzenie 2 3 Wprowadzenie Metoda bisekcji Metoda siecznych Metoda stycznych Plan wykładu 1 Wprowadzenie
1 Równania nieliniowe
1 Równania nieliniowe 1.1 Postać ogólna równania nieliniowego Często występującym, ważnym problemem obliczeniowym jest numeryczne poszukiwanie rozwiązań równań nieliniowych, np. algebraicznych (wielomiany),
1 Metody rozwiązywania równań nieliniowych. Postawienie problemu
1 Metody rozwiązywania równań nieliniowych. Postawienie problemu Dla danej funkcji ciągłej f znaleźć wartości x, dla których f(x) = 0. (1) 2 Przedział izolacji pierwiastka Będziemy zakładać, że równanie
Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 4. Równania różniczkowe zwyczajne podstawy teoretyczne
Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 4. Równania różniczkowe zwyczajne podstawy teoretyczne P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ semestr letni 2005/06 Wstęp
Matematyka stosowana i metody numeryczne
Ewa Pabisek Adam Wosatko Piotr Pluciński Matematyka stosowana i metody numeryczne Konspekt z wykładu 6 Rozwiązywanie równań nieliniowych Rozwiązaniem lub pierwiastkiem równania f(x) = 0 lub g(x) = h(x)
1 Pochodne wyższych rzędów
1 Pochodne wyższych rzędów Definicja 1.1 (Pochodne cząstkowe drugiego rzędu) Niech f będzie odwzorowaniem o wartościach w R m, określonym na zbiorze G R k. Załóżmy, że zbiór tych x G, dla których istnieje
Wprowadzenie Metoda bisekcji Metoda regula falsi Metoda siecznych Metoda stycznych RÓWNANIA NIELINIOWE
Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać ogólna równania nieliniowego Zazwyczaj nie można znaleźć
Wykład Matematyka A, I rok, egzamin ustny w sem. letnim r. ak. 2002/2003. Każdy zdający losuje jedno pytanie teoretyczne i jedno praktyczne.
Wykład Matematyka A, I rok, egzamin ustny w sem. letnim r. ak. 2002/2003. Każdy zdający losuje jedno pytanie teoretyczne i jedno praktyczne. pytania teoretyczne:. Co to znaczy, że wektory v, v 2 i v 3
Wstęp do metod numerycznych Metody iteracyjne Algebraiczna metoda gradientów sprzężonych. P. F. Góra
Wstęp do metod numerycznych Metody iteracyjne Algebraiczna metoda gradientów sprzężonych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2017 Metody iteracyjne Rozwiazanie układu równań liniowych, uzyskane
METODY NUMERYCZNE. Wykład 4. Numeryczne rozwiązywanie równań nieliniowych z jedną niewiadomą. prof. dr hab.inż. Katarzyna Zakrzewska
METODY NUMERYCZNE Wykład 4. Numeryczne rozwiązywanie równań nieliniowych z jedną niewiadomą prof. dr hab.inż. Katarzyna Zakrzewska Met.Numer. Wykład 4 1 Rozwiązywanie równań nieliniowych z jedną niewiadomą
UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH
Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać układu równań liniowych Układ liniowych równań algebraicznych
Wykład 14. Elementy algebry macierzy
Wykład 14 Elementy algebry macierzy dr Mariusz Grządziel 26 stycznia 2009 Układ równań z dwoma niewiadomymi Rozważmy układ równań z dwoma niewiadomymi: a 11 x + a 12 y = h 1 a 21 x + a 22 y = h 2 a 11,
Wstęp do metod numerycznych Metody iteracyjne i metoda gradientów. P. F. Góra
Wstęp do metod numerycznych Metody iteracyjne i metoda gradientów sprzężonych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2012 Metody iteracyjne W metodach dokładnych otrzymane rozwiazanie jest dokładne
Wstęp do metod numerycznych 11. Minimalizacja: funkcje jednej zmiennej. P. F. Góra
Wstęp do metod numerycznych 11. Minimalizacja: funkcje jednej zmiennej P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2015 Lokalna minimalizacja ciagła Minimalizacja funkcji jest jedna z najważniejszych
Rozwiązywanie równań nieliniowych
Rozwiązywanie równań nieliniowych Marcin Orchel 1 Wstęp Przykłady wyznaczania miejsc zerowych funkcji f : f(ξ) = 0. Wyszukiwanie miejsc zerowych wielomianu n-tego stopnia. Wymiar tej przestrzeni wektorowej
Metody numeryczne. Równania nieliniowe. Janusz Szwabiński.
Metody numeryczne Równania nieliniowe Janusz Szwabiński szwabin@ift.uni.wroc.pl nm_slides-9.tex Metody numeryczne Janusz Szwabiński 7/1/2003 20:18 p.1/64 Równania nieliniowe 1. Równania nieliniowe z pojedynczym
Optymalizacja ciągła
Optymalizacja ciągła 1. Optymalizacja funkcji jednej zmiennej Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.02.2019 1 / 54 Plan wykładu Optymalizacja funkcji jednej
II. FUNKCJE WIELU ZMIENNYCH
II. FUNKCJE WIELU ZMIENNYCH 1. Zbiory w przestrzeni R n Ustalmy dowolne n N. Definicja 1.1. Zbiór wszystkich uporzadkowanych układów (x 1,..., x n ) n liczb rzeczywistych, nazywamy przestrzenią n-wymiarową
Wstęp do metod numerycznych Zagadnienia wstępne Uwarunkowanie. P. F. Góra
Wstęp do metod numerycznych Zagadnienia wstępne Uwarunkowanie P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2014 Sposoby reprezentacji liczb całkowitych i rzeczywistych patrz wykład z Teoretycznych Podstaw
Metody numeryczne II
Metody numeryczne II Poszukiwanie ekstremów funkcji Janusz Szwabiński szwabin@ift.uni.wroc.pl nmslides-13.tex Metody numeryczne II Janusz Szwabiński 29/5/2003 14:40 p.1/55 Poszukiwanie ekstremów funkcji
Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji
Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji Adam Kiersztyn Lublin 2014 Adam Kiersztyn () Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji maj 2014 1 / 24 Zanim przejdziemy
2. Definicja pochodnej w R n
2. Definicja pochodnej w R n Niech będzie dana funkcja f : U R określona na zbiorze otwartym U R n. Pochodną kierunkową w punkcie a U w kierunku wektora u R n nazywamy granicę u f(a) = lim t 0 f(a + tu)
Metody numeryczne II
Metody numeryczne II Poszukiwanie ekstremów funkcji Janusz Szwabiński szwabin@ift.uni.wroc.pl Metody numeryczne II (C) 2004 Janusz Szwabiński p.1/55 Poszukiwanie ekstremów funkcji 1. Funkcje jednej zmiennej
Wstęp do metod numerycznych Eliminacja Gaussa Równania macierzowe. P. F. Góra
Wstęp do metod numerycznych Eliminacja Gaussa Równania macierzowe P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2015 Co można zrobić z układem równań... tak, aby jego rozwiazania się nie zmieniły? Rozważam
Wstęp do metod numerycznych 9. Rozwiazywanie równań algebraicznych. P. F. Góra
Wstęp do metod numerycznych 9. Rozwiazywanie równań algebraicznych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2015 Co to znaczy rozwiazać równanie? Przypuśmy, że postawiono przed nami problem rozwiazania
Optymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
3. Funkcje wielu zmiennych
3 Funkcje wielu zmiennych 31 Ciagłość Zanim podamy definicję ciagłości dla funkcji wielu zmiennych wprowadzimy bardzo ogólne i abstrakcyjne pojęcie przestrzeni metrycznej Przestrzeń metryczna Metryka w
dr Mariusz Grządziel 15,29 kwietnia 2014 Przestrzeń R k R k = R R... R k razy Elementy R k wektory;
Wykłady 8 i 9 Pojęcia przestrzeni wektorowej i macierzy Układy równań liniowych Elementy algebry macierzy dodawanie, odejmowanie, mnożenie macierzy; macierz odwrotna dr Mariusz Grządziel 15,29 kwietnia
METODY NUMERYCZNE. Wykład 4. Numeryczne rozwiązywanie równań nieliniowych z jedną niewiadomą. Rozwiązywanie równań nieliniowych z jedną niewiadomą
METODY NUMERYCZNE Wykład 4. Numeryczne rozwiązywanie równań nieliniowych z jedną niewiadomą dr hab.inż. Katarzyna Zakrzewska, prof.agh Met.Numer. Wykład 4 1 Rozwiązywanie równań nieliniowych z jedną niewiadomą
Formy kwadratowe. Rozdział 10
Rozdział 10 Formy kwadratowe Rozważmy rzeczywistą macierz symetryczną A R n n Definicja 101 Funkcję h : R n R postaci h (x) = x T Ax (101) nazywamy formą kwadratową Macierz symetryczną A występującą w
Z52: Algebra liniowa Zagadnienie: Zastosowania algebry liniowej Zadanie: Operatory różniczkowania, zagadnienie brzegowe.
Z5: Algebra liniowa Zagadnienie: Zastosowania algebry liniowej Zadanie: Operatory różniczkowania zagadnienie brzegowe Dyskretne operatory różniczkowania Numeryczne obliczanie pochodnych oraz rozwiązywanie
Wstęp do metod numerycznych Faktoryzacja QR i SVD. P. F. Góra
Wstęp do metod numerycznych Faktoryzacja QR i SVD P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2012 Transformacja Householdera Niech u R N, u 0. Tworzymy macierz W sposób oczywisty P T = P. Obliczmy
Wstęp do metod numerycznych SVD, metody iteracyjne i metoda gradientów. P. F. Góra
Wstęp do metod numerycznych SVD, metody iteracyjne i metoda gradientów sprzężonych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2011 Współczynnik uwarunkowania macierzy symetrycznej Twierdzenie 1. Niech
III. Układy liniowe równań różniczkowych. 1. Pojęcie stabilności rozwiązań.
III. Układy liniowe równań różniczkowych. 1. Pojęcie stabilności rozwiązań. Analiza stabilności rozwiązań stanowi ważną część jakościowej teorii równań różniczkowych. Jej istotą jest poszukiwanie odpowiedzi
jeśli nie jest spełnione kryterium zatrzymania, to nowym punktem roboczym x(t+1) staje i następuje przejście do 1)
Metody automatycznej optymalizacji cz.i metody dwufazowe Święta Wielkanocne już za nami, tak więc bierzemy się wspólnie do pracy. Ostatnim razem dokonaliśmy charakterystyki zadań optymalizacji i wskazaliśmy
KADD Metoda najmniejszych kwadratów funkcje nieliniowe
Metoda najmn. kwadr. - funkcje nieliniowe Metoda najmniejszych kwadratów Funkcje nieliniowe Procedura z redukcją kroku iteracji Przykłady zastosowań Dopasowanie funkcji wykładniczej Dopasowanie funkcji
Zaawansowane metody numeryczne
Wykład 11 Ogólna postać metody iteracyjnej Definicja 11.1. (metoda iteracyjna rozwiązywania układów równań) Metodą iteracyjną rozwiązywania { układów równań liniowych nazywamy ciąg wektorów zdefiniowany
Metody iteracyjne rozwiązywania układów równań liniowych (5.3) Normy wektorów i macierzy (5.3.1) Niech. x i. i =1
Normy wektorów i macierzy (5.3.1) Niech 1 X =[x x Y y =[y1 x n], oznaczają wektory przestrzeni R n, a yn] niech oznacza liczbę rzeczywistą. Wyrażenie x i p 5.3.1.a X p = p n i =1 nosi nazwę p-tej normy
5. Metody stochastyczne (symulowane wyżarzanie, algorytmy genetyczne) -> metody Monte Carlo
Optymalizacja (minimalizacja) funkcji Plan wykładu: 1. Sformułowanie problemu, funkcja celu 2. Metody bezgradientowe a) metoda złotego podziału b) metoda sympleks c) metoda interpolacji Powell'a 3. Metody
Komputerowa analiza zagadnień różniczkowych 3. Numeryczne zagadnienie własne
Komputerowa analiza zagadnień różniczkowych 3. Numeryczne zagadnienie własne P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ semestr letni 2007/08 Wektory i wartości własne definicje Niech A C N N. Jeżeli
Rozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów.
Rozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów. Plan wykładu: 1. Wyznaczanie pojedynczych pierwiastków rzeczywistych równań nieliniowych metodami a) połowienia (bisekcji)
Metody Numeryczne Optymalizacja. Wojciech Szewczuk
Metody Numeryczne Optymalizacja Optymalizacja Definicja 1 Przez optymalizację będziemy rozumieć szukanie minimów lub maksimów funkcji. Optymalizacja Definicja 2 Optymalizacja lub programowanie matematyczne
Komputerowa analiza zagadnień różniczkowych 3. Metody Eulera, metody punktu środkowego i metody trapezowe
Komputerowa analiza zagadnień różniczkowych 3. Metody Eulera, metody punktu środkowego i metody trapezowe P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2011 Problem Cauchy ego dy dx = f(x, y) (1) y(x
Komputerowa analiza zagadnień różniczkowych 3. Metody Eulera, metody punktu środkowego i metody trapezowe
Komputerowa analiza zagadnień różniczkowych 3. Metody Eulera, metody punktu środkowego i metody trapezowe P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2010 Problem Cauchy ego dy dx = f(x, y) (1) y(x
1.3. Optymalizacja geometrii czasteczki
0 1 Część teoretyczna 13 Optymalizacja geometrii czasteczki Poszukiwanie punktów stacjonarnych (krytycznych) funkcji stanowi niezwykle istotny problem w obliczeniowej chemii kwantowej Sprowadza się on
Matematyka z el. statystyki, # 4 /Geodezja i kartografia I/
Matematyka z el. statystyki, # 4 /Geodezja i kartografia I/ dr n. mat. Zdzisław Otachel Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Akademicka 15, p.211a, bud. Agro
Macierze. Rozdział Działania na macierzach
Rozdział 5 Macierze Funkcję, która każdej parze liczb naturalnych (i, j) (i 1,..., n; j 1,..., m) przyporządkowuje dokładnie jedną liczbę a ij F, gdzie F R lub F C, nazywamy macierzą (rzeczywistą, gdy
Komputerowa analiza zagadnień różniczkowych 10. Dwupunktowe problemy brzegowe (BVP, Boundary Value Problems)
Komputerowa analiza zagadnień różniczkowych 10. Dwupunktowe problemy brzegowe (BVP, Boundary Value Problems) P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ semestr letni 2007/08 Wprowadzenie Rozważmy
Metody Rozmyte i Algorytmy Ewolucyjne
mgr inż. Wydział Matematyczno-Przyrodniczy Szkoła Nauk Ścisłych Uniwersytet Kardynała Stefana Wyszyńskiego Podstawy optymalizacji Plan prezentacji 1 Podstawy matematyczne 2 3 Eliminacja ograniczeń Metody
VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa.
VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa. W rozdziale tym zajmiemy się dokładniej badaniem stabilności rozwiązań równania różniczkowego. Pojęcie stabilności w
Wstęp do metod numerycznych Zadania numeryczne 2016/17 1
Wstęp do metod numerycznych Zadania numeryczne /7 Warunkiem koniecznym (nie wystarczającym) uzyskania zaliczenia jest rozwiązanie co najmniej 3 z poniższych zadań, przy czym zadania oznaczone literą O
1 Funkcje dwóch zmiennych podstawowe pojęcia
1 Funkcje dwóch zmiennych podstawowe pojęcia Definicja 1 Funkcją dwóch zmiennych określoną na zbiorze A R 2 o wartościach w zbiorze R nazywamy przyporządkowanie każdemu punktowi ze zbioru A dokładnie jednej
Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 5. Terminologia. Metody Eulera, metody punktu środkowego i metody trapezowe
Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 5. Terminologia. Metody Eulera, metody punktu środkowego i metody trapezowe P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ semestr
Wybrane metody przybliżonego. wyznaczania rozwiązań (pierwiastków) równań nieliniowych
Wykład trzeci 1 Wybrane metody przybliżonego wyznaczania rozwiązań pierwiastków równań nieliniowych 2 Metody rozwiązywania równań nieliniowych = 0 jest unkcją rzeczywistą zmiennej rzeczywistej Rozwiązanie
Definicja pochodnej cząstkowej
1 z 8 gdzie punkt wewnętrzny Definicja pochodnej cząstkowej JeŜeli iloraz ma granicę dla to granicę tę nazywamy pochodną cząstkową funkcji względem w punkcie. Oznaczenia: Pochodną cząstkową funkcji względem
Wstęp do metod numerycznych Zagadnienia wstępne Uwarunkowanie. P. F. Góra
Wstęp do metod numerycznych Zagadnienia wstępne Uwarunkowanie P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2016 Źródła błędów numerycznych Wyniki obliczeń numerycznych obarczone sa błędami. Ich najważniejszymi
RÓŻNICZKOWANIE FUNKCJI WIELU ZMIENNYCH: rachunek pochodnych dla funkcji wektorowych. Pochodne cząstkowe funkcji rzeczywistej wielu zmiennych
RÓŻNICZKOWANIE FUNKCJI WIELU ZMIENNYCH: rachunek pochodnych dla funkcji wektorowych Pochodne cząstkowe funkcji rzeczywistej wielu zmiennych wyliczamy według wzoru (x, x 2,..., x n ) f(x, x 2,..., x n )
Wstęp do metod numerycznych 9. Miejsca zerowe wielomianów. P. F. Góra
Wstęp do metod numerycznych 9. Miejsca zerowe wielomianów P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2014 Podstawowe Twierdzenie Algebry Rozwiazywanie równań wielomianowych P n (z) = a n z n + a n
Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania
Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Metody optymalizacji Metody bezgradientowe optymalizacji bez ograniczeń Materiały pomocnicze do ćwiczeń
Bezgradientowe metody optymalizacji funkcji wielu zmiennych. informacje dodatkowe
Bezgradientowe metody optymalizacji funkcji wielu zmiennych informacje dodatkowe Wybór kierunku poszukiwań Kierunki bazowe i ich modyfikacje metody bezgradientowe. Kierunki oparte na gradiencie funkcji
Matematyka dyskretna dla informatyków
Matematyka dyskretna dla informatyków Część I: Elementy kombinatoryki Jerzy Jaworski Zbigniew Palka Jerzy Szymański Uniwersytet im. Adama Mickiewicza Poznań 2007 4 Zależności rekurencyjne Wiele zależności
Wstęp do metod numerycznych 5. Numeryczne zagadnienie własne. P. F. Góra
Wstęp do metod numerycznych 5. Numeryczne zagadnienie własne P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2011 Zagadnienie własne Definicja: Niech A C N N. Liczbę λ C nazywam wartościa własna macierzy
Wektory i wartości własne
Treść wykładu Podprzestrzenie niezmiennicze Podprzestrzenie niezmiennicze... Twierdzenie Cayley Hamiltona Podprzestrzenie niezmiennicze Definicja Niech f : V V będzie przekształceniem liniowym. Podprzestrzeń
13. Funkcje wielu zmiennych pochodne, gradient, Jacobian, ekstrema lokalne.
13. Funkcje wielu zmiennych pochodne, gradient, Jacobian, ekstrema lokalne. 1. Wprowadzenie. Dotąd rozważaliśmy funkcje działające z podzbioru liczb rzeczywistych w zbiór liczb rzeczywistych, zatem funkcje
Pochodna funkcji a styczna do wykresu funkcji. Autorzy: Tomasz Zabawa
Pochodna funkcji a do wykresu funkcji Autorzy: Tomasz Zabawa 2018 Pochodna funkcji a do wykresu funkcji Autor: Tomasz Zabawa Pojęcie stycznej do wykresu funkcji f w danym punkcie wykresu P( x 0, f( x 0
Wstęp do metod numerycznych Aproksymacja i zagadnienie najmniejszych kwadratów
Wstęp do metod numerycznych Aproksymacja i zagadnienie najmniejszych kwadratów P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2011/12 Aproksymacja Termin aproksymacja występuje w dwu znaczeniach: Aproksymacja
Wektory i wartości własne
Treść wykładu Podprzestrzenie niezmiennicze... Twierdzenie Cayley Hamiltona Podprzestrzenie niezmiennicze Definicja Niech f : V V będzie przekształceniem liniowym. Podprzestrzeń W V nazywamy niezmienniczą
Rozdział 5. Macierze. a 11 a a 1m a 21 a a 2m... a n1 a n2... a nm
Rozdział 5 Macierze Funkcję, która każdej parze liczb naturalnych (i,j) (i = 1,,n;j = 1,,m) przyporządkowuje dokładnie jedną liczbę a ij F, gdzie F = R lub F = C, nazywamy macierzą (rzeczywistą, gdy F
Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania
Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Metody optymalizacji Metody poszukiwania ekstremum funkcji jednej zmiennej Materiały pomocnicze do ćwiczeń
Metoda mnożników Lagrange a i jej zastosowania w ekonomii
Maciej Grzesiak Metoda mnożników Lagrange a i jej zastosowania w ekonomii 1. Metoda mnożników Lagrange a znajdowania ekstremum warunkowego Pochodna kierunkowa i gradient. Dla prostoty ograniczymy się do
Metody numeryczne. Janusz Szwabiński. Metody numeryczne I (C) 2004 Janusz Szwabiński p.1/50
Metody numeryczne Układy równań liniowych, część II Janusz Szwabiński szwabin@ift.uni.wroc.pl Metody numeryczne I (C) 2004 Janusz Szwabiński p.1/50 Układy równań liniowych, część II 1. Iteracyjne poprawianie
Wstęp do metod numerycznych Zagadnienia wstępne Uwarunkowanie. P. F. Góra
Wstęp do metod numerycznych Zagadnienia wstępne Uwarunkowanie P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2017 Źródła błędów numerycznych Wyniki obliczeń numerycznych obarczone sa błędami. Ich najważniejszymi
Programowanie nieliniowe. Badania operacyjne Wykład 3 Metoda Lagrange a
Programowanie nieliniowe Badania operacyjne Wykład 3 Metoda Lagrange a Plan wykładu Przykład problemu z nieliniową funkcją celu Sformułowanie problemu programowania matematycznego Podstawowe definicje
3. Macierze i Układy Równań Liniowych
3. Macierze i Układy Równań Liniowych Rozważamy równanie macierzowe z końcówki ostatniego wykładu ( ) 3 1 X = 4 1 ( ) 2 5 Podstawiając X = ( ) x y i wymnażając, otrzymujemy układ 2 równań liniowych 3x
Elementy metod numerycznych
Wykład nr 5 i jej modyfikacje. i zera wielomianów Założenia metody Newtona Niech będzie dane równanie f (x) = 0 oraz przedział a, b taki, że w jego wnętrzu znajduje się dokładnie jeden pierwiastek α badanego
WYKŁAD 6 KINEMATYKA PRZEPŁYWÓW CZĘŚĆ 2 1/11
WYKŁAD 6 KINEMATYKA PRZEPŁYWÓW CZĘŚĆ 1/11 DEFORMACJA OŚRODKA CIĄGŁEGO Rozważmy dwa elementy płynu położone w pewnej chwili w bliskich sobie punktach A i B. Jak zmienia się ich względne położenie w krótkim
Metoda gradientu prostego
Metoda gradientu prostego Metoda gradientu prostego jest pojęciem z zakresu optymalizacji matematycznej. Jest to algorytm numeryczny mający na celu znalezienie minimum zadanej funkcji celu. Jest to jedna
Logarytmy. Funkcje logarytmiczna i wykładnicza. Równania i nierówności wykładnicze i logarytmiczne.
Logarytmy. Funkcje logarytmiczna i wykładnicza. Równania i nierówności wykładnicze i logarytmiczne. Definicja. Niech a i b będą dodatnimi liczbami rzeczywistymi i niech a. Logarytmem liczby b przy podstawie