Metody Obliczeniowe w Nauce i Technice
|
|
- Leszek Pietrzak
- 6 lat temu
- Przeglądów:
Transkrypt
1 17 - Minimalizacja funkcji Marian Bubak Department of Computer Science AGH University of Science and Technology Krakow, Poland bubak@agh.edu.pl dice.cyfronet.pl Contributors Anna Bukowska Yurii Vyzhha Arkadiusz Placha
2 Plan wykładu I 1 Wstęp 2 Minimalizacja w 1-D 3 Metody krokowe dla n-d (stepping methods in many variables) 4 Metoda zmiennej metryki 5 Przypadki specjalne 6 Minimum lokalne i globalne 7 Literatura
3 Wstęp Wstęp
4 Wstęp Motywacja Motywacja Szeroka klasa zagadnień szukanie najmniejszej wartości przyjmowanej przez funkcję jednej lub wielu zmiennych. Przykłady Produkcja - minimalizacja kosztów, przy zaspokojeniu popytu Zasoby ludzkie - problem przydziału godzin pracy Rolnictwo - dobór nawozów w celu maksymalizacji plonów Fizyka - wyznaczanie linii geodezyjnej w OTW...
5 Wstęp Motywacja Przykład klasyczny Estymacja parametrów modelu teoretycznego Minimalizacja różnicy między danymi teoretycznymi, a eksperymentalnymi: min!f (x) = n [ ] Yi T (x i ) 2 n - liczba punktów doświadczalnych, K - liczba parametrów, σ i - niepewność pomiaru x i, Y i - zmierzona wartość w punkcie x i T (x) - wartość teoretyczna dana funkcją o K parametrach, n K, zwykle n K i=1 σ i
6 Wstęp Terminologia Terminologia Terminologia tradycyjnie: minimalizacja maksymalizacja (F = f (x)) optymalizacja kolizja z metodą teorii sterowania, (oparta o rachunek wariacyjny) b. stary termin: programowanie (liniowe, nieliniowe, matematyczne) ekstremalizacja mathematical optimization (function minimization)
7 Wstęp Zdefiniowanie zagadnienia Zdefiniowanie zagadnienia Definicja Dane: funkcja F : A R, A R Szukane: element x 0 A taki, że x A F (x 0 ) F (x) Założenia 1 Dla funkcji F może nie być znany wzór analityczny. 2 Wartości x mogą być zawężone do pewnego ustalonego obszaru constrained minization. 3 Mogą być dostępne F x. 4 x 0 jest wyliczane procedurą wykorzystanie wielu wartości funkcji f (x), aż do osiągnięcia minimum.
8 Wstęp Zdefiniowanie zagadnienia Zdefiniowanie zagadnienia Kryteria wyboru najlepszej metody Najlepsza metoda znajduje minimum (z zadaną tolerancją): po najmniejszej liczbie obliczeń wartości funkcji f po najmniejszej liczbie kroków procedury niska złożoność obliczeniowa wymaga mało pamięci dodatkowej niska złożoność pamięciowa
9 Wstęp Gdzie szukać minimum globalnego funkcji? Gdzie szukać minimum globalnego funkcji? F (x) przyjmuje minimum w jednym z punktów: 1 p. stacjonarny wszystkie F x = 0 2 wierzchołek (cusp) niektóre F x 3 edge point na krawędzi obszaru nie istnieją Gdy nie znamy funkcji analitycznie musimy ograniczyć się do minimum lokalnego x 0 unconstrained local minimization. Minimum lokalne x U, F (x) F (x 0 ), gdzie U - otoczenie punktu x 0
10 Wstęp Kształt funkcji F (x) Kształt funkcji F (x) 1-D Założenie F (x) ma sens fizyczny tj. w rozpatrywanym obszarze istnieją jej wszystkie pochodne. Rozwijamy F (x) wokół x 0 w szereg Taylora (1-D): F (x) = F (x 0 ) + F x (x x 0 ) + 1 x0 2 2 F x 2 (x x 0 ) x0 Nie znamy obszaru jego zbieżności a priori. Im mniejsza wartość (x x 0 ), tym mniej ważne człony wyższych rzędów. Konkluzja: Dla małych kroków przewidywania oparte na wyrazach niższego rzędu powinny być wystarczające.
11 Wstęp Kształt funkcji F (x) Kształt funkcji F (x) n-d Dla n-d: x = x = [x 1, x 2,..., x n ] T Rozwijamy funkcję F wokół x 0 : F ( x) = F ( x 0 ) + g T ( x x 0 ) + 1 }{{} 2 ( x x 0) T G ( x x 0 ) +... stały g i = F x gradient; G ij = 2 F i x0 x i x j x0
12 Wstęp Kształt funkcji F (x) Kształt funkcji F (x) n-d 1 g T ( x x 0 ) proporcjonalny do gradientu, wskazuje kierunek największego spadku funkcji. W pobliżu minimum: g 0, to ( x x 0 ) 0 człon liniowy, nie przepowiada minimum, nie można go użyć do określenia wielkości kroku (( x x 0) T ) G ( x x 0 ) kwadratowy, najniższy człon przydatny do przewidywania minimum. G stałe na małych obszarach. Uwaga Ta analiza nie jest słuszna dla F ( x) zależnych liniowo od x; Wtedy: Klasa problemów programowanie liniowe, rozwiązania leżą na krawędzi obszaru ograniczeń.
13 Wstęp Kształt funkcji F (x) Kształt funkcji F (x) Optymalne algorytmy minimalizacji Nie ma uniwersalnej metody minimalizacji. Dla bardzo złego algorytmu można znaleźć funkcję F (x), którą minimalizuje on najszybciej i odwrotnie. Zasada doboru algorytmu optymalizacji Zasada: Dla konkretnej funkcji należy indywidualnie dobrać algorytm minimalizacji.
14 Minimalizacja w 1-D Minimalizacja w 1-D
15 Minimalizacja w 1-D Minimalizacja w 1-D Przydatność metod 1-D dla zag. n-d Prosta ilustracja ogólnych problemów Metody 1-D są często elementem składowym metod n-d
16 Minimalizacja w 1-D Przeglądanie siatki (grid search) Przeglądanie siatki (grid search) Realizacja Zalety Wady Przegląd wszystkich elementów iloczynu kartezjańskiego podzbiorów parametrów. Wybór wartości najmniejszej. Absolutna prostota, problem typu embarrassingly parallel. Bezwzględna zbieżność. Brak czułości na szczegółowe zachowanie się F (x). Nie może być stosowana dla przedziału nieskończonego. Nieefektywna, nie uczy się własności funkcji.
17 Minimalizacja w 1-D Przeglądanie siatki (grid search) Przeglądanie siatki (grid search) Problem z doborem rozmiaru siatki, tak aby nie zgubić szukanej wartości.
18 Minimalizacja w 1-D Przeglądanie siatki (grid search) Przeglądanie siatki (grid search) Założenie: Poszukujemy minimum w k-d dysponując k zbiorami parametrów po elementów każdy. 100 punktów w 1 D Zawężamy obszar do 1% w 2 D w 10 D Przy czasie obliczeń jednej wartości F (x) 10 5 s Czas obliczeń: t o = s π 10 7 }{{} sek. w roku lat! Zadanie: porównaj całki w n-d
19 Minimalizacja w 1-D Metoda złotego podziału (golden section search) Metoda złotego podziału (golden section search) Definicja funkcji unimodalnej Funkcję f (x) nazywamy unimodalną na przedziale [a,b] jeżeli: 1 x [a,b] : f (x ) = min x [a,b] f (x) 2 x 1,x 2 : a x 1 < x 2 b zachodzi: x 2 x f (x 1 ) > f (x 2 ) x 1 x f (x 1 ) < f (x 2 ) Założenia Dane: f funkcja unimodalna na przedziale [a, b] Szukane: minimum x 0 funkcji f na przedziale [a, b]
20 Minimalizacja w 1-D Metoda złotego podziału (golden section search) Metoda złotego podziału (golden section search) F (x) - f. unimodalna
21 Minimalizacja w 1-D Metoda złotego podziału (golden section search) Metoda złotego podziału (golden section search) Realizacja r współczynnik redukcji po każdym etapie 1 Obliczamy nową długość przedziałów d = 1 r (b a) 2 x L = b d, x R = a + d 3 Jeżeli f (x L ) > f (x R ) x 0 [x L, b], a := x L, Jeżeli f (x L ) < f (x R ) x 0 [a, x R ], b := x R, 4 Procedurę powtarzamy, aż do osiągnięcia żądanej zbieżności. Minimalizacja ewaluacji Problem: Chcemy zminimalizować liczbę ewaluacji funkcji f. Rozwiązanie: Dobieramy współczynnik r, aby w kolejnym kroku wykorzystać jedną z dwóch próbek: f (x L ) lub f (x R ).
22 Minimalizacja w 1-D Metoda złotego podziału (golden section search) Metoda złotego podziału (golden section search) t współczynnik redukcji po każdym etapie Rozmieszczenie punktów: Dla [0, 1] długość przedziału po pierwszym etapie: d 1 = t
23 Minimalizacja w 1-D Metoda złotego podziału (golden section search) Metoda złotego podziału (golden section search) Po wyznaczeniu f (x 3 ) długość przedziału t t 2 = 1 t t = 0, 616 złoty podział 2 Dla zadanej liczby kroków optymalna. Podobna metoda dla zbiorów Fibonacci search technique.
24 Minimalizacja w 1-D Metoda złotego podziału (golden section search) Metoda złotego podziału (golden section search) Optymalność Metoda minimax minimalizuje maksymalną liczbę określeń f (x). Optymalność pesymistyczna Odpowiednik najlepszej strategii w grze przeciwko inteligentnemu przeciwnikowi. Podejście dobre dla patologicznych funkcji. Examples Modyfikacje metody Przykład Metoda Bermana x 0 = a+b 2 ; poszukiwanie tam, gdzie f maleje. Ustalony krok, w drugą stronę z mniejszym krokiem.
25 Minimalizacja w 1-D Kwadratowa interpolacja i aproksymacja Kwadratowa interpolacja i aproksymacja Założenia Wykres funkcji f (x) jest parabolą. Realizacja Interpolujemy f (x) funkcją kwadratową w 3 punktach: x 1,x 2,x 3. Min f (x) to min paraboli przechodzącej przez x 1,x 2,x 3, znajduje się w punkcie x 4 : f 1 (x 2 +x 3 ) (x 1 x 2 ) (x 1 x 3 ) + f 2 (x 1 +x 3 ) (x 2 x 1 ) (x 2 x 3 ) + f 3 (x 1 +x 2 ) (x 3 x 1 ) (x 3 x 2 ) x 4 = [ ] f 2 1 (x 1 x 2 ) (x 1 x 3 ) + f 2 (x 2 x 1 ) (x 2 x 3 ) + f 3 (x 3 x 1 ) (x 3 x 2 ) Zadanie: Sprawdzić ten wzór.
26 Minimalizacja w 1-D Kwadratowa interpolacja i aproksymacja Kwadratowa interpolacja i aproksymacja Realizacja cd. x 4 zastępuje jeden z x 1,x 2,x 3, wyznaczamy nowy x 4. Procedurę kończymy gdy wartość f (x 4 ) jest bliska f (x 3 ) z zadaną dokładnością. Problemy 1 Na każdym kroku x 1,x 2,x 3 mogą wyznaczać max, a nie min powodując rozbieżność. 2 Gdy x 1,x 2,x 3 leżą prawie na prostej, otrzymujemy duży krok: Trudności numeryczne Rozbieżność 3 Który z poprzednich punktów odrzucić? 4 Możliwe oscylacje wokół minimum, zamiast zbieżności.
27 Minimalizacja w 1-D Kwadratowa interpolacja i aproksymacja Kwadratowa interpolacja i aproksymacja Możliwe zabezpieczenia Zaniechanie metody przy wystąpieniu trudności. Zastosowanie W ostatniej fazie minimalizacji funkcji f. (Funkcje fizyczne są zwykle paraboliczne w pobliżu minimum.)
28 Minimalizacja w 1-D Metoda prób i błędów (success-failure method) Metoda prób i błędów (success-failure method) Założenie Procedura składa się z dwóch części: Iteracyjne zawężenie przedziału podobne do grid search. Kwadratowa interpolacja na otrzymanym przedziale. x 0 start point, d initial step size Gdy f (x 0 + d) < f (x 0 ) sukces: x 0 x 0 + d, d α d, α expansion factor (α > 1) Gdy f (x 0 + d) > f (x 0 ) niepowodzenie: d β d, β contraction factor (β < 1) α oraz β ustalamy arbitralnie Procedurę powtarzamy do zbieżności, tj. f (x 0 + d) f (x 0 ) < ɛ.
29 Minimalizacja w 1-D Metoda prób i błędów (success-failure method) Metoda prób i błędów (success-failure method) Minimum jest zawężone (bracketed), wtedy mamy trzy punkty typu: Są one punktem startowym interpolacji kwadratowej. Uniwersalna, efektywna metoda 1-D dla ogólnych funkcji.
30 Metody krokowe dla n-d (stepping methods in many variables) Metody krokowe dla n-d (stepping methods in many variables)
31 Metody krokowe dla n-d (stepping methods in many variables) Przeszukiwanie losowe Przeszukiwanie losowe Problem: Grid search na n-d złożoność czasowa O(k n ). Algorytm niepraktyczny dla n > 2. Rozwiązanie: Metody Monte-Carlo Wybór próbek losowo. Realizacja x i - ustalane losowo, zgodnie z rozkładem: równomiernym, normalnym Wybranie nalepszego znalezionego punktu. Stosowane, gdy: nic nie wiadomo o F (x). F (x) ma kilka minimów. dla ustalenia rozsądnego punktu startowego innych metod.
32 Metody krokowe dla n-d (stepping methods in many variables) Zmiana jednego parametru (Powell Search Method) Zmiana jednego parametru Założenie Funkcja f ciągła na poszukiwanym obszarze. Obserwacja Warunek na istnienie minimum - x i stacjonarny punkt, tj. znikają wszystkie n pochodne cząstkowe, f x i = 0, i = 1, 2, 3,..., n Powell Search Method 1 Wybierz jeden z n wymiarów. 2 Wykonaj optymalizację 1-D na wybranym wymiarze. 3 Powtarzaj do uzyskania punktu x i, będącego minimum dla wszystkich wymiarów n.
33 Metody krokowe dla n-d (stepping methods in many variables) Zmiana jednego parametru (Powell Search Method) Zmiana jednego parametru cd. Przykład dwuwymiarowy.
34 Metody krokowe dla n-d (stepping methods in many variables) Zmiana jednego parametru (Powell Search Method) Zmiana jednego parametru cd. Bardzo wolna z uwagi na przypadki z wąwozem (narrow valley): Dla takiego przykładu stosujemy ulepszone metody.
35 Metody krokowe dla n-d (stepping methods in many variables) Metoda Rosenbrocka Metoda Rosenbrocka Algorytm Wykonaj jeden pełny cykl minimalizacji wzgl. kolejno wszystkich parametrów (współrzędnych), Zmień osie układu współrzędnych - nowy układ ortogonalny: jedna z osi od punktu początkowego do końcowego w ostatnim cyklu minimalizacji, Wykonaj kolejny cykl w nowym układzie współrzędnych. Metoda mało efektywna dla dużego n (w połączeniu z metodą aproks. kwadratowej.)
36 Metody krokowe dla n-d (stepping methods in many variables) Metoda simpleksów Simplex - wprowadzenie Definicja Simplex - najprostsza n-wymiarowa figura określona przez (n + 1) wierzchołków (vertex). Nazwa metody - w każdym kroku informacja o funkcji dotyczącej jej wartości w n + 1 punktach
37 Metody krokowe dla n-d (stepping methods in many variables) Metoda simpleksów Opis metody cz.1
38 Metody krokowe dla n-d (stepping methods in many variables) Metoda simpleksów Opis metody cz.2 1 Wybieramy (losowo, min 1-D) 3 punkty P 1, P 2, P 3 i wyznaczamy spośród nich: P H - gdzie F największa (highest) P L - gdzie F najmniejsza (lowest) 2 Wyznaczamy środek masy wszystkich punktów z pominięciem P H P = 1 n [ n+1 i=1 P i P H ] 3 Obliczamy odbicie P H wzgl. P : P* = P + (P P H ) jeżeli F (P*) < F (P L ) nowy P** = P + 2 (P P H ) F (P*) > F (P L ) nowy P** = P 1/2 (P P H )
39 Metody krokowe dla n-d (stepping methods in many variables) Metoda simpleksów Opis metody cz.3 4 Punkt P H zastępujemy przez najlepszy z P* i P** Jeżeli żaden z nowych punktów nie jest lepszy od P H, tworzymy simplex oparty o P L w wymiarach 0.5 poprzednie. Modyfikacje: Uwaga Inne współczynniki 2 oraz 1 2, Interpolacja kwadratowa wzdłuż prostej (P H, P) Nowy punkt nie może być zbyt blisko P, bo to grozi redukcją (bez powrotu) simpleksów w n do hiperpłaszczyzny.
40 Metody krokowe dla n-d (stepping methods in many variables) Metoda simpleksów Opis metody cz.4 Zalety : nieczuła na płytkie minima (pochodzenia: zaokrąglenia, statystyka... ), mała ilość obliczeń funkcji F (X ) w każdym kroku, największe możliwe kroki, rozsądny kierunek poszukiwań, bezpieczna i szybka daleko od minimum, daje estymaty błędów parametrów Zbieżność EDM }{{} estimated distance to minimum = F (P H ) F (P L ) < EPSI }{{} (ɛ)
41 Metody krokowe dla n-d (stepping methods in many variables) Metody gradientowe Metody gradientowe Działają w oparciu o informacje o funkcji w małych obszarach (używany gradient i ew. wyższe pochodne). Wyznaczanie pochodnych Analitycznie kłopotliwe, więc numerycznie: Lepiej: (F ) (x) F (x 0 + d) F (x 0 ), δ d x0 d 2 2 F x 2 (F ) (x) F (x 0 + d) F (x 0 d), δ... 3 F x0 2 d x 3 x0 x0
42 Metody krokowe dla n-d (stepping methods in many variables) Metody gradientowe Wyznaczanie pochodnych cd. 2 n wywołań F (X ) (symetryczne, gdy 2 n) Lecz łatwo przy okazji obliczyć drugie pochodne: (F ) (x 2 ) F (x 0 + d) 2 F (x 0 ) + F (x 0 d) x0 d 2 Sprawdzić: drugie pochodne są stałe w małych obszarach - nie są potrzebne kroki symetryczne. Drugie pochodne tworzą macierz n n.
43 Metody krokowe dla n-d (stepping methods in many variables) Metody gradientowe Wyznaczanie pochodnych cd. Poza p. symetrycznymi potrzeba n(n 1) 2 pkt. (mieszane pochodne)
44 Metody krokowe dla n-d (stepping methods in many variables) Metody gradientowe Metody gradientowe Metoda największego spadku Podążanie w kierunku wyznaczonym przez - g (gradient) (w tym kierunku funkcja maleje najszybciej) (Cauchy) { - seria minimalizacji 1-D wzdłuż kierunku największego spadku - iteracyjna, bo gradient nie jest stały
45 Metody krokowe dla n-d (stepping methods in many variables) Metody gradientowe Metoda największego spadku cd. Jeżeli minimalizacja w 1-D jest dokładna w kierunkach ortogonalnych met. uzmienniania 1 parametru Łatwo o przykład hipotetycznej funkcji, dla której minimum jest gradientu.
46 Metody krokowe dla n-d (stepping methods in many variables) Metody gradientowe Metody gradientowe Metoda Newtona Ogólna funkcja kwadratowa jest określona przez: - wartość, W dowolnym punkcie x - pierwsze pochodne 0 - drugie pochodne Dysponujemy tymi informacjami Minimalizacja w pierwszym kroku. F ( x) = F ( x 0 ) + g T ( x x 0 ) ( x x 0) T G ( x x 0 ) g w x 0 Minimum: G - stała macierz x m = x 0 G 1 g = x 0 V g V = G 1 macierz kowariancji (covariance)
47 Metody krokowe dla n-d (stepping methods in many variables) Metody gradientowe Metoda Newtona cd. Metoda jest n-d odpowiednikiem 1-D interpolacji kwadratowej. Te same wady! niestabilna rozbieżna, gdy V nie jest dodatnio określona Zalety: krok nie jest dowolny, lecz określony przez metodę kierunek wartość gradientu, tylko brana pod uwagę korelacja parametrów
48 Metody krokowe dla n-d (stepping methods in many variables) Metody gradientowe Metoda Newtona cd. Używana: blisko minimum. gdy funkcja jest dodatnio określoną formą kwadratową. Metoda Newtona jest podstawą wielu metod.
49 Metody krokowe dla n-d (stepping methods in many variables) Metody gradientowe Metody gradientowe Dygresja: dodatnio określone formy kwadratowe 1-D forma kwadratowa: F (x) = a + g x G x 2 g = F x, 0 G = 2 F x 2 F (x) ma min. wtedy i tylko wtedy, gdy G 0. 0 G = 0 min ; x m = g/g Dla ogólnej funkcji nieliniowej: krok do x = g G gdy G > 0 (w przeciwnym przypadku: lub maximum)
50 Metody krokowe dla n-d (stepping methods in many variables) Metody gradientowe Dodatnio określone formy kwadratowe cd.
51 Metody krokowe dla n-d (stepping methods in many variables) Metody gradientowe Dodatnio określone formy kwadratowe cd. gdy G 0 krok = g kierunek - dobry, wartość - dowolna W x 0 F (x) nie jest wypukła (dodatnio określona) Uogólnienie na n-d: g g, G - macierz 2-ich poch.; F ( X ) = a + g T x x T G tylko dla G dod. określonej ma sens krok do: x = G 1 g
52 Metody krokowe dla n-d (stepping methods in many variables) Metody gradientowe Metody gradientowe Badanie czy G jest dodatnio określona. Brak prostych sposobów. Dla macierzy kwadratowych, symetrycznych - 2 warunki konieczne 1 o elementy diagonalne > 0 (wyst. 1 1) 2 o elementy pozadiagonalne: G 2 ij < G ii G jj
53 Metody krokowe dla n-d (stepping methods in many variables) Metody gradientowe Badanie czy G jest dodatnio określona cd. Ogólne warunki konieczne i wystarczające wszystkie wartości własne > 0 (b. trudne i przybliżone) wyznacznik wszystkich macierzy > 0 (najprościej sprawdzić) skalar E T G e > 0 dla e (zwykłe def.), wyjaśnia dlaczego G dod. okr. daje formę F (x) z minimum: F (x) rośnie we wszystkich kierunkach od e = 0 V = G 1 jest dodatnio określona
54 Metody krokowe dla n-d (stepping methods in many variables) Metody gradientowe Metody gradientowe Postępowanie w przypadku G - nie jest dod. określone a) analogicznie do 1-D : G = I Ale: b) lepiej: gdy elementy diagonalne G > 0, wtedy pozadiag. = 0 (scale - invariant step), gdy tylko niektóre el. pozadiag. Gij 2 G ii G jj G ij = 0, zamiast G 1 bierzemy (G + λ I ) 1 ; λ największa (bezwzgl.) ujemna wartość własna: dużo obliczeń, krok pośredni pomiędzy m. Newtona a największego spadku (duże λ : krok krótki, w kierunku g) gdy jedna lub więcej diagonalnych 2-ich poch. < 0 informacja o kierunku wzrostu ujemnej 1-szej poch. w tym kierunku - szukanie met. zmiany 1 param.
55 Metody krokowe dla n-d (stepping methods in many variables) Metody gradientowe Gdy G - nie jest dodatnio określone cd. Metody oparte na powyższych regułach - quasi-newton method Podstawowa wada tych metod - obliczanie i odwracanie w każdym kroku macierzy drugich pochodnych obliczanie 2-ich poch. n 2 (długie) odwracanie
56 Metody krokowe dla n-d (stepping methods in many variables) Metody gradientowe Metody gradientowe Metoda sprzężonych kierunków conjugate directions Wektory d i i d j są sprzężone ze względu na dodatnio określoną macierz, jeżeli: T d i Adj = 0 dla i j; gdy A = I, d i ortogonalne (sprzężenie - uogólnienie ortogonalności) n sprzężonych wektorów rozpina n-d przestrzeń. A - nie określa jednoznacznie zbioru wektorów sprzężonych można zastosować uogólnienie procedury ortogonalizacji Grama-Schmidta: d 1 - dowolny wektor d 2 = A d 1 dt 1 AAd 1 d1 T Ad d 1 sprzężony do d 1 1 d 3 =... Zadanie: sprawdzić.
57 Metody krokowe dla n-d (stepping methods in many variables) Metody gradientowe Metoda sprzężonych kierunków cd. W minimalizacji użyteczne są wektory sprzężone ze względu na hesjan G. Twierdzenie Sekwencja liniowych minimalizacji w każdym z n sprzężonych kierunków minimalizuje ogólną funkcję kwadratową n zmiennych. Dowód: { funkcja: F ( x) = F ( 0) + g T x x T G x T kierunki sprzężone: di di Gdj = 0 i j gdzie: G jest macierzą.
58 Metody krokowe dla n-d (stepping methods in many variables) Metody gradientowe Metoda sprzężonych kierunków cd. Dowód cd. x, g - jako kombinacje liniowe: w układzie o wektorach jednostkowych x = y idi, g = c idi i i wtedy: F (x) = F (0) + ( i T c idi ) ( y jdj ) ( T y idi ) G ( y jdj ) j i j }{{} ( )
59 Metody krokowe dla n-d (stepping methods in many variables) Metody gradientowe Metoda sprzężonych kierunków cd. Dowód cd. ( ) wynik przegrupowania: podwójna suma i j równe zero (warunek sprzężenia) F (x) = F (0) + c i di T d j y j + 1 yj 2 dj T Gd j = 2 i i j gdzie: F (0) + j (b jy j + b j y 2 j ) b j = i c id T i d j, b j = 1 2 d T j Gd j - stałe zamiast x - mamy y, przy czym F (x) stała się sumą niezależnych jednoparametrowych funkcji kwadratowych. Minimalizacja ze względu na y i (wzdłuż kierunku d i ) jest niezależna od minimalizacji względem pozostałych sprzężonych kierunków.
60 Metody krokowe dla n-d (stepping methods in many variables) Metody gradientowe Metoda sprzężonych kierunków cd. Wnioski: Minimalizacja nie wzdłuż osi ortogonalnych, ale wzdłuż kierunków sprzężonych Ale można szukać innej konstrukcji d i (gdy znamy G - m. Newtona - w 1 kroku!) Można wyznaczyć d i bez G! Twierdzenie Jeżeli x 0, x 1 - punkty min. w 2 równoległych podprzestrzeniach, to ( x 1 x 0 ) jest sprzężony do każdego wektora w tych dwóch podprzestrzeniach.
61 Metody krokowe dla n-d (stepping methods in many variables) Metody gradientowe Metoda sprzężonych kierunków cd. Dowód x 0 - min. wzdłuż d i ; to gradient F w x 0 musi być d 1 T d 1 ( g + G x0 ) = 0 T ( g grad. w x = 0) d 1 ( g + G x1 ) = 0 d 1 T G( x1 x 0 ) = 0 ( x 1 x 0 ) sprzężony do d 1
62 Metody krokowe dla n-d (stepping methods in many variables) Metody gradientowe Metoda sprzężonych kierunków cd. Dowód cd. W przestrzeni: 3-D 3 dodatkowe minimalizacje (3-ci kier. sprzężenia do 2 pierwszych) n-d n(n+1) 2 minimalizacje - ile elem. w G - ale: metoda bardzo stabilna dla F (x) kwadratowych i nie wymaga znajomości pochodnych Uwaga: asymetria: n minimal. w d 1 1 minimal. w d n
63 Metody krokowe dla n-d (stepping methods in many variables) Metody gradientowe Metody gradientowe Metoda gradientów sprzężonych (conjugate gradients) Wykorzystuje tylko 1-sze pochodne. F ( x) i g( x) wyznaczone w x 0 i x 1, z nich: x = x 1 x 0, g = g1 g 0 Dla F ( x) kwadratowej, z hesjanem G: g = G x, zatem dowolny d 1 g będzie dodany do x: d 1 T g = d1 G x = 0 Metoda uzyskiwania kierunków sprzężonych bez znajomości G: Pierwszy kierunek: d 0 = g 0 min. wzdłuż d 0 : w x 1, gradient: g 1 Drugi kierunek: d 1 = g 1 + b d 0 (liniowa kombinacja znanych kierunków)
64 Metody krokowe dla n-d (stepping methods in many variables) Metody gradientowe Metoda gradientów sprzężonych cd. Warunek sprzężenia: d 1 T G d0 = d 1 T G ( g1 g 0 ) = 0, czyli: ( g 1 + b d 0 ) G d 0 = ( g 1 b g 0 ) ( g 1 g 0 ) = 0 x 1 - to min. wzdłuż d 0 = g 0 g 0 g 1 : g 1T g 0 = 0 b = g 1 T g 1, czyli nowy sprzężony kierunek g 0T g ( 0 ) d 1 = g 1 + g1t g 1 d g 0T g 0 0 Ten proces kontynuujemy generując n kierunków wzajemnie sprzężonych. Można pokazać, że dla wszystkich sprzężonych kierunków zachodzi: d i+1 = g i+1 + g i+1 T g i+1 g T i g i d i
65 Metoda zmiennej metryki Metoda zmiennej metryki
66 Metoda zmiennej metryki Metoda Newtona podsumowanie Uogólniona met. Newtona znajdowanie minimum Założenia: Dana jest funkcja F, taka że F (x) C 2. Procedura iteracyjna W k-tym kroku: x k+1 = x k + α k d k d k = V (x k ) F (x k ) V (x k ) = H 1 (x k ) (1)
67 Metoda zmiennej metryki Metoda Newtona podsumowanie Oznaczenia d k wektor kierunku poszukiwań α k długość kroku; dobrana tak, aby minimalizować funkcję α F (x k + α d k ), α 0 [ ] H(x k ) = 2 F (x k ) x i x j hesjan funkcji F (x k ) G(x k ) hesjan formy kwadratowej Q w punkcie x k Q(x) = (Ax c) T (Ax c) V (x k ) = G 1 (x k ) macierz kowariancji w k-tym kroku Istota: V (x k ) obliczane w każdym kroku. Duży narzut obliczeniowy.
68 Metoda zmiennej metryki Metoda Newtona podsumowanie Optymalizacja metodami zmiennej metryki Cel: Zmniejszenie narzutu obliczeniowego na wyznaczanie V k. Pomysł: Wykorzystanie informacji z poprzednich kroków iteracyjnych. Szukamy: Dysponujemy: x k, x k+1, F (x k ), F (x k+1 ) V k+1 = V k + C k (2)
69 Metoda zmiennej metryki Metoda Newtona podsumowanie Kierunki sprzężone Kierunki wzajemnie sprzężone Def: Kierunki d 0, d 1,..., d i,..., d r, d i 0, r n 1 nazywamy wzajemnie sprzężonymi względem macierzy A (A-sprzężonymi), jeśli: di T Ad j = 0, i j Jest to uogólnienie def. ortogonalności: V T u = V T I u = 0 Wektory własne A symetrycznej są wektorami A-sprzężonymi.
70 Metoda zmiennej metryki Metoda Newtona podsumowanie Minimalizacja w kierunkach sprzężonych Twierdzenie o minimalizacji w kierunkach sprzężonych Założenie: d 0, d 1,.., d n 1 ciąg wektorów A-sprzężonych A macierz (n n), symetryczna, dodatnio określona. Twierdzenie: Niezależnie od wyboru punktu początkowego x 0 można zminimalizować formę kwadratową: Q(x) = Q(x 0 ) + b T x x T A x (3) 1 w najwyżej n krokach iteracyjnych 2 kolejne minimalizacje wzdłuż d i 3 każdy wektor d i używany tylko jeden raz 4 kolejność wprowadzenia d i do obliczeń obojętna
71 Metoda zmiennej metryki Metoda Newtona podsumowanie Minimalizacja w kierunkach sprzężonych dowód V dowolny wektor; d i liniowo niezależne n 1 V = γ i d i, i=0 γ i = d iav d T i Ad i (4) W kroku iteracyjnym p: p 1 x p = x 0 + α i d i, p > 1 i=0 x p kolejny punkt uzyskany w trakcie minimalizacji formy kw. Q(x) wzdłuż kierunków d 0, d 1,..., d p 1.
72 Metoda zmiennej metryki Metoda Newtona podsumowanie Minimalizacja w kierunkach sprzężonych dowód cd. 1 Z punktu x p do x p+1 przechodzimy wzdłuż d p 2 Forma Q ma mieć minimum wzdłuż d p Otrzymujemy więc, że: Po podstawieniu (3) do (5): d T p Q(x p+1 ) = 0 (5) [ p 1 dp T ] A (x 0 + α i d i ) + α p d p + dp T b = 0 i=0 Z czego wyznaczamy stałą: α p = d p T (A x 0 + b) dp T A d p
73 Metoda zmiennej metryki Metoda Newtona podsumowanie Minimalizacja w kierunkach sprzężonych dowód cd. W konsekwencji po co najwyżej n krokach, (bo może być α i = 0) zachodzi: n 1 x n = x 0 i=0 di T (A x 0 + b)d i di T = x 0 A d i Osiągnęliśmy min. formy kwadratowej: 1 niezależnie od kolejności wystąpień d i, 2 w co najwyżej n krokach minimalizacyjnych n 1 di T A(x 0 + A 1 b)d i d T i=0 i A d i }{{} x 0 +A 1 b x n = x 0 x 0 A 1 b = A 1 b Met. kier. sprzężonych prowadzi do zbieżności kwadratowej.
74 Metoda zmiennej metryki Metoda Newtona podsumowanie Minimalizacja w kierunkach sprzężonych 2 Twierdzenie 2 Założenie: x k+1 kolejny punkt uzyskany w minimalizacji formy (3) wzdłuż A-sprzężonych kierunków d 0, d 1,..., d k. Twierdzenie: Zachodzi równanie: d T l Q(x k+1 ) = 0, l = 0, 1,..., k (6) Obserwacja: Gradient formy kwadratowej w punkcie x p pamięta wszystkie poprzednie kierunki sprzężone prowadzące do x p z x 0.
75 Metoda zmiennej metryki Metoda Newtona podsumowanie Minimalizacja w kierunkach sprzężonych 2 dowód ( Q k+1 = A x k+1 + b = A x s + W konsekwencji: = Q s+1 + k j=s+1 α j Ad j k j=s+1 α j d j ) + b = k ds T Q s+1 = ds T Q s+1 + α j ds T Ad j }{{} j=s+1 =0 (wzór 5) }{{} =0 Słuszne jest więc równanie (6).
76 Metoda zmiennej metryki Metoda Newtona podsumowanie Formuła Davidona-Fletchera-Powella Dla macierzy V = G 1 : 1 (n n) 2 symetrycznej 3 dodatnio określonej wektorów d 0, d 1,..., d n 1 wyznaczającej kierunki sprzężone wzgl. G zachodzi: n 1 d i di T V = di T (7) Gd i i=0
77 Metoda zmiennej metryki Metoda Newtona podsumowanie Formuła Davidona-Fletchera-Powella 2 Bierzemy element tej sumy jako pierwsze przybliżenie do szukanej poprawki C k (wzór 2): V k+1 = V k + d kd T k d T k Gd k + B k, B k = B T k (8) B k z warunku: d 0, d 1,..., d k kierunki G-sprzężone.
78 Metoda zmiennej metryki Metoda Newtona podsumowanie Formuła Davidona-Fletchera-Powella 3 Przymując: V k Gd i = d i, i = 0, 1,..., k dla d 0, d 1,..., d k będących G-sprzężonymi. Mamy (wzór 1): [ = di T Gd k+1 = di T GV k+1 Q(x k+1 ) = T Q k+1 V k+1 Gd i ] T = d T i Q k+1 = 0, i = 0, 1,..., k Jest to wzór (6). Wniosek: d k+1 również sprzężony do poprzednich.
79 Metoda zmiennej metryki Metoda Newtona podsumowanie Formuła Davidona-Fletchera-Powella 4 Żądamy, aby: V k+1 Gd i = d i, i = 0, 1,..., k + 1 Podstawiamy V k+1 z równania (8) dla i = k. Otrzymujemy: Po przekształceniu: ( V k + d kd T k d T k Gd k + B k )Gd k = d k (V k + B k )Gd k = 0 Co po uwzgl. wzorów (5) i (1) daje: [ Qk+1 Q k ] T (Vk + B k ) = 0 (9)
80 Metoda zmiennej metryki Metoda Newtona podsumowanie Formuła Davidona-Fletchera-Powella 5 B k powinna mieć postać: Otrzymujemy: B k = V kγ k γ T k V k γ T k V kγ k γ k = Q(x k+1 ) Q(x k ) (10) δ k x k+1 x k (wzór 1) = α k G 1 Q k = α k d k (11) d T k Gd k = (α k+1 x k ) T α k Gdyż dla formy kwadratowej: Gd k = γt k d k α k δ k = G 1 γ k (12)
81 Metoda zmiennej metryki Metoda Newtona podsumowanie Metoda zmiennej metryki Wzór korekcyjny Wzór korekcyjny ma postać: V k+1 = V k + δ kδ T k γ T k δ k V kγ k γ T k V k γ T k V kγ k
82 Metoda zmiennej metryki Metoda Newtona podsumowanie Metoda zmiennej metryki przykład } Geometria różniczkowa Własności F Ogólna teoria wzgl. F nieeuklidesowa przestrzeni zmiennych x = (x 1, x 2,..., x n ). Podst. niezmiennik: ds 2 = dx T Adx (kwadrat elem. długości) dx przesunięcie, x x + dx A kowariantny tensor metryczny Dla Q A wszędzie stałe F przestrzeń o zmiennej metryce
83 Przypadki specjalne Przypadki specjalne
84 Przypadki specjalne Liniowy model Liniowy model Minimalizacja χ 2 (chisquare minimization, least squares fitting) k [ ] Yi T i ( x) 2 k min!f ( x) = = fi 2 ( x) σ i=1 i i=1 gdzie: Y i wartości zamierzone, σ i błąd, T i wartości teoretyczne; k n, zwykle k n k liczba obserwacji, n liczba klas wyniku minf ( x) najlepsze estymaty parametrów x (modelu teoretycznego)
85 Przypadki specjalne Liniowy model Liniowy model ( ) 2 F x i x j = x i x j k f 2 k = x i 2 f k f k + 2 f k 2 f k x k i x j x k i x j }{{} ( ) k 2 f k f k x j = ( ) - zwykle uznajemy ten człon za mały w porównaniu z poprzednim linearyzacja modelu (T k (x) liniowe)
86 Przypadki specjalne Liniowy model Liniowy model Gdy drugi człon w ( ) = 0 linear least squares F (x) quadratic i cały problem minimalizacji znalezienie [ ] macierzy odwortnej 2 F 1, x i x j a następnie min!f (x) w pojedynczym kroku newtonowskim. Gdy drugi człon w ( ) 0 non-linear least squares 2 F x i x j łatwe do policzenia (positive defined) kilka kroków iteracyjnie macierz [ 2 F x i x j ] 1 nie zbiega się do macierzy kowariancji.
87 Przypadki specjalne Likelihood maximization Likelihood maximization k min!f (x) = ln f k (x), f k (x) = 1 σ k=1 k 2 }{{} ( ) ( ) - logarytmiczna funkcja wiarygodności [Y k T k (x)] 2 2 F = x i x j x i = x j x i k 1 f k f k x j = k 1 f k f k fk f k x i x j f k k x i x j }{{} ( ) ( ) pomijamy, jeżeli można.
88 Przypadki specjalne Model with separable computing Model with separable computing Znaczna część obliczeń zależy tylko od kilku składowych x, więc nie ulega on zmianie, gdy one również bez zmiany. podział na n-części, a każda zależy tylko od jednego parametru. Z tego wynika efektywne niektóre proste metody (np. single parameter variation).
89 Przypadki specjalne Podobne zagadnienia Podobne zagadnienia Na przykład Znajdowanie krzywej p(y) = min x!f (x, y), np. przy określaniu przedziału ufności. Podobny eksperyment, seria eksperymentów. Wnioski Użyć można poprzedniego wyniku jako punktu startowego. Macierz kowariancji nie powinna się istotnie zmienić.
90 Minimum lokalne i globalne Minimum lokalne i globalne
91 Minimum lokalne i globalne Wprowadzenie Wprowadzenie Założenie F (x) unimodalna (w badanym obszarze) Zwykle F (x) ma wiele minimów wtedy 4 możliwości: 1 wystarcza znajomość dowolnego minimum lokalnego rzadko; najprościej 2 szukamy minimum globalnego najczęściej zwłaszcza w optymalizacji; brak ogólnych pewnych metod
92 Minimum lokalne i globalne Wprowadzenie Wprowadzenie 3 Interesuje nas jedno ( fizyczne ) minimum (niekoniecznie) globalne W badaniach naukowych z góry znana przybliżona lokalizacja minimum dobra dolina. Poszukiwanie: od ustalenia przybliżonych, przewidywanych wartości części parametrów, znalezienie minimum ze względu na wszystkie parametry. 4 Szukamy wszystkich lokalnych minimów (w tym globalnego) Najtrudniej, brak ogólnej metody.
93 Minimum lokalne i globalne Algorytm Gelfanda-Cetlina (stepping m.) Algorytm Gelfanda-Cetlina (stepping m.)
94 Minimum lokalne i globalne Algorytm Gelfanda-Cetlina (stepping m.) Algorytm Gelfanda-Cetlina (stepping m.) 1 z x 0 lokalna minimalizacja min. w a 0 2 z x 0 długi, losowy krok do x 1 3 z x 1 lokalna minimalizacja min. w a 1 4 długi krok (precipitous step) wzdłuż a 1 a 0 do x 2 5 z x 2 lokalna minimalizacja min. w a 2 6 długi krok wzdłuż a 2 a 1... itd.
95 Minimum lokalne i globalne Algorytm Gelfanda-Cetlina (stepping m.) Algorytm Gelfanda-Cetlina (stepping m.) Metoda jest nielokalna Przeszukiwanie zarówno w kierunku rosnących jak i malejących wartości F (x), z preferencją w kierunku malejących (przewaga szukania nad zbieżnością). O jakości decyduje wybór precipitous step zwykle met. prób i błędów. Wada - brak kryterium zatrzymania. Kryteria czas obliczeń liczba wywołań F (x) uzyskanie F (x) mniejszej od pewnej zadanej wartości zatoczenie koła (trudne stwierdzenie)
96 Minimum lokalne i globalne Metoda Goldstein a-price a Metoda Goldstein a-price a ładna i prosta oparta na własnościach analitycznych F (x) W pobliżu lokalnego minimum x 1,, F (x): 1 F ( x) = F ( x 1 ) }{{} + 2 ( x x 1) T G ( x x 1 ) + }{{} h.t. (!) higher therms (!) zanikły pierwsze pochodne! Człony z 3-cią i wyższymi pochodnymi zawierają informacje o pozostałych minimach.
97 Minimum lokalne i globalne Metoda Goldstein a-price a Usunięcie minimum w x 1 przez transformację: F ( x 1, x) = 2 [F ( x) F ( x 1 )] ( x x 1 ) T G ( x x 1 ) = 1 + h.t. G dodatnio określona (bo w minimum) w mianowniku forma kwadratowa zawsze dodatnia, czyli po znalezieniu min F 1 (x) mamy: Uwaga gdy F 1 (x) < 0 znaleziono lepsze (głębsze) minimum gdy F 1 (x) > 0 znaleziono inne minimum lokalne, nie lepsze od tego w x 1 ; z tego punktu (x 2 ) F 2 (związane z F 1 tak, jak F 1 z F ) Metoda ta grozi zapętleniem, powtarzać ja nie więcej niż kilka razy.
98 Minimum lokalne i globalne Uwagi końcowe Uwagi końcowe nie ma uniwersalnych metod minimalizacji tj.: wszystkie funkcje wszystkie obszary danej funkcji zalecane: używanie różnych metod stopniowe zbliżanie się do minimum kolejno: metody Monte Carlo metody simplex / metoda Rosebrocka (bezgradientowa) metody gradientowe wykorzystać dostępną informację o F (x) ważna: zadania z ograniczeniami (funkcje kary)
99 Minimum lokalne i globalne Uwagi końcowe Uwagi końcowe powszechnie używany pakiet minimalizacyjny: F. James, M. Roos: MINUIT, CERN Program Library long write up D506 (516) zapoznać się! głębsze wprowadzenie w zagadnienia minimalizacji R. Wit: Metody programowania nieliniowego WNT, Warszawa 1986 alternatywne Simulated annealing Genetic algorithms
100 Literatura Literatura
101 Literatura Literatura I Romuald Wit Wstęp do metod optymalizacji nieliniowej skrypt UJ, 1983 Romuald Wit Metody programowania nieliniowego WNT, Biblioteka Inżynierii Oprogramowania F. Jarnes MINUIT Function Minimization and Error Analysis http: //cdsweb.cern.ch/record/ /files/minuit.pdf
102 Literatura Literatura II H. H. Rosenbrock An automatic method for finding the greatest or least value of a function Comput J. 3 (1960) 175 Math Works Inc. Metoda Rosenbrocka banana-function-minimization.html J. A. Nelder, R. Mead A simplex method for function minimization Comput. J. 7 (1965) 308
103 Literatura Literatura III R. Fletcher, C. M. Reeves Function minimalization by conjugate gradients Comput. J. 7 (1964) 149 Biblioteki CERN-u CERN Program Library
Metody Obliczeniowe w Nauce i Technice
Metody Obliczeniowe w Nauce i Technice 17 - Minimalizacja funkcji Marian Bubak Department of Computer Science AGH University of Science and Technology Krakow, Poland bubak@agh.edu.pl dice.cyfronet.pl Contributors
WYKŁAD 9 METODY ZMIENNEJ METRYKI
WYKŁAD 9 METODY ZMIENNEJ METRYKI Kierunki sprzężone. Metoda Newtona Raphsona daje dobre przybliżenie najlepszego kierunku poszukiwań, lecz jest to okupione znacznym kosztem obliczeniowym zwykle postać
KADD Minimalizacja funkcji
Minimalizacja funkcji n-wymiarowych Forma kwadratowa w n wymiarach Procedury minimalizacji Minimalizacja wzdłuż prostej w n-wymiarowej przestrzeni Metody minimalizacji wzdłuż osi współrzędnych wzdłuż kierunków
KADD Minimalizacja funkcji
Minimalizacja funkcji Poszukiwanie minimum funkcji Foma kwadratowa Metody przybliżania minimum minimalizacja Minimalizacja w n wymiarach Metody poszukiwania minimum Otaczanie minimum Podział obszaru zawierającego
Optymalizacja ciągła
Optymalizacja ciągła 5. Metody kierunków poparwy (metoda Newtona-Raphsona, metoda gradientów sprzężonych) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.03.2019 1
Optymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
Metody Obliczeniowe w Nauce i Technice
9 - Rozwiązywanie układów równań nieliniowych Marian Bubak Department of Computer Science AGH University of Science and Technology Krakow, Poland bubak@agh.edu.pl dice.cyfronet.pl Contributors Anna Marciniec
ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ
ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ Maciej Patan Uniwersytet Zielonogórski WSTEP Zadanie minimalizacji bez ograniczeń f(ˆx) = min x R nf(x) f : R n R funkcja ograniczona z dołu Algorytm rozwiazywania Rekurencyjny
Optymalizacja ciągła
Optymalizacja ciągła 4. Metody kierunków poprawy (metoda spadku wzdłuż gradientu) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 21.03.2019 1 / 41 Plan wykładu Minimalizacja
1 Funkcje dwóch zmiennych podstawowe pojęcia
1 Funkcje dwóch zmiennych podstawowe pojęcia Definicja 1 Funkcją dwóch zmiennych określoną na zbiorze A R 2 o wartościach w zbiorze R nazywamy przyporządkowanie każdemu punktowi ze zbioru A dokładnie jednej
Metody Obliczeniowe w Nauce i Technice
8. Wyznaczanie pierwiastków wielomianów Marian Bubak Department of Computer Science AGH University of Science and Technology Krakow, Poland bubak@agh.edu.pl dice.cyfronet.pl Contributors Magdalena Nowak
Optymalizacja ciągła
Optymalizacja ciągła 1. Optymalizacja funkcji jednej zmiennej Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.02.2019 1 / 54 Plan wykładu Optymalizacja funkcji jednej
UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH
Transport, studia I stopnia rok akademicki 2011/2012 Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Uwagi wstępne Układ liniowych równań algebraicznych można
Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar... 1. Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16
Spis treści Przedmowa.......................... XI Rozdział 1. Pomiar: jednostki miar................. 1 1.1. Wielkości fizyczne i pozafizyczne.................. 1 1.2. Spójne układy miar. Układ SI i jego
Metody Obliczeniowe w Nauce i Technice
7. Równania nieliniowe (non-linear equations) Marian Bubak Department of Computer Science AGH University of Science and Technology Krakow, Poland bubak@agh.edu.pl dice.cyfronet.pl Contributors Dawid Prokopek
Optymalizacja (minimalizacja) funkcji. Plan wykładu: 1. Sformułowanie problemu, funkcja celu. 2. Metody bezgradientowe
Optymalizacja (minimalizacja) funkcji Plan wykładu: 1. Sformułowanie problemu, funkcja celu. Metody bezgradientowe a) metoda złotego podziału b) metoda sympleks c) metoda interpolacji Powell'a 3. Metody
ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH
Transport, studia I stopnia Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać ogólna równania nieliniowego Często występującym, ważnym problemem obliczeniowym
RÓWNANIA NIELINIOWE Maciej Patan
RÓWNANIA NIELINIOWE Maciej Patan Uniwersytet Zielonogórski Przykład 1 Prędkość v spadającego spadochroniarza wyraża się zależnością v = mg ( 1 e c t) m c gdzie g = 9.81 m/s 2. Dla współczynnika oporu c
Metody Numeryczne Optymalizacja. Wojciech Szewczuk
Metody Numeryczne Optymalizacja Optymalizacja Definicja 1 Przez optymalizację będziemy rozumieć szukanie minimów lub maksimów funkcji. Optymalizacja Definicja 2 Optymalizacja lub programowanie matematyczne
Wykład Matematyka A, I rok, egzamin ustny w sem. letnim r. ak. 2002/2003. Każdy zdający losuje jedno pytanie teoretyczne i jedno praktyczne.
Wykład Matematyka A, I rok, egzamin ustny w sem. letnim r. ak. 2002/2003. Każdy zdający losuje jedno pytanie teoretyczne i jedno praktyczne. pytania teoretyczne:. Co to znaczy, że wektory v, v 2 i v 3
ANALIZA MATEMATYCZNA Z ELEMENTAMI STATYSTYKI MATEMATYCZNEJ
ANALIZA MATEMATYCZNA Z ELEMENTAMI STATYSTYKI MATEMATYCZNEJ FUNKCJE DWÓCH ZMIENNYCH RZECZYWISTYCH Definicja 1. Niech A będzie dowolnym niepustym zbiorem. Metryką w zbiorze A nazywamy funkcję rzeczywistą
Uczenie sieci typu MLP
Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik
1.3. Optymalizacja geometrii czasteczki
0 1 Część teoretyczna 13 Optymalizacja geometrii czasteczki Poszukiwanie punktów stacjonarnych (krytycznych) funkcji stanowi niezwykle istotny problem w obliczeniowej chemii kwantowej Sprowadza się on
Wstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych. P. F. Góra
Wstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2012 Strategia minimalizacji wielowymiarowej Zakładamy, że metody poszukiwania minimów
Metody numeryczne I Równania nieliniowe
Metody numeryczne I Równania nieliniowe Janusz Szwabiński szwabin@ift.uni.wroc.pl Metody numeryczne I (C) 2004 Janusz Szwabiński p.1/66 Równania nieliniowe 1. Równania nieliniowe z pojedynczym pierwiastkiem
Przegląd metod optymalizacji wielowymiarowej. Funkcja testowa. Funkcja testowa. Notes. Notes. Notes. Notes. Tomasz M. Gwizdałła
Przegląd metod optymalizacji wielowymiarowej Tomasz M. Gwizdałła 2012.12.06 Funkcja testowa Funkcją testową dla zagadnień rozpatrywanych w ramach tego wykładu będzie funkcja postaci f (x) = (x 1 1) 4 +
Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania
Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Metody optymalizacji Metody bezgradientowe optymalizacji bez ograniczeń Materiały pomocnicze do ćwiczeń
Metody Obliczeniowe w Nauce i Technice
Metody Obliczeniowe w Nauce i Technice 15. Obliczanie całek metodami Monte Carlo Marian Bubak Department of Computer Science AGH University of Science and Technology Krakow, Poland bubak@agh.edu.pl dice.cyfronet.pl
5. Rozwiązywanie układów równań liniowych
5. Rozwiązywanie układów równań liniowych Wprowadzenie (5.1) Układ n równań z n niewiadomymi: a 11 +a 12 x 2 +...+a 1n x n =a 10, a 21 +a 22 x 2 +...+a 2n x n =a 20,..., a n1 +a n2 x 2 +...+a nn x n =a
KADD Metoda najmniejszych kwadratów funkcje nieliniowe
Metoda najmn. kwadr. - funkcje nieliniowe Metoda najmniejszych kwadratów Funkcje nieliniowe Procedura z redukcją kroku iteracji Przykłady zastosowań Dopasowanie funkcji wykładniczej Dopasowanie funkcji
1 Metody rozwiązywania równań nieliniowych. Postawienie problemu
1 Metody rozwiązywania równań nieliniowych. Postawienie problemu Dla danej funkcji ciągłej f znaleźć wartości x, dla których f(x) = 0. (1) 2 Przedział izolacji pierwiastka Będziemy zakładać, że równanie
Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I
Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:
Metody Obliczeniowe w Nauce i Technice
5. Aproksymacja Marian Bubak Department of Computer Science AGH University of Science and Technology Krakow, Poland bubak@agh.edu.pl dice.cyfronet.pl Contributors Paweł Urban Jakub Ptak Łukasz Janeczko
Funkcje dwóch zmiennych
Funkcje dwóch zmiennych Andrzej Musielak Str Funkcje dwóch zmiennych Wstęp Funkcja rzeczywista dwóch zmiennych to funkcja, której argumentem jest para liczb rzeczywistych, a wartością liczba rzeczywista.
Definicja pochodnej cząstkowej
1 z 8 gdzie punkt wewnętrzny Definicja pochodnej cząstkowej JeŜeli iloraz ma granicę dla to granicę tę nazywamy pochodną cząstkową funkcji względem w punkcie. Oznaczenia: Pochodną cząstkową funkcji względem
Oznacza to, że chcemy znaleźć minimum, a właściwie wartość najmniejszą funkcji
Wykład 11. Metoda najmniejszych kwadratów Szukamy zależności Dane są wyniki pomiarów dwóch wielkości x i y: (x 1, y 1 ), (x 2, y 2 ),..., (x n, y n ). Przypuśćmy, że nanieśliśmy je na wykres w układzie
Z52: Algebra liniowa Zagadnienie: Zastosowania algebry liniowej Zadanie: Operatory różniczkowania, zagadnienie brzegowe.
Z5: Algebra liniowa Zagadnienie: Zastosowania algebry liniowej Zadanie: Operatory różniczkowania zagadnienie brzegowe Dyskretne operatory różniczkowania Numeryczne obliczanie pochodnych oraz rozwiązywanie
5. Metody stochastyczne (symulowane wyżarzanie, algorytmy genetyczne) -> metody Monte Carlo
Optymalizacja (minimalizacja) funkcji Plan wykładu: 1. Sformułowanie problemu, funkcja celu 2. Metody bezgradientowe a) metoda złotego podziału b) metoda sympleks c) metoda interpolacji Powell'a 3. Metody
Bezgradientowe metody optymalizacji funkcji wielu zmiennych. informacje dodatkowe
Bezgradientowe metody optymalizacji funkcji wielu zmiennych informacje dodatkowe Wybór kierunku poszukiwań Kierunki bazowe i ich modyfikacje metody bezgradientowe. Kierunki oparte na gradiencie funkcji
Zaawansowane metody numeryczne
Wykład 11 Ogólna postać metody iteracyjnej Definicja 11.1. (metoda iteracyjna rozwiązywania układów równań) Metodą iteracyjną rozwiązywania { układów równań liniowych nazywamy ciąg wektorów zdefiniowany
METODY ROZWIĄZYWANIA RÓWNAŃ NIELINIOWYCH
METODY ROZWIĄZYWANIA RÓWNAŃ NIELINIOWYCH Jednym z zastosowań metod numerycznych jest wyznaczenie pierwiastka lub pierwiastków równania nieliniowego. W tym celu stosuje się szereg metod obliczeniowych np:
Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych
inż. Marek Duczkowski Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych słowa kluczowe: algorytm gradientowy, optymalizacja, określanie wodnicy W artykule
Metody Rozmyte i Algorytmy Ewolucyjne
mgr inż. Wydział Matematyczno-Przyrodniczy Szkoła Nauk Ścisłych Uniwersytet Kardynała Stefana Wyszyńskiego Podstawy optymalizacji Plan prezentacji 1 Podstawy matematyczne 2 3 Eliminacja ograniczeń Metody
Interpolacja, aproksymacja całkowanie. Interpolacja Krzywa przechodzi przez punkty kontrolne
Interpolacja, aproksymacja całkowanie Interpolacja Krzywa przechodzi przez punkty kontrolne Aproksymacja Punkty kontrolne jedynie sterują kształtem krzywej INTERPOLACJA Zagadnienie interpolacji można sformułować
PROGRAMOWANIE KWADRATOWE
PROGRAMOWANIE KWADRATOWE Programowanie kwadratowe Zadanie programowania kwadratowego: Funkcja celu lub/i co najmniej jedno z ograniczeń jest funkcją kwadratową. 2 Programowanie kwadratowe Nie ma uniwersalnej
UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH
Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać układu równań liniowych Układ liniowych równań algebraicznych
Aproksymacja. funkcji: ,a 2. ,...,a m. - są funkcjami bazowymi m+1 wymiarowej podprzestrzeni liniowej X m+1
Założenie: f(x) funkcja którą aproksymujemy X jest przestrzenią liniową Aproksymacja liniowa funkcji f(x) polega na wyznaczeniu współczynników a 0,a 1,a 2,...,a m funkcji: Gdzie: - są funkcjami bazowymi
Ważne rozkłady i twierdzenia c.d.
Ważne rozkłady i twierdzenia c.d. Funkcja charakterystyczna rozkładu Wielowymiarowy rozkład normalny Elipsa kowariacji Sploty rozkładów Rozkłady jednostajne Sploty z rozkładem normalnym Pobieranie próby
1 Równania nieliniowe
1 Równania nieliniowe 1.1 Postać ogólna równania nieliniowego Często występującym, ważnym problemem obliczeniowym jest numeryczne poszukiwanie rozwiązań równań nieliniowych, np. algebraicznych (wielomiany),
Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11,
1 Kwantyzacja skalarna Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11, 10.05.005 Kwantyzacja polega na reprezentowaniu dużego zbioru wartości (być może nieskończonego) za pomocą wartości
Stosowana Analiza Regresji
Stosowana Analiza Regresji Wykład VIII 30 Listopada 2011 1 / 18 gdzie: X : n p Q : n n R : n p Zał.: n p. X = QR, - macierz eksperymentu, - ortogonalna, - ma zera poniżej głównej diagonali. [ R1 X = Q
Iteracyjne rozwiązywanie równań
Elementy metod numerycznych Plan wykładu 1 Wprowadzenie Plan wykładu 1 Wprowadzenie 2 Plan wykładu 1 Wprowadzenie 2 3 Wprowadzenie Metoda bisekcji Metoda siecznych Metoda stycznych Plan wykładu 1 Wprowadzenie
Metody numeryczne II
Metody numeryczne II Poszukiwanie ekstremów funkcji Janusz Szwabiński szwabin@ift.uni.wroc.pl Metody numeryczne II (C) 2004 Janusz Szwabiński p.1/55 Poszukiwanie ekstremów funkcji 1. Funkcje jednej zmiennej
METODY NUMERYCZNE. Wykład 3. Plan. Aproksymacja Interpolacja wielomianowa Przykłady. dr hab.inż. Katarzyna Zakrzewska, prof.agh. Met.Numer.
METODY NUMERYCZNE Wykład 3. dr hab.inż. Katarzyna Zakrzewska, prof.agh Met.Numer. wykład 3 1 Plan Aproksymacja Interpolacja wielomianowa Przykłady Met.Numer. wykład 3 2 1 Aproksymacja Metody numeryczne
Całkowanie numeryczne przy użyciu kwadratur
Całkowanie numeryczne przy użyciu kwadratur Plan wykładu: 1. Kwadratury Newtona-Cotesa a) wzory: trapezów, parabol etc. b) kwadratury złożone 2. Ekstrapolacja a) ekstrapolacja Richardsona b) metoda Romberga
Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów
Rozdział : Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów W tym rozdziale omówione zostaną dwie najpopularniejsze metody estymacji parametrów w ekonometrycznych modelach nieliniowych,
Wstęp do metod numerycznych Rozwiazywanie równań algebraicznych. P. F. Góra
Wstęp do metod numerycznych Rozwiazywanie równań algebraicznych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2010 Co to znaczy rozwiazać równanie? Przypuśmy, że postawiono przed nami problem rozwiazania
II. RÓŻNICZKOWANIE I CAŁKOWANIE NUMERYCZNE Janusz Adamowski
II. RÓŻNICZKOWANIE I CAŁKOWANIE NUMERYCZNE Janusz Adamowski 1 1 Różniczkowanie numeryczne Rozważmy funkcję f(x) określoną na sieci równoodległyc węzłów. Funkcja f(x) może być dana za pomocą wzoru analitycznego
2.1. Postać algebraiczna liczb zespolonych Postać trygonometryczna liczb zespolonych... 26
Spis treści Zamiast wstępu... 11 1. Elementy teorii mnogości... 13 1.1. Algebra zbiorów... 13 1.2. Iloczyny kartezjańskie... 15 1.2.1. Potęgi kartezjańskie... 16 1.2.2. Relacje.... 17 1.2.3. Dwa szczególne
Metoda największej wiarygodności
Metoda największej wiarygodności Próbki w obecności tła Funkcja wiarygodności Iloraz wiarygodności Pomiary o różnej dokładności Obciążenie Informacja z próby i nierówność informacyjna Wariancja minimalna
Programowanie celowe #1
Programowanie celowe #1 Problem programowania celowego (PC) jest przykładem problemu programowania matematycznego nieliniowego, który można skutecznie zlinearyzować, tzn. zapisać (i rozwiązać) jako problem
Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa
Spis treści Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa Romuald Kotowski Katedra Informatyki Stosowanej PJWSTK 2009 Spis treści Spis treści 1 Wstęp Bardzo często interesujący
Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa. P. F. Góra
Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2012 Uwarunkowanie zadania numerycznego Niech ϕ : R n R m będzie pewna funkcja odpowiednio wiele
Numeryczne metody optymalizacji Optymalizacja w kierunku. informacje dodatkowe
Numeryczne metody optymalizacji Optymalizacja w kierunku informacje dodatkowe Numeryczne metody optymalizacji x F x = min x D x F(x) Problemy analityczne: 1. Nieliniowa złożona funkcja celu F i ograniczeń
Matematyka II. Bezpieczeństwo jądrowe i ochrona radiologiczna Semestr letni 2018/2019 wykład 13 (27 maja)
Matematyka II Bezpieczeństwo jądrowe i ochrona radiologiczna Semestr letni 208/209 wykład 3 (27 maja) Całki niewłaściwe przedział nieograniczony Rozpatrujemy funkcje ciągłe określone na zbiorach < a, ),
DOPASOWYWANIE KRZYWYCH
DOPASOWYWANIE KRZYWYCH Maciej Patan Uniwersytet Zielonogórski Motywacje Przykład 1. Dane o przyroście światowej populacji są aktualizowane co każde 10 lat, celem szacowania średniego przyrostu rocznego.
Wstęp do metod numerycznych 12. Minimalizacja: funkcje wielu zmiennych. P. F. Góra
Wstęp do metod numerycznych 12. Minimalizacja: funkcje wielu zmiennych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2015 Strategia minimalizacji wielowymiarowej Zakładamy, że metody poszukiwania minimów
Prawdopodobieństwo i statystyka
Wykład XV: Zagadnienia redukcji wymiaru danych 2 lutego 2015 r. Standaryzacja danych Standaryzacja danych Własności macierzy korelacji Definicja Niech X będzie zmienną losową o skończonym drugim momencie.
WYKŁADY Z MATEMATYKI DLA STUDENTÓW UCZELNI EKONOMICZNYCH
WYKŁADY Z MATEMATYKI DLA STUDENTÓW UCZELNI EKONOMICZNYCH Pod redakcją Anny Piweckiej Staryszak Autorzy poszczególnych rozdziałów Anna Piwecka Staryszak: 2-13; 14.1-14.6; 15.1-15.4; 16.1-16.3; 17.1-17.6;
Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych
Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych mgr inż. C. Dendek prof. nzw. dr hab. J. Mańdziuk Politechnika Warszawska, Wydział Matematyki i Nauk Informacyjnych Outline 1 Uczenie
Ćwiczenia nr 7. TEMATYKA: Krzywe Bézier a
TEMATYKA: Krzywe Bézier a Ćwiczenia nr 7 DEFINICJE: Interpolacja: przybliżanie funkcji za pomocą innej funkcji, zwykle wielomianu, tak aby były sobie równe w zadanych punktach. Poniżej przykład interpolacji
Funkcje dwóch zmiennych
Maciej Grzesiak Instytut Matematyki Politechniki Poznańskiej Funkcje dwóch zmiennych 1. Funkcje dwóch zmiennych: pojęcia podstawowe Definicja 1. Funkcją dwóch zmiennych określoną na zbiorze A R 2 o wartościach
Metody numeryczne II
Metody numeryczne II Poszukiwanie ekstremów funkcji Janusz Szwabiński szwabin@ift.uni.wroc.pl nmslides-13.tex Metody numeryczne II Janusz Szwabiński 29/5/2003 14:40 p.1/55 Poszukiwanie ekstremów funkcji
Wprowadzenie Metoda bisekcji Metoda regula falsi Metoda siecznych Metoda stycznych RÓWNANIA NIELINIOWE
Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać ogólna równania nieliniowego Zazwyczaj nie można znaleźć
INTERPOLACJA I APROKSYMACJA FUNKCJI
Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Wprowadzenie Na czym polega interpolacja? Interpolacja polega
Metody iteracyjne rozwiązywania układów równań liniowych (5.3) Normy wektorów i macierzy (5.3.1) Niech. x i. i =1
Normy wektorów i macierzy (5.3.1) Niech 1 X =[x x Y y =[y1 x n], oznaczają wektory przestrzeni R n, a yn] niech oznacza liczbę rzeczywistą. Wyrażenie x i p 5.3.1.a X p = p n i =1 nosi nazwę p-tej normy
Rozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów.
Rozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów. Plan wykładu: 1. Wyznaczanie pojedynczych pierwiastków rzeczywistych równań nieliniowych metodami a) połowienia (bisekcji)
Układy równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona) f(x) = 0, gdzie. dla n=2 np.
Układy równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona f(x 0, f ( f, f,..., f n gdzie 2 x ( x, x 2,..., x n dla n2 np. f ( x, y 0 g( x, y 0 dla każdej wielowymiarowej rozwinięcie w szereg Taylora
Macierze. Rozdział Działania na macierzach
Rozdział 5 Macierze Funkcję, która każdej parze liczb naturalnych (i, j) (i 1,..., n; j 1,..., m) przyporządkowuje dokładnie jedną liczbę a ij F, gdzie F R lub F C, nazywamy macierzą (rzeczywistą, gdy
Rozkłady wielu zmiennych
Rozkłady wielu zmiennych Uogólnienie pojęć na rozkład wielu zmiennych Dystrybuanta, gęstość prawdopodobieństwa, rozkład brzegowy, wartości średnie i odchylenia standardowe, momenty Notacja macierzowa Macierz
IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych,
IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. Definicja 1.1. Niech D będzie podzbiorem przestrzeni R n, n 2. Odwzorowanie f : D R nazywamy
Zajęcia nr 1 (1h) Dwumian Newtona. Indukcja. Zajęcia nr 2 i 3 (4h) Trygonometria
Technologia Chemiczna 008/09 Zajęcia wyrównawcze. Pokazać, że: ( )( ) n k k l = ( n l )( n l k l Zajęcia nr (h) Dwumian Newtona. Indukcja. ). Rozwiązać ( ) ( równanie: ) n n a) = 0 b) 3 ( ) n 3. Znaleźć
STATYSTYKA I DOŚWIADCZALNICTWO Wykład 5
STATYSTYKA I DOŚWIADCZALNICTWO Wykład 5 Analiza korelacji - współczynnik korelacji Pearsona Cel: ocena współzależności między dwiema zmiennymi ilościowymi Ocenia jedynie zależność liniową. r = cov(x,y
Metody numeryczne. materiały do wykładu dla studentów. 7. Całkowanie numeryczne
Metody numeryczne materiały do wykładu dla studentów 7. Całkowanie numeryczne 7.1. Całkowanie numeryczne 7.2. Metoda trapezów 7.3. Metoda Simpsona 7.4. Metoda 3/8 Newtona 7.5. Ogólna postać wzorów kwadratur
METODY NUMERYCZNE. Wykład 4. Numeryczne rozwiązywanie równań nieliniowych z jedną niewiadomą. prof. dr hab.inż. Katarzyna Zakrzewska
METODY NUMERYCZNE Wykład 4. Numeryczne rozwiązywanie równań nieliniowych z jedną niewiadomą prof. dr hab.inż. Katarzyna Zakrzewska Met.Numer. Wykład 4 1 Rozwiązywanie równań nieliniowych z jedną niewiadomą
Układy równań liniowych. Krzysztof Patan
Układy równań liniowych Krzysztof Patan Motywacje Zagadnienie kluczowe dla przetwarzania numerycznego Wiele innych zadań redukuje się do problemu rozwiązania układu równań liniowych, często o bardzo dużych
Metody Optymalizacji: Przeszukiwanie z listą tabu
Metody Optymalizacji: Przeszukiwanie z listą tabu Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje: wtorek
Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji
Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji Adam Kiersztyn Lublin 2014 Adam Kiersztyn () Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji maj 2014 1 / 24 Zanim przejdziemy
W naukach technicznych większość rozpatrywanych wielkości możemy zapisać w jednej z trzech postaci: skalara, wektora oraz tensora.
1. Podstawy matematyki 1.1. Geometria analityczna W naukach technicznych większość rozpatrywanych wielkości możemy zapisać w jednej z trzech postaci: skalara, wektora oraz tensora. Skalarem w fizyce nazywamy
jeśli nie jest spełnione kryterium zatrzymania, to nowym punktem roboczym x(t+1) staje i następuje przejście do 1)
Metody automatycznej optymalizacji cz.i metody dwufazowe Święta Wielkanocne już za nami, tak więc bierzemy się wspólnie do pracy. Ostatnim razem dokonaliśmy charakterystyki zadań optymalizacji i wskazaliśmy
Statystyka i eksploracja danych
Wykład XII: Zagadnienia redukcji wymiaru danych 12 maja 2014 Definicja Niech X będzie zmienną losową o skończonym drugim momencie. Standaryzacją zmiennej X nazywamy zmienną losową Z = X EX Var (X ). Definicja
3. FUNKCJA LINIOWA. gdzie ; ół,.
1 WYKŁAD 3 3. FUNKCJA LINIOWA FUNKCJĄ LINIOWĄ nazywamy funkcję typu : dla, gdzie ; ół,. Załóżmy na początek, że wyraz wolny. Wtedy mamy do czynienia z funkcją typu :.. Wykresem tej funkcji jest prosta
Metody eksploracji danych 2. Metody regresji. Piotr Szwed Katedra Informatyki Stosowanej AGH 2017
Metody eksploracji danych 2. Metody regresji Piotr Szwed Katedra Informatyki Stosowanej AGH 2017 Zagadnienie regresji Dane: Zbiór uczący: D = {(x i, y i )} i=1,m Obserwacje: (x i, y i ), wektor cech x
VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa.
VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa. W rozdziale tym zajmiemy się dokładniej badaniem stabilności rozwiązań równania różniczkowego. Pojęcie stabilności w
Aproksymacja funkcji a regresja symboliczna
Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(x), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(x), zwaną funkcją aproksymującą
Ciągi liczbowe. Zbigniew Koza. Wydział Fizyki i Astronomii
Ciągi liczbowe Zbigniew Koza Wydział Fizyki i Astronomii Wrocław, 2015 Co to są ciągi? Ciąg skończony o wartościach w zbiorze A to dowolna funkcja f: 1,2,, n A Ciąg nieskończony o wartościach w zbiorze
Funkcje wielu zmiennych
Funkcje wielu zmiennych Wykresy i warstwice funkcji wielu zmiennych. Granice i ciagłość funkcji wielu zmiennych. Pochodne czastkowe funkcji wielu zmiennych. Gradient. Pochodna kierunkowa. Różniczka zupełna.
1 Relacje i odwzorowania
Relacje i odwzorowania Relacje Jacek Kłopotowski Zadania z analizy matematycznej I Wykazać, że jeśli relacja ρ X X jest przeciwzwrotna i przechodnia, to jest przeciwsymetryczna Zbadać czy relacja ρ X X
Rozdział 5. Macierze. a 11 a a 1m a 21 a a 2m... a n1 a n2... a nm
Rozdział 5 Macierze Funkcję, która każdej parze liczb naturalnych (i,j) (i = 1,,n;j = 1,,m) przyporządkowuje dokładnie jedną liczbę a ij F, gdzie F = R lub F = C, nazywamy macierzą (rzeczywistą, gdy F
Indukcja matematyczna. Zasada minimum. Zastosowania.
Indukcja matematyczna. Zasada minimum. Zastosowania. Arkadiusz Męcel Uwagi początkowe W trakcie zajęć przyjęte zostaną następujące oznaczenia: 1. Zbiory liczb: R - zbiór liczb rzeczywistych; Q - zbiór