W poszukiwaniu minimum globalnego
|
|
- Sebastian Bednarczyk
- 8 lat temu
- Przeglądów:
Transkrypt
1 Optymalizacja W poszukiwaniu minimum globalnego Dawid Toton Optymalizacja p. 1/30
2 Szansa na znalezienie minimum Optymalizacja p. 2/30
3 Rodzaje problemów Klasyfikacja według funkcji: ciagły: R n R dyskretny: Z n R kombinatoryczny:2 n R praktyczny: Z n R n R Optymalizacja p. 3/30
4 Możliwe kłopoty: Brak jakiegokolwiek opisu matematycznego np. subiektywna ocena zrozumiałości mowy Kosztowne wyznaczenie wartości w każdym punkcie Liczba wymiarów tak duża, że nie starcza pamięci dla szybszych algorytmów Szum wprowadzony przez obliczenia np. przez metodę elementów skończonych Wielomodalność wielka ilosć minimów lokalnych Optymalizacja p. 4/30
5 Poszukiwanie minimum lokalnego Metody: bezgradientowe gradientowe newtonowskie Optymalizacja p. 5/30
6 Poszukiwanie proste Jeśli nie mamy żadnej własności minimalizowanej funkcji do dyspozycji, możemy użyć najprostszej metody: 1. Wybierz przestrzeń parametru P, która chcemy zbadać 2. Zbadaj k punktów z P (regularna siatka lub losowanie), pamiętaj najlepszy 3. Zmień region poszukiwań Zmniejsz go (np. jednakowo we wszystkich kierunkach) Przesuń w lepsze miejsce (np. tak, aby w centrum był aktualny rekordzista) 4.n razy powtórz: , czyli wykonaj wszystko od nowa (multistart) Zalety algorytmu: niewymagajacy, skranie prosty ale: w przypadku wieklich problemów ważne jest zrównoleglenie! Podobne algorytmy: Hooka-Jeevesa, Rosenbrocka Optymalizacja p. 6/30
7 Simplex (Nelder-Mead) Algorytm minimalizacji dla funkcjif: R n R: 1. wybierzn+1 punktów x i 2. wybierz najgorszy punkt x j 3. Czy to ten sam co przedtem? nie odbij go symetrycznie względem hiperpłaszczyzny wyznaczonej przez pozostałe jeśli tam jest mniejsza wartośćf : rozciagnij bryłęx 1,...,x n+1 w kierunkux j w przeciwnym wypadku: postawx j w mniejszej odległości od płaszczyzny odbicia ten sam wybierz najgorszy spośród pozostałych ( 3). 4. Sprawdź, czy tu już minimum 5. Jeśli utknęliśmy, to wprowadź odpowiednie zmiany 6. 2 Optymalizacja p. 7/30
8 Simplex (Nelder-Mead) UWAGA: nie ufać obrazkowi robótka ręczna, na oko! Optymalizacja p. 8/30
9 Z minimalizacja kierunkowa F( x+ p)=f( x)+ F p+ 1 2 pt H( x) p+o(h 3 ) Koncepcja ogólna: 1. Czy mamy już zadowalajace x? (warunki zbieżności, optymalności) 2. Wyznacz kierunek poszukiwań p. 3. Znajdźµtakie, byf( x+µ p)<f( x) 4. Oblicz nowe x, gradient, hesjan (lub jego przybliżenie); następny krok Optymalizacja p. 9/30
10 Najprostsze metody pierwszego rzędu Znamy gradient w punkcie x. Dokad iść? x i+1 = x i µ F( x i ) Tak nie najlepiej zły kierunek np. w bananowej dolinie a. Gdy długość krokuµ i ustalana według przepisu (np. chodź szybciej po płaskim ): Wersja z momentem: x i+1 = x i µ i F( x i ) F( x i ) x i+1 x i =α( x i x i 1 ) µ F( x i ) a funkcja Rosenbrocka:F( x)=100 ( x 2 x 2 1) 2+(1 x1 ) Optymalizacja p. 10/30
11 Minimalizacja kierunkowa Ile naprawdę powinno wynosić µ? adaptacja (jest OK zwiększ, pod górkę zmniejsz) bisekcja, złoty podział, itp. miejscami opłacalne przybliżenie parabola obliczamyf w trzech punktach jeśli znamy F można pozwolić sobie na wyższy rzad Optymalizacja p. 11/30
12 Metoda gradientów sprzężonych Kierunki minimalizacji p i ustalamy tak, by za każdym razem wnosiły coś nowego. Z żadania ortogonalności i sprzężenia kierunków p 1... p k 1 wynika postać wzoru na następny kierunek: p k = g k + gt k( g k g k 1 ) g T k 1 g k 1 p k 1 powolniejsza niż metody drugiego rzędu mała złożoność pamięciowa i czasowa Najlepsza dla największych problemów. Optymalizacja p. 12/30
13 Levenberg-Marquardt Jak Origin dopasowuje nam krzywe? Minimalizujemy bład kwadratowy: F( x)= 1 2 (ei ( x)) 2. Znamy gradient: F=(J( x)) T e( x), gdziej oznacza macierz Jacobiego dla e: J( x) = [ e i x j ]. Przybliżony hesjan: G( x)=(j( x)) T J( x)+v k 1 Drugi składnik a daje regularyzację sam hesjan często nie jest dodatnio określony. Parametr Levenberga-Marquardtav k jest duży na poczatku (idziemy w kierunku największego spadku), na końcu mały (blisko minimum kwadratowo zbieżny algorytm Gaussa-Newtona). Obierany krok: a pomysl Levenberga p= (G( x)) 1 F( x) Optymalizacja p. 13/30
14 Levenberg-Marquardt Poprawka a ( po płaskim chodź szybciej ): G( x)=(j( x)) T J( x)+v k diag ( (J( x)) T J( x) ) Ile wynosiv k? jeślif( x+ p) F( x), zbliżamy się do minimum, więc v k+1 = v k r idziemy do x+ p jeślif( x+ p)>f( x) v k+1 =v k r n rezygnujemy z takiego kroku a pomysl Marquardta Optymalizacja p. 14/30
15 Levenberg-Marquardt Bardzo skuteczna metoda, ale: Odwracanie macierzy zajmujeo ( n 3) czasu. Jedna z najlepszych dla problemów średnich rozmiarów. Konkurencyjny sposób: algorytm zmiennej metryki w każdym kroku aktualizacja odwrotności hesjanu V k =(G( x k )) 1. Przykładowo wzór Broydena-Goldfarba-Fletchera-Shanno: ( ) V k =V k rt kv k 1 r k sk s T k s T k r k s T k r s krkv T k 1 +V k 1 r k s T k k s T k r k gdzies k = x k x k 1,r k = F(x k ) F(x k 1 ). Optymalizacja p. 15/30
16 Dokładne różniczkowanie... Załóżmy, że nasz nowy wspaniały algorytm potrzebuje dokładnej wartości gradientu funkcji F. Patrzymy na skomplikowany kod naszej minimalizowanej funkcji... Co poczać? Optymalizacja p. 16/30
17 Dokładne różniczkowanie... Załóżmy, że nasz nowy wspaniały algorytm potrzebuje dokładnej wartości gradientu funkcji F. Patrzymy na skomplikowany kod naszej minimalizowanej funkcji... Co poczać? Nie trzeba dużo kawy! Bierzemy narzędzia: Fortran ADIFOR, ADOL-F, DAFOR, GRESS, JAKEF, TAMC, OPTIMA90,... C ADIC, ADOL-C, FADBAD++... i generujemy programy obliczajace potrzebne nam pochodne. Optymalizacja p. 16/30
18 Automatyczne różniczkowanie programów Jak działa takie narzędzie? analizuje kod źródłowy jak kompilator, znajduje wszystkie operacje arytmetyczne i wywołania prostych funkcji (tzn.sin(x),exp(x)... ), buduje kod obliczajacy zadane pochodne czastkowe 1. lub 2. rzędu. Optymalizacja p. 17/30
19 Automatyczne różniczkowanie programów Funcja celu obliczana krok po kroku: F( x)=g(m L (M L 1 (...M 1 (M 0 ( x))...)))=g( y) Dwa sposoby różniczkowania: wprost y G J L J L 1... J 1 J 0 δ x=δf Obliczenia wykonuja się tyle razy, ile wynosi wymiar przestrzeni parametru x wstecz ( obliczenia sprzężone ) J T 0 J T 1... J T L 1 J T L ( y G) T =( x (F)) T Tyle razy powtarzamy cała procedurę, ile wynosi wymiar przeciwdzedziny F zwykle dużo mniej! Koszt: wartościm i trzeba przechowywać lub każdorazowo od nowa obliczać. Optymalizacja p. 18/30
20 Jak nie utknać w minimum lokalnym? poprawianie algorymtów gradientowych (np. dodanie momentu) multistart wielokrotnie losujemy punkt startu, by trafić w nieckę minimum globalnego metody globalnej optymalizacji (przyrodnicze!) algorytmy genetyczne symulowane wyżarzanie Inne dary natury: sieci neuronowe, algorytmy mrówkowe (ant colony optimization), ewolucyjne (evolution strategies), sieci immunologiczne (artifical immune networks)... Optymalizacja p. 19/30
21 TSP problem komiwojażera Dany jest graf(v,e), którego krawędzie maja wagi (d:v R + ). Wyznaczyć cyklh 1,...,h n, w którym każdy węzeł pojawia się dokładnie raz (cykl Hamiltona) Ograniczenia na przestrzeń N n : i=1...n j :v j =h i i j h i h j krawędzie daja minimalna sumę wag min V i=1 d hi,h i+1 Po prostu pytamy: w jakiej kolejności wiercić dziury?... obserwować gwiazdy? Optymalizacja p. 20/30
22 TSP Problem jest NP-trudny, ale w praktyce zadowalamy się przybliżonymi rozwiazaniami. Używane metody: heurystyki symulowane wyżarzanie algorytmy genetyczne, mrówkowe sieć neuronowa inne... Optymalizacja p. 21/30
23 Sieci neuronowe a optymalizacja Uczenie sieci neuronowych intensywnie wykorzystuje algorytmy optymalizacji Optymalizacja może być realizowana przez sieci neuronowe! Ciekawostka: jak zaprzac sieć Hopfielda do rozwiazywania TSP? ϕ i = j iw ji y j y i = 1 2 (1+tanh(βϕ i)) Optymalizacja p. 22/30
24 Uciaglenie TSP dla sieci Niech rolę poszukiwanego punktu x pełni teraz macierz: 1 gdy h p =v i x pi = 0 wpp Ograniczenia: { Jedno odwiedzenie każdego miasta p, jedno miasto na każdej pozycji i: h 1 (x)= x pi x pj =0 h 2 (x)= p,i,j i p,i,q p x pi x qi =0 Odwiedzenie wszystkich: ( h 3 (x)= p,i x pi n) 2 =0 Optymalizacja p. 23/30
25 Uciaglenie TSP dla sieci Analogowa sieć Hopfielda: ciagły czas ciagła funkcja aktywacji y(ϕ) ewolucja opisana układem równań różniczkowych du i = 1 dt c E x i Optymalizacja p. 24/30
26 Uciaglenie TSP dla sieci Nasza funkcja celu (oryginalna): J(x)= p,q p,i d pq x pi (x q,i+1 +x q,i 1 ) Funkcja energii neuronowej sieci Hopfielda (J+ funkcje kary ): E(x)=Ah 1 (x)+bh 2 (x)+ch 3 (x)+dj(x)+ pi 1 τ xpi 1 2 y 1 (ξ)dξ Otrzymany układ ewoluuje ku krótkim cyklom, ale łatwo wpada w minima lokalne. Wiele modyfikacji, poszukiwanie odpowiednich parametrów. Siła tkwi w równoległości. Optymalizacja p. 25/30
27 Ant Colony Optimization Inspiracja: Jak się zachowuja mrówki? pozostawiaja ślady feromonowe częściej chodza tam, gdzie wywęsza sygnał gdy nie wiedza dokad pójść wybieraja przypadkowy kierunek działaja w dużej grupie znajduja krótkie ścieżki Optymalizacja p. 26/30
28 Ant Colony Optimization Innymi słowy: dodatnie sprzężenie zwrotne wysoki stopień równoległości liczność jednostek (agentów) zapobiega przedwczesnej zbieżności zachłanność Istnieje optymalna liczba mrówek, powyżej której jakość rozwiazania się nie poprawia. Optymalizacja p. 27/30
29 Ant Colony Optimization Mamy sposób na rozwiazywanie problemów kombinatorycznych (TSP, SAT, QAP,... ). Trzeba znaleźć: grafowa reprezentację problemu (dla TSP oczywista) sposób zachłannego konstruowania pojedynczego rozwiazania x (TSP: mrówka pamięta sobie kolejne odwiedzane węzły) zasadę gromadzenia informacji w grafie (TSP: np. krótsza krawędź więcej feromonu) nowa postać ograniczeń definiujacych przestrzeń rozwiazań (TSP: mrówka nie powraca do węzła, który sobie pamięta) Optymalizacja p. 28/30
30 Gotowce Pakiety służacych do optymalizacji (lista z serwisu numerycznego ICM): COOOL, GSL, HSL, KNITRO, MINOPT, MLOCPSOA, NAG, NAPACK, NEOS, OPT++, OptSolve++, PORT, Scilab, SLATEC, SMINPACK, StarFLIP++, TOMLAB, UNCON Optymalizacja p. 29/30
31 Jak to wyglada? Przykład: Opt++ biblioteka w C++ do rozwiazywania nieliniowych problemów optymalizacyjnych. #include "NLF.h" #include "OptQNewton.h"... int main() { FDNLF1 nlp(2, funkcja, init funckja); nlp.initfcn(); OptQNewton objfcn(&nlp); objfcn.setsearchstrategy(trustregion); objfcn.setmaxfeval(200); objfcn.setfcntol(1.e-4); objfcn.setoutputfile("example1.out",0); objfcn.optimize(); } Optymalizacja p. 30/30
ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ
ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ Maciej Patan Uniwersytet Zielonogórski WSTEP Zadanie minimalizacji bez ograniczeń f(ˆx) = min x R nf(x) f : R n R funkcja ograniczona z dołu Algorytm rozwiazywania Rekurencyjny
Bardziej szczegółowoWYKŁAD 9 METODY ZMIENNEJ METRYKI
WYKŁAD 9 METODY ZMIENNEJ METRYKI Kierunki sprzężone. Metoda Newtona Raphsona daje dobre przybliżenie najlepszego kierunku poszukiwań, lecz jest to okupione znacznym kosztem obliczeniowym zwykle postać
Bardziej szczegółowoSZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 13. PROBLEMY OPTYMALIZACYJNE Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska PROBLEMY OPTYMALIZACYJNE Optymalizacja poszukiwanie
Bardziej szczegółowoUczenie sieci typu MLP
Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 5. Metody kierunków poparwy (metoda Newtona-Raphsona, metoda gradientów sprzężonych) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.03.2019 1
Bardziej szczegółowoMetody Optymalizacji: Przeszukiwanie z listą tabu
Metody Optymalizacji: Przeszukiwanie z listą tabu Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje: wtorek
Bardziej szczegółowoTomasz M. Gwizdałła 2012/13
METODY METODY OPTYMALIZACJI OPTYMALIZACJI Tomasz M. Gwizdałła 2012/13 Informacje wstępne Tomasz Gwizdałła Katedra Fizyki Ciała Stałego UŁ Pomorska 149/153, p.523b tel. 6355709 tomgwizd@uni.lodz.pl http://www.wfis.uni.lodz.pl/staff/tgwizdalla
Bardziej szczegółowoKADD Minimalizacja funkcji
Minimalizacja funkcji n-wymiarowych Forma kwadratowa w n wymiarach Procedury minimalizacji Minimalizacja wzdłuż prostej w n-wymiarowej przestrzeni Metody minimalizacji wzdłuż osi współrzędnych wzdłuż kierunków
Bardziej szczegółowoMetody Rozmyte i Algorytmy Ewolucyjne
mgr inż. Wydział Matematyczno-Przyrodniczy Szkoła Nauk Ścisłych Uniwersytet Kardynała Stefana Wyszyńskiego Podstawy optymalizacji Plan prezentacji 1 Podstawy matematyczne 2 3 Eliminacja ograniczeń Metody
Bardziej szczegółowoWstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych. P. F. Góra
Wstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2012 Strategia minimalizacji wielowymiarowej Zakładamy, że metody poszukiwania minimów
Bardziej szczegółowoMETODY OPTYMALIZACJI. Tomasz M. Gwizdałła 2018/19
METODY OPTYMALIZACJI Tomasz M. Gwizdałła 2018/19 Informacje wstępne Tomasz Gwizdałła Katedra Fizyki Ciała Stałego UŁ Pomorska 149/153, p.524b tel. 6355709 tomgwizd@uni.lodz.pl http://www.wfis.uni.lodz.pl/staff/tgwizdalla
Bardziej szczegółowoPodstawy Sztucznej Inteligencji (PSZT)
Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12
Bardziej szczegółowoMetody przeszukiwania
Metody przeszukiwania Co to jest przeszukiwanie Przeszukiwanie polega na odnajdywaniu rozwiązania w dyskretnej przestrzeni rozwiązao. Zwykle przeszukiwanie polega na znalezieniu określonego rozwiązania
Bardziej szczegółowoZagadnienia optymalizacji i aproksymacji. Sieci neuronowe.
Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. zajecia.jakubw.pl/nai Literatura: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym. WNT, Warszawa 997. PODSTAWOWE ZAGADNIENIA TECHNICZNE AI
Bardziej szczegółowoWstęp do metod numerycznych 9a. Układy równań algebraicznych. P. F. Góra
Wstęp do metod numerycznych 9a. Układy równań algebraicznych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2012 Układy równań algebraicznych Niech g:r N równanie R N będzie funkcja klasy co najmniej
Bardziej szczegółowoWstęp do metod numerycznych 12. Minimalizacja: funkcje wielu zmiennych. P. F. Góra
Wstęp do metod numerycznych 12. Minimalizacja: funkcje wielu zmiennych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2015 Strategia minimalizacji wielowymiarowej Zakładamy, że metody poszukiwania minimów
Bardziej szczegółowoAlgorytmy mrówkowe (optymalizacja kolonii mrówek, Ant Colony optimisation)
Algorytmy mrówkowe (optymalizacja kolonii mrówek, Ant Colony optimisation) Jest to technika probabilistyczna rozwiązywania problemów obliczeniowych, które mogą zostać sprowadzone do problemu znalezienie
Bardziej szczegółowoZ-ZIP2-303z Zagadnienia optymalizacji Problems of optimization
KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu Nazwa modułu Nazwa modułu w języku angielskim Obowiązuje od roku akademickiego 0/03 Z-ZIP-303z Zagadnienia optymalizacji Problems of optimization A. USYTUOWANIE
Bardziej szczegółowoMetody numeryczne w przykładach
Metody numeryczne w przykładach Bartosz Ziemkiewicz Wydział Matematyki i Informatyki UMK, Toruń Regionalne Koło Matematyczne 8 kwietnia 2010 r. Bartosz Ziemkiewicz (WMiI UMK) Metody numeryczne w przykładach
Bardziej szczegółowoUKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH
Transport, studia I stopnia rok akademicki 2011/2012 Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Uwagi wstępne Układ liniowych równań algebraicznych można
Bardziej szczegółowoMetody numeryczne I Równania nieliniowe
Metody numeryczne I Równania nieliniowe Janusz Szwabiński szwabin@ift.uni.wroc.pl Metody numeryczne I (C) 2004 Janusz Szwabiński p.1/66 Równania nieliniowe 1. Równania nieliniowe z pojedynczym pierwiastkiem
Bardziej szczegółowoKADD Minimalizacja funkcji
Minimalizacja funkcji Poszukiwanie minimum funkcji Foma kwadratowa Metody przybliżania minimum minimalizacja Minimalizacja w n wymiarach Metody poszukiwania minimum Otaczanie minimum Podział obszaru zawierającego
Bardziej szczegółowoWstęp do metod numerycznych 9. Minimalizacja: funkcje jednej zmiennej. P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/
Wstęp do metod numerycznych 9. Minimalizacja: funkcje jednej zmiennej P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2011 Lokalna minimalizacja ciagła Minimalizacja funkcji jest jedna z najważniejszych
Bardziej szczegółowo8. Neuron z ciągłą funkcją aktywacji.
8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i
Bardziej szczegółowoOptymalizacja. Wybrane algorytmy
dr hab. inż. Instytut Informatyki Politechnika Poznańska www.cs.put.poznan.pl/mkomosinski, Andrzej Jaszkiewicz Problem optymalizacji kombinatorycznej Problem optymalizacji kombinatorycznej jest problemem
Bardziej szczegółowoOptymalizacja (minimalizacja) funkcji. Plan wykładu: 1. Sformułowanie problemu, funkcja celu. 2. Metody bezgradientowe
Optymalizacja (minimalizacja) funkcji Plan wykładu: 1. Sformułowanie problemu, funkcja celu. Metody bezgradientowe a) metoda złotego podziału b) metoda sympleks c) metoda interpolacji Powell'a 3. Metody
Bardziej szczegółowoMetody numeryczne II
Metody numeryczne II Poszukiwanie ekstremów funkcji Janusz Szwabiński szwabin@ift.uni.wroc.pl nmslides-13.tex Metody numeryczne II Janusz Szwabiński 29/5/2003 14:40 p.1/55 Poszukiwanie ekstremów funkcji
Bardziej szczegółowo5. Metody stochastyczne (symulowane wyżarzanie, algorytmy genetyczne) -> metody Monte Carlo
Optymalizacja (minimalizacja) funkcji Plan wykładu: 1. Sformułowanie problemu, funkcja celu 2. Metody bezgradientowe a) metoda złotego podziału b) metoda sympleks c) metoda interpolacji Powell'a 3. Metody
Bardziej szczegółowoOptymalizacja optymalizacji
7 maja 2008 Wstęp Optymalizacja lokalna Optymalizacja globalna Algorytmy genetyczne Badane czasteczki Wykorzystane oprogramowanie (Algorytm genetyczny) 2 Sieć neuronowa Pochodne met-enkefaliny Optymalizacja
Bardziej szczegółowoOSTASZEWSKI Paweł (55566) PAWLICKI Piotr (55567) Algorytmy i Struktury Danych PIŁA
OSTASZEWSKI Paweł (55566) PAWLICKI Piotr (55567) 16.01.2003 Algorytmy i Struktury Danych PIŁA ALGORYTMY ZACHŁANNE czas [ms] Porównanie Algorytmów Rozwiązyjących problem TSP 100 000 000 000,000 10 000 000
Bardziej szczegółowoPolitechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania
Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Metody optymalizacji Metody bezgradientowe optymalizacji bez ograniczeń Materiały pomocnicze do ćwiczeń
Bardziej szczegółowo1 Metody rozwiązywania równań nieliniowych. Postawienie problemu
1 Metody rozwiązywania równań nieliniowych. Postawienie problemu Dla danej funkcji ciągłej f znaleźć wartości x, dla których f(x) = 0. (1) 2 Przedział izolacji pierwiastka Będziemy zakładać, że równanie
Bardziej szczegółowoMetody Numeryczne Optymalizacja. Wojciech Szewczuk
Metody Numeryczne Optymalizacja Optymalizacja Definicja 1 Przez optymalizację będziemy rozumieć szukanie minimów lub maksimów funkcji. Optymalizacja Definicja 2 Optymalizacja lub programowanie matematyczne
Bardziej szczegółowoROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH
Transport, studia I stopnia Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać ogólna równania nieliniowego Często występującym, ważnym problemem obliczeniowym
Bardziej szczegółowoWstęp do metod numerycznych Rozwiazywanie równań algebraicznych. P. F. Góra
Wstęp do metod numerycznych Rozwiazywanie równań algebraicznych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2010 Co to znaczy rozwiazać równanie? Przypuśmy, że postawiono przed nami problem rozwiazania
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej
Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2013-01-09
Bardziej szczegółowo1 Równania nieliniowe
1 Równania nieliniowe 1.1 Postać ogólna równania nieliniowego Często występującym, ważnym problemem obliczeniowym jest numeryczne poszukiwanie rozwiązań równań nieliniowych, np. algebraicznych (wielomiany),
Bardziej szczegółowoTechniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I
Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 4. Metody kierunków poprawy (metoda spadku wzdłuż gradientu) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 21.03.2019 1 / 41 Plan wykładu Minimalizacja
Bardziej szczegółowoIMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ
IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,
Bardziej szczegółowoPolitechnika Wrocławska, Wydział Informatyki i Zarządzania. Optymalizacja
Politechnika Wrocławska, Wydział Informatyki i Zarządzania Optymalizacja Dla podanych niżej problemów decyzyjnych (zad.1 zad.5) należy sformułować zadania optymalizacji, tj.: określić postać zmiennych
Bardziej szczegółowoAproksymacja funkcji a regresja symboliczna
Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(x), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(x), zwaną funkcją aproksymującą
Bardziej szczegółowoTechniki optymalizacji
Techniki optymalizacji Dokładne algorytmy optymalizacji Maciej Hapke maciej.hapke at put.poznan.pl Problem optymalizacji kombinatorycznej Problem optymalizacji kombinatorycznej jest problemem minimalizacji
Bardziej szczegółowojeśli nie jest spełnione kryterium zatrzymania, to nowym punktem roboczym x(t+1) staje i następuje przejście do 1)
Metody automatycznej optymalizacji cz.i metody dwufazowe Święta Wielkanocne już za nami, tak więc bierzemy się wspólnie do pracy. Ostatnim razem dokonaliśmy charakterystyki zadań optymalizacji i wskazaliśmy
Bardziej szczegółowoIteracyjne rozwiązywanie równań
Elementy metod numerycznych Plan wykładu 1 Wprowadzenie Plan wykładu 1 Wprowadzenie 2 Plan wykładu 1 Wprowadzenie 2 3 Wprowadzenie Metoda bisekcji Metoda siecznych Metoda stycznych Plan wykładu 1 Wprowadzenie
Bardziej szczegółowo1.3. Optymalizacja geometrii czasteczki
0 1 Część teoretyczna 13 Optymalizacja geometrii czasteczki Poszukiwanie punktów stacjonarnych (krytycznych) funkcji stanowi niezwykle istotny problem w obliczeniowej chemii kwantowej Sprowadza się on
Bardziej szczegółowoZrównoleglona optymalizacja stochastyczna na dużych zbiorach danych
Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych mgr inż. C. Dendek prof. nzw. dr hab. J. Mańdziuk Politechnika Warszawska, Wydział Matematyki i Nauk Informacyjnych Outline 1 Uczenie
Bardziej szczegółowow analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych.
Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(), zwaną funkcją aproksymującą
Bardziej szczegółowoInteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska
Bardziej szczegółowo11. 11. OPTYMALIZACJA KONSTRUKCJI
11. OPTYMALIZACJA KONSTRUKCJI 1 11. 11. OPTYMALIZACJA KONSTRUKCJI 11.1. Wprowadzenie 1. Optymalizacja potocznie i matematycznie 2. Przykład 3. Kryterium optymalizacji 4. Ograniczenia w zadaniach optymalizacji
Bardziej szczegółowoZagadnienia optymalizacji Problems of optimization
KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu Nazwa modułu Nazwa modułu w języku angielskim Obowiązuje od roku akademickiego 0/04 Zagadnienia optymalizacji Problems of optimization A. USYTUOWANIE MODUŁU W
Bardziej szczegółowoOptymalizacja. Przeszukiwanie lokalne
dr hab. inż. Instytut Informatyki Politechnika Poznańska www.cs.put.poznan.pl/mkomosinski, Maciej Hapke Idea sąsiedztwa Definicja sąsiedztwa x S zbiór N(x) S rozwiązań, które leżą blisko rozwiązania x
Bardziej szczegółowoMetody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści
Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, 2012 Spis treści Przedmowa do wydania drugiego Przedmowa IX X 1. Wstęp 1 2. Wybrane zagadnienia sztucznej inteligencji
Bardziej szczegółowoSIECI REKURENCYJNE SIECI HOPFIELDA
SIECI REKURENCYJNE SIECI HOPFIELDA Joanna Grabska- Chrząstowska Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA SPRZĘŻENIE ZWROTNE W NEURONIE LINIOWYM sygnał
Bardziej szczegółowoMetody Programowania
POLITECHNIKA KRAKOWSKA - WIEiK KATEDRA AUTOMATYKI i TECHNIK INFORMACYJNYCH Metody Programowania www.pk.edu.pl/~zk/mp_hp.html Wykładowca: dr inż. Zbigniew Kokosiński zk@pk.edu.pl Wykład 8: Wyszukiwanie
Bardziej szczegółowoWykład Matematyka A, I rok, egzamin ustny w sem. letnim r. ak. 2002/2003. Każdy zdający losuje jedno pytanie teoretyczne i jedno praktyczne.
Wykład Matematyka A, I rok, egzamin ustny w sem. letnim r. ak. 2002/2003. Każdy zdający losuje jedno pytanie teoretyczne i jedno praktyczne. pytania teoretyczne:. Co to znaczy, że wektory v, v 2 i v 3
Bardziej szczegółowoUczenie sieci neuronowych i bayesowskich
Wstęp do metod sztucznej inteligencji www.mat.uni.torun.pl/~piersaj 2009-01-22 Co to jest neuron? Komputer, a mózg komputer mózg Jednostki obliczeniowe 1-4 CPU 10 11 neuronów Pojemność 10 9 b RAM, 10 10
Bardziej szczegółowo//warunki początkowe m=500; T=30; c=0.4; t=linspace(0,t,m); y0=[-2.5;2.5];
4.3. Przykłady wykorzystania funkcji bibliotecznych 73 MATLAB % definiowanie funkcji function [dx]=vderpol(t,y) global c; dx=[y(2); c*(1-y(1)^2)*y(2)-y(1)]; SCILAB // definiowanie układu function [f]=vderpol(t,y,c)
Bardziej szczegółowo10. Techniki minimalizacji a sieci neuronowe
10. Techniki minimalizacji a sieci neuronowe 10-1 Błąd aproksymacji 10-2 Minimalizacja kosztu 10-3 Tryby minimalizacji 10-4 Metoda największego spadku 10-5 Gradient sprzężony 10-6 Metoda Newtona 10-7 Metody
Bardziej szczegółowoDefinicja pochodnej cząstkowej
1 z 8 gdzie punkt wewnętrzny Definicja pochodnej cząstkowej JeŜeli iloraz ma granicę dla to granicę tę nazywamy pochodną cząstkową funkcji względem w punkcie. Oznaczenia: Pochodną cząstkową funkcji względem
Bardziej szczegółowoWstęp do metod numerycznych 12. Minimalizacja: funkcje wielu zmiennych. P. F. Góra
Wstęp do metod numerycznych 12. Minimalizacja: funkcje wielu zmiennych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2018 Strategia minimalizacji wielowymiarowej Zakładamy, że metody poszukiwania minimów
Bardziej szczegółowoTechniki optymalizacji
Techniki optymalizacji Metaheurystyki oparte na algorytmach lokalnego przeszukiwania Maciej Hapke maciej.hapke at put.poznan.pl GRASP Greedy Randomized Adaptive Search Procedure T.A. Feo, M.G.C. Resende,
Bardziej szczegółowoReprezentacje grafów nieskierowanych Reprezentacje grafów skierowanych. Wykład 2. Reprezentacja komputerowa grafów
Wykład 2. Reprezentacja komputerowa grafów 1 / 69 Macierz incydencji Niech graf G będzie grafem nieskierowanym bez pętli o n wierzchołkach (x 1, x 2,..., x n) i m krawędziach (e 1, e 2,..., e m). 2 / 69
Bardziej szczegółowoUKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH
Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać układu równań liniowych Układ liniowych równań algebraicznych
Bardziej szczegółowoMetody numeryczne Wykład 4
Metody numeryczne Wykład 4 Dr inż. Michał Łanczont Instytut Elektrotechniki i Elektrotechnologii E419, tel. 4293, m.lanczont@pollub.pl, http://m.lanczont.pollub.pl Zakres wykładu Metody skończone rozwiązywania
Bardziej szczegółowoAlgorytmy wyznaczania centralności w sieci Szymon Szylko
Algorytmy wyznaczania centralności w sieci Szymon Szylko Zakład systemów Informacyjnych Wrocław 10.01.2008 Agenda prezentacji Cechy sieci Algorytmy grafowe Badanie centralności Algorytmy wyznaczania centralności
Bardziej szczegółowoObliczenia inspirowane Naturą
Obliczenia inspirowane Naturą Wykład 10 - Mrówki w labiryntach Jarosław Miszczak IITiS PAN Gliwice 05/05/2016 1 / 48 Na poprzednim wykładzie 1... 2... 3... 2 / 48 1 Motywacja biologiczna Podstawowe mechanizmy
Bardziej szczegółowoWstęp do metod numerycznych Zadania numeryczne 2016/17 1
Wstęp do metod numerycznych Zadania numeryczne /7 Warunkiem koniecznym (nie wystarczającym) uzyskania zaliczenia jest rozwiązanie co najmniej 3 z poniższych zadań, przy czym zadania oznaczone literą O
Bardziej szczegółowoAlgorytmy metaheurystyczne podsumowanie
dr hab. inż. Instytut Informatyki Politechnika Poznańska www.cs.put.poznan.pl/mkomosinski, Andrzej Jaszkiewicz Problem optymalizacji kombinatorycznej Problem optymalizacji kombinatorycznej jest problemem
Bardziej szczegółowoBezgradientowe metody optymalizacji funkcji wielu zmiennych. informacje dodatkowe
Bezgradientowe metody optymalizacji funkcji wielu zmiennych informacje dodatkowe Wybór kierunku poszukiwań Kierunki bazowe i ich modyfikacje metody bezgradientowe. Kierunki oparte na gradiencie funkcji
Bardziej szczegółowoTEORETYCZNE PODSTAWY INFORMATYKI
1 TEORETYCZNE PODSTAWY INFORMATYKI 16/01/2017 WFAiS UJ, Informatyka Stosowana I rok studiów, I stopień Repetytorium złożoność obliczeniowa 2 Złożoność obliczeniowa Notacja wielkie 0 Notacja Ω i Θ Rozwiązywanie
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 1. Optymalizacja funkcji jednej zmiennej Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.02.2019 1 / 54 Plan wykładu Optymalizacja funkcji jednej
Bardziej szczegółowoWprowadzenie Metoda bisekcji Metoda regula falsi Metoda siecznych Metoda stycznych RÓWNANIA NIELINIOWE
Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać ogólna równania nieliniowego Zazwyczaj nie można znaleźć
Bardziej szczegółowoMetoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych
inż. Marek Duczkowski Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych słowa kluczowe: algorytm gradientowy, optymalizacja, określanie wodnicy W artykule
Bardziej szczegółowoPlan. Zakres badań teorii optymalizacji. Teoria optymalizacji. Teoria optymalizacji a badania operacyjne. Badania operacyjne i teoria optymalizacji
Badania operacyjne i teoria optymalizacji Instytut Informatyki Poznań, 2011/2012 1 2 3 Teoria optymalizacji Teoria optymalizacji a badania operacyjne Teoria optymalizacji zajmuje się badaniem metod optymalizacji
Bardziej szczegółowoMetoda Karusha-Kuhna-Tuckera
Badania operacyjne i teoria optymalizacji Poznań, 2015/2016 Plan 1 Sformułowanie problemu 2 3 Warunki ortogonalności 4 Warunki Karusha-Kuhna-Tuckera 5 Twierdzenia Karusha-Kuhna-Tuckera 6 Ograniczenia w
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.
Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 211-1-18 1 Pomysł Przykłady Zastosowanie 2
Bardziej szczegółowoModele i narzędzia optymalizacji w systemach informatycznych zarządzania
Politechnika Poznańska Modele i narzędzia optymalizacji w systemach informatycznych zarządzania Joanna Józefowska POZNAŃ 2010/11 Spis treści Rozdział 1. Metoda programowania dynamicznego........... 5
Bardziej szczegółowoWstęp do metod numerycznych 9. Rozwiazywanie równań algebraicznych. P. F. Góra
Wstęp do metod numerycznych 9. Rozwiazywanie równań algebraicznych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2015 Co to znaczy rozwiazać równanie? Przypuśmy, że postawiono przed nami problem rozwiazania
Bardziej szczegółowoProblem komiwojażera ACO. Zagadnienie optymalizacyjne, polegające na znalezieniu minimalnego cyklu Hamiltona w pełnym grafie ważonym.
Problem komiwojażera ACO Zagadnienie optymalizacyjne, polegające na znalezieniu minimalnego cyklu Hamiltona w pełnym grafie ważonym. -Wikipedia Problem do rozwiązania zazwyczaj jest przedstawiany jako
Bardziej szczegółowoAlgorytmy Mrówkowe. Daniel Błaszkiewicz. 11 maja 2011. Instytut Informatyki Uniwersytetu Wrocławskiego
Algorytmy Mrówkowe Instytut Informatyki Uniwersytetu Wrocławskiego 11 maja 2011 Opis Mrówki w naturze Algorytmy to stosunkowo nowy gatunek algorytmów optymalizacyjnych stworzony przez Marco Dorigo w 1992
Bardziej szczegółowoProgramowanie nieliniowe. Badania operacyjne Wykład 3 Metoda Lagrange a
Programowanie nieliniowe Badania operacyjne Wykład 3 Metoda Lagrange a Plan wykładu Przykład problemu z nieliniową funkcją celu Sformułowanie problemu programowania matematycznego Podstawowe definicje
Bardziej szczegółowoProblem Komiwojażera - algorytmy metaheurystyczne
Problem Komiwojażera - algorytmy metaheurystyczne algorytm mrówkowy algorytm genetyczny by Bartosz Tomeczko. All rights reserved. 2010. TSP dlaczego metaheurystyki i heurystyki? TSP Travelling Salesman
Bardziej szczegółowoWybrane podstawowe rodzaje algorytmów
Wybrane podstawowe rodzaje algorytmów Tomasz Głowacki tglowacki@cs.put.poznan.pl Zajęcia finansowane z projektu "Rozwój i doskonalenie kształcenia na Politechnice Poznańskiej w zakresie technologii informatycznych
Bardziej szczegółowoLABORATORIUM 7: Problem komiwojażera (TSP) cz. 2
Instytut Mechaniki i Inżynierii Obliczeniowej Wydział Mechaniczny Technologiczny, Politechnika Śląska www.imio.polsl.pl OBLICZENIA EWOLUCYJNE LABORATORIUM 7: Problem komiwojażera (TSP) cz. 2 opracował:
Bardziej szczegółowoWyznaczanie optymalnej trasy problem komiwojażera
Wyznaczanie optymalnej trasy problem komiwojażera Optymalizacja w podejmowaniu decyzji Opracowała: mgr inż. Natalia Malinowska Wrocław, dn. 28.03.2017 Wydział Elektroniki Politechnika Wrocławska Plan prezentacji
Bardziej szczegółowoAutomatyka i Robotyka II Stopień ogólno akademicki studia niestacjonarne wszystkie Katedra Automatyki i Robotyki Prof. dr hab. inż.
Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 lutego 2012r. KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu Nazwa modułu Nazwa modułu w języku angielskim Obowiązuje od roku akademickiego 2013/2014
Bardziej szczegółowoII. RÓŻNICZKOWANIE I CAŁKOWANIE NUMERYCZNE Janusz Adamowski
II. RÓŻNICZKOWANIE I CAŁKOWANIE NUMERYCZNE Janusz Adamowski 1 1 Różniczkowanie numeryczne Rozważmy funkcję f(x) określoną na sieci równoodległyc węzłów. Funkcja f(x) może być dana za pomocą wzoru analitycznego
Bardziej szczegółowoAlgorytm dyskretnego PSO z przeszukiwaniem lokalnym w problemie dynamicznej wersji TSP
Algorytm dyskretnego PSO z przeszukiwaniem lokalnym w problemie dynamicznej wersji TSP Łukasz Strąk lukasz.strak@gmail.com Uniwersytet Śląski, Instytut Informatyki, Będzińska 39, 41-205 Sosnowiec 9 grudnia
Bardziej szczegółowoSpis treści 377 379 WSTĘP... 9
Spis treści 377 379 Spis treści WSTĘP... 9 ZADANIE OPTYMALIZACJI... 9 PRZYKŁAD 1... 9 Założenia... 10 Model matematyczny zadania... 10 PRZYKŁAD 2... 10 PRZYKŁAD 3... 11 OPTYMALIZACJA A POLIOPTYMALIZACJA...
Bardziej szczegółowoWstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa. P. F. Góra
Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2012 Uwarunkowanie zadania numerycznego Niech ϕ : R n R m będzie pewna funkcja odpowiednio wiele
Bardziej szczegółowoSzukanie rozwiązań funkcji uwikłanych (równań nieliniowych)
Szukanie rozwiązań funkcji uwikłanych (równań nieliniowych) Funkcja uwikłana (równanie nieliniowe) jest to funkcja, która nie jest przedstawiona jawnym przepisem, wzorem wyrażającym zależność wartości
Bardziej szczegółowoSieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści
Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, 2013 Spis treści Przedmowa 7 1. Wstęp 9 1.1. Podstawy biologiczne działania neuronu 9 1.2. Pierwsze modele sieci neuronowej
Bardziej szczegółowoUkłady równań liniowych. Krzysztof Patan
Układy równań liniowych Krzysztof Patan Motywacje Zagadnienie kluczowe dla przetwarzania numerycznego Wiele innych zadań redukuje się do problemu rozwiązania układu równań liniowych, często o bardzo dużych
Bardziej szczegółowoLab 10. Funkcje w argumentach funkcji metoda Newtona. Synonimy nazw typów danych. Struktury. Tablice struktur.
Języki i paradygmaty programowania 1 studia stacjonarne 2018/19 Lab 10. Funkcje w argumentach funkcji metoda Newtona. Synonimy nazw typów danych. Struktury. Tablice struktur. 1. Identyfikator funkcji,
Bardziej szczegółowoPochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji
Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji Adam Kiersztyn Lublin 2014 Adam Kiersztyn () Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji maj 2014 1 / 24 Zanim przejdziemy
Bardziej szczegółowoRÓWNANIA NIELINIOWE Maciej Patan
RÓWNANIA NIELINIOWE Maciej Patan Uniwersytet Zielonogórski Przykład 1 Prędkość v spadającego spadochroniarza wyraża się zależnością v = mg ( 1 e c t) m c gdzie g = 9.81 m/s 2. Dla współczynnika oporu c
Bardziej szczegółowoMetody numeryczne II
Metody numeryczne II Poszukiwanie ekstremów funkcji Janusz Szwabiński szwabin@ift.uni.wroc.pl Metody numeryczne II (C) 2004 Janusz Szwabiński p.1/55 Poszukiwanie ekstremów funkcji 1. Funkcje jednej zmiennej
Bardziej szczegółowoProgramowanie celowe #1
Programowanie celowe #1 Problem programowania celowego (PC) jest przykładem problemu programowania matematycznego nieliniowego, który można skutecznie zlinearyzować, tzn. zapisać (i rozwiązać) jako problem
Bardziej szczegółowo