Przegląd metod optymalizacji numerycznej. Krzysztof Malczewski

Podobne dokumenty
d) Definiowanie macierzy z wykorzystaniem funkcji systemu Matlak

SZTUCZNA INTELIGENCJA

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

Przegląd metod optymalizacji wielowymiarowej. Funkcja testowa. Funkcja testowa. Notes. Notes. Notes. Notes. Tomasz M. Gwizdałła

ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ

Metody Rozmyte i Algorytmy Ewolucyjne

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

5. Metody stochastyczne (symulowane wyżarzanie, algorytmy genetyczne) -> metody Monte Carlo

Bezgradientowe metody optymalizacji funkcji wielu zmiennych. informacje dodatkowe

Wstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych. P. F. Góra

Optymalizacja ciągła

Automatyka i Robotyka II Stopień ogólno akademicki studia niestacjonarne wszystkie Katedra Automatyki i Robotyki Prof. dr hab. inż.

WYKŁAD 9 METODY ZMIENNEJ METRYKI

Optymalizacja ciągła

Optymalizacja (minimalizacja) funkcji. Plan wykładu: 1. Sformułowanie problemu, funkcja celu. 2. Metody bezgradientowe

Optymalizacja ciągła

PODSTAWY AUTOMATYKI. MATLAB - komputerowe środowisko obliczeń naukowoinżynierskich - podstawowe operacje na liczbach i macierzach.

Metody i analiza danych

Spis treści. Koszalin 2006 [BADANIA OPERACYJNE PROGRAMOWANIE LINIOWE]

KADD Minimalizacja funkcji

Wstęp do metod numerycznych 12. Minimalizacja: funkcje wielu zmiennych. P. F. Góra

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

Wstęp do metod numerycznych Zadania numeryczne 2016/17 1

Inżynierskie metody analizy numerycznej i planowanie eksperymentu / Ireneusz Czajka, Andrzej Gołaś. Kraków, Spis treści

Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych

Metody numeryczne Wykład 4

Metody optymalizacji - teoria i wybrane algorytmy

Elementy inteligencji obliczeniowej

Definicja pochodnej cząstkowej

Podstawy Automatyki ćwiczenia Cz.1. Środowisko Matlab

Układy równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona) f(x) = 0, gdzie. dla n=2 np.

Metody Optymalizacji: Przeszukiwanie z listą tabu

METODY OPTYMALIZACJI W BEZPIECZNYM TRANSPORCIE MORSKIM

Metody numeryczne I Równania nieliniowe

Metody optymalizacji - wprowadzenie do SciLab a

Metody numeryczne II

MATLAB - laboratorium nr 1 wektory i macierze

Wprowadzenie do Scilab: macierze

Mathcad c.d. - Macierze, wykresy 3D, rozwiązywanie równań, pochodne i całki, animacje

Uczenie sieci typu MLP

Metody numeryczne Numerical methods. Elektrotechnika I stopień (I stopień / II stopień) Ogólnoakademicki (ogólno akademicki / praktyczny)

1.3. Optymalizacja geometrii czasteczki

Egzamin / zaliczenie na ocenę*

ECTS (Część 2. Metody numeryczne) Nazwa w języku angielskim: Algorithms and data structures.

5. Metody Newtona. 5.1 Wzór Taylora

Metody systemowe i decyzyjne w informatyce

1 Metody rozwiązywania równań nieliniowych. Postawienie problemu

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

Metody Numeryczne Optymalizacja. Wojciech Szewczuk

Wstęp do metod numerycznych Eliminacja Gaussa Równania macierzowe. P. F. Góra

Metody numeryczne Numerical methods. Energetyka I stopień (I stopień / II stopień) Ogólnoakademicki (ogólnoakademicki / praktyczny)

Obliczenia równoległe i rozproszone. Praca zbiorowa pod redakcją Andrzeja Karbowskiego i Ewy Niewiadomskiej-Szynkiewicz

Metody systemowe i decyzyjne w informatyce

automatyka i robotyka II stopień (I stopień / II stopień) ogólnoakademicki (ogólno akademicki / praktyczny)

IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych,

10. Techniki minimalizacji a sieci neuronowe

Rozdział 5. Macierze. a 11 a a 1m a 21 a a 2m... a n1 a n2... a nm

1 Funkcje dwóch zmiennych podstawowe pojęcia

ALGEBRA z GEOMETRIA, ANALITYCZNA,

04 Układy równań i rozkłady macierzy - Ćwiczenia. Przykład 1 A =

Elementy Modelowania Matematycznego

WYDZIAŁ MECHANICZNO-ENERGETYCZNY KARTA PRZEDMIOTU

dr inż. Damian Słota Gliwice r. Instytut Matematyki Politechnika Śląska

Matlab - zastosowania Matlab - applications. Informatyka II stopień (I stopień / II stopień) ogólnoakademicki (ogólno akademicki / praktyczny)

OBLICZENIA OPTYMALIZACYJNE W MATLABIE. WEiTI PW

Z52: Algebra liniowa Zagadnienie: Zastosowania algebry liniowej Zadanie: Operatory różniczkowania, zagadnienie brzegowe.

Funkcje dwóch zmiennych

Metody Obliczeniowe w Nauce i Technice

Wykład Ćwiczenia Laboratorium Projekt Seminarium Liczba godzin zajęć zorganizowanych w Uczelni 30 30

2.1. Postać algebraiczna liczb zespolonych Postać trygonometryczna liczb zespolonych... 26

Wykład Ćwiczenia Laboratorium Projekt Seminarium Liczba godzin zajęć zorganizowanych w Uczelni 30 30

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

Metody numeryczne II

Z-ZIP2-303z Zagadnienia optymalizacji Problems of optimization

Zał nr 4 do ZW. Dla grupy kursów zaznaczyć kurs końcowy. Liczba punktów ECTS charakterze praktycznym (P)

Programowanie nieliniowe. Badania operacyjne Wykład 3 Metoda Lagrange a

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

Macierze. Rozdział Działania na macierzach

KADD Minimalizacja funkcji

Wprowadzenie do Scilab: macierze

Algebra macierzy

Optymalizacja ciągła

Metody Obliczeniowe w Nauce i Technice

Rozpoznawanie obrazów

Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji

WYKŁADY Z MATEMATYKI DLA STUDENTÓW UCZELNI EKONOMICZNYCH

Modelowanie molekularne

Wykład Ćwiczenia Laboratorium Projekt Seminarium Liczba godzin zajęć zorganizowanych w Uczelni ,5 1

Numeryczna algebra liniowa. Krzysztof Banaś Obliczenia Wysokiej Wydajności 1

dr Mariusz Grządziel 15,29 kwietnia 2014 Przestrzeń R k R k = R R... R k razy Elementy R k wektory;

Odniesienie do kierunkowych efektów kształcenia Zna podstawowe możliwości pakietu Matlab

METODY NUMERYCZNE. wykład. konsultacje: wtorek 10:00-11:30 środa 10:00-11:30. dr inż. Grażyna Kałuża pokój

Wykład Matematyka A, I rok, egzamin ustny w sem. letnim r. ak. 2002/2003. Każdy zdający losuje jedno pytanie teoretyczne i jedno praktyczne.

Analiza Algebra Podstawy programowania strukturalnego. Podstawowe wiadomości o funkcjach Podstawowe wiadomości o macierzach Podstawy programowania

Metoda gradientu prostego

Document: Exercise*02*-*manual /11/ :31---page1of8 INSTRUKCJA DO ĆWICZENIA NR 2

Egzamin z Metod Numerycznych ZSI, Egzamin, Gr. A

RACHUNEK RÓŻNICZKOWY FUNKCJI JEDNEJ ZMIENNEJ. Wykorzystano: M A T E M A T Y K A Wykład dla studentów Część 1 Krzysztof KOŁOWROCKI

Załącznik KARTA PRZEDMIOTU. KARTA PRZEDMIOTU Wydział Automatyki, Elektroniki i Informatyki, Rok akademicki: 2009/2010 MODELOWANIE CYFROWE

Funkcje wielu zmiennych

Transkrypt:

Przegląd metod optymalizacji numerycznej Krzyszto Malczewski

Numeryczne metody optymalizacji Deterministyczne (klasyczne) * bez ograniczeń: - bezgradientowe: + simpleks Neldera-Meada, + spadku względem współrzędnych (Gaussa-Seidela), + Powella, Rosenbrocka, Hooke a-jeevesa,... - gradientowe pierwszego rzędu: + największego spadku, + gradientów sprzężonych. - gradientowe drugiego rzędu i superliniowe : + Newtona, BFGS, + Trust region. * z ograniczeniami: + eliminacji zmiennych, + Lagrange a, + z unkcją kary, + SQP. Niedeterministyczne - Monte Carlo, symulowane wyżarzanie, algorytmy genetyczne i ewolucyjne, algorytmy rojowe itp. Metody Numeryczne

Cel Znaleźć min ( ), R n, gdy zadanie bez ograniczeń, D R n, gdy zadanie z ograniczeniami. Szukanie postępuje krok po kroku: pk α k+ = k + α k pk, k = k 0,,, - wektor wyznaczający kierunek kroku, - liczba określająca długość kroku. Metody Numeryczne 3

Metody Numeryczne 4 Oznaczenia Gradient Hesjan Funkcja celu. ), (, : n n R R R! = n! = n n n n n! " # " "!!

Metoda simpleksów Neldera-Meada. W przestrzeni n wymiarowej tworzymy wokół punktu 0 simpleks n+ wymiarowy.. Porządkujemy punkty simpleksu tak, aby ( i )<( i+ ), i=,...,n. 3. Generujemy punkt r=m- n+, gdzie m=( +...+ n )/n. 4. Jeżeli ( )<=(r)<( n ), to akceptujemy r, relect. 5. Jeżeli (r)<=( ), to obliczamy s=m+ i a. jeżeli (s)<(r), to akceptujemy s, epand. b. jeżeli nie, to akceptujemy r, relect. 6. Jeżeli (r)>=( n ), to kontrakcja między m a lepszym(r, n+ ) a. jeżeli (r)<( n+ ), to obliczamy c=m+(r-m)/, jeżeli (c)<(r), to akceptujemy c, contract outside, jeżeli nie, to do punktu 7, b. jeżeli (r)>=( n+ ), to obliczamy cc=m+( n+ -m)/, jeżeli (cc)<( n+ ), to akceptujemy cc, contract inside, jeżeli nie, to do punktu 7. 7. Obliczamy n punktów v i = +( i - )/, i=,...,n+, shrink. Ew. unikanie degradacji. Metody Numeryczne 5

Opis szczegółowy. Zacznij w dowolnym punkcie i zbuduj sympleks. Zbadaj wartości unkcji w wierzchołkach sympleksu. Znajdź największą i najmniejszą. 3. Punkt w którym jest największa wartość, zastąp nowym, tworząc przy okazji nowy sympleks. Jeśli zbliżasz się do minimum, przy okazji zmniejsz sympleks, jeśli nie zwiększ w kierunku, w którym spadają wartości. 4. Kontynuuj poszukiwania, aż sympleks będzie dostatecznie mały, by jego środek dobrze przybliżał minimum. Metody Numeryczne 6

Metody Numeryczne 7

Metody rozwiązywania układów równań nieliniowych Metoda simpleks (Nelder-Mead) n+ cc m c r s Metody Numeryczne 8

Metody Numeryczne 9

Podstawowe schematy jednego kroku metod optymalizacji A:. Wyznaczenie kierunku poszukiwania minimum p k.. Wykonanie kroków (w tym kierunku) do minimum. B: (Trust Region). Określenie maksymalnej długości kroku.. Wyznaczenie kierunku, w którym należy wykonać krok. Metody Numeryczne 0

Metody oparte na takim rozumowaniu od połowy lat dziewięćdziesiątych XX w nazywa się: Metodami obszaru zauania (Trust region methods) Metody Numeryczne

Poszukiwanie na kierunku (line search methods) Szukanie minimum na kierunku: Obliczanie wartości unkcji w kolejnych punktach, aż do napotkania wzrostu wartości unkcji. Interpolacja wielomianem Lagrange a 3 ostatnich punktów. Przybliżone minimum w minimum paraboli. Kryterium wyboru długości kroku α Warunek Wole a: Redukcja wartości unkcji powinna być proporcjonalna do długości kroku oraz do pochodnej kierunkowej: c ( k 0 + αp 4 k ) ( k ) + cα T k p k, (nierówność Armijo) Wybór metody zależy od kosztu zmiany kierunku (zerowy albo obliczanie gradientu lub hesjanu). Metody Numeryczne

Metoda spadku względem współrzędnych (Gauss-Seidel, coordinate descent method) Grupa A, Bez ograniczeń, bezgradientowa: Idea: Szukanie minimum na kierunkach kolejnych współrzędnych. Metody Numeryczne 3

Przykład: ( ) ( ) ( ) = + 3 + 3 = (+3y-) +(-y-) min = 7 4 4.5.5 y 0.5 0-0.5 - -.5 - - -.5 - -0.5 0 0.5.5.5 3 Metody Numeryczne 4

Metoda spadku względem współrzędnych 3 = (+3y-) +(-y-).5.5 y 0.5 0-0.5 - -.5 - - -.5 - -0.5 0 0.5.5.5 3 Metody Numeryczne 5

Metoda spadku względem współrzędnych = (+3y-) +(-y-) 0-0. -0.4 y -0.6-0.8 -.5.5 Metody Numeryczne 6

Metoda najszybszego spadku (steepest descent) Grupa A Bez ograniczeń gradientowa (pierwszego rzędu) Idea: p = ( ). k k Metody Numeryczne 7

Metoda najszybszego spadku 3 = (+3y-) +(-y-).5.5 y 0.5 0-0.5 - -.5 - -3 -.5 - -.5 - -0.5 0 0.5.5 Metody Numeryczne 8

Metoda gradientów sprzężonych Conjugate gradient (CG) method Grupa A Bez ograniczeń Gradientowa (pierwszego rzędu) Idea: p k ( ) + β p. = k k k Metody Numeryczne 9

Numeryczne metody optymalizacji Metoda Newtona Szybka -metoda gradientowa drugiego rzędu. Skuteczna - w pobliżu minimum (ogólnie - gdy model. rzędu dobrze przybliża unkcję), - gdy hesjan jest macierzą dodatnio określoną. Kosztowna - wymaga częstego obliczania hesjanu. Metody Numeryczne 0

Metoda Newtona (Grupa A) p ( k ) ( k+ ) = = ( k ) + ( ( k ) ) ( ( k ) ) p ( k ) 3.5 = (+3y-) +(-y-) Przykład: ( + 3 ) + ( ) ( ) = 4 + 4 6 =, 4 + 0 = 4 4 0 4, 5 = 6, 7 4 p =. + 4, y.5 0.5 0-0.5 - -.5 - - -.5 - -0.5 0 0.5.5.5 3 Metody Numeryczne

Quasi-Newton Numeryczne metody optymalizacji (Grupa A) Zbieżność superliniowa (rząd > ). Mniejszy koszt - nie wymagają obliczania hesjanu. Hesjan zastąpiony macierzą B k - uaktualnianą inormacją o unkcji uzyskaną w kolejnych krokach - zmiana gradientu wzdłuż kierunku poszukiwań dostarcza przybliżoną inormację o drugiej pochodnej. Najbardziej popularna BFGS (Broyden, Fletcher, Goldarb,Shanno): B s s B y y T T k k k k k k B k+ = Bk +, sk = k k, T T + yk = Bk + sk sk Bk sk yk sk. Metody Numeryczne

Trust-Region Methods (Grupa B) Idea: - Budujemy model otoczenia punktu k m T ( p) = + p + k k k B k - wg Newtona, CG, BFGS itp.. - Szukamy minimum w tym otoczeniu min n p R m k ( p), p Δ k - Promień Δ ustalany na podstawie zgodności modelu i unkcji celu w poprzednim kroku.. p T B k p Metody Numeryczne 3

Idea metody Trust-Region Δ unkcja model m trust region Metody Numeryczne 4

Schemat algorytmu: Trust-Region Methods Metoda Dogleg - Wyznaczamy punkt Cauchy ego (punkt na kierunku antygradientu, w którym model ma minimum). - Drogę do punktu k+ skłądamy z odcinka do punktu Cauchy ego i odcinka od punktu Cauchy ego do minimum modelu. - Jeżeli wiarygodność modelu jest mała, to dominuje najszybszy spadek. - Jeżeli wiarygodność jest duża, to dominuje model. rzędu. - Są metody bardziej zaawansowane np. Levenberga - Marquardta Metody Numeryczne 5

Ilustracja kroku metody metody Dogleg Metody Numeryczne 6

Numeryczne metody optymalizacji z ograniczeniami - ograniczenia równościowe i nierównościowe, - Metody: * eliminacja zmiennych, * metody z unkcją kary, * metoda Lagrange a - Warunek konieczny. rzędu - Warunek. rzędu - Quadratic Programming - SQP - Sequential Quadratic Programming Metody Numeryczne 7

Kryterium stopu Minimum lokalne a globalne. W zastosowaniu do rozwiązywania układów równań nieliniowych - istotna jest znajomość unkcji celu punkcie minimalnym. Numeryczna niejednoznaczność zera - błąd numeryczny obliczania wartości unkcji. Metody Numeryczne 8

Numeryczne metody optymalizacji Metody niedeterministyczne: - Monte Carlo, - symulowane wyżarzanie, - algorytmy genetyczne i ewolucyjne, - algorytmy rojowe, - wykorzystujące sztuczne sieci neuronowe. Metody Numeryczne 9

O czym należy pamiętać: Algorytm poszukiwania minimum w kierunku. Podstawowe schematy jednego kroku metod optymalizacji. W których metodach jest obliczany gradient unkcji. W których metodach jest obliczany hesjan. Ogólny schemat algorytmu: - Neldera-Mead a, - spadku wzdłuż współrzędnych, - najszybszego spadku, - gradientu sprzężonego, - Newtona, - quasi-newtonowskiego (np.bfgs), - trust-region, - Monte-Carlo. Zalety i wady poszczególnych metod. Metody Numeryczne 30

OPTYMALIZACJA W ŚRODOWISKU MATLAB. Cel ćwiczeń Celem ćwiczeń jest zaznajomienie studentów z podstawową obsługą środowiska obliczeń inżynierskich Matlab oraz zapoznanie się z możliwościami przeprowadzenia procesu optymalizacji w tym środowisku. Po ukończeniu tych zajęć student powinien umieć samodzielnie utworzyć plik unkcyjny zawierający unkcję celu, zdeiniować ograniczenia oraz uruchomić procedurę optymalizacji.. MATLAB podstawowe operacje a) Deiniowanie macierzy i wektorów X=[ 3 8] przez podanie kolejnych elementów, X=[:7] przez podanie zakresu, X=[::3] przez podanie zakresu oraz skoku, X=[ 3 8; 4 5 6; 3 8] podawanie elementów, X=[-5:; :7; ::3] operowanie zakresem i skokiem b) Odwołania do elementów macierzy i wektorów X(,) odwołanie do jednego elementu, X(:,4:7) odwołanie zakresowe, X(:,::7) odwołanie zakresowe ze skokiem c) Składanie macierzy i wektorów A=[:4, 4:7], B=[::8, 0:0:40], C=[A;B] składanie w pionie, C=[A,B] składanie w poziomie, C=[A,B;B,A] składanie mieszane d) Deiniowanie macierzy z wykorzystaniem unkcji systemu Matlak X=eye(5) macierz jednostkowa 55, X=ones(5) macierz jedynkowa 55, X=zeros(5) - macierz zerowa 55, X=rand(5) - macierz losowa 55, X=randn(5) - macierz losowa o rozkładzie normalnym 55, X=linspace(,,N) wektor liniowy, X=logspace(,,N) wektor logarytmiczny e) Manipulacje macierzami A=rot90(B) obrót, A=lipr(B) odbicie w pionie,

A=lipuprot90(B) odbicie w poziomie, A=reshape(B,,5) połamanie wektora, A=diag(B) macierz diagonalna ) Działania na macierzach i wektorach C=A+/-B dodawanie i odejmowanie macierzy, C=A*B mnożenie macierzy, C=A.*B mnożenie tablicowe macierzy, C=A transponowanie macierzy, C=A^(-) odwrotność macierzy, C=A.^ podniesienie do potęgi elementów macierzy, C=A./B dzielenie tablicowe g) Inne unkcje macierzowe Rank(A) rząd macierzy [m,n]=size(a) wymiar macierzy, N=length(X) długość wektora, Inv(A) macierz odwrotna, h) Liczby zespolone 5+6i, 5+6*sort(-) deklaracja liczby zespolonej, abs(z) moduł liczby zespolonej, angle(z) argument liczby zespolonej, real(z) część rzeczywista liczby zespolonej, imag(z) część urojona liczby zespolonej, conj(z) sprzężenie liczby zespolonej, Dokładniejszy opis poszczególnych unkcji oerowanych przez system Matlab znaleźć można w rozległej literaturze [,,3,4] oraz systemie pomocy Matlaba. 3. OPTYMALIZACJA bez ograniczeń - minunc Zadanie: Znajdź minimum nieograniczonej unkcji wielu zmiennych min ( ), gdzie jest wektorem zmiennych decyzyjnych a () unkcją celu. Składnia unkcji minunc: = minunc(un,0) = minunc(un,0,options) = minunc(un,0,options,p,p,...) [,val] = minunc(...) [,val,eitlag] = minunc(...) [,val,eitlag,output] = minunc(...) [,val,eitlag,output,grad] = minunc(...) [,val,eitlag,output,grad,hessian] = minunc(...)

Wyjaśnienie występujących oznaczeń: un unkcja celu, musi być zdeiniowana w pliku unkcyjnym matlaba, wektor zawierający optimum, 0 punkt startowy optymalizacji, val wartość unkcji celu odpowiadająca w optimum, eitlag znacznik wyjścia, output zawiera ogólne inormacje dotyczące procesu optymalizacji, grad gradient, hessian wartość hessiana unkcji celu options opcje optymalizacji, ustawiane poleceniem optimset Opcje optymalizacji unkcja optimset: LargeScale On/O, Display On/O TolX tolerancja na wektor X, TolFun tolerancja unkcji celu 4. OPTYMALIZACJA z deinicją gradientu Ten typ optymalizacji pozwala zdeiniować dodatkowo gradient unkcji celu. Składnia: [,val,eitlag,output]=minunc({@celu,@gradientu},0,options) Jedyną różnicą pomiędzy tym rodzajem optymalizacji, a zwykłą optymalizacją bez ograniczeń jest konieczność zdeiniowania unkcji gradientu. Jest to osobny m-plik unkcyjny zawierający wyrażenia na pochodne cząstkowe unkcji celu po poszczególnych zmiennych decyzyjnych. 5. OPTYMALIZACJA z ograniczeniami - mincon Zadanie: Znajdź minimum ograniczonej unkcji wielu zmiennych min ( ), gdzie jest wektorem zmiennych decyzyjnych a () unkcją celu oraz: ( ) 0 ( ) = 0 c ceq A b Aeq beq lb b ub gdzie, b, beq, lb oraz ub są wektorami, A i Aeq są macierzami, c() i ceq() są unkcjami zwracającymi wektory oraz () jest unkcją zwracającą skalar. Funkcje (), c() i ceq() mogą być unkcjami nieliniowymi. 3

Składnia unkcji: = mincon(un,0,a,b,aeq,beq) = mincon(un,0,a,b,aeq,beq,lb,ub) = mincon(un,0,a,b,aeq,beq,lb,ub,nonlcon) = mincon(un,0,a,b,aeq,beq,lb,ub,nonlcon,options) = mincon(un,0,a,b,aeq,beq,lb,ub,nonlcon,options,p,p,...) [,val] = mincon(...) [,val,eitlag] = mincon(...) [,val,eitlag,output] = mincon(...) [,val,eitlag,output,lambda] = mincon(...) [,val,eitlag,output,lambda,grad] = mincon(...) [,val,eitlag,output,lambda,grad,hessian] = mincon(...) Funkcja nonlcon może być użyta do wygodnego deiniowania wszystkich ograniczeń nieliniowych w osobnym pliku unkcyjnym, zamiast ich deiniowania podczas wywoływania procedury optymalizacji. 6. Przykłady Przykład Znajdź minimum unkcji y = e + e, dla następujących ograniczeń równościowych: ()^+()^-9=0 oraz nierównościowych - +<0, - <0; >0 Rozwiązanie: =[. unkcji celu = 6.6843.], wartość Przykład Znajdź minimum unkcji y = + + ( ) ( ) + 0.04 ( ) + + 5 + 4 w granicach =[-:0.:5] i =[- :0.:4]; Rozwiązanie: =[.844,.4047], wartość unkcji celu = 0. 4

Przykład 3 Znajdź minimum unkcji danej wzorem: (, y) = 00( y ) + ( ) Jest to unkcja, którą trudno jest zoptymalizować. Dlatego należy zastosować optymalizację z gradientem. Punkt startowy: 0=[-.9, ]; Minimum należy poszukiwać w granicach <, >, y <, 3 > W celu rozwiązania zadania należy wyznaczyć pochodne cząstkowe unkcji celu: = 400( y ) ( ) = 00( y ) y Przed wywołaniem unkcji optymalizującej należy poprawnie ustawić opcje optymalizacji: Options=optimset( largescale, o, linesearchtype, cubicpoly, gra dobj, on ) Wyniki optymalizacji: wartość unkcji celu w optimum 8.9856e-009, dla =.000 oraz y =.000 7. Zadania do samodzielnego wykonania. Zadanie + y Znajdź optimum unkcji (, y) = e 0y w granicach = [-.:.], y = [-:]. Zadanie Znajdź optimum unkcji ( ) ( y 0.5) ( ) ( 0.3 e ), y = w granicach = [0:], y = [-.:.]. 5

Zadanie 3 3 Znajdź optimum unkcji (, y) = + y + y + 4y + 3 [0:0]. 8. Literatura w granicach = [4:3], y = [] A.Zalewski, R.Cegieła: Matlab obliczenia numeryczne i ich zastosowania. Wydawnictwo Nakom, Poznań 996 [] W. Regel: Obliczenia symboliczne i numeryczne w programie Matlab. Wydawnictwo Mikom, Warszawa 004 [3] M.Czajka: Matlab ćwiczenia. Wydawnictwo Helion, Gliwice 005 [4] B.Mrozek, Z.Mrozek: Matlab uniwersalne środowisko do obliczeń naukowo technicznych. Wyd.3, Warszawa 996 6