jeśli nie jest spełnione kryterium zatrzymania, to nowym punktem roboczym x(t+1) staje i następuje przejście do 1)

Wielkość: px
Rozpocząć pokaz od strony:

Download "jeśli nie jest spełnione kryterium zatrzymania, to nowym punktem roboczym x(t+1) staje i następuje przejście do 1)"

Transkrypt

1 Metody automatycznej optymalizacji cz.i metody dwufazowe Święta Wielkanocne już za nami, tak więc bierzemy się wspólnie do pracy. Ostatnim razem dokonaliśmy charakterystyki zadań optymalizacji i wskazaliśmy na przykłady optymalizacji automatycznej. Tym razem zajmiemy się dokładniej metodami optymalizacji, rozpoczynając od metod dwufazowych dla zadań nieliniowych, wypukłych. Metody liniowe (dla zadań liniowych), a także globalne (dla niewypukłych zadań nieliniowych) zostawimy sobie na później. W metodach dwufazowych zakłada się, że funkcja celu jest funkcją wypukłą. Oznacza to, że jej wykres wygina się do dołu, a dokładniej, że zachodzi następująca właściwość dla dowolnej pary punktów x, y ze zbiory dopuszczalnego af ( x ) + (1 a) f ( y) > f ( ax + (1 a) y) gdzie a jest dowolną wartością z zakresu (0,1). Jeśli funkcja celu jest wypukła, to ma ona dokładnie jedno minimum. Co więcej, wzdłuż odcinka łączącego dowolny punkt dopuszczalny z minimum, funkcja celu jest malejąca. Pomysł na metodę dwufazową wynika bezpośrednio z założenia o wypukłości funkcji celu. Mówiąc w skrócie, wystarczy iść cały czas w kierunku, w którym funkcja celu maleje, aby w końcu znaleźć się dowolnie blisko minimum lokalnego. W dalszym opisie będziemy używać pojęcia kierunku poprawy wokół punktu x. Kierunkiem takim jest każdy taki wektor d, że w otoczeniu punktu roboczego o dowolnie małym, niezerowym promieniu ε zachodzi właściwość, że wszystkie punkty w kierunku d mają wartość funkcji niższą niż w x: dla każdego r < ε f ( x + rd) < f ( x) Zasada działania dwufazowych metod optymalizacji Metoda dwufazowa przetwarza jeden punkt roboczy x( (t jest numerem iteracji metody). W każdej iteracji, wykonywane są dwie fazy 1) wybór kierunku poprawy d(, 2) minimalizacja w kierunku poprawy, tzn. minimalizacja funkcji φ jednej zmiennej τ ϕ ( τ ) = f + τd(, będącej przekrojem funkcji celu w kierunku d(, wyprowadzonym z punktu roboczego x(; wynikiem minimalizacji jest punkt τ opt, jeśli nie jest spełnione kryterium zatrzymania, to nowym punktem roboczym x(t+1) staje się punkt x( t + 1) = x( + τ ( i następuje przejście do 1) optd Można udowodnić, że każda metoda dwufazowa jest zbieżna do minimum funkcji celu, tzn. że po upływie dostatecznej liczby iteracji, punkt roboczy będzie dowolnie blisko minimum funkcji. Trafienia w punkt nie gwarantuje się. Na jakość wyników metody dwufazowej składa się zarówno odpowiedni sposób wybierania kierunków poprawy, jak i sprawność wyznaczania minimum w kierunku. Zaczniemy od tego drugiego zadania. Minimalizacja kierunkowa minimalizacja funkcji jednej zmiennej Wykres funkcji ϕ ( τ ) = f + τd( może wyglądać następująco

2 f(x( φ(τ) f(x(+τ 1 d( 0 τ 1 τ opt τ Zadanie minimalizacji funkcji φ polega więc na znalezieniu wartości τ opt. Z punktu widzenia efektywności, ważne jest również, aby zrobić to jak najszybciej, a zatem, aby jak najmniej punktów odwiedzić po drodze. Znanych jest wiele metod minimalizacji kierunkowej, my poprzestaniemy na omówieniu paru wybranych, większą wagę przywiązując do pomysłu metody niż do jej szczegółów. Metoda aproksymacji parabolicznej Dość popularnym założeniem, sprawdzającym się wówczas, gdy punkt roboczy jest w otoczeniu maksimum lokalnego, jest przyjęcie, że funkcja φ da się przybliżyć parabolą. Dostajemy metodę iteracyjną, przetwarzającą punkt τ(, którego początkową wartością jest τ(0)=0. Dolosowywane są dwa punkty, τ 1 (, τ 2 ( w otoczeniu τ(, a następnie dopasowuje się parabolę przechodzącą przez te punkty. Wyznacza się punkt τ(t+1), będący wyznaczonym minimum dopasowanej paraboli. Jeśli φ jest rzeczywiście parabolą, to punkt τ(t+1) jest wynikiem poszukiwań. Jeśli zaś funkcja φ nie jest parabolą, należy proces losowania dwóch dodatkowych punktów i wyznaczania minimum dopasowanej paraboli powtarzać do skutku do uzyskania zbieżności ciągu kolejnych wartości τ(. Wartość τ opt jest granicą tego ciągu. Metoda złotego podziału Inna dość popularna metoda, zwana metodą złotego podziału, polega na poszukiwaniu położenia τ opt bez żadnych założeń do kształtu funkcji φ w otoczeniu punktu roboczego. O metodzie tej mówi się, że minimalizuje maksymalną (w sensie najgorszego przypadku) liczbę prób do znalezienia minimum funkcji w kierunku. To oznacza, że warto ją stosować przy funkcjach patologicznych, a także wówczas, gdy punkt roboczy jest stosunkowo daleko od minimum funkcji. Metoda złotego podziału jest metodą iteracyjną, przetwarzającą trzy punkty: 1) punkt τ 1 (, którego początkową wartością jest τ 1 (0)=0, 2) punkt τ 2 (, którego początkowe położenie τ 1 ( jest dalsze niż przypuszczalna odległość od τ( wartości τ opt (czyli τ 1 (>τ opt )., 3) punkt τ 3 ( = τ 1( + k( τ 2 ( τ 1(. Współczynnik k jest współczynnikiem złotego podziału, równym Następnie z tych trzech punktów pozostawia się dwa, o najmniejszych wartościach funkcji celu według następującego schematu jeśli φ(τ 2 (< φ(τ 1 ( to τ 1 (t+1)=τ 3 (, τ 2 (t+1)=τ 2 ( jeśli φ(τ 1 (< φ(τ 2 ( to τ 1 (t+1)=τ 1 (, τ 2 (t+1)=τ 3 (

3 Punkt τ 3 (t+1) jest wyznaczany według podanego wcześniej wzoru. Położenia punktów τ 1 ( τ 2 ( są coraz bliższe, a cały proces poszukiwania kończy się, gdy ich odległość jest mniejsza niż założona wartość. Położenie punktu τ 1 ( jest aproksymacją punktu τ opt. Jeśli próba wyznaczenia minimum w kierunku d( nie powiodła się (tzn. τ opt =0) wówczas należy spróbować minimalizacji w kierunku -d(. Gdy i to nie pomaga, to x( jest minimum funkcji celu w kierunku d(. Jak wybrać kierunek poprawy Odpowiedź na pytanie, stanowiące tytuł tego paragrafu, jest w zasadzie kluczowa z punktu widzenia efektywności metod dwufazowych. Metod wyboru kierunków poprawy jest wiele, więc podobnie jak przy minimalizacji kierunkowej, ograniczymy się do scharakteryzowania zaledwie kilku, wybierając najbardziej popularne, przynajmniej w naszej subiektywnej ocenie. Będziemy niekiedy zakładać, że funkcja celu jest podwójnie różniczkowalna, tzn. że ma w każdym punkcie pierwszą i drugą pochodną względem każdego z argumentów (istnieją zatem w każdym punkcie gradient i hesjan por. poprzedni odcinek cyklu). Jeśli funkcja celu nie jest znana w postaci analitycznej, wówczas gradient i hesjan (tam gdzie jest taka potrzeba) można wyznaczyć numerycznie. Metody pierwotne Metody poniższe nazwaliśmy pierwotnymi, gdyż stanowią one niejako inspirację dla bardziej sprawnych numerycznie algorytmów. Walorem metod pierwotnych jest przejrzystość pomysłu, co pomaga zrozumieć ich zasadę, natomiast wadą jest nieefektywność lub nawet brak zbieżności. Dlatego w praktyce unika się ich stosowania Poszukiwanie wzdłuż wersorów Metoda ta, zwana również algorytmem Gaussa-Seidla, przetwarza punkt roboczy x(. W każdej iteracji wykonuje się poszukiwania wzdłuż n kolejnych wersorów przestrzeni przeszukiwań. Wersorem e i jest wektor, dla którego spełnione jest 0 dla j i e i ( j) = 1dla j = i Formalnie, w iteracji t, rozważa się ciąg punktów x 1 (, x 2 (, x n (, takich że x i+1 ( jest wynikiem minimalizacji funkcji celu w kierunku wersora e i, startując z punktu x i (. Punkt x 1 ( otrzymuje się przez minimalizację funkcji celu w kierunku wersora e 1, startując z punktu x(. Innymi słowy, ustala się po kolei wszystkie zmienne niezależne z wyjątkiem jednej i próbuje się zminimalizować funkcję celu względem tej zmiennej. Proces ten jest powtarzany dla każdej zmiennej niezależnej. Po zakończeniu takich n poszukiwań przyjmuje się, że x(t+1)=x n (. Poszukiwania kończą się, gdy punkty x(t+1) i x( znajdą się dostatecznie blisko siebie. Zauważmy, że metoda ta nie jest w stanie znaleźć minimum dowolnej funkcji wypukłej. Aby się o tym przekonać, wystarczy rozważyć funkcję dwóch zmiennych 2 f 1( x) = ( x1 + x2) + max( x1, x2 ) i punkt (-1,1). Minimalizacja w kierunku e 1 =[1,0] T sprowadza się do minimalizacji funkcji φ(τ)=f 1 ((-1+τ),1), czyli, po podstawieniu do wzoru na funkcję celu, minimalizacja kierunkowa dotyczy funkcji φ(τ)=(-1+τ+1) 2 + τ-1 +1=τ 2. Minimum w kierunku e 1 przypada więc w punkcie (-1,1), podobnie jest z kierunkiem e 2. Tak więc żaden z wersorów nie jest kierunkiem poprawy i metoda poszukiwań nie rusza, mimo że faktyczne minimum funkcji celu znajduje się w punkcie (0,0). Metoda największego spadku Przyjmuje się, że kierunkiem poprawy jest minus gradient (czyli właśnie największy spadek)

4 d( = gdzie (x) oznacza gradient funkcji celu w punkcie x. Podejście takie wydaje się być naturalne, jednak ogranicza klasę możliwych funkcji celu. Przykładowo, funkcja f 1, ze względu na nieróżniczkowalność, nie może być optymalizowana tą metodą, chyba że dookreśli się gradient funkcji w miejscach jej nieróżniczkowalności. Jednak po bliższych oględzinach okazuje się, że metoda ta, nawet dla funkcji różniczkowalnych, nie jest zbyt sprawna nawet przy funkcji kwadratowej, może potrzebować znacznej liczby przetworzonych punktów roboczych, aby wreszcie dojść w otoczenie jej minimum. 2 2 Jako przykład rozważmy funkcję dwóch zmiennych f 2( x ) = 16x1 + x2. W punkcie (-1, 1) T minus gradient tej funkcji jest równy 2(( 1,1)) = [16, 1] i nie przechodzi przez punkt (0,0), będący minimum lokalnym minimum w kierunku minus gradientu wypada w punkcie (-30/34, -30/34). Fazy wyboru kierunku oraz minimalizacji kierunkowej będą więc powtarzane jeszcze co najmniej raz. Metoda Newtona Metoda ta jest próbą poprawy metody największego spadku dla funkcji celu, których dobrą aproksymację stanowi funkcja kwadratowa. Zakłada się, że kierunek poprawy jest określony wzorem 1 d( = H ( gdzie H(x) jest hesjanem funkcji celu w punkcie x. Można udowodnić, że kierunek wybrany w powyższy sposób przechodzi przez minimum funkcji celu, jeśli jest ona funkcją kwadratową. Wystarczy więc znaleźć minimum w tym kierunku i nie ma potrzeby ponownego wyboru kierunku. W praktyce metody Newtona nie stosuje się bezpośrednio, ze względu na konieczność kłopotliwego odwracania hesjanu. Powróćmy do kwadratowej funkcji f 2. Jak łatwo się przekonać, jej hesjan jest macierzą H 32 0 ( x 2 ) = 0 2 a jego odwrotność jest równa H 1/ 32 0 ( x 2 ) = 0 1/ 2 (w ogólności, odwracanie hesjanu nie jest tak łatwe jak w tym przypadku, gdy jest on macierzą diagonalną). 1 T Kierunek poprawy w punkcie (-1,1) jest więc równy d ( t ) = H (( 1,1)) (( 1,1)) = [1, 1]. Jak łatwo się przekonać, kierunek ten przechodzi przez minimum funkcji (0,0), a zatem wystarczy już teraz tylko jeden krok metody optymalizacji kierunkowej. Czytelnikowi pozostawiamy wykazanie, że ta właściwość funkcji f 2 zachodzi dla dowolnego punktu (x 1,x 2 ). Metody kierunków sprzężonych Na płaszczyźnie dwa kierunki d 1, d 2 są sprzężone, jeśli są liniowo niezależne, tzn. nie ma takich liczb a,b, że d 1 =ad 2 +b. Przykładem dwóch kierunków sprzężonych są osie układu współrzędnych kartezjańskich. W przestrzeni n wymiarowej zależności są bardziej złożone naraz można pokazać co najwyżej n kierunków sprzężonych, tzn. takich, że żaden z nich jest kombinacją liniową pozostałych. Mówi się, że dowolne n kierunków sprzężonych wyznacza przestrzeń n wymiarową, co oznacza, że można te kierunki potraktować jako osie nowego układu współrzędnych. Te obserwacje stanowią punkt wyjścia do metod wyboru kierunków poprawy, które są wzajemnie sprzężone. Metody te są ulepszonymi wersjami metod prostych, omówionych wcześniej.

5 Prosta metoda kierunków sprzężonych Metoda ta jest często nazywana metodą Powella. Metoda przetwarza punkt roboczy x( oraz utrzymuje bazę kierunków d 1 (..d n (, których wartościami początkowymi mogą być np. wersory przestrzeni. Podobnie jak w metodzie Gaussa-Seidla, w iteracji t, rozważa się ciąg punktów x 1 (, x 2 (, x n (, takich że x i+1 ( jest wynikiem minimalizacji funkcji celu w kierunku d i (, startując z punktu x i (. Dodatkowo, wyznacza się punkt x n+1 (, będący wynikiem minimalizacji w kierunku d 1 (, poczynając z punktu x n (. Potem dokonuje się zmiany bazy kierunków w następujący sposób: d i (t+1)=d i+1 (, d n (= x n+1 (-x (. Nowym punktem roboczym staje się x(t+1)=x n+1 (. Poszukiwania kończą się, gdy punkty x(t+1) i x( znajdą się dostatecznie blisko siebie. Zaletą powyższej metody jest zwiększenie szybkości zdążania do minimum w porównaniu z metodą Gaussa-Seidla. Pamiętać jednak należy o tym, że niewłaściwie zainicjowana baza kierunków prowadzić może do podobnych problemów z niemożnością wystartowania metody minimalizacji kierunkowej. Metoda gradientów sprzężonych Metoda ta jest próbą poprawienia właściwości metody największego spadku. Zasada metody polega na tym, że kierunek poprawy jest wynikiem nałożenia gradientu i historii dotychczasowych kierunków, reprezentowanej w postaci kierunku roboczego. Historia ta wyznacza niejako kierunek typowego spadku, a gradient w punkcie roboczym jest czymś w rodzaju odchylenia od tego trendu. Kierunek poprawy jest dany wzorem d ( = + bd( t 1) gdzie wartość współczynnika b może być różna w zależności od odmiany metody. W odmianie wg Fletchera-Reeves a jest ona obliczana ze wzoru b = t 1)) gdzie a jest normą (odpowiednikiem długości) wektora a T a = a a Metody zmiennej metryki Metody te są zwane również pseudo-newtonowskimi, ze względu na podobieństwo do metody Newtona. Zasada metody polega na tym, że algorytm minimalizacji utrzymuje, oprócz punktu roboczego, również macierz V( aproksymującą odwrotność hesjanu H -1. Kierunek poprawy jest wyznaczany jako d( = V ( Po wyznaczeniu nowego punktu roboczego x(t+1) w wyniku minimalizacji kierunkowej, dokonuje się modyfikacji macierzy V(. Znanych jest kilka różnych wzorów na tę poprawkę, nazywanych od nazwisk pomysłodawców BFP, BFGS, WBD. Wzorów tych ze względów praktycznych nie będziemy przytaczać. Wartością początkową V(0) jest macierz jednostkowa. Uwagi praktyczne Dokonaliśmy bardzo uproszczonego przeglądu metod optymalizacji dwufazowej. Z przedstawionych metod, efektywniejsze są metody kierunków sprzężonych i przez to są one zdecydowanie warte polecenia. Przy funkcjach niewypukłych, nawet jeśli mają one jedno minimum, sprawy się nieco komplikują. Przede wszystkim nie ma gwarancji zbieżności żadnej z tych metod. Jednak lepiej sprawować się mogą metody zmiennej metryki lub gradientów sprzężonych. Gdy funkcja celu ma więcej niż jedno minimum, wówczas, w zależności od punktu startowego, mogą być znajdowane różne minima lokalne. Aby

6 zwiększyć prawdopodobieństwo trafienia w minimum globalne, zachodzi potrzeba wielokrotnego uruchamiania metody lokalnej. Zadania niewypukłe, a także zadania z wieloma minimami lokalnymi, lepiej jest rozwiązywać za pomocą metod do tego przeznaczonych, przede wszystkim zawierających element losowości. Czego nie gwarantują metody optymalizacji? Żadna z metod optymalizacji, nawet przy wypukłej funkcji celu, nie daje pewności znalezienia dokładnego położenia minimum funkcji. Wyjątek stanowią, nie omówione jeszcze, metody liniowe (których stosowalność jest ograniczona do zadań liniowych). Ze względu na skończoną dokładność obliczeń, wynik będzie zawsze nieco odmienny od rzeczywistego położenia minimum. Jeśli funkcja celu nie jest wypukła albo ma rozległe, prawie płaskie obszary wokół minimum, to często zdarza się, że dla tego samego zadania optymalizacji, wyniki znacznie się różnią przy uruchomieniu metody optymalizacji z różnym punktem startowym. Może to być bardzo frustrujące, gdyż np. klienci mogą uznawać ten efekt za niedopuszczalny. Może się również zdarzyć, że człowiek będzie w stanie znaleźć rozwiązanie lepsze niż metoda optymalizacji, zwłaszcza wtedy, gdy minimów lokalnych jest wiele, są liczne ograniczenia, albo struktura zadania zostanie odpowiednio dobrana. Gdzie siedzą metody optymalizacji? Niejawnie umieszczone metody optymalizacji można znaleźć w wielu pakietach modelowania parametrycznego (np. w każdym pakiecie modelowania neuronowego), gdzie optymalizuje się parametry modelu na podstawie zbioru trenującego. Dobrze jest, jeśli użytkownik takiego pakietu może wpływać na wybór metody. Użytkownicy niektórych rodzajów arkuszy kalkulacyjnych znajdą metody optymalizacji pod nazwą solvera. Programy komputerowe implementujące metody optymalizacji są dość mocno rozpowszechnione, zarówno jako pakiety komercyjne, jak i dostępne na zasadach publicznej licencji. Podsumowanie 1) Metody dwufazowe są dostosowane do zadań wypukłych. W zadaniach niewypukłych lub z wieloma minimami lokalnymi jakość rozwiązań może być niska i zależna od sposobu inicjacji metody. 2) Metody kierunków sprzężonych są zazwyczaj sprawniejsze niż ich proste odpowiedniki. Metody wykorzystujące więcej informacji o optymalizowanej funkcji (tzn. gradient, odwrotność hesjanu, a także aproksymacja paraboliczna przy poszukiwaniu minimum w kierunku) są efektywniejsze, jednak pod warunkiem, że ich założenia są spełnione. 3) Metody optymalizacji mogą dawać dobre przybliżenia wyniku, jednak nie gwarantują dokładnej lokalizacji minimum funkcji celu. Przy funkcjach niewypukłych nie ma gwarancji nawet dobrego przybliżenia minimum.

WYKŁAD 9 METODY ZMIENNEJ METRYKI

WYKŁAD 9 METODY ZMIENNEJ METRYKI WYKŁAD 9 METODY ZMIENNEJ METRYKI Kierunki sprzężone. Metoda Newtona Raphsona daje dobre przybliżenie najlepszego kierunku poszukiwań, lecz jest to okupione znacznym kosztem obliczeniowym zwykle postać

Bardziej szczegółowo

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Metody optymalizacji Metody bezgradientowe optymalizacji bez ograniczeń Materiały pomocnicze do ćwiczeń

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metody kierunków poparwy (metoda Newtona-Raphsona, metoda gradientów sprzężonych) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.03.2019 1

Bardziej szczegółowo

KADD Minimalizacja funkcji

KADD Minimalizacja funkcji Minimalizacja funkcji n-wymiarowych Forma kwadratowa w n wymiarach Procedury minimalizacji Minimalizacja wzdłuż prostej w n-wymiarowej przestrzeni Metody minimalizacji wzdłuż osi współrzędnych wzdłuż kierunków

Bardziej szczegółowo

ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ

ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ Maciej Patan Uniwersytet Zielonogórski WSTEP Zadanie minimalizacji bez ograniczeń f(ˆx) = min x R nf(x) f : R n R funkcja ograniczona z dołu Algorytm rozwiazywania Rekurencyjny

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej

Bardziej szczegółowo

KADD Minimalizacja funkcji

KADD Minimalizacja funkcji Minimalizacja funkcji Poszukiwanie minimum funkcji Foma kwadratowa Metody przybliżania minimum minimalizacja Minimalizacja w n wymiarach Metody poszukiwania minimum Otaczanie minimum Podział obszaru zawierającego

Bardziej szczegółowo

Wstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych. P. F. Góra

Wstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych. P. F. Góra Wstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2012 Strategia minimalizacji wielowymiarowej Zakładamy, że metody poszukiwania minimów

Bardziej szczegółowo

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH Transport, studia I stopnia rok akademicki 2011/2012 Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Uwagi wstępne Układ liniowych równań algebraicznych można

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 4. Metody kierunków poprawy (metoda spadku wzdłuż gradientu) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 21.03.2019 1 / 41 Plan wykładu Minimalizacja

Bardziej szczegółowo

Rozwiązywanie równań nieliniowych

Rozwiązywanie równań nieliniowych Rozwiązywanie równań nieliniowych Marcin Orchel 1 Wstęp Przykłady wyznaczania miejsc zerowych funkcji f : f(ξ) = 0. Wyszukiwanie miejsc zerowych wielomianu n-tego stopnia. Wymiar tej przestrzeni wektorowej

Bardziej szczegółowo

1 Metody rozwiązywania równań nieliniowych. Postawienie problemu

1 Metody rozwiązywania równań nieliniowych. Postawienie problemu 1 Metody rozwiązywania równań nieliniowych. Postawienie problemu Dla danej funkcji ciągłej f znaleźć wartości x, dla których f(x) = 0. (1) 2 Przedział izolacji pierwiastka Będziemy zakładać, że równanie

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 1. Optymalizacja funkcji jednej zmiennej Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.02.2019 1 / 54 Plan wykładu Optymalizacja funkcji jednej

Bardziej szczegółowo

Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji

Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji Adam Kiersztyn Lublin 2014 Adam Kiersztyn () Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji maj 2014 1 / 24 Zanim przejdziemy

Bardziej szczegółowo

ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH

ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH Transport, studia I stopnia Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać ogólna równania nieliniowego Często występującym, ważnym problemem obliczeniowym

Bardziej szczegółowo

Metody numeryczne I Równania nieliniowe

Metody numeryczne I Równania nieliniowe Metody numeryczne I Równania nieliniowe Janusz Szwabiński szwabin@ift.uni.wroc.pl Metody numeryczne I (C) 2004 Janusz Szwabiński p.1/66 Równania nieliniowe 1. Równania nieliniowe z pojedynczym pierwiastkiem

Bardziej szczegółowo

Optymalizacja (minimalizacja) funkcji. Plan wykładu: 1. Sformułowanie problemu, funkcja celu. 2. Metody bezgradientowe

Optymalizacja (minimalizacja) funkcji. Plan wykładu: 1. Sformułowanie problemu, funkcja celu. 2. Metody bezgradientowe Optymalizacja (minimalizacja) funkcji Plan wykładu: 1. Sformułowanie problemu, funkcja celu. Metody bezgradientowe a) metoda złotego podziału b) metoda sympleks c) metoda interpolacji Powell'a 3. Metody

Bardziej szczegółowo

Metody Numeryczne Optymalizacja. Wojciech Szewczuk

Metody Numeryczne Optymalizacja. Wojciech Szewczuk Metody Numeryczne Optymalizacja Optymalizacja Definicja 1 Przez optymalizację będziemy rozumieć szukanie minimów lub maksimów funkcji. Optymalizacja Definicja 2 Optymalizacja lub programowanie matematyczne

Bardziej szczegółowo

1 Funkcje dwóch zmiennych podstawowe pojęcia

1 Funkcje dwóch zmiennych podstawowe pojęcia 1 Funkcje dwóch zmiennych podstawowe pojęcia Definicja 1 Funkcją dwóch zmiennych określoną na zbiorze A R 2 o wartościach w zbiorze R nazywamy przyporządkowanie każdemu punktowi ze zbioru A dokładnie jednej

Bardziej szczegółowo

Wstęp do metod numerycznych 12. Minimalizacja: funkcje wielu zmiennych. P. F. Góra

Wstęp do metod numerycznych 12. Minimalizacja: funkcje wielu zmiennych. P. F. Góra Wstęp do metod numerycznych 12. Minimalizacja: funkcje wielu zmiennych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2015 Strategia minimalizacji wielowymiarowej Zakładamy, że metody poszukiwania minimów

Bardziej szczegółowo

1 Równania nieliniowe

1 Równania nieliniowe 1 Równania nieliniowe 1.1 Postać ogólna równania nieliniowego Często występującym, ważnym problemem obliczeniowym jest numeryczne poszukiwanie rozwiązań równań nieliniowych, np. algebraicznych (wielomiany),

Bardziej szczegółowo

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać układu równań liniowych Układ liniowych równań algebraicznych

Bardziej szczegółowo

METODY NUMERYCZNE. Wykład 4. Numeryczne rozwiązywanie równań nieliniowych z jedną niewiadomą. prof. dr hab.inż. Katarzyna Zakrzewska

METODY NUMERYCZNE. Wykład 4. Numeryczne rozwiązywanie równań nieliniowych z jedną niewiadomą. prof. dr hab.inż. Katarzyna Zakrzewska METODY NUMERYCZNE Wykład 4. Numeryczne rozwiązywanie równań nieliniowych z jedną niewiadomą prof. dr hab.inż. Katarzyna Zakrzewska Met.Numer. Wykład 4 1 Rozwiązywanie równań nieliniowych z jedną niewiadomą

Bardziej szczegółowo

5. Metody stochastyczne (symulowane wyżarzanie, algorytmy genetyczne) -> metody Monte Carlo

5. Metody stochastyczne (symulowane wyżarzanie, algorytmy genetyczne) -> metody Monte Carlo Optymalizacja (minimalizacja) funkcji Plan wykładu: 1. Sformułowanie problemu, funkcja celu 2. Metody bezgradientowe a) metoda złotego podziału b) metoda sympleks c) metoda interpolacji Powell'a 3. Metody

Bardziej szczegółowo

Przegląd metod optymalizacji wielowymiarowej. Funkcja testowa. Funkcja testowa. Notes. Notes. Notes. Notes. Tomasz M. Gwizdałła

Przegląd metod optymalizacji wielowymiarowej. Funkcja testowa. Funkcja testowa. Notes. Notes. Notes. Notes. Tomasz M. Gwizdałła Przegląd metod optymalizacji wielowymiarowej Tomasz M. Gwizdałła 2012.12.06 Funkcja testowa Funkcją testową dla zagadnień rozpatrywanych w ramach tego wykładu będzie funkcja postaci f (x) = (x 1 1) 4 +

Bardziej szczegółowo

Wprowadzenie Metoda bisekcji Metoda regula falsi Metoda siecznych Metoda stycznych RÓWNANIA NIELINIOWE

Wprowadzenie Metoda bisekcji Metoda regula falsi Metoda siecznych Metoda stycznych RÓWNANIA NIELINIOWE Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać ogólna równania nieliniowego Zazwyczaj nie można znaleźć

Bardziej szczegółowo

Z52: Algebra liniowa Zagadnienie: Zastosowania algebry liniowej Zadanie: Operatory różniczkowania, zagadnienie brzegowe.

Z52: Algebra liniowa Zagadnienie: Zastosowania algebry liniowej Zadanie: Operatory różniczkowania, zagadnienie brzegowe. Z5: Algebra liniowa Zagadnienie: Zastosowania algebry liniowej Zadanie: Operatory różniczkowania zagadnienie brzegowe Dyskretne operatory różniczkowania Numeryczne obliczanie pochodnych oraz rozwiązywanie

Bardziej szczegółowo

METODY ROZWIĄZYWANIA RÓWNAŃ NIELINIOWYCH

METODY ROZWIĄZYWANIA RÓWNAŃ NIELINIOWYCH METODY ROZWIĄZYWANIA RÓWNAŃ NIELINIOWYCH Jednym z zastosowań metod numerycznych jest wyznaczenie pierwiastka lub pierwiastków równania nieliniowego. W tym celu stosuje się szereg metod obliczeniowych np:

Bardziej szczegółowo

IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych,

IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych, IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. Definicja 1.1. Niech D będzie podzbiorem przestrzeni R n, n 2. Odwzorowanie f : D R nazywamy

Bardziej szczegółowo

Numeryczne metody optymalizacji Optymalizacja w kierunku. informacje dodatkowe

Numeryczne metody optymalizacji Optymalizacja w kierunku. informacje dodatkowe Numeryczne metody optymalizacji Optymalizacja w kierunku informacje dodatkowe Numeryczne metody optymalizacji x F x = min x D x F(x) Problemy analityczne: 1. Nieliniowa złożona funkcja celu F i ograniczeń

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium Zadanie nr 3 Osada autor: A Gonczarek Celem poniższego zadania jest zrealizowanie fragmentu komputerowego przeciwnika w grze strategiczno-ekonomicznej

Bardziej szczegółowo

Laboratorium 5 Przybliżone metody rozwiązywania równań nieliniowych

Laboratorium 5 Przybliżone metody rozwiązywania równań nieliniowych Uniwersytet Zielonogórski Wydział Informatyki, Elektrotechniki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych Elektrotechnika niestacjonarne-zaoczne pierwszego stopnia z tyt. inżyniera

Bardziej szczegółowo

METODY NUMERYCZNE. Wykład 4. Numeryczne rozwiązywanie równań nieliniowych z jedną niewiadomą. Rozwiązywanie równań nieliniowych z jedną niewiadomą

METODY NUMERYCZNE. Wykład 4. Numeryczne rozwiązywanie równań nieliniowych z jedną niewiadomą. Rozwiązywanie równań nieliniowych z jedną niewiadomą METODY NUMERYCZNE Wykład 4. Numeryczne rozwiązywanie równań nieliniowych z jedną niewiadomą dr hab.inż. Katarzyna Zakrzewska, prof.agh Met.Numer. Wykład 4 1 Rozwiązywanie równań nieliniowych z jedną niewiadomą

Bardziej szczegółowo

Układy równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona) f(x) = 0, gdzie. dla n=2 np.

Układy równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona) f(x) = 0, gdzie. dla n=2 np. Układy równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona f(x 0, f ( f, f,..., f n gdzie 2 x ( x, x 2,..., x n dla n2 np. f ( x, y 0 g( x, y 0 dla każdej wielowymiarowej rozwinięcie w szereg Taylora

Bardziej szczegółowo

Aproksymacja funkcji a regresja symboliczna

Aproksymacja funkcji a regresja symboliczna Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(x), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(x), zwaną funkcją aproksymującą

Bardziej szczegółowo

Geometria w R 3. Iloczyn skalarny wektorów

Geometria w R 3. Iloczyn skalarny wektorów Geometria w R 3 Andrzej Musielak Str 1 Geometria w R 3 Działania na wektorach Wektory w R 3 możemy w naturalny sposób dodawać i odejmować, np.: [2, 3, 1] + [ 1, 2, 1] = [1, 5, 2] [2, 3, 1] [ 1, 2, 1] =

Bardziej szczegółowo

Metody Rozmyte i Algorytmy Ewolucyjne

Metody Rozmyte i Algorytmy Ewolucyjne mgr inż. Wydział Matematyczno-Przyrodniczy Szkoła Nauk Ścisłych Uniwersytet Kardynała Stefana Wyszyńskiego Podstawy optymalizacji Plan prezentacji 1 Podstawy matematyczne 2 3 Eliminacja ograniczeń Metody

Bardziej szczegółowo

Metody numeryczne Wykład 7

Metody numeryczne Wykład 7 Metody numeryczne Wykład 7 Dr inż. Michał Łanczont Instytut Elektrotechniki i Elektrotechnologii E419, tel. 4293, m.lanczont@pollub.pl, http://m.lanczont.pollub.pl Plan wykładu Rozwiązywanie równań algebraicznych

Bardziej szczegółowo

II. FUNKCJE WIELU ZMIENNYCH

II. FUNKCJE WIELU ZMIENNYCH II. FUNKCJE WIELU ZMIENNYCH 1. Zbiory w przestrzeni R n Ustalmy dowolne n N. Definicja 1.1. Zbiór wszystkich uporzadkowanych układów (x 1,..., x n ) n liczb rzeczywistych, nazywamy przestrzenią n-wymiarową

Bardziej szczegółowo

Matematyka stosowana i metody numeryczne

Matematyka stosowana i metody numeryczne Ewa Pabisek Adam Wosatko Piotr Pluciński Matematyka stosowana i metody numeryczne Konspekt z wykładu 6 Rozwiązywanie równań nieliniowych Rozwiązaniem lub pierwiastkiem równania f(x) = 0 lub g(x) = h(x)

Bardziej szczegółowo

Definicja pochodnej cząstkowej

Definicja pochodnej cząstkowej 1 z 8 gdzie punkt wewnętrzny Definicja pochodnej cząstkowej JeŜeli iloraz ma granicę dla to granicę tę nazywamy pochodną cząstkową funkcji względem w punkcie. Oznaczenia: Pochodną cząstkową funkcji względem

Bardziej szczegółowo

dr Mariusz Grządziel 15,29 kwietnia 2014 Przestrzeń R k R k = R R... R k razy Elementy R k wektory;

dr Mariusz Grządziel 15,29 kwietnia 2014 Przestrzeń R k R k = R R... R k razy Elementy R k wektory; Wykłady 8 i 9 Pojęcia przestrzeni wektorowej i macierzy Układy równań liniowych Elementy algebry macierzy dodawanie, odejmowanie, mnożenie macierzy; macierz odwrotna dr Mariusz Grządziel 15,29 kwietnia

Bardziej szczegółowo

11. 11. OPTYMALIZACJA KONSTRUKCJI

11. 11. OPTYMALIZACJA KONSTRUKCJI 11. OPTYMALIZACJA KONSTRUKCJI 1 11. 11. OPTYMALIZACJA KONSTRUKCJI 11.1. Wprowadzenie 1. Optymalizacja potocznie i matematycznie 2. Przykład 3. Kryterium optymalizacji 4. Ograniczenia w zadaniach optymalizacji

Bardziej szczegółowo

Techniki Optymalizacji: Optymalizacja wypukła

Techniki Optymalizacji: Optymalizacja wypukła Techniki Optymalizacji: Optymalizacja wypukła Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje: piątek 15:10-16:40

Bardziej szczegółowo

Rozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów.

Rozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów. Rozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów. Plan wykładu: 1. Wyznaczanie pojedynczych pierwiastków rzeczywistych równań nieliniowych metodami a) połowienia (bisekcji)

Bardziej szczegółowo

Metody numeryczne. materiały do wykładu dla studentów. 7. Całkowanie numeryczne

Metody numeryczne. materiały do wykładu dla studentów. 7. Całkowanie numeryczne Metody numeryczne materiały do wykładu dla studentów 7. Całkowanie numeryczne 7.1. Całkowanie numeryczne 7.2. Metoda trapezów 7.3. Metoda Simpsona 7.4. Metoda 3/8 Newtona 7.5. Ogólna postać wzorów kwadratur

Bardziej szczegółowo

Metody iteracyjne rozwiązywania układów równań liniowych (5.3) Normy wektorów i macierzy (5.3.1) Niech. x i. i =1

Metody iteracyjne rozwiązywania układów równań liniowych (5.3) Normy wektorów i macierzy (5.3.1) Niech. x i. i =1 Normy wektorów i macierzy (5.3.1) Niech 1 X =[x x Y y =[y1 x n], oznaczają wektory przestrzeni R n, a yn] niech oznacza liczbę rzeczywistą. Wyrażenie x i p 5.3.1.a X p = p n i =1 nosi nazwę p-tej normy

Bardziej szczegółowo

Macierze. Rozdział Działania na macierzach

Macierze. Rozdział Działania na macierzach Rozdział 5 Macierze Funkcję, która każdej parze liczb naturalnych (i, j) (i 1,..., n; j 1,..., m) przyporządkowuje dokładnie jedną liczbę a ij F, gdzie F R lub F C, nazywamy macierzą (rzeczywistą, gdy

Bardziej szczegółowo

Wykład Matematyka A, I rok, egzamin ustny w sem. letnim r. ak. 2002/2003. Każdy zdający losuje jedno pytanie teoretyczne i jedno praktyczne.

Wykład Matematyka A, I rok, egzamin ustny w sem. letnim r. ak. 2002/2003. Każdy zdający losuje jedno pytanie teoretyczne i jedno praktyczne. Wykład Matematyka A, I rok, egzamin ustny w sem. letnim r. ak. 2002/2003. Każdy zdający losuje jedno pytanie teoretyczne i jedno praktyczne. pytania teoretyczne:. Co to znaczy, że wektory v, v 2 i v 3

Bardziej szczegółowo

Ekstrema globalne funkcji

Ekstrema globalne funkcji SIMR 2013/14, Analiza 1, wykład 9, 2013-12-13 Ekstrema globalne funkcji Definicja: Funkcja f : D R ma w punkcie x 0 D minimum globalne wtedy i tylko (x D) f(x) f(x 0 ). Wartość f(x 0 ) nazywamy wartością

Bardziej szczegółowo

Ćwiczenia nr 7. TEMATYKA: Krzywe Bézier a

Ćwiczenia nr 7. TEMATYKA: Krzywe Bézier a TEMATYKA: Krzywe Bézier a Ćwiczenia nr 7 DEFINICJE: Interpolacja: przybliżanie funkcji za pomocą innej funkcji, zwykle wielomianu, tak aby były sobie równe w zadanych punktach. Poniżej przykład interpolacji

Bardziej szczegółowo

Zaawansowane metody numeryczne

Zaawansowane metody numeryczne Wykład 11 Ogólna postać metody iteracyjnej Definicja 11.1. (metoda iteracyjna rozwiązywania układów równań) Metodą iteracyjną rozwiązywania { układów równań liniowych nazywamy ciąg wektorów zdefiniowany

Bardziej szczegółowo

3. Macierze i Układy Równań Liniowych

3. Macierze i Układy Równań Liniowych 3. Macierze i Układy Równań Liniowych Rozważamy równanie macierzowe z końcówki ostatniego wykładu ( ) 3 1 X = 4 1 ( ) 2 5 Podstawiając X = ( ) x y i wymnażając, otrzymujemy układ 2 równań liniowych 3x

Bardziej szczegółowo

Wybrane metody przybliżonego. wyznaczania rozwiązań (pierwiastków) równań nieliniowych

Wybrane metody przybliżonego. wyznaczania rozwiązań (pierwiastków) równań nieliniowych Wykład trzeci 1 Wybrane metody przybliżonego wyznaczania rozwiązań pierwiastków równań nieliniowych 2 Metody rozwiązywania równań nieliniowych = 0 jest unkcją rzeczywistą zmiennej rzeczywistej Rozwiązanie

Bardziej szczegółowo

Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa. P. F. Góra

Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa. P. F. Góra Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2012 Uwarunkowanie zadania numerycznego Niech ϕ : R n R m będzie pewna funkcja odpowiednio wiele

Bardziej szczegółowo

Wykład 16. P 2 (x 2, y 2 ) P 1 (x 1, y 1 ) OX. Odległość tych punktów wyraża się wzorem: P 1 P 2 = (x 1 x 2 ) 2 + (y 1 y 2 ) 2

Wykład 16. P 2 (x 2, y 2 ) P 1 (x 1, y 1 ) OX. Odległość tych punktów wyraża się wzorem: P 1 P 2 = (x 1 x 2 ) 2 + (y 1 y 2 ) 2 Wykład 16 Geometria analityczna Przegląd wiadomości z geometrii analitycznej na płaszczyźnie rtokartezjański układ współrzędnych powstaje przez ustalenie punktu początkowego zwanego początkiem układu współrzędnych

Bardziej szczegółowo

Wektor, prosta, płaszczyzna; liniowa niezależność, rząd macierzy

Wektor, prosta, płaszczyzna; liniowa niezależność, rząd macierzy Wektor, prosta, płaszczyzna; liniowa niezależność, rząd macierzy Justyna Winnicka Na podstawie podręcznika Matematyka. e-book M. Dędys, S. Dorosiewicza, M. Ekes, J. Kłopotowskiego. rok akademicki 217/218

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 13. PROBLEMY OPTYMALIZACYJNE Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska PROBLEMY OPTYMALIZACYJNE Optymalizacja poszukiwanie

Bardziej szczegółowo

Egzamin z Metod Numerycznych ZSI, Egzamin, Gr. A

Egzamin z Metod Numerycznych ZSI, Egzamin, Gr. A Egzamin z Metod Numerycznych ZSI, 06.2007. Egzamin, Gr. A Imię i nazwisko: Nr indeksu: Section 1. Test wyboru, max 33 pkt Zaznacz prawidziwe odpowiedzi literą T, a fałszywe N. Każda prawidłowa odpowiedź

Bardziej szczegółowo

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:

Bardziej szczegółowo

Dopasowanie prostej do wyników pomiarów.

Dopasowanie prostej do wyników pomiarów. Dopasowanie prostej do wyników pomiarów. Graficzna analiza zależności liniowej Założenie: każdy z pomiarów obarczony jest taką samą niepewnością pomiarową (takiej samej wielkości prostokąty niepewności).

Bardziej szczegółowo

Interpolacja. Marcin Orchel. Drugi przypadek szczególny to interpolacja trygonometryczna

Interpolacja. Marcin Orchel. Drugi przypadek szczególny to interpolacja trygonometryczna Interpolacja Marcin Orchel 1 Wstęp Mamy daną funkcję φ (x; a 0,..., a n ) zależną od n + 1 parametrów a 0,..., a n. Zadanie interpolacji funkcji φ polega na określeniu parametrów a i tak aby dla n + 1

Bardziej szczegółowo

III. Układy liniowe równań różniczkowych. 1. Pojęcie stabilności rozwiązań.

III. Układy liniowe równań różniczkowych. 1. Pojęcie stabilności rozwiązań. III. Układy liniowe równań różniczkowych. 1. Pojęcie stabilności rozwiązań. Analiza stabilności rozwiązań stanowi ważną część jakościowej teorii równań różniczkowych. Jej istotą jest poszukiwanie odpowiedzi

Bardziej szczegółowo

Spacery losowe generowanie realizacji procesu losowego

Spacery losowe generowanie realizacji procesu losowego Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z

Bardziej szczegółowo

Definicje i przykłady

Definicje i przykłady Rozdział 1 Definicje i przykłady 1.1 Definicja równania różniczkowego 1.1 DEFINICJA. Równaniem różniczkowym zwyczajnym rzędu n nazywamy równanie F (t, x, ẋ, ẍ,..., x (n) ) = 0. (1.1) W równaniu tym t jest

Bardziej szczegółowo

Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych

Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych inż. Marek Duczkowski Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych słowa kluczowe: algorytm gradientowy, optymalizacja, określanie wodnicy W artykule

Bardziej szczegółowo

13. Funkcje wielu zmiennych pochodne, gradient, Jacobian, ekstrema lokalne.

13. Funkcje wielu zmiennych pochodne, gradient, Jacobian, ekstrema lokalne. 13. Funkcje wielu zmiennych pochodne, gradient, Jacobian, ekstrema lokalne. 1. Wprowadzenie. Dotąd rozważaliśmy funkcje działające z podzbioru liczb rzeczywistych w zbiór liczb rzeczywistych, zatem funkcje

Bardziej szczegółowo

Rozwiązania, seria 5.

Rozwiązania, seria 5. Rozwiązania, seria 5. 26 listopada 2012 Zadanie 1. Zbadaj, dla jakich wartości parametru r R wektor (r, r, 1) lin{(2, r, r), (1, 2, 2)} R 3? Rozwiązanie. Załóżmy, że (r, r, 1) lin{(2, r, r), (1, 2, 2)}.

Bardziej szczegółowo

Zajęcia nr. 3 notatki

Zajęcia nr. 3 notatki Zajęcia nr. 3 notatki 22 kwietnia 2005 1 Funkcje liczbowe wprowadzenie Istnieje nieskończenie wiele funkcji w matematyce. W dodaktu nie wszystkie są liczbowe. Rozpatruje się funkcje które pobierają argumenty

Bardziej szczegółowo

1.3. Optymalizacja geometrii czasteczki

1.3. Optymalizacja geometrii czasteczki 0 1 Część teoretyczna 13 Optymalizacja geometrii czasteczki Poszukiwanie punktów stacjonarnych (krytycznych) funkcji stanowi niezwykle istotny problem w obliczeniowej chemii kwantowej Sprowadza się on

Bardziej szczegółowo

KADD Metoda najmniejszych kwadratów funkcje nieliniowe

KADD Metoda najmniejszych kwadratów funkcje nieliniowe Metoda najmn. kwadr. - funkcje nieliniowe Metoda najmniejszych kwadratów Funkcje nieliniowe Procedura z redukcją kroku iteracji Przykłady zastosowań Dopasowanie funkcji wykładniczej Dopasowanie funkcji

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline. Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 211-1-18 1 Pomysł Przykłady Zastosowanie 2

Bardziej szczegółowo

Aproksymacja. funkcji: ,a 2. ,...,a m. - są funkcjami bazowymi m+1 wymiarowej podprzestrzeni liniowej X m+1

Aproksymacja. funkcji: ,a 2. ,...,a m. - są funkcjami bazowymi m+1 wymiarowej podprzestrzeni liniowej X m+1 Założenie: f(x) funkcja którą aproksymujemy X jest przestrzenią liniową Aproksymacja liniowa funkcji f(x) polega na wyznaczeniu współczynników a 0,a 1,a 2,...,a m funkcji: Gdzie: - są funkcjami bazowymi

Bardziej szczegółowo

Funkcje dwóch zmiennych

Funkcje dwóch zmiennych Maciej Grzesiak Instytut Matematyki Politechniki Poznańskiej Funkcje dwóch zmiennych 1. Funkcje dwóch zmiennych: pojęcia podstawowe Definicja 1. Funkcją dwóch zmiennych określoną na zbiorze A R 2 o wartościach

Bardziej szczegółowo

VIII. Zastosowanie rachunku różniczkowego do badania funkcji. 1. Twierdzenia o wartości średniej. Monotoniczność funkcji.

VIII. Zastosowanie rachunku różniczkowego do badania funkcji. 1. Twierdzenia o wartości średniej. Monotoniczność funkcji. VIII. Zastosowanie rachunku różniczkowego do badania funkcji. 1. Twierdzenia o wartości średniej. Monotoniczność funkcji. Twierdzenie 1.1. (Rolle a) Jeżeli funkcja f jest ciągła w przedziale domkniętym

Bardziej szczegółowo

Metody Optymalizacji: Przeszukiwanie z listą tabu

Metody Optymalizacji: Przeszukiwanie z listą tabu Metody Optymalizacji: Przeszukiwanie z listą tabu Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje: wtorek

Bardziej szczegółowo

Algebra liniowa z geometrią

Algebra liniowa z geometrią Algebra liniowa z geometrią Maciej Czarnecki 15 stycznia 2013 Spis treści 1 Geometria płaszczyzny 2 1.1 Wektory i skalary........................... 2 1.2 Macierze, wyznaczniki, układy równań liniowych.........

Bardziej szczegółowo

Bezgradientowe metody optymalizacji funkcji wielu zmiennych. informacje dodatkowe

Bezgradientowe metody optymalizacji funkcji wielu zmiennych. informacje dodatkowe Bezgradientowe metody optymalizacji funkcji wielu zmiennych informacje dodatkowe Wybór kierunku poszukiwań Kierunki bazowe i ich modyfikacje metody bezgradientowe. Kierunki oparte na gradiencie funkcji

Bardziej szczegółowo

Rozdział 5. Macierze. a 11 a a 1m a 21 a a 2m... a n1 a n2... a nm

Rozdział 5. Macierze. a 11 a a 1m a 21 a a 2m... a n1 a n2... a nm Rozdział 5 Macierze Funkcję, która każdej parze liczb naturalnych (i,j) (i = 1,,n;j = 1,,m) przyporządkowuje dokładnie jedną liczbę a ij F, gdzie F = R lub F = C, nazywamy macierzą (rzeczywistą, gdy F

Bardziej szczegółowo

Całkowanie numeryczne przy użyciu kwadratur

Całkowanie numeryczne przy użyciu kwadratur Całkowanie numeryczne przy użyciu kwadratur Plan wykładu: 1. Kwadratury Newtona-Cotesa a) wzory: trapezów, parabol etc. b) kwadratury złożone 2. Ekstrapolacja a) ekstrapolacja Richardsona b) metoda Romberga

Bardziej szczegółowo

Funkcja kwadratowa. f(x) = ax 2 + bx + c,

Funkcja kwadratowa. f(x) = ax 2 + bx + c, Funkcja kwadratowa. Funkcją kwadratową nazywamy funkcję f : R R określoną wzorem gdzie a, b, c R, a 0. f(x) = ax 2 + bx + c, Szczególnym przypadkiem funkcji kwadratowej jest funkcja f(x) = ax 2, a R \

Bardziej szczegółowo

Instrukcja do ćwiczeń laboratoryjnych z przedmiotu: Badania operacyjne

Instrukcja do ćwiczeń laboratoryjnych z przedmiotu: Badania operacyjne Instrukcja do ćwiczeń laboratoryjnych z przedmiotu: Badania operacyjne Temat ćwiczenia: Komputerowe wspomaganie rozwiązywania zadań programowania nieliniowego Zachodniopomorski Uniwersytet Technologiczny

Bardziej szczegółowo

Iteracyjne rozwiązywanie równań

Iteracyjne rozwiązywanie równań Elementy metod numerycznych Plan wykładu 1 Wprowadzenie Plan wykładu 1 Wprowadzenie 2 Plan wykładu 1 Wprowadzenie 2 3 Wprowadzenie Metoda bisekcji Metoda siecznych Metoda stycznych Plan wykładu 1 Wprowadzenie

Bardziej szczegółowo

Programowanie liniowe

Programowanie liniowe Programowanie liniowe Maciej Drwal maciej.drwal@pwr.wroc.pl 1 Problem programowania liniowego min x c T x (1) Ax b, (2) x 0. (3) gdzie A R m n, c R n, b R m. Oznaczmy przez x rozwiązanie optymalne, tzn.

Bardziej szczegółowo

W naukach technicznych większość rozpatrywanych wielkości możemy zapisać w jednej z trzech postaci: skalara, wektora oraz tensora.

W naukach technicznych większość rozpatrywanych wielkości możemy zapisać w jednej z trzech postaci: skalara, wektora oraz tensora. 1. Podstawy matematyki 1.1. Geometria analityczna W naukach technicznych większość rozpatrywanych wielkości możemy zapisać w jednej z trzech postaci: skalara, wektora oraz tensora. Skalarem w fizyce nazywamy

Bardziej szczegółowo

========================= Zapisujemy naszą funkcję kwadratową w postaci kanonicznej: 2

========================= Zapisujemy naszą funkcję kwadratową w postaci kanonicznej: 2 Leszek Sochański Arkusz przykładowy, poziom podstawowy (A1) Zadanie 1. Wykresem funkcji kwadratowej f jest parabola o wierzchołku 5,7 Wówczas prawdziwa jest równość W. A. f 1 f 9 B. f 1 f 11 C. f 1 f 1

Bardziej szczegółowo

Kryteria oceniania z matematyki Klasa III poziom rozszerzony

Kryteria oceniania z matematyki Klasa III poziom rozszerzony Kryteria oceniania z matematyki Klasa III poziom rozszerzony Zakres Dopuszczający Dostateczny Dobry Bardzo dobry Funkcja potęgowa - zna i stosuje tw. o potęgach - zna wykresy funkcji potęgowej o dowolnym

Bardziej szczegółowo

Zagadnienia brzegowe dla równań eliptycznych

Zagadnienia brzegowe dla równań eliptycznych Temat 7 Zagadnienia brzegowe dla równań eliptycznych Rozważmy płaski obszar R 2 ograniczony krzywą. la równania Laplace a (Poissona) stawia się trzy podstawowe zagadnienia brzegowe. Zagadnienie irichleta

Bardziej szczegółowo

Metody numeryczne II

Metody numeryczne II Metody numeryczne II Poszukiwanie ekstremów funkcji Janusz Szwabiński szwabin@ift.uni.wroc.pl nmslides-13.tex Metody numeryczne II Janusz Szwabiński 29/5/2003 14:40 p.1/55 Poszukiwanie ekstremów funkcji

Bardziej szczegółowo

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar... 1. Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar... 1. Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16 Spis treści Przedmowa.......................... XI Rozdział 1. Pomiar: jednostki miar................. 1 1.1. Wielkości fizyczne i pozafizyczne.................. 1 1.2. Spójne układy miar. Układ SI i jego

Bardziej szczegółowo

VI. Równania różniczkowe liniowe wyższych rzędów

VI. Równania różniczkowe liniowe wyższych rzędów VI. 1. Równanie różniczkowe liniowe n-tego rzędu o zmiennych współczynnikach Niech podobnie jak w poprzednim paragrafie K = C lub K = R. Podobnie jak w dziedzinie rzeczywistej wprowadzamy pochodne wyższych

Bardziej szczegółowo

Rachunek różniczkowy funkcji dwóch zmiennych

Rachunek różniczkowy funkcji dwóch zmiennych Rachunek różniczkowy funkcji dwóch zmiennych Definicja Spis treści: Wykres Ciągłość, granica iterowana i podwójna Pochodne cząstkowe Różniczka zupełna Gradient Pochodna kierunkowa Twierdzenie Schwarza

Bardziej szczegółowo

Wstęp do metod numerycznych 9. Minimalizacja: funkcje jednej zmiennej. P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/

Wstęp do metod numerycznych 9. Minimalizacja: funkcje jednej zmiennej. P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ Wstęp do metod numerycznych 9. Minimalizacja: funkcje jednej zmiennej P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2011 Lokalna minimalizacja ciagła Minimalizacja funkcji jest jedna z najważniejszych

Bardziej szczegółowo

Wielokryteriowa optymalizacja liniowa

Wielokryteriowa optymalizacja liniowa Wielokryteriowa optymalizacja liniowa 1. Przy decyzjach złożonych kierujemy się zwykle więcej niż jednym kryterium. Postępowanie w takich sytuacjach nie jest jednoznaczne. Pojawiło się wiele sposobów dochodzenia

Bardziej szczegółowo

Kombinacja jądrowych estymatorów gęstości w klasyfikacji - zastosowanie na sztucznym zbiorze danych

Kombinacja jądrowych estymatorów gęstości w klasyfikacji - zastosowanie na sztucznym zbiorze danych Kombinacja jądrowych estymatorów gęstości w klasyfikacji - zastosowanie na sztucznym zbiorze danych Mateusz Kobos, 07.04.2010 Seminarium Metody Inteligencji Obliczeniowej Spis treści Opis algorytmu i zbioru

Bardziej szczegółowo

Statystyka opisowa. Wykład V. Regresja liniowa wieloraka

Statystyka opisowa. Wykład V. Regresja liniowa wieloraka Statystyka opisowa. Wykład V. e-mail:e.kozlovski@pollub.pl Spis treści 1 Prosta regresji cechy Y względem cech X 1,..., X k. 2 3 Wyznaczamy zależność cechy Y od cech X 1, X 2,..., X k postaci Y = α 0 +

Bardziej szczegółowo

Wstęp do metod numerycznych Rozwiazywanie równań algebraicznych. P. F. Góra

Wstęp do metod numerycznych Rozwiazywanie równań algebraicznych. P. F. Góra Wstęp do metod numerycznych Rozwiazywanie równań algebraicznych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2010 Co to znaczy rozwiazać równanie? Przypuśmy, że postawiono przed nami problem rozwiazania

Bardziej szczegółowo

5. Metody Newtona. 5.1 Wzór Taylora

5. Metody Newtona. 5.1 Wzór Taylora 5. Metody Newtona Na ostatnich zajęciach zidentyfikowaliśmy ważny problem poznanych dotychczas metod (Gaussa-Seidel a, Cauchy iego, spadku wzdłuż gradientu, stochastycznego spadku wzdłuż gradientu): ich

Bardziej szczegółowo

Wykład 1. Na początku zajmować się będziemy zbiorem liczb całkowitych

Wykład 1. Na początku zajmować się będziemy zbiorem liczb całkowitych Arytmetyka liczb całkowitych Wykład 1 Na początku zajmować się będziemy zbiorem liczb całkowitych Z = {0, ±1, ±2,...}. Zakładamy, że czytelnik zna relację

Bardziej szczegółowo

Funkcje wielu zmiennych

Funkcje wielu zmiennych Funkcje wielu zmiennych Wykresy i warstwice funkcji wielu zmiennych. Granice i ciagłość funkcji wielu zmiennych. Pochodne czastkowe funkcji wielu zmiennych. Gradient. Pochodna kierunkowa. Różniczka zupełna.

Bardziej szczegółowo