Układy równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona) f(x) = 0, gdzie. dla n=2 np.

Podobne dokumenty
Rozwiązywanie równań nieliniowych

Metody Numeryczne Optymalizacja. Wojciech Szewczuk

KADD Minimalizacja funkcji

KADD Minimalizacja funkcji

Matematyka stosowana i metody numeryczne

ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH

Wprowadzenie Metoda bisekcji Metoda regula falsi Metoda siecznych Metoda stycznych RÓWNANIA NIELINIOWE

Optymalizacja ciągła

Optymalizacja ciągła

1 Równania nieliniowe

Metody Obliczeniowe w Nauce i Technice

IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych,

RÓWNANIA NIELINIOWE Maciej Patan

Wstęp do metod numerycznych 9a. Układy równań algebraicznych. P. F. Góra

Metody numeryczne I Równania nieliniowe

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

1 Metody rozwiązywania równań nieliniowych. Postawienie problemu

5. Twierdzenie Weierstrassa

Wstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych. P. F. Góra

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

1 Pochodne wyższych rzędów

Układy równań i równania wyższych rzędów

Funkcja kwadratowa. f(x) = ax 2 + bx + c = a

1 Funkcje dwóch zmiennych podstawowe pojęcia

Wstęp do metod numerycznych 9. Minimalizacja: funkcje jednej zmiennej. P. F. Góra

CAŁKI NIEOZNACZONE C R}.

Definicja pochodnej cząstkowej

Wybrane metody przybliżonego. wyznaczania rozwiązań (pierwiastków) równań nieliniowych

Metody rozwiązywania równań nieliniowych

METODY ROZWIĄZYWANIA RÓWNAŃ NIELINIOWYCH

Wykład 4 Udowodnimy teraz, że jeśli U, W są podprzetrzeniami skończenie wymiarowej przestrzeni V to zachodzi wzór: dim(u + W ) = dim U + dim W dim(u

WEKTORY I WARTOŚCI WŁASNE MACIERZY. = λ c (*) problem przybliżonego rozwiązania zagadnienia własnego dla operatorów w mechanice kwantowej

METODY NUMERYCZNE. Wykład 4. Numeryczne rozwiązywanie równań nieliniowych z jedną niewiadomą. prof. dr hab.inż. Katarzyna Zakrzewska

Rozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów.

Funkcja kwadratowa. f(x) = ax 2 + bx + c,

Matematyka II. Bezpieczeństwo jądrowe i ochrona radiologiczna Semestr letni 2018/2019 wykład 13 (27 maja)

Zagadnienia - równania nieliniowe

Programowanie liniowe metoda sympleks

Maciej Grzesiak Instytut Matematyki Politechniki Poznańskiej. Całki nieoznaczone

ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ

METODY NUMERYCZNE. Wykład 4. Numeryczne rozwiązywanie równań nieliniowych z jedną niewiadomą. Rozwiązywanie równań nieliniowych z jedną niewiadomą

Optymalizacja ciągła

Zaawansowane metody numeryczne

Interpolacja. Marcin Orchel. Drugi przypadek szczególny to interpolacja trygonometryczna

Metody numeryczne. Równania nieliniowe. Janusz Szwabiński.

Metody numeryczne Wykład 7

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

2. Definicja pochodnej w R n

Funkcje wielu zmiennych

1.3. Optymalizacja geometrii czasteczki

Wstęp do metod numerycznych 11. Minimalizacja: funkcje jednej zmiennej. P. F. Góra

Metody Numeryczne. Wojciech Szewczuk

Lokalna odwracalność odwzorowań, odwzorowania uwikłane

Z52: Algebra liniowa Zagadnienie: Zastosowania algebry liniowej Zadanie: Operatory różniczkowania, zagadnienie brzegowe.

Metody numeryczne rozwiązywania równań różniczkowych

VIII. Zastosowanie rachunku różniczkowego do badania funkcji. 1. Twierdzenia o wartości średniej. Monotoniczność funkcji.

Algebra liniowa. Macierze i układy równań liniowych

Programowanie liniowe metoda sympleks

Wstęp do metod numerycznych 9. Rozwiazywanie równań algebraicznych. P. F. Góra

Laboratorium 5 Przybliżone metody rozwiązywania równań nieliniowych

Równania różniczkowe liniowe wyższych rzędów o stałych współcz

Wstęp do metod numerycznych Rozwiazywanie równań algebraicznych. P. F. Góra

Optymalizacja (minimalizacja) funkcji. Plan wykładu: 1. Sformułowanie problemu, funkcja celu. 2. Metody bezgradientowe

Metody iteracyjne rozwiązywania układów równań liniowych (5.3) Normy wektorów i macierzy (5.3.1) Niech. x i. i =1

Rozwiązania, seria 5.

II. FUNKCJE WIELU ZMIENNYCH

1 Macierz odwrotna metoda operacji elementarnych

Funkcje dwóch zmiennych

ELEMENTY ANALIZY NUMERYCZNEJ ELEMENTY ANALIZY NUMERYCZNEJ. Egzamin pisemny zestaw 1 26 czerwca 2017 roku

Analiza numeryczna Kurs INP002009W. Wykład 8 Interpolacja wielomianowa. Karol Tarnowski A-1 p.223

Rzut oka na współczesną matematykę spotkanie 3: jak liczy kalkulator i o źródłach chaosu

Układy równań liniowych

Metody systemowe i decyzyjne w informatyce

Funkcje wymierne. Jerzy Rutkowski. Działania dodawania i mnożenia funkcji wymiernych określa się wzorami: g h + k l g h k.

Komputerowa Analiza Danych Doświadczalnych

Równania i nierówności trygonometryczne

Wstęp do metod numerycznych 12. Minimalizacja: funkcje wielu zmiennych. P. F. Góra

INTERPOLACJA I APROKSYMACJA FUNKCJI

Układy równań liniowych i metody ich rozwiązywania

Materiały wykładowe (fragmenty)

ANALIZA MATEMATYCZNA Z ELEMENTAMI STATYSTYKI MATEMATYCZNEJ

Lista. Algebra z Geometrią Analityczną. Zadanie 1 Przypomnij definicję grupy, które z podanych struktur są grupami:

W naukach technicznych większość rozpatrywanych wielkości możemy zapisać w jednej z trzech postaci: skalara, wektora oraz tensora.

KADD Metoda najmniejszych kwadratów funkcje nieliniowe

2. ZASTOSOWANIA POCHODNYCH. (a) f(x) = ln 3 x ln x, (b) f(x) = e2x x 2 2.

Obliczenia iteracyjne

Optymalizacja ciągła

ELEMENTY ANALIZY NUMERYCZNEJ ELEMENTY ANALIZY NUMERYCZNEJ. Egzamin pisemny zestaw 1 24 czerwca 2019 roku

RÓŻNICZKOWANIE FUNKCJI WIELU ZMIENNYCH: rachunek pochodnych dla funkcji wektorowych. Pochodne cząstkowe funkcji rzeczywistej wielu zmiennych

Całkowanie numeryczne przy użyciu kwadratur

Tydzień nr 9-10 (16 maja - 29 maja), Równania różniczkowe, wartości własne, funkcja wykładnicza od operatora - Matematyka II 2010/2011L

Wykład Matematyka A, I rok, egzamin ustny w sem. letnim r. ak. 2002/2003. Każdy zdający losuje jedno pytanie teoretyczne i jedno praktyczne.

Modelowanie rynków finansowych z wykorzystaniem pakietu R

Wykład 16. P 2 (x 2, y 2 ) P 1 (x 1, y 1 ) OX. Odległość tych punktów wyraża się wzorem: P 1 P 2 = (x 1 x 2 ) 2 + (y 1 y 2 ) 2

5. Metody stochastyczne (symulowane wyżarzanie, algorytmy genetyczne) -> metody Monte Carlo

A,B M! v V ; A + v = B, (1.3) AB = v. (1.4)

dr Mariusz Grządziel 15,29 kwietnia 2014 Przestrzeń R k R k = R R... R k razy Elementy R k wektory;

Elementy metod numerycznych

PROGRAMOWANIE KWADRATOWE

Rozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów.

Transkrypt:

Układy równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona f(x 0, f ( f, f,..., f n gdzie 2 x ( x, x 2,..., x n dla n2 np. f ( x, y 0 g( x, y 0

dla każdej wielowymiarowej rozwinięcie w szereg Taylora f i stosujemy f i N fi 2 ( X + δx fi( X + δx j + O( δx x j j (** zostawiając tylko wyrazy liniowe i żądając f i ( X + δx 0 (tzn. chcemy o tyle przesunąć się od początkowo wybranego X, żeby w X+δX, f i 0, z dokładnością do przybliżenia ** dostajemy układ algebraicznych równań liniowych niejednorodnych na δx, tzn. szukmy takiej zmiany X, która prowadzi do f i ( X + δx 0 gdzie N j α δ x β ij j i (* α ij fi x β f i i j rozwiązując układ (* równań algebraicznych (! budujemy

X new old X + X δ (*** co daje nam nowe β i f i ( X new [pamiętamy, że poprzednie β i f i (X old ] wyznaczamy pochodne α ij w X new i proces (** powtarzamy aż do otrzymania zbieżności z żądaną dokładnością. (* i (*** można inaczej zapisać: k X + k X α - ( X k f( X k przypomnijmy, ze w jednym wymiarze mieliśmy: x k + x k f f ( xk ( x / k czyli znów mamy X k+ F (X k zauważmy, że znów kolejną metodę sprowadziliśmy do iteracyjnego procesu rozwiązywania układów liniowych równań algebraicznych! przykład: SZUKANIE EKSTREMÓW (minimalizacja i maksymalizacja

szukanie minimum powierzchni energetycznej molekuły jako funkcji wielu zmiennych (położeń jąder - optymalizacja geometrii w jednym wymiarze (dla cząsteczki dwuatomowej energia potencjalna dla ruchu jąder w molekule dwuatomowej w funkcji odległości między jądrami zagadnienie podobne do znajdowania zer Jak szukać minimum? funkcja jednej zmiennej: Metoda złotego podziału szukamy kolejnych punktów X 0, X, X 2,... X n,...

aż znajdziemy dwa takie X i-, X i, X i+ a, b, c, takie, że dla a<b<c ( ax i-, bx i, cx i+ (* f ( a > f ( b oraz f ( c > f ( b punkty nie muszą być równoodległe; szukając dalej, nowy punkt próbny X możemy wybrać w [a,b] lub [b,c]; weźmy X w [ b, c ], jeśli teraz f ( b f ( x punktów gwarantujących (* jest: a < b < x jeśli natomiast f ( b > f ( x to następne trzy punkty wybieramy: b < x < c < to nowy zestaw trzech

Pytanie: gdzie w przedziale [a,b] lub [b,c] wybrać następny próbny punkt? albo inaczej: jak dzielić punktem b odcinek [a,c], żeby zoptymalizować i zunifikować procedurę poszukiwania ekstremum? wprowadźmy oznaczenia: b c a a W i c c b a W i załóżmy, że X wybrano w [b,c], oznaczmy x c b Z a widać ( z rysunku, że następny segment zawierający trzy punkty będzie albo W + Z albo - W

W stanowi ułamek całego przedziału [a,c] Z też jest ułamkiem nowego przedziału zawierającego albo ( a, b, x albo ( b, x, c ; chcemy wyznaczać ten wewnętrzny punkt (b dla przedziału [a,c], albo x dla przedziału [b,c] zawsze tak samo, zatem: (** Z W ( Wlub( W + Z z drugiej strony chcemy, żeby X było wybrane tak względem b, żeby obie możliwości W + Z albo - W były równo cenne, tzn: W + Z - W to prowadzi do Z 2 W i w powiązaniu z (** daje: W 2 3W + 0 > W 3 5 2 (***

ostatecznie:. trzy kolejne punkty a,b,c wybieramy zawsze wg (*** 2. jeśli spełnione jest (* to X wybieramy w przedziale (-W, tak, żeby a,b,x oraz b,x,c spełniały regułę złotego cięcia (** Metoda Brent a (interpolacja parabolą...program BRENT_GA... Jeszcze inny sposób: szukanie zer funkcji pochodnej

MINIMALIZACJA W WIELU WYMIARACH Metody gradientowe (najszybszego spadku n niech F:R R F( x F( x, x2,..., x n oraz h ( h, h 2,.., h n rozwijając F( x h + w szereg Taylora T T F( x + h F( x + G( x h + 2 h H( x h+... gdzie wektor gradientu G( x T F( x F( x F( x,,..., x x x 2 n a F ( 2 H ij x xi x j elementy macierzy Hessianu załóżmy, że h jest wektorem jednostkowym, wówczas

d dt F ( x + t h t o mierzy szybkość zmiany F (x idąc w kierunku h, i jest równa zapytajmy: G( x T h (* w kierunku jakiego wektora jedn. h szybkość zmian F jest największa? ponieważ n i T G( x h G ( x h i i a n 2 h i i

to z nierówności Schwarza (lub z iloczynu skalarnego: h pokrywający się z G wskazuje kierunek najszybsz. wzrostu h pokrywający się z -G wskazuje kierunek najszybsz. spadku Szukanie ekstremum to proces poszukiwania x w którym G(x0 (* można sprowadzić do układu równań: { Gi ( x, x2,.. xn 0} i i rozwiązać wspomnianą wcześniej metodą; (konieczność obliczania drugich pochodnych cząstkowych z funkcji F n W metodzie najszybszego spadku poszukiwanie (* sprowadza się do minimalizacji jednowymiarowej ( Φ( t F( x tg x dla funkcji Φ jednej zmiennej t dla każdego x (i znajdujemy G(x (i, i numeruje tu krok (iterację postępowania

Φ jako funkcja t będzie miała jakieś minimum (w kierunku G, (które nb. może leżeć na brzegu obszaru tak znajdujemy kolejne x (i+ możliwe są dwa scenariusze: A. startując z dowolnego X i obliczamy G(X i i w kierunku G(x i poszukujemy ekstremum, np. w X i+ (ozn. Z; dalej powtarzamy procedurę dla Z, tzn. z Z poszukujemy ekstremum w kierunku G(Z, itd... B. startując z dowolnego X obliczamy G(X i w kierunku G(x posuwamy się tg(x, t - małe, do X, dalej powtarzamy procedurę dla X tzn. w X obliczamy G(x i w tym kierunku przesuwamy się o tg(x ; itd... w obu przypadkach aż do osiągnięcia G 0 z żądaną dokładnością Jeśli każda składowa G i (x jest liniową funkcja x,

G ( x n a x j i ij j + b i to x dla którego F(x posiada min. znajdujemy od razu z żądania G i (x0 co sprowadza się do rozwiązania układu równań liniowych Ax b