TEMATYKA: Optymaliacja nakładania wyników pomiarów Ćwicenia nr 6 DEFINICJE: Optymaliacja: metoda wynacania najlepsego (sukamy wartości ekstremalnej) rowiąania punktu widenia określonego kryterium (musimy dysponować funkcją oceny). Optymaliacja (w matematyce) termin optymaliacja odnosi się do problemu naleienia ekstremum (minimum lub maksimum) adanej funkcji celu. Funkcja y = f(x) ma w punkcie x 0 D f minimum (maksimum) globalne, jeżeli dla każdego x D f spełniona jest nierówność: f(x) f(x 0 ) (f(x) f(x 0 )). Warunek koniecny istnienia ekstremum lokalnego funkcji: Jeżeli funkcja y = f(x), określona na prediale (a, b), posiada skońconą pochodną f (x 0 ) ora posiada w x 0 należącym do (a, b) ekstremum lokalne, to f (x 0 ) = 0. I Warunek wystarcający istnienia ekstremum lokalnego funkcji: Funkcja y = f(x), ciągła i różnickowalna w prediale (a, b) i mająca skońconą licbę punktów stacjonarnych (tj. takich, w których eruje się jej pierwsa pochodna) ma w punkcie x 0 należącym do (a, b): minimum lokalne wtedy i tylko wtedy, gdy istnieje takie δ > 0 że: f (x 0 ) = 0 f (x) < 0 dla x ϵ (x 0 δ, x 0 ) f (x) > 0 dla x ϵ (x 0, x 0 + δ) maksimum lokalne wtedy i tylko wtedy, gdy istnieje takie δ > 0 że: f (x 0 ) = 0 f (x) > 0 dla xϵ(x 0 δ, x 0 ) f (x) < 0 dla xϵ(x 0, x 0 + δ) II Warunek wystarcający istnienia ekstremów: Jeśli o funkcji y = f(x), określonej jak wyżej, ałoży się dodatkowo, że jest dwukrotnie różnickowalna w prediale (a, b) ora jej druga pochodna jest ciągła, to jeżeli f (x 0 ) = 0 i f (x 0 ) 0, to funkcja y = f(x) ma w punkcie x 0 ekstremum, pry cym, gdy f (x 0 ) < 0 to jest to maksimum lokalne, a gdy f (x 0 ) > 0 to minimum lokalne.
Pryjmując II warunek wystarcający, najdowanie ekstremów lokalnych można sprowadić do najdowania miejsca erowego pierwsej pochodnej funkcji i sprawdania naku drugiej pochodnej funkcji. Ocywiście funkcja musi być ciągła i dwukrotnie różnickowalna. Do najdowania miejsca erowego możemy posłużyć się iteracyjną metodą Newtona: x n+ = x n f(x n) f (x n ) Jeśli posukujemy miejsca erowego pochodnej, to powyżsy wór pryjmuje postać: x n+ = x n f (x n) f (x n ) Metodę Newtona możemy również stosować do funkcji wielu miennych. W takim wypadku mamy do cynienia wektorem miennych X. Pochodna funkcji jest także wektorem, którego elementami są pochodne cąstkowe. Natomiast druga pochodna funkcji to macier kwadratowa, awierająca cąstkowe pochodne miesane. y = f(x) x x 2 y = f( ]) x n Stąd df dx df f (X) = dx 2 df dx n ] d 2 f d 2 f d 2 f dx dx dx dx 2 dx dx n d 2 f d 2 f d 2 f f (X) = dx 2 dx dx 2 dx 2 dx 2 dx n d 2 f d 2 f d 2 f dx n dx dx n dx 2 dx n dx n ] Iteracje Newtona wykonuje się na macierach analogicnie: X n+ = X n f (X n) - f (X n) Należy tylko pamiętać, że X n i f (X n) to wektory, a f (X n) to macier kwadratowa. 2
Iteracja: metoda matematycna polegająca na wielokrotnym kolejnym astosowaniu tego samego algorytmu postępowania, pry cym wynik i-tej operacji stanowi dane wejściowe dla kolejnej, (i + )-sej operacji. Strescenie artykułu dr inż. A Kniata: W artykule predstawiono analię pomiarów wykonanych na blokach statków do oceny ich wykonalności w końcowym etapie montażu w suchym doku lub na pochylni. Analia wymaga w pierwsej kolejności sprawdenia, cy bloki ostały wykonane godnie tolerancjami pryjętymi w projekcie, a następnie porównania, cy dwa sąsiednie bloki mogą być połącone. Każdy blok był mierony w innym układie współrędnych, należy dokonać odpowiednich prekstałceń, aby ich wyniki prenieść do wspólnego modelu CAD be utraty dokładności. Zaproponowano algorytm, który optymaliuje proces transformacji, aby uyskać lepse wyniki. Optymaliacja ma na celu minimaliowanie sumy odległości pomiędy punktami transformowanymi i odpowiadającymi im punktami na modelu CAD. Następnie predstawiono opis arówno metody optymaliacji i prykład astosowania. Problem pomiarów i transformacji układów współrędnych występuje, opróc budowy statków, np. w budownictwie, kartografii, automatyce, roponawaniu worców, obraowaniu medycnym i inne Rys. 6. Rys. 6.2 3
ZADANIA:. Posługując się iteracyjną metodą Newtona wynacyć ekstrema lokalne funkcji: f(x) = (x + 4) (x ) (x 5). 2. Posługując się iteracyjną metodą Newtona wynacyć ekstrema lokalne funkcji: f(x) = (x 2) 4 + 2. 3. Dla wyników pomiarów, apreentowanych na poniżsym rysunku, dokonać transformacji współrędnych punktów A, B, C, D aby najlepiej dopasować je do współrędnych punktów baowych A, B, C, D. Jako metodę optymaliacji posukiwania minimum funkcji celu astosować iteracyjny algorytm wywodący się metody Newtona. Rys. 6.3 W obliceniach pryjąć następujące ałożenia: Współrędne punktów baowych: A(0; 0), B(4; 0), C(4; 4), D(0; 4), Współrędne punktów dopasowywanych (transformowanych): A (0+dx A ; 0+dy A ), B (4+dx B ; 0+dx B ), C (4+dx C ; 4+dx C ), D (0+dx D ; 4+dx D ), Odchyłki od wymiarów (współrędnych punktów baowych): dx A = 0.00, dy A = 0.00, dx B = 0.02, dy B = 0.0, dx C = -0.0, dy C = 0.0, dx D = -0.02, dy D = -0.0, Jednostką długości jest m], Pryjąć, iż błąd pomiarowy jest pomijalnie mały i nie będie uwględniany w obliceniach, Powierchnie wynacone pre punkty baowe i punkty dopasowywane (transformowane) są idealnie płaskie. Trecia współrędna tych punktów wynosi i = 0, Pryjąć ałożenie, że dopasowywanie (transformacja) punktów będie prekstałceniem iometrycnym (translacja, obrót). 4
ROZWIĄZANIA ZADAŃ:. Posługując się iteracyjną metodą Newtona wynacyć ekstrema lokalne funkcji: f(x) = (x + 4) (x ) (x 5). D f = R f(x) = (x + 4) (x ) (x 5) = (x + 4) (x 2 5 x x + 5) = (x + 4) (x 2 6 x + 5) = (x 3 6 x 2 + 5 x + 4 x 2 24 x + 20) = x 3 2 x 2 9 x + 20 f (x) = 3 x 2 4 x 9 f (x) = 6 x 4 Posukujemy x 0, dla którego f (x 0 ) = 0: f (x 0 ) = 3 x 0 2 4 x 0 9 = 0 = ( 4) 2 4 3 ( 9) = 244 = 5. 62050 x 0 = x 02 = 4 + 5. 62050 2 3 4 5. 62050 2 3 x 0, x 02 D f = 3. 27008 =. 93675 Badamy nak drugiej pochodnej w punktach x 0 i x 02 : f (x 0 = 3. 27008) = 6 3. 27008 4 = 5. 62048 > 0-minimum lokalne f (x 02 =. 93675) = 6 (. 93675) 4 = 5. 62050 < 0-maksimum lokalne II warunek wystarcający istnienia ekstremum funkcji. 5
2. Posługując się iteracyjną metodą Newtona wynacyć ekstrema lokalne funkcji: f(x) = (x 2) 4 + 2. D f = R f(x) = (x 2) 4 + 2 f (x) = 4 (x 2) 3 f (x) = 2 (x 2) 2 Posukujemy x 0, dla którego f (x 0 ) = 0: f (x 0 ) = 4 (x 0 2) 3 = 0 x 0 = 2 x 0 D f Badamy nak drugiej pochodnej w punkcie x 0 : f"(x 0 = 2) = 2 (2 2) 2 = 0 Pryjmijmy: δ = 0. 02 x (x 0 δ; x 0 ) x (. 98; 2) x =. 99 f (x =. 99) = 4 (. 99 2) 3 = 0. 000004 δ = 0. 02 x (x 0 ; x 0 + δ) x (2; 2. 02) x = 2. 0 f (x = 2. 0) = 4 (2. 0 2) 3 = 0. 000004 Widać, że pierwsa pochodna mienia nak ( ) na (+), cyli w punkcie x 0 = 2 funkcja posiada minimum lokalne. I warunek wystarcający istnienia ekstremum funkcji. 6
3. Dla wyników pomiarów, apreentowanych na poniżsym rysunku, dokonać transformacji współrędnych punktów A, B, C, D aby najlepiej dopasować je do współrędnych punktów baowych A, B, C, D. Jako metodę optymaliacji posukiwania minimum funkcji celu astosować iteracyjny algorytm wywodący się metody Newtona. W obliceniach pryjąć następujące ałożenia: Rys. 6.3 Współrędne punktów baowych: A(0; 0), B(4; 0), C(4; 4), D(0; 4), Współrędne punktów dopasowywanych (transformowanych): A (0+dx A ; 0+dy A ), B (4+dx B ; 0+dx B ), C (4+dx C ; 4+dx C ), D (0+dx D ; 4+dx D ), Odchyłki od wymiarów (współrędnych punktów baowych): dx A = 0.00, dy A = 0.00, dx B = 0.02, dy B = 0.0, dx C = -0.0, dy C = 0.0, dx D = -0.02, dy D = -0.0, Jednostką długości jest m], Pryjąć, iż błąd pomiarowy jest pomijalnie mały i nie będie uwględniany w obliceniach, Powierchnie wynacone pre punkty baowe i punkty dopasowywane (transformowane) są idealnie płaskie. Trecia współrędna tych punktów wynosi i = 0, Pryjąć ałożenie, że dopasowywanie (transformacja) punktów będie prekstałceniem iometrycnym (translacja, obrót). 7
Współrędne punktów baowych m]: x A = 0.00 y A = 0.00 x B = 4.00 y B = 0.00 x C = 4.00 y C = 4.00 x D = 0.00 y D = 4.00 Odchyłki od wymiarów punktów dopasowywanych m]: dx A = 0.00 dy A = 0.00 dx B = 0.02 dy B = 0.0 dx C = -0.0 dy C = 0.0 dx D = -0.02 dy D = -0.0 Współrędne punktów dopasowywanych m]: x A = x A + dx A = 0.00 + 0.00 = 0.00 y A = y A + dy A = 0.00 + 0.00 = 0.00 x B = x B + dx B = 4.00 + 0.02 = 4.02 y B = y B + dy B = 0.00 + 0.0 = 0.0 x C = x C + dx C = 4.00-0.0 = 3.99 y C = y C + dy C = 4.00 + 0.0 = 4.0 x D = x D + dx D = 0.00-0.02 = -0.02 y D = y D + dy D = 4.00-0.0 = 3.99 Pryjęty wektor odchyłek wstępnych: x 0. 00 x n= = y] = 0. 00] - pierwsa iteracja n = α 0. 02 Macier transformacji: cosα sinα 0 0 x cosα sinα cosα x sinα y M = sinα cosα 0] 0 y] = sinα cosα sinα x + cosα y] cosα 0 sinα 0 x 0 0 0. 9998 0. 02 0 0 0. 00 sinα cosα y] = 0. 02 0. 9998 0. 00] 0 0 0 0 Komentar: cosα sinα 0 R = sinα cosα 0] macier obrotu 0 0 0 x T = 0 y] macier translacji 0 0 M = R T T R (*)dla małych presunięć i małych kątów obrotu można wstawić = Ocywiście dla dużych presunięć i kątów obrotu (*) nie jest prawdiwym ałożeniem! Wniosek jaki można wysnuć dopasowując do siebie dwa kwadraty carny i cerwony jest następujący: Nie ma więksego nacenia, cy najpierw dokonujemy obrotów, a później presunięć, cy odwrotnie, najpierw presuwamy, a następnie dokonujemy małych obrotów. Efekt powinien być identycny ocywiście pry małych presunięciach i obrotach. 8
cosα sinα 0 0 x R T = sinα cosα 0] 0 y] 0 0 0 0 cosα sinα 0 + 0 0 cosα 0 sinα + 0 0 cosα x sinα y + 0 = sinα + cosα 0 + 0 0 sinα 0 + cosα + 0 0 sinα x + cosα y + 0 ] 0 + 0 0 + 0 0 0 + 0 + 0 0 x + 0 y + cosα sinα cosα x sinα y = sinα cosα sinα x + cosα y] 0 0 0 x cosα sinα 0 T R = 0 y] sinα cosα 0] 0 0 0 0 cosα + 0 sinα + x 0 ( sinα) + 0 cosα + x 0 0 + 0 0 + x = 0 cosα + sinα + y 0 0 ( sinα) + cosα + y 0 0 0 + 0 + y ] 0 cosα + 0 sinα + 0 0 ( sinα) + 0 cosα + 0 0 0 + 0 0 + cosα sinα x = sinα cosα y] 0 0 x = 0. 000000000 = 0. 000 y = 0. 000000000 = 0. 000 0. 02 80 α = 0. 02rad sin ( ) = 0. 099986667 0. 0200 π 0. 02 80 α = 0. 02rad cos ( ) = 0. 9998000067 0. 9998 π cosα x sinα y = 0. 9998000067 0. 000 0. 099986667 0. 000 = 0. 000979803 0. 000 sinα x + cosα y = 0. 099986667 0. 000 + 0. 9998000067 0. 000 = 0. 00097987 0. 000 Cyli można pryjąć (popełniając mały błąd(*)) ałożenie: x cosα x sinα y y sinα x + cosα y α 0 cosα, sinα 0 Ora ostatecnie: cosα sinα cosα x sinα y cosα sinα x M = sinα cosα sinα x + cosα y] sinα cosα y] 0 0 0. 9998 0. 0200 0. 000 0 0 = 0. 0200 0. 9998 0. 000] 0. 0000 0. 0000. 0000 9
Współrędne punktów dopasowywanych po transformacji (pierwsa iteracja n = ): x A" cosα sinα x x A cosα x A sinα y A + x y A" ] = sinα cosα y] y A ] = sinα x A + cosα y A + y] 0 0 x A" y A" x B" y B" x C" y C" x D" y D" ] = M ] = M x A y A 0. 9998 0. 02 0. 00 0. 00 ] = 0. 02 0. 9998 0. 00] 0. 00] 0 0 0. 9998 0 0. 02 0 + 0. 00 0. 000 = 0. 02 0. 00 + 0. 9998 0. 00 + 0. 00 ] = 0. 000] 0 0 + 0 0 + x B y B x C y C 0. 9998 0. 02 0. 00 4. 02 4. 0200 ] = 0. 02 0. 9998 0. 00] 0. 0] = 0. 094] 0 0 0. 9998 0. 02 0. 00 3. 99 3. 900 ] = M ] = 0. 02 0. 9998 0. 00] 4. 0] = 4. 0900] 0 0 x D 0. 9998 0. 02 0. 00 0. 02 0. 0988 ] = M y D ] = 0. 02 0. 9998 0. 00] 3. 99 ] = 3. 9898 ] 0 0 Odległości międy punktami dostosowywanymi a punktami baowymi: d ABCD ( x, y, α) = (cos α x A B C D sin α y A B C D + x x A) 2 + (sin α x A B C D + cos α y A B C D + y y A) 2 d A ( x, y, α) = (x A" x A ) 2 + (y A" y A ) 2 = (0. 000 0) 2 + (0. 000 0) 2 = 0. 004 d B ( x, y, α) = (x B" x B ) 2 + (y B" y B ) 2 = (4. 02 4. 00) 2 + (0. 094 0) 2 = 0. 0936 d C ( x, y, α) = (x C" x C ) 2 + (y C" y C ) 2 = (3. 9 4. 00) 2 + (4. 09 4. 00) 2 = 0. 273 d D ( x, y, α) = (x D" x D ) 2 + (y D" y D ) 2 = ( 0. 0988 0) 2 + (3. 9898 4. 00) 2 = 0. 0993 Pryjęta funkcja celu: f( x, y, α) = d A ( x, y, α) 2 + d B ( x, y, α) 2 + d C ( x, y, α) 2 + d D ( x, y, α) 2 f( x, y, α) = (x A" x A ) 2 + (y A" y A ) 2 + (x B" x B ) 2 + (y B" y B ) 2 + (x C" x C ) 2 + (y C" y C ) 2 + (x D" x D ) 2 + (y D" y D ) 2 0
f( x, y, α) = (cosα x A sinα y A + x x A ) 2 + (sinα x A + cosα y A + y y A ) 2 + (cosα x B sinα y B + x x B ) 2 + (sinα x B + cosα y B + y y B ) 2 + (cosα x C sinα y C + x x C ) 2 + (sinα x C + cosα y C + y y C ) 2 + (cosα x D sinα y D + x x D ) 2 + (sinα x D + cosα y D + y y D ) 2 = 0. 0348 Wektor gradientu: f( x, y, α) x f( x, y, α) g = = y f( x, y, α) α ] 2 (x A" x A ) + 2 (x B" x B ) + 2 (x C" x C ) + 2 (x D" x D ) 2 (y A" y A ) + 2 (y B" y B ) + 2 (y C" y C ) + 2 (y D" y D ) 2 (x A" x A ) ( sinα) x = A cosα y A ] + 2 (y A" y A ) cosα x A sinα y A ] + +2 (x B" x B ) ( sinα) x B cosα y B ] + 2 (y B" y B ) cosα x B sinα y B ] + +2 (x C" x C ) ( sinα) x C cosα y C ] + 2 (y C" y C ) cosα x C sinα y C ] + +2 (x D" x D ) ( sinα) x D cosα y D ] + 2 (y D" y D ) cosα x D sinα y D ] ] 0. 3356 = 0. 3444 ] 2. 9607 Macier Hessego (ocywiście symetrycna): 2 f( x, y, α) x 2 2 f( x, y, α) x y 2 f( x, y, α) x α H = 2 f( x, y, α) 2 f( x, y, α) 2 f( x, y, α) y x y 2 y α 2 f( x, y, α) 2 f( x, y, α) 2 f( x, y, α) α x α y α 2 ] 8 0 6. 3364 = 0 8 5. 6564 ] 6. 3364 5. 6564 28. 044 0. 90 0. 0624 0. 039 H = 0. 0624 0. 848 0. 0306] 0. 039 0. 0306 0. 056 Końcowy wektor miennych decyyjnych: 0. 90 0. 0624 0. 039 0. 3356 0. 008 x n+ = x n H g = 0. 0624 0. 848 0. 0306] 0. 3444 ] = 0. 007 ] 0. 039 0. 0306 0. 056 2. 9607 0. 005
Pryjęty wektor odchyłek wstępnych: x 0. 008 x n= = y] = 0. 007 ] - druga iteracja n = 2 α 0. 005 Macier transformacji: cosα sinα 0 0 x cosα sinα cosα x sinα y M = sinα cosα 0] 0 y] = sinα cosα sinα x + cosα y] 0 0 0 0 0 0 cosα sinα x 0. 005 0. 008 sinα cosα y] = 0. 005 0. 007 ] 0 0 0 0 Współrędne punktów dopasowywanych po transformacji (pierwsa iteracja n = 2): x A" cosα sinα x x A cosα x A sinα y A + x y A" ] = sinα cosα y] y A ] = sinα x A + cosα y A + y] 0 0 x A" y A" x B" y B" x C" y C" x D" y D" ] = M ] = M ] = M ] = M x A y A x B y B x C y C x D y D 0. 008 ] = 0. 007 ] 4. 02 ] = 0. 003] 4. 002 ] = 3. 997] 0. 008 ] = 3. 997] Odległości międy punktami dostosowywanymi a punktami baowymi: d ABCD ( x, y, α) = (cos α x A B C D sin α y A B C D + x x A) 2 + (sin α x A B C D + cos α y A B C D + y y A) 2 d A ( x, y, α) = (x A" x A ) 2 + (y A" y A ) 2 = 0. 006 d B ( x, y, α) = (x B" x B ) 2 + (y B" y B ) 2 = 0. 024 d C ( x, y, α) = (x C" x C ) 2 + (y C" y C ) 2 = 0. 0036 d D ( x, y, α) = (x D" x D ) 2 + (y D" y D ) 2 = 0. 0086 Pryjęta funkcja celu: f( x, y, α) = d A ( x, y, α) 2 + d B ( x, y, α) 2 + d C ( x, y, α) 2 + d D ( x, y, α) 2 2
f( x, y, α) = (x A" x A ) 2 + (y A" y A ) 2 + (x B" x B ) 2 + (y B" y B ) 2 + (x C" x C ) 2 + (y C" y C ) 2 + (x D" x D ) 2 + (y D" y D ) 2 f( x, y, α) = (cosα x A sinα y A + x x A ) 2 + (sinα x A + cosα y A + y y A ) 2 + (cosα x B sinα y B + x x B ) 2 + (sinα x B + cosα y B + y y B ) 2 + (cosα x C sinα y C + x x C ) 2 + (sinα x C + cosα y C + y y C ) 2 + (cosα x D sinα y D + x x D ) 2 + (sinα x D + cosα y D + y y D ) 2 = 0. 0004 Wektor gradientu: f( x, y, α) x f( x, y, α) 0. 004 g = = 0. 004] y 0. 000 f( x, y, α) α ] Macier Hessego: 8 0 5. 94 H = 0 8 6. 06 ] 5. 94 6. 06 28. 097 0. 87 0. 062 0. 03 H = 0. 062 0. 88 0. 03] 0. 03 0. 03 0. 06 Końcowy wektor miennych decyyjnych: 0. 007 x n+ = x n H g = 0. 007 ] 0. 005 3
Pryjęty wektor odchyłek wstępnych: x 0. 007 x n= = y] = 0. 007 ] - trecia iteracja n = 3 α 0. 005 Macier transformacji: cosα sinα 0 0 x cosα sinα cosα x sinα y M = sinα cosα 0] 0 y] = sinα cosα sinα x + cosα y] 0 0 0 0 0 0 cosα sinα x 0. 005 0. 007 sinα cosα y] = 0. 005 0. 007 ] 0 0 0 0 Współrędne punktów dopasowywanych po transformacji (pierwsa iteracja n = 3): x A" cosα sinα x x A cosα x A sinα y A + x y A" ] = sinα cosα y] y A ] = sinα x A + cosα y A + y] 0 0 x A" y A" x B" y B" x C" y C" x D" y D" ] = M ] = M ] = M ] = M x A y A x B y B x C y C x D y D 0. 007 ] = 0. 007 ] 4. 03 ] = 0. 003] 4. 003 ] = 3. 997] 0. 007 ] = 3. 997] Odległości międy punktami dostosowywanymi a punktami baowymi: d ABCD ( x, y, α) = (cos α x A B C D sin α y A B C D + x x A) 2 + (sin α x A B C D + cos α y A B C D + y y A) 2 d A ( x, y, α) = (x A" x A ) 2 + (y A" y A ) 2 = 0. 0099 d B ( x, y, α) = (x B" x B ) 2 + (y B" y B ) 2 = 0. 034 d C ( x, y, α) = (x C" x C ) 2 + (y C" y C ) 2 = 0. 0042 d D ( x, y, α) = (x D" x D ) 2 + (y D" y D ) 2 = 0. 0076 Pryjęta funkcja celu: f( x, y, α) = d A ( x, y, α) 2 + d B ( x, y, α) 2 + d C ( x, y, α) 2 + d D ( x, y, α) 2 4
f( x, y, α) = (x A" x A ) 2 + (y A" y A ) 2 + (x B" x B ) 2 + (y B" y B ) 2 + (x C" x C ) 2 + (y C" y C ) 2 + (x D" x D ) 2 + (y D" y D ) 2 f( x, y, α) = (cosα x A sinα y A + x x A ) 2 + (sinα x A + cosα y A + y y A ) 2 + (cosα x B sinα y B + x x B ) 2 + (sinα x B + cosα y B + y y B ) 2 + (cosα x C sinα y C + x x C ) 2 + (sinα x C + cosα y C + y y C ) 2 + (cosα x D sinα y D + x x D ) 2 + (sinα x D + cosα y D + y y D ) 2 = 0. 0004 Wektor gradientu: f( x, y, α) x f( x, y, α) 0. 004 g = = 0. 004] y 0. 06 f( x, y, α) α ] Macier Hessego: 8 0 5. 94 H = 0 8 6. 06 ] 5. 94 6. 06 28. 08 0. 87 0. 062 0. 03 H = 0. 062 0. 88 0. 03] 0. 03 0. 03 0. 06 Końcowy wektor miennych decyyjnych: 0. 007 x n+ = x n H g = 0. 007 ] 0. 005 Widać, iż metoda Newtona pomimo pewnych błędów np. pomyłka w naku + - w drugiej iteracji ora prybliżanie maciery transformacji, jak również nienacna niesymetrycność maciery Hessego, jak to miało miejsce w pierwsej iteracji, dość sybko się poprawia i jest sybko bieżna i daje taki sam wynik końcowego wektora miennych decyyjnych. 5