1.3. Optymalizacja geometrii czasteczki

Podobne dokumenty
KADD Minimalizacja funkcji

WYKŁAD 9 METODY ZMIENNEJ METRYKI

Układy równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona) f(x) = 0, gdzie. dla n=2 np.

KADD Minimalizacja funkcji

ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ

Metody numeryczne I Równania nieliniowe

KADD Metoda najmniejszych kwadratów funkcje nieliniowe

Optymalizacja ciągła

Modelowanie molekularne

Optymalizacja ciągła

Wstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych. P. F. Góra

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH

Wykład Matematyka A, I rok, egzamin ustny w sem. letnim r. ak. 2002/2003. Każdy zdający losuje jedno pytanie teoretyczne i jedno praktyczne.

1 Metody rozwiązywania równań nieliniowych. Postawienie problemu

1 Równania nieliniowe

Definicja pochodnej cząstkowej

Elementy Modelowania Matematycznego

Optymalizacja (minimalizacja) funkcji. Plan wykładu: 1. Sformułowanie problemu, funkcja celu. 2. Metody bezgradientowe

Modelowanie molekularne

Wstęp do metod numerycznych 9a. Układy równań algebraicznych. P. F. Góra

Rozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów.

13. Funkcje wielu zmiennych pochodne, gradient, Jacobian, ekstrema lokalne.

Rozwiązywanie równań nieliniowych

5. Metody stochastyczne (symulowane wyżarzanie, algorytmy genetyczne) -> metody Monte Carlo

Wprowadzenie Metoda bisekcji Metoda regula falsi Metoda siecznych Metoda stycznych RÓWNANIA NIELINIOWE

Optymalizacja ciągła

Matematyka stosowana i metody numeryczne

1 Wartości własne oraz wektory własne macierzy

Metody Numeryczne Optymalizacja. Wojciech Szewczuk

Wartości i wektory własne

Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji

Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych

Modelowanie molekularne

1 Funkcje dwóch zmiennych podstawowe pojęcia

Optymalizacja ciągła

1 Pochodne wyższych rzędów

METODY NUMERYCZNE. Wykład 4. Numeryczne rozwiązywanie równań nieliniowych z jedną niewiadomą. prof. dr hab.inż. Katarzyna Zakrzewska

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

W naukach technicznych większość rozpatrywanych wielkości możemy zapisać w jednej z trzech postaci: skalara, wektora oraz tensora.

METODY ROZWIĄZYWANIA RÓWNAŃ NIELINIOWYCH

Metody numeryczne II

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

Metoda gradientu prostego

Z52: Algebra liniowa Zagadnienie: Zastosowania algebry liniowej Zadanie: Operatory różniczkowania, zagadnienie brzegowe.

Zaawansowane metody numeryczne

Metody numeryczne Wykład 7

III. Układy liniowe równań różniczkowych. 1. Pojęcie stabilności rozwiązań.

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

Wstęp do metod numerycznych 12. Minimalizacja: funkcje wielu zmiennych. P. F. Góra

Wstęp do metod numerycznych 9. Minimalizacja: funkcje jednej zmiennej. P. F. Góra

Metody numeryczne. materiały do wykładu dla studentów

WYKŁADY Z MATEMATYKI DLA STUDENTÓW UCZELNI EKONOMICZNYCH

Matematyka dla studentów ekonomii : wykłady z ćwiczeniami/ Ryszard Antoniewicz, Andrzej Misztal. Wyd. 4 popr., 6 dodr. Warszawa, 2012.

Metody Obliczeniowe w Nauce i Technice

II. FUNKCJE WIELU ZMIENNYCH

RÓWNANIA NIELINIOWE Maciej Patan

Metody Rozmyte i Algorytmy Ewolucyjne

Iteracyjne rozwiązywanie równań

Wstęp do metod numerycznych Rozwiazywanie równań algebraicznych. P. F. Góra

IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych,

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 4. Równania różniczkowe zwyczajne podstawy teoretyczne

Wybrane metody przybliżonego. wyznaczania rozwiązań (pierwiastków) równań nieliniowych

Programowanie nieliniowe. Badania operacyjne Wykład 3 Metoda Lagrange a

jeśli nie jest spełnione kryterium zatrzymania, to nowym punktem roboczym x(t+1) staje i następuje przejście do 1)

Rozdział 2. Krzywe stożkowe. 2.1 Elipsa. Krzywe stożkowe są zadane ogólnym równaniem kwadratowym na płaszczyźnie

METODY NUMERYCZNE. Wykład 4. Numeryczne rozwiązywanie równań nieliniowych z jedną niewiadomą. Rozwiązywanie równań nieliniowych z jedną niewiadomą

2.1. Postać algebraiczna liczb zespolonych Postać trygonometryczna liczb zespolonych... 26

Materiały wykładowe (fragmenty)

Komputerowa Analiza Danych Doświadczalnych

WYKŁAD NR 3 OPIS DRGAŃ NORMALNYCH UJĘCIE KLASYCZNE I KWANTOWE.

Politechnika Wrocławska, Wydział Informatyki i Zarządzania. Optymalizacja

Metody numeryczne. Równania nieliniowe. Janusz Szwabiński.

Rozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów.

VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa.

Układy równań liniowych. Krzysztof Patan

Całkowanie numeryczne przy użyciu kwadratur

5. Metody Newtona. 5.1 Wzór Taylora

2. Optymalizacja bez ograniczeń

D. Miszczyńska, M.Miszczyński KBO UŁ 1 GRY KONFLIKTOWE GRY 2-OSOBOWE O SUMIE WYPŁAT ZERO

Matematyka II. Bezpieczeństwo jądrowe i ochrona radiologiczna Semestr letni 2018/2019 wykład 13 (27 maja)

DRGANIA SWOBODNE UKŁADU O DWÓCH STOPNIACH SWOBODY. Rys Model układu

POD- I NADOKREŚLONE UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

INTERPOLACJA I APROKSYMACJA FUNKCJI

PODSTAWY AUTOMATYKI. MATLAB - komputerowe środowisko obliczeń naukowoinżynierskich - podstawowe operacje na liczbach i macierzach.

Metody numeryczne Wykład 4

Przegląd metod optymalizacji wielowymiarowej. Funkcja testowa. Funkcja testowa. Notes. Notes. Notes. Notes. Tomasz M. Gwizdałła

Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych

3. Interpolacja. Interpolacja w sensie Lagrange'a (3.1) Dana jest funkcja y= f x określona i ciągła w przedziale [a ;b], która

Elementy Modelowania Matematycznego Wykład 7 Programowanie nieliniowe i całkowitoliczbowe

SPIS TREŚCI PRZEDMOWA... 13

Wstęp do metod numerycznych 11. Minimalizacja: funkcje jednej zmiennej. P. F. Góra

Ćwiczenie 4: Modelowanie reakcji chemicznych. Stan przejściowy.

Aproksymacja. funkcji: ,a 2. ,...,a m. - są funkcjami bazowymi m+1 wymiarowej podprzestrzeni liniowej X m+1

OPTYMALIZACJA KONSTRUKCJI

Otrzymaliśmy w ten sposób ograniczenie na wartości parametru m.

Algebra liniowa. Macierze i układy równań liniowych

Stabilność II Metody Lapunowa badania stabilności

Rozszerzony konspekt preskryptu do przedmiotu Podstawy Robotyki

Obliczenia iteracyjne

Transkrypt:

0 1 Część teoretyczna 13 Optymalizacja geometrii czasteczki Poszukiwanie punktów stacjonarnych (krytycznych) funkcji stanowi niezwykle istotny problem w obliczeniowej chemii kwantowej Sprowadza się on do dwóch istotnych zagadnień: poszukiwania przybliżonych (wariacyjnych) rozwiązań równania Schrödingera dla układów wieloelektronowych oraz lokalizacji i klasyfikacji punktów stacjonarnych (minimów i punktów siodłowych niższych rzędów, vide infra) na hiperpowierzchni energii potencjalnej W przypadku lokalizacji i klasyfikacji punktów stacjonarnych na hiperpowierzchni energii potencjalnej optymalizacji poddaje się energię elektronową czasteczki W przybliżeniu BornaOppenheimera każdy stan elektronowy cząsteczki posiada własną powierzchnię energii potencjalnej PES (ang Potential Energy Surface), zdefiniowaną w wymiarowej przestrzeni, gdzie jest liczbą stopni swobody danej molekuły (vide infra) W znaczeniu takim powierzchnia energii potencjalnej czasteczki jest matematyczną zależnością między jej energią a parametrami geometrycznymi Problem optymalizacji geometrii czasteczki sprowadza się do wyznaczenia struktury równowagowej, czyli takich współrzędnych jądrowych, dla których na hiperpowierzchni energii potencjalnej występuje minimum lokalne Stany przejściowe reakcji chemicznych odpowiadają punktom siodłowym na PES Dla reakcji chemicznych możliwa jest także optymalizacja struktury układu reakcyjnego przy zadanej wartości tzw współrzędnej reakcji, która mierzy postęp wzdłuż drogi energii minimalnej Lokalizacja i klasyfikacja punktów stacjonarnych na powierzchni energii potencjalnej zostanie szerzej omówiona w niniejszym rozdziale 131 Diagnostyka punktów stacjonarnych Energia potencjalna czasteczki atomowej, uwzględniająca wzajemne odpychanie jąder atomowych, zależy od tzw współrzędnych wewnętrznych, gdzie jest liczbą stopni swobody czasteczki 14 Jako współrzędne wewnętrzne wybiera się na ogół długości wiązań, kąty walencyjne i torsyjne [1] Punkty stacjonarne na hiperpowierzchni energii wyznacza się z warunku koniecznego istnienia ekstremum, tj 14 W przypadku cząsteczki liniowej 01436587! #"$ dla %&(')+, (137)

13 Optymalizacja geometrii cząsteczki 1! Elementy tworzą wektor zwany gradientem $, ) 15 Dla zadanej geometrii, gradient wyznacza ujemne siły działające na jądra atomowe Siły te wskazują kierunek relaksacji struktury cząsteczki do położenia równowagowego (dla geometrii równowagowej siły te zanikają) Zależność (137) pozwala jedynie na wyznaczenie ekstremum lokalnego w punkcie, czyli lokalizację punktów stacjonarnych na powierzchni energii potencjalnej Natomiast podstawą dalszej ich diagnostyki jest wyznaczenie tensora drugich pochodnych czastkowych energii elektronowej względem współrzędnych jądrowych hessianu, tj Hessian (138), podobnie jak gradient, ma istotny sens fizyczny określa bowiem stałe siłowe dla wychyleń jąder w otoczeniu danej geometrii układu Na podstawie znaków minorów wyznacznika "$# % obliczonego dla geometrii równowagowej '& wyznaczonej z warunku (137) dokonuje się klasyfikacji punktów stacjonarnych na powierzchni energii elektronowej Stosowne informacje na ten temat można znale źć w typowych podręcznikach analizy matematycznej (patrz np [0, 1]) Hessian stanowi symetryczną macierz wymiaru )( o elementów macierzy się do rozwiązania zagadnienia własnego, tj elementach Liczba niezerowych może ulec redukcji przez diagonalizację hessianu, która sprowadza +, (13) gdzie jest macierza ortogonalną, tj ', 10 (0 oznacza tu macierz jednostkową) natomiast 43 5 7683 Dzięki tej transformacji otrzymuje się macierz diagonalną Diagonalizacja tensora kwadratowych stałych siłowych za pomocą transformacji ortogonalnej jest możliwa z uwagi na symetryczność macierzy Odpowiada ona pewnemu obrotowi układu współrzędnych [1, ] Na przykład w układzie &: dla powierzchni dwuwymiarowej, gdzie, która może być lokalnie przybliżona przez elipsoidalne zagłębienie (w przypadku minimum) diagonalizacja polega na takim doborze układu współrzędnych, aby osie elipsy pokrywały się z osiami układu primowanego W ogólności współrzędne punktu w układzie primowanym powiązane są ze współrzędnymi punktu w układzie &: 15 Od tej pory przyjmuje się, że współrzędne wektora tworzą wektor wierszowy

1 Część teoretyczna 3 3 zależnością czyli Ortogonalna macierz dana jest jako 3 1 3 (140) (141) (14) gdzie oznacza kąt obrotu (patrz Rys 1) Z prostego rachunku natomiast wynika, że x x x x x x1 x1 Rys 1 Obrót układu współrzędnych o kąt x 1 x 1 3 3 3 43 3 (143) czyli (144) i : Macierz drugich pochodnych gdzie odpowiednio i są gradientami w układach w układzie primowanym natomiast, po zróżniczkowaniu równania (143), dana jest jako 83 3 (145) czyli (146) Korzystając z własności macierzy ortogonalnej zależność (146) przekształca się do równania (13), będącego zagadnieniem własnym hessianu Jak więc widać, można wybrać taki

13 Optymalizacja geometrii cząsteczki 3 układ współrzędnych, w którym hessian będzie macierza diagonalną Powyższe rozważanie można z łatwością uogólnić na przestrzeń wymiarową Odpowiadające wektorom własnym (kolumny macierzy ) wartości własne mogą być wykorzystane do badania lokalnej topologii powierzchni energii potencjalnej klasyfikacji punktów stacjonarnych Dla minimum lokalnego, określającego geometrię równowagową czasteczki i odpowiadającego stabilnym konformerom molekuły, wszystkie wartości własne położone na diagonali macierzy są dodatnie Punkt siodłowy tego rzędu charakteryzuje obecność wszystkich dodatnich wartości własnych z wyjątkiem wartości ujemnych Punkty siodłowe pierwszego rzędu ( =1) wyznaczają kompleksy przejściowe reakcji chemicznych Występowanie wyłącznie ujemnych wartości własnych wskazuje na istnienie maksimum lokalnego Maksima lokalne podobnie jak punkty siodłowe wyższych rzędów nie korespondują z żadną określoną strukturą cząsteczki [] 13 Strategie optymalizacji Najczęstszym problemem występującym przy procedurze minimalizacji jest odnalezienie globalnego minimum energii Na powierzchni energii potencjalnej może wystąpić szereg minimów lokalnych, gdzie zerują się pierwsze pochodne, lecz nie jest tam osiągana najmniejsza jej wartość Algorytmy minimalizacji często odnajdują strukturę cząsteczki odpowiadającą minimum lokalnemu Szukając minimum globalnego należy rozpocząć obliczenia z różnych geometrii początkowych, czyli z odpowiadającym im różnych punktów na powierzchni energii potencjalnej Ciągle nie ma jednak pewności, że odnalezionej w ten sposób geometrii odpowiada minimum globalne Zadaniem algorytmów optymalizacyjnych jest określenie kierunku i odległości do minimum od punktu początkowego Najprostsze algorytmy na przykład poszukiwanie liniowe (ang line search) lokalizują minimum poprzez odnalezienie jedynie kierunku, w którym należy się przesuwać od punktu dowolnego wektora z obowiązuje musi istnieć dla " " takie, że, aby malały pochodne funkcji Ponieważ dla 5 Kierunek spadku pochodnej funkcji jest więc wyznaczony przez wektor Istnieje wiele strategii minimalizacji, do najważniejszych należa: metoda największego spadku, metoda sprzężonych gradientów oraz metoda NewtonaRaphsona "$

4 1 Część teoretyczna Metoda największego spadku (ang steepest descent) wykorzystuje w każdym kroku iteracyjnym algorytm poszukiwania liniowego Za kierunek największego spadku funkcji przyjmuje się gradient funkcji w danym punkcie wzięty ze znakiem przeciwnym Następnie w wyniku minimalizacji względem w kierunku tym odszukiwany jest punkt o najniższej wartości funkcji Procedura powtarza się aż do odnalezienia minimum Metoda sprzężonych gradientów (ang conjugate gradient) zwana jest także metodą zmiennej metryki Algorytm ten wykorzystuje pierwsze pochodne (gradient) do wyznaczenia optymalnego kierunku dla liniowego poszukiwania minimum generowanego z punktu startowego zgodnie z rekurencyjną formułą gdzie (147) jest czynnikiem skalującym, macierza symetryczną, której postać zależy od przyjętej metryki, a startowy jest daleki od minimum jest gradientem funkcji [1] Algorytm ten może być niestabilny, jeżeli punkt Natomiast Metoda NewtonaRaphsona oprócz informacji, które niesie obliczanie gradientu, wykorzystuje macierz drugich pochodnych energii hessian Z uwagi na większą efektywność, stabilność i szybkość zbieżności w porównaniu z metodami największego spadku i sprzężonych gradientów, (co można uzyskać kontrolując długość kroku przy użyciu procedur RFO (ang Rational Function Optimization) oraz TRM (angtrust Radius Model)) algorytm ten zostanie omówiony szerzej 133 Metoda NewtonaRaphsona Dla przypadku jednowymiarowego ekspansja funkcji, aproksymującej krzywą energii potencjalnej, w szereg Taylora wokół punktu gdzie,, dana jest jako ' Przybliżanie funkcji (148) funkcją liniową uwzględniającą jedynie dwa pierwsze człony rozwinięcia charakteryzuje tzw model liniowy Nieograniczoność tego modelu wynika z braku punktów stacjonarnych dla funkcji postaci nie zawierającej żadnych informacji o krzywi źnie funkcji aproksymowanej to model liniowy w procedurach lokalizacji punktów krytycznych, Dyskwalifikuje Biorąc pod uwagę trzy człony szeregu Taylora uzyskuje się funkcję postaci trójmianu kwadratowego Model kwadratowy (paraboliczny) stanowi dobre przybliżenie powierzchni energii

' 13 Optymalizacja geometrii cząsteczki 5 potencjalnej w sąsiedztwie punktu, w szczególności wokół jej punktów stacjonarnych Z warunku koniecznego istnienia ekstremum, tj ", wynika, że (14) Równanie (14) stanowi podstawę metody NewtonaRaphsona dla jednego wymiaru, a wartość nosi nazwę iteracyjnego kroku Newtona Procedura iteracyjna znajdowania punktów stacjonarnych opiera się więc na obliczeniu ze stosunku wartości pierwszej i drugiej pochodnej dla startowego punktu kroku Nowa współrzędna wyznaczana jest z zależności (150) Przedstawioną wyżej procedurę numeryczną ilustruje rysunek 13 Pogrubioną linią ciągłą oznaczono krzywą energii potencjalnej cząsteczki HCl (dla kilku długości wiązania obliczono wartości energii na poziomie teorii DFTB3LYP6311G(d,p) a następnie dopasowano do nich funkcję Morse a) Za punkt startowy w procedurze iteracyjnej przyjęto Następnie obliczono wartość energii oraz wartości pierwszej i drugiej pochodnej, na podstawie czego wyznaczono równanie paraboli (zaznaczonej linią kropkowaną) Jej minimum w Å) stanowi lepsze przybliżenie punktu stacjonarnego ') Å (odpowiadające "+ ' funkcji Morse a Jest to jednocześnie punkt startowy do następnej iteracji, w której buduje się nową parabolę (linia przerywana) Kryteria zatrzymania procedury iteracyjnej zostaną omówione w dalszej części tego rozdziału Podobnie dla funkcji wielu zmiennych, gdzie =, rozwinięcie w szereg Taylora drugiego rzędu prowadzi do przybliżenia parabolicznego, tj gdzie $ (151) ma postać,, 883 & $ ' ') Å 43 $ 3 43 (151) W zapisie macierzowym równanie (15) Analogicznie jak w przypadku jednego wymiaru dla punktu stacjonarnego spełniony jest warunek " dla % ',+4 Różniczkując równanie (15) i korzystając z zależności 643 otrzymuje się ( (153) Równanie (153) jest wielowymiarowym uogólnieniem równania (14) (patrz np [3, 4]) Podobnie także wyznaczane są punkty startowe kolejnych iteracji, tzn (154)

6 1 Część teoretyczna $ 08 Energia potencjalna [+460 jat] 081 08 083 Funkcja Morse a, r min =130 A Pierwsza iteracja, r 1 =15 A Druga iteracja, r =1345 A 084 1 11 1 13 14 15 16 17 r H Cl [Å] Rys 13 Graficzna ilustracja zbie żnósci metodą NewtonaRaphsona Procedura iteracyjna zostaje zatrzymana, kiedy dla ustalonych wartości progowych zostaną spełnione podstawowe kryteria zbieżności Są to: 1 kryterium zmian wartości funkcji Zmiana wartości funkcji między kolejnymi iteracjami musi być mniejsza od wartości progowej kryterium gradientowe (najważniejsze) Norma 16 gradientu musi być mniejsza od wartości progowej 3 kryterium długości kroku Norma kroku musi być mniejsza od wartości progowej 4 kryterium zbieżności drugiego rzędu Wielkość, określająca udział członów rzędu drugiego w równaniu (15), musi być mniejsza od wartości progowej Kryteria wartości funkcji i gradientowe związane są z testem stacjonarności i wynikają z warunku koniecznego istnienia ekstremum Często nie są one jednak wystarczające W przypadku bowiem wystąpienia płaskiego minimum zarówno zmiany wartości funkcji jak i gradient mogą przyjmować niewielkie wartości, mimo, że punkt stacjonarny nie został osiągnięty Z pomocą przychodzi test długości kroku niewielkie wartości hessianu w opisanej tu sytuacji 16 $&% Normą wektora nazywamy jego długość, tj 4!" #

13 Optymalizacja geometrii cząsteczki 7 powodują, że krok jest znaczny, więc procedura iteracyjna nie powinna być zatrzymana Kryterium drugiego rzędu jest rzadziej stosowane W praktyce procedurę iteracyjną można zatrzymać wówczas, gdy spełnione są przynajmniej dwa z wymienionych kryteriów W przypadku cząsteczek za racjonalne wartości progowe przyjmuje się ) ' " ( ' " jat i '" jat, jat Ciąg punktów generowanych przez algorytm Newtona Raphsona jest zbieżny z szybkością drugiego rzędu do minimum, o ile w każdym kroku hessian jest ściśle dodatnio określony i spełnia lokalnie warunek Lipschitza (funkcja aproksymująca nie może zbyt szybko rosnąć w stosunku do argumentów)