Elementy wspo łczesnej teorii inwersji Metoda optymalizacyjna (2) W. Debski, 8.01.2015
Liniowy problem odwrotny m est (λ) = m apr + (G T G + λi) 1 G T ( dobs G m apr) +δ d est d o = + λ I ( G T G + λi ) 1 (Gm apr d o ) + G ( G T G + λi ) 1 G T δ debski@igf.edu.pl: W3-1 IGF PAN, 8.01.2015
Metoda algebraiczna - back-projection data d=gm Dobs d=g(m) Dapr Mapr Mtrue model parameter debski@igf.edu.pl: W3-2 IGF PAN, 8.01.2015
Metoda algebraiczna - back-projection W podejściu algebraicznym, ze wzgl edu na liniowość problemu: d = G m możemy w jednym kroku przejść od modelu a priori do modelu prawdziwego m apr = m true : d obs G m true debski@igf.edu.pl: W3-3 IGF PAN, 8.01.2015
Problem nieliniowy - iteracja algebraiczna Dobs d=g(m) Dapr Mapr Mtrue model parameter debski@igf.edu.pl: W3-4 IGF PAN, 8.01.2015
Elementy wspo łczesnej teorii inwersji Metoda optymalizacyjna (2) Iteracyjna metoda algebraiczna - przeszukiwanie przestrzeni R(m) = dobs dth(m) Zagadnienie odwrotne minimalizacja residuo w debski@igf.edu.pl: W3-5 IGF PAN, 8.01.2015
Inwersja - metoda optymalizacyjna Zagadnienie odwrotne szukamy m est takiego, że d obs d th (m est ) = min lub (w praktyce) d obs d th (m est ) D + λ m est m apr M = min debski@igf.edu.pl: W3-6 IGF PAN, 8.01.2015
Inwersja - metoda optymalizacyjna metoda nieliniowa fizyczny sens regularyzacji poszukujemy jednego (optymalnego) rozwiazania zaniedbane wszystkie bł edy i niedokładności jak mierzyć dokładność dopasowania d th d obs? jak rozwiazać problem optymalizacji? czy rozwiazanie jest jednoznaczne? debski@igf.edu.pl: W3-7 IGF PAN, 8.01.2015
Jednoznaczność rozwiazań Rozwiazania problemów odwrotnych sa czesto niejednoznaczne: z powodu ograniczeń algorytmów optymalizacyjnych (obecność lokalnych minimów dla problemów nieliniowych) z powodu jakości i zupełności danych pomiarowych (niemożliwość wyznaczenia pewnych parametrów) wielorakość modeli teoretycznych d th i = G i (m) W takich wypadkach konieczna jest zwykle regularyzacja aby dostać jakiekolwiek sensowne rozwiazanie. Cena tego jest subiektywność wyniku. debski@igf.edu.pl: W3-8 IGF PAN, 8.01.2015
Elementy wspo łczesnej teorii inwersji Metoda optymalizacyjna (2) Jednoznacznos c rozwiaza, n - optymalizacja globalna/lokalna debski@igf.edu.pl: W3-9 IGF PAN, 8.01.2015
Elementy wspo łczesnej teorii inwersji Metoda optymalizacyjna (2) Jednoznacznos c rozwiaza, n - brak danych debski@igf.edu.pl: W3-10 IGF PAN, 8.01.2015
Ocena bł edów W podejściu optymalizacyjnym znajdujemy optymalny model. Ocena dokkładności rozwiazania jest jednak bardzo problematyczna. Ocena błedów w tym podejściu wymaga znacznego, dodatkowego wysiłku i zawsze obarczona jest duża subiektywnościa. Możliwe podejścia: linearyzacja i wyznaczenie macierzy kowariancji symulacje Monte Carlo pominiecie sprawy milczeniem debski@igf.edu.pl: W3-11 IGF PAN, 8.01.2015
Ocena bł edów technika Monte Carlo d obs d th (m est ) D + λ m est m apr M = min d obs d th (m est ) + ɛ obs + ɛ th (m) D + λ m est m apr + ɛ apr M = min ijk = m ( est ɛ obs i, ɛ th j (m est ), ɛ apr ) k m est debski@igf.edu.pl: W3-12 IGF PAN, 8.01.2015
Algorytm optymalizacji - grid search Rmin = Rmax for m_1 = a_{min} : a_{max} for m_2 = b_{min} : b_{max} R = dˆ{obs}\; - \;\dˆ{th}(\m) R = R + \lambda \m - \ma if(r<rmin) Rmin = R m_1ˆ{est}\; = \;m_1 m_2ˆ{est}\; = \;m_2 endif end end debski@igf.edu.pl: W3-13 IGF PAN, 8.01.2015
Algorytm optymalizacji - preconditioned stepest descent 1. m 0 - dowolny, 2. G n : G(m) G n (m m n ) 3. Ŝ 0 (I + C M G T o C 1 D G o) 1 4. γ n = C M G T o C 1 D (G om n d obs ) + (m n m apr ) 5. φ n = Ŝ0γ n 6. b n = Gφ n 7. µ n = γ t n C 1 M φ n φ t n C 1 M φ n+b t n C Db n 8. m n+1 = m n µ n φ n debski@igf.edu.pl: W3-14 IGF PAN, 8.01.2015
Algorytm optymalizacji - Simulated Annealing Roztopiony metal, skały, gazy,ciecze itp: 1m 3 : N 10 21 Jak opisać taki układ??? ( r i, v i ) debski@igf.edu.pl: W3-15 IGF PAN, 8.01.2015
Układy złożone: podejście statystyczne Interesuja nas na ogół makroskopowe wielkości: temperatura, gestość, lepkość, ciśnienie, itp. Wiele różnych mikroskopowych samemej wielkości makroskopowej stanów odpowiada tej Równowaga termodynamiczna: stan makroskopowy nie zmienia sie w czasie jednakże stany mikroskopowe - tak debski@igf.edu.pl: W3-16 IGF PAN, 8.01.2015
Układy złożone: termodynamika równowagowa Rozkład Boltzmana (kanoniczny) p(c) = 1 ( Z exp E(C) ) kt E - energia danego stanu (mikroskopowego) T - temperatura Z(T, M,...) = ( exp E(C) ) kt C rozkład ten opisuje prawdopodobieństwo realizacji stanu makroskopowego przez dany stan mikroskopowy C debski@igf.edu.pl: W3-17 IGF PAN, 8.01.2015
Proces schładzania - schładzanie powolne Proces schładzania - system zdaża do stanu o minimum energii wewnetrznej - ruchy termiczne zostaja zamrożone T - high T - low debski@igf.edu.pl: W3-18 IGF PAN, 8.01.2015
Proces schładzania - szybkie schładzanie T - high T - low debski@igf.edu.pl: W3-19 IGF PAN, 8.01.2015
Proces schładzania - ewolucja rozkładu Boltzmana T=10 T=1 T=0.1 debski@igf.edu.pl: W3-20 IGF PAN, 8.01.2015
Stan podstawowy i stany metatrwałe debski@igf.edu.pl: W3-21 IGF PAN, 8.01.2015
Proces schładzania - ewolucja stanów mikroskopowych Model Space Temperature debski@igf.edu.pl: W3-22 IGF PAN, 8.01.2015
Symulowane schładzanie optymalizacja (Kirkpatrick, 1983) Szukamy absolutnego minimum dodatniej funkcji S(m) > 0 S(m) = σ(m, T ) = e S(m) T debski@igf.edu.pl: W3-23 IGF PAN, 8.01.2015
Symulowane schładzanie optymalizacja Jeśli umiemy wygenerować m α z rozkładu σ(m, T ) p(m α ) = σ(m α, T ) wówczas T 0 = m α m opt S(m opt ) = min debski@igf.edu.pl: W3-24 IGF PAN, 8.01.2015
Algorytmy typu Simulated Annealing (SA) Wybierz To Wygeneruj C z p(c) Zmniejsz T Zakoncz gdy T = Tk debski@igf.edu.pl: W3-25 IGF PAN, 8.01.2015
Symulowane schładzanie realizacja Dwa istotne elementy algorytmu SA 1. efektywne generowanie próbek m α 2. odpowiedni sposób obniżania temperatury T Rozwiazanie problemu efektywnego próbkowania zaproponował Metropolis a nastepnie uogólnił Hasttings. Sposób optymalnego zmniejszania T (gdy używany jest algorytm MH) podał Kirkpatrick: T k = T o ln(k) debski@igf.edu.pl: W3-26 IGF PAN, 8.01.2015
Algorytm Metropolisa-Hastinga wygeneruj próbk e m 0 powtarzaj wygeneruj jednorodna liczbe losowa u U(0, 1) wygeneruj próbke m β = m α + δm jeśli u < P (m α, m β ) = min [ ] ( 1, σ(mβ ) σ(m α ; exp S(mβ ) S(m α ) ) ) T w przeciwnym razie kontynuuj m α+1 m α+1 = m β = m α debski@igf.edu.pl: W3-27 IGF PAN, 8.01.2015
Algorytm ASA (Ingber) Ingber zaproponował zmian e algorytmu generowania próbek m β δm i = r i (T ) ( m max i m min ) i r i (x, T ) : C(x, T ) = N i 1 2( x i + T ) log(1 + 1/T ) T k = T o exp ( ck 1/N) debski@igf.edu.pl: W3-28 IGF PAN, 8.01.2015
Algorytm ASA - ewolucja σ(m) Model Space Temperature debski@igf.edu.pl: W3-29 IGF PAN, 8.01.2015
Generowane próbki T=10 T=1 T=0.1 debski@igf.edu.pl: W3-30 IGF PAN, 8.01.2015
Inwersja klasyczna - co dalej debski@igf.edu.pl: W3-31 IGF PAN, 8.01.2015
Inwersja klasyczna - co dalej debski@igf.edu.pl: W3-32 IGF PAN, 8.01.2015
Elementy wspo łczesnej teorii inwersji Metoda optymalizacyjna (2) Inwersja klasyczna - co dalej debski@igf.edu.pl: W3-33 IGF PAN, 8.01.2015
Elementy wspo łczesnej teorii inwersji Metoda optymalizacyjna (2) Koniec Create: JO-07-01-2015 IGF PAN, 8.01.2015