Współczesna technika inwersyjna - dokad zmierzamy? Wojciech Dȩbski 24.5.2
Pomiar bezpośredni IGF, 24.5.2 IGF -
Pomiar pośredni IGF, 24.5.2 IGF - 2
Interpretacja matematyczna m m + dm m d + dd d = G(m) m + (dm) IGF, 24.5.2 IGF - 3
Algorytmy inwersyjne Metoda Zalety Ograniczenia Algebraiczna - Prostota - Tylko problemy liniowe m ml = (G T G + γi) G T d - Duże zadania - Wrażliwa na bł edy Optymalizacyjna - Prostota - Brak oszacowania dokładności G m ml d = min - Nieliniowa Probabilistyczna - Nieliniowa - Złożona teoria σ(m) = f(m)l(m; d) - Pełna analiza bł edów - wymagane efektywne próbkowanie IGF, 24.5.2 IGF - 4
Algebra i macierze d = G m d i = j G ij m j m ml = (G T G + C G C M ) G T d C ap = ( G T C G G + ) C M IGF, 24.5.2 IGF - 5
Klasyczna technika optymalizacyjna Przeszukiwanie przestrzeni modeli w celu znalezienia optymalnego modelu m: G m ml d = min Normy: l 2 : r = N l : r = N i i r 2 i r i IGF, 24.5.2 IGF - 6
Inwersja probabilistyczna - idea Observations Theory A posteriori knowladge A priori IGF, 24.5.2 IGF - 7
Inwersja probabilistyczna - rozkład a posteriori Rozkład prawdopodobieństwa a posteriori σ(m) = f(m)l(m) Funkcja Likelihood L(m) = exp ( d G(m) ) IGF, 24.5.2 IGF - 8
probability probability Inwersja probabilistyczna - przykłady D M M D probability MxD probability MxD D M M D MxD MxD IGF, 24.5.2 IGF - 9
Inwersja probabilistyczna - próbkowanie Technika Markov Chain Monte Carlo (MCMC) t t probability X IGF, 24.5.2 IGF -
Inwersja probabilistyczna - próbkowanie H(m)σ(m)dm N H(m α ) M α Np.macierz kowariancji a posteriori H(m) = (m m avr ) 2 IGF, 24.5.2 IGF -
Kilka konkurencyjnych teorii Dotychczas rozważane zagadnienia odwrotne mialy jedna wspólna ceche. Zawsze rozważaliśmy tylko jeden model teoretyczny (teorie) G(m). Rodza sie oczywiste pytania: jak postepować gdy mamy kilka konkurencyjnych modeli jak je porównać w oparciu o dostepne informacje, i jak ocenić ich skuteczność (dokładność), itp. IGF, 24.5.2 IGF - 2
Occam s rasor Klasyczne rozwiazanie polega na przyjeciu heurystycznej zasady, wedłóg której majac do czynienia z dwoma podobnymi modelami preferowany jest model prostszy. Ten paradygmat filozoficzny został sformułowany w XIV w. przez filozofa i teologa Williama Ockhama jako zasada entia non sunt multiplicanda praeter necessitatem IGF, 24.5.2 IGF - 3
Occam s rasor a inwersja Czy jednakże zasada ta jest akceptowalna z punktu widzenia teorii inwersji, a wiec gdy porównania modeli dokonujemy w oparciu o skończony ustalony zasób informacji? Model bardziej skomplikowany z wieksz a ilościa parametrów na ogół bedzie dawał lepsze dopasowanie do danych obserwacyjnych - bedzie lepszy. Równoczesnie jednak wieksza liczba parametrów złożonego modelu bedzie gorzej wyznaczana z posiadanych danych pomiarowych. IGF, 24.5.2 IGF - 4
Podejście klasyczne G(m) G α (α, m) G (m) = α m Np. G 2 (m) = α m + α 2 m 2 G 3 (m) = α sin(m) + sin(m) α 2 m 2 +J α3 (m) IGF, 24.5.2 IGF - 5
Podejście klasyczne Dwa kroki: Nast epnie: R(m α) = G α (m) d obs m ml : r(α) = R(m ml α) = min α opt : r(α) = min Czyli Wybieramy model (teori e) która najlepiej odtwarza pomiary IGF, 24.5.2 IGF - 6
Optymalny model. Metoda prób i bł edów 2. Systematyczne przeszukiwanie 3. Optymalizacja (np. stochastyczna) 4. Symulacja Monte Carlo Tylko na ogół przestrzeń modeli G α (m) jest nieskończenie wielowymiarowa! IGF, 24.5.2 IGF - 7
Podejście Bayesowski - evidence σ(m) = f(m) exp ( d G(m) ) Warunek normalizacji Z[G, d obs ] = σ(m)dm σ(m) = Z[G] f(m) exp ( d obs G(m) ) M Szukamy modelu maksymalizujacego Z[G] IGF, 24.5.2 IGF - 8
Transdimensional MCMC Dwie drogi:. użycie techniki MCMC do wyznaczenia Z[G] dla każdego modelu G 2. symultaniczne próbkowanie przestrzeni M G np. algorytmem Reversible Jump Markov Chain Monte Carlo IGF, 24.5.2 IGF - 9
Podsumowanie - perspektywy Przyszłość, a w rzeczywistści już teraźniejszość prac rozwojowych w zakresie teorii inwersji w zagadnieniach geofizycznych: wybór i ocena konkurencyjnych modeli ocena ilości informacji pomiarowych pod katem możliwości weryfikacji różnych modeli i wyznaczenia ich parametrów (pomiary pośrednie) IGF, 24.5.2 IGF - 2
Podsumowanie - pragmatyzm jeśli można należy używać techniki probabilistycznej jeśli nie można to tylko technik optymaliacji stochastycznej o metodach optymalizacji gradientowej najlepiej zapomnieć IGF, 24.5.2 IGF - 2
Podsumowanie - zach eta obecnie selekcja modeli ciagle musi być robiona metoda prób i błedów, ale już wkrótce pewnie nie. Warto sie do tego przygotować. nowe techniki próbkowania MC (RJMCMC) sa bardzo obiecujace dla niestandardowych zastosowań teorii inwersji błedy, błedy, błedy... IGF, 24.5.2 IGF - 22
KONIEC Prepared: 7 maja 2 IGF - 23