Ekonometria Bayesowska

Podobne dokumenty
Ekonometria bayesowska: szybki start

Wst p do ekonometrii II

Ekonometria Bayesowska

Ekonometria Bayesowska

Ekonometria Bayesowska

Ekonometria Bayesowska

Ekonometria Bayesowska

Biostatystyka, # 5 /Weterynaria I/

CAŠKOWANIE METODAMI MONTE CARLO Janusz Adamowski

5. (8 punktów) EGZAMIN MAGISTERSKI, r Matematyka w ekonomii i ubezpieczeniach

In»ynierskie zastosowania statystyki wiczenia

EGZAMIN MAGISTERSKI, r Matematyka w ekonomii i ubezpieczeniach

1 Bª dy i arytmetyka zmiennopozycyjna

Modele wielorównaniowe. Estymacja parametrów

Modele liniowe i mieszane na przykªadzie analizy danych biologicznych - Wykªad 6

Ekonometria. wiczenia 2 Werykacja modelu liniowego. Andrzej Torój. Instytut Ekonometrii Zakªad Ekonometrii Stosowanej

Ekonometria - wykªad 8

1 Metody iteracyjne rozwi zywania równania f(x)=0

Metody probablistyczne i statystyka stosowana

Ekonometria. wiczenia 1 Regresja liniowa i MNK. Andrzej Torój. Instytut Ekonometrii Zakªad Ekonometrii Stosowanej

Elementy Modelowania Matematycznego Wykªad 1 Prawdopodobie«stwo

Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa

Wielowymiarowy próbnik Gibbsa

Rozwini cia asymptotyczne dla mocy testów przybli»onych

REGRESJA LINIOWA Z UOGÓLNIONĄ MACIERZĄ KOWARIANCJI SKŁADNIKA LOSOWEGO. Aleksander Nosarzewski Ekonometria bayesowska, prowadzący: dr Andrzej Torój

EGZAMIN MAGISTERSKI, r Matematyka w ekonomii i ubezpieczeniach. a) (6 pkt.) oblicz intensywno± pªaconych skªadek;

Elementarna statystyka Dwie próby: porównanie dwóch proporcji (Two-sample problem: comparing two proportions)

Ekonometria. wiczenia 8 Modele zmiennej jako±ciowej. Andrzej Torój. Instytut Ekonometrii Zakªad Ekonometrii Stosowanej

Algorytmy MCMC i ich zastosowania statystyczne

Numeryczne zadanie wªasne

Janusz Adamowski METODY OBLICZENIOWE FIZYKI Zastosowanie eliptycznych równa«ró»niczkowych

Matematyka z elementami statystyki

ANALIZA NUMERYCZNA. Grzegorz Szkibiel. Wiosna 2014/15

Statystyka matematyczna - ZSTA LMO

Algorytm Metropolisa-Hastingsa

Wst p do ekonometrii II

Podstawy statystycznego modelowania danych - Wykªad 7

3. (8 punktów) EGZAMIN MAGISTERSKI, Biomatematyka

5 Błąd średniokwadratowy i obciążenie

Statystyka matematyczna - ZSTA LMO

Dynamiczne wªasno±ci algorytmu propagacji przekona«

MODELE LINIOWE i MIESZANE

Ekonometria Bayesowska

E. Sadowska-Owczorz Statystyka i probabilistyka - zadania kwiecie«2018

Maszyny Turinga i problemy nierozstrzygalne. Maszyny Turinga i problemy nierozstrzygalne

Lekcja 9 - LICZBY LOSOWE, ZMIENNE

Prawdopodobieństwo i statystyka r.

Biostatystyka, # 4 /Weterynaria I/

Modele wielorównaniowe. Problem identykacji

Metodydowodzenia twierdzeń

Wykªad 6: Model logitowy

Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova

Monte Carlo Optimization

Pakiety statystyczne - Wykªad 8

Zadania z rachunku prawdopodobie«stwa

Modele liniowe i mieszane na przykªadzie analizy danych biologicznych - Wykªad 1

Ekonometria Przestrzenna

Ekonometria. wiczenia 5 i 6 Modelowanie szeregów czasowych. Andrzej Torój. Instytut Ekonometrii Zakªad Ekonometrii Stosowanej

Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX = 4 i EY = 6. Rozważamy zmienną losową Z =.

Ekonometria Bayesowska

Granular Computing 9999 pages 15 METODY SZTUCZNEJ INTELIGENCJI - PROJEKTY

Rozkªady i warto± oczekiwana

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania

Lab. 02: Algorytm Schrage

Ekonometria. wiczenia 4 Prognozowanie. Andrzej Torój. Instytut Ekonometrii Zakªad Ekonometrii Stosowanej

Stacjonarne szeregi czasowe

JAO - J zyki, Automaty i Obliczenia - Wykªad 1. JAO - J zyki, Automaty i Obliczenia - Wykªad 1

Liniowe zadania najmniejszych kwadratów

Rozdziaª 4. Jednowymiarowe modele szeregów czasowych

PROBABILISTYKA I STATYSTYKA - Zadania do oddania

Ekonometria Bayesowska

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

POLITECHNIKA WROCŠAWSKA WYDZIAŠ ELEKTRONIKI PRACA DYPLOMOWA MAGISTERSKA

Granular Computing 9999 pages 15 METODY SZTUCZNEJ INTELIGENCJI - PROJEKTY

Rozdziaª 7. Modele klasy ARCH

Metody dowodzenia twierdze«

Algorytmy zrandomizowane

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

STATYSTYKA MATEMATYCZNA WYKŁAD stycznia 2010

Ekonometria Przestrzenna

Interpolacja funkcjami sklejanymi

Elementarna statystyka Test Istotno±ci (Tests of Signicance)

Ekstremalnie maªe zbiory

1 Granice funkcji wielu zmiennych.

1. Symulacje komputerowe Idea symulacji Przykład. 2. Metody próbkowania Jackknife Bootstrap. 3. Łańcuchy Markova. 4. Próbkowanie Gibbsa

Ekonometria Przestrzenna

Zad. 1 Zad. 2 Zad. 3 Zad. 4 Zad. 5 SUMA. W obu podpunktach zakªadamy,»e kolejno± ta«ców jest wa»na.

1 0 Je»eli wybierzemy baz A = ((1, 1), (2, 1)) to M(f) A A =. 0 2 Daje to znacznie lepszy opis endomorzmu f.

Strategie zabezpieczaj ce

Twierdzenie Wainera. Marek Czarnecki. Warszawa, 3 lipca Wydziaª Filozoi i Socjologii Uniwersytet Warszawski

Edyta Juszczyk. Akademia im. Jana Dªugosza w Cz stochowie. Lekcja 1Wst p

Statystyka matematyczna

Matematyka wykªad 1. Macierze (1) Andrzej Torój. 17 wrze±nia Wy»sza Szkoªa Zarz dzania i Prawa im. H. Chodkowskiej

STATYSTYCZNE MODELOWANIE DANYCH BIOLOGICZNYCH

1 Lista 6 1. LISTA Obliczy JSN renty z doªu dla (30)-latka na 3 lata w wysoko±ci Obliczenia zrobi dla TT -PL97m oraz i = 4%.

Ekonometria. wiczenia 3 Autokorelacja, heteroskedastyczno±, wspóªliniowo± Andrzej Torój. Instytut Ekonometrii Zakªad Ekonometrii Stosowanej

Funkcje wielu zmiennych

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

x y x y x y x + y x y

Statystyka w przykładach

Transkrypt:

Ekonometria Bayesowska Wykªad 9: Metody numeryczne: MCMC Andrzej Torój 1 / 17

Plan wykªadu Wprowadzenie 1 Wprowadzenie 3 / 17

Plan prezentacji Wprowadzenie 1 Wprowadzenie 3 3 / 17

Zastosowanie metod numerycznych w ekonometrii bayesowskiej Poza dwoma wyj tkami wycena BMW i wybory prezydenckie w USA), dotychczas w peªni analitycznie podchodzili±my do nast puj cych problemów: wyznaczenie funkcji g sto±ci a posteriori : f θ X ) f X θ) f θ); wyznaczanie brzegowych g sto±ci a posteriori: f θ 1 X, θ ), czyli caªki g sto±ci a posteriori ze wzgl du na cz ± parametrów; wyznaczenia wiarygodno±ci brzegowej modelu, czyli caªki licznika g sto±ci a posteriori ze wzgl du na wszystkie parametry; wyznaczenia rozkªadu predykcyjnego, czyli caªki wzgl dem wszystkich parametrów) warunkowej g sto±ci nieznanej obserwacji pomno»onej przez g sto± a posteriori. Poza nielicznymi przypadkami nie umiemy losowa z g sto±ci a posteriori ani analitycznie jej caªkowa. 4 / 17

Zastosowanie metod numerycznych w ekonometrii bayesowskiej Poza dwoma wyj tkami wycena BMW i wybory prezydenckie w USA), dotychczas w peªni analitycznie podchodzili±my do nast puj cych problemów: wyznaczenie funkcji g sto±ci a posteriori : f θ X ) f X θ) f θ); wyznaczanie brzegowych g sto±ci a posteriori: f θ 1 X, θ ), czyli caªki g sto±ci a posteriori ze wzgl du na cz ± parametrów; wyznaczenia wiarygodno±ci brzegowej modelu, czyli caªki licznika g sto±ci a posteriori ze wzgl du na wszystkie parametry; wyznaczenia rozkªadu predykcyjnego, czyli caªki wzgl dem wszystkich parametrów) warunkowej g sto±ci nieznanej obserwacji pomno»onej przez g sto± a posteriori. Poza nielicznymi przypadkami nie umiemy losowa z g sto±ci a posteriori ani analitycznie jej caªkowa. 4 / 17

Zastosowanie metod numerycznych w ekonometrii bayesowskiej Poza dwoma wyj tkami wycena BMW i wybory prezydenckie w USA), dotychczas w peªni analitycznie podchodzili±my do nast puj cych problemów: wyznaczenie funkcji g sto±ci a posteriori : f θ X ) f X θ) f θ); wyznaczanie brzegowych g sto±ci a posteriori: f θ 1 X, θ ), czyli caªki g sto±ci a posteriori ze wzgl du na cz ± parametrów; wyznaczenia wiarygodno±ci brzegowej modelu, czyli caªki licznika g sto±ci a posteriori ze wzgl du na wszystkie parametry; wyznaczenia rozkªadu predykcyjnego, czyli caªki wzgl dem wszystkich parametrów) warunkowej g sto±ci nieznanej obserwacji pomno»onej przez g sto± a posteriori. Poza nielicznymi przypadkami nie umiemy losowa z g sto±ci a posteriori ani analitycznie jej caªkowa. 4 / 17

Zastosowanie metod numerycznych w ekonometrii bayesowskiej Poza dwoma wyj tkami wycena BMW i wybory prezydenckie w USA), dotychczas w peªni analitycznie podchodzili±my do nast puj cych problemów: wyznaczenie funkcji g sto±ci a posteriori : f θ X ) f X θ) f θ); wyznaczanie brzegowych g sto±ci a posteriori: f θ 1 X, θ ), czyli caªki g sto±ci a posteriori ze wzgl du na cz ± parametrów; wyznaczenia wiarygodno±ci brzegowej modelu, czyli caªki licznika g sto±ci a posteriori ze wzgl du na wszystkie parametry; wyznaczenia rozkªadu predykcyjnego, czyli caªki wzgl dem wszystkich parametrów) warunkowej g sto±ci nieznanej obserwacji pomno»onej przez g sto± a posteriori. Poza nielicznymi przypadkami nie umiemy losowa z g sto±ci a posteriori ani analitycznie jej caªkowa. 4 / 17

Efekty zastosowania metod numerycznych 1 Metody numeryczne powinny prowadzi do otrzymania wyników S-krotnego losowania z rozkªadu a posteriori powinny, bo nie mamy gwarancji,»e tak b dzie). Dysponuj c tymi wynikami oznaczmy je θ 1), θ ),..., θ S) ) mo»emy naszkicowa histogram rozkªadów brzegowych pojedynczych parametrów lub, o ile to zasadne, analizowa rozkªady wielowymiarowe podzbiorów wektora parametrów. Mo»emy równie» oszacowa warto± oczekiwan dowolnej S funkcji parametrów gθ) jako 1 S g θ s)). s=1 Istnieje wiele metod numerycznych. Poznamy dzi± dwie metody klasy MCMC Monte Carlo Markov chain): próbnik Gibbsa i algorytm Metropolisa-Hastingsa. 5 / 17

Plan prezentacji Wprowadzenie 1 Wprowadzenie 3 6 / 17

idea Czy potramy losowa z tych rozkªadów? f x, y) e xy µ) σ f x y) e xy µ) σ f y x) e xy µ) σ x µ y ) = e σ y ) = e y µ x ) σ x ) 7 / 17

idea Czy potramy losowa z tych rozkªadów? f x, y) e xy µ) σ f x y) e xy µ) σ f y x) e xy µ) σ x µ y ) = e σ y ) = e y µ x ) σ x ) 7 / 17

idea Czy potramy losowa z tych rozkªadów? f x, y) e xy µ) σ f x y) e xy µ) σ f y x) e xy µ) σ x µ y ) = e σ y ) = e y µ x ) σ x ) 7 / 17

idea Czy potramy losowa z tych rozkªadów? f x, y) e xy µ) σ f x y) e xy µ) σ f y x) e xy µ) σ x µ y ) = e σ y ) = e y µ x ) σ x ) 7 / 17

przypadek dwuwymiarowy Rozwa»my wektor parametrów θ = θ 1, θ ) o nieznanej g sto±ci a posteriori p θ 1, θ y). 1 Wybieramy startow warto± θ 0). Losujemy θ 1) 1 z rozkªadu warunkowego p θ 1 θ 0), 3 Losujemy θ 1) z rozkªadu warunkowego p θ θ 1), 1 4 Losujemy θ ) 1 z rozkªadu warunkowego p θ 1 θ 1), 5 Losujemy θ ) z rozkªadu warunkowego p θ θ ), 1 6 Powtarzamy kroki 4 i 5 naprzemiennie S razy, ka»dorazowo warunkuj c wynikiem poprzedniego losowania. 7 Otrzymujemy θ 1), θ ),..., θ S). 8 / 17

przypadek dwuwymiarowy Rozwa»my wektor parametrów θ = θ 1, θ ) o nieznanej g sto±ci a posteriori p θ 1, θ y). 1 Wybieramy startow warto± θ 0). Losujemy θ 1) 1 z rozkªadu warunkowego p θ 1 θ 0), 3 Losujemy θ 1) z rozkªadu warunkowego p θ θ 1), 1 4 Losujemy θ ) 1 z rozkªadu warunkowego p θ 1 θ 1), 5 Losujemy θ ) z rozkªadu warunkowego p θ θ ), 1 6 Powtarzamy kroki 4 i 5 naprzemiennie S razy, ka»dorazowo warunkuj c wynikiem poprzedniego losowania. 7 Otrzymujemy θ 1), θ ),..., θ S). 8 / 17

przypadek dwuwymiarowy Rozwa»my wektor parametrów θ = θ 1, θ ) o nieznanej g sto±ci a posteriori p θ 1, θ y). 1 Wybieramy startow warto± θ 0). Losujemy θ 1) 1 z rozkªadu warunkowego p θ 1 θ 0), 3 Losujemy θ 1) z rozkªadu warunkowego p θ θ 1), 1 4 Losujemy θ ) 1 z rozkªadu warunkowego p θ 1 θ 1), 5 Losujemy θ ) z rozkªadu warunkowego p θ θ ), 1 6 Powtarzamy kroki 4 i 5 naprzemiennie S razy, ka»dorazowo warunkuj c wynikiem poprzedniego losowania. 7 Otrzymujemy θ 1), θ ),..., θ S). 8 / 17

przypadek dwuwymiarowy Rozwa»my wektor parametrów θ = θ 1, θ ) o nieznanej g sto±ci a posteriori p θ 1, θ y). 1 Wybieramy startow warto± θ 0). Losujemy θ 1) 1 z rozkªadu warunkowego p θ 1 θ 0), 3 Losujemy θ 1) z rozkªadu warunkowego p θ θ 1), 1 4 Losujemy θ ) 1 z rozkªadu warunkowego p θ 1 θ 1), 5 Losujemy θ ) z rozkªadu warunkowego p θ θ ), 1 6 Powtarzamy kroki 4 i 5 naprzemiennie S razy, ka»dorazowo warunkuj c wynikiem poprzedniego losowania. 7 Otrzymujemy θ 1), θ ),..., θ S). 8 / 17

przypadek dwuwymiarowy Rozwa»my wektor parametrów θ = θ 1, θ ) o nieznanej g sto±ci a posteriori p θ 1, θ y). 1 Wybieramy startow warto± θ 0). Losujemy θ 1) 1 z rozkªadu warunkowego p θ 1 θ 0), 3 Losujemy θ 1) z rozkªadu warunkowego p θ θ 1), 1 4 Losujemy θ ) 1 z rozkªadu warunkowego p θ 1 θ 1), 5 Losujemy θ ) z rozkªadu warunkowego p θ θ ), 1 6 Powtarzamy kroki 4 i 5 naprzemiennie S razy, ka»dorazowo warunkuj c wynikiem poprzedniego losowania. 7 Otrzymujemy θ 1), θ ),..., θ S). 8 / 17

przypadek dwuwymiarowy Rozwa»my wektor parametrów θ = θ 1, θ ) o nieznanej g sto±ci a posteriori p θ 1, θ y). 1 Wybieramy startow warto± θ 0). Losujemy θ 1) 1 z rozkªadu warunkowego p θ 1 θ 0), 3 Losujemy θ 1) z rozkªadu warunkowego p θ θ 1), 1 4 Losujemy θ ) 1 z rozkªadu warunkowego p θ 1 θ 1), 5 Losujemy θ ) z rozkªadu warunkowego p θ θ ), 1 6 Powtarzamy kroki 4 i 5 naprzemiennie S razy, ka»dorazowo warunkuj c wynikiem poprzedniego losowania. 7 Otrzymujemy θ 1), θ ),..., θ S). 8 / 17

przypadek dwuwymiarowy Rozwa»my wektor parametrów θ = θ 1, θ ) o nieznanej g sto±ci a posteriori p θ 1, θ y). 1 Wybieramy startow warto± θ 0). Losujemy θ 1) 1 z rozkªadu warunkowego p θ 1 θ 0), 3 Losujemy θ 1) z rozkªadu warunkowego p θ θ 1), 1 4 Losujemy θ ) 1 z rozkªadu warunkowego p θ 1 θ 1), 5 Losujemy θ ) z rozkªadu warunkowego p θ θ ), 1 6 Powtarzamy kroki 4 i 5 naprzemiennie S razy, ka»dorazowo warunkuj c wynikiem poprzedniego losowania. 7 Otrzymujemy θ 1), θ ),..., θ S). 8 / 17

uzasadnienie p θ 1, θ y) = p θ 1 θ, y) p θ y) Losowanie θ 1, θ ) z rozkªadu ª cznego mo»na zast pi losowaniem θ 1 z rozkªadu warunkowego wzgl dem θ ) oraz θ z rozkªadu brzegowego. Nie znamy jednak rozkªadu brzegowego! Nasz wybór θ 0) nie jest wi c losowaniem. Nie wpªywa to jednak na rozkªad, o ile liczba losowa«s jest odpowiednio dªuga cz sto odrzucamy S 0 pierwszych losowa«jako tzw. burn-in i zostawiamy S 1 = S S 0 pozostaªych. 9 / 17

uzasadnienie p θ 1, θ y) = p θ 1 θ, y) p θ y) Losowanie θ 1, θ ) z rozkªadu ª cznego mo»na zast pi losowaniem θ 1 z rozkªadu warunkowego wzgl dem θ ) oraz θ z rozkªadu brzegowego. Nie znamy jednak rozkªadu brzegowego! Nasz wybór θ 0) nie jest wi c losowaniem. Nie wpªywa to jednak na rozkªad, o ile liczba losowa«s jest odpowiednio dªuga cz sto odrzucamy S 0 pierwszych losowa«jako tzw. burn-in i zostawiamy S 1 = S S 0 pozostaªych. 9 / 17

uzasadnienie p θ 1, θ y) = p θ 1 θ, y) p θ y) Losowanie θ 1, θ ) z rozkªadu ª cznego mo»na zast pi losowaniem θ 1 z rozkªadu warunkowego wzgl dem θ ) oraz θ z rozkªadu brzegowego. Nie znamy jednak rozkªadu brzegowego! Nasz wybór θ 0) nie jest wi c losowaniem. Nie wpªywa to jednak na rozkªad, o ile liczba losowa«s jest odpowiednio dªuga cz sto odrzucamy S 0 pierwszych losowa«jako tzw. burn-in i zostawiamy S 1 = S S 0 pozostaªych. 9 / 17

uzasadnienie p θ 1, θ y) = p θ 1 θ, y) p θ y) Losowanie θ 1, θ ) z rozkªadu ª cznego mo»na zast pi losowaniem θ 1 z rozkªadu warunkowego wzgl dem θ ) oraz θ z rozkªadu brzegowego. Nie znamy jednak rozkªadu brzegowego! Nasz wybór θ 0) nie jest wi c losowaniem. Nie wpªywa to jednak na rozkªad, o ile liczba losowa«s jest odpowiednio dªuga cz sto odrzucamy S 0 pierwszych losowa«jako tzw. burn-in i zostawiamy S 1 = S S 0 pozostaªych. 9 / 17

przypadek ogólny Rozwa»my wektor parametrów θ = θ 1, θ,..., θ K ) o g sto±ci a posteriori p θ y). 1 Wybieramy wektor warto±ci startowych θ 0). Losujemy θ 1) 1 z rozkªadu warunkowego p θ 1 θ 0) θ θ 1) 3 Losujemy θ 1) z rozkªadu warunkowego p 4 Losujemy θ 1) 3 z rozkªadu warunkowego p θ 3 θ 1) 1, θ1), θ0) 4,..., θ0) K )., y, θ0) 3 1, θ0) 3,..., θ0) K )., y,..., θ0) K )., y 5 Kontynuujemy a» do kroku K, czyli uzyskania caªego wektora θ 1). 6 Powtarzamy kroki 1-5 z θ 1) jako wektorem warto±ci startowych. 7 Powtarzamy t sekwencj S razy. 10 / 17

przypadek ogólny Rozwa»my wektor parametrów θ = θ 1, θ,..., θ K ) o g sto±ci a posteriori p θ y). 1 Wybieramy wektor warto±ci startowych θ 0). Losujemy θ 1) 1 z rozkªadu warunkowego p θ 1 θ 0) θ θ 1) 3 Losujemy θ 1) z rozkªadu warunkowego p 4 Losujemy θ 1) 3 z rozkªadu warunkowego p θ 3 θ 1) 1, θ1), θ0) 4,..., θ0) K )., y, θ0) 3 1, θ0) 3,..., θ0) K )., y,..., θ0) K )., y 5 Kontynuujemy a» do kroku K, czyli uzyskania caªego wektora θ 1). 6 Powtarzamy kroki 1-5 z θ 1) jako wektorem warto±ci startowych. 7 Powtarzamy t sekwencj S razy. 10 / 17

przypadek ogólny Rozwa»my wektor parametrów θ = θ 1, θ,..., θ K ) o g sto±ci a posteriori p θ y). 1 Wybieramy wektor warto±ci startowych θ 0). Losujemy θ 1) 1 z rozkªadu warunkowego p θ 1 θ 0) θ θ 1) 3 Losujemy θ 1) z rozkªadu warunkowego p 4 Losujemy θ 1) 3 z rozkªadu warunkowego p θ 3 θ 1) 1, θ1), θ0) 4,..., θ0) K )., y, θ0) 3 1, θ0) 3,..., θ0) K )., y,..., θ0) K )., y 5 Kontynuujemy a» do kroku K, czyli uzyskania caªego wektora θ 1). 6 Powtarzamy kroki 1-5 z θ 1) jako wektorem warto±ci startowych. 7 Powtarzamy t sekwencj S razy. 10 / 17

przypadek ogólny Rozwa»my wektor parametrów θ = θ 1, θ,..., θ K ) o g sto±ci a posteriori p θ y). 1 Wybieramy wektor warto±ci startowych θ 0). Losujemy θ 1) 1 z rozkªadu warunkowego p θ 1 θ 0) θ θ 1) 3 Losujemy θ 1) z rozkªadu warunkowego p 4 Losujemy θ 1) 3 z rozkªadu warunkowego p θ 3 θ 1) 1, θ1), θ0) 4,..., θ0) K )., y, θ0) 3 1, θ0) 3,..., θ0) K )., y,..., θ0) K )., y 5 Kontynuujemy a» do kroku K, czyli uzyskania caªego wektora θ 1). 6 Powtarzamy kroki 1-5 z θ 1) jako wektorem warto±ci startowych. 7 Powtarzamy t sekwencj S razy. 10 / 17

przypadek ogólny Rozwa»my wektor parametrów θ = θ 1, θ,..., θ K ) o g sto±ci a posteriori p θ y). 1 Wybieramy wektor warto±ci startowych θ 0). Losujemy θ 1) 1 z rozkªadu warunkowego p θ 1 θ 0) θ θ 1) 3 Losujemy θ 1) z rozkªadu warunkowego p 4 Losujemy θ 1) 3 z rozkªadu warunkowego p θ 3 θ 1) 1, θ1), θ0) 4,..., θ0) K )., y, θ0) 3 1, θ0) 3,..., θ0) K )., y,..., θ0) K )., y 5 Kontynuujemy a» do kroku K, czyli uzyskania caªego wektora θ 1). 6 Powtarzamy kroki 1-5 z θ 1) jako wektorem warto±ci startowych. 7 Powtarzamy t sekwencj S razy. 10 / 17

przypadek ogólny Rozwa»my wektor parametrów θ = θ 1, θ,..., θ K ) o g sto±ci a posteriori p θ y). 1 Wybieramy wektor warto±ci startowych θ 0). Losujemy θ 1) 1 z rozkªadu warunkowego p θ 1 θ 0) θ θ 1) 3 Losujemy θ 1) z rozkªadu warunkowego p 4 Losujemy θ 1) 3 z rozkªadu warunkowego p θ 3 θ 1) 1, θ1), θ0) 4,..., θ0) K )., y, θ0) 3 1, θ0) 3,..., θ0) K )., y,..., θ0) K )., y 5 Kontynuujemy a» do kroku K, czyli uzyskania caªego wektora θ 1). 6 Powtarzamy kroki 1-5 z θ 1) jako wektorem warto±ci startowych. 7 Powtarzamy t sekwencj S razy. 10 / 17

przypadek ogólny Rozwa»my wektor parametrów θ = θ 1, θ,..., θ K ) o g sto±ci a posteriori p θ y). 1 Wybieramy wektor warto±ci startowych θ 0). Losujemy θ 1) 1 z rozkªadu warunkowego p θ 1 θ 0) θ θ 1) 3 Losujemy θ 1) z rozkªadu warunkowego p 4 Losujemy θ 1) 3 z rozkªadu warunkowego p θ 3 θ 1) 1, θ1), θ0) 4,..., θ0) K )., y, θ0) 3 1, θ0) 3,..., θ0) K )., y,..., θ0) K )., y 5 Kontynuujemy a» do kroku K, czyli uzyskania caªego wektora θ 1). 6 Powtarzamy kroki 1-5 z θ 1) jako wektorem warto±ci startowych. 7 Powtarzamy t sekwencj S razy. 10 / 17

Plan prezentacji Wprowadzenie 1 Wprowadzenie 3 11 / 17

przypadek ogólny Rozwa»my wektor parametrów θ = θ 1, θ,..., θ K ) o nieznanej g sto±ci a posteriori p θ y). Nie mo»emy równie» ustali rozkªadów warunkowych. 1 Wybieramy wektor startowy θ 0) = θ 1, θ,..., θ K ). Losujemy kandydata θ korzystaj c z g sto±ci generuj cej kandydatów, q θ θ 0)). 3 Obliczamy prawdopodobie«stwo akceptacji kandydata, α θ, θ 0)). θ z prawdopodobieństwem α θ, θ 0)) 4 θ 1) = θ 0) z prawdopodobieństwem 1 α θ, θ 0)) 5 Powtarzamy kroki 1-4 z wektorem startowym θ 1). 6 Powtarzamy sekwencj S razy. 1 / 17

przypadek ogólny Rozwa»my wektor parametrów θ = θ 1, θ,..., θ K ) o nieznanej g sto±ci a posteriori p θ y). Nie mo»emy równie» ustali rozkªadów warunkowych. 1 Wybieramy wektor startowy θ 0) = θ 1, θ,..., θ K ). Losujemy kandydata θ korzystaj c z g sto±ci generuj cej kandydatów, q θ θ 0)). 3 Obliczamy prawdopodobie«stwo akceptacji kandydata, α θ, θ 0)). θ z prawdopodobieństwem α θ, θ 0)) 4 θ 1) = θ 0) z prawdopodobieństwem 1 α θ, θ 0)) 5 Powtarzamy kroki 1-4 z wektorem startowym θ 1). 6 Powtarzamy sekwencj S razy. 1 / 17

przypadek ogólny Rozwa»my wektor parametrów θ = θ 1, θ,..., θ K ) o nieznanej g sto±ci a posteriori p θ y). Nie mo»emy równie» ustali rozkªadów warunkowych. 1 Wybieramy wektor startowy θ 0) = θ 1, θ,..., θ K ). Losujemy kandydata θ korzystaj c z g sto±ci generuj cej kandydatów, q θ θ 0)). 3 Obliczamy prawdopodobie«stwo akceptacji kandydata, α θ, θ 0)). θ z prawdopodobieństwem α θ, θ 0)) 4 θ 1) = θ 0) z prawdopodobieństwem 1 α θ, θ 0)) 5 Powtarzamy kroki 1-4 z wektorem startowym θ 1). 6 Powtarzamy sekwencj S razy. 1 / 17

przypadek ogólny Rozwa»my wektor parametrów θ = θ 1, θ,..., θ K ) o nieznanej g sto±ci a posteriori p θ y). Nie mo»emy równie» ustali rozkªadów warunkowych. 1 Wybieramy wektor startowy θ 0) = θ 1, θ,..., θ K ). Losujemy kandydata θ korzystaj c z g sto±ci generuj cej kandydatów, q θ θ 0)). 3 Obliczamy prawdopodobie«stwo akceptacji kandydata, α θ, θ 0)). θ z prawdopodobieństwem α θ, θ 0)) 4 θ 1) = θ 0) z prawdopodobieństwem 1 α θ, θ 0)) 5 Powtarzamy kroki 1-4 z wektorem startowym θ 1). 6 Powtarzamy sekwencj S razy. 1 / 17

przypadek ogólny Rozwa»my wektor parametrów θ = θ 1, θ,..., θ K ) o nieznanej g sto±ci a posteriori p θ y). Nie mo»emy równie» ustali rozkªadów warunkowych. 1 Wybieramy wektor startowy θ 0) = θ 1, θ,..., θ K ). Losujemy kandydata θ korzystaj c z g sto±ci generuj cej kandydatów, q θ θ 0)). 3 Obliczamy prawdopodobie«stwo akceptacji kandydata, α θ, θ 0)). θ z prawdopodobieństwem α θ, θ 0)) 4 θ 1) = θ 0) z prawdopodobieństwem 1 α θ, θ 0)) 5 Powtarzamy kroki 1-4 z wektorem startowym θ 1). 6 Powtarzamy sekwencj S razy. 1 / 17

przypadek ogólny Rozwa»my wektor parametrów θ = θ 1, θ,..., θ K ) o nieznanej g sto±ci a posteriori p θ y). Nie mo»emy równie» ustali rozkªadów warunkowych. 1 Wybieramy wektor startowy θ 0) = θ 1, θ,..., θ K ). Losujemy kandydata θ korzystaj c z g sto±ci generuj cej kandydatów, q θ θ 0)). 3 Obliczamy prawdopodobie«stwo akceptacji kandydata, α θ, θ 0)). θ z prawdopodobieństwem α θ, θ 0)) 4 θ 1) = θ 0) z prawdopodobieństwem 1 α θ, θ 0)) 5 Powtarzamy kroki 1-4 z wektorem startowym θ 1). 6 Powtarzamy sekwencj S razy. 1 / 17

Algorytm MH wybór wektora startowego 1 Arbitralne wskazanie przez u»ytkownika. Losowanie z brzegowych rozkªadów a priori, je»eli mo»liwe. 3 Wielokrotne wybory z analiz wra»liwo±ci. W ka»dym przypadku odcinamy pewn liczb pocz tkowych warto±ci jako burn-in. Przy prawidªowej zbie»no±ci oraz odpowiednio wysokiej liczbie iteracji S) nie powinno to mie znaczenia. 13 / 17

Algorytm MH g sto± generuj ca kandydatów 1 W ogólnym przypadku zakªadamy,»e jest zale»na od bie» cego punktu θ s). Najcz stsz implementacj ) jest Random Walk MH, gdzie losujemy ε N θ s), Σ i rozwa»amy kandydata: θ = θ s) + ε Nie musi tak jednak by. Wówczas mówimy o implementacji Independence Chain MH. Wówczas losujemy kandydatów θ za pomoc g sto±ci q θ θ s)) = q θ) 14 / 17

Algorytm MH g sto± generuj ca kandydatów 1 W ogólnym przypadku zakªadamy,»e jest zale»na od bie» cego punktu θ s). Najcz stsz implementacj ) jest Random Walk MH, gdzie losujemy ε N θ s), Σ i rozwa»amy kandydata: θ = θ s) + ε Nie musi tak jednak by. Wówczas mówimy o implementacji Independence Chain MH. Wówczas losujemy kandydatów θ za pomoc g sto±ci q θ θ s)) = q θ) 14 / 17

Algorytm MH prawdopodobie«stwo akceptacji α 1 Poniewa» q to funkcja umowna, korzystanie z niej bez dodatkowych korekt nie gwarantuje nam uzyskania sekwencji losowa«przybli»aj cych rozkªad a posteriori. 1 Algorytm bez korekt zbyt cz sto pozostaje w obszarach o wysokiej g sto±ci a posteriori. W zwi zku z tym musimy go skorygowa, by dostatecznie dobrze zwiedzi caª dziedzin parametrów. Korekta polega na nieakceptowaniu wszystkich kandydatów wylosowanych na podstawie g sto±ci q. W przypadku braku akceptacji, kolejnym elementem ªa«cucha jest kopia poprzedniego. 1 Ogólny wzór na prawdopodobie«stwo akceptacji zale»y od g sto±ci a posteriori p) oraz g sto±ci generuj cej kandydatów q) dla wektorów: poprzedniego θ s) ) oraz kandydata θ ). Szczegóªy: Koop roz. 5.5). W implementacji Independence Chain: tylko od p i q kandydata 3 W implementacji Random Walk: tylko od p, ale nie q ) [ ] α θ, θ 0) pθ = min y) pθ s 1) y), 1 15 / 17

Algorytm MH prawdopodobie«stwo akceptacji α 1 Poniewa» q to funkcja umowna, korzystanie z niej bez dodatkowych korekt nie gwarantuje nam uzyskania sekwencji losowa«przybli»aj cych rozkªad a posteriori. 1 Algorytm bez korekt zbyt cz sto pozostaje w obszarach o wysokiej g sto±ci a posteriori. W zwi zku z tym musimy go skorygowa, by dostatecznie dobrze zwiedzi caª dziedzin parametrów. Korekta polega na nieakceptowaniu wszystkich kandydatów wylosowanych na podstawie g sto±ci q. W przypadku braku akceptacji, kolejnym elementem ªa«cucha jest kopia poprzedniego. 1 Ogólny wzór na prawdopodobie«stwo akceptacji zale»y od g sto±ci a posteriori p) oraz g sto±ci generuj cej kandydatów q) dla wektorów: poprzedniego θ s) ) oraz kandydata θ ). Szczegóªy: Koop roz. 5.5). W implementacji Independence Chain: tylko od p i q kandydata 3 W implementacji Random Walk: tylko od p, ale nie q ) [ ] α θ, θ 0) pθ = min y) pθ s 1) y), 1 15 / 17

Algorytm MH α versus q Miar jako±ci wyników jest m.in. ±rednie prawdopodobie«stwo akceptacji ᾱ. Okazuje si,»e optymalne warto±ci ᾱ [0, ; 0, 4]. Dostatecznie niskie prawdopodobie«stwo akceptacji oznacza,»e dziedzina g sto±ci a posteriori zostaªa dobrze wyeksplorowana. ᾱ to jednak warto± wynikowa i nie mo»emy jej wprost wybra. Zale»y ona przede wszystkim od doboru g sto±ci generuj cej kandydatów q. W przypadku Random Walk MH, sprowadza si to do odpowiedniego ustalenia wariancji kroku ε, czyli Σ. Relacj mi dzy ᾱ a Σ nale»y zbada w ramach dodatkowej procedury iteracyjnej. Zaczynamy w niej od Σ 0) = c 0) I. W przypadku zbyt wysokiego ᾱ 0) zbyt cz sto akceptujemy, a wi c jeste±my zbyt konserwatywni w zwiedzaniu dziedziny, czyli powinnismy ustali c 1) > c 0). 16 / 17

Rozrzedzanie i zwielokrotnienie ªa«cucha Aby unikn efektu silnej autokorelacji w wygenerowanej sekwencji θ 1), θ ),..., θ S) decydujemy si czasami na jej rozrzedzanie thinning), czyli wybór co m-tego elementu. Eliminacja autokorelacji jest istotna, bo pozwala i) pracowa z równie dªugimi ªa«cuchami ale o lepszej zawarto±ci informacyjnej, ii) uªatwia kalkulacj miar zwi zanych z diagnostyk zbie»no±ci ªa«cucha o tym nast pnym razem). Zasadno± tego zabiegu jest jednak czasami przedmiotem kontrowersji w literaturze. Cz sto decydujemy si na u»ycie wi kszej liczby ªa«cuchów ni» tylko jeden to równie» przydaje si w diagnostyce zbie»no±ci MCMC). Pytanie Generujemy 3 ªa«cuchy po 15 tys. obserwacji dla 4-elementowego wektora parametrów θ. Poªow odrzucamy jako burn-in. Stosujemy dodatkowo rozrzedzanie z m=5. Ile otrzymamy liczb i jakie wymiary powinna mie macierz wyników? 17 / 17