Ekonometria Bayesowska Wykªad 9: Metody numeryczne: MCMC Andrzej Torój 1 / 17
Plan wykªadu Wprowadzenie 1 Wprowadzenie 3 / 17
Plan prezentacji Wprowadzenie 1 Wprowadzenie 3 3 / 17
Zastosowanie metod numerycznych w ekonometrii bayesowskiej Poza dwoma wyj tkami wycena BMW i wybory prezydenckie w USA), dotychczas w peªni analitycznie podchodzili±my do nast puj cych problemów: wyznaczenie funkcji g sto±ci a posteriori : f θ X ) f X θ) f θ); wyznaczanie brzegowych g sto±ci a posteriori: f θ 1 X, θ ), czyli caªki g sto±ci a posteriori ze wzgl du na cz ± parametrów; wyznaczenia wiarygodno±ci brzegowej modelu, czyli caªki licznika g sto±ci a posteriori ze wzgl du na wszystkie parametry; wyznaczenia rozkªadu predykcyjnego, czyli caªki wzgl dem wszystkich parametrów) warunkowej g sto±ci nieznanej obserwacji pomno»onej przez g sto± a posteriori. Poza nielicznymi przypadkami nie umiemy losowa z g sto±ci a posteriori ani analitycznie jej caªkowa. 4 / 17
Zastosowanie metod numerycznych w ekonometrii bayesowskiej Poza dwoma wyj tkami wycena BMW i wybory prezydenckie w USA), dotychczas w peªni analitycznie podchodzili±my do nast puj cych problemów: wyznaczenie funkcji g sto±ci a posteriori : f θ X ) f X θ) f θ); wyznaczanie brzegowych g sto±ci a posteriori: f θ 1 X, θ ), czyli caªki g sto±ci a posteriori ze wzgl du na cz ± parametrów; wyznaczenia wiarygodno±ci brzegowej modelu, czyli caªki licznika g sto±ci a posteriori ze wzgl du na wszystkie parametry; wyznaczenia rozkªadu predykcyjnego, czyli caªki wzgl dem wszystkich parametrów) warunkowej g sto±ci nieznanej obserwacji pomno»onej przez g sto± a posteriori. Poza nielicznymi przypadkami nie umiemy losowa z g sto±ci a posteriori ani analitycznie jej caªkowa. 4 / 17
Zastosowanie metod numerycznych w ekonometrii bayesowskiej Poza dwoma wyj tkami wycena BMW i wybory prezydenckie w USA), dotychczas w peªni analitycznie podchodzili±my do nast puj cych problemów: wyznaczenie funkcji g sto±ci a posteriori : f θ X ) f X θ) f θ); wyznaczanie brzegowych g sto±ci a posteriori: f θ 1 X, θ ), czyli caªki g sto±ci a posteriori ze wzgl du na cz ± parametrów; wyznaczenia wiarygodno±ci brzegowej modelu, czyli caªki licznika g sto±ci a posteriori ze wzgl du na wszystkie parametry; wyznaczenia rozkªadu predykcyjnego, czyli caªki wzgl dem wszystkich parametrów) warunkowej g sto±ci nieznanej obserwacji pomno»onej przez g sto± a posteriori. Poza nielicznymi przypadkami nie umiemy losowa z g sto±ci a posteriori ani analitycznie jej caªkowa. 4 / 17
Zastosowanie metod numerycznych w ekonometrii bayesowskiej Poza dwoma wyj tkami wycena BMW i wybory prezydenckie w USA), dotychczas w peªni analitycznie podchodzili±my do nast puj cych problemów: wyznaczenie funkcji g sto±ci a posteriori : f θ X ) f X θ) f θ); wyznaczanie brzegowych g sto±ci a posteriori: f θ 1 X, θ ), czyli caªki g sto±ci a posteriori ze wzgl du na cz ± parametrów; wyznaczenia wiarygodno±ci brzegowej modelu, czyli caªki licznika g sto±ci a posteriori ze wzgl du na wszystkie parametry; wyznaczenia rozkªadu predykcyjnego, czyli caªki wzgl dem wszystkich parametrów) warunkowej g sto±ci nieznanej obserwacji pomno»onej przez g sto± a posteriori. Poza nielicznymi przypadkami nie umiemy losowa z g sto±ci a posteriori ani analitycznie jej caªkowa. 4 / 17
Efekty zastosowania metod numerycznych 1 Metody numeryczne powinny prowadzi do otrzymania wyników S-krotnego losowania z rozkªadu a posteriori powinny, bo nie mamy gwarancji,»e tak b dzie). Dysponuj c tymi wynikami oznaczmy je θ 1), θ ),..., θ S) ) mo»emy naszkicowa histogram rozkªadów brzegowych pojedynczych parametrów lub, o ile to zasadne, analizowa rozkªady wielowymiarowe podzbiorów wektora parametrów. Mo»emy równie» oszacowa warto± oczekiwan dowolnej S funkcji parametrów gθ) jako 1 S g θ s)). s=1 Istnieje wiele metod numerycznych. Poznamy dzi± dwie metody klasy MCMC Monte Carlo Markov chain): próbnik Gibbsa i algorytm Metropolisa-Hastingsa. 5 / 17
Plan prezentacji Wprowadzenie 1 Wprowadzenie 3 6 / 17
idea Czy potramy losowa z tych rozkªadów? f x, y) e xy µ) σ f x y) e xy µ) σ f y x) e xy µ) σ x µ y ) = e σ y ) = e y µ x ) σ x ) 7 / 17
idea Czy potramy losowa z tych rozkªadów? f x, y) e xy µ) σ f x y) e xy µ) σ f y x) e xy µ) σ x µ y ) = e σ y ) = e y µ x ) σ x ) 7 / 17
idea Czy potramy losowa z tych rozkªadów? f x, y) e xy µ) σ f x y) e xy µ) σ f y x) e xy µ) σ x µ y ) = e σ y ) = e y µ x ) σ x ) 7 / 17
idea Czy potramy losowa z tych rozkªadów? f x, y) e xy µ) σ f x y) e xy µ) σ f y x) e xy µ) σ x µ y ) = e σ y ) = e y µ x ) σ x ) 7 / 17
przypadek dwuwymiarowy Rozwa»my wektor parametrów θ = θ 1, θ ) o nieznanej g sto±ci a posteriori p θ 1, θ y). 1 Wybieramy startow warto± θ 0). Losujemy θ 1) 1 z rozkªadu warunkowego p θ 1 θ 0), 3 Losujemy θ 1) z rozkªadu warunkowego p θ θ 1), 1 4 Losujemy θ ) 1 z rozkªadu warunkowego p θ 1 θ 1), 5 Losujemy θ ) z rozkªadu warunkowego p θ θ ), 1 6 Powtarzamy kroki 4 i 5 naprzemiennie S razy, ka»dorazowo warunkuj c wynikiem poprzedniego losowania. 7 Otrzymujemy θ 1), θ ),..., θ S). 8 / 17
przypadek dwuwymiarowy Rozwa»my wektor parametrów θ = θ 1, θ ) o nieznanej g sto±ci a posteriori p θ 1, θ y). 1 Wybieramy startow warto± θ 0). Losujemy θ 1) 1 z rozkªadu warunkowego p θ 1 θ 0), 3 Losujemy θ 1) z rozkªadu warunkowego p θ θ 1), 1 4 Losujemy θ ) 1 z rozkªadu warunkowego p θ 1 θ 1), 5 Losujemy θ ) z rozkªadu warunkowego p θ θ ), 1 6 Powtarzamy kroki 4 i 5 naprzemiennie S razy, ka»dorazowo warunkuj c wynikiem poprzedniego losowania. 7 Otrzymujemy θ 1), θ ),..., θ S). 8 / 17
przypadek dwuwymiarowy Rozwa»my wektor parametrów θ = θ 1, θ ) o nieznanej g sto±ci a posteriori p θ 1, θ y). 1 Wybieramy startow warto± θ 0). Losujemy θ 1) 1 z rozkªadu warunkowego p θ 1 θ 0), 3 Losujemy θ 1) z rozkªadu warunkowego p θ θ 1), 1 4 Losujemy θ ) 1 z rozkªadu warunkowego p θ 1 θ 1), 5 Losujemy θ ) z rozkªadu warunkowego p θ θ ), 1 6 Powtarzamy kroki 4 i 5 naprzemiennie S razy, ka»dorazowo warunkuj c wynikiem poprzedniego losowania. 7 Otrzymujemy θ 1), θ ),..., θ S). 8 / 17
przypadek dwuwymiarowy Rozwa»my wektor parametrów θ = θ 1, θ ) o nieznanej g sto±ci a posteriori p θ 1, θ y). 1 Wybieramy startow warto± θ 0). Losujemy θ 1) 1 z rozkªadu warunkowego p θ 1 θ 0), 3 Losujemy θ 1) z rozkªadu warunkowego p θ θ 1), 1 4 Losujemy θ ) 1 z rozkªadu warunkowego p θ 1 θ 1), 5 Losujemy θ ) z rozkªadu warunkowego p θ θ ), 1 6 Powtarzamy kroki 4 i 5 naprzemiennie S razy, ka»dorazowo warunkuj c wynikiem poprzedniego losowania. 7 Otrzymujemy θ 1), θ ),..., θ S). 8 / 17
przypadek dwuwymiarowy Rozwa»my wektor parametrów θ = θ 1, θ ) o nieznanej g sto±ci a posteriori p θ 1, θ y). 1 Wybieramy startow warto± θ 0). Losujemy θ 1) 1 z rozkªadu warunkowego p θ 1 θ 0), 3 Losujemy θ 1) z rozkªadu warunkowego p θ θ 1), 1 4 Losujemy θ ) 1 z rozkªadu warunkowego p θ 1 θ 1), 5 Losujemy θ ) z rozkªadu warunkowego p θ θ ), 1 6 Powtarzamy kroki 4 i 5 naprzemiennie S razy, ka»dorazowo warunkuj c wynikiem poprzedniego losowania. 7 Otrzymujemy θ 1), θ ),..., θ S). 8 / 17
przypadek dwuwymiarowy Rozwa»my wektor parametrów θ = θ 1, θ ) o nieznanej g sto±ci a posteriori p θ 1, θ y). 1 Wybieramy startow warto± θ 0). Losujemy θ 1) 1 z rozkªadu warunkowego p θ 1 θ 0), 3 Losujemy θ 1) z rozkªadu warunkowego p θ θ 1), 1 4 Losujemy θ ) 1 z rozkªadu warunkowego p θ 1 θ 1), 5 Losujemy θ ) z rozkªadu warunkowego p θ θ ), 1 6 Powtarzamy kroki 4 i 5 naprzemiennie S razy, ka»dorazowo warunkuj c wynikiem poprzedniego losowania. 7 Otrzymujemy θ 1), θ ),..., θ S). 8 / 17
przypadek dwuwymiarowy Rozwa»my wektor parametrów θ = θ 1, θ ) o nieznanej g sto±ci a posteriori p θ 1, θ y). 1 Wybieramy startow warto± θ 0). Losujemy θ 1) 1 z rozkªadu warunkowego p θ 1 θ 0), 3 Losujemy θ 1) z rozkªadu warunkowego p θ θ 1), 1 4 Losujemy θ ) 1 z rozkªadu warunkowego p θ 1 θ 1), 5 Losujemy θ ) z rozkªadu warunkowego p θ θ ), 1 6 Powtarzamy kroki 4 i 5 naprzemiennie S razy, ka»dorazowo warunkuj c wynikiem poprzedniego losowania. 7 Otrzymujemy θ 1), θ ),..., θ S). 8 / 17
uzasadnienie p θ 1, θ y) = p θ 1 θ, y) p θ y) Losowanie θ 1, θ ) z rozkªadu ª cznego mo»na zast pi losowaniem θ 1 z rozkªadu warunkowego wzgl dem θ ) oraz θ z rozkªadu brzegowego. Nie znamy jednak rozkªadu brzegowego! Nasz wybór θ 0) nie jest wi c losowaniem. Nie wpªywa to jednak na rozkªad, o ile liczba losowa«s jest odpowiednio dªuga cz sto odrzucamy S 0 pierwszych losowa«jako tzw. burn-in i zostawiamy S 1 = S S 0 pozostaªych. 9 / 17
uzasadnienie p θ 1, θ y) = p θ 1 θ, y) p θ y) Losowanie θ 1, θ ) z rozkªadu ª cznego mo»na zast pi losowaniem θ 1 z rozkªadu warunkowego wzgl dem θ ) oraz θ z rozkªadu brzegowego. Nie znamy jednak rozkªadu brzegowego! Nasz wybór θ 0) nie jest wi c losowaniem. Nie wpªywa to jednak na rozkªad, o ile liczba losowa«s jest odpowiednio dªuga cz sto odrzucamy S 0 pierwszych losowa«jako tzw. burn-in i zostawiamy S 1 = S S 0 pozostaªych. 9 / 17
uzasadnienie p θ 1, θ y) = p θ 1 θ, y) p θ y) Losowanie θ 1, θ ) z rozkªadu ª cznego mo»na zast pi losowaniem θ 1 z rozkªadu warunkowego wzgl dem θ ) oraz θ z rozkªadu brzegowego. Nie znamy jednak rozkªadu brzegowego! Nasz wybór θ 0) nie jest wi c losowaniem. Nie wpªywa to jednak na rozkªad, o ile liczba losowa«s jest odpowiednio dªuga cz sto odrzucamy S 0 pierwszych losowa«jako tzw. burn-in i zostawiamy S 1 = S S 0 pozostaªych. 9 / 17
uzasadnienie p θ 1, θ y) = p θ 1 θ, y) p θ y) Losowanie θ 1, θ ) z rozkªadu ª cznego mo»na zast pi losowaniem θ 1 z rozkªadu warunkowego wzgl dem θ ) oraz θ z rozkªadu brzegowego. Nie znamy jednak rozkªadu brzegowego! Nasz wybór θ 0) nie jest wi c losowaniem. Nie wpªywa to jednak na rozkªad, o ile liczba losowa«s jest odpowiednio dªuga cz sto odrzucamy S 0 pierwszych losowa«jako tzw. burn-in i zostawiamy S 1 = S S 0 pozostaªych. 9 / 17
przypadek ogólny Rozwa»my wektor parametrów θ = θ 1, θ,..., θ K ) o g sto±ci a posteriori p θ y). 1 Wybieramy wektor warto±ci startowych θ 0). Losujemy θ 1) 1 z rozkªadu warunkowego p θ 1 θ 0) θ θ 1) 3 Losujemy θ 1) z rozkªadu warunkowego p 4 Losujemy θ 1) 3 z rozkªadu warunkowego p θ 3 θ 1) 1, θ1), θ0) 4,..., θ0) K )., y, θ0) 3 1, θ0) 3,..., θ0) K )., y,..., θ0) K )., y 5 Kontynuujemy a» do kroku K, czyli uzyskania caªego wektora θ 1). 6 Powtarzamy kroki 1-5 z θ 1) jako wektorem warto±ci startowych. 7 Powtarzamy t sekwencj S razy. 10 / 17
przypadek ogólny Rozwa»my wektor parametrów θ = θ 1, θ,..., θ K ) o g sto±ci a posteriori p θ y). 1 Wybieramy wektor warto±ci startowych θ 0). Losujemy θ 1) 1 z rozkªadu warunkowego p θ 1 θ 0) θ θ 1) 3 Losujemy θ 1) z rozkªadu warunkowego p 4 Losujemy θ 1) 3 z rozkªadu warunkowego p θ 3 θ 1) 1, θ1), θ0) 4,..., θ0) K )., y, θ0) 3 1, θ0) 3,..., θ0) K )., y,..., θ0) K )., y 5 Kontynuujemy a» do kroku K, czyli uzyskania caªego wektora θ 1). 6 Powtarzamy kroki 1-5 z θ 1) jako wektorem warto±ci startowych. 7 Powtarzamy t sekwencj S razy. 10 / 17
przypadek ogólny Rozwa»my wektor parametrów θ = θ 1, θ,..., θ K ) o g sto±ci a posteriori p θ y). 1 Wybieramy wektor warto±ci startowych θ 0). Losujemy θ 1) 1 z rozkªadu warunkowego p θ 1 θ 0) θ θ 1) 3 Losujemy θ 1) z rozkªadu warunkowego p 4 Losujemy θ 1) 3 z rozkªadu warunkowego p θ 3 θ 1) 1, θ1), θ0) 4,..., θ0) K )., y, θ0) 3 1, θ0) 3,..., θ0) K )., y,..., θ0) K )., y 5 Kontynuujemy a» do kroku K, czyli uzyskania caªego wektora θ 1). 6 Powtarzamy kroki 1-5 z θ 1) jako wektorem warto±ci startowych. 7 Powtarzamy t sekwencj S razy. 10 / 17
przypadek ogólny Rozwa»my wektor parametrów θ = θ 1, θ,..., θ K ) o g sto±ci a posteriori p θ y). 1 Wybieramy wektor warto±ci startowych θ 0). Losujemy θ 1) 1 z rozkªadu warunkowego p θ 1 θ 0) θ θ 1) 3 Losujemy θ 1) z rozkªadu warunkowego p 4 Losujemy θ 1) 3 z rozkªadu warunkowego p θ 3 θ 1) 1, θ1), θ0) 4,..., θ0) K )., y, θ0) 3 1, θ0) 3,..., θ0) K )., y,..., θ0) K )., y 5 Kontynuujemy a» do kroku K, czyli uzyskania caªego wektora θ 1). 6 Powtarzamy kroki 1-5 z θ 1) jako wektorem warto±ci startowych. 7 Powtarzamy t sekwencj S razy. 10 / 17
przypadek ogólny Rozwa»my wektor parametrów θ = θ 1, θ,..., θ K ) o g sto±ci a posteriori p θ y). 1 Wybieramy wektor warto±ci startowych θ 0). Losujemy θ 1) 1 z rozkªadu warunkowego p θ 1 θ 0) θ θ 1) 3 Losujemy θ 1) z rozkªadu warunkowego p 4 Losujemy θ 1) 3 z rozkªadu warunkowego p θ 3 θ 1) 1, θ1), θ0) 4,..., θ0) K )., y, θ0) 3 1, θ0) 3,..., θ0) K )., y,..., θ0) K )., y 5 Kontynuujemy a» do kroku K, czyli uzyskania caªego wektora θ 1). 6 Powtarzamy kroki 1-5 z θ 1) jako wektorem warto±ci startowych. 7 Powtarzamy t sekwencj S razy. 10 / 17
przypadek ogólny Rozwa»my wektor parametrów θ = θ 1, θ,..., θ K ) o g sto±ci a posteriori p θ y). 1 Wybieramy wektor warto±ci startowych θ 0). Losujemy θ 1) 1 z rozkªadu warunkowego p θ 1 θ 0) θ θ 1) 3 Losujemy θ 1) z rozkªadu warunkowego p 4 Losujemy θ 1) 3 z rozkªadu warunkowego p θ 3 θ 1) 1, θ1), θ0) 4,..., θ0) K )., y, θ0) 3 1, θ0) 3,..., θ0) K )., y,..., θ0) K )., y 5 Kontynuujemy a» do kroku K, czyli uzyskania caªego wektora θ 1). 6 Powtarzamy kroki 1-5 z θ 1) jako wektorem warto±ci startowych. 7 Powtarzamy t sekwencj S razy. 10 / 17
przypadek ogólny Rozwa»my wektor parametrów θ = θ 1, θ,..., θ K ) o g sto±ci a posteriori p θ y). 1 Wybieramy wektor warto±ci startowych θ 0). Losujemy θ 1) 1 z rozkªadu warunkowego p θ 1 θ 0) θ θ 1) 3 Losujemy θ 1) z rozkªadu warunkowego p 4 Losujemy θ 1) 3 z rozkªadu warunkowego p θ 3 θ 1) 1, θ1), θ0) 4,..., θ0) K )., y, θ0) 3 1, θ0) 3,..., θ0) K )., y,..., θ0) K )., y 5 Kontynuujemy a» do kroku K, czyli uzyskania caªego wektora θ 1). 6 Powtarzamy kroki 1-5 z θ 1) jako wektorem warto±ci startowych. 7 Powtarzamy t sekwencj S razy. 10 / 17
Plan prezentacji Wprowadzenie 1 Wprowadzenie 3 11 / 17
przypadek ogólny Rozwa»my wektor parametrów θ = θ 1, θ,..., θ K ) o nieznanej g sto±ci a posteriori p θ y). Nie mo»emy równie» ustali rozkªadów warunkowych. 1 Wybieramy wektor startowy θ 0) = θ 1, θ,..., θ K ). Losujemy kandydata θ korzystaj c z g sto±ci generuj cej kandydatów, q θ θ 0)). 3 Obliczamy prawdopodobie«stwo akceptacji kandydata, α θ, θ 0)). θ z prawdopodobieństwem α θ, θ 0)) 4 θ 1) = θ 0) z prawdopodobieństwem 1 α θ, θ 0)) 5 Powtarzamy kroki 1-4 z wektorem startowym θ 1). 6 Powtarzamy sekwencj S razy. 1 / 17
przypadek ogólny Rozwa»my wektor parametrów θ = θ 1, θ,..., θ K ) o nieznanej g sto±ci a posteriori p θ y). Nie mo»emy równie» ustali rozkªadów warunkowych. 1 Wybieramy wektor startowy θ 0) = θ 1, θ,..., θ K ). Losujemy kandydata θ korzystaj c z g sto±ci generuj cej kandydatów, q θ θ 0)). 3 Obliczamy prawdopodobie«stwo akceptacji kandydata, α θ, θ 0)). θ z prawdopodobieństwem α θ, θ 0)) 4 θ 1) = θ 0) z prawdopodobieństwem 1 α θ, θ 0)) 5 Powtarzamy kroki 1-4 z wektorem startowym θ 1). 6 Powtarzamy sekwencj S razy. 1 / 17
przypadek ogólny Rozwa»my wektor parametrów θ = θ 1, θ,..., θ K ) o nieznanej g sto±ci a posteriori p θ y). Nie mo»emy równie» ustali rozkªadów warunkowych. 1 Wybieramy wektor startowy θ 0) = θ 1, θ,..., θ K ). Losujemy kandydata θ korzystaj c z g sto±ci generuj cej kandydatów, q θ θ 0)). 3 Obliczamy prawdopodobie«stwo akceptacji kandydata, α θ, θ 0)). θ z prawdopodobieństwem α θ, θ 0)) 4 θ 1) = θ 0) z prawdopodobieństwem 1 α θ, θ 0)) 5 Powtarzamy kroki 1-4 z wektorem startowym θ 1). 6 Powtarzamy sekwencj S razy. 1 / 17
przypadek ogólny Rozwa»my wektor parametrów θ = θ 1, θ,..., θ K ) o nieznanej g sto±ci a posteriori p θ y). Nie mo»emy równie» ustali rozkªadów warunkowych. 1 Wybieramy wektor startowy θ 0) = θ 1, θ,..., θ K ). Losujemy kandydata θ korzystaj c z g sto±ci generuj cej kandydatów, q θ θ 0)). 3 Obliczamy prawdopodobie«stwo akceptacji kandydata, α θ, θ 0)). θ z prawdopodobieństwem α θ, θ 0)) 4 θ 1) = θ 0) z prawdopodobieństwem 1 α θ, θ 0)) 5 Powtarzamy kroki 1-4 z wektorem startowym θ 1). 6 Powtarzamy sekwencj S razy. 1 / 17
przypadek ogólny Rozwa»my wektor parametrów θ = θ 1, θ,..., θ K ) o nieznanej g sto±ci a posteriori p θ y). Nie mo»emy równie» ustali rozkªadów warunkowych. 1 Wybieramy wektor startowy θ 0) = θ 1, θ,..., θ K ). Losujemy kandydata θ korzystaj c z g sto±ci generuj cej kandydatów, q θ θ 0)). 3 Obliczamy prawdopodobie«stwo akceptacji kandydata, α θ, θ 0)). θ z prawdopodobieństwem α θ, θ 0)) 4 θ 1) = θ 0) z prawdopodobieństwem 1 α θ, θ 0)) 5 Powtarzamy kroki 1-4 z wektorem startowym θ 1). 6 Powtarzamy sekwencj S razy. 1 / 17
przypadek ogólny Rozwa»my wektor parametrów θ = θ 1, θ,..., θ K ) o nieznanej g sto±ci a posteriori p θ y). Nie mo»emy równie» ustali rozkªadów warunkowych. 1 Wybieramy wektor startowy θ 0) = θ 1, θ,..., θ K ). Losujemy kandydata θ korzystaj c z g sto±ci generuj cej kandydatów, q θ θ 0)). 3 Obliczamy prawdopodobie«stwo akceptacji kandydata, α θ, θ 0)). θ z prawdopodobieństwem α θ, θ 0)) 4 θ 1) = θ 0) z prawdopodobieństwem 1 α θ, θ 0)) 5 Powtarzamy kroki 1-4 z wektorem startowym θ 1). 6 Powtarzamy sekwencj S razy. 1 / 17
Algorytm MH wybór wektora startowego 1 Arbitralne wskazanie przez u»ytkownika. Losowanie z brzegowych rozkªadów a priori, je»eli mo»liwe. 3 Wielokrotne wybory z analiz wra»liwo±ci. W ka»dym przypadku odcinamy pewn liczb pocz tkowych warto±ci jako burn-in. Przy prawidªowej zbie»no±ci oraz odpowiednio wysokiej liczbie iteracji S) nie powinno to mie znaczenia. 13 / 17
Algorytm MH g sto± generuj ca kandydatów 1 W ogólnym przypadku zakªadamy,»e jest zale»na od bie» cego punktu θ s). Najcz stsz implementacj ) jest Random Walk MH, gdzie losujemy ε N θ s), Σ i rozwa»amy kandydata: θ = θ s) + ε Nie musi tak jednak by. Wówczas mówimy o implementacji Independence Chain MH. Wówczas losujemy kandydatów θ za pomoc g sto±ci q θ θ s)) = q θ) 14 / 17
Algorytm MH g sto± generuj ca kandydatów 1 W ogólnym przypadku zakªadamy,»e jest zale»na od bie» cego punktu θ s). Najcz stsz implementacj ) jest Random Walk MH, gdzie losujemy ε N θ s), Σ i rozwa»amy kandydata: θ = θ s) + ε Nie musi tak jednak by. Wówczas mówimy o implementacji Independence Chain MH. Wówczas losujemy kandydatów θ za pomoc g sto±ci q θ θ s)) = q θ) 14 / 17
Algorytm MH prawdopodobie«stwo akceptacji α 1 Poniewa» q to funkcja umowna, korzystanie z niej bez dodatkowych korekt nie gwarantuje nam uzyskania sekwencji losowa«przybli»aj cych rozkªad a posteriori. 1 Algorytm bez korekt zbyt cz sto pozostaje w obszarach o wysokiej g sto±ci a posteriori. W zwi zku z tym musimy go skorygowa, by dostatecznie dobrze zwiedzi caª dziedzin parametrów. Korekta polega na nieakceptowaniu wszystkich kandydatów wylosowanych na podstawie g sto±ci q. W przypadku braku akceptacji, kolejnym elementem ªa«cucha jest kopia poprzedniego. 1 Ogólny wzór na prawdopodobie«stwo akceptacji zale»y od g sto±ci a posteriori p) oraz g sto±ci generuj cej kandydatów q) dla wektorów: poprzedniego θ s) ) oraz kandydata θ ). Szczegóªy: Koop roz. 5.5). W implementacji Independence Chain: tylko od p i q kandydata 3 W implementacji Random Walk: tylko od p, ale nie q ) [ ] α θ, θ 0) pθ = min y) pθ s 1) y), 1 15 / 17
Algorytm MH prawdopodobie«stwo akceptacji α 1 Poniewa» q to funkcja umowna, korzystanie z niej bez dodatkowych korekt nie gwarantuje nam uzyskania sekwencji losowa«przybli»aj cych rozkªad a posteriori. 1 Algorytm bez korekt zbyt cz sto pozostaje w obszarach o wysokiej g sto±ci a posteriori. W zwi zku z tym musimy go skorygowa, by dostatecznie dobrze zwiedzi caª dziedzin parametrów. Korekta polega na nieakceptowaniu wszystkich kandydatów wylosowanych na podstawie g sto±ci q. W przypadku braku akceptacji, kolejnym elementem ªa«cucha jest kopia poprzedniego. 1 Ogólny wzór na prawdopodobie«stwo akceptacji zale»y od g sto±ci a posteriori p) oraz g sto±ci generuj cej kandydatów q) dla wektorów: poprzedniego θ s) ) oraz kandydata θ ). Szczegóªy: Koop roz. 5.5). W implementacji Independence Chain: tylko od p i q kandydata 3 W implementacji Random Walk: tylko od p, ale nie q ) [ ] α θ, θ 0) pθ = min y) pθ s 1) y), 1 15 / 17
Algorytm MH α versus q Miar jako±ci wyników jest m.in. ±rednie prawdopodobie«stwo akceptacji ᾱ. Okazuje si,»e optymalne warto±ci ᾱ [0, ; 0, 4]. Dostatecznie niskie prawdopodobie«stwo akceptacji oznacza,»e dziedzina g sto±ci a posteriori zostaªa dobrze wyeksplorowana. ᾱ to jednak warto± wynikowa i nie mo»emy jej wprost wybra. Zale»y ona przede wszystkim od doboru g sto±ci generuj cej kandydatów q. W przypadku Random Walk MH, sprowadza si to do odpowiedniego ustalenia wariancji kroku ε, czyli Σ. Relacj mi dzy ᾱ a Σ nale»y zbada w ramach dodatkowej procedury iteracyjnej. Zaczynamy w niej od Σ 0) = c 0) I. W przypadku zbyt wysokiego ᾱ 0) zbyt cz sto akceptujemy, a wi c jeste±my zbyt konserwatywni w zwiedzaniu dziedziny, czyli powinnismy ustali c 1) > c 0). 16 / 17
Rozrzedzanie i zwielokrotnienie ªa«cucha Aby unikn efektu silnej autokorelacji w wygenerowanej sekwencji θ 1), θ ),..., θ S) decydujemy si czasami na jej rozrzedzanie thinning), czyli wybór co m-tego elementu. Eliminacja autokorelacji jest istotna, bo pozwala i) pracowa z równie dªugimi ªa«cuchami ale o lepszej zawarto±ci informacyjnej, ii) uªatwia kalkulacj miar zwi zanych z diagnostyk zbie»no±ci ªa«cucha o tym nast pnym razem). Zasadno± tego zabiegu jest jednak czasami przedmiotem kontrowersji w literaturze. Cz sto decydujemy si na u»ycie wi kszej liczby ªa«cuchów ni» tylko jeden to równie» przydaje si w diagnostyce zbie»no±ci MCMC). Pytanie Generujemy 3 ªa«cuchy po 15 tys. obserwacji dla 4-elementowego wektora parametrów θ. Poªow odrzucamy jako burn-in. Stosujemy dodatkowo rozrzedzanie z m=5. Ile otrzymamy liczb i jakie wymiary powinna mie macierz wyników? 17 / 17