Wielowymiarowy próbnik Gibbsa

Wielkość: px
Rozpocząć pokaz od strony:

Download "Wielowymiarowy próbnik Gibbsa"

Transkrypt

1 Seminarium szkoleniowe 30 maja 2006

2 Plan prezentacji Slgorytm MH i PG przypomnienie wiadomości Wielowymiarowy PG Algorytm PG z dopełnieniem Odwracalny PG Modele hierarchiczne Modele hybrydowe Metropolizacja PG Randomizacia PG

3 Algorytm Metropolisa-Hastingsa przypomnienie Dla zadanej gęstością proponującej g (y x) i dowolnej początkowej wartości x 0, generuj kolejne wyrazy ŁM X 1,..., X n,... w serii następujących kroków: Algorytm 1. MH 1. Wylosuj zmienną Y i 1 z gęstości g (. x i 1 ) 2. Wylosuj punkt X i zgodnie z następują formułą: { Yi 1 z prawd. p (x X i = i 1, Y i ) x i 1 z prawd. 1 p (x i 1, Y i ) gdzie { } f (y) g (x y) p (x, y) = min g (y x) f (x), 1.

4 Własności algorytmu MH Gęstość f (x) jest gęstością stacjonarną dla ŁM wygenerowanego zgodnie z algorytmem MH dla dowolnej gęstości proponującej (instrumentalnej) g (y x). Jeżeli g (y x) > 0, to ŁM generowany przez algorytm MH jest nieprzywiedlny i powracalny w sensie Harrisa. Jeżeli P ( ) f (y) g (x y) 1 < 1, g (y x) f (x) to generowany ŁM jest nieokresowy.

5 Dwuwymiarowy PG przypomnienie Interesuje nas symulowanie wartości (X 0, Y 0 ), (X 1, Y 1 ),... wektora losowego (X, Y) o gęstości łącznej f (x, y). Zakładamy, że umiemy generować zmienne losowe z gęstości warunkowych f X Y (x y) i f Y X (y x). Startując z dowolnie wybranej wartości początkowej x 0, PG losuje kolejne wartości w cyklu następujących kroków: Algorytm 2. PG 2 1. Wylosuj zmienną Y i z gęstości f Y X (. x i 1 ) 2. Wylosuj zmienną X i z gęstości f X Y (. y i ).

6 Własności PG PG może być stosowany do losowania próbek z wektora losowego (X, Y ) o trudnej do generowania gęstości łącznej f (x, y). Podciągi X 0, X 1,... i Y 0, Y 1,... są ŁM, których rozkładami stacjonarnymi są, odpowiednio, gęstości brzegowe f X (.) i f Y (.). Jeżeli interesuje nas generowanie zmiennych o skomplikowanej gęstości f X (.), wówczas możliwe jest wprowadzenie dodatkowej zmiennej Y i wykorzystanie prostszych w generacji gęstości warunkowych f X Y (x y) i f Y X (y x). W takim modelu zmienna Y pełni wówczas funkcję zmiennej pomocniczej.

7 Wielowymiarowy PG W wielowymiarowym PG konstruowany jest ciąg p wymiarowych wektorów losowych o łącznej gęstości f. Niech X = (X 1,..., X p ). W ogólnym przypadku każda z poszczególnych współrzędnych X i też może być wielowymiarowym wektorem losowym. Zakładamy, że możliwe jest efektywne generowanie z poszczególnych gęstości warunkowych X i x 1, x 2,..., x i 1, x i+1,..., x p f i (x i x 1, x 2,..., x i 1, x i+1,..., x p ) Gęstości takie nazywane są jako pełnymi warunkowymi (ang. full conditionals).

8 Wielowymiarowy PG Algorytm 3. Wielowymiarowy PG ( Dla zadanego x (t) = x (t) ) (t) 1,..., x p generuj 1. X (t+1) ( 1 f 1 x 1 x (t) ) (t) 2,..., x p 2. X (t+1) ( 2 f 2 x 2 x (t+1) 1, x (t) ) (t) 3..., x p. p. X p (t+1) ( f p x p x (t+1) 1,..., x (t+1) ) p 1.

9 Przykład: Niech f (y 1, y 2, y 3 ) exp { (y 1 + y 2 + y 3 + θ 12 y 1 y 2 + θ 23 y 2 y 3 + θ 13 y 1 y 3 )} (ang. autoexponential model), ze znanym parametrem θ ij > 0. Pełne gęstości warunkowe są bardzo łatwe go generowania. Przykładowo: Dla odmiany: Y 3 y 1, y 2 Exp (1 + θ 23 y 2 + θ 13 y 1 ). f (y 2 y 1 ) exp ( (y 1 + y 2 + θ 12 y 1 y 2 )) 1 + θ 23 y 2 + θ 31 y 1 f (y 1 ) e y exp ( y 1 2 θ 12 y 1 y 2 ) dy θ 23 y 2 + θ 31 y 1 nie dają się już łatwo wygenerować. 0

10 Algorytm MH a PG Twierdzenie 1. Wielowymiarowy PG jest równoważny połączeniu ze sobą p algorytmów MH o prawdopodobieństwach akceptacji równych zawsze jeden. Mimo teoretycznej równoważności istnieją pewne różnice w praktycznym stosowaniu wspomnianych algorytmów: PG wymaga minimum znajomości poszczególnych pełnych warunkowych gęstości wraz z umiejętnością symulowania wartości zmiennych losowych dla tych gęstości. PG jest z natury wielowymiarowy. Sama jego konstrukcja wymaga stosowania minimum dwuwymiarowych zmiennych losowych. W PG każda z proponowanych wartości jest zawsze akceptowana, podczas gdy dla algorytmu MH zdarzają się odrzucenia nowych wartości na korzyść starych

11 Dopełnienie Definicja 1. Dla zadanej funkcji gęstości f, gęstość g spełniająca następujący warunek: g (x, z) dz = f (x) Z zwana jest dopełnieniem f. Gęstość g wybierana jest w taki sposób, aby pełne gęstości warunkowe były łatwe do symulacji. Niech y = (x, z) oraz Y 1 y 2,..., y p g 1 (y 1 y 2,..., y p ) Y 2 y 1, y 3,..., y p g 2 (y 2 y 1, y 3,..., y p ) Y p y 1, y 3,..., y p 1 g p (y p y 1, y 3,..., y p 1 ) oznaczają pełne gęstości warunkowe g (y) = g (y 1,..., y p )..

12 Dopełnienie Algorytm 4. PG z dopełnieniem ( Dla zadanego y (t) = y (t) ) (t) 1,..., y p generuj 1. Y (t+1) ( 1 g 1 y 1 y (t) ) (t) 2,..., y p 2. Y (t+1) ( 2 g 2 y 2 y (t+1) 1, y (t) ) (t) 3..., y p. 3. Y p (t+1) ( g p y p y (t+1) 1,..., y (t+1) ) p 1.

13 Przykład: Rozważmy następującą gęstość a posteriori (ang. Cauchy-Norlam posterior distribution): f (θ θ 0 ) e θ2 /2 [1 + (θ θ 0 ) 2] v Jest to rozkład a posteriori otrzymany z modelu X θ N (θ, 1) θ C (θ 0, 1). Gęstość f (θ θ 0 ) można zapisać jako: f (θ θ 0 ) 0 e θ2 /2 e [1 (θ θ 0) 2 ]η/2 η v 1 dη

14 Zatem: g 1 (η θ) = g 1 (θ η) = gdzie: g (θ, η) e θ2 /2 e [1+(θ+θ 0) 2 ]η/2 η v 1 ( 1 + (θ θ0 ) 2 2 { 1 + η 2π exp ) v η v 1 { [ Γ (v) exp 1 + (θ + θ 0 ) 2] } η/2 ( θ ηθ η ) } η ( η θ Ga v, 1 + (θ θ 0) 2 ) 2 ( ηθ0 θ η N 1 + η, 1 + η ) 2 2

15 Odwracalny PG Algorytm 4 zwany jest czasami PG z systematic scan. Takie losowanie prowadzi do nieodwracalnych ŁM. Można jednak lekko zmodyfikować ( algorytm 4, tak aby generował odwracalne łańcuchy Y (t)). Przypomnienie: ŁM nazwiemy odwracalnym, jeżeli zmienna X n+1 X n = x ma ten sam rozkład co zmienna X n X n+1 = x. Innymi słowy, odwracalny łańcuch posiada własność odwracalności w czasie. Zamiana kolejności kroków w ciągu nie wpływa na prawdopodobieństwo przejść pomiędzy krokami.

16 Odwracalny PG Algorytm 4.1. ( Odwracalny PG Dla zadanego y (t) ) (t) 2,..., y p generuj ( 1. Y1 g 1 y 1 y (t) ) (t) 2,..., y p ( 2. Y2 g 2 y 2 y1, y (t) ) (t) 3..., y p. ( p-1 Yp 1 g p 1 y p 1 y1,..., y p 2, y p (t) ) p Y p (t+1) ) g p (y p y1,..., y p 1 p+1 Y (t+1) ( p 1 g p 1 y p 1 y1,..., y p 2, y p (t+1) ). 2p-1 Y (t+1) ( 1 g 1 y 1 y (t+1) 2,..., y p (t+1) )

17 Odwracalny PG Liu (1995) zaproponował alternatywę dla algorytmu 4.1, tzw. PG z random scan. Symulacje poszczególnych składowych y wykonywane są z uwzględnieniem losowej kolejności każdej transformacji. Algorytm 4.2. Odwracalny PG Random Scan 1 Generuj permutację σ G p ; 2 Y σ (t+1) ( 1 g σ1 y σ1 y (t) ) j, j σ 1. p+1 Y (t+1) σ p g σp ( y σp y (t+1) j, j σ p )

18 Twierdzenie Hammersleya-Clifforda Twierdzenie 1. Hammersleya-Clifforda Przy założeniu warunku dodatniości, łączna gęstość g spełnia warunek: ( ) p g Lj y Lj y L1,...,y Lj 1, y L j+1,..., g (y 1,..., y p ) y L p ( ) g Lj y L j y L1,...,y Lj 1, y L j+1,..., y (1) L p j=1 dla każdej permutacji L na {1, 2,..., p} oraz dla każdego y Y. ( Przypomnienie. Niech X = X (1), X (2),..., X (m)) będzie m-wymiarowym wektorem losowym o gęstości łącznej f X (x (1), x (2),..., x (m)) a f X (i) (.) gęstością brzegową zmiennej x (i). Powiemy, że f X spełnia warunek dodatniości jeżeli (i = 1,..., m) f X (i) (x (i)) ( > 0 f X x (1), x (2),..., x (m)) > 0.

19 Niespójny nośnik ( Twierdzenie 3. Dla PG (algorytmu 4), jeżeli Y (t)) jest ergodyczny, ( wówczas gęstość g jest gęstością stacjonarną łańcucha Y (t)) ( a gęstość f jest gęstością graniczną podłańcuchów X (t)). Twierdzenie 4. Dla PG (algorytm 4), jeżeli gęstość g spełnia warunek dodatniości, to łańcuch wynikowy jest nieprzywiedlny.

20 Przykład Niech ε oraz ε oznaczają dyski w R 2 o promieniu 1 oraz środkach odpowiednio w punktach (1, 1) oraz ( 1, 1). Rozważmy rozkład o gęstości: f (x 1, x 2 ) = 1 2π {I ε (x 1, x 2 ) + I ε (x 1, x 2 )}

21 Przykład Poblem: Dla powyższego rozkładu nie można wygenerować nieprzywiedrlnych ŁM, przy użyciu algorytmu 4, ponieważ wynikowe łańcuchy koncentują się na tej ćwiartce, na której zostały zainicjalizowane. Rozwiązanie: Łatwo zauważyć, że problem ten można obejśc zmieniając współżędne w następując sposób: z 1 = x 1 + x 2 oraz z 2 = x 1 x 2.

22 Twierdzenie 6. ŁM wygenerowany PG jest nieprzywiedlny i nieokresowy, jeżeli gęstości warunkowe spełniają następujące warunki: ( ) Niech y = (y 1,...y p ) oraz y = y 1,...y p oraz istnieje δ > 0 dla którego y, y sup p (g), y y < δ oraz ( ) g i y i y 1,..., y i 1, y i+1,..., y p > 0, i = 1,..., p Jeżeli istnieje δ < δ, dla którego prawie każda para (y, y ) sup (g) może być połączona skończoną liczbą kul o promieniu δ, mających niepuste przecięcia. Pierwszy warunek stwierdza, iż istnieje niezerowe prawd. przejścia pomiędzy dwoma dowolnymi, dostatecznie bliskimi siebie stanami y, y. Drugi wymaga, aby PG miałspójny nośnik.

23 Struktury hierarchiczne Modele hierarchiczne są to struktury, w których gęstość f może być zapisana jako f (x) = f 1 (x z 1 ) f 2 (z 1 z 2 ) f I (z I z I +1 ) f I +1 (z I +1 ) d z1 d zi +1 Takie modele są często spotykane w analizie Bbayesowskiej. W złożonych modelach informacja a priori wymaga często wprowadzenia kilkunastu poziomów gęstości a priori.

24 Przykład: Infekcje zwierząt Niech X i P (λ i ), i = 1,..., m oznacza liczbę infekcji w i tym stadzie. λ i - stopień infekcji w i tym stadzie. Specyfikacja hierarchiczna dla tego modelu wygl ąda następująco: X i P (λ i ) λ i Ga (α, β i ) β i Ga (a, b) gdzie α, a, b są ustalone. Gęstości a posteriori parametru λ i, π (λ i x, α) mogą być generowane przy użyciu PG: λ i π (λ i x, α, β i ) = Ga (x i + α, 1 + β i ) β i π (β i x, a, b, λ i ) = Ga (α + a, λ i + b)

25

26 Przykład: Zbieżność jednostajna modeli hierarchicznych Dla niektórych klas modeli hierarchicznych można wykazać, iż łańcuchy generowane przez PG są są jednostajnie zbieżne. Przykład: Liczba awarii oraz czas obserwacji 10 pomp w elektrowni jądrowej

27 Zakładamy, że awarie i tej pompy można opisać rozkładem Poissona z parametrem λ i (1 i 10). Dla każdego obserwowanego czasu t i liczba awarii p i jest zmienną losową o rozkładzie Poissona P (λ i t i ). Odpowiednie rozkłady a priori są następujące: λ i iid Ga (α, β) β Ga (γ, δ) z α = 1.8, γ = 0.01, δ = 1. Rozkład łączej gęstości jest następujący: π (λ 1,..., λ 10, β t 1,..., t 10, p 1,..., p 10 ) 10 { (λ i t i ) p i e λ i t i λi α 1 e βλ i i=1 10 i=1 } β 10α β γ 1 e δβ { λ p i +α 1 i e (t i +β)λ i } β 10α+γ 1 e δβ

28 Naturalna dekompozycja, odzwierciedlająca hierarchiczną strukturę π jest następująca: λ i β, t i, p i Ga (p i + α, t i + β) ( β λ 1,..., λ 10 Ga γ + 10α, δ + 10 i=1 λ i ) Dla zadanej dekompozycji i jądra przejścia β, powstałego w wyniku działania algorytmu 4, mamy: K ( β, β ) = (β ) γ+10α 1 ( δ + Γ (10α + γ) 10 i=1 10 i=1 λ i ) γ+10α exp { β ( δ + )} 10 λ i i=1 (t i + β) p i +α Γ (p i + α) λp i +α 1 i exp { (t i + β) λ i } dλ 1...dλ 10 δγ+10α (β ) γ+10α 1 Γ (10α + γ) e δβ 10 i=1 ( ti ) pi +α t i + β

29 Uwaga: Powyższe ograniczenie na jądro przejścia (które nie zależy od β) pozwala wnioskować, że cała przestrzeń R + jest zbiorem małym dla tego jądra przejścia. Zatem łańcuch (β t ) jest zbieżny jednostajnie. Ta jednostajna zbieżność pociąga za sobą jednostajną zbieżność łańcucha λ t = (λ t 1,..., λt 10 ) Przypomienie: Zbiór C X nazwiemy zbiorem małym, jeśli istnieje m N i miara v m > 0, taka, że dla każdego x C i każdego A B(X ) zachodzi: P(X m A X 0 = x) v m (A) Innymi słowy, dowolne zdarzenie A jest osiągalne po pewnej liczbie kroków ze zbioru małego C.

30 Hybrydowe próbniki Gibbsa Rozważmy następującą mieszaninę rozkładów normalnych p 1 N 2 (µ 1, Σ 1 ) + p 2 N 2 (µ 2, Σ 2 ) + p 3 N 2 (µ 3, Σ 3 ) (2)

31 Hybrydowe próbniki Gibbsa Hybrydowy algorytm MCMC jest metodą opartą na ŁM generowanych jednocześnie przy pomocy PG i algorytmu MH. Niech K 1,..., K n będą jądrami przejścia dla kroków pewnego algorytmu generującego ŁM. Dodatkowo, niech (α 1,..., α n ) oznacza rozkład prawdopodobieństwa. Mieszaniną nazwiemy algorytm związany z jądrem K = α 1 K α n K n Cyklem nazwiemy algorytm związany z jądrem K = K 1... K n gdzie symbol oznacza złożenie funkcji.

32 Hybrydowe próbniki Gibbsa Twierdzenie 7. Jeżeli K 1 i K 2 są jądrami z tymi samymi rozkładami stacjonarymi f oraz jeżeli K 1 generuje jednostajnie zbieżne ŁM, to mieszanina K = αk 1 + (1 α) K 2 (0 < α < 1) jest również zbieżna jednostajnie. Dodatkowo, jeżeli X jest małym zbiorem dla K 1, z m = 1, wówczas jądra cykli K 1 K 2 i K 2 K 1 są również zbieżne jednostajnie.

33 Hybrydowe próbniki Gibbsa Przykład [Nobile (1998)] Poniższy przykład pokazuje, jak wprowadzenie kroków MH do PG może przyspieszyć przeszukiwanieę nośnika gęstości. Rozważmy model, definiowany przez zmienną losową D i (1 i n) taką, że (1 j 2) P (D i = 1) = 1 P (D i = 0) = P (Z i 0) z Z i N ( R i β, σ 2), β R, R i jest zmienną towarzyszącą. Dla gęstości a priori σ 2 Ga (1.5, 1.5) β σ N (0, 10 2)

34

35 Nobile poprawił powyższy model, wprowadzając krok MH po każdym cyklu PG. Gęstość proponująca przeskalowuje jedynie obecną wartość ŁM y (t) przez losowo wybrany współczynnik c otrzymany z rozkładu wykładniczego Exp (1). Przeskalowana wartość cy (t) jest akceptowana lub odrzucana zgodnie ze schematem algorytmu MH. Rysunek 10.5 pokazuje poprawę otrzymaną przez zastosowanie tego hybrydowego schematu. Teraz próbka MCMC pokrywa znaczną większość nośnika gęstości a posteriori po tej samej liczbie iteracji.

36

37 Metropolizacja próbnika Gibbsa Algorytm 5. Metropolizacja ( PG Dla i = 1,..., p, zadane y (t+1) 1,..., y (t+1) i 1, y (t) i,..., y p (t) ) : 1. wygeneruj ( ỹ i q i y i y (t+1) 1,..., y (t), y (t) ) (t),..., y p 2. weź gdzie { y (t+1) i = i i+1 y (t) i z prawd. 1 ρ ỹ i z prawd. ρ ( ) g i ỹ i y (t+1) 1,...,y (t+1) i 1,y (t) (t) i+1,...,y p ( ) q i ỹ i y (t+1) 1,...,y (t+1) i 1,y (t) i,y (t) (t) i+1...,y p ρ = 1 ( ). g i y (t) i y (t+1) 1,...,y (t+1) i 1,y (t) (t) i+1,...,y p ( ) q i y (t) i y (t+1) 1,...,y (t+1) i 1,ỹ i,y (t) (t) i+1...,y p

38 Parametryzacja a zbieżność PG Zbieżność próbnika Gibbsa i algorytmu MH może być powolna z powodu złego doboru parametryzacji. W literaturze przedmiotu rozważano zmiany w parametryzacji modelu jako możliwość przyspieszenia zbieżności PG. Generalna zasada parametryzacji mówi o tym, aby brać komponenty jak najbardziej niezależne.

39 Parametryzacja a zbieżność PG Przykład: Model o losowych efektach Y ij = µ + α i + ε ij, i = 1,..., I, j = 1,..., J gdzie α i N ( ( ) 0, σα) 2 i εij N 0, σy 2. PG zaimplementowany dla parametryzacji (µ, α 1,..., α I ) wykazuje wysoką korelację i w konsekwencji słabą zbieżność, jeżeli σy 2 / ( IJσα) 2 jest duże. Jeżeli model zapisać używając struktury hierarchię ( ) ( ) Y ij N η i, σy 2, η i N µ, σα 2, korelacja pomiędzy elementami η i oraz pomiędzy µ a η i będzie mniejsza.

40 Losowy PG Algorytm 6. Randomizacja PG Dla zadanego y (t) 1. wybierz składnik v σ 2. generuj Y v (t+1) ( g v y v y (t) ), j v 3. y (t+1) j = y (t) j dla j v. j ( Twierdzenie Łańcuch Y (t)) generowany przez algorytm 6 ma własność ( ( taką, że dla każdej funkcji h L 2 (g) kowariancja cov h Y (0)) (, h Y (t))) jest dodatnia i maleje wraz ze wzrostem t.

41

Algorytm Metropolisa-Hastingsa

Algorytm Metropolisa-Hastingsa Seminarium szkoleniowe, 25 kwietnia 2006 Plan prezentacji 1 Problem Metoda MCMC 2 Niezależny algorytm Metropolisa-Hastingsa Bła dzenie losowe Zbieżność procedury Metropolisa-Hastingsa Problem Metoda MCMC

Bardziej szczegółowo

Geometryczna zbieżność algorytmu Gibbsa

Geometryczna zbieżność algorytmu Gibbsa Geometryczna zbieżność algorytmu Gibbsa Iwona Żerda Wydział Matematyki i Informatyki, Uniwersytet Jagielloński 6 grudnia 2013 6 grudnia 2013 1 / 19 Plan prezentacji 1 Algorytm Gibbsa 2 Tempo zbieżności

Bardziej szczegółowo

REGRESJA LINIOWA Z UOGÓLNIONĄ MACIERZĄ KOWARIANCJI SKŁADNIKA LOSOWEGO. Aleksander Nosarzewski Ekonometria bayesowska, prowadzący: dr Andrzej Torój

REGRESJA LINIOWA Z UOGÓLNIONĄ MACIERZĄ KOWARIANCJI SKŁADNIKA LOSOWEGO. Aleksander Nosarzewski Ekonometria bayesowska, prowadzący: dr Andrzej Torój 1 REGRESJA LINIOWA Z UOGÓLNIONĄ MACIERZĄ KOWARIANCJI SKŁADNIKA LOSOWEGO Aleksander Nosarzewski Ekonometria bayesowska, prowadzący: dr Andrzej Torój 2 DOTYCHCZASOWE MODELE Regresja liniowa o postaci: y

Bardziej szczegółowo

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski Modelowanie zależności pomiędzy zmiennymi losowymi Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski P Zmienne losowe niezależne - przypomnienie Dwie rzeczywiste zmienne losowe X i Y

Bardziej szczegółowo

Prawdopodobieństwo i statystyka r.

Prawdopodobieństwo i statystyka r. Zadanie. Niech (X, Y) ) będzie dwuwymiarową zmienną losową, o wartości oczekiwanej (μ, μ, wariancji każdej ze współrzędnych równej σ oraz kowariancji równej X Y ρσ. Staramy się obserwować niezależne realizacje

Bardziej szczegółowo

Algorytmy MCMC i ich zastosowania statystyczne

Algorytmy MCMC i ich zastosowania statystyczne Algorytmy MCMC i ich zastosowania statystyczne Wojciech Niemiro Uniwersytet Mikołaja Kopernika, Toruń i Uniwersytet Warszawski Statystyka Matematyczna Wisła, grudzień 2010 Wykład 3 1 Łańcuchy Markowa Oznaczenia

Bardziej szczegółowo

Algorytmy MCMC i ich zastosowania statystyczne

Algorytmy MCMC i ich zastosowania statystyczne Algorytmy MCMC i ich zastosowania statystyczne Wojciech Niemiro Uniwersytet Mikołaja Kopernika, Toruń i Uniwersytet Warszawski Statystyka Matematyczna Wisła, grudzień 2010 Wykład 2 1 Podstawowe idee symulacji

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa

Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa M. Czoków, J. Piersa 2012-01-10 1 Łańcucha Markowa 2 Istnienie Szukanie stanu stacjonarnego 3 1 Łańcucha Markowa 2 Istnienie Szukanie stanu stacjonarnego

Bardziej szczegółowo

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład Rozdział 1 Wektory losowe 1.1 Wektor losowy i jego rozkład Definicja 1 Wektor X = (X 1,..., X n ), którego każda współrzędna jest zmienną losową, nazywamy n-wymiarowym wektorem losowym (krótko wektorem

Bardziej szczegółowo

Procesy stochastyczne

Procesy stochastyczne Wykład I: Istnienie procesów stochastycznych 21 lutego 2017 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova

Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova M. Czoków, J. Piersa 2010-12-21 1 Definicja Własności Losowanie z rozkładu dyskretnego 2 3 Łańcuch Markova Definicja Własności Losowanie z rozkładu

Bardziej szczegółowo

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych 1. [E.A 5.10.1996/zad.4] Funkcja gęstości dana jest wzorem { 3 x + 2xy + 1 y dla (x y) (0 1) (0 1) 4 4 P (X > 1 2 Y > 1 2 ) wynosi:

Bardziej szczegółowo

Procesy stochastyczne

Procesy stochastyczne Wykład I: Istnienie procesów stochastycznych 2 marca 2015 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane są

Bardziej szczegółowo

Algorytmy MCMC i ich zastosowania statystyczne

Algorytmy MCMC i ich zastosowania statystyczne Algorytmy MCMC i ich zastosowania statystyczne Wojciech Niemiro Uniwersytet Mikołaja Kopernika, Toruń i Uniwersytet Warszawski Statystyka Matematyczna Wisła, grudzień 2010 Wykład 1 1 Co to jest MCMC? 2

Bardziej szczegółowo

Zadanie 1. Liczba szkód N w ciągu roku z pewnego ryzyka ma rozkład geometryczny: k =

Zadanie 1. Liczba szkód N w ciągu roku z pewnego ryzyka ma rozkład geometryczny: k = Matematyka ubezpieczeń majątkowych 0.0.006 r. Zadanie. Liczba szkód N w ciągu roku z pewnego ryzyka ma rozkład geometryczny: k 5 Pr( N = k) =, k = 0,,,... 6 6 Wartości kolejnych szkód Y, Y,, są i.i.d.,

Bardziej szczegółowo

Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX = 4 i EY = 6. Rozważamy zmienną losową Z =.

Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX = 4 i EY = 6. Rozważamy zmienną losową Z =. Prawdopodobieństwo i statystyka 3..00 r. Zadanie Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX 4 i EY 6. Rozważamy zmienną losową Z. X + Y Wtedy (A) EZ 0,

Bardziej szczegółowo

19 marzec, Łańcuchy Markowa z czasem dyskretnym. Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136

19 marzec, Łańcuchy Markowa z czasem dyskretnym. Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 19 marzec, 2012 Przykłady procesów Markowa (i). P = (p ij ) - macierz stochastyczna, tzn. p ij 0, j p ij =

Bardziej szczegółowo

Komputerowa analiza danych doświadczalnych

Komputerowa analiza danych doświadczalnych Komputerowa analiza danych doświadczalnych Wykład 3 11.03.2016 dr inż. Łukasz Graczykowski lgraczyk@if.pw.edu.pl Wykłady z poprzednich lat (dr inż. H. Zbroszczyk): http://www.if.pw.edu.pl/~gos/student

Bardziej szczegółowo

Wstęp do Rachunku Prawdopodobieństwa, IIr. WMS

Wstęp do Rachunku Prawdopodobieństwa, IIr. WMS Wstęp do Rachunku Prawdopodobieństwa, IIr. WMS przykładowe zadania na. kolokwium czerwca 6r. Poniżej podany jest przykładowy zestaw zadań. Podczas kolokwium na ich rozwiązanie przeznaczone będzie ok. 85

Bardziej szczegółowo

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów Rozdział : Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów W tym rozdziale omówione zostaną dwie najpopularniejsze metody estymacji parametrów w ekonometrycznych modelach nieliniowych,

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład VII: Metody specjalne Monte Carlo 24 listopada 2014 Transformacje specjalne Przykład - symulacja rozkładu geometrycznego Niech X Ex(λ). Rozważmy zmienną losową [X ], która przyjmuje wartości naturalne.

Bardziej szczegółowo

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki WYKŁAD 6 Witold Bednorz, Paweł Wolff 1 Instytut Matematyki Uniwersytet Warszawski Rachunek Prawdopodobieństwa, WNE, 2010-2011 Własności Wariancji Przypomnijmy, że VarX = E(X EX) 2 = EX 2 (EX) 2. Własności

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład XV: Zagadnienia redukcji wymiaru danych 2 lutego 2015 r. Standaryzacja danych Standaryzacja danych Własności macierzy korelacji Definicja Niech X będzie zmienną losową o skończonym drugim momencie.

Bardziej szczegółowo

N ma rozkład Poissona z wartością oczekiwaną równą 100 M, M M mają ten sam rozkład dwupunktowy o prawdopodobieństwach:

N ma rozkład Poissona z wartością oczekiwaną równą 100 M, M M mają ten sam rozkład dwupunktowy o prawdopodobieństwach: Zadanie. O niezależnych zmiennych losowych N, M M, M 2, 3 wiemy, że: N ma rozkład Poissona z wartością oczekiwaną równą 00 M, M M mają ten sam rozkład dwupunktowy o prawdopodobieństwach: 2, 3 Pr( M = )

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład IV: 27 października 2014 Współczynnik korelacji Brak korelacji a niezależność Definicja współczynnika korelacji Współczynnikiem korelacji całkowalnych z kwadratem zmiennych losowych X i Y nazywamy

Bardziej szczegółowo

Testowanie hipotez. Hipoteza prosta zawiera jeden element, np. H 0 : θ = 2, hipoteza złożona zawiera więcej niż jeden element, np. H 0 : θ > 4.

Testowanie hipotez. Hipoteza prosta zawiera jeden element, np. H 0 : θ = 2, hipoteza złożona zawiera więcej niż jeden element, np. H 0 : θ > 4. Testowanie hipotez Niech X = (X 1... X n ) będzie próbą losową na przestrzeni X zaś P = {P θ θ Θ} rodziną rozkładów prawdopodobieństwa określonych na przestrzeni próby X. Definicja 1. Hipotezą zerową Θ

Bardziej szczegółowo

dla t ściślejsze ograniczenie na prawdopodobieństwo otrzymujemy przyjmując k = 1, zaś dla t > t ściślejsze ograniczenie otrzymujemy przyjmując k = 2.

dla t ściślejsze ograniczenie na prawdopodobieństwo otrzymujemy przyjmując k = 1, zaś dla t > t ściślejsze ograniczenie otrzymujemy przyjmując k = 2. Zadanie. Dla dowolnej zmiennej losowej X o wartości oczekiwanej μ, wariancji momencie centralnym μ k rzędu k zachodzą nierówności (typu Czebyszewa): ( X μ k Pr > μ + t σ ) 0. k k t σ *

Bardziej szczegółowo

Redukcja wariancji w metodach Monte-Carlo

Redukcja wariancji w metodach Monte-Carlo 14.02.2006 Seminarium szkoleniowe 14 lutego 2006 Plan prezentacji Wprowadzenie Metoda losowania warstwowego Metoda próbkowania ważonego Metoda zmiennych kontrolnych Metoda zmiennych antytetycznych Metoda

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład XIV: Metody Monte Carlo 19 stycznia 2016 Przybliżone obliczanie całki oznaczonej Rozważmy całkowalną funkcję f : [0, 1] R. Chcemy znaleźć przybliżoną wartość liczbową całki 1 f (x) dx. 0 Jeden ze

Bardziej szczegółowo

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy bez pamięci w których czas i stany są zbiorami dyskretnymi. Procesy stochastyczne WYKŁAD 2-3 Łańcuchy Markowa Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi. 2 Łańcuchem Markowa nazywamy proces będący ciągiem zmiennych

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład II: Zmienne losowe i charakterystyki ich rozkładów 13 października 2014 Zmienne losowe Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Definicja zmiennej losowej i jej

Bardziej szczegółowo

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe Nierówność Czebyszewa Niech X będzie zmienną losową o skończonej wariancji V ar(x). Wtedy wartość oczekiwana E(X) też jest skończona i

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład VII: Rozkład i jego charakterystyki 22 listopada 2016 Uprzednio wprowadzone pojęcia i ich własności Definicja zmiennej losowej Zmienna losowa na przestrzeni probabilistycznej (Ω, F, P) to funkcja

Bardziej szczegółowo

Seria 1. Zbieżność rozkładów

Seria 1. Zbieżność rozkładów Seria Zbieżność rozkładów We wszystkich poniższych zadaniach (E, ρ) jest przestrzenią metryczną Wykazać, że dla dowolnych x, x n, δ xn δ x wtedy i tylko wtedy, gdy x n x Sprawdzić, że n nk= δ k n λ, gdzie

Bardziej szczegółowo

Elementy modelowania matematycznego

Elementy modelowania matematycznego Elementy modelowania matematycznego Łańcuchy Markowa: zagadnienia graniczne. Ukryte modele Markowa. Jakub Wróblewski jakubw@pjwstk.edu.pl http://zajecia.jakubw.pl/ KLASYFIKACJA STANÓW Stan i jest osiągalny

Bardziej szczegółowo

Parametr Λ w populacji ubezpieczonych ma rozkład dany na półosi dodatniej gęstością: 3 f

Parametr Λ w populacji ubezpieczonych ma rozkład dany na półosi dodatniej gęstością: 3 f Zadanie. W kolejnych latach t =,,,... ubezpieczony charakteryzujący się parametrem ryzyka Λ generuje N t szkód. Dla danego Λ = λ zmienne N, N, N,... są warunkowo niezależne i mają (brzegowe) rozkłady Poissona:

Bardziej szczegółowo

Spacery losowe generowanie realizacji procesu losowego

Spacery losowe generowanie realizacji procesu losowego Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z

Bardziej szczegółowo

Algorytmy MCMC (Markowowskie Monte Carlo) dla skokowych procesów Markowa

Algorytmy MCMC (Markowowskie Monte Carlo) dla skokowych procesów Markowa Algorytmy MCMC (Markowowskie Monte Carlo) dla skokowych procesów Markowa Wojciech Niemiro 1 Uniwersytet Warszawski i UMK Toruń XXX lat IMSM, Warszawa, kwiecień 2017 1 Wspólne prace z Błażejem Miasojedowem,

Bardziej szczegółowo

Matematyka ubezpieczeń majątkowych r.

Matematyka ubezpieczeń majątkowych r. Matematyka ubezpieczeń majątkowych 4.04.0 r. Zadanie. Przy danej wartości λ parametru ryzyka Λ liczby szkód generowane przez ubezpieczającego się w kolejnych latach to niezależne zmienne losowe o rozkładzie

Bardziej szczegółowo

jest ciągiem elementów z przestrzeni B(R, R)

jest ciągiem elementów z przestrzeni B(R, R) Wykład 2 1 Ciągi Definicja 1.1 (ciąg) Ciągiem w zbiorze X nazywamy odwzorowanie x: N X. Dla uproszczenia piszemy x n zamiast x(n). Przykład 1. x n = n jest ciągiem elementów z przestrzeni R 2. f n (x)

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium JAVA Zadanie nr 2 Rozpoznawanie liter autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z problemem klasyfikacji

Bardziej szczegółowo

1 Wykład 3 Generatory liczb losowych o dowolnych rozkładach.

1 Wykład 3 Generatory liczb losowych o dowolnych rozkładach. Wykład 3 Generatory liczb losowych o dowolnych rozkładach.. Metoda odwracania Niech X oznacza zmienna losowa o dystrybuancie F. Oznaczmy F (t) = inf (x : t F (x)). Uwaga Zauważmy, że t [0, ] : F ( F (t)

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład XIII: Prognoza. 26 stycznia 2015 Wykład XIII: Prognoza. Prognoza (predykcja) Przypuśćmy, że mamy dany ciąg liczb x 1, x 2,..., x n, stanowiących wyniki pomiaru pewnej zmiennej w czasie wielkości

Bardziej szczegółowo

Rozpoznawanie obrazów

Rozpoznawanie obrazów Rozpoznawanie obrazów Ćwiczenia lista zadań nr 7 autorzy: A. Gonczarek, J.M. Tomczak Przykładowe problemy Klasyfikacja binarna Dla obrazu x zaproponowano dwie cechy φ(x) = (φ 1 (x) φ 2 (x)) T. Na obrazie

Bardziej szczegółowo

Statystyka i eksploracja danych

Statystyka i eksploracja danych Wykład XII: Zagadnienia redukcji wymiaru danych 12 maja 2014 Definicja Niech X będzie zmienną losową o skończonym drugim momencie. Standaryzacją zmiennej X nazywamy zmienną losową Z = X EX Var (X ). Definicja

Bardziej szczegółowo

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie Jarosław Kotowicz Instytut Matematyki Uniwersytet w

Bardziej szczegółowo

SPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization

SPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization Wrocław University of Technology SPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization Jakub M. Tomczak Studenckie Koło Naukowe Estymator jakub.tomczak@pwr.wroc.pl 4.1.213 Klasteryzacja Zmienne

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 2 autorzy: A. Gonczarek, J.M. Tomczak Metody estymacji Zad. 1 Pojawianie się spamu opisane jest zmienną losową x o rozkładzie dwupunktowym

Bardziej szczegółowo

Agata Boratyńska Statystyka aktuarialna... 1

Agata Boratyńska Statystyka aktuarialna... 1 Agata Boratyńska Statystyka aktuarialna... 1 ZADANIA NA ĆWICZENIA Z TEORII WIAROGODNOŚCI Zad. 1. Niech X 1, X 2,..., X n będą niezależnymi zmiennymi losowymi z rozkładu wykładniczego o wartości oczekiwanej

Bardziej szczegółowo

PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω)

PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω) PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω) określonych na tej samej przestrzeni probabilistycznej

Bardziej szczegółowo

Rozpoznawanie obrazów

Rozpoznawanie obrazów Rozpoznawanie obrazów Ćwiczenia lista zadań nr 5 autorzy: A. Gonczarek, J.M. Tomczak Przykładowe problemy Klasyfikacja binarna Dla obrazu x zaproponowano dwie cechy φ(x) = (φ 1 (x) φ 2 (x)) T. Na obrazie

Bardziej szczegółowo

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa Spis treści Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa Romuald Kotowski Katedra Informatyki Stosowanej PJWSTK 2009 Spis treści Spis treści 1 Wstęp Bardzo często interesujący

Bardziej szczegółowo

1 Gaussowskie zmienne losowe

1 Gaussowskie zmienne losowe Gaussowskie zmienne losowe W tej serii rozwiążemy zadania dotyczące zmiennych o rozkładzie normalny. Wymagana jest wiedza na temat własności rozkładu normalnego, CTG oraz warunkowych wartości oczekiwanych..

Bardziej szczegółowo

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 13 i 14 - Statystyka bayesowska

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 13 i 14 - Statystyka bayesowska WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 13 i 14 - Statystyka bayesowska Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 13 i 14 1 / 15 MODEL BAYESOWSKI, przykład wstępny Statystyka

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład XI: Testowanie hipotez statystycznych 12 stycznia 2015 Przykład Motywacja X 1, X 2,..., X N N (µ, σ 2 ), Y 1, Y 2,..., Y M N (ν, δ 2 ). Chcemy sprawdzić, czy µ = ν i σ 2 = δ 2, czyli że w obu populacjach

Bardziej szczegółowo

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne 5.3 Rozkłady warunkowe i warunkowa wartość oczekiwana Katarzyna Rybarczyk-Krzywdzińska semestr zimowy 2015/2016 Prawdopodobieństwo wyraża postawę

Bardziej szczegółowo

Matematyka ubezpieczeń majątkowych r.

Matematyka ubezpieczeń majątkowych r. Matematyka ubezpieczeń majątkowych 3..007 r. Zadanie. Każde z ryzyk pochodzących z pewnej populacji charakteryzuje się tym że przy danej wartości λ parametru ryzyka Λ rozkład wartości szkód z tego ryzyka

Bardziej szczegółowo

Ekonometria Bayesowska

Ekonometria Bayesowska Ekonometria Bayesowska Wykªad 9: Metody numeryczne: MCMC Andrzej Torój 1 / 17 Plan wykªadu Wprowadzenie 1 Wprowadzenie 3 / 17 Plan prezentacji Wprowadzenie 1 Wprowadzenie 3 3 / 17 Zastosowanie metod numerycznych

Bardziej szczegółowo

Matematyka ubezpieczeń majątkowych r.

Matematyka ubezpieczeń majątkowych r. Matematyka ubezpieczeń majątkowych 0.0.005 r. Zadanie. Likwidacja szkody zaistniałej w roku t następuje: w tym samym roku z prawdopodobieństwem 0 3, w następnym roku z prawdopodobieństwem 0 3, 8 w roku

Bardziej szczegółowo

1 Relacje i odwzorowania

1 Relacje i odwzorowania Relacje i odwzorowania Relacje Jacek Kłopotowski Zadania z analizy matematycznej I Wykazać, że jeśli relacja ρ X X jest przeciwzwrotna i przechodnia, to jest przeciwsymetryczna Zbadać czy relacja ρ X X

Bardziej szczegółowo

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ. Zadania z Procesów Stochastycznych 1 1. Udowodnij, że z prawdopodobieństwem 1 trajektorie procesu Poissona są niemalejące, przyjmują wartości z Z +, mają wszystkie skoki równe 1 oraz dążą do nieskończoności.

Bardziej szczegółowo

Imputacja brakujacych danych binarnych w modelu autologistycznym 1

Imputacja brakujacych danych binarnych w modelu autologistycznym 1 Imputacja brakujacych danych binarnych w modelu autologistycznym 1 Marta Zalewska Warszawski Uniwesytet Medyczny Statystyka Matematyczna Wisła, grudzień 2009 1 Współautorzy: Wojciech Niemiro, UMK Toruń

Bardziej szczegółowo

Matematyka ubezpieczeń majątkowych r.

Matematyka ubezpieczeń majątkowych r. Zadanie. W pewnej populacji kierowców każdego jej członka charakteryzują trzy zmienne: K liczba przejeżdżanych kilometrów (w tysiącach rocznie) NP liczba szkód w ciągu roku, w których kierowca jest stroną

Bardziej szczegółowo

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ. Zadania z Procesów Stochastycznych 1 1. Udowodnij, że z prawdopodobieństwem 1 trajektorie procesu Poissona są niemalejące, przyjmują wartości z Z +, mają wszystkie skoki równe 1 oraz dążą do nieskończoności.

Bardziej szczegółowo

Metody Rozmyte i Algorytmy Ewolucyjne

Metody Rozmyte i Algorytmy Ewolucyjne mgr inż. Wydział Matematyczno-Przyrodniczy Szkoła Nauk Ścisłych Uniwersytet Kardynała Stefana Wyszyńskiego Podstawowe operatory genetyczne Plan wykładu Przypomnienie 1 Przypomnienie Metody generacji liczb

Bardziej szczegółowo

2. P (E) = 1. β B. TSIM W3: Sygnały stochastyczne 1/27

2. P (E) = 1. β B. TSIM W3: Sygnały stochastyczne 1/27 SYGNAŁY STOCHASTYCZNE Przestrzeń probabilistyczna i zmienna losowa Definicja Przestrzenią probabilistyczną (doświadczeniem) nazywamy trójkę uporządkowaną (E, B, P ), gdzie: E przestrzeń zdarzeń elementarnych;

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 2 autorzy: A. Gonczarek, J.M. Tomczak Metody estymacji ML Zad. 1 Pojawianie się spamu opisane jest zmienną losową x o rozkładzie dwupunktowym

Bardziej szczegółowo

Testowanie hipotez statystycznych.

Testowanie hipotez statystycznych. Statystyka Wykład 10 Wrocław, 22 grudnia 2011 Testowanie hipotez statystycznych Definicja. Hipotezą statystyczną nazywamy stwierdzenie dotyczące parametrów populacji. Definicja. Dwie komplementarne w problemie

Bardziej szczegółowo

Na A (n) rozważamy rozkład P (n) , który na zbiorach postaci A 1... A n określa się jako P (n) (X n, A (n), P (n)

Na A (n) rozważamy rozkład P (n) , który na zbiorach postaci A 1... A n określa się jako P (n) (X n, A (n), P (n) MODELE STATYSTYCZNE Punktem wyjścia w rozumowaniu statystycznym jest zmienna losowa (cecha) X i jej obserwacje opisujące wyniki doświadczeń bądź pomiarów. Zbiór wartości zmiennej losowej X (zbiór wartości

Bardziej szczegółowo

Statystyka Matematyczna Anna Janicka

Statystyka Matematyczna Anna Janicka Statystyka Matematyczna Anna Janicka wykład X, 9.05.206 TESTOWANIE HIPOTEZ STATYSTYCZNYCH II: PORÓWNYWANIE TESTÓW Plan na dzisiaj 0. Przypomnienie potrzebnych definicji. Porównywanie testów 2. Test jednostajnie

Bardziej szczegółowo

Na podstawie dokonanych obserwacji:

Na podstawie dokonanych obserwacji: PODSTAWOWE PROBLEMY STATYSTYKI MATEMATYCZNEJ Niech mamy próbkę X 1,..., X n oraz przestrzeń prób X n, i niech {X i } to niezależne zmienne losowe o tym samym rozkładzie P θ P. Na podstawie obserwacji chcemy

Bardziej szczegółowo

SIMR 2017/18, Statystyka, Przykładowe zadania do kolokwium - Rozwiązania

SIMR 2017/18, Statystyka, Przykładowe zadania do kolokwium - Rozwiązania SIMR 7/8, Statystyka, Przykładowe zadania do kolokwium - Rozwiązania. Dana jest gęstość prawdopodobieństwa zmiennej losowej ciągłej X : { a( x) dla x [, ] f(x) = dla pozostałych x Znaleźć: i) Wartość parametru

Bardziej szczegółowo

Wykład 9: Markov Chain Monte Carlo

Wykład 9: Markov Chain Monte Carlo RAP 412 17.12.2008 Wykład 9: Markov Chain Monte Carlo Wykładowca: Andrzej Ruciński Pisarz: Ewelina Rychlińska i Wojciech Wawrzyniak Wstęp W tej części wykładu zajmiemy się zastosowaniami łańcuchów Markowa

Bardziej szczegółowo

5 Błąd średniokwadratowy i obciążenie

5 Błąd średniokwadratowy i obciążenie 5 Błąd średniokwadratowy i obciążenie Przeprowadziliśmy 200 powtórzeń przebiegu próbnika dla tego samego zestawu parametrów modelowych co w Rozdziale 1, to znaczy µ = 0, s = 10, v = 10, n i = 10 (i = 1,...,

Bardziej szczegółowo

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty Agata Boratyńska Agata Boratyńska Rachunek prawdopodobieństwa, wykład 4 / 9 Przekształcenia zmiennej losowej X

Bardziej szczegółowo

Centralne twierdzenie graniczne

Centralne twierdzenie graniczne Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 4 Ważne uzupełnienie Dwuwymiarowy rozkład normalny N (µ X, µ Y, σ X, σ Y, ρ): f XY (x, y) = 1 2πσ X σ Y 1 ρ 2 { [ (x ) 1

Bardziej szczegółowo

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 9 i 10 - Weryfikacja hipotez statystycznych

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 9 i 10 - Weryfikacja hipotez statystycznych WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 9 i 10 - Weryfikacja hipotez statystycznych Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 9 i 10 1 / 30 TESTOWANIE HIPOTEZ STATYSTYCZNYCH

Bardziej szczegółowo

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy bez pamięci w których czas i stany są zbiorami dyskretnymi. Procesy stochastyczne WYKŁAD 2-3 Łańcuchy Markowa Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi. Przykład Symetryczne błądzenie przypadkowe na prostej. 1 2 Łańcuchem

Bardziej szczegółowo

Postać Jordana macierzy

Postać Jordana macierzy Rozdział 8 Postać Jordana macierzy Niech F = R lub F = C Macierz J r λ) F r r postaci λ 1 0 0 0 λ 1 J r λ) = 0 λ 1 0 0 λ gdzie λ F nazywamy klatką Jordana stopnia r Oczywiście J 1 λ) = [λ Definicja 81

Bardziej szczegółowo

METODY ESTYMACJI PUNKTOWEJ. nieznanym parametrem (lub wektorem parametrów). Przez X będziemy też oznaczać zmienną losową o rozkładzie

METODY ESTYMACJI PUNKTOWEJ. nieznanym parametrem (lub wektorem parametrów). Przez X będziemy też oznaczać zmienną losową o rozkładzie METODY ESTYMACJI PUNKTOWEJ X 1,..., X n - próbka z rozkładu P θ, θ Θ, θ jest nieznanym parametrem (lub wektorem parametrów). Przez X będziemy też oznaczać zmienną losową o rozkładzie P θ. Definicja. Estymatorem

Bardziej szczegółowo

Ćwiczenia: Ukryte procesy Markowa lista 1 kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II

Ćwiczenia: Ukryte procesy Markowa lista 1 kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II Ćwiczenia: Ukryte procesy Markowa lista kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II dr Jarosław Kotowicz Zadanie. Dany jest łańcuch Markowa, który może przyjmować wartości,,...,

Bardziej szczegółowo

VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa.

VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa. VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa. W rozdziale tym zajmiemy się dokładniej badaniem stabilności rozwiązań równania różniczkowego. Pojęcie stabilności w

Bardziej szczegółowo

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne 5.2. Momenty rozkładów łącznych. Katarzyna Rybarczyk-Krzywdzińska rozkładów wielowymiarowych Przypomnienie Jeśli X jest zmienną losową o rozkładzie

Bardziej szczegółowo

Rozkłady prawdopodobieństwa

Rozkłady prawdopodobieństwa Tytuł Spis treści Wersje dokumentu Instytut Matematyki Politechniki Łódzkiej 10 grudnia 2011 Spis treści Tytuł Spis treści Wersje dokumentu 1 Wartość oczekiwana Wariancja i odchylenie standardowe Rozkład

Bardziej szczegółowo

Instytut Matematyczny Uniwersytet Wrocławski. Zakres egzaminu magisterskiego. Wybrane rozdziały anazlizy i topologii 1 i 2

Instytut Matematyczny Uniwersytet Wrocławski. Zakres egzaminu magisterskiego. Wybrane rozdziały anazlizy i topologii 1 i 2 Instytut Matematyczny Uniwersytet Wrocławski Zakres egzaminu magisterskiego Wybrane rozdziały anazlizy i topologii 1 i 2 Pojęcia, fakty: Definicje i pojęcia: metryka, iloczyn skalarny, norma supremum,

Bardziej szczegółowo

Stopę zbieżności ciagu zmiennych losowych a n, takiego, że E (a n ) < oznaczamy jako a n = o p (1) prawdopodobieństwa szybciej niż n α.

Stopę zbieżności ciagu zmiennych losowych a n, takiego, że E (a n ) < oznaczamy jako a n = o p (1) prawdopodobieństwa szybciej niż n α. Stopy zbieżności Stopę zbieżności ciagu zmiennych losowych a n, takiego, że a n oznaczamy jako a n = o p (1 p 0 a Jeśli n p n α 0, to a n = o p (n α i mówimy a n zbiega według prawdopodobieństwa szybciej

Bardziej szczegółowo

Spis treści Wstęp Estymacja Testowanie. Efekty losowe. Bogumiła Koprowska, Elżbieta Kukla

Spis treści Wstęp Estymacja Testowanie. Efekty losowe. Bogumiła Koprowska, Elżbieta Kukla Bogumiła Koprowska Elżbieta Kukla 1 Wstęp Czym są efekty losowe? Przykłady Model mieszany 2 Estymacja Jednokierunkowa klasyfikacja (ANOVA) Metoda największej wiarogodności (ML) Metoda największej wiarogodności

Bardziej szczegółowo

Hipotezy proste. (1 + a)x a, dla 0 < x < 1, 0, poza tym.

Hipotezy proste. (1 + a)x a, dla 0 < x < 1, 0, poza tym. Hipotezy proste Zadanie 1. Niech X ma funkcję gęstości f a (x) = (1 + a)x a, dla 0 < x < 1, Testujemy H 0 : a = 1 przeciwko H 1 : a = 2. Dysponujemy pojedynczą obserwacją X. Wyznaczyć obszar krytyczny

Bardziej szczegółowo

Szkice do zajęć z Przedmiotu Wyrównawczego

Szkice do zajęć z Przedmiotu Wyrównawczego Szkice do zajęć z Przedmiotu Wyrównawczego Matematyka Finansowa sem. letni 2011/2012 Spis treści Zajęcia 1 3 1.1 Przestrzeń probabilistyczna................................. 3 1.2 Prawdopodobieństwo warunkowe..............................

Bardziej szczegółowo

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa Agata Boratyńska Agata Boratyńska Rachunek prawdopodobieństwa, wykład 2 i 3 1 / 19 Zmienna losowa Definicja Dana jest przestrzeń probabilistyczna

Bardziej szczegółowo

Procesy stochastyczne

Procesy stochastyczne Wykład IV: dla łańcuchów Markowa 14 marca 2017 Wykład IV: Klasyfikacja stanów Kiedy rozkład stacjonarny jest jedyny? Przykład Macierz jednostkowa I wymiaru #E jest macierzą stochastyczną. Dla tej macierzy

Bardziej szczegółowo

Ważne rozkłady i twierdzenia c.d.

Ważne rozkłady i twierdzenia c.d. Ważne rozkłady i twierdzenia c.d. Funkcja charakterystyczna rozkładu Wielowymiarowy rozkład normalny Elipsa kowariacji Sploty rozkładów Rozkłady jednostajne Sploty z rozkładem normalnym Pobieranie próby

Bardziej szczegółowo

Metody probabilistyczne

Metody probabilistyczne Metody probabilistyczne. Twierdzenia graniczne Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 20.2.208 / 26 Motywacja Rzucamy wielokrotnie uczciwą monetą i zliczamy

Bardziej szczegółowo

Matematyka ubezpieczeń majątkowych r.

Matematyka ubezpieczeń majątkowych r. Matematyka ubezpieczeń majątkowych 5.0.00 r. Zadanie. Dla dowolnej zmiennej losowej X o wartości oczekiwanej µ wariancji oraz momencie centralnym µ k rzędu k zachodzą nierówności (typu Czebyszewa): ( X

Bardziej szczegółowo

Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak

Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak 1 Wprowadzenie. Zmienne losowe Podczas kursu interesować nas będzie wnioskowanie o rozpatrywanym zjawisku. Poprzez wnioskowanie rozumiemy

Bardziej szczegółowo

Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe.

Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Rachunek prawdopodobieństwa MAP3040 WPPT FT, rok akad. 2010/11, sem. zimowy Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Warunkowa wartość oczekiwana.

Bardziej szczegółowo

Lista 1. Procesy o przyrostach niezależnych.

Lista 1. Procesy o przyrostach niezależnych. Lista. Procesy o przyrostach niezależnych.. Niech N t bedzie procesem Poissona o intensywnoci λ = 2. Obliczyć a) P (N 2 < 3, b) P (N =, N 3 = 6), c) P (N 2 = N 5 = 2), d) P (N =, N 2 = 3, N 4 < 5), e)

Bardziej szczegółowo

Spis treści 3 SPIS TREŚCI

Spis treści 3 SPIS TREŚCI Spis treści 3 SPIS TREŚCI PRZEDMOWA... 1. WNIOSKOWANIE STATYSTYCZNE JAKO DYSCYPLINA MATEMATYCZNA... Metody statystyczne w analizie i prognozowaniu zjawisk ekonomicznych... Badania statystyczne podstawowe

Bardziej szczegółowo

Funkcje charakterystyczne zmiennych losowych, linie regresji 1-go i 2-go rodzaju

Funkcje charakterystyczne zmiennych losowych, linie regresji 1-go i 2-go rodzaju Funkcje charakterystyczne zmiennych losowych, linie regresji -go i 2-go rodzaju Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Inteligencji i Metod Matematycznych Wydział Informatyki Politechniki

Bardziej szczegółowo

Prognozowanie i Symulacje. Wykład I. Matematyczne metody prognozowania

Prognozowanie i Symulacje. Wykład I. Matematyczne metody prognozowania Prognozowanie i Symulacje. Wykład I. e-mail:e.kozlovski@pollub.pl Spis treści Szeregi czasowe 1 Szeregi czasowe 2 3 Szeregi czasowe Definicja 1 Szereg czasowy jest to proces stochastyczny z czasem dyskretnym

Bardziej szczegółowo