Algorytmy MCMC i ich zastosowania statystyczne
|
|
- Roman Laskowski
- 4 lat temu
- Przeglądów:
Transkrypt
1 Algorytmy MCMC i ich zastosowania statystyczne Wojciech Niemiro Uniwersytet Mikołaja Kopernika, Toruń i Uniwersytet Warszawski Statystyka Matematyczna Wisła, grudzień 2010
2 Wykład 3 1 Łańcuchy Markowa Oznaczenia i założenia 2 Regeneracja Mały zbiór Regeneracja 3 Coupling Konstrukcja Ergodyczność 4 Warunki dryfu Geometryczna ergodyczność Jawne oszacowania
3 Oznaczenia Łańcuch Markowa (jednorodny) X 0, X 1,..., X n,... na przestrzeni X (polskiej). Jadro przejścia: P(x, A) = P(X n+1 A X n = x). Zależność od rozkładu poczatkowego: P ξ, E ξ. Jeśli ξ = δ x to P x, E x. Jeśli ξ jest miara i f jest funkcja na X to: Pf (x) = P(x, dy)f (x) = E x f (X 1 ); ξp(a) = ξ(dx)p(x, A) = P ξ (X 1 A); ξf = ξ(dx)f (x). J adro przejścia w n krokach: P n (x, A) = P(x, dx1 )P(x 1, dx 2 ) P(x n 1, A) = P x (X n A).
4 Stałe założenia ZAŁOŻENIA Rozkład stacjonarny. Istnieje rozkład π na X taki, że πp = π. Łańcuch jest π-nieprzywiedlny i nieokresowy, x X A:π(A)>0 n0 n n0 P n (x, A) > 0. Łańcuch jest powracajacy w sensie Harrisa, x X A:π(A)>0 P x ( n : X n A) = 1. Uwaga Zastrzeżenia typu p.n. [π] będa zazwyczaj pomijane.
5 Regeneracja Niech J będzie 1-małym zbiorem Resztowe jadro przejścia: P(x, ) βi J (x)ν( ). Q(x, ) = P(x, ) βi J(x)ν( ). 1 βi J (x) Jeśli X n 1 J to Γ n 1 = 0: nie ma regeneracji, losuj X n P(X n 1, ); Jeśli X n 1 J to randomizuj, z prawdopodobieństwem 1 β: Γ n 1 = 0, nie ma regeneracji, losuj X n Q(X n 1, ); z prawdopodobieństwem β: Γ n 1 = 1, regeneracja! losuj X n ν( ).
6 Regeneracja Podwójny łańcuch (split chain) (X n, Γ n ) na przestrzeni X {0, 1} ma atom J {1}. X n 1 J? nie tak Γ n 1 := 0 randomizacja 1 β β Gen X n P(X n 1, ) Γ n 1 := 0 Γ n 1 := 1 Gen X n Q(X n 1, ) Gen X n ν( )
7 Regeneracja Uwaga: Faktycznie losowanie Q(X n 1, ) nie zawsze jest konieczne (Mykland et al. 1995). Niech ν(dy)/p(x, dy) oznacza pochodna Radona-Nikodyma (w praktyce, iloraz gęstości). Próbkowanie retrospektywne : najpierw generujemy X n P(X n 1, ) a następnie Γ n 1 z rozkładu warunkowego (wzór Bayesa), βν(dx n ) P(Γ n 1 = 1 X n 1, X n ) = I J (X n 1 ) P(X n 1, dx n ). Uwaga: Niestety, trzeba znać gęstości!
8 Czasy odnowienia T = T 1 = min{n > 0 : Γ n 1 = 1}, T k = min{n > T k 1 : Γ n 1 = 1}. Momenty regeneracji (odnowienia) dziela łańcuch na niezależne bloki losowej długości. X 0,..., X T1 1, X T1,..., X T2 1, X T2,..., X T3 1,... }{{}}{{}}{{} T 1 T 2 T 1 T 3 T 2 ν Wszystkie bloki maja ten sam rozkład z wyjatkiem, być może, poczatkowego. ν
9 Twierdzenie Kaca Zakładamy, że istnieje rozkład stacjonarny π i 1-mały zbiór J, łańcuch jest π-nieprzywiedlny. Niech T 1 µ(a) = E ν I A (X n ) = n=0 P(X n A, T > n). n=0 TWIERDZENIE (Kac) Przy tych założeniach βπ(j) = 1/E ν (T ) oraz µ( )/E ν (T ) = π( ).
10 Twierdzenie Kaca Dowód. Miara µ jest niezmiennicza. Istotnie, µ(a) = P(X n A, T > n) = n=0 νr n (A) n=0 gdzie R = P βi J ν jest nieunormowanym jadrem resztowym (sub-probabilistycznym). Mamy P = R + βi J ν i ponadto νr n 1 βi J = P ν (T = n), więc µβi J = P ν (T < ) = 1, µp = νr n P = n=0 = νr n (R + I J ν) n=0 νr n+1 + µβi J ν = n=0 Oczywiście, E ν T = µ(x ), stad π = µ/e ν T. νr n+1 + ν = µ. n=0
11 Regeneracja dla h > 1 Próby odnowienia sa podejmowane co h kroków. Jeżeli Γ n 1 = 1 to X nh ν i w rezultacie X nh, X nh+1,... jest niezależne od X 0,..., X (n 1)h. Γ 0 Γ 1 Γ n 1 = 1 ν X 0 X h X (n 1)h X nh Ale brakujacy odcinek X (n 1)h+1,... X nh 1 wypełniamy zgodnie z rozkładem warunkowym P( X (n 1)h, X nh ). W rezultacie: wyznaczone momentami regeneracji bloki s a 1-zależne.
12 Odległość pełnego wahania (total variation) DEFINICJA Jeżeli µ 1 i µ 1 sa miarami probabilistycznymi na X to µ 1 µ 2 tv = sup µ 1 (A) µ 2 (A) A X = 1 2 sup µ 1 f µ 2 f = 1 2 f 1 X m 1 (x) m 2 (x) dx, gdzie m i (x)dx = µ i (dx) (gęstości względem dowolnej wspólnej miary dx).
13 Coupling Lemat (O couplingu) µ 1 µ 2 tv b wtedy i tylko wtedy gdy istnieja zmienne losowe (X 1, X 2 ) takie, że X 1 µ 1, X 2 µ 2 i P(X 1 X 2 ) b. Dowód. µ 1 (A) µ 2 (A) = P(X 1 A) P(X 2 A) P(X 1 A) P(X 1 A, X 2 A) = P(X 1 A, X 2 A) P(X 1 X 2 ). Jeśli µ 1 µ 2 tv = b to niech oraz ν będzie miara o gęstości (m 1 m 2 )/(1 b), zaś ρ 1, ρ 2 miary o gęstości (m 1 m 2 ) + /b oraz (m 2 m 1 ) + /b. randomizacja 1 b b Gen X ν niezależnie lub inaczej X 1 := X 2 := X Gen X 1 ρ 1 Gen X 2 ρ 2.
14 Coupling dla łańcuchów Markowa Łańcuch podwójny X n = (X n, X n) na przestrzeni X X. Jadro P(x, x, A A ) jest brzegowo zgodne z P(x, A) jeśli P(x, x, A X ) = P(x, A), P(x, x, X A ) = P(x, A ). Coupling: Jeśli X n 1 = X n 1 to X n = X n. DEFINICJA Pseudo-mały zbiór. J X X jest 1-pseudo-małym zbiorem jeśli istnieje jadro przejścia ν(x, x, A) i β > 0 takie, że Przykłady: P(x, A) P(x, A) βi J(x, x )ν(x, x, A), (A X ). Jeśli J X jest 1-mały, to J J X X jest 1-pseudo-mały. Przekatna {(x, x) : x X } jest 1-pseudo-mała (przestrzenie dyskretne).
15 Coupling dla łańcuchów Markowa J jest 1-pseudo-mały. Niech jadro resztowe Q(x, x, A A ) ma następujace rozkłady brzegowe: Q(x, x, A X ) = P(x, A) βi J(x, x )ν(x, x, A) 1 βi J(x, x, ) Q(x, x, X A ) = P(x, A ) βi J(x, x )ν(x, x, A ) 1 βi J(x, x. ) Może być, powiedzmy, produktem tych rozkładów brzegowych (to chyba nie jest istotne).
16 Coupling dla łańcuchów Markowa Konstrukcja couplingu ( J jest 1-pseudo-mały): X n 1 = (X n 1, X n 1 ) J? nie tak brak couplingu randomizacja 1 β β Gen X n P( X n 1, ) brak couplingu coupling! Gen X n Q( X n 1, ) Gen X n = X n ν(x n 1, X n 1, ) Niech T będzie czasem couplingu, X n = X n dla n T. WNIOSEK Jeśli X 0 π to P(X n ) π( ) tv P( T > n).
17 Ergodyczność DEFINICJA Łańcuch jest ergodyczny jeśli dla każdego x X, P n (x, ) π( ) tv 0 (n ). Łańcuch jest geometrycznie ergodyczny jeśli istnieje ϱ < 1 i M( ) < takie, że P n (x, ) π( ) tv M(x)ϱ n. Łańcuch jest jest jednostajnie ergodyczny jeśli istnieje ϱ < 1 i M < takie, że P n (x, ) π( ) tv Mϱ n.
18 Ergodyczność poprzez coupling TWIERDZENIE Jeżeli łańcuch jest π-nieprzywiedlny, nieokresowy i powracajacy w sensie Harrisa, to jest ergodyczny. TWIERDZENIE (Rosenthal 1995, Doob 1953, Doeblin 1938, Markov 1906) Jeżeli P h (x, ) βν( ) to Dowód. P n (x, ) π( ) tv (1 β) n/h. Stosujemy coupling do h-szkieletu łańcucha: X 0, X h,..., X kh,.... Czas couplingu T ma rozkład geometryczny, więc P kh (x, ) π( ) tv P x ( T > kh) = (1 β) k. Dla kh n < (k + 1)h odwołujemy się do monotoniczności.
19 Warunki dryfu i geometryczna ergodyczność DEFINICJA (Geometryczny warunek dryfu) Niech J X. Istnieje funkcja V 1, stałe λ < 1 i K < takie, że { λv (x) dla x J, PV (x) (1) K dla x J. Uwaga Równoważny warunek: PV λv + bi J.
20 V -jednostajna ergodyczność Niech V 1 będzie funkcja na X. Dla funkcji: f L V jeśli f f (x) V = sup x V (x) <. Dla miar µ 1 µ 2 V = sup f V µ 1 f µ 2 f. P(x, ) Q(x, ) V Dla jader: P Q V = sup x = V (x) sup f V Pf Qf V : to jest norma operatorowa w L V. DEFINICJA Łańcuch jest V -jednostajnie ergodyczny jeśli istnieje ϱ < 1 i M < takie, że P n (x, ) π( ) V MV (x)ϱ n. Równoważnie, P n π V Mϱ n.
21 Geometryczna i V -jednostajna ergodyczność TWIERDZENIE (Roberts, Rosenthal 1997) Dla π-nieprzywiedlnych, nieeokresowych łańcuchów następujace warunki sa równoważne: warunek dryfu (1) dla pewnej funkcji V 1, do pewnego h-małego zbioru J, geometryczna ergodyczność, V 2 -jednostajna ergodyczność dla pewnej funkcji V 2. Przy tym można wybrać V 2 av 1 i V 1 av 2.
22 Jawne oszacowania przez coupling Rosenthal, Roberts (2004). Warunek dryfu PV λv + bi J do h-małego zbioru + dodatkowo inf x J V (x) [b/(1 λ)] 1 implikuje jawne oszacowania geometrycznej zbieżności w normie tv. Uwagi: Dowód metoda couplingu. 1-dim warunek dryfu (jeśli jest dostatecznie szybki) implikuje 2-dim warunek dryfu. dla łańcucha (X n, X n) do zbioru J J. Coupling niezależny: jeśli (X n 1, X n 1 ) J J to (X n, X n) losuje się niezależnie.
23 Kolorowanie grafu Graf (S, ). Kolorowanie: funkcja x : S {1,..., q} taka, że x(s) x(t) dla s t. Niech π - rozkład jednostajny na przestrzeni X wszystkich kolorowań. Łańcuch Markowa X n π: wylosuj wierzchołek s U(S); wylosuj kolor z rozkładu jednostajnego na zbiorze dopuszczalnych i przemaluj s. Oszacowanie szybkości zbieżności (Jerrum 1995,1998) Jeżeli q 2d + 1 to P n (x, ) π tv kλ n, gdzie λ = 1 q 2d k(q d), d = stopień grafu, k = #S. Dowód przez coupling: wylosuj wierzchołek s U(S); przemaluj obie kopie łańcucha w s tak, żeby z maksymalnym pr-stwem wykorzystać ten sam kolor dla obu kopii.
24 Kolorowanie grafu Uwagi: Silna zależność obu kopii! Przekatna {(x, x)} jest zbiorem couplingu (pseudo-mały ale wcale nie mały)! V (x, x ) = #{s S : x(s) x (s)}. PV (x) λv (x), gdzie λ = 1 q 2d k(q d), d = stopień grafu, k = #S. Wniosek: Coupling niezależny do zbioru J J (jak w pracy Rosenthala i Robertsa) musi być mało efektywny!
25 Jawne oszacowania przez regenerację TWIERDZENIE (Baxendale 2005, Bednorz 2010) Jeśli spełniony jest warunek dryfu (1) do 1-małego zbioru J i ponadto ν(j) δ > 0 to istnieje ρ takie, że dla każdego γ > ρ istnieje M takie, że P n (x, ) π( ) V Mγ n. Przy tym ρ zależy tylko i jawnie od λ, β, δ, zaś M jeszcze dodatkowo od γ. Uwagi: Dowód metoda regeneracji. Wzory sa jawne ale dość okropne. Jeśli γ ρ to zazwyczaj M.
Geometryczna zbieżność algorytmu Gibbsa
Geometryczna zbieżność algorytmu Gibbsa Iwona Żerda Wydział Matematyki i Informatyki, Uniwersytet Jagielloński 6 grudnia 2013 6 grudnia 2013 1 / 19 Plan prezentacji 1 Algorytm Gibbsa 2 Tempo zbieżności
Bardziej szczegółowoAlgorytmy MCMC i ich zastosowania statystyczne
Algorytmy MCMC i ich zastosowania statystyczne Wojciech Niemiro Uniwersytet Mikołaja Kopernika, Toruń i Uniwersytet Warszawski Statystyka Matematyczna Wisła, grudzień 2010 Wykład 2 1 Podstawowe idee symulacji
Bardziej szczegółowoAlgorytmy MCMC (Markowowskie Monte Carlo) dla skokowych procesów Markowa
Algorytmy MCMC (Markowowskie Monte Carlo) dla skokowych procesów Markowa Wojciech Niemiro 1 Uniwersytet Warszawski i UMK Toruń XXX lat IMSM, Warszawa, kwiecień 2017 1 Wspólne prace z Błażejem Miasojedowem,
Bardziej szczegółowoAlgorytm Metropolisa-Hastingsa
Seminarium szkoleniowe, 25 kwietnia 2006 Plan prezentacji 1 Problem Metoda MCMC 2 Niezależny algorytm Metropolisa-Hastingsa Bła dzenie losowe Zbieżność procedury Metropolisa-Hastingsa Problem Metoda MCMC
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 11 Łańcuchy Markova
Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova M. Czoków, J. Piersa 2010-12-21 1 Definicja Własności Losowanie z rozkładu dyskretnego 2 3 Łańcuch Markova Definicja Własności Losowanie z rozkładu
Bardziej szczegółowoProcesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.
Procesy stochastyczne WYKŁAD 2-3 Łańcuchy Markowa Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi. 2 Łańcuchem Markowa nazywamy proces będący ciągiem zmiennych
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa
Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa M. Czoków, J. Piersa 2012-01-10 1 Łańcucha Markowa 2 Istnienie Szukanie stanu stacjonarnego 3 1 Łańcucha Markowa 2 Istnienie Szukanie stanu stacjonarnego
Bardziej szczegółowoProcesy stochastyczne
Wykład IV: dla łańcuchów Markowa 14 marca 2017 Wykład IV: Klasyfikacja stanów Kiedy rozkład stacjonarny jest jedyny? Przykład Macierz jednostkowa I wymiaru #E jest macierzą stochastyczną. Dla tej macierzy
Bardziej szczegółowoWielowymiarowy próbnik Gibbsa
29.05.2006 Seminarium szkoleniowe 30 maja 2006 Plan prezentacji Slgorytm MH i PG przypomnienie wiadomości Wielowymiarowy PG Algorytm PG z dopełnieniem Odwracalny PG Modele hierarchiczne Modele hybrydowe
Bardziej szczegółowoProcesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.
Procesy stochastyczne WYKŁAD 2-3 Łańcuchy Markowa Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi. Przykład Symetryczne błądzenie przypadkowe na prostej. 1 2 Łańcuchem
Bardziej szczegółowoWykład 9: Markov Chain Monte Carlo
RAP 412 17.12.2008 Wykład 9: Markov Chain Monte Carlo Wykładowca: Andrzej Ruciński Pisarz: Ewelina Rychlińska i Wojciech Wawrzyniak Wstęp W tej części wykładu zajmiemy się zastosowaniami łańcuchów Markowa
Bardziej szczegółowoOszacowania błędów estymatorów stosowanych w markowowskich metodach Monte Carlo
Uniwersytet Warszawski Wydział Matematyki, Informatyki i Mechaniki Błażej Miasojedow Oszacowania błędów estymatorów stosowanych w markowowskich metodach Monte Carlo rozprawa doktorska Promotor rozprawy
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład IV: 27 października 2014 Współczynnik korelacji Brak korelacji a niezależność Definicja współczynnika korelacji Współczynnikiem korelacji całkowalnych z kwadratem zmiennych losowych X i Y nazywamy
Bardziej szczegółowoZbigniew S. Szewczak Uniwersytet Mikołaja Kopernika Wydział Matematyki i Informatyki. Graniczne własności łańcuchów Markowa
Zbigniew S. Szewczak Uniwersytet Mikołaja Kopernika Wydział Matematyki i Informatyki Graniczne własności łańcuchów Markowa Toruń, 2003 Co to jest łańcuch Markowa? Każdy skończony, jednorodny łańcuch Markowa
Bardziej szczegółowoWYKŁAD 3. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki
WYKŁAD 3 Witold Bednorz, Paweł Wolff 1 Instytut Matematyki Uniwersytet Warszawski Rachunek Prawdopodobieństwa, WNE, 2010-2011 Schemmat Bernouliego Rzucamy 10 razy moneta, próba Bernouliego jest pojedynczy
Bardziej szczegółowoProces rezerwy w czasie dyskretnym z losową stopą procentową i losową składką
z losową stopą procentową i losową składką Instytut Matematyki i Informatyki Politechniki Wrocławskiej 10 czerwca 2008 Oznaczenia Wprowadzenie ξ n liczba wypłat w (n 1, n], Oznaczenia Wprowadzenie ξ n
Bardziej szczegółowoAlgorytmy MCMC i ich zastosowania statystyczne
Algorytmy MCMC i ich zastosowania statystyczne Wojciech Niemiro Uniwersytet Mikołaja Kopernika, Toruń i Uniwersytet Warszawski Statystyka Matematyczna Wisła, grudzień 2010 Wykład 1 1 Co to jest MCMC? 2
Bardziej szczegółowoRachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne
Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne 5.3 Rozkłady warunkowe i warunkowa wartość oczekiwana Katarzyna Rybarczyk-Krzywdzińska semestr zimowy 2015/2016 Prawdopodobieństwo wyraża postawę
Bardziej szczegółowo3. Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,
Zadania z Rachunku Prawdopodobieństwa II - Mówimy, że i) ciąg miar probabilistycznych µ n zbiega słabo do miary probabilistycznej µ (ozn. µ n µ), jeśli fdµ n fdµ dla dowolnej funkcji ciągłej ograniczonej
Bardziej szczegółowo2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.
Zadania z Procesów Stochastycznych 1 1. Udowodnij, że z prawdopodobieństwem 1 trajektorie procesu Poissona są niemalejące, przyjmują wartości z Z +, mają wszystkie skoki równe 1 oraz dążą do nieskończoności.
Bardziej szczegółowoSpacery losowe generowanie realizacji procesu losowego
Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z
Bardziej szczegółowoSzkice do zajęć z Przedmiotu Wyrównawczego
Szkice do zajęć z Przedmiotu Wyrównawczego Matematyka Finansowa sem. letni 2011/2012 Spis treści Zajęcia 1 3 1.1 Przestrzeń probabilistyczna................................. 3 1.2 Prawdopodobieństwo warunkowe..............................
Bardziej szczegółowoElementy modelowania matematycznego
Elementy modelowania matematycznego Łańcuchy Markowa: zagadnienia graniczne. Ukryte modele Markowa. Jakub Wróblewski jakubw@pjwstk.edu.pl http://zajecia.jakubw.pl/ KLASYFIKACJA STANÓW Stan i jest osiągalny
Bardziej szczegółowoAlgorytmy MCMC i ich zastosowania statystyczne
Algorytmy MCMC i ich zastosowania statystyczne Wojciech Niemiro Uniwersytet Mikołaja Kopernika, Toruń i Uniwersytet Warszawski Statystyka Matematyczna Wisła, grudzień 2010 Wykład 4 1 Oszacowania dokładności
Bardziej szczegółowoOśrodkowość procesów, proces Wienera. Ośrodkowość procesów, proces Wienera Procesy Stochastyczne, wykład, T. Byczkowski,
Procesy Stochastyczne, wykład, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 27 luty, 2012 Ośrodkowość procesów Dalej zakładamy, że (Ω, Σ, P) jest zupełną przestrzenią miarową. Definicja.
Bardziej szczegółowo2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.
Zadania z Procesów Stochastycznych 1 1. Udowodnij, że z prawdopodobieństwem 1 trajektorie procesu Poissona są niemalejące, przyjmują wartości z Z +, mają wszystkie skoki równe 1 oraz dążą do nieskończoności.
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład II: Zmienne losowe i charakterystyki ich rozkładów 13 października 2014 Zmienne losowe Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Definicja zmiennej losowej i jej
Bardziej szczegółowoSeria 1. Zbieżność rozkładów
Seria Zbieżność rozkładów We wszystkich poniższych zadaniach (E, ρ) jest przestrzenią metryczną Wykazać, że dla dowolnych x, x n, δ xn δ x wtedy i tylko wtedy, gdy x n x Sprawdzić, że n nk= δ k n λ, gdzie
Bardziej szczegółowoMatematyka ubezpieczeń majątkowych r.
Zadanie. W pewnej populacji kierowców każdego jej członka charakteryzują trzy zmienne: K liczba przejeżdżanych kilometrów (w tysiącach rocznie) NP liczba szkód w ciągu roku, w których kierowca jest stroną
Bardziej szczegółowoPROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω)
PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω) określonych na tej samej przestrzeni probabilistycznej
Bardziej szczegółowoWYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki
WYKŁAD 6 Witold Bednorz, Paweł Wolff 1 Instytut Matematyki Uniwersytet Warszawski Rachunek Prawdopodobieństwa, WNE, 2010-2011 Własności Wariancji Przypomnijmy, że VarX = E(X EX) 2 = EX 2 (EX) 2. Własności
Bardziej szczegółowoZadania z Rachunku Prawdopodobieństwa II Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,
Zadania z Rachunku Prawdopodobieństwa II -. Udowodnij, że dla dowolnych liczb x n, x, δ xn δ x wtedy i tylko wtedy, gdy x n x.. Wykaż, że n n k= δ k/n λ, gdzie λ jest miarą Lebesgue a na [, ].. Podać przykład
Bardziej szczegółowoUkłady stochastyczne
Instytut Informatyki Uniwersytetu Śląskiego 21 stycznia 2009 Definicja Definicja Proces stochastyczny to funkcja losowa, czyli funkcja matematyczna, której wartości leżą w przestrzeni zdarzeń losowych.
Bardziej szczegółowo2.1 Przykład wstępny Określenie i konstrukcja Model dwupunktowy Model gaussowski... 7
Spis treści Spis treści 1 Przedziały ufności 1 1.1 Przykład wstępny.......................... 1 1.2 Określenie i konstrukcja...................... 3 1.3 Model dwupunktowy........................ 5 1.4
Bardziej szczegółowoKwantyle. Kwantyl rzędu p rozkładu prawdopodobieństwa to taka liczba x p. , że. Możemy go obliczyć z dystrybuanty: P(X x p.
Kwantyle Kwantyl rzędu p rozkładu prawdopodobieństwa to taka liczba x p, że P(X x p ) p P(X x p ) 1 p Możemy go obliczyć z dystrybuanty: Jeżeli F(x p ) = p, to x p jest kwantylem rzędu p Jeżeli F(x p )
Bardziej szczegółowo19 marzec, Łańcuchy Markowa z czasem dyskretnym. Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136
Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 19 marzec, 2012 Przykłady procesów Markowa (i). P = (p ij ) - macierz stochastyczna, tzn. p ij 0, j p ij =
Bardziej szczegółowoRachunek prawdopodobieństwa - Teoria - Przypomnienie.. A i B są niezależne, gdy P(A B) = P(A)P(B). P(A B i )P(B i )
Rachunek prawdopodobieństwa - Teoria - Przypomnienie Podstawy Definicja 1. Schemat klasyczny - wszystkie zdarzenia elementarne są równo prawdopodobne, licząc prawdopodobieństwo liczymy stosunek liczby
Bardziej szczegółowoWykład 11: Martyngały: definicja, twierdzenia o zbieżności
RAP 412 14.01.2009 Wykład 11: Martyngały: definicja, twierdzenia o zbieżności Wykładowca: Andrzej Ruciński Pisarz:Mirosława Jańczak 1 Wstęp Do tej pory zajmowaliśmy się ciągami zmiennych losowych (X n
Bardziej szczegółowon=0 (n + r)a n x n+r 1 (n + r)(n + r 1)a n x n+r 2. Wykorzystując te obliczenia otrzymujemy, że lewa strona równania (1) jest równa
Równanie Bessela Będziemy rozważać następujące równanie Bessela x y xy x ν )y 0 ) gdzie ν 0 jest pewnym parametrem Rozwiązania równania ) nazywamy funkcjami Bessela rzędu ν Sprawdzamy, że x 0 jest regularnym
Bardziej szczegółowoStacjonarne procesy gaussowskie, czyli o zwiazkach pomiędzy zwykła
Stacjonarne procesy gaussowskie, czyli o zwiazkach pomiędzy zwykła autokorelacji Łukasz Dębowski ldebowsk@ipipan.waw.pl Instytut Podstaw Informatyki PAN autokorelacji p. 1/25 Zarys referatu Co to sa procesy
Bardziej szczegółowoWYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa
WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa Agata Boratyńska Agata Boratyńska Rachunek prawdopodobieństwa, wykład 2 i 3 1 / 19 Zmienna losowa Definicja Dana jest przestrzeń probabilistyczna
Bardziej szczegółowoWykład 2 Zmienne losowe i ich rozkłady
Wykład 2 Zmienne losowe i ich rozkłady Magdalena Frąszczak Wrocław, 11.10.2017r Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe Doświadczenie
Bardziej szczegółowoStopę zbieżności ciagu zmiennych losowych a n, takiego, że E (a n ) < oznaczamy jako a n = o p (1) prawdopodobieństwa szybciej niż n α.
Stopy zbieżności Stopę zbieżności ciagu zmiennych losowych a n, takiego, że a n oznaczamy jako a n = o p (1 p 0 a Jeśli n p n α 0, to a n = o p (n α i mówimy a n zbiega według prawdopodobieństwa szybciej
Bardziej szczegółowoWYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty
WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty Agata Boratyńska Agata Boratyńska Rachunek prawdopodobieństwa, wykład 4 / 9 Przekształcenia zmiennej losowej X
Bardziej szczegółowoZadanie 1. Liczba szkód N w ciągu roku z pewnego ryzyka ma rozkład geometryczny: k =
Matematyka ubezpieczeń majątkowych 0.0.006 r. Zadanie. Liczba szkód N w ciągu roku z pewnego ryzyka ma rozkład geometryczny: k 5 Pr( N = k) =, k = 0,,,... 6 6 Wartości kolejnych szkód Y, Y,, są i.i.d.,
Bardziej szczegółowo1 Relacje i odwzorowania
Relacje i odwzorowania Relacje Jacek Kłopotowski Zadania z analizy matematycznej I Wykazać, że jeśli relacja ρ X X jest przeciwzwrotna i przechodnia, to jest przeciwsymetryczna Zbadać czy relacja ρ X X
Bardziej szczegółowoZadania z Rachunku Prawdopodobieństwa III - 1
Zadania z Rachunku Prawdopodobieństwa III - 1 Funkcją tworzącą momenty (transformatą Laplace a) zmiennej losowej X nazywamy funkcję M X (t) := Ee tx, t R. 1. Oblicz funkcję tworzącą momenty zmiennych o
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład VII: Rozkład i jego charakterystyki 22 listopada 2016 Uprzednio wprowadzone pojęcia i ich własności Definicja zmiennej losowej Zmienna losowa na przestrzeni probabilistycznej (Ω, F, P) to funkcja
Bardziej szczegółowoZadania z Rachunku Prawdopodobieństwa II Podaj przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,
Zadania z Rachunku Prawdopodobieństwa II -. Udowodnij, że dla dowolnych liczb x n, x, δ xn δ x wtedy i tylko wtedy, gdy x n x.. Wykaż, że n n k= δ k/n λ, gdzie λ jest miarą Lebesgue a na [, ].. Podaj przykład
Bardziej szczegółowozadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych
zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych 1. [E.A 5.10.1996/zad.4] Funkcja gęstości dana jest wzorem { 3 x + 2xy + 1 y dla (x y) (0 1) (0 1) 4 4 P (X > 1 2 Y > 1 2 ) wynosi:
Bardziej szczegółowoWykład 3 Momenty zmiennych losowych.
Wykład 3 Momenty zmiennych losowych. Wrocław, 19 października 2016r Momenty zmiennych losowych Wartość oczekiwana - przypomnienie Definicja 3.1: 1 Niech X będzie daną zmienną losową. Jeżeli X jest zmienną
Bardziej szczegółowoMaksymalne powtórzenia w tekstach i zerowa intensywność entropii
Maksymalne powtórzenia w tekstach i zerowa intensywność entropii Łukasz Dębowski ldebowsk@ipipan.waw.pl i Instytut Podstaw Informatyki PAN Warszawa 1 Wprowadzenie 2 Ograniczenia górne i dolne 3 Przykłady
Bardziej szczegółowoFunkcje charakterystyczne zmiennych losowych, linie regresji 1-go i 2-go rodzaju
Funkcje charakterystyczne zmiennych losowych, linie regresji -go i 2-go rodzaju Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Inteligencji i Metod Matematycznych Wydział Informatyki Politechniki
Bardziej szczegółowoWykład 3 Momenty zmiennych losowych.
Wykład 3 Momenty zmiennych losowych. Wrocław, 18 października 2017r Momenty zmiennych losowych Wartość oczekiwana - przypomnienie Definicja 3.1: 1 Niech X będzie daną zmienną losową. Jeżeli X jest zmienną
Bardziej szczegółowoWeryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1
Weryfikacja hipotez statystycznych KG (CC) Statystyka 26 V 2009 1 / 1 Sformułowanie problemu Weryfikacja hipotez statystycznych jest drugą (po estymacji) metodą uogólniania wyników uzyskanych w próbie
Bardziej szczegółowoZmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014
Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014 Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe
Bardziej szczegółowoMODELE MATEMATYCZNE W UBEZPIECZENIACH
MODELE MATEMATYCZNE W UBEZPIECZENIACH WYKŁAD 3: WYZNACZANIE ROZKŁADU CZASU PRZYSZŁEGO ŻYCIA 1 Hipoteza jednorodnej populacji Rozważmy pewną populację osób w różnym wieku i załóżmy, że każda z tych osób
Bardziej szczegółowoWstęp do Rachunku Prawdopodobieństwa, IIr. WMS
Wstęp do Rachunku Prawdopodobieństwa, IIr. WMS przykładowe zadania na. kolokwium czerwca 6r. Poniżej podany jest przykładowy zestaw zadań. Podczas kolokwium na ich rozwiązanie przeznaczone będzie ok. 85
Bardziej szczegółowoRachunek Prawdopodobieństwa Rozdział 5. Rozkłady łączne
Rachunek Prawdopodobieństwa Rozdział 5. Rozkłady łączne 5.0 Definicje Katarzyna Rybarczyk-Krzywdzińska Wprowadzenie Przykład 1 Bolek, Lolek i Tola wstąpili do kasyna. (A) Bolek postawił na czerwone, (B)
Bardziej szczegółowoProcesy Markowa zawdzięczają swoją nazwę ich twórcy Andriejowi Markowowi, który po raz pierwszy opisał problem w 1906 roku.
Procesy Markowa zawdzięczają swoją nazwę ich twórcy Andriejowi Markowowi, który po raz pierwszy opisał problem w 1906 roku. Uogólnienie na przeliczalnie nieskończone przestrzenie stanów zostało opracowane
Bardziej szczegółowoOgólnopolska Konferencja Naukowa Zagadnienia Aktuarialne - Teoria i praktyka Warszawa, 9 11 czerwca 2008
Przemysław Klusik Instytut Matematyczny, Uniwersytet Wrocławski Ogólnopolska Konferencja Naukowa Zagadnienia Aktuarialne - Teoria i praktyka Warszawa, 9 11 czerwca 2008 (UWr) Zagadnienia Aktuarialne -
Bardziej szczegółowoMatematyka ubezpieczeń majątkowych r.
Matematyka ubezpieczeń majątkowych 0.0.005 r. Zadanie. Likwidacja szkody zaistniałej w roku t następuje: w tym samym roku z prawdopodobieństwem 0 3, w następnym roku z prawdopodobieństwem 0 3, 8 w roku
Bardziej szczegółowoZadania z RP 2. seria Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n
Zadania z RP 2. seria 1. 1. Dla x R n, niech δ x oznacza miarę Diraca, skupioną w punkcie x. Wykazać, że dla dowolnego ciągu x n R n zachodzi δ xn δ x wtedy i tylko wtedy, gdy x n x. 2. Podać przykład
Bardziej szczegółowoModelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski
Modelowanie zależności pomiędzy zmiennymi losowymi Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski P Zmienne losowe niezależne - przypomnienie Dwie rzeczywiste zmienne losowe X i Y
Bardziej szczegółowoMatematyka ubezpieczeń majątkowych r.
Matematyka ubezpieczeń majątkowych 4.04.0 r. Zadanie. Przy danej wartości λ parametru ryzyka Λ liczby szkód generowane przez ubezpieczającego się w kolejnych latach to niezależne zmienne losowe o rozkładzie
Bardziej szczegółowoMetody Rozmyte i Algorytmy Ewolucyjne
mgr inż. Wydział Matematyczno-Przyrodniczy Szkoła Nauk Ścisłych Uniwersytet Kardynała Stefana Wyszyńskiego Podstawowe operatory genetyczne Plan wykładu Przypomnienie 1 Przypomnienie Metody generacji liczb
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład XI: Testowanie hipotez statystycznych 12 stycznia 2015 Przykład Motywacja X 1, X 2,..., X N N (µ, σ 2 ), Y 1, Y 2,..., Y M N (ν, δ 2 ). Chcemy sprawdzić, czy µ = ν i σ 2 = δ 2, czyli że w obu populacjach
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład XIV: Metody Monte Carlo 19 stycznia 2016 Przybliżone obliczanie całki oznaczonej Rozważmy całkowalną funkcję f : [0, 1] R. Chcemy znaleźć przybliżoną wartość liczbową całki 1 f (x) dx. 0 Jeden ze
Bardziej szczegółowoKARTA PRZEDMIOTU. Forma prowadzenia zajęć. Odniesienie do efektów dla kierunku studiów K1A_W02
(pieczęć wydziału) KARTA PRZEDMIOTU Z1-PU7 WYDANIE N1 Strona 1 z 5 1. Nazwa przedmiotu: RACHUNEK PRAWDOPODOBIEŃSTWA 2. Kod przedmiotu: RPr 3. Karta przedmiotu ważna od roku akademickiego: 20182019 4. Forma
Bardziej szczegółowoWykład 3 Równania rózniczkowe cd
7 grudnia 2010 Definicja Równanie różniczkowe dy dx + p (x) y = q (x) (1) nazywamy równaniem różniczkowym liniowym pierwszego rzędu. Jeśli q (x) 0, to równanie (1) czyli równanie dy dx + p (x) y = 0 nazywamy
Bardziej szczegółowoTeoria systemów uczacych się i wymiar Vapnika-Chervonenkisa
Systemy uczace się 2009 1 / 32 Teoria systemów uczacych się i wymiar Vapnika-Chervonenkisa Hung Son Nguyen Wydział Matematyki, Informatyki i Mechaniki Uniwersytet Warszawski email: son@mimuw.edu.pl Grudzień
Bardziej szczegółowoStochastyczna dynamika z opóźnieniem czasowym w grach ewolucyjnych oraz modelach ekspresji i regulacji genów
Stochastyczna dynamika z opóźnieniem czasowym w grach ewolucyjnych oraz modelach ekspresji i regulacji genów Jacek Miękisz Instytut Matematyki Stosowanej i Mechaniki Uniwersytet Warszawski Warszawa 14
Bardziej szczegółowoZadania z Rachunku Prawdopodobieństwa III - 1
Zadania z Rachunku Prawdopodobieństwa III - 1 1. Oblicz funkcję tworzącą momenty zmiennych o następujących rozkładach: a) symetryczny dwupunktowy; b) dwumianowy z parametrami n, p; c) Poissona z parametrem
Bardziej szczegółowo7 Twierdzenie Fubiniego
M. Beśka, Wstęp do teorii miary, wykład 7 19 7 Twierdzenie Fubiniego 7.1 Miary produktowe Niech i będą niepustymi zbiorami. Przez oznaczmy produkt kartezjański i tj. zbiór = { (x, y : x y }. Niech E oraz
Bardziej szczegółowoWykład 3 Jednowymiarowe zmienne losowe
Wykład 3 Jednowymiarowe zmienne losowe Niech (Ω, F, P ) będzie ustaloną przestrzenią probabilistyczną Definicja 1 Jednowymiarowa zmienna losowa (o wartościach rzeczywistych), określoną na przestrzeni probabilistycznej
Bardziej szczegółowoTeoria ze Wstępu do analizy stochastycznej
eoria ze Wstępu do analizy stochastycznej Marcin Szumski 22 czerwca 21 1 Definicje 1. proces stochastyczny - rodzina zmiennych losowych X = (X t ) t 2. trajektoria - funkcja (losowa) t X t (ω) f : E 3.
Bardziej szczegółowoTestowanie hipotez. Hipoteza prosta zawiera jeden element, np. H 0 : θ = 2, hipoteza złożona zawiera więcej niż jeden element, np. H 0 : θ > 4.
Testowanie hipotez Niech X = (X 1... X n ) będzie próbą losową na przestrzeni X zaś P = {P θ θ Θ} rodziną rozkładów prawdopodobieństwa określonych na przestrzeni próby X. Definicja 1. Hipotezą zerową Θ
Bardziej szczegółowoDyskretne procesy stacjonarne o nieskończonej entropii nadwyżkowej
Dyskretne procesy stacjonarne o nieskończonej entropii nadwyżkowej Łukasz Dębowski ldebowsk@ipipan.waw.pl i Instytut Podstaw Informatyki PAN Co to jest entropia nadwyżkowa? Niech (X i ) i Z będzie procesem
Bardziej szczegółowoStatystyka aktuarialna i teoria ryzyka, model indywidualny i zespołowy, rozkłady złożone
Statystyka aktuarialna i teoria ryzyka, model indywidualny i zespołowy, rozkłady złożone Agata Boratyńska SGH, Warszawa Agata Boratyńska (SGH) SAiTR wykład 3 i 4 1 / 25 MODEL RYZYKA INDYWIDUALNEGO X wielkość
Bardziej szczegółowoProcesy stochastyczne
Wykład I: Istnienie procesów stochastycznych 21 lutego 2017 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane
Bardziej szczegółowoPrognozowanie i Symulacje. Wykład I. Matematyczne metody prognozowania
Prognozowanie i Symulacje. Wykład I. e-mail:e.kozlovski@pollub.pl Spis treści Szeregi czasowe 1 Szeregi czasowe 2 3 Szeregi czasowe Definicja 1 Szereg czasowy jest to proces stochastyczny z czasem dyskretnym
Bardziej szczegółowoStatystyka i eksploracja danych
Wykład II: i charakterystyki ich rozkładów 24 lutego 2014 Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa,
Bardziej szczegółowoImputacja brakujacych danych binarnych w modelu autologistycznym 1
Imputacja brakujacych danych binarnych w modelu autologistycznym 1 Marta Zalewska Warszawski Uniwesytet Medyczny Statystyka Matematyczna Wisła, grudzień 2009 1 Współautorzy: Wojciech Niemiro, UMK Toruń
Bardziej szczegółowoTeoria miary i całki
Teoria miary i całki Spis treści 1 Wstęp 3 2 lgebra zbiorów 5 3 Pierścienie, ciała, σ ciała zbiorów. 7 3.1 Definicja pierścienia ciała i σ ciała............... 7 3.2 Pierścień, ciało i σ ciało generowane
Bardziej szczegółowoZawansowane modele wyborów dyskretnych
Zawansowane modele wyborów dyskretnych Jerzy Mycielski Uniwersytet Warszawski grudzien 2013 Jerzy Mycielski (Uniwersytet Warszawski) Zawansowane modele wyborów dyskretnych grudzien 2013 1 / 16 Model efektów
Bardziej szczegółowoZadania do Rozdziału X
Zadania do Rozdziału X 1. 2. Znajdź wszystkie σ-ciała podzbiorów X, gdy X = (i) {1, 2}, (ii){1, 2, 3}. (b) Znajdź wszystkie elementy σ-ciała generowanego przez {{1, 2}, {2, 3}} dla X = {1, 2, 3, 4}. Wykaż,
Bardziej szczegółowoMetody probabilistyczne
Metody probabilistyczne. Twierdzenia graniczne Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 20.2.208 / 26 Motywacja Rzucamy wielokrotnie uczciwą monetą i zliczamy
Bardziej szczegółowojest ciągiem elementów z przestrzeni B(R, R)
Wykład 2 1 Ciągi Definicja 1.1 (ciąg) Ciągiem w zbiorze X nazywamy odwzorowanie x: N X. Dla uproszczenia piszemy x n zamiast x(n). Przykład 1. x n = n jest ciągiem elementów z przestrzeni R 2. f n (x)
Bardziej szczegółowo1 Wykład 3 Generatory liczb losowych o dowolnych rozkładach.
Wykład 3 Generatory liczb losowych o dowolnych rozkładach.. Metoda odwracania Niech X oznacza zmienna losowa o dystrybuancie F. Oznaczmy F (t) = inf (x : t F (x)). Uwaga Zauważmy, że t [0, ] : F ( F (t)
Bardziej szczegółowodla t ściślejsze ograniczenie na prawdopodobieństwo otrzymujemy przyjmując k = 1, zaś dla t > t ściślejsze ograniczenie otrzymujemy przyjmując k = 2.
Zadanie. Dla dowolnej zmiennej losowej X o wartości oczekiwanej μ, wariancji momencie centralnym μ k rzędu k zachodzą nierówności (typu Czebyszewa): ( X μ k Pr > μ + t σ ) 0. k k t σ *
Bardziej szczegółowo2. P (E) = 1. β B. TSIM W3: Sygnały stochastyczne 1/27
SYGNAŁY STOCHASTYCZNE Przestrzeń probabilistyczna i zmienna losowa Definicja Przestrzenią probabilistyczną (doświadczeniem) nazywamy trójkę uporządkowaną (E, B, P ), gdzie: E przestrzeń zdarzeń elementarnych;
Bardziej szczegółowoZadania o numerze 4 z zestawów licencjat 2014.
Zadania o numerze 4 z zestawów licencjat 2014. W nawiasie przy zadaniu jego występowanie w numerze zestawu Spis treści (Z1, Z22, Z43) Definicja granicy ciągu. Obliczyć granicę:... 3 Definicja granicy ciągu...
Bardziej szczegółowoKARTA PRZEDMIOTU. 12. Przynależność do grupy przedmiotów: Prawdopodobieństwo i statystyka
(pieczęć wydziału) KARTA PRZEDMIOTU Z1-PU7 WYDANIE N1 Strona 1 z 5 1. Nazwa przedmiotu: RACHUNEK PRAWDOPODOBIEŃSTWA 2. Kod przedmiotu: RPr 3. Karta przedmiotu ważna od roku akademickiego: 20152016 4. Forma
Bardziej szczegółowoBiostatystyka, # 3 /Weterynaria I/
Biostatystyka, # 3 /Weterynaria I/ dr n. mat. Zdzisław Otachel Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Głęboka 28, p. 221 bud. CIW, e-mail: zdzislaw.otachel@up.lublin.pl
Bardziej szczegółowoPrawdopodobieństwo i statystyka r.
Zadanie. Niech (X, Y) ) będzie dwuwymiarową zmienną losową, o wartości oczekiwanej (μ, μ, wariancji każdej ze współrzędnych równej σ oraz kowariancji równej X Y ρσ. Staramy się obserwować niezależne realizacje
Bardziej szczegółowoF t+ := s>t. F s = F t.
M. Beśka, Całka Stochastyczna, wykład 1 1 1 Wiadomości wstępne 1.1 Przestrzeń probabilistyczna z filtracją Niech (Ω, F, P ) będzie ustaloną przestrzenią probabilistyczną i niech F = {F t } t 0 będzie rodziną
Bardziej szczegółowo1 Warunkowe wartości oczekiwane
Warunkowe wartości oczekiwane W tej serii zadań rozwiążemy różne zadania związane z problemem warunkowania.. (Eg 48/) Załóżmy, że X, X, X 3, X 4 są niezależnymi zmiennymi losowymi o jednakowym rozkładzie
Bardziej szczegółowoNiech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX = 4 i EY = 6. Rozważamy zmienną losową Z =.
Prawdopodobieństwo i statystyka 3..00 r. Zadanie Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX 4 i EY 6. Rozważamy zmienną losową Z. X + Y Wtedy (A) EZ 0,
Bardziej szczegółowoPrawa wielkich liczb, centralne twierdzenia graniczne
, centralne twierdzenia graniczne Katedra matematyki i ekonomii matematycznej 17 maja 2012, centralne twierdzenia graniczne Rodzaje zbieżności ciągów zmiennych losowych, centralne twierdzenia graniczne
Bardziej szczegółowoMatematyka ubezpieczeń majątkowych r.
Zadanie 1. W pewnej populacji podmiotów każdy podmiot narażony jest na ryzyko straty X o rozkładzie normalnym z wartością oczekiwaną równą μ i wariancją równą. Wszystkie podmioty z tej populacji kierują
Bardziej szczegółowo