Procesy stochastyczne (2014/15)
|
|
- Arkadiusz Borkowski
- 7 lat temu
- Przeglądów:
Transkrypt
1 Procesy stochastyczne (214/15) Anna Talarczyk-Noble Notatki do wykładu
2 2
3 Spis treści I Mocne i słabe rozwiązania stochastycznych równań różniczkowych, jednoznaczność 5 1 Definicje i przykłady Mocne i słabe rozwiązania Przykład Tanaki Twierdzenie Girsanowa a słabe rozwiązania Przykład Girsanowa Twierdzenie Yamady-Watanabe o jednoznaczności Regularny rozkład warunkowy Dowód Twierdzenia Yamady-Watanabe Słabe rozwiązania a problem martyngałowy Definicja problemu martyngałowego Słabe rozwiązania a problem martyngałowy Twierdzenie Stroocka-Varadhana o istnieniu słabych rozwiązań II Procesy Markowa 29 4 Proces Poissona Proces Poissona definicja i konstrukcja Uogólniony proces Poissona Złożony proces Poissona Procesy Markowa - definicja i proste własności Definicja procesu Markowa i warunki równoważne Funkcja przejścia Przykłady procesów Markowa Rozkłady skończenie wymiarowe procesu Markowa Jednorodne rodziny Markowa Definicja jednorodnej rodziny Markowa Operator przesunięcia
4 4 SPIS TREŚCI 7 Mocna własność Markowa Mocna własność Markowa Półgrupy operatorów związane z procesami Markowa Półgrupy fellerowskie Mocna własność Markowa a operator przesunięcia Prawo 1 Blumenthala Zasada odbicia dla procesu Wienera Regularność trajektorii procesów Markowa 55 9 Półgrupy i ich generatory 57 1 Łańcuchy Markowa z czasem ciągłym Procesy dyfuzji Definicja procesu dyfuzji Interpretacja współczynników dryfu i dyfuzji Procesy dyfuzji a rozwiązania równań stochastycznych Wzór Feynmana-Kaca Procesy dyfuzji i zagadnienie Dirichleta 83
5 Część I Mocne i słabe rozwiązania stochastycznych równań różniczkowych, jednoznaczność 5
6
7 Rozdział 1 Definicje i przykłady 1.1 Mocne i słabe rozwiązania Będziemy rozważać stochastyczne równania różniczkowe postaci dx t =b(t,x t )dt+σ(t,x t )dw t, (1.1) X =x, gdziew jest procesem Wienera o wartościach wr m, b : R + R d R d iσ : R + R d M(d m) są funkcjami borelowskimi, przy czym M(d m) oznacza zbiór macierzy o współczynnikach rzeczywistych o d wierszach i m kolumnach, x R d. Dla uproszczenia będziemy zwykle będziemy rozważać przypadek jednowymiarowy d = m = 1, jednak definicje poniżej formułuje się tak samo w przypadku ogólnym. Oznaczenia. Niech Y = (Y t ) t będzie procesem stochastycznym zdefiniowanym na pewnej przestrzeni probabilistycznej (Ω, F, P). Zwykle zakładamy, że σ-ciało F jest zupełne, to znaczy zawiera wszystkie podzbiory zbiorów miary zero z F. Przez (F Y t ) t oznaczamy filtrację generowaną przez proces Y, tj. F Y t = σ(y s : s t). Przez F Y t oznaczamy najmniejsze σ-ciało zawierające F Y t i wszystkie zdarzenia o prawdopodobieństwie zero. Definicja 1.1. Niech W będzie procesem Wienera w R m zdefiniowanym na pewnej przestrzeni probabilistycznej (Ω,F,P). Mówimy, że równanie (1.1) ma mocne rozwiązanie na (Ω,F,P) względem procesu Wienera W jeżeli istnieje ciągły proces X = (X t ) t o wartościach w R d, zdefiniowany na (Ω,F,P), adaptowany do (Ft W ) t spełniający X t = x+ b(s,x s )ds+ σ(s,x s )dw s, t. (1.2) Jeżeli warunek początkowy równania jest losowy X = ξ, gdzie ξ jest zmienną losową określoną na (Ω, F, P) niezależną od W, wtedy proces X nazywa się mocnym rozwiązaniem jeżeli spełnia X t = ξ + b(s,x s )ds+ σ(s,x s )dw s, t. oraz X jest adaptowany do filtracji (G t ) t, gdzie G t = σ(f W t,ξ). 7
8 8 ROZDZIAŁ 1. DEFINICJE I PRZYKŁADY Uwaga 1.2. Na wykładzie z Wstępu do Analizy Stochastycznej widzieliśmy, że jeśli funkcje x b(t,x) i x σ(t,x) spełniają warunek Lipschitza ze stałą niezależną od t i b(t,),σ(t,) są ograniczone, to na dowolnej przestrzeni probabilistycznej (Ω, F, P), na której istnieje proces Wienera W, równanie (1.1) ma mocne rozwiązanie. Definicja 1.3. Mówimy, że równanie (1.1) ma słabe rozwiązanie jeśli istnieje przestrzeń probabilistyczna (Ω,F,P) z filtracją (F t ) t oraz na (Ω,F,P) istnieje proces Wienera W względem (F t ) t i istnieje ciągły proces X adaptowany do (F t ) t spełniający (1.2). {(Ω,F,P),(F t ) t,(w,x)} nazywa się słabym rozwiązaniem równania (1.1). Czasem, dla skrótu, będziemy tylko pisać, że (W,X) jest słabym rozwiązaniem. Uwaga: Zasadnicza różnica w definicji słabego i mocnego rozwiązania polega na tym, że w przypadku słabego rozwiązania proces X może nie być adaptowane do filtracji generowanej przez proces Wienera. F t może być na ogół większe niż F W t. Jeśli If {(Ω,F,P),(F t ) t,(w,x)} jest słabym rozwiązaniem (1.1) i X jest adaptowane do F W t to X jest mocnym rozwiązaniem (1.1) względem (Ω,F,P) i W. Definicja 1.4. Mówimy, że rozwiązanie równania (1.1) jest jednoznaczne w sensie trajektorii, jeżeli dla każdej pary słabych rozwiązań {(Ω,F,P),(F t ) t,(w,x)} i {(Ω,F,P),(F t ) t,(w,x )} na tej samej przestrzeni probabilistycznej i z tym samym procesem Wienera W procesy X i X są nieodróżnialne, tj. P(X t = X t t ) = 1. Definicja 1.5. Mówimy, że rozwiązanie równania (1.1) jest jednoznaczne w sensie rozkładu, jeżeli dla każdej pary słabych rozwiązań {(Ω,F,P),(F t ) t,(w,x)} i {(Ω,F,P ),(F t) t,(w,x )}, procesy X i X mają te same rozkłady. Przykład 1.6. Jeżeli istnieje C takie, że oraz σ(t,x) σ(t,y) + b(t,x) b(t,y) C x y σ(t,) + b(t,) C dla dowolnych x,y R d, t R +, to dla równanie (1.1) ma mocne rozwiązanie, na dowolnej przestrzeni probabilistycznej z procesem Wienera. Ponadto rozwiązanie (1.1) jest jednoznaczne w sensie trajektorii. 1. W pozostałych przykładach będziemy rozważać tylko przypadek jednowymiarowy m = d = 1.2 Przykład Tanaki Przykład 1.7. Wprowadźmy oznaczenie { 1 dla x σ(x) = 1 dla x <. Rozważmy równanie dx t = σ(x t )dw t, X =. (1.3)
9 1.3. TWIERDZENIE GIRSANOWA A SŁABE ROZWIĄZANIA 9 Pokażemy, że to równanie ma słabe rozwiązanie, ale nie ma żadnego mocnego rozwiązania. Jednakże najpierw zajmiemy się problemem jednoznaczności. Przypuśćmy, że istniej słabe rozwiązanie (W,X). Wtedy X t = σ(x s)dw s. X jest więc ciągłym martyngałem o wariacji kwadratowej X t = σ2 (X s )ds = t. Z twierdzenia Lévy ego o charakteryzacji procesu Wienera wynika, że X jest procesem Wienera, zatem zachodzi jednoznaczność w sensie rozkładu dla równania (1.3). Zauważmy, że jeżeli (W,X) jest słabym rozwiązaniem (1.3), to X t = nieodróżnialne σ(x s )dw s = σ( X s )dw s, gdyż E 1 {} (X s )ds =. Zatem (W, X) również jest słabym rozwiązaniem. Nie ma jednoznaczności w sensie trajektorii. Teraz skonstruujemy słabe rozwiązanie. Niech X będzie standardowym procesem Wienera na przestrzeni probabilistycznej (Ω,F,P) i niech F t = F X t. Oznaczmy W t = σ(x s )dx s W jest ciągłym martyngałem względem filtracji (F t ) t oraz W t = t, zatem W jest procesem Wienera względem F X. Ponadto σ(x s )dw s = σ(x s )σ(x s )dx s = dx s = X t. Zatem (W,X) jest słabym rozwiązaniem. To nie jest mocne rozwiązanie. Na ćwiczeniach pokażemy, że σ(x s)dx s jest adaptowane do (F X t ) t. Ta filtracja jest ściśle mniejsza niż (F X t ) t. Np. jeśli A = {ω Ω : X t (1,2)} to A F X t ale A / F X t. Podobnie, żadne inne słabe rozwiązanie nie może być mocnym rozwiązaniem. Dla mocnego rozwiązania musiałoby być F X s F W s dla wszystkich s, ale wiemy także, że σ(x s)dx s = σ2 (X s )dw s = W t, X jest procesem Wienera, więc jak poprzenio σ(x s)dx s jest adaptowane do (F X t ) t. Zatem W jest adaptowane do (F X t ) t. W konsekwencji F X s F W s F X t, co prowadzi do sprzeczności, gdyż F X t jest ściśle mniejsze od F X s. 1.3 Zastosowanie twierdzenia Girsanowa do konstrukcji słabych rozwiązań Rozważmy stochastyczne równanie różniczkowe dx t = b(t,x t )dt+dw t, X = x, (1.4)
10 1 ROZDZIAŁ 1. DEFINICJE I PRZYKŁADY gdzie b jest funkcją borelowską i ograniczoną. Możemy założyć, że x =. Rzeczywiście, dla dowolnego x równanie jest równoważne X t = x+ X t x = b(s,x s )ds+w t b(s,x+x s x)+dw t. Jeśli oznaczymy X t = X t x, to powyższy rachunek pokazuje, że (W,X) jest słabym rozwiązaniem (1.4) wtedy i tylko wtedy, gdy (W, X) jest słabym rozwiązaniem podobnego równania z b(t,y) = b(t,x+y) i zerowym warunkiem początkowym. Od tej pory będziemy zakładać, że x =. Niech V będzie procesem Wienera określonym na pewnej przestrzeni probabilistycznej (Ω, F, P). Ponieważ założyliśmy, że b jest ograniczone, to dla każdego T zachodzi Eexp{ 1 2 Z kryterium Nowikowa wynika więc, że jeśli { Z t = exp b(s,v s )dv s 1 2 b 2 (s,v s )ds} <. (1.5) } b 2 (s,v s )ds, to EZ T = 1 dla każdego T > (zatem (Z t ) t [,T] jest martyngałem). To pozwala zdefiniować nową miarę probabilistyczną Q T na (Ω,F) kładąc dq T = Z T dp. Z twierdzenia Girsanowa wynika, że proces W t = V t b(s,v s )ds, t [,T] jest standardowym procesem Wienera na (Ω,F,Q T ). Innymi słowy {(Ω,F,Q T ),(F V t ) t [,T],(W t,v t ) t [,T] } jest słabym rozwiązaniem (1.4) z x = na przedziale [, T]. Aby skonstruować rozwiązanie dla t definiujemy miarę probabilistyczną Q na F V tak, że Q F V = Q T F V dla wszystkich T. Z jest martyngałem, więc z twierdzenia Girsanowa T T wiadomo, że Q jest dobrze określone i jest to miara probabilistyczna. Ponadto, W t = V t b(s,v s )ds, t jest standardowym procesem Wienera na (Ω,(F V ),Q). Stąd {(Ω,F,Q),(F V t ) t,(w,v)} jest słabym rozwiązaniem równania (1.4) z x =. Pokazaliśmy Twierdzenie 1.8. Jeżeli b : R + R R jest funkcją borelowską i ograniczoną, to stochastyczne równanie różniczkowe (1.4) ma słabe rozwiązanie. Założenie ograniczoności b można osłabić. Wystarczy założyć np., że jeżeli V jest procesem Wienera, to Eexp{ 1 2 b 2 (s,x+v s )ds} <.
11 1.4. PRZYKŁAD GIRSANOWA Przykład Girsanowa Rozważmy równanie dx t = X t α dw t, X =, (1.6) gdzie α > jest ustalone. Oczywiście proces X jest zawsze mocnym rozwiązaniem. Można pokazać, że gdy α 1 2, to zachodzi jednoznaczność w sensie rozkładów. Załóżmy teraz, że < α < 1 2. Pokażemy, że w tym przypadku równanie (1.6) ma słabe rozwiązanie, które nie jest tożsamościowo równe, zatem nie zachodzi jednoznaczność w sensie rozkładu. Niech V będzie standardowym procesem Wienera na pewnej przestrzeni probabilistycznej (Ω,F,P). Połóżmy R M t = V s α dv s. M jest dobrze zdefiniowane i jest to martyngał całkowalny z kwadratem, gdyż E V s 2α 1 1 t ds = x 2α e x2 2sdxds = s α 1 y 2 2πs y 2αe 2 dyds <. Na końcu użyliśmy założenia α < 1 2. Pokażemy, że można tak zmienić czas, aby z M zrobić proces Wienera. Zauważmy, że M t = V s 2α ds. M jest procesem ciągłym i ściśle rosnącym. Ponadto łatwo pokazać (używając np. prawa iterowanego logarytmu), że M =. Oznaczmy przez τ funkcję odwrotną do M, tj. τ t = inf{r : r V s 2α ds = t}, t. Dla każdego t, τ t jest momentem zatrzymania względem (F V t ) t. Zdefiniujmy także W t = M τt X t = V τt, t. Wtedy zachodzą następujące fakty. Stwierdzenie 1.9. W jest standardowym procesem Wienera. Stwierdzenie 1.1. (W, X) jest słabym rozwiązaniem (1.6). Stwierdzenia 1.9 jest prawie natychmiastowe. Potrzebujemy tylko pokazać, że W jest ciągłym martyngałem (ciągłość jest jasna, gdyż M i τ są ciągłe, własność martyngałowości wynika łatwo z twierdzenia Dooba o zatrzymywaniu) oraz M τ t = M τt = t. Z twierdzenia Lévy ego o charakteryzacji procesu Wienera wynika, że W jest standardowym procesem Wienera. Szczegóły na ćwiczeniach. Stwierdzenie 1.1 wynika z ciągu równości X s α dw s = V τs α dm τs ( ) = τt V r α dm r = τt R V s α V s α dv s = V τt = X t. Zauważmy jednak, że ( ) wymaga formalnego uzasadnienia. Można to zrobić odpowiednio aproksymując przez procesy elementarne. Dowód można znaleźć w książce [MK].
12 12 ROZDZIAŁ 1. DEFINICJE I PRZYKŁADY
13 Rozdział 2 Twierdzenie Yamady-Watanabe o jednoznaczności W tym rozdziale, podobnie jak w poprzednim będziemy rozważać równanie (1.1), z tym że dopuszczamy także losowe warunki początkowe. dx t =b(t,x t )dt+σ(t,x t )dw t, (2.1) X µ, gdzie µ jest pewną miarą probabilistyczną na R d, a oznacza równość rozkładów. W tym przypadku słabe rozwiązanie to {(Ω,F,P),(F t ) t,w,x}, gdzie X jest adaptowane do (F t ), W jest procesem Wienera względem (F t ), zachodzi X t = X + b(s,x s)ds+ σ(s,x s)dw s oraz X ma rozkład µ. Wykażemy następujące twierdzenie. Twierdzenie 2.1. (Yamada-Watanabe) (a) Jednoznaczność w sensie trajektorii rozwiązania równania (2.1) implikuje jednoznaczność w sensie rozkładu (b) Załóżmy, że równanie (2.1) ma słabe rozwiązanie, jednoznaczne w sensie trajektorii. Wówczas każde słabe rozwiązanie jest mocne (na odpowiedniej przestrzeni probabilistycznej). W dowodzie wykorzystamy tzw. regularny rozkład warunkowy. Kwestię jego istnienia omówimy w następnym podrozdziale. 2.1 Regularny rozkład warunkowy Niech (Ω, F, P) będzie przestrzenią probabilistyczną, a G σ-ciałem, G F. Definicja 2.2. (Regularny rozkład warukowy) Niech X będzie zmienną losową określoną na (Ω,F,P) o wartościach w przestrzeni mierzalnej (E,B). Funkcję P X G : Ω B [,1] nazywamy regularnym rozkładem warunkowym X pod warunkiem σ-ciała G jeżeli spełnia: (i) dla każdego ω Ω P X G (ω, ) jest rozkładem probabilistycznym na (E,B), (ii) dla każdego B B ω P X G (ω,b) jest G mierzalne oraz P X G (,B) = P(X B G) p.n. 13
14 14 ROZDZIAŁ 2. TWIERDZENIE YAMADY-WATANABE O JEDNOZNACZNOŚCI Zachodzi następujące stwierdzenie: Stwierdzenie 2.3. Jeżeli X jest zmienną losową o wartościach w (E, B) i istnieje regularny rozkład warunkowy, to dla dowolnej funkcji ϕ : E R mierzalnej względem σ-ciał B i B(R) oraz takiej, że E ϕ(x) < zachodzi E(ϕ(X) G) = ϕ(x)p X G (,dx) p.n. Dowód. Jeżeli ϕ = 1 B, B B, to korzystając z warunku (ii) Definicji 2.2 mamy E(1 B (X) G) = P(X B G) = P X G (,B) = 1 B (x)p X G (,dx) p.n. E Dalej dowód przebiega standardowo: sprawdzamy warunek dla ϕ prostych, ϕ = n i=1 a i1 Bi, następnie dla ϕ i w końcu dla dowolnych ϕ, ϕ = ϕ + ϕ. Jeżeli przestrzeń (E, ρ) jest przestrzenią polską wyposażoną w σ-ciało zbiorów borelowskich B, to regularny rozkład warunkowy zawsze istnieje: Twierdzenie 2.4. Niech X będzie zmienną losową o wartościach w przestrzeni polskiej (E, B), określoną na (Ω,F,P) i niech G będzie σ-ciałem zawartym w F. Wtedy istnieje regularny rozkład warunkowy X pod warunkiem G. Dowód. Każda przestrzeń polska jest izomorficzna z borelowskim podzbiorem R, dlatego wystarczy udowodnić twierdzenie w przypadku, gdy (E, B) = (R, B(R)). Załóżmy zatem, że (E,B) = (R,B(R)). Dla q Q kładziemy F(q,ω) := P(X q G)(ω) gdzie P(X q G) jest jakąś wersją prawdopodobieństwa warunkowego (które, jak wiemy jest zdefiniowane tylko z dokładnością do równości p.n.). Zauważmy, że P(X q G) 1 p.n. Jeśli q 1 q 2, q 1,q 2 Q, to {X q 1 } {X q 2 }, a więc P(X q 1 G) P(X q 2 G) p.n. Ponadto lim n P(X n G) = 1 p.n. oraz lim n P(X n) =, więc Odrzucając z Ω przeliczalną sumę zbiorów o prawdopodobieństwie widzimy, że istnieje Ω, P( Ω) = 1 takie, że F(q 1,ω) F(q 2,ω) Ω q 1 q 2,q 1,q 2 Q, ω Ω lim F( n,ω) =, lim F(n,ω) = 1 n n ω Ω. Ustalmy dowolne t R i ω Ω. Weźmy dowolny ciąg liczb wymiernych q n ց t. Wtedy ciąg F(q n,ω) jest nierosnący i ograniczony, ma więc granicę, którą oznaczamy przez F(t,ω). Z monotoniczności F(,ω) na Q jest jasne, że ta granica nie zależy od wyboru ciągu przybliżającego t. Zauważmy, że dla każdego ω Ω tak zdefiniowana funkcja t F(t,ω) jest niemalejąca i prawostronnie ciągła. Ponadto, lim t F(t,ω) =, lim t F(t,ω) = 1. Zatem F(,ω) jest dystrybuantą pewnej miary probabilistycznej µ ω na (R,B(R)). Niech { µ ω (B) jeśli ω P X G (ω,b) = Ω δ (B) ω / Ω
15 2.1. REGULARNY ROZKŁAD WARUNKOWY 15 (zamiast delty Diraca w zerze moglibyśmy wziąć dowolną ustaloną miarę probabilistyczną.) Tak zdefiniowane P X G jest regularnym rozkładem warunkowym X pod warunkiem G. Warunek (i) Definicji 2.2 zachodzi w sposób oczywisty. Warunek (ii) też, bo jeżeli q n ց t, q n Q, to dla ω Ω F(q n,ω) F(t,ω) = µ ω(dx) = P X G (ω,(,t]). (tj. F(q n, ) p.n. P X G (,(,t])). Z drugiej strony F(q n, ) = P(X q n G) P(X t G). Zatem dla każdego t R p.n. P X G (,(,t]) = P(X t G) p.n. Zbiory postaci (,t] tworzą π-układ, zaś zbiory B B(R) spełniające równość P X G (,B) = P(B G) p.n. tworzą λ-układ, zatem z lematu o π i λ-układach otrzymujemy, że warunek (ii) Definicji 2.2 jest spełniony. Stwierdzenie 2.5. Przy założeniach Twierdzenia 2.4 regularny rozkład warunkowy X pod warunkiem G jest jednoznaczny w następującym sensie: Jeżeli K,K : Ω B [,1] spełniają warunki (i) i (ii) Defnicji 2.2, to istnieje zbiór N G, taki że P(N) = oraz dla wszystkich ω Ω\N oraz B B(R) zachodzi K(ω,B) = K (ω,b). Dowód. Niech N = {ω : q Q takie, że K(ω,(,q]) K (ω,(,q])}. Z lematu o π i λ układach wynika, że dla ω Ω\N miary probabilistyczne K(ω, ) i K (ω, ) są równe. Trzeba tylko pokazać, że N G i N ma prawdopodobieństwo równe. Dla każdego q Q z warunku (ii) wynika, że ω K(ω,(,q]) jest G -mierzalne i to samo zachodzi dla K, zatem {ω : K(ω,(,q]) K (ω,(,q])} G. Ponadto, również z (ii) mamy K(ω,B) = P(X B G)(ω) = K (ω,b),dla P prawie wszystkich ω. To oznacza, że P({ω : K(ω,(,q]) K (ω,(,q])}) =. Zbiór N jest przeliczalną sumą zbiorów tej postaci, więc teza zachodzi. Jeżeli dodatkowo wiadomo, że σ-ciało G jest generowane przez pewną inną zmienną losową Y, to można mówić o regularnym rozkładzie warunkowym X pod warunkiem Y w sensie takim, jak w następnym Twierdzeniu. Twierdzenie 2.6. Jeżeli spełnione są założenia Twierdzenia 2.4 i dodatkowo G = σ(y) dla pewnej zmiennej losowej Y : Ω S, gdzie (S,S) jest pewną przestrzenią mierzalną, to istnieje Q : S B [,1] takie, że (i) dla każdego y S Q(y, ) jest rozkładem probabilistycznym na (E, B), (ii) dla każdego B B funkcja y Q(y,B) jest S mierzalna oraz Q(Y,B) = P(X B Y) p.n. Ponadto, Q jest wyznaczone jednoznacznie z dokładnością do zbioru µ Y -miary zero, gdzie µ Y oznacza rozkład zmiennej losowej Y. Dokładniej, jeżeli Q i Q mają własności (i) oraz (ii) to istnieje zbiór N S taki, że P(Y N) = taki, że dla wszystkich y S\N i wszystkich B B zachodzi Q(y,B) = Q (y,b).
16 16 ROZDZIAŁ 2. TWIERDZENIE YAMADY-WATANABE O JEDNOZNACZNOŚCI Q jw. nazywa się regularnym rozkładem warunkowym X pod warunkiem Y, albo też jądrem przejścia z Y do X. Twierdzenie 2.6 dowodzi się niemal identycznie jak Twierdzenie 2.4, zauważając, że ponieważ P(X q Y) jest Y mierzalne, to istnieje funkcja mierzalna f q : S R taka, że P(X q Y) = f q (Y) p.n. i pracując dalej z funkcjami (y,q) f q (y). Alternatywnie, można przejść najpierw do przestrzeni kanonicznej i wykorzystać poprzednie twierdzenie. 2.2 Dowód Twierdzenia Yamady-Watanabe Przypuśćmy, że mamy dwa słabe rozwiązania równania (2.1): {(Ω (1),F (1),P (1) ),(F (1) t ) t,(w (1),X (1) )} oraz {(Ω (2),F (2),P (2) ),(F (2) t ) t,(w (2),X (2) )}. Główny pomysł polega na przeniesieniu tych słabych rozwiązań na wspólną przestrzeń probabilistyczną, gdyż wtedy będziemy mogli skorzystać z jednoznaczności w sensie trajektorii. Słabe rozwiązanie (W (i),x (i) ), i = 1,2 wygodnie będzie reprezentować równoważnie w postaci trójki (X (i),w(i),y (i) ), gdzie Y i = X (i) X (i). Wprowadźmy oznaczenia: C d = C([, ),R d ) przestrzeń funkcji ciągłych określonych na R +, o wartościach w R d. Niech B(C d ) oznacza σ-ciało podzbiorów C d generowane przez cylindry. Zauważmy, że B(C d ) jest jednocześnie σ-ciałem zbiorów borelowskich, gdy C d rozważyć z topologią zbieżności niemal jednostajnej, C d jest wtedy przestrzenią polską. Niech µ będzie rozkładem początkowym, µ X (1) X (2). Niech ponadto P oznacza miarę Wienera na B(C m ), tzn. rozkład m-wymiarowego procesu Wienera na przestrzeni funkcji ciągłych C m. Przyjmijmy Ω :=R d C m C d C d F :=B(R d ) B(C m ) B(C d ) B(C d ) Elementy Ω będziemy zwykle oznaczać (x,w,y 1,y 2 ). Niech Q (i) (Q (i) (x,w,dy i )) będzie regularnym rozkładem warunkowym Y (i) pod warunkiem (X (i),w(i) ). Jako prawdopodobieństwo na (Ω, F) kładziemy P(dxdwdy 1 dy 2 ) = Q (1) (x,w,dy 1 )Q (2) (x,w,dy 2 )P (dw)µ(dx). Rozważmy proces kanoniczny Z t (x,w,y 1,y 2 ) = (x,w(t),y 1 (t),y 2 (t)). Zauważmy, że bezpośrednio z konstrukcji otrzymujemy, iż (x,w,y 1 ) na przestrzeni (Ω,F,P) ma ten sam rozkład co(x (1),W(1),Y (1) ) oraz(x,w,y 2 ) ma ten sam rozkład co(x (2),W(2),Y (2) ). Oznaczmy dodatkowo przez (F t ) t filtrację generowaną przez proces kanoniczny Z, uzupełnioną o zbiory miary P-zero tj. F t = σ(x,w(s),y 1 (s),y 2 (s) : s t) = B(R d ) B w t B y 1 t B y 2 t, (2.2) gdzie B w t B(C m ), B y i t B(C d ), B w t = σ{w(s) : s t}, B y i t = σ{y i (s) : s t}. Druga równość w (2.2) wynika z faktu, że odpowiednie przestrzenie są ośrodkowe. Zachodzą następujące fakty:
17 2.2. DOWÓD TWIERDZENIA YAMADY-WATANABE 17 Lemat 2.7. Jeżeli A B y 1 t, to (x,ω) Q (1) (x,ω,a) jest mierzalne względem B(R d ) B w t. Dowód. Dla uproszczenia oznaczeń niech Q := Q (1). Dla każdego ustalonego t > istnieje regularny rozkład warunkowy y 1 pod warunkiem (x,(w(s)) s [,t] ). Oznaczmy go przez Q t. Z definicji regularnego rozkładu warunkowego wynika, że (x,w) Q t (x,w,a) jest B(R d ) B w t mierzalne. Należy więc tylko wykazać, że dla A B y 1 t zachodzi Q t (,A) = Q(,A) µ P p.n. (2.3) (Uwaga. Wykażemy równość prawie na pewno, dlatego musimy uzupełnić σ-ciało.) Niech C B(R d ) Bt w. Wtedy, bezpośrednio z definicji regularnego rozkładu warunkowego mamy P(C A C d ) = Q t (x,w,a)µ(dx)p (dw). (2.4) C Z drugiej strony, z definicji prawdopodobieństwa P dla każdego C B(R d ) B w P(C A C d ) = Q(x,w,A)µ(dx)P (dw). (2.5) Zatem C Q t (x,w,a)µ(dx)p (dw) = C C Q(x,w,A)µ(dx)P (dw) (2.6) dla C B(R d ) Bt w. Trzeba jeszcze pokazać, że to samo zachodzi dla dowolnego C B(R) B w. Ponieważ zbiory C spełniające (2.6) tworzą λ-układ, wystarczy pokazać, że (2.6) zachodzi dla π-układu złożonego ze zbiorów postaci C = B (Γ 1 Γ 2 ), gdzie Γ 1 B w t, Γ 2 B w >t := σ((w(t+u) w(t)) u ) B w. Dla takich C mamy C Q t (x,w,a)µ(dx)p (dw) = Q t (x,w,a)1 B (x)1 Γ1 (w) 1 }{{} Γ2 (w)µ(dx)p (dw). B(R d ) Bt w mierzalne P jest miarą Wienera, więc korzystając z niezależności Bt w i Γ 2 przy P = Q t (x,w,a)1 B 1 Γ1 (w)µ(dx)p (dw) P (Γ 2 ) używając (2.6) dla zbioru C = B Γ 1 = Q(x,w,A)1 B 1 Γ1 (w)µ(dx)p (dw) P (Γ 2 ) = P(B Γ 1 A C d )P(Γ 2 ) = P (1) (X B,W (1) Γ 1,X (1) X (1) A)P (1) (W (1) Γ 2 )
18 18 ROZDZIAŁ 2. TWIERDZENIE YAMADY-WATANABE O JEDNOZNACZNOŚCI (W,X) jest słabym rozwiązaniem, więc w szczególności (W (1) t+s W(1) t ) s jest procesem niezależnym od (W s,x s ) s t, gdyż (W,X) jest adaptowane do filtracji (F (1) ) i (W (1) t+s W(1) t ) s nie zależy od F (1) t, bo W (1) jest procesem Wienera względem tej filtracji = P (1) (X B,W (1) Γ 1,X (1) X (1) A,W (1) Γ 2 ) = P (1) ((X (1),W(1),Y (1) ) C A) = P(C A C d ) = Q(x,w,A)µ(dx)P (dw). C Zatem równość (2.6) zachodzi dla wszystkich C B(R d ) B w. Stąd wynika (2.3). Lemat 2.8. {(Ω,F,P),(F t ),(w,x +y 1 )} oraz {(Ω,F,P),(F t ),(w,x + y 2 )} są słabymi rozwiązaniami równania (2.1). Dowód. Jest jasne, że w jest procesem Wienera na (Ω,F,P). Należy pokazać, że w jest procesem Wienera względem filtracji (F t ), tzn. dla r > t w(r) w(t) jest niezależne od F t. Niech A 1 B y 1 t,a 2 B y 2 t, B B(R d ) Bt w. Wtedy dla r > t i dowolnego x R d mamy Ee i x,w(r) w(t) 1 A1 (y 1 )1 A2 (y 2 )1 B (x,w) = e} i x,w(r) w(t) {{} Q (1) (x,w,a 1 )Q (2) (x,w,a 2 )1 B (x,w) µ(dx)p }{{} (dw) Ω nzal. od B(R d ) Bt w B(R d ) B w t mierzalne (Lemat 2.7) = e x2 (r t) 2 2 P(B A 1 A 2 ) = Ee i x,w(r) w(t) P(B A 1 A 2 ). Stąd wynika, że w(r) w(t) jest niezależne od F t. Sprawdzenie, że (w,x+y 1 ) spełnia równanie jest nietrudne, gdyż ( x,w,y 1, b(y 1 (s))ds+ ) σ(y 1 (s))dw(s) ma ten sam rozkład co (X (1),W(1),Y (1),Y (1) ), bo X (1) +Y (1) spełnia równanie. Wszystkie procesy są ciągłe, zatem y 1 jest nieodróżnialne od b(y 1(s))ds+ σ(y 1(s))dw(s). Tak samo sprawdza się, że (w,x+y 2 ) także jest słabym rozwiązaniem. Ciąg dalszy dowodu Twierdzenia 2.1: (a) Jeżeli (W (1),X (1) ) i (W (2),X (2) ) są słabymi rozwiązaniami, to zgodnie z opisaną wyżej konstrukcją na przestrzeni (Ω, F, P) z filtracją (F t ) t (x,w,y 1 ) oraz (x,w,y 2 ) są słabymi rozwiązaniami. Z jednoznaczności w sensie trajektorii otrzymujemy P((x,w,y 1,y 2 ) Ω) : y 1 y 2 ) = 1. (2.7) Oznacza to w szczególności, że (x,w,y 1 ) ma ten sam rozkład co (x,w,y 2 ), tj. X (1) x + y 1 x + y 2 X (2), gdzie oznacza równość rozkładów. Kończy to dowód pierwszej części twierdzenia jednoznaczności w sensie rozkładu.
19 2.2. DOWÓD TWIERDZENIA YAMADY-WATANABE 19 (b) Jak poprzednio, przypuśćmy, że (W (1),X (1) ) i (W (2),X (2) ) są dowolnymi słabymi rozwiązaniami (mogą również być te same). Z (2.7) mamy Zawsze 1 =P((x,w,y 1,y 2 ) Ω) : y 1 y 2 ) = Q (1) (x,w,dy 1 )Q (2) (x,w,dy 2 )µ(dx)p (dy) R d C m {(y 1,y 2 ):y 1 y 2 } {(y 1,y 2 ):y 1 y 2 } Q (1) (x,w,dy 1 )Q (2) (x,w,dy 2 ) 1 i µ P jest miarą probabilistyczną, więc aby (2.7) zachodziło musimy mieć Q (1) (x,w,dy 1 )Q (2) (x,w,dy 2 ) = 1 dla µ P p.w. (x,w). (2.8) {(y 1,y 2 ):y 1 y 2 } Lewa strona równania (2.8) jest równa C d Q (1) (x,w,{y})q (2) (x,w,dy) Q (1) (x,w,{y}) 1, a Q (2) (x,w,dy) jest miarą probabilistyczną, więc równość (2.8) zachodzi wtedy i tylko wtedy, gdy Q (1) (x,w,{y}) = 1 dla y należących do nośnika miary Q (2) (x,w, ). Zatem dla µ P -p.w. (x,w) zarówno Q (1) (x,w, ) jak i Q (2) (x,w, ) są miarami punktowymi skupionymi w tym samym punkcie. Oznaczmy go przez h(x,w). Mamy Q (1) (x,w, ) = Q (2) (x,w, ) = δ h(x,w). Funkcja h jest mierzalna, bo Q (i) były mierzalne względem (x,w). Wykazaliśmy zatem, że y 1 = y 2 = h(x,w). Z Lematu 2.7 wynika również, że (x,w) h(x,w) jest też mierzalne w sensie B(R d ) B w t dla każdego t. Zatem, dla każdego słabego rozwiązania (X,W,X X ) mamy X = X +h(x,w), więc jest to mocne rozwiązanie.
20 2 ROZDZIAŁ 2. TWIERDZENIE YAMADY-WATANABE O JEDNOZNACZNOŚCI
21 Rozdział 3 Słabe rozwiązania a problem martyngałowy 3.1 Definicja problemu martyngałowego Jak poprzednio rozważamy równanie dx t = b(t,x t )dt+σ(t,x t )dw t, X = x. (3.1) Dla uproszczenia zapisu ograniczymy się do przypadku jednowymiarowego, ale wszystko jest prawdziwe także w wielu wymiarach. Oznaczmy a(t,x) = σ 2 (t,x). (W większym wymiarze powinniśmy brać a = σσ T ). Zakładamy, że b i σ są borelowskie i ograniczone. Ponadto, niech L t f(x) = b(t,x)f (x)+ 1 2 a(t,x)f (x), f C 2 C 2 Zauważmy, że jeżeli { Ω, F, P},( Ft ),(W,X) jest słabym rozwiązaniem równania (3.1) i f (tj. funkcja ciągła o nośniku zwartym), to ze wzoru Itô otrzymujemy f(x t ) =f(x )+ =f(x)+ f (X s )b(s,x s )ds+ L s f(x s )ds+ Zatem dla każdego f C 2 proces f(x t ) f(x) f (X s )σ(s,x s )dw s σ(x s )f (X s )dw s L s f(x s )ds σ 2 (s,x s )ds jest martyngałem. Proces X jest ciągły, więc można go traktować jako zmienną losową o wartościach w przestrzeni funkcji ciągłych C = C([, )). Zauważmy, że gdy C rozważamy z topologią zbieżności niemal jednostajnej, to odpowiednie σ-ciało zbiorów borelowskich jest 21
22 22 ROZDZIAŁ 3. SŁABE ROZWIĄZANIA A PROBLEM MARTYNGAŁOWY tożsame z σ-ciałem generowanym przez cylindry. Oznaczmy to σ-ciało przez B. Przestrzeń C z metryką d(x,y) = n=1 1 ( 2 n sup2 n 1 t<2 n x(t) y(t) 1) jest przestrzenią polską i jej topologia jest równoważna topologii zbieżności niemal jednostajnej. Przez Z oznaczmy proces kanoniczny zdefiniowany na (C, B), tzn. Z t (ω) = ω(t). Niech µ X oznacza rozkład X na przestrzeni (C,B). Wtedy proces kanoniczny Z na przestrzeni probabilistycznej (C,B,µ X ) ma taki sam rozkład jak proces X określony na ( Ω, F, P). Stąd wynika, że dla każdej funkcji f C 2 proces f(z t ) f(x) L s f(z s )ds (3.2) określony na przestrzeni probabilistycznej (C,B,µ X ) jest martyngałem. Ponadto, jest to martyngał względem filtracji B t := σ((ω(s) : s t). Niech F : R + C C będzie zdefiniowana jako F(t,ω) = f(ω(t)) f(x) L s f(ω(s))ds ω F(t,ω) jest oczywiście B t mierzalne, więc proces (F(t, )) t jest adaptowany do filtracji (B t ) t. Wystarczy jeszcze tylko sprawdzić, że dla dowolnych s < t i dowolnego zbioru A B s zachodzi E µx F(t,Z)1 A = E µx F(s,Z)1 A. Obie strony tego równania zależą tylko od rozkładu Z, który jest taki sam jak rozkład X, zatem żądana równość zachodzi, bo (F(t,X)) t jest martyngałem. Powyższe rozumowanie jest motywacją do wprowadzenia następującej definicji: Definicja 3.1. (Problem martyngałowy) Mówimy, że problem martyngałowy (x, a, b) ma rozwiązanie jeżeli istnieje miara probabilistyczna P na przestrzeni kanonicznej C taka, że dla dowolnej funkcji f C 2 proces zdefiniowany w (3.2) jest martyngałem względem filtracji (B t) oraz P(Z = x) = 1. Tę miarę probabilistyczną P nazywamy rozwiązaniem problemu martyngałowego (x, a, b). Uwaga 3.2. (a) Już pokazaliśmy, że jeżeli (W, X) jest słabym rozwiązaniem (3.1), to rozkład X jest rozwiązaniem problemu martyngałowego (x, a, b). (b) Jeżeli P jest rozwiązaniem problemu martyngałowego, to dla każdej funkcji f : R R klasy C 2 proces (3.2) jest martyngałem lokalnym. Dowód jest standardowy, przez stopowanie. Stwierdzenie 3.3. Jeżeli P jest rozwiązaniem problemu martyngałowego (x,a,b), to M t = Z t x b(s,z s )ds jest ciągłym martyngałem lokalnym względem filtracji (B t ) t, startującym z zera, o wariacji kwadratowej M t = a(s,z s )ds. (3.3) Dowód na ćwiczeniach. Wskazówka: zastosować Uwagę 3.2 (b) dla f(x) = x i f(x) = x 2.
23 3.2. SŁABE ROZWIĄZANIA A PROBLEM MARTYNGAŁOWY Słabe rozwiązania a problem martyngałowy Twierdzenie 3.4. Równanie (3.1) ma słabe rozwiązanie wtedy i tylko wtedy, gdy problem martyngałowy (x, a, b) ma rozwiązanie. Dokładniej, {P : P = µ X, gdzie X spełnia (3.1)} = {P : P jest rozw. probl. martyngałowego (x,a,b)}. Dowód. Już pokazaliśmy, że jeżeli (W, X) jest słabym rozwiązaniem, to rozkład X jest rozwiązaniem problemu martyngałowego. Pozostaje pokazać, że jeżeli P jest rozwiązaniem problemu martyngałowego, to istnieje rozwiązanie równania (3.1), które ma rozkład P. Niech P będzie rozwiązaniem problemu martyngałowego (x, a, b) i niech M będzie martyngałem lokalnym ze Stwierdzenia 3.3. Rozważmy najpierw prostszy przypadek gdy σ(t, y) dla wszystkich t, y. Zdefiniujmy W t = 1 σ(s,z s ) dm s. W jest dobrze zdefiniowane, bo proces podcałkowy jest prognozowalny oraz W t = 1 σ 2 (s,z s ) a(s,z s)ds = t. Zatem W jest procesem Wienera względem (B t ) t. Ponadto zachodzi σ(s,z s )dw s = dm s = M t = Z t x b(s,z s )ds. To oznacza, że {(C,B,P),(B t ) t,(w,z)} jest słabym rozwiązaniem równania (3.1). Rozważmy teraz ogólny przypadek, bez założenia, że σ. Aby skonstruować słabe rozwiązanie musimy rozszerzyć przestrzeń probabilistyczną. Niech (Ω,F,P ) będzie dowolną przestrzenią probabilistyczną, na której określony jest proces Wienera V. Kładziemy oraz ˆΩ = C Ω, F ˆ = B F ˆP = P P, Ft ˆ = B t F t ˆM(ω,ω ) = M(ω), ˆV(ω,ω ) = V(ω ) Ẑ t (ω,ω ) = ω(t). Zauważmy, że tak zdefiniowane procesy ˆM i ˆV są niezależne oraz adaptowane do filtracji( F ˆ t ) t. Ponadto, ˆM jest martyngałem lokalnym względem filtracji ( Ft ˆ) t, a ˆV jest procesem Wienera względem tej filtracji. Niech 1 t W t = σ(s,ẑs) 1 {σ(s, Ẑ d ˆM s) } s + 1 {σ(s, Ẑ dˆv s)=} s. Całki są dobrze zdefiniowane oraz W t = +2 1 ˆM σ 2 (s,ẑs) 1 {σ(s, Ẑ a(s,ẑs)d s) } + s 1 σ(s,ẑs) 1 {σ(s,ẑs) } 1 {σ(s,ẑs)=} d ˆM, ˆV 1 {σ(s, Ẑ d s)=} ˆV s s
24 24 ROZDZIAŁ 3. SŁABE ROZWIĄZANIA A PROBLEM MARTYNGAŁOWY Zauważmy, że ostatnia całka znika, a z pozostałych dwóch otrzymujemy W t = ( ) 1 {σ(s, Ẑ + 1 s) } {σ(s, Ẑ s)=} = t. Zatem, z twierdzenia Lévy ego wynika, że W jest procesem Wienera względem ( F ˆ t ) t. Sprawdzimy, że (Ŵ,Ẑ) jest słabym rozwiązaniem równania (3.1). W tym celu obliczamy Zachodzi σ(s,ẑs)dw s = = ˆM t 1 {σ(s, Ẑ s)=} d ˆM s 1 σ(s,ẑs) σ(s,ẑs) 1 {σ(s, Ẑ d ˆM s) } s + t = 1 {σ(s, Ẑ s)=} d ˆM s. σ(s,ẑs)1 {σ(s, Ẑ s)=} dˆv s 1 {σ(s, Ẑ d s)=} ˆM = 1 s {σ(s, Ẑ a(s,ẑs)ds s)=} =. Zatem proces 1 {σ(s,ẑs)=} d ˆM s jest nieodróżnialny od procesu stale równego i otrzymujemy σ(s,ẑs)dw s = ˆM t = Ẑt x a więc (Ŵ,Ẑ) jest słabym rozwiązaniem równania (3.1). b(s,ẑs)ds, 3.3 Twierdzenie Stroocka-Varadhana o istnieniu słabych rozwiązań Celem tego podrozdziału jest wykazanie następującego twierdzenia. Twierdzenie 3.5. Załóżmy, że b i σ są ograniczone, borelowskie, b i a = σ 2 są ciągłe ze względu na zmienną przestrzenną x. Wtedy istnieje słabe rozwiązanie równania (3.1). Uwaga 3.6. (a) W twierdzeniu nie zakładamy, że σ(t, x) jest ciągłe ze względu na x. Wystarczy tylko, że a jest ciągłe. (b) Twierdzenie Stroocka-Varadhana wraz z twierdzeniem Yamady-Watanabe z poprzedniego rozdziału sugerują możliwość przyjęcia następującej strategii dowodzenia istnienia mocnych rozwiązań: Korzystając z Twierdzenia Stroocka-Varadhana wykazujemy istnienie słabego rozwiązania, a następnie, pokazujemy jednoznaczność w sensie trajektorii. Twierdzenie Yamady-Watanabe mówi, że wtedy każde słabe rozwiązanie jest mocne. Dowód. Korzystając z Twierdzenia 3.4 wystarczy wykazać, że problem martyngałowy (x,a,b) ma rozwiązanie. Niech a (n) i b (n) będą funkcjami takimi, że b (n) i σ (n) = a (n) są lipschitzowskie ze względu na drugą współrzędną, ograniczone oraz dla każdego t a (n) (t, ) a(t, ), b (n) (t, ) b(t, ) niemal jednostajnie (jednostajnie na zbiorach ograniczonych) i wszystkie te funkcje są
25 3.3. TWIERDZENIE STROOCKA-VARADHANA O ISTNIENIU SŁABYCH ROZWIĄZAŃ25 wspólnie ograniczone. Takie funkcje można łatwo skonstruować splatając b i a z funkcjami gładkimi f n, f n δ, np. f n (x) = nf(nx), gdzie f gładka o nośniku zwartym, f = 1. Wiemy, że równanie z lipschitzowskimi współczynnikami ma słabe rozwiązanie (ma nawet mocne rozwiązanie). Z Twierdzenia 3.4 wynika, że problem martyngałowy (x,a (n),b (n) ) ma rozwiązanie. Oznaczmy to rozwiązanie przez P (n). P (n) jest jednoznaczne, bo równanie z lipschitzowskimi współczynnikami ma rozwiązanie jednoznaczne w sensie trajektorii, a więc i w sensie rozkładów. Główny schemat dowodu polega na 1. wykazaniu, że zbiór miar probabilistycznych {P (n) } n N jest ciasny; 2. skorzystaniu z twierdzenia Prochorowa, aby pokazać, że z ciągu P (n) można wybrać podciąg P (n k) zbieżny do pewnego rozkładu probabilistycznego Q na C ; 3. sprawdzeniu, że otrzymana miara graniczna Q jest rozwiązaniem problemu martyngałowego (x,a,b). Krok 1. Ciasność P (n) : Potrzebne będą następujące lematy pomocnicze. Dowód lematów 3.7 i 3.8 ćwiczenia: Lemat 3.7. Załóżmy, że M jest ciągłym martyngałem, takim że istnieje stała K > niezależna od t,s, że M t M s K t s. Wówczas dla dowolnych δ >, α >, u zachodzi ( ) P sup M t M u > α u t u+δ 2e α2 2Kδ. Wskazówki do dowodu: skorzystać z faktu, że e λ(mt Mu) λ2 2 ( M t Mu ) jest martyngałem kryt. Nowikowa; napisać nierówność maksymalną dla tego martyngału i zminimalizować po λ. Por. dowód prawa iterowanego logarytmu). Dla δ > i T > oraz funkcji ω C niech m T (ω,δ) = oznacza moduł ciągłości na przedziale [,T]. sup ω(t) ω(s) s,t T, s t δ Lemat 3.8. Przy założeniach Lematu 3.7 dla dowolnego T > i α > zachodzi P (m T (M,δ) > α) 2( [ T δ +1)e α2 16Kδ Lemat 3.9. Niech P (n), n = 1,2,... będzie ciągiem miar probabilistycznych na (C,B). Załóżmy, że lim P (n) ({ω : ω() > λ}) =, (3.4) oraz lim sup δց n sup λ n Wtedy ciąg (P (n) ) n jest ciasny w C. P (n) ({ω : m T (ω,δ) > ε}) = T >,ε >. (3.5)
26 26 ROZDZIAŁ 3. SŁABE ROZWIĄZANIA A PROBLEM MARTYNGAŁOWY Dowód. Dla ustalonego T N i η > korzystając z (3.4) dobierzmy λ >, takie że supp (n) ({ω : ω() > λ}) η n 2 T+1. Ponadto, niech δ k,t,η >, k = 1,2,... będą takie, że Definiujemy zbiory domknięte A T = ( supp (n) {ω : m T (ω,δ k,t,η ) > 1 ) n k } η 2 T+k+1. {ω : ω() λ,m T (ω,δ k,t,η ) 1k,k = 1,2,... }, A = Wówczas P (n) (A T ) 1 η k= = η oraz 2 T+k+1 2 T P (n) (A) 1 T=1 A T. T=1 η = 1 η. (3.6) 2T Z twierdzenia Arzelà-Ascoli wynika, że funkcje z A T obcięte do funkcji na C([,T]) tworzą zbiór zwarty, bo jest to zbiór domknięty, składający się z funkcji jednakowo ciągłych na [,T] i startujących ze zbioru zwartego. W szczególności z każdego ciągu funkcji ω j A, j = 1,2,... można wybrać podciąg zbieżny jednostajnie na [, 1], z tego ciągu można wybrać podciąg zbieżny jednostajnie na [, 2], itd. Używając metody przekątniowej dostajemy, że z każdego ciągu funkcji ω j A można wybrać podciąg zbieżny niemal jednostajnie. A jest domknięty więc funkcja graniczna jest w A. Zatem A jest zbiorem zwartym w C. Stąd i z (3.6) otrzymujemy ciasność (P (n) ) n. Krok 2. Lemat 3.1. Niech P będzie zbiorem miar probabilistycznych na przestrzeni kanonicznej (C, B). Jak zwykle Z oznacza proces kanoniczny. Załóżmy, że (i) Istnieje B R zwarty, taki, że dla każdego P P zachodzi P(Z B) = 1. (ii) Dla każdego P P istnieje ciągły i adaptowany do (B t ) proces V o wahaniu skończonym, taki że V() = oraz M = Z V jest martyngałem przy prawdopodobieństwie P (na ogół V i M zależą od P). (iii) Istnieje stała K niezależna od P taka, że P-p.n. P P t,s M t M s K t s, V t V s K t s. Wówczas P jest warunkowo zwarty. Dowód. Z założenia o V mamy m T (V,δ) Kδ.
27 3.3. TWIERDZENIE STROOCKA-VARADHANA O ISTNIENIU SŁABYCH ROZWIĄZAŃ27 Ponadto, m T (Z,δ) m T (M,δ) + m T (V,δ). Niech P (n) P, n = 1,2,... Ustalmy dowolne T > i α >, wówczas dla δ < α 2K mamy P (n) (m T (Z,δ) > α) P (n) (m T (M,δ) > α Kδ) P (n) (m T (M,δ) > α 2 ). Z Lematu 3.8 wynika, że spełnione są założenia Lematu 3.9, zatem rodzina (P (n) ) n jest ciasna. Przestrzeń C jest przestrzenią polską. Z twierdzenia Prochorowa wynika, że ciąg P (n) ma podciąg słabo zbieżny do pewnej miary probabilistycznej Q. Krok 3. Wykażemy, że zbiór miar probabilistycznych P = {P (n) : n N}, gdzie P (n) jest rozwiązaniem problemu martyngałowego (x,a (n),b (n) ) jest ciasny. Niech V (n) t = b (n) (s,z s )ds, M (n) t = Z t b (n) (s,z s )ds = Z t V (n) t. Przy prawdopodobieństwie P (n) proces M (n) jest ciągłym martyngałem lokalnym o nawiasie skośnym M (n) t = a(n) (s,z s )ds, bo P (n) jest rozwiązaniem odpowiedniego problemu martyngałowego. Z założenia o a, b i ciągu przybliżeń a (n) i b (n) funkcje te są wspólnie ograniczone. Wynika stąd, że istnieje stała K > niezależna od n taka, że E P (n) M (n) t M (n) s = E P (n) s a (n) (u,z u )du K t s, s,t >. W szczególności otrzymujemy także, że M (n) jest martyngałem przy P (n), nie tylko martyngałem lokalnym. Podobnie, E P (n) V (n) t Vs n K t s. Zatem rodzina P spełnia założenia Lematu 3.1, istnieje więc podciąg n k, taki, że P (n k) Q. Pokażemy, że Q jest rozwiązaniem problemu martyngałowego (x, a, b), tzn. dla każdej funkcji f : R R klasy C 2 o nośniku zwartym proces f(z t ) L u f(z u )du na przestrzeni probabilistycznej (C,B,Q) jest martyngałem względem filtracji (B t ) t. Proces ten jest oczywiście adaptowany do (B t ), wystarczy zatem sprawdzić, że dla dowolnych s < t i A B s zachodzi E Q (f(z t ) ) L u f(z u )du 1 A = E Q (f(z s ) ) L u f(z s )du 1 A. Aby to pokazać wystarczy sprawdzić, że dla każdej funkcji ciągłej i ograniczonej F : C R, która jest B s mierzalna zachodzi E Q (f(z t ) ( L u f(z u )du )F(Z t ) = E Q f(z s ) s ) L u f(z u )du F(Z s ). (3.7)
28 28 ROZDZIAŁ 3. SŁABE ROZWIĄZANIA A PROBLEM MARTYNGAŁOWY Wiemy, że ( E P (n) f(z t ) ) ( L u (n) f(z u)du F(Z) = E P (n) f(z s ) s ) L (n) u f(z s)du F(Z), (3.8) gdzie L (n) u f(x) = b (n) (u,x)f (x) a(n) (u,x)f (x), bo P (n) jest rozwiązaniem odpowiedniego problemu martyngałowego. Ponadto, L (n) u f zbiega jednostajnie do L u f, gdyż a (n) i b (n) zbiegają niemal jednostajnie do a i b odpowiednio ( oraz f ma zwarty nośnik. Zauważmy także, że dla każdego t funkcja ω F(ω) f(ω(t)) ) t L uf(ω(u))du jest ciągłą i ograniczoną funkcją z C w R, więc skoro P (nk) Q, to ( ( ) lim E k P (n k ) f(z t ) L u f(z u )du )F(Z) = E Q f(z t ) L u f(z u )du F(Z). (3.9) Zauważmy, że E P (n) L u f(z u ) L (n) u (Z u ) du sup L u f(x) L (n) u (x) du Funkcje pod całką po prawej stronie zbiegają do dla prawie wszystkich u i są wspólnie ograniczone przez pewną stałą, co wynika z naszych założeń o a (n),b (n),a i b (zbieżność jednostajna dla każdego u i ograniczoność). Zatem całe wyrażenie zbiega do przy n. Używamy równania (3.8) dla podciągu n k. Standardowy argument polegający na dodaniu i t odjęciue P (n k ) L s uf(z u )du po lewej stronie równania (3.8) i odpowiedniej całkie P (n k )...du po prawej stronie, obserwacji powyżej oraz (3.9) prowadzi do (3.7). x R
29 Część II Procesy Markowa 29
30
31 Rozdział 4 Proces Poissona 4.1 Proces Poissona definicja i konstrukcja Definicja 4.1. Proces (N t ) t nazywa się procesem Poissona z parametrem λ, (λ > ), jeżeli 1. N = ; 2. N ma przyrosty niezależne, tj. dla dowolnych t 1... t n zmienne losowe N t1,n t2 N t1,...,n tn N tn 1 są niezależne; 3. Dla dowolnych s < t zmienna losowa N t N s ma rozkład Poissona z parametrem λt, tj. P(N t N s = k) = (λ(t s))k k! e λ(t s) ; 4. N ma prawostronnie ciągłe trajektorie. Parametr λ nazywa się parametrem intensywności skoków procesu Poissona. Z uwagi na przybliżenie rozkładu dwumianowego rozkładem Poissona, proces Poissona jest dobrym modelem np. dla procesu liczby wezwań centrali telefonicznej, albo liczby szkód zgłoszonych przez klientów towarzystwa ubezpieczeniowego, gdy rozważa się takie rodzaje szkód, o których można założyć, że występują niezależnie u każdego z klientów. Twierdzenie 4.2. Niech ρ 1,ρ 2,... będą niezależnymi zmiennymi losowymi o tym samym rozkładzie wykładniczym z parametrem λ, tj. o gęstości g(x) = λe λx 1 (, ) (x). Ponadto oznaczmy τ =, τ k = ρ 1 +ρ ρ k dla k = 1,2,... Wówczas proces jest procesem Poissona z parametrem λ. N t = sup{k : τ k t}, t R (4.1) Uwaga: Na ćwiczeniach zobaczymy, że każdy proces spełniający warunki 1-4 w Definicji 4.1 ma taką postać. Dowód. Z mocnego prawa wielkich liczb wynika, że τn n Eρ 1 = 1 λ p.n., gdyn, więc τ n. Zatem proces N ma p.n. wartości skończone, całkowite nieujemne. Ponadto P(ρ j >,j = 1,2,...) = 1. Stąd w szczególności N = p.n. Te zbiory miary zero odrzucamy (tj. wykażemy, że proces N jest nieodróżnialny od procesu Poissona, ale procesy nieodróżnialne utożsamiamy). Jest jasne, że proces N zdefiniowany przez (4.1) ma prawostronnie ciągłe trajektorie. 31
32 32 ROZDZIAŁ 4. PROCES POISSONA Pozostaje wykazać własności 2. i 3. z Definicji 4.1. Najpierw znajdziemy rozkład N t. Wiadomo, że τ k ma rozkład Γ(k,λ), a więc P(τ k t) = 1 e λt k 1 (λt) j j= j!. Stąd P(N t = k) = P(τ k t < τ k+1 ) = P(τ k t) P(τ k+1 t) = (λt)k e λt. k! Zatem N t ma rozkład Poissona z parametrem λt. Można to było również policzyć bezpośrednio: P(N t = k) =P(ρ ρ k t,ρ ρ k+1 > t) = λ k λe λ k+1 i=1 x i dx 1...dx k+1. <x 1 <x 1 +x 2 <...<x x k t<x x k+1 Następnie używamy podstawienia y j = j i=1 x i, j = 1,2,...,k+1 i jak poprzenio, otrzymujemy P(N t = k) = λ k λe λy k+1 dy k dy 1...dy k <y 1 <y 2 <...<y k t<y k+1 = dy 1...dy k λ k e λt <y 1 <y 2 <...<y k t = tk k! λk e λt Pozostaje wykazać, że N ma niezależne przyrosty oraz dla dowolnych s,t > zmienna losowa N t+s N t ma taki sam rozkład jak N s. Ustalmy dowolne t > i oznaczmy ρ (t) 1 = τ Nt+1 t, ρ (t) k = ρ Nt+k, k = 2,3,... -jeśli τ k oznaczają momenty zajścia pewnych zdarzeń, to ρ (t) 1 jest czasem oczekiwania na pierwsze zdarzenie po chwili t, ρ (t) 2 odstęp pomiędzy pierwszym a drugim zdarzeniem po chwili t itd. Wykażemy, że dla dowolnego n N k Z +, r 1,...,r n > zachodzi P(N t = k,ρ (t) 1 > r 1,ρ (t) 2 > r 2,...,ρ (t) n > r n) = P(N t = k)e λr 1...e λrn (4.2) Rozpisując lewą stronę (4.2), korzystając z definicji ρ (t) k, a następnie faktu, że ρ k+2,...,ρ k+n są i.i.d. o rozkładzie wykładniczym i są niezależne od ρ 1,...,ρ k+1 mamy P(N t = k,ρ (t) 1 > r 1,ρ (t) 2 > r 2,...,ρ (t) n > r n) =P(τ k t < τ k +ρ k+1,τ k +ρ k+1 t > r 1,ρ k+2 > r 2,...,ρ k+n > r n ) =P(τ k t < τ k +ρ k+1,τ k +ρ k+1 t > r 1 )e λr 2...e λrn (4.3) Zajmijmy się teraz pierwszym czynnikiem w (4.3). Oznaczmy przez f gęstość rozkładu τ k.
33 4.1. PROCES POISSONA DEFINICJA I KONSTRUKCJA 33 Wtedy P(τ k t < τ k +ρ k+1,τ k +ρ k+1 t > r 1 ) = = = {x t<x+y,x+y t>r 1 } {x t} =e λr 1 =e λr 1 {t x+r 1 <y} e λ(t x+r 1) f(x)dx e λ(t x) f(x)dx f(x)λe λy dxdy λe λy dyf(x)dx P(ρ k+1 > t x)f(x)dx =e λr 1 P(τ k t < τ k +ρ k+1 ) =e λr 1 P(N t = k). Wstawiając otrzymany wyżej wynik do (4.3) otrzymujemy (4.2). Z (4.2) i lematu o π i λ układach wynika, że N t jest niezależne od (ρ (t) ρ (t) 1,ρ(t) 2 1,ρ(t) 2,...) oraz,... są i.i.d. o rozkładzie wykładniczym z parametrem λ. Stąd łatwo wywnioskować przy pomocy indukcji, że dla każdego n N i dowolnych = s < s 1 < s 2,...,s n, m 1,...m n {,1,2,...} zachodzi P(N sj N sj 1 = m j,j = 1,...,n) = n P(N sj s j 1 = m j ). (4.4) Rzeczywiście, jeżeli n = 1, to równość (4.4) jest oczywista. Przypuśćmy, że mamy (4.4) dla n. Wykażemy, że (4.4) zachodzi też dla n+1. j=1 P(N s1 = m 1,N s2 N s1 = m 2,...,N sn+1 N sn = m n+1 ) = P(N s1 = m 1,N s2 N s1 = m 2,(N s3 N s1 ) (N s2 N s1 ) = m 3,..., (N sn+1 N s1 ) (N sn N s1 ) = m n+1 ). Zauważmy, że proces (N t+s1 N s1 ) t zależy tylko od ρ (s 1) j, j = 1,2,... i to w ten sam sposób w jaki proces (N t ) t zależy od ρ j, j = 1,2,... Stąd i z niezależności N s1 od ρ (s 1) j, j = 1,2,... otrzymujemy P(N s1 = m 1,N s2 N s1 = m 2,N s3 N s2 = m 3...,N sn+1 N sn = m n+1 ) = P(N s1 = m 1 )P(N s2 s 1 = m 2,N s3 s 1 N s2 s 1 = m 3...,N sn+1 s 1 N sn s 1 = m n+1 ). Korzystamy teraz z założenia indukcyjnego i otrzymujemy P(N s1 = m 1,N s2 N s1 = m 2,N s3 N s2 = m 3...,N sn+1 N sn = m n+1 ) = P(N s1 = m 1 )P(N s2 s 1 = m 2 )P(N s3 s 2 = m 3 )P(N sn+1 s n = m n+1 ). Kończy to dowód tożsamości (4.4) i dowód całego twierdzenia, gdyż (4.4) oznacza zarówno to, że przyrosty są niezależne, jak i to, że N t N s ma taki sam rozkład jak N t s dla t > s.
34 34 ROZDZIAŁ 4. PROCES POISSONA 4.2 Uogólniony proces Poissona Jeżeli N jest procesem Poissona z parametrem λ, to dla każdego t mamy P(N t+h N t = 1) = λh + o(h) oraz P(N t+h N t 2) = o(h) przy czym λ nie zależy od t. Proces jest jednorodny w czasie. W wielu zastosowaniach założenie jednorodności jest zbyt ograniczające, dlatego rozważa się tzw. uogólniony proces Poissona postaci: X t = N f(t), gdzie N jest procesem Poissona z parametrem 1, a f jest niemalejącą funkcją ciągłą f() =. Jeśli f jest klasy C 1, to f (t) jest chwilową intensywnością skoków w chwili t. 4.3 Złożony proces Poissona Definicja 4.3. Złożonym procesem Poissona nazywamy proces X postaci N t X t = ξ k, k=1 gdzie N jest procesem Poissona z parametrem λ, a ξ 1,ξ 2,... są niezależnymi zmiennymi losowymi o rozkładzie µ, niezależnymi też od procesu N. Łatwo sprawdzić (ćwiczenie), że złożony proces Poissona ma przyrosty niezależne i stacjonarne oraz dla s < t przyrost X t X s ma rozkład λ(t s) k e λ(t s) µ k. k! k= Jeżeli ξ mają wartości rzeczywiste, to rozkład ten ma funkcję charakterystyczną Ee iu(xt Xs) = e λ(t s) R (1 eiux )µ(dx).
35 Rozdział 5 Procesy Markowa - definicja i proste własności W tym rozdziale będziemy rozważać procesy stochastyczne określone na pewnej przestrzeni probabilistycznej (Ω, F, P), przyjmujące wartości w przestrzeni polskiej (E, ρ). Przestrzeń E zawsze rozważamy z σ-ciałem zbiorów borelowskich oznaczanym przez B. Później ograniczymy się do przypadku (E,B) = (R d,b(r d )). T R jest zbiorem indeksów procesu X = (X t ) t T. Oznaczmy też F X t = σ(x s : s t,s T), F X t = σ(x s : s t,s T) 5.1 Definicja procesu Markowa i warunki równoważne Definicja 5.1. Mówimy, że proces (X t ) t T o wartościach w E jest procesem Markowa jeżeli dla dowolnych t T, A F X t i B FX t zachodzi P(A B X t ) = P(A X t )P(B X t ). (5.1) Nieformalnie mówiąc warunek (5.1) oznacza, że pod warunkiem, że znamy stan procesu w chwili obecnej t, przyszłość jest niezależna od przeszłości. Uwaga 5.2. Warunek (5.1) jest symetryczny ze względu na rolę przyszłości i przeszłości. Dlatego, jeżeli X jest procesem Markowa, to proces otrzymany z X przez odwrócenie czasu również jest procesem Markowa. Definicję procesu Markowa można przeformułować na kilka sposobów: Twierdzenie 5.3. Następujące warunki są równoważne: (1) X jest procesem Markowa; (2) t T, ξ F X t mierzalnej, η FX t mierzalnej i takich, że ξ,η,ξη L 1 (Ω,F,P) zachodzi E(ξη X t ) = E(ξ X t )E(η X t ); 35
36 36 ROZDZIAŁ 5. PROCESY MARKOWA - DEFINICJA I PROSTE WŁASNOŚCI (3) t T, ξ F X t mierzalnej, ξ L1 (Ω,F,P) zachodzi E(ξ F X t ) = E(ξ X t ); (4) t T, A F X t, zachodzi P(A F X t ) = P(A X t ); (5) t T, h > takiego, że t+h T, Γ B zachodzi P(X t+h Γ F X t ) = P(X t+h Γ X t ); (6) t T, h >, t+h T, f : E R borelowskiej i takiej, że f(x t+h ) L 1 (Ω,F,P) zachodzi E(f(X t+h ) F X t ) = E(f(X t+h ) X t ); (7) t T, h >, t+h T, Γ B, s 1 < s 2 <... < s n = t, s j T zachodzi P(X t+h Γ X s1,...,x sn ) = P(X t+h Γ X t ); Uwaga. Odpowiedniki warunków (3)-(7) można sformułować także dla przyszłości. Przypomnienie: wszystkie równości, w których występuje warunkowa wartość oczekiwana są równościami p.n., gdyż warunkowa wartość oczekiwana jest zdefiniowana z dokładnością do równości p.n. Dowód. (1) (2) standardowo: najpierw sprawdzamy (2) dla ξ = 1 A η = 1 B, gdzie A F t X, B FX t, następnie dla funkcji prostych, później dla nieujemnych, korzystając z twierdzenia o zbieżności monotonicznej. W końcu dla dowolnych ξ = ξ + ξ, η = η + η. Implikacja (2) (1) jest oczywista, gdy w (2) przyjmiemy ξ = 1 A η = 1 B, A F t X, B Ft X. Tak samo pokazuje się równoważność (5) (6). (2) (3) : Z definicji warunkowej wartości oczekiwanej, E(ξ X t ) jest Ft X mierzalna. Aby wykazać, że E(ξ Ft X ) = E(ξ X t ) trzeba więc tylko sprawdzić, że dla każdego B Ft X zachodzi E(ξ X t )dp = ξdp. Mamy E(ξ X t )dp = E(1 B E(ξ X t )) = EE ( 1 B E(ξ X t ) ) Xt B B E(ξ X t) jest X t mierzalne = E[E(ξ X t )E(1 B X t )] (2) = EE(ξ1 B X t ) = E(ξ1 B ) = (3) (4) otrzymujemy natychmiast przyjmując ξ = 1 A. (4) (1) : Z (4) wiemy, że P(A F X t ) = P(A X t ). Zmienna losowa P(A X t )P(B X t ) jest σ(x t ) mierzalna. Wiemy też, że σ(x t ) = {{X t Γ} : Γ B}, wystarczy więc sprawdzić, że dla każdego Γ B zachodzi E ( 1 {Xt Γ}P(A X t )P(B X t ) ) = E ( 1 {Xt Γ}1 A 1 B ). B B ξdp.
37 5.1. DEFINICJA PROCESU MARKOWA I WARUNKI RÓWNOWAŻNE 37 Mamy E 1 {Xt Γ}E(1 A X t ) E(1 B X t ) =EE ( ) 1 {Xt Γ}E(1 A X t )1 B X t }{{} X t mierzalne EE( X t)=e( ) = E ( ) 1 {Xt Γ}E(1 A X t )1 B (4) =E 1 {Xt Γ}1 B E(1 A F X t ) }{{} Ft X mierzalne =EE ( 1 {Xt Γ}1 B 1 A Ft X ) =E(1 {Xt Γ}1 B 1 A ). Wykazaliśmy równoważność pierwszych czterech warunków. (4) (5) jest oczywiste, kładziemy A = {X t+h Γ} F X t. (5) (6) już zauważyliśmy, że pokazuje się tak samo jak (1) (2). (6) (4) : Pokażemy najpierw, że dla dowolnych n N, t = t 1 < t 2 <... < t n, t j T i dowolnych funkcji mierzalnych i ograniczonych f 1,...,f n : E R zachodzi E ( f(x t1 )...f(x tn ) F X t ) = E(f(Xt1 )...f(x tn ) X t ). (5.2) Dowód przez indukcję. (5.2) jest oczywiście prawdziwe dla n = 1. Jeśli n = 2, to E ( f(x t1 )f(x t2 ) F X t ) = f(xt1 )E ( f(x t2 ) F X t ) (6) = f(x t1 )E(f(X t2 ) X t ) = E(f(X t1 )f(x t2 ) X t ). Przypuśćmy, że (5.2) zachodzi dla n, wykażemy, że zachodzi też dla n+1. E ( f(x t1 )...f(x tn )f(x tn+1 ) Ft X ) ( ( =E E f(xt1 )...f(x tn ) f(x }{{} ) F ) ) X tn+1 t n F X t Ftn X mierzalne =E ( f(x t1 )...f(x tn )E ( f(x tn+1 ) Ft X ) ) n F X t (6) =E ( f(x t1 )...f(x tn )E ( ) f(x tn+1 ) X tn F X ) t }{{} =g(x tn ) zal. ind. = E ( f(x t1 )...f(x tn )E ( ) ) f(x tn+1 ) X tn Xt (6) =E ( ( f(x t1 )...f(x tn ) E f(xtn+1 ) F X ) ) t }{{} n Xt Ftn X mierzalne =E ( E ( f(x t1 )...f(x tn )f(x tn+1 ) Ft X ) ) n Xt Wykazaliśmy (5.2) dla n + 1. (5) (7) jest jasne. =E ( f(x t1 )...f(x tn )f(x tn+1 ) X t ).
2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.
Zadania z Procesów Stochastycznych 1 1. Udowodnij, że z prawdopodobieństwem 1 trajektorie procesu Poissona są niemalejące, przyjmują wartości z Z +, mają wszystkie skoki równe 1 oraz dążą do nieskończoności.
2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.
Zadania z Procesów Stochastycznych 1 1. Udowodnij, że z prawdopodobieństwem 1 trajektorie procesu Poissona są niemalejące, przyjmują wartości z Z +, mają wszystkie skoki równe 1 oraz dążą do nieskończoności.
21 maja, Mocna własność Markowa procesu Wienera. Procesy Stochastyczne, wykład 13, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126
Mocna własność Markowa procesu Wienera Procesy Stochastyczne, wykład 13, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126 21 maja, 2012 Mocna własność Markowa W = (W 1,..., W d ) oznaczać
Teoria ze Wstępu do analizy stochastycznej
eoria ze Wstępu do analizy stochastycznej Marcin Szumski 22 czerwca 21 1 Definicje 1. proces stochastyczny - rodzina zmiennych losowych X = (X t ) t 2. trajektoria - funkcja (losowa) t X t (ω) f : E 3.
8 Całka stochastyczna względem semimartyngałów
M. Beśka, Całka Stochastyczna, wykład 8 148 8 Całka stochastyczna względem semimartyngałów 8.1 Całka stochastyczna w M 2 Oznaczmy przez Ξ zbiór procesów postaci X t (ω) = ξ (ω)i {} (t) + n ξ i (ω)i (ti,
F t+ := s>t. F s = F t.
M. Beśka, Całka Stochastyczna, wykład 1 1 1 Wiadomości wstępne 1.1 Przestrzeń probabilistyczna z filtracją Niech (Ω, F, P ) będzie ustaloną przestrzenią probabilistyczną i niech F = {F t } t 0 będzie rodziną
Zadania z Procesów Stochastycznych 1
Zadania z Procesów Stochastycznych 1 Definicja Procesem Poissona z parametrem (intensywnością) λ > 0 nazywamy proces stochastyczny N = (N t ) t 0 taki, że N 0 = 0; (P0) N ma przyrosty niezależne; (P1)
Ośrodkowość procesów, proces Wienera. Ośrodkowość procesów, proces Wienera Procesy Stochastyczne, wykład, T. Byczkowski,
Procesy Stochastyczne, wykład, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 27 luty, 2012 Ośrodkowość procesów Dalej zakładamy, że (Ω, Σ, P) jest zupełną przestrzenią miarową. Definicja.
Prawa wielkich liczb, centralne twierdzenia graniczne
, centralne twierdzenia graniczne Katedra matematyki i ekonomii matematycznej 17 maja 2012, centralne twierdzenia graniczne Rodzaje zbieżności ciągów zmiennych losowych, centralne twierdzenia graniczne
Teoria miary. WPPT/Matematyka, rok II. Wykład 5
Teoria miary WPPT/Matematyka, rok II Wykład 5 Funkcje mierzalne Niech (X, F) będzie przestrzenią mierzalną i niech f : X R. Twierdzenie 1. NWSR 1. {x X : f(x) > a} F dla każdego a R 2. {x X : f(x) a} F
Dystrybucje, wiadomości wstępne (I)
Temat 8 Dystrybucje, wiadomości wstępne (I) Wielkości fizyczne opisujemy najczęściej przyporządkowując im funkcje (np. zależne od czasu). Inną drogą opisu tych wielkości jest przyporządkowanie im funkcjonałów
Wykład 11: Martyngały: definicja, twierdzenia o zbieżności
RAP 412 14.01.2009 Wykład 11: Martyngały: definicja, twierdzenia o zbieżności Wykładowca: Andrzej Ruciński Pisarz:Mirosława Jańczak 1 Wstęp Do tej pory zajmowaliśmy się ciągami zmiennych losowych (X n
Rodzinę F złożoną z podzbiorów zbioru X będziemy nazywali ciałem zbiorów, gdy spełnione są dwa następujące warunki.
3. Funkcje borelowskie. Rodzinę F złożoną z podzbiorów zbioru X będziemy nazywali ciałem zbiorów, gdy spełnione są dwa następujące warunki. (1): Jeśli zbiór Y należy do rodziny F, to jego dopełnienie X
4 Kilka klas procesów
Marek Beśka, Całka Stochastyczna, wykład 4 48 4 Kilka klas procesów 4.1 Procesy rosnące i przestrzenie V,, loc Jak poprzednio niech (Ω, F, F, P ) będzie zupełną bazą stochastyczną. Definicja 4.1 Proces
28 maja, Problem Dirichleta, proces Wienera. Procesy Stochastyczne, wykład 14, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126
Problem Dirichleta, proces Wienera Procesy Stochastyczne, wykład 14, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126 28 maja, 2012 Funkcje harmoniczne Niech będzie operatorem Laplace a w
Zadania z Rachunku Prawdopodobieństwa III - 1
Zadania z Rachunku Prawdopodobieństwa III - 1 Funkcją tworzącą momenty (transformatą Laplace a) zmiennej losowej X nazywamy funkcję M X (t) := Ee tx, t R. 1. Oblicz funkcję tworzącą momenty zmiennych o
jest ciągiem elementów z przestrzeni B(R, R)
Wykład 2 1 Ciągi Definicja 1.1 (ciąg) Ciągiem w zbiorze X nazywamy odwzorowanie x: N X. Dla uproszczenia piszemy x n zamiast x(n). Przykład 1. x n = n jest ciągiem elementów z przestrzeni R 2. f n (x)
7 Twierdzenie Fubiniego
M. Beśka, Wstęp do teorii miary, wykład 7 19 7 Twierdzenie Fubiniego 7.1 Miary produktowe Niech i będą niepustymi zbiorami. Przez oznaczmy produkt kartezjański i tj. zbiór = { (x, y : x y }. Niech E oraz
Zadania ze Wstępu do Analizy Stochastycznej 1. = 0 p.n.
Zadania ze Wstępu do Analizy Stochastycznej 1 1. Znajdź rozkład zmiennej 5W 1 W 3 + W 7. 2. Dla jakich parametrów a i b, zmienne aw 1 W 2 oraz W 3 + bw 5 są niezależne? 3. Znajdź rozkład wektora losowego
Informacja o przestrzeniach Sobolewa
Wykład 11 Informacja o przestrzeniach Sobolewa 11.1 Definicja przestrzeni Sobolewa Niech R n będzie zbiorem mierzalnym. Rozważmy przestrzeń Hilberta X = L 2 () z iloczynem skalarnym zdefiniowanym równością
n=0 Dla zbioru Cantora prawdziwe są wersje lematu 3.6 oraz lematu 3.8 przy założeniu α = :
4. Zbiory borelowskie. Zbiór wszystkich podzbiorów liczb naturalnych będziemy oznaczali przez ω. Najmniejszą topologię na zbiorze ω, w której zbiory {A ω : x A ω \ y}, gdzie x oraz y są zbiorami skończonymi,
}, gdzie a = t (n) )(f(t(n) k. ) f(t(n) k 1 ) 1+δ = 0,
Zadania z Procesów Stochastycznych II - 1 1. Niech π n = {t (n), t(n) 1,..., t(n) k n }, gdzie a = t (n) < t (n) 1
G. Plebanek, MIARA I CAŁKA Zadania do rozdziału 1 28
G. Plebanek, MIARA I CAŁKA Zadania do rozdziału 1 28 1.9 Zadania 1.9.1 Niech R będzie pierścieniem zbiorów. Zauważyć, że jeśli A, B R to A B R i A B R. Sprawdzić, że (R,, ) jest także pierścieniem w sensie
Zadania do Rozdziału X
Zadania do Rozdziału X 1. 2. Znajdź wszystkie σ-ciała podzbiorów X, gdy X = (i) {1, 2}, (ii){1, 2, 3}. (b) Znajdź wszystkie elementy σ-ciała generowanego przez {{1, 2}, {2, 3}} dla X = {1, 2, 3, 4}. Wykaż,
Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych
Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Niech Ω będzie przestrzenią zdarzeń elementarnych. Definicja 1 Rodzinę S zdarzeń losowych (zbiór S podzbiorów zbioru
1 Relacje i odwzorowania
Relacje i odwzorowania Relacje Jacek Kłopotowski Zadania z analizy matematycznej I Wykazać, że jeśli relacja ρ X X jest przeciwzwrotna i przechodnia, to jest przeciwsymetryczna Zbadać czy relacja ρ X X
Teoria miary i całki
Teoria miary i całki Spis treści 1 Wstęp 3 2 lgebra zbiorów 5 3 Pierścienie, ciała, σ ciała zbiorów. 7 3.1 Definicja pierścienia ciała i σ ciała............... 7 3.2 Pierścień, ciało i σ ciało generowane
Prawdopodobieństwo i statystyka
Wykład VII: Rozkład i jego charakterystyki 22 listopada 2016 Uprzednio wprowadzone pojęcia i ich własności Definicja zmiennej losowej Zmienna losowa na przestrzeni probabilistycznej (Ω, F, P) to funkcja
Wykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga
RAP 412 21.01.2009 Wykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga Wykładowca: Andrzej Ruciński Pisarz: Łukasz Waszak 1 Wstęp Na ostatnim wykładzie przedstawiliśmy twierdzenie o zbieżności
2 Rodziny zbiorów. 2.1 Algebry i σ - algebry zbiorów. M. Beśka, Wstęp do teorii miary, rozdz. 2 11
M. Beśka, Wstęp do teorii miary, rozdz. 2 11 2 Rodziny zbiorów 2.1 Algebry i σ - algebry zbiorów Niech X będzie niepustym zbiorem. Rodzinę indeksowaną zbiorów {A i } i I 2 X nazywamy rozbiciem zbioru X
PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA
PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA 1. Trójkę (Ω, F, P ), gdzie Ω, F jest σ-ciałem podzbiorów Ω, a P jest prawdopodobieństwem określonym na F, nazywamy przestrzenią probabilistyczną. 2. Rodzinę F
Korzystając z własności metryki łatwo wykazać, że dla dowolnych x, y, z X zachodzi
M. Beśka, Wstęp do teorii miary, Dodatek 158 10 Dodatek 10.1 Przestrzenie metryczne Niech X będzie niepustym zbiorem. Funkcję d : X X [0, ) spełniającą dla x, y, z X warunki (i) d(x, y) = 0 x = y, (ii)
VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa.
VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa. W rozdziale tym zajmiemy się dokładniej badaniem stabilności rozwiązań równania różniczkowego. Pojęcie stabilności w
VI. Równania różniczkowe liniowe wyższych rzędów
VI. 1. Równanie różniczkowe liniowe n-tego rzędu o zmiennych współczynnikach Niech podobnie jak w poprzednim paragrafie K = C lub K = R. Podobnie jak w dziedzinie rzeczywistej wprowadzamy pochodne wyższych
Rozdział 6. Ciągłość. 6.1 Granica funkcji
Rozdział 6 Ciągłość 6.1 Granica funkcji Podamy najpierw dwie definicje granicy funkcji w punkcie i pokażemy ich równoważność. Definicja Cauchy ego granicy funkcji w punkcie. Niech f : X R, gdzie X R oraz
Prawdopodobieństwo i statystyka
Wykład II: Zmienne losowe i charakterystyki ich rozkładów 13 października 2014 Zmienne losowe Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Definicja zmiennej losowej i jej
A i. i=1. i=1. i=1. i=1. W dalszej części skryptu będziemy mieli najczęściej do czynienia z miarami określonymi na rodzinach, które są σ - algebrami.
M. Beśka, Wstęp do teorii miary, rozdz. 3 25 3 Miara 3.1 Definicja miary i jej podstawowe własności Niech X będzie niepustym zbiorem, a A 2 X niepustą rodziną podzbiorów. Wtedy dowolne odwzorowanie : A
PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω)
PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω) określonych na tej samej przestrzeni probabilistycznej
Wykład 10. Stwierdzenie 1. X spełnia warunek Borela wtedy i tylko wtedy, gdy każda scentrowana rodzina zbiorów domkniętych ma niepusty przekrój.
Wykład 10 Twierdzenie 1 (Borel-Lebesgue) Niech X będzie przestrzenią zwartą Z każdego pokrycia X zbiorami otwartymi można wybrać podpokrycie skończone Dowód Lemat 1 Dla każdego pokrycia U przestrzeni ośrodkowej
Robert Kowalczyk. Zbiór zadań z teorii miary i całki
Robert Kowalczyk Zbiór zadań z teorii miary i całki 2 Zadanie 1 Pokazać, że poniższe dwie definicje σ-ciała M są równoważne: (i) Rodzinę M podzbiorów przestrzeni X nazywamy σ-ciałem jeżeli zachodzą następujące
RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3.
RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3. ZMIENNA LOSOWA JEDNOWYMIAROWA. Zmienną losową X nazywamy funkcję (praktycznie każdą) przyporządkowującą zdarzeniom elementarnym liczby rzeczywiste. X : Ω R (dokładniej:
7. Miara, zbiory mierzalne oraz funkcje mierzalne.
7. Miara, zbiory mierzalne oraz funkcje mierzalne. Funkcję rzeczywistą µ nieujemną określoną na ciele zbiorów S będziemy nazywali miarą, gdy dla dowolnego ciągu A 0, A 1,... zbiorów rozłącznych należących
Zagadnienia stacjonarne
Zagadnienia stacjonarne Karol Hajduk 19 grudnia 2012 Nierówność wariacyjna (u (t), v u(t)) + a(u, v u) + Ψ(v) Ψ(u) (f, v u), v V. Zagadnienie stacjonarne ma postać (u (t) = 0): a(u, v u) + Ψ(v) Ψ(u) (f,
19 marzec, Łańcuchy Markowa z czasem dyskretnym. Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136
Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 19 marzec, 2012 Przykłady procesów Markowa (i). P = (p ij ) - macierz stochastyczna, tzn. p ij 0, j p ij =
O pewnych klasach funkcji prawie okresowych (niekoniecznie ograniczonych)
(niekoniecznie ograniczonych) Wydział Matematyki i Informatyki Uniwersytet im. Adama Mickiewicza, Poznań Będlewo, 25-30 maja 2015 Funkcje prawie okresowe w sensie Bohra Definicja Zbiór E R nazywamy względnie
Metody probabilistyczne
Metody probabilistyczne. Twierdzenia graniczne Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 20.2.208 / 26 Motywacja Rzucamy wielokrotnie uczciwą monetą i zliczamy
Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu.
Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu. A Teoria Definicja A.1. Niech (Ω, F, P) będzie przestrzenią probabilistyczną. Zmienną losową określoną na przestrzeni Ω nazywamy dowolną
2. P (E) = 1. β B. TSIM W3: Sygnały stochastyczne 1/27
SYGNAŁY STOCHASTYCZNE Przestrzeń probabilistyczna i zmienna losowa Definicja Przestrzenią probabilistyczną (doświadczeniem) nazywamy trójkę uporządkowaną (E, B, P ), gdzie: E przestrzeń zdarzeń elementarnych;
Zadania z RP 2. seria Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n
Zadania z RP 2. seria 1. 1. Dla x R n, niech δ x oznacza miarę Diraca, skupioną w punkcie x. Wykazać, że dla dowolnego ciągu x n R n zachodzi δ xn δ x wtedy i tylko wtedy, gdy x n x. 2. Podać przykład
26 marzec, Łańcuchy Markowa z czasem ciągłym. Procesy Stochastyczne, wykład 7, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136
Procesy Stochastyczne, wykład 7, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 26 marzec, 212 Łańcuchy z czasem ciągłym S = {, 1,..., }, B S = 2 S, ale T = [, ) lub T = (, ). Gdy S skończone,
1. Struktury zbiorów 2. Miara 3. Miara zewnętrzna 4. Miara Lebesgue a 5. Funkcje mierzalne 6. Całka Lebesgue a. Analiza Rzeczywista.
Literatura P. Billingsley, Miara i prawdopodobieństwo, PWN, Warszawa 1997, P. R. Halmos, Measure theory, Springer-Verlag, 1994, W, Kołodziej, naliza matematyczna, PWN, Warszawa 1978, S. Łojasiewicz, Wstęp
Rodzinę spełniającą trzeci warunek tylko dla sumy skończonej nazywamy ciałem (algebrą) w zbiorze X.
1 σ-ciała Definicja 1.1 (σ - ciało) σ - ciałem (σ - algebrą) w danym zbiorze X (zwanym przestrzenią) nazywamy rodzinę M pewnych podzbiorów zbioru X, spełniającą trzy warunki: 1 o M; 2 o jeśli A M, to X
zbiorów domkniętych i tak otrzymane zbiory domknięte ustawiamy w ciąg. Oznaczamy
5. Funkcje 1 klasy Baire a. Pod koniec XIX i początkiem XX wieku kilku matematyków zajmowało się problemami dotyczącymi klasyfikacji funkcji borelowskich: między innymi R. Baire, E. Borel, H. Lebesgue
Dystrybucje. Marcin Orchel. 1 Wstęp Dystrybucje Pochodna dystrybucyjna Przestrzenie... 5
Dystrybucje Marcin Orchel Spis treści 1 Wstęp 1 1.1 Dystrybucje................................... 1 1.2 Pochodna dystrybucyjna............................ 3 1.3 Przestrzenie...................................
Seria 1. Zbieżność rozkładów
Seria Zbieżność rozkładów We wszystkich poniższych zadaniach (E, ρ) jest przestrzenią metryczną Wykazać, że dla dowolnych x, x n, δ xn δ x wtedy i tylko wtedy, gdy x n x Sprawdzić, że n nk= δ k n λ, gdzie
n=0 (n + r)a n x n+r 1 (n + r)(n + r 1)a n x n+r 2. Wykorzystując te obliczenia otrzymujemy, że lewa strona równania (1) jest równa
Równanie Bessela Będziemy rozważać następujące równanie Bessela x y xy x ν )y 0 ) gdzie ν 0 jest pewnym parametrem Rozwiązania równania ) nazywamy funkcjami Bessela rzędu ν Sprawdzamy, że x 0 jest regularnym
Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.
Rachunek prawdopodobieństwa MAT1332 Wydział Matematyki, Matematyka Stosowana Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów. Warunkowa
Zadania z Analizy Funkcjonalnej I Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi?
Zadania z Analizy Funkcjonalnej I - 1 1. Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi? a) X = R, d(x, y) = arctg x y ; b) X = R n, d(x, y) = x 1 y 1 + x 2 y 2 + max i 3 x i
Notatki z Analizy Matematycznej 2. Jacek M. Jędrzejewski
Notatki z Analizy Matematycznej 2 Jacek M. Jędrzejewski Definicja 3.1. Niech (a n ) n=1 będzie ciągiem liczbowym. Dla każdej liczby naturalnej dodatniej n utwórzmy S n nazywamy n-tą sumą częściową. ROZDZIAŁ
Wykłady... b i a i. i=1. m(d k ) inf
Wykłady... CŁKOWNIE FUNKCJI WIELU ZMIENNYCH Zaczniemy od konstrukcji całki na przedziale domkniętym. Konstrukcja ta jest, w gruncie rzeczy, powtórzeniem definicji całki na odcinku domkniętym w R 1. Przedziałem
O procesie Wienera. O procesie Wienera. Procesy stochastyczne Wykład XV, 15 czerwca 2015 r. Proces Wienera. Ruch Browna. Ułamkowe ruchy Browna
Procesy stochastyczne Wykład XV, 15 czerwca 2015 r. Ruch 1 {X t } jest martyngałem dokładnie wtedy, gdy E(X t F s ) = X s, s, t T, s t. Jeżeli EX 2 (t) < +, to E(X t F s ) jest rzutem ortogonalnym zmiennej
(b) Suma skończonej ilości oraz przekrój przeliczalnej ilości zbiorów typu G α
FUNKCJE BORELOWSKIE Rodzinę F podzbiorów zbioru X (tzn. F X) będziemy nazywali ciałem gdy spełnione są warunki: (1) Jeśli zbiór Y F, to dopełnienie X \ Y też należy do rodziny F. (2) Jeśli S F jest skończoną
Informacja o przestrzeniach Hilberta
Temat 10 Informacja o przestrzeniach Hilberta 10.1 Przestrzenie unitarne, iloczyn skalarny Niech dana będzie przestrzeń liniowa X. Załóżmy, że każdej parze elementów x, y X została przyporządkowana liczba
Rozdział 5. Szeregi liczbowe. 5.1 Szeregi liczbowe. Definicja sumy częściowej ciągu. Niech dany będzie ciąg liczbowy (a n ) n=1.
Rozdział 5 Szeregi liczbowe 5. Szeregi liczbowe Definicja sumy częściowej ciągu. Niech dany będzie ciąg liczbowy ( ). Ciąg (s n ) określony wzorem s n = n a j, n N, nazywamy ciągiem sum częściowych ciągu
5 Przegląd najważniejszych rozkładów
5 Przegląd najważniejszych rozkładów 5. Rozkład Bernoulliego W niezmieniających się warunkach wykonujemy n razy pewne doświadczenie. W wyniku każdego doświadczenia może nastąpić zdarzenie A lub A. Zakładamy,
Zadania z Analizy Funkcjonalnej I Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi?
Zadania z Analizy Funkcjonalnej I - 1 1. Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi?. a) X = R, x = arctg x ; b) X = R n, d(x, y) = x 1 y 1 + x 2 y 2 + max i 3 x i y i ;
Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.
Procesy stochastyczne WYKŁAD 2-3 Łańcuchy Markowa Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi. 2 Łańcuchem Markowa nazywamy proces będący ciągiem zmiennych
Ważną rolę odgrywają tzw. funkcje harmoniczne. Przyjmujemy następującą definicję. u = 0, (6.1) jest operatorem Laplace a. (x,y)
Wykład 6 Funkcje harmoniczne Ważną rolę odgrywają tzw. funkcje harmoniczne. Przyjmujemy następującą definicję. e f i n i c j a Funkcję u (x 1, x 2,..., x n ) nazywamy harmoniczną w obszarze R n wtedy i
PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA. Piotr Wiącek
PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA Piotr Wiącek ROZKŁAD PRAWDOPODOBIEŃSTWA Jest to miara probabilistyczna określona na σ-ciele podzbiorów borelowskich pewnej przestrzeni metrycznej. σ-ciało podzbiorów
MNRP r. 1 Aksjomatyczna definicja prawdopodobieństwa (wykład) Grzegorz Kowalczyk
MNRP 18.03.2019r. Grzegorz Kowalczyk 1 Aksjomatyczna definicja prawdopodobieństwa (wykład) Definicja (σ - ciało) Niech Ω - dowolny zbiór. Rodzinę F P (Ω), gdzie P (Ω) jest rodziną wszystkich podzbiorów
System BCD z κ. Adam Slaski na podstawie wykładów, notatek i uwag Pawła Urzyczyna. Semestr letni 2009/10
System BCD z κ Adam Slaski na podstawie wykładów, notatek i uwag Pawła Urzyczyna Semestr letni 2009/10 Rozważamy system BCD ze stałą typową κ i aksjomatami ω κ κ i κ ω κ. W pierwszej części tej notatki
Wykład 3 Jednowymiarowe zmienne losowe
Wykład 3 Jednowymiarowe zmienne losowe Niech (Ω, F, P ) będzie ustaloną przestrzenią probabilistyczną Definicja 1 Jednowymiarowa zmienna losowa (o wartościach rzeczywistych), określoną na przestrzeni probabilistycznej
Wokół nierówności Dooba
Uniwersytet Warszawski Wydział Matematyki, Informatyki i Mechaniki Tomasz Tkocz Nr albumu: 24957 Wokół nierówności Dooba Praca licencjacka na kierunku MATEMATYKA w ramach Międzywydziałowych Indywidualnych
Wykład z równań różnicowych
Wykład z równań różnicowych 1 Wiadomości wstępne Umówmy się, że na czas tego wykładu zrezygnujemy z oznaczania n-tego wyrazu ciągu symbolem typu x n, y n itp. Zamiast tego pisać będziemy x (n), y (n) itp.
Zadania z Rachunku Prawdopodobieństwa II Podaj przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,
Zadania z Rachunku Prawdopodobieństwa II -. Udowodnij, że dla dowolnych liczb x n, x, δ xn δ x wtedy i tylko wtedy, gdy x n x.. Wykaż, że n n k= δ k/n λ, gdzie λ jest miarą Lebesgue a na [, ].. Podaj przykład
Wykład 2 Zmienne losowe i ich rozkłady
Wykład 2 Zmienne losowe i ich rozkłady Magdalena Frąszczak Wrocław, 11.10.2017r Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe Doświadczenie
Analiza Funkcjonalna - Zadania
Analiza Funkcjonalna - Zadania 1 Wprowadzamy następujące oznaczenia. K oznacza ciało liczb rzeczywistych lub zespolonych. Jeżeli T jest dowolnym zbiorem niepustym, to l (T ) = {x : E K : x funkcja ograniczona}.
Prognozowalne kryterium całkowalności według A. N. Shiryaeva i A. S. Cherny ego Joanna Karłowska-Pik. Historia
1 Prognozowalne kryterium całkowalności według A. N. Shiryaeva i A. S. Cherny ego Joanna Karłowska-Pik Całka stochastyczna ( t ) H s dx s = H X. t Historia K. Itô (1944) konstrukcja całki stochastycznej
Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014
Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014 Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe
Analiza matematyczna. 1. Ciągi
Analiza matematyczna 1. Ciągi Definicja 1.1 Funkcję a: N R odwzorowującą zbiór liczb naturalnych w zbiór liczb rzeczywistych nazywamy ciągiem liczbowym. Wartość tego odwzorowania w punkcie n nazywamy n
Równania różniczkowe. Notatki z wykładu.
Równania różniczkowe Notatki z wykładu http://robert.brainusers.net 17.06.2009 Notatki własne z wykładu. Są niekompletne, bez bibliografii oraz mogą zawierać błędy i usterki. Z tego powodu niniejszy dokument
Analiza funkcjonalna 1.
Analiza funkcjonalna 1. Wioletta Karpińska Semestr letni 2015/2016 0 Bibliografia [1] Banaszczyk W., Analiza matematyczna 3. Wykłady. (http://math.uni.lodz.pl/ wbanasz/am3/) [2] Birkholc A., Analiza matematyczna.
Procesy stochastyczne 2.
Procesy stochastyczne 2. Listy zadań 1-3. Autor: dr hab.a. Jurlewicz WPPT Matematyka, studia drugiego stopnia, I rok, rok akad. 211/12 1 Lista 1: Własność braku pamięci. Procesy o przyrostach niezależnych,
Procesy stochastyczne
Wykład I: Istnienie procesów stochastycznych 21 lutego 2017 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane
SIMR 2016/2017, Analiza 2, wykład 1, Przestrzeń wektorowa
SIMR 06/07, Analiza, wykład, 07-0- Przestrzeń wektorowa Przestrzeń wektorowa (liniowa) - przestrzeń (zbiór) w której określone są działania (funkcje) dodawania elementów i mnożenia elementów przez liczbę
Zadania z Rachunku Prawdopodobieństwa III - 1
Zadania z Rachunku Prawdopodobieństwa III - 1 1. Oblicz funkcję tworzącą momenty zmiennych o następujących rozkładach: a) symetryczny dwupunktowy; b) dwumianowy z parametrami n, p; c) Poissona z parametrem
1 Ciągłe operatory liniowe
1 Ciągłe operatory liniowe Załóżmy, że E, F są przestrzeniami unormowanymi. Definicja 1.1. Operator liniowy T : E F nazywamy ograniczonym, jeżeli zbiór T (B) F jest ograniczony dla dowolnego zbioru ograniczonego
WYKŁAD Z ANALIZY MATEMATYCZNEJ I. dr. Elżbieta Kotlicka. Centrum Nauczania Matematyki i Fizyki
WYKŁAD Z ANALIZY MATEMATYCZNEJ I dr. Elżbieta Kotlicka Centrum Nauczania Matematyki i Fizyki http://im0.p.lodz.pl/~ekot Łódź 2006 Spis treści 1. CIĄGI LICZBOWE 2 1.1. Własności ciągów liczbowych o wyrazach
1 Elementy analizy funkcjonalnej
M. Beśka, Dodatek 1 1 Elementy analizy funkcjonalnej 1.1 Twierdzenia o reprezentacji Zaczniemy od znanego twierdzenia Riesza Twierdzenie 1.1 (Riesz) Niech będzie zwartą przestrzenią metryczną i załóżmy,
3. Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,
Zadania z Rachunku Prawdopodobieństwa II - Mówimy, że i) ciąg miar probabilistycznych µ n zbiega słabo do miary probabilistycznej µ (ozn. µ n µ), jeśli fdµ n fdµ dla dowolnej funkcji ciągłej ograniczonej
Rozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej
Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Zbiór możliwych wyników eksperymentu będziemy nazywać przestrzenią zdarzeń elementarnych i oznaczać Ω, natomiast
Rozdział 4. Ciągi nieskończone. 4.1 Ciągi nieskończone
Rozdział 4 Ciągi nieskończone W rozdziale tym wprowadzimy pojęcie granicy ciągu. Dalej rozszerzymy to pojęcie na przypadek dowolnych funkcji. Jak zauważyliśmy we wstępie jest to najważniejsze pojęcie analizy
Statystyka i eksploracja danych
Wykład II: i charakterystyki ich rozkładów 24 lutego 2014 Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa,
Układy równań i równania wyższych rzędów
Rozdział Układy równań i równania wyższych rzędów Układy równań różniczkowych zwyczajnych Wprowadzenie W poprzednich paragrafach zajmowaliśmy się równaniami różniczkowymi y = f(x, y), których rozwiązaniem
Wykład 21 Funkcje mierzalne. Kostrukcja i własności całki wzglȩdem miary przeliczalnie addytywnej
Wykład 2 Funkcje mierzalne. Kostrukcja i własności całki wzglȩdem miary przeliczalnie addytywnej czȩść II (opracował: Piotr Nayar) Definicja 2.. Niech (E, E) bȩdzie przestrzenia mierzalna i niech λ : E
O pewnych związkach teorii modeli z teorią reprezentacji
O pewnych związkach teorii modeli z teorią reprezentacji na podstawie referatu Stanisława Kasjana 5 i 12 grudnia 2000 roku 1. Elementy teorii modeli Będziemy rozważać język L składający się z przeliczalnej
Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe
Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe 4.0. Rozkłady zmiennych losowych, dystrybuanta. Katarzyna Rybarczyk-Krzywdzińska Wprowadzenie Rozważmy eksperymenty 1 gra Bolka w ruletkę w kasynie;
2. Definicja pochodnej w R n
2. Definicja pochodnej w R n Niech będzie dana funkcja f : U R określona na zbiorze otwartym U R n. Pochodną kierunkową w punkcie a U w kierunku wektora u R n nazywamy granicę u f(a) = lim t 0 f(a + tu)
Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład
Rozdział 1 Wektory losowe 1.1 Wektor losowy i jego rozkład Definicja 1 Wektor X = (X 1,..., X n ), którego każda współrzędna jest zmienną losową, nazywamy n-wymiarowym wektorem losowym (krótko wektorem