Procesy stochastyczne

Wielkość: px
Rozpocząć pokaz od strony:

Download "Procesy stochastyczne"

Transkrypt

1 Procesy stochastyczne 1 Co to jest proces stochastyczny Będziemy zakładać w tej książce, że dana jest przestrzeń probabilistyczna (Ω, F, P ). Definicja 1.1 Procesem stochastycznym nazywamy zbiór zmiennych losowych {X t } t T, które przyjmują wartości w przestrzeni mierzalnej (Ξ, X ) i są indeksowane przez zbiór T. Definicja mówi nam, dla każdego t T X t : Ω Ξ jest F/X -mierzalna. Oznaczamy ją również przez X(t). Przykład 1.2 Jeśli T = {, 1, 2,..., n} oraz Ξ =, to {X t } t T jest wektorem losowym w n. Przykład 1.3 Jeśli T = {, 1, 2,...} oraz Ξ = k lub Ξ = C k lub Ξ jest zbiorem skończonym, to {X t } t T jest ciągiem losowym np. łańcuch Markowa. Proces X(t, ω) jest funkcją dwóch zmiennych t T zaś ω Ω. Dla ustalonego ω X(, ω) : T Ξ, czyli każdemu ω przyporządkowujemy funkcję element z przestrzeni Ξ T. Interesuje nas wyposażenie tej przestrzeni w σ-ciało tak aby proces był odwzorowaniem mierzalnym. Definicja 1.4 (Zbiory cylindryczne) Załóżmy, że dana jest przestrzeń mierzalna (Ξ, X ). Wówczas zbiorem cylindrycznym w przestrzeni Ξ T nazywamy zbiór postaci {x Ξ T : (x t1,..., x tn ) A}, gdzie A X n = X X. Definicja 1.5 Produktowym σ-ciałem X T w przestrzeni Ξ T nazywamy najmniejsze σ-ciało generowane przez wszystkie zbiory cylindryczne. Definicja 1.6 Funkcją losową nazywamy odwzorowanie X : Ω Ξ T, które jest F/X T mierzalne. ealizacje X(ω) nazywamy ścieżkami i oznaczamy x.

2 Definicja 1.7 Niech (E, E) oznacza przestrzeń mierzalną. Wówczas odwzorowanie mierzalne f : Ξ T E, które jest X T /E mierzalne nazywamy funkcjonałem określonym na ścieżkach. Przykładem funkcjonału jest operator rzutu π t : Ξ T Ξ ewaluacji funkcji f : T Ξ dany wzorem π t (f) = f(t). Jest on mierzalny, gdyż jednowymiarowe cylindry są dane następującą formuła: {f Ξ T : f(t) A} = πt 1 (A), gdzie zbiór A X. Następujący lemmat wyjaśnia kluczową rolę π t. Lemat 1.8 Odwzorowanie X : Ω Ξ T jest F/X T mierzane, czyli jest funkcja losową wtedy i tylko wtedy gdy dla każdego t T złożenie π t X jest F/X mierzalne Dowód: Implikacja w jedną stronę jest oczywista bo π t X jest złożeniem dwóch funkcji mierzalnych. W drugą stronę wystarczy pokazać, że przeciwobraz dowolnego cylindra jednowymiarowego πt 1 (A) jest F mierzalny, czyli X 1 (πt 1 (A)) = (π t X) 1 (A) F co kończy dowód. Zauważmy, że z lematu wynika iż funkcja losowa X wyznacza proces stochastyczny X t = π t X. Z drugiej strony każdy proces stochastyczny X t wyznacza funkcję losową X. Ponieważ będziemy chcieli skonstruować procesy stochastyczny posiadające pewne własności wygodnie jest wskazać w zbiorze Ξ T pewien podziór U. I tak w dalszym ciągu dla T = [, 1] zbiór U oznaczać będzie zbiór funkcji ciągłych rzeczywistych Ξ =, X = B, gdzie B oznacza σ-ciało zbiorów borelowskich; U = C(T ). Zauważmy, że zbiór U nie należy do X T. Inny dobór zbioru U jest w przykładzie 12. W U σ-ciało, które będziemy oznaczać przez U X T definiujemy w standardowy sposób: U X T = {C U : C X T }. Deninicja 1.9 Funkcję losową w U nazywamy funkcję X : Ω U Ξ T, która jest F/U X T mierzalna. 2

3 Lemat 1.1 X jest funkcją losową w U wtedy i tylko wtedy gdy {X t } t T jest procesem stochastycznym o trajektoriach w zbiorze U. Dowód: Ponieważ X(ω) U zatem X jest F/U X T mierzalna wtedy i tylko wtedy gdy jest F/X T mierzalna. Dalej dowód wynika z Lematu 8. Przykład 1.11 (Miary losowe) Niech zbiór T będzie oznaczać zbiory borelowskie w d zaś Ξ = + = [, ]. Wówczas funkcja losowa X : Ω U Ξ T oznacza miarę losową, jeśli za U weźmiemy miary przeliczanie addytywne. Przykład 1.12 Jeśli X jest miarą losową i dla każdego zbioru borelowskiego B, X(B) jest zmienną losową przyjmującą wartości w zbiorze liczb naturalnych, to X jest procesem punktowym. Jeśli X jest miarą losową i dla każdego r, X({r}) 1, to X jest procesem prostym. Proces Poissona jest procesem punktowym prostym. Zadanie 1.13 Dla dowolnego zbioru przeliczalnego S = {t 1, t 2,...} zawartego w T definiujemy σ-ciało w Ξ T (ozn. X S (Ξ T )), które jest generowane przez jednowymiarowe cylindry postaci πt 1 (A), gdzie A Ξ i t S. Udowodnić, że X T = X S (Ξ T ). S T Dowód. Oznaczmy D = S T X S (Ξ T ). Oczywiście D X T. W drugą stronę wystarczy pokazać, że D jest σ-ciałem. W dalszym ciągu potrzebować będziemy następujące twierdzenie z teorii miary []: Twierdzenie 1.14 (O zgodności dwóch miar) Załóżmy, że dane są dwie miary określone na (Ξ, X ). Niech dana będzie rodzina G zbiorów zamknięta ze względu na skończone przekroje i taka, że µ(e) = ν(e) dla E G. Zakładamy ponadto, że istnieją zbiory E i G takie, że µ(e i ) = ν(e i ) < i Ξ = i=1 E i (czyli zakładamy, że miary są σ-skończone). Wówczas miary µ i ν są zgodne na σ-ciele generowanym przez G. Definicja 1.15 ozkładem funkcji losowej X : Ω Ξ T probabilistyczną określoną na (Ξ T, X T ) wzorem nazywamy miarę µ(e) = P (ω : X(ω) E), 3

4 gdzie E X T. Na zbiorach cylindrycznych postaci gdzie A j X C = n j=1 π 1 t j (A j ), µ(c) = P {ω : X tj (ω) A j, j = 1,..., n}. Chcemy teraz zawęzić funkcję losową do zbioru Ξ K, gdzie K T. W tym celu wprowadźmy oznaczenie, przez x(t) t K lub π T K(x) = x K będziemy oznaczać obcięcie funkcji x : T Ξ do zbioru K. Zauważmy, że operator obcięcia π T K : Ξ T Ξ K jest odwzorowaniem X K /X T mierzalnym. Wówczas jeśli X jest funkcją losową, to możemy wprowadzić funkcję losową X K w następujący sposób. Niech X(ω) będzie realizacją funkcji losowej oznaczoną przez x(t). Wówczas realizację funcji losowej X K możemy zdefiniować jako π T K(x), czyli X K = π T K(X). Pozostaje sprawdzić, że definicja jest poprawna, czyli X K : Ω Ξ K jest X K /F mierzalna co wynika ze złożenia funkcji mierzalnych. Zatem możemy wprowadzić również rozkłady µ K na (Ξ K, X K ). Analogicznie możemy zdefiniować operatory π J K o ile K J T. Ponieważ rodzinę miar zdefiniowaliśmy używając operatora obcięcia, zatem jeśli S = {t 1,..., t n }, to aby obliczyć µ S (A 1 A n ) porządkujemy zbiór S, t i1 < < t in (tutaj stosujemy identyfikację) i wówczas A 1 A n = {x Ξ S : x(t ij ) A j, j = 1,..., n} µ S (A 1 A n ) = P {ω : X S (t ij, ω) A j, j = 1,..., n} = P {ω : X(t ij, ω) A j, j = 1,..., n} = µ({x Ξ T : x(t i1 ) A 1,..., x(t in ) A n }), co wyjaśnia (1.1) dla rodzin skończonych. Twierdzenie 1.16 Powyżej zdefiniowana rodzina spełnia warunek (1.1) µ K = µ (π T K) 1 4

5 i ogólnie (1.2) µ K = µ J (π J K) 1 Dowód. Aby udowodnić (1.1) zauważmy, że obie miary są zgodne na zbiorach cylindrycznych, która to rodzina jest zamknięta ze względu na skończone przekroje. eszta wynika z twierdzenia 14. Do dowodu (1.2) zauważmy, że µ K = µ (π T K) 1 = µ (π J K π T J ) 1 = µ (π T J ) 1 (π J K) 1 = µ J (π J K) 1. Definicja 1.17 odzina miar µ K na X K indeksowana zbiorami skończonymi spełniająca warunek (1.2) dla dowolnych zbiorów skończonych nazywa się rodziną zgodną Z twierdzenia 16 wynika, że zgodność miar jest warunkiem koniecznym istnienia miary na Ξ T. Twierdzenie Kołmogorowa pokaże, że jest też warunkiem wystarczającym. Twierdzenie 1.18Niech X i Y będą funkcjami losowymi w Ξ T o ścieżkach w U. Wówczas rozkłady funkcji losowych X, Y oznaczone przez µ, ν są identyczne na U Ξ T wtedy i tylko wtedy gdy dla dowolnego zbioru skończonego J T µ J = ν J. Dowód Dowód w jedną stronę = jest teraz oczywisty. Dowód w drugą stronę jest oparty o twierdznie 14. Trzeba zauważyć tylko,że rodzina zbiorów cylindrycznych jest domknięta ze względu na skończone przekroje. ozważmy teraz T = [, 1], Ξ =, X = B, U = C(T ). Niech µ będzie zadaną miarą probabilistyczną na (Ξ T, X T ). Miarę tę możemy rozszerzyć do miary zewnętrznej µ (B) = inf B E X T (µ(e)), [Lojasiewicz str.99]. Lemat 1.19 Zbiór U ma miarę zewnętrzną jeden µ (U) = 1 wtedy i tylko wtedy gdy dla każdego zbioru przeliczalnego τ T : µ ({f T : f τ jest jednostajnie ciągła w τ}) = 1. Zauważmy, że do naszych rozważań wystarczy założyć, że miara µ jest zupełna, czyli X T rozszerzamy o wszystkie zbiory miary zero. 5

6 Dowód. = Niech µ (U) = 1. Dla danego τ przeliczalnego definiujemy zbiór A τ = {ψ T : ψ τ jest jednostajnie ciągła w τ}. Wówczas ponieważ U A τ, to 1 = µ (U) µ (A τ ) 1 co kończy dowód implikacji. = Niech teraz E X T dowolny zbiór taki, że U = C(T ) E. Wystarczy pokazać, że µ(e) = 1. Z zadania 13 istnieje S = {t 1, t 2,...} T taki, że E X S (Ξ T ), czyli istnieje A X N = (B ) N E = {f T : (f(t 1 ), f(t 2 ),...) A}. Można pokazać, że dla dowolnej funkcji ψ T takiej, że ψ S jest jednostajnie ciągły istnieje funkcja ciągła f : T taka, że f S = ψ S. Ponieważ C(T ) E stąd wynika, że ψ E, czyli A S := {ψ T : ψ S jednostajnie ciągły} E. Stąd 1 = µ (A S ) µ (E) = µ(e) 1 co kończy dowód. W następnych rozdziałach pokażemy, że istnieje miara Wienera skoncentrowana na U = C(T ) w sensie lematu 19. Stąd będzie wynikać, że można wprowadzić miarę na U, gdyż zachodzi następujący lemat Lemat 1.2 Niech (E, E, P ) będzie przestrzenią probabilistyczną. Niech E E taki, że P (E ) = 1, to istnieje dokładnie jedna miara probabilistyczna P na (E, E E) spełniająca równanie (1.3) P (E A) = P (A), A E. Dowód. Sprawdzimy, że (1.3) może służyć jako definicja miary. Wystarczy sprawdzić, że definicja jest poprawna, czyli dla dowolnych A 1, A 2 E jeśli (1.4) E A 1 = E A 2, to P (A 1 ) = P (A 2 ). Zauważmy, że z (1.4) wynika, że A 1 A 2 = (A 1 \ A 2 ) (A 2 \ A 1 ) E \ E. Stąd P (A 1 A 2 ) P (E \ E ) = zatem P (A 1 ) = P (A 2 ). Pozostałe własności wynikają z definicji. 6

7 Oczywiście przestrzeń U = C(T ), T = [, 1] jest przestrzenią ośrodkową Banacha z normą supremum x = sup t [,1] x(t). Istnieje zatem w U naturalne σ-ciało zbiorów borelowskich B U, czyli σ-ciało generowane przez kule otwarte K r (x) = {y : x y < r}. Zadanie 1.21 Pokazać, że B U = U (B ) T. Sens tego zadania jest jasny. Do definicji funkcji ciągłej ψ potrzeba i wystarcza podzbiór przeliczalny gęsty w T taki, że ciąg ψ S jest jednostajnie ciągły. Zadanie 1.22 W dowodzie lematu 1.19 użyto następującej identyfikacji. Jeśli S = {t 1, t 2,...} T, to Uzupełnić dowód. X S (Ξ T ) = {{f T : (f(t 1 ), f(t 2 ),...) A} : A X N } Zadanie 1.23 Pokazać, że dla dowolnej funkcji ψ T takiej, że ψ S jest jednostajnie ciągły istnieje funkcja ciągła f : T taka, że f S = ψ S. 7

8 2 Twierdzenia o rozszerzaniu W rozdziale tym podamy podstawowe konstrukcje rozszerzające rodziny miar zgodnych do miary na Ξ T. W tym celu przypomnimy definicje ciała skończenie addytywnym E zbiorów z przestrzeni E [Lojasiewicz str 73]. Definicja 2.1 Jeśli A, B E, to A B E i A \ B E, to E nazywamy ciałem skończenie addytywnym Następnie niech F będzie funkcją skończoną, nieujemna i skończenie addytywną w ciele E. Twierdzenie Carathéodory 2.2 Warunkiem koniecznym i dostatecznym na to, aby funkcja F dała się rozszerzyć do miary na σ-ciele generowanym przez ciało skończenie addytywne E jest jej przeliczalna addytywność w E. [Dowód Lojasiewicz str 99.] Definicja 2.3 Przestrzenie mierzalne (E 1, E 1 ) i (E 2, E 2 ) są izomorficzne w sensie Borela, jeśli istnieją funkcje f i f 1 odpowiednio mierzalne. f : E 1 E 2, f 1 : E 2 E 1 Definicja 2.4 (E, E) jest przestrzenią Borela jeśli istnieje zbiór borelowski A w [, 1], taki, że (E, E) oraz (A, A B [,1] ) są izomorficzne w sensie Borela. Sformułujemy lemat, którego dowód jest oparty o istnienie warunkowych prawdopodobieństw.[kallenberg] Lemat 2.5 Niech dane będą zmienne losowe X, X : (Ω, F) (Ξ, X ) o jednakowych rozkładach L(X) = L(X ) oraz zmienna losowa Y : (Ω, F) (A, A), gdzie (A, A) jest przestrzenią Borela. Niech zmienna Z ma rozkład jednostajny na [, 1] i jest niezależna od X. Wówczas istnieje funkcja mierzalna f : Ξ [, 1] A taka, że L(X, f(x, Z)) = L(X, Y ), L( ) oznacza rozkład zmiennej losowej. Twierdzenia Daniella podamy nieco w ogólniejszej formie niż tego wymaga dalszy wykład. Do tej pory mówiliśmy o rodzinach miar zgodnych. W 8

9 tym twierdzeniu zakładamy, że rodzina miar jest kolejno zgodna. Niech dla każdego n, A n będzie przestrzenią Borela z zaś µ n oznacza miarę probabilistyczną na przestrzeni produktowej n j=1 A j. odzina miar jest kolejno zgodna jeśli dla µ n+1 (D A n+1 ) = µ n (D). Zauważmy, że taka rodzina wyznacza rodzinę miar zgodnych. Wystarczy uzupełnić, tę rodzinę o wszystkie miary brzegowe. Twierdzenie Daniella 2.6 Niech dla każdego n, A n będzie przestrzenią Borela, zaś µ n oznacza miarę probabilistyczną na przestrzeni n j=1 A j. Jeśli rodzina miar µ n tworzy rodzinę kolejno zgodną, to istnieją zmienne losowa X n : Ω A n takie, że L(X 1,..., X n ) = µ n dla każdego n oraz istnieje miara probabilistyczna µ na j=1 A j taka, że jeśli π n oznacza (projekcję) operator obcięcia n π n : A j A j, to µ n = µ π 1 n. j=1 Dowód. Można zauważyć [Kallenberg] (dowód uzupełnimy póżniej), że istnieje Ω, dla której można wybrać ciąg niezależnych zmiennych losowych X, Z 2, Z 3, Z 4,... taki, że Z j ma rozkład jednostajny na [, 1] zaś L(X) = µ 1 oraz dla każdego n istnieje ciąg (zależny od n) ξ n 1,..., ξ n n taki, że j=1 (2.1) L(ξ n 1,..., ξ n n) = µ n. Ciąg zmiennych X 1, X 2,... konstruujemy indukcyjnie. Załóżmy, że potafimy skonstruować ciąg X 1, X 2,..., X n taki, że L(X 1, X 2,..., X n ) = µ n. Jak skonstruować X n+1. Korzystając z warunku (2.1) wybieramy ξ1 n+1,..., ξn+1 tak aby L(ξ1 n+1,..., ξn+1) = µ n+1. Ponieważ rodzina jest kolejno zgodna L(ξ n+1 1,..., ξ n+1 n ) = L(X 1,..., X n ) = µ n. Korzystając z Lematu 2.5 zastosowanego dla X = ξ n+1 1,..., ξ n+1 n, X = X 1,..., X n 9

10 otrzymujemy, że istnieje X n+1 = f(x, Z n+1 ) taki, że L(ξ n+1 1,..., ξ n+1 n+1) = L(X 1,..., X n, X n+1 ), co kończy dowód. Następne twierdzenie uogólnia wynik Daniella na (Ξ T, X T ). Oczywiście trudność pojawia się tylko gdy T jest zbiorem nieprzeliczalnym. Twierdzenie Kołmogorowa 2.7 Niech (Ξ, X ) będzie przestrzenią Borela. Załóżmy, że dana jest rodzina miar zgodna µ J, J skończony, J T na (Ξ J, X J ). Wówczas istnieje funkcja losowa X. o rozkładzie µ na (Ξ T, X T ) takim, że µ J = µ (π T J ) 1. Dowód. Zauważmy, że korzystając z definicji σ ciała X S (Ξ T ) (zadanie 1.13) i twierdzenia 2.6 dla dowolnego zbioru przeliczalnego S T możemy zdefiniować miarę µ S na X S (Ξ T ) taką, że miary µ J dla J S są miarami brzegowymi µ J = µ S (π S J ) 1. Z twierdzenia 1.14 wynika, że rodzina miar µ S, gdzie S jest skończony lub przeliczalny spełnia warunek zgodności (1.2). Pamiętając, że (zad. 1.13) X T = S T X S (Ξ T ) możemy zdefiniować funkcję na A X T wzorem µ(a) = µ S (A), gdzie A X S (Ξ T ). Ponieważ rodzina spełnia warunek zgodności (1.2) definicja nie zależy od wyboru S. Oczywiście µ jest miarą gdyż w definicji miary wszystkie operacje są przeliczalne. Poszukiwany w twierdzeniu proces X t możemy zdefiniować X t = π t, gdzie (Ξ T, X t, µ) jest przestrzenią probabilistyczną. Inny dowód ( A.D. Wenzel). Istnienie miary µ wynika, również bezpośrednio z twierdzenia Carathéodory ego 2.2 w którym za ciało zbiorów bierzemy zbiory cylindryczne w następujący sposób. Niech A będzie zbiorem cylindrycznym, wówczas istnieje zbiór skończony K taki, że A X K (Ξ T ). Addytywną funkcję zbiorów definiujemy przez F (A) = µ K (A). Definicja nie zależy od wybory zbioru K, bo te miary tworzą rodzinę zgodną. W dowodzie, że F jest przeliczalnie addytywny w ciele wykorzystuje się założenie, że zbiory są przestrzeniami Borela. 1

11 Zadanie 2.8 Pokazać, że zdefiniowana w dowodzie twierdzenia Kołmogorowa funkcja zbiorów jest miarą. Wystarczy sprawdzić, że zdefiniowana miara w dowodzie twierdzenia jest przeliczalnie addytywna. Niech A j X T są rozłaczne. Z zadania 1.13 istnieją zbiory przeliczalne S j T takie, że A j X S j (Ξ T ). Ponieważ S = j S j jest zbiorem przeliczalnym zatem A j, j A j X S (Ξ T ). Stąd µ( j A j ) = µ S ( j A j ) = j µ S (A j ) = j µ(a). 11

12 3 Miary skoncentrowane na C(T) w tym rozdziale skonstruujemy miarę Wienera. ozpoczniemy od nierówności Garsia, ademich i umsey [197]. Theorem 3.1 Niech p i Ψ będą funkcjami ciągłymi, ściśle rosnącymi określonymi na [, ) i takimi, że p() = Ψ() = oraz lim t Ψ(t) =. Niech φ C(T ). Wówczas jeśli (3.1) to 1 1 t s (3.2) φ(t) φ(s) 8 Ψ ( ) φ(t) φ(s) dsdt B, p( t s ) ( ) 4B Ψ 1 p(du). u 2 Dowód. Definiujemy funkcję: I(t) = 1 W dalszej części pokażemy, że z założenia Ψ 1 wynika istnienie t (, 1) takiego, że ( ) φ(t) φ(s) ds. p( t s ) I(t)dt B I(t ) 2B I(1 t ) 2B. Wybierzemy ciąg nierosnący {t n } n 1 [, t ]. Mając t n 1, n 1 definiujemy d n 1 (d 1 = 1) tak aby p(d n 1 ) = 1 2 p(t n 1). Wówczas wybieramy t n (, d n 1 ) tak aby (3.3) I(t n ) 2B/d n 1 oraz (3.4) Ψ ( ) φ(tn ) φ(t n 1 ) 2I(t n 1 )/d n 1. p( t n t n 1 ) 12

13 Aby uzasadnić ten wybór zauważmy, że jeśli to A := {t (, d n 1 ) : I(t) > 2B/d n 1 }, B dn 1 I(t) A I(t)dt > 2B d n 1 A. Stąd miara A < d n 1 /2. Z drugiej strony dla zbioru mamy D := {t (, d n 1 ) : Ψ D ( ) φ(t) φ(tn 1 ) > 2I(t n 1 )/d n 1 }, p( t t n 1 ) ( ) 1 φ(tn 1 ) φ(s) I(t n 1 ) = Ψ ds p( t n 1 s ) ( ) φ(tn 1 ) φ(s) Ψ ds > 2 D I(t n 1 )/d n 1. p( t n 1 s ) Zatem również D < d n 1 /2 co dowodzi istnienia punktu t n spełniającego (3.3) i (3.4). Zdefiniowaliśmy ciąg Co więcej Zatem t n < d n 1 < t n 1. 2p(d n+1 = p(t n+1 ) < p(d n ) = p(t n )/2. p(t n+k ) < p(t n )/2 k. Stąd dla n, p(t n ) zatem t n. Ponadto p(t n t n+1 ) p(t n ) = 2p(d n ) = 4(p(d n ) 1 2 p(d n)) Stąd oraz z (3.3) i (3.4) wynika, że 4(p(d n ) p(d n+1 )). φ(t n ) φ(t n+1 ) Ψ 1 (2I(t n )/d n )p(t n t n+1 ) ( ) ( ) 4B 4B Ψ 1 4(p(d n ) p(d n+1 )) 4Ψ 1 (p(d d n 1 d n d 2 n ) p(d n+1 )) n dn ( ) 4B 4 Ψ 1 p(du). d n+1 u 2 13

14 Sumując po n otrzymamy 1 (3.5) φ(t ) φ() 4 ( ) 4B Ψ 1 p(du). u 2 Biorąc za funkcję φ funkcję φ(1 t) i powtarzając rozumowanie 1 (3.6) φ(1) φ(1 t ) 4 Jeszcze wypada zobaczyć, że dla zbioru otrzymamy B ( ) 4B Ψ 1 p(du). u 2 C := {t (, 1) : I(t) > 2B} 1 I(t)dt C I(t)dt > 2B C, czyli C < 1/2. Zatem można wybrać punkt t taki, że jednocześnie Stąd z (3.5) i (3.6) wynika, że I(t ) 2B I(1 t ) 2B. 1 (3.7) φ(1) φ() 8 ( ) 4B Ψ 1 p(du). u 2 W szzczególności jeśli s < t 1 definiujemy nowe funkcje oraz φ(u) = φ(s + (t s)u), u [, 1] p(u) = p((t s)u), u [, 1]. Jak łatwo sprawdzić dla nowych funkcji zachodzi warunek (3.1) z nową stała B/(t s) 2. Stosując wzór (3.7) do nowych funkcji i nowej stałej a następnie stosując zamianę zmienych otrzymuje tezę twierdzenia. Zauważmy, że twierdzenie jest prawdziwe dla dowolnego odcinka [, a], a >. Wniosek 3.2 Niech (E, E, P ) będzie przestrzenią probabilistyczną. I niech proces X : [, ) E jest o ciągłych trajektoriach. Jeśli dla dowolnego a > istnieją parametry α = α a >, r = r a > oraz C = C a < takie,że (3.8) E X t X s r C t s 1+α, t, s a, 14

15 wówczas dla dowolnego γ = γ a (2, 2 + α) oraz λ > ( X t X s (3.9) P 8γ ) t s β γ 2 (4λ)1/r sup s<t a gdzie β = β a = (γ 2)/r zaś A = A a = a a t s 1+α γ dsdt. CA/λ, Dowód. Z ciągłości trajektorii wynika, że proces jest progresywnie mierzalny (zob. twierdzenie 6.4), czyli dla każdego a > obcięcie procesu do [, a) jest B [,a) E/B mierzalne. Z warunku (3.8) oraz definicji stałej A wynika, że [ a ( ) a r Xt X s E dsdt] a a E ( Xt X s t s (1+α)/r t s γ/r ) r 1 dsdt AC. t s (γ 1 α) Z nierówności Czebyszewa ( a ( ) a r Xt X s P dsdt λ) CA/λ. t s γ/r Wówczas na dopełnieniu powyższego zbioru i z twierdzenia 3.1 t s X t X s 8 ( ) 1/r 4λ t s du γ/r = 8(4λ) 1/r u 2/r (γ/r)u γ/r 1 du u 2 = 8(4λ) 1/r t s (γ 2)/r (γ/r)(1r/(γ 2)). co kończy dowód. Powrócimy teraz do zagadnienia, które rozpatrywaliśmy w rozdziale 1. Mianowicie sformułowaliśmy warunek przy którym miarę probabilistyczna µ na T można zawęzić do C(T ), lemat 1.18 i Okazuje się, że taką sytuację mamy dla miar, które pochodzą od procesów spełniających warunek (3.8). Sformułujemy to twierdzenie na odcinku T = [, 1] choć jest ono prawdziwe również na półprostej [, ). Twierdzenie 3.3 Niech dana będzie miara µ na T, (B ) T taka, że istnieją stałe α >, r > 1 + α i C >, że dla (3.1) E π t π s r = ψ(t) ψ(s) r µ(dψ) C t s 1+α, s < t 1. 15

16 Wówczas µ (C(T )) = 1. Dowód. Z lematu 1.19 wynika, że wystarczy pokazać, że dla każdego zbioru przeliczalnego S µ ({ψ T : ψ S jest jednostajnie ciągły}) = 1. W tym celu zobaczmy, że jeśli zbiór τ jest skończony, to zbiór (stałe dobieramy jak we wniosku 3.2) ψ(t) ψ(s) A τ,λ := {ψ : sup 8γ t,s τ t s β γ 2 (4λ)1/r } jest (B ) T mierzalny co wynika z mierzalności funkcji π t, t τ. W odpowiedni sposób dobieramy teraz zbiory τ = τ N = { = t,n < < t N,N = 1}. tak aby S N=1 τ N i τ N τ N+1. Zauważmy, że Stąd λ=1 N=1 A τn,λ {ψ T : ψ S jest jednostajnie ciągły}. (3.11) µ ({ψ T : ψ S jest jednostajnie ciągły}) lim λ lim µ(a τ N N,λ). Zdefiniujmy łamaną interpolującą ψ N w punktach zbioru τ N o wartości dowolnej funkcji ψ, czyli ψ N (t) = (t i+1,n t)ψ(t i,n ) (t t i,n )ψ(t i+1,n ) t i+1,n t i,n, t i,n t t i+1,n. Niech s < t dowolne. Wówczas t i,n t t i+1,n oraz t j,n s t j+1,n. Wtedy korzystając z założenia (3.1) możemy wykonać następujące szacowanie ψ N (t) ψ N (s) r µ(dψ) 3 r 1 C t s 1+α. zeczywiście korzystając w z nierówności Jensena; dla a, b, c > mamy (a + b + c) r 3 r 1 (a r + b r + c r ), 16

17 gdyż r > 1 oraz z nierówności a r + b r + c r (a + b + c) r rozważamy trzy przypadki. Pierwszy t i,n s < t t i+1,n. Proste rachunki w tym przypadku pokazują, że ψ N (t) ψ N (s) r µ(dψ) C t s 1+α. Drugi t i,n s t i+1,n t t i+2,n sprowadzamy do poprzedniego gdyż ψ N (t) ψ N (s) r µ(dψ) 2 r 1 ( ψ N (t i+1,n ) ψ N (s) r + ψ N (t) ψ N (t i+1,n ) r )µ(dψ) C2 r 1 ( t i+1,n s r + t t i+1,n r ) C2 r 1 t s r Trzeci sprowadzamy również do pierwszego. Korzystając z wniosku 3.2 dla ψ N otrzymujemy ψ(t) ψ(s) µ({ψ : sup 8γ t,s τ t s β γ 2 (4λ)1/r }) 3 r 1 CA/λ. Wykorzystując teraz (3.11) wnioskujemy, że µ (C(T )) = 1. Twierdzenie Kołmogorowa 3.4 Załóżmy, że dana jest rodzina zgodna µ K, K T = [, 1]. Jeśli istnieją α >, r 1+α, C > takie, że dla dowolnego S = {s, t}, s < t y x r µ S (dx dy) C t s 1+α, to istnieje dokładnie jedna miara probabilistyczna na (C(T ), B C(T ) ). Dowód. Wystarczy zauważyć, że dla s < t i S = {s, t} mamy C(T ) π t (ψ) π s (ψ) r µ(dψ) = y x r µ S (dx dy). Następnie trzeba wykorzystać zadanie 1.21, Lemat 1.19 i 1.2 twierdzenie o istnieniu miary oraz wszystkie twierdzenia z tego rozdziału. 17

18 4 Nierówności Dooba dla podmartyngałów Zanim przejdziemy do definicji i własności martyngałów potrzebować będziemy następujących twierdzeń. Twierdzenie 4.1 Niech (E, E, ν) przestrzeń mierzalna. Wówczas dla p > i każdej funkcji nieujemnej f L p (ν) (4.1) E f p (x)ν(dx) = p λ p 1 ν(x : f(x) λ)dλ. Dowód. Wzór otrzymujemy stosując twierdzenie Fubiniego: E f p (x)ν(dx) = = p λ p 1 I {λ f(x)} dλ ν(dx) = p E co kończy dowód. E f(x) (p λ p 1 dλ)ν(dx) λ p 1 ν(x : f(x) λ)dλ Twierdzenie 4.2 Niech X, Y nieujemne zmienne losowe określone na przestrzeni probabilistycznej (Ω, F, P ) i takie, że EY < oraz dla każdego λ > (4.2) P (X λ) 1 λ X λ Y dp. Jeśli ponadto dla pewnego r > 1 Y L r (P ), to X L r (P ) oraz (4.3) (EX r ) 1/r r r 1 (EY r ) 1/r. Dowód. Z wzoru (4.1) oraz (4.2) EX r = r λ r 1 P (X λ)dλ r λ r 1 1 Y dp dλ. λ X λ Oznaczmy przez P nową miarę dp = Y dp (niekoniecznie probabilistyczną). Wówczas ostatni wzór możemy zapisać w postaci EX r r λ r 2 P (X λ)dλ. 18

19 Korzystając znowu z (4.1) otrzymujemy EX r r λ r 2 P (X λ)dλ = r X r 1 dp r 1 Ω = r X r 1 Y dp. r 1 Ω Korzystając z nierówności Höldera dla p = r/(r 1) i p = r otrzymujemy EX r r r 1 (EY r ) 1/r (EX r ) (r 1)/r. Dzieląc stronami (EX r ) 1/r r r 1 (EY r ) 1/r. Definicja 4.3 Niech T = [, 1] lub T = [, ). Niech (Ω, F, P ) będzie przestrzenią probabilistyczną. Filtracją nazywamy rodzinę σ-ciał F t, t T takich, że dla każdego t T F t F. Ponadto dla s < t, F s F t. Będziemy również zakąldać, że F zawiera wszystkie zbiory miary zero tzn. miara P jest zupełna. Proces stochastyczny X t jest adaptowany jeśli dla każdego t T, X t F t. Definicja 4.4 Proces stochastyczny X t, t T adaptowany do filtracji F t nazywamy martyngałem (podmartyngałem) {nadmartyngałem} jeśli dla każdego t T, E X t < oraz dla każdego s < t P prawie wszędzie. E[X t F s ] = ( ){ }X s Przypominamy, że istnienie warunkowej wartości oczekiwanej E[X t F s ] wynika z twierdzenia adona-nikodyma i oznacza że jeśli istnieje f F s i dla każdego zbioru A F s X t dp = fdp, A to E[X t F s ] = f P prawie wszędzie. ozpoczniemy od pokazania nierówności Dooba dla podmartyngałów. Twierdzenie 4.5 Jeśli proces X t jest podmartyngałem o prawostronnie ciągłych trajektoriach, to dla dowolych λ > i s > (4.4) P ({ sup X t λ}) 1 X s dp. t s λ {sup t s X t λ} 19 A

20 W szczególności jeśli X t jest nieujemny, to (4.5) P ({ sup X t λ}) 1 t s λ EX s. oraz dla r > 1 (4.6) ( ) 1/r E( sup X t ) r t s r r 1 (EXr s ) 1/r. Nierówność oznacza, że jesłi prawa strona jest nieskończona to również nieskończona jest lewa strona Dowód (4.5) wynika natychmiast z (4.4) zaś (4.6) wynika bezpośrednio z (4.4) i twierdzenia 4.2 przyjmując X = sup t s X t zaś Y = X s. Ponieważ trajektorie są prawostronnie ciągłe, to aby udowodnić (4.4) wystarczy pokazać, że dla dowolnego n oraz S n = { = t < < t n = s}: (4.7) P ({ sup X tk λ}) 1 X s dp. k n λ {sup k n X tk λ} Najpierw pokażemy, że z (4.7) wynika (4.4). W tym celu zauważmy, że jeśli s S, gdzie S jest przeliczalny i gęsty w [, s], to ponieważ trajektorie są prawostronnie ciągłe, to {sup X t λ} = { sup X t λ}. t S t s Teraz wystarczy zauważyć, że przy odpowiednim wyborze S n oraz n {sup X t λ} {sup X t λ} t S n co pamiętając o ciągłości miary prowadzi do pełnego uzasadnienia implikacji z (4.7) do (4.4). Wrócimy teraz do dowodu (4.7). Definiujemy ciąg zbiorów: A = {X t λ} oraz dla 1 k n A k = {X tk λ Oczywiście A i A j =, dla i j; oraz A k F tk t S { sup X tk λ} = k n max X t i < λ}. i k 1 n A k k=1 dla k =,..., n. Wówczas z nierówności Czebyszewa P ({ sup X tk λ}) = k n n k= P (A k ) 1 λ 2 n k= A k X tk dp.

21 Ponieważ X t jest podmartyngałem z definicji wynika, że X tk E[X s F tk ] zatem X tk dp E[X s F tk ]dp = X s dp. A k A k A k Stąd 1 λ n k= Co kończy dowód. A k X tk dp 1 λ n k= A k X s dp 1 λ {sup k n X tk λ} X s dp. 21

22 5 Procesy Markowa i miara Wienera Kilka uwag jest na miejscu. W poprzednich rozdziałach przyjmowaliśmy najczęściej, że T = [, 1]. Okazuje się, że możemy udowodnić analogiczne twierdzenia przyjmując za T = [, ). Zatem będziemy powoływać się na poprzednie twierdzenia przyjmując, że T = [, 1] albo T = [, ). W poniższej definicji funkcji prawdopodobieństw przejść s, t interpretujemy jako czas. Zatem zbiór T może oznaczać również zbiór liczb całkowitych lub naturalnych. Funkcje prawdopodobieństw przejść to rodziny miar µ s,t (x, Γ). Interpretacja tej funkcji jest następująca znając pozycje punktu x S w chwili s, µ s,t (x, Γ) jest prawdopodobieństwem, że w chwili t znajdzie się punkt x w zbiorze Γ S. S oznacza zbiór stanów. Ponieważ głównie interesują nas ewolucje na prostej od razu przyjeliśmy S =. Definicja 5.1 Funkcja prawdopodobieństwa przejść oznaczona przez µ s,t (x, Γ) lub P (s, x, t, Γ) jest określona dla s, t T s < t, x zaś zbiór Γ B i spełnia następujące warunki 1. dla ustalonych s, t, x funkcja zbiorów µ s,t (x, ) jest miarą probabilistyczną określoną na B. 2. dla ustalonych s, t, Γ funkcja µ s,t (, Γ) jest B /B mierzalna 3. (równania Chapmana-Kołmogorowa-Smoluchowskiego) jeśli s < t < u i Γ B, to (5.1) µ s,u (x, Γ) = µ t,u (y, Γ)µ s,t (x, dy). Dla s = t przyjmuje się, że µ s,s (x, ) = δ x ( ). Zauważmy, że założenie 2 jest potrzebne przy definicji (5.1) gdyż wówczas całka jest poprawnie określona. Zauważmy, że rodzina miar µ s,t (x, ) generuje nam równoważną rodzinę operatorów: P s,t (f)(x) = f(y)µ s,t (x, dy). Oczywiście operatory są liniowe i dobrze określone dla funkcji ograniczonych B. Jeśli w tej przestrzeni wprowadzimy normę supremum to operatory te są kontrakcjami, czyli f = sup f(x), x P s,t (f) f. 22

23 Ponadto P s,t (1) = 1, P s,s = I oraz z warunku (5.1) otrzymujemy warunek składania operatorów P s,u = P s,t P t,u. Pokażemy teraz sens probabilistyczny rodziny µ s,t (x, ). W przestrzeni mierzalnej ( T, (B ) T wprowadzamy filtrację. Przez B t oznaczać będziemy σ- ciało w T generowane przez jednowymiarowe zbiory cylindryczne πs 1 (A) dla s t co można zapisać jako B t = σ[π u : u t]. Zauważmy, że jeśli s < t, to B s B t oraz B t (B ) T zatem tworzą filtrację. Zauważmy, że ta filtracja generuje filtrację dla U = C(T ), gdzie B U,t = B t U. Niech (Ω, F, P ). Prawdopodobieństwo warunkowe definiujemy wzorem P [A G] = E[I A G], gdzie G F to ustalone σ-ciało. Funkcja I A jest funkcją charakterystyczną zbioru A. W dalszym ciągu będziemy używać oznaczeć z rozdziału 1 (por. wzór (1.1)). I tak miary brzegowe odpowiadające mierze µ będziemy oznaczać przez µ J lub µ t1,...,t n, gdzie J = {t 1 <..., t n }. Definicja 5.2 Niech µ s,t (x, Γ) = P (s, x, t, Γ) będzie funkcją prawdopodobieństwa przejść i ν niech będzie miarą probabilistyczną na (, B ). Miara probabilistyczna µ na ( T, (B ) T ) jest nazywana procesem Markowa z funkcją przejść µ s,t (x, Γ) i rozkładem początkowym ν jeśli (5.2) µ({ψ T : ψ() Γ}) = µ (Γ) = ν(γ) oraz dla wszystkich s < t i Γ B (5.3) µ[{ψ T : ψ(t) Γ} B s ](φ) = µ s,t (φ(s), Γ), gdzie φ T i równość zachodzi w T µ prawie wszędzie. W świetle definicji 5.2 rodzina miar µ s,t określa prawdopodobieństwa warunkowe (wzór 5.3). Aby uzyskać wiedzę o samym rozkładzie µ zauważmy, że ponieważ EP [A G] = P (A), to dla s < t (µ s oznacza miarę brzegową (1.1) zaś ( T, (B ) T, µ) przestrzeń probabilistyczną) (5.4) µ({ψ(t) Γ}) = P (s, ψ(s), t, Γ)dµ(ψ) T (5.5) = P (s, π s (ψ), t, Γ)dµ(ψ) = T 23 P (s, x, t, Γ)µ s (dx).

24 Ponieważ s jest dowolne niech s =. Wówczas µ({ψ(t) Γ}) = P (, x, t, Γ)µ (dx) = P (, x, t, Γ)dν(x). Pełny związek określa twierdzenie 5.3. Twierdzenie 5.3 Niech P (s, x, t, Γ) będzie funkcją prawdopodobieństwa przejść i ν niech będzie miarą probabilistyczną na (, B ). Definiujemy rodzinę miar na ( n, B n ) (5.6) P (Γ) = ν(γ), Γ B (5.7) P t (Γ) = i dla J = { t 1 < < t n+1 } (5.8) P t1,...,t n+1 ( ) = P (, x, t, Γ)P (dx) P (t n, y n, t n+1, dy n+1 )P t1,...,t n (dy 1... dy n ), gdzie (B ) n+1. Wówczas rodzina miar probabilistycznych P J = P t1,...,t n+1 jest zgodna. Ponadto miara µ określona na ( T, (B ) T ) przez tą rodzinę jest procesem Markowa z funkcją prawdopodobieństwa przejść P (s, x, t, Γ) oraz rozkładem początkowym ν wtedy i tylko wtedy gdy rozkłady skończenie wymiarowe µ J, J T miary µ określonej na ( T, (B ) T ) są równe P J. Uwagi. Wzór (5.8) najlepiej rozpisać dla zbiorów produktowych tzn. = n Γ, n (B ) n zaś Γ B. Wówczas (5.9) P t1,...,t n+1 ( ) = P (t n, y n, t n+1, Γ)P t1,...,t n (dy 1... dy n ). n Zauważmy, że jeśli Γ =, to ponieważ P (t n, y n, t n+1, ) = 1 zatem (5.1) P t1,...,t n+1 ( ) = P t1,...,t n ( n ). Z powyższych rozważań oraz własności funkcji prawdopodobieństwa przejść (5.1) wynika, że dla s < t (5.11) P t (Γ) = P (s, x, t, Γ)P s (dx). Dowód.Dowód zgodności ograniczymy do rodziny dwuelementowej S = {t 1 < t 2 }. Z (5.1) widzimy, jeśli = Γ 1, to P t1,t 2 (Γ 1 ) = P t1 (Γ 1 ). 24

25 Pozostało wykazanie, że P t1,t 2 ( Γ 2 ) = P t2 (Γ 2 ). Zobaczmy, że z (5.7) i (5.9) wynika, że P t1,t 2 (Γ 1 Γ 2 ) = P (t 1, y 1, t 2, Γ 2 )P t1 (dy 1 ) Γ 1 = P (t 1, y 1, t 2, Γ 2 ) P (, x, t 1, dy 1 )ν(dx) Γ 1 = ( P (t 1, y 1, t 2, Γ 2 )P (, x, t 1, dy 1 ))ν(dx). Γ 1 Jeśli teraz Γ 1 =, to P t1,t 2 ( Γ 2 ) = ( P (t 1, y 1, t 2, Γ 2 )P (, x, t 1, dy 1 ))ν(dx), Zatem z (5.1) otrzymujemy P t1,t 2 ( Γ 2 ) = P (, x, t 2, Γ 2 ))ν(dx) = P t2 (Γ 2 ). Analogicznie postępujemy dla dowolnego skończonego ciągu S. Przejdziemy teraz do dowodu równoważności. = Zakładamy, że Z definicji miary µ J = P J. µ({ψ T : π (ψ) Γ}) = µ (Γ) = P (Γ) = ν(γ), zatem zachodzi (5.2). By udowodnić (5.3) rozważymy dwa przypadki. Pierwszy s =. Z definicji miar brzegowych dla miary µ µ({ψ T : π (ψ), π t (ψ) Γ}) = µ,t ( Γ) = P,t ( Γ). Dalej z definicji (5.8) [(5.9)] (5.12) = P,t ( Γ) = = {π (ψ) } P (, y, t, Γ)P (dy). P (, y, t, Γ)µ (dy) P (, π (ψ), t, Γ)µ(dψ). 25

26 Z drugiej strony z definicji warunkowej wartości oczekiwanej µ({ψ T : ψ(t) Γ} B ) = E µ [I {ψ(t) Γ} B ] dla każdego B = {ψ T : π (ψ) } B, czyli dla dowolnego B I {ψ(t) Γ} µ(dψ) = E µ [I {ψ(t) Γ} B ]µ(dψ). B Lewa strona tej równości jest równa I ψ(t) Γ µ(dψ) = µ({ψ T : π (ψ), π t (ψ) Γ}). B B Wystarczy to równanie porównać z (5.12) oraz zauważyć, że funkcja P (, π ( ), t, Γ) jest B /B mierzalna. Stąd otrzymujemy, że dla φ T µ prawie wszędzie E µ [I {ψ(t) Γ} B ](φ) = P (, π (φ), t, Γ). Niech teraz s < t i Γ B. Załóżmy że dany jest ciąg u 1 < < u n = s oraz zbiory Γ 1,..., Γ n B. Wówczas podobnie jak wyżej korzystając z miar brzegowych dla miary µ następnie z definicji (5.8)[(5.9)] i traktując (π u1 (ψ),..., π un (ψ)) jak wektor losowy na przestrzeni probabilistycznej ( T, (B ) T, µ) otrzymujemy (s = u n ) µ({ψ T : ψ(u 1 ) Γ 1,..., ψ(u n ) Γ n, ψ(t) Γ}) = P u1,...,u n,t(γ 1 Γ n Γ) = P (s, y n, t, Γ)P u1,...,u n (dy 1 dy n ) Γ 1 Γ n = P (s, π s (ψ), t, Γ)µ(dψ). {π u1 (ψ),...,π un (ψ) Γ n} Stosując twierdzenie 1.14 dla rodziny zbiorów G postaci {ψ T : ψ(u 1 ) Γ 1,..., ψ(u n ) Γ n } otrzymujemy (5.3) (wzór pierwszy i ostatni definiuje nam miarę). = Teraz zakładamy, że dany jest proces Markowa zgodnie z definicją 5.2. Oznaczmy rozkłady brzegowe przez µ t1,...,t n. Oczywiście (5.2) implikuje, że µ = P. Z powyższych rachunków wynika również, że µ t (Γ) = µ(ψ(t) Γ) = P (, ψ(), t, Γ)µ(dψ) T = P (, ψ(), t, Γ)µ (dy) = P (, ψ(), t, Γ)P (dy) = P t (Γ). 26

27 Dalej podobnie przez indukcję pokazujemy, że µ t1,...,t n,t n+1 (Γ 1 Γ n+1 ) = P t1,...,t n,t n+1 (Γ 1 Γ n+1 ). Korzystając z twierdzenia 1.14 otrzymujemy równość rozkładów brzegowych. Z tego twierdzenia wynika, że na przestrzeni probabilistycznej (Ω, F, P ), gdzie Ω = T, F = (B ) T, P = µ istnieje proces tzw. kanoniczny proces Markowa ξ t = π t 1. adaptowany do filtracji F t = B t, czyli ξ t F t (ξ t jest F t mierzalny) 2. istnieje rozkład początkowy ν taki, że P (ξ Γ) = ν(γ), Γ B 3. dla wszystkich s < t oraz Γ B rozkład warunkowy ξ t Γ względem filtracji F s zależy tylko od ostatniego pobytu procesu ξ w chwili s, czyli P (ξ t Γ F s )(ω) = P (s, ξ s (ω), t, Γ) P prawie wszędzie. Dzieki temu możemy wprowadzić ogólną definicję. Definicja 5.4 Niech (Ω, F, P ) przestrzeń probabilistyczna z filtracją F t. Niech P (s, x, t, Γ) będzie funkcją prawdopodobieństwa przejść i ν niech będzie miarą probabilistyczną na (, B ). Proces stochastyczny ξ t jest procesem Markowa jeśli są spełnione warunki 1,2,3. Poniższe twierdzenie sformułujemy dla prostoty dla T = [, 1]. Twierdzenie 5.5 Niech P (s, x, t, Γ) będzie funkcją prawdopodobieństwa przejść i ν niech będzie miarą probabilistyczną na (, B ). Ponadto załóżmy, że istnieją α >, r 1 + α oraz C > takie, że dla dowolnych t 1 < t 2 1 (5.13) sup y y 1 r P (t 1, y 1, t 2, dy) C t 1 t 2 1+α. y 1 Wówczas istnieje dokładnie jedna miara probabilistyczna µ na (U = C(T ), B U ). Mówimy, wówczas że (π t, B U,t, µ) jest ciągłym procesem Markowa z funkcją prawdopodobieństwa przejść P (s, x, t, Γ) i i rozkładem początkowym ν. Ponadto dla każdego x i s T istnieje dokładnie jedna miara probabilistyczna P s,x na (U = C(T ), B U ) taka, że (5.14) P s,x ({ψ U : π t (ψ) = x dla wszystkich t s}) = 1 27

28 oraz P s,x prawie wszędzie (5.15) P s,x (ψ U : π t2 (ψ) Γ B U,t1 )(φ. ) = P (t 1, φ(t 1 ), t 2, Γ) dla dowolnych s t 1 t 2 i Γ B. Dowód. Z twierdzenia 5.3 istnieje miara µ taka, że jest ona procesem Markowa wg definicji 5.2. Zauważmy, że dla rozkładu P J, gdzie J = {t 1 < t 2 } określonego wzorem (5.8), czyli P t1,t 2 (Γ 1 Γ 2 ) = P (t 1, y 1, t 2, Γ 2 )P t1 (dy 1 ) Γ 1 i stosując założenie (5.13) otrzymamy, że µ J = P J spełnia załóżenia twierdzenia 3.4 gdyż y 1 y 2 r µ J (dy 1 dy 2 ) y 1 ( sup y 1 y 2 r P (t 1, y 1, t 2, dy 2 )P t1 (dy 1 ) ) y 1 y 2 r P (t 1, y 1, t 2, dy 2 ) P t1 (dy 1 ) C t 2 t 1 1+α P t1 (dy 1 ) = C t 2 t 1 1+α. Zatem µ zawężona do C(T ) jest ciągłym procesem Markowa. Aby skonsruować rodzinę miar indeksowaną s, x definiujemy nowe rodziny prawdopodobieństw przejść δ y (Γ) t 1 < t 2 s, P (t 1, y, t 2, Γ) = P (s, y, t 2, Γ) t 1 s < t 2, P (t 1, y, t 2, Γ) s < t 1 < t 2. Wówczas całe rozumowanie można powtórzyć dla P (t 1, y, t 2, Γ) z tym, że rozkładem początkowym jest ν = δ x. Miarę odpowiadającą P oraz δ x oznaczamy przez P s,x. Definicja 5.6 Jeśli P (s, x, t, Γ) = P (s + h, x, t + h, Γ) to proces Markowa nazywamy jednorodny względem czasu. Jeśli µ s,t (x, Γ) = µ s,t (, Γ x), to proces Markowa nazywamy jednorodny względem przestrzeni. Będziemy potrzebować następującego twierdzenia, którego dowód odłożymy na później. 28

29 Twierdzenie 5.7 Niech (Ω, F, P ) przestrzeń probabilistyczna. Niech G F pod-σ ciało. Niech ξ, η dwie zmienne losowe, takie, że η G (η jest G mierzalna). Załóżmy, że istnieje warunkowa wartość oczekiwana E[f(ξ, η) G]. Wówczas dla ustalonego u funkcja jest dobrze określona i ponadto, F (u) = E[f(ξ, u) G] E[f(ξ, η) G] = F (η(ω)). Twierdzenie 5.8 odzina prawdopodobieństw przejść jednorodna względem przestrzeni generuje proces Markowa o przyrostach niezależnych, tzn. X t X s jest niezależne od F s dla s < t. Zachodzi również twierdzenie odwrotne. Dowód. Niech X t będzie procesem Markowa odpowiadającym rodzinie prawdopodobieńst przejść, przy dowolnej ustalonej mierze początkowej ν. Zobaczmy, że dla dowolnego zbioru B B F (u) = P [{X t u B} F s ] = E[I {Xt u B} F s ] = µ s,t (X s, B + u). Korzystając teraz z twierdzenia 5.7 otrzymamy Z założenia P [{X t X s B} F s ] = µ s,t (X s, B + X s ). P [{X t X s B} F s ] = µ s,t (, B), czyli jest funkcją stałą. Zatem dla dowolnego B zbiór {X t X s B} jest niezależny od F s. Szczególną rodziną prawdopodobieństw przejść jest rodzina P (s, x, t, Γ) = g(t s, y x)dy, gdzie g(a, x) = Γ 1 (2πa) 1/2 e x2 /(2a). Zauważmy, że g(a, ) jest gęstością rozkładu normalnego N(, a). Generuje ona proces Markowa jednorodny względem czasu i przestrzeni. 29

30 Zadanie 5.8 Pokazać, że powyższa rodzina spełnia warunek (5.13) z α = 1, r = 4, C = 3 = EU 4, gdzie U N(, 1). W ten sposób otrzymujemy miarę i rodzinę miar Wienera W s,x. Odpowiadający jej proces jest procesem Wienera. Dlaczego mówimy zazwyczaj o jednej mierze W = W,? Wyjaśnia to następne zadanie Zadanie 5.9 Definiujemy operator T s,x : C(T ) C(T ) dany wzorem T s,x (ψ)(t) = ψ((t s) + ) + x. Wówczas W s,x = W T 1 s,x. Zadanie 5.1 Pokazać, że dla µ = W, ϑ, t E µ [e iϑπt( ) ] = e tϑ2 /2. Proces π t na przestrzeni probabilistycznej (U = C(T ), U (B ) T, µ = W) nazywamy kanonicznym procesem Wienera. Zauważmy, że funkcja losowa π. : U U T jest odwzorowaniem identycznościowym. Zatem rozkład π. jest równy µ. Zdefiniujmy proces ξ t = π t + vw, gdzie w(t) = t dla t T. ozkład funkcji losowej ξ. oznaczmy przez µ ξ. Podamy teraz uproszczoną wersję twierdzenie Camerona-Martina. Twierdzenie Camerona-Martina 5.11 Przy powyższych oznaczeniach miary µ i µ ξ są równoważne. Pochodna adona-nikodyma jest równa dµ ξ dµ = e v2 T/2+vπ T. Dowód. Zdefiniujemy miarę na U wzorem ν(a) = e v2 T/2+vπ T (ψ) µ(dψ). A Korzystając z twierdzenia 1.14 wystarczy udowodnić, że dla każdego zbioru cylindrycznego ν(a) = µ ξ (A). 3

31 Dla prostoty pokażemy równość dla jednowymiarowych zbiorów cylindrycznych postaci A = {ψ : ψ(t) (, a)}. Wówczas (5.16) µ ξ (A) = µ({ψ : ψ(t) (, a vt)}) = a vt g(t, x)dx. Z drugiej strony Z definicji = ν(a) = a A e v2 T/2+vπ T (ψ) µ(dψ) e v2 T/2+vx 2 P t,t (dx 1 dx 2 ). P t,t (dx 1 dx 2 ) = P (t, x 1, T, dx 2 )P t (dx 1 ) = P (t, x 1, T, dx 2 )P (,, t, dx 1 ) Zatem ν(a) = dx 2 a = g(t t, x 2 x 1 )dx 2 g(t, x 1 )dx 1. dx 1 e v2 (T t)/2+v(x 2 x 1 ) e v2 t/2+vx 1 g(t t, x 2 x 1 )g(t, x 1 ). a e v2 (T t)/2+vu g(t t, u)du e v2 t/2+vx 1 g(t, x 1 )dx 1. Dla standardowej zmiennej gausowskiej N, wiemy, że Ee λn jeśli X N(, T t), to Zatem Ee λx = Ee λ T t T t = e λ 2 (T t)/2. ν(a) = X 1 a (2πt) 1/2 e (x vt)2 2t dx. Porównując z (5.16) otrzymujemy tezę. Zazwyczaj podaje się następującą definicję procesu Wienera = e λ2 /2. Stąd Definicja 5.12 Proces Wienera startujący z zera nazywamy proces Markowa taki, że W t, t < mający następujące własności: 1. W = 2. Dla dowolnych s < t zmienna losowe W s W t jest niezależne od filtracji F s 3. dla każdego s < t zmienna losowa W t W s ma rozkład normalny o średniej zero i wariancji t s, czyli N(, t s) 31

32 Z twierdzenie Camerona-Martina otrzymamy następującą wersję twierdzenia Girsanowa Wniosek 5.13 Niech W t jest procesem Wienera określonym na (Ω, F, P ) dla t T. Wówczas proces W t = W t vt jest procesem Wienera startującym z zera dla miary probabilistycznej Q równoważnej mierze P takiej, że dq = dp e v2 T/2+vW T. Ponadto z poprzednich twierdzeń wynika, że trajektorie są ciągłe prawie wszędzie. Z wniosku 3.2 możemy wywnioskować, jaka jest klasa gładkości trajektorii (trajektorie są Hölderowskie z odpowiedniem współczynnikiem). 32

33 6 Czasy stopu i procesy prawostronnie ciągłe W dalszym ciągu przez T będzie oznaczać zbiór [, ) choć twierdzenia są prawdziwe też dla T = [, 1] i niektóre dla T = N. Dana jest przestrzeń probabilistyczna (Ω, F, P ) i filtracja {F t } t T. Ponieważ przeliczalny przekrój σ-ciał jest σ-ciałem wprowadzamy oznaczenie F t+ = u>t F u. Formalnie przekrój nie jest przeliczalny ale jak łatwo pokazać, jeśli {u j } jest dowolnym ciągiem malejącym do t, czyli u j t, to F t+ = j F uj. Zauważmy, że F t+ tworzy filtrację prawostronnie ciągłą, którą to będziemy oznaczać przez F +. Dlatego będziemy również stosować oznaczenie F + t = F t+. Definicja 6.1 Filtracja jest prawostronnie ciągła jeśli dla każdego t T F t+ = F t. Proste konsekwencje takiej definicji wyjaśnia twierdzenie 6.3 Definicja 6.2 Zmienna losowa τ : Ω [, ] jest F-czasem stopu jeśli dla każdego t T {ω : τ(ω) t} = {τ t} F t. Jeśli zbiór indeksów T jest zbiorem liczb naturalnych, to czasem stopu nazywamy odwzorowanie mierzalne τ : Ω N { }. W ogólności τ : Ω T {sup T }. Jeśli wiemy o jaką filtrację nam chodzi będziemy mówić o czasach stopu. Ponadto, czas stopu jest ograniczony jeśli P ({τ = }) =. Twierdzenie 6.3 Załóżmy, że filtracja F t jest prawostronnie ciągła. Wówczas τ jest czasem stopu wtedy i tylko wtedy gdy dla każdego t T {τ < t} F t. 33

34 Dowód. = Niech u j ciąg liczb malejących do t, u j t. Wówczas {τ t} = j {τ < u j }, {τ < u j } F uj. Stąd {τ t} F t+ = F t. = Zauważmy, że {τ < t} = j {τ t ɛ j } F t ɛj F t. W dalszym ciągu dla prostoty będziemy rozpatrywać procesy określone w Ξ =. To co jest istotne, to określenie takiej struktury aby można było mówić o ciągłości trajektorii, tzn. aby odwzorowanie(funkcja) X ( ω) : T Ξ była ciągła lub prawostronnie (lewostronnie) ciągła. Twierdzenie 6.4 Jeśli proces X t adaptowany do filtracji F t ma prawostronnie (lewostronnie) ciągłe trajektorie, to proces zawężony X : [, t] Ω dla każdego t jest B [,t] F t mierzalny, czyli jest progresywnie mierzalny Dowód. Zauważmy, ze dla funkcji prawostronnie ciągłej f możemy skonstruować ciąg funkcji {f n } prostych lewostronnie ciągłych ( ) [nu] + 1 f n (u) := f, n który jest zbieżny punktowo dla każdego u T, gdzie [u] = k 1 o ile k 1 < u k. Ustalmy x oraz ɛ >. Poniewż f jest prawostronnie ciągła w x istnieje δ > taka, że dla dowolnego x < y < x + δ, f(x) f(y) < ɛ. Niech n, k będzie takie, że (k 1)/n < x k/n oraz 1/n < δ. Wówczas f(x) f n (x) f(x) f(k/n) + f n (x) f n (k/n) + f(k/n) f n (k/n) Zauważmy, że f n (x) = f n (k/n), f(k/n) = f n (k/n) zatem z prawostronnej ciąglości f(x) f n (x) < ɛ. Dla ustalonego t definiujemy teraz ciąg procesów ( ) [nu] + 1 X n (u, ω) = X t, ω. n 34

35 Z tego co powiedzieliśmy wynika, że X n punktowo zbiega do X w zbiorze [, t] Ω. Ponadto X n B [,t] F t, gdyż na każdym z odcinków (k 1)/n < u k/n X n zależny tylko od ω, X n (u, ω) = X ( ) k n t, ω F k. n Dla ustalonego czasu stopu τ zdefiniujmy rodzinę zbiorów. F τ = {A F : A {τ t} F t, t }. Zadanie 6.5 Sprawdzić, że F τ τ F τ. jest σ-ciałem. Jeśli τ jest czasem stopu, to Odczytajmy tylko z definicji co oznacza, że Y F τ. Z definicji wynika, że jest to równoważne iż obcięcia Y {τ t} są F t mierzalne dla każdego t. Twierdzenie 6.6 Jeśli proces X t jest progresywnie mierzalny, to zmienna losowa X τ F τ na zbiorze τ <. Uwagi Zmienną losową X τ(ω) (ω) interpretuje się jako zatrzymanie procesu w chwili τ. Dowód. Ustalmy t. Zdefiniujmy funkcję wzorem f t : ({τ t}, {τ t} F t ) ([, t] Ω, B [,t] F t ) f t (ω) = (τ(ω) t, ω) = (τ(ω), ω). Funkcja f t jest mierzalna. Zatem ponieważ X jest progresywnie mierzalna, rozważając X obcięte do [, t] Ω otrzymujemy mierzalność X f t = X(τ(ω) t, ω), czyli mierzalność X na zbiorze τ t co kończy dowód. Twierdzenie 6.7 Jeśli σ, τ są czasami stopu, to σ τ, σ τ są czasami stopu. Przy założeniu, że filtracja jest prawostronnie ciągła σ + τ jest czasem stopu. Ponadto (6.1) F σ {σ τ} F σ τ = F τ F σ 35

36 dla dowolnego t T (6.2) F τ = F t, na {τ = t}. Dowód. Niech A F σ i t T. Zauważmy, że A {σ τ} {τ t} = (A {σ t}) {τ t} {σ t τ t}. Stąd dla t T A {σ τ} {τ t} F t, bo funkcje σ t oraz τ t są F t mierzalne (np. t s, to {τ t s} = Ω. Jeśli przeciwnie t s, to {τ t s} = {τ s} F s.) Zatem A {σ τ} F τ Pierwsze zawieranie (6.1) otrzymamy wstawiając w powyższe wzory za parę (σ; τ) parę (σ; σ τ), gdyż {σ σ τ} = {σ τ}. Wstawiając w powyższe wzory za parę (σ; τ) pary (σ τ; σ) i (σ τ; τ) otrzymujemy, że F σ τ F σ F τ. W drugą stronę. Jeśli A F σ F τ i t T, to A {σ τ t} = (A {σ t}) (A {τ t}) F t, czyli A F σ τ. Przejdziemy teraz do dowodu (6.2). Niech τ t. Pokażemy, że F τ = F t. Zauważmy, że F τ = F τ {τ t} F t. W drugą stronę. Jeśli A F t, to dla s < t Zaś jeśli s t, to A {τ = t s} = F s. A {τ = t s} = A F t F s, czyli A F τ. W ogólnym przypadku z (6.1) wynika, że zmieniając znaczeniami analogicznie F σ {τ = σ} F τ F σ {τ = σ}. F τ {τ = σ} F τ F σ {τ = σ}. 36

37 Stąd F τ = F σ na {τ = σ}. Korzystając z dowodu (6.2) dla σ t otrzymujemy tezę. Definicja 6.8 Zmienna losowa τ : Ω [, ] jest słabym F- czasem stopu jeśli dla każdego t T {τ < t} F t. Twierdzenie 6.9 Zmienna losowa τ jest słabym F-czasem stopu wtedy i tylko wtedy gdy jest F + -czasem stopu. Ponadto (6.3) F + τ = {A F : A {τ < t} F t, t T }. Dowód. Zauważmy, że dla dowolnego t. (6.4) {τ t} = {τ < r} {τ < t} = {τ r}. r>t,r Q r<t,r Q Jeśli dla każdego t T A {τ t} F + t, to z (6.4) dla t > A {τ < t} = r<t,r Q A {τ r} F r+ F t. Jeśli A = Ω, to powyższa zależność dowodzi implikacji równoważności =. Jeśli dla każdego t T A {τ < t} F t, to z (6.4) dla t > oraz h > A {τ t} = r (t,t+h),r Q A {τ < r} F t+h. Zatem A {τ t} F t+, co dowodzi implikacji w drugą stronę, gdy A = Ω. Ponadto z obu wnioskowań otrzymujemy F + τ = {A F : A {τ < t} F t, t T }. 37

38 Zauważmy, że jeśli τ jest słabym czasem stopu, to dla każdego h > τ +h jest czasem stopu. Sprawdzenie, t T {τ + h t} = {τ t h} F (t h)+ F t. Zatem możemy zadefiniować σ ciało (ze wzoru (6.1) F τ+h1 h 1 < h 2.) F τ+ = F τ+h. h> F τ+h2, gdy Prawdziwe jest wówczas równość którą zostawimy bez dowodu. F τ+ = F + τ, Lemat 6.1 Dany jest ciąg F-czasów stopu {τ n } n 1. Wówczas σ = sup n τ n jest F-czasem stopu. Jeśli dany jest ciąg słabych F-czasów stopu {τ n } n 1, to τ = inf n τ n jest słabym F czasem stopu. Dowód. Teza wynika z równości {σ t} = n {τ n t} oraz {τ < t} = n {τ n < t}. Lemat 6.11 Dla dowolnego słabego F czasu stopu τ istnieje ciąg malejących F czasów stopu zbieżny do τ o wartościach w zbiorze przeliczalnym. Dowód. Definiujemy rządany ciąg wzorem τ n = 2 n [2 n τ + 1], gdzie [x] = k 1 o ile k 1 x < k. Zauważmy, że τ n przyjmuje wartości w zbiorze 2 n Z. Zatem wystarczy sprawdzić, że co wynika z następujących równości {τ k/2 n } F k/2 n, {τ k/2 n } = {[2 n τ + 1] k} 38

39 = {2 n τ + 1 < k + 1} = {τ < k/2 n } F k/2 n. W zastosowaniach ważną klasę czasów stopu stanowi klasa pierwszego wejścia do zbioru B przez proces X t w chwili t > (hitting time) τ B = inf{t > : X t B}. Poniższy lemat jest prawdziwy również dla procesów przyjmujących wartości w przestrzeni metrycznej. Lemat 6.12 Jeśli proces X t adoptowany do {F t } ma ciągłe trajektorie, zbiór B jest domknięty, to τ B jest F czasem stopu. Jeśli proces X t adoptowany do {F t } ma prawostronnie ciągłe trajektorie, zbiór B jest otwarty, to τ B jest słabym F czasem stopu. Dowód. Dowód piewszej części wynika z równania {τ B t} = h>,h Q n r Q [h,t] {d(x r, B) < 1/n} F t, gdzie d(x, B) jest odległością punktu x od zbioru B, czyli d(x, B) = inf x y. y B Zauważmy, że odległość punktu od zbioru jest funkcją ciągłą. Uzasadnimy powyższe równanie. Ustalmy ω i t takie, że τ(ω) = r t. Ponieważ trajektoria X s = X s (ω) (będziemy pomijać ustalone ω) jest ciągła zatem z definicji τ B oraz ponieważ B jest domknięty wynika, że X r B. Stąd dla każdego n istnieje u Q, gdzie u < r, że d(x u, B) X r X u < 1/n. W drugą stronę. Ustalmy ω takie,że istnieje h tak, że dla każdego n istnieje r n Q [h, t] tak, że d(x rn, B) < 1/n. Zauważmy, że z ciągu r n możemy wybrać podciąg zbieżny nazwijmy go tak samo, zatem r n r. Z ciągłości X rn X r. Z wyboru również wynika,że d(x r, B) =, czyli ponieważ zbiór B jest domknięty X r (ω) B, co pokazuje, że τ B r t. Dowód drugiej części wynika z równania {τ B < t} = r Q (,t) 39 {X r B} F t.

40 Potrzebować będziemy jeszcze twierdzenia o lokalizacji warunkowej wartości oczekiwanej Lemat 6.13 Niech w przestrzeni probabilistyczej (Ω, F, P ) będą dwa pod σ- ciała F, G 1 i G 2 oraz dwie zmienne losowe ξ, η L 1 (P ) i takie, że istnieje zbiór A G 1 G 2 taki, że oraz ξ = η dla ω A. Wówczas G 1 A = G 2 A E[ξ G 1 ](ω) = E[η G 2 ](ω), ω A. Dowód. Zauważmy, że I A E[ξ G 1 ] = E[I A ξ G 1 ] E[I A η G 2 ] = I A E[η G 2 ] i z założenia obie funkcje są G 1 G 2 mierzalne. Definiujemy zbiór Wówczas B = A {E[ξ G 1 ] > E[η G 2 ]} G 1 G 2. B E[ξ G 1 ] = B ξ = B η = B E[η G 2 ] co wobec definicji B zachodzi tylko wówczas gdy P (B) =. W drugą stronę analogicznie Poniższe twierdzenie Dooba udowodnimy najpierw w sytuacji gdy zbiór T jest przeliczalny. Będziemy korzystać z twierdzenia 6.7 wzór (6.2) który jest prawdziwy też w tej sytuacji. Ponadto martyngał M t, t [, ) nazywamy regularnym jeśli istnieje rozszerzenie indeksów do zbioru T = [, ], czyli istnieje M, taki, że M t = E[M F t ]. Twierdzenie Dooba 6.14 Niech proces M t, t T będzie martyngałem, T zbiorem przeliczalnym zaś σ, τ F-czasami stopu, gdzie τ przyjmuje wartości w skończonym zbiorze albo τ jest ograniczony zaś martyngał jest regularny. Wowczas M τ jest całkowalny oraz prawie wszędzie M σ τ = E[M τ F σ ]. 4

41 Dowód. Załóżmy, że τ przyjmuje wartości w zbiorze skończonym. Wówczas M τ jest całkowalne. Z twierdzenia 6.7 (6.2) oraz lematu 6.13 wynika, że w zbiorze ω {τ = t} i dla t u Ponieważ T jest przeliczalny zatem E[M u F τ ] = E[M u F t ] = M t = M τ. E[M u F τ ] = M τ P prawie wszędzie na zbiorze τ u. Jeśli σ τ u, to z twierdenia 6.7 (6.1) F σ F τ oraz powyższego równania E[M τ F σ ] = E[E[M u F τ ] F σ ] = E[M u F σ ] = M σ = M σ τ. Ponieważ u jest dowolne i τ jest ograniczone powyższa równość zachodzi dla σ τ. Z drugiej strony na zbiorze σ > τ, z (6.1) F τ F σ. Analogiczne twierdzenie do twierdzenia 6.6 dla T przeliczalnego i procesu adaptowanego M t głosi, że M τ F τ, czyli M τ F σ. Zatem E[M τ F σ ] = M τ = M σ τ, co kończy dowód dla τ skończonego. Jeśli zachodzi druga możliwość, to postępujemy identycznie z tym, że za u = i wnioskujemy, że M τ jest całkowalny. Dokładniej ponieważ z nieówności Jensena E[ M F τ ] E[M F τ ] = M τ, zatem E M τ E M. Definicja 6.15 odzina zmiennych losowych X α nazywa się jednakowo całkowalna, jeżeli lim sup X α dp = x α X α >x Będziemy potrzebować następującego twierdzenia Twierdzenie Dooba 6.16 Niech X L 1. odzina zmiennych losowych E[X G] dla wszystkich σ ciał G F jest jednakowo całkowalna. 41

F t+ := s>t. F s = F t.

F t+ := s>t. F s = F t. M. Beśka, Całka Stochastyczna, wykład 1 1 1 Wiadomości wstępne 1.1 Przestrzeń probabilistyczna z filtracją Niech (Ω, F, P ) będzie ustaloną przestrzenią probabilistyczną i niech F = {F t } t 0 będzie rodziną

Bardziej szczegółowo

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ. Zadania z Procesów Stochastycznych 1 1. Udowodnij, że z prawdopodobieństwem 1 trajektorie procesu Poissona są niemalejące, przyjmują wartości z Z +, mają wszystkie skoki równe 1 oraz dążą do nieskończoności.

Bardziej szczegółowo

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ. Zadania z Procesów Stochastycznych 1 1. Udowodnij, że z prawdopodobieństwem 1 trajektorie procesu Poissona są niemalejące, przyjmują wartości z Z +, mają wszystkie skoki równe 1 oraz dążą do nieskończoności.

Bardziej szczegółowo

7 Twierdzenie Fubiniego

7 Twierdzenie Fubiniego M. Beśka, Wstęp do teorii miary, wykład 7 19 7 Twierdzenie Fubiniego 7.1 Miary produktowe Niech i będą niepustymi zbiorami. Przez oznaczmy produkt kartezjański i tj. zbiór = { (x, y : x y }. Niech E oraz

Bardziej szczegółowo

Zadania z Procesów Stochastycznych 1

Zadania z Procesów Stochastycznych 1 Zadania z Procesów Stochastycznych 1 Definicja Procesem Poissona z parametrem (intensywnością) λ > 0 nazywamy proces stochastyczny N = (N t ) t 0 taki, że N 0 = 0; (P0) N ma przyrosty niezależne; (P1)

Bardziej szczegółowo

21 maja, Mocna własność Markowa procesu Wienera. Procesy Stochastyczne, wykład 13, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126

21 maja, Mocna własność Markowa procesu Wienera. Procesy Stochastyczne, wykład 13, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126 Mocna własność Markowa procesu Wienera Procesy Stochastyczne, wykład 13, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126 21 maja, 2012 Mocna własność Markowa W = (W 1,..., W d ) oznaczać

Bardziej szczegółowo

Ośrodkowość procesów, proces Wienera. Ośrodkowość procesów, proces Wienera Procesy Stochastyczne, wykład, T. Byczkowski,

Ośrodkowość procesów, proces Wienera. Ośrodkowość procesów, proces Wienera Procesy Stochastyczne, wykład, T. Byczkowski, Procesy Stochastyczne, wykład, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 27 luty, 2012 Ośrodkowość procesów Dalej zakładamy, że (Ω, Σ, P) jest zupełną przestrzenią miarową. Definicja.

Bardziej szczegółowo

8 Całka stochastyczna względem semimartyngałów

8 Całka stochastyczna względem semimartyngałów M. Beśka, Całka Stochastyczna, wykład 8 148 8 Całka stochastyczna względem semimartyngałów 8.1 Całka stochastyczna w M 2 Oznaczmy przez Ξ zbiór procesów postaci X t (ω) = ξ (ω)i {} (t) + n ξ i (ω)i (ti,

Bardziej szczegółowo

Rodzinę spełniającą trzeci warunek tylko dla sumy skończonej nazywamy ciałem (algebrą) w zbiorze X.

Rodzinę spełniającą trzeci warunek tylko dla sumy skończonej nazywamy ciałem (algebrą) w zbiorze X. 1 σ-ciała Definicja 1.1 (σ - ciało) σ - ciałem (σ - algebrą) w danym zbiorze X (zwanym przestrzenią) nazywamy rodzinę M pewnych podzbiorów zbioru X, spełniającą trzy warunki: 1 o M; 2 o jeśli A M, to X

Bardziej szczegółowo

Teoria miary. WPPT/Matematyka, rok II. Wykład 5

Teoria miary. WPPT/Matematyka, rok II. Wykład 5 Teoria miary WPPT/Matematyka, rok II Wykład 5 Funkcje mierzalne Niech (X, F) będzie przestrzenią mierzalną i niech f : X R. Twierdzenie 1. NWSR 1. {x X : f(x) > a} F dla każdego a R 2. {x X : f(x) a} F

Bardziej szczegółowo

7. Miara, zbiory mierzalne oraz funkcje mierzalne.

7. Miara, zbiory mierzalne oraz funkcje mierzalne. 7. Miara, zbiory mierzalne oraz funkcje mierzalne. Funkcję rzeczywistą µ nieujemną określoną na ciele zbiorów S będziemy nazywali miarą, gdy dla dowolnego ciągu A 0, A 1,... zbiorów rozłącznych należących

Bardziej szczegółowo

Zadania do Rozdziału X

Zadania do Rozdziału X Zadania do Rozdziału X 1. 2. Znajdź wszystkie σ-ciała podzbiorów X, gdy X = (i) {1, 2}, (ii){1, 2, 3}. (b) Znajdź wszystkie elementy σ-ciała generowanego przez {{1, 2}, {2, 3}} dla X = {1, 2, 3, 4}. Wykaż,

Bardziej szczegółowo

n=0 Dla zbioru Cantora prawdziwe są wersje lematu 3.6 oraz lematu 3.8 przy założeniu α = :

n=0 Dla zbioru Cantora prawdziwe są wersje lematu 3.6 oraz lematu 3.8 przy założeniu α = : 4. Zbiory borelowskie. Zbiór wszystkich podzbiorów liczb naturalnych będziemy oznaczali przez ω. Najmniejszą topologię na zbiorze ω, w której zbiory {A ω : x A ω \ y}, gdzie x oraz y są zbiorami skończonymi,

Bardziej szczegółowo

Teoria ze Wstępu do analizy stochastycznej

Teoria ze Wstępu do analizy stochastycznej eoria ze Wstępu do analizy stochastycznej Marcin Szumski 22 czerwca 21 1 Definicje 1. proces stochastyczny - rodzina zmiennych losowych X = (X t ) t 2. trajektoria - funkcja (losowa) t X t (ω) f : E 3.

Bardziej szczegółowo

Rodzinę F złożoną z podzbiorów zbioru X będziemy nazywali ciałem zbiorów, gdy spełnione są dwa następujące warunki.

Rodzinę F złożoną z podzbiorów zbioru X będziemy nazywali ciałem zbiorów, gdy spełnione są dwa następujące warunki. 3. Funkcje borelowskie. Rodzinę F złożoną z podzbiorów zbioru X będziemy nazywali ciałem zbiorów, gdy spełnione są dwa następujące warunki. (1): Jeśli zbiór Y należy do rodziny F, to jego dopełnienie X

Bardziej szczegółowo

2 Rodziny zbiorów. 2.1 Algebry i σ - algebry zbiorów. M. Beśka, Wstęp do teorii miary, rozdz. 2 11

2 Rodziny zbiorów. 2.1 Algebry i σ - algebry zbiorów. M. Beśka, Wstęp do teorii miary, rozdz. 2 11 M. Beśka, Wstęp do teorii miary, rozdz. 2 11 2 Rodziny zbiorów 2.1 Algebry i σ - algebry zbiorów Niech X będzie niepustym zbiorem. Rodzinę indeksowaną zbiorów {A i } i I 2 X nazywamy rozbiciem zbioru X

Bardziej szczegółowo

G. Plebanek, MIARA I CAŁKA Zadania do rozdziału 1 28

G. Plebanek, MIARA I CAŁKA Zadania do rozdziału 1 28 G. Plebanek, MIARA I CAŁKA Zadania do rozdziału 1 28 1.9 Zadania 1.9.1 Niech R będzie pierścieniem zbiorów. Zauważyć, że jeśli A, B R to A B R i A B R. Sprawdzić, że (R,, ) jest także pierścieniem w sensie

Bardziej szczegółowo

Robert Kowalczyk. Zbiór zadań z teorii miary i całki

Robert Kowalczyk. Zbiór zadań z teorii miary i całki Robert Kowalczyk Zbiór zadań z teorii miary i całki 2 Zadanie 1 Pokazać, że poniższe dwie definicje σ-ciała M są równoważne: (i) Rodzinę M podzbiorów przestrzeni X nazywamy σ-ciałem jeżeli zachodzą następujące

Bardziej szczegółowo

jest ciągiem elementów z przestrzeni B(R, R)

jest ciągiem elementów z przestrzeni B(R, R) Wykład 2 1 Ciągi Definicja 1.1 (ciąg) Ciągiem w zbiorze X nazywamy odwzorowanie x: N X. Dla uproszczenia piszemy x n zamiast x(n). Przykład 1. x n = n jest ciągiem elementów z przestrzeni R 2. f n (x)

Bardziej szczegółowo

A i. i=1. i=1. i=1. i=1. W dalszej części skryptu będziemy mieli najczęściej do czynienia z miarami określonymi na rodzinach, które są σ - algebrami.

A i. i=1. i=1. i=1. i=1. W dalszej części skryptu będziemy mieli najczęściej do czynienia z miarami określonymi na rodzinach, które są σ - algebrami. M. Beśka, Wstęp do teorii miary, rozdz. 3 25 3 Miara 3.1 Definicja miary i jej podstawowe własności Niech X będzie niepustym zbiorem, a A 2 X niepustą rodziną podzbiorów. Wtedy dowolne odwzorowanie : A

Bardziej szczegółowo

PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω)

PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω) PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω) określonych na tej samej przestrzeni probabilistycznej

Bardziej szczegółowo

Teoria miary i całki

Teoria miary i całki Teoria miary i całki Spis treści 1 Wstęp 3 2 lgebra zbiorów 5 3 Pierścienie, ciała, σ ciała zbiorów. 7 3.1 Definicja pierścienia ciała i σ ciała............... 7 3.2 Pierścień, ciało i σ ciało generowane

Bardziej szczegółowo

4 Kilka klas procesów

4 Kilka klas procesów Marek Beśka, Całka Stochastyczna, wykład 4 48 4 Kilka klas procesów 4.1 Procesy rosnące i przestrzenie V,, loc Jak poprzednio niech (Ω, F, F, P ) będzie zupełną bazą stochastyczną. Definicja 4.1 Proces

Bardziej szczegółowo

Zadania ze Wstępu do Analizy Stochastycznej 1. = 0 p.n.

Zadania ze Wstępu do Analizy Stochastycznej 1. = 0 p.n. Zadania ze Wstępu do Analizy Stochastycznej 1 1. Znajdź rozkład zmiennej 5W 1 W 3 + W 7. 2. Dla jakich parametrów a i b, zmienne aw 1 W 2 oraz W 3 + bw 5 są niezależne? 3. Znajdź rozkład wektora losowego

Bardziej szczegółowo

Zadania z Rachunku Prawdopodobieństwa III - 1

Zadania z Rachunku Prawdopodobieństwa III - 1 Zadania z Rachunku Prawdopodobieństwa III - 1 Funkcją tworzącą momenty (transformatą Laplace a) zmiennej losowej X nazywamy funkcję M X (t) := Ee tx, t R. 1. Oblicz funkcję tworzącą momenty zmiennych o

Bardziej szczegółowo

1. Struktury zbiorów 2. Miara 3. Miara zewnętrzna 4. Miara Lebesgue a 5. Funkcje mierzalne 6. Całka Lebesgue a. Analiza Rzeczywista.

1. Struktury zbiorów 2. Miara 3. Miara zewnętrzna 4. Miara Lebesgue a 5. Funkcje mierzalne 6. Całka Lebesgue a. Analiza Rzeczywista. Literatura P. Billingsley, Miara i prawdopodobieństwo, PWN, Warszawa 1997, P. R. Halmos, Measure theory, Springer-Verlag, 1994, W, Kołodziej, naliza matematyczna, PWN, Warszawa 1978, S. Łojasiewicz, Wstęp

Bardziej szczegółowo

Korzystając z własności metryki łatwo wykazać, że dla dowolnych x, y, z X zachodzi

Korzystając z własności metryki łatwo wykazać, że dla dowolnych x, y, z X zachodzi M. Beśka, Wstęp do teorii miary, Dodatek 158 10 Dodatek 10.1 Przestrzenie metryczne Niech X będzie niepustym zbiorem. Funkcję d : X X [0, ) spełniającą dla x, y, z X warunki (i) d(x, y) = 0 x = y, (ii)

Bardziej szczegółowo

Dystrybucje, wiadomości wstępne (I)

Dystrybucje, wiadomości wstępne (I) Temat 8 Dystrybucje, wiadomości wstępne (I) Wielkości fizyczne opisujemy najczęściej przyporządkowując im funkcje (np. zależne od czasu). Inną drogą opisu tych wielkości jest przyporządkowanie im funkcjonałów

Bardziej szczegółowo

zbiorów domkniętych i tak otrzymane zbiory domknięte ustawiamy w ciąg. Oznaczamy

zbiorów domkniętych i tak otrzymane zbiory domknięte ustawiamy w ciąg. Oznaczamy 5. Funkcje 1 klasy Baire a. Pod koniec XIX i początkiem XX wieku kilku matematyków zajmowało się problemami dotyczącymi klasyfikacji funkcji borelowskich: między innymi R. Baire, E. Borel, H. Lebesgue

Bardziej szczegółowo

1 Relacje i odwzorowania

1 Relacje i odwzorowania Relacje i odwzorowania Relacje Jacek Kłopotowski Zadania z analizy matematycznej I Wykazać, że jeśli relacja ρ X X jest przeciwzwrotna i przechodnia, to jest przeciwsymetryczna Zbadać czy relacja ρ X X

Bardziej szczegółowo

Informacja o przestrzeniach Sobolewa

Informacja o przestrzeniach Sobolewa Wykład 11 Informacja o przestrzeniach Sobolewa 11.1 Definicja przestrzeni Sobolewa Niech R n będzie zbiorem mierzalnym. Rozważmy przestrzeń Hilberta X = L 2 () z iloczynem skalarnym zdefiniowanym równością

Bardziej szczegółowo

Wykład 10. Stwierdzenie 1. X spełnia warunek Borela wtedy i tylko wtedy, gdy każda scentrowana rodzina zbiorów domkniętych ma niepusty przekrój.

Wykład 10. Stwierdzenie 1. X spełnia warunek Borela wtedy i tylko wtedy, gdy każda scentrowana rodzina zbiorów domkniętych ma niepusty przekrój. Wykład 10 Twierdzenie 1 (Borel-Lebesgue) Niech X będzie przestrzenią zwartą Z każdego pokrycia X zbiorami otwartymi można wybrać podpokrycie skończone Dowód Lemat 1 Dla każdego pokrycia U przestrzeni ośrodkowej

Bardziej szczegółowo

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Niech Ω będzie przestrzenią zdarzeń elementarnych. Definicja 1 Rodzinę S zdarzeń losowych (zbiór S podzbiorów zbioru

Bardziej szczegółowo

Wykłady ostatnie. Rodzinę P podzbiorów przestrzeni X nazywamy σ - algebrą, jeżeli dla A, B P (2) A B P, (3) A \ B P,

Wykłady ostatnie. Rodzinę P podzbiorów przestrzeni X nazywamy σ - algebrą, jeżeli dla A, B P (2) A B P, (3) A \ B P, Wykłady ostatnie CAŁKA LBSGU A Zasadnicza różnica koncepcyjna między całką Riemanna i całką Lebesgue a polega na zamianie ról przestrzeni wartości i przestrzeni argumentów przy konstrukcji sum górnych

Bardziej szczegółowo

Zadania z Analizy Funkcjonalnej I Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi?

Zadania z Analizy Funkcjonalnej I Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi? Zadania z Analizy Funkcjonalnej I - 1 1. Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi? a) X = R, d(x, y) = arctg x y ; b) X = R n, d(x, y) = x 1 y 1 + x 2 y 2 + max i 3 x i

Bardziej szczegółowo

Zasada indukcji matematycznej

Zasada indukcji matematycznej Zasada indukcji matematycznej Twierdzenie 1 (Zasada indukcji matematycznej). Niech ϕ(n) będzie formą zdaniową zmiennej n N 0. Załóżmy, że istnieje n 0 N 0 takie, że 1. ϕ(n 0 ) jest zdaniem prawdziwym,.

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład VII: Rozkład i jego charakterystyki 22 listopada 2016 Uprzednio wprowadzone pojęcia i ich własności Definicja zmiennej losowej Zmienna losowa na przestrzeni probabilistycznej (Ω, F, P) to funkcja

Bardziej szczegółowo

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład Rozdział 1 Wektory losowe 1.1 Wektor losowy i jego rozkład Definicja 1 Wektor X = (X 1,..., X n ), którego każda współrzędna jest zmienną losową, nazywamy n-wymiarowym wektorem losowym (krótko wektorem

Bardziej szczegółowo

Zadania z Analizy Funkcjonalnej I Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi?

Zadania z Analizy Funkcjonalnej I Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi? Zadania z Analizy Funkcjonalnej I - 1 1. Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi?. a) X = R, x = arctg x ; b) X = R n, d(x, y) = x 1 y 1 + x 2 y 2 + max i 3 x i y i ;

Bardziej szczegółowo

Prawa wielkich liczb, centralne twierdzenia graniczne

Prawa wielkich liczb, centralne twierdzenia graniczne , centralne twierdzenia graniczne Katedra matematyki i ekonomii matematycznej 17 maja 2012, centralne twierdzenia graniczne Rodzaje zbieżności ciągów zmiennych losowych, centralne twierdzenia graniczne

Bardziej szczegółowo

Analiza Funkcjonalna - Zadania

Analiza Funkcjonalna - Zadania Analiza Funkcjonalna - Zadania 1 Wprowadzamy następujące oznaczenia. K oznacza ciało liczb rzeczywistych lub zespolonych. Jeżeli T jest dowolnym zbiorem niepustym, to l (T ) = {x : E K : x funkcja ograniczona}.

Bardziej szczegółowo

Szkice do zajęć z Przedmiotu Wyrównawczego

Szkice do zajęć z Przedmiotu Wyrównawczego Szkice do zajęć z Przedmiotu Wyrównawczego Matematyka Finansowa sem. letni 2011/2012 Spis treści Zajęcia 1 3 1.1 Przestrzeń probabilistyczna................................. 3 1.2 Prawdopodobieństwo warunkowe..............................

Bardziej szczegółowo

Wykłady... b i a i. i=1. m(d k ) inf

Wykłady... b i a i. i=1. m(d k ) inf Wykłady... CŁKOWNIE FUNKCJI WIELU ZMIENNYCH Zaczniemy od konstrukcji całki na przedziale domkniętym. Konstrukcja ta jest, w gruncie rzeczy, powtórzeniem definicji całki na odcinku domkniętym w R 1. Przedziałem

Bardziej szczegółowo

O pewnych klasach funkcji prawie okresowych (niekoniecznie ograniczonych)

O pewnych klasach funkcji prawie okresowych (niekoniecznie ograniczonych) (niekoniecznie ograniczonych) Wydział Matematyki i Informatyki Uniwersytet im. Adama Mickiewicza, Poznań Będlewo, 25-30 maja 2015 Funkcje prawie okresowe w sensie Bohra Definicja Zbiór E R nazywamy względnie

Bardziej szczegółowo

Wykład 11: Martyngały: definicja, twierdzenia o zbieżności

Wykład 11: Martyngały: definicja, twierdzenia o zbieżności RAP 412 14.01.2009 Wykład 11: Martyngały: definicja, twierdzenia o zbieżności Wykładowca: Andrzej Ruciński Pisarz:Mirosława Jańczak 1 Wstęp Do tej pory zajmowaliśmy się ciągami zmiennych losowych (X n

Bardziej szczegółowo

RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3.

RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3. RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3. ZMIENNA LOSOWA JEDNOWYMIAROWA. Zmienną losową X nazywamy funkcję (praktycznie każdą) przyporządkowującą zdarzeniom elementarnym liczby rzeczywiste. X : Ω R (dokładniej:

Bardziej szczegółowo

28 maja, Problem Dirichleta, proces Wienera. Procesy Stochastyczne, wykład 14, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126

28 maja, Problem Dirichleta, proces Wienera. Procesy Stochastyczne, wykład 14, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126 Problem Dirichleta, proces Wienera Procesy Stochastyczne, wykład 14, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126 28 maja, 2012 Funkcje harmoniczne Niech będzie operatorem Laplace a w

Bardziej szczegółowo

PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA

PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA 1. Trójkę (Ω, F, P ), gdzie Ω, F jest σ-ciałem podzbiorów Ω, a P jest prawdopodobieństwem określonym na F, nazywamy przestrzenią probabilistyczną. 2. Rodzinę F

Bardziej szczegółowo

Seria 1. Zbieżność rozkładów

Seria 1. Zbieżność rozkładów Seria Zbieżność rozkładów We wszystkich poniższych zadaniach (E, ρ) jest przestrzenią metryczną Wykazać, że dla dowolnych x, x n, δ xn δ x wtedy i tylko wtedy, gdy x n x Sprawdzić, że n nk= δ k n λ, gdzie

Bardziej szczegółowo

Notatki z Analizy Matematycznej 2. Jacek M. Jędrzejewski

Notatki z Analizy Matematycznej 2. Jacek M. Jędrzejewski Notatki z Analizy Matematycznej 2 Jacek M. Jędrzejewski Definicja 3.1. Niech (a n ) n=1 będzie ciągiem liczbowym. Dla każdej liczby naturalnej dodatniej n utwórzmy S n nazywamy n-tą sumą częściową. ROZDZIAŁ

Bardziej szczegółowo

Zagadnienia stacjonarne

Zagadnienia stacjonarne Zagadnienia stacjonarne Karol Hajduk 19 grudnia 2012 Nierówność wariacyjna (u (t), v u(t)) + a(u, v u) + Ψ(v) Ψ(u) (f, v u), v V. Zagadnienie stacjonarne ma postać (u (t) = 0): a(u, v u) + Ψ(v) Ψ(u) (f,

Bardziej szczegółowo

Rozdział 6. Ciągłość. 6.1 Granica funkcji

Rozdział 6. Ciągłość. 6.1 Granica funkcji Rozdział 6 Ciągłość 6.1 Granica funkcji Podamy najpierw dwie definicje granicy funkcji w punkcie i pokażemy ich równoważność. Definicja Cauchy ego granicy funkcji w punkcie. Niech f : X R, gdzie X R oraz

Bardziej szczegółowo

(b) Suma skończonej ilości oraz przekrój przeliczalnej ilości zbiorów typu G α

(b) Suma skończonej ilości oraz przekrój przeliczalnej ilości zbiorów typu G α FUNKCJE BORELOWSKIE Rodzinę F podzbiorów zbioru X (tzn. F X) będziemy nazywali ciałem gdy spełnione są warunki: (1) Jeśli zbiór Y F, to dopełnienie X \ Y też należy do rodziny F. (2) Jeśli S F jest skończoną

Bardziej szczegółowo

1 Elementy analizy funkcjonalnej

1 Elementy analizy funkcjonalnej M. Beśka, Dodatek 1 1 Elementy analizy funkcjonalnej 1.1 Twierdzenia o reprezentacji Zaczniemy od znanego twierdzenia Riesza Twierdzenie 1.1 (Riesz) Niech będzie zwartą przestrzenią metryczną i załóżmy,

Bardziej szczegółowo

Procesy stochastyczne

Procesy stochastyczne Wykład I: Istnienie procesów stochastycznych 21 lutego 2017 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane

Bardziej szczegółowo

2. P (E) = 1. β B. TSIM W3: Sygnały stochastyczne 1/27

2. P (E) = 1. β B. TSIM W3: Sygnały stochastyczne 1/27 SYGNAŁY STOCHASTYCZNE Przestrzeń probabilistyczna i zmienna losowa Definicja Przestrzenią probabilistyczną (doświadczeniem) nazywamy trójkę uporządkowaną (E, B, P ), gdzie: E przestrzeń zdarzeń elementarnych;

Bardziej szczegółowo

Wstęp do Analizy Stochastycznej

Wstęp do Analizy Stochastycznej Wstęp do Analizy Stochastycznej Rafał Latała 6 września 21 Poniższy tekst zawiera notatki do wykładów ze Wstępu do Analizy Stochastycznej, prowadzonego w semestrze wiosennym 21 roku. Gwiazdkami oznaczono

Bardziej szczegółowo

2. Definicja pochodnej w R n

2. Definicja pochodnej w R n 2. Definicja pochodnej w R n Niech będzie dana funkcja f : U R określona na zbiorze otwartym U R n. Pochodną kierunkową w punkcie a U w kierunku wektora u R n nazywamy granicę u f(a) = lim t 0 f(a + tu)

Bardziej szczegółowo

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe 4.0. Rozkłady zmiennych losowych, dystrybuanta. Katarzyna Rybarczyk-Krzywdzińska Wprowadzenie Rozważmy eksperymenty 1 gra Bolka w ruletkę w kasynie;

Bardziej szczegółowo

1 Ciągłe operatory liniowe

1 Ciągłe operatory liniowe 1 Ciągłe operatory liniowe Załóżmy, że E, F są przestrzeniami unormowanymi. Definicja 1.1. Operator liniowy T : E F nazywamy ograniczonym, jeżeli zbiór T (B) F jest ograniczony dla dowolnego zbioru ograniczonego

Bardziej szczegółowo

Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna.

Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna. Wykład 4 Rozkłady i ich dystrybuanty Dwa typy zmiennych losowych Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x, x 2,...}, to mówimy, że jest to zmienna dyskretna.

Bardziej szczegółowo

13 Równanie struny drgającej. Równanie przewodnictwa ciepła.

13 Równanie struny drgającej. Równanie przewodnictwa ciepła. Równanie struny drgającej. Równanie przewodnictwa ciepła 13 1 13 Równanie struny drgającej. Równanie przewodnictwa ciepła. 13.1 Równanie struny drgającej Równanie różniczkowe liniowe drugiego rzędu typu

Bardziej szczegółowo

VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa.

VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa. VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa. W rozdziale tym zajmiemy się dokładniej badaniem stabilności rozwiązań równania różniczkowego. Pojęcie stabilności w

Bardziej szczegółowo

Rozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej

Rozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Zbiór możliwych wyników eksperymentu będziemy nazywać przestrzenią zdarzeń elementarnych i oznaczać Ω, natomiast

Bardziej szczegółowo

PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA. Piotr Wiącek

PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA. Piotr Wiącek PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA Piotr Wiącek ROZKŁAD PRAWDOPODOBIEŃSTWA Jest to miara probabilistyczna określona na σ-ciele podzbiorów borelowskich pewnej przestrzeni metrycznej. σ-ciało podzbiorów

Bardziej szczegółowo

Prognozowalne kryterium całkowalności według A. N. Shiryaeva i A. S. Cherny ego Joanna Karłowska-Pik. Historia

Prognozowalne kryterium całkowalności według A. N. Shiryaeva i A. S. Cherny ego Joanna Karłowska-Pik. Historia 1 Prognozowalne kryterium całkowalności według A. N. Shiryaeva i A. S. Cherny ego Joanna Karłowska-Pik Całka stochastyczna ( t ) H s dx s = H X. t Historia K. Itô (1944) konstrukcja całki stochastycznej

Bardziej szczegółowo

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów. Rachunek prawdopodobieństwa MAT1332 Wydział Matematyki, Matematyka Stosowana Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów. Warunkowa

Bardziej szczegółowo

O pewnych związkach teorii modeli z teorią reprezentacji

O pewnych związkach teorii modeli z teorią reprezentacji O pewnych związkach teorii modeli z teorią reprezentacji na podstawie referatu Stanisława Kasjana 5 i 12 grudnia 2000 roku 1. Elementy teorii modeli Będziemy rozważać język L składający się z przeliczalnej

Bardziej szczegółowo

Analiza funkcjonalna 1.

Analiza funkcjonalna 1. Analiza funkcjonalna 1. Wioletta Karpińska Semestr letni 2015/2016 0 Bibliografia [1] Banaszczyk W., Analiza matematyczna 3. Wykłady. (http://math.uni.lodz.pl/ wbanasz/am3/) [2] Birkholc A., Analiza matematyczna.

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład II: Zmienne losowe i charakterystyki ich rozkładów 13 października 2014 Zmienne losowe Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Definicja zmiennej losowej i jej

Bardziej szczegółowo

Procesy stochastyczne

Procesy stochastyczne Wykład I: Istnienie procesów stochastycznych 2 marca 2015 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane są

Bardziej szczegółowo

Wokół nierówności Dooba

Wokół nierówności Dooba Uniwersytet Warszawski Wydział Matematyki, Informatyki i Mechaniki Tomasz Tkocz Nr albumu: 24957 Wokół nierówności Dooba Praca licencjacka na kierunku MATEMATYKA w ramach Międzywydziałowych Indywidualnych

Bardziej szczegółowo

Wykład 3 Jednowymiarowe zmienne losowe

Wykład 3 Jednowymiarowe zmienne losowe Wykład 3 Jednowymiarowe zmienne losowe Niech (Ω, F, P ) będzie ustaloną przestrzenią probabilistyczną Definicja 1 Jednowymiarowa zmienna losowa (o wartościach rzeczywistych), określoną na przestrzeni probabilistycznej

Bardziej szczegółowo

Wstęp do Analizy Stochastycznej

Wstęp do Analizy Stochastycznej Matematyka stosowana Wstęp do Analizy Stochastycznej Rafał Latała R.Latala@mimuw.edu.pl http://www.mimuw.edu.pl/~rlatala Uniwersytet Warszawski, 211 Streszczenie. Ogólna teoria procesów, proces Wienera.

Bardziej szczegółowo

}, gdzie a = t (n) )(f(t(n) k. ) f(t(n) k 1 ) 1+δ = 0,

}, gdzie a = t (n) )(f(t(n) k. ) f(t(n) k 1 ) 1+δ = 0, Zadania z Procesów Stochastycznych II - 1 1. Niech π n = {t (n), t(n) 1,..., t(n) k n }, gdzie a = t (n) < t (n) 1

Bardziej szczegółowo

VI. Równania różniczkowe liniowe wyższych rzędów

VI. Równania różniczkowe liniowe wyższych rzędów VI. 1. Równanie różniczkowe liniowe n-tego rzędu o zmiennych współczynnikach Niech podobnie jak w poprzednim paragrafie K = C lub K = R. Podobnie jak w dziedzinie rzeczywistej wprowadzamy pochodne wyższych

Bardziej szczegółowo

Dystrybucje. Marcin Orchel. 1 Wstęp Dystrybucje Pochodna dystrybucyjna Przestrzenie... 5

Dystrybucje. Marcin Orchel. 1 Wstęp Dystrybucje Pochodna dystrybucyjna Przestrzenie... 5 Dystrybucje Marcin Orchel Spis treści 1 Wstęp 1 1.1 Dystrybucje................................... 1 1.2 Pochodna dystrybucyjna............................ 3 1.3 Przestrzenie...................................

Bardziej szczegółowo

Informacja o przestrzeniach Hilberta

Informacja o przestrzeniach Hilberta Temat 10 Informacja o przestrzeniach Hilberta 10.1 Przestrzenie unitarne, iloczyn skalarny Niech dana będzie przestrzeń liniowa X. Załóżmy, że każdej parze elementów x, y X została przyporządkowana liczba

Bardziej szczegółowo

II. Równania autonomiczne. 1. Podstawowe pojęcia.

II. Równania autonomiczne. 1. Podstawowe pojęcia. II. Równania autonomiczne. 1. Podstawowe pojęcia. Definicja 1.1. Niech Q R n, n 1, będzie danym zbiorem i niech f : Q R n będzie daną funkcją określoną na Q. Równanie różniczkowe postaci (1.1) x = f(x),

Bardziej szczegółowo

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski Modelowanie zależności pomiędzy zmiennymi losowymi Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski P Zmienne losowe niezależne - przypomnienie Dwie rzeczywiste zmienne losowe X i Y

Bardziej szczegółowo

V. Jednorodne układy równań różniczkowych liniowych o stałych współczynnikach

V. Jednorodne układy równań różniczkowych liniowych o stałych współczynnikach V. Jednorodne układy równań różniczkowych liniowych o stałych współczynnikach 1. Niezależność wielomianów, funkcji wykładniczych i trygonometrycznych W paragrafie tym podamy pewien lemat 1 potrzebny w

Bardziej szczegółowo

Rozdział 4. Ciągi nieskończone. 4.1 Ciągi nieskończone

Rozdział 4. Ciągi nieskończone. 4.1 Ciągi nieskończone Rozdział 4 Ciągi nieskończone W rozdziale tym wprowadzimy pojęcie granicy ciągu. Dalej rozszerzymy to pojęcie na przypadek dowolnych funkcji. Jak zauważyliśmy we wstępie jest to najważniejsze pojęcie analizy

Bardziej szczegółowo

Wykład 21 Funkcje mierzalne. Kostrukcja i własności całki wzglȩdem miary przeliczalnie addytywnej

Wykład 21 Funkcje mierzalne. Kostrukcja i własności całki wzglȩdem miary przeliczalnie addytywnej Wykład 2 Funkcje mierzalne. Kostrukcja i własności całki wzglȩdem miary przeliczalnie addytywnej czȩść II (opracował: Piotr Nayar) Definicja 2.. Niech (E, E) bȩdzie przestrzenia mierzalna i niech λ : E

Bardziej szczegółowo

f(t) f(x), D f(x) = lim sup t x oraz D f(x) = lim inf

f(t) f(x), D f(x) = lim sup t x oraz D f(x) = lim inf 9. Różniczkowanie. Jeśli f jest funkcją rzeczywistą, to granice D + f(x) = lim sup t x + f(t) f(x), D f(x) = lim sup t x t x f(t) f(x), t x f(t) f(x) f(t) f(x) D + f(x) = lim inf oraz D f(x) = lim inf

Bardziej szczegółowo

Spacery losowe generowanie realizacji procesu losowego

Spacery losowe generowanie realizacji procesu losowego Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z

Bardziej szczegółowo

1. Funkcje monotoniczne, wahanie funkcji.

1. Funkcje monotoniczne, wahanie funkcji. 1. Funkcje monotoniczne, wahanie funkcji. Zbiór X będziemy nazywali uporządkowanym, jeśli określona jest relacja zawarta w produkcie kartezjańskim X X, która jest spójna, antysymetryczna i przechodnia.

Bardziej szczegółowo

WYKŁAD 3. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

WYKŁAD 3. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki WYKŁAD 3 Witold Bednorz, Paweł Wolff 1 Instytut Matematyki Uniwersytet Warszawski Rachunek Prawdopodobieństwa, WNE, 2010-2011 Schemmat Bernouliego Rzucamy 10 razy moneta, próba Bernouliego jest pojedynczy

Bardziej szczegółowo

Zdzisław Dzedzej. Politechnika Gdańska. Gdańsk, 2013

Zdzisław Dzedzej. Politechnika Gdańska. Gdańsk, 2013 Zdzisław Dzedzej Politechnika Gdańska Gdańsk, 2013 1 PODSTAWY 2 3 Definicja. Przestrzeń metryczna (X, d) jest zwarta, jeśli z każdego ciągu {x n } w X można wybrać podciąg zbieżny {x nk } w X. Ogólniej

Bardziej szczegółowo

1 Przestrzenie metryczne

1 Przestrzenie metryczne 1 Przestrzenie metryczne Definicja 1.1 (metryka) Niech będzie niepustym zbiorem. Funkcję d: R + nazywamy metryką, jeśli spełnia warunki: 1 o d(x, y) = d(y, x) (symetria) 2 o d(x, y) + d(y, z) d(x, z) (nierówność

Bardziej szczegółowo

Zadania z Analizy Funkcjonalnej I* - 1

Zadania z Analizy Funkcjonalnej I* - 1 Zadania z Analizy Funkcjonalnej I* - 1 1. Która z następujących przestrzeni jest przestrzenią Banacha w normie supremum: C(R); C ogr (R) przestrzeń funkcji ciągłych ograniczonych; C zw (R) przestrzeń funkcji

Bardziej szczegółowo

Parametr Λ w populacji ubezpieczonych ma rozkład dany na półosi dodatniej gęstością: 3 f

Parametr Λ w populacji ubezpieczonych ma rozkład dany na półosi dodatniej gęstością: 3 f Zadanie. W kolejnych latach t =,,,... ubezpieczony charakteryzujący się parametrem ryzyka Λ generuje N t szkód. Dla danego Λ = λ zmienne N, N, N,... są warunkowo niezależne i mają (brzegowe) rozkłady Poissona:

Bardziej szczegółowo

Teoria miary. Matematyka, rok II. Wykład 1

Teoria miary. Matematyka, rok II. Wykład 1 Teoria miary Matematyka, rok II Wykład 1 NAJBLIŻSZY CEL: Nauczyć się mierzyć wielkość zbiorów. Pierwsze przymiarki: - liczność (moc) zbioru - słabo działa dla zbiorów nieskończonych: czy [0, 1] powinien

Bardziej szczegółowo

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe 4.0. Rozkłady zmiennych losowych, dystrybuanta. Katarzyna Rybarczyk-Krzywdzińska semestr zimowy 2016/2017 Wprowadzenie Przykład 1 Bolek, Lolek i Tola

Bardziej szczegółowo

SIMR 2016/2017, Analiza 2, wykład 1, Przestrzeń wektorowa

SIMR 2016/2017, Analiza 2, wykład 1, Przestrzeń wektorowa SIMR 06/07, Analiza, wykład, 07-0- Przestrzeń wektorowa Przestrzeń wektorowa (liniowa) - przestrzeń (zbiór) w której określone są działania (funkcje) dodawania elementów i mnożenia elementów przez liczbę

Bardziej szczegółowo

Prognozowanie i Symulacje. Wykład I. Matematyczne metody prognozowania

Prognozowanie i Symulacje. Wykład I. Matematyczne metody prognozowania Prognozowanie i Symulacje. Wykład I. e-mail:e.kozlovski@pollub.pl Spis treści Szeregi czasowe 1 Szeregi czasowe 2 3 Szeregi czasowe Definicja 1 Szereg czasowy jest to proces stochastyczny z czasem dyskretnym

Bardziej szczegółowo

Statystyka i eksploracja danych

Statystyka i eksploracja danych Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu w dziedzinach matematyczno-przyrodniczych realizowany w ramach Poddziałania 4.1.1 Programu Operacyjnego Kapitał Ludzki Statystyka i eksploracja

Bardziej szczegółowo

n=0 (n + r)a n x n+r 1 (n + r)(n + r 1)a n x n+r 2. Wykorzystując te obliczenia otrzymujemy, że lewa strona równania (1) jest równa

n=0 (n + r)a n x n+r 1 (n + r)(n + r 1)a n x n+r 2. Wykorzystując te obliczenia otrzymujemy, że lewa strona równania (1) jest równa Równanie Bessela Będziemy rozważać następujące równanie Bessela x y xy x ν )y 0 ) gdzie ν 0 jest pewnym parametrem Rozwiązania równania ) nazywamy funkcjami Bessela rzędu ν Sprawdzamy, że x 0 jest regularnym

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład V: Zmienne losowe i ich wartości oczekiwane 25 października 2017 Definicja zmiennej losowej Definicja Zmienne losowa to charakterystyka liczbowa wyniku eksperymentu losowego. Zmienne losowa na przestrzeni

Bardziej szczegółowo

Egzamin z logiki i teorii mnogości, rozwiązania zadań

Egzamin z logiki i teorii mnogości, rozwiązania zadań Egzamin z logiki i teorii mnogości, 08.02.2016 - rozwiązania zadań 1. Niech φ oraz ψ będą formami zdaniowymi. Czy formuła [( x : φ(x)) ( x : ψ(x))] [ x : (φ(x) ψ(x))] jest prawem rachunku kwantyfikatorów?

Bardziej szczegółowo