4 Kilka klas procesów

Wielkość: px
Rozpocząć pokaz od strony:

Download "4 Kilka klas procesów"

Transkrypt

1 Marek Beśka, Całka Stochastyczna, wykład Kilka klas procesów 4.1 Procesy rosnące i przestrzenie V,, loc Jak poprzednio niech (Ω, F, F, P ) będzie zupełną bazą stochastyczną. Definicja 4.1 Proces o wartościach w [, + ] nazywamy rosnącym procesem jeśli dla ω Ω trajektorie ( ) (ω) są niemalejące, cad oraz =. Dla rosnącego procesu istnieje granica = lim t t i oczywiście nie musi ona być skończona. Niech V + (F, P ) = V + oznacza rodzinę rosnących, adaptowanych procesów takich, że t < + dla t oraz V(F, P ) = V oznacza przestrzeń wszystkich procesów, które są różnicą dwóch elementów z V tzn. V = V + V +. Lemat 4.2 Wszystkie procesy należące do klasy V + i klasy V są opcjonalne Dowód. Jeśli proces V + to trajektorie posiadają lewostronne granice. Zatem jest cadlag i z założenia jest adaptowany, a więc jest opcjonalny. Stąd każdy element V jako różnica dwóch elementów procesów opcjonalnych jest opcjonalny. Określimy teraz wahanie (wariację) procesu X. Definicja 4.3 Niech t i niech δ t = { = t, t 1,..., t n = t, gdzie t i 1 < t i dla i = 1,..., n, n 1 będzie podziałem odcinka [, t]. Dla danego podziału δ t określmy S δt (X) = n X ti X ti 1 i=1 Wahaniem (wariacją) procesu na przedziale [, t] nazywamy kres górny sum S δt (X) po wszystkich możliwych podziałach δ t przedziału [, t] tj. V t (X) = sup S δt (X). δ t Uwaga. Zauważmy, że gdy X jest cad lub cag to dla t > mamy V t (X) = lim n n i=1 X t i n X t i 1. n Stąd, jeśli X jest adaptowany to V (X) też. Gdy powyższy kres górny jest nieskończony dla pewnego t to mówimy, że proces X ma wahanie nieskończone. Proces X ma skończone wahanie jeśli V t (X) jest skończone dla każdego t. Bezpośrednio z definicji wahania otrzymujemy następujace własności procesów o skończonym wahaniu:

2 Marek Beśka, Całka Stochastyczna, wykład 4 49 (i) Dla s t mamy V s (X) V t (X); (ii) Wahanie jest funkcją addytywną przedziału tzn. dla s t mamy V t (X) = V s (X) + Vs t (X) gdzie Vs t (X) jest whaniem X na przedziale [s, t]; (iii) Dla s t zachodzi: (4.1) V t (X)(ω) V s (X)(ω) X t (ω) X s (ω) ; (iv) Kombinacja liniowa i iloczyn procesów o wahaniu skończonym jest procesem o wahaniu skończonym. Lemat 4.4 Zachodzą następujące fakty: (a) Jeśli proces X ma skończone wahanie i jest cad to proces V (X) = {V t (X) t jest rosnący i cad; (b) Niech X będzie cad i niech X = Wtedy X jest adaptowany o skończonym wahaniu wtedy i tylko wtedy, gdy X V. Dowód. (a) Monotoniczność wynika z własności (i) powyżej. Wykażemy, że V t (X) jest cad. Ustalmy t. Z własności (ii) powyżej wystarczy wykazać (4.2) lim V t t + t t (X) =. Niech ε >. Poniewż X jest cad, więc istnieje δ > takie, że dla u spełniającego warunek t < u < t + δ mamy X u X t < ε/2. Istnieje podział t < t 1 <... < t n = t taki, że V t t (X) < Niech t < s < min(t + δ, t 1 ). Wtedy n X ti X ti 1 + ε 2. i=1 V t t (X) X s X t + X t1 X s X tn X tn 1 + ε 2 ε + V t s (X). Skąd V s t (X) < ε. Zatem (4.2) zachodzi. Zauważmy, że mamy również odwrotną własność tzn. jeśli V (X) jest cad to X też, co wynika z (4.1). Dla dowodu (b) załóżmy, że X (X = ) jest adaptowany o skończonym wahaniu. Mamy X = φ(x) ψ(x).

3 Marek Beśka, Całka Stochastyczna, wykład 4 5 gdzie φ(x) = X + V (X) 2, ψ(x) = V (X) X. 2 Z (4.1) procesy φ(x) i ψ(x) są rosnące. Zatem X V. Załóżmy teraz, że X V, to X = 1 2 dla i V +, i = 1, 2. Oba procesy 1 i 2 są procesami rosnącymi, mają skończone wahanie, więc X ma skończone wahanie. Ponadto X = i X jest adaptowany jako różnica dwóch procesów adaptowanych. Niech V + i niech X będzie takim procesem, że dla ω Ω trajektorie t X t (ω) są borelowskie. Dla ω Ω odwzorowanie [, t] s s (ω) określa dodatnią skończona miarę na [, t]. Możemy rozważyc całkę X s (ω)d s (ω) [,t] jeśli dla ω trajektoria X ( ) (ω) jest całkowalna względem ( ) (ω). Taka całka jest faktycznie całką Lebesgue a-stieltjesa t X s (ω)d s (ω) = X s (ω)d s (ω). Możemy również określić dla V jeśli Wtedy [,t] [,t] [,t] X s d s := [,t] X s (ω)d s (ω) X s d(v () s ) < +. [,t] X s dφ() s X s dψ() s [,t] Lemat 4.5 Niech V i niech X będzie dowolnym procesem dla którego trajektorie X ( ) (ω), ω Ω są całkowalne (skończenie) na przedziale [, t] dla t względem s (ω) to całka Lebesgue a-stieltjesa (proces) jest cad i ma skończone wahanie. Y t (ω) = t X s (ω)d s (ω) Dowód. Własność cad procesu Y wynika z własności cad procesu oraz z własności całki Lebesgue a-stieltjesa. Oznaczmy X + = X, X = ( X), wtedy X = X + X.

4 Marek Beśka, Całka Stochastyczna, wykład 4 51 oraz U t = W t = t t X + s dφ() s + X + s dψ() s + t t X s dψ() s X s dφ() s są procesami rosnącymi i skończonymi na przedziale [, t] dla t. Zatem mają skończone wahanie, a stąd proces Y = U W ma także skończone wahanie. Zauważmy, że proces Y otrzymaliśmy biorąc całkę Lebesgue a-stieltjesa dla każdej trajektorii oddzielnie i dlatego nie ma powodów aby Y był adaptowany, opcjonalny czy prognozowalny. Żeby otrzymać powyższe własności musimy założyć coś więcej. Lemat 4.6 Zachodzą następujące fakty: 1. Niech V. Jeśli X jest opcjonalny i całka Lebesgue a-stieltjesa Y t = t X s d s, t istnieje (i jest skończona), to Y jest opcjonalny. 2. Niech V. Jeśli X i są prognozowalne i całka Lebesgue a-stieltjesa Y t = t X s d s, t istnieje (i jest skończona), to Y jest prognozowalny. Dowód. Przystąpmy do dowodu 1. Zauważmy najpierw, że V jest opcjonalny oraz V () jest też opcjonalny (bo V () jest cadlag i adaptowany), a więc φ() i ψ() są też opcjonalne. Stąd jeśli zastąpimy przez φ() i ψ() to wystarczy wykazać nasz lemat dla elementów z V +. W dowodzie zastosujemy twierdzenie o klasach monotonicznych. Niech H := { X : t X s d s jest opcjonalny. Zauważmy, że H spełnia założenia twierdzenia o klasach monotonicznych, bo Y t = t 1d s = t = t opcjonalny 1 H i H jest zamknięta na monotoniczne granice. Jako klasę multiplikatywną wystarczy przyjąć zbiór indykatorów przedziałów stachastycznych [[S, [[, gdzie S jest czasem zatrzymania.

5 Marek Beśka, Całka Stochastyczna, wykład 4 52 Niech więc X = I [[S, [[. t I [[S, [[ (s, ω)d s (ω) = = I [[S, [[ [[,t]] (s, ω)d s (ω) I {S t (ω)i [[S,t]] (s, ω)d s (ω) = I {S t (ω)( t (ω) S (ω)) = I {S t (ω) t (ω) I {S t S (ω), gdzie (X ) t = X t = lim s t X s, (X ) = (jest on oczywiście procesem cag). Obie funkcje I {S t t oraz I {S t S są F t -mierzalne, S = ( ) S jest F S -mierzalny tak więc rozważana całka Lebesgue a- Stieltjesa jest adaptowanym procesem. Ponadto jest ona cadlag. Dowód drugiej części jest podobny do dowodu pierwszej. Zauważmy najpierw, że jeśli jest prognozowalny to V () jest prognozowalny, bo V t () = V t () + t t, t > i procesy V () i są cag i adaptowane, a więc prognozowalne. Z tego, że V () jest prognozowalny wynika, że φ() i ψ() są też prognozowalne. Stąd jeśli zastąpimy przez φ() i ψ() to wystarczy wykazać nasz lemat dla elementów z V +. Określmy H := { X : t X s d s jest prognozowalny. Zauważmy, że H spełnia założenia twierdzenia o klasach monotonicznych. Jako klasę multiplikatywną bierzemy procesy X postaci X = I ]]S, [[ lub X = I { F, gdzie F F. Jeśli X = I { F wtedy t X s d s =. Jeśli X = I ]]S, [[ to mamy t I ]]S, [[ (s, ω)d s (ω) = = I ]]S, [[ ]],t]] (s, ω)d s (ω) I {S<t (ω)i ]]S,t]] (s, ω)d s (ω) = I {S<t (ω) t (ω) I {S<t S (ω),

6 Marek Beśka, Całka Stochastyczna, wykład 4 53 Proces I {S< jest cag i adaptowany, jest prognozowalny, więc I {S< ( ) jest prognozowalny. Proces I {S< S jest adaptowany (z definicji F S ) i cag, tak więc jest prognozowalny. Rozważmy X V. Ponieważ X jest cadlag, stąd dla t, n 1 i dla ω Ω zbiór { s t : X s (ω) > 1 n zbiór jest skończony. Zatem zbiór {s t : X s jest przeliczalny. Możemy więc rozważać sumy X s I { Xs. s t Zauważmy, że ( ) X s I { Xs = sup X s I { Xs > 1 s t n N n V t (X) < + s t Stąd możemy określić dla X V proces X d wzorem X d t = s t X s I { Xs nazywany nieciągłą częścią procesu X. Stąd V t (X d ) = s t X s I { Xs Część ciągłą procesu określamy jako X c = X X d. Zauważmy, że ( Xt c = lim X t ) X s I n { Xs > 1 n s t jest ciągłym procesem oraz V t (X) = V t (X c ) + V t (X d ). Rozważmy proces X taki, że X + i X mają skończenie całkowalne trajektorie. = c to całka t X s (ω) d s (ω) jest ciągła, jeśli proces posiada skoki s to całka Lebesgue a-stieltjesa też ma skoki postaci ( ) X s (ω) d s (ω) = X t (ω) t (ω). t Na koniec tego wykładu określmy klasę + jako zbiór tych procesów V + dla których jest całkowalny. Oczywiście określamy również = + +. Przez loc oznaczamy zbiór procesów dla których istnieje ciąg lokalizacyjny {T n n N, że dla każdego n IN zachodzi Tn. Jeśli

7 Marek Beśka, Całka Stochastyczna, wykład Martyngały, submartyngały i supermartyngały z czasem ciągłym Definicja 4.7 Niech dana będzie baza zupełna (Ω, F, P ) z filtracją {F t t I, gdzie I = [a, b] [, + ]. daptowany proces X : I Ω IR nazywamy martyngałem jeśli 1. E X t < + dla każdego t I; 2. E[X t F s ] = X s dla wszystkich s t, s, t I. daptowany proces X : I Ω IR nazywamy submartyngałem jeśli 1. E X t < + dla każdego t I; 2. E[X t F s ] X s dla wszystkich s t, s, t I. daptowany proces X : I Ω IR nazywamy supermartyngałem jeśli 1. E X t < + dla każdego t I; 2. E[X t F s ] X s dla wszystkich s t, s, t I. Przykłady: 1. Niech Y będzie całkowalną (E Y < ) zmienną losową na (Ω, F, P ), to proces X t = E[Y F t ], t [, + ] jest martyngałem. 2. Jeśli X jest supermartyngałem to X jest submartyngałem i odwrotnie. 3. Niech X będzie submartyngałem. Jeśli f jest niemalejącą wypukłą funkcją taką, że E[ f(x t ) ] < + dla każdego t I wówczas proces Z t = f(x t ) jest submartyngałem. Jeśli X jest martyngałem to własność niemalenia f może zostać opuszczona. Stąd mamy Jeśli X jest submartyngałem, to X a (a IR) jest także submartyngałem (w szczególności X + jest wtedy submartyngałem) Jeśli X jest supermartyngałem, to X jest submartyngałem. Jeśli X jest martyngałem i E X p < dla p 1 to Y = X p jest submartyngałem. 4. Każdy martyngał (X n, F n ) n N { z dyskretnym czasem może być rozsze rzony do martyngału z czasem ciągłym. Określmy F t = F n dla t [n, n + 1[, n, X t = X n dla t [n, n + 1[ n. Tak otrzymany proces {X t t jest cadlag martyngałem.

8 Marek Beśka, Całka Stochastyczna, wykład Niech P i Q będą miarami probabilistycznymi na (Ω, F), takimi, że Q << P (Q jest absolutnie ciągła względem P ). Niech {F t R + będzie filtracją względem miary P (o własnościach podanych na pierwszym wykładzie). Przez P t i Q t oznaczmy obcięcia P i Q do (Ω, F t ). Rozważmy pochodną Radona-Nikodyma Y = dq dp, Y t = dq t dp t, t IR +. Proces {Y t t [, ] jest P -martyngałem, ponieważ dla każdego F t mamy E[Y F t ] dp = Y dp = Q() = Q t () = Y t dp t = Y t dp. Zatem Y t = E[Y F t ], dla t [, ]. Jeśli założymy dodatkowo, że P << Q to 1/Y jest Q-martyngałem i dla każdego t i F t mamy dq t dq t dp t Q t () = dp t = dq t. dp t dp t dq t Stąd dla każdego t dq t dp t dp t dq t = 1, P p.w.. 6. Proces X nazywamy procesem z niezależnymi przyrostami, jeśli jest adaptowany i przyrosty X t X s dla każdego s i t (s < t) są niezależne od F s. Od razu zauważmy, że jeśli E X t <, t IR + i EX s = EX t dla s, t IR + to X jest martyngałem, bo dla s < t mamy E[X t F s ] = X s + E[X t X s F s ] = X s + E[X t X s ] = X s Jeśli X (X = ) jest cadlag procesem o niezależnych przyrostach nie mającym stałych punktów nieciągłości (tj. dla każdego t mamy P { X t = ) wtedy dla u IR funkcja g(t) = E exp(iux t ) jest ciągła i nigdzie się nie zeruje. Proces Z u t = exp(iux t) E exp(iux t ), t jest martyngałem. W celu udowodnienia tych własności ustalmy u IR i t. Określmy g t = E[exp iux t ], h s,t = E[exp iu(x t X s )]. Z założenia mamy, że X t =, P -p.w. to jest X jest ciągły według prawdopodobieństwa. Stąd g t i h s,t są ciągłe wględem t i s, t odpowiednio. Ponieważ X ma niezależne przyrosty, więc dla s < t mamy g t = g s h s,t.

9 Marek Beśka, Całka Stochastyczna, wykład 4 56 Niech T będzie określone wzorem T = inf{t : g t =. Jeśli T < + wtedy g s dla s < T i z ciągłości g t mamy g T h s,t = dla s < T i h T T =. le =. Tak więc h T T = E[exp iu(x T X T )] = 1, co daje sprzeczność. Zatem T = + i g t nigdzie się nie zeruje. Wykażemy teraz że Zt u jest martyngałem. Mamy dla s < t Zt u = exp(iux t) E exp(iux t ) = exp(iux s) E exp(iux s ) = Zs u exp[iu(x t X s )] E exp[iu(x t X s )] exp[iu(x t X s )] E exp[iu(x t X s )] Stąd E[Z u t F s ] = Z u s E exp[iu(x t X s )] E exp[iu(x t X s )] = Zu s. 7. Proces X o niezależnych przyrostach nazywamy procesem Poissona jeśli X = oraz istnieje rosnąca ciągła funkcja F taka, że dla dowolnych s < t zmienna losowa X t X s ma rozkład Poissona z parametrem F (t) F (s). Podamy teraz kilka własności procesu Poissona. Istnieje modyfikacja procesu Poissona X, której trajektorie sa cadlag i o wartościach w IN. P -p.w trajektorie sa niemalejące i punkty wzrostu są skokami o całkowitych wielkościach. Jeśli lim t F (t) = + to trajektorie nie są ciągłe Proces Poissona nie ma stałych punktów nieciągłości. Gdy F (t) = λt, λ > (standardowy proces Poissona) to prawdopodobieństwo, że skok w danym skończonym przedziale jest większy od jedynki jest równe zero. Z procesem Poissona związane są dwa martyngały. Y t = X t F (t) oraz Z t = ( X t F (t) ) 2 F (t).

10 Marek Beśka, Całka Stochastyczna, wykład 4 57 Rzeczywiście, niech s t wtedy E[Y t Y s F s ] = E[X t F (t) ( X s F (s) ) F s ] = E[X t X s F s ] F (t) F (s) = E[X t X s ] F (t) + F (s) =. by sprawdzić, żę Z t jest martyngałem zauważmy E[ ( X t F (t) ) 2 ( F (t) Xs F (s) ) 2 + F (s) Fs ] = E[ ( X t F (t) ) 2 ( Xs F (s) ) 2 Fs ] F (t) + F (s) = E[ ( (X t F (t)) (X s F (s)) ) 2 Fs ] F (t) + F (s) = 8. Proces B nazywamy ruchem Browna (względem filtracji {F t ) jeśli. B = B jest procesem o niezależnych przyrostem i stcjonarnym to jest rozkład B t B s zależy tylko od różnicy t s (t > s.) Przyrosty B t B s mają rozkład normalny N(, σ 2 (t s)) (t > s). Trajektorie są ciągłe. Gdy σ = 1 proces B nazywamy standardowym ruchem Browna. Jak łatwo zauważyć ruch Browna jest martyngałem E[B t B s F s ] = E[B t B s ] = dla s t. Związny z nim jest jescze jeden martyngał Rzeczywiście dla s t mamy Y t = B 2 t σ 2 t, t IR +. E[Y t Y s F s ] = E[B 2 t B 2 s σ 2 (t s) F s ] = E[(B t B s ) 2 σ 2 (t s) F s ] = σ 2 (t s) σ 2 (t s) =. Fakt. Niech (X n, F)n) n będzie submartyngalem (dyskretnym) oraz T i : Ω IN { dla i = 1, 2,..., m będą czasami czasami zatrzymania takimi, że T 1 T 2,... T m N IN. Wtedy (X Ti, F Ti ) m i=1 jest submartyngałem. Dowód. Mamy E X Ti = N k= {T i =k X k dp N E X k <. k=

11 Marek Beśka, Całka Stochastyczna, wykład 4 58 Dla a IR mamy {X Ti a {T i = k = {X k a {T i = k F k, zatem X Ti jest F Ti mierzalna zmienna losową. Dla zakończenia dowodu trzeba jeszcze udowodnić dla i = 1, 2,..., m 1 nierówność E(X Ti+1 F Ti ) X Ti lub równoważną X Ti+1 dp F F X Ti dp dla F F Ti. Ponieważ F = N k= {T i = k F, więc wystarczy wykazać X Ti+1 dp X Ti dp dla k =, 1,..., N. F {T i =k F {T i =k Ostatnią nierówność możemy zapisać w postaci X Ti+1 N dp X Ti+1 k dp dla k =, 1,..., N 1. F {T i =k F {T i =k Dla dowodu której wystarczy dla k s N 1 wykazać X Ti+1 s dp X Ti+1 (s+1) dp dla k =, 1,..., N 1. F {T i =k F {T i =k Mamy X Ti+1 s dp = F {T i =k F {T i =k {T i+1 >s F {T i =k {T i+1 >s F {T i =k {T i+1 >s F {T i =k {T i+1 s+1 X Ti+1 s dp = X s dp X s+1 dp = F {T i =k {T i+1 s X s+1 dp = F {T i =k {T i+1 <s+1 F {T i =k {T i+1 <s+1 F {T i =k {T i+1 <s+1 F {T i =k Dowód Faktu został zakończony. Uwaga. Przy założeniach jak w powyższym Fakcie mamy X Ti+1 s dp + X Ti+1 dp + X Ti+1 dp + X Ti+1 dp + X Ti+1 (s+1) dp. (4.3) E(X Ti ) E(X Ti+1 ), i = 1, 2,..., m 1.

12 Marek Beśka, Całka Stochastyczna, wykład 4 59 Twierdzenie 4.8 Niech I = [a, b] [, ]. 1. Jeśli X jest cad submartyngałem na I to dla każdego λ > zachodzą nierówności: (i) (ii) P {sup t I X t > λ 1 λ E[ ] 1 X b I {sup t I X t>λ λ E[X+ b ]. P { inf t I X t < λ 1 ( E[X a ] + E [ X b I λ { inf t I X t λ] ). 2. Jeśli Y jest cad supermartyngałem na I, to dla λ > mamy nierówność P { sup t I Y t > λ 1 ( E[Y a ] E [ Y b I λ { sup t I Y t λ] ). 3. Jeśli proces X jest cad martyngałem (lub dodatnim cad submartyngałem) na I oraz E[ X t p ] <, t dla pewnego 1 < p < to E [ sup t I X t p] ( ) p p ( ) p p sup E[ X t p ] = E[ X b p ]. p 1 t I p 1 Dowód. 1(i). Ustalmy λ >. Niech F = {t 1,..., t n I = [a, b]. Określmy { inf{t F : Xt > λ, gdy istnieje t F takie, że X T 1 = t > λ, b gdy nie istnieje t F takie, że X t > λ oraz T 2 b. Wtedy T 1 T 2. Stąd i z (4.3) mamy Stąd Zatem E(X b ) = E(X T2 ) E(X T1 ) = E(X T1 I {supt F X t>λ)+ E(X T1 I {supt F X t λ) = E(X T1 I {supt F X t>λ) + E(X b I {supt F X t λ). {sup t F X t>λ { P sup t F { X b dp E(X T1 I {supt F X t>λ) λp sup t F X t > λ 1 λ E[ ] 1 X b I {sup t F X t>λ λ E[X+ b ]. X t > λ. Niech teraz {F n n 1 będzie ciągiem skończonych zbiorów F n I, F n F n+1, n 1 takich, że n=1 F n = K = Q I {b. Zachodzi wzór { { sup X t > λ = t F n n=1 Mając na uwadze powyższy wzór dostajemy { { (4.4) P sup X t > λ = lim P sup X t > λ t K n t F n sup t K X t > λ. 1 lim n λ E[ ] X b I {sup t Fn X t>λ.

13 Marek Beśka, Całka Stochastyczna, wykład 4 6 Stosując teraz do prawej strony (4.4) twierdzenie Lebesgue a o zbieżności majoryzowanej otrzymujemy ostatecznie { P sup t K X t > λ 1 λ E[ ] 1 X b I {sup t K X t>λ λ E(X+ b ). Ponieważ X jest cad, więc { sup t K { X t > λ = sup X t > λ, t I co kończy dowód 1(i). Przejdziemy teraz do dowodu 1(ii). Ustalmy λ >. Niech F = {t 1,..., t n I = [a, b]. Określmy T 1 = a oraz { inf{t F : Xt < λ, gdy istnieje t F takie, że X T 2 = t < λ, b gdy nie istnieje t F takie, że X t < λ. Mamy T 2 T 1, stąd i z (4.3) dostajemy E(X T2 ) E(X T1 ) = EX a. Zatem EX a E(X T2 I {inft F X t< λ) + E(X T2 I {inft F X t λ) Powyższa nierówność jest równoważna E(X T2 I {inft F X t< λ) EX a + E(X T2 I {inft F X t λ), z której otrzymujemy { λp inf X t < λ E(X T2 I {inft F X t F t< λ) EX a + E(X b I {inft F X t λ). Niech teraz {F n n 1 będzie ciągiem skończonych zbiorów F n I, F n F n+1, n 1 takich, że n=1 F n = K = Q I {b. Zachodzi wzór { { inf X t < λ = inf X t < λ. t F n t K n=1 Mając na uwadze powyższy wzór dostajemy { { P inf X t < λ = lim P inf X t < λ t K n t F n (4.5) 1 [ lim EXa + E(X b I n λ {inft Fn Xt λ ) ]. Stosując teraz do prawej strony (4.5) twierdzenie Lebesgue a o zbieżności majoryzowanej otrzymujemy ostatecznie { P inf X t < λ 1 EXa + E(X b I t K λ[ ] {inft K X t λ).

14 Marek Beśka, Całka Stochastyczna, wykład 4 61 Ponieważ X jest cad, więc { inf X t < λ = t K { inf X t < λ, t I co kończy dowód 1(ii). by udowodnić część 2 twierdzenia zauważmy, że Y jest cad submartyngałem. Stosując teraz do niego wzór 1(ii) dostajemy tezę. Pozostała nam do udowodnienia część 3 twierdzenia. Niech więc X będzie cad martyngałem lub nieujemnym cad submartyngałem. Wtedy { X t t jest submartyngałem. Stosując do niego wzór z części 1(i) otrzymujemy (4.6) λp {Y > λ E( X b I {Y >λ ), gdzie Y = sup t I X t. Ustalmy L >. Mamy E(Y L) p = pt p 1 P {Y L > t dt = L pt p 1 P {Y L > t dt = L pt p 1 P {Y > t dt Stosując do powyższej równości nierówność (4.6), całkując po t i stosując nierówność Höldera dostajemy gdzie q = Stąd E(Y L) p p p 1 Ω L pt p 1 1 t {Y >t X b dp dt = Ω X b Y L pt p 2 dt dp = X b (Y L) p 1 dp p ( ) 1 ( ) 1 X b p p dp (Y L) (p 1)q q dp, p 1 Ω Ω p p 1. Po uproszczeniu otrzymujemy Ω (Y L) p dp p ( ) 1 ( ) 1 X b p p dp (Y L) p q dp. p 1 Ω Ω E[(Y L) p ] Przechodząc z L dostajemy ( p ) pe Xb E(Y p ) p = p 1 ( p ) pe Xb p. p 1 ( p p 1 ) p sup E( X t p ). t I Definicja 4.9 Rodzinę zmiennych losowych {X t t T nazywamy jednostajnie całkowalną jeśli lim sup X t dp = λ + t T { X t >λ

15 Marek Beśka, Całka Stochastyczna, wykład 4 62 Wniosek 4.1 Jeśli proces X jest cad martyngałem (lub dodatnim cad submartyngałem) na I = [a, b] [, ] to rodzina {X t t I jest jednostajnie całkowalna. Dowód. Zachodzi nierówność X t dp { X t >λ Z twierdzenia 4.8 część 1(i) mamy { X t >λ X b dp {sup t I X t >λ P {sup t I X t > λ 1 λ E[ X b ], λ. X b dp. Teraz tezę otrzymujemy z twierdzenia o absolutnej ciągłości całki. Twierdzenie 4.11 Każdy cad submartyngał X = {X t t jest cadlag submartyngałem. Twierdzenie 4.12 Submartyngał X = {X t t ma cad modyfikację wtedy i tylko wtedy, gdy funkcja F (t) = E[X t ] jest prawostronnie ciągła. Z tych dwóch twierdzeń wynika następujący wniosek: Każdy martyngał X = {X t t posiada cadlag modyfikację, dlatego od tego momentu będziemy zawsze zakładać, że rozważane martyngały są cadlag. Twierdzenie 4.13 Zachodzą następujące fakty: (a) Niech {X t t będzie cad submartyngałem takim, że sup E[X t + ] < +. t Wtedy istnieje (skończenie całkowalna) granica lim t X t, P -p.w. (b) Jeśli {X t jest cad submartyngałem i {X t + jest jednostajnie całkowalny to X jest zbieżny P -p.w. do skończenie całkowalnej zmiennej losowej X oraz E[X F t ] X t. (c) Jeśli {X t t jest jednostajnie całkowalnym martyngałem wtedy X jest zbieżny P -p.w. do skończenie całkowalnej zmiennej losowej X oraz E[X F t ] = X t.

16 Marek Beśka, Całka Stochastyczna, wykład 4 63 Dowód. Dowód (a) wynika z odpowiedniego twierdzenia dla martyngałów dyskretnych. Dla dowodu (b) zauważmy, że z jednostajnej całkowalności {X t + wynika, że sup E[X t + ] < +. t R + Z pierwszej części wynika, że X t X P -p.w. co z kolei pociąga zbieżność X t + P -p.w. a to razem z jednostajną całkowalnością {X t + daje zbieżność X + t Dla F t i dla każdego s mamy X t dp X t+s dp = t X+ w L 1. X + t+s dp X t+s dp. X + Stąd ( ) X t dp lim sup X t+s + dp Xt+s dp = X + dp lim inf X s s t+s dp. Stosując lemat Fatou do prawej strony otrzymujemy X t dp X + dp X dp = X dp. Co kończy dowód (b). Dla dowodu (c) trzeba zastosować (b) do X i do X. Podobne twierdzenie można otrzymać zastępując [, ) przedziałem [a, b). Twierdzenie 4.14 Niech {X t t I, gdzie I = [a, b), a, b [, ] będzie martyngałem. Następujące warunki są równoważne: (i) Istnieje granica lim t b X t w sensie zbieżności L 1. (ii) Istnieje całkowalna (skończenie) zmienna losowa X taka, że E[X F t ] = X t, dla t I. (iii) Rodzina {X t t I jest jednostajnie całkowalna. Każdy z tych warunków implikuje zbieżność {X t t I w L 1 gdy t b oraz [ ] X s = E lim X t Fs t b dla każdego s I. Ponadto, jeśli sup E [ X t p] < + t I dla pewnego p > 1 to warunki (i) (iii) zachodzą oraz lim t b X t istnieje w sensie zbieżności w L p.

17 Marek Beśka, Całka Stochastyczna, wykład 4 64 Dowód. (i) (ii) Niech s, t I,s < t, F s. Ponieważ X t X b w L 1 (X b := lim t b X t w L 1 ), stąd I X t I X b w L 1 i (ii) (iii) Wynika z wniosku 4.1. E[I X b ] = lim t b E[I X t ] = E[I X s ] (iii) (i) Jeśli {X t t I jest jednostajnie całkowalna to sup E [ X t ] < +. t I Stąd i z twierdzenia 4.13 wynika zbieżność P -p.w co z jednostajną całkowalnością daje zbieżność w L 1. Jeśli to z twierdzenia 4.8 część 3 dostajemy E[sup X t p ] t I [ sup E X t p] < +. t I ( p p 1 ) p sup E[ X t p ] < +. t I Stąd { X t p t I jest jednostajnie całkowalna, a zatem martyngał X jest zbieżny w L p. Twierdzenie 4.15 (GST) (i) Niech X = {X t t będzie cad supermartyngałem o własności: Istnieje skończenie całkowalna zmienna losowa Y taka, że X t E[Y F t ], t. Jeśli S i T są czasami zatrzymania i S T, to zmienne losowe X S i X T całkowalne oraz zachodzi nierówność są skończenie X S E[X T F S ]. (ii) Niech X = {X t t będzie cad submartyngałem o własności: Istnieje skończenie całkowalna zmienna losowa Y taka, że X t E[Y F t ], t. Jeśli S i T są czasami zatrzymania i S T, to zmienne losowe X S i X T całkowalne oraz zachodzi nierówność są skończenie X S E[X T F S ]. (iii) Niech X = {X t t będzie (cadlag) martyngałem z własnością:

18 Marek Beśka, Całka Stochastyczna, wykład 4 65 Istnieją skończenie całkowalne zmienne losowe Y 1, Y 2 takie, że E[Y 1 F t ] X t E[Y 2 F t ], t. oraz niech S i T będą czasami zatrzymania i S T. Wtedy zmienne losowe X S i X T są skończenie całkowalne oraz zachodzi równość X S = E[X T F S ]. Podobne twierdzenie można otrzymać zastępując [, ) przedziałem [a, b). Uwaga. Z lematu 1.15 wynika, że tezę GST możemy zapisać w postaci np. dla martyngału: Dla dowolnych czasów zatrzymania S i T zmienne losowe X S i X T są skończenie całkowalne oraz E(X T F S ) = E ( E(X T F T ) F S ) = E(XT F T S ) = X T S. Wniosek 4.16 Niech X = {X t t będzie cad submartyngałem i T 1, T 2 będą czasami zatrzymania oraz T 1 T 2. Każdy z poniższych warunków: (i) Istnieje t > takie, że T 2 t ; (ii) Rodzina {X + t t jest jednostajnie całkowalna implikuje skończoną całkowalność X T1 i X T2 oraz nierówność X T1 E[X T2 F T1 ]. Dowód. Załóżmy, że zachodzi (i). Wtedy dla przedziału [, t ) dostajemy X s E(X t F t ), s [, t ). Stąd z i twierdzenia 4.15 dostajemy tezę. Załóżmy, że (ii) zachodzi. Wtedy z twierdzenia 4.13 (b) mamy X t E(X F t ), t. Stosując teraz twierdzenie 4.15 dostajemy tezę. Wniosek 4.17 Niech X będzie cad submartyngałem, a T czasem zatrzymania. Proces X T jest submartngałem względem filtracji {F t T t. Dowód. Dla każdego s t mamy T s T t t. Zatem założenie (i) wniosku 4.16 jest spełnione dla czasów zatrzymania T s i T t.

19 Marek Beśka, Całka Stochastyczna, wykład 4 66 Wniosek 4.18 Niech X będzie cad submartyngałem, a T czasem zatrzymania. Proces X T jest submartngałem względem filtracji {F t t. Dowód. Niech s t. Z wniosku 4.17 i z równości (lemat 1.15) E[E[X F T ] F S ] = E[X F S T ] zastosowanej dla X := X T t, T := T t, S := s mamy E[X T t F s ] = E[E[X T t F T t ] F s ] = E[X T t F T s ] X T s Definicja 4.19 Rodzinę wszystkich jednostajnie całkowalnych cadlag martyngałów będziemy oznaczać przez M. Wniosek 4.2 Niech T będzie czasem zatrzymania. Jeśli X M to X T M. Dowód. Ponieważ X jest jednostajnie całkowalny to istnieje skończenie całkowalna zmienna losowa X taka, że X = {X t t jest martyngałem tzn. X t = E(X F t ), t. Stosując teraz ogólne twierdzenie o stopowaniu (twierdzenie 4.15) dla T i dla T t mamy E[X T F t ] = E[E[X T F T ] F t ] = E[X T F T t ] = X T t Stąd rodzina {X T t t jest jednostajnie całkowalna. Wniosek 4.21 Niech X będzie adaptowanym cadlag procesem na [, ] Ω takim, że E[ X T ] < + oraz E[X T ] = dla każdego czasu zatrzymania T, to X M. Dowód. Niech t i F t i T = t. Zachodzi równość (4.7) X t dp + X dp = E[X T ] =. Dla T = + mamy (4.8) Z (4.7) i z (4.8) mamy dla wszystkich F t, czyli I dowód jest zakończony. X dp + X dp = E[X T ] =. X dp = X t dp X t = E[X F t ].

20 Marek Beśka, Całka Stochastyczna, wykład Twierdzenia o rozkładzie Definicja 4.22 Mówimy, że cad proces X należy do klasy D jeśli rodzina {X T T Λ gdzie Λ jest zbiorem wszystkich skończonych czasów zatrzymania jest jednostajnie całkowalna. Można udowodnić, że M D oraz + D. Przy konstrukcji całki stochastycznej ważną rolę odgrywa następujące twierdzenie o rozkładzie Twierdzenie 4.23 (Doob-Meyer) Niech X będzie cad supermartyngałem należącym do klasy D. Istnieje jedyny prognozowalny rosnący proces należący do klasy + taki, że X+ jest jednostajnie całkowalnym martyngałem tj. X = M, gdzie X D, M M, +. Jeśli X jest ciągły to M i też są ciągłe. Korzystając z tego twierdzenia można udowodnić Twierdzenie 4.24 (Dellacherie) Niech. Istnieje jedyny prognozowalny à taki, że à M. Jeśli B jest standardowym ruchem Browna to jak już nam wiadomo proces {B 2 t t t R + jest martyngałem. Tak więc B 2 można przedstawić w postaci sumy prognozowalnego procesu {t i martyngału {B 2 t. le wartość oczekiwana E[B 2 t ] = t gdy t. Tak więc {B 2 t nie jest jednostajnie całkowalny. Zachodzi więc potrzeba rozszerzenia twierdznie o rozkładzie dla szerszej klasy. Definicja 4.25 Proces X nazywamy lokalnym martyngałem, jeśli jest cadlag oraz istnieje lokalizacyjny ciąg czasów zatrzymania {T n taki, że dla każdego n IN mamy X Tn M. Zbiór lokalnych martyngałów będziemy oznaczać przez M loc. Lemat 4.26 Każdy martyngał jest lokalnym martyngałem. Dowód. Rozważmy ciąg czasów zatrzymania T n = n dla n IN. Z wniosku 4.18 dla każdego n proces X Tn jest martyngałem. Udowodnimy, że jest on jednostajnie całkowalny. Mamy (X Tn ) = X n, a stąd X Tn s = X s n = E[X n F s ] = E[X Tn F s ]. Zatem X Tn M. Podobnie określamy lokalne submartyngały i lokalne supermartyngały.

21 Marek Beśka, Całka Stochastyczna, wykład 4 68 Twierdzenie 4.27 Niech X będzie cad lokalnym supermartyngałem lub lokalnym submartyngałem to X D loc. Dowód. Załóżmy, że X = {X t t jest cad lokalnym supermartyngałem. Na mocy założenia istnieje ciąg lokalizacyjny {T n taki, że X Tn jest supermartyngałem dla każdego n IN. Określmy S n = inf{t : X t > n, oraz R n = T n S n n. Zauważmy, że R n +. Zatrzymany proces X Rn = ( X Tn) S n n jest supermartyngałem, bo dla każdego s takiego, że s t mamy (z wniosku 4.18) Stąd dla t > n dostajemy E[X Rn t F s ] X Rn s (4.9) E[X Rn F s ] X Rn s n + X + R n, a stąd X Rn s n + X + R n + E[ X Rn F s ] Zmienna losowa n + X + R n jest skończenie całkowalna i rodzina {E[ X Rn F t ] t jest jednostajnie całkowalna, więc z (4.9) rodzina {X Rn t t jest jednostajnie całkowalna. Tak więc możemy stosować ogólne twierdzenie o stopowaniu dla T 1 = + i dla dowolnego skończonego czasu zatrzymania T. Mamy E[X Rn F T ] X Rn T n + X + R n. Stąd rozumując podobnie jak poprzednio dostajemy jednostajną całkowalność rodziny {X Rn T T Λ. Co kończy dowód twierdzenia dla lokalnych supermartyngałów. Gdy X jest lokalnym submartyngałem, to X jest lokalnym supermartyngałem i wystarczy zastosować już udowodnioną część twierdzenia. Twierdzenie 4.28 Niech X będzie cad lokalnym supermartyngałem. Wtedy istnieje jedyny prognozowalny rosnący proces + loc taki, że X + M loc. Dowód. Ponieważ X jest lokalnym supermartyngałem, więc istnieje ciąg lokalizacyjny {T n n 1 taki, że dla każdego n 1 X Tn jest supermartyngałem, a z twierdzenia 4.27 wynika, że X Tn D loc tzn. istnieje ciag lokalizacyjny {S n n 1 taki, że (X Tn ) Sn = X Tn Sn D. Z wniosku 4.18 (X Tn ) Sn jest supermartyngałem. Zatem z twierdzenia Dooba-Meyera (przyjmujemy R n = T n S n, n 1) otrzymujemy dla każdego n 1 X Rn = M (n) (n), gdzie M (n) M, (n) +, prognozowalny. Stąd m n mamy M (m) (m) = X Rm = (X Rn ) Rm = (M (n) ) Rm ( (n) ) Rm.

22 Marek Beśka, Całka Stochastyczna, wykład 4 69 Zatem dla m n z jednoznaczności rozkładu w twierdzeniu Dooba-Meyera dostajemy (4.1) M (m) = (M (n) ) Rm, (m) = ( (n) ) Rm. Możemy określić teraz procesy M i, mianowicie dla ustalonego t istnieje m takie, że t R m. Zatem przyjmujemy M t = M (m) t, t = (m) t. Z (4.1) wynika, że są one dobrze określone, bo dla t R m R n mamy M t = M (m) t = (M (n) ) Rm t = M (n) R m t = M (n) t. Podobnie t = (m) t = ( (n) ) Rm t = (n) R m t = (n) t. Z definicji M i oraz jeszcze raz z jednoznaczności rozkładu Dooba-Meyera mamy M Rn t = M (n) t, M (n) M, zatem M M loc oraz Rn t = (n) t, (n) +, zatem + loc, gdzie jest prognozowalny, bo takie były (n) dla n 1. Mamy więc rozkład Jednoznaczność rozkładu. Niech X = M, gdzie M M loc, + loc. oraz X = M (1) (1), gdzie M (1) M loc, (1) + loc X = M (2) (2), gdzie M (2) M loc, (2) + loc Ponadto niech {T n n 1, {S n n 1, {R n n 1, {V n n 1, {W n n 1 będą ciągami lokalizacyjnymi dla X, M (1), M (2), (1), (2) odpowiednio. Określmy Z n = T n S n R n V n W n, n 1. Wtedy (M (1) ) Zn,(M (2) ) Zn M, ( (1) ) Zn,( (2) ) Zn + dla n 1 oraz (M (1) ) Zn ( (1) ) Zn = (M (2) ) Zn ( (2) ) Zn, n 1. Z jednoznaczności rozkład Dooba-Meyera mamy dla n 1 (M (1) ) Zn = (M (2) ) Zn, ( (1) ) Zn = ( (2) ) Zn. ponieważ Z n, gdy n, zatem dla t mamy M (1) t = M (2) t, (1) t = (2) t. Twierdzenie to posiada następujące uogólnienie (rozkład Meyera-Dellacherie)

23 Marek Beśka, Całka Stochastyczna, wykład 4 7 Twierdzenie 4.29 Niech loc, wtedy istnieje jedyny prognozowalny à loc (kompensator) taki, że à M loc. Przykład. Proces Poissona X należy do loc oraz X t F (t) M loc (bo jest martyngałem). Tak więc F jest prognozowalnym kompensatorem procesu X Definicja 4.3 Proces X nazywamy semimartyngałem jeśli jest cadlag i istnieje reprezentacja X = X + M +, gdzie X jest zmienną losową F - mierzalną, M M loc, M = i V. Jeśli loc to X nazywamy semimartyngałem specjalnym. Zauważmy, że (lokalny) supermartyngał i submartyngał są specjalnymi semimartyngałami. Twierdzenie 4.31 Niech = { t t będzie prognozowalnym procesem należącym do V +. Wtedy + loc oraz istnieje ciąg lokalizacyjny {T n n 1 taki, że dla każdego n 1 mamy Tn n. Dowód. Wystarczy znaleźć ciąg lokalizacyjny {T n n 1 taki, że Tn n, bo wtedy Tn jako, że E ( Tn ) = E ( Tn ) n. Rozważmy rodzinę zbiorów B n = {(t, ω) : t (ω) n, n 1. Każdy B n jest prognozowalny i zawiera wykres [[D Bn ]] (bo jest cad z definicji V + ), gdzie D Bn (ω) = inf{t : (t, ω) B n = inf{t : t (ω) n jest debiutem zbioru B n. Przyjmijmy S n = D Bn dla n 1. Z twierdzenia 3.19 S n dla n 1 są prognozowalnymi czasami zatrzymania. Dla każdego S n istnieje jego ciąg zapowiadający {S n,m m 1. Ponieważ S n > (bo jest cad) więc S n,m < S n. Określmy T n (ω) = sup S k,m (ω), ω Ω. k n m n Zauważmy, że {T n n 1 jest niemalejący, T n, gdy n, bo S n. Ponadto mamy T n (ω) < S n (ω), bo T n (ω) = S k,n (ω) < S k (ω) S n (ω) dla pewnego 1 k n, gdzie ω Ω. stąd t (ω) n dla t [, T n (ω)]. Zatem ciąg {T n n 1 spełnia żądania twierdzenia. Wniosek 4.32 Niech V będzie prognozowalnym procesem. Wtedy loc oraz istnieje istnieje ciąg lokalizacyjny {T n n 1 taki, że dla każdego n 1 mamy Tn n.

24 Marek Beśka, Całka Stochastyczna, wykład 4 71 Dowód. Rozkładamy = φ() ψ(), gdzie φ() = + V () 2 V +, ψ() = V () 2 V + i oba procesy są prognozowalne (patrz dowód lematu 4.6). Stosujemy twierdzenie 4.31 do 2φ() i 2ψ(). Niech {S n n 1 i {R n n 1 będą ciagami lokalizacyjnymi spełniającymi tezę twierdzenia 4.31 dla 2φ() i 2ψ() (odpowiednio). Zatem T n = S n R n, n 1 spełnia on warunki tezy wniosku. Twierdzenie 4.33 Mamy następujące własności: (i) M loc V = M loc loc. (ii) Jeśli X M loc V i jest prognozowalny, to X =. Dowód. (i) Ponieważ loc V, więc musimy wykazać, że M loc V M loc loc. Niech X M loc V. Istnieje ciag lokalizacyjny {T n n 1 taki, że X Tn M dla n 1. Określmy S n = inf{t : V t (X) > n, n 1. Ponieważ X V, więc V t (X) < dla t. Stąd R n = S n T n, gdy n. Ponadto V Rn (X) = V Rn (X) + X Rn n + X Rn n + X Rn + X Rn 2n + X Rn. Z założenia X Rn = X Tn S n jest skończenie całkowalne dla każdego n 1. Stąd V Rn (X) jest skończenie całkowalne dla każdego n 1 tzn. X loc. (ii) Niech X M loc V. Z (i) mamy X M loc loc. Rozważmy rozkład X = φ(x) ψ(x), gdzie φ(x) = X + V (X) 2 + loc, V (X) X ψ(x) = 2 + loc. Ponieważ X jest prognozowalny, to φ(x) i ψ(x) są też prognozowalne. Ponadto X = φ(x) ψ(x) M loc. Stąd ψ(x) jest prognozowalny kompensatorem φ(x). Z drugiej strony φ(x) jest również swoim prognozowalnym kompensatorem, bo φ(x) φ(x) = M loc. Z jednoznaczności kompensatora dostajemy φ(x) = ψ(x). Stąd X =. Z twierdzenia tego dostajemy natychmiast Wniosek 4.34 Jeśli X M c loc V, to X =. Lemat 4.35 (P. Lévy) Niech X będzie skończenie całkowalną zmienną losową na przestrzeni probabilistycznej (Ω, F, P ), a {F n n 1 dyskretną filtracją na niej. Wtedy E(X F n ) n E(X F ) P - p.w. i w L 1 (Ω, F, P ), gdzie F = n 1 F n.

25 Marek Beśka, Całka Stochastyczna, wykład 4 72 Dowód. Oznaczmy Y n = E(X F n ). Wtedy {Y n n 1 jest jednostajnie całkowalnym martyngałem (względem filtracji {F n n 1 ). Jak wiadomo wtedy martyngał ten jest zbieżny P - p.w. i w L 1 (Ω, F, P ) do pewnej F - mierzalnej zmiennej losowej Y. Wykażemy, że E(X F ) = Y, P - p.w. Niech F n 1 F n. Wtedy istnieje m 1 takie, że F F n, n m oraz Y n dp = E(X F n ) dp = X dp. n m Stąd i ze zbieżności {Y n n 1 w L 1 (Ω, F, P ) dostajemy (4.11) Y dp = X dp. F F F Jak wiadomo rodzina n 1 F n jest algebrą, a więc w szczególności π - układem. Natomiast (jak łatwo sprawdzić) rodzina tych F F, które spełniają (4.11) jest λ - układem. Z twierdzenia o π i λ - układach dostajemy tezę. Twierdzenie 4.36 Niech X M i niech T będzie prognozowalnym czasem zatrzymania. Wtedy (i) X T jest skończenie całkowalna. (ii) E ( X T F T ) = na {T >. Dowód. Niech {T n n 1 będzie ciągiem zapowiadającym prognozowalny czas zatrzymania T. Z wniosku 2.19 mamy F T = n 1 F Tn. F F Ponieważ X M, więc z ogólnego twierdzenia o stopowaniu (twierdzenie 4.15) mamy E ( X T X Tn F Tn ) =, n 1. Stąd {X Tn n 1 jest martyngałem (jednostajnie całkowalnym) względem {F Tn n 1. Zatem (X T X Tn )I {T > zmierza P - p.w. i w L 1 do X T I {T >. Stąd i z lemtu Lévy ego (lemat 4.35) otrzymujemy E ( I {T > X T F T ) = I{T > lim n E( X T F Tn ) = I {T > lim E( X T lim X ) ( ) T n m m F Tn = I{T > lim XTn X Tn =. n Lemat 4.37 Niech X + loc, a X niech będzie jego kompensatorem. Wtedy dla każdego prognozowalnego czasu zatrzymania T mamy X T = E( X T F T ) na {T <.

26 Marek Beśka, Całka Stochastyczna, wykład 4 73 Dowód. Niech {T n n 1 będzie ciągiem lokalizacyjnym dla X + loc (możemy go wybrać tak aby T n były dla n 1 skończone np. T n n). Wtedy M = X Tn Tn X M oraz z twierdzenia 4.36 i z tego, że M = mamy = E [ (X X) Tn T F T ] = E [ X T n T Tn X T F T ] = E [ X T n T F ] T XT n T, bo X Tn T Tn = X T Tn X T jest F T - mierzalne. Zatem mamy E [ X Tn T F T Stąd ({T T n F T ) dla n 1 dostajemy E [ X Tn T Powyższe równanie możemy zapisać w postaci ] = XT n T. I ] {T T n F T = XT n T I {T T n. E [ X T I {T Tn F T ] = XT I {T Tn, n 1. Stosując teraz twierdzenie Beppo-Levi dla warunkowych wartości oczekiwanych oraz korzystając z tego, że lim n I {T Tn = I {T < dostajemy E [ X T F T ] = XT na {T <. Twierdzenie 4.38 Niech X loc będzie procesem dopuszczającym skoki tylko w totalnie nieosiągalnych czasach stopu. Wtedy prognozowalny kompenstaor X procesu X ma ciągłe trajektorie. Odwrotnie, jeśli X + loc i X ma ciągłe trajektorie, to X dopuszcza skoki tylko w totalnie nieosiągalnych czasach zatrzymania. Dowód. Z twierdzenia 3.23 mamy = {X X = n 1[[T n ]], gdzie T n, n 1 są totalnie nieosiągalne. Stąd dla każdego prognozowalnego czasu zatrzymania T mamy [[T ]] =, czyli X T =. Ponieważ X = φ(x) ψ(x), gdzie φ(x), ψ(x) + loc oraz = X T = V T (X) = V T (X) + X T 2 + V T (X) X T 2 więc φ(x) T = ψ(x) T =. Stąd i z lematu 4.37 dostajemy na {T < = φ(x) T + ψ(x) T, φ(x) T = E [ φ(x) T F T ] =, ψ(x)t = E [ ψ(x) T F T ] =,

27 Marek Beśka, Całka Stochastyczna, wykład 4 74 co implikuje X T = φ(x) T ψ(x) T = na {T <. W szczególności X t = dla t. Załóżmy teraz, że X + loc oraz kompensator X ma ciągłe trajektorie i niech T będzie prognozowalnym czasem zatrzymania. Z lematu 4.37 mamy = X T = E [ ] X T F T na {T <. Stąd = E( X T I {T < ) = E( X T I {T < ), ale X T, P - p.w. na {T <. Zatem X T =, P - p.w. na {T <, więc skoki X nie obciążają żadnego prognozowalnego czasu zatrzymania. Tezę dostajemy teraz z wniosku Uwaga. Zauważmy, że przy założeniu X loc i X + loc ostatnia teza nie musi być prawdziwa. Rozważmy przykład: Niech X = M +, gdzie c loc oraz M M loc loc jest taki, że {, gdy t < 1, M t = Y, gdy t 1, gdzie Y jest F 1 - mierzalna zmienną losową taką, że E Y < i E(Y ) =. Zuważmy, że z rozkładu Mayera-Dellacherie mamy X =. Kompensator ma zatem ciągłe trajektorie ale proces X dopuszcza skoki w prognozowalnym czasie zatrzymania T 1.

F t+ := s>t. F s = F t.

F t+ := s>t. F s = F t. M. Beśka, Całka Stochastyczna, wykład 1 1 1 Wiadomości wstępne 1.1 Przestrzeń probabilistyczna z filtracją Niech (Ω, F, P ) będzie ustaloną przestrzenią probabilistyczną i niech F = {F t } t 0 będzie rodziną

Bardziej szczegółowo

8 Całka stochastyczna względem semimartyngałów

8 Całka stochastyczna względem semimartyngałów M. Beśka, Całka Stochastyczna, wykład 8 148 8 Całka stochastyczna względem semimartyngałów 8.1 Całka stochastyczna w M 2 Oznaczmy przez Ξ zbiór procesów postaci X t (ω) = ξ (ω)i {} (t) + n ξ i (ω)i (ti,

Bardziej szczegółowo

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ. Zadania z Procesów Stochastycznych 1 1. Udowodnij, że z prawdopodobieństwem 1 trajektorie procesu Poissona są niemalejące, przyjmują wartości z Z +, mają wszystkie skoki równe 1 oraz dążą do nieskończoności.

Bardziej szczegółowo

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ. Zadania z Procesów Stochastycznych 1 1. Udowodnij, że z prawdopodobieństwem 1 trajektorie procesu Poissona są niemalejące, przyjmują wartości z Z +, mają wszystkie skoki równe 1 oraz dążą do nieskończoności.

Bardziej szczegółowo

7 Twierdzenie Fubiniego

7 Twierdzenie Fubiniego M. Beśka, Wstęp do teorii miary, wykład 7 19 7 Twierdzenie Fubiniego 7.1 Miary produktowe Niech i będą niepustymi zbiorami. Przez oznaczmy produkt kartezjański i tj. zbiór = { (x, y : x y }. Niech E oraz

Bardziej szczegółowo

Teoria ze Wstępu do analizy stochastycznej

Teoria ze Wstępu do analizy stochastycznej eoria ze Wstępu do analizy stochastycznej Marcin Szumski 22 czerwca 21 1 Definicje 1. proces stochastyczny - rodzina zmiennych losowych X = (X t ) t 2. trajektoria - funkcja (losowa) t X t (ω) f : E 3.

Bardziej szczegółowo

A i. i=1. i=1. i=1. i=1. W dalszej części skryptu będziemy mieli najczęściej do czynienia z miarami określonymi na rodzinach, które są σ - algebrami.

A i. i=1. i=1. i=1. i=1. W dalszej części skryptu będziemy mieli najczęściej do czynienia z miarami określonymi na rodzinach, które są σ - algebrami. M. Beśka, Wstęp do teorii miary, rozdz. 3 25 3 Miara 3.1 Definicja miary i jej podstawowe własności Niech X będzie niepustym zbiorem, a A 2 X niepustą rodziną podzbiorów. Wtedy dowolne odwzorowanie : A

Bardziej szczegółowo

2 Rodziny zbiorów. 2.1 Algebry i σ - algebry zbiorów. M. Beśka, Wstęp do teorii miary, rozdz. 2 11

2 Rodziny zbiorów. 2.1 Algebry i σ - algebry zbiorów. M. Beśka, Wstęp do teorii miary, rozdz. 2 11 M. Beśka, Wstęp do teorii miary, rozdz. 2 11 2 Rodziny zbiorów 2.1 Algebry i σ - algebry zbiorów Niech X będzie niepustym zbiorem. Rodzinę indeksowaną zbiorów {A i } i I 2 X nazywamy rozbiciem zbioru X

Bardziej szczegółowo

Wykład 11: Martyngały: definicja, twierdzenia o zbieżności

Wykład 11: Martyngały: definicja, twierdzenia o zbieżności RAP 412 14.01.2009 Wykład 11: Martyngały: definicja, twierdzenia o zbieżności Wykładowca: Andrzej Ruciński Pisarz:Mirosława Jańczak 1 Wstęp Do tej pory zajmowaliśmy się ciągami zmiennych losowych (X n

Bardziej szczegółowo

Zadania ze Wstępu do Analizy Stochastycznej 1. = 0 p.n.

Zadania ze Wstępu do Analizy Stochastycznej 1. = 0 p.n. Zadania ze Wstępu do Analizy Stochastycznej 1 1. Znajdź rozkład zmiennej 5W 1 W 3 + W 7. 2. Dla jakich parametrów a i b, zmienne aw 1 W 2 oraz W 3 + bw 5 są niezależne? 3. Znajdź rozkład wektora losowego

Bardziej szczegółowo

Wykłady... b i a i. i=1. m(d k ) inf

Wykłady... b i a i. i=1. m(d k ) inf Wykłady... CŁKOWNIE FUNKCJI WIELU ZMIENNYCH Zaczniemy od konstrukcji całki na przedziale domkniętym. Konstrukcja ta jest, w gruncie rzeczy, powtórzeniem definicji całki na odcinku domkniętym w R 1. Przedziałem

Bardziej szczegółowo

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Niech Ω będzie przestrzenią zdarzeń elementarnych. Definicja 1 Rodzinę S zdarzeń losowych (zbiór S podzbiorów zbioru

Bardziej szczegółowo

21 maja, Mocna własność Markowa procesu Wienera. Procesy Stochastyczne, wykład 13, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126

21 maja, Mocna własność Markowa procesu Wienera. Procesy Stochastyczne, wykład 13, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126 Mocna własność Markowa procesu Wienera Procesy Stochastyczne, wykład 13, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126 21 maja, 2012 Mocna własność Markowa W = (W 1,..., W d ) oznaczać

Bardziej szczegółowo

Wykłady ostatnie. Rodzinę P podzbiorów przestrzeni X nazywamy σ - algebrą, jeżeli dla A, B P (2) A B P, (3) A \ B P,

Wykłady ostatnie. Rodzinę P podzbiorów przestrzeni X nazywamy σ - algebrą, jeżeli dla A, B P (2) A B P, (3) A \ B P, Wykłady ostatnie CAŁKA LBSGU A Zasadnicza różnica koncepcyjna między całką Riemanna i całką Lebesgue a polega na zamianie ról przestrzeni wartości i przestrzeni argumentów przy konstrukcji sum górnych

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład VII: Rozkład i jego charakterystyki 22 listopada 2016 Uprzednio wprowadzone pojęcia i ich własności Definicja zmiennej losowej Zmienna losowa na przestrzeni probabilistycznej (Ω, F, P) to funkcja

Bardziej szczegółowo

Ośrodkowość procesów, proces Wienera. Ośrodkowość procesów, proces Wienera Procesy Stochastyczne, wykład, T. Byczkowski,

Ośrodkowość procesów, proces Wienera. Ośrodkowość procesów, proces Wienera Procesy Stochastyczne, wykład, T. Byczkowski, Procesy Stochastyczne, wykład, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 27 luty, 2012 Ośrodkowość procesów Dalej zakładamy, że (Ω, Σ, P) jest zupełną przestrzenią miarową. Definicja.

Bardziej szczegółowo

Rodzinę spełniającą trzeci warunek tylko dla sumy skończonej nazywamy ciałem (algebrą) w zbiorze X.

Rodzinę spełniającą trzeci warunek tylko dla sumy skończonej nazywamy ciałem (algebrą) w zbiorze X. 1 σ-ciała Definicja 1.1 (σ - ciało) σ - ciałem (σ - algebrą) w danym zbiorze X (zwanym przestrzenią) nazywamy rodzinę M pewnych podzbiorów zbioru X, spełniającą trzy warunki: 1 o M; 2 o jeśli A M, to X

Bardziej szczegółowo

RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3.

RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3. RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3. ZMIENNA LOSOWA JEDNOWYMIAROWA. Zmienną losową X nazywamy funkcję (praktycznie każdą) przyporządkowującą zdarzeniom elementarnym liczby rzeczywiste. X : Ω R (dokładniej:

Bardziej szczegółowo

Rozdział 6. Ciągłość. 6.1 Granica funkcji

Rozdział 6. Ciągłość. 6.1 Granica funkcji Rozdział 6 Ciągłość 6.1 Granica funkcji Podamy najpierw dwie definicje granicy funkcji w punkcie i pokażemy ich równoważność. Definicja Cauchy ego granicy funkcji w punkcie. Niech f : X R, gdzie X R oraz

Bardziej szczegółowo

PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω)

PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω) PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω) określonych na tej samej przestrzeni probabilistycznej

Bardziej szczegółowo

Korzystając z własności metryki łatwo wykazać, że dla dowolnych x, y, z X zachodzi

Korzystając z własności metryki łatwo wykazać, że dla dowolnych x, y, z X zachodzi M. Beśka, Wstęp do teorii miary, Dodatek 158 10 Dodatek 10.1 Przestrzenie metryczne Niech X będzie niepustym zbiorem. Funkcję d : X X [0, ) spełniającą dla x, y, z X warunki (i) d(x, y) = 0 x = y, (ii)

Bardziej szczegółowo

Prognozowalne kryterium całkowalności według A. N. Shiryaeva i A. S. Cherny ego Joanna Karłowska-Pik. Historia

Prognozowalne kryterium całkowalności według A. N. Shiryaeva i A. S. Cherny ego Joanna Karłowska-Pik. Historia 1 Prognozowalne kryterium całkowalności według A. N. Shiryaeva i A. S. Cherny ego Joanna Karłowska-Pik Całka stochastyczna ( t ) H s dx s = H X. t Historia K. Itô (1944) konstrukcja całki stochastycznej

Bardziej szczegółowo

Zadania z Procesów Stochastycznych 1

Zadania z Procesów Stochastycznych 1 Zadania z Procesów Stochastycznych 1 Definicja Procesem Poissona z parametrem (intensywnością) λ > 0 nazywamy proces stochastyczny N = (N t ) t 0 taki, że N 0 = 0; (P0) N ma przyrosty niezależne; (P1)

Bardziej szczegółowo

Zadania z Rachunku Prawdopodobieństwa III - 1

Zadania z Rachunku Prawdopodobieństwa III - 1 Zadania z Rachunku Prawdopodobieństwa III - 1 Funkcją tworzącą momenty (transformatą Laplace a) zmiennej losowej X nazywamy funkcję M X (t) := Ee tx, t R. 1. Oblicz funkcję tworzącą momenty zmiennych o

Bardziej szczegółowo

1. Struktury zbiorów 2. Miara 3. Miara zewnętrzna 4. Miara Lebesgue a 5. Funkcje mierzalne 6. Całka Lebesgue a. Analiza Rzeczywista.

1. Struktury zbiorów 2. Miara 3. Miara zewnętrzna 4. Miara Lebesgue a 5. Funkcje mierzalne 6. Całka Lebesgue a. Analiza Rzeczywista. Literatura P. Billingsley, Miara i prawdopodobieństwo, PWN, Warszawa 1997, P. R. Halmos, Measure theory, Springer-Verlag, 1994, W, Kołodziej, naliza matematyczna, PWN, Warszawa 1978, S. Łojasiewicz, Wstęp

Bardziej szczegółowo

6 Wzór Ito i jego zastosowania

6 Wzór Ito i jego zastosowania M. Beśka, Całka Stochatyczna, wykład 6 114 6 Wzór Ito i jego zatoowania 6.1 Wzór Ito Zaczniemy od przedtawienia wzoru Ito. Twierdzenie 6.1 Niech X będzie proceem potaci X = M +, gdzie M M c loc oraz c

Bardziej szczegółowo

Rozdział 4. Ciągi nieskończone. 4.1 Ciągi nieskończone

Rozdział 4. Ciągi nieskończone. 4.1 Ciągi nieskończone Rozdział 4 Ciągi nieskończone W rozdziale tym wprowadzimy pojęcie granicy ciągu. Dalej rozszerzymy to pojęcie na przypadek dowolnych funkcji. Jak zauważyliśmy we wstępie jest to najważniejsze pojęcie analizy

Bardziej szczegółowo

Dystrybucje, wiadomości wstępne (I)

Dystrybucje, wiadomości wstępne (I) Temat 8 Dystrybucje, wiadomości wstępne (I) Wielkości fizyczne opisujemy najczęściej przyporządkowując im funkcje (np. zależne od czasu). Inną drogą opisu tych wielkości jest przyporządkowanie im funkcjonałów

Bardziej szczegółowo

n=0 Dla zbioru Cantora prawdziwe są wersje lematu 3.6 oraz lematu 3.8 przy założeniu α = :

n=0 Dla zbioru Cantora prawdziwe są wersje lematu 3.6 oraz lematu 3.8 przy założeniu α = : 4. Zbiory borelowskie. Zbiór wszystkich podzbiorów liczb naturalnych będziemy oznaczali przez ω. Najmniejszą topologię na zbiorze ω, w której zbiory {A ω : x A ω \ y}, gdzie x oraz y są zbiorami skończonymi,

Bardziej szczegółowo

Wokół nierówności Dooba

Wokół nierówności Dooba Uniwersytet Warszawski Wydział Matematyki, Informatyki i Mechaniki Tomasz Tkocz Nr albumu: 24957 Wokół nierówności Dooba Praca licencjacka na kierunku MATEMATYKA w ramach Międzywydziałowych Indywidualnych

Bardziej szczegółowo

1 Działania na zbiorach

1 Działania na zbiorach M. Beśka, Wstęp do teorii miary, rozdz. 1 1 1 Działania na zbiorach W rozdziale tym przypomnimy podstawowe działania na zbiorach koncentrując się na własnościach tych działań, które będą przydatne w dalszej

Bardziej szczegółowo

Wykład 21 Funkcje mierzalne. Kostrukcja i własności całki wzglȩdem miary przeliczalnie addytywnej

Wykład 21 Funkcje mierzalne. Kostrukcja i własności całki wzglȩdem miary przeliczalnie addytywnej Wykład 2 Funkcje mierzalne. Kostrukcja i własności całki wzglȩdem miary przeliczalnie addytywnej czȩść II (opracował: Piotr Nayar) Definicja 2.. Niech (E, E) bȩdzie przestrzenia mierzalna i niech λ : E

Bardziej szczegółowo

Wykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga

Wykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga RAP 412 21.01.2009 Wykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga Wykładowca: Andrzej Ruciński Pisarz: Łukasz Waszak 1 Wstęp Na ostatnim wykładzie przedstawiliśmy twierdzenie o zbieżności

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład V: Zmienne losowe i ich wartości oczekiwane 25 października 2017 Definicja zmiennej losowej Definicja Zmienne losowa to charakterystyka liczbowa wyniku eksperymentu losowego. Zmienne losowa na przestrzeni

Bardziej szczegółowo

Teoria miary i całki

Teoria miary i całki Teoria miary i całki Spis treści 1 Wstęp 3 2 lgebra zbiorów 5 3 Pierścienie, ciała, σ ciała zbiorów. 7 3.1 Definicja pierścienia ciała i σ ciała............... 7 3.2 Pierścień, ciało i σ ciało generowane

Bardziej szczegółowo

1 Relacje i odwzorowania

1 Relacje i odwzorowania Relacje i odwzorowania Relacje Jacek Kłopotowski Zadania z analizy matematycznej I Wykazać, że jeśli relacja ρ X X jest przeciwzwrotna i przechodnia, to jest przeciwsymetryczna Zbadać czy relacja ρ X X

Bardziej szczegółowo

Prawa wielkich liczb, centralne twierdzenia graniczne

Prawa wielkich liczb, centralne twierdzenia graniczne , centralne twierdzenia graniczne Katedra matematyki i ekonomii matematycznej 17 maja 2012, centralne twierdzenia graniczne Rodzaje zbieżności ciągów zmiennych losowych, centralne twierdzenia graniczne

Bardziej szczegółowo

WYKŁAD Z ANALIZY MATEMATYCZNEJ I. dr. Elżbieta Kotlicka. Centrum Nauczania Matematyki i Fizyki

WYKŁAD Z ANALIZY MATEMATYCZNEJ I. dr. Elżbieta Kotlicka. Centrum Nauczania Matematyki i Fizyki WYKŁAD Z ANALIZY MATEMATYCZNEJ I dr. Elżbieta Kotlicka Centrum Nauczania Matematyki i Fizyki http://im0.p.lodz.pl/~ekot Łódź 2006 Spis treści 1. CIĄGI LICZBOWE 2 1.1. Własności ciągów liczbowych o wyrazach

Bardziej szczegółowo

Wykład 3 Jednowymiarowe zmienne losowe

Wykład 3 Jednowymiarowe zmienne losowe Wykład 3 Jednowymiarowe zmienne losowe Niech (Ω, F, P ) będzie ustaloną przestrzenią probabilistyczną Definicja 1 Jednowymiarowa zmienna losowa (o wartościach rzeczywistych), określoną na przestrzeni probabilistycznej

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład IV: 27 października 2014 Współczynnik korelacji Brak korelacji a niezależność Definicja współczynnika korelacji Współczynnikiem korelacji całkowalnych z kwadratem zmiennych losowych X i Y nazywamy

Bardziej szczegółowo

Analiza funkcjonalna 1.

Analiza funkcjonalna 1. Analiza funkcjonalna 1. Wioletta Karpińska Semestr letni 2015/2016 0 Bibliografia [1] Banaszczyk W., Analiza matematyczna 3. Wykłady. (http://math.uni.lodz.pl/ wbanasz/am3/) [2] Birkholc A., Analiza matematyczna.

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład II: Zmienne losowe i charakterystyki ich rozkładów 13 października 2014 Zmienne losowe Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Definicja zmiennej losowej i jej

Bardziej szczegółowo

Rozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej

Rozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Zbiór możliwych wyników eksperymentu będziemy nazywać przestrzenią zdarzeń elementarnych i oznaczać Ω, natomiast

Bardziej szczegółowo

f(t) f(x), D f(x) = lim sup t x oraz D f(x) = lim inf

f(t) f(x), D f(x) = lim sup t x oraz D f(x) = lim inf 9. Różniczkowanie. Jeśli f jest funkcją rzeczywistą, to granice D + f(x) = lim sup t x + f(t) f(x), D f(x) = lim sup t x t x f(t) f(x), t x f(t) f(x) f(t) f(x) D + f(x) = lim inf oraz D f(x) = lim inf

Bardziej szczegółowo

Rozkłady i ich dystrybuanty 16 marca F X (t) = P (X < t) 0, gdy t 0, F X (t) = 1, gdy t > c, 0, gdy t x 1, 1, gdy t > x 2,

Rozkłady i ich dystrybuanty 16 marca F X (t) = P (X < t) 0, gdy t 0, F X (t) = 1, gdy t > c, 0, gdy t x 1, 1, gdy t > x 2, Wykład 4. Rozkłady i ich dystrybuanty 6 marca 2007 Jak opisać cały rozkład jedną funkcją? Aby znać rozkład zmiennej X, musimy umieć obliczyć P (a < X < b) dla dowolnych a < b. W tym celu wystarczy znać

Bardziej szczegółowo

Dystrybucje. Marcin Orchel. 1 Wstęp Dystrybucje Pochodna dystrybucyjna Przestrzenie... 5

Dystrybucje. Marcin Orchel. 1 Wstęp Dystrybucje Pochodna dystrybucyjna Przestrzenie... 5 Dystrybucje Marcin Orchel Spis treści 1 Wstęp 1 1.1 Dystrybucje................................... 1 1.2 Pochodna dystrybucyjna............................ 3 1.3 Przestrzenie...................................

Bardziej szczegółowo

Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu.

Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu. Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu. A Teoria Definicja A.1. Niech (Ω, F, P) będzie przestrzenią probabilistyczną. Zmienną losową określoną na przestrzeni Ω nazywamy dowolną

Bardziej szczegółowo

1 Elementy analizy funkcjonalnej

1 Elementy analizy funkcjonalnej M. Beśka, Dodatek 1 1 Elementy analizy funkcjonalnej 1.1 Twierdzenia o reprezentacji Zaczniemy od znanego twierdzenia Riesza Twierdzenie 1.1 (Riesz) Niech będzie zwartą przestrzenią metryczną i załóżmy,

Bardziej szczegółowo

Ciągłość funkcji f : R R

Ciągłość funkcji f : R R Ciągłość funkcji f : R R Definicja 1. Otoczeniem o promieniu δ > 0 punktu x 0 R nazywamy zbiór O(x 0, δ) := (x 0 δ, x 0 + δ). Otoczeniem prawostronnym o promieniu δ > 0 punktu x 0 R nazywamy zbiór O +

Bardziej szczegółowo

Statystyka i eksploracja danych

Statystyka i eksploracja danych Wykład II: i charakterystyki ich rozkładów 24 lutego 2014 Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa,

Bardziej szczegółowo

Notatki z Analizy Matematycznej 2. Jacek M. Jędrzejewski

Notatki z Analizy Matematycznej 2. Jacek M. Jędrzejewski Notatki z Analizy Matematycznej 2 Jacek M. Jędrzejewski Definicja 3.1. Niech (a n ) n=1 będzie ciągiem liczbowym. Dla każdej liczby naturalnej dodatniej n utwórzmy S n nazywamy n-tą sumą częściową. ROZDZIAŁ

Bardziej szczegółowo

Jak rzucać losowe spojrzenia na ruch Browna by w nim wszystko dojrzeć

Jak rzucać losowe spojrzenia na ruch Browna by w nim wszystko dojrzeć Jak rzucać losowe spojrzenia na ruch Browna by w nim wszystko dojrzeć Jan Ob lój Uniwersytet Warszawski Université Paris 6 Konwersatorium IMPAN, Listopad 2004 p.1/22 Plan referatu 1. Wstępne definicje

Bardziej szczegółowo

Informacja o przestrzeniach Sobolewa

Informacja o przestrzeniach Sobolewa Wykład 11 Informacja o przestrzeniach Sobolewa 11.1 Definicja przestrzeni Sobolewa Niech R n będzie zbiorem mierzalnym. Rozważmy przestrzeń Hilberta X = L 2 () z iloczynem skalarnym zdefiniowanym równością

Bardziej szczegółowo

Statystyka i eksploracja danych

Statystyka i eksploracja danych Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu w dziedzinach matematyczno-przyrodniczych realizowany w ramach Poddziałania 4.1.1 Programu Operacyjnego Kapitał Ludzki Statystyka i eksploracja

Bardziej szczegółowo

Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna.

Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna. Wykład 4 Rozkłady i ich dystrybuanty Dwa typy zmiennych losowych Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x, x 2,...}, to mówimy, że jest to zmienna dyskretna.

Bardziej szczegółowo

Ciągłość funkcji i podstawowe własności funkcji ciągłych.

Ciągłość funkcji i podstawowe własności funkcji ciągłych. Ciągłość funkcji i podstawowe własności funkcji ciągłych. Definicja (otoczenie punktu) Otoczeniem punktu x 0 R, o promieniu nazywamy zbiór x R taki, że: inaczej x x 0 x x 0, x 0 Definicja (ciągłość w punkcie)

Bardziej szczegółowo

Pochodna funkcji odwrotnej

Pochodna funkcji odwrotnej Pochodna funkcji odwrotnej Niech będzie dana w przedziale funkcja różniczkowalna i różnowartościowa. Wiadomo, że istnieje wówczas funkcja odwrotna (którą oznaczymy tu : ), ciągła w przedziale (lub zależnie

Bardziej szczegółowo

Literatura. Leitner R., Zacharski J., Zarys matematyki wyŝszej dla studentów, cz. III.

Literatura. Leitner R., Zacharski J., Zarys matematyki wyŝszej dla studentów, cz. III. Literatura Krysicki W., Bartos J., Dyczka W., Królikowska K, Wasilewski M., Rachunek Prawdopodobieństwa i Statystyka Matematyczna w Zadaniach, cz. I. Leitner R., Zacharski J., Zarys matematyki wyŝszej

Bardziej szczegółowo

PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA

PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA 1. Trójkę (Ω, F, P ), gdzie Ω, F jest σ-ciałem podzbiorów Ω, a P jest prawdopodobieństwem określonym na F, nazywamy przestrzenią probabilistyczną. 2. Rodzinę F

Bardziej szczegółowo

Analiza matematyczna. 1. Ciągi

Analiza matematyczna. 1. Ciągi Analiza matematyczna 1. Ciągi Definicja 1.1 Funkcję a: N R odwzorowującą zbiór liczb naturalnych w zbiór liczb rzeczywistych nazywamy ciągiem liczbowym. Wartość tego odwzorowania w punkcie n nazywamy n

Bardziej szczegółowo

}, gdzie a = t (n) )(f(t(n) k. ) f(t(n) k 1 ) 1+δ = 0,

}, gdzie a = t (n) )(f(t(n) k. ) f(t(n) k 1 ) 1+δ = 0, Zadania z Procesów Stochastycznych II - 1 1. Niech π n = {t (n), t(n) 1,..., t(n) k n }, gdzie a = t (n) < t (n) 1

Bardziej szczegółowo

Zadania o numerze 4 z zestawów licencjat 2014.

Zadania o numerze 4 z zestawów licencjat 2014. Zadania o numerze 4 z zestawów licencjat 2014. W nawiasie przy zadaniu jego występowanie w numerze zestawu Spis treści (Z1, Z22, Z43) Definicja granicy ciągu. Obliczyć granicę:... 3 Definicja granicy ciągu...

Bardziej szczegółowo

Wykład 10. Stwierdzenie 1. X spełnia warunek Borela wtedy i tylko wtedy, gdy każda scentrowana rodzina zbiorów domkniętych ma niepusty przekrój.

Wykład 10. Stwierdzenie 1. X spełnia warunek Borela wtedy i tylko wtedy, gdy każda scentrowana rodzina zbiorów domkniętych ma niepusty przekrój. Wykład 10 Twierdzenie 1 (Borel-Lebesgue) Niech X będzie przestrzenią zwartą Z każdego pokrycia X zbiorami otwartymi można wybrać podpokrycie skończone Dowód Lemat 1 Dla każdego pokrycia U przestrzeni ośrodkowej

Bardziej szczegółowo

Informacja o przestrzeniach Hilberta

Informacja o przestrzeniach Hilberta Temat 10 Informacja o przestrzeniach Hilberta 10.1 Przestrzenie unitarne, iloczyn skalarny Niech dana będzie przestrzeń liniowa X. Załóżmy, że każdej parze elementów x, y X została przyporządkowana liczba

Bardziej szczegółowo

Jednowymiarowa zmienna losowa

Jednowymiarowa zmienna losowa 1 Jednowymiarowa zmienna losowa Przykład Doświadczenie losowe - rzut kostką do gry. Obserwujemy ilość wyrzuconych oczek. Teoretyczny model eksperymentu losowego - przestrzeń probabilistyczna (Ω, S, P ),

Bardziej szczegółowo

7. Miara, zbiory mierzalne oraz funkcje mierzalne.

7. Miara, zbiory mierzalne oraz funkcje mierzalne. 7. Miara, zbiory mierzalne oraz funkcje mierzalne. Funkcję rzeczywistą µ nieujemną określoną na ciele zbiorów S będziemy nazywali miarą, gdy dla dowolnego ciągu A 0, A 1,... zbiorów rozłącznych należących

Bardziej szczegółowo

Wykład 2 Zmienne losowe i ich rozkłady

Wykład 2 Zmienne losowe i ich rozkłady Wykład 2 Zmienne losowe i ich rozkłady Magdalena Frąszczak Wrocław, 11.10.2017r Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe Doświadczenie

Bardziej szczegółowo

Całki niewłaściwe. Całki w granicach nieskończonych

Całki niewłaściwe. Całki w granicach nieskończonych Całki niewłaściwe Całki w granicach nieskończonych Wiemy, co to jest w przypadku skończonego przedziału i funkcji ograniczonej. Okazuje się potrzebne uogólnienie tego pojęcia w różnych kierunkach (przedział

Bardziej szczegółowo

Zdzisław Dzedzej. Politechnika Gdańska. Gdańsk, 2013

Zdzisław Dzedzej. Politechnika Gdańska. Gdańsk, 2013 Zdzisław Dzedzej Politechnika Gdańska Gdańsk, 2013 1 PODSTAWY 2 3 Definicja. Przestrzeń metryczna (X, d) jest zwarta, jeśli z każdego ciągu {x n } w X można wybrać podciąg zbieżny {x nk } w X. Ogólniej

Bardziej szczegółowo

Równanie przewodnictwa cieplnego (I)

Równanie przewodnictwa cieplnego (I) Wykład 4 Równanie przewodnictwa cieplnego (I) 4.1 Zagadnienie Cauchy ego dla pręta nieograniczonego Rozkład temperatury w jednowymiarowym nieograniczonym pręcie opisuje funkcja u = u(x, t), spełniająca

Bardziej szczegółowo

O pewnych klasach funkcji prawie okresowych (niekoniecznie ograniczonych)

O pewnych klasach funkcji prawie okresowych (niekoniecznie ograniczonych) (niekoniecznie ograniczonych) Wydział Matematyki i Informatyki Uniwersytet im. Adama Mickiewicza, Poznań Będlewo, 25-30 maja 2015 Funkcje prawie okresowe w sensie Bohra Definicja Zbiór E R nazywamy względnie

Bardziej szczegółowo

28 maja, Problem Dirichleta, proces Wienera. Procesy Stochastyczne, wykład 14, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126

28 maja, Problem Dirichleta, proces Wienera. Procesy Stochastyczne, wykład 14, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126 Problem Dirichleta, proces Wienera Procesy Stochastyczne, wykład 14, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126 28 maja, 2012 Funkcje harmoniczne Niech będzie operatorem Laplace a w

Bardziej szczegółowo

Indukcja. Materiały pomocnicze do wykładu. wykładowca: dr Magdalena Kacprzak

Indukcja. Materiały pomocnicze do wykładu. wykładowca: dr Magdalena Kacprzak Indukcja Materiały pomocnicze do wykładu wykładowca: dr Magdalena Kacprzak Charakteryzacja zbioru liczb naturalnych Arytmetyka liczb naturalnych Jedną z najważniejszych teorii matematycznych jest arytmetyka

Bardziej szczegółowo

1. Funkcje monotoniczne, wahanie funkcji.

1. Funkcje monotoniczne, wahanie funkcji. 1. Funkcje monotoniczne, wahanie funkcji. Zbiór X będziemy nazywali uporządkowanym, jeśli określona jest relacja zawarta w produkcie kartezjańskim X X, która jest spójna, antysymetryczna i przechodnia.

Bardziej szczegółowo

Nieregularne ścieżki - między determinizmem a losowością

Nieregularne ścieżki - między determinizmem a losowością Nieregularne ścieżki - między determinizmem a losowością Rafał Łochowski SGH 6. Forum Matematyków Rafał Łochowski (SGH) Nieregularne ścieżki 6. Forum Matematyków 1 / 21 Problem z nieskończonym wahaniem

Bardziej szczegółowo

Procesy stochastyczne

Procesy stochastyczne Wykład I: Istnienie procesów stochastycznych 21 lutego 2017 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane

Bardziej szczegółowo

Teoria miary. WPPT/Matematyka, rok II. Wykład 5

Teoria miary. WPPT/Matematyka, rok II. Wykład 5 Teoria miary WPPT/Matematyka, rok II Wykład 5 Funkcje mierzalne Niech (X, F) będzie przestrzenią mierzalną i niech f : X R. Twierdzenie 1. NWSR 1. {x X : f(x) > a} F dla każdego a R 2. {x X : f(x) a} F

Bardziej szczegółowo

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe 4.4. Momenty zmiennych losowych Katarzyna Rybarczyk-Krzywdzińska Wprowadzenie Przykład 1 Rzucamy raz kostką Ile wynosi średnia liczba oczek, jaka

Bardziej szczegółowo

Przykładami ciągów, które Czytelnik dobrze zna (a jeśli nie, to niniejszym poznaje), jest ciąg arytmetyczny:

Przykładami ciągów, które Czytelnik dobrze zna (a jeśli nie, to niniejszym poznaje), jest ciąg arytmetyczny: Podstawowe definicje Definicja ciągu Ciągiem nazywamy funkcję na zbiorze liczb naturalnych, tzn. przyporządkowanie każdej liczbie naturalnej jakiejś liczby rzeczywistej. (Mówimy wtedy o ciągu o wyrazach

Bardziej szczegółowo

Repetytorium z przedmiotu Miara i prawdopodobieństwo dla kierunku Informatyka 2003/2004. Adam Jakubowski

Repetytorium z przedmiotu Miara i prawdopodobieństwo dla kierunku Informatyka 2003/2004. Adam Jakubowski Repetytorium z przedmiotu Miara i prawdopodobieństwo dla kierunku Informatyka 2003/2004 Adam Jakubowski Uniwersytet Mikołaja Kopernika Wydział Matematyki i Informatyki Toruń, styczeń 2004 Spis treści

Bardziej szczegółowo

SZEREGI LICZBOWE I FUNKCYJNE

SZEREGI LICZBOWE I FUNKCYJNE Mając dowolny ciąg można z niego utworzyć nowy ciąg sum częściowych: Ten nowy rodzaj ciągu nazywamy szeregiem liczbowym, a jeśli to mamy do czynienia z nieskończonym szeregiem liczbowym, który oznaczany

Bardziej szczegółowo

Ciągłość funkcji jednej zmiennej rzeczywistej. Autorzy: Anna Barbaszewska-Wiśniowska

Ciągłość funkcji jednej zmiennej rzeczywistej. Autorzy: Anna Barbaszewska-Wiśniowska Ciągłość funkcji jednej zmiennej rzeczywistej Autorzy: Anna Barbaszewska-Wiśniowska 2018 Spis treści Definicja ciągłości funkcji. Przykłady Funkcja nieciągła. Typy nieciągłości funkcji Własności funkcji

Bardziej szczegółowo

Matematyka dyskretna. Andrzej Łachwa, UJ, /15

Matematyka dyskretna. Andrzej Łachwa, UJ, /15 Matematyka dyskretna Andrzej Łachwa, UJ, 2013 andrzej.lachwa@uj.edu.pl 7/15 Rachunek różnicowy Dobrym narzędziem do obliczania skończonych sum jest rachunek różnicowy. W rachunku tym odpowiednikiem operatora

Bardziej szczegółowo

RÓWNANIA RÓŻNICZKOWE WYKŁAD 2

RÓWNANIA RÓŻNICZKOWE WYKŁAD 2 RÓWNANIA RÓŻNICZKOWE WYKŁAD 2 Równania różniczkowe o zmiennych rozdzielonych Równania sprowadzalne do równań o zmiennych rozdzielonych Niech f będzie funkcją ciągłą na przedziale (a, b), spełniającą na

Bardziej szczegółowo

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014 Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014 Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe

Bardziej szczegółowo

1 Przestrzenie Hilberta

1 Przestrzenie Hilberta M. Beśka, Wykład monograficzny, Dodatek 1 1 Przestrzenie Hilberta 1.1 Podstawowe fakty o przestrzeniach Hilberta Niech H będzie przestrzenią liniową nad ciałem liczb rzeczywistych. Określmy odwzorowanie,

Bardziej szczegółowo

Optymalne stałe w nierówności typu LlogL dla ciągłych martyngałów

Optymalne stałe w nierówności typu LlogL dla ciągłych martyngałów Uniwersytet Warszawski Wydział Matematyki, Informatyki i Mechaniki Piotr Dworczak Nr albumu: 91564 Optymalne stałe w nierówności typu LlogL dla ciągłych martyngałów Praca licencjacka na kierunku MATEMATYA

Bardziej szczegółowo

zbiorów domkniętych i tak otrzymane zbiory domknięte ustawiamy w ciąg. Oznaczamy

zbiorów domkniętych i tak otrzymane zbiory domknięte ustawiamy w ciąg. Oznaczamy 5. Funkcje 1 klasy Baire a. Pod koniec XIX i początkiem XX wieku kilku matematyków zajmowało się problemami dotyczącymi klasyfikacji funkcji borelowskich: między innymi R. Baire, E. Borel, H. Lebesgue

Bardziej szczegółowo

Rozdział 5. Szeregi liczbowe. 5.1 Szeregi liczbowe. Definicja sumy częściowej ciągu. Niech dany będzie ciąg liczbowy (a n ) n=1.

Rozdział 5. Szeregi liczbowe. 5.1 Szeregi liczbowe. Definicja sumy częściowej ciągu. Niech dany będzie ciąg liczbowy (a n ) n=1. Rozdział 5 Szeregi liczbowe 5. Szeregi liczbowe Definicja sumy częściowej ciągu. Niech dany będzie ciąg liczbowy ( ). Ciąg (s n ) określony wzorem s n = n a j, n N, nazywamy ciągiem sum częściowych ciągu

Bardziej szczegółowo

Funkcja wykładnicza kilka dopowiedzeń

Funkcja wykładnicza kilka dopowiedzeń Funkcje i ich granice Było: Zbiór argumentów; zbiór wartości; monotoniczność; funkcja odwrotna; funkcja liniowa; kwadratowa; wielomiany; funkcje wymierne; funkcje trygonometryczne i ich odwrotności; funkcja

Bardziej szczegółowo

Zagadnienia stacjonarne

Zagadnienia stacjonarne Zagadnienia stacjonarne Karol Hajduk 19 grudnia 2012 Nierówność wariacyjna (u (t), v u(t)) + a(u, v u) + Ψ(v) Ψ(u) (f, v u), v V. Zagadnienie stacjonarne ma postać (u (t) = 0): a(u, v u) + Ψ(v) Ψ(u) (f,

Bardziej szczegółowo

Przykładowe zadania z teorii liczb

Przykładowe zadania z teorii liczb Przykładowe zadania z teorii liczb I. Podzielność liczb całkowitych. Liczba a = 346 przy dzieleniu przez pewną liczbę dodatnią całkowitą b daje iloraz k = 85 i resztę r. Znaleźć dzielnik b oraz resztę

Bardziej szczegółowo

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład Rozdział 1 Wektory losowe 1.1 Wektor losowy i jego rozkład Definicja 1 Wektor X = (X 1,..., X n ), którego każda współrzędna jest zmienną losową, nazywamy n-wymiarowym wektorem losowym (krótko wektorem

Bardziej szczegółowo

Wstęp do Analizy Stochastycznej

Wstęp do Analizy Stochastycznej Wstęp do Analizy Stochastycznej Rafał Latała 6 września 21 Poniższy tekst zawiera notatki do wykładów ze Wstępu do Analizy Stochastycznej, prowadzonego w semestrze wiosennym 21 roku. Gwiazdkami oznaczono

Bardziej szczegółowo

E-learning - matematyka - poziom rozszerzony. Funkcja wykładnicza. Materiały merytoryczne do kursu

E-learning - matematyka - poziom rozszerzony. Funkcja wykładnicza. Materiały merytoryczne do kursu E-learning - matematyka - poziom rozszerzony Funkcja wykładnicza Materiały merytoryczne do kursu Definicję i własności funkcji wykładniczej poprzedzimy definicją potęgi o wykładniku rzeczywistym. Poprawna

Bardziej szczegółowo

Rachunek różniczkowy i całkowy w przestrzeniach R n

Rachunek różniczkowy i całkowy w przestrzeniach R n Rachunek różniczkowy i całkowy w przestrzeniach R n Na dzisiejszym wykładzie rozważać będziemy funkcje f : R m R n Każda taka funkcję f można przedstawić jako wektor funkcji (f 1, f 2,, f n ), gdzie każda

Bardziej szczegółowo

Rodzinę F złożoną z podzbiorów zbioru X będziemy nazywali ciałem zbiorów, gdy spełnione są dwa następujące warunki.

Rodzinę F złożoną z podzbiorów zbioru X będziemy nazywali ciałem zbiorów, gdy spełnione są dwa następujące warunki. 3. Funkcje borelowskie. Rodzinę F złożoną z podzbiorów zbioru X będziemy nazywali ciałem zbiorów, gdy spełnione są dwa następujące warunki. (1): Jeśli zbiór Y należy do rodziny F, to jego dopełnienie X

Bardziej szczegółowo

Rachunek prawdopodobieństwa i statystyka

Rachunek prawdopodobieństwa i statystyka Rachunek prawdopodobieństwa i statystyka Przestrzeń probabilistyczna Niech Ω będzie dowolnym zbiorem, zwanym przestrzenią zdarzeń elementarnych. Elementy ω tej przestrzeni nazywamy zdarzeniami elementarnymi.

Bardziej szczegółowo

1 Przestrzenie metryczne

1 Przestrzenie metryczne 1 Przestrzenie metryczne Definicja 1.1 (metryka) Niech będzie niepustym zbiorem. Funkcję d: R + nazywamy metryką, jeśli spełnia warunki: 1 o d(x, y) = d(y, x) (symetria) 2 o d(x, y) + d(y, z) d(x, z) (nierówność

Bardziej szczegółowo