4 Kilka klas procesów

Save this PDF as:
 WORD  PNG  TXT  JPG

Wielkość: px
Rozpocząć pokaz od strony:

Download "4 Kilka klas procesów"

Transkrypt

1 Marek Beśka, Całka Stochastyczna, wykład Kilka klas procesów 4.1 Procesy rosnące i przestrzenie V,, loc Jak poprzednio niech (Ω, F, F, P ) będzie zupełną bazą stochastyczną. Definicja 4.1 Proces o wartościach w [, + ] nazywamy rosnącym procesem jeśli dla ω Ω trajektorie ( ) (ω) są niemalejące, cad oraz =. Dla rosnącego procesu istnieje granica = lim t t i oczywiście nie musi ona być skończona. Niech V + (F, P ) = V + oznacza rodzinę rosnących, adaptowanych procesów takich, że t < + dla t oraz V(F, P ) = V oznacza przestrzeń wszystkich procesów, które są różnicą dwóch elementów z V tzn. V = V + V +. Lemat 4.2 Wszystkie procesy należące do klasy V + i klasy V są opcjonalne Dowód. Jeśli proces V + to trajektorie posiadają lewostronne granice. Zatem jest cadlag i z założenia jest adaptowany, a więc jest opcjonalny. Stąd każdy element V jako różnica dwóch elementów procesów opcjonalnych jest opcjonalny. Określimy teraz wahanie (wariację) procesu X. Definicja 4.3 Niech t i niech δ t = { = t, t 1,..., t n = t, gdzie t i 1 < t i dla i = 1,..., n, n 1 będzie podziałem odcinka [, t]. Dla danego podziału δ t określmy S δt (X) = n X ti X ti 1 i=1 Wahaniem (wariacją) procesu na przedziale [, t] nazywamy kres górny sum S δt (X) po wszystkich możliwych podziałach δ t przedziału [, t] tj. V t (X) = sup S δt (X). δ t Uwaga. Zauważmy, że gdy X jest cad lub cag to dla t > mamy V t (X) = lim n n i=1 X t i n X t i 1. n Stąd, jeśli X jest adaptowany to V (X) też. Gdy powyższy kres górny jest nieskończony dla pewnego t to mówimy, że proces X ma wahanie nieskończone. Proces X ma skończone wahanie jeśli V t (X) jest skończone dla każdego t. Bezpośrednio z definicji wahania otrzymujemy następujace własności procesów o skończonym wahaniu:

2 Marek Beśka, Całka Stochastyczna, wykład 4 49 (i) Dla s t mamy V s (X) V t (X); (ii) Wahanie jest funkcją addytywną przedziału tzn. dla s t mamy V t (X) = V s (X) + Vs t (X) gdzie Vs t (X) jest whaniem X na przedziale [s, t]; (iii) Dla s t zachodzi: (4.1) V t (X)(ω) V s (X)(ω) X t (ω) X s (ω) ; (iv) Kombinacja liniowa i iloczyn procesów o wahaniu skończonym jest procesem o wahaniu skończonym. Lemat 4.4 Zachodzą następujące fakty: (a) Jeśli proces X ma skończone wahanie i jest cad to proces V (X) = {V t (X) t jest rosnący i cad; (b) Niech X będzie cad i niech X = Wtedy X jest adaptowany o skończonym wahaniu wtedy i tylko wtedy, gdy X V. Dowód. (a) Monotoniczność wynika z własności (i) powyżej. Wykażemy, że V t (X) jest cad. Ustalmy t. Z własności (ii) powyżej wystarczy wykazać (4.2) lim V t t + t t (X) =. Niech ε >. Poniewż X jest cad, więc istnieje δ > takie, że dla u spełniającego warunek t < u < t + δ mamy X u X t < ε/2. Istnieje podział t < t 1 <... < t n = t taki, że V t t (X) < Niech t < s < min(t + δ, t 1 ). Wtedy n X ti X ti 1 + ε 2. i=1 V t t (X) X s X t + X t1 X s X tn X tn 1 + ε 2 ε + V t s (X). Skąd V s t (X) < ε. Zatem (4.2) zachodzi. Zauważmy, że mamy również odwrotną własność tzn. jeśli V (X) jest cad to X też, co wynika z (4.1). Dla dowodu (b) załóżmy, że X (X = ) jest adaptowany o skończonym wahaniu. Mamy X = φ(x) ψ(x).

3 Marek Beśka, Całka Stochastyczna, wykład 4 5 gdzie φ(x) = X + V (X) 2, ψ(x) = V (X) X. 2 Z (4.1) procesy φ(x) i ψ(x) są rosnące. Zatem X V. Załóżmy teraz, że X V, to X = 1 2 dla i V +, i = 1, 2. Oba procesy 1 i 2 są procesami rosnącymi, mają skończone wahanie, więc X ma skończone wahanie. Ponadto X = i X jest adaptowany jako różnica dwóch procesów adaptowanych. Niech V + i niech X będzie takim procesem, że dla ω Ω trajektorie t X t (ω) są borelowskie. Dla ω Ω odwzorowanie [, t] s s (ω) określa dodatnią skończona miarę na [, t]. Możemy rozważyc całkę X s (ω)d s (ω) [,t] jeśli dla ω trajektoria X ( ) (ω) jest całkowalna względem ( ) (ω). Taka całka jest faktycznie całką Lebesgue a-stieltjesa t X s (ω)d s (ω) = X s (ω)d s (ω). Możemy również określić dla V jeśli Wtedy [,t] [,t] [,t] X s d s := [,t] X s (ω)d s (ω) X s d(v () s ) < +. [,t] X s dφ() s X s dψ() s [,t] Lemat 4.5 Niech V i niech X będzie dowolnym procesem dla którego trajektorie X ( ) (ω), ω Ω są całkowalne (skończenie) na przedziale [, t] dla t względem s (ω) to całka Lebesgue a-stieltjesa (proces) jest cad i ma skończone wahanie. Y t (ω) = t X s (ω)d s (ω) Dowód. Własność cad procesu Y wynika z własności cad procesu oraz z własności całki Lebesgue a-stieltjesa. Oznaczmy X + = X, X = ( X), wtedy X = X + X.

4 Marek Beśka, Całka Stochastyczna, wykład 4 51 oraz U t = W t = t t X + s dφ() s + X + s dψ() s + t t X s dψ() s X s dφ() s są procesami rosnącymi i skończonymi na przedziale [, t] dla t. Zatem mają skończone wahanie, a stąd proces Y = U W ma także skończone wahanie. Zauważmy, że proces Y otrzymaliśmy biorąc całkę Lebesgue a-stieltjesa dla każdej trajektorii oddzielnie i dlatego nie ma powodów aby Y był adaptowany, opcjonalny czy prognozowalny. Żeby otrzymać powyższe własności musimy założyć coś więcej. Lemat 4.6 Zachodzą następujące fakty: 1. Niech V. Jeśli X jest opcjonalny i całka Lebesgue a-stieltjesa Y t = t X s d s, t istnieje (i jest skończona), to Y jest opcjonalny. 2. Niech V. Jeśli X i są prognozowalne i całka Lebesgue a-stieltjesa Y t = t X s d s, t istnieje (i jest skończona), to Y jest prognozowalny. Dowód. Przystąpmy do dowodu 1. Zauważmy najpierw, że V jest opcjonalny oraz V () jest też opcjonalny (bo V () jest cadlag i adaptowany), a więc φ() i ψ() są też opcjonalne. Stąd jeśli zastąpimy przez φ() i ψ() to wystarczy wykazać nasz lemat dla elementów z V +. W dowodzie zastosujemy twierdzenie o klasach monotonicznych. Niech H := { X : t X s d s jest opcjonalny. Zauważmy, że H spełnia założenia twierdzenia o klasach monotonicznych, bo Y t = t 1d s = t = t opcjonalny 1 H i H jest zamknięta na monotoniczne granice. Jako klasę multiplikatywną wystarczy przyjąć zbiór indykatorów przedziałów stachastycznych [[S, [[, gdzie S jest czasem zatrzymania.

5 Marek Beśka, Całka Stochastyczna, wykład 4 52 Niech więc X = I [[S, [[. t I [[S, [[ (s, ω)d s (ω) = = I [[S, [[ [[,t]] (s, ω)d s (ω) I {S t (ω)i [[S,t]] (s, ω)d s (ω) = I {S t (ω)( t (ω) S (ω)) = I {S t (ω) t (ω) I {S t S (ω), gdzie (X ) t = X t = lim s t X s, (X ) = (jest on oczywiście procesem cag). Obie funkcje I {S t t oraz I {S t S są F t -mierzalne, S = ( ) S jest F S -mierzalny tak więc rozważana całka Lebesgue a- Stieltjesa jest adaptowanym procesem. Ponadto jest ona cadlag. Dowód drugiej części jest podobny do dowodu pierwszej. Zauważmy najpierw, że jeśli jest prognozowalny to V () jest prognozowalny, bo V t () = V t () + t t, t > i procesy V () i są cag i adaptowane, a więc prognozowalne. Z tego, że V () jest prognozowalny wynika, że φ() i ψ() są też prognozowalne. Stąd jeśli zastąpimy przez φ() i ψ() to wystarczy wykazać nasz lemat dla elementów z V +. Określmy H := { X : t X s d s jest prognozowalny. Zauważmy, że H spełnia założenia twierdzenia o klasach monotonicznych. Jako klasę multiplikatywną bierzemy procesy X postaci X = I ]]S, [[ lub X = I { F, gdzie F F. Jeśli X = I { F wtedy t X s d s =. Jeśli X = I ]]S, [[ to mamy t I ]]S, [[ (s, ω)d s (ω) = = I ]]S, [[ ]],t]] (s, ω)d s (ω) I {S<t (ω)i ]]S,t]] (s, ω)d s (ω) = I {S<t (ω) t (ω) I {S<t S (ω),

6 Marek Beśka, Całka Stochastyczna, wykład 4 53 Proces I {S< jest cag i adaptowany, jest prognozowalny, więc I {S< ( ) jest prognozowalny. Proces I {S< S jest adaptowany (z definicji F S ) i cag, tak więc jest prognozowalny. Rozważmy X V. Ponieważ X jest cadlag, stąd dla t, n 1 i dla ω Ω zbiór { s t : X s (ω) > 1 n zbiór jest skończony. Zatem zbiór {s t : X s jest przeliczalny. Możemy więc rozważać sumy X s I { Xs. s t Zauważmy, że ( ) X s I { Xs = sup X s I { Xs > 1 s t n N n V t (X) < + s t Stąd możemy określić dla X V proces X d wzorem X d t = s t X s I { Xs nazywany nieciągłą częścią procesu X. Stąd V t (X d ) = s t X s I { Xs Część ciągłą procesu określamy jako X c = X X d. Zauważmy, że ( Xt c = lim X t ) X s I n { Xs > 1 n s t jest ciągłym procesem oraz V t (X) = V t (X c ) + V t (X d ). Rozważmy proces X taki, że X + i X mają skończenie całkowalne trajektorie. = c to całka t X s (ω) d s (ω) jest ciągła, jeśli proces posiada skoki s to całka Lebesgue a-stieltjesa też ma skoki postaci ( ) X s (ω) d s (ω) = X t (ω) t (ω). t Na koniec tego wykładu określmy klasę + jako zbiór tych procesów V + dla których jest całkowalny. Oczywiście określamy również = + +. Przez loc oznaczamy zbiór procesów dla których istnieje ciąg lokalizacyjny {T n n N, że dla każdego n IN zachodzi Tn. Jeśli

7 Marek Beśka, Całka Stochastyczna, wykład Martyngały, submartyngały i supermartyngały z czasem ciągłym Definicja 4.7 Niech dana będzie baza zupełna (Ω, F, P ) z filtracją {F t t I, gdzie I = [a, b] [, + ]. daptowany proces X : I Ω IR nazywamy martyngałem jeśli 1. E X t < + dla każdego t I; 2. E[X t F s ] = X s dla wszystkich s t, s, t I. daptowany proces X : I Ω IR nazywamy submartyngałem jeśli 1. E X t < + dla każdego t I; 2. E[X t F s ] X s dla wszystkich s t, s, t I. daptowany proces X : I Ω IR nazywamy supermartyngałem jeśli 1. E X t < + dla każdego t I; 2. E[X t F s ] X s dla wszystkich s t, s, t I. Przykłady: 1. Niech Y będzie całkowalną (E Y < ) zmienną losową na (Ω, F, P ), to proces X t = E[Y F t ], t [, + ] jest martyngałem. 2. Jeśli X jest supermartyngałem to X jest submartyngałem i odwrotnie. 3. Niech X będzie submartyngałem. Jeśli f jest niemalejącą wypukłą funkcją taką, że E[ f(x t ) ] < + dla każdego t I wówczas proces Z t = f(x t ) jest submartyngałem. Jeśli X jest martyngałem to własność niemalenia f może zostać opuszczona. Stąd mamy Jeśli X jest submartyngałem, to X a (a IR) jest także submartyngałem (w szczególności X + jest wtedy submartyngałem) Jeśli X jest supermartyngałem, to X jest submartyngałem. Jeśli X jest martyngałem i E X p < dla p 1 to Y = X p jest submartyngałem. 4. Każdy martyngał (X n, F n ) n N { z dyskretnym czasem może być rozsze rzony do martyngału z czasem ciągłym. Określmy F t = F n dla t [n, n + 1[, n, X t = X n dla t [n, n + 1[ n. Tak otrzymany proces {X t t jest cadlag martyngałem.

8 Marek Beśka, Całka Stochastyczna, wykład Niech P i Q będą miarami probabilistycznymi na (Ω, F), takimi, że Q << P (Q jest absolutnie ciągła względem P ). Niech {F t R + będzie filtracją względem miary P (o własnościach podanych na pierwszym wykładzie). Przez P t i Q t oznaczmy obcięcia P i Q do (Ω, F t ). Rozważmy pochodną Radona-Nikodyma Y = dq dp, Y t = dq t dp t, t IR +. Proces {Y t t [, ] jest P -martyngałem, ponieważ dla każdego F t mamy E[Y F t ] dp = Y dp = Q() = Q t () = Y t dp t = Y t dp. Zatem Y t = E[Y F t ], dla t [, ]. Jeśli założymy dodatkowo, że P << Q to 1/Y jest Q-martyngałem i dla każdego t i F t mamy dq t dq t dp t Q t () = dp t = dq t. dp t dp t dq t Stąd dla każdego t dq t dp t dp t dq t = 1, P p.w.. 6. Proces X nazywamy procesem z niezależnymi przyrostami, jeśli jest adaptowany i przyrosty X t X s dla każdego s i t (s < t) są niezależne od F s. Od razu zauważmy, że jeśli E X t <, t IR + i EX s = EX t dla s, t IR + to X jest martyngałem, bo dla s < t mamy E[X t F s ] = X s + E[X t X s F s ] = X s + E[X t X s ] = X s Jeśli X (X = ) jest cadlag procesem o niezależnych przyrostach nie mającym stałych punktów nieciągłości (tj. dla każdego t mamy P { X t = ) wtedy dla u IR funkcja g(t) = E exp(iux t ) jest ciągła i nigdzie się nie zeruje. Proces Z u t = exp(iux t) E exp(iux t ), t jest martyngałem. W celu udowodnienia tych własności ustalmy u IR i t. Określmy g t = E[exp iux t ], h s,t = E[exp iu(x t X s )]. Z założenia mamy, że X t =, P -p.w. to jest X jest ciągły według prawdopodobieństwa. Stąd g t i h s,t są ciągłe wględem t i s, t odpowiednio. Ponieważ X ma niezależne przyrosty, więc dla s < t mamy g t = g s h s,t.

9 Marek Beśka, Całka Stochastyczna, wykład 4 56 Niech T będzie określone wzorem T = inf{t : g t =. Jeśli T < + wtedy g s dla s < T i z ciągłości g t mamy g T h s,t = dla s < T i h T T =. le =. Tak więc h T T = E[exp iu(x T X T )] = 1, co daje sprzeczność. Zatem T = + i g t nigdzie się nie zeruje. Wykażemy teraz że Zt u jest martyngałem. Mamy dla s < t Zt u = exp(iux t) E exp(iux t ) = exp(iux s) E exp(iux s ) = Zs u exp[iu(x t X s )] E exp[iu(x t X s )] exp[iu(x t X s )] E exp[iu(x t X s )] Stąd E[Z u t F s ] = Z u s E exp[iu(x t X s )] E exp[iu(x t X s )] = Zu s. 7. Proces X o niezależnych przyrostach nazywamy procesem Poissona jeśli X = oraz istnieje rosnąca ciągła funkcja F taka, że dla dowolnych s < t zmienna losowa X t X s ma rozkład Poissona z parametrem F (t) F (s). Podamy teraz kilka własności procesu Poissona. Istnieje modyfikacja procesu Poissona X, której trajektorie sa cadlag i o wartościach w IN. P -p.w trajektorie sa niemalejące i punkty wzrostu są skokami o całkowitych wielkościach. Jeśli lim t F (t) = + to trajektorie nie są ciągłe Proces Poissona nie ma stałych punktów nieciągłości. Gdy F (t) = λt, λ > (standardowy proces Poissona) to prawdopodobieństwo, że skok w danym skończonym przedziale jest większy od jedynki jest równe zero. Z procesem Poissona związane są dwa martyngały. Y t = X t F (t) oraz Z t = ( X t F (t) ) 2 F (t).

10 Marek Beśka, Całka Stochastyczna, wykład 4 57 Rzeczywiście, niech s t wtedy E[Y t Y s F s ] = E[X t F (t) ( X s F (s) ) F s ] = E[X t X s F s ] F (t) F (s) = E[X t X s ] F (t) + F (s) =. by sprawdzić, żę Z t jest martyngałem zauważmy E[ ( X t F (t) ) 2 ( F (t) Xs F (s) ) 2 + F (s) Fs ] = E[ ( X t F (t) ) 2 ( Xs F (s) ) 2 Fs ] F (t) + F (s) = E[ ( (X t F (t)) (X s F (s)) ) 2 Fs ] F (t) + F (s) = 8. Proces B nazywamy ruchem Browna (względem filtracji {F t ) jeśli. B = B jest procesem o niezależnych przyrostem i stcjonarnym to jest rozkład B t B s zależy tylko od różnicy t s (t > s.) Przyrosty B t B s mają rozkład normalny N(, σ 2 (t s)) (t > s). Trajektorie są ciągłe. Gdy σ = 1 proces B nazywamy standardowym ruchem Browna. Jak łatwo zauważyć ruch Browna jest martyngałem E[B t B s F s ] = E[B t B s ] = dla s t. Związny z nim jest jescze jeden martyngał Rzeczywiście dla s t mamy Y t = B 2 t σ 2 t, t IR +. E[Y t Y s F s ] = E[B 2 t B 2 s σ 2 (t s) F s ] = E[(B t B s ) 2 σ 2 (t s) F s ] = σ 2 (t s) σ 2 (t s) =. Fakt. Niech (X n, F)n) n będzie submartyngalem (dyskretnym) oraz T i : Ω IN { dla i = 1, 2,..., m będą czasami czasami zatrzymania takimi, że T 1 T 2,... T m N IN. Wtedy (X Ti, F Ti ) m i=1 jest submartyngałem. Dowód. Mamy E X Ti = N k= {T i =k X k dp N E X k <. k=

11 Marek Beśka, Całka Stochastyczna, wykład 4 58 Dla a IR mamy {X Ti a {T i = k = {X k a {T i = k F k, zatem X Ti jest F Ti mierzalna zmienna losową. Dla zakończenia dowodu trzeba jeszcze udowodnić dla i = 1, 2,..., m 1 nierówność E(X Ti+1 F Ti ) X Ti lub równoważną X Ti+1 dp F F X Ti dp dla F F Ti. Ponieważ F = N k= {T i = k F, więc wystarczy wykazać X Ti+1 dp X Ti dp dla k =, 1,..., N. F {T i =k F {T i =k Ostatnią nierówność możemy zapisać w postaci X Ti+1 N dp X Ti+1 k dp dla k =, 1,..., N 1. F {T i =k F {T i =k Dla dowodu której wystarczy dla k s N 1 wykazać X Ti+1 s dp X Ti+1 (s+1) dp dla k =, 1,..., N 1. F {T i =k F {T i =k Mamy X Ti+1 s dp = F {T i =k F {T i =k {T i+1 >s F {T i =k {T i+1 >s F {T i =k {T i+1 >s F {T i =k {T i+1 s+1 X Ti+1 s dp = X s dp X s+1 dp = F {T i =k {T i+1 s X s+1 dp = F {T i =k {T i+1 <s+1 F {T i =k {T i+1 <s+1 F {T i =k {T i+1 <s+1 F {T i =k Dowód Faktu został zakończony. Uwaga. Przy założeniach jak w powyższym Fakcie mamy X Ti+1 s dp + X Ti+1 dp + X Ti+1 dp + X Ti+1 dp + X Ti+1 (s+1) dp. (4.3) E(X Ti ) E(X Ti+1 ), i = 1, 2,..., m 1.

12 Marek Beśka, Całka Stochastyczna, wykład 4 59 Twierdzenie 4.8 Niech I = [a, b] [, ]. 1. Jeśli X jest cad submartyngałem na I to dla każdego λ > zachodzą nierówności: (i) (ii) P {sup t I X t > λ 1 λ E[ ] 1 X b I {sup t I X t>λ λ E[X+ b ]. P { inf t I X t < λ 1 ( E[X a ] + E [ X b I λ { inf t I X t λ] ). 2. Jeśli Y jest cad supermartyngałem na I, to dla λ > mamy nierówność P { sup t I Y t > λ 1 ( E[Y a ] E [ Y b I λ { sup t I Y t λ] ). 3. Jeśli proces X jest cad martyngałem (lub dodatnim cad submartyngałem) na I oraz E[ X t p ] <, t dla pewnego 1 < p < to E [ sup t I X t p] ( ) p p ( ) p p sup E[ X t p ] = E[ X b p ]. p 1 t I p 1 Dowód. 1(i). Ustalmy λ >. Niech F = {t 1,..., t n I = [a, b]. Określmy { inf{t F : Xt > λ, gdy istnieje t F takie, że X T 1 = t > λ, b gdy nie istnieje t F takie, że X t > λ oraz T 2 b. Wtedy T 1 T 2. Stąd i z (4.3) mamy Stąd Zatem E(X b ) = E(X T2 ) E(X T1 ) = E(X T1 I {supt F X t>λ)+ E(X T1 I {supt F X t λ) = E(X T1 I {supt F X t>λ) + E(X b I {supt F X t λ). {sup t F X t>λ { P sup t F { X b dp E(X T1 I {supt F X t>λ) λp sup t F X t > λ 1 λ E[ ] 1 X b I {sup t F X t>λ λ E[X+ b ]. X t > λ. Niech teraz {F n n 1 będzie ciągiem skończonych zbiorów F n I, F n F n+1, n 1 takich, że n=1 F n = K = Q I {b. Zachodzi wzór { { sup X t > λ = t F n n=1 Mając na uwadze powyższy wzór dostajemy { { (4.4) P sup X t > λ = lim P sup X t > λ t K n t F n sup t K X t > λ. 1 lim n λ E[ ] X b I {sup t Fn X t>λ.

13 Marek Beśka, Całka Stochastyczna, wykład 4 6 Stosując teraz do prawej strony (4.4) twierdzenie Lebesgue a o zbieżności majoryzowanej otrzymujemy ostatecznie { P sup t K X t > λ 1 λ E[ ] 1 X b I {sup t K X t>λ λ E(X+ b ). Ponieważ X jest cad, więc { sup t K { X t > λ = sup X t > λ, t I co kończy dowód 1(i). Przejdziemy teraz do dowodu 1(ii). Ustalmy λ >. Niech F = {t 1,..., t n I = [a, b]. Określmy T 1 = a oraz { inf{t F : Xt < λ, gdy istnieje t F takie, że X T 2 = t < λ, b gdy nie istnieje t F takie, że X t < λ. Mamy T 2 T 1, stąd i z (4.3) dostajemy E(X T2 ) E(X T1 ) = EX a. Zatem EX a E(X T2 I {inft F X t< λ) + E(X T2 I {inft F X t λ) Powyższa nierówność jest równoważna E(X T2 I {inft F X t< λ) EX a + E(X T2 I {inft F X t λ), z której otrzymujemy { λp inf X t < λ E(X T2 I {inft F X t F t< λ) EX a + E(X b I {inft F X t λ). Niech teraz {F n n 1 będzie ciągiem skończonych zbiorów F n I, F n F n+1, n 1 takich, że n=1 F n = K = Q I {b. Zachodzi wzór { { inf X t < λ = inf X t < λ. t F n t K n=1 Mając na uwadze powyższy wzór dostajemy { { P inf X t < λ = lim P inf X t < λ t K n t F n (4.5) 1 [ lim EXa + E(X b I n λ {inft Fn Xt λ ) ]. Stosując teraz do prawej strony (4.5) twierdzenie Lebesgue a o zbieżności majoryzowanej otrzymujemy ostatecznie { P inf X t < λ 1 EXa + E(X b I t K λ[ ] {inft K X t λ).

14 Marek Beśka, Całka Stochastyczna, wykład 4 61 Ponieważ X jest cad, więc { inf X t < λ = t K { inf X t < λ, t I co kończy dowód 1(ii). by udowodnić część 2 twierdzenia zauważmy, że Y jest cad submartyngałem. Stosując teraz do niego wzór 1(ii) dostajemy tezę. Pozostała nam do udowodnienia część 3 twierdzenia. Niech więc X będzie cad martyngałem lub nieujemnym cad submartyngałem. Wtedy { X t t jest submartyngałem. Stosując do niego wzór z części 1(i) otrzymujemy (4.6) λp {Y > λ E( X b I {Y >λ ), gdzie Y = sup t I X t. Ustalmy L >. Mamy E(Y L) p = pt p 1 P {Y L > t dt = L pt p 1 P {Y L > t dt = L pt p 1 P {Y > t dt Stosując do powyższej równości nierówność (4.6), całkując po t i stosując nierówność Höldera dostajemy gdzie q = Stąd E(Y L) p p p 1 Ω L pt p 1 1 t {Y >t X b dp dt = Ω X b Y L pt p 2 dt dp = X b (Y L) p 1 dp p ( ) 1 ( ) 1 X b p p dp (Y L) (p 1)q q dp, p 1 Ω Ω p p 1. Po uproszczeniu otrzymujemy Ω (Y L) p dp p ( ) 1 ( ) 1 X b p p dp (Y L) p q dp. p 1 Ω Ω E[(Y L) p ] Przechodząc z L dostajemy ( p ) pe Xb E(Y p ) p = p 1 ( p ) pe Xb p. p 1 ( p p 1 ) p sup E( X t p ). t I Definicja 4.9 Rodzinę zmiennych losowych {X t t T nazywamy jednostajnie całkowalną jeśli lim sup X t dp = λ + t T { X t >λ

15 Marek Beśka, Całka Stochastyczna, wykład 4 62 Wniosek 4.1 Jeśli proces X jest cad martyngałem (lub dodatnim cad submartyngałem) na I = [a, b] [, ] to rodzina {X t t I jest jednostajnie całkowalna. Dowód. Zachodzi nierówność X t dp { X t >λ Z twierdzenia 4.8 część 1(i) mamy { X t >λ X b dp {sup t I X t >λ P {sup t I X t > λ 1 λ E[ X b ], λ. X b dp. Teraz tezę otrzymujemy z twierdzenia o absolutnej ciągłości całki. Twierdzenie 4.11 Każdy cad submartyngał X = {X t t jest cadlag submartyngałem. Twierdzenie 4.12 Submartyngał X = {X t t ma cad modyfikację wtedy i tylko wtedy, gdy funkcja F (t) = E[X t ] jest prawostronnie ciągła. Z tych dwóch twierdzeń wynika następujący wniosek: Każdy martyngał X = {X t t posiada cadlag modyfikację, dlatego od tego momentu będziemy zawsze zakładać, że rozważane martyngały są cadlag. Twierdzenie 4.13 Zachodzą następujące fakty: (a) Niech {X t t będzie cad submartyngałem takim, że sup E[X t + ] < +. t Wtedy istnieje (skończenie całkowalna) granica lim t X t, P -p.w. (b) Jeśli {X t jest cad submartyngałem i {X t + jest jednostajnie całkowalny to X jest zbieżny P -p.w. do skończenie całkowalnej zmiennej losowej X oraz E[X F t ] X t. (c) Jeśli {X t t jest jednostajnie całkowalnym martyngałem wtedy X jest zbieżny P -p.w. do skończenie całkowalnej zmiennej losowej X oraz E[X F t ] = X t.

16 Marek Beśka, Całka Stochastyczna, wykład 4 63 Dowód. Dowód (a) wynika z odpowiedniego twierdzenia dla martyngałów dyskretnych. Dla dowodu (b) zauważmy, że z jednostajnej całkowalności {X t + wynika, że sup E[X t + ] < +. t R + Z pierwszej części wynika, że X t X P -p.w. co z kolei pociąga zbieżność X t + P -p.w. a to razem z jednostajną całkowalnością {X t + daje zbieżność X + t Dla F t i dla każdego s mamy X t dp X t+s dp = t X+ w L 1. X + t+s dp X t+s dp. X + Stąd ( ) X t dp lim sup X t+s + dp Xt+s dp = X + dp lim inf X s s t+s dp. Stosując lemat Fatou do prawej strony otrzymujemy X t dp X + dp X dp = X dp. Co kończy dowód (b). Dla dowodu (c) trzeba zastosować (b) do X i do X. Podobne twierdzenie można otrzymać zastępując [, ) przedziałem [a, b). Twierdzenie 4.14 Niech {X t t I, gdzie I = [a, b), a, b [, ] będzie martyngałem. Następujące warunki są równoważne: (i) Istnieje granica lim t b X t w sensie zbieżności L 1. (ii) Istnieje całkowalna (skończenie) zmienna losowa X taka, że E[X F t ] = X t, dla t I. (iii) Rodzina {X t t I jest jednostajnie całkowalna. Każdy z tych warunków implikuje zbieżność {X t t I w L 1 gdy t b oraz [ ] X s = E lim X t Fs t b dla każdego s I. Ponadto, jeśli sup E [ X t p] < + t I dla pewnego p > 1 to warunki (i) (iii) zachodzą oraz lim t b X t istnieje w sensie zbieżności w L p.

17 Marek Beśka, Całka Stochastyczna, wykład 4 64 Dowód. (i) (ii) Niech s, t I,s < t, F s. Ponieważ X t X b w L 1 (X b := lim t b X t w L 1 ), stąd I X t I X b w L 1 i (ii) (iii) Wynika z wniosku 4.1. E[I X b ] = lim t b E[I X t ] = E[I X s ] (iii) (i) Jeśli {X t t I jest jednostajnie całkowalna to sup E [ X t ] < +. t I Stąd i z twierdzenia 4.13 wynika zbieżność P -p.w co z jednostajną całkowalnością daje zbieżność w L 1. Jeśli to z twierdzenia 4.8 część 3 dostajemy E[sup X t p ] t I [ sup E X t p] < +. t I ( p p 1 ) p sup E[ X t p ] < +. t I Stąd { X t p t I jest jednostajnie całkowalna, a zatem martyngał X jest zbieżny w L p. Twierdzenie 4.15 (GST) (i) Niech X = {X t t będzie cad supermartyngałem o własności: Istnieje skończenie całkowalna zmienna losowa Y taka, że X t E[Y F t ], t. Jeśli S i T są czasami zatrzymania i S T, to zmienne losowe X S i X T całkowalne oraz zachodzi nierówność są skończenie X S E[X T F S ]. (ii) Niech X = {X t t będzie cad submartyngałem o własności: Istnieje skończenie całkowalna zmienna losowa Y taka, że X t E[Y F t ], t. Jeśli S i T są czasami zatrzymania i S T, to zmienne losowe X S i X T całkowalne oraz zachodzi nierówność są skończenie X S E[X T F S ]. (iii) Niech X = {X t t będzie (cadlag) martyngałem z własnością:

18 Marek Beśka, Całka Stochastyczna, wykład 4 65 Istnieją skończenie całkowalne zmienne losowe Y 1, Y 2 takie, że E[Y 1 F t ] X t E[Y 2 F t ], t. oraz niech S i T będą czasami zatrzymania i S T. Wtedy zmienne losowe X S i X T są skończenie całkowalne oraz zachodzi równość X S = E[X T F S ]. Podobne twierdzenie można otrzymać zastępując [, ) przedziałem [a, b). Uwaga. Z lematu 1.15 wynika, że tezę GST możemy zapisać w postaci np. dla martyngału: Dla dowolnych czasów zatrzymania S i T zmienne losowe X S i X T są skończenie całkowalne oraz E(X T F S ) = E ( E(X T F T ) F S ) = E(XT F T S ) = X T S. Wniosek 4.16 Niech X = {X t t będzie cad submartyngałem i T 1, T 2 będą czasami zatrzymania oraz T 1 T 2. Każdy z poniższych warunków: (i) Istnieje t > takie, że T 2 t ; (ii) Rodzina {X + t t jest jednostajnie całkowalna implikuje skończoną całkowalność X T1 i X T2 oraz nierówność X T1 E[X T2 F T1 ]. Dowód. Załóżmy, że zachodzi (i). Wtedy dla przedziału [, t ) dostajemy X s E(X t F t ), s [, t ). Stąd z i twierdzenia 4.15 dostajemy tezę. Załóżmy, że (ii) zachodzi. Wtedy z twierdzenia 4.13 (b) mamy X t E(X F t ), t. Stosując teraz twierdzenie 4.15 dostajemy tezę. Wniosek 4.17 Niech X będzie cad submartyngałem, a T czasem zatrzymania. Proces X T jest submartngałem względem filtracji {F t T t. Dowód. Dla każdego s t mamy T s T t t. Zatem założenie (i) wniosku 4.16 jest spełnione dla czasów zatrzymania T s i T t.

19 Marek Beśka, Całka Stochastyczna, wykład 4 66 Wniosek 4.18 Niech X będzie cad submartyngałem, a T czasem zatrzymania. Proces X T jest submartngałem względem filtracji {F t t. Dowód. Niech s t. Z wniosku 4.17 i z równości (lemat 1.15) E[E[X F T ] F S ] = E[X F S T ] zastosowanej dla X := X T t, T := T t, S := s mamy E[X T t F s ] = E[E[X T t F T t ] F s ] = E[X T t F T s ] X T s Definicja 4.19 Rodzinę wszystkich jednostajnie całkowalnych cadlag martyngałów będziemy oznaczać przez M. Wniosek 4.2 Niech T będzie czasem zatrzymania. Jeśli X M to X T M. Dowód. Ponieważ X jest jednostajnie całkowalny to istnieje skończenie całkowalna zmienna losowa X taka, że X = {X t t jest martyngałem tzn. X t = E(X F t ), t. Stosując teraz ogólne twierdzenie o stopowaniu (twierdzenie 4.15) dla T i dla T t mamy E[X T F t ] = E[E[X T F T ] F t ] = E[X T F T t ] = X T t Stąd rodzina {X T t t jest jednostajnie całkowalna. Wniosek 4.21 Niech X będzie adaptowanym cadlag procesem na [, ] Ω takim, że E[ X T ] < + oraz E[X T ] = dla każdego czasu zatrzymania T, to X M. Dowód. Niech t i F t i T = t. Zachodzi równość (4.7) X t dp + X dp = E[X T ] =. Dla T = + mamy (4.8) Z (4.7) i z (4.8) mamy dla wszystkich F t, czyli I dowód jest zakończony. X dp + X dp = E[X T ] =. X dp = X t dp X t = E[X F t ].

20 Marek Beśka, Całka Stochastyczna, wykład Twierdzenia o rozkładzie Definicja 4.22 Mówimy, że cad proces X należy do klasy D jeśli rodzina {X T T Λ gdzie Λ jest zbiorem wszystkich skończonych czasów zatrzymania jest jednostajnie całkowalna. Można udowodnić, że M D oraz + D. Przy konstrukcji całki stochastycznej ważną rolę odgrywa następujące twierdzenie o rozkładzie Twierdzenie 4.23 (Doob-Meyer) Niech X będzie cad supermartyngałem należącym do klasy D. Istnieje jedyny prognozowalny rosnący proces należący do klasy + taki, że X+ jest jednostajnie całkowalnym martyngałem tj. X = M, gdzie X D, M M, +. Jeśli X jest ciągły to M i też są ciągłe. Korzystając z tego twierdzenia można udowodnić Twierdzenie 4.24 (Dellacherie) Niech. Istnieje jedyny prognozowalny à taki, że à M. Jeśli B jest standardowym ruchem Browna to jak już nam wiadomo proces {B 2 t t t R + jest martyngałem. Tak więc B 2 można przedstawić w postaci sumy prognozowalnego procesu {t i martyngału {B 2 t. le wartość oczekiwana E[B 2 t ] = t gdy t. Tak więc {B 2 t nie jest jednostajnie całkowalny. Zachodzi więc potrzeba rozszerzenia twierdznie o rozkładzie dla szerszej klasy. Definicja 4.25 Proces X nazywamy lokalnym martyngałem, jeśli jest cadlag oraz istnieje lokalizacyjny ciąg czasów zatrzymania {T n taki, że dla każdego n IN mamy X Tn M. Zbiór lokalnych martyngałów będziemy oznaczać przez M loc. Lemat 4.26 Każdy martyngał jest lokalnym martyngałem. Dowód. Rozważmy ciąg czasów zatrzymania T n = n dla n IN. Z wniosku 4.18 dla każdego n proces X Tn jest martyngałem. Udowodnimy, że jest on jednostajnie całkowalny. Mamy (X Tn ) = X n, a stąd X Tn s = X s n = E[X n F s ] = E[X Tn F s ]. Zatem X Tn M. Podobnie określamy lokalne submartyngały i lokalne supermartyngały.

21 Marek Beśka, Całka Stochastyczna, wykład 4 68 Twierdzenie 4.27 Niech X będzie cad lokalnym supermartyngałem lub lokalnym submartyngałem to X D loc. Dowód. Załóżmy, że X = {X t t jest cad lokalnym supermartyngałem. Na mocy założenia istnieje ciąg lokalizacyjny {T n taki, że X Tn jest supermartyngałem dla każdego n IN. Określmy S n = inf{t : X t > n, oraz R n = T n S n n. Zauważmy, że R n +. Zatrzymany proces X Rn = ( X Tn) S n n jest supermartyngałem, bo dla każdego s takiego, że s t mamy (z wniosku 4.18) Stąd dla t > n dostajemy E[X Rn t F s ] X Rn s (4.9) E[X Rn F s ] X Rn s n + X + R n, a stąd X Rn s n + X + R n + E[ X Rn F s ] Zmienna losowa n + X + R n jest skończenie całkowalna i rodzina {E[ X Rn F t ] t jest jednostajnie całkowalna, więc z (4.9) rodzina {X Rn t t jest jednostajnie całkowalna. Tak więc możemy stosować ogólne twierdzenie o stopowaniu dla T 1 = + i dla dowolnego skończonego czasu zatrzymania T. Mamy E[X Rn F T ] X Rn T n + X + R n. Stąd rozumując podobnie jak poprzednio dostajemy jednostajną całkowalność rodziny {X Rn T T Λ. Co kończy dowód twierdzenia dla lokalnych supermartyngałów. Gdy X jest lokalnym submartyngałem, to X jest lokalnym supermartyngałem i wystarczy zastosować już udowodnioną część twierdzenia. Twierdzenie 4.28 Niech X będzie cad lokalnym supermartyngałem. Wtedy istnieje jedyny prognozowalny rosnący proces + loc taki, że X + M loc. Dowód. Ponieważ X jest lokalnym supermartyngałem, więc istnieje ciąg lokalizacyjny {T n n 1 taki, że dla każdego n 1 X Tn jest supermartyngałem, a z twierdzenia 4.27 wynika, że X Tn D loc tzn. istnieje ciag lokalizacyjny {S n n 1 taki, że (X Tn ) Sn = X Tn Sn D. Z wniosku 4.18 (X Tn ) Sn jest supermartyngałem. Zatem z twierdzenia Dooba-Meyera (przyjmujemy R n = T n S n, n 1) otrzymujemy dla każdego n 1 X Rn = M (n) (n), gdzie M (n) M, (n) +, prognozowalny. Stąd m n mamy M (m) (m) = X Rm = (X Rn ) Rm = (M (n) ) Rm ( (n) ) Rm.

22 Marek Beśka, Całka Stochastyczna, wykład 4 69 Zatem dla m n z jednoznaczności rozkładu w twierdzeniu Dooba-Meyera dostajemy (4.1) M (m) = (M (n) ) Rm, (m) = ( (n) ) Rm. Możemy określić teraz procesy M i, mianowicie dla ustalonego t istnieje m takie, że t R m. Zatem przyjmujemy M t = M (m) t, t = (m) t. Z (4.1) wynika, że są one dobrze określone, bo dla t R m R n mamy M t = M (m) t = (M (n) ) Rm t = M (n) R m t = M (n) t. Podobnie t = (m) t = ( (n) ) Rm t = (n) R m t = (n) t. Z definicji M i oraz jeszcze raz z jednoznaczności rozkładu Dooba-Meyera mamy M Rn t = M (n) t, M (n) M, zatem M M loc oraz Rn t = (n) t, (n) +, zatem + loc, gdzie jest prognozowalny, bo takie były (n) dla n 1. Mamy więc rozkład Jednoznaczność rozkładu. Niech X = M, gdzie M M loc, + loc. oraz X = M (1) (1), gdzie M (1) M loc, (1) + loc X = M (2) (2), gdzie M (2) M loc, (2) + loc Ponadto niech {T n n 1, {S n n 1, {R n n 1, {V n n 1, {W n n 1 będą ciągami lokalizacyjnymi dla X, M (1), M (2), (1), (2) odpowiednio. Określmy Z n = T n S n R n V n W n, n 1. Wtedy (M (1) ) Zn,(M (2) ) Zn M, ( (1) ) Zn,( (2) ) Zn + dla n 1 oraz (M (1) ) Zn ( (1) ) Zn = (M (2) ) Zn ( (2) ) Zn, n 1. Z jednoznaczności rozkład Dooba-Meyera mamy dla n 1 (M (1) ) Zn = (M (2) ) Zn, ( (1) ) Zn = ( (2) ) Zn. ponieważ Z n, gdy n, zatem dla t mamy M (1) t = M (2) t, (1) t = (2) t. Twierdzenie to posiada następujące uogólnienie (rozkład Meyera-Dellacherie)

23 Marek Beśka, Całka Stochastyczna, wykład 4 7 Twierdzenie 4.29 Niech loc, wtedy istnieje jedyny prognozowalny à loc (kompensator) taki, że à M loc. Przykład. Proces Poissona X należy do loc oraz X t F (t) M loc (bo jest martyngałem). Tak więc F jest prognozowalnym kompensatorem procesu X Definicja 4.3 Proces X nazywamy semimartyngałem jeśli jest cadlag i istnieje reprezentacja X = X + M +, gdzie X jest zmienną losową F - mierzalną, M M loc, M = i V. Jeśli loc to X nazywamy semimartyngałem specjalnym. Zauważmy, że (lokalny) supermartyngał i submartyngał są specjalnymi semimartyngałami. Twierdzenie 4.31 Niech = { t t będzie prognozowalnym procesem należącym do V +. Wtedy + loc oraz istnieje ciąg lokalizacyjny {T n n 1 taki, że dla każdego n 1 mamy Tn n. Dowód. Wystarczy znaleźć ciąg lokalizacyjny {T n n 1 taki, że Tn n, bo wtedy Tn jako, że E ( Tn ) = E ( Tn ) n. Rozważmy rodzinę zbiorów B n = {(t, ω) : t (ω) n, n 1. Każdy B n jest prognozowalny i zawiera wykres [[D Bn ]] (bo jest cad z definicji V + ), gdzie D Bn (ω) = inf{t : (t, ω) B n = inf{t : t (ω) n jest debiutem zbioru B n. Przyjmijmy S n = D Bn dla n 1. Z twierdzenia 3.19 S n dla n 1 są prognozowalnymi czasami zatrzymania. Dla każdego S n istnieje jego ciąg zapowiadający {S n,m m 1. Ponieważ S n > (bo jest cad) więc S n,m < S n. Określmy T n (ω) = sup S k,m (ω), ω Ω. k n m n Zauważmy, że {T n n 1 jest niemalejący, T n, gdy n, bo S n. Ponadto mamy T n (ω) < S n (ω), bo T n (ω) = S k,n (ω) < S k (ω) S n (ω) dla pewnego 1 k n, gdzie ω Ω. stąd t (ω) n dla t [, T n (ω)]. Zatem ciąg {T n n 1 spełnia żądania twierdzenia. Wniosek 4.32 Niech V będzie prognozowalnym procesem. Wtedy loc oraz istnieje istnieje ciąg lokalizacyjny {T n n 1 taki, że dla każdego n 1 mamy Tn n.

24 Marek Beśka, Całka Stochastyczna, wykład 4 71 Dowód. Rozkładamy = φ() ψ(), gdzie φ() = + V () 2 V +, ψ() = V () 2 V + i oba procesy są prognozowalne (patrz dowód lematu 4.6). Stosujemy twierdzenie 4.31 do 2φ() i 2ψ(). Niech {S n n 1 i {R n n 1 będą ciagami lokalizacyjnymi spełniającymi tezę twierdzenia 4.31 dla 2φ() i 2ψ() (odpowiednio). Zatem T n = S n R n, n 1 spełnia on warunki tezy wniosku. Twierdzenie 4.33 Mamy następujące własności: (i) M loc V = M loc loc. (ii) Jeśli X M loc V i jest prognozowalny, to X =. Dowód. (i) Ponieważ loc V, więc musimy wykazać, że M loc V M loc loc. Niech X M loc V. Istnieje ciag lokalizacyjny {T n n 1 taki, że X Tn M dla n 1. Określmy S n = inf{t : V t (X) > n, n 1. Ponieważ X V, więc V t (X) < dla t. Stąd R n = S n T n, gdy n. Ponadto V Rn (X) = V Rn (X) + X Rn n + X Rn n + X Rn + X Rn 2n + X Rn. Z założenia X Rn = X Tn S n jest skończenie całkowalne dla każdego n 1. Stąd V Rn (X) jest skończenie całkowalne dla każdego n 1 tzn. X loc. (ii) Niech X M loc V. Z (i) mamy X M loc loc. Rozważmy rozkład X = φ(x) ψ(x), gdzie φ(x) = X + V (X) 2 + loc, V (X) X ψ(x) = 2 + loc. Ponieważ X jest prognozowalny, to φ(x) i ψ(x) są też prognozowalne. Ponadto X = φ(x) ψ(x) M loc. Stąd ψ(x) jest prognozowalny kompensatorem φ(x). Z drugiej strony φ(x) jest również swoim prognozowalnym kompensatorem, bo φ(x) φ(x) = M loc. Z jednoznaczności kompensatora dostajemy φ(x) = ψ(x). Stąd X =. Z twierdzenia tego dostajemy natychmiast Wniosek 4.34 Jeśli X M c loc V, to X =. Lemat 4.35 (P. Lévy) Niech X będzie skończenie całkowalną zmienną losową na przestrzeni probabilistycznej (Ω, F, P ), a {F n n 1 dyskretną filtracją na niej. Wtedy E(X F n ) n E(X F ) P - p.w. i w L 1 (Ω, F, P ), gdzie F = n 1 F n.

25 Marek Beśka, Całka Stochastyczna, wykład 4 72 Dowód. Oznaczmy Y n = E(X F n ). Wtedy {Y n n 1 jest jednostajnie całkowalnym martyngałem (względem filtracji {F n n 1 ). Jak wiadomo wtedy martyngał ten jest zbieżny P - p.w. i w L 1 (Ω, F, P ) do pewnej F - mierzalnej zmiennej losowej Y. Wykażemy, że E(X F ) = Y, P - p.w. Niech F n 1 F n. Wtedy istnieje m 1 takie, że F F n, n m oraz Y n dp = E(X F n ) dp = X dp. n m Stąd i ze zbieżności {Y n n 1 w L 1 (Ω, F, P ) dostajemy (4.11) Y dp = X dp. F F F Jak wiadomo rodzina n 1 F n jest algebrą, a więc w szczególności π - układem. Natomiast (jak łatwo sprawdzić) rodzina tych F F, które spełniają (4.11) jest λ - układem. Z twierdzenia o π i λ - układach dostajemy tezę. Twierdzenie 4.36 Niech X M i niech T będzie prognozowalnym czasem zatrzymania. Wtedy (i) X T jest skończenie całkowalna. (ii) E ( X T F T ) = na {T >. Dowód. Niech {T n n 1 będzie ciągiem zapowiadającym prognozowalny czas zatrzymania T. Z wniosku 2.19 mamy F T = n 1 F Tn. F F Ponieważ X M, więc z ogólnego twierdzenia o stopowaniu (twierdzenie 4.15) mamy E ( X T X Tn F Tn ) =, n 1. Stąd {X Tn n 1 jest martyngałem (jednostajnie całkowalnym) względem {F Tn n 1. Zatem (X T X Tn )I {T > zmierza P - p.w. i w L 1 do X T I {T >. Stąd i z lemtu Lévy ego (lemat 4.35) otrzymujemy E ( I {T > X T F T ) = I{T > lim n E( X T F Tn ) = I {T > lim E( X T lim X ) ( ) T n m m F Tn = I{T > lim XTn X Tn =. n Lemat 4.37 Niech X + loc, a X niech będzie jego kompensatorem. Wtedy dla każdego prognozowalnego czasu zatrzymania T mamy X T = E( X T F T ) na {T <.

26 Marek Beśka, Całka Stochastyczna, wykład 4 73 Dowód. Niech {T n n 1 będzie ciągiem lokalizacyjnym dla X + loc (możemy go wybrać tak aby T n były dla n 1 skończone np. T n n). Wtedy M = X Tn Tn X M oraz z twierdzenia 4.36 i z tego, że M = mamy = E [ (X X) Tn T F T ] = E [ X T n T Tn X T F T ] = E [ X T n T F ] T XT n T, bo X Tn T Tn = X T Tn X T jest F T - mierzalne. Zatem mamy E [ X Tn T F T Stąd ({T T n F T ) dla n 1 dostajemy E [ X Tn T Powyższe równanie możemy zapisać w postaci ] = XT n T. I ] {T T n F T = XT n T I {T T n. E [ X T I {T Tn F T ] = XT I {T Tn, n 1. Stosując teraz twierdzenie Beppo-Levi dla warunkowych wartości oczekiwanych oraz korzystając z tego, że lim n I {T Tn = I {T < dostajemy E [ X T F T ] = XT na {T <. Twierdzenie 4.38 Niech X loc będzie procesem dopuszczającym skoki tylko w totalnie nieosiągalnych czasach stopu. Wtedy prognozowalny kompenstaor X procesu X ma ciągłe trajektorie. Odwrotnie, jeśli X + loc i X ma ciągłe trajektorie, to X dopuszcza skoki tylko w totalnie nieosiągalnych czasach zatrzymania. Dowód. Z twierdzenia 3.23 mamy = {X X = n 1[[T n ]], gdzie T n, n 1 są totalnie nieosiągalne. Stąd dla każdego prognozowalnego czasu zatrzymania T mamy [[T ]] =, czyli X T =. Ponieważ X = φ(x) ψ(x), gdzie φ(x), ψ(x) + loc oraz = X T = V T (X) = V T (X) + X T 2 + V T (X) X T 2 więc φ(x) T = ψ(x) T =. Stąd i z lematu 4.37 dostajemy na {T < = φ(x) T + ψ(x) T, φ(x) T = E [ φ(x) T F T ] =, ψ(x)t = E [ ψ(x) T F T ] =,

27 Marek Beśka, Całka Stochastyczna, wykład 4 74 co implikuje X T = φ(x) T ψ(x) T = na {T <. W szczególności X t = dla t. Załóżmy teraz, że X + loc oraz kompensator X ma ciągłe trajektorie i niech T będzie prognozowalnym czasem zatrzymania. Z lematu 4.37 mamy = X T = E [ ] X T F T na {T <. Stąd = E( X T I {T < ) = E( X T I {T < ), ale X T, P - p.w. na {T <. Zatem X T =, P - p.w. na {T <, więc skoki X nie obciążają żadnego prognozowalnego czasu zatrzymania. Tezę dostajemy teraz z wniosku Uwaga. Zauważmy, że przy założeniu X loc i X + loc ostatnia teza nie musi być prawdziwa. Rozważmy przykład: Niech X = M +, gdzie c loc oraz M M loc loc jest taki, że {, gdy t < 1, M t = Y, gdy t 1, gdzie Y jest F 1 - mierzalna zmienną losową taką, że E Y < i E(Y ) =. Zuważmy, że z rozkładu Mayera-Dellacherie mamy X =. Kompensator ma zatem ciągłe trajektorie ale proces X dopuszcza skoki w prognozowalnym czasie zatrzymania T 1.

F t+ := s>t. F s = F t.

F t+ := s>t. F s = F t. M. Beśka, Całka Stochastyczna, wykład 1 1 1 Wiadomości wstępne 1.1 Przestrzeń probabilistyczna z filtracją Niech (Ω, F, P ) będzie ustaloną przestrzenią probabilistyczną i niech F = {F t } t 0 będzie rodziną

Bardziej szczegółowo

8 Całka stochastyczna względem semimartyngałów

8 Całka stochastyczna względem semimartyngałów M. Beśka, Całka Stochastyczna, wykład 8 148 8 Całka stochastyczna względem semimartyngałów 8.1 Całka stochastyczna w M 2 Oznaczmy przez Ξ zbiór procesów postaci X t (ω) = ξ (ω)i {} (t) + n ξ i (ω)i (ti,

Bardziej szczegółowo

Teoria ze Wstępu do analizy stochastycznej

Teoria ze Wstępu do analizy stochastycznej eoria ze Wstępu do analizy stochastycznej Marcin Szumski 22 czerwca 21 1 Definicje 1. proces stochastyczny - rodzina zmiennych losowych X = (X t ) t 2. trajektoria - funkcja (losowa) t X t (ω) f : E 3.

Bardziej szczegółowo

A i. i=1. i=1. i=1. i=1. W dalszej części skryptu będziemy mieli najczęściej do czynienia z miarami określonymi na rodzinach, które są σ - algebrami.

A i. i=1. i=1. i=1. i=1. W dalszej części skryptu będziemy mieli najczęściej do czynienia z miarami określonymi na rodzinach, które są σ - algebrami. M. Beśka, Wstęp do teorii miary, rozdz. 3 25 3 Miara 3.1 Definicja miary i jej podstawowe własności Niech X będzie niepustym zbiorem, a A 2 X niepustą rodziną podzbiorów. Wtedy dowolne odwzorowanie : A

Bardziej szczegółowo

2 Rodziny zbiorów. 2.1 Algebry i σ - algebry zbiorów. M. Beśka, Wstęp do teorii miary, rozdz. 2 11

2 Rodziny zbiorów. 2.1 Algebry i σ - algebry zbiorów. M. Beśka, Wstęp do teorii miary, rozdz. 2 11 M. Beśka, Wstęp do teorii miary, rozdz. 2 11 2 Rodziny zbiorów 2.1 Algebry i σ - algebry zbiorów Niech X będzie niepustym zbiorem. Rodzinę indeksowaną zbiorów {A i } i I 2 X nazywamy rozbiciem zbioru X

Bardziej szczegółowo

21 maja, Mocna własność Markowa procesu Wienera. Procesy Stochastyczne, wykład 13, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126

21 maja, Mocna własność Markowa procesu Wienera. Procesy Stochastyczne, wykład 13, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126 Mocna własność Markowa procesu Wienera Procesy Stochastyczne, wykład 13, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126 21 maja, 2012 Mocna własność Markowa W = (W 1,..., W d ) oznaczać

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład VII: Rozkład i jego charakterystyki 22 listopada 2016 Uprzednio wprowadzone pojęcia i ich własności Definicja zmiennej losowej Zmienna losowa na przestrzeni probabilistycznej (Ω, F, P) to funkcja

Bardziej szczegółowo

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Niech Ω będzie przestrzenią zdarzeń elementarnych. Definicja 1 Rodzinę S zdarzeń losowych (zbiór S podzbiorów zbioru

Bardziej szczegółowo

Wykłady ostatnie. Rodzinę P podzbiorów przestrzeni X nazywamy σ - algebrą, jeżeli dla A, B P (2) A B P, (3) A \ B P,

Wykłady ostatnie. Rodzinę P podzbiorów przestrzeni X nazywamy σ - algebrą, jeżeli dla A, B P (2) A B P, (3) A \ B P, Wykłady ostatnie CAŁKA LBSGU A Zasadnicza różnica koncepcyjna między całką Riemanna i całką Lebesgue a polega na zamianie ról przestrzeni wartości i przestrzeni argumentów przy konstrukcji sum górnych

Bardziej szczegółowo

Ośrodkowość procesów, proces Wienera. Ośrodkowość procesów, proces Wienera Procesy Stochastyczne, wykład, T. Byczkowski,

Ośrodkowość procesów, proces Wienera. Ośrodkowość procesów, proces Wienera Procesy Stochastyczne, wykład, T. Byczkowski, Procesy Stochastyczne, wykład, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 27 luty, 2012 Ośrodkowość procesów Dalej zakładamy, że (Ω, Σ, P) jest zupełną przestrzenią miarową. Definicja.

Bardziej szczegółowo

Rozdział 6. Ciągłość. 6.1 Granica funkcji

Rozdział 6. Ciągłość. 6.1 Granica funkcji Rozdział 6 Ciągłość 6.1 Granica funkcji Podamy najpierw dwie definicje granicy funkcji w punkcie i pokażemy ich równoważność. Definicja Cauchy ego granicy funkcji w punkcie. Niech f : X R, gdzie X R oraz

Bardziej szczegółowo

PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω)

PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω) PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω) określonych na tej samej przestrzeni probabilistycznej

Bardziej szczegółowo

n=0 Dla zbioru Cantora prawdziwe są wersje lematu 3.6 oraz lematu 3.8 przy założeniu α = :

n=0 Dla zbioru Cantora prawdziwe są wersje lematu 3.6 oraz lematu 3.8 przy założeniu α = : 4. Zbiory borelowskie. Zbiór wszystkich podzbiorów liczb naturalnych będziemy oznaczali przez ω. Najmniejszą topologię na zbiorze ω, w której zbiory {A ω : x A ω \ y}, gdzie x oraz y są zbiorami skończonymi,

Bardziej szczegółowo

Dystrybucje, wiadomości wstępne (I)

Dystrybucje, wiadomości wstępne (I) Temat 8 Dystrybucje, wiadomości wstępne (I) Wielkości fizyczne opisujemy najczęściej przyporządkowując im funkcje (np. zależne od czasu). Inną drogą opisu tych wielkości jest przyporządkowanie im funkcjonałów

Bardziej szczegółowo

1. Struktury zbiorów 2. Miara 3. Miara zewnętrzna 4. Miara Lebesgue a 5. Funkcje mierzalne 6. Całka Lebesgue a. Analiza Rzeczywista.

1. Struktury zbiorów 2. Miara 3. Miara zewnętrzna 4. Miara Lebesgue a 5. Funkcje mierzalne 6. Całka Lebesgue a. Analiza Rzeczywista. Literatura P. Billingsley, Miara i prawdopodobieństwo, PWN, Warszawa 1997, P. R. Halmos, Measure theory, Springer-Verlag, 1994, W, Kołodziej, naliza matematyczna, PWN, Warszawa 1978, S. Łojasiewicz, Wstęp

Bardziej szczegółowo

Rozdział 4. Ciągi nieskończone. 4.1 Ciągi nieskończone

Rozdział 4. Ciągi nieskończone. 4.1 Ciągi nieskończone Rozdział 4 Ciągi nieskończone W rozdziale tym wprowadzimy pojęcie granicy ciągu. Dalej rozszerzymy to pojęcie na przypadek dowolnych funkcji. Jak zauważyliśmy we wstępie jest to najważniejsze pojęcie analizy

Bardziej szczegółowo

Wykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga

Wykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga RAP 412 21.01.2009 Wykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga Wykładowca: Andrzej Ruciński Pisarz: Łukasz Waszak 1 Wstęp Na ostatnim wykładzie przedstawiliśmy twierdzenie o zbieżności

Bardziej szczegółowo

1 Działania na zbiorach

1 Działania na zbiorach M. Beśka, Wstęp do teorii miary, rozdz. 1 1 1 Działania na zbiorach W rozdziale tym przypomnimy podstawowe działania na zbiorach koncentrując się na własnościach tych działań, które będą przydatne w dalszej

Bardziej szczegółowo

Teoria miary i całki

Teoria miary i całki Teoria miary i całki Spis treści 1 Wstęp 3 2 lgebra zbiorów 5 3 Pierścienie, ciała, σ ciała zbiorów. 7 3.1 Definicja pierścienia ciała i σ ciała............... 7 3.2 Pierścień, ciało i σ ciało generowane

Bardziej szczegółowo

1 Relacje i odwzorowania

1 Relacje i odwzorowania Relacje i odwzorowania Relacje Jacek Kłopotowski Zadania z analizy matematycznej I Wykazać, że jeśli relacja ρ X X jest przeciwzwrotna i przechodnia, to jest przeciwsymetryczna Zbadać czy relacja ρ X X

Bardziej szczegółowo

Prawa wielkich liczb, centralne twierdzenia graniczne

Prawa wielkich liczb, centralne twierdzenia graniczne , centralne twierdzenia graniczne Katedra matematyki i ekonomii matematycznej 17 maja 2012, centralne twierdzenia graniczne Rodzaje zbieżności ciągów zmiennych losowych, centralne twierdzenia graniczne

Bardziej szczegółowo

Rozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej

Rozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Zbiór możliwych wyników eksperymentu będziemy nazywać przestrzenią zdarzeń elementarnych i oznaczać Ω, natomiast

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład II: Zmienne losowe i charakterystyki ich rozkładów 13 października 2014 Zmienne losowe Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Definicja zmiennej losowej i jej

Bardziej szczegółowo

Dystrybucje. Marcin Orchel. 1 Wstęp Dystrybucje Pochodna dystrybucyjna Przestrzenie... 5

Dystrybucje. Marcin Orchel. 1 Wstęp Dystrybucje Pochodna dystrybucyjna Przestrzenie... 5 Dystrybucje Marcin Orchel Spis treści 1 Wstęp 1 1.1 Dystrybucje................................... 1 1.2 Pochodna dystrybucyjna............................ 3 1.3 Przestrzenie...................................

Bardziej szczegółowo

Notatki z Analizy Matematycznej 2. Jacek M. Jędrzejewski

Notatki z Analizy Matematycznej 2. Jacek M. Jędrzejewski Notatki z Analizy Matematycznej 2 Jacek M. Jędrzejewski Definicja 3.1. Niech (a n ) n=1 będzie ciągiem liczbowym. Dla każdej liczby naturalnej dodatniej n utwórzmy S n nazywamy n-tą sumą częściową. ROZDZIAŁ

Bardziej szczegółowo

Statystyka i eksploracja danych

Statystyka i eksploracja danych Wykład II: i charakterystyki ich rozkładów 24 lutego 2014 Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa,

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład IV: 27 października 2014 Współczynnik korelacji Brak korelacji a niezależność Definicja współczynnika korelacji Współczynnikiem korelacji całkowalnych z kwadratem zmiennych losowych X i Y nazywamy

Bardziej szczegółowo

f(t) f(x), D f(x) = lim sup t x oraz D f(x) = lim inf

f(t) f(x), D f(x) = lim sup t x oraz D f(x) = lim inf 9. Różniczkowanie. Jeśli f jest funkcją rzeczywistą, to granice D + f(x) = lim sup t x + f(t) f(x), D f(x) = lim sup t x t x f(t) f(x), t x f(t) f(x) f(t) f(x) D + f(x) = lim inf oraz D f(x) = lim inf

Bardziej szczegółowo

Ciągłość funkcji i podstawowe własności funkcji ciągłych.

Ciągłość funkcji i podstawowe własności funkcji ciągłych. Ciągłość funkcji i podstawowe własności funkcji ciągłych. Definicja (otoczenie punktu) Otoczeniem punktu x 0 R, o promieniu nazywamy zbiór x R taki, że: inaczej x x 0 x x 0, x 0 Definicja (ciągłość w punkcie)

Bardziej szczegółowo

Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna.

Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna. Wykład 4 Rozkłady i ich dystrybuanty Dwa typy zmiennych losowych Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x, x 2,...}, to mówimy, że jest to zmienna dyskretna.

Bardziej szczegółowo

Jak rzucać losowe spojrzenia na ruch Browna by w nim wszystko dojrzeć

Jak rzucać losowe spojrzenia na ruch Browna by w nim wszystko dojrzeć Jak rzucać losowe spojrzenia na ruch Browna by w nim wszystko dojrzeć Jan Ob lój Uniwersytet Warszawski Université Paris 6 Konwersatorium IMPAN, Listopad 2004 p.1/22 Plan referatu 1. Wstępne definicje

Bardziej szczegółowo

Statystyka i eksploracja danych

Statystyka i eksploracja danych Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu w dziedzinach matematyczno-przyrodniczych realizowany w ramach Poddziałania 4.1.1 Programu Operacyjnego Kapitał Ludzki Statystyka i eksploracja

Bardziej szczegółowo

Zadania o numerze 4 z zestawów licencjat 2014.

Zadania o numerze 4 z zestawów licencjat 2014. Zadania o numerze 4 z zestawów licencjat 2014. W nawiasie przy zadaniu jego występowanie w numerze zestawu Spis treści (Z1, Z22, Z43) Definicja granicy ciągu. Obliczyć granicę:... 3 Definicja granicy ciągu...

Bardziej szczegółowo

Analiza matematyczna. 1. Ciągi

Analiza matematyczna. 1. Ciągi Analiza matematyczna 1. Ciągi Definicja 1.1 Funkcję a: N R odwzorowującą zbiór liczb naturalnych w zbiór liczb rzeczywistych nazywamy ciągiem liczbowym. Wartość tego odwzorowania w punkcie n nazywamy n

Bardziej szczegółowo

Pochodna funkcji odwrotnej

Pochodna funkcji odwrotnej Pochodna funkcji odwrotnej Niech będzie dana w przedziale funkcja różniczkowalna i różnowartościowa. Wiadomo, że istnieje wówczas funkcja odwrotna (którą oznaczymy tu : ), ciągła w przedziale (lub zależnie

Bardziej szczegółowo

Całki niewłaściwe. Całki w granicach nieskończonych

Całki niewłaściwe. Całki w granicach nieskończonych Całki niewłaściwe Całki w granicach nieskończonych Wiemy, co to jest w przypadku skończonego przedziału i funkcji ograniczonej. Okazuje się potrzebne uogólnienie tego pojęcia w różnych kierunkach (przedział

Bardziej szczegółowo

Literatura. Leitner R., Zacharski J., Zarys matematyki wyŝszej dla studentów, cz. III.

Literatura. Leitner R., Zacharski J., Zarys matematyki wyŝszej dla studentów, cz. III. Literatura Krysicki W., Bartos J., Dyczka W., Królikowska K, Wasilewski M., Rachunek Prawdopodobieństwa i Statystyka Matematyczna w Zadaniach, cz. I. Leitner R., Zacharski J., Zarys matematyki wyŝszej

Bardziej szczegółowo

Równanie przewodnictwa cieplnego (I)

Równanie przewodnictwa cieplnego (I) Wykład 4 Równanie przewodnictwa cieplnego (I) 4.1 Zagadnienie Cauchy ego dla pręta nieograniczonego Rozkład temperatury w jednowymiarowym nieograniczonym pręcie opisuje funkcja u = u(x, t), spełniająca

Bardziej szczegółowo

Zdzisław Dzedzej. Politechnika Gdańska. Gdańsk, 2013

Zdzisław Dzedzej. Politechnika Gdańska. Gdańsk, 2013 Zdzisław Dzedzej Politechnika Gdańska Gdańsk, 2013 1 PODSTAWY 2 3 Definicja. Przestrzeń metryczna (X, d) jest zwarta, jeśli z każdego ciągu {x n } w X można wybrać podciąg zbieżny {x nk } w X. Ogólniej

Bardziej szczegółowo

SZEREGI LICZBOWE I FUNKCYJNE

SZEREGI LICZBOWE I FUNKCYJNE Mając dowolny ciąg można z niego utworzyć nowy ciąg sum częściowych: Ten nowy rodzaj ciągu nazywamy szeregiem liczbowym, a jeśli to mamy do czynienia z nieskończonym szeregiem liczbowym, który oznaczany

Bardziej szczegółowo

Przykładami ciągów, które Czytelnik dobrze zna (a jeśli nie, to niniejszym poznaje), jest ciąg arytmetyczny:

Przykładami ciągów, które Czytelnik dobrze zna (a jeśli nie, to niniejszym poznaje), jest ciąg arytmetyczny: Podstawowe definicje Definicja ciągu Ciągiem nazywamy funkcję na zbiorze liczb naturalnych, tzn. przyporządkowanie każdej liczbie naturalnej jakiejś liczby rzeczywistej. (Mówimy wtedy o ciągu o wyrazach

Bardziej szczegółowo

RÓWNANIA RÓŻNICZKOWE WYKŁAD 2

RÓWNANIA RÓŻNICZKOWE WYKŁAD 2 RÓWNANIA RÓŻNICZKOWE WYKŁAD 2 Równania różniczkowe o zmiennych rozdzielonych Równania sprowadzalne do równań o zmiennych rozdzielonych Niech f będzie funkcją ciągłą na przedziale (a, b), spełniającą na

Bardziej szczegółowo

Optymalne stałe w nierówności typu LlogL dla ciągłych martyngałów

Optymalne stałe w nierówności typu LlogL dla ciągłych martyngałów Uniwersytet Warszawski Wydział Matematyki, Informatyki i Mechaniki Piotr Dworczak Nr albumu: 91564 Optymalne stałe w nierówności typu LlogL dla ciągłych martyngałów Praca licencjacka na kierunku MATEMATYA

Bardziej szczegółowo

Wstęp do Analizy Stochastycznej

Wstęp do Analizy Stochastycznej Wstęp do Analizy Stochastycznej Rafał Latała 6 września 21 Poniższy tekst zawiera notatki do wykładów ze Wstępu do Analizy Stochastycznej, prowadzonego w semestrze wiosennym 21 roku. Gwiazdkami oznaczono

Bardziej szczegółowo

Rozdział 5. Szeregi liczbowe. 5.1 Szeregi liczbowe. Definicja sumy częściowej ciągu. Niech dany będzie ciąg liczbowy (a n ) n=1.

Rozdział 5. Szeregi liczbowe. 5.1 Szeregi liczbowe. Definicja sumy częściowej ciągu. Niech dany będzie ciąg liczbowy (a n ) n=1. Rozdział 5 Szeregi liczbowe 5. Szeregi liczbowe Definicja sumy częściowej ciągu. Niech dany będzie ciąg liczbowy ( ). Ciąg (s n ) określony wzorem s n = n a j, n N, nazywamy ciągiem sum częściowych ciągu

Bardziej szczegółowo

Funkcja wykładnicza kilka dopowiedzeń

Funkcja wykładnicza kilka dopowiedzeń Funkcje i ich granice Było: Zbiór argumentów; zbiór wartości; monotoniczność; funkcja odwrotna; funkcja liniowa; kwadratowa; wielomiany; funkcje wymierne; funkcje trygonometryczne i ich odwrotności; funkcja

Bardziej szczegółowo

Zagadnienia stacjonarne

Zagadnienia stacjonarne Zagadnienia stacjonarne Karol Hajduk 19 grudnia 2012 Nierówność wariacyjna (u (t), v u(t)) + a(u, v u) + Ψ(v) Ψ(u) (f, v u), v V. Zagadnienie stacjonarne ma postać (u (t) = 0): a(u, v u) + Ψ(v) Ψ(u) (f,

Bardziej szczegółowo

E-learning - matematyka - poziom rozszerzony. Funkcja wykładnicza. Materiały merytoryczne do kursu

E-learning - matematyka - poziom rozszerzony. Funkcja wykładnicza. Materiały merytoryczne do kursu E-learning - matematyka - poziom rozszerzony Funkcja wykładnicza Materiały merytoryczne do kursu Definicję i własności funkcji wykładniczej poprzedzimy definicją potęgi o wykładniku rzeczywistym. Poprawna

Bardziej szczegółowo

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład Rozdział 1 Wektory losowe 1.1 Wektor losowy i jego rozkład Definicja 1 Wektor X = (X 1,..., X n ), którego każda współrzędna jest zmienną losową, nazywamy n-wymiarowym wektorem losowym (krótko wektorem

Bardziej szczegółowo

1 Funkcje i ich granice

1 Funkcje i ich granice Funkcje i ich granice Było: Zbiór argumentów; zbiór wartości; monotoniczność; funkcja odwrotna; funkcja liniowa; kwadratowa; wielomiany; funkcje wymierne; funkcje trygonometryczne i ich odwrotności; funkcja

Bardziej szczegółowo

W. Guzicki Zadanie IV z Informatora Maturalnego poziom rozszerzony 1

W. Guzicki Zadanie IV z Informatora Maturalnego poziom rozszerzony 1 W. Guzicki Zadanie IV z Informatora Maturalnego poziom rozszerzony 1 Zadanie IV. Dany jest prostokątny arkusz kartony o długości 80 cm i szerokości 50 cm. W czterech rogach tego arkusza wycięto kwadratowe

Bardziej szczegółowo

Pochodne wyższych rzędów definicja i przykłady

Pochodne wyższych rzędów definicja i przykłady Pochodne wyższych rzędów definicja i przykłady Pochodne wyższych rzędów Drugą pochodną funkcji nazywamy pochodną pochodnej tej funkcji. Trzecia pochodna jest pochodną drugiej pochodnej; itd. Ogólnie, -ta

Bardziej szczegółowo

Wstęp do Analizy Stochastycznej

Wstęp do Analizy Stochastycznej Matematyka stosowana Wstęp do Analizy Stochastycznej Rafał Latała R.Latala@mimuw.edu.pl http://www.mimuw.edu.pl/~rlatala Uniwersytet Warszawski, 211 Streszczenie. Ogólna teoria procesów, proces Wienera.

Bardziej szczegółowo

Rodzinę F złożoną z podzbiorów zbioru X będziemy nazywali ciałem zbiorów, gdy spełnione są dwa następujące warunki.

Rodzinę F złożoną z podzbiorów zbioru X będziemy nazywali ciałem zbiorów, gdy spełnione są dwa następujące warunki. 3. Funkcje borelowskie. Rodzinę F złożoną z podzbiorów zbioru X będziemy nazywali ciałem zbiorów, gdy spełnione są dwa następujące warunki. (1): Jeśli zbiór Y należy do rodziny F, to jego dopełnienie X

Bardziej szczegółowo

Przykładowe zadania z teorii liczb

Przykładowe zadania z teorii liczb Przykładowe zadania z teorii liczb I. Podzielność liczb całkowitych. Liczba a = 346 przy dzieleniu przez pewną liczbę dodatnią całkowitą b daje iloraz k = 85 i resztę r. Znaleźć dzielnik b oraz resztę

Bardziej szczegółowo

Programowanie liniowe

Programowanie liniowe Programowanie liniowe Maciej Drwal maciej.drwal@pwr.wroc.pl 1 Problem programowania liniowego min x c T x (1) Ax b, (2) x 0. (3) gdzie A R m n, c R n, b R m. Oznaczmy przez x rozwiązanie optymalne, tzn.

Bardziej szczegółowo

Zadania z Rachunku Prawdopodobieństwa II Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,

Zadania z Rachunku Prawdopodobieństwa II Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ, Zadania z Rachunku Prawdopodobieństwa II -. Udowodnij, że dla dowolnych liczb x n, x, δ xn δ x wtedy i tylko wtedy, gdy x n x.. Wykaż, że n n k= δ k/n λ, gdzie λ jest miarą Lebesgue a na [, ].. Podać przykład

Bardziej szczegółowo

Znaleźć wzór ogólny i zbadać istnienie granicy ciągu określonego rekurencyjnie:

Znaleźć wzór ogólny i zbadać istnienie granicy ciągu określonego rekurencyjnie: Ciągi rekurencyjne Zadanie 1 Znaleźć wzór ogólny i zbadać istnienie granicy ciągu określonego rekurencyjnie: w dwóch przypadkach: dla i, oraz dla i. Wskazówka Należy poszukiwać rozwiązania w postaci, gdzie

Bardziej szczegółowo

STATYSTYKA

STATYSTYKA Wykład 1 20.02.2008r. 1. ROZKŁADY PRAWDOPODOBIEŃSTWA 1.1 Rozkład dwumianowy Rozkład dwumianowy, 0 1 Uwaga: 1, rozkład zero jedynkowy. 1 ; 1,2,, Fakt: Niech,, będą niezależnymi zmiennymi losowymi o jednakowym

Bardziej szczegółowo

Całki podwójne. Definicja całki podwójnej. Jacek Kłopotowski. 25 maja Katedra Matematyki i Ekonomii Matematycznej

Całki podwójne. Definicja całki podwójnej. Jacek Kłopotowski. 25 maja Katedra Matematyki i Ekonomii Matematycznej Definicja całki podwójnej Katedra Matematyki i Ekonomii Matematycznej 25 maja 2016 Definicja całki podwójnej Załóżmy, że f : K R, gdzie K = a, b c, d R 2, jest funkcją ograniczoną. Niech x 0, x 1,...,

Bardziej szczegółowo

Równania różniczkowe. Notatki z wykładu.

Równania różniczkowe. Notatki z wykładu. Równania różniczkowe Notatki z wykładu http://robert.brainusers.net 17.06.2009 Notatki własne z wykładu. Są niekompletne, bez bibliografii oraz mogą zawierać błędy i usterki. Z tego powodu niniejszy dokument

Bardziej szczegółowo

Krzysztof Rykaczewski. Szeregi

Krzysztof Rykaczewski. Szeregi Krzysztof Rykaczewski Spis treści 1 Definicja szeregu 2 Zbieżność szeregu 3 Kryteria zbieżności szeregów 4 Iloczyn Cauchy ego szeregów 5 Bibliografia 1 / 13 Definicja szeregu Niech dany będzie ciąg (a

Bardziej szczegółowo

4. O funkcji uwikłanej 4.1. Twierdzenie. Niech będzie dana funkcja f klasy C 1 na otwartym podzbiorze. ϕ : K(x 0, δ) (y 0 η, y 0 + η), taka że

4. O funkcji uwikłanej 4.1. Twierdzenie. Niech będzie dana funkcja f klasy C 1 na otwartym podzbiorze. ϕ : K(x 0, δ) (y 0 η, y 0 + η), taka że 4. O funkcji uwikłanej 4.1. Twierdzenie. Niech będzie dana funkcja f klasy C 1 na otwartym podzbiorze taka że K(x 0, δ) (y 0 η, y 0 + η) R n R, f(x 0, y 0 ) = 0, y f(x 0, y 0 ) 0. Wówczas dla odpowiednio

Bardziej szczegółowo

Ważne rodziny nad- i podmartyngałów dla symetrycznego błądzenia losowego

Ważne rodziny nad- i podmartyngałów dla symetrycznego błądzenia losowego Uniwersytet Warszawski Wydział Matematyki, Informatyki i Mechaniki Joanna Dys Nr albumu: 233996 Ważne rodziny nad- i podmartyngałów dla symetrycznego błądzenia losowego Praca licencjacka na kierunku MATEMATYKA

Bardziej szczegółowo

jest ciągiem elementów z przestrzeni B(R, R)

jest ciągiem elementów z przestrzeni B(R, R) Wykład 2 1 Ciągi Definicja 1.1 (ciąg) Ciągiem w zbiorze X nazywamy odwzorowanie x: N X. Dla uproszczenia piszemy x n zamiast x(n). Przykład 1. x n = n jest ciągiem elementów z przestrzeni R 2. f n (x)

Bardziej szczegółowo

Zagadnienia brzegowe dla równań eliptycznych

Zagadnienia brzegowe dla równań eliptycznych Temat 7 Zagadnienia brzegowe dla równań eliptycznych Rozważmy płaski obszar R 2 ograniczony krzywą. la równania Laplace a (Poissona) stawia się trzy podstawowe zagadnienia brzegowe. Zagadnienie irichleta

Bardziej szczegółowo

1 Metody rozwiązywania równań nieliniowych. Postawienie problemu

1 Metody rozwiązywania równań nieliniowych. Postawienie problemu 1 Metody rozwiązywania równań nieliniowych. Postawienie problemu Dla danej funkcji ciągłej f znaleźć wartości x, dla których f(x) = 0. (1) 2 Przedział izolacji pierwiastka Będziemy zakładać, że równanie

Bardziej szczegółowo

Zadania z Rachunku Prawdopodobieństwa II Podaj przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,

Zadania z Rachunku Prawdopodobieństwa II Podaj przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ, Zadania z Rachunku Prawdopodobieństwa II -. Udowodnij, że dla dowolnych liczb x n, x, δ xn δ x wtedy i tylko wtedy, gdy x n x.. Wykaż, że n n k= δ k/n λ, gdzie λ jest miarą Lebesgue a na [, ].. Podaj przykład

Bardziej szczegółowo

5 Przegląd najważniejszych rozkładów

5 Przegląd najważniejszych rozkładów 5 Przegląd najważniejszych rozkładów 5. Rozkład Bernoulliego W niezmieniających się warunkach wykonujemy n razy pewne doświadczenie. W wyniku każdego doświadczenia może nastąpić zdarzenie A lub A. Zakładamy,

Bardziej szczegółowo

Równanie przewodnictwa cieplnego (II)

Równanie przewodnictwa cieplnego (II) Wykład 5 Równanie przewodnictwa cieplnego (II) 5.1 Metoda Fouriera dla pręta ograniczonego 5.1.1 Pierwsze zagadnienie brzegowe dla pręta ograniczonego Poszukujemy rozwiązania równania przewodnictwa spełniającego

Bardziej szczegółowo

Logarytmy. Funkcje logarytmiczna i wykładnicza. Równania i nierówności wykładnicze i logarytmiczne.

Logarytmy. Funkcje logarytmiczna i wykładnicza. Równania i nierówności wykładnicze i logarytmiczne. Logarytmy. Funkcje logarytmiczna i wykładnicza. Równania i nierówności wykładnicze i logarytmiczne. Definicja. Niech a i b będą dodatnimi liczbami rzeczywistymi i niech a. Logarytmem liczby b przy podstawie

Bardziej szczegółowo

Wykład 1. Przestrzeń Hilberta

Wykład 1. Przestrzeń Hilberta Wykład 1. Przestrzeń Hilberta Sygnały. Funkcje (w języku inżynierów - sygnały) które będziemy rozważali na tym wykładzie będą kilku typów Sygnały ciągłe (analogowe). ) L (R) to funkcje na prostej spełniające

Bardziej szczegółowo

Przestrzeń probabilistyczna

Przestrzeń probabilistyczna Przestrzeń probabilistyczna (Ω, Σ, P) Ω pewien niepusty zbiór Σ rodzina podzbiorów tego zbioru P funkcja określona na Σ, zwana prawdopodobieństwem. Przestrzeń probabilistyczna (Ω, Σ, P) Ω pewien niepusty

Bardziej szczegółowo

(b) Suma skończonej ilości oraz przekrój przeliczalnej ilości zbiorów typu G α

(b) Suma skończonej ilości oraz przekrój przeliczalnej ilości zbiorów typu G α FUNKCJE BORELOWSKIE Rodzinę F podzbiorów zbioru X (tzn. F X) będziemy nazywali ciałem gdy spełnione są warunki: (1) Jeśli zbiór Y F, to dopełnienie X \ Y też należy do rodziny F. (2) Jeśli S F jest skończoną

Bardziej szczegółowo

2. Definicja pochodnej w R n

2. Definicja pochodnej w R n 2. Definicja pochodnej w R n Niech będzie dana funkcja f : U R określona na zbiorze otwartym U R n. Pochodną kierunkową w punkcie a U w kierunku wektora u R n nazywamy granicę u f(a) = lim t 0 f(a + tu)

Bardziej szczegółowo

III. ZMIENNE LOSOWE JEDNOWYMIAROWE

III. ZMIENNE LOSOWE JEDNOWYMIAROWE III. ZMIENNE LOSOWE JEDNOWYMIAROWE.. Zmienna losowa i pojęcie rozkładu prawdopodobieństwa W dotychczas rozpatrywanych przykładach każdemu zdarzeniu była przyporządkowana odpowiednia wartość liczbowa. Ta

Bardziej szczegółowo

granicą ciągu funkcyjnego (f n ) n N W symbolicznym zapicie fakt, że f jest granicą ciągu funkcyjnego (f n ) n N możemy wyrazić następująco: ε>0 N N

granicą ciągu funkcyjnego (f n ) n N W symbolicznym zapicie fakt, że f jest granicą ciągu funkcyjnego (f n ) n N możemy wyrazić następująco: ε>0 N N 14. Określenie ciągu i szeregu funkcyjnego, zbieżność punktowa i jednostajna. Własności zbieżności jednostajnej. Kryterium zbieżności jednostajnej szeregu funkcyjnego. 1 Definicja Ciąg funkcyjny Niech

Bardziej szczegółowo

Konstrukcja liczb rzeczywistych przy pomocy ciągów Cauchy ego liczb wymiernych

Konstrukcja liczb rzeczywistych przy pomocy ciągów Cauchy ego liczb wymiernych Konstrukcja liczb rzeczywistych przy pomocy ciągów Cauchy ego liczb wymiernych Marcin Michalski 14.11.014 1 Wprowadzenie Jedną z intuicji na temat liczb rzeczywistych jest myślenie o nich jako liczbach,

Bardziej szczegółowo

Wykład 2: Szeregi Fouriera

Wykład 2: Szeregi Fouriera Rachunek prawdopodobieństwa MAP64 Wydział Elektroniki, rok akad. 8/9, sem. letni Wykładowca: dr hab. A. Jurlewicz Wykład : Szeregi Fouriera Definicja. Niech f(t) będzie funkcją określoną na R, okresową

Bardziej szczegółowo

Analiza matematyczna 1 - test egzaminacyjny wersja do ćwiczeń

Analiza matematyczna 1 - test egzaminacyjny wersja do ćwiczeń Analiza matematyczna 1 - test egzaminacyjny wersja do ćwiczeń Leszek Skrzypczak 1. Niech E = {x [0, 1] : x = k 2 n k = 1, 2,... 2 n, n = 1, 2, 3,...} Wówczas: (a) Dla dowolnych liczb wymiernych p, q [0,

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład XIV: Metody Monte Carlo 19 stycznia 2016 Przybliżone obliczanie całki oznaczonej Rozważmy całkowalną funkcję f : [0, 1] R. Chcemy znaleźć przybliżoną wartość liczbową całki 1 f (x) dx. 0 Jeden ze

Bardziej szczegółowo

Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe.

Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Rachunek prawdopodobieństwa MAP3040 WPPT FT, rok akad. 2010/11, sem. zimowy Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Warunkowa wartość oczekiwana.

Bardziej szczegółowo

Rozkłady statystyk z próby

Rozkłady statystyk z próby Rozkłady statystyk z próby Rozkłady statystyk z próby Przypuśćmy, że wykonujemy serię doświadczeń polegających na 4 krotnym rzucie symetryczną kostką do gry, obserwując liczbę wyrzuconych oczek Nr kolejny

Bardziej szczegółowo

ALGEBRA Z GEOMETRIĄ BAZY PRZESTRZENI WEKTOROWYCH

ALGEBRA Z GEOMETRIĄ BAZY PRZESTRZENI WEKTOROWYCH ALGEBRA Z GEOMETRIĄ 1/10 BAZY PRZESTRZENI WEKTOROWYCH Piotr M. Hajac Uniwersytet Warszawski Wykład 11, 18.12.2013 Typeset by Jakub Szczepanik. Istnienie bazy Tak jak wśród wszystkich pierścieni wyróżniamy

Bardziej szczegółowo

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów. Rachunek prawdopodobieństwa MAP1181 Wydział PPT, MS, rok akad. 213/14, sem. zimowy Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Bardziej szczegółowo

r u du. Proces wartości aktywów firmy V. Proces bariery v wykorzystywany do zdefiniowania defaultu. moment defaultu τ.

r u du. Proces wartości aktywów firmy V. Proces bariery v wykorzystywany do zdefiniowania defaultu. moment defaultu τ. Wprowadzenie Mamy ustalone T > 0 horyzont, (Ω, F, P) z F filtracja, F = {F t } t [0,T ] oraz Proces chwilowej stopy procentowej r = (r t ) t [0,T ], tzn. rachunek bankowy spełnia ODE: db t = B t r t dt,

Bardziej szczegółowo

PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA. Piotr Wiącek

PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA. Piotr Wiącek PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA Piotr Wiącek ROZKŁAD PRAWDOPODOBIEŃSTWA Jest to miara probabilistyczna określona na σ-ciele podzbiorów borelowskich pewnej przestrzeni metrycznej. σ-ciało podzbiorów

Bardziej szczegółowo

Zmienne losowe ciągłe i ich rozkłady

Zmienne losowe ciągłe i ich rozkłady Statystyka i opracowanie danych W3 Zmienne losowe ciągłe i ich rozkłady Dr Anna ADRIAN Paw B5, pok47 adan@agh.edu.pl Plan wykładu Rozkład Poissona. Zmienna losowa ciągła Dystrybuanta i funkcja gęstości

Bardziej szczegółowo

1 Określenie pierścienia

1 Określenie pierścienia 1 Określenie pierścienia Definicja 1. Niech P będzie zbiorem, w którym określone są działania +, (dodawanie i mnożenie). Mówimy, że struktura (P, +, ) jest pierścieniem, jeżeli spełnione są następujące

Bardziej szczegółowo

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe Nierówność Czebyszewa Niech X będzie zmienną losową o skończonej wariancji V ar(x). Wtedy wartość oczekiwana E(X) też jest skończona i

Bardziej szczegółowo

ANALIZA MATEMATYCZNA 2005/06, semestr 1. Tadeusz Rzeżuchowski

ANALIZA MATEMATYCZNA 2005/06, semestr 1. Tadeusz Rzeżuchowski ANALIZA MATEMATYCZNA 2005/06, semestr 1. Tadeusz Rzeżuchowski 1 Spis treści 1 Zbiory liczbowe 5 1.1 Krótka informacja o zbiorach liczb naturalnych, całkowitych i wymiernych 5 1.1.1 Liczby naturalne.........................

Bardziej szczegółowo

a 1, a 2, a 3,..., a n,...

a 1, a 2, a 3,..., a n,... III. Ciągi liczbowe. 1. Definicja ciągu liczbowego. Definicja 1.1. Ciągiem liczbowym nazywamy funkcję a : N R odwzorowującą zbiór liczb naturalnych N w zbiór liczb rzeczywistych R i oznaczamy przez {a

Bardziej szczegółowo

Proces Poissona. Proces {N(t), t 0} nazywamy procesem zliczającym jeśli N(t) oznacza całkowitą liczbę badanych zdarzeń zaobserwowanych do chwili t.

Proces Poissona. Proces {N(t), t 0} nazywamy procesem zliczającym jeśli N(t) oznacza całkowitą liczbę badanych zdarzeń zaobserwowanych do chwili t. Procesy stochastyczne WYKŁAD 5 Proces Poissona. Proces {N(t), t } nazywamy procesem zliczającym jeśli N(t) oznacza całkowitą liczbę badanych zdarzeń zaobserwowanych do chwili t. Proces zliczający musi

Bardziej szczegółowo

Rozdział 8. Analiza fourierowska. 8.1 Rozwinięcie w szereg Fouriera

Rozdział 8. Analiza fourierowska. 8.1 Rozwinięcie w szereg Fouriera Rozdział 8 Analiza fourierowska 8.1 Rozwinięcie w szereg Fouriera Rozważmy funkcję rzeczywistą f określoną na okręgu o promieniu jednostkowym. Parametryzując okrąg przy pomocy kąta φ [, π] otrzymujemy

Bardziej szczegółowo

7. CIĄGI. WYKŁAD 5. Przykłady :

7. CIĄGI. WYKŁAD 5. Przykłady : WYKŁAD 5 1 7. CIĄGI. CIĄGIEM NIESKOŃCZONYM nazywamy funkcję określoną na zbiorze liczb naturalnych, dodatnich, a wyrazami ciągu są wartości tej funkcji. CIĄGIEM SKOŃCZONYM nazywamy funkcję określoną na

Bardziej szczegółowo

Analiza Funkcjonalna - Zadania

Analiza Funkcjonalna - Zadania Analiza Funkcjonalna - Zadania 1 Wprowadzamy następujące oznaczenia. K oznacza ciało liczb rzeczywistych lub zespolonych. Jeżeli T jest dowolnym zbiorem niepustym, to l (T ) = {x : E K : x funkcja ograniczona}.

Bardziej szczegółowo

Rozdział 9. Funkcja pierwotna. 9.1 Funkcja pierwotna

Rozdział 9. Funkcja pierwotna. 9.1 Funkcja pierwotna Rozdział 9 Funkcja pierwotna 9. Funkcja pierwotna Definicja funkcji pierwotnej. Niech f będzie funkcją określoną na przedziale P. Mówimy, że funkcja F : P R jest funkcją pierwotną funkcji f w przedziale

Bardziej szczegółowo

Podstawy analizy matematycznej II

Podstawy analizy matematycznej II Podstawy analizy matematycznej II Andrzej Marciniak Zajęcia finansowane z projektu "Rozwój i doskonalenie kształcenia na Politechnice Poznańskiej w zakresie technologii informatycznych i ich zastosowań

Bardziej szczegółowo

W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych:

W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych: W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych: Zmienne losowe skokowe (dyskretne) przyjmujące co najwyżej przeliczalnie wiele wartości Zmienne losowe ciągłe

Bardziej szczegółowo

Zmienne losowe ciągłe i ich rozkłady

Zmienne losowe ciągłe i ich rozkłady Rachunek Prawdopodobieństwa i Statystyka - W3 Zmienne losowe ciągłe i ich rozkłady Dr Anna ADRIAN Paw B5, pok47 adan@agh.edu.pl Plan wykładu Zmienna losowa ciągła Dystrybuanta i unkcja gęstości rozkładu

Bardziej szczegółowo