NOTATKI SPORZADZIŁ: JACEK MUCHA
|
|
- Paulina Klimek
- 5 lat temu
- Przeglądów:
Transkrypt
1 WYDZIAŁ PODSTAWOWYCH PROBLEMÓW TECHNIKI POLITECHNIKI WROCŁAWSKIEJ DR HAB. MATEUSZ KWAŚNICKI Teoria potencjału procesów Markowa NOTATKI SPORZADZIŁ: JACEK MUCHA WROCŁAW 2015
2 Spis treści 1 Elektrostatyka Istnienie i własności funkcji Greena G D (x,y) i jądra Poissona P D (x,z) 6 2 Ruch Browna Warunkowa wartość oczekiwana Ruch Browna Konstrukcja Przestrzeń Wienera Własność Markowa 9 4 Czasy Markowa 11 5 Mocna własność Markowa Procesy Fellera λ-potencjał Funkcje λ-ekscesywne Operatory przesunięcia
3 Klasyczna Teoria Potencjału Klasyczna teoria potencjału (słowo kluczowe: laplasjan, ) Probabilistyczna teoria potencjału (Brownian Motion, BM) Probabilistyczna ogólna teoria potencjału (Markov Processes, MP) Uwaga notacyjna. Należy zachować ostrożność przy odróżnianiu x i x, w pewnym bowiem momencie przestaniemy pisać strzałkę nad wektorem.
4 1 Elektrostatyka Oznaczenia: E - pole elektrostatyczne, µ - rozkład ładunku (nie zależy od czasu, B = J = 0). Prawo 1.1 (Coulomba). Załóżmy, że Wtedy zachodzi tzw. Prawo Coulomba Obserwacja 1.2. gdzie µ dy <. (1) R y 2 E( x) = 1 x y µ(dy) (2) 4π R 3 x y 3 1 x y 4π x y 3 = yu( x, y), (3) U( x, y) = U( x y) = 1 1 4π x y. (4) Stąd E( x) = yu( x, y)µ(dy) = R 3 xu( x, y))µ(dy) =! R 3 U( x, y)µ(dy). (5) R3 Definicja 1.1. Potencjałem miary µ (potencjałem Newtona) nazwiemy wielkość daną wzorem U µ ( x) := U( x, y)µ(dy). (6) R3 Ogólniej, dla d 3, dla U(x,y) = U(x y) = 1 1 (d 2) B(0,1) mamy x y d 2 1 x y y U(x,y) = (d 2) B(0,1) x y d. (7) Fakt 1.3. γ E( x)d x = U µ ( x 2 ) U µ ( x 1 ), gdzie krzywa γ łączy x 1 z x 2. Dowód. E( x) U µ ( x), a stąd E( x(t)) x (t)dt = U µ ( x(t)). Fakt 1.4. Pole elektryczne jest bezwirowe, tzn. Dowód. Wynika z faktu, że f = 0. E = 0 (8)
5 Definicja 1.2. Przypomnienie. 1. Gradientem funkcji f nazywamy wielkość f = ( 1 f,..., d f ). 2. Dywergencją pola E nazywamy wielkość E = 1 E d E d. 3. Rotacją pola E (wirowością) nazywamy wielkość E = ( 2 E 3 3 E 2, 3 E 1 1 E 3, 1 E 2 2 E 1 ). Twierdzenie 1.5. E = V E = 0. Twierdzenie 1.6 (Twierdzenie o Dywergencji). Niech D R 3 będzie zwartym obszarem dodatnio zorientowanym o brzegu kawałkami gładkim oraz F będzie polem wektorowym klasy C 1 określonym na otwartym zbiorze zawierającym D. Wtedy F( y)dy = F( z) d n z, (9) D gdzie n z jest wektorem normalnym skierowanym na zewnątrz D. Twierdzenie to mówi o tym, ile pola "powstaje wewnątrz D". Twierdzenie 1.7 (Trzeci Wzór Greena). Przy spełnionych założeniach poprzedniego twierdzenia oraz dla f klasy C 2, zachodzi wzór f ( x) = U( x, y) f ( y)d y + U( x, z) f ( z) f ( z) y U( x, z) d n z. (10) D D Dowód. Skorzystamy z Twierdzenia 1.6 oraz z faktu, że laplasjan =, tzn. f = 2 1 f d f. F( y) = U( x, y) f ( y) f ( y) yu( x, y). D F( y) = y U f +Y f f y U f f f U = U f f y U. Ćwiczenie 1.1. Dla x y zachodzi y U( x, y) = 0. Zastosujemy Twierdzenie o Dywergencji dla D \ B(x,ε). RHS = U( x, y) f ( y)dy+ + (U( x, z) f ( z) f ( z) y x, z)) n z = D = B( x,ε) D\B( x,ε) B( x,ε) U( x, y) f ( y)dy + c d ε d+2 B( x,ε). Zauważmy, że n = z x ε = ε2 ε, stąd RHS = (U( x, y) c d ε d+2 ) f ( y)dy + B( x,ε) 1 f ( z) B(0, 1) B( x,ε) ε ε d d z 1 B( x,ε) f ( z)dz.
6 Pierwsza całka dąży do 0 przy ε 0 +, bo pierwszy składnik nie zależy od ε, podczas gdy całkujemy go po malejącej do zbioru pustego kuli, natomiast drugi składnik rośnie do wolniej niż kurczy się kula. Z kolei całka krzywoliniowa, z ciągłości f, dąży do f ( x), co kończy dowód, bo RHS ε 0+ LHS. E = (Uµ). Ze wzoru Greena: U µ ( x) = U( x, y) (Uµ)( y)d y + ( U( x, z) E( z) Uµ( z) y U( x, z)) d n z. D D Zauważmy, że U( x, z) 1 z, E( z) 1, Uµ( z) 1 z 2 z, zaś yu( x, y) 1. Jeśli przyjmiemy D = B(0,R), R U µ ( x) = Rd U( x, y) (Uµ)( y)dy. W tym przy- z 2 padku, jeśli U µ nie jest klasy C 2, to można spleść µ z gładką funkcją φ, co daje U(µ φ)( x) = U( x, y) (U(µ φ))( y)d y = U( U(µ φ))( x) Rd U(µ φ) = U( U(µ φ)) U jest operatorem różnowartościowym, bo U(ψ) = 0 Uψ = 0 U( ψ) = 0 i z 3. Wzoru Greena ψ = 0. Zatem µ φ = U(µ φ). Można to pokazać inaczej: z gładkości splotu i Trzeciego Wzoru Greena dostajemy, że (µ φ)( x) = Rd U( x, y) (µ φ)( y)d y = U( (µ φ)( x) = U(µ φ)( x). Możemy więc powiedzieć, że możliwe jest odzyskanie gęstości rozkładu ładunku poprzez przyłożenie laplasjanu do potencjału, tzn. µ(d x) = E( x)d x = U µ ( x)d x. Jeśli µ(d) = 0, to także U µ = 0 w D, czyli U µ jest harmoniczna w D. Twierdzenie 1.8. Jeśli µ(dx) = ρ(x)dx i ρ jest klasy C 2 w otoczeniu x, to U µ (x) = ρ(x). Ogólniej µ(dx) = lim ε 0 + (U µ φ ε )(x)dx) ( -słaba granica miar), gdzie φ ε (x) = ε d φ(εx), φ C c (R d ) oraz φ 0 całkuje się do 1. W szczególności U µ jest harmoniczna na D, jeśli µ (D) = 0. Trzeci Wzór Greena dla D = B(0,ε). f (0) = U(0,y) f (y)dy + f (z)c d ε d+2 f (z) dn z + D D D D dz = (U(0,y) c d ε d+2 f (y)dy + 1 f (z)dz. D D Oznacza to, że wartość funkcji we wnętrzu obszaru jest to jej laplasjan plus jej wartość na brzegu tego obszaru. Wynika stąd Twierdzenie 1.9. Jeśli f jest harmoniczna w D = B(x 0,r), to f (x 0 ) = 1 D D f (z)dz. Prawdziwe jest też twierdzenie odwrotne. D
7 Wniosek 1.10 (Zasada maksimum). Funkcje harmoniczne różne od stałej osiągają maksimum na brzegu. Twierdzenie Jeśli f jest harmoniczna w D = B(x 0,r), to f (x 0 ) = 1 D D f (y)dy. Wniosek 1.12 (Własność Liouville a). Funkcje harmoniczne nieujemne lub ograniczone w R d są stałe. Ogólniej: f (x) = D U(x,y) f (y)dy+ D (U(x,z) f (z) f (z) zu(x,z)) dn z. Przypuśćmy, że znamy funkcje r D : r D (x,z) = U(x,z) dla z D. y r D (x,y) = 0 zagadnienie Dirichleta. f (x) = (U(x,y) r D (x,y)) f (y)dy D D f (z) y (U(x,z) r D (x,z)) dn z. (11) Definicja 1.3. G D (x,y) = U(x,y) r D (x,y) nazywamy jądrem Greena. Definicja 1.4. P D (x,z)dz = y (U(x,z) r D (x,z)) n z = y G D (x,y) dn z = y G D (x,z) nazywamy jądrem Poissona. 1.1 Istnienie i własności funkcji Greena G D (x,y) i jadra Poissona P D (x,z) Jeśli D = B(0,r), x D, to r D (x,y) = U( x r y r x x) jest harmoniczne dla y r 2 x. Gdy z = r, to x x 2 r z r x x 2 = x 2 + z 2 2xz = x z 2, czyli r D (x,z) = U(x,z). Funkcja Greena kuli c dr r 2 x 2 x y d. G D (x,y) =U(x y) U( x r y r x x). Jądro Poissona: P d(x,z) = Definicja 1.5 (Transformacja Kelvina). to operator K f (x) = U(x) f ( r2 x 2 x). Fakt f = 0 (K f )( r2 x 2 x) = 0.
8 2 Ruch Browna 2.1 Warunkowa wartość oczekiwana Definicja 2.1. Warunkową wartość oczekiwaną E(Y X) określić jako E(Y X) = φ(x) (12) dla jakiejś mierzalnej funkcji φ. Inne przydatne wyrażenie: A-mierzalnego E(Y ;X A) = E(φ(X);X A). (13) Konwencja, którą będziemy stosować: E(Z;M) = E(Z 1 M ). (14) Ogólniej: niech M będzie σ-algebra. Wtedy E(Y M ) = Z, gdzie Z jest M -mierzalna. E(Y ;M) = E(Z;M) dla M M (15) Rozkład warunkowy: P(X B X) = E(1 B (Y ) X) (16) P(X B M ) = E(1 B (Y ) M ) (17) 2.2 Ruch Browna Definicja 2.2 (Ruch Browna w R d ). Proces stochastyczny X t nazywamy ruchem Browna w R d (inna nazwa: d-wymiarowy proces Wienera), jeśli, dla t [0, ]: P(X 0 = 0) = 1 X t ma stacjonarne przyrosty, tj. X s+t X s d = Xt X 0 X t ma niezależne przyrosty, tj. 0 = t 0 < t 1 < < t n X t1,...,x tn X tn 1 są niezależne X t1 X t0,x t2 X t ma rozkład niezmienniczy na obroty X t ma z prawdopodobieństwem 1 ciągłe i niestałe trajektorie t X t (ω). Twierdzenie 2.1. X t N (0,c t I d ), c > 0.
9 2.3 Konstrukcja Niech ξ n będzie ciągiem niezależnych zmiennych losowych o rozkładzie N (0,I) w R d. Niech t 0 = 0, (t n : n 1) - ciąg wszystkich liczb bez powtórzeń Q (0, ). Definiujemy X t0 = 0 X tn = X ti + t n t i ξ n, X tn = t j t n t j t i X ti + t n t i t j t i X t j + gdy t i = max{t 0,t 1,...t n 1 } < t n (t j t n )(t n t i ) t j t i ξ n, gdy t n (t i,t j ) oraz t 0,t 1,...,t n 1 / (t i,t j ) (18) Ćwiczenie 2.1. X t : t [0, ) Q) ma niezależne i stacjonarne przyrosty, X t N (0,2tI). Ćwiczenie 2.2. Z prawdopodobieństwem 1 trajektorie t X t (ω) rozszerzają się do funkcji ciągłych na [0, ) (z zasady odbicia). Ćwiczenie 2.3. X t = lim s t s Q X s jest procesem Wienera. 2.4 Przestrzeń Wienera Definicja 2.3. C([0, )) z miarą: rozkład (t X t (ω)) nazywamy przestrzenią Wienera z miarą Wienera. Rozważamy σ-ciała (uwaga na mierzalność) 1. borelowskie 2. σ-ciało zbiorów cylindrycznych (radonifikacja) Zakładamy, że istnieje rodzina prawdopodoieństw P x, x R d taka, że (X t x : t [0, )) z miarą P x jest równy (w sensie rozkładów skończenie wymiarowych) (X t : t [0, )) z miarą P = P 0. Przykład 2.1. P x nie istnieją na {ω C([0, )) : ω(0) = 0} z miarą Wienera i X t (ω) = ω(t). Przykład 2.2. Ω = C([0, )), P 0 - miara Wienera. P x (ω M) = P 0 (ω x M). Definicja 2.4. Procesem kanonicznym nazywamy proces X t (ω) = ω(t). Oczywiście (ω x)(t) = ω(t) x.
10 3 Własność Markowa Twierdzenie 3.1. Dla d = 1 zachodzi P( sup X t > x) = 2P(X T > x), x > 0. (19) t [0,T ] Dowód. (szkic) Niech τ x = inf{t > 0 : X t = x} [0, ]. P( sup X t > x) = P(τ x T ) =! 2P(τ x T,X T > X τx ) X τx = =x 2P(X t > x). t [0,T ] Definicja 3.1. p t (x,a) = P x (X t A) będziemy nazywać prawdopodobieństwem (funkcją) przejścia. Fakt 3.2. p t (x, ) = N (x,cti). W ogólności p t (x, ) jest rozkładem prawdopodobieństwa, zaś p t (,A) jest funkcją borelowską. Zachodzi wzór p t (x,a) = p t (0,A x). Ćwiczenie 3.1. Dla 0 < t 1 < t 2 zachodzi oraz P x (X t1 A 1,X t2 A 2 ) = A 1 A 2 f Xt1,X t2 (x 1,x 2 )dx 1 dx 2 (20) f Xt1,X t2 (x 1,x 2 )dx 1 dx 2 = p t1 (x,dx 1 )p t2 t 1 (x 1,dx 2 ). (21) Ogólniej, dla 0 < t 1 < < t n, rozkład skończenie wymiarowy wyraża się wzorem P x (X t1 A 1,X t2 A 2,...,X tn A n ) = p t1 (x,dx 1 ) A 1 p t2 t 1 (x 1,dx 2 )... A 2 p tn t n 1 (x n 1,dx n ). (M) A n Fakt 3.3. (M) zachodzi dla procesów o niezależnych i stacjonarnych przyrostach. Definicja 3.2. Niech 0 < s 1 < < s m < s oraz 0 < t 1 < < t n. Mówimy, że X t ma własność Markowa, jeżeli (22) E x (X s+t1 B 1,...X s+tn B n (X s1,...,x sm,x s )) = φ(x s ), (23) gdzie φ(x) = P x (X t1 B 1,...,X tn B n ). Twierdzenie 3.4. (M) własność Markowa.
11 Dowód. E x = (φ(s x );X s1 A 1,...X sm A m,x s A) = = p s1 (x,dy 1 ) p s2 s 1 (y 1,dy 2 )... p sm s m 1 (y m 1,dy m ) A 1 A 2 A m ( ) p t1 (y,dx 1 )... p tn t n 1 (x n 1,dx n ) = B 1 B n = P x (X s1 A 1,...X sm A m,x s A,X s+t1 B 1,...,X s+tn B n ). A p s sm (y m,dy) Niech F t = σ{x s : s [0,t]}, t [0, ], czyli F t = {X s A,s [0,t],A R d } (naturalna filtracja). Własność Markowa oznacza, że E x (Φ(X s+t1,...,x s+tn ) F t ) = φ(x s ), gdzie φ(x) = E x (Φ(X t1,...,x tn )), Φ - funkcja ograniczona borelowska.
12 4 Czasy Markowa Definicja 4.1. Filtracja to rosnąca rodzina σ-algebr F t, t [0, ]. Definicja 4.2. F t+ = F s, s (t, ] F t = σ s [0,t) F s. (24) Definicja 4.3. Zmienną losową τ [0, ] nazywamy F t -czasem Markowa (będziemy pisać w skrócie F t cz.m.), jeśli {τ t} F t. Ćwiczenie 4.1. Wtedy {τ < t} i {τ = t} F t. Dowód. (Jacek Mucha) {τ = t} = {τ t} \ n N t 1 n 0 {τ t 1 n }, przy czym {τ 1 n } F t 1 F t. Suma przeliczalnie wielu zbiorów mierzalnych n jest mierzalna. Różnica dwóch zbiorów mierzalnych jest mierzalna, bo A \ B = (A c B) c. Dla t = 0 teza jest oczywista. Z kolei {τ < t} = ({τ t} c {τ = t}) c F t. Definicja 4.4. τ nazywamy czasem Markowa (cz. M.), jeśli τ jest F t+ -czasem Markowa. Ćwiczenie 4.2. F t+ też jest filtracją. Fakt 4.1. Jeśli τ jest F t -czasem Markowa, to τ jest czasem Markowa. Dowód. F t F t+. Fakt 4.2. τ-cz.m. t {τ < t} F t. Dowód. Załóżmy najpierw, że τ jest czasem Markowa. Wtedy {τ < t} = n N t 1 n 0 {τ t 1 n } F t,
13 bo n N {τ t n 1} F (t 1 n )+ F t. W drugą stronę. {τ t} = {τ < t + 1 n } Zauważmy, że n N k {τ < t + 1 n } = n N czyli {τ t} k N F t+ 1 k = F t+. N n k n N F t+ 1 n. {τ < t + 1 n } F t+ 1, k Fakt 4.3. Niech τ,σ - czasy Markowa. Wtedy min(τ,σ) też jest czasem Markowa. Dowód. {min(τ,σ) < t} = {τ < t} {σ < t} F t+. Fakt 4.4. Niech τ,σ - F t -czasy Markowa. Wtedy min(τ,σ) też jest F t -czasem Markowa. Dowód. {min(τ,σ) < t} = {τ < t} {σ < t} F t. Ćwiczenie 4.3. Niech τ,σ,(τ n } - czasy Markowa. Wtedy czasami Markowa są także max(τ,σ) supτ n infτ n limsupτ n liminfτ n. Przykład 4.1. Niech F t = σ{x s : s [0,t]} oraz τ A = inf{t : X t / A} (czas pierwszego wyjścia ze zbioru A). Jeśli A = A (A jest zbiorem domkniętym), to τ A = inf{t Q : X t / A}. Wtedy {τ A < t} = s Q {X s / A} F t, bo jest to suma przeliczalnie wielu zdarzeń z F t. s<t Zatem τ A jest czasem Markowa (ale nie jest F t -czasem Markowa!). (1) Jeśli A jest zbiorem otwartym, to τ A = lim n τ An, gdzie A n = {x : dist(x,a c ) 1 n }. Równość (1) wynika z ciągłości trajektorii: X / Int(A τa n k), gdy n k, zatem, gdy X τ = lim n X (gdzie τ = lim τa n n τ An ); k A k = A, czyli X τ / A, o ile τ <. Zatem τ An τ A τ, o ile τ <. Gdy τ =, to τ A τ An, zatem τ A =. W szczególności τ A są mierzalne i są czasami Markowa. Tak naprawdę τ A są nawet F t -czasami Markowa.
14 Fakt 4.5. Jeśli przestrzeń probabilistyczna jest odpowiednio zupełna, to τ A jest czasem Markowa dla dowolnego borelowskiego A. Dowód. Trudny. Definicja 4.5. Jeśli τ-cz.m., definiujemy F τ+ = {M F : M {τ t} F t+ }. Ćwiczenie 4.4. F τ+ = {M F : M {τ < t} F t }. Definicja 4.6. Jeśli τ-cz.m., to definiujemy F τ = {M F : M {τ t} F t }. Definicja 4.7. Jeśli τ-cz.m., to definiujemy F τ = σ{m {τ < t} : M F t }. Ćwiczenie 4.5. τ t F τ(±) = F t(±). Ćwiczenie 4.6. F τ,f τ+,f τ to σ-algebry. Ćwiczenie 4.7. F τ F τ F τ+. Fakt 4.6. Jeśli τ σ - czasy Markowa, to F τ+ F σ+. Dowód. M {σ < t} = M {τ < t} {σ < t}, przy czym {σ < t} {τ < t}. Ale M {τ < t} F t, bo M F τ+. {σ < t} F t, bo σ-cz.m. Przekrój dwóch zdarzeń z F t jest w F t, więc M {σ < τ} F t. Fakt 4.7. Jeśli τ-cz.m., to τ jest F τ+ -mierzalny oraz F τ -mierzalny. Dowód. Będziemy myśleć, że M = {τ < t}. {τ < t} {τ < s} = {τ < min(t,s)} F min(t,s) F s. Czyli {τ < t} F τ+. W istocie τ jest F τ -mierzalny. Fakt 4.8. Jeśli τ,σ-cz.m., to {τ < σ} F τ+ F σ+. Dowód. {τ < σ} {σ < t} = s<t s Q {τ < s} {s < σ} {σ < t} F t, bo {τ < s} F s, {s < σ} F s+, {σ < t} F t. Zatem {τ < σ} F σ+. Z drugiej strony {τ < σ} {τ < t} = {τ < s} {s < σ} {τ < t} ({τ < t} {σ t}) F t, s<t s Q bo τ < s} F s,{s < σ} F s+,{τ < t} F t,{σ t} F t. Zatem {τ < σ} F τ+.
15 Fakt 4.9. Jeśli cz.m. τ = lim n τ n, gdzie τ n - malejący ciąg czasów Markowa, to Dowód. Pokażemy ( ). F τ+ = F τn +. (25) n N M {τ n < t} = M {τ < t} {τ n < t} F t, bo M {τ < t} F t z założenia oraz {τ n < t} F t. ( ) W drugą stronę. M {τ < t} = (M {τ n < t}) F t. n N Fakt Jeśli τ jest czasem Markowa, a σ - F t -czasem Markowa oraz τ < σ, to F τ+ F σ. Dowód. M {σ τ} = M {τ < t} {σ t} F t.
16 5 Mocna własność Markowa Definicja 5.1. Niech F t = σ{x s : s [0,t]}. Proces stochastyczny X t ma mocną własność Markowa, jeśli E x (Φ(X τ+t1,...,x τ+tn ) F τ+ ) = φ(x τ ), (26) gdzie φ(y) = E y Φ(X t1,...,x tn ) na zbiorze {τ < } dla każdego czasu Markowa τ, funkcji borelowskiej i ograniczonej Φ i t 1 < t 2 < < t n. Definicję powyższą można również sformułować następująco: E x (Φ(X τ+t1,...,x τ+tn );M {τ < }) = E x (φ(x τ );M {τ < }), M F τ+. (27) P x (M) = P x (M M) = E x (1 M ;M) = E x (φ(x 0 );M) = E x (φ(x);m) = φ(x)p x (M) = (P x (M)) 2, bo Φ = 1 M można aproksymować przez Φ n takie jak w mocnej własności Markowa; M F 0+,τ = 0,φ(y) = E y (1 M ) = P y (M). Wniosek 5.1. (Prawo 0-1 Blumenthala). Jeśli proces stochastyczny X t ma mocną własność Markowa, to F 0+ jest trywialne, tzn. P x (M) {0,1} dla M F 0+. Twierdzenie 5.2. Ruch Browna ma mocną własność Markowa. 5.1 Procesy Fellera Twierdzenie 5.3. Procesy Fellera mają mocną własność Markowa. Dowód podamy później. Definicja 5.2. p t (x,dy) nazywamy fellerowskim prawdopodobieństwem przejścia, jeśli 1. p 0 (x,dy) = δ x (dy) 2. f C 0 (X) X f (y)p t(x,dy) C 0 jako funkcja x 3. p t (x, ) jest ciągłą funkcją t w słabej topologii na przestrzeni miarowej. Fakt 5.4. Przy założeniu (1) i (2) z powyższej definicji, (3) można zapisać równoważnie jako: 3. (t,x) f (y)p t (x,dy) jest ciągła względem (t,x).
17 Przez p t f (x) będziemy rozumieć p t f (x) = f (y)p t (x,dy). (28) Przy powyższym oznaczeniu można napisać, że warunki (1),(2),(3) z Definicji 5.2 odpowiadają 1. p 0 f = f 2. p t : C 0 (X) C 0 (X) 3. p s f p t f, gdy s t, a f C 0 (X). Tutaj X jest lokalnie zwartą ośrodkową przestrzenią metryczną, zaś C 0 (X) to przestrzeń funkcji ciągłych takich, że ε > 0 K-zwarty taki, że f (x) < ε dla x / K. Dowód podamy później. Definicja 5.3. Proces X t nazywamy procesem Fellera, jeśli spełnia (M), ma fellerowskie prawdopodobieństwa przejścia i jego trajektorie są prawostronnie ciągłe z lewostronnymi granicami (càdlàg). Twierdzenie 5.5. Każde fellerowskie prawdopodobieństwo przejścia odpowiada pewnemu procesowi Fellera. Wracamy do dowodu Twierdzenia 5.3, tj., że każdy proces Fellera ma mocną własność Markowa. Dowód. Dowód będzie przebiegał w pięciu krokach. Krok 1. τ jest czasem Markowa. τ = lim n min(τ,n), oczywiście min(τ,n) to czasy Markowa. Jeśli τ jest ograniczony, to τ = lim k τ k, gdzie τ k = 2k τ+1 przyjmuje skończenie wiele wartości. 2 k {τ k t} = { 2 k τ+1 2 k t} = {2 k τ+1 < 2 k t +1} = {τ < 2k t 2 k } F 2 k t 2 k F t. Zatem τ k jest F t -czasem Markowa. Krok 2. Policzymy L = E x (Φ(X τk +t 1,...,X τk +t n );M {τ k = s}). Skorzystamy z Faktu 4.10, co daje M {τ k = s} F τ+ F τk, zaś {τ k = s} F s. Dalej L = E x (Φ(X s+t1,...,x s+tn );M {τ k = s}) 1 = E x (φ(x s );M {τ k = s}) = E x (φ(x τk );M {τ k = s}), gdzie równość 1 wynika z własności Markowa. Następnie sumujemy po wszystkich wartościach s (jest ich skończenie wiele), otrzymując: E x (Φ(X τk +t 1,...,X τk +t n ;M) = E x (φ(x τk );M). (29)
18 Krok 3. Przejście k. X τk +t j X τ+t j p.w. Jeśli Φ C 0 (X n ), to lewa strona równania 29 dąży do E x (Φ(X τ+t1,...,x τ+tn );M). X τk X τ p.w. φ jest ciągła (ćwiczenie, f C 0 (X) E x f (X t ) C 0, E x Φ(X t1,...,x tn ) = p t1 (x,dx 1 )... Φ(x 1,...,x n )p tn t n 1 (x n 1,dx x )...). Zatem prawa strona dąży do E x (φ(x τ );M). Krok 4. τ - niekoniecznie ograniczony. Niech σ k = min(τ,k). τ = lim k σ k. Dla M F σk + zachodzi E x (Φ(X σk +t 1,...,X σk +t n );M {σ k = τ}) = E x (φ(x σk );M {σ k = τ}). Tutaj M {σ k = τ} F σk + i rośnie do M {τ < }. Z twierdzenia Lebesgue a (dla odpowiednich M) zachodzi więc równość E x (Φ(X τ+t1,...,x τ+tn );M {τ < }) = E x (φ(x τ );M {τ < }). Jeśli M F τ+, to M {τ < } = k N M {τ k} oraz M {τ k} F σk +, bo M {τ k} {σ k < t} = M {τ = σ k } {τ < t} = M {τ < t} {τ < k}. Jeśli t k, to ostatnie wyrażenie M {τ < t} F t, w przeciwnym zaś przypadku M {τ k} F k+ F t. Krok 5. Pokażemy na koniec, że φ(x = tau) jest F τ+ -mierzalny. Jeśli τ jest ograniczony, to X τk są F τk -mierzalne, bo {X τk A} = s{x s A} {τ k = s}, gdzie każdy składnik sumy należy do rodziny F τk (ćwiczenie). Dalej, X τ = lim k X τk jest F τ j -mierzalne j N. X τ jest mierzalne dla j=1 F τ j = F τ+. Jeśli τ-dowolny, to {X τ A,τ < } = {X τ A,τ = σ k } = {X σk A;τ = σ k } F τ+, k N bo i-ty składnik sumy należy do rodziny F σk +. Przez X oznaczamy przestrzeń stanów. Jest to ośrodkowa, lokalnie zwarta przestrzeń metryzowalna (R d ). Przyjmujemy - dodatkowy stan; X = X { } to jednopunktowe uzwarcenie X. k N Definicja 5.4. Rodzinę zbiorów H nazywamy π-układem, jeśli A,B H A B H. Definicja 5.5. Niech X /0. Rodzinę zbiorów H 2 X nazywamy λ-układem, jeśli 1. X H 2. A,B H : B A A \ B H
19 3. {A 1,A 2,...} H n N : A n A n+1 n N A n H. Lemat 5.1 (o π i λ układach). Niech X /0. Jeśli rodzina zbiorów H 2 X jest jednocześnie π i λ układem podzbiorów zbioru X, to jest ona σ-algebrą podzbiorów zbioru X. Fakt 5.6. G X / G i G-otwarty w X lub G i X \ G zwarty w X. Definicja 5.6. Rozszerzmy prawdopodobieństwo przejścia na X : p t (x,{ }) = 1 p t (x,x) p t (,A) = δ (A) = 1 A ( ). Fakt 5.7. Wyżej określone p t jest prawdopodobieństwem przejścia na X. Definicja 5.7. Miara K(x, A) względem x, borelowska względem y nazywana jest jądrem. Oznaczenie: K f (x) = K(x,dy) f (y) (o ile całka jest zbieżna). Fakt 5.8. p t jest jądrem. Obserwacja 5.9. Dla f borelowskich i ograniczonych zachodzi p t+s f = p t (p s f ). Obserwacja p t rozszerza się do fellerowskiego prawdopodobieństwa przejścia na X. Fakt (t,x, f ) p t f (x) jest ciągła [0, ) X C 0 R. Dowód. Niech (t n,x n, f n ) (t,x, f ). p t f (x) p tn f n (x n ) p t f (x) = p t f (x n ) + p t f (x n ) p tn f (x n ) + p tn f (x n ) p tn f n (x n ). Zauważmy, że p t f (x) = p t f (x n ) 0, bo p t f jest ciągła. p tn f p t f, więc p t f (x n ) p tn f (x n ) p tn f p t f 0. Z kolei p tn f (x n ) p tn f n (x n ) f f n 0, bo p t g(x) 1 g. Ostatecznie p t f (x) p tn f n (x n ) 0, q.e.d. Wniosek (t,x) p t (x,a) jest borelowska. Dowód. Jeśli A-otwarty, to A = n=1 K n dla pewnych K n -zwartych, K n K n+1. Istnieje f n C c taka, że f n (x) = 1 w K n, f n (x) = 0 poza A oraz f n (x) [0,1] w X. p t (x,a) = lim n pt (x,dy) f n (y) = lim n p t f n (x). Granica ciągłych (względem (t, x) funkcji borelowskich jest borelowska. Wystarczy udowodnić, że rodzina A: (t,x) p t (x,a) jest borelowska jest λ-układem. /0 ma tę własność p t (x,x \ A) = p t (x,x) p t (x,a). p t (x,x) jest borelowska, bo X jest otwarty, więc rozważana rodzina jest zamknięta na branie dopełnień. p t (x, n=1 A n ) = n=1 p t(x,a n ), gdy A n są rozłączne. Zatem rodzina ta jest zamknięta na przeliczalne sumy rozłączne. Na mocy lematu o π λ-układach rozważana rodzina zawiera zbiory borelowskie.
20 5.2 λ-potencjał Definicja 5.8. Jądrem λ-potencjału nazywamy transformatę Laplace a prawdopodobieństwa przejścia: u λ (x,a) = 0 e λt p t (x,a)dt. (30) Fakt u λ jest jądrem. Będziemy pisać u λ f (x) = u λ (x,dy) f (y), λ 0. Gdy λ = 0, to otrzymujemy miarę nieskończoną. Gdy λ > 0, to u λ (x,x) 1 λ. W poniższych przykładach będziemy przyjmować X = R d. Przykład 5.1. Niech p t (x,a) = A gdzie u 0 (x) = 1 = 4π d 2 x d (4πt) d 2 u 0 (x,a) = 1 (4πt) d 2 e x y 2 4t dy. Wtedy A e x 2 4t dt = 0 e s s d 2 2 ds = u 0 (x y)dy, (31) 1 (π x 2 s ) d 2 s x 2 e 4s 2 ds =, gdy d = 1 lub d = 2 Γ( d 2 2 ) 4π d 2 x d 2, gdy d 3 Zauważmy, że u 0 jest tu analogonem klasycznego potencjału. u 0 (x,a) można interpretować jako średni czas przebywania przez proces w zbiorze A. Przykład 5.2. O ile poprzedni przykład odnosił się w pewien sposób do procesu Wienera, o tyle teraz rozpatrzmy proces, którego prawdopodobieństwa przejścia związane są z rozkładem Cauchy ego. Niech p t (x,a) = A c Policzmy potencjał. u 0 (x,a) = Podstawmy s = t (t 2 + x y 2 ) d+1 2 A u 0 (x,y)dy, u 0 (x,y) = x y 2, t 2 = x y 2 t 2 + x y 2 s 1 dy, gdzie c = dy. (32) R d (1 + y 2 ) d c t (t 2 + x y 2 ) d+1 2 dt. x y 2, 2tdt = x y 2 ds. Otrzymujemy s 2 { 1 c u 0 (x,y) = 0 2 s d+1 2 x y d 1 x y 2 c 1 s 2 ds = 2 x y d 1 s d 3, gdy d = 1 2 ds = c 2 0, gdy d 2. x y d 1.
21 Przykład 5.3. Ogólnie p t (x,a) = p t (A x) (przy czym p t (x,a) = p t (0,A x)). e iξ x p t (dx) = e t(<ξ,[a]ξ> iξ z1 B(z))ν(dz) = e tψ(ξ). (33) ν - intensywność skoków w jedynce. u λ (x,a) = u λ (A x). Transformata Fouriera: e iξ x u λ (dx) = 0 e λt e tψ(ξ) dt = 1 λ+ψ(ξ). Przypomnijmy teraz garść faktów. p t f f, u λ f 1 λ f (bo: u λ f u λ f u λ f +, a stąd u λ f max( u λ f +, u λ f ) 1 λ max( f +, f ) = 1 λ f ). u nazywamy potencjałem lub rezolwentą. Fakt Dla f C 0 p t f f, gdy t 0. Fakt Dla f C 0 mamy λu λ f f, gdy λ. Dowód. λu λ f (x) f (x) = 0 λe λt (p t f (x) f (x))dt. λu λ f f 0 λe λt p t f f dt = 0 e s p s λ f f ds. p s f f jest ograniczone przez 2 f, więc z twierdzenia Lebesgue a o zbieżności λ ograniczonej całka dąży do 0 przy λ. Fakt p t : C 0 C 0, u λ : C 0 C 0. Dowód. u λ f (x) = e λt p t f (x)dt = lim 0 n k=0e λ kn p kn f (x) 1 n i z twierdzenia Weierstrassa otrzymana granica jest funkcją ciągłą. Fakt [Równanie rezolwenty]. Dla prawdopodobieństwa przejścia zachodzi p t+s f = p t p s f. Dla rezolwenty z kolei zachodzi równanie u λ u µ f = 1 ( λuλ f µu µ f ). (34) λ µ Fakt f 0, f C 0 e λt p f (u λ f ) u λ f, gdy t 0 +. Dowód. = e λt p t (u λ f )(x) = 0 ( ) e λt p t (x,dy) e λs Funelli p s f (y)ds = ( ) e λ(t+s) p t (x,dy)p s f (y) ds = = t 0 0 e λ(t+s) p t+s f (x)ds = { e λr uλ f (x) p r f (x)dr u λ f (x), gdy t 0 +. Otrzymaliśmy zbieżność punktową monotoniczną w C 0. Zbieżność jednostajna wynika z twierdzenia Diniego.
22 5.3 Funkcje λ-ekscesywne Definicja 5.9. Funkcję g 0 nazywamy λ-ekscesywną, jeżeli e λt p t g g. Wniosek Jeżeli f 0 i f C 0, to u λ f jest λ-ekscesywna. Na przestrzeni kanonicznej własność (M) zadaje system (rodzinę) miar na σ{x t1,x t2,...,x tn }. Te miary są zgodne: rozkład (X t1,x t2,...,x tn,x s1,x s2,...,x sm ) ma rozkład brzegowy równy rozkładowi (X t1,x t2,...,x tn ) (t 1,...,t n,s 1,...,s m nie są uporządkowane). Stąd (por. ćwiczenia) wynika istnienie miary na przestrzeni funkcji ([0, ) Q) X takiej, że zachodzi (M). Udowodnimy, że trajektorie wyżej zdefiniowanego procesu z prawdopodobieństwem 1 mają jednostronne granice. Definicja Rodzina (X t,f t ) t T, t T E X t <, jest martyngałem, jeśli dla s t, s,t T, E(X t F s ) = X s, nadmartyngałem, jeśli dla s t, s,t T, E(X t F s ) X s, podmartyngałem, jeśli ( X t,f t ) t T jest nadmartyngałem. Fakt g jest λ-ekscesywna e λt g(x t ) (t Q [0, )) jest nadmartyngałem. Dowód. E x ( e λ(s+t) g(x t+s ) F s ) = φ(x s ), gdzie φ(y) = E y e λ(t+s) g(x t ) (własność Markowa). φ(y) = e λ(t+s) p t g(y) e λs g(x s ) (nierówność wynika z ekscesywności), zatem E x ( e λ(t+s) g(x t+s ) F s ) e λs g(x s ). Z Lematu Dooba wynika, że g(x t ) ma jednostronne granice z prawdopodobieństwem 1 w każdym t [0, ). Rozważmy ciąg φ l 0, φ l C 0, który rozdziela punkty X, tzn. x,y X x y l φ l (x) φ l (y). (35) Taki ciąg istnieje, niech na przykład {y n } będzie ośrodkiem w X, wtedy punkty rozdziela φ n (x) = (1 d(x,y n )) +, φ n ( ) = 0. Niech teraz g k,l (x) = ku k φ l (x). Wówczas g k,l jest k-ekscesywna oraz {g k,l : k,l 1} rozdziela punkty (bo φ l (x) φ l (y) g k,l (x) g k,l (y) dla dostatecznie dużych k). Widzimy więc, że z prawdopodobieństwem 1 wszystkie procesy g k,l (X t ) (t Q [0, )) mają jednostronne granice w każdym t [0, ). Przypuśćmy, że pewna granica jednostronna X t nie istnieje, np. lim n X tn = x, lim n X sn = y, x y, t n,s n t 0, x,y X. Niech g k,l (x) g k,l (y); wtedy g k,l (X t ) nie ma granicy jednostronnej w t 0 (tutaj potrzebne jest dodatkowe założenie o zupełności miary P x ). Zatem X t ma z prawdopodobieństwem 1 granice jednostronne (g k,l (X tn ) g k,l (x), g k,l (X sn ) g k,l (y) z ciągłości g). Określmy (na zbiorze miary pełnej) X t = lim s t +,s Q [0, ) X s. Wówczas
23 X t ma trajektorie prawostronnie ciągłe z lewostronnymi granicami (dowód później). Pokażemy, że X t jest procesem Fellera o prawdopodobieństwie przejścia p t (x,a), jeśli wykażemy, że zachodzi (M). Niech 0 t 1 < t 2 < < t n. Niech s j,k k t j, s j,k Q, 0 s 1,k < s 2,k < < s n,k. Zapisujemy (M) dla X t oraz s 1,k,s 2,k,...,s n,k i przechodzimy z k. E(Φ(X s1,k,...,x sn,k )) = p s1,k (x,dx 1 ) p s2,k (x 1,dx 2 )... p sn,k (x n 1,dx n Φ(x 1,...,x n ) E (Φ( x X t1,..., X tn ) Tym samym udowodniliśmy p t1 (x,dx 1 )... ) p tn t n 1 (x n 1,dx n )Φ(x 1,...,x n ). Twierdzenie Dla każdego fellerowskiego prawdopodobieństwa przejścia istnieje proces Fellera. Lemat 5.2. Jeśli Y n Y p.w. (Y n Y w L 1 ), n Y n Z, EZ < oraz G n - rosnąca rodzina σ-ciał, G = σ( n=1 ), to E(Y n G n ) E(Y G) p.w. i w L 1. Dowód. E(Y G n ) jest jednostajnie całkowalnym martyngałem. Zatem E(Y G n ) E(Y G) p.w. i w L 1. E E(Y n G n ) E(Y G n ) E((E( Y n Y G n ) = E Y n Y 0. Stąd zbieżność w L 1 z lematu (zbieżności p.w. nie dowodzimy). Lemat 5.3. Jeśli E( f (Y ) G) = f (Z) dla wszystkich f C 0, Z jest mierzalna względem G, to Y = Z p.w. Dowód. Przez aproksymację. E(1 G (Y ) G) = 1 G (Z) dla G - otwartego. E(1 G (Y )1 X \G(Z) G) = 0 i dalej P(Y G,Z / G) = 0. Bierzemy G n - bazę topologii X ; P(Y G n,z / G n dla pewnego n) = 0. Stąd Y = Z p.w. Twierdzenie Niech X t - proces Fellera, τ n - niemalejący ciąg czasów Markowa, τ = lim n τ n (czyli τ też jest czasem Markowa). Wówczas X τn X τ p.w ( na {τ < }). Jest to tzw. kwazilewostronna ciągłość. Dowód. Niech f C 0, s > 0. Niech M n = {τ n < τ} F τn + F τ+ oraz M = n=1 M n F τ+. Wykorzystamy Lematy 5.2 oraz 5.3. W Lemacie 5.3 { { Xτ w M Xτ w M Y = w M c, Z = w M c. W Lemacie 5.2 z kolei Y n = f (X τn +s)1 Mn, Y = f (X τn +s )1 Mn, G n = F τn +, zaś G = σ( n=1 F τn +) F τ. Skorzystamy tutaj z dwóch faktów, których nie będziemy teraz dowodzić.
24 Fakt F τ G. Fakt X τ 1 M jest F τ -mierzalny Wróćmy do dowodu Twierdzenia Z mocnej własności Markowa mamy E x ( f (X τn +s)1 Mn F τn +) = p s f (X τn )1 Mn. p s f (X τn )1 Mn p s f (X τ )1 M p.w., gdy n. E x ( f (X τn +s)1 Mn F τn +) n, L1 E x ( f (X (τ+s) )1 M F τ ). p s f (X τ )1 M s 0 + f (X τ )1 M. E x ( f (X (τ+s) )1 M F τ ) s 0+ E x ( f (X τ ) F τ ). Stąd wynika, że X τ 1 M = X τ 1 M. Ponadto lim n X τ n = { Xτ na M X τ na M c. Wniosek X t = X t p.w., tzn. w prawie każdym ustalonym czasie proces nie ma skoku. 5.4 Operatory przesunięcia Definicja Operatorem przesunięcia nazywamy mierzalne odwzorowanie θ t : Ω Ω, t 0 takie, że X s θ t = X s ((ω,t)) = X s+t (ω). Na przestrzeni kanonicznej θ t (ω)(s) = ω(t + s) (tutaj θ t θ s = θ t+s ). Zakładamy istnienie operatora theta t. Fakt Na przestrzeni kanonicznej θ t istnieje. Fakt Jeśli τ jest losowym czasem, to θ τ (ω) = θ τ(ω) (ω), θ τ : Ω Ω. Twierdzenie Jeśli X t jest z prawdopodobieństwem 1 prawostronnie ciągły, τ jest czasem Markowa, X τ jest F τ+ mierzalny, to θ 1 τ (F t ) F (τ+t)+ F. Dowód. X t θ τ = X t+τ jest F (t+τ)+ -mierzalne. Zatem F (τ+s)+ zawiera wszystkie zbiory postaci {X t θ τ A} = θτ 1 ({X t A}). Wobec tego θ 1 τ (M) F (τ+s)+ dla M F (τ+s)+. Wniosek θ τ jest F -mierzalne.
25 Alternatywne sformułowanie własności Markowa Fakt Jeśli zapiszemy {X t1 A 1,...,X tn A n } = M oraz {X s+t1 A 1,...,X s+tn A n } = θ 1 s (M), to własność Markowa możemy zapisać jako lub alternatywnie P x (θ 1 s (M) F s ) = φ(x s ), φ(x) = P x (M) (36) E x ( Φ θ s F τ+ ) = φ(x τ ), φ(x) = E x ( Φ). (37) Twierdzenie Niech τ,σ będą czasami Markowa, a X t będzie procesem Fellera. Wtedy τ + σ θ τ jest czasem Markowa. Dowód. Z Twierdzenia?? {σ θ τ < t} = θ 1 τ ({σ < t}) F (τ+t)+. Dalej {σ θ τ } {τ +t < s} F s. Ostatecznie {σ θ τ + τ < r} = t,s Θ,t,s t,s<r{σ θ τ < t} {τ < s t}, bo każde ze zdarzeń {σ θ τ < t} {τ < s t} F r.
21 maja, Mocna własność Markowa procesu Wienera. Procesy Stochastyczne, wykład 13, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126
Mocna własność Markowa procesu Wienera Procesy Stochastyczne, wykład 13, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126 21 maja, 2012 Mocna własność Markowa W = (W 1,..., W d ) oznaczać
Bardziej szczegółowoF t+ := s>t. F s = F t.
M. Beśka, Całka Stochastyczna, wykład 1 1 1 Wiadomości wstępne 1.1 Przestrzeń probabilistyczna z filtracją Niech (Ω, F, P ) będzie ustaloną przestrzenią probabilistyczną i niech F = {F t } t 0 będzie rodziną
Bardziej szczegółowo28 maja, Problem Dirichleta, proces Wienera. Procesy Stochastyczne, wykład 14, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126
Problem Dirichleta, proces Wienera Procesy Stochastyczne, wykład 14, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126 28 maja, 2012 Funkcje harmoniczne Niech będzie operatorem Laplace a w
Bardziej szczegółowo2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.
Zadania z Procesów Stochastycznych 1 1. Udowodnij, że z prawdopodobieństwem 1 trajektorie procesu Poissona są niemalejące, przyjmują wartości z Z +, mają wszystkie skoki równe 1 oraz dążą do nieskończoności.
Bardziej szczegółowo2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.
Zadania z Procesów Stochastycznych 1 1. Udowodnij, że z prawdopodobieństwem 1 trajektorie procesu Poissona są niemalejące, przyjmują wartości z Z +, mają wszystkie skoki równe 1 oraz dążą do nieskończoności.
Bardziej szczegółowo8 Całka stochastyczna względem semimartyngałów
M. Beśka, Całka Stochastyczna, wykład 8 148 8 Całka stochastyczna względem semimartyngałów 8.1 Całka stochastyczna w M 2 Oznaczmy przez Ξ zbiór procesów postaci X t (ω) = ξ (ω)i {} (t) + n ξ i (ω)i (ti,
Bardziej szczegółowoOśrodkowość procesów, proces Wienera. Ośrodkowość procesów, proces Wienera Procesy Stochastyczne, wykład, T. Byczkowski,
Procesy Stochastyczne, wykład, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 27 luty, 2012 Ośrodkowość procesów Dalej zakładamy, że (Ω, Σ, P) jest zupełną przestrzenią miarową. Definicja.
Bardziej szczegółowoZadania z Procesów Stochastycznych 1
Zadania z Procesów Stochastycznych 1 Definicja Procesem Poissona z parametrem (intensywnością) λ > 0 nazywamy proces stochastyczny N = (N t ) t 0 taki, że N 0 = 0; (P0) N ma przyrosty niezależne; (P1)
Bardziej szczegółowo4 Kilka klas procesów
Marek Beśka, Całka Stochastyczna, wykład 4 48 4 Kilka klas procesów 4.1 Procesy rosnące i przestrzenie V,, loc Jak poprzednio niech (Ω, F, F, P ) będzie zupełną bazą stochastyczną. Definicja 4.1 Proces
Bardziej szczegółowoKorzystając z własności metryki łatwo wykazać, że dla dowolnych x, y, z X zachodzi
M. Beśka, Wstęp do teorii miary, Dodatek 158 10 Dodatek 10.1 Przestrzenie metryczne Niech X będzie niepustym zbiorem. Funkcję d : X X [0, ) spełniającą dla x, y, z X warunki (i) d(x, y) = 0 x = y, (ii)
Bardziej szczegółowoTeoria miary. WPPT/Matematyka, rok II. Wykład 5
Teoria miary WPPT/Matematyka, rok II Wykład 5 Funkcje mierzalne Niech (X, F) będzie przestrzenią mierzalną i niech f : X R. Twierdzenie 1. NWSR 1. {x X : f(x) > a} F dla każdego a R 2. {x X : f(x) a} F
Bardziej szczegółowoTeoria ze Wstępu do analizy stochastycznej
eoria ze Wstępu do analizy stochastycznej Marcin Szumski 22 czerwca 21 1 Definicje 1. proces stochastyczny - rodzina zmiennych losowych X = (X t ) t 2. trajektoria - funkcja (losowa) t X t (ω) f : E 3.
Bardziej szczegółowo2 Rodziny zbiorów. 2.1 Algebry i σ - algebry zbiorów. M. Beśka, Wstęp do teorii miary, rozdz. 2 11
M. Beśka, Wstęp do teorii miary, rozdz. 2 11 2 Rodziny zbiorów 2.1 Algebry i σ - algebry zbiorów Niech X będzie niepustym zbiorem. Rodzinę indeksowaną zbiorów {A i } i I 2 X nazywamy rozbiciem zbioru X
Bardziej szczegółowoZadania z Analizy Funkcjonalnej I Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi?
Zadania z Analizy Funkcjonalnej I - 1 1. Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi? a) X = R, d(x, y) = arctg x y ; b) X = R n, d(x, y) = x 1 y 1 + x 2 y 2 + max i 3 x i
Bardziej szczegółowo7 Twierdzenie Fubiniego
M. Beśka, Wstęp do teorii miary, wykład 7 19 7 Twierdzenie Fubiniego 7.1 Miary produktowe Niech i będą niepustymi zbiorami. Przez oznaczmy produkt kartezjański i tj. zbiór = { (x, y : x y }. Niech E oraz
Bardziej szczegółowoZadania z Rachunku Prawdopodobieństwa III - 1
Zadania z Rachunku Prawdopodobieństwa III - 1 Funkcją tworzącą momenty (transformatą Laplace a) zmiennej losowej X nazywamy funkcję M X (t) := Ee tx, t R. 1. Oblicz funkcję tworzącą momenty zmiennych o
Bardziej szczegółowoZadania do Rozdziału X
Zadania do Rozdziału X 1. 2. Znajdź wszystkie σ-ciała podzbiorów X, gdy X = (i) {1, 2}, (ii){1, 2, 3}. (b) Znajdź wszystkie elementy σ-ciała generowanego przez {{1, 2}, {2, 3}} dla X = {1, 2, 3, 4}. Wykaż,
Bardziej szczegółowoWykład 11: Martyngały: definicja, twierdzenia o zbieżności
RAP 412 14.01.2009 Wykład 11: Martyngały: definicja, twierdzenia o zbieżności Wykładowca: Andrzej Ruciński Pisarz:Mirosława Jańczak 1 Wstęp Do tej pory zajmowaliśmy się ciągami zmiennych losowych (X n
Bardziej szczegółowoA i. i=1. i=1. i=1. i=1. W dalszej części skryptu będziemy mieli najczęściej do czynienia z miarami określonymi na rodzinach, które są σ - algebrami.
M. Beśka, Wstęp do teorii miary, rozdz. 3 25 3 Miara 3.1 Definicja miary i jej podstawowe własności Niech X będzie niepustym zbiorem, a A 2 X niepustą rodziną podzbiorów. Wtedy dowolne odwzorowanie : A
Bardziej szczegółowojest ciągiem elementów z przestrzeni B(R, R)
Wykład 2 1 Ciągi Definicja 1.1 (ciąg) Ciągiem w zbiorze X nazywamy odwzorowanie x: N X. Dla uproszczenia piszemy x n zamiast x(n). Przykład 1. x n = n jest ciągiem elementów z przestrzeni R 2. f n (x)
Bardziej szczegółowoRozdział 6. Ciągłość. 6.1 Granica funkcji
Rozdział 6 Ciągłość 6.1 Granica funkcji Podamy najpierw dwie definicje granicy funkcji w punkcie i pokażemy ich równoważność. Definicja Cauchy ego granicy funkcji w punkcie. Niech f : X R, gdzie X R oraz
Bardziej szczegółowo1 Relacje i odwzorowania
Relacje i odwzorowania Relacje Jacek Kłopotowski Zadania z analizy matematycznej I Wykazać, że jeśli relacja ρ X X jest przeciwzwrotna i przechodnia, to jest przeciwsymetryczna Zbadać czy relacja ρ X X
Bardziej szczegółowoZadania z Analizy Funkcjonalnej I Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi?
Zadania z Analizy Funkcjonalnej I - 1 1. Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi?. a) X = R, x = arctg x ; b) X = R n, d(x, y) = x 1 y 1 + x 2 y 2 + max i 3 x i y i ;
Bardziej szczegółowoRozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład
Rozdział 1 Wektory losowe 1.1 Wektor losowy i jego rozkład Definicja 1 Wektor X = (X 1,..., X n ), którego każda współrzędna jest zmienną losową, nazywamy n-wymiarowym wektorem losowym (krótko wektorem
Bardziej szczegółowoDystrybucje, wiadomości wstępne (I)
Temat 8 Dystrybucje, wiadomości wstępne (I) Wielkości fizyczne opisujemy najczęściej przyporządkowując im funkcje (np. zależne od czasu). Inną drogą opisu tych wielkości jest przyporządkowanie im funkcjonałów
Bardziej szczegółowoNotatki z Analizy Matematycznej 2. Jacek M. Jędrzejewski
Notatki z Analizy Matematycznej 2 Jacek M. Jędrzejewski Definicja 3.1. Niech (a n ) n=1 będzie ciągiem liczbowym. Dla każdej liczby naturalnej dodatniej n utwórzmy S n nazywamy n-tą sumą częściową. ROZDZIAŁ
Bardziej szczegółowon=0 Dla zbioru Cantora prawdziwe są wersje lematu 3.6 oraz lematu 3.8 przy założeniu α = :
4. Zbiory borelowskie. Zbiór wszystkich podzbiorów liczb naturalnych będziemy oznaczali przez ω. Najmniejszą topologię na zbiorze ω, w której zbiory {A ω : x A ω \ y}, gdzie x oraz y są zbiorami skończonymi,
Bardziej szczegółowoG. Plebanek, MIARA I CAŁKA Zadania do rozdziału 1 28
G. Plebanek, MIARA I CAŁKA Zadania do rozdziału 1 28 1.9 Zadania 1.9.1 Niech R będzie pierścieniem zbiorów. Zauważyć, że jeśli A, B R to A B R i A B R. Sprawdzić, że (R,, ) jest także pierścieniem w sensie
Bardziej szczegółowoZadania ze Wstępu do Analizy Stochastycznej 1. = 0 p.n.
Zadania ze Wstępu do Analizy Stochastycznej 1 1. Znajdź rozkład zmiennej 5W 1 W 3 + W 7. 2. Dla jakich parametrów a i b, zmienne aw 1 W 2 oraz W 3 + bw 5 są niezależne? 3. Znajdź rozkład wektora losowego
Bardziej szczegółowoO pewnych klasach funkcji prawie okresowych (niekoniecznie ograniczonych)
(niekoniecznie ograniczonych) Wydział Matematyki i Informatyki Uniwersytet im. Adama Mickiewicza, Poznań Będlewo, 25-30 maja 2015 Funkcje prawie okresowe w sensie Bohra Definicja Zbiór E R nazywamy względnie
Bardziej szczegółowoRodzinę F złożoną z podzbiorów zbioru X będziemy nazywali ciałem zbiorów, gdy spełnione są dwa następujące warunki.
3. Funkcje borelowskie. Rodzinę F złożoną z podzbiorów zbioru X będziemy nazywali ciałem zbiorów, gdy spełnione są dwa następujące warunki. (1): Jeśli zbiór Y należy do rodziny F, to jego dopełnienie X
Bardziej szczegółowoWYKŁAD Z ANALIZY MATEMATYCZNEJ I. dr. Elżbieta Kotlicka. Centrum Nauczania Matematyki i Fizyki
WYKŁAD Z ANALIZY MATEMATYCZNEJ I dr. Elżbieta Kotlicka Centrum Nauczania Matematyki i Fizyki http://im0.p.lodz.pl/~ekot Łódź 2006 Spis treści 1. CIĄGI LICZBOWE 2 1.1. Własności ciągów liczbowych o wyrazach
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład IV: 27 października 2014 Współczynnik korelacji Brak korelacji a niezależność Definicja współczynnika korelacji Współczynnikiem korelacji całkowalnych z kwadratem zmiennych losowych X i Y nazywamy
Bardziej szczegółowoTeoria miary i całki
Teoria miary i całki Spis treści 1 Wstęp 3 2 lgebra zbiorów 5 3 Pierścienie, ciała, σ ciała zbiorów. 7 3.1 Definicja pierścienia ciała i σ ciała............... 7 3.2 Pierścień, ciało i σ ciało generowane
Bardziej szczegółowoZdzisław Dzedzej. Politechnika Gdańska. Gdańsk, 2013
Zdzisław Dzedzej Politechnika Gdańska Gdańsk, 2013 1 PODSTAWY 2 3 Definicja. Przestrzeń metryczna (X, d) jest zwarta, jeśli z każdego ciągu {x n } w X można wybrać podciąg zbieżny {x nk } w X. Ogólniej
Bardziej szczegółowozbiorów domkniętych i tak otrzymane zbiory domknięte ustawiamy w ciąg. Oznaczamy
5. Funkcje 1 klasy Baire a. Pod koniec XIX i początkiem XX wieku kilku matematyków zajmowało się problemami dotyczącymi klasyfikacji funkcji borelowskich: między innymi R. Baire, E. Borel, H. Lebesgue
Bardziej szczegółowoRodzinę spełniającą trzeci warunek tylko dla sumy skończonej nazywamy ciałem (algebrą) w zbiorze X.
1 σ-ciała Definicja 1.1 (σ - ciało) σ - ciałem (σ - algebrą) w danym zbiorze X (zwanym przestrzenią) nazywamy rodzinę M pewnych podzbiorów zbioru X, spełniającą trzy warunki: 1 o M; 2 o jeśli A M, to X
Bardziej szczegółowo19 marzec, Łańcuchy Markowa z czasem dyskretnym. Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136
Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 19 marzec, 2012 Przykłady procesów Markowa (i). P = (p ij ) - macierz stochastyczna, tzn. p ij 0, j p ij =
Bardziej szczegółowoInformacja o przestrzeniach Sobolewa
Wykład 11 Informacja o przestrzeniach Sobolewa 11.1 Definicja przestrzeni Sobolewa Niech R n będzie zbiorem mierzalnym. Rozważmy przestrzeń Hilberta X = L 2 () z iloczynem skalarnym zdefiniowanym równością
Bardziej szczegółowoPROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω)
PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω) określonych na tej samej przestrzeni probabilistycznej
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład VII: Rozkład i jego charakterystyki 22 listopada 2016 Uprzednio wprowadzone pojęcia i ich własności Definicja zmiennej losowej Zmienna losowa na przestrzeni probabilistycznej (Ω, F, P) to funkcja
Bardziej szczegółowo1. Struktury zbiorów 2. Miara 3. Miara zewnętrzna 4. Miara Lebesgue a 5. Funkcje mierzalne 6. Całka Lebesgue a. Analiza Rzeczywista.
Literatura P. Billingsley, Miara i prawdopodobieństwo, PWN, Warszawa 1997, P. R. Halmos, Measure theory, Springer-Verlag, 1994, W, Kołodziej, naliza matematyczna, PWN, Warszawa 1978, S. Łojasiewicz, Wstęp
Bardziej szczegółowoPrawa wielkich liczb, centralne twierdzenia graniczne
, centralne twierdzenia graniczne Katedra matematyki i ekonomii matematycznej 17 maja 2012, centralne twierdzenia graniczne Rodzaje zbieżności ciągów zmiennych losowych, centralne twierdzenia graniczne
Bardziej szczegółowoSzkice do zajęć z Przedmiotu Wyrównawczego
Szkice do zajęć z Przedmiotu Wyrównawczego Matematyka Finansowa sem. letni 2011/2012 Spis treści Zajęcia 1 3 1.1 Przestrzeń probabilistyczna................................. 3 1.2 Prawdopodobieństwo warunkowe..............................
Bardziej szczegółowoĆwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu.
Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu. A Teoria Definicja A.1. Niech (Ω, F, P) będzie przestrzenią probabilistyczną. Zmienną losową określoną na przestrzeni Ω nazywamy dowolną
Bardziej szczegółowoWykłady... b i a i. i=1. m(d k ) inf
Wykłady... CŁKOWNIE FUNKCJI WIELU ZMIENNYCH Zaczniemy od konstrukcji całki na przedziale domkniętym. Konstrukcja ta jest, w gruncie rzeczy, powtórzeniem definicji całki na odcinku domkniętym w R 1. Przedziałem
Bardziej szczegółowoInformacja o przestrzeniach Hilberta
Temat 10 Informacja o przestrzeniach Hilberta 10.1 Przestrzenie unitarne, iloczyn skalarny Niech dana będzie przestrzeń liniowa X. Załóżmy, że każdej parze elementów x, y X została przyporządkowana liczba
Bardziej szczegółowoZagadnienia brzegowe dla równań eliptycznych
Temat 7 Zagadnienia brzegowe dla równań eliptycznych Rozważmy płaski obszar R 2 ograniczony krzywą. la równania Laplace a (Poissona) stawia się trzy podstawowe zagadnienia brzegowe. Zagadnienie irichleta
Bardziej szczegółowoWykład 10. Stwierdzenie 1. X spełnia warunek Borela wtedy i tylko wtedy, gdy każda scentrowana rodzina zbiorów domkniętych ma niepusty przekrój.
Wykład 10 Twierdzenie 1 (Borel-Lebesgue) Niech X będzie przestrzenią zwartą Z każdego pokrycia X zbiorami otwartymi można wybrać podpokrycie skończone Dowód Lemat 1 Dla każdego pokrycia U przestrzeni ośrodkowej
Bardziej szczegółowoWykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga
RAP 412 21.01.2009 Wykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga Wykładowca: Andrzej Ruciński Pisarz: Łukasz Waszak 1 Wstęp Na ostatnim wykładzie przedstawiliśmy twierdzenie o zbieżności
Bardziej szczegółowoRACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3.
RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3. ZMIENNA LOSOWA JEDNOWYMIAROWA. Zmienną losową X nazywamy funkcję (praktycznie każdą) przyporządkowującą zdarzeniom elementarnym liczby rzeczywiste. X : Ω R (dokładniej:
Bardziej szczegółowo7. Miara, zbiory mierzalne oraz funkcje mierzalne.
7. Miara, zbiory mierzalne oraz funkcje mierzalne. Funkcję rzeczywistą µ nieujemną określoną na ciele zbiorów S będziemy nazywali miarą, gdy dla dowolnego ciągu A 0, A 1,... zbiorów rozłącznych należących
Bardziej szczegółowoPEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA
PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA 1. Trójkę (Ω, F, P ), gdzie Ω, F jest σ-ciałem podzbiorów Ω, a P jest prawdopodobieństwem określonym na F, nazywamy przestrzenią probabilistyczną. 2. Rodzinę F
Bardziej szczegółowoVI. Równania różniczkowe liniowe wyższych rzędów
VI. 1. Równanie różniczkowe liniowe n-tego rzędu o zmiennych współczynnikach Niech podobnie jak w poprzednim paragrafie K = C lub K = R. Podobnie jak w dziedzinie rzeczywistej wprowadzamy pochodne wyższych
Bardziej szczegółowoWykład 3 Jednowymiarowe zmienne losowe
Wykład 3 Jednowymiarowe zmienne losowe Niech (Ω, F, P ) będzie ustaloną przestrzenią probabilistyczną Definicja 1 Jednowymiarowa zmienna losowa (o wartościach rzeczywistych), określoną na przestrzeni probabilistycznej
Bardziej szczegółowoCałka podwójna po prostokącie
Całka podwójna po prostokącie Rozważmy prostokąt = {(x, y) R : a x b, c y d}, gdzie a, b, c, d R, oraz funkcję dwóch zmiennych f : R ograniczoną w tym prostokącie. rostokąt dzielimy na n prostokątów i
Bardziej szczegółowoZestaw zadań z Równań różniczkowych cząstkowych I 18/19
Zestaw zadań z Równań różniczkowych cząstkowych I 18/19 Zad 1. Znaleźć rozwiązania ogólne u = u(x, y) następujących równań u x = 1, u y = 2xy, u yy = 6y, u xy = 1, u x + y = 0, u xxyy = 0. Zad 2. Znaleźć
Bardziej szczegółowoMatematyka II. Bezpieczeństwo jądrowe i ochrona radiologiczna Semestr letni 2018/2019 wykład 13 (27 maja)
Matematyka II Bezpieczeństwo jądrowe i ochrona radiologiczna Semestr letni 208/209 wykład 3 (27 maja) Całki niewłaściwe przedział nieograniczony Rozpatrujemy funkcje ciągłe określone na zbiorach < a, ),
Bardziej szczegółowo5 Przegląd najważniejszych rozkładów
5 Przegląd najważniejszych rozkładów 5. Rozkład Bernoulliego W niezmieniających się warunkach wykonujemy n razy pewne doświadczenie. W wyniku każdego doświadczenia może nastąpić zdarzenie A lub A. Zakładamy,
Bardziej szczegółowoAnaliza Funkcjonalna - Zadania
Analiza Funkcjonalna - Zadania 1 Wprowadzamy następujące oznaczenia. K oznacza ciało liczb rzeczywistych lub zespolonych. Jeżeli T jest dowolnym zbiorem niepustym, to l (T ) = {x : E K : x funkcja ograniczona}.
Bardziej szczegółowo1 Zbiory. 1.1 Kiedy {a} = {b, c}? (tzn. podać warunki na a, b i c) 1.2 Udowodnić, że A {A} A =.
1 Zbiory 1.1 Kiedy {a} = {b, c}? (tzn. podać warunki na a, b i c) 1.2 Udowodnić, że A {A} A =. 1.3 Pokazać, że jeśli A, B oraz (A B) (B A) = C C, to A = B = C. 1.4 Niech {X t } będzie rodziną niepustych
Bardziej szczegółowoczastkowych Państwo przyk ladowe zadania z rozwiazaniami: karpinw adres strony www, na której znajda
Zadania z równań różniczkowych czastkowych Za l aczam adres strony www, na której znajda Państwo przyk ladowe zadania z rozwiazaniami: http://math.uni.lodz.pl/ karpinw Zadanie 1. Znaleźć wszystkie rozwiazania
Bardziej szczegółowoDystrybucje. Marcin Orchel. 1 Wstęp Dystrybucje Pochodna dystrybucyjna Przestrzenie... 5
Dystrybucje Marcin Orchel Spis treści 1 Wstęp 1 1.1 Dystrybucje................................... 1 1.2 Pochodna dystrybucyjna............................ 3 1.3 Przestrzenie...................................
Bardziej szczegółowoPrzykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych
Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Niech Ω będzie przestrzenią zdarzeń elementarnych. Definicja 1 Rodzinę S zdarzeń losowych (zbiór S podzbiorów zbioru
Bardziej szczegółowoZadania z Rachunku Prawdopodobieństwa II Podaj przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,
Zadania z Rachunku Prawdopodobieństwa II -. Udowodnij, że dla dowolnych liczb x n, x, δ xn δ x wtedy i tylko wtedy, gdy x n x.. Wykaż, że n n k= δ k/n λ, gdzie λ jest miarą Lebesgue a na [, ].. Podaj przykład
Bardziej szczegółowo1 Działania na zbiorach
M. Beśka, Wstęp do teorii miary, rozdz. 1 1 1 Działania na zbiorach W rozdziale tym przypomnimy podstawowe działania na zbiorach koncentrując się na własnościach tych działań, które będą przydatne w dalszej
Bardziej szczegółowoRozdział 4. Ciągi nieskończone. 4.1 Ciągi nieskończone
Rozdział 4 Ciągi nieskończone W rozdziale tym wprowadzimy pojęcie granicy ciągu. Dalej rozszerzymy to pojęcie na przypadek dowolnych funkcji. Jak zauważyliśmy we wstępie jest to najważniejsze pojęcie analizy
Bardziej szczegółowoCałki powierzchniowe w R n
Całki powierzchniowe w R n Na początek małe uzupełnienie z algebry liniowej. Niech R n k oznacza przestrzeń liniową macierzy o n wierszach i k kolumnach. Dla dowolnej macierzy A R n k, gdzie k n, połóżmy
Bardziej szczegółowoWykłady ostatnie. Rodzinę P podzbiorów przestrzeni X nazywamy σ - algebrą, jeżeli dla A, B P (2) A B P, (3) A \ B P,
Wykłady ostatnie CAŁKA LBSGU A Zasadnicza różnica koncepcyjna między całką Riemanna i całką Lebesgue a polega na zamianie ról przestrzeni wartości i przestrzeni argumentów przy konstrukcji sum górnych
Bardziej szczegółowoCiągłość funkcji f : R R
Ciągłość funkcji f : R R Definicja 1. Otoczeniem o promieniu δ > 0 punktu x 0 R nazywamy zbiór O(x 0, δ) := (x 0 δ, x 0 + δ). Otoczeniem prawostronnym o promieniu δ > 0 punktu x 0 R nazywamy zbiór O +
Bardziej szczegółowoCałki krzywoliniowe. SNM - Elementy analizy wektorowej - 1
SNM - Elementy analizy wektorowej - 1 Całki krzywoliniowe Definicja (funkcja wektorowa jednej zmiennej) Funkcją wektorową jednej zmiennej nazywamy odwzorowanie r : I R 3, gdzie I oznacza przedział na prostej,
Bardziej szczegółowoAnaliza matematyczna. 1. Ciągi
Analiza matematyczna 1. Ciągi Definicja 1.1 Funkcję a: N R odwzorowującą zbiór liczb naturalnych w zbiór liczb rzeczywistych nazywamy ciągiem liczbowym. Wartość tego odwzorowania w punkcie n nazywamy n
Bardziej szczegółowoRozdział 5. Szeregi liczbowe. 5.1 Szeregi liczbowe. Definicja sumy częściowej ciągu. Niech dany będzie ciąg liczbowy (a n ) n=1.
Rozdział 5 Szeregi liczbowe 5. Szeregi liczbowe Definicja sumy częściowej ciągu. Niech dany będzie ciąg liczbowy ( ). Ciąg (s n ) określony wzorem s n = n a j, n N, nazywamy ciągiem sum częściowych ciągu
Bardziej szczegółowoSeria 1. Zbieżność rozkładów
Seria Zbieżność rozkładów We wszystkich poniższych zadaniach (E, ρ) jest przestrzenią metryczną Wykazać, że dla dowolnych x, x n, δ xn δ x wtedy i tylko wtedy, gdy x n x Sprawdzić, że n nk= δ k n λ, gdzie
Bardziej szczegółowoLista zagadnień omawianych na wykładzie w dn r. :
Lista zagadnień omawianych na wykładzie w dn. 29.0.208r. : Granica funkcji Definicja sąsiedztwa punktu. Sąsiedztwo 0 R o promieniu r > 0: S 0, r = 0 r, 0 + r\{ 0 } 2. Sąsiedztwo lewostronne 0 R o promieniu
Bardziej szczegółowo1 Elementy analizy funkcjonalnej
M. Beśka, Dodatek 1 1 Elementy analizy funkcjonalnej 1.1 Twierdzenia o reprezentacji Zaczniemy od znanego twierdzenia Riesza Twierdzenie 1.1 (Riesz) Niech będzie zwartą przestrzenią metryczną i załóżmy,
Bardziej szczegółowoWstęp do Analizy Stochastycznej
Wstęp do Analizy Stochastycznej Rafał Latała 6 września 21 Poniższy tekst zawiera notatki do wykładów ze Wstępu do Analizy Stochastycznej, prowadzonego w semestrze wiosennym 21 roku. Gwiazdkami oznaczono
Bardziej szczegółowoCałki krzywoliniowe wiadomości wstępne
Całki krzywoliniowe wiadomości wstępne Łuk na płaszczyźnie to zbiór punktów (x, y o współrzędnych x = x(t, y = y(t, gdzie (x(t, y(t są funkcjami ciągłymi określonymi na przedziale bez punktów wielokrotnych.
Bardziej szczegółowo1 Ciągłe operatory liniowe
1 Ciągłe operatory liniowe Załóżmy, że E, F są przestrzeniami unormowanymi. Definicja 1.1. Operator liniowy T : E F nazywamy ograniczonym, jeżeli zbiór T (B) F jest ograniczony dla dowolnego zbioru ograniczonego
Bardziej szczegółowo}, gdzie a = t (n) )(f(t(n) k. ) f(t(n) k 1 ) 1+δ = 0,
Zadania z Procesów Stochastycznych II - 1 1. Niech π n = {t (n), t(n) 1,..., t(n) k n }, gdzie a = t (n) < t (n) 1
Bardziej szczegółowoZmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014
Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014 Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe
Bardziej szczegółowoTeoria miary. Matematyka, rok II. Wykład 1
Teoria miary Matematyka, rok II Wykład 1 NAJBLIŻSZY CEL: Nauczyć się mierzyć wielkość zbiorów. Pierwsze przymiarki: - liczność (moc) zbioru - słabo działa dla zbiorów nieskończonych: czy [0, 1] powinien
Bardziej szczegółowoWykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.
Rachunek prawdopodobieństwa MAT1332 Wydział Matematyki, Matematyka Stosowana Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów. Warunkowa
Bardziej szczegółowoWażną rolę odgrywają tzw. funkcje harmoniczne. Przyjmujemy następującą definicję. u = 0, (6.1) jest operatorem Laplace a. (x,y)
Wykład 6 Funkcje harmoniczne Ważną rolę odgrywają tzw. funkcje harmoniczne. Przyjmujemy następującą definicję. e f i n i c j a Funkcję u (x 1, x 2,..., x n ) nazywamy harmoniczną w obszarze R n wtedy i
Bardziej szczegółowoZAGADNIENIA DO EGZAMINU MAGISTERSKIEGO
ZAGADNIENIA DO EGZAMINU MAGISTERSKIEGO Na egzaminie magisterskim student powinien: 1) omówić wyniki zawarte w pracy magisterskiej posługując się swobodnie pojęciami i twierdzeniami zamieszczonymi w pracy
Bardziej szczegółowo(b) Suma skończonej ilości oraz przekrój przeliczalnej ilości zbiorów typu G α
FUNKCJE BORELOWSKIE Rodzinę F podzbiorów zbioru X (tzn. F X) będziemy nazywali ciałem gdy spełnione są warunki: (1) Jeśli zbiór Y F, to dopełnienie X \ Y też należy do rodziny F. (2) Jeśli S F jest skończoną
Bardziej szczegółowoProcesy stochastyczne
Wykład I: Istnienie procesów stochastycznych 21 lutego 2017 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane
Bardziej szczegółowoWykład 2 Zmienne losowe i ich rozkłady
Wykład 2 Zmienne losowe i ich rozkłady Magdalena Frąszczak Wrocław, 11.10.2017r Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe Doświadczenie
Bardziej szczegółowo3. Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,
Zadania z Rachunku Prawdopodobieństwa II - Mówimy, że i) ciąg miar probabilistycznych µ n zbiega słabo do miary probabilistycznej µ (ozn. µ n µ), jeśli fdµ n fdµ dla dowolnej funkcji ciągłej ograniczonej
Bardziej szczegółowoJednowymiarowa zmienna losowa
1 Jednowymiarowa zmienna losowa Przykład Doświadczenie losowe - rzut kostką do gry. Obserwujemy ilość wyrzuconych oczek. Teoretyczny model eksperymentu losowego - przestrzeń probabilistyczna (Ω, S, P ),
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład II: Zmienne losowe i charakterystyki ich rozkładów 13 października 2014 Zmienne losowe Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Definicja zmiennej losowej i jej
Bardziej szczegółowoDefinicja odwzorowania ciągłego i niektóre przykłady
Odwzorowania Pojęcie odwzorowania pomiędzy dwoma zbiorami było już definiowane, ale dawno, więc nie od rzeczy będzie przypomnieć, że odwzorowaniem nazywamy sposób przyporządkowania (niekoniecznie każdemu)
Bardziej szczegółowoZadania z Analizy Funkcjonalnej I* - 1
Zadania z Analizy Funkcjonalnej I* - 1 1. Która z następujących przestrzeni jest przestrzenią Banacha w normie supremum: C(R); C ogr (R) przestrzeń funkcji ciągłych ograniczonych; C zw (R) przestrzeń funkcji
Bardziej szczegółowoSystem BCD z κ. Adam Slaski na podstawie wykładów, notatek i uwag Pawła Urzyczyna. Semestr letni 2009/10
System BCD z κ Adam Slaski na podstawie wykładów, notatek i uwag Pawła Urzyczyna Semestr letni 2009/10 Rozważamy system BCD ze stałą typową κ i aksjomatami ω κ κ i κ ω κ. W pierwszej części tej notatki
Bardziej szczegółowoStatystyka i eksploracja danych
Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu w dziedzinach matematyczno-przyrodniczych realizowany w ramach Poddziałania 4.1.1 Programu Operacyjnego Kapitał Ludzki Statystyka i eksploracja
Bardziej szczegółowo13 Równanie struny drgającej. Równanie przewodnictwa ciepła.
Równanie struny drgającej. Równanie przewodnictwa ciepła 13 1 13 Równanie struny drgającej. Równanie przewodnictwa ciepła. 13.1 Równanie struny drgającej Równanie różniczkowe liniowe drugiego rzędu typu
Bardziej szczegółowo2. Definicja pochodnej w R n
2. Definicja pochodnej w R n Niech będzie dana funkcja f : U R określona na zbiorze otwartym U R n. Pochodną kierunkową w punkcie a U w kierunku wektora u R n nazywamy granicę u f(a) = lim t 0 f(a + tu)
Bardziej szczegółowoTwierdzeniePoincaré 1 Bendixsona 2
Twierdzenie Poincaré Bendixsona 1 TwierdzeniePoincaré 1 Bendixsona 2 1 TwierdzeniePoincaré Bendixsona W bieżącym podrozdziale zakładamy, że U jest otwartym podzbiorem płaszczyzny R 2 if:u R 2 jestpolemwektorowymklasyc
Bardziej szczegółowoZadania z Rachunku Prawdopodobieństwa II Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,
Zadania z Rachunku Prawdopodobieństwa II -. Udowodnij, że dla dowolnych liczb x n, x, δ xn δ x wtedy i tylko wtedy, gdy x n x.. Wykaż, że n n k= δ k/n λ, gdzie λ jest miarą Lebesgue a na [, ].. Podać przykład
Bardziej szczegółowo