Krzysztof Kępczyński Zagadnienie paryskiej ruiny w gaussowskim modelu ryzyka
|
|
- Sebastian Górski
- 5 lat temu
- Przeglądów:
Transkrypt
1 Uniwersytet Wrocław Wydział Matematyki i Informatyki Instytut matematyczny specjalność: zastosowania rachunku prawdopodobieństwa i statystyki Krzysztof Kępczyński Zagadnienie paryskiej ruiny w gaussowskim modelu ryzyka Praca licencjacka napisana pod kierunkiem prof. dr. hab. Krzysztofa Dębickiego Wrocław 07
2 Spis treści Wprowadzenie 3 Wstęp 4. Podstawowe definicje i użyteczne fakty Model Prawdopodobieństwo paryskiej ruiny 3. Logarytmiczna asymptotyka Dokładna asymptotyka
3 Wprowadzenie Od wielu lat postępuje intensywny rozwój branży ubezpieczeniowej. Celem zakładów ubezpieczeniowych jest wypłata odpowiednich świadczeń w razie wystąpienia skutków zdarzeń losowych w zamian za regularnie wpłacane składki. Jedno z istotnych zagadnień polega na doborze wysokości składek oraz ustaleniu wysokości kapitału początkowego tak, aby zmaksymalizować zyski i zminimalizować prawdopodobieństwa bankructwa. Odpowiednią świata matematyki na ten problem jest teoria ryzyka. Jednym z zagadnień, które bada jest tak zwana ruina. To pojęcie można interpretować jako wystąpienie chwili, w której kapitał firmy jest mniejszy od zera. Zagadnienie ruiny zostało już dokładnie przebadane w bardzo ogólnych modelach, m. in. w [], [7] i [9]. W rzeczywistym świecie może zdarzyć się również sytuacja, w której w jednym roku kapitał firmy jest mniejszy od zera, natomiast w kolejnych latach - większy. W takim przypadku lepszym rozwiązaniem, niż ogłaszanie bankructwa, wydaje się być wzięcie pożyczki lub przeczekanie roku. Również w tym przypadku matematyka ma propozycję jak modelować taki problem. Jest nią paryska ruina. Oznacza ona sytuację, w której kapitał firmy jest mniejszy od zera przez pewien czas. To zagadnienie, choć istotne z punktu widzenia branży ubezpieczeniowej, nie zostało jeszcze dokładnie zbadane. Poruszane było m. in. w [3] i [4]. Niniejsza praca zawiera pewne nowe wyniki w tej dziedzinie. Zostanie w niej zbadane prawdopodobieństwo paryskiej ruiny w przypadku dyskretnym, tzn. sytuacji, w której kapitał firmy jest mniejszy od zera w kilku kolejnych chwilach. Będąc bardziej precyzyjnym, zbadane zostanie asymptotyczne zachowanie tego prawdopodobieństwa, gdy kapitał początkowy dąży do nieskończoności. Rozdział zawiera niezbędne definicje, dokładny opis modelu i kilka pomocniczych faktów. Rozdział 3 stanowi zasadniczą część pracy. Przedstawione w nim zostaną twierdzenia dotyczące prawdopodobieństwa paryskiej ruiny. Rozdział ten składa się z dwóch części. Pierwsza zawiera logarytmiczną asymptotykę prawdopodobieństwa paryskiej ruiny, druga - dokładną.
4 Wstęp. Podstawowe definicje i użyteczne fakty Ten rozdział zawiera podstawowe definicje i fakty, które będą przydatne w dalszej części pracy. Mówimy, że funkcje rzeczywiste f i g są asymptotycznie równoważne, gdy f(u) u =. Piszemy wtedy f(u) = g(u) g(u)( + o() ), Piszemy X N(µ, σ ), gdy X jest zmienną losową o rozkładzie normalnym ze średnią µ i wariancją σ. Piszemy (X, Y ) N ( µ, Σ ), gdy (X, Y ) jest wektorem losowym o dwuwymiarowym rozkładzie normalnym z wektorem wartości oczekiwanych µ = (µ, µ ) oraz macierzą kowariancji Σ. Lemat. Niech X N(0, ). Wtedy P[X > u] = u ( ) π u e + o(), Dowód. Bez straty ogólności możemy przyjąć, że u>0. Dolne oszacowanie: P[X > u] = x π u x (xe )dx = ( x ( π x e ) u Górne oszacowanie: P[X > u] = π = u π u e π u u ( ) x )( e x )dx x x 3 (xe )dx = u ( x π u e ( π x 3 e ) u = u u π u e π u 3 e + π u u u π u e π u 3 e = u π u = u π u e. e x dx = π u x x u e dx = π u x x e u u π u x dx u 3 3 ) x ( e x4 )dx 3 x x 4 e dx e u. () xe x dx = π u x ( e u ) ()
5 Zatem z () i () mamy u e u π u 3 P[X > u] u π u e. Korzystając z twierdzenia o trzech ciągach otrzymujemy To kończy dowód. P[X > u] = u ( ) π u e + o(), Poniższy lemat będzie odgrywał ważną rolę w dowodzie głównego twierdzenia pracy. Lemat. Niech f(x) = x H + ( x) H, x (0, ), H (0, ). Wtedy ) f(x) > 0, gdy H (0, ), ) f(x) = 0, gdy H =, 3) f(x) < 0, gdy H (, ). Dowód. Zauważmy, że f (x) = H[x H ( x) H ]. Ad ) Załóżmy, że H (0, ). Wówczas f (x) > 0 wtedy i tylko wtedy, gdy x H > ( x) H. Ponieważ H > 0, to f (x) > 0 wtedy i tylko wtedy, gdy x <. Zatem funkcja f jest ściśle rosnąca dla x [0, ). f (x) < 0 wtedy i tylko wtedy, gdy x H < ( x) H. Ponieważ H > 0, to f (x) < 0 wtedy i tylko wtedy, gdy x >. Zatem funkcja f jest ściśle malejąca dla x (, ). f (x) = 0 wtedy i tylko wtedy, gdy x H = ( x) H. Ponieważ H > 0, to f (x) = 0 wtedy i tylko wtedy, gdy x =. Stąd otrzymujemy, że funkcja f ma jedyne maksimum dla x =. Zauważmy, że f(0) = 0 oraz f() = 0. Zatem f(x) > 0, gdy x (0, ). Ad ) Załóżmy, że H =. Wówczas f(x) = x + ( x) = 0, gdy x (0, ). 5
6 Ad 3) Załóżmy, że H (, ). Wówczas f (x) > 0 wtedy i tylko wtedy, gdy x H > ( x) H. Ponieważ H < 0, to f (x) > 0 wtedy i tylko wtedy, gdy x >. Zatem funkcja f jest ściśle rosnąca dla x (, ). f (x) < 0 wtedy i tylko wtedy, gdy x H < ( x) H. Ponieważ H < 0, to f (x) < 0 wtedy i tylko wtedy, gdy x <. Zatem funkcja f jest ściśle malejąca dla x [0, ). f (x) = 0 wtedy i tylko wtedy, gdy x H = ( x) H. Ponieważ H < 0, to f (x) = 0 wtedy i tylko wtedy, gdy x =. Zatem funkcja f jest ma jedyne minimum dla x =. Zauważmy, że f(0) = 0, f() = 0. Zatem f(x) < 0, gdy x (0, ). To kończy dowód. Niniejszy fakt ilustruje pewną użyteczną w dalszej części pracy własność dwuwymiarowego rozkładu normalnego. Lemat 3. Załóżmy, że (X, Y ) N ( (0, 0), Σ ) ( ) ρ, gdzie Σ =. Wtedy ρ (X, Y ) (X, ρx + ρ Z), gdzie Z N(0, ) oraz Z jest stochastycznie niezależne od X. Dowód. Niech Z N(0, ) oraz Z będzie stochastycznie niezależne od X. Niech Ỹ = ρx + ρ Z. Wówczas Ỹ jest zmienną losową o rozkładzie normalnym. Wystarczy sprawdzić, że V ar[ỹ ] = V ar[y ], E[Ỹ ] = E[Y ] oraz Cov(X, Y ) = Cov(X, Ỹ ). Mamy V ar[ỹ ] = ρ V ar[x] + ( ρ ) V ar[z] = ρ + ( ρ ) = = V ar[y ], E[Ỹ ] = ρe[x] + ρ E[Z] = 0 = E[Y ], Cov(X, Ỹ ) = Cov(X, ρx + ρ Z) = ρcov(x, X) + = ρ + ρ 0 = ρ = Cov(X, Y ). Zatem otrzymujemy, że (X, Y ) (X, Ỹ ). To kończy dowód. 6 ρ Cov(X, Z)
7 Następujące trzy lematy zostały udowodnione przez Elnaggara oraz Mukherjea w [6]. Lemat 4. Niech (X, Y ) N ( (0, 0), Σ ) ( ) ρ, gdzie Σ =. Niech α > 0, ρ β > 0, α β, ρ < α β. Wtedy P[X αt, Y βt] = ( ρ) 3/ α β πt (α ρβ)(β ρα) e α +β ραβ ρ t ( + o() ), Lemat 5. Niech (X, Y ) N ( (0, 0), Σ ), gdzie Σ = β > 0, α β, ρ > α β. Wtedy ( ) ρ. Niech α > 0, ρ P[X > αt, Y > βt] = βt π e β t ( + o() ), Lemat 6. Niech (X, Y ) N ( (0, 0), Σ ), gdzie Σ = β > 0, α β, ρ = α. Wtedy dla t > 0 β gdzie Z N(0, ). P[Z βt] P[X αt, Y βt] P[Z βt], ( ) ρ. Niech α > 0, ρ Następująca klasa procesów stochastycznych grać będzie kluczową rolę w dalszych rozważaniach. Definicja.. Ułamkowym ruchem Browna {B H (t) : t 0} z parametrem Hursta H (0, ] nazywamy proces stochastyczny spełniający następujące warunki ) B H (0) = 0 prawie na pewno, ) B H (t) ma rozkład normalny ze średnią 0, 7
8 3) Cov ( B H (t), B H (s) ) = (th + s H t s H ). Uwaga. Ułamkowy ruch Browna jest uogólnieniem ruchu Browna, w którym odrzuca się założenie o niezależności przyrostów. Zauważmy, że dla H = proces {B (t) : t 0} jest ruchem Browna. Lemat 7. Przyrosty {B H (t) : t 0} są ) ujemnie skorelowane, gdy H (0, ), tzn. dla dowolnych 0 t 0 t zachodzi Cov ( B H (t 0 ), B H (t ) B H (t 0 ) ) < 0, ) niezależne, gdy H =, tzn. dla dowolnych 0 t 0 t zachodzi Cov ( B H (t 0 ), B H (t ) B H (t 0 ) ) = 0, 3) dodatnio skorelowane, gdy H (, ) tzn. dla dowolnych 0 t 0 t zachodzi Cov ( B H (t 0 ), B H (t ) B H (t 0 ) ) > 0. Dowód. Zauważmy, że dla dowolnych 0 t 0 t zachodzi Cov ( B H (t 0 ), B H (t ) B H (t 0 ) ) ( = (t H 0 ) (t t 0 ) H). Teza wynika z Lematu. Ułamkowy ruch Browna z parametrem Hursta H (, ) ma tzw. własność dalekiego zasięgu, co ilustruje następujący lemat. Lemat 8. Niech H (, ). Wówczas proces {B H(t) : t 0} ma własność dalekiego zasięgu, tzn. i=0 Cov ( B H (0), B H (i + ) B H (i) ) =. Dowód. Dowód wynika z Twierdzenie 7.. [0], str Model Jednym z wielu modeli badanych w teorii ryzyka jest klasyczny proces ryzyka U(t) = u + ct gdzie u > 0 jest kapitałem początkowym, c > 0 jest intensywnością wpłacanych składek, {X i : i N} jest ciągiem nieujemnych niezależnych zmiennych losowych opisujących wysokości kolejnych odszkodowań, a N(t) jest procesem Poissona z parametrem λ > 0 modelującym chwile, w których następują żądania. Model ten został opisany na przykład w []. N(t) i= X i, 8
9 Okazuje się, że odpowiednio przeskalowany proces ryzyka zbiega do procesu ryzyka, w którym występuje ruch Browna. Bardziej formalnie, dla ciągu U n (t) procesów ryzyka zdefiniowanego następująco gdzie U n (t) = u + c n t N(nt) X i, n ) zmienne losowe X i mają wartość oczekiwaną µ oraz skończoną wariancję σ, ) c n = c + λµ n, i= 3) N(t) jest procesem Poissona z parametrem λ > 0, zachodzi następujące twierdzenie udowodnione przez Igleharta w [4]. Twierdzenie. Ciąg procesów ryzyka U n (t) zbiega słabo do procesu u + ct λσb(t), gdzie B(t) jest ruchem Browna. Istnieje również matematyczne uzasadnienie dla rozważania pewnego uogólnienia poprzedniego procesu, w którym zamiast ruchu Browna występuje ułamkowy ruch Browna. W [7] wykazano, że u + ct B H (t) dla H stanowi graniczny model dla pewnego ciągu klasycznych procesów ryzyka. W niniejszej pracy będziemy rozważali następujący proces ryzyka U H (t) = u + ct B H (t). (3) Okazuje się, że (3) dobrze modeluje sytuację finansową dużej firmy ubezpieczeniowej, do której zgłoszenia wypłaty odszkodowań przychodzą bardzo często. Wielkość u > 0 jest kapitałem początkowym, c > 0 jest stałą intensywnością wpłacanych składek, a ułamkowy ruch Browna odpowiada za wypłatę odszkodowań. Niech T > 0. W przypadku ciągłym, mówimy, że w czasie [0, T ] zaszła ruina dla procesu U H (t) zdefiniowanego w (3), gdy istnieje i T takie, że U H (i) < 0. Prawdopodobieństwem ruiny przy kapitale początkowym u nazywamy π H,T (u) = P[ inf (u B H(t) + ct) < 0] = P[ sup ( u + B H (t) ct) > 0]. 0 t T 0 t T W przypadku klasycznego zagadnienia ruiny dla ułamkowego ruchu Browna znane są zarówno logarytmiczna asymptotyka prawdopodobieństwa ruiny, jak i dokładna. W szczególności, w modelu ciągłym, zachodzą następujące twierdzenia. 9
10 Twierdzenie. Niech {B H (t) : t 0} będzie ułamkowym ruchem Browna z parametrem Hursta H (0, ]. Niech T > 0. Wówczas log ( π H,T (u) ) u = T H ( + o() ), Twierdzenie 3. Niech {B H (t) : t 0} będzie ułamkowym ruchem Browna z parametrem Hursta H (0, ]. Niech T > 0. Wówczas ) Jeśli H <, to π H,T (u) = H H u 3H H (u+ct ) ( ) e T H H T 3H H + o(), gdy u, gdzie H H = T T E[ e max 0 t T ( ) Jeśli H =, to gdy u, 3) Jeśli H (, ), to gdy u, 4) Jeśli H =, to B H (t) ) ], π,t (u) = T (u+ct ) ( ) π u + ct e T + o(), π H,T (u) = T H (u+ct ) ( ) π u + ct e T H + o(), π,t (u) = T (u+ct ) π u + ct e T, Twierdzenie 3 zostało udowodnione w [5], a Twierdzenie jest z niego prostym wnioskiem. Zagadnienie ruiny można również rozpatrywać w czasie dyskretnym. W niniejszej pracy będziemy koncentrować się na tym przypadku. Niech T N. W przypadku dyskretnym, mówimy, że w czasie [0, T ] zaszła paryska ruina dla procesu U H (t) zdefiniowanego w (3), gdy istnieje i N 0
11 takie, że i + T, U H (i) < 0 oraz U H (i + ) < 0. Prawdopodobieństwem paryskiej ruiny przy kapitale początkowym u nazywamy ˆπ H,T (u) = P[ <i+ T : B H (i) > u + ci, B H (i + ) > u + c(i + )]. W Rozdziale 3 zbadamy prawdopodobieństwo paryskiej ruiny dla procesu ryzyka (3). W szczególności znajdziemy jego logarytmiczną asymptotykę dla H (0, ) oraz, dla H dokładną asymptotykę. Zauważmy, że przypadek H = jest nieciekawy, ponieważ dla każdego t 0 mamy B (t) = tz, gdzie Z N(0, ).
12 3 Prawdopodobieństwo paryskiej ruiny 3. Logarytmiczna asymptotyka Następujące twierdzenie opisuje logarytmiczną asymptotykę prawdopodobieństwa paryskiej ruiny. W celu jego udowodnienia posłużymy się kilkoma pomocniczymi lematami. Twierdzenie 4. Niech {B H (t) : t 0} będzie ułamkowym ruchem Browna z parametrem Hursta H (0, ). Niech T N. Wówczas ) dla H (0, ) mamy log(ˆπ H,T (u)) u u = (T ) H T H ( (T (T ) H T H + (T ) H )), H ) dla H = mamy log(ˆπ,t (u)) = u u 3) dla H (, ) mamy log(ˆπ H,T (u)) = u u (T ), H (T ). H Niniejszy lemat posłuży do znalezienia logarytmicznej asymptotyki prawdopodobieństwa paryskiej ruiny. Lemat 9. Niech {B H (t) : t 0} będzie ułamkowym ruchem Browna z parametrem Hursta H (0, ). Niech s t. Wówczas ) dla H (0, ) mamy log(p[b H (t) > u + ct, B H (s) > u + cs]) u u = (t s) H s H ( (t s H + s H t s H )), H ) dla H = mamy log(p[b H (t) > u + ct, B H (s) > u + cs]) = u u s, H
13 3) dla H (, ) mamy log(p[b H (t) > u + ct, B H (s) > u + cs]) = u u Dowód. Niech α = sh, β = i ρ = Cov( B H(t), B H(s) ). s H Wówczas ρ = ( + s H t s H ) oraz s H P[ B H(t) > α u + ct s, B H(s) H s H > β u + ct s H ] = P[ B H(t) > sh u + ct s, B H(s) > u + ct H s H s ] H P[B H (t) > u + ct, B H (s) > u + cs] = P[ B H(t) P[ B H(t) = P[ B H(t) Z (4) wynika, że log (P[ B H(t) log (P[ B H(t) log (P[ B H(t) > u + ct t, B H(s) H s H > sh u + cs s H, B H(s) s H > α u + cs s, B H(s) H s H > sh u+ct s H u, B H(s) > u+ct ]) s H s H > u+ct, B H(s) s H u > sh u+cs s H, B H(s) s H > u + cs s H ] > u + cs s H ] s. H > β u + cs ]. (4) sh > u+cs s H ]) > u+cs ]) s H. (5) u Ad ) Załóżmy, że H (0, ). Wówczas α β >ρ. Zauważmy, że sh >ρ wtedy i tylko wtedy, gdy ( s t )H + ( ( s t )) H >0. Niech f( s) = ( s t t )H + ( ( s t )) H. Zauważmy, że 0 < s <. t Korzystając z Lematu dla funkcji f otrzymujemy, że f( s )>0, czyli t α > ( β s H t + s H (t s) H). H Wróćmy do oszacowania (4). Z Lematu 4 otrzymujemy, że 3
14 P[ B H(t) = > sh π( u+ct s H gdy u oraz P[ B H(t) = u + ct s, B H(s) H s H ( ρ) 3/ α β ) (α ρβ)(β ρα) e > sh π( u+cs s H u + cs s, B H(s) H s H ( ρ) 3/ α β ) (α ρβ)(β ρα) e Ponieważ zachodzi (5), u oraz u log (P[ B H(t) log (P[ B H(t) > sh u+ct s H, B H(s) s H > u + ct s H ] α +β ραβ ρ ( u+ct ( ) s H ) + o(), > u + cs s H ] > u+ct ]) s H = u > sh u+cs s H > u+cs ]) s H = u, B H(s) s H α +β ραβ ρ ( u+cs ( ) s H ) + o(), α + β ραβ ρ s H α + β ραβ ρ s H, więc korzystając z twierdzenia o trzech ciągach otrzymujemy tezę. Ad ) Załóżmy, że H =. Wówczas α β = ρ. Zauważmy, że α β = ρ wtedy i tylko wtedy, gdy ( s t )H + ( ( s t )) H = 0. Niech f( s t ) = ( s t )H + ( ( s t )) H. Zauważmy, że 0 < s t <. Korzystając z Lematu otrzymujemy f( s t ) = 0, czyli α β = ρ. Wróćmy do oszacowania (4). Z Lematu 6 otrzymujemy, że u + ct P[Z s ] P[B H(t) H oraz u + cs P[Z s ] P[B H(t) H > sh u + ct s, B H(s) H s H > sh u + cs s, B H(s) H s H > u + ct s H > u + cs s H ] P[Z u + ct s H ] (6) ] P[Z u + cs s H ], (7) 4
15 gdzie Z N(0, ). Korzystając z (4), (6) i (7) otrzymujemy u + ct P[Z s H Z (8) wynika log ( u+ct P[Z ] ) s H u Ponadto zachodzi u oraz log ( u+ct P[Z ] ) s H ] P[B H(t) > u+ct, B H (s) > u+cs] P[Z u + cs ]. (8) sh log ( P[BH (t) > u + ct, B H (s) > u + cs] ) u u = s H log ( P[Z u+cs ] ) s H = u u s, H więc korzystając z twierdzenia o trzech ciągach otrzymujemy tezę. Ad 3) Załóżmy, że H (, ). Wówczas α < ρ. β Zauważmy, że α β < ρ wtedy i tylko wtedy, gdy ( s t )H + ( ( s t )) H < 0. Niech f( s t ) = ( s t )H + ( ( s t )) H. Zauważmy, że 0 < s t <. Korzystając z Lematu otrzymujemy f( s t ) < 0, czyli α β < ρ. Wróćmy do oszacowania (4). Z Lematu 5 otrzymujemy, że P[ B H(t) > sh gdy u oraz P[ B H(t) u + ct s, B H(s) H s H > sh u + cs s, B H(s) H s H Ponieważ zachodzi (5), u oraz u log (P[ B H(t) log (P[ B H(t) > sh u+ct s H, B H(s) s H log ( P[Z u+cs] ) s H. (9) u > u + ct s ] = H β( u+ct ) π e β ( u+ct )( s H + o() ), s H > u + cs s ] = H β( u+cs ) π e β ( u+cs )( s H + o() ), > u+ct ]) s H = u > sh u+cs s H > u+cs ]) s H = u, B H(s) s H 5 s H β s H β s H,
16 więc korzystając z twierdzenia o trzech ciągach otrzymujemy tezę. To kończy dowód. Lemat 0. Niech B H (t) będzie ułamkowym ruchem Browna z parametrem Hursta H (0, ). Niech T N. Wówczas Dowód. Zauważmy, że log ( P[ i<j T : B H (i) > u + ci, B H (j) > u + cj] ) = log ( max i<j T P[B H (i) > u + ci, B H (j) > u + cj] )( + o() ), log ( max i<j T P[B H (i) > u + ci, B H (j) > u + cj] ) log ( P[ i<j T : B H (i) > u + ci, B H (j) > u + cj] ) log ( P[B H (i) > u + ci, B H (j) > u + cj] ) i<j T ) log (( T max i<j T P[B H (i) > u + ci, B H (j) > u + cj] ) = log (( ) T ) ( + log max i<j T P[B H (i) > u + ci, B H (j) > u + cj] ). Czyli log ( max i<j T P[(B H (i) > u + ci, B H (j) > u + cj)] ) log ( P[ i<j T : B H (i) > u + ci, B H (j) > u + cj] ) log (( ) T ) ( + log max i<j T P[B H (i) > u + ci, B H (j) > u + cj] ). Dzieląc obustronnie przez u otrzymujemy log ( max i<j T P[B H (i) > u + ci, B H (i) > u + cj] ) u log ( P[ i<j T : B H (i) > u + ci, B H (j) > u + cj] ) log (( T u )) + log ( max i<j T P[B H (i) > u + ci, B H (j) > u + cj] ) u. 6
17 Ponieważ zachodzi log ( max i<j T P[B H (i) > u + ci, B H (i) > u + cj] ) u (( ( u log T )) + log max i<j T P[B H (i) > u + ci, B H (j) > u + cj] ) =, u u więc korzystając z twierdzenia o trzech ciągach otrzymujemy log ( P[ i<j T : B H (i) > u + ci, B H (j) > u + cj] ) = log ( max i<j T P[(B H (i) > u + ci, B H (j) > u + cj)] )( + o() ), Co było do udowodnienia. Poniższy lemat redukuje problem znalezienia asymptotyki prawdopodobieństwa paryskiej ruiny do znalezienia prawdopodobieństwa wystąpienia ruiny w dwóch kolejnych chwilach. Lemat. Niech B H (t) będzie ułamkowym ruchem Browna z parametrem Hursta H (0, ). Niech T N. Wówczas ˆπ H,T (u) = P[B H (T ) > u + c(t ), B H (T ) > u + ct ] ( + o() ), Dowód. Zauważmy, że P[B H (T ) > u + c(t ), B H (T ) > u + ct ] ˆπ H,T (u) T i= u P[B H (i) > u + ci, B H (i) > u + c(i + )]. Wystarczy zatem pokazać, że dla H (0, ) i każdego i < T zachodzi log ( ) P[B H (i)>u+c(i),b H (i+)>u+c(i+)] P[B H (n )>u+c(n ),B H (n)>u+cn] u < 0. W tym celu rozważymy dwa przypadki. Ad ) Niech H (0, ). Korzystając z Lematu 9 otrzymujemy, że log ( P[B H (i) > u + ci, B H (i + ) > u + c(i + )] ) = ( ) +o(), u i H (i + ) H ρ 7
18 gdy u, ( gdzie ρ = i H (i+) (i + ) H + i H ). H Zatem wystarczy zminimalizować następującą funkcję g(i) = = i H (i + ) H ( ( i H (i+) (i + ) H + i H )) H 4 ( ). (i + ) H + i H + i H + (i + ) H Równoważnie, musimy zmaksymalizować następującą funkcję h(i) = ( (i + ) H + i H) + i H + (i + ) H. Zauważmy, że h (i) = 4H[(i + ) H x H + (i + ) H x H + i H i 4H + (i + ) H (i + ) 4H ] = 4H[(i + ) H (i H + H ) + i H ((i + ) H + H ) i 4H (i + ) 4H ] (0) >4H[(i + ) H (i + ) H + i H (x + ) H i 4H (i + ) 4H ] = 4H[(i + ) 4H + i H (i + ) H i 4H (i + ) 4H ] > 0. W (0) korzystamy z nierówności (i + ) H < i H +, która została udowodniona w Lemacie i zachodzi dla każdego i > 0 i dla każdego H (0, ). Stąd h(i) jest ściśle rosnąca. Zatem swoje jedyne maksimum dla i T osiąga w punkcie i = T. Stąd g(i) osiąga swoje jedyne minimum w punkcie i = T. To potwierdza tezę. Ad ) Niech H [, ). Korzystając z Lematu 9 otrzymujemy log(p[b H (i) > u + ci, B H (i + ) > u + c(i + )]) = ( ) + o(), u i H Zatem wystarczy zminimalizować następującą funkcję g(i) =. Funkcja i H g(i) jest ściśle malejąca. Zatem swoje jedyne minimum dla i T osiąga w punkcie i = T. To kończy dowód. Dowód Twierdzenia 4. Wynika bezpośrednio z Lematu i Lematu 9, gdy s = t. 8
19 3. Dokładna asymptotyka Następujące twierdzenie jest głównym wynikiem pracy. Dotyczy ono modelu (3) dla H [, ). Przypadek H (0, ) jest bardzo trudny i nie będzie analizowany w niniejszej pracy. Ma on także mniejsze znaczenie aplikacyjne, gdyż, jak wynika z [7], w granicznych modelach ryzyka występuje jedynie ułamkowy ruch Browna z parametrem H [, ). Twierdzenie 5. Niech B H (t) będzie ułamkowym ruchem Browna z parametrem Hursta H [, ). Niech T N. Wówczas ) dla H = mamy gdy u, ) dla H (, ) mamy ˆπ,T (u) = P[Z > c] T ( ) e u π u + c(t ) ˆπ H,T (u) = +uc(t )+c (T ) (T ) ( + o() ), (T ) H ( ) e u +uc(t )+c (T ) ( ) (T ) H + o(), π u + c(t ) Dowód twierdzenia będzie wnioskiem z poniższego lematu i Lematu. Lemat. Niech {B H (t) : t 0} będzie ułamkowym ruchem Browna z parametrem Hursta H [, ). Niech 0 i j. Wówczas ) dla H = mamy P[B (i) > u + ci, B (j) > u + cj] = P[Z > c(j i)] i e u +uci+c i i π(u + ci) gdy u, gdzie Z N(0, ); ) dla H (, ) mamy P[B H (i) > u + ci, B H (j) > u + cj] = ( + o() ), i H π(u + ci) e u +uci+c i i H ( + o() ), 9
20 Dowód. Korzystając z Lematu 3 dla wektora ( B H (i), B H (j) ) otrzymujemy ( BH (i), B H (j) ) ( B H (i), ( j i )H ρb H (i) + j H ρ Z ), gdzie Z ma rozkład standardowy ( normalny oraz jest stochastycznie niezależne od B H (i), a ρ = i H j j H + i H (j i) H). H Mamy zatem P[B H (i) > u + ci, B H (j) > u + cj] = P[B H (i) > u + ci, ( j i )H ρb H (i) + j H ρ Z > u + cj] = P[B H (i) > u + ci, j H ρ Z > u + cj ( j i )H ρb H (i)]. Ad ) Niech H =. Zauważmy, że dla H = zachodzi ( j i )H ρ = Dolne oszacowanie: j i ( ) j + i (j i) = i = = 0. ij i P[B H (i) > u + ci, j H ρ Z > u + cj ( j i )H ρb H (i)] P[B H (i) > u + ci, j H ρ Z > u + cj ( j i )H ρ(u + ci)] = P[B H (i) > u + ci] P[j H ρ Z > c ( j ( j i )H ρi ) ] = P[B H (i) > u + ci] P[j H ρ Z > c(j i)]. 0
21 Górne oszacowanie: P[B H (i) > u + ci, j H ρ Z > u + cj ( j i )H ρb H (i)] = P[B H (i) (u + ci, u + ci + u ], j H ρ Z > u + cj ( j i )H ρb H (i)] + P[B H (i) > u + ci + u, j H ρ Z > u + cj ( j i )H ρb H (i)] P[B H (i) (u + ci, u + ci + u ], j H ρ Z > u + cj ( j i )H ρ(u + ci + u )] + P[B H (i) > u + ci + u, j H ρ Z > u + cj ( j i )H ρb H (i)] = P[B H (i) (u + ci, u + ci + u ]] P[j H ρ Z > u + cj ( j i )H ρ(u + ci + u )] + P[B H (i) > u + ci + u, j H ρ Z > u + cj ( j i )H ρb H (i)] = P[B H (i) > u + ci] P[j H ρ Z > u ( ( j i )H ρ ) + c ( j ( j i )H ρi ) ( j i )H ρ u ] + P[B H (i) > u + ci + u ] = P[B H (i) > u + ci] P[j H ρ Z > c(j i) u ] + P[B H (i) > u + ci + u ] = P[B H (i) > u + ci] P[j H ρ Z > c(j i)] ( + o() ). Stąd otrzymujemy Z faktów, że P[B H (i) > u + ci] P[j H ρ Z > c(j i)] P[B H (i) > u + ci, j H ρ Z > u + cj ( j i )H ρb H (i)] P[B H (i) > u + ci] P[j H ρ Z > c(j i) u ] + P[B H (i) > u + ci + u ]. u P[j H ρ Z > c(j i)] P[j H ρ Z > c(j i) u ] = i P[B H (i) > u + ci + u ] u P[B H (i) > u + ci] = 0
22 wynika ( P[BH (i) > u + ci] P[j H ρ Z > c(j i)] ) u = (P[B H (i) > u + ci] P[j H ρ Z > c(j i) ] ) u u + u P[B H (i) > u + ci + ]. u Korzystając z twierdzenia o trzech ciągach i Lematu dla P[B H (i) > u + ci] otrzymujemy tezę. Ad ) Niech H (, ). Zauważmy na początku, że dla H (, ) zachodzi ( j i )H ρ = ( j i )H i H j H ( j H + i H (j i) H) = i H ( j H + i H (j i) H) < 0. Równoważnie, < i H ( j H + i H (j i) H) wtedy i tylko wtedy, gdy 0 < ( i j )H ( ( i j )) H, co wynika z Lematu. Dolne oszacowanie: P[B H (i) > u + ci, j H ρ Z > u + cj ( j i )H ρb H (i)] P[B H (i) > u + ci, j H ρ Z > u + cj ( j i )H ρ(u + ci)] = P[B H (i) > u + ci, j H ρ Z > u ( ( j i )H ρ ) + c ( j ( j i )H ρi ) ] = P[B H (i) > u + ci] P[j H ρ Z > u ( ( j i )H ρ ) + c ( j ( j i )H ρi ) ].
23 Górne oszacowanie: P[B H (i) > u + ci, j H ρ Z > u + cj ( j i )H ρb H (i)] = P[B H (i) (u + ci, u + ci + u ], j H ρ Z > u + cj ( j i )H ρb H (i)] + P[B H (i) > u + ci + u, j H ρ Z > u + cj ( j i )H ρb H (i)] P[B H (i) (u + ci, u + ci + u ], j H ρ Z > u + cj ( j i )H ρ(u + ci + u )] + P[B H (i) > u + ci + u, j H ρ Z > u + cj ( j i )H ρb H (i)] = P[B H (i) (u + ci, u + ci + u ]] P[j H ρ Z > u + cj ( j i )H ρ(u + ci + u )] + P[B H (i) > u + ci + u, j H ρ Z > u + cj ( j i )H ρb H (i)] P[B H (i) > u + ci] P[j H ρ Z > u ( ( i j )H ρ ) + c ( j ( j i )H ρi ) ( i j )H ρ u ] + P[B H (i) > u + ci + u ]. Stąd otrzymujemy P[B H (i) > u + ci] P[j H ρ Z > u ( ( j i )H ρ ) + c ( j ( j i )H ρi ) ] P[B H (i) > u + ci, j H ρ Z > u + cj ( j i )H ρb H (i)] P[B H (i) > u + ci] P[j H ρ Z > u ( ( i j )H ρ ) + c ( j ( j i )H ρi ) ( i j )H ρ u ] + P[B H (i) > u + ci + u ]. Z faktów, że u P[jH ρ Z > u ( ( j i )H ρ ) + c ( j ( j i )H ρi ) ] = oraz P[B H (i) > u + ci + u ] u P[B H (i) > u + ci] = 0 3
24 wynika P[B H(i) > u + ci] u = u ( P[B H (i) > u + ci] P[j H ρ Z > u ( ( i j )H ρ ) + c ( j ( j i )H ρi ) ( i j )H ρ u ] + P[B H (i) > u + ci + ]. u u Korzystając z twierdzenia o trzech ciągach i Lematu dla P[B H (i) > u + ci] otrzymujemy tezę. Dowód Twierdzenia 5. Na mocy Lematu wiemy, że ˆπ H,T (u) = P[B H (T ) > u + c(t ), B H (T ) > u + ct ] ( + o() ), Wystarczy zatem znaleźć asymptotyczne zachowanie P[B H (T ) > u + c(t ), B H (T ) > u + ct ], Z Lematu zastosowanego dla i = T oraz j = T wynika teza. Uwaga. Korzystając z tych samych metod co w dowodzie Lematu możemy udowodnić analogiczny wynik dla prawdopodobieństwa paryskiej ruiny, w którym ruina następuje w k kolejnych chwilach. Postać asymptotyki znacznie się jednak komplikuje wraz ze wzrostem k. Dlatego w niniejszej pracy ograniczyliśmy się do przedstawienia wyników jedynie w przypadku k =. ) 4
25 Literatura [] Asmussen, S. Ruin probabilities, World Scientific, 000. [] Cramér, H. On the Mathematical Theory of Risk. Skandia Jubilee Volume, Stockholm, 930 [3] Czarna, I., Li, Y., Palmowski, Z., Zhao, C.(07) The joint distribution of the Parisian ruin time and the number of claims until Parisian ruin in the classical risk model, Journal of Computational and Applied Mathematics 33, [4] Czarna, I., Renaud, J.-F. (06) A note on Parisian ruin with an ultimate bankruptcy level for Lévy insurance risk processes, Statistics Probability Letters 06, Vol. 3, [5] Dębicki, K., Rolski, T. (00) A note on transient Gaussian fluid models. Queueing Systems, 4, [6] Elnaggar, M., Mukherjea, A. (0) Solution of the problem of the identified minimum for the trivariate normal. Proceedings of the Indian Academy of Sciences Section A, Vol., No.4, [7] Michna, Z. (998) Self-similar processes in collective risk theory. Journal of Applied Mathematics and Stochastic Analysis, :4, [8] Michna, Z. Modele graniczne w teorii ryzyka ubezpieczeniowego. Prace Naukowe Akademii Ekonomicznej we Wrocławiu. Seria: Monografie i Opracowania (nr 00), 004. [9] Rolski, T., Schmidli, H., Schmidt, V., Teugels, J. Stochastic Processes for Insurance and Finance. Wiley Series in Probability and Statistics, 999. [0] Samorodnitsky, G., Taqqu, M. S. Stable non-gaussian random processes. Stochastic Models with Infinite Variance. Chapman and Hall/CRC,
Parametr Λ w populacji ubezpieczonych ma rozkład dany na półosi dodatniej gęstością: 3 f
Zadanie. W kolejnych latach t =,,,... ubezpieczony charakteryzujący się parametrem ryzyka Λ generuje N t szkód. Dla danego Λ = λ zmienne N, N, N,... są warunkowo niezależne i mają (brzegowe) rozkłady Poissona:
Bardziej szczegółowoModelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski
Modelowanie zależności pomiędzy zmiennymi losowymi Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski P Zmienne losowe niezależne - przypomnienie Dwie rzeczywiste zmienne losowe X i Y
Bardziej szczegółowoRozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład
Rozdział 1 Wektory losowe 1.1 Wektor losowy i jego rozkład Definicja 1 Wektor X = (X 1,..., X n ), którego każda współrzędna jest zmienną losową, nazywamy n-wymiarowym wektorem losowym (krótko wektorem
Bardziej szczegółowo1 Gaussowskie zmienne losowe
Gaussowskie zmienne losowe W tej serii rozwiążemy zadania dotyczące zmiennych o rozkładzie normalny. Wymagana jest wiedza na temat własności rozkładu normalnego, CTG oraz warunkowych wartości oczekiwanych..
Bardziej szczegółowoProcesy stochastyczne
Wykład I: Istnienie procesów stochastycznych 21 lutego 2017 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane
Bardziej szczegółowoProcesy stochastyczne
Wykład I: Istnienie procesów stochastycznych 2 marca 2015 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane są
Bardziej szczegółowoProces rezerwy w czasie dyskretnym z losową stopą procentową i losową składką
z losową stopą procentową i losową składką Instytut Matematyki i Informatyki Politechniki Wrocławskiej 10 czerwca 2008 Oznaczenia Wprowadzenie ξ n liczba wypłat w (n 1, n], Oznaczenia Wprowadzenie ξ n
Bardziej szczegółowoOśrodkowość procesów, proces Wienera. Ośrodkowość procesów, proces Wienera Procesy Stochastyczne, wykład, T. Byczkowski,
Procesy Stochastyczne, wykład, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 27 luty, 2012 Ośrodkowość procesów Dalej zakładamy, że (Ω, Σ, P) jest zupełną przestrzenią miarową. Definicja.
Bardziej szczegółowoStatystyka. Wykład 2. Krzysztof Topolski. Wrocław, 11 października 2012
Wykład 2 Wrocław, 11 października 2012 Próba losowa Definicja. Zmienne losowe X 1, X 2,..., X n nazywamy próba losową rozmiaru n z rozkładu o gęstości f (x) (o dystrybuancie F (x)) jeśli X 1, X 2,...,
Bardziej szczegółowozadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych
zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych 1. [E.A 5.10.1996/zad.4] Funkcja gęstości dana jest wzorem { 3 x + 2xy + 1 y dla (x y) (0 1) (0 1) 4 4 P (X > 1 2 Y > 1 2 ) wynosi:
Bardziej szczegółowoWykład 11: Martyngały: definicja, twierdzenia o zbieżności
RAP 412 14.01.2009 Wykład 11: Martyngały: definicja, twierdzenia o zbieżności Wykładowca: Andrzej Ruciński Pisarz:Mirosława Jańczak 1 Wstęp Do tej pory zajmowaliśmy się ciągami zmiennych losowych (X n
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład VII: Rozkład i jego charakterystyki 22 listopada 2016 Uprzednio wprowadzone pojęcia i ich własności Definicja zmiennej losowej Zmienna losowa na przestrzeni probabilistycznej (Ω, F, P) to funkcja
Bardziej szczegółowoN ma rozkład Poissona z wartością oczekiwaną równą 100 M, M M mają ten sam rozkład dwupunktowy o prawdopodobieństwach:
Zadanie. O niezależnych zmiennych losowych N, M M, M 2, 3 wiemy, że: N ma rozkład Poissona z wartością oczekiwaną równą 00 M, M M mają ten sam rozkład dwupunktowy o prawdopodobieństwach: 2, 3 Pr( M = )
Bardziej szczegółowo2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.
Zadania z Procesów Stochastycznych 1 1. Udowodnij, że z prawdopodobieństwem 1 trajektorie procesu Poissona są niemalejące, przyjmują wartości z Z +, mają wszystkie skoki równe 1 oraz dążą do nieskończoności.
Bardziej szczegółowoMatematyka ubezpieczeń majątkowych r.
Matematyka ubezpieczeń majątkowych 0.0.005 r. Zadanie. Likwidacja szkody zaistniałej w roku t następuje: w tym samym roku z prawdopodobieństwem 0 3, w następnym roku z prawdopodobieństwem 0 3, 8 w roku
Bardziej szczegółowoVII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa.
VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa. W rozdziale tym zajmiemy się dokładniej badaniem stabilności rozwiązań równania różniczkowego. Pojęcie stabilności w
Bardziej szczegółowo2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.
Zadania z Procesów Stochastycznych 1 1. Udowodnij, że z prawdopodobieństwem 1 trajektorie procesu Poissona są niemalejące, przyjmują wartości z Z +, mają wszystkie skoki równe 1 oraz dążą do nieskończoności.
Bardziej szczegółowoRachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne
Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne 5.2. Momenty rozkładów łącznych. Katarzyna Rybarczyk-Krzywdzińska rozkładów wielowymiarowych Przypomnienie Jeśli X jest zmienną losową o rozkładzie
Bardziej szczegółowoEgzamin z matematyki ubezpieczeniowej (MUMIO), semestr zimowy 2013/14
ZESTAW A IMIȨ I NAZWISKO: Egzamin z matematyki ubezpieczeniowej (MUMIO), semestr zimowy 2/4 Data: 224 Egzaminar: Ryszard Szekli INSTRUKCJE: Rozwiązując test zakreślamy literką X POPRAWNE ODPOWIEDZI W TABELCE
Bardziej szczegółowoPrawa wielkich liczb, centralne twierdzenia graniczne
, centralne twierdzenia graniczne Katedra matematyki i ekonomii matematycznej 17 maja 2012, centralne twierdzenia graniczne Rodzaje zbieżności ciągów zmiennych losowych, centralne twierdzenia graniczne
Bardziej szczegółowoWykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe
Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe Nierówność Czebyszewa Niech X będzie zmienną losową o skończonej wariancji V ar(x). Wtedy wartość oczekiwana E(X) też jest skończona i
Bardziej szczegółowoZadanie 1. Liczba szkód N w ciągu roku z pewnego ryzyka ma rozkład geometryczny: k =
Matematyka ubezpieczeń majątkowych 0.0.006 r. Zadanie. Liczba szkód N w ciągu roku z pewnego ryzyka ma rozkład geometryczny: k 5 Pr( N = k) =, k = 0,,,... 6 6 Wartości kolejnych szkód Y, Y,, są i.i.d.,
Bardziej szczegółowoWYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty
WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty Agata Boratyńska Agata Boratyńska Rachunek prawdopodobieństwa, wykład 4 / 9 Przekształcenia zmiennej losowej X
Bardziej szczegółowoZadania z Rachunku Prawdopodobieństwa III - 1
Zadania z Rachunku Prawdopodobieństwa III - 1 Funkcją tworzącą momenty (transformatą Laplace a) zmiennej losowej X nazywamy funkcję M X (t) := Ee tx, t R. 1. Oblicz funkcję tworzącą momenty zmiennych o
Bardziej szczegółowoMaksymalne powtórzenia w tekstach i zerowa intensywność entropii
Maksymalne powtórzenia w tekstach i zerowa intensywność entropii Łukasz Dębowski ldebowsk@ipipan.waw.pl i Instytut Podstaw Informatyki PAN Warszawa 1 Wprowadzenie 2 Ograniczenia górne i dolne 3 Przykłady
Bardziej szczegółowoCentralne twierdzenie graniczne
Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 4 Ważne uzupełnienie Dwuwymiarowy rozkład normalny N (µ X, µ Y, σ X, σ Y, ρ): f XY (x, y) = 1 2πσ X σ Y 1 ρ 2 { [ (x ) 1
Bardziej szczegółowoWykład 12 Testowanie hipotez dla współczynnika korelacji
Wykład 12 Testowanie hipotez dla współczynnika korelacji Wrocław, 23 maja 2018 Współczynnik korelacji Niech będą dane dwie próby danych X = (X 1, X 2,..., X n ) oraz Y = (Y 1, Y 2,..., Y n ). Współczynnikiem
Bardziej szczegółowoĆwiczenia: Ukryte procesy Markowa lista 1 kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II
Ćwiczenia: Ukryte procesy Markowa lista kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II dr Jarosław Kotowicz Zadanie. Dany jest łańcuch Markowa, który może przyjmować wartości,,...,
Bardziej szczegółowoWykład 6 Estymatory efektywne. Własności asymptotyczne estym. estymatorów
Wykład 6 Estymatory efektywne. Własności asymptotyczne estymatorów Wrocław, 30 listopada 2016r Powtórzenie z rachunku prawdopodobieństwa Zbieżność Definicja 6.1 Niech ciąg {X } n ma rozkład o dystrybuancie
Bardziej szczegółowoWykład 12 Testowanie hipotez dla współczynnika korelacji
Wykład 12 Testowanie hipotez dla współczynnika korelacji Wrocław, 24 maja 2017 Współczynnik korelacji Niech będą dane dwie próby danych X = (X 1, X 2,..., X n ) oraz Y = (Y 1, Y 2,..., Y n ). Współczynnikiem
Bardziej szczegółowoSIMR 2017/18, Statystyka, Przykładowe zadania do kolokwium - Rozwiązania
SIMR 7/8, Statystyka, Przykładowe zadania do kolokwium - Rozwiązania. Dana jest gęstość prawdopodobieństwa zmiennej losowej ciągłej X : { a( x) dla x [, ] f(x) = dla pozostałych x Znaleźć: i) Wartość parametru
Bardziej szczegółowoPrzykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych
Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Niech Ω będzie przestrzenią zdarzeń elementarnych. Definicja 1 Rodzinę S zdarzeń losowych (zbiór S podzbiorów zbioru
Bardziej szczegółowo8 Całka stochastyczna względem semimartyngałów
M. Beśka, Całka Stochastyczna, wykład 8 148 8 Całka stochastyczna względem semimartyngałów 8.1 Całka stochastyczna w M 2 Oznaczmy przez Ξ zbiór procesów postaci X t (ω) = ξ (ω)i {} (t) + n ξ i (ω)i (ti,
Bardziej szczegółowoZadanie 1. Ilość szkód N ma rozkład o prawdopodobieństwach spełniających zależność rekurencyjną:
Zadanie. Ilość szkód N ma rozkład o prawdopodobieństwach spełniających zależność rekurencyjną: Pr Pr ( = k) ( N = k ) N = + k, k =,,,... Jeśli wiemy, że szkód wynosi: k= Pr( N = k) =, to prawdopodobieństwo,
Bardziej szczegółowoWykład 3 Momenty zmiennych losowych.
Wykład 3 Momenty zmiennych losowych. Wrocław, 19 października 2016r Momenty zmiennych losowych Wartość oczekiwana - przypomnienie Definicja 3.1: 1 Niech X będzie daną zmienną losową. Jeżeli X jest zmienną
Bardziej szczegółowoZadanie 1. są niezależne i mają rozkład z atomami: ( ),
Zadanie. Zmienne losowe są niezależne i mają rozkład z atomami: ( ) ( ) i gęstością: ( ) na przedziale ( ). Wobec tego ( ) wynosi: (A) 0.2295 (B) 0.2403 (C) 0.2457 (D) 0.25 (E) 0.269 Zadanie 2. Niech:
Bardziej szczegółowoWykład 3 Momenty zmiennych losowych.
Wykład 3 Momenty zmiennych losowych. Wrocław, 18 października 2017r Momenty zmiennych losowych Wartość oczekiwana - przypomnienie Definicja 3.1: 1 Niech X będzie daną zmienną losową. Jeżeli X jest zmienną
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład IV: 27 października 2014 Współczynnik korelacji Brak korelacji a niezależność Definicja współczynnika korelacji Współczynnikiem korelacji całkowalnych z kwadratem zmiennych losowych X i Y nazywamy
Bardziej szczegółowoLista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie
Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie Jarosław Kotowicz Instytut Matematyki Uniwersytet w
Bardziej szczegółowoWYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki
WYKŁAD 6 Witold Bednorz, Paweł Wolff 1 Instytut Matematyki Uniwersytet Warszawski Rachunek Prawdopodobieństwa, WNE, 2010-2011 Własności Wariancji Przypomnijmy, że VarX = E(X EX) 2 = EX 2 (EX) 2. Własności
Bardziej szczegółowoPROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω)
PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω) określonych na tej samej przestrzeni probabilistycznej
Bardziej szczegółowoElementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa
Spis treści Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa Romuald Kotowski Katedra Informatyki Stosowanej PJWSTK 2009 Spis treści Spis treści 1 Wstęp Bardzo często interesujący
Bardziej szczegółowoSystem BCD z κ. Adam Slaski na podstawie wykładów, notatek i uwag Pawła Urzyczyna. Semestr letni 2009/10
System BCD z κ Adam Slaski na podstawie wykładów, notatek i uwag Pawła Urzyczyna Semestr letni 2009/10 Rozważamy system BCD ze stałą typową κ i aksjomatami ω κ κ i κ ω κ. W pierwszej części tej notatki
Bardziej szczegółowo4,5. Dyskretne zmienne losowe (17.03; 31.03)
4,5. Dyskretne zmienne losowe (17.03; 31.03) Definicja 1 Zmienna losowa nazywamy dyskretna (skokowa), jeśli zbiór jej wartości x 1, x 2,..., można ustawić w ciag. Zmienna losowa X, która przyjmuje wszystkie
Bardziej szczegółowo1 Nierówność Minkowskiego i Hoeldera
1 Nierówność Minkowskiego i Hoeldera Na państwa użytek załączam precyzyjne sformułowania i dowody nierówności Hoeldera i Minkowskiego: Twierdzenie 1.1 Nierówność Hoeldera). Niech p, q będą takimi liczbami
Bardziej szczegółowoDyskretne zmienne losowe
Dyskretne zmienne losowe dr Mariusz Grządziel 16 marca 2009 Definicja 1. Zmienna losowa nazywamy dyskretna (skokowa), jeśli zbiór jej wartości x 1, x 2,..., można ustawić w ciag. Zmienna losowa X, która
Bardziej szczegółowoFunkcje charakterystyczne zmiennych losowych, linie regresji 1-go i 2-go rodzaju
Funkcje charakterystyczne zmiennych losowych, linie regresji -go i 2-go rodzaju Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Inteligencji i Metod Matematycznych Wydział Informatyki Politechniki
Bardziej szczegółowoMatematyka ubezpieczeń majątkowych r.
Matematyka ubezpieczeń majątkowych 3..007 r. Zadanie. Każde z ryzyk pochodzących z pewnej populacji charakteryzuje się tym że przy danej wartości λ parametru ryzyka Λ rozkład wartości szkód z tego ryzyka
Bardziej szczegółowoSpacery losowe generowanie realizacji procesu losowego
Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z
Bardziej szczegółowoLogarytmy. Funkcje logarytmiczna i wykładnicza. Równania i nierówności wykładnicze i logarytmiczne.
Logarytmy. Funkcje logarytmiczna i wykładnicza. Równania i nierówności wykładnicze i logarytmiczne. Definicja. Niech a i b będą dodatnimi liczbami rzeczywistymi i niech a. Logarytmem liczby b przy podstawie
Bardziej szczegółowodla t ściślejsze ograniczenie na prawdopodobieństwo otrzymujemy przyjmując k = 1, zaś dla t > t ściślejsze ograniczenie otrzymujemy przyjmując k = 2.
Zadanie. Dla dowolnej zmiennej losowej X o wartości oczekiwanej μ, wariancji momencie centralnym μ k rzędu k zachodzą nierówności (typu Czebyszewa): ( X μ k Pr > μ + t σ ) 0. k k t σ *
Bardziej szczegółowoMetody probabilistyczne
Metody probabilistyczne 6. Momenty zmiennych losowych Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 8.11.2018 1 / 47 Funkcje zmiennych losowych Mierzalna funkcja Y
Bardziej szczegółowoWykład 3 Jednowymiarowe zmienne losowe
Wykład 3 Jednowymiarowe zmienne losowe Niech (Ω, F, P ) będzie ustaloną przestrzenią probabilistyczną Definicja 1 Jednowymiarowa zmienna losowa (o wartościach rzeczywistych), określoną na przestrzeni probabilistycznej
Bardziej szczegółowoF t+ := s>t. F s = F t.
M. Beśka, Całka Stochastyczna, wykład 1 1 1 Wiadomości wstępne 1.1 Przestrzeń probabilistyczna z filtracją Niech (Ω, F, P ) będzie ustaloną przestrzenią probabilistyczną i niech F = {F t } t 0 będzie rodziną
Bardziej szczegółowoGeometryczna zbieżność algorytmu Gibbsa
Geometryczna zbieżność algorytmu Gibbsa Iwona Żerda Wydział Matematyki i Informatyki, Uniwersytet Jagielloński 6 grudnia 2013 6 grudnia 2013 1 / 19 Plan prezentacji 1 Algorytm Gibbsa 2 Tempo zbieżności
Bardziej szczegółowoImmunizacja ryzyka stopy procentowej ubezpieczycieli życiowych
Immunizacja ryzyka stopy procentowej ubezpieczycieli życiowych Elżbieta Krajewska Instytut Matematyki Politechnika Łódzka Elżbieta Krajewska Immunizacja ubezpieczycieli życiowych 1/22 Plan prezentacji
Bardziej szczegółowoO procesie Wienera. O procesie Wienera. Procesy stochastyczne Wykład XV, 15 czerwca 2015 r. Proces Wienera. Ruch Browna. Ułamkowe ruchy Browna
Procesy stochastyczne Wykład XV, 15 czerwca 2015 r. Ruch 1 {X t } jest martyngałem dokładnie wtedy, gdy E(X t F s ) = X s, s, t T, s t. Jeżeli EX 2 (t) < +, to E(X t F s ) jest rzutem ortogonalnym zmiennej
Bardziej szczegółowoStatystyka matematyczna dla leśników
Statystyka matematyczna dla leśników Wydział Leśny Kierunek leśnictwo Studia Stacjonarne I Stopnia Rok akademicki 2013/2014 Wykład 3 Zmienna losowa i jej rozkłady Zdarzenia losowe Pojęcie prawdopodobieństwa
Bardziej szczegółowoProgramowanie liniowe
Programowanie liniowe Maciej Drwal maciej.drwal@pwr.wroc.pl 1 Problem programowania liniowego min x c T x (1) Ax b, (2) x 0. (3) gdzie A R m n, c R n, b R m. Oznaczmy przez x rozwiązanie optymalne, tzn.
Bardziej szczegółowoZestaw 2: Zmienne losowe. 0, x < 1, 2, 2 x, 1 1 x, 1 x, F 9 (x) =
Zestaw : Zmienne losowe. Które z poniższych funkcji są dystrybuantami? Odpowiedź uzasadnij. Wskazówka: naszkicuj wykres. 0, x 0,, x 0, F (x) = x, F (x) = x, 0 x
Bardziej szczegółowoWstęp do Rachunku Prawdopodobieństwa, IIr. WMS
Wstęp do Rachunku Prawdopodobieństwa, IIr. WMS przykładowe zadania na. kolokwium czerwca 6r. Poniżej podany jest przykładowy zestaw zadań. Podczas kolokwium na ich rozwiązanie przeznaczone będzie ok. 85
Bardziej szczegółowoDyskretne procesy stacjonarne o nieskończonej entropii nadwyżkowej
Dyskretne procesy stacjonarne o nieskończonej entropii nadwyżkowej Łukasz Dębowski ldebowsk@ipipan.waw.pl i Instytut Podstaw Informatyki PAN Co to jest entropia nadwyżkowa? Niech (X i ) i Z będzie procesem
Bardziej szczegółowoUPORZĄDKOWANIE STOCHASTYCZNE ESTYMATORÓW ŚREDNIEGO CZASU ŻYCIA. Piotr Nowak Uniwersytet Wrocławski
UPORZĄDKOWANIE STOCHASTYCZNE ESTYMATORÓW ŚREDNIEGO CZASU ŻYCIA Piotr Nowak Uniwersytet Wrocławski Wprowadzenie X = (X 1,..., X n ) próba z rozkładu wykładniczego Ex(θ). f (x; θ) = 1 θ e x/θ, x > 0, θ >
Bardziej szczegółowoTwierdzenia graniczne fluktuacji procesów przebywania dla układów gałazkowych
Publiczna obrona rozprawy doktorskiej Twierdzenia graniczne fluktuacji procesów przebywania dla układów gałazkowych Piotr Miłoś Instytut Matematyczny Polskiej Akademii Nauk 23.10.2008 Warszawa Plan 1 Układy
Bardziej szczegółowoMetody probabilistyczne
Metody probabilistyczne 13. Elementy statystki matematycznej I Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 17.01.2019 1 / 30 Zagadnienia statystki Przeprowadzamy
Bardziej szczegółowopoprzez reasekurację proporcjonalną w modelu Jan Matuszewski Uniwersytet Warszawski
Minimalizacja prawdopodobieństwa ruiny poprzez reasekurację proporcjonalną w modelu Sparre Andersena Jan Matuszewski Uniwersytet Warszawski Prezentacja powstała w oparciu o wyniki uzyskane w pracy magisterskiej
Bardziej szczegółowoMatematyka ubezpieczeń majątkowych r.
Zadanie. W pewnej populacji kierowców każdego jej członka charakteryzują trzy zmienne: K liczba przejeżdżanych kilometrów (w tysiącach rocznie) NP liczba szkód w ciągu roku, w których kierowca jest stroną
Bardziej szczegółowoTwierdzenie Li-Yorke a Twierdzenie Szarkowskiego
Politechnika Gdańska Wydział Fizyki Technicznej i Matematyki Stosowanej Twierdzenie Li-Yorke a Twierdzenie Szarkowskiego Autor: Kamil Jaworski 11 marca 2012 Spis treści 1 Wstęp 2 1.1 Podstawowe pojęcia........................
Bardziej szczegółowoStacjonarne procesy gaussowskie, czyli o zwiazkach pomiędzy zwykła
Stacjonarne procesy gaussowskie, czyli o zwiazkach pomiędzy zwykła autokorelacji Łukasz Dębowski ldebowsk@ipipan.waw.pl Instytut Podstaw Informatyki PAN autokorelacji p. 1/25 Zarys referatu Co to sa procesy
Bardziej szczegółowoWspółczynnik korelacji. Współczynnik korelacji jest miernikiem zależności między dwiema cechami Oznaczenie: ϱ
Współczynnik korelacji Współczynnik korelacji jest miernikiem zależności między dwiema cechami Oznaczenie: ϱ Własności współczynnika korelacji 1. Współczynnik korelacji jest liczbą niemianowaną 2. ϱ 1,
Bardziej szczegółowoSzkice do zajęć z Przedmiotu Wyrównawczego
Szkice do zajęć z Przedmiotu Wyrównawczego Matematyka Finansowa sem. letni 2011/2012 Spis treści Zajęcia 1 3 1.1 Przestrzeń probabilistyczna................................. 3 1.2 Prawdopodobieństwo warunkowe..............................
Bardziej szczegółowoTestowanie hipotez statystycznych.
Bioinformatyka Wykład 6 Wrocław, 7 listopada 2011 Temat. Weryfikacja hipotez statystycznych dotyczących proporcji. Test dla proporcji. Niech X 1,..., X n będzie próbą statystyczną z 0-1. Oznaczmy odpowiednio
Bardziej szczegółowoUkłady równań i nierówności liniowych
Układy równań i nierówności liniowych Wiesław Krakowiak 1 grudnia 2010 1 Układy równań liniowych DEFINICJA 11 Układem równań m liniowych o n niewiadomych X 1,, X n, nazywamy układ postaci: a 11 X 1 + +
Bardziej szczegółowoStatystyka. Wydział Zarządzania Uniwersytetu Łódzkiego
Statystyka Wydział Zarządzania Uniwersytetu Łódzkiego 2017 Zmienna losowa i jej rozkład Mając daną przestrzeń probabilistyczną, czyli parę (&, P) stanowiącą model pewnego doświadczenia losowego (gdzie
Bardziej szczegółowoRachunek prawdopodobieństwa i statystyka
Rachunek prawdopodobieństwa i statystyka Momenty Zmienna losowa jest wystarczająco dokładnie opisana przez jej rozkład prawdopodobieństwa. Względy praktyczne dyktują jednak potrzebę znalezienia charakterystyk
Bardziej szczegółowoMETODY ESTYMACJI PUNKTOWEJ. nieznanym parametrem (lub wektorem parametrów). Przez X będziemy też oznaczać zmienną losową o rozkładzie
METODY ESTYMACJI PUNKTOWEJ X 1,..., X n - próbka z rozkładu P θ, θ Θ, θ jest nieznanym parametrem (lub wektorem parametrów). Przez X będziemy też oznaczać zmienną losową o rozkładzie P θ. Definicja. Estymatorem
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład XIII: Prognoza. 26 stycznia 2015 Wykład XIII: Prognoza. Prognoza (predykcja) Przypuśćmy, że mamy dany ciąg liczb x 1, x 2,..., x n, stanowiących wyniki pomiaru pewnej zmiennej w czasie wielkości
Bardziej szczegółowoAgata Boratyńska Statystyka aktuarialna... 1
Agata Boratyńska Statystyka aktuarialna... 1 ZADANIA NA ĆWICZENIA Z TEORII WIAROGODNOŚCI Zad. 1. Niech X 1, X 2,..., X n będą niezależnymi zmiennymi losowymi z rozkładu wykładniczego o wartości oczekiwanej
Bardziej szczegółowoWażne rozkłady i twierdzenia
Ważne rozkłady i twierdzenia Rozkład dwumianowy i wielomianowy Częstość. Prawo wielkich liczb Rozkład hipergeometryczny Rozkład Poissona Rozkład normalny i rozkład Gaussa Centralne twierdzenie graniczne
Bardziej szczegółowo21 maja, Mocna własność Markowa procesu Wienera. Procesy Stochastyczne, wykład 13, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126
Mocna własność Markowa procesu Wienera Procesy Stochastyczne, wykład 13, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126 21 maja, 2012 Mocna własność Markowa W = (W 1,..., W d ) oznaczać
Bardziej szczegółowo6. Zmienne losowe typu ciagłego ( ) Pole trapezu krzywoliniowego
6. Zmienne losowe typu ciagłego (2.04.2007) Pole trapezu krzywoliniowego Przypomnienie: figurę ograniczoną przez: wykres funkcji y = f(x), gdzie f jest funkcją ciągłą; proste x = a, x = b, a < b, oś OX
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład II: Zmienne losowe i charakterystyki ich rozkładów 13 października 2014 Zmienne losowe Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Definicja zmiennej losowej i jej
Bardziej szczegółowoWykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa
Wykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa Marek Kubiak Instytut Informatyki Politechnika Poznańska Plan wykładu Podstawowe pojęcia rachunku prawdopodobieństwa Rozkład
Bardziej szczegółowoWeryfikacja hipotez statystycznych
Weryfikacja hipotez statystycznych Hipoteza Test statystyczny Poziom istotności Testy jednostronne i dwustronne Testowanie równości wariancji test F-Fishera Testowanie równości wartości średnich test t-studenta
Bardziej szczegółowo12DRAP - parametry rozkładów wielowymiarowych
DRAP - parametry rozkładów wielowymiarowych Definicja.. Jeśli h : R R, a X, Y ) jest wektorem losowym o gęstości fx, y) to EhX, Y ) = hx, y)fx, y)dxdy. Jeśli natomiast X, Y ) ma rozkład dyskretny skupiony
Bardziej szczegółowoWykład 10 Estymacja przedziałowa - przedziały ufności dla średn
Wykład 10 Estymacja przedziałowa - przedziały ufności dla średniej Wrocław, 21 grudnia 2016r Przedział ufności Niech będzie dana próba X 1, X 2,..., X n z rozkładu P θ, θ Θ. Definicja 10.1 Przedziałem
Bardziej szczegółowoMatematyka z el. statystyki, # 3 /Geodezja i kartografia II/
Matematyka z el. statystyki, # 3 /Geodezja i kartografia II/ Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Akademicka 15, p.211a bud. Agro II, e-mail: zdzislaw.otachel@up.lublin.pl
Bardziej szczegółowoDrugie kolokwium z Rachunku Prawdopodobieństwa, zestaw A
Drugie kolokwium z Rachunku Prawdopodobieństwa, zestaw A Zad. 1. Korzystając z podanych poniżej mini-tablic, oblicz pierwszy, drugi i trzeci kwartyl rozkładu N(10, 2 ). Rozwiązanie. Najpierw ogólny komentarz
Bardziej szczegółowoProcesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.
Procesy stochastyczne WYKŁAD 2-3 Łańcuchy Markowa Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi. 2 Łańcuchem Markowa nazywamy proces będący ciągiem zmiennych
Bardziej szczegółowoZmienne losowe. Powtórzenie. Dariusz Uciński. Wykład 1. Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski
Powtórzenie Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 1 Podręcznik podstawowy Jacek Koronacki, Jan Mielniczuk: Statystyka dla studentów kierunków technicznych i przyrodnicznych,
Bardziej szczegółowo19 marzec, Łańcuchy Markowa z czasem dyskretnym. Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136
Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 19 marzec, 2012 Przykłady procesów Markowa (i). P = (p ij ) - macierz stochastyczna, tzn. p ij 0, j p ij =
Bardziej szczegółowoPrognozowalne kryterium całkowalności według A. N. Shiryaeva i A. S. Cherny ego Joanna Karłowska-Pik. Historia
1 Prognozowalne kryterium całkowalności według A. N. Shiryaeva i A. S. Cherny ego Joanna Karłowska-Pik Całka stochastyczna ( t ) H s dx s = H X. t Historia K. Itô (1944) konstrukcja całki stochastycznej
Bardziej szczegółowoZmienne losowe. dr Mariusz Grządziel Wykład 12; 20 maja 2014
Zmienne losowe dr Mariusz Grządziel Wykład 2; 20 maja 204 Definicja. Zmienna losowa nazywamy dyskretna (skokowa), jeśli zbiór jej wartości x, x 2,..., można ustawić w ciag. Zmienna losowa X, która przyjmuje
Bardziej szczegółowoWykład 5 Estymatory nieobciążone z jednostajnie minimalną war
Wykład 5 Estymatory nieobciążone z jednostajnie minimalną wariancją Wrocław, 25 października 2017r Statystyki próbkowe - Przypomnienie Niech X = (X 1, X 2,... X n ) będzie n elementowym wektorem losowym.
Bardziej szczegółowoPrognozowanie i Symulacje. Wykład I. Matematyczne metody prognozowania
Prognozowanie i Symulacje. Wykład I. e-mail:e.kozlovski@pollub.pl Spis treści Szeregi czasowe 1 Szeregi czasowe 2 3 Szeregi czasowe Definicja 1 Szereg czasowy jest to proces stochastyczny z czasem dyskretnym
Bardziej szczegółowoUkłady stochastyczne
Instytut Informatyki Uniwersytetu Śląskiego 21 stycznia 2009 Definicja Definicja Proces stochastyczny to funkcja losowa, czyli funkcja matematyczna, której wartości leżą w przestrzeni zdarzeń losowych.
Bardziej szczegółowoCiągłość funkcji f : R R
Ciągłość funkcji f : R R Definicja 1. Otoczeniem o promieniu δ > 0 punktu x 0 R nazywamy zbiór O(x 0, δ) := (x 0 δ, x 0 + δ). Otoczeniem prawostronnym o promieniu δ > 0 punktu x 0 R nazywamy zbiór O +
Bardziej szczegółowoCałki podwójne. Definicja całki podwójnej. Jacek Kłopotowski. 25 maja Katedra Matematyki i Ekonomii Matematycznej
Definicja całki podwójnej Katedra Matematyki i Ekonomii Matematycznej 25 maja 2016 Definicja całki podwójnej Załóżmy, że f : K R, gdzie K = a, b c, d R 2, jest funkcją ograniczoną. Niech x 0, x 1,...,
Bardziej szczegółowoWykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga
RAP 412 21.01.2009 Wykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga Wykładowca: Andrzej Ruciński Pisarz: Łukasz Waszak 1 Wstęp Na ostatnim wykładzie przedstawiliśmy twierdzenie o zbieżności
Bardziej szczegółowo