Krzysztof Kępczyński Zagadnienie paryskiej ruiny w gaussowskim modelu ryzyka

Wielkość: px
Rozpocząć pokaz od strony:

Download "Krzysztof Kępczyński Zagadnienie paryskiej ruiny w gaussowskim modelu ryzyka"

Transkrypt

1 Uniwersytet Wrocław Wydział Matematyki i Informatyki Instytut matematyczny specjalność: zastosowania rachunku prawdopodobieństwa i statystyki Krzysztof Kępczyński Zagadnienie paryskiej ruiny w gaussowskim modelu ryzyka Praca licencjacka napisana pod kierunkiem prof. dr. hab. Krzysztofa Dębickiego Wrocław 07

2 Spis treści Wprowadzenie 3 Wstęp 4. Podstawowe definicje i użyteczne fakty Model Prawdopodobieństwo paryskiej ruiny 3. Logarytmiczna asymptotyka Dokładna asymptotyka

3 Wprowadzenie Od wielu lat postępuje intensywny rozwój branży ubezpieczeniowej. Celem zakładów ubezpieczeniowych jest wypłata odpowiednich świadczeń w razie wystąpienia skutków zdarzeń losowych w zamian za regularnie wpłacane składki. Jedno z istotnych zagadnień polega na doborze wysokości składek oraz ustaleniu wysokości kapitału początkowego tak, aby zmaksymalizować zyski i zminimalizować prawdopodobieństwa bankructwa. Odpowiednią świata matematyki na ten problem jest teoria ryzyka. Jednym z zagadnień, które bada jest tak zwana ruina. To pojęcie można interpretować jako wystąpienie chwili, w której kapitał firmy jest mniejszy od zera. Zagadnienie ruiny zostało już dokładnie przebadane w bardzo ogólnych modelach, m. in. w [], [7] i [9]. W rzeczywistym świecie może zdarzyć się również sytuacja, w której w jednym roku kapitał firmy jest mniejszy od zera, natomiast w kolejnych latach - większy. W takim przypadku lepszym rozwiązaniem, niż ogłaszanie bankructwa, wydaje się być wzięcie pożyczki lub przeczekanie roku. Również w tym przypadku matematyka ma propozycję jak modelować taki problem. Jest nią paryska ruina. Oznacza ona sytuację, w której kapitał firmy jest mniejszy od zera przez pewien czas. To zagadnienie, choć istotne z punktu widzenia branży ubezpieczeniowej, nie zostało jeszcze dokładnie zbadane. Poruszane było m. in. w [3] i [4]. Niniejsza praca zawiera pewne nowe wyniki w tej dziedzinie. Zostanie w niej zbadane prawdopodobieństwo paryskiej ruiny w przypadku dyskretnym, tzn. sytuacji, w której kapitał firmy jest mniejszy od zera w kilku kolejnych chwilach. Będąc bardziej precyzyjnym, zbadane zostanie asymptotyczne zachowanie tego prawdopodobieństwa, gdy kapitał początkowy dąży do nieskończoności. Rozdział zawiera niezbędne definicje, dokładny opis modelu i kilka pomocniczych faktów. Rozdział 3 stanowi zasadniczą część pracy. Przedstawione w nim zostaną twierdzenia dotyczące prawdopodobieństwa paryskiej ruiny. Rozdział ten składa się z dwóch części. Pierwsza zawiera logarytmiczną asymptotykę prawdopodobieństwa paryskiej ruiny, druga - dokładną.

4 Wstęp. Podstawowe definicje i użyteczne fakty Ten rozdział zawiera podstawowe definicje i fakty, które będą przydatne w dalszej części pracy. Mówimy, że funkcje rzeczywiste f i g są asymptotycznie równoważne, gdy f(u) u =. Piszemy wtedy f(u) = g(u) g(u)( + o() ), Piszemy X N(µ, σ ), gdy X jest zmienną losową o rozkładzie normalnym ze średnią µ i wariancją σ. Piszemy (X, Y ) N ( µ, Σ ), gdy (X, Y ) jest wektorem losowym o dwuwymiarowym rozkładzie normalnym z wektorem wartości oczekiwanych µ = (µ, µ ) oraz macierzą kowariancji Σ. Lemat. Niech X N(0, ). Wtedy P[X > u] = u ( ) π u e + o(), Dowód. Bez straty ogólności możemy przyjąć, że u>0. Dolne oszacowanie: P[X > u] = x π u x (xe )dx = ( x ( π x e ) u Górne oszacowanie: P[X > u] = π = u π u e π u u ( ) x )( e x )dx x x 3 (xe )dx = u ( x π u e ( π x 3 e ) u = u u π u e π u 3 e + π u u u π u e π u 3 e = u π u = u π u e. e x dx = π u x x u e dx = π u x x e u u π u x dx u 3 3 ) x ( e x4 )dx 3 x x 4 e dx e u. () xe x dx = π u x ( e u ) ()

5 Zatem z () i () mamy u e u π u 3 P[X > u] u π u e. Korzystając z twierdzenia o trzech ciągach otrzymujemy To kończy dowód. P[X > u] = u ( ) π u e + o(), Poniższy lemat będzie odgrywał ważną rolę w dowodzie głównego twierdzenia pracy. Lemat. Niech f(x) = x H + ( x) H, x (0, ), H (0, ). Wtedy ) f(x) > 0, gdy H (0, ), ) f(x) = 0, gdy H =, 3) f(x) < 0, gdy H (, ). Dowód. Zauważmy, że f (x) = H[x H ( x) H ]. Ad ) Załóżmy, że H (0, ). Wówczas f (x) > 0 wtedy i tylko wtedy, gdy x H > ( x) H. Ponieważ H > 0, to f (x) > 0 wtedy i tylko wtedy, gdy x <. Zatem funkcja f jest ściśle rosnąca dla x [0, ). f (x) < 0 wtedy i tylko wtedy, gdy x H < ( x) H. Ponieważ H > 0, to f (x) < 0 wtedy i tylko wtedy, gdy x >. Zatem funkcja f jest ściśle malejąca dla x (, ). f (x) = 0 wtedy i tylko wtedy, gdy x H = ( x) H. Ponieważ H > 0, to f (x) = 0 wtedy i tylko wtedy, gdy x =. Stąd otrzymujemy, że funkcja f ma jedyne maksimum dla x =. Zauważmy, że f(0) = 0 oraz f() = 0. Zatem f(x) > 0, gdy x (0, ). Ad ) Załóżmy, że H =. Wówczas f(x) = x + ( x) = 0, gdy x (0, ). 5

6 Ad 3) Załóżmy, że H (, ). Wówczas f (x) > 0 wtedy i tylko wtedy, gdy x H > ( x) H. Ponieważ H < 0, to f (x) > 0 wtedy i tylko wtedy, gdy x >. Zatem funkcja f jest ściśle rosnąca dla x (, ). f (x) < 0 wtedy i tylko wtedy, gdy x H < ( x) H. Ponieważ H < 0, to f (x) < 0 wtedy i tylko wtedy, gdy x <. Zatem funkcja f jest ściśle malejąca dla x [0, ). f (x) = 0 wtedy i tylko wtedy, gdy x H = ( x) H. Ponieważ H < 0, to f (x) = 0 wtedy i tylko wtedy, gdy x =. Zatem funkcja f jest ma jedyne minimum dla x =. Zauważmy, że f(0) = 0, f() = 0. Zatem f(x) < 0, gdy x (0, ). To kończy dowód. Niniejszy fakt ilustruje pewną użyteczną w dalszej części pracy własność dwuwymiarowego rozkładu normalnego. Lemat 3. Załóżmy, że (X, Y ) N ( (0, 0), Σ ) ( ) ρ, gdzie Σ =. Wtedy ρ (X, Y ) (X, ρx + ρ Z), gdzie Z N(0, ) oraz Z jest stochastycznie niezależne od X. Dowód. Niech Z N(0, ) oraz Z będzie stochastycznie niezależne od X. Niech Ỹ = ρx + ρ Z. Wówczas Ỹ jest zmienną losową o rozkładzie normalnym. Wystarczy sprawdzić, że V ar[ỹ ] = V ar[y ], E[Ỹ ] = E[Y ] oraz Cov(X, Y ) = Cov(X, Ỹ ). Mamy V ar[ỹ ] = ρ V ar[x] + ( ρ ) V ar[z] = ρ + ( ρ ) = = V ar[y ], E[Ỹ ] = ρe[x] + ρ E[Z] = 0 = E[Y ], Cov(X, Ỹ ) = Cov(X, ρx + ρ Z) = ρcov(x, X) + = ρ + ρ 0 = ρ = Cov(X, Y ). Zatem otrzymujemy, że (X, Y ) (X, Ỹ ). To kończy dowód. 6 ρ Cov(X, Z)

7 Następujące trzy lematy zostały udowodnione przez Elnaggara oraz Mukherjea w [6]. Lemat 4. Niech (X, Y ) N ( (0, 0), Σ ) ( ) ρ, gdzie Σ =. Niech α > 0, ρ β > 0, α β, ρ < α β. Wtedy P[X αt, Y βt] = ( ρ) 3/ α β πt (α ρβ)(β ρα) e α +β ραβ ρ t ( + o() ), Lemat 5. Niech (X, Y ) N ( (0, 0), Σ ), gdzie Σ = β > 0, α β, ρ > α β. Wtedy ( ) ρ. Niech α > 0, ρ P[X > αt, Y > βt] = βt π e β t ( + o() ), Lemat 6. Niech (X, Y ) N ( (0, 0), Σ ), gdzie Σ = β > 0, α β, ρ = α. Wtedy dla t > 0 β gdzie Z N(0, ). P[Z βt] P[X αt, Y βt] P[Z βt], ( ) ρ. Niech α > 0, ρ Następująca klasa procesów stochastycznych grać będzie kluczową rolę w dalszych rozważaniach. Definicja.. Ułamkowym ruchem Browna {B H (t) : t 0} z parametrem Hursta H (0, ] nazywamy proces stochastyczny spełniający następujące warunki ) B H (0) = 0 prawie na pewno, ) B H (t) ma rozkład normalny ze średnią 0, 7

8 3) Cov ( B H (t), B H (s) ) = (th + s H t s H ). Uwaga. Ułamkowy ruch Browna jest uogólnieniem ruchu Browna, w którym odrzuca się założenie o niezależności przyrostów. Zauważmy, że dla H = proces {B (t) : t 0} jest ruchem Browna. Lemat 7. Przyrosty {B H (t) : t 0} są ) ujemnie skorelowane, gdy H (0, ), tzn. dla dowolnych 0 t 0 t zachodzi Cov ( B H (t 0 ), B H (t ) B H (t 0 ) ) < 0, ) niezależne, gdy H =, tzn. dla dowolnych 0 t 0 t zachodzi Cov ( B H (t 0 ), B H (t ) B H (t 0 ) ) = 0, 3) dodatnio skorelowane, gdy H (, ) tzn. dla dowolnych 0 t 0 t zachodzi Cov ( B H (t 0 ), B H (t ) B H (t 0 ) ) > 0. Dowód. Zauważmy, że dla dowolnych 0 t 0 t zachodzi Cov ( B H (t 0 ), B H (t ) B H (t 0 ) ) ( = (t H 0 ) (t t 0 ) H). Teza wynika z Lematu. Ułamkowy ruch Browna z parametrem Hursta H (, ) ma tzw. własność dalekiego zasięgu, co ilustruje następujący lemat. Lemat 8. Niech H (, ). Wówczas proces {B H(t) : t 0} ma własność dalekiego zasięgu, tzn. i=0 Cov ( B H (0), B H (i + ) B H (i) ) =. Dowód. Dowód wynika z Twierdzenie 7.. [0], str Model Jednym z wielu modeli badanych w teorii ryzyka jest klasyczny proces ryzyka U(t) = u + ct gdzie u > 0 jest kapitałem początkowym, c > 0 jest intensywnością wpłacanych składek, {X i : i N} jest ciągiem nieujemnych niezależnych zmiennych losowych opisujących wysokości kolejnych odszkodowań, a N(t) jest procesem Poissona z parametrem λ > 0 modelującym chwile, w których następują żądania. Model ten został opisany na przykład w []. N(t) i= X i, 8

9 Okazuje się, że odpowiednio przeskalowany proces ryzyka zbiega do procesu ryzyka, w którym występuje ruch Browna. Bardziej formalnie, dla ciągu U n (t) procesów ryzyka zdefiniowanego następująco gdzie U n (t) = u + c n t N(nt) X i, n ) zmienne losowe X i mają wartość oczekiwaną µ oraz skończoną wariancję σ, ) c n = c + λµ n, i= 3) N(t) jest procesem Poissona z parametrem λ > 0, zachodzi następujące twierdzenie udowodnione przez Igleharta w [4]. Twierdzenie. Ciąg procesów ryzyka U n (t) zbiega słabo do procesu u + ct λσb(t), gdzie B(t) jest ruchem Browna. Istnieje również matematyczne uzasadnienie dla rozważania pewnego uogólnienia poprzedniego procesu, w którym zamiast ruchu Browna występuje ułamkowy ruch Browna. W [7] wykazano, że u + ct B H (t) dla H stanowi graniczny model dla pewnego ciągu klasycznych procesów ryzyka. W niniejszej pracy będziemy rozważali następujący proces ryzyka U H (t) = u + ct B H (t). (3) Okazuje się, że (3) dobrze modeluje sytuację finansową dużej firmy ubezpieczeniowej, do której zgłoszenia wypłaty odszkodowań przychodzą bardzo często. Wielkość u > 0 jest kapitałem początkowym, c > 0 jest stałą intensywnością wpłacanych składek, a ułamkowy ruch Browna odpowiada za wypłatę odszkodowań. Niech T > 0. W przypadku ciągłym, mówimy, że w czasie [0, T ] zaszła ruina dla procesu U H (t) zdefiniowanego w (3), gdy istnieje i T takie, że U H (i) < 0. Prawdopodobieństwem ruiny przy kapitale początkowym u nazywamy π H,T (u) = P[ inf (u B H(t) + ct) < 0] = P[ sup ( u + B H (t) ct) > 0]. 0 t T 0 t T W przypadku klasycznego zagadnienia ruiny dla ułamkowego ruchu Browna znane są zarówno logarytmiczna asymptotyka prawdopodobieństwa ruiny, jak i dokładna. W szczególności, w modelu ciągłym, zachodzą następujące twierdzenia. 9

10 Twierdzenie. Niech {B H (t) : t 0} będzie ułamkowym ruchem Browna z parametrem Hursta H (0, ]. Niech T > 0. Wówczas log ( π H,T (u) ) u = T H ( + o() ), Twierdzenie 3. Niech {B H (t) : t 0} będzie ułamkowym ruchem Browna z parametrem Hursta H (0, ]. Niech T > 0. Wówczas ) Jeśli H <, to π H,T (u) = H H u 3H H (u+ct ) ( ) e T H H T 3H H + o(), gdy u, gdzie H H = T T E[ e max 0 t T ( ) Jeśli H =, to gdy u, 3) Jeśli H (, ), to gdy u, 4) Jeśli H =, to B H (t) ) ], π,t (u) = T (u+ct ) ( ) π u + ct e T + o(), π H,T (u) = T H (u+ct ) ( ) π u + ct e T H + o(), π,t (u) = T (u+ct ) π u + ct e T, Twierdzenie 3 zostało udowodnione w [5], a Twierdzenie jest z niego prostym wnioskiem. Zagadnienie ruiny można również rozpatrywać w czasie dyskretnym. W niniejszej pracy będziemy koncentrować się na tym przypadku. Niech T N. W przypadku dyskretnym, mówimy, że w czasie [0, T ] zaszła paryska ruina dla procesu U H (t) zdefiniowanego w (3), gdy istnieje i N 0

11 takie, że i + T, U H (i) < 0 oraz U H (i + ) < 0. Prawdopodobieństwem paryskiej ruiny przy kapitale początkowym u nazywamy ˆπ H,T (u) = P[ <i+ T : B H (i) > u + ci, B H (i + ) > u + c(i + )]. W Rozdziale 3 zbadamy prawdopodobieństwo paryskiej ruiny dla procesu ryzyka (3). W szczególności znajdziemy jego logarytmiczną asymptotykę dla H (0, ) oraz, dla H dokładną asymptotykę. Zauważmy, że przypadek H = jest nieciekawy, ponieważ dla każdego t 0 mamy B (t) = tz, gdzie Z N(0, ).

12 3 Prawdopodobieństwo paryskiej ruiny 3. Logarytmiczna asymptotyka Następujące twierdzenie opisuje logarytmiczną asymptotykę prawdopodobieństwa paryskiej ruiny. W celu jego udowodnienia posłużymy się kilkoma pomocniczymi lematami. Twierdzenie 4. Niech {B H (t) : t 0} będzie ułamkowym ruchem Browna z parametrem Hursta H (0, ). Niech T N. Wówczas ) dla H (0, ) mamy log(ˆπ H,T (u)) u u = (T ) H T H ( (T (T ) H T H + (T ) H )), H ) dla H = mamy log(ˆπ,t (u)) = u u 3) dla H (, ) mamy log(ˆπ H,T (u)) = u u (T ), H (T ). H Niniejszy lemat posłuży do znalezienia logarytmicznej asymptotyki prawdopodobieństwa paryskiej ruiny. Lemat 9. Niech {B H (t) : t 0} będzie ułamkowym ruchem Browna z parametrem Hursta H (0, ). Niech s t. Wówczas ) dla H (0, ) mamy log(p[b H (t) > u + ct, B H (s) > u + cs]) u u = (t s) H s H ( (t s H + s H t s H )), H ) dla H = mamy log(p[b H (t) > u + ct, B H (s) > u + cs]) = u u s, H

13 3) dla H (, ) mamy log(p[b H (t) > u + ct, B H (s) > u + cs]) = u u Dowód. Niech α = sh, β = i ρ = Cov( B H(t), B H(s) ). s H Wówczas ρ = ( + s H t s H ) oraz s H P[ B H(t) > α u + ct s, B H(s) H s H > β u + ct s H ] = P[ B H(t) > sh u + ct s, B H(s) > u + ct H s H s ] H P[B H (t) > u + ct, B H (s) > u + cs] = P[ B H(t) P[ B H(t) = P[ B H(t) Z (4) wynika, że log (P[ B H(t) log (P[ B H(t) log (P[ B H(t) > u + ct t, B H(s) H s H > sh u + cs s H, B H(s) s H > α u + cs s, B H(s) H s H > sh u+ct s H u, B H(s) > u+ct ]) s H s H > u+ct, B H(s) s H u > sh u+cs s H, B H(s) s H > u + cs s H ] > u + cs s H ] s. H > β u + cs ]. (4) sh > u+cs s H ]) > u+cs ]) s H. (5) u Ad ) Załóżmy, że H (0, ). Wówczas α β >ρ. Zauważmy, że sh >ρ wtedy i tylko wtedy, gdy ( s t )H + ( ( s t )) H >0. Niech f( s) = ( s t t )H + ( ( s t )) H. Zauważmy, że 0 < s <. t Korzystając z Lematu dla funkcji f otrzymujemy, że f( s )>0, czyli t α > ( β s H t + s H (t s) H). H Wróćmy do oszacowania (4). Z Lematu 4 otrzymujemy, że 3

14 P[ B H(t) = > sh π( u+ct s H gdy u oraz P[ B H(t) = u + ct s, B H(s) H s H ( ρ) 3/ α β ) (α ρβ)(β ρα) e > sh π( u+cs s H u + cs s, B H(s) H s H ( ρ) 3/ α β ) (α ρβ)(β ρα) e Ponieważ zachodzi (5), u oraz u log (P[ B H(t) log (P[ B H(t) > sh u+ct s H, B H(s) s H > u + ct s H ] α +β ραβ ρ ( u+ct ( ) s H ) + o(), > u + cs s H ] > u+ct ]) s H = u > sh u+cs s H > u+cs ]) s H = u, B H(s) s H α +β ραβ ρ ( u+cs ( ) s H ) + o(), α + β ραβ ρ s H α + β ραβ ρ s H, więc korzystając z twierdzenia o trzech ciągach otrzymujemy tezę. Ad ) Załóżmy, że H =. Wówczas α β = ρ. Zauważmy, że α β = ρ wtedy i tylko wtedy, gdy ( s t )H + ( ( s t )) H = 0. Niech f( s t ) = ( s t )H + ( ( s t )) H. Zauważmy, że 0 < s t <. Korzystając z Lematu otrzymujemy f( s t ) = 0, czyli α β = ρ. Wróćmy do oszacowania (4). Z Lematu 6 otrzymujemy, że u + ct P[Z s ] P[B H(t) H oraz u + cs P[Z s ] P[B H(t) H > sh u + ct s, B H(s) H s H > sh u + cs s, B H(s) H s H > u + ct s H > u + cs s H ] P[Z u + ct s H ] (6) ] P[Z u + cs s H ], (7) 4

15 gdzie Z N(0, ). Korzystając z (4), (6) i (7) otrzymujemy u + ct P[Z s H Z (8) wynika log ( u+ct P[Z ] ) s H u Ponadto zachodzi u oraz log ( u+ct P[Z ] ) s H ] P[B H(t) > u+ct, B H (s) > u+cs] P[Z u + cs ]. (8) sh log ( P[BH (t) > u + ct, B H (s) > u + cs] ) u u = s H log ( P[Z u+cs ] ) s H = u u s, H więc korzystając z twierdzenia o trzech ciągach otrzymujemy tezę. Ad 3) Załóżmy, że H (, ). Wówczas α < ρ. β Zauważmy, że α β < ρ wtedy i tylko wtedy, gdy ( s t )H + ( ( s t )) H < 0. Niech f( s t ) = ( s t )H + ( ( s t )) H. Zauważmy, że 0 < s t <. Korzystając z Lematu otrzymujemy f( s t ) < 0, czyli α β < ρ. Wróćmy do oszacowania (4). Z Lematu 5 otrzymujemy, że P[ B H(t) > sh gdy u oraz P[ B H(t) u + ct s, B H(s) H s H > sh u + cs s, B H(s) H s H Ponieważ zachodzi (5), u oraz u log (P[ B H(t) log (P[ B H(t) > sh u+ct s H, B H(s) s H log ( P[Z u+cs] ) s H. (9) u > u + ct s ] = H β( u+ct ) π e β ( u+ct )( s H + o() ), s H > u + cs s ] = H β( u+cs ) π e β ( u+cs )( s H + o() ), > u+ct ]) s H = u > sh u+cs s H > u+cs ]) s H = u, B H(s) s H 5 s H β s H β s H,

16 więc korzystając z twierdzenia o trzech ciągach otrzymujemy tezę. To kończy dowód. Lemat 0. Niech B H (t) będzie ułamkowym ruchem Browna z parametrem Hursta H (0, ). Niech T N. Wówczas Dowód. Zauważmy, że log ( P[ i<j T : B H (i) > u + ci, B H (j) > u + cj] ) = log ( max i<j T P[B H (i) > u + ci, B H (j) > u + cj] )( + o() ), log ( max i<j T P[B H (i) > u + ci, B H (j) > u + cj] ) log ( P[ i<j T : B H (i) > u + ci, B H (j) > u + cj] ) log ( P[B H (i) > u + ci, B H (j) > u + cj] ) i<j T ) log (( T max i<j T P[B H (i) > u + ci, B H (j) > u + cj] ) = log (( ) T ) ( + log max i<j T P[B H (i) > u + ci, B H (j) > u + cj] ). Czyli log ( max i<j T P[(B H (i) > u + ci, B H (j) > u + cj)] ) log ( P[ i<j T : B H (i) > u + ci, B H (j) > u + cj] ) log (( ) T ) ( + log max i<j T P[B H (i) > u + ci, B H (j) > u + cj] ). Dzieląc obustronnie przez u otrzymujemy log ( max i<j T P[B H (i) > u + ci, B H (i) > u + cj] ) u log ( P[ i<j T : B H (i) > u + ci, B H (j) > u + cj] ) log (( T u )) + log ( max i<j T P[B H (i) > u + ci, B H (j) > u + cj] ) u. 6

17 Ponieważ zachodzi log ( max i<j T P[B H (i) > u + ci, B H (i) > u + cj] ) u (( ( u log T )) + log max i<j T P[B H (i) > u + ci, B H (j) > u + cj] ) =, u u więc korzystając z twierdzenia o trzech ciągach otrzymujemy log ( P[ i<j T : B H (i) > u + ci, B H (j) > u + cj] ) = log ( max i<j T P[(B H (i) > u + ci, B H (j) > u + cj)] )( + o() ), Co było do udowodnienia. Poniższy lemat redukuje problem znalezienia asymptotyki prawdopodobieństwa paryskiej ruiny do znalezienia prawdopodobieństwa wystąpienia ruiny w dwóch kolejnych chwilach. Lemat. Niech B H (t) będzie ułamkowym ruchem Browna z parametrem Hursta H (0, ). Niech T N. Wówczas ˆπ H,T (u) = P[B H (T ) > u + c(t ), B H (T ) > u + ct ] ( + o() ), Dowód. Zauważmy, że P[B H (T ) > u + c(t ), B H (T ) > u + ct ] ˆπ H,T (u) T i= u P[B H (i) > u + ci, B H (i) > u + c(i + )]. Wystarczy zatem pokazać, że dla H (0, ) i każdego i < T zachodzi log ( ) P[B H (i)>u+c(i),b H (i+)>u+c(i+)] P[B H (n )>u+c(n ),B H (n)>u+cn] u < 0. W tym celu rozważymy dwa przypadki. Ad ) Niech H (0, ). Korzystając z Lematu 9 otrzymujemy, że log ( P[B H (i) > u + ci, B H (i + ) > u + c(i + )] ) = ( ) +o(), u i H (i + ) H ρ 7

18 gdy u, ( gdzie ρ = i H (i+) (i + ) H + i H ). H Zatem wystarczy zminimalizować następującą funkcję g(i) = = i H (i + ) H ( ( i H (i+) (i + ) H + i H )) H 4 ( ). (i + ) H + i H + i H + (i + ) H Równoważnie, musimy zmaksymalizować następującą funkcję h(i) = ( (i + ) H + i H) + i H + (i + ) H. Zauważmy, że h (i) = 4H[(i + ) H x H + (i + ) H x H + i H i 4H + (i + ) H (i + ) 4H ] = 4H[(i + ) H (i H + H ) + i H ((i + ) H + H ) i 4H (i + ) 4H ] (0) >4H[(i + ) H (i + ) H + i H (x + ) H i 4H (i + ) 4H ] = 4H[(i + ) 4H + i H (i + ) H i 4H (i + ) 4H ] > 0. W (0) korzystamy z nierówności (i + ) H < i H +, która została udowodniona w Lemacie i zachodzi dla każdego i > 0 i dla każdego H (0, ). Stąd h(i) jest ściśle rosnąca. Zatem swoje jedyne maksimum dla i T osiąga w punkcie i = T. Stąd g(i) osiąga swoje jedyne minimum w punkcie i = T. To potwierdza tezę. Ad ) Niech H [, ). Korzystając z Lematu 9 otrzymujemy log(p[b H (i) > u + ci, B H (i + ) > u + c(i + )]) = ( ) + o(), u i H Zatem wystarczy zminimalizować następującą funkcję g(i) =. Funkcja i H g(i) jest ściśle malejąca. Zatem swoje jedyne minimum dla i T osiąga w punkcie i = T. To kończy dowód. Dowód Twierdzenia 4. Wynika bezpośrednio z Lematu i Lematu 9, gdy s = t. 8

19 3. Dokładna asymptotyka Następujące twierdzenie jest głównym wynikiem pracy. Dotyczy ono modelu (3) dla H [, ). Przypadek H (0, ) jest bardzo trudny i nie będzie analizowany w niniejszej pracy. Ma on także mniejsze znaczenie aplikacyjne, gdyż, jak wynika z [7], w granicznych modelach ryzyka występuje jedynie ułamkowy ruch Browna z parametrem H [, ). Twierdzenie 5. Niech B H (t) będzie ułamkowym ruchem Browna z parametrem Hursta H [, ). Niech T N. Wówczas ) dla H = mamy gdy u, ) dla H (, ) mamy ˆπ,T (u) = P[Z > c] T ( ) e u π u + c(t ) ˆπ H,T (u) = +uc(t )+c (T ) (T ) ( + o() ), (T ) H ( ) e u +uc(t )+c (T ) ( ) (T ) H + o(), π u + c(t ) Dowód twierdzenia będzie wnioskiem z poniższego lematu i Lematu. Lemat. Niech {B H (t) : t 0} będzie ułamkowym ruchem Browna z parametrem Hursta H [, ). Niech 0 i j. Wówczas ) dla H = mamy P[B (i) > u + ci, B (j) > u + cj] = P[Z > c(j i)] i e u +uci+c i i π(u + ci) gdy u, gdzie Z N(0, ); ) dla H (, ) mamy P[B H (i) > u + ci, B H (j) > u + cj] = ( + o() ), i H π(u + ci) e u +uci+c i i H ( + o() ), 9

20 Dowód. Korzystając z Lematu 3 dla wektora ( B H (i), B H (j) ) otrzymujemy ( BH (i), B H (j) ) ( B H (i), ( j i )H ρb H (i) + j H ρ Z ), gdzie Z ma rozkład standardowy ( normalny oraz jest stochastycznie niezależne od B H (i), a ρ = i H j j H + i H (j i) H). H Mamy zatem P[B H (i) > u + ci, B H (j) > u + cj] = P[B H (i) > u + ci, ( j i )H ρb H (i) + j H ρ Z > u + cj] = P[B H (i) > u + ci, j H ρ Z > u + cj ( j i )H ρb H (i)]. Ad ) Niech H =. Zauważmy, że dla H = zachodzi ( j i )H ρ = Dolne oszacowanie: j i ( ) j + i (j i) = i = = 0. ij i P[B H (i) > u + ci, j H ρ Z > u + cj ( j i )H ρb H (i)] P[B H (i) > u + ci, j H ρ Z > u + cj ( j i )H ρ(u + ci)] = P[B H (i) > u + ci] P[j H ρ Z > c ( j ( j i )H ρi ) ] = P[B H (i) > u + ci] P[j H ρ Z > c(j i)]. 0

21 Górne oszacowanie: P[B H (i) > u + ci, j H ρ Z > u + cj ( j i )H ρb H (i)] = P[B H (i) (u + ci, u + ci + u ], j H ρ Z > u + cj ( j i )H ρb H (i)] + P[B H (i) > u + ci + u, j H ρ Z > u + cj ( j i )H ρb H (i)] P[B H (i) (u + ci, u + ci + u ], j H ρ Z > u + cj ( j i )H ρ(u + ci + u )] + P[B H (i) > u + ci + u, j H ρ Z > u + cj ( j i )H ρb H (i)] = P[B H (i) (u + ci, u + ci + u ]] P[j H ρ Z > u + cj ( j i )H ρ(u + ci + u )] + P[B H (i) > u + ci + u, j H ρ Z > u + cj ( j i )H ρb H (i)] = P[B H (i) > u + ci] P[j H ρ Z > u ( ( j i )H ρ ) + c ( j ( j i )H ρi ) ( j i )H ρ u ] + P[B H (i) > u + ci + u ] = P[B H (i) > u + ci] P[j H ρ Z > c(j i) u ] + P[B H (i) > u + ci + u ] = P[B H (i) > u + ci] P[j H ρ Z > c(j i)] ( + o() ). Stąd otrzymujemy Z faktów, że P[B H (i) > u + ci] P[j H ρ Z > c(j i)] P[B H (i) > u + ci, j H ρ Z > u + cj ( j i )H ρb H (i)] P[B H (i) > u + ci] P[j H ρ Z > c(j i) u ] + P[B H (i) > u + ci + u ]. u P[j H ρ Z > c(j i)] P[j H ρ Z > c(j i) u ] = i P[B H (i) > u + ci + u ] u P[B H (i) > u + ci] = 0

22 wynika ( P[BH (i) > u + ci] P[j H ρ Z > c(j i)] ) u = (P[B H (i) > u + ci] P[j H ρ Z > c(j i) ] ) u u + u P[B H (i) > u + ci + ]. u Korzystając z twierdzenia o trzech ciągach i Lematu dla P[B H (i) > u + ci] otrzymujemy tezę. Ad ) Niech H (, ). Zauważmy na początku, że dla H (, ) zachodzi ( j i )H ρ = ( j i )H i H j H ( j H + i H (j i) H) = i H ( j H + i H (j i) H) < 0. Równoważnie, < i H ( j H + i H (j i) H) wtedy i tylko wtedy, gdy 0 < ( i j )H ( ( i j )) H, co wynika z Lematu. Dolne oszacowanie: P[B H (i) > u + ci, j H ρ Z > u + cj ( j i )H ρb H (i)] P[B H (i) > u + ci, j H ρ Z > u + cj ( j i )H ρ(u + ci)] = P[B H (i) > u + ci, j H ρ Z > u ( ( j i )H ρ ) + c ( j ( j i )H ρi ) ] = P[B H (i) > u + ci] P[j H ρ Z > u ( ( j i )H ρ ) + c ( j ( j i )H ρi ) ].

23 Górne oszacowanie: P[B H (i) > u + ci, j H ρ Z > u + cj ( j i )H ρb H (i)] = P[B H (i) (u + ci, u + ci + u ], j H ρ Z > u + cj ( j i )H ρb H (i)] + P[B H (i) > u + ci + u, j H ρ Z > u + cj ( j i )H ρb H (i)] P[B H (i) (u + ci, u + ci + u ], j H ρ Z > u + cj ( j i )H ρ(u + ci + u )] + P[B H (i) > u + ci + u, j H ρ Z > u + cj ( j i )H ρb H (i)] = P[B H (i) (u + ci, u + ci + u ]] P[j H ρ Z > u + cj ( j i )H ρ(u + ci + u )] + P[B H (i) > u + ci + u, j H ρ Z > u + cj ( j i )H ρb H (i)] P[B H (i) > u + ci] P[j H ρ Z > u ( ( i j )H ρ ) + c ( j ( j i )H ρi ) ( i j )H ρ u ] + P[B H (i) > u + ci + u ]. Stąd otrzymujemy P[B H (i) > u + ci] P[j H ρ Z > u ( ( j i )H ρ ) + c ( j ( j i )H ρi ) ] P[B H (i) > u + ci, j H ρ Z > u + cj ( j i )H ρb H (i)] P[B H (i) > u + ci] P[j H ρ Z > u ( ( i j )H ρ ) + c ( j ( j i )H ρi ) ( i j )H ρ u ] + P[B H (i) > u + ci + u ]. Z faktów, że u P[jH ρ Z > u ( ( j i )H ρ ) + c ( j ( j i )H ρi ) ] = oraz P[B H (i) > u + ci + u ] u P[B H (i) > u + ci] = 0 3

24 wynika P[B H(i) > u + ci] u = u ( P[B H (i) > u + ci] P[j H ρ Z > u ( ( i j )H ρ ) + c ( j ( j i )H ρi ) ( i j )H ρ u ] + P[B H (i) > u + ci + ]. u u Korzystając z twierdzenia o trzech ciągach i Lematu dla P[B H (i) > u + ci] otrzymujemy tezę. Dowód Twierdzenia 5. Na mocy Lematu wiemy, że ˆπ H,T (u) = P[B H (T ) > u + c(t ), B H (T ) > u + ct ] ( + o() ), Wystarczy zatem znaleźć asymptotyczne zachowanie P[B H (T ) > u + c(t ), B H (T ) > u + ct ], Z Lematu zastosowanego dla i = T oraz j = T wynika teza. Uwaga. Korzystając z tych samych metod co w dowodzie Lematu możemy udowodnić analogiczny wynik dla prawdopodobieństwa paryskiej ruiny, w którym ruina następuje w k kolejnych chwilach. Postać asymptotyki znacznie się jednak komplikuje wraz ze wzrostem k. Dlatego w niniejszej pracy ograniczyliśmy się do przedstawienia wyników jedynie w przypadku k =. ) 4

25 Literatura [] Asmussen, S. Ruin probabilities, World Scientific, 000. [] Cramér, H. On the Mathematical Theory of Risk. Skandia Jubilee Volume, Stockholm, 930 [3] Czarna, I., Li, Y., Palmowski, Z., Zhao, C.(07) The joint distribution of the Parisian ruin time and the number of claims until Parisian ruin in the classical risk model, Journal of Computational and Applied Mathematics 33, [4] Czarna, I., Renaud, J.-F. (06) A note on Parisian ruin with an ultimate bankruptcy level for Lévy insurance risk processes, Statistics Probability Letters 06, Vol. 3, [5] Dębicki, K., Rolski, T. (00) A note on transient Gaussian fluid models. Queueing Systems, 4, [6] Elnaggar, M., Mukherjea, A. (0) Solution of the problem of the identified minimum for the trivariate normal. Proceedings of the Indian Academy of Sciences Section A, Vol., No.4, [7] Michna, Z. (998) Self-similar processes in collective risk theory. Journal of Applied Mathematics and Stochastic Analysis, :4, [8] Michna, Z. Modele graniczne w teorii ryzyka ubezpieczeniowego. Prace Naukowe Akademii Ekonomicznej we Wrocławiu. Seria: Monografie i Opracowania (nr 00), 004. [9] Rolski, T., Schmidli, H., Schmidt, V., Teugels, J. Stochastic Processes for Insurance and Finance. Wiley Series in Probability and Statistics, 999. [0] Samorodnitsky, G., Taqqu, M. S. Stable non-gaussian random processes. Stochastic Models with Infinite Variance. Chapman and Hall/CRC,

Parametr Λ w populacji ubezpieczonych ma rozkład dany na półosi dodatniej gęstością: 3 f

Parametr Λ w populacji ubezpieczonych ma rozkład dany na półosi dodatniej gęstością: 3 f Zadanie. W kolejnych latach t =,,,... ubezpieczony charakteryzujący się parametrem ryzyka Λ generuje N t szkód. Dla danego Λ = λ zmienne N, N, N,... są warunkowo niezależne i mają (brzegowe) rozkłady Poissona:

Bardziej szczegółowo

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski Modelowanie zależności pomiędzy zmiennymi losowymi Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski P Zmienne losowe niezależne - przypomnienie Dwie rzeczywiste zmienne losowe X i Y

Bardziej szczegółowo

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład Rozdział 1 Wektory losowe 1.1 Wektor losowy i jego rozkład Definicja 1 Wektor X = (X 1,..., X n ), którego każda współrzędna jest zmienną losową, nazywamy n-wymiarowym wektorem losowym (krótko wektorem

Bardziej szczegółowo

1 Gaussowskie zmienne losowe

1 Gaussowskie zmienne losowe Gaussowskie zmienne losowe W tej serii rozwiążemy zadania dotyczące zmiennych o rozkładzie normalny. Wymagana jest wiedza na temat własności rozkładu normalnego, CTG oraz warunkowych wartości oczekiwanych..

Bardziej szczegółowo

Procesy stochastyczne

Procesy stochastyczne Wykład I: Istnienie procesów stochastycznych 21 lutego 2017 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane

Bardziej szczegółowo

Procesy stochastyczne

Procesy stochastyczne Wykład I: Istnienie procesów stochastycznych 2 marca 2015 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane są

Bardziej szczegółowo

Proces rezerwy w czasie dyskretnym z losową stopą procentową i losową składką

Proces rezerwy w czasie dyskretnym z losową stopą procentową i losową składką z losową stopą procentową i losową składką Instytut Matematyki i Informatyki Politechniki Wrocławskiej 10 czerwca 2008 Oznaczenia Wprowadzenie ξ n liczba wypłat w (n 1, n], Oznaczenia Wprowadzenie ξ n

Bardziej szczegółowo

Ośrodkowość procesów, proces Wienera. Ośrodkowość procesów, proces Wienera Procesy Stochastyczne, wykład, T. Byczkowski,

Ośrodkowość procesów, proces Wienera. Ośrodkowość procesów, proces Wienera Procesy Stochastyczne, wykład, T. Byczkowski, Procesy Stochastyczne, wykład, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 27 luty, 2012 Ośrodkowość procesów Dalej zakładamy, że (Ω, Σ, P) jest zupełną przestrzenią miarową. Definicja.

Bardziej szczegółowo

Statystyka. Wykład 2. Krzysztof Topolski. Wrocław, 11 października 2012

Statystyka. Wykład 2. Krzysztof Topolski. Wrocław, 11 października 2012 Wykład 2 Wrocław, 11 października 2012 Próba losowa Definicja. Zmienne losowe X 1, X 2,..., X n nazywamy próba losową rozmiaru n z rozkładu o gęstości f (x) (o dystrybuancie F (x)) jeśli X 1, X 2,...,

Bardziej szczegółowo

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych 1. [E.A 5.10.1996/zad.4] Funkcja gęstości dana jest wzorem { 3 x + 2xy + 1 y dla (x y) (0 1) (0 1) 4 4 P (X > 1 2 Y > 1 2 ) wynosi:

Bardziej szczegółowo

Wykład 11: Martyngały: definicja, twierdzenia o zbieżności

Wykład 11: Martyngały: definicja, twierdzenia o zbieżności RAP 412 14.01.2009 Wykład 11: Martyngały: definicja, twierdzenia o zbieżności Wykładowca: Andrzej Ruciński Pisarz:Mirosława Jańczak 1 Wstęp Do tej pory zajmowaliśmy się ciągami zmiennych losowych (X n

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład VII: Rozkład i jego charakterystyki 22 listopada 2016 Uprzednio wprowadzone pojęcia i ich własności Definicja zmiennej losowej Zmienna losowa na przestrzeni probabilistycznej (Ω, F, P) to funkcja

Bardziej szczegółowo

N ma rozkład Poissona z wartością oczekiwaną równą 100 M, M M mają ten sam rozkład dwupunktowy o prawdopodobieństwach:

N ma rozkład Poissona z wartością oczekiwaną równą 100 M, M M mają ten sam rozkład dwupunktowy o prawdopodobieństwach: Zadanie. O niezależnych zmiennych losowych N, M M, M 2, 3 wiemy, że: N ma rozkład Poissona z wartością oczekiwaną równą 00 M, M M mają ten sam rozkład dwupunktowy o prawdopodobieństwach: 2, 3 Pr( M = )

Bardziej szczegółowo

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ. Zadania z Procesów Stochastycznych 1 1. Udowodnij, że z prawdopodobieństwem 1 trajektorie procesu Poissona są niemalejące, przyjmują wartości z Z +, mają wszystkie skoki równe 1 oraz dążą do nieskończoności.

Bardziej szczegółowo

Matematyka ubezpieczeń majątkowych r.

Matematyka ubezpieczeń majątkowych r. Matematyka ubezpieczeń majątkowych 0.0.005 r. Zadanie. Likwidacja szkody zaistniałej w roku t następuje: w tym samym roku z prawdopodobieństwem 0 3, w następnym roku z prawdopodobieństwem 0 3, 8 w roku

Bardziej szczegółowo

VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa.

VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa. VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa. W rozdziale tym zajmiemy się dokładniej badaniem stabilności rozwiązań równania różniczkowego. Pojęcie stabilności w

Bardziej szczegółowo

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ. Zadania z Procesów Stochastycznych 1 1. Udowodnij, że z prawdopodobieństwem 1 trajektorie procesu Poissona są niemalejące, przyjmują wartości z Z +, mają wszystkie skoki równe 1 oraz dążą do nieskończoności.

Bardziej szczegółowo

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne 5.2. Momenty rozkładów łącznych. Katarzyna Rybarczyk-Krzywdzińska rozkładów wielowymiarowych Przypomnienie Jeśli X jest zmienną losową o rozkładzie

Bardziej szczegółowo

Egzamin z matematyki ubezpieczeniowej (MUMIO), semestr zimowy 2013/14

Egzamin z matematyki ubezpieczeniowej (MUMIO), semestr zimowy 2013/14 ZESTAW A IMIȨ I NAZWISKO: Egzamin z matematyki ubezpieczeniowej (MUMIO), semestr zimowy 2/4 Data: 224 Egzaminar: Ryszard Szekli INSTRUKCJE: Rozwiązując test zakreślamy literką X POPRAWNE ODPOWIEDZI W TABELCE

Bardziej szczegółowo

Prawa wielkich liczb, centralne twierdzenia graniczne

Prawa wielkich liczb, centralne twierdzenia graniczne , centralne twierdzenia graniczne Katedra matematyki i ekonomii matematycznej 17 maja 2012, centralne twierdzenia graniczne Rodzaje zbieżności ciągów zmiennych losowych, centralne twierdzenia graniczne

Bardziej szczegółowo

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe Nierówność Czebyszewa Niech X będzie zmienną losową o skończonej wariancji V ar(x). Wtedy wartość oczekiwana E(X) też jest skończona i

Bardziej szczegółowo

Zadanie 1. Liczba szkód N w ciągu roku z pewnego ryzyka ma rozkład geometryczny: k =

Zadanie 1. Liczba szkód N w ciągu roku z pewnego ryzyka ma rozkład geometryczny: k = Matematyka ubezpieczeń majątkowych 0.0.006 r. Zadanie. Liczba szkód N w ciągu roku z pewnego ryzyka ma rozkład geometryczny: k 5 Pr( N = k) =, k = 0,,,... 6 6 Wartości kolejnych szkód Y, Y,, są i.i.d.,

Bardziej szczegółowo

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty Agata Boratyńska Agata Boratyńska Rachunek prawdopodobieństwa, wykład 4 / 9 Przekształcenia zmiennej losowej X

Bardziej szczegółowo

Zadania z Rachunku Prawdopodobieństwa III - 1

Zadania z Rachunku Prawdopodobieństwa III - 1 Zadania z Rachunku Prawdopodobieństwa III - 1 Funkcją tworzącą momenty (transformatą Laplace a) zmiennej losowej X nazywamy funkcję M X (t) := Ee tx, t R. 1. Oblicz funkcję tworzącą momenty zmiennych o

Bardziej szczegółowo

Maksymalne powtórzenia w tekstach i zerowa intensywność entropii

Maksymalne powtórzenia w tekstach i zerowa intensywność entropii Maksymalne powtórzenia w tekstach i zerowa intensywność entropii Łukasz Dębowski ldebowsk@ipipan.waw.pl i Instytut Podstaw Informatyki PAN Warszawa 1 Wprowadzenie 2 Ograniczenia górne i dolne 3 Przykłady

Bardziej szczegółowo

Centralne twierdzenie graniczne

Centralne twierdzenie graniczne Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 4 Ważne uzupełnienie Dwuwymiarowy rozkład normalny N (µ X, µ Y, σ X, σ Y, ρ): f XY (x, y) = 1 2πσ X σ Y 1 ρ 2 { [ (x ) 1

Bardziej szczegółowo

Wykład 12 Testowanie hipotez dla współczynnika korelacji

Wykład 12 Testowanie hipotez dla współczynnika korelacji Wykład 12 Testowanie hipotez dla współczynnika korelacji Wrocław, 23 maja 2018 Współczynnik korelacji Niech będą dane dwie próby danych X = (X 1, X 2,..., X n ) oraz Y = (Y 1, Y 2,..., Y n ). Współczynnikiem

Bardziej szczegółowo

Ćwiczenia: Ukryte procesy Markowa lista 1 kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II

Ćwiczenia: Ukryte procesy Markowa lista 1 kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II Ćwiczenia: Ukryte procesy Markowa lista kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II dr Jarosław Kotowicz Zadanie. Dany jest łańcuch Markowa, który może przyjmować wartości,,...,

Bardziej szczegółowo

Wykład 6 Estymatory efektywne. Własności asymptotyczne estym. estymatorów

Wykład 6 Estymatory efektywne. Własności asymptotyczne estym. estymatorów Wykład 6 Estymatory efektywne. Własności asymptotyczne estymatorów Wrocław, 30 listopada 2016r Powtórzenie z rachunku prawdopodobieństwa Zbieżność Definicja 6.1 Niech ciąg {X } n ma rozkład o dystrybuancie

Bardziej szczegółowo

Wykład 12 Testowanie hipotez dla współczynnika korelacji

Wykład 12 Testowanie hipotez dla współczynnika korelacji Wykład 12 Testowanie hipotez dla współczynnika korelacji Wrocław, 24 maja 2017 Współczynnik korelacji Niech będą dane dwie próby danych X = (X 1, X 2,..., X n ) oraz Y = (Y 1, Y 2,..., Y n ). Współczynnikiem

Bardziej szczegółowo

SIMR 2017/18, Statystyka, Przykładowe zadania do kolokwium - Rozwiązania

SIMR 2017/18, Statystyka, Przykładowe zadania do kolokwium - Rozwiązania SIMR 7/8, Statystyka, Przykładowe zadania do kolokwium - Rozwiązania. Dana jest gęstość prawdopodobieństwa zmiennej losowej ciągłej X : { a( x) dla x [, ] f(x) = dla pozostałych x Znaleźć: i) Wartość parametru

Bardziej szczegółowo

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Niech Ω będzie przestrzenią zdarzeń elementarnych. Definicja 1 Rodzinę S zdarzeń losowych (zbiór S podzbiorów zbioru

Bardziej szczegółowo

8 Całka stochastyczna względem semimartyngałów

8 Całka stochastyczna względem semimartyngałów M. Beśka, Całka Stochastyczna, wykład 8 148 8 Całka stochastyczna względem semimartyngałów 8.1 Całka stochastyczna w M 2 Oznaczmy przez Ξ zbiór procesów postaci X t (ω) = ξ (ω)i {} (t) + n ξ i (ω)i (ti,

Bardziej szczegółowo

Zadanie 1. Ilość szkód N ma rozkład o prawdopodobieństwach spełniających zależność rekurencyjną:

Zadanie 1. Ilość szkód N ma rozkład o prawdopodobieństwach spełniających zależność rekurencyjną: Zadanie. Ilość szkód N ma rozkład o prawdopodobieństwach spełniających zależność rekurencyjną: Pr Pr ( = k) ( N = k ) N = + k, k =,,,... Jeśli wiemy, że szkód wynosi: k= Pr( N = k) =, to prawdopodobieństwo,

Bardziej szczegółowo

Wykład 3 Momenty zmiennych losowych.

Wykład 3 Momenty zmiennych losowych. Wykład 3 Momenty zmiennych losowych. Wrocław, 19 października 2016r Momenty zmiennych losowych Wartość oczekiwana - przypomnienie Definicja 3.1: 1 Niech X będzie daną zmienną losową. Jeżeli X jest zmienną

Bardziej szczegółowo

Zadanie 1. są niezależne i mają rozkład z atomami: ( ),

Zadanie 1. są niezależne i mają rozkład z atomami: ( ), Zadanie. Zmienne losowe są niezależne i mają rozkład z atomami: ( ) ( ) i gęstością: ( ) na przedziale ( ). Wobec tego ( ) wynosi: (A) 0.2295 (B) 0.2403 (C) 0.2457 (D) 0.25 (E) 0.269 Zadanie 2. Niech:

Bardziej szczegółowo

Wykład 3 Momenty zmiennych losowych.

Wykład 3 Momenty zmiennych losowych. Wykład 3 Momenty zmiennych losowych. Wrocław, 18 października 2017r Momenty zmiennych losowych Wartość oczekiwana - przypomnienie Definicja 3.1: 1 Niech X będzie daną zmienną losową. Jeżeli X jest zmienną

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład IV: 27 października 2014 Współczynnik korelacji Brak korelacji a niezależność Definicja współczynnika korelacji Współczynnikiem korelacji całkowalnych z kwadratem zmiennych losowych X i Y nazywamy

Bardziej szczegółowo

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie Jarosław Kotowicz Instytut Matematyki Uniwersytet w

Bardziej szczegółowo

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki WYKŁAD 6 Witold Bednorz, Paweł Wolff 1 Instytut Matematyki Uniwersytet Warszawski Rachunek Prawdopodobieństwa, WNE, 2010-2011 Własności Wariancji Przypomnijmy, że VarX = E(X EX) 2 = EX 2 (EX) 2. Własności

Bardziej szczegółowo

PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω)

PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω) PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω) określonych na tej samej przestrzeni probabilistycznej

Bardziej szczegółowo

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa Spis treści Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa Romuald Kotowski Katedra Informatyki Stosowanej PJWSTK 2009 Spis treści Spis treści 1 Wstęp Bardzo często interesujący

Bardziej szczegółowo

System BCD z κ. Adam Slaski na podstawie wykładów, notatek i uwag Pawła Urzyczyna. Semestr letni 2009/10

System BCD z κ. Adam Slaski na podstawie wykładów, notatek i uwag Pawła Urzyczyna. Semestr letni 2009/10 System BCD z κ Adam Slaski na podstawie wykładów, notatek i uwag Pawła Urzyczyna Semestr letni 2009/10 Rozważamy system BCD ze stałą typową κ i aksjomatami ω κ κ i κ ω κ. W pierwszej części tej notatki

Bardziej szczegółowo

4,5. Dyskretne zmienne losowe (17.03; 31.03)

4,5. Dyskretne zmienne losowe (17.03; 31.03) 4,5. Dyskretne zmienne losowe (17.03; 31.03) Definicja 1 Zmienna losowa nazywamy dyskretna (skokowa), jeśli zbiór jej wartości x 1, x 2,..., można ustawić w ciag. Zmienna losowa X, która przyjmuje wszystkie

Bardziej szczegółowo

1 Nierówność Minkowskiego i Hoeldera

1 Nierówność Minkowskiego i Hoeldera 1 Nierówność Minkowskiego i Hoeldera Na państwa użytek załączam precyzyjne sformułowania i dowody nierówności Hoeldera i Minkowskiego: Twierdzenie 1.1 Nierówność Hoeldera). Niech p, q będą takimi liczbami

Bardziej szczegółowo

Dyskretne zmienne losowe

Dyskretne zmienne losowe Dyskretne zmienne losowe dr Mariusz Grządziel 16 marca 2009 Definicja 1. Zmienna losowa nazywamy dyskretna (skokowa), jeśli zbiór jej wartości x 1, x 2,..., można ustawić w ciag. Zmienna losowa X, która

Bardziej szczegółowo

Funkcje charakterystyczne zmiennych losowych, linie regresji 1-go i 2-go rodzaju

Funkcje charakterystyczne zmiennych losowych, linie regresji 1-go i 2-go rodzaju Funkcje charakterystyczne zmiennych losowych, linie regresji -go i 2-go rodzaju Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Inteligencji i Metod Matematycznych Wydział Informatyki Politechniki

Bardziej szczegółowo

Matematyka ubezpieczeń majątkowych r.

Matematyka ubezpieczeń majątkowych r. Matematyka ubezpieczeń majątkowych 3..007 r. Zadanie. Każde z ryzyk pochodzących z pewnej populacji charakteryzuje się tym że przy danej wartości λ parametru ryzyka Λ rozkład wartości szkód z tego ryzyka

Bardziej szczegółowo

Spacery losowe generowanie realizacji procesu losowego

Spacery losowe generowanie realizacji procesu losowego Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z

Bardziej szczegółowo

Logarytmy. Funkcje logarytmiczna i wykładnicza. Równania i nierówności wykładnicze i logarytmiczne.

Logarytmy. Funkcje logarytmiczna i wykładnicza. Równania i nierówności wykładnicze i logarytmiczne. Logarytmy. Funkcje logarytmiczna i wykładnicza. Równania i nierówności wykładnicze i logarytmiczne. Definicja. Niech a i b będą dodatnimi liczbami rzeczywistymi i niech a. Logarytmem liczby b przy podstawie

Bardziej szczegółowo

dla t ściślejsze ograniczenie na prawdopodobieństwo otrzymujemy przyjmując k = 1, zaś dla t > t ściślejsze ograniczenie otrzymujemy przyjmując k = 2.

dla t ściślejsze ograniczenie na prawdopodobieństwo otrzymujemy przyjmując k = 1, zaś dla t > t ściślejsze ograniczenie otrzymujemy przyjmując k = 2. Zadanie. Dla dowolnej zmiennej losowej X o wartości oczekiwanej μ, wariancji momencie centralnym μ k rzędu k zachodzą nierówności (typu Czebyszewa): ( X μ k Pr > μ + t σ ) 0. k k t σ *

Bardziej szczegółowo

Metody probabilistyczne

Metody probabilistyczne Metody probabilistyczne 6. Momenty zmiennych losowych Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 8.11.2018 1 / 47 Funkcje zmiennych losowych Mierzalna funkcja Y

Bardziej szczegółowo

Wykład 3 Jednowymiarowe zmienne losowe

Wykład 3 Jednowymiarowe zmienne losowe Wykład 3 Jednowymiarowe zmienne losowe Niech (Ω, F, P ) będzie ustaloną przestrzenią probabilistyczną Definicja 1 Jednowymiarowa zmienna losowa (o wartościach rzeczywistych), określoną na przestrzeni probabilistycznej

Bardziej szczegółowo

F t+ := s>t. F s = F t.

F t+ := s>t. F s = F t. M. Beśka, Całka Stochastyczna, wykład 1 1 1 Wiadomości wstępne 1.1 Przestrzeń probabilistyczna z filtracją Niech (Ω, F, P ) będzie ustaloną przestrzenią probabilistyczną i niech F = {F t } t 0 będzie rodziną

Bardziej szczegółowo

Geometryczna zbieżność algorytmu Gibbsa

Geometryczna zbieżność algorytmu Gibbsa Geometryczna zbieżność algorytmu Gibbsa Iwona Żerda Wydział Matematyki i Informatyki, Uniwersytet Jagielloński 6 grudnia 2013 6 grudnia 2013 1 / 19 Plan prezentacji 1 Algorytm Gibbsa 2 Tempo zbieżności

Bardziej szczegółowo

Immunizacja ryzyka stopy procentowej ubezpieczycieli życiowych

Immunizacja ryzyka stopy procentowej ubezpieczycieli życiowych Immunizacja ryzyka stopy procentowej ubezpieczycieli życiowych Elżbieta Krajewska Instytut Matematyki Politechnika Łódzka Elżbieta Krajewska Immunizacja ubezpieczycieli życiowych 1/22 Plan prezentacji

Bardziej szczegółowo

O procesie Wienera. O procesie Wienera. Procesy stochastyczne Wykład XV, 15 czerwca 2015 r. Proces Wienera. Ruch Browna. Ułamkowe ruchy Browna

O procesie Wienera. O procesie Wienera. Procesy stochastyczne Wykład XV, 15 czerwca 2015 r. Proces Wienera. Ruch Browna. Ułamkowe ruchy Browna Procesy stochastyczne Wykład XV, 15 czerwca 2015 r. Ruch 1 {X t } jest martyngałem dokładnie wtedy, gdy E(X t F s ) = X s, s, t T, s t. Jeżeli EX 2 (t) < +, to E(X t F s ) jest rzutem ortogonalnym zmiennej

Bardziej szczegółowo

Statystyka matematyczna dla leśników

Statystyka matematyczna dla leśników Statystyka matematyczna dla leśników Wydział Leśny Kierunek leśnictwo Studia Stacjonarne I Stopnia Rok akademicki 2013/2014 Wykład 3 Zmienna losowa i jej rozkłady Zdarzenia losowe Pojęcie prawdopodobieństwa

Bardziej szczegółowo

Programowanie liniowe

Programowanie liniowe Programowanie liniowe Maciej Drwal maciej.drwal@pwr.wroc.pl 1 Problem programowania liniowego min x c T x (1) Ax b, (2) x 0. (3) gdzie A R m n, c R n, b R m. Oznaczmy przez x rozwiązanie optymalne, tzn.

Bardziej szczegółowo

Zestaw 2: Zmienne losowe. 0, x < 1, 2, 2 x, 1 1 x, 1 x, F 9 (x) =

Zestaw 2: Zmienne losowe. 0, x < 1, 2, 2 x, 1 1 x, 1 x, F 9 (x) = Zestaw : Zmienne losowe. Które z poniższych funkcji są dystrybuantami? Odpowiedź uzasadnij. Wskazówka: naszkicuj wykres. 0, x 0,, x 0, F (x) = x, F (x) = x, 0 x

Bardziej szczegółowo

Wstęp do Rachunku Prawdopodobieństwa, IIr. WMS

Wstęp do Rachunku Prawdopodobieństwa, IIr. WMS Wstęp do Rachunku Prawdopodobieństwa, IIr. WMS przykładowe zadania na. kolokwium czerwca 6r. Poniżej podany jest przykładowy zestaw zadań. Podczas kolokwium na ich rozwiązanie przeznaczone będzie ok. 85

Bardziej szczegółowo

Dyskretne procesy stacjonarne o nieskończonej entropii nadwyżkowej

Dyskretne procesy stacjonarne o nieskończonej entropii nadwyżkowej Dyskretne procesy stacjonarne o nieskończonej entropii nadwyżkowej Łukasz Dębowski ldebowsk@ipipan.waw.pl i Instytut Podstaw Informatyki PAN Co to jest entropia nadwyżkowa? Niech (X i ) i Z będzie procesem

Bardziej szczegółowo

UPORZĄDKOWANIE STOCHASTYCZNE ESTYMATORÓW ŚREDNIEGO CZASU ŻYCIA. Piotr Nowak Uniwersytet Wrocławski

UPORZĄDKOWANIE STOCHASTYCZNE ESTYMATORÓW ŚREDNIEGO CZASU ŻYCIA. Piotr Nowak Uniwersytet Wrocławski UPORZĄDKOWANIE STOCHASTYCZNE ESTYMATORÓW ŚREDNIEGO CZASU ŻYCIA Piotr Nowak Uniwersytet Wrocławski Wprowadzenie X = (X 1,..., X n ) próba z rozkładu wykładniczego Ex(θ). f (x; θ) = 1 θ e x/θ, x > 0, θ >

Bardziej szczegółowo

Twierdzenia graniczne fluktuacji procesów przebywania dla układów gałazkowych

Twierdzenia graniczne fluktuacji procesów przebywania dla układów gałazkowych Publiczna obrona rozprawy doktorskiej Twierdzenia graniczne fluktuacji procesów przebywania dla układów gałazkowych Piotr Miłoś Instytut Matematyczny Polskiej Akademii Nauk 23.10.2008 Warszawa Plan 1 Układy

Bardziej szczegółowo

Metody probabilistyczne

Metody probabilistyczne Metody probabilistyczne 13. Elementy statystki matematycznej I Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 17.01.2019 1 / 30 Zagadnienia statystki Przeprowadzamy

Bardziej szczegółowo

poprzez reasekurację proporcjonalną w modelu Jan Matuszewski Uniwersytet Warszawski

poprzez reasekurację proporcjonalną w modelu Jan Matuszewski Uniwersytet Warszawski Minimalizacja prawdopodobieństwa ruiny poprzez reasekurację proporcjonalną w modelu Sparre Andersena Jan Matuszewski Uniwersytet Warszawski Prezentacja powstała w oparciu o wyniki uzyskane w pracy magisterskiej

Bardziej szczegółowo

Matematyka ubezpieczeń majątkowych r.

Matematyka ubezpieczeń majątkowych r. Zadanie. W pewnej populacji kierowców każdego jej członka charakteryzują trzy zmienne: K liczba przejeżdżanych kilometrów (w tysiącach rocznie) NP liczba szkód w ciągu roku, w których kierowca jest stroną

Bardziej szczegółowo

Twierdzenie Li-Yorke a Twierdzenie Szarkowskiego

Twierdzenie Li-Yorke a Twierdzenie Szarkowskiego Politechnika Gdańska Wydział Fizyki Technicznej i Matematyki Stosowanej Twierdzenie Li-Yorke a Twierdzenie Szarkowskiego Autor: Kamil Jaworski 11 marca 2012 Spis treści 1 Wstęp 2 1.1 Podstawowe pojęcia........................

Bardziej szczegółowo

Stacjonarne procesy gaussowskie, czyli o zwiazkach pomiędzy zwykła

Stacjonarne procesy gaussowskie, czyli o zwiazkach pomiędzy zwykła Stacjonarne procesy gaussowskie, czyli o zwiazkach pomiędzy zwykła autokorelacji Łukasz Dębowski ldebowsk@ipipan.waw.pl Instytut Podstaw Informatyki PAN autokorelacji p. 1/25 Zarys referatu Co to sa procesy

Bardziej szczegółowo

Współczynnik korelacji. Współczynnik korelacji jest miernikiem zależności między dwiema cechami Oznaczenie: ϱ

Współczynnik korelacji. Współczynnik korelacji jest miernikiem zależności między dwiema cechami Oznaczenie: ϱ Współczynnik korelacji Współczynnik korelacji jest miernikiem zależności między dwiema cechami Oznaczenie: ϱ Własności współczynnika korelacji 1. Współczynnik korelacji jest liczbą niemianowaną 2. ϱ 1,

Bardziej szczegółowo

Szkice do zajęć z Przedmiotu Wyrównawczego

Szkice do zajęć z Przedmiotu Wyrównawczego Szkice do zajęć z Przedmiotu Wyrównawczego Matematyka Finansowa sem. letni 2011/2012 Spis treści Zajęcia 1 3 1.1 Przestrzeń probabilistyczna................................. 3 1.2 Prawdopodobieństwo warunkowe..............................

Bardziej szczegółowo

Testowanie hipotez statystycznych.

Testowanie hipotez statystycznych. Bioinformatyka Wykład 6 Wrocław, 7 listopada 2011 Temat. Weryfikacja hipotez statystycznych dotyczących proporcji. Test dla proporcji. Niech X 1,..., X n będzie próbą statystyczną z 0-1. Oznaczmy odpowiednio

Bardziej szczegółowo

Układy równań i nierówności liniowych

Układy równań i nierówności liniowych Układy równań i nierówności liniowych Wiesław Krakowiak 1 grudnia 2010 1 Układy równań liniowych DEFINICJA 11 Układem równań m liniowych o n niewiadomych X 1,, X n, nazywamy układ postaci: a 11 X 1 + +

Bardziej szczegółowo

Statystyka. Wydział Zarządzania Uniwersytetu Łódzkiego

Statystyka. Wydział Zarządzania Uniwersytetu Łódzkiego Statystyka Wydział Zarządzania Uniwersytetu Łódzkiego 2017 Zmienna losowa i jej rozkład Mając daną przestrzeń probabilistyczną, czyli parę (&, P) stanowiącą model pewnego doświadczenia losowego (gdzie

Bardziej szczegółowo

Rachunek prawdopodobieństwa i statystyka

Rachunek prawdopodobieństwa i statystyka Rachunek prawdopodobieństwa i statystyka Momenty Zmienna losowa jest wystarczająco dokładnie opisana przez jej rozkład prawdopodobieństwa. Względy praktyczne dyktują jednak potrzebę znalezienia charakterystyk

Bardziej szczegółowo

METODY ESTYMACJI PUNKTOWEJ. nieznanym parametrem (lub wektorem parametrów). Przez X będziemy też oznaczać zmienną losową o rozkładzie

METODY ESTYMACJI PUNKTOWEJ. nieznanym parametrem (lub wektorem parametrów). Przez X będziemy też oznaczać zmienną losową o rozkładzie METODY ESTYMACJI PUNKTOWEJ X 1,..., X n - próbka z rozkładu P θ, θ Θ, θ jest nieznanym parametrem (lub wektorem parametrów). Przez X będziemy też oznaczać zmienną losową o rozkładzie P θ. Definicja. Estymatorem

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład XIII: Prognoza. 26 stycznia 2015 Wykład XIII: Prognoza. Prognoza (predykcja) Przypuśćmy, że mamy dany ciąg liczb x 1, x 2,..., x n, stanowiących wyniki pomiaru pewnej zmiennej w czasie wielkości

Bardziej szczegółowo

Agata Boratyńska Statystyka aktuarialna... 1

Agata Boratyńska Statystyka aktuarialna... 1 Agata Boratyńska Statystyka aktuarialna... 1 ZADANIA NA ĆWICZENIA Z TEORII WIAROGODNOŚCI Zad. 1. Niech X 1, X 2,..., X n będą niezależnymi zmiennymi losowymi z rozkładu wykładniczego o wartości oczekiwanej

Bardziej szczegółowo

Ważne rozkłady i twierdzenia

Ważne rozkłady i twierdzenia Ważne rozkłady i twierdzenia Rozkład dwumianowy i wielomianowy Częstość. Prawo wielkich liczb Rozkład hipergeometryczny Rozkład Poissona Rozkład normalny i rozkład Gaussa Centralne twierdzenie graniczne

Bardziej szczegółowo

21 maja, Mocna własność Markowa procesu Wienera. Procesy Stochastyczne, wykład 13, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126

21 maja, Mocna własność Markowa procesu Wienera. Procesy Stochastyczne, wykład 13, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126 Mocna własność Markowa procesu Wienera Procesy Stochastyczne, wykład 13, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126 21 maja, 2012 Mocna własność Markowa W = (W 1,..., W d ) oznaczać

Bardziej szczegółowo

6. Zmienne losowe typu ciagłego ( ) Pole trapezu krzywoliniowego

6. Zmienne losowe typu ciagłego ( ) Pole trapezu krzywoliniowego 6. Zmienne losowe typu ciagłego (2.04.2007) Pole trapezu krzywoliniowego Przypomnienie: figurę ograniczoną przez: wykres funkcji y = f(x), gdzie f jest funkcją ciągłą; proste x = a, x = b, a < b, oś OX

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład II: Zmienne losowe i charakterystyki ich rozkładów 13 października 2014 Zmienne losowe Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Definicja zmiennej losowej i jej

Bardziej szczegółowo

Wykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa

Wykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa Wykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa Marek Kubiak Instytut Informatyki Politechnika Poznańska Plan wykładu Podstawowe pojęcia rachunku prawdopodobieństwa Rozkład

Bardziej szczegółowo

Weryfikacja hipotez statystycznych

Weryfikacja hipotez statystycznych Weryfikacja hipotez statystycznych Hipoteza Test statystyczny Poziom istotności Testy jednostronne i dwustronne Testowanie równości wariancji test F-Fishera Testowanie równości wartości średnich test t-studenta

Bardziej szczegółowo

12DRAP - parametry rozkładów wielowymiarowych

12DRAP - parametry rozkładów wielowymiarowych DRAP - parametry rozkładów wielowymiarowych Definicja.. Jeśli h : R R, a X, Y ) jest wektorem losowym o gęstości fx, y) to EhX, Y ) = hx, y)fx, y)dxdy. Jeśli natomiast X, Y ) ma rozkład dyskretny skupiony

Bardziej szczegółowo

Wykład 10 Estymacja przedziałowa - przedziały ufności dla średn

Wykład 10 Estymacja przedziałowa - przedziały ufności dla średn Wykład 10 Estymacja przedziałowa - przedziały ufności dla średniej Wrocław, 21 grudnia 2016r Przedział ufności Niech będzie dana próba X 1, X 2,..., X n z rozkładu P θ, θ Θ. Definicja 10.1 Przedziałem

Bardziej szczegółowo

Matematyka z el. statystyki, # 3 /Geodezja i kartografia II/

Matematyka z el. statystyki, # 3 /Geodezja i kartografia II/ Matematyka z el. statystyki, # 3 /Geodezja i kartografia II/ Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Akademicka 15, p.211a bud. Agro II, e-mail: zdzislaw.otachel@up.lublin.pl

Bardziej szczegółowo

Drugie kolokwium z Rachunku Prawdopodobieństwa, zestaw A

Drugie kolokwium z Rachunku Prawdopodobieństwa, zestaw A Drugie kolokwium z Rachunku Prawdopodobieństwa, zestaw A Zad. 1. Korzystając z podanych poniżej mini-tablic, oblicz pierwszy, drugi i trzeci kwartyl rozkładu N(10, 2 ). Rozwiązanie. Najpierw ogólny komentarz

Bardziej szczegółowo

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy bez pamięci w których czas i stany są zbiorami dyskretnymi. Procesy stochastyczne WYKŁAD 2-3 Łańcuchy Markowa Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi. 2 Łańcuchem Markowa nazywamy proces będący ciągiem zmiennych

Bardziej szczegółowo

Zmienne losowe. Powtórzenie. Dariusz Uciński. Wykład 1. Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski

Zmienne losowe. Powtórzenie. Dariusz Uciński. Wykład 1. Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Powtórzenie Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 1 Podręcznik podstawowy Jacek Koronacki, Jan Mielniczuk: Statystyka dla studentów kierunków technicznych i przyrodnicznych,

Bardziej szczegółowo

19 marzec, Łańcuchy Markowa z czasem dyskretnym. Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136

19 marzec, Łańcuchy Markowa z czasem dyskretnym. Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 19 marzec, 2012 Przykłady procesów Markowa (i). P = (p ij ) - macierz stochastyczna, tzn. p ij 0, j p ij =

Bardziej szczegółowo

Prognozowalne kryterium całkowalności według A. N. Shiryaeva i A. S. Cherny ego Joanna Karłowska-Pik. Historia

Prognozowalne kryterium całkowalności według A. N. Shiryaeva i A. S. Cherny ego Joanna Karłowska-Pik. Historia 1 Prognozowalne kryterium całkowalności według A. N. Shiryaeva i A. S. Cherny ego Joanna Karłowska-Pik Całka stochastyczna ( t ) H s dx s = H X. t Historia K. Itô (1944) konstrukcja całki stochastycznej

Bardziej szczegółowo

Zmienne losowe. dr Mariusz Grządziel Wykład 12; 20 maja 2014

Zmienne losowe. dr Mariusz Grządziel Wykład 12; 20 maja 2014 Zmienne losowe dr Mariusz Grządziel Wykład 2; 20 maja 204 Definicja. Zmienna losowa nazywamy dyskretna (skokowa), jeśli zbiór jej wartości x, x 2,..., można ustawić w ciag. Zmienna losowa X, która przyjmuje

Bardziej szczegółowo

Wykład 5 Estymatory nieobciążone z jednostajnie minimalną war

Wykład 5 Estymatory nieobciążone z jednostajnie minimalną war Wykład 5 Estymatory nieobciążone z jednostajnie minimalną wariancją Wrocław, 25 października 2017r Statystyki próbkowe - Przypomnienie Niech X = (X 1, X 2,... X n ) będzie n elementowym wektorem losowym.

Bardziej szczegółowo

Prognozowanie i Symulacje. Wykład I. Matematyczne metody prognozowania

Prognozowanie i Symulacje. Wykład I. Matematyczne metody prognozowania Prognozowanie i Symulacje. Wykład I. e-mail:e.kozlovski@pollub.pl Spis treści Szeregi czasowe 1 Szeregi czasowe 2 3 Szeregi czasowe Definicja 1 Szereg czasowy jest to proces stochastyczny z czasem dyskretnym

Bardziej szczegółowo

Układy stochastyczne

Układy stochastyczne Instytut Informatyki Uniwersytetu Śląskiego 21 stycznia 2009 Definicja Definicja Proces stochastyczny to funkcja losowa, czyli funkcja matematyczna, której wartości leżą w przestrzeni zdarzeń losowych.

Bardziej szczegółowo

Ciągłość funkcji f : R R

Ciągłość funkcji f : R R Ciągłość funkcji f : R R Definicja 1. Otoczeniem o promieniu δ > 0 punktu x 0 R nazywamy zbiór O(x 0, δ) := (x 0 δ, x 0 + δ). Otoczeniem prawostronnym o promieniu δ > 0 punktu x 0 R nazywamy zbiór O +

Bardziej szczegółowo

Całki podwójne. Definicja całki podwójnej. Jacek Kłopotowski. 25 maja Katedra Matematyki i Ekonomii Matematycznej

Całki podwójne. Definicja całki podwójnej. Jacek Kłopotowski. 25 maja Katedra Matematyki i Ekonomii Matematycznej Definicja całki podwójnej Katedra Matematyki i Ekonomii Matematycznej 25 maja 2016 Definicja całki podwójnej Załóżmy, że f : K R, gdzie K = a, b c, d R 2, jest funkcją ograniczoną. Niech x 0, x 1,...,

Bardziej szczegółowo

Wykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga

Wykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga RAP 412 21.01.2009 Wykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga Wykładowca: Andrzej Ruciński Pisarz: Łukasz Waszak 1 Wstęp Na ostatnim wykładzie przedstawiliśmy twierdzenie o zbieżności

Bardziej szczegółowo