Definicje zależności. Kopuły w matematyce finansowej. Aleksandra Kantowska

Wielkość: px
Rozpocząć pokaz od strony:

Download "Definicje zależności. Kopuły w matematyce finansowej. Aleksandra Kantowska"

Transkrypt

1 Definicje zależności. Kopuły w matematyce finansowej. Aleksandra Kantowska

2 Spis treści Wstęp 2 1 Funkcja kopuła Podstawowe pojęcia Pochodne kopuł Klasa kopuł Archimedesa Kopuła Claytona Kopuła Gumbela Kopuła Franka Procesy stochastyczne Proces stochastyczny Proces Markowa Proces Wienera Geometryczny ruch Browna Operacja produktowa dla kopuł i proces Markowa Operacja produktowa Operacja produktowa a proces Markowa Przykład: kopuła ruchu Browna Konstrukcja procesów stochastycznych opartych na kopułach Metoda konstrukcji procesu Proces ruchu Browna Proces kopuły Franka Proces kopuły Claytona Modelowanie rynku z użyciem procesu kopuły Browna Opcje Model Blacka-Scholesa Wycena opcji europejskiej Wycena opcji binarnej barierowej Podsumowanie 53 A Załącznik - rozkłady prawdopodobieństwa 54 B Załącznik - kody programów 55 B.1 Załącznik B.2 Załącznik B.3 Załącznik B.4 Załącznik B.5 Załącznik B.6 Załącznik Spis rysunków 71 Bibliografia 72 1

3 Wstęp W pracy zajmiemy się strukturą zależności jaką jest proces Markowa. Pokażemy konstrukcję procesu Markowa opartego na kopule i zastosowanie takiego procesu w finansach. Zacznijmy zatem od krótkiego przybliżenia, czym jest ta funkcja. Funkcja kopuła (ang. copula) jest to funkcja, dzięki której możemy połączyć rozkład łączny z jego rozkładami brzegowymi, krótko można powiedzieć, że jest to funkcja połączenia. W pracy często funkcje te będziemy nazywać po prostu kopułami. Pojęcie kopuły zostało po raz pierwszy przedstawione przez Abe Sklar a w roku 1959 w twierdzeniu, które nosi teraz jego imię, a które opisuje funkcje łączące dystrybuanty jednowymiarowe z dystrybuantą wielowymiarową. Mimo, że od czasu wprowadzenia tego twierdzenia minęło już ponad 50 lat, to teoria kopuł jest to dziedzina matematyki, która cały czas się rozwija. Istnieje kilka struktur zależności pomiędzy zmiennymi losowymi, w których wykorzystuje się kopuły. Jednymi z najpopularniejszych są ρ Spearmana, czy τ Kendalla (szczegóły w [11]). My jednak zajmiemy się strukturą zależności jaką jest proces Markowa. Po raz pierwszy zastosowanie kopuł do procesów Markowa przedstawił William Darsow w pracy Copulas and Markov Processes (1992). Przedstawione przez niego podejscie było nowym podejsciem do tych procesów i dało nowe interpretacje. W rozdziale pierwszym przedstawimy podstawowe definicje, twierdzenia oraz własności z teorii funkcji kopuł. Przytoczymy najważniejsze twierdzenie w teorii kopuł - twierdzenie Sklara. Przedstawimy klasę kopuł Archimedesa oraz wprowadzimy przykłady kopuł należących do niej należących. Dla kopuł Claytona, Gumbela i Franka podamy ich generatory, a także wyprowadzimy wzory na te kopuły. W rozdziale drugim wprowadzimy podstawy teorii dotyczącej procesów stochastycznych. Powiemy co to jest proces stochastyczny, filtracja czy moment stopu. Przedstawimy także po krótce jak wygląda proces Wienera i geometryczny ruch Browna, a także jaki proces możemy nazwać procesem Markowa. W rozdziale trzecim zajmiemy się pokazaniem związku teorii kopuł z procesami Markowa. Wprowadzimy operację produktową wraz z podstawowymi własnościami oraz przytoczymy twierdzenie pokazujące związek procesu Markowa z kopułami. Wyprowadzimy także wzór na postać kopuły zbudowanej na procesie Wienera. W rozdziale czwartym skupimy się na konstrukcji procesów stochastycznych opartych na kopułach. Przedstawimy metodę konstrukcji takich procesów oraz przedstawimy przykłady symulacji procesów opartych na kopułach: ruchu Browna, Franka oraz Claytona. Piąty rozdział poświęcony jest sprawdzeniu jak zachowuje się rozwiązanie równania stochastycznego, gdy w miejscu procesu Wienera użyjemy pocesu kopuły ruchu Browna. Przytoczymy podstawowe pojęcia z zakresu opcji oraz skupimy się w nim na wycenie opcji i porównaniu wartości otrzymanych za pomocą standardowego modelu oraz przy użyciu procesu opartego na kopule. W szóstym rozdziale podsumujemy całą pracę oraz otrzymane wyniki. 2

4 Na końcu pracy znajdują się załączniki. W części A znajdziemy definicje rozkładów prawdopodobieństwa użytych w pracy. Natomiast w części B znajdują się kody z programu R użyte w pracy. Wszystkie wykresy użyte w pracy zostały wygenerowane samodzielnie w programie R i kody użyte do ich otrzymania znajdują się w tej części. Środowisko R jest to bezpłatny program używany do obliczeń statystycznych oraz prezentacji wyników. W naszym przypadku, aby uzyskać przedstawienie graficzne kopuł użyliśmy pakietu copula. 3

5 Rozdział 1 Funkcja kopuła Jak już wspomnieliśmy we wstępie, kopuły są to tak zwane funkcje połączenia. W tym rozdziale zajmiemy się wprowadzeniem ich podstawowych definicji, twierdzeń oraz własności. Podamy także przykłady kopuł należących do jednej z najważniejszych klas kopuł - klasy kopuł Archimedesa. 1.1 Podstawowe pojęcia Zacznijmy od wprowadzenia oznaczeń, które będziemy stosować w całej pracy. Niech I oznacza przedział jednostkowy [0, 1], a I 2 = I I kwadrat jednostkowy. Będziemy korzystać z następującej notacji: R = (, ), R = [, ] oraz R 2 = R R. Jako dom(f) R d będziemy rozumieć dziedzinę funkcji f, a przez ran(f) R jej zbiór wartości. Niech F 12 (x 1, x 2 ) = P (X 1 x 1, X 2 x 2 ) będzie dystrybuantą łączną zmiennych losowych X 1 i X 2 o dystrybuantach F 1 (x 1 ) = P (X 1 x 1 ) i F 2 (x 2 ) = P (X 2 x 2 ), odpowiednio, które nazywamy dystrybuantami brzegowymi. Możemy powiedzieć, że z każdą parą liczb (x 1, x 2 ) powiązane są trzy wartości: F 1 (x 1 ), F 2 (x 2 ) oraz F 12 (x 1, x 2 ). W związku z tym, że są to dystrybuanty możemy zauważyć, że każda z tych liczb należy do przedziału [0, 1]. Wprowadźmy teraz definicje, które będą nam potrzebne w dalszej części. Definicja 1. [11] Niech S 1, S 2 będą niepustymi podzbiorami R, niech H będzie funkcją rzeczywistą dwóch zmiennych taką, że dom(h) = S 1 S 2. Niech B = [x 1, x 2 ] [y 1, y 2 ] będzie kwadratem, którego wszystkie wierzchołki należą do dom(h). Wtedy H-objętość od zbioru B dana jest wzorem V H (B) = H(x 2, y 2 ) H(x 2, y 1 ) H(x 1, y 2 ) + H(x 1, y 1 ). (1.1) Definicja 2. [11] Funkcja rzeczywista dwóch zmiennych H jest 2-rosnąca, jeżeli V H (B) 0 dla każdego kwadratu B, którego wierzchołki leżą w dziedzinie dom(h). Wprowadźmy teraz definicję kopuły dla przypadku dwuwymiarowego. Definicja 3. [2] 2-wymiarową kopułą (w skrócie 2-kopułą lub kopułą) nazywamy funkcję C : I 2 I spełniającą następujące warunki: 1. u,v I C(u, 0) = C(0, v) = 0 (1.2) 4

6 oraz u,v I C(u, 1) = u i C(1, v) = v, (1.3) 2. u1,u 2,v 1,v 2 I u 1 u 2 i v 1 v 2 C(u 2, v 2 ) C(u 2, v 1 ) C(u 1, v 2 ) + C(u 1, v 1 ) 0. Pierwszy punkt daje nam warunki brzegowe, które gwarantują jednostajny rozkład brzegowy. Natomiast drugi jest warunkiem monotoniczności funkcji. Dla wymiaru d > 2 definicja d-kopuły jest następująca: Definicja 4. [2] D-wymiarową kopułą (d-kopułą) nazywamy funkcję C : I d I spełniającą: 1. Warunki brzegowe: (a) i x1,...,x d C(x 1,..., x i 1, 0, x i+1,..., x d ) = 0, (b) funkcja (x 1,..., x i 1, x i+1,..., x d ) C(x 1,..., x i 1, 1, x i+1,..., x d ) jest (d-1)-kopułą dla każdego i. 2. Warunek monotoniczności: V C (R) = K R sgn(k)c(k) 0 dla każdego prostokąta R = d i=1 [x i, y i ], x i y i, gdzie K = (ɛ 1,..., ɛ d ) jest zbiorem jego wierzchołków takich, że ɛ i = x i lub y i oraz 1, jeżeli liczba współrzędnych x i spośród wszystkich sgn(k) = współrzędnych K jest nieparzysta, 1, w przeciwnym razie. W teorii kopuł istnieją także pewne ograniczenia funkcji nazywane ograniczeniami Frécheta- Hoeffdinga. Twierdzenie 1. [10] Dla dowolnej kopuły C(x 1,..., x d ) mamy ograniczenia { d max x i + 1 d, 0 C(x 1,..., x d ) min {x 1,..., x d. (1.4) i=1 Dowód powyższego twierdzenia można znaleźć w [10]. Zajmijmy się przez chwilę prawą stroną nierówności (1.4), którą nazywamy górnym ograniczeniem Frécheta-Hoeffdinga. Aby uprościć zapis tego ograniczenia stosujemy dla niego oznaczenie M(x 1,..., x d ). Interpretacja geometryczna górnego ograniczenia jest taka, że powierzchnia dowolnej kopuły musi leżeć pod powierzchnią funkcji M lub być jej równa. W przypadku, gdy powierzchnia kopuły jest równa górnemu ograniczeniu, to kopułę taką nazywamy kopułą wspólnie monotoniczną (ang. comonotonicity) i określamy ją wzorem M(x 1,..., x d ) = min {x 1,..., x d. 5

7 Gdy ograniczymy się do przypadku 2-wymiarowego to kopuła wspólnie monotoniczna jest postaci M(x 1, x 2 ) = min {x 1, x 2. Interpretację stochastyczną tej kopuły możemy przedstawić następująco: zmienne losowe X 1 i X 2 połączone są ze sobą za pomocą kopuły M wtedy i tylko wtedy, gdy zmienna losowa X 2 jest prawie na pewno niemalejącą funkcją X 1. Kopuła ta odnosi się do zależności deterministycznych. Interpretacja graficzna tej kopuły przedstawiona jest na poniższym rysunku (kod z programu R w załączniku 1A). Rysunek 1.1: Wykres powierzchni i konturu górnego ograniczenia Frécheta Przejdźmy teraz do lewej strony nierówności (1.4), którą nazywamy dolnym ograniczeniem Frécheta-Hoeffdinga oraz używamy dla niego oznaczenia W (x 1,..., x d ). Interpretacja geometryczna dolnego ograniczenia jest taka, że powierzchnia dowolnej kopuły musi leżeć nad powierzchnią funkcji W. Dla wymiaru d 3 funkcja W nie jest kopułą. W przypadku, gdy d = 2 dolne ograniczenie Frécheta-Hoeffdinga jest kopułą postaci W (x 1, x 2 ) = max(x 1 + x 2 1, 0). Kopuła ta nosi nazwę kopuły przeciwnie monotonicznej (ang. countermonotonicity). Kopuła ta, tak samo jak kopuła wspólnie monotoniczna, odnosi się do zależności deterministycznych a jej interpretacja stochastyczna jest następująca: zmienne losowe X 1 i X 2 są połączone za pomocą kopuły W wtedy i tylko wtedy, gdy X 2 jest prawie na pewno nierosnącą funkcją X 1. Ograniczenie to graficznie prezentuje się następująco (kod z programu R w załączniku 1B). Rysunek 1.2: Wykres powierzchni i konturu dolnego ograniczenia Frécheta 6

8 Nierówność (1.4) dla kopuł 2-wymiarowych oraz wykorzystując wprowadzone oznaczenia możemy zapisujemy następująco W (x 1, x 2 ) C(x 1, x 2 ) M(x 1, x 2 ). Istnieje jeszcze jedna ważna kopuła, jest to kopuła produktowa postaci d (x1,..., x d ) = x i, i=1 nazywana kopułą niezależną. Jej interpretacja stochastyczna jest następująca: zmienne losowe X 1 i X 2 są połączone za pomocą kopuły wtedy i tylko wtedy, gdy zmienne te są niezależne. Kopuła odnosi się do niezależności a nie jak to było w przypadku dwóch poprzednich kopuł do zależności deterministycznych. Poniższy wykres pokazuje powierzchnię kopuły niezależnej oraz jej wykres konturowy (kod z programu R w załączniku 1C). Rysunek 1.3: Wykres powierzchni i konturu kopuły niezależnej Przejdźmy teraz do ważnego twierdzenia w teorii kopuł jakim jest twierdzenie Sklar a. Twierdzenie to zostało po raz pierwszy sprecyzowane przez Sklar a w roku 1959 i określa znaczenie kopuł w badaniu dystrybuant wielowymiarowych. Dzięki temu twierdzeniu możemy zauważyć, że kopuły razem z jednowymiarowymi dystrybuantami mogą być używane w konstrukcji wielowymiarowych dystrybuant oraz że wszystkie wielowymiarowe dystrybuanty zawierają kopuły. Twierdzenie 2. [10](Sklar, 1959) Niech F 12...d będzie d-wymiarową dystrybuantą łączną z dystrybuantami brzegowymi F 1, F 2,..., F d. Wtedy istnieje kopuła C : I d I taka, że dla każdego x 1, x 2,... x d R, F 12...d (x 1, x 2,..., x d ) = C(F 1 (x 1 ), F 2 (x 2 ),..., F d (x d )). (1.5) Jeżeli F 1, F 2,..., F d są ciągłe to kopuła C określona jest jednoznacznie; w przeciwnym razie kopuła C określona jest jednoznacznie na ran(f 1 ) ran(f 2 ) ran(f d ). Odwrotnie, jeżeli C jest kopułą oraz F 1, F 2,..., F d są dystrybuantami, wtedy funkcja F 12...d określona przez (1.5) jest dystrybuantą łączną o dystrybuantach brzegowych F 1, F 2,..., F d. W dowodzie twierdzenia będziemy korzystać z uogólnionej funkcji odwrotnej wprowadźmy więc jej definicję. Definicja 5. [10] 7

9 Uogólnioną funkcją odwrotną funkcji rosnącej T nazywamy funkcję postaci T (y) = inf{x : T (x) y, gdzie używamy konwencji inf =. Zajmując się kopułami musimy także znać operacje takie jak transformacja kwantyla i prawdopodobieństwa. Są one określone w poniższym stwierdzeniu. Stwierdzenie 1. [10] Niech G będzie dystrybuantą oraz niech G oznacza jej uogólnioną funkcję odwrotną, czyli G (y) = inf{x : G(x) y. 1. Transformacja kwantyla: jeżeli U U(0, 1) ma standardowy rozkład jednostajny to P (G (U) x) = G(x). 2. Transformacja prawdopodobieństwa: jeżeli zmienna losowa Y ma dystrybuantę G, gdzie G jest ciągłą dystrybuantą jednowymiarową, to G(Y ) U(0, 1). Dowód. twierdzenia Sklar a [10] Przeprowadzimy szkic dowodu. Udowodnimy istnienie i jednoznaczność kopuły w sytuacji, gdy dystrybuanty brzegowe F 1,..., F d są ciągłe. Dla dowolnych x 1,..., x d R jeżeli wektor zmiennych losowych X = (X 1,..., X d ) ma dystrybuantę łączną F 1...d (x 1,..., x d ), to F 1...d (x 1,..., x d ) = P (X 1 x 1,..., X d x d ) = P (F 1 (X 1 ) F 1 (x 1 ),..., F d (X d ) F d (x d )). W związku z naszym założeniem, że jednowymiarowe dystrybuanty brzegowe są ciągłe możemy skorzystać ze Stwierdzenia 1, a dokładnie z punktu 2. o transformacji prawdopodobieństwa. Otrzymujemy zatem, że dystrybuanty mają standardowe rozkłady jednostajne. Z tego oraz z definicji kopuły otrzymujemy, że (F 1 (X 1 ),..., F d (X d )) jest kopułą, którą oznaczymy przez C. Zatem otrzymaliśmy (1.5). Jeżeli oszacujemy (1.5) dla argumentów x i = Fi (u i ), 0 u i 1, i = 1,..., d, oraz skorzystamy z własności uogólnionej funkcji odwrotnej, która brzmi [10]: T jest rosnącą funkcją ciągłą oraz T (y) < T T (y) = y, to otrzymujemy C(u 1,..., u d ) = F (F 1 (u 1 )..., F d (u d )), co daje nam reprezentacje C względem F oraz jej rozkładów brzegowych. Otrzymujemy zatem jednoznaczność kopuły. Aby przeprowadzić dowód w drugą stronę załóżmy, że C jest kopułą oraz że F 1,..., F d są dystrybuantami jednowymiarowymi. Skonstruujemy wektor losowy o dystrybuancie (1.5) poprzez wzięcie wektora losowego U o dystrybuancie C. Ustalmy także wektor X := (F1 (U 1 ),..., Fd (U d )). Wykorzystując własność uogólnionej funkcji odwrotnej dla funkcji rosnącej i dla której zachodzi 8

10 T (y) <, która brzmi [10]: jeżeli funkcja T jest prawostronnie ciągła, T (x) y T (y) x, otrzymujemy P (X 1 x 1,..., X d x d ) = P (F 1 (U 1 ) x 1,..., F d (U d ) x d ) = P (U 1 F 1 (x 1 ),..., U d F d (x d )) = C(F 1 (x 1 ),..., F d (x d )). Zatem dowód twierdzenia został zakończony Możemy także zauważyć kilka własności jakimi charakteryzują się kopuły. Przedstawimy je dla przypadku dwuwymiarowego, jednak można je uogólnić dla przypadków wielowymiarowych. Niech C oznacza zbiór wszystkich kopuł określonych na kwadracie jednostkowym I 2 oraz niech C C. Własność 1.[2] Dla dowolnych u 1 i u 2 spełniających zależność 0 u 1 u 2 1, funkcja v C(u 2, v) C(u 1, v) (1.6) jest niemalejąca. Analogicznie dla dowolnych v 1 oraz v 2 spełniających zależność 0 v 1 v 2 1, funkcja u C(u, v 2 ) C(u, v 1 ) (1.7) jest funkcją niemalejącą. Obie własności wynikają wprost z definicji kopuły, a dokładnie z warunku na monotoniczność funkcji. Własność 2.[2] Dla każdego u 1, u 2 [0, 1] spełniających 0 u 1 u 2 1 oraz dla każdego v [0, 1] zachodzi 0 C(u 2, v) C(u 1, v) u 2 u 1. (1.8) Analogicznie, dla każdego v 1, v 2 [0, 1] spełniających 0 v 1 v 2 1 oraz dla każdego u [0, 1] zachodzi 0 C(u, v 2 ) C(u, v 1 ) v 2 v 1. (1.9) Dowód. Nierówność (1.8) otrzymujemy poprzez podstawienie do (1.6) najpierw v = 0 a następnie v = 1, gdyż v [0, 1] oraz poprzez skorzystanie z warunków brzegowych i połączenie otrzymanych nierówności. Czyli v = 0 C(u 2, 0) C(u 1, 0) = 0, v = 1 C(u 2, 1) C(u 1, 1) = u 2 u 1, zatem ze względu na zmienną v otrzymujemy ograniczenia 0 C(u 2, v) C(u 1, v) u 2 u 1. 9

11 Nierówność (1.9) otrzymujemy analogicznie, dla zmiennej u [0, 1], czyli u = 0 C(0, v 2 ) C(0, v 1 ) = 0, u = 1 C(1, v 2 ) C(1, v 1 ) = v 2 v 1, zatem ze względu na zmienną u otrzymujemy ograniczenia 0 C(u, v 2 ) C(u, v 1 ) v 2 v 1. Własność 3.[2] Dla każdego u 1, u 2, v 1, v 2 [0, 1] C(u 2, v 2 ) C(u 1, v 1 ) u 1 u 2 + v 1 v 2. (1.10) Widzimy z tej nierówności, że kopuły są funkcjami ciągłymi w sensie Lipschitza, ponieważ stała Lipschitza wynosi 1. Dowód. Nierówność (1.10) wynika z nierówności (1.8) i (1.9). Własność 4.[2] Dla każdego u [0, 1] funkcja v C(u, v) jest niemalejąca. Analogicznie dla każdego v [0, 1] funkcja u C(u, v) jest także niemalejąca. Dowód. Powyższe rezultaty otrzymujemy jako specjalne przypadki funkcji z Własności 1. Uzyskujemy je poprzez wzięcie u 1 = 0 dla funkcji (1.6) oraz v 1 = 0 dla funkcji (1.7). Z własności tych będziemy korzystać w dalszej części pracy. 1.2 Pochodne kopuł Z definicji kopuł wiemy, że są one funkcjami monotonicznymi. W związku z tym są one różniczkowalne prawie wszędzie [9], czyli możemy określić ich pochodne cząstkowe. Poprzez C,1 będziemy oznaczać pochodną względem pierwszego argumentu, czyli C,1 (u, v) = C(u, v). u Poprzez C,2 oznaczymy pochodną cząstkową względem drugiego argumentu C,2 (u, v) = C(u, v) v oraz przez oznaczymy C,12 pochodną cząstkową mieszaną rzędu drugiego, czyli C,12 (u, v) = 2 C(u, v). u v Pochodne te będą nam potrzebne, aby zdefiniować operację produktową na kopułach. Najpierw jednak zauważmy pewne własności, jakie wykazują te pochodne, a które będą nam przydatne w dalszej części pracy. Własności pochodnych tak jak i przedstawione wcześniej własności kopuł 10

12 przedstawimy dla przypadku dwuwymiarowego, jednak można je uogólnić dla przypadków wielowymiarowych. Twierdzenie 3. [11] Niech C będzie kopułą. Dla dowolnego v I pochodna cząstkowa C,1 (u, v) istnieje dla prawie wszystkich u względem miary Lebesgue a. Dla takich u i v zachodzi 0 C,1 (u, v) 1. (1.11) Podobnie dla dowolnego u I pochodna cząstkowa C,2 (u, v) istnieje dla prawie wszystkich v względem miary Lebesgue a. Dla takich u i v zachodzi 0 C,2 (u, v) 1. (1.12) Co więcej funkcje u C,2 (u, v) i v C,1 (u, v) można określić i są niemalejące prawie wszędzie na I. Dowód. [2],[11] W związku z tym, że kopuły jako funkcje monotoniczne są różniczkowalne prawie wszędzie [9] to od razu otrzymujemy istnienie pochodnych cząstkowych C,1 (u, v) i C,2 (u, v). Nierówności (1.11) i (1.12) wynikają z Własności 3 poprzez wzięcie v 1 = v 2 dla (1.11) i u 1 = u 2 dla (1.12). Dla ustalonego v 1 pochodna cząstkowa C,1 (u, v 1 ) istnieje dla u I v1 I oraz miara Lebesgue a zbioru I v1 wynosi Leb(I v1 ) = 1. Tak samo dla ustalonego v 2 pochodna cząstkowa C,1 (u, v 2 ) istnieje dla u I v2 I oraz miara Lebesgue a zbioru I v2 wynosi Leb(I v2 ) = 1. Zatem, gdy v 1 v 2 otrzymujemy, że pochodna [C(u, v 2 ) C(u, v 1 )],1 = C,1 (u, v 2 ) C,1 (u, v 1 ) 0 (1.13) istnieje dla zbioru I v1 I v2, gdy u I v1 I v2. Gdy Y jest gęstym i przeliczalnym podzbiorem I, to zbiór J = I v, v Y ma miarę Lebesgue a równą Leb(J) = 1. Dla wszystkich v Y i u J pochodna C,1 (u, v) istnieje. Z (1.13) wynika, że funkcja Y v C,1 (u, v) jest niemalejąca dla u J. Czyli funkcję Y v C,1 (u, v) można zdefiniować i jest ona niemalejąca prawie wszędzie dla v I i dla prawie wszystkich u J. Analogiczne rezultaty otrzymujemy dla funkcji u C,2 (u, v). Z powyższego twierdzenia otrzymujemy następujący wniosek. Wniosek 1. Dla funkcji (1.6) oraz (1.7) zachodzi [C(u 2, v) C(u 1, v)],2 0 jeżeli u 1 u 2, (1.14) [C(u, v 2 ) C(u, v 1 )],1 0 jeżeli v 1 v 2. (1.15) 11

13 1.3 Klasa kopuł Archimedesa Klasa kopuł Archimedesa jest ważną klasą kopuł, gdyż kopuły te znajdują wiele zastosowań. Związane jest to z tym, że stosunkowo łatwo można je skonstruować oraz klasa ta jest złożona z wielu rodzin kopuł a co za tym idzie występuje duża różnorodność rodzin. Kopuły należące do klasy kopuł Archimedesa posiadają także wiele przydatnych własności. Zacznijmy od wprowadzenia definicji funkcji pseudo-odwrotnej, która jest wykorzystywana w postaci kopuł z klasy kopuł Archimedesa. Definicja 6. [11] Niech ϕ będzie ciągłą, ściśle malejącą funkcją ϕ : I [0, ] taką, że ϕ(1) = 0. Pseudo-odwrotnością ϕ jest funkcja ϕ [ 1] o dziedzinie [0, ) i zbiorze wartości I określoną przez { ϕ [ 1] ϕ 1 (t), 0 t ϕ(0), (t) = (1.16) 0, ϕ(0) t. Wprost z definicji wynika kilka własności tej funkcji. Mianowicie funkcja ϕ [ 1] jest ciągła i nierosnąca na odcinku [0, ] oraz ściśle malejąca na odcinku [0, ϕ(0)]. Otrzymujemy także, że ϕ [ 1] (ϕ(u)) = u na całym odcinku I, oraz { ϕ(ϕ [ 1] (t)) = t, 0 t ϕ(0) = min(t, ϕ(0)). ϕ(0), ϕ(0) t W sytuacji, gdy ϕ(0) =, to ϕ [ 1] = ϕ 1. Lemat 1. [11] Niech ϕ będzie ciągłą, ściśle malejącą funkcją ϕ : I [0, ] taką, że ϕ(1) = 0 oraz niech ϕ [ 1] będzie funkcją pseudo-odwrotną funkcji ϕ zdefiniowaną poprzez (1.16). Niech C będzie funkcją C : I 2 I określoną przez C(u, v) = ϕ [ 1] (ϕ(u) + ϕ(v)). (1.17) Wtedy C spełnia warunki brzegowe dla kopuł. Dowód. Jako pierwsze sprawdźmy, czy funkcja spełnia warunek (1.2). Wobec tego C(u, 0) = ϕ [ 1] (ϕ(u) + ϕ(0)), argument funkcji pseudo-odwrotnej jest postaci t = ϕ(u) + ϕ(0), czyli t ϕ(0). Zatem z definicji otrzymujemy, że C(u, 0) = ϕ [ 1] (ϕ(u) + ϕ(0)) = 0. Z symetrii mamy także C(0, v) = 0, czyli warunek ten jest spełniony. Sprawdźmy teraz, czy funkcja 12

14 spełnia warunek (1.3): C(u, 1) = ϕ [ 1] (ϕ(u) + ϕ(1)) = ϕ [ 1] (ϕ(u) + 0) = ϕ [ 1] (ϕ(u)) = u Z symetrii otrzymujemy C(1, v) = v. Zatem warunek (1.3) także jest spełniony. Otrzymaliśmy więc, że funkcja postaci C(u, v) = ϕ [ 1] (ϕ(u) + ϕ(v)) spełnia warunki brzegowe (1.2) i (1.3). Lemat 2. [11] Niech ϕ będzie ciągłą, ściśle malejącą funkcją ϕ : I [0, ] taką, że ϕ(1) = 0 oraz niech ϕ [ 1] będzie funkcją pseudo-odwrotną funkcji ϕ zdefiniowaną poprzez (1.16). Niech C będzie funkcją C : I 2 I określoną przez C(u, v) = ϕ [ 1] (ϕ(u) + ϕ(v)) (1.18) spełniającą warunki brzegowe (1.2) i (1.3). Wtedy C jest 2-rosnąca wtedy i tylko wtedy, gdy dla każdego v I oraz u 1 u 2 C(u 2, v) C(u 1, v) u 2 u 1. (1.19) Dowód. Pokażemy, że nierówność (1.19) jest równoważna V C ([u 1, u 2 ] [v, 1]) 0, czyli V C ([u 1, u 2 ] [v, 1]) = C(u 2, 1) C(u 2, v) C(u 1, 1) + C(u 1, v) 0 u 2 C(u 2, v) u 1 + C(u 1, v) 0 C(u 1, v) C(u 2, v) u 1 u 2 C(u 2, v) C(u 1, v) u 2 u 1. Zatem nierówność ta zachodzi zawsze, gdy funkcja C jest 2-rosnąca. Stąd załóżmy, że C spełnia nierówność (1.19). Wybierzmy v 1, v 2 I takie, że v 1 v 2 oraz zauważmy, że C(0, v 2 ) = 0 v 1 v 2 = C(1, v 2 ). Funkcja C jest ciągła, ponieważ funkcje ϕ i ϕ [ 1] są ciągłe, czyli istnieje t I takie, że C(t, v 2 ) = v 1 lub w równoważnej postaci otrzymujemy C(t, v 2 ) = ϕ [ 1] (ϕ(v 2 ) + ϕ(t)) = v 1 ϕ(ϕ [ 1] (ϕ(v 2 ) + ϕ(t))) = ϕ(v 1 ) ϕ(v 2 ) + ϕ(t) = ϕ(v 1 ). A stąd otrzymujemy C(u 2, v 1 ) C(u 1, v 1 ) = ϕ [ 1] (ϕ(u 2 ) + ϕ(v 1 )) ϕ [ 1] (ϕ(u 1 ) + ϕ(v 1 )) = ϕ [ 1] (ϕ(u 2 ) + ϕ(v 2 ) + ϕ(t)) ϕ [ 1] ( (ϕ(u 1 ) + ϕ(v 2 ) + ϕ(t)) [ ] ) = ϕ [ 1] ϕ ϕ [ 1] (ϕ(u 2 ) + ϕ(v 2 )) + ϕ(t) + ( [ ] ) ϕ [ 1] ϕ ϕ [ 1] (ϕ(u 1 ) + ϕ(v 2 )) + ϕ(t) = C(C(u 2, v 2 ), t) C(C(u 1, v 2 ), t) C(u 2, v 2 ) C(u 1, v 2 ). Zatem otrzymaliśmy, że C jest funkcją 2-rosnącą. 13

15 Przejdźmy teraz do twierdzenia dzięki któremu otrzymujemy, że funkcja (1.17) jest kopułą. Dla kopuł, które daje się przedstawić w tej postaci używamy nazwy kopuł Archimedesa. Twierdzenie 4. [11] Niech ϕ będzie ciągłą, ściśle malejącą funkcją ϕ : I [0, ] taką, że ϕ(1) = 0 oraz niech ϕ [ 1] będzie funkcją pseudo-odwrotną funkcji ϕ zdefiniowaną poprzez (1.16). Wtedy funkcja C : I 2 I określona przez C(u, v) = ϕ [ 1] (ϕ(u) + ϕ(v)) jest kopułą wtedy i tylko wtedy, gdy ϕ jest funkcją wypukłą. Zanim przejdziemy do dowodu tego twierdzenia przypomnijmy definicję funkcji wypukłej. Definicja 7. [3] Funkcję f(x) określoną i ciągłą w przedziale A nazywamy wypukłą jeżeli dla dowolnych punktów x 1, x 2 A nierówność f(αx 1 + βx 2 ) αf(x 1 ) + βf(x 2 ) jest spełniona dla wszystkich liczb dodatnich α i β takich, że α + β = 1. Powyższe twierdzenie zostało po raz pierwszy udowodnione przez Alsina et al. w 2005, my bazujemy na dowodzie Nelsena z Przejdźmy zatem do dowodu. Dowód. W Lemacie 1 udowodniliśmy już, że funkcja C spełnia warunki brzegowe występujące w definicji kopuły. Zostaje nam tylko udowodnić, że (1.19) zachodzi wtedy i tylko wtedy, gdy funkcja ϕ jest funkcją wypukłą. Po podstawieniu do nierówności (1.19) wzoru na funkcję C dla u 1 u 2 otrzymujemy odpowiednik tej nierówności ϕ [ 1] (ϕ(u 2 ) + ϕ(v)) ϕ [ 1] (ϕ(u 1 ) + ϕ(v)) u 2 u 1 u 1 + ϕ [ 1] (ϕ(u 2 ) + ϕ(v)) u 2 + ϕ [ 1] (ϕ(u 1 ) + ϕ(v)). Jeżeli teraz oznaczymy a = ϕ(u 1 ), b = ϕ(u 2 ) oraz c = ϕ(v) a następnie podstawimy te oznaczenia do powyższej nierówności to otrzymujemy, że nierówność (1.19) jest równoważna z ϕ [ 1] (a) + ϕ [ 1] (b + c) ϕ [ 1] (b) + ϕ [ 1] (a + c), (1.20) gdzie a b i c 0. Załóżmy teraz, że funkcja pseudo-odwrotna ϕ [ 1] spełnia nierówność (1.20). Wybierzmy dowolne s, t [0, ) spełniające 0 s < t. Jeżeli ustalimy a = s+t 2, b = s i c = t s 2 oraz podstawimy te wartości do nierówności (1.20) to otrzymujemy ( ) ( s + t ϕ [ 1] + ϕ [ 1] 2 ϕ [ 1] ( s + t 2 s + t s 2 ) ( s + t + ϕ [ 1] 2 ) ) ) ( s + t ϕ [ 1] 2 ( 1 ϕ [ 1] 2 s + 1 ) 2 t ϕ [ 1] (s) + ϕ [ 1] ( s + t 2 ϕ [ 1] (s) + ϕ [ 1] (t) ϕ[ 1] (s) + ϕ [ 1] (t) ϕ[ 1] (s) ϕ[ 1] (t). + t s ) 2 Ponieważ funkcja ϕ [ 1] jest funkcją ciągłą to z powyższego wynika, że jest funkcją wypukłą. 14

16 Załóżmy, że funkcja ϕ [ 1] jest funkcją wypukłą. Ustalmy a, b, c I takie, że a b, c 0. Niech γ = a b a b+c. Przekształcimy teraz wzór na γ tak aby otrzymać wzory na a i b + c. (a b + c)γ = a b aγ bγ + cγ = a b aγ + b bγ + cγ = a a = b(1 γ) + γ(a + c). Teraz wyznaczymy wzór na b + c (a b + c)γ = a b aγ + b bγ + cγ + c c = a b + c = a + c aγ + bγ cγ b + c = a(1 γ) + c(1 γ) + bγ b + c = (1 γ)(a + c) + bγ. Stąd nakładając na otrzymane wartości a i b+c funkcję pseudo-odwrotną otrzymujemy nierówności ϕ [ 1] (a) (1 γ)ϕ [ 1] (b) + γϕ [ 1] (a + c) oraz ϕ [ 1] (b + c) γϕ [ 1] (b) + (1 γ)ϕ [ 1] (a + c). Dodajmy teraz powyższe nierówności ϕ [ 1] (a) + ϕ [ 1] (b + c) (1 γ)ϕ [ 1] (b) + γϕ [ 1] (a + c) + + γϕ [ 1] (b) + (1 γ)ϕ [ 1] (a + c) ϕ [ 1] (a) + ϕ [ 1] (b + c) ϕ [ 1] (b) + ϕ [ 1] (a + c). Otrzymaliśmy zatem nierówność (1.20), która była równoważna nierówności (1.19). Zatem dowód został zakończony. Kopuły, które możemy przedstawić w postaci (1.17) nazywane są kopułami Archimedesa. Definicja 8. [10] Ciągłą, ściśle malejącą funkcję wypukłą ϕ : [0, 1] [0, ] spełniającą ϕ(1) = 0 nazywamy generatorem kopuły Archimedesa. Jeżeli ϕ(0) = to mówimy, że ϕ jest generatorem ścisłym. W sytuacji, gdy badany generator okaże się generatorem ścisłym to możemy przyjąć ϕ [ 1] = ϕ 1. Zatem kopułę możemy przedstawić w postaci C(u, v) = ϕ 1 (ϕ(u) + ϕ(v)). Takie kopuły możemy nazywać ścisłymi kopułami Archimedesa. Przejdziemy teraz do przykładów rodzin, które należą do klasy kopuł Archimedesa. Znając generatory (Nelsen, 2006) wyprowadzimy wzory dla trzech rodzin kopuł, a mianowicie dla rodziny kopuł Claytona, Gumbela i Franka. Każda z tych rodzin należy do rodzin kopuł jednoparametrycznych, gdzie parametr θ mówi o stopniu zależności pomiędzy rozkładami brzegowymi. Więcej przykładów kopuł należących do tej klasy wraz z ich generatorami można znaleźć w [11]. 15

17 1.3.1 Kopuła Claytona Generator rodziny kopuł Claytona jest postaci [11]: ϕ θ (t) = t θ 1, θ [ 1, )\{0. θ Sprawdzimy najpierw, czy generator ten jest generatorem ścisłym ϕ θ (0) = 0 θ 1 θ = 1 θ. Generator w punkcie 0 jest rożny od, czyli nie jest generatorem ścisłym. Zatem dla t [0, 1 θ ] funkcja pseudo-odwrotna wynosi ϕ 1 (t), a dla t [ 1 θ, ] wynosi 0. Możemy zatem zapisać ją w postaci ϕ [ 1] (t) = max{ϕ 1 (t), 0. Wyznaczmy teraz funkcję odwrotną dla generatora ϕ θ (t) = t θ 1 θ θ ϕ θ (t) + 1 = t θ = 1 t θ (θ ϕ θ (t) + 1) 1 θ = 1 t t = (θ ϕ θ (t) + 1) 1 θ. Zatem funkcja pseudo-odwrotna jest postaci ϕ [ 1] (t) = max{(θt + 1) 1 θ, 0. Podstawimy teraz otrzymaną funkcję do wzoru na kopułę (1.17) C Cl θ (u, v) = ϕ [ 1] (ϕ(u) + ϕ(v)) = ϕ [ 1] ( u θ 1 θ + v θ 1 ) θ = ϕ [ 1] ( u θ + v θ 2 ) θ = max{(θ u θ + v θ 2 + 1) 1 θ, 0 θ = max{(u θ + v θ 1) 1 θ, 0. Otrzymaliśmy zatem wzór ogólny na rodzinę kopuł Claytona dla parametru θ [ 1, )\{0. W przypadku, gdy parametr θ 0 możemy mówić o kopule, która posiada niezależne rozkłady brzegowe. Na poniższych wykresach pokazane są gęstość rozkładu kopuły Claytona oraz 1000 elementowa próba losowa z kopuły Claytona (w obu przypadkach parametr θ = 5, rozkładami brzegowymi są standardowe rozkłady jednostajne). 16

18 a b Rysunek 1.4: Kopuła Claytona (a) wykres gęstości, (b) próba losowa 1000 elementowa Kody z programu R generujące powyższe wykresy znajdują się w załączniku 2A Kopuła Gumbela Generator kopuły Gumbela jest postaci [11]: ϕ θ (t) = ( ln t) θ, θ [1, ). Jako pierwsze sprawdzimy, czy generator ten jest generatorem ścisłym. Zatem ϕ θ (0) = ( ln 0) θ =, wartość funkcji w punkcie 0 wynosi, czyli otrzymaliśmy generator ścisły. W takim przypadku funkcja pseudo-odwrotna jest równa funkcji odwrotnej dla każdego t. Wyznaczmy więc funkcję odwrotną do funkcji ϕ ϕ θ (t) = ( ln t) θ ϕ θ (t) 1 θ = ln t t = e ϕ θ(t) 1 θ. Wyznaczyliśmy funkcję odwrotną postaci ϕ 1 θ (t) = e t 1 θ i możemy wstawić ją do wzoru na kopułę (1.17). Zatem C Gu θ (u, v) = ϕ [ 1] (ϕ(u) + ϕ(v)) = ϕ 1 (( ln u) θ + ( ln v) θ ) = exp{ (( ln u) θ + ( ln v) θ ) 1 θ. Czyli otrzymaliśmy wzór na rodzinę kopuł Gumbela zależną od parametru θ [1, ). W przypadku, gdy wartość parametru θ wynosi 1 to otrzymujemy kopułę o niezależnych rozkładach brzegowych. Na poniższych wykresach widzimy wykres gęstości kopuły Gumbela oraz 1000 elementową próbę losową z tej kopuły, dla obu wykresów przyjęliśmy θ = 5 oraz rozkładami brzegowymi są standardowe rozkłady jednostajne. 17

19 a b Rysunek 1.5: Kopuła Gumbela (a) wykres gęstości, (b) próba losowa 1000 elementowa Kod dla programu R, z którego otrzymaliśmy powyższe wykresy można znaleźć w załączniku 2B Kopuła Franka Generator dla rodziny kopuł Franka ma postać [11]: ϕ θ (t) = ln e θt 1 e θ 1, θ (, )\{0. Sprawdzimy, czy generator jest generatorem ścisłym ϕ θ (0) = ln e θ 0 1 e θ 1 =. Tak jak i dla kopuły Gumbela wartość funkcji w punkcie 0 wynosi, zatem generator ϕ jest generatorem ścisłym i funkcja pseudo-odwrotna jest równa funkcji odwrotnej. Wyznaczymy zatem funkcję odwrotną: Czyli funkcja odwrotna jest postaci ϕ θ (t) = ln e θt 1 e θ 1 ϕ θ (t) = ln e θt 1 e θ 1 e ϕ θ(t) = e θt 1 e θ 1 (e θ 1)e ϕθ(t) + 1 = e θt ln[(e θ 1)e ϕ θ(t) + 1] = ln e θt θt = ln[(e θ 1)e ϕ θ(t) + 1] t = ln[(e θ 1)e ϕθ(t) + 1]. θ ϕ 1 θ (t) = 1 θ ln[(e θ 1)e t + 1]. 18

20 Tak wyznaczoną funkcję możemy wstawić do wzoru na kopułę C F r θ (u, v) = ϕ [ 1] (ϕ(u) + ϕ(v)) = ϕ 1 (ϕ(u) + ϕ(v)) ( ) = ϕ 1 ln e θu 1 e θ 1 ln e θv 1 e θ 1 ( ) = ϕ 1 ln e θ 1 e θu 1 ln e θv 1 e θ 1 ( ) = ϕ 1 ln e θ 1 e θu 1 e θ 1 e θv 1 = ϕ 1 (ln = 1 θ ln [ (e θ 1) 2 (e θu 1)(e θv 1) ) 1 + (e θ 1)e ln (e θ 1) 2 (e θu 1)(e θv 1) = 1 [ θ ln 1 + (e θ 1) (e θu 1)(e θv 1) (e θ 1) 2 = 1 θ ln [ 1 + (e θu 1)(e θv 1) (e θ 1) Otrzymaliśmy zatem wzór na kopuły należące do rodziny kopuł Franka w zależności od parametru θ (, )\{0. Poniższe wykresy przedstawiają gęstość kopuły oraz 1000-elementową próbę losową, gdy za parametr θ przyjęliśmy wartość 5 oraz użyliśmy jednostajnych rozkładów brzegowych. ]. ] ] a b Rysunek 1.6: Kopuła Franka (a) wykres gęstości, (b) próba losowa 1000 elementowa W załączniku 2C znajduje się kod ze środowiska R, dzięki któremu otrzymaliśmy powyższe wykresy. 19

21 Rozdział 2 Procesy stochastyczne Zaczniemy od ogólnego wprowadzenia do procesów stochastycznych, a następnie przejdziemy do przykładów procesów takich jak proces Wienera, czy geometryczny ruch Browna. Powiemy także jaki proces możemy nazwać procesem Markowa. 2.1 Proces stochastyczny Możemy powiedzieć, że procesy stochastyczne jest to teoria zajmująca się badaniem ciągów zmiennych losowych {X t t T określonych na danej przestrzeni probabilistycznej (Ω, F, P ), gdzie t T zazwyczaj oznacza czas. Można także powiedzieć, że jest to matematyczna teoria służąca do opisu modelowania i prognozy zjawisk losowych podlegających ewolucji. Przykładami procesów mogą być ceny akcji na giełdzie, kursy walut, gra hazardowa, wartość temperatury itp.. W pracy proces stochastyczny w skrócie będziemy nazywać procesem. Niech (Ω, F, P ) będzie przestrzenią probabilistyczną, gdzie Ω jest to zbiór zdarzeń elementarnych, F jest to σ-ciało zdarzeń, a P jest miarą probabilistyczną. Gdy proces przebiega w czasie to możemy wyróżnić dwa rodzaje czasu: czas dyskretny i czas ciągły. O czasie dyskretnym mówimy, gdy zjawisko badamy w ustalonych momentach, wtedy zbiór chwil jest zbiorem przeliczalnym i zazwyczaj w postaci T {0, 1,... {. Natomiast o czasie ciągłym mówimy, gdy badamy zjawisko stale i wtedy zbiór chwili jest zbiorem zawartym w [, ], zazwyczaj przyjmuje się T = [0, ) lub T = [0, T ]. Dla tak określonej przestrzeni możemy wprowadzić pojęcie filtracji. Definicja 9. [6] Filtracją nazywamy niemalejącą rodzinę σ-ciał F = (F t ) t T, gdzie F s F t F dla s < t; s, t T. Możemy powiedzieć, że filtracja niesie informację o procesie do chwili t, gdyż w chwili obecnej wiemy jaki był stan procesu wcześniej i czy dane zdarzenie zaszło. Znając definicję filtracji możemy zdefiniować, czym jest proces stochastyczny. Definicja 10. [7] Rodzinę zmiennych losowych (X t ) t T nazywamy procesem stochastycznym. Proces jest adaptowany do filtracji F = (F t ) t T, jeśli dla każdego t T zmienna losowa X t jest F t -mierzalna. Funkcja t X(, ω) dla ustalonego zdarzenia ω nazywana jest realizacją procesu stochastycznego lub trajektorią procesu. Interpretacja trajektorii jest taka, że funkcja ta mówi nam o przebiegu badanego zjawiska w czasie dla konkretnego zdarzenia ω. Gdy badamy proces z czasem ciągłym, to proces taki ma trajektorie ciągłe. Gdy zbiór chwil T jest zbiorem przeliczalnym, to możemy mówić o procesie stochastycznym 20

22 X jako o ciągu losowym w postaci X 1, X 2,.... Ważnymi pojęciami są także przestrzeń stanów oraz stany procesu. Możemy powiedzieć, że pojęcie stanów procesu jest tym samym co wartość zmiennej losowej, natomiast zmianę stanów procesu nazywamy przejściem. Definicja 11. [12] Jeśli dla każdego t T funkcja X : T Ω X, przekształca zbiór T Ω na zbiór X, to X nazywamy przestrzenią stanu procesu stochastycznego, a elementy zbioru X stanami procesu stochastycznego. Przejdźmy teraz do określenia pojęcia czasu stopu procesu. Ogólnie mówiąc czas stopu jest to moment, w którym proces osiągnie satysfakcjonujący nas wynik (ustalone wcześniej bariery) i zostanie przerwany. Formalna definicja brzmi: Definicja 12. [6] Czasem stopu względem filtracji (F t ) t T nazywamy zmienną losową τ : Ω T {+, spełniającą warunek {τ t F t dla wszystkich t T. Dla czasu stopu można również użyć nazwy jak moment stopu, moment zatrzymania czy moment Markowa. Wprowadźmy jeszcze definicję na martyngał. Definicja 13. [6] Rodzina (X t, F t ) t T, gdzie zmienne losowe X t są całkowalne dla t T jest martyngałem, jeśli dla s t, s, t T E(X t F s ) = X s. 2.2 Proces Markowa Jednym z rodzajów procesów stochastycznych jest proces Markowa. Jest to dość popularny proces, gdyż charakteryzuje się on tak zwanym brakiem pamięci. Zacznijmy więc od wprowadzenia formalnej definicji. Definicja 14. [11] Proces X t, t T jest procesem Markowa jeżeli dla każdego skończonego podzbioru {t 1, t 2,..., t n zbioru T oraz dla dowolnego t T takiego, że t 1 < t 2 <... < t n < t zachodzi P (X t x X t1 = x 1, X t2 = x 2,..., X tn = x n ) = P (X t x X tn = x n ). (2.1) Warunek (2.1) nazywany jest własnością Markowa. Powyższą własność możemy rozumieć w następujący sposób: stan procesu stochastycznego X w badanej chwili t jest zależny od tego jaki był stan tego procesu w chwili t n, natomiast nie jest zależny od stanów procesu we wszystkich chwilach wcześniejszych niż chwila t n, czyli nie zależy od chwil t 1, t 2,..., t n 1. W sytuacji, gdy chwilę t nazwiemy przyszłością, chwilę t n teraźniejszością oraz chwile t 1,..., t n 1 przeszłością własność Markowa możemy rozumieć następująco: procesem Markowa nazywamy taki proces stochastyczny X, którego stan w przyszłości jest zależny od stanu w teraźniejszości i nie jest zależny od stanów z przeszłości. 21

23 2.3 Proces Wienera Proces Wienera jest to matematyczny model fizycznego zjawiska ruchu cząsteczek zawieszonych w cieczy nazywanego ruchem Browna. Aby móc powiedzieć, że proces stochastyczny jest procesem Wienera musi on spełniać poniższą definicję: Definicja 15. [6] Standardowym procesem Wienera nazywamy proces W spełniający następujące warunki: 1. W 0 = 0, 2. przyrosty procesu są niezależne, czyli jeśli 0 < t 1 <... < t n, to zmienne losowe W t1, W t2 W t1,..., W tn W tn 1 są niezależne, 3. dla wszystkich t oraz dla u 0 W t+u W u N (0, t), gdzie parametr t oznacza wariancję, 4. trajektorie procesu są ciągłe. Na rysunku 2.1 widzimy 15 niezależnych symulacji trajektorii procesu Wienera (kod z programu R w załączniku 3). Rysunek 2.1: Realizacje jednowymiarowego procesu Wienera Proces Wienera jest przykładem procesu Markowa (Shmitz, 2003; za Karatzas i Shreve, 2000),[7]. Wiemy także, że chociaż trajektorie procesu są ciągłe to są one nieróżniczkowalne (dowód tego można znaleźć w [6]). Proces ten wykorzystamy w następnej części tego rozdziału, aby otrzymać geometryczny ruch Browna. 22

24 2.4 Geometryczny ruch Browna Zajmiemy się teraz procesem stochastycznym, który nosi nazwę geometrycznego ruchu Browna. Proces ten znajduje zastosowanie do modelowania procesów, których wartości nigdy nie schodzą poniżej zera. Przykładem takiego procesu może być proces ceny akcji, który zawsze jest dodatni. W związku z tym geometryczny ruch Browna znajduje zastosowanie przy wycenie opcji w modelu Blacka-Scholesa (model ten omówimy w rozdziale 5.2). Definicja 16. [7] Mówimy, że proces stochastyczny S t jest geometrycznym ruchem Browna, gdy jest on postaci σ2 ((µ S t = S 0 e 2 )t+σwt), gdzie S t oznacza cenę akcji w chwili t, S 0 jest to cena akcji w chwili 0. Przez µ oznaczamy dryft, przez σ oznaczamy zmienność ceny, natomiast W t jest to proces Wienera. Wartość parametru σ zazwyczaj mieści się w przedziale [0, 15; 0, 6]. Powyższe równanie jest rozwiązaniem równania stochastycznego postaci ds t = µs t dt + σs t dw t. (2.2) Pokażemy teraz własność rozwiązania tego równania: zmienna losowa St S 0 ma rozkład logarytmicznie normalny. Skoro zmienna losowa ma mieć rozkład logarytmicznie normalny to znaczy, że logarytm tej zmiennej losowej ma rozkład normalny, zatem ln S t S 0 N ((µ σ2 2 )t, σ2 t). Powyższą własność sprawdzimy numerycznie, najpierw jednak określmy parametry na których będzie pracować. Dla 1000 trajektorii będziemy badać wartość procesu w chwili T = 1, gdzie t = 0, 001. Za wartość początkową procesu przyjmujemy S 0 = 1 oraz ustalamy parametry µ = 0, 15 i σ = 0, 3. Dla takich wartości będziemy generować trajektorie geometrycznego ruchu Browna. Aby wygenerować taką trajektorię i co za tym idzie rozwiązanie równania (2.2) stosujemy prostą metodę [8]. Pierwsze co musimy zrobić to zdyskretyzować czas T poprzez ustalenie kroku t. Tak więc możemy określić proces dyskretny (S n ) n 0, dzięki któremu otrzymamy aproksymację rozwiązania równania stochastycznego w chwili T = n t. Dla czasu dyskretnego równanie stochastyczne możemy zapisać { S 0 = x S n+1 S n = µs n t + σ(w (n+1) t W n t ), gdzie W jest procesem Wienera, a ciąg przyrostów (W (n+1) t W n t ) jest ciągiem niezależnych zmiennych losowych o rozkładzie normalnym o średniej 0 i wariancji t. W symulacjach przyrost ten zastępujemy przez g n t, gdzie (gn ) n 0 jest ciągiem niezależnych zmiennych losowych o standardowym rozkładzie normalnym N (0, 1). Przy użyciu takiego oznaczenia równanie stochastyczne możemy zapisać { S 0 = x S n+1 = S n + µs n t + σ tg n. Możemy więc już wygenerować trajektorie. Na rysunku 2.2 (a) widoczna jest pojedyncza realizacja, natomiast na rysunku (b) widzimy 1000 niezależnych trajektorii tego procesu. 23

25 a b Rysunek 2.2: Realizacje geometrycznego ruchu Browna (a) pojedyncza realizacja, (b) 1000 niezależnych realizacji Dla tak wygenerowanych trajektorii sprawdzimy, czy wartość procesu w chwili T ma rozkład lognormalny. Na początku utworzymy histogram 1000 wartości St S 0. Chcemy nanieś na niego także krzywą gęstości rozkładu lognormalnego, więc dla otrzymanych wartości St S 0 znajdujemy wartość oczekiwaną oraz odchylenie standardowe takie, aby zmienne miały rozkład lognormalny. Dla takich parametrów generujemy krzywą gęstości. Na poniższym rysunku widzimy histogram otrzymanych wartości wraz z krzywą gęstości rozkładu lognormalnego. Ponieważ wykresy nakładają się na siebie możemy założyć, że rozwiązanie równania różniczkowego ma rozkład lognormalny. Rysunek 2.3: Histogram wraz z krzywą gęstości rozkładu lognormalnego dla wartości S T S0 Aby mieć pewność, że zmienna ta ma rozkład lognormalny przeprowadzimy test statystyczny. Będzie to test Shapiro-Wilka, który sprawdza normalność rozkładu. Za poziom istotności przyjmujemy α = 0, 05 oraz badamy następujące hipotezy: H 0 : zmienna ma rozkład normalny 24

26 H a : zmienna nie ma rozkładu normalnego. Aby użyć tego testu musimy najpierw zlogarytmować otrzymane wcześniej wartości S T S0. Zanim przejdziemy do wyników testu, stworzymy histogram zlogarytmowanych wartości wraz z krzywą gęstości rozkładu normalnego o parametrach dopasowanych do naszych wartości. Krzywa i histogram pokrywają się, co pozwala nam twierdzić, że jest to rozkład normalny. Rysunek 2.4: Histogram wraz z krzywą gęstości rozkładu normalnego dla wartości ln S T S0 Dla potwierdzenia poniżej prezentujemy wyniki testu Shapiro-Wilka. Otrzymaliśmy p-wartość równą 0, 4738, jest ona większa od przyjętego poziomu istotności. Nie mamy zatem podstaw do odrzucenia hipotezy zerowej mówiącej o normalności rozkładu. Potwierdziliśmy tym, że geometryczny ruch Browna ma rozkład lognormalny. Rysunek 2.5: Wynik testu Shapiro-Wilka dla badanej próbki Kod z programu R generujący wszystkie powyższe wykresy znajduje się w załączniku 4. 25

27 Rozdział 3 Operacja produktowa dla kopuł i proces Markowa 3.1 Operacja produktowa Wprowadzimy teraz definicję operacji produktowej * na kopułach, która to wykorzystuje zdefiniowane wcześniej pochodne cząstkowe. Definicja 17. [2] Niech A, B C. Operacja produktowa * z A i B jest funkcją A B : I 2 I określoną następująco x,y [0,1] (A B)(x, y) = 1 0 A,2 (x, t)b,1 (t, y)dt. (3.1) Z pokazanej wcześniej Własności 3. wiemy, że kopuły A i B są funkcjami ciągłymi, zatem całka w powyższej definicji istnieje. Kolejne twierdzenie gwarantuje nam, że tak zdefiniowana operacja produktowa jest kopułą. Twierdzenie 5. [2] A B C. Dowód. [2] Mamy wykazać, że produkt A B jest kopułą, zatem musimy sprawdzić warunki na 2-kopułę. Niech C = A B oraz niech x, ξ, y, η [0, 1] spełniają zależności 0 x ξ 1 i 0 y η 1. Jako pierwsze wykażemy spełnienie warunków brzegowych a następnie warunku monotoniczności. 1. (Warunki brzegowe) x,y [0,1] C(0, y) = C(x, 0) = 0 C(0, y) = (A B)(0, y) = = B,1 (t, y)dt = 0, A,2 (0, t)b,1 (t, y)dt 26

28 C(x, 0) = (A B)(x, 0) = = 1 x,y [0,1] C(x, 1) = x i C(1, y) = y C(x, 1) = (A B)(x, 1) = = = x 0 = x, 1 0 A,2 (x, t) 0dt = A,2 (x, t)b,1 (t, 0)dt A,2 (x, t)b,1 (t, 1)dt A,2 (x, t) 1dt = A(x, t) 1 0 = A(x, 1) A(x, 0) C(1, y) = (A B)(1, y) = = 1 0 = y 0 = y. 1 0 A,2 (1, t)b,1 (t, y)dt 1 B,1 (t, y)dt = B(t, y) 1 0 = B(1, y) B(0, y) Wykazaliśmy, że warunki brzegowe są spełnione. 2. (Warunek monotoniczności) Musimy wykazać, że x,y,ξ,η [0,1];x ξ;y η C(x, y) + C(ξ, η) C(x, η) C(ξ, y) 0, C(x, y) + C(ξ, η) C(x, η) C(ξ, y) = = (A B)(x, y) + (A B)(ξ, η) (A B)(x, η) (A B)(ξ, y) = = = = A,2 (x, t)b,1 (t, y)dt + A,2 (x, t)b,1 (t, η)dt A,2 (ξ, t)b,1 (t, η)dt + A,2 (ξ, t)b,1 (t, y)dt ( A,2 (x, t) [B,1 (t, η) B,1 (t, y)] + A,2 (ξ, t) [B,1 (t, η) B,1 (t, y)]) dt [A,2 (ξ, t) A,2 (x, t)] [B,1 (t, η) B,1 (t, y)] dt [A(ξ, t) A(x, t)],2 [B(t, η) B(t, y)],1 dt. Z (1.14) oraz (1.15) mamy, że funkcje podcałkowe są nieujemne zatem otrzymujemy C(x, y) + C(ξ, η) C(x, η) C(ξ, y) 0. Zatem wykazaliśmy, że warunek monotoniczności dla operacji * dla kopuł jest spełniony. Warunki na kopułę są spełnione, zatem A B C. Dla n > 2 definicję operacji * możemy uogólnić. W takim przypadku definicja ta brzmi następująco: Definicja 18. (Produkt ) [2] 27

29 Niech A będzie m-kopułą oraz niech B będzie n-kopułą. Produkt jest funkcją A B : [0, 1] m+n 1 [0, 1] określoną następująco A B(x 1,..., x m+n 1 ) = xm 0 A,m (x 1,..., x m 1, ξ)b,1 (ξ, x m+1,..., x m+n 1 )dξ. (3.2) W przypadku, gdy n = m = 2 pomiędzy produktami i zachodzi następująca relacja: A B(x, y) = A B(x, 1, y), A B jest (m+n-1)-kopułą. 3.2 Operacja produktowa a proces Markowa W tym podrozdziale przedstawimy twierdzenie, które łączy procesy Markowa z funkcjami kopuł. Gdy będziemy używać oznaczenia F t będziemy mieli na myśli dystrybuantę F Xt, natomiast C st oznaczać będzie kopułę C XsX t. Niech X oraz Y będą zmiennymi losowymi zdefiniowanymi na tej samej przestrzeni probabilistycznej oraz niech C oznacza ich kopułę. Kolejne twierdzenie łączy pochodne cząstkowe kopuł z dystrybuantami warunkowymi postaci E(I X<x Y ) oraz E(I Y <y X). Twierdzenie 6. [2] Jeżeli rzeczywiste zmienne losowe X i Y mają kopułę C i ciągłe dystrybuanty brzegowe F X i F Y, to x R E(I X x Y )(ω) = C,2 (F X (x), F Y (Y (ω))) prawie na pewno (3.3) oraz y R E(I Y y X)(ω) = C,1 (F X (X(ω)), F Y (y)) prawie na pewno. (3.4) Uwaga 1. Jeżeli założymy, że zmienne losowe X i Y mają dystrybuanty ciągłe i ściśle rosnące to zachodzi P (X x Y = y) = C,2 (F X (x), F Y (y)) czyli, że prawdopodobieństwa warunkowe są pochodnymi cząstkowymi kopuł. Dowód uwagi 1. P (X x Y = y) = lim P (X x y < Y y + y) y 0 = P (X x, y < Y y + y) lim y 0 P (y < Y y + y) = lim y 0 P (X x, Y (, y + y]\(, y]) P (Y (, y + y]\(, y]) P (X x, Y y + y) P (X x, Y y) = lim y 0 P (Y y + y) P (Y y) F XY (x, y + y) F XY (x, y) = lim y 0 F Y (y + y) F Y (y) 28

30 korzystając w tym momencie z twierdzenia Sklar a oraz wprowadzając oznaczenie y = F Y (y + y) F Y (y) otrzymujemy P (X x Y = y) = C(F X (x), F Y (y + y)) C(F X (x), F Y (y)) lim y 0 F Y (y + y) F Y (y) = C(F X (x), F Y (y) + y) C(F X (x), F Y (y)) lim y 0 y = F Y (y) C(F X(x), F Y (y)) = C,2 (F X (x), F Y (y)). Przejdźmy teraz do dowodu twierdzenia. Dowód twierdzenia 6. [2] Dowód przeprowadzimy dla przypadku ciągłych dystrybuant, pełny dowód można znaleźć w [2]. Wykażemy tylko pierwsze równanie z twierdzenia, czyli równanie (3.3). Równanie (3.4) dowodzi się w sposób analogiczny. Niech σ(y ) oznacza σ-algebrę generowaną przez zmienną losową Y. Ponieważ funkcja ω C,2 (F X (x), F Y (Y (ω))) jest funkcją mierzalną względem σ(y ) to musimy pokazać, że dla każdego zbioru A należącego do tej σ-algebry oraz dla każdego x zachodzi: A C,2 (F X (x), F Y (Y (ω)))dp (ω)) = Powyższą równość wystarczy wykazać dla A postaci A = Y 1 ((, a]). Czyli A C,2 (F X (x), F Y (Y ))dp = a A I X x (ω))dp (ω)). (3.5) C,2 (F X (x), F Y (ξ))df Y (ξ) stosując teraz podstawienie F Y (ξ) = η oraz pamiętając o założeniu o ciągłości dystrybuanty F Y otrzymujemy a C,2 (F X (x), F Y (ξ))df Y (ξ) = FY (a) 0 C,2 (F X (x), η)dη = C(F X (x), η) F Y (a) 0 = C(F X (x), F Y (a)) C(F X (x), 0) = C(F X (x), F Y (a)) 0 = F X,Y (x, a) = I X x I Y a dp Ω = I X x dp. Zatem otrzymaliśmy równość (3.5), czyli równanie (3.3) zachodzi. Poniższy lemat wykorzystamy w dowodzie kolejnego twierdzenia, które łączy produkt * i procesy Markowa. Lemat 3. [2] A 29

31 Niech A i B będą kopułami. Wtedy dla prawie wszystkich x, x 1 0 A,1 (t, y)b,2 (x, t)dt = 1 0 A,1 (t, y)b,1 (x, dt). (3.6) Dowód tego lematu można znaleźć w [2]. Jak już wcześniej wspomnieliśmy proces stochastyczny możemy nazwać procesem Markowa, gdy proces ten spełnia własność Markowa. Własność tę możemy także nazwać własnością warunkowej niezależności i dla przypomnienia jest ona postaci E(I Xt λ X t1,..., X tn ) = E(I Xt λ X tn ). (3.7) Poniższe twierdzenie daje nam warunek przedstawiony w języku kopuł, który jest równoważny do równania Champmana-Kołmogorowa. Twierdzenie to daje nam także interpretację operacji *. Twierdzenie 7. [2] Niech X t, t T będzie rzeczywistym procesem stochastycznym oraz dla każdego s, t T niech C st oznacza kopułę dla zmiennych losowych X s i X t. Następujące warunki są równoważne: 1. Prawdopodobieństwa przejść P (s, x, t, A) = P (X t A X s = x) procesu spełniają równanie Chapmana-Kołmogorowa P (s, x, t, A) = P (u, ξ, t, A)P (s, x, u, dξ) (3.8) dla każdego zbioru borelowskiego A, dla każdego s < t; oraz dla prawie wszystkich x R. s, t T, dla każdego u (s, t) T 2. Dla każdego s, u, t T spełniających s < u < t, C st = C su C ut. (3.9) Dowód. Dowód przeprowadzimy zakładając, że zmienne losowe procesu są ciągłe. (2) (1) Zakładamy, że dla każdego s, u, t T spełniających zależność s < u < t zachodzi C st = C su C ut. Zauważmy, że ponieważ dla każdego s < t i dla prawie każdego x odwzorowanie A P (s, x, t, A) jest miarą probabilistyczną, wystarczy sprawdzić równanie Chapmana-Kołmogorowa (3.8) dla zbiorów borelowskich A, w postaci A = (, a), czyli σ{a = (, a) = B R. Dla takich zbiorów otrzymujemy P (s, x, t, A) = P (s, x, t, (, a)) = P (X t (, a) X s = x), zbiór {X t (, a) możemy także zapisać w postaci {ω : X t (ω) < a, czyli P (X t (, a) X s = x) = E(I Xt<a X s = x), 30

32 natomiast wykorzystując w tym momencie równanie (3.3) mamy E(I Xt<a X s = x) = C st,1 (F s (X s (ω), F t (a))) Zatem korzystając z Twierdzenia 6. otrzymujemy = C st,1 (F s (x), F t (a)). P (s, x, t, A) = C st,1 (F s (x), F t (a)) prawie na pewno. (3.10) Dla zbiorów A w postaci A = (, a) oraz dla prawie wszystkich x otrzymujemy P (u, ξ, t, A)P (s, x, u, dξ) = = 1 0 C ut,1 (F u (ξ), F t (a))c su,1 (F s (x), F u (dξ)) C ut,1 (η, F t (a))c su,1 (F s (x), dη), podstawiając teraz F s (x) = ζ oraz korzystając z Lematu 3 mamy 1 0 C ut,1 (η, F t (a))c su,1 (F s (x), dη) = ζ = 1 0 F s (x) C ut,1 (η, F t (a))c su,2 (ζ, η)dη ζ=fs(x) 1 0 C su,2 (F s (x), η)c ut,1 (η, F t (a))dη, wykorzystując w tym miejscu definicję operacji * otrzymujemy F s (x) 1 0 C su,2 (F s (x), η)c ut,1 (η, F t (a))dη = F s (x) (C su C ut )(F s (x), F t (a)) = (C su C ut ),1 (F s (x), F t (a)) = C st,1 (F s (x), F t (a)) = P (s, x, t, A). Równanie (3.8) zostało wykazane, czyli dowód w tą stronę został zakończony. (1) (2) Aby udowodnić twierdzenie w tą stronę zakładamy, że równanie Chapmana-Kołmogorowa (3.8) zachodzi. Zatem korzystając z tego co udowodniliśmy powyżej, a mianowicie z równości (3.10) dla prawie wszystkich x otrzymujemy Więc z (3.9) otrzymujemy P (u, ξ, t, A)P (s, x, u, dξ) = P (s, x, t, a) = C st,1 (F s (x), F t (a)). C st,1 (F s (x), F t (a)) = (C su C ut ),1 (F s (x), F t (a)). Zatem dowód twierdzenia został zakończony. Powyższe twierdzenie pokazuje, że spełnienie równania Chapmana-Kołmogorowa jest warunkiem koniecznym ale nie wystarczającym na to aby badany proces był procesem Markowa. Można jednak określić warunek wystarczający w języku kopuł, służy do tego kolejne twierdzenie. Twierdzenie 8. [2] Rzeczywisty proces stochastyczny X t, t T jest procesem Markowa wtedy i tylko wtedy, gdy dla 31

33 wszystkich dodatnich liczb całkowitych n oraz dla wszystkich t 1,..., t n T spełniających t k < t k+1, k = 1,..., n 1, zachodzi C t1...t n = C t1t 2 C t2t 3 C tn 1t n, (3.11) gdzie C t1...t n jest kopułą z X t1,..., X tn oraz C tk t k+1 jest kopułą z X tk oraz X tk+1. Dowód twierdzenia można znaleźć w pracy Darsow a [2]. Jak zauważył Darsow(1992) w swojej pracy, podejście przez niego przedstawione jest zupełnie inne od standardowego podejścia do procesów Markowa. Darsow opisał, że standardowe podejście polega na tym, że proces Markowa określa się poprzez określenie rozkładu początkowego F t0 oraz ustalenie rodziny prawdopodobieństw przejść P (s, x, t, A), która spełnia równanie Chapmana-Kołmogorowa. W podejściu tym, gdy będziemy mieć prawdopodobieństwo przejść ustalone i zmienimy rozkład początkowy to konieczne będzie zmienienie wszystkich rozkładów brzegowych. Natomiast podejście oparte na kopułach jest podejściem alternatywnym i polega ono na tym, że proces Markowa precyzujemy podając wszystkie rozkłady brzegowe oraz rodzinę kopuł, która spełnia równanie (3.9). W podejściu tym, gdy zmienimy rozkład początkowy nie zmieniając kopuły procesu, to nie ma to jakiegokolwiek wpływu na pozostałe rozkłady brzegowe. 3.3 Przykład: kopuła ruchu Browna Zajmiemy się teraz przykładem konstrukcji kopuły dla znanego procesu Markowa, gdyż mając taką kopułę można określić nowy proces oparty na tej rodzinie kopuł oraz o innych rozkładach brzegowych. Zajmijmy się zatem konstrukcją takiej kopuły, gdzie procesem Markowa którego do tego użyjemy będzie ruch Browna. Przykład ten jest opracowany w oparciu o [2], [14] i [11]. Niech B t będzie procesem ruchu Browna oraz niech Φ oznacza dystrybuantę standardowego rozkładu normalnego. Dla ruchu Browna prawdopodobieństwo przejść jest postaci [11] ( ) xt x s P (s, x s ; t, x t ) := P (B t x t B s = x s ) = Φ, s < t, x s, x t R. (3.12) t s Z Twierdzenia 6 wiemy, że prawdopodobieństwo warunkowe jest pochodną kopuły. Otrzymujemy zatem, że prawdopodobieństwo przejścia jest postaci P (s, x s ; t, x t ) = C st,1 (F s (x s ), F t (x t )), gdzie C st,1 oznacza kopułę od zmiennych losowych B s i B t, a F s i F t są ich odpowiednimi dystrybuantami brzegowymi. Mamy zatem wzór na pochodną kopuły w postaci ( ) xt x s C st,1 (F s (x s ), F t (x t )) = Φ, t s możemy więc wyznaczyć wzór na kopułę ruchu Browna. Dla 0 < s < t otrzymujemy: C st (F s (x s ), F t (x t )) = = xs xs C st,1 (F s (z), F t (x t ))df s (z) ( ) xt z Φ df s (z). t s 32

34 Zakładając, że B 0 = 0 przyrost B t B 0 ma rozkład N (0, t). W związku z tym rozkład brzegowy jest postaci F t (x t ) = Φ( xt t ) dla t > 0. Podstawimy to do powyższego wzoru, potrzebujemy jeszcze tylko wyznaczyć x s i x t, czyli F t (x t ) = Φ( x t t ) Φ 1 (F t (x t )) = x t t x t = tφ 1 (F t (x t )), Analogicznie otrzymujemy x s. Dla uproszczenia F s (x s ) oznaczymy przez u, a F t (x t ) przez v. Zatem otrzymujemy kopułę ruchu Browna w postaci C st (u, v) = u W takim przypadku pochodną możemy zapisać 0 ( tφ 1 (v) sφ 1 ) (w) Φ dw. t s ( tφ 1 (v) sφ 1 ) (u) C st,1 (u, v) = Φ. t s W związku z metodą konstrukcji otrzymaliśmy, że kopuła C st (u, v) jest rodziną kopuł, która spełnia równanie (3.9). 33

35 Rozdział 4 Konstrukcja procesów stochastycznych opartych na kopułach Rozdział ten poświęcony jest konstrukcji procesów stochastycznych bazujących na kopułach. Przedstawimy procesy oparte na trzech kopułach: kopule ruchu Browna, kopule Claytona oraz kopule Franka. 4.1 Metoda konstrukcji procesu Opiszemy teraz sposób, w jaki tworzymy trajektorię procesu opartego na kopule. Z Twierdzenia 6 wiemy, że pochodna cząstkowa jest równa prawdopodobieństwu warunkowemu, czyli dla s < t mamy P (X t y X s = x) = C st,1 (F Xs (x), F Xt (y)). Będziemy konstruować procesy Markowa, zatem wartość procesu w chwili przyszłej zależy tylko od wartości procesu w chwili obecnej. Tak więc będąc w chwili s znamy aktualną wartość procesu, wynosi ona x, oraz chcemy wyznaczyć wartość y w chwili t. Oznaczmy u = F Xs (x) [0, 1]. Wtedy wzór na kopułę możemy zapisać C st,1 (u, F Xt (y)) = h(f Xt (y) u). Natomiast, gdy dla F Xt (y) użyjemy oznaczenia v, to powyższe równanie możemy zapisać h(v u) = C st,1 (u, v). Chcemy wyznaczyć przyszłą wartość procesu v w chwili t, czyli wystarczy wyznaczyć funkcję odwrotną v = h 1 ( u). 34

36 Mając tak otrzymaną wartość v, wartość procesu w chwili t otrzymujemy z y = F 1 X t (h 1 ( u)). Algorytm postępowania możemy określić następująco: 1. dyskretyzujemy czas ustalając krok d oraz ustalamy czas końcowy T, czyli tworzymy ciąg 0 = t 0 < t 1 <... < t n, n = T d, 2. dla t 0 przyjmujemy wartość procesu x 0 = 0, 3. dla t i, i = 1,..., n tworzymy ciąg wartości u 1, u 2,..., u n, gdzie u i jest z rozkładu U[0, 1], 4. przyjmujemy wartość procesu x 1 = u 1, 5. dla i = 2,..., n wartość procesu x i wyznaczamy następująco x i = h 1 (u i x i 1 ; t i 1, t i ), 6. otrzymujemy ciąg wartości x 0, x 1,..., x n, gdzie x i U[0, 1], 7. wartości y i, i = 1,..., n otrzymujemy z y i = F 1 X t (x i ). 4.2 Proces ruchu Browna Możemy teraz przejść do symulacji procesu. Proces ten oparty jest na kopule ruchu Browna, którą wyznaczyliśmy w rozdziale 3.3. Aby wygenerować trajektorię procesu korzystamy z metody przedstawionej w rozdziale 4.1. Jak już pokazaliśmy wcześniej pochodna kopuły ruchu Browna jest postaci ( tφ 1 (v) sφ 1 ) (u) C st,1 (u, v) = Φ. t s We wprowadzonej metodzie korzystamy z prawdopodobieństwa warunkowego, zatem z postaci pochodnej musimy wyznaczyć wartość v. Dla uproszczenia zapisu oznaczymy h(v u) przez z. Zatem przejdźmy do wyznaczenia funkcji odwrotnej h 1 (z u) ( tφ 1 (v) sφ 1 ) (u) z = Φ t s t sφ 1 (z) = tφ 1 (v) sφ 1 (u) tφ 1 (v) = t sφ 1 (z) + sφ 1 (u) t s s Φ 1 (v) = Φ 1 (z) + t t Φ 1 (u) ( ) t s s v = Φ Φ 1 (z) + t t Φ 1 (u). Na poniższych wykresach prezentujemy realizacje procesów uzyskanych z kopuły ruchu Browna. Pierwsza z trajektorii przedstawia proces kopuły ruchu Browna dla rozkładu brzegowego U[0, 1]. Druga trajektoria otrzymana jest, gdy jako rozkładu brzegowego użyliśmy standardowego rozkładu normalnego i trajektoria ta jest standardowym procesem Wienera. Trzeci wykres został otrzymany, gdy za rozkład brzegowy przyjęliśmy rozkład wykładniczy Exp(1). Natomiast ostatni otrzymaliśmy, gdy za rozkład brzegowy przyjęliśmy rozkład jednostajny na przedziale [ t, t]. 35

37 Rysunek 4.1: Trajektorie procesów z kopuły ruchu Browna dla różnych rozkładów brzegowych: (a) rozkład jednostajny U[0, 1], (b) rozkład normalny N (0, 1), (c) rozkład wykładniczy Exp(1), (d) rozkład U[ t, t] Gdy procesu kopuły ruchu Browna o rozkładzie brzegowym U[ t, t] wygenerujemy 1000 realizacji to możemy zauważyć, że proces spełnia własność prawa iterowanego logarytmu. Prawo iterowanego logarytmu jest postaci: W P ( lim sup t = 1) = 1. t 2t ln ln t Własność tę możemy zauważyć na poniższym rysunku. 36

38 Rysunek 4.2: rozkład U[ t, t] Kod generujący powyższe procesy z programu R znajduje się w załączniku 5A. 4.3 Proces kopuły Franka Jak wykazaliśmy w rozdziale funkcja określająca kopułę Franka jest postaci Cθ F r (u, v) = 1 [ θ ln 1 + (e θu 1)(e θv ] 1) (e θ, θ = (, )\{0. 1) Aby otrzymać proces generowany przez kopułę Franka postępujemy według algorytmu przedstawionego w podrozdziale 4.1. Wyznaczymy zatem pochodną kopuły Franka względem pierwszego argumentu C,1 (u, v) = 1 θ = (e θ 1) (e θ 1) + (e θu 1)(e θv 1) (e θv 1) (e θ 1) e θu ( θ) e θu (e θv 1) (e θ 1) + (e θu 1)(e θv 1). Z Twierdzenia 6 wiemy, że pochodna kopuły jest rozkładem warunkowym, czyli C,1 (u, v) = h(v u). Niech u będzie ustalone oraz niech będzie z rozkładu U[0, 1]. Aby wyznaczyć wartość v musimy znaleźć funkcję odwrotną do C,1 (u, ) (dla uproszczenia zapisu oznaczmy C,1 (u, ) = z), czyli musimy znaleźć h 1 (z u). Zatem z = z(e θ 1) + z(e θu 1)(e θv 1) = e θu (e θv 1) z(e θ 1) (e θv 1) + z(e θu 1) = e θu e θu (e θv 1) (e θ 1) + (e θu 1)(e θv 1) z(e θ 1) = [ e θu z(e θu 1) ] (e θv 1) e θv 1 = z(e θ 1) e θu z(e θu 1) ln ( e θv) z(e θ 1) = ln( e θu z(e θu 1) + 1) 37

RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3.

RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3. RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3. ZMIENNA LOSOWA JEDNOWYMIAROWA. Zmienną losową X nazywamy funkcję (praktycznie każdą) przyporządkowującą zdarzeniom elementarnym liczby rzeczywiste. X : Ω R (dokładniej:

Bardziej szczegółowo

F t+ := s>t. F s = F t.

F t+ := s>t. F s = F t. M. Beśka, Całka Stochastyczna, wykład 1 1 1 Wiadomości wstępne 1.1 Przestrzeń probabilistyczna z filtracją Niech (Ω, F, P ) będzie ustaloną przestrzenią probabilistyczną i niech F = {F t } t 0 będzie rodziną

Bardziej szczegółowo

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Niech Ω będzie przestrzenią zdarzeń elementarnych. Definicja 1 Rodzinę S zdarzeń losowych (zbiór S podzbiorów zbioru

Bardziej szczegółowo

Rozkłady i ich dystrybuanty 16 marca F X (t) = P (X < t) 0, gdy t 0, F X (t) = 1, gdy t > c, 0, gdy t x 1, 1, gdy t > x 2,

Rozkłady i ich dystrybuanty 16 marca F X (t) = P (X < t) 0, gdy t 0, F X (t) = 1, gdy t > c, 0, gdy t x 1, 1, gdy t > x 2, Wykład 4. Rozkłady i ich dystrybuanty 6 marca 2007 Jak opisać cały rozkład jedną funkcją? Aby znać rozkład zmiennej X, musimy umieć obliczyć P (a < X < b) dla dowolnych a < b. W tym celu wystarczy znać

Bardziej szczegółowo

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014 Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014 Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe

Bardziej szczegółowo

Wykład 2 Zmienne losowe i ich rozkłady

Wykład 2 Zmienne losowe i ich rozkłady Wykład 2 Zmienne losowe i ich rozkłady Magdalena Frąszczak Wrocław, 11.10.2017r Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe Doświadczenie

Bardziej szczegółowo

Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu.

Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu. Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu. A Teoria Definicja A.1. Niech (Ω, F, P) będzie przestrzenią probabilistyczną. Zmienną losową określoną na przestrzeni Ω nazywamy dowolną

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład VII: Rozkład i jego charakterystyki 22 listopada 2016 Uprzednio wprowadzone pojęcia i ich własności Definicja zmiennej losowej Zmienna losowa na przestrzeni probabilistycznej (Ω, F, P) to funkcja

Bardziej szczegółowo

Statystyka i eksploracja danych

Statystyka i eksploracja danych Wykład II: i charakterystyki ich rozkładów 24 lutego 2014 Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa,

Bardziej szczegółowo

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski Modelowanie zależności pomiędzy zmiennymi losowymi Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski P Zmienne losowe niezależne - przypomnienie Dwie rzeczywiste zmienne losowe X i Y

Bardziej szczegółowo

Wykład 3 Jednowymiarowe zmienne losowe

Wykład 3 Jednowymiarowe zmienne losowe Wykład 3 Jednowymiarowe zmienne losowe Niech (Ω, F, P ) będzie ustaloną przestrzenią probabilistyczną Definicja 1 Jednowymiarowa zmienna losowa (o wartościach rzeczywistych), określoną na przestrzeni probabilistycznej

Bardziej szczegółowo

W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych:

W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych: W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych: Zmienne losowe skokowe (dyskretne) przyjmujące co najwyżej przeliczalnie wiele wartości Zmienne losowe ciągłe

Bardziej szczegółowo

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład Rozdział 1 Wektory losowe 1.1 Wektor losowy i jego rozkład Definicja 1 Wektor X = (X 1,..., X n ), którego każda współrzędna jest zmienną losową, nazywamy n-wymiarowym wektorem losowym (krótko wektorem

Bardziej szczegółowo

Rozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej

Rozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Zbiór możliwych wyników eksperymentu będziemy nazywać przestrzenią zdarzeń elementarnych i oznaczać Ω, natomiast

Bardziej szczegółowo

Ośrodkowość procesów, proces Wienera. Ośrodkowość procesów, proces Wienera Procesy Stochastyczne, wykład, T. Byczkowski,

Ośrodkowość procesów, proces Wienera. Ośrodkowość procesów, proces Wienera Procesy Stochastyczne, wykład, T. Byczkowski, Procesy Stochastyczne, wykład, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 27 luty, 2012 Ośrodkowość procesów Dalej zakładamy, że (Ω, Σ, P) jest zupełną przestrzenią miarową. Definicja.

Bardziej szczegółowo

Zmienne losowe ciągłe i ich rozkłady

Zmienne losowe ciągłe i ich rozkłady Rachunek Prawdopodobieństwa i Statystyka - W3 Zmienne losowe ciągłe i ich rozkłady Dr Anna ADRIAN Paw B5, pok47 adan@agh.edu.pl Plan wykładu Zmienna losowa ciągła Dystrybuanta i unkcja gęstości rozkładu

Bardziej szczegółowo

III. ZMIENNE LOSOWE JEDNOWYMIAROWE

III. ZMIENNE LOSOWE JEDNOWYMIAROWE III. ZMIENNE LOSOWE JEDNOWYMIAROWE.. Zmienna losowa i pojęcie rozkładu prawdopodobieństwa W dotychczas rozpatrywanych przykładach każdemu zdarzeniu była przyporządkowana odpowiednia wartość liczbowa. Ta

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład II: Zmienne losowe i charakterystyki ich rozkładów 13 października 2014 Zmienne losowe Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Definicja zmiennej losowej i jej

Bardziej szczegółowo

Notatki z Analizy Matematycznej 3. Jacek M. Jędrzejewski

Notatki z Analizy Matematycznej 3. Jacek M. Jędrzejewski Notatki z Analizy Matematycznej 3 Jacek M. Jędrzejewski ROZDZIAŁ 6 Różniczkowanie funkcji rzeczywistej 1. Pocodna funkcji W tym rozdziale rozważać będziemy funkcje rzeczywiste określone w pewnym przedziale

Bardziej szczegółowo

Zmienne losowe. dr Mariusz Grządziel Wykład 12; 20 maja 2014

Zmienne losowe. dr Mariusz Grządziel Wykład 12; 20 maja 2014 Zmienne losowe dr Mariusz Grządziel Wykład 2; 20 maja 204 Definicja. Zmienna losowa nazywamy dyskretna (skokowa), jeśli zbiór jej wartości x, x 2,..., można ustawić w ciag. Zmienna losowa X, która przyjmuje

Bardziej szczegółowo

Układy stochastyczne

Układy stochastyczne Instytut Informatyki Uniwersytetu Śląskiego 21 stycznia 2009 Definicja Definicja Proces stochastyczny to funkcja losowa, czyli funkcja matematyczna, której wartości leżą w przestrzeni zdarzeń losowych.

Bardziej szczegółowo

Literatura. Leitner R., Zacharski J., Zarys matematyki wyŝszej dla studentów, cz. III.

Literatura. Leitner R., Zacharski J., Zarys matematyki wyŝszej dla studentów, cz. III. Literatura Krysicki W., Bartos J., Dyczka W., Królikowska K, Wasilewski M., Rachunek Prawdopodobieństwa i Statystyka Matematyczna w Zadaniach, cz. I. Leitner R., Zacharski J., Zarys matematyki wyŝszej

Bardziej szczegółowo

Procesy stochastyczne 2.

Procesy stochastyczne 2. Procesy stochastyczne 2. Listy zadań 1-3. Autor: dr hab.a. Jurlewicz WPPT Matematyka, studia drugiego stopnia, I rok, rok akad. 211/12 1 Lista 1: Własność braku pamięci. Procesy o przyrostach niezależnych,

Bardziej szczegółowo

Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna.

Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna. Wykład 4 Rozkłady i ich dystrybuanty Dwa typy zmiennych losowych Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x, x 2,...}, to mówimy, że jest to zmienna dyskretna.

Bardziej szczegółowo

Logarytmy. Funkcje logarytmiczna i wykładnicza. Równania i nierówności wykładnicze i logarytmiczne.

Logarytmy. Funkcje logarytmiczna i wykładnicza. Równania i nierówności wykładnicze i logarytmiczne. Logarytmy. Funkcje logarytmiczna i wykładnicza. Równania i nierówności wykładnicze i logarytmiczne. Definicja. Niech a i b będą dodatnimi liczbami rzeczywistymi i niech a. Logarytmem liczby b przy podstawie

Bardziej szczegółowo

Funkcja kwadratowa. f(x) = ax 2 + bx + c = a

Funkcja kwadratowa. f(x) = ax 2 + bx + c = a Funkcja kwadratowa. Funkcją kwadratową nazywamy funkcję f : R R określoną wzorem gdzie a, b, c R, a 0. f(x) = ax + bx + c, Szczególnym przypadkiem funkcji kwadratowej jest funkcja f(x) = ax, a R \ {0}.

Bardziej szczegółowo

VIII. Zastosowanie rachunku różniczkowego do badania funkcji. 1. Twierdzenia o wartości średniej. Monotoniczność funkcji.

VIII. Zastosowanie rachunku różniczkowego do badania funkcji. 1. Twierdzenia o wartości średniej. Monotoniczność funkcji. VIII. Zastosowanie rachunku różniczkowego do badania funkcji. 1. Twierdzenia o wartości średniej. Monotoniczność funkcji. Twierdzenie 1.1. (Rolle a) Jeżeli funkcja f jest ciągła w przedziale domkniętym

Bardziej szczegółowo

Funkcja kwadratowa. f(x) = ax 2 + bx + c,

Funkcja kwadratowa. f(x) = ax 2 + bx + c, Funkcja kwadratowa. Funkcją kwadratową nazywamy funkcję f : R R określoną wzorem gdzie a, b, c R, a 0. f(x) = ax 2 + bx + c, Szczególnym przypadkiem funkcji kwadratowej jest funkcja f(x) = ax 2, a R \

Bardziej szczegółowo

Zmienne losowe ciągłe i ich rozkłady

Zmienne losowe ciągłe i ich rozkłady Statystyka i opracowanie danych W3 Zmienne losowe ciągłe i ich rozkłady Dr Anna ADRIAN Paw B5, pok47 adan@agh.edu.pl Plan wykładu Rozkład Poissona. Zmienna losowa ciągła Dystrybuanta i funkcja gęstości

Bardziej szczegółowo

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów. Rachunek prawdopodobieństwa MAT1332 Wydział Matematyki, Matematyka Stosowana Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów. Warunkowa

Bardziej szczegółowo

Jednowymiarowa zmienna losowa

Jednowymiarowa zmienna losowa 1 Jednowymiarowa zmienna losowa Przykład Doświadczenie losowe - rzut kostką do gry. Obserwujemy ilość wyrzuconych oczek. Teoretyczny model eksperymentu losowego - przestrzeń probabilistyczna (Ω, S, P ),

Bardziej szczegółowo

Prawa wielkich liczb, centralne twierdzenia graniczne

Prawa wielkich liczb, centralne twierdzenia graniczne , centralne twierdzenia graniczne Katedra matematyki i ekonomii matematycznej 17 maja 2012, centralne twierdzenia graniczne Rodzaje zbieżności ciągów zmiennych losowych, centralne twierdzenia graniczne

Bardziej szczegółowo

Rachunek prawdopodobieństwa i statystyka

Rachunek prawdopodobieństwa i statystyka Rachunek prawdopodobieństwa i statystyka Przestrzeń probabilistyczna Niech Ω będzie dowolnym zbiorem, zwanym przestrzenią zdarzeń elementarnych. Elementy ω tej przestrzeni nazywamy zdarzeniami elementarnymi.

Bardziej szczegółowo

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ. Zadania z Procesów Stochastycznych 1 1. Udowodnij, że z prawdopodobieństwem 1 trajektorie procesu Poissona są niemalejące, przyjmują wartości z Z +, mają wszystkie skoki równe 1 oraz dążą do nieskończoności.

Bardziej szczegółowo

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ. Zadania z Procesów Stochastycznych 1 1. Udowodnij, że z prawdopodobieństwem 1 trajektorie procesu Poissona są niemalejące, przyjmują wartości z Z +, mają wszystkie skoki równe 1 oraz dążą do nieskończoności.

Bardziej szczegółowo

Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału

Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału Magdalena Frąszczak Wrocław, 22.02.2017r Zasady oceniania Ćwiczenia 2 kolokwia (20 punktów każde) 05.04.2017 oraz 31.05.2017 2 kartkówki

Bardziej szczegółowo

Funkcje - monotoniczność, różnowartościowość, funkcje parzyste, nieparzyste, okresowe. Funkcja liniowa.

Funkcje - monotoniczność, różnowartościowość, funkcje parzyste, nieparzyste, okresowe. Funkcja liniowa. Funkcje - monotoniczność, różnowartościowość, funkcje parzyste, nieparzyste, okresowe. Funkcja liniowa. Monotoniczność i różnowartościowość. Definicja 1 Niech f : X R, X R. Funkcję f nazywamy rosnącą w

Bardziej szczegółowo

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie Jarosław Kotowicz Instytut Matematyki Uniwersytet w

Bardziej szczegółowo

Wykład 11: Martyngały: definicja, twierdzenia o zbieżności

Wykład 11: Martyngały: definicja, twierdzenia o zbieżności RAP 412 14.01.2009 Wykład 11: Martyngały: definicja, twierdzenia o zbieżności Wykładowca: Andrzej Ruciński Pisarz:Mirosława Jańczak 1 Wstęp Do tej pory zajmowaliśmy się ciągami zmiennych losowych (X n

Bardziej szczegółowo

11. Pochodna funkcji

11. Pochodna funkcji 11. Pochodna funkcji Definicja pochodnej funkcji w punkcie. Niech X R będzie zbiorem niepustym, f:x >R oraz niech x 0 X. Funkcję określoną wzorem, nazywamy ilorazem różnicowym funkcji f w punkcie Mówimy,

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład XIV: Metody Monte Carlo 19 stycznia 2016 Przybliżone obliczanie całki oznaczonej Rozważmy całkowalną funkcję f : [0, 1] R. Chcemy znaleźć przybliżoną wartość liczbową całki 1 f (x) dx. 0 Jeden ze

Bardziej szczegółowo

Rachunek prawdopodobieństwa (Elektronika, studia niestacjonarne) Wykład 3

Rachunek prawdopodobieństwa (Elektronika, studia niestacjonarne) Wykład 3 Rachunek prawdopodobieństwa (Elektronika, studia niestacjonarne) Wykład 3 Przygotowując wykład korzystam głównie z książki Jakubowski, Sztencel Wstęp do teorii prawdopodobieństwa. Zmienna losowa i jej

Bardziej szczegółowo

Zajęcia nr. 3 notatki

Zajęcia nr. 3 notatki Zajęcia nr. 3 notatki 22 kwietnia 2005 1 Funkcje liczbowe wprowadzenie Istnieje nieskończenie wiele funkcji w matematyce. W dodaktu nie wszystkie są liczbowe. Rozpatruje się funkcje które pobierają argumenty

Bardziej szczegółowo

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe 4.0. Rozkłady zmiennych losowych, dystrybuanta. Katarzyna Rybarczyk-Krzywdzińska Wprowadzenie Rozważmy eksperymenty 1 gra Bolka w ruletkę w kasynie;

Bardziej szczegółowo

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów. Rachunek prawdopodobieństwa MAP1181 Wydział PPT, MS, rok akad. 213/14, sem. zimowy Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Bardziej szczegółowo

Szkice do zajęć z Przedmiotu Wyrównawczego

Szkice do zajęć z Przedmiotu Wyrównawczego Szkice do zajęć z Przedmiotu Wyrównawczego Matematyka Finansowa sem. letni 2011/2012 Spis treści Zajęcia 1 3 1.1 Przestrzeń probabilistyczna................................. 3 1.2 Prawdopodobieństwo warunkowe..............................

Bardziej szczegółowo

13. Równania różniczkowe - portrety fazowe

13. Równania różniczkowe - portrety fazowe 13. Równania różniczkowe - portrety fazowe Grzegorz Kosiorowski Uniwersytet Ekonomiczny w Krakowie rzegorz Kosiorowski (Uniwersytet Ekonomiczny 13. wrównania Krakowie) różniczkowe - portrety fazowe 1 /

Bardziej szczegółowo

Biostatystyka, # 3 /Weterynaria I/

Biostatystyka, # 3 /Weterynaria I/ Biostatystyka, # 3 /Weterynaria I/ dr n. mat. Zdzisław Otachel Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Głęboka 28, p. 221 bud. CIW, e-mail: zdzislaw.otachel@up.lublin.pl

Bardziej szczegółowo

7 Twierdzenie Fubiniego

7 Twierdzenie Fubiniego M. Beśka, Wstęp do teorii miary, wykład 7 19 7 Twierdzenie Fubiniego 7.1 Miary produktowe Niech i będą niepustymi zbiorami. Przez oznaczmy produkt kartezjański i tj. zbiór = { (x, y : x y }. Niech E oraz

Bardziej szczegółowo

4 Kilka klas procesów

4 Kilka klas procesów Marek Beśka, Całka Stochastyczna, wykład 4 48 4 Kilka klas procesów 4.1 Procesy rosnące i przestrzenie V,, loc Jak poprzednio niech (Ω, F, F, P ) będzie zupełną bazą stochastyczną. Definicja 4.1 Proces

Bardziej szczegółowo

Informacja o przestrzeniach Sobolewa

Informacja o przestrzeniach Sobolewa Wykład 11 Informacja o przestrzeniach Sobolewa 11.1 Definicja przestrzeni Sobolewa Niech R n będzie zbiorem mierzalnym. Rozważmy przestrzeń Hilberta X = L 2 () z iloczynem skalarnym zdefiniowanym równością

Bardziej szczegółowo

Ważną rolę odgrywają tzw. funkcje harmoniczne. Przyjmujemy następującą definicję. u = 0, (6.1) jest operatorem Laplace a. (x,y)

Ważną rolę odgrywają tzw. funkcje harmoniczne. Przyjmujemy następującą definicję. u = 0, (6.1) jest operatorem Laplace a. (x,y) Wykład 6 Funkcje harmoniczne Ważną rolę odgrywają tzw. funkcje harmoniczne. Przyjmujemy następującą definicję. e f i n i c j a Funkcję u (x 1, x 2,..., x n ) nazywamy harmoniczną w obszarze R n wtedy i

Bardziej szczegółowo

Notatki z Analizy Matematycznej 2. Jacek M. Jędrzejewski

Notatki z Analizy Matematycznej 2. Jacek M. Jędrzejewski Notatki z Analizy Matematycznej 2 Jacek M. Jędrzejewski Definicja 3.1. Niech (a n ) n=1 będzie ciągiem liczbowym. Dla każdej liczby naturalnej dodatniej n utwórzmy S n nazywamy n-tą sumą częściową. ROZDZIAŁ

Bardziej szczegółowo

III. Funkcje rzeczywiste

III. Funkcje rzeczywiste . Pojęcia podstawowe Załóżmy, że dane są dwa niepuste zbiory X i Y. Definicja. Jeżeli każdemu elementowi x X przyporządkujemy dokładnie jeden element y Y, to mówimy, że na zbiorze X została określona funkcja

Bardziej szczegółowo

Zmienne losowe. dr Mariusz Grzadziel. rok akademicki 2016/2017 semestr letni. Katedra Matematyki, Uniwersytet Przyrodniczy we Wrocławiu

Zmienne losowe. dr Mariusz Grzadziel. rok akademicki 2016/2017 semestr letni. Katedra Matematyki, Uniwersytet Przyrodniczy we Wrocławiu Zmienne losowe dr Mariusz Grzadziel Katedra Matematyki, Uniwersytet Przyrodniczy we Wrocławiu rok akademicki 2016/2017 semestr letni Definicja 1 Zmienna losowa nazywamy dyskretna (skokowa), jeśli zbiór

Bardziej szczegółowo

Rozdział 6. Ciągłość. 6.1 Granica funkcji

Rozdział 6. Ciągłość. 6.1 Granica funkcji Rozdział 6 Ciągłość 6.1 Granica funkcji Podamy najpierw dwie definicje granicy funkcji w punkcie i pokażemy ich równoważność. Definicja Cauchy ego granicy funkcji w punkcie. Niech f : X R, gdzie X R oraz

Bardziej szczegółowo

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe 4.0. Rozkłady zmiennych losowych, dystrybuanta. Katarzyna Rybarczyk-Krzywdzińska semestr zimowy 2016/2017 Wprowadzenie Przykład 1 Bolek, Lolek i Tola

Bardziej szczegółowo

Zmienne losowe, statystyki próbkowe. Wrocław, 2 marca 2015

Zmienne losowe, statystyki próbkowe. Wrocław, 2 marca 2015 Zmienne losowe, statystyki próbkowe Wrocław, 2 marca 2015 Zasady zaliczenia 2 kolokwia (każde po 20 punktów) projekt (20 punktów) aktywność Zasady zaliczenia 2 kolokwia (każde po 20 punktów) projekt (20

Bardziej szczegółowo

Wynik pomiaru jako zmienna losowa

Wynik pomiaru jako zmienna losowa Wynik pomiaru jako zmienna losowa Wynik pomiaru jako zmienna losowa Zmienne ciągłe i dyskretne Funkcja gęstości i dystrybuanta Wartość oczekiwana Momenty rozkładów Odchylenie standardowe Estymator zmiennej

Bardziej szczegółowo

1 Relacje i odwzorowania

1 Relacje i odwzorowania Relacje i odwzorowania Relacje Jacek Kłopotowski Zadania z analizy matematycznej I Wykazać, że jeśli relacja ρ X X jest przeciwzwrotna i przechodnia, to jest przeciwsymetryczna Zbadać czy relacja ρ X X

Bardziej szczegółowo

VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa.

VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa. VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa. W rozdziale tym zajmiemy się dokładniej badaniem stabilności rozwiązań równania różniczkowego. Pojęcie stabilności w

Bardziej szczegółowo

II. Równania autonomiczne. 1. Podstawowe pojęcia.

II. Równania autonomiczne. 1. Podstawowe pojęcia. II. Równania autonomiczne. 1. Podstawowe pojęcia. Definicja 1.1. Niech Q R n, n 1, będzie danym zbiorem i niech f : Q R n będzie daną funkcją określoną na Q. Równanie różniczkowe postaci (1.1) x = f(x),

Bardziej szczegółowo

PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA

PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA 1. Trójkę (Ω, F, P ), gdzie Ω, F jest σ-ciałem podzbiorów Ω, a P jest prawdopodobieństwem określonym na F, nazywamy przestrzenią probabilistyczną. 2. Rodzinę F

Bardziej szczegółowo

8 Całka stochastyczna względem semimartyngałów

8 Całka stochastyczna względem semimartyngałów M. Beśka, Całka Stochastyczna, wykład 8 148 8 Całka stochastyczna względem semimartyngałów 8.1 Całka stochastyczna w M 2 Oznaczmy przez Ξ zbiór procesów postaci X t (ω) = ξ (ω)i {} (t) + n ξ i (ω)i (ti,

Bardziej szczegółowo

FUNKCJE. 1. Podstawowe definicje

FUNKCJE. 1. Podstawowe definicje FUNKCJE. Podstawowe definicje DEFINICJA. Funkcja f odwzorowującą zbiór X w zbiór Y (inaczej f : X Y ) nazywamy takie przyporządkowanie, które każdemu elementowi x X przyporządkowuje dokładnie jeden element

Bardziej szczegółowo

Rachunek Prawdopodobieństwa Rozdział 5. Rozkłady łączne

Rachunek Prawdopodobieństwa Rozdział 5. Rozkłady łączne Rachunek Prawdopodobieństwa Rozdział 5. Rozkłady łączne 5.0 Definicje Katarzyna Rybarczyk-Krzywdzińska Wprowadzenie Przykład 1 Bolek, Lolek i Tola wstąpili do kasyna. (A) Bolek postawił na czerwone, (B)

Bardziej szczegółowo

Funkcje: wielomianowa, wykładnicza, logarytmiczna wykład 2

Funkcje: wielomianowa, wykładnicza, logarytmiczna wykład 2 Funkcje: wielomianowa, wykładnicza, logarytmiczna wykład 2 dr Mariusz Grządziel semestr zimowy 2013 Potęgowanie Dla dowolnej liczby dodatniej a oraz liczy wymiernej w = p/q definiujemy: a w (a 1/q ) p.

Bardziej szczegółowo

PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA. Piotr Wiącek

PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA. Piotr Wiącek PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA Piotr Wiącek ROZKŁAD PRAWDOPODOBIEŃSTWA Jest to miara probabilistyczna określona na σ-ciele podzbiorów borelowskich pewnej przestrzeni metrycznej. σ-ciało podzbiorów

Bardziej szczegółowo

II. FUNKCJE WIELU ZMIENNYCH

II. FUNKCJE WIELU ZMIENNYCH II. FUNKCJE WIELU ZMIENNYCH 1. Zbiory w przestrzeni R n Ustalmy dowolne n N. Definicja 1.1. Zbiór wszystkich uporzadkowanych układów (x 1,..., x n ) n liczb rzeczywistych, nazywamy przestrzenią n-wymiarową

Bardziej szczegółowo

Zajęcia nr 1 (1h) Dwumian Newtona. Indukcja. Zajęcia nr 2 i 3 (4h) Trygonometria

Zajęcia nr 1 (1h) Dwumian Newtona. Indukcja. Zajęcia nr 2 i 3 (4h) Trygonometria Technologia Chemiczna 008/09 Zajęcia wyrównawcze. Pokazać, że: ( )( ) n k k l = ( n l )( n l k l Zajęcia nr (h) Dwumian Newtona. Indukcja. ). Rozwiązać ( ) ( równanie: ) n n a) = 0 b) 3 ( ) n 3. Znaleźć

Bardziej szczegółowo

PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω)

PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω) PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω) określonych na tej samej przestrzeni probabilistycznej

Bardziej szczegółowo

zdarzenie losowe - zdarzenie którego przebiegu czy wyniku nie da się przewidzieć na pewno.

zdarzenie losowe - zdarzenie którego przebiegu czy wyniku nie da się przewidzieć na pewno. Rachunek prawdopodobieństwa Podstawowym celem rachunku prawdopodobieństwa jest określanie szans zajścia pewnych zdarzeń. Pojęcie podstawowe rachunku prawdopodobieństwa to: zdarzenie losowe - zdarzenie

Bardziej szczegółowo

Spacery losowe generowanie realizacji procesu losowego

Spacery losowe generowanie realizacji procesu losowego Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z

Bardziej szczegółowo

A i. i=1. i=1. i=1. i=1. W dalszej części skryptu będziemy mieli najczęściej do czynienia z miarami określonymi na rodzinach, które są σ - algebrami.

A i. i=1. i=1. i=1. i=1. W dalszej części skryptu będziemy mieli najczęściej do czynienia z miarami określonymi na rodzinach, które są σ - algebrami. M. Beśka, Wstęp do teorii miary, rozdz. 3 25 3 Miara 3.1 Definicja miary i jej podstawowe własności Niech X będzie niepustym zbiorem, a A 2 X niepustą rodziną podzbiorów. Wtedy dowolne odwzorowanie : A

Bardziej szczegółowo

Podstawy analizy matematycznej II

Podstawy analizy matematycznej II Podstawy analizy matematycznej II Andrzej Marciniak Zajęcia finansowane z projektu "Rozwój i doskonalenie kształcenia na Politechnice Poznańskiej w zakresie technologii informatycznych i ich zastosowań

Bardziej szczegółowo

Generowanie ciągów pseudolosowych o zadanych rozkładach przykładowy raport

Generowanie ciągów pseudolosowych o zadanych rozkładach przykładowy raport Generowanie ciągów pseudolosowych o zadanych rozkładach przykładowy raport Michał Krzemiński Streszczenie Projekt dotyczy metod generowania oraz badania własności statystycznych ciągów liczb pseudolosowych.

Bardziej szczegółowo

O funkcjach : mówimy również, że są określone na zbiorze o wartościach w zbiorze.

O funkcjach : mówimy również, że są określone na zbiorze o wartościach w zbiorze. 1. Definicja funkcji f:x->y. Definicja dziedziny, przeciwdziedziny, zbioru wartości. Przykłady. I definicja: Funkcją nazywamy relację, jeśli spełnia następujące warunki: 1) 2) 1,2 [(1 2)=> 1=2] Inaczej

Bardziej szczegółowo

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory Dr Anna ADRIAN Paw B5, pok 407 adrian@tempus.metal.agh.edu.pl

Bardziej szczegółowo

Wykład 4 Przebieg zmienności funkcji. Badanie dziedziny oraz wyznaczanie granic funkcji poznaliśmy na poprzednich wykładach.

Wykład 4 Przebieg zmienności funkcji. Badanie dziedziny oraz wyznaczanie granic funkcji poznaliśmy na poprzednich wykładach. Wykład Przebieg zmienności funkcji. Celem badania przebiegu zmienności funkcji y = f() jest poznanie ważnych własności tej funkcji na podstawie jej wzoru. Efekty badania pozwalają naszkicować wykres badanej

Bardziej szczegółowo

Praca dyplomowa magisterska. Modelowanie straty przy użyciu GLM i kopuł. Sylwia Piotrowska

Praca dyplomowa magisterska. Modelowanie straty przy użyciu GLM i kopuł. Sylwia Piotrowska Praca dyplomowa magisterska Modelowanie straty przy użyciu GLM i kopuł Sylwia Piotrowska Rok akademicki 2017/2018 Spis treści Wstęp i cel pracy 3 1 Kopuły 4 1.1 Definicja kopuły.....................................

Bardziej szczegółowo

Zbiory, funkcje i ich własności. XX LO (wrzesień 2016) Matematyka elementarna Temat #1 1 / 16

Zbiory, funkcje i ich własności. XX LO (wrzesień 2016) Matematyka elementarna Temat #1 1 / 16 Zbiory, funkcje i ich własności XX LO (wrzesień 2016) Matematyka elementarna Temat #1 1 / 16 Zbiory Zbiory ograniczone, kresy Zbiory ograniczone, min, max, sup, inf Zbiory ograniczone 1 Zbiór X R jest

Bardziej szczegółowo

7. Estymacja parametrów w modelu normalnym(14.04.2008) Pojęcie losowej próby prostej

7. Estymacja parametrów w modelu normalnym(14.04.2008) Pojęcie losowej próby prostej 7. Estymacja parametrów w modelu normalnym(14.04.2008) Pojęcie losowej próby prostej Definicja 1 n-elementowa losowa próba prosta nazywamy ciag n niezależnych zmiennych losowych o jednakowych rozkładach

Bardziej szczegółowo

ZMIENNE LOSOWE. Zmienna losowa (ZL) X( ) jest funkcją przekształcającą przestrzeń zdarzeń elementarnych w zbiór liczb rzeczywistych R 1 tzn. X: R 1.

ZMIENNE LOSOWE. Zmienna losowa (ZL) X( ) jest funkcją przekształcającą przestrzeń zdarzeń elementarnych w zbiór liczb rzeczywistych R 1 tzn. X: R 1. Opracowała: Joanna Kisielińska ZMIENNE LOSOWE Zmienna losowa (ZL) X( ) jest funkcją przekształcającą przestrzeń zdarzeń elementarnych w zbiór liczb rzeczywistych R tzn. X: R. Realizacją zmiennej losowej

Bardziej szczegółowo

Pochodna funkcji odwrotnej

Pochodna funkcji odwrotnej Pochodna funkcji odwrotnej Niech będzie dana w przedziale funkcja różniczkowalna i różnowartościowa. Wiadomo, że istnieje wówczas funkcja odwrotna (którą oznaczymy tu : ), ciągła w przedziale (lub zależnie

Bardziej szczegółowo

Funkcje elementarne. Matematyka 1

Funkcje elementarne. Matematyka 1 Funkcje elementarne Matematyka 1 Katarzyna Trąbka-Więcław Funkcjami elementarnymi nazywamy: funkcje wymierne (w tym: wielomiany), wykładnicze, trygonometryczne, odwrotne do wymienionych (w tym: funkcje

Bardziej szczegółowo

domykanie relacji, relacja równoważności, rozkłady zbiorów

domykanie relacji, relacja równoważności, rozkłady zbiorów 1 of 8 2012-03-28 17:45 Logika i teoria mnogości/wykład 5: Para uporządkowana iloczyn kartezjański relacje domykanie relacji relacja równoważności rozkłady zbiorów From Studia Informatyczne < Logika i

Bardziej szczegółowo

FUNKCJA LINIOWA - WYKRES

FUNKCJA LINIOWA - WYKRES FUNKCJA LINIOWA - WYKRES Wzór funkcji liniowej (Postać kierunkowa) Funkcja liniowa jest podstawowym typem funkcji. Jest to funkcja o wzorze: y = ax + b a i b to współczynniki funkcji, które mają wartości

Bardziej szczegółowo

MIARY ZALEŻNOŚCI OPARTE NA KOPULACH

MIARY ZALEŻNOŚCI OPARTE NA KOPULACH Studia Ekonomiczne. Zeszyty Naukowe Uniwersytetu Ekonomicznego w Katowicach ISSN 2083-8611 Nr 246 2015 Współczesne Finanse 3 Uniwersytet Kardynała Stefana Wyszyńskiego w Warszawie Wydział Matematyczno-Przyrodniczy.

Bardziej szczegółowo

Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe.

Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Rachunek prawdopodobieństwa MAP3040 WPPT FT, rok akad. 2010/11, sem. zimowy Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Warunkowa wartość oczekiwana.

Bardziej szczegółowo

Dystrybucje. Marcin Orchel. 1 Wstęp Dystrybucje Pochodna dystrybucyjna Przestrzenie... 5

Dystrybucje. Marcin Orchel. 1 Wstęp Dystrybucje Pochodna dystrybucyjna Przestrzenie... 5 Dystrybucje Marcin Orchel Spis treści 1 Wstęp 1 1.1 Dystrybucje................................... 1 1.2 Pochodna dystrybucyjna............................ 3 1.3 Przestrzenie...................................

Bardziej szczegółowo

Rozkład normalny Parametry rozkładu zmiennej losowej Zmienne losowe wielowymiarowe

Rozkład normalny Parametry rozkładu zmiennej losowej Zmienne losowe wielowymiarowe Statystyka i opracowanie danych W4 Rozkład normalny Parametry rozkładu zmiennej losowej Zmienne losowe wielowymiarowe Dr Anna ADRIAN Paw B5, pok407 adan@agh.edu.pl Rozkład normalny wykres funkcji gęstości

Bardziej szczegółowo

IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych,

IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych, IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. Definicja 1.1. Niech D będzie podzbiorem przestrzeni R n, n 2. Odwzorowanie f : D R nazywamy

Bardziej szczegółowo

1 + x 1 x 1 + x + 1 x. dla x 0.. Korzystając z otrzymanego wykresu wyznaczyć funkcję g(m) wyrażającą liczbę pierwiastków równania.

1 + x 1 x 1 + x + 1 x. dla x 0.. Korzystając z otrzymanego wykresu wyznaczyć funkcję g(m) wyrażającą liczbę pierwiastków równania. 10 1 Wykazać, że liczba 008 008 10 + + jest większa od Nie używając kalkulatora, porównać liczby a = log 5 log 0 + log oraz b = 6 5 Rozwiązać równanie x + 4y + x y + 1 = 4xy 4 W prostokątnym układzie współrzędnych

Bardziej szczegółowo

2. P (E) = 1. β B. TSIM W3: Sygnały stochastyczne 1/27

2. P (E) = 1. β B. TSIM W3: Sygnały stochastyczne 1/27 SYGNAŁY STOCHASTYCZNE Przestrzeń probabilistyczna i zmienna losowa Definicja Przestrzenią probabilistyczną (doświadczeniem) nazywamy trójkę uporządkowaną (E, B, P ), gdzie: E przestrzeń zdarzeń elementarnych;

Bardziej szczegółowo

Procesy stochastyczne

Procesy stochastyczne Wykład I: Istnienie procesów stochastycznych 21 lutego 2017 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane

Bardziej szczegółowo

Zbiory, relacje i funkcje

Zbiory, relacje i funkcje Zbiory, relacje i funkcje Zbiory będziemy zazwyczaj oznaczać dużymi literami A, B, C, X, Y, Z, natomiast elementy zbiorów zazwyczaj małymi. Podstawą zależność między elementem zbioru a zbiorem, czyli relację

Bardziej szczegółowo

E-learning - matematyka - poziom rozszerzony. Funkcja wykładnicza. Materiały merytoryczne do kursu

E-learning - matematyka - poziom rozszerzony. Funkcja wykładnicza. Materiały merytoryczne do kursu E-learning - matematyka - poziom rozszerzony Funkcja wykładnicza Materiały merytoryczne do kursu Definicję i własności funkcji wykładniczej poprzedzimy definicją potęgi o wykładniku rzeczywistym. Poprawna

Bardziej szczegółowo

FUNKCJA LINIOWA, RÓWNANIA I UKŁADY RÓWNAŃ LINIOWYCH

FUNKCJA LINIOWA, RÓWNANIA I UKŁADY RÓWNAŃ LINIOWYCH FUNKCJA LINIOWA, RÓWNANIA I UKŁADY RÓWNAŃ LINIOWYCH PROPORCJONALNOŚĆ PROSTA Proporcjonalnością prostą nazywamy zależność między dwoma wielkościami zmiennymi x i y, określoną wzorem: y = a x Gdzie a jest

Bardziej szczegółowo

WYKŁAD Z ANALIZY MATEMATYCZNEJ I. dr. Elżbieta Kotlicka. Centrum Nauczania Matematyki i Fizyki

WYKŁAD Z ANALIZY MATEMATYCZNEJ I. dr. Elżbieta Kotlicka. Centrum Nauczania Matematyki i Fizyki WYKŁAD Z ANALIZY MATEMATYCZNEJ I dr. Elżbieta Kotlicka Centrum Nauczania Matematyki i Fizyki http://im0.p.lodz.pl/~ekot Łódź 2006 Spis treści 1. CIĄGI LICZBOWE 2 1.1. Własności ciągów liczbowych o wyrazach

Bardziej szczegółowo