Miary siły związku między zmiennymi losowymi. Marcin Szatkowski
|
|
- Ludwika Niemiec
- 7 lat temu
- Przeglądów:
Transkrypt
1 Miary siły związku między zmiennymi losowymi Marcin Szatkowski 1 października 15
2 Streszczenie Praca ta przedstawia różne miary siły związku między zmiennymi losowymi i przedyskutowuje ich wady oraz zalety. W pierwszej kolejności zaprezentowany jest współczynnik korelacji liniowej Pearsona wraz z jego ograniczeniami oraz podstawowe koncepty badania zależności. W dalszej części pracy wprowadzamy obiekt kopuły, który na mocy twierdzenia Sklara scala dystrybuanty brzegowe w dystrybuantę łączną i jest niezmienniczy na zmianę skali. Kolejno, rozważamy jakie własności powinna posiadać dobra miara siły związku między zmiennymi losowymi i korzystając z kopuł wprowadzamy dwa rodzaje takiej miary: miarę zgodności oraz miarę zależności. Przedstawione są ich przykłady oraz interpretacja uzyskiwanych przez nie wartości. Słowa kluczowe: Współczynnik korelacji liniowej Pearsona, ograniczenia Frecheta-Hoeffdinga, komonotoniczność, kontrmonotoniczność, kopuła, twierdzenie Sklara, miara siły związku, miara zgodności, tau Kendalla, rho Spearmana, gamma Giniego, beta Blomqvista, miara zależności, indeks zależności Hoeffdinga, sigma Schweizera i Wolffa. Dziedzina nauki i techniki, zgodnie z wymogami OECD: 1.1 Matematyka. 1
3 Abstract In this survey we introduce and discuss different measures of association between random variables. In the first place, Pearson s product-moment correlation coefficient is presented along with its limitations, as well as basic notions of dependence. Later, we introduce the concept of copula, which by Sklar s theorem, merges marginal distributions into multivariate distribution and is scale-invariant. Then we discuss what desirable properties of a good measure of association are and by using copulas we introduce two types of such measure: measure of concordance and measure of dependence. Examples of such measures and their interpretation is shown. Keywords: Pearson s product-moment correlation coefficient, Frechet-Hoeffding bounds, comonotonicity, countermonotonicity, copula, Sklar s theorem, measure of association, measure of concordance, Kendall s tau, Spearman s rho, Gini s gamma, Blomqvist s beta, measure of dependence, Hoeffding s dependence index, Schweizer and Wolff s sigma.
4 Spis treści 1 Wstęp i cel pracy 4 Podstawowe koncepty badania zależności 5.1 Definicja i własności współczynnika korelacji liniowej Pearsona Błędne przekonania na temat współczynnika korelacji i jego wady Wzór Hoeffdinga Ograniczenia Frecheta-Hoeffdinga Monotoniczna zależność funkcyjna między zmiennymi losowymi Uogólniona dystrybuanta odwrotna Komonotoniczność Kontrmonotoniczność Klasy Frecheta Maksymalna i minimalna wartość współczynnika korelacji Przykłady Ekstremalne wartości współczynnika korelacji a parametry rozkładu Kopuły Definicja kopuły Własności kopuł Twierdzenie Sklara Ograniczenia Frecheta-Hoeffdinga a kopuły Zbiór kopuł i przykładowe rodziny Niezmienniczość kopuły na transformacje ściśle rosnące Miary siły związku między zmiennymi oparte na kopułach Zgodność Miary zgodności Tau Kendalla Rho Spearmana Gamma Giniego Beta Blomqvista Miary zależności Sigma Schweizera i Wolffa Podsumowanie 78 Wykaz literatury 79 Wykaz rysunków 8 3
5 1 Wstęp i cel pracy Zależność między zmiennymi losowymi jest jednym z najszerzej studiowanych zagadnień probabilistyki i statystyki. Natura zależności może przybrać różne formy i jeżeli nie zostaną przyjęte pewne założenia dotyczące zależności, to nie jest możliwym rozważeniem jakiegokolwiek sensownego modelu statystycznego. pisał Kumar Jogdeo w [8]. Celem tej pracy jest zaprezentowanie różnych konceptów, w tym miar, oraz możliwych podejść do problemu badania związku między zmiennymi losowymi z zaznaczeniem zalet oraz wad każdego z nich. Drugi rozdział rozpoczniemy od przedstawienia współczynnika korelacji liniowej Pearsona wraz z jego własnościami. Jest on powszechnie stosowaną miarą siły związku między zmiennymi losowymi, jednakże posiada kilka poważnych ograniczeń. W rozdziale.3 udowodnimy wzór Hoeffdinga na kowariancję, który pokazuje, że współczynnik korelacji liniowej jest znormalizowaną średnią różnicą między dystrybuantą rozkładu łącznego, a iloczynem dystrybuant brzegowych (łączna w przypadku niezależności). W dalszej kolejności pokażemy ograniczenia dla dystrybuant łącznych wynikające z dystrybuant brzegowych (.4) i jakie są konsekwencje tych ograniczeń dla związku między zmiennymi losowymi (.5). W rozdziale.6 wprowadzimy klasy Frecheta, a w.7 pokażemy, że komonotoniczność i kontrmonotoniczność jest rozszerzeniem konceptu doskonałej zależności liniowej. Zakończymy rozdział kilkoma przykładami oraz dodatkowymi wnioskami dotyczącymi współczynnika korelacji. Rozdział trzeci wprowadza obiekt kopuły i podaje jego własności. W rozdziale 3.3 zostanie udowodnione w przypadku ogólnym kluczowe dla kopuł twierdzenie Sklara. Mówi ono o tym, że każdą dystrybuantę łączną możemy rozbić na części: dystrybuanty brzegowe oraz łączącą je funkcję kopuły. W dalszej części pracy zostaną zaprezentowane przykładowe kopuły oraz własności jakie posiada zbiór kopuł. Dodatkowo, pokażemy ich związek z wprowadzonymi konceptami zależności w rozdziale drugim. W rozdziale 3.6 zostanie udowodniona niezwykle istotna własność kopuł, której nie posiada współczynnik korelacji - niezmienniczość na transformacje ściśle rosnące (tzw. niezmienniczość na skalę). Twierdzenie Sklara oraz własność kopuł udowodniona w rozdziale 3.6 sugerują zdefiniowanie miar siły związku między zmiennymi losowymi przy pomocy kopuł. Zaprezentujemy dwa różne podejścia: miary zgodności (4.) oraz miary zależności (4.3). Dla każdego z nich podamy kilka przykładowych miar, ich wartości dla pewnych zadanych kopuł oraz przedyskutujemy ich zalety oraz ograniczenia. 4
6 Podstawowe koncepty badania zależności.1 Definicja i własności współczynnika korelacji liniowej Pearsona Najczęściej używanym i najbardziej powszechnym narzędziem do badania siły związku między zmiennymi losowymi jest współczynnik korelacji liniowej Pearsona. Definicja.1. Niech X, Y będą zmiennymi losowym określonymi na przestrzeni probabilistycznej (Ω, F, P) spełniającymi E XY <. Kowariancją zmiennych losowych X i Y nazywamy Cov(X, Y ) = E[(X EX)(Y EY )] = E(XY ) EXEY. Definicja.. Niech X, Y będą zmiennymi losowym określonymi na przestrzeni probabilistycznej (Ω, F, P). Jeżeli < VarX < oraz < VarY <, to współczynnikiem korelacji liniowej Pearsona zmiennych losowych X i Y nazywamy: ρ(x, Y ) = Cov(X, Y ) E(XY ) EXEY =. VarX VarY VarX VarY Twierdzenie.3. Podstawowe własności współczynnika korelacji: 1. ρ(x, Y ) 1.. Jeżeli zmienne losowe X, Y są niezależne, to ρ(x, Y ) =. 3. Wartość współczynnika korelacji jest niezmiennicza co do modułu na przekształcenia liniowe, czyli dla a, b, 4. ρ(x, Y ) = ρ(y, X). ρ(ax + b, cy + d) = sgn(a c)ρ(x, Y ). 5. ρ(x, Y ) = 1 istnieje zależność liniowa między zmiennymi losowymi X, Y tzn. X = ay + b prawie na pewno, gdzie a, b R. Uwaga. W punkcie 5. zachodzi, że dla ρ(x, Y ) = 1 mamy a >, natomiast dla ρ(x, Y ) = 1 mamy a <. Dowód. Załóżmy, że X oraz Y są zmiennymi losowymi o skończonej i dodatniej wariancji. 1. W pierwszej kolejności udowodnimy nierówność Schwarza dla wartości oczekiwanych, a konkretniej Lemat.4. (Nierówność Schwarza). Jeżeli EX < oraz EY <, to Dowód lematu. (E XY ) EX EY. Zauważmy, że jeżeli EX =, to X = prawie na pewno i nierówność Schwarza jest oczywista. Zajmijmy się przypadkiem, że EX >. Wiemy, że dla dowolnego k R zachodzi nierówność E(k X + Y ), ponieważ (k X + Y ) jest nieujemną zmienną losową, E(k X + Y ) = E(k X + k XY + Y ) = k EX + ke XY + EY. Zauważmy, że po lewej stronie powyższej nierówności mamy wielomian drugiego stopnia ze względu na k. Współczynnik przy k jest dodatni (wynika to z założenia), dlatego wyróżnik wielomianu jest niedodatni, czyli = 4(E XY ) 4EX EY. 5
7 W efekcie dostajemy, że (E XY ) EX EY E XY EX EY Wracając do dowodu własności 1., skorzystamy z udowodnionej nierówności Schwarza i faktu, że EX E X dla oszacowania wartości kowariancji Cov(X, Y ) = E[(X EX)(Y EY )] E (X EX)(Y EY ) E(X EX) E(Y EY ) = VarX VarY. Ostatecznie otrzymujemy ograniczenie dla wartości współczynnika korelacji Cov(X, Y ) VarX VarY ρ(x, Y ) = = 1. VarX VarY VarX VarY. Z niezależności zmiennych losowych dostajemy, że E(XY ) = EXEY = Cov(X, Y ) = = ρ(x, Y ) =. 3. W pierwszej kolejności z własności wariancji mamy, że Var(aX + b) = a VarX Var(cY + d) = c Var(Y ) Kolejno, rozpisując wzór na współczynnik korelacji ρ(ax + b, cy + d) = E[(aX + b)(cy + d)] E(aX + b)e(cy + d) Var(aX + b) Var(cY + d) E(acXY + bcy + adx + bd) (aex + b)(cey + d) = a VarX c VarY ace(xy ) + bcey + adex + bd acexey bcey adex bd = a VarX c VarY = ac E(XY ) EXEY = sgn(a c)ρ(x, Y ). ac VarX VarY 4. Wynika z prostej obserwacji, że kowariancja jest symetryczna Cov(X, Y ) = E(XY ) EXEY = E(Y X) EY EX = Cov(Y, X). 5. = Załóżmy, że X = ay + b prawie na pewno, gdzie a, b R. Wówczas mamy, że VarX = Var(aY + b) = a VarY, Cov(X, Y ) = E[(X EX)(Y EY )] = E[(aY + b E(aY + b))(y EY )] ρ(x, Y ) = = E[(aY + b aey b)(y EY )] = ae[(y EY )(Y EY )] = ae(y EY ) = avary, Cov(X, Y ) a VarY = VarX VarY a VarY VarY = 1. = Załóżmy, że ρ(x, Y ) = Cov(X,Y ) VarX VarY = 1. Oznacza to, że Cov(X, Y ) = VarX VarY, czyli (Cov(X, Y )) = VarX VarY. 6
8 Pokażemy, że istnieje takie k R dla którego zmienna losowa kx +Y ma rozkład jednopunktowy, co jest równoważne z tym, że ma wariancję równą. Będzie to oznaczać, że istnieje takie c R, dla którego kx + Y = c prawie na pewno. Var(kX + Y ) = E(kX + Y ) (E(kX + Y )) = k EX + ke(xy ) + EY (kex + EY ) = k EX + ke(xy ) + EY k (EX) kexey (EY ) = k VarX + kcov(x, Y ) + VarY. Uzyskaliśmy wielomian stopnia. ze względu na k. Policzmy wyróżnik = 4(Cov(X, Y )) 4VarXVarY = 4VarXVarY 4VarXVarY =. Z założenia dostajemy, że wyróżnik jest równy, dlatego istnieje dokładnie jedno k R, dla którego powyższy wielomian przyjmuje wartość. Dla takiego k istnieje c R takie, że kx + Y = c prawie na pewno.. Błędne przekonania na temat współczynnika korelacji i jego wady Niech (X, Y ) będzie wektorem losowym o dwuwymiarowym rozkładzie normalnym posiadającym gęstość f(x, y) = ( 1 πσ x σ exp y 1 ρ z = (x µ x) σ x z (1 ρ ) ), gdzie ρ(x µ x)(y µ y ) + (y µ y). σ x σ y Zauważmy, że mamy tutaj do czynienia z 5 parametrami. 4 parametry są odpowiedzialne za rozkłady brzegowe - po na każdy z nich: µ oznacza średnią, σ wariancję. Ponadto, mamy dodatkowy parametr odpowiadający za zależność między zmiennymi losowymi X oraz Y, jest to ρ - współczynnik korelacji. Może on przyjąć dowolną wartość z przedziału [ 1, 1], w skrajnych przypadkach oznacza to, że dwuwymiarowy rozkład będzie skoncentrowany na prostej. σ y Powszechność i porządne własności matematyczne rozkładu normalnego doprowadziły do powstania błędnych przekonań na temat współczynnika korelacji opisanych w [] i [7]: 1. Rozkłady brzegowe i współczynnik korelacji jednoznacznie wyznaczają rozkład łączny.. Dla zadanych zmiennych losowych X, Y o dystrybuantach F X, F Y, można uzyskać dowolną korelację liniową z przedziału [ 1, 1] poprzez odpowiednie określenie rozkładu łącznego. Pokażemy, że żadne z powyższych sformułowań nie jest prawdziwe. Ad. 1. Niech X będzie zmienną losową o standardowym rozkładzie normalnym N (, 1). Ponadto, niech U będzie zmienną losową niezależną od X o rozkładzie dwupunktowym P(U = 1) = α, P(U = 1) = 1 α, gdzie < α < 1. W kolejnym kroku zdefiniujmy zmienną losową Y = U X. Zauważmy, że ma ona taki sam rozkład jak X, czyli standardowy normalny P(Y y) = P(U X y) = P(U X y U = 1) P(U = 1) + P(U X y U = 1) P(U = 1) = P(X y) α + P( X y) (1 α) = P(X y) α + P(X y) (1 α) = P(X y). Przyjrzyjmy się zmiennej Y - przyjmuje ona dokładnie taką samą co do modułu wartość jak zmienna X. W efekcie, rozkład wektora (X, Y ) będzie skoncentrowany na dwóch prostych: 7
9 x = y, x = y, co oznacza, że na pewno nie jest to dwuwymiarowy rozkład normalny. Policzmy współczynnik korelacji ρ(x, Y ) = E(XY ) EXEY VarX VarY = E(XY ) = E(X U X) = EX EU = EU = α 1 + (1 α) ( 1) = α 1. Zauważmy, że możemy uzyskać dowolną korelację z przedziału ( 1, 1), a charakter tej zależności będzie zupełnie inny niż dla dwuwymiarowego rozkładu normalnego, co dobrze widać na rysunku.1, który przedstawia próbki z obu rozkładów. (a) (X, Y ) dla α =.9 (b) Standardowy dwuwymiarowy rozkład normalny o ρ =.8 Rysunek.1: Porównanie charakteru zależności na podstawie 5 losowych obserwacji z każdego rozkładu Ad.. Niech X, Y będą zmiennymi losowymi o dystrybuantach odpowiednio: F X, F Y takich, że F X (x) =, F Y (y) = dla x, y < oraz sup{x R : F X (x) < 1} = sup{y R : F Y (y) < 1} =. Takie zmienne losowe istnieją - np. niezależne zmienne o rozkładach wykładniczych. Załóżmy, że ρ(x, Y ) = 1. Oznacza to, że Y = ax + b prawie na pewno dla pewnego a < (ponieważ mamy tutaj do czynienia z ujemną zależnością) oraz b R. Wówczas dla każdego y < zachodzi, że ( F Y (y) = P(Y y) = P(aX + b y) = P X y b ) ( P X > y b ) a a ( = 1 P X y b ) ( ) y b = 1 F X >. a a Uzyskaliśmy sprzeczność z założeniem dotyczącym postaci dystrybuanty, czyli dla tak zdefiniowanej pary zmiennych losowych X, Y korelacja wynosząca -1 jest niemożliwa do uzyskania. Podsumowując, w tym miejscu warto wymienić podstawowe wady współczynnika korelacji: a) Zmienne losowe muszą mieć skończone wariancje, co jest szczególnie niepożądane dla niektórych rozkładów stosowanych w finansach, np. rozkładu Pareto. b) ρ(x, Y ) = niezależności X i Y, przykład - Ad. 1 dla α =.5. c) Wartość współczynnika korelacji nie jest niezmiennicza ze względu na ściśle monotoniczne przekształcenia nieliniowe. d) Przedział wartości przyjmowanych przez współczynnik korelacji zależy od rozkładów brzegowych. Ad. c) Rozpatrzmy zmienną losową Z N (, 1) oraz pewną stałą σ >. Zachodzi oczywiście, że ρ(z, σz) = 1. Weźmy teraz zmienne ˆX = exp(z), Ŷ = exp(σz). ˆX oraz Ŷ mają rozkład 8
10 lognormalny, a z teorii wiemy, że charakterystyki dla takiego rozkładu wynoszą ( ) σ E(exp(σZ)) = exp, Var(exp(σZ)) = (exp(σ ) 1) exp(σ ). Podstawiając powyższe równości uzyskujemy wartość współczynnika korelacji E( ˆXŶ ) E ˆXEŶ ρ( ˆX, Ŷ ) = Var ˆX = VarŶ = E(exp((σ + 1)Z)) E(exp(Z))E(exp(σZ)) Var(exp(Z)) Var(exp(σZ)) exp(.5(σ + 1) ) exp(.5) exp(.5σ ) (exp(1) 1) exp(1) (exp(σ ) 1) exp(σ ) = exp(σ) 1 (exp(1) 1)(exp(σ ) 1) Rozpatrzmy teraz analogiczną sytuację, tym razem ustalając X = exp(z) oraz Ȳ = exp( σz). W tym przypadku zachodzi, że ρ(z, σz) = 1. Dokonując obliczeń w ten sam sposób jak poprzednio dostajemy Łatwo sprawdzić, że poniższe granice są równe ρ( X, Ȳ ) = exp( σ) 1 (exp(1) 1)(exp(σ ) 1). lim ρ( ˆX, Ŷ ) = lim ρ( X, Ȳ ) =. σ σ Powyższy przykład pokazuje, że współczynnik korelacji liniowej nie jest niezmienniczy na ściśle monotoniczne przekształcenia, które nie są liniowe. Ponadto zachodzi, że Ŷ = exp(σ ln ˆX), Ȳ = exp( σ ln X). Ŷ jest ściśle rosnącą funkcją ˆX, czyli istnieje między nimi ściśle rosnąca zależność funkcyjna (więcej o tym koncepcie w rozdziale.5.), jednakże dla σ 1, ρ( ˆX, Ŷ ) < 1 ponieważ zależność ta nie jest liniowa. Analogicznie Ȳ jest ściśle malejącą funkcją X, ale ρ( X, Ȳ ) > 1 ponieważ ta malejąca zależność funkcyjna (rozdział.5.3) również nie jest liniowa. Jak łatwo zauważyć ze wzoru na momenty, X ma taki sam rozkład jak ˆX, a Ȳ ma taki sam rozkład jak Ŷ. Jednakże w obu przypadkach zależność między zmiennymi losowymi wewnątrz wektorów ( ˆX, Ŷ ), ( X, Ȳ ) jest różna - stąd odmienne wartości współczynnika korelacji. Jak się okaże w podrozdziale.7 ρ( ˆX, Ŷ ) = ρ max, ρ( X, Ȳ ) = ρ min to odpowiednio największa i najmniejsza możliwa wartość współczynnika korelacji dla wektora (X, Y ) o zadanych brzegowych o rozkładzie lognormalnym. Ten przykład pokazuje, że wartość współczynnika korelacji może być bliska nawet gdy mamy do czynienia ze ściśle monotoniczną zależnością funkcyjną między zmiennymi. Dla σ = 4 zachodzi, że ρ min.5, natomiast ρ max.137. Wykres. przedstawia zależność wartości ρ min, ρ max od σ. Ad. d) Kontrprzykład, że przedział ten może być podzbiorem właściwym odcinka [ 1, 1] zostały przedstawiony w Ad.. Twierdzenie dotyczące wyglądu takiego przedziału zostanie przedstawione w rozdziale.7..3 Wzór Hoeffdinga Niech (X, Y ) będzie wektorem losowym określonym na przestrzeni probabilistycznej (Ω, F, P). Wówczas dystrybuantą rozkładu łącznego nazywamy funkcję F (x, y) = P(X x, Y y), 9
11 Rysunek.: Zależność największej/najmniejszej możliwej wartości współczynnika korelacji wektora (X, Y ), gdzie X ln N (, 1), Y ln N (, σ ) natomiast dystrybuantami brzegowymi odpowiednio X i Y nazywamy funkcje F X (x) = lim F (x, y) = P(X x), y F Y (y) = lim F (x, y) = P(Y y). x Jak już zostało zaobserwowane, współczynnik korelacji nie zawsze może przyjąć dowolną wartość z przedziału [ 1, 1]. W tym podrozdziale zostanie przedstawiony alternatywny wzór na kowariancję udowodniony przez Hoeffdinga (194) w []. Poniższy dowód pochodzi z [1]. Znacząco ułatwia on znalezienie rozkładu łącznego, dla którego wartość korelacji jest największa bądź najmniejsza, jak również interpretację kowariancji. Twierdzenie.5. Niech X, Y będą zmiennymi losowymi spełniającymi E XY <. Oznaczmy przez F dystrybuantę rozkładu łącznego, natomiast przez F X, F Y i Y. Wówczas zachodzi Cov(X, Y ) = dystrybuanty brzegowe odpowiednio X (F (x, y) F X (x)f Y (y)) dxdy. (.6) Dowód. Niech (X 1, Y 1 ), (X, Y ) będą niezależnymi kopiami wektora (X, Y ), tzn. niezależnymi wektorami losowymi o takim samym rozkładzie łącznym jak (X, Y ). Wówczas zachodzi równość E((X 1 X )(Y 1 Y )) = E(X 1 Y 1 X Y 1 X 1 Y + X Y ) = E(X 1 Y 1 ) EX EY 1 EX 1 EY + E(X Y ) = E(XY ) EXEY EXEY + E(XY ) = (E(XY ) EXEY ) (.7) = Cov(X, Y ). Ponadto zauważmy, że b a = b 1ds = 1 [a,b) (s) ds = a ( 1(,b) (s) 1 (,a) (s) ) ds. 1
12 Korzystając z powyższej równości otrzymujemy dla x 1, x, y 1, y zachodzi (x 1 x )(y 1 y ) = ( ( = 1(,x)(s) 1 ) ( (,x1)(s) ds) = [ 1(,x)(s)1 (,y)(u) 1 (,x)(s)1 (,y1)(u) ( 1(,y)(u) 1 ) ) (,y1)(u) du 1 (,x1)(s)1 (,y)(u) + 1 (,x1)(s)1 (,y1)(u) ] duds. (.8) W następnym kroku policzymy.7 używając.8 E((X 1 X )(Y 1 Y )) = = E ( [ 1(,X)(s)1 (,Y)(u) 1 (,X)(s)1 (,Y1)(u) 1 (,X1)(s)1 (,Y)(u) + 1 ] (,X1)(s)1 (,Y1)(u) duds. ) (.9) Zauważmy w tym miejscu, że E ( 1 (,X)(s)1 (,Y)(u) ) = P(X > s, Y > u) = 1 P(X s) P(Y u) + P(X s, Y u), = 1 F X (s) F Y (u) + F (s, u), E ( 1 ) (,X)(s)1 (,Y1)(u) = P(X > s, Y 1 > u) = P(X > s)p(y 1 > u) = 1 P(X s) P(Y 1 u) + P(X s)p(y 1 u) = 1 F X (s) F Y (u) + F X (s)f Y (u) (.1) i korzystając z.1 dostajemy, że E ( 1 (,X)(s)1 (,Y)(u) ) E ( 1 (,X)(s)1 (,Y1)(u) ) = F (s, u) F X (s)f Y (u). (.11) Powracając do.9, skorzystamy z twierdzenia Fubiniego przy wchodzeniu z wartością oczekiwaną pod całkę i podstawimy wyniki z.11. W efekcie otrzymujemy, że E((X 1 X )(Y 1 Y )) = Ostatecznie z.7 i.1 otrzymujemy wzór Hoeffdinga na kowariancję Cov(X, Y ) = (F (s, u) F X (s)f Y (u)) duds. (.1) (F (x, y) F X (x)f Y (y)) dxdy. Wzór na współczynnik korelacji możemy teraz zapisać następująco ρ(x, Y ) = (F (x, y) F X(x)F Y (y)) dxdy. VarX VarY Zauważmy, że iloczyn dystrybuant brzegowych, czyli F X F Y jest dystrybuantą rozkładu łącznego wektora (X, Y ) w przypadku, gdy X, Y są niezależne. Z powyższego zapisu wynika więc, że współczynnik korelacji liniowej możemy interpretować jako znormalizowaną średnią różnicę między dystrybuantą rozkładu łącznego a dystrybuantą rozkładu łącznego w przypadku niezależności zmiennych losowych. W przypadku zadanych rozkładów brzegowych znamy ich dystrybuanty oraz wariancję. Zauważmy, że w celu uzyskania największej/najmniejszej wartości współczynnika korelacji należy punktowo zmaksymalizować/zminimalizować wartość dystrybuanty. Tym zagadnieniem zajmiemy się w następnym podrozdziale. 11
13 .4 Ograniczenia Frecheta-Hoeffdinga W tym podrozdziale zajmiemy się ograniczeniami na dystrybuantę rozkładu łącznego wynikającymi z postaci dystrybuant jednowymiarowych. Rozpoczniemy od dowiedzenia pewnego lematu dotyczącego ograniczenia górnego i dolnego dla prawdopodobieństwa przekroju n zdarzeń. Lemat.13. Dla zadanej przestrzeni probabilistycznej (Ω, F, P) niech A 1, A,..., A n F. Wówczas prawdziwe są poniższe nierówności. { } n max, P(A i ) n + 1 P(A 1 A... A n ) min{p(a 1 ), P(A ),..., P(A n )} i=1 Dowód. Druga nierówność wynika z prostej obserwacji korzystającej z monotoniczności miary 1 i n P(A 1 A... A n ) P(A i ) = P(A 1 A... A n ) min{p(a 1 ), P(A ),..., P(A n )} Pierwsza natomiast wynika ze wzoru na prawdopodobieństwo zdarzenia przeciwnego, prawa De Morgana i σ subaddytywności P(A 1 A... A n ) = 1 P((A 1 A... A n ) ) = 1 P(A 1 A... A n) n n n 1 P(A i) = 1 (1 P(A i )) = P(A i ) n + 1. i=1 Powyższe oszacowanie może wyjść ujemne, a wiemy, że prawdopodobieństwo jest nieujemne, dlatego dostajemy, że P(A 1 A... A n ) max { i=1, i=1 } n P(A i ) n + 1. Rozpatrzmy teraz n-wymiarowy wektor losowy (X 1, X,..., X n ) o dystrybuancie łącznej i=1 F (x 1, x,..., x n ) = P(X 1 x 1, X x,..., X n x n ) oraz jednowymiarowych dystrybuantach brzegowych F i (x i ) zadanych wzorami F i (x i ) = lim F (x 1,..., x i 1, x i, x i+1,..., x n ) = P(X i x i ). j i x j Korzystając z lematu.13 dla zdarzeń A i = {ω Ω : X i (ω) x i } dostajemy nierówności dla każdego (x 1, x,..., x n ) R n F (x 1, x,..., x n ) F (x 1,x,..., x n ) F + (x 1, x,..., x n ), gdzie : { } n F (x 1, x,..., x n ) = max, F i (x i ) n + 1 i=1 F + (x 1, x,..., x n ) = min{f 1 (x 1 ), F (x ),..., F n (x n )}. (.14) Powyższe nierówności nazywamy ograniczeniami Frecheta-Hoeffdinga. W niektórych książkach można się spotkać z nazwą ograniczenia Frecheta. W tym miejscu należy się zastanowić, czy powyższe ograniczenia są najlepsze z możliwych, a ponadto czy funkcje F + oraz F są dystrybuantami. Przypomnijmy warunki jakie musi spełniać funkcja, aby być dystrybuantą n-wymiarową. Definicja.15. Funkcję F : R n R nazywamy n-rosnącą jeżeli dla każdych a = (a 1, a,..., a n ), b = (b 1, b,..., b n ) R n takich, że a i b i dla i {1,..., n} oraz x = (x 1, x,..., x n ) R n zachodzi a,b F = a,b F (x) = (1) a 1,b 1 () a,b (n) a n,b n F (x), (.16) 1
14 gdzie (i) a i,b i jest operatorem różnicowym zdefiniowanym następująco (i) a i,b i F (x) = F (x 1,..., x i 1, b i, x i+1,..., x n ) F (x 1,..., x i 1, a i, x i+1,..., x n ). (.17) Uwaga. Dla każdego x R n wartość a,b F (x) jest taka sama, dlatego w zapisie będziemy pomijać symbol x i zapisywać a,b F. Wielkość a,b F można interpretować jako pole n-wymiarowego prostokąta (a, b] zadane przez funkcję F (V F ((a, b] = a,b F ). Wówczas warunek n-rosnąca oznacza, że pole dowolnego n-wymiarowego prostokąta zadane przez F (ang. F-Volume) jest nieujemne. Uwaga. Dla n = warunek.16 można zapisać następująco F (x, y ) F (x, y 1 ) F (x 1, y ) + F (x 1, y 1 ) dla x x 1, y y 1 R. (.18) Natomiast dla n = 3 warunek.16 można sformułować F (x, y, z ) F (x 1, y, z ) F (x, y 1, z ) F (x, y, z 1 ) + F (x 1, y 1, z ) + F (x 1, y, z 1 ) + F (x 1, y 1, z ) F (x 1, y 1, z 1 ), dla x x 1, y y 1, z z 1 R. (.19) Uwaga 3. Operatory określone w.17 są przemienne. Załóżmy bez straty ogólności, że i < j oraz a i b i, a j b j, wówczas dla dowolnego x R n (i) a i,b i (j) a j,b j F (x) = (i) a i,b i (F (x 1,..., b j,..., x n ) F (x 1,..., a j,..., x n )) =F (x 1,..., b i,... b j,..., x n ) F (x 1,..., b i,..., a j,..., x n ) F (x 1,..., a i,..., b j,..., x n ) + F (x 1,..., a i,..., a j,..., x n ) = (j) a j,b j (F (x 1,..., b i,..., x n ) F (x 1,..., a i,..., x n )) = (j) a j,b j (i) a i,b i F (x) (.) Twierdzenie.1. Istnieje zmienna losowa X określona na (Ω, F, P) taka że F jest dystrybuantą X istnieje funkcja F : R n R, która spełnia własności: 1. F (x 1, x,..., x n ), jeżeli inf 1 i n x i (czyli x i dla przynajmniej jednego argumentu) oraz F (x 1, x,..., x n ) 1, jeżeli inf 1 i n x i.. F jest prawostronnie ciągła. 3. F jest n-rosnąca. Dowód. = Polega na wykazaniu własności dystrybuanty, można odnaleźć w [3]. = Sprowadza się do pokazania, że tak zdefiniowana funkcja F indukuje miarę probabilistyczną V F na zbiorach borelowskich na R n. W pierwszej kolejności definiujemy ją dla prostokątów postaci (a, b], gdzie a, b R n oraz a b przy pomocy wzoru V F ((a, b]) = a,b F = (1) a 1,b 1... (n) a n,b n F, a następnie używając standardowych teorio-miarowych technik rozszerzamy na zbiory borelowskie na R n. Z warunku n-rosnąca wiemy, że prawdopodobieństwa te są nieujemne. Dowód dla przypadku jednowymiarowego można odnaleźć w [], [3]. Twierdzenie.. F + jest dystrybuantą n-wymiarową. Dowód. Należy sprawdzić czy są spełnione 3 warunki z twierdzenia.1. 13
15 1. Wiemy, że dla każdego 1 i n zachodzi, że lim xi F i (x i ) = 1 oraz lim xi F i (x i ) =. Wówczas, gdy dla co najmniej jednego 1 i n zachodzi, że x i (czyli inf 1 i n x i ), to mamy, że dla takich x 1,..., x i,..., x n F (x 1,..., x n ) min(f 1 (x 1 ),..., F n (x n ))) F i (x i ) =. Podobnie, jeżeli inf 1 i n x i, to 1 i n x i, czyli wówczas 1 F (x 1,..., x n ) n F i (x i ) n + 1 = n n + 1 = 1. i=1. Dystrybuanty brzegowe są z definicji prawostronnie ciągłe. Funkcja min jest ciągła. Z teorii wiemy, że złożenie funkcji ciągłej i prawostronnie ciągłej jest funkcją prawostronnie ciągłą. 3. Chcemy pokazać, że dla każdych a = (a 1, a,..., a n ), b = (b 1, b,..., b n ) R n takich, że a i b i dla i {1,..., n} zachodzi a,b F + = (1) a 1,b 1 () a,b... (n) a n,b n min{f 1 (x 1 ), F (x ),..., F n (x n )}. Załóżmy bez straty ogólności, że F 1 (a 1 ) F (a )... F n (a n ). (.3) Możemy tak zrobić, ponieważ z. wiemy, że operatory są przemienne. Rozpisując względem pierwszego operatora różnicowego uzyskujemy a,b F + = () a,b... (n) a n,b n min{f 1 (b 1 ), F (x ),..., F n (x n )} () a,b... (n) a n,b n min{f 1 (a 1 ), F (x ),..., F n (x n )}. (.4) Z.3 i faktu, że dystrybuanta jest niemalejąca otrzymujemy i>1 F 1 (a 1 ) F i (a i ) F i (b i ). Na mocy powyższych nierówności możemy zauważyć, że w.4 po rozpisaniu odjemnika za pomocą operatorów różnicowych wszystkich składniki będą równe F 1 (a 1 ), dlatego ta część się wyzeruje. W efekcie uzyskujemy a,b F + = () a,b... (n) a n,b n min{f 1 (b 1 ), F (x ),..., F n (x n )} = (3) a 3,b 3... (n) a n,b n min{f 1 (b 1 ), F (b ), F 3 (x 3 ),..., F n (x n )} (3) a 3,b 3... (n) a n,b n min{f 1 (b 1 ), F (a ), F 3 (x 3 ),..., F n (x n )} (.5) Stosując analogiczne równanie jak w przypadku.4 zauważamy, że w.5 po rozpisaniu odjemnika wszystkie składniki będą równe min{f 1 (b 1 ), F (a )} i ponownie wartość odjemnika wyniesie. Kontynuując w taki sam sposób z pozostałymi operatorami dostajemy a,b F + = (n) a n,b n min{f 1 (b 1 ), F (b ),..., F n 1 (b n 1 ), F n (x n )} tym samym dowodząc, że F + jest n-rosnąca. = min{f 1 (b 1 ), F (b ),..., F n 1 (b n 1 ), F n (b n )} min{f 1 (b 1 ), F (b ),..., F n 1 (b n 1 ), F n (a n )}, Z twierdzenia. wnioskujemy, że górne ograniczenie Frecheta-Hoeffdinga jest najlepszym możliwym dla każdego (x 1, x,..., x n ) R n, ponieważ F + jest dystrybuantą. 14
16 Twierdzenie.6. F jest dystrybuantą dla n =. Dowód. Niech F X, F Y będą dystrybuantami jednowymiarowymi, a F = F dystrybuantą łączną. 1. Dla przypadku inf{x, y} bez straty ogólności weźmy x. lim F (x, y) = lim max {F X(x) + F Y (y) 1, } x x { } = max lim F X(x) + F Y (y) 1, = max {F Y (y) 1, } =. x lim F (x, y) = lim max {F X(x) + F Y (y) 1, } x,y x,y { } = max lim (F X(x) + F Y (y)) 1, = max { , } = 1. x,y. Funkcja max jest ciągła, a złożenie funkcji ciągłej i prawostronnie ciągłej jest funkcją prawostronnie ciągłą. 3. Musimy pokazać, że dla każdego x x 1, y y 1 R jest spełniona nierówność.18 F (x, y ) F (x, y 1 ) F (x 1, y ) + F (x 1, y 1 ) = max{f X (x ) + F Y (y ) 1, } max{f X (x ) + F Y (y 1 ) 1, } max{f X (x 1 ) + F Y (y ) 1, } + max{f X (x 1 ) + F Y (y 1 ) 1, }. Mamy możliwych 5 różnych sytuacji, w zależności od tego ile z maksimów >. Sytuacja, gdy wszystkie są równe bądź tylko największe jest dodatnie jest oczywista. Podobnie, gdy wszystkie są dodatnie, to uzyskujemy. (a) max > - bez straty ogólności załóżmy, że F X (x ) + F Y (y 1 ) 1 F X (x 1 ) + F Y (y ) F X (x ) + F Y (y ) 1 F X (x ) F Y (y 1 ) + 1 = F Y (y ) F Y (y 1 ), (b) 3 max >, czyli jedynie F X (x 1 ) + F Y (y 1 ) 1 F X (x ) + F Y (y ) 1 F X (x ) F Y (y 1 ) + 1 F X (x 1 ) F Y (y ) + 1 = 1 F X (x 1 ) F Y (y 1 ). Z twierdzenia.6 wnioskujemy, że dolne ograniczenie Frecheta-Hoeffdinga jest najlepsze z możliwych dla n =, ponieważ w tym przypadku F jest dystrybuantą. Uwaga. Okazuje się, że dla n 3 F nie zawsze jest dystrybuantą. Rozpatrzmy sytuację, że X 1, X, X 3 U(, 1), czyli F i (x i ) = x i 1 (,1) (x i ) + 1 [, ) (x i ) dla i = 1,, 3. Podstawiając do warunku.19 dla x = y = z = 1, x 1 = y 1 = z 1 = 1 max { , } 3 max { }, } max { , = 1 3 = 1 <. uzyskujemy, że + 3 max { }, Czyli w badanej sytuacji F (x 1, x, x 3 ) = max{f 1 (x 1 ) + F (x ) + F 3 (x 3 ), } nie jest dystrybuantą. Podamy teraz bez dowodu twierdzenie mówiące o tym kiedy F jest dystrybuantą. Twierdzenie.7. Dolne ograniczenie Frecheta-Hoeffdinga F = max {F 1 (x 1 ) F n (x n ) n + 1, } jest dystrybuantą n-wymiarową dla każdego (x 1, x,... x n ) zachodzi jedna z dwóch możliwości: 15
17 1. n i=1 F i(x i ) 1, gdy < F i (x i ) < 1, 1 i n.. n i=1 F i(x i ) n 1, gdy < F i (x i ) < 1, 1 i n. Dowód przeprowadzony najpierw dla n = 3, a później przez indukcję można odnaleźć w [5]. Alternatywną wersję dowodu przedstawia [7]. Okazuje się, że dolne ograniczenie Frecheta-Hoeffdinga jest punktowo najlepsze z możliwych dla n 3, nawet gdy dla zadanych F 1, F,..., F n funkcja F nie jest dystrybuantą. Fakt ten wynika z twierdzenia 3.. Podsumowując, dla n = otrzymaliśmy następujący wniosek. Niech F X, F Y będą dystrybuantami odpowiednio X, Y. Wówczas dla dowolnej dystrybuanty łącznej F o brzegowych F X, F Y zachodzi, że F (x, y) = max{f X (x) + F Y (y) 1, } F (x, y) min{f X (x), F Y (y)} = F + (x, y), a ponadto są to ograniczenia najlepsze z możliwych, ponieważ są osiągane dla F +, F, które są dystrybuantami dwuwymiarowymi. Również wariacja wielowymiarowej dystrybuanty jest kontrolowana przez wariację jej jednowymiarowych dystrybuant brzegowych, o czym mówi poniższe twierdzenie. Twierdzenie.8. Niech F będzie n-wymiarową dystrybuantą o dystrybuantach brzegowych F 1, F,..., F n. Wówczas dla dowolnej pary punktów (t 1, t,..., t n ), (s 1, s,..., s n ) R n zachodzi F (t 1,..., t n ) F (s 1,..., s n ) n F j (t j ) F j (s j ). Dowód. Niech F będzie n-wymiarową dystrybuantą wektora losowego X określonego na (Ω, F, P). Dla każdego i {1,..., n}, t < t R oraz x = (x 1,..., x i 1, x i+1,..., x n ) R n 1 zachodzi F (x 1,..., x i 1, t, x i+1,..., x n ) F (x 1,..., x i 1, t, x i+1,..., x n ) = P(X 1 x 1,..., X i t,..., X n x n ) P(X 1 x 1,..., X i t,..., X n x n ) = P(X 1 x 1,..., t < X i t,..., X n x n ) P(t < X i t ) = P(X t ) P(X t) = F i (t ) F i (t). Stosując powyższą nierówność oraz nierówność trójkąta n razy otrzymujemy, że dla dowolnego (t 1, t,..., t n ), (s 1, s,..., s n ) R n zachodzi F (t 1, t,..., t n ) F (s 1, s,..., s n ) = F (t 1, t..., t n ) F (s 1, t,..., t n ) + F (s 1, t,..., t n ) F (s 1, s,..., s n ) F (t 1, t..., t n ) F (s 1, t,..., t n ) + F (s 1, t,..., t n ) F (s 1, s,..., s n ) i=1 F 1 (t 1 ) F 1 (s 1 ) + F (s 1, t,..., t n ) F (s 1, s,..., s n ) n... F i (t i ) F i (s i ). i=1.5 Monotoniczna zależność funkcyjna między zmiennymi losowymi W poniższym rozdziale rozważymy jakie są konsekwencje faktu, że dystrybuanta wektora losowego jest zadana przez górne bądź dolne ograniczenie Frecheta-Hoeffdinga. W pierwszej kolejności wprowadzimy pojęcie uogólnionej dystrybuanty odwrotnej oraz udowodnimy kilka twierdzeń z nią związanych. Potrzeba takiej definicji wynika z faktu, że dystrybuanta nie musi być ściśle rosnąca ani ciągła, dlatego nie zawsze istnieje funkcja odwrotna do niej. 16
18 .5.1 Uogólniona dystrybuanta odwrotna W dalszej części pracy będziemy stosować oznaczenie I = [, 1]. Definicja.9. Niech F będzie dystrybuantą zmiennej losowej X. Wówczas uogólnioną dystrybuantą odwrotną nazywamy funkcję F 1 : I R {, + } zadaną wzorem F ( 1) (t) = inf {x R : F (x) t}. Zgodnie z konwencją przyjmujemy inf = +, inf R =. Uwaga. Jeżeli dystrybuanta jest ciągła i ściśle rosnąca, to uogólniona dystrybuanta odwrotną jest po prostu funkcją odwrotną dystrybuanty. Uwaga. Obszerny komentarz dotyczący definicji uogólnionej dystrybuanty odwrotnej i jej własności można odnaleźć w pracy [19]. Twierdzenie.3. Niech F będzie dystrybuantą, a F ( 1) uogólnioną dystrybuantą odwrotną zmiennej losowej X. Wówczas dla każdego x R, t I zachodzi Dowód. = Załóżmy, że F ( 1) (t) x t F (x). a = inf A = inf {y R : F (y) t} = F ( 1) (t) x. Z definicji infimum i faktu, że dystrybuanta jest niemalejąca dostajemy, że ε> F (a + ε) t i kolejno korzystając z prawostronnej ciągłości dystrybuanty oraz założenia otrzymujemy t lim ε F (a + ε) = F (a) F (x). = Załóżmy, że t F (x). Ponownie oznaczmy A = {y R : F (y) t}. Zauważmy, że x A, a ponieważ z własności infimum zachodzi, że a A a inf A, to dostajemy x inf{y R : F (y) t} = F ( 1) (t). Twierdzenie.31. Niech F będzie dystrybuantą, a F ( 1) jej uogólnioną dystrybuantą odwrotną. Wówczas 1. F ( 1) jest niemalejąca. W szczególności jeżeli F jest ciągła, to F ( 1) jest ściśle rosnąca.. F ( F ( 1) (t) ) t dla każdego t I, a jeżeli t Ran F, to F ( F ( 1) (t) ) = t. W szczególności, jeżeli F jest ciągła, to F ( F ( 1) (t) ) = t dla każdego t I. 3. F ( 1) (F (x)) x dla każdego x R. W szczególności, jeżeli F jest ściśle rosnąca, to F ( 1) (F (x)) = x dla każdego x R. Uwaga. W części 1. zachodzi również implikacja w drugą stronę. Dowód. 1. Niech x < y oraz wprowadźmy oznaczenia F ( 1) (x) = inf A = inf{z : F (z) x}, F ( 1) (y) = inf B = inf{z : F (z) y}. 17
19 Ponadto wiemy, że z R F (z) y = F (z) x, czyli z B = z A. W efekcie uzyskaliśmy zawieranie B A, a wiemy, że infimum zbioru jest nie większe niż infimum jakiegokolwiek jego podzbioru, dlatego F ( 1) (x) = inf A inf B = F ( 1) (y). Pokażemy teraz drugą część twierdzenia. Załóżmy, że F jest ciągła oraz F ( 1) nie jest ściśle rosnąca, tzn. t1<t x R F ( 1) (t 1 ) = F ( 1) (t ) = x. Z definicji infimum oraz uogólnionej dystrybuanty odwrotnej F ( 1) wiemy, że ε> F (x ε) < t 1 < t F (x + ε). Zbiegając z ε i z założenia o ciągłości F dostajemy, że F (x) = lim ε F (x ε) t 1 < t lim ε F (x + ε) = F (x). Uzyskaliśmy sprzeczność, czyli F ( 1) musi być ściśle rosnąca.. Weźmy dowolne t I. Ponadto oznaczmy ˆx t = F ( 1) (t) = inf{y R : F (y) t}. Z definicji infimum mamy, że dla każdego ε > zachodzi F (ˆx t + ε) t. W efekcie, z prawostronnej ciągłości dystrybuanty dostajemy, że ( ) F F ( 1) (t) = F (ˆx t ) = lim ε F (ˆx t + ε) t. Niech t Ran F. Wówczas istnieje takie x t R, że F (x t ) = t, jednakże takie x t nie musi być jedyne. Oznaczmy x t = inf{y R : F (y) = t}. Wówczas F ( x t ) = t albo z definicji infimum dostajemy, że istnieje takie ε, że dla < ε < ε zachodzi, że F ( x t + ε) = t. W efekcie, z prawostronnej ciągłości dystrybuanty mamy, że F ( x t ) = lim ε F ( x t + ε) = lim ε t = t. Ponadto, ponieważ istnieje x t dla którego F (x t ) = t dostajemy ( ) F F ( 1) (t) = F (inf{x R : F (x) t}) = F (inf{x R : F (x) = t}) = F ( x t ) = t. Gdy F jest ciągła, to wówczas Ran F = I i zachodzi druga część twierdzenia. 3. Pierwszą część twierdzenia dostajemy dla każdego x R z faktu, że dystrybuanta jest niemalejąca, F ( 1) (F (x)) = inf{y R : F (y) F (x)} x. Powyżej mamy nierówności zamiast równości, ponieważ może się zdarzyć tak, że istnieje y < x, dla którego zachodzi F (y) = F (x). Załóżmy teraz, że dystrybuanta F jest ściśle rosnąca. Oznacza to, że nie istnieje takie z < x, że F (z) = F (x), co oznacza, że F ( 1) (F (x)) = x. Twierdzenie.3. Jeżeli F jest dystrybuantą zmiennej losowej X, to zachodzi P(F (X) F (x)) = P(X x) = F (x). 18
20 Dowód. Z faktu, że dystrybuanta jest niemalejąca dostajemy, że X x = F (X) F (x), czyli {ω Ω : X(ω) x} {ω Ω : F (X(ω)) F (x)}. (.33) W dalszej części dowodu pominiemy w zapisie ω. Zauważmy, że możemy zapisać zbiór po prawej stronie.33 w postaci rozłącznej sumy {F (X) F (x)} = {F (X) F (x), X x} {F (X) F (x), X > x}. Z zawierania.33 oraz faktu, że X > x = F (X) F (x) dostajemy {F (X) F (x)} = {X x} {F (X) = F (x), X > x}, a ponieważ powyższa suma jest rozłączna to z własności miary mamy P(F (X) F (x)) = P(X x) + P(F (X) = F (x), X > x). Aby uzyskać tezę wystarczy pokazać, że P(F (X) = F (x), X > x) =. Ustalmy x R i wprowadźmy oznaczenia x 1 = sup{y R : F (y) = F (x)}. Z monotoniczności dystrybuanty dostajemy F (x 1 ) F (x). Rozpatrzmy teraz dwie sytuacje: 1. Jeżeli F (x 1 ) = F (x), to P(F (X) = F (x), X > x) = P(x < X x 1 ) = P(X x 1 ) P(X x) = F (x 1 ) F (x) =.. Jeżeli F (x 1 ) > F (x), to z definicji x 1 dostajemy, że Ostatecznie, z ciągłości miary otrzymujemy b<x1 P(x < X b) =. P(F (X) = F (x), X > x) = P(x < X < x 1 ) = P ( i=1 ( = lim P x < X x 1 1 ) i i { x < X x 1 1 } ) i Twierdzenie.34. Niech X będzie zmienną losową określona na (Ω, F, P) o dystrybuancie F. 1. Jeżeli U jest zmienną losową o rozkładzie jednostajnym na I, to zmienna losowa F ( 1) (U) ma taki sam rozkład jak X.. Jeżeli F jest ciągła, to F (X) ma rozkład jednostajny na I. Uwaga. F (X) będziemy nazywać transformatą dystrybuantową (ang. distributional transform). Dowód. =. 1. Z twierdzenia.3 dostajemy, że dla każdego t I ( ) P F ( 1) (U) t = P(U F (t)) = F (t).. Chcemy pokazać, że t (,1) P(F (X) t) = t. Z ciągłości dystrybuanty F mamy, że t (,1) xt R t = F (x t ). Na mocy twierdzenia.3 mamy, że dla każdego t (, 1) zachodzi P(F (X) t) = P(F (X) F (x t )) = P(X x t ) = F (x t ) = t. 19
21 Uwaga. Założenie o ciągłości w punkcie. jest istotne. Rozpatrzmy zmienną losową Y taką, że P(Y = ) = 1 3, P(Y = 1) = 3. Dystrybuanta Y wygląda następująco F (y) =, dla t < 1 3, dla t < 1 1, dla 1 t. Wówczas zmienna losowa F (Y ) będzie miała rozkład dwupunktowy o atomach ( P F (Y ) = 1 ) = P( Y < 1) = P(Y = ) = 1 3 3, P (F (Y ) = 1) = P(1 Y ) = P(Y = 1) = Komonotoniczność W dalszej części pracy n-wymiarowy wektor (x 1, x,..., x n ) R n będziemy zapisywać x. Dla dwóch n-wymiarowych wektorów symbol x y będzie oznaczać, że 1 i n x i y i. Analogicznie n-wymiarowy wektor losowy będziemy oznaczać jako X, podczas gdy zmienna losową będziemy zapisywać X. Definicja.35. Mówimy, że wektor losowy X ma rozkład ciągły albo X jest ciągłym wektorem losowym jeżeli zachodzi, że nie ma on części dyskretnej czyli x R n P(X 1 = x 1, X = x,..., X n = x n ) =. (.36) Uwaga. Zauważmy, że warunek.36 jest wystarczający i konieczny, aby dystrybuanta była funkcją ciągłą. Jako funkcja monotoniczna dystrybuanta w każdym punkcie posiada granice lewo- i prawostronne, dlatego może posiadać punkty nieciągłości jedynie I rodzaju, czyli skoki. Aby dystrybuanta nie posiadała żadnego skoku, to nie może istnieć żaden zbiór jednopunktowy o mierze dodatniej, co jest równoważne.36. Definicja.37. Nośnikiem wektora losowego X określonego na (Ω, F, P) nazywamy taki zbiór A B(R n ), że P(X A) = 1. Będziemy go oznaczać symbolem supp(x). Definicja.38. Mówimy, że wektory losowe X, Y mają takie same rozkłady, jeżeli x R n P(X x) = P(Y x). W przypadku równości rozkładów będziemy stosować oznaczenie X = d Y. Definicja.39. Zbiór A R n nazywamy komonotonicznym jeżeli dla dowolnych x, y A zachodzi x y albo y x. Definicja.4. Wektor losowy X = (X 1, X,..., X n ) nazywamy komonotonicznym jeżeli jego nośnik jest zbiorem komonotonicznym, tzn. istnieje taki zbiór komonotoniczny A, że P(X A) = 1. Fakt, że wektor losowy posiada nośnik komonotoniczny świadczy o doskonałej zależności dodatniej między poszczególnymi zmiennymi losowymi. Zauważmy, że wzrost wartości zmiennej X k oznacza, że wartość innej zmiennej X j również wzrosła bądź pozostała bez zmian. Określenie komonotoniczny można rozumieć jako wspólnie monotoniczny. Poniższe twierdzenia i dowody pochodzą z prac [11], [16].
22 Twierdzenie.41. Niech X = (X 1, X,..., X n ) będzie wektorem losowym określonym na przestrzeni probabilistycznej (Ω, F, P) o dystrybuancie łącznej F i dystrybuantach brzegowych F i. Następujące warunki są równoważne: 1. Wektor X = (X 1, X,..., X n ) jest komonotoniczny.. Dla każdego x = (x 1, x,..., x n ) zachodzi F (x) = min {F 1 (x 1 ), F (x ),..., F n (x n )}. 3. Istnieje przestrzeń probabilistyczna (Ω, F, µ), określona na niej zmienna losowa Z oraz n niemalejących funkcji ϕ i : R R, takich że zachodzi X d = (ϕ 1 (Z), ϕ (Z),..., ϕ n (Z)). Uwaga. Jeżeli X jest ciągłym wektorem losowym, to w punkcie 3. funkcje ϕ i są ściśle rosnące. Dowód. 1. =. Załóżmy, że X jest komonotoniczny. Oznacza to z definicji, że ma komonotoniczny nośnik, który oznaczymy A. Weźmy dowolny x = (x 1, x,..., x n ) R n i zdefiniujmy zbiory A j jako A j (x) = {y A : y j x j }, j = 1,,..., n. Pokażemy, że istnieje taki indeks i, że A i (x) A j (x) dla każdego j i (tzn. istnieje wśród A i zbiór najmniejszy w sensie zawierania), czyli zachodzi A i (x) = n A j (x). (.4) j=1 Załóżmy, że taki indeks nie istnieje, czyli że dla każdego i {1,..., n} istnieje takie a (i) A, że a (i) A i (x) oraz a (i) / n j=1 A j(x). Wówczas zachodzi dla każdego i {1,..., n}, że a (i) i x i oraz istnieje takie j i, że a (i) j > x j. Wszystkie a (i) A, który jest zbiorem komonotonicznym, więc z definicji wiemy, że możemy je porównać i tym samym ustawić w ciąg a (i1) a (i)... a (in). (.43) W efekcie uzyskaliśmy, że istnieje najmniejsze spośród a (i), które oznaczymy a (i1), dla którego zachodzi z definicji zbiorów A i (x), komonotoniczności A oraz zestawu nierówności.43, że a (i1) 1 x 1, a (i1) a (i) x,..., a (i1) n a (in) n x n, czyli a (i1) n j=1 A j(x) i uzyskaliśmy sprzeczność z założeniem. Pokazaliśmy, że dla dowolnego x R n istnieje taki indeks i, dla którego zachodzi równość.4. Z tego dostajemy, że dla dowolnego x R n oraz każdego j i F i (x i ) = P(X 1 R,..., X i x i,..., X n R) = P(X A i (x)) P(X A j (x)) = F j (x j ). oraz dla dystrybuanty łącznej F wektora losowego X zachodzi F (x) = P(X x) = P(X 1 x 1, X x,..., X n x n ) = P = P(X A i (x)) = min{f 1 (x 1 ), F (x ),..., F n (x n )}. ( X ) n A j (x) i=1 1
23 . = 3. Oznaczmy przez F dystrybuantę X. Weźmy standardową przestrzeń probabilistyczną (I, B(I), λ) i określmy na niej zmienną losową U o rozkładzie U(, 1). Wówczas dla każdego x = (x 1, x,..., x n ) korzystając z lematu.3 dostajemy, że F (x) = min{f 1 (x 1 ),..., F n (x n )} = λ (U min{f 1 (x 1 ),..., F n (x n )}) ( n ) ( ) = λ {U F i (x i )} = λ F ( 1) 1 (U) x 1,..., F n ( 1) (U) x n. i=1 Biorąc Z = U oraz ϕ i = F ( 1) i, 1 i n dostajemy tezę. Zauważmy, że jeżeli dystrybuanty F i są ciągłe, to wówczas na mocy twierdzenia.31 funkcje ϕ i są ściśle rosnące. 3. = 1. Załóżmy, że istnieje zmienna losowa Z o nośniku B (czyli P(Z B) = 1) i niemalejące funkcje ϕ i, 1 i n takie, że X d = (ϕ 1 (Z), ϕ (Z),..., ϕ n (Z)). Nośnikiem X jest zbiór A = {(ϕ 1 (z), ϕ (z),..., ϕ n (z)) : z B}. Chcemy pokazać, że jest to zbiór komonotoniczny. Weźmy dowolne x y B. Wówczas z monotoniczności funkcji ϕ i otrzymujemy, że 1 i n ϕ i (x) ϕ i (y) lub 1 i n ϕ i (x) ϕ i (y) co oznacza, że zbiór A jest komonotoniczny. Twierdzenie.44. Załóżmy, że X = (X 1, X,..., X n ) jest ciągłym wektorem losowym. Wówczas X jest komonotoniczny istnieje n 1 ściśle rosnących funkcji f j, j =,..., n takich, że dla każdego indeksu j {,..., n} zachodzi, że X j d = fj (X 1 ). Dowód. = Załóżmy, że X jest komonotoniczny. Z punktu 3. twierdzenia.41 wiemy, że (X 1, X,..., X n ) d = (ϕ 1 (Z), ϕ (Z),..., ϕ n (Z)). Jako, że funkcje ϕ i są ściśle rosnące to mają funkcje odwrotne na swoim obrazie, które również są ściśle rosnące. Z tego dostajemy, że Z d = ϕ 1 1 (X 1). Zależność między X j a X 1 możemy teraz wyrazić za pomocą funkcji f j, które są ściśle rosnące jako złożenie funkcji ściśle rosnących X j d = fj (X 1 ), gdzie f j = ϕ j ϕ 1 1. = Wystarczy przyjąć Z = X 1, ϕ 1 = Id, ϕ j = f j dla j n i skorzystać z punktu 3. twierdzenia.41. Uwaga. Zauważmy, że fakt, że wybraliśmy X 1 w powyższym twierdzeniu nie odgrywa żadnej roli, dlatego zachodzi ono dla dowolnego X i, gdzie 1 i n. Uwaga. Oczywistym wnioskiem z powyższego twierdzenia jest następująca równoważność X jest komonotoniczny i j (X i, X j ) jest komonotoniczny. Twierdzenie.45. Załóżmy, że X = (X 1, X,..., X n ) jest ciągłym wektorem losowym. Wówczas X jest komonotoniczny dla wszystkich indeksów i oraz j ze zbioru {1,,..., n}, X j jest prawie na pewno rosnącą funkcją X i. Dowód. = Załóżmy, że X jest komonotoniczny. Z twierdzenia.44 dostajemy, że dla każdego i j, X i oraz X j są również komonotoniczne oraz nośnik wektora (X i, X j ) jest postaci {(x i, ϕ(x i )) : x i supp(x i )}, gdzie ϕ jest funkcją ściśle rosnącą. W efekcie dostajemy, że X i = ϕ(x j ) prawie na pewno. = Równość prawie na pewno zmiennych losowych implikuje równość rozkładów i z twierdzenia.44 uzyskujemy tezę.
24 Twierdzenie.46. Niech X 1, X,..., X n będą zmiennymi losowymi określonymi na tej samej przestrzeni probabilistycznej (Ω, F, P) o dystrybuantach F 1, F,..., F n. Wówczas następujące warunki są równoważne: 1. P(X 1 = X =... = X n ) = 1.. Dla każdego t R F 1 (t) = F (t) =... = F n (t) oraz (X 1, X,..., X n ) jest komonotoniczny. Dowód. 1. =. Weźmy dowolne 1 i n. Wówczas dla każdego j i mamy z założenia, że X i = X j prawie na pewno, z czego dostajemy, że dla każdego t R zachodzi F i (t) = P(X i t) = P(X j t) = F j (t). Ponadto na mocy twierdzenia.45 dostajemy, że X jest komonotoniczny.. = 1. Załóżmy, że (X 1, X,..., X n ) jest komonotoniczny oraz wszystkie X i mają takie same dystrybuanty. Z punktu 3. twierdzenia.41 wiemy, że istnieje przestrzeń probabilistyczna oraz określona na niej zmienna losowa U U(, 1) taka, że (X 1, X,..., X n ) d = ( F ( 1) 1 (U), F ( 1) (U),..., F n ( 1) ) ( ) (U) = F ( 1) 1 (U), F ( 1) 1 (U),..., F ( 1) 1 (U). Wektor losowy (X 1, X,..., X n ) jest równy co do rozkładu wektorowi, który ma wszystkie współrzędne równe sobie. Równość rozkładów implikuje równość nośników, czyli zachodzi, że P(X 1 = X =... = X n ) = 1. Rozpatrzmy teraz zagadnienie - jak skonstruować komonotoniczny wektor losowy (X 1, X,..., X n ) o dystrybuantach brzegowych F 1, F,..., F n. Uniwersalną metodę wskazuje nam twierdzenie.41 przy pomocy twierdzenia.34 dotyczącego własności dystrybuanty odwrotnej. Weźmy zmienną losową U U(, 1). Wówczas zmienne losowe X 1 = F ( 1) 1 (U), X = F ( 1) (U),..., X n = F n ( 1) (U) mają dystrybuanty odpowiednio F 1, F,..., F n z twierdzenia.34. Ponadto na mocy twierdzenia.41 są niemalejącymi funkcjami tej samej zmiennej losowej, więc wektor (X 1, X,..., X n ) jest komonotoniczny. Jeżeli założymy dodatkowo, że F 1, F,..., F n są ciągłe, to wystarczy przyjąć dla i =,..., n, że X i = F ( 1) i (F 1 (X 1 )). Z twierdzenia.34 mamy, że F 1 (X 1 ) ma rozkład jednostajny, a F ( 1) i (F 1 (X 1 )) ma dystrybuantę F i. Ponadto, z twierdzenia.45 dostajemy komonotoniczność. Wówczas zachodzą również równości F 1 (X 1 ) = F (X ) =... = F n (X n ). (.47) Równości.47 pokazują istotę komonotoniczności dla ciągłych zmiennych losowych. Zmienne losowe mogą mieć całkowicie różne nośniki, ale komonotoniczność oznacza, że będą one sobie równe co do kwantyli..5.3 Kontrmonotoniczność Zajmijmy się teraz konsekwencjami wynikającymi z faktu, że dystrybuantą dwuwymiarową jest dolne ograniczenie Frecheta-Hoeffdinga. 3
25 Definicja.48. Zbiór A R nazywamy kontrmonotonicznym, jeżeli dla każdego (x 1, y 1 ), (x, y ) A zachodzi, że (x x 1 )(y y 1 ). Uwaga. Równoważna definicja brzmi następująco - A R jest kontrmonotoniczny, jeżeli dla każdego (x 1, y 1 ), (x, y ) A zachodzi, że x 1 < x = y 1 y. Definicja.49. Wektor losowy (X, Y ) określony na przestrzeni probabilistycznej (Ω, F, P) nazywamy kontrmonotonicznym jeżeli ma kontrmonotoniczny nośnik, tzn. istnieje kontrmonotoniczny zbiór A taki, że P((X, Y ) A) = 1. Twierdzenie.5. Niech (X, Y ) będzie wektorem losowym określonym na przestrzeni probabilistycznej (Ω, F, P) o dystrybuancie łącznej F i brzegowych F X, F Y. Wówczas następujące warunki są równoważne: 1. (X, Y ) jest kontrmonotoniczny.. Dla każdego (x, y) R zachodzi F (x, y) = max{f X (x) + F Y (y) 1, }. 3. Istnieje przestrzeń probabilistyczna (Ω, F, µ), określona na niej zmienna losowa Z oraz niemalejąca funkcja ϕ : R R i nierosnąca funkcja ψ : R R, takie że zachodzi (X, Y ) = d (ϕ(z), ψ(z)). Uwaga. Jeżeli (X, Y ) jest ciągłym wektorem losowym to w punkcie 3. funkcja ϕ jest ściśle rosnącą, a ψ ściśle malejąca. Dowód. 1. =. Załóżmy, że (X, Y ) ma kontrmonotoniczny nośnik A. Weźmy dowolne z = (z 1, z ) R. Wprowadźmy oznaczenia A 1 (z) = {(x, y) A : x z 1 }, A (z) = {(x, y) A : y z }. (.51) Zauważmy, że przekrój powyższy zbiorów wynosi A 1 (z) A (z) = {(x, y) A : x z 1, y z }. (.5) Z równości.51,.5 dostajemy wzory na dystrybuanty brzegowe P((X, Y ) A 1 (z)) = F X (z 1 ), P((X, Y ) A (z)) = F Y (z ), oraz dystrybuantę łączną P((X, Y ) A 1 (z) A (z)) = F (z 1, z ). (.53) Rozpatrzymy teraz dwie sytuacje a) Założenie: A 1 (z) A (z) =. Z własności miary od razu dostajemy, że F (z 1, z ) =. b) Założenie: A 1 (z) A (z). Zauważmy, że wzór.53 można zapisać analogicznie F (z 1, z ) = P((X, Y ) A 1 (z)) + P((X, Y ) A (z)) P((X, Y ) A 1 (z) A (z)). (.54) Zauważmy, że część wspólna dopełnień zbiorów A 1, A i zbioru A ma postać A 1(z) A = {(x, y) A : x > z 1 }, A (z) A = {(x, y) A : y > z }. 4
26 Teraz pokażemy, że (A 1 (z) A (z)) A = A 1(z) A (z) A =. Dowiedziemy tego przez sprzeczność. Załóżmy, że A 1(z) A (z) A, z tego otrzymujemy, że (x,y ) A x > z 1, y > z. Natomiast z założenia A 1 (z) A (z) dostajemy (ˆx,ŷ) A ˆx z 1, ŷ z. Zauważmy, że uzyskaliśmy (x, y ), (ˆx, ŷ) A oraz (x ˆx)(y ŷ) >. co stoi w sprzeczności z faktem, że A jest zbiorem kontrmonotonicznym, czyli A 1(z) A (z) A =, co oznacza, że P((X, Y ) A 1(z) A (z)) = P((X, Y ) (A 1 (z) A (z)) ) = = P((X, Y ) A 1 (z) A (z)) = 1. Podstawiając do wzoru.54 dostajemy F (z 1, z ) = F X (z 1 ) + F Y (z ) 1. Podsumowując obie sytuacje otrzymaliśmy, że F (z 1, z ) = max{f X (z 1 ) + F Y (z ) 1, }.. = 3. Weźmy standardową przestrzeń probabilistyczną (I, B(I), λ) i określmy na niej zmienną losową U o rozkładzie U(, 1). Wówczas dla każdego (x, y) R korzystając z lematu.3 dostajemy, że F (x, y) = max{f X (x) + F Y (y) 1, } = { FX (x) + F Y (y) 1, dla F X (x) 1 F Y (y), dla F X (x) < 1 F Y (y) = λ (1 F Y (y) U F X (x)) = λ (U F X (x), U 1 F Y (y)) = ( ) ( 1) = λ(u F X (x), 1 U F Y (y)) = λ (U) x, F (1 U) y. F ( 1) X Biorąc Z = U oraz ϕ = F ( 1) X, ψ = F ( 1) Y g, gdzie g(t) = 1 t, t [, 1] uzyskujemy tezę. Z twierdzenia.31 wiemy, że uogólniona dystrybuanta odwrotna jest niemalejąca, więc ϕ jest niemalejąca. Ponadto, złożenie funkcji niemalejącej i nierosnącej jest funkcją nierosnącą, dlatego ψ jest nierosnąca. 3. = 1. Załóżmy, że mamy zmienną losową Z o nośniku B oraz funkcję niemalejącą ϕ i nierosnącą ψ takie, że (X, Y ) d = (ϕ(z), ψ(z)). Nośnikiem (X, Y ) jest zbiór A = {(ϕ(z), ψ(z)) : z B}. Chcemy pokazać, że jest to zbiór kontrmonotoniczny. Weźmy x y B. Wówczas z monotoniczności funkcji ϕ, ψ dostajemy, że ϕ(x) ϕ(y) i ψ(x) ψ(y) lub ϕ(x) ϕ(y) i ψ(x) ψ(y). Zauważmy, że w obu przypadkach mamy, że (ϕ(x) ϕ(y))(ψ(x) ψ(y)), czyli zbiór A jest kontrmonotoniczny. Podobnie jak w przypadku komonotoniczności, dodatkowe założenie o ciągłości rozkładu daje nam ciekawy wynik. Y 5
27 Twierdzenie.55. Niech (X, Y ) będzie ciągłym wektorem losowym. Wówczas (X, Y ) jest kontrmonotoniczny istnieje ściśle malejąca funkcja f taka, że Y = f(x) prawie na pewno. Dowód. = Załóżmy, że (X, Y ) jest kontrmonotoniczny. Z punktu 3. twierdzenia.5 dostajemy (X, Y ) = d (ϕ(z), ψ(z)), gdzie ϕ jest ściśle rosnąca, a ψ ściśle malejąca. Zauważmy, że z tego wynika X = d ϕ(z), a ponieważ ϕ jest ściśle monotoniczna, to posiada funkcje odwrotną na swoim obrazie, która również jest ściśle rosnąca, czyli Z = d ϕ 1 (X). W efekcie dostajemy, że Y = d ψ ϕ 1 (X) = f(x). Funkcja f jest ściśle malejąca jako złożenie funkcji ściśle malejącej i ściśle rosnącej. Wiedząc, że (X, Y ) ma kontrmonotoniczny nośnik otrzymujemy, że jest on postaci {(x, f(x)) : x supp(x)}, co implikuje, że Y = f(x) prawie na pewno. = Równość prawie na pewno implikuje równość rozkładów i z punktu 3. twierdzenia.5 biorąc Z = X, ϕ = Id, ψ = f dostajemy, że (X, Y ) jest kontrmonotoniczny. Twierdzenie.56. Niech X, Y będą ciągłymi zmiennymi losowymi określonymi na tej samej przestrzeni probabilistycznej (Ω, F, P). Wówczas następujące warunki są równoważne: 1. P(X + Y = c) = 1, gdzie c R.. Dla każdego t R, F X (t) + F Y (c t) = 1 oraz (X, Y ) są kontrmonotoniczne. Dowód. 1. =. Załóżmy, że X + Y = c prawie na pewno. Wówczas Y = X + c, czyli Y jest ściśle malejącą funkcją X, co oznacza z twierdzenia.55, że para (X, Y ) jest kontrmonotoniczna. Ponadto, dla każdego t R z założenia i ciągłości Y mamy F X (t) = P(X t) = P(c Y t) = P(Y c t) = 1 P(Y < c t) = 1 P(Y c t) = 1 F Y (c t). Otrzymaliśmy, że dla każdego t R zachodzi 1 = F X (t) + F Y (c t).. = 1. Oznaczmy przez Z := c Y. Z założenia o kontrmonotoniczności (X, Y ) dostajemy, że X = f(y ) = f(c Z) prawie na pewno, gdzie f jest ściśle malejąca. Uzyskaliśmy, że X = g(z), gdzie g jest ściśle rosnąca jako złożenie funkcji ściśle malejących, więc (X, Z) jest komonotoniczny. Oznaczmy przez F Z dystrybuantę Z. Dla każdego t R z ciągłości Y i założenia mamy, że F Z (t) = P(Z t) = P(c Y t) = P(Y c t) = 1 P(Y < c t) = 1 P(Y c t) = 1 F Y (c t) = F X (t). X, Z mają takie same dystrybuanty oraz (X, Z) jest komonotoniczny, co na mocy twierdzenia.46 oznacza, że X = Z prawie na pewno. W efekcie uzyskaliśmy, że X = c Y prawie na pewno, czyli X + Y = c prawie na pewno. Rozpatrzmy teraz zagadnienie konstrukcji pary kontrmonotonicznych zmiennych losowych o dystrybuantach F X, F Y. Uniwersalną konstrukcję wskazują nam twierdzenia.5 oraz.34. Weźmy zmienną losową U U(, 1). Zauważmy, że 1 U ma również rozkład U(, 1). Wówczas zmienne losowe X = F ( 1) ( 1) X (U), Y = F Y (1 U) mają dystrybuanty F X, F Y oraz są kontrmonotoniczne. Ponadto, jeżeli dystrybuanty F X, F Y są ciągłe, to wystarczy przyjąć, że Y = F ( 1) Y (1 F X (X)). 6
28 Wówczas zachodzi również równość F X (X) + F Y (Y ) = 1. (.57) Równość.57 pokazuje istotę kontrmonotoniczności dla ciągłych zmiennych losowych. Zmienne losowe mogą mieć całkowicie różne nośniki, ale kontrmonotoniczność oznacza, że ich kwantyle będą zawsze sumowały się do 1. Oznacza to, że jeżeli X = x, to wówczas Y przyjmie taką wartość y, że F X (x) + F Y (y) = 1..6 Klasy Frecheta W poprzednich rozdziałach pokazaliśmy jakie są ograniczenia dla dwuwymiarowej dystrybuanty F o zadanych brzegowych F X, F Y oraz co oznacza sytuacja gdy F jest zadana przez jedno z ograniczeń Frecheta-Hoeffdinga. Rozważmy teraz następujące zagadnienie: mając zadane dwie zmienne losowe X, Y określone na tej samej przestrzeni probabilistycznej (Ω, F, P) o dystrybuantach F X, F Y, co możemy powiedzieć o zbiorze Γ(F X, F Y ) składającym się z dystrybuant dwuwymiarowych o dystrybuantach brzegowych F X, F Y? Jako pierwszy zagadnienie to rozważał M. Frechet, dlatego taki zbiór nazywamy klasą Frecheta F X, F Y. Tak samo będziemy nazywać analogiczne rodziny w wyższych wymiarach. Definicja.58. Niech F X, F Y F X, F Y będą dystrybuantami jednowymiarowymi. Wówczas klasą Frecheta nazywamy zbiór { Γ(F X, F Y ) = F : R R; F jest dystrybuantą dwuwymiarową oraz } lim F (x, y) = F Y (y), lim F (x, y) = F X(x). x y Zauważmy, że dla dowolnych dystrybuant brzegowych zbiór Γ(F X, F Y ) nie jest pusty, ponieważ jeżeli X i Y są niezależne, to mają dystrybuantę F (x, y) = F X (x)f Y (y), która zawsze należy do Γ(F X, F Y ). Poniżej dowiedziemy kilku twierdzeń dotyczących klas Frecheta. Twierdzenie.59. Niech F X, F Y będą jednowymiarowymi dystrybuantami. Wówczas F Γ(F X, F Y ) F jest dwuwymiarową dystrybuantą oraz (x,y) R F (x, y) F (x, y) F + (x, y), gdzie F (x, y) = max{f X (x) + F Y (y) 1, }, F + (x, y) = min{f X (x), F Y (y)}. Dowód. = Z definicji klasy Frecheta mamy, że F jest dwuwymiarową dystrybuantą o brzegowych F X, F Y, a z tego wynika, że spełnia nierówności Frecheta-Hoeffdinga. = Z założenia mamy, że F jest dystrybuantą, więc zostało do udowodnienia, że ma zadane brzegowe. Wiemy ponadto, że (x,y) R max{f X (x) + F Y (y) 1, } F (x, y) min{f X (x), F Y (y)}. Zbiegając z x dostajemy dystrybuantę brzegową F względem y F Y (y) = lim max{f X(x) + F Y (y) 1, } lim F (x, y) lim min{f X(x), F Y (y)} = F Y (y). x x x Analogicznie pokazujemy, że lim y F (x, y) = F X (x) uzyskując, że F Γ(F X, F Y ). Twierdzenie.6. Niech F X, F Y będą jednowymiarowymi dystrybuantami. Wówczas F, F + Γ(F X, F Y ). 7
29 Dowód. Skorzystamy z twierdzenia.59. Z twierdzeń.,.6 mamy, że F, F + są dystrybuantami. Ponadto dla każdego (x, y) R zachodzą żądane nierówności, więc F, F + Γ(F X, F Y ). Twierdzenie.61. Niech X, Y będą zmiennymi losowymi określonymi na tej samej (Ω, F, P) o dystrybuantach brzegowych F X, F Y. Wówczas następujące warunki są równoważne. 1. (x,y) R F X (x)f Y (y) = F + (x, y) = min{f X (x), F Y (y)}.. (x,y) R F X (x)f Y (y) = F (x, y) = max{f X (x) + F Y (y) 1, }. 3. Co najmniej jedna ze zmiennych losowych X, Y ma rozkład jednopunktowy. 4. Klasa Frecheta Γ(F X, F Y ) jest jednopunktowa. Dowód. 1. = 3. Załóżmy, że żadna ze zmiennych losowych X, Y nie ma rozkładu jednopunktowego. Oznacza to, że istnieje takie (x, y ) R, że zachodzi < F X (x ) < 1, < F Y (y ) < 1. (.6) Z założenia o równości F X F Y = F + oraz.6 otrzymujemy, że min{f X (x ), F Y (y )} > F X (x )F Y (y ) = min{f X (x ), F Y (y )}. Uzyskaliśmy sprzeczność, czyli co najmniej jedna ze zmiennych losowych X, Y musi mieć rozkład jednopunktowy.. = 3. Ponownie załóżmy, że żadna ze zmiennych losowych X, Y nie ma rozkładu jednopunktowego. Z założenia o równości F X F Y = F i.6 dostajemy, że F X (x )F Y (y ) = max{f X (x ) + F Y (y ) 1, }. Z.6 wiemy, że F X (x )F Y (y ) >, dlatego wyrażenie po prawej stronie równości nie może się wyzerować. W efekcie otrzymaliśmy, że F X (x )F Y (y ) = F X (x ) + F Y (y ) 1. Możemy je zapisać równoważnie (1 F X (x ))(1 F Y (y )) =. Uzyskaliśmy sprzeczność z.6, dlatego co najmniej jedna ze zmiennych losowych X, Y musi mieć rozkład jednopunktowy. 3. = 1,,4 Bez straty ogólności załóżmy, że X jest zmienną losową jednopunktową, czyli c R P(X = c) = 1. Dystrybuanta X ma wówczas następującą postać { 1, dla x c F X (x) =, dla x < c. W pierwszej kolejności rozpatrzmy jak wygląda dystrybuanta łączna F wektora (X, Y ). Z górnego ograniczenia Frecheta-Hoeffdinga mamy, że { min{1, FY (y)}, x c F (x, y) min{f X (x), F Y (y)} = min{, F Y (y)}, x < c = { FY (y), dla x c, dla x < c. 8
30 Natomiast z dolnego ograniczenia Frecheta-Hoeffdinga dostajemy, że { max{1 + FY (y) 1, }, x c F (x, y) max{f X (x)+f Y (y) 1, } = max{ + F Y (y) 1, }, x < c = { FY (y), x c, x < c. Zauważmy, że w przypadku co najmniej jednej ze zmiennych posiadających rozkład zdegenerowany dystrybuanta łączna jest jednoznacznie wyznaczona przez dystrybuanty brzegowe i ma następującą postać { FY (y), x c F (x, y) =, x < c. Oznacza to, że klasa Frecheta Γ(F X, F Y ) składa się wyłącznie z jednego elementu, a ponadto zachodzi równość między górnym i dolnym ograniczeniem Frecheta-Hoeffdinga. 4. = 1. Załóżmy, że klasa Frecheta Γ(F X, F Y ) składa się z jednego elementu i (ˆx,ŷ) R F (ˆx, ŷ) = F X (ˆx)F Y (ŷ) < F + (ˆx, ŷ). Z twierdzenia.6 mamy, że F + Γ(F X, F Y ), a ponadto wiemy, że F (x, y) = F X (x)f Y (y) również należy do Γ(F X, F Y ). Z założenia mamy, że F + F, co oznacza, że zbiór Γ(F X, F Y ) jest co najmniej dwuelementowy. Uzyskaliśmy sprzeczność, dlatego musi zachodzić, że (x,y) R F (x, y) = F + (x, y). Twierdzenie.63. Niech będą zadane dwie zmienne losowe X, Y określone na tej samej przestrzeni probabilistycznej o dystrybuantach brzegowych F X, F Y, a ponadto F, G Γ(F X, F Y ) oraz λ [, 1]. Wówczas H = λf + (1 λ)g Γ(F X, F Y ). Ponadto, jeżeli ρ(f ) oznacza wartość współczynnika korelacji pary zmiennych losowych (X, Y ) o dystrybuancie łącznej F, to zachodzi równość ρ(h) = λρ(f ) + (1 λ)ρ(g). (.64) Dowód. W pierwszej kolejności pokażemy, że H jest dystrybuantą. Łatwo zauważyć, że jako suma funkcji prawostronnie ciągłych, funkcja H jest również prawostronnie ciągła. Ponadto, z własności dystrybuant F, G dla x x 1, y y 1 R zachodzi H(x, y ) H(x, y 1 ) H(x 1, y ) + H(x 1, y 1 ) = λ(f (x, y ) F (x, y 1 ) F (x 1, y ) + F (x 1, y 1 )) + (1 λ)(g(x, y ) G(x, y 1 ) G(x 1, y ) + G(x 1, y 1 )). Również mamy, że oraz lim x,y H(x, y) = λ lim lim x x,y H(x, y) = λ lim F (x, y) + (1 λ) lim x x,y F (x, y) + (1 λ) lim G(x, y) = λ + 1 λ = 1 x G(x, y) =. Sprawdziliśmy, że spełnione są wszystkie 3 warunki z twierdzenia.1, więc H jest dystrybuantą dwuwymiarową. Dodatkowo, spełnia ona nierówności H(x, y) =λf (x, y) + (1 λ)g(x, y) λ min{f X (x), F Y (y)} + (1 λ) min{f X (x), F Y (y)} = min{f X (x), F Y (y)} = F + (x, y), H(x, y) =λf (x, y) + (1 λ)g(x, y) λ max{f X (x) + F Y (y) 1, } + (1 λ) max{f X (x) + F Y (y) 1, } = max{f X (x) + F Y (y) 1, } = F (x, y), więc na mocy twierdzenia.59 mamy, że H Γ(F X, F Y ). Pozostała do udowodnienia równość 9
31 .64. Ze wzoru Hoeffdinga (.6) otrzymujemy ρ(h) = = = = λ (H(x, y) F X(x)F Y (y)) dxdy VarX VarY (λf (x, y) + (1 λ)g(x, y) F X(x)F Y (y)) dxdy VarX VarY (λf (x, y) λf X(x)F Y (y) + (1 λ)g(x, y) (1 λ)f X (x)f Y (y)) dxdy VarX VarY (F (x, y) F X(x)F Y (y)) dxdy + (1 λ) (G(x, y) F X(x)F Y (y)) dxdy VarX VarY VarX VarY = λρ(f ) + (1 λ)ρ(g)..7 Maksymalna i minimalna wartość współczynnika korelacji W tym rozdziale zajmiemy się związkiem ograniczeń Frecheta-Hoeffdinga, komonotoniczności i kontrmonotoniczności ze współczynnikiem korelacji. Definicja.65. Zmienne losowe X i Y są tego samego typu jeżeli istnieją takie liczby a >, b R, że X d = ay + b, gdzie d = oznacza równość rozkładów. Przypomnijmy wzór na współczynnik korelacji ρ(x, Y ) = (F (x, y) F X(x)F Y (y)) dxdy. (.66) VarX VarY Twierdzenie.67. Niech (X, Y ) będzie wektorem losowym o dystrybuantach brzegowych F X, F Y i nieustalonej dystrybuancie łącznej F Γ(F X, F Y ). Oznaczmy przez ρ min oraz ρ max odpowiednio najmniejszą i największą możliwą wartość współczynnika korelacji liniowej. Załóżmy, że < VarX, VarY <. Wówczas zachodzi, że: 1. ρ = ρ min (X, Y ) jest kontrmonotoniczne, ρ = ρ max (X, Y ) jest komonotoniczne.. Zbiór wszystkich możliwych współczynników korelacji jest przedziałem domkniętym [ρ min, ρ max ], a ponadto zachodzi ρ min < < ρ max. 3. ρ min = 1 X, Y są tego samego typu, ρ max = 1 X, Y są tego samego typu. Dowód. 1. = Całkę we wzorze.66 należy minimalizować/maksymalizować punktowo. Na mocy nierówności Frecheta-Hoeffdinga i faktu, że dla n = oba ograniczenia są dystrybuantami, dostajemy że w przypadku najmniejszej/największej możliwej wartości współczynnika korelacji dystrybuantą wektora (X, Y ) jest F /F + co implikuje kontrmonotoniczność/komonotoniczność na mocy twierdzenia.5/.41. = Z założenia o kontrmonotoniczności/komonotoniczności (X, Y ) otrzymujemy na mocy twierdzenia.5/.41, że dystrybuantą wektora (X, Y ) jest dolne/górne ograniczenie Frecheta-Hoeffdinga, więc wartość całki we wzorze.66 będzie minimalizowana/maksymalizowana. 3
32 . Z punktu 1. wiemy, że korelacje ekstremalne (czyli ρ max, ρ min ) są osiągalne. Oczywistym jest, że ρ max. Aby zachodziło, że ρ max = musi być spełnione, że x,y R min{f X (x), F Y (y)} = F X (x)f Y (y). co na mocy twierdzenia.61 jest równoważne z tym, że co najmniej jedna ze zmiennych losowych X, Y ma rozkład jednopunktowy. Uzyskaliśmy sprzeczność z założeniem, że VarX, VarY >, czyli ρ max >. Analogiczny dowód przeprowadzimy dla dolnego ograniczenia Frecheta-Hoeffdinga. Oczywistym jest, że ρ min. Aby ρ min = musi zachodzić x,y R max{f X (x) + F Y (y) 1, } = F X (x)f Y (y). Ponownie z twierdzenia.61 wiemy, że jest to równoważne z tym, że co najmniej jedna ze zmiennych X, Y ma rozkład zdegenerowany, co jest sprzeczne z założeniem. Uzyskaliśmy, że ρ min >. Pozostało do wykazania, że wszystkie korelacje z przedziału (ρ min, ρ max ) są osiągalne. Weźmy G λ = λf + (1 λ)f +, gdzie λ [, 1]. Z twierdzenia.63 wiemy, że dla każdego λ [, 1], G λ Γ(F X, F Y ) oraz ρ(g λ ) = λρ min + (1 λ)ρ max, gdzie ρ(g λ ) oznacza współczynnik korelacji liniowej pary zmiennych losowych (X, Y ) o dystrybuancie łącznej G λ. Stosując taką konstrukcję możemy uzyskać dowolną wartość współczynnika korelacji z przedziału [ρ min, ρ max ]. 3. = Załóżmy, że ρ max = 1, czyli istnieje taka dystrybuanta F Γ(F X, F Y ) wektora losowego (X, Y ), dla której mamy ρ(x, Y ) = 1. Z twierdzenia.3 dostajemy, że X = ay + b prawie na pewno dla pewnego a >, b R, co implikuje, że X oraz Y są tego samego typu. Analogicznie dowodzimy dla ρ min = 1. = Załóżmy, że X, Y są tego samego typu. Oznacza to, że możemy dobrać rozkład łączny (X, Y ) tak, aby X = a( Y )+b = ay +b prawie na pewno dla pewnego a >, b R. Korzystając z twierdzenia.3 mamy, że ρ(x, Y ) = 1, czyli ρ(x, Y ) = 1. Analogicznie dowodzimy dla przypadku, gdy X, Y są tego samego typu. Twierdzenie.68. Niech (X, Y ) będzie wektorem losowym. Wówczas zachodzi 1. ρ(x, Y ) = 1 = (X,Y) jest komonotoniczne.. ρ(x, Y ) = 1 = (X,Y) jest kontrmonotoniczne. Dowód. W obu przypadkach na mocy twierdzenia.3 dostajemy, że X = ay + b prawie na pewno. W przypadku 1. a > i X jest rosnącą funkcją Y, w przypadku. a < i X jest malejącą funkcją Y. Z twierdzeń.41,.5 dostajemy tezę. Zauważmy, że koncept komonotoniczności i kontrmonotoniczności jest rozwinięciem doskonałej zależności liniowej. Jeżeli zmienne losowe są liniowo zależne, to są również komonotoniczne bądź kontrmonotoniczne. W drugą stronę implikacja ta nie zawsze zachodzi, ponieważ przedział możliwych wartości współczynnika korelacji nie zawsze musi zawierać 1 bądź 1. Jednakże, w przypadku komonotoniczności/kontrmonotoniczności zawsze dostaniemy największą/najmniejszą możliwą wartość współczynnika korelacji dla zadanej pary zmiennych losowych. 31
33 .8 Przykłady W poniższym rozdziale zaprezentujemy przykłady dotyczące komonotoniczności, kontrmonotoniczności i przedziału możliwych wartości współczynnika korelacji. W pierwszej kolejności zajmiemy się nośnikiem dyskretnego wektora losowego. Weźmy zmienne losowe X, Y określone na tej samej (Ω, F, P) o rozkładach: P(X = ) = 1 8, P(X = 1) = 5 8, P(X = ) = 1 8, P(X = 3) = 1 8, P(Y = ) = 1 4, P(Y = 1) = 1 8, P(Y = ) = 1 8, P(Y = 3) = 1. (.69) Zauważmy, że w przypadku niezależności zmiennych losowych nośnik składa się z 16 atomów. Rozpatrzmy teraz jak wygląda sytuacja, gdy wektor (X, Y ) jest kontrmonotoniczny bądź komonotoniczny. Dla kontrmonotoniczności po podstawieniu do wzoru na dystrybuantę dostajemy, że P(X =, Y = ) =, P(X =, Y = 1) =, P(X =, Y = ) =, P(X =, Y = 3) = 1 8, P(X = 1, Y = ) =, P(X = 1, Y = 1) = 1 8, P(X = 1, Y = ) = 1 8, P(X = 1, Y = 3) = 3 8, P(X =, Y = ) = 1, P(X =, Y = 1) =, P(X =, Y = ) =, P(X =, Y = 3) =, 8 P(X = 3, Y = ) = 1, P(X = 3, Y = 1) =, P(X = 3, Y = ) =, P(X = 3, Y = 3) =. 8 Natomiast w przypadku komonotoniczności otrzymujemy, że P(X =, Y = ) = 1, P(X =, Y = 1) =, P(X =, Y = ) =, P(X =, Y = 3) =, 8 P(X = 1, Y = ) = 1 8, P(X = 1, Y = 1) = 1 8, P(X = 1, Y = ) = 1 8, P(X = 1, Y = 3) = 1 4, P(X =, Y = ) =, P(X =, Y = 1) =, P(X =, Y = ) =, P(X =, Y = 3) = 1 8, P(X = 3, Y = ) =, P(X = 3, Y = 1) =, P(X = 3, Y = ) =, P(X = 3, Y = 3) = 1 8. Rysunek.3: Nośniki dyskretnego wektora (X, Y ) o brzegowych rozkładach zadanych przez.69 w przypadku komonotoniczności i kontrmonotoniczności. 3
34 Nośnik wektora (X, Y ) w obu sytuacjach jest zaprezentowany na rysunku.3. Zauważmy, że pomimo tego, że zależności między zmiennymi w wektorze są zupełnie różne to ich nośniki mają część wspólna. Ponadto, nie muszą się składać z takiej samej liczby atomów - w przypadku komonotoniczności jest ich 7, a kontrmonotoniczności - 6. Dodatkowo, jest to przykład na istotność założenia o ciągłości wektora losowego w twierdzeniach.55,.45. Nie znajdziemy funkcji f takiej, że Y = f(x) prawie na pewno. W przypadku kontrmonotoniczności dla X = 1, Y może przyjąć wartości: 1,, 3, natomiast dla Y =, X wynosi lub 3. Podobnie dla komonotoniczności: Y = 3 = X {1,, 3} oraz X = 1 = Y {, 1,, 3}. Pomimo komonotoniczności szczególnie niewiele dodatkowych informacji daje nam druga sytuacja, warunkowy rozkład Y ma postać P(Y = X = 1) = 1 5, P(Y = 1 X = 1) = 1 5, P(Y = X = 1) = 1 5, P(Y = 3 X = 1) = 5. Licząc współczynniki korelacji dla obu przypadków dostajemy, że ρ min.8, ρ max.64. Rozpatrzmy teraz analogiczną sytuację dla rozkładów ciągłych. Ustalmy zmienne losowe X Exp(λ 1 ), Y Exp(λ ). Wiemy, że dla rozkładu wykładniczego Exp(λ) dystrybuanta jest zadana wzorem F (x) = 1 exp(λx) dla x >, a uogólniona dystrybuanta odwrotna to F ( 1) (t) = 1 λ log(1 t). Aby uzyskać komonotoniczny wektor (X, Y ) o zadanych rozkładach brzegowych weźmiemy dla U U(, 1) X = 1 λ 1 log(u), Y = 1 λ log(u). Możemy tak zrobić, ponieważ 1 U ma taki sam rozkład jak U. Z twierdzenia.41 otrzymujemy, że nośnik wektora (X, Y ) ma następującą postać {( supp(x, Y ) = 1 log(u), 1 ) log(u) λ 1 λ } : u (, 1). Analogicznie, w celu uzyskania kontrmonotonicznego wektora (X, Y ) ustalamy X = 1 λ 1 log(1 U), Y = 1 λ log(u). Nośnik wektora (X, Y ) w przypadku kontrmonotoniczności będzie miał postać {( supp(x, Y ) = 1 log(1 u), 1 ) } log(u) : u (, 1). λ 1 λ Wykres nośników dla kontrmonotonicznego i komonotonicznego wektora (X, Y ) zaprezentowano na rysunku.4. Wyznaczymy teraz przedział możliwych współczynników korelacji dla zmiennych losowych o rozkładzie wykładniczym. W pierwszej kolejności zajmiemy się przypadkiem wektora kontrmonotonicznego. Wówczas zachodzi, że E(XY ) min = E (( λ 1 1 log(1 U) ) ( λ 1 log(u) )) = λ 1 = λ 1 1 λ 1 log(1 u) log(u)du = λ 1 1 λ 1 1 λ 1 ( π 6 E (log(1 U) log(u)) ). W efekcie uzyskujemy najmniejszą wartość jaką może osiągnąć współczynnik korelacji ( ) λ1 1 λ 1 π 6 λ 1 1 λ 1 ρ min = ρ(x, Y ) = = 1 π λ 1 λ
35 Rysunek.4: Nośniki ciągłego wektora (X, Y ) o brzegowych rozkładach wykładniczych w przypadku komonotoniczności i kontrmonotoniczności (przedstawiono kwantyle rzędów od.1 do.99). W przypadku komonotoniczności sytuacja jest prostsza, ponieważ dwie dowolne zmienne losowe X, Y o rozkładach wykładniczych są tego samego typu. Zauważmy, że ( ) ( λ F λ (y) =P Y y = P Y λ ) ( ) 1 λ1 y = F λ Y Y y 1 λ 1 λ λ ( ) λ1 =1 exp λ y = 1 exp(λ 1 y) = F X (y). λ W efekcie na mocy twierdzenia.66 dostajemy, że ρ max = 1. Zauważmy, że w badanym przykładzie wektora losowego o wykładniczych rozkładach brzegowych przedział możliwych wartości współczynnika korelacji nie zależy od parametru rozkładu λ. Rozpatrzmy teraz sytuację dla zmiennej losowej o rozkładzie Pareto (w literaturze można spotkać również nazwę - rozkład Lomaxa) o parametrach α >, ν >. Dystrybuanta takiej zmiennej losowej ma następującą postać: F (x) = [ ( ) α ] ν 1 1 (. ) (x). x + ν Wartość oczekiwana i wariancja zmiennej losowej X o powyższym rozkładzie zadane są wzorami EX = ν α 1 dla α > 1, VarX = ν α (α 1) (α ) dla α >, a w pozostałych przypadkach charakterystyki te są nieokreślone. Uogólniona dystrybuanta odwrotna z kolei wyraża się wzorem ] F ( 1) (t) = ν [(1 t) 1 α 1 Będziemy chcieli znaleźć ρ min oraz ρ max dla zmiennych losowych X, Y o rozkładach Pareto o parametrach odpowiednio α 1, ν 1 i α, ν. W tym celu musimy założyć, że α 1, α >, aby wariancja była określona. W pierwszej kolejności zajmiemy się przypadkiem ρ min, czyli gdy (X, Y ) jest kontrmonotoniczny. Aby skonstruować taki wektor losowy weźmy zmienną losową U U(, 1) oraz ustalmy [ ] [ ] X = ν 1 U 1 α 1 1, Y = ν (1 U) 1 α 1. 34
36 Policzmy teraz wartość oczekiwaną iloczynu pamiętając, że E(1 U) k = EU k = uk du = 1 ) )] E (XY ) min = E [ν 1 (U 1 α 1 1 ν ((1 U) 1 α 1 1 = ν 1 ν E = ν 1 ν (B gdzie B oznacza funkcję beta zdefiniowaną następująco B(x, y) = ] [U 1 α 1 (1 U) 1 α U 1 α 1 (1 U) 1 α + 1 ( α1 1, α ) 1 α 1 α 1 α α 1 1 α ) α 1 + 1, t x 1 (1 t) y 1 dt, dla R(x) >, R(y) >. Podstawiając do wzoru na współczynnik korelacji i porządkując dostajemy, że ( ) ) α ν 1 ν (B 1 1 α 1, α 1 α α1 α α 1 1 α + 1 ν 1 1ν (α 1 1)(α 1) ρ min = = (α 1 )(α ) α 1 α ν 1 α1 (α ν α 1 1) α 1 (α 1) α [ (α 1 1)(α 1)B ( α1 1 α 1, α 1 α ) α 1 α ] Analogiczne obliczenia przeprowadzimy teraz dla ρ max, czyli przypadku gdy (X, Y ) jest komonotoniczny. W tym celu weźmiemy X = ν 1 [ U 1 α 1 1 ] [ ], Y = ν U 1 α 1. Możemy tak zrobić, ponieważ 1 U ma taki sam rozkład jak U. Policzmy wartość oczekiwaną iloczynu zmiennych losowych X, Y ) )] E (XY ) max = E [ν 1 (U 1 α 1 1 ν (U 1 α 1 1 = ν 1 ν (α 1 α α 1 α ) (α 1 α α 1 α )(α 1 1)(α 1). k+1. ] = ν 1 ν E [U 1 α 1 1 α U 1 α 1 U 1 α + 1 Ponownie, podstawiając do wzoru na współczynnik korelacji i porządkując otrzymujemy, że ρ max = ν 1ν (α 1α α 1 α ) (α ν 1ν 1α α 1 α )(α 1 1)(α 1) (α 1 1)(α 1) ν 1 α1 (α ν α 1 1) α 1 (α 1) α Analizą uzyskanych wyników zajmiemy się w następnym rozdziale. = α1 α (α 1 )(α ) α 1 α α 1 α..9 Ekstremalne wartości współczynnika korelacji a parametry rozkładu W poprzednim rozdziale policzyliśmy największe i najmniejsze osiągalne wartości współczynnika korelacji dla dwóch rodzin rozkładów - wykładniczego i Pareto. Zauważmy, że w przypadku rozkładu wykładniczego korelacje ekstremalne nie zależą od parametrów rozkładu, podobna sytuacja ma miejsce w przypadku rozkładu normalnego (zbiór osiągalnych korelacji to [ 1, 1]). Natomiast dla rozkładu Pareto zależą one wyłącznie od α 1, α (nie zależą od ν 1, ν ). Rodziną rozkładów będziemy nazywać rodzinę dystrybuant {F θ } θ Θ indeksowaną wektorem parametrów θ, od których zależą postaci dystrybuant. Przykładową rodziną jest rodzina rozkładów wykładniczych, czyli {F λ } λ (, ), gdzie F λ (x) = (1 exp( λx))1 (, ) (x). Niech F będzie pewną dystrybuantą jednowymiarową. Wówczas rodzinę rozkładów {F µ,γ } µ R,γ (, ), dla której zachodzi, że dla każdego x R mamy ( ) x µ F µ,γ (x) = F γ 35
37 nazwiemy rodziną rozkładów z parametrem położenia i parametrem skali. µ R będziemy nazywać parametrem położenia, natomiast γ parametrem skali. Zauważmy, że F,1 = F i o takiej postaci zazwyczaj mówi się, że jest to rozkład standardowy. Ponadto, zmienna losowa o dystrybuancie F µ,γ i zmienna losowa o dystrybuancie F są zgodnie z definicją.65 tego samego typu. Wyjściowa dystrybuanta F może również zależeć od parametrów, może to być rodzina rozkładów {F θ } θ Θ, gdzie zakładamy, że wektor θ nie zawiera parametru położenia, ani skali. Takie parametry będziemy nazywać parametrami kształtu i w zadanej sytuacji dla każdego x R zachodzi, że ( ) x µ F µ,γ,θ (x) = F θ. γ Powyższy zapis oznacza, że wzór na dystrybuantę po ) prawej stronie równości nie zależy od parametrów µ, γ w inny sposób niż poprzez argument. Ponadto, rodzina rozkładów może posiadać ( x µ γ parametr położenia, nie posiadając parametru skali, wówczas zachodzi F µ,θ (x) = F θ (x µ) ( i ) analogicznie posiadać parametr skali nie posiadając parametru położenia, czyli F γ,θ (x) = F θ γ x. Okazuje się, że wartość współczynnika korelacji dwóch zmiennych losowych X, Y zależy wyłącznie od parametrów kształtu rozkładów tych zmiennych, o czym mówi poniższe twierdzenie. Twierdzenie.7. Niech X, Y posiadają rozkłady z rodzin {F µ1,γ 1,θ 1 }, {G µ,γ,θ }, gdzie µ 1, µ to parametry położenia, γ 1, γ to parametry skali, natomiast θ 1, θ to wektory parametrów kształtu. Wówczas przedział osiągalnych wartości współczynnika korelacji zmiennych X, Y nie zależy od parametrów położenia µ 1, µ i skali γ 1, γ. Dowód. Niech X będzie zmienną losową o dystrybuancie F θ1, natomiast Ỹ zmienną losową o dystrybuancie G θ. Wówczas zachodzi, że dla każdego x R ( ) ( ) X µ1 γ1 x + µ 1 µ 1 P x = P(X γ 1 x + µ 1 ) = F µ1,γ γ 1,θ 1 (γ 1 x + µ 1 ) = F θ1 = F θ1 (x). 1 γ 1 Oznacza to, że X µ1 d γ 1 = X i analogicznie Y µ d γ = Ỹ. Korzystając z własności 3. współczynnika korelacji z twierdzenia.3 i faktu, że γ 1, γ > otrzymujemy ( X µ1 ρ(x, Y ) = ρ, Y µ ) = ρ( X, Ỹ ), γ 1 γ gdzie prawa strona powyższej równości nie zależy od µ 1, µ, γ 1, γ. Przykładowo, niech X będzie zmienną losową o rozkładzie wykładniczym z parametrem λ oraz Y zmienną losową o rozkładzie Pareto o parametrach α, ν. Zgodnie z twierdzeniem.7 przedział osiągalnych wartości współczynnika korelacji zależy wyłącznie od parametru α. Wzory na korelacje ekstremalne zaprezentowano poniżej ρ min (X, Y ) = ( ( ) ) α 1 α(α ) H 1, α α(α ) ρ max (X, Y ) =, α 1 gdzie H jest liczbą harmoniczną zadaną wzorem H(t) = tutaj do czynienia z ciekawymi równościami 1 x t 1 x lim ρ min(x, Y ) = 1 π α 6, lim ρ max(x, Y ) = 1, α dx dla t (, 1]. Ponadto, mamy ponieważ jak pokazaliśmy w rozdziale.8 [1 π 6, 1] jest przedziałem osiągalnych wartości współczynnika korelacji dla dwóch zmiennych losowych o rozkładzie wykładniczym. 36
38 3 Kopuły W podrozdziale.6 wprowadziliśmy pojęcie dwuwymiarowej klasy Frecheta Γ(F X, F Y ), która jest zbiorem wszystkich dystrybuant dwuwymiarowych o brzegowych F X, F Y. Taki zbiór jest zawsze niepusty, ponieważ zawiera F (x, y) = F X (x)f Y (y) dla przypadku niezależnych zmiennych losowych. Ponadto, wykazaliśmy również kilka własności tej klasy. Jednakże, należy sobie zadać pytanie jakie są pozostałe elementy tego zbioru i czy możemy je jakoś scharakteryzować? W 1959 roku Abe Sklar uzyskał kluczowy w tym względzie wynik wprowadzając pojęcie kopuł oraz dowodząc twierdzenia znanego obecnie jako twierdzenie Sklara. 3.1 Definicja kopuły Jeżeli dla n-wymiarowej zmiennej losowej X o dystrybuancie F istnieje zbiór borelowski A taki, że P(X A) = 1, to wówczas mówimy, że X jest skoncentrowany na A. W takim wypadku dystrybuanta F jest jednoznacznie zadana przez wartości jakie przyjmuje na A, dlatego nie będziemy jej określać poza tym zbiorem. Mówimy również, że F jest dystrybuantą na A. Wprowadźmy definicję kopuły. Definicja 3.1. Dla każdego n, n-wymiarową kopułą nazywamy n-wymiarową dystrybuantę skoncentrowaną na I n o jednowymiarowych rozkładach jednostajnych na I. Uwaga. Rodzinę kopuł n-wymiarowych będziemy oznaczać przez C n. Na mocy twierdzenia.1 mamy, że z każdą kopułą C związany jest wektor losowy U = (U 1, U,..., U n ), określony na odpowiedniej przestrzeni probabilistycznej (Ω, F, P), gdzie U i U(, 1) dla każdego i = 1,..., n, a dystrybuanta U jest zadana przez kopułę C. Ponadto, korzystając z tego samego twierdzenia dostajemy następującą geometryczną charakteryzację kopuł Twierdzenie 3.. Funkcja C : I n I jest n-wymiarową kopułą spełnia następujące warunki: 1. C(u 1,..., u n ) = jeżeli u i = dla co najmniej jednego indeksu i {1,..., n}.. Gdy u j = 1 dla j i to, dla u i I mamy, że C(1,..., 1, u i, 1,..., 1) = u i. 3. C jest n-rosnąca (def..15). Dowód. = Oczywisty wniosek z faktu, że kopuła jest dystrybuantą o brzegowych rozkładach jednostajnych na I. = Prosty wniosek z twierdzenia.1. Warunki 1. i. nazywamy warunkami brzegowymi kopuły n-wymiarowej. Łatwo zauważyć, że z nich wynika warunek 1. twierdzenia.1. Fakt, że funkcja C jest n-rosnąca dostajemy z założenia. W dalszej części pracy w twierdzeniu 3.4 pokażemy, że tak zdefiniowana funkcja C jest ciągła, więc tym bardziej prawostronnie ciągła. Ponadto, warunek. gwarantuje nam, że rozkłady brzegowe są odpowiednie, czyli U(, 1). W celu lepszego zrozumienia powyższych warunków warto zapisać twierdzenie 3. w przypadku dwuwymiarowym. Twierdzenie 3.3. Funkcja C : I I jest dwuwymiarową kopułą spełnia następujące warunki: 1. C(, t) = C(t, ) = dla każdego t [, 1]. 37
39 . C(1, t) = C(t, 1) = t dla każdego t [, 1]. 3. Dla każdego x 1, x, y 1, y [, 1], gdzie x 1 x, y 1 y mamy, że C(x, y ) C(x, y 1 ) C(x 1, y ) + C(x 1, y 1 ). Zauważmy, że definicja kopuły i twierdzenie 3. charakteryzujące ją dają nam dwa możliwe podejścia do dowodzenia, że zadana funkcja jest kopułą. Pierwsze z nich jest czysto probabilistyczne, polega na skonstruowaniu odpowiedniej przestrzeni probabilistycznej i wektora losowego o brzegowych U(, 1). Drugie natomiast jest geometryczne - sprowadza się do wykazania, że dana funkcja spełnia określone warunki. W wymiarach większych niż podejście geometryczne jest często bardziej żmudne i techniczne. Ponadto, do zagadnienia kopuł można podejść w sposób teorio-miarowy. Jak już wspomniano w szkicu dowodu do twierdzenia.1, dystrybuanta indukuje miarę probabilistyczną na zbiorach borelowskich na R n. Jako, że kopuła jest dystrybuantą skoncentrowaną na I n, to również indukuje miarę probabilistyczną V C na I n poprzez wzór V C ((a, b]) = a,b C, gdzie a, b I n, a b i standardowe, teorio-miarowe rozszerzenie na zbiory borelowskie na I n. Jeżeli U jest wektorem losowym o dystrybuancie C, to P (U (a, b]) = V C ((a, b]). Miarę probabilistyczną V C będziemy nazywać C-miarą. W teorii, tego typu miary nazywa się miarami n-krotnie stochastycznymi (ang. n-fold stochastic measure), ponieważ dla każdego i {1,..., n} oraz a < b 1 spełniają one V C (I I (a, b] I I) = b a. }{{} i 1 Między kopułami a miarami n-krotnie stochastycznymi istnieje związek 1-1: każda kopuła indukuje n-krotnie stochastyczną miarę, a każdej takiej mierze odpowiada dokładnie jedna kopuła (tw w książce [16]). Ponadto nośnikiem kopuły C będziemy nazywać nośnik n-krotnie stochastycznej miary V C, którą ona indukuje. Nośnikiem miary probabilistycznej µ określonej na przestrzeni mierzalnej (Ω, F ) będziemy nazywać taki zbiór A F, dla którego zachodzi µ(a) = 1 ([]). 3. Własności kopuł Zgodnie z probabilistyczną definicją, kopuły są wielowymiarowymi dystrybuantami o brzegowych rozkładach U(, 1), dlatego możemy zastosować dla nich wyniki uzyskane dla dystrybuant wielowymiarowych. Twierdzenie 3.4. Dowolna kopuła n-wymiarowa C spełnia warunek Lipschitza, tzn. dla dowolnego u = (u 1,..., u n ) oraz v = (v 1,..., v n ) I n zachodzi C(u 1, u,..., u n ) C(v 1, v,..., v n ) n u i v i. (3.5) Dowód. Konsekwencja twierdzenia.8 i faktu, że kopuła ma brzegowe o rozkładach U(, 1). Nierówność 3.5 możemy zapisać w równoważny sposób i=1 C(u) C(v) u v 1, (3.6) gdzie 1 oznacza l 1 (n) - normę w R n, czyli u 1 := n i=1 u i, gdzie u = (u 1, u,..., u n ) R n. O nierówności 3.5 albo 3.6 będziemy mówić, że kopuła spełnia warunek Lipschitza ze stałą równą 1 38
40 dla normy l 1 (n). Oznacza to, że kopuły są funkcjami jednostajnie ciągłymi. Ponadto łatwo pokazać, że dla dowolnej kopuły C stała 1 jest najlepszą możliwą (nie istnieje mniejsza). Weźmy punkty u = (u, 1,..., 1), v = (v, 1,..., 1) I n. Wówczas dla dowolnej kopuły C zachodzi C(u ) C(v ) = u v = u v 1. W dalszej części rozdziału będziemy stosować oznaczenie u i (t) = (u 1,..., u i 1, t, u i+1,..., u n ) dla ustalonego (u 1,..., u i 1, u i+1,..., u n ) I n 1. Twierdzenie 3.7. Dowolna kopuła n-wymiarowa C jest funkcją niemalejącą ze względu na każdą ze zmiennych, tzn. dla dowolnego (u 1,..., u i 1, u i+1,..., u n ) I n 1 oraz x, y I takich, ze x < y zachodzi C(u i (x)) C(u i (y)). Dowód. Z faktu, że kopuła jest n-rosnąca dostajemy, że (1) u 1,u 1 (i 1) u i 1,u i 1 (i) x,y (i+1) u i+1,u i+1 (n) u n,u n C = C(u i (y)) C(u i (x)). W tym miejscu można się zastanowić czy w twierdzeniu charakteryzującym kopuły (tw. 3.) można zamienić warunek, że kopuła jest n-rosnąca na lipschitzowskość (tw. 3.4) oraz fakt, że jest ona rosnącą ze względu na każdą ze zmiennych (tw. 3.7) przy zachowaniu warunków brzegowych. Taki obiekt nazywamy quasi-kopułą. Każda kopuła jest quasi-kopułą, ale okazuje się, że istnieją quasi-kopuły właściwe, czyli takie które nie są kopułami. Przykładową quasi-kopułą właściwą jest Q : I I zadana wzorem { { min u, v, 1 3 Q(u, v) =, u + v } 3, 3 u + v 4 3, max{u + v 1, }, w przeciwnym wypadku. Więcej informacji dotyczących tego zagadnienia można odnaleźć w pracy [4]. Udowodnimy teraz kilka własności związanych z pochodnymi kopuł. Niech C będzie kopułą n-wymiarową. Będziemy stosować notację i C(u 1,..., u n ) := C(u 1,..., u n ) u i dla i-tej pochodnej cząstkowej kopuły C (o ile istnieje). Twierdzenie 3.8. Dowolna kopuła n-wymiarowa C spełnia warunek Lipschitza ze stałą 1 ze względu na każdą ze zmiennych, tzn. dla dowolnego (u 1,..., u i 1, u i+1,..., u n ) I n 1 oraz x, y I zachodzi Dowód. Oczywisty wniosek z twierdzenia 3.4. C(u i (x)) C(u i (y)) x y. Twierdzenie 3.9. Dla dowolnej kopuły n-wymiarowej C oraz dowolnego (u 1,..., u i 1, u i+1,..., u n ) I n 1 pochodna cząstkowa i C(u i (t)) istnieje dla prawie wszystkich t I. Ponadto, dla takich punktów zachodzą nierówności i C(u i (t)) 1. (3.1) Dowód. Ustalmy dowolne i {1,..., n} oraz (u 1,..., u i 1, u i+1,..., u n ) I n 1. Z twierdzenia 3.7 wiemy, że funkcja t I C(u i (t)) jest niemalejąca, a z teorii wiemy, że funkcja monotoniczna jest różniczkowalna prawie wszędzie. Oznacza to, że dla prawie wszystkich t I istnieje pochodna i C(u i (t)). Nierówności 3.1 są konsekwencją twierdzenia 3.8 mówiącego o tym, że kopuła ze względu na każdą ze zmiennych jest funkcją spełniającą warunek Lipschitza ze stałą równą 1. 39
41 Twierdzenie Dowolna kopuła n-wymiarowa C jest funkcją absolutnie ciągłą ze względu na każdą ze zmiennych, tzn. dla dowolnego (u 1,..., u i 1, u i+1,..., u n ) I n 1 funkcja t I C(u i (t)) jest absolutnie ciągła. Oznacza to, że kopułę C można przedstawić w postaci C(u) = ui i C(u 1,..., u i 1, t, u i+1,..., u n ) dt. Dowód. Na mocy twierdzenia 3.8 mamy, że funkcja t I C(u i (t)) spełnia warunek Lipschitza, co implikuje, że jest absolutnie ciągła. 3.3 Twierdzenie Sklara W tym podrozdziale zajmiemy się kluczowym twierdzeniem dla zagadnienia kopuł, czyli twierdzeniem Sklara. Idea polega na rozłożeniu każdej dystrybuanty wielowymiarowej na części: dystrybuanty jednowymiarowe oraz kopułę - funkcję łączącą dystrybuanty jednowymiarowe w dystrybuantę rozkładu łącznego, odpowiadającą za część związana z zależnością między zmiennymi. Twierdzenie 3.1. (Twierdzenie Sklara). Niech będzie zadany wektor losowy X na przestrzeni probabilistycznej (Ω, F, P). Niech H(x) = P(X 1 x 1, X x,..., X n x n ) będzie dystrybuantą rozkładu łącznego X oraz F i (x i ) = P(X i x i ), i = 1,..., n będą dystrybuantami rozkładów brzegowych. Wówczas istnieje taka kopuła n-wymiarowa C, że dla każdego punktu x = (x 1, x,..., x n ) R n zachodzi H(x 1,..., x n ) = C(F 1 (x 1 ),..., F n (x n )). Jeżeli F 1,..., F n są ciągłe, to kopuła C jest wyznaczona jednoznacznie. W przeciwnym wypadku jest wyznaczona jednoznacznie na Ran F 1 Ran F n. W przypadku ciągłych dystrybuant brzegowych łatwo udowodnić twierdzenie Sklara wraz z jednoznacznością kopuły. Twierdzenie (Twierdzenie Sklara dla ciągłych dystrybuant) Jeżeli spełnione są założenia twierdzenia 3.1 oraz dystrybuanty F 1,..., F n są ciągłe, to wówczas istnieje jedyna kopuła C związana z wektorem X, która jest dystrybuantą wektora losowego (F 1 (X 1 ),..., F n (X n )). Jest ona wyznaczona dla każdego u I n za pomocą wzoru ( ) C(u) = H F ( 1) 1 (u 1 ),..., F n ( 1) (u n ). Dowód. Z twierdzenia.34 mamy, że dla ciągłych dystrybuant F i (X i ) ma rozkład jednostajny na I. Oznacza to, że dystrybuanta C wektora (F 1 (X 1 ),..., F n (X n )) ma dystrybuanty brzegowe jednostajne na I, dlatego jest kopułą. Ponadto, z twierdzenia.34 mamy, że dla U i U(, 1), F ( 1) i (U i ) = d X i, dlatego dla każdego x R n na mocy twierdzenia.3 zachodzi ( ) F ( 1) 1 (F 1 (X 1 )) x 1,..., F n ( 1) (F n (X n )) x n H(x) = P (X 1 x 1,..., X n x n ) = P = P(F 1 (X 1 ) F 1 (x 1 ),..., F n (X n ) F n (x n )) = C(F 1 (x 1 ),..., F n (x n )). Kolejno, korzystając z twierdzenia.31 i powyższej równości możemy zapisać, że dla każdego u = (u 1,..., u n ) I n zachodzi ( ) H F ( 1) 1 (u 1 ),..., F n ( 1) (u n ) ( ) ( )) = C (F 1 F ( 1) 1 (u 1 ),..., F n F n ( 1) (u n ) = C(u 1,..., u n ) = C(u) Dowiedziemy teraz twierdzenia mówiącego o tym, że kopuła jest jednoznacznie wyznaczona na obrazach dystrybuant i wskażemy jak działa to przyporządkowanie. 4
42 Twierdzenie Jeżeli spełnione są założenia twierdzenia 3.1, to kopuła C związana z wektorem X jest jednoznacznie wyznaczona na Ran F 1... Ran F n. Dowód. Na kopułę możemy spojrzeć jak na funkcję, która wektorowi wartości dystrybuant brzegowych przyporządkowuje wartość dystrybuanty rozkładu łącznego. Z twierdzenia.8 mamy, że dla każdego t, s R n jest spełniona nierówność n H(t) H(s) F i (t i ) F i (s i ). i=1 Jeżeli dla każdego i = 1,..., n mamy, że F i (t i ) = F i (s i ), to uzyskujemy, że H(t) = H(s). Oznacza to, że zbiór uporządkowanych par {((F 1 (t 1 ),..., F n (t n )), H(t 1,..., t n )) t 1,..., t n R} definiuje jednoznacznie n-argumentową funkcję rzeczywistą. Jej argumentami są wartości dystrybuant brzegowych, dlatego jej dziedziną będzie zbiór Ran F 1... Ran F n. Zgodnie z powyższym twierdzeniem wartości kopuły są wyznaczone jednoznacznie tam gdzie dystrybuanty brzegowe przyjmują wartości. W pozostałych miejscach należy je uzupełnić, tak aby nowa funkcja była kopułą - na tym polega największa trudność związana z dowodem twierdzenia Sklara. Standardową procedurą w tym przypadku jest tzw. multiliniowa interpolacja. Dowód dla przypadku dwuwymiarowego można odnaleźć w [4], natomiast wielowymiarowego w [16], [4]. Dowody te są żmudne i mocno techniczne - zostanie tutaj przedstawiona alternatywna metoda. Zauważmy, że dowodu twierdzenia 3.13 nie możemy powtórzyć dla dystrybuant posiadających skoki (punkty nieciągłości pierwszego rodzaju), ponieważ z twierdzenia.34 transformata dystrybuantowa F (X) w takim przypadku nie da nam rozkładu jednostajnego. W celu naprawienia tej niedoskonałości transformaty dystrybuantowej, wprowadzimy nowy obiekt - uogólnioną transformatę dystrybuantową. W następnym kroku pokażemy jej własności i dowiedziemy twierdzenia Sklara w ogólności. Poniższy fragment pracy pochodzi z [4]. Definicja Określmy na przestrzeni probabilistycznej (Ω, F, P) zmienną losową X o dystrybuancie F oraz zmienną losową V U(, 1) niezależną od X. Wówczas zmodyfikowaną dystrybuantą F (x, λ) nazywamy F (x, λ) := P(X < x) + λp(x = x). Uogólnioną transformatę dystrybuantową X definiujemy jako U := F (X, V ). (3.16) Będziemy ją również zapisywać jako U = F (X ) + V (F (X) F (X )). Uwaga. Jeżeli F jest ciągła to dla każdego x R zachodzi, że F (x) = F (x, λ) i uogólniona transformata dystrybuantowa jest równa transformacie dystrybuantowej. Twierdzenie Niech U będzie uogólnioną transformatą dystrybuantową X zdefiniowaną wzorem Wówczas zachodzi U U(, 1) oraz X = F ( 1) (U) prawie na pewno. 41
43 Dowód. Wprowadźmy dla < α < 1 oznaczenie q α = sup{x : P(X x) < α}. Wówczas możemy zapisać, że U = F (X, V ) α wtedy i tylko wtedy, gdy (X, V ) {(x, λ) : P(X < x) + λp(x = x) α}. Dodatkowo, oznaczmy β = P(X = q α ) oraz q = P(X < q α ). Rozważmy teraz dwie sytuacje zależne od tego czy istnieje atom o dodatnim prawdopodobieństwie w q α : 1. Jeżeli β >, to {(x, λ) : P(X < x) + λp(x = x) α} = {X < q α } {X = q α, q + V β α} Otrzymujemy więc z niezależności zmiennych losowych X, V oraz rozłączności zbiorów P(U α) = P({X < q α } {X = q α, q + V β α}) = P(X < q α ) + P(X = q α, q + V β α) ( = q + P(X = q α )P V α q ) = q + β α q = α. β β. Jeżeli β =, to P(U α) = P(X < q α ) = P(X q α ) = α. Pokazaliśmy, że U U(, 1). Z definicji U mamy, że F (X ) U F (X ) + F (X) F (X ) = F (X). (3.18) Rozważmy u takie, że F (x ) u F (x). Z drugiej nierówności dostajemy, że F ( 1) (u) x. Załóżmy, że F ( 1) (u) < x. Wówczas musiałoby zachodzić, że u < F (x ) i uzyskaliśmy sprzeczność z pierwszą nierównością, czyli F ( 1) (u) = x. Na mocy tego rozumowania i nierówności 3.18 dostajemy, że F ( 1) (U) = X prawie na pewno. Dowód twierdzenia Sklara. Niech X = (X 1,..., X n ) będzie wektorem losowym o dystrybuancie H określonym na (Ω, F, P). Ponadto niech V będzie zmienną losową o rozkładzie jednostajnym na I, niezależną od X. Rozważmy uogólnione transformaty dystrybuantowe U i = F i (X i, V ), 1 i n. Na mocy twierdzenia 3.17 mamy, że U i U(, 1) oraz X i = F ( 1) i (U i ) prawie na pewno. Niech C będzie dystrybuantą wektora U = (U 1,..., U n ), a tym samym kopułą. Wówczas zachodzi, że ( ) H(x 1,..., x n ) = P(X 1 x 1,..., X n x n ) = P F ( 1) 1 (U 1 ) x 1,..., F n ( 1) (U n ) x n co oznacza, że C jest kopułą X. = P(U 1 F 1 (x 1 ),..., U n F n (x n )) = C(F 1 (x 1 ),..., F n (x n )), Uwaga. W powyższym dowodzie zakładamy, że przestrzeń probabilistyczna (Ω, F, P) jest na tyle bogata, że potrafimy na niej określić zmienną losową V o rozkładzie jednostajnym na I, niezależną od X. Uwaga. Niejednoznaczność uzyskanej kopuły w przypadku nieciągłych dystrybuant wynika z randomizacji za pomocą zmiennej losowej V. Zauważmy, że możemy dobrać różne zmienne losowe dla poszczególnych dystrybuant, czyli rozważyć U i = F (X i, V i ). Ponadto, możemy również rozważać różne zależności między poszczególnymi V i w efekcie czego możliwe jest uzyskanie wielu kopuł. Kolejną korzyścią ze stosowania kopuł jest łatwe tworzenie wielowymiarowych rozkładów o zadanych jednowymiarowych rozkładach brzegowych. 4
44 Twierdzenie Niech F 1,..., F n będą jednowymiarowymi dystrybuantami oraz niech C będzie dowolną n-wymiarową kopułą. Wówczas funkcja H : R n x = (x 1,..., x n ) R n wzorem H(x 1,..., x n ) = C(F 1 (x 1 ),..., F n (x n )), I zdefiniowana dla każdego punktu jest n-wymiarową dystrybuantą o brzegowych dystrybuantach zadanych przez F 1,..., F n. Dowód. Należy sprawdzić czy spełnione są 3 punkty z twierdzenia Weźmy dla pewnego i {1,..., n}, x i. Wówczas mamy, że lim H(x 1,..., x n ) = lim C(F 1(x 1 ),..., F n (x n )) x i x i Teraz niech inf 1 i n x i, czyli 1 i n x i = C(F 1 (x 1 ),..., F i 1 (x i 1 ),, F i+1 (x i+1 ),..., F n (x n )) =. lim H(x 1,..., x n ) = C(1,..., 1) = 1. 1 i n, x i. Złożenie funkcji ciągłych i prawostronnie ciągłych jest funkcją prawostronnie ciągłą. 3. Weźmy x = (x 1,..., x n ), y = (y 1,..., y n ) R n takie, że x y. Oznaczmy a i = F i (x i ), b i = F i (y i ). Z faktu, że dystrybuanta jest niemalejąca dostajemy, że 1 i n a i b i, czyli a b. Ostatecznie z faktu, że kopuła jest n-rosnąca dostajemy, że (1) x 1,y 1... (n) x n,y n H = (1) a 1,b 1... (n) a n,b n C. Udowodniliśmy, że H jest dystrybuantą n-wymiarową. Pozostało do wykazania, że ma odpowiednie rozkłady brzegowe, o czym mówi poniższa równość lim H(x 1,..., x n ) = C(1,..., 1, F i (x i ), 1,..., 1) = F i (x i ). j i x j 3.4 Ograniczenia Frecheta-Hoeffdinga a kopuły Pamiętając o tym, że kopuły są dystrybuantami o jednowymiarowych rozkładach brzegowych jednostajnych na I możemy zastosować do nich ograniczenia Frecheta-Hoeffdinga.14. Rodzinę wszystkich n-wymiarowych kopuł oznaczamy przez C n. Twierdzenie 3.. Dla każdej kopuły n-wymiarowej C i dla każdego u I n zachodzi, że { n } max u i n + 1, = W n (u) C(u) M n (u) = min{u 1,..., u n }. i=1 Ponadto zadane ograniczenia są najlepsze z możliwych, w sensie, że punktowe infimum i supremum wszystkich elementów C n są równe odpowiednio W n, M n, tzn. dla wszystkich u I n inf C(u) = W n (u), C C n sup C C n C(u) = M n (u). M n jest kopułą dla każdego n, natomiast W n jest kopułą wyłącznie dla n =. Zauważmy, że dla n > 3 W n nie jest n-rosnącą. Wystarczy wziąć V W n([1/, 1]) = (1) 1/,1... (n) 1/,1 W n = 1 n <. (3.1) 43
45 Ostatnia równość w 3.1 wynika z faktu, że po rozpisaniu V W n([1/, 1]) jedynie n+1 czynników nie wyzeruje się. Jeden z nich będzie zawierał same 1 (z plusem), natomiast n będzie zawierało n-1 1 i jedną 1/ (wszystkie z minusem). Dowód faktu, że dolne ograniczenie W n jest najlepszym z możliwych można odnaleźć w [16]. Polega on na skonstruowania dla każdego punktu u I n takiej kopuły C, że C(u) = W n (u). Podobnie jak w przypadku dowodu twierdzenia Sklara za pomocą multiliniowej interpolacji rozpoczynamy od zadania kilku przyporządkowań, a następnie uzupełniamy tak zdefiniowaną funkcję do kopuły. Fakt, ze górne ograniczenie M n jest najlepsze z możliwych wynika z faktu, że M n jest kopułą. W przypadku niezależnych zmiennych losowych X 1, X,..., X n ich dystrybuanta rozkładu łącznego H jest iloczynem dystrybuant jednowymiarowych, czyli H(x 1, x,..., x n ) = F 1 (x 1 )F (x ) F n (x n ). W tym przypadku kopuła zadana jest wzorem Π n (u 1, u,..., u n ) = u 1 u u n. Taką kopułę będziemy nazywać kopułą produktową i oznaczać Π n. Pamiętając o związku ograniczeń Frecheta- Hoeffdinga z kontrmonotonicznością i komonotonicznością, jak również o fakcie, że kopuła jest wyznaczona jednoznacznie jedynie dla dystrybuant ciągłych możemy zapisać, że Twierdzenie 3.. Niech X = (X 1, X,..., X n ) będzie ciągłym wektorem losowym o kopule C X. Wówczas zachodzi, że 1. X = (X 1,..., X n ) jest komonotoniczny C X = M n.. X 1,..., X n są niezależne C X = Π n. 3. (X 1, X ) jest kontrmonotoniczny C X = W. Dowód. Oczywisty wniosek z twierdzeń.41,.5 i definicji niezależności. Uwaga. Z tego powodu kopułę M n będziemy nazywać kopułą komonotoniczną, a W kopułą kontrmonotoniczną. Założenie o ciągłości w twierdzeniu 3. jest istotne. Rozpatrzmy następujący przypadek: niech X będzie zmienną losową o rozkładzie zdegenerowanym, czyli F X (c) = P(X = c) = 1, a Y zmienną losową o ciągłej dystrybuancie F Y. Wówczas zgodnie z twierdzeniem 3.14 wartości kopuły są jednoznacznie wyznaczone na zbiorze {, 1} I. Na tym zbiorze wszystkie kopuły przyjmują takie same wartości, ponieważ z definicji u I C(, u) =, C(1, u) = u. Natomiast na mocy twierdzenia.61 wiemy, że klasa Frecheta Γ(F X, F Y ) jest jednopunktowa, czyli zastosowanie dowolnej kopuły doprowadzi nas do takiego samego rozkładu łącznego, który jest jedyny. W tym przypadku wnioskowanie o charakterze zależności między zmiennymi losowymi na podstawie kopuły może nas doprowadzić do błędnych wniosków. Niech wektor losowy U będzie miał dystrybuantę M n. Wówczas zachodzi, że U 1 = U =... = U n prawie na pewno. W tym przypadku nośnikiem kopuły M n jest zbiór {u I n : u 1 = u =... = u n }. Wynika to również z faktu, że miara indukowana przez kopułę V M n jakiegokolwiek otwartego podzbioru I n nieprzecinającego się z przekątna hipersześcianu I n wynosi. Ponadto, zauważmy że pochodna n M n u 1... u n istnieje wszędzie poza przekątną I n i jest równa. Rozpatrzmy teraz sytuację, że wektor (U 1, U ) ma dystrybuantę W, czyli uzyskujemy, że U 1 = 1 U prawie na pewno. 44
46 Nośnikiem kopuły kontrmonotonicznej W jest zbiór {(u 1, u ) : u 1 = 1 u }. Analogicznie, miara V W jakiegokolwiek otwartego podzbioru nieprzecinającego się z drugą przekątną kwadratu I wynosi, a pochodna W u 1 u istnieje wszędzie poza drugą przekątna i jest równa. Kolejno, rozważmy wektor U posiadający dystrybuantę Π n. Wówczas posiada on gęstość zadaną wzorem n Π n (u 1,..., u n ) u 1... u n = 1. Wprowadźmy funkcje δ1 C, δ C będące przekrojami dwuwymiarowej kopuły C względem przekątnych I, czyli δ1 C, δ C : I I takie, że δ C 1 (t) = C(t, t), δ C (t) = C(t, 1 t). (3.3) Funkcje te będziemy nazywać odpowiednio pierwszym i drugim przekrojem diagonalnym. Co można wywnioskować z postaci nośników kopuł M, W, są one jednoznacznie zadane przez wartości odpowiednio na pierwszej i drugiej przekątnej kwadratu I, tzn. Twierdzenie 3.4. Niech C będzie dowolną kopułą dwuwymiarową. Wówczas zachodzi, że 1. t I δ C 1 (t) = δ M 1 (t) = t = C = M.. t I δ C (t) = δ W (t) = = C = W. Dowód. Przeprowadzimy dowód geometryczny, korzystający z własności kopuł. Zajmujemy się wyłącznie kopułami dwuwymiarowymi, dlatego będziemy pisać M oraz W (zamiast M, W ). 1. Załóżmy, że C jest kopułą taką, że δ C 1 = δ M 1 oraz C M, czyli istnieje takie (u, v ) I, że C(u, v ) < M(u, v ) = min{u, v }. Z założenia o równości pierwszych przekrojów diagonalnych dostajemy, że u v i bez straty ogólności załóżmy, że u < v. Wówczas z własności 3.7, że kopuła dwuwymiarowa jest funkcją rosnącą ze względu na obie zmienne dostajemy, że u = M(u, u ) = min{u, v } > C(u, v ) C(u, u ) = u. Uzyskaliśmy sprzeczność, dlatego dla każdego (u, v) I musi zachodzić C(u, v) = M(u, v).. Załóżmy, że C jest kopułą taką, że δ C = δ W. Wówczas musimy rozpatrzeć dwa przypadki: (a) Dla u + v 1 = u 1 v mamy z założenia, że C(u, v) C(1 v, v) =. (b) Dla u + v > 1 = u > 1 v mamy z założenia i twierdzenia 3.5 mówiącego o tym, że kopuła jest funkcją lipschitzowską u + v 1 C(u, v) = C(u, v) C(1 v, v) u (1 v) + v v = u + v 1. Podsumowując, dostaliśmy że dla każdego (u, v) I, C(u, v) = max{u + v 1, }, czyli uzyskaliśmy równość C = W. 45
47 3.5 Zbiór kopuł i przykładowe rodziny Zbiór wszystkich kopuł n-wymiarowych będziemy określać przez C n. Łatwo pokazać, że jest to zbiór wypukły. Twierdzenie 3.5. Zbiór C n jest wypukły, tzn. dla każdego α I oraz C, C 1 C n zachodzi, że αc + (1 α)c 1 C n Dowód geometryczny. Niech C, C 1 C n oraz α I. Oznaczmy C = αc + (1 α)c 1. Łatwo zauważyć, że spełnione są warunki brzegowe (sprawdzamy tylko dla pierwszej współrzędnej, dla pozostałych analogicznie): C(, u,..., u n ) = αc (, u,..., u n ) + (1 α)c 1 (, u,..., u n ) =, C(u 1, 1,..., 1) = αc (u 1, 1,..., 1) + (1 α)c 1 (u 1, 1,..., 1) = αu 1 + (1 α)u 1 = u 1. Natomiast fakt, że jest n-rosnąca jest natychmiastowym wnioskiem z definicji symbolu operatora różnicowego.17 oraz faktu, że C, C 1 są kopułami (v u) v,u C = α v,u C + (1 α) v,u C 1. Uzyskaliśmy, że C jest kopułą i w efekcie C n jest zbiorem wypukłym. Powyższe twierdzenie można udowodnić również przy pomocy argumentów probabilistycznych, co znacząco ułatwia interpretację kombinacji wypukłych kopuł. Dowód probabilistyczny. Niech U, U 1 będą n-wymiarowymi wektorami losowymi określonymi na tej samej (Ω, F, P) o dystrybuantach zadanych przez kopuły C, C 1 odpowiednio. Ponadto, niech Z będzie zmienną losową o rozkładzie dwupunktowym P(Z = ) = α, P(Z = 1) = 1 α dla pewnego α I. Załóżmy dodatkowo, że U, U 1, Z są niezależne. Rozważmy n-wymiarowy wektor losowy U zdefiniowany następująco U = σ (Z)U + σ 1 (Z)U 1, gdzie dla i {, 1}, σ i (x) = 1, jeżeli x = i oraz σ i (x) = w przeciwnym razie. Wówczas dla każdego u I n P(U u) = P(U u Z = )P(Z = ) + P(U u Z = 1)P(Z = 1) = αp(u u) + (1 α)p(u 1 u) = αc (u) + (1 α)c 1 (u). Uzyskaliśmy, że C(u) = αc (u) + (1 α)c 1 (u) jest dystrybuantą U. Z warunków brzegowych kopuł dostajemy, że rozkłady brzegowe U są jednostajne na I, dlatego dystrybuanta C tego wektora jest kopułą. Uwaga. Korzystając z twierdzenia 3.5 oraz indukcji matematycznej dostajemy, że dowolna kombinacja wypukła kopuł jest kopułą. Niech C, C 1,..., C n będą kopułami oraz n i= α i = 1, wówczas C zadane wzorem jak niżej jest kopułą, ponieważ ( ) α 1 α n C = α C + α 1 C α n C n = α C + (α α n ) C C n α α n α α n }{{} D = α C + (1 α )D. gdzie D zgodnie z założeniem indukcyjnym jest kopułą. 46
48 Zajmiemy się teraz własnościami metrycznymi zbioru kopuł n-wymiarowych. Rozważmy przestrzeń (Ξ(I n ), d ) wszystkich ciągłych funkcji rzeczywistych o dziedzinie I n. Zdefiniujmy metrykę d dla wszystkich f 1, f Ξ(I n ) za pomocą wzoru d (f 1, f ) = sup u I n f 1 (u) f (u). O ciągu z Ξ(I n ), który jest zbieżny w metryce d mówimy, że jest zbieżny jednostajnie. Twierdzenie 3.6. Niech {C k } k N C n zbiega punktowo do C. Wówczas C jest kopułą n- wymiarową. Dowód. Wykażemy, że funkcja C zadana dla u I n wzorem C(u) = lim k C k (u), gdzie dla każdego k N, C k jest kopułą n-wymiarową, spełnia warunki z twierdzenia 3.: 1. Niech u = (u 1,..., u n ) takie, że u i = dla co najmniej jednego i {1,..., n}, wówczas. Niech u j = 1 dla j i oraz u i I, wówczas C(u ) = lim k C k(u ) = lim k =. C(1,..., 1, u i, 1,...) = lim k C k(1,..., 1, u i, 1,..., 1) = lim k u i = u i. 3. Chcemy pokazać, że C jest n-rosnąca. Weźmy a, b I n takie, że a b. Zauważmy, że z definicji.15 po rozpisaniu a,b C otrzymamy sumę wartości funkcji C w różnych punktach. Z punktowej zbieżności wiemy, że wartości te są granicami wartości kopuł C k w tych punktach. W efekcie możemy na mocy faktu, że kopuły C k są n-rosnące zapisać a,b C = lim k a,bc k. Co więcej okazuje się, że jeżeli ciąg kopuł {C k } k N zbiega punktowo do C, to wówczas {C k } k N zbiega również jednostajnie do C (tw w [16]). Z twierdzenia 3.6 wiemy, że funkcja graniczna C jest kopułą. Oznacza to, że C n jest domkniętym podzbiorem (Ξ(I n ), d ). Okazuje się, C n posiada jeszcze silniejszą własność. Twierdzenie 3.7. Zbiór C n jest zwartym podzbiorem (Ξ(I n ), d ). Dowód. Twierdzenie w [16]. W tej części przedstawimy przykładowe rodziny kopuł. Rodziną kopuł nazywamy indeksowany zbiór kopuł {C θ } θ Θ, gdzie θ jest wektorem parametrów. Kopuły, które zostały przedstawione do tej pory to: M n, Π n, W. Twierdzenie 3.5 daje nam możliwość tworzenia rodzin kopuł na bazie już znanych. Definicja 3.8. Niech α, β I będą takie, że α + β 1. Wówczas dwuparametrową rodziną Frecheta nazywamy rodzinę kopuł C α,β (u, v) = αm (u, v) + (1 α β)π (u, v) + βw (u, v). (3.9) Definicja 3.3. Niech θ [ 1, 1]. Wówczas jednoparametrową rodziną Mardia nazywamy rodzinę kopuł C θ (u, v) = θ (1 + θ) M (u, v) + (1 θ )Π (u, v) + θ (1 θ) W (u, v). (3.31) 47
49 O powyższych rodzinach będziemy mówić, że są wyczerpujące, ponieważ należą do nich: M, Π, W. Zauważmy, że mieliśmy już z nimi do czynienia w adnotacji do 1. błędnego przekonania na temat współczynnika korelacji (rozdział.). Rozpatrywaliśmy tam wektor (X, Y ), gdzie X N (, 1), natomiast Y = X z prawdopodobieństwem α i Y = X z prawdopodobieństwem 1 α. Czyli X, Y mają rozkłady N (, 1), a wektor (X, Y ) jest z prawdopodobieństwem α komonotoniczny, a z prawdopodobieństwem 1 α kontrmonotoniczny. Wynika z tego, że kopułą (X, Y ) jest C X,Y = αm + (1 α)w. Rozważmy teraz inny przykład. Niech X = (X 1,..., X n ) będzie wektorem losowym, którego współrzędne są niezależne i mają identyczne rozkłady o dystrybuancie F i (t) = t 1 α dla każdego t I oraz pewnego α I. Niech Z będzie zmienną losową, niezależną od X o dystrybuancie F Z (t) = t α dla t I. Zdefiniujmy wektor losowy Y tak, że dla każdego i {1,..., n}, Y i = max{x i, Z}. Zauważmy, że dla każdego i {1,..., n} Y i ma rozkład jednostajny, ponieważ z niezależności X i oraz Z dostajemy, że P(Y i t) = P(max{X i, Z} t) = P(X i t, Z t) = P(X i t)p(z t) = t 1 α t α = t. Oznacza to, że dystrybuanta wektora Y będzie kopułą, oznaczymy ją przez C α. Ma ona następującą postać C α (u 1,..., u n ) = P(Y 1 u 1,..., Y n u n ) = P(max{X 1, Z} u 1,..., max{x n, Z} u n ) = P(X 1 u 1,..., X n u n, Z min{u 1,..., u n }) = P(X 1 u 1 ) P(X n u n )P(Z min{u 1,..., u n }) = u 1 α 1 u 1 α n (min{u 1,..., u n }) α = (Π n (u)) 1 α (M n (u)) α. Powyższą rodzinę kopuł {C α } indeksowaną parametrem α I nazywany rodziną Cuadrasa-Auge. Mamy tutaj do czynienia z tzw. modelem z szokiem. W początkowej sytuacji mamy wektor losowy, którego współrzędne są niezależne. Dodajemy do niego zewnętrzny szok w postaci zmiennej losowej Z, która zastępuję wartość X i gdy jest od niej większa. Uzyskana kopuła jest ważoną średnią geometryczną kopuły produktowej i komonotonicznej. Zauważmy, że C (u) = Π n (u), C 1 (u) = M n (u). Im większa wartość α, tym większe wartości średnio przyjmuje Z, dlatego częściej będzie zastępowało poszczególne X i. Analogicznie, im mniejsza wartość α, tym mniejsze wartości średnio przyjmuje Z, dlatego częściej X i, które w postaci wyjściowej są od siebie niezależne, pozostaną bez zmian. Dobrze widać różnice między dużymi a małymi wartościami α na rysunku 3.1, który prezentuje 1 losowych obserwacji wektora (Y 1, Y ) dla różnych parametrów α. (a) α =.1 (b) α =.9 Rysunek 3.1: 1 losowych obserwacji z wektora (Y 1, Y ) o kopule C α z rodziny Cuadrasa-Auge. 48
50 W przypadku dwuwymiarowym wzór na rodzinę Cuadrasa-Auge możemy zapisać następująco C α (u, v) = (uv) 1 α (min{u, v}) α = { uv 1 α, u v u 1 α v, u v. (3.3) Do badanej rodziny możemy dodać jeszcze jeden parametr, uzyskując w efekcie dwuparametrową rodzinę Marshalla-Olkina albo uogólnioną rodzinę Cuadrasa-Auge dla α, β 1. C α,β (u, v) = min{u 1 α v, uv 1 β } = { uv 1 β, u α v β u 1 α v, u α v β. (3.33) Zauważmy, że dla α = β kopuła Marshalla-Olkina jest kopułą Cuadrasa-Auge. Ponadto, C α, = C,β = Π oraz C 1,1 = M. Żadna z powyższych rodzin nie jest wyczerpująca, ponieważ nie zawiera w sobie kopuły kontrmonotonicznej W. Ponadto, w przeciwieństwie do ważonej średniej arytmetycznej, metoda tworzenia nowych kopuł przy pomocy ważonej średniej geometrycznej już znanych nie zawsze działa. Kontrprzykładem będzie średnia geometryczna kopuły produktowej Π i kontrmonotonicznej W, która nie jest kopułą. Nierówności Frecheta-Hoeffdinga dla kopuł W n (u) C(u) M n (u) sugerują wprowadzenie częściowego porządku na zbiorze kopuł. Definicja Niech C, C C n. Mówimy, że kopuła C jest mniejsza niż C (albo C jest większa niż C) i oznaczamy C C jeżeli dla każdego u R n, C(u) C (u) oraz C(u) C (u), gdzie C oznacza funkcję przeżycia kopuły C, tzn. jeżeli C jest dystrybuantą wektora U, to wówczas C(u) = P(U 1 > u 1,..., U n > u n ). Taki porządek nazywamy porządkiem zgodnościowym (ang. concordance ordering), co stanie się jasne w rozdziale 4.. Uwaga. Zauważmy, że dla n = warunki zapisane w definicji porządku zgodnościowego są równoważne, ponieważ C(u, v) C (u, v) 1 u v + C(u, v) 1 u v + C (u, v) C(u, v) C (u, v) Uwaga. Porządek zadany przez relację jest porządkiem częściowym, a nie totalnym, ponieważ nie wszystkie elementy zbioru C n są porównywalne. Weźmy np. kopułę z rodziny Frecheta C(u, v) = (W (u, v) + M (u, v))/ oraz kopułę produktową Π. Wówczas zachodzi, że ( 1 C 4, 1 ) = > 1 ( 1 16 = Π 4, 1 ) ( 1, C 4 4, 3 ) = < 3 ( 1 16 = Π 4, 3 ), 4 czyli kopuły C oraz Π nie są porównywalne. 3.6 Niezmienniczość kopuły na transformacje ściśle rosnące W tym podrozdziale rozważymy kluczową własność kopuł, dzięki której są one niezwykle przydatna do badania zależności. Twierdzenie Niech X 1,..., X n będą ciągłymi zmiennymi losowymi określonymi na przestrzeni probabilistycznej (Ω, F, P). Ponadto, rozważmy n ściśle rosnących funkcji ϕ i : Ran X i R (i = 1,..., n). Wówczas wektory losowe X = (X 1,..., X n ) oraz Y = (ϕ 1 (X 1 ),..., ϕ n (X n )) mają taką samą kopułę, tzn. C X = C Y. 49
51 Dowód. Funkcja ϕ i : Ran X i Ran ϕ i R jest funkcją ściśle monotoniczną, więc posiada na swoim obrazie funkcję odwrotną ϕ 1 : Ran ϕ i Ran X i. Zauważmy, że zachodzi P(ϕ i (X i ) Ran ϕ i ) = 1, czyli zmienna losowa ϕ i (X i ) jest skoncentrowana na Ran ϕ i, dlatego wystarczy wartości jej dystrybuanty określić na tym zbiorze. Dla każdego t Ran ϕ i mamy, że F Yi (t) = P(Y i t) = P (ϕ i (X i ) t) = P ( X i ϕ 1 i (t) ) ( = F Xi ϕ 1 i (t) ). Dla każdego i {1,..., n} zmienna losowa X i ma rozkład ciągły, więc dla dowolnego u i (, 1) istnieje takie x i R, że F Xi (x i ) = u i. Wówczas z twierdzenia Sklara dostajemy, że dla każdego u I n zachodzi C Y (u 1,..., u n ) = C Y (F X1 (x 1 ),..., F Xn (x n )) = C Y (F Y1 (ϕ 1 (x 1 )),..., F Yn (ϕ n (x n ))) = H Y (ϕ 1 (x 1 ),..., ϕ n (x n )) = P (ϕ 1 (X 1 ) ϕ 1 (x 1 ),..., ϕ n (X n ) ϕ n (x n )) = P(X 1 x 1,..., X n x n ) = H X (x 1,..., x n ) = C X (F X1 (x 1 ),..., F Xn (x n )) = C X (u 1,..., u n ). Własność kopuł opisaną w powyższym twierdzeniu nazywamy własnością niezmienniczości rang (ang. rank invariant property). Schweizer i Wolff w swojej pracy [48] z 1981 roku pisali, że [...] to właśnie kopuła jest obiektem, który oddaje własności rozkładu łącznego, które są niezmiennicze w przypadku prawie na pewno ściśle rosnących przekształceń. Dlatego badania na temat statystyk rangowych - o tyle, o ile są to badania własności niezmienniczych ze względu na takie przekształcenia - mogą być scharakteryzowane jako badania na temat kopuł i własności niezmienniczych ze względu na kopuły. Powyższa własność jest bardzo wygodna z praktycznego punktu widzenia, ponieważ rozpatrując n zmiennych losowych X 1..., X n, zmiana skali przy pomocy ściśle rosnących funkcji ϕ 1,..., ϕ n nie ma wpływu na ich kopułę. Na przykład w matematyce finansowej, rozpatrując ceny różnych aktyw kopuła nie zmienia się gdy rozważamy ich logarytmy bądź wartości po przemnożeniu według kursu innej waluty. Ponadto, w przypadku ściśle monotonicznych przekształceń, ale nie wszystkich rosnących kopuła zmienia się w przewidywalny sposób. Poniżej przedstawiono twierdzenie dla sytuacji dwuwymiarowej. Twierdzenie Niech X, Y będą ciągłymi zmiennymi losowymi zdefiniowanymi na przestrzeni probabilistycznej (Ω, F, P). Ponadto, rozważmy funkcje ϕ : Ran X R oraz ψ : Ran Y R. Wówczas zachodzi, że 1. Jeżeli ϕ, ψ są ściśle rosnące, to dla każdego (u, v) I C ϕ(x),ψ(y ) (u, v) = C XY (u, v).. Jeżeli ϕ jest ściśle rosnąca, a ψ ściśle malejąca, to dla każdego (u, v) I C ϕ(x),ψ(y ) (u, v) = u C XY (u, 1 v). 3. Jeżeli ϕ jest ściśle malejąca, a ψ ściśle rosnąca, to dla każdego (u, v) I C ϕ(x),ψ(y ) (u, v) = v C XY (1 u, v). 4. Jeżeli ϕ, ψ są ściśle malejące, to dla każdego (u, v) I C ϕ(x),ψ(y ) (u, v) = u + v 1 + C XY (1 u, 1 v). 5
52 Dowód. Podpunkt 1. jest oczywistą konsekwencją twierdzenia Zostanie przedstawiony dowód podpunktu 4., natomiast. i 3. są analogiczne. Załóżmy, że ϕ, ψ są ściśle malejące. Wówczas, ponieważ ϕ(x), ψ(y ) są skoncentrowane na Ran ϕ, Ran ψ odpowiednio, więc wystarczy, że określimy wartości ich dystrybuant na tych zbiorach. Z założenia o ciągłości X, Y i faktu, że istnieje funkcja odwrotna do funkcji ściśle monotonicznej określona na jej obrazie dostajemy, że dla każdego x Ran ϕ F ϕ(x) (x) = P(ϕ(X) x) = P ( X ϕ 1 (x) ) = 1 P ( X < ϕ 1 (x) ) = 1 P ( X ϕ 1 (x) ) = 1 F X ( ϕ 1 (x) ), czyli F X (ϕ 1 (x)) = 1 F ϕ(x) (x) i analogicznie dla zmiennej losowej Y. W pierwszej kolejności pokażemy, że ϕ(x), ψ(y ) mają ciągłe rozkłady. Rozpatrzmy dla ustalonego x Ran ϕ zbiór {ϕ(x) = x} = {X A x }, gdzie A x = {y R : ϕ(y) = x}. Załóżmy, że A x jest co najmniej dwuelementowy, czyli x, x A x. Wówczas dostajemy, że ϕ(x ) = y = ϕ(x ), czyli sprzeczność z faktem, że ϕ jest ściśle monotoniczne. Oznacza to, że dla każdego x Ran ϕ A x jest co najwyżej jednoelementowy, dlatego = P(X A x ) = P(ϕ(X) = x). Z ciągłości ϕ(x), ψ(y ) mamy, że dla każdego u, v (, 1) istnieje takie x, y R, że F ϕ(x) (x) = u, F ψ(y ) (y) = v. Wówczas z twierdzenia Sklara dostajemy dla każdego (u, v) I, że C ϕ(x),ψ(y ) (u, v) = C ϕ(x),ψ(y ) (F ϕ(x) (x), F ψ(y ) (y)) = H ϕ(x),ψ(y ) (x, y) = P(ϕ(X) x, ψ(y ) y) = P ( X ϕ 1 (x), Y ψ 1 (y) ) = 1 P(X ϕ 1 (x)) P(Y ψ 1 (y)) + P(X ϕ 1 (x), Y ψ 1 (y)). = 1 F X (ϕ 1 (x)) F Y (ψ 1 (y)) + H X,Y (ϕ 1 (x), ψ 1 (y)) = 1 (1 u) (1 v) + C X,Y (F X (ϕ 1 (x)), F Y (ψ 1 (y))) = = u + v 1 + C X,Y (1 u, 1 v). Z powyższego twierdzenia wynika, że dla każdej kopuły C C kopułami również będą poniższe funkcje: C σ1 (u, v) = v C(1 u, v), C σ (u, v) = u C(u, 1 v), C σ1σ (u, v) = u + v 1 + C(1 u, 1 v). (3.37) Ponadto, dla kopuły dwuwymiarowej wprowadzimy transpozycję C, czyli funkcję C T zadaną wzorem C T (u, v) = C(v, u). Łatwo zauważyć, że jeżeli C jest dystrybuantą wektora (U, V ), to tak zdefiniowane C T jest dystrybuantą wektora (V, U) i w efekcie również kopułą. Ponadto, jeżeli C jest kopułą wektora losowego (X, Y ), to wówczas C T jest kopułą wektora (Y, X). 51
53 4 Miary siły związku między zmiennymi oparte na kopułach O zmiennych losowych, które nie są niezależne mówimy, że są zależne bądź że istnieje pomiędzy nimi pewien związek. W tym miejscu należy zadać pytanie - jak mierzyć siłę związku między dwiema zmiennymi losowymi? Jedno z narzędzi, współczynnik korelacji liniowej Pearsona, zostało przedstawione we wcześniejszej części pracy. Jednakże, zostały tam również zaobserwowane wady tego współczynnika, w tym brak niezmienniczości na ściśle rosnące przekształcenia. Ponadto, wprowadzony został obiekt kopuły, która na mocy twierdzenia 3.35 już taką własność posiada. Twierdzenie Sklara, które umożliwia rozbicie wielowymiarowej dystrybuanty na dystrybuanty jednowymiarowe i kopułę, sugeruje zdefiniowanie takich miar siły związku przy pomocy właśnie kopuł. Dzięki temu uzyskane miary posiadałyby pożądaną własność niezmienniczości na skalę (scale-invariant). Jak już zostało wspomniane we wstępie do pracy, aby uzyskać sensowny model do badania zależności musimy przyjąć pewne założenia dotyczące jej charakteru. Innymi słowy, musimy wcześniej zdecydować jakich czynników świadczących o zależności będziemy poszukiwać. W tym rozdziale zaprezentujemy dwa sposoby na mierzenie siły związku między zmiennymi losowymi: miary zgodności oraz miary zależności. Będziemy rozważać wyłącznie ciągłe wektory losowe. Wynika to z faktu, że zaproponowane miary siły związku będą oparte na kopułach, a ciągłe wektory losowe mają na mocy twierdzenia Sklara kopuły wyznaczone jednoznacznie. Rozważania dotyczące przypadku nieciągłych dystrybuant są opisane w pracy [1]. 4.1 Zgodność Intuicyjnie parę zmiennych losowych nazwiemy zgodną, gdy duże wartości jednej zmiennej losowej pociągają za sobą duże wartości drugiej zmiennej i analogicznie małe wartości jednej pociągają za sobą małe wartości drugiej. Formalnie koncept ten możemy zapisać następująco - niech (x 1, y 1 ), (x, y ) będą dwiema obserwacjami pochodzącymi z wektora (X, Y ) o rozkładzie ciągłym. Wówczas powiemy, że (x 1, y 1 ), (x, y ) są zgodne (ang. concordant) jeżeli x 1 < x oraz y 1 < y albo x 1 > x oraz y 1 > y. Podobnie, powiemy, że (x 1, y 1 ), (x, y ) są niezgodne (ang. discordant) jeżeli x 1 < x oraz y 1 > y albo x 1 > x oraz y 1 < y. Analogicznie możemy zapisać, że (x 1, y 1 ), (x, y ) są zgodne, gdy (x 1 x )(y 1 y ) > oraz niezgodne, gdy (x 1 x )(y 1 y ) <. Zauważmy, że przedstawione definicje są takie same jak dla komonotonicznego i kontrmonotonicznego zbioru, z tym wyjątkiem, że nierówności są ostre, ponieważ zajmujemy się rozkładami ciągłymi. Możemy teraz wprowadzić definicję funkcji zgodności Q dla pary wektorów losowych. Podamy ją wraz z twierdzeniem, które mówi, że funkcja ta zależy od rozkładów łącznych wyłącznie poprzez kopułę. Twierdzenie 4.1. Niech (X 1, Y 1 ) oraz (X, Y ) będą niezależnymi, ciągłymi wektorami losowymi o dystrybuantach łącznych H 1, H i o wspólnych dystrybuantach brzegowych F (dla X 1, X ) oraz G (dla Y 1, Y ). Niech C 1, C oznaczają kopuły odpowiednio (X 1, Y 1 ), (X, Y ). Oznaczmy przez Q różnicę pomiędzy prawdopodobieństwem zgodności i niezgodności (X 1, Y 1 ) oraz (X, Y ), tzn. Q = P[(X 1 X )(Y 1 Y ) > ] P[(X 1 X )(Y 1 Y ) < ]. Wówczas zachodzi, że Q = Q(C 1, C ) = 4 C (u, v)dc 1 (u, v) 1. I 5
54 Dowód. Z ciągłości i niezależności wektorów losowych dostajemy, że P [(X 1 X )(Y 1 Y )] =, dlatego zachodzi, że P[(X 1 X )(Y 1 Y ) < ] = 1 P[(X 1 X )(Y 1 Y ) > ], i w efekcie Q możemy zapisać jako Q = P[(X 1 X )(Y 1 Y ) > ] 1. (4.) Z kolei to prawdopodobieństwo możemy rozbić na dwa możliwe przypadki P[(X 1 X )(Y 1 Y ) > ] = P(X 1 > X, Y 1 > Y ) + P(X 1 < X, Y 1 < Y ). (4.3) W kolejnym kroku warunkując dowolnym z wektorów (X 1, Y 1 ), (X, Y ) (w naszym przypadku będzie to (X 1, Y 1 )) otrzymujemy taki zapis w postaci całek P(X 1 > X, Y 1 > Y ) = P(X < X 1, Y < Y 1 ) = P(X < x, Y < y)dh 1 (x, y) R = H (x, y)dh 1 (x, y) = C (F (x), G(y))dC 1 (F (x), G(y)). R R Podstawiając u = F (x) oraz v = G(y) dostajemy P(X 1 > X, Y 1 > Y ) = C (u, v)dc 1 (u, v). (4.4) I Chcąc rozpisać P(X 1 < X, Y 1 < Y ) w analogiczny sposób, najpierw zauważamy, że P(X > x, Y > y) = 1 P(X x) P(Y y) + P(X x, Y y) = 1 F (x) G(y) + H (x, y). Wówczas, ponownie warunkując za pomocą (X 1, Y 1 ) i podstawiając u = F (x), v = G(y) otrzymujemy równość P(X 1 < X, Y 1 < Y ) = P(X > x, Y > y)dh 1 (x, y) R = (1 F (x) G(y) + H (x, y)) dh 1 (x, y) R = (1 F (x) G(y) + C (F (x), G(y))) dc 1 (F (x), G(y)) R = (1 u v + C (u, v)) dc 1 (u, v). I Wiemy, że C 1 jest dystrybuantą wektora losowego (U, V ) o jednostajnych na I rozkładach brzegowych, dlatego poszczególne całki będą równe dc 1 (u, v) = 1, u dc 1 (u, v) = E(U) = 1 I I, v dc 1 (u, v) = E(V ) = 1 I. Czyli ostatecznie uzyskujemy, że P(X 1 < X, Y 1 < Y ) = I + C (u, v)dc 1 (u, v) = C (u, v)dc 1 (u, v). (4.5) I Podstawiając 4.4, 4.5 do 4.3 mamy poniższy wzór na prawdopodobieństwo P[(X 1 X )(Y 1 Y ) > ] = C (u, v)dc 1 (u, v) I i pamiętając o przedstawieniu Q za pomocą 4. dostajemy tezę Q = Q(C 1, C ) = 4 C (u, v)dc 1 (u, v) 1. I Konsekwencją twierdzenia 4.1 jest ciekawa tożsamość dotycząca konkretnego rodzaju całek związanych z kopułami. 53
55 Twierdzenie 4.6. Niech (X 1, Y 1 ), (X, Y ) będą niezależnymi, ciągłymi wektorami losowymi o tych samych rozkładach brzegowych i kopułach odpowiednio C 1, C. Wówczas zachodzi, że P(X 1 > X, Y 1 > Y ) = C (u, v) dc 1 (u, v) = I C 1 (u, v) dc (u, v) = P(X 1 < X, Y 1 < Y ). I Dowód. Zauważmy, że w dowodzie twierdzenia 4.1 dostaliśmy, że P(X 1 > X, Y 1 > Y ) = C (u, v) dc 1 (u, v) = P(X 1 < X, Y 1 < Y ). I Przeprowadzając analogiczne rozumowanie dla P(X 1 < X, Y 1 < Y ) uzyskujemy, że P(X > X 1, Y > Y 1 ) = C 1 (u, v) dc (u, v) = P(X < X 1, Y < Y 1 ), I w efekcie otrzymując tezę. Twierdzenie 4.7. Niech C 1, C będą zadane jak w twierdzeniu 4.1. Wówczas 1. Q jest symetryczna, tzn. Q(C 1, C ) = Q(C, C 1 ).. Q jest niemalejąca ze względu na każdy argument, tzn. jeżeli C 1 C 1 oraz C C, to zachodzi, że Q(C 1, C ) Q(C 1, C ). 3. Q jest liniowa ze względu na oba argumenty dla kombinacji wypukłych kopuł, tzn. dla α, β, γ, δ takich, że α + β = 1 oraz γ + δ = 1 i kopuł C 1, C, C 3, C 4 zachodzi, że Q(αC 1 + βc, γc 3 + δc 4 ) = αγq(c 1, C 3 ) + αδq(c 1, C 4 ) + βγq(c, C 3 ) + βδq(c, C 4 ). Dowód. 1. Fakt, że Q jest symetryczną jest konsekwencją twierdzenia 4.6, ponieważ Q(C 1, C ) = 4 C (u, v)dc 1 (u, v) 1 = 4 I C 1 (u, v)dc (u, v) 1 = Q(C, C 1 ). I. Z własności całki mamy, że jeżeli C 1 (u, v) C 1(u, v) dla każdego (u, v) I, to Q(C 1, C ) = 4 C 1 (u, v)dc (u, v) 1 4 I C 1(u, v)dc (u, v) 1 = Q(C 1, C ). I Z faktu, że Q jest funkcją symetryczną dostajemy analogiczną nierówność dla C C. Ostatecznie, mamy że Q(C 1, C ) Q(C 1, C ) Q(C 1, C ). 3. Niech α, β będą takie, że α + β = 1 oraz C, C 1, C będą kopułami. Wówczas z liniowości całki zachodzi, że Q(αC 1 + βc, C) = 4 (αc 1 (u, v) + βc (u, v)) dc(u, v) 1 I = 4α C 1 (u, v) dc(u, v) α + 4β I C (u, v) dc(u, v) β I = αq(c 1, C) + βq(c, C). 54
56 Z symetrii funkcji zgodności dostajemy, że Q(αC 1 + βc, γc 3 + δc 4 ) = αq(c 1, γc 3 + δc 4 ) + βq(c, γc 3 + δc 4 ) = αq(γc 3 + δc 4, C 1 ) + βq(γc 3 + δc 4, C ) = = αγq(c 3, C 1 ) + αδq(c 4, C 1 ) + βγq(c 3, C ) + βδq(c 4, C ) = αγq(c 1, C 3 ) + αδq(c 1, C 4 ) + βγq(c, C 3 ) + βδq(c, C 4 ). Policzymy teraz wartości funkcji zgodności w przypadku 3 podstawowych kopuł: M, Π, W. W tym rozdziale będziemy zajmować się wyłącznie kopułami dwuwymiarowymi, dlatego nie będziemy pisać górnego indeksu, czyli będziemy zapisywać: M, Π, W. Wiemy, że nośnikiem kopuły komonotonicznej M jest przekątna kwadratu {(u, v) : u = v, (u, v) I }. Niech g : I R będzie funkcją całkowalną, zachodzi wówczas że g(u, v) dm(u, v) = g(u, u) du. I W efekcie mamy równości Q(M, M) = 4 min{u, v} dm(u, v) 1 = 4 u du 1 = 1 = 1, I Q(M, Π) = 4 uv dm(u, v) 1 = 4 u du 1 = 4 I 3 1 = 1 3, Q(M, W ) = 4 max{u + v 1, } dm(u, v) 1 = 4 (u 1) du 1 = 1 1 =. I 1/ Analogicznie, nośnikiem kopuły kontrmonotonicznej W jest druga przekątna {(u, v) : u = 1 v, (u, v) I }, dlatego dla funkcji całkowalnej g : I R mamy, że g(u, v) dw (u, v) = g(u, 1 u) du I i po przeliczeniu dostajemy, że Q(W, Π) = 4 uv dw (u, v) 1 = 4 u(1 u) du 1 = I 3 1 = 1 3, Q(W, W ) = 4 max{u + v 1, } dw (u, v) 1 = 4 du 1 = 1. I I ostatecznie z faktu, że dla kopuły produktowej dπ(u, v) = dudv uzyskujemy Q(Π, Π) = 4 uv dπ(u, v) 1 = 4 uv dudv 1 = 1 1 =. (4.1) I Q jest różnicą prawdopodobieństw, dlatego dostajemy że dla dowolnej kopuły C zachodzi Q(C, C) [ 1, 1]. Ponadto z powyższych równości i własności. z twierdzenia 4.7 mamy, że [ Q(C, M) [, 1], Q(C, Π) 1 3, 1 ], Q(C, W ) [ 1, ]. 3 (4.8) (4.9) 4. Miary zgodności W poprzednim podrozdziale został wprowadzony koncept funkcji zgodności Q, którą będziemy chcieli wykorzystać do stworzenia różnych miar zgodności. W tym miejscu należy się zastanowić jakie są pożądane własności takich miar. W 1984 roku Scarsini zaproponował w pracy [44] zestaw aksjomatów jakie powinna spełniać taka funkcja. 55
57 Definicja Miarą zgodności nazywamy odwzorowanie µ : C R, które spełnia: 1. µ jest zdefiniowane dla każdej kopuły C C.. Dla każdego C C, µ(c) = µ(c T ), gdzie C T jest transpozycją C. 3. Jeżeli C C, to µ(c) µ(c ). 4. Dla każdego C C, µ(c) [ 1, 1], µ(m) = 1, µ(w ) = µ(π) =. 6. µ(c σ1 ) = µ(c σ ) = µ(c). 7. Jeżeli ciąg kopuł {C n } n N zbiega punktowo do C, to wówczas lim n µ(c n ) = µ(c). Uwaga. Miarę zgodności możemy też rozpatrywać jako funkcję, która parze ciągłych zmiennych losowych przyporządkowuje liczbę z przedziału [ 1, 1]. Ciągłość jest założeniem istotnym, ponieważ w takim wypadku mamy do czynienia z jednoznacznie wyznaczoną kopułą. Z tego powodu mając dany ciągły wektor losowy (X, Y ) o kopule C będziemy w zależności od wygody zapisywać wartość miary zgodności jako µ(x, Y ) albo µ(c). Dzięki temu możemy równoważnie zapisać warunek. µ(x, Y ) = µ(y, X), a warunek 6. µ(x, Y ) = µ(x, Y ) = µ( X, Y ). Ponadto, jeżeli µ jest miarą zgodności, to dla ściśle rosnących funkcji ϕ, ψ mamy, że µ(x, Y ) = µ(c) = µ(ϕ(x), ψ(y )). Uwaga. Zauważmy, że w warunku 4. wystarczy zażądać jedynie, aby µ(c) [ 1, 1] oraz µ(m) = 1. Weźmy komonotoniczny wektor (X, Y ). Wówczas dostajemy, że µ(x, Y ) = µ(m) = 1. Rozpatrzmy wektor ( X, Y ), który będzie kontrmonotoniczny. Wartość jego miary zgodności będzie korzystając z warunku 6. wynosić µ(w ) = µ( X, Y ) = µ(x, Y ) = µ(m) = 1. Ten fakt można również udowodnić korzystając z następującej relacji między kopułami M oraz W M σ1 (u, v) = v M(1 u, v) = v min{1 u, v} = max{v 1 + u, v v} = max{u + v 1, } = W (u, v). Analogicznie, zachodzi że M σ (u, v) = W (u, v). Uwaga 3. Warunek 7. ma sens, ponieważ wiemy na mocy twierdzenia 3.6, że jeżeli ciąg kopuł {C n } n N ma punktową granicę C, to funkcja graniczna jest również kopułą Tau Kendalla Definicja 4.1. Niech (X, Y ) będzie ciągłym wektorem losowym o kopule C. Ponadto, niech (X 1, Y 1 ), (X, Y ) będą niezależnymi kopiami (X, Y ) czyli niezależnymi wektorami losowymi o takim samym rozkładzie jak (X, Y ). Wówczas tau Kendalla wektora (X, Y ) (albo kopuły C) definiujemy jako τ(x, Y ) = τ(c) = P[(X 1 X )(Y 1 Y ) > ] P[(X 1 X )(Y 1 Y ) < ]. (4.13) Twierdzenie Niech X, Y będą ciągłymi zmiennymi losowymi o kopule C. Wówczas tau Kendalla wektora (X, Y ) (albo kopuły C) zadane jest wzorem τ(x, Y ) = τ(c) = Q(C, C) = 4 C(u, v) dc(u, v) 1. (4.15) I 56
58 Dowód. Zauważmy, że tau Kendalla zdefiniowane za pomocą wzoru 4.13 jest funkcją zgodności pary niezależnych wektorów losowych (X 1, Y 1 ), (X, Y ), gdzie oba mają kopułę C. Czyli na mocy twierdzenia 4.1 otrzymujemy, że tau Kendalla zależy wyłącznie od kopuły C i jest równe τ(x, Y ) = τ(c) = Q(C, C) = 4 C(u, v) dc(u, v) 1. I Dla niektórych kopuł wyliczanie ich tau Kendalla za pomocą wzoru 4.15 jest problematyczne, dlatego przedstawimy alternatywną postać τ(c) = 1 4 C(u, v) I u C(u, v) v która jest natychmiastową konsekwencją wzoru 4.15 i poniższego twierdzenia. dudv, (4.16) Twierdzenie Niech C 1, C będą kopułami. Wówczas zachodzi, że C 1 (u, v) dc (u, v) = 1 I C 1 (u, v) C (u, v) dudv. (4.18) I u v Dowód. W pierwszej kolejności udowodnimy to twierdzenie przy założeniu, że kopuły C 1, C mają ciągłe pochodne cząstkowe do drugiego rzędu włącznie. Wówczas lewą stronę równania 4.18 można zapisać jako C 1 (u, v) dc (u, v) = C 1 (u, v) C (u, v) dudv. I u v Całkując wewnętrzną całkę po prawej stronie powyższego równania przez części uzyskujemy, że [ C 1 (u, v) C (u, v) du = C 1 (u, v) C ] u=1 (u, v) 1 u v v u= C 1 (u, v) C (u, v) du. u v Z warunków brzegowych wiemy, że C 1 (, v) = C (, v) = oraz C 1 (1, v) = C (1, v) = v, dlatego C (1,v) v = 1 oraz C(,v) v =. Podstawiając do powyższej równości dostajemy C 1 (u, v) C (u, v) 1 du = v u v Całkując obie strony od do 1 względem v uzyskujemy tezę. C 1 (u, v) C (u, v) du. u v Trudność dowodu w ogólnym przypadku wynika z faktu, że nie każda kopuła posiada ciągłe pochodne cząstkowe drugiego rzędu. Problem ten można rozwiązać za pomocą aproksymacji kopułami Bernsteina. Ponieważ kopuły są funkcją ciągłą na zbiorze zwartym I n, to można je jednostajnie aproksymować wielomianami Bernsteina. Okazuje się, że takie funkcje aproksymujące są również kopułami, a ponadto mają ciągłe pochodne cząstkowe do drugiego rzędu włącznie (ponieważ są to wielomiany). Formalne dowody bardziej ogólnej równości niż ta dowodzona tutaj można odnaleźć w rozdziale 4.1. w [16] albo w [34]. Twierdzenie Tau Kendalla jest miarą zgodności. Dowód. Należy sprawdzić czy spełnione są warunki z definicji Oczywiste, wynika z postaci τ(c) = Q(C, C).. Wynika z poniższej równości τ(c) = τ(x, Y ) = P[(X 1 X )(Y 1 Y ) > ] P[(X 1 X )(Y 1 Y ) < ] = P[(Y 1 Y )(X 1 X ) > ] P[(Y 1 Y )(X 1 X ) < ] = τ(y, X) = τ(c T ). 57
59 3. Natychmiastowa konsekwencja własności. funkcji zgodności z tw. 4.7 i postaci 4.15 τ(c) = Q(C, C) Q(C, C ) = τ(c ). 4. Na mocy wzorów 4.8, 4.9 oraz własności. z tw. 4.7 mamy, że dla dowolnej kopuły C zachodzi τ(w ) = 1 = Q(W, W ) Q(C, C) = τ(c) = Q(C, C) Q(M, M) = 1 = τ(m). 5. Natychmiastowa konsekwencja Zgodnie ze wzorem 3.37 C σ1 (u, v) = v C(1 u, v). Wówczas C σ1 (u, v) {v C(1 u, v)} C(1 u, v) = = 1, v v v C σ1 (u, v) {v C(1 u, v)} C(1 u, v) = =. u u u Korzystając ze wzoru 4.16 tau Kendalla kopuły C σ1 możemy zapisać jako ( ) C(1 u, v) C(1 u, v) τ(c σ1 ) = dudv I u v 1 C(1 u, v) 1 = 1 4 dudv + 4 u = 1 4 C(s, v) s dsdv + 4 gdzie pierwsza całka w ostatniej równości wynosi C(s, v) s Ostatecznie, otrzymujemy, że τ(c σ1 ) = dsdv = ( = 1 4 C(s, v) s (C(1, v) C(, v)) dv = C(s, v) s C(s, v) v C(1 u, v) C(1 u, v) dudv u v dsdv C(s, v) C(s, v) dsdv s v C(s, v) v dsdv, v dv = 1. ) = τ(c). W analogiczny sposób dowodzimy równości τ(c σ ) = τ(c), pamiętając że C σ (u, v) = u C(u, 1 v). Inny sposób na dowiedzenie tych równości polega na skorzystaniu z postaci podanej w definicji tau Kendalla (4.13) oraz interpretacji kopuły C σ1. Niech C będzie kopułą ciągłego wektora losowego (X, Y ). Z twierdzenia 3.36 wiemy, że kopułą wektora ( X, Y ) jest C σ1. Wyliczając tau Kendalla tej kopuły dostajemy, że τ(c σ1 ) = τ( X, Y ) = P[( X 1 + X )(Y 1 Y ) > ] P[( X 1 + X )(Y 1 Y ) < ] = P[(X 1 X )(Y 1 Y ) < ] P[(X 1 X )(Y 1 Y ) > ] = (P[(X 1 X )(Y 1 Y ) > ] P[(X 1 X )(Y 1 Y ) < ]) = τ(c). 7. W celu udowodnienia własności 7. skorzystamy z lematu Lemat 4.. Niech Ω będzie podzbiorem R d, {f n } n N ciągiem dodatnich funkcji zdefiniowanych na Ω, który zbiega punktowo do f, a (ν n ) ciągiem miar probabilistycznych, który zbiega słabo do miary ν. Wówczas, jeżeli dla każdego n N zachodzi, że f n dν n < +, to następujące stwierdzenia są równoważne Ω 58
60 (a) lim n Ω f n dν n = f dν < +, Ω (b) lim a sup n N {f n>a} f n dν n =. Weźmy ciąg kopuł {C n } n N zbieżny punktowo do kopuły C. Niech ν n oznacza miarę indukowaną przez kopuły C n, a ν miarę indukowaną przez kopułę C. Z teorii (np. [3]) wiemy, że zbieżność punktowa dystrybuant jest równoważna zbieżności słabej rozkładów, czyli ν n słabo zbiega do ν. Ponadto, ponieważ dla każdego n N, C n 1, a miara ν n jest probabilistyczna, to I C n dν n < +. Z tego samego argumentu zauważamy, że dla każdego n N zachodzi {C n>1} C ndν n =. Korzystając z lematu 4. i ustalając Ω = I, f n = C n, a ν n jako miarę indukowaną przez C n dostajemy, że lim n) = 4 lim n n C n (u, v) dc n (u, v) 1 = 4 I C(u, v) dc(u, v) 1 = τ(c). I Policzymy teraz wartości tau Kendalla dla kilku rodzin kopuł 1. Niech α, β takie, że α + β 1 oraz C α,β = αm + (1 α β)π + βw będzie kopułą z rodziny Frecheta. Wówczas jej tau Kendalla jest równa na mocy własności 3. z tw. 4.7 τ(c α,β ) = Q(C α,β, C α,β ) = Q (αm + (1 α β)π + βw, αm + (1 α β)π + βw ) = = α Q(M, M) + α(1 α β)q(m, Π) + αβq(m, W ) + (1 α β) Q(Π, Π) + (1 α β)βq(π, W ) + β Q(W, W ). Podstawiając wartości wyliczone w 4.8, 4.9, 4.1 dostajemy τ(c α,β ) = (α β)(α + β + ). 3 Zauważmy, że dla α = 1, β =, C 1, = M, τ(c 1, ) = 1, a dla α =, β = 1, C,1 = W, τ(c,1 ) = 1. Ponadto, dla α = β 1 dostajemy, że C α,α = α(m + W ) + (1 α)π, a τ(c α,α ) =. Ten przykład pokazuje, że nie zachodzi implikacja - jeżeli τ(c) =, to C = Π.. Rozpatrzmy teraz dla α, β 1 kopułę C α,β z rodziny Marshalla-Olkina zadaną wzorem W tym przypadku skorzystamy ze wzoru 4.16, dlatego potrzebujemy pochodnych cząstkowych pierwszego rzędu. C α,β {(u, v) R : u α = v β } i ma pochodne C α,β (u, v) u = Po wymnożeniu dostajemy, że jest różniczkowalna wszędzie poza krzywą { { (1 α)u α v, u α > v β C α,β (u, v) u 1 α, u α > v β = v 1 β, u α < v β v (1 β)uv β, u α < v β. C α,β (u, v) C α,β (u, v) = u v Podstawiając do wzoru 4.16 otrzymujemy, że τ(c α,β ) = 1 4 v β α (1 β)uv 1 β dudv + } {{ } { (1 α)u 1 α v, u α > v β (1 β)uv 1 β, u α < v β. α u β (1 α)u 1 α v dvdu. }{{} 59
61 Policzymy tylko całkę, dla drugiej wynik będzie analogiczny. = = 1 β [ 1 β [ β ] u=v α u v 1 β 1 1 β ( 1 1 α α(1 β) = 4(α + β αβ), β(1 α) = 4(α + β αβ). u= = ) + 1 v β(1 1 α) 1 β v 1 β(1 α) 1 dv ] v=1 v= = 1 β α α αβ + β Sumując powyższe całki dostajemy wzór na tau Kendalla ( ) 1 τ(c α,β ) = 1 4( + ) = αβ αβ = 4 (α + β αβ) α + β αβ. 4.. Rho Spearmana Definicja 4.1. Niech (X, Y ) będzie ciągłym wektorem losowym o kopule C. Ponadto, niech (X 1, Y 1 ), (X, Y ), (X 3, Y 3 ) będą niezależnymi kopiami (X, Y ) czyli niezależnymi wektorami losowymi o takim samym rozkładzie jak (X, Y ). Wówczas rho Spearmana wektora (X, Y ) (albo kopuły C) definiujemy jako ρ S (X, Y ) = ρ S (C) = 3 (P[(X 1 X )(Y 1 Y 3 ) > ] P[(X 1 X )(Y 1 Y 3 ) < ]) (4.) Twierdzenie 4.3. Niech X, Y będą ciągłymi zmiennymi losowymi o kopule C. Wówczas rho Spearmana wektora (X, Y ) (albo kopuły C) zadane jest wzorem ρ S (X, Y ) = ρ S (C) = 3Q(C, Π) = 1 uv dc(u, v) 3 = 1 I C(u, v) dudv 3. I (4.4) Dowód. Zauważmy, że rho Spearmana zdefiniowane za pomocą wzoru 4. jest przemnożoną przez 3 funkcją zgodności pary wektorów losowych (X 1, Y 1 ), (X, Y 3 ), gdzie X 1, Y 1 mają kopułę C, natomiast X, Y 3 pochodzą z niezależnych wektorów losowych, dlatego ich kopułą jest Π. Czyli na mocy twierdzenia 4.1 otrzymujemy, że rho Spearmana zależy wyłącznie od kopuły C, ponieważ druga kopuła Π jest taka sama dla każdego wektora (X, Y ) i jest równe ( ) ρ S (X, Y ) = ρ S (C) = 3Q(C, Π) = 3 4 C(u, v) dπ(u, v) 1 = 1 C(u, v) dudv 3. I I Drugą postać całkową dostajemy z symetrii funkcji zgodności. Rho Spearmana posiada również inną interpretację. Rozpatrzmy ciągły wektor losowy (X, Y ) o kopule C i dystrybuantach odpowiednio F dla X i G dla Y. Wówczas z twierdzenia 3.13 wiemy, że C jest dystrybuantą zmiennych losowych U = F (X) oraz V = G(Y ). Wartość oczekiwana iloczynu tych zmiennych jest przedstawiona wzorem E(F (X)G(Y )) = E(UV ) = uv dc(u, v). I Ponadto U, V mają rozkłady jednostajne, czyli E(U) = E(V ) = 1 Rozpisując wzór 4.4 na rho Spearmana dostajemy, że ρ S (X, Y ) = I uv dc(u, v) = oraz Var(U) = Var(V ) = 1 1. E(UV ) E(U)E(V ) Var(U) Var(V ) = ρ(u, V ) = ρ(f (X), G(Y )). 6
62 Rho Spearmana pary zmiennych losowych X, Y jest równe współczynnikowi korelacji liniowej Pearsona transformat dystrybuantowych F (X), G(Y ). Z tego powodu rho Spearmana nazywa się również współczynnikiem korelacji rang. Zgodnie z [31] Ustawienie badanych elementów w ciąg rosnący według narastającej wartości interesującej nas cechy nazywamy nadaniem rang. Numer miejsca jakie element zajmuje w tym ciągu nazywamy rangą tego elementu. W przypadku zmiennych losowych X, Y o dystrybuantach F, G rangami obserwacji x, y pochodzących z tych rozkładów będą u = F (x) oraz v = G(y). Twierdzenie 4.5. Rho Spearmana jest miarą zgodności. Dowód. Należy sprawdzić czy spełnione są warunki z definicji Oczywiste, wynika z postaci ρ S (C) = 3Q(C, Π).. Wynika z poniższej równości ρ S (C) = ρ S (X, Y ) = 3 (P[(X 1 X )(Y 1 Y 3 ) > ] P[(X 1 X )(Y 1 Y 3 ) < ]) = 3 (P[(Y 1 Y 3 )(X 1 X ) > ] P[(Y 1 Y 3 )(X 1 X ) < ]) = ρ S (Y, X) = ρ S (C T ). 3. Wynika z własności funkcji zgodności: ρ S (C) = Q(C, Π) Q(C, Π) = ρ S (C ). 4. Na mocy wzorów 4.8, 4.9 oraz własności. z tw 4.7 mamy, że dla dowolnej kopuły C zachodzi ρ S (W ) = 1 = 3Q(W, Π) 3Q(C, Π) = ρ S (C) = 3Q(C, Π) 3Q(M, Π) = 1 = ρ S (M). 5. Natychmiastowa konsekwencja Zgodnie ze wzorem 3.37 C σ1 (u, v) = v C(1 u, v). Wówczas ρ S (C σ1 ) = 3Q(C σ1, Π) = 3Q(Π, C σ1 ) = 1 C σ1 (u, v) dπ(u, v) 3 I = 1 (v C(1 u, v)) dudv 3 I = 1 = 3 1 v dudv 1 C(s, v) dsdv = C(1 u, v) dudv 3 ( ) 1 C(s, v) dsdv 3 = ρ S (C). I 7. Weźmy ciąg kopuł {C n } n N zbieżny punktowo do kopuły C. Każda kopuła jest dystrybuantą, więc zachodzi, że dla każdego n N, C n 1. Wówczas z twierdzenia Lebesgue a o zbieżności ograniczonej dostajemy, że ( ) lim ρ S(C n ) = 1 lim C n (u, v) dudv n n I Wartości rho Spearmana dla przykładowych rodzin kopuł: 3 = 1 C(u, v) dudv 3 = ρ S (C). I 1. Niech C α,β będzie kopułą z rodziny Frecheta zadaną wzorem 3.9 dla α, β, α + β 1. Wówczas z własności funkcji zgodności i wzorów 4.8, 4.9, 4.1 dostajemy, że ρ S (C α,β ) = 3Q(C α,β, Π) = 3Q(αM + (1 α β)π + βw, Π) = 3 α Q(M, Π) + 3 (1 α β) Q(Π, Π) + 3 β Q(W, Π) = 3 α 1 ( + 3 (1 α β) + 3 β 1 ) = α β
63 Zauważmy, że dla α = 1, β = mamy, że C 1, = M oraz ρ S (C 1, ) = 1, natomiast dla α =, β = 1, C,1 = W oraz ρ S (C,1 ) = 1. Ponadto, analogicznie jak w przypadku tau Kendalla, dla α = β 1 dostajemy, że C α,α = α(m + W ) + (1 α)π, a ρ S (C α,α ) =. Ten przykład pokazuje, że nie zachodzi implikacja - jeżeli ρ S (C) =, to C = Π.. Niech C α,β będzie kopułą z rodziny Marshalla-Olkina zadaną wzorem 3.33 dla α, β 1. Wówczas zachodzi, że β v α C α,β (u, v) dudv = uv 1 β dudv + I }{{} α u β Policzymy tylko całkę, dla drugiej wynik będzie analogiczny. β [ ] v α 1 = u v 1 β dv = 1 α = 4α + 4β αβ, β = 4α + 4β αβ. Podstawiając do wzoru na rho Spearmana 4.4 uzyskujemy, że ρ S (C α,β ) = 1 C α,β (u, v) dudv 3 = 1 I u 1 α v dvdu. } {{ } v β α +1 β dv = 1 1 β α + 1 β + 1 α + β 4α + 4β αβ 3 = 3αβ α + β αβ. Rho Spearmana ma jeszcze inną interpretację zgodnie z [45]. Łatwo sprawdzić, że uv dudv = 1 I 4 i w efekcie wzór 4.4 możemy zapisać w następujący sposób (C(u, v) Π(u, v)) dudv ρ S (C) = 1 (C(u, v) uv) dudv = I I (M(u, v) Π(u, v)) dudv. (4.6) I Dlatego ρ S możemy interpretować jako znormalizowaną średnią odległość pomiędzy kopułą C a kopułą produktową Π. Wzór na rho Spearmana możemy zapisać na jeszcze inny sposób, który okaże się przydatny do wprowadzenia kolejnej miary zgodności. Niech (U, V ) będzie wektorem losowym o dystrybuancie zadanej przez kopułę C. Wówczas zachodzi, że [ 3 (u + v 1) (u v) ] dc(u, v) I ( = 3 u + v uv v u u + uv v ) dc(u, v) I = 3 (4uv u v + 1) dc(u, v) I = 1 uv dc(u, v) 6 u dc(u, v) 6 v dc(u, v) + 3 dc(u, v) I I I I = 1 uv dc(u, v) 3 = ρ S (C). I 4..3 Gamma Giniego (4.7) Wzór na gammę Giniego jest analogiczny do wzoru 4.7 na rho Spearmana, jedynie skupia się on na wartościach bezwzględnych, a nie na ich kwadratach. Niech (U, V ) będzie wektorem o dystrybuancie zadanej przez kopułę C. Wówczas gammą Giniego kopuły C nazywamy γ(c) = ( u + v 1 u v ) dc(u, v). (4.8) I 6
64 Twierdzenie 4.9. Niech X, Y będą ciągłymi zmiennymi losowymi o kopule C. Wówczas gamma Giniego wektora (X, Y ) (albo kopuły C) zadana jest wzorem γ(x, Y ) = γ(c) = Q(C, M) + Q(C, W ) = 4 (M(u, v) + W (u, v)) dc(u, v). (4.3) I Dowód. Pokażemy równoważność wzorów 4.8 oraz 4.3. W pierwszej kolejności zauważmy, że M(u, v) = min{u, v} = 1 (u + v u v ). Wówczas mamy, że Q(C, M) = 4 M(u, v)dc(u, v) 1 = (u + v u v ) dc(u, v) 1. I I C jest dystrybuantą o brzegowych rozkładach jednostajnych na I, więc u dc(u, v) = 1 I oraz v dc(u, v) = 1 I i w efekcie dostajemy, że Q(C, M) = 1 u v dc(u, v). (4.31) I Analogicznie kopułę kontrmonotoniczną możemy przedstawić jako W (u, v) = 1 (u + v 1 + u + v 1 ) i dlatego otrzymujemy Q(C, W ) = 4 W (u, v) dc(u, v) 1 = (u + v 1 + u + v 1 ) dc(u, v) 1 I I = u + v 1 dc(u, v) 1. I Po zsumowania 4.31 oraz 4.3 dostajemy Q(C, M) + Q(C, W ) = ( u + v 1 u v ) dc(u, v) = γ(c). I (4.3) Zauważmy, że na mocy twierdzenia 4.6 i faktu, że kombinacje wypukłe kopuł są również kopułami (tw. 3.5) możemy zapisać wzór 4.3 następująco γ(c) = 4 (M(u, v) + W (u, v)) dc(u, v) = 8 I ( ) M(u, v) + W (u, v) = 8 C(u, v) d. I I ( 1 M(u, v) + 1 ) W (u, v) dc(u, v) Podobnie jak i rho Spearmana, gammę Giniego można przedstawić w postaci funkcji C C α I CdA β, gdzie A jest ustaloną kopułą, α, β R. Tego typu miarę zgodności nazywamy miarą kopularną, a kopułę A kopułą generującą. Okazuje się, że tau Kendalla nie jest miarą kopularną. Dowód tego faktu i więcej informacji dotyczących tego zagadnienia można odnaleźć w pracy [17]. Co ciekawe, wartość gammy Giniego zależy wyłącznie od wartości kopuły na jej przekątnych, czyli od przekrojów diagonalnych (3.3). O fakcie tym mówi twierdzenie Twierdzenie Niech X, Y będą ciągłymi zmiennymi losowymi o kopule C. Wówczas gamma Giniego tej kopuły można zapisać wzorem (zgodnie z oznaczeniami 3.3) [ ] γ(c) = 4 C(u, 1 u) du (u C(u, u)) du [ = 4 δ C (u) du ( u δ C 1 (u) )] (4.34) Dowód. Powyższy wzór wynika z faktu, że nośnikami kopuł M i W są przekątne kwadratu I. Q(C, M) = 4 C(u, v) dm(u, v) 1 = 4 C(u, u) du 1, I Q(C, W ) = 4 C(u, v) dw (u, v) 1 = 4 C(u, 1 u) du 1. I 63
65 Po zsumowania powyższych wyników dostajemy, że [ γ(c) = Q(C, W ) + Q(C, M) = 4 C(u, 1 u) du + [ = 4 C(u, 1 u) du + [ = 4 C(u, 1 u) du ] C(u, u) du 4 ] (u C(u, u)) du. u du ] C(u, u) du Powyższe twierdzenie daje nam geometryczną interpretację gamma Giniego. Zauważmy, że jeżeli zapiszemy wzór 4.34 zgodnie z oznaczeniami 3.3 w postaci γ(c) = (C(u, 1 u) W (u, 1 u)) du (M(u, u) C(u, u)) du (M(u, 1 u) W (u, 1 u)) du ( δ C = (u) δ W (u) ) du ( δ M 1 (u) δ1 C (u) ) du (δm (u) δw (u)) du, to wówczas pierwsza całka w liczniku to średnia różnica między drugimi przekrojami diagonalnymi W oraz C, natomiast druga całka to średnia różnica między pierwszymi przekrojami diagonalnymi M oraz C. Z twierdzenia 3.4 wiemy, że jeżeli jakaś kopuła ma takie przekroje to musi to być odpowiednio W bądź M. Wyrażenie w mianowniku to stała normalizująca. Twierdzenie Gamma Giniego jest miarą zgodności. Dowód. Należy sprawdzić czy spełnione są warunki z definicji Oczywiste, wynika z postaci γ(c) = Q(C, M) + Q(C, W ).. Wynika z poniższej równości γ(c) = ( u + v 1 u v ) dc(u, v) = ( v + u 1 v u ) dc(v, u) = γ(c T ). I I 3. Natychmiastowa konsekwencja własności. funkcji zgodności z twierdzenia Na mocy wzorów 4.8, 4.9 oraz własności. z tw 4.7 mamy, że dla dowolnej kopuły C zachodzi γ(w ) = 1 = Q(W, M) + Q(W, W ) γ(c) Q(M, M) + Q(M, W ) = 1 = γ(m). 5. Na mocy 4.8, 4.9 mamy γ(π) = Q(Π, M) + Q(Π, W ) = =. 6. Zgodnie ze wzorem 3.37 C σ1 (u, v) = v C(1 u, v). Wówczas korzystając z postaci zadanej przez 4.34 mamy [ γ(c σ1 ) = 4 C σ1 (u, 1 u) du [ = 4 (1 u C(1 u, 1 u)) du [ = 4 (v C(v, v)) dv ] (u C σ1 (u, u)) du ] (u u + C(1 u, u)) du ] C(v, 1 v) dv = γ(c). 7. Weźmy ciąg kopuł {C n } n N zbieżny punktowo do kopuły C. Każda z funkcji podcałkowych we wzorze 4.34 jest ograniczona, dlatego z twierdzenia Lebesgue a o zbieżności ograniczonej dostajemy, że [ ] lim γ(c n) = lim 4 C n (u, 1 u) du (u C n (u, u)) du n n [ ] = 4 C(u, 1 u) du (u C(u, u)) du = γ(c). 64
66 Wartości gammy Giniego dla przykładowych rodzin kopuł: 1. Niech C α,β będzie kopułą z rodziny Frecheta zadaną wzorem 3.9 dla α, β, α + β 1. Wówczas gamma Giniego tej kopuły wynosi γ(c α,β ) = Q(C α,β, M) + Q(C α,β, W ) = Q(αM + (1 α β)π + βw, M) + Q(αM + (1 α β)π + βw, W ) = αq(m, M) + (1 α β)q(π, M) + (α + β)q(w, M) + (1 α β)q(π, W ) + βq(w, W ) = α + (1 α β) 1 ( + (α + β) + (1 α β) 1 ) + β ( 1) = α β. 3 3 Zauważmy, że dla α = 1, β =, C 1, = M oraz γ(c 1, ) = 1, natomiast dla α =, β = 1, C,1 = W oraz γ(c,1 ) = 1. Ponadto, analogicznie jak w przypadku tau Kendalla oraz rho Spearmana, dla α = β 1 dostajemy, że C α,α = α(m +W )+(1 α)π, a γ(c α,α ) =. Ten przykład pokazuje, że nie zachodzi implikacja - jeżeli γ(c) =, to C = Π.. Niech C α,β będzie kopułą z rodziny Marshalla-Olkina zadaną wzorem 3.33 dla α, β 1. Zgodnie z [13] skorzystamy ze wzoru 4.34 [ γ(c α,β ) = 4 C α,β (u, 1 u) du ] (u C α,β (u, u)) du = 4 C α,β (u, 1 u) du + C α,β (u, u) du. }{{}}{{} Zauważmy, że pierwszy przekrój diagonalny kopuły C α,β wyraża się wzorem { { δ C α,β uu 1 β, u α u β u β, α β 1 (u) = C α,β (u, u) = = u 1 α u, u α u β u α, α β = u min{α,β}. (4.36) Druga całka wynosi zatem = u min{α,β} du = 1 3 min{α, β}. Pierwsza całka ( ) jest bardziej problematyczna. Zauważmy, że drugi przekrój diagonalny kopuły C α,β to δ C α,β (u) = C α,β (u, 1 u) = { u(1 u) 1 β, u α (1 u) β u 1 α (1 u), u α (1 u) β. Wprowadzimy następujące oznaczenie - niech u będzie rozwiązaniem równania u α = (1 u) β. Dla każdego < α, β < 1, u istnieje i jest wyznaczone jednoznacznie. Niech f, g : I I będą funkcjami takimi, że f(u) = u α, g(u) = (1 u) β. Zauważmy, że f, g są takie, że f() = g(1) = oraz f(1) = g() = 1. Ponadto są to funkcje ciągłe, f jest ściśle rosnąca, natomiast g ściśle malejące, dlatego istnieje dokładnie jedno u takie, że f(u ) = g(u ). Wówczas drugi przekrój diagonalny możemy zapisać { u(1 u) 1 β, u u C α,β = u 1 α (1 u), u u. Stosując podstawienie 1 u = v w pierwszej całce uzyskujemy, że wynosi = u u(1 u) 1 β du + u u 1 α (1 u) du = 1 (1 u α ) 1 (1 u3 α ) + 1 α 3 α β 65 ( 1 (1 u ) β) 1 ( 1 (1 u ) 3 β) 3 β
67 Podsumowując, uzyskaliśmy że gamma Giniego dla kopuły C α,β z rodziny Marshalla-Olkina ma wzór [ 4 1 γ(c α,β ) = 3 min{α, β} + 4 (1 u α ) 1 (1 u3 α ) + α 3 α 1 ( 1 (1 u ) β) 1 ( 1 (1 u ) 3 β)], β 3 β gdzie u jest rozwiązaniem równania u α = (1 u) β Beta Blomqvista Ostatnią miarą zgodności jaką zaprezentujemy jest miara zaproponowana przez Nilsa Blomqvista w pracy [3]. Definicja Niech (X, Y ) będzie ciągłym wektorem losowym o dystrybuantach brzegowych F, G oraz kopule C. Ponadto, niech x, ỹ będą medianami odpowiednio X, Y, tzn. F ( x) = 1 oraz G(ỹ) = 1. Wówczas beta Blomqvista wektora (X, Y ) (albo kopuły C) definiujemy jako β(x, Y ) = β(c) = P [(X x)(y ỹ) > ] P [(X x)(y ỹ) < ]. Twierdzenie Niech X, Y będą ciągłymi zmiennymi losowymi o kopule C. Wówczas beta Blomqvista wektora (X, Y ) (albo kopuły C) zadana jest wzorem ( 1 β(x, Y ) = β(c) = 4C, 1 ) 1. (4.39) Dowód. Niech (X, Y ) posiadają dystrybuanty brzegowe odpowiednio F, G oraz dystrybuantę łączną H. Ponadto niech x, ỹ będą medianami X, Y, tzn. F ( x) = 1, G(ỹ) = 1. Wówczas z ciągłości wektora zachodzi, że β(x, Y ) = P [(X x)(y ỹ) > ] 1 = [P(X < x, Y < ỹ) + P(X > x, Y > ỹ)] 1. (4.4) Zauważmy, że drugi czynnik w nawiasie po prawej stronie równości możemy zapisać jako P(X > x, Y > ỹ) = 1 P(X x) P(Y ỹ) + P(X x, Y ỹ) = 1 F ( x) G(ỹ) + H( x, ỹ) = H( x, ỹ) = P(X < x, Y < ỹ). (4.41) Powracając do postaci 4.4 i korzystając z ciągłości wektora oraz twierdzenia Sklara mamy ( 1 β(x, Y ) = β(c) = 4H( x, ỹ) 1 = 4C(F ( x), G(ỹ)) 1 = 4C, 1 ) 1. Zauważmy, że wartość bety Blomqvista dla kopuły C zależy wyłącznie od wartości tej kopuły na środku I, czyli w punkcie ( 1, ) 1. Zgodnie z [45] i pamiętając, że C(u, v) = 1 u v + C(u, v) możemy zapisać β(c) = C ( 1, 1 ) Π ( 1, 1 M ( 1, 1 ) Π ( 1, 1 ) ) = C ( 1, 1 ) Π ( 1, 1 ) + C ( 1, 1 ) Π ( 1, 1 M ( 1, 1 ) Π ( 1, 1 ) + M ( 1, 1 ) Π ( 1, 1 ponieważ M ( 1, ) 1 = 1, Π ( 1, ) 1 = 1 4 oraz w punkcie ( 1, ( ) 1, C 1, ( ) 1 = C 1, ) 1 dla dowolnej kopuły C. Powyższy zapis daje nam następującą interpretację geometryczną - beta Blomqvista jest unormowaną różnicą w punkcie ( 1, 1 ) między kopułą C a kopułą produktową Π. Ponadto, jego druga część stanowi podstawę do rozszerzenia bety Blomqvista na wymiary większe niż (patrz praca [46]). ) ), 66
68 Dodatkowo, w pracy [46] odnajdziemy jeszcze inną interpretację bety Blomqvista. Niech X, Y będą ciągłymi zmiennymi losowymi o medianach x, ỹ. Wówczas beta Blomqvista jest równa współczynnikowi korelacji liniowej Pearsona pary zmiennych losowych sgn(x x), sgn(y ỹ), czyli β(c) = ρ (sgn(x x), sgn(y ỹ)), gdzie sgn oznacza znak liczby 1, x > sgn(x) =, x = 1, x <. Wprowadźmy oznaczenie ˆX = sgn(x x), Ŷ = sgn(y ỹ). Wówczas z ciągłości mamy, że E( ˆX) = 1 P(X > x) + ( 1) P(X < x) = 1 1 =, E( ˆX ) = 1 P(X > x) + 1 P(X < x) = = 1, Var( ˆX) = E( ˆX ( ˆX)) ) E( = 1 i analogiczne równości zachodzą dla zmiennej Ŷ. Zauważmy, że P(X < x, Y > ỹ) = P(X < x) P(X < x, Y < ỹ) = 1 P(X < x, Y < ỹ) (4.4) Wówczas na mocy równości 4.41 oraz 4.4 uzyskujemy, że wartość oczekiwana iloczynu to E( ˆXŶ ) = P(X > x, Y > ỹ) P(X > x, Y < ỹ) P(X < x, Y > ỹ) + P(X < x, Y < ỹ) ( 1 = 4P(X < x, Y < ỹ) 1 = 4C(F ( x), G(ỹ)) 1 = 4C, 1 ) 1. Ostatecznie dostajemy, że E( ˆXŶ ) E( ˆX)E(Ŷ ) ρ(sgn(x x), sgn(y ỹ)) = ρ( ˆX, Ŷ ) = Var( ˆX) = 4C Var(Ŷ ) Twierdzenie Beta Blomqvista jest miarą zgodności. Dowód. Należy sprawdzić czy spełnione są warunki z definicji Oczywiste, wynika z postaci β(c) = 4C ( 1, 1 ) 1.. Wynika z poniższej równości β(c) = C 3. Natychmiastowa konsekwencja wzoru ( 1, 1 ) ( 1 = C T, 1 ) = β(c T ). ( 1, 1 ) = 4 1 = 4W ( 1, ( ) 1 1 = β(w ) β(c) β(m) = 4M 1, ) 1 1 = = β(π) = 4Π ( 1, ) 1 1 = =. 6. Zgodnie ze wzorem 3.37 C σ1 (u, v) = v C(1 u, v). Wówczas korzystając z postaci zadanej przez 4.39 mamy β(c σ1 ) = 4C σ1 ( 1, 1 ) [ ( = 4 C, 1 )] ( 1 1 = 1 4C, 1 ) = β(c). 67
69 7. Weźmy ciąg kopuł {C n } n N zbieżny punktowo do kopuły C. Wówczas z punktowej zbieżności mamy, że ( 1 lim β(c n) = 4 lim C n n n, 1 ) ( 1 1 = 4C, 1 ) 1 = β(c). Wartości bety Blomqvista dla przykładowych rodzin kopuł: 1. Niech C α,β będzie kopułą z rodziny Frecheta zadaną wzorem 3.9 dla α, β, α + β 1. Wówczas β(c α,β ) = 4C α,β ( 1, 1 = 4 ) [ 1 = 4 αm [ α + 1 α β ] + β 4 ( 1, 1 ) ( 1 + (1 α β)π, 1 ) ( 1 + βw, 1 )] 1 1 = α + 1 α β 1 = α β. Zauważmy, że dla α = 1, β =, C 1, = M oraz β(c 1, ) = 1, natomiast dla α =, β = 1, C,1 = W oraz β(c,1 ) = 1. Ponadto, analogicznie jak w przypadku wprowadzonych już miar zgodności, dla α = β 1 dostajemy, że C α,α = α(m + W ) + (1 α)π, a β(c α,α ) =. Ten przykład pokazuje, że nie zachodzi implikacja - jeżeli β(c) =, to C = Π.. Niech C α,β będzie kopułą z rodziny Marshalla-Olkina zadaną wzorem 3.33 dla α, β 1. Wówczas z 4.36 wiemy, że pierwszy przekrój diagonalny C α,β ma następującą postać δ C α,β 1 (u) = C α,β (u, u) = u min{α,β}. Beta Blomqvista kopuły C α,β wyraża się więc wzorem ( 1 β(c α,β ) = 4C α,β, 1 ) 1 = min{α,β} 1 = min{α,β} Miary zależności Wprowadziliśmy koncept miary zgodności i zaprezentowaliśmy przykłady takich miar. Jedną z ich wad jest fakt, że implikacja we własności 5. z definicji 4.11 nie zachodzi w drugą stronę, tzn. µ(x, Y ) = niezależności X oraz Y. Pokazaliśmy, że kontrprzykładem dla każdej z wprowadzonych miar zgodności jest kopuła C α,α = α(m + W ) + (1 α)π z rodziny Frecheta. Ponadto, okazuje się, że analogiczna implikacja dla kopuły komonotonicznej M oraz kontrmonotonicznej W nie zawsze zachodzi. Podczas gdy zdania µ(c) = 1 = C = M oraz µ(c) = 1 = C = W są prawdziwe dla miar zgodności: tau Kendalla, rho Spearmana, gamma Giniego, to już dla bety Blomqvista takie implikacje nie zachodzą (dowody w pracy [1]). W pierwszej kolejności zauważmy, że nie da się dorzucić do listy aksjomatów miary zgodności (definicja 4.11) aksjomatu w postaci µ(c) = C = Π. Rozpatrzmy wektor losowy (X, Y ), który ma rozkład jednostajny na okręgu jednostkowym S 1 w R. Wówczas (X, Y ) = (cos φ, sin φ), gdzie φ U(, π). Łatwo zauważyć, że ( X, Y ) = d (X, Y ), dlatego z własności 6. miary zgodności dostajemy, że µ(x, Y ) = µ( X, Y ) = µ(x, Y ), co oznacza, że µ(x, Y ) =, pomimo tego że nie są niezależne. Oznacza to, że miara siły związku między zmiennymi losowymi nie może jednocześnie spełniać µ(x, Y ) = µ( X, Y ) = µ(x, Y ) oraz µ(x, Y ) = X, Y są niezależne. Uwaga. Zauważmy, że w powyższym przykładzie mamy do czynienia z zależnością między zmiennymi X, Y jednakże nie jest to zależność funkcyjna. Zachodzi, że P(X + Y = 1) = 1. Oznacza to, 68
70 że Y = ± 1 X, czyli każdemu Y (poza Y = 1, 1) odpowiadają dokładnie dwie wartości X. Z tego wynika, że ta relacja nie jest funkcją, analogicznie zachodzi dla X względem Y. Taki związek nazywamy zależnością nie wprost (ang. implicit dependence), termin ten pochodzi z pracy [33]. Tak jak w przypadku miar zgodności musimy przyjąć pewne założenia dotyczące czego szukamy w zależności między zmiennymi. Poniżej przedstawimy listę aksjomatów jaką ma spełniać miara zależności zaproponowaną w pracy [4]. Pierwsza jej wersja została przedstawiona w pracy [41], a następnie zrewidowana w [48]. Definicja Miarą zależności nazywamy odwzorowanie δ : C R, które spełnia: 1. δ jest zdefiniowane dla każdej kopuły C C.. Dla każdego C C, δ(c) = δ(c T ), gdzie C T jest transpozycją C. 3. δ(c) [, 1]. 4. δ(c) = 1 C = M albo C = W. 5. δ(c) = C = Π. 6. δ(c) = δ(c σ1 ) = δ(c σ ) = δ(c σ1σ ). 7. Jeżeli ciąg kopuł {C n } n N zbiega punktowo do C, to wówczas lim n δ(c n ) = δ(c). Uwaga. Podobnie jak w przypadku miary zgodności, miarę zależności możemy traktować jako funkcję, która parze ciągłych zmiennych losowych X, Y (o jednoznacznie wyznaczonej kopule C) przyporządkowuje liczbę δ(x, Y ). W zależności od wygody wartość miary zależności będziemy zapisywać jako δ(x, Y ) albo δ(c). Zauważmy, że wówczas warunek. możemy zapisać δ(x, Y ) = δ(y, X), natomiast warunek 6. jeżeli α, β są ściśle monotonicznymi funkcjami na Ran X, Ran Y, to δ(x, Y ) = δ(α(x), β(y )). Porównajmy zestawy aksjomatów 4.44 dla miary zależności i 4.11 dla miary zgodności. Zauważmy, że w obu przypadkach pojawiają się aksjomaty 1. (dziedziną jest C ),. (symetria) oraz 7. (ciągłość). Podstawową różnicą miedzy tymi miarami jest ich zbiór wartości oraz odpowiedź na pytanie - dla których kopuł osiągane są wartości ekstremalne. W przypadku miary zależności mamy zbiór wartości [, 1] gdzie wartość najmniejsza jest przyjmowana wyłącznie przez kopułę Π, która mówi o niezależności, natomiast wartość największa 1 jest osiągana wyłącznie przez kopuły W, M, które świadczą o ściśle monotonicznej zależności funkcyjnej między zmiennymi. Zauważmy, że miara zależności mówi nam o tym jak silny związek istnieje między zmiennymi losowymi niezależnie od tego jak ten związek wygląda. Pokazuje to również warunek 6. miary zależności, który implikuje, że dla pary zmiennych losowych X, Y o kopule C mamy równości δ(x, Y ) = δ( X, Y ) = δ(x, Y ) = δ( X, Y ). Dużą korzyścią pochodzącą z korzystania z miary zależności jest fakt, że µ(c) = C = Π, co nie zachodzi dla miary zgodności. Podsumowując, miara zależności lepiej wychwytuje siłę związku między zmiennymi losowymi, jednakże w efekcie tracimy informację dotyczącą charakteru i kierunku tego związku, czyli czy dana zależność jest ujemna ( jedna zmienna losowa rośnie, to druga zazwyczaj maleje ), czy dodatnia ( jedna zmienna losowa rośnie, to druga zazwyczaj również rośnie ). Zauważmy ponadto, że wprowadzony w definicji 3.34 porządek zgodnościowy nie zachodzi dla miar zależności. Dla każdego C C mamy, że W C M, a dla miar zależności zachodzi, że δ(w ) = δ(m) = 1 δ(c). 69
71 4.3.1 Sigma Schweizera i Wolffa Niech X, Y będą ciągłymi zmiennymi losowymi o kopule C. Wówczas wzór na rho Spearmana tej kopuły (albo tej pary zmiennych) można zapisać następująco (wzór 4.6) ρ S (X, Y ) = ρ S (C) = 1 (C(u, v) uv) dudv. I Jest to znormalizowana średnia różnica między kopułą C a kopułą produktową Π (znormalizowana znakowana objętość między wykresami kopuł C oraz Π). Zamieniając w funkcji podcałkowej różnicę na moduł różnicy otrzymamy wzór σ 1 (X, Y ) = σ 1 (C) = 1 C(u, v) uv dudv. I Uzyskaliśmy miarę siły związku opartą na odległości L 1 między funkcjami C oraz Π, stała przed całką ma charakter normalizujący. Jak zauważyli Schweizer i Wolff w pracy [48]...jakakolwiek odpowiednio znormalizowana miara odległości między powierzchniami z = C(u, v) oraz z = uv, tzn. dowolna odległość L p, powinna dawać nieparametryczną, symetryczną miarę zależności. Dla dowolnego 1 p < i C C określimy miarę ) 1 σ p (X, Y ) = σ p (C) = (k p C(u, v) uv p p dudv, (4.45) I gdzie k p jest takie, że σ p (M) = 1, co jak się okaże w dalszej części rozdziału implikuje, że również σ(w ) = 1. Twierdzenie σ p zadane wzorem 4.45 jest miarą zależności. Dowód. Należy sprawdzić czy spełnione są warunki z definicji Każda kopuła C C jest funkcją ograniczoną, dlatego funkcja C(u, v) uv p jest całkowalna i σ p poprawnie określone.. Wynika z poniższej równości ) 1 σ p (C) = (k p C(u, v) uv p p dudv = (k p I I C(v, u) vu p dvdu ) 1 p = σp (C T ). 3. Fakt, że dla dowolnego C C, σ p (C) jest oczywisty, ponieważ funkcja podcałkowa we wzorze 4.45 jest nieujemna, więc i całka będzie nieujemna. Natomiast poprawność ograniczenia górnego, czyli σ p (C) 1 dowiedziemy w twierdzeniu Zgodnie z definicją współczynnika normalizującego k p mamy, że σ p (M) = 1. W twierdzeniu 4.47 pokażemy, że również σ p (W ) = 1. Ponadto, na mocy twierdzenia 4.5 uzyskamy implikację w drugą stronę, czyli σ p (C) = 1 = C = M albo C = W. 5. Funkcja podcałkowa we wzorze 4.45 jest nieujemna, dlatego aby całka wyniosła, musi zachodzi, że funkcja podcałkowa jest wszędzie równa (wynika to również z faktu, że jest ona ciągła). Oznacza to, że musi zachodzić (u,v) I C(u, v) uv = (u,v) I C(u, v) = uv = Π(u, v), czyli uzyskaliśmy, że σ p (C) = C = Π. 7
72 6. W pierwszej kolejności pokażemy, że fakt ten zachodzi dla C σ1 (u, v) = v C(1 u, v) (wzory 3.37). I C σ1 (u, v) uv p dudv = = = v(1 u) C(1 u, v) p dudv = C(u, v) uv p dudv. v C(1 u, v) uv p dudv vu C(u, v) p dudv W efekcie mamy, że σ p (C) = σ p (C σ1 ) oraz analogicznie σ p (C) = σ p (C σ ). Następnie pokażemy tą równość dla C σ1σ (u, v) = u + v 1 + C(1 u, 1 v) (wzory 3.37). I C σ1σ (u, v) uv p dudv = = C(1 u, 1 v) (1 u)(1 v) p dudv = Na mocy powyższych równości mamy, że σ p (C) = σ p (C σ1σ ). u + v 1 + C(1 u, 1 v) uv p dudv C(u, v) uv p dudv. 7. Weźmy ciąg kopuł {C n } n N zbieżny punktowo do kopuły C. Każda z funkcji podcałkowych we wzorze 4.45 jest ograniczona, a funkcja f(x) = (k p x) 1 p Lebesgue a o zbieżności ograniczonej dostajemy, że lim σ p(c n ) = lim (k p n n = (k p I C n (u, v) uv p dudv I C(u, v) uv p dudv ) 1 p ciągła, dlatego z twierdzenia ) 1 p = σp (C). Twierdzenie We wzorze 4.45 stała normalizująca k p = Γ(p+3) Γ (p+1) oraz σ p(w ) = 1. Dowód. Skorzystamy tutaj z funkcji beta B, którą definiujemy następująco B(x, y) = t x 1 (1 t) y 1 dt = Γ(x)Γ(y) Γ(x + y) gdzie Γ oznacza funkcję gammą, którą definiujemy dla R(x) >, R(y) >, Γ(z) = t z 1 e t dt dla R(z) >. Ponadto, skorzystamy z własności funkcji gamma Γ(z + 1) = zγ(z). W pierwszej kolejności obliczymy wartość całki we wzorze 4.45 dla C = M. Zauważmy, że dla każdego (u, v) I, M(u, v) Π(u, v) = uv, dlatego mamy, że k 1 p = = v min{u, v} uv p dudv = (u uv) p dudv + } {{ } (v uv) p dudv. } v {{ } (min{u, v} uv) p dudv 71
73 Obliczając poszczególne całki uzyskujemy, że = = v [u(1 v)] p dudv = = 1 1 B(p +, p + 1) = p + 1 p + 1 v [v(1 u)] p dudv = (1 v) p ( v v ) u p du dv = 1 p + 1 Γ(p + )Γ(p + 1) = Γ (p + 1) Γ(p + 3) Γ(p + 3), ( ) v p (1 u) p du dv = 1 p + 1 = 1 1 Γ(p + 1)Γ(p + ) B(p + 1, p + ) = = Γ (p + 1) p + 1 p + 1 Γ(p + 3) Γ(p + 3). W efekcie sumując powyższe całki dostajemy, że k p = ( + ) 1 = Γ(p + 3) Γ (p + 1). (1 v) p v p+1 dv v p (1 v) p+1 dv Pozostało do wykazania, że σ p (W ) = 1. Zauważmy, że dla każdego (u, v) I, W (u, v) Π(u, v) = uv, dlatego mamy, że W (u, v) uv p dudv = = 1 v v (uv) p dudv + } {{ } (uv W (u, v)) p dudv 1 v (uv u v + 1) p dudv. } {{ } Obliczając poszczególne całki uzyskujemy, że ( v ) = v p u p du dv = 1 v p (1 v) p+1 dv = 1 B(p + 1, p + ), p + 1 p + 1 ( ) = (1 v) p (1 u) p du dv = 1 (1 v) p v p+1 dv = 1 B(p +, p + 1). p + 1 p + 1 Korzystając z własności funkcji beta oraz gamma dostajemy, że + = kp 1. Podsumowując uzyskane wyniki mamy ) 1 σ p (W ) = (k p W (u, v) uv p p dudv = (kp ( + )) 1 p = 1. I Zanim przejdziemy do dowodu twierdzenia mówiącego, że σ p (C) 1 wprowadzimy jedno pojęcie. Dla zadanej kopuły C C przez D C będziemy oznaczać funkcję różnicy wartości tej kopuły i kopuły produktowej Π, tzn. D C (u, v) = C(u, v) Π(u, v) = C(u, v) uv. (4.48) Przykładowe wykresy takich funkcji dla kopuły komonotonicznej M oraz kontrmonotonicznej W przedstawiono na rysunku 4.1. Stosując takie oznaczenie (4.48) możemy zapisać, że ) 1 σ p (C) = (k p D C (u, v) p p dudv. (4.49) I Wiemy, że dla każdego (u, v) I zachodzi W (u, v) C(u, v) M(u, v). Oznacza to, że punktowo funkcja D C jest ograniczona przez maksimum D M oraz D W D C (u, v) = C(u, v) uv max{ W (u, v) uv, M(u, v) uv } = max{ D W (u, v), D M (u, v) }. 7
74 (a) Wykres funkcji D M (u, v) = M(u, v) uv. (b) Wykres funkcji D W (u, v) = W (u, v) uv. Rysunek 4.1: Wykresy różnicy kopuł M/W oraz Π. Łatwo zauważyć, że D M = D M oraz D W = D W. Fakt, że funkcje D M oraz D W są różne można zaobserwować na obrazku 4., gdzie przedstawione są ich wykresy konturowe. Potwierdza to również wykres 4.3, na którym są nałożone obie funkcje D M oraz D W. Wynika z niego, że to czy górne ograniczenie jest zadane przez D M czy D W jest zależne od punktu, który badamy. Problem w wykazaniu nierówności σ p (C) 1 dla dowolnej kopuły C polega na tym, że stosując ograniczenie funkcji D C przez max{ D M, D W } nie uzyskamy górnego oszacowania całki 4.49 przez 1, ponieważ wiemy, że σ p (M) = 1, a wykorzystywana do szacowania funkcja jest miejscami ostro większa, a w pozostałych przypadkach równa D M (i analogicznie dla D W ). Kluczową tutaj okaże się być własność kopuły wynikająca z twierdzenia 3.8, czyli fakt, że jest ona funkcją lipschitzowską o stałej 1 ze względu na każdą ze zmiennych. Oznacza to, że szybkość zmian wartości funkcji C, a więc tym samym D C jest ograniczona. (a) Wykres konturowy M(u, v) uv. (b) Wykres konturowy W (u, v) uv. Rysunek 4.: Wykresy konturowe wartości bezwzględnej różnicy kopuł M/W oraz Π. Twierdzenie 4.5. Dla każdej kopuły C C mamy, że σ p (C) 1. Ponadto, wartość σ p (C) = 1 jest osiągana jedynie dla kopuł W oraz M. Dowód. Poniższy dowód dla p = pochodzi z pracy []. Niech C będzie dowolną kopułą, a D C = D będzie funkcją zadaną wzorem 4.48 (w dalszej części dowodu pominiemy indeks C). Wprowadźmy 73
75 Rysunek 4.3: Wykres funkcji M(u, v) uv (kolor zielony) oraz W (u, v) uv (kolor czerwony). oznaczenie h(v) = D(u, v) p du. Wówczas możemy zapisać, że σ p (C) = (k p ) 1 p h(v) dv. (4.51) Ustalmy pewne v I. Wiemy z twierdzenia 3.9, że dla dowolnego v I istnieje pochodna cząstkowa C(u,v) u dla prawie wszystkich u I. Dzięki temu mamy, że D(u, v) jest również różniczkowalna dla prawie wszystkich u I oraz dla takich punktów zachodzi D(u, v) u = (C(u, v) uv) u = C(u, v) u Korzystając z oszacowania 3.1 dla pochodnych cząstkowych funkcji C możemy zapisać, że v D(u, v) u v. 1 v. (4.5) Ponadto, z twierdzenia 3.11 mamy, że funkcja u I C(u, v) jest absolutnie ciągła. Na mocy tego faktu oraz własności, że różnica funkcji absolutnie ciągłych jest absolutnie ciągła otrzymujemy, że funkcja u I D(u, v) jest również absolutnie ciągła i możemy ją zapisać w postaci D(u, v) = u D(t, v) t Zajmiemy się teraz oszacowaniem funkcji D. Weźmy dowolne u I oraz wprowadźmy oznaczenia u = sup{x u : D(x, v) = }, u 1 = inf{x u : D(x, v) = }. (4.53) Zauważmy, że u, u 1 są poprawnie określone, ponieważ dla dowolnej kopuły C i dowolnego v I zachodzi, że D(, v) = C(, v) v =, D(1, v) = C(1, v) 1 v =. (4.54) Oczywistym jest, że u u u 1. Jeżeli D(u, v) =, to wówczas zachodzi, że u = u = u 1, dlatego w dalszej części dowodu rozpatrzymy sytuację, gdy D(u, v). Z ciągłości funkcji D, dt. 74
Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład
Rozdział 1 Wektory losowe 1.1 Wektor losowy i jego rozkład Definicja 1 Wektor X = (X 1,..., X n ), którego każda współrzędna jest zmienną losową, nazywamy n-wymiarowym wektorem losowym (krótko wektorem
Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych
Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Niech Ω będzie przestrzenią zdarzeń elementarnych. Definicja 1 Rodzinę S zdarzeń losowych (zbiór S podzbiorów zbioru
Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne
Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne 5.2. Momenty rozkładów łącznych. Katarzyna Rybarczyk-Krzywdzińska rozkładów wielowymiarowych Przypomnienie Jeśli X jest zmienną losową o rozkładzie
Wykład 3 Jednowymiarowe zmienne losowe
Wykład 3 Jednowymiarowe zmienne losowe Niech (Ω, F, P ) będzie ustaloną przestrzenią probabilistyczną Definicja 1 Jednowymiarowa zmienna losowa (o wartościach rzeczywistych), określoną na przestrzeni probabilistycznej
Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski
Modelowanie zależności pomiędzy zmiennymi losowymi Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski P Zmienne losowe niezależne - przypomnienie Dwie rzeczywiste zmienne losowe X i Y
Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu.
Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu. A Teoria Definicja A.1. Niech (Ω, F, P) będzie przestrzenią probabilistyczną. Zmienną losową określoną na przestrzeni Ω nazywamy dowolną
Rozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej
Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Zbiór możliwych wyników eksperymentu będziemy nazywać przestrzenią zdarzeń elementarnych i oznaczać Ω, natomiast
Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014
Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014 Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe
PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA
PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA 1. Trójkę (Ω, F, P ), gdzie Ω, F jest σ-ciałem podzbiorów Ω, a P jest prawdopodobieństwem określonym na F, nazywamy przestrzenią probabilistyczną. 2. Rodzinę F
RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3.
RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3. ZMIENNA LOSOWA JEDNOWYMIAROWA. Zmienną losową X nazywamy funkcję (praktycznie każdą) przyporządkowującą zdarzeniom elementarnym liczby rzeczywiste. X : Ω R (dokładniej:
Prawdopodobieństwo i statystyka
Wykład VII: Rozkład i jego charakterystyki 22 listopada 2016 Uprzednio wprowadzone pojęcia i ich własności Definicja zmiennej losowej Zmienna losowa na przestrzeni probabilistycznej (Ω, F, P) to funkcja
Prawa wielkich liczb, centralne twierdzenia graniczne
, centralne twierdzenia graniczne Katedra matematyki i ekonomii matematycznej 17 maja 2012, centralne twierdzenia graniczne Rodzaje zbieżności ciągów zmiennych losowych, centralne twierdzenia graniczne
Prawdopodobieństwo i statystyka
Wykład II: Zmienne losowe i charakterystyki ich rozkładów 13 października 2014 Zmienne losowe Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Definicja zmiennej losowej i jej
Statystyka i eksploracja danych
Wykład II: i charakterystyki ich rozkładów 24 lutego 2014 Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa,
Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe.
Rachunek prawdopodobieństwa MAP3040 WPPT FT, rok akad. 2010/11, sem. zimowy Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Warunkowa wartość oczekiwana.
F t+ := s>t. F s = F t.
M. Beśka, Całka Stochastyczna, wykład 1 1 1 Wiadomości wstępne 1.1 Przestrzeń probabilistyczna z filtracją Niech (Ω, F, P ) będzie ustaloną przestrzenią probabilistyczną i niech F = {F t } t 0 będzie rodziną
Rozkład normalny Parametry rozkładu zmiennej losowej Zmienne losowe wielowymiarowe
Statystyka i opracowanie danych W4 Rozkład normalny Parametry rozkładu zmiennej losowej Zmienne losowe wielowymiarowe Dr Anna ADRIAN Paw B5, pok407 adan@agh.edu.pl Rozkład normalny wykres funkcji gęstości
A i. i=1. i=1. i=1. i=1. W dalszej części skryptu będziemy mieli najczęściej do czynienia z miarami określonymi na rodzinach, które są σ - algebrami.
M. Beśka, Wstęp do teorii miary, rozdz. 3 25 3 Miara 3.1 Definicja miary i jej podstawowe własności Niech X będzie niepustym zbiorem, a A 2 X niepustą rodziną podzbiorów. Wtedy dowolne odwzorowanie : A
7 Twierdzenie Fubiniego
M. Beśka, Wstęp do teorii miary, wykład 7 19 7 Twierdzenie Fubiniego 7.1 Miary produktowe Niech i będą niepustymi zbiorami. Przez oznaczmy produkt kartezjański i tj. zbiór = { (x, y : x y }. Niech E oraz
WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki
WYKŁAD 6 Witold Bednorz, Paweł Wolff 1 Instytut Matematyki Uniwersytet Warszawski Rachunek Prawdopodobieństwa, WNE, 2010-2011 Własności Wariancji Przypomnijmy, że VarX = E(X EX) 2 = EX 2 (EX) 2. Własności
Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa
Spis treści Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa Romuald Kotowski Katedra Informatyki Stosowanej PJWSTK 2009 Spis treści Spis treści 1 Wstęp Bardzo często interesujący
Szkice do zajęć z Przedmiotu Wyrównawczego
Szkice do zajęć z Przedmiotu Wyrównawczego Matematyka Finansowa sem. letni 2011/2012 Spis treści Zajęcia 1 3 1.1 Przestrzeń probabilistyczna................................. 3 1.2 Prawdopodobieństwo warunkowe..............................
MIARY ZALEŻNOŚCI OPARTE NA KOPULACH
Studia Ekonomiczne. Zeszyty Naukowe Uniwersytetu Ekonomicznego w Katowicach ISSN 2083-8611 Nr 246 2015 Współczesne Finanse 3 Uniwersytet Kardynała Stefana Wyszyńskiego w Warszawie Wydział Matematyczno-Przyrodniczy.
Wykład 11: Martyngały: definicja, twierdzenia o zbieżności
RAP 412 14.01.2009 Wykład 11: Martyngały: definicja, twierdzenia o zbieżności Wykładowca: Andrzej Ruciński Pisarz:Mirosława Jańczak 1 Wstęp Do tej pory zajmowaliśmy się ciągami zmiennych losowych (X n
Wykład 3 Momenty zmiennych losowych.
Wykład 3 Momenty zmiennych losowych. Wrocław, 19 października 2016r Momenty zmiennych losowych Wartość oczekiwana - przypomnienie Definicja 3.1: 1 Niech X będzie daną zmienną losową. Jeżeli X jest zmienną
Wykład 3 Momenty zmiennych losowych.
Wykład 3 Momenty zmiennych losowych. Wrocław, 18 października 2017r Momenty zmiennych losowych Wartość oczekiwana - przypomnienie Definicja 3.1: 1 Niech X będzie daną zmienną losową. Jeżeli X jest zmienną
Prawdopodobieństwo i statystyka
Wykład IV: 27 października 2014 Współczynnik korelacji Brak korelacji a niezależność Definicja współczynnika korelacji Współczynnikiem korelacji całkowalnych z kwadratem zmiennych losowych X i Y nazywamy
Rachunek Prawdopodobieństwa Rozdział 5. Rozkłady łączne
Rachunek Prawdopodobieństwa Rozdział 5. Rozkłady łączne 5.0 Definicje Katarzyna Rybarczyk-Krzywdzińska Wprowadzenie Przykład 1 Bolek, Lolek i Tola wstąpili do kasyna. (A) Bolek postawił na czerwone, (B)
WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty
WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty Agata Boratyńska Agata Boratyńska Rachunek prawdopodobieństwa, wykład 4 / 9 Przekształcenia zmiennej losowej X
Statystyka. Wydział Zarządzania Uniwersytetu Łódzkiego
Statystyka Wydział Zarządzania Uniwersytetu Łódzkiego 2017 Zmienna losowa i jej rozkład Mając daną przestrzeń probabilistyczną, czyli parę (&, P) stanowiącą model pewnego doświadczenia losowego (gdzie
Rozdział 6. Ciągłość. 6.1 Granica funkcji
Rozdział 6 Ciągłość 6.1 Granica funkcji Podamy najpierw dwie definicje granicy funkcji w punkcie i pokażemy ich równoważność. Definicja Cauchy ego granicy funkcji w punkcie. Niech f : X R, gdzie X R oraz
Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.
Rachunek prawdopodobieństwa MAT1332 Wydział Matematyki, Matematyka Stosowana Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów. Warunkowa
Dystrybucje, wiadomości wstępne (I)
Temat 8 Dystrybucje, wiadomości wstępne (I) Wielkości fizyczne opisujemy najczęściej przyporządkowując im funkcje (np. zależne od czasu). Inną drogą opisu tych wielkości jest przyporządkowanie im funkcjonałów
Wykład 2 Zmienne losowe i ich rozkłady
Wykład 2 Zmienne losowe i ich rozkłady Magdalena Frąszczak Wrocław, 11.10.2017r Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe Doświadczenie
Rozkłady i ich dystrybuanty 16 marca F X (t) = P (X < t) 0, gdy t 0, F X (t) = 1, gdy t > c, 0, gdy t x 1, 1, gdy t > x 2,
Wykład 4. Rozkłady i ich dystrybuanty 6 marca 2007 Jak opisać cały rozkład jedną funkcją? Aby znać rozkład zmiennej X, musimy umieć obliczyć P (a < X < b) dla dowolnych a < b. W tym celu wystarczy znać
1 Gaussowskie zmienne losowe
Gaussowskie zmienne losowe W tej serii rozwiążemy zadania dotyczące zmiennych o rozkładzie normalny. Wymagana jest wiedza na temat własności rozkładu normalnego, CTG oraz warunkowych wartości oczekiwanych..
1 Działania na zbiorach
M. Beśka, Wstęp do teorii miary, rozdz. 1 1 1 Działania na zbiorach W rozdziale tym przypomnimy podstawowe działania na zbiorach koncentrując się na własnościach tych działań, które będą przydatne w dalszej
Notatki z Analizy Matematycznej 2. Jacek M. Jędrzejewski
Notatki z Analizy Matematycznej 2 Jacek M. Jędrzejewski Definicja 3.1. Niech (a n ) n=1 będzie ciągiem liczbowym. Dla każdej liczby naturalnej dodatniej n utwórzmy S n nazywamy n-tą sumą częściową. ROZDZIAŁ
Procesy stochastyczne
Wykład I: Istnienie procesów stochastycznych 21 lutego 2017 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane
Statystyka i eksploracja danych
Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu w dziedzinach matematyczno-przyrodniczych realizowany w ramach Poddziałania 4.1.1 Programu Operacyjnego Kapitał Ludzki Statystyka i eksploracja
5 Przegląd najważniejszych rozkładów
5 Przegląd najważniejszych rozkładów 5. Rozkład Bernoulliego W niezmieniających się warunkach wykonujemy n razy pewne doświadczenie. W wyniku każdego doświadczenia może nastąpić zdarzenie A lub A. Zakładamy,
12DRAP - parametry rozkładów wielowymiarowych
DRAP - parametry rozkładów wielowymiarowych Definicja.. Jeśli h : R R, a X, Y ) jest wektorem losowym o gęstości fx, y) to EhX, Y ) = hx, y)fx, y)dxdy. Jeśli natomiast X, Y ) ma rozkład dyskretny skupiony
zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych
zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych 1. [E.A 5.10.1996/zad.4] Funkcja gęstości dana jest wzorem { 3 x + 2xy + 1 y dla (x y) (0 1) (0 1) 4 4 P (X > 1 2 Y > 1 2 ) wynosi:
Procesy stochastyczne
Wykład I: Istnienie procesów stochastycznych 2 marca 2015 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane są
Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe
Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe Nierówność Czebyszewa Niech X będzie zmienną losową o skończonej wariancji V ar(x). Wtedy wartość oczekiwana E(X) też jest skończona i
Ciągłość funkcji f : R R
Ciągłość funkcji f : R R Definicja 1. Otoczeniem o promieniu δ > 0 punktu x 0 R nazywamy zbiór O(x 0, δ) := (x 0 δ, x 0 + δ). Otoczeniem prawostronnym o promieniu δ > 0 punktu x 0 R nazywamy zbiór O +
Zmienne losowe ciągłe i ich rozkłady
Rachunek Prawdopodobieństwa i Statystyka - W3 Zmienne losowe ciągłe i ich rozkłady Dr Anna ADRIAN Paw B5, pok47 adan@agh.edu.pl Plan wykładu Zmienna losowa ciągła Dystrybuanta i unkcja gęstości rozkładu
Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie
Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie Jarosław Kotowicz Instytut Matematyki Uniwersytet w
Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.
Rachunek prawdopodobieństwa MAP1181 Wydział PPT, MS, rok akad. 213/14, sem. zimowy Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.
Wykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa
Wykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa Marek Kubiak Instytut Informatyki Politechnika Poznańska Plan wykładu Podstawowe pojęcia rachunku prawdopodobieństwa Rozkład
III. ZMIENNE LOSOWE JEDNOWYMIAROWE
III. ZMIENNE LOSOWE JEDNOWYMIAROWE.. Zmienna losowa i pojęcie rozkładu prawdopodobieństwa W dotychczas rozpatrywanych przykładach każdemu zdarzeniu była przyporządkowana odpowiednia wartość liczbowa. Ta
Zmienne losowe ciągłe i ich rozkłady
Statystyka i opracowanie danych W3 Zmienne losowe ciągłe i ich rozkłady Dr Anna ADRIAN Paw B5, pok47 adan@agh.edu.pl Plan wykładu Rozkład Poissona. Zmienna losowa ciągła Dystrybuanta i funkcja gęstości
1 Zmienne losowe wielowymiarowe.
1 Zmienne losowe wielowymiarowe. 1.1 Definicja i przykłady. Definicja1.1. Wektorem losowym n-wymiarowym(zmienna losowa n-wymiarowa )nazywamywektorn-wymiarowy,któregoskładowymisązmiennelosowex i dlai=1,,...,n,
WYKŁAD 2. Zdarzenia losowe i prawdopodobieństwo Zmienna losowa i jej rozkłady
WYKŁAD 2 Zdarzenia losowe i prawdopodobieństwo Zmienna losowa i jej rozkłady Metody statystyczne metody opisu metody wnioskowania statystycznego syntetyczny liczbowy opis właściwości zbioru danych ocena
WSTĘP. Tematy: Regresja liniowa: model regresji liniowej, estymacja nieznanych parametrów. Wykład:30godz., ćwiczenia:15godz., laboratorium:30godz.
Tematy: WSTĘP 1. Wprowadzenie do przedmiotu. Próbkowe odpowiedniki wielkości populacyjnych. Modele statystyczne i przykładowe zadania wnioskowania statystycznego. Statystyki i ich rozkłady. 2. Estymacja
Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna.
Wykład 4 Rozkłady i ich dystrybuanty Dwa typy zmiennych losowych Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x, x 2,...}, to mówimy, że jest to zmienna dyskretna.
jest ciągiem elementów z przestrzeni B(R, R)
Wykład 2 1 Ciągi Definicja 1.1 (ciąg) Ciągiem w zbiorze X nazywamy odwzorowanie x: N X. Dla uproszczenia piszemy x n zamiast x(n). Przykład 1. x n = n jest ciągiem elementów z przestrzeni R 2. f n (x)
METODY ESTYMACJI PUNKTOWEJ. nieznanym parametrem (lub wektorem parametrów). Przez X będziemy też oznaczać zmienną losową o rozkładzie
METODY ESTYMACJI PUNKTOWEJ X 1,..., X n - próbka z rozkładu P θ, θ Θ, θ jest nieznanym parametrem (lub wektorem parametrów). Przez X będziemy też oznaczać zmienną losową o rozkładzie P θ. Definicja. Estymatorem
Wstęp do Rachunku Prawdopodobieństwa, IIr. WMS
Wstęp do Rachunku Prawdopodobieństwa, IIr. WMS przykładowe zadania na. kolokwium czerwca 6r. Poniżej podany jest przykładowy zestaw zadań. Podczas kolokwium na ich rozwiązanie przeznaczone będzie ok. 85
Detekcja rozkładów o ciężkich ogonach
Detekcja rozkładów o ciężkich ogonach J. Śmiarowska, P. Jamer Wydział Matematyki i Nauk Informacyjnych Politechnika Warszawska 24 kwietnia 2012 J. Śmiarowska, P. Jamer (Politechnika Warszawska) Detekcja
Logarytmy. Funkcje logarytmiczna i wykładnicza. Równania i nierówności wykładnicze i logarytmiczne.
Logarytmy. Funkcje logarytmiczna i wykładnicza. Równania i nierówności wykładnicze i logarytmiczne. Definicja. Niech a i b będą dodatnimi liczbami rzeczywistymi i niech a. Logarytmem liczby b przy podstawie
2 Rodziny zbiorów. 2.1 Algebry i σ - algebry zbiorów. M. Beśka, Wstęp do teorii miary, rozdz. 2 11
M. Beśka, Wstęp do teorii miary, rozdz. 2 11 2 Rodziny zbiorów 2.1 Algebry i σ - algebry zbiorów Niech X będzie niepustym zbiorem. Rodzinę indeksowaną zbiorów {A i } i I 2 X nazywamy rozbiciem zbioru X
Wartość oczekiwana Mediana i dominanta Wariancja Nierówności związane z momentami. Momenty zmiennych losowych Momenty wektorów losowych
Przykład(Wartość średnia) Otrzymaliśmy propozycję udziału w grze polegającej na jednokrotnym rzucie symetryczną kostką. Jeśli wypadnie 1 wygrywamy2zł,;jeśliwypadnie2,płacimy1zł;za3wygrywamy 4zł;za4płacimy5zł;za5wygrywamy3złiwreszcieza6
Zadania do Rozdziału X
Zadania do Rozdziału X 1. 2. Znajdź wszystkie σ-ciała podzbiorów X, gdy X = (i) {1, 2}, (ii){1, 2, 3}. (b) Znajdź wszystkie elementy σ-ciała generowanego przez {{1, 2}, {2, 3}} dla X = {1, 2, 3, 4}. Wykaż,
Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe
Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe 4.0. Rozkłady zmiennych losowych, dystrybuanta. Katarzyna Rybarczyk-Krzywdzińska Wprowadzenie Rozważmy eksperymenty 1 gra Bolka w ruletkę w kasynie;
2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.
Zadania z Procesów Stochastycznych 1 1. Udowodnij, że z prawdopodobieństwem 1 trajektorie procesu Poissona są niemalejące, przyjmują wartości z Z +, mają wszystkie skoki równe 1 oraz dążą do nieskończoności.
Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału
Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału Magdalena Frąszczak Wrocław, 22.02.2017r Zasady oceniania Ćwiczenia 2 kolokwia (20 punktów każde) 05.04.2017 oraz 31.05.2017 2 kartkówki
1 Warunkowe wartości oczekiwane
Warunkowe wartości oczekiwane W tej serii zadań rozwiążemy różne zadania związane z problemem warunkowania.. (Eg 48/) Załóżmy, że X, X, X 3, X 4 są niezależnymi zmiennymi losowymi o jednakowym rozkładzie
Prawdopodobieństwo i statystyka
Wykład XIV: Metody Monte Carlo 19 stycznia 2016 Przybliżone obliczanie całki oznaczonej Rozważmy całkowalną funkcję f : [0, 1] R. Chcemy znaleźć przybliżoną wartość liczbową całki 1 f (x) dx. 0 Jeden ze
Matematyka z el. statystyki, # 3 /Geodezja i kartografia II/
Matematyka z el. statystyki, # 3 /Geodezja i kartografia II/ Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Akademicka 15, p.211a bud. Agro II, e-mail: zdzislaw.otachel@up.lublin.pl
Rachunek prawdopodobieństwa (Elektronika, studia niestacjonarne) Wykład 3
Rachunek prawdopodobieństwa (Elektronika, studia niestacjonarne) Wykład 3 Przygotowując wykład korzystam głównie z książki Jakubowski, Sztencel Wstęp do teorii prawdopodobieństwa. Zmienna losowa i jej
Rachunek prawdopodobieństwa i statystyka
Rachunek prawdopodobieństwa i statystyka Momenty Zmienna losowa jest wystarczająco dokładnie opisana przez jej rozkład prawdopodobieństwa. Względy praktyczne dyktują jednak potrzebę znalezienia charakterystyk
Przestrzeń probabilistyczna
Przestrzeń probabilistyczna (Ω, Σ, P) Ω pewien niepusty zbiór Σ rodzina podzbiorów tego zbioru P funkcja określona na Σ, zwana prawdopodobieństwem. Przestrzeń probabilistyczna (Ω, Σ, P) Ω pewien niepusty
Ważne rozkłady i twierdzenia c.d.
Ważne rozkłady i twierdzenia c.d. Funkcja charakterystyczna rozkładu Wielowymiarowy rozkład normalny Elipsa kowariacji Sploty rozkładów Rozkłady jednostajne Sploty z rozkładem normalnym Pobieranie próby
Weryfikacja hipotez statystycznych
Weryfikacja hipotez statystycznych Hipoteza Test statystyczny Poziom istotności Testy jednostronne i dwustronne Testowanie równości wariancji test F-Fishera Testowanie równości wartości średnich test t-studenta
Drugie kolokwium z Rachunku Prawdopodobieństwa, zestaw A
Drugie kolokwium z Rachunku Prawdopodobieństwa, zestaw A Zad. 1. Korzystając z podanych poniżej mini-tablic, oblicz pierwszy, drugi i trzeci kwartyl rozkładu N(10, 2 ). Rozwiązanie. Najpierw ogólny komentarz
E-learning - matematyka - poziom rozszerzony. Funkcja wykładnicza. Materiały merytoryczne do kursu
E-learning - matematyka - poziom rozszerzony Funkcja wykładnicza Materiały merytoryczne do kursu Definicję i własności funkcji wykładniczej poprzedzimy definicją potęgi o wykładniku rzeczywistym. Poprawna
SIMR 2016/2017, Analiza 2, wykład 1, Przestrzeń wektorowa
SIMR 06/07, Analiza, wykład, 07-0- Przestrzeń wektorowa Przestrzeń wektorowa (liniowa) - przestrzeń (zbiór) w której określone są działania (funkcje) dodawania elementów i mnożenia elementów przez liczbę
Zadania z Rachunku Prawdopodobieństwa III - 1
Zadania z Rachunku Prawdopodobieństwa III - 1 Funkcją tworzącą momenty (transformatą Laplace a) zmiennej losowej X nazywamy funkcję M X (t) := Ee tx, t R. 1. Oblicz funkcję tworzącą momenty zmiennych o
Rozkłady prawdopodobieństwa zmiennych losowych
Rozkłady prawdopodobieństwa zmiennych losowych Rozkład dwumianowy Rozkład normalny Marta Zalewska Zmienna losowa dyskretna (skokowa) jest to zmienna, której zbór wartości jest skończony lub przeliczalny.
Podstawowe modele probabilistyczne
Wrocław University of Technology Podstawowe modele probabilistyczne Maciej Zięba maciej.zieba@pwr.edu.pl Rozpoznawanie Obrazów, Lato 2018/2019 Pojęcie prawdopodobieństwa Prawdopodobieństwo reprezentuje
Metody Rozmyte i Algorytmy Ewolucyjne
mgr inż. Wydział Matematyczno-Przyrodniczy Szkoła Nauk Ścisłych Uniwersytet Kardynała Stefana Wyszyńskiego Podstawowe operatory genetyczne Plan wykładu Przypomnienie 1 Przypomnienie Metody generacji liczb
Układy równań i nierówności liniowych
Układy równań i nierówności liniowych Wiesław Krakowiak 1 grudnia 2010 1 Układy równań liniowych DEFINICJA 11 Układem równań m liniowych o n niewiadomych X 1,, X n, nazywamy układ postaci: a 11 X 1 + +
Metody probabilistyczne
Metody probabilistyczne. Twierdzenia graniczne Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 20.2.208 / 26 Motywacja Rzucamy wielokrotnie uczciwą monetą i zliczamy
Literatura. Leitner R., Zacharski J., Zarys matematyki wyŝszej dla studentów, cz. III.
Literatura Krysicki W., Bartos J., Dyczka W., Królikowska K, Wasilewski M., Rachunek Prawdopodobieństwa i Statystyka Matematyczna w Zadaniach, cz. I. Leitner R., Zacharski J., Zarys matematyki wyŝszej
II. FUNKCJE WIELU ZMIENNYCH
II. FUNKCJE WIELU ZMIENNYCH 1. Zbiory w przestrzeni R n Ustalmy dowolne n N. Definicja 1.1. Zbiór wszystkich uporzadkowanych układów (x 1,..., x n ) n liczb rzeczywistych, nazywamy przestrzenią n-wymiarową
Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów
Rozdział : Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów W tym rozdziale omówione zostaną dwie najpopularniejsze metody estymacji parametrów w ekonometrycznych modelach nieliniowych,
Centralne twierdzenie graniczne
Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 4 Ważne uzupełnienie Dwuwymiarowy rozkład normalny N (µ X, µ Y, σ X, σ Y, ρ): f XY (x, y) = 1 2πσ X σ Y 1 ρ 2 { [ (x ) 1
Biostatystyka, # 3 /Weterynaria I/
Biostatystyka, # 3 /Weterynaria I/ dr n. mat. Zdzisław Otachel Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Głęboka 28, p. 221 bud. CIW, e-mail: zdzislaw.otachel@up.lublin.pl
Jednowymiarowa zmienna losowa
1 Jednowymiarowa zmienna losowa Przykład Doświadczenie losowe - rzut kostką do gry. Obserwujemy ilość wyrzuconych oczek. Teoretyczny model eksperymentu losowego - przestrzeń probabilistyczna (Ω, S, P ),
LX Olimpiada Matematyczna
LX Olimpiada Matematyczna Rozwiązania zadań konkursowych zawodów stopnia drugiego 13 lutego 2009 r. (pierwszy dzień zawodów) Zadanie 1. Liczby rzeczywiste a 1, a 2,..., a n (n 2) spełniają warunek a 1
Funkcje wymierne. Jerzy Rutkowski. Działania dodawania i mnożenia funkcji wymiernych określa się wzorami: g h + k l g h k.
Funkcje wymierne Jerzy Rutkowski Teoria Przypomnijmy, że przez R[x] oznaczamy zbiór wszystkich wielomianów zmiennej x i o współczynnikach rzeczywistych Definicja Funkcją wymierną jednej zmiennej nazywamy
Wykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga
RAP 412 21.01.2009 Wykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga Wykładowca: Andrzej Ruciński Pisarz: Łukasz Waszak 1 Wstęp Na ostatnim wykładzie przedstawiliśmy twierdzenie o zbieżności
Wykład z równań różnicowych
Wykład z równań różnicowych 1 Wiadomości wstępne Umówmy się, że na czas tego wykładu zrezygnujemy z oznaczania n-tego wyrazu ciągu symbolem typu x n, y n itp. Zamiast tego pisać będziemy x (n), y (n) itp.
Matematyka ubezpieczeń majątkowych r.
Zadanie 1. W pewnej populacji podmiotów każdy podmiot narażony jest na ryzyko straty X o rozkładzie normalnym z wartością oczekiwaną równą μ i wariancją równą. Wszystkie podmioty z tej populacji kierują
Zadania o numerze 4 z zestawów licencjat 2014.
Zadania o numerze 4 z zestawów licencjat 2014. W nawiasie przy zadaniu jego występowanie w numerze zestawu Spis treści (Z1, Z22, Z43) Definicja granicy ciągu. Obliczyć granicę:... 3 Definicja granicy ciągu...
Funkcje - monotoniczność, różnowartościowość, funkcje parzyste, nieparzyste, okresowe. Funkcja liniowa.
Funkcje - monotoniczność, różnowartościowość, funkcje parzyste, nieparzyste, okresowe. Funkcja liniowa. Monotoniczność i różnowartościowość. Definicja 1 Niech f : X R, X R. Funkcję f nazywamy rosnącą w
Teoria miary i całki
Teoria miary i całki Spis treści 1 Wstęp 3 2 lgebra zbiorów 5 3 Pierścienie, ciała, σ ciała zbiorów. 7 3.1 Definicja pierścienia ciała i σ ciała............... 7 3.2 Pierścień, ciało i σ ciało generowane
Statystyka matematyczna
Statystyka matematyczna Wykład 6 Magdalena Alama-Bućko 8 kwietnia 019 Magdalena Alama-Bućko Statystyka matematyczna 8 kwietnia 019 1 / 1 Rozkłady ciagłe Magdalena Alama-Bućko Statystyka matematyczna 8