Metody Monte Carlo w finansach

Wielkość: px
Rozpocząć pokaz od strony:

Download "Metody Monte Carlo w finansach"

Transkrypt

1 Metody Monte Carlo w finansach Piotr Bochnia Katarzyna Cybulska Piotr Gońda Magdalena Hubicz Karol Klimas Paweł Marcinkowski Maria Pawłowska Patrycja Pol Marcin Sosnowski Mikołaj Stelmach Marcin Wcisło Piotr Wiązecki Natalia Włodarczyk 4 września 2013

2 Spis treści I Redukcja wariancji w metodach Monte Carlo 3 1 Przegląd głównych sposobów redukcji wariancji dla metod Monte Carlo Antithetic variates Stratified sampling Zmienne kontrolne Warunkowe Monte Carlo Importance sampling Metody redukcji wariancji - Importance Sampling Value-at-Risk - wartość zagrożona Obliczanie VaR-u Aproksymacja liniowa Delta-Gamma aproksymacja Symulacje Monte Carlo Importance Sampling - Losowanie istotne Losowanie z nowej miary Algorytm Importance Sampling Wybór parametru zmiany miary - θ Important Sampling w Monte Carlo jako sposób estymacji kwantyli Wstęp Podstawowy pomysł Kandydat Important Sampling na dystrybuantę Analiza asymptot Asymptotyczna reprezentacja estymatorów Importance sampling dla Valueat-Risk oraz Conditional Value-at-Risk Value-at-Risk, Conditional Value-at-Risk i ich estymatory Asymptotyczna reprezentacja estymatorów II Zastosowanie metod Monte Carlo: wycena opcji amerykańskich 25 5 Symulacyjna wycena opcji amerykańskich - algorytm Longstaffa-Schwartza Prosty przykład Algorytm

3 6 Analiza algorytmu Longstaffa-Schwartza do wyceny opcji amerykańskich Zagadnienie wyceny opcji amerykańskiej Algorytm Longstaffa-Schwartza Oznaczenia Zbieżność algorytmu Tempo zbieżności algorytmu Wycena opcji amerykańskich przy pomocy metod Monte Carlo: przybliżanie ceny opcji od góry Cena opcji amerykańskiej Symulacje Monte Carlo Obliczanie górnego ograniczenia ceny opcji amerykańskich bez symulacji zagnieżdżonych Wstęp Przedstawienie problemu wyceny amerykańskiej opcji Teoretyczne podstawy dla obliczenia upper bound Własności martyngału z rozkładu Dooba-Meyera Czas ciągły Czas dyskretny Algorytm Analiza błędów i złożoności III Zastosowanie metod Monte Carlo: estymacja wrażliwości 48 9 Estymacja współczynników greckich metodami Monte Carlo Metoda różnic skończonych Metoda różnic po trajektoriach Metoda ilorazu wiarygodności Parametry greckie Rozpatrywany przykład Wycena opcji call z barierą górną Estymacja parametrów greckich Różnice skończone Różnice skończone z importance sampling Różniczkowanie po trajektoriach Współczynnik wiarygodności Wyniki symulacji Przykłady Wyniki symulacji

4 Część I Redukcja wariancji w metodach Monte Carlo 3

5 Rozdział 1 Przegląd głównych sposobów redukcji wariancji dla metod Monte Carlo Natalia Włodarczyk, Mikołaj Stelmach Rozdział opracowany na podstawie pracy J. S. Dagpunar Simulation and Monte Carlo: With applications in finance and MCMC, John Wiley & Sons, Ltd, pp , 2007 Powszechnym problemem przy stosowaniu metod Monte Carlo jest fakt, iż błąd standardowy maleje w tempie 1 n, gdzie n to wielkość próbki. Przykładowo, jeśli X 1, X 2,..., X n to zmienne i.i.d. o wartości oczekiwanej µ i wariancji σ 2, to standardowy estymator wartości oczekiwanej pod postacią X = 1 n n X i ma odchylenie standardowe równe 1 n σ. Czynnika 1 n nie jesteśmy w stanie przeskoczyć. Poniżej zostały przedstawione metody, które starają się zmniejszyć stałą znajdującą się przy nim. 1.1 Antithetic variates Najprostsza ze stosowanych przy redukcji wariancji metod to zmienne antytetyczne (antithetic variates). Jej istota polega na znalezieniu dwóch estymatorów tego samego parametru θ o tej samej wariancji σ 2, nazwanych powiedzmy ˆθ 1 i ˆθ 2, o ujemnej korelacji ρ. Wtedy oczywiście ˆθ = ˆθ 1 +ˆθ 2 2 również jest estymatorem szukanego parametru, ponadto: ) Var (ˆθ = 1 ( σ 2 + σ 2 + 2ρσ 2) = σ2 (1 + ρ), skąd widać, że v.r.r. = 1 1+ρ > 11 i nasz cel redukcji wariancji został osiągnięty. Estymator o ujemnej korelacji do danego powstaje najczęściej na bazie tych samych zmiennych, które 1 v.r.r to variance reduction ratio, wielkość określająca, ile razy wariancja estymatora została zmniejszona przy użyciu metod redukcji wariancji w porównaniu z estymatorem standardowym, zbudowanym na bazie próbki takiej samej wielkości. 4

6 zostały wykorzystane przy pierwotnym estymatorze. Poniższy przykład wyjaśnia działanie metody. Powiedzmy, że chcemy za pomocą metod Monte Carlo obliczyć całkę θ = 0 x 0.9 e x dx. Szukaną całkę możemy przedstawić jako wartość oczekiwaną zmiennej Y = ( ln R) 0.9, gdzie R U(0; 1). Oto algorytm klasycznego Monte Carlo: for i = 1, 2,..., N do { } sample R i U(0; 1) Y i = ( ln R i ) 0,9 ˆθ 1 = 1 N N Y i Zauważmy, że także 1 R U(0; 1). To podpowiada nam pomysł na stworzenie zmiennej przeciwstawnej Z = ( ln (1 R)) 0.9, ujemnie skorelowanej z Y, i drugą estymację na jej podstawie. Stąd, algorytm używający antithetic variates będzie następujący: for i = 1, 2,..., N do { } sample R i U(0; 1) Y i = ( ln R i ) 0,9 Z i = ( ln (1 R i )) 0,9 ˆθ 1 = 1 N N Y i ˆθ 2 = 1 N N Z i ˆθ = ˆθ 1 +ˆθ 2 2 Uzyskany wskaźnik redukcji wariancji to v.r.r. = Stratified sampling Przejdziemy teraz do kolejnej metody, opierającej się na losowaniu próbek z warstw zmiennej losowej (ang. stratified sampling). Podobnie jak poprzednio, będziemy stosować metodę Monte Carlo do estymacji θ = E(Y ), gdzie Y jest funkcją zmiennych losowych W j. Aby skorzystać z metody warstwowej, wprowadzamy dodatkową zmienną losową, zwaną dalej warstwową, X, która także jest funkcją zmiennych W j. Zmienna ta powinna mieć następujące własności: istnieje silna zależność (niekoniecznie liniowa) pomiędzy X i Y, 5

7 gęstość X jest znana i można z niej łatwo wylosować próbkę, możemy łatwo wylosować próbkę z rozkładu Y pod warunkiem X = x. Gdy zmienna warstwowa jest już dobrze dobrana, dzielimy jej wartości na rozłączne warstwy {S (i), i = 1,..., M}. Ustalamy liczby n i, będące liczbami par (X, Y ), dla których X S (i). Losujemy z poszczególnych warstw określoną liczbę próbek. Można to zrobić w sposób oczywisty: losując W j, obliczając X i Y, i biorąc tylko te pary, dla których X S (i), po czym powtórzyć całość dla każdego i. Jednak widzimy, że ta metoda jest wysoce nieefektywna - po drodze odrzucamy bardzo dużą liczbę par i tracimy mnóstwo czasu na ich policzenie. Dlatego znacznie lepszym sposobem jest wylosowanie n i próbek z gęstości X obciętej do X S (i) i odpowiednio przeskalowanej, następnie wylosowanie próbek z rozkładu warunkowego W j dla każdego X = x i na koniec obliczenie Y na podstawie zmiennych W j. Gdy mamy już nasze próbki, możemy wprowadzić oznaczenia: θ i = E(Y X S (i) ) - wartość oczekiwana zmiennej Y dla i-tej warstwy, σ 2 i = Var(Y X S(i) ) - wariancja zmiennej Y dla i-tej warstwy, p i = P(X S (i) ) - prawdopodobieństwo, że X jest z i-tej warstwy, σ 2 = Var(Y ) - wariancja Y, (X ij, Y ij ) - j-ta próbka z i-tej warstwy. Średnią z próbek dla i-tej warstwy jest n i Y i = 1 Y ij, n i j=1 a naturalnym, nieobciążonym warstwowym estymatorem θ jest M ˆθ W = p i Y i. Ponieważ Y ij są i.i.d. dla ustalonego i, to łatwo sprawdzić, że M Var(ˆθ W ) = p 2 σi 2 i. n i Najczęściej stosujemy tę metodę dobierając n i proporcjonalnie do wielkości całej próbki (ang. proportional stratified sampling), tj. n i = Np i, gdzie N jest liczbą wszystkich obserwacji. W takim przypadku wariancja estymatora θ wyraża się wzorem: Var(ˆθ P W ) = 1 N M p i σi 2. Sprawdzimy teraz, czy i jak bardzo ta metoda obniżyła nam wariancję w porównaniu do metody naiwnej. Przekształcamy wariancję zwykłego estymatora: Var(ˆθ) = σ2 N = E(Y 2 ) θ 2 = 1 [ M ] p i E(Y 2 X S (i) ) θ 2 N N = 1 [ M ] p i (σi 2 θi 2 ) θ 2 = 1 M p i σi M p i (θ i θ) 2. N N N 6

8 Teraz łatwo obliczamy: Var(ˆθ) Var(ˆθ P W ) = 1 N M p i (θ i θ) 2, co jest liczbą, o którą udało nam się pomniejszyć wariancję, stosując metodę próbkowania proporcjonalnego z warstw. Jednak zauważmy, że wynik ten można teoretycznie polepszyć, rozwiązując zagadnienie minimalizacji wariancji przy ograniczeniu M n i = N. Wynik dla i-tej warstwy jest następujący: Z równości: wynika, że: n i = Np iσ i Mj=1 p j σ j, Var(ˆθ OP T ) = 1 ( M ) 2 ozn. p i σ i = σ2 N N. M M p i (σ i σ) 2 = p i σi 2 σ 2 ) ) Var (ˆθP W Var (ˆθOP T = 1 N M p i (σ i σ) 2. Możemy teraz zapisać naiwny estymator jako sumę trzech składników: Var(ˆθ) = 1 [ ] 1 M M p i (θ i θ) 2 + p i (σ i σ) 2 + σ 2. N N Dzięki próbkowaniu z warstw proporcjonalnych pomniejszamy wariancję o pierwszy składnik, natomiast dzięki podziałowi optymalnemu o pierwszy i o drugi. 1.3 Zmienne kontrolne Metoda zmiennych kontrolnych (ang. control variates) przypomina nieco metodę zmiennych warstwowych, gdyż również w niej wykorzystuje się dodatkową zmienną losową X. W poprzednim przypadku wystarczała jednak zależność między Y a X, w tym - potrzebna jest korelacja, czyli zależność liniowa. Przejdźmy do samego opisu metody. Zakładamy znowu, że w trakcie symulacji otrzymujemy dwie zmienne losowe: Y oraz X, przy czym wartość oczekiwaną pierwszej chcemy estymować, zaś wartość oczekiwana drugiej zmiennej jest znana i wynosi µ X. Oznaczmy także elementy macierzy wariancjikowariancji wektora (X, Y ) jako: ( ) σ 2 X σ XY σ XY σ Estymatorem zmiennych kontrolnych nazywamy estymator postaci: ˆθ b = Y b(x µ X ), który, jak łatwo zauważyć, jest nieobciążony dla każdego ustalonego b R. Obliczmy jego wariancję: 7

9 ) Var (ˆθb = σ 2 + b 2 σx 2 2bσ XY. Jest to funkcja kwadratowa zmiennej b i przyjmuje ona swoje minimum w punkcie b = σ XY. Minimum to wtedy jest równe: σx 2 Var (ˆθb ) = σ 2 σ2 XY σ 2 X = σ 2 ( 1 R 2), gdzie R 2 = σ2 XY oznacza, ile procentowo wariancji zostało usuniętej za pomocą estymatora zmiennych kontrolnych w porównaniu z estymatorem naiwnym. Ponieważ najczęściej σx 2 σ2 zarówno σ XY, jak i σx 2 są nieznane, to zamiast b używa się jego estymatora pod postacią: b = S XY S 2 X = 1 ( N N 1 1 N 1 ) ( ) X i X Y i Y ( ) N 2. X i X Z tym wiąże się jednak pewien problem, gdyż estymator ˆθ b = Y b (X µ X ) nie musi być nieobciążony, jako iż b zależy od danych otrzymanych w symulacji. Proponowane w literaturze są dwa rozwiązania. ( ) Pierwsze, mówiące o zignorowaniu obciążenia, gdyż jest ono jedynie rzędu O 1 N, co jest niższym rzędem niż samo odchylenie estymatora, będące ( oczywiście rzędu O 1 N ). Drugie wyjście mówi o wykonaniu najpierw krótszej symulacji, na jej podstawie otrzymanie b, będącego estymatorem b, a następnie użycie tej - już ustalonej - wartości do metody zmiennych kontrolnych. 1.4 Warunkowe Monte Carlo Metoda ta opiera się na wykonaniu możliwie największej liczby obliczeń analitycznych przed właściwym losowaniem. Chcemy estymować θ = E(X). Zauważmy, że zachodzi równość θ = E(E(X Y )) dla Y o znanym rozkładzie. Załóżmy, że znamy też rozkład X pod warunkiem Y. Możemy więc losować, dzięki gęstości warunkowej θ i = E(X Y i ) (gdzie Y i są i.i.d. o rozkładzie takim, jak Y ) i wziąć średnią jako nasz estymator. To powinno zredukować wariancję, jednak nie jesteśmy w stanie tego wykazać teoretycznie. Dlatego przejdziemy do przykładu, na którym pokażemy działanie owej metody. Niech X N (µ, σ 2 ) będzie czasem trwania projektu, gdzie µ N (100, 16), σ Exp( 1 4 ). Za każdy dzień opóźnienia po K dniach płacimy Chcemy znaleźć oczekiwaną zapłatę C = E 1000 (X K) +) ( ( ( = E E 1000 (X K) + )) (µ, σ). Wewnętrzną wartość oczekiwaną obliczamy analitycznie dla ustalonych µ i σ. Zajmiemy się teraz przekształceniem tego składnika: ( E 1000 (X K) + ) (µ, σ) = 1000 = 1000 K ( 1 (x K) exp 1 ( ) ) x µ 2 dx 2πσ 2 σ 1 (σv + µ K) exp ( 1 ) 2π 2 v2 dv K µ σ ( = 1000 σ exp 1 2 v2) ( ) µ K (µ K)Φ 2π K µ σ σ [ ( ) ( )] K µ µ K = 1000 σφ + (µ K)Φ σ σ 8

10 W związku z tym algorytm dla warunkowego Monte Carlo jest następujący: for i = 1, 2,..., N do { sample R i U(0; 1), Z i N (0; 1) σ i = 4 ln R i } µ i = Z i ( ) ( ) ( )) C i = 1000σ i (φ K µi σ i + K µi σ i Φ µi K σ i Ĉ = 1 N n C i ) N (Ci Ĉ)2 Var (Ĉ = N(N 1) 1.5 Importance sampling Ostatnią metodą, która zostanie przedstawiona, jest importance sampling. Polega ona na zmianie gęstości w całce tak, by otrzymać rzeczywistą redukcję wariancji. Przypuścmy, że mamy do obliczenia wielkość θ = h (x) f (x) dx, (1.1) R gdzie funkcja f jest pewną gęstością prawdopodobieństwa. Oznacza to oczywiście, że jeśli X będzie zmienną losową o gęstości f, to szukana wielkość jest równa także Eh (X). Powiedzmy, że mamy dodatkowo jeszcze inną gęstość prawdopodobieństwa g. Prawdziwa będzie wtedy równość: θ = R h (x) f (x) h (X) f (X) g (x) dx = E, g (x) g (X) dla X będącego zmienną losową o rozkładzie zadanym tym razem gęstością g. Oczywistym estymatorem jest zatem średnia z wartości h(x i)f(x i ) g(x i ) dla X i będących niezależnymi realizacjami tej zmiennej losowej. Ten pozornie niewiele zmieniający manewr może w rzeczywistości w znaczny sposób zredukować wariancję estymatora. Jeśli mamy bowiem próbkę wielkości N, to wariancja estymatora jest równa: ( ) 1 h (X) f (X) N Var, g (X) dla X o gęstości g. Widać stąd, że jeśli stosunek g do hf jest w przybliżeniu stały, wariancja naszego estymatora jest bardzo niska. To właśnie pokazuje, skąd wzięła się nazwa metody importance sampling - należy losować z konkretnego rozkładu, takiego, dla którego częściej losujemy x, gdy h(x)f(x) jest duże i rzadziej w przeciwnym przypadku. Postaramy się teraz oszacować wariancję estymatora importance sampling, dokładniej 9

11 ( ) wielkość Var h(x)f(x) g(x). Załóżmy dodatkowo, że zamiast g mamy pewną rodzinę rozkładów prawdopodobieństwa g α do wyboru. Przekształćmy nasze wyrażenie: ( ) ( h (X) f (X) h 2 (X) f 2 ) (X) Var = E g α (X) gα 2 θ 2 h 2 (x) f 2 (x) = dx θ 2 (X) R g α (x) { } h (x) f (x) sup h (x) f (x) dx θ 2 = M (α) θ θ 2 x R g α (x) R = θ (M (α) θ), { } gdzie definiujemy M (α) = sup h(x)f(x) x R g α(x). Można wobec tego minimalizować samo M (α). Nie musi to koniecznie dać optymalnej gęstości g α, ale często jest łatwiejsze niż minimalizacja wyjściowego wyrażenia Var co nasza wyjściowa całka (1.1). ( h(x)f(x) g α(x) ), które może być podobnej postaci, 10

12 Rozdział 2 Metody redukcji wariancji - Importance Sampling Magdalena Hubicz Rozdział opracowany na podstawie rozdziału "Applications in Risk Management" książki Paula Glassermana "Monte Carlo Methotds in Financial Engineering", pp , Springer, 2004 Stosowanie symulacji Monte Carlo (MC) jest powszechne przy wycenie skomplikowanych instrumentów pochodnych, jest jednak równie ważne przy zarządzaniu ryzykiem portfela. Dla dużych i rozbudowanych portfeli, zawierających szereg zupełnie róznych instrumentów finansowych, obliczenie miary ryzyka może być poważnym wyzwaniem. Naszą uwagę skierujemy na problem estymacji prawdopodobieństwa dużych strat, co w gruncie rzeczy sprowadza się do symulacji rzadkich, lecz ważnych zdarzeń. 2.1 Value-at-Risk - wartość zagrożona Na samym początku usystematyzujmy oznaczenia: V (S, t) = wartość portfela w chwili t z cenami S S = wektor długości m, zawiera ceny lub stopy zwrotu t = horyzont czasowy, zazwyczaj = S = zmiana cen/stóp w przedziale czasowym t L = V = V (S, t) V (S + S, t + t), strata w przedziale czasowym t F L (x) = P (L < x), dystrybuanta straty L Wartość zagrożoną portfela (VaR) można zdefiniować jako maksymalną stratę rynkowej wartości portfela lub instrumentu finansowego możliwą do poniesienia w konkretnym horyzoncie czasowym i przy założonym poziomie ufności. V ar 0.01 L = inf x {x : P (L x) 0.01} = inf x {x : F L (x) 0.99} 11

13 Z powyższego równania wynika, że VaR jest funkcją kwantyla rozkładu straty. Mianowicie, jeśli dystrybuanta jest ciągła i ściśle rosnąca, to V ar 0.99 L = FL 1 (0.99), w przeciwnym przypadku definiujemy go jako lewy kwantyl. VaR w prosty sposób podsumowuje informacje o ogonie rozkładu i jest postrzegany jako największa strata, jaką można ponieść przy zadanym poziomie ufności. 2.2 Obliczanie VaR-u Jest wiele sposobów obliczania i aproksymowania rozkładu straty i VaR-u, każdy różni się realizmem założeń i stopniem skomplikowania. Wyboru możemy dokonać na podstawie składu portfela i wymaganej dokładności. Spośród wielu dostępnych metod P. Glasserman skupia się na delta-gamma aproksymacji, która dobrze wpasowuje się w metodę Importance Sampling Aproksymacja liniowa Jak dotąd najprostszym podejściem są założenia, że S ma wielowymiarowy rozkład normalny, a V zależy od S liniowo: S N(0, Σ S ) (2.1) V = δ T S (2.2) dla pewnego wektora wrażliwości δ. Wówczas L N(0, σl 2 ) gdzie σ2 L = δt Σ S δ, oraz V ar 0.99 = 2.33σ L ponieważ Φ(2.33) = Delta-Gamma aproksymacja Założenie o liniowości V względem S zachodzi na przykład dla portfela złożonego z samych akcji. Jednak dołożenie do tego portfela opcji całkowicie burzy to podejście. Prostym sposobem na rozszerzenie wzoru 2.2 jest dodanie kolejnych wyrazów z rozwinięcia Taylora, co nazywamy delta-gamma aproksymacją. gdzie V V t t + δt S ST Γ S (2.3) δ i = V S i, Γ ij = 2 V S i S j. Ponieważ δ i Γ są standardowo obliczane przy wycenie, traktujemy jako dane. Aby znaleźć rozkład przybliżenia ze wzoru 2.3, przedstawmy je najpierw w wygodniejszej do przeprowadzenia symulacji formie. Niech S = CZ gdzie Z N(0, 1), a CC T = Σ S. Wówczas L = V = a (C T γ) T Z 1 2 ZT (C T ΓC)Z (2.4) gdzie a = t V t. Aby zdiagonalizować czynnik kwadratowy podstawmy C = CU, gdzie C pochodzi z rozkładu Choleskiego, a U to macierz ortogonalna (UU T = I), której kolumny są wektorami własnymi macierzy 1 2 C T Γ C. Wynika stąd, że 1 2 CT ΓC = 1 2 U T ( C T Γ C)U = U T (UΛU T )U = Λ 12

14 jest macierzą diagonalną z wartościami własnymi λ j macierzy 1 2 C T Γ C na przekątnej. Ustalalając b = C T δ, możemy zapisać wzór 2.4 jako: m L a + b T Z + Z T ΛZ = (b j Z j + λ j Zj 2 ) Q. (2.5) j=1 Analityczny wzór rozkładu Q można policzyć wykorzystując jej funkcję generującą momenty oraz funkcję charakterystyczną, co jest dokładniej opisane w sekcji "Delta-Gamma: Moment Generating Function" omawianego rozdziału książki P. Glassermana. Wykorzystanie delta-gamma aproksymacji ma na celu przyspieszenie metody MC. Nawet w przypadkach gdy metoda ta nie pozwoli osiągnąć precyzyjnego przybliżenia, może być potężnym narzędziem do zmniejszenia wariancji. 2.3 Symulacje Monte Carlo Zgodnie z podstawowym modelem MC obliczenie rozkładu straty i VaR-u jest proste koncepcyjnie: 1. Powtarzamy n razy niezależnie: generowanie wektora zmiany cen S ponowna wycena portfela i obliczenie straty L = V 2. Estymujemy rozkład straty P (L < x) ˆF L,n (x) = 1 n n 1l{L i < x} 3. Obliczamy przybliżenie VaR-u na poziomie p jako ˆx p = 1 ˆF L,n (1 p) Wąskim gardłem tego algorytmu jest krok ponownej wyceny. Dla rozbudowanych portfeli każda wycena może wymagać tysięcy numerycznych procedur (np. rozwiązywania równań różniczkowych cząstkowych, albo zagnieżdżonych symulacji). Dlatego tak ważne jest zmniejszenie liczby scenariuszy potrzebnych do osiągnięcia wymaganej dokładności estymatora. 2.4 Importance Sampling - Losowanie istotne Techniki omawiane niżej są wynikiem pracy Glassermana, Heidelberga i Shahabuddina (2000,2002). Dzięki metodzie Importance Sampling możemy użyć Delta-Gamma aproksymacji do kontrolowania doboru próby scenraiuszy jeszcze przed wyceną portfela. Dokładniej, możemy użyć naszej wiedzy o rozkładzie Q aby zwiększyć prawdopodobieństwo ważnych z naszego punktu widzenia zdarzeń generujących dużą stratę. Zgodnie z założeniami Importance Sampling, gdy chcemy obliczyć Eh(X), gdzie X f możemy, dobierając odpowiednią funkcję g, korzystać z innego rozkładu: Eh(X) = h(x)f(x)dx = h(x) f(x) g(x) g(x)dx = E gh(y ) f(y ) g(y ), gdzie Y g W jaki sposób dobrać funkcję g? Według autora najlepszym sposobem będzie wykorzystanie wykładniczej zmiany miary (Exponential Twisting), która prowadzi do 13

15 efektywnego zredukowania wariancji. Dokładniej mówiąc, definiujemy rodzinę miar prawdopodobieństwa poprzez iloraz: dp θ dp = expθq ψ(θ), (2.6) gdzie ψ jest funkcją generującą kumulanty (log(exp θq )), a θ jest dowolną liczbą rzeczywistą dla której ψ(θ) <. Stąd zaś P(Q > x) = E θ [exp θq+ψ(θ) 1l{Q > x}] Jeśli θ jest dodatnia, to P θ daje większe prawdopodobieństwo dużych wartości Q, niż dawała miara pierwotna P. Ściślej mówiąc, drugi moment estymatora IS, to E θ [exp 2θQ+2ψ(θ) 1l{Q > x}] = E[exp θq+ψ(θ) 1l{Q > x}] exp θx+ψ(θ), (2.7) który maleje wykładniczo względem x, gdy θ > 0. Powyższy pomysł zmiany miary przenosi się również na problem estymacji P(L > x). 2.5 Losowanie z nowej miary Aby użyć zaprezentowanej metody IS musimy umieć wygenerować niezależnie exp θq+ψ(θ) 1l{L > x} w nowej mierze P θ. Innymi słowy, musimy umieć wygenerować pary (Q, L) względem P θ. Przypomnijmy jednak, że zgodnie z naszymi przekszałceniami nie generujemy (Q, L) bezpośrednio. Bazujemy na Z N(0, I), a (Q, L) = f(z) dla pewnej deterministycznej funkcji f. Skoro w ten sposób otrzymujemy rozkład (Q, L) dla wyjściowej miary P, to aby otrzymać (Q, L) względem P θ, wystarczy losować Z ze zmodyfikowanego rozkładu. Zgodnie z wynikami GHS (2000, Variance reduction techniques for estimating value-at-risk)) opartymi na analizie delta-gamma aproksymacji Z N(µ(θ), Σ(θ)), gdzie Σ(θ) jest macierzą diagonalną z σj 2 (θ) na przekątnej, oraz µ j (θ) = θb j 1 2λ j θ, σ2 j (θ) = Pamiętając o nałożonym warunku ψ(θ) < wymagamy, by 2λ j θ < 1. Aby pokazać, że jest to właściwy rozkład, spójrzmy ogólniej. Dla dowolnych µ i Σ iloraz gęstości N(µ, Σ) i N(0, I) jest dany przez Σ 1/2 exp( 1 2 (Z µ)t Σ 1 (Z µ)) exp( 1. 2 ZT Z) 1 1 2λ j θ. (2.8) Podstawiając wartości ze wzoru 2.8 i odpowiednio upraszczając, iloraz redukuje się do exp(θq + ψ(θ)), z Q zależnym od Z zgodnie ze wzorem 2.5. Ponieważ jest to iloraz za pomocą którego definiowaliśmy miarę P θ, rzeczywiście możemy wnioskować, że Z w tej mierze ma parametry podane we wzorze

16 2.6 Algorytm Importance Sampling 1. Wybierz wartość θ > 0 dla której ψ(θ) < 2. Dla każdej z n replikacji: generuj Z z rozkładu N(µ(θ), Σ(θ)) z parametrami określonymi we wzorze 2.8. oblicz Q bazując na Z zgodnie ze wzorem 2.5 ustal S = CZ wyceń portfel V (S + S, t + t) i oblicz stratę L oblicz exp θq+ψ(θ) 1l{L > x} 3. Oblicz estymator 1 n n exp θq+ψ(θ) 1l{Q > x} 2.7 Wybór parametru zmiany miary - θ Pierwszy krok algorytmu IS wymaga od nas wyboru parametru θ. Ponieważ brak nam dodatkowych informacji, wybierzemy wartość θ efektywną w obliczaniu P(Q > x), a otrzymany wynik zastosujemy do estymacji P(L > x). Zgodnie z nierównością 2.7 możemy zminimalizować ograniczenie górne drugiego momentu estymatora IS wybierając dla każdego x, θ minimalizujące ψ(θ) θx. Funkcja ψ jest wypukła (gdyż jest funkcją generującą kumulanty), skąd wynika fakt iż wyrażenie osiąga minimum w punkcie θ x, będącym pierwiastkiem równania ψ (θ x ) = x. Dodatkowo θ x posiada interpretację, która rzuca więcej światła na wykorzystanie go w metodzie IS. Różniczkując wyrażenie definiujące ψ(θ) = loge[exp(θq)] dostajemy: ψ (θ) = E[Q expθq ] E[exp θq ] = E[Q exp θq ψ(θ) ] = E θ [Q] zgodnie z równaniem 2.6 definiującym rodzinę nowych miar prawdopodobieństwa. Wybierając θ = θ x generujemy próbki z rozkładu w którym E θx [Q] = x. Podczas gdy w oryginalnym rozkładzie x był w ogonie rozkładu, po zastosowaniu Importance Sampling jest on blisko środka nowego rozkładu. Pozwala nam to w znacznym stopniu zmniejszyć liczbę symulacji wymaganych do osiągnięcia żądanej dokładności estymatora. Aby policzyć wartość VaR-u przy pomocy metody prostego MC musimy wygenerować różne scenariusze cen, wyznaczyć straty i obliczyć kwantyl empiryczny rozkładu straty. Brzmi prosto, lecz policzenie straty wymaga obliczenia wartości przyszłej portfela, co może prowadzić do wewnętrznych symulacji MC lub innych złożonych metod numerycznych. Chcielibyśmy zatem zredukować liczbę scenariuszy, lecz to może spowodować utratę precyzji estymacji. Z pomocą przychodzi metoda redukcji wariancji - Importance Sampling. 15

17 Rozdział 3 Important Sampling w Monte Carlo jako sposób estymacji kwantyli Patrycja Pol Rozdział opracowany na podstawie pracy "Importance Sampling for Monte Carlo estimation of Quantiles ", autorstwa Petera W. Glynna 3.1 Wstęp Praca Glynna skupia się na zastosowaniu techniki redukcji wariancji znanej jako metoda Important Sampling jako narzędzia do obliczenia kwantyli. Przedstawione zostanie wyprowadzenie Centralnego Twierdzenia Granicznego dla dwóch proponowanych estymatorów. Dla zdefioniowania problemu przyjmijmy dalsze założenia: niech X będzie zmienną losową o wartościach rzeczywistych z dystrybuantą F (). Dla 0 < p < 1, wielkość: F 1 (p) = inf x F (x) p nazywana jest p kwantylem X. Główny problem estymacji tej wartości zależy od efektywności metody. Sama estymacja kwantyli jest w sobie interesująca, ponieważ znajduje zastosowanie w bardzo wielu obszarach. Przykładem może być liczenie wartości krytycznych wymaganych w testach statystycznych, gdzie niemożliwm jest tam policzenie analitycznie. Drugim ciekawym zagadnieniem jest związek estymacji kwantyli z przemysłem. Chodzi mianowicie o udoskonalenie sposobu określania daty ważności towaru, tak by firmy mogły gwarantować z jak najwyższym prawdopodobieństwem, że trafi on do klientów w dobrym stanie. 3.2 Podstawowy pomysł Zasadniczym celem jest obliczenie wartości α = F 1 (p) ( szczególnie dla p bliskiemu 0 lub 1). Stndardowa estymacja α metodą Monte Carlo wiąże się z generowaniem niezależnych zmiennych losowych X 1, X 2,... posiadających wspólną dystrybuantę F. Wówczas 16

18 estymator α ma następującą postać: α n = F 1 n (p) = inf F n(x) p x gdzie F n nazywana jest dystrybuantą empiryczną: α ma następującą postać: F 1 n (x) = 1 n 1lt (X i x) Chcąc zastosować metodę important sampling (losowanie istotne), wybieramy dystrybuantę F dla której potrafimy wygenerować zmienne i takiej, że rozkład prawdopodobieństwa powiązany z F jest absolutnie ciągły w odniesieniu do rozkładu F. To implikuje istnienie gęstości p( ) takiej, że F (dx) = p( ) F dla każdego x R. Zakłada się, że p( ) jest znaną funkcja. Niech P ( ) ( P ( )) i E( ) (Ẽ( )) będą odpowiednimi funkcjami prawdopodobieństwa i wartości oczekiwanej. Ze wzoru 3.2 wynika: P (X i x) = ẼL i1l(x i x) P (X i > x) = ẼL i1l(x i > x) gdzie L i = p(x i ). Niech L = n 1 L i. Daje to następujące estymatory dla F ( ): F 1n (x) = 1 n 1l(Xi x) F 2n (x) = 1 1 n 1l(Xi > x) Pozwala to zdefiniować następujące estymatory dla α: α in = inf x F n(x) p dla i = 1, 2. Głównym rezultatem tej części jest Centralne Twierdzenie Graniczne dla przedstawionych dwóch estymatorów. Twierdzenie 3.1. Niech ẼL2+δ i < i F różniczkowalna w α = F 1 (p) oraz F (α) > 0. Wtedy, dla i = 1, 2 n 1 2 ( αin α) = σ i N(0, 1) dla n, gdzie σ 2 1 = (Ẽ[L2 1 1l(X 1 α)] p 2 ) F (α) 2, σ 2 2 = (Ẽ[L2 1 1l(X 1 > α)] (1 p 2 )) F (α) 2 (Dodatkowo zbieżność dystrybuant jest jednostajna.) Warte zauważenia jest, że jeśli F = F, wówczas Li = 1 i w twierdzeniu 3.1 otrzyma się Centralne Twierdzenie Graniczne dla umownego estymatora kwantyla α n. Mając zbiór symulacji (X 1, L 1 ),..., (X n, L n ) wygenerowany z rozkładu P, oblicznie α in przebiega podobnie jak dla α n. Najpierw należy posortować wartości X i w porządku rosnącym otrzymując (X (1),..., X (n) ). Teraz α 1n = X σ(i1 ) gdzie i 1 jest najmniejszym takim, by i1 j=1 p(x (j) ) pn, natomiast α in = X σ(i1 ) gdzie i 2 największym takim, dla którego nj=i2 p(x (j) ) (1 p)n. Wówczas problemem staje się znalezienie dobrego estymatora F (α). 17

19 3.3 Kandydat Important Sampling na dystrybuantę W teori prawdopodobieństwa Large Deviations theory koncentruje się na asymptotycznym zachowaniu "ogona" dystrybuanty. Efektem jest wzór: P (X > x) exp( xθ x + φ(θ x )) spełniony dla x EX, gdzie θ x jest pierwiastkiem równania φ(θ x ) = x, a φ(cdot) jest generatorem X. Aproksymacja ogona sugeruje aproksymacje kwantyli. Niech zatem θ p będzie rozwiązaniem równania: Wtedy dla p bliskich 1: θ p φ ( θ p ) + φ( θ p ) = log(1 p). (3.1) P (X > φ ( θ p )) 1 p. (3.2) Sugeruje to, że φ ( θ p ) może byc użyte jako aproksymacja kwantyla α(p) = F 1 (p). Zauważmy, że jeśli F = exp( θp x φ( θ p ))F (dx) to średnią dla dystrybuanty important sampling jest φ ( θ p ). Relacja 3.2 dowodzi, że losowanie dla F z właściwej częsci ogona powiązanego z kwantylem α(p) nie jest więc rzadki, co sugeruje możliwość redukcji wariancji. Ta droga jest możliwa, kiedy φ(cdot) jest znana i zmienne powiązane z F mogą być generowane w prosty sposób. Należy zauważyć, że x(θ) = θφ (θ) + φ(θ) ma pochodną równą θφ (θ). Ponieważ φ jest wypukła to x(θ)jest malejąca oraz rozwiązanie dla 3.1 jest jednoznaczne. Rozpatrzmy teraz problem estymacji kwantyla rzędu p dla rozkładu N(0, 1) dla p bliskiemu 1. Wtedy θ p = ( 2log(1 p)) 1 2 oraz F jest dystrybuantą rozkładu normalnegi ze średnią µ = ( 2log(1 p)) 1 2 i jednostkową wariancją. Każdy z kwantyli F (α) 2 σ 2 i (dla,2) może zostać przedstawiony w terminach ẼL2 1 oraz ẼL2 1 1l(X 1 > α). Niech N N(0, 1). Zauważmy, że p(x) = exp( (2xy y 2 )/2), a zatem: Podobnie można pokazać, że ẼL 2 1 = E exp( (2(N + y)y y 2 )) = exp(y 2 ) = (1 p) 2 ẼL 2 11l(X 1 > α) = exp(µ 2 )P (N > α + µ) Korzystając z odpowiednich twierdzeń dla α µ, gdy p 1: dla x wtedy To dowodzi, że dla p 0: oraz dla p 1: P (N > x) exp( x2 2 )/(x 2π) log ẼL2 11l(x 1 > α) 2log(1 p). F (α) 2 σ 2 1 (1 p) 2 F (α) 2 σ 2 2 (1 p) 2. 18

20 3.4 Analiza asymptot Rzekomo α i F mogą zostać użyte jako redukcja wariancji. Pokażemy, że faktycznie tak jest. Będziemy rozważać X = S m = Y Y m, gdzie Y i są niezależnymi zmiennymi losowymi. Szukamy kwantyla p dla S m, gdzie p = 1 exp( β m ). Niech φ Y (θ) = logeexp(θy i ) i θ p będzie pierwiastkiem θ p φ Y ( θ p ) + φ Y ( θ p ) = β (3.3) Za gęstość bierzemy exp( θ p S m mφ Y ( θ p )). Chcemy teraz porównać wariancję α 2n i α n przy n. Mamy wtedy:n frac12 (α n α) σn(0, 1) gdy n, gdzie σ 2 = p(1 p)/f (α). Do porównania granicznych zachowań σ 2 i σ2 2 zostanie wykorzystane poniższe twierdzenie. Twierdzenie 3.2. Niech 3.3 ma dodatnie rozwiązanie i φ Y ( ) będzie różniczkowalne w otoczeniu θ p. Wówczas log F (α)σ 2 lim = β (3.4) m m log F (α)σ 2 lim m m 2β (3.5) 19

21 Rozdział 4 Asymptotyczna reprezentacja estymatorów Importance sampling dla Value-at-Risk oraz Conditional Value-at-Risk Marcin Sosnowski, Piotr Wiązecki Rozdział opracowany na podstawie pracy L. Sun, L. J. Hong A general framework of Importance Sampling for Value-at-Risk and Conditional Value-at- Risk, Winter Simulation Conference, pp , 2009 Value-at-Risk oraz Conditional Value-at-Risk są popularnymi miarami ryzyka. Zazwyczaj nie wyznacza się ich analitycznie, za to korzysta się z metod Monte Carlo. Ze względu na specyficzną postać estymatorów naturalną metodą polepszenia ich wiarygodności jest Importance Sampling. Okazuje się, że estymatory te mają szereg dobrych własności, takich jak mocna zgodność i asymptotyczna normalność. 4.1 Value-at-Risk, Conditional Value-at-Risk i ich estymatory Niech X oznacza przyszłą wartość danej pozycji finansowej. Zakładamy, że X jest zmienną losową o skończonej wartości oczekiwanej. Niech F oznacza dystrybuantę zmiennej X. Value-at-Risk (VaR) na poziomie ufności α dla zmiennej losowej X jest zdefiniowana jako ν α = inf{x : F (x) α}, z kolei Conditional Value-at-Risk (CVaR) definiujemy jako c α = 1 α α 0 ν t dt lub równoważnie c α = ν α 1 α E(ν α X) +. 20

22 Naturalne stymatory Monte Carlo dla VaR i CVaR, obliczane przy użyciu n niezależnych próbek X 1,... X n z rozkładu X mają następującą postać: ν n α = inf{x : F n (x) α}, c n α = ν n α 1 nα n ( ν α n X i ) +, gdzie F n jest dystrybuantą empiryczną rozkładu X obliczaną w następujący sposób: F n (x) = 1 n 1l n {Xi x} Te estymatory są nieobciążone, mocno zgodne, asymptotycznie normalne. Problem polega na tym, że w zastosowaniach α jest przeważnie bliskie 0, zaś wkład do otrzymania tych estymatorów mają tylko próbki z ogona rozkładu, przez co do wyprodukowania wiarygodnego wyniku liczba n powinna być być bardzo duża. Importance sampling pozwala alokować więcej próbek do lewego ogona rozkładu, co powinno poprawić efektywność estymatorów. Wprowadzamy rozkład o dystrybuancie G, z którego będziemy losować. Zakładamy, że jest to rozkład absolutnie ciągły względem F i niech L(x) = F (dx) G(dx) będzie gęstością rozkładu F względem G. Wówczas estymatory IS przyjmują postać: ˆF n (x) = 1 n 1l n {Li x}l(l i ), ˆν α n = inf{x : ˆF n (x) α}, ĉ n α = ˆν α n 1 n (ˆν α n L i ) + L(L i ), nα gdzie L i są iid próbkami z rozkładu G. Aby wyprowadzić asymptotyczną postać powyższych estymatorów, czynimy natępujące założenia: Założenie 1. Istnieje ε > 0, taki że zmienna L ma niezerową, różniczkowalną gęstość f w przedziale (ν α ɛ, ν α + ε), Założenie 2. Istnieje stała C > 0, taka że L(x) C dla x < ν α + ε Założenie 1 implikuje F (ν α ) = α oraz c α = E(X X ν α ). Ostatnia równość stanowi interpretację miary CVaR jako średniej wielkości naszej pozycji finansowej w α najgorszych przypadków. Zwróćmy uwagę, że założenie 2 nie jest zbyt restrykcyjne - gęstość G będziemy wybierać tak, aby alokowała więcej próbek do lewego ogona rozkładu, zatem zapewne na lewo od ν α będziemy mieli G(x) > F (x), czyli L(x) < 1. Założenie 2 można też osłabić do następującego: Założenie 2a. Istnieje stała C > 0, taka że L(x) C dla x (ν α + ε, ν α + ε), ponadto istnieje stała p > 2, taka że E(1l {L να+ε}l p (L)) <, wpływa to nieznacznie na pogorszenie pewnych oszacowań, jednak wnioski dotyczące mocnej zgodności i asymptotycznej normalności obu estmatorów pozostają te same. 21

23 4.2 Asymptotyczna reprezentacja estymatorów Będziemy potrzebować pewnego oznaczenia. Niech Y n będzie ciagiem zmiennych losowych, a n niech będzie ciagiem liczbowym. Wówczas notacja oznaczać będzie, że Możemy teraz sformułować Y n = O(a n ) p.n. P( C>0 Y n C a n dla dostatecznie dużych n) = 1. Twierdzenie 4.1. Przy założeniach 1 i 2 dla każdego α (0, 1) gdzie A n = O(n 3 4 (log n) 3 4 ) p.n. ˆν n α = ν α + 1 f(ν α ) (α 1 n n 1l {Li ν α}l(l i )) + A n, Zauważmy, że w oryginalnej pracy Sun a i Hong a w analogicznym twierdzeniu (Twierdzenie 3.1 tamże) podany jest rząd zbieżności A n = O((n 3 4 (log n) 3 4 ). Jest to błąd, co wynika z późniejszej pracy tych samych autorów 1. Powyższe Twierdzenie pozwala przedstawić estmator jako sumę zmiennych niezależnych o tym samym rozkładzie plus składnik szybko zbiegający do zera prawie na pewno. Poniżej szkic dowodu: Ze wzoru Taylora otrzymujemy dla ˆν n α dostatecznie bliskich ν α : F (ˆν n α) = F (ν α ) + f(ν α )(ˆν n α ν α ) A 1,n, gdzie A 1,n jest residualnym składnikiem, o którym spodziewamy się, że jest w pewnym sensie mały. Przepisując inaczej dostajemy ˆν n α = ν α + F (ˆνn α) F (ν α ) f(ν α ) + 1 f(ν α ) A 1,n. Oznaczając teraz możemy napisać A 2,n = F (ˆν n α) + ˆF n (ν α ) ˆF n (ˆν n α) F (ν α ), A 3,n = ˆF n (ˆν n α) F (ν α ) Wstawiając do wzoru na ˆν n α dostajemy F (ˆν n α) F (ν α ) = F (ν α ) ˆF n (ν α ) + A 2,n + A 3,n. ˆν n α = ν α + F (ν α) ˆF n (ν α ) f(ν α ) + A 1,n + A 2,n + A 3,n. f(ν α ) 1 L. Sun, L. J. Hong Asymptotic Representations for Importance-Sampling Estimators of Value-at-Risk and Conditional Value-at-Risk, Operations Research Letters, vol. 38, no. 4, pp ,

24 We wspomnianej pracy "Asymptotic Representations for Importance-Sampling Estimators of Value-at-Risk and Conditional Value-at-Risk" autorzy obliczają rzędy zbieżności poszczególnych członów (Lemma 1): A 1,n = O(n 1 log n) p.n., A 2,n = O(n 3 4 (log n) 3 4 ) p.n., A 3,n = O(n 1 ) p.n. Dowód jest bardzo techniczny, ale wymaga jedynie znajomości prostych nierówności z podstawowego kursu rachunku prawdopodobieństwa: nierówności Azumy-Hoeffdinga oraz nierówności Bernsteina. Po przyjęciu A n = A 1,n + A 2,n + A 3,n otrzymujemy postać ˆν n α taką jak w Twierdzeniu. W szczególnym przypadku L 1 otrzymujemy asymptotyczne rozwinięcie dla CMC estymatora VaR. Z Twierdzenia reftwierdzenie1 płyną dwa ważne wnioski: Wniosek 4.1. ˆν n α ν α prawie na pewno gdy n Wniosek 4.2. V ar[1l n(ˆν n {L να}l(l)] α ν α ) N (0, 1) według rozkładu. f(ν α ) Pierwszy wniosek wynika z Mocnego Prawa Wielkich Liczb, drugi jest konsekwencją Centralnego Twierdzenia Granicznego oraz faktu, że na n 0 prawie na pewno. Asymptotyczna reprezentacja V ar pomaga również uzyskać asymptotyczną postać estmatora CV ar. Przypomnijmy: co możemy zapisać w postaci ĉ n α = ν α 1 nα ĉ n α = ˆν n α 1 nα n (ˆν α n L i ) + L(L i ), n (ν α L i ) + L(L i ) + (ˆν α n ν α ) 1 n [(ˆν α n L i ) + (ν α L i ) + ]L(L i ). nα Korzystając z rezultatów osiągniętych dla estymatora ˆν α n Sun i Hong obliczają rząd zbieżności rezydualnych członów, otrzymując następującą asymptotyczną postać estymatora ĉ n α: ĉ n α = ν α 1 n (ν α L i ) + L(L i ) + B n, nα gdzie B n = O(n 1 log n) p. n. Po przegrupowaniu wyrazów, otrzymujemy następujące Twierdzenie 4.2. Przy założeniach 1 i 2 dla każdego α (0, 1) gdzie ĉ n α = c α + ( 1 n [ν α 1 n α (ν α L i ) + L(L i )] c α ) + B n, B n = O(n 1 log n) p. n. 23

25 Biorąc L 1, otrzymujemy w szczególności, że powyższze Twierdzenie zachodzi także dla zwykłego estymatora MC. Z Twierdzenia 4.2 płyną dwa ważne wnioski: Wniosek 4.3. ĉ n α ν α prawie na pewno gdy n Wniosek 4.4. n(ĉ n V ar[(να L i ) α c α ) + L(L)] N (0, 1) według rozkładu. α Pierwszy wniosek wynika z Mocnego Prawa Wielkich Liczb, drugi jest konsekwencją Centralnego Twierdzenia Granicznego oraz faktu, że nb n 0 prawie na pewno. Widzimy zatem, że estymatory Importance Sampling dla VaR oraz CVaR są nie tylko nieobciążone, ale także mocno zgodne oraz asymptotycznie normalne. Dzięki tym własnościom estymatory te mogą być z powodzeniem stosowane w obliczeniach VaR i CVaR, gdzie, jak pokazano w jednym z poprzednich rozdziałów, działają niesamowicie efektywnie. 24

26 Część II Zastosowanie metod Monte Carlo: wycena opcji amerykańskich 25

27 Rozdział 5 Symulacyjna wycena opcji amerykańskich - algorytm Longstaffa-Schwartza Katarzyna Cybulska, Maria Pawłowska Rozdział opracowany na podstawie pracy Francis A. Longstaff, Eduardo S. Schwartz "Valuing American Options by Simulation: A Simple Least-Squares Approach", Review of Financial Studies, 2001, pp Jednym z najważniejszych problemów w teorii wyceny opcji jest wycena oraz znajdowanie optymalnego momentu wykonania opcji typu amerykańskiego. Opcje tego typu pojawiają się na wszystkich większych rynkach finansowych. Wycena opcji typu amerykańskiego staje się jeszcze bardziej skomplikowana, gdy na wycenę opcji wpływa kilka czynników. W takim wypadku metody drzewka dwumianowego i różnic skończonych stają się trudne w implementacji i przez to niepraktyczne. Artykuł Longstaffa i Schwartza przedstawia symulacyjne podejście do problemu wyceny opcji typu amerykańskiego. Znajduje zastosowanie przy wycenie nawet bardzo skomplikowanych opcji egzotycznych, przy różnych modelach aktywa bazowego oraz stóp procentowych. 5.1 Prosty przykład Na prostym przykładzie prześledzimy działanie algorytmu. Rozważmy opcję amerykańską o terminie wykonania T. W chwili T wykonamy opcję amerykańską jeśli będzie ona w pieniądzu. W każdej poprzedzającej chwili czasu będziemy musieli dokonać wyboru: czy opłaca nam się wykonać opcję od razu, czy lepiej poczekać i wykonać ją później. Podczas podejmowania takiej decyzji porównujemy faktyczny przepływ jaki możemy otrzymać w przypadku natychmiastowego wykonania opcji ze zdyskontowaną warunkową wartością oczekiwaną przyszłych przepływów, jakie możemy otrzymać wykonując opcję później. Dlatego kluczowym zadaniem na które natykamy się podczas wyceniania opcji amerykańskiej jest szacowanie owej warunkowej wartości oczekiwanej. Algorytm Longstaffa-Schwartza (zwany dalej algorytmem LSM) wykorzystuje dane ze wszystkich wygenerowanych ścieżek do odnalezienia warunkowej wartości oczekiwanej. 26

28 Rozważmy amerykańską opcję sprzedaży na akcję nie płacące dywidendy. Cena wykonania opcji wynosi 1.1 w chwilach T = 1, 2, 3, gdzie T = 3 to ostateczny termin zapadalności opcji. Stopa bezryzykowna wynosi 6%. Dla prostoty prześledzimy działanie algorytmu dla 8 ścieżek, generowanych przy pomocy miary martyngałowej: Rysunek 5.1: Ścieżki wartości akcji Poruszając się od chwili T = 3 wstecz będziemy ustalać optymalny moment stopu dla każdej ze ścieżek. Przepływy pieniężne z wykonania opcji w chwili T = 3 pod warunkiem, że nie wykonaliśmy opcji w T = 1, 2 przedstawia tabela: Rysunek 5.2: Przepływy w chwili T = 3. Jeżeli opcja jest w pieniądzu w chwili T = 2 posiadacz opcji musi zdecydować czy wykonać opcję natychmiast, czy poczekać do chwili T = 3. Jak widać w tabeli 5.1 jest tylko 5 ścieżek spełniających ten warunek. Oznaczmy przez Y zdyskontowane przyszłe przepływy wynikające w wykonania opcji w chwili T = 3 a przez X wartość akcji w chwili T = 2. Do estymacji wartości oczekiwanej używamy tylko ścieżek, dla których opcja w chwili T = 2 jest w pieniądzu, ponieważ pomaga to lepiej oszacować warunkową wartość oczekiwaną tam, gdzie jest ona nam potrzebna oraz poprawia to znacznie wydajność algorytmu. 27

29 Rysunek 5.3: Zdyskontowane przyszłe przepływy i wartość akcji w chwili T = 2 W dalszej części algorytmu rzucamy Y na przestrzeń liniową stworzoną ze stałej, X oraz X 2. Jest to bardzo prosty typ wielomianów bazowych, w dalszej części referatu zostały omówione inne możliwe wybory wielomianów bazowych. Korzystając z metody najmniejszych kwadratów otrzymujemy rozwiązanie: E[X Y ] = X 1.813X 2. Kolejna tabela przedstawia wartośći przepływów wynikających z natychmiastowego wykonania opcji (pierwsza kolumna) i warunkową wartość oczekiwaną przyszłych przepływów (druga kolumna). Rysunek 5.4: Porównanie przepływów z chwili T = 2 z warunkową wartością oczekiwaną przyszłych przepływów Porównując przepływy z chwili T = 2 z warunkową wartością oczekiwaną przyszłych przepływów podejmujemy decyzje: wykonujemy opcję teraz, gdy wartość przepływu z natychmiastowego wykonania opcji jest wyższa, lub nie wykonujemy opcji, gdy warunkowa wartość oczekiwana jest wyższa. Tabela poniżej obrazuje uzyskane przepływy w wyniku kierowania się taką strategią: 28

30 Rysunek 5.5: Przepływy wynikające z kierowania się strategią algorytmu Postępując rekursywnie zastanowimy się, czy algorytm powinien być wykonany w chwili T = 1. W tabeli ścieżek wartości akcji widzimy tylko 5 ścieżek, w których opcja jest w pieniądzu w chwili T = 1. Tabela 5.6 przedstawia nowo zdefiniowane wartości X i Y : Y oznacza zdyskontowane przyszłe przepływy wynikające w wykonania opcji w chwili T = 2 lub T = 3 (ale tylko w jednej z tych chwil) a X wartość akcji w chwili T = 1. Rysunek 5.6: Zdyskontowane przyszłe przepływy i wartość akcji w chwili T = 1 Podobnie jak w poprzednim kroku postaramy się wyrazić Y przy pomocy stałej, X oraz X 2. Wyestymowana przy pomocy metody najmniejszych kwadratów warunkowa wartość oczekiwana przyjmuje postać: E[X Y ] = X X 2. Posiadając wzór na warunkową wartość oczekiwaną możemy porównać przepływy jakie wynikną z wykonania opcji w chwili T = 1 z warunkową wartością oczekiwaną przyszłych przepływów: 29

31 Rysunek 5.7: Porównanie przepływów z chwili T = 1 z warunkową wartością oczekiwaną przyszłych przepływów Na podstawie wartości z tabeli 5.7 możemy znów podobnie jak w poprzednim kroku podjąć decyzje czy opłaca nam się wykonać opcję w chwili T = 1 czy poczekać z jej wykonaniem do chwili T = 2 lub T = 3. Zbierając decyzje z pierwszego i drugiego kroku algorytmu w całość otrzymujemy optymalny moment stopowania dla każdej ścieżki: Rysunek 5.8: Optymalne momenty stopowania Podążając za regułą stopowania wyznaczoną przez tabelę 5.8 otrzymujemy następujące przepływy: 30

32 Rysunek 5.9: Przepływy wynikające ze stosowania reguły stopowania Ostatnim krokiem algorytmu jest zdyskontowanie przepływów z 5.9 na chwilę T = 0 w celu uzyskania ceny opcji amerykańskiej. Cena ta wynosi za jednostę nominału. 5.2 Algorytm Rozpatrzmy zupełną przestrzeń probabilistyczną (Ω, F, P) i skończony horyzont czasowy [0, T ], gdzie Ω to zbiór możliych realizacji stochastycznej ekonomii, F jest σ-ciałem rozróżnialych zdarzeń w chwili T, a P jest miarą probabilistyczną zdefiniowaną na elementach F. Zgodnie z teorią o braku arbitrażu, zakładamy tez istnienie miary martyngałowej Q. Chcemy wycenić opcję amerykańska o losowych wypłatach, które są elementami przestrzeni funkcji całkowalnych z kwadratem lub o skończonej wariancji. Śćieżkę przepływów pieniężnych generowanych przez opcję, która nie jest wykonana przed lub w chwili t, będziemy oznaczać przez C(ω, s; t, T ). Algorytm zakłada, że opcję możemy wykonać tylko w skończonej ilości momentów K. Do opcji, które mogą byc realizowane każdej chwili również można zastosować algorytm, wystarczy dobrać odpowiednio duże K. W każdym momencie t 1,..., t K inwestor decyduje czy zrealizować opcję czy trzymać ją dalej, przy czym realizacja następuję gdy tylko wartość oczekiwana z dalszego trzymania opcji jest niewiększa niż wypłata z jej natychmiastowgo wykonania. Znamy wypłatę z realizacji w danym momencie t k, natomiast wartość oczekiwana z dalszego trzymania opcji będzie wyrażona wzorem: F (ω; t k ) = E Q [ K j=k+1 tj exp( r(ω, s)ds)c(ω, t j ; t k, T ) F tk ] t k gdzie r(ω, t) jest bezryzykowną stopą dyskontową, a wartość oczekiwana jest obliczana pod warunkiem zbioru F tk (informacji w chwili t k ). Wówczas problem optymalnego momentu stopu sprowadza się do porównywania wartości z natychmiastowego wykonania opcji i warunkowej wartości oczekiwanej oraz realizacja opcji gdy tylko ta pierwsza jest dodatnia i większa lub równa warunkowej wartości oczekiwanej. Algorytm wykorzystuje metodę najmniejszych kwadratów, żeby aproksymować funkcję warunkowej wartości oczekiwanej, zaczynając od t K 1 i przesuwając się rekurencyjnie dalej aż do t 1. Zakładamy, że F (ω; t k ) może być przedstawiona jako kombinacja liniowa przeliczalenego zbioru 31

33 funkcji bazowych. Autorzy wymieniają tu m.in.:wielomiany Laguerre a, Hermite a oraz Legendre a. Implementacja algorytmu polega na wybraniu M < funkcji bazowych, a przybliżenie F (ω; t k ) w tej bazie nazywamy F M (ω; t k ). Nastepnie estymujemy F M (ω; t k ) korzystając z rzutów lub regresji zdyskontowanych wartości C(ω, s; t, T ) na funkcje bazowe. Bierzemy pod uwagę jedynie ścieżki w kórych opcja była w chwili t K 1 "in the money", ponieważ tylko wtedy realizacja opcji jest sensowna. Następnie możemy porównać estymator warunkowej wartości oczekiwanej i wartości z natychmiastowej realizji i podjąć decyzję co do wykonania opcji. Teraz możemy przejść do chwili t K 2 i tak dalej. Cenę opcji wyliczamy wtedy zaczynając w chwili zero i poruszając się wzdłuż każdej ścieżki aż do napotkania pierszego momentu stopu, dyskontując przepływ pienieżny z realizacji opcji do chwili zero, a następnie obiczając średnią po wszystkich ścieżkach ω. 32

34 Rozdział 6 Analiza algorytmu Longstaffa-Schwartza do wyceny opcji amerykańskich Piotr Bochnia, Paweł Marcinkowski Rozdział opracowany na podstawie pracy E.Clement, D. Lamberton, P. Protter An analysis of the Longstaff-Schwartz algorithm for American option pricing, Cornell University Operations Research and Industrial Engineering, 2001 Algorytm zaproponowany w 2001 roku przez F. A. Longstaffa i E. S. Schwartza jest jedną z metod symulacyjnej wyceny opcji amerykańskich. Opiera się on na przybliżaniu wartości oczekiwanej wypłaty z opcji pod warunkiem jej niewykonania za pomocą estymatora najmniejszych kwadratów. Praca skupia się na udowodnieniu zbieżności algorytmu, a także zawiera wyniki dotyczące tempa tej zbieżności. 6.1 Zagadnienie wyceny opcji amerykańskiej Niech (Ω, A, P) będzie przestrzenią probabilistyczną z dyskretną filtracją (F j ) j=0,1,...,l, gdzie L oznacza horyzont czasowy, zaś niech (Z j ) j=0,1,...,l oznacza ciąg zdyskontowanych wypłat z opcji amerykańskiej, będących zmiennymi losowymi całkowalnymi z kwadratem. Zakładamy tu dla uproszczenia, że opcja może być wykonana jedynie w skończonej liczbie momentów czasu 0, 1,..., L, a więc w istocie przybliżamy wartość opcji amerykańskiej za pomocą opcji bermudzkiej. Wycena takiej opcji polega na obliczeniu wielkości U 0 = sup τ T0,L EZ τ, gdzie T j,l jest zbiorem momentów zatrzymania o wartościach w {j, j + 1,..., L}. Korzystając z klasycznej teorii optymalnego stopowania można łatwo pokazać, że U 0 = EZ τ0, gdzie τ 0 jest momentem stopu wyznaczonym rekurencyjnie: τ L = L τ j = j1 Zj E(Z τj+1 F j ) + τ j+1 1 Zj <E(Z τj+1 F j ) Problem wyceny opcji sprowadziliśmy więc do problemu obliczenia momentów zatrzymania τ j, tj. momentów optymalnego wykonania opcji, pod warunkiem, że nie wykonano jej przed chwilą j. 33

35 6.2 Algorytm Longstaffa-Schwartza Niech (X j ) j=0,...,l będzie ciągiem cen instrumentu bazowego, który jest (F j ) łańcuchem Markowa na przestrzeni stanów (E, E). Pierwszym krokiem algorytmu jest przybliżenie warunkowych wartości oczekiwanych E(Z τj+1 F j ) = E(Z τj+1 X j ) za pomocą rzutu ortogonalnego na przestrzeń generowaną przez skończoną liczbą zmiennych z ciągu (e k (X j )) k 1, gdzie (e k ) k 1 są funkcjami mierzalnymi E R, spełniającymi następujące warunki A 1 : (e k (X j )) k 1 tworzą układ zupełny w L 2 (σ(x j )) dla j = 1,..., L 1 A 2 : dla j = 1,..., L 1 oraz m 1, jeżeli m k=1 λ k e k (X j ) = 0 wtedy λ k = 0 dla k = 1,..., m Wybierając m pierwszych funkcji bazowych oraz oznaczając przez Pj m rzut ortogonalny na podprzestrzeń generowaną przez {e 1 (X j ),..., e m (X j )} dla j = 1,..., L 1 możemy zdefiniować momenty zatrzymania τ [m] j : τ [m] L = L τ [m] j = j1 Zj Pj m(z τ [m] ) + τ [m] j+1 1 Z j <Pj m(z τ [m] ) j+1 j+1 Wówczas U0 m = max(z 0, EZ [m] τ ) jest przybliżoną wartością opcji. 1 Drugim krokiem algorytmu Longstaffa-Schwartza jest symulacyjne oszacowanie EZ [m] τ. 1 W tym celu generujemy pewną liczbę N ścieżek procesu cen i powiązanego z nim procesu wypłat (X (1) j,..., (X (N) j )), Z (n) j = f(j, X (n) j ), gdzie f jest pewną funkcją borelowską. Przybliżone optymalne momenty zatrzymania przedstawiają się następująco: = L gdzie α (m,n) j τ n,m,n L τ n,m,n j = j1 Zj α (m,n) j e m (X (n) j j+1 1 Zj <α (m,n) j e m (X (n) j ), ) + τ n,m,n a e m (X (n) j )) 2 są estymatorami najmniejszych = argmin Nn=1 a R m (Z (n) τ n,m,n j+1 kwadratów współczynników rzutu ortogonalnego, zaś e m = (e 1,..., e m ). Ostatecznie przybliżona symulacyjnie wartość opcji wyraża się wzorem U m,n 0 = max(z 0, 1 N 6.3 Oznaczenia Nn=1 Z (n) τ n,m,n 1 W celu wyrażenia kluczowych twierdzeń dotyczących zbieżności algorytmu Longstaffa- Schwartza konieczne jest wprowadzeniu kilku oznaczeń. Po pierwsze oznaczmy przez αj m wektor współczynników rzutu ortogonalnego wypłaty z opcji na przestrzeń funkcji bazowych (tj. Pj m(z τ [m]] ) = αj m e m (X j )). Wyraża się on wzorem: j+1 α m j = (A m j ) 1 E(Z τ [m]] j+1 e m (X j )), gdzie A m j = (E(e k (X j )e l (X j ))) k,l=1,2,...,m jest macierzą m m. Ponadto oznaczmy przez α m,n j estymator najmniejszych kwadratów wektora współczynników rzutu, oraz zapiszmy wszystkie wektory w jednej macierzy (m L 1): α m = (α1 m,..., αm L 1 ), α(m,n) = (α (m,n) 1,..., α (m,n) L 1 ). Następnie dla j = 1, 2,..., L zdefiniujmy funkcje F j (analogicznie do definicji momentów stopu): ). 34

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 7 i 8 - Efektywność estymatorów, przedziały ufności

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 7 i 8 - Efektywność estymatorów, przedziały ufności WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 7 i 8 - Efektywność estymatorów, przedziały ufności Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 7 i 8 1 / 9 EFEKTYWNOŚĆ ESTYMATORÓW, próba

Bardziej szczegółowo

KADD Metoda najmniejszych kwadratów funkcje nieliniowe

KADD Metoda najmniejszych kwadratów funkcje nieliniowe Metoda najmn. kwadr. - funkcje nieliniowe Metoda najmniejszych kwadratów Funkcje nieliniowe Procedura z redukcją kroku iteracji Przykłady zastosowań Dopasowanie funkcji wykładniczej Dopasowanie funkcji

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład XIV: Metody Monte Carlo 19 stycznia 2016 Przybliżone obliczanie całki oznaczonej Rozważmy całkowalną funkcję f : [0, 1] R. Chcemy znaleźć przybliżoną wartość liczbową całki 1 f (x) dx. 0 Jeden ze

Bardziej szczegółowo

Prawa wielkich liczb, centralne twierdzenia graniczne

Prawa wielkich liczb, centralne twierdzenia graniczne , centralne twierdzenia graniczne Katedra matematyki i ekonomii matematycznej 17 maja 2012, centralne twierdzenia graniczne Rodzaje zbieżności ciągów zmiennych losowych, centralne twierdzenia graniczne

Bardziej szczegółowo

Wykład 1 Próba i populacja. Estymacja parametrów z wykorzystaniem metody bootstrap

Wykład 1 Próba i populacja. Estymacja parametrów z wykorzystaniem metody bootstrap Wykład 1 Próba i populacja. Estymacja parametrów z wykorzystaniem metody bootstrap Magdalena Frąszczak Wrocław, 21.02.2018r Tematyka Wykładów: Próba i populacja. Estymacja parametrów z wykorzystaniem metody

Bardziej szczegółowo

Weryfikacja hipotez statystycznych

Weryfikacja hipotez statystycznych Weryfikacja hipotez statystycznych Hipoteza Test statystyczny Poziom istotności Testy jednostronne i dwustronne Testowanie równości wariancji test F-Fishera Testowanie równości wartości średnich test t-studenta

Bardziej szczegółowo

Statystyka i eksploracja danych

Statystyka i eksploracja danych Wykład II: i charakterystyki ich rozkładów 24 lutego 2014 Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa,

Bardziej szczegółowo

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów Rozdział : Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów W tym rozdziale omówione zostaną dwie najpopularniejsze metody estymacji parametrów w ekonometrycznych modelach nieliniowych,

Bardziej szczegółowo

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory Dr Anna ADRIAN Paw B5, pok 407 adrian@tempus.metal.agh.edu.pl

Bardziej szczegółowo

Spis treści 3 SPIS TREŚCI

Spis treści 3 SPIS TREŚCI Spis treści 3 SPIS TREŚCI PRZEDMOWA... 1. WNIOSKOWANIE STATYSTYCZNE JAKO DYSCYPLINA MATEMATYCZNA... Metody statystyczne w analizie i prognozowaniu zjawisk ekonomicznych... Badania statystyczne podstawowe

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład II: Zmienne losowe i charakterystyki ich rozkładów 13 października 2014 Zmienne losowe Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Definicja zmiennej losowej i jej

Bardziej szczegółowo

Redukcja wariancji w metodach Monte-Carlo

Redukcja wariancji w metodach Monte-Carlo 14.02.2006 Seminarium szkoleniowe 14 lutego 2006 Plan prezentacji Wprowadzenie Metoda losowania warstwowego Metoda próbkowania ważonego Metoda zmiennych kontrolnych Metoda zmiennych antytetycznych Metoda

Bardziej szczegółowo

Metody redukcji wariancji

Metody redukcji wariancji Metody redukcji wariancji Michał Kołodziejczyk 26 maja 2009 Spis treści 1 Przedstawienie problemu 1 2 Metody redukcji - opis teoretyczny 2 2.1 Metoda Antithetic Variates...............................

Bardziej szczegółowo

Wykład z równań różnicowych

Wykład z równań różnicowych Wykład z równań różnicowych 1 Wiadomości wstępne Umówmy się, że na czas tego wykładu zrezygnujemy z oznaczania n-tego wyrazu ciągu symbolem typu x n, y n itp. Zamiast tego pisać będziemy x (n), y (n) itp.

Bardziej szczegółowo

Ważne rozkłady i twierdzenia c.d.

Ważne rozkłady i twierdzenia c.d. Ważne rozkłady i twierdzenia c.d. Funkcja charakterystyczna rozkładu Wielowymiarowy rozkład normalny Elipsa kowariacji Sploty rozkładów Rozkłady jednostajne Sploty z rozkładem normalnym Pobieranie próby

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metody kierunków poparwy (metoda Newtona-Raphsona, metoda gradientów sprzężonych) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.03.2019 1

Bardziej szczegółowo

Znaleźć wzór ogólny i zbadać istnienie granicy ciągu określonego rekurencyjnie:

Znaleźć wzór ogólny i zbadać istnienie granicy ciągu określonego rekurencyjnie: Ciągi rekurencyjne Zadanie 1 Znaleźć wzór ogólny i zbadać istnienie granicy ciągu określonego rekurencyjnie: w dwóch przypadkach: dla i, oraz dla i. Wskazówka Należy poszukiwać rozwiązania w postaci, gdzie

Bardziej szczegółowo

Matematyka z el. statystyki, # 6 /Geodezja i kartografia II/

Matematyka z el. statystyki, # 6 /Geodezja i kartografia II/ Matematyka z el. statystyki, # 6 /Geodezja i kartografia II/ Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Głęboka 28, bud. CIW, p. 221 e-mail: zdzislaw.otachel@up.lublin.pl

Bardziej szczegółowo

Monte Carlo, bootstrap, jacknife

Monte Carlo, bootstrap, jacknife Monte Carlo, bootstrap, jacknife Literatura Bruce Hansen (2012 +) Econometrics, ze strony internetowej: http://www.ssc.wisc.edu/~bhansen/econometrics/ Monte Carlo: rozdział 8.8, 8.9 Bootstrap: rozdział

Bardziej szczegółowo

Spacery losowe generowanie realizacji procesu losowego

Spacery losowe generowanie realizacji procesu losowego Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z

Bardziej szczegółowo

Z52: Algebra liniowa Zagadnienie: Zastosowania algebry liniowej Zadanie: Operatory różniczkowania, zagadnienie brzegowe.

Z52: Algebra liniowa Zagadnienie: Zastosowania algebry liniowej Zadanie: Operatory różniczkowania, zagadnienie brzegowe. Z5: Algebra liniowa Zagadnienie: Zastosowania algebry liniowej Zadanie: Operatory różniczkowania zagadnienie brzegowe Dyskretne operatory różniczkowania Numeryczne obliczanie pochodnych oraz rozwiązywanie

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 1. Optymalizacja funkcji jednej zmiennej Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.02.2019 1 / 54 Plan wykładu Optymalizacja funkcji jednej

Bardziej szczegółowo

Ważne rozkłady i twierdzenia

Ważne rozkłady i twierdzenia Ważne rozkłady i twierdzenia Rozkład dwumianowy i wielomianowy Częstość. Prawo wielkich liczb Rozkład hipergeometryczny Rozkład Poissona Rozkład normalny i rozkład Gaussa Centralne twierdzenie graniczne

Bardziej szczegółowo

7. Estymacja parametrów w modelu normalnym(14.04.2008) Pojęcie losowej próby prostej

7. Estymacja parametrów w modelu normalnym(14.04.2008) Pojęcie losowej próby prostej 7. Estymacja parametrów w modelu normalnym(14.04.2008) Pojęcie losowej próby prostej Definicja 1 n-elementowa losowa próba prosta nazywamy ciag n niezależnych zmiennych losowych o jednakowych rozkładach

Bardziej szczegółowo

RÓWNANIA RÓŻNICZKOWE WYKŁAD 2

RÓWNANIA RÓŻNICZKOWE WYKŁAD 2 RÓWNANIA RÓŻNICZKOWE WYKŁAD 2 Równania różniczkowe o zmiennych rozdzielonych Równania sprowadzalne do równań o zmiennych rozdzielonych Niech f będzie funkcją ciągłą na przedziale (a, b), spełniającą na

Bardziej szczegółowo

8 Całka stochastyczna względem semimartyngałów

8 Całka stochastyczna względem semimartyngałów M. Beśka, Całka Stochastyczna, wykład 8 148 8 Całka stochastyczna względem semimartyngałów 8.1 Całka stochastyczna w M 2 Oznaczmy przez Ξ zbiór procesów postaci X t (ω) = ξ (ω)i {} (t) + n ξ i (ω)i (ti,

Bardziej szczegółowo

STATYSTYKA

STATYSTYKA Wykład 1 20.02.2008r. 1. ROZKŁADY PRAWDOPODOBIEŃSTWA 1.1 Rozkład dwumianowy Rozkład dwumianowy, 0 1 Uwaga: 1, rozkład zero jedynkowy. 1 ; 1,2,, Fakt: Niech,, będą niezależnymi zmiennymi losowymi o jednakowym

Bardziej szczegółowo

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład Rozdział 1 Wektory losowe 1.1 Wektor losowy i jego rozkład Definicja 1 Wektor X = (X 1,..., X n ), którego każda współrzędna jest zmienną losową, nazywamy n-wymiarowym wektorem losowym (krótko wektorem

Bardziej szczegółowo

Estymacja parametrów w modelu normalnym

Estymacja parametrów w modelu normalnym Estymacja parametrów w modelu normalnym dr Mariusz Grządziel 6 kwietnia 2009 Model normalny Przez model normalny będziemy rozumieć rodzine rozkładów normalnych N(µ, σ), µ R, σ > 0. Z Centralnego Twierdzenia

Bardziej szczegółowo

Metody probabilistyczne

Metody probabilistyczne Metody probabilistyczne. Twierdzenia graniczne Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 20.2.208 / 26 Motywacja Rzucamy wielokrotnie uczciwą monetą i zliczamy

Bardziej szczegółowo

Układy równań i równania wyższych rzędów

Układy równań i równania wyższych rzędów Rozdział Układy równań i równania wyższych rzędów Układy równań różniczkowych zwyczajnych Wprowadzenie W poprzednich paragrafach zajmowaliśmy się równaniami różniczkowymi y = f(x, y), których rozwiązaniem

Bardziej szczegółowo

F t+ := s>t. F s = F t.

F t+ := s>t. F s = F t. M. Beśka, Całka Stochastyczna, wykład 1 1 1 Wiadomości wstępne 1.1 Przestrzeń probabilistyczna z filtracją Niech (Ω, F, P ) będzie ustaloną przestrzenią probabilistyczną i niech F = {F t } t 0 będzie rodziną

Bardziej szczegółowo

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów. Rachunek prawdopodobieństwa MAT1332 Wydział Matematyki, Matematyka Stosowana Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów. Warunkowa

Bardziej szczegółowo

VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa.

VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa. VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa. W rozdziale tym zajmiemy się dokładniej badaniem stabilności rozwiązań równania różniczkowego. Pojęcie stabilności w

Bardziej szczegółowo

Definicja 1 Statystyką nazywamy (mierzalną) funkcję obserwowalnego wektora losowego

Definicja 1 Statystyką nazywamy (mierzalną) funkcję obserwowalnego wektora losowego Rozdział 1 Statystyki Definicja 1 Statystyką nazywamy (mierzalną) funkcję obserwowalnego wektora losowego X = (X 1,..., X n ). Uwaga 1 Statystyka jako funkcja wektora zmiennych losowych jest zmienną losową

Bardziej szczegółowo

Symulacyjne metody wyceny opcji amerykańskich

Symulacyjne metody wyceny opcji amerykańskich Metody wyceny Piotr Małecki promotor: dr hab. Rafał Weron Instytut Matematyki i Informatyki Politechniki Wrocławskiej Wrocław, 0 lipca 009 Metody wyceny Drzewko S 0 S t S t S 3 t S t St St 3 S t St St

Bardziej szczegółowo

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów. Rachunek prawdopodobieństwa MAP1181 Wydział PPT, MS, rok akad. 213/14, sem. zimowy Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład VII: Rozkład i jego charakterystyki 22 listopada 2016 Uprzednio wprowadzone pojęcia i ich własności Definicja zmiennej losowej Zmienna losowa na przestrzeni probabilistycznej (Ω, F, P) to funkcja

Bardziej szczegółowo

KADD Minimalizacja funkcji

KADD Minimalizacja funkcji Minimalizacja funkcji Poszukiwanie minimum funkcji Foma kwadratowa Metody przybliżania minimum minimalizacja Minimalizacja w n wymiarach Metody poszukiwania minimum Otaczanie minimum Podział obszaru zawierającego

Bardziej szczegółowo

UPORZĄDKOWANIE STOCHASTYCZNE ESTYMATORÓW ŚREDNIEGO CZASU ŻYCIA. Piotr Nowak Uniwersytet Wrocławski

UPORZĄDKOWANIE STOCHASTYCZNE ESTYMATORÓW ŚREDNIEGO CZASU ŻYCIA. Piotr Nowak Uniwersytet Wrocławski UPORZĄDKOWANIE STOCHASTYCZNE ESTYMATORÓW ŚREDNIEGO CZASU ŻYCIA Piotr Nowak Uniwersytet Wrocławski Wprowadzenie X = (X 1,..., X n ) próba z rozkładu wykładniczego Ex(θ). f (x; θ) = 1 θ e x/θ, x > 0, θ >

Bardziej szczegółowo

Dystrybucje, wiadomości wstępne (I)

Dystrybucje, wiadomości wstępne (I) Temat 8 Dystrybucje, wiadomości wstępne (I) Wielkości fizyczne opisujemy najczęściej przyporządkowując im funkcje (np. zależne od czasu). Inną drogą opisu tych wielkości jest przyporządkowanie im funkcjonałów

Bardziej szczegółowo

Metody Obliczeniowe w Nauce i Technice

Metody Obliczeniowe w Nauce i Technice Metody Obliczeniowe w Nauce i Technice 15. Obliczanie całek metodami Monte Carlo Marian Bubak Department of Computer Science AGH University of Science and Technology Krakow, Poland bubak@agh.edu.pl dice.cyfronet.pl

Bardziej szczegółowo

W. Guzicki Próbna matura, grudzień 2014 r. poziom rozszerzony 1

W. Guzicki Próbna matura, grudzień 2014 r. poziom rozszerzony 1 W. Guzicki Próbna matura, grudzień 01 r. poziom rozszerzony 1 Próbna matura rozszerzona (jesień 01 r.) Zadanie 18 kilka innych rozwiązań Wojciech Guzicki Zadanie 18. Okno na poddaszu ma mieć kształt trapezu

Bardziej szczegółowo

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 4 - zagadnienie estymacji, metody wyznaczania estymatorów

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 4 - zagadnienie estymacji, metody wyznaczania estymatorów WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 4 - zagadnienie estymacji, metody wyznaczania estymatorów Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 4 1 / 23 ZAGADNIENIE ESTYMACJI Zagadnienie

Bardziej szczegółowo

Metody probabilistyczne

Metody probabilistyczne Metody probabilistyczne 13. Elementy statystki matematycznej I Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 17.01.2019 1 / 30 Zagadnienia statystki Przeprowadzamy

Bardziej szczegółowo

Funkcje wymierne. Jerzy Rutkowski. Działania dodawania i mnożenia funkcji wymiernych określa się wzorami: g h + k l g h k.

Funkcje wymierne. Jerzy Rutkowski. Działania dodawania i mnożenia funkcji wymiernych określa się wzorami: g h + k l g h k. Funkcje wymierne Jerzy Rutkowski Teoria Przypomnijmy, że przez R[x] oznaczamy zbiór wszystkich wielomianów zmiennej x i o współczynnikach rzeczywistych Definicja Funkcją wymierną jednej zmiennej nazywamy

Bardziej szczegółowo

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie Jarosław Kotowicz Instytut Matematyki Uniwersytet w

Bardziej szczegółowo

Wprowadzenie do teorii ekonometrii. Wykład 1 Warunkowa wartość oczekiwana i odwzorowanie liniowe

Wprowadzenie do teorii ekonometrii. Wykład 1 Warunkowa wartość oczekiwana i odwzorowanie liniowe Wprowadzenie do teorii ekonometrii Wykład 1 Warunkowa wartość oczekiwana i odwzorowanie liniowe Zajęcia Wykład Laboratorium komputerowe 2 Zaliczenie EGZAMIN (50%) Na egzaminie obowiązują wszystkie informacje

Bardziej szczegółowo

Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe.

Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Rachunek prawdopodobieństwa MAP3040 WPPT FT, rok akad. 2010/11, sem. zimowy Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Warunkowa wartość oczekiwana.

Bardziej szczegółowo

Metoda największej wiarygodności

Metoda największej wiarygodności Metoda największej wiarygodności Próbki w obecności tła Funkcja wiarygodności Iloraz wiarygodności Pomiary o różnej dokładności Obciążenie Informacja z próby i nierówność informacyjna Wariancja minimalna

Bardziej szczegółowo

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Niech Ω będzie przestrzenią zdarzeń elementarnych. Definicja 1 Rodzinę S zdarzeń losowych (zbiór S podzbiorów zbioru

Bardziej szczegółowo

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski Modelowanie zależności pomiędzy zmiennymi losowymi Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski P Zmienne losowe niezależne - przypomnienie Dwie rzeczywiste zmienne losowe X i Y

Bardziej szczegółowo

KADD Minimalizacja funkcji

KADD Minimalizacja funkcji Minimalizacja funkcji n-wymiarowych Forma kwadratowa w n wymiarach Procedury minimalizacji Minimalizacja wzdłuż prostej w n-wymiarowej przestrzeni Metody minimalizacji wzdłuż osi współrzędnych wzdłuż kierunków

Bardziej szczegółowo

Matematyka ubezpieczeń majątkowych 1.10.2012 r.

Matematyka ubezpieczeń majątkowych 1.10.2012 r. Zadanie. W pewnej populacji każde ryzyko charakteryzuje się trzema parametrami q, b oraz v, o następującym znaczeniu: parametr q to prawdopodobieństwo, że do szkody dojdzie (może zajść co najwyżej jedna

Bardziej szczegółowo

Rozkłady i ich dystrybuanty 16 marca F X (t) = P (X < t) 0, gdy t 0, F X (t) = 1, gdy t > c, 0, gdy t x 1, 1, gdy t > x 2,

Rozkłady i ich dystrybuanty 16 marca F X (t) = P (X < t) 0, gdy t 0, F X (t) = 1, gdy t > c, 0, gdy t x 1, 1, gdy t > x 2, Wykład 4. Rozkłady i ich dystrybuanty 6 marca 2007 Jak opisać cały rozkład jedną funkcją? Aby znać rozkład zmiennej X, musimy umieć obliczyć P (a < X < b) dla dowolnych a < b. W tym celu wystarczy znać

Bardziej szczegółowo

Pochodna funkcji odwrotnej

Pochodna funkcji odwrotnej Pochodna funkcji odwrotnej Niech będzie dana w przedziale funkcja różniczkowalna i różnowartościowa. Wiadomo, że istnieje wówczas funkcja odwrotna (którą oznaczymy tu : ), ciągła w przedziale (lub zależnie

Bardziej szczegółowo

1 Gaussowskie zmienne losowe

1 Gaussowskie zmienne losowe Gaussowskie zmienne losowe W tej serii rozwiążemy zadania dotyczące zmiennych o rozkładzie normalny. Wymagana jest wiedza na temat własności rozkładu normalnego, CTG oraz warunkowych wartości oczekiwanych..

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej

Bardziej szczegółowo

Całkowanie numeryczne

Całkowanie numeryczne Całkowanie numeryczne Poniżej omówione zostanie kilka metod przybliżania operacji całkowania i różniczkowania w szczególności uzależnieniu pochodnej od jej różnic skończonych gdy równanie różniczkowe mamy

Bardziej szczegółowo

Funkcje wymierne. Funkcja homograficzna. Równania i nierówności wymierne.

Funkcje wymierne. Funkcja homograficzna. Równania i nierówności wymierne. Funkcje wymierne. Funkcja homograficzna. Równania i nierówności wymierne. Funkcja homograficzna. Definicja. Funkcja homograficzna jest to funkcja określona wzorem f() = a + b c + d, () gdzie współczynniki

Bardziej szczegółowo

Pochodna i różniczka funkcji oraz jej zastosowanie do obliczania niepewności pomiarowych

Pochodna i różniczka funkcji oraz jej zastosowanie do obliczania niepewności pomiarowych Pochodna i różniczka unkcji oraz jej zastosowanie do obliczania niepewności pomiarowych Krzyszto Rębilas DEFINICJA POCHODNEJ Pochodna unkcji () w punkcie określona jest jako granica: lim 0 Oznaczamy ją

Bardziej szczegółowo

O PEWNEJ ANOMALII W WYCENIE INSTRUMENTÓW DŁUŻNYCH

O PEWNEJ ANOMALII W WYCENIE INSTRUMENTÓW DŁUŻNYCH O PEWNEJ ANOMALII W WYCENIE INSTRUMENTÓW DŁUŻNYCH A. KARPIO KATEDRA EKONOMETRII I STATYSTYKI SGGW W WARSZAWIE Krzywa dochodowości Obligacja jest papierem wartościowym, którego wycena opiera się na oczekiwanych

Bardziej szczegółowo

Lista 6. Kamil Matuszewski 13 kwietnia D n =

Lista 6. Kamil Matuszewski 13 kwietnia D n = Lista 6 Kamil Matuszewski 3 kwietnia 6 3 4 5 6 7 8 9 Zadanie Mamy Pokaż, że det(d n ) = n.... D n =.... Dowód. Okej. Dla n =, n = trywialne. Załóżmy, że dla n jest ok, sprawdzę dla n. Aby to zrobić skorzystam

Bardziej szczegółowo

Rozkłady statystyk z próby

Rozkłady statystyk z próby Rozkłady statystyk z próby Rozkłady statystyk z próby Przypuśćmy, że wykonujemy serię doświadczeń polegających na 4 krotnym rzucie symetryczną kostką do gry, obserwując liczbę wyrzuconych oczek Nr kolejny

Bardziej szczegółowo

Testowanie hipotez statystycznych.

Testowanie hipotez statystycznych. Bioinformatyka Wykład 9 Wrocław, 5 grudnia 2011 Temat. Test zgodności χ 2 Pearsona. Statystyka χ 2 Pearsona Rozpatrzmy ciąg niezależnych zmiennych losowych X 1,..., X n o jednakowym dyskretnym rozkładzie

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład VII: Metody specjalne Monte Carlo 24 listopada 2014 Transformacje specjalne Przykład - symulacja rozkładu geometrycznego Niech X Ex(λ). Rozważmy zmienną losową [X ], która przyjmuje wartości naturalne.

Bardziej szczegółowo

Aproksymacja. funkcji: ,a 2. ,...,a m. - są funkcjami bazowymi m+1 wymiarowej podprzestrzeni liniowej X m+1

Aproksymacja. funkcji: ,a 2. ,...,a m. - są funkcjami bazowymi m+1 wymiarowej podprzestrzeni liniowej X m+1 Założenie: f(x) funkcja którą aproksymujemy X jest przestrzenią liniową Aproksymacja liniowa funkcji f(x) polega na wyznaczeniu współczynników a 0,a 1,a 2,...,a m funkcji: Gdzie: - są funkcjami bazowymi

Bardziej szczegółowo

Excel i VBA w analizach i modelowaniu finansowym Pomiar ryzyka. Pomiar ryzyka

Excel i VBA w analizach i modelowaniu finansowym Pomiar ryzyka. Pomiar ryzyka Pomiar ryzyka Miary obiektywne stosowane w kwantyfikacji ryzyka rynkowego towarzyszącego zaangażowaniu środków w inwestycjach finansowych obejmują: Miary zmienności, Miary zagrożenia, Miary wrażliwości.

Bardziej szczegółowo

Detekcja rozkładów o ciężkich ogonach

Detekcja rozkładów o ciężkich ogonach Detekcja rozkładów o ciężkich ogonach J. Śmiarowska, P. Jamer Wydział Matematyki i Nauk Informacyjnych Politechnika Warszawska 24 kwietnia 2012 J. Śmiarowska, P. Jamer (Politechnika Warszawska) Detekcja

Bardziej szczegółowo

Komputerowa Analiza Danych Doświadczalnych

Komputerowa Analiza Danych Doświadczalnych Komputerowa Analiza Danych Doświadczalnych Prowadząca: dr inż. Hanna Zbroszczyk e-mail: gos@if.pw.edu.pl tel: +48 22 234 58 51 konsultacje: poniedziałek, 10-11, środa: 11-12 www: http://www.if.pw.edu.pl/~gos/students/kadd

Bardziej szczegółowo

1 Pochodne wyższych rzędów

1 Pochodne wyższych rzędów 1 Pochodne wyższych rzędów Definicja 1.1 (Pochodne cząstkowe drugiego rzędu) Niech f będzie odwzorowaniem o wartościach w R m, określonym na zbiorze G R k. Załóżmy, że zbiór tych x G, dla których istnieje

Bardziej szczegółowo

II. RÓŻNICZKOWANIE I CAŁKOWANIE NUMERYCZNE Janusz Adamowski

II. RÓŻNICZKOWANIE I CAŁKOWANIE NUMERYCZNE Janusz Adamowski II. RÓŻNICZKOWANIE I CAŁKOWANIE NUMERYCZNE Janusz Adamowski 1 1 Różniczkowanie numeryczne Rozważmy funkcję f(x) określoną na sieci równoodległyc węzłów. Funkcja f(x) może być dana za pomocą wzoru analitycznego

Bardziej szczegółowo

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH Transport, studia I stopnia rok akademicki 2011/2012 Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Uwagi wstępne Układ liniowych równań algebraicznych można

Bardziej szczegółowo

Gdy n jest duże, statystyka ta (zwana statystyką chikwadrat), przy założeniu prawdziwości hipotezy H 0, ma w przybliżeniu rozkład χ 2 (k 1).

Gdy n jest duże, statystyka ta (zwana statystyką chikwadrat), przy założeniu prawdziwości hipotezy H 0, ma w przybliżeniu rozkład χ 2 (k 1). PRZYKŁADY TESTÓW NIEPARAMETRYCZNYCH. Test zgodności χ 2. Ten test służy testowaniu hipotezy, czy rozważana zmienna ma pewien ustalony rozkład, czy też jej rozkład różni się od tego ustalonego. Tym testem

Bardziej szczegółowo

Matematyka dyskretna. Andrzej Łachwa, UJ, /15

Matematyka dyskretna. Andrzej Łachwa, UJ, /15 Matematyka dyskretna Andrzej Łachwa, UJ, 2013 andrzej.lachwa@uj.edu.pl 7/15 Rachunek różnicowy Dobrym narzędziem do obliczania skończonych sum jest rachunek różnicowy. W rachunku tym odpowiednikiem operatora

Bardziej szczegółowo

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014 Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014 Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe

Bardziej szczegółowo

IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych,

IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych, IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. Definicja 1.1. Niech D będzie podzbiorem przestrzeni R n, n 2. Odwzorowanie f : D R nazywamy

Bardziej szczegółowo

Zaawansowane metody numeryczne

Zaawansowane metody numeryczne Wykład 11 Ogólna postać metody iteracyjnej Definicja 11.1. (metoda iteracyjna rozwiązywania układów równań) Metodą iteracyjną rozwiązywania { układów równań liniowych nazywamy ciąg wektorów zdefiniowany

Bardziej szczegółowo

Korzystanie z podstawowych rozkładów prawdopodobieństwa (tablice i arkusze kalkulacyjne)

Korzystanie z podstawowych rozkładów prawdopodobieństwa (tablice i arkusze kalkulacyjne) Korzystanie z podstawowych rozkładów prawdopodobieństwa (tablice i arkusze kalkulacyjne) Przygotował: Dr inż. Wojciech Artichowicz Katedra Hydrotechniki PG Zima 2014/15 1 TABLICE ROZKŁADÓW... 3 ROZKŁAD

Bardziej szczegółowo

Drugie kolokwium z Rachunku Prawdopodobieństwa, zestaw A

Drugie kolokwium z Rachunku Prawdopodobieństwa, zestaw A Drugie kolokwium z Rachunku Prawdopodobieństwa, zestaw A Zad. 1. Korzystając z podanych poniżej mini-tablic, oblicz pierwszy, drugi i trzeci kwartyl rozkładu N(10, 2 ). Rozwiązanie. Najpierw ogólny komentarz

Bardziej szczegółowo

RÓŻNICZKOWANIE FUNKCJI WIELU ZMIENNYCH: rachunek pochodnych dla funkcji wektorowych. Pochodne cząstkowe funkcji rzeczywistej wielu zmiennych

RÓŻNICZKOWANIE FUNKCJI WIELU ZMIENNYCH: rachunek pochodnych dla funkcji wektorowych. Pochodne cząstkowe funkcji rzeczywistej wielu zmiennych RÓŻNICZKOWANIE FUNKCJI WIELU ZMIENNYCH: rachunek pochodnych dla funkcji wektorowych Pochodne cząstkowe funkcji rzeczywistej wielu zmiennych wyliczamy według wzoru (x, x 2,..., x n ) f(x, x 2,..., x n )

Bardziej szczegółowo

Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1

Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1 Weryfikacja hipotez statystycznych KG (CC) Statystyka 26 V 2009 1 / 1 Sformułowanie problemu Weryfikacja hipotez statystycznych jest drugą (po estymacji) metodą uogólniania wyników uzyskanych w próbie

Bardziej szczegółowo

AKADEMIA GÓRNICZO-HUTNICZA Wydział Matematyki Stosowanej ROZKŁAD NORMALNY ROZKŁAD GAUSSA

AKADEMIA GÓRNICZO-HUTNICZA Wydział Matematyki Stosowanej ROZKŁAD NORMALNY ROZKŁAD GAUSSA AKADEMIA GÓRNICZO-HUTNICZA Wydział Matematyki Stosowanej KATEDRA MATEMATYKI TEMAT PRACY: ROZKŁAD NORMALNY ROZKŁAD GAUSSA AUTOR: BARBARA MARDOSZ Kraków, styczeń 2008 Spis treści 1 Wprowadzenie 2 2 Definicja

Bardziej szczegółowo

Modele DSGE. Jerzy Mycielski. Maj Jerzy Mycielski () Modele DSGE Maj / 11

Modele DSGE. Jerzy Mycielski. Maj Jerzy Mycielski () Modele DSGE Maj / 11 Modele DSGE Jerzy Mycielski Maj 2008 Jerzy Mycielski () Modele DSGE Maj 2008 1 / 11 Modele DSGE DSGE - Dynamiczne, stochastyczne modele równowagi ogólnej (Dynamic Stochastic General Equilibrium Model)

Bardziej szczegółowo

Instytut Politechniczny Państwowa Wyższa Szkoła Zawodowa. Diagnostyka i niezawodność robotów

Instytut Politechniczny Państwowa Wyższa Szkoła Zawodowa. Diagnostyka i niezawodność robotów Instytut Politechniczny Państwowa Wyższa Szkoła Zawodowa Diagnostyka i niezawodność robotów Laboratorium nr 6 Model matematyczny elementu naprawialnego Prowadzący: mgr inż. Marcel Luzar Cele ćwiczenia:

Bardziej szczegółowo

METODY ESTYMACJI PUNKTOWEJ. nieznanym parametrem (lub wektorem parametrów). Przez X będziemy też oznaczać zmienną losową o rozkładzie

METODY ESTYMACJI PUNKTOWEJ. nieznanym parametrem (lub wektorem parametrów). Przez X będziemy też oznaczać zmienną losową o rozkładzie METODY ESTYMACJI PUNKTOWEJ X 1,..., X n - próbka z rozkładu P θ, θ Θ, θ jest nieznanym parametrem (lub wektorem parametrów). Przez X będziemy też oznaczać zmienną losową o rozkładzie P θ. Definicja. Estymatorem

Bardziej szczegółowo

Logarytmy. Funkcje logarytmiczna i wykładnicza. Równania i nierówności wykładnicze i logarytmiczne.

Logarytmy. Funkcje logarytmiczna i wykładnicza. Równania i nierówności wykładnicze i logarytmiczne. Logarytmy. Funkcje logarytmiczna i wykładnicza. Równania i nierówności wykładnicze i logarytmiczne. Definicja. Niech a i b będą dodatnimi liczbami rzeczywistymi i niech a. Logarytmem liczby b przy podstawie

Bardziej szczegółowo

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki WYKŁAD 6 Witold Bednorz, Paweł Wolff 1 Instytut Matematyki Uniwersytet Warszawski Rachunek Prawdopodobieństwa, WNE, 2010-2011 Własności Wariancji Przypomnijmy, że VarX = E(X EX) 2 = EX 2 (EX) 2. Własności

Bardziej szczegółowo

Symulacyjne metody analizy ryzyka inwestycyjnego wybrane aspekty. Grzegorz Szwałek Katedra Matematyki Stosowanej Uniwersytet Ekonomiczny w Poznaniu

Symulacyjne metody analizy ryzyka inwestycyjnego wybrane aspekty. Grzegorz Szwałek Katedra Matematyki Stosowanej Uniwersytet Ekonomiczny w Poznaniu Symulacyjne metody analizy ryzyka inwestycyjnego wybrane aspekty Grzegorz Szwałek Katedra Matematyki Stosowanej Uniwersytet Ekonomiczny w Poznaniu Plan prezentacji 1. Opis metody wyceny opcji rzeczywistej

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład XV: Zagadnienia redukcji wymiaru danych 2 lutego 2015 r. Standaryzacja danych Standaryzacja danych Własności macierzy korelacji Definicja Niech X będzie zmienną losową o skończonym drugim momencie.

Bardziej szczegółowo

WYKŁAD 8 ANALIZA REGRESJI

WYKŁAD 8 ANALIZA REGRESJI WYKŁAD 8 ANALIZA REGRESJI Regresja 1. Metoda najmniejszych kwadratów-regresja prostoliniowa 2. Regresja krzywoliniowa 3. Estymacja liniowej funkcji regresji 4. Testy istotności współczynnika regresji liniowej

Bardziej szczegółowo

Mikroekonometria 4. Mikołaj Czajkowski Wiktor Budziński

Mikroekonometria 4. Mikołaj Czajkowski Wiktor Budziński Mikroekonometria 4 Mikołaj Czajkowski Wiktor Budziński Regresja kwantylowa W standardowej Metodzie Najmniejszych Kwadratów modelujemy warunkową średnią zmiennej objaśnianej: E( yi Xi) = μ ( Xi) Pokazaliśmy,

Bardziej szczegółowo

Wykład 6 Estymatory efektywne. Własności asymptotyczne estym. estymatorów

Wykład 6 Estymatory efektywne. Własności asymptotyczne estym. estymatorów Wykład 6 Estymatory efektywne. Własności asymptotyczne estymatorów Wrocław, 30 listopada 2016r Powtórzenie z rachunku prawdopodobieństwa Zbieżność Definicja 6.1 Niech ciąg {X } n ma rozkład o dystrybuancie

Bardziej szczegółowo

Zadanie 1. Liczba szkód N w ciągu roku z pewnego ryzyka ma rozkład geometryczny: k =

Zadanie 1. Liczba szkód N w ciągu roku z pewnego ryzyka ma rozkład geometryczny: k = Matematyka ubezpieczeń majątkowych 0.0.006 r. Zadanie. Liczba szkód N w ciągu roku z pewnego ryzyka ma rozkład geometryczny: k 5 Pr( N = k) =, k = 0,,,... 6 6 Wartości kolejnych szkód Y, Y,, są i.i.d.,

Bardziej szczegółowo

Prognozowanie i Symulacje. Wykład I. Matematyczne metody prognozowania

Prognozowanie i Symulacje. Wykład I. Matematyczne metody prognozowania Prognozowanie i Symulacje. Wykład I. e-mail:e.kozlovski@pollub.pl Spis treści Szeregi czasowe 1 Szeregi czasowe 2 3 Szeregi czasowe Definicja 1 Szereg czasowy jest to proces stochastyczny z czasem dyskretnym

Bardziej szczegółowo

1 Wykład 4. Proste Prawa wielkich liczb, CTG i metody Monte Carlo

1 Wykład 4. Proste Prawa wielkich liczb, CTG i metody Monte Carlo 1 Wykład 4. Proste Prawa wielkich liczb, CTG i metody Monte Carlo 1.1 Rodzaje zbieżności ciagów zmiennych losowych Niech (Ω, F, P ) będzie przestrzenia probabilistyczna na której określony jest ciag {X

Bardziej szczegółowo

Metody matematyczne w analizie danych eksperymentalnych - sygnały, cz. 2

Metody matematyczne w analizie danych eksperymentalnych - sygnały, cz. 2 Metody matematyczne w analizie danych eksperymentalnych - sygnały, cz. 2 Dr hab. inż. Agnieszka Wyłomańska Faculty of Pure and Applied Mathematics Hugo Steinhaus Center Wrocław University of Science and

Bardziej szczegółowo

Wstęp do analitycznych i numerycznych metod wyceny opcji

Wstęp do analitycznych i numerycznych metod wyceny opcji Wstęp do analitycznych i numerycznych metod wyceny opcji Jan Palczewski Wydział Matematyki, Informatyki i Mechaniki Uniwersytet Warszawski Warszawa, 16 maja 2008 Jan Palczewski Wycena opcji Warszawa, 2008

Bardziej szczegółowo

Wykład z równań różnicowych

Wykład z równań różnicowych Wykład z równań różnicowych Umówmy się, że na czas tego wykładu zrezygnujemy z oznaczania n-tego wyrazu ciągu symbolem typu x n, y n itp. Zamiast tego pisać będziemy x (n), y (n) itp. Definicja 1. Operatorem

Bardziej szczegółowo