Metody Monte Carlo w finansach



Podobne dokumenty
WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 7 i 8 - Efektywność estymatorów, przedziały ufności

KADD Metoda najmniejszych kwadratów funkcje nieliniowe

Prawdopodobieństwo i statystyka

Prawa wielkich liczb, centralne twierdzenia graniczne

Wykład 1 Próba i populacja. Estymacja parametrów z wykorzystaniem metody bootstrap

Weryfikacja hipotez statystycznych

Statystyka i eksploracja danych

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Spis treści 3 SPIS TREŚCI

Prawdopodobieństwo i statystyka

Redukcja wariancji w metodach Monte-Carlo

Metody redukcji wariancji

Wykład z równań różnicowych

Ważne rozkłady i twierdzenia c.d.

Optymalizacja ciągła

Znaleźć wzór ogólny i zbadać istnienie granicy ciągu określonego rekurencyjnie:

Matematyka z el. statystyki, # 6 /Geodezja i kartografia II/

Monte Carlo, bootstrap, jacknife

Spacery losowe generowanie realizacji procesu losowego

Z52: Algebra liniowa Zagadnienie: Zastosowania algebry liniowej Zadanie: Operatory różniczkowania, zagadnienie brzegowe.

Optymalizacja ciągła

Ważne rozkłady i twierdzenia

7. Estymacja parametrów w modelu normalnym( ) Pojęcie losowej próby prostej

RÓWNANIA RÓŻNICZKOWE WYKŁAD 2

8 Całka stochastyczna względem semimartyngałów

STATYSTYKA

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Estymacja parametrów w modelu normalnym

Metody probabilistyczne

Układy równań i równania wyższych rzędów

F t+ := s>t. F s = F t.

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa.

Definicja 1 Statystyką nazywamy (mierzalną) funkcję obserwowalnego wektora losowego

Symulacyjne metody wyceny opcji amerykańskich

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Prawdopodobieństwo i statystyka

KADD Minimalizacja funkcji

UPORZĄDKOWANIE STOCHASTYCZNE ESTYMATORÓW ŚREDNIEGO CZASU ŻYCIA. Piotr Nowak Uniwersytet Wrocławski

Dystrybucje, wiadomości wstępne (I)

Metody Obliczeniowe w Nauce i Technice

W. Guzicki Próbna matura, grudzień 2014 r. poziom rozszerzony 1

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 4 - zagadnienie estymacji, metody wyznaczania estymatorów

Metody probabilistyczne

Funkcje wymierne. Jerzy Rutkowski. Działania dodawania i mnożenia funkcji wymiernych określa się wzorami: g h + k l g h k.

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie

Wprowadzenie do teorii ekonometrii. Wykład 1 Warunkowa wartość oczekiwana i odwzorowanie liniowe

Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe.

Metoda największej wiarygodności

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski

KADD Minimalizacja funkcji

Matematyka ubezpieczeń majątkowych r.

Rozkłady i ich dystrybuanty 16 marca F X (t) = P (X < t) 0, gdy t 0, F X (t) = 1, gdy t > c, 0, gdy t x 1, 1, gdy t > x 2,

Pochodna funkcji odwrotnej

1 Gaussowskie zmienne losowe

Optymalizacja ciągła

Całkowanie numeryczne

Funkcje wymierne. Funkcja homograficzna. Równania i nierówności wymierne.

Pochodna i różniczka funkcji oraz jej zastosowanie do obliczania niepewności pomiarowych

O PEWNEJ ANOMALII W WYCENIE INSTRUMENTÓW DŁUŻNYCH

Lista 6. Kamil Matuszewski 13 kwietnia D n =

Rozkłady statystyk z próby

Testowanie hipotez statystycznych.

Prawdopodobieństwo i statystyka

Aproksymacja. funkcji: ,a 2. ,...,a m. - są funkcjami bazowymi m+1 wymiarowej podprzestrzeni liniowej X m+1

Excel i VBA w analizach i modelowaniu finansowym Pomiar ryzyka. Pomiar ryzyka

Detekcja rozkładów o ciężkich ogonach

Komputerowa Analiza Danych Doświadczalnych

1 Pochodne wyższych rzędów

II. RÓŻNICZKOWANIE I CAŁKOWANIE NUMERYCZNE Janusz Adamowski

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

Gdy n jest duże, statystyka ta (zwana statystyką chikwadrat), przy założeniu prawdziwości hipotezy H 0, ma w przybliżeniu rozkład χ 2 (k 1).

Matematyka dyskretna. Andrzej Łachwa, UJ, /15

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014

IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych,

Zaawansowane metody numeryczne

Korzystanie z podstawowych rozkładów prawdopodobieństwa (tablice i arkusze kalkulacyjne)

Drugie kolokwium z Rachunku Prawdopodobieństwa, zestaw A

RÓŻNICZKOWANIE FUNKCJI WIELU ZMIENNYCH: rachunek pochodnych dla funkcji wektorowych. Pochodne cząstkowe funkcji rzeczywistej wielu zmiennych

Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1

AKADEMIA GÓRNICZO-HUTNICZA Wydział Matematyki Stosowanej ROZKŁAD NORMALNY ROZKŁAD GAUSSA

Modele DSGE. Jerzy Mycielski. Maj Jerzy Mycielski () Modele DSGE Maj / 11

Instytut Politechniczny Państwowa Wyższa Szkoła Zawodowa. Diagnostyka i niezawodność robotów

METODY ESTYMACJI PUNKTOWEJ. nieznanym parametrem (lub wektorem parametrów). Przez X będziemy też oznaczać zmienną losową o rozkładzie

Logarytmy. Funkcje logarytmiczna i wykładnicza. Równania i nierówności wykładnicze i logarytmiczne.

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

Symulacyjne metody analizy ryzyka inwestycyjnego wybrane aspekty. Grzegorz Szwałek Katedra Matematyki Stosowanej Uniwersytet Ekonomiczny w Poznaniu

Prawdopodobieństwo i statystyka

WYKŁAD 8 ANALIZA REGRESJI

Mikroekonometria 4. Mikołaj Czajkowski Wiktor Budziński

Wykład 6 Estymatory efektywne. Własności asymptotyczne estym. estymatorów

Zadanie 1. Liczba szkód N w ciągu roku z pewnego ryzyka ma rozkład geometryczny: k =

Prognozowanie i Symulacje. Wykład I. Matematyczne metody prognozowania

1 Wykład 4. Proste Prawa wielkich liczb, CTG i metody Monte Carlo

Metody matematyczne w analizie danych eksperymentalnych - sygnały, cz. 2

Wstęp do analitycznych i numerycznych metod wyceny opcji

Wykład z równań różnicowych

Transkrypt:

Metody Monte Carlo w finansach Piotr Bochnia Katarzyna Cybulska Piotr Gońda Magdalena Hubicz Karol Klimas Paweł Marcinkowski Maria Pawłowska Patrycja Pol Marcin Sosnowski Mikołaj Stelmach Marcin Wcisło Piotr Wiązecki Natalia Włodarczyk 4 września 2013

Spis treści I Redukcja wariancji w metodach Monte Carlo 3 1 Przegląd głównych sposobów redukcji wariancji dla metod Monte Carlo 4 1.1 Antithetic variates............................... 4 1.2 Stratified sampling............................... 5 1.3 Zmienne kontrolne............................... 7 1.4 Warunkowe Monte Carlo............................ 8 1.5 Importance sampling.............................. 9 2 Metody redukcji wariancji - Importance Sampling 11 2.1 Value-at-Risk - wartość zagrożona...................... 11 2.2 Obliczanie VaR-u................................ 12 2.2.1 Aproksymacja liniowa......................... 12 2.2.2 Delta-Gamma aproksymacja..................... 12 2.3 Symulacje Monte Carlo............................ 13 2.4 Importance Sampling - Losowanie istotne.................. 13 2.5 Losowanie z nowej miary............................ 14 2.6 Algorytm Importance Sampling........................ 15 2.7 Wybór parametru zmiany miary - θ..................... 15 3 Important Sampling w Monte Carlo jako sposób estymacji kwantyli 16 3.1 Wstęp...................................... 16 3.2 Podstawowy pomysł.............................. 16 3.3 Kandydat Important Sampling na dystrybuantę.............. 18 3.4 Analiza asymptot................................ 19 4 Asymptotyczna reprezentacja estymatorów Importance sampling dla Valueat-Risk oraz Conditional Value-at-Risk 20 4.1 Value-at-Risk, Conditional Value-at-Risk i ich estymatory......... 20 4.2 Asymptotyczna reprezentacja estymatorów................. 22 II Zastosowanie metod Monte Carlo: wycena opcji amerykańskich 25 5 Symulacyjna wycena opcji amerykańskich - algorytm Longstaffa-Schwartza 26 5.1 Prosty przykład................................. 26 5.2 Algorytm.................................... 31 1

6 Analiza algorytmu Longstaffa-Schwartza do wyceny opcji amerykańskich 33 6.1 Zagadnienie wyceny opcji amerykańskiej................... 33 6.2 Algorytm Longstaffa-Schwartza........................ 34 6.3 Oznaczenia................................... 34 6.4 Zbieżność algorytmu.............................. 35 6.5 Tempo zbieżności algorytmu.......................... 36 7 Wycena opcji amerykańskich przy pomocy metod Monte Carlo: przybliżanie ceny opcji od góry 37 7.1 Cena opcji amerykańskiej........................... 37 7.2 Symulacje Monte Carlo............................ 39 8 Obliczanie górnego ograniczenia ceny opcji amerykańskich bez symulacji zagnieżdżonych 41 8.1 Wstęp...................................... 41 8.2 Przedstawienie problemu wyceny amerykańskiej opcji........... 41 8.3 Teoretyczne podstawy dla obliczenia upper bound.............. 43 8.4 Własności martyngału z rozkładu Dooba-Meyera.............. 43 8.4.1 Czas ciągły............................... 43 8.4.2 Czas dyskretny............................. 44 8.5 Algorytm.................................... 45 8.6 Analiza błędów i złożoności.......................... 46 III Zastosowanie metod Monte Carlo: estymacja wrażliwości 48 9 Estymacja współczynników greckich metodami Monte Carlo 49 9.1 Metoda różnic skończonych.......................... 49 9.2 Metoda różnic po trajektoriach........................ 51 9.3 Metoda ilorazu wiarygodności......................... 53 10 Parametry greckie 54 10.1 Rozpatrywany przykład............................ 54 10.1.1 Wycena opcji call z barierą górną................... 55 10.2 Estymacja parametrów greckich........................ 55 10.2.1 Różnice skończone........................... 55 10.2.2 Różnice skończone z importance sampling.............. 56 10.2.3 Różniczkowanie po trajektoriach................... 57 10.2.4 Współczynnik wiarygodności..................... 58 10.3 Wyniki symulacji................................ 59 10.3.1 Przykłady................................ 59 10.3.2 Wyniki symulacji............................ 60 2

Część I Redukcja wariancji w metodach Monte Carlo 3

Rozdział 1 Przegląd głównych sposobów redukcji wariancji dla metod Monte Carlo Natalia Włodarczyk, Mikołaj Stelmach Rozdział opracowany na podstawie pracy J. S. Dagpunar Simulation and Monte Carlo: With applications in finance and MCMC, John Wiley & Sons, Ltd, pp. 79-105, 2007 Powszechnym problemem przy stosowaniu metod Monte Carlo jest fakt, iż błąd standardowy maleje w tempie 1 n, gdzie n to wielkość próbki. Przykładowo, jeśli X 1, X 2,..., X n to zmienne i.i.d. o wartości oczekiwanej µ i wariancji σ 2, to standardowy estymator wartości oczekiwanej pod postacią X = 1 n n X i ma odchylenie standardowe równe 1 n σ. Czynnika 1 n nie jesteśmy w stanie przeskoczyć. Poniżej zostały przedstawione metody, które starają się zmniejszyć stałą znajdującą się przy nim. 1.1 Antithetic variates Najprostsza ze stosowanych przy redukcji wariancji metod to zmienne antytetyczne (antithetic variates). Jej istota polega na znalezieniu dwóch estymatorów tego samego parametru θ o tej samej wariancji σ 2, nazwanych powiedzmy ˆθ 1 i ˆθ 2, o ujemnej korelacji ρ. Wtedy oczywiście ˆθ = ˆθ 1 +ˆθ 2 2 również jest estymatorem szukanego parametru, ponadto: ) Var (ˆθ = 1 ( σ 2 + σ 2 + 2ρσ 2) = 1 4 2 σ2 (1 + ρ), skąd widać, że v.r.r. = 1 1+ρ > 11 i nasz cel redukcji wariancji został osiągnięty. Estymator o ujemnej korelacji do danego powstaje najczęściej na bazie tych samych zmiennych, które 1 v.r.r to variance reduction ratio, wielkość określająca, ile razy wariancja estymatora została zmniejszona przy użyciu metod redukcji wariancji w porównaniu z estymatorem standardowym, zbudowanym na bazie próbki takiej samej wielkości. 4

zostały wykorzystane przy pierwotnym estymatorze. Poniższy przykład wyjaśnia działanie metody. Powiedzmy, że chcemy za pomocą metod Monte Carlo obliczyć całkę θ = 0 x 0.9 e x dx. Szukaną całkę możemy przedstawić jako wartość oczekiwaną zmiennej Y = ( ln R) 0.9, gdzie R U(0; 1). Oto algorytm klasycznego Monte Carlo: for i = 1, 2,..., N do { } sample R i U(0; 1) Y i = ( ln R i ) 0,9 ˆθ 1 = 1 N N Y i Zauważmy, że także 1 R U(0; 1). To podpowiada nam pomysł na stworzenie zmiennej przeciwstawnej Z = ( ln (1 R)) 0.9, ujemnie skorelowanej z Y, i drugą estymację na jej podstawie. Stąd, algorytm używający antithetic variates będzie następujący: for i = 1, 2,..., N do { } sample R i U(0; 1) Y i = ( ln R i ) 0,9 Z i = ( ln (1 R i )) 0,9 ˆθ 1 = 1 N N Y i ˆθ 2 = 1 N N Z i ˆθ = ˆθ 1 +ˆθ 2 2 Uzyskany wskaźnik redukcji wariancji to v.r.r. = 3.373. 1.2 Stratified sampling Przejdziemy teraz do kolejnej metody, opierającej się na losowaniu próbek z warstw zmiennej losowej (ang. stratified sampling). Podobnie jak poprzednio, będziemy stosować metodę Monte Carlo do estymacji θ = E(Y ), gdzie Y jest funkcją zmiennych losowych W j. Aby skorzystać z metody warstwowej, wprowadzamy dodatkową zmienną losową, zwaną dalej warstwową, X, która także jest funkcją zmiennych W j. Zmienna ta powinna mieć następujące własności: istnieje silna zależność (niekoniecznie liniowa) pomiędzy X i Y, 5

gęstość X jest znana i można z niej łatwo wylosować próbkę, możemy łatwo wylosować próbkę z rozkładu Y pod warunkiem X = x. Gdy zmienna warstwowa jest już dobrze dobrana, dzielimy jej wartości na rozłączne warstwy {S (i), i = 1,..., M}. Ustalamy liczby n i, będące liczbami par (X, Y ), dla których X S (i). Losujemy z poszczególnych warstw określoną liczbę próbek. Można to zrobić w sposób oczywisty: losując W j, obliczając X i Y, i biorąc tylko te pary, dla których X S (i), po czym powtórzyć całość dla każdego i. Jednak widzimy, że ta metoda jest wysoce nieefektywna - po drodze odrzucamy bardzo dużą liczbę par i tracimy mnóstwo czasu na ich policzenie. Dlatego znacznie lepszym sposobem jest wylosowanie n i próbek z gęstości X obciętej do X S (i) i odpowiednio przeskalowanej, następnie wylosowanie próbek z rozkładu warunkowego W j dla każdego X = x i na koniec obliczenie Y na podstawie zmiennych W j. Gdy mamy już nasze próbki, możemy wprowadzić oznaczenia: θ i = E(Y X S (i) ) - wartość oczekiwana zmiennej Y dla i-tej warstwy, σ 2 i = Var(Y X S(i) ) - wariancja zmiennej Y dla i-tej warstwy, p i = P(X S (i) ) - prawdopodobieństwo, że X jest z i-tej warstwy, σ 2 = Var(Y ) - wariancja Y, (X ij, Y ij ) - j-ta próbka z i-tej warstwy. Średnią z próbek dla i-tej warstwy jest n i Y i = 1 Y ij, n i j=1 a naturalnym, nieobciążonym warstwowym estymatorem θ jest M ˆθ W = p i Y i. Ponieważ Y ij są i.i.d. dla ustalonego i, to łatwo sprawdzić, że M Var(ˆθ W ) = p 2 σi 2 i. n i Najczęściej stosujemy tę metodę dobierając n i proporcjonalnie do wielkości całej próbki (ang. proportional stratified sampling), tj. n i = Np i, gdzie N jest liczbą wszystkich obserwacji. W takim przypadku wariancja estymatora θ wyraża się wzorem: Var(ˆθ P W ) = 1 N M p i σi 2. Sprawdzimy teraz, czy i jak bardzo ta metoda obniżyła nam wariancję w porównaniu do metody naiwnej. Przekształcamy wariancję zwykłego estymatora: Var(ˆθ) = σ2 N = E(Y 2 ) θ 2 = 1 [ M ] p i E(Y 2 X S (i) ) θ 2 N N = 1 [ M ] p i (σi 2 θi 2 ) θ 2 = 1 M p i σi 2 + 1 M p i (θ i θ) 2. N N N 6

Teraz łatwo obliczamy: Var(ˆθ) Var(ˆθ P W ) = 1 N M p i (θ i θ) 2, co jest liczbą, o którą udało nam się pomniejszyć wariancję, stosując metodę próbkowania proporcjonalnego z warstw. Jednak zauważmy, że wynik ten można teoretycznie polepszyć, rozwiązując zagadnienie minimalizacji wariancji przy ograniczeniu M n i = N. Wynik dla i-tej warstwy jest następujący: Z równości: wynika, że: n i = Np iσ i Mj=1 p j σ j, Var(ˆθ OP T ) = 1 ( M ) 2 ozn. p i σ i = σ2 N N. M M p i (σ i σ) 2 = p i σi 2 σ 2 ) ) Var (ˆθP W Var (ˆθOP T = 1 N M p i (σ i σ) 2. Możemy teraz zapisać naiwny estymator jako sumę trzech składników: Var(ˆθ) = 1 [ ] 1 M M p i (θ i θ) 2 + p i (σ i σ) 2 + σ 2. N N Dzięki próbkowaniu z warstw proporcjonalnych pomniejszamy wariancję o pierwszy składnik, natomiast dzięki podziałowi optymalnemu o pierwszy i o drugi. 1.3 Zmienne kontrolne Metoda zmiennych kontrolnych (ang. control variates) przypomina nieco metodę zmiennych warstwowych, gdyż również w niej wykorzystuje się dodatkową zmienną losową X. W poprzednim przypadku wystarczała jednak zależność między Y a X, w tym - potrzebna jest korelacja, czyli zależność liniowa. Przejdźmy do samego opisu metody. Zakładamy znowu, że w trakcie symulacji otrzymujemy dwie zmienne losowe: Y oraz X, przy czym wartość oczekiwaną pierwszej chcemy estymować, zaś wartość oczekiwana drugiej zmiennej jest znana i wynosi µ X. Oznaczmy także elementy macierzy wariancjikowariancji wektora (X, Y ) jako: ( ) σ 2 X σ XY σ XY σ Estymatorem zmiennych kontrolnych nazywamy estymator postaci: ˆθ b = Y b(x µ X ), który, jak łatwo zauważyć, jest nieobciążony dla każdego ustalonego b R. Obliczmy jego wariancję: 7

) Var (ˆθb = σ 2 + b 2 σx 2 2bσ XY. Jest to funkcja kwadratowa zmiennej b i przyjmuje ona swoje minimum w punkcie b = σ XY. Minimum to wtedy jest równe: σx 2 Var (ˆθb ) = σ 2 σ2 XY σ 2 X = σ 2 ( 1 R 2), gdzie R 2 = σ2 XY oznacza, ile procentowo wariancji zostało usuniętej za pomocą estymatora zmiennych kontrolnych w porównaniu z estymatorem naiwnym. Ponieważ najczęściej σx 2 σ2 zarówno σ XY, jak i σx 2 są nieznane, to zamiast b używa się jego estymatora pod postacią: b = S XY S 2 X = 1 ( N N 1 1 N 1 ) ( ) X i X Y i Y ( ) N 2. X i X Z tym wiąże się jednak pewien problem, gdyż estymator ˆθ b = Y b (X µ X ) nie musi być nieobciążony, jako iż b zależy od danych otrzymanych w symulacji. Proponowane w literaturze są dwa rozwiązania. ( ) Pierwsze, mówiące o zignorowaniu obciążenia, gdyż jest ono jedynie rzędu O 1 N, co jest niższym rzędem niż samo odchylenie estymatora, będące ( oczywiście rzędu O 1 N ). Drugie wyjście mówi o wykonaniu najpierw krótszej symulacji, na jej podstawie otrzymanie b, będącego estymatorem b, a następnie użycie tej - już ustalonej - wartości do metody zmiennych kontrolnych. 1.4 Warunkowe Monte Carlo Metoda ta opiera się na wykonaniu możliwie największej liczby obliczeń analitycznych przed właściwym losowaniem. Chcemy estymować θ = E(X). Zauważmy, że zachodzi równość θ = E(E(X Y )) dla Y o znanym rozkładzie. Załóżmy, że znamy też rozkład X pod warunkiem Y. Możemy więc losować, dzięki gęstości warunkowej θ i = E(X Y i ) (gdzie Y i są i.i.d. o rozkładzie takim, jak Y ) i wziąć średnią jako nasz estymator. To powinno zredukować wariancję, jednak nie jesteśmy w stanie tego wykazać teoretycznie. Dlatego przejdziemy do przykładu, na którym pokażemy działanie owej metody. Niech X N (µ, σ 2 ) będzie czasem trwania projektu, gdzie µ N (100, 16), σ Exp( 1 4 ). Za każdy dzień opóźnienia po K dniach płacimy 1000. Chcemy znaleźć oczekiwaną zapłatę C = E 1000 (X K) +) ( ( ( = E E 1000 (X K) + )) (µ, σ). Wewnętrzną wartość oczekiwaną obliczamy analitycznie dla ustalonych µ i σ. Zajmiemy się teraz przekształceniem tego składnika: ( E 1000 (X K) + ) (µ, σ) = 1000 = 1000 K ( 1 (x K) exp 1 ( ) ) x µ 2 dx 2πσ 2 σ 1 (σv + µ K) exp ( 1 ) 2π 2 v2 dv K µ σ ( = 1000 σ exp 1 2 v2) ( ) µ K + 1000(µ K)Φ 2π K µ σ σ [ ( ) ( )] K µ µ K = 1000 σφ + (µ K)Φ σ σ 8

W związku z tym algorytm dla warunkowego Monte Carlo jest następujący: for i = 1, 2,..., N do { sample R i U(0; 1), Z i N (0; 1) σ i = 4 ln R i } µ i = 100 + 4Z i ( ) ( ) ( )) C i = 1000σ i (φ K µi σ i + K µi σ i Φ µi K σ i Ĉ = 1 N n C i ) N (Ci Ĉ)2 Var (Ĉ = N(N 1) 1.5 Importance sampling Ostatnią metodą, która zostanie przedstawiona, jest importance sampling. Polega ona na zmianie gęstości w całce tak, by otrzymać rzeczywistą redukcję wariancji. Przypuścmy, że mamy do obliczenia wielkość θ = h (x) f (x) dx, (1.1) R gdzie funkcja f jest pewną gęstością prawdopodobieństwa. Oznacza to oczywiście, że jeśli X będzie zmienną losową o gęstości f, to szukana wielkość jest równa także Eh (X). Powiedzmy, że mamy dodatkowo jeszcze inną gęstość prawdopodobieństwa g. Prawdziwa będzie wtedy równość: θ = R h (x) f (x) h (X) f (X) g (x) dx = E, g (x) g (X) dla X będącego zmienną losową o rozkładzie zadanym tym razem gęstością g. Oczywistym estymatorem jest zatem średnia z wartości h(x i)f(x i ) g(x i ) dla X i będących niezależnymi realizacjami tej zmiennej losowej. Ten pozornie niewiele zmieniający manewr może w rzeczywistości w znaczny sposób zredukować wariancję estymatora. Jeśli mamy bowiem próbkę wielkości N, to wariancja estymatora jest równa: ( ) 1 h (X) f (X) N Var, g (X) dla X o gęstości g. Widać stąd, że jeśli stosunek g do hf jest w przybliżeniu stały, wariancja naszego estymatora jest bardzo niska. To właśnie pokazuje, skąd wzięła się nazwa metody importance sampling - należy losować z konkretnego rozkładu, takiego, dla którego częściej losujemy x, gdy h(x)f(x) jest duże i rzadziej w przeciwnym przypadku. Postaramy się teraz oszacować wariancję estymatora importance sampling, dokładniej 9

( ) wielkość Var h(x)f(x) g(x). Załóżmy dodatkowo, że zamiast g mamy pewną rodzinę rozkładów prawdopodobieństwa g α do wyboru. Przekształćmy nasze wyrażenie: ( ) ( h (X) f (X) h 2 (X) f 2 ) (X) Var = E g α (X) gα 2 θ 2 h 2 (x) f 2 (x) = dx θ 2 (X) R g α (x) { } h (x) f (x) sup h (x) f (x) dx θ 2 = M (α) θ θ 2 x R g α (x) R = θ (M (α) θ), { } gdzie definiujemy M (α) = sup h(x)f(x) x R g α(x). Można wobec tego minimalizować samo M (α). Nie musi to koniecznie dać optymalnej gęstości g α, ale często jest łatwiejsze niż minimalizacja wyjściowego wyrażenia Var co nasza wyjściowa całka (1.1). ( h(x)f(x) g α(x) ), które może być podobnej postaci, 10

Rozdział 2 Metody redukcji wariancji - Importance Sampling Magdalena Hubicz Rozdział opracowany na podstawie rozdziału "Applications in Risk Management" książki Paula Glassermana "Monte Carlo Methotds in Financial Engineering", pp. 481-500, Springer, 2004 Stosowanie symulacji Monte Carlo (MC) jest powszechne przy wycenie skomplikowanych instrumentów pochodnych, jest jednak równie ważne przy zarządzaniu ryzykiem portfela. Dla dużych i rozbudowanych portfeli, zawierających szereg zupełnie róznych instrumentów finansowych, obliczenie miary ryzyka może być poważnym wyzwaniem. Naszą uwagę skierujemy na problem estymacji prawdopodobieństwa dużych strat, co w gruncie rzeczy sprowadza się do symulacji rzadkich, lecz ważnych zdarzeń. 2.1 Value-at-Risk - wartość zagrożona Na samym początku usystematyzujmy oznaczenia: V (S, t) = wartość portfela w chwili t z cenami S S = wektor długości m, zawiera ceny lub stopy zwrotu t = horyzont czasowy, zazwyczaj = 1 252 S = zmiana cen/stóp w przedziale czasowym t L = V = V (S, t) V (S + S, t + t), strata w przedziale czasowym t F L (x) = P (L < x), dystrybuanta straty L Wartość zagrożoną portfela (VaR) można zdefiniować jako maksymalną stratę rynkowej wartości portfela lub instrumentu finansowego możliwą do poniesienia w konkretnym horyzoncie czasowym i przy założonym poziomie ufności. V ar 0.01 L = inf x {x : P (L x) 0.01} = inf x {x : F L (x) 0.99} 11

Z powyższego równania wynika, że VaR jest funkcją kwantyla rozkładu straty. Mianowicie, jeśli dystrybuanta jest ciągła i ściśle rosnąca, to V ar 0.99 L = FL 1 (0.99), w przeciwnym przypadku definiujemy go jako lewy kwantyl. VaR w prosty sposób podsumowuje informacje o ogonie rozkładu i jest postrzegany jako największa strata, jaką można ponieść przy zadanym poziomie ufności. 2.2 Obliczanie VaR-u Jest wiele sposobów obliczania i aproksymowania rozkładu straty i VaR-u, każdy różni się realizmem założeń i stopniem skomplikowania. Wyboru możemy dokonać na podstawie składu portfela i wymaganej dokładności. Spośród wielu dostępnych metod P. Glasserman skupia się na delta-gamma aproksymacji, która dobrze wpasowuje się w metodę Importance Sampling. 2.2.1 Aproksymacja liniowa Jak dotąd najprostszym podejściem są założenia, że S ma wielowymiarowy rozkład normalny, a V zależy od S liniowo: S N(0, Σ S ) (2.1) V = δ T S (2.2) dla pewnego wektora wrażliwości δ. Wówczas L N(0, σl 2 ) gdzie σ2 L = δt Σ S δ, oraz V ar 0.99 = 2.33σ L ponieważ Φ(2.33) = 0.99. 2.2.2 Delta-Gamma aproksymacja Założenie o liniowości V względem S zachodzi na przykład dla portfela złożonego z samych akcji. Jednak dołożenie do tego portfela opcji całkowicie burzy to podejście. Prostym sposobem na rozszerzenie wzoru 2.2 jest dodanie kolejnych wyrazów z rozwinięcia Taylora, co nazywamy delta-gamma aproksymacją. gdzie V V t t + δt S + 1 2 ST Γ S (2.3) δ i = V S i, Γ ij = 2 V S i S j. Ponieważ δ i Γ są standardowo obliczane przy wycenie, traktujemy jako dane. Aby znaleźć rozkład przybliżenia ze wzoru 2.3, przedstawmy je najpierw w wygodniejszej do przeprowadzenia symulacji formie. Niech S = CZ gdzie Z N(0, 1), a CC T = Σ S. Wówczas L = V = a (C T γ) T Z 1 2 ZT (C T ΓC)Z (2.4) gdzie a = t V t. Aby zdiagonalizować czynnik kwadratowy podstawmy C = CU, gdzie C pochodzi z rozkładu Choleskiego, a U to macierz ortogonalna (UU T = I), której kolumny są wektorami własnymi macierzy 1 2 C T Γ C. Wynika stąd, że 1 2 CT ΓC = 1 2 U T ( C T Γ C)U = U T (UΛU T )U = Λ 12

jest macierzą diagonalną z wartościami własnymi λ j macierzy 1 2 C T Γ C na przekątnej. Ustalalając b = C T δ, możemy zapisać wzór 2.4 jako: m L a + b T Z + Z T ΛZ = (b j Z j + λ j Zj 2 ) Q. (2.5) j=1 Analityczny wzór rozkładu Q można policzyć wykorzystując jej funkcję generującą momenty oraz funkcję charakterystyczną, co jest dokładniej opisane w sekcji "Delta-Gamma: Moment Generating Function" omawianego rozdziału książki P. Glassermana. Wykorzystanie delta-gamma aproksymacji ma na celu przyspieszenie metody MC. Nawet w przypadkach gdy metoda ta nie pozwoli osiągnąć precyzyjnego przybliżenia, może być potężnym narzędziem do zmniejszenia wariancji. 2.3 Symulacje Monte Carlo Zgodnie z podstawowym modelem MC obliczenie rozkładu straty i VaR-u jest proste koncepcyjnie: 1. Powtarzamy n razy niezależnie: generowanie wektora zmiany cen S ponowna wycena portfela i obliczenie straty L = V 2. Estymujemy rozkład straty P (L < x) ˆF L,n (x) = 1 n n 1l{L i < x} 3. Obliczamy przybliżenie VaR-u na poziomie p jako ˆx p = 1 ˆF L,n (1 p) Wąskim gardłem tego algorytmu jest krok ponownej wyceny. Dla rozbudowanych portfeli każda wycena może wymagać tysięcy numerycznych procedur (np. rozwiązywania równań różniczkowych cząstkowych, albo zagnieżdżonych symulacji). Dlatego tak ważne jest zmniejszenie liczby scenariuszy potrzebnych do osiągnięcia wymaganej dokładności estymatora. 2.4 Importance Sampling - Losowanie istotne Techniki omawiane niżej są wynikiem pracy Glassermana, Heidelberga i Shahabuddina (2000,2002). Dzięki metodzie Importance Sampling możemy użyć Delta-Gamma aproksymacji do kontrolowania doboru próby scenraiuszy jeszcze przed wyceną portfela. Dokładniej, możemy użyć naszej wiedzy o rozkładzie Q aby zwiększyć prawdopodobieństwo ważnych z naszego punktu widzenia zdarzeń generujących dużą stratę. Zgodnie z założeniami Importance Sampling, gdy chcemy obliczyć Eh(X), gdzie X f możemy, dobierając odpowiednią funkcję g, korzystać z innego rozkładu: Eh(X) = h(x)f(x)dx = h(x) f(x) g(x) g(x)dx = E gh(y ) f(y ) g(y ), gdzie Y g W jaki sposób dobrać funkcję g? Według autora najlepszym sposobem będzie wykorzystanie wykładniczej zmiany miary (Exponential Twisting), która prowadzi do 13

efektywnego zredukowania wariancji. Dokładniej mówiąc, definiujemy rodzinę miar prawdopodobieństwa poprzez iloraz: dp θ dp = expθq ψ(θ), (2.6) gdzie ψ jest funkcją generującą kumulanty (log(exp θq )), a θ jest dowolną liczbą rzeczywistą dla której ψ(θ) <. Stąd zaś P(Q > x) = E θ [exp θq+ψ(θ) 1l{Q > x}] Jeśli θ jest dodatnia, to P θ daje większe prawdopodobieństwo dużych wartości Q, niż dawała miara pierwotna P. Ściślej mówiąc, drugi moment estymatora IS, to E θ [exp 2θQ+2ψ(θ) 1l{Q > x}] = E[exp θq+ψ(θ) 1l{Q > x}] exp θx+ψ(θ), (2.7) który maleje wykładniczo względem x, gdy θ > 0. Powyższy pomysł zmiany miary przenosi się również na problem estymacji P(L > x). 2.5 Losowanie z nowej miary Aby użyć zaprezentowanej metody IS musimy umieć wygenerować niezależnie exp θq+ψ(θ) 1l{L > x} w nowej mierze P θ. Innymi słowy, musimy umieć wygenerować pary (Q, L) względem P θ. Przypomnijmy jednak, że zgodnie z naszymi przekszałceniami nie generujemy (Q, L) bezpośrednio. Bazujemy na Z N(0, I), a (Q, L) = f(z) dla pewnej deterministycznej funkcji f. Skoro w ten sposób otrzymujemy rozkład (Q, L) dla wyjściowej miary P, to aby otrzymać (Q, L) względem P θ, wystarczy losować Z ze zmodyfikowanego rozkładu. Zgodnie z wynikami GHS (2000, Variance reduction techniques for estimating value-at-risk)) opartymi na analizie delta-gamma aproksymacji Z N(µ(θ), Σ(θ)), gdzie Σ(θ) jest macierzą diagonalną z σj 2 (θ) na przekątnej, oraz µ j (θ) = θb j 1 2λ j θ, σ2 j (θ) = Pamiętając o nałożonym warunku ψ(θ) < wymagamy, by 2λ j θ < 1. Aby pokazać, że jest to właściwy rozkład, spójrzmy ogólniej. Dla dowolnych µ i Σ iloraz gęstości N(µ, Σ) i N(0, I) jest dany przez Σ 1/2 exp( 1 2 (Z µ)t Σ 1 (Z µ)) exp( 1. 2 ZT Z) 1 1 2λ j θ. (2.8) Podstawiając wartości ze wzoru 2.8 i odpowiednio upraszczając, iloraz redukuje się do exp(θq + ψ(θ)), z Q zależnym od Z zgodnie ze wzorem 2.5. Ponieważ jest to iloraz za pomocą którego definiowaliśmy miarę P θ, rzeczywiście możemy wnioskować, że Z w tej mierze ma parametry podane we wzorze 2.8. 14

2.6 Algorytm Importance Sampling 1. Wybierz wartość θ > 0 dla której ψ(θ) < 2. Dla każdej z n replikacji: generuj Z z rozkładu N(µ(θ), Σ(θ)) z parametrami określonymi we wzorze 2.8. oblicz Q bazując na Z zgodnie ze wzorem 2.5 ustal S = CZ wyceń portfel V (S + S, t + t) i oblicz stratę L oblicz exp θq+ψ(θ) 1l{L > x} 3. Oblicz estymator 1 n n exp θq+ψ(θ) 1l{Q > x} 2.7 Wybór parametru zmiany miary - θ Pierwszy krok algorytmu IS wymaga od nas wyboru parametru θ. Ponieważ brak nam dodatkowych informacji, wybierzemy wartość θ efektywną w obliczaniu P(Q > x), a otrzymany wynik zastosujemy do estymacji P(L > x). Zgodnie z nierównością 2.7 możemy zminimalizować ograniczenie górne drugiego momentu estymatora IS wybierając dla każdego x, θ minimalizujące ψ(θ) θx. Funkcja ψ jest wypukła (gdyż jest funkcją generującą kumulanty), skąd wynika fakt iż wyrażenie osiąga minimum w punkcie θ x, będącym pierwiastkiem równania ψ (θ x ) = x. Dodatkowo θ x posiada interpretację, która rzuca więcej światła na wykorzystanie go w metodzie IS. Różniczkując wyrażenie definiujące ψ(θ) = loge[exp(θq)] dostajemy: ψ (θ) = E[Q expθq ] E[exp θq ] = E[Q exp θq ψ(θ) ] = E θ [Q] zgodnie z równaniem 2.6 definiującym rodzinę nowych miar prawdopodobieństwa. Wybierając θ = θ x generujemy próbki z rozkładu w którym E θx [Q] = x. Podczas gdy w oryginalnym rozkładzie x był w ogonie rozkładu, po zastosowaniu Importance Sampling jest on blisko środka nowego rozkładu. Pozwala nam to w znacznym stopniu zmniejszyć liczbę symulacji wymaganych do osiągnięcia żądanej dokładności estymatora. Aby policzyć wartość VaR-u przy pomocy metody prostego MC musimy wygenerować różne scenariusze cen, wyznaczyć straty i obliczyć kwantyl empiryczny rozkładu straty. Brzmi prosto, lecz policzenie straty wymaga obliczenia wartości przyszłej portfela, co może prowadzić do wewnętrznych symulacji MC lub innych złożonych metod numerycznych. Chcielibyśmy zatem zredukować liczbę scenariuszy, lecz to może spowodować utratę precyzji estymacji. Z pomocą przychodzi metoda redukcji wariancji - Importance Sampling. 15

Rozdział 3 Important Sampling w Monte Carlo jako sposób estymacji kwantyli Patrycja Pol Rozdział opracowany na podstawie pracy "Importance Sampling for Monte Carlo estimation of Quantiles ", autorstwa Petera W. Glynna 3.1 Wstęp Praca Glynna skupia się na zastosowaniu techniki redukcji wariancji znanej jako metoda Important Sampling jako narzędzia do obliczenia kwantyli. Przedstawione zostanie wyprowadzenie Centralnego Twierdzenia Granicznego dla dwóch proponowanych estymatorów. Dla zdefioniowania problemu przyjmijmy dalsze założenia: niech X będzie zmienną losową o wartościach rzeczywistych z dystrybuantą F (). Dla 0 < p < 1, wielkość: F 1 (p) = inf x F (x) p nazywana jest p kwantylem X. Główny problem estymacji tej wartości zależy od efektywności metody. Sama estymacja kwantyli jest w sobie interesująca, ponieważ znajduje zastosowanie w bardzo wielu obszarach. Przykładem może być liczenie wartości krytycznych wymaganych w testach statystycznych, gdzie niemożliwm jest tam policzenie analitycznie. Drugim ciekawym zagadnieniem jest związek estymacji kwantyli z przemysłem. Chodzi mianowicie o udoskonalenie sposobu określania daty ważności towaru, tak by firmy mogły gwarantować z jak najwyższym prawdopodobieństwem, że trafi on do klientów w dobrym stanie. 3.2 Podstawowy pomysł Zasadniczym celem jest obliczenie wartości α = F 1 (p) ( szczególnie dla p bliskiemu 0 lub 1). Stndardowa estymacja α metodą Monte Carlo wiąże się z generowaniem niezależnych zmiennych losowych X 1, X 2,... posiadających wspólną dystrybuantę F. Wówczas 16

estymator α ma następującą postać: α n = F 1 n (p) = inf F n(x) p x gdzie F n nazywana jest dystrybuantą empiryczną: α ma następującą postać: F 1 n (x) = 1 n 1lt (X i x) Chcąc zastosować metodę important sampling (losowanie istotne), wybieramy dystrybuantę F dla której potrafimy wygenerować zmienne i takiej, że rozkład prawdopodobieństwa powiązany z F jest absolutnie ciągły w odniesieniu do rozkładu F. To implikuje istnienie gęstości p( ) takiej, że F (dx) = p( ) F dla każdego x R. Zakłada się, że p( ) jest znaną funkcja. Niech P ( ) ( P ( )) i E( ) (Ẽ( )) będą odpowiednimi funkcjami prawdopodobieństwa i wartości oczekiwanej. Ze wzoru 3.2 wynika: P (X i x) = ẼL i1l(x i x) P (X i > x) = ẼL i1l(x i > x) gdzie L i = p(x i ). Niech L = n 1 L i. Daje to następujące estymatory dla F ( ): F 1n (x) = 1 n 1l(Xi x) F 2n (x) = 1 1 n 1l(Xi > x) Pozwala to zdefiniować następujące estymatory dla α: α in = inf x F n(x) p dla i = 1, 2. Głównym rezultatem tej części jest Centralne Twierdzenie Graniczne dla przedstawionych dwóch estymatorów. Twierdzenie 3.1. Niech ẼL2+δ i < i F różniczkowalna w α = F 1 (p) oraz F (α) > 0. Wtedy, dla i = 1, 2 n 1 2 ( αin α) = σ i N(0, 1) dla n, gdzie σ 2 1 = (Ẽ[L2 1 1l(X 1 α)] p 2 ) F (α) 2, σ 2 2 = (Ẽ[L2 1 1l(X 1 > α)] (1 p 2 )) F (α) 2 (Dodatkowo zbieżność dystrybuant jest jednostajna.) Warte zauważenia jest, że jeśli F = F, wówczas Li = 1 i w twierdzeniu 3.1 otrzyma się Centralne Twierdzenie Graniczne dla umownego estymatora kwantyla α n. Mając zbiór symulacji (X 1, L 1 ),..., (X n, L n ) wygenerowany z rozkładu P, oblicznie α in przebiega podobnie jak dla α n. Najpierw należy posortować wartości X i w porządku rosnącym otrzymując (X (1),..., X (n) ). Teraz α 1n = X σ(i1 ) gdzie i 1 jest najmniejszym takim, by i1 j=1 p(x (j) ) pn, natomiast α in = X σ(i1 ) gdzie i 2 największym takim, dla którego nj=i2 p(x (j) ) (1 p)n. Wówczas problemem staje się znalezienie dobrego estymatora F (α). 17

3.3 Kandydat Important Sampling na dystrybuantę W teori prawdopodobieństwa Large Deviations theory koncentruje się na asymptotycznym zachowaniu "ogona" dystrybuanty. Efektem jest wzór: P (X > x) exp( xθ x + φ(θ x )) spełniony dla x EX, gdzie θ x jest pierwiastkiem równania φ(θ x ) = x, a φ(cdot) jest generatorem X. Aproksymacja ogona sugeruje aproksymacje kwantyli. Niech zatem θ p będzie rozwiązaniem równania: Wtedy dla p bliskich 1: θ p φ ( θ p ) + φ( θ p ) = log(1 p). (3.1) P (X > φ ( θ p )) 1 p. (3.2) Sugeruje to, że φ ( θ p ) może byc użyte jako aproksymacja kwantyla α(p) = F 1 (p). Zauważmy, że jeśli F = exp( θp x φ( θ p ))F (dx) to średnią dla dystrybuanty important sampling jest φ ( θ p ). Relacja 3.2 dowodzi, że losowanie dla F z właściwej częsci ogona powiązanego z kwantylem α(p) nie jest więc rzadki, co sugeruje możliwość redukcji wariancji. Ta droga jest możliwa, kiedy φ(cdot) jest znana i zmienne powiązane z F mogą być generowane w prosty sposób. Należy zauważyć, że x(θ) = θφ (θ) + φ(θ) ma pochodną równą θφ (θ). Ponieważ φ jest wypukła to x(θ)jest malejąca oraz rozwiązanie dla 3.1 jest jednoznaczne. Rozpatrzmy teraz problem estymacji kwantyla rzędu p dla rozkładu N(0, 1) dla p bliskiemu 1. Wtedy θ p = ( 2log(1 p)) 1 2 oraz F jest dystrybuantą rozkładu normalnegi ze średnią µ = ( 2log(1 p)) 1 2 i jednostkową wariancją. Każdy z kwantyli F (α) 2 σ 2 i (dla,2) może zostać przedstawiony w terminach ẼL2 1 oraz ẼL2 1 1l(X 1 > α). Niech N N(0, 1). Zauważmy, że p(x) = exp( (2xy y 2 )/2), a zatem: Podobnie można pokazać, że ẼL 2 1 = E exp( (2(N + y)y y 2 )) = exp(y 2 ) = (1 p) 2 ẼL 2 11l(X 1 > α) = exp(µ 2 )P (N > α + µ) Korzystając z odpowiednich twierdzeń dla α µ, gdy p 1: dla x wtedy To dowodzi, że dla p 0: oraz dla p 1: P (N > x) exp( x2 2 )/(x 2π) log ẼL2 11l(x 1 > α) 2log(1 p). F (α) 2 σ 2 1 (1 p) 2 F (α) 2 σ 2 2 (1 p) 2. 18

3.4 Analiza asymptot Rzekomo α i F mogą zostać użyte jako redukcja wariancji. Pokażemy, że faktycznie tak jest. Będziemy rozważać X = S m = Y 1 +...+Y m, gdzie Y i są niezależnymi zmiennymi losowymi. Szukamy kwantyla p dla S m, gdzie p = 1 exp( β m ). Niech φ Y (θ) = logeexp(θy i ) i θ p będzie pierwiastkiem θ p φ Y ( θ p ) + φ Y ( θ p ) = β (3.3) Za gęstość bierzemy exp( θ p S m mφ Y ( θ p )). Chcemy teraz porównać wariancję α 2n i α n przy n. Mamy wtedy:n frac12 (α n α) σn(0, 1) gdy n, gdzie σ 2 = p(1 p)/f (α). Do porównania granicznych zachowań σ 2 i σ2 2 zostanie wykorzystane poniższe twierdzenie. Twierdzenie 3.2. Niech 3.3 ma dodatnie rozwiązanie i φ Y ( ) będzie różniczkowalne w otoczeniu θ p. Wówczas log F (α)σ 2 lim = β (3.4) m m log F (α)σ 2 lim m m 2β (3.5) 19

Rozdział 4 Asymptotyczna reprezentacja estymatorów Importance sampling dla Value-at-Risk oraz Conditional Value-at-Risk Marcin Sosnowski, Piotr Wiązecki Rozdział opracowany na podstawie pracy L. Sun, L. J. Hong A general framework of Importance Sampling for Value-at-Risk and Conditional Value-at- Risk, Winter Simulation Conference, pp. 415-422, 2009 Value-at-Risk oraz Conditional Value-at-Risk są popularnymi miarami ryzyka. Zazwyczaj nie wyznacza się ich analitycznie, za to korzysta się z metod Monte Carlo. Ze względu na specyficzną postać estymatorów naturalną metodą polepszenia ich wiarygodności jest Importance Sampling. Okazuje się, że estymatory te mają szereg dobrych własności, takich jak mocna zgodność i asymptotyczna normalność. 4.1 Value-at-Risk, Conditional Value-at-Risk i ich estymatory Niech X oznacza przyszłą wartość danej pozycji finansowej. Zakładamy, że X jest zmienną losową o skończonej wartości oczekiwanej. Niech F oznacza dystrybuantę zmiennej X. Value-at-Risk (VaR) na poziomie ufności α dla zmiennej losowej X jest zdefiniowana jako ν α = inf{x : F (x) α}, z kolei Conditional Value-at-Risk (CVaR) definiujemy jako c α = 1 α α 0 ν t dt lub równoważnie c α = ν α 1 α E(ν α X) +. 20

Naturalne stymatory Monte Carlo dla VaR i CVaR, obliczane przy użyciu n niezależnych próbek X 1,... X n z rozkładu X mają następującą postać: ν n α = inf{x : F n (x) α}, c n α = ν n α 1 nα n ( ν α n X i ) +, gdzie F n jest dystrybuantą empiryczną rozkładu X obliczaną w następujący sposób: F n (x) = 1 n 1l n {Xi x} Te estymatory są nieobciążone, mocno zgodne, asymptotycznie normalne. Problem polega na tym, że w zastosowaniach α jest przeważnie bliskie 0, zaś wkład do otrzymania tych estymatorów mają tylko próbki z ogona rozkładu, przez co do wyprodukowania wiarygodnego wyniku liczba n powinna być być bardzo duża. Importance sampling pozwala alokować więcej próbek do lewego ogona rozkładu, co powinno poprawić efektywność estymatorów. Wprowadzamy rozkład o dystrybuancie G, z którego będziemy losować. Zakładamy, że jest to rozkład absolutnie ciągły względem F i niech L(x) = F (dx) G(dx) będzie gęstością rozkładu F względem G. Wówczas estymatory IS przyjmują postać: ˆF n (x) = 1 n 1l n {Li x}l(l i ), ˆν α n = inf{x : ˆF n (x) α}, ĉ n α = ˆν α n 1 n (ˆν α n L i ) + L(L i ), nα gdzie L i są iid próbkami z rozkładu G. Aby wyprowadzić asymptotyczną postać powyższych estymatorów, czynimy natępujące założenia: Założenie 1. Istnieje ε > 0, taki że zmienna L ma niezerową, różniczkowalną gęstość f w przedziale (ν α ɛ, ν α + ε), Założenie 2. Istnieje stała C > 0, taka że L(x) C dla x < ν α + ε Założenie 1 implikuje F (ν α ) = α oraz c α = E(X X ν α ). Ostatnia równość stanowi interpretację miary CVaR jako średniej wielkości naszej pozycji finansowej w α najgorszych przypadków. Zwróćmy uwagę, że założenie 2 nie jest zbyt restrykcyjne - gęstość G będziemy wybierać tak, aby alokowała więcej próbek do lewego ogona rozkładu, zatem zapewne na lewo od ν α będziemy mieli G(x) > F (x), czyli L(x) < 1. Założenie 2 można też osłabić do następującego: Założenie 2a. Istnieje stała C > 0, taka że L(x) C dla x (ν α + ε, ν α + ε), ponadto istnieje stała p > 2, taka że E(1l {L να+ε}l p (L)) <, wpływa to nieznacznie na pogorszenie pewnych oszacowań, jednak wnioski dotyczące mocnej zgodności i asymptotycznej normalności obu estmatorów pozostają te same. 21

4.2 Asymptotyczna reprezentacja estymatorów Będziemy potrzebować pewnego oznaczenia. Niech Y n będzie ciagiem zmiennych losowych, a n niech będzie ciagiem liczbowym. Wówczas notacja oznaczać będzie, że Możemy teraz sformułować Y n = O(a n ) p.n. P( C>0 Y n C a n dla dostatecznie dużych n) = 1. Twierdzenie 4.1. Przy założeniach 1 i 2 dla każdego α (0, 1) gdzie A n = O(n 3 4 (log n) 3 4 ) p.n. ˆν n α = ν α + 1 f(ν α ) (α 1 n n 1l {Li ν α}l(l i )) + A n, Zauważmy, że w oryginalnej pracy Sun a i Hong a w analogicznym twierdzeniu (Twierdzenie 3.1 tamże) podany jest rząd zbieżności A n = O((n 3 4 (log n) 3 4 ). Jest to błąd, co wynika z późniejszej pracy tych samych autorów 1. Powyższe Twierdzenie pozwala przedstawić estmator jako sumę zmiennych niezależnych o tym samym rozkładzie plus składnik szybko zbiegający do zera prawie na pewno. Poniżej szkic dowodu: Ze wzoru Taylora otrzymujemy dla ˆν n α dostatecznie bliskich ν α : F (ˆν n α) = F (ν α ) + f(ν α )(ˆν n α ν α ) A 1,n, gdzie A 1,n jest residualnym składnikiem, o którym spodziewamy się, że jest w pewnym sensie mały. Przepisując inaczej dostajemy ˆν n α = ν α + F (ˆνn α) F (ν α ) f(ν α ) + 1 f(ν α ) A 1,n. Oznaczając teraz możemy napisać A 2,n = F (ˆν n α) + ˆF n (ν α ) ˆF n (ˆν n α) F (ν α ), A 3,n = ˆF n (ˆν n α) F (ν α ) Wstawiając do wzoru na ˆν n α dostajemy F (ˆν n α) F (ν α ) = F (ν α ) ˆF n (ν α ) + A 2,n + A 3,n. ˆν n α = ν α + F (ν α) ˆF n (ν α ) f(ν α ) + A 1,n + A 2,n + A 3,n. f(ν α ) 1 L. Sun, L. J. Hong Asymptotic Representations for Importance-Sampling Estimators of Value-at-Risk and Conditional Value-at-Risk, Operations Research Letters, vol. 38, no. 4, pp. 246-251, 2010 22

We wspomnianej pracy "Asymptotic Representations for Importance-Sampling Estimators of Value-at-Risk and Conditional Value-at-Risk" autorzy obliczają rzędy zbieżności poszczególnych członów (Lemma 1): A 1,n = O(n 1 log n) p.n., A 2,n = O(n 3 4 (log n) 3 4 ) p.n., A 3,n = O(n 1 ) p.n. Dowód jest bardzo techniczny, ale wymaga jedynie znajomości prostych nierówności z podstawowego kursu rachunku prawdopodobieństwa: nierówności Azumy-Hoeffdinga oraz nierówności Bernsteina. Po przyjęciu A n = A 1,n + A 2,n + A 3,n otrzymujemy postać ˆν n α taką jak w Twierdzeniu. W szczególnym przypadku L 1 otrzymujemy asymptotyczne rozwinięcie dla CMC estymatora VaR. Z Twierdzenia reftwierdzenie1 płyną dwa ważne wnioski: Wniosek 4.1. ˆν n α ν α prawie na pewno gdy n Wniosek 4.2. V ar[1l n(ˆν n {L να}l(l)] α ν α ) N (0, 1) według rozkładu. f(ν α ) Pierwszy wniosek wynika z Mocnego Prawa Wielkich Liczb, drugi jest konsekwencją Centralnego Twierdzenia Granicznego oraz faktu, że na n 0 prawie na pewno. Asymptotyczna reprezentacja V ar pomaga również uzyskać asymptotyczną postać estmatora CV ar. Przypomnijmy: co możemy zapisać w postaci ĉ n α = ν α 1 nα ĉ n α = ˆν n α 1 nα n (ˆν α n L i ) + L(L i ), n (ν α L i ) + L(L i ) + (ˆν α n ν α ) 1 n [(ˆν α n L i ) + (ν α L i ) + ]L(L i ). nα Korzystając z rezultatów osiągniętych dla estymatora ˆν α n Sun i Hong obliczają rząd zbieżności rezydualnych członów, otrzymując następującą asymptotyczną postać estymatora ĉ n α: ĉ n α = ν α 1 n (ν α L i ) + L(L i ) + B n, nα gdzie B n = O(n 1 log n) p. n. Po przegrupowaniu wyrazów, otrzymujemy następujące Twierdzenie 4.2. Przy założeniach 1 i 2 dla każdego α (0, 1) gdzie ĉ n α = c α + ( 1 n [ν α 1 n α (ν α L i ) + L(L i )] c α ) + B n, B n = O(n 1 log n) p. n. 23

Biorąc L 1, otrzymujemy w szczególności, że powyższze Twierdzenie zachodzi także dla zwykłego estymatora MC. Z Twierdzenia 4.2 płyną dwa ważne wnioski: Wniosek 4.3. ĉ n α ν α prawie na pewno gdy n Wniosek 4.4. n(ĉ n V ar[(να L i ) α c α ) + L(L)] N (0, 1) według rozkładu. α Pierwszy wniosek wynika z Mocnego Prawa Wielkich Liczb, drugi jest konsekwencją Centralnego Twierdzenia Granicznego oraz faktu, że nb n 0 prawie na pewno. Widzimy zatem, że estymatory Importance Sampling dla VaR oraz CVaR są nie tylko nieobciążone, ale także mocno zgodne oraz asymptotycznie normalne. Dzięki tym własnościom estymatory te mogą być z powodzeniem stosowane w obliczeniach VaR i CVaR, gdzie, jak pokazano w jednym z poprzednich rozdziałów, działają niesamowicie efektywnie. 24

Część II Zastosowanie metod Monte Carlo: wycena opcji amerykańskich 25

Rozdział 5 Symulacyjna wycena opcji amerykańskich - algorytm Longstaffa-Schwartza Katarzyna Cybulska, Maria Pawłowska Rozdział opracowany na podstawie pracy Francis A. Longstaff, Eduardo S. Schwartz "Valuing American Options by Simulation: A Simple Least-Squares Approach", Review of Financial Studies, 2001, pp. 113-147 Jednym z najważniejszych problemów w teorii wyceny opcji jest wycena oraz znajdowanie optymalnego momentu wykonania opcji typu amerykańskiego. Opcje tego typu pojawiają się na wszystkich większych rynkach finansowych. Wycena opcji typu amerykańskiego staje się jeszcze bardziej skomplikowana, gdy na wycenę opcji wpływa kilka czynników. W takim wypadku metody drzewka dwumianowego i różnic skończonych stają się trudne w implementacji i przez to niepraktyczne. Artykuł Longstaffa i Schwartza przedstawia symulacyjne podejście do problemu wyceny opcji typu amerykańskiego. Znajduje zastosowanie przy wycenie nawet bardzo skomplikowanych opcji egzotycznych, przy różnych modelach aktywa bazowego oraz stóp procentowych. 5.1 Prosty przykład Na prostym przykładzie prześledzimy działanie algorytmu. Rozważmy opcję amerykańską o terminie wykonania T. W chwili T wykonamy opcję amerykańską jeśli będzie ona w pieniądzu. W każdej poprzedzającej chwili czasu będziemy musieli dokonać wyboru: czy opłaca nam się wykonać opcję od razu, czy lepiej poczekać i wykonać ją później. Podczas podejmowania takiej decyzji porównujemy faktyczny przepływ jaki możemy otrzymać w przypadku natychmiastowego wykonania opcji ze zdyskontowaną warunkową wartością oczekiwaną przyszłych przepływów, jakie możemy otrzymać wykonując opcję później. Dlatego kluczowym zadaniem na które natykamy się podczas wyceniania opcji amerykańskiej jest szacowanie owej warunkowej wartości oczekiwanej. Algorytm Longstaffa-Schwartza (zwany dalej algorytmem LSM) wykorzystuje dane ze wszystkich wygenerowanych ścieżek do odnalezienia warunkowej wartości oczekiwanej. 26

Rozważmy amerykańską opcję sprzedaży na akcję nie płacące dywidendy. Cena wykonania opcji wynosi 1.1 w chwilach T = 1, 2, 3, gdzie T = 3 to ostateczny termin zapadalności opcji. Stopa bezryzykowna wynosi 6%. Dla prostoty prześledzimy działanie algorytmu dla 8 ścieżek, generowanych przy pomocy miary martyngałowej: Rysunek 5.1: Ścieżki wartości akcji Poruszając się od chwili T = 3 wstecz będziemy ustalać optymalny moment stopu dla każdej ze ścieżek. Przepływy pieniężne z wykonania opcji w chwili T = 3 pod warunkiem, że nie wykonaliśmy opcji w T = 1, 2 przedstawia tabela: Rysunek 5.2: Przepływy w chwili T = 3. Jeżeli opcja jest w pieniądzu w chwili T = 2 posiadacz opcji musi zdecydować czy wykonać opcję natychmiast, czy poczekać do chwili T = 3. Jak widać w tabeli 5.1 jest tylko 5 ścieżek spełniających ten warunek. Oznaczmy przez Y zdyskontowane przyszłe przepływy wynikające w wykonania opcji w chwili T = 3 a przez X wartość akcji w chwili T = 2. Do estymacji wartości oczekiwanej używamy tylko ścieżek, dla których opcja w chwili T = 2 jest w pieniądzu, ponieważ pomaga to lepiej oszacować warunkową wartość oczekiwaną tam, gdzie jest ona nam potrzebna oraz poprawia to znacznie wydajność algorytmu. 27

Rysunek 5.3: Zdyskontowane przyszłe przepływy i wartość akcji w chwili T = 2 W dalszej części algorytmu rzucamy Y na przestrzeń liniową stworzoną ze stałej, X oraz X 2. Jest to bardzo prosty typ wielomianów bazowych, w dalszej części referatu zostały omówione inne możliwe wybory wielomianów bazowych. Korzystając z metody najmniejszych kwadratów otrzymujemy rozwiązanie: E[X Y ] = 1.070 + 2.983X 1.813X 2. Kolejna tabela przedstawia wartośći przepływów wynikających z natychmiastowego wykonania opcji (pierwsza kolumna) i warunkową wartość oczekiwaną przyszłych przepływów (druga kolumna). Rysunek 5.4: Porównanie przepływów z chwili T = 2 z warunkową wartością oczekiwaną przyszłych przepływów Porównując przepływy z chwili T = 2 z warunkową wartością oczekiwaną przyszłych przepływów podejmujemy decyzje: wykonujemy opcję teraz, gdy wartość przepływu z natychmiastowego wykonania opcji jest wyższa, lub nie wykonujemy opcji, gdy warunkowa wartość oczekiwana jest wyższa. Tabela poniżej obrazuje uzyskane przepływy w wyniku kierowania się taką strategią: 28

Rysunek 5.5: Przepływy wynikające z kierowania się strategią algorytmu Postępując rekursywnie zastanowimy się, czy algorytm powinien być wykonany w chwili T = 1. W tabeli ścieżek wartości akcji widzimy tylko 5 ścieżek, w których opcja jest w pieniądzu w chwili T = 1. Tabela 5.6 przedstawia nowo zdefiniowane wartości X i Y : Y oznacza zdyskontowane przyszłe przepływy wynikające w wykonania opcji w chwili T = 2 lub T = 3 (ale tylko w jednej z tych chwil) a X wartość akcji w chwili T = 1. Rysunek 5.6: Zdyskontowane przyszłe przepływy i wartość akcji w chwili T = 1 Podobnie jak w poprzednim kroku postaramy się wyrazić Y przy pomocy stałej, X oraz X 2. Wyestymowana przy pomocy metody najmniejszych kwadratów warunkowa wartość oczekiwana przyjmuje postać: E[X Y ] = 2.038 3.335X + 1.356X 2. Posiadając wzór na warunkową wartość oczekiwaną możemy porównać przepływy jakie wynikną z wykonania opcji w chwili T = 1 z warunkową wartością oczekiwaną przyszłych przepływów: 29

Rysunek 5.7: Porównanie przepływów z chwili T = 1 z warunkową wartością oczekiwaną przyszłych przepływów Na podstawie wartości z tabeli 5.7 możemy znów podobnie jak w poprzednim kroku podjąć decyzje czy opłaca nam się wykonać opcję w chwili T = 1 czy poczekać z jej wykonaniem do chwili T = 2 lub T = 3. Zbierając decyzje z pierwszego i drugiego kroku algorytmu w całość otrzymujemy optymalny moment stopowania dla każdej ścieżki: Rysunek 5.8: Optymalne momenty stopowania Podążając za regułą stopowania wyznaczoną przez tabelę 5.8 otrzymujemy następujące przepływy: 30

Rysunek 5.9: Przepływy wynikające ze stosowania reguły stopowania Ostatnim krokiem algorytmu jest zdyskontowanie przepływów z 5.9 na chwilę T = 0 w celu uzyskania ceny opcji amerykańskiej. Cena ta wynosi 0.1144 za jednostę nominału. 5.2 Algorytm Rozpatrzmy zupełną przestrzeń probabilistyczną (Ω, F, P) i skończony horyzont czasowy [0, T ], gdzie Ω to zbiór możliych realizacji stochastycznej ekonomii, F jest σ-ciałem rozróżnialych zdarzeń w chwili T, a P jest miarą probabilistyczną zdefiniowaną na elementach F. Zgodnie z teorią o braku arbitrażu, zakładamy tez istnienie miary martyngałowej Q. Chcemy wycenić opcję amerykańska o losowych wypłatach, które są elementami przestrzeni funkcji całkowalnych z kwadratem lub o skończonej wariancji. Śćieżkę przepływów pieniężnych generowanych przez opcję, która nie jest wykonana przed lub w chwili t, będziemy oznaczać przez C(ω, s; t, T ). Algorytm zakłada, że opcję możemy wykonać tylko w skończonej ilości momentów K. Do opcji, które mogą byc realizowane każdej chwili również można zastosować algorytm, wystarczy dobrać odpowiednio duże K. W każdym momencie t 1,..., t K inwestor decyduje czy zrealizować opcję czy trzymać ją dalej, przy czym realizacja następuję gdy tylko wartość oczekiwana z dalszego trzymania opcji jest niewiększa niż wypłata z jej natychmiastowgo wykonania. Znamy wypłatę z realizacji w danym momencie t k, natomiast wartość oczekiwana z dalszego trzymania opcji będzie wyrażona wzorem: F (ω; t k ) = E Q [ K j=k+1 tj exp( r(ω, s)ds)c(ω, t j ; t k, T ) F tk ] t k gdzie r(ω, t) jest bezryzykowną stopą dyskontową, a wartość oczekiwana jest obliczana pod warunkiem zbioru F tk (informacji w chwili t k ). Wówczas problem optymalnego momentu stopu sprowadza się do porównywania wartości z natychmiastowego wykonania opcji i warunkowej wartości oczekiwanej oraz realizacja opcji gdy tylko ta pierwsza jest dodatnia i większa lub równa warunkowej wartości oczekiwanej. Algorytm wykorzystuje metodę najmniejszych kwadratów, żeby aproksymować funkcję warunkowej wartości oczekiwanej, zaczynając od t K 1 i przesuwając się rekurencyjnie dalej aż do t 1. Zakładamy, że F (ω; t k ) może być przedstawiona jako kombinacja liniowa przeliczalenego zbioru 31

funkcji bazowych. Autorzy wymieniają tu m.in.:wielomiany Laguerre a, Hermite a oraz Legendre a. Implementacja algorytmu polega na wybraniu M < funkcji bazowych, a przybliżenie F (ω; t k ) w tej bazie nazywamy F M (ω; t k ). Nastepnie estymujemy F M (ω; t k ) korzystając z rzutów lub regresji zdyskontowanych wartości C(ω, s; t, T ) na funkcje bazowe. Bierzemy pod uwagę jedynie ścieżki w kórych opcja była w chwili t K 1 "in the money", ponieważ tylko wtedy realizacja opcji jest sensowna. Następnie możemy porównać estymator warunkowej wartości oczekiwanej i wartości z natychmiastowej realizji i podjąć decyzję co do wykonania opcji. Teraz możemy przejść do chwili t K 2 i tak dalej. Cenę opcji wyliczamy wtedy zaczynając w chwili zero i poruszając się wzdłuż każdej ścieżki aż do napotkania pierszego momentu stopu, dyskontując przepływ pienieżny z realizacji opcji do chwili zero, a następnie obiczając średnią po wszystkich ścieżkach ω. 32

Rozdział 6 Analiza algorytmu Longstaffa-Schwartza do wyceny opcji amerykańskich Piotr Bochnia, Paweł Marcinkowski Rozdział opracowany na podstawie pracy E.Clement, D. Lamberton, P. Protter An analysis of the Longstaff-Schwartz algorithm for American option pricing, Cornell University Operations Research and Industrial Engineering, 2001 Algorytm zaproponowany w 2001 roku przez F. A. Longstaffa i E. S. Schwartza jest jedną z metod symulacyjnej wyceny opcji amerykańskich. Opiera się on na przybliżaniu wartości oczekiwanej wypłaty z opcji pod warunkiem jej niewykonania za pomocą estymatora najmniejszych kwadratów. Praca skupia się na udowodnieniu zbieżności algorytmu, a także zawiera wyniki dotyczące tempa tej zbieżności. 6.1 Zagadnienie wyceny opcji amerykańskiej Niech (Ω, A, P) będzie przestrzenią probabilistyczną z dyskretną filtracją (F j ) j=0,1,...,l, gdzie L oznacza horyzont czasowy, zaś niech (Z j ) j=0,1,...,l oznacza ciąg zdyskontowanych wypłat z opcji amerykańskiej, będących zmiennymi losowymi całkowalnymi z kwadratem. Zakładamy tu dla uproszczenia, że opcja może być wykonana jedynie w skończonej liczbie momentów czasu 0, 1,..., L, a więc w istocie przybliżamy wartość opcji amerykańskiej za pomocą opcji bermudzkiej. Wycena takiej opcji polega na obliczeniu wielkości U 0 = sup τ T0,L EZ τ, gdzie T j,l jest zbiorem momentów zatrzymania o wartościach w {j, j + 1,..., L}. Korzystając z klasycznej teorii optymalnego stopowania można łatwo pokazać, że U 0 = EZ τ0, gdzie τ 0 jest momentem stopu wyznaczonym rekurencyjnie: τ L = L τ j = j1 Zj E(Z τj+1 F j ) + τ j+1 1 Zj <E(Z τj+1 F j ) Problem wyceny opcji sprowadziliśmy więc do problemu obliczenia momentów zatrzymania τ j, tj. momentów optymalnego wykonania opcji, pod warunkiem, że nie wykonano jej przed chwilą j. 33

6.2 Algorytm Longstaffa-Schwartza Niech (X j ) j=0,...,l będzie ciągiem cen instrumentu bazowego, który jest (F j ) łańcuchem Markowa na przestrzeni stanów (E, E). Pierwszym krokiem algorytmu jest przybliżenie warunkowych wartości oczekiwanych E(Z τj+1 F j ) = E(Z τj+1 X j ) za pomocą rzutu ortogonalnego na przestrzeń generowaną przez skończoną liczbą zmiennych z ciągu (e k (X j )) k 1, gdzie (e k ) k 1 są funkcjami mierzalnymi E R, spełniającymi następujące warunki A 1 : (e k (X j )) k 1 tworzą układ zupełny w L 2 (σ(x j )) dla j = 1,..., L 1 A 2 : dla j = 1,..., L 1 oraz m 1, jeżeli m k=1 λ k e k (X j ) = 0 wtedy λ k = 0 dla k = 1,..., m Wybierając m pierwszych funkcji bazowych oraz oznaczając przez Pj m rzut ortogonalny na podprzestrzeń generowaną przez {e 1 (X j ),..., e m (X j )} dla j = 1,..., L 1 możemy zdefiniować momenty zatrzymania τ [m] j : τ [m] L = L τ [m] j = j1 Zj Pj m(z τ [m] ) + τ [m] j+1 1 Z j <Pj m(z τ [m] ) j+1 j+1 Wówczas U0 m = max(z 0, EZ [m] τ ) jest przybliżoną wartością opcji. 1 Drugim krokiem algorytmu Longstaffa-Schwartza jest symulacyjne oszacowanie EZ [m] τ. 1 W tym celu generujemy pewną liczbę N ścieżek procesu cen i powiązanego z nim procesu wypłat (X (1) j,..., (X (N) j )), Z (n) j = f(j, X (n) j ), gdzie f jest pewną funkcją borelowską. Przybliżone optymalne momenty zatrzymania przedstawiają się następująco: = L gdzie α (m,n) j τ n,m,n L τ n,m,n j = j1 Zj α (m,n) j e m (X (n) j j+1 1 Zj <α (m,n) j e m (X (n) j ), ) + τ n,m,n a e m (X (n) j )) 2 są estymatorami najmniejszych = argmin Nn=1 a R m (Z (n) τ n,m,n j+1 kwadratów współczynników rzutu ortogonalnego, zaś e m = (e 1,..., e m ). Ostatecznie przybliżona symulacyjnie wartość opcji wyraża się wzorem U m,n 0 = max(z 0, 1 N 6.3 Oznaczenia Nn=1 Z (n) τ n,m,n 1 W celu wyrażenia kluczowych twierdzeń dotyczących zbieżności algorytmu Longstaffa- Schwartza konieczne jest wprowadzeniu kilku oznaczeń. Po pierwsze oznaczmy przez αj m wektor współczynników rzutu ortogonalnego wypłaty z opcji na przestrzeń funkcji bazowych (tj. Pj m(z τ [m]] ) = αj m e m (X j )). Wyraża się on wzorem: j+1 α m j = (A m j ) 1 E(Z τ [m]] j+1 e m (X j )), gdzie A m j = (E(e k (X j )e l (X j ))) k,l=1,2,...,m jest macierzą m m. Ponadto oznaczmy przez α m,n j estymator najmniejszych kwadratów wektora współczynników rzutu, oraz zapiszmy wszystkie wektory w jednej macierzy (m L 1): α m = (α1 m,..., αm L 1 ), α(m,n) = (α (m,n) 1,..., α (m,n) L 1 ). Następnie dla j = 1, 2,..., L zdefiniujmy funkcje F j (analogicznie do definicji momentów stopu): ). 34