Szkic wykładu pt.: ELEMENTY TEORII RYZYKA

Podobne dokumenty
Zmienność wiatru w okresie wieloletnim

Wpływ zdarzeń ekstremalnych i superekstermalnych na stochastyczną dynamikę szeregów czasowych

HISTOGRAM. Dr Adam Michczyński - METODY ANALIZY DANYCH POMIAROWYCH Liczba pomiarów - n. Liczba pomiarów - n k 0.5 N = N =

Metody oceny ryzyka operacyjnego

Spis treści 3 SPIS TREŚCI

Symulacyjne metody analizy ryzyka inwestycyjnego wybrane aspekty. Grzegorz Szwałek Katedra Matematyki Stosowanej Uniwersytet Ekonomiczny w Poznaniu

7. Estymacja parametrów w modelu normalnym( ) Pojęcie losowej próby prostej

Korzystanie z podstawowych rozkładów prawdopodobieństwa (tablice i arkusze kalkulacyjne)

Inne kryteria tworzenia portfela. Inne kryteria tworzenia portfela. Poziom bezpieczeństwa. Analiza i Zarządzanie Portfelem cz. 3. Dr Katarzyna Kuziak

Metody numeryczne I Równania nieliniowe

Optymalizacja ciągła

Prawdopodobieństwo i statystyka

Estymacja parametrów w modelu normalnym

MODELOWANIE ZMIENNOŚCI CEN AKCJI MODEL ADDYTYWNY MODEL MULTIPLIKATYWNY

Ćwiczenia Zarządzanie Ryzykiem. dr hab. Renata Karkowska, ćwiczenia Zarządzanie ryzykiem 1

Finanse behawioralne. Finanse

Ważne rozkłady i twierdzenia

Zarządzanie ryzykiem finansowym

Prognozowanie i Symulacje. Wykład I. Matematyczne metody prognozowania

Statystyki: miary opisujące rozkład! np. : średnia, frakcja (procent), odchylenie standardowe, wariancja, mediana itd.

Rozkłady statystyk z próby

WSKAZÓWKI DO WYKONANIA SPRAWOZDANIA Z WYRÓWNAWCZYCH ZAJĘĆ LABORATORYJNYCH

Twierdzenia Rolle'a i Lagrange'a

LABORATORIUM Z FIZYKI

Granice ciągów liczbowych

Iteracyjne rozwiązywanie równań

Spacery losowe generowanie realizacji procesu losowego

Prawdopodobieństwo i rozkład normalny cd.

Symulacyjne metody wyceny opcji amerykańskich

Zajęcia wprowadzające W-1 termin I temat: Sposób zapisu wyników pomiarów

dr hab. Renata Karkowska 1

Prawa wielkich liczb, centralne twierdzenia graniczne

Modelowanie wybranych pojęć matematycznych. semestr letni, 2016/2017 Wykład 10 Własności funkcji cd.

Parametr Λ w populacji ubezpieczonych ma rozkład dany na półosi dodatniej gęstością: 3 f

Wykorzystanie opcji w zarządzaniu ryzykiem finansowym

W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych:

Monte Carlo, bootstrap, jacknife

Weryfikacja hipotez statystycznych

Ważne rozkłady i twierdzenia c.d.

Statystyki: miary opisujące rozkład! np. : średnia, frakcja (procent), odchylenie standardowe, wariancja, mediana itd.

Szacowanie miary zagrożenia Expected Shortfall dla wybranych instrumentów polskiego rynku kapitałowego

Excel i VBA w analizach i modelowaniu finansowym Pomiar ryzyka. Pomiar ryzyka

Metody niedyskontowe. Metody dyskontowe

Układy stochastyczne

Rozkład Gaussa i test χ2

Statystyka matematyczna i ekonometria

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16

Zarządzanie wartością przedsiębiorstwa

Optymalne portfele inwestycyjne

Lista 5. Zadanie 3. Zmienne losowe X i (i = 1, 2, 3, 4) są niezależne o tym samym

Wykład 10 Estymacja przedziałowa - przedziały ufności dla średn

METODY NUMERYCZNE. Wykład 4. Numeryczne rozwiązywanie równań nieliniowych z jedną niewiadomą. prof. dr hab.inż. Katarzyna Zakrzewska

RACHUNEK PRAWDOPODOBIE STWA

Postawy wobec ryzyka

1 Funkcja użyteczności

Statystyka matematyczna. Wykład IV. Weryfikacja hipotez statystycznych

Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna.

Estymacja przedziałowa - przedziały ufności dla średnich. Wrocław, 5 grudnia 2014

Jeśli czas działania algorytmu zależy nie tylko od rozmiaru danych wejściowych i przyjmuje różne wartości dla różnych danych o tym samym rozmiarze,

Modele DSGE. Jerzy Mycielski. Maj Jerzy Mycielski () Modele DSGE Maj / 11

Rozkłady i ich dystrybuanty 16 marca F X (t) = P (X < t) 0, gdy t 0, F X (t) = 1, gdy t > c, 0, gdy t x 1, 1, gdy t > x 2,

Wykład 3 Hipotezy statystyczne

Dystrybucje, wiadomości wstępne (I)

Matematyka ubezpieczeń majątkowych r.

WYZNACZANIE NIEPEWNOŚCI POMIARU METODAMI SYMULACYJNYMI

Szczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć)

ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH

Podstawy opracowania wyników pomiarów z elementami analizy niepewności pomiarowych. Wykład tutora na bazie wykładu prof. Marka Stankiewicza

Odchudzamy serię danych, czyli jak wykryć i usunąć wyniki obarczone błędami grubymi

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

Testowanie hipotez statystycznych. Wnioskowanie statystyczne

O PEWNEJ ANOMALII W WYCENIE INSTRUMENTÓW DŁUŻNYCH

MODELE MATEMATYCZNE W UBEZPIECZENIACH

b) Niech: - wśród trzech wylosowanych opakowań jest co najwyżej jedno o dawce 15 mg. Wówczas:

Prawdopodobieństwo i statystyka

Ocena kondycji finansowej organizacji

N ma rozkład Poissona z wartością oczekiwaną równą 100 M, M M mają ten sam rozkład dwupunktowy o prawdopodobieństwach:

Modelowanie rynków finansowych

Porównanie metod szacowania Value at Risk

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

Identyfikacja i pomiar ryzyka pierwszy krok w zarządzaniu ryzykiem.

dr hab. Renata Karkowska 1

Matematyka bankowa 1 1 wykład

Zadanie 1. Liczba szkód N w ciągu roku z pewnego ryzyka ma rozkład geometryczny: k =

4. Postęp arytmetyczny i geometryczny. Wartość bezwzględna, potęgowanie i pierwiastkowanie liczb rzeczywistych.

Drugie kolokwium z Rachunku Prawdopodobieństwa, zestaw A

D. Miszczyńska, M.Miszczyński KBO UŁ 1 GRY KONFLIKTOWE GRY 2-OSOBOWE O SUMIE WYPŁAT ZERO

Statystyka matematyczna. Wykład III. Estymacja przedziałowa

Statystyka matematyczna Testowanie hipotez i estymacja parametrów. Wrocław, r

Symulacja w przedsiębiorstwie

W kolejnym kroku należy ustalić liczbę przedziałów k. W tym celu należy wykorzystać jeden ze wzorów:

Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1

ODRZUCANIE WYNIKÓW POJEDYNCZYCH POMIARÓW

STOPA DYSKONTOWA 1+ =

LABORATORIUM 8 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI

Następnie przypominamy (dla części studentów wprowadzamy) podstawowe pojęcia opisujące funkcje na poziomie rysunków i objaśnień.

Metody iteracyjne rozwiązywania układów równań liniowych (5.3) Normy wektorów i macierzy (5.3.1) Niech. x i. i =1

Voter model on Sierpiński fractals Model głosujący na fraktalach Sierpińskiego

Procesy Markowa zawdzięczają swoją nazwę ich twórcy Andriejowi Markowowi, który po raz pierwszy opisał problem w 1906 roku.

Metody numeryczne Technika obliczeniowa i symulacyjna Sem. 2, EiT, 2014/2015

Transkrypt:

Szkic wykładu pt.: ELEMENTY TEORII RYZYKA Ryszard Kutner Zakład Dydaktyki Fizyki, Instytut Fizyki Doświadczalnej Wydział Fizyki, Uniwersytet Warszawski Warszawa, grudzień 2009

Materiał ten ani w całości ani we fragmentach nie może być powielany lub rozpowszechniany za pomocą urządzeń elektronicznych, mechanicznych, kopiujących, nagrywających i innych bez zgody autora. 2

Spis treści 1 Metody Monte Carlo - istota rzeczy 5 1.1 Możliwości obliczeniowe metod Monte Carlo: zalety i wady...... 6 1.1.1 Porównanie z innymi metodami symulacyjnymi........ 6 1.2 Symulacje Monte Carlo różnych procesów stochastycznych i scenariuszy 6 1.2.1 Rola Centralnego Twierdzenia Granicznego oraz Prawa Wielkich Liczb Bernoulliego w Symulacjach Monte Carlo...... 6 1.2.2 Symulacja Monte Carlo procesów skorelowanych - faktoryzacja Choleskiego.......................... 6 1.2.3 Kanoniczny algorytm symulacji komputerowej kwantyli dowolnych rzędów - prawdopodobieństwo strat a VaR...... 6 1.3 Wybrane metody redukcji dyspersji................... 9 1.3.1 Paraboliczne przybliżenie delta-gamma............. 9 1.4 Pogrubione ogony w analizie ryzyka rynkowego............. 9 2 Jakościowe omówienie pojęcia ryzyka oraz miar ryzyka 11 2.1 Awersja do ryzyka............................ 11 2.1.1 Miara neutralna wobec ryzyka.................. 12 2.1.2 Gaussowska miara ryzyka Markowitza............. 12 2.1.3 Wpływ dywersyfikacji na miarę ryzyka............. 12 2.2 Inne miary ryzyka............................. 13 2.2.1 Koherentne miary ryzyka..................... 13 3 Niepewność (ang. uncertainty) jako nieusuwalny element aktywności ludzkiej 15 3.1 Różne formy niepewności......................... 15 3.1.1 Ryzyko i zależność (ang. dependence).............. 15 3.2 Spójna, aksjomatyczna definicja ryzyka................. 15 3.2.1 Cztery aksjomaty: translacyjna niezmienniczość, subaddytywność, dodatnia jednorodność, monotoniczność, dolne ograniczenie............................... 15 3.2.2 Alternatywna definicja ryzyka: dolne ograniczenie zamiast monotoniczności........................... 15 3.3 Konsystentna definicja ryzyka...................... 15 3

3.3.1 Cztery aksjomaty: dodatniość, translacyjna niezmienniczość, dodatnia jednorodność, subaddytywność............ 15 3.3.2 Przykłady konsystentnej definicji ryzyka............ 15 4 Główne wyniki Teorii Zdarzeń Ekstremalnych (EVT) a współczesna teoria oceny ryzyka rynkowego VaR 17 4.1 Twierdzenie graniczne Gniedenki: uogólniony rozkład zdarzeń ekstremalnych (GEVD)............................. 17 4.1.1 Rozkłady zdarzeń ekstremalnych: Frécheta, Gumbela, Weibulla 17 4.1.2 Formuła na V ar α a GEVD - indeks ekstremalny (ang. extremal index)............................. 17 4.2 Twierdzenie graniczne Gniedenki-Pickandsa-Balkema-de Haana - uogólniony rozkład Pareto (GPD)....................... 17 4.3 Kalibracja GEVD oraz GPD....................... 18 4

Rozdział 1 Metody Monte Carlo - istota rzeczy Istotą metod Monte Carlo jest możliwość generowania różnych probabilistycznych realizacji ewolucji (ang. niedosłownie movements) badanego portfela (układu), wykorzystujących jedynie lokalne (w czasie) prawa określające w jaki sposób układ przechodzi od jednego stanu do drugiego w kolejnych krokach czasowych. Tego typu podejście jest niewrażliwe na to czy postawione zagadnienie ma czy też nie ma rozwiązania analitycznego - stanowi to jeden z kluczowych powodów szerokiego stosowania metod Monte Carlo. Oczywiście, dysponując wspomnianymi realizacjami można konstruować zależne od czasu rozkłady, tworząc na drodze numerycznej statystyczny opis dynamiki (ang. niedosłownie movement) badanego portfela. Otwiera to możliwości: pomiaru symulowanych wielkości i własności, zrozumienia mechanizmów rządzacych dynamika portfela, stwarza możliwość wpływania na zachowanie portfela oraz zarządzania jego wybranymi własnościami a także pozwala na statystyczne prognozowanie jego przyszłych zachowań. 5

1.1 Możliwości obliczeniowe metod Monte Carlo: zalety i wady 1.1.1 Porównanie z innymi metodami symulacyjnymi 1.2 Symulacje Monte Carlo różnych procesów stochastycznych i scenariuszy Symulacje komputerowe metodami Monte Carlo umożliwiają tworzenie w sposób rekurencyjny (czyli krok za krokiem), w dowolnych ilościach pojedynczych trajektorii losowych badanych wielkości (zmiennych). Zmienne te mają charakter probabilistyczny (losowy), tworząc podstawę umożliwiającą budowanie wielkości pochodnych oraz ich rozkładów; pozwala to np. na pomiar ryzyka rynkowego lub kredytowego. 1.2.1 Rola Centralnego Twierdzenia Granicznego oraz Prawa Wielkich Liczb Bernoulliego w Symulacjach Monte Carlo 1.2.2 Symulacja Monte Carlo procesów skorelowanych - faktoryzacja Choleskiego 1.2.3 Kanoniczny algorytm symulacji komputerowej kwantyli dowolnych rzędów - prawdopodobieństwo strat a VaR W niniejszym podrozdziale przedstawiony jest kanoniczny, prosty algorytm Monte Carlo (MC) umożliwiający obliczanie na drodze symulacji numerycznej kwantyli dowolnego rzędu wybranej wielkości 1 a w tym zwłaszcza dopuszczalnej wartości narażonej na ryzyko, czyli VaR. Algorytm ten stanowi punkt wyjścia wszystkich innych - przedstawiamy go tutaj przykładowo dla strat. Ponadto, podajemy zasadniczy powód, dla którego w praktyce należy stosować algorytmy ulepszone - omawiamy te, które mogą być szczególnie przydatne. Przykładowy algorytm dla strat W pierwszej kolumnie tabeli 1.2.3 wypisano przykładowo ranking strat L j T = V j (T t) V j (T ), j = 1, 2,..., n, jakie zanotowano w wybranej chwili T dla różnych trajektorii j symulowanych metodą MC w przedziale czasu nie krótszym niz [t 0, T ] 1 Patrz Ph. Jorion: Value At Risk. The New Benchmark for Managing Financial Risk (Third Eddition), podrozdz. 12.2.1, 12.2.4, 12.2.5 oraz P. Glasserman: Monte Carlo Methods in Financial Engineering, podrozdz. 9.1.2 a tam paragraf Monte Carlo Simulation, str. 489-491. 6

Tabela 1.1: Ranking symulowanych strat Strata Krotność L j 1 T N j 1 T L j 2 T N j 2 T...... L j n 1 T L jn T N j n 1 T N jn T (V j (T t) oraz V j (T ) są tutaj wartościami portfela dla j-ej trajektorii odpowiednio w chwili T T i T, natomiast t 0 (< T ) jest dowolnie wybraną chwilą początkową; jak widać w tej konwencji straty z portfela liczone są jako wielkości dodatnie a zyski jako ujemne). Ranking oznacza, że mamy tutaj do czynienia z uszeregowaniem według wzrostu, tzn. L j 1 T < L j 2 T <... < L j n 1 T < L jn T, gdzie j i jest numerem wysymulowanej trajektorii np. gdy j 1 = 7 to znaczy, że najmniejszą, pierwszą w kolejności stratę zanotowano dla trajektorii numer 7, którą w związku z tym usytuowano w tabeli 1.2.3 na miejscu pierwszym, itd, itp.; zatem, indeks i mówi, że strata L j i T jest i-tą co do wielkości stratą. W drugiej kolumnie tabeli przedstawiono krotności występowania poszczególnych strat. Występowanie krotności większych od 1 oznacza, że dla niektórych trajektorii odnotowano jednakowe straty; zatem, N N i =1 N j i T, gdzie N jest liczbą wszystkich wysymulowanych trajektorii (zarówno tych, dla których odnotowano straty jak i takich, dla których zanotowano zyski). Wyznaczenie kwantyla rzędu 1 p, czyli wielkości x 2 p, sprowadza się do wykonania dwóch następujących kroków, 1) sumowania po kolei wszystkich krotności (idąc od dołu tabeli ku górze) tak długo aż spełniony zostanie warunek: p N max i [ i i =0 N jn i T ], (1.1) przy czym operacja max i oznacza, że wybierane jest największe i dla którego warunek (1.1) jest jeszcze spełniony. Pójście o krok dalej i dołączenie do sumy krotności N j n i 1 T zmieniłoby ten warunek na nierówność ostrą skierowaną w przeciwną stronę - jest to realizowane w drukim kroku. 2) Dzięki znalezieniu w pierwszym kroku indeksu i, odczytujemy w tabeli 1.2.3 wielkość strat L j n i 1 T oraz L j n i T jakie wyznaczają, odpowiednio, dolną i górną granice przedziału ufności wewnątrz którego mieści się (z określonym prawdopodobieństwem) prawdziwa wartość poszukiwanego kwantyla. Prawdopodo- 2 Stosujemy tutaj oznaczenie zaczerpniete z książki P. Glasserman: Monte Carlo Methods in Financial Engineering. 7

bieństwo to można obliczyć 3 z rozkładu dwumianowego, wykorzystując własność statystycznej niezależności strat. Oczywiście, jeżeli na tej drodze chcemy wyznaczyć V ar 1 α należy przyjąć w powyższej procedurze p = α. Jak widać, (w tej konwencji) V ar 1 α jest po prostu kwantylem rzędu 1 α. Jeżeli przedstawiona powyżej procedura pozwala zadowalająco oszacować na drodze symulacji MC zarówno skumulowane prawdopodpodobieństwo strat P (L > x p ) jak też prawdziwą wartość x p, to powinny być spełnione następujace, zdroworozsądkowe warunki a) długość przedziału ufności L j n i T L j n i 1 T wewnątrz którego może się znajdować prawdziwa wartość poszukiwanego kwantylu powinna być dużo mniejsza od L j n i T, b) obie strony równości (1.1) powinny się od siebie różnić o małą wyższego rzędu; to samo powinno dotyczyć analogicznej (nie wypisanej tutaj w jawnej postaci) nierówności dla prawdopodobieństwa dopełniającego 1 p (bazującego zarówno na sumie wszystkich zysków jak też na sumie strat liczonej od góry tabeli 1.2.3 w dół aż do x p ). Wskażemy teraz dlaczego spełnienie wprost powyższych dwóch warunków (czyli poprzez proste zwiększanie liczby symulowanych trajektorii) może prowadzić do nieefektywnej metody Monte Carlo oraz co należy zrobić aby przywrócić jej efektywność. Problem dużej dyspersji estymaty wielkości x p Traktując straty jak wielkości statystycznie niezależne można, korzystając z rozkładu dwumianowego oraz stosując przybliżenie punktu siodłowego (ang. saddle-point approximation 4 ), wyznaczyć dyspersje estymaty poszukiwanego kwantyla. Przybiera ona nastepującą postać 5, σ p 1 1 1 (1.2) 2 N ρ(x p ), gdzie ρ jest gęstością prawdopodobieństwa wystąpienia pojedynczej starty (albo zysku) natomiast x p jest (zależną od N) estymatą wielkości x p. Zwykle, gęstość ta 3 Ściślej rzecz biorąc, oblicza się pojemniejsze prawdopodobieństwo. Jeżeli jest ono, z dokładnością do małej wyższego rzędu, równe 1 p to można je traktować jak poziom ufności. Jeżeli tak nie jest, należy odpowiednio zwiększyć liczbę symulowanych trajektorii; patrz P. Glasserman: Monte Carlo Methods in Financial Engineering, podrozdz. 9.1.2, paragraf Quantile Estimation, str. 491. 4 Przybliżenie to jest także znane pod nazwą metody największego spadku (ang. steepest-descend method. 5 Patrz M. Kozłowska, R. Kutner: Anomalous transport and diffusion versus extreme value theory, Physica A 357 (2005) 282-304;. 8

maleje ze wzrostem N szybciej niż 1/ N. Na przykład, gdy ρ ma postać wykładniczą wówczas ρ(x p ) 1/N, natomiast gdy ρ jest funkcją potęgową o wykładniku potęgi α to ρ(x p ) 1/N 1+1/α. Zatem najczęściej, dyspersja σ p rośnie ze wzrostem N, a nie maleje jak byśmy chcięli. Jest to sytuacja paradoksalna, wymagająca wprowadzenia metod redukujących dyspersję. 1.3 Wybrane metody redukcji dyspersji Metody redukcji dyspersji, które omawiamy poniżej opierają się na traktowaniu strat w sposób przybliżony, uwzględniając co najwyżej wyrazy kwadratowe w niezależnych zmiennych stochastycznych obarczonych ryzykiem. Takie podejście pozwala (dzięki faktoryzacji Choleskiego) na wyrażenie strat za pomocą nieskorelowanych zmiennych normalnych. Dzięki temu oraz wykorzystaniu rozwinięcia kumulantowego, znalezienie rozkładu tych strat, a stąd VaR, jest znacznie ułatwione. 1.3.1 Paraboliczne przybliżenie delta-gamma 1.4 Pogrubione ogony w analizie ryzyka rynkowego Poniżej rozszerzamy metody przedstawione w rozdz.1.3 tak aby uwzględnić rozkłady posiadające pogrubione ogony. 9

10

Rozdział 2 Jakościowe omówienie pojęcia ryzyka oraz miar ryzyka Wszelka ludzka aktywność jest nastawiona na szeroko rozumianą korzyść, czyli zysk np. materialny lub mentalny (intelektualny lub emocjonalny). Z drugiej strony, każda aktywność jest obarczona ryzykiem prowadzącym do możliwości pojawienia się strat. Ryzyko będziemy więc utożsamiali z możliwością ponoszenia strat; inaczej mówiąc, będziemy zakładać, że nie ma korzyści bez ryzyka. Jak widać, znajdujemy się w sytuacji typu między młotem a kowadłem. Zatem, w każdej chwili, mniej lub bardziej świadomie, staramy się optymalizować ryzyko, gdyż towarzyszy temu wszechobecne zjawisko awersji do ryzyka. Sam fakt zrozumienia tego co to jest ryzyko jest niewystarczający - aby móc racjonalnie podejmować decycje i działać musimy umieć mierzyć ryzyko, czyli dysponować miarą ryzyka oraz umieć nim zarządzać. Trzeba podkreślić, że brak jest powszechnie akceptowanej teorii ryzyka - każde z istniejących podejść jest niewystarczające i może prowadzić do przeszacowania albo niedoszacowania rzeczywistego ryzyka. 2.1 Awersja do ryzyka Rozważmy prosty przykład gry [1], której uczestnik może wygrać 50 albo 150 z jednakowym prawdopodobieństwem równym 1/2, zatem średnio rzecz biorąc wygrana w tej grze wynosi 100. Jednakże, mała jest szansa na to, że uczestnik gry zapłaci tytułem opłaty wstępnej taką kwotę akceptując z prawdopodobieństwem 1/2 startę równą 50 albo zysk +50. Chociaż taka gra byłaby grą fair to jednak znaczna większość z nas zdecydowałaby się (gdyby taka możliwość istniała) na brak zysku o ile tylko miałaby pewność, że nie towarzyszy temu żadna starta - właśnie tego typu wybór jest bezpośrednim skutkiem awersji do ryzyka. Możemy tutaj łatwo zmierzyć naszą awersję do ryzyka zadając sobie pytanie jaką opłatę wstępną (prowizję) bylibyśmy w stanie uiścić? Zapewne byłaby to wielkość mniejsza od wartości średniej np. wynosząca 90. Podnosi to jeden z głównych problemów finansów - problem uwzględnienia premii za ryzyko. Widać, że określenie awersji do ryzyka 11

jest wykonalne o ile w problemie istnieje wartość przeciętna, czyli istnieje jakaś skala charakteryzująca grę. Należy zaznaczyć, że istnieją także gry bezskalowe dla których ustalenie takiej skali nie jest mozliwe; najbardziej popularną a zarazem najstarszą z nich jest tzw. paradoks petwersburski Bernoulliego. 2.1.1 Miara neutralna wobec ryzyka Uwzględnienie premii za ryzyko może się odbyć na drodze zamiany oryginalnej miary (1/2, 1/2) nie uwzględniającej tej premii na neutralną wobec ryzyka, która taką premię bierze już pod uwagę. W naszym przypadku jest to miara (3/5, 2/5), w której wartość przeciętna (wynosząca 90) jest dokładnie równa opłacie wstępnej jaką możemy uiścić; jak widać, musiało zostać tutaj przeszacowane prawdopodobieństwo straty (wynoszącej teraz 60) kosztem prawdopodobieństwa zysku (wynoszącego w tej nowej mierze +30). Miarą ryzyka jest tutaj po prostu awersja do ryzyka określona wysokością opłaty wstępnej (zwanej też wysokością premii lub prowizji za wejście do gry albo po prostu ceną). Tym samym, w naszym odczuciu, ryzyko zostało zneutralizowane. Innymi słowy, zachodzi tutaj oczywista równość cen mówiąca, że cena (czyli wspomniana wartość przeciętna 90) sumy dwóch pozycji (zysku równego 50 z prawdopodobieństwem 3/5 i zysku 150 z prawdopodobieństwem 2/5) jest równa sumie cen obu pozycji (czyli 30 + 60). Przedstawiona powyżej miara ryzyka wymaga określenia w sposób jawny i precyzyjny prawdopodobieństw zysków i strat oraz wymaga aby wartość przeciętna istniała. Takie podejście ma zastosowanie do rynku zupełnego, który nie nakłada na transakcje żadnych dodatkowych ograniczeń. 2.1.2 Gaussowska miara ryzyka Markowitza Jest to najstarsze podejście współczesnej ekonomii bazujące na gaussowskim rozkładzie stóp zwrotu i przyjmujące odchylenie standardowe jako miarę ryzyka. Odchylenie standardowe zostało użyte w tej roli po raz pierwszy przez Markowitza w jego teorii portfela (ang. Mean-Variance Portfolio Model) [?] aby następnie stać się podstawą jego Kapitałowego Modelu Wyceny Aktywów (ang. Capital Assets Pricing Model, CAPM). W ogólniejszej postaci do pomiaru ryzyka Markowitz użył semidyspersji, która nie traktuje tak samo dodatnich i ujemnych odchyleń od średniej. Podejście to stanowi dla nas tylko punkt odniesienia - w dalszej części nie będziemy się nim już zajmować. 2.1.3 Wpływ dywersyfikacji na miarę ryzyka Warunek liniowości cen podany w podrozdz.2.1.1 dotyczy sytuacji szczególnej - badziej ogólna i bliższa rzeczywistości jest taka, gdy cena sumy pozycji różni się od ceny poszczególnych pozycji. To właśnie mamy na myśli mówiąc o dywersyfikacji ryzyka (portfela, pozycji). Jednak, tego typu uogólnienie otwiera puszkę Pandory z 12

różnymi modelami opisującymi ryzyko oraz umożliwiającymi (w ramach przyjętych założeń) jego pomiar. 2.2 Inne miary ryzyka W dalszym ciągu omawiamy dwie różne klasy miar ryzyka I) miary koherentne (spójne) i II) miary niekoherentne. Obie mają zalety i wady, tzn. żadna z nich nie może pretendować do całkowicie zadowalającej. 2.2.1 Koherentne miary ryzyka 13

14

Rozdział 3 Niepewność (ang. uncertainty) jako nieusuwalny element aktywności ludzkiej 3.1 Różne formy niepewności 3.1.1 Ryzyko i zależność (ang. dependence) 3.2 Spójna, aksjomatyczna definicja ryzyka Generalnie rzecz biorąc, ryzyko rynkowe można mierzyć ilością kapitału ulokowanego w aktywa pozbawione ryzyka - im jest on większy tym ryzyko jest mniejsze. 3.2.1 Cztery aksjomaty: translacyjna niezmienniczość, subaddytywność, dodatnia jednorodność, monotoniczność, dolne ograniczenie 3.2.2 Alternatywna definicja ryzyka: dolne ograniczenie zamiast monotoniczności 3.3 Konsystentna definicja ryzyka 3.3.1 Cztery aksjomaty: dodatniość, translacyjna niezmienniczość, dodatnia jednorodność, subaddytywność 3.3.2 Przykłady konsystentnej definicji ryzyka 15

16

Rozdział 4 Główne wyniki Teorii Zdarzeń Ekstremalnych (EVT) a współczesna teoria oceny ryzyka rynkowego VaR 4.1 Twierdzenie graniczne Gniedenki: uogólniony rozkład zdarzeń ekstremalnych (GEVD) Centralnym problemem analizy zdarzeń ekstremalnych jest wyznaczenie parametru kształtu ξ, który jest zasadniczym parametrem GEVD. 4.1.1 Rozkłady zdarzeń ekstremalnych: Frécheta, Gumbela, Weibulla 4.1.2 Formuła na V ar α a GEVD - indeks ekstremalny (ang. extremal index) 4.2 Twierdzenie graniczne Gniedenki-Pickandsa- Balkema-de Haana - uogólniony rozkład Pareto (GPD) Na tej drodze można wyznaczyć wielkość ważną z praktycznego punktu widzenia - tzw. pogorszenie (ang. shortfall) i powiązać je z V ar α dla poziomu ufności α. 17

4.3 Kalibracja GEVD oraz GPD Istnieją przynajmniej dwie metody wyznaczenia podstawowego parametru obu rozkładów czyli parametru kształtu ξ. 18

Bibliografia [1] G. Trzpiot: Wybrane modele oceny ryzyka. Podejście nieklasyczne, Akademia Ekonomiczna im. Karola Adamieckiego w Katowicach, Katowice 2008. [2] Y. Malevergne, D. Sornette: Extreme Financial Risks. From Dependence to Risk Management, Springer-Verlag, Berlin, Heidelberg, New York 2006. [3] M. Kozłowska, R. Kutner: Anomalous transport and diffusion versus extreme value theory, Physica A 357 (2005) 282-304. [4] D. Sornette: Critical Phenomena in Natural Sciences. Chaos, Fractals, Selforganization and Disorder: Concepts and Tools, Springer-Verlag, Berlin, Heidelberg, New York 2000. [5] J-.P. Bouchaud and M. Potters:From Statistical Physics to Risk Management, Cambridge Univ. Press, Cambridge 2001. [6] R. Kutner: Extreme events as foundation of Lévy walks with varying velocity, Chem. Phys. 284 (2002) 481-505. [7] A.A. Moreira, J.S. Andrade, Jr., and L.A.N. Amaral:Extremum Statistics in Scale-Free Network Models, Phys. Rev. Lett. 89 (2002) 268703-1 - 4. 19