WPŁYW ZDARZEŃ EKSTREMALNYCH NA WIELKOŚĆ RYZYKA OPERACYJNEGO BANKU SZACOWANEGO METODĄ LDA
|
|
- Czesław Mróz
- 9 lat temu
- Przeglądów:
Transkrypt
1 Studia Ekonomiczne. Zeszyty Naukowe Uniwersytetu Ekonomicznego w Katowicach ISSN Nr Tomasz Szkutnik Uniwersytet Ekonomiczny w Katowicach Wydział Zarządzania Katedra Ekonometrii tomasz.szkutnik@ue.katowice.pl WPŁYW ZDARZEŃ EKSTREMALNYCH NA WIELKOŚĆ RYZYKA OPERACYJNEGO BANKU SZACOWANEGO METODĄ LDA Streszczenie: Tematyka artykułu związana jest z problemem kwantyfikacji ryzyka operacyjnego w banku na bazie modelu LDA. Badanie przeprowadzone w artykule ma na celu ocenę skali narażenia na ryzyko operacyjne przy wykorzystaniu teorii wartości ekstremalnych w celu modelowania prawego ogona rozkładu dotkliwości strat. Artykuł porusza także problem dywersyfikacji ryzyka przy uwzględnieniu zależności pomiędzy różnymi przekrojami analitycznymi za pomocą funkcji copula. Podejście takie motywowane jest przeciwstawnymi propozycjami Komitetu Bazylejskiego ds. Nadzoru Finansowego polegającymi na sumowaniu indywidualnych wielkości VaR z poszczególnych przekrojów analitycznych. Wyniki prezentowane w pracy pozwalają na ocenę wpływu ekstremalnych zdarzeń na wielkość miary VaR szacowanej dla dwóch przekrojów analitycznych. Słowa kluczowe: copula, EVT, ryzyko operacyjne, LDA. Wprowadzenie Tematyka badań związana jest z zagadnieniem ryzyka operacyjnego występującego w wielu dziedzinach otoczenia społeczno-gospodarczego. Ryzyko operacyjne w pracy zdefiniowane zostało zgodnie z ideą aktuarialną, tj. jako ryzyko powstania strat implikowanych przez wadliwy system organizacyjny podmiotu związany w szczególności z takimi elementami jak ludzie, procesy, systemy oraz zdarzenia zewnętrzne. Ryzyko operacyjne w zależności od definicji może także dotyczyć ryzyka prawnego związanego z kosztami przegranych procesów sądowych lub innych następstw wynikających z umów między stronami, skut-
2 Wpływ zdarzeń ekstremalnych na wielkość ryzyka ków niedotrzymania terminów realizacji projektów, czy innych zobowiązań wynikających z prawnej formy realizowanej działalności. System zarządzania ryzykiem nieuwzględniający zawodności instrukcji wewnętrznych mających zapewnić pełną ochronę danych i informacji wewnętrznych o znaczeniu poufnym jest ściśle związany z ryzykiem określanym jako operacyjne. Jest tak dlatego, że wszelkiego rodzaju ryzyko kojarzone jest w pierwszej kolejności z nieuchronnością pewnych procesów generujących straty i nieplanowane koszty. Ryzyko operacyjne w wielu przypadkach oparte jest na koncepcji aktuarialnej, w której pojęcie ryzyka związane jest z dwoma procesami generującymi straty, tj. procesem częstości oraz procesem dotkliwości strat. Instytucje ubezpieczeniowe nie są jedynymi podmiotami korzystającymi z takiej definicji ryzyka operacyjnego. W bankowości, podobnie jak w instytucjach ubezpieczeniowych, konieczność kwantyfikacji ryzyka finansowego, do którego zalicza się ryzyko operacyjne, wynika z regulacji ostrożnościowych organów nadzorczych. Instytucje sektora finansowego nie są jedynymi podmiotami, dla których szacowanie ryzyka jest istotne z punktu widzenia stabilności i dobrych praktyk zarządczych. W wielu przypadkach ryzyko operacyjne definiowane jest dla podmiotów z sektora przedsiębiorstw produkcyjnych, jak również podmiotów należących do szeroko pojętej administracji państwowej. Procesy, które mogą składać się na zakres ryzyka operacyjnego, są z założenia niejednorodne i dotyczą wielu aspektów działalności. Bazując na definicji ryzyka operacyjnego występującego w bankowości, można stwierdzić, że scharakteryzowany schemat strata ryzyko operacyjne jest w pełni komplementarny z określeniem ryzyka operacyjnego, które zaproponował Komitet Bazylejski ds. Nadzoru Bankowego. W określeniu przyjętym przez Komitet Bazylejski ryzyko operacyjne jest ryzykiem straty spowodowanym przez różnorodne czynniki, wymienione w powyższej charakterystyce. Geneza pomiaru tego zjawiska może być utożsamiana z jedną z podstawowych funkcji w zarządzaniu, jaką jest kontrola środowiska wewnątrz organizacji, a nie tylko opisem zdarzeń o charakterze wewnętrznym lub zewnętrznym, które były w przeszłości powodem strat operacyjnych. W sytuacji, gdy ryzyko operacyjne rozumiane jest nie tylko w charakterze historycznych zdarzeń, ale także jako miara odzwierciedlająca kondycję banku, to organizacja z dobrym systemem kontroli wewnętrznej charakteryzuje się mniejszą ekspozycją na ten typ ryzyka niż organizacja, w której system kontroli jest na niskim poziomie. W historii bankowości można przytoczyć wiele zdarzeń o charakterze operacyjnym, których efektem były poważne, a niejednokrotnie katastrofalne straty dla banku. Dobrze znane problemy Barings Bank, Bankers Trust, Daiwa czy Allied Irish Bank, w których straty sięgały kilkuset milionów dolarów, były
3 80 Tomasz Szkutnik nie tylko bezpośrednio spowodowane zdarzeniami operacyjnymi, ale to czynniki wewnętrzne, a w szczególności oszustwa dokonywane przez pracowników (rouge trading) przyczyniły się do rozmiaru strat operacyjnych [Matkowski, 2006, s. 37]. Instytucje nadzorcze poprzez regulacje, jakie wyznaczają, określają sposób i zakres działania instytucji finansowych. W celu ochrony zarówno konsumentów, jak i zapewnienia stabilności całego systemu finansowego, przyjęto rozwiązania globalne. Jednym z takich rozwiązań było powołanie w 1975 roku Komitetu Bazylejskiego ds. Nadzoru Bankowego (w skrócie BCBS, ang. Basel Committee on Banking Supervision, dalej: Komitet Bazylejski), który wyznacza standardy dla działalności banków. Zarządzanie ryzykiem operacyjnym pojawiło się w dyrektywach Komitetu Bazylejskiego razem z Nową Umową Kapitałową w lipcu 2006 roku. W NUK wielkość wymogów kapitałowych uzależniona jest od charakteru prowadzonej przez bank działalności. Bank zobowiązany jest do utrzymania przynajmniej minimalnego poziomu kapitału na pokrycie ewentualnych strat. Jak pokazują badania, ryzyko operacyjne odpowiedzialne jest za 30%-40% zmienności wyników finansowych banków, a na pozostałą wielkość składają się ryzyko kredytowe (50%-60%) i ryzyko rynkowe (10%-15%). Z punktu widzenia banku efektywne zarządzanie ryzykiem operacyjnym należy do kluczowych kompetencji. Sposoby wyznaczania wymogów kapitałowych z tytułu ryzyka operacyjnego w świetle obowiązujących regulacji pozwalają na określenie tej wielkości na podstawie trzech koncepcji: 1) metody wskaźnika podstawowego BIA (ang. Basic Indicator Approach), 2) metody standardowej TSA (ang. The Standardized Approach), 3) metody zaawansowanej AMA (ang. Advanced Measurement Approach). Regulacje ściśle określają sposoby kwantyfikacji tylko w dwóch pierwszych przypadkach. W podejściu zaawansowanym Komitet Bazylejski celowo pozostawił pewną dowolność w tworzeniu modeli, sygnalizując jedynie główne determinanty wpływające na wielkość wymogu kapitałowego. Podział ryzyka operacyjnego według zaleceń BCBS wyróżnia osiem linii biznesowych i siedem rodzajów ryzyka. Układ ten tworzy 56 elementów (kategorii ryzyka), dla których zdaniem Komitetu Bazylejskiego należy oddzielnie szacować ryzyko operacyjne za pomocą metody AMA (podział ten nazywany jest także macierzą bazylejską).
4 Wpływ zdarzeń ekstremalnych na wielkość ryzyka Modelowanie rozkładu strat za pomocą metody LDA W pracy został rozpatrzony problem wyznaczania wielkości ekspozycji na ryzyko operacyjne przy zastosowaniu jednej z metod zaawansowanych, wywodzącej się z metod aktuarialnych, jaką jest metoda rozkładu strat LDA (Loss Distribution Approach). W metodzie LDA zagregowana strata S wyznaczana jest jako losowa suma poszczególnych strat, gdzie rozkład strat to N, a X to wielkość i-tej straty, dla i {1,2,..., N }, na zadanym przedziale czasowym t, co można przedstawić jako: S = X =X + +X. (1) Wielkość S przedstawia zagregowaną stratę dla jednej kategorii ryzyka, co w przypadku pełnej macierzy bazylejskiej (tj. przy 56 kategoriach ryzyka) oznacza potrzebę szacowania odrębnie wszystkich wielkości. Zagregowane wielkości S dla każdej z wyróżnionych kategorii ryzyka (w praktyce banki mogą stosować swoje wewnętrzne modele, dla których macierz kategorii ryzyka może być inna od tej zaproponowanej przez BCBS) muszą spełniać poniższe kryteria [Szkutnik, 2011a]: 1) warunkowo przy N =n zmienne losowe X,...,X są niezależnymi zmiennymi losowymi o takich samych rozkładach prawdopodobieństwa, 2) warunkowo przy N =n rozkład zmiennych losowych X,..., X jest niezależny od n, 3) rozkład zmiennej losowej N nie zależy od wartości zmiennych X,..., X. Dystrybuantę dla zagregowanych strat danych wzorem (1) można zapisać jako: F (s) =P(S s) = Σ P(N =n)f (s); s>0, (2) P(N =0) ;s=0 gdzie F jest dystrybuantą zmiennej losowej X, a F oznacza n-krotny splot rozkładu F z samym sobą, F (s) =P(Σ X s) [Chernobai, Rachev i Fabozzi, 2007, s. 223; Szkutnik, 2012b ]. Należy także nadmienić, że postać dystrybuanty F (s) dla rozkładu zagregowanego jest nieliniowa względem X i N. Fakt ten powoduje trudności z określeniem jej analitycznej postaci i wymusza zastosowanie przybliżonych metod kwantyfikacji przy określaniu wybranych charakterystyk rozkładów, takich jak rekursywny algorytm Panjera, szybka transformata Fouriera czy metoda symulacji Monte Carlo. Jednym z najprostszych rozwiązań jest zastosowanie symulacji
5 82 Tomasz Szkutnik Monte Carlo. W przypadku wykorzystania symulacji Monte Carlo wielkości docelowe, tj. np. miara VaR, na podstawie której określana jest wielkość wymogów kapitałowych, wyznaczane są z empirycznego rozkładu zagregowanych wielkości powstałego na drodze symulacji. Precyzja oszacowania interesujących wielkości będzie wzrastała wraz ze wzrostem liczby przeprowadzanych symulacji, co jest szczególnie istotne w przypadku rozpatrywania rozkładów gruboogonowych. Wyznaczona w ten sposób wielkość VaR dotyczy tylko jednej kategorii ryzyka. Rozwiązania Komitetu Bazylejskiego proponują w tym przypadku agregację za pomocą operatora sumowania. Sumowanie odpowiednich wielkości miar ryzyka dla różnych kategorii ryzyka zakłada doskonałą korelację pomiędzy tymi procesami. Założenie o doskonałej korelacji pomiędzy poszczególnymi procesami jest prawdziwe tylko w przypadku utrzymania własności koherentności przez daną miarę ryzyka. Ponadto proste sumowanie wielkości ryzyka może prowadzić do znacznego przeszacowania wielkości łącznego ryzyka dla kilku procesów, stąd zachodzi konieczność uwzględnienia innych metod kwantyfikacji pozwalających na skorzystanie z efektu dywersyfikacji ryzyka [Szkutnik, 2012a]. Algorytm Monte Carlo do wyznaczania zagregowanego rozkładu strat dla rozważanej kategorii ryzyka wymaga przeprowadzenia kliku etapów procedury symulacyjnej, na którą składają się: 1) wyznaczenie losowej wartości z przyjętego procesu częstości strat, określającej liczbę zdarzeń operacyjnych na przestrzeni np. jednego roku, 2) wylosowana liczba zdarzeń z kroku 1 odpowiada liczbie symulowanych wartości z przyjętego rozkładu dotkliwości strat dla określonego przedziału czasowego, np. jednego roku, 3) wyznaczenie wielkość straty w ciągu rozpatrywanego okresu jako sumy wielkości z kroku 2, 4) powtórzenie kroków od 1 do 3 wiele razy dla uzyskania możliwie wiarygodnego rozkładu wielkości strat; wyznaczenie histogramu przedstawiającego zagregowany rozkład strat, 5) zagregowany empiryczny rozkład strat dla przyjętego przedziału czasu staje się podstawą wyznaczenia wartości VaR przy założonym poziomie ufności, 6) powyższe postępowanie należy przeprowadzić dla wszystkich rozpatrywanych par linia biznesowa/czynnik ryzyka.
6 Wpływ zdarzeń ekstremalnych na wielkość ryzyka Szacowanie wielkości VaR na podstawie zagregowanego rozkładu strat Wartość zagrożoną z tytułu ryzyka operacyjnego VaR można zdefiniować jako kwantyl odpowiedniego rzędu dla F ( ) dystrybuanty zagregowanych strat [Szkutnik, 2012b]: VaR (S) =F (α) =inf l R:F (l) α. (3) W przypadku zastosowania symulacji Monte Carlo będzie to wartość kwantyla empirycznego wyznaczonego dla dystrybuanty rozkładu zagregowanych strat. Do zasadniczych zalet miary VaR należą niewątpliwie łatwość estymacji (przy znajomości zagregowanego rozkładu zmiennej losowej) i prosta interpretacja, która informuje o najgorszej możliwej stracie, jaka może zajść przy założonym poziomie ufności i w rozważanym przedziale czasu. Krytycy miary VaR postulują natomiast ograniczone zastosowanie i ostrożność w implementacji z uwagi na fakt, że nie jest to miara koherentna, ponieważ nie w każdym przypadku zachodzi relacja subaddytywności, tj. relacja postaci ρ(x+y) ρ(x) +ρ(y) [Szkutnik, 2011b] Agregacja ryzyka Zakładając idealną korelację pomiędzy kategoriami ryzyka (tzn. straty zajdą w tym samym momencie), wielkość VaR dla całego rozpatrywanego problemu (wszystkie ujęte w badaniu kategorie ryzyka) jest sumą wielkości VaRS dla poszczególnych kategorii (i-ta linii biznesowa, j-ty czynnik ryzyka). W ogólnym przypadku, rozważając wszystkie osiem linii biznesowych i siedem czynników ryzyka, można wspomnianą zależność przedstawić za pomocą sumy: VaR =VaRS. (4) Jeśli przyjmuje się założenie o występowaniu pewnego rodzaju zależności pomiędzy różnymi składnikami, można szacować wielkości ryzyka, korzystając z poznanych związków. Typy zależności, jakie mogą występować przy określaniu łącznej wielkości strat za pomocą miary VaR, mogą być rozważane jako zależności wewnątrz poszczególnych kategorii ryzyka, jak i zależności pomiędzy rozpatrywanymi kategoriami ryzyka. Taka liczba możliwych relacji w znaczący sposób komplikuje całą analizę. Należy podkreślić, że charakter zależno-
7 84 Tomasz Szkutnik ści pomiędzy kategoriami ryzyka, na jaką zwracają szczególną uwagę rekomendacje BCBS, to zależność pomiędzy zagregowanymi wielkościami strat dla poszczególnych kategorii ryzyka [Chernobai i in., 2007, s. 261]. Zależność pomiędzy zagregowanymi stratami odnosi się do wielkości dla poszczególnych kategorii ryzyka w rozpatrywanym przedziale czasu. Zależność dla danych zagregowanych wyraża łączny efekt zależności w dziedzinie częstości i w dziedzinie dotkliwości strat. W zagadnieniach ryzyka operacyjnego przyjmuje się najczęściej, że zależność w dziedzinie częstości strat może być znacząca przy jednoczesnym założeniu, że zależność w dziedzinie dotkliwości strat jest niewielka [Chernobai i in., 2007, s. 260]. Niemniej jednak warto wspomnieć, że nie zawsze silna zależność np. w dziedzinie częstości pomiędzy różnymi kategoriami ryzyka musi skutkować równie silną zależnością obserwowaną w zagregowanych rozkładach strat dla tych kategorii. Badania [Frachot i in., 2004, s. 5] pokazują, że przy rozważaniu zależności tylko w dziedzinie częstości dla dwóch kategorii ryzyka związek nie musi się koniecznie przenosić w równym czy porównywalnym stopniu na zależność w zagregowanych wielkościach strat. W badaniach, jakie są tam przeprowadzone, poddana została weryfikacji zależność (liniowa) pomiędzy dwoma częstościami zdarzeń N i N, przy jednoczesnym założeniu o braku zależności pomiędzy wielkościami pojedynczych strat. Autorzy pokazują, że nawet przy silnej korelacji liniowej pomiędzy częstościami zagregowane wielkości strat wykazują niewielką korelację liniową. Jest to w szczególności prawdą, gdy straty operacyjne należą do grupy strat o wysokiej dotkliwości (tzw. high severity). W tym przypadku brak zależności w dziedzinie dotkliwości w zwyczajny sposób dominuje zależność w dziedzinie częstości. Rozważana jednak w powyższym przypadku korelacja o charakterze liniowym nie jest w stanie uchwycić wszystkich form zależności, z jakimi można się spotkać w praktyce. W przypadku stosowania współczynnika korelacji liniowej Pearsona decydującym założeniem, jakie musi być spełnione, jest założenie o wielowymiarowym rozkładzie normalnym. Jeśli nie jest to spełnione, to stosowanie współczynnika korelacji liniowej Pearsona jako miary zależności nie jest najlepszym rozwiązaniem [Moosa, 2006, s. 170]. W sytuacji, gdy jest potrzeba rozważenia zależności o charakterze nieliniowym, jednym z powszechnie stosowanych podejść jest zastosowanie funkcji copula. Funkcje copula są używane do połączenia dwóch lub więcej rozkładów w celu otrzymania wspólnego rozkładu charakteryzującego się określoną formą zależności pomiędzy rozważanymi zmiennymi losowymi.
8 Wpływ zdarzeń ekstremalnych na wielkość ryzyka Funkcje copula Funkcje copula to wielowymiarowe dystrybuanty z jednostajnymi rozkładami brzegowymi na przedziale [0,1]. Jednym z podstawowych twierdzeń w teorii funkcji copula jest twierdzenie Sklara, na podstawie którego można zdefiniować zależność: F(x,,x ) =CF (x ),, F (x ). (5) Przy założeniu ciągłości funkcji F,,F, funkcja C wyznaczona jest jednoznacznie, tj. istnieje jedyna taka funkcja copula spełniająca relację z twierdzenia Sklara. W celu wyznaczenia całkowitego ryzyka operacyjnego dla badanej instytucji finansowej zastosowano funkcję copula t-studenta (oznaczoną, ( ) ), przedstawioną jako: C (u,,u ) =, t (u ),,t (u ), (6) gdzie wielkość, (x,,x ) jest łączną dystrybuantą rozkładu t-studenta z v stopniami swobody i macierzą korelacji. 2. Badanie empiryczne W badaniu zostały wykorzystane dane dotyczące strat operacyjnych pochodzące z pewnego banku, którego nazwa z powodów poufności danych została celowo ukryta. Analizą objęto dane z pięciu kolejnych lat. Na podstawie dostępnych danych wyróżniono dwie linie biznesowe, które będą modelowane według tej samej koncepcji, następnie wyniki będą agregowane z wykorzystaniem teorii funkcji copula. Ze względu na wspomniany stopień poufności danych prezentowane wykresy w dalszej części pracy pozbawione są skali mogącej stanowić podstawę do poznania rozmiaru strat z tytułu ryzyka operacyjnego. Oszacowane parametry rozkładów dla procesów częstości i dotkliwości strat nie są prezentowane, podstawowe statystyki opisowe, wyniki odpowiednich testów dopasowania rozkładów prawdopodobieństwa do danych empirycznych również nie będą podane. Niemniej jednak zastosowanie pewnych konkretnych i nazwanych w pracy rozkładów prawdopodobieństwa świadczy o spełnieniu założeń odpowiednich testów statystycznych co do ich właściwego wyboru (poziom istotności we wszystkich testach przyjęto jako 0,05).
9 86 Tomasz Szkutnik Badanie będzie polegało na przedstawieniu w pierwszej kolejności sposobu modelowania dla jednej wybranej linii biznesowej. Przedstawiona metodologia będzie się opierała na wykorzystaniu rozkładu GPD (Generalized Pareto Distribution, uogólniony rozkład Pareto) do modelowania prawego ogona rozkładu dotkliwości strat powyżej określonego progu u oraz rozkładu logarytmiczno- -normalnego dla pozostałych danych. Do wyboru progu u wykorzystano wykres średniego szeregu przekroczeń (jako metodę subiektywną) oraz metodę Geretensgarbe-Wernera jako inny sposób określania progu (traktowany jako metoda bardziej zobiektywizowana). W dalszej kolejności zostaną przedstawione wyniki podsumowujące dla dwóch linii biznesowych jednocześnie. Informacje prezentowane w odpowiednich tabelach pozwolą na ocenę efektu, jaki będzie wywierała zmiana sposobu modelowania prawego ogona rozkładu za pomocą rozkładu GPD. Ponadto zostanie uwzględniony możliwy do osiągnięcia efekt dywersyfikacji oparty na rozważeniu zależności na podstawie teorii copula w odniesieniu do prostego sumowania wielkości odpowiedniej miary ryzyka Modelowanie pojedynczej linii biznesowej Proces częstości strat Modelowanie procesu częstości strat może się opierać na przyjęciu jednego z dyskretnych rozkładów prawdopodobieństwa (w przypadku stacjonarności danych) lub założeniu, że proces strat będzie procesem stochastycznym (w przypadku niestacjonarności danych). Procesy stochastyczne, które można zastosować do modelowania częstości strat operacyjnych, muszą uwzględniać jego specyficzne własności. Procesem, który znajduje w takich przypadkach zastosowanie, jest proces Poissona z funkcją intensywności λ(t) określoną w sposób deterministyczny lub stochastyczny. W przypadku deterministycznej funkcji λ(t) funkcją tą może być np. wielomian określonego stopnia (w przypadku, gdy zachodzi konieczność uwzględnienia w modelowaniu sezonowości lub zjawisk o charakterze cyklicznym) [Kuhl i Wilson, 2000]. Dla przypadku stochastycznego wielkość λ(t) może być modelowana rozkładem Poissona (w takim przypadku wyróżnia się model Coxa, tj. podwójny stochastyczny proces Poissona). W celu oszacowania odpowiedniej funkcji prawdopodobieństwa dotyczącej częstości występowania zdarzeń okres pięcioletni został podzielony na miesiące. Na tej podstawie uzyskano zagregowane wyniki dotyczące częstości wystąpienia
10 Wpływ zdarzeń ekstremalnych na wielkość ryzyka zjawisk w 60 następujących po sobie miesiącach. W omawianym przypadku do modelowania częstości występowania strat zastosowano rozkład ujemny dwumianowy. Wybór został dokonany na podstawie wyników testu χ (wyniki testu nie są publikowane) w porównaniu do rozkładu Poissona. Zrezygnowano z modelowania procesu stochastycznego, gdyż nie zaobserwowano zjawisk wskazujących na niestacjonarność danych Rozkład dotkliwości strat Modelowanie rozkładu dotkliwości strat musi być w szczególności nastawione na modelowanie jego prawego ogona. Ekstremalne straty występują rzadko, jednak ich wpływ na całkowitą wielkość zagregowanego ryzyka dla danego przekroju analitycznego może być znaczący. Z uwagi na fakt, iż modelowanie jednym rozkładem prawdopodobieństwa może w niedostatecznym stopniu uwzględniać straty o największej dotkliwości dla banku, w tej części pracy prezentowany jest sposób modelowania, oddzielnie od pozostałej części rozkładu, jego prawego ogona (powyżej określonego progu u). Modelowanie procesu dotkliwości zostało podzielone na modelowanie danych poniżej i powyżej danego progu u (gdzie ij oznaczają odpowiednio linię biznesową i czynnik ryzyka). W przypadku danych poniżej wartości progowych do modelowania został wybrany rozkład log-normalny, natomiast w przypadku danych przekraczających wielkość progową rozkład GPD. Powyższe ustalenia przedstawia następująca zależność [Di Clemente i Romano, 2004, s. 192]: Φ F, (x) = (,) (,) 1 (,), 0 < < (i, j) 1 + ξ(i, j) (,) (,), (7) u(i, j) x (,) gdzie wartość progowa u(i, j) jest początkową wielkością, dla której dane są modelowane zgodnie z rozkładem GPD. Parametry μ, σ to parametry rozkładu logarytmiczno-normalnego, a parametry, β, ξ to parametry rozkładu GPD. W celu zapewnienia monotoniczności dystrybuanty F, (x) wielkość progowa zdefiniowana jest jako największa wartość x spełniająca relację [Szkutnik i Basiaga, 2013]: Φ (,) (,) <1, (8) gdzie wielkość N jest liczbą historycznych strat przekraczających wielkość u. Rozkład dotkliwości strat ponad wartość u(i, j) jest zdefiniowany następująco:
11 88 Tomasz Szkutnik F (x) =P(X u x X>),x 0. (9) Modelowanie oddzielnie prawego ogona rozkładu za pomocą GPD, jak pokaże badanie, będzie bardziej efektywne, a straty o największej dotkliwości będą miały realny wpływ na wielkości ryzyka rozumianego jako wartość kwantyla odpowiedniego rzędu (zgodnie z koncepcją miary VaR). Kluczowym elementem w rozdzielnym modelowaniu F, (x) jest wybór progu u(i, j), a co za tym idzie liczba zdarzeń powyżej niego. Jakość estymatorów GPD uzależniona jest od liczby przekroczeń progu u(i, j) zgodnie z koncepcją zawartą w teorii wartości ekstremalnych i twierdzeniach Pickandsa oraz Balkem-de-Haan [Embrechts i in., 1997, s. 168]. Dystrybuanta rozkładu GPD gdzie x D(ξ, σ, μ) μ 1 1+ξ GPD ξ,σ,μ (x) = σ, jeśli ξ 0, (10) 1 exp, jeśli ξ =0 σ [0, ) dla ξ 0 D(ξ, σ, μ) = [0, σ ξ] dla ξ < 0. (11) Można również skorzystać z jego dwuparametrycznej wersji, przyjmując za μ=0, zatem będziemy w tym przypadku oznaczać rozkład jako GPD,, co jest równoważne zapisowi GPD,,. Szereg przekroczeń Można zdefiniować dystrybuantę dla szeregu przekroczeń jako: F (y) =P(X u y X>) =P(Y y X>) y 0. (12) Powyższa wielkość określa prawdopodobieństwo, że strata przekroczy próg u o wartość nie większą niż y, pod warunkiem, że próg ten zostanie przekroczony. Jest to prawdopodobieństwo warunkowe. Dystrybuantę w powyższym wzorze można zapisać jako [Embrecht i in., 1997, s. 354]: F(u+y) =F(u)F (y). (13)
12 Wpływ zdarzeń ekstremalnych na wielkość ryzyka Daje to możliwość modelowania oddzielnie rozkładu F za pomocą F(u) i F (y). Zastosowanie rozkładu GPD do modelowania ogona pewnego rozkładu ma podstawy teoretyczne w twierdzeniu Balkema i de Haana oraz w twierdzeniu Pickandsa, które mówią, że dla pewnej klasy rozkładów właśnie rozkład GPD jest rozkładem granicznym [Embrecht i in., 1997, s. 168]. Oczywiście nie jest to zawsze prawdziwe, a nieznany rozkład F( ), którego ogon będzie modelowany za pomocą rozkładu GPD, musi należeć do rodziny rozkładów MDA. MDA to tzw. maksymalny obszar przyciągania uogólnionego rozkładu wartości ekstremalnych (czyli rozkładu GEV). Do rodziny tych rozkładów należą rozkłady: Pareto, Burra, loggamma, Cauchy ego, t-studenta, lognormalny oraz wiele innych [Embrecht i in., 1997, s. 158]. Właśnie dla rodziny rozkładów MDA twierdzenie Balkema, de Haana i Pickandsa mówi, że dla wystarczająco wysokiej wartości progowej u rozkład przekroczeń ponad tę wartość może być modelowany za pomocą rozkładu GPD. Kluczowym w tym momencie staje się wybór wartości u, który będzie determinował modelowany ogon rozkładu. Przyjęcie zbyt dużej wartości progowej u będzie skutkowało zbyt małą liczbą przekroczeń i w konsekwencji wysoką wariancją estymatora. Z drugiej strony zbyt mała wartość u nie pozwoli na skorzystanie z rezultatu Pickandsa, Balkema i de Haana i estymatory parametrów będą obciążone. Jak widać, wybór wartości progowej u będzie wyborem pomiędzy zwiększoną wariancją a obciążonością estymatorów. Istnieje kilka metod wyboru optymalnej wartości u. Nie wszystkie dają identyczne wyniki i niekiedy metody są niejednoznaczne, a wybór może w dużej mierze zależeć od badacza, jednak nie jest to wybór do końca subiektywny. Wybór progu przekroczeń zostanie przedstawiony tylko dla jednego przekroju analitycznego. Dla drugiego przekroju analitycznego dokonano identycznych rachunków, określając wielkość progową. Ze względu na poufność danych zdecydowano się tu przedstawić idee postępowania tylko na jednym przykładzie. Mean Excess Plot wykres średnich przekroczeń Wiedząc, że estymatorem funkcji średnich przekroczeń e(u) = E(X u X>) jest [Embrecht, i in., 1997 s. 355]: e (u) = 1 (X N u), (14) ()
13 90 Tomasz Szkutnik wykres średniej liczby przekroczeń, tj. Mean Exce ess Plot dla rozkładów gru- boogonowych jest wykresem rosnącym, dla rozkładów wykładniczych jest funk k- cją stałą, a dla rozkładów z cien nkimi ogonami powinienn dążyć do zera. Metoda wyboru wartości progowej u w tym przypadku opie era sięę na wybo- rze miejsca, w którym wykres jest liniowy, dla prawej części wykresu będzie widoczny duży rozrzut wartości i należy ją pominąć w analizach. Wartość pro- gowa u to wart tość, dla której charakter liniowy wykresu sięę kończy, a kolejne obserwacje zacz zynają sięę odchylaćć Na rys. 1 zamieszczony jest wyk kres średnich wartości prze ekroczeń w ogra a- niczonej skali (przedstawiono wielkości tylko do określonego miejsca), tak by możnaa było pop prawie zlokalizowaćć wartość progową u, stąd skalaa nie jest podana. Rys. 1. Wykres średnich przekroczeńń Przyjęta na rys. 1 arbitralnie wartość progowa wskazuje moment, od które- go obs serwacje będą modelowane za pomocą rozkładu GPD. Wsz zystkie obserwa- cje powyżej tej wartości będą należały do ogona roz kładu i wezm mą udziałł w jeg go modelowaniu. Ze względu na gruboogonowy cha arakter rozkładuu dotk kliwości
14 Wpływ zdarzeń ekstremalnych na wielkość ryzyka strat, 10% największych strat stanowi ponad 60% ogółu łącznych strat dla banku. Przy ustalaniu progu należy postępować tak, by wykres średnich odchyleń poniżej tej wartości był liniowy lub raczej zbliżony do liniowego (należy podkreślić, że jest to wybór subiektywny, a ocena liniowości nie opiera się na metodach statystycznych). Metoda Geretensgarbe-Wernera Subiektywny wybór progu oparty na wykresie średnich przekroczeń może nie znaleźć akceptacji w procesie decyzyjnym. Niekiedy preferowane są zautomatyzowane procedury i metody, które pozwalają dokonać wyboru w sposób niezależny od badacza. Metoda Geretensgarbe-Wernera jest dużo bardziej jednoznaczna w tym aspekcie, co zostało przedstawione przez Cebrian i innych [Cebrian, 2003, s ]. Idea tej metody opiera się na wyznaczeniu wartości różnic Δ pomiędzy kolejnymi statystykami pozycyjnymi X [] X [], gdzie: Δ =X [] X [],i=1,,n 1. (15) Założenie mówi, że wielkości Δ pomiędzy wartościami ekstremalnymi będą się znacząco odróżniać od wielkości Δ dla pozostałej części statystyk pozycyjnych. Zmiana zachowania ma w teorii być wykryta w dziedzinie pierwszych różnic szeregu przekroczeń. Punkt tej zmiany ma wyznaczyć wartość progową u. W tym celu zostanie zastosowana tu sekwencyjna wersja testu Manna- -Kendalla. Dla każdego podciągu Δ,,Δ, dla j =2,,n 1 należy wyznaczyć n 2 statystyk, danych jako: U = n, (16) gdzie n określa dla każdego elementu Δ, i=2,,j liczbę wielkości Δ,,Δ mniejszych niż Δ. Odpowiednio dalej zostaje wyznaczona wielkość znormalizowanych wartości U, zdefiniowanych jako: U = U j(j 1) 4. (17) j(j 1)(2j + 5) 72 Identyczną procedurę wyznaczenia wielkości danej powyższym wzorem przeprowadza się dla statystyki pozycyjnej postaci X [] X [].
15 92 Tomasz Szkutnik W ten sposób otrzymywane są wielkości U (na wykresie oznaczone U_górne dla ciągu malejącego oraz U_dolne dla ciągu rosnącego dla wielkości odpowiednich statystyk pozycyjnych) U_dolne U_górne Rys. 2. Wykres wartości testu Manna-Kendalla Rys. 2 przedstawia wykresy wartości z testu Manna-Kendalla. Przecięcie dwóch wartości następuje w okolicach statystyki pozycyjnej o indeksie 600. Wskazana wartość na podstawie tego wykresu jest bardzo zbliżona do wartości wskazanej na podstawie wykresu średnich przekroczeń. W powyższej części zostały zawarte szczegóły pozwalające zrozumieć ideę wykorzystania rozkładu GPD do modelowania ogona nieznanego rozkładu. Wszystkie dalsze informacje można znaleźć w pracach [Embrecht i in., 1997, Klugman i in., 2008]. Aplikacja modelu Przyjęto, że do modelowania prawego ogona rozkładu zostanie wykorzystanych ok. 15% wartości. Wartość odpowiadająca 15% przypadków jest to wartość podawana często w literaturze, ponadto z badania otrzymano wyniki na zbliżonym poziomie.
16 Wpły w zdarzeń ekstremalnych na wielk kośćć ryzyka W celu zaprezentowania stopnia, w jakim jest modelowany ogon rozkładu, został zamieszczony rysunek dystrybuanty empirycznej oraz wyk kresy dystr trybuant dopasowanych rozkładów, tj. rozkładu logarytmiczno-normalnego powyżej wartości u). Nie podano tu skali dla wartości OX ze względu na poufność danych). (ozn. LogN) i rozkładuu GPD dla ogona rozkładu (modelowanego Dystrybuanta empiryczna Dystrybuanta teoretyczna Rozkład LOGN Prawy ogon rozkładu Rozkład GPD Rys. 3. Dystrybuantaa empiryczna oraz dystrybuanty dopasowanych rozkładów Na rys. 3 widać doskonale, jak zastosowanie rozkładu GPD wpłynęło na mo- delowanie ogona rozkładu dotk kliwości strat. Rozkład dotkliwości strat mod delowa- ny z takim uwz zględnieniem wartości ekstremalnych ujmuje zjawisko w sposób bardziej wiarygodny. Dla interesujących w badaniu wysokich wartości percentyli zagregowany model mógłby nie doszacowywać wielkości pono oszonego ryzyka o kilkaset tysięcy lub nawet kilka milionów złł (w zależności od wyboru wartości percentyla dla miary VaR). Zachowanie ogon na rozkładu na podstawie jed dnego rozkładu parametrycz- nego dla dotkliwości było trudne do uchwycenia, ponieważ żade en z rozpatrywa- nych rozkładów wykorzystanych do modelowaniaa całości zjawiska nie byłł w sta- nie przedstawićć wszy ystkich jego cech. Stąd konieczność głęb bszej eksp ploracji problemu i wsk kazanie kierunku zmia an, jakie można wdrożyć w analizę ryzyka operacyjnego w banku.
17 94 Tomasz Szkutnik 2.2. Agregacja danych na podstawie funkcji copula Z uwagi na całościowy aspekt problemu, tj. określenie poziomu ryzyka operacyjnego dla banku wyznaczono odpowiednie wielkości przy zastosowaniu modelu LDA dla pojedynczych przekrojów analitycznych (według zaprezentowanego we wcześniejszej części schematu) i późniejszym określeniu wielkości łącznej przy założeniu zależności dla zagregowanych danych, wychodząc od przyjętej do rozważań funkcji copula C. W tabeli 1 przedstawiono wpływ przyjęcia prezentowanej metodologii (opartej na podziale zbioru dotkliwości na modelowanie powyżej u(i,j) rozkładem GPD) w odniesieniu do potencjalnej koncepcji opartej na modelowaniu rozkładem logarytmiczno-normalnym całego zakresu danych. Tabela 1 przedstawia relatywne zmiany w odniesieniu do przejścia z kwantyla 0,99 na kwantyl 0,999. Postępowanie takie ma pokazać, jak zmiana wartości percentyla dla zagregowanego rozkładu strat wpływa na poziom ryzyka określonego jako VaR (w nawiasie przy mierze VaR znajduje się informacja o rodzaju przekroju analitycznego indeks dolny (1, 2) oraz sposobie modelowania dotkliwości strat indeks górny, odpowiednio oznaczenie GPD informuje, że modelowany był oddzielnie początek i środek rozkładu od prawego ogona, natomiast LN że jako kompleksowy model dotkliwości przyjęty został rozkład logarytmiczno-normalny). Tabela 1. Wpływ rzędu VaR na relatywne zmiany poziomu ocenianego ryzyka VaR, (L ) VaR, (L ) VaR, (L ) VaR, (L ) VaR, (L ) VaR, (L ) VaR, (L ) VaR, (L ) Względne zmiany 126% 243% 335% 589% Rozdzielnie dla wartości α = 0,99 oraz α = 0,999 porównany został wpływ rozkładu GPD w odniesieniu do rozkładu logarytmiczno-normalnego na zagregowaną wielkość ryzyka względem każdego z dwóch przekrojów analitycznych, co przedstawia tabela 2. Tabela 2. Wpływ zmiany sposobu modelowania ogona rozkładu VaR, (L ) VaR, (L ) VaR, (L ) VaR, (L ) VaR, (L ) VaR, (L ) VaR, (L ) VaR, (L ) Względne zmiany 119% 228% 277% 505%
18 Wpływ zdarzeń ekstremalnych na wielkość ryzyka Tabela 3 przedstawia względny efekt dywersyfikacji uzyskany dzięki wykorzystaniu funkcji copula-t (z wartością współczynnika korelacji oszacowaną na poziomie 0,44) w odniesieniu do rygorystycznej propozycji BCBS, zakładającej doskonałą korelację zdarzeń (sumowanie wielkości VaR). Tabela 3. Ocena względnego efektu dywersyfikacji Względne zmiany VaR,(L ) VaR, (L ) VaR,(L ) VaR, (L ) VaR,(L ) VaR, (L ) VaR,(L ) VaR, (L 79,21% 86,19% 88,9% 93,6% ) Najmniejsza korzyść z efektu dywersyfikacji zauważalna jest w przypadku modelowania danych przy uwzględnieniu ich gruboogonowego charakteru przekładającego się na zagregowany poziom ryzyka dla każdego z przekrojów analitycznych. Podsumowanie W badaniu została przedstawiona koncepcja modelowania ryzyka operacyjnego w banku. Model ogólny zakłada dowolną liczbę przekrojów analitycznych, jakimi są konkretne pary linia biznesowa czynnik ryzyka. Badanie opiera się na danych pochodzących z pewnej instytucji finansowej, dla której nie zostały podane takie wielkości jak: nazwa oraz określone wartości związane ze skalą jej działalności i identyfikacją procesów dotyczących strat, takich jak ich częstość oraz dotkliwość. W związku z powyższymi ograniczeniami badanie mogło pokazywać tylko i wyłącznie względne zmiany prezentowanych konkurencyjnych rozwiązań. Z dostępnych danych wybrano okres pięciu kolejnych lat i zidentyfikowano tylko dwa zasadnicze przekroje analityczne. Dotyczyły one dwóch linii biznesowych i zaistniałych w tych liniach czynników ryzyka. Podział ten nie jest zgodny z podstawowymi wytycznymi BCBS, jednak jest dopuszczalny w ramach tworzenia wewnętrznego modelu w banku, polegającego na łączeniu odpowiednich zakresów działalności lub czynników ryzyka. W pierwszej kolejności zostały zbudowane modele dla każdego z dwóch wyróżnionych przekrojów, nazwanych odpowiednio L1 i L2. Dla zakresów L1 i L2 stworzono odpowiednie modele według zaprezentowanej w pracy koncepcji modelowania. W szczególności dopasowano model dla częstości strat jako model zgodny z rozkładem ujemnym dwumianowym.
19 96 Tomasz Szkutnik W następnej kolejności dopasowano dla dziedziny dotkliwości odpowiednie modele oparte na wartości progowej wyznaczonej za pomocą funkcji szeregu przekroczeń oraz na podstawie metody Geretensgarbe-Wernera. Przedstawiono tylko sposób modelowania dla zakresu L1. Dla zakresu L2 sposób wyznaczania wartości progowej ui, j został realizowany w identyczny sposób (wyznaczając inną wartość progową odpowiednią dla modelowanych danych). W badaniu przeanalizowano różnice w zastosowaniu podejścia opartego na stosowanej często w praktyce koncepcji modelowania dotkliwości strat za pomocą jednego rozkładu (tu został wyznaczony rozkład logarytmiczno-normalny jako rozkład referencyjny) w odniesieniu do dwóch wielkości miary VaR (na poziomie 0,99 oraz 0,999). W dalszej kolejności określono zależność dla miesięcznych zagregowanych danych dotyczących wielkości strat jako funkcję copula-t z oszacowanym poziomem korelacji wynoszącym 0,44. Zastosowanie funkcji copula zostało przedstawione w konfrontacji z założeniem o doskonałej korelacji pomiędzy zakresami L1 i L2 (według koncepcji BCBS). Na podstawie przeprowadzonego badania można zanotować znaczący spadek wielkości ryzyka tylko w przypadkach, gdy przy określaniu zagregowanego rozkładu zostanie zastosowane rozwiązanie niemodelujące prawego ogona rozkładu dotkliwości strat, niezależnie od przyjętego poziomu wielkości ryzyka, tj. poziomu 0,99 oraz 0,999. W przypadku zastosowania koncepcji dokładnego modelowania ogona rozkładu dotkliwości, bazując na koncepcji teorii wartości ekstremalnych i aplikacji modelu GPD do modelowania prawego ogona rozkładu powyżej wartości ui, j, można zaobserwować jedynie ok. 7-proc. spadek wartości ryzyka dla całego poziomu operacyjnego (dla wielkości VaR na poziomie 0,999). Wskazuje to na pewne ograniczenia w zastosowaniu efektu dywersyfikacji w sytuacji, gdy zagregowany rozkład jest zdeterminowany przez gruby ogon rozkładu dotkliwości. Literatura BIS (2010), Recognising the risk-mitigating impact of insurance in operational risk modelling, October 28. BIS (2011), Principles for the Sound Management of Operational Risk final document, June 30. BIS (2013), Principles for effective risk data aggregation and risk reporting, January 9.
20 Wpływ zdarzeń ekstremalnych na wielkość ryzyka Cebrian A.C., Denuit M., Lambert P. (2003), Generalized Pareto fit to the society of actuaries large claims database, North American Actuarial Journal, No. 7/3. Chernobai A.S., Rachev S.T., Fabozzi F.J. (2007), Operational risk: a guide to Basel II capital requirements, models, and analysis, John Wiley & Sons. Di Clemente A., Romano C. (2004), A copula-extreme value theory approach for modelling operational risk [w:] M. Cruz (ed.), Operational Risk Modelling and Analysis. Theory and Practice, Risk Books, London. Embrechts P., Klüppelberg C., Mikosch T. (1997), Modelling Extremal Events: For Insurance and Finance, Springer. Frachot A., Roncalli T., Salomon E. (2004), The correlation problem in operational risk, Klugman S.A., Panjer H.H., Willmot G.E. (2008), Loss Models: From Data to Decisions, Wiley. Kuhl M.E., Wilson J.R. (2000), Least squares estimation of nonhomogeneous poisson processes, Journal of Statistical Computation and Simulation, No. 67(1). Matkowski P. (2006), Zarządzanie ryzykiem operacyjnym, Oficyna Ekonomiczna, Kraków. Moosa I. (2007), Operational Risk Management, Palgrave Macmillan, New York. Szkutnik T. (2011a), Wpływ rozkładu dotkliwości strat operacyjnych na wielkość wymogu kapitałowego szacowanego w oparciu o metodę LDA, Studia Ekonomiczne, Zeszyty Naukowe Uniwersytetu Ekonomicznego w Katowicach, nr 66. Szkutnik T. (2011b), Zastosowanie wybranych funkcji łączących w kwantyfikacji ryzyka operacyjnego w oparciu o metodę LDA, Prace Naukowe Uniwersytetu Ekonomicznego we Wrocławiu, nr 183. Szkutnik T. (2012a), Zastosowanie funkcji łączących w kwantyfikacji ryzyka operacyjnego, Studia Ekonomiczne, Zeszyty Naukowe Uniwersytetu Ekonomicznego w Katowicach, nr 93. Szkutnik T. (2012b), Zastosowanie funkcji łączących w wyznaczaniu granic dla Valueat-Risk, Zeszyty Naukowe Uniwersytetu Ekonomicznego w Krakowie, nr 895. Szkutnik T., Basiaga K. (2013), The application of Generalized Pareto Distribution and copula functions in the issue of operational risk, Econometrics, No. 39(1). THE INFLUENCE OF EXTREME EVENTS UPON THE BANK OPERATIONAL RISK ESTIMATED BY MEANS OF LDA METHOD Summary: The subject of the article is related to quantification of operational risk in a bank on the basis of LDA model. The study carried out in the article aims at evaluation of the scale of operational risk with the use of theory of extreme values in modelling the right tail of loss severity distribution. The article deals also with the problem of risk diversification with the consideration of dependences among various analytical sections by means of copula functions. Such an approach is motivated by contrary suggestions of
21 98 Tomasz Szkutnik Basel Commitee in terms of Financial Supervision which consist in summing up individual Values at Risk out of particular analytical sections. The conclusions presented in the article allow to evaluate the influence of extreme events on VaR estimated for two analytical sections. Keywords: Copula, EVT, operational risk, LDA.
Metody oceny ryzyka operacyjnego
Instytut Matematyki i Informatyki Wrocław, 10 VII 2009 Bazylejski Komitet Nadzoru Bankowego Umowa Kapitałowa - 1988 Opracowanie najlepszych praktyk rynkowych w zakresie zarządzania ryzykiem Nowa Umowa
Cenzurowanie danych w bankowości
Cenzurowanie danych w bankowości Ryzyko operacyjne Tomasz Szkutnik Uniwersytet Ekonomiczny w Katowicach Katedra Statystyki, Ekonometrii i Matematyki 2017 Cenzurowanie danych w bankowości Plan wystąpienia
Spis treści 3 SPIS TREŚCI
Spis treści 3 SPIS TREŚCI PRZEDMOWA... 1. WNIOSKOWANIE STATYSTYCZNE JAKO DYSCYPLINA MATEMATYCZNA... Metody statystyczne w analizie i prognozowaniu zjawisk ekonomicznych... Badania statystyczne podstawowe
Ryzyko operacyjne metoda zaawansowana. Wyzwania
Ryzyko operacyjne metoda zaawansowana. Wyzwania dr Paweł Matkowski LUKAS BANK SA 1 Ryzyko operacyjne: up-date Dokumenty regulacyjne status: Dyrektywy europejskie: 2006/48/WE, 2006/49/WE Projekty uchwał
Wykorzystanie funkcji powiązań do pomiaru ryzyka rynkowego. Katarzyna Kuziak
Wykorzystanie funkcji powiązań do pomiaru ryzyka rynkowego Katarzyna Kuziak Cel: łączenie różnych rodzajów ryzyka rynkowego za pomocą wielowymiarowej funkcji powiązań 2 Ryzyko rynkowe W pomiarze ryzyka
Szacowanie miary zagrożenia Expected Shortfall dla wybranych instrumentów polskiego rynku kapitałowego
Radosław Pietrzyk Katedra Inwestycji Finansowych i Ubezpieczeń Akademia Ekonomiczna we Wrocławiu Szacowanie miary zagrożenia Expected Shortfall dla wybranych instrumentów polskiego rynku kapitałowego 1.
Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory
Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory Dr Anna ADRIAN Paw B5, pok 407 adrian@tempus.metal.agh.edu.pl
Matematyka ubezpieczeń majątkowych r.
Matematyka ubezpieczeń majątkowych 0.0.005 r. Zadanie. Likwidacja szkody zaistniałej w roku t następuje: w tym samym roku z prawdopodobieństwem 0 3, w następnym roku z prawdopodobieństwem 0 3, 8 w roku
Ważne rozkłady i twierdzenia c.d.
Ważne rozkłady i twierdzenia c.d. Funkcja charakterystyczna rozkładu Wielowymiarowy rozkład normalny Elipsa kowariacji Sploty rozkładów Rozkłady jednostajne Sploty z rozkładem normalnym Pobieranie próby
Ekonometria Finansowa II EARF. Michał Rubaszek
Ekonometria Finansowa II EARF Michał Rubaszek 1 Cele - Zapoznanie z charakterystykami szeregów finansowych - Omówienie jednowymiarowych metod liczenia VaR - Omówienie wielowymiarowych metod liczenia VaR
Weryfikacja hipotez statystycznych
Weryfikacja hipotez statystycznych Hipoteza Test statystyczny Poziom istotności Testy jednostronne i dwustronne Testowanie równości wariancji test F-Fishera Testowanie równości wartości średnich test t-studenta
Zakładamy, że są niezależnymi zmiennymi podlegającymi (dowolnemu) rozkładowi o skończonej wartości oczekiwanej i wariancji.
Wnioskowanie_Statystyczne_-_wykład Spis treści 1 Centralne Twierdzenie Graniczne 1.1 Twierdzenie Lindeberga Levy'ego 1.2 Dowód 1.2.1 funkcja tworząca sumy zmiennych niezależnych 1.2.2 pochodna funkcji
Zadanie 1. Liczba szkód N w ciągu roku z pewnego ryzyka ma rozkład geometryczny: k =
Matematyka ubezpieczeń majątkowych 0.0.006 r. Zadanie. Liczba szkód N w ciągu roku z pewnego ryzyka ma rozkład geometryczny: k 5 Pr( N = k) =, k = 0,,,... 6 6 Wartości kolejnych szkód Y, Y,, są i.i.d.,
Generowanie ciągów pseudolosowych o zadanych rozkładach przykładowy raport
Generowanie ciągów pseudolosowych o zadanych rozkładach przykładowy raport Michał Krzemiński Streszczenie Projekt dotyczy metod generowania oraz badania własności statystycznych ciągów liczb pseudolosowych.
Matematyka z el. statystyki, # 6 /Geodezja i kartografia II/
Matematyka z el. statystyki, # 6 /Geodezja i kartografia II/ Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Głęboka 28, bud. CIW, p. 221 e-mail: zdzislaw.otachel@up.lublin.pl
STATYSTYKA - PRZYKŁADOWE ZADANIA EGZAMINACYJNE
STATYSTYKA - PRZYKŁADOWE ZADANIA EGZAMINACYJNE 1 W trakcie badania obliczono wartości średniej (15,4), mediany (13,6) oraz dominanty (10,0). Określ typ asymetrii rozkładu. 2 Wymień 3 cechy rozkładu Gauss
PRZYKŁAD ZASTOSOWANIA DOKŁADNEGO NIEPARAMETRYCZNEGO PRZEDZIAŁU UFNOŚCI DLA VaR. Wojciech Zieliński
PRZYKŁAD ZASTOSOWANIA DOKŁADNEGO NIEPARAMETRYCZNEGO PRZEDZIAŁU UFNOŚCI DLA VaR Wojciech Zieliński Katedra Ekonometrii i Statystyki SGGW Nowoursynowska 159, PL-02-767 Warszawa wojtek.zielinski@statystyka.info
Rozkłady statystyk z próby
Rozkłady statystyk z próby Rozkłady statystyk z próby Przypuśćmy, że wykonujemy serię doświadczeń polegających na 4 krotnym rzucie symetryczną kostką do gry, obserwując liczbę wyrzuconych oczek Nr kolejny
W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych:
W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych: Zmienne losowe skokowe (dyskretne) przyjmujące co najwyżej przeliczalnie wiele wartości Zmienne losowe ciągłe
HISTOGRAM. Dr Adam Michczyński - METODY ANALIZY DANYCH POMIAROWYCH Liczba pomiarów - n. Liczba pomiarów - n k 0.5 N = N =
HISTOGRAM W pewnych przypadkach interesuje nas nie tylko określenie prawdziwej wartości mierzonej wielkości, ale także zbadanie całego rozkład prawdopodobieństwa wyników pomiarów. W takim przypadku wyniki
7. Estymacja parametrów w modelu normalnym(14.04.2008) Pojęcie losowej próby prostej
7. Estymacja parametrów w modelu normalnym(14.04.2008) Pojęcie losowej próby prostej Definicja 1 n-elementowa losowa próba prosta nazywamy ciag n niezależnych zmiennych losowych o jednakowych rozkładach
Wykład 1 Próba i populacja. Estymacja parametrów z wykorzystaniem metody bootstrap
Wykład 1 Próba i populacja. Estymacja parametrów z wykorzystaniem metody bootstrap Magdalena Frąszczak Wrocław, 21.02.2018r Tematyka Wykładów: Próba i populacja. Estymacja parametrów z wykorzystaniem metody
Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski
Modelowanie zależności pomiędzy zmiennymi losowymi Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski P Zmienne losowe niezależne - przypomnienie Dwie rzeczywiste zmienne losowe X i Y
Agata Boratyńska Statystyka aktuarialna... 1
Agata Boratyńska Statystyka aktuarialna... 1 ZADANIA NA ĆWICZENIA Z TEORII WIAROGODNOŚCI Zad. 1. Niech X 1, X 2,..., X n będą niezależnymi zmiennymi losowymi z rozkładu wykładniczego o wartości oczekiwanej
Zadanie 1. Zmienne losowe X 1, X 2 są niezależne i mają taki sam rozkład z atomami:
Zadanie 1. Zmienne losowe X 1, X 2 są niezależne i mają taki sam rozkład z atomami: Pr(X 1 = 0) = 6/10, Pr(X 1 = 1) = 1/10, i gęstością: f(x) = 3/10 na przedziale (0, 1). Wobec tego Pr(X 1 + X 2 5/3) wynosi:
Wykład 4. Plan: 1. Aproksymacja rozkładu dwumianowego rozkładem normalnym. 2. Rozkłady próbkowe. 3. Centralne twierdzenie graniczne
Wykład 4 Plan: 1. Aproksymacja rozkładu dwumianowego rozkładem normalnym 2. Rozkłady próbkowe 3. Centralne twierdzenie graniczne Przybliżenie rozkładu dwumianowego rozkładem normalnym Niech Y ma rozkład
STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA
STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA Zadanie 0.1 Zmienna losowa X ma rozkład określony funkcją prawdopodobieństwa: x k 0 4 p k 1/3 1/6 1/ obliczyć EX, D X. (odp. 4/3;
Monte Carlo, bootstrap, jacknife
Monte Carlo, bootstrap, jacknife Literatura Bruce Hansen (2012 +) Econometrics, ze strony internetowej: http://www.ssc.wisc.edu/~bhansen/econometrics/ Monte Carlo: rozdział 8.8, 8.9 Bootstrap: rozdział
WPŁYW LEWOSTRONNEGO CENZUROWANIA DOTKLIWOŚCI STRAT PRZY SZACOWANIU RYZYKA OPERACYJNEGO NA PRZYKŁADZIE ROZKŁADU BURRA TYPU III
Studia Ekonomiczne. Zeszyty Naukowe Uniwersytetu Ekonomicznego w Katowicach ISSN 2083-8611 Nr 291 2016 Uniwersytet Ekonomiczny w Katowicach Wydział Zarządzania Katedra Ekonometrii tomasz.szkutnik@ue.katowice.pl
Sterowanie wielkością zamówienia w Excelu - cz. 3
Sterowanie wielkością zamówienia w Excelu - cz. 3 21.06.2005 r. 4. Planowanie eksperymentów symulacyjnych Podczas tego etapu ważne jest określenie typu rozkładu badanej charakterystyki. Dzięki tej informacji
Estymacja parametrów w modelu normalnym
Estymacja parametrów w modelu normalnym dr Mariusz Grządziel 6 kwietnia 2009 Model normalny Przez model normalny będziemy rozumieć rodzine rozkładów normalnych N(µ, σ), µ R, σ > 0. Z Centralnego Twierdzenia
Matematyka ubezpieczeń majątkowych 1.10.2012 r.
Zadanie. W pewnej populacji każde ryzyko charakteryzuje się trzema parametrami q, b oraz v, o następującym znaczeniu: parametr q to prawdopodobieństwo, że do szkody dojdzie (może zajść co najwyżej jedna
Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1
Weryfikacja hipotez statystycznych KG (CC) Statystyka 26 V 2009 1 / 1 Sformułowanie problemu Weryfikacja hipotez statystycznych jest drugą (po estymacji) metodą uogólniania wyników uzyskanych w próbie
PRZEWODNIK PO PRZEDMIOCIE
Nazwa przedmiotu: Kierunek: Informatyka Rodzaj przedmiotu: przedmiot obowiązkowy w ramach treści kierunkowych, moduł kierunkowy ogólny Rodzaj zajęć: wykład, ćwiczenia I KARTA PRZEDMIOTU CEL PRZEDMIOTU
Szczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć)
Szczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć) 1. Populacja generalna a losowa próba, parametr rozkładu cechy a jego ocena z losowej próby, miary opisu statystycznego
Stanisław Cichocki. Natalia Nehrebecka. Wykład 9
Stanisław Cichocki Natalia Nehrebecka Wykład 9 1 1. Dodatkowe założenie KMRL 2. Testowanie hipotez prostych Rozkład estymatora b Testowanie hipotez prostych przy użyciu statystyki t 3. Przedziały ufności
EXPECTED SHORTFALL W OCENIE RYZYKA AKCYJNYCH FUNDUSZY INWESTYCYJNYCH
Radosław Pietrzyk Uniwersytet Ekonomiczny We Wrocławiu EXPECTED SHORTFALL W OCENIE RYZYKA AKCYJNYCH FUNDUSZY INWESTYCYJNYCH 1. Wstęp Rok 2008 zapoczątkował kryzys na rynkach finansowych. Duża niestabilność
Zarządzanie kapitałem
Zarządzanie kapitałem Grupa stworzyła proces zarządzania kapitałem, który jest realizowany w oparciu o zasady zdefiniowane przez Zarząd i Radę Nadzorczą Banku Millennium SA. Głównym celem Grupy w tym obszarze
Korzystanie z podstawowych rozkładów prawdopodobieństwa (tablice i arkusze kalkulacyjne)
Korzystanie z podstawowych rozkładów prawdopodobieństwa (tablice i arkusze kalkulacyjne) Przygotował: Dr inż. Wojciech Artichowicz Katedra Hydrotechniki PG Zima 2014/15 1 TABLICE ROZKŁADÓW... 3 ROZKŁAD
Modele AMA wyliczania wymogu kapitałowego z tytułu ryzyka operacyjnego w banku
50 KWARTALNIK NAUK O PRZEDSIĘBIORSTWIE 2014 / 2 Wincenty Kulpa, Lech Zaręba Modele AMA wyliczania wymogu kapitałowego z tytułu ryzyka operacyjnego w banku Głębokie przemiany w funkcjonowaniu banków zachodzące
Biostatystyka, # 3 /Weterynaria I/
Biostatystyka, # 3 /Weterynaria I/ dr n. mat. Zdzisław Otachel Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Głęboka 28, p. 221 bud. CIW, e-mail: zdzislaw.otachel@up.lublin.pl
Analiza regresji - weryfikacja założeń
Medycyna Praktyczna - portal dla lekarzy Analiza regresji - weryfikacja założeń mgr Andrzej Stanisz z Zakładu Biostatystyki i Informatyki Medycznej Collegium Medicum UJ w Krakowie (Kierownik Zakładu: prof.
Statystyka od podstaw Janina Jóźwiak, Jarosław Podgórski
Statystyka od podstaw Janina Jóźwiak, Jarosław Podgórski Książka jest nowoczesnym podręcznikiem przeznaczonym dla studentów uczelni i wydziałów ekonomicznych. Wykład podzielono na cztery części. W pierwszej
AKADEMIA GÓRNICZO-HUTNICZA Wydział Matematyki Stosowanej ROZKŁAD NORMALNY ROZKŁAD GAUSSA
AKADEMIA GÓRNICZO-HUTNICZA Wydział Matematyki Stosowanej KATEDRA MATEMATYKI TEMAT PRACY: ROZKŁAD NORMALNY ROZKŁAD GAUSSA AUTOR: BARBARA MARDOSZ Kraków, styczeń 2008 Spis treści 1 Wprowadzenie 2 2 Definicja
Zmienność wiatru w okresie wieloletnim
Warsztaty: Prognozowanie produktywności farm wiatrowych PSEW, Warszawa 5.02.2015 Zmienność wiatru w okresie wieloletnim Dr Marcin Zientara DCAD / Stermedia Sp. z o.o. Zmienność wiatru w różnych skalach
Rozdział 8. Regresja. Definiowanie modelu
Rozdział 8 Regresja Definiowanie modelu Analizę korelacji można traktować jako wstęp do analizy regresji. Jeżeli wykresy rozrzutu oraz wartości współczynników korelacji wskazują na istniejąca współzmienność
Ład korporacyjny w bankach po kryzysie. Warszawa, 18 kwietnia 2013 r
Ład korporacyjny w bankach po kryzysie Warszawa, 18 kwietnia 2013 r Ład korporacyjny w bankach po kryzysie skutki regulacyjne Andrzej Reich Urząd Komisji Nadzoru Finansowego Źródła zmian regulacyjnych
Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar... 1. Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16
Spis treści Przedmowa.......................... XI Rozdział 1. Pomiar: jednostki miar................. 1 1.1. Wielkości fizyczne i pozafizyczne.................. 1 1.2. Spójne układy miar. Układ SI i jego
ZASTOSOWANIE ROZKŁADÓW UCIĘTYCH I CENZUROWANYCH W KWANTYFIKACJI RYZYKA OPERACYJNEGO. BADANIA SYMULACYJNE
Studia Ekonomiczne. Zeszyty Naukowe Uniwersytetu Ekonomicznego w Katowicach ISSN 2083-8611 Nr 264 2016 Uniwersytet Ekonomiczny w Katowicach Wydział Zarządzania Katedra Ekonometrii tomasz.szkutnik@ue.katowice.pl
Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych
Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Niech Ω będzie przestrzenią zdarzeń elementarnych. Definicja 1 Rodzinę S zdarzeń losowych (zbiór S podzbiorów zbioru
ZESZYTY NAUKOWE UNIWERSYTETU SZCZECIŃSKIEGO NR 689 FINANSE, RYNKI FINANSOWE, UBEZPIECZENIA NR 50 2012 ANALIZA WŁASNOŚCI OPCJI SUPERSHARE
ZESZYTY NAUKOWE UNIWERSYTETU SZCZECIŃSKIEGO NR 689 FINANSE, RYNKI FINANSOWE, UBEZPIECZENIA NR 5 212 EWA DZIAWGO ANALIZA WŁASNOŚCI OPCJI SUPERSHARE Wprowadzenie Proces globalizacji rynków finansowych stwarza
Rok akademicki: 2013/2014 Kod: AMA-2-311-MN-s Punkty ECTS: 6. Kierunek: Matematyka Specjalność: Matematyka w naukach technicznych i przyrodniczych
Nazwa modułu: teoria ryzyka Rok akademicki: 2013/2014 Kod: AMA-2-311-MN-s Punkty ECTS: 6 Wydział: Matematyki Stosowanej Kierunek: Matematyka Specjalność: Matematyka w naukach technicznych i przyrodniczych
Matematyka ubezpieczeń majątkowych r.
Zadanie 1. W pewnej populacji podmiotów każdy podmiot narażony jest na ryzyko straty X o rozkładzie normalnym z wartością oczekiwaną równą μ i wariancją równą. Wszystkie podmioty z tej populacji kierują
Ważne rozkłady i twierdzenia
Ważne rozkłady i twierdzenia Rozkład dwumianowy i wielomianowy Częstość. Prawo wielkich liczb Rozkład hipergeometryczny Rozkład Poissona Rozkład normalny i rozkład Gaussa Centralne twierdzenie graniczne
Regresja wieloraka Ogólny problem obliczeniowy: dopasowanie linii prostej do zbioru punktów. Najprostszy przypadek - jedna zmienna zależna i jedna
Regresja wieloraka Regresja wieloraka Ogólny problem obliczeniowy: dopasowanie linii prostej do zbioru punktów. Najprostszy przypadek - jedna zmienna zależna i jedna zmienna niezależna (można zobrazować
dr hab. Renata Karkowska 1
dr hab. Renata Karkowska 1 Czym jest ryzyko? Rodzaje ryzyka? Co oznacza zarządzanie? Dlaczego zarządzamy ryzykiem? 2 Przedmiot ryzyka Otoczenie bliższe/dalsze (czynniki ryzyka egzogeniczne vs endogeniczne)
Estymacja punktowa i przedziałowa
Temat: Estymacja punktowa i przedziałowa Kody znaków: żółte wyróżnienie nowe pojęcie czerwony uwaga kursywa komentarz 1 Zagadnienia 1. Statystyczny opis próby. Idea estymacji punktowej pojęcie estymatora
R ozkład norm alny Bardzo często używany do modelowania symetrycznych rozkładów zmiennych losowych ciągłych
R ozkład norm alny Bardzo często używany do modelowania symetrycznych rozkładów zmiennych losowych ciągłych Przykłady: Błąd pomiarowy Wzrost, wydajność Temperatura ciała Zawartość różnych składników we
Tablica Wzorów Rachunek Prawdopodobieństwa i Statystyki
Tablica Wzorów Rachunek Prawdopodobieństwa i Statystyki Spis treści I. Wzory ogólne... 2 1. Średnia arytmetyczna:... 2 2. Rozstęp:... 2 3. Kwantyle:... 2 4. Wariancja:... 2 5. Odchylenie standardowe:...
Robert M.Korona. Dr Robert M. Korona 1
Robert M.Korona Dr Robert M. Korona 1 Agenda Co to jest KRI? Wartość krytyczna i progowa Opis wyzwania Wyznaczenie wartości KRI za pomocą modelu logistycznego Wyznaczenie KRI za pomocą szeregu czasowego
Identyfikacja i pomiar ryzyka pierwszy krok w zarządzaniu ryzykiem.
Identyfikacja i pomiar ryzyka pierwszy krok w zarządzaniu ryzykiem. Andrzej Podszywałow Własność przemysłowa w innowacyjnej gospodarce. Zarządzanie ryzykiem, strategia zarządzania własnością intelektualną
Szczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć)
Szczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć) 1. Populacja generalna a losowa próba, parametr rozkładu cechy a jego ocena z losowej próby, miary opisu statystycznego
MODELE LINIOWE. Dr Wioleta Drobik
MODELE LINIOWE Dr Wioleta Drobik MODELE LINIOWE Jedna z najstarszych i najpopularniejszych metod modelowania Zależność między zbiorem zmiennych objaśniających, a zmienną ilościową nazywaną zmienną objaśnianą
O ŚREDNIEJ STATYSTYCZNEJ
O ŚREDNIEJ STATYSTYCZNEJ Ryszard Zieliński XII Międzynarodowe Warsztaty dla Młodych Matematyków Rachunek Prawdopodobieństwa i Statystyka Kraków, 20 26 IX 2009 r. WYNIKI OBSERWACJI X 1, X 2,..., X n WYNIKI
STATYSTYKA
Wykład 1 20.02.2008r. 1. ROZKŁADY PRAWDOPODOBIEŃSTWA 1.1 Rozkład dwumianowy Rozkład dwumianowy, 0 1 Uwaga: 1, rozkład zero jedynkowy. 1 ; 1,2,, Fakt: Niech,, będą niezależnymi zmiennymi losowymi o jednakowym
Instytut Politechniczny Państwowa Wyższa Szkoła Zawodowa. Diagnostyka i niezawodność robotów
Instytut Politechniczny Państwowa Wyższa Szkoła Zawodowa Diagnostyka i niezawodność robotów Laboratorium nr 6 Model matematyczny elementu naprawialnego Prowadzący: mgr inż. Marcel Luzar Cele ćwiczenia:
Value at Risk (VaR) Jerzy Mycielski WNE. Jerzy Mycielski (Institute) Value at Risk (VaR) / 16
Value at Risk (VaR) Jerzy Mycielski WNE 2018 Jerzy Mycielski (Institute) Value at Risk (VaR) 2018 1 / 16 Warunkowa heteroskedastyczność O warunkowej autoregresyjnej heteroskedastyczności mówimy, gdy σ
III. ZMIENNE LOSOWE JEDNOWYMIAROWE
III. ZMIENNE LOSOWE JEDNOWYMIAROWE.. Zmienna losowa i pojęcie rozkładu prawdopodobieństwa W dotychczas rozpatrywanych przykładach każdemu zdarzeniu była przyporządkowana odpowiednia wartość liczbowa. Ta
Wykład Centralne twierdzenie graniczne. Statystyka matematyczna: Estymacja parametrów rozkładu
Wykład 11-12 Centralne twierdzenie graniczne Statystyka matematyczna: Estymacja parametrów rozkładu Centralne twierdzenie graniczne (CTG) (Central Limit Theorem - CLT) Centralne twierdzenie graniczne (Lindenberga-Levy'ego)
Optymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
Spacery losowe generowanie realizacji procesu losowego
Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z
Ćwiczenia Zarządzanie Ryzykiem. dr hab. Renata Karkowska, ćwiczenia Zarządzanie ryzykiem 1
Ćwiczenia Zarządzanie Ryzykiem 1 VaR to strata wartości instrumentu (portfela) taka, że prawdopodobieństwo osiągnięcia jej lub przekroczenia w określonym przedziale czasowym jest równe zadanemu poziomowi
Programowanie celowe #1
Programowanie celowe #1 Problem programowania celowego (PC) jest przykładem problemu programowania matematycznego nieliniowego, który można skutecznie zlinearyzować, tzn. zapisać (i rozwiązać) jako problem
MODELOWANIE ZMIENNOŚCI CEN AKCJI MODEL ADDYTYWNY MODEL MULTIPLIKATYWNY
MODELOWANIE ZMIENNOŚCI CEN AKCJI MODEL ADDYTYWNY MODEL MULTIPLIKATYWNY Modele zmienności aktywów z czasem dyskretnym / Model addytywny Przyjmijmy następujące oznaczenia: S(0) - cena początkowa akcji S(k)
Inteligentna analiza danych
Numer indeksu 150946 Michał Moroz Imię i nazwisko Numer indeksu 150875 Grzegorz Graczyk Imię i nazwisko kierunek: Informatyka rok akademicki: 2010/2011 Inteligentna analiza danych Ćwiczenie I Wskaźniki
Informacja dotycząca adekwatności kapitałowej HSBC Bank Polska SA na 31 grudnia 2009 r. Warszawa, 31 sierpnia 2010 r.
Informacja dotycząca adekwatności kapitałowej HSBC Bank Polska SA na 31 grudnia 2009 r. Warszawa, 31 sierpnia 2010 r. Spis treści 1. Wstęp............................ 3 2. Fundusze własne...................
O ŚREDNIEJ STATYSTYCZNEJ
Od średniej w modelu gaussowskim do kwantyli w podstawowym modelu nieparametrycznym IMPAN 1.X.2009 Rozszerzona wersja wykładu: O ŚREDNIEJ STATYSTYCZNEJ Ryszard Zieliński XII Międzynarodowe Warsztaty dla
Excel i VBA w analizach i modelowaniu finansowym Pomiar ryzyka. Pomiar ryzyka
Pomiar ryzyka Miary obiektywne stosowane w kwantyfikacji ryzyka rynkowego towarzyszącego zaangażowaniu środków w inwestycjach finansowych obejmują: Miary zmienności, Miary zagrożenia, Miary wrażliwości.
Wnioskowanie statystyczne. Statystyka w 5
Wnioskowanie statystyczne tatystyka w 5 Rozkłady statystyk z próby Próba losowa pobrana z populacji stanowi realizacje zmiennej losowej jak ciąg zmiennych losowych (X, X,... X ) niezależnych i mających
Strategia zarządzania ryzykiem w DB Securities S.A.
Strategia zarządzania ryzykiem w S.A. 1 Opis systemu zarządzania ryzykiem w S.A 1. Oświadczenia S.A. dąży w swojej działalności do zapewnienia zgodności z powszechnie obowiązującymi aktami prawnymi oraz
Metody matematyczne w analizie danych eksperymentalnych - sygnały, cz. 2
Metody matematyczne w analizie danych eksperymentalnych - sygnały, cz. 2 Dr hab. inż. Agnieszka Wyłomańska Faculty of Pure and Applied Mathematics Hugo Steinhaus Center Wrocław University of Science and
Detekcja rozkładów o ciężkich ogonach
Detekcja rozkładów o ciężkich ogonach J. Śmiarowska, P. Jamer Wydział Matematyki i Nauk Informacyjnych Politechnika Warszawska 24 kwietnia 2012 J. Śmiarowska, P. Jamer (Politechnika Warszawska) Detekcja
Parametr Λ w populacji ubezpieczonych ma rozkład dany na półosi dodatniej gęstością: 3 f
Zadanie. W kolejnych latach t =,,,... ubezpieczony charakteryzujący się parametrem ryzyka Λ generuje N t szkód. Dla danego Λ = λ zmienne N, N, N,... są warunkowo niezależne i mają (brzegowe) rozkłady Poissona:
Rachunek prawdopodobieństwa WZ-ST1-AG--16/17Z-RACH. Liczba godzin stacjonarne: Wykłady: 15 Ćwiczenia: 30. niestacjonarne: Wykłady: 9 Ćwiczenia: 18
Karta przedmiotu Wydział: Wydział Zarządzania Kierunek: Analityka gospodarcza I. Informacje podstawowe Nazwa przedmiotu Rachunek prawdopodobieństwa Nazwa przedmiotu w j. ang. Język prowadzenia przedmiotu
Załóżmy, że obserwujemy nie jedną lecz dwie cechy, które oznaczymy symbolami X i Y. Wyniki obserwacji obu cech w i-tym obiekcie oznaczymy parą liczb
Współzależność Załóżmy, że obserwujemy nie jedną lecz dwie cechy, które oznaczymy symbolami X i Y. Wyniki obserwacji obu cech w i-tym obiekcie oznaczymy parą liczb (x i, y i ). Geometrycznie taką parę
Wnioskowanie bayesowskie
Wnioskowanie bayesowskie W podejściu klasycznym wnioskowanie statystyczne oparte jest wyłącznie na podstawie pobranej próby losowej. Możemy np. estymować punktowo lub przedziałowo nieznane parametry rozkładów,
PARAMETRY, WŁAŚCIWOŚCI I FUNKCJE NIEZAWODNOŚCIOWE NAPOWIETRZNYCH LINII DYSTRYBUCYJNYCH 110 KV
Elektroenergetyczne linie napowietrzne i kablowe wysokich i najwyższych napięć PARAMETRY, WŁAŚCIWOŚCI I FUNKCJE NIEZAWODNOŚCIOWE NAPOWIETRZNYCH LINII DYSTRYBUCYJNYCH 110 KV Wisła, 18-19 października 2017
Matematyka ubezpieczeń majątkowych r.
Matematyka ubezpieczeń majątkowych 3..007 r. Zadanie. Każde z ryzyk pochodzących z pewnej populacji charakteryzuje się tym że przy danej wartości λ parametru ryzyka Λ rozkład wartości szkód z tego ryzyka
Prawa wielkich liczb, centralne twierdzenia graniczne
, centralne twierdzenia graniczne Katedra matematyki i ekonomii matematycznej 17 maja 2012, centralne twierdzenia graniczne Rodzaje zbieżności ciągów zmiennych losowych, centralne twierdzenia graniczne
Własności statystyczne regresji liniowej. Wykład 4
Własności statystyczne regresji liniowej Wykład 4 Plan Własności zmiennych losowych Normalna regresja liniowa Własności regresji liniowej Literatura B. Hansen (2017+) Econometrics, Rozdział 5 Własności
Testowanie hipotez statystycznych.
Bioinformatyka Wykład 9 Wrocław, 5 grudnia 2011 Temat. Test zgodności χ 2 Pearsona. Statystyka χ 2 Pearsona Rozpatrzmy ciąg niezależnych zmiennych losowych X 1,..., X n o jednakowym dyskretnym rozkładzie
Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa
Spis treści Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa Romuald Kotowski Katedra Informatyki Stosowanej PJWSTK 2009 Spis treści Spis treści 1 Wstęp Bardzo często interesujący
OBLICZENIE PRZEPŁYWÓW MAKSYMALNYCH ROCZNYCH O OKREŚLONYM PRAWDOPODOBIEŃSTWIE PRZEWYŻSZENIA. z wykorzystaniem programu obliczeniowego Q maxp
tel.: +48 662 635 712 Liczba stron: 15 Data: 20.07.2010r OBLICZENIE PRZEPŁYWÓW MAKSYMALNYCH ROCZNYCH O OKREŚLONYM PRAWDOPODOBIEŃSTWIE PRZEWYŻSZENIA z wykorzystaniem programu obliczeniowego Q maxp DŁUGIE
N ma rozkład Poissona z wartością oczekiwaną równą 100 M, M M mają ten sam rozkład dwupunktowy o prawdopodobieństwach:
Zadanie. O niezależnych zmiennych losowych N, M M, M 2, 3 wiemy, że: N ma rozkład Poissona z wartością oczekiwaną równą 00 M, M M mają ten sam rozkład dwupunktowy o prawdopodobieństwach: 2, 3 Pr( M = )
Porównanie metod szacowania Value at Risk
Porównanie metod szacowania Value at Risk Metoda wariancji i kowariancji i metoda symulacji historycznej Dominika Zarychta Nr indeksu: 161385 Spis treści 1. Wstęp....3 2. Co to jest Value at Risk?...3
Prawdopodobieństwo i rozkład normalny cd.
# # Prawdopodobieństwo i rozkład normalny cd. Michał Daszykowski, Ivana Stanimirova Instytut Chemii Uniwersytet Śląski w Katowicach Ul. Szkolna 9 40-006 Katowice E-mail: www: mdaszyk@us.edu.pl istanimi@us.edu.pl
DOPASOWANIE ROZKŁADU I EKSPERYMENT SYMULACYJNY NA PRZYKŁADZIE DANYCH O WYPADKACH DROGOWYCH
DOPASOWANIE ROZKŁADU I EKSPERYMENT SYMULACYJNY NA PRZYKŁADZIE DANYCH O WYPADKACH DROGOWYCH Krzysztof Suwada, StatSoft Polska Sp. z o.o. Często zdarza się, że nie satysfakcjonuje nas sama eksploracja danych,
System bonus-malus z mechanizmem korekty składki
System bonus-malus z mechanizmem korekty składki mgr Kamil Gala Ubezpieczeniowy Fundusz Gwarancyjny dr hab. Wojciech Bijak, prof. SGH Ubezpieczeniowy Fundusz Gwarancyjny, Szkoła Główna Handlowa Zagadnienia
Definicja 1 Statystyką nazywamy (mierzalną) funkcję obserwowalnego wektora losowego
Rozdział 1 Statystyki Definicja 1 Statystyką nazywamy (mierzalną) funkcję obserwowalnego wektora losowego X = (X 1,..., X n ). Uwaga 1 Statystyka jako funkcja wektora zmiennych losowych jest zmienną losową
ANALIZA ŹRÓDEŁ NIEPEWNOŚCI W MODELOWANIU RYZYKA OPERACYJNEGO
Studia Ekonomiczne. Zeszyty Naukowe Uniwersytetu Ekonomicznego w Katowicach ISSN 2083-8611 Nr 304 2016 Informatyka i Ekonometria 7 Tomasz Szkutnik Uniwersytet Ekonomiczny w Katowicach Wydział Zarządzania