ANALIZA ŹRÓDEŁ NIEPEWNOŚCI W MODELOWANIU RYZYKA OPERACYJNEGO
|
|
- Aneta Adamczyk
- 5 lat temu
- Przeglądów:
Transkrypt
1 Studia Ekonomiczne. Zeszyty Naukowe Uniwersytetu Ekonomicznego w Katowicach ISSN Nr Informatyka i Ekonometria 7 Tomasz Szkutnik Uniwersytet Ekonomiczny w Katowicach Wydział Zarządzania Katedra Ekonometrii tomasz.szkutnik@uekat.pl ANALIZA ŹRÓDEŁ NIEPEWNOŚCI W MODELOWANIU RYZYKA OPERACYJNEGO Streszczenie: W artykule poruszony został problem związany z identyfikacją źródeł niepewności w modelowaniu ryzyka operacyjnego w oparciu o metodę LDA. Modelowanie ryzyka operacyjnego w bankowości opiera się najczęściej na informacjach zbieranych powyżej określonego progu. Fakt ucinania obserwacji jako jeden ze szczególnych rodzajów cenzurowania danych w wielu praktycznych przypadkach nie jest brany po uwagę przy estymacji parametrów rozkładu dotkliwości strat operacyjnych w metodzie LDA. W artykule zostały porównane różne formy cenzurowania danych wraz z oceną stopnia oddziaływania utraty informacji na zmienność zarówno wartości szacowanych parametrów rozkładów, jak i wielkości wyznaczanego ryzyka. Proponowane w artykule wykorzystanie estymacji cenzurowanej, które nie jest szeroko stosowane w praktyce bankowej, pozwala na poprawę jakości estymacji bez konieczności pełnego raportowania strat banku. Ponadto cenzurowanie informacji stanowi cenne źródło informacji nie tylko w procesie dotkliwości strat, ale także zapewnia dodatkowe informacje przy modelowaniu procesu częstości strat. Za pomocą symulacji pokazane jest oddziaływanie różnych sposobów zbierania informacji na jakość estymatorów wybranego rozkładu dotkliwości strat. Słowa kluczowe: ryzyko operacyjne, LDA, cenzurowanie danych, ucinanie danych. Wprowadzenie Analiza źródeł niepewności w odniesieniu do ryzyka operacyjnego, będąca tematem przewodnim przeprowadzonych badań, skupia uwagę na zasadniczej kwestii, jaką jest charakter źródła informacji. Docelowym punktem zainteresowania każdej analizy ryzyka jest wyznaczenie wielkości ryzyka, która w przypadku ryzyka operacyjnego najczęściej określana jest na podstawie modelu rozkładu strat LDA. Metoda LDA polega na wyznaczeniu zagregowanego rozkładu
2 20 Tomasz Szkutnik strat z dwóch oddzielnych procesów, jakimi są proces częstości i proces dotkliwości strat. Szeroki opis metody rozkładu strat można znaleźć w takich pracach, jak [Shevchenko, 2011], [Klugman i in., 2008] oraz [Szkutnik, 2013]. Straty operacyjne są postrzegane jako zmienne losowe należące do przestrzeni. W wielu przypadkach charakter danych dotyczących wielkości strat operacyjnych właściwych dla danej instytucji jest pewnym podzbiorem dodatniej półosi. Wynika to bezpośrednio ze sposobu zbierania informacji dotyczących zdarzeń i start operacyjnych. Ogólnie przyjętym standardem jest raportowanie i rejestrowanie w systemach wielkości strat powyżej określonego progu, przy czym wyróżnia się dwie szczególne sytuacje, tj. ucinanie danych oraz ich cenzurowanie. Występujące w praktyce dwie sytuacje dotyczące ucinania lub cenzurowania danych mogą prowadzić do różnych sposobów kwantyfikacji ryzyka. W przypadku danych uciętych dostępny zakres informacji w stosunku do rzeczywistego zjawiska jest ograniczony jednostronnie lub obustronnie. Wyróżnia się dane ucięte lewostronnie (rejestrowane są wtedy tylko obserwacje powyżej określonego progu), ucięte prawostronnie (rejestrowanie danych poniżej określonego progu) i ucięte obustronnie (dane rejestrowane są w przedziale pomiędzy wartością dolną i górną ograniczenia). Proces cenzurowania danych jest podobny do procesu ucinania danych, z tą różnicą, że dla danych cenzurowanych obserwacja niespełniająca relacji mniejszości lub większości w stosunku do określonych progów lewo lub prawostronnych jest zliczana bez rejestrowania wartości zmiennej losowej. Dzięki procesowi cenzurowania danych utrata informacji jest znacznie mniejsza niż w przypadku ich ucinania. Podobnie jak dla danych uciętych, w przypadku danych cenzurowanych wyróżnia się cenzurowanie lewostronne, prawostronne lub cenzurowanie obustronne. Dla procesu ryzyka operacyjnego właściwe będą mechanizmy ucinania lub cenzurowania lewostronnego. Wynika to bezpośrednio z systematyki ryzyka operacyjnego występującego w bankowości. Od procesu raportowania i rejestracji danych oczekuje się zbierania informacji o wielkościach przekroczeń powyżej ustalonych progów. Należy podkreślić dodatkowo, że to proces ucinania danych jest najbardziej powszechny i w praktyce rzadko spotyka się sytuacje, w których dane rejestrowane są w postaci danych cenzurowanych (częściej zamiast operacji cenzurowania niektóre instytucje wybierają rejestrowanie wszystkich danych, jednak w praktyce korzystają tylko z ich pewnego uciętego podzbioru).
3 Analiza źródeł niepewności w modelowaniu Wpływ ucinania i cenzurowania obserwacji na rozkład dotkliwości strat operacyjnych Celem niniejszej części pracy jest zweryfikowanie za pomocą badania symulacyjnego wpływu ucinania oraz cenzurowania danych na wielkość parametrów wybranego rozkładu prawdopodobieństwa dotkliwości strat oraz na wielkości miary Value-at-Risk. Podkreślone są tu mocne i słabe strony możliwych do zastosowania rozwiązań, w zależności od przyjętej koncepcji modelowej. Badanie ma na celu przedstawienie problemu ze względu na stosowane powszechnie w praktyce rozwiązania polegające na modelowaniu danych uciętych rozkładami dla pełnej dziedziny zmiennej losowej oraz poddanie tych rozwiązań krytycznej weryfikacji w kontekście innych, równie praktycznych rozwiązań. 2. Opis badania symulacyjnego Wyróżniono cztery możliwe scenariusze, jakie mogą wystąpić w przypadku modelowania procesów dotkliwości strat. Każdy z nich oparty jest na dwóch założeniach. Pierwsze założenie wiąże się z wyborem dziedziny zmiennej losowej,, w zależności od progu, gdzie 0 dane pełne, oraz 0 dane ucięte lub dane cenzurowane (w zależności od sposobu postepowania z obserwacjami poniżej progu ). Drugie założenie związane jest z przyjętym do modelowania ciągłym rozkładem prawdopodobieństwa (rozkład standardowy, rozkład ucięty lewostronnie, rozkład cenzurowany lewostronnie), którego parametry estymowane są w zależności od przyjętego wariantu dla danych z pierwszego założenia. Określenie rozkład standardowy oznacza, że został wybrany do modelowania określony rozkład prawdopodobieństwa. Natomiast rozkłady ucięte i cenzurowane lewostronnie są tymi samym rozkładami co rozkład standardowy, jednak fakt ograniczonej informacji uwzględniony jest na etapie estymacji (tzn. zostały wybrane odpowiednie procedury estymacji parametrów dla rozkładów uciętych oraz cenzurowanych). Postać funkcji wiarygodności odpowiednia dla przypadku danych uciętych i cenzurowanych jest identyczna jak w pracy [Klein, 2003, s. 74], dlatego nie będzie tu powtarzana. Odpowiednie podstawienia do podanej tam funkcji wiarygodności pozwalają na rozpatrzenie zarówno przypadku danych cenzurowanych, jak i uciętych. W celu estymacji wymienionych typów rozkładów zostało wykorzystane oprogramowanie R, wraz z pakietami fitdistrplus oraz truncdist.
4 22 Tomasz Szkutnik Wybór progu z założenia pierwszego, dotyczącego scenariuszy symulacyjnych, nie może być wielkością przyjętą z góry, jednak kryteria jego wyboru muszą być w stanie obiektywnie porównać różnego rodzaju rozkłady i ich zdolność do opisu zjawiska wraz z postępowaniem procesów utraty informacji. Zapewnienie porównywalności dla różnych rodzajów rozkładów parametryzowanych w odmienny sposób wymaga przyjęcia wartość progu w oparciu o wartość kwantyla odpowiedniego rzędu. Tak zdefiniowany próg będzie gwarantował, że odpowiedni procent zmiennych losowych będzie odpowiednio odrzucany w przypadku danych uciętych lub zliczany w przypadku danych cenzurowanych. 3. Przyjęte scenariusze symulacyjne Na przyjęte scenariusze symulacyjne składają się: 1. Scenariusz bazowy dane pełne, rozkład standardowy. 2. Scenariusz naiwny dane ucięte, rozkład standardowy. 3. Scenariusz ucięty dane ucięte, rozkład ucięty. 4. Scenariusz cenzurowany dane cenzurowane, rozkład cenzurowany. 4. Ogólny schemat badania symulacyjnego Badanie symulacyjne zostało podzielone na następujące kroki: Krok 1: Dla wybranego rozkładu standardowego oraz przyjętych dla niego arbitralnie parametrów generowane są pseudolosowe zmienne, co stanowi jedną realizację teoretycznego rozkładu prawdopodobieństwa. Zbiór ten nazwany jest zbiorem bazowym i oznaczony jest jako XB. Liczba wygenerowanych obserwacji oznaczona jest przez NB. Krok 2: Należy wyznaczyć wartości progu określającego poziom, od którego obserwacje ze zbioru XB będą ucinane lub cenzurowane. Wartość progu, jako kwantyl rzędu, gdzie: 0; 0, 1; 0, 2; 0, 3; 0, 4; 0, 5; 0, 6; 0, 7; 0, 8 dla wybranego rozkładu teoretycznego i określonych parametrów. Krok 3: Dla każdej z wartości progowych z kroku 1 i należy utworzyć zbiory danych uciętych XU oraz cenzurowanych XC na podstawie danych XB z kroku 1. Krok 4: Do utworzonych zbiorów należy dopasować zdefiniowaną funkcje prawdopodobieństwa, przyjmując odpowiednie kryteria wynikające ze scenariuszy od 1 do 4: Do danych ze zbioru XB należy dopasować rozkład standardowy. Do danych ze zbioru XU należy dopasować rozkład standardowy.
5 Analiza źródeł niepewności w modelowaniu 23 Do danych ze zbioru XU należy dopasować rozkład ucięty. Do danych ze zbioru XC należy dopasować rozkład cenzurowany. Krok 5: Kroki od 1 do 4 należy powtórzyć określoną liczbę iteracji NI dla wybranego rzędu kwantyla. Krok 6: Dysponując wszystkimi NI oszacowanymi zbiorami wartości parametrów dla modeli pochodzących z rozważanej rodziny rozkładu teoretycznego, należy wyznaczyć oddzielnie dla każdego z oszacowanych parametrów określone charakterystyki liczbowe, takie jak: wartość średnia, odchylenie standardowe czy współczynnik zmienności w celu identyfikacji głównych tendencji, jakie będą charakteryzowały rozpatrywane scenariusze symulacyjne. Krok 7: Dysponując uśrednionymi wynikami symulacji z kroku 6, należy procedurę powtórzyć, począwszy od kroku 1 do 6, dla wszystkich wartości przyjętych kwantyli oznaczonych jako elementu zbioru. Realizacja scenariuszy testowych w oparciu o przyjęty schemat symulacji pozwala na określenie tempa zmian w zależności od przyjętego podziału wartości zmiennych losowych według wartości kwantyla odpowiedniego rzędu. W celu dokładniejszej analizy zjawiska można zagęścić szereg wartości, przyjmując większą liczbę wartości z zadanego przedziału (np. dla danych z przedziału [0; 0, 8], przyjmując krok rzędu 1%, można wyznaczyć 81 elementowy wektor). Jednak w przypadku chęci identyfikacji jedynie głównej tendencji, wystarczający jest przyjęty podział wektora na 9 elementów. Ogólny schemat badania symulacyjnego został zrealizowany dla rozkładu logarytmiczno- -normalnego oznaczanego dalej jako LN. 5. Porównanie wpływu ucinania oraz cenzurowania danych na wielkości miary VaR na przykładzie rozkładu logarytmiczno-normalnego Za hipotetyczny rozkład przyjęto rozkład LN(4; 1, 5). Rysunek 1 przedstawia sytuację, w której dla wybranego rozkładu wygenerowano 1000 realizacji zmiennych losowych i oszacowano jego parametry przy różnych kryteriach. Badanie przebiegało według scenariuszy testowych zdefiniowanych w ogólnym schemacie badania symulacyjnego. Histogram (rys. 1) przedstawia dane pełne, tj. z przedziału 0,. W celu demonstracji wpływu ucinania oraz cenzurowania informacji, na podstawie wygenerowanych danych przedstawiono poniżej jeden scenariusz symulacyjny opisany we wcześniejszej procedurze symulacyjnej wraz z dopasowanymi funkcjami gęstości dla różnych wariantów. Przyjęto, że dane będą lewostronnie ucięte dla progu Taka wielkość stanowi w przybliżeniu wartość kwantyla rzędu 0,2, co oznacza, że procesowi ucinania lub cenzurowania danych poddanych zostało około 20% obserwacji.
6 24 Tomasz Szkutnik Rys. 1. Porównanie dop pasowania rozkładu logarytmiczno-normalnego przy różnych wariantach estymacji param metrów Źródło: Opracowanie własne. Odpowiednie krzywe prze edstawiająą dopasowanie rozkładów LN przy zało o- żeniach scenariuszy testowych z krok ku 4 (opisu schematu symulacyjnego). Sce- nariusz bazowy przedstawiaa dopasowanie rozkładu LN do danych pełnych (ko- lor czarny), scen nariusz naiwny przedstawia dopasowanie rozkładu LN do danych powyżej progu h (w sytuacji, gdy około 20% dan nych poniżej progu h będzie niedostępnych, co zaznaczono kolorem czerwonym) ), scenariusz dla danych cen- zurowanych ukazuje dopasowanie krzywej gęstości dla lewostronnego cenzuro- wania (okołoo 20% obserwacji poniżej progu jest zliczonych i informacjaa ta jest wykorzystana w proc cesie esty ymacji, natomiast praw wdziwe war rtości nie sąą do- stępne, co zazn naczono kolorem nieb bieskim), natomiast scenariusz dla danych uciętych prezentuje dopasowanie rozkładu uciętego lewostronnie (lewostronne odrzucenie dany ych poniżej progu h). Na przedstawionym rysunku 1 wid dać, jak proces rejestrowania danych tylko powyżej określonego progu wpływa na dopa- sowywany rozkład prawdopodobieństwa. W tym przy ypadku pominięciee faktu uci- nania danych w znaczący sposób wpły ynęło na postać dopasowanego rozkładu. Proces ucin nania obserwacji pow woduje, żee brak jest informacji o skali zjawi- ska poniżej prog gu, co może stanowić w praktyce duży problem, bowiem dopa- sowywany rozkład prawdopodobieństwa nie musi być rozkładem, z którego peł- ne dan ne będą pochodzić. Fakt wykorzystania rozkładów dla pełn nej dziedziny bez uwzględniania lub badania procesu ucinania danych w znaczący sposób obniża efektywne mode elowanie dotkliwości strat operacyjnych przy przyjętych w hipo o- tetycznym przykładzie założeniach. Nieodpowiedni wybór pro ocedur estymacji, jakie powinny być wykorzystane przy wnioskowaniu o postaci rozkładuu dotkliwości strat, można zaliczyćć do głów- nego źródła niep pewności przy modelowaniu ryzyka operacyjnego. Brak jasno zdefi-
7 Analiza źródeł niepewności w modelowaniu 25 niowanego problemu lub nawet celowe pominięcie specyfiki danych powoduje, że modelowane zjawisko, tj. wyznaczenie wielkości miary ryzyka, samo w sobie będzie obarczone ryzykiem operacyjnym, w tym przypadku ryzykiem modelu. W celu dodatkowego pokazania różnic pomiędzy otrzymanymi rozwiązaniami wyznaczone zostały wartości kwantyli rzędu 0,99 oraz 0,999, mające przedstawiać wartości miary Value-at-Risk. Dla ryzyka operacyjnego miara VaR nie jest wyznaczana z rozkładów dotkliwości, tylko np. za pomocą metody LDA ze zagregowanego rozkładu strat, jednak wpływ rozkładu dotkliwości, jako jeden z 2 procesów składających się na metodę LDA, ma silny wpływ na późniejsze wartości VaR pochodzące z rozkładu zagregowanego. W artykule podane są tylko wartości miary VaR dla scenariusza bazowego, scenariusza naiwnego oraz scenariusza dla danych uciętych (wartości dla scenariusza dla danych cenzurowanych nie są prezentowane, ponieważ w rozważanym przykładzie są to wielkości średnie, które są prawie identyczne ze scenariuszem bazowym). Wyniki zawarte w tabeli 1 pokazują, że w przypadku, gdy rzeczywistym procesem byłby rozkład LN o zadanych parametrach i przy założeniu, że około 20% obserwacji zostanie odrzuconych, to różnice w prawym ogonie wyrażone przez wartości miary VaR są znaczne. Wartości VaR przy scenariuszu bazowym są mniejsze o około 30% i 50%, odpowiednio dla poziomów ufności 0,99 i 0,999. Tabela 1. Porównanie wartości miary VaR dla wybranych scenariuszy testowych Scenariusz testowy VaR 0,99 VaR 0,999 Bazowy Naiwny Dane ucięte Źródło: Opracowanie własne. Szczegółowe wyniki dotyczące prezentowanego przykładu symulacyjnego są w tabeli 2 (załącznik). Z zamieszczonych tam informacji wynikają dwa istotne wnioski. Po pierwsze, pominięcie faktu ucinania danych i wykorzystania rozkładów z dziedziny powoduje, że powstające różnice pomiędzy szacunkami parametrów z dwóch scenariuszy tj. naiwnego i uciętego, będą miały tendencje do zwiększania się wraz z przesuwaniem się progu ucinania w prawą stronę. Przesuniecie progu ucinania równoznaczne będzie w tym przypadku z utratą informacji. Jak pokazano w tabeli 1, nawet 20% utrata informacji wpływa na zmniejszenie się szacunków wielkości VaR dla rozkładu dotkliwości strat o około 50% (co całkowicie będzie zmieniać wyniki uzyskane z metody LDA). Spowodowane jest to faktem, że dopasowując rozkład do tej części dziedziny, z któ-
8 26 Tomasz Szkutnik rej brak jest jakichkolwiek obserwacji, funkcja gęstości może starać się rozłożyć swoja masę także w tym zakresie. W przypadku rozkładów o dużej liczbie parametrów, charakteryzujących się znaczną elastycznością, zjawisko to będzie mniej widoczne niż w przypadku takich rozkładów, jak np. rozkład logarytmiczno-normalny. Ponadto sam proces ucinania danych jest kompromisem pomiędzy utratą informacji a kosztami ich zbierania. Duża liczba strat o niskiej dotkliwości może łącznie przełożyć się na znaczne straty dla banku. Pominięcie w tym zakresie specyfiki danych będzie prowadziło nieuchronnie do błędnych szacunków parametrów ciągłych procesów dotkliwości strat. Skala tych błędów będzie uzależniona od przyjętego progu ucinania oraz od rozkładu analizowanych danych. Po drugie, należy podkreślić fakt, ze proces ucinania danych nie tylko wpływa na proces dotkliwości strat. Brak informacji o wielkości straty oznacza równocześnie brak informacji, że taka strata zaistniała. W związku z tym proces ucinania danych wpływa także na wspomniany we wstępnej części proces częstości występowania strat (jako jedna ze składowych metody LDA). W praktyce będzie to powodowało w pewnym stopniu niedoszacowanie wielkości ryzyka wyznaczanego ze zagregowanego rozkładu strat. Wspominany aspekt ucinania danych motywowany jest zainteresowaniem stratami o największej dotkliwości oraz redukcją kosztów koniecznych do poniesienia, które wynikałyby z faktu rejestrowania wszystkich zdarzeń. Wybór pomiędzy rejestrowaniem wszystkich danych a ich ucinaniem poniżej zadanego progu nie jest jedynym rozwiązaniem, jakie można zaproponować w tym zakresie. Proces cenzurowania danych nie jest powszechny w praktyce bankowej, ale jego wpływ na jakość estymacji nie może być pominięty. Brak jest znaczących rozwiązań w zakresie ryzyka operacyjnego, które by wskazywały na proces cenzurowania danych jako jednej z możliwości przy kwantyfikacji ryzyka. W przypadku cenzurowania danych realizowane są dwa zasadnicze elementy. Po pierwsze, proces dotkliwości jest estymowany z uwzględnieniem częściowych informacji o obserwacjach poniżej zadanego progu. Po drugie, zachowana jest pełna informacja o częstości zdarzeń, jakie zaszły w analizowanym obszarze, z którego pochodzą obserwacje. Proces cenzurowania danych daje jeszcze jedną możliwość, bowiem liczba obserwacji cenzurowanych zliczonych poniżej danego progu nie musi pochodzić z systemu sprawozdawczości w banku. Wielkość ta w praktyce może być zakładana arbitralnie (np. przyjęcie, że 20% danych jest cenzurowanych) lub może wynikać z innych modeli, zarówno tych eksperckich o kwalitatywnym charakterze, jak również tych o charakterze ilościowym, będąc tym samym przedmiotem np. analiz statystycznych.
9 Analiza źródeł niepewności w modelowaniu 27 Z informacji zawartych w tabeli 2 wynika, że w hipotetycznym przypadku utrata informacji nawet przy wysokim poziomie cenzurowania nie była znaczna. Oznacza to, że cenzurowanie nie miało zasadniczego wpływu na oszacowania estymatorów (co można zauważyć, porównując uśrednione wielkości). Wzrasta tylko w tym przypadku rozrzut wartości estymowanych wielkości, co widać w kolumnach odpowiednio oraz, natomiast ich średni poziom dla przeprowadzonych symulacji pozostaje zbliżony do wartości scenariusza bazowego. W odniesieniu do tych samych wielkości z tabeli 2 dla procesu ucinania (elementy Fit.trunc z kolumny Przypadek), wielkości uśrednione oraz są zbieżne z rozwiązaniem bazowym, nawet gdy proces ucinania danych dotyczy 60-70% obserwacji. Natomiast nie można tego powiedzieć w odniesieniu do poziomu zróżnicowania, tj. wielkości oraz, bowiem w tym przypadku widać postępujący wraz z procesem ucinania danych wzrost poziomu zmienności (czego w tak znacznym stopniu nie można zaobserwować w przypadku estymacji cenzurowanej). Podsumowanie W kwantyfikacji ryzyka operacyjnego proces cenzurowania stanowi znaczącą alternatywę dla obecnie używanych rozwiązań. Koszty, jakie mogą być związane z rejestrowaniem danych poniżej progu cenzurowania, będą znacznie mniejsze niż przy pełnym raportowaniu wielkości straty. Dane te mogą być rejestrowane poza właściwą bazą danych dotyczącą strat operacyjnych banku. Interesujące informacje związane z cenzurowanym zdarzeniem podawane mogą być zbiorczo w ustalonych podokresach, np. miesięcznie lub tygodniowo. Zważając na fakt, że proces kwantyfikacji ryzyka operacyjnego nie musi być wykonywany z dużą częstością, to dane dotyczące zdarzeń cenzurowanych mogą być uaktualniane cyklicznie. Proces cenzurowania danych może być także rozumiany jako kolejny krok w rozwoju metod kwantyfikacji ryzyka operacyjnego. Eliminowanie źródeł związanych z niepewnością i wyrażanie nieznanych procesów w kategoriach mierzalnych powinno być dostrzegane w kategoriach efektywności procesu kwantyfikacji i zarządzania ryzykiem, co powinno znaleźć odpowiednie pokrycie w badaniach i późniejszych rekomendacjach Komitetu Bazylejskiego.
10 28 Tomasz Szkutnik Aneks Tabela 2. Wyniki symulacji przy różnych wariantach estymacji* Przypadek Poziom cenzurowania lub ucinania obserwacji Fit.base xxx 4,00 1,50 0,01 0,02 Fit.naive 0 4,00 1,50 0,01 0,02 Fit.naive 0,1 4,29 1,26 0,01 0,02 Fit.naive 0,2 4,52 1,14 0,01 0,03 Fit.naive 0,3 4,75 1,05 0,01 0,03 Fit.naive 0,4 4,97 0,97 0,01 0,03 Fit.naive 0,5 5,20 0,90 0,01 0,04 Fit.naive 0,6 5,45 0,83 0,01 0,04 Fit.naive 0,7 5,74 0,77 0,01 0,05 Fit.naive 0,8 6,10 0,70 0,01 0,07 Fit.cens 0 4,00 1,50 0,01 0,02 Fit.cens 0,1 4,00 1,50 0,01 0,02 Fit.cens 0,2 4,00 1,50 0,01 0,03 Fit.cens 0,3 4,00 1,50 0,01 0,03 Fit.cens 0,4 4,00 1,50 0,01 0,03 Fit.cens 0,5 4,00 1,50 0,01 0,04 Fit.cens 0,6 4,00 1,50 0,02 0,04 Fit.cens 0,7 4,00 1,50 0,02 0,05 Fit.cens 0,8 4,00 1,50 0,03 0,06 Fit.trunc 0 4,00 1,50 0,01 0,02 Fit.trunc 0,1 4,00 1,50 0,02 0,04 Fit.trunc 0,2 3,99 1,50 0,03 0,05 Fit.trunc 0,3 3,99 1,50 0,04 0,06 Fit.trunc 0,4 3,98 1,50 0,06 0,07 Fit.trunc 0,5 3,98 1,50 0,08 0,09 Fit.trunc 0,6 3,97 1,50 0,12 0,11 Fit.trunc 0,7 3,91 1,51 0,20 0,16 Fit.trunc 0,8 3,47 1,57 0,82 0,30 * Fit.base wariant bazowy. Pełny zakres danych i estymacja pełnej dziedziny; Fit.naive estymacja naiwna. Ucięty zakres danych i estymacja pełnej dziedziny; Fit.trunc estymacja ucięta. Ucięty zakres danych i estymacja uciętej dziedziny danych; Fit.cens estymacja cenzurowana. Cenzurowany zakres danych i estymacja cenzorowana. Źródło: Obliczenia własne.
11 Analiza źródeł niepewności w modelowaniu 29 Literatura BIS (2010), Recognizing the Risk-Mitigating Impact of Insurance in Operational Risk Modelling, October 28, (dostęp: ). BIS (2011), Principles for the Sound Management of Operational Risk Final Document, June 30, (dostęp: ). BIS (2013), Principles for Effective Risk Data Aggregation and Risk Reporting, January 9, (dostęp: ). Chernobai A.S., Rachev S.T., Fabozzi F.J. (2007), Operational Risk: a Guide to Basel II Capital Requirements, Models and Analysis, John Wiley & Sons, Hoboken N.J. Ergashev B., Pavlikov K., Uryasev S., Sekeris E. (2015), Estimation of Truncated Data Samples in Operational Risk Modeling, Wiley, doi: /jori Klein J.P., Moeschberger M.L. (2003), Survival Analysis: Techniques for Censored and Truncated Data, Springer, New York. Klugman S.A., Panjer H.H., Willmot G.E. (2008), Loss Models: From Data to Decisions, Wiley, Hoboken N.J. Millard S.P. (2013), EnvStats, Springer, New York. Shevchenko P.V. (2011), Modelling Operational Risk Using Bayesian Inference, Springer Berlin Heidelberg, Berlin. Szkutnik T., Basiaga K. (2013), The Application of Generalized Pareto Distribution and Copula Functions in the Issue of Operational Risk, Econometrics, No. 39(1), s ANALYSIS OF SOURCES OF UNCERTAINTY IN MODELLING OPERATIONAL RISK Summary: The article focuses on the problem of identifying the sources of uncertainty in modelling operational risk based on the LDA method. Modelling operational risk in banking is based mostly on information collected above a certain threshold. Truncation of the observation as one of the specific types of censoring information in many practical cases is not taken into account when estimating the distribution parameters of the severity of operating losses in the LDA method. The article compared the different forms of censorship data together with the assessment of the degree of the impact of loss of information on the variability of the estimated parameters of the distribution and size of the risk. The proposed estimation method is not widely used in banking practice. This solution allows to improve the quality of the estimation without full reporting losses of the bank. In addition, censoring of information is a valuable source of information not only in the severity of losses, but also provides additional information in modelling frequency process of losses. Using the simulation is shown the impact of different ways of collecting information on the quality of the estimates of the distribution of severity of losses. Keywords: operational risk, LDA, censoring information, truncation of the information.
WPŁYW LEWOSTRONNEGO CENZUROWANIA DOTKLIWOŚCI STRAT PRZY SZACOWANIU RYZYKA OPERACYJNEGO NA PRZYKŁADZIE ROZKŁADU BURRA TYPU III
Studia Ekonomiczne. Zeszyty Naukowe Uniwersytetu Ekonomicznego w Katowicach ISSN 2083-8611 Nr 291 2016 Uniwersytet Ekonomiczny w Katowicach Wydział Zarządzania Katedra Ekonometrii tomasz.szkutnik@ue.katowice.pl
Cenzurowanie danych w bankowości
Cenzurowanie danych w bankowości Ryzyko operacyjne Tomasz Szkutnik Uniwersytet Ekonomiczny w Katowicach Katedra Statystyki, Ekonometrii i Matematyki 2017 Cenzurowanie danych w bankowości Plan wystąpienia
ZASTOSOWANIE ROZKŁADÓW UCIĘTYCH I CENZUROWANYCH W KWANTYFIKACJI RYZYKA OPERACYJNEGO. BADANIA SYMULACYJNE
Studia Ekonomiczne. Zeszyty Naukowe Uniwersytetu Ekonomicznego w Katowicach ISSN 2083-8611 Nr 264 2016 Uniwersytet Ekonomiczny w Katowicach Wydział Zarządzania Katedra Ekonometrii tomasz.szkutnik@ue.katowice.pl
Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji
Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Inteligencji i Metod Matematycznych Wydział Informatyki Politechniki
Kolokwium ze statystyki matematycznej
Kolokwium ze statystyki matematycznej 28.05.2011 Zadanie 1 Niech X będzie zmienną losową z rozkładu o gęstości dla, gdzie 0 jest nieznanym parametrem. Na podstawie pojedynczej obserwacji weryfikujemy hipotezę
Statystyka. Rozkład prawdopodobieństwa Testowanie hipotez. Wykład III ( )
Statystyka Rozkład prawdopodobieństwa Testowanie hipotez Wykład III (04.01.2016) Rozkład t-studenta Rozkład T jest rozkładem pomocniczym we wnioskowaniu statystycznym; stosuje się go wyznaczenia przedziału
Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory
Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory Dr Anna ADRIAN Paw B5, pok 407 adrian@tempus.metal.agh.edu.pl
PRZYKŁAD ZASTOSOWANIA DOKŁADNEGO NIEPARAMETRYCZNEGO PRZEDZIAŁU UFNOŚCI DLA VaR. Wojciech Zieliński
PRZYKŁAD ZASTOSOWANIA DOKŁADNEGO NIEPARAMETRYCZNEGO PRZEDZIAŁU UFNOŚCI DLA VaR Wojciech Zieliński Katedra Ekonometrii i Statystyki SGGW Nowoursynowska 159, PL-02-767 Warszawa wojtek.zielinski@statystyka.info
Estymacja punktowa i przedziałowa
Temat: Estymacja punktowa i przedziałowa Kody znaków: żółte wyróżnienie nowe pojęcie czerwony uwaga kursywa komentarz 1 Zagadnienia 1. Statystyczny opis próby. Idea estymacji punktowej pojęcie estymatora
166 Wstęp do statystyki matematycznej
166 Wstęp do statystyki matematycznej Etap trzeci realizacji procesu analizy danych statystycznych w zasadzie powinien rozwiązać nasz zasadniczy problem związany z identyfikacją cechy populacji generalnej
WYZNACZANIE NIEPEWNOŚCI POMIARU METODAMI SYMULACYJNYMI
WYZNACZANIE NIEPEWNOŚCI POMIARU METODAMI SYMULACYJNYMI Stefan WÓJTOWICZ, Katarzyna BIERNAT ZAKŁAD METROLOGII I BADAŃ NIENISZCZĄCYCH INSTYTUT ELEKTROTECHNIKI ul. Pożaryskiego 8, 04-703 Warszawa tel. (0)
Statystyka matematyczna dla leśników
Statystyka matematyczna dla leśników Wydział Leśny Kierunek leśnictwo Studia Stacjonarne I Stopnia Rok akademicki 03/04 Wykład 5 Testy statystyczne Ogólne zasady testowania hipotez statystycznych, rodzaje
Metody oceny ryzyka operacyjnego
Instytut Matematyki i Informatyki Wrocław, 10 VII 2009 Bazylejski Komitet Nadzoru Bankowego Umowa Kapitałowa - 1988 Opracowanie najlepszych praktyk rynkowych w zakresie zarządzania ryzykiem Nowa Umowa
Szczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć)
Szczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć) 1. Populacja generalna a losowa próba, parametr rozkładu cechy a jego ocena z losowej próby, miary opisu statystycznego
OBLICZENIE PRZEPŁYWÓW MAKSYMALNYCH ROCZNYCH O OKREŚLONYM PRAWDOPODOBIEŃSTWIE PRZEWYŻSZENIA. z wykorzystaniem programu obliczeniowego Q maxp
tel.: +48 662 635 712 Liczba stron: 15 Data: 20.07.2010r OBLICZENIE PRZEPŁYWÓW MAKSYMALNYCH ROCZNYCH O OKREŚLONYM PRAWDOPODOBIEŃSTWIE PRZEWYŻSZENIA z wykorzystaniem programu obliczeniowego Q maxp DŁUGIE
Matematyka z el. statystyki, # 6 /Geodezja i kartografia II/
Matematyka z el. statystyki, # 6 /Geodezja i kartografia II/ Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Głęboka 28, bud. CIW, p. 221 e-mail: zdzislaw.otachel@up.lublin.pl
Rozkład prędkości statków na torze wodnym Szczecin - Świnoujście
KASYK Lech 1 Rozkład prędkości statków na torze wodnym Szczecin - Świnoujście Tor wodny, strumień ruchu, Zmienna losowa, Rozkłady dwunormalne Streszczenie W niniejszym artykule przeanalizowano prędkości
Idea. θ = θ 0, Hipoteza statystyczna Obszary krytyczne Błąd pierwszego i drugiego rodzaju p-wartość
Idea Niech θ oznacza parametr modelu statystycznego. Dotychczasowe rozważania dotyczyły metod estymacji tego parametru. Teraz zamiast szacować nieznaną wartość parametru będziemy weryfikowali hipotezę
Weryfikacja hipotez statystycznych
Weryfikacja hipotez statystycznych Hipoteza Test statystyczny Poziom istotności Testy jednostronne i dwustronne Testowanie równości wariancji test F-Fishera Testowanie równości wartości średnich test t-studenta
Analiza przeżycia. Czym zajmuje się analiza przeżycia?
ANALIZA PRZEŻYCIA Analiza przeżycia Czym zajmuje się analiza przeżycia? http://www.analyticsvidhya.com/blog/2014/04/survival-analysis-model-you/ Analiza przeżycia Jest to inaczej analiza czasu trwania
STATYSTYKA MATEMATYCZNA WYKŁAD 4. Testowanie hipotez Estymacja parametrów
STATYSTYKA MATEMATYCZNA WYKŁAD 4 Testowanie hipotez Estymacja parametrów WSTĘP 1. Testowanie hipotez Błędy związane z testowaniem hipotez Etapy testowana hipotez Testowanie wielokrotne 2. Estymacja parametrów
Statystyki: miary opisujące rozkład! np. : średnia, frakcja (procent), odchylenie standardowe, wariancja, mediana itd.
Wnioskowanie statystyczne obejmujące metody pozwalające na uogólnianie wyników z próby na nieznane wartości parametrów oraz szacowanie błędów tego uogólnienia. Przewidujemy nieznaną wartości parametru
LABORATORIUM 8 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI
LABORATORIUM 8 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI WERYFIKACJA HIPOTEZ Hipoteza statystyczna jakiekolwiek przypuszczenie dotyczące populacji generalnej- jej poszczególnych
W kolejnym kroku należy ustalić liczbę przedziałów k. W tym celu należy wykorzystać jeden ze wzorów:
Na dzisiejszym wykładzie omówimy najważniejsze charakterystyki liczbowe występujące w statystyce opisowej. Poszczególne wzory będziemy podawać w miarę potrzeby w trzech postaciach: dla szeregu szczegółowego,
Robert M.Korona. Dr Robert M. Korona 1
Robert M.Korona Dr Robert M. Korona 1 Agenda Co to jest KRI? Wartość krytyczna i progowa Opis wyzwania Wyznaczenie wartości KRI za pomocą modelu logistycznego Wyznaczenie KRI za pomocą szeregu czasowego
7. Estymacja parametrów w modelu normalnym(14.04.2008) Pojęcie losowej próby prostej
7. Estymacja parametrów w modelu normalnym(14.04.2008) Pojęcie losowej próby prostej Definicja 1 n-elementowa losowa próba prosta nazywamy ciag n niezależnych zmiennych losowych o jednakowych rozkładach
Testowanie hipotez statystycznych.
Bioinformatyka Wykład 9 Wrocław, 5 grudnia 2011 Temat. Test zgodności χ 2 Pearsona. Statystyka χ 2 Pearsona Rozpatrzmy ciąg niezależnych zmiennych losowych X 1,..., X n o jednakowym dyskretnym rozkładzie
VI WYKŁAD STATYSTYKA. 9/04/2014 B8 sala 0.10B Godz. 15:15
VI WYKŁAD STATYSTYKA 9/04/2014 B8 sala 0.10B Godz. 15:15 WYKŁAD 6 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI Weryfikacja hipotez ( błędy I i II rodzaju, poziom istotności, zasady
Prawdopodobieństwo i rozkład normalny cd.
# # Prawdopodobieństwo i rozkład normalny cd. Michał Daszykowski, Ivana Stanimirova Instytut Chemii Uniwersytet Śląski w Katowicach Ul. Szkolna 9 40-006 Katowice E-mail: www: mdaszyk@us.edu.pl istanimi@us.edu.pl
Statystyki: miary opisujące rozkład! np. : średnia, frakcja (procent), odchylenie standardowe, wariancja, mediana itd.
Wnioskowanie statystyczne obejmujące metody pozwalające na uogólnianie wyników z próby na nieznane wartości parametrów oraz szacowanie błędów tego uogólnienia. Przewidujemy nieznaną wartości parametru
Wykład 9 Wnioskowanie o średnich
Wykład 9 Wnioskowanie o średnich Rozkład t (Studenta) Wnioskowanie dla jednej populacji: Test i przedziały ufności dla jednej próby Test i przedziały ufności dla par Porównanie dwóch populacji: Test i
Generowanie ciągów pseudolosowych o zadanych rozkładach przykładowy raport
Generowanie ciągów pseudolosowych o zadanych rozkładach przykładowy raport Michał Krzemiński Streszczenie Projekt dotyczy metod generowania oraz badania własności statystycznych ciągów liczb pseudolosowych.
Statystyka matematyczna i ekonometria
Statystyka matematyczna i ekonometria Wykład 5 dr inż. Anna Skowrońska-Szmer zima 2017/2018 Hipotezy 2 Hipoteza zerowa (H 0 )- hipoteza o wartości jednego (lub wielu) parametru populacji. Traktujemy ją
Wykład 10 (12.05.08). Testowanie hipotez w rodzinie rozkładów normalnych przypadek nieznanego odchylenia standardowego
Wykład 10 (12.05.08). Testowanie hipotez w rodzinie rozkładów normalnych przypadek nieznanego odchylenia standardowego Przykład Cena metra kwadratowego (w tys. zł) z dla 14 losowo wybranych mieszkań w
ODRZUCANIE WYNIKÓW POJEDYNCZYCH POMIARÓW
ODRZUCANIE WYNIKÓW OJEDYNCZYCH OMIARÓW W praktyce pomiarowej zdarzają się sytuacje gdy jeden z pomiarów odstaje od pozostałych. Jeżeli wykorzystamy fakt, że wyniki pomiarów są zmienną losową opisywaną
Estymacja parametrów w modelu normalnym
Estymacja parametrów w modelu normalnym dr Mariusz Grządziel 6 kwietnia 2009 Model normalny Przez model normalny będziemy rozumieć rodzine rozkładów normalnych N(µ, σ), µ R, σ > 0. Z Centralnego Twierdzenia
Szczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć)
Szczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć) 1. Populacja generalna a losowa próba, parametr rozkładu cechy a jego ocena z losowej próby, miary opisu statystycznego
Zad. 4 Należy określić rodzaj testu (jedno czy dwustronny) oraz wartości krytyczne z lub t dla określonych hipotez i ich poziomów istotności:
Zadania ze statystyki cz. 7. Zad.1 Z populacji wyłoniono próbę wielkości 64 jednostek. Średnia arytmetyczna wartość cechy wyniosła 110, zaś odchylenie standardowe 16. Należy wyznaczyć przedział ufności
Statystyka matematyczna i ekonometria
Statystyka matematyczna i ekonometria Wykład 5 Anna Skowrońska-Szmer lato 2016/2017 Hipotezy 2 Hipoteza zerowa (H 0 )- hipoteza o wartości jednego (lub wielu) parametru populacji. Traktujemy ją jako prawdziwą
Statystyka matematyczna Testowanie hipotez i estymacja parametrów. Wrocław, r
Statystyka matematyczna Testowanie hipotez i estymacja parametrów Wrocław, 18.03.2016r Plan wykładu: 1. Testowanie hipotez 2. Etapy testowania hipotez 3. Błędy 4. Testowanie wielokrotne 5. Estymacja parametrów
Testowanie hipotez statystycznych. Wnioskowanie statystyczne
Testowanie hipotez statystycznych Wnioskowanie statystyczne Hipoteza statystyczna to dowolne przypuszczenie co do rozkładu populacji generalnej (jego postaci funkcyjnej lub wartości parametrów). Hipotezy
Statystyka matematyczna. Wykład IV. Weryfikacja hipotez statystycznych
Statystyka matematyczna. Wykład IV. e-mail:e.kozlovski@pollub.pl Spis treści 1 2 3 Definicja 1 Hipoteza statystyczna jest to przypuszczenie dotyczące rozkładu (wielkości parametru lub rodzaju) zmiennej
... i statystyka testowa przyjmuje wartość..., zatem ODRZUCAMY /NIE MA POD- STAW DO ODRZUCENIA HIPOTEZY H 0 (właściwe podkreślić).
Egzamin ze Statystyki Matematycznej, WNE UW, wrzesień 016, zestaw B Odpowiedzi i szkice rozwiązań 1. Zbadano koszt 7 noclegów dla 4-osobowej rodziny (kwatery) nad morzem w sezonie letnim 014 i 015. Wylosowano
ALGORYTMICZNA I STATYSTYCZNA ANALIZA DANYCH
1 ALGORYTMICZNA I STATYSTYCZNA ANALIZA DANYCH WFAiS UJ, Informatyka Stosowana II stopień studiów 2 Wnioskowanie statystyczne dla zmiennych numerycznych Porównywanie dwóch średnich Boot-strapping Analiza
Porównanie generatorów liczb losowych wykorzystywanych w arkuszach kalkulacyjnych
dr Piotr Sulewski POMORSKA AKADEMIA PEDAGOGICZNA W SŁUPSKU KATEDRA INFORMATYKI I STATYSTYKI Porównanie generatorów liczb losowych wykorzystywanych w arkuszach kalkulacyjnych Wprowadzenie Obecnie bardzo
Zawartość. Zawartość
Opr. dr inż. Grzegorz Biesok. Wer. 2.05 2011 Zawartość Zawartość 1. Rozkład normalny... 3 2. Rozkład normalny standardowy... 5 3. Obliczanie prawdopodobieństw dla zmiennych o rozkładzie norm. z parametrami
Biznes plan innowacyjnego przedsięwzięcia
Biznes plan innowacyjnego przedsięwzięcia 1 Co to jest biznesplan? Biznes plan można zdefiniować jako długofalowy i kompleksowy plan działalności organizacji gospodarczej lub realizacji przedsięwzięcia
2. Założenie niezależności zakłóceń modelu - autokorelacja składnika losowego - test Durbina - Watsona
Sprawdzanie założeń przyjętych o modelu (etap IIIC przyjętego schematu modelowania regresyjnego) 1. Szum 2. Założenie niezależności zakłóceń modelu - autokorelacja składnika losowego - test Durbina - Watsona
KOMPUTEROWA SYMULACJA PROCESÓW ZWIĄZANYCH Z RYZYKIEM PRZY WYKORZYSTANIU ŚRODOWISKA ADONIS
KOMPUTEROWA SYMULACJA PROCESÓW ZWIĄZANYCH Z RYZYKIEM PRZY WYKORZYSTANIU ŚRODOWISKA ADONIS Bogdan RUSZCZAK Streszczenie: Artykuł przedstawia metodę komputerowej symulacji czynników ryzyka dla projektu inwestycyjnego
Statystyka opisowa. Literatura STATYSTYKA OPISOWA. Wprowadzenie. Wprowadzenie. Wprowadzenie. Plan. Tomasz Łukaszewski
Literatura STATYSTYKA OPISOWA A. Aczel, Statystyka w Zarządzaniu, PWN, 2000 A. Obecny, Statystyka opisowa w Excelu dla szkół. Ćwiczenia praktyczne, Helion, 2002. A. Obecny, Statystyka matematyczna w Excelu
Walidacja metod wykrywania, identyfikacji i ilościowego oznaczania GMO. Magdalena Żurawska-Zajfert Laboratorium Kontroli GMO IHAR-PIB
Walidacja metod wykrywania, identyfikacji i ilościowego oznaczania GMO Magdalena Żurawska-Zajfert Laboratorium Kontroli GMO IHAR-PIB Walidacja Walidacja jest potwierdzeniem przez zbadanie i przedstawienie
SIGMA KWADRAT. Weryfikacja hipotez statystycznych. Statystyka i demografia CZWARTY LUBELSKI KONKURS STATYSTYCZNO-DEMOGRAFICZNY
SIGMA KWADRAT CZWARTY LUBELSKI KONKURS STATYSTYCZNO-DEMOGRAFICZNY Weryfikacja hipotez statystycznych Statystyka i demografia PROJEKT DOFINANSOWANY ZE ŚRODKÓW NARODOWEGO BANKU POLSKIEGO URZĄD STATYSTYCZNY
Etapy modelowania ekonometrycznego
Etapy modelowania ekonometrycznego jest podstawowym narzędziem badawczym, jakim posługuje się ekonometria. Stanowi on matematyczno-statystyczną formę zapisu prawidłowości statystycznej w zakresie rozkładu,
WYKŁAD 5 TEORIA ESTYMACJI II
WYKŁAD 5 TEORIA ESTYMACJI II Teoria estymacji (wyznaczanie przedziałów ufności, błąd badania statystycznego, poziom ufności, minimalna liczba pomiarów). PRÓBA Próba powinna być reprezentacyjna tj. jak
Testowanie hipotez statystycznych.
Statystyka Wykład 10 Wrocław, 22 grudnia 2011 Testowanie hipotez statystycznych Definicja. Hipotezą statystyczną nazywamy stwierdzenie dotyczące parametrów populacji. Definicja. Dwie komplementarne w problemie
Identyfikacja i pomiar ryzyka pierwszy krok w zarządzaniu ryzykiem.
Identyfikacja i pomiar ryzyka pierwszy krok w zarządzaniu ryzykiem. Andrzej Podszywałow Własność przemysłowa w innowacyjnej gospodarce. Zarządzanie ryzykiem, strategia zarządzania własnością intelektualną
Wnioskowanie bayesowskie
Wnioskowanie bayesowskie W podejściu klasycznym wnioskowanie statystyczne oparte jest wyłącznie na podstawie pobranej próby losowej. Możemy np. estymować punktowo lub przedziałowo nieznane parametry rozkładów,
LABORATORIUM 8 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI
LABORATORIUM 8 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI WERYFIKACJA HIPOTEZ Hipoteza statystyczna jakiekolwiek przypuszczenie dotyczące populacji generalnej- jej poszczególnych
METODY STATYSTYCZNE W BIOLOGII
METODY STATYSTYCZNE W BIOLOGII 1. Wykład wstępny 2. Populacje i próby danych 3. Testowanie hipotez i estymacja parametrów 4. Planowanie eksperymentów biologicznych 5. Najczęściej wykorzystywane testy statystyczne
5. WNIOSKOWANIE PSYCHOMETRYCZNE
5. WNIOSKOWANIE PSYCHOMETRYCZNE Model klasyczny Gulliksena Wynik otrzymany i prawdziwy Błąd pomiaru Rzetelność pomiaru testem Standardowy błąd pomiaru Błąd estymacji wyniku prawdziwego Teoria Odpowiadania
Odchudzamy serię danych, czyli jak wykryć i usunąć wyniki obarczone błędami grubymi
Odchudzamy serię danych, czyli jak wykryć i usunąć wyniki obarczone błędami grubymi Piotr Konieczka Katedra Chemii Analitycznej Wydział Chemiczny Politechnika Gdańska D syst D śr m 1 3 5 2 4 6 śr j D 1
Elementy statystyki opisowej, podstawowe pojęcia statystyki matematycznej
Elementy statystyki opisowej, podstawowe pojęcia statystyki matematycznej Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Inteligencji i Metod Matematycznych Wydział Informatyki Politechniki
WSTĘP DO REGRESJI LOGISTYCZNEJ. Dr Wioleta Drobik-Czwarno
WSTĘP DO REGRESJI LOGISTYCZNEJ Dr Wioleta Drobik-Czwarno REGRESJA LOGISTYCZNA Zmienna zależna jest zmienną dychotomiczną (dwustanową) przyjmuje dwie wartości, najczęściej 0 i 1 Zmienną zależną może być:
Wnioskowanie statystyczne i weryfikacja hipotez statystycznych
Wnioskowanie statystyczne i weryfikacja hipotez statystycznych Wnioskowanie statystyczne Wnioskowanie statystyczne obejmuje następujące czynności: Sformułowanie hipotezy zerowej i hipotezy alternatywnej.
MIARY KLASYCZNE Miary opisujące rozkład badanej cechy w zbiorowości, które obliczamy na podstawie wszystkich zaobserwowanych wartości cechy
MIARY POŁOŻENIA Opisują średni lub typowy poziom wartości cechy. Określają tą wartość cechy, wokół której skupiają się wszystkie pozostałe wartości badanej cechy. Wśród nich można wyróżnić miary tendencji
Prognozowanie i Symulacje. Wykład I. Matematyczne metody prognozowania
Prognozowanie i Symulacje. Wykład I. e-mail:e.kozlovski@pollub.pl Spis treści Szeregi czasowe 1 Szeregi czasowe 2 3 Szeregi czasowe Definicja 1 Szereg czasowy jest to proces stochastyczny z czasem dyskretnym
Rozdział 8. Regresja. Definiowanie modelu
Rozdział 8 Regresja Definiowanie modelu Analizę korelacji można traktować jako wstęp do analizy regresji. Jeżeli wykresy rozrzutu oraz wartości współczynników korelacji wskazują na istniejąca współzmienność
Ryzyko operacyjne metoda zaawansowana. Wyzwania
Ryzyko operacyjne metoda zaawansowana. Wyzwania dr Paweł Matkowski LUKAS BANK SA 1 Ryzyko operacyjne: up-date Dokumenty regulacyjne status: Dyrektywy europejskie: 2006/48/WE, 2006/49/WE Projekty uchwał
Właściwości testu Jarque-Bera gdy w danych występuje obserwacja nietypowa.
Właściwości testu Jarque-Bera gdy w danych występuje obserwacja nietypowa. Paweł Strawiński Uniwersytet Warszawski Wydział Nauk Ekonomicznych 16 stycznia 2006 Streszczenie W artykule analizowane są właściwości
Wnioskowanie statystyczne. Statystyka w 5
Wnioskowanie statystyczne tatystyka w 5 Rozkłady statystyk z próby Próba losowa pobrana z populacji stanowi realizacje zmiennej losowej jak ciąg zmiennych losowych (X, X,... X ) niezależnych i mających
Weryfikacja hipotez statystycznych testy t Studenta
Weryfikacja hipotez statystycznych testy t Studenta JERZY STEFANOWSKI Marek Kubiak Instytut Informatyki Politechnika Poznańska Standardowy schemat postępowania (znane σ) Założenia: X ma rozkład normalny
Rozkład Gaussa i test χ2
Rozkład Gaussa jest scharakteryzowany dwoma parametramiwartością oczekiwaną rozkładu μ oraz dyspersją σ: METODA 2 (dokładna) polega na zmianie zmiennych i na obliczeniu pk jako różnicy całek ze standaryzowanego
WIELOKRYTERIALNE PORZĄDKOWANIE METODĄ PROMETHEE ODPORNE NA ZMIANY WAG KRYTERIÓW
Uniwersytet Ekonomiczny we Wrocławiu WIELOKRYTERIALNE PORZĄDKOWANIE METODĄ PROMETHEE ODPORNE NA ZMIANY WAG KRYTERIÓW Wprowadzenie Wrażliwość wyników analizy wielokryterialnej na zmiany wag kryteriów, przy
Analiza przeżycia. Wprowadzenie
Wprowadzenie Przedmiotem badania analizy przeżycia jest czas jaki upływa od początku obserwacji do wystąpienia określonego zdarzenia, które jednoznacznie kończy obserwację na danej jednostce. Analiza przeżycia
STATYSTYKA MATEMATYCZNA WYKŁAD stycznia 2010
STATYSTYKA MATEMATYCZNA WYKŁAD 14 18 stycznia 2010 Model statystyczny ROZKŁAD DWUMIANOWY ( ) {0, 1,, n}, {P θ, θ (0, 1)}, n ustalone P θ {K = k} = ( ) n θ k (1 θ) n k, k k = 0, 1,, n Geneza: Rozkład Bernoulliego
FORECASTING THE DISTRIBUTION OF AMOUNT OF UNEMPLOYED BY THE REGIONS
FOLIA UNIVERSITATIS AGRICULTURAE STETINENSIS Folia Univ. Agric. Stetin. 007, Oeconomica 54 (47), 73 80 Mateusz GOC PROGNOZOWANIE ROZKŁADÓW LICZBY BEZROBOTNYCH WEDŁUG MIAST I POWIATÓW FORECASTING THE DISTRIBUTION
Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar... 1. Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16
Spis treści Przedmowa.......................... XI Rozdział 1. Pomiar: jednostki miar................. 1 1.1. Wielkości fizyczne i pozafizyczne.................. 1 1.2. Spójne układy miar. Układ SI i jego
ANALIZA SYSTEMU POMIAROWEGO (MSA)
StatSoft Polska, tel. 1 484300, 601 414151, info@statsoft.pl, www.statsoft.pl ANALIZA SYSTEMU POMIAROWEGO (MSA) dr inż. Tomasz Greber, Politechnika Wrocławska, Instytut Organizacji i Zarządzania Wprowadzenie
Analiza przeżycia. Czym zajmuje się analiza przeżycia? Jest to analiza czasu trwania, zaprojektowana do analizy tzw.
ANALIZA PRZEŻYCIA Analiza przeżycia Czym zajmuje się analiza przeżycia? Jest to analiza czasu trwania, zaprojektowana do analizy tzw. danych uciętych Obserwacja jest nazywana uciętą jeżeli zdarzenie jeszcze
Spis treści 3 SPIS TREŚCI
Spis treści 3 SPIS TREŚCI PRZEDMOWA... 1. WNIOSKOWANIE STATYSTYCZNE JAKO DYSCYPLINA MATEMATYCZNA... Metody statystyczne w analizie i prognozowaniu zjawisk ekonomicznych... Badania statystyczne podstawowe
Mikroekonometria 5. Mikołaj Czajkowski Wiktor Budziński
Mikroekonometria 5 Mikołaj Czajkowski Wiktor Budziński Zadanie 1. Wykorzystując dane me.medexp3.dta przygotuj model regresji kwantylowej 1. Przygotuj model regresji kwantylowej w którym logarytm wydatków
Summary in Polish. Fatimah Mohammed Furaiji. Application of Multi-Agent Based Simulation in Consumer Behaviour Modeling
Summary in Polish Fatimah Mohammed Furaiji Application of Multi-Agent Based Simulation in Consumer Behaviour Modeling Zastosowanie symulacji wieloagentowej w modelowaniu zachowania konsumentów Streszczenie
Wydział Inżynierii Produkcji. I Logistyki. Statystyka opisowa. Wykład 3. Dr inż. Adam Deptuła
12.03.2017 Wydział Inżynierii Produkcji I Logistyki Statystyka opisowa Wykład 3 Dr inż. Adam Deptuła METODY OPISU DANYCH ILOŚCIOWYCH SKALARNYCH Wykresy: diagramy, histogramy, łamane częstości, wykresy
W4 Eksperyment niezawodnościowy
W4 Eksperyment niezawodnościowy Henryk Maciejewski Jacek Jarnicki Jarosław Sugier www.zsk.iiar.pwr.edu.pl Badania niezawodnościowe i analiza statystyczna wyników 1. Co to są badania niezawodnościowe i
7. Identyfikacja defektów badanego obiektu
7. Identyfikacja defektów badanego obiektu Pierwszym krokiem na drodze do identyfikacji defektów było przygotowanie tzw. odcisku palca poszczególnych defektów. W tym celu został napisany program Gaussian
Statystyka. #5 Testowanie hipotez statystycznych. Aneta Dzik-Walczak Małgorzata Kalbarczyk-Stęclik. rok akademicki 2016/ / 28
Statystyka #5 Testowanie hipotez statystycznych Aneta Dzik-Walczak Małgorzata Kalbarczyk-Stęclik rok akademicki 2016/2017 1 / 28 Testowanie hipotez statystycznych 2 / 28 Testowanie hipotez statystycznych
Streszczenie: Zasady projektowania konstrukcji budowlanych z uwzględnieniem aspektów ich niezawodności wg Eurokodu PN-EN 1990
Streszczenie: W artykule omówiono praktyczne podstawy projektowania konstrukcji budowlanych wedłu Eurokodu PN-EN 1990. Podano metody i procedury probabilistyczne analizy niezawodności konstrukcji. Podano
2. Empiryczna wersja klasyfikatora bayesowskiego
Algorytmy rozpoznawania obrazów 2. Empiryczna wersja klasyfikatora bayesowskiego dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Brak pełnej informacji probabilistycznej Klasyfikator bayesowski
ANALIZA WRAŻLIWOŚCI CENY OPCJI O UWARUNKOWANEJ PREMII
STUDIA I PRACE WYDZIAŁU NAUK EKONOMICZNYCH I ZARZĄDZANIA NR 31 Ewa Dziawgo Uniwersytet Mikołaja Kopernika w Toruniu ANALIZA WRAŻLIWOŚCI CENY OPCJI O UWARUNKOWANEJ PREMII Streszczenie W artykule przedstawiono
Matematyka ubezpieczeń majątkowych r.
Matematyka ubezpieczeń majątkowych 3..007 r. Zadanie. Każde z ryzyk pochodzących z pewnej populacji charakteryzuje się tym że przy danej wartości λ parametru ryzyka Λ rozkład wartości szkód z tego ryzyka
Szacowanie optymalnego systemu Bonus-Malus przy pomocy Pseudo-MLE. Joanna Sawicka
Szacowanie optymalnego systemu Bonus-Malus przy pomocy Pseudo-MLE Joanna Sawicka Plan prezentacji Model Poissona-Gamma ze składnikiem regresyjnym Konstrukcja optymalnego systemu Bonus- Malus Estymacja
BADANIA ZRÓŻNICOWANIA RYZYKA WYPADKÓW PRZY PRACY NA PRZYKŁADZIE ANALIZY STATYSTYKI WYPADKÓW DLA BRANŻY GÓRNICTWA I POLSKI
14 BADANIA ZRÓŻNICOWANIA RYZYKA WYPADKÓW PRZY PRACY NA PRZYKŁADZIE ANALIZY STATYSTYKI WYPADKÓW DLA BRANŻY GÓRNICTWA I POLSKI 14.1 WSTĘP Ogólne wymagania prawne dotyczące przy pracy określają m.in. przepisy
Matematyka ubezpieczeń majątkowych r.
Matematyka ubezpieczeń majątkowych 0.0.005 r. Zadanie. Likwidacja szkody zaistniałej w roku t następuje: w tym samym roku z prawdopodobieństwem 0 3, w następnym roku z prawdopodobieństwem 0 3, 8 w roku
WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 7 i 8 - Efektywność estymatorów, przedziały ufności
WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 7 i 8 - Efektywność estymatorów, przedziały ufności Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 7 i 8 1 / 9 EFEKTYWNOŚĆ ESTYMATORÓW, próba
Korzystanie z podstawowych rozkładów prawdopodobieństwa (tablice i arkusze kalkulacyjne)
Korzystanie z podstawowych rozkładów prawdopodobieństwa (tablice i arkusze kalkulacyjne) Przygotował: Dr inż. Wojciech Artichowicz Katedra Hydrotechniki PG Zima 2014/15 1 TABLICE ROZKŁADÓW... 3 ROZKŁAD
1 Podstawy rachunku prawdopodobieństwa
1 Podstawy rachunku prawdopodobieństwa Dystrybuantą zmiennej losowej X nazywamy prawdopodobieństwo przyjęcia przez zmienną losową X wartości mniejszej od x, tzn. F (x) = P [X < x]. 1. dla zmiennej losowej
Inteligentna analiza danych
Numer indeksu 150946 Michał Moroz Imię i nazwisko Numer indeksu 150875 Grzegorz Graczyk Imię i nazwisko kierunek: Informatyka rok akademicki: 2010/2011 Inteligentna analiza danych Ćwiczenie I Wskaźniki
Spacery losowe generowanie realizacji procesu losowego
Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z
Metody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium JAVA Zadanie nr 2 Rozpoznawanie liter autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z problemem klasyfikacji