DLACZEGO GORSZA METODA JEST CZASEM LEPSZA, CZYLI REGRESJA LOGISTYCZNA W WYKRYWANIU WYŁUDZEŃ ODSZKODOWAŃ



Podobne dokumenty
PRZEWIDYWANIE WYŁUDZEŃ W SZKODACH KOMUNIKACYJNYCH ZA POMOCĄ MODELI PREDYKCYJNYCH W TUIR WARTA

BUDOWA MODELU SCORINGOWEGO DO E-POŻYCZKI Z WYKORZYSTANIEM NARZĘDZI STATISTICA

PRAKTYCZNY SKORING - NIE TYLKO KREDYTOWY

Wprowadzenie do analizy korelacji i regresji

SKORING JAKO NARZĘDZIE WSPIERAJĄCE SPÓŁDZIELCZE KASY OSZCZĘDNOŚCIOWO-KREDYTOWE W SPEŁNIENIU NOWYCH WYMAGAŃ NADZORCZYCH

Metody scoringowe w regresji logistycznej

WYKORZYSTANIE SKORINGU DO PRZEWIDYWANIA WYŁUDZEŃ KREDYTÓW W INVEST-BANKU

Scoring kredytowy w pigułce

WYKORZYSTANIE SKORINGU MARKETINGOWEGO DO OPTYMALIZACJI KAMPANII SPRZEDAŻOWYCH

ALGORYTM RANDOM FOREST

Analiza składowych głównych. Wprowadzenie

Zastosowanie modelu regresji logistycznej w ocenie ryzyka ubezpieczeniowego. Łukasz Kończyk WMS AGH

Regresja wieloraka Ogólny problem obliczeniowy: dopasowanie linii prostej do zbioru punktów. Najprostszy przypadek - jedna zmienna zależna i jedna

Analiza danych. TEMATYKA PRZEDMIOTU

STATISTICA DATA MINER I STATISTICA ENTERPRISE SPOSÓB NA SZYBKĄ BUDOWĘ I WDRAŻANIE MODELI

Statystyka i Analiza Danych

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

Zintegrowana Platforma Identyfikacji i Weryfikacji Zjawisk Przestępczości Ubezpieczeniowej: Funkcjonalności i korzyści dla Zakładów Ubezpieczeń

Regresja linearyzowalna

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Informacje i materiały dotyczące wykładu będą publikowane na stronie internetowej wykładowcy, m.in. prezentacje z wykładów

STATYSTYKA I DOŚWIADCZALNICTWO Wykład 8

INDUKOWANE REGUŁY DECYZYJNE ALORYTM APRIORI JAROSŁAW FIBICH

Zadanie 1. Zmienne losowe X 1, X 2 są niezależne i mają taki sam rozkład z atomami:

Projekt zarządzania jakością wykorzystujący STATISTICA Data Miner przynosi w voestalpine roczne oszczędności w wysokości EUR

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16

PRZYKŁAD WYKORZYSTANIA MODELI SKORINGOWYCH W MEDYCYNIE

Następnie przypominamy (dla części studentów wprowadzamy) podstawowe pojęcia opisujące funkcje na poziomie rysunków i objaśnień.

Szkolenie Regresja liniowa

MODELE LINIOWE. Dr Wioleta Drobik

PODSTAWOWE ANALIZY I WIZUALIZACJA Z WYKORZYSTANIEM MAP W STATISTICA

Analiza współzależności dwóch cech I

Stanisław Cichocki. Natalia Neherebecka. Zajęcia 15-17

Regresja logistyczna (LOGISTIC)

13. Równania różniczkowe - portrety fazowe

Analiza regresji - weryfikacja założeń

WYKORZYSTANIE MODELI SKORINGOWYCH I REGUŁ DO OPTYMALIZACJI PROCESÓW BIZNESOWYCH

Opis zakładanych efektów kształcenia na studiach podyplomowych WIEDZA

Aproksymacja funkcji a regresja symboliczna

Parametr Λ w populacji ubezpieczonych ma rozkład dany na półosi dodatniej gęstością: 3 f

Zintegrowana Platforma Identyfikacji i Weryfikacji Zjawisk Przestępczości Ubezpieczeniowej: Funkcjonalności i korzyści dla Zakładów Ubezpieczeń

Stanisław Cichocki. Natalia Nehrebecka

Świadomość ubezpieczeniowa rolnika będzie rosła?

Projekt zaliczeniowy z przedmiotu Statystyka i eksploracja danych (nr 3) Kamil Krzysztof Derkowski

TWORZENIE I STOSOWANIE MODELU DATA MINING ZA POMOCĄ PRZEPISÓW STATISTICA DATA MINER NA PRZYKŁADZIE WYKRYWANIA NADUŻYĆ

Konstrukcja miernika szans na bankructwo firmy

STATISTICA DECISIONING PLATFORM, CZYLI JAK PODEJMOWAĆ DECYZJE W EPOCE BIG DATA

Prezentacja raportu z badania nadużyć w sektorze finansowym

Projekt Sieci neuronowe

Widzenie komputerowe (computer vision)

METODY CHEMOMETRYCZNE W IDENTYFIKACJI ŹRÓDEŁ POCHODZENIA

Regresja i Korelacja

ALGORYTMY SZTUCZNEJ INTELIGENCJI

Jakość uczenia i generalizacja

STATYSTYKA MATEMATYCZNA

Stochastyczne Metody Analizy Danych. PROJEKT: Analiza kluczowych parametrów turbin wiatrowych

Model procesu dydaktycznego

Analiza zależności liniowych

PROJEKT FIRMY BUDOWLANEJ

Statystyka. Wykład 7. Magdalena Alama-Bućko. 16 kwietnia Magdalena Alama-Bućko Statystyka 16 kwietnia / 35

DATA MINING W STEROWANIU PROCESEM (QC DATA MINING)

Nazwa firmy Tytuł i numer projektu

KREATOR REGRESJI LOGISTYCZNEJ

MODELOWANIE KOSZTÓW USŁUG ZDROWOTNYCH PRZY

weryfikacja hipotez dotyczących parametrów populacji (średnia, wariancja) założenie: znany rozkład populacji (wykorzystuje się dystrybuantę)

Populacja generalna (zbiorowość generalna) zbiór obejmujący wszystkie elementy będące przedmiotem badań Próba (podzbiór zbiorowości generalnej) część

STRESZCZENIE. rozprawy doktorskiej pt. Zmienne jakościowe w procesie wyceny wartości rynkowej nieruchomości. Ujęcie statystyczne.

Matematyka ubezpieczeń majątkowych r.

Wstęp do sieci neuronowych, wykład 13-14, Walidacja jakości uczenia. Metody statystyczne.

System bonus-malus z mechanizmem korekty składki

REGRESJA I KORELACJA MODEL REGRESJI LINIOWEJ

Sterowanie wielkością zamówienia w Excelu - cz. 3

Statystyka w pracy badawczej nauczyciela

Mikroekonometria 5. Mikołaj Czajkowski Wiktor Budziński

Statystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności. dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa

CZY DECYZJE KLIENTÓW O ZMIANIE UBEZPIECZYCIELA MOŻNA PRZEWIDYWAĆ? ANALIZA CHURN W TUIR WARTA

Korzystanie z podstawowych rozkładów prawdopodobieństwa (tablice i arkusze kalkulacyjne)

CZEŚĆ PIERWSZA. Wymagania na poszczególne oceny,,matematyka wokół nas Klasa III I. POTĘGI

Stanisław Cichocki Natalia Nehrebecka. Zajęcia 11-12

Matematyka ubezpieczeń majątkowych r.

Ćwiczenie: Wybrane zagadnienia z korelacji i regresji.

STATYSTYKA I DOŚWIADCZALNICTWO Wykład 5

Opis efektów kształcenia dla programu kształcenia (kierunkowe efekty kształcenia) WIEDZA. rozumie cywilizacyjne znaczenie matematyki i jej zastosowań

w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych.

Doświadczalnictwo leśne. Wydział Leśny SGGW Studia II stopnia

Agnieszka Nowak Brzezińska

Raport o skargach i odwołaniach klientów ERGO Hestii

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład I dr inż. 2015/2016

Testowanie hipotez statystycznych. Wprowadzenie

Natalia Nehrebecka Stanisław Cichocki. Wykład 13

Data mininig i wielowymiarowa analiza danych zgromadzonych w systemach medycznych na potrzeby badań naukowych

Michał Kusy, StatSoft Polska Sp. z o.o.

Wstęp do sieci neuronowych, wykład 09, Walidacja jakości uczenia. Metody statystyczne.

WYMAGANIA EDUKACYJNE Z MATEMATYKI DLA KLASY III

SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006

PODYPLOMOWE STUDIA ZAAWANSOWANE METODY ANALIZY DANYCH I DATA MINING W BIZNESIE

Wykład 2: Tworzenie danych

Statystyka w przykładach

Analiza współzależności zjawisk

Transkrypt:

DLACZEGO GORSZA METODA JEST CZASEM LEPSZA, CZYLI REGRESJA LOGISTYCZNA W WYKRYWANIU WYŁUDZEŃ ODSZKODOWAŃ Barbara Leśniarek-Woźniak, TUiR WARTA S.A. Wyłudzenia odszkodowań w sektorze ubezpieczeniowym są zjawiskiem, do rozpoznania którego Towarzystwa Ubezpieczeniowe potrzebowały wielu lat. Dziś już większość Towarzystw zdaje sobie sprawę z zagrożenia i konsekwencji, jakie dla biznesu ubezpieczeniowego mogą nieść nienależnie wypłacane odszkodowania. Na szczególną uwagę zasługują tutaj ubezpieczenia komunikacyjne, które przez swoją powszechność i ogólną dostępność są najbardziej narażone na występowanie nadużyć. Skala problemu oraz wieloletnie doświadczenie zdobywane w tym obszarze sprawiło, że wyłudzenia w szkodach komunikacyjnych stały się najbardziej rozpoznanymi typami nadużyć w ubezpieczeniach. Można śmiało zaryzykować stwierdzenie, że obecnie prawie wszystkie Towarzystwa Ubezpieczeniowe mające istotny udział na polskim rynku zabezpieczają się na wypadek występowania tego typu oszustw. Metody detekcji wyłudzeń stosowane przez Towarzystwa na polskim rynku są bardzo zróżnicowane pod względem zaawansowania. Do najbardziej powszechnych metod detekcji należą tzw. reguły biznesowe. Reguły budowane są na bazie doświadczeń i wiedzy biznesowej, a każda szkoda je spełniająca klasyfikowana jest jako budząca podejrzenie bycia próbą wyłudzenia. Można powiedzieć, że reguły biznesowe są ekspercko zdefiniowanymi symptomami wyłudzeń. Ich niepodważalną zaletą jest duża intuicyjność i przejrzystość, dlatego obecnie prawie wszystkie Towarzystwa na rynku stosują tę metodę jako najprostszy sposób detekcji wyłudzeń. Bardzo często zdarza się, że dana szkoda spełnia kilka reguł biznesowych. Można łatwo wywnioskować, że im więcej symptomów wykazuje dana szkoda, tym jest ona bardziej podejrzana. Przypisując liczbę reguł, które spełnia dana szkoda, można wprowadzić pewien sposób stopniowania szkód pod względem ryzyka wyłudzenia. Podejście to ma pewną wadę, gdyż zakłada, że wszystkie reguły mają taką samą wagę. Nawet ekspercko jesteśmy w stanie określić, że jedna reguła jest mocniejsza od innej. Dlatego Towarzystwa zaczęły nadawać wagi (punkty) pewnym cechom, które wydają się mniej lub bardziej istotne w objaśnianiu zjawiska wyłudzenia. W ten sposób powstały ekspercko definiowane karty skoringowe. Copyright StatSoft Polska 2012 www.statsoft.pl/czytelnia.html 69

Obok typowych cech wskazujących na wyłudzenie (ang. fraud) do karty mogą wchodzić również cechy, których występowanie oznacza, że wyłudzenie jest bardzo mało prawdopodobne. W zależności od tego, jak dany symptom wpływa na ocenę zjawiska wyłudzenia, punkty w karcie mogą być ujemne lub dodatnie. Ich suma końcowa jest miarą podejrzenia, czyli inaczej skoringiem dla szkody. I tu dochodzimy do kolejnego problemu, czyli: jak powinien wyglądać najlepszy rozkład punktów dla cech? Jeśli założylibyśmy, że punkty mogą być tylko dodatnie, nie stanowiłoby to takiego problemu jak w przypadku, gdy pewne cechy mają znaki ujemne, co oznacza, że obniżają ryzyko wyłudzenia. Uchwycenie tych zależności i relacji staje się w tym przypadku kłopotliwe. Najlepszą metodą, która wydaje się wspierać biznes ubezpieczeniowy w rozwiązywaniu tego problemu jest zastosowanie regresji logistycznej. Regresja logistyczna jako metoda statystyczna teoretycznie wydaje się być słabszą niż pewne algorytmy data mining, np. sieci neuronowe czy drzewa wzmacniane. Zostało to także potwierdzone doświadczalnie w TUiR WARTA na etapie testowania różnych modeli. Ma jednak jedną cenną zaletę, która wyróżniana ją na tle wspomnianych algorytmów nie jest czarną skrzynką. Wyniki zwracane przez model regresji logistycznej są łatwo interpretowalne i przejrzyste, co sprawia, że idealnie wychodzi naprzeciw naszym oczekiwaniom. W TUiR WARTA najlepsze parametry pod względem jakości zwróciły modele budowane przy użyciu drzew wzmacnianych. Model czarnej skrzynki sprawdza się dobrze, gdy detekcja wyłudzeń umieszczona jest w obszarze back office jako wsparcie likwidacji. Mamy wtedy bardzo dobry model przy jednoczesnym optymalnym umieszczeniu go w środowisku biznesowym. Skala problemu w obszarze ubezpieczeń komunikacyjnych jest jednak na tyle alarmująca, że detekcja wyłudzeń stała się już nieodłącznym elementem procesu likwidacji. Prawie wszystkie nowo powstające systemy służące do likwidacji szkód zawierają w sobie moduły anty-fraudowe. Oznacza to, że detekcja wyłudzeń jest coraz częściej umieszczana na samym początku procesu likwidacji szkód, czyli już na etapie zgłoszenia szkody do ubezpieczyciela. To bardzo ważne, gdyż towarzystwa ubezpieczeniowe zapewniają sobie jak najwięcej czasu na podjęcie działań wyjaśniających w podejrzanych sprawach. Przesunięcie detekcji na sam początek procesu likwidacji sprawia, że pierwszym odbiorcą informacji o tym, że szkoda budzi podejrzenie wyłudzenia, jest likwidator. Dlatego tak ważne jest, aby algorytmy zaszyte w modułach dedykowanych na potrzeby likwidacji były przejrzyste i zrozumiałe. Pracownik dedykowany do obsługi podejrzanej szkody powinien w ogólności rozumieć, dlaczego została ona sklasyfikowana jako podejrzana. Przy odpowiednim ustawieniu procesu można nawet pokusić się o zdefiniowanie działań, które powinno się podjąć w zależności od tego, co i w jakim stopniu wpłynęło na sklasyfikowanie szkody jako fraud. Ze względów bezpieczeństwa szczegóły dotyczące parametrów modelu nie powinny być w pełni odkrywane przed wszystkimi pracownikami Towarzystwa obsługującymi szkody. 70 www.statsoft.pl/czytelnia.html Copyright StatSoft Polska 2012

Regresja logistyczna a data mining Najogólniej rzecz ujmując, regresja logistyczna to metoda statystyczna pozwalającą przedstawić, w jaki sposób prawdopodobieństwo wystąpienia danego zdarzenia zależy od pewnych zmiennych, które istotnie na nie wpływają. Najważniejszą zaletą modelowania danych przy użyciu tej metody jest fakt, że w wyniku otrzymujemy jawny wzór matematyczny. Co więcej, jesteśmy w stanie określić, z jaką siłą i kierunkiem poszczególne zmienne wpływają na modelowane zjawisko. Sprawia to, że regresja logistyczna jest jedną z najbardziej popularnych metod stosowanych przy budowie kart skoringowych. Regresja logistyczna jako metoda statystyczna ma pewne ograniczenia. W odróżnieniu od niektórych metod data mining (np. drzew wzmacnianych) nie jest w stanie wychwycić bardzo skomplikowanych wzorców w danych. Geneza wyłudzeń jest na tyle zróżnicowana, że często wymaga zastosowania bardzo wyszukanych narzędzi analizy danych wychwytujących bardzo złożone, nieliniowe zależności. To sprawia, że regresja logistyczna jako metoda statystyczna ma często słabsze możliwości predykcyjne od niektórych metod data mining. Te z kolei najczęściej działają na zasadzie czarnej skrzynki, co oznacza, że biznesowo stają się niezrozumiałe i nieinterpretowalne. Budowa modelu Przygotowanie danych Odpowiednie przygotowanie danych stanowi jeden z najważniejszych i najbardziej czasochłonnych etapów budowy każdego modelu. Przed przystąpieniem do analizy danych, warto się upewnić, że dysponujemy odpowiednią liczbą przypadków opisujących zjawisko, które chcielibyśmy przewidywać, co w przypadku wyłudzeń nie jest oczywiste. Zazwyczaj zbiór spraw oznaczonych jako fraud jest dość ubogi na tle wszystkich spraw w bazach Towarzystw Ubezpieczeniowych. Warto zastanowić się zatem nad własną, być może szerszą definicją wyłudzenia. W naszym przypadku liczba obserwacji złych (fraud) była wystarczająca, aby w sposób istotny statystycznie reprezentować zbiór wyłudzeń i stanowiła niecałe 5% wszystkich przypadków w zbiorze danych. Zgodnie z ideologią, że nie każde faktyczne wyłudzenie da się udowodnić, do przypadków złych zaliczono nie tylko przypadki, w których była odmowa z tytułu wyłudzenia, ale wszystkie sprawy, które wzbudziły takie wątpliwości. W kolejnym etapie przygotowań dane zostały przeanalizowane pod kątem jakości. Na szczególną uwagę zasługuje analiza braków w danych. Przyjmując zasadę, że brak jakiejś informacji jest czasami istotną informacją, braki danych zostały dla niektórych zmiennych potraktowane jako osobne kategorie. Analiza jakości obejmowała także sprawdzenie, czy braki w danych są losowe czy może zdeterminowane jakimś czynnikiem procesu. Na tym etapie analizy danych utworzono także zbiór zmiennych pochodnych. Przy ich przekształcaniu i tworzeniu uwzględniono fakt, że ostatecznym celem jest zbudowanie modelu jak najbardziej przejrzystego biznesowo. Umiejętnie utworzone zmienne pochodne Copyright StatSoft Polska 2012 www.statsoft.pl/czytelnia.html 71

mogą okazać się bardzo wartościowe. W przypadku wyłudzeń bardzo często zdarza się, że pewne relacje występujące pomiędzy zmiennymi są bardziej istotne i mówią nam więcej niż pojedyncze zmienne. W przeciwieństwie do niektórych metod data mining regresja logistyczna jako metoda statystyczna wymaga, aby zmienne objaśniające były od siebie niezależne, w szczególności nie były ze sobą skorelowane. Do wyeliminowania skorelowanych zmiennych oraz wyboru istotnych predyktorów wykorzystano moduł Wybór i Ranking predyktorów w STATISTICA Zestaw Skoringowy. Założeniem projektu było, że model powinien być wytłumaczalny biznesowo. Przy wyborze istotnych zmiennych był to czynnik, który często determinował, która zmienna wejdzie lub nie wejdzie do modelu. Jeśli na tym etapie nie uwzględnilibyśmy tego faktu, w konsekwencji powstałby model ze zmiennymi istotnymi statystycznie, których wpływu na zjawisko wyłudzenia nie potrafimy logicznie i ekspercko wytłumaczyć. Każda zmienna powinna być jednak traktowana bardzo indywidualnie. Czasem może się bowiem okazać, że statystyczne dane pokazały nam coś czego wcześniej nie zauważaliśmy. Poniżej przedstawiono przykładowy wykres rankingu zmiennych objaśniających przy użyciu kryterium IV. 0,22 Ranking predyktorów Kryterium: IV 0,20 0,18 0,16 0,14 0,12 0,10 0,08 0,06 0,04 0,02 0,00 Zm1 Zm2 Zm3 Zm4 Zm5 Zm6 Zm7 Zm8 Zm9 Zm10 Zm11 Zm12 Zm13 Zm14 Zm15 Zm16 Zm17 Zm18 Zm19 Zm20 Zm21 Zm22 Zm23 Zm24 Zm25 Zm26 Zm27 Zm28 Zm29 IV Rys. 1. Ranking predyktorów w STATISTICA Zestaw Skoringowy. Kolejnym etapem przygotowania danych była dyskretyzacja zmiennych. Klasyczna regresja logistyczna dopuszcza, by zmienne objaśniające były mierzalne lub jakościowe. W naszym przypadku wszystkie zmienne ilościowe oraz jakościowe, które tego wymagały, 72 www.statsoft.pl/czytelnia.html Copyright StatSoft Polska 2012

poddaliśmy dyskretyzacji. Jest kilka powodów przemawiających za takim podejściem do analizy. 1. Przede wszystkim pozwoliło nam to uniknąć w przyszłości problemu przypadków odstających. 2. Przy podziale zmiennych na przedziały kierowano się nie tylko czynnikiem statystycznym, ale uwzględniono również wiedzę ekspercką, przez co przynależność do danego przedziału jest biznesowo interpretowalna. 3. Zmienne jakościowe mające bardzo dużą liczbę stanów zostały uproszczone poprzez pogrupowane ich stanów pod względem ryzyka przez co model nie jest niepotrzebnie rozbudowany. Aby zobaczyć, w jaki sposób (pod kątem siły i kierunku) poszczególne zmienne wpływają na ryzyko wyłudzenia, skorzystano z modułu Dyskretyzacja zmiennych w STATISTICA Zestaw Skoringowy. Poniżej przykład zmiennej Godz_szkody opisującej godzinę powstania szkody. Ze względu na poufność informacji niektóre dane na wykresie zostały ukryte. Rys. 2. Rozkład WoE zmiennej Godz_szkody w STATISTICA Zestaw Skoringowy. Z wykresu WoE wynika, że jesteśmy w stanie wyodrębnić pewne pory doby, w których powstają szkody charakteryzujące się największym prawdopodobieństwem wyłudzenia. Na tym etapie bardzo ważnym było sprawdzenie, czy fakt, iż klient nie podał jakiejś informacji, ma wpływ na próbę wyłudzenia przez niego odszkodowania. W zbiorze danych Towarzystwa pojawiła się zmienna, która wykazywała takie własności. Copyright StatSoft Polska 2012 www.statsoft.pl/czytelnia.html 73

W celu usprawnienia procesu przygotowania danych skorzystano z możliwości rejestrowania i pisania makr, jakie daje oprogramowanie STATISTICA. Było to szczególnie pomocne przy ustalaniu typów i skal pomiarowych dla zmiennych. Budowa modelu Do zbioru danych dodano zmienną dzielącą go na dwa podzbiory: uczący i testowy odpowiednio w stosunku 70% do 30%. W tym celu skorzystano z wbudowanej funkcji generatora liczb pseudo-losowych dla rozkładu jednostajnego Model został zbudowany przy użyciu modułu Zestaw Skoringowy STATISTICA. Zmienna celu została określona jako FRAUD. Należy pamiętać o tym, że w modelu powinny się znaleźć zmienne objaśniające silnie skorelowane ze zmienną zależną. Budowa modelu została przeprowadzona przy użyciu regresji krokowej wstecznej. Metoda ta zakłada, że w pierwszym kroku do modelu włączone są wszystkie zmienne przez nas wskazane. W każdym kolejnym kroku z modelu usuwane są zmienne, które mają najmniejszy wpływ na zmienną zależną, a ich usunięcie poprawi parametry modelu. Procedura ta jest powtarzana do momentu otrzymania najlepszego modelu. Rys. 3. Regresja krokowa wsteczna w STATISTICA. W pierwszym kroku usunięta została zmienna Zm7. Model, który powstanie w wyniku tej analizy, będzie w zależności od zmiennych istotnie wpływających na ryzyko wyłudzenia przypisywał każdej sprawie prawdopodobieństwo, że jest ona wyłudzeniem. W STATISTICA można łatwo przerobić model na kartę skoringową. 74 www.statsoft.pl/czytelnia.html Copyright StatSoft Polska 2012

Ocena modelu Do oceny uzyskanych wyników wykorzystano szereg miar dostępnych w STATISTICA Zestaw Skoringowy, m.in. wskaźnik Giniego, krzywą Lift czy statystykę Kołmogorowa- Smirnowa. Oprócz interpretacji otrzymanych wskaźników bardzo ważne jest, aby model był stabilny na próbie uczącej i testowej. W ten sposób jesteśmy w stanie wyeliminować sytuację, w której model jest przeuczony lub niedouczony. Przeuczenie modelu świadczy o tym, że model bardzo dobrze nauczył się rozpoznawać wzorce w danych, na którym go zbudowaliśmy. Nie znalazł jednak ogólnych trendów, które mogły charakteryzować modelowane zjawisko. Poniżej przestawiono wykresy dla odpowiednich miar oceny modeli. Rys. 4. Miary współczynników na próbach uczącej i testowej. 1,0 Wykres ROC - próba ucząca 1,0 Wykres ROC - próba testowa 0,9 0,9 0,8 0,8 0,7 0,7 0,6 0,6 Czułość 0,5 Czułość 0,5 0,4 0,4 0,3 0,3 0,2 0,2 0,1 0,1 0,0 0,0 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1-Specyficzność 1-Specyficzność Rys. 5. Wykres ROC dla próby uczącej i testowej w STATISTICA. Wartość statystyki Kołmogorowa-Smirnowa na zbiorze testowym świadczy o tym, że model jest w stanie rozróżniać szkody fraudowe od pozostałych szkód. Pola pod krzywą ROC są porównywalne na próbie uczącej i testowej, zatem model zachowuje się stabilnie i nie jest przeuczony. Strategicznym etapem procesu budowy modelu był wybór punktu odcięcia (ang. cut off), powyżej którego sprawy będą brane do dalszej analizy. Wartość tego punktu była ściśle uzależniona od dwóch czynników. Pierwszym z nich była uzyskana skuteczność oceniana na podstawie wartości wskaźników false positive i false negative. Copyright StatSoft Polska 2012 www.statsoft.pl/czytelnia.html 75

Drugą ważną kwestią był średni procent wszystkich spraw, które będą wskazywane przez model jako budzące wątpliwości. W przyszłości będzie to miało bezpośredni wpływ na obciążenie procesu likwidacji sprawami wymagającymi podjęcia dodatkowych działań wyjaśniających. Przy wyborze punktu odcięcia posłużono się modułem Dyskretyzacja zmiennych w programie STATISTICA Zestaw Skoringowy. Rys. 6. Dyskretyzacja zmiennej opisującej prawdopodobieństwo wyłudzenia zwrócone przez model w STATISTICA Zestaw Skoringowy. Jak widać z trendu na wykresie rozkładu WoE, im większy punkt odcięcia określający prawdopodobieństwo wyłudzenia przypisane przez model, tym udział przypadków fraud do przypadków dobrych powyżej tego punktu rośnie. Można stwierdzić, że model działa poprawnie. Kolorem czerwonym zaznaczono na wykresie (rys. 6) słupek, który dla pewnego ustalonego punktu odcięcia wyodrębnił nam najbardziej ryzykowną grupę szkód. Wsparciem dla podjęcia ostatecznej decyzji o wartości punktu odcięcia była możliwość podglądnięcia jego szczegółowej struktury. Interesującymi nas miarami dla zadanego słupka był procent przypadków dobrych, procent przypadków złych oraz procent ogółem, który był odpowiednikiem liczby szkód, jaką każdorazowo trzeba będzie przejrzeć pod kątem wyłudzenia. Poniżej przedstawiono przykład kategoryzacji zmiennej określającej prawdopodobieństwo wyłudzenia (Fraud) wraz ze statystykami opisującymi poszczególne kategorie. 76 www.statsoft.pl/czytelnia.html Copyright StatSoft Polska 2012

Rys. 7. Skategoryzowana zmienna Fraud dla próby testowej. Jak widać na wykresie (rys. 7), aż 35,61% wszystkich przypadków wyłudzeń otrzymało prawdopodobieństwo większe niż wartość x9. Równocześnie 8,71% spraw niebędących wyłudzeniami trafiło do tego przedziału. Całość stanowiła 10% wszystkich spraw. Przy ocenie wyników trzeba pamiętać, że fakt, iż nasz model wyliczył, że dany przypadek ma duże prawdopodobieństwo bycia wyłudzeniem, a my założyliśmy, że tak nie było, nie musi oznaczać, że model się pomylił. W naszym zbiorze szkód istnieją takie, których po prostu mogliśmy w przeszłości nie wykryć jako będących wyłudzeniami. Wolumen tych szkód nie jest nam znany, ale bazując na dotychczasowym doświadczeniu, można spodziewać się, że jest on znaczny. Wpływa to negatywnie na wynik działania naszego modelu i obniża jego skuteczność, dlatego bardzo ważne jest, aby zdawać sobie z tego sprawę i przy interpretacji wyników zakładać, że nasz model jest co najmniej tak dobry, jak pokazują wskaźniki. Skuteczność modelu do przewidywania wyłudzeń może być oceniana w dwojaki sposób. Pierwsze, lżejsze podejście polega na wyznaczeniu stosunku liczby spraw zwróconych przez model do liczby spraw, które rzeczywiście budzą wątpliwości. Drugie jest modyfikacją pierwszego przez zastąpienie spraw budzących wątpliwości przez sprawy, w których udało się udowodnić próbę wyłudzenia i tym samym skutecznie odmówić wypłatę odszkodowania. Ponieważ nie każdą próbę wyłudzenia da się udowodnić, nie oznacza to jednak, że powinno to wpływać na zaniżenie oceny jakości naszego modelu. Dlatego właśnie z punktu widzenia oceny modelu preferujemy podejście pierwsze. Z punktu widzenia ściśle biznesowego poprawna jest interpretacja druga wzbogacona o wymiar finansowy. Podsumowanie Zalety stosowania analitycznych metod detekcji wyłudzeń nie podlegają dyskusji. Świadczy o tym nie tylko ich stale rosnąca popularność, ale fakt, że odpowiednio skalibrowane mogą skutecznie wspierać Towarzystwa w walce z nienależnie wypłacanymi odszkodowaniami. TUiR WARTA potwierdza to na swoim własnym przykładzie. Copyright StatSoft Polska 2012 www.statsoft.pl/czytelnia.html 77

Wszelkie działania wyjaśniające podejmowane w szkodach podejrzanych o będące próbami wyłudzenia obciążają w jakimś stopniu proces likwidacji szkód. Jest to koszt, jaki trzeba ponieść w zamian za walkę z nienależnie wypłacanymi odszkodowaniami. Można zoptymalizować ten koszt przez świadomą i kontrolowaną budowę modeli wspierających wykrywanie nadużyć w tym obszarze. Wybór metody do budowy modelu skoringowego na potrzeby wykrywania wyłudzeń jest często kompromisem pomiędzy jego skutecznością a złożonością. Największą zaletą modeli skoringowych budowanych przy użyciu regresji logistycznej jest ich przejrzystość i interpretowalność. Sprawia to, że mogą być one bez problemu wdrożone w dowolnym miejscu procesu likwidacji szkody, bez ryzyka, że będą ten proces obciążały z niewiadomych przyczyn. Jesteśmy w ten sposób świadomi czynników, które generują nam sprawy podejrzane i tym samym wpływają na procesy. Zaawansowane algorytmy data mining, pomimo swoich ogromnych możliwości predykcyjnych, najczęściej działają na zasadzie czarnej skrzynki, skutecznie ograniczając możliwości, które daje nam w tej materii regresja logistyczna. Pod względem oceny jakości najlepsze parametry zwróciły modele budowane przy użyciu drzew wzmacnianych. Różnica ta nie była jednak na tyle duża, aby nie potraktować jej jako rozsądnej ceny w zamian za model biznesowo zrozumiały, ostatecznie przynoszący porównywalne korzyści finansowe. 78 www.statsoft.pl/czytelnia.html Copyright StatSoft Polska 2012