PRZEWIDYWANIE WYŁUDZEŃ W SZKODACH KOMUNIKACYJNYCH ZA POMOCĄ MODELI PREDYKCYJNYCH W TUIR WARTA



Podobne dokumenty
DLACZEGO GORSZA METODA JEST CZASEM LEPSZA, CZYLI REGRESJA LOGISTYCZNA W WYKRYWANIU WYŁUDZEŃ ODSZKODOWAŃ

BUDOWA MODELU SCORINGOWEGO DO E-POŻYCZKI Z WYKORZYSTANIEM NARZĘDZI STATISTICA

SKORING JAKO NARZĘDZIE WSPIERAJĄCE SPÓŁDZIELCZE KASY OSZCZĘDNOŚCIOWO-KREDYTOWE W SPEŁNIENIU NOWYCH WYMAGAŃ NADZORCZYCH

WYKORZYSTANIE MODELI SKORINGOWYCH I REGUŁ DO OPTYMALIZACJI PROCESÓW BIZNESOWYCH

ALGORYTM RANDOM FOREST

PRAKTYCZNY SKORING - NIE TYLKO KREDYTOWY

STATISTICA DATA MINER I STATISTICA ENTERPRISE SPOSÓB NA SZYBKĄ BUDOWĘ I WDRAŻANIE MODELI

TWORZENIE I STOSOWANIE MODELU DATA MINING ZA POMOCĄ PRZEPISÓW STATISTICA DATA MINER NA PRZYKŁADZIE WYKRYWANIA NADUŻYĆ

WYKORZYSTANIE SKORINGU MARKETINGOWEGO DO OPTYMALIZACJI KAMPANII SPRZEDAŻOWYCH

WYKORZYSTANIE SKORINGU DO PRZEWIDYWANIA WYŁUDZEŃ KREDYTÓW W INVEST-BANKU

JAK NIE OFEROWAĆ GRZEBIENI ŁYSYM, CZYLI MODELE PREDYKCYJNE W OPTYMALIZACJI KAMPANII SPRZEDAŻOWYCH

Scoring kredytowy w pigułce

PRZYKŁAD WYKORZYSTANIA MODELI SKORINGOWYCH W MEDYCYNIE

MODELE SKORINGOWE W BIZNESIE I NAUCE

Projekt zarządzania jakością wykorzystujący STATISTICA Data Miner przynosi w voestalpine roczne oszczędności w wysokości EUR

Projekt Sieci neuronowe

FINALYSE Wykrywanie wyłudzeń w zautomatyzowanych systemach decyzyjnych. Kongres Antyfraudowy. Amsterdam I Brussels I Luxembourg I Warsaw

Zastosowanie modelu regresji logistycznej w ocenie ryzyka ubezpieczeniowego. Łukasz Kończyk WMS AGH

Testowanie hipotez statystycznych

Świadomość ubezpieczeniowa rolnika będzie rosła?

Sterowanie wielkością zamówienia w Excelu - cz. 3

SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU)

Wprowadzenie do analizy korelacji i regresji

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

Statystyka i Analiza Danych

LINIOWOŚĆ METODY OZNACZANIA ZAWARTOŚCI SUBSTANCJI NA PRZYKŁADZIE CHROMATOGRAFU

Jak efektywnie zwalczać przestępczość ubezpieczeniową

PRZEWIDYWANIE WŁAŚCIWOŚCI PRODUKTU Z WYKORZYSTANIEM UCZENIA MASZYN

Jakość uczenia i generalizacja

Sterowanie procesem i jego zdolność. Zbigniew Wiśniewski

STATISTICA DECISIONING PLATFORM, CZYLI JAK PODEJMOWAĆ DECYZJE W EPOCE BIG DATA

Spis treści. 1. Analiza zmian i tendencje rozwoju rynku ubezpieczeń komunikacyjnych

WYKORZYSTANIE MODELI SKORINGOWYCH I REGUŁ BIZNESOWYCH DO OPTYMALIZACJI PROCESÓW BIZNESOWYCH

PROGNOZOWANIE Z WYKORZYSTANIEM METOD DATA MINING

Matematyka ubezpieczeń majątkowych r.

ALGORYTMY SZTUCZNEJ INTELIGENCJI

Analiza zależności liniowych

DATA MINING W STEROWANIU PROCESEM (QC DATA MINING)

Elementy statystyki wielowymiarowej

DOKUMENT INFORMACYJNY COMARCH BUSINESS INTELLIGENCE:

Regresja linearyzowalna

Parametr Λ w populacji ubezpieczonych ma rozkład dany na półosi dodatniej gęstością: 3 f

Indukowane Reguły Decyzyjne I. Wykład 8

Zadanie 1. Za pomocą analizy rzetelności skali i wspólczynnika Alfa- Cronbacha ustalić, czy pytania ankiety stanowią jednorodny zbiór.

Katarzyna Kot Izabela Michalczyk

Zintegrowana Platforma Identyfikacji i Weryfikacji Zjawisk Przestępczości Ubezpieczeniowej: Funkcjonalności i korzyści dla Zakładów Ubezpieczeń

Raport o skargach i odwołaniach klientów ERGO Hestii

Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji

Naszym zadaniem jest rozpatrzenie związków między wierszami macierzy reprezentującej poziomy ekspresji poszczególnych genów.

Prezentacja raportu z badania nadużyć w sektorze finansowym

Zachowania odbiorców. Grupa taryfowa G

Następnie przypominamy (dla części studentów wprowadzamy) podstawowe pojęcia opisujące funkcje na poziomie rysunków i objaśnień.

TWORZENIE I STOSOWANIE MODELU PROGNOSTYCZNEGO Z WYKORZYSTANIEM STATISTICA ENTERPRISE

Analiza składowych głównych. Wprowadzenie

KREATOR REGRESJI LOGISTYCZNEJ

Michał Kusy, StatSoft Polska Sp. z o.o.

Zintegrowana Platforma Identyfikacji i Weryfikacji Zjawisk Przestępczości Ubezpieczeniowej: Funkcjonalności i korzyści dla Zakładów Ubezpieczeń

Analiza regresji - weryfikacja założeń

Piotr Wójtowicz StatSoft Polska Sp. z o.o.

Analiza danych. TEMATYKA PRZEDMIOTU

Drzewa decyzyjne i lasy losowe

Widzenie komputerowe (computer vision)

PODYPLOMOWE STUDIA ZAAWANSOWANE METODY ANALIZY DANYCH I DATA MINING W BIZNESIE

SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006

Dopasowywanie modelu do danych

Nadajemy pracy sens. Business case study. ValueView w SGB Banku SA, czyli o nowatorskim podejściu do pomiaru rentowności zadań stanowisk i procesów.

JAK EFEKTYWNIE I POPRAWNIE WYKONAĆ ANALIZĘ I RAPORT Z BADAŃ BIEGŁOŚCI I WALIDACJI PRAKTYCZNE WSKAZÓWKI

Sposoby prezentacji problemów w statystyce

Metody scoringowe w regresji logistycznej

Sieci neuronowe w Statistica

Natalia Nehrebecka Stanisław Cichocki. Wykład 13

StatSoft profesjonalny partner w zakresie analizy danych

Badania sondażowe. Schematy losowania. Agnieszka Zięba. Zakład Badań Marketingowych Instytut Statystyki i Demografii Szkoła Główna Handlowa

Szkolenie Regresja liniowa

ZARZĄDZANIE EFEKTYWNOŚCIĄ PRZEZ ZARZĄDZANIE INFORMACJĄ. Proces likwidacji szkód osobowych z OC komunikacyjnego

Wykład 2: Tworzenie danych

Maciej Oleksy Zenon Matuszyk

STATYSTYCZNY DETEKTYW, CZYLI WYKRYWANIE WYŁUDZEŃ ZA POMOCĄ ANALIZY DANYCH

z wyszczególnieniem usług automatyzacji procesów mgr inż. Adam Smółkowski mgr inż. Marcin Wójciuk Aspartus (Grupa ProService FINTECO)

10. Podstawowe wskaźniki psychometryczne

Regresja logistyczna (LOGISTIC)

REGRESJA I KORELACJA MODEL REGRESJI LINIOWEJ

Stanisław Cichocki Natalia Nehrebecka. Zajęcia 11-12

System bonus-malus z mechanizmem korekty składki

POLITECHNIKA OPOLSKA

Robert M.Korona. Dr Robert M. Korona 1


Przykład eksploracji danych o naturze statystycznej Próba 1 wartości zmiennej losowej odległość

CZY DECYZJE KLIENTÓW O ZMIANIE UBEZPIECZYCIELA MOŻNA PRZEWIDYWAĆ? ANALIZA CHURN W TUIR WARTA

Statystyka w pracy badawczej nauczyciela

Wykrywanie anomalii w zbiorze danych o dużym wymiarze

8. Drzewa decyzyjne, bagging, boosting i lasy losowe

2

PODSTAWOWE ANALIZY I WIZUALIZACJA Z WYKORZYSTANIEM MAP W STATISTICA

( x) Równanie regresji liniowej ma postać. By obliczyć współczynniki a i b należy posłużyć się następującymi wzorami 1 : Gdzie:

Zarządzanie ryzykiem w rozwiązaniach prawnych. by Antoni Jeżowski, 2014

Odchudzamy serię danych, czyli jak wykryć i usunąć wyniki obarczone błędami grubymi

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa

4. ZNACZENIE ROZKŁADU WYKŁADNICZEGO

Szkolenie Analiza dyskryminacyjna

Transkrypt:

PRZEWIDYWANIE WYŁUDZEŃ W SZKODACH KOMUNIKACYJNYCH ZA POMOCĄ MODELI PREDYKCYJNYCH W TUIR WARTA Barbara Leśniarek, TUiR WARTA S.A. Ubezpieczenia komunikacyjne są strategicznym filarem biznesu ubezpieczeniowego. Problem nadużyć w tym obszarze boleśnie odbija się na rentowności portfeli Towarzystw Ubezpieczeniowych. Przeprowadzone w Polsce pierwsze badania dotyczące przestępczości ubezpieczeniowej dały zaskakujące wyniki i pokazały, że ponad 1/3 kierowców oszukała swojego ubezpieczyciela przy likwidacji szkody, podając nieprawdziwe informacje. Budząca się świadomość w tej kwestii sprawiła, że Towarzystwa Ubezpieczeniowe zaczęły bronić się przed wypłatami nienależnych odszkodowań poprzez podnoszenie świadomości swoich pracowników oraz rozbudowę systemów informatycznych o elementy detekcyjne. W ten sposób automatyczna detekcja wyłudzeń stała się nieodłącznym elementem procesu likwidacji szkód. Znaczący wolumen zgłaszanych szkód oraz dbałość o jakość obsługi klienta sprawiły, że elementy anty-fraudowe powinny w jak najmniejszym stopniu obciążać proces likwidacji szkód pod względem czasu i kosztów. Dlatego tak istotnym stało się sprawne wyodrębnianie szkód o największym ryzyku wyłudzenia. Znając prawdopodobieństwo, że dana sprawa szkodowa jest wyłudzeniem, jesteśmy wstanie wyłapać (ang. fishing) ją z grupy wszystkich zgłoszonych szkód, przyjrzeć jej się dokładniej pod kątem istnienia symptomów wyłudzenia i w konsekwencji podjąć działania prowadzące do ograniczenia bądź odmowy wypłaty odszkodowania. Zautomatyzowanie detekcji skutecznie ogranicza ryzyko wypłat odszkodowań w szkodach podejrzanych przy zastosowaniu blokady systemowej, która uniemożliwi wypłatę, jeśli nie zostaną podjęte wcześniejsze czynności wyjaśniające. Istniejące regulacje prawne, przepisy zewnętrzne i wewnętrzne sprawiają, że Towarzystwa Ubezpieczeniowe mają ograniczony czas na podjęcie działań eksplanatoryjnych w szkodach podejrzanych. W rezultacie kluczową cechą systemów anty-fraudowych powinna być także ich szybkość. Naprzeciw tym wszystkim potrzebom wychodzą modele statystyczne i data mining, jako skuteczne metody sprawnej i szybkiej detekcji wyłudzeń w szkodach. Dlatego w TUiR WARTA rozpoczęto projekt budowy modelu predykcyjnego dla szkód komunikacyjnych. W tym artykule przedstawione zostaną kolejne etapy procesu budowy tego modelu oraz korzyści płynące z podjęcia się tego przedsięwzięcia. Copyright StatSoft Polska 2011 www.statsoft.pl/czytelnia.html 87

Szkody zgłoszone Szkody zwrócone przez system Szkody podejrzane Odmówione wypłaty odszkodowań (fraud saving) Rys. 1. Proces detekcji szkód podejrzanych. Projekt w TUiR WARTA Celem projektu prowadzonego w TUiR WARTA było zbadanie możliwości wykrywania szkód podejrzanych (fraud) przez modele data-mining i w konsekwencji skuteczne ograniczenie nienależnie wypłacanych odszkodowań. Było to szczególnie ważne w warunkach ograniczonego dostępu do pewnych intuicyjnie istotnych danych. Ubezpieczenia komunikacyjne przez ich powszechność i szeroką dostępność są jednymi z najbardziej narażonych na ryzyko nadużyć. Przy ich równoczesnym istotnym biznesowo znaczeniu walka z wyłudzeniami w tym obszarze staje się priorytetem. Obecnie Towarzystwo dysponuje wystarczającą liczbą przypadków wyłudzeń w szkodach komunikacyjnych, więc możliwe stało się podjęcie próby budowy modelu predykcyjnego dla produktów z tej linii biznesowej. Ponieważ do tej pory takie metody nie były stosowane w TUiR WARTA, przed ich wdrożeniem zdecydowano się na przetestowanie modelu w warunkach back office przy współpracy z ekspertami do spraw wyłudzeń. Docelowo model powinien wspierać proces sprawnej i skutecznej detekcji wyłudzeń w zgłaszanych szkodach. Do budowy modelu i jego oceny zdecydowano się wykorzystać narzędzie STATISTICA Data Miner + Zestaw Skoringowy. 88 www.statsoft.pl/czytelnia.html Copyright StatSoft Polska 2011

Modelowanie Proces budowy modelu podzielono na trzy główne etapy, na które składało się: przygotowanie danych, budowa modelu oraz jego ocena. Ze względu na różnorodność produktów ubezpieczeniowych i tym samym różny zakres danych je opisujących podjęto decyzję o zbudowaniu dwóch modeli dla produktów wymienionych poniżej: Ubezpieczenie OC pojazdów mechanicznych, Ubezpieczenie Auto Casco pojazdów mechanicznych. Proces budowy modelu predykcyjnego dla systemów dedykowanych do detekcji wyłudzeń generuje szereg problemów i wymagań. Do głównych z nich należą: znacząca dysproporcja pomiędzy licznością zbioru zawierającego przypadki wyłudzeń a liczbą przypadków dobrych, jakość danych, zakres dostępnych danych, szybkość działania. Po przetestowaniu statystycznych metod modelowania danych (regresja logistyczna) i metod data mining (w tym sieci neuronowych) zdecydowano się na wybór drzew wzmacnianych jako skutecznej metody modelowania wyłudzeń. Drzewa wzmacniane 5 (ang. boosted trees) to metoda data mining polegająca na budowie sekwencji modeli, przy czym każdy kolejny model przykłada większa wagę do tych obserwacji, które zostały błędnie sklasyfikowane przez modele poprzednie. W kolejnych modelach błędnie zaklasyfikowane obserwacje otrzymują większe wagi, przez co każdy kolejny model uczy się lepiej rozróżniać obserwacje wcześniej źle sklasyfikowane. Finalny model często składa się więc z kilkuset składowych modeli, które głosując dają finalny wynik. Do głównych zalet drzew wzmacnianych należą: duża niewrażliwość na wartości odstające i rzadkie, odporność na występowanie zmiennych nieistotnych lub zmiennych nadmiernie skorelowanych, odporność na występowanie w zbiorze danych niezrównoważonych proporcji przypadków dobrych i złych, identyfikowanie w sposób naturalny interakcji występujących pomiędzy cechami. Największym minusem drzew wzmacnianych (ang. boosted trees) jako metody data mining jest działanie na zasadzie czarnej skrzynki i tym samym stwarzanie trudności w interpretacji wyników. Jednak występujące interakcje pomiędzy czynnikami opisującymi 5 Definicja i własności zostały przytoczone z artykułu Modele skoringowe w biznesie i nauce, Grzegorz Migut, StatSoft Polska. Copyright StatSoft Polska 2011 www.statsoft.pl/czytelnia.html 89

sprawy szkodowe oraz złożoność przypadków wyłudzeń sprawiły, że statystyczne metody (np. regresja logistyczna), choć bardziej przejrzyste, nie zwróciły tak zadowalających wyników jak drzewa wzmacnianie. Przygotowanie danych Ponieważ drzewa wzmacniane bardzo dobrze radzą sobie z dysproporcją klas, nie ingerowano w żaden sposób w ich liczność, szczególnie że liczba przypadków złych (fraud) była wystarczająca, aby w sposób istotny statystycznie reprezentować zbiór wyłudzeń i stanowiła niecałe 5% wszystkich przypadków w zbiorze danych. Zgodnie z założeniem, że nie każde faktyczne wyłudzenie da się udowodnić, do przypadków złych zaliczono nie tylko przypadki, w których była odmowa z tytułu wyłudzenia, ale wszystkie sprawy, które wzbudziły takie wątpliwości. Kolejnym czasochłonnym etapem przygotowania danych było przeanalizowanie ich pod kątem jakości. Ponieważ dane dotyczące szkody są najczęściej gromadzone przy samym zgłoszeniu, nie zawsze są one w pełni kompletne. Zdarza się, że strategiczne informacje uzupełniane są w trakcie procesu likwidacji szkody. Dlatego można się już spotkać z podejściem polegający na kilkukrotnym skanowaniu szkody przez algorytmy anty-fraudowe w pewnych ustalonych odstępach czasowych, w celu wychwycenia szkód podejrzanych. Na poprawę jakości danych wpłynęło głównie uzupełnienie braków oraz usunięcie przypadków odstających, będących często błędnie wpisanymi. Analiza jakości obejmowała także sprawdzenie, czy braki w danych są losowe czy może zdeterminowane jakimś czynnikiem procesu. Przy przygotowywaniu danych oprócz zmiennych podstawowych utworzono także zbiór zmiennych pochodnych. Niektóre ze zmiennych zostały poddane dalszemu przekształceniu. Ostatnim etapem był wybór istotnych zmiennych. Pomimo, że drzewa wzmacniane dość dobrze radzą sobie ze skorelowanymi czy mało istotnymi zmiennymi, bardzo dobrą i zawsze wskazaną praktyką jest eliminacja niepotrzebnych zmiennych. Do wyeliminowania skorelowanych zmiennych oraz wyboru istotnych predyktorów wykorzystano moduł Wybór i ranking predyktorów w Zestawie Skoringowym STATISTICA. Na kolejnej stronie przedstawiono przykładowy wykres rankingu predyktorów przy użyciu kryterium IV (Information Value) otrzymany w STATISTICA. Aby przekonać się, w jaki sposób (pod kątem siły i kierunku) poszczególne istotne zmienne wpływają na ryzyko wyłudzenia, skorzystano z modułu Dyskretyzacja zmiennych w Zestawie Skoringowym STATISTICA. Na rysunku 3 widać przykład zmiennej Kont_ub określającej, jak długo klient kontynuuje ubezpieczenie AC. Czas ten wyznaczony jest zawsze na moment szkody zgłoszonej przez klienta. Ze względu na poufność informacji niektóre dane na wykresie zostały ukryte. 90 www.statsoft.pl/czytelnia.html Copyright StatSoft Polska 2011

Rys. 2. Ranking predyktorów w Zestawie Skoringowym STATISTICA. Rys. 3. Rozkład WoE zmiennej Kont_ub w Zestawie Skoringowym STATISTICA. Z wykresu WoE wynika, że im klient dłużej kontynuuje ubezpieczenie AC, tym ryzyko wyłudzenia przez niego odszkodowania spada. Oczywiście taki wniosek jest bardzo jednowymiarowy, jednak w połączeniu z informacją na temat historii szkodowości klienta można uzyskać ciekawe wnioski. Analizując podobnie każdą z istotnych zmiennych, w przejrzysty sposób otrzymaliśmy statystyczne symptomy wyłudzeń. Co więcej Copyright StatSoft Polska 2011 www.statsoft.pl/czytelnia.html 91

otrzymane wyniki były w dużym stopniu zgodne z intuicją, co dodatkowo potwierdzało, że proces budowy modelu idzie w dobrym kierunku. Na tym etapie bardzo ważnym było sprawdzenie, czy fakt, iż klient nie podał jakiejś informacji, miał wpływ na próbę wyłudzenia przez niego odszkodowania. W zbiorze danych Towarzystwa pojawiła się zmienna, która wykazywała takie własności. W celu usprawnienia procesu przygotowania danych skorzystano z możliwości rejestrowania i pisania makr, jakie daje oprogramowanie STATISTICA. Było to szczególnie pomocne przy ustalaniu typów i skal pomiarowych dla zmiennych. Budowa modelu Do zbioru danych dodano zmienną dzielącą go na dwa podzbiory: uczący i testowy, odpowiednio w stosunku 70% do 30%. W tym celu skorzystano z wbudowanej funkcji generatora liczb pseudo-losowych dla rozkładu jednostajnego. Model został zbudowany przy użyciu modułu Wzmacniane drzewa klasyfikacyjne i regresyjne. Jako typ analizy zostało wybrane Zadanie klasyfikacyjne, gdzie zmienna celu została określona jako FRAUD. Rys. 4. Drzewa wzmacniane w menu Data mining w programie STATISTICA. W ramach projektu przetestowano różne wartości dla parametrów zatrzymania oraz liczbę zbudowanych drzew. Celem był wybór jak najlepszego modelu ocenianego pod względem macierzy błędnych klasyfikacji. Strategicznymi parametrami okazały się Maksymalna liczba węzłów oraz Minimalna liczność. Szczególnie warto zwrócić uwagę na ten ostatni parametr, który w momencie, gdy był zbyt mały, sprawiał, że model za bardzo dopasowywał się do danych uczących i tym samym był przeuczony. Na kolejnej stronie widać przykładowe wartości parametrów oraz wykres przebiegu budowy modelu drzew wzmacnianych. Jak widać, wraz z wzrostem liczby drzew maleje błąd wyznaczony na próbie uczącej i testowej. Gdyby stało się inaczej, oznaczałoby to, że rozbudowa modelu o kolejne drzewo nie poprawia jego jakości. Im większa liczba drzew, tym model jest bardziej skomplikowany i tym dłużej trzeba czekać na jego odpowiedź. Starano się więc znaleźć równowagę pomiędzy jego złożonością a dokładnością. Ostatecznie rozbudowę modelu zakończono na około 300 drzewach. 92 www.statsoft.pl/czytelnia.html Copyright StatSoft Polska 2011

Rys. 5. Parametryzacja drzew wzmacnianych w STATISTICA Data Miner. Rys. 6. Proces budowy drzew wzmacnianych w STATISTICA Data Miner. Otrzymany w ten sposób model został zapisany w formacie *.xml. Można go sprawnie wdrożyć przez skorzystanie z modułu Szybkie wdrażanie modeli predykcyjnych. Ocena modelu Do oceny uzyskanych wyników wykorzystano szereg miar dostępnych w Zestawie Skoringowym STATISTICA, m.in.: współczynnik Giniego, krzywą Lift czy statystykę Kołmogorowa-Smirnowa. Oprócz interpretacji otrzymanych wskaźników bardzo ważne jest, aby model był stabilny na próbie uczącej i testowej. W ten sposób jesteśmy w stanie wyeli- Copyright StatSoft Polska 2011 www.statsoft.pl/czytelnia.html 93

minować sytuację, w której model jest przeuczony lub niedouczony. Poniżej przestawiono wykresy dla odpowiednich miar oceny modeli. Rys. 7. Statystyka K-S w Zestawie Skoringowym STATISTICA. Rys. 8. Wykres Giniego w Zestawie Skoringowym STATISTICA. Wartość statystyki Kołmogorowa-Smirnowa na zbiorze testowym bliska 0,4 świadczy o tym, że model jest w stanie rozróżniać szkody fraudowe od pozostałych szkód. 94 www.statsoft.pl/czytelnia.html Copyright StatSoft Polska 2011

Współczynniki Giniego wyznaczone na próbie uczącej i testowej są porównywalne. Model zachowuje się zatem stabilnie i nie jest przeuczony. Strategicznym etapem procesu budowy modelu był wybór punktu odcięcia (ang. cut off), powyżej którego sprawy będą brane do dalszej analizy. Wartość tego punktu była ściśle uzależniona od dwóch czynników. Pierwszym z nich była uzyskana skuteczność, oceniana na podstawie wartości wskaźników false positive i false negative. Drugą kwestią były możliwości przerobowe zespołu, czyli liczba spraw możliwych do przeanalizowania przez pracowników Towarzystwa. W przyszłości będzie to miało bezpośredni wpływ na obciążenie procesu likwidacji sprawami wymagającymi podjęcia dodatkowych działań wyjaśniających. Przy wyborze punktu odcięcia posłużono się modułem Dyskretyzacja zmiennych w Zestawie Skoringowym STATISTICA Rys. 9. Dyskretyzacja zmiennej opisującej prawdopodobieństwo wyłudzenia zwrócone przez model w STATISTICA Zestaw Skoringowy. Jak widać z trendu na wykresie, im większa wartość punktu odcięcia, tym stosunek liczby przypadków fraud do liczby przypadków dobrych powyżej tego punktu rośnie. Można zatem stwierdzić, że model działa poprawnie. Wsparciem dla podjęcia ostatecznej decyzji o wartości punktu odcięcia była możliwość podglądnięcia szczegółowej struktury ostatniego ze słupków przedstawionych na wykresie powyżej. Dla pewnego ustalonego punktu odcięcia wyodrębnił on nam najbardziej ryzykowną grupę szkód. Interesującymi nas miarami dla zadanego słupka był procent przypadków dobrych, procent przypadków złych oraz procent ogółem, który był odpowiednikiem liczby szkód, jaką każdorazowo trzeba będzie przejrzeć pod kątem wyłudzenia. Copyright StatSoft Polska 2011 www.statsoft.pl/czytelnia.html 95

Przy ocenie wyników trzeba pamiętać, że fakt, iż nasz model wyliczył, że dany przypadek ma duże prawdopodobieństwo bycia wyłudzeniem w momencie, gdy my założyliśmy, że tak nie było, nie musi oznaczać, że model się pomylił. W naszym zbiorze szkód istnieją takie, których po prostu mogliśmy w przeszłości nie wykryć jako będące wyłudzeniami. Wolumen tych szkód nie jest nam znany, ale bazując na dotychczasowym doświadczeniu, można spodziewać się, że jest on znaczny. Wpływa to negatywnie na wynik działania naszego modelu i obniża ocenę jego skuteczności. Bardzo ważne jest, aby zdawać sobie z tego sprawę i przy interpretacji wyników zakładać, że nasz model jest co najmniej tak dobry, jak pokazują wskaźniki. Skuteczność modelu do przewidywania wyłudzeń może być oceniana w dwojaki sposób. Pierwsze, lżejsze podejście polega na wyznaczeniu stosunku liczby spraw zwróconych przez model do liczby spraw, które rzeczywiście budzą wątpliwości (rys. 1). Drugie jest modyfikacją pierwszego przez zastąpienie spraw budzących wątpliwości przez sprawy, w których udało się udowodnić próbę wyłudzenia i tym samym skutecznie odmówić wypłaty odszkodowania. Chociaż nie każdą próbę wyłudzenia da się udowodnić, nie oznacza to jednak, że powinno to wpływać na zaniżenie oceny jakości naszego modelu. Dlatego właśnie z punktu widzenia oceny modelu preferujemy podejście pierwsze. Z punktu widzenia ściśle biznesowego poprawna jest interpretacja druga, wzbogacona o wymiar finansowy. Podsumowanie W celu zbalansowania czasu potrzebnego na analizę szkód zwracanych przez model z uzyskiwanymi korzyściami finansowymi zdecydowano, że do szczegółowej analizy będą brane szkody powyżej pewnej ustalonej kwoty roszczenia. Wpływa to dodatnio na jego ocenę biznesową, która jest w tym aspekcie strategiczna. Przy dostępnym zakresie danych model drzew wzmacnianych zbudowany przy użyciu oprogramowania STATISTICA skutecznie sprawdził się w detekcji niesłusznie zgłaszanych roszczeń i przerósł nasze oczekiwania. W miarę zmian systemowych i zwiększonego zakresu dostępu do danych można liczyć na realną poprawę jego parametrów. Obecnie model jest jednym z głównych (obok samych pracowników) źródeł typowania spraw wątpliwych, znacząco przewyższającym pod względem skuteczności inne stosowane do tej pory analityczne metody detekcji wyłudzeń, takie jak np. reguły biznesowe. W miarę stałego powiększania się liczby przypadków wyłudzeń możliwe będzie podjęcie próby budowy dodatkowych modeli dla innych linii biznesowych. 96 www.statsoft.pl/czytelnia.html Copyright StatSoft Polska 2011