PRZEWIDYWANIE LOJALNOŚCI KLIENTÓW

Podobne dokumenty
TWORZENIE I STOSOWANIE MODELU DATA MINING ZA POMOCĄ PRZEPISÓW STATISTICA DATA MINER NA PRZYKŁADZIE WYKRYWANIA NADUŻYĆ

Wykład 4: Statystyki opisowe (część 1)

PRZYKŁAD PROGNOZOWANIA Z WYKORZYSTANIEM METOD DATA MINING

Wykład 3: Prezentacja danych statystycznych

Analiza danych. TEMATYKA PRZEDMIOTU

Porównywanie populacji

Drzewa decyzyjne i lasy losowe

Sposoby prezentacji problemów w statystyce

ALGORYTM RANDOM FOREST

PRZEWIDYWANIE WŁAŚCIWOŚCI PRODUKTU Z WYKORZYSTANIEM UCZENIA MASZYN

STATYSTYKA MATEMATYCZNA WYKŁAD 4. WERYFIKACJA HIPOTEZ PARAMETRYCZNYCH X - cecha populacji, θ parametr rozkładu cechy X.

Statystyka. Wykład 4. Magdalena Alama-Bućko. 19 marca Magdalena Alama-Bućko Statystyka 19 marca / 33

PRZYKŁADY BUDOWY MODELI REGRESYJNYCH I KLASYFIKACYJNYCH. Wprowadzenie do problematyki modelowania statystycznego

TWORZENIE I STOSOWANIE MODELU PROGNOSTYCZNEGO Z WYKORZYSTANIEM STATISTICA ENTERPRISE

Metody klasyfikacji danych - część 1 p.1/24

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16

Testy nieparametryczne

Wprowadzenie do analizy dyskryminacyjnej

SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006

ALGORYTMY SZTUCZNEJ INTELIGENCJI

Rozkład materiału nauczania

SCENARIUSZ LEKCJI. TEMAT LEKCJI: Zastosowanie średnich w statystyce i matematyce. Podstawowe pojęcia statystyczne. Streszczenie.

Weryfikacja hipotez statystycznych

Statystyki opisowe i szeregi rozdzielcze

Zmienne zależne i niezależne

Wykład 2: Grupowanie danych (szeregi statystyczne) + porady dotyczące analizy danych w programie STATISTICA

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

LABORATORIUM 3. Jeśli p α, to hipotezę zerową odrzucamy Jeśli p > α, to nie mamy podstaw do odrzucenia hipotezy zerowej

Kontekstowe wskaźniki efektywności nauczania - warsztaty

Analizy wariancji ANOVA (analysis of variance)

Jak sprawdzić normalność rozkładu w teście dla prób zależnych?

You created this PDF from an application that is not licensed to print to novapdf printer (

Wprowadzenie do analizy korelacji i regresji

DATA MINING W STEROWANIU PROCESEM (QC DATA MINING)

INDUKOWANE REGUŁY DECYZYJNE ALORYTM APRIORI JAROSŁAW FIBICH

LINIOWOŚĆ METODY OZNACZANIA ZAWARTOŚCI SUBSTANCJI NA PRZYKŁADZIE CHROMATOGRAFU

STATYSTYKA I DOŚWIADCZALNICTWO Wykład 4

Drzewa klasyfikacyjne Lasy losowe. Wprowadzenie

Analiza korespondencji

Odchudzamy serię danych, czyli jak wykryć i usunąć wyniki obarczone błędami grubymi

Statystyka i Analiza Danych

Wykład 3 Hipotezy statystyczne

STATYSTYKA I DOŚWIADCZALNICTWO Wykład 6

Scoring kredytowy w pigułce

CO STATYSTYKA I WYKRESY MOGĄ POWIEDZIEĆ O PROCESIE?

Ruch jednostajnie przyspieszony wyznaczenie przyspieszenia

Analiza regresji - weryfikacja założeń

Testowanie hipotez statystycznych

Testowanie modeli predykcyjnych

Regresja logistyczna (LOGISTIC)

8. Drzewa decyzyjne, bagging, boosting i lasy losowe

weryfikacja hipotez dotyczących parametrów populacji (średnia, wariancja) założenie: znany rozkład populacji (wykorzystuje się dystrybuantę)

Luty 2001 Algorytmy (4) 2000/2001

operacje porównania, a jeśli jest to konieczne ze względu na złe uporządkowanie porównywanych liczb zmieniamy ich kolejność, czyli przestawiamy je.

WYKORZYSTANIE MODELI SKORINGOWYCH I REGUŁ DO OPTYMALIZACJI PROCESÓW BIZNESOWYCH

Zastosowanie Excela w matematyce

Charakterystyki liczbowe (estymatory i parametry), które pozwalają opisać właściwości rozkładu badanej cechy (zmiennej)

7. Estymacja parametrów w modelu normalnym( ) Pojęcie losowej próby prostej

zbieranie porządkowanie i prezentacja (tabele, wykresy) analiza interpretacja (wnioskowanie statystyczne)

Analiza danych i data mining.

Satysfakcja z życia rodziców dzieci niepełnosprawnych intelektualnie

Naszym zadaniem jest rozpatrzenie związków między wierszami macierzy reprezentującej poziomy ekspresji poszczególnych genów.

Testowanie hipotez statystycznych

Elementy modelowania matematycznego

Metoda Automatycznej Detekcji Interakcji CHAID

Badanie zależności skala nominalna

P: Czy studiujący i niestudiujący preferują inne sklepy internetowe?

Wykład 4. Plan: 1. Aproksymacja rozkładu dwumianowego rozkładem normalnym. 2. Rozkłady próbkowe. 3. Centralne twierdzenie graniczne

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

NAZWA ZMIENNEJ LOSOWEJ PODAJ WARTOŚĆ PARAMETRÓW ROZKŁADU PRAWDOPODOBIEŃSTWA DLA TEJ ZMIENNEJ

Algorytmy genetyczne

W1. Wprowadzenie. Statystyka opisowa

MODEL DATA MINING PRZEWIDUJĄCY ODPOWIEDŹ KLIENTÓW NA OFERTĘ

RAPORT z diagnozy umiejętności matematycznych

Jednoczynnikowa analiza wariancji

Statystyka. Wykład 4. Magdalena Alama-Bućko. 13 marca Magdalena Alama-Bućko Statystyka 13 marca / 41

Statystyka matematyczna i ekonometria

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

WSPOMAGANIE KAMPANII SPRZEDAŻY KRZYŻOWEJ (CROSS-SELLING) NA PRZYKŁADZIE OFERTY BANKU

LOJALNOŚĆ, SATYSFAKCJA - ICH ZNACZENIE I POMIAR

Elementy statystyki opisowej, podstawowe pojęcia statystyki matematycznej

Aproksymacja funkcji a regresja symboliczna

Testowanie hipotez statystycznych. Wnioskowanie statystyczne

Statystyka opisowa. Wykład I. Elementy statystyki opisowej

Statystyka opisowa. Literatura STATYSTYKA OPISOWA. Wprowadzenie. Wprowadzenie. Wprowadzenie. Plan. Tomasz Łukaszewski

ROZKŁAD MATERIAŁU NAUCZANIA KLASA 2, ZAKRES PODSTAWOWY

TESTOWANIE HIPOTEZ STATYSTYCZNYCH Hipotezą statystyczną nazywamy, najogólniej mówiąc, pewną wypowiedź na temat rozkładu interesującej nas cechy.

Temat 20. Techniki algorytmiczne

Jak długo żyją spółki na polskiej giełdzie? Zastosowanie statystycznej analizy przeżycia do modelowania upadłości przedsiębiorstw

Badanie opinii Omniwatch. Oferta badawcza

Regresja wielokrotna. PDF created with FinePrint pdffactory Pro trial version

Analiza składowych głównych. Wprowadzenie

Programowanie i techniki algorytmiczne

Pobieranie prób i rozkład z próby

Zadania ze statystyki, cz.6

Wykład 4: Wnioskowanie statystyczne. Podstawowe informacje oraz implementacja przykładowego testu w programie STATISTICA

1. Liczby naturalne, podzielność, silnie, reszty z dzielenia

PRZYKŁAD TWORZENIA KART KONTROLNYCH W STATISTICA

Wykład Centralne twierdzenie graniczne. Statystyka matematyczna: Estymacja parametrów rozkładu

Hipotezy statystyczne

Transkrypt:

PRZEWIDWANIE LOJALNOŚCI KLIENTÓW Tomasz Demski StatSoft Polska Sp. z o.o. Wprowadzenie Podstawowe znaczenie terminu lojalność klienta oznacza jego skłonność do wielokrotnych zakupów u jednego dostawcy. Często stosuje się również szersze rozumienie tego pojęcia: lojalny klient nie tylko często dokonuje zakupów, ale ponadto ma dobrą opinię o dostawcy i jest gotów dzielić się nią z innymi. Dyskusję zagadnienia lojalności klienta przedstawiono w artykule Lojalność, satysfakcja - ich znaczenie i pomiar w [1] (artykuł jest dostępny również na stronie www.statsoft.pl/czytelnia/marketing/wprowmarketing.html). Zagadnienie lojalności klientów jest bardzo istotne w wielu dziedzinach gospodarki, zwłaszcza tam, gdzie z jednej strony potrzebne są duże nakłady, aby pozyskać klienta, a z drugiej strony klienci nie przywiązują się do dostawcy. Wzorcowym przykładem jest telefonia komórkowa. Wystarczy powiedzieć, że z badań przeprowadzonych w USA wynika, że 9% posiadaczy telefonów komórkowych zmieniło operatora w ciągu ostatnich 5 lat (por. [2] i [3]). Rolę lojalności podsumowuje poniższy wzór (tzw. reguła sukcesu CRM, ang. CRM formula for success, [4]): Przychód = (Liczba klientów) (Przeciętna wartość) (Lojalność) Jest to oczywiście duże uproszczenie skomplikowanych zależności, jednakże unaocznia rolę lojalności klientów. Analiza danych a lojalność klientów Analizy danych stosowane są w kontekście lojalności klientów do badania i monitorowania satysfakcji klienta, wykrywania przyczyn decydujących o zadowoleniu klienta i jego lojalności, monitorowania zmian stopnia satysfakcji klientów. Przegląd i przykłady zastosowań tego typu przedstawiono w pracy [1]. Inna grupa zastosowań analizy danych to metody odkrywania wzorców zachowań klientów, np. jakie są typowe sekwencje zdarzeń i zakupów (co poprzedza odejście klienta). 51

Ważną rolę odgrywa również segmentacja klientów, umożliwiająca znalezienie jednorodnych grup podobnych nabywców (zob. artykuł poświęcony segmentacji w niniejszej publikacji). Często poszukuje się reguł decydujących o tym, że ktoś przestaje kupować nasze produkty lub usługi (tzw. model churn). Przykład takiej analizy znajduje się w pracy [5] oraz podręcznikach [2] i [3]. My zajmiemy się odwrotnym zagadnieniem: przewidywaniem, kto pozostanie naszym klientem, a mówiąc bardziej technicznie, zajmiemy się tworzeniem modeli lojalności klienta. Modele lojalności klienta (nazywane też modelami utrzymania klienta, w języku angielskim używa się wymiennie terminów loyalty, attrition i retention models) służą do przewidywania prawdopodobieństwa, że dana osoba (lub firma) pozostanie naszym klientem. Model budujemy metodami analizy danych (statystyki i data mining) wskazuje na to choćby przewidywanie prawdopodobieństwa. Oczywiście nie jesteśmy w stanie z całkowitą pewnością przewidzieć, że dany klient będzie lojalny. Możemy jednak podzielić klientów na grupy o różnym poziomie zagrożenia odejściem z jednej strony, a różnymi szansami na dalsze zakupy z drugiej strony. Działanie modelu przedstawia poniższy schemat (dodatkowe informacje można uzyskać w artykule [6]). Ogół klientów Model Wysokie ryzyko odejścia i małe szanse dalszych zakupów Niskie ryzyko odejścia i duże szanse dalszych zakupów Zapobieganie Oferty W stosunku do obu grup klientów wydzielonych przez model podejmujemy odmienne działania. W szczególności nielojalni klienci mogą być celem działań zapobiegawczych (typu oferta zniżki na abonament). Natomiast do lojalnych klientów będziemy kierować oferty zakupu nowych produktów (cross-selling), czy też rozszerzenia obecnej współpracy (up-selling). Zauważmy, że wysyłanie propozycji zapobiegających odejściu do lojalnych 52

klientów jest szkodliwe (bo np. obniżymy abonament komuś, kto wcale nie zamierzał odejść). Model lojalności tworzymy, wykorzystując dane z przeszłości: o zachowaniu klientów (zakupy i kontakty z dostawcą), o cechach demograficznych klienta (wiek, wykształcenie, region itp.), dane zewnętrzne (np. o poziomie bezrobocia w miejscu zamieszkania klienta). Zwróćmy uwagę, że model da nam informację, które cechy klientów wpływają na poziom lojalności. Na jej podstawie możemy np. kierować kampanie marketingowe do tych potencjalnych klientów, którzy najprawdopodobniej na długo pozostaną naszymi klientami. Zauważmy, że z reguły sukcesu CRM (str. 51) wynika, że pozornie nieinteresujący klient (np. kupujący za niewielkie kwoty) przyniesie największe dochody (ponieważ będzie kupował przez długi czas). Ponadto model lojalności może wskazać również pewne wydarzenia, które poprzedzają odejście lub wpływają na utrzymanie klienta. W kolejnej części zajmiemy się budową modelu lojalności klientów (przy przygotowaniu artykułu korzystaliśmy z podręcznika [3]). Przykład Zbudujemy model przewidujący, którzy klienci dokonają ponownego zakupu. Model będzie stosowany niedługo po pierwszym zakupie, a więc w jego budowie musimy ograniczyć się do danych dostępnych po realizacji pierwszego zamówienia. Do dyspozycji mamy dane: o zamówieniu (wartość pierwszego zakupu, liczbę i kategorię nabytych produktów, sposób dostawy, formę płatności i czy zakup był zakupem na raty), o kliencie (regionie i wielkości miejscowości zamieszkania klienta, jego wieku, płci i wykształceniu, liczbie osób w gospodarstwie domowym i kategorii dochodu), czy klient przed lub tuż po zakupie kontaktował się z dostawcą. Część informacji o kliencie nie była konieczna do realizacji transakcji i niektórzy klienci ich nie podawali. Ponieważ wszystkie dane o kliencie zakodowano jako zmienne skategoryzowane (informujące o przynależności do grupy, np. osób w średnim wieku), problem brakujących danych rozwiązano, wprowadzając specjalną klasę: Brak odpowiedzi. Dodatkowo wprowadzono zmienną informującą, że klient nie udzielił odpowiedzi na jedno z pytań. Łącznie w analizie uwzględniliśmy 21 predyktorów, a dysponowaliśmy 2527 przypadkami. Dane zostały wcześniej przygotowane do analizy i sprawdzone. 53

Eksploracja danych Pierwszym etapem analizy jest eksploracja danych, której celem jest wstępne poznanie ogólnych właściwości zmiennych i ich wzajemnych relacji. Ponadto powinniśmy wykryć obserwacje nietypowe (odstające) i dokonać selekcji zmiennych (np. pominąć zmienne, które praktycznie zawsze przyjmują jedną i tę samą wartość, zawierają dużo braków danych, nie wpływają na badane zjawisko). Badanie związków między zmiennymi dotyczy nie tylko relacji predyktorów i modelowanej wielkości, ale również powiązania predyktorów. Wbrew pozorom dosyć często zdarza się, że w danych występują w pełni redundantne zmienne, z których tylko jedną należy uwzględnić w analizie. Na etapie eksploracji danych sprawdzamy także, jak często występują braki danych i decydujemy, jak z nimi postępować. W wyniku eksploracji danych możemy również uzyskać informacje podpowiadające przekształcenia zmiennych, które ułatwią przeprowadzenie analizy. Więcej informacji o eksploracji danych i przykłady znajdują się w podręczniku [3]. Na początek zobaczmy, jak wygląda rozkład zmiennej zależnej. Na rysunku poniżej widzimy, że około 58% klientów nie dokonało ponownego zakupu ( = ), a około 42% dokonało ( = ). 16 14 58,3% Liczba obserwacji 12 1 8 6 41,7% 4 2 Rozkład predyktorów ilościowych (kwota i liczba produktów N_prod) widzimy na poniższych wykresach ramka-wąsy. Jak widać, obie zmienne mają rozkład niesymetryczny, ze stosunkowo nielicznymi wartościami wyraźnie przewyższającymi typowe wartości. 54

12 26 2527 1 2527 24 22 2 8 18 16 6 14 12 4 1 8 2 Kwota Mediana = 311.12 25%-75% = (19.51, 529.2) Zakres typowych = (43.23, 135.81) Odstające Ekstremalne 6 4 2 N_prod Mediana = 3 25%-75% = (2, 4) Zakres typowych = (1, 7) Odstające Ekstremalne W dalszej analizie będziemy w większości stosować metody odporne na obserwacje odstające, jednak obserwacja numer 2527 wydaje się być zbyt dziwna: kwota dla tego przypadku jest ponad dwukrotnie większa od drugiej co do wielkości. Obserwację numer 2527 wyłączymy z dalszej analizy za pomocą jednej z funkcji graficznej eksploracji danych STATISTICA. W przypadku stosowania metod wrażliwych na obserwacje odstające, warto by rozważyć zlogarytmowanie kwoty i liczby produktów. Predyktory jakościowe możemy przeanalizować, korzystając z histogramów lub tabel liczności, jednak w przypadku naszych danych nie pokazują one nic ciekawego. W szczególności liczności wszystkich klas są rozsądne. Kolejnym krokiem jest zbadanie zależności między potencjalnymi predyktorami, a zmienną zależną. W przypadku predyktorów ilościowych i zmiennej zależnej jakościowej dosyć często stosuje się podejście odwrotne, tzn. sprawdzamy, czy rozkład predyktorów jest różny dla różnych klas modelowanej cechy. Pierwszym sprawdzianem będą wykresy ramka-wąsy pokazujące wzajemne relacje statystyk pozycyjnych (nie stosujemy układu z średnimi i błędami standardowymi, albowiem zmienne Kwota i N_prod mają niesymetryczny rozkład zdecydowanie odbiegający od normalnego). 4 26 35 24 22 3 2 18 25 16 Kwota 2 N_ pro d 14 12 15 1 1 8 6 5 Ni e Mediana 25%-75% Zakr es typowych Odstające Ekstremalne 4 2 Mediana 25%-75% Zakr es typowych Odstające Ekstremalne 55

Rzuca się w oczy, że klienci lojalni w pierwszym zakupie płacili więcej i kupowali więcej produktów. Jednak jeśli przyjrzymy się bliżej powyższym wykresom, to zauważymy, że dla bardzo dużych kwot i liczb produktów tendencja ta zanika albo wręcz ulega odwróceniu skrajnie duże wartości częściej pojawiają się dla grupy. Wyniki badania na oko możemy potwierdzić, wykonując test U Manna-Whitneya. W przypadku obu zmiennych pozwala on odrzucić hipotezę o tym, że rozkład w grupach jest taki sam na poziomie istotności 1%. W przypadku predyktorów jakościowych i jakościowej zmiennej zależnej do zbadania zależności możemy użyć tabel krzyżowych i wykresów skategoryzowanych. Dla przykładu zobaczmy, jak forma płatności i to, czy zakup był zakupem na raty, wpływają na lojalność. Patrząc na tabele liczności poniżej, wydaje się, że wpływ zmiennej Płatność jest niezbyt silny, w szczególności grupy KK i P niczym się nie różnią. Natomiast bardzo silny jest wpływ zmiennej Rata: widać, że zakup na raty sprzyja późniejszym, innym zakupom. Zależności w tabelkach ilustrują poniższe wykresy interakcji: 8 14 7 12 Liczność 6 5 4 3 2 Liczność 1 8 6 4 1 2 ZP KK P Płatność Rata W podobny sposób powinniśmy przeanalizować związki między innymi predyktorami a faktem kontynuowania zakupów (tj. zmienną ), zwłaszcza jeśli chcemy użyć metod, które nie lubią dużej liczby zmiennych nic nie wnoszących do modelu. 56

Na etapie eksploracji badamy również związki między zmiennymi niezależnymi. Jak pamiętamy, forma płatności wykazywała słaby związek ze zmienną zależną. Wydaje się, że forma płatności może być związana z płaconą kwotą. Na poniższym rysunku widzimy rozkład zmiennej Kwota dla różnych form płatności. Wyraźnie widać, że klasa ZP to zdecydowanie niższe kwoty. Jest to najprawdopodobniej przyczyną tego, że mamy inną częstość klas i zmiennej dla klasy ZP w stosunku do pozostałych wartości zmiennej Płatność. Bazując na tym spostrzeżeniu, możemy przypuszczać, że w modelu uwzględniającym wiele predyktorów zmienna Płatność się nie pojawi, bo znajdzie się w nim zmienna Kwota, która bardzo silnie wpływa na zmienną zależną, a cały związek pomiędzy zmienną Płatność a zmienną jest skutkiem powiązania Płatności i Kwoty. 4 35 3 25 Kwota 2 15 1 5-5 ZP KK P Płatność Mediana 25%-75% Zakr es typowych Odstające Ekstremalne Tworzenie modelu Po wstępnej analizie danych przejdziemy do tworzenia modelu. Do budowy modelu wykorzystamy kilka różnorodnych technik i zobaczymy, która z nich daje najtrafniejsze przewidywania. Model będziemy budować i porównywać w przestrzeni roboczej systemu STATISTICA Data Miner. Zbiór danych podzielimy losowo na próbę ucząca (8% przypadków) i testową (2%). Najpierw zbudujemy model z wykorzystaniem Uogólnionej analizy dyskryminacyjnej (GDA). Procedura ta tworzy podziały liniowe: można powiedzieć, że przestrzeń predyktorów dzielona jest płaszczyznami na segmenty odpowiadające klasom. Aby uzyskać poprawny model, włączymy automatyczny dobór zmiennych metodą krokową postępującą. Polega ona na dodawaniu do modelu kolejnych predyktorów, dla których ryzyko, że nie wpływają one istotnie na zmienną zależną, jest najmniejsze. Podczas analizy jako pierwszy predyktor do modelu została wstawiona zmienna Rata, a jako drugi N_prod (liczba produktów). Ostatecznie w modelu znalazły się zmienne: Rata, N_prod, Brak_odp (informująca, że klient nie udzielił odpowiedzi na jedno z pytań), Gr_wiek (grupa wieku), Kontakt (czy klient kontaktował się z dostawcą), grupa zakupionych produktów, sposób dostawy, miejscowość, płatność, płeć. 57

Model GDA dla próby testowej myli się w 27% przypadków. Jeśli faktyczną wartością zmiennej było, to stopa błędów wynosi 4%, a w przeciwnym przypadku 17%. Jak pamiętamy z wstępnej analizy danych, dla dużych wartości kwoty mamy odwrotną tendencję niż dla przeciętnych wartości: tzn. częściej występują wartości (nielojalni klienci). iego układu powiązań analiza dyskryminacyjna nie jest w stanie wychwycić. Zastosujemy drzewa klasyfikacyjne i regresyjne, które są w stanie znaleźć podziały nieliniowe. W drzewach klasyfikacyjnych i regresyjnych poszukujemy takich części (segmentów) przestrzeni cech parametrów, w których zmienna zależna przyjmuje tylko pewną określoną wartość. Dla ilustracji rozważmy poniższy wykres. Widzimy na nim częstość występowania klasy w zależności od wartości, jakie przyjmują dwie cechy. Cecha 1 Cecha 2 Patrząc na wykres, możemy sformułować następującą regułę: Obiekt należy do klasy : jeśli Cecha 2 należy do klasy C, albo jeśli Cecha 1 należy do klasy X i Cecha 2 należy do klasy B. Drzewa klasyfikacyjne poszukują optymalnego podziału na segmenty, wykonując następujące działania: 1. Sprawdzenie dla aktualnie badanego zbioru, czy jest on jednorodny lub czy spełniona jest inna reguła stopu. 2. Zbadanie wszystkich możliwych podziałów na rozłączne części. 3. Wykonanie najlepszego podziału zbioru na rozłączne części. 4. Powtórzenie dla wszystkich zbiorów uzyskanych poprzez wykonanie powyższych czynności. 58

W problemach klasyfikacyjnych jako wskaźnik jednorodności często stosuje się miarę Giniego, która jest równa prawdopodobieństwu tego, że jeżeli trafimy na obiekt z pewnej klasy, to drugi wylosowany obiekt będzie należał do innej klasy. W przypadku dwóch klas miara ta jest równa 2*f*(f-1), gdzie f oznacza proporcję występowania jednej z klas. (Miara ta wprowadzona została w biologii i jest tam nazywana wskaźnikiem Simpsona). Jako reguły stopu stosuje się m.in.: minimalną liczność węzła podlegającego podziałom, minimalną liczność węzła powstającego w wyniku podziałów i maksymalną liczbę poziomów drzewa. Po zakończeniu podziałów wykonuje się jeszcze operację doboru właściwej wielkości drzewa, np. przycinanie (ang. pruning). Przycinanie polega na usuwaniu gałęzi drzewa, co wykonujemy automatycznie lub ręcznie, w oparciu o posiadaną wiedzę o celach analizy, jakości pomiaru poszczególnych cech, ograniczeniach stosowania modelu itp. (jest to wiedza, której nie ma w danych i siłą rzeczy analiza danych nie może jej wydobyć). Do określenią właściwej wielkości drzewa używa się V-krotnego sprawdzianu krzyżowego. Polega on na podzieleniu danych na V-części, zbudowaniu drzewa dla zbioru uczącego złożonego z V-1 części i ocenieniu go dla pozostałej części. Całą procedurę powtarzamy V razy (każda z części raz pełni rolę zbioru testowego) i na podstawie zależności błędu od złożoności drzewa określamy optymalną wielkość drzewa (więcej informacji można znaleźć w podręczniku [9]). Uzyskane reguły standardowo prezentuje się w postaci drzewa, dzięki czemu są one stosunkowo przejrzyste, nawet gdy drzewo jest spore. Łatwość zrozumienia wyników i możliwość odkrycia łatwych w interpretacji reguł jest jedną z zalet drzew klasyfikacyjnych. Inne zalety drzew klasyfikacyjnych i regresyjnych to: Prostota algorytmu, ułatwiająca stosowanie go ze zrozumieniem nawet osobom bez dużego doświadczenia w analizie danych, Szybkość działania, Odporność na nietypowe wartości predyktorów, Odporność na nawet dużą liczbę predyktorów faktycznie niewpływających na badaną zmienną, Możliwość wychwycenia zależności nieliniowych i interakcji. Wszystkie te zalety powodują, że dobrze jest zacząć analizę właśnie od tej metody. Z drugiej strony drzewa nie są w stanie opisać tak złożonych zależności jak inne, bardziej skomplikowane matematycznie procedury, np. sieci neuronowe, metoda wektorów nośnych (Support Vector Machines) czy drzewa ze wzmacnianiem (boosted trees). W naszym przypadku zastosujemy drzewa klasyfikacyjne C&RT z następującymi parametrami: Jako wskaźnik jednorodności użyjemy miary Giniego, Minimalną liczność dzielonego węzła ustawimy równą 125, 59

Do doboru optymalnego drzewa wykorzystamy V-krotny sprawdzian krzyżowy z pięcioma złożeniami (V=5). Na rysunku poniżej widzimy drzewo klasyfikacyjne uzyskane w wyniku analizy. Jest ono dosyć proste: składa się łącznie z 19 węzłów, z czego 1 to liście (węzły końcowe). Zauważmy, że drzewo przewiduje, że dla dużych wartości kwoty zwiększa się prawdopodobieństwo, że klient nie będzie więcej u nas kupował ( = ) zwróćmy uwagę na podział węzła nr 35. Drzewo klasyfikacyjne dla próby testowej myli się w 22% przypadkach. Jeśli faktyczną wartością zmiennej było, to stopa błędów wynosi 38%, a w przeciwnym przypadku 9%. Wszystkie te wskaźniki są wyraźnie lepsze niż dla modelu GDA. ID=1 N=212 ID=2 N=1245 Kwota <= 389.915 > 389.915 ID=3 N=767 ID=4 N=96 Rata =... = Other(s) ID=5 N=339 ID=34 N=168 Brak_odp = 1 = Other(s) ID=35 N=599 ID=3 N=121 N_prod <= 1.5 > 1.5 ID=31 N=218 ID=36 N=112 Rata =... = Other(s) ID=37 N=56 ID=38 N=527 Kwota <= 1251.48 > 1251.48 ID=39 N=72 ID=32 N=123 GR_WIEK = Średni,... = Other(s) ID=33 N=95 ID=4 N=241 Kwota <= 567.55 > 567.55 ID=41 N=286 ID=42 N=87 GR_WIEK = Młodzież... = Other(s) ID=43 N=154 Następny model zbudujemy za pomocą drzew ze wzmacnianiem (boosted trees). Wzmacnianie polega na budowaniu modelu złożonego z ciągu prostych modeli, przy czym kolejne modele składowe uczone są przy coraz większej wadze trudnych przypadków, dla których dotychczasowe modele myliły się. Mówiąc precyzyjniej, uczenie zaczynamy od opracowania prostego modelu (wagi wszystkich obserwacji są równe). Następnie obliczamy błąd dla modelu jako całości i wagi dla 6

poszczególnych obserwacji. Wagi możemy wyznaczyć, np. powiększając wagi początkowe z wykorzystaniem wartości błędu całego modelu. Wagi dla poprawnie sklasyfikowanych przypadków nie ulegają zmianie. W następnym kroku dopasowujemy prosty model dla danych ze skorygowanymi wagami. Uzyskane w ten sposób modele cząstkowe łączymy w jeden, wyliczając ich ważoną sumę. Więcej informacji można znaleźć w podręczniku [9]. Model drzew ze wzmocnieniem zbudujemy przy domyślnych ustawieniach STATISTICA Data Miner, z jedną modyfikacją: zwiększymy maksymalną liczbę węzłów w składowym drzewie z 3 do 7, aby móc uwzględnić interakcje zmiennych. Uzyskany model składa się z 178 drzew, a jego uzyskanie zajmuje zdecydowanie więcej czasu niż modelu GDA i drzew klasyfikacyjnych. Jednak trafność modelu jest najlepsza: dla próby testowej frakcja błędów wynosi 19% przypadków. Jeśli faktyczną wartością zmiennej było, to stopa błędów wynosi 21%, a w przeciwnym przypadku 18%.,6,55,5,45,4,35,3,25 2 4 6 8 1 12 14 16 18 2 Liczba drzew Próba ucząca Próba testowa Optymalna liczba Pomimo trafniejszych przewidywań drzew ze wzmacnianiem, w praktyce lepszy może okazać się model drzew klasyfikacyjnych ze względu na prostotę i mniej czasochłonne obliczenia. Literatura [1]. Analiza satysfakcji i lojalności klientów, 23, StatSoft Polska. [2]. Berry M.J.A., Linoff G., Mastering data mining, John Willey & Sons, 2. [3]. Berson, A., Smith, S., Thearing, K., Building Data mining Applications for CRM, McGraw-Hill, 1999. [4]. Phelan S., Customer Information as a Strategic Asset, DM Review Online (www.dmreview.com), kwiecień 22. 61

[5]. Nowoczesne narzędzia gromadzenia, udostępniania i analizy danych: STATISTICA Data Miner i Sybase IQ, StatSoft Polska, 24 (publikacja dostępna w Internecie na stronie www.statsoft.pl). [6]. Coppock D. S., Data Mining and Modeling: Model to Reduce Attrition, DM Review Online (www.dmreview.com), kwiecień 22. [7]. Giudici P., Applied Data Mining. Statistical Methods for Business and Industry, John Wiley & Sons Ltd, 23. [8]. Data mining metody i przykłady, StatSoft Polska, 22. [9]. Hastie T, Tibshirani R., Friedman J., The Elements of Statistical Learning, Springer-Verlag, 22. 62