Przyrostowe uczenie reguª oraz wykorzystanie detekcji zmian w blokowych klasykatorach zªo»onych do przetwarzania danych strumieniowych

Podobne dokumenty
Dariusz Brzeziński. Politechnika Poznańska

RILL - przyrostowy klasyfikator regułowy uczący się ze zmiennych środowisk

Lab. 02: Algorytm Schrage

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

Eksploracja Danych. Wprowadzenie. (c) Marcin Sydow

Wst p do sieci neuronowych 2010/2011 wykªad 7 Algorytm propagacji wstecznej cd.

ANALIZA NUMERYCZNA. Grzegorz Szkibiel. Wiosna 2014/15

Metody numeryczne i statystyka dla in»ynierów

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

MiASI. Modelowanie systemów informatycznych. Piotr Fulma«ski. 18 stycznia Wydziaª Matematyki i Informatyki, Uniwersytet Šódzki, Polska

Elementarna statystyka Dwie próby: porównanie dwóch proporcji (Two-sample problem: comparing two proportions)

przewidywania zapotrzebowania na moc elektryczn

Elementarna statystyka Wnioskowanie o regresji (Inference 2 czerwca for regression) / 13

WST P DO TEORII INFORMACJI I KODOWANIA. Grzegorz Szkibiel. Wiosna 2013/14

MiASI. Modelowanie analityczne. Piotr Fulma«ski. 18 stycznia Wydziaª Matematyki i Informatyki, Uniwersytet Šódzki, Polska

Podstawy modelowania w j zyku UML

mgr inż. Magdalena Deckert Poznań, r. Uczenie się klasyfikatorów przy zmieniającej się definicji klas.

1 Bª dy i arytmetyka zmiennopozycyjna

Funkcje, wielomiany. Informacje pomocnicze

Wykªad 7. Ekstrema lokalne funkcji dwóch zmiennych.

1 Metody iteracyjne rozwi zywania równania f(x)=0

Lekcja 8 - ANIMACJA. 1 Polecenia. 2 Typy animacji. 3 Pierwsza animacja - Mrugaj ca twarz

EDUKARIS - O±rodek Ksztaªcenia

O pewnym zadaniu olimpijskim

Rozwi zania klasycznych problemów w Rendezvous

Przykªady problemów optymalizacji kombinatorycznej

mgr inż. Magdalena Deckert Poznań, r. Metody przyrostowego uczenia się ze strumieni danych.

Wzorce projektowe kreacyjne

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

i, lub, nie Cegieªki buduj ce wspóªczesne procesory. Piotr Fulma«ski 5 kwietnia 2017

Ekonometria - wykªad 8

MiASI. Modelowanie integracji systemów. Piotr Fulma«ski. 26 stycznia Wydziaª Matematyki i Informatyki, Uniwersytet Šódzki, Polska

Model obiektu w JavaScript

Wzorce projektowe strukturalne cz. 1

Lekcja 9 - LICZBY LOSOWE, ZMIENNE

Ekonometria Bayesowska

Uczenie Maszynowe: reprezentacja wiedzy, wybór i ocena modelu, drzewa decyzjne

Metodydowodzenia twierdzeń

Blokowe i przyrostowe klasyfikatory złożone dla strumieni danych ze zmienną definicją klas

A = n. 2. Ka»dy podzbiór zbioru sko«czonego jest zbiorem sko«czonym. Dowody tych twierdze«(elementarne, lecz nieco nu» ce) pominiemy.

Programowanie wspóªbie»ne

Metody numeryczne. Wst p do metod numerycznych. Dawid Rasaªa. January 9, Dawid Rasaªa Metody numeryczne 1 / 9

Podstawy modelowania w j zyku UML

Edyta Juszczyk. Akademia im. Jana Dªugosza w Cz stochowie. Lekcja 1Wst p

c Marcin Sydow Przepªywy Grafy i Zastosowania Podsumowanie 12: Przepªywy w sieciach

AUTO-ENKODER JAKO SKŠADNIK ARCHITEKTURY DEEP LEARNING

Indeksowane rodziny zbiorów

POLITECHNIKA WROCŠAWSKA WYDZIAŠ ELEKTRONIKI PRACA DYPLOMOWA MAGISTERSKA

Rzut oka na zagadnienia zwi zane z projektowaniem list rozkazów

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

Listy i operacje pytania

Podstawy modelowania w j zyku UML

2 Liczby rzeczywiste - cz. 2

JAO - J zyki, Automaty i Obliczenia - Wykªad 1. JAO - J zyki, Automaty i Obliczenia - Wykªad 1

Zastosowania matematyki

Programowanie Zespołowe

Opis matematyczny ukªadów liniowych

1 Klasy. 1.1 Denicja klasy. 1.2 Skªadniki klasy.

Jednowarstwowe Sieci Neuronowe jako. klasykatory do wielu klas. (c) Marcin Sydow

Wyra»enia logicznie równowa»ne

Listy Inne przykªady Rozwi zywanie problemów. Listy w Mathematice. Marcin Karcz. Wydziaª Matematyki, Fizyki i Informatyki.

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

Baza danych - Access. 2 Budowa bazy danych

ALGORYTMY SORTOWANIA DANYCH

Temat: Co to jest optymalizacja? Maksymalizacja objętości naczynia prostopadłościennego za pomocą arkusza kalkulacyjngo.

Algorytmy zwiazane z gramatykami bezkontekstowymi

Konspekt lekcji otwartej

Ciaªa i wielomiany. 1 Denicja ciaªa. Ciaªa i wielomiany 1

ZAANGA OWANIE PRACOWNIKÓW W PROJEKTY INFORMATYCZNE

Modele wielorównaniowe. Problem identykacji

Ekonometria Bayesowska

1. Wprowadzenie do C/C++

Granular Computing 9999 pages 15 METODY SZTUCZNEJ INTELIGENCJI - PROJEKTY

Funkcje wielu zmiennych

Rozwi zywanie Ukªadów Równa«Liniowych Ax=B metod dekompozycji LU, za pomoc JAVA RMI

Praca Dyplomowa Magisterska

Zad. 1 Zad. 2 Zad. 3 Zad. 4 Zad. 5 SUMA. W obu podpunktach zakªadamy,»e kolejno± ta«ców jest wa»na.

Dynamiczne wªasno±ci algorytmu propagacji przekona«

Metody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska

1. Wprowadzenie do C/C++

Metody numeryczne i statystyka dla in»ynierów

Uczenie Wielowarstwowych Sieci Neuronów o

Metody statystyczne w biologii - Wykªad 8. Uniwersytet Przyrodniczy we Wrocªawiu Katedra Genetyki i Ogólnej Hodowli Zwierz t

Ostatnia cena sprzeda y klienta 1.0 dodatek do Symfonia Faktura dla 1 firmy

Ekstremalnie fajne równania

Wnioskowanie Boolowskie i teoria zbiorów przybli»onych

Szeregowanie zada« Przedmiot fakultatywny 15h wykªadu + 15h wicze« dr Hanna Furma«czyk. 7 pa¹dziernika 2013

Aplikacje bazodanowe. Laboratorium 1. Dawid Poªap Aplikacje bazodanowe - laboratorium 1 Luty, 22, / 37

x y x y x y x + y x y

Automatyczne przetwarzanie recenzji konsumenckich dla oceny użyteczności produktów i usług

Epigenome - 'above the genome'

Integracja systemów, integracja procesów

Uczenie Maszynowe: Wprowadzenie. (c) Marcin Sydow

Ukªady równa«liniowych

Hotel Hilberta. Zdumiewaj cy ±wiat niesko«czono±ci. Marcin Kysiak. Festiwal Nauki, Instytut Matematyki Uniwersytetu Warszawskiego

YapS Plan testów. Šukasz Bieniasz-Krzywiec Dariusz Leniowski Jakub Š cki 29 maja 2007

Propozycja integracji elementów ±wiata gry przy u»yciu drzew zachowa«

1 Poj cia pomocnicze. Przykªad 1. A A d

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

Transkrypt:

Przyrostowe uczenie reguª oraz wykorzystanie detekcji zmian w blokowych klasykatorach zªo»onych do przetwarzania danych strumieniowych Magdalena Deckert Wydziaª Informatyki Politechnika Pozna«ska Rozprawa doktorska Promotor dr hab. in». J. Stefanowski, prof. nadzw. Pozna«, 2015

Streszczenie rozprawy doktorskiej 1 Wst p W ostatnich latach obserwowany jest gwaªtowny wzrost gromadzonych danych, które w wielu dziedzinach mogªyby zosta ponownie wykorzystane do wspomagania dziaªa«ludzi. Jednak»e samodzielne pozyskiwanie warto±ciowych informacji w tak du»ych repozytoriach danych jest niezwykle trudne lub wr cz niemo»liwe. Z tego wzgl du coraz cz ±ciej wykorzystuje si do tego metody wywodz ce si z uczenia maszynowego (ang. machine learning) oraz eksploracji danych (ang. data mining). Najcz ±ciej rozwa»anym zadaniem w ramach tych metod jest uczenie nadzorowane (ang. supervised learning), a w szczególno±ci problem klasykacji. Zakªadaj c,»e dane wej±ciowe skªadaj si z przykªadów ucz cych opisanych za pomoc atrybutów warunkowych oraz klasy decyzyjnej, to celem algorytmu nadzorowanej klasykacji jest odnalezienie zale»no±ci pomi dzy opisem przykªadu w postaci warto±ci atrybutów a jego przydziaªem do konkretnej klasy decyzyjnej. Odkryte w ten sposób wzorce klasykacji mog nast pnie zosta wykorzystane do predykcji nowych obserwacji. Taki system nazywamy klasykatorem [15]. Wi kszo± metod uczenia klasykatorów przetwarza statyczne dane, które mo»na przechowywa w pami ci komputera lub w zewn trznych repozytoriach, co umo»liwia ich wielokrotny odczyt w procesie uczenia si. Jednak»e coraz wi cej z aktualnie dost pnych danych nie jest ju» tylko statycznym zbiorami, lecz mog mie posta strumieni danych [10, 20]. Strumie«danych jest sekwencj przykªadów ucz cych, w której kolejne elementy oddziela nieznany przedziaª czasu. Strumienie danych charakteryzuj si bardzo du»ym rozmiarem (w cz ±ci zastosowa«nieograniczonym) i dodatkowo narzucaj algorytmom du»e wymagania, co do czasu przetwarzania oraz zu»ywanej pami ci [7]. Z tego powodu nale»y konstruowa nowe algorytmy, które speªni powy»sze wymagania. Ponadto, powinny one w ka»dej chwili czasu budowa jak najlepszy model klasykatora, aby by przygotowanym do predykcji nowo nadchodz cych przykªadów. Dodatkow trudno± sprawia to,»e charakterystyka danych w strumieniach mo»e ulega zmianom denicji poj /klas decyzyjnych (ang. concept drift) [19]. 1

Zjawisko zmian denicji klas powoduje,»e wraz z upªywem czasu wªa±ciwo±ci klasy decyzyjnej, któr klasykator próbuje przewidzie, zmieniaj si, a sama informacja o kontek±cie przyczyny tej zmiany nie jest bezpo±rednio dost pna dla algorytmu ucz cego. Stwarza to trudno±ci, poniewa» klasykator nauczony na ju» nieaktualnych danych traci swoj skuteczno± predykcji klasykowania nowo nadchodz cych obserwacji. Pomimo,»e badania nad uczeniem si klasykatorów ze strumieni danych s stosunkowo now problematyk, w przegl dzie literatury mo»na dostrzec,»e zaproponowano ju» pewn liczb bardzo ró»norodnych algorytmów [3, 10, 16, 17, 23]. W ogólno±ci mo»na je podzieli na dwie gªówne grupy [23]: metody z jawn detekcj zmian, metody adaptacyjne (niewykorzystuj ce bezpo±rednio mechanizmu detekcji). Analizuj c propozycje metod adaptacyjnych nale»y zwróci uwag na dwie ró»norodne podgrupy w zale»no±ci od sposobu przetwarzania nadchodz cych przykªadów. Pierwsza z nich dotyczy przetwarzania blokowego (ang. block, chunk), a druga - czysto przyrostowego (ang. incremental, online, instance-by-instance). W podej±ciu przyrostowym dane ucz ce przetwarzane s przykªad po przykªadzie i mog wpªywa na aktualizacj klasykatora, natomiast w przypadku blokowo±ci dane wej±ciowe dostarczane s w blokach o okre±lonym rozmiarze. Do uczenia si z bloków danych naturalnie przystosowane s klasykatory zªo»one. Z bada«[1, 18] nad blokowymi klasykatorami zªo»onymi wynika,»e ich dziaªanie jest zale»ne od wªa±ciwego doboru rozmiaru bloku. Ponadto powinny one poprawnie pod»a za stopniowymi zmianami, jednak»e ich reakcj na gwaªtown zmian mo»e by spowolniona z uwagi na to,»e nie mog dokona przebudowy wcze±niej ni» na ko«cu bloku. Powy»sze spostrze»enia s przesªank do tego,»e ci gle warto podejmowa badania nad ulepszeniem istniej cych rozwi za«. Z drugiej strony, dotychczasowe badania nad detektorami zmian w kontek±cie pojedynczych klasykatorów wskazuj,»e zastosowanie jawnej detekcji poprawia wykrywanie nagªych zmian w danych [10]. Dlatego w niniejszej pracy postawiono hipotez o mo»liwo±ci integracji jawnego detektora zmian we wn trze blokowego klasykatora zªo»onego [2, 4, 5]. Dzi ki temu powinna poprawi si reakcja na zmiany poj. Ponadto, istniej ce klasykatory zªo»one maj du»e wymagania pami ciowe. Z tego wzgl du kolejn hipotez pracy jest to,»e dzi ki zaproponowanej integracji powinien zosta osi gni ty kompromis mi dzy satysfakcjonuj c trafno±ci klasykacji, a wydajno±ci obliczeniow klasykatora. W przypadku przetwarzania przyrostowego pojedynczych przykªadów w niniejszej rozprawie skoncentrowano si na klasykatorach reguªowych. Zauwa»ono bowiem,»e przyrostowe generowanie reguª decyzyjnych nie jest zbyt popularne 2

w ±rodowisku uczenia si ze zmiennych ±rodowisk [3, 13, 14]. Reguªy decyzyjne mog by w ªatwy sposób dostosowane do zmian zachodz cych w danych poprzez usuni cie lub modykacj poszczególnych reguª. Dzi ki pokrywaniu fragmentów przestrzeni s one znacznie bardziej elastyczn reprezentacj wiedzy ni» drzewa decyzyjne, gdy» nie wymagaj przebudowy caªego modelu. Ponadto, w uczeniu przyrostowym, reguªy decyzyjne mog wymaga mniejszej liczby zmian. Pomimo powy»szych zalet reguª decyzyjnych, liczba algorytmów ucz cych si ze zmiennych ±rodowisk jest bardzo ograniczona i obejmuje mniej propozycji w stosunku do innych rozwi za«[3, 13, 14]. Dokonuj c krytycznej analizy aktualnego stanu literatury zauwa»ono ograniczenia dotychczasowych metod. Z tego wzgl du sformuªowano kolejn hipotez badawcz, która dotyczy mo»liwo±ci stworzenia nowego algorytmu przyrostowej indukcji reguª, który b dzie konkurencyjny wobec poprzednio zaproponowanych rozwi za«. Bior c pod uwag przedstawione wcze±niej hipotezy badawcze, sformuªowano nast puj ce cele niniejszej rozprawy: Zaproponowanie algorytmu Batch Weighted Ensemble, które integruje jawny detektor zmiany Batch Drift Detection Method z blokowym klasykatorem zªo»onym Batch Weighted Ensemble. Zaproponowanie rozszerzenia tego algorytmuonline Batch Weighted Ensemble, które umo»liwi przyrostowe przetwarzania danych strumieniowych. Zaproponowanie nowego algorytmu przyrostowej indukcji reguª RILL przetwarzaj cego strumienie danych przy zmieniaj cej si denicji klas. 2 Klasykator Batch Weighted Ensemble (BWE) W pierwszej kolejno±ci w niniejszej rozprawie zaproponowano integracj jawnego detektora zmian z blokowym klasykatorem zªo»onym. Celem takiej kombinacji byªo osi gni cie zadowalaj cego kompromisu pomi dzy satysfakcjonuj c trafno- ±ci klasykacji, a wydajno±ci klasykatora. Wst pna propozycja nowego algorytmu zwanego Batch Weighted Ensemble (BWE) zostaªa wprowadzona w [2], a nast pnie jego udoskonalona wersja zostaªa poddana szczegóªowej ocenie porównawczej w pracy [5]. Algorytm BWE skªada si z dwóch elementów: jawnego detektora zmian Batch Drift Detection Method (BDDM), blokowego klasykatora zªo»onego Batch Weighted Ensemble (BWE). Nowo zaproponowany detektor BDDM, w przeciwie«stwie do wi kszo±ci istniej cych propozycji detektorów, które s przyrostowe, przetwarza dane w blokach 3

o staªym rozmiarze. Jego innowacyjno± polega tak»e na tym,»e wykorzystuje regresj liniow do sprawdzania, czy w ±rodowisku zaszªa zmiana. Dzi ki temu mechanizmowi zmniejszaj si koszty obliczeniowe zaproponowanego rozwi zania. Detektor BDDM zostaª zintegrowany z klasykatorem zªo»onym BWE. Klasy- kator ten znacz co ró»ni si od rozwi za«znanych z literatury. W szczególno±ci, nie musi on budowa nowego klasykatora bazowego dla ka»dego przetwarzanego bloku danych. Ponadto, wykorzystuje on nieliniow funkcj wagowania klasykatorów skªadowych, która dziaªa lepiej ni» funkcja liniowa. Dzi ki temu klasy- katory bazowe, które zbyt cz sto myl si w klasykacji maj mniejszy wpªyw na ko«cow odpowied¹ systemu. Dodatkowo, BWE nie dopuszcza do sytuacji, w której wszystkie klasykatory bazowe zostan usuni te. Powy»sza propozycja zostaªa poddana ocenie eksperymentalnej. Algorytm Batch Weighted Ensemble zostaª porównany z 5 klasykatorami dedykowanymi do przetwarzania strumieni danych, tj. blokowym klasykatorem zªo»onym Accuracy Weighed Ensemble (AWE) [21], klasykatorem zªo»onym Adaptive Classiers- Ensemble (ACE) [18], a tak»e pojedynczymi drzewami decyzyjnymi generowanymi za pomoc algorytmu C4.5 obudowanymi w standardowy detektor DDM [12] oraz jego blokow wersj BatchDDM. Do porównania jako±ci testowanych metod wybrano 9 zbiorów danych odpowiadaj cych ró»nym scenariuszom zmian. Klasykatory oceniano przy pomocy trzech powszechnie stosowanych miar oceny: trafno±ci klasykacji, zu»ycia pami ci oraz czasu przetwarzania. Najwa»niejszymi wnioskami wynikaj cymi z przeprowadzonych eksperymentów s : Klasykator BWE z nowym detektorm BDDM uzyskaª lepsze rezultaty trafno±ci klasykacji ni» BWE z blokow wersj DDM. Dla zbiorów ze stopniowymi zmianami BWE uzyskaª lepsze wyniki trafno±ci klasykacji ni» AWE, lecz dla danych rzeczywistych ró»nice te byªy ju» mniejsze. Porównuj c zu»ycie pami ci testowanych metod zauwa»y mo»na,»e BWE jest mniej kosztownym pami ciowo klasykatorem zªo»onym ni» AWE, który potrzebuje najwi cej pami ci. Z punktu widzenia czasu przetwarzania BWE dziaªa najszybciej spo±ród testowanych klasykatorów zªo»onych. AWE okazaª si by najwolniejszym klasykatorem. Nale»y jednak zauwa»y,»e wy»sze warto±ci trafno±ci klasykacji na wi kszo- ±ci zbiorów danych uzyskaª klasykator ACE, stanowi cy poª czenie klasykatora 4

zªo»onego z jawnym przyrostowym detektorem zmian oraz pojedynczym klasykatorem przyrostowym. Na podstawie tej obserwacji postawiono hipotez badawcz, w której postanowiono sprawdzi, czy wprowadzenie elementu przetwarzania przyrostowego poprawia dziaªanie klasykatora zªo»onego. 3 Klasykator Online Batch Weighted Ensemble (OBWE) Opieraj c si na tej hipotezie zaproponowano rozszerzenie algorytmu BWE do algorytmu o nazwie Online Batch Weighted Ensemble (OBWE) [3]. Rozwi zanie to wprowadza element przyrostowo±ci do algorytmu czysto blokowego, który dotyczy tutaj zarówno modykacji w jawnym detektorze zmian, jak i przeª czenie si na mechanizm okna przesuwanego w klasykatorze zªo»onym. Klasykator zªo»ony OBWE przetwarza dane ucz ce przykªad po przykªadzie oraz umo»liwia natychmiastow reakcj na wykryt zmian. Do wykrywania zmian wykorzystywany jest nowy detektor Online Batch Drift Detection Method (OBDDM), który w przeciwie«stwie do swojego poprzednika nie wykrywa zmian po ka»dym bloku danych, lecz po zgromadzeniu wystarczaj cej liczby przykªadów deniowanej jako okno regresji. Zaproponowany algorytm OBWE zostaª poddany analizie eksperymentalnej, w której zostaª porównany z blokowym klasykatorem Accuracy Weighted Ensemble (AWE) [21] oraz swoim prekursorem, tj. klasykatorem Batch Weighted Ensemble (BWE) z detektorem Batch Drift Detection Method [5]. Porównanie wykonano na tych samych zbiorach i z wykorzystaniem tych samych miar oceny, co w ocenie eksperymentalnej algorytmu BWE. Najwa»niejszymi konkluzjami wynikaj cymi z przeprowadzonych eksperymentów s : Klasykator OBWE uzyskaª najwy»sz warto± trafno±ci klasykacji. Z punktu widzenia tej miary oceny jest on zdecydowanie lepszy od standardowego klasykatora BWE oraz AWE. Porównanie ró»nych rozmiarów okna regresji doprowadziªo do rekomendacji warto±ci 100 przykªadów, z uwagi na trafno± klasykowania i koszty pami ci. Zarejestrowane warto±ci zu»ycia pami ci pozwalaj stwierdzi,»e OBWE zu»ywa wi cej pami ci ni» jego prekursor (±rednio potrzebuje 1,75 razy wi cej pami ci), lecz nadal jest to ni»sza warto± od klasykatora AWE. Analizuj c wpªyw rozmiaru okna regresji na zaj to± pami ci zauwa»y mo»na,»e im przyj ty rozmiar jest ni»szy, tym wymagania pami ciowe rosn. 5

Z punktu widzenia czasu dziaªania, okazaªo si,»e OBWE jest szybsze od klasykatora AWE, lecz wolniejsze od standardowego klasykatora BWE. Dodatkowo zauwa»ono,»e im ni»szy rozmiar okna regresji zostaª wybrany, tym klasykator OBWE dziaªa dªu»ej. Wyniki przeprowadzonej analizy eksperymentalnej pokazaªy,»e OBWE, z uwagi na to,»e umo»liwia szybsz reakcj na zmian, zdecydowanie poprawiª wyniki uzyskane na trafno±ci klasykacji w stosunku do swojego poprzednika BWE. Mo»na zatem stwierdzi,»e hipoteza o tym, i» element przyrostowo±ci poprawia wyniki tej miary oceny systemu ucz cego si ze strumieni danych zostaªa potwierdzona. 4 Klasykator BWE vs. klasykator OBWE Warto si zatem zastanowi nad tym, czy nowe rozszerzenie OBWE nie zast puje poprzedniej wersji, czyli algorytmu BWE. Odpowied¹ na to pytanie jest zªo»ona, gdy» zale»y od wielu czynników. Po pierwsze, algorytm BWE jest rozwi zaniem w peªni blokowym, a algorytm OBWE przetwarza przykªady w sposób przyrostowy z wykorzystaniem okna przesuwnego. Oba modele przetwarzania danych s zdecydowanie ró»ne i w zasadzie si wykluczaj. Je±li dane s dost pne w sposób przyrostowy, to OBWE jest skuteczniejszy. Jednak»e w cz ±ci zastosowa«, gdzie dane b d napªywaªy w blokach lub informacja o prawdziwej etykiecie klasy decyzyjnej przykªadu mo»e nie by znana od razu, to OBWE nie b dzie mógª by u»yty. W takiej sytuacji nale»y skorzysta z algorytmu BWE, który osi ga kompromis pomi dzy trafno±ci a wydajno±ci klasykatora. Drugim kryterium, które nale»y wzi pod uwag s dopuszczalne koszty obliczeniowe. W niniejszej pracy pokazano,»e algorytm BWE charakteryzuj najni»sze koszty obliczeniowe w porównaniu z klasykatorem OBWE oraz AWE. Je±li zatem w danym zastosowaniu koszty te s bardzo krytyczne, to stanowi to przesªank do skorzystania z algorytmu BWE zamiast algorytmu OBWE. Ostatecznie, bior c pod uwag opisane powy»ej dwa aspekty, koncepcja algorytmu OBWE nie zast puje caªkowicie swojego prekursoraalgorytmu BWE. Z tego wzgl du oba rozwi zania zostaªy omówione w niniejszej rozprawie. 5 Algorytm przyrostowej indukcji reguª RILL Dodatkowo, w niniejszej rozprawie doktorskiej rozwa»ane jest tak»e czysto przyrostowe przetwarzanie strumieni danych, w ramach którego skoncentrowano si na klasykatorach reguªowych. Dokonuj c krytycznej analizy aktualnego stanu 6

literatury zauwa»ono ograniczenia dotychczasowych propozycji, które stanowi motywacj do zaproponowania nowego algorytmu przyrostowej indukcji reguª decyzyjnych o nazwie RILL [6]. Oryginalno± nowego podej±cia w stosunku do znanych algorytmów polega na: wykorzystaniu podwójnej reprezentacji wiedzy, która ª czy uogólnione reguªy decyzyjne z opisem pojedynczych przykªadów ucz cych. Umo»liwia to lepsze modelowanie skomplikowanych poj o nieliniowych granicach, zawieraj cych dekompozycj klas na maªe podpoj cia, a tak»e na ±ledzenie ich ewolucji w czasie. wykorzystaniu generalizacji typu bottom-up opartej na idei najbli»szej reguªy, w której stosowana jest do± intuicyjna miara oceny, wyposa»eniu w prosty mechanizm zapominania wykorzystuj cy okno przesuwne, zastosowaniu bardziej agresywnego mechanizmu przycinania reguª opieraj cego si na monitorowaniu ich wieku, ufno±ci, a tak»e zdolno±ci predykcyjnych, wyposa»eniu w strategi klasykacyjn opart tak»e na najbli»szym s siedztwie reguª lub przykªadów. Dokonano analizy eksperymentalnej zaproponowanego rozwi zania, w ramach której przeprowadzono dwie grupy bada«. W pierwszej kolejno±ci zbadano wpªyw parametrów RILLa na jego dziaªanie poprzez zbadanie ró»nych konguracji ich warto±ci. Nast pnie, po ustaleniu najlepszej konguracji RILLa, zostaª on porównany z innymi popularnymi klasykatorami dedykowanymi strumieniom danych. Do porównania wybrano dwa klasykatory reguªowe: FACIL [8, 9] oraz Very Fast Decision Rules (VFDR) [11, 13, 14], a tak»e dla spójno±ci z poprzednimi eksperymentami klasykatora VFDR, algorytm przyrostowej indukcji drzew decyzyjnych Very Fast Decision Trees (VFDT) [7] zostaª tak»e wzi ty pod uwag. W celu przeprowadzenia oceny eksperymentalnej zdecydowano si na 15 ró»nych zbiorów danych odpowiadaj cych ró»nym scenariuszom zmian. Podobnie jak w poprzednich badaniach, wybrano 3 popularne miary oceny: trafno± klasykacji, rozmiar aktualnego modelu wyra»ony poprzez zu»ycie pami ci oraz caªkowity czas dziaªania od pocz tku uczenia. Najwa»niejszymi wnioskami wynikaj cymi z przeprowadzonych eksperymentów s : RILL szybko powraca do dobrej trafno±ci klasykacji po zaj±ciu nagªych lub stopniowych zmian na zbiorach opisanych tylko atrybutami nominalnymi. 7

RILL okazaª si bardzo skuteczny na danych ze skomplikowanymi granicami poj oraz na danych rzeczywistych. Nie byª on ju» tak dobry dla danych opisanych wyª cznie na atrybutach numerycznych zawieraj cych stopniowe zmiany. Analiza wykresów trafno±ci wskazuje,»e algorytm RILL szybciej ni» inne osi ga wy»sze warto±ci trafno±ci i równocze±nie szybciej powraca do dobrej predykcji po zaj±ciu zmiany w strumieniu (w szczególno±ci nagªych). Z punktu widzenia zu»ycia pami ci, RILL jest zdecydowanie mniej kosztowny ni» pozostaªe testowane klasykatory reguªowe, tj. FACIL oraz VFDR. Z punktu widzenia czasu przetwarzania, RILL okazaª si by najszybszym klasykatorem reguªowym. Pomimo dobrych wyników eksperymentalnych istniej dalsze mo»liwo±ci rozbudowy algorytmu RILL. Po pierwsze warto by zbada poª czenie zaproponowanego algorytmu przyrostowego z zewn trznym detektorem zmian. Dzi ki temu mogªaby poprawi si skuteczno± dostosowywania si do zmian zachodz cych w danych. Ponadto nale»aªoby tak»e rozszerzy istniej c generalizacj reguª o pomijanie warunków elementarnych dla atrybutów liczbowych. Dzi ki temu budowane reguªy w bardziej ogólny sposób odzwierciedlaªyby aktualne poj cia. Kolejnym aspektem wartym rozwa»enia jest sterowanie szeroko±ci okna przesuwnego z ostatnimi przykªadami ucz cymi. 6 Podsumowanie W ramach niniejszej rozprawy doktorskiej zaproponowane zostaªy trzy algorytmy dedykowane do przetwarzania strumieni danych przy zmieniaj cej si denicji klas: algorytm Batch Weighted Ensemble, który integruje jawny detektor zmiany Batch Drift Detection Method z blokowym klasykatorem zªo»onym Batch Weighted Ensemble, rozszerzenie algorytmu BWE nazwane Online Batch Weighted Ensemble, które umo»liwia przyrostowe przetwarzania danych strumieniowych, algorytm przyrostowej indukcji reguª o nazwie RILL. 8

Powy»sze propozycje algorytmów zostaªy poddane analizie eksperymentalnej na danych odpowiadaj cych ró»nym scenariuszom zmian i zostaªy ocenione za pomoc trzech miar: trafno±ci klasykacji, zu»ycia pami ci oraz czasu przetwarzania. Uzyskane wyniki pokazaªy,»e wszystkie cele badawcze niniejszej rozprawy zostaªy zrealizowane oraz wszystkie postawione hipotezy badawcze zostaªy pozytywnie zwerykowane. 9

Literatura [1] Brzezi«ski, D. Mining data streams with concept drift. Praca magisterska, Politechnika Pozna«ska, Pozna«, Polska, 2010. 2 [2] Deckert, M. Batch weighted ensemble for mining data streams with concept drift. W Proceedings of the 19th International Symposium on Methodologies for Intelligent Systems, ISMIS 2011 (Warszawa, Polska, 2011), vol. 6804 of LNCS, str. 290299. 2, 3 [3] Deckert, M. Incremental rule-based learners for handling concept drift: an overview. Foundations of Computing and Decision Sciences 38, 1 (2013), 3565. 2, 3, 5 [4] Deckert, M. Online batch weighted ensemble for mining data streams with concept drift. W Proceedings of the New Frontiers in Mining Complex Patterns Workshop, ECML/PKDD 2013 (Praga, Czechy, 2013), str. 7687. 2 [5] Deckert, M., Stefanowski, J. Comparing block ensembles for data streams with concept drift. W Workshop Mining Complex and Stream Data, ADBIS 2012 (Pozna«, Polska, 2012), vol. 185 of AISC, str. 6978. 2, 3, 5 [6] Deckert, M., Stefanowski, J. RILL: Algorithm for learning rules from streaming data with concept drift. W Proceedings of the 21th International Symposium on Methodologies for Intelligent Systems, ISMIS 2014 (Roskilde, Denmark, 2014), vol. 8502 of LNAI, str. 2029. 7 [7] Domingos, P., Hulten, G. Mining high-speed data streams. W Proceedings of the KDD 2000 (2000), ACM Press, str. 7180. 1, 7 [8] Ferrer-Troyano, F., Aguilar-Ruiz, J., Riquelme, J. Incremental rule learning and border examples selection from numerical data streams. Journal of Universal Computer Science 11 (2005), 14261439. 7 [9] Ferrer-Troyano, F., Aguilar-Ruiz, J., Riquelme, J. Data streams classication by incremental rule learning with parametrized generalization. W Pro- 10

LITERATURA ceedings of ACM Symposium on Applied Computing 2006, SAC 2006 (2006), ACM, str. 657661. 7 [10] Gama, J. Knowledge Discovery from Data Streams. CRC. Springer, 2010. 1, 2 [11] Gama, J., Kosina, P. Learning decision rules from data streams. W Proceedings of 22th International Joint Conference on Articial Intelligence, IJCAI 11 (2011), vol. 2, AAAI Press, str. 12551260. 7 [12] Gama, J., Medas, P., Castillo, G., Rodrigues, P. Learning with drift detection. W Proceedings of Brazilian Symposium on Articial Intelligence, SBIA 2004 (2004), vol. 3171 of LNAI, Springer-Verlag, str. 286295. 4 [13] Kosina, P., Gama, J. Handling time changing data with adaptive very fast decision rules. W Proceedings of the 2012 European Conference on Machine Learning and Knowledge Discovery in Databases, ECML/PKDD 2012 (Bristol, Anglia, 2012), vol. 1, str. 827842. 3, 7 [14] Kosina, P., Gama, J. Very fast decision rules for multi-class problems. W Proceedings of the 2012 ACM Symposium on Applied Computing (Nowy Jork, USA, 2012), str. 795800. 3, 7 [15] Krawiec, K., Stefanowski, J. Uczenie maszynowe i sieci neuronowe. Wydawnictwo Politechniki Pozna«skiej, Pozna«, Polska, 2004. 1 [16] Kuncheva, L. Classier ensembles for changing environments. W Proceedings of 5th International Workshop on Multiple Classier Systems, MCS 04 (2004), vol. 3077 of LNCS, Springer-Verlag, str. 115. 2 [17] Kuncheva, L. Classier ensembles for detecting concept change in streaming data: Overview and perspectives. W Proceedings 2nd Workshop SUEMA 2008, ECAI 2008 (Patras, Grecja, 2008), str. 510. 2 [18] Nishida, K., Yamauchi, K., Omori, T. ACE: Adaptive classiers-ensemble system for concept-drifting environments. W Proceeding of the International Workshop on Multiple Classier Systems (2005), vol. 3541 of LNCS, str. 176 185. 2, 4 [19] Schlimmer, J., Granger, R. Incremental learning from noisy data. Machine Learning 1 (1986), 317357. 1 [20] Stefanowski, J., Cuzzocrea, A., l zak, D. Processing and mining complex data streams. Information Sciences 285 (2014), 6365. 1 11

LITERATURA [21] Wang, H., Fan, W., Yu, P., Han, J. Mining concept-drifting data streams using ensemble classiers. W Proceedings of the ACM SIGKDD (2003), str. 226235. 4, 5 [22] Widmer, G., Kubat, M. Learning in the presence of concept drift and hidden contexts. Machine Learning 23 (1996), 69101. [23] Zliobaite, I. Learning under concept drift: an overview. Raport techniczny, Wydziaª Matematyki i Informatyki, Uniwersytet w Wilnie, Wilno, Litwa, 2009. 2 12