mgr inż. Magdalena Deckert Poznań, r. Metody przyrostowego uczenia się ze strumieni danych.

Podobne dokumenty
RILL - przyrostowy klasyfikator regułowy uczący się ze zmiennych środowisk

mgr inż. Magdalena Deckert Poznań, r. Uczenie się klasyfikatorów przy zmieniającej się definicji klas.

SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska

WYKŁAD 6. Reguły decyzyjne

Odkrywanie wiedzy w danych

Konkurs z przedmiotu eksploracja i analiza danych: problem regresji i klasyfikacji

Sztuczna Inteligencja Projekt

Systemy eksperowe. Agnieszka Nowak Brzezińska Wykład I

Algorytmy metaheurystyczne Wykład 11. Piotr Syga

B jest globalnym pokryciem zbioru {d} wtedy i tylko wtedy, gdy {d} zależy od B i nie istnieje B T takie, że {d} zależy od B ;

Dariusz Brzeziński. Politechnika Poznańska

Spis treści. Konwencje zastosowane w książce...5. Dodawanie stylów do dokumentów HTML oraz XHTML...6. Struktura reguł...9. Pierwszeństwo stylów...

ALGORYTMY SZTUCZNEJ INTELIGENCJI

Systemy uczące się wykład 2

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

LEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów

1.7. Eksploracja danych: pogłębianie, przeszukiwanie i wyławianie

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Zapisywanie algorytmów w języku programowania

Eksploracja danych. KLASYFIKACJA I REGRESJA cz. 2. Wojciech Waloszek. Teresa Zawadzka.

INDUKOWANE REGUŁY DECYZYJNE ALORYTM APRIORI JAROSŁAW FIBICH

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

ODPOWIEDNIKI PRZETARGOWE - INSTRUKCJA

Metody Sztucznej Inteligencji II

Laboratorium 11. Regresja SVM.

Automatyczne wyodrębnianie reguł

Identyfikacja istotnych atrybutów za pomocą Baysowskich miar konfirmacji

Wprowadzenie do klasyfikacji

Normalizacja baz danych

Teraz bajty. Informatyka dla szkoły podstawowej. Klasa VI

Obliczenia iteracyjne

Testowanie modeli predykcyjnych

ZeroR. Odpowiada zawsze tak samo Decyzja to klasa większościowa ze zbioru uczącego A B X 1 5 T 1 7 T 1 5 T 1 5 F 2 7 F

Metody Kompilacji Wykład 3

w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych.

Microsoft Office 2016 Krok po kroku

Reguły decyzyjne, algorytm AQ i CN2. Reguły asocjacyjne, algorytm Apriori.

5. Model sezonowości i autoregresji zmiennej prognozowanej

Wymagania edukacyjne z informatyki dla uczniów klas VI SP nr 53 w Krakowie w roku szkolnym 2019/2020

komputery? Andrzej Skowron, Hung Son Nguyen Instytut Matematyki, Wydział MIM, UW

Wybrane zagadnienia uczenia maszynowego. Zastosowania Informatyki w Informatyce W2 Krzysztof Krawiec

Analiza metod wykrywania przekazów steganograficznych. Magdalena Pejas Wydział EiTI PW

wiedzy Sieci neuronowe

Aproksymacja funkcji a regresja symboliczna

Sztuczna Inteligencja Projekt

8. Drzewa decyzyjne, bagging, boosting i lasy losowe

Opis nowych funkcji w programie Symfonia Handel w wersji 2010

Projekt Sieci neuronowe

Jazda autonomiczna Delphi zgodna z zasadami sztucznej inteligencji

Monitoring procesów z wykorzystaniem systemu ADONIS. Krok po kroku

SZTUCZNA INTELIGENCJA

WSPOMAGANIE DECYZJI - MIŁOSZ KADZIŃSKI LAB IV ZBIORY PRZYBLIŻONE I ODKRYWANIE REGUŁ DECYZYJNYCH

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

TP1 - TABELE PRZESTAWNE od A do Z

METODY INŻYNIERII WIEDZY

Lekcja 5: Sieć Kohonena i sieć ART

Metody klasyfikacji danych - część 1 p.1/24

9. Praktyczna ocena jakości klasyfikacji

Laboratorium 4. Naiwny klasyfikator Bayesa.

Testowanie hipotez statystycznych

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych. Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS

MODELOWANIE PRZEPŁYWU DANYCH

Prof. Stanisław Jankowski

Metody probabilistyczne klasyfikatory bayesowskie

Metody przeszukiwania

Instrukcja do ćwiczenia P4 Analiza semantyczna i generowanie kodu Język: Ada

ALGORYTMICZNA I STATYSTYCZNA ANALIZA DANYCH

Drzewa decyzyjne i lasy losowe

Wybrane zadania przygotowujące do egzaminu z ISO- cz. 2. dr Piotr Wąsiewicz

ALGORYTMY EWOLUCYJNE W OPTYMALIZACJI JEDNOKRYTERIALNEJ

Ewelina Dziura Krzysztof Maryański

Szpieg 2.0 Instrukcja użytkownika

ALGORYTM RANDOM FOREST

Wprowadzenie Sformułowanie problemu Typy reguł asocjacyjnych Proces odkrywania reguł asocjacyjnych. Data Mining Wykład 2

Programowanie współbieżne Wykład 2. Iwona Kochańska

Planowanie drogi robota, algorytm A*

Systemy ekspertowe. Krzysztof Patan

Księgarnia PWN: Kevin Kenan - Kryptografia w bazach danych. Spis treści. Podziękowania O autorze Wprowadzenie... 15

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Hierarchiczna analiza skupień

Wprowadzenie do uczenia maszynowego

Myśl w języku Python! : nauka programowania / Allen B. Downey. Gliwice, cop Spis treści

Ocena pozycji szachowych w oparciu o wzorce

Rozkład materiału do zajęć z informatyki. realizowanych według podręcznika

6. Zagadnienie parkowania ciężarówki.

Wymagania edukacyjne na poszczególne oceny. z przedmiotu Informatyki. w klasie VI

Generowanie i optymalizacja harmonogramu za pomoca

Reguły asocjacyjne. 1. Uruchom system weka i wybierz aplikację Knowledge Flow.

Statystyka od podstaw Janina Jóźwiak, Jarosław Podgórski

Metody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska

Data Mining podstawy analizy danych Część druga

TEORETYCZNE PODSTAWY INFORMATYKI

Elementy modelowania matematycznego

Analiza ściany oporowej

Podstawy Sztucznej Inteligencji (PSZT)

dr inż. Jarosław Forenc

Nowe funkcje w programie Symfonia Mała Księgowość

Optymalizacja optymalizacji

Transkrypt:

mgr inż. Magdalena Deckert Poznań, 30.11.2010r. Metody przyrostowego uczenia się ze strumieni danych.

Plan prezentacji Wstęp Concept drift i typy zmian Algorytmy przyrostowego uczenia się ze strumieni danych z concept drift FLORA AQ11-PM-WAH FACIL Podsumowanie 2

Wstęp Schemat tworzenia klasyfikatorów Dane uczące Klasyfikator Algorytm uczący 3

Wstęp Strumienie danych 4

Concept drift - definicja Concept drift oznacza, że właściwości klasy decyzyjnej, którą model próbuje przewidzieć, zmieniają się wraz z upływem czasu w nieprzewidziany sposób. Stwarza to problemy ponieważ trafność klasyfikacji maleje wraz z upływem czasu. 5

Concept drift Każdy przykład uczący Xt jest generowany przez źródło St. Jeśli wszystkie przykłady uczące są generowane przez to samo źródło, to mówimy, że pojęcia jest stabilne. Jeśli dla dwóch dowolnych punktów i oraz j Si Sj, to mówimy, że wystąpiło zjawisko concept drift. Szum nie jest traktowany jako zmiana. 6

Rodzaje zmian 7

Algorytmy przyrostowe Algorytm przyrostowy przetwarzanie etykietowanych danych po przykładzie. Algorytmy przyrostowe powstały znacznie wcześniej niż pojęcie concept drift. Najbardziej znanym algorytmem dostosowanym do przetwarzania zmiennych środowisk jest FLORA zaproponowana przez Widmera i Kubata w 1996. 8

FLORA Okno czasowe z zapamiętanymi przykładami uczącymi Przykłady są dodawane do okna gdy się pojawią. Najstarsze przykłady są usuwane z okna. Najprostszy przypadek okno o stałym rozmiarze. Stare przykłady są usuwane, gdy pojawią się nowe. 9

FLORA wiedza nieuporządkowany zbiór reguł z każdą hipotezą związane są 3 zbiory ADES, NDES, PDES ADES Accepted DEScriptors, zawiera tylko przykłady pozytywne NDES Negative DEScriptors, zawiera tylko przykłady negatywne PDES- Potential DEScriptors, zbyt ogólne, przykłady pozytywne i negatywne 10

FLORA Z każdym opisem pojęcia związane są liczniki przykładów z okna wspierających daną regułę. Liczniki są uaktualniane z każdym pojawieniem się nowego lub usunięciem starego przykładu uczącego z okna. Reguły przenoszone są między zbiorami ADES, NDES i PDES w zależności od wartości liczników. 11

FLORA Pojawienie się nowego przykładu pozytywnego może skutkować NDES przeniesienie reguły do PDES PDES zwiększenie licznika ADES Jeśli zostanie dopasowany do reguły zwiększany jest licznik związany z regułą. Jeśli reguła może zostać uogólniona, bez naruszania przykładów z innych zbiorów, to jest uogólniana. Opis przykładu jest dodawany jako nowa reguła. 12

FLORA 13

FLORA Rodzaje algorytmu FLORA FLORA stały rozmiar okna czasowego Dobór rozmiaru okna jest nietrywialny. Zbyt małe okno może nie mieć wystarczającej liczby przykładów do opisu stałych pojęć. Zbyt szerokie okno zwolni odpowiedź klasyfikatora na zmiany. 14

FLORA Rodzaje algorytmu FLORA FLORA2 dynamiczne dostosowywanie rozmiaru okna czasowego Dopasowywanie rozmiaru okna do zmian. Rozmiar okna jest zmniejszany o 20% w przypadku wystąpienia concept drift. Jeśli hipotezy są bardzo stabilne to rozmiar jest zmniejszany o 1. Jeśli wydaje się, że hipotezy są wystarczające to rozmiar się nie zmienia. W przypadku niewystarczającej wiedzy rozmiar jest zwiększany o 1. 15

FLORA 2 16

FLORA Zbiór testowy pojęcia STAGGER: 17

FLORA 2 Wyniki algorytmu FLORA 2 dla danych STAGGER: 18

FLORA 2 Rozmiar okna dla zbioru STAGGER: 19

FLORA Rodzaje algorytmu FLORA FLORA3 rozpoznawanie powracających opisów pojęć Pod koniec każdego cyklu uczenia sprawdzany aktualny stan wiedzy pod kątem wykorzystania poprzednich opisów pojęć. Opisy stałych pojęć są zapisywane w celu możliwego wykorzystania w przyszłości. Zapis oraz testowanie starych hipotez jest ściśle powiązane z WAH. 20

FLORA 3 3 kroki rozważania poprzednich opisów: Znalezienie najlepszego kandydata ocena na podstawie przykładów pokrytych z aktualnego okna Aktualizacja najlepszego kandydata obliczanie liczników dla reguł Porównywania najlepszego kandydata z aktualnymi opisami pojęć Poprzednie opisy są rozważane tylko w przypadku wystąpienia concept drift. 21

FLORA 3 Wyniki algorytmu FLORA 3 dla danych STAGGER: 22

FLORA Rodzaje algorytmu FLORA FLORA4 uodpornienie na szum Porzucenie ścisłego warunku spójności na rzecz bardziej łagodnego. Z każdą regułą związane są przedziały ufności, które określają kiedy regułę należy przenieść między zbiorami. Nie istnieje migracja pomiędzy zbiorami PDES i NDES. 23

FLORA 4 Efektem tej strategii jest dopuszczenie pokrywania przykładów negatywnych przez reguły ze zbiorów ADES i NDES. Zbiór PDES traktowany jest jako magazyn reguł, które są niewiarygodne, gdyż pokrywają za mało przykładów lub za dużo przykładów negatywnych. Miary trafności predykcji dla hipotez obliczane są zawsze dla aktualnego okna czasowego. 24

FLORA 4 Wyniki algorytmu FLORA 4 dla danych STAGGER : 25

FLORA 4 Wyniki algorytmu FLORA 4 dla danych STAGGER z 10% szumu: 26

FLORA 4 Wyniki algorytmu FLORA 4 dla danych STAGGER z 20% szumu: 27

FLORA 4 Wyniki algorytmu FLORA 4 dla danych STAGGER z 40% szumu: 28

AQ11-PM+WAH Ogólne działanie algorytmu AQ Algorytm wybiera przykład z klasy pozytywnej Uogólnia jego opis tak, aby nie pokryć przykładów z klasy negatywnej i formuje regułę. Przykłady pokryte przez regułę są usuwane i proces generowania kolejnych reguł jest powtarzany. Algorytm w taki sam sposób generuje reguły dla klasy negatywnej. 29

AQ11-PM+WAH Algorytm AQ11 jest rozszerzeniem AQ na algorytm uczenia przyrostowego reguł bez pamięci przykładów. AQ11 wykorzystuje zdolność AQ do generowania reguł pokrywających rozdzielne zbiory. Przykłady uczące są najbardziej specyficznymi regułami. 30

AQ11-PM+WAH Generalizując regułę dla przykładów pozytywnych AQ11 tworzy zbiór składający się z reguły i niepokrytych przykładów pozytywnych. Następnie AQ11 wykorzystuje algorytm AQ do wygenerowania pokrycia przeciwko przykładom negatywnym. AQ11 jest wrażliwy na kolejność przychodzących przykładów. 31

AQ11-PM+WAH AQ11-PM posiada częściową pamięć przykładów. AQ11-PM wykorzystuje wygenerowane reguły do selekcji przykładów granicznych i je zapamiętuje. Kiedy pojawiają się nowe przykłady algorytm łączy je z tymi przechowywanymi w pamięci i generuje nowy zbiór za pomocą AQ11. 32

AQ11-PM+WAH Algorytm AQ11-PM posiada ukryty mechanizm zapominania. W celu śledzenia zmian w środowisku niezbędny może być jawny mechanizm zapominania. Algorytm AQ11-PM połączono z heurystyką WAH zaproponowaną przez Widmera i Kubata. 33

AQ11-PM+WAH 34

FACIL Fast and Adaptive Classifier by Incremental Learning Podstawą podejścia jest fakt, że reguły mogą być niespójne. Z regułami związany jest próg minimalnej czystości definiowany przez użytkownika. 35

FACIL Kiedy próg zostanie osiągnięty, przykłady związane z regułą zostają wykorzystane do wygenerowania nowych spójnych reguł. Podejście zbliżone do AQ11. Różni się tym, że dla jednego pokrytego przykładu negatywnego zapamiętywane są dwa przykłady pozytywne. Zapamiętywane przykłady niekoniecznie są graniczne. 36

FACIL Każda reguła opisana jest m atrybutowym zbiorem przedziałów zawierających dolną i górną granicę. Reguły przechowywane są w oddzielnych zbiorach w zależności od etykiety klasy decyzyjnej. Model jest uaktualniany z każdym przybyciem nowego przykładu uczącego. 37

FACIL Z każdym nowym przykładem związane są 3 możliwe sytuacje: Dopasowanie do reguł pozytywnych faworyzowane są reguły wymagające najmniejszych zmian na minimalnym zbiorze atrybutów. Dopasowanie do reguł negatywnych obliczanie nowej czystości reguły. Brak dopasowanych reguł generalizacja opisu przykładu, tak aby nie pokryć przykładów negatywnych. 38

FACIL Algorytm FACIL wyposażony został mechanizm zapominania. Ukryty mechanizm zapominania przykłady, które są już nieprzydatne do opisu granicy reguły są usuwane. Jawny mechanizm zapominania przykłady, które są starsze niż próg zdefiniowany przez użytkownika są usuwane. 39

Podsumowanie Krótkie wprowadzenie do strumieni danych Definicja concept drift oraz typy zmian. Regułowe algorytmy przyrostowe w zmiennych środowiskach. 40

Pytania 41

42