Wyk lad 8: Leniwe metody klasyfikacji



Podobne dokumenty
Systemy decyzyjne. Wykład 3: Wnioskowanie Boolowskie w obliczeniu Redutów i reguł decyzyjnych. Nguyen Hung Son. Nguyen Hung Son () 1 / 61

Baza danych dla potrzeb zgłębiania DMX

Wnioskowanie Boolowskie i teoria zbiorów przybli»onych

Systemy decyzyjne Wyk lad 4: Drzewa decyzyjne

Drzewa decyzyjne. Nguyen Hung Son. Nguyen Hung Son () DT 1 / 34

Metody indukcji reguł

Reguły decyzyjne, algorytm AQ i CN2. Reguły asocjacyjne, algorytm Apriori.

Indukowane Reguły Decyzyjne I. Wykład 3

WYKŁAD 11 Uczenie maszynowe drzewa decyzyjne

A Zadanie

SID Wykład 10 Systemy uczace się

Metody eksploracji danych 1. Wprowadzenie. Piotr Szwed Katedra Informatyki Stosowanej AGH 2016

Reguły asocjacyjne, wykł. 11

Hard-Margin Support Vector Machines

Wyk lad 7: Drzewa decyzyjne dla dużych zbiorów danych

Wprowadzenie. Data Science Uczenie się pod nadzorem

Matematyka stosowana. Systemy decyzyjne. Hung Son Nguyen

utrzymania swoich obecnych klientów i dowiedzia la sie, że metody data mining moga

Wnioskowanie Boolowskie i teoria zbiorów przybli»onych

Konwersatorium Matematyczne Metody Ekonomii narzędzia matematyczne w eksploracji danych. Podstawowe pojęcia

Co to są drzewa decyzji

Wybrane zagadnienia uczenia maszynowego. Zastosowania Informatyki w Informatyce W2 Krzysztof Krawiec

Rozpoznawanie twarzy metodą PCA Michał Bereta 1. Testowanie statystycznej istotności różnic między jakością klasyfikatorów

Instrukcja obsługi User s manual

TEMP BÓL WYSYPKA GARDŁO DIAGNOZA

Ćwiczenie 6. Hurtownie danych

Wybrane zagadnienia uczenia maszynowego

Sztuczna Inteligencja Projekt

Wprowadzenie do programu RapidMiner, część 2 Michał Bereta 1. Wykorzystanie wykresu ROC do porównania modeli klasyfikatorów

Systemy decyzyjne Wykªad 5: Drzewa decyzyjne

Extraclass. Football Men. Season 2009/10 - Autumn round

Camspot 4.4 Camspot 4.5

Agnieszka Nowak Brzezińska Wykład III

Testy jednostkowe - zastosowanie oprogramowania JUNIT 4.0 Zofia Kruczkiewicz

Helena Boguta, klasa 8W, rok szkolny 2018/2019

MEODY GRUPOWANIA DANYCH

Previously on CSCI 4622

Weronika Mysliwiec, klasa 8W, rok szkolny 2018/2019

Metody eksploracji danych 5. Klasyfikacja (kontynuacja)

Logika Stosowana. Wykład 9 - Wnioskowanie indukcyjne Część 2 Wnioskowanie bayesowskie. Marcin Szczuka. Instytut Matematyki UW

Machine Learning for Data Science (CS4786) Lecture 24. Differential Privacy and Re-useable Holdout

Machine Learning for Data Science (CS4786) Lecture11. Random Projections & Canonical Correlation Analysis

17-18 września 2016 Spółka Limited w UK. Jako Wehikuł Inwestycyjny. Marek Niedźwiedź. InvestCamp 2016 PL

Zarządzanie sieciami komputerowymi - wprowadzenie

TTIC 31210: Advanced Natural Language Processing. Kevin Gimpel Spring Lecture 8: Structured PredicCon 2

UMOWY WYPOŻYCZENIA KOMENTARZ

Rachunek lambda, zima

Wykaz linii kolejowych, które są wyposażone w urządzenia systemu ETCS

Wykaz linii kolejowych, które są wyposażone w urzadzenia systemu ETCS

Revenue Maximization. Sept. 25, 2018

Wyk lad z Algebry Liniowej dla studentów WNE UW. Rok akademicki 2017/2018. Przyk lady zadań na ćwiczenia. 1. Które z cia

Metody zbiorów przybliżonych w uczeniu się podobieństwa z wielowymiarowych zbiorów danych

LEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów

Sztuczna inteligencja

Healthix Consent Web-Service Specification

Steeple #3: Gödel s Silver Blaze Theorem. Selmer Bringsjord Are Humans Rational? Dec RPI Troy NY USA

Kraków, 14 marca 2013 r.

TTIC 31210: Advanced Natural Language Processing. Kevin Gimpel Spring Lecture 9: Inference in Structured Prediction

Hurtownia Świętego Mikołaja projekt bazy danych

Analiza danych DRZEWA DECYZYJNE. Drzewa decyzyjne. Entropia. test 1 dopełnienie testu 1

Wyk lad 7: Drzewa decyzyjne dla dużych zbiorów danych

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Zmiany techniczne wprowadzone w wersji Comarch ERP Altum

Machine Learning Systemy uczące się

deep learning for NLP (5 lectures)

Uczenie Maszynowe: reprezentacja wiedzy, wybór i ocena modelu, drzewa decyzjne

kdpw_stream Struktura komunikatu: Status komunikatu z danymi uzupełniającymi na potrzeby ARM (auth.ste ) Data utworzenia: r.

Zarządzanie sieciami telekomunikacyjnymi

Adrian Horzyk

Java Developers Day. Silniki reguł biznesowych

LED WASHER 30x3W WHITE IP65 F

PL Zjednoczona w różnorodności PL A8-0206/136. Poprawka 136 Marita Ulvskog w imieniu Komisji Zatrudnienia i Spraw Socjalnych

Reguły asocjacyjne w programie RapidMiner Michał Bereta

Zastrzegamy sobie prawo do zmiany cen oraz asortymentu bez wcze niejszego zawiadomienia.

ARNOLD. EDUKACJA KULTURYSTY (POLSKA WERSJA JEZYKOWA) BY DOUGLAS KENT HALL

New Roads to Cryptopia. Amit Sahai. An NSF Frontier Center

Komputerowa diagnoza medyczna tworzenie i interpretowanie. prof. dr hab. inż. Andrzej Walczak

Temat: The weather. Przebieg zajęć 1.Przywitanie z uczniami: T: Hello, children. Ss: Hello, teacher.

BLACKLIGHT SPOT 400W F

Karpacz, plan miasta 1:10 000: Panorama Karkonoszy, mapa szlakow turystycznych (Polish Edition)

Systemy uczące się wykład 2

Temporalne bazy danych

Metody klasyfikacji danych - część 1 p.1/24

First-order logic. Usage. Tautologies, using rst-order logic, relations to natural language

Admission to the first and only in the swietokrzyskie province Bilingual High School and European high School for the school year 2019/2020

Machine Learning for Data Science (CS4786) Lecture 11. Spectral Embedding + Clustering

Intro. I.Wojnicki, ZTB:XML ZTB: XML. Igor Wojnicki. Katedra Informatyki Stosowanej, Akademia Górniczo-Hutnicza w Krakowie.

y = The Chain Rule Show all work. No calculator unless otherwise stated. If asked to Explain your answer, write in complete sentences.

Traceability. matrix

O przecinkach i nie tylko

Zastosowania sieci neuronowych oraz modeli alternatywnych. PLAN WYKŁADU

Zbiory przybliżone, cz. 1 (wersja do druku) dr. Piotr Szczuko

BAZA DANYCH SIECI HOTELI

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Złaczenia tablic: FROM, WHERE, JOIN

Modelowanie hierarchicznych struktur w relacyjnych bazach danych

mgr inż. Magdalena Deckert Poznań, r. Metody przyrostowego uczenia się ze strumieni danych.

Eksploracja danych medycznych oraz metody sztucznej inteligencji

ANKIETA ŚWIAT BAJEK MOJEGO DZIECKA

Transkrypt:

Wyk lad 8: Leniwe metody Wydzia l MIM, Uniwersytet Warszawski

Outline 1 2

lazy vs. eager learning

lazy vs. eager learning

Kiedy stosować leniwe techniki? Eager learning: Buduje globalna hipoteze Zaleta: Prosty opis zbiór danych Szybki czas Wada: Czas uczenia sie jest obciażliwy Jakość nie wysoka Lazy learning: Buduje lokalna hipoteze Zaleta: Szybki czas uczenia sie Można projektować algorytmy on-line Wysoka dok ladność Wada: Czas d lugi Wymagania: funkcja odleg lości, strategia g losowania

Metody leniwego uczenia si e k-nn Po l aczenie k-nn z drzewem decyzyjnym Generowanie podzbioru regu l, które moga klasyfikować obiekt Generowanie poddrzewa decyzyjnego, które może klasyfikować obiekt

Outline 1 2

Regu lowy klasyfikator - eager learning Ogólny schemat: Uczenie si e: Generuj zbiór regu l Rules(T ) dla tablicy danych T Selekcja regu l: Wybierz zbiór M atchrules(t, x) zawierajacy regu ly, które pasuja do nowego obiektu x. klasyfikacja: Wyznacz klase decyzyjna dla x za pomoca g losowania na zbiorze M atchrules(d, x)

Regu lowy klasyfikator - lazy learning Ogólny schemat: Generowanie regu l: Generuj zbiór M atchrules(t, x) zawierajacy regu ly, które pasuja do nowego obiektu x. klasyfikacja: Wyznacz klase decyzyjna dla x za pomoca g losowania na zbiorze M atchrules(t, x)

description language (j ezyk deskryptorów) Let A be a set of attributes. The description language for A is a triple L(A) = (D, {,, }, F) where D is the set of descriptors D = {(a = v) : a A and v V al a } {,, } is a set of standard Boolean operators F is a set of boolean expressions defined on D called formulas. For any B A we denote by D B the set of descriptors restricted to B where D B = {(a = v) : a B and v V al a } We also denote by F B the set of formulas build from D B.

Semantyka w systemach informacyjnych The semantics Let S = (U, A) be an information table describing a sample U X. The semantics of any formula φ F, denoted by [[φ]] S, is defined by induction as follows: [[(a = v)]] S = {x U : a(x) = v} (1) [[φ 1 φ 2 ]] S = [[φ 1 ]] S [[φ 2 ]] S (2) [[φ 1 φ 2 ]] S = [[φ 1 ]] S [[φ 2 ]] S (3) [[ φ]] S = U \ [[φ]] S (4) We associate with every formula φ the following numeric features: length(φ) = the number of descriptors that occur in φ; support(φ) = [[φ]] S = the number of objects that match the formula;

Definicja Let S = {U, A {dec}} be a decision table. Any implication of a form φ δ where φ F A and δ F dec, is called the decision rule in S. The formula φ is called the premise of the decision rule r and δ is called the consequence of r. We denote the premise and the consequence of the decision rule r by prev(r) and cons(r), respectively.

regu ly... Generic decision rule The decision rule r whose the premise is a boolean monomial of descriptors, i.e., r (a i1 = v 1 )... (a im = v m ) (dec = k) (5) is called the generic decision rule. We will consider generic decision rules only. For a simplification, we will talk about decision rules keeping in mind the generic ones.

Regu ly... Every decision rule r of the form (5) can be characterized by the following featured: length(r) = the number of descriptor on the assumption of r (i.e. the left hand side of implication) [r] = the carrier of r, i.e. the set of objects from U satisfying the assumption of r support(r) = the number of objects satisfying the assumption of r: support(r) = card([r]) confidence(r) = [r] DEC k [r] The decision rule r is called consistent with A if confidence(r) = 1

Minimalne regu ly minimal consistent rules For a given decision table S = (U, A {dec}), the consistent rule: r = φ (dec = k) is called the minimal consistent decision rule if any decision rule φ (dec = k) where φ is a shortening of φ is not consistent with S.

Oparta o Wnioskowanie Boolowskie Każda regu la powstaje poprzez skracanie opisu jakiegoś obiektu. Redukty lokalne Te same heurystyki dla reduktów decyzyjnych.

Przyk lad tablicy decyzyjnej Hurt. Jakość obs lugi Jakość towaru Obok autostrady? Centrum? de ID a 1 a 2 a 3 a 4 1 dobra dobra nie nie st 2 dobra dobra nie tak st 3 bdb dobra nie nie z 4 slaba super nie nie z 5 slaba niska tak nie z 6 slaba niska tak tak st 7 bdb niska tak tak z 8 dobra super nie nie st 9 dobra niska tak nie z 10 slaba super tak nie z 11 dobra super tak tak z 12 bdb super nie tak z 13 bdb dobra tak nie 14 slaba super nie tak

Macierz i funkcja lokalnych odróżnialności M 1 2 6 8 3 a 1 a 1, a 4 a 1, a 2, a 3, a 4 a 1, a 2 4 a 1, a 2 a 1, a 2, a 4 a 2, a 3, a 4 a 1 5 a 1, a 2, a 3 a 1, a 2, a 3, a 4 a 4 a 1, a 2, a 3 7 a 1, a 2, a 3, a 4 a 1, a 2, a 3 a 1 a 1, a 2, a 3, a 4 9 a 2, a 3 a 2, a 3, a 4 a 1, a 4 a 2, a 3 10 a 1, a 2, a 3 a 1, a 2, a 3, a 4 a 2, a 4 a 1, a 3 11 a 2, a 3, a 4 a 2, a 3 a 1, a 2 a 3, a 4 12 a 1, a 2, a 4 a 1, a 2 a 1, a 2, a 3 a 1, a 4 f u3 = (α 1 )(α 1 α 4 )(α 1 α 2 α 3 α 4 )(α 1 α 2 ) = α 1 Regu ly: (a 1 = bdb) = dec = zysk

Macierz i funkcja lokalnych odróżnialności M 1 2 6 8 3 a 1 a 1, a 4 a 1, a 2, a 3, a 4 a 1, a 2 4 a 1, a 2 a 1, a 2, a 4 a 2, a 3, a 4 a 1 5 a 1, a 2, a 3 a 1, a 2, a 3, a 4 a 4 a 1, a 2, a 3 7 a 1, a 2, a 3, a 4 a 1, a 2, a 3 a 1 a 1, a 2, a 3, a 4 9 a 2, a 3 a 2, a 3, a 4 a 1, a 4 a 2, a 3 10 a 1, a 2, a 3 a 1, a 2, a 3, a 4 a 2, a 4 a 1, a 3 11 a 2, a 3, a 4 a 2, a 3 a 1, a 2 a 3, a 4 12 a 1, a 2, a 4 a 1, a 2 a 1, a 2, a 3 a 1, a 4 f u8 = (α 1 α 2 )(α 1 )(α 1 α 2 α 3 )(α 1 α 2 α 3 α 4 )(α 2 (α 1 α 3 )(α 3 α 4 )(α 1 α 4 ) = α 1 (α 2 α 3 )(α 3 α 4 ) = α 1 α 3 α 1 α 2 α 4 Regu ly: (a 1 = dobra) (a 3 = nie) = dec = strata (a 1 = dobra) (a 2 = super) (a 4 = nie) = dec = strata

Algorytm: rule selection

Przyk lad A a 1 a 2 a 3 a 4 dec ID outlook temp. hum. windy play 1 sunny hot high FALSE no 2 sunny hot high TRUE no 3 overcast hot high FALSE yes 4 rainy mild high FALSE yes 5 rainy cool normal FALSE yes 6 rainy cool normal TRUE no 7 overcast cool normal TRUE yes 8 sunny mild high FALSE no 9 sunny cool normal FALSE yes 10 rainy mild normal FALSE yes 11 sunny mild normal TRUE yes 12 overcast mild high TRUE yes 13 overcast hot normal FALSE yes 14 rainy mild high TRUE no x sunny mild high TRUE? A x d 1 d 2 d 3 d 4 dec ID a 1 x a 2 x a 3 x a 4 x dec 1 1 0 1 0 no 2 1 0 1 1 no 3 0 0 1 0 yes 4 0 1 1 0 yes 5 0 0 0 0 yes 6 0 0 0 1 no 7 0 0 0 1 yes 8 1 1 1 0 no 9 1 0 0 0 yes 10 0 1 0 0 yes 11 1 1 0 1 yes 12 0 1 1 1 yes 13 0 0 0 0 yes 14 0 1 1 1 no

Zbiór wsztstkich regu l rules supp. outlook(overcast) play(yes) 4 humidity(normal) AND windy(false) play(yes) 4 outlook(sunny) AND humidity(high) play(no) 3 outlook(rainy) AND windy(false) play(yes) 3 outlook(sunny) AND temperature(hot) play(no) 2 outlook(rainy) AND windy(true) play(no) 2 outlook(sunny) AND humidity(normal) play(yes) 2 temperature(cool) AND windy(false) play(yes) 2 temperature(mild) AND humidity(normal) play(yes) 2 temperature(hot) AND windy(true) play(no) 1 outlook(sunny) AND temperature(mild) AND windy(false) play(no) 1 outlook(sunny) AND temperature(cool) play(yes) 1 outlook(sunny) AND temperature(mild) AND windy(true) play(yes) 1 temperature(hot) AND humidity(normal) play(yes) 1 MatchRules(A, x) zawiera 2 regu ly: (outlook = sunny) AND (humidity = high) play = no (rule nr 3) (outlook = sunny) AND (temperature = mild) AND (windy = TRUE) play = yes (rule nr 13)

Przyk lad algorytmu leniwego λ max = 3; σ min = 1; α min = 1 i = 1 i = 2 C 1 check R 1 F 1 C 2 check R 2 F 2 {d 1 } (3,2) {d 1 } {d 1, d 2 } (1,1) {d 1, d 2 } {d 2 } (4,2) {d 2 } {d 1, d 3 } (3,0) {d 1, d 3 } {d 3 } (4,3) {d 3 } {d 1, d 4 } (1,1) {d 1, d 4 } {d 4 } (3,3) {d 4 } {d 2, d 3 } (2,2) {d 2, d 3 } {d 2, d 4 } (1,1) {d 2, d 4 } {d 3, d 4 } (2,1) {d 3, d 4 } i = 3 C 3 check R 3 F 3 {d 1, d 2, d 4 } (0,1) {d 1, d 2, d 4 } {d 2, d 3, d 4 } (1,1) {d 2, d 3, d 4 } MatchRules(A, x) = R 2 R 3 : (outlook = sunny) AND (humidity = high) play = no (outlook = sunny) AND (temperature = mild) AND (windy = TRUE) play = yes