WYKŁAD 11 Uczenie maszynowe drzewa decyzyjne

Podobne dokumenty
SZTUCZNA INTELIGENCJA

Uczenie się maszyn. Dariusz Banasiak. Katedra Informatyki Technicznej Wydział Elektroniki

SYSTEMY UCZĄCE SIĘ WYKŁAD 3. DRZEWA DECYZYJNE. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

Indukowane Reguły Decyzyjne I. Wykład 3

Przykład eksploracji danych o naturze statystycznej Próba 1 wartości zmiennej losowej odległość

Metody indukcji reguł

Drzewa decyzyjne. Nguyen Hung Son. Nguyen Hung Son () DT 1 / 34

Systemy decyzyjne Wyk lad 4: Drzewa decyzyjne

Data Mining Wykład 5. Indukcja drzew decyzyjnych - Indeks Gini & Zysk informacyjny. Indeks Gini. Indeks Gini - Przykład

Złożoność i zagadnienia implementacyjne. Wybierz najlepszy atrybut i ustaw jako test w korzeniu. Stwórz gałąź dla każdej wartości atrybutu.

Analiza danych DRZEWA DECYZYJNE. Drzewa decyzyjne. Entropia. test 1 dopełnienie testu 1

Wybrane zagadnienia uczenia maszynowego. Zastosowania Informatyki w Informatyce W2 Krzysztof Krawiec

Klasyfikacja obiektów Drzewa decyzyjne (drzewa klasyfikacyjne)

Co to są drzewa decyzji

Indukcja drzew decyzyjnych

SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska

ED Laboratorium 3. Drzewa decyzyjne

Metody klasyfikacji danych - część 1 p.1/24

Data Mining Kopalnie Wiedzy

Baza danych dla potrzeb zgłębiania DMX

Algorytmy metaheurystyczne Wykład 11. Piotr Syga

Sztuczna Inteligencja Projekt

Algorytmy klasyfikacji

Wstęp do programowania. Drzewa. Piotr Chrząstowski-Wachtel

Systemy decyzyjne Wykªad 5: Drzewa decyzyjne

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

Wybrane zagadnienia uczenia maszynowego

Klasyfikacja. Indeks Gini Zysk informacyjny. Eksploracja danych. Klasyfikacja wykład 2

Drzewa decyzyjne i lasy losowe

Reguły decyzyjne, algorytm AQ i CN2. Reguły asocjacyjne, algorytm Apriori.

Grafy (3): drzewa. Wykłady z matematyki dyskretnej dla informatyków i teleinformatyków. UTP Bydgoszcz

SZTUCZNA INTELIGENCJA

SID Wykład 10 Systemy uczace się

Ćwiczenie 6. Hurtownie danych

Drzewa klasyfikacyjne

ZALICZENIE WYKŁADU: 30.I.2019

Systemy uczące się wykład 2

SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006

Wyk lad 8: Leniwe metody klasyfikacji

Indukowane Reguły Decyzyjne I. Wykład 8

Wybrane zadania przygotowujące do egzaminu z ISO- cz. 2. dr Piotr Wąsiewicz

Algorytmy Równoległe i Rozproszone Część V - Model PRAM II

Wyk lad 7: Drzewa decyzyjne dla dużych zbiorów danych

Wykład 3. Złożoność i realizowalność algorytmów Elementarne struktury danych: stosy, kolejki, listy

Drzewa klasyfikacyjne

Wprowadzenie. Data Science Uczenie się pod nadzorem

3.2 Wykorzystanie drzew do generowania pytań

Reguły asocjacyjne, wykł. 11

Sortowanie. Kolejki priorytetowe i algorytm Heapsort Dynamiczny problem sortowania:

Wszechnica Poranna: Tendencje w rozwoju informatyki i jej zastosowań Odkrywanie struktur ukrytych w danych, czyli eksploracja danych

prowadzący dr ADRIAN HORZYK /~horzyk tel.: Konsultacje paw. D-13/325

ZeroR. Odpowiada zawsze tak samo Decyzja to klasa większościowa ze zbioru uczącego A B X 1 5 T 1 7 T 1 5 T 1 5 F 2 7 F

1 Działania na zbiorach

PODSTAWY STATYSTYCZNEGO MODELOWANIA DANYCH. Wykład 6 Drzewa klasyfikacyjne - wprowadzenie. Reguły podziału i reguły przycinania drzew.

Algorytmy klasyfikacji

TEORETYCZNE PODSTAWY INFORMATYKI

Drzewa klasyfikacyjne algorytm podstawowy

Zagadnienie najkrótszej drogi w sieci

Wprowadzenie do klasyfikacji

Temat: Algorytm kompresji plików metodą Huffmana

Data Mining Wykład 4. Plan wykładu

InTrees: Modularne podejście do Drzew Decyzyjnych

(4) x (y z) = (x y) (x z), x (y z) = (x y) (x z), (3) x (x y) = x, x (x y) = x, (2) x 0 = x, x 1 = x

Algorytmy i struktury danych. Co dziś? Tytułem przypomnienia metoda dziel i zwyciężaj. Wykład VIII Elementarne techniki algorytmiczne

Algorytmy i struktury danych. Drzewa: BST, kopce. Letnie Warsztaty Matematyczno-Informatyczne

Matematyka dyskretna Literatura Podstawowa: 1. K.A. Ross, C.R.B. Wright: Matematyka Dyskretna, PWN, 1996 (2006) 2. J. Jaworski, Z. Palka, J.

Struktury danych i złożoność obliczeniowa Wykład 5. Prof. dr hab. inż. Jan Magott

INDUKCJA DRZEW DECYZYJNYCH

Klasyfikacja. Sformułowanie problemu Metody klasyfikacji Kryteria oceny metod klasyfikacji. Eksploracja danych. Klasyfikacja wykład 1

E: Rekonstrukcja ewolucji. Algorytmy filogenetyczne

Matematyka dyskretna - 7.Drzewa

Kompresja bezstratna. Entropia. Kod Huffmana

Systemy uczące się Lab 4

Podstawy sztucznej inteligencji

Poprawność semantyczna

Algebrą nazywamy strukturę A = (A, {F i : i I }), gdzie A jest zbiorem zwanym uniwersum algebry, zaś F i : A F i

Moduł: algorytmy sztucznej inteligencji, wykład 3. Agnieszka Nowak Brzezińska

B jest globalnym pokryciem zbioru {d} wtedy i tylko wtedy, gdy {d} zależy od B i nie istnieje B T takie, że {d} zależy od B ;

Struktury danych i złożoność obliczeniowa Wykład 2. Prof. dr hab. inż. Jan Magott

Drzewa binarne. Drzewo binarne to dowolny obiekt powstały zgodnie z regułami: jest drzewem binarnym Jeśli T 0. jest drzewem binarnym Np.

Układy stochastyczne

Sztuczna Inteligencja Projekt

Struktury danych i złozoność obliczeniowa. Prof. dr hab. inż. Jan Magott

Wstęp do programowania. Drzewa podstawowe techniki. Piotr Chrząstowski-Wachtel

Algorytmy i Struktury Danych

Systemy uczące się wykład 1

Wykład X. Programowanie. dr inż. Janusz Słupik. Gliwice, Wydział Matematyki Stosowanej Politechniki Śląskiej. c Copyright 2016 Janusz Słupik

Wykłady z Matematyki Dyskretnej

Drzewa Decyzyjne, cz.2

Wstęp. Cechy: Spis treści

Sortowanie. Bartman Jacek Algorytmy i struktury

Drzewa klasyfikacyjne

Tworzenie gier na urządzenia mobilne

Drzewa klasyfikacyjne

Analiza semantyczna. Gramatyka atrybutywna

Graf. Definicja marca / 1

WYKŁAD: DRZEWA KLASYFIKACYJNE I REGRESYJNE. Metoda CART. MiNI PW

Drzewa Decyzyjne, cz.1

Rekurencje. Jeśli algorytm zawiera wywołanie samego siebie, jego czas działania moŝe być określony rekurencją. Przykład: sortowanie przez scalanie:

A Zadanie

Transkrypt:

WYKŁAD 11 Uczenie maszynowe drzewa decyzyjne Reprezentacja wiedzy w postaci drzew decyzyjnych entropia, przyrost informacji algorytmy ID3, C4.5 problem przeuczenia wyznaczanie reguł rzykładowe drzewo decyzyjne dla gry w Tenis ziemny: rzykład wykorzystania: Outlook: Temperature: Humidity: Wind: laytenis: Sunny Hot High Weak No Rain Medium High Weak Yes Drzewo dowolny spójny skierowany graf acykliczny. W drzewie decyzyjnym węzły środkowe (rozgałęzienia) przechowują testy sprawdzające wartości atrybutów przykładów, a węzły końcowe (liście) przechowują przypisane im kategorie. Naturalna reprezentacja, intuicyjnie oczywista dla człowieka! 1

rzestrzeń klasyfikacji: iloczyn Kartezjański X = X 1 X 2... X n skończonej liczby zbiorów X i, z których każdy jest albo zbiorem liczb rzeczywistych albo pewnym skończonym zbiorem obiektów. Zbiory X i nazywamy cechami lub atrybutami tej przestrzeni. Cechy będące zbiorem liczb rzeczywistych nazywamy cechami ciągłymi, natomiast cechy będące skończonymi zbiorami dyskretnych obiektów (np. identyfikatorów lub liczb całkowitych) nazywamy cechami dyskretnymi. Atrybuty dyskretne mogą być dodatkowo podzielone na: 1. nominalne (symboliczne) o skończonym zbiorze nieuporządkowanych wartości dyskretnych 2. porządkowe o przeliczalnym zbiorze uporządkowanych wartości dyskretnych Zbiór trenujący dla dziedziny pogody (z atrybutami dyskretnymi) Lp Aura Temperatura Wilgotność Wiatr Decyzja 1 słoneczna ciepła duża słaby nie 0 2 słoneczna ciepła duża silny nie 0 3 pochmurna ciepła duża słaby tak 1 4 deszczowa umiarkowana duża słaby tak 1 5 deszczowa zimna normalna słaby tak 1 6 deszczowa zimna normalna silny nie 0 7 pochmurna zimna normalna silny tak 1 8 słoneczna umiarkowana duża słaby nie 0 9 słoneczna zimna normalna słaby tak 1 10 deszczowa umiarkowana normalna słaby tak 1 11 słoneczna umiarkowana normalna silny tak 1 12 pochmurna umiarkowana duża silny tak 1 13 pochmurna ciepła normalna słaby tak 1 14 deszczowa umiarkowana duża silny nie 0 Zbiór trenujący dla dziedziny pogody (z atrybutami ciągłymi) Lp Aura Temperatura Wilgotność Wiatr Decyzja 1 słoneczna 27 55 2 nie 0 2 słoneczna 28 60 10 nie 0 3 pochmurna 29 65 3 tak 1 4 deszczowa 21 70 4 tak 1 5 deszczowa 17 20 5 tak 1 6 deszczowa 18 25 12 nie 0 7 pochmurna 19 30 14 tak 1 8 słoneczna 22 75 6 nie 0 9 słoneczna 20 35 7 tak 1 10 deszczowa 23 40 8 tak 1 11 słoneczna 24 45 16 tak 1 12 pochmurna 25 80 18 tak 1 13 pochmurna 30 50 9 tak 1 14 deszczowa 26 85 20 nie 0 2

Ogólny algorytm zstępującego budowania drzewa decyzyjnego: argumenty wejściowe funkcji: zbiór etykietowanych przykładów pojęcia c, d domyślna etykieta kategorii, S zbiór możliwych testów argument zwracany: węzeł-korzeń drzewa decyzyjnego reprezentującego hipotezę przybliżającą (aproksymującą) pojęcie c na zbiorze przykładów FUNCTION buduj_drzewo(, d, E ) : drzewo // podjęcie decyzji czy to jest węzeł końcowy - liść 1: IF spełnione kryterium stopu(,s) THEN 2: BEGIN 3: utwórz węzeł-liść l ; 4: d l := wyznacz_kategorię(,d) 5: RETURN węzeł l ; 6: END; // wybranie najlepszego testu dzielącego // i rekurencyjny podział na pod-węzły 7: utwórz węzeł n ; 8: t n := wybierz_test(,s); 9: d := wyznacz_kategorię(,d); 10: FOR_ALL wynik testu r R tn DO 11: n[r] := buduj_drzewo( tn, d, S-{t n }); 12: RETURN węzeł n ; 3

Jak wybierać test - miara przyrostu informacji W celu przedstawienia przyrostu informacji (ang. information gain) niezbędne jest wprowadzenie pojęcia entropii (ang. entropy). Entropia jest miarą bardzo często używaną w wielu problemach maszynowego uczenia. Ogólnie jest zdefiniowana jako pewna miara informacji zawartej w zjawisku, które w przypadkowy sposób może przyjmować n stanów. Oznacza więc także wartość średnią ilości informacji niezbędnej do zapamiętania faktu, że dane zjawisko przyjmuje jeden spośród n dostępnych stanów: E n = 1 i= 0 ( p i log 2 p i ) gdzie p i jest prawdopodobieństwem pojawienia się i-tego elementu zbioru. W problemach indukcji drzew decyzyjnych entropia służy do ustalenia najbardziej znaczącego atrybutu. Miara ta związana jest z nieokreślonością i zastosowanie jej do zbioru danych powoduje redukcję nieokreśloności na tym zbiorze. Informację zawartą w zbiorze etykietowanych przykładów można wyrazić jako: d d I( ) = log2 d C Dla logarytmu dwójkowego wynik będzie podawany w bitach ale można również stosować dowolną podstawę logarytmu (tylko wszędzie taką samą). 4

Entropia zbioru przykładów ze względu na wynik r testu t określa się jako: d d tr Etr ( ) = log 2 d C tr Entropia zbioru przykładów ze względu na test t jest definiowana jako średnia ważona entropia dla poszczególnych wyników tego testu: r tr E t ( ) = Etr ( ) R t d d tr tr rzyrost informacji wynikający z zastosowania testu t do zbioru etykietowanych przykładów jest określany jako różnica: g ( ) = I( ) E ( ) t W indukcji drzew decyzyjnych, atrybut dla którego przyrost informacji jest największy wybierany jest jako kolejny węzeł drzewa. Oznacza to, że preferowane są atrybuty, które dzielą zbiór na podzbiory zawierające przykłady o najmniejszym zróżnicowaniu klas. t 5

Drzewo jako reprezentacja zbioru reguł: JEŻELI... TO... Zakodowany zbiór reguł: IF Outlook=Sunny AND Humidity=High THEN laytennis=no IF Outlook=Sunny AND Humidity=Normal THEN laytennis=yes IF Outlook=Overcast THEN laytennis=yes IF Outlook=Rain AND Wind=Strong THEN laytennis=no IF Outlook=Rain AND Wind=Weak THEN laytennis=yes roblem przeuczenia 6