Uczenie się maszyn. Dariusz Banasiak. Katedra Informatyki Technicznej Wydział Elektroniki

Podobne dokumenty
WYKŁAD 11 Uczenie maszynowe drzewa decyzyjne

SYSTEMY UCZĄCE SIĘ WYKŁAD 3. DRZEWA DECYZYJNE. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska

Przykład eksploracji danych o naturze statystycznej Próba 1 wartości zmiennej losowej odległość

SZTUCZNA INTELIGENCJA

Indukowane Reguły Decyzyjne I. Wykład 3

Sztuczna inteligencja

Systemy uczące się wykład 1

Data Mining Wykład 5. Indukcja drzew decyzyjnych - Indeks Gini & Zysk informacyjny. Indeks Gini. Indeks Gini - Przykład

Data Mining Kopalnie Wiedzy

Klasyfikacja obiektów Drzewa decyzyjne (drzewa klasyfikacyjne)

Systemy uczące się wykład 2

Algorytmy klasyfikacji

Drzewa decyzyjne. 1. Wprowadzenie.

SZTUCZNA INTELIGENCJA

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

SYSTEMY UCZĄCE SIĘ WYKŁAD 1. INFORMACJE WSTĘPNE. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

Tworzenie gier na urządzenia mobilne

Widzenie komputerowe (computer vision)

Rozwiązywanie problemów metodą przeszukiwania

O badaniach nad SZTUCZNĄ INTELIGENCJĄ

Transformacja wiedzy w budowie i eksploatacji maszyn

Algorytmy metaheurystyczne Wykład 11. Piotr Syga

Odkrywanie wiedzy w danych

SZTUCZNA INTELIGENCJA

Metoda tabel semantycznych. Dedukcja drogi Watsonie, dedukcja... Definicja logicznej konsekwencji. Logika obliczeniowa.

Metoda Tablic Semantycznych

SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

O badaniach nad SZTUCZNĄ INTELIGENCJĄ

Klasyfikacja. Indeks Gini Zysk informacyjny. Eksploracja danych. Klasyfikacja wykład 2

Metody klasyfikacji danych - część 1 p.1/24

Analiza danych. TEMATYKA PRZEDMIOTU

Złożoność i zagadnienia implementacyjne. Wybierz najlepszy atrybut i ustaw jako test w korzeniu. Stwórz gałąź dla każdej wartości atrybutu.

Drzewa klasyfikacyjne Lasy losowe. Wprowadzenie

Instytut Automatyki i Inżynierii Informatycznej Politechniki Poznańskiej. Adam Meissner. Elementy uczenia maszynowego

Grafy (3): drzewa. Wykłady z matematyki dyskretnej dla informatyków i teleinformatyków. UTP Bydgoszcz

Uniwersytet w Białymstoku Wydział Ekonomiczno-Informatyczny w Wilnie SYLLABUS na rok akademicki 2012/2013

Drzewa decyzyjne i lasy losowe

komputery? Andrzej Skowron, Hung Son Nguyen Instytut Matematyki, Wydział MIM, UW

Sztuczna Inteligencja Projekt

Wybrane zagadnienia uczenia maszynowego. Zastosowania Informatyki w Informatyce W2 Krzysztof Krawiec

Wyznaczanie strategii w grach

Archipelag Sztucznej Inteligencji

Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Wstęp do Sztucznej Inteligencji

LEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów

Kompresja danych Streszczenie Studia Dzienne Wykład 10,

Wprowadzenie do teorii systemów ekspertowych

Wybrane zadania przygotowujące do egzaminu z ISO- cz. 2. dr Piotr Wąsiewicz

Analiza regresji - weryfikacja założeń

Wykład XII. optymalizacja w relacyjnych bazach danych

Grupy pytań na egzamin inżynierski na kierunku Informatyka

ALGORYTMICZNA I STATYSTYCZNA ANALIZA DANYCH

Drzewa decyzyjne. Inteligentne Obliczenia. Wydział Mechatroniki Politechniki Warszawskiej. Anna Sztyber

Wprowadzenie do uczenia maszynowego

Modelowanie jako sposób opisu rzeczywistości. Katedra Mikroelektroniki i Technik Informatycznych Politechnika Łódzka

Systemy ekspertowe. Krzysztof Patan

mgr inż. Magdalena Deckert Poznań, r. Uczenie się klasyfikatorów przy zmieniającej się definicji klas.

prowadzący dr ADRIAN HORZYK /~horzyk tel.: Konsultacje paw. D-13/325

Podstawy Informatyki. Algorytmy i ich poprawność

Modelowanie motywów łańcuchami Markowa wyższego rzędu

Marcel Stankowski Wrocław, 23 czerwca 2009 INFORMATYKA SYSTEMÓW AUTONOMICZNYCH

ALGORYTM RANDOM FOREST

mgr inż. Magdalena Deckert Poznań, r. Metody przyrostowego uczenia się ze strumieni danych.

Indukcja drzew decyzyjnych

Metody teorii gier. ALP520 - Wykład z Algorytmów Probabilistycznych p.2

TEORETYCZNE PODSTAWY INFORMATYKI

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

ALGORYTMY I STRUKTURY DANYCH

PODSTAWY STATYSTYCZNEGO MODELOWANIA DANYCH. Wykład 6 Drzewa klasyfikacyjne - wprowadzenie. Reguły podziału i reguły przycinania drzew.

Instytut Automatyki i Inżynierii Informatycznej Politechniki Poznańskiej. Adam Meissner. Elementy uczenia maszynowego

Algorytmy sztucznej inteligencji

Zastosowanie metod eksploracji danych (data mining) do sterowania i diagnostyki procesów w przemyśle spożywczym

Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści

Teoria systemów uczacych się i wymiar Vapnika-Chervonenkisa

Algorytmy klasyfikacji

Systemy uczące się Lab 4

Podstawy Sztucznej Inteligencji (PSZT)

REGUŁOWO-MODELOWE SKORUPOWE SYSTEMY EKSPERTOWE

Pattern Classification

O ISTOTNYCH OGRANICZENIACH METODY

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Kompresja bezstratna. Entropia. Kod Huffmana

PODSTAWY BAZ DANYCH. 19. Perspektywy baz danych. 2009/2010 Notatki do wykładu "Podstawy baz danych"

Systemy eksperckie. Plan wykładu Wprowadzenie do sztucznej inteligencji. Wnioski z prób automatycznego wnioskowania w rachunku predykatów

Logika Matematyczna (10)

Programowanie dynamiczne i algorytmy zachłanne

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

Sztuczna inteligencja stan wiedzy, perspektywy rozwoju i problemy etyczne. Piotr Bilski Instytut Radioelektroniki i Technik Multimedialnych

PRZEWODNIK PO PRZEDMIOCIE

Data Mining Wykład 4. Plan wykładu

Notacja. - operator implikacji, - operator koniunkcji v operator alternatywy - operator równoważności ~ operator negacji Duża litera (np.

ED Laboratorium 3. Drzewa decyzyjne

Podstawy Informatyki. Metody dostępu do danych

AUTOMATYKA INFORMATYKA

Metody Kompilacji Wykład 3

RILL - przyrostowy klasyfikator regułowy uczący się ze zmiennych środowisk

Transkrypt:

Dariusz Banasiak Katedra Informatyki Technicznej Wydział Elektroniki

Machine Learning (uczenie maszynowe, uczenie się maszyn, systemy uczące się) interdyscyplinarna nauka, której celem jest stworzenie systemów (programów komputerowych) automatycznie polepszających swoje działanie w miarę gromadzenia wiedzy (doświadczenia). Początki uczenia maszynowego: 1952-1962 (Arthur Samuel, IBM) program do szkolenia zawodników szachowych 1965 (Edward Feigenbaum, Uniwersytet Stanforda) system ekspertowy Dendral do analizy i identyfikacji molekuł związków organicznych Autor: Dariusz Banasiak Katedra Informatyki Technicznej 2

Definicje uczenia się Uczeniem się systemu jest każda autonomiczna zmiana w systemie zachodząca na podstawie doświadczeń, która prowadzi do poprawy jakości jego działania (P. Cichosz). Uczenie się oznacza zmiany w systemie, które mają charakter adaptacyjny w tym sensie, że pozwalają systemowi wykonać za następnym razem takie same zadanie lub zadania podobne bardziej efektywnie (H. Simon). System uczący się wykorzystuje zewnętrzne dane empiryczne w celu tworzenia i aktualizacji podstaw do udoskonalonego działania na podobnych danych w przyszłości oraz wyrażania tych podstaw w zrozumiałej i symbolicznej postaci (D. Michie). Autor: Dariusz Banasiak Katedra Informatyki Technicznej 3

Warunki konieczne dla procesu uczenia korzystna zmiana (poprawa) nie każda zmiana w systemie oznacza uczenie się (np. zapominanie) autonomiczność źródłem zmian jest sam system, a nie działanie zewnętrzne (np. ingerencja programisty) wpływ czynników zewnętrznych (doświadczenie, obserwacja) zmiana w systemie dokonuje się w wyniku pewnych czynników lub okoliczności zewnętrznych (informacji związanych z funkcjami systemu) Autor: Dariusz Banasiak Katedra Informatyki Technicznej 4

Motywacje tworzenia systemów uczących się złożoność problemu (uzyskanie modelu teoretycznego dla danego problemu jest bardzo kosztowne lub mało wiarygodne) rozmiary problemu (system analizuje dużą ilość danych, które mogą być przetwarzane tylko automatycznie np. analiza ekonomicznych lub medycznych baz danych) dynamiczne środowisko (system musi dostosować swoje działanie do dynamicznie zmieniających się warunków np. systemy sterowania) Autor: Dariusz Banasiak Katedra Informatyki Technicznej 5

Zastosowania systemów uczących się rozpoznawanie mowy, pisma itp. (np. SPINX) określanie strategii w grach (np. szachy) kierowanie pojazdem (np. ALVINN) nawigacja w nieznanym środowisku rozpoznawanie chorób na podstawie symptomów klasyfikacja obiektów astronomicznych (np. Sky Survey) klasyfikacja tekstów do grup tematycznych odkrywanie wiedzy w bazach danych (data mining) aproksymacja nieznanej funkcji na podstawie próbek wykrywanie nadużyć (bankomaty, rozmowy telefoniczne) Autor: Dariusz Banasiak Katedra Informatyki Technicznej 6

Uczenie się jako konkretyzacja algorytmu? a? b?? c d? e Autor: Dariusz Banasiak Katedra Informatyki Technicznej 7

Podstawowe kryteria podziału systemów uczących się metoda reprezentacji nabywanej wiedzy sposób wykorzystania wiedzy źródło i postać informacji trenującej metoda nabywania i doskonalenia wiedzy Metody reprezentacji wiedzy w systemach uczących się reguły i drzewa decyzyjne wyrażenia logiczne (np. formuły logiki predykatów) parametry w równaniach algebraicznych automaty skończone grafy i sieci semantyczne Autor: Dariusz Banasiak Katedra Informatyki Technicznej 8

Typy zadań realizowane przez systemy uczące się klasyfikacja ustalenie przynależności obiektów do określonej kategorii aproksymacja podejmowanie decyzji modelowanie środowiska Rodzaje uczenia się ze względu na źródło i postać informacji trenującej uczenie się z nadzorem uczenie się bez nadzoru uczenie się ze wzmocnieniem Autor: Dariusz Banasiak Katedra Informatyki Technicznej 9

W przypadku uczenia z nadzorem system otrzymuje informację określającą w pewien sposób jego pożądane odpowiedzi dla danego zbioru wektorów wejściowych jako przykłady zachowania, jakiego się od niego oczekuje. Przy uczeniu się bez nadzoru system nie otrzymuje informacji instruktażowej. System musi nauczyć się właściwego zachowania wyłącznie na podstawie obserwacji wektorów wejściowych. Uczenie się ze wzmocnieniem wykorzystuje informację oceniającą jakość działania systemu. Informacja trenująca ma charakter wartościujący (informuje system, czy działa dobrze, czy źle). Autor: Dariusz Banasiak Katedra Informatyki Technicznej 10

Metody (strategie) nabywania wiedzy System uczący się transformuje otrzymane informacje (np. dostarczone przez nauczyciela) na nową postać, którą zapamiętuje. Sposób tej transformacji jest zależny od przyjętej strategii uczenia się. Główne strategie to: uczenie się na pamięć uczenie się przez indukcję uczenie się przez dedukcję uczenie się przez analogię uczenie się przez instrukcję Autor: Dariusz Banasiak Katedra Informatyki Technicznej 11

Uczenie się przez indukcję Uczenie indukcyjne jest uczeniem się poprzez przykłady. Polega na znajdowaniu hipotez, które najlepiej opisują obserwowane fakty oraz znajdują wśród nich zależności (znajdowanie ogólnych zasad na podstawie pojedynczych przykładów). Znalezione hipotezy nie muszą sprawdzać się dla każdego przykładu, powinny jednak umożliwić analizę kolejnych przykładów (np. ich klasyfikację). Przykłady indukcyjnego uczenia się: uczenie się pojęć tworzenie pojęć uczenie się aproksymacji funkcji Autor: Dariusz Banasiak Katedra Informatyki Technicznej 12

Drzewa decyzyjne Drzewo decyzyjne jest strukturą złożoną z węzłów, z których wychodzą gałęzie prowadzące do innych węzłów lub liści, oraz z liści, z których nie wychodzą żadne gałęzie. Najczęściej przyjmuje się, że każdy wierzchołek ma co najwyżej jedną krawędź wchodzącą, a liczba krawędzi wychodzących wynosi 0 (liście) lub jest większa niż 1. W drzewie decyzyjnym węzły, gałęzie i liście posiadają dodatkowo pewną specjalną interpretację. Autor: Dariusz Banasiak Katedra Informatyki Technicznej 13

Interpretacja elementów drzewa decyzyjnego węzły odpowiadają testom przeprowadzanym na wartościach atrybutów gałęzie odpowiadają możliwym wynikom przeprowadzonych testów liście odpowiadają etykietom kategorii. Wyznaczenie kategorii przykładu za pomocą drzewa decyzyjnego polega na przejściu od korzenia drzewa do jednego z liści, przez wykonywanie w odwiedzanych kolejno węzłach umieszczonych w nich testów i przemieszczanie się wzdłuż gałęzi odpowiadających uzyskanym wynikom. Autor: Dariusz Banasiak Katedra Informatyki Technicznej 14

Przykład drzewa decyzyjnego Dany jest zbiór trenujący dla pojęcia odpowiednia pogoda do gry w golfa x aura temperatura wilgotność wiatr c(x) 1 słoneczna ciepła duża słaby 0 2 słoneczna ciepła duża silny 0 3 pochmurna ciepła duża słaby 1 4 deszczowa umiarkowana duża słaby 1 5 deszczowa zimna normalna słaby 1 6 deszczowa zimna normalna silny 0 7 pochmurna zimna normalna silny 1 8 słoneczna umiarkowana duża słaby 0 9 słoneczna zimna normalna słaby 1 10 deszczowa umiarkowana normalna słaby 1 11 słoneczna umiarkowana normalna silny 1 12 pochmurna umiarkowana duża silny 1 13 pochmurna ciepła normalna słaby 1 14 deszczowa umiarkowana duża silny 0 Autor: Dariusz Banasiak Katedra Informatyki Technicznej 15

Drzewo decyzyjne dla stanów pogody {1,2,3,4,5,6,7,8,9,10,11,12,13,14} aura słoneczna pochmurna deszczowa {1,2,8,9,11} {3,7,12,13} {4,5,6,10,14} wilgotność 1 wiatr normalna duża słaby silny {9,11} {1,2,8} {4,5,10} {6,14} 1 0 1 0 Autor: Dariusz Banasiak Katedra Informatyki Technicznej 16

Drzewo decyzyjne jako zbiór reguł Drzewo decyzyjne można przedstawić jako zbiór reguł postaci: JEŻELI warunki TO kategoria (warunki kategoria) Każdej ścieżce w drzewie prowadzącej od korzenia do liści odpowiada równoważna reguła (warunki reguły to koniunkcja warunków elementarnych testów i wyników testów, kategoria to etykieta związana z liściem w danej ścieżce): aura(x)=słoneczna Λ wilgotność(x)=duża 0 aura(x)=słoneczna Λ wilgotność(x)=normalna 1 aura(x)=pochmurna 1 aura(x)=deszczowa Λ wiatr(x)=silny 0 aura(x)=deszczowa Λ wiatr(x)=słaby 1 Autor: Dariusz Banasiak Katedra Informatyki Technicznej 17

Konstrukcja drzewa decyzyjnego Konstrukcję drzewa decyzyjnego można przedstawić w postaci algorytmu rekurencyjnego uruchamianego dla każdego węzła w drzewie. Dany węzeł może być: liściem (spełnione kryterium stopu) - koniec wywołania rekurencyjnego węzłem rozgałęziającym się - dokonujemy wyboru atrybutu, tworzymy rozgałęzienia węzła na podstawie wartości przyjmowanych przez dany atrybut i dla każdego węzła potomnego tworzymy rekurencyjne wywołanie algorytmu, z listą atrybutów zmniejszoną o właśnie wybrany atrybut. Ważnym elementem każdego algorytmu jest kryterium stopu oraz metoda wyboru atrybutu. Autor: Dariusz Banasiak Katedra Informatyki Technicznej 18

Wprowadźmy oznaczenia: P zbiór przykładów dla danego pojęcia (kategorii) S zbiór możliwych testów (atrybutów) d domyślna etykieta kategorii Dla naszego przykładu mamy: P = {1,2,3,4,5,6,7,8,9,10,11,12,13,14} S = {aura, temperatura, wilgotność, wiatr} d = 1 (większość przykładów w zbiorze trenującym ma kategorię 1) Autor: Dariusz Banasiak Katedra Informatyki Technicznej 19

Działanie algorytmu: P = {1,2,3,4,5,6,7,8,9,10,11,12,13,14} 0,0,1,1,1,0,1,0,1, 1, 1, 1, 1, 0 S = {aura, temperatura, wilgotność, wiatr} aura słoneczna pochmurna deszczowa S = {temperatura, wilgotność, wiatr}??? P a1 = {1,2,8,9,11} 0,0,0,1, 1 P a2 = {3,7,12,13} 1,1, 1, 1 P a3 = {4,5,6,10,14} 1,1,0, 1, 0 liść wszystkie kategorie równe 1 Autor: Dariusz Banasiak Katedra Informatyki Technicznej 20

Kryterium stopu Kryterium stopu określa, czy dany węzeł drzewa powinien być traktowany jako końcowy liść drzewa, czy powinien być dalej rozwijany. Kryterium stopu przyjmuje najczęściej następującą postać: kiedy w trakcie wywołań rekurencyjnych w zestawie przykładów znajdują się już tylko przykłady opisujące jedną kategorię dany wierzchołek zostaje liściem (otrzymuje etykietę odpowiadającą tej kategorii) kiedy zbiór atrybutów jest pusty kryterium stopu powinno zgłosić jedną z możliwości: błąd (na podstawie przykładów nie można jednoznacznie ustalić odpowiedniej kategorii np. niepoprawny zbiór przykładów zawierający przekłamania) wierzchołek potraktować jako liść (przypisać mu etykietę odpowiadającą tej kategorii, która najliczniej występuje w zestawie przykładów) Autor: Dariusz Banasiak Katedra Informatyki Technicznej 21

Kryterium wyboru atrybutów Najważniejszą częścią algorytmu jest odpowiednia kolejność wyboru atrybutów, która w znaczącym stopniu wpływa na wygląd drzewa (np. jego złożoność). Wybór odpowiedniego atrybutu ze zbioru dostępnych atrybutów jest dokonywany dzięki wprowadzeniu systemu ocen (kryteria stosowane w teorii informacji i statystyce). Wybierając jeden z atrybutów jesteśmy w stanie podzielić zbiór przykładów na mniejsze zbiory. System ocen atrybutów opiera się na założeniu, iż najbardziej korzystnym atrybutem jest taki, dzięki któremu kategorie przykładów należących do uzyskanych podzbiorów są mało zróżnicowane. Autor: Dariusz Banasiak Katedra Informatyki Technicznej 22

Najczęściej stosowane kryterium atrybutu pochodzi z teorii informacji - dla danego węzła należy wybrać ten atrybut, który zapewnia największy przyrost informacji. Informację zawartą w zbiorze etykietowanych przykładów można wyrazić wzorem: I(P) = Σ d C P d P P d P log, gdzie C zbiór kategorii występujących w przykładach P P - ilość wszystkich przykładów P d - ilość przykładów z kategorią d Tak określona informacja jest duża, gdy liczba przykładów poszczególnych kategorii jest w zbiorze P zbliżona. Autor: Dariusz Banasiak Katedra Informatyki Technicznej 23

Entropię zbioru przykładów P ze względu na wartość r argumentu t określa wzór: E tr (P) = Σ d C P trd P tr P trd P tr log, gdzie P tr - ilość wszystkich przykładów dla których atrybut t przyjmuje wartość r P trd - ilość przykładów dla których atrybut t przyjmuje wartość r z przypisaną kategorią d Tak określona entropia przyjmuje dużą wartość, jeżeli wśród przykładów ze zbioru P, dla których atrybut t przyjmuje wartość r, rozkład na kategorie jest równomierny. Autor: Dariusz Banasiak Katedra Informatyki Technicznej 24

Entropia zbioru przykładów P ze względu na dany atrybut t jest definiowana jako średnia ważona entropia dla poszczególnych wartości tego atrybutu: P tr P r R t E t (P) = Σ E tr (P), gdzie R t zbiór wartości jakie przyjmuje atrybut t Ten parametr przyjmuje duże wartości, gdy atrybut t dzieli przykłady ze zbioru P na podzbiory, w których kategorie reprezentowane są równomiernie. Autor: Dariusz Banasiak Katedra Informatyki Technicznej 25

Przyrost informacji wynikający z zastosowania atrybutu t dla zbioru przykładów P określa wzór: g t (P) = I(P) E t (P) Ponieważ informacja I(P) charakteryzuje zbiór przykładów P i jest niezależna od wybranego atrybutu jako kryterium wyboru atrybutu przyjmuje się minimalizację wartości entropii E t (P) dla t S. Autor: Dariusz Banasiak Katedra Informatyki Technicznej 26

Przykład P = {1,2,3,4,5,6,7,8,9,10,11,12,13,14} = 14 P 0 = {1,2,6,8,14} = 5 P 1 = {3,4,5,7,9,10,11,12,13} = 9 P aura,słoneczna = {1,2,8,9,11} = 5 P 0 aura,słoneczna = {1,2,8} = 3 P 1 aura,słoneczna = {9,11} = 2 P aura,pochmurna = {3,7,12,13} = 4 P aura,deszczowa = {4,5,6,10,14} = 5 Autor: Dariusz Banasiak Katedra Informatyki Technicznej 27

I(P) = - 9/14 log 2 9/14 5/14 log 2 5/14 = 0,940 E aura,słoneczna (P) = -2/5 log 2 2/5 3/5 log 2 3/5 = 0,971 E aura,pochmurna (P) = -4/4 log 2 4/4 0/4 log 2 0/4 = 0 E aura,deszczowa (P) = -3/5 log 2 3/5 2/5 log 2 2/5 = 0,971 E aura (P) = 5/14*0,971 + 4/14*0 + 5/14*0,971 = 0,694 E temperatura (P) = 0,911 E wilgotność (P) = 0,788 E wiatr (P) = 0,892 Dla pierwszego wierzchołka wybieramy atrybut aura. Autor: Dariusz Banasiak Katedra Informatyki Technicznej 28

Powtarzając algorytm dla kolejnych wierzchołków otrzymujemy: {1,2,3,4,5,6,7,8,9,10,11,12,13,14} aura słoneczna pochmurna deszczowa {1,2,8,9,11} {3,7,12,13} {4,5,6,10,14} wilgotność 1 wiatr normalna duża słaby silny {9,11} {1,2,8} {4,5,10} {6,14} 1 0 1 0 Autor: Dariusz Banasiak Katedra Informatyki Technicznej 29

Zalety drzew decyzyjnych mogą reprezentować dowolnie złożone pojęcia pojedyncze (lub wielokrotne) czas decyzyjny ograniczony liniowo przez liczbę atrybutów forma reprezentacji czytelna dla człowieka łatwość przejścia od reprezentacji drzewiastej do reprezentacji regułowej Wady drzew decyzyjnych na danym etapie testuje się wartość tylko jednego atrybutu (np. niepotrzebny rozrost drzewa) kosztowna reprezentacja alternatyw pomiędzy atrybutami bardzo trudna modyfikacja drzewa np. aktualizacja na podstawie nowych przykładów Autor: Dariusz Banasiak Katedra Informatyki Technicznej 30