Ćwiczenie 6. Hurtownie danych

Wielkość: px
Rozpocząć pokaz od strony:

Download "Ćwiczenie 6. Hurtownie danych"

Transkrypt

1 Ćwiczenie 6. Hurtownie danych Drzewa decyzyjne 1. Reprezentacja drzewa decyzyjnego Metody uczenia si e drzew decyzyjnych to najcz eściej stosowane algorytmy indukcji symbolicznej reprezentacji wiedzy z przyk ladów. Poniżej zostana przedstawione najpopularniejsze algorytmy indukcji drzew, takie jak ID3 oraz C4.5. Drzewo decyzyjne sk lada si e z korzenia, z którego co najmniej dwie ga l ezie (kraw edzie) odchodza do w ez lów leżacych na niższym poziomie. Z każdym w ez lem jest zwiazany test, który sprawdza wartości atrybutu opisujacego przyk lady. Dla każdego z możliwych wyników testu odpowiadajaca mu ga l aź prowadzi do w ez la leżacego na niższym poziomie drzewa. W ez ly, z których nie wychodza żadne ga l ezie, to liście. Przypisuje si e klasy decyzyjne. Tworzenie drzew decyzyjnych ilustruje nast epuj acy przyk lad. Niech b edzie dana pewna grupa klientów sklepu elektronicznego, z których cz eść decyduje si e na zakup komputera typu notebook, podczas gdy pozostali nie sa gotowi do takiego zakupu. Sa oni scharakteryzowani przez 3 atrybuty wyrażajace ocen e poziomu ich dochodów, stwierdzenie faktu, czy sa studentami, oraz ich p leć. Na podstawie wartości tych atrybutów należy przewidzieć wartość atrybutu decyzyjnego kupuje komputer. Tabela 1. Zbór przyk ladów uczacych opisujacy grup e osób, którzy sa klientami sklepu elektronicznego Lp. Dochody Student P leć kupuje komputer 1 średnie tak m eżczyzna tak 2 średnie nie kobieta nie 3 wysokie tak kobieta tak 4 niskie tak m eżczyzna nie 5 niskie tak kobieta nie 6 średnie tak kobieta tak 7 niskie nie kobieta nie 8 średnie nie m eżczyzna nie

2 Za pomoca algorytmu ID3 ze zbioru przyk ladów uczacych reprezentowanych w tabeli powyżej uzyskano drzewo decyzyjne, które przedstawiono na rysunku poniżej. Dochody niskie średnie wysokie Nie Tak Student tak Tak nie Dzi eki utworzonemu drzewu decyzyjnemu można klasyfikować klientów kupujacych komputery (np. typu notebook) w zależności od ich poziomu dochodów i statusu studenckiego. Na przyk lad osoba b ed aca kobieta o dochodach średnich i nie studiujaca nie kupuje komputera. Można dojść do tego analizujac ga l ezie drzewa do liścia (kupuje komputer = nie). Można zauważyć, że p leć osoby nie odgrywa tu żadnej roli. Można zauważyć, że ścieżki prowadzace od korzenia do liścia drzewa reprezentuja koniunkcje pewnych wyrażeń (testów) zdefiniowanych na wartościach atrybutów opisujacych przyk lady. Jeśli do tej samej klasy prowadzi kilka ścieżek, to tworza one sk ladniki pewnej alternatywy. Stad też mówi si e, że drzewa decyzyjne pozwalaja na nauczenie si e poj eć, które można zdefiniować w postaci dysjunkcji takich koniunkcji. Na przyk lad z powyżej przedstawionego drzewa można zdefiniować poj ecie klienta pragnacego kupić komputer za pomoca nast epuj acego wyrażenia dysjunkcyjnego: Nie (dochody = srednie) (student = tak) (dochody = wysokie) Drzewo decyzyjne można też przedstawić jako zbiór regu l określajacego przydzia l obiektów do klas. Każda ścieżka drzewa od korzenia do liścia odpowiada regule. Dla drzewa przedstawionego na powyższym rysunku uzyskuje si e 4 regu ly: 1) if (dochody = niskie) then (kupuje komputer = nie) 2) if (dochody = średnie) (student = nie) then (kupuje komputer = nie) 3) if (dochody = wysokie) then (kupuje komputer = tak) 4) if (dochody = średnie) (student = tak) then (kupuje komputer = tak)

3 Powinno si e sprawdzić, czy wszystkie regu ly posiadaja nienadmiarowe koniunkcje warunków elementarnych. Można to wykonać za pomoca operacji chwilowego pomini ecia warunku w koniunkcji danej regu ly (ang. dropping conditions) i porównania tak zmodyfikowanej regu ly ze zbiorem przyk ladów uczacych. Jeśli regu la nadal jednoznacznie klasyfikuje przyk lady do w laściwej klasy, to warunek może być zredukowany. W przeciwnym przypadku należy go odtworzyć w koniunkcji regu ly. W powyższym zbiorze regu l można zredukować regu l e 2 do poniższej postaci, gdyż w tabeli podanej powyżej wszystkie osoby nie b ed ace studentami równocześnie nie kupi ly komputerów: if (student = nie) then (kupuje komputer = nie) 2. Algorytm ID3 indukcji drzewa decyzyjnego Wi ekszość algorytmów uczenia si e drzew decyzyjnych jest oparta na podobnym heurystycznym schemacie zst epuj acego konstruowania drzewa (nazwa angielska TDIDT - Top Down Induction of Decision Trees). Jest to rozwia- zanie użyte już w pierwszych algorytmach, takich jak ID3, CART, a nast epnie C4.5. Różnice mi edzy konkretnymi algorytmami dotycza przede wszystkim sposobu wyboru testu dla w ez la zwiazanego z ocena jakości podzia lu zbioru przyk ladów w w eźle, zasad podejmowania decyzji o utworzeniu liścia lub w ez la oraz technik uwzgl edniania różnego rodzaju zaburzeń w opisie przyk ladów uczacych. Algorytm schematu zst epuj acego konstruowania drzewa odpowiadajacy wersji ID3 podano poniżej. Zak lada si e, że jest dost epny zbiór przyk ladów uczacych S. Jeżeli wszystkie przyk lady należa do tej samej klasy, to utworzony jest liść i przydzielana mu jest etykieta tej klasy. W przeciwnym razie jest tworzony w eze l (w pierwszej iteracji jest to korzeń drzewa) i konieczne jest sformu lowanie zwiazanego z nim testu. Rozważa si e wszystkie możliwe atrybuty i ocenia ich przydatność do zbudowania testu prowadzacego do podzia lu zbioru przyk ladów S na podzbiory jak najbardziej jednorodne w sensie przydzia lu do klas (w oryginalnej postaci algorytmu ID3 test jest pytaniem o wartość danego atrybutu). Dokonuje si e wyboru najlepszego z tych podzia lów zgodnie z przyj et a miara oceny jakości podzia lu. Rozbudowuje si e drzewo poprzez dodanie do w ez la ga l ezi odpowiadajacych poszczególnym wynikom testu. W przypadku algorytmu ID3 ga l ezie odpowiadaja poszczególnym wartościom v 1, v 2,...,v p atrybutu a. Podzbiór S jest podzielony na podzbiory zgodnie z wybranym testem. Nast epnie używa si e rekurencyjnie napisanej procedury dla każdego z tych podzbiorów, budujac poddrzewo albo liść, jeśli zajdzie warunek zatrzymania.

4 function buduj drzewo; input: S - zbiór przyk ladów wejściowych, A - zbiór atrybutów opisujacych przyk lady (w przypadku ID3 atrybuty sa jakościowe lub zdyskretyzowane); output: drzewo decyzyjne; begin Utwórz w eze l t; {przy pierwszym wywo laniu korzeń drzewa} if wszystkie przyk lady w S należa do tej samej klasy K then return t jako liść z etykieta klasy K; if zbiór A jest pusty then return t jako liść z etykieta klasy do której należy wi ekszość przyk ladów w S else begin wybierz atrybut a A, który najlepiej klasyfikuje przyk lady z S zgodnie z przyj et a miara oceny {dla ID3 jest information gain}; Przypisz w ez lowi t test zbudowany na podstawie wybranego atrybutu a; for v i wartośći atrybutu a do begin dodaj do w ez la t galaź odpowiadajac a warunkowi (a = v i ); Niech S i b edzie podzbiorem przyk ladów z S, które posiadaja wartość v i dla atrybutu a; if S i jest pusty then dodaj do ga l ezi liść z etykieta klasy, do której należy wi ekszość przyk ladów w S else indukuj poddrzewo buduj drzewo(a i, A - {a}) end; end; return drzewo o korzeniu w t end. Podstawowym problemem jschematu zst epuj acego konstruowania drzewa jest wybór atrybutu do zbudowania testu, na którego podstawie nastapi w w eźle podzia l zbioru przyk ladów. Dobrym testem jest ten, który powoduje skrócenie ścieżki prowadzacej przez ten w eze l do liści wskazujacych klas e decyzyjna. Tak b edzie, gdy w każdym podzbiorze zwiazanym z ga l eziami wychodzacymi z w ez la wszystkie przyk lady lub ich wi ekszość b edzie reprezentowa la jedna klas e. Wybór powinien być przeprowadzany na podstawie miary oceniajacej, na ile wartości danego atrybutu podziela zbiór przyk ladów na podzbiory, które charakteryzuja si e maksymalna jednorodnościa w zakresie przydzia lu do klas decyzyjnych. W algorytmie ID3 w tym celu wykorzystuje si e miar e przyrostu informacji (ang. information gain). Aby ja zdefiniować, należy wyjaśnić najpierw miar e entropii.

5 Niech S b edzie zbiorem uczacym zawierajacym przyk lady do jednej z k klas decyzyjnych, oznaczonych przez K 1, k 2,...,K k. Niech n b edzie liczba przyk ladów z S oraz n i niech oznacza liczebność klasy K i. Entropia zwiazana z klasyfikacja zbioru S jest zdefiniowana jako: k Ent(S) = p i log 2 p i i=1 gdzie p i jest prawdopodobieństwem, że losowo wybrany przyk lad z S należy do klasy K i, estymowanym jako n i. Podstawa logarytmu jesdt równa 2, ponieważ entropia mierzy oczekiwana n liczb e bitów do zakodowania informacji o klasyfikacji losowo wybranego przyk ladu ze zbioru S. Można zauważyć, że gdy którekolwiek p i = 0, to otrzymuje si e 0 log 2 0 = 0. W przypadku rozważania klasyfikacji binarnej (k = 2) entropia przyjmuje wartości z przedzia?u [0, 1], przy czym maksymalna wartość, równa 1, osiagana jest dla p 1 = p 2 = 0.5, czyli dla przyk ladów o równomiernym rozk ladzie klas. Najmniejsza wartość, równa 0, przyjmuje entropia, gdy wszystkie przyk lady należa do tej samej klasy. Interpretacja wartości entropii jest nast epuj aca: im mniejsza wartość entropii, tym w zbiorze S wyst epuje wi eksza przewaga przydzia lu przyk ladów do jednej z klas nad pozosta lymi klasami. W przypadku użycia atrybutu a do zbudowania testu oblicza si e entropi e warunkowa. Niech atrybut a przyjmuje p różnych wartości {v 1, v 2,..., v p }. W algorytmie ID3 test w w eźle jest konstruowany jako pytanie jaka jest wartość atrybutu a?, czyli dokonuje si e podzia lu S na podzbiory {S 1, S 2,..., S r }, gdzie S j zawiera przyk lady posiadajace dla atrybutu a wartość v j (j = 1,...,p). Liczebność zbioru S j jest oznaczana jako n Sj. Entropia podzia lu zbioru przyk ladów S ze wzgl edu na atrybut a jest zdefiniowana jako: Ent(S a) = p j=1 n Sj n Ent(S j) Można powiedzieć, że entropia Ent(S a) jest średnia ważona dla entropii poszczególnych podzbiorów S j. Im mniejsza wartość Ent(S a), tym wi eksza jednorodność klasyfikacji dla przyk ladów podzielonych na podzbiory.

6 Przyrost informacji (ang. gain) wynika z zastosowania atrybutu a do zbudowania testu dzielacego zbiór przyk ladów uczacych S jest zdefiniowany jako różnica: Gain(S, a) = Ent(S) Ent(S a) Dzia lanie algorytmu ID3 polega na przeszukiwaniu przestrzeni hipotez, tj. drzew decyzyjnych reprezentujacych funkcje klasyfikujace zdefiniowane na opisach przyk ladów. Przeszukiwanie jest wykonywane od poczatkowo pustego drzewa do drzew coraz bardziej skomplikowanych za pomoca strategii heurystycznej sterowanej odpowiednia funkcja oceny, np. przyrostu informacji. W algorytmie ID3 dla danego w ez la poszukuje si e lokalnie najlepszego kandydata na stworzenie testu, przy czym wybór ten nie musi prowadzić do globalnie najlepszego drzewa. W typowych alg. indukcji drzew nie stosuje si e operacji nawrotu, tzn. po wyborze atrybutu do testu dla danego w ez la nie rozważa si e ponownie zmiany tego atrybutu. 3. Algorytm C4.5, czyli dlaczego ID3 nie wystarcza? Algorytm ID3 ma nast epuj ace ograniczenia: 1) algorytm ID3 nie radzi sobie z ciag lymi dziedzinami atrybutów (zak lada, że wartości atrybutów sa dyskretne) 2) zak lada sztywno, że wszystkie rekordy w zbiorze uczacym sa wype lnione, tzn. nie dzia la, jeśli choć jeden rekord zawiera niepe lne dane, 3) duży rozmiar drzewa, 4) brak odporności na zjawisko ovefitting. Polega ono na tym, że algorytm nie radzi sobie z danymi zaburzajacymi ogólna informacja. Może to prowadzić do wysokiego wspó lczynnika b l edów na danych testowych Aby przeciwdzia lać zjawisku ovefittingu stosuje si e tzw. przycinanie (ang. em prunning). Dzia la ono w sposób nast epuj acy: 1) zaczyna si e od liści i dzia la na zasadzie bottom-up, 2) majac dany w eze l nie b ed acy liściem i jego poddrzewo oblicza si e w heurystyczny sposób wartość przewidywanego b l edu dla aktualnego poddrzewa,

7 3) oblicza si e wartość przewidywanego b l edu dla sytuacji, gdyby rozpatrywane poddrzewo zastapić liściem z kategoria najpopularniejsza wśród liści, 4) porównuje te dwie wartości i ewentualnie dokonuje zamiany poddrzewa na pojedynczy liść propagujac t e informacj e do swoich przodków. Dzi eki temu dokonuje si e wi eksz a generalizacj e oceny nowych przypadków. 4. Przebieg ćwiczenia Zadanie 1. Jednym z klasycznych zbiorów ilustrujacych dzia lanie algorytmów uczacych jest przyk lad do gry w golfa. Wp lyw warunków pogodowych wp lywaj acych na podj ecie decyzji o grze w gr e golfa przedstawiono w tabeli poniżej. Stan nieba Temperatura Wilgotność Wiatr Grać s lońce nie nie s lońce tak nie pochmurno nie tak deszcz nie tak deszcz nie tak deszcz tak nie pochmurno tak tak s lońce nie nie s lońce nie tak deszcz nie tak s lońce tak tak pochmurno tak tak pochmurno nie tak deszcz tak nie Dla tabeli podanej na pierwszej stronie przeprowadź: 1) Dokonaj najpierw analizy zbioru przyk ladów ze wzgl edu na to, że wszystkie atrybuty sa tam przedstawione na skalach jakościowych (nominalnych lub porzadkowych), 2) Zbadaj, jakie sa liczebności przyk ladów należacych do każdej klasy decyzyjnej,

8 3) Określ miary entropii informacji dla klasyfikacji wszystkich przyk ladów, 4) Odpowiedz na pytanie, który z atrybutów zostanie wybrany jako najkorzystniejszy do zbudowania testu w w eźle drzewa. Odpowiedź uzasadnij odpowiednimi obliczeniami wg algorytmu ID3 5) Przeprowadź proces budowy ca lego drzewa. Zadanie 2 Przy użyciu programu C4.5 z systemu Weka dokonaj analizy zbioru przyk ladów uczacych opisujacych wp lyw warunków pogodowych na podj ecie decyzji do gry w golfa. Program C4.5 jest w nim dost epny jako J48 (wersja 8 programu C4.5, ostatnia przed komercjalizacja). Wybierz Explorer Open File data. W katalogu data otwórz notatnik Windows lub inny edytor. Wyedytuj plik golf.arff, który jest w formacie arff. Jego postać jest nast epuj outlook {sunny, overcast, temperature humidity windy {true, play {yes, sunny, 85, 85, false, no sunny, 80, 90, true, no overcast, 83, 78, false, yes rain, 70, 96, false, yes rain, 68, 80, false, yes rain, 65, 70, true, no overcast, 64, 65, true, yes sunny, 72, 95, false, no

9 Należy wybrać opcj e Classify, a nast epnie Choose. Wówczas wejść do trees i wybrać J48. Uruchomienie analizy nast epuje dzi eki naciśni eciu Start. Powtórz podobna analiz e dla zbioru przyk ladów uczacych w przypadku podj ecia decyzji o grze w golfa. Zadanie 3 Przy użyciu programu C4.5 z systemu Weka dokonaj analizy zbioru przyk ladów uczacych opisujacych wp lyw warunków pogodowych na podj ecie decyzji dotyczacych zakupu komputer {dobry, sredni, dochody cena student {true, kupic {yes, dobry, 500, 850, false, no sredni, 800, 900, true, no marny, 490, 1000, false, yes dobry, 700, 9006, false, yes sredni, 8968, 8000, false, yes marny, 657, 700, true, no dobry, 640, 650, true, yes sredni, 720, 950, false, no Należy wybrać opcj e Classify, a nast epnie Choose. Wówczas wejść do trees i wybrać J48. Uruchomienie analizy nast epuje dzi eki naciśni eciu Start.

10 Zadanie 4 Zbuduj drzewo decyzyjne dotyczace zakupu samochodu. Przy użyciu programu C4.5 z pakietu Weka dokonaj analizy przyk ladów uczacych opisujacych zakup samochod {dobry, uzywany, dochody cena klient {true, kupic {yes, dobry, 5000, 20050, false, no uzywany, 1800, 2000, true, no nowy, 4900, 3000, true, yes dobry, 7000, 3000, false, yes uzywany, 7968, 3500, false, yes nowy, 6570, 17000, true, no nowy, 6400, 10500, true, yes dobry, 7200, 950, false, no Należy wybrać opcj e Classify, a nast epnie Choose. Wówczas wejść do trees i wybrać J48. Uruchomienie analizy nast epuje dzi eki naciśni eciu Start.

WYKŁAD 11 Uczenie maszynowe drzewa decyzyjne

WYKŁAD 11 Uczenie maszynowe drzewa decyzyjne WYKŁAD 11 Uczenie maszynowe drzewa decyzyjne Reprezentacja wiedzy w postaci drzew decyzyjnych entropia, przyrost informacji algorytmy ID3, C4.5 problem przeuczenia wyznaczanie reguł rzykładowe drzewo decyzyjne

Bardziej szczegółowo

Drzewa decyzyjne. Nguyen Hung Son. Nguyen Hung Son () DT 1 / 34

Drzewa decyzyjne. Nguyen Hung Son. Nguyen Hung Son () DT 1 / 34 Drzewa decyzyjne Nguyen Hung Son Nguyen Hung Son () DT 1 / 34 Outline 1 Wprowadzenie Definicje Funkcje testu Optymalne drzewo 2 Konstrukcja drzew decyzyjnych Ogólny schemat Kryterium wyboru testu Przycinanie

Bardziej szczegółowo

Systemy decyzyjne Wyk lad 4: Drzewa decyzyjne

Systemy decyzyjne Wyk lad 4: Drzewa decyzyjne Systemy decyzyjne Wyk lad 4: Outline Wprowadzenie 1 Wprowadzenie 2 Problem brakujacych wartości 3 Co to jest drzewo decyzyjne Jest to struktura drzewiasta, w której wez ly wewnetrzne zawieraja testy na

Bardziej szczegółowo

Co to są drzewa decyzji

Co to są drzewa decyzji Drzewa decyzji Co to są drzewa decyzji Drzewa decyzji to skierowane grafy acykliczne Pozwalają na zapis reguł w postaci strukturalnej Przyspieszają działanie systemów regułowych poprzez zawężanie przestrzeni

Bardziej szczegółowo

Indukowane Reguły Decyzyjne I. Wykład 3

Indukowane Reguły Decyzyjne I. Wykład 3 Indukowane Reguły Decyzyjne I Wykład 3 IRD Wykład 3 Plan Powtórka Grafy Drzewa klasyfikacyjne Testy wstęp Klasyfikacja obiektów z wykorzystaniem drzewa Reguły decyzyjne generowane przez drzewo 2 Powtórzenie

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 3. DRZEWA DECYZYJNE. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

SYSTEMY UCZĄCE SIĘ WYKŁAD 3. DRZEWA DECYZYJNE. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska. SYSTEMY UCZĄCE SIĘ WYKŁAD 3. DRZEWA DECYZYJNE Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska BUDOWA DRZEW DECYZYJNYCH Drzewa decyzyjne są metodą indukcyjnego

Bardziej szczegółowo

Drzewa podstawowe poj

Drzewa podstawowe poj Drzewa podstawowe poj ecia drzewo graf reprezentujacy regularna strukture wskaźnikowa, gdzie każdy element zawiera dwa lub wiecej wskaźników (ponumerowanych) do takich samych elementów; wez ly (albo wierzcho

Bardziej szczegółowo

Ćwiczenie 6 - Hurtownie danych i metody eksploracje danych. Regresja logistyczna i jej zastosowanie

Ćwiczenie 6 - Hurtownie danych i metody eksploracje danych. Regresja logistyczna i jej zastosowanie Ćwiczenie 6 - Hurtownie danych i metody eksploracje danych Regresja logistyczna i jej zastosowanie Model regresji logistycznej jest budowany za pomocą klasy Logistic programu WEKA. Jako danych wejściowych

Bardziej szczegółowo

Data Mining Wykład 5. Indukcja drzew decyzyjnych - Indeks Gini & Zysk informacyjny. Indeks Gini. Indeks Gini - Przykład

Data Mining Wykład 5. Indukcja drzew decyzyjnych - Indeks Gini & Zysk informacyjny. Indeks Gini. Indeks Gini - Przykład Data Mining Wykład 5 Indukcja drzew decyzyjnych - Indeks Gini & Zysk informacyjny Indeks Gini Popularnym kryterium podziału, stosowanym w wielu produktach komercyjnych, jest indeks Gini Algorytm SPRINT

Bardziej szczegółowo

INDUKCJA DRZEW DECYZYJNYCH

INDUKCJA DRZEW DECYZYJNYCH INDUKCJA DRZEW DECYZYJNYCH 1. Pojęcia podstawowe. 2. Idea algorytmów TDIT. 3. Kryteria oceny atrybutów entropia. 4. "Klasyczna" postać algorytmu ID3. 5. Przykład ilustracyjny. 6. Transformacja drzewa do

Bardziej szczegółowo

Klasyfikacja obiektów Drzewa decyzyjne (drzewa klasyfikacyjne)

Klasyfikacja obiektów Drzewa decyzyjne (drzewa klasyfikacyjne) Klasyfikacja obiektów Drzewa decyzyjne (drzewa klasyfikacyjne) Tadeusz Pankowski www.put.poznan.pl/~tadeusz.pankowski Klasyfikacja i predykcja. Odkrywaniem reguł klasyfikacji nazywamy proces znajdowania

Bardziej szczegółowo

Drzewa AVL definicje

Drzewa AVL definicje Drzewa AVL definicje Uporzadkowane drzewo binarne jest drzewem AVL 1, jeśli dla każdego wez la różnica wysokości dwóch jego poddrzew wynosi co najwyżej 1. M D S C H F K Z typowe drzewo AVL minimalne drzewa

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska

SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska DRZEWO REGRESYJNE Sposób konstrukcji i przycinania

Bardziej szczegółowo

Metody klasyfikacji danych - część 1 p.1/24

Metody klasyfikacji danych - część 1 p.1/24 Metody klasyfikacji danych - część 1 Inteligentne Usługi Informacyjne Jerzy Dembski Metody klasyfikacji danych - część 1 p.1/24 Plan wykładu - Zadanie klasyfikacji danych - Przeglad problemów klasyfikacji

Bardziej szczegółowo

WNIOSKOWANIE W MODELU REGRESJI LINIOWEJ

WNIOSKOWANIE W MODELU REGRESJI LINIOWEJ WNIOSKOWANIE W MODELU REGRESJI LINIOWEJ Dana jest populacja generalna, w której dwuwymiarowa cecha (zmienna losowa) (X, Y ) ma pewien dwuwymiarowy rozk lad. Miara korelacji liniowej dla zmiennych (X, Y

Bardziej szczegółowo

Klasyfikacja. Indeks Gini Zysk informacyjny. Eksploracja danych. Klasyfikacja wykład 2

Klasyfikacja. Indeks Gini Zysk informacyjny. Eksploracja danych. Klasyfikacja wykład 2 Klasyfikacja Indeks Gini Zysk informacyjny Klasyfikacja wykład 2 Kontynuujemy prezentacje metod klasyfikacji. Na wykładzie zostaną przedstawione dwa podstawowe algorytmy klasyfikacji oparte o indukcję

Bardziej szczegółowo

Algorytmy klasyfikacji

Algorytmy klasyfikacji Algorytmy klasyfikacji Konrad Miziński Instytut Informatyki Politechnika Warszawska 6 maja 2015 1 Wnioskowanie 2 Klasyfikacja Zastosowania 3 Drzewa decyzyjne Budowa Ocena jakości Przycinanie 4 Lasy losowe

Bardziej szczegółowo

SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006

SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006 SAS wybrane elementy DATA MINING Część III Seweryn Kowalski 2006 Algorytmy eksploracji danych Algorytm eksploracji danych jest dobrze zdefiniowaną procedurą, która na wejściu otrzymuje dane, a na wyjściu

Bardziej szczegółowo

INDUKCJA DRZEW DECYZYJNYCH

INDUKCJA DRZEW DECYZYJNYCH Jerzy Stefanowski Instytut Informatyki Politechniki Poznańskiej Wykład z przedmiotu Uczenie maszynowe i sieci neuronowe INDUKCJA DRZEW DECYZYJNYCH 1. Pojęcia podstawowe. 2. Idea algorytmów TDIT. 3. Kryteria

Bardziej szczegółowo

Wyk lad 7: Drzewa decyzyjne dla dużych zbiorów danych

Wyk lad 7: Drzewa decyzyjne dla dużych zbiorów danych Wyk lad 7: Drzewa decyzyjne dla dużych zbiorów danych Funkcja rekurencyjna buduj drzewo(u, dec, T): 1: if (kryterium stopu(u, dec) = true) then 2: T.etykieta = kategoria(u, dec); 3: return; 4: end if 5:

Bardziej szczegółowo

Sztuczna Inteligencja Projekt

Sztuczna Inteligencja Projekt Sztuczna Inteligencja Projekt Temat: Algorytm F-LEM1 Liczba osób realizujących projekt: 2 1. Zaimplementować algorytm F LEM 1. 2. Zaimplementować klasyfikator Classif ier. 3. Za pomocą algorytmu F LEM1

Bardziej szczegółowo

Wybrane zagadnienia uczenia maszynowego. Zastosowania Informatyki w Informatyce W2 Krzysztof Krawiec

Wybrane zagadnienia uczenia maszynowego. Zastosowania Informatyki w Informatyce W2 Krzysztof Krawiec Wybrane zagadnienia uczenia maszynowego Zastosowania Informatyki w Informatyce W2 Krzysztof Krawiec Przygotowane na podstawie T. Mitchell, Machine Learning S.J. Russel, P. Norvig, Artificial Intelligence

Bardziej szczegółowo

Uruchamianie SNNS. Po uruchomieniu. xgui & lub snns & pojawia si e okno. programu. Symulator sztucznych sieci neuronowych SNNS 1

Uruchamianie SNNS. Po uruchomieniu. xgui & lub snns & pojawia si e okno. programu. Symulator sztucznych sieci neuronowych SNNS 1 Uruchamianie SNNS Ca ly pakiet SNNS sk lada si e z programu interfejsu graficznego xgui, oraz z szeregu programów sk ladowych: analyze isnns netlearn snnsbat batchman linknets netperf td_bignet convert2snns

Bardziej szczegółowo

Wyk lad 8: Leniwe metody klasyfikacji

Wyk lad 8: Leniwe metody klasyfikacji Wyk lad 8: Leniwe metody Wydzia l MIM, Uniwersytet Warszawski Outline 1 2 lazy vs. eager learning lazy vs. eager learning Kiedy stosować leniwe techniki? Eager learning: Buduje globalna hipoteze Zaleta:

Bardziej szczegółowo

Wprowadzenie do klasyfikacji

Wprowadzenie do klasyfikacji Wprowadzenie do klasyfikacji ZeroR Odpowiada zawsze tak samo Decyzja to klasa większościowa ze zbioru uczącego A B X 1 5 T 1 7 T 1 5 T 1 5 F 2 7 F Tutaj jest więcej obiektów klasy T, więc klasyfikator

Bardziej szczegółowo

Uczenie się maszyn. Dariusz Banasiak. Katedra Informatyki Technicznej Wydział Elektroniki

Uczenie się maszyn. Dariusz Banasiak. Katedra Informatyki Technicznej Wydział Elektroniki Dariusz Banasiak Katedra Informatyki Technicznej Wydział Elektroniki Machine Learning (uczenie maszynowe, uczenie się maszyn, systemy uczące się) interdyscyplinarna nauka, której celem jest stworzenie

Bardziej szczegółowo

Normy wektorów i macierzy

Normy wektorów i macierzy Rozdzia l 3 Normy wektorów i macierzy W tym rozdziale zak ladamy, że K C. 3.1 Ogólna definicja normy Niech ψ : K m,n [0, + ) b edzie przekszta lceniem spe lniaj acym warunki: (i) A K m,n ψ(a) = 0 A = 0,

Bardziej szczegółowo

Reguły decyzyjne, algorytm AQ i CN2. Reguły asocjacyjne, algorytm Apriori.

Reguły decyzyjne, algorytm AQ i CN2. Reguły asocjacyjne, algorytm Apriori. Analiza danych Reguły decyzyjne, algorytm AQ i CN2. Reguły asocjacyjne, algorytm Apriori. Jakub Wróblewski jakubw@pjwstk.edu.pl http://zajecia.jakubw.pl/ REGUŁY DECYZYJNE Metoda reprezentacji wiedzy (modelowania

Bardziej szczegółowo

Złożoność i zagadnienia implementacyjne. Wybierz najlepszy atrybut i ustaw jako test w korzeniu. Stwórz gałąź dla każdej wartości atrybutu.

Złożoność i zagadnienia implementacyjne. Wybierz najlepszy atrybut i ustaw jako test w korzeniu. Stwórz gałąź dla każdej wartości atrybutu. Konwersatorium Matematyczne Metody Ekonomii Narzędzia matematyczne w eksploracji danych Indukcja drzew decyzyjnych Wykład 3 - część 2 Marcin Szczuka http://www.mimuw.edu.pl/ szczuka/mme/ Plan wykładu Generowanie

Bardziej szczegółowo

us lugi katalogowe? Czym różni si e serwer katalogowy od serwera bazy danych:

us lugi katalogowe? Czym różni si e serwer katalogowy od serwera bazy danych: Co to sa us lugi katalogowe? Czym różni si e serwer katalogowy od serwera bazy danych: Dane w serwerze katalogowym sa przegladane dużo cz eściej, niż sa modyfikowane, inaczej niż w zwyk lej bazie danych.

Bardziej szczegółowo

Drzewa decyzyjne, metody budowania, zastosowania

Drzewa decyzyjne, metody budowania, zastosowania Wydzia Elektroniki Politechniki Wroc awskiej Kierunek: Informatyka Specjalno : In ynieria Systemów Informatycznych Praca zaliczeniowa do kursu Informatyka systemów autonomicznych Drzewa decyzyjne, metody

Bardziej szczegółowo

Statystyka w analizie i planowaniu eksperymentu

Statystyka w analizie i planowaniu eksperymentu 21 marca 2011 Zmienna losowa - wst ep Przeprowadzane w praktyce badania i eksperymenty maja bardzo różnorodny charakter, niemniej jednak wiaż a sie one z rejestracja jakiś sygna lów (danych). Moga to być

Bardziej szczegółowo

Metody teorii gier. ALP520 - Wykład z Algorytmów Probabilistycznych p.2

Metody teorii gier. ALP520 - Wykład z Algorytmów Probabilistycznych p.2 Metody teorii gier ALP520 - Wykład z Algorytmów Probabilistycznych p.2 Metody teorii gier Cel: Wyprowadzenie oszacowania dolnego na oczekiwany czas działania dowolnego algorytmu losowego dla danego problemu.

Bardziej szczegółowo

Metody indukcji reguł

Metody indukcji reguł Metody indukcji reguł Indukcja reguł Grupa metod charakteryzująca się wydobywaniem reguł ostrych na podstawie analizy przypadków. Dane doświadczalne składają się z dwóch części: 1) wejściowych X, gdzie

Bardziej szczegółowo

Statystyka w analizie i planowaniu eksperymentu

Statystyka w analizie i planowaniu eksperymentu 29 marca 2011 Przestrzeń statystyczna - podstawowe zadania statystyki Zdarzeniom losowym określonym na pewnej przestrzeni zdarzeń elementarnych Ω można zazwyczaj na wiele różnych sposobów przypisać jakieś

Bardziej szczegółowo

Statystyka w analizie i planowaniu eksperymentu

Statystyka w analizie i planowaniu eksperymentu 31 marca 2014 Przestrzeń statystyczna - podstawowe zadania statystyki Zdarzeniom losowym określonym na pewnej przestrzeni zdarzeń elementarnych Ω można zazwyczaj na wiele różnych sposobów przypisać jakieś

Bardziej szczegółowo

Przykładowe B+ drzewo

Przykładowe B+ drzewo Przykładowe B+ drzewo 3 8 1 3 7 8 12 Jak obliczyć rząd indeksu p Dane: rozmiar klucza V, rozmiar wskaźnika do bloku P, rozmiar bloku B, liczba rekordów w indeksowanym pliku danych r i liczba bloków pliku

Bardziej szczegółowo

Statystyka w analizie i planowaniu eksperymentu

Statystyka w analizie i planowaniu eksperymentu 10 marca 2014 Zmienna losowa - wst ep Przeprowadzane w praktyce badania i eksperymenty maja bardzo różnorodny charakter, niemniej jednak wiaż a sie one z rejestracja jakiś sygna lów (danych). Moga to być

Bardziej szczegółowo

Funkcje. Piotr Zierhoffer. 7 października Institute of Computer Science Poznań University of Technology

Funkcje. Piotr Zierhoffer. 7 października Institute of Computer Science Poznań University of Technology Funkcje Piotr Zierhoffer Institute of Computer Science Poznań University of Technology 7 października 2012 Funkcje Funkcja podprogram. Nazwany blok kodu realizujacy jakieś zadanie. sin(x), arccos(x), min(a,

Bardziej szczegółowo

Drzewa klasyfikacyjne algorytm podstawowy

Drzewa klasyfikacyjne algorytm podstawowy DRZEWA DECYZYJNE Drzewa klasyfikacyjne algorytm podstawowy buduj_drzewo(s przykłady treningowe, A zbiór atrybutów) { utwórz węzeł t (korzeń przy pierwszym wywołaniu); if (wszystkie przykłady w S należą

Bardziej szczegółowo

Pochodne cz ¾astkowe i ich zastosowanie.

Pochodne cz ¾astkowe i ich zastosowanie. Pochodne cz ¾astkowe i ich zastosowanie. Adam Kiersztyn Lublin 2013 Adam Kiersztyn () Pochodne cz ¾astkowe i ich zastosowanie. maj 2013 1 / 18 Zanim przejdziemy do omawiania pochodnych funkcji wielu zmiennych

Bardziej szczegółowo

Klasyfikacja i regresja Wstęp do środowiska Weka

Klasyfikacja i regresja Wstęp do środowiska Weka Klasyfikacja i regresja Wstęp do środowiska Weka 19 listopada 2015 Opis pliku z zadaniami Wszystkie zadania na zajęciach będą przekazywane w postaci plików pdf sformatowanych podobnie do tego dokumentu.

Bardziej szczegółowo

Jeden przyk lad... czyli dlaczego warto wybrać MIESI.

Jeden przyk lad... czyli dlaczego warto wybrać MIESI. Jeden przyk lad... czyli dlaczego warto wybrać MIESI. Micha l Ramsza Szko la G lówna Handlowa Micha l Ramsza (Szko la G lówna Handlowa) Jeden przyk lad... czyli dlaczego warto wybrać MIESI. 1 / 13 Dlaczego

Bardziej szczegółowo

Wprowadzenie do uczenia maszynowego

Wprowadzenie do uczenia maszynowego Wprowadzenie do uczenia maszynowego Agnieszka Ławrynowicz 12 stycznia 2017 Co to jest uczenie maszynowe? dziedzina nauki, która zajmuje się sprawianiem aby komputery mogły uczyć się bez ich zaprogramowania

Bardziej szczegółowo

Kompresja danych Streszczenie Studia Dzienne Wykład 10,

Kompresja danych Streszczenie Studia Dzienne Wykład 10, 1 Kwantyzacja wektorowa Kompresja danych Streszczenie Studia Dzienne Wykład 10, 28.04.2006 Kwantyzacja wektorowa: dane dzielone na bloki (wektory), każdy blok kwantyzowany jako jeden element danych. Ogólny

Bardziej szczegółowo

B jest globalnym pokryciem zbioru {d} wtedy i tylko wtedy, gdy {d} zależy od B i nie istnieje B T takie, że {d} zależy od B ;

B jest globalnym pokryciem zbioru {d} wtedy i tylko wtedy, gdy {d} zależy od B i nie istnieje B T takie, że {d} zależy od B ; Algorytm LEM1 Oznaczenia i definicje: U - uniwersum, tj. zbiór obiektów; A - zbiór atrybutów warunkowych; d - atrybut decyzyjny; IND(B) = {(x, y) U U : a B a(x) = a(y)} - relacja nierozróżnialności, tj.

Bardziej szczegółowo

Klasyfikacja metodą Bayesa

Klasyfikacja metodą Bayesa Klasyfikacja metodą Bayesa Tadeusz Pankowski www.put.poznan.pl/~tadeusz.pankowski warunkowe i bezwarunkowe 1. Klasyfikacja Bayesowska jest klasyfikacją statystyczną. Pozwala przewidzieć prawdopodobieństwo

Bardziej szczegółowo

Poprawność semantyczna

Poprawność semantyczna Poprawność składniowa Poprawność semantyczna Poprawność algorytmu Wypisywanie zdań z języka poprawnych składniowo Poprawne wartościowanie zdań języka, np. w języku programowania skutki wystąpienia wyróżnionych

Bardziej szczegółowo

Indukcja drzew decyzyjnych

Indukcja drzew decyzyjnych Konwersatorium Matematyczne Metody Ekonomii Narzędzia matematyczne w eksploracji danych Indukcja drzew decyzyjnych Wykład 3 - część 2 Marcin Szczuka http://www.mimuw.edu.pl/ szczuka/mme/ Divide et impera

Bardziej szczegółowo

Wprowadzenie Sformułowanie problemu Typy reguł asocjacyjnych Proces odkrywania reguł asocjacyjnych. Data Mining Wykład 2

Wprowadzenie Sformułowanie problemu Typy reguł asocjacyjnych Proces odkrywania reguł asocjacyjnych. Data Mining Wykład 2 Data Mining Wykład 2 Odkrywanie asocjacji Plan wykładu Wprowadzenie Sformułowanie problemu Typy reguł asocjacyjnych Proces odkrywania reguł asocjacyjnych Geneza problemu Geneza problemu odkrywania reguł

Bardziej szczegółowo

P. Urzyczyn: Materia ly do wyk ladu z semantyki. Uproszczony 1 j. ezyk PCF

P. Urzyczyn: Materia ly do wyk ladu z semantyki. Uproszczony 1 j. ezyk PCF 29 kwietnia 2013, godzina 23: 56 strona 1 P. Urzyczyn: Materia ly do wyk ladu z semantyki Uproszczony 1 j ezyk PCF Sk ladnia: Poniżej Γ oznacza otoczenie typowe, czyli zbiór deklaracji postaci (x : τ).

Bardziej szczegółowo

operacje porównania, a jeśli jest to konieczne ze względu na złe uporządkowanie porównywanych liczb zmieniamy ich kolejność, czyli przestawiamy je.

operacje porównania, a jeśli jest to konieczne ze względu na złe uporządkowanie porównywanych liczb zmieniamy ich kolejność, czyli przestawiamy je. Problem porządkowania zwanego również sortowaniem jest jednym z najważniejszych i najpopularniejszych zagadnień informatycznych. Dane: Liczba naturalna n i ciąg n liczb x 1, x 2,, x n. Wynik: Uporządkowanie

Bardziej szczegółowo

3.2 Wykorzystanie drzew do generowania pytań

3.2 Wykorzystanie drzew do generowania pytań Algorithm 3.2 Schemat prostego przycinania drzewa function przytnij_drzewo( T: drzewo do przycięcia, P: zbiór_przykładów) returns drzewo decyzyjne begin for węzły n drzewa T: T* = w drzewie T zastąp n

Bardziej szczegółowo

Wyk lad 9 Podpierścienie, elementy odwracalne, dzielniki zera

Wyk lad 9 Podpierścienie, elementy odwracalne, dzielniki zera Wyk lad 9 Podpierścienie, elementy odwracalne, dzielniki zera Określenie podpierścienia Definicja 9.. Podpierścieniem pierścienia (P, +,, 0, ) nazywamy taki podzbiór A P, który jest pierścieniem ze wzgledu

Bardziej szczegółowo

Paradygmaty programowania. Paradygmaty programowania

Paradygmaty programowania. Paradygmaty programowania Paradygmaty programowania Paradygmaty programowania Dr inż. Andrzej Grosser Cz estochowa, 2013 2 Spis treści 1. Zadanie 2 5 1.1. Wprowadzenie.................................. 5 1.2. Wskazówki do zadania..............................

Bardziej szczegółowo

Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych. Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS

Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych. Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS Dyskretyzacja - definicja Dyskretyzacja - zamiana atrybutów

Bardziej szczegółowo

Wysokość drzewa Głębokość węzła

Wysokość drzewa Głębokość węzła Drzewa Drzewa Drzewo (ang. tree) zbiór węzłów powiązanych wskaźnikami, spójny i bez cykli. Drzewo posiada wyróżniony węzeł początkowy nazywany korzeniem (ang. root). Drzewo ukorzenione jest strukturą hierarchiczną.

Bardziej szczegółowo

Reguły asocjacyjne, wykł. 11

Reguły asocjacyjne, wykł. 11 Reguły asocjacyjne, wykł. 11 Joanna Jędrzejowicz Instytut Informatyki Przykłady reguł Analiza koszyka sklepowego (ang. market basket analysis) - jakie towary kupowane są razem, Jakie towary sprzedają się

Bardziej szczegółowo

Modelowanie motywów łańcuchami Markowa wyższego rzędu

Modelowanie motywów łańcuchami Markowa wyższego rzędu Modelowanie motywów łańcuchami Markowa wyższego rzędu Uniwersytet Warszawski Wydział Matematyki, Informatyki i Mechaniki 23 października 2008 roku Plan prezentacji 1 Źródła 2 Motywy i ich znaczenie Łańcuchy

Bardziej szczegółowo

Wstęp do programowania. Drzewa podstawowe techniki. Piotr Chrząstowski-Wachtel

Wstęp do programowania. Drzewa podstawowe techniki. Piotr Chrząstowski-Wachtel Wstęp do programowania Drzewa podstawowe techniki Piotr Chrząstowski-Wachtel Drzewa wyszukiwań Drzewa często służą do przechowywania informacji. Jeśli uda sie nam stworzyć drzewo o niewielkiej wysokości

Bardziej szczegółowo

ZASADY PROGRAMOWANIA KOMPUTERÓW ZAP zima 2014/2015. Drzewa BST c.d., równoważenie drzew, kopce.

ZASADY PROGRAMOWANIA KOMPUTERÓW ZAP zima 2014/2015. Drzewa BST c.d., równoważenie drzew, kopce. POLITECHNIKA WARSZAWSKA Instytut Automatyki i Robotyki ZASADY PROGRAMOWANIA KOMPUTERÓW ZAP zima 204/205 Język programowania: Środowisko programistyczne: C/C++ Qt Wykład 2 : Drzewa BST c.d., równoważenie

Bardziej szczegółowo

Baza danych dla potrzeb zgłębiania DMX

Baza danych dla potrzeb zgłębiania DMX Baza danych dla potrzeb zgłębiania DMX ID Outlook Temperature Humidity Windy PLAY 1 sunny hot high false N 2 sunny hot high true N 3 overcast hot high false T 4rain mild high false T 5rain cool normal

Bardziej szczegółowo

KOLOKWIUM PODSTAWY PROGRAMOWANIA

KOLOKWIUM PODSTAWY PROGRAMOWANIA KOLOKWIUM PODTAWY PROGRAMOWANIA BARTOZ ZIELIŃKI pis treści 1. Zasady ogólne 2 2. Zadanie cześć wspólna 3 2.1. Cel zadania 3 2.2. Wskazówki 4 2.3. Uwagi na temat uruchamiania programów 5 3. Zestawy 7 3.1.

Bardziej szczegółowo

SYSTEM DIAGNOSTYCZNY OPARTY NA LOGICE DOMNIEMAŃ. Ewa Madalińska. na podstawie prac:

SYSTEM DIAGNOSTYCZNY OPARTY NA LOGICE DOMNIEMAŃ. Ewa Madalińska. na podstawie prac: SYSTEM DIAGNOSTYCZNY OPARTY NA LOGICE DOMNIEMAŃ Ewa Madalińska na podstawie prac: [1] Lukaszewicz,W. (1988) Considerations on Default Logic: An Alternative Approach. Computational Intelligence, 44[1],

Bardziej szczegółowo

SID Wykład 10 Systemy uczace się

SID Wykład 10 Systemy uczace się SID Wykład 10 Systemy uczace się Wydział Matematyki, Informatyki i Mechaniki UW slezak@mimuw.edu.pl Uczenie indukcyjne Obiekty: Decyzja: dane reprezentujace rzeczywisty stan lub obiekt, tworza przestrzeń

Bardziej szczegółowo

prowadzący dr ADRIAN HORZYK /~horzyk e-mail: horzyk@agh tel.: 012-617 Konsultacje paw. D-13/325

prowadzący dr ADRIAN HORZYK /~horzyk e-mail: horzyk@agh tel.: 012-617 Konsultacje paw. D-13/325 PODSTAWY INFORMATYKI WYKŁAD 8. prowadzący dr ADRIAN HORZYK http://home home.agh.edu.pl/~ /~horzyk e-mail: horzyk@agh agh.edu.pl tel.: 012-617 617-4319 Konsultacje paw. D-13/325 DRZEWA Drzewa to rodzaj

Bardziej szczegółowo

Wybrane zagadnienia uczenia maszynowego

Wybrane zagadnienia uczenia maszynowego Przygotowane na podstawie Wybrane zagadnienia uczenia maszynowego Zastosowania Informatyki w Informatyce W2 Krzysztof Krawiec 1. T. Mitchell, Machine Learning 2. S.J. Russel, P. Norvig, Artificial Intelligence

Bardziej szczegółowo

Wyk lad 7 Metoda eliminacji Gaussa. Wzory Cramera

Wyk lad 7 Metoda eliminacji Gaussa. Wzory Cramera Wyk lad 7 Metoda eliminacji Gaussa Wzory Cramera Metoda eliminacji Gaussa Metoda eliminacji Gaussa polega na znalezieniu dla danego uk ladu a x + a 2 x 2 + + a n x n = b a 2 x + a 22 x 2 + + a 2n x n =

Bardziej szczegółowo

ED Laboratorium 3. Drzewa decyzyjne

ED Laboratorium 3. Drzewa decyzyjne ED Laboratorium Drzewa decyzyjne 1 Drzewa decyzyjne Algorytmy indukcji drzew decyzyjnych to jeden z klasycznych algorytmów uczenia maszynowego służący do rozwiązywania problemu klasyfikacji. Drzewa decyzyjne

Bardziej szczegółowo

Informatyka I. Wyk lad I. Wprowadzenie. Robert Muszyński Instytut Cybernetyki Technicznej Politechnika Wroc lawska

Informatyka I. Wyk lad I. Wprowadzenie. Robert Muszyński Instytut Cybernetyki Technicznej Politechnika Wroc lawska Informatyka I Wyk lad I Wprowadzenie Robert Muszyński Instytut Cybernetyki Technicznej Politechnika Wroc lawska pokój 331 budynek C3 email: mucha@inyo.ict.pwr.wroc.pl Zagadnienia: literatura, zawartość

Bardziej szczegółowo

Automatyczne wyodrębnianie reguł

Automatyczne wyodrębnianie reguł Automatyczne wyodrębnianie reguł Jedną z form reprezentacji wiedzy jest jej zapis w postaci zestawu reguł. Ta forma ma szereg korzyści: daje się łatwo interpretować, można zrozumieć sposób działania zbudowanego

Bardziej szczegółowo

8. Drzewa decyzyjne, bagging, boosting i lasy losowe

8. Drzewa decyzyjne, bagging, boosting i lasy losowe Algorytmy rozpoznawania obrazów 8. Drzewa decyzyjne, bagging, boosting i lasy losowe dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Drzewa decyzyjne Drzewa decyzyjne (ang. decision trees), zwane

Bardziej szczegółowo

Sztuczna Inteligencja Projekt

Sztuczna Inteligencja Projekt Sztuczna Inteligencja Projekt Temat: Algorytm LEM2 Liczba osób realizujących projekt: 2 1. Zaimplementować algorytm LEM 2. 2. Zaimplementować klasyfikator Classif ier. 3. Za pomocą algorytmu LEM 2 wygenerować

Bardziej szczegółowo

Wyk lad 3 Wyznaczniki

Wyk lad 3 Wyznaczniki 1 Określenie wyznacznika Wyk lad 3 Wyznaczniki Niech A bedzie macierza kwadratowa stopnia n > 1 i niech i, j bed a liczbami naturalnymi n Symbolem A ij oznaczać bedziemy macierz kwadratowa stopnia n 1

Bardziej szczegółowo

Drzewa czerwono-czarne.

Drzewa czerwono-czarne. Binboy at Sphere http://binboy.sphere.p l Drzewa czerwono-czarne. Autor: Jacek Zacharek Wstęp. Pojęcie drzewa czerwono-czarnego (red-black tree) zapoczątkował Rudolf Bayer w książce z 1972 r. pt. Symmetric

Bardziej szczegółowo

Porządek symetryczny: right(x)

Porządek symetryczny: right(x) Porządek symetryczny: x lef t(x) right(x) Własność drzewa BST: W drzewach BST mamy porządek symetryczny. Dla każdego węzła x spełniony jest warunek: jeżeli węzeł y leży w lewym poddrzewie x, to key(y)

Bardziej szczegółowo

Wstęp do programowania. Drzewa. Piotr Chrząstowski-Wachtel

Wstęp do programowania. Drzewa. Piotr Chrząstowski-Wachtel Wstęp do programowania Drzewa Piotr Chrząstowski-Wachtel Drzewa Drzewa definiują matematycy, jako spójne nieskierowane grafy bez cykli. Równoważne określenia: Spójne grafy o n wierzchołkach i n-1 krawędziach

Bardziej szczegółowo

Wyk lad 7 Baza i wymiar przestrzeni liniowej

Wyk lad 7 Baza i wymiar przestrzeni liniowej Wyk lad 7 Baza i wymiar przestrzeni liniowej 1 Baza przestrzeni liniowej Niech V bedzie przestrzenia liniowa. Powiemy, że podzbiór X V jest maksymalnym zbiorem liniowo niezależnym, jeśli X jest zbiorem

Bardziej szczegółowo

Wykład X. Programowanie. dr inż. Janusz Słupik. Gliwice, Wydział Matematyki Stosowanej Politechniki Śląskiej. c Copyright 2016 Janusz Słupik

Wykład X. Programowanie. dr inż. Janusz Słupik. Gliwice, Wydział Matematyki Stosowanej Politechniki Śląskiej. c Copyright 2016 Janusz Słupik Wykład X Wydział Matematyki Stosowanej Politechniki Śląskiej Gliwice, 2016 c Copyright 2016 Janusz Słupik Drzewa binarne Drzewa binarne Drzewo binarne - to drzewo (graf spójny bez cykli) z korzeniem (wyróżnionym

Bardziej szczegółowo

Rozdzia l 11. Przestrzenie Euklidesowe Definicja, iloczyn skalarny i norma. iloczynem skalarnym.

Rozdzia l 11. Przestrzenie Euklidesowe Definicja, iloczyn skalarny i norma. iloczynem skalarnym. Rozdzia l 11 Przestrzenie Euklidesowe 11.1 Definicja, iloczyn skalarny i norma Definicja 11.1 Przestrzenia Euklidesowa nazywamy par e { X K,ϕ }, gdzie X K jest przestrzenia liniowa nad K, a ϕ forma dwuliniowa

Bardziej szczegółowo

3. MINIMAX. Rysunek 1: Drzewo obrazujące przebieg gry.

3. MINIMAX. Rysunek 1: Drzewo obrazujące przebieg gry. 3. MINIMAX. Bardzo wygodną strukturą danych pozwalającą reprezentować stan i przebieg gry (szczególnie gier dwuosobowych) jest drzewo. Węzły drzewa reprezentują stan gry po wykonaniu ruchu przez jednego

Bardziej szczegółowo

MEODY GRUPOWANIA DANYCH

MEODY GRUPOWANIA DANYCH Sztuczna inteligencja 9999 pages 17 MEODY GRUPOWANIA DANYCH PB 1 CWICZENIE I 1. Ze zbioru danych iris.tab wybra nastepuj ce obiekty: ID SL SW PL PW C 1 5.1 3.5 1.4 0.2 Iris-setosa 2 4.9 3.0 1.4 0.2 Iris-setosa

Bardziej szczegółowo

Statystyka w analizie i planowaniu eksperymentu

Statystyka w analizie i planowaniu eksperymentu 22 marca 2011 Przestrzeń statystyczna - podstawowe zadania statystyki Zdarzeniom losowym określonym na pewnej przestrzeni zdarzeń elementarnych Ω można zazwyczaj na wiele różnych sposobów przypisać jakieś

Bardziej szczegółowo

ALGORYTM RANDOM FOREST

ALGORYTM RANDOM FOREST SKRYPT PRZYGOTOWANY NA ZAJĘCIA INDUKOWANYCH REGUŁ DECYZYJNYCH PROWADZONYCH PRZEZ PANA PAWŁA WOJTKIEWICZA ALGORYTM RANDOM FOREST Katarzyna Graboś 56397 Aleksandra Mańko 56699 2015-01-26, Warszawa ALGORYTM

Bardziej szczegółowo

Algorytmy metaheurystyczne Wykład 11. Piotr Syga

Algorytmy metaheurystyczne Wykład 11. Piotr Syga Algorytmy metaheurystyczne Wykład 11 Piotr Syga 22.05.2017 Drzewa decyzyjne Idea Cel Na podstawie przesłanek (typowo zbiory rozmyte) oraz zbioru wartości w danych testowych, w oparciu o wybrane miary,

Bardziej szczegółowo

Algorytm grupowania danych typu kwantyzacji wektorów

Algorytm grupowania danych typu kwantyzacji wektorów Algorytm grupowania danych typu kwantyzacji wektorów Wstęp Definicja problemu: Typowe, rozważane dotychczas problemy koncentrowały się na nauczeniu na podstawie zbioru treningowego i zbioru etykiet klasyfikacji

Bardziej szczegółowo

Indukowane Reguły Decyzyjne I. Wykład 8

Indukowane Reguły Decyzyjne I. Wykład 8 Indukowane Reguły Decyzyjne I Wykład 8 IRD Wykład 8 Plan Powtórka Krzywa ROC = Receiver Operating Characteristic Wybór modelu Statystyka AUC ROC = pole pod krzywą ROC Wybór punktu odcięcia Reguły decyzyjne

Bardziej szczegółowo

Tematy projektów z Metod Sztucznej Inteligencji

Tematy projektów z Metod Sztucznej Inteligencji dr inż. Jerzy Martyna Tematy projektów z Metod Sztucznej Inteligencji 1) Projekt regulatora rozmytego W oparciu o zbiory rozmyte projekt dotyczy konstrukcji regulatora P, PD, PI, PID i jego analizy. 2)

Bardziej szczegółowo

Systemy decyzyjne Wykªad 5: Drzewa decyzyjne

Systemy decyzyjne Wykªad 5: Drzewa decyzyjne Nguyen Hung Son () W5: Drzewa decyzyjne 1 / 38 Systemy decyzyjne Wykªad 5: Drzewa decyzyjne Nguyen Hung Son Przykªad: klasyfikacja robotów Nguyen Hung Son () W5: Drzewa decyzyjne 2 / 38 Przykªad: drzewo

Bardziej szczegółowo

Algorytmy i Struktury Danych

Algorytmy i Struktury Danych Algorytmy i Struktury Danych Kopce Bożena Woźna-Szcześniak bwozna@gmail.com Jan Długosz University, Poland Wykład 11 Bożena Woźna-Szcześniak (AJD) Algorytmy i Struktury Danych Wykład 11 1 / 69 Plan wykładu

Bardziej szczegółowo

Podstawy programowania 2. Temat: Drzewa binarne. Przygotował: mgr inż. Tomasz Michno

Podstawy programowania 2. Temat: Drzewa binarne. Przygotował: mgr inż. Tomasz Michno Instrukcja laboratoryjna 5 Podstawy programowania 2 Temat: Drzewa binarne Przygotował: mgr inż. Tomasz Michno 1 Wstęp teoretyczny Drzewa są jedną z częściej wykorzystywanych struktur danych. Reprezentują

Bardziej szczegółowo

ep do matematyki aktuarialnej Micha l Jasiczak Wyk lad 5 Kalkulacja sk ladki netto I

ep do matematyki aktuarialnej Micha l Jasiczak Wyk lad 5 Kalkulacja sk ladki netto I Wst ep do matematyki aktuarialnej Micha l Jasiczak Wyk lad 5 Kalkulacja sk ladki netto I 1 Kodeks cywilny Tytu l XXVII, Umowa ubezpieczenia Dzia l I. Przepisy ogólne Dzia l II. Ubezpieczenia majatkowe

Bardziej szczegółowo

1 Praktyczne metody wyznaczania podstawowych miar przy zastosowaniu programu EXCEL

1 Praktyczne metody wyznaczania podstawowych miar przy zastosowaniu programu EXCEL Kurs w zakresie zaawansowanych metod komputerowej analizy danych Podstawy statystycznej analizy danych 9.03.2014-3 godziny ćwiczeń autor: Adam Kiersztyn 1 Praktyczne metody wyznaczania podstawowych miar

Bardziej szczegółowo

Przykład eksploracji danych o naturze statystycznej Próba 1 wartości zmiennej losowej odległość

Przykład eksploracji danych o naturze statystycznej Próba 1 wartości zmiennej losowej odległość Dwie metody Klasyczna metoda histogramu jako narzędzie do postawienia hipotezy, jaki rozkład prawdopodobieństwa pasuje do danych Indukcja drzewa decyzyjnego jako metoda wykrycia klasyfikatora ukrytego

Bardziej szczegółowo

Drzewa klasyfikacyjne Lasy losowe. Wprowadzenie

Drzewa klasyfikacyjne Lasy losowe. Wprowadzenie Wprowadzenie Konstrukcja binarnych drzew klasyfikacyjnych polega na sekwencyjnym dzieleniu podzbiorów przestrzeni próby X na dwa rozłączne i dopełniające się podzbiory, rozpoczynając od całego zbioru X.

Bardziej szczegółowo

Kompresja bezstratna. Entropia. Kod Huffmana

Kompresja bezstratna. Entropia. Kod Huffmana Kompresja bezstratna. Entropia. Kod Huffmana Kodowanie i bezpieczeństwo informacji - Wykład 10 29 kwietnia 2013 Teoria informacji Jeśli P(A) jest prawdopodobieństwem wystapienia informacji A to niech i(a)

Bardziej szczegółowo

Drzewa binarne. Drzewo binarne to dowolny obiekt powstały zgodnie z regułami: jest drzewem binarnym Jeśli T 0. jest drzewem binarnym Np.

Drzewa binarne. Drzewo binarne to dowolny obiekt powstały zgodnie z regułami: jest drzewem binarnym Jeśli T 0. jest drzewem binarnym Np. Drzewa binarne Drzewo binarne to dowolny obiekt powstały zgodnie z regułami: jest drzewem binarnym Jeśli T 0 i T 1 są drzewami binarnymi to T 0 T 1 jest drzewem binarnym Np. ( ) ( ( )) Wielkość drzewa

Bardziej szczegółowo

Dyskretne modele populacji

Dyskretne modele populacji Dyskretne modele populacji Micha l Machtel Adam Soboczyński 19 stycznia 2007 Typeset by FoilTEX Dyskretne modele populacji [1] Wst ep Dyskretny opis modelu matematycznego jest dobry dla populacji w których

Bardziej szczegółowo

Temat: Algorytm kompresji plików metodą Huffmana

Temat: Algorytm kompresji plików metodą Huffmana Temat: Algorytm kompresji plików metodą Huffmana. Wymagania dotyczące kompresji danych Przez M oznaczmy zbiór wszystkich możliwych symboli występujących w pliku (alfabet pliku). Przykład M = 2, gdy plik

Bardziej szczegółowo

Architektura systemów komputerowych

Architektura systemów komputerowych Architektura systemów komputerowych Grzegorz Mazur Zak lad Metod Obliczeniowych Chemii Uniwersytet Jagielloński 12 kwietnia 2011 Grzegorz Mazur (ZMOCh UJ) Architektura systemów komputerowych 12 kwietnia

Bardziej szczegółowo