Ćwiczenie 6. Hurtownie danych
|
|
- Laura Kozak
- 7 lat temu
- Przeglądów:
Transkrypt
1 Ćwiczenie 6. Hurtownie danych Drzewa decyzyjne 1. Reprezentacja drzewa decyzyjnego Metody uczenia si e drzew decyzyjnych to najcz eściej stosowane algorytmy indukcji symbolicznej reprezentacji wiedzy z przyk ladów. Poniżej zostana przedstawione najpopularniejsze algorytmy indukcji drzew, takie jak ID3 oraz C4.5. Drzewo decyzyjne sk lada si e z korzenia, z którego co najmniej dwie ga l ezie (kraw edzie) odchodza do w ez lów leżacych na niższym poziomie. Z każdym w ez lem jest zwiazany test, który sprawdza wartości atrybutu opisujacego przyk lady. Dla każdego z możliwych wyników testu odpowiadajaca mu ga l aź prowadzi do w ez la leżacego na niższym poziomie drzewa. W ez ly, z których nie wychodza żadne ga l ezie, to liście. Przypisuje si e klasy decyzyjne. Tworzenie drzew decyzyjnych ilustruje nast epuj acy przyk lad. Niech b edzie dana pewna grupa klientów sklepu elektronicznego, z których cz eść decyduje si e na zakup komputera typu notebook, podczas gdy pozostali nie sa gotowi do takiego zakupu. Sa oni scharakteryzowani przez 3 atrybuty wyrażajace ocen e poziomu ich dochodów, stwierdzenie faktu, czy sa studentami, oraz ich p leć. Na podstawie wartości tych atrybutów należy przewidzieć wartość atrybutu decyzyjnego kupuje komputer. Tabela 1. Zbór przyk ladów uczacych opisujacy grup e osób, którzy sa klientami sklepu elektronicznego Lp. Dochody Student P leć kupuje komputer 1 średnie tak m eżczyzna tak 2 średnie nie kobieta nie 3 wysokie tak kobieta tak 4 niskie tak m eżczyzna nie 5 niskie tak kobieta nie 6 średnie tak kobieta tak 7 niskie nie kobieta nie 8 średnie nie m eżczyzna nie
2 Za pomoca algorytmu ID3 ze zbioru przyk ladów uczacych reprezentowanych w tabeli powyżej uzyskano drzewo decyzyjne, które przedstawiono na rysunku poniżej. Dochody niskie średnie wysokie Nie Tak Student tak Tak nie Dzi eki utworzonemu drzewu decyzyjnemu można klasyfikować klientów kupujacych komputery (np. typu notebook) w zależności od ich poziomu dochodów i statusu studenckiego. Na przyk lad osoba b ed aca kobieta o dochodach średnich i nie studiujaca nie kupuje komputera. Można dojść do tego analizujac ga l ezie drzewa do liścia (kupuje komputer = nie). Można zauważyć, że p leć osoby nie odgrywa tu żadnej roli. Można zauważyć, że ścieżki prowadzace od korzenia do liścia drzewa reprezentuja koniunkcje pewnych wyrażeń (testów) zdefiniowanych na wartościach atrybutów opisujacych przyk lady. Jeśli do tej samej klasy prowadzi kilka ścieżek, to tworza one sk ladniki pewnej alternatywy. Stad też mówi si e, że drzewa decyzyjne pozwalaja na nauczenie si e poj eć, które można zdefiniować w postaci dysjunkcji takich koniunkcji. Na przyk lad z powyżej przedstawionego drzewa można zdefiniować poj ecie klienta pragnacego kupić komputer za pomoca nast epuj acego wyrażenia dysjunkcyjnego: Nie (dochody = srednie) (student = tak) (dochody = wysokie) Drzewo decyzyjne można też przedstawić jako zbiór regu l określajacego przydzia l obiektów do klas. Każda ścieżka drzewa od korzenia do liścia odpowiada regule. Dla drzewa przedstawionego na powyższym rysunku uzyskuje si e 4 regu ly: 1) if (dochody = niskie) then (kupuje komputer = nie) 2) if (dochody = średnie) (student = nie) then (kupuje komputer = nie) 3) if (dochody = wysokie) then (kupuje komputer = tak) 4) if (dochody = średnie) (student = tak) then (kupuje komputer = tak)
3 Powinno si e sprawdzić, czy wszystkie regu ly posiadaja nienadmiarowe koniunkcje warunków elementarnych. Można to wykonać za pomoca operacji chwilowego pomini ecia warunku w koniunkcji danej regu ly (ang. dropping conditions) i porównania tak zmodyfikowanej regu ly ze zbiorem przyk ladów uczacych. Jeśli regu la nadal jednoznacznie klasyfikuje przyk lady do w laściwej klasy, to warunek może być zredukowany. W przeciwnym przypadku należy go odtworzyć w koniunkcji regu ly. W powyższym zbiorze regu l można zredukować regu l e 2 do poniższej postaci, gdyż w tabeli podanej powyżej wszystkie osoby nie b ed ace studentami równocześnie nie kupi ly komputerów: if (student = nie) then (kupuje komputer = nie) 2. Algorytm ID3 indukcji drzewa decyzyjnego Wi ekszość algorytmów uczenia si e drzew decyzyjnych jest oparta na podobnym heurystycznym schemacie zst epuj acego konstruowania drzewa (nazwa angielska TDIDT - Top Down Induction of Decision Trees). Jest to rozwia- zanie użyte już w pierwszych algorytmach, takich jak ID3, CART, a nast epnie C4.5. Różnice mi edzy konkretnymi algorytmami dotycza przede wszystkim sposobu wyboru testu dla w ez la zwiazanego z ocena jakości podzia lu zbioru przyk ladów w w eźle, zasad podejmowania decyzji o utworzeniu liścia lub w ez la oraz technik uwzgl edniania różnego rodzaju zaburzeń w opisie przyk ladów uczacych. Algorytm schematu zst epuj acego konstruowania drzewa odpowiadajacy wersji ID3 podano poniżej. Zak lada si e, że jest dost epny zbiór przyk ladów uczacych S. Jeżeli wszystkie przyk lady należa do tej samej klasy, to utworzony jest liść i przydzielana mu jest etykieta tej klasy. W przeciwnym razie jest tworzony w eze l (w pierwszej iteracji jest to korzeń drzewa) i konieczne jest sformu lowanie zwiazanego z nim testu. Rozważa si e wszystkie możliwe atrybuty i ocenia ich przydatność do zbudowania testu prowadzacego do podzia lu zbioru przyk ladów S na podzbiory jak najbardziej jednorodne w sensie przydzia lu do klas (w oryginalnej postaci algorytmu ID3 test jest pytaniem o wartość danego atrybutu). Dokonuje si e wyboru najlepszego z tych podzia lów zgodnie z przyj et a miara oceny jakości podzia lu. Rozbudowuje si e drzewo poprzez dodanie do w ez la ga l ezi odpowiadajacych poszczególnym wynikom testu. W przypadku algorytmu ID3 ga l ezie odpowiadaja poszczególnym wartościom v 1, v 2,...,v p atrybutu a. Podzbiór S jest podzielony na podzbiory zgodnie z wybranym testem. Nast epnie używa si e rekurencyjnie napisanej procedury dla każdego z tych podzbiorów, budujac poddrzewo albo liść, jeśli zajdzie warunek zatrzymania.
4 function buduj drzewo; input: S - zbiór przyk ladów wejściowych, A - zbiór atrybutów opisujacych przyk lady (w przypadku ID3 atrybuty sa jakościowe lub zdyskretyzowane); output: drzewo decyzyjne; begin Utwórz w eze l t; {przy pierwszym wywo laniu korzeń drzewa} if wszystkie przyk lady w S należa do tej samej klasy K then return t jako liść z etykieta klasy K; if zbiór A jest pusty then return t jako liść z etykieta klasy do której należy wi ekszość przyk ladów w S else begin wybierz atrybut a A, który najlepiej klasyfikuje przyk lady z S zgodnie z przyj et a miara oceny {dla ID3 jest information gain}; Przypisz w ez lowi t test zbudowany na podstawie wybranego atrybutu a; for v i wartośći atrybutu a do begin dodaj do w ez la t galaź odpowiadajac a warunkowi (a = v i ); Niech S i b edzie podzbiorem przyk ladów z S, które posiadaja wartość v i dla atrybutu a; if S i jest pusty then dodaj do ga l ezi liść z etykieta klasy, do której należy wi ekszość przyk ladów w S else indukuj poddrzewo buduj drzewo(a i, A - {a}) end; end; return drzewo o korzeniu w t end. Podstawowym problemem jschematu zst epuj acego konstruowania drzewa jest wybór atrybutu do zbudowania testu, na którego podstawie nastapi w w eźle podzia l zbioru przyk ladów. Dobrym testem jest ten, który powoduje skrócenie ścieżki prowadzacej przez ten w eze l do liści wskazujacych klas e decyzyjna. Tak b edzie, gdy w każdym podzbiorze zwiazanym z ga l eziami wychodzacymi z w ez la wszystkie przyk lady lub ich wi ekszość b edzie reprezentowa la jedna klas e. Wybór powinien być przeprowadzany na podstawie miary oceniajacej, na ile wartości danego atrybutu podziela zbiór przyk ladów na podzbiory, które charakteryzuja si e maksymalna jednorodnościa w zakresie przydzia lu do klas decyzyjnych. W algorytmie ID3 w tym celu wykorzystuje si e miar e przyrostu informacji (ang. information gain). Aby ja zdefiniować, należy wyjaśnić najpierw miar e entropii.
5 Niech S b edzie zbiorem uczacym zawierajacym przyk lady do jednej z k klas decyzyjnych, oznaczonych przez K 1, k 2,...,K k. Niech n b edzie liczba przyk ladów z S oraz n i niech oznacza liczebność klasy K i. Entropia zwiazana z klasyfikacja zbioru S jest zdefiniowana jako: k Ent(S) = p i log 2 p i i=1 gdzie p i jest prawdopodobieństwem, że losowo wybrany przyk lad z S należy do klasy K i, estymowanym jako n i. Podstawa logarytmu jesdt równa 2, ponieważ entropia mierzy oczekiwana n liczb e bitów do zakodowania informacji o klasyfikacji losowo wybranego przyk ladu ze zbioru S. Można zauważyć, że gdy którekolwiek p i = 0, to otrzymuje si e 0 log 2 0 = 0. W przypadku rozważania klasyfikacji binarnej (k = 2) entropia przyjmuje wartości z przedzia?u [0, 1], przy czym maksymalna wartość, równa 1, osiagana jest dla p 1 = p 2 = 0.5, czyli dla przyk ladów o równomiernym rozk ladzie klas. Najmniejsza wartość, równa 0, przyjmuje entropia, gdy wszystkie przyk lady należa do tej samej klasy. Interpretacja wartości entropii jest nast epuj aca: im mniejsza wartość entropii, tym w zbiorze S wyst epuje wi eksza przewaga przydzia lu przyk ladów do jednej z klas nad pozosta lymi klasami. W przypadku użycia atrybutu a do zbudowania testu oblicza si e entropi e warunkowa. Niech atrybut a przyjmuje p różnych wartości {v 1, v 2,..., v p }. W algorytmie ID3 test w w eźle jest konstruowany jako pytanie jaka jest wartość atrybutu a?, czyli dokonuje si e podzia lu S na podzbiory {S 1, S 2,..., S r }, gdzie S j zawiera przyk lady posiadajace dla atrybutu a wartość v j (j = 1,...,p). Liczebność zbioru S j jest oznaczana jako n Sj. Entropia podzia lu zbioru przyk ladów S ze wzgl edu na atrybut a jest zdefiniowana jako: Ent(S a) = p j=1 n Sj n Ent(S j) Można powiedzieć, że entropia Ent(S a) jest średnia ważona dla entropii poszczególnych podzbiorów S j. Im mniejsza wartość Ent(S a), tym wi eksza jednorodność klasyfikacji dla przyk ladów podzielonych na podzbiory.
6 Przyrost informacji (ang. gain) wynika z zastosowania atrybutu a do zbudowania testu dzielacego zbiór przyk ladów uczacych S jest zdefiniowany jako różnica: Gain(S, a) = Ent(S) Ent(S a) Dzia lanie algorytmu ID3 polega na przeszukiwaniu przestrzeni hipotez, tj. drzew decyzyjnych reprezentujacych funkcje klasyfikujace zdefiniowane na opisach przyk ladów. Przeszukiwanie jest wykonywane od poczatkowo pustego drzewa do drzew coraz bardziej skomplikowanych za pomoca strategii heurystycznej sterowanej odpowiednia funkcja oceny, np. przyrostu informacji. W algorytmie ID3 dla danego w ez la poszukuje si e lokalnie najlepszego kandydata na stworzenie testu, przy czym wybór ten nie musi prowadzić do globalnie najlepszego drzewa. W typowych alg. indukcji drzew nie stosuje si e operacji nawrotu, tzn. po wyborze atrybutu do testu dla danego w ez la nie rozważa si e ponownie zmiany tego atrybutu. 3. Algorytm C4.5, czyli dlaczego ID3 nie wystarcza? Algorytm ID3 ma nast epuj ace ograniczenia: 1) algorytm ID3 nie radzi sobie z ciag lymi dziedzinami atrybutów (zak lada, że wartości atrybutów sa dyskretne) 2) zak lada sztywno, że wszystkie rekordy w zbiorze uczacym sa wype lnione, tzn. nie dzia la, jeśli choć jeden rekord zawiera niepe lne dane, 3) duży rozmiar drzewa, 4) brak odporności na zjawisko ovefitting. Polega ono na tym, że algorytm nie radzi sobie z danymi zaburzajacymi ogólna informacja. Może to prowadzić do wysokiego wspó lczynnika b l edów na danych testowych Aby przeciwdzia lać zjawisku ovefittingu stosuje si e tzw. przycinanie (ang. em prunning). Dzia la ono w sposób nast epuj acy: 1) zaczyna si e od liści i dzia la na zasadzie bottom-up, 2) majac dany w eze l nie b ed acy liściem i jego poddrzewo oblicza si e w heurystyczny sposób wartość przewidywanego b l edu dla aktualnego poddrzewa,
7 3) oblicza si e wartość przewidywanego b l edu dla sytuacji, gdyby rozpatrywane poddrzewo zastapić liściem z kategoria najpopularniejsza wśród liści, 4) porównuje te dwie wartości i ewentualnie dokonuje zamiany poddrzewa na pojedynczy liść propagujac t e informacj e do swoich przodków. Dzi eki temu dokonuje si e wi eksz a generalizacj e oceny nowych przypadków. 4. Przebieg ćwiczenia Zadanie 1. Jednym z klasycznych zbiorów ilustrujacych dzia lanie algorytmów uczacych jest przyk lad do gry w golfa. Wp lyw warunków pogodowych wp lywaj acych na podj ecie decyzji o grze w gr e golfa przedstawiono w tabeli poniżej. Stan nieba Temperatura Wilgotność Wiatr Grać s lońce nie nie s lońce tak nie pochmurno nie tak deszcz nie tak deszcz nie tak deszcz tak nie pochmurno tak tak s lońce nie nie s lońce nie tak deszcz nie tak s lońce tak tak pochmurno tak tak pochmurno nie tak deszcz tak nie Dla tabeli podanej na pierwszej stronie przeprowadź: 1) Dokonaj najpierw analizy zbioru przyk ladów ze wzgl edu na to, że wszystkie atrybuty sa tam przedstawione na skalach jakościowych (nominalnych lub porzadkowych), 2) Zbadaj, jakie sa liczebności przyk ladów należacych do każdej klasy decyzyjnej,
8 3) Określ miary entropii informacji dla klasyfikacji wszystkich przyk ladów, 4) Odpowiedz na pytanie, który z atrybutów zostanie wybrany jako najkorzystniejszy do zbudowania testu w w eźle drzewa. Odpowiedź uzasadnij odpowiednimi obliczeniami wg algorytmu ID3 5) Przeprowadź proces budowy ca lego drzewa. Zadanie 2 Przy użyciu programu C4.5 z systemu Weka dokonaj analizy zbioru przyk ladów uczacych opisujacych wp lyw warunków pogodowych na podj ecie decyzji do gry w golfa. Program C4.5 jest w nim dost epny jako J48 (wersja 8 programu C4.5, ostatnia przed komercjalizacja). Wybierz Explorer Open File data. W katalogu data otwórz notatnik Windows lub inny edytor. Wyedytuj plik golf.arff, który jest w formacie arff. Jego postać jest nast epuj outlook {sunny, overcast, temperature humidity windy {true, play {yes, sunny, 85, 85, false, no sunny, 80, 90, true, no overcast, 83, 78, false, yes rain, 70, 96, false, yes rain, 68, 80, false, yes rain, 65, 70, true, no overcast, 64, 65, true, yes sunny, 72, 95, false, no
9 Należy wybrać opcj e Classify, a nast epnie Choose. Wówczas wejść do trees i wybrać J48. Uruchomienie analizy nast epuje dzi eki naciśni eciu Start. Powtórz podobna analiz e dla zbioru przyk ladów uczacych w przypadku podj ecia decyzji o grze w golfa. Zadanie 3 Przy użyciu programu C4.5 z systemu Weka dokonaj analizy zbioru przyk ladów uczacych opisujacych wp lyw warunków pogodowych na podj ecie decyzji dotyczacych zakupu komputer {dobry, sredni, dochody cena student {true, kupic {yes, dobry, 500, 850, false, no sredni, 800, 900, true, no marny, 490, 1000, false, yes dobry, 700, 9006, false, yes sredni, 8968, 8000, false, yes marny, 657, 700, true, no dobry, 640, 650, true, yes sredni, 720, 950, false, no Należy wybrać opcj e Classify, a nast epnie Choose. Wówczas wejść do trees i wybrać J48. Uruchomienie analizy nast epuje dzi eki naciśni eciu Start.
10 Zadanie 4 Zbuduj drzewo decyzyjne dotyczace zakupu samochodu. Przy użyciu programu C4.5 z pakietu Weka dokonaj analizy przyk ladów uczacych opisujacych zakup samochod {dobry, uzywany, dochody cena klient {true, kupic {yes, dobry, 5000, 20050, false, no uzywany, 1800, 2000, true, no nowy, 4900, 3000, true, yes dobry, 7000, 3000, false, yes uzywany, 7968, 3500, false, yes nowy, 6570, 17000, true, no nowy, 6400, 10500, true, yes dobry, 7200, 950, false, no Należy wybrać opcj e Classify, a nast epnie Choose. Wówczas wejść do trees i wybrać J48. Uruchomienie analizy nast epuje dzi eki naciśni eciu Start.
WYKŁAD 11 Uczenie maszynowe drzewa decyzyjne
WYKŁAD 11 Uczenie maszynowe drzewa decyzyjne Reprezentacja wiedzy w postaci drzew decyzyjnych entropia, przyrost informacji algorytmy ID3, C4.5 problem przeuczenia wyznaczanie reguł rzykładowe drzewo decyzyjne
Bardziej szczegółowoDrzewa decyzyjne. Nguyen Hung Son. Nguyen Hung Son () DT 1 / 34
Drzewa decyzyjne Nguyen Hung Son Nguyen Hung Son () DT 1 / 34 Outline 1 Wprowadzenie Definicje Funkcje testu Optymalne drzewo 2 Konstrukcja drzew decyzyjnych Ogólny schemat Kryterium wyboru testu Przycinanie
Bardziej szczegółowoSystemy decyzyjne Wyk lad 4: Drzewa decyzyjne
Systemy decyzyjne Wyk lad 4: Outline Wprowadzenie 1 Wprowadzenie 2 Problem brakujacych wartości 3 Co to jest drzewo decyzyjne Jest to struktura drzewiasta, w której wez ly wewnetrzne zawieraja testy na
Bardziej szczegółowoCo to są drzewa decyzji
Drzewa decyzji Co to są drzewa decyzji Drzewa decyzji to skierowane grafy acykliczne Pozwalają na zapis reguł w postaci strukturalnej Przyspieszają działanie systemów regułowych poprzez zawężanie przestrzeni
Bardziej szczegółowoIndukowane Reguły Decyzyjne I. Wykład 3
Indukowane Reguły Decyzyjne I Wykład 3 IRD Wykład 3 Plan Powtórka Grafy Drzewa klasyfikacyjne Testy wstęp Klasyfikacja obiektów z wykorzystaniem drzewa Reguły decyzyjne generowane przez drzewo 2 Powtórzenie
Bardziej szczegółowoSYSTEMY UCZĄCE SIĘ WYKŁAD 3. DRZEWA DECYZYJNE. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.
SYSTEMY UCZĄCE SIĘ WYKŁAD 3. DRZEWA DECYZYJNE Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska BUDOWA DRZEW DECYZYJNYCH Drzewa decyzyjne są metodą indukcyjnego
Bardziej szczegółowoDrzewa podstawowe poj
Drzewa podstawowe poj ecia drzewo graf reprezentujacy regularna strukture wskaźnikowa, gdzie każdy element zawiera dwa lub wiecej wskaźników (ponumerowanych) do takich samych elementów; wez ly (albo wierzcho
Bardziej szczegółowoĆwiczenie 6 - Hurtownie danych i metody eksploracje danych. Regresja logistyczna i jej zastosowanie
Ćwiczenie 6 - Hurtownie danych i metody eksploracje danych Regresja logistyczna i jej zastosowanie Model regresji logistycznej jest budowany za pomocą klasy Logistic programu WEKA. Jako danych wejściowych
Bardziej szczegółowoData Mining Wykład 5. Indukcja drzew decyzyjnych - Indeks Gini & Zysk informacyjny. Indeks Gini. Indeks Gini - Przykład
Data Mining Wykład 5 Indukcja drzew decyzyjnych - Indeks Gini & Zysk informacyjny Indeks Gini Popularnym kryterium podziału, stosowanym w wielu produktach komercyjnych, jest indeks Gini Algorytm SPRINT
Bardziej szczegółowoINDUKCJA DRZEW DECYZYJNYCH
INDUKCJA DRZEW DECYZYJNYCH 1. Pojęcia podstawowe. 2. Idea algorytmów TDIT. 3. Kryteria oceny atrybutów entropia. 4. "Klasyczna" postać algorytmu ID3. 5. Przykład ilustracyjny. 6. Transformacja drzewa do
Bardziej szczegółowoKlasyfikacja obiektów Drzewa decyzyjne (drzewa klasyfikacyjne)
Klasyfikacja obiektów Drzewa decyzyjne (drzewa klasyfikacyjne) Tadeusz Pankowski www.put.poznan.pl/~tadeusz.pankowski Klasyfikacja i predykcja. Odkrywaniem reguł klasyfikacji nazywamy proces znajdowania
Bardziej szczegółowoDrzewa AVL definicje
Drzewa AVL definicje Uporzadkowane drzewo binarne jest drzewem AVL 1, jeśli dla każdego wez la różnica wysokości dwóch jego poddrzew wynosi co najwyżej 1. M D S C H F K Z typowe drzewo AVL minimalne drzewa
Bardziej szczegółowoSYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska
SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska DRZEWO REGRESYJNE Sposób konstrukcji i przycinania
Bardziej szczegółowoMetody klasyfikacji danych - część 1 p.1/24
Metody klasyfikacji danych - część 1 Inteligentne Usługi Informacyjne Jerzy Dembski Metody klasyfikacji danych - część 1 p.1/24 Plan wykładu - Zadanie klasyfikacji danych - Przeglad problemów klasyfikacji
Bardziej szczegółowoWNIOSKOWANIE W MODELU REGRESJI LINIOWEJ
WNIOSKOWANIE W MODELU REGRESJI LINIOWEJ Dana jest populacja generalna, w której dwuwymiarowa cecha (zmienna losowa) (X, Y ) ma pewien dwuwymiarowy rozk lad. Miara korelacji liniowej dla zmiennych (X, Y
Bardziej szczegółowoKlasyfikacja. Indeks Gini Zysk informacyjny. Eksploracja danych. Klasyfikacja wykład 2
Klasyfikacja Indeks Gini Zysk informacyjny Klasyfikacja wykład 2 Kontynuujemy prezentacje metod klasyfikacji. Na wykładzie zostaną przedstawione dwa podstawowe algorytmy klasyfikacji oparte o indukcję
Bardziej szczegółowoAlgorytmy klasyfikacji
Algorytmy klasyfikacji Konrad Miziński Instytut Informatyki Politechnika Warszawska 6 maja 2015 1 Wnioskowanie 2 Klasyfikacja Zastosowania 3 Drzewa decyzyjne Budowa Ocena jakości Przycinanie 4 Lasy losowe
Bardziej szczegółowoSAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006
SAS wybrane elementy DATA MINING Część III Seweryn Kowalski 2006 Algorytmy eksploracji danych Algorytm eksploracji danych jest dobrze zdefiniowaną procedurą, która na wejściu otrzymuje dane, a na wyjściu
Bardziej szczegółowoINDUKCJA DRZEW DECYZYJNYCH
Jerzy Stefanowski Instytut Informatyki Politechniki Poznańskiej Wykład z przedmiotu Uczenie maszynowe i sieci neuronowe INDUKCJA DRZEW DECYZYJNYCH 1. Pojęcia podstawowe. 2. Idea algorytmów TDIT. 3. Kryteria
Bardziej szczegółowoWyk lad 7: Drzewa decyzyjne dla dużych zbiorów danych
Wyk lad 7: Drzewa decyzyjne dla dużych zbiorów danych Funkcja rekurencyjna buduj drzewo(u, dec, T): 1: if (kryterium stopu(u, dec) = true) then 2: T.etykieta = kategoria(u, dec); 3: return; 4: end if 5:
Bardziej szczegółowoSztuczna Inteligencja Projekt
Sztuczna Inteligencja Projekt Temat: Algorytm F-LEM1 Liczba osób realizujących projekt: 2 1. Zaimplementować algorytm F LEM 1. 2. Zaimplementować klasyfikator Classif ier. 3. Za pomocą algorytmu F LEM1
Bardziej szczegółowoWybrane zagadnienia uczenia maszynowego. Zastosowania Informatyki w Informatyce W2 Krzysztof Krawiec
Wybrane zagadnienia uczenia maszynowego Zastosowania Informatyki w Informatyce W2 Krzysztof Krawiec Przygotowane na podstawie T. Mitchell, Machine Learning S.J. Russel, P. Norvig, Artificial Intelligence
Bardziej szczegółowoUruchamianie SNNS. Po uruchomieniu. xgui & lub snns & pojawia si e okno. programu. Symulator sztucznych sieci neuronowych SNNS 1
Uruchamianie SNNS Ca ly pakiet SNNS sk lada si e z programu interfejsu graficznego xgui, oraz z szeregu programów sk ladowych: analyze isnns netlearn snnsbat batchman linknets netperf td_bignet convert2snns
Bardziej szczegółowoWyk lad 8: Leniwe metody klasyfikacji
Wyk lad 8: Leniwe metody Wydzia l MIM, Uniwersytet Warszawski Outline 1 2 lazy vs. eager learning lazy vs. eager learning Kiedy stosować leniwe techniki? Eager learning: Buduje globalna hipoteze Zaleta:
Bardziej szczegółowoWprowadzenie do klasyfikacji
Wprowadzenie do klasyfikacji ZeroR Odpowiada zawsze tak samo Decyzja to klasa większościowa ze zbioru uczącego A B X 1 5 T 1 7 T 1 5 T 1 5 F 2 7 F Tutaj jest więcej obiektów klasy T, więc klasyfikator
Bardziej szczegółowoUczenie się maszyn. Dariusz Banasiak. Katedra Informatyki Technicznej Wydział Elektroniki
Dariusz Banasiak Katedra Informatyki Technicznej Wydział Elektroniki Machine Learning (uczenie maszynowe, uczenie się maszyn, systemy uczące się) interdyscyplinarna nauka, której celem jest stworzenie
Bardziej szczegółowoNormy wektorów i macierzy
Rozdzia l 3 Normy wektorów i macierzy W tym rozdziale zak ladamy, że K C. 3.1 Ogólna definicja normy Niech ψ : K m,n [0, + ) b edzie przekszta lceniem spe lniaj acym warunki: (i) A K m,n ψ(a) = 0 A = 0,
Bardziej szczegółowoReguły decyzyjne, algorytm AQ i CN2. Reguły asocjacyjne, algorytm Apriori.
Analiza danych Reguły decyzyjne, algorytm AQ i CN2. Reguły asocjacyjne, algorytm Apriori. Jakub Wróblewski jakubw@pjwstk.edu.pl http://zajecia.jakubw.pl/ REGUŁY DECYZYJNE Metoda reprezentacji wiedzy (modelowania
Bardziej szczegółowoZłożoność i zagadnienia implementacyjne. Wybierz najlepszy atrybut i ustaw jako test w korzeniu. Stwórz gałąź dla każdej wartości atrybutu.
Konwersatorium Matematyczne Metody Ekonomii Narzędzia matematyczne w eksploracji danych Indukcja drzew decyzyjnych Wykład 3 - część 2 Marcin Szczuka http://www.mimuw.edu.pl/ szczuka/mme/ Plan wykładu Generowanie
Bardziej szczegółowous lugi katalogowe? Czym różni si e serwer katalogowy od serwera bazy danych:
Co to sa us lugi katalogowe? Czym różni si e serwer katalogowy od serwera bazy danych: Dane w serwerze katalogowym sa przegladane dużo cz eściej, niż sa modyfikowane, inaczej niż w zwyk lej bazie danych.
Bardziej szczegółowoDrzewa decyzyjne, metody budowania, zastosowania
Wydzia Elektroniki Politechniki Wroc awskiej Kierunek: Informatyka Specjalno : In ynieria Systemów Informatycznych Praca zaliczeniowa do kursu Informatyka systemów autonomicznych Drzewa decyzyjne, metody
Bardziej szczegółowoStatystyka w analizie i planowaniu eksperymentu
21 marca 2011 Zmienna losowa - wst ep Przeprowadzane w praktyce badania i eksperymenty maja bardzo różnorodny charakter, niemniej jednak wiaż a sie one z rejestracja jakiś sygna lów (danych). Moga to być
Bardziej szczegółowoMetody teorii gier. ALP520 - Wykład z Algorytmów Probabilistycznych p.2
Metody teorii gier ALP520 - Wykład z Algorytmów Probabilistycznych p.2 Metody teorii gier Cel: Wyprowadzenie oszacowania dolnego na oczekiwany czas działania dowolnego algorytmu losowego dla danego problemu.
Bardziej szczegółowoMetody indukcji reguł
Metody indukcji reguł Indukcja reguł Grupa metod charakteryzująca się wydobywaniem reguł ostrych na podstawie analizy przypadków. Dane doświadczalne składają się z dwóch części: 1) wejściowych X, gdzie
Bardziej szczegółowoStatystyka w analizie i planowaniu eksperymentu
29 marca 2011 Przestrzeń statystyczna - podstawowe zadania statystyki Zdarzeniom losowym określonym na pewnej przestrzeni zdarzeń elementarnych Ω można zazwyczaj na wiele różnych sposobów przypisać jakieś
Bardziej szczegółowoStatystyka w analizie i planowaniu eksperymentu
31 marca 2014 Przestrzeń statystyczna - podstawowe zadania statystyki Zdarzeniom losowym określonym na pewnej przestrzeni zdarzeń elementarnych Ω można zazwyczaj na wiele różnych sposobów przypisać jakieś
Bardziej szczegółowoPrzykładowe B+ drzewo
Przykładowe B+ drzewo 3 8 1 3 7 8 12 Jak obliczyć rząd indeksu p Dane: rozmiar klucza V, rozmiar wskaźnika do bloku P, rozmiar bloku B, liczba rekordów w indeksowanym pliku danych r i liczba bloków pliku
Bardziej szczegółowoStatystyka w analizie i planowaniu eksperymentu
10 marca 2014 Zmienna losowa - wst ep Przeprowadzane w praktyce badania i eksperymenty maja bardzo różnorodny charakter, niemniej jednak wiaż a sie one z rejestracja jakiś sygna lów (danych). Moga to być
Bardziej szczegółowoFunkcje. Piotr Zierhoffer. 7 października Institute of Computer Science Poznań University of Technology
Funkcje Piotr Zierhoffer Institute of Computer Science Poznań University of Technology 7 października 2012 Funkcje Funkcja podprogram. Nazwany blok kodu realizujacy jakieś zadanie. sin(x), arccos(x), min(a,
Bardziej szczegółowoDrzewa klasyfikacyjne algorytm podstawowy
DRZEWA DECYZYJNE Drzewa klasyfikacyjne algorytm podstawowy buduj_drzewo(s przykłady treningowe, A zbiór atrybutów) { utwórz węzeł t (korzeń przy pierwszym wywołaniu); if (wszystkie przykłady w S należą
Bardziej szczegółowoPochodne cz ¾astkowe i ich zastosowanie.
Pochodne cz ¾astkowe i ich zastosowanie. Adam Kiersztyn Lublin 2013 Adam Kiersztyn () Pochodne cz ¾astkowe i ich zastosowanie. maj 2013 1 / 18 Zanim przejdziemy do omawiania pochodnych funkcji wielu zmiennych
Bardziej szczegółowoKlasyfikacja i regresja Wstęp do środowiska Weka
Klasyfikacja i regresja Wstęp do środowiska Weka 19 listopada 2015 Opis pliku z zadaniami Wszystkie zadania na zajęciach będą przekazywane w postaci plików pdf sformatowanych podobnie do tego dokumentu.
Bardziej szczegółowoJeden przyk lad... czyli dlaczego warto wybrać MIESI.
Jeden przyk lad... czyli dlaczego warto wybrać MIESI. Micha l Ramsza Szko la G lówna Handlowa Micha l Ramsza (Szko la G lówna Handlowa) Jeden przyk lad... czyli dlaczego warto wybrać MIESI. 1 / 13 Dlaczego
Bardziej szczegółowoWprowadzenie do uczenia maszynowego
Wprowadzenie do uczenia maszynowego Agnieszka Ławrynowicz 12 stycznia 2017 Co to jest uczenie maszynowe? dziedzina nauki, która zajmuje się sprawianiem aby komputery mogły uczyć się bez ich zaprogramowania
Bardziej szczegółowoKompresja danych Streszczenie Studia Dzienne Wykład 10,
1 Kwantyzacja wektorowa Kompresja danych Streszczenie Studia Dzienne Wykład 10, 28.04.2006 Kwantyzacja wektorowa: dane dzielone na bloki (wektory), każdy blok kwantyzowany jako jeden element danych. Ogólny
Bardziej szczegółowoB jest globalnym pokryciem zbioru {d} wtedy i tylko wtedy, gdy {d} zależy od B i nie istnieje B T takie, że {d} zależy od B ;
Algorytm LEM1 Oznaczenia i definicje: U - uniwersum, tj. zbiór obiektów; A - zbiór atrybutów warunkowych; d - atrybut decyzyjny; IND(B) = {(x, y) U U : a B a(x) = a(y)} - relacja nierozróżnialności, tj.
Bardziej szczegółowoKlasyfikacja metodą Bayesa
Klasyfikacja metodą Bayesa Tadeusz Pankowski www.put.poznan.pl/~tadeusz.pankowski warunkowe i bezwarunkowe 1. Klasyfikacja Bayesowska jest klasyfikacją statystyczną. Pozwala przewidzieć prawdopodobieństwo
Bardziej szczegółowoPoprawność semantyczna
Poprawność składniowa Poprawność semantyczna Poprawność algorytmu Wypisywanie zdań z języka poprawnych składniowo Poprawne wartościowanie zdań języka, np. w języku programowania skutki wystąpienia wyróżnionych
Bardziej szczegółowoIndukcja drzew decyzyjnych
Konwersatorium Matematyczne Metody Ekonomii Narzędzia matematyczne w eksploracji danych Indukcja drzew decyzyjnych Wykład 3 - część 2 Marcin Szczuka http://www.mimuw.edu.pl/ szczuka/mme/ Divide et impera
Bardziej szczegółowoWprowadzenie Sformułowanie problemu Typy reguł asocjacyjnych Proces odkrywania reguł asocjacyjnych. Data Mining Wykład 2
Data Mining Wykład 2 Odkrywanie asocjacji Plan wykładu Wprowadzenie Sformułowanie problemu Typy reguł asocjacyjnych Proces odkrywania reguł asocjacyjnych Geneza problemu Geneza problemu odkrywania reguł
Bardziej szczegółowoP. Urzyczyn: Materia ly do wyk ladu z semantyki. Uproszczony 1 j. ezyk PCF
29 kwietnia 2013, godzina 23: 56 strona 1 P. Urzyczyn: Materia ly do wyk ladu z semantyki Uproszczony 1 j ezyk PCF Sk ladnia: Poniżej Γ oznacza otoczenie typowe, czyli zbiór deklaracji postaci (x : τ).
Bardziej szczegółowooperacje porównania, a jeśli jest to konieczne ze względu na złe uporządkowanie porównywanych liczb zmieniamy ich kolejność, czyli przestawiamy je.
Problem porządkowania zwanego również sortowaniem jest jednym z najważniejszych i najpopularniejszych zagadnień informatycznych. Dane: Liczba naturalna n i ciąg n liczb x 1, x 2,, x n. Wynik: Uporządkowanie
Bardziej szczegółowo3.2 Wykorzystanie drzew do generowania pytań
Algorithm 3.2 Schemat prostego przycinania drzewa function przytnij_drzewo( T: drzewo do przycięcia, P: zbiór_przykładów) returns drzewo decyzyjne begin for węzły n drzewa T: T* = w drzewie T zastąp n
Bardziej szczegółowoWyk lad 9 Podpierścienie, elementy odwracalne, dzielniki zera
Wyk lad 9 Podpierścienie, elementy odwracalne, dzielniki zera Określenie podpierścienia Definicja 9.. Podpierścieniem pierścienia (P, +,, 0, ) nazywamy taki podzbiór A P, który jest pierścieniem ze wzgledu
Bardziej szczegółowoParadygmaty programowania. Paradygmaty programowania
Paradygmaty programowania Paradygmaty programowania Dr inż. Andrzej Grosser Cz estochowa, 2013 2 Spis treści 1. Zadanie 2 5 1.1. Wprowadzenie.................................. 5 1.2. Wskazówki do zadania..............................
Bardziej szczegółowoAlgorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych. Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS
Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS Dyskretyzacja - definicja Dyskretyzacja - zamiana atrybutów
Bardziej szczegółowoWysokość drzewa Głębokość węzła
Drzewa Drzewa Drzewo (ang. tree) zbiór węzłów powiązanych wskaźnikami, spójny i bez cykli. Drzewo posiada wyróżniony węzeł początkowy nazywany korzeniem (ang. root). Drzewo ukorzenione jest strukturą hierarchiczną.
Bardziej szczegółowoReguły asocjacyjne, wykł. 11
Reguły asocjacyjne, wykł. 11 Joanna Jędrzejowicz Instytut Informatyki Przykłady reguł Analiza koszyka sklepowego (ang. market basket analysis) - jakie towary kupowane są razem, Jakie towary sprzedają się
Bardziej szczegółowoModelowanie motywów łańcuchami Markowa wyższego rzędu
Modelowanie motywów łańcuchami Markowa wyższego rzędu Uniwersytet Warszawski Wydział Matematyki, Informatyki i Mechaniki 23 października 2008 roku Plan prezentacji 1 Źródła 2 Motywy i ich znaczenie Łańcuchy
Bardziej szczegółowoWstęp do programowania. Drzewa podstawowe techniki. Piotr Chrząstowski-Wachtel
Wstęp do programowania Drzewa podstawowe techniki Piotr Chrząstowski-Wachtel Drzewa wyszukiwań Drzewa często służą do przechowywania informacji. Jeśli uda sie nam stworzyć drzewo o niewielkiej wysokości
Bardziej szczegółowoZASADY PROGRAMOWANIA KOMPUTERÓW ZAP zima 2014/2015. Drzewa BST c.d., równoważenie drzew, kopce.
POLITECHNIKA WARSZAWSKA Instytut Automatyki i Robotyki ZASADY PROGRAMOWANIA KOMPUTERÓW ZAP zima 204/205 Język programowania: Środowisko programistyczne: C/C++ Qt Wykład 2 : Drzewa BST c.d., równoważenie
Bardziej szczegółowoBaza danych dla potrzeb zgłębiania DMX
Baza danych dla potrzeb zgłębiania DMX ID Outlook Temperature Humidity Windy PLAY 1 sunny hot high false N 2 sunny hot high true N 3 overcast hot high false T 4rain mild high false T 5rain cool normal
Bardziej szczegółowoKOLOKWIUM PODSTAWY PROGRAMOWANIA
KOLOKWIUM PODTAWY PROGRAMOWANIA BARTOZ ZIELIŃKI pis treści 1. Zasady ogólne 2 2. Zadanie cześć wspólna 3 2.1. Cel zadania 3 2.2. Wskazówki 4 2.3. Uwagi na temat uruchamiania programów 5 3. Zestawy 7 3.1.
Bardziej szczegółowoSYSTEM DIAGNOSTYCZNY OPARTY NA LOGICE DOMNIEMAŃ. Ewa Madalińska. na podstawie prac:
SYSTEM DIAGNOSTYCZNY OPARTY NA LOGICE DOMNIEMAŃ Ewa Madalińska na podstawie prac: [1] Lukaszewicz,W. (1988) Considerations on Default Logic: An Alternative Approach. Computational Intelligence, 44[1],
Bardziej szczegółowoSID Wykład 10 Systemy uczace się
SID Wykład 10 Systemy uczace się Wydział Matematyki, Informatyki i Mechaniki UW slezak@mimuw.edu.pl Uczenie indukcyjne Obiekty: Decyzja: dane reprezentujace rzeczywisty stan lub obiekt, tworza przestrzeń
Bardziej szczegółowoprowadzący dr ADRIAN HORZYK /~horzyk e-mail: horzyk@agh tel.: 012-617 Konsultacje paw. D-13/325
PODSTAWY INFORMATYKI WYKŁAD 8. prowadzący dr ADRIAN HORZYK http://home home.agh.edu.pl/~ /~horzyk e-mail: horzyk@agh agh.edu.pl tel.: 012-617 617-4319 Konsultacje paw. D-13/325 DRZEWA Drzewa to rodzaj
Bardziej szczegółowoWybrane zagadnienia uczenia maszynowego
Przygotowane na podstawie Wybrane zagadnienia uczenia maszynowego Zastosowania Informatyki w Informatyce W2 Krzysztof Krawiec 1. T. Mitchell, Machine Learning 2. S.J. Russel, P. Norvig, Artificial Intelligence
Bardziej szczegółowoWyk lad 7 Metoda eliminacji Gaussa. Wzory Cramera
Wyk lad 7 Metoda eliminacji Gaussa Wzory Cramera Metoda eliminacji Gaussa Metoda eliminacji Gaussa polega na znalezieniu dla danego uk ladu a x + a 2 x 2 + + a n x n = b a 2 x + a 22 x 2 + + a 2n x n =
Bardziej szczegółowoED Laboratorium 3. Drzewa decyzyjne
ED Laboratorium Drzewa decyzyjne 1 Drzewa decyzyjne Algorytmy indukcji drzew decyzyjnych to jeden z klasycznych algorytmów uczenia maszynowego służący do rozwiązywania problemu klasyfikacji. Drzewa decyzyjne
Bardziej szczegółowoInformatyka I. Wyk lad I. Wprowadzenie. Robert Muszyński Instytut Cybernetyki Technicznej Politechnika Wroc lawska
Informatyka I Wyk lad I Wprowadzenie Robert Muszyński Instytut Cybernetyki Technicznej Politechnika Wroc lawska pokój 331 budynek C3 email: mucha@inyo.ict.pwr.wroc.pl Zagadnienia: literatura, zawartość
Bardziej szczegółowoAutomatyczne wyodrębnianie reguł
Automatyczne wyodrębnianie reguł Jedną z form reprezentacji wiedzy jest jej zapis w postaci zestawu reguł. Ta forma ma szereg korzyści: daje się łatwo interpretować, można zrozumieć sposób działania zbudowanego
Bardziej szczegółowo8. Drzewa decyzyjne, bagging, boosting i lasy losowe
Algorytmy rozpoznawania obrazów 8. Drzewa decyzyjne, bagging, boosting i lasy losowe dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Drzewa decyzyjne Drzewa decyzyjne (ang. decision trees), zwane
Bardziej szczegółowoSztuczna Inteligencja Projekt
Sztuczna Inteligencja Projekt Temat: Algorytm LEM2 Liczba osób realizujących projekt: 2 1. Zaimplementować algorytm LEM 2. 2. Zaimplementować klasyfikator Classif ier. 3. Za pomocą algorytmu LEM 2 wygenerować
Bardziej szczegółowoWyk lad 3 Wyznaczniki
1 Określenie wyznacznika Wyk lad 3 Wyznaczniki Niech A bedzie macierza kwadratowa stopnia n > 1 i niech i, j bed a liczbami naturalnymi n Symbolem A ij oznaczać bedziemy macierz kwadratowa stopnia n 1
Bardziej szczegółowoDrzewa czerwono-czarne.
Binboy at Sphere http://binboy.sphere.p l Drzewa czerwono-czarne. Autor: Jacek Zacharek Wstęp. Pojęcie drzewa czerwono-czarnego (red-black tree) zapoczątkował Rudolf Bayer w książce z 1972 r. pt. Symmetric
Bardziej szczegółowoPorządek symetryczny: right(x)
Porządek symetryczny: x lef t(x) right(x) Własność drzewa BST: W drzewach BST mamy porządek symetryczny. Dla każdego węzła x spełniony jest warunek: jeżeli węzeł y leży w lewym poddrzewie x, to key(y)
Bardziej szczegółowoWstęp do programowania. Drzewa. Piotr Chrząstowski-Wachtel
Wstęp do programowania Drzewa Piotr Chrząstowski-Wachtel Drzewa Drzewa definiują matematycy, jako spójne nieskierowane grafy bez cykli. Równoważne określenia: Spójne grafy o n wierzchołkach i n-1 krawędziach
Bardziej szczegółowoWyk lad 7 Baza i wymiar przestrzeni liniowej
Wyk lad 7 Baza i wymiar przestrzeni liniowej 1 Baza przestrzeni liniowej Niech V bedzie przestrzenia liniowa. Powiemy, że podzbiór X V jest maksymalnym zbiorem liniowo niezależnym, jeśli X jest zbiorem
Bardziej szczegółowoWykład X. Programowanie. dr inż. Janusz Słupik. Gliwice, Wydział Matematyki Stosowanej Politechniki Śląskiej. c Copyright 2016 Janusz Słupik
Wykład X Wydział Matematyki Stosowanej Politechniki Śląskiej Gliwice, 2016 c Copyright 2016 Janusz Słupik Drzewa binarne Drzewa binarne Drzewo binarne - to drzewo (graf spójny bez cykli) z korzeniem (wyróżnionym
Bardziej szczegółowoRozdzia l 11. Przestrzenie Euklidesowe Definicja, iloczyn skalarny i norma. iloczynem skalarnym.
Rozdzia l 11 Przestrzenie Euklidesowe 11.1 Definicja, iloczyn skalarny i norma Definicja 11.1 Przestrzenia Euklidesowa nazywamy par e { X K,ϕ }, gdzie X K jest przestrzenia liniowa nad K, a ϕ forma dwuliniowa
Bardziej szczegółowo3. MINIMAX. Rysunek 1: Drzewo obrazujące przebieg gry.
3. MINIMAX. Bardzo wygodną strukturą danych pozwalającą reprezentować stan i przebieg gry (szczególnie gier dwuosobowych) jest drzewo. Węzły drzewa reprezentują stan gry po wykonaniu ruchu przez jednego
Bardziej szczegółowoMEODY GRUPOWANIA DANYCH
Sztuczna inteligencja 9999 pages 17 MEODY GRUPOWANIA DANYCH PB 1 CWICZENIE I 1. Ze zbioru danych iris.tab wybra nastepuj ce obiekty: ID SL SW PL PW C 1 5.1 3.5 1.4 0.2 Iris-setosa 2 4.9 3.0 1.4 0.2 Iris-setosa
Bardziej szczegółowoStatystyka w analizie i planowaniu eksperymentu
22 marca 2011 Przestrzeń statystyczna - podstawowe zadania statystyki Zdarzeniom losowym określonym na pewnej przestrzeni zdarzeń elementarnych Ω można zazwyczaj na wiele różnych sposobów przypisać jakieś
Bardziej szczegółowoALGORYTM RANDOM FOREST
SKRYPT PRZYGOTOWANY NA ZAJĘCIA INDUKOWANYCH REGUŁ DECYZYJNYCH PROWADZONYCH PRZEZ PANA PAWŁA WOJTKIEWICZA ALGORYTM RANDOM FOREST Katarzyna Graboś 56397 Aleksandra Mańko 56699 2015-01-26, Warszawa ALGORYTM
Bardziej szczegółowoAlgorytmy metaheurystyczne Wykład 11. Piotr Syga
Algorytmy metaheurystyczne Wykład 11 Piotr Syga 22.05.2017 Drzewa decyzyjne Idea Cel Na podstawie przesłanek (typowo zbiory rozmyte) oraz zbioru wartości w danych testowych, w oparciu o wybrane miary,
Bardziej szczegółowoAlgorytm grupowania danych typu kwantyzacji wektorów
Algorytm grupowania danych typu kwantyzacji wektorów Wstęp Definicja problemu: Typowe, rozważane dotychczas problemy koncentrowały się na nauczeniu na podstawie zbioru treningowego i zbioru etykiet klasyfikacji
Bardziej szczegółowoIndukowane Reguły Decyzyjne I. Wykład 8
Indukowane Reguły Decyzyjne I Wykład 8 IRD Wykład 8 Plan Powtórka Krzywa ROC = Receiver Operating Characteristic Wybór modelu Statystyka AUC ROC = pole pod krzywą ROC Wybór punktu odcięcia Reguły decyzyjne
Bardziej szczegółowoTematy projektów z Metod Sztucznej Inteligencji
dr inż. Jerzy Martyna Tematy projektów z Metod Sztucznej Inteligencji 1) Projekt regulatora rozmytego W oparciu o zbiory rozmyte projekt dotyczy konstrukcji regulatora P, PD, PI, PID i jego analizy. 2)
Bardziej szczegółowoSystemy decyzyjne Wykªad 5: Drzewa decyzyjne
Nguyen Hung Son () W5: Drzewa decyzyjne 1 / 38 Systemy decyzyjne Wykªad 5: Drzewa decyzyjne Nguyen Hung Son Przykªad: klasyfikacja robotów Nguyen Hung Son () W5: Drzewa decyzyjne 2 / 38 Przykªad: drzewo
Bardziej szczegółowoAlgorytmy i Struktury Danych
Algorytmy i Struktury Danych Kopce Bożena Woźna-Szcześniak bwozna@gmail.com Jan Długosz University, Poland Wykład 11 Bożena Woźna-Szcześniak (AJD) Algorytmy i Struktury Danych Wykład 11 1 / 69 Plan wykładu
Bardziej szczegółowoPodstawy programowania 2. Temat: Drzewa binarne. Przygotował: mgr inż. Tomasz Michno
Instrukcja laboratoryjna 5 Podstawy programowania 2 Temat: Drzewa binarne Przygotował: mgr inż. Tomasz Michno 1 Wstęp teoretyczny Drzewa są jedną z częściej wykorzystywanych struktur danych. Reprezentują
Bardziej szczegółowoep do matematyki aktuarialnej Micha l Jasiczak Wyk lad 5 Kalkulacja sk ladki netto I
Wst ep do matematyki aktuarialnej Micha l Jasiczak Wyk lad 5 Kalkulacja sk ladki netto I 1 Kodeks cywilny Tytu l XXVII, Umowa ubezpieczenia Dzia l I. Przepisy ogólne Dzia l II. Ubezpieczenia majatkowe
Bardziej szczegółowo1 Praktyczne metody wyznaczania podstawowych miar przy zastosowaniu programu EXCEL
Kurs w zakresie zaawansowanych metod komputerowej analizy danych Podstawy statystycznej analizy danych 9.03.2014-3 godziny ćwiczeń autor: Adam Kiersztyn 1 Praktyczne metody wyznaczania podstawowych miar
Bardziej szczegółowoPrzykład eksploracji danych o naturze statystycznej Próba 1 wartości zmiennej losowej odległość
Dwie metody Klasyczna metoda histogramu jako narzędzie do postawienia hipotezy, jaki rozkład prawdopodobieństwa pasuje do danych Indukcja drzewa decyzyjnego jako metoda wykrycia klasyfikatora ukrytego
Bardziej szczegółowoDrzewa klasyfikacyjne Lasy losowe. Wprowadzenie
Wprowadzenie Konstrukcja binarnych drzew klasyfikacyjnych polega na sekwencyjnym dzieleniu podzbiorów przestrzeni próby X na dwa rozłączne i dopełniające się podzbiory, rozpoczynając od całego zbioru X.
Bardziej szczegółowoKompresja bezstratna. Entropia. Kod Huffmana
Kompresja bezstratna. Entropia. Kod Huffmana Kodowanie i bezpieczeństwo informacji - Wykład 10 29 kwietnia 2013 Teoria informacji Jeśli P(A) jest prawdopodobieństwem wystapienia informacji A to niech i(a)
Bardziej szczegółowoDrzewa binarne. Drzewo binarne to dowolny obiekt powstały zgodnie z regułami: jest drzewem binarnym Jeśli T 0. jest drzewem binarnym Np.
Drzewa binarne Drzewo binarne to dowolny obiekt powstały zgodnie z regułami: jest drzewem binarnym Jeśli T 0 i T 1 są drzewami binarnymi to T 0 T 1 jest drzewem binarnym Np. ( ) ( ( )) Wielkość drzewa
Bardziej szczegółowoDyskretne modele populacji
Dyskretne modele populacji Micha l Machtel Adam Soboczyński 19 stycznia 2007 Typeset by FoilTEX Dyskretne modele populacji [1] Wst ep Dyskretny opis modelu matematycznego jest dobry dla populacji w których
Bardziej szczegółowoTemat: Algorytm kompresji plików metodą Huffmana
Temat: Algorytm kompresji plików metodą Huffmana. Wymagania dotyczące kompresji danych Przez M oznaczmy zbiór wszystkich możliwych symboli występujących w pliku (alfabet pliku). Przykład M = 2, gdy plik
Bardziej szczegółowoArchitektura systemów komputerowych
Architektura systemów komputerowych Grzegorz Mazur Zak lad Metod Obliczeniowych Chemii Uniwersytet Jagielloński 12 kwietnia 2011 Grzegorz Mazur (ZMOCh UJ) Architektura systemów komputerowych 12 kwietnia
Bardziej szczegółowo