Uczenie maszynowe. Wprowadzenie UCZENIE MASZYNOWE. Wprowadzenie. Wprowadzenie. Wprowadzenie. Wprowadzenie. Tomasz Łukaszewski
|
|
- Feliks Mazur
- 5 lat temu
- Przeglądów:
Transkrypt
1 R. Duda, P. Hart, D. Stork, Pattern Classification, Second Edition, 00. T. Mitchell, Machine Learning I. Witten, E. Frank, M. Hall, Data Mining. Practical Machine Learning Tools and Techniques UCZENIE MASZYNOWE Tomasz Łukaszewski (ang. Machine Learning) ewoluowało z dziedziny sztucznej inteligencji (ang. Artificial Intelligence) Przykład użycia Proces odpytywania Nowe dane Uczenie: automatyczne modyfikowanie systemu w celu polepszenia skuteczności działania Realizacja: pozyskiwanie wiedzy z danych uczących Dane uczące Algorytm uczący Proces uczenia Nauczony system (np. klasyfikator) Decyzja systemu Paradygmaty uczenia maszynowego Przykładowe dane uczące Uczenie nadzorowane (ang. supervised learning) Każdy przykład zawiera etykietę, celem predykcja etykiety dla nowych przykładów Uczenie nienadzorowane (ang. unsupervised learning) odkrycie regularności (np. skupień) lub anomalii w danych Uczenie ze wzmacnianiem (ang. reinforcement learning) w typowym uczeniu klasyfikator po wyznaczeniu błędnego wyniku otrzymuje informację jaki jest poprawny wynik; w uczeniu ze wzmacnianiem ta informacja zwrotna to jedynie zaznaczenie że wynik jest błędny Fayyad, Piatetsky-Shapiro, Smyth: From Data Mining to Knowledge Discovery in Databases, AI Magazine 7 (3) 996.
2 Klasyfikator prosty (próg) (uczenie nadzorowane) Klasyfikator liniowy (uczenie nadzorowane) Klasyfikator nieliniowy (uczenie nadzorowane) Klasyfikator najbliższych-sąsiadów (uczenie nadzorowane) Analiza skupień (uczenie nienadzorowane) PRZYKŁAD Zadanie: posiadając dane o warunkach pogodowych podjąć decyzję: grać/nie grać Możliwe sposoby rozwiązania zadania: - ręczna konstrukcja systemu (np. reguł) - automatyczne pozyskanie wiedzy z danych, czyli uczenie maszynowe
3 (Reguła ) Overcast -> Yes Automatyczna konstrukcja systemu KLASYFIKACJA jest przykładem uczenia nadzorowanego, gdzie etykiety przykładów są wartościami dyskretnymi ze skończonego zbioru (w przeciwnym wypadku, gdy etykieta przyjmuje wartości ciągłe mówimy o regresji). Formalnie, zadaniem klasyfikacji jest znalezienie odwzorowania ze zbioru wejściowego X, opisującego wzorzec wejściowy na etykietę Y, takiego że Y = f(x). Dane uczące to przykłady prawidłowych decyzji podjętych w przeszłości Opis danych uczących: pary atrybut-wartość (ang. attribute-value) Rodzaje atrybutów - nominalny: {zielony, niebieski, biały} - porządkowy: (,,3) - numeryczny: R Wybrany atrybut: etykieta (klasa, decyzja) 3
4 Przykładowe problemy klasyfikacji: analiza tekstu (np. wykrywanie spamu) wykrywanie oszustw rozpoznawanie liter/cyfr rozpoznawanie twarzy przetwarzanie języka naturalnego bioinformatyka (np. klasyfikacja protein stosownie do ich funkcji) Każdy przykład jest opisany parami atrybut-wartość. Atrybuty nazywamy też cechami (ang. features), Atrybuty dla problemu rozpoznawania twarzy kolor oczu odległość między oczami kształt nosa kształt ust składa się z następujących podzadań: Zebranie danych Czyszczenie danych i wstępne przetwarzanie poprawienie błędnych danych zarządzanie nieznanymi wartościami danych usunięcie szumu dyskretyzacja atrybutów ciągłych Selekcja atrybutów wybranie właściwych atrybutów (cech) Budowa klasyfikatora Metody klasyfikacji widziana jako wyznaczanie granic klas k-najbliższych sąsiadów Metoda wektorów wspierających (SVM) Reguły decyzyjne Sieci neuronowe Klasyfikatory Bayesowskie (naiwny, sieci) Metody złożone Wszystkie metody klasyfikacji działają na drodze grupowania bliskich przykładów i nadawania im tej samej etykiety. Różnice: sposób wyznaczania bliskich przykładów, a co za tym idzie, wyznaczania granic pomiędzy klasami (etykietami). Domingos: A Few Useful Things To Know About Machine Learning Comm. of the ACM, 55, 0 4
5 Overfitting Jedna klasa czy prawdopodobieństwo klas? Uczenie zazwyczaj z niekompletnych danych Można zbudować doskonały klasyfikator który będzie dobrze dostosowany do danych uczących i dający złe wyniki generalizacji Zbytnie dopasowanie klasyfikatora do danych uczących (ang. overfitting) Trafność (zb_uczący) > Trafność(zb_testowy) Uzyskanie doskonałego klasyfikatora (00% trafności) jest dla większości problemów niemożliwe; klasyfikator wskazujący jako wynik jedną klasę będzie miał pewien błąd generalizacji W takich wypadkach można rozważać bardziej ogólne zagadnienie, jakim jest klasyfikator przypisujący prawdopodobieństwa poszczególnym klasom i wykorzystać je w podejmowaniu decyzji Szum (ang. noise) Stopień trudności problemu klasyfikacji zależy od zmienności wartości atrybutów przykładów tej samej klasy względem do zmienności wartości atrybutów przykładów różnych klas. Trafność predykcji (ang. prediction accuracy) Bias Variance Zmienność wartości atrybutów przykładów tej samej klasy zależy od złożoności problemu lub szumu Domingos: A Few Useful Things To Know About Machine Learning Comm. of the ACM, 55, 0 Inne kryteria oceny: Koszt pozyskania danych Kosz błędnej klasyfikacji Stabilność budowy modelu dla różnych zbiorów danych 5
6 Zastosowania klasyfikacji: predykcja zrozumienie danych kompresja danych wykrywanie wyjątków k-najbliższych sąsiadów (knn) KLASYFIKACJA knn k-najbliższych sąsiadów (knn) k-najbliższych sąsiadów (knn) Klasyfikator minimalnoodległościowy - Klasyfikuj nowe przykłady na podstawie ich podobieństw do przykładów uczących 6
7 k-najbliższych sąsiadów (knn) k-najbliższych sąsiadów (knn) Zalety prostota bardzo szybki proces uczenia się Wady duże zapotrzebowanie na pamięć powolne odpytywanie wiedza = przykłady uczące (brak reprezentacji wiedzy) wszystkie atrybuty są tak samo istotne znaczna podatność na przeuczenie czułość na zaszumione i błędne dane treningowe KLASYFIKACJA Budowa drzewa decyzyjnego Umieść wszystkie przykłady w korzeniu drzewa Rekurencyjnie dziel zbiór przykładów w oparciu o testy na wartościach wybranego atrybutu Zatrzymaj, gdy wszystkie przykłady w zbiorze mają wspólną etykietę, lub gdy nie można wybrać kolejnego atrybutu Otrzymane drzewo poddaj uproszczeniu (ang. pruning) Wiele możliwych drzew decyzyjnych, w zależności od sposobu wyboru atrybutu!!! Który atrybut wybrać??? 7
8 Entropia (zawartość informacyjna): miara oceniająca zbiór przykładów ze zbioru S pod kątem jednolitości przynależności do klas decyzyjnych. Dla dwóch klas (p-pozytywna, n-negatywna) Entropia = Zysk informacyjny (ang. Information Gain): redukcja entropii przy wykorzystaniu danego atrybutu Wyznaczamy entropię dla całego zbioru (9 yes, 5 no) Wartości v atrybutu A dokonują podziału zbioru S na podzbiory S v dla których należy wyznaczyć entropię, = ( ) Wyznaczamy entropię po podziale zbioru za pomocą atrybutu Outlook Sunny: yes, 3 no E(Sunny)=-/5log(/5)-(3/5)log(3/5)=0.97 Overcast: 4 yes, 0 no E(Overcast)=-(4/4)log(4/4)-0log0=0 Rainy: 3 yes, no E(Rainy)=-(3/5)log(3/5)-(/5)log(/5)=0.97 Dalsze obliczenia IG(S,Outlook)=0.94-(5/4)*0.97-(4/4)*0-(5/4)*0.97=0.47 IG(S,Temperature)=0.09 IG(S,Humidity)=0.5 IG(S,Windy)=0.048 IG(temp)=0.57 IG(windy)=0.00 IG(humidity)=0.97 8
9 Automatyczna konstrukcja systemu Uczenie zazwyczaj z niekompletnych danych uczących Przeuczenie to ryzyko zbytniego dopasowania do danych uczących: Trafność (zb_uczący) > Trafność(zb_testowy) Złożoność vs. błąd generalizacji (klasyfikatory zbyt złożone są zbyt dopasowane do danych uczących): Upraszczanie drzewa (ang. tree pruning) w celu zwiększenia trafności dla zbioru testowego KLASYFIKACJA Klasyfikator Bayesowski Prob. Tw. Bayesa: Pozwala na obliczanie prawdopodobieństw związanych z hipotezami; efektywne podejście do wielu problemów praktycznych. Przyrostowość: Każdy nowy przykład może zmienić oszacowanie prawdopodobieństw; Możliwość uwzględniania prawdopodobieństw apriori. Predykcja probabilistyczna: Predykcja wielu hipotez, ważonych za pomocą prawdopodobieństw. Standard: Pomimo, że w pewnych przypadkach metody bayesowskie są nieatrakcyjne obliczeniowo, to mogą dostarczać tzw. standardu optymalnych decyzji, z którym można porównywać inne metody. 9
10 Reguła Bayesa A priori probability of H : Pr[ E H ]Pr[ H ] Pr[ H E] = Pr[ E] Pr[H ] Probability of event before evidence is seen A posteriori probability of H : Pr[ H E] Probability of event after evidence is seen from Bayes Essay towards solving a problem in the doctrine of chances (763) Thomas Bayes: 70 (London) 76 (Tunbridge Wells) Dla zbioru uczącego D, prawdopodobieństwo posteriori hipotezy h, h D) wynika z twierdzenia Bayes a: P ( h D) = D h) h) D) MAP (maximum a posteriori) hypothesis: D h) h) h argmax h D) = argmax. MAP h H h H D) Praktyka: założenie znajomości prawdo-podobieństw a priori, duże koszty obliczeniowe Przykłady uczące opisane zbiorem atrybutów warunkowych a,a,,am; mogą być należeć do jednej z klas ze zbioru K = {Kj : j =,...,r} Nowy (klasyfikowany) obiekt opisany wartościami atrybutów warunkowych a = v, a = v,, am = vm Przydziel obiekt do najbardziej prawdopodobnej klasy, tzn. do klasy K MAP która maksymalizuje: K = arg max K a = v, K, a = v ) MAP j m m K K j a = v, K, a = v K ) K ) m m j j = arg max K K a = v, K, a = v ) j m m = arg max a = v, K, a = v K ) K ) m m j j K K j Naiwny klasyfikator Bayesowski Założenie upraszczające: niezależność warunkową atrybutów a i (i =,, n): a = v, L, am = vm K j) = = ai = vi K j) co daje w ostateczności: m K j a = v, L, am = vm) = K j) = a = i i vi K j) Znacznie obniża wymogi co do estymacji prawdopodobieństw a priori, niższe koszty obliczeniowe. m i Przykład Outlook Tempreature Humidity Windy Class sunny hot high false N sunny hot high true N overcast hot high false P rain mild high false P rain cool normal false P rain cool normal true N overcast cool normal true P sunny mild high false N sunny cool normal false P rain mild normal false P sunny mild normal true P overcast mild high true P overcast hot normal false P rain mild high true N Outlook Temperature Humidity Windy Play Yes No Yes No Yes No Yes No Yes No Sunny 3 Hot High 3 4 False Overcast 4 0 Mild 4 Normal 6 True 3 3 Rainy 3 Cool 3 Sunny /9 3/5 Hot /9 /5 High 3/9 4/5 False 6/9 /5 9/4 5/4 Overcast 4/9 0/5 Mild 4/9 /5 Normal 6/9 /5 True 3/9 3/5 Rainy 3/9 /5 Cool 3/9 /5 Przykład testowy: Outlook Temp. Humidity Windy Play Sunny Cool High True? Likelihood of the two classes For yes = /9 3/9 3/9 3/9 9/4 = For no = 3/5 /5 4/5 3/5 5/4 = Conversion into a probability by normalization: yes ) = / ( ) = 0.05 no ) = / ( ) =
11 Zero-frequency problem Zero-frequency problem Wartość atrybutu nie występuje dla danej klasy Przykład: Outlook=Overcast dla klasy No Overcast No) = 0 W konsekwencji No E) = 0!!! Estymator Laplace a: dodaj w liczniku każdej estymacji dodanie wartości różnej od (Outlook, klasa Yes) + µ /3 4 + µ /3 3+ µ / µ 9 + µ 9 + µ Sunny Overcast Rainy Mnożenie przez wagi (suma równa ) + µ p 9 + µ + µ p 9 + µ 4 + µ p 9 + µ 3 3 Missing values Atrybuty liczbowe Karl Gauss, Predykcja atrybut pomijany w obliczeniach Przykład Outlook Temp. Humidity Windy Play? Cool High True? Likelihood of yes = 3/9 3/9 3/9 9/4 = Likelihood of no = /5 4/5 3/5 5/4 = yes ) = / ( ) = 4% no ) = / ( ) = 59% Typowe założenie przyjmij wybrany rozkład, np. normalny (Gaussa), zdefiniowany przez dwa parametry: wartość oczekiwana µ odchylenie standardowe σ Funkcja gęstości: µ = σ = f n n i= n n i= x i ( µ ) x i ( x µ ) σ ( x) = e πσ Outlook Temperature Humidity Windy Play Yes No Yes No Yes No Yes No Yes No Sunny 3 64, 68, 65, 7, Overcast , 70, 7, 80, Rainy 3 7, 85, 65, 70, 70, 85, False , 75, 90, 9, True , 95, Sunny /9 3/5 µ =73 µ =75 µ =79 µ =86 False 6/9 /5 9/4 5/4 Overcast 4/9 0/5 σ =6. σ =7.9 σ =0. σ =9.7 True 3/9 3/5 Rainy 3/9 /5 Przykład klasyfikowany Outlook Temp. Humidity Windy Play Sunny true? Likelihood of yes = / /9 9/4 = Likelihood of no = 3/ /5 5/4 = yes ) = / ( ) = 0.9% no ) = / ( ) = 79.% (66 73) 6. f ( temperature = 66 yes) = e π 6. =
12 Naiwny klasyfikator Bayesowski Działa zadziwiająco dobrze (pomimo założenia o warunkowej niezależności atrybutów). Dlaczego? Ponieważ klasyfikacja nie wymaga poprawnego oszacowania prawdopodobieństw tak długo, jak długo maksymalne prawdopodobieństwo jest przydzielone do właściwej klasy Poprawa: selekcja cech, sieci bayesowskie Regresja Regresja Regresja Regresja Wyzwania nie odniosło sukcesów w tworzeniu algorytmów które generalizują w oparciu o bardzo małe zbiory uczące Człowiek natomiast potrafi poradzić sobie z tego typu problemami wykorzystując wiedzę zdobytą w innych zadaniach (ang. lifelong learning)
Wybrane zagadnienia uczenia maszynowego. Zastosowania Informatyki w Informatyce W2 Krzysztof Krawiec
Wybrane zagadnienia uczenia maszynowego Zastosowania Informatyki w Informatyce W2 Krzysztof Krawiec Przygotowane na podstawie T. Mitchell, Machine Learning S.J. Russel, P. Norvig, Artificial Intelligence
Wybrane zagadnienia uczenia maszynowego
Przygotowane na podstawie Wybrane zagadnienia uczenia maszynowego Zastosowania Informatyki w Informatyce W2 Krzysztof Krawiec 1. T. Mitchell, Machine Learning 2. S.J. Russel, P. Norvig, Artificial Intelligence
Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18
Eksploracja Danych wykład 4 Sebastian Zając WMP.SNŚ UKSW 10 maja 2017 Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja 2017 1 / 18 Klasyfikacja danych Klasyfikacja Najczęściej stosowana (najstarsza)
WYKŁAD 11 Uczenie maszynowe drzewa decyzyjne
WYKŁAD 11 Uczenie maszynowe drzewa decyzyjne Reprezentacja wiedzy w postaci drzew decyzyjnych entropia, przyrost informacji algorytmy ID3, C4.5 problem przeuczenia wyznaczanie reguł rzykładowe drzewo decyzyjne
Metody probabilistyczne klasyfikatory bayesowskie
Konwersatorium Matematyczne Metody Ekonomii narzędzia matematyczne w eksploracji danych First Prev Next Last Go Back Full Screen Close Quit Metody probabilistyczne klasyfikatory bayesowskie Wykład 8 Marcin
Wprowadzenie. Data Science Uczenie się pod nadzorem
Wprowadzenie Wprowadzenie Wprowadzenie Wprowadzenie Machine Learning Mind Map Historia Wstęp lub uczenie się z przykładów jest procesem budowy, na bazie dostępnych danych wejściowych X i oraz wyjściowych
Algorytmy klasyfikacji
Algorytmy klasyfikacji Konrad Miziński Instytut Informatyki Politechnika Warszawska 6 maja 2015 1 Wnioskowanie 2 Klasyfikacja Zastosowania 3 Drzewa decyzyjne Budowa Ocena jakości Przycinanie 4 Lasy losowe
Metody indukcji reguł
Metody indukcji reguł Indukcja reguł Grupa metod charakteryzująca się wydobywaniem reguł ostrych na podstawie analizy przypadków. Dane doświadczalne składają się z dwóch części: 1) wejściowych X, gdzie
Baza danych dla potrzeb zgłębiania DMX
Baza danych dla potrzeb zgłębiania DMX ID Outlook Temperature Humidity Windy PLAY 1 sunny hot high false N 2 sunny hot high true N 3 overcast hot high false T 4rain mild high false T 5rain cool normal
Klasyfikator. ˆp(k x) = 1 K. I(ρ(x,x i ) ρ(x,x (K) ))I(y i =k),k =1,...,L,
Klasyfikator Jedną z najistotniejszych nieparametrycznych metod klasyfikacji jest metoda K-najbliższych sąsiadów, oznaczana przez K-NN. W metodzie tej zaliczamy rozpoznawany obiekt do tej klasy, do której
Systemy agentowe. Uwagi organizacyjne i wprowadzenie. Jędrzej Potoniec
Systemy agentowe Uwagi organizacyjne i wprowadzenie Jędrzej Potoniec Kontakt mgr inż. Jędrzej Potoniec Jedrzej.Potoniec@cs.put.poznan.pl http://www.cs.put.poznan.pl/jpotoniec https://github.com/jpotoniec/sa
Agnieszka Nowak Brzezińska Wykład III
Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe
Data Mining Wykład 6. Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa.
GLM (Generalized Linear Models) Data Mining Wykład 6 Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa Naiwny klasyfikator Bayesa jest klasyfikatorem statystycznym -
Data Mining Wykład 4. Plan wykładu
Data Mining Wykład 4 Klasyfikacja danych Klasyfikacja poprzez indukcje drzew decyzyjnych Plan wykładu Sformułowanie problemu Kryteria oceny metod klasyfikacji Metody klasyfikacji Klasyfikacja poprzez indukcje
Indukowane Reguły Decyzyjne I. Wykład 3
Indukowane Reguły Decyzyjne I Wykład 3 IRD Wykład 3 Plan Powtórka Grafy Drzewa klasyfikacyjne Testy wstęp Klasyfikacja obiektów z wykorzystaniem drzewa Reguły decyzyjne generowane przez drzewo 2 Powtórzenie
Metody klasyfikacji danych - część 1 p.1/24
Metody klasyfikacji danych - część 1 Inteligentne Usługi Informacyjne Jerzy Dembski Metody klasyfikacji danych - część 1 p.1/24 Plan wykładu - Zadanie klasyfikacji danych - Przeglad problemów klasyfikacji
Wprowadzenie do uczenia maszynowego
Wprowadzenie do uczenia maszynowego Agnieszka Ławrynowicz 12 stycznia 2017 Co to jest uczenie maszynowe? dziedzina nauki, która zajmuje się sprawianiem aby komputery mogły uczyć się bez ich zaprogramowania
SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006
SAS wybrane elementy DATA MINING Część III Seweryn Kowalski 2006 Algorytmy eksploracji danych Algorytm eksploracji danych jest dobrze zdefiniowaną procedurą, która na wejściu otrzymuje dane, a na wyjściu
WYKŁAD 4. Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie. autor: Maciej Zięba. Politechnika Wrocławska
Wrocław University of Technology WYKŁAD 4 Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie autor: Maciej Zięba Politechnika Wrocławska Klasyfikacja Klasyfikacja (ang. Classification):
Metody eksploracji danych 5. Klasyfikacja (kontynuacja)
Metody eksploracji danych 5. Klasyfikacja (kontynuacja) Piotr Szwed Katedra Informatyki Stosowanej AGH 2016 Naiwny model Bayesa Drzewa decyzyjne Naiwny model Bayesa P. Szwed: Metody eksploracji danych
ALGORYTM RANDOM FOREST
SKRYPT PRZYGOTOWANY NA ZAJĘCIA INDUKOWANYCH REGUŁ DECYZYJNYCH PROWADZONYCH PRZEZ PANA PAWŁA WOJTKIEWICZA ALGORYTM RANDOM FOREST Katarzyna Graboś 56397 Aleksandra Mańko 56699 2015-01-26, Warszawa ALGORYTM
Logika Stosowana. Wykład 9 - Wnioskowanie indukcyjne Część 2 Wnioskowanie bayesowskie. Marcin Szczuka. Instytut Matematyki UW
Logika Stosowana Wykład 9 - Wnioskowanie indukcyjne Część 2 Wnioskowanie bayesowskie Marcin Szczuka Instytut Matematyki UW Wykład monograficzny, semestr letni 2016/2017 Marcin Szczuka (MIMUW) Logika Stosowana
Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV
Klasyfikatory: k-nn oraz naiwny Bayesa Agnieszka Nowak Brzezińska Wykład IV Naiwny klasyfikator Bayesa Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną
Wyk lad 8: Leniwe metody klasyfikacji
Wyk lad 8: Leniwe metody Wydzia l MIM, Uniwersytet Warszawski Outline 1 2 lazy vs. eager learning lazy vs. eager learning Kiedy stosować leniwe techniki? Eager learning: Buduje globalna hipoteze Zaleta:
SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.
SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska INFORMACJE WSTĘPNE Hipotezy do uczenia się lub tworzenia
Elementy modelowania matematycznego
Elementy modelowania matematycznego Modelowanie algorytmów klasyfikujących. Podejście probabilistyczne. Naiwny klasyfikator bayesowski. Modelowanie danych metodą najbliższych sąsiadów. Jakub Wróblewski
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny
Reguły decyzyjne, algorytm AQ i CN2. Reguły asocjacyjne, algorytm Apriori.
Analiza danych Reguły decyzyjne, algorytm AQ i CN2. Reguły asocjacyjne, algorytm Apriori. Jakub Wróblewski jakubw@pjwstk.edu.pl http://zajecia.jakubw.pl/ REGUŁY DECYZYJNE Metoda reprezentacji wiedzy (modelowania
Systemy uczące się wykład 1
Systemy uczące się wykład 1 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 5 X 2018 e-mail: przemyslaw.juszczuk@ue.katowice.pl Konsultacje: na stronie katedry + na stronie domowej
Agnieszka Nowak Brzezińska Wykład III
Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe
Algorytmy metaheurystyczne Wykład 11. Piotr Syga
Algorytmy metaheurystyczne Wykład 11 Piotr Syga 22.05.2017 Drzewa decyzyjne Idea Cel Na podstawie przesłanek (typowo zbiory rozmyte) oraz zbioru wartości w danych testowych, w oparciu o wybrane miary,
CLUSTERING. Metody grupowania danych
CLUSTERING Metody grupowania danych Plan wykładu Wprowadzenie Dziedziny zastosowania Co to jest problem klastrowania? Problem wyszukiwania optymalnych klastrów Metody generowania: k centroidów (k - means
WYKŁAD 1. Wprowadzenie w tematykę kursu
Wrocław University of Technology WYKŁAD 1 Wprowadzenie w tematykę kursu autor: Maciej Zięba Politechnika Wrocławska Informacje dotyczące zajęć Cykl 8 wykładów. Konsultacje odbywają się w sali 121 w budynku
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 4. UCZENIE SIĘ INDUKCYJNE Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska WSTĘP Wiedza pozyskana przez ucznia ma charakter odwzorowania
Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak
Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak 1 Wprowadzenie. Zmienne losowe Podczas kursu interesować nas będzie wnioskowanie o rozpatrywanym zjawisku. Poprzez wnioskowanie rozumiemy
Pattern Classification
Pattern Classification All materials in these slides were taken from Pattern Classification (2nd ed) by R. O. Duda, P. E. Hart and D. G. Stork, John Wiley & Sons, 2000 with the permission of the authors
9. Praktyczna ocena jakości klasyfikacji
Algorytmy rozpoznawania obrazów 9. Praktyczna ocena jakości klasyfikacji dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Zbiór uczacy i zbiór testowy 1. Zbiór uczacy służy do konstrukcji (treningu)
Wprowadzenie do uczenia maszynowego
Wprowadzenie do uczenia maszynowego Agnieszka Ławrynowicz 16 listopada 2017 Co to jest uczenie maszynowe? dziedzina nauki, która zajmuje się sprawianiem aby komputery mogły uczyć się bez ich zaprogramowania
Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład I dr inż. 2015/2016
Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład I dr inż. Bogumil.Konopka@pwr.edu.pl 2015/2016 1 Wykład I - plan Sprawy organizacyjne Uczenie maszynowe podstawowe pojęcia Proces modelowania
Identyfikacja istotnych atrybutów za pomocą Baysowskich miar konfirmacji
Identyfikacja istotnych atrybutów za pomocą Baysowskich miar konfirmacji Jacek Szcześniak Jerzy Błaszczyński Roman Słowiński Poznań, 5.XI.2013r. Konspekt Wstęp Wprowadzenie Metody typu wrapper Nowe metody
A Zadanie
where a, b, and c are binary (boolean) attributes. A Zadanie 1 2 3 4 5 6 7 8 9 10 Punkty a (maks) (2) (2) (2) (2) (4) F(6) (8) T (8) (12) (12) (40) Nazwisko i Imiȩ: c Uwaga: ta część zostanie wypełniona
Widzenie komputerowe (computer vision)
Widzenie komputerowe (computer vision) dr inż. Marcin Wilczewski 2018/2019 Organizacja zajęć Tematyka wykładu Cele Python jako narzędzie uczenia maszynowego i widzenia komputerowego. Binaryzacja i segmentacja
Metody eksploracji danych 1. Wprowadzenie. Piotr Szwed Katedra Informatyki Stosowanej AGH 2016
Metody eksploracji danych 1. Wprowadzenie Piotr Szwed Katedra Informatyki Stosowanej AGH 2016 Informacje o przedmiocie 7 wykładów (opisy wybranych zagadnień i algorytmów) 7 laboratoriów (co dwa tygodnie)
Rozpoznawanie obrazów
Rozpoznawanie obrazów Laboratorium Python Zadanie nr 2 κ-nn i Naive Bayes autorzy: M. Zięba, J.M. Tomczak, A. Gonczarek, S. Zaręba, J. Kaczmar Cel zadania Celem zadania jest implementacja klasyfikatorów
Systemy decyzyjne Wyk lad 4: Drzewa decyzyjne
Systemy decyzyjne Wyk lad 4: Outline Wprowadzenie 1 Wprowadzenie 2 Problem brakujacych wartości 3 Co to jest drzewo decyzyjne Jest to struktura drzewiasta, w której wez ly wewnetrzne zawieraja testy na
2. Empiryczna wersja klasyfikatora bayesowskiego
Algorytmy rozpoznawania obrazów 2. Empiryczna wersja klasyfikatora bayesowskiego dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Brak pełnej informacji probabilistycznej Klasyfikator bayesowski
Konwersatorium Matematyczne Metody Ekonomii narzędzia matematyczne w eksploracji danych. Podstawowe pojęcia
Konwersatorium Matematyczne Metody Ekonomii narzędzia matematyczne w eksploracji danych Podstawowe pojęcia Wykład 2 Marcin Szczuka http://www.mimuw.edu.pl/ szczuka/mme/ Many mickles make muckle. First
Co to są drzewa decyzji
Drzewa decyzji Co to są drzewa decyzji Drzewa decyzji to skierowane grafy acykliczne Pozwalają na zapis reguł w postaci strukturalnej Przyspieszają działanie systemów regułowych poprzez zawężanie przestrzeni
Mail: Pokój 214, II piętro
Wykład 2 Mail: agnieszka.nowak@us.edu.pl Pokój 214, II piętro http://zsi.tech.us.edu.pl/~nowak Predykcja zdolność do wykorzystania wiedzy zgromadzonej w systemie do przewidywania wartości dla nowych danych,
komputery? Andrzej Skowron, Hung Son Nguyen Instytut Matematyki, Wydział MIM, UW
Czego moga się nauczyć komputery? Andrzej Skowron, Hung Son Nguyen son@mimuw.edu.pl; skowron@mimuw.edu.pl Instytut Matematyki, Wydział MIM, UW colt.tex Czego mogą się nauczyć komputery? Andrzej Skowron,
Reguły asocjacyjne, wykł. 11
Reguły asocjacyjne, wykł. 11 Joanna Jędrzejowicz Instytut Informatyki Przykłady reguł Analiza koszyka sklepowego (ang. market basket analysis) - jakie towary kupowane są razem, Jakie towary sprzedają się
Klasyfikacja metodą Bayesa
Klasyfikacja metodą Bayesa Tadeusz Pankowski www.put.poznan.pl/~tadeusz.pankowski warunkowe i bezwarunkowe 1. Klasyfikacja Bayesowska jest klasyfikacją statystyczną. Pozwala przewidzieć prawdopodobieństwo
KLASYFIKACJA. Słownik języka polskiego
KLASYFIKACJA KLASYFIKACJA Słownik języka polskiego Klasyfikacja systematyczny podział przedmiotów lub zjawisk na klasy, działy, poddziały, wykonywany według określonej zasady Klasyfikacja polega na przyporządkowaniu
SYSTEMY UCZĄCE SIĘ WYKŁAD 3. DRZEWA DECYZYJNE. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.
SYSTEMY UCZĄCE SIĘ WYKŁAD 3. DRZEWA DECYZYJNE Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska BUDOWA DRZEW DECYZYJNYCH Drzewa decyzyjne są metodą indukcyjnego
Metody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 2 κ-nn i Naive Bayes autorzy: M. Zięba, J.M. Tomczak, A. Gonczarek, S. Zaręba Cel zadania Celem zadania jest implementacja klasyfikatorów
WYKŁAD 3. Klasyfikacja: modele probabilistyczne
Wrocław University of Technology WYKŁAD 3 Klasyfikacja: modele probabilistyczne Maciej Zięba Politechnika Wrocławska Klasyfikacja Klasyfikacja (ang. Classification): Dysponujemy obserwacjami z etykietami
Drzewa decyzyjne. Nguyen Hung Son. Nguyen Hung Son () DT 1 / 34
Drzewa decyzyjne Nguyen Hung Son Nguyen Hung Son () DT 1 / 34 Outline 1 Wprowadzenie Definicje Funkcje testu Optymalne drzewo 2 Konstrukcja drzew decyzyjnych Ogólny schemat Kryterium wyboru testu Przycinanie
Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010
Materiały/konsultacje Automatyczna predykcja http://www.ibp.pwr.wroc.pl/kotulskalab Konsultacje wtorek, piątek 9-11 (uprzedzić) D1-115 malgorzata.kotulska@pwr.wroc.pl Co to jest uczenie maszynowe? Uczenie
Metody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium JAVA Zadanie nr 2 Rozpoznawanie liter autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z problemem klasyfikacji
Klasyfikacja naiwny Bayes
Klasyfikacja naiwny Bayes LABORKA Piotr Ciskowski NAIWNY KLASYFIKATOR BAYESA wyjaśnienie Naiwny klasyfikator Bayesa żródło: Internetowy Podręcznik Statystyki Statsoft dane uczące 2 klasy - prawdopodobieństwo
Instytut Automatyki i Inżynierii Informatycznej Politechniki Poznańskiej. Adam Meissner. Elementy uczenia maszynowego
Instytut Automatyki i Inżynierii Informatycznej Politechniki Poznańskiej Adam Meissner Adam.Meissner@put.poznan.pl http://www.man.poznan.pl/~ameis Elementy uczenia maszynowego Literatura [1] Bolc L., Zaremba
Analiza danych. http://zajecia.jakubw.pl/ TEMATYKA PRZEDMIOTU
Analiza danych Wstęp Jakub Wróblewski jakubw@pjwstk.edu.pl http://zajecia.jakubw.pl/ TEMATYKA PRZEDMIOTU Różne aspekty analizy danych Reprezentacja graficzna danych Metody statystyczne: estymacja parametrów
Klasyfikacja obiektów Drzewa decyzyjne (drzewa klasyfikacyjne)
Klasyfikacja obiektów Drzewa decyzyjne (drzewa klasyfikacyjne) Tadeusz Pankowski www.put.poznan.pl/~tadeusz.pankowski Klasyfikacja i predykcja. Odkrywaniem reguł klasyfikacji nazywamy proces znajdowania
WSTĘP I TAKSONOMIA METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING. Adrian Horzyk. Akademia Górniczo-Hutnicza
METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING WSTĘP I TAKSONOMIA Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra
Klasyfikacja. Sformułowanie problemu Metody klasyfikacji Kryteria oceny metod klasyfikacji. Eksploracja danych. Klasyfikacja wykład 1
Klasyfikacja Sformułowanie problemu Metody klasyfikacji Kryteria oceny metod klasyfikacji Klasyfikacja wykład 1 Niniejszy wykład poświęcimy kolejnej metodzie eksploracji danych klasyfikacji. Na początek
Podstawowe modele probabilistyczne
Wrocław University of Technology Podstawowe modele probabilistyczne Maciej Zięba maciej.zieba@pwr.edu.pl Rozpoznawanie Obrazów, Lato 2018/2019 Pojęcie prawdopodobieństwa Prawdopodobieństwo reprezentuje
Jakość uczenia i generalizacja
Jakość uczenia i generalizacja Dokładność uczenia Jest koncepcją miary w jakim stopniu nasza sieć nauczyła się rozwiązywać określone zadanie Dokładność mówi na ile nauczyliśmy się rozwiązywać zadania które
Elementy inteligencji obliczeniowej
Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego
Rozpoznawanie obrazów
Rozpoznawanie obrazów Ćwiczenia lista zadań nr 7 autorzy: A. Gonczarek, J.M. Tomczak Przykładowe problemy Klasyfikacja binarna Dla obrazu x zaproponowano dwie cechy φ(x) = (φ 1 (x) φ 2 (x)) T. Na obrazie
SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska
SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska DRZEWO REGRESYJNE Sposób konstrukcji i przycinania
Drzewa decyzyjne i lasy losowe
Drzewa decyzyjne i lasy losowe Im dalej w las tym więcej drzew! ML Gdańsk http://www.mlgdansk.pl/ Marcin Zadroga https://www.linkedin.com/in/mzadroga/ 20 Czerwca 2017 WPROWADZENIE DO MACHINE LEARNING CZYM
1 Klasyfikator bayesowski
Klasyfikator bayesowski Załóżmy, że dane są prawdopodobieństwa przynależności do klasp( ),P( 2 ),...,P( L ) przykładów z pewnego zadania klasyfikacji, jak również gęstości rozkładów prawdopodobieństw wystąpienia
Stan dotychczasowy. OCENA KLASYFIKACJI w diagnostyce. Metody 6/10/2013. Weryfikacja. Testowanie skuteczności metody uczenia Weryfikacja prosta
Stan dotychczasowy OCENA KLASYFIKACJI w diagnostyce Wybraliśmy metodę uczenia maszynowego (np. sieć neuronowa lub drzewo decyzyjne), która będzie klasyfikować nieznane przypadki Na podzbiorze dostępnych
Algorytmy, które estymują wprost rozkłady czy też mapowania z nazywamy algorytmami dyskryminacyjnymi.
Spis treści 1 Wstęp: generatywne algorytmy uczące 2 Gaussowska analiza dyskryminacyjna 2.1 Gaussowska analiza dyskryminacyjna a regresja logistyczna 3 Naiwny Klasyfikator Bayesa 3.1 Wygładzanie Laplace'a
SPOTKANIE 2: Wprowadzenie cz. I
Wrocław University of Technology SPOTKANIE 2: Wprowadzenie cz. I Piotr Klukowski Studenckie Koło Naukowe Estymator piotr.klukowski@pwr.edu.pl 17.10.2016 UCZENIE MASZYNOWE 2/27 UCZENIE MASZYNOWE = Konstruowanie
Oracle Data Mining 10g
Oracle Data Mining 10g Zastosowanie algorytmu Support Vector Machines do problemów biznesowych Piotr Hajkowski Oracle Consulting Agenda Podstawy teoretyczne algorytmu SVM SVM w bazie danych Klasyfikacja
AUTOMATYKA INFORMATYKA
AUTOMATYKA INFORMATYKA Technologie Informacyjne Sieć Semantyczna Przetwarzanie Języka Naturalnego Internet Edytor Serii: Zdzisław Kowalczuk Inteligentne wydobywanie informacji z internetowych serwisów
Algorytmy klasyfikacji
Algorytmy klasyfikacji Konrad Miziński Politechnika Warszawska Wydział Elektroniki i Technik Informacyjnych Warszawa, Polska k.mizinski@stud.elka.pw.edu.pl Streszczenie Niniejszy dokument opisuje jedna
Kombinacja jądrowych estymatorów gęstości w klasyfikacji wstępne wyniki
Kombinacja jądrowych estymatorów gęstości w klasyfikacji wstępne wyniki Mateusz Kobos, 10.12.2008 Seminarium Metody Inteligencji Obliczeniowej 1/46 Spis treści Działanie algorytmu Uczenie Odtwarzanie/klasyfikacja
Testowanie modeli predykcyjnych
Testowanie modeli predykcyjnych Wstęp Podczas budowy modelu, którego celem jest przewidywanie pewnych wartości na podstawie zbioru danych uczących poważnym problemem jest ocena jakości uczenia i zdolności
Wprowadzenie. Metody bayesowskie Drzewa klasyfikacyjne i lasy losowe Sieci neuronowe SVM. Klasyfikacja. Wstęp
Wstęp Problem uczenia się pod nadzorem, inaczej nazywany uczeniem się z nauczycielem lub uczeniem się na przykładach, sprowadza się do określenia przydziału obiektów opisanych za pomocą wartości wielu
Systemy uczące się wykład 2
Systemy uczące się wykład 2 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 19 X 2018 Podstawowe definicje Fakt; Przesłanka; Konkluzja; Reguła; Wnioskowanie. Typy wnioskowania
mgr inż. Magdalena Deckert Poznań, r. Metody przyrostowego uczenia się ze strumieni danych.
mgr inż. Magdalena Deckert Poznań, 30.11.2010r. Metody przyrostowego uczenia się ze strumieni danych. Plan prezentacji Wstęp Concept drift i typy zmian Algorytmy przyrostowego uczenia się ze strumieni
Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017
Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład III bogumil.konopka@pwr.edu.pl 2016/2017 Wykład III - plan Regresja logistyczna Ocena skuteczności klasyfikacji Macierze pomyłek Krzywe
PODYPLOMOWE STUDIA ZAAWANSOWANE METODY ANALIZY DANYCH I DATA MINING W BIZNESIE
UNIWERSYTET WARMIŃSKO-MAZURSKI W OLSZTYNIE PODYPLOMOWE STUDIA ZAAWANSOWANE METODY ANALIZY DANYCH I DATA MINING W BIZNESIE http://matman.uwm.edu.pl/psi e-mail: psi@matman.uwm.edu.pl ul. Słoneczna 54 10-561
Metody klasyfikacji i rozpoznawania wzorców. Najważniejsze rodzaje klasyfikatorów
Metody klasyfikacji i rozpoznawania wzorców www.michalbereta.pl Najważniejsze rodzaje klasyfikatorów Dla określonego problemu klasyfikacyjnego (tzn. dla danego zestawu danych) należy przetestować jak najwięcej
Prawdopodobieństwo czerwonych = = 0.33
Temat zajęć: Naiwny klasyfikator Bayesa a algorytm KNN Część I: Naiwny klasyfikator Bayesa Naiwny klasyfikator bayerowski jest prostym probabilistycznym klasyfikatorem. Naiwne klasyfikatory bayesowskie
Analiza danych DRZEWA DECYZYJNE. Drzewa decyzyjne. Entropia. http://zajecia.jakubw.pl/ test 1 dopełnienie testu 1
Analiza danych Drzewa decyzyjne. Enropia. Jakub Wróblewski jakubw@pjwsk.edu.pl hp://zajecia.jakubw.pl/ DRZEWA DECYZYJNE Meoda reprezenacji wiedzy (modelowania ablic decyzyjnych). Pozwala na przejrzysy
SPOTKANIE 3: Regresja: Regresja liniowa
Wrocław University of Technology SPOTKANIE 3: Regresja: Regresja liniowa Adam Gonczarek Studenckie Koło Naukowe Estymator adam.gonczarek@pwr.wroc.pl 22.11.2013 Rozkład normalny Rozkład normalny (ang. normal
Systemy agentowe. Uwagi organizacyjne. Jędrzej Potoniec
Systemy agentowe Uwagi organizacyjne Jędrzej Potoniec Kontakt mgr inż. Jędrzej Potoniec Jedrzej.Potoniec@cs.put.poznan.pl http://www.cs.put.poznan.pl/jpotoniec https://github.com/jpotoniec/sa Zasady oceniania
Multiklasyfikatory z funkcją kompetencji
3 stycznia 2011 Problem klasyfikacji Polega na przewidzeniu dyskretnej klasy na podstawie cech obiektu. Obiekt jest reprezentowany przez wektor cech Zbiór etykiet jest skończony x X Ω = {ω 1, ω 2,...,
INDUKCJA DRZEW DECYZYJNYCH
INDUKCJA DRZEW DECYZYJNYCH 1. Pojęcia podstawowe. 2. Idea algorytmów TDIT. 3. Kryteria oceny atrybutów entropia. 4. "Klasyczna" postać algorytmu ID3. 5. Przykład ilustracyjny. 6. Transformacja drzewa do
Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład II 2017/2018
Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład II bogumil.konopka@pwr.edu.pl 2017/2018 Określenie rzeczywistej dokładności modelu Zbiór treningowym vs zbiór testowy Zbiór treningowy
Klasyfikacja LDA + walidacja
Klasyfikacja LDA + walidacja Dr hab. Izabela Rejer Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Plan wykładu 1. Klasyfikator 2. LDA 3. Klasyfikacja wieloklasowa 4. Walidacja
Drzewa klasyfikacyjne Lasy losowe. Wprowadzenie
Wprowadzenie Konstrukcja binarnych drzew klasyfikacyjnych polega na sekwencyjnym dzieleniu podzbiorów przestrzeni próby X na dwa rozłączne i dopełniające się podzbiory, rozpoczynając od całego zbioru X.
SPOTKANIE 1: Wprowadzenie do uczenia maszynowego
Wrocław University of Technology SPOTKANIE 1: Wprowadzenie do uczenia maszynowego Adam Gonczarek Studenckie Koło Naukowe Estymator adam.gonczarek@pwr.wroc.pl 18.10.2013 Początki uczenia maszynowego Cybernetyka
Uczenie się maszyn. Dariusz Banasiak. Katedra Informatyki Technicznej Wydział Elektroniki
Dariusz Banasiak Katedra Informatyki Technicznej Wydział Elektroniki Machine Learning (uczenie maszynowe, uczenie się maszyn, systemy uczące się) interdyscyplinarna nauka, której celem jest stworzenie
Metody selekcji cech
Metody selekcji cech A po co to Często mamy do dyspozycji dane w postaci zbioru cech lecz nie wiemy które z tych cech będą dla nas istotne. W zbiorze cech mogą wystąpić cechy redundantne niosące identyczną
Indukowane Reguły Decyzyjne I. Wykład 8
Indukowane Reguły Decyzyjne I Wykład 8 IRD Wykład 8 Plan Powtórka Krzywa ROC = Receiver Operating Characteristic Wybór modelu Statystyka AUC ROC = pole pod krzywą ROC Wybór punktu odcięcia Reguły decyzyjne
Data Mining Wykład 5. Indukcja drzew decyzyjnych - Indeks Gini & Zysk informacyjny. Indeks Gini. Indeks Gini - Przykład
Data Mining Wykład 5 Indukcja drzew decyzyjnych - Indeks Gini & Zysk informacyjny Indeks Gini Popularnym kryterium podziału, stosowanym w wielu produktach komercyjnych, jest indeks Gini Algorytm SPRINT