Indukowane Reguły Decyzyjne I. Wykład 8
|
|
- Bartosz Kowalewski
- 6 lat temu
- Przeglądów:
Transkrypt
1 Indukowane Reguły Decyzyjne I Wykład 8
2 IRD Wykład 8 Plan Powtórka Krzywa ROC = Receiver Operating Characteristic Wybór modelu Statystyka AUC ROC = pole pod krzywą ROC Wybór punktu odcięcia Reguły decyzyjne Istotność zmiennych 2
3 W trakcie budowy drzewa Braki danych Pomijamy obserwacje przy budowie i ocenie testów Tworzymy odrębny wynik testu NULL Wypełniamy brak danych Wartością kodującą Stałą wartością (mediana, średnia, moda itp.) Według rozkładu Przypisujemy obserwacje do wszystkich węzłów potomnych z odpowiednimi wagami 3
4 Przykład mammografia 4
5 Przykład mammografia 5
6 Braki danych Przy klasyfikacji nowych obserwacji gdy nie ma odrębnej wartości "null" Przypisujemy obserwację do wszystkich węzłów potomnych z wagami równymi proporcjom węzłów Odczytujemy rozkłady we wszystkich liściach, do których trafiają obserwacje z wagami Wyznaczamy średnią ważoną odczytanych rozkładów 6
7 Liczba kategorii 2 kategorie >2 kategorii Ocena jakości klasyfikatora - Klasa pozytywna (np. d=1, TAK itd.) - Klasa negatywna (np. d=0, NIE itd.) - Odrębne klasy tylko macierz błędów - Klasa pozytywna 1 wybrana kategoria, której rozpoznawalność jest szczególnie istotna - Klasa negatywna pozostałe kategorie 7
8 Macierz błędów Real Predicted Klasa 1 Klasa 2 Klasa k Klasa 1 n 11 n 12 n 1k Klasa 2 n 21 n 22 n 2k Klasa k N k1 n k2 n kk Idealny klasyfikator to taki, dla którego n ij =0 jeżeli i j 8
9 Podstawowe statystyki TP True Positive Liczba obserwacji poprawnie zaklasyfikowanych do klasy pozytywnej FP False Positive Liczba obserwacji błędnie zaklasyfikowanych do klasy pozytywnej TN True Negative Liczba obserwacji poprawnie zaklasyfikowanych do klasy negatywnej FN False Negative Liczba obserwacji błędnie zaklasyfikowanych do klasy negatywnej 9
10 Statystyki pochodne SE Sensitivity (czułość) = TPR True Positive Rate SE= TP TP+FN zdolność klasyfikatora do prawidłowego określania klasy pozytywnej Predicted Real TP FN 0 FP TN 10
11 Statystyki pochodne SP Specificity (specyficzność) = TNR True Negative Rate SP= TN TN+FP zdolność klasyfikatora do prawidłowego określania klasy negatywnej Predicted Real TP FN 0 FP TN 11
12 Statystyki pochodne cd. FPR False Positive Rate FPR= FP FP+TN =1 SP częstość błędnej klasyfikacji do klasy pozytywnej Predicted Real TP FN 0 FP TN 12
13 Statystyki pochodne cd. FNR False Negative Rate FNR= FN FN+TP =1 SE częstość błędnej klasyfikacji do klasy negatywnej Predicted Real TP FN 0 FP TN 13
14 Statystyki pochodne cd. ACC Accuracy, sprawność klasyfikatora ACC= TP+TN TP+TN+FP+FN prawdopodobieństwo poprawnej klasyfikacji Predicted Real TP FN 0 FP TN 14
15 Macierz błędów 3 klasy: Predicted Real Klasa 1 Klasa 2 Klasa 3 Klasa 1 n 11 n 12 n 13 Klasa 2 n 21 n 22 n 23 Klasa 3 n 31 n 32 n 33 2 klasy: Real Predicted Klasa 1 Klasa 2 Klasa 1 n 11 n 12 Klasa 2 n 21 n 22 Predicted Real Klasa 1 Klasa 2 Klasa 1 TP FN Klasa 2 FP TN 15
16 Macierze kosztów i zysków Macierz kosztów Real Predicted Klasa 1 Klasa 2 Klasa Klasa Macierz zysków i strat Real Predicted Klasa 1 Klasa 2 Klasa Klasa
17 Macierze kosztów i zysków Liczymy koszty błędnej klasyfikacji Predicted Real Klasa 1 Klasa 2 Klasa Klasa * Predicted Real Klasa 1 Klasa 2 Klasa Klasa Predicted Real Klasa 1 Klasa 2 Klasa Klasa Koszt =
18 Macierze kosztów i zysków Liczymy zyski i straty z klasyfikacji Predicted Real Klasa 1 Klasa 2 Klasa Klasa * Predicted Real Klasa 1 Klasa 2 Klasa Klasa Predicted Real Klasa 1 Klasa 2 Klasa Klasa Zysk = 90 18
19 Etykietowanie ( ) Próg odcięcia: Liść dostaje etykietę "+", jeżeli udział obserwacji z tą etykietą przekracza próg odcięcia α 0.8 < α 0.75 < α < α < α 0.4 α
20 Krzywa ROC SE SP Porządkujemy liście według odsetka trafień Każdy liść jest reprezentowany przez odcinek łącząc je otrzymujemy krzywą ROC. 20
21 IRD Wykład 8 Plan Powtórka Krzywa ROC = Receiver Operating Characteristic Wybór modelu Statystyka AUC ROC = pole pod krzywą ROC Wybór punktu odcięcia Reguły decyzyjne Istotność zmiennych 21
22 Etykiety i krzywa ROC Przykład: 100 obserwacji, dwie klasy: 0 (60), 1(40) Real Predicted, α= Real Predicted, α= Real Predicted, α= Real Predicted, α=
23 Krzywa ROC Real Predicted, α= SE 1 α = 0.75 α = 0.5 α = 0.1 Real Predicted, α= Real Predicted, α= Real Predicted, α= α = SP 23
24 24 Przykład choroba serca
25 Krzywa ROC przykład 90,8% 9,9% 79,2% 19,4% 85,7% 58,3% 25 11,8%
26 90,8% 9,9% 79,2% 19,4% 85,7% 58,3% 11,8% α 0 26
27 Macierze błędów α < actual /predicted α < actual /predicted SE= =1 1 SP= =1 SE= = SP= =
28 Macierze błędów α < actual /predicted α < actual /predicted SE= =0.9 1 SP= =0.29 SE= = SP= =
29 Macierze błędów α < actual /predicted SE= = SP= =0.09 α < actual /predicted SE= = SP= =
30 Macierze błędów α < actual /predicted α actual /predicted SE= = SP= =0.04 SE= =0 1 SP= =0 30
31 Konstrukcja krzywej ROC α < SE 1-SP ROCA = 0,89 31
32 Plan Powtórka Krzywa ROC IRD Wykład 8 Wybór modelu Statystyka AUC ROC = pole pod krzywą ROC Wybór punktu odcięcia Reguły decyzyjne Istotność zmiennych 32
33 Krzywa ROC Separacja: 1. Bardzo dobra 2. Dobra 3. Słaba 4. Zła 5. Przypadkowa 33
34 Krzywa ROC SE 1 Najlepszy klasyfikator Najsłabszy klasyfikator 1 1-SP 34
35 IRD Wykład 8 Plan Powtórka Krzywa ROC = Receiver Operating Characteristic Wybór modelu Statystyka AUC ROC = pole pod krzywą ROC Wybór punktu odcięcia Reguły decyzyjne Istotność zmiennych 35
36 Krzywa ROC Pole pod krzywą ROC = AUC Współczynnik Gini ego SE 1 Gini = 2AUC-1 AUC AUC Klasyfikator 0.9 < AUC znakomity 0.8 < AUC <= 0.9 bardzo dobry 0.7 < AUC <= 0.8 dobry 0.5 < AUC <= 0.7 słaby AUC = 0.5 losowy 1 1-SP 36
37 Przykład - Irysy predicted --> / actual Iris-versicolor Other Iris-versicolor 47 3 Other 1 99 SE=TPR 0,94 SP=TNR 0,99 FPR 0,01 FNR 0,06 ACC 0,
38 Iris-versicolor Przykład - Irysy ROC Area = Gini Coefficient =
39 Przykład - Irysy predicted --> / actual Iris-setosa Other Iris-setosa 50 0 Other SE=TPR 1 SP=TNR 1 FPR 0 FNR 0 ACC 1 39
40 Iris-setosa Przykład - Irysy ROC Area = 1 Gini Coefficient = 1 Klasyfikator idealny 40
41 Krzywa ROC SE 1 Najlepszy klasyfikator Najsłabszy klasyfikator 1 1-SP 41
42 Krzywa ROC ocena modelu Sytuacja oczywista SE 1 AUC1>AUC2 Sytuacja problematyczna SE SP AUC1=AUC2 1 1-SP 42
43 Choroba serca drzewo 1 Entropia Wszystkie zmienne ROCA =
44 Choroba serca drzewo 2 Entropia Bez zmiennej " thal" ROCA =
45 Porównanie drzew
46 Choroba serca drzewo 3 Gain ratio Wszystkie zmienne ROCA =
47 Porównanie drzew
48 Choroba serca drzewo 4 Gain ratio Bez zmiennej " thal" ROCA =
49 Porównanie drzew
50 Porównanie drzew
51 IRD Wykład 8 Plan Powtórka Krzywa ROC = Receiver Operating Characteristic Wybór modelu Statystyka AUC ROC = pole pod krzywą ROC Wybór punktu odcięcia Reguły decyzyjne Istotność zmiennych 51
52 Macierz kosztów Koszty łączne Wybór punktu odcięcia actual /predicted Macierz kosztów * macierz błędów, np.: α<0.099 actual /predicted * actual /predicted
53 Wybór punktu odcięcia koszty α < α < α < suma 150 α < suma
54 Wybór punktu odcięcia koszty α < α < α < suma 104 α < suma
55 Wybór punktu odcięcia koszty α < α < α < suma 139 α < suma
56 Wybór punktu odcięcia koszty α < α α < suma 316 α suma
57 Trafienia i omyłki - ROC 57
58 Przykład mammografia Liczność %0 Liczność %1 70,00% 60,00% 50,00% 40,00% 30,00% 20,00% 10,00% 0,00% 58
59 Choroba serca drzewo 3 Prawidłowe decyzje Błędne decyzje 59
60 IRD Wykład 8 Plan Powtórka Krzywa ROC = Receiver Operating Characteristic Wybór modelu Statystyka AUC ROC = pole pod krzywą ROC Wybór punktu odcięcia Reguły decyzyjne Istotność zmiennych 60
61 Reguły decyzyjne W dowolnej ścieżce (od korzenia do liścia) niech: t 1, t 2,..., t m testy występujące na tej ścieżce r 1, r 2,..., r m wyniki testów odpowiadające gałęziom na tej ścieżce, gdzie r 1 T t1, r 2 T t2,..., r m T tm d C etykieta związana z liściem Wtedy ścieżka jest równoważna z regułą decyzyjną: t 1 (x)=r 1 t 2 (x)=r 2... t m (x)=r m c(x)=d Uwaga! Ponieważ dla każdego liścia istnieje ścieżka łącząca ten liść z korzeniem, więc zbiór reguł związanych ze ścieżkami klasyfikuje wszystkie przykłady z dziedziny X. 61
62 Reguły decyzyjne Tworzone podczas budowy klasyfikatora Określają kategorię dla każdego obiektu Przypisanie danej kategorii dla obiektu zależy od prawdopodobieństwa a posteriori, że obiekt do niej należy Zatem reguły możemy także zapisać w postaci: Jeżeli P(kategoria X=d)>α, to kategoria X=d 62
63 Reguły decyzyjne Przykład 2 kategorie o etykietach 0, 1 Reguły decyzyjne mogą mieć postać Jeżeli P(kategoria X=1)>0.5, to kategoria X=1 Jeżeli P(kategoria X=1)>0.75, to kategoria X=1 Jeżeli P(kategoria X=1)>0.95, to kategoria X=1 Liczba α punkt (próg) odcięcia / cut-off Dla różnych punktów odcięcia uzyskujemy różne macierze błędów i RÓŻNE REGUŁY DECYZYJNE 63
64 Przykład choroba serca 58,3% 64 α =?
65 Przykład choroba serca α = 0.5 => Reguła: If thal IN (6, 7) AND major_vessels < AND exerc_ind_angina IN (0) AND age < then 2 Inne progi: α = 0.4 / α = 0.3 / α = 0.2 / α = 0.55 α = 0.6 => Reguła: If thal IN (6, 7) AND major_vessels < AND exerc_ind_angina IN (0) AND age < then 1 Inne progi: α = 0.65 / α = 0.7 / α =
66 Własności krzywej ROC Krzywa obrazuje jakość metody / modelu na zbiorze testowym dla różnych progów wykorzystywanych w klasyfikacji Krzywa agreguje wszystkie możliwe progi Nachylenie krzywej reprezentuje rozkład prawdopodobieństwa Przekątna -> Klasyfikator losowy Wypukłość reprezentuje gorsze efekty klasyfikacji niż w wypadku klasyfikatora losowego 66
67 Podsumowanie ważne pojęcia Braki danych Uzupełnianie Nie uzupełnianie Ważenie Ocena jakości klasyfikatora Macierz błędów Macierz kosztów / zysków Statystyki TPR, FPR, TNR, FNR, SE, SP, ACC Krzywa ROC Wnioskowanie o jakości klasyfikatora na podstawie ROC Porównywanie różnych klasyfikatorów 67
68 IRD Wykład 8 Plan Powtórka Krzywa ROC = Receiver Operating Characteristic Wybór modelu Statystyka AUC ROC = pole pod krzywą ROC Wybór punktu odcięcia Reguły decyzyjne Istotność zmiennych 68
69 Choroby serca - dane resting_electroc_res resting_electroc_res Id Value Count Count % Target Target % , , , , , Count Target % thal Count Target % , , ,00 50,00 40,00 30,00 20,00 10,00 0,00 thal Id Value Count Count % Target Target % , , , , , ,96 69
70 Choroby serca - dane chest_pain_type Id Value Count Count % Target Target % , , , , , ,52 chest_pain_type , , Count Target % 80, , , ,00 40, , , , ,00 70
71 Istotność zmiennych - ROC ROCA Name (heart_disease=2) heart_disease 1 Thal 0,7637 chest_pain_type 0,7614 major_vessels 0,7491 max_heart_rate 0,7443 oldpeak 0,7332 exerc_ind_angina 0,7002 slope_peak_st 0,6997 age 0,6752 serum_cholest 0,6645 sex 0,6407 resting_electroc_res 0,5925 resting_blood_pres 0,5853 fasting_blood_sug 0,
72 72
73 Macierz błędów Obliczanie interpretacja Kolokwium Współczynniki TPR, FPR, TNR, FNR, SE, SP, ACC ROC Dobór etykiet w drzewie decyzyjnym 73
Indukowane Reguły Decyzyjne I. Wykład 3
Indukowane Reguły Decyzyjne I Wykład 3 IRD Wykład 3 Plan Powtórka Grafy Drzewa klasyfikacyjne Testy wstęp Klasyfikacja obiektów z wykorzystaniem drzewa Reguły decyzyjne generowane przez drzewo 2 Powtórzenie
Bardziej szczegółowoSztuczna Inteligencja w medycynie projekt (instrukcja) Bożena Kostek
Sztuczna Inteligencja w medycynie projekt (instrukcja) Bożena Kostek Cel projektu Celem projektu jest przygotowanie systemu wnioskowania, wykorzystującego wybrane algorytmy sztucznej inteligencji; Nabycie
Bardziej szczegółowoSystemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017
Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład III bogumil.konopka@pwr.edu.pl 2016/2017 Wykład III - plan Regresja logistyczna Ocena skuteczności klasyfikacji Macierze pomyłek Krzywe
Bardziej szczegółowoSystemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład II 2017/2018
Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład II bogumil.konopka@pwr.edu.pl 2017/2018 Określenie rzeczywistej dokładności modelu Zbiór treningowym vs zbiór testowy Zbiór treningowy
Bardziej szczegółowoStan dotychczasowy. OCENA KLASYFIKACJI w diagnostyce. Metody 6/10/2013. Weryfikacja. Testowanie skuteczności metody uczenia Weryfikacja prosta
Stan dotychczasowy OCENA KLASYFIKACJI w diagnostyce Wybraliśmy metodę uczenia maszynowego (np. sieć neuronowa lub drzewo decyzyjne), która będzie klasyfikować nieznane przypadki Na podzbiorze dostępnych
Bardziej szczegółowoData Mining Wykład 4. Plan wykładu
Data Mining Wykład 4 Klasyfikacja danych Klasyfikacja poprzez indukcje drzew decyzyjnych Plan wykładu Sformułowanie problemu Kryteria oceny metod klasyfikacji Metody klasyfikacji Klasyfikacja poprzez indukcje
Bardziej szczegółowoWYKŁAD 7. Testowanie jakości modeli klasyfikacyjnych metodyka i kryteria
Wrocław University of Technology WYKŁAD 7 Testowanie jakości modeli klasyfikacyjnych metodyka i kryteria autor: Maciej Zięba Politechnika Wrocławska Testowanie modeli klasyfikacyjnych Dobór odpowiedniego
Bardziej szczegółowo9. Praktyczna ocena jakości klasyfikacji
Algorytmy rozpoznawania obrazów 9. Praktyczna ocena jakości klasyfikacji dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Zbiór uczacy i zbiór testowy 1. Zbiór uczacy służy do konstrukcji (treningu)
Bardziej szczegółowoOcena dokładności diagnozy
Ocena dokładności diagnozy Diagnoza medyczna, w wielu przypadkach może być interpretowana jako działanie polegające na podjęciu jednej z dwóch decyzji odnośnie stanu zdrowotnego pacjenta: 0 pacjent zdrowy
Bardziej szczegółowoKrzywe ROC i inne techniki oceny jakości klasyfikatorów
Krzywe ROC i inne techniki oceny jakości klasyfikatorów Wydział Matematyki, Informatyki i Mechaniki Uniwersytetu Warszawskiego 20 maja 2009 1 2 Przykład krzywej ROC 3 4 Pakiet ROCR Dostępne metryki Krzywe
Bardziej szczegółowoALGORYTM RANDOM FOREST
SKRYPT PRZYGOTOWANY NA ZAJĘCIA INDUKOWANYCH REGUŁ DECYZYJNYCH PROWADZONYCH PRZEZ PANA PAWŁA WOJTKIEWICZA ALGORYTM RANDOM FOREST Katarzyna Graboś 56397 Aleksandra Mańko 56699 2015-01-26, Warszawa ALGORYTM
Bardziej szczegółowoSYSTEMY UCZĄCE SIĘ WYKŁAD 3. DRZEWA DECYZYJNE. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.
SYSTEMY UCZĄCE SIĘ WYKŁAD 3. DRZEWA DECYZYJNE Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska BUDOWA DRZEW DECYZYJNYCH Drzewa decyzyjne są metodą indukcyjnego
Bardziej szczegółowoKlasyfikacja obiektów Drzewa decyzyjne (drzewa klasyfikacyjne)
Klasyfikacja obiektów Drzewa decyzyjne (drzewa klasyfikacyjne) Tadeusz Pankowski www.put.poznan.pl/~tadeusz.pankowski Klasyfikacja i predykcja. Odkrywaniem reguł klasyfikacji nazywamy proces znajdowania
Bardziej szczegółowoMetody klasyfikacji danych - część 1 p.1/24
Metody klasyfikacji danych - część 1 Inteligentne Usługi Informacyjne Jerzy Dembski Metody klasyfikacji danych - część 1 p.1/24 Plan wykładu - Zadanie klasyfikacji danych - Przeglad problemów klasyfikacji
Bardziej szczegółowoSystemy uczące się wykład 2
Systemy uczące się wykład 2 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 19 X 2018 Podstawowe definicje Fakt; Przesłanka; Konkluzja; Reguła; Wnioskowanie. Typy wnioskowania
Bardziej szczegółowoOdczarowujemy modele predykcyjne Teoria i Praktyka
Odczarowujemy modele predykcyjne Teoria i Praktyka Mariusz Gromada, MathSpace.PL mariuszgromada.org@gmail.com 1 Kilka słów o mnie 1999 2004 Politechnika Warszawska Wydział Matematyki i Nauk Informacyjnych
Bardziej szczegółowoZeroR. Odpowiada zawsze tak samo Decyzja to klasa większościowa ze zbioru uczącego A B X 1 5 T 1 7 T 1 5 T 1 5 F 2 7 F
ZeroR Odpowiada zawsze tak samo Decyzja to klasa większościowa ze zbioru uczącego A B X 5 T 7 T 5 T 5 F 2 7 F Tutaj jest więcej obiektów klasy T, więc klasyfikator ZeroR będzie zawsze odpowiadał T niezależnie
Bardziej szczegółowoPODSTAWY STATYSTYCZNEJ ANALIZY DANYCH. Wykład 5 Kwadratowa analiza dyskryminacyjna QDA. Metody klasyfikacji oparte na rozkładach prawdopodobieństwa.
Wykład 5 Kwadratowa analiza dyskryminacyjna QDA. Metody klasyfikacji oparte na rozkładach prawdopodobieństwa. Kwadratowa analiza dyskryminacyjna Przykład analizy QDA Czasem nie jest możliwe rozdzielenie
Bardziej szczegółowoSYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska
SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska DRZEWO REGRESYJNE Sposób konstrukcji i przycinania
Bardziej szczegółowoKRZYWE ROC, CZYLI OCENA JAKOŚCI KLASYFIKATORA I POSZUKIWANIE OPTYMALNEGO PUNKTU ODCIĘCIA
KRZYWE ROC, CZYLI OCENA JAKOŚCI KLASYFIKATORA I POSZUKIWANIE OPTYMALNEGO PUNKTU ODCIĘCIA Grzegorz Harańczyk, StatSoft Polska Sp. z o.o. Krzywa ROC (Receiver Operating Characteristic) jest narzędziem do
Bardziej szczegółowoData Mining Wykład 5. Indukcja drzew decyzyjnych - Indeks Gini & Zysk informacyjny. Indeks Gini. Indeks Gini - Przykład
Data Mining Wykład 5 Indukcja drzew decyzyjnych - Indeks Gini & Zysk informacyjny Indeks Gini Popularnym kryterium podziału, stosowanym w wielu produktach komercyjnych, jest indeks Gini Algorytm SPRINT
Bardziej szczegółowoCo to są drzewa decyzji
Drzewa decyzji Co to są drzewa decyzji Drzewa decyzji to skierowane grafy acykliczne Pozwalają na zapis reguł w postaci strukturalnej Przyspieszają działanie systemów regułowych poprzez zawężanie przestrzeni
Bardziej szczegółowoPODSTAWY STATYSTYCZNEGO MODELOWANIA DANYCH. Wykład 6 Drzewa klasyfikacyjne - wprowadzenie. Reguły podziału i reguły przycinania drzew.
PODSTAWY STATYSTYCZNEGO MODELOWANIA DANYCH Wykład 6 Drzewa klasyfikacyjne - wprowadzenie. Reguły podziału i reguły przycinania drzew. Wprowadzenie Drzewo klasyfikacyjne Wprowadzenie Formalnie : drzewo
Bardziej szczegółowoWeryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1
Weryfikacja hipotez statystycznych KG (CC) Statystyka 26 V 2009 1 / 1 Sformułowanie problemu Weryfikacja hipotez statystycznych jest drugą (po estymacji) metodą uogólniania wyników uzyskanych w próbie
Bardziej szczegółowo10/15/2016. Reguła. Czułość PV(+) Bayesa. Swoistość PV(-)
A=symptom B= choroba Czułość Swoistość A ~ A ~ Reguła Bayesa ~ B ~ A) PV(+) PV(-) 1 / 2016_10_13 PV ( ) A PV ( ) A A ~ ~ sensitivity * PV ( ) sensitivity * (1 specificity)(1- ) specificity *(1- ) specificity
Bardziej szczegółowoWprowadzenie do klasyfikacji
Wprowadzenie do klasyfikacji ZeroR Odpowiada zawsze tak samo Decyzja to klasa większościowa ze zbioru uczącego A B X 1 5 T 1 7 T 1 5 T 1 5 F 2 7 F Tutaj jest więcej obiektów klasy T, więc klasyfikator
Bardziej szczegółowoDrzewa decyzyjne i lasy losowe
Drzewa decyzyjne i lasy losowe Im dalej w las tym więcej drzew! ML Gdańsk http://www.mlgdansk.pl/ Marcin Zadroga https://www.linkedin.com/in/mzadroga/ 20 Czerwca 2017 WPROWADZENIE DO MACHINE LEARNING CZYM
Bardziej szczegółowoAgnieszka Nowak Brzezińska Wykład III
Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe
Bardziej szczegółowoWYKŁAD 11 Uczenie maszynowe drzewa decyzyjne
WYKŁAD 11 Uczenie maszynowe drzewa decyzyjne Reprezentacja wiedzy w postaci drzew decyzyjnych entropia, przyrost informacji algorytmy ID3, C4.5 problem przeuczenia wyznaczanie reguł rzykładowe drzewo decyzyjne
Bardziej szczegółowoAlgorytmy klasyfikacji
Algorytmy klasyfikacji Konrad Miziński Instytut Informatyki Politechnika Warszawska 6 maja 2015 1 Wnioskowanie 2 Klasyfikacja Zastosowania 3 Drzewa decyzyjne Budowa Ocena jakości Przycinanie 4 Lasy losowe
Bardziej szczegółowoWprowadzenie do uczenia maszynowego
Wprowadzenie do uczenia maszynowego Agnieszka Ławrynowicz 12 stycznia 2017 Co to jest uczenie maszynowe? dziedzina nauki, która zajmuje się sprawianiem aby komputery mogły uczyć się bez ich zaprogramowania
Bardziej szczegółowoWykład 2 Hipoteza statystyczna, test statystyczny, poziom istotn. istotności, p-wartość i moc testu
Wykład 2 Hipoteza statystyczna, test statystyczny, poziom istotności, p-wartość i moc testu Wrocław, 01.03.2017r Przykład 2.1 Właściciel firmy produkującej telefony komórkowe twierdzi, że wśród jego produktów
Bardziej szczegółowoPODSTAWY STATYSTYCZNEJ ANALIZY DANYCH
Wykład 3 Liniowe metody klasyfikacji. Wprowadzenie do klasyfikacji pod nadzorem. Fisherowska dyskryminacja liniowa. Wprowadzenie do klasyfikacji pod nadzorem. Klasyfikacja pod nadzorem Klasyfikacja jest
Bardziej szczegółowoPrzykład eksploracji danych o naturze statystycznej Próba 1 wartości zmiennej losowej odległość
Dwie metody Klasyczna metoda histogramu jako narzędzie do postawienia hipotezy, jaki rozkład prawdopodobieństwa pasuje do danych Indukcja drzewa decyzyjnego jako metoda wykrycia klasyfikatora ukrytego
Bardziej szczegółowoDrzewa klasyfikacyjne Lasy losowe. Wprowadzenie
Wprowadzenie Konstrukcja binarnych drzew klasyfikacyjnych polega na sekwencyjnym dzieleniu podzbiorów przestrzeni próby X na dwa rozłączne i dopełniające się podzbiory, rozpoczynając od całego zbioru X.
Bardziej szczegółowoWykład 8 Dane kategoryczne
Wykład 8 Dane kategoryczne Wrocław, 19.04.2017r Zmienne kategoryczne 1 Przykłady zmiennych kategorycznych 2 Zmienne nominalne, zmienne ordynalne (porządkowe) 3 Zmienne dychotomiczne kodowanie zmiennych
Bardziej szczegółowoStatystyka Matematyczna Anna Janicka
Statystyka Matematyczna Anna Janicka wykład IX, 25.04.2016 TESTOWANIE HIPOTEZ STATYSTYCZNYCH Plan na dzisiaj 1. Hipoteza statystyczna 2. Test statystyczny 3. Błędy I-go i II-go rodzaju 4. Poziom istotności,
Bardziej szczegółowoRegresja logistyczna (LOGISTIC)
Zmienna zależna: Wybór opcji zachodniej w polityce zagranicznej (kodowana jako tak, 0 nie) Zmienne niezależne: wiedza o Unii Europejskiej (WIEDZA), zamieszkiwanie w regionie zachodnim (ZACH) lub wschodnim
Bardziej szczegółowoLaboratorium 6. Indukcja drzew decyzyjnych.
Laboratorium 6 Indukcja drzew decyzyjnych. 1. Uruchom narzędzie Oracle Data Miner i połącz się z serwerem bazy danych. 2. Z menu głównego wybierz Activity Build. Na ekranie powitalnym kliknij przycisk
Bardziej szczegółowoRozkład materiału nauczania
Dział/l.p. Ilość godz. Typ szkoły: TECHNIKUM Zawód: TECHNIK USŁUG FRYZJERSKICH Rok szkolny 2015/2016 Przedmiot: MATEMATYKA Klasa: III 2 godz/tyg 30 = 60 godzin Rozkład materiału nauczania Temat I. LOGARYTMY
Bardziej szczegółowoBaza dla predykcji medycznej
1 rof. Danuta Makowiec Instytut Fizyki Teoretycznej i Astrofizyki UG Kontakt: pok. 353 tel.: 58 523 2466 e-mail danuta.makowiec at gmail.com http://www.fizdm.strony.ug.edu.pl/me/biostatystyka.html Reguła
Bardziej szczegółowoJakość procedury klasyfikacyjnej:
Jakość procedury klasyfikacyjnej: poglądowa interpretacja i szacowanie możliwości poprawy na podstawie charakterystyki ROC Maciej Górkiewicz mygorkie@cyf-kr.edu.pl Uniwersytet Jagielloński w Krakowie Collegium
Bardziej szczegółowoStatystyka matematyczna. Wykład IV. Weryfikacja hipotez statystycznych
Statystyka matematyczna. Wykład IV. e-mail:e.kozlovski@pollub.pl Spis treści 1 2 3 Definicja 1 Hipoteza statystyczna jest to przypuszczenie dotyczące rozkładu (wielkości parametru lub rodzaju) zmiennej
Bardziej szczegółowoStanisław Cichocki. Natalia Nehrebecka
Stanisław Cichocki Natalia Nehrebecka 1 1. Wstęp a) Binarne zmienne zależne b) Interpretacja ekonomiczna c) Interpretacja współczynników 2. Liniowy model prawdopodobieństwa a) Interpretacja współczynników
Bardziej szczegółowoStatystyka opisowa- cd.
12.03.2017 Wydział Inżynierii Produkcji I Logistyki Statystyka opisowa- cd. Wykład 4 Dr inż. Adam Deptuła HISTOGRAM UNORMOWANY Pole słupka = wysokość słupka x długość przedziału Pole słupka = n i n h h,
Bardziej szczegółowoPopularne klasyfikatory w pakietach komputerowych
Popularne klasyfikatory w pakietach komputerowych Klasyfikator liniowy Uogólniony klasyfikator liniowy SVM aiwny klasyfikator bayesowski Ocena klasyfikatora ROC Lista popularnych pakietów Klasyfikator
Bardziej szczegółowoWeryfikacja hipotez statystycznych
Weryfikacja hipotez statystycznych Hipoteza Test statystyczny Poziom istotności Testy jednostronne i dwustronne Testowanie równości wariancji test F-Fishera Testowanie równości wartości średnich test t-studenta
Bardziej szczegółowoTemat: Badanie niezależności dwóch cech jakościowych test chi-kwadrat
Temat: Badanie niezależności dwóch cech jakościowych test chi-kwadrat Anna Rajfura 1 Przykład W celu porównania skuteczności wybranych herbicydów: A, B, C sprawdzano, czy masa chwastów na poletku zależy
Bardziej szczegółowoWłasności statystyczne regresji liniowej. Wykład 4
Własności statystyczne regresji liniowej Wykład 4 Plan Własności zmiennych losowych Normalna regresja liniowa Własności regresji liniowej Literatura B. Hansen (2017+) Econometrics, Rozdział 5 Własności
Bardziej szczegółowoKolokwium ze statystyki matematycznej
Kolokwium ze statystyki matematycznej 28.05.2011 Zadanie 1 Niech X będzie zmienną losową z rozkładu o gęstości dla, gdzie 0 jest nieznanym parametrem. Na podstawie pojedynczej obserwacji weryfikujemy hipotezę
Bardziej szczegółowoKlasyfikator liniowy Wstęp Klasyfikator liniowy jest najprostszym możliwym klasyfikatorem. Zakłada on liniową separację liniowy podział dwóch klas między sobą. Przedstawia to poniższy rysunek: 5 4 3 2
Bardziej szczegółowoAlgorytmy metaheurystyczne Wykład 11. Piotr Syga
Algorytmy metaheurystyczne Wykład 11 Piotr Syga 22.05.2017 Drzewa decyzyjne Idea Cel Na podstawie przesłanek (typowo zbiory rozmyte) oraz zbioru wartości w danych testowych, w oparciu o wybrane miary,
Bardziej szczegółowoDrzewa Decyzyjne, cz.2
Drzewa Decyzyjne, cz.2 Inteligentne Systemy Decyzyjne Katedra Systemów Multimedialnych WETI, PG Opracowanie: dr inŝ. Piotr Szczuko Podsumowanie poprzedniego wykładu Cel: przewidywanie wyniku (określania
Bardziej szczegółowoNaiwny klasyfikator Bayesa brał pod uwagę jedynie najbliższe otoczenie. Lecz czym jest otoczenie? Jak je zdefiniować?
Algorytm k-nn Naiwny klasyfikator Bayesa brał pod uwagę jedynie najbliższe otoczenie. Lecz czym jest otoczenie? Jak je zdefiniować? Jak daleko są położone obiekty od siebie? knn k nearest neighbours jest
Bardziej szczegółowoWybrane zadania przygotowujące do egzaminu z ISO- cz. 2. dr Piotr Wąsiewicz
Wybrane zadania przygotowujące do egzaminu z ISO- cz. 2 dr Piotr Wąsiewicz. Ze zbioru treningowego podanego w tabeli poniżej wykreować metodą zstępującej konstrukcji drzewo decyzyjne(jak najmniej rozbudowane-
Bardziej szczegółowoStatystyka matematyczna Testowanie hipotez i estymacja parametrów. Wrocław, r
Statystyka matematyczna Testowanie hipotez i estymacja parametrów Wrocław, 18.03.2016r Plan wykładu: 1. Testowanie hipotez 2. Etapy testowania hipotez 3. Błędy 4. Testowanie wielokrotne 5. Estymacja parametrów
Bardziej szczegółowoElementy modelowania matematycznego
Elementy modelowania matematycznego Modelowanie algorytmów klasyfikujących. Podejście probabilistyczne. Naiwny klasyfikator bayesowski. Modelowanie danych metodą najbliższych sąsiadów. Jakub Wróblewski
Bardziej szczegółowoKomputerowa diagnoza medyczna tworzenie i interpretowanie. prof. dr hab. inż. Andrzej Walczak
Komputerowa diagnoza medyczna tworzenie i interpretowanie prof. dr hab. inż. Andrzej Walczak Agenda 1. Po co budujemy komputerowe wspomaganie diagnostyki medycznej? 2. Wymagania na IT wdrażane w medycynie
Bardziej szczegółowo2. Ocena dokładności modelu klasyfikacji:
Spis treści: 1. Klasyfikacja... 1 2. Ocena dokładności modelu klasyfikacji:...1 2.1. Miary dokładności modelu...2 2.2. Krzywe oceny...2 3. Wybrane algorytmy...3 3.1. Naiwny klasyfikator Bayesa...3 3.2.
Bardziej szczegółowoKlasyfikacja. Indeks Gini Zysk informacyjny. Eksploracja danych. Klasyfikacja wykład 2
Klasyfikacja Indeks Gini Zysk informacyjny Klasyfikacja wykład 2 Kontynuujemy prezentacje metod klasyfikacji. Na wykładzie zostaną przedstawione dwa podstawowe algorytmy klasyfikacji oparte o indukcję
Bardziej szczegółowoTestowanie hipotez statystycznych
round Testowanie hipotez statystycznych Wyk lad 9 Natalia Nehrebecka Stanis law Cichocki 13 grudnia 2014 Plan zajeć 1 Rozk lad estymatora b Rozk lad sumy kwadratów reszt 2 Hipotezy proste - test t Badanie
Bardziej szczegółowoTemat: BADANIE NIEZALEśNOŚCI DWÓCH CECH JAKOŚCIOWYCH TEST CHI KWADRAT. Anna Rajfura 1
Temat: BADANIE NIEZALEśNOŚCI DWÓCH CECH JAKOŚCIOWYCH TEST CHI KWADRAT Anna Rajfura 1 Przykład W celu porównania skuteczności wybranych herbicydów: A, B, C sprawdzano, czy masa chwastów na poletku zaleŝy
Bardziej szczegółowoBadanie zgodności dwóch rozkładów - test serii, test mediany, test Wilcoxona, test Kruskala-Wallisa
Badanie zgodności dwóch rozkładów - test serii, test mediany, test Wilcoxona, test Kruskala-Wallisa Test serii (test Walda-Wolfowitza) Założenie. Rozpatrywane rozkłady są ciągłe. Mamy dwa uporządkowane
Bardziej szczegółowoWykład 9 Testy rangowe w problemie dwóch prób
Wykład 9 Testy rangowe w problemie dwóch prób Wrocław, 18 kwietnia 2018 Test rangowy Testem rangowym nazywamy test, w którym statystyka testowa jest konstruowana w oparciu o rangi współrzędnych wektora
Bardziej szczegółowoMetody eksploracji danych 4. Klasyfikacja
Metody eksploracji danych 4. Klasyfikacja Piotr Szwed Katedra Informatyki Stosowanej AGH 2017 Wprowadzenie Ocena klasyfiaktorów Regresja Logistyczna Zagadnienie klasyfikacji Dane: Zbiór uczący: D = {(x
Bardziej szczegółowoED Laboratorium 3. Drzewa decyzyjne
ED Laboratorium Drzewa decyzyjne 1 Drzewa decyzyjne Algorytmy indukcji drzew decyzyjnych to jeden z klasycznych algorytmów uczenia maszynowego służący do rozwiązywania problemu klasyfikacji. Drzewa decyzyjne
Bardziej szczegółowoRegresyjne metody łączenia klasyfikatorów
Regresyjne metody łączenia klasyfikatorów Tomasz Górecki, Mirosław Krzyśko Wydział Matematyki i Informatyki Uniwersytet im. Adama Mickiewicza XXXV Konferencja Statystyka Matematyczna Wisła 7-11.12.2009
Bardziej szczegółowoWYKŁAD 8 ANALIZA REGRESJI
WYKŁAD 8 ANALIZA REGRESJI Regresja 1. Metoda najmniejszych kwadratów-regresja prostoliniowa 2. Regresja krzywoliniowa 3. Estymacja liniowej funkcji regresji 4. Testy istotności współczynnika regresji liniowej
Bardziej szczegółowoTesty post-hoc. Wrocław, 6 czerwca 2016
Testy post-hoc Wrocław, 6 czerwca 2016 Testy post-hoc 1 metoda LSD 2 metoda Duncana 3 metoda Dunneta 4 metoda kontrastów 5 matoda Newman-Keuls 6 metoda Tukeya Metoda LSD Metoda Least Significant Difference
Bardziej szczegółowoRozkład materiału nauczania
Dział/l.p. Ilość godz. Typ szkoły: TECHNIKUM Zawód: TECHNIK USŁUG FRYZJERSKICH Rok szkolny 2016/2017 Przedmiot: MATEMATYKA Klasa: IV 67 godzin numer programu T5/O/5/12 Rozkład materiału nauczania Temat
Bardziej szczegółowoStanisław Cichocki. Natalia Nehrebecka
Stanisław Cichocki Natalia Nehrebecka 1 1. Wstęp a) Binarne zmienne zależne b) Interpretacja ekonomiczna c) Interpretacja współczynników 2. Liniowy model prawdopodobieństwa a) Interpretacja współczynników
Bardziej szczegółowoRegresja logistyczna
Regresja logistyczna Zacznijmy od danych dotyczących tego czy studenci zostali przyjęci na studia. admissions
Bardziej szczegółowoStatystyka matematyczna i ekonometria
Statystyka matematyczna i ekonometria Wykład 5 dr inż. Anna Skowrońska-Szmer zima 2017/2018 Hipotezy 2 Hipoteza zerowa (H 0 )- hipoteza o wartości jednego (lub wielu) parametru populacji. Traktujemy ją
Bardziej szczegółowoStatystyka matematyczna i ekonometria
Statystyka matematyczna i ekonometria Wykład 5 Anna Skowrońska-Szmer lato 2016/2017 Hipotezy 2 Hipoteza zerowa (H 0 )- hipoteza o wartości jednego (lub wielu) parametru populacji. Traktujemy ją jako prawdziwą
Bardziej szczegółowoPRZEWODNIK PO PRZEDMIOCIE
Nazwa przedmiotu: Kierunek: Informatyka Rodzaj przedmiotu: przedmiot obowiązkowy w ramach treści kierunkowych, moduł kierunkowy ogólny Rodzaj zajęć: wykład, ćwiczenia I KARTA PRZEDMIOTU CEL PRZEDMIOTU
Bardziej szczegółowoKlasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV
Klasyfikatory: k-nn oraz naiwny Bayesa Agnieszka Nowak Brzezińska Wykład IV Naiwny klasyfikator Bayesa Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną
Bardziej szczegółowoWykład 3. Rozkład normalny
Funkcje gęstości Rozkład normalny Reguła 68-95-99.7 % Wykład 3 Rozkład normalny Standardowy rozkład normalny Prawdopodobieństwa i kwantyle dla rozkładu normalnego Funkcja gęstości Frakcja studentów z vocabulary
Bardziej szczegółowoTestowanie hipotez statystycznych.
Bioinformatyka Wykład 9 Wrocław, 5 grudnia 2011 Temat. Test zgodności χ 2 Pearsona. Statystyka χ 2 Pearsona Rozpatrzmy ciąg niezależnych zmiennych losowych X 1,..., X n o jednakowym dyskretnym rozkładzie
Bardziej szczegółowoStatystyka. Rozkład prawdopodobieństwa Testowanie hipotez. Wykład III ( )
Statystyka Rozkład prawdopodobieństwa Testowanie hipotez Wykład III (04.01.2016) Rozkład t-studenta Rozkład T jest rozkładem pomocniczym we wnioskowaniu statystycznym; stosuje się go wyznaczenia przedziału
Bardziej szczegółowoMetoda Tablic Semantycznych
Procedura Plan Reguły Algorytm Logika obliczeniowa Instytut Informatyki Plan Procedura Reguły 1 Procedura decyzyjna Logiczna równoważność formuł Logiczna konsekwencja Procedura decyzyjna 2 Reguły α, β,
Bardziej szczegółowoWykład 12 Testowanie hipotez dla współczynnika korelacji
Wykład 12 Testowanie hipotez dla współczynnika korelacji Wrocław, 23 maja 2018 Współczynnik korelacji Niech będą dane dwie próby danych X = (X 1, X 2,..., X n ) oraz Y = (Y 1, Y 2,..., Y n ). Współczynnikiem
Bardziej szczegółowoSTATYSTYKA MATEMATYCZNA WYKŁAD 4. WERYFIKACJA HIPOTEZ PARAMETRYCZNYCH X - cecha populacji, θ parametr rozkładu cechy X.
STATYSTYKA MATEMATYCZNA WYKŁAD 4 WERYFIKACJA HIPOTEZ PARAMETRYCZNYCH X - cecha populacji, θ parametr rozkładu cechy X. Wysuwamy hipotezy: zerową (podstawową H ( θ = θ i alternatywną H, która ma jedną z
Bardziej szczegółowoWykład 12 Testowanie hipotez dla współczynnika korelacji
Wykład 12 Testowanie hipotez dla współczynnika korelacji Wrocław, 24 maja 2017 Współczynnik korelacji Niech będą dane dwie próby danych X = (X 1, X 2,..., X n ) oraz Y = (Y 1, Y 2,..., Y n ). Współczynnikiem
Bardziej szczegółowoMetoda tabel semantycznych. Dedukcja drogi Watsonie, dedukcja... Definicja logicznej konsekwencji. Logika obliczeniowa.
Plan Procedura decyzyjna Reguły α i β - algorytm Plan Procedura decyzyjna Reguły α i β - algorytm Logika obliczeniowa Instytut Informatyki 1 Procedura decyzyjna Logiczna konsekwencja Teoria aksjomatyzowalna
Bardziej szczegółowoTestowanie hipotez statystycznych
Testowanie hipotez statystycznych Wyk lad 9 Natalia Nehrebecka Stanis law Cichocki 28 listopada 2018 Plan zaj eć 1 Rozk lad estymatora b 2 3 dla parametrów 4 Hipotezy l aczne - test F 5 Dodatkowe za lożenie
Bardziej szczegółowoAgnieszka Nowak Brzezińska Wykład III
Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe
Bardziej szczegółowoMetody oceny wiedzy klasyfikacyjnej odkrytej z danych Jerzy Stefanowski Instytut Informatyki Politechnika Poznańska
Metody oceny wiedzy klasyfikacyjnej odkrytej z danych Jerzy Stefanowski Instytut Informatyki Politechnika Poznańska Wykład dla spec. Mgr TWO Poznań 2010 dodatek 1 Ocena wiedzy klasyfikacyjnej wykład dla
Bardziej szczegółowoZłożoność i zagadnienia implementacyjne. Wybierz najlepszy atrybut i ustaw jako test w korzeniu. Stwórz gałąź dla każdej wartości atrybutu.
Konwersatorium Matematyczne Metody Ekonomii Narzędzia matematyczne w eksploracji danych Indukcja drzew decyzyjnych Wykład 3 - część 2 Marcin Szczuka http://www.mimuw.edu.pl/ szczuka/mme/ Plan wykładu Generowanie
Bardziej szczegółowoBADANIE JAKOŚCI PREDYKCYJNEJ SEGMENTACJI RYNKU
STUDIA INFORMATICA 2016 Volume 37 Number 1 (123) Łukasz PAŚKO, Galina SETLAK Politechnika Rzeszowska, Zakład Informatyki BADANIE JAKOŚCI PREDYKCYJNEJ SEGMENTACJI RYNKU Streszczenie. Celem pracy jest ocena
Bardziej szczegółowoModel regresji wielokrotnej Wykład 14 ( ) Przykład ceny domów w Chicago
Model regresji wielokrotnej Wykład 14 (4.06.2007) Przykład ceny domów w Chicago Poniżej są przedstawione dane dotyczące cen domów w Chicago (źródło: Sen, A., Srivastava, M., Regression Analysis, Springer,
Bardziej szczegółowoWprowadzenie do uczenia maszynowego
Wprowadzenie do uczenia maszynowego Agnieszka Ławrynowicz 16 listopada 2017 Co to jest uczenie maszynowe? dziedzina nauki, która zajmuje się sprawianiem aby komputery mogły uczyć się bez ich zaprogramowania
Bardziej szczegółowoKlasyfikacja metodą Bayesa
Klasyfikacja metodą Bayesa Tadeusz Pankowski www.put.poznan.pl/~tadeusz.pankowski warunkowe i bezwarunkowe 1. Klasyfikacja Bayesowska jest klasyfikacją statystyczną. Pozwala przewidzieć prawdopodobieństwo
Bardziej szczegółowoWprowadzenie do analizy dyskryminacyjnej
Wprowadzenie do analizy dyskryminacyjnej Analiza dyskryminacyjna to zespół metod statystycznych używanych w celu znalezienia funkcji dyskryminacyjnej, która możliwie najlepiej charakteryzuje bądź rozdziela
Bardziej szczegółowoZagadnienie klasyfikacji (dyskryminacji)
Zagadnienie klasyfikacji (dyskryminacji) Przykład Bank chce klasyfikować klientów starających się o pożyczkę do jednej z dwóch grup: niskiego ryzyka (spłacających pożyczki terminowo) lub wysokiego ryzyka
Bardziej szczegółowoElementy statystyki STA - Wykład 5
STA - Wykład 5 Wydział Matematyki i Informatyki Uniwersytet im. Adama Mickiewicza 1 ANOVA 2 Model jednoczynnikowej analizy wariancji Na model jednoczynnikowej analizy wariancji możemy traktować jako uogólnienie
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 09, Walidacja jakości uczenia. Metody statystyczne.
Wstęp do sieci neuronowych, wykład 09, Walidacja jakości uczenia. Metody statystyczne. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-12-06 1 Przykład
Bardziej szczegółowoMetody Eksploracji Danych. Klasyfikacja
Metody Eksploracji Danych Klasyfikacja w wykładzie wykorzystano: 1. materiały dydaktyczne przygotowane w ramach projektu Opracowanie programów nauczania na odległość na kierunku studiów wyższych Informatyka
Bardziej szczegółowoStanisław Cichocki. Natalia Nehrebecka. Wykład 9
Stanisław Cichocki Natalia Nehrebecka Wykład 9 1 1. Dodatkowe założenie KMRL 2. Testowanie hipotez prostych Rozkład estymatora b Testowanie hipotez prostych przy użyciu statystyki t 3. Przedziały ufności
Bardziej szczegółowoDrzewa decyzyjne. Nguyen Hung Son. Nguyen Hung Son () DT 1 / 34
Drzewa decyzyjne Nguyen Hung Son Nguyen Hung Son () DT 1 / 34 Outline 1 Wprowadzenie Definicje Funkcje testu Optymalne drzewo 2 Konstrukcja drzew decyzyjnych Ogólny schemat Kryterium wyboru testu Przycinanie
Bardziej szczegółowoBarycentryczny układ współrzędnych
SkaiWD Laboratorium 2 Barycentryczny układ współrzędnych Iwo Błądek 21 marca 2019 1 Barycentryczny układ współrzędnych Podstawowa wiedza została przekazana na wykładzie. W tej sekcji znajdują się proste
Bardziej szczegółowo