Systemy Uczące się Szkoła Główna Służby Pożarniczej Zakład Informatyki i Łączności January 16, 2017
1 Wprowadzenie 2 Uczenie nadzorowane 3 Uczenie bez nadzoru 4 Uczenie ze wzmocnieniem
Uczenie się - proces poznawczy prowadzący do modyfikacji zachowania osobnika pod wpływem doświadczeń co zwykle zwiększa przystosowanie osobnika do otoczenia. Zdolność uczenia się, w różnym zakresie posiadają zwierzęta, ludzie, grupy ludzi a także komputery.
Wprowadzenie Uczenie nadzorowane Uczenie bez nadzoru Uczenie ze wzmocnieniem
Klasyfikacja wysocy? niscy
Klasyfikacja cd. Jan Kowal, M, 172 cm, czy wysoki? lp. imię nazwisko wzrost płeć czy wysoki 1. Jan Nowakowski 191 M tak 2. Jan Wiśniewski 185 M tak 3. Jan Kowalski 181 M tak 4. Jan Nowak 175 M nie 5. Janina Kowalska 171 K tak 6. Janina Nowak 160 K nie
Leniwe klasyfikatory Algorytm k-nn
Leniwe klasyfikatory Naiwny klasyfikator Bayesowski Jan Kowal, M, 172 cm, czy wysoki? lp. imię nazwisko wzrost płeć czy wysoki 1. Jan Nowakowski 191 M tak 2. Jan Wiśniewski 185 M tak 3. Jan Kowalski 181 M tak 4. Jan Nowak 175 M nie 5. Janina Kowalska 171 K tak 6. Janina Nowak 160 K nie P(wysoki dane) = P(wysoki)p(plec wysoki)p(wzrost wysoki) p(dane) (1) p(dane) = P(wysoki)p(plec wysoki)p(wzrost wysoki) + P(niski)p(plec niski)p(wzrost niski) (2) p(dane) = 0.2 (3) P wysoki = 4 6 3 4 1 4 0.2 0.63 (4) P niski = 2 6 2 3 1 3 0.2 0.37 (5)
Leniwe klasyfikatory Leniwy vs. gorliwy klasyfikator Leniwy klasyfikator brak procesu uczenia się. Nie generuje modelu dla metod predykcji. Klasyfikacja polega na kombinowaniu bezpośrednio z danych treningowych. Gorliwy klasyfikator buduje pełny model opisujący metodę predykcji. Klasyfikacja polega na generowaniu odpowiedzi z modelu. Dane treningowe Klasyfikator leniwy WYNIK N Dane testowe Klasyfikator gorliwy Model WYNIK N Czy Jan Kowal wysoki?
Gorliwe klasyfikatory Drzewa klasyfikacyjne Drzewa klasyfikacyjne zbiorcza nazwa rodziny metod statystycznych, dokonujących za pomocą diagramów zwanych drzewami klasyfikacji obserwacji statystycznych, czyli podziału próby statystycznej na klasy obserwacji o podobnych właściwościach.
Gorliwe klasyfikatory Drzewa klasyfikacyjne cd. Entropia w ramach teorii informacji jest definiowana jako średnia ważona ilości informacji niesionej przez pojedynczą wiadomość, gdzie wagami są prawdopodobieństwa nadania poszczególnych wiadomości. H(x) = n i=1 p(i)log 2 1 p(i) (6) lp. imię nazwisko wzrost płeć czy wysoki 1. Jan Nowakowski 191 M tak 2. Jan Wiśniewski 185 M tak 3. Jan Kowalski 181 M tak 4. Jan Nowak 175 M nie 5. Janina Kowalska 171 K tak 6. Janina Nowak 160 K nie H(x) = 4 1 log 2 + 2 1 log 6 4 2 = 0, 918 (7) 6 2 6 6 Hw (x) = 1 (1log 2 1 + 0log 2 0) + 1 ( 1 1 log 2 + 2 1 log 2 2 3 1 2 ) = 0, 459 (8) 3 2 3 3 Hp (x) = 4 ( 3 1 log 2 + 1 6 4 3 4 4 1 log 2 1 4 ) + 2 ( 1 1 log 2 + 1 6 2 1 2 2 1 log 2 ) = 0, 873 (9) 1 2
Gorliwe klasyfikatory Sztuczne Sieci Neuronowe W układach nerwowych żywych organizmów stosunkowo proste elementy (neurony), współdziałając są w stanie realizować wysokopoziomowe, złożone funkcje. U podstaw sztucznych sieci neuronowych (ANN) leży idea wykorzystania prostych elementów obliczeniowych do tworzenia układów zdolnych rozwiązywać skomplikowane zadania. Siła rozwiązania leży nie w samych elementach obliczeniowych, a w sposobie ich łączenia. x x x x 1 2 3 n w1 w2 w 3 wn y
Gorliwe klasyfikatory Sztuczne Sieci Neuronowe przepływ sygnełów wejściowych warstwy ukryte x 1 warstwa wejściowa warstwa wyjściowa y 1 x 2 y 2 x n przepływ sygnełów o błędzie
Metody oceny klasyfikatorów Tablica Dezorientacji sklasyfkiowany wysoki sklasyfkiowany wysoki TAK NIE P N wysoki TAK T 12 3 wysoki NIE F 4 14 N P Dokładność (ACC)= Precyzja (Precision) = Przywołanie (Recall) = TP+FP TP+TN+FP+FN TP TP+FN TP TP+TN
Metody oceny klasyfikatorów Ewaluacja
Metody oceny klasyfikatorów Krzywa ROC Ocena klasyfikacji osób wg wzrostu krzywa ROC wg ubioru krzywa ROC
Metody oceny klasyfikatorów NFL No Free Lunch Theorem 10 2! 10 10 10 10 2! 10 10 10 10 2!
Wartości liczbowe powierzchnia zdarzenia kubatura zdarzenia zuzyto wody sis jrg osoby 1 1.00 0.00 0.00 5 2 0.00 0.00 2.00 6 3 100.00 0.00 0.00 15 4 100.00 0.00 0.00 12 5 50.00 0.00 0.00 8 6 1.00 0.00 1.00 4 7 3.00 3.00 0.50 6 8 40.00 120.00 0.00 6 9 0.00 0.00 0.00 6 10 1.00 1.00 0.00 7 11 0.05 50.00 5.00 6 12 16.00 32.00 2.00 5 13 50.00 0.00 0.00 7 14 1.00 0.00 0.00 4 15 12.00 0.00 0.00 21 16 15.00 3.00 10.00 29 17 20.00 0.00 0.00 5 18 4.00 8.00 0.00 5 19 1.00 0.00 0.00 4 20 40.00 0.00 0.00 3
Definicja Grupowanie (analiza skupień, klasteryzacja) to metoda dokonująca grupowania elementów we względnie jednorodne klasy. Podstawą grupowania w większości algorytmów jest podobieństwo pomiędzy elementami wyrażone przy pomocy miary podobieństwa. Poprzez grupowanie można również rozwiązać problemy z gatunku odkrywania struktury w danych oraz dokonywanie uogólniania.
Ogólna zasada Atrybut 2 1 0 1 2 3 4 5 6 0 1 2 3 4 5 6 Atrybut 1
Ogólna zasada clusplot(pam(x = x, k = 2)) Atrybut 2 1 0 1 2 3 4 5 6 Component 2 1.0 0.5 0.0 0.5 1.0 0 1 2 3 4 5 6 Atrybut 1 4 2 0 2 4 Component 1 These two components explain 100 % of the point variability.
Predefiniowana liczba grup Algorytm K - centroidów Atrybut 2 1 0 1 2 3 4 5 6 0 1 2 3 4 5 6 Atrybut 1
Predefiniowana liczba grup Algorytm K - centroidów Atrybut 2 1 0 1 2 3 4 5 6 0 1 2 3 4 5 6 Atrybut 1
Predefiniowana liczba grup Algorytm K - centroidów Atrybut 2 1 0 1 2 3 4 5 6 0 1 2 3 4 5 6 Atrybut 1
Predefiniowana liczba grup Algorytm K - centroidów Atrybut 2 1 0 1 2 3 4 5 6 0 1 2 3 4 5 6 Atrybut 1
Predefiniowana liczba grup Algorytm K - centroidów Atrybut 2 1 0 1 2 3 4 5 6 0 1 2 3 4 5 6 Atrybut 1
Predefiniowana liczba grup Algorytm K - centroidów Atrybut 2 1 0 1 2 3 4 5 6 0 1 2 3 4 5 6 Atrybut 1
Predefiniowana liczba grup Algorytm K - centroidów Atrybut 2 1 0 1 2 3 4 5 6 0 1 2 3 4 5 6 Atrybut 1
Predefiniowana liczba grup Algorytm K - centroidów Atrybut 2 1 0 1 2 3 4 5 6 0 1 2 3 4 5 6 Atrybut 1
Predefiniowana liczba grup Algorytm K - centroidów Atrybut 2 1 0 1 2 3 4 5 6 0 1 2 3 4 5 6 Atrybut 1
Predefiniowana liczba grup Algorytm K - centroidów Atrybut 2 1 0 1 2 3 4 5 6 0 1 2 3 4 5 6 Atrybut 1
Predefiniowana liczba grup Szacowanie liczby grup Atrybut 2 1 0 1 2 3 4 5 6 b 1 a1 s(i) = b(i) a(i) max{a(i), b(i)} S k = n s(i) i=1 0 1 2 3 4 5 6 Atrybut 1
Predefiniowana odległość Grupowanie hierarchiczne Atrybut 2 1 0 1 2 3 4 5 6 0 1 2 3 4 5 6 Atrybut 1
Predefiniowana odległość Grupowanie hierarchiczne 1.20 0.90 0.60 0.30 0.00 1.20 0.90 0.60 0.30 0.00 1.20 0.90 0.60 0.30 0.00 1.20 0.90 0.60 0.30 0.00 0,159 0,159 0,159 0,159 0,131 0,131 0,131 0,131 0,235 0,235 0,235 0,235 0,266 0,266 0,266 0,266 0,317 0,317 0,317 0,317 0,313 0,313 0,313 0,313 0,291 0,291 0,291 0,291 0,270 0,270 0,270 0,270 0,265 0,265 0,265 0,265 0,443 0,443 0,443 0,443 0,430 0,430 0,430 0,430 0,510 0,510 0,510 0,510 0,432 0,432 0,432 0,432 0,531 0,531 0,531 0,531 0,589 0,589 0,589 0,589 0,578 0,578 0,578 0,578 0,535 0,535 0,535 0,535 0,561 0,561 0,561 0,561 0,604 0,604 0,604 0,604 0,612 0,612 0,612 0,612 0,567 0,567 0,567 0,567 0,563 0,563 0,563 0,563 0,488 0,488 0,488 0,488 0,478 0,478 0,478 0,478 1.20 0.90 0.60 0.30 0.00 1.20 0.90 0.60 0.30 0.00 1.20 0.90 0.60 0.30 0.00 1.20 0.90 0.60 0.30 0.00 a) b) c) d)
Interpretacja grupowania Grupowanie bazy SWD-ST nr grupy licz. raportów S k nazwa 1 1628-0.01 kontener śmieć śmietnik 2 4179 0.01 trawa nieużytek tłumica 3 4607-0.02 trawa tłumica suchy 4 1492 0.24 komora silnik akumulator 5 4297 0.35 trawa suchy tłumica 6 506 0.06 winda windowy szyba 7 5550 0.32 śmieć wysypisko dziki 8 6290 0.12 kontener śmieć śmietnik 9 1843 0.10 miejski trawa śmieć 10 389-0.05 wojskowy mieszkać strzelnica 11 3486 0.05 latarnia toaleta podkład 12 219 0.00 stodoła obora słoma 13 163-0.04 wagon pociąg tramwaj 14 5006 0.27 trawa nieużytek tłumica 15 522 0.18 spawalniczy lepik spawacz 16 84 0.23 mieszkać piwnica piwniczny 17 407-0.02 skrzynka energetyczny gaśnica 18 1823 0.17 zsypowy schodowy klatka 19 1535 0.07 potrawa garnek mieszkać 20 459 0.27 podkład kolejowy nasypać 21 2455 0.17 garnek mieszkać mięso 22 551 0.14 trawa kontener tłumica 23 1089 0.11 zsypowy kontener schodowy 24 2629 0.10 kontener śmieć śmietnik 25 121 0.21 termit synteza kilogram
Uczenie ze wzmocnieniem - dziedzina uczenia maszynowego czerpiąca inspiracje z psychologii behawioralnej. Rozważa ona problem, jaką agent komputerowy powinien podjąć akcję w danym środowisku tak aby maksymalizować szanse na skumulowana nagrodę.