Technologie Informacyjne

Podobne dokumenty
Wprowadzenie do uczenia maszynowego

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Techniki uczenia maszynowego nazwa przedmiotu SYLABUS

Sztuczna Inteligencja w medycynie projekt (instrukcja) Bożena Kostek

Wprowadzenie do teorii systemów ekspertowych

SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006

ALGORYTMY SZTUCZNEJ INTELIGENCJI

ALGORYTM RANDOM FOREST

Systemy uczące się wykład 2

Klasyfikacja obiektów Drzewa decyzyjne (drzewa klasyfikacyjne)

Przykład eksploracji danych o naturze statystycznej Próba 1 wartości zmiennej losowej odległość

PODYPLOMOWE STUDIA ZAAWANSOWANE METODY ANALIZY DANYCH I DATA MINING W BIZNESIE

Algorytmy klasyfikacji

Data Mining Wykład 4. Plan wykładu

Widzenie komputerowe (computer vision)

Analiza danych. TEMATYKA PRZEDMIOTU

Wykaz tematów prac magisterskich w roku akademickim 2018/2019 kierunek: informatyka

Podstawy Sztucznej Inteligencji (PSZT)

prawda symbol WIEDZA DANE komunikat fałsz liczba INFORMACJA (nie tyko w informatyce) kod znak wiadomość ENTROPIA forma przekaz

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017

Wprowadzenie do uczenia maszynowego

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład I dr inż. 2015/2016

Metody klasyfikacji danych - część 1 p.1/24

Uczenie sieci radialnych (RBF)


Przykładowa analiza danych

Algorytmy metaheurystyczne Wykład 11. Piotr Syga

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

4.1. Wprowadzenie Podstawowe definicje Algorytm określania wartości parametrów w regresji logistycznej...74

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Metody zbiorów przybliżonych w uczeniu się podobieństwa z wielowymiarowych zbiorów danych

komputery? Andrzej Skowron, Hung Son Nguyen Instytut Matematyki, Wydział MIM, UW

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Systemy uczące się wykład 1

Adrian Horzyk

Wprowadzenie do klasyfikacji

1.7. Eksploracja danych: pogłębianie, przeszukiwanie i wyławianie

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Elementy modelowania matematycznego

Sztuczne sieci neuronowe (SNN)

Jakość uczenia i generalizacja

Budowa sztucznych sieci neuronowych do prognozowania. Przykład jednostek uczestnictwa otwartego funduszu inwestycyjnego

Instytut Automatyki i Inżynierii Informatycznej Politechniki Poznańskiej. Adam Meissner. Elementy uczenia maszynowego

KLASYFIKACJA. Słownik języka polskiego

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Sieci neuronowe w Statistica

Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych. Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

Mail: Pokój 214, II piętro

Indukowane Reguły Decyzyjne I. Wykład 8

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE

Wybór / ocena atrybutów na podstawie oceny jakości działania wybranego klasyfikatora.

Systemy uczące się Lab 4

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład II 2017/2018

SPOTKANIE 2: Wprowadzenie cz. I

Systemy Wspomagania Decyzji

Systemy Wspomagania Decyzji

Stan dotychczasowy. OCENA KLASYFIKACJI w diagnostyce. Metody 6/10/2013. Weryfikacja. Testowanie skuteczności metody uczenia Weryfikacja prosta

Co to jest grupowanie

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

A Zadanie

Klasyfikator. ˆp(k x) = 1 K. I(ρ(x,x i ) ρ(x,x (K) ))I(y i =k),k =1,...,L,

Metody Sztucznej Inteligencji II

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

WYDZIAŁ MATEMATYKI KARTA PRZEDMIOTU

Zagadnienia: wprowadzenie podstawowe pojęcia. Doświadczalnictwo. Anna Rajfura

Klasyfikacja metodą Bayesa

Testowanie modeli predykcyjnych

Teoria systemów uczacych się i wymiar Vapnika-Chervonenkisa

Sztuczna inteligencja : Algorytm KNN

Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak

WSTĘP I TAKSONOMIA METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING. Adrian Horzyk. Akademia Górniczo-Hutnicza

WYKŁAD 11 Uczenie maszynowe drzewa decyzyjne

Sieci Kohonena Grupowanie

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Agnieszka Nowak Brzezińska Wykład III

Adam Kirpsza Zastosowanie regresji logistycznej w studiach nad Unią Europejska. Anna Stankiewicz Izabela Słomska

Prof. Stanisław Jankowski

Rozkład materiału nauczania

mgr inż. Magdalena Deckert Poznań, r. Metody przyrostowego uczenia się ze strumieni danych.

Klasyfikacja LDA + walidacja

Opis efektów kształcenia dla modułu zajęć

ED Laboratorium 3. Drzewa decyzyjne

Rozkład materiału nauczania

Obrona rozprawy doktorskiej Neuro-genetyczny system komputerowy do prognozowania zmiany indeksu giełdowego

Podstawy sztucznej inteligencji

Uniwersytet w Białymstoku Wydział Ekonomiczno-Informatyczny w Wilnie SYLLABUS na rok akademicki 2012/2013

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16

KARTA MODUŁU KSZTAŁCENIA

kierunkowy (podstawowy / kierunkowy / inny HES) nieobowiązkowy (obowiązkowy / nieobowiązkowy) polski drugi semestr letni (semestr zimowy / letni)

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Wybrane zagadnienia uczenia maszynowego. Zastosowania Informatyki w Informatyce W2 Krzysztof Krawiec

2

AUTOMATYKA INFORMATYKA

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Konstrukcja biortogonalnych baz dyskryminacyjnych dla problemu klasyfikacji sygnałów. Wit Jakuczun

I EKSPLORACJA DANYCH

Optymalizacja optymalizacji

Transkrypt:

Systemy Uczące się Szkoła Główna Służby Pożarniczej Zakład Informatyki i Łączności January 16, 2017

1 Wprowadzenie 2 Uczenie nadzorowane 3 Uczenie bez nadzoru 4 Uczenie ze wzmocnieniem

Uczenie się - proces poznawczy prowadzący do modyfikacji zachowania osobnika pod wpływem doświadczeń co zwykle zwiększa przystosowanie osobnika do otoczenia. Zdolność uczenia się, w różnym zakresie posiadają zwierzęta, ludzie, grupy ludzi a także komputery.

Wprowadzenie Uczenie nadzorowane Uczenie bez nadzoru Uczenie ze wzmocnieniem

Klasyfikacja wysocy? niscy

Klasyfikacja cd. Jan Kowal, M, 172 cm, czy wysoki? lp. imię nazwisko wzrost płeć czy wysoki 1. Jan Nowakowski 191 M tak 2. Jan Wiśniewski 185 M tak 3. Jan Kowalski 181 M tak 4. Jan Nowak 175 M nie 5. Janina Kowalska 171 K tak 6. Janina Nowak 160 K nie

Leniwe klasyfikatory Algorytm k-nn

Leniwe klasyfikatory Naiwny klasyfikator Bayesowski Jan Kowal, M, 172 cm, czy wysoki? lp. imię nazwisko wzrost płeć czy wysoki 1. Jan Nowakowski 191 M tak 2. Jan Wiśniewski 185 M tak 3. Jan Kowalski 181 M tak 4. Jan Nowak 175 M nie 5. Janina Kowalska 171 K tak 6. Janina Nowak 160 K nie P(wysoki dane) = P(wysoki)p(plec wysoki)p(wzrost wysoki) p(dane) (1) p(dane) = P(wysoki)p(plec wysoki)p(wzrost wysoki) + P(niski)p(plec niski)p(wzrost niski) (2) p(dane) = 0.2 (3) P wysoki = 4 6 3 4 1 4 0.2 0.63 (4) P niski = 2 6 2 3 1 3 0.2 0.37 (5)

Leniwe klasyfikatory Leniwy vs. gorliwy klasyfikator Leniwy klasyfikator brak procesu uczenia się. Nie generuje modelu dla metod predykcji. Klasyfikacja polega na kombinowaniu bezpośrednio z danych treningowych. Gorliwy klasyfikator buduje pełny model opisujący metodę predykcji. Klasyfikacja polega na generowaniu odpowiedzi z modelu. Dane treningowe Klasyfikator leniwy WYNIK N Dane testowe Klasyfikator gorliwy Model WYNIK N Czy Jan Kowal wysoki?

Gorliwe klasyfikatory Drzewa klasyfikacyjne Drzewa klasyfikacyjne zbiorcza nazwa rodziny metod statystycznych, dokonujących za pomocą diagramów zwanych drzewami klasyfikacji obserwacji statystycznych, czyli podziału próby statystycznej na klasy obserwacji o podobnych właściwościach.

Gorliwe klasyfikatory Drzewa klasyfikacyjne cd. Entropia w ramach teorii informacji jest definiowana jako średnia ważona ilości informacji niesionej przez pojedynczą wiadomość, gdzie wagami są prawdopodobieństwa nadania poszczególnych wiadomości. H(x) = n i=1 p(i)log 2 1 p(i) (6) lp. imię nazwisko wzrost płeć czy wysoki 1. Jan Nowakowski 191 M tak 2. Jan Wiśniewski 185 M tak 3. Jan Kowalski 181 M tak 4. Jan Nowak 175 M nie 5. Janina Kowalska 171 K tak 6. Janina Nowak 160 K nie H(x) = 4 1 log 2 + 2 1 log 6 4 2 = 0, 918 (7) 6 2 6 6 Hw (x) = 1 (1log 2 1 + 0log 2 0) + 1 ( 1 1 log 2 + 2 1 log 2 2 3 1 2 ) = 0, 459 (8) 3 2 3 3 Hp (x) = 4 ( 3 1 log 2 + 1 6 4 3 4 4 1 log 2 1 4 ) + 2 ( 1 1 log 2 + 1 6 2 1 2 2 1 log 2 ) = 0, 873 (9) 1 2

Gorliwe klasyfikatory Sztuczne Sieci Neuronowe W układach nerwowych żywych organizmów stosunkowo proste elementy (neurony), współdziałając są w stanie realizować wysokopoziomowe, złożone funkcje. U podstaw sztucznych sieci neuronowych (ANN) leży idea wykorzystania prostych elementów obliczeniowych do tworzenia układów zdolnych rozwiązywać skomplikowane zadania. Siła rozwiązania leży nie w samych elementach obliczeniowych, a w sposobie ich łączenia. x x x x 1 2 3 n w1 w2 w 3 wn y

Gorliwe klasyfikatory Sztuczne Sieci Neuronowe przepływ sygnełów wejściowych warstwy ukryte x 1 warstwa wejściowa warstwa wyjściowa y 1 x 2 y 2 x n przepływ sygnełów o błędzie

Metody oceny klasyfikatorów Tablica Dezorientacji sklasyfkiowany wysoki sklasyfkiowany wysoki TAK NIE P N wysoki TAK T 12 3 wysoki NIE F 4 14 N P Dokładność (ACC)= Precyzja (Precision) = Przywołanie (Recall) = TP+FP TP+TN+FP+FN TP TP+FN TP TP+TN

Metody oceny klasyfikatorów Ewaluacja

Metody oceny klasyfikatorów Krzywa ROC Ocena klasyfikacji osób wg wzrostu krzywa ROC wg ubioru krzywa ROC

Metody oceny klasyfikatorów NFL No Free Lunch Theorem 10 2! 10 10 10 10 2! 10 10 10 10 2!

Wartości liczbowe powierzchnia zdarzenia kubatura zdarzenia zuzyto wody sis jrg osoby 1 1.00 0.00 0.00 5 2 0.00 0.00 2.00 6 3 100.00 0.00 0.00 15 4 100.00 0.00 0.00 12 5 50.00 0.00 0.00 8 6 1.00 0.00 1.00 4 7 3.00 3.00 0.50 6 8 40.00 120.00 0.00 6 9 0.00 0.00 0.00 6 10 1.00 1.00 0.00 7 11 0.05 50.00 5.00 6 12 16.00 32.00 2.00 5 13 50.00 0.00 0.00 7 14 1.00 0.00 0.00 4 15 12.00 0.00 0.00 21 16 15.00 3.00 10.00 29 17 20.00 0.00 0.00 5 18 4.00 8.00 0.00 5 19 1.00 0.00 0.00 4 20 40.00 0.00 0.00 3

Definicja Grupowanie (analiza skupień, klasteryzacja) to metoda dokonująca grupowania elementów we względnie jednorodne klasy. Podstawą grupowania w większości algorytmów jest podobieństwo pomiędzy elementami wyrażone przy pomocy miary podobieństwa. Poprzez grupowanie można również rozwiązać problemy z gatunku odkrywania struktury w danych oraz dokonywanie uogólniania.

Ogólna zasada Atrybut 2 1 0 1 2 3 4 5 6 0 1 2 3 4 5 6 Atrybut 1

Ogólna zasada clusplot(pam(x = x, k = 2)) Atrybut 2 1 0 1 2 3 4 5 6 Component 2 1.0 0.5 0.0 0.5 1.0 0 1 2 3 4 5 6 Atrybut 1 4 2 0 2 4 Component 1 These two components explain 100 % of the point variability.

Predefiniowana liczba grup Algorytm K - centroidów Atrybut 2 1 0 1 2 3 4 5 6 0 1 2 3 4 5 6 Atrybut 1

Predefiniowana liczba grup Algorytm K - centroidów Atrybut 2 1 0 1 2 3 4 5 6 0 1 2 3 4 5 6 Atrybut 1

Predefiniowana liczba grup Algorytm K - centroidów Atrybut 2 1 0 1 2 3 4 5 6 0 1 2 3 4 5 6 Atrybut 1

Predefiniowana liczba grup Algorytm K - centroidów Atrybut 2 1 0 1 2 3 4 5 6 0 1 2 3 4 5 6 Atrybut 1

Predefiniowana liczba grup Algorytm K - centroidów Atrybut 2 1 0 1 2 3 4 5 6 0 1 2 3 4 5 6 Atrybut 1

Predefiniowana liczba grup Algorytm K - centroidów Atrybut 2 1 0 1 2 3 4 5 6 0 1 2 3 4 5 6 Atrybut 1

Predefiniowana liczba grup Algorytm K - centroidów Atrybut 2 1 0 1 2 3 4 5 6 0 1 2 3 4 5 6 Atrybut 1

Predefiniowana liczba grup Algorytm K - centroidów Atrybut 2 1 0 1 2 3 4 5 6 0 1 2 3 4 5 6 Atrybut 1

Predefiniowana liczba grup Algorytm K - centroidów Atrybut 2 1 0 1 2 3 4 5 6 0 1 2 3 4 5 6 Atrybut 1

Predefiniowana liczba grup Algorytm K - centroidów Atrybut 2 1 0 1 2 3 4 5 6 0 1 2 3 4 5 6 Atrybut 1

Predefiniowana liczba grup Szacowanie liczby grup Atrybut 2 1 0 1 2 3 4 5 6 b 1 a1 s(i) = b(i) a(i) max{a(i), b(i)} S k = n s(i) i=1 0 1 2 3 4 5 6 Atrybut 1

Predefiniowana odległość Grupowanie hierarchiczne Atrybut 2 1 0 1 2 3 4 5 6 0 1 2 3 4 5 6 Atrybut 1

Predefiniowana odległość Grupowanie hierarchiczne 1.20 0.90 0.60 0.30 0.00 1.20 0.90 0.60 0.30 0.00 1.20 0.90 0.60 0.30 0.00 1.20 0.90 0.60 0.30 0.00 0,159 0,159 0,159 0,159 0,131 0,131 0,131 0,131 0,235 0,235 0,235 0,235 0,266 0,266 0,266 0,266 0,317 0,317 0,317 0,317 0,313 0,313 0,313 0,313 0,291 0,291 0,291 0,291 0,270 0,270 0,270 0,270 0,265 0,265 0,265 0,265 0,443 0,443 0,443 0,443 0,430 0,430 0,430 0,430 0,510 0,510 0,510 0,510 0,432 0,432 0,432 0,432 0,531 0,531 0,531 0,531 0,589 0,589 0,589 0,589 0,578 0,578 0,578 0,578 0,535 0,535 0,535 0,535 0,561 0,561 0,561 0,561 0,604 0,604 0,604 0,604 0,612 0,612 0,612 0,612 0,567 0,567 0,567 0,567 0,563 0,563 0,563 0,563 0,488 0,488 0,488 0,488 0,478 0,478 0,478 0,478 1.20 0.90 0.60 0.30 0.00 1.20 0.90 0.60 0.30 0.00 1.20 0.90 0.60 0.30 0.00 1.20 0.90 0.60 0.30 0.00 a) b) c) d)

Interpretacja grupowania Grupowanie bazy SWD-ST nr grupy licz. raportów S k nazwa 1 1628-0.01 kontener śmieć śmietnik 2 4179 0.01 trawa nieużytek tłumica 3 4607-0.02 trawa tłumica suchy 4 1492 0.24 komora silnik akumulator 5 4297 0.35 trawa suchy tłumica 6 506 0.06 winda windowy szyba 7 5550 0.32 śmieć wysypisko dziki 8 6290 0.12 kontener śmieć śmietnik 9 1843 0.10 miejski trawa śmieć 10 389-0.05 wojskowy mieszkać strzelnica 11 3486 0.05 latarnia toaleta podkład 12 219 0.00 stodoła obora słoma 13 163-0.04 wagon pociąg tramwaj 14 5006 0.27 trawa nieużytek tłumica 15 522 0.18 spawalniczy lepik spawacz 16 84 0.23 mieszkać piwnica piwniczny 17 407-0.02 skrzynka energetyczny gaśnica 18 1823 0.17 zsypowy schodowy klatka 19 1535 0.07 potrawa garnek mieszkać 20 459 0.27 podkład kolejowy nasypać 21 2455 0.17 garnek mieszkać mięso 22 551 0.14 trawa kontener tłumica 23 1089 0.11 zsypowy kontener schodowy 24 2629 0.10 kontener śmieć śmietnik 25 121 0.21 termit synteza kilogram

Uczenie ze wzmocnieniem - dziedzina uczenia maszynowego czerpiąca inspiracje z psychologii behawioralnej. Rozważa ona problem, jaką agent komputerowy powinien podjąć akcję w danym środowisku tak aby maksymalizować szanse na skumulowana nagrodę.