Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład I dr inż. 2015/2016

Podobne dokumenty
Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład II 2017/2018

Techniki uczenia maszynowego nazwa przedmiotu SYLABUS

Wprowadzenie do uczenia maszynowego

Drzewa decyzyjne i lasy losowe

4.1. Wprowadzenie Podstawowe definicje Algorytm określania wartości parametrów w regresji logistycznej...74

Opis efektów kształcenia dla modułu zajęć

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017

Widzenie komputerowe (computer vision)

DRZEWA REGRESYJNE I LASY LOSOWE JAKO

Rozpoznawanie obrazów

Optymalizacja ciągła

Agnieszka Nowak Brzezińska Wykład III

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Agnieszka Nowak Brzezińska

ALGORYTM RANDOM FOREST

ESTYMACJA BŁĘDU PREDYKCJI I JEJ ZASTOSOWANIA

WYDZIAŁ MATEMATYKI KARTA PRZEDMIOTU

Agnieszka Nowak Brzezińska Wykład III

SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006

PODYPLOMOWE STUDIA ZAAWANSOWANE METODY ANALIZY DANYCH I DATA MINING W BIZNESIE

Statystyka i Analiza Danych

Mail: Pokój 214, II piętro

Systemy uczące się Lab 4

Zastosowania sieci neuronowych

Prof. Stanisław Jankowski

Metody systemowe i decyzyjne w informatyce

Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2)

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

Statystyczna analiza danych 1

Analiza składowych głównych. Wprowadzenie


SYSTEMY UCZĄCE SIĘ WYKŁAD 1. INFORMACJE WSTĘPNE. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

TEORETYCZNE PODSTAWY INFORMATYKI

Podstawy Sztucznej Inteligencji (PSZT)

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16

PRZYKŁADY BUDOWY MODELI REGRESYJNYCH I KLASYFIKACYJNYCH. Wprowadzenie do problematyki modelowania statystycznego

Informacje i materiały dotyczące wykładu będą publikowane na stronie internetowej wykładowcy, m.in. prezentacje z wykładów

Analiza składowych głównych

Inżynieria danych I stopień Praktyczny Studia stacjonarne Wszystkie specjalności Katedra Inżynierii Produkcji Dr Małgorzata Lucińska

Kombinacja jądrowych estymatorów gęstości w klasyfikacji - testy na sztucznych danych

ZASTOSOWANIE TECHNIK DATA MINING W BADANIACH NAUKOWYCH

MODELE LINIOWE. Dr Wioleta Drobik

Prognozowanie zanieczyszczeń atmosferycznych przy użyciu sieci neuronowych

Regresja nieparametryczna series estimator

Wprowadzenie do teorii ekonometrii. Wykład 1 Warunkowa wartość oczekiwana i odwzorowanie liniowe

Projekt Sieci neuronowe

Metody Prognozowania

Statystyka matematyczna i ekonometria

Prawdopodobieństwo i statystyka

Optymalizacja systemów

Systemy agentowe. Uwagi organizacyjne. Jędrzej Potoniec

Analiza danych. TEMATYKA PRZEDMIOTU

Systemy agentowe. Uwagi organizacyjne i wprowadzenie. Jędrzej Potoniec

Statystyka i eksploracja danych

Elementy modelowania matematycznego

Opisy przedmiotów do wyboru

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Rozpoznawanie wzorców. Dr inż. Michał Bereta p. 144 / 10, Instytut Informatyki

Statystyczna analiza danych

Regresja i Korelacja

Opis efektów kształcenia dla modułu zajęć

Klasyfikacja LDA + walidacja

Elementy statystyki wielowymiarowej

Testowanie hipotez statystycznych

Adrian Horzyk

Wprowadzenie do uczenia maszynowego

Metody eksploracji danych 3. Ocena modeli. Piotr Szwed Katedra Informatyki Stosowanej AGH 2017

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Data Mining Wykład 4. Plan wykładu

Identyfikacja istotnych atrybutów za pomocą Baysowskich miar konfirmacji

Sieci neuronowe i ich ciekawe zastosowania. Autor: Wojciech Jamrozy III rok SMP / Informatyka

Laboratorium 11. Regresja SVM.

Korelacja oznacza współwystępowanie, nie oznacza związku przyczynowo-skutkowego

Aproksymacja funkcji a regresja symboliczna

data mining machine learning data science

1.7. Eksploracja danych: pogłębianie, przeszukiwanie i wyławianie

Metody systemowe i decyzyjne w informatyce

Algorytm indukcji klasyfikatora za pomocą EA z automatycznym przełączaniem ukierunkowań

Liczby zmiennoprzecinkowe i błędy

Stosowana Analiza Regresji

STATYSTYKA MATEMATYCZNA

Stan dotychczasowy. OCENA KLASYFIKACJI w diagnostyce. Metody 6/10/2013. Weryfikacja. Testowanie skuteczności metody uczenia Weryfikacja prosta

Rok akademicki: 2030/2031 Kod: ZZP MK-n Punkty ECTS: 3. Poziom studiów: Studia II stopnia Forma i tryb studiów: Niestacjonarne

Systemy uczące się wykład 2

Techniki Optymalizacji: Metody regresji

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań

SZTUCZNA INTELIGENCJA

Część 2. Teoretyczne i praktyczne aspekty wybranych metod analiz ilościowych w ekonomii i zarządzaniu

Algorytmy i bazy danych (wykład obowiązkowy dla wszystkich)

Algorytmy klasyfikacji

ID1SII4. Informatyka I stopień (I stopień / II stopień) ogólnoakademicki (ogólno akademicki / praktyczny) stacjonarne (stacjonarne / niestacjonarne)

SZTUCZNA INTELIGENCJA

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

Wprowadzenie do analizy korelacji i regresji

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2013/2014

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

PROGNOZOWANIE Z WYKORZYSTANIEM UCZENIA MASZYN

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

ALGORYTM UZUPEŁNIANIA BRAKUJĄCYCH DANYCH W ZBIORACH REJESTROWANYCH NA STACJACH MONITORINGU POWIETRZA

Transkrypt:

Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład I dr inż. Bogumil.Konopka@pwr.edu.pl 2015/2016 1

Wykład I - plan Sprawy organizacyjne Uczenie maszynowe podstawowe pojęcia Proces modelowania zjawisk Wybór modelu Klasy modeli Klasy problemów Uczenie maszynowe z nadzorem/ bez nadzoru Interpretowalność Ocena modeli Błąd średniokwadratowy Elastyczność, obciążenie, wariancja 2

Sprawy organizacyjne Dr inż. bogumil.konopka@pwr.edu.pl, p. 118/D1 Konsulatacje: pn 13-15; cz 11-13 Laboratorium: 3 terminy laboratoryjne, co drugi tydzień od 6/13 kwietnia Ocena: kilka pytań testowych na kolokwium (1/5 z całości) Punkty z aktywności na wykładzie 3

Plan wykładów 1. Wykład I Podstawowe pojęcia, wprowadzenie do metod uczenia maszynowego 2. Wykład II Regresja liniowa, regresja logistyczna, ocena skuteczności modelu 3. Wykład III Sieci neuronowe, algorytm spadku gradientu, algorytm wstecznej propagacji błędu 4

Materiały Slajdy do wykładów: http://www.kotulska-lab.pwr.edu.pl/index.php?menu=forstudents Książki: Guide to Inteligent Data Analysis, (2010), Berthold, M.R., Borgelt, C., Höppner, F., Klawonn, F. dostępna za darmo na platformie Springer Link trzeba łączyć się przez PWr (GtIDA) An Introduction to Statistical Learning, (2013), James G., Witten D., Hastie T. and Tibshirani R., http://www-bcf.usc.edu/~gareth/isl/ (ItSL) The Elements of Statistical Learning, (2009), Hastie T., Tibshirani R., Friedman J., http://statweb.stanford.edu/~tibs/elemstatlearn/ (EoSL) Internet: w google Machine learning, Data mining, 5

O dziedzinie Schemat systemy pomiarowo-diagnostycznego 6

O dziedzinie Uczenie maszynowe machine learning Uczenie statystyczne statistical learning Eksploracja danych data mining/data exploration http://www.ibm.com/developerworks/library/os-datascience/ 7

Dane i wiedza Lech Wałęsa otrzymał Pokojową Nagrodę Nobla w 1983 r. Pociąg relacji Wrocław Warszawa odjeżdża codziennie o 9:05 Dane Odnoszą się do pojedynczych instancji Opisują jednostkowe cechy Są często dostępne w dużych ilościach Są często łatwe do zebrania Nie pozwalają wykonywać prognoz i predykcji Wiedza Odnosi się do klas instancji Opisuje ogólne wzorce, zależności, prawa, zasady. Składa się z jak najmniejszej liczby stwierdzeń Pozyskanie jej jest trudne i czasochłonne Pozwala prognozować 8

Kryteria oceny wiedzy Poprawność Poziom ogólności Przydatność Przejrzystość/Zrozumiałość Nowatorskość 9

Przykłady danych (1) Dane sprzedaży (w tyś. jednostek) w funkcji wydatków na reklamę (tyś. $) - Zmienna wyjściowa - Zmienna zależna - Odpowiedź - Zmienne wejściowe - Zmienne niezależne - Predyktory - Cechy - Atrybuty ITSL, James et al. 2013 10

Przykłady danych (2) Dane o ruchu kursu indeksu giełdowego Standard & Poor s 500 przewidywanie zachowania w dniu dzisiejszym Atrybuty Zmienna wyjściowa ITSL, James et al. 2013 11

Przykłady danych (3) Atrybuty histologiczne tkanek nowotworowych - klasyfikacja typu Zmienna wyjściowa Atrybuty 12

Przykłady danych (4) Dane o ekspresji genów w liniach komórek nowotworowych z różnych tkanek i typów reprezentacja w dwóch wymiarach. Transformacja atrybutów ITSL, James et al. 2013 13

Formalny opis zbioru danych Zbiór danych: Zbiór atrybutów Zbiór odpowiedzi 14

Proces modelowania Model opis otaczającego świata wykorzystujący formalizmy matematyczne. Proces modelowania to poszukiwanie takiej reprezentacji obserwowanego zjawiska, która będzie najlepiej tłumaczyła mierzone dane. Proces modelowania: 1. Wybrać klasę modelu 2. Wybrać funkcję oceniającą 3. Zaaplikować algorytm dopasowujący 4. Ocenić rezultaty modelowania 15

Klasa modelu, a podejmowany problem Wybór modelu jest uzależniony od sformułowanego problemu. Regresja przewidywanie zmiennej numerycznej Klasyfikacja przewidywanie zmiennej kategorycznej Segmentacja/analiza skupień - określenie struktury danych Detekcja anomalii Szukanie powiązań pomiędzy atrybutami Inne 16

Uczenie z nadzorem vs uczenie bez nadzoru Z nadzorem Zbiór uczący w postaci: D = x 1, y 1, x 2, y 2,, x n, y n, gdzie : x i = [x i1, x i2, x i3,, x ip ] - atrybuty y_i zmienna wyjaśniana Rozwiązywane problemy: Regresja Klasyfikacja Detekcja anomalii Bez nadzoru Zbiór uczący w postaci: D = x 1, x 2,, x n, gdzie : x i = [x i1, x i2, x i3,, x ip ] Rozwiązywane problemy: Segmentacja/grupowanie Szukanie powiązań Redukcja wymiaru danych 17

Klasa modelu, a parametryzacja Modele parametryczne zakładają określoną funkcję pomiędzy zmiennymi wejściowymi, a zmienną wyjściową Trzeba wybrać określoną funkcję zależności Y=f(X) Następnie określić współczynniki modelu Przykład model liniowy Modele nieparametryczne brak założenia o funkcji Przykłady: Metoda K-najbliższych sąsiadów Sieci neuronowe Drzewa decyzyjne Maszyny wektorów nośnych 18

Klasa modelu, a interpretowalność Modele interpretowalne: Model liniowy Regresja logistyczna Drzewa decyzyjne Systemy reguł decyzyjnych Modele typu black-box : Metoda K-najbliższych sąsiadów Sieci neuronowe Maszyny wektorów nośnych 19

Ocena dokładności modelu w regresji Błąd średniokwadratowy (Mean Squared Error): MSE = 1 2 y n i f x i i=1 Umożliwia: Ilościowe porównanie dokładności modelu przy różnych parametrach Ilościowe porównanie modeli o różnej strukturze Inne miary dokładności: Średni błąd bezwzględny E = 1 y n i f x i Odległość Euklidesowa punktów od linii regresji n i=1 n 20

Przyczyny niedokładności (przyczyny błędów) Błąd eksperymentalny (Bayesowski, wewnętrzny, czysty błąd) Wynika z: Błąd próby Wynika z: Błąd modelu Wynika z: Błąd algorytmu Wynika z: 21

Określenie rzeczywistej dokładności modelu MSE w zbiorze treningowym vs w rzeczywistości Zbiór treningowy zbiór wykorzystywany przy budowie modelu Zbiór testowy zbiór niedostępny przy budowie modelu 22

Elastyczność modelu, a MSE (przykład 1) Model liniowy (dwa parametry) mała elastyczność ( flexibility), mały błąd treningowy mały błąd testowy Wielomian z kilkoma parametrami umiarkowana elastyczność mały błąd treningowy mały błąd testowy Wielomian z dużą liczbą parametrów duża elastyczność mały błąd treningowy duży błąd testowy Rzeczywista zależność MSE testowy MSE treningowy ITSL, James et al. 2013 23

Elastyczność modelu, a MSE (przykład 2) Model liniowy (dwa parametry) mała elastyczność ( flexibility), duży błąd treningowy duży błąd testowy Wielomian z kilkoma parametrami umiarkowana elastyczność mały błąd treningowy mały błąd testowy Wielomian z dużą liczbą parametrów duża elastyczność mały błąd treningowy duży błąd testowy Rzeczywista zależność MSE testowy MSE treningowy ITSL, James et al. 2013 24

Elastyczność modelu, a MSE (przykład 3) Model liniowy (dwa parametry) mała elastyczność ( flexibility), duży błąd treningowy duży błąd testowy Wielomian z kilkoma parametrami umiarkowana elastyczność mały błąd treningowy mały błąd testowy Wielomian z dużą liczbą parametrów duża elastyczność mały błąd treningowy mały błąd testowy Rzeczywista zależność MSE testowy MSE treningowy ITSL, James et al. 2013 25

Obciążenie vs zmienność modelu (ang. bias vs variance) Błąd może zawsze zostać rozłożony zgodnie z formułą: E y 0 f x 0 = Var f x 0 + Bias f x 0 2 + Var ε Zmienność modelu Obciążenie modelu Błąd nieredukowalny 26

Obciążenie vs zmienność modelu (ang. bias vs variance) Dane liniowe Dane nieliniowe Dane mocno nieliniowe E y 0 f x 0 = Var f x 0 + Bias f x 0 2 + Var ε ITSL, James et al. 2013 27

Co było najważniejsze? Czym różnią się dane od wiedzy? Co to jest zbiór uczący i jak jest zbudowany? Czym jest model? Jakie problemy rozwiązuje uczenie maszynowe z nadzorem, a jakie uczenie maszynowe bez nadzoru Jako ocenić model? Co to jest właściwy balans pomiędzy obciążeniem, a zmiennością modelu 28

W przyszłym tygodniu będzie o Regresji liniowej Regresji logistycznej Ocenie skuteczności klasyfikatorów 29