Wprowadzenie do uczenia maszynowego

Podobne dokumenty
Wprowadzenie do uczenia maszynowego

Systemy agentowe. Uwagi organizacyjne i wprowadzenie. Jędrzej Potoniec

Systemy uczące się wykład 2

Sztuczna Inteligencja w medycynie projekt (instrukcja) Bożena Kostek

9. Praktyczna ocena jakości klasyfikacji

Systemy agentowe. Uwagi organizacyjne. Jędrzej Potoniec

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład II 2017/2018

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład I dr inż. 2015/2016

TEORETYCZNE PODSTAWY INFORMATYKI

Algorytm do rozpoznawania człowieka na podstawie dynamiki użycia klawiatury. Paweł Kobojek, prof. dr hab. inż. Khalid Saeed

Stan dotychczasowy. OCENA KLASYFIKACJI w diagnostyce. Metody 6/10/2013. Weryfikacja. Testowanie skuteczności metody uczenia Weryfikacja prosta

Data Mining Wykład 4. Plan wykładu

ALGORYTM RANDOM FOREST

Laboratorium 4. Naiwny klasyfikator Bayesa.

SZTUCZNA INTELIGENCJA

ZeroR. Odpowiada zawsze tak samo Decyzja to klasa większościowa ze zbioru uczącego A B X 1 5 T 1 7 T 1 5 T 1 5 F 2 7 F

Laboratorium 6. Indukcja drzew decyzyjnych.

WYKŁAD 7. Testowanie jakości modeli klasyfikacyjnych metodyka i kryteria


Agnieszka Nowak Brzezińska Wykład III

Agnieszka Nowak Brzezińska

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Podstawy Sztucznej Inteligencji (PSZT)

Metody Sztucznej Inteligencji II

Sieci neuronowe w Statistica

Wprowadzenie do programu RapidMiner Studio 7.6, część 4 Michał Bereta

Widzenie komputerowe (computer vision)

Python : podstawy nauki o danych / Alberto Boschetti, Luca Massaron. Gliwice, cop Spis treści

Agnieszka Nowak Brzezińska Wykład III

Wprowadzenie do klasyfikacji

Systemy agentowe. Uczenie ze wzmocnieniem. Jędrzej Potoniec

ALGORYTMY SZTUCZNEJ INTELIGENCJI

Optymalizacja ciągła

Drzewa decyzyjne i lasy losowe

Identyfikacja istotnych atrybutów za pomocą Baysowskich miar konfirmacji

Wybrane zagadnienia uczenia maszynowego. Zastosowania Informatyki w Informatyce W2 Krzysztof Krawiec

Jakość uczenia i generalizacja

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

Indukowane Reguły Decyzyjne I. Wykład 8

Projekt Sieci neuronowe

Klasyfikacja LDA + walidacja

Klasyfikacja obiektów Drzewa decyzyjne (drzewa klasyfikacyjne)

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Ocena dokładności diagnozy

2. Ocena dokładności modelu klasyfikacji:

Aproksymacja funkcji a regresja symboliczna

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Barycentryczny układ współrzędnych

Elementy inteligencji obliczeniowej

SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska

Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych. Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS

komputery? Andrzej Skowron, Hung Son Nguyen Instytut Matematyki, Wydział MIM, UW

Technologie Informacyjne

Testowanie modeli predykcyjnych

WEKA klasyfikacja z użyciem sztucznych sieci neuronowych

Algorytmy klasyfikacji

Metody eksploracji danych 2. Metody regresji. Piotr Szwed Katedra Informatyki Stosowanej AGH 2017

Uczenie sieci neuronowych i bayesowskich

Metody systemowe i decyzyjne w informatyce

Laboratorium 5. Adaptatywna sieć Bayesa.

PODYPLOMOWE STUDIA ZAAWANSOWANE METODY ANALIZY DANYCH I DATA MINING W BIZNESIE

Eksploracja danych. KLASYFIKACJA I REGRESJA cz. 2. Wojciech Waloszek. Teresa Zawadzka.

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Algorytmy metaheurystyczne Wykład 11. Piotr Syga

Optymalizacja systemów

Rozpoznawanie obrazów

Metody systemowe i decyzyjne w informatyce

Podstawy sztucznej inteligencji

Techniki uczenia maszynowego nazwa przedmiotu SYLABUS

Krzywe ROC i inne techniki oceny jakości klasyfikatorów

Metody eksploracji danych 4. Klasyfikacja

Systemy agentowe. Sieci neuronowe. Jędrzej Potoniec

Metody systemowe i decyzyjne w informatyce

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

Metody systemowe i decyzyjne w informatyce

Konkurs z przedmiotu eksploracja i analiza danych: problem regresji i klasyfikacji

Rozpoznawanie obrazów

ROZPOZNAWANIE SYGNAŁÓW FONICZNYCH

A Zadanie

Uczenie maszynowe w zastosowaniu do fizyki cząstek

Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych

11. Blok ten jest blokiem: a. decyzyjnym b. końcowym c. operacyjnym

Mail: Pokój 214, II piętro

Uczenie ze wzmocnieniem aplikacje

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych.

Uczenie sieci radialnych (RBF)

SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006

Pattern Classification

Systemy agentowe. Sieci neuronowe. Jędrzej Potoniec

Uczenie się maszyn. Dariusz Banasiak. Katedra Informatyki Technicznej Wydział Elektroniki

Wprowadzenie do analizy korelacji i regresji

Inteligentne systemy przeciw atakom sieciowym

Wybór / ocena atrybutów na podstawie oceny jakości działania wybranego klasyfikatora.

RILL - przyrostowy klasyfikator regułowy uczący się ze zmiennych środowisk

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

WSTĘP I TAKSONOMIA METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING. Adrian Horzyk. Akademia Górniczo-Hutnicza

Wybrane zagadnienia uczenia maszynowego

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Transkrypt:

Wprowadzenie do uczenia maszynowego Agnieszka Ławrynowicz 16 listopada 2017

Co to jest uczenie maszynowe? dziedzina nauki, która zajmuje się sprawianiem aby komputery mogły uczyć się bez ich zaprogramowania wprost (Arthur Samuel) program komputerowy uczy się na podstawie doświadczenia (E) w odniesieniu do pewnej klasy zadań (T) i miary efektywności (P), jeśli jego efektywność wykonywania zadania T (mierzona za pomocą P) poprawia się wraz z doświadczeniem E (Tom Mitchell)

Uproszczony schemat uczenia maszynowego Zadanie/Cel Dane trenujące Algorytm uczenia maszynowego Model Dane testowe Model Predykcja

Jakie są etapy projektu z zakresu uczenia maszynowego? 1 1 Spójrz na big picture 2 Pozyskaj dane 3 Eksploruj i wizualizuj dane, aby uzyskać wgląd w dane 4 Przygotuj, przetwórz wstępnie dane w celu uruchomienia algorytmu uczenia maszynowego 5 Wybierz model i wytrenuj go 6 Dopracuj swój model 7 Zaprezentuj swoje rozwiązanie 8 Uruchom, monitoruj i utrzymuj swój system 1 na podstawie Aurélien Géron. Hands-On Machine Learning with Scikit-Learn and TensorFlow: Concepts, Tools, and Techniques to Build Intelligent Systems. O Reilly Media, 2017

Uczenie nadzorowane Każdy przykład ze zbioru trenującego składa się ze: zbioru cech/atrybutów wejściowych (typowo wektora #» x ), wartości wyjściowej f( #» x ), tzw. atrybutu decyzyjnego. Mając na wejściu poprawnie zaetykietowany (wartościami wyjściowymi) zbiór przykładów o postaci ( #» x, f( #» x )), system uczy się modelu (funkcji h), która ma jak najlepiej aproksymować funkcję f w celu poprawnej predykcji etykiet nowych (nie widzianych wcześniej) przykładów.

Uczenie nadzorowane: regresja i klasyfikacja Najpopularniejsze zadania uczenia nadzorowanego to regresja i klasyfikacja. Ich celem jest predykcja wartości atrybutu decyzyjnego na podstawie wartości pozostałych atrybutów. Regresja: atrybut decyzyjny jest liczą rzeczywistą. Klasyfikacja: atrybut decyzyjny ma wartość dyskretną (binarną, nominalną). Jest to tzw. klasa.

Example Przykład Rodzeństwo, trojaczki Ania, Michał i Paweł od nowego roku akademickiego rozpoczynają studia w Poznaniu. Szukają studenckiego mieszkania i muszą uwzględnić koszt wynajmu w swoim budżecie. Doszli do wniosku, że kluczową cechą jaka wpływa na koszt wynajmu jest metraż mieszkania. Przyjrzeli się ofertom wynajmu zamieszczonym na portalu internetowym i zanotowali sobie ich dane w tabeli: Metraż (m 2 ) Cena (PLN) 71 2 500 38 1 600 31 1 190 40 1 800 26 1 000 62 2 000

Przykład c.d.

Przykład c.d.

Example Przykład c.d. Ania, Michał i Paweł przypuszczają, że odpowiednie dla nich mogłoby być mieszkanie o metrażu około 50m 2.

Uczenie nienadzorowane Każdy przykład ze zbioru trenującego składa się ze zbioru cech wejściowych (typowo wektora #» x ). Mając na wejściu zbiór przykładów o postaci ( #» x ), system uczy się modelu (funkcji h), która opisuje dane wejściowe (np. generuje wzorce pojawiające się w danych lub analizuje skupienia danych).

Przykład segmentacja klientów

Jak reprezentujemy model h? Regresja liniowa: h(x)=a 1 x + a 0 (z jedną zmienną) h( #» x )= a #» T #» n x + a0 (z n zmiennych) a #» i to parametry modelu a zadanie regresji liniowej polega na ich wyznaczeniu tak aby h #» a (x i ) była jak najbliższa f( x #» i ) dla naszych przykładów trenujących ( x #» i, f( x #» i ))

Funkcja kosztu Na ile nasz model się myli? Błąd średniokwadratowy: J( #» a, a 0 )= 1 2m m i=1 ( #» a T x i + a 0 y i ) 2

Funkcja kosztu

Funkcja kosztu

Funkcja kosztu

Funkcja kosztu

Regresja liniowa Model (hipoteza): h( #» x )= #» a n T #» x + a0 Parametry: #» a i, a 0 Funkcja kosztu: J( #» a, a 0 )= 1 2m m i=1 ( #» a T x i + a 0 y i ) 2 Cel: minimalizacja funkcji kosztu J( #» a, a 0 )

Algorytm spadku gradientowego Minimalizacja wybranej funkcji kosztu J( #» a, a 0 ) Przypisz początkowe wagi #» a, a 0 (np. #» a 0, a 0 = 0 iteracyjnie podążaj w kierunku minimum funkcji, zmieniając wagi aż osiągniesz minimum Dla regresji liniowej z jednym atrybutem, wagi aktualizowane są według wzorów (obie naraz w każdym kroku): a 1 = a 1 α 1 m a 0 = a 0 α 1 m m i=1 m i=1 (a 1 x i + a 0 y i )x i (a 1 x i + a 0 y i )

α - parametr szybkości uczenia za mały: uczenie jest wolne za duży: algorytm nie trafia w minimum, a nawet nie zbiega się

Regresja wielomianowa

Regresja wielomianowa Model liniowy nie zawsze dobrze aproksymuje dane. W takim przypadku można posłużyć się funkcją wielomianową: k-stopień wielomianu y = a 1 x 1 + a 2 x 2 +... + a k x k + a 0

Laboratorium 1 Przeuczenie

Laboratorium 1 Regularyzacja

Example Klasyfikacja Ania, Michał i Paweł od pewnego czasu już studiują. Ania pracuje dorywczo jako programistka gier. Jej średnie miesięczne zarobki kształtują się na poziomie 2 200PLN. Postanowiła wziąć pożyczkę na wyjazd na narty. Zastanawia się czy na podstawie jej zarobków zostanie jej udzielona pożyczka. Analiza sytuacji na rynku pokazuje aktualny trend. Miesięczne zarobki (PLN) Pożyczka 1 500 nie 2 100 nie 2 600 tak 1 900 tak 2 400 tak 1 100 nie 1 700 nie

Klasyfikacja Przykładowy klasyfikator: jeśli h a (x) 1800 odpowiedź=1 (tak) jeśli h a (x) < 1800 odpowiedź=0 (nie)

Regresja logistyczna - model Chcielibyśmy mieć: 0 h #» a ( #» x ) 1 funkcja sigmoidalna h #» a ( #» x ) = g( #» a T #»x ) g( #» 1 a ) = 1 + e #» a T #» x

Regresja logistyczna - model

Granica klas (decision boundary)

Granica klas (decision boundary)

Regresja logistyczna - funkcja kosztu log(h #» a ( #» x )) gdy y = 1 koszt(h #» a, y) = log(1 h #» a ( #» x )) gdy y = 0 h 0 ( #» x ) 0, koszt

Funkcje oceny klasyfikatora trafność klasyfikacji L(i, j)-koszt błędnej klasyfikacji 1 gdy i j L(i, j) = 0 gdy i = j trafność= 1 m m i=1 L(y i, f(x i ))

Macierz pomyłek: Precision/Recall Rzeczywista wartość T F Przewidywana T True positive (TP) False positive (FP) wartość F False negative (FN) True negative (TN) Precision (precyzja): T P T P + F P Recall (czułość): T P T P + F N

Zadanie Treść (1/2): Ania i Michał, studenci informatyki, postanowili wybrać się w październikowy weekend na grzyby. Ponieważ większość swojego czasu spędzają przed komputerem nie czuli się kompetentnymi grzybiarzami, jednak postanowili wykorzystać swoje mocne strony podczas tej wyprawy. W Internecie odnaleźli zbiór danych opisujący cechy grzybów jadalnych i niejadalnych i postanowili wytrenować klasyfikator, którego mogliby użyć podczas grzybobrania. Obliczyli, że ich klasyfikator ma trafność klasyfikacji 92% (na zbiorze trenującym). Michał był dumny z tak wysokiego wyniku i chciał już przystąpić do przygotowywania zapiekanki z grzybami. Jednak Ania zawahała się (1 grzyb wydawał się jej nieco podejrzany) i postanowiła najpierw zanieść zebrane grzyby do konsultacji do babci, wytrawnej grzybiarki. Okazało się, że spośród zebranych przez Anię i Michała 18 grzybów, babcia oceniła 16 jako jadalne a 2 grzyby okazały się po analizie babci niejadalne (o dziwo, grzyb, który wydawał się Ani podejrzany, babcia uznała za jadalny). Mimo stosunkowo wysokiej wartości trafności klasyfikacji, Ania i Michał mogli zatruć się grzybami!

Zadanie Treść (2/2): a) Twoim zadaniem jest obliczenie miar precyzji (precision) i czułości (recall) oraz trafności (accuracy) dla podanej poniżej macierzy pomyłek (dla zbioru testowego, zaetykietowanego przez babcię) True positive (TP): 15 False positive (FP): 2 False negative (FN): 1 True negative (TN): 0 b) Ile grzybów zostało niepoprawnie sklasyfikowanych przez Anię i Michała? ) c) Która miara najlepiej nadaje się do oceny klasyfikatora w tym zadaniu?

Zadanie Rozwiązanie: a) Precision: Recall: Accuracy: T P T P + F P = 15 0, 88 15 + 2 T P T P + F N = 15 0, 94 15 + 1 T P + T N T P + T N + F P + F N = 15 0, 83 15 + 0 + 2 + 1 b) Trzy grzyby zostały niepoprawnie sklasyfikowane. c) Miara precyzji, gdyż chcemy zminimalizować prawdopodobieństwo zatrucia się grzybem, który został błędnie sklasyfikowany jako jadalny. Wyrzucenie jadalnego grzyba powinno być z naszego punktu widzenia mniej kosztowne niż utrata zdrowia.

Walidacja krzyżowa - na przykładzie RapidMiner

Drzewa decyzyjne (model symboliczny) Przegląd modeli (klasyfikacja) Przykład z RapidMiner

Przegląd modeli (klasyfikacja) Reguły (model symboliczny) Przykład z RapidMiner

Przegląd modeli (klasyfikacja) Regresja logistyczna Przykład z RapidMiner

Dziękuję za uwagę!