Uczenie Maszynowe: Wprowadzenie. (c) Marcin Sydow

Podobne dokumenty
Eksploracja Danych. Wprowadzenie. (c) Marcin Sydow

AI 1: Wprowadzenie do uczenia maszynowego

Uczenie Maszynowe: reprezentacja wiedzy, wybór i ocena modelu, drzewa decyzjne

Jednowarstwowe Sieci Neuronowe jako. klasykatory do wielu klas. (c) Marcin Sydow

Algorytm grupowania K-Means Reprezentacja wiedzy Selekcja i ocena modeli

Eksploracja Danych. (c) Marcin Sydow. Wst p. Data Science. Wprowadzenie. Cykl eksperymentu. Uczenie maszynowe. Zasoby.

Metody numeryczne i statystyka dla in»ynierów

Systemy decyzyjne Wprowadzenie

Uczenie Wielowarstwowych Sieci Neuronów o

Wst p. Elementy systemów decyzyjnych Sprawy organizacyjne. Wprowadzenie Przegl d metod klasykacji

W zadaniach na procenty wyró»niamy trzy typy czynno±ci: obliczanie, jakim procentem jednej liczby jest druga liczba,

Zastosowania matematyki

Wnioskowanie Boolowskie i teoria zbiorów przybli»onych

przewidywania zapotrzebowania na moc elektryczn

ANALIZA NUMERYCZNA. Grzegorz Szkibiel. Wiosna 2014/15

Metody numeryczne i statystyka dla in»ynierów

Lab. 02: Algorytm Schrage

Elementarna statystyka Wnioskowanie o regresji (Inference 2 czerwca for regression) / 13

Listy i operacje pytania

Podstawy modelowania w j zyku UML

Wykorzystanie lokalnej geometrii danych w Maszynie Wektorów No±nych

Wojewódzki Konkurs Matematyczny

Systemy decyzyjne Wykªad 5: Drzewa decyzyjne

SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006

i, lub, nie Cegieªki buduj ce wspóªczesne procesory. Piotr Fulma«ski 5 kwietnia 2017

Baza danych - Access. 2 Budowa bazy danych

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania

1 Metody iteracyjne rozwi zywania równania f(x)=0

Propozycja integracji elementów ±wiata gry przy u»yciu drzew zachowa«

data mining machine learning data science

Aplikacje bazodanowe. Laboratorium 1. Dawid Poªap Aplikacje bazodanowe - laboratorium 1 Luty, 22, / 37

Podstawy modelowania w j zyku UML

Przetwarzanie sygnaªów

Arkusz maturalny. Šukasz Dawidowski. 25 kwietnia 2016r. Powtórki maturalne

Wzorce projektowe kreacyjne

Metody numeryczne. Wst p do metod numerycznych. Dawid Rasaªa. January 9, Dawid Rasaªa Metody numeryczne 1 / 9

Ekonometria. wiczenia 1 Regresja liniowa i MNK. Andrzej Torój. Instytut Ekonometrii Zakªad Ekonometrii Stosowanej

Modele wielorównaniowe. Problem identykacji

Wprowadzenie do uczenia maszynowego

Ekonometria - wykªad 8

XVII Warmi«sko-Mazurskie Zawody Matematyczne

Szeregowanie zada« Wykªad nr 5. dr Hanna Furma«czyk. 4 kwietnia 2013

Spis tre±ci. Przedmowa... Cz ± I

MiASI. Modelowanie integracji systemów. Piotr Fulma«ski. 26 stycznia Wydziaª Matematyki i Informatyki, Uniwersytet Šódzki, Polska

Laboratorium 11. Regresja SVM.

Wst p do sieci neuronowych, wykªad 14 Zespolone sieci neuronowe

ALGORYTMIKA Wprowadzenie do algorytmów

Spis tre±ci. 1 Wst p Zawarto± rozdziaªów Projekt LoXiM... 2

Ukªady równa«liniowych

KLASYCZNE ZDANIA KATEGORYCZNE. ogólne - orzekaj co± o wszystkich desygnatach podmiotu szczegóªowe - orzekaj co± o niektórych desygnatach podmiotu

EGZAMIN MATURALNY Z INFORMATYKI 17 MAJA 2016

Nanostruktury, spintronika, komputer kwantowy

Laboratorium z przedmiotu MED. Lab1 - wprowadzenie

Wojewódzki Konkurs Matematyczny

CAŠKOWANIE METODAMI MONTE CARLO Janusz Adamowski

x y x y x y x + y x y

POLITECHNIKA WROCŠAWSKA WYDZIAŠ ELEKTRONIKI PRACA DYPLOMOWA MAGISTERSKA

Metody bioinformatyki (MBI)

Metody numeryczne i statystyka dla in»ynierów

Janusz Adamowski METODY OBLICZENIOWE FIZYKI Zastosowanie eliptycznych równa«ró»niczkowych

Maszyny Turinga i problemy nierozstrzygalne. Maszyny Turinga i problemy nierozstrzygalne

Lekcja 8 - ANIMACJA. 1 Polecenia. 2 Typy animacji. 3 Pierwsza animacja - Mrugaj ca twarz

Bazy danych. Andrzej Łachwa, UJ, /15

MiASI. Modelowanie analityczne. Piotr Fulma«ski. 18 stycznia Wydziaª Matematyki i Informatyki, Uniwersytet Šódzki, Polska

Przykªady problemów optymalizacji kombinatorycznej

Wykªad 7. Ekstrema lokalne funkcji dwóch zmiennych.

Wykªad 6: Model logitowy

Programowanie wspóªbie»ne

SPOTKANIE 1: Wprowadzenie do uczenia maszynowego

Projekt konceptualny z Baz Danych "Centralny system zarz dzania salami na AGH"

DREAM5 Challenges. Metody i rezultaty. Praktyki wakacyjne 2010 sesja sprawozdawcza

Metodydowodzenia twierdzeń

Analiza danych i data mining.

Podziaª pracy. Cz ± II. 1 Tablica sortuj ca. Rozwi zanie

Informatyka w selekcji - Wykªad 4

Problem decyzyjny naley do klasy NP. (Polynomial), jeeli moe by rozwizany w czasie conajwyej wielomianowym przez algorytm A dla DTM.

Widzenie komputerowe (computer vision)

MODEL HAHNFELDTA I IN. ANGIOGENEZY NOWOTWOROWEJ Z UWZGL DNIENIEM LEKOOPORNO CI KOMÓREK NOWOTWOROWYCH

PRZYPOMNIENIE Ka»d przestrze«wektorow V, o wymiarze dim V = n < nad ciaªem F mo»na jednoznacznie odwzorowa na przestrze«f n n-ek uporz dkowanych:

WYKŁAD 11 Uczenie maszynowe drzewa decyzyjne

Metody statystyczne w biologii - Wykªad 8. Uniwersytet Przyrodniczy we Wrocªawiu Katedra Genetyki i Ogólnej Hodowli Zwierz t

AUTO-ENKODER JAKO SKŠADNIK ARCHITEKTURY DEEP LEARNING

Grafy. Andrzej Jastrz bski. Akademia ET I. Politechnika Gda«ska

JAO - J zyki, Automaty i Obliczenia - Wykªad 1. JAO - J zyki, Automaty i Obliczenia - Wykªad 1

Statystyka matematyczna

O pewnym zadaniu olimpijskim

Rzut oka na zagadnienia zwi zane z projektowaniem list rozkazów

Szeregowanie zada« Przedmiot fakultatywny 15h wykªadu + 15h wicze« dr Hanna Furma«czyk. 7 pa¹dziernika 2013

MiASI. Modelowanie systemów informatycznych. Piotr Fulma«ski. 18 stycznia Wydziaª Matematyki i Informatyki, Uniwersytet Šódzki, Polska

ALGORYTM RANDOM FOREST

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Zagadnienie klasyfikacji (dyskryminacji)

EGZAMIN MATURALNY Z INFORMATYKI CZERWIEC 2011 POZIOM ROZSZERZONY WYBRANE: CZĘŚĆ I. Czas pracy: 90 minut. Liczba punktów do uzyskania: 20

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Szeregowanie zada« Wykªad nr 4. dr Hanna Furma«czyk. 21 marca 2013

Zadania z kolokwiów ze Wst pu do Informatyki. Semestr II.

Wst p do sieci neuronowych 2010/2011 wykªad 7 Algorytm propagacji wstecznej cd.

Wst p do informatyki. Systemy liczbowe. Piotr Fulma«ski. 21 pa¹dziernika Wydziaª Matematyki i Informatyki, Uniwersytet Šódzki, Polska

wiczenie nr 3 z przedmiotu Metody prognozowania kwiecie«2015 r. Metodyka bada«do±wiadczalnych dr hab. in». Sebastian Skoczypiec Cel wiczenia Zaªo»enia

Wst p i organizacja zaj

Transkrypt:

Plan Dane Eksploracja danych i uczenie maszynowe: motywacja Na czym polega uczenie z danych Tablice decyzyjne: atrybuty i obserwacje z nadzorem i bez nadzoru Klasykacja i regresja Przykªady

Dane: Motywacja dla eksploracji danych Obserwacje: 1 Danych jest du»o, s interesuj ce ale trudne do analizy przez czªowieka 2 s w formie elektronicznej Ergo: zaprz c do tego algorytmy i komputery

Zalew danych W ka»dej sekundzie produkowane s ogromne ilo±ci danych: odwiedzenia stron WWW dzienne ceny ropy notowania partii politycznych zapytania do wyszukiwarek klikni cia (logi serwerów WWW) zamówienia towarów w sklepach internetowych rachunki w elektronicznych kasach sklepowych wyniki pomiarów astronomicznych, zycznych, etc...

Przykªadowe zadania grupowanie obiektów podobnych rozpoznawanie istotnych wzorców w danych klasykacja nowo-obserwowanych przypadków przewidywanie przyszªo±ci na podstawie poprzednich obserwacji wykrywanie trendów w danych (np. wczesne wykrycie kryzysów ekonomicznych, itp.) W uczeniu maszynowym powy»sze cele realizowane s automatycznie lub przy niewielkim wsparciu czªowieka

Podziaª z nadzorem bez nadzoru

Typowe fazy w uczeniu maszynowym zbieranie danych czyszczenie i wst pne przetworzenie danych (tylko w uczeniu z nadzorem) podziaª na zbiór treningowy i testowy uczenie si na danych ewaluacja (iteracyjnie) u»ywanie systemu do zada«

z nadzorem 1 podawanie systemowi prawidªowych rozwi za«w tzw zbiorze danych treningowych (sygnaª ucz cy) 2 system uczy si (dane treningowe) uogólni sposób rozwi zania zadania poprzez automatyczne wykrycie zwi zków pomi dzy danymi a prawidªowymi rozwi zaniami (automatyczne budowanie modelu prawidªowego rozwi zania) 3 automatycznie wyuczony model jest stosowany do nowych przypadków (nie trenuj cych)

bez Nadzoru brak sygnaªu ucz cego (surowe dane) cel: wykrycie pewnych zwi zków mi dzy obiektami i atrybutami (np. grupowanie, reguªy asocjacyjne)

Tablica Decyzyjna Przykªad - diagnostyka okulistyczna. wiek presc. astygmatyzm ªzawienie OKULARY mªody myope nie niskie zb dne mªody myope nie normalne lekkie mªody myope yes niskie zb dne mªody myope tak normalne mocne mªody hypermetrope nie niskie zb dne mªody hypermetrope nie normalne lekkie mªody hypermetrope tak niskie zb dne mªody hypermetrope tak normalne mocne pre-presbyopic myope nie niskie zb dne pre-presbyopic myope nie normalne lekkie pre-presbyopic myope tak niskie zb dne pre-presbyopic myope tak normalne mocne pre-presbyopic hypermetrope nie niskie zb dne pre-presbyopic hypermetrope nie normalne lekkie pre-presbyopic hypermetrope tak niskie zb dne pre-presbyopic hypermetrope tak normalne zb dne presbyopic myope nie niskie zb dne presbyopic myope nie normalne zb dne presbyopic myope tak niskie zb dne presbyopic myope tak normalne mocne presbyopic hypermetrope nie niskie zb dne presbyopic hypermetrope nie normalne lekkie presbyopic hypermetrope tak niskie zb dne presbyopic hypermetrope tak normalne zb dne

Przykªad: nieznana gra, mo»liwa tylko przy pewnych specycznych warunkach atmosferycznych (nie wiemy jakich): pogoda temperatura wilgotno± wiatr GRA? sªonecznie ciepªo wysoka brak nie sªonecznie ciepªo wysoka jest nie pochmurno ciepªo wysoka brak tak deszczowo normalnie wysoka brak tak deszczowo chªodno normalna brak tak deszczowo chªodno normalna jest nie pochmurno chªodno normalna jest tak sªonecznie normalnie wysoka brak nie sªonecznie chªodno normalna brak tak deszczowo normalnie normalna brak tak sªonecznie normalnie normalna jest tak pochmurno normalnie wysoka jest tak pochmurno ciepªo normalna brak tak deszczowo normalnie wysoka jest nie

Przykªad, cd Zadanie: Przewidzie przy jakich warunkach gra si w t gr? Je±li odpowied¹ nie jest znana mo»na posªu»y si wieloma zaobserwowanymi przypadkami i sprawi aby system wychwyciª ogóln reguª. Je±li uda si w ten automatyczny sposób pozyska wiedz o reguªach gry z obserwacji znanych przypadków mo»na j nast pnie zastosowa do przypadków nieznanych

Nowy przypadek outlook temperature humidity windy PLAY? sªonecznie ciepªo wysoka brak nie sªonecznie ciepªo wysoka jest nie pochmurno ciepªo wysoka brak tak deszczowo normalnie wysoka brak tak deszczowo chªodno normalna brak tak deszczowo chªodno normalna jest nie pochmurno chªodno normalna jest tak sªonecznie normalnie wysoka brak nie sªonecznie chªodno normalna brak tak deszczowo normalnie normalna brak tak sªonecznie normalnie normalna jest tak pochmurno normalnie wysoka jest tak pochmurno ciepªo normalna brak tak deszczowo normalnie wysoka jest nie pochmurno chªodno wysoka jest???

Tablica decyzyjna: obserwacje i atrybuty Wiedza mo»e by budowana w oparciu o poprzednio zaobserwowane dane: Ka»da obserwacja (przypadek) opisana za pomoc atrybutów okre±lonego typu (nominalnego albo numerycznego) Tablica Decyzyjna: obserwacje (przypadki) = wiersze atrybuty = kolumny

Atrybuty numeryczne albo kategoryczne uporz dkowane lub nie przeskalowanie, transformacje atrybutów kwantyzacja (zamiana z numerycznych na kategoryczne)

Tabela Decyzyjna: atrybuty nominalne pogoda temperatura wilgotno± wiatr GRA? sªonecznie ciepªo wysoka brak nie sªonecznie ciepªo wysoka jest nie pochmurno ciepªo wysoka brak tak deszczowo normalnie wysoka brak tak deszczowo chªodno normalna brak tak deszczowo chªodno normalna jest nie pochmurno chªodno normalna jest tak sªonecznie normalnie wysoka brak nie sªonecznie chªodno normalna brak tak deszczowo normalnie normalna brak tak sªonecznie normalnie normalna jest tak pochmurno normalnie wysoka jest tak pochmurno ciepªo normalna brak tak deszczowo normalnie wysoka jest nie

Tabela Decyzyjna: atrybuty numeryczne pogoda temperatura (F) wilgotno± wiatr GRA? sªonecznie 85 85 brak nie sªonecznie 80 90 jest nie pochmurno 83 86 brak tak deszczowo 70 96 brak tak deszczowo 68 80 brak tak deszczowo 65 70 jest nie pochmurno 64 65 jest tak sªonecznie 72 95 brak nie sªonecznie 69 70 brak tak deszczowo 75 80 brak tak sªonecznie 75 70 jest tak pochmurno 72 90 jest tak pochmurno 81 75 brak tak deszczowo 71 91 jest nie

Inne formy danych Dane nie musz by w formie prostok tnej tablicy logi (np. serwerów) dane relacyjne (np. w sieciach spoªecznych) dane sekwencyjne (np. bioinformatyka) dane grafowe, etc.

Maszynowe Zadanie: nauczy si relacji pomi dzy warto±ciami atrybutów Dwa gªówne podej±cia: 1 z nadzorem 2 bez nadzoru

z nadzorem 1 atrybut decyzyjny: wyszczególniony atrybut w tabeli decyzyjnej (np. GRA?) 2 Zadanie: przewidzie prawidªow (nieznan ) warto± atrybutu decyzyjnego na podstawie (znanych) warto±ci pozostaªych atrybutów 3 Wykorzysta do tego zbiór treningowy - tj taki zbiór obserwacji (przypadków), dla których prawidªowa warto± atrybutu decyzyjnego (oraz wszystkich pozostaªych atrybutów) jest znana z nadzorem nazywane jest: klasykacj, gdy przewidywany atrybut decyzyjny jest nominalny regresj, gdy przewidywany atrybut decyzyjny jest numeryczny

Podsumowanie idei uczenia z nadzorem Cel: input: nowy przypadek (obserwacja) z nieznan warto±ci atrybutu decyzyjnego output: prawidªowa warto± atrybutu decyzyjnego System mo»e uczy si tylko na ograniczonej liczbie znanych przypadków (zbiór treningowy) dodstarczonych przez nadzoruj cego Problemy praktyczne: brakuj ce warto±ci (jak je wypeªni?) bª dne warto±ci (jak je wykry i poprawi?) dane zaszumione (jak je odszumi?) dane sprzeczne (co z tym zrobi?)

Przykªad zadania klasykacji Botanika: rozpoznawanie gatunków ro±lin (dane Iris) Rozpatrzmy 3 ró»ne podgatunki kwiatu o ªac. nazwie Iris: Iris-setosa Iris-versicolor Iris-virginica Task: nauczy si rozpoznawa gatunek ro±liny na podstawie rozmiarów li±ci i pªatków (atrybuty): dªugo± listka (cm) szeroko± listka (cm) dªugo± pªatka (cm) szeroko± pªatka (cm)

Rozpoznawanie ro±lin, cont. Zbiór trenuj cy: 150 znanych przypadków (zmierzone cz ±ci ro±lin i znana prawidªowa klasykacja) System uczy si na zbiorze treningowym Nast pnie, ka»dy nowy (nieznany) przypadek jest klasykowany na podstawie pomiarów pªatków i listków Automatycznie wyuczona wiedza jest stosowana do klasykacji nowych przypadków (dla których prawidªowa odpowied¹ nie musi by znana przez nadzoruj cego proces)

Zbiór danych (fragment) S - iris setosa, V - iris versicolor, VG - iris virginica ll lw pl pw? ll lw pl pw? ll lw pl pw? 5.1 3.5 1.4 0.2 S 7.0 3.2 4.7 1.4 V 6.3 3.3 6.0 2.5 VG 4.9 3.0 1.4 0.2 S 6.4 3.2 4.5 1.5 V 5.8 2.7 5.1 1.9 VG 4.7 3.2 1.3 0.2 S 6.9 3.1 4.9 1.5 V 7.1 3.0 5.9 2.1 VG 4.6 3.1 1.5 0.2 S 5.5 2.3 4.0 1.3 V 6.3 2.9 5.6 1.8 VG 5.0 3.6 1.4 0.2 S 6.5 2.8 4.6 1.5 V 6.5 3.0 5.8 2.2 VG 5.4 3.9 1.7 0.4 S 5.7 2.8 4.5 1.3 V 7.6 3.0 6.6 2.1 VG 4.6 3.4 1.4 0.3 S 6.3 3.3 4.7 1.6 V 4.9 2.5 4.5 1.7 VG 5.0 3.4 1.5 0.2 S 4.9 2.4 3.3 1.0 V 7.3 2.9 6.3 1.8 VG 4.4 2.9 1.4 0.2 S 6.6 2.9 4.6 1.3 V 6.7 2.5 5.8 1.8 VG 4.9 3.1 1.5 0.1 S 5.2 2.7 3.9 1.4 V 7.2 3.6 6.1 2.5 VG 5.4 3.7 1.5 0.2 S 5.0 2.0 3.5 1.0 V 6.5 3.2 5.1 2.0 VG 4.8 3.4 1.6 0.2 S 5.9 3.0 4.2 1.5 V 6.4 2.7 5.3 1.9 VG 4.8 3.0 1.4 0.1 S 6.0 2.2 4.0 1.0 V 6.8 3.0 5.5 2.1 VG 4.3 3.0 1.1 0.1 S 6.1 2.9 4.7 1.4 V 5.7 2.5 5.0 2.0 VG 5.8 4.0 1.2 0.2 S 5.6 2.9 3.6 1.3 V 5.8 2.8 5.1 2.4 VG 5.7 4.4 1.5 0.4 S 6.7 3.1 4.4 1.4 V 6.4 3.2 5.3 2.3 VG 5.4 3.9 1.3 0.4 S 5.6 3.0 4.5 1.5 V 6.5 3.0 5.5 1.8 VG 5.1 3.5 1.4 0.3 S 5.8 2.7 4.1 1.0 V 7.7 3.8 6.7 2.2 VG 5.7 3.8 1.7 0.3 S 6.2 2.2 4.5 1.5 V 7.7 2.6 6.9 2.3 VG 5.1 3.8 1.5 0.3 S 5.6 2.5 3.9 1.1 V 6.0 2.2 5.0 1.5 VG 5.4 3.4 1.7 0.2 S 5.9 3.2 4.8 1.8 V 6.9 3.2 5.7 2.3 VG 5.1 3.7 1.5 0.4 S 6.1 2.8 4.0 1.3 V 5.6 2.8 4.9 2.0 VG 5.0 3.0 1.6 0.2 S 6.6 3.0 4.4 1.4 V 7.2 3.2 6.0 1.8 VG 5.0 3.4 1.6 0.4 S 6.8 2.8 4.8 1.4 V 6.2 2.8 4.8 1.8 VG

Wizualizacja zbioru danych: rzut na pªaszczyzn 2-wym. (zbiór jest 4-wymiarowy) np.: szeroko± /dªugo± listka - nie jest to wystarczaj ca informacja

Inna wizualizacja rzutu na pªaszczyzn 2-wym. szeroko± listka/dªugo± pªatka - niesie du»o wiedzy (tzw. dobry dyskriminant)

W jaki sposób system sam uczy si zale»no±ci? Istnieje wiele podej± /modeli, przykªady: metoda k najbli»szych s siadów (knn) Oparte na reguªach decyzyjnych Drzewa decyzyjne Podej±cie Bayesowskie Regresja liniowa Sztuczne Sieci Neuronowe (Perceptron, sieci wielo-wartswowe) SVM (support vector machines) wiele innych...

Inne przykªady problemu klasykacji Maszynowe rozpoznawanie r cznie pisanych cyfr na formularzach Klasykacja zdolno±ci kredytowej klienta banku Identykacja chªamu pocztowego (ang. e-mail spam) Automatyczne rozró»nianie wycieków oleju z tankowców od ciepªych pr dów na podstawie zdj satelitarnych Maszynowa identykacja j zyka w dokumentach tekstowych (np. portugalski czy hiszpa«ski, itp.) Automatyczna klasykacja tematu dokumentu elektronicznego (do jednej z kilku kategorii) Identykacja tzw. chªamu wyszukiwarkowego (ang. Search Engine Spam)

Zadanie Regresji W zadaniu klasykacji system przewidywaª warto± atrybutu decyzyjnego typu nominalnego. Je±li natomiast przewidujemy atrybut numerycznego mówimy o regresji Przykªady zadania regresji: przewidzie warto± (cen ) papieru warto±ciowego na podstawie poprzednich notowa«i innych czynników (ekonomicznych, politycznych, etc.) oszacowa ilo±ciowe zapotrzebowanie na dany towar (np. woda mineralna) w przyszªym tygodniu w supermarkecie na podstawie bie» cej sprzeda»y, pory roku, pogody, etc. przewidzie temperatur powietrza w nast pnym dniu

Przykªad zadania regresji Przewidywana skuteczno± procesora na podstawie jego parametrów technicznych Przykªadowe atrybuty: MYCT cycle time (ns) MMIN main memory min MMAX main memory max CACH cache CHMIN channels min CHMAX channels max

Example: regression MYCT MMIN MMAX CACH CHMIN CHMAX performance 125 256 6000 256 16 128 199 29 8000 32000 32 8 32 253 29 8000 16000 32 8 16 132 26 8000 32000 64 8 32 290 23 16000 32000 64 16 32 381 23 16000 32000 64 16 32 381 23 16000 64000 64 16 32 749 23 32000 64000 128 32 64 1238 400 1000 3000 0 1 2 23 400 512 3500 4 1 6 24 60 2000 8000 65 1 8 70 50 4000 16000 65 1 8 117 167 524 2000 8 4 15 23 143 512 5000 0 7 32 29 143 1000 2000 0 5 16 22 110 5000 5000 142 8 64 124 143 1500 6300 0 5 32 35 143 3100 6200 0 5 20 39 143 2300 6200 0 6 64 40

bez Nadzoru Nie dajemy systemowi przykªadów (nie dysponujemy). System musi automatycznie odkry zale»no±ci pomi dzy danymi. Podstawowe zadania uczenia bez nadzoru: grupowanie (ang. clustering) wykrywanie przypadków nietypowych (ang. outliers) odkrywanie reguª asocjacyjnych

Grupowanie (ang. clustering) Nale»y podzieli wszystkie badane przypadki na grupy obiektów podobnych do siebie (wewn trz ka»dej grupy), przy czym obiekty z ró»nych grup powinny si jak najbardziej ró»ni mi dzy sob. Nie wiemy jaka jest faktyczna kategoria odpowiadaj ca ka»dej grupie - nie mamy przykªadów. Jest to cz sto wst pny etap analizy danych. Najprostszy algorytm grupowania: K-means

Wykrywanie przypadków nietypowych (ang. outliers) Nale»y automatycznie wykry obiekty, które z jakich± powodów odstaj od pozostaªych elementów. Mamy tu tylko do dyspozycji same warto±ci atrybutów. Obiekty wyra¹nie odstaj ce od ogóªu s w pewnym sensie podejrzane. Zastosowania: automatyczne wykrywanie wªama«do systemów komputerowych wykrywanie nadu»y (ang. fraud) w handlu elektronicznym wykrywanie prania brudnych pieni dzy na podstawie analizy transferów bankowych wykrywanie bª dów w danych i bª dów urz dze«pomiarowych czyszczenie danych

Minimum z tego wykªadu: Reprezentacja danych w Uczeniu Maszynowym Schemat Uczenia Maszynowego (w krokach) Na czym polega podziaª: z nadzorem i bez nadzoru Co to jest klasykacja a co to jest regresja Przykªady zada«klasykacji i regresji (po 3) Przykªady zada«uczenia bez nadzoru Na czym polega zadanie grupowania (ang. clustering)? Przykªady technik uczenia z nadzorem

Dzi kuj za uwag Dzi kuj za uwag.