Klasyfikacja wielo-etykietowa z wykorzystaniem Boostingu

Wielkość: px
Rozpocząć pokaz od strony:

Download "Klasyfikacja wielo-etykietowa z wykorzystaniem Boostingu"

Transkrypt

1 Klasyfikacja wielo-etykietowa z wykorzystaniem Boostingu Seminarium Zakładu Inteligentnych Systemów Wspomagania Decyzji Instytutu Informatyki Politechniki Poznańskiej oraz Sekcji Inteligentnych Systemów Wspomagania Decyzji oraz Obliczeń Elastycznych Komitetu Informatyki PAN Instytut Informatyki, Politechnika Wrocławska 8 listopada 2011

2 Plan prezentacji 1 Klasyfikacja wielo-etykietowa Wprowadzenie Metody klasyfikacji wielo-etykietowej 2 Klasyfikacja wielo-etykietowa z wykorzystniem AdaBoostSeq Wprowadzenie do algorytmu Analiza algorytmu Eksperymenty 3 Podsumowanie

3 Plan prezentacji 1 Klasyfikacja wielo-etykietowa Wprowadzenie Metody klasyfikacji wielo-etykietowej 2 Klasyfikacja wielo-etykietowa z wykorzystniem AdaBoostSeq Wprowadzenie do algorytmu Analiza algorytmu Eksperymenty 3 Podsumowanie

4 Wprowadzenie Wprowadzenie X = {x 1, x 2,..., x n } - przestrzeń obserwacji L = {λ 1, λ 2,..., λ m } - skończony zbiór etykiet (x, L x ) X 2 L - krotka obserwacja-etykiety Klasyfikacja jedno-etykietowa obserwacja x X jest skojarzona z pojedynczą etykietą l L cel: nauka klasyfikatora H : X L Klasyfikacja wielo-etykietowa obserwacja x X może być skojarzona z podzbiorem etykiet L 2 L cel: nauka klasyfikatora H : X 2 L

5 Wprowadzenie Przykłady klasyfikacji wielo-etykietowej Kategoryzacja emocjonalna muzyki Model emocji Tellegen-Watson-Clark[1]

6 Wprowadzenie Przykłady klasyfikacji wielo-etykietowej Typ Zadanie Zasoby Opis danych tekst kategoryzacja artykuły Reuters topics (agriculture, fishing) tekst kategoryzacja strony www Yahoo! directory (health, science) tekst kategoryzacja ulubione Bibsonomy tags (sports, science) obrazy annotacja semantyczna obrazy pojęcie(drzewo, zachód słońca) wideo annotacja semantyczndomościami klipy z wia- concepts (tłum, pustynia) dźwięk detekcja szumu dźwięk typ(mowa, szum) dźwięk detekcja emocji klip muzyczny emocje(relaksacyjny, spokojny)

7 Wprowadzenie Realizowane zadania Dwa główne zadania w uczeniu nadzorowanym przy użyciu danych wielo-etykietowych: klasyfikacja wielo-etykietowa odwzorowanie przypisujące obserwacji podzbiór etykiet ranking etykiet odwzorowanie przypisujące uporządkowaną według relewancji listę etykiet

8 Wprowadzenie Taksonomia metod Metody transformujące problem niezależne od algorytmów transformują zadanie uczenia do jednego lub więcej zadań uczenia jedno-etykietowego wspierają się szeroką gamą standardowych algorytmów Metody adaptujące algorytmy rozszerzają poszczególne algorytmy

9 Metody klasyfikacji wielo-etykietowej Metody transformujące problem dane wielo-etykietowe są konwertowane do postaci jedno-etykietowej klasyfikator jedno-etykietowy zwraca rozkład prawdopodobieństwa klas, który można wykorzystać do rankowania etykiet przykładowe dane: L.p. Obserwacja (X) Etykiety(L) 1 x 1 {λ 1, λ 4 } 2 x 2 {λ 3, λ 4 } 3 x 3 {λ 1 } 4 x 4 {λ 2, λ 3, λ 4 }

10 Metody klasyfikacji wielo-etykietowej Metody transformujące problem Proste transformacje kopiowanie kopiowanie z wagami selekcja najczęstszej etykiety selekcja najrzadszej etykiety selekcja losowa pomijanie wielo-etykiet

11 Metody klasyfikacji wielo-etykietowej Metody transformujące problem Label powerset (zbiór potęgowy) każdy istniejący unikatowy podzbiór etykiet stanowi jedną nową etykietę złożoność ograniczona przez min(n, 2 m ) Przykład rankingu: c p(c x) λ 1 λ 2 λ 3 λ 4 λ 1, λ 3, λ λ 2,3, c p(c x)λ j

12 Metody klasyfikacji wielo-etykietowej Metody transformujące problem Pruned problem transformation[2] rozszerzenie metody Label powerset (zbióru potęgowego) odrzuca etykiety występujące rzadziej od zdefiniowanego progu Random k-labelsets (RAkEL)[3] buduje rodzinę klasyfikatorów dla losowo wybranych zbiorów k-elementowych podzbiorów potęgowych etykiet

13 Metody klasyfikacji wielo-etykietowej Metody transformujące problem Binarna relewancja uczenie m binarnych klasyfikatorów, po jednym dla każdej z etykiet w L m zbiorów uczących postaci (x, I(λ j )), gdzie I(λ j ) pozytywne dla obserwacji posiadającej etykietę λ j oraz negatywne wpp. Ranking by pairwise comparison[4] transformuje zbiór wielo-etykietowy do m(m 1) 2 binarnych zbiorów jedno-etykietowych, dla każdej pary (λ i, λ j ), 1 i j m zbiory uczące zawierają obserwacje z etykietami λ i λ j przykład: Multi-label pairwise perceptron (MLPP)[5]

14 Metody klasyfikacji wielo-etykietowej Metody adaptujące algorytmy Zmodyfikowany algorytm C4.5[6] strategia próbkowania obserwacji wielo-etykietowych przy użyciu m-estymacji (generalizacji estymacji Laplace a), biorącej pod uwagę prawdopodobieństwo a priori etykiet wiele etykiet dozwolonych w liściach entropia: m j=1 (p(λ j )logp(λ j ) + q(λ j )logq(λ j )), gdzie p(λ j ) to empiryczna częstość klasy λ j, a q(λ j ) = 1 p(λ j )

15 Metody klasyfikacji wielo-etykietowej Metody adaptujące algorytmy Użycie podejścia CRF (warunkowych pól losowych)[7] dwa modele graficzne parametryzujące współwystępowanie etykiet przez oznacznie klik(czarne kwadraty) (a)-parametryzacja jednej etykiety i jednej cechy, (b)-dodatkowo parametryzacja par etykiet, (c)-parametryzacja dla każdej etykiety, każdej cechy oraz każdej pary etykiet

16 Metody klasyfikacji wielo-etykietowej Metody adaptujące algorytmy Back-propagation perceptron for multi-label learning BP-MLL[8] adaptacja popularnego algorytmu z pętlą zwrotną dla klasyfikacji wielo-etykietowej modyfikacja funkcji błędu, która bierze pod uwagę wiele etykiet Multi-class multi-label perceptron (MMP)[9] rodzina algorytmów dla rankingów etykiet bazująca na perceptronie perceptron dla każdej z etykiet uaktualnianie wag - zgodność rankingu dla wszystkich etykiet

17 Metody klasyfikacji wielo-etykietowej Metody adaptujące algorytmy Multi-label knn (ML-kNN)[10] wyszukanie k najbliższych sąsiadów agregacja podzbiorów etykiet zgodnie prawdopodobieństwem a posteriori dla każdej z etykiet

18 Metody klasyfikacji wielo-etykietowej Classifier Chain Model (Łańcuch klasyfikatorów)[12]

19 Metody klasyfikacji wielo-etykietowej Metody adaptujące algorytmy AdaBoost.MH[11] minimalizuje odległość Hamminga AdaBoost.MR[11] szuka hipotez, które prawidłowo umiejscawiają prawdziwe etykiety na szczycie rankingu

20 Metody klasyfikacji wielo-etykietowej Metody adaptujące algorytmy

21 Plan prezentacji 1 Klasyfikacja wielo-etykietowa Wprowadzenie Metody klasyfikacji wielo-etykietowej 2 Klasyfikacja wielo-etykietowa z wykorzystniem AdaBoostSeq Wprowadzenie do algorytmu Analiza algorytmu Eksperymenty 3 Podsumowanie

22 Wprowadzenie do algorytmu Algorytm AdaBoostSeq[13] AdaBoostSeq zmodyfikowany sposób ważenia obserwacji (schemat próbkowania danych uczących) modyfikacja funkcji kosztu klasyfikacja wielo-etykietowa Oznaczenia y µ i { 1, 1}, dla i = 1, 2,..., n i µ = 1, 2,..., m reprezentuje obecność etykiet: odpowiednio λ 1, λ 2,..., λ m m - liczba etykiet n - liczba obserwacji

23 Wprowadzenie do algorytmu AdaBoostSeq Cel Skonstruować m liniowych kombinacji rodziny K klasyfikatorów postaci: µ = 1, 2,..., m F µ (x Pµ ) = K α µ k Φ(xPµ, Θ µ k ) (1) k=1 F µ (x Pµ ) to meta-klasyfikator dla µ-tej etykiety Φ(x Pµ, Θ µ k ) reprezentuje k-ty klasyfikator bazowy z Θµ k parametrami klasyfikujący binarnie każdą obserwację x α µ k waga k-tego klasyfikatora

24 Analiza algorytmu Nieznane wartości otrzymujemy z optymalizacji dla każdej etykiety µ: arg min N α µ k,θµ k,k:1,k i=1 exp( y µ i Fµ (x Pµ i )) (2) bezpośrednia optymalizacja bardzo skomplikowana rozwiązanie z wykorzystaniem iteracyjnej minimalizacji suma częściowa kroku s: F µ s (x Pµ ) = s k=1 α µ k Φ(xPµ, Θ µ k ), s = 1, 2,..., K (3)

25 Analiza algorytmu Z równania 3 mamy naturalną rekursję: F µ s (x Pµ ) = F µ s 1 (xpµ ) + α s Φ(x Pµ, Θ µ s ) (4) przed obliczeniem F µ s (x Pµ ), wartość F µ s 1 (xpµ ) musiała już zostać obliczona problem w kroku s to zatem obliczenie: gdzie funkcja J to koszt (α µ m, Θ µ m) = arg min α µ,θ µ J(αµ, Θ µ ) (5)

26 Analiza algorytmu Funkcja kosztu J(α µ, Θ µ ) = n i=1 exp( y µ i (ξfµ s 1 (xpµ i ) +(1 ξ)y µ i ˆR µ s (x Pµ i ) + α µ Φ(x Pµ i, Θ µ ))) (6) gdzie: ˆR µ s (x Pµ i ) - funkcja wpływająca na koszt, biorąca pod uwagę jakość klasyfikacji poprzedzających etykiet ξ - parametr kontrolujący poziom wpływu, ξ 0, 1

27 Analiza algorytmu gdzie: s 1 ˆR µ s (x Pµ ) = α µ i Rµ (x Pµ ) (7) R µ (x Pµ ) = i=1 µ 1 l=1 yl F l (x Pµ ) K k=1 αl k µ R µ (x Pµ i ) oznacza średnią zgodność klasyfikacji między rzeczywistą etykietą l i F l (x Pµ ) (8)

28 Analiza algorytmu Zakładają stałe α µ (z równania 5 i 6), funkcja kosztu J może być obliczana względem klasyfikatora bazowego Φ(x Pµ i, Θ µ ): gdzie: Θ µ = arg min Θ µ n i=1 w µ i(s) exp( yµ i αµ Φ(x Pµ i, Θ µ )) (9) w µ i ( s) = exp( yµ i (ξfµ s 1 (xpµ i ) + (1 ξ)y µ i ˆR µ s (x Pµ i ))) (10)

29 Analiza algorytmu w µ i ( s) nie zależy od αµ ani od Φ(x Pµ i, Θ µ ) dla każdej obserwacji x Pµ i w µ i ( m) może być zatem wagą obserwacji xpµ i Dla binarnych klasyfikatorów bazowych obliczenie Θ µ możemy wykonać: Θ µ = arg min Θ µ { P µ m = N i=1 w µ i ( m) I(1 yµ i Φ(xPµ i, Θ µ )) } (11) gdzie: I(x) = { 0, if x = 0 1, if x > 0 (12)

30 Analiza algorytmu Dla klasyfikatora bazowego w kroku s: y µ i Φ(xPµ i,θ µ s )<0) w µ i ( s) = Pµ s (13) w µ i ( s) = 1 Pµ s (14) y µ i Φ(xPµ i,θ µ s )>0) wartość α s otrzymujemy z: α µ s = arg min α µ {exp( αµ )(1 P µ s ) + exp(α µ )P µ s } (15)

31 Analiza algorytmu Po obliczeniu równania 15 mamy: α µ s = 1 2 ln 1 Pµ s P µ s Gdy klasyfikator Φ(x Pµ i, Θ µ ) oraz α m µ są już obliczone, wagi w kroku s + 1 wynoszą: w µ i ( s+1) = exp ( y µ i (16) ( ξ Pµ F µ s (x Pµ i ) + (1 ξ)y µ ˆR )) i µ s (x Pµ ) =(17) Z s ) i, Θ µ s ) (1 ξ)α s µ R µ (x Pµ ) = w i ( s) exp ( y µ i ξαµ s Φ(x Pµ gdzie Z s to czynnik normalizujący. N ( ) Z s = w µ i ( s) exp y µ i ξαµ s Φ(x Pµ i, Θ µ s ) (1 ξ)α s µ R µ (x Pµ i ) i=1 Z s (18)

32 Analiza algorytmu

33 Eksperymenty Eksperymenty Tablica: Zbiory danych wielo-etykietowych użyte w eksperymentach Dane Obserwacji Atrybutów Etykiet 1 scene yeast emotions mediamill tmc

34 Eksperymenty Miary ewaluacji odległość Hamminga (Hamming Loss) HL = 1 n n i=1 L xi F(x i ) L xi (19) ( to symetryczna różnica zbiorów) dokładność klasyfikacji (Classification Accuracy) CA = 1 n I(L xi = F(x i )) (20) n i=1

35 Eksperymenty Rysunek: Odległość Hamminga dla wybranych algorytmów klasyfikacji wielo-etykietowej na zbiorach danych: tmc2007, mediamill, scene, yeast oraz emotions

36 Eksperymenty Rysunek: Dokładność klasyfikacji dla wybranych algorytmów klasyfikacji wielo-etykietowej na zbiorach danych: tmc2007, mediamill, scene, yeast oraz emotions

37 Eksperymenty Rysunek: Czas pracy wybranych algorytmów klasyfikacji wielo-etykietowej na zbiorach danych: tmc2007, mediamill, scene, yeast oraz emotions

38 Plan prezentacji 1 Klasyfikacja wielo-etykietowa Wprowadzenie Metody klasyfikacji wielo-etykietowej 2 Klasyfikacja wielo-etykietowa z wykorzystniem AdaBoostSeq Wprowadzenie do algorytmu Analiza algorytmu Eksperymenty 3 Podsumowanie

39 Podsumowanie AdaBoostSeq klasyfikacja wielo-etykietowa zmodyfikowany sposób ważenia obserwacji (schemat próbkowania danych uczących) klasyfikacja etykiet w ustalonej kolejności kolejność uczenia ma znaczenie Wyzwania odzwierciedlenie rzeczywistych zależności występowania etykiet odpowiednie funkcje kosztu złożoność obliczeniowa

40 [Tellegen et al., 1999] Tellegen, A., Watson, D., Clark, L.A. On the dimensional and hierarchical structure of affect, Psychological Science, Vol. 10, No. 4, [Read, 2008] Read, J. A pruned problem transformation method for multi-label classification. In: Proc New Zealand Computer Science Research Student Conference (NZCSRS 2008), pp , 2008 [Tsoumakas et al., 2007] Tsoumakas, G., Vlahavas, I. Random k-labelsets: An ensemble method for multilabel classification. In: Proc. of the 18th European Conference on Machine Learning (ECML 2007), pp , 2007 [Hullermeier et al., 2008] Hullermeier, E., Furnkranz, J., Cheng, W., Brinker, K.

41 Label ranking by learning pairwise preferences. Artificial Intelligence, Vol. 172, pp , 2008 [Loza Mencia et al., 2008] Loza Mencia, E., Furnkranz, J. Pairwise learning of multilabel classifications with perceptrons. In: Proc. of IEEE International Joint Conference on Neural Networks (IJCNN-08), pp , 2008 [Clare et al., 2001] Clare, A., King, R. Knowledge discovery in multi-label phenotype data. In: Proc. of the 5th European Conference on Principles of Data Mining and Knowledge Discovery (PKDD 2001), pp , 2001 [Ghamrawi et al., 2005] Ghamrawi, N., McCallum, A. Collective multi-label classification.

42 In: Proc. of the ACM Conference on Information and Knowledge Management (CIKM 05), pp , 2005 [Zhang et al., 2006] Zhang, M.L., Zhou, Z.H. Multi-label neural networks with applications to functional genomics and text categorization. IEEE Transactions on Knowledge and Data Engineering, Vol. 18, pp , 2006 [Crammer et al., 2003] Crammer, K., Singer, Y. A family of additive online algorithms for category ranking. Journal of Machine Learning Research, Vol. 3, pp , 2003 [Zhang et al., 2007] Zhang, M.L., Zhou, Z.H. Ml-knn: A lazy learning approach to multi-label learning. Pattern Recognition, Vol. 40, pp , 2007 [Schapire et al., 2000] Schapire, R.E. Singer, Y.

43 Boostexter: a boosting-based system for text categorization. Machine Learning, Vol. 39, pp , 2000 [Read et al., 2009] Read, J., Pfahringer, B., Holmes, G., Frank, E. Classifier Chains for Multi-label Classification In: Proc. of European Conference of Machine Learning and Knowledge Discovery in Databases, pp , 2009 [Kajdanowicz et al., 2011] Kajdanowicz T., Kazienko P. Boosting-based Sequence Prediction New Generation Computing, Vol. 29, No. 3, pp , 2011

Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej. Adam Żychowski

Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej. Adam Żychowski Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej Adam Żychowski Definicja problemu Każdy z obiektów może należeć do więcej niż jednej kategorii. Alternatywna definicja Zastosowania

Bardziej szczegółowo

Predykcja i selekcja zmiennych w klasyfikacji z wieloma etykietami przy użyciu łańcuchów klasyfikatorów i sieci elastycznej

Predykcja i selekcja zmiennych w klasyfikacji z wieloma etykietami przy użyciu łańcuchów klasyfikatorów i sieci elastycznej Seminarium Poznań 2016 Predykcja i selekcja zmiennych w klasyfikacji z wieloma etykietami przy użyciu łańcuchów klasyfikatorów i sieci elastycznej Paweł Teisseyre Instytut Podstaw Informatyki PAN Plan

Bardziej szczegółowo

Selekcja zmiennych w klasyfikacji z wieloma etykietami

Selekcja zmiennych w klasyfikacji z wieloma etykietami Seminarium IPIPAN, Maj 2016 Selekcja zmiennych w klasyfikacji z wieloma etykietami Paweł Teisseyre Instytut Podstaw Informatyki PAN Plan prezentacji Klasyfikacja z wieloma etykietami. Selekcja zmiennych

Bardziej szczegółowo

Metody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska

Metody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska Metody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska e-mail: bartosz.krawczyk@pwr.wroc.pl Czym jest klasyfikacja

Bardziej szczegółowo

Badania w sieciach złożonych

Badania w sieciach złożonych Badania w sieciach złożonych Grant WCSS nr 177, sprawozdanie za rok 2012 Kierownik grantu dr. hab. inż. Przemysław Kazienko mgr inż. Radosław Michalski Instytut Informatyki Politechniki Wrocławskiej Obszar

Bardziej szczegółowo

Michał Kozielski Łukasz Warchał. Instytut Informatyki, Politechnika Śląska

Michał Kozielski Łukasz Warchał. Instytut Informatyki, Politechnika Śląska Michał Kozielski Łukasz Warchał Instytut Informatyki, Politechnika Śląska Algorytm DBSCAN Algorytm OPTICS Analiza gęstego sąsiedztwa w grafie Wstępne eksperymenty Podsumowanie Algorytm DBSCAN Analiza gęstości

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 4. UCZENIE SIĘ INDUKCYJNE Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska WSTĘP Wiedza pozyskana przez ucznia ma charakter odwzorowania

Bardziej szczegółowo

Multiklasyfikatory z funkcją kompetencji

Multiklasyfikatory z funkcją kompetencji 3 stycznia 2011 Problem klasyfikacji Polega na przewidzeniu dyskretnej klasy na podstawie cech obiektu. Obiekt jest reprezentowany przez wektor cech Zbiór etykiet jest skończony x X Ω = {ω 1, ω 2,...,

Bardziej szczegółowo

Jądrowe klasyfikatory liniowe

Jądrowe klasyfikatory liniowe Jądrowe klasyfikatory liniowe Waldemar Wołyński Wydział Matematyki i Informatyki UAM Poznań Wisła, 9 grudnia 2009 Waldemar Wołyński () Jądrowe klasyfikatory liniowe Wisła, 9 grudnia 2009 1 / 19 Zagadnienie

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych

Bardziej szczegółowo

10. Redukcja wymiaru - metoda PCA

10. Redukcja wymiaru - metoda PCA Algorytmy rozpoznawania obrazów 10. Redukcja wymiaru - metoda PCA dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. PCA Analiza składowych głównych: w skrócie nazywana PCA (od ang. Principle Component

Bardziej szczegółowo

TEORETYCZNE PODSTAWY INFORMATYKI

TEORETYCZNE PODSTAWY INFORMATYKI 1 TEORETYCZNE PODSTAWY INFORMATYKI WFAiS UJ, Informatyka Stosowana I rok studiów, I stopień Wykład 16 2 Data Science: Uczenie maszynowe Uczenie maszynowe: co to znaczy? Metody Regresja Klasyfikacja Klastering

Bardziej szczegółowo

Maszyny wektorów podpierajacych w regresji rangowej

Maszyny wektorów podpierajacych w regresji rangowej Maszyny wektorów podpierajacych w regresji rangowej Uniwersytet Mikołaja Kopernika Z = (X, Y ), Z = (X, Y ) - niezależne wektory losowe o tym samym rozkładzie X X R d, Y R Z = (X, Y ), Z = (X, Y ) - niezależne

Bardziej szczegółowo

Dariusz Brzeziński. Politechnika Poznańska

Dariusz Brzeziński. Politechnika Poznańska Dariusz Brzeziński Politechnika Poznańska Klasyfikacja strumieni danych Algorytm AUE Adaptacja klasyfikatorów blokowych do przetwarzania przyrostowego Algorytm OAUE Dlasze prace badawcze Blokowa i przyrostowa

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt

Bardziej szczegółowo

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18 Eksploracja Danych wykład 4 Sebastian Zając WMP.SNŚ UKSW 10 maja 2017 Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja 2017 1 / 18 Klasyfikacja danych Klasyfikacja Najczęściej stosowana (najstarsza)

Bardziej szczegółowo

Rozpoznawanie obrazów

Rozpoznawanie obrazów Rozpoznawanie obrazów Laboratorium Python Zadanie nr 2 κ-nn i Naive Bayes autorzy: M. Zięba, J.M. Tomczak, A. Gonczarek, S. Zaręba, J. Kaczmar Cel zadania Celem zadania jest implementacja klasyfikatorów

Bardziej szczegółowo

Elementy inteligencji obliczeniowej

Elementy inteligencji obliczeniowej Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-10 Projekt pn. Wzmocnienie

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 2 κ-nn i Naive Bayes autorzy: M. Zięba, J.M. Tomczak, A. Gonczarek, S. Zaręba Cel zadania Celem zadania jest implementacja klasyfikatorów

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium JAVA Zadanie nr 2 Rozpoznawanie liter autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z problemem klasyfikacji

Bardziej szczegółowo

WYKŁAD 4. Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie. autor: Maciej Zięba. Politechnika Wrocławska

WYKŁAD 4. Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie. autor: Maciej Zięba. Politechnika Wrocławska Wrocław University of Technology WYKŁAD 4 Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie autor: Maciej Zięba Politechnika Wrocławska Klasyfikacja Klasyfikacja (ang. Classification):

Bardziej szczegółowo

2. Empiryczna wersja klasyfikatora bayesowskiego

2. Empiryczna wersja klasyfikatora bayesowskiego Algorytmy rozpoznawania obrazów 2. Empiryczna wersja klasyfikatora bayesowskiego dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Brak pełnej informacji probabilistycznej Klasyfikator bayesowski

Bardziej szczegółowo

LEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów

LEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów LEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów Łukasz Piątek, Jerzy W. Grzymała-Busse Katedra Systemów Ekspertowych i Sztucznej Inteligencji, Wydział Informatyki

Bardziej szczegółowo

Algorytmy estymacji stanu (filtry)

Algorytmy estymacji stanu (filtry) Algorytmy estymacji stanu (filtry) Na podstawie: AIMA ch15, Udacity (S. Thrun) Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 21 kwietnia 2014 Problem lokalizacji Obserwowalność? Determinizm?

Bardziej szczegółowo

A Zadanie

A Zadanie where a, b, and c are binary (boolean) attributes. A Zadanie 1 2 3 4 5 6 7 8 9 10 Punkty a (maks) (2) (2) (2) (2) (4) F(6) (8) T (8) (12) (12) (40) Nazwisko i Imiȩ: c Uwaga: ta część zostanie wypełniona

Bardziej szczegółowo

Drzewa decyzyjne i lasy losowe

Drzewa decyzyjne i lasy losowe Drzewa decyzyjne i lasy losowe Im dalej w las tym więcej drzew! ML Gdańsk http://www.mlgdansk.pl/ Marcin Zadroga https://www.linkedin.com/in/mzadroga/ 20 Czerwca 2017 WPROWADZENIE DO MACHINE LEARNING CZYM

Bardziej szczegółowo

Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner

Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner Wydział Matematyki i Nauk Informacyjnych Politechnika Warszawska Elementy nieprzystające Definicja odrzucania Klasyfikacja

Bardziej szczegółowo

Metody klasyfikacji danych - część 1 p.1/24

Metody klasyfikacji danych - część 1 p.1/24 Metody klasyfikacji danych - część 1 Inteligentne Usługi Informacyjne Jerzy Dembski Metody klasyfikacji danych - część 1 p.1/24 Plan wykładu - Zadanie klasyfikacji danych - Przeglad problemów klasyfikacji

Bardziej szczegółowo

Zastosowanie sztucznej inteligencji w testowaniu oprogramowania

Zastosowanie sztucznej inteligencji w testowaniu oprogramowania Zastosowanie sztucznej inteligencji w testowaniu oprogramowania Problem NP Problem NP (niedeterministycznie wielomianowy, ang. nondeterministic polynomial) to problem decyzyjny, dla którego rozwiązanie

Bardziej szczegółowo

Regresyjne metody łączenia klasyfikatorów

Regresyjne metody łączenia klasyfikatorów Regresyjne metody łączenia klasyfikatorów Tomasz Górecki, Mirosław Krzyśko Wydział Matematyki i Informatyki Uniwersytet im. Adama Mickiewicza XXXV Konferencja Statystyka Matematyczna Wisła 7-11.12.2009

Bardziej szczegółowo

Kombinacja jądrowych estymatorów gęstości w klasyfikacji - testy na sztucznych danych

Kombinacja jądrowych estymatorów gęstości w klasyfikacji - testy na sztucznych danych Kombinacja jądrowych estymatorów gęstości w klasyfikacji - testy na sztucznych danych Mateusz Kobos, 25.11.2009 Seminarium Metody Inteligencji Obliczeniowej 1/25 Spis treści Dolne ograniczenie na wsp.

Bardziej szczegółowo

Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak

Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak 1 Wprowadzenie. Zmienne losowe Podczas kursu interesować nas będzie wnioskowanie o rozpatrywanym zjawisku. Poprzez wnioskowanie rozumiemy

Bardziej szczegółowo

Algorytmy klasyfikacji

Algorytmy klasyfikacji Algorytmy klasyfikacji Konrad Miziński Instytut Informatyki Politechnika Warszawska 6 maja 2015 1 Wnioskowanie 2 Klasyfikacja Zastosowania 3 Drzewa decyzyjne Budowa Ocena jakości Przycinanie 4 Lasy losowe

Bardziej szczegółowo

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:

Bardziej szczegółowo

Fuzja sygnałów i filtry bayesowskie

Fuzja sygnałów i filtry bayesowskie Fuzja sygnałów i filtry bayesowskie Roboty Manipulacyjne i Mobilne dr inż. Janusz Jakubiak Katedra Cybernetyki i Robotyki Wydział Elektroniki, Politechnika Wrocławska Wrocław, 10.03.2015 Dlaczego potrzebna

Bardziej szczegółowo

Klasyfikator. ˆp(k x) = 1 K. I(ρ(x,x i ) ρ(x,x (K) ))I(y i =k),k =1,...,L,

Klasyfikator. ˆp(k x) = 1 K. I(ρ(x,x i ) ρ(x,x (K) ))I(y i =k),k =1,...,L, Klasyfikator Jedną z najistotniejszych nieparametrycznych metod klasyfikacji jest metoda K-najbliższych sąsiadów, oznaczana przez K-NN. W metodzie tej zaliczamy rozpoznawany obiekt do tej klasy, do której

Bardziej szczegółowo

Elementy modelowania matematycznego

Elementy modelowania matematycznego Elementy modelowania matematycznego Modelowanie algorytmów klasyfikujących. Podejście probabilistyczne. Naiwny klasyfikator bayesowski. Modelowanie danych metodą najbliższych sąsiadów. Jakub Wróblewski

Bardziej szczegółowo

8. Drzewa decyzyjne, bagging, boosting i lasy losowe

8. Drzewa decyzyjne, bagging, boosting i lasy losowe Algorytmy rozpoznawania obrazów 8. Drzewa decyzyjne, bagging, boosting i lasy losowe dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Drzewa decyzyjne Drzewa decyzyjne (ang. decision trees), zwane

Bardziej szczegółowo

Analiza zawartości dokumentów za pomocą probabilistycznych modeli graficznych

Analiza zawartości dokumentów za pomocą probabilistycznych modeli graficznych Analiza zawartości dokumentów za pomocą probabilistycznych modeli graficznych Probabilistic Topic Models Jakub M. TOMCZAK Politechnika Wrocławska, Instytut Informatyki 30.03.2011, Wrocław Plan 1. Wstęp

Bardziej szczegółowo

RILL - przyrostowy klasyfikator regułowy uczący się ze zmiennych środowisk

RILL - przyrostowy klasyfikator regułowy uczący się ze zmiennych środowisk Wprowadzenie RILL - przyrostowy klasyfikator regułowy uczący się ze zmiennych środowisk Magdalena Deckert Politechnika Poznańska, Instytut Informatyki Seminarium ISWD, 21.05.2013 M. Deckert Przyrostowy

Bardziej szczegółowo

Rozpoznawanie obrazów

Rozpoznawanie obrazów Rozpoznawanie obrazów Ćwiczenia lista zadań nr 7 autorzy: A. Gonczarek, J.M. Tomczak Przykładowe problemy Klasyfikacja binarna Dla obrazu x zaproponowano dwie cechy φ(x) = (φ 1 (x) φ 2 (x)) T. Na obrazie

Bardziej szczegółowo

Rozmyte drzewa decyzyjne. Łukasz Ryniewicz Metody inteligencji obliczeniowej

Rozmyte drzewa decyzyjne. Łukasz Ryniewicz Metody inteligencji obliczeniowej µ(x) x µ(x) µ(x) x x µ(x) µ(x) x x µ(x) x µ(x) x Rozmyte drzewa decyzyjne Łukasz Ryniewicz Metody inteligencji obliczeniowej 21.05.2007 AGENDA 1 Drzewa decyzyjne kontra rozmyte drzewa decyzyjne, problemy

Bardziej szczegółowo

Deep Learning na przykładzie Deep Belief Networks

Deep Learning na przykładzie Deep Belief Networks Deep Learning na przykładzie Deep Belief Networks Jan Karwowski Zakład Sztucznej Inteligencji i Metod Obliczeniowych Wydział Matematyki i Nauk Informacyjnych PW 20 V 2014 Jan Karwowski (MiNI) Deep Learning

Bardziej szczegółowo

Wybrane zagadnienia uczenia maszynowego. Zastosowania Informatyki w Informatyce W2 Krzysztof Krawiec

Wybrane zagadnienia uczenia maszynowego. Zastosowania Informatyki w Informatyce W2 Krzysztof Krawiec Wybrane zagadnienia uczenia maszynowego Zastosowania Informatyki w Informatyce W2 Krzysztof Krawiec Przygotowane na podstawie T. Mitchell, Machine Learning S.J. Russel, P. Norvig, Artificial Intelligence

Bardziej szczegółowo

WYKŁAD 3. Klasyfikacja: modele probabilistyczne

WYKŁAD 3. Klasyfikacja: modele probabilistyczne Wrocław University of Technology WYKŁAD 3 Klasyfikacja: modele probabilistyczne Maciej Zięba Politechnika Wrocławska Klasyfikacja Klasyfikacja (ang. Classification): Dysponujemy obserwacjami z etykietami

Bardziej szczegółowo

Metody probabilistyczne klasyfikatory bayesowskie

Metody probabilistyczne klasyfikatory bayesowskie Konwersatorium Matematyczne Metody Ekonomii narzędzia matematyczne w eksploracji danych First Prev Next Last Go Back Full Screen Close Quit Metody probabilistyczne klasyfikatory bayesowskie Wykład 8 Marcin

Bardziej szczegółowo

Algorytmy metaheurystyczne Wykład 11. Piotr Syga

Algorytmy metaheurystyczne Wykład 11. Piotr Syga Algorytmy metaheurystyczne Wykład 11 Piotr Syga 22.05.2017 Drzewa decyzyjne Idea Cel Na podstawie przesłanek (typowo zbiory rozmyte) oraz zbioru wartości w danych testowych, w oparciu o wybrane miary,

Bardziej szczegółowo

Wprowadzenie. Data Science Uczenie się pod nadzorem

Wprowadzenie. Data Science Uczenie się pod nadzorem Wprowadzenie Wprowadzenie Wprowadzenie Wprowadzenie Machine Learning Mind Map Historia Wstęp lub uczenie się z przykładów jest procesem budowy, na bazie dostępnych danych wejściowych X i oraz wyjściowych

Bardziej szczegółowo

Entropia Renyi ego, estymacja gęstości i klasyfikacja

Entropia Renyi ego, estymacja gęstości i klasyfikacja Entropia Renyi ego, estymacja gęstości i klasyfikacja Wojciech Czarnecki Jacek Tabor 6 lutego 2014 1 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 1/36 36 2 / Wojciech Czarnecki,

Bardziej szczegółowo

Testowanie hipotez statystycznych

Testowanie hipotez statystycznych 9 października 2008 ...czyli definicje na rozgrzewkę n-elementowa próba losowa - wektor n zmiennych losowych (X 1,..., X n ); intuicyjnie: wynik n eksperymentów realizacja próby (X 1,..., X n ) w ω Ω :

Bardziej szczegółowo

Tablica Wzorów Rachunek Prawdopodobieństwa i Statystyki

Tablica Wzorów Rachunek Prawdopodobieństwa i Statystyki Tablica Wzorów Rachunek Prawdopodobieństwa i Statystyki Spis treści I. Wzory ogólne... 2 1. Średnia arytmetyczna:... 2 2. Rozstęp:... 2 3. Kwantyle:... 2 4. Wariancja:... 2 5. Odchylenie standardowe:...

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska. SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska INFORMACJE WSTĘPNE Hipotezy do uczenia się lub tworzenia

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 2 Detekcja twarzy autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się algorytmem gradientu prostego

Bardziej szczegółowo

Widzenie komputerowe (computer vision)

Widzenie komputerowe (computer vision) Widzenie komputerowe (computer vision) dr inż. Marcin Wilczewski 2018/2019 Organizacja zajęć Tematyka wykładu Cele Python jako narzędzie uczenia maszynowego i widzenia komputerowego. Binaryzacja i segmentacja

Bardziej szczegółowo

SPOTKANIE 9: Metody redukcji wymiarów

SPOTKANIE 9: Metody redukcji wymiarów Wrocław University of Technology SPOTKANIE 9: Metody redukcji wymiarów Piotr Klukowski* Studenckie Koło Naukowe Estymator piotr.klukowski@pwr.wroc.pl 08.12.2015 *Część slajdów pochodzi z prezentacji dr

Bardziej szczegółowo

Planowanie przejazdu przez zbiór punktów. zadania zrobotyzowanej inspekcji

Planowanie przejazdu przez zbiór punktów. zadania zrobotyzowanej inspekcji dla zadania zrobotyzowanej inspekcji Katedra Sterowania i Inżynierii Systemów, Politechnika Poznańska 3 lipca 2014 Plan prezentacji 1 Wprowadzenie 2 3 4 Postawienie problemu Założenia: Rozpatrujemy kinematykę

Bardziej szczegółowo

Optymalizacja systemów

Optymalizacja systemów Optymalizacja systemów Laboratorium - problem detekcji twarzy autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, P. Klukowski Cel zadania Celem zadania jest zapoznanie się z gradientowymi algorytmami optymalizacji

Bardziej szczegółowo

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 3 Detekcja twarzy autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, M. Zięba Cel zadania Celem zadania jest zaimplementowanie algorytmów

Bardziej szczegółowo

SPOTKANIE 4: Klasyfikacja: Regresja logistyczna

SPOTKANIE 4: Klasyfikacja: Regresja logistyczna Wrocław University of Technology SPOTKANIE 4: Klasyfikacja: Regresja logistyczna Szymon Zaręba Studenckie Koło Naukowe Estymator 179226@student.pwr.wroc.pl 23.11.2012 Rozkład dwupunktowy i dwumianowy Rozkład

Bardziej szczegółowo

Systemy agentowe. Uwagi organizacyjne i wprowadzenie. Jędrzej Potoniec

Systemy agentowe. Uwagi organizacyjne i wprowadzenie. Jędrzej Potoniec Systemy agentowe Uwagi organizacyjne i wprowadzenie Jędrzej Potoniec Kontakt mgr inż. Jędrzej Potoniec Jedrzej.Potoniec@cs.put.poznan.pl http://www.cs.put.poznan.pl/jpotoniec https://github.com/jpotoniec/sa

Bardziej szczegółowo

Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych

Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych mgr inż. C. Dendek prof. nzw. dr hab. J. Mańdziuk Politechnika Warszawska, Wydział Matematyki i Nauk Informacyjnych Outline 1 Uczenie

Bardziej szczegółowo

Identyfikacja istotnych atrybutów za pomocą Baysowskich miar konfirmacji

Identyfikacja istotnych atrybutów za pomocą Baysowskich miar konfirmacji Identyfikacja istotnych atrybutów za pomocą Baysowskich miar konfirmacji Jacek Szcześniak Jerzy Błaszczyński Roman Słowiński Poznań, 5.XI.2013r. Konspekt Wstęp Wprowadzenie Metody typu wrapper Nowe metody

Bardziej szczegółowo

METODY STATYSTYCZNE W BIOLOGII

METODY STATYSTYCZNE W BIOLOGII METODY STATYSTYCZNE W BIOLOGII 1. Wykład wstępny 2. Populacje i próby danych 3. Testowanie hipotez i estymacja parametrów 4. Planowanie eksperymentów biologicznych 5. Najczęściej wykorzystywane testy statystyczne

Bardziej szczegółowo

Dyskretne procesy stacjonarne o nieskończonej entropii nadwyżkowej

Dyskretne procesy stacjonarne o nieskończonej entropii nadwyżkowej Dyskretne procesy stacjonarne o nieskończonej entropii nadwyżkowej Łukasz Dębowski ldebowsk@ipipan.waw.pl i Instytut Podstaw Informatyki PAN Co to jest entropia nadwyżkowa? Niech (X i ) i Z będzie procesem

Bardziej szczegółowo

Klasyfikator liniowy Wstęp Klasyfikator liniowy jest najprostszym możliwym klasyfikatorem. Zakłada on liniową separację liniowy podział dwóch klas między sobą. Przedstawia to poniższy rysunek: 5 4 3 2

Bardziej szczegółowo

Pattern Classification

Pattern Classification Pattern Classification All materials in these slides were taken from Pattern Classification (2nd ed) by R. O. Duda, P. E. Hart and D. G. Stork, John Wiley & Sons, 2000 with the permission of the authors

Bardziej szczegółowo

6. Perceptron Rosenblatta

6. Perceptron Rosenblatta 6. Perceptron Rosenblatta 6-1 Krótka historia perceptronu Rosenblatta 6-2 Binarne klasyfikatory liniowe 6-3 Struktura perceptronu Rosenblatta 6-4 Perceptron Rosenblatta a klasyfikacja 6-5 Perceptron jednowarstwowy:

Bardziej szczegółowo

mgr inż. Magdalena Deckert Poznań, r. Uczenie się klasyfikatorów przy zmieniającej się definicji klas.

mgr inż. Magdalena Deckert Poznań, r. Uczenie się klasyfikatorów przy zmieniającej się definicji klas. mgr inż. Magdalena Deckert Poznań, 01.06.2010r. Uczenie się klasyfikatorów przy zmieniającej się definicji klas. Plan prezentacji Wstęp Concept drift Typy zmian Podział algorytmów stosowanych w uczeniu

Bardziej szczegółowo

Rozpoznawanie obrazów

Rozpoznawanie obrazów Rozpoznawanie obrazów Laboratorium Python Zadanie nr 3 Regresja logistyczna autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, M. Zięba, J. Kaczmar Cel zadania Celem zadania jest zaimplementowanie modelu

Bardziej szczegółowo

SPOTKANIE 11: Reinforcement learning

SPOTKANIE 11: Reinforcement learning Wrocław University of Technology SPOTKANIE 11: Reinforcement learning Adam Gonczarek Studenckie Koło Naukowe Estymator adam.gonczarek@pwr.edu.pl 19.01.2016 Uczenie z nadzorem (ang. supervised learning)

Bardziej szczegółowo

Tomasz Pawlak. Zastosowania Metod Inteligencji Obliczeniowej

Tomasz Pawlak. Zastosowania Metod Inteligencji Obliczeniowej 1 Zastosowania Metod Inteligencji Obliczeniowej Tomasz Pawlak 2 Plan prezentacji Sprawy organizacyjne Wprowadzenie do metod inteligencji obliczeniowej Studium wybranych przypadków zastosowań IO 3 Dane

Bardziej szczegółowo

METODY ESTYMACJI PUNKTOWEJ. nieznanym parametrem (lub wektorem parametrów). Przez X będziemy też oznaczać zmienną losową o rozkładzie

METODY ESTYMACJI PUNKTOWEJ. nieznanym parametrem (lub wektorem parametrów). Przez X będziemy też oznaczać zmienną losową o rozkładzie METODY ESTYMACJI PUNKTOWEJ X 1,..., X n - próbka z rozkładu P θ, θ Θ, θ jest nieznanym parametrem (lub wektorem parametrów). Przez X będziemy też oznaczać zmienną losową o rozkładzie P θ. Definicja. Estymatorem

Bardziej szczegółowo

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW 17 XII 2013 Jan Karwowski

Bardziej szczegółowo

Komitety sieci konwolucyjnych w zagadnieniu klasyfikacji przy jednoczesnym zaszumieniu danych wejściowych oraz etykiet klas. Stanisław Kaźmierczak

Komitety sieci konwolucyjnych w zagadnieniu klasyfikacji przy jednoczesnym zaszumieniu danych wejściowych oraz etykiet klas. Stanisław Kaźmierczak Komitety sieci konwolucyjnych w zagadnieniu klasyfikacji przy jednoczesnym zaszumieniu danych wejściowych oraz etykiet klas Stanisław Kaźmierczak Szum i jego rodzaje Źródła szumu Model Architektura sieci

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 2 autorzy: A. Gonczarek, J.M. Tomczak Metody estymacji Zad. 1 Pojawianie się spamu opisane jest zmienną losową x o rozkładzie dwupunktowym

Bardziej szczegółowo

Kombinacja jądrowych estymatorów gęstości w klasyfikacji - zastosowanie na sztucznym zbiorze danych

Kombinacja jądrowych estymatorów gęstości w klasyfikacji - zastosowanie na sztucznym zbiorze danych Kombinacja jądrowych estymatorów gęstości w klasyfikacji - zastosowanie na sztucznym zbiorze danych Mateusz Kobos, 07.04.2010 Seminarium Metody Inteligencji Obliczeniowej Spis treści Opis algorytmu i zbioru

Bardziej szczegółowo

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV Klasyfikatory: k-nn oraz naiwny Bayesa Agnieszka Nowak Brzezińska Wykład IV Naiwny klasyfikator Bayesa Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną

Bardziej szczegółowo

Estymacja gęstości prawdopodobieństwa metodą selekcji modelu

Estymacja gęstości prawdopodobieństwa metodą selekcji modelu Estymacja gęstości prawdopodobieństwa metodą selekcji modelu M. Wojtyś Wydział Matematyki i Nauk Informacyjnych Politechnika Warszawska Wisła, 7 grudnia 2009 Wstęp Próba losowa z rozkładu prawdopodobieństwa

Bardziej szczegółowo

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory Dr Anna ADRIAN Paw B5, pok 407 adrian@tempus.metal.agh.edu.pl

Bardziej szczegółowo

1 Klasyfikator bayesowski

1 Klasyfikator bayesowski Klasyfikator bayesowski Załóżmy, że dane są prawdopodobieństwa przynależności do klasp( ),P( 2 ),...,P( L ) przykładów z pewnego zadania klasyfikacji, jak również gęstości rozkładów prawdopodobieństw wystąpienia

Bardziej szczegółowo

Zastosowania metod odkrywania wiedzy do diagnostyki maszyn i procesów

Zastosowania metod odkrywania wiedzy do diagnostyki maszyn i procesów Zastosowania metod odkrywania wiedzy do diagnostyki maszyn i procesów Wojciech Moczulski Politechnika Śląska Katedra Podstaw Konstrukcji Maszyn Sztuczna inteligencja w automatyce i robotyce Zielona Góra,

Bardziej szczegółowo

METODY INŻYNIERII WIEDZY

METODY INŻYNIERII WIEDZY METODY INŻYNIERII WIEDZY WALIDACJA KRZYŻOWA dla ZAAWANSOWANEGO KLASYFIKATORA KNN ĆWICZENIA Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA

STATYSTYKA MATEMATYCZNA STATYSTYKA MATEMATYCZNA 1. Wykład wstępny. Teoria prawdopodobieństwa i elementy kombinatoryki 2. Zmienne losowe i ich rozkłady 3. Populacje i próby danych, estymacja parametrów 4. Testowanie hipotez 5.

Bardziej szczegółowo

Uczenie sieci neuronowych i bayesowskich

Uczenie sieci neuronowych i bayesowskich Wstęp do metod sztucznej inteligencji www.mat.uni.torun.pl/~piersaj 2009-01-22 Co to jest neuron? Komputer, a mózg komputer mózg Jednostki obliczeniowe 1-4 CPU 10 11 neuronów Pojemność 10 9 b RAM, 10 10

Bardziej szczegółowo

METODY INŻYNIERII WIEDZY

METODY INŻYNIERII WIEDZY METODY INŻYNIERII WIEDZY Metoda K Najbliższych Sąsiadów K-Nearest Neighbours (KNN) ĆWICZENIA Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Bardziej szczegółowo

WIELOKRYTERIALNE PORZĄDKOWANIE METODĄ PROMETHEE ODPORNE NA ZMIANY WAG KRYTERIÓW

WIELOKRYTERIALNE PORZĄDKOWANIE METODĄ PROMETHEE ODPORNE NA ZMIANY WAG KRYTERIÓW Uniwersytet Ekonomiczny we Wrocławiu WIELOKRYTERIALNE PORZĄDKOWANIE METODĄ PROMETHEE ODPORNE NA ZMIANY WAG KRYTERIÓW Wprowadzenie Wrażliwość wyników analizy wielokryterialnej na zmiany wag kryteriów, przy

Bardziej szczegółowo

Wprowadzenie. { 1, jeżeli ˆr(x) > 0, pozatym. Regresja liniowa Regresja logistyczne Jądrowe estymatory gęstości. Metody regresyjne

Wprowadzenie. { 1, jeżeli ˆr(x) > 0, pozatym. Regresja liniowa Regresja logistyczne Jądrowe estymatory gęstości. Metody regresyjne Wprowadzenie Prostym podejściem do klasyfikacji jest estymacja funkcji regresji r(x) =E(Y X =x)zpominięciemestymacjigęstościf k. Zacznijmyodprzypadkudwóchgrup,tj.gdy Y = {1,0}. Wówczasr(x) =P(Y =1 X =x)ipouzyskaniuestymatora

Bardziej szczegółowo

mgr inż. Magdalena Deckert Poznań, r. Metody przyrostowego uczenia się ze strumieni danych.

mgr inż. Magdalena Deckert Poznań, r. Metody przyrostowego uczenia się ze strumieni danych. mgr inż. Magdalena Deckert Poznań, 30.11.2010r. Metody przyrostowego uczenia się ze strumieni danych. Plan prezentacji Wstęp Concept drift i typy zmian Algorytmy przyrostowego uczenia się ze strumieni

Bardziej szczegółowo

SPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization

SPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization Wrocław University of Technology SPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization Jakub M. Tomczak Studenckie Koło Naukowe Estymator jakub.tomczak@pwr.wroc.pl 4.1.213 Klasteryzacja Zmienne

Bardziej szczegółowo

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny

Bardziej szczegółowo

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Temat: Sztuczne Sieci Neuronowe Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Sztuczne sieci neuronowe

Bardziej szczegółowo

Klasyfikacja z milionami etykiet

Klasyfikacja z milionami etykiet Klasyfikacja z milionami etykiet Krzysztof Dembczyński Zakład Inteligentnych Systemów Wspomagania Decyzji Politechnika Poznańska Big Data: Przetwarzanie i eksploracja Poznań, 22 kwietnia 2016 r. Geoff

Bardziej szczegółowo

Data Mining Wykład 5. Indukcja drzew decyzyjnych - Indeks Gini & Zysk informacyjny. Indeks Gini. Indeks Gini - Przykład

Data Mining Wykład 5. Indukcja drzew decyzyjnych - Indeks Gini & Zysk informacyjny. Indeks Gini. Indeks Gini - Przykład Data Mining Wykład 5 Indukcja drzew decyzyjnych - Indeks Gini & Zysk informacyjny Indeks Gini Popularnym kryterium podziału, stosowanym w wielu produktach komercyjnych, jest indeks Gini Algorytm SPRINT

Bardziej szczegółowo

Analiza danych. http://zajecia.jakubw.pl/ TEMATYKA PRZEDMIOTU

Analiza danych. http://zajecia.jakubw.pl/ TEMATYKA PRZEDMIOTU Analiza danych Wstęp Jakub Wróblewski jakubw@pjwstk.edu.pl http://zajecia.jakubw.pl/ TEMATYKA PRZEDMIOTU Różne aspekty analizy danych Reprezentacja graficzna danych Metody statystyczne: estymacja parametrów

Bardziej szczegółowo

Próba wykorzystania podejścia wielomodelowego w klasyfikacji jednostek samorządowych

Próba wykorzystania podejścia wielomodelowego w klasyfikacji jednostek samorządowych Jacek Batóg Uniwersytet Szczeciński Próba wykorzystania podejścia wielomodelowego w klasyfikacji jednostek samorządowych Agregacja wyników uzyskiwanych w odrębnych badaniach, często również przy pomocy

Bardziej szczegółowo

Kombinacja jądrowych estymatorów gęstości w klasyfikacji wstępne wyniki

Kombinacja jądrowych estymatorów gęstości w klasyfikacji wstępne wyniki Kombinacja jądrowych estymatorów gęstości w klasyfikacji wstępne wyniki Mateusz Kobos, 10.12.2008 Seminarium Metody Inteligencji Obliczeniowej 1/46 Spis treści Działanie algorytmu Uczenie Odtwarzanie/klasyfikacja

Bardziej szczegółowo

Rozszerzenia klasyfikatorów złożonych dla danych niezrównoważonych

Rozszerzenia klasyfikatorów złożonych dla danych niezrównoważonych klasyfikatorów złożonych dla danych niezrównoważonych Marcin Szajek Politechnika Poznańska, Instytut Informatyki 23.04.2013 Marcin Szajek Rozsz. klas. złoż. dla danych niezrównoważonych 1 / 30 Plan prezentacji

Bardziej szczegółowo

Sztuczna inteligencja : Algorytm KNN

Sztuczna inteligencja : Algorytm KNN Instytut Informatyki Uniwersytetu Śląskiego 23 kwietnia 2012 1 Algorytm 1 NN 2 Algorytm knn 3 Zadania Klasyfikacja obiektów w oparciu o najbliższe obiekty: Algorytm 1-NN - najbliższego sąsiada. Parametr

Bardziej szczegółowo