Klasyfikacja wielo-etykietowa z wykorzystaniem Boostingu
|
|
- Magda Kowalczyk
- 6 lat temu
- Przeglądów:
Transkrypt
1 Klasyfikacja wielo-etykietowa z wykorzystaniem Boostingu Seminarium Zakładu Inteligentnych Systemów Wspomagania Decyzji Instytutu Informatyki Politechniki Poznańskiej oraz Sekcji Inteligentnych Systemów Wspomagania Decyzji oraz Obliczeń Elastycznych Komitetu Informatyki PAN Instytut Informatyki, Politechnika Wrocławska 8 listopada 2011
2 Plan prezentacji 1 Klasyfikacja wielo-etykietowa Wprowadzenie Metody klasyfikacji wielo-etykietowej 2 Klasyfikacja wielo-etykietowa z wykorzystniem AdaBoostSeq Wprowadzenie do algorytmu Analiza algorytmu Eksperymenty 3 Podsumowanie
3 Plan prezentacji 1 Klasyfikacja wielo-etykietowa Wprowadzenie Metody klasyfikacji wielo-etykietowej 2 Klasyfikacja wielo-etykietowa z wykorzystniem AdaBoostSeq Wprowadzenie do algorytmu Analiza algorytmu Eksperymenty 3 Podsumowanie
4 Wprowadzenie Wprowadzenie X = {x 1, x 2,..., x n } - przestrzeń obserwacji L = {λ 1, λ 2,..., λ m } - skończony zbiór etykiet (x, L x ) X 2 L - krotka obserwacja-etykiety Klasyfikacja jedno-etykietowa obserwacja x X jest skojarzona z pojedynczą etykietą l L cel: nauka klasyfikatora H : X L Klasyfikacja wielo-etykietowa obserwacja x X może być skojarzona z podzbiorem etykiet L 2 L cel: nauka klasyfikatora H : X 2 L
5 Wprowadzenie Przykłady klasyfikacji wielo-etykietowej Kategoryzacja emocjonalna muzyki Model emocji Tellegen-Watson-Clark[1]
6 Wprowadzenie Przykłady klasyfikacji wielo-etykietowej Typ Zadanie Zasoby Opis danych tekst kategoryzacja artykuły Reuters topics (agriculture, fishing) tekst kategoryzacja strony www Yahoo! directory (health, science) tekst kategoryzacja ulubione Bibsonomy tags (sports, science) obrazy annotacja semantyczna obrazy pojęcie(drzewo, zachód słońca) wideo annotacja semantyczndomościami klipy z wia- concepts (tłum, pustynia) dźwięk detekcja szumu dźwięk typ(mowa, szum) dźwięk detekcja emocji klip muzyczny emocje(relaksacyjny, spokojny)
7 Wprowadzenie Realizowane zadania Dwa główne zadania w uczeniu nadzorowanym przy użyciu danych wielo-etykietowych: klasyfikacja wielo-etykietowa odwzorowanie przypisujące obserwacji podzbiór etykiet ranking etykiet odwzorowanie przypisujące uporządkowaną według relewancji listę etykiet
8 Wprowadzenie Taksonomia metod Metody transformujące problem niezależne od algorytmów transformują zadanie uczenia do jednego lub więcej zadań uczenia jedno-etykietowego wspierają się szeroką gamą standardowych algorytmów Metody adaptujące algorytmy rozszerzają poszczególne algorytmy
9 Metody klasyfikacji wielo-etykietowej Metody transformujące problem dane wielo-etykietowe są konwertowane do postaci jedno-etykietowej klasyfikator jedno-etykietowy zwraca rozkład prawdopodobieństwa klas, który można wykorzystać do rankowania etykiet przykładowe dane: L.p. Obserwacja (X) Etykiety(L) 1 x 1 {λ 1, λ 4 } 2 x 2 {λ 3, λ 4 } 3 x 3 {λ 1 } 4 x 4 {λ 2, λ 3, λ 4 }
10 Metody klasyfikacji wielo-etykietowej Metody transformujące problem Proste transformacje kopiowanie kopiowanie z wagami selekcja najczęstszej etykiety selekcja najrzadszej etykiety selekcja losowa pomijanie wielo-etykiet
11 Metody klasyfikacji wielo-etykietowej Metody transformujące problem Label powerset (zbiór potęgowy) każdy istniejący unikatowy podzbiór etykiet stanowi jedną nową etykietę złożoność ograniczona przez min(n, 2 m ) Przykład rankingu: c p(c x) λ 1 λ 2 λ 3 λ 4 λ 1, λ 3, λ λ 2,3, c p(c x)λ j
12 Metody klasyfikacji wielo-etykietowej Metody transformujące problem Pruned problem transformation[2] rozszerzenie metody Label powerset (zbióru potęgowego) odrzuca etykiety występujące rzadziej od zdefiniowanego progu Random k-labelsets (RAkEL)[3] buduje rodzinę klasyfikatorów dla losowo wybranych zbiorów k-elementowych podzbiorów potęgowych etykiet
13 Metody klasyfikacji wielo-etykietowej Metody transformujące problem Binarna relewancja uczenie m binarnych klasyfikatorów, po jednym dla każdej z etykiet w L m zbiorów uczących postaci (x, I(λ j )), gdzie I(λ j ) pozytywne dla obserwacji posiadającej etykietę λ j oraz negatywne wpp. Ranking by pairwise comparison[4] transformuje zbiór wielo-etykietowy do m(m 1) 2 binarnych zbiorów jedno-etykietowych, dla każdej pary (λ i, λ j ), 1 i j m zbiory uczące zawierają obserwacje z etykietami λ i λ j przykład: Multi-label pairwise perceptron (MLPP)[5]
14 Metody klasyfikacji wielo-etykietowej Metody adaptujące algorytmy Zmodyfikowany algorytm C4.5[6] strategia próbkowania obserwacji wielo-etykietowych przy użyciu m-estymacji (generalizacji estymacji Laplace a), biorącej pod uwagę prawdopodobieństwo a priori etykiet wiele etykiet dozwolonych w liściach entropia: m j=1 (p(λ j )logp(λ j ) + q(λ j )logq(λ j )), gdzie p(λ j ) to empiryczna częstość klasy λ j, a q(λ j ) = 1 p(λ j )
15 Metody klasyfikacji wielo-etykietowej Metody adaptujące algorytmy Użycie podejścia CRF (warunkowych pól losowych)[7] dwa modele graficzne parametryzujące współwystępowanie etykiet przez oznacznie klik(czarne kwadraty) (a)-parametryzacja jednej etykiety i jednej cechy, (b)-dodatkowo parametryzacja par etykiet, (c)-parametryzacja dla każdej etykiety, każdej cechy oraz każdej pary etykiet
16 Metody klasyfikacji wielo-etykietowej Metody adaptujące algorytmy Back-propagation perceptron for multi-label learning BP-MLL[8] adaptacja popularnego algorytmu z pętlą zwrotną dla klasyfikacji wielo-etykietowej modyfikacja funkcji błędu, która bierze pod uwagę wiele etykiet Multi-class multi-label perceptron (MMP)[9] rodzina algorytmów dla rankingów etykiet bazująca na perceptronie perceptron dla każdej z etykiet uaktualnianie wag - zgodność rankingu dla wszystkich etykiet
17 Metody klasyfikacji wielo-etykietowej Metody adaptujące algorytmy Multi-label knn (ML-kNN)[10] wyszukanie k najbliższych sąsiadów agregacja podzbiorów etykiet zgodnie prawdopodobieństwem a posteriori dla każdej z etykiet
18 Metody klasyfikacji wielo-etykietowej Classifier Chain Model (Łańcuch klasyfikatorów)[12]
19 Metody klasyfikacji wielo-etykietowej Metody adaptujące algorytmy AdaBoost.MH[11] minimalizuje odległość Hamminga AdaBoost.MR[11] szuka hipotez, które prawidłowo umiejscawiają prawdziwe etykiety na szczycie rankingu
20 Metody klasyfikacji wielo-etykietowej Metody adaptujące algorytmy
21 Plan prezentacji 1 Klasyfikacja wielo-etykietowa Wprowadzenie Metody klasyfikacji wielo-etykietowej 2 Klasyfikacja wielo-etykietowa z wykorzystniem AdaBoostSeq Wprowadzenie do algorytmu Analiza algorytmu Eksperymenty 3 Podsumowanie
22 Wprowadzenie do algorytmu Algorytm AdaBoostSeq[13] AdaBoostSeq zmodyfikowany sposób ważenia obserwacji (schemat próbkowania danych uczących) modyfikacja funkcji kosztu klasyfikacja wielo-etykietowa Oznaczenia y µ i { 1, 1}, dla i = 1, 2,..., n i µ = 1, 2,..., m reprezentuje obecność etykiet: odpowiednio λ 1, λ 2,..., λ m m - liczba etykiet n - liczba obserwacji
23 Wprowadzenie do algorytmu AdaBoostSeq Cel Skonstruować m liniowych kombinacji rodziny K klasyfikatorów postaci: µ = 1, 2,..., m F µ (x Pµ ) = K α µ k Φ(xPµ, Θ µ k ) (1) k=1 F µ (x Pµ ) to meta-klasyfikator dla µ-tej etykiety Φ(x Pµ, Θ µ k ) reprezentuje k-ty klasyfikator bazowy z Θµ k parametrami klasyfikujący binarnie każdą obserwację x α µ k waga k-tego klasyfikatora
24 Analiza algorytmu Nieznane wartości otrzymujemy z optymalizacji dla każdej etykiety µ: arg min N α µ k,θµ k,k:1,k i=1 exp( y µ i Fµ (x Pµ i )) (2) bezpośrednia optymalizacja bardzo skomplikowana rozwiązanie z wykorzystaniem iteracyjnej minimalizacji suma częściowa kroku s: F µ s (x Pµ ) = s k=1 α µ k Φ(xPµ, Θ µ k ), s = 1, 2,..., K (3)
25 Analiza algorytmu Z równania 3 mamy naturalną rekursję: F µ s (x Pµ ) = F µ s 1 (xpµ ) + α s Φ(x Pµ, Θ µ s ) (4) przed obliczeniem F µ s (x Pµ ), wartość F µ s 1 (xpµ ) musiała już zostać obliczona problem w kroku s to zatem obliczenie: gdzie funkcja J to koszt (α µ m, Θ µ m) = arg min α µ,θ µ J(αµ, Θ µ ) (5)
26 Analiza algorytmu Funkcja kosztu J(α µ, Θ µ ) = n i=1 exp( y µ i (ξfµ s 1 (xpµ i ) +(1 ξ)y µ i ˆR µ s (x Pµ i ) + α µ Φ(x Pµ i, Θ µ ))) (6) gdzie: ˆR µ s (x Pµ i ) - funkcja wpływająca na koszt, biorąca pod uwagę jakość klasyfikacji poprzedzających etykiet ξ - parametr kontrolujący poziom wpływu, ξ 0, 1
27 Analiza algorytmu gdzie: s 1 ˆR µ s (x Pµ ) = α µ i Rµ (x Pµ ) (7) R µ (x Pµ ) = i=1 µ 1 l=1 yl F l (x Pµ ) K k=1 αl k µ R µ (x Pµ i ) oznacza średnią zgodność klasyfikacji między rzeczywistą etykietą l i F l (x Pµ ) (8)
28 Analiza algorytmu Zakładają stałe α µ (z równania 5 i 6), funkcja kosztu J może być obliczana względem klasyfikatora bazowego Φ(x Pµ i, Θ µ ): gdzie: Θ µ = arg min Θ µ n i=1 w µ i(s) exp( yµ i αµ Φ(x Pµ i, Θ µ )) (9) w µ i ( s) = exp( yµ i (ξfµ s 1 (xpµ i ) + (1 ξ)y µ i ˆR µ s (x Pµ i ))) (10)
29 Analiza algorytmu w µ i ( s) nie zależy od αµ ani od Φ(x Pµ i, Θ µ ) dla każdej obserwacji x Pµ i w µ i ( m) może być zatem wagą obserwacji xpµ i Dla binarnych klasyfikatorów bazowych obliczenie Θ µ możemy wykonać: Θ µ = arg min Θ µ { P µ m = N i=1 w µ i ( m) I(1 yµ i Φ(xPµ i, Θ µ )) } (11) gdzie: I(x) = { 0, if x = 0 1, if x > 0 (12)
30 Analiza algorytmu Dla klasyfikatora bazowego w kroku s: y µ i Φ(xPµ i,θ µ s )<0) w µ i ( s) = Pµ s (13) w µ i ( s) = 1 Pµ s (14) y µ i Φ(xPµ i,θ µ s )>0) wartość α s otrzymujemy z: α µ s = arg min α µ {exp( αµ )(1 P µ s ) + exp(α µ )P µ s } (15)
31 Analiza algorytmu Po obliczeniu równania 15 mamy: α µ s = 1 2 ln 1 Pµ s P µ s Gdy klasyfikator Φ(x Pµ i, Θ µ ) oraz α m µ są już obliczone, wagi w kroku s + 1 wynoszą: w µ i ( s+1) = exp ( y µ i (16) ( ξ Pµ F µ s (x Pµ i ) + (1 ξ)y µ ˆR )) i µ s (x Pµ ) =(17) Z s ) i, Θ µ s ) (1 ξ)α s µ R µ (x Pµ ) = w i ( s) exp ( y µ i ξαµ s Φ(x Pµ gdzie Z s to czynnik normalizujący. N ( ) Z s = w µ i ( s) exp y µ i ξαµ s Φ(x Pµ i, Θ µ s ) (1 ξ)α s µ R µ (x Pµ i ) i=1 Z s (18)
32 Analiza algorytmu
33 Eksperymenty Eksperymenty Tablica: Zbiory danych wielo-etykietowych użyte w eksperymentach Dane Obserwacji Atrybutów Etykiet 1 scene yeast emotions mediamill tmc
34 Eksperymenty Miary ewaluacji odległość Hamminga (Hamming Loss) HL = 1 n n i=1 L xi F(x i ) L xi (19) ( to symetryczna różnica zbiorów) dokładność klasyfikacji (Classification Accuracy) CA = 1 n I(L xi = F(x i )) (20) n i=1
35 Eksperymenty Rysunek: Odległość Hamminga dla wybranych algorytmów klasyfikacji wielo-etykietowej na zbiorach danych: tmc2007, mediamill, scene, yeast oraz emotions
36 Eksperymenty Rysunek: Dokładność klasyfikacji dla wybranych algorytmów klasyfikacji wielo-etykietowej na zbiorach danych: tmc2007, mediamill, scene, yeast oraz emotions
37 Eksperymenty Rysunek: Czas pracy wybranych algorytmów klasyfikacji wielo-etykietowej na zbiorach danych: tmc2007, mediamill, scene, yeast oraz emotions
38 Plan prezentacji 1 Klasyfikacja wielo-etykietowa Wprowadzenie Metody klasyfikacji wielo-etykietowej 2 Klasyfikacja wielo-etykietowa z wykorzystniem AdaBoostSeq Wprowadzenie do algorytmu Analiza algorytmu Eksperymenty 3 Podsumowanie
39 Podsumowanie AdaBoostSeq klasyfikacja wielo-etykietowa zmodyfikowany sposób ważenia obserwacji (schemat próbkowania danych uczących) klasyfikacja etykiet w ustalonej kolejności kolejność uczenia ma znaczenie Wyzwania odzwierciedlenie rzeczywistych zależności występowania etykiet odpowiednie funkcje kosztu złożoność obliczeniowa
40 [Tellegen et al., 1999] Tellegen, A., Watson, D., Clark, L.A. On the dimensional and hierarchical structure of affect, Psychological Science, Vol. 10, No. 4, [Read, 2008] Read, J. A pruned problem transformation method for multi-label classification. In: Proc New Zealand Computer Science Research Student Conference (NZCSRS 2008), pp , 2008 [Tsoumakas et al., 2007] Tsoumakas, G., Vlahavas, I. Random k-labelsets: An ensemble method for multilabel classification. In: Proc. of the 18th European Conference on Machine Learning (ECML 2007), pp , 2007 [Hullermeier et al., 2008] Hullermeier, E., Furnkranz, J., Cheng, W., Brinker, K.
41 Label ranking by learning pairwise preferences. Artificial Intelligence, Vol. 172, pp , 2008 [Loza Mencia et al., 2008] Loza Mencia, E., Furnkranz, J. Pairwise learning of multilabel classifications with perceptrons. In: Proc. of IEEE International Joint Conference on Neural Networks (IJCNN-08), pp , 2008 [Clare et al., 2001] Clare, A., King, R. Knowledge discovery in multi-label phenotype data. In: Proc. of the 5th European Conference on Principles of Data Mining and Knowledge Discovery (PKDD 2001), pp , 2001 [Ghamrawi et al., 2005] Ghamrawi, N., McCallum, A. Collective multi-label classification.
42 In: Proc. of the ACM Conference on Information and Knowledge Management (CIKM 05), pp , 2005 [Zhang et al., 2006] Zhang, M.L., Zhou, Z.H. Multi-label neural networks with applications to functional genomics and text categorization. IEEE Transactions on Knowledge and Data Engineering, Vol. 18, pp , 2006 [Crammer et al., 2003] Crammer, K., Singer, Y. A family of additive online algorithms for category ranking. Journal of Machine Learning Research, Vol. 3, pp , 2003 [Zhang et al., 2007] Zhang, M.L., Zhou, Z.H. Ml-knn: A lazy learning approach to multi-label learning. Pattern Recognition, Vol. 40, pp , 2007 [Schapire et al., 2000] Schapire, R.E. Singer, Y.
43 Boostexter: a boosting-based system for text categorization. Machine Learning, Vol. 39, pp , 2000 [Read et al., 2009] Read, J., Pfahringer, B., Holmes, G., Frank, E. Classifier Chains for Multi-label Classification In: Proc. of European Conference of Machine Learning and Knowledge Discovery in Databases, pp , 2009 [Kajdanowicz et al., 2011] Kajdanowicz T., Kazienko P. Boosting-based Sequence Prediction New Generation Computing, Vol. 29, No. 3, pp , 2011
Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej. Adam Żychowski
Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej Adam Żychowski Definicja problemu Każdy z obiektów może należeć do więcej niż jednej kategorii. Alternatywna definicja Zastosowania
Bardziej szczegółowoPredykcja i selekcja zmiennych w klasyfikacji z wieloma etykietami przy użyciu łańcuchów klasyfikatorów i sieci elastycznej
Seminarium Poznań 2016 Predykcja i selekcja zmiennych w klasyfikacji z wieloma etykietami przy użyciu łańcuchów klasyfikatorów i sieci elastycznej Paweł Teisseyre Instytut Podstaw Informatyki PAN Plan
Bardziej szczegółowoSelekcja zmiennych w klasyfikacji z wieloma etykietami
Seminarium IPIPAN, Maj 2016 Selekcja zmiennych w klasyfikacji z wieloma etykietami Paweł Teisseyre Instytut Podstaw Informatyki PAN Plan prezentacji Klasyfikacja z wieloma etykietami. Selekcja zmiennych
Bardziej szczegółowoMetody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska
Metody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska e-mail: bartosz.krawczyk@pwr.wroc.pl Czym jest klasyfikacja
Bardziej szczegółowoBadania w sieciach złożonych
Badania w sieciach złożonych Grant WCSS nr 177, sprawozdanie za rok 2012 Kierownik grantu dr. hab. inż. Przemysław Kazienko mgr inż. Radosław Michalski Instytut Informatyki Politechniki Wrocławskiej Obszar
Bardziej szczegółowoMichał Kozielski Łukasz Warchał. Instytut Informatyki, Politechnika Śląska
Michał Kozielski Łukasz Warchał Instytut Informatyki, Politechnika Śląska Algorytm DBSCAN Algorytm OPTICS Analiza gęstego sąsiedztwa w grafie Wstępne eksperymenty Podsumowanie Algorytm DBSCAN Analiza gęstości
Bardziej szczegółowoSZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 4. UCZENIE SIĘ INDUKCYJNE Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska WSTĘP Wiedza pozyskana przez ucznia ma charakter odwzorowania
Bardziej szczegółowoMultiklasyfikatory z funkcją kompetencji
3 stycznia 2011 Problem klasyfikacji Polega na przewidzeniu dyskretnej klasy na podstawie cech obiektu. Obiekt jest reprezentowany przez wektor cech Zbiór etykiet jest skończony x X Ω = {ω 1, ω 2,...,
Bardziej szczegółowoJądrowe klasyfikatory liniowe
Jądrowe klasyfikatory liniowe Waldemar Wołyński Wydział Matematyki i Informatyki UAM Poznań Wisła, 9 grudnia 2009 Waldemar Wołyński () Jądrowe klasyfikatory liniowe Wisła, 9 grudnia 2009 1 / 19 Zagadnienie
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych
Bardziej szczegółowo10. Redukcja wymiaru - metoda PCA
Algorytmy rozpoznawania obrazów 10. Redukcja wymiaru - metoda PCA dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. PCA Analiza składowych głównych: w skrócie nazywana PCA (od ang. Principle Component
Bardziej szczegółowoTEORETYCZNE PODSTAWY INFORMATYKI
1 TEORETYCZNE PODSTAWY INFORMATYKI WFAiS UJ, Informatyka Stosowana I rok studiów, I stopień Wykład 16 2 Data Science: Uczenie maszynowe Uczenie maszynowe: co to znaczy? Metody Regresja Klasyfikacja Klastering
Bardziej szczegółowoMaszyny wektorów podpierajacych w regresji rangowej
Maszyny wektorów podpierajacych w regresji rangowej Uniwersytet Mikołaja Kopernika Z = (X, Y ), Z = (X, Y ) - niezależne wektory losowe o tym samym rozkładzie X X R d, Y R Z = (X, Y ), Z = (X, Y ) - niezależne
Bardziej szczegółowoDariusz Brzeziński. Politechnika Poznańska
Dariusz Brzeziński Politechnika Poznańska Klasyfikacja strumieni danych Algorytm AUE Adaptacja klasyfikatorów blokowych do przetwarzania przyrostowego Algorytm OAUE Dlasze prace badawcze Blokowa i przyrostowa
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt
Bardziej szczegółowoEksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18
Eksploracja Danych wykład 4 Sebastian Zając WMP.SNŚ UKSW 10 maja 2017 Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja 2017 1 / 18 Klasyfikacja danych Klasyfikacja Najczęściej stosowana (najstarsza)
Bardziej szczegółowoRozpoznawanie obrazów
Rozpoznawanie obrazów Laboratorium Python Zadanie nr 2 κ-nn i Naive Bayes autorzy: M. Zięba, J.M. Tomczak, A. Gonczarek, S. Zaręba, J. Kaczmar Cel zadania Celem zadania jest implementacja klasyfikatorów
Bardziej szczegółowoElementy inteligencji obliczeniowej
Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-10 Projekt pn. Wzmocnienie
Bardziej szczegółowoMetody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 2 κ-nn i Naive Bayes autorzy: M. Zięba, J.M. Tomczak, A. Gonczarek, S. Zaręba Cel zadania Celem zadania jest implementacja klasyfikatorów
Bardziej szczegółowoMetody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium JAVA Zadanie nr 2 Rozpoznawanie liter autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z problemem klasyfikacji
Bardziej szczegółowoWYKŁAD 4. Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie. autor: Maciej Zięba. Politechnika Wrocławska
Wrocław University of Technology WYKŁAD 4 Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie autor: Maciej Zięba Politechnika Wrocławska Klasyfikacja Klasyfikacja (ang. Classification):
Bardziej szczegółowo2. Empiryczna wersja klasyfikatora bayesowskiego
Algorytmy rozpoznawania obrazów 2. Empiryczna wersja klasyfikatora bayesowskiego dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Brak pełnej informacji probabilistycznej Klasyfikator bayesowski
Bardziej szczegółowoLEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów
LEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów Łukasz Piątek, Jerzy W. Grzymała-Busse Katedra Systemów Ekspertowych i Sztucznej Inteligencji, Wydział Informatyki
Bardziej szczegółowoAlgorytmy estymacji stanu (filtry)
Algorytmy estymacji stanu (filtry) Na podstawie: AIMA ch15, Udacity (S. Thrun) Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 21 kwietnia 2014 Problem lokalizacji Obserwowalność? Determinizm?
Bardziej szczegółowoA Zadanie
where a, b, and c are binary (boolean) attributes. A Zadanie 1 2 3 4 5 6 7 8 9 10 Punkty a (maks) (2) (2) (2) (2) (4) F(6) (8) T (8) (12) (12) (40) Nazwisko i Imiȩ: c Uwaga: ta część zostanie wypełniona
Bardziej szczegółowoDrzewa decyzyjne i lasy losowe
Drzewa decyzyjne i lasy losowe Im dalej w las tym więcej drzew! ML Gdańsk http://www.mlgdansk.pl/ Marcin Zadroga https://www.linkedin.com/in/mzadroga/ 20 Czerwca 2017 WPROWADZENIE DO MACHINE LEARNING CZYM
Bardziej szczegółowoProblem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner
Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner Wydział Matematyki i Nauk Informacyjnych Politechnika Warszawska Elementy nieprzystające Definicja odrzucania Klasyfikacja
Bardziej szczegółowoMetody klasyfikacji danych - część 1 p.1/24
Metody klasyfikacji danych - część 1 Inteligentne Usługi Informacyjne Jerzy Dembski Metody klasyfikacji danych - część 1 p.1/24 Plan wykładu - Zadanie klasyfikacji danych - Przeglad problemów klasyfikacji
Bardziej szczegółowoZastosowanie sztucznej inteligencji w testowaniu oprogramowania
Zastosowanie sztucznej inteligencji w testowaniu oprogramowania Problem NP Problem NP (niedeterministycznie wielomianowy, ang. nondeterministic polynomial) to problem decyzyjny, dla którego rozwiązanie
Bardziej szczegółowoRegresyjne metody łączenia klasyfikatorów
Regresyjne metody łączenia klasyfikatorów Tomasz Górecki, Mirosław Krzyśko Wydział Matematyki i Informatyki Uniwersytet im. Adama Mickiewicza XXXV Konferencja Statystyka Matematyczna Wisła 7-11.12.2009
Bardziej szczegółowoKombinacja jądrowych estymatorów gęstości w klasyfikacji - testy na sztucznych danych
Kombinacja jądrowych estymatorów gęstości w klasyfikacji - testy na sztucznych danych Mateusz Kobos, 25.11.2009 Seminarium Metody Inteligencji Obliczeniowej 1/25 Spis treści Dolne ograniczenie na wsp.
Bardziej szczegółowoWstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak
Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak 1 Wprowadzenie. Zmienne losowe Podczas kursu interesować nas będzie wnioskowanie o rozpatrywanym zjawisku. Poprzez wnioskowanie rozumiemy
Bardziej szczegółowoAlgorytmy klasyfikacji
Algorytmy klasyfikacji Konrad Miziński Instytut Informatyki Politechnika Warszawska 6 maja 2015 1 Wnioskowanie 2 Klasyfikacja Zastosowania 3 Drzewa decyzyjne Budowa Ocena jakości Przycinanie 4 Lasy losowe
Bardziej szczegółowoTechniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I
Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:
Bardziej szczegółowoFuzja sygnałów i filtry bayesowskie
Fuzja sygnałów i filtry bayesowskie Roboty Manipulacyjne i Mobilne dr inż. Janusz Jakubiak Katedra Cybernetyki i Robotyki Wydział Elektroniki, Politechnika Wrocławska Wrocław, 10.03.2015 Dlaczego potrzebna
Bardziej szczegółowoKlasyfikator. ˆp(k x) = 1 K. I(ρ(x,x i ) ρ(x,x (K) ))I(y i =k),k =1,...,L,
Klasyfikator Jedną z najistotniejszych nieparametrycznych metod klasyfikacji jest metoda K-najbliższych sąsiadów, oznaczana przez K-NN. W metodzie tej zaliczamy rozpoznawany obiekt do tej klasy, do której
Bardziej szczegółowoElementy modelowania matematycznego
Elementy modelowania matematycznego Modelowanie algorytmów klasyfikujących. Podejście probabilistyczne. Naiwny klasyfikator bayesowski. Modelowanie danych metodą najbliższych sąsiadów. Jakub Wróblewski
Bardziej szczegółowo8. Drzewa decyzyjne, bagging, boosting i lasy losowe
Algorytmy rozpoznawania obrazów 8. Drzewa decyzyjne, bagging, boosting i lasy losowe dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Drzewa decyzyjne Drzewa decyzyjne (ang. decision trees), zwane
Bardziej szczegółowoAnaliza zawartości dokumentów za pomocą probabilistycznych modeli graficznych
Analiza zawartości dokumentów za pomocą probabilistycznych modeli graficznych Probabilistic Topic Models Jakub M. TOMCZAK Politechnika Wrocławska, Instytut Informatyki 30.03.2011, Wrocław Plan 1. Wstęp
Bardziej szczegółowoRILL - przyrostowy klasyfikator regułowy uczący się ze zmiennych środowisk
Wprowadzenie RILL - przyrostowy klasyfikator regułowy uczący się ze zmiennych środowisk Magdalena Deckert Politechnika Poznańska, Instytut Informatyki Seminarium ISWD, 21.05.2013 M. Deckert Przyrostowy
Bardziej szczegółowoRozpoznawanie obrazów
Rozpoznawanie obrazów Ćwiczenia lista zadań nr 7 autorzy: A. Gonczarek, J.M. Tomczak Przykładowe problemy Klasyfikacja binarna Dla obrazu x zaproponowano dwie cechy φ(x) = (φ 1 (x) φ 2 (x)) T. Na obrazie
Bardziej szczegółowoRozmyte drzewa decyzyjne. Łukasz Ryniewicz Metody inteligencji obliczeniowej
µ(x) x µ(x) µ(x) x x µ(x) µ(x) x x µ(x) x µ(x) x Rozmyte drzewa decyzyjne Łukasz Ryniewicz Metody inteligencji obliczeniowej 21.05.2007 AGENDA 1 Drzewa decyzyjne kontra rozmyte drzewa decyzyjne, problemy
Bardziej szczegółowoDeep Learning na przykładzie Deep Belief Networks
Deep Learning na przykładzie Deep Belief Networks Jan Karwowski Zakład Sztucznej Inteligencji i Metod Obliczeniowych Wydział Matematyki i Nauk Informacyjnych PW 20 V 2014 Jan Karwowski (MiNI) Deep Learning
Bardziej szczegółowoWybrane zagadnienia uczenia maszynowego. Zastosowania Informatyki w Informatyce W2 Krzysztof Krawiec
Wybrane zagadnienia uczenia maszynowego Zastosowania Informatyki w Informatyce W2 Krzysztof Krawiec Przygotowane na podstawie T. Mitchell, Machine Learning S.J. Russel, P. Norvig, Artificial Intelligence
Bardziej szczegółowoWYKŁAD 3. Klasyfikacja: modele probabilistyczne
Wrocław University of Technology WYKŁAD 3 Klasyfikacja: modele probabilistyczne Maciej Zięba Politechnika Wrocławska Klasyfikacja Klasyfikacja (ang. Classification): Dysponujemy obserwacjami z etykietami
Bardziej szczegółowoMetody probabilistyczne klasyfikatory bayesowskie
Konwersatorium Matematyczne Metody Ekonomii narzędzia matematyczne w eksploracji danych First Prev Next Last Go Back Full Screen Close Quit Metody probabilistyczne klasyfikatory bayesowskie Wykład 8 Marcin
Bardziej szczegółowoAlgorytmy metaheurystyczne Wykład 11. Piotr Syga
Algorytmy metaheurystyczne Wykład 11 Piotr Syga 22.05.2017 Drzewa decyzyjne Idea Cel Na podstawie przesłanek (typowo zbiory rozmyte) oraz zbioru wartości w danych testowych, w oparciu o wybrane miary,
Bardziej szczegółowoWprowadzenie. Data Science Uczenie się pod nadzorem
Wprowadzenie Wprowadzenie Wprowadzenie Wprowadzenie Machine Learning Mind Map Historia Wstęp lub uczenie się z przykładów jest procesem budowy, na bazie dostępnych danych wejściowych X i oraz wyjściowych
Bardziej szczegółowoEntropia Renyi ego, estymacja gęstości i klasyfikacja
Entropia Renyi ego, estymacja gęstości i klasyfikacja Wojciech Czarnecki Jacek Tabor 6 lutego 2014 1 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 1/36 36 2 / Wojciech Czarnecki,
Bardziej szczegółowoTestowanie hipotez statystycznych
9 października 2008 ...czyli definicje na rozgrzewkę n-elementowa próba losowa - wektor n zmiennych losowych (X 1,..., X n ); intuicyjnie: wynik n eksperymentów realizacja próby (X 1,..., X n ) w ω Ω :
Bardziej szczegółowoTablica Wzorów Rachunek Prawdopodobieństwa i Statystyki
Tablica Wzorów Rachunek Prawdopodobieństwa i Statystyki Spis treści I. Wzory ogólne... 2 1. Średnia arytmetyczna:... 2 2. Rozstęp:... 2 3. Kwantyle:... 2 4. Wariancja:... 2 5. Odchylenie standardowe:...
Bardziej szczegółowoSYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.
SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska INFORMACJE WSTĘPNE Hipotezy do uczenia się lub tworzenia
Bardziej szczegółowoMetody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 2 Detekcja twarzy autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się algorytmem gradientu prostego
Bardziej szczegółowoWidzenie komputerowe (computer vision)
Widzenie komputerowe (computer vision) dr inż. Marcin Wilczewski 2018/2019 Organizacja zajęć Tematyka wykładu Cele Python jako narzędzie uczenia maszynowego i widzenia komputerowego. Binaryzacja i segmentacja
Bardziej szczegółowoSPOTKANIE 9: Metody redukcji wymiarów
Wrocław University of Technology SPOTKANIE 9: Metody redukcji wymiarów Piotr Klukowski* Studenckie Koło Naukowe Estymator piotr.klukowski@pwr.wroc.pl 08.12.2015 *Część slajdów pochodzi z prezentacji dr
Bardziej szczegółowoPlanowanie przejazdu przez zbiór punktów. zadania zrobotyzowanej inspekcji
dla zadania zrobotyzowanej inspekcji Katedra Sterowania i Inżynierii Systemów, Politechnika Poznańska 3 lipca 2014 Plan prezentacji 1 Wprowadzenie 2 3 4 Postawienie problemu Założenia: Rozpatrujemy kinematykę
Bardziej szczegółowoOptymalizacja systemów
Optymalizacja systemów Laboratorium - problem detekcji twarzy autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, P. Klukowski Cel zadania Celem zadania jest zapoznanie się z gradientowymi algorytmami optymalizacji
Bardziej szczegółowoZastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań
Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW
Bardziej szczegółowoMetody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 3 Detekcja twarzy autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, M. Zięba Cel zadania Celem zadania jest zaimplementowanie algorytmów
Bardziej szczegółowoSPOTKANIE 4: Klasyfikacja: Regresja logistyczna
Wrocław University of Technology SPOTKANIE 4: Klasyfikacja: Regresja logistyczna Szymon Zaręba Studenckie Koło Naukowe Estymator 179226@student.pwr.wroc.pl 23.11.2012 Rozkład dwupunktowy i dwumianowy Rozkład
Bardziej szczegółowoSystemy agentowe. Uwagi organizacyjne i wprowadzenie. Jędrzej Potoniec
Systemy agentowe Uwagi organizacyjne i wprowadzenie Jędrzej Potoniec Kontakt mgr inż. Jędrzej Potoniec Jedrzej.Potoniec@cs.put.poznan.pl http://www.cs.put.poznan.pl/jpotoniec https://github.com/jpotoniec/sa
Bardziej szczegółowoZrównoleglona optymalizacja stochastyczna na dużych zbiorach danych
Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych mgr inż. C. Dendek prof. nzw. dr hab. J. Mańdziuk Politechnika Warszawska, Wydział Matematyki i Nauk Informacyjnych Outline 1 Uczenie
Bardziej szczegółowoIdentyfikacja istotnych atrybutów za pomocą Baysowskich miar konfirmacji
Identyfikacja istotnych atrybutów za pomocą Baysowskich miar konfirmacji Jacek Szcześniak Jerzy Błaszczyński Roman Słowiński Poznań, 5.XI.2013r. Konspekt Wstęp Wprowadzenie Metody typu wrapper Nowe metody
Bardziej szczegółowoMETODY STATYSTYCZNE W BIOLOGII
METODY STATYSTYCZNE W BIOLOGII 1. Wykład wstępny 2. Populacje i próby danych 3. Testowanie hipotez i estymacja parametrów 4. Planowanie eksperymentów biologicznych 5. Najczęściej wykorzystywane testy statystyczne
Bardziej szczegółowoDyskretne procesy stacjonarne o nieskończonej entropii nadwyżkowej
Dyskretne procesy stacjonarne o nieskończonej entropii nadwyżkowej Łukasz Dębowski ldebowsk@ipipan.waw.pl i Instytut Podstaw Informatyki PAN Co to jest entropia nadwyżkowa? Niech (X i ) i Z będzie procesem
Bardziej szczegółowoKlasyfikator liniowy Wstęp Klasyfikator liniowy jest najprostszym możliwym klasyfikatorem. Zakłada on liniową separację liniowy podział dwóch klas między sobą. Przedstawia to poniższy rysunek: 5 4 3 2
Bardziej szczegółowoPattern Classification
Pattern Classification All materials in these slides were taken from Pattern Classification (2nd ed) by R. O. Duda, P. E. Hart and D. G. Stork, John Wiley & Sons, 2000 with the permission of the authors
Bardziej szczegółowo6. Perceptron Rosenblatta
6. Perceptron Rosenblatta 6-1 Krótka historia perceptronu Rosenblatta 6-2 Binarne klasyfikatory liniowe 6-3 Struktura perceptronu Rosenblatta 6-4 Perceptron Rosenblatta a klasyfikacja 6-5 Perceptron jednowarstwowy:
Bardziej szczegółowomgr inż. Magdalena Deckert Poznań, r. Uczenie się klasyfikatorów przy zmieniającej się definicji klas.
mgr inż. Magdalena Deckert Poznań, 01.06.2010r. Uczenie się klasyfikatorów przy zmieniającej się definicji klas. Plan prezentacji Wstęp Concept drift Typy zmian Podział algorytmów stosowanych w uczeniu
Bardziej szczegółowoRozpoznawanie obrazów
Rozpoznawanie obrazów Laboratorium Python Zadanie nr 3 Regresja logistyczna autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, M. Zięba, J. Kaczmar Cel zadania Celem zadania jest zaimplementowanie modelu
Bardziej szczegółowoSPOTKANIE 11: Reinforcement learning
Wrocław University of Technology SPOTKANIE 11: Reinforcement learning Adam Gonczarek Studenckie Koło Naukowe Estymator adam.gonczarek@pwr.edu.pl 19.01.2016 Uczenie z nadzorem (ang. supervised learning)
Bardziej szczegółowoTomasz Pawlak. Zastosowania Metod Inteligencji Obliczeniowej
1 Zastosowania Metod Inteligencji Obliczeniowej Tomasz Pawlak 2 Plan prezentacji Sprawy organizacyjne Wprowadzenie do metod inteligencji obliczeniowej Studium wybranych przypadków zastosowań IO 3 Dane
Bardziej szczegółowoMETODY ESTYMACJI PUNKTOWEJ. nieznanym parametrem (lub wektorem parametrów). Przez X będziemy też oznaczać zmienną losową o rozkładzie
METODY ESTYMACJI PUNKTOWEJ X 1,..., X n - próbka z rozkładu P θ, θ Θ, θ jest nieznanym parametrem (lub wektorem parametrów). Przez X będziemy też oznaczać zmienną losową o rozkładzie P θ. Definicja. Estymatorem
Bardziej szczegółowoZastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym
Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW 17 XII 2013 Jan Karwowski
Bardziej szczegółowoKomitety sieci konwolucyjnych w zagadnieniu klasyfikacji przy jednoczesnym zaszumieniu danych wejściowych oraz etykiet klas. Stanisław Kaźmierczak
Komitety sieci konwolucyjnych w zagadnieniu klasyfikacji przy jednoczesnym zaszumieniu danych wejściowych oraz etykiet klas Stanisław Kaźmierczak Szum i jego rodzaje Źródła szumu Model Architektura sieci
Bardziej szczegółowoMetody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 2 autorzy: A. Gonczarek, J.M. Tomczak Metody estymacji Zad. 1 Pojawianie się spamu opisane jest zmienną losową x o rozkładzie dwupunktowym
Bardziej szczegółowoKombinacja jądrowych estymatorów gęstości w klasyfikacji - zastosowanie na sztucznym zbiorze danych
Kombinacja jądrowych estymatorów gęstości w klasyfikacji - zastosowanie na sztucznym zbiorze danych Mateusz Kobos, 07.04.2010 Seminarium Metody Inteligencji Obliczeniowej Spis treści Opis algorytmu i zbioru
Bardziej szczegółowoKlasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV
Klasyfikatory: k-nn oraz naiwny Bayesa Agnieszka Nowak Brzezińska Wykład IV Naiwny klasyfikator Bayesa Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną
Bardziej szczegółowoEstymacja gęstości prawdopodobieństwa metodą selekcji modelu
Estymacja gęstości prawdopodobieństwa metodą selekcji modelu M. Wojtyś Wydział Matematyki i Nauk Informacyjnych Politechnika Warszawska Wisła, 7 grudnia 2009 Wstęp Próba losowa z rozkładu prawdopodobieństwa
Bardziej szczegółowoStatystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory
Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory Dr Anna ADRIAN Paw B5, pok 407 adrian@tempus.metal.agh.edu.pl
Bardziej szczegółowo1 Klasyfikator bayesowski
Klasyfikator bayesowski Załóżmy, że dane są prawdopodobieństwa przynależności do klasp( ),P( 2 ),...,P( L ) przykładów z pewnego zadania klasyfikacji, jak również gęstości rozkładów prawdopodobieństw wystąpienia
Bardziej szczegółowoZastosowania metod odkrywania wiedzy do diagnostyki maszyn i procesów
Zastosowania metod odkrywania wiedzy do diagnostyki maszyn i procesów Wojciech Moczulski Politechnika Śląska Katedra Podstaw Konstrukcji Maszyn Sztuczna inteligencja w automatyce i robotyce Zielona Góra,
Bardziej szczegółowoMETODY INŻYNIERII WIEDZY
METODY INŻYNIERII WIEDZY WALIDACJA KRZYŻOWA dla ZAAWANSOWANEGO KLASYFIKATORA KNN ĆWICZENIA Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej
Bardziej szczegółowoSTATYSTYKA MATEMATYCZNA
STATYSTYKA MATEMATYCZNA 1. Wykład wstępny. Teoria prawdopodobieństwa i elementy kombinatoryki 2. Zmienne losowe i ich rozkłady 3. Populacje i próby danych, estymacja parametrów 4. Testowanie hipotez 5.
Bardziej szczegółowoUczenie sieci neuronowych i bayesowskich
Wstęp do metod sztucznej inteligencji www.mat.uni.torun.pl/~piersaj 2009-01-22 Co to jest neuron? Komputer, a mózg komputer mózg Jednostki obliczeniowe 1-4 CPU 10 11 neuronów Pojemność 10 9 b RAM, 10 10
Bardziej szczegółowoMETODY INŻYNIERII WIEDZY
METODY INŻYNIERII WIEDZY Metoda K Najbliższych Sąsiadów K-Nearest Neighbours (KNN) ĆWICZENIA Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej
Bardziej szczegółowoWIELOKRYTERIALNE PORZĄDKOWANIE METODĄ PROMETHEE ODPORNE NA ZMIANY WAG KRYTERIÓW
Uniwersytet Ekonomiczny we Wrocławiu WIELOKRYTERIALNE PORZĄDKOWANIE METODĄ PROMETHEE ODPORNE NA ZMIANY WAG KRYTERIÓW Wprowadzenie Wrażliwość wyników analizy wielokryterialnej na zmiany wag kryteriów, przy
Bardziej szczegółowoWprowadzenie. { 1, jeżeli ˆr(x) > 0, pozatym. Regresja liniowa Regresja logistyczne Jądrowe estymatory gęstości. Metody regresyjne
Wprowadzenie Prostym podejściem do klasyfikacji jest estymacja funkcji regresji r(x) =E(Y X =x)zpominięciemestymacjigęstościf k. Zacznijmyodprzypadkudwóchgrup,tj.gdy Y = {1,0}. Wówczasr(x) =P(Y =1 X =x)ipouzyskaniuestymatora
Bardziej szczegółowomgr inż. Magdalena Deckert Poznań, r. Metody przyrostowego uczenia się ze strumieni danych.
mgr inż. Magdalena Deckert Poznań, 30.11.2010r. Metody przyrostowego uczenia się ze strumieni danych. Plan prezentacji Wstęp Concept drift i typy zmian Algorytmy przyrostowego uczenia się ze strumieni
Bardziej szczegółowoSPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization
Wrocław University of Technology SPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization Jakub M. Tomczak Studenckie Koło Naukowe Estymator jakub.tomczak@pwr.wroc.pl 4.1.213 Klasteryzacja Zmienne
Bardziej szczegółowoAlgorytmy decyzyjne będące alternatywą dla sieci neuronowych
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny
Bardziej szczegółowoTemat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE
Temat: Sztuczne Sieci Neuronowe Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Sztuczne sieci neuronowe
Bardziej szczegółowoKlasyfikacja z milionami etykiet
Klasyfikacja z milionami etykiet Krzysztof Dembczyński Zakład Inteligentnych Systemów Wspomagania Decyzji Politechnika Poznańska Big Data: Przetwarzanie i eksploracja Poznań, 22 kwietnia 2016 r. Geoff
Bardziej szczegółowoData Mining Wykład 5. Indukcja drzew decyzyjnych - Indeks Gini & Zysk informacyjny. Indeks Gini. Indeks Gini - Przykład
Data Mining Wykład 5 Indukcja drzew decyzyjnych - Indeks Gini & Zysk informacyjny Indeks Gini Popularnym kryterium podziału, stosowanym w wielu produktach komercyjnych, jest indeks Gini Algorytm SPRINT
Bardziej szczegółowoAnaliza danych. http://zajecia.jakubw.pl/ TEMATYKA PRZEDMIOTU
Analiza danych Wstęp Jakub Wróblewski jakubw@pjwstk.edu.pl http://zajecia.jakubw.pl/ TEMATYKA PRZEDMIOTU Różne aspekty analizy danych Reprezentacja graficzna danych Metody statystyczne: estymacja parametrów
Bardziej szczegółowoPróba wykorzystania podejścia wielomodelowego w klasyfikacji jednostek samorządowych
Jacek Batóg Uniwersytet Szczeciński Próba wykorzystania podejścia wielomodelowego w klasyfikacji jednostek samorządowych Agregacja wyników uzyskiwanych w odrębnych badaniach, często również przy pomocy
Bardziej szczegółowoKombinacja jądrowych estymatorów gęstości w klasyfikacji wstępne wyniki
Kombinacja jądrowych estymatorów gęstości w klasyfikacji wstępne wyniki Mateusz Kobos, 10.12.2008 Seminarium Metody Inteligencji Obliczeniowej 1/46 Spis treści Działanie algorytmu Uczenie Odtwarzanie/klasyfikacja
Bardziej szczegółowoRozszerzenia klasyfikatorów złożonych dla danych niezrównoważonych
klasyfikatorów złożonych dla danych niezrównoważonych Marcin Szajek Politechnika Poznańska, Instytut Informatyki 23.04.2013 Marcin Szajek Rozsz. klas. złoż. dla danych niezrównoważonych 1 / 30 Plan prezentacji
Bardziej szczegółowoSztuczna inteligencja : Algorytm KNN
Instytut Informatyki Uniwersytetu Śląskiego 23 kwietnia 2012 1 Algorytm 1 NN 2 Algorytm knn 3 Zadania Klasyfikacja obiektów w oparciu o najbliższe obiekty: Algorytm 1-NN - najbliższego sąsiada. Parametr
Bardziej szczegółowo