Entropia Renyi ego, estymacja gęstości i klasyfikacja

Wielkość: px
Rozpocząć pokaz od strony:

Download "Entropia Renyi ego, estymacja gęstości i klasyfikacja"

Transkrypt

1 Entropia Renyi ego, estymacja gęstości i klasyfikacja Wojciech Czarnecki Jacek Tabor 6 lutego / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 1/36 36

2 2 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 2/36 36

3 Przypomnienie Entropia i Dywergencja Cauchy ego Schwarza D cs (f, g) = log Jądrowa estymacja gęstości f 2 + log g 2 2 log fg f X (x) = 1 X n i=1 Silverman s rule (dla k = 1!) K σx (x X i ) = 1 X σ X (4/3) 1/5 X 1/5 std(x) n N(X i, σx)(x) 2 i=1 3 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 3/36 36

4 Idea Mamy dane X, Y R d Będziemy szukać takiego v R d, żeby po zrzutowaniu na v nasze dane miały możliwie dużą dywergencję maximize v R d D cs ([X] v, [Y ] v ) n N ( v, Z i, σz), 2 Z {X, Y }, i=1 σ Z = (4/3) 1/5 Z 1/5 std( v, Z ), Z {X, Y } where [Z] v = 1 Z Klasyfikowanie punktu x będzie odbywać się poprzez wybor większej gęstości: m(x; v) = arg max [Z] v(x) Z {X,Y } 4 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 4/36 36

5 Przykład Toy dataset gaussmp4 5 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 5/36 36

6 Przykład 2 trianglemp4 6 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 6/36 36

7 XOR Jeden krok dalej xormp4 7 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 7/36 36

8 Plan prezentacji (w najgorszym razie na 2 tygodnie :-)) 1 Umiejscowienie modelu w uczeniu maszynowym 2 Modele liniowe, wymiar VC i Structural risk minimization 3 Nasz model a SVM 4 Jawna postać dywergencji 5 Gradientowa optymalizacja na sferze 6 Aspekty algorytmiczne i wydajnościowe 7 Ewaluacja 8 Co dalej? 8 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 8/36 36

9 Co to znaczy, że model jest dobry? Czy nasz model jest dobry? Po co nam kolejny model? 9 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 9/36 36

10 Klasyfikacja liniowa m w : R d { 1, +1} m w (x) = m(x; w) = sgn( w, x + b) LDA Perceptron SVM Regresja logistyczna Naive Bayes 10 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 10/36 36

11 Klasyfikacja liniowa m w : R d { 1, +1} m w (x) = m(x; w) = sgn( w, x + b) LDA Perceptron SVM Regresja logistyczna Naive Bayes Separacja czy rzutowanie? Klasyfikacja liniowa to jest rzutowanie na hiperpłaszczyznę i wybieranie punktu podziału To są rownoważne wypowiedzenia dokładnie tego samego zjawiska 10 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 10/36 36

12 Moc modelu Założenia: mamy dany model m parametryzowany w dane uczące T = {(x i, y i )} k są wybrane iid z pewnego rozkładu f przyszłe dane testujące rownież pochodzić będą z f [ ] R(w) 1 = E 2 y m(x; w) Ryzyko, prawdopodobieństwo błędu na zbiorze testującym 11 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 11/36 36

13 Moc modelu [ ] 1 R(w) = E 2 y m(x; w) R emp (w) = 1 T T i=1 1 2 y i m(x i ; w) 12 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 12/36 36

14 Moc modelu [ ] 1 R(w) = E 2 y m(x; w) Vapnik R emp (w) = 1 T T i=1 1 2 y i m(x i ; w) Z prawdopodobieństwem conajmniej 1 η ḣ (log(2 T / ḣ )+1) log(η/4) R(w) R emp (w) + T 12 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 12/36 36

15 Moc modelu [ ] 1 R(w) = E 2 y m(x; w) Vapnik R emp (w) = 1 T T i=1 1 2 y i m(x i ; w) Z prawdopodobieństwem conajmniej 1 η ḣ (log(2 T / ḣ )+1) log(η/4) R(w) R emp (w) + T wymiar Vapnika-Chervonenkisa 12 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 12/36 36

16 Wymiar VC Rozproszenie (shattering) Model może rozproszyć zbior punktow x 1,, x t wtw gdy dla każdego etykietowania tych punktow istnieje taki zbior parametrow, że model klasyfikuje je bezbłednie S(m, x) y { 1,+1} t w i {1,,t} m(x i ; w) = y i 13 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 13/36 36

17 Wymiar VC Rozproszenie (shattering) Model może rozproszyć zbior punktow x 1,, x t wtw gdy dla każdego etykietowania tych punktow istnieje taki zbior parametrow, że model klasyfikuje je bezbłednie S(m, x) y { 1,+1} t w i {1,,t} m(x i ; w) = y i m(x; w) = sgn( w, x + b) 13 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 13/36 36

18 Wymiar VC Rozproszenie (shattering) Model może rozproszyć zbior punktow x 1,, x t wtw gdy dla każdego etykietowania tych punktow istnieje taki zbior parametrow, że model klasyfikuje je bezbłednie S(m, x) y { 1,+1} t w i {1,,t} m(x i ; w) = y i m(x; w) = sgn( w, x + b) 13 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 13/36 36

19 Wymiar VC Wymiar VC Wymiar VC modelu m to największe takie h, że istnieje takie ułożenie h punktow, że m może je rozproszyć V C(m) = max X R d X = h S(m, X) h 14 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 14/36 36

20 Wymiar VC Model liniowy sgn( w, x + b) na płaszczyznie 3 15 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 15/36 36

21 Wymiar VC Model liniowy sgn( w, x + b) na płaszczyznie 3 w R d : 15 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 15/36 36

22 Wymiar VC Model liniowy sgn( w, x + b) na płaszczyznie 3 w R d : d / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 15/36 36

23 Wymiar VC Model liniowy sgn( w, x + b) na płaszczyznie 3 w R d : d + 1 Czemu w takim razie jedne modele liniowe lepiej generalizują a drugie gorzej? 15 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 15/36 36

24 SVM przypomnienie 1 minimize w,b 2 w 2 subject to y i ( w, x i b) 1, i = 1,, T M = 2 w D = 2 max x i x i 16 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 16/36 36

25 SVM gap tolerant classifier M = 2 w D = 2 max x i x i 17 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 17/36 36

26 Gap Tolerant Classifier M = 2 w D = 2 max x i x i { } D 2 V C(m, d, D, M) min, d + 1 M 2 { } = min (max x i ) 2 w 2, d + 1 i 18 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 18/36 36

27 SVM Gap Tolerant Classifier Maszyna Wektorow Nośnych minimize w,b 1 2 w 2 + C T ξ i i subject to y i ( w, x i b) 1 ξ i, i = 1,, T { } V C(m, d, D, M) min (max x i ) 2 w 2, d + 1 i (przy C ) stara sie rozdzielić dane (minimalizuje R emp ) - Empirical Risk Minimization 19 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 19/36 36

28 SVM Gap Tolerant Classifier Maszyna Wektorow Nośnych minimize w,b 1 2 w 2 + C T ξ i i subject to y i ( w, x i b) 1 ξ i, i = 1,, T { } V C(m, d, D, M) min (max x i ) 2 w 2, d + 1 i (przy C ) stara sie rozdzielić dane (minimalizuje R emp ) - Empirical Risk Minimization maksymalizuje margines, w konsekwencji zmniejszając wymiar VC i złożoność (geometryczną) modelu (minimalizacja R) - Structural Risk Minimization 19 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 19/36 36

29 Wymiar VC wnioski Dobry klasyfikator to taki, ktory rownoważy dwa czynniki: zdolność do odwzorowania danych uczących (empirical risk) złożoność modelu (regularyzacja) Jedną z metod regularyzacji jest ograniczanie rodziny hipotez H z ktorej pochodzą nasze modele m (np poprzez ograniczenie geometryczne w konstrukcji SVM) 20 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 20/36 36

30 Nasz model a SVM Wbrew pozorom, nasze podejście ma sporo wspolnego z maszyną wektorow nośnych Przy σ X 0 rozwiązanie dane przez SVM jest maksimm [proof needed] lokalnym D cs ([X] v, [Y ] v ) Dokonujemy Structural Risk Minimization 21 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 21/36 36

31 Nasz model a SVM Wbrew pozorom, nasze podejście ma sporo wspolnego z maszyną wektorow nośnych Przy σ X 0 rozwiązanie dane przez SVM jest maksimm [proof needed] lokalnym D cs ([X] v, [Y ] v ) Dokonujemy Structural Risk Minimization ale są i istotne rożnice Rozpatrujemy inną rodzinę hipotez H Inaczej realizujemy pojęcie Structural 21 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 21/36 36

32 Nasz model a uczenie maszynowe Klasyfikator liniowy: m(x; w) = sgn( w, x + b) 22 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 22/36 36

33 Nasz model a uczenie maszynowe Klasyfikator liniowy: m(x; w) = sgn( w, x + b) k-progowa klasyfikacja liniowa m(x; w, k) = { 1, if 2 t +1, if 2 t gdzie w, x (b t, b t+1 ), b 0 =, b k+1 = 22 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 22/36 36

34 Nasz model a uczenie maszynowe Klasyfikator liniowy: m(x; w) = sgn( w, x + b) k-progowa klasyfikacja liniowa m(x; w, k) = { 1, if 2 t +1, if 2 t gdzie w, x (b t, b t+1 ), b 0 =, b k+1 = m(x; w) = m(x; w, 1) 22 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 22/36 36

35 k-progowa klasyfikacja liniowa Rysunek : The Capacity of Multilevel Threshold Functions; Olafsson 23 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 23/36 36

36 Zagadka Ile wynosi wymiar VC k-progowych klasyfikatorow liniowych? w R: 24 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 24/36 36

37 Zagadka Ile wynosi wymiar VC k-progowych klasyfikatorow liniowych? w R: k + 1 w R d : 24 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 24/36 36

38 Zagadka Ile wynosi wymiar VC k-progowych klasyfikatorow liniowych? w R: k + 1 w R d : problem otwarty [solution needed] 24 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 24/36 36

39 Otwarte problemy teoretyczne k-progowych klasyfikatorow liniowych 2004 Ịle wynosi wymiar VC k-progowych klasyfikatorow liniowych? 2003 Czy problem znalezienia 2-progowego klasyfikatora liniowego (czy istnieje 2-progowa separacja danych) jest NP-kompletny? W przypadku fałszywosci powyższego Czy problem znalezienia k-progowego klasyfikatora liniowego (czy istnieje k-progowa separacja danych) jest NP-kompletny? 25 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 25/36 36

40 Blad generalizacji Anthony 2004 Dla k-progowego klasyfikatora liniowego nauczonego na zbiorze T R d { 1, +1} zachodzi z prawdopodobieństwem przynajmniej 1 η R(m) R emp (m) + G(T, d, k) G(T, d, k) = 8 ( (d + k 1) ln T Anthony 2004 ( ) 2e T k + ln d + k 1 ( )) 14k 2 Zachodzi też podobne twierdzenie dla k-progowego klasyfikatora liniowego maksymalizującego margines η 26 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 26/36 36

41 Rodzina hipotez H A co jesli k? 27 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 27/36 36

42 Rodzina hipotez H A co jesli k? m(x; w) = sgn(sin(w x)), w R V C(m) = np x i = 10 i, w = π ( i 1(1 y 2 i)10 i) 27 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 27/36 36

43 Rodzina hipotez H A co jesli k? m(x; w) = sgn(sin(w x)), w R V C(m) = np x i = 10 i, w = π ( i 1(1 y 2 i)10 i) Hipoteza Ṇasz model będzie trzymać w ryzach rozrost k 27 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 27/36 36

44 Rodzina hipotez H Maszyna wektorow nośnych: liniowa, K(x, y) = x, y, V C(m, d) = d / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 28/36 36

45 Rodzina hipotez H Maszyna wektorow nośnych: liniowa, K(x, y) = x, y, V C(m, d) = d + 1 wielomianowa, K(x, y) = (( x, y + c) ) p, d + p 1 V C(m, d, p) = O(d p ) + 1 p gaussa, K(x, y) = exp( γ x y 2 ), 28 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 28/36 36

46 Rodzina hipotez H Maszyna wektorow nośnych: liniowa, K(x, y) = x, y, V C(m, d) = d + 1 wielomianowa, K(x, y) = (( x, y + c) ) p, d + p 1 V C(m, d, p) = O(d p ) + 1 p gaussa, K(x, y) = exp( γ x y 2 ), V C(m, d) = 28 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 28/36 36

47 Rodzina hipotez H Maszyna wektorow nośnych: liniowa, K(x, y) = x, y, V C(m, d) = d + 1 wielomianowa, K(x, y) = (( x, y + c) ) p, d + p 1 V C(m, d, p) = O(d p ) + 1 p gaussa, K(x, y) = exp( γ x y 2 ), V C(m, d) = Nasza metoda: większa moc niż model liniowy 28 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 28/36 36

48 Rodzina hipotez H Maszyna wektorow nośnych: liniowa, K(x, y) = x, y, V C(m, d) = d + 1 wielomianowa, K(x, y) = (( x, y + c) ) p, d + p 1 V C(m, d, p) = O(d p ) + 1 p gaussa, K(x, y) = exp( γ x y 2 ), V C(m, d) = Nasza metoda: większa moc niż model liniowy istotnie mniejsza niż wielomianowy 28 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 28/36 36

49 Rodzina hipotez H Maszyna wektorow nośnych: liniowa, K(x, y) = x, y, V C(m, d) = d + 1 wielomianowa, K(x, y) = (( x, y + c) ) p, d + p 1 V C(m, d, p) = O(d p ) + 1 p gaussa, K(x, y) = exp( γ x y 2 ), V C(m, d) = Nasza metoda: większa moc niż model liniowy istotnie mniejsza niż wielomianowy wypełniamy lukę w klasie złożoności V C(mdk) =? = O(dk log k) 28 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 28/36 36

50 Jawna postać dywergencji Cauchy ego Schwarza D cs ([X] v, [Y ] v ) = log ip XX(v) + log ip Y Y (v) 2 log ip XY (v), ip 1 XY (v) = exp ( v, x y 2 ), 2πH XY (v) X Y 2H XY (v) H XY (v) = H X (v) + H Y (v) x X,y Y H X (v) = (4/3) 1/5 X 1/5 std( v, X ) 29 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 29/36 36

51 Nasz problem optymalizacyjny maximize v R d log ip XX(v) + log ip Y Y (v) 2 log ip XY (v) subject to v = 1 where ip AB(v) = N AB exp ( v, x y 2 ), 2(H A (v) + H B (v)) N AB = x A,y B 1 2π(H A (v) + H B (v)) A B, H Z (v) = (4/3) 1/5 Z 1/5 std( v, Z ) Z {X, Y } 30 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 30/36 36

52 Nasz problem optymalizacyjny Błąd na zbiorze uczącym maximize log ip XX(v) + log ip Y Y (v) 2 log ip XY (v) v R d subject to v = 1 where ip AB(v) = N AB N AB = x A,y B exp ( 1 2π(H A (v) + H B (v)) A B, v, x y 2 ), 2(H A (v) + H B (v)) H Z (v) = (4/3) 1/5 Z 1/5 std( v, Z ) Z {X, Y } Regularyzacja 31 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 31/36 36

53 Nasz problem optymalizacyjny interpretacja czynnikow log ip XX(v) + log ip Y Y (v) 2 log ip XY (v) czynnik regularyzacyjny prowadzi do minimalizacji k czynnik odpowiedzialny za minimalizację błędu stara sie maksymalizować margines (przy pewnych założeniach) 32 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 32/36 36

54 Nasz problem optymalizacyjny interpretacja czynnikow log ip XX(v) + log ip Y Y (v) 2 log ip XY (v) 33 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 33/36 36

55 Podsumowanie pierwszej części Nasz model buduje k-progowy klasyfikator liniowy 34 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 34/36 36

56 Podsumowanie pierwszej części Nasz model buduje k-progowy klasyfikator liniowy opiera sie o koncepcje entropii i estymacji gęstości 34 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 34/36 36

57 Podsumowanie pierwszej części Nasz model buduje k-progowy klasyfikator liniowy opiera sie o koncepcje entropii i estymacji gęstości jest w pewnym sensie zbliżony ideologicznie do SVM 34 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 34/36 36

58 Podsumowanie pierwszej części Nasz model buduje k-progowy klasyfikator liniowy opiera sie o koncepcje entropii i estymacji gęstości jest w pewnym sensie zbliżony ideologicznie do SVM realizuje zasadę Structural Risk Minimization 34 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 34/36 36

59 Podsumowanie pierwszej części Nasz model buduje k-progowy klasyfikator liniowy opiera sie o koncepcje entropii i estymacji gęstości jest w pewnym sensie zbliżony ideologicznie do SVM realizuje zasadę Structural Risk Minimization jest silnie zregularyzowany, w sposob jednorodny 34 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 34/36 36

60 Plan prezentacji przyszly tydzien 1 Umiejscowienie modelu w uczeniu maszynowym 2 Modele liniowe, wymiar VC i Structural risk minimization 3 Nasz model a SVM 4 Jawna postać dywergencji 5 Gradientowa optymalizacja na sferze 6 Aspekty algorytmiczne i wydajnościowe 7 Ewaluacja 8 Co dalej? 35 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 35/36 36

61 Dziekuję za uwagę Pytania? Propozycje? Idee? 36 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 36/36 36

62 Dziekuję za uwagę Pytania? Propozycje? Idee? Rozwiązania otwartych problemow? 36 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 36/36 36

Entropia Renyi ego, estymacja gęstości i klasyfikacja #2

Entropia Renyi ego, estymacja gęstości i klasyfikacja #2 Entropia Renyi ego, estymacja gęstości i klasyfikacja #2 Wojciech Czarnecki Jacek Tabor 13 lutego 2014 1 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 1/37 37 2 / Wojciech

Bardziej szczegółowo

5. Analiza dyskryminacyjna: FLD, LDA, QDA

5. Analiza dyskryminacyjna: FLD, LDA, QDA Algorytmy rozpoznawania obrazów 5. Analiza dyskryminacyjna: FLD, LDA, QDA dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Liniowe funkcje dyskryminacyjne Liniowe funkcje dyskryminacyjne mają ogólną

Bardziej szczegółowo

Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych

Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych mgr inż. C. Dendek prof. nzw. dr hab. J. Mańdziuk Politechnika Warszawska, Wydział Matematyki i Nauk Informacyjnych Outline 1 Uczenie

Bardziej szczegółowo

Wstęp do przetwarzania języka naturalnego. Wykład 11 Maszyna Wektorów Nośnych

Wstęp do przetwarzania języka naturalnego. Wykład 11 Maszyna Wektorów Nośnych Wstęp do przetwarzania języka naturalnego Wykład 11 Wojciech Czarnecki 8 stycznia 2014 Section 1 Przypomnienie Wektoryzacja tfidf Przypomnienie document x y z Antony and Cleopatra 5.25 1.21 1.51 Julius

Bardziej szczegółowo

Data Mining Wykład 6. Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa.

Data Mining Wykład 6. Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa. GLM (Generalized Linear Models) Data Mining Wykład 6 Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa Naiwny klasyfikator Bayesa jest klasyfikatorem statystycznym -

Bardziej szczegółowo

SVM: Maszyny Wektorów Podpieraja cych

SVM: Maszyny Wektorów Podpieraja cych SVM 1 / 24 SVM: Maszyny Wektorów Podpieraja cych Nguyen Hung Son Outline SVM 2 / 24 1 Wprowadzenie 2 Brak liniowej separowalności danych Nieznaczna nieseparowalność Zmiana przetrzeń atrybutów 3 Implementacja

Bardziej szczegółowo

Metody probabilistyczne klasyfikatory bayesowskie

Metody probabilistyczne klasyfikatory bayesowskie Konwersatorium Matematyczne Metody Ekonomii narzędzia matematyczne w eksploracji danych First Prev Next Last Go Back Full Screen Close Quit Metody probabilistyczne klasyfikatory bayesowskie Wykład 8 Marcin

Bardziej szczegółowo

Rozpoznawanie obrazów

Rozpoznawanie obrazów Rozpoznawanie obrazów Ćwiczenia lista zadań nr 7 autorzy: A. Gonczarek, J.M. Tomczak Przykładowe problemy Klasyfikacja binarna Dla obrazu x zaproponowano dwie cechy φ(x) = (φ 1 (x) φ 2 (x)) T. Na obrazie

Bardziej szczegółowo

Konstrukcja biortogonalnych baz dyskryminacyjnych dla problemu klasyfikacji sygnałów. Wit Jakuczun

Konstrukcja biortogonalnych baz dyskryminacyjnych dla problemu klasyfikacji sygnałów. Wit Jakuczun Konstrukcja biortogonalnych baz dyskryminacyjnych dla problemu klasyfikacji sygnałów Politechnika Warszawska Strona 1 Podstawowe definicje Politechnika Warszawska Strona 2 Podstawowe definicje Zbiór treningowy

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt

Bardziej szczegółowo

Zastosowania funkcji jądrowych do rozpoznawania ręcznie pisanych cyfr.

Zastosowania funkcji jądrowych do rozpoznawania ręcznie pisanych cyfr. Zastosowania funkcji jądrowych do rozpoznawania ręcznie pisanych cyfr. Warszawa, 10 Marca 2016 Plan prezentacji. Definicja funkcji jądrowej. Plan prezentacji. Definicja funkcji jądrowej. Opis problemu

Bardziej szczegółowo

7. Maszyny wektorów podpierajacych SVMs

7. Maszyny wektorów podpierajacych SVMs Algorytmy rozpoznawania obrazów 7. Maszyny wektorów podpierajacych SVMs dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Maszyny wektorów podpierajacych - SVMs Maszyny wektorów podpierających (ang.

Bardziej szczegółowo

komputery? Andrzej Skowron, Hung Son Nguyen Instytut Matematyki, Wydział MIM, UW

komputery? Andrzej Skowron, Hung Son Nguyen  Instytut Matematyki, Wydział MIM, UW Czego moga się nauczyć komputery? Andrzej Skowron, Hung Son Nguyen son@mimuw.edu.pl; skowron@mimuw.edu.pl Instytut Matematyki, Wydział MIM, UW colt.tex Czego mogą się nauczyć komputery? Andrzej Skowron,

Bardziej szczegółowo

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych

Bardziej szczegółowo

Wybór modelu i ocena jakości klasyfikatora

Wybór modelu i ocena jakości klasyfikatora Wybór modelu i ocena jakości klasyfikatora Błąd uczenia i błąd testowania Obciążenie, wariancja i złożoność modelu (klasyfikatora) Dekompozycja błędu testowania Optymizm Estymacja błędu testowania AIC,

Bardziej szczegółowo

Wprowadzenie. { 1, jeżeli ˆr(x) > 0, pozatym. Regresja liniowa Regresja logistyczne Jądrowe estymatory gęstości. Metody regresyjne

Wprowadzenie. { 1, jeżeli ˆr(x) > 0, pozatym. Regresja liniowa Regresja logistyczne Jądrowe estymatory gęstości. Metody regresyjne Wprowadzenie Prostym podejściem do klasyfikacji jest estymacja funkcji regresji r(x) =E(Y X =x)zpominięciemestymacjigęstościf k. Zacznijmyodprzypadkudwóchgrup,tj.gdy Y = {1,0}. Wówczasr(x) =P(Y =1 X =x)ipouzyskaniuestymatora

Bardziej szczegółowo

4.1. Wprowadzenie...70 4.2. Podstawowe definicje...71 4.3. Algorytm określania wartości parametrów w regresji logistycznej...74

4.1. Wprowadzenie...70 4.2. Podstawowe definicje...71 4.3. Algorytm określania wartości parametrów w regresji logistycznej...74 3 Wykaz najważniejszych skrótów...8 Przedmowa... 10 1. Podstawowe pojęcia data mining...11 1.1. Wprowadzenie...12 1.2. Podstawowe zadania eksploracji danych...13 1.3. Główne etapy eksploracji danych...15

Bardziej szczegółowo

Teoria systemów uczacych się i wymiar Vapnika-Chervonenkisa

Teoria systemów uczacych się i wymiar Vapnika-Chervonenkisa Systemy uczace się 2009 1 / 32 Teoria systemów uczacych się i wymiar Vapnika-Chervonenkisa Hung Son Nguyen Wydział Matematyki, Informatyki i Mechaniki Uniwersytet Warszawski email: son@mimuw.edu.pl Grudzień

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-10 Projekt pn. Wzmocnienie

Bardziej szczegółowo

Metody numeryczne. dr Artur Woike. Ćwiczenia nr 2. Rozwiązywanie równań nieliniowych metody połowienia, regula falsi i siecznych.

Metody numeryczne. dr Artur Woike. Ćwiczenia nr 2. Rozwiązywanie równań nieliniowych metody połowienia, regula falsi i siecznych. Ćwiczenia nr 2 metody połowienia, regula falsi i siecznych. Sformułowanie zagadnienia Niech będzie dane równanie postaci f (x) = 0, gdzie f jest pewną funkcją nieliniową (jeżeli f jest liniowa to zagadnienie

Bardziej szczegółowo

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. zajecia.jakubw.pl/nai Literatura: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym. WNT, Warszawa 997. PODSTAWOWE ZAGADNIENIA TECHNICZNE AI

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 4. UCZENIE SIĘ INDUKCYJNE Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska WSTĘP Wiedza pozyskana przez ucznia ma charakter odwzorowania

Bardziej szczegółowo

Metody numeryczne. Sformułowanie zagadnienia interpolacji

Metody numeryczne. Sformułowanie zagadnienia interpolacji Ćwiczenia nr 4. Sformułowanie zagadnienia interpolacji Niech będą dane punkty x 0,..., x n i wartości y 0,..., y n, takie że i=0,...,n y i = f (x i )). Szukamy funkcji F (funkcji interpolującej), takiej

Bardziej szczegółowo

Sieć przesyłająca żetony CP (counter propagation)

Sieć przesyłająca żetony CP (counter propagation) Sieci neuropodobne IX, specyficzne architektury 1 Sieć przesyłająca żetony CP (counter propagation) warstwa Kohonena: wektory wejściowe są unormowane jednostki mają unormowane wektory wag jednostki są

Bardziej szczegółowo

Maszyny wektorów podpierajacych w regresji rangowej

Maszyny wektorów podpierajacych w regresji rangowej Maszyny wektorów podpierajacych w regresji rangowej Uniwersytet Mikołaja Kopernika Z = (X, Y ), Z = (X, Y ) - niezależne wektory losowe o tym samym rozkładzie X X R d, Y R Z = (X, Y ), Z = (X, Y ) - niezależne

Bardziej szczegółowo

Oracle Data Mining 10g

Oracle Data Mining 10g Oracle Data Mining 10g Zastosowanie algorytmu Support Vector Machines do problemów biznesowych Piotr Hajkowski Oracle Consulting Agenda Podstawy teoretyczne algorytmu SVM SVM w bazie danych Klasyfikacja

Bardziej szczegółowo

Rozpoznawanie obrazów

Rozpoznawanie obrazów Rozpoznawanie obrazów Ćwiczenia lista zadań nr 5 autorzy: A. Gonczarek, J.M. Tomczak Przykładowe problemy Klasyfikacja binarna Dla obrazu x zaproponowano dwie cechy φ(x) = (φ 1 (x) φ 2 (x)) T. Na obrazie

Bardziej szczegółowo

Jądrowe klasyfikatory liniowe

Jądrowe klasyfikatory liniowe Jądrowe klasyfikatory liniowe Waldemar Wołyński Wydział Matematyki i Informatyki UAM Poznań Wisła, 9 grudnia 2009 Waldemar Wołyński () Jądrowe klasyfikatory liniowe Wisła, 9 grudnia 2009 1 / 19 Zagadnienie

Bardziej szczegółowo

Popularne klasyfikatory w pakietach komputerowych

Popularne klasyfikatory w pakietach komputerowych Popularne klasyfikatory w pakietach komputerowych Klasyfikator liniowy Uogólniony klasyfikator liniowy SVM aiwny klasyfikator bayesowski Ocena klasyfikatora ROC Lista popularnych pakietów Klasyfikator

Bardziej szczegółowo

Klasyfikacja LDA + walidacja

Klasyfikacja LDA + walidacja Klasyfikacja LDA + walidacja Dr hab. Izabela Rejer Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Plan wykładu 1. Klasyfikator 2. LDA 3. Klasyfikacja wieloklasowa 4. Walidacja

Bardziej szczegółowo

Uczenie sieci typu MLP

Uczenie sieci typu MLP Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik

Bardziej szczegółowo

WYKŁAD: Perceptron Rosenblatta. Maszyny wektorów podpierających (SVM). Empiryczne reguły bayesowskie. Zaawansowane Metody Uczenia Maszynowego

WYKŁAD: Perceptron Rosenblatta. Maszyny wektorów podpierających (SVM). Empiryczne reguły bayesowskie. Zaawansowane Metody Uczenia Maszynowego WYKŁAD: Perceptron Rosenblatta. Maszyny wektorów podpierających (SVM). Empiryczne reguły bayesowskie Zaawansowane Metody Uczenia Maszynowego Perceptron Rosenblatta Szukamy hiperpłaszczyzny β 0 + β 1 najlepiej

Bardziej szczegółowo

IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych,

IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych, IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. Definicja 1.1. Niech D będzie podzbiorem przestrzeni R n, n 2. Odwzorowanie f : D R nazywamy

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline. Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 211-1-18 1 Pomysł Przykłady Zastosowanie 2

Bardziej szczegółowo

Metody eksploracji danych 2. Metody regresji. Piotr Szwed Katedra Informatyki Stosowanej AGH 2017

Metody eksploracji danych 2. Metody regresji. Piotr Szwed Katedra Informatyki Stosowanej AGH 2017 Metody eksploracji danych 2. Metody regresji Piotr Szwed Katedra Informatyki Stosowanej AGH 2017 Zagadnienie regresji Dane: Zbiór uczący: D = {(x i, y i )} i=1,m Obserwacje: (x i, y i ), wektor cech x

Bardziej szczegółowo

Wstęp. Regresja logistyczna. Spis treści. Hipoteza. powrót

Wstęp. Regresja logistyczna. Spis treści. Hipoteza. powrót powrót Spis treści 1 Wstęp 2 Regresja logistyczna 2.1 Hipoteza 2.2 Estymacja parametrów 2.2.1 Funkcja wiarygodności 3 Uogólnione modele liniowe 3.1 Rodzina wykładnicza 3.1.1 Rozkład Bernouliego 3.1.2 Rozkład

Bardziej szczegółowo

Algorytmy metaheurystyczne Wykład 11. Piotr Syga

Algorytmy metaheurystyczne Wykład 11. Piotr Syga Algorytmy metaheurystyczne Wykład 11 Piotr Syga 22.05.2017 Drzewa decyzyjne Idea Cel Na podstawie przesłanek (typowo zbiory rozmyte) oraz zbioru wartości w danych testowych, w oparciu o wybrane miary,

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE. Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka ADALINE. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 218-1-15/22 Projekt pn.

Bardziej szczegółowo

Liczba godzin Punkty ECTS Sposób zaliczenia. ćwiczenia 16 zaliczenie z oceną

Liczba godzin Punkty ECTS Sposób zaliczenia. ćwiczenia 16 zaliczenie z oceną Wydział: Zarządzanie i Finanse Nazwa kierunku kształcenia: Finanse i Rachunkowość Rodzaj przedmiotu: podstawowy Opiekun: prof. nadzw. dr hab. Tomasz Kuszewski Poziom studiów (I lub II stopnia): II stopnia

Bardziej szczegółowo

Wojciech Skwirz

Wojciech Skwirz 1 Regularyzacja jako metoda doboru zmiennych objaśniających do modelu statystycznego. 2 Plan prezentacji 1. Wstęp 2. Część teoretyczna - Algorytm podziału i ograniczeń - Regularyzacja 3. Opis wyników badania

Bardziej szczegółowo

UCZENIE MASZYNOWE III - SVM. mgr inż. Adam Kupryjanow

UCZENIE MASZYNOWE III - SVM. mgr inż. Adam Kupryjanow UCZENIE MASZYNOWE III - SVM mgr inż. Adam Kupryjanow Plan wykładu Wprowadzenie LSVM dane separowalne liniowo SVM dane nieseparowalne liniowo Nieliniowy SVM Kernel trick Przykłady zastosowań Historia 1992

Bardziej szczegółowo

Quantile hedging. czyli jak tanio i dobrze zabezpieczyć opcję. Michał Krawiec, Piotr Piestrzyński

Quantile hedging. czyli jak tanio i dobrze zabezpieczyć opcję. Michał Krawiec, Piotr Piestrzyński czyli jak tanio i dobrze zabezpieczyć opcję Michał Krawiec Piotr Piestrzyński Koło Naukowe Probabilistyki i Statystyki Matematycznej Uniwersytet Wrocławski Niedziela, 19 kwietnia 2015 Przykład (opis problemu)

Bardziej szczegółowo

Entropia w klasyfikacji

Entropia w klasyfikacji Entropia w klasyfikacji Quadratic Renyi s Entropy: zastosowania w klasyfikacji Wojciech Czarnecki Jacek Tabor GMUM Kraków 2014 Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków 2014

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 2 autorzy: A. Gonczarek, J.M. Tomczak Metody estymacji Zad. 1 Pojawianie się spamu opisane jest zmienną losową x o rozkładzie dwupunktowym

Bardziej szczegółowo

Własności statystyczne regresji liniowej. Wykład 4

Własności statystyczne regresji liniowej. Wykład 4 Własności statystyczne regresji liniowej Wykład 4 Plan Własności zmiennych losowych Normalna regresja liniowa Własności regresji liniowej Literatura B. Hansen (2017+) Econometrics, Rozdział 5 Własności

Bardziej szczegółowo

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV Klasyfikatory: k-nn oraz naiwny Bayesa Agnieszka Nowak Brzezińska Wykład IV Naiwny klasyfikator Bayesa Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną

Bardziej szczegółowo

Elementy inteligencji obliczeniowej

Elementy inteligencji obliczeniowej Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego

Bardziej szczegółowo

Parametryczny koder mowy - wokoder. Synteza mowy w odbiorniku: d=1 - mowa dźwięczna (T 0 = okres tonu krtaniowego) d=0 - mowa bezdźwięczna

Parametryczny koder mowy - wokoder. Synteza mowy w odbiorniku: d=1 - mowa dźwięczna (T 0 = okres tonu krtaniowego) d=0 - mowa bezdźwięczna Paraeryczny koder owy - wokoder Syneza owy w odbiorniku: d=1 - owa dźwięczna T 0 = okres onu kraniowego d=0 - owa bezdźwięczna Wokoder nadajnik Eksrakcja onu kraniowego 1. Przebieg czasowy sygnału i błędu

Bardziej szczegółowo

Współczesna technika inwersyjna - dokad zmierzamy? Wojciech Dȩbski

Współczesna technika inwersyjna - dokad zmierzamy? Wojciech Dȩbski Współczesna technika inwersyjna - dokad zmierzamy? Wojciech Dȩbski 24.5.2 Pomiar bezpośredni IGF, 24.5.2 IGF - Pomiar pośredni IGF, 24.5.2 IGF - 2 Interpretacja matematyczna m m + dm m d + dd d = G(m)

Bardziej szczegółowo

Prognozowanie i Symulacje. Wykład I. Matematyczne metody prognozowania

Prognozowanie i Symulacje. Wykład I. Matematyczne metody prognozowania Prognozowanie i Symulacje. Wykład I. e-mail:e.kozlovski@pollub.pl Spis treści Szeregi czasowe 1 Szeregi czasowe 2 3 Szeregi czasowe Definicja 1 Szereg czasowy jest to proces stochastyczny z czasem dyskretnym

Bardziej szczegółowo

Uczenie sieci radialnych (RBF)

Uczenie sieci radialnych (RBF) Uczenie sieci radialnych (RBF) Budowa sieci radialnej Lokalne odwzorowanie przestrzeni wokół neuronu MLP RBF Budowa sieci radialnych Zawsze jedna warstwa ukryta Budowa neuronu Neuron radialny powinien

Bardziej szczegółowo

6. Perceptron Rosenblatta

6. Perceptron Rosenblatta 6. Perceptron Rosenblatta 6-1 Krótka historia perceptronu Rosenblatta 6-2 Binarne klasyfikatory liniowe 6-3 Struktura perceptronu Rosenblatta 6-4 Perceptron Rosenblatta a klasyfikacja 6-5 Perceptron jednowarstwowy:

Bardziej szczegółowo

Klasyfikator liniowy Wstęp Klasyfikator liniowy jest najprostszym możliwym klasyfikatorem. Zakłada on liniową separację liniowy podział dwóch klas między sobą. Przedstawia to poniższy rysunek: 5 4 3 2

Bardziej szczegółowo

1.7. Eksploracja danych: pogłębianie, przeszukiwanie i wyławianie

1.7. Eksploracja danych: pogłębianie, przeszukiwanie i wyławianie Wykaz tabel Wykaz rysunków Przedmowa 1. Wprowadzenie 1.1. Wprowadzenie do eksploracji danych 1.2. Natura zbiorów danych 1.3. Rodzaje struktur: modele i wzorce 1.4. Zadania eksploracji danych 1.5. Komponenty

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA

STATYSTYKA MATEMATYCZNA STATYSTYKA MATEMATYCZNA 1. Wykład wstępny. Teoria prawdopodobieństwa i elementy kombinatoryki 2. Zmienne losowe i ich rozkłady 3. Populacje i próby danych, estymacja parametrów 4. Testowanie hipotez 5.

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 3 Metody estymacji. Estymator największej wiarygodności Zad. 1 Pojawianie się spamu opisane jest zmienną losową y o rozkładzie zero-jedynkowym

Bardziej szczegółowo

Szacowanie optymalnego systemu Bonus-Malus przy pomocy Pseudo-MLE. Joanna Sawicka

Szacowanie optymalnego systemu Bonus-Malus przy pomocy Pseudo-MLE. Joanna Sawicka Szacowanie optymalnego systemu Bonus-Malus przy pomocy Pseudo-MLE Joanna Sawicka Plan prezentacji Model Poissona-Gamma ze składnikiem regresyjnym Konstrukcja optymalnego systemu Bonus- Malus Estymacja

Bardziej szczegółowo

Wprowadzenie do uczenia maszynowego

Wprowadzenie do uczenia maszynowego Wprowadzenie do uczenia maszynowego Agnieszka Ławrynowicz 12 stycznia 2017 Co to jest uczenie maszynowe? dziedzina nauki, która zajmuje się sprawianiem aby komputery mogły uczyć się bez ich zaprogramowania

Bardziej szczegółowo

Wykorzystanie lokalnej geometrii danych w Maszynie Wektorów No±nych

Wykorzystanie lokalnej geometrii danych w Maszynie Wektorów No±nych WM Czarnecki (GMUM) Lokalna geometria w SVM 13 Listopada 2013 1 / 26 Wykorzystanie lokalnej geometrii danych w Maszynie Wektorów No±nych Wojciech Marian Czarnecki Jacek Tabor GMUM Grupa Metod Uczenia Maszynowego

Bardziej szczegółowo

Predykcja i selekcja zmiennych w klasyfikacji z wieloma etykietami przy użyciu łańcuchów klasyfikatorów i sieci elastycznej

Predykcja i selekcja zmiennych w klasyfikacji z wieloma etykietami przy użyciu łańcuchów klasyfikatorów i sieci elastycznej Seminarium Poznań 2016 Predykcja i selekcja zmiennych w klasyfikacji z wieloma etykietami przy użyciu łańcuchów klasyfikatorów i sieci elastycznej Paweł Teisseyre Instytut Podstaw Informatyki PAN Plan

Bardziej szczegółowo

W ostatnim wykładzie doszliśmy do tego, że problem znalezienia klasyfikatora optymalnego pod względem marginesów można wyrazić w następujący sposób:

W ostatnim wykładzie doszliśmy do tego, że problem znalezienia klasyfikatora optymalnego pod względem marginesów można wyrazić w następujący sposób: Spis treści 1 Maszyny Wektorów Wspierających 2 1.1 SVM w formaliźmie Lagranga 1.2 Przejście do pstaci dualnej 1.2.1 Wyznaczenie parametrów modelu: 1.2.2 Klasyfikacja: 2 Funkcje jądrowe 2.1 Mapowanie do

Bardziej szczegółowo

Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak

Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak 1 Wprowadzenie. Zmienne losowe Podczas kursu interesować nas będzie wnioskowanie o rozpatrywanym zjawisku. Poprzez wnioskowanie rozumiemy

Bardziej szczegółowo

Elementy wspo łczesnej teorii inwersji

Elementy wspo łczesnej teorii inwersji Elementy wspo łczesnej teorii inwersji W. Debski, 11.12.2014 Liniowy problem odwrotny m est (λ) = m apr + (G T G + λi) 1 G T ( dobs G m apr) +δ debski@igf.edu.pl: W3-1 IGF PAN, 11.12.2014 Metoda algebraiczna

Bardziej szczegółowo

Uczenie sieci neuronowych i bayesowskich

Uczenie sieci neuronowych i bayesowskich Wstęp do metod sztucznej inteligencji www.mat.uni.torun.pl/~piersaj 2009-01-22 Co to jest neuron? Komputer, a mózg komputer mózg Jednostki obliczeniowe 1-4 CPU 10 11 neuronów Pojemność 10 9 b RAM, 10 10

Bardziej szczegółowo

WYKŁAD 4. Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie. autor: Maciej Zięba. Politechnika Wrocławska

WYKŁAD 4. Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie. autor: Maciej Zięba. Politechnika Wrocławska Wrocław University of Technology WYKŁAD 4 Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie autor: Maciej Zięba Politechnika Wrocławska Klasyfikacja Klasyfikacja (ang. Classification):

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium JAVA Zadanie nr 2 Rozpoznawanie liter autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z problemem klasyfikacji

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 2 Detekcja twarzy autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się algorytmem gradientu prostego

Bardziej szczegółowo

Agnieszka Nowak Brzezińska Wykład III

Agnieszka Nowak Brzezińska Wykład III Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe

Bardziej szczegółowo

Stanisław Cichocki Natalia Nehrebecka. Wykład 7

Stanisław Cichocki Natalia Nehrebecka. Wykład 7 Stanisław Cichocki Natalia Nehrebecka Wykład 7 1 1. Metoda Największej Wiarygodności MNW 2. Założenia MNW 3. Własności estymatorów MNW 4. Testowanie hipotez w MNW 2 1. Metoda Największej Wiarygodności

Bardziej szczegółowo

STATYSTYKA I DOŚWIADCZALNICTWO Wykład 7

STATYSTYKA I DOŚWIADCZALNICTWO Wykład 7 STATYSTYKA I DOŚWIADCZALNICTWO Wykład 7 Analiza korelacji - współczynnik korelacji Pearsona Cel: ocena współzależności między dwiema zmiennymi ilościowymi Ocenia jedynie zależność liniową. r = cov(x,y

Bardziej szczegółowo

Elementy statystyki wielowymiarowej

Elementy statystyki wielowymiarowej Wnioskowanie_Statystyczne_-_wykład Spis treści 1 Elementy statystyki wielowymiarowej 1.1 Kowariancja i współczynnik korelacji 1.2 Macierz kowariancji 1.3 Dwumianowy rozkład normalny 1.4 Analiza składowych

Bardziej szczegółowo

Agnieszka Nowak Brzezińska

Agnieszka Nowak Brzezińska Agnieszka Nowak Brzezińska jeden z algorytmów regresji nieparametrycznej używanych w statystyce do prognozowania wartości pewnej zmiennej losowej. Może również byd używany do klasyfikacji. - Założenia

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA

STATYSTYKA MATEMATYCZNA STATYSTYKA MATEMATYCZNA 1. Wykład wstępny 2. Zmienne losowe i teoria prawdopodobieństwa 3. Populacje i próby danych 4. Testowanie hipotez i estymacja parametrów 5. Najczęściej wykorzystywane testy statystyczne

Bardziej szczegółowo

4. O funkcji uwikłanej 4.1. Twierdzenie. Niech będzie dana funkcja f klasy C 1 na otwartym podzbiorze. ϕ : K(x 0, δ) (y 0 η, y 0 + η), taka że

4. O funkcji uwikłanej 4.1. Twierdzenie. Niech będzie dana funkcja f klasy C 1 na otwartym podzbiorze. ϕ : K(x 0, δ) (y 0 η, y 0 + η), taka że 4. O funkcji uwikłanej 4.1. Twierdzenie. Niech będzie dana funkcja f klasy C 1 na otwartym podzbiorze taka że K(x 0, δ) (y 0 η, y 0 + η) R n R, f(x 0, y 0 ) = 0, y f(x 0, y 0 ) 0. Wówczas dla odpowiednio

Bardziej szczegółowo

SPOTKANIE 3: Regresja: Regresja liniowa

SPOTKANIE 3: Regresja: Regresja liniowa Wrocław University of Technology SPOTKANIE 3: Regresja: Regresja liniowa Adam Gonczarek Studenckie Koło Naukowe Estymator adam.gonczarek@pwr.wroc.pl 22.11.2013 Rozkład normalny Rozkład normalny (ang. normal

Bardziej szczegółowo

WYKŁAD 3. Klasyfikacja: modele probabilistyczne

WYKŁAD 3. Klasyfikacja: modele probabilistyczne Wrocław University of Technology WYKŁAD 3 Klasyfikacja: modele probabilistyczne Maciej Zięba Politechnika Wrocławska Klasyfikacja Klasyfikacja (ang. Classification): Dysponujemy obserwacjami z etykietami

Bardziej szczegółowo

STATYSTYKA

STATYSTYKA Wykład 1 20.02.2008r. 1. ROZKŁADY PRAWDOPODOBIEŃSTWA 1.1 Rozkład dwumianowy Rozkład dwumianowy, 0 1 Uwaga: 1, rozkład zero jedynkowy. 1 ; 1,2,, Fakt: Niech,, będą niezależnymi zmiennymi losowymi o jednakowym

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej

Bardziej szczegółowo

Rachunek Prawdopodobieństwa Anna Janicka

Rachunek Prawdopodobieństwa Anna Janicka Rachunek Prawdopodobieństwa Anna Janicka wykład XIV, 24.01.2017 ŁAŃCUCHYMARKOWA CD. KRÓTKIE INFO O RÓŻNYCH WAŻNYCH ROZKŁADACH Plan na dzisiaj Łańcuchy Markowa cd. Różne ważne rozkłady prawdopodobieństwa,

Bardziej szczegółowo

ESTYMACJA BŁĘDU PREDYKCJI I JEJ ZASTOSOWANIA

ESTYMACJA BŁĘDU PREDYKCJI I JEJ ZASTOSOWANIA ESTYMACJA BŁĘDU PREDYKCJI I JEJ ZASTOSOWANIA Jan Mielniczuk Wisła, grudzień 2009 PLAN Błędy predykcji i ich podstawowe estymatory Estymacja błędu predykcji w modelu liniowym. Funkcje kryterialne Własności

Bardziej szczegółowo

Matematyka ubezpieczeń majątkowych 6.04.2009 r.

Matematyka ubezpieczeń majątkowych 6.04.2009 r. Matematyka ubezpieczeń majątkowych 6.04.009 r. Zadanie. Niech N oznacza liczbę szkód zaszłych w ciągu roku z pewnego ubezpieczenia z czego: M to liczba szkód zgłoszonych przed końcem tego roku K to liczba

Bardziej szczegółowo

Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe.

Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Rachunek prawdopodobieństwa MAP3040 WPPT FT, rok akad. 2010/11, sem. zimowy Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Warunkowa wartość oczekiwana.

Bardziej szczegółowo

8. Neuron z ciągłą funkcją aktywacji.

8. Neuron z ciągłą funkcją aktywacji. 8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i

Bardziej szczegółowo

Estymacja gęstości prawdopodobieństwa metodą selekcji modelu

Estymacja gęstości prawdopodobieństwa metodą selekcji modelu Estymacja gęstości prawdopodobieństwa metodą selekcji modelu M. Wojtyś Wydział Matematyki i Nauk Informacyjnych Politechnika Warszawska Wisła, 7 grudnia 2009 Wstęp Próba losowa z rozkładu prawdopodobieństwa

Bardziej szczegółowo

Rzędy wiązań chemicznych

Rzędy wiązań chemicznych Seminarium Magisterskie Rzędy wiązań chemicznych w ujęciu Teorii Komunikacji Opracowanie Dariusz Szczepanik Promotor Dr hab. Janusz Mrozek Rzędy wiązań chemicznych w ujęciu Teorii Komunikacji Plan prezentacji

Bardziej szczegółowo

Prawdopodobieństwo i statystyka r.

Prawdopodobieństwo i statystyka r. Zadanie. Niech (X, Y) ) będzie dwuwymiarową zmienną losową, o wartości oczekiwanej (μ, μ, wariancji każdej ze współrzędnych równej σ oraz kowariancji równej X Y ρσ. Staramy się obserwować niezależne realizacje

Bardziej szczegółowo

Metody klasyfikacji Danych wielowymiarowych by mgr inz. Marcin Kurdziel and mgr inz. Tomasz Arodz

Metody klasyfikacji Danych wielowymiarowych by mgr inz. Marcin Kurdziel and mgr inz. Tomasz Arodz Metody klasyfikacji Danych wielowymiarowych by mgr inz. and mgr inz. Tomasz Arodz supervised by Professor Dr W.Dzwinel Agenda Klasyfikacja liniowa podstawowe pojecia Algorytm perceptronu Fisher Linear

Bardziej szczegółowo

Metody Optymalizacji: Przeszukiwanie z listą tabu

Metody Optymalizacji: Przeszukiwanie z listą tabu Metody Optymalizacji: Przeszukiwanie z listą tabu Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje: wtorek

Bardziej szczegółowo

Selekcja zmiennych w klasyfikacji z wieloma etykietami

Selekcja zmiennych w klasyfikacji z wieloma etykietami Seminarium IPIPAN, Maj 2016 Selekcja zmiennych w klasyfikacji z wieloma etykietami Paweł Teisseyre Instytut Podstaw Informatyki PAN Plan prezentacji Klasyfikacja z wieloma etykietami. Selekcja zmiennych

Bardziej szczegółowo

Klasyfikacja w oparciu o metrykę budowaną poprzez dystrybuanty empiryczne na przestrzeni wzorców uczących

Klasyfikacja w oparciu o metrykę budowaną poprzez dystrybuanty empiryczne na przestrzeni wzorców uczących Klasyfikacja w oparciu o metrykę budowaną poprzez dystrybuanty empiryczne na przestrzeni wzorców uczących Cezary Dendek Wydział Matematyki i Nauk Informacyjnych PW Plan prezentacji Plan prezentacji Wprowadzenie

Bardziej szczegółowo

EGZAMIN MAGISTERSKI, Matematyka w ekonomii i ubezpieczeniach. x i 0,

EGZAMIN MAGISTERSKI, Matematyka w ekonomii i ubezpieczeniach. x i 0, Matematyka w ekonomii i ubezpieczeniach Wiedząc, że wektor x 0 = (0,3,0,0,4) jest rozwiązaniem optymalnym zagadnienia programowania liniowego: zminimalizować 3x 1 +2x 2 +5x 3 +3x 4 +4x 5, przy ograniczeniach

Bardziej szczegółowo

Rozpoznawanie wzorców. Dr inż. Michał Bereta p. 144 / 10, Instytut Informatyki

Rozpoznawanie wzorców. Dr inż. Michał Bereta p. 144 / 10, Instytut Informatyki Rozpoznawanie wzorców Dr inż. Michał Bereta p. 144 / 10, Instytut Informatyki mbereta@pk.edu.pl beretam@torus.uck.pk.edu.pl www.michalbereta.pl Twierzdzenie: Prawdopodobieostwo, że n obserwacji wybranych

Bardziej szczegółowo

2. Empiryczna wersja klasyfikatora bayesowskiego

2. Empiryczna wersja klasyfikatora bayesowskiego Algorytmy rozpoznawania obrazów 2. Empiryczna wersja klasyfikatora bayesowskiego dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Brak pełnej informacji probabilistycznej Klasyfikator bayesowski

Bardziej szczegółowo

Optymalizacja systemów

Optymalizacja systemów Optymalizacja systemów Laboratorium - problem detekcji twarzy autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, P. Klukowski Cel zadania Celem zadania jest zapoznanie się z gradientowymi algorytmami optymalizacji

Bardziej szczegółowo

Modele DSGE. Jerzy Mycielski. Maj Jerzy Mycielski () Modele DSGE Maj / 11

Modele DSGE. Jerzy Mycielski. Maj Jerzy Mycielski () Modele DSGE Maj / 11 Modele DSGE Jerzy Mycielski Maj 2008 Jerzy Mycielski () Modele DSGE Maj 2008 1 / 11 Modele DSGE DSGE - Dynamiczne, stochastyczne modele równowagi ogólnej (Dynamic Stochastic General Equilibrium Model)

Bardziej szczegółowo

Analiza danych. http://zajecia.jakubw.pl/ TEMATYKA PRZEDMIOTU

Analiza danych. http://zajecia.jakubw.pl/ TEMATYKA PRZEDMIOTU Analiza danych Wstęp Jakub Wróblewski jakubw@pjwstk.edu.pl http://zajecia.jakubw.pl/ TEMATYKA PRZEDMIOTU Różne aspekty analizy danych Reprezentacja graficzna danych Metody statystyczne: estymacja parametrów

Bardziej szczegółowo

Agnieszka Nowak Brzezińska Wykład III

Agnieszka Nowak Brzezińska Wykład III Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe

Bardziej szczegółowo

Zmienne zależne i niezależne

Zmienne zależne i niezależne Analiza kanoniczna Motywacja (1) 2 Często w badaniach spotykamy problemy badawcze, w których szukamy zakresu i kierunku zależności pomiędzy zbiorami zmiennych: { X i Jak oceniać takie 1, X 2,..., X p }

Bardziej szczegółowo

Część 2. Teoretyczne i praktyczne aspekty wybranych metod analiz ilościowych w ekonomii i zarządzaniu

Część 2. Teoretyczne i praktyczne aspekty wybranych metod analiz ilościowych w ekonomii i zarządzaniu Spis treści Część 1 Analiza procedur wyznaczania i wykorzystania rozwiązań uogólnionych wybranej klasy nieliniowych modeli optymalizacyjnych we wspomaganiu procesów decyzyjnych (Jerzy Mika) Wprowadzenie.

Bardziej szczegółowo