Zastosowania funkcji jądrowych do rozpoznawania ręcznie pisanych cyfr.

Wielkość: px
Rozpocząć pokaz od strony:

Download "Zastosowania funkcji jądrowych do rozpoznawania ręcznie pisanych cyfr."

Transkrypt

1 Zastosowania funkcji jądrowych do rozpoznawania ręcznie pisanych cyfr. Warszawa, 10 Marca 2016

2 Plan prezentacji. Definicja funkcji jądrowej.

3 Plan prezentacji. Definicja funkcji jądrowej. Opis problemu i metody.

4 Plan prezentacji. Definicja funkcji jądrowej. Opis problemu i metody. Funkcje jądrowe wbudowane w bibliotekę Pythona.

5 Plan prezentacji. Definicja funkcji jądrowej. Opis problemu i metody. Funkcje jądrowe wbudowane w bibliotekę Pythona. Własne funkcje jądrowe zaimplementowane w Pythonie.

6 Plan prezentacji. Definicja funkcji jądrowej. Opis problemu i metody. Funkcje jądrowe wbudowane w bibliotekę Pythona. Własne funkcje jądrowe zaimplementowane w Pythonie. Dane syntetyczne.

7 Plan prezentacji. Definicja funkcji jądrowej. Opis problemu i metody. Funkcje jądrowe wbudowane w bibliotekę Pythona. Własne funkcje jądrowe zaimplementowane w Pythonie. Dane syntetyczne. Wpływ współczynnika regularyzacji na jakość klasyfikacji.

8 Plan prezentacji. Definicja funkcji jądrowej. Opis problemu i metody. Funkcje jądrowe wbudowane w bibliotekę Pythona. Własne funkcje jądrowe zaimplementowane w Pythonie. Dane syntetyczne. Wpływ współczynnika regularyzacji na jakość klasyfikacji. Wnioski.

9 Plan prezentacji. Definicja funkcji jądrowej. Opis problemu i metody. Funkcje jądrowe wbudowane w bibliotekę Pythona. Własne funkcje jądrowe zaimplementowane w Pythonie. Dane syntetyczne. Wpływ współczynnika regularyzacji na jakość klasyfikacji. Wnioski. Literatura.

10 Definicja funkcji jądrowej. Definicja Niech X będzie niepustym zbiorem. Funkcję rzeczywistą K : X X R, która jest ciągła, ograniczona, symetryczna i całkuje się do 1 nazywamy funkcją jądrową na X.

11 Definicja funkcji jądrowej. Definicja Niech X będzie niepustym zbiorem. Funkcję rzeczywistą K : X X R, która jest ciągła, ograniczona, symetryczna i całkuje się do 1 nazywamy funkcją jądrową na X. Definicja Funkcję, która przekształca wektory wejściowe w oryginalnej przestrzeni atrybutów i zwraca iloczyn skalarny wektorów w nowej przestrzeni cech, nazywamy funkcją jądrową.

12 Opis problemu i metody. Prezentacja pokazuje metody uczenia bazujące na jądrach używane do rozpoznawania ręcznie pisanych cyfr. Stosuje się metody jądrowe uczenia (wykorzystujące maszyny wektorów podpierających - SVM), które służą do rozpoznawania znaków w tekście.

13 Opis problemu i metody. Prezentacja pokazuje metody uczenia bazujące na jądrach używane do rozpoznawania ręcznie pisanych cyfr. Stosuje się metody jądrowe uczenia (wykorzystujące maszyny wektorów podpierających - SVM), które służą do rozpoznawania znaków w tekście. Jest to klasyczne zadanie rozpoznawania wzorców, czyli klasyfikacji obiektów.

14 Opis problemu i metody. Prezentacja pokazuje metody uczenia bazujące na jądrach używane do rozpoznawania ręcznie pisanych cyfr. Stosuje się metody jądrowe uczenia (wykorzystujące maszyny wektorów podpierających - SVM), które służą do rozpoznawania znaków w tekście. Jest to klasyczne zadanie rozpoznawania wzorców, czyli klasyfikacji obiektów. Obiektami są cyfry pisane, które mogą mieć różne kształty, pozycję, oraz orientację (mogą być np. pochylone, obrócone itp.).

15 Obiekty Rysunek : Cyfry do rozpoznawania [1].

16 Szczegóły rozpatrywanego zadania są następujące: W tekście pisanym na zeskanowanej kartce papieru znajdują się pożądane znaki.

17 Szczegóły rozpatrywanego zadania są następujące: W tekście pisanym na zeskanowanej kartce papieru znajdują się pożądane znaki. Należy zidentyfikować poszczególne znaki z minimalnym błędem próbki (określanym jako procentowa wartość niepoprawnie sklasyfikowanych obiektów).

18 Wzór funkcji celu, której wartość trzeba zminimalizować f (ε, w) = 1 2 w 2 + C gdzie: n ε i, i=1

19 Wzór funkcji celu, której wartość trzeba zminimalizować f (ε, w) = 1 2 w 2 + C n ε i, gdzie: w- wektor wag SVM, trzeba je dobrać tak, aby błąd (liczba niepoprawnie sklasyfikowanych obiektów) był jak najmniejszy. i=1

20 Wzór funkcji celu, której wartość trzeba zminimalizować f (ε, w) = 1 2 w 2 + C n ε i, gdzie: w- wektor wag SVM, trzeba je dobrać tak, aby błąd (liczba niepoprawnie sklasyfikowanych obiektów) był jak najmniejszy. ε i - elementy po niewłaściwej stronie hiperpłaszczyzny- wektory podpierające, i=1

21 Wzór funkcji celu, której wartość trzeba zminimalizować f (ε, w) = 1 2 w 2 + C n ε i, gdzie: w- wektor wag SVM, trzeba je dobrać tak, aby błąd (liczba niepoprawnie sklasyfikowanych obiektów) był jak najmniejszy. ε i - elementy po niewłaściwej stronie hiperpłaszczyzny- wektory podpierające, C- stała regularyzacyjna (jak duży może być margines błędu popełniany przez klasyfikator) i=1

22 Opis metody SVM. Jest to klasyfikator binarny, generujący na wyjściu jedną z dwóch wartości: -1 albo 1 (w zależności od wartości atrybutów badanego obiektu). f (X) = sgn(x) gdzie X = {X 1, X 2,, X n }, X i cechy.

23 Opis metody SVM. Jest to klasyfikator binarny, generujący na wyjściu jedną z dwóch wartości: -1 albo 1 (w zależności od wartości atrybutów badanego obiektu). f (X) = sgn(x) gdzie X = {X 1, X 2,, X n }, X i cechy. Uczenie polega na skonstruowaniu hiperpłaszczyzny separującej (oddzielającej) obiekty należące do jednej z dwóch kategorii. Metoda ta nadaje się do klasyfikacji w problemach nieseparowalnych liniowo.

24 Transformacja obiektów za pomocą funkcji jądrowej. W przypadku, gdy obiekty nie są separowalne liniowo, konieczne jest przejście z oryginalnej przestrzeni atrybutów do nowej przestrzeni, w której separacja liniowa byłaby możliwa.

25 Transformacja obiektów za pomocą funkcji jądrowej. W przypadku, gdy obiekty nie są separowalne liniowo, konieczne jest przejście z oryginalnej przestrzeni atrybutów do nowej przestrzeni, w której separacja liniowa byłaby możliwa. W tym celu stosowane jest przekształcenie przy pomocy funkcji jądrowej K(x,y). K(x,y) = φ(x), φ(y)

26 Transformacja obiektów za pomocą funkcji jądrowej. W przypadku, gdy obiekty nie są separowalne liniowo, konieczne jest przejście z oryginalnej przestrzeni atrybutów do nowej przestrzeni, w której separacja liniowa byłaby możliwa. W tym celu stosowane jest przekształcenie przy pomocy funkcji jądrowej K(x,y). K(x,y) = φ(x), φ(y) Rysunek : Transformacja obiektów za pomocą funkcji jądrowej [6].

27 Przykład transformacji obiektów Funkcja jądrowa wielomianowa K(x, y) = x, y 2, transtormacja φ(x) : R 2 R 3, φ(x 1, x 2 ) = (x1 2, x 2 2, 2x 1 x 2 ). K(x, y) = φ(x), φ(y) = (x1 2, x2 2, 2x 1 x 2 ), (y1 2, y2 2, 2y 1 y 2 ) = = x 2 1 y 2 1 +x 2 2 y x 1 x 2 y 1 y 2 = (x 1 y 1 + x 2 y 2 ) 2 = (x 1, x 2 ), (y 1, y 2 ) 2 = x, y 2 Rysunek : Przykład transformacji wielomianowej [4].

28 Przykład 2 Metoda SVM z funkcją jądrową gaussowską K(x, y) = exp ( γ x y 2) Rysunek : Wykres z Bell SVM aplet [4].

29 Przykład 3 Metoda SVM z funkcją jądrową wielomianową K(x, y) = ( x, y + 1) 2 Rysunek : Wykres z Bell SVM aplet [4].

30 Opis metody SVM-cd. Konieczna jest parametryzacja metody:

31 Opis metody SVM-cd. Konieczna jest parametryzacja metody: dobór funkcji jądra i jej parametrów,

32 Opis metody SVM-cd. Konieczna jest parametryzacja metody: dobór funkcji jądra i jej parametrów, współczynnika regularyzacji C.

33 Implementacja jąder w Pytonie. Program, z którego korzysta się w doświadczeniu jest tym samym programem, który został utworzony i wykorzystany w artykule [1].

34 Implementacja jąder w Pytonie. Program, z którego korzysta się w doświadczeniu jest tym samym programem, który został utworzony i wykorzystany w artykule [1]. Do implementacji poszczególnych klasyfikatorów SVM (w których wykorzystane są funkcje jądrowe: rbf, linear, poly, sigmoid) została użyta biblioteka LibSVM języka Python realizująca wybrane algorytmy sztucznej inteligencji, którą można pobrać z Internetu.

35 Jądra użyte do klasyfikacji znaków do odpowiednich kategorii-svm. Wszystkie przykłady jąder zastosowane są do tych samych danych. Zbiór trenujący zawiera 6999 przykładów o 76 atrybutach. Zbiór zawiera identyfikator kategorii w pierszej kolumnie (która to cyfra).

36 Jądra użyte do klasyfikacji znaków do odpowiednich kategorii-svm. Wszystkie przykłady jąder zastosowane są do tych samych danych. Zbiór trenujący zawiera 6999 przykładów o 76 atrybutach. Zbiór zawiera identyfikator kategorii w pierszej kolumnie (która to cyfra). Oznaczenia kolumn w tabelkach: n.support - liczba wektorów podpierających, Cl(X, y) - jakość klasyfikatora dla danych trenujących, Cl(X.test,y.test) - jakość klasyfikatora dla danych testujących.

37 Jądra użyte do klasyfikacji znaków do odpowiednich kategorii-svm. Wszystkie przykłady jąder zastosowane są do tych samych danych. Zbiór trenujący zawiera 6999 przykładów o 76 atrybutach. Zbiór zawiera identyfikator kategorii w pierszej kolumnie (która to cyfra). Oznaczenia kolumn w tabelkach: n.support - liczba wektorów podpierających, Cl(X, y) - jakość klasyfikatora dla danych trenujących, Cl(X.test,y.test) - jakość klasyfikatora dla danych testujących. Oznaczenia matematyczne w zapisie funkcji jądrowych: x, y = x T y - iloczyn skalarny, x y = n i=1 x i y i - pierwsza norma, x y 2 2 = n i=1 x i y i 2 -druga norma, x y d d = n i=1 x i y i d - d norma.

38 Jądro gaussowskie (rbf). Jest to podstawowe jądro o wartościach dodatnich, najczęściej stosowane ze względu na dobre wyniki klasyfikacyjne. K(x, y) = exp ( γ x y 2)

39 Jądro gaussowskie (rbf). Jest to podstawowe jądro o wartościach dodatnich, najczęściej stosowane ze względu na dobre wyniki klasyfikacyjne. K(x, y) = exp ( γ x y 2) Lp Parametr γ n.support Cl(X, y) Cl(X.test,y.test) 1 γ = 1 n γ = γ = γ = γ = γ = γ = 2(= 10, 100) Tablica : Wyniki klasyfikacji metodą SVM dla różnych parametrów jądra gaussowskiego (rbf).

40 Jądro liniowe. Jest to najprostrze jądro o małym koszcie obliczeniowym. K(x, y) = x, y + c

41 Jądro liniowe. Jest to najprostrze jądro o małym koszcie obliczeniowym. K(x, y) = x, y + c Lp jądro n.support Cl(X, y) Cl(X.test,y.test) 1 linear Tablica : Wyniki klasyfikacji metodą SVM dla jądra liniowego.

42 Jądro wielomianowe poly. Jest to jądro preferowane dla problemów, w których dane są znormalizowane. K(x, y) = (γ x, y + c) d

43 Jądro wielomianowe poly. Jest to jądro preferowane dla problemów, w których dane są znormalizowane. K(x, y) = (γ x, y + c) d Lp stopień n.support Cl(X, y) Cl(X.test,y.test) 1 d= d=2 (=2.5) d=3 (=3.5) d= d= d= Tablica : Wyniki klasyfikacji metodą SVM dla różnych parametrów jądra wielomianowego.

44 Jądro tangens hiperboliczny (sigmoid). Jest to jądro stosowane w sieciach neuronowych jako funkcja aktywacji. K(x, y) = tanh (γ x, y + c)

45 Jądro tangens hiperboliczny (sigmoid). Jest to jądro stosowane w sieciach neuronowych jako funkcja aktywacji. K(x, y) = tanh (γ x, y + c) Lp jądro n.support Cl(X, y) Cl(X.test,y.test) 1 sigmoid Tablica : Wyniki klasyfikacji metodą SVM dla jądra tangens hiperboliczny.

46 Własne funkcje jądrowe zaimplementowane w Pythonie. Wszystkie jądra przetestowaliśmy najpierw w pliku test.py, w którym wykorzystujemy funkję XOR.

47 Własne funkcje jądrowe zaimplementowane w Pythonie. Wszystkie jądra przetestowaliśmy najpierw w pliku test.py, w którym wykorzystujemy funkję XOR. Zbiór wektorów uczących funkcji XOR, x1 x2 y gdzie y to wektor, który powinniśmy otrzymać na wyjściu.

48 Własne funkcje jądrowe zaimplementowane w Pythonie. Wszystkie jądra przetestowaliśmy najpierw w pliku test.py, w którym wykorzystujemy funkję XOR. Zbiór wektorów uczących funkcji XOR, x1 x2 y gdzie y to wektor, który powinniśmy otrzymać na wyjściu. Sprawdzamy czy wprowadzone przez nas funkcje jądrowe radzą sobie w problemie nieseparowalnym liniowo.

49 Jądro Laplace a. Jest to jądro równoważne jądru wykładniczemu K(x, y) = exp jednak jest mniej wrażliwe na zmianę parametru γ. K(x, y) = exp ( γ x y ) ( x y 2γ 2 ),

50 Jądro Laplace a. Jest to jądro równoważne jądru wykładniczemu K(x, y) = exp jednak jest mniej wrażliwe na zmianę parametru γ. K(x, y) = exp ( γ x y ) ( x y 2γ 2 ), Lp Parametr γ n.support Cl(X, y) Cl(X.test,y.test) 1 γ = γ = γ = γ = γ = γ = γ = γ = 0.5(= 1) Tablica : Wyniki klasyfikacji metodą SVM dla różnych parametrów jądra Laplace a.

51 Jądra falowe (sinc) oraz (sinc2). Są to jądra symetryczne i dodatnie. K(x, y) = sinc x y = sin x y x y

52 Jądra falowe (sinc) oraz (sinc2). Są to jądra symetryczne i dodatnie. K(x, y) = sinc x y = sin x y x y Lp jądro n.support Cl(X, y) Cl(X.test,y.test) 1 sinc Tablica : Wyniki klasyfikacji metodą SVM dla jądra falowego (sinc)

53 Jądra falowe (sinc) oraz (sinc2). Są to jądra symetryczne i dodatnie. K(x, y) = sinc x y = sin x y x y Lp jądro n.support Cl(X, y) Cl(X.test,y.test) 1 sinc Tablica : Wyniki klasyfikacji metodą SVM dla jądra falowego (sinc) K(x, y) = sinc x y 2 = sin x y 2 x y 2 Lp jądro n.support Cl(X, y) Cl(X.test,y.test) 1 sinc Tablica : Wyniki klasyfikacji metodą SVM dla jądra falowego (sinc2)

54 Jądro kwadratowe quadratic. Jest to jądro mniej kosztowne obliczeniowo niż jądro gaussowskie i powinno być wykorzystywane wtedy, kiedy czas uczenia ma znaczenie. x y 2 K(x, y) = 1 x y 2 + c

55 Jądro kwadratowe quadratic. Jest to jądro mniej kosztowne obliczeniowo niż jądro gaussowskie i powinno być wykorzystywane wtedy, kiedy czas uczenia ma znaczenie. x y 2 K(x, y) = 1 x y 2 + c Lp Parametr c n.support Cl(X, y) Cl(X.test,y.test) 1 c= c= c= c= c= c= c= c= Tablica : Wyniki klasyfikacji metodą SVM dla różnych parametrów jądra kwadratowego.

56 Jądro wielokwadratowe multiquadric. Jest to jądro niedodatnie i ograniczone. Ma zastosowanie tam gdzie jądro kwadratowe. K(x, y) = x y 2 + c 2

57 Jądro wielokwadratowe multiquadric. Jest to jądro niedodatnie i ograniczone. Ma zastosowanie tam gdzie jądro kwadratowe. K(x, y) = x y 2 + c 2 Lp Parametr c n.support Cl(X, y) Cl(X.test,y.test) 1 c= c= c= c= c= c= c= c= Tablica : Wyniki klasyfikacji metodą SVM dla różnych parametrów jądra wielokwadratowego.

58 Jądro odwrócone wielokwadratowe inverse multiquadric. 1 K(x, y) = x y 2 + c 2

59 Jądro odwrócone wielokwadratowe inverse multiquadric. 1 K(x, y) = x y 2 + c 2 Lp Parametr c n.support Cl(X, y) Cl(X.test,y.test) 1 c= c= c= c= c= c= c= c= Tablica : Wyniki klasyfikacji metodą SVM dla różnych parametrów jądra odwróconego wielokwadratowego.

60 Jądro logarytmiczne log. Jest to jądro warunkowo dodatnie i ograniczone. ( ) K(x, y) = log x y d + 1

61 Jądro logarytmiczne log. Jest to jądro warunkowo dodatnie i ograniczone. ( ) K(x, y) = log x y d + 1 Lp Parametr d n.support Cl(X, y) Cl(X.test,y.test) 1 d= d= d= d= d= d= d= d= Tablica : Wyniki klasyfikacji metodą SVM dla różnych parametrów jądra logarytmicznego.

62 Jądro Cauchy ego cauchy. To jądro pochodzi od dystrybuanty Cauchy ego, dobrze nadaje się do analizy przestrzeni wielowymiarowej. K(x, y) = x y 2 c 2

63 Jądro Cauchy ego cauchy. To jądro pochodzi od dystrybuanty Cauchy ego, dobrze nadaje się do analizy przestrzeni wielowymiarowej. K(x, y) = x y 2 c 2 Lp Parametr c n.support Cl(X, y) Cl(X.test,y.test) 1 c= c= c= c= c= c= c= c= Tablica : Wyniki klasyfikacji metodą SVM dla różnych parametrów jądra Cauchy ego.

64 Jądro T-Studenta tstudent. 1 K(x, y) = 1 + x y d

65 Jądro T-Studenta tstudent. 1 K(x, y) = 1 + x y d Lp Parametr d n.support Cl(X, y) Cl(X.test,y.test) 1 d= d= d= d= d= d= d= d= Tablica : Wyniki klasyfikacji metodą SVM dla różnych parametrów jądra T-Studenta.

66 Uwaga Jądro minimum K(x, y) = n i=1 min(x i, y i ) i jądro power K(x, y) = x y d nie działają poprawnie dla naszego testu.

67 Uwaga Jądro minimum K(x, y) = n i=1 min(x i, y i ) i jądro power K(x, y) = x y d nie działają poprawnie dla naszego testu. Ale te jądra rozwiązują nasz problem klasyfikacyjny SVM. Lp jądro n.support Cl(X, y) Cl(X.test,y.test) 1 min power d= power d= power d= power d= power d= power d= power d= power d= Tablica : Wyniki klasyfikacji metodą SVM dla różnych parametrów jąder minimum oraz power.

68 Uwaga Jądro minimum K(x, y) = n i=1 min(x i, y i ) i jądro power K(x, y) = x y d nie działają poprawnie dla naszego testu. Ale te jądra rozwiązują nasz problem klasyfikacyjny SVM. Lp jądro n.support Cl(X, y) Cl(X.test,y.test) 1 min power d= power d= power d= power d= power d= power d= power d= power d= Tablica : Wyniki klasyfikacji metodą SVM dla różnych parametrów jąder minimum oraz power. Oba jądra radzą sobie lepiej z problemem klasyfikacyjnym od jądra gaussowskiego.

69 Podsumowanie- porównanie wyników klasyfikacji Lp jądro n.support Cl(X, y) Cl(X.test,y.test) 1 laplacean γ = minimum power d= quadratic c= cauchy c= multiquadric c= rbf, γ = 1 n log d= inversemultiquadric c= poly, d= linear tstudent d= sinc sinc sigmoid Tablica : Uzyskane wyniki dla funkcji jądrowych z optymalnymi parametrami.

70 Obserwacje. Obserwacja Widzimy, że z zainstalowanych funkcji jądrowych w Pythonie najlepsza jest funkcja gaussowska z parametrem γ = 1 n.

71 Obserwacje. Obserwacja Widzimy, że z zainstalowanych funkcji jądrowych w Pythonie najlepsza jest funkcja gaussowska z parametrem γ = 1 n. Obserwacja Zauważamy również, że dla jądra Laplace a z parametrem γ = 0.01 uzyskaliśmy globalnie najlepszy wynik.

72 Obserwacje. Obserwacja Widzimy, że z zainstalowanych funkcji jądrowych w Pythonie najlepsza jest funkcja gaussowska z parametrem γ = 1 n. Obserwacja Zauważamy również, że dla jądra Laplace a z parametrem γ = 0.01 uzyskaliśmy globalnie najlepszy wynik. Obserwacja Otrzymane wyniki są dla prostych i intuicyjnych podejść wyboru parametrów jąder.

73 Obserwacje. Obserwacja Widzimy, że z zainstalowanych funkcji jądrowych w Pythonie najlepsza jest funkcja gaussowska z parametrem γ = 1 n. Obserwacja Zauważamy również, że dla jądra Laplace a z parametrem γ = 0.01 uzyskaliśmy globalnie najlepszy wynik. Obserwacja Otrzymane wyniki są dla prostych i intuicyjnych podejść wyboru parametrów jąder.

74 Obserwacje. Obserwacja Widzimy, że z zainstalowanych funkcji jądrowych w Pythonie najlepsza jest funkcja gaussowska z parametrem γ = 1 n. Obserwacja Zauważamy również, że dla jądra Laplace a z parametrem γ = 0.01 uzyskaliśmy globalnie najlepszy wynik. Obserwacja Otrzymane wyniki są dla prostych i intuicyjnych podejść wyboru parametrów jąder. Obserwacja Zbiory danych są łatwe do sklasyfikowania, jako wystąpienie metody SVM, dla większości jąder otrzymujemy powyżej 90 procent.

75 Dane syntetyczne Obliczenia zostały wykonane dla poszczególnych funkcji jądrowych z najlepiej dobranym parametrem z poprzedniego doświadczenia.

76 Dane syntetyczne Obliczenia zostały wykonane dla poszczególnych funkcji jądrowych z najlepiej dobranym parametrem z poprzedniego doświadczenia. Wszystkie pliki danych były modyfikowane z ustalonym wspólczynnikiem regularyzacji (C=16).

77 Dane syntetyczne Obliczenia zostały wykonane dla poszczególnych funkcji jądrowych z najlepiej dobranym parametrem z poprzedniego doświadczenia. Wszystkie pliki danych były modyfikowane z ustalonym wspólczynnikiem regularyzacji (C=16). Procedura zmiany danych została wprowadzona, aby sprawdzić czy metoda SVM poradzi sobie z klasyfikacją zaburzonych danych.

78 Procedura zmiany danych: 1 Policzone zostało minimum i maksimum dla poszczególnych kolumn, a następnie rozstęp. dr(i) = max(a i ) min(a i )

79 Procedura zmiany danych: 1 Policzone zostało minimum i maksimum dla poszczególnych kolumn, a następnie rozstęp. dr(i) = max(a i ) min(a i ) 2 Dany rozstęp pomnożony został przez 0.1 i otrzymana liczba została zaokrąglona do liczby całkowitej Z. r(i) = 0.1 dr(i)

80 Procedura zmiany danych: 1 Policzone zostało minimum i maksimum dla poszczególnych kolumn, a następnie rozstęp. dr(i) = max(a i ) min(a i ) 2 Dany rozstęp pomnożony został przez 0.1 i otrzymana liczba została zaokrąglona do liczby całkowitej Z. r(i) = 0.1 dr(i) 3 Wartości z każdej kolumny, która była zmieniona, zostały zastąpione liczbami z wykorzystaniem funkcji LOS(), która losuje liczbę rzeczywistą z przedziału [0, 1],

81 Procedura zmiany danych: 1 Policzone zostało minimum i maksimum dla poszczególnych kolumn, a następnie rozstęp. dr(i) = max(a i ) min(a i ) 2 Dany rozstęp pomnożony został przez 0.1 i otrzymana liczba została zaokrąglona do liczby całkowitej Z. r(i) = 0.1 dr(i) 3 Wartości z każdej kolumny, która była zmieniona, zostały zastąpione liczbami z wykorzystaniem funkcji LOS(), która losuje liczbę rzeczywistą z przedziału [0, 1], Ze względu na zaokrąglenia, oryginalna wartość może pozostać niezmieniona (jeśli losowo wybrana liczba jest zbyt mała). a i := a i + LOS() r(i) gdzie LOS() [0, 1]

82 Zmodyfikowane pliki danych 1 Dane zostały zmienione w 3 kolumnach (B,C,D). I tak powstał plik test123.

83 Zmodyfikowane pliki danych 1 Dane zostały zmienione w 3 kolumnach (B,C,D). I tak powstał plik test Dane zostały zmienione w 10 kolumnach (od B do K). I tak powstał plik test10.

84 Zmodyfikowane pliki danych 1 Dane zostały zmienione w 3 kolumnach (B,C,D). I tak powstał plik test Dane zostały zmienione w 10 kolumnach (od B do K). I tak powstał plik test10. 3 Dane zostały zmienione w 20 kolumnach (od B do U). I tak powstał plik test20.

85 Zmodyfikowane pliki danych 1 Dane zostały zmienione w 3 kolumnach (B,C,D). I tak powstał plik test Dane zostały zmienione w 10 kolumnach (od B do K). I tak powstał plik test10. 3 Dane zostały zmienione w 20 kolumnach (od B do U). I tak powstał plik test20. 4 Dane zostały zmienione we wszystkich kolumnach (od B do FP). I tak powstał plik testwszystkie.

86 Porównanie wyników dla zmodyfikowanych plików: Lp Jądro test123 test10 test20 testwszystkie 1 laplacean minimum power quadratic cauchy multiquadric rbf log inversemultiquadric poly linear tstudent sinc sinc sigmoid Tablica : Porównanie przy ustalonych optymalnych parametrach jąder.

87 Obserwacje. Obserwacja Widzimy, że zmiana pierwszych trzech kolumn atrubutów nic nie zmienia. Wyniki klasyfikacji są takie same jak w przypadku danych testujących.

88 Obserwacje. Obserwacja Widzimy, że zmiana pierwszych trzech kolumn atrubutów nic nie zmienia. Wyniki klasyfikacji są takie same jak w przypadku danych testujących. Obserwacja Można zauważyć również, że jądro sigmoid dla wszystkich zbiorów tak samo radzi (nie radzi sobie) sobie z problemem klasyfikacji.

89 Obserwacje. Obserwacja Widzimy, że zmiana pierwszych trzech kolumn atrubutów nic nie zmienia. Wyniki klasyfikacji są takie same jak w przypadku danych testujących. Obserwacja Można zauważyć również, że jądro sigmoid dla wszystkich zbiorów tak samo radzi (nie radzi sobie) sobie z problemem klasyfikacji. Obserwacja Dla jądra minimum i dla jądra power d=1 otrzymujemy takie same wyniki niezależnie od zbioru danych. To samo jest z jądrami quadratic c=100 oraz cauchy c=10.

90 Obserwacje- cd. Obserwacja Zauważamy również, że dla jądra Laplace a z parametrem γ = 0.01 uzyskaliśmy globalnie najlepszy wynik dla zbiorów test123, test10 i test20. Zbioru testwszystkie nie musimy brać pod uwagę, ponieważ dla niego nasz klasyfikator nie radzi sobie (niskie wyniki klasyfikacji) z problemem klasyfikacji obiektów do poszczególnych klas.

91 Obserwacje- cd. Obserwacja Zauważamy również, że dla jądra Laplace a z parametrem γ = 0.01 uzyskaliśmy globalnie najlepszy wynik dla zbiorów test123, test10 i test20. Zbioru testwszystkie nie musimy brać pod uwagę, ponieważ dla niego nasz klasyfikator nie radzi sobie (niskie wyniki klasyfikacji) z problemem klasyfikacji obiektów do poszczególnych klas. Obserwacja Funkcje jądrowe sinc i sinc2 lepiej klasyfikują nasz zbiór dla 20 kolumn zmienionych losowo niż dla 10.

92 Wpływ współczynnika regularyzacyjnej na wyniki klasyfikacji. W tym doświadczeniu sprawdzamy jak duży może być margines błędu popełniany przez klasyfikator oraz jak współczynnik regularyzacji wpływa na wynik klasyfikacji.

93 Wpływ współczynnika regularyzacyjnej na wyniki klasyfikacji. W tym doświadczeniu sprawdzamy jak duży może być margines błędu popełniany przez klasyfikator oraz jak współczynnik regularyzacji wpływa na wynik klasyfikacji. Przy ustalonym parametrach jąder, wybranych w wyniku pierwszego doświadczenia, badamy wpływ stalej regularyzacji na wyniki klasyfikacji.

94 Wpływ współczynnika regularyzacyjnej na wyniki klasyfikacji. W tym doświadczeniu sprawdzamy jak duży może być margines błędu popełniany przez klasyfikator oraz jak współczynnik regularyzacji wpływa na wynik klasyfikacji. Przy ustalonym parametrach jąder, wybranych w wyniku pierwszego doświadczenia, badamy wpływ stalej regularyzacji na wyniki klasyfikacji. Doświadczenie przeprowadzone dla C=5,10,15,16,17,20,30.

95 Wyniki klasyfikacji dla różnych jąder dla współczynnika regularyzacji C = 10 Lp Jądro n.support Cl(X, y) Cl(X.test,y.test) 1 laplacean γ = minimum power d= quadratic c= cauchy c= rbf, γ = 1 n multiquadric c= log d= inversemultiquadric c= poly, d= linear tstudent d= sinc sinc sigmoid

96 Obserwacje Obserwacja Dla większości jąder (oprócz jądra linear i inversemultiquadric), dla parametru C=10 dostajemy najlepsze wyniki klasyfikacji.

97 Obserwacje Obserwacja Dla większości jąder (oprócz jądra linear i inversemultiquadric), dla parametru C=10 dostajemy najlepsze wyniki klasyfikacji. Obserwacja Dla C=16 jądro multiquadric miało lepszy wynik klasyfikacji od jądra rbf, ale dla C=10 już tak nie jest.

98 Obserwacje Obserwacja Dla większości jąder (oprócz jądra linear i inversemultiquadric), dla parametru C=10 dostajemy najlepsze wyniki klasyfikacji. Obserwacja Dla C=16 jądro multiquadric miało lepszy wynik klasyfikacji od jądra rbf, ale dla C=10 już tak nie jest. Obserwacja Znowu dostajemy takie same wyniki dla jądra minimum i power oraz dla cauchy i quadratic.

99 Obserwacje Obserwacja Dla większości jąder (oprócz jądra linear i inversemultiquadric), dla parametru C=10 dostajemy najlepsze wyniki klasyfikacji. Obserwacja Dla C=16 jądro multiquadric miało lepszy wynik klasyfikacji od jądra rbf, ale dla C=10 już tak nie jest. Obserwacja Znowu dostajemy takie same wyniki dla jądra minimum i power oraz dla cauchy i quadratic. Obserwacja Dla wszystkich wybranych współczynników C, dla jądra Laplace a z parametrem γ = 0.01 otrzymujemy najlepszy wynik klasyfikacji.

100 Obserwacje-cd. Obserwacja Dla niektórych jąder (sigmoid, sinc, sinc2, log, tstudent, power, minimum) parametr C nie ma wpływu na wynik klasyfikacji (dla wszystkich wartości C otrzymujemy ten sam wynik klasyfikacji).

101 Obserwacje-cd. Obserwacja Dla niektórych jąder (sigmoid, sinc, sinc2, log, tstudent, power, minimum) parametr C nie ma wpływu na wynik klasyfikacji (dla wszystkich wartości C otrzymujemy ten sam wynik klasyfikacji). Obserwacja Można również zauważyć, że jądra sinc, sinc2, sigmoid posiadają niską jakość klasyfikacji dla wszystkich parametów współczynnika C.

102 Wnioski Wniosek Doświadczenia uwzględniające wiele funkcji jądrowych wykazały, że chociaż najpopularniejsze jądro gaussowskie klasyfikuje prawidłowo (w ponad 90%) nasze obiekty, inne funkcje, np takie jak jądro Laplace a może uzyskać lepsze wyniki klasyfikacji.

103 Wnioski Wniosek Doświadczenia uwzględniające wiele funkcji jądrowych wykazały, że chociaż najpopularniejsze jądro gaussowskie klasyfikuje prawidłowo (w ponad 90%) nasze obiekty, inne funkcje, np takie jak jądro Laplace a może uzyskać lepsze wyniki klasyfikacji. Wniosek Przetworzone pliki danych są łatwe do sklasyfikowania, ponieważ jakość klasyfikacji przy użyciu metody SVM, dla większości jąder wynosi powyżej 90 procent.

104 Wnioski-cd. Wniosek Należy pamiętać, że najlepsze wyniki uzyskano intuicyjnie dla wybranych parametrów jąder. Aby upewnić się, że nie istnieją lepsze wartości, należy użyć jednego z algorytmów optymalizacji parametrów.

105 Wnioski-cd. Wniosek Należy pamiętać, że najlepsze wyniki uzyskano intuicyjnie dla wybranych parametrów jąder. Aby upewnić się, że nie istnieją lepsze wartości, należy użyć jednego z algorytmów optymalizacji parametrów. Wniosek Wadą przedstawionej metody jest przeuczenie (overlearning), obserwowane w większości przypadków. Jest to efekt nadmiernego regulowania klasyfikatora danych uczących, co prowadzi do niskiej zdolności generalizacji.

106 Literatura W. Homenda, A. Jastrzębska, W. Pedrycz, R. Piliszek, Rejecting Foreign Elements in Pattern Recognition Problem-Reinforced Training of Rejection Level P. Bilski, Automated selection of kernel parameters in diagnostics of analog systems, Przegląd Elektrotechniczny, 2011 Kernel Functions for Machine Learning Applications [Online]. J. Stefanowski, SVM Support Vector Machines Poznań University of Technology, UM slajdy dodatkowe do wykładu P. Chudzian, Optymalizacja parametrów przekształcenia jądrowego w zadaniach klasyfikacji, Politechnika Warszawska, PhD Thesis, 2012 (in Polish) E. Miedziński, Klasyfikacja wyników wyszukiwania zasobów internetowych, Politechnika Warszawska, BSc Thesis, 2013 (in Polish)

UCZENIE MASZYNOWE III - SVM. mgr inż. Adam Kupryjanow

UCZENIE MASZYNOWE III - SVM. mgr inż. Adam Kupryjanow UCZENIE MASZYNOWE III - SVM mgr inż. Adam Kupryjanow Plan wykładu Wprowadzenie LSVM dane separowalne liniowo SVM dane nieseparowalne liniowo Nieliniowy SVM Kernel trick Przykłady zastosowań Historia 1992

Bardziej szczegółowo

Data Mining Wykład 6. Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa.

Data Mining Wykład 6. Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa. GLM (Generalized Linear Models) Data Mining Wykład 6 Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa Naiwny klasyfikator Bayesa jest klasyfikatorem statystycznym -

Bardziej szczegółowo

Rozpoznawanie obrazów

Rozpoznawanie obrazów Rozpoznawanie obrazów Laboratorium Python Zadanie nr 1 Regresja liniowa autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, M. Zięba, J. Kaczmar Cel zadania Celem zadania jest implementacja liniowego zadania

Bardziej szczegółowo

SVM: Maszyny Wektorów Podpieraja cych

SVM: Maszyny Wektorów Podpieraja cych SVM 1 / 24 SVM: Maszyny Wektorów Podpieraja cych Nguyen Hung Son Outline SVM 2 / 24 1 Wprowadzenie 2 Brak liniowej separowalności danych Nieznaczna nieseparowalność Zmiana przetrzeń atrybutów 3 Implementacja

Bardziej szczegółowo

7. Maszyny wektorów podpierajacych SVMs

7. Maszyny wektorów podpierajacych SVMs Algorytmy rozpoznawania obrazów 7. Maszyny wektorów podpierajacych SVMs dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Maszyny wektorów podpierajacych - SVMs Maszyny wektorów podpierających (ang.

Bardziej szczegółowo

5. Analiza dyskryminacyjna: FLD, LDA, QDA

5. Analiza dyskryminacyjna: FLD, LDA, QDA Algorytmy rozpoznawania obrazów 5. Analiza dyskryminacyjna: FLD, LDA, QDA dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Liniowe funkcje dyskryminacyjne Liniowe funkcje dyskryminacyjne mają ogólną

Bardziej szczegółowo

Metody Sztucznej Inteligencji II

Metody Sztucznej Inteligencji II 17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 1 Regresja liniowa autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z liniowym zadaniem najmniejszych

Bardziej szczegółowo

4.1. Wprowadzenie...70 4.2. Podstawowe definicje...71 4.3. Algorytm określania wartości parametrów w regresji logistycznej...74

4.1. Wprowadzenie...70 4.2. Podstawowe definicje...71 4.3. Algorytm określania wartości parametrów w regresji logistycznej...74 3 Wykaz najważniejszych skrótów...8 Przedmowa... 10 1. Podstawowe pojęcia data mining...11 1.1. Wprowadzenie...12 1.2. Podstawowe zadania eksploracji danych...13 1.3. Główne etapy eksploracji danych...15

Bardziej szczegółowo

Systemy uczące się wykład 2

Systemy uczące się wykład 2 Systemy uczące się wykład 2 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 19 X 2018 Podstawowe definicje Fakt; Przesłanka; Konkluzja; Reguła; Wnioskowanie. Typy wnioskowania

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt

Bardziej szczegółowo

KLASYFIKACJA TEKSTUR ZA POMOCĄ SVM MASZYNY WEKTORÓW WSPIERAJĄCYCH

KLASYFIKACJA TEKSTUR ZA POMOCĄ SVM MASZYNY WEKTORÓW WSPIERAJĄCYCH Inżynieria Rolnicza 13/2006 Jacek Goszczyński Instytut Inżynierii Rolniczej Akademia Rolnicza w Poznaniu KLASYFIKACJA TEKSTUR ZA POMOCĄ SVM MASZYNY WEKTORÓW WSPIERAJĄCYCH Streszczenie Motywacją do badań

Bardziej szczegółowo

Wstęp do przetwarzania języka naturalnego. Wykład 11 Maszyna Wektorów Nośnych

Wstęp do przetwarzania języka naturalnego. Wykład 11 Maszyna Wektorów Nośnych Wstęp do przetwarzania języka naturalnego Wykład 11 Wojciech Czarnecki 8 stycznia 2014 Section 1 Przypomnienie Wektoryzacja tfidf Przypomnienie document x y z Antony and Cleopatra 5.25 1.21 1.51 Julius

Bardziej szczegółowo

Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę

Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę Norbert Jankowski Ontogeniczne sieci neuronowe O sieciach zmieniających swoją strukturę Warszawa 2003 Opracowanie książki było wspierane stypendium Uniwersytetu Mikołaja Kopernika Spis treści Wprowadzenie

Bardziej szczegółowo

Metody klasyfikacji danych - część 1 p.1/24

Metody klasyfikacji danych - część 1 p.1/24 Metody klasyfikacji danych - część 1 Inteligentne Usługi Informacyjne Jerzy Dembski Metody klasyfikacji danych - część 1 p.1/24 Plan wykładu - Zadanie klasyfikacji danych - Przeglad problemów klasyfikacji

Bardziej szczegółowo

8. Neuron z ciągłą funkcją aktywacji.

8. Neuron z ciągłą funkcją aktywacji. 8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i

Bardziej szczegółowo

Metody klasyfikacji i rozpoznawania wzorców. Najważniejsze rodzaje klasyfikatorów

Metody klasyfikacji i rozpoznawania wzorców.  Najważniejsze rodzaje klasyfikatorów Metody klasyfikacji i rozpoznawania wzorców www.michalbereta.pl Najważniejsze rodzaje klasyfikatorów Dla określonego problemu klasyfikacyjnego (tzn. dla danego zestawu danych) należy przetestować jak najwięcej

Bardziej szczegółowo

Popularne klasyfikatory w pakietach komputerowych

Popularne klasyfikatory w pakietach komputerowych Popularne klasyfikatory w pakietach komputerowych Klasyfikator liniowy Uogólniony klasyfikator liniowy SVM aiwny klasyfikator bayesowski Ocena klasyfikatora ROC Lista popularnych pakietów Klasyfikator

Bardziej szczegółowo

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia

Bardziej szczegółowo

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny

Bardziej szczegółowo

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0 Uczenie się pojedynczego neuronu W0 X0=1 W1 x1 W2 s f y x2 Wp xp p x i w i=x w+wo i=0 Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z=0 Wówczas: W 1 x 1 + w 2 x 2 + = 0 Algorytm

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-10 Projekt pn. Wzmocnienie

Bardziej szczegółowo

WYKŁAD: Perceptron Rosenblatta. Maszyny wektorów podpierających (SVM). Empiryczne reguły bayesowskie. Zaawansowane Metody Uczenia Maszynowego

WYKŁAD: Perceptron Rosenblatta. Maszyny wektorów podpierających (SVM). Empiryczne reguły bayesowskie. Zaawansowane Metody Uczenia Maszynowego WYKŁAD: Perceptron Rosenblatta. Maszyny wektorów podpierających (SVM). Empiryczne reguły bayesowskie Zaawansowane Metody Uczenia Maszynowego Perceptron Rosenblatta Szukamy hiperpłaszczyzny β 0 + β 1 najlepiej

Bardziej szczegółowo

Entropia Renyi ego, estymacja gęstości i klasyfikacja

Entropia Renyi ego, estymacja gęstości i klasyfikacja Entropia Renyi ego, estymacja gęstości i klasyfikacja Wojciech Czarnecki Jacek Tabor 6 lutego 2014 1 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 1/36 36 2 / Wojciech Czarnecki,

Bardziej szczegółowo

W ostatnim wykładzie doszliśmy do tego, że problem znalezienia klasyfikatora optymalnego pod względem marginesów można wyrazić w następujący sposób:

W ostatnim wykładzie doszliśmy do tego, że problem znalezienia klasyfikatora optymalnego pod względem marginesów można wyrazić w następujący sposób: Spis treści 1 Maszyny Wektorów Wspierających 2 1.1 SVM w formaliźmie Lagranga 1.2 Przejście do pstaci dualnej 1.2.1 Wyznaczenie parametrów modelu: 1.2.2 Klasyfikacja: 2 Funkcje jądrowe 2.1 Mapowanie do

Bardziej szczegółowo

Lokalne klasyfikatory jako narzędzie analizy i

Lokalne klasyfikatory jako narzędzie analizy i Lokalne klasyfikatory jako narzędzie analizy i klasyfikacji sygnałów 25 listopada 2005 Lokalne klasyfikatory... 2 Część I Hierarchiczne biortogonalne bazy dyskryminacyjne Lokalne klasyfikatory... 3 Sformułowanie

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej

Bardziej szczegółowo

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska Sieci neuronowe w Statistica Agnieszka Nowak - Brzezioska Podstawowym elementem składowym sztucznej sieci neuronowej jest element przetwarzający neuron. Schemat działania neuronu: x1 x2 w1 w2 Dendrites

Bardziej szczegółowo

Sieci neuronowe w Statistica

Sieci neuronowe w Statistica http://usnet.us.edu.pl/uslugi-sieciowe/oprogramowanie-w-usk-usnet/oprogramowaniestatystyczne/ Sieci neuronowe w Statistica Agnieszka Nowak - Brzezińska Podstawowym elementem składowym sztucznej sieci neuronowej

Bardziej szczegółowo

ALGORYTMY SZTUCZNEJ INTELIGENCJI

ALGORYTMY SZTUCZNEJ INTELIGENCJI ALGORYTMY SZTUCZNEJ INTELIGENCJI Sieci neuronowe 06.12.2014 Krzysztof Salamon 1 Wstęp Sprawozdanie to dotyczy ćwiczeń z zakresu sieci neuronowych realizowanym na przedmiocie: Algorytmy Sztucznej Inteligencji.

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline. Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 211-1-18 1 Pomysł Przykłady Zastosowanie 2

Bardziej szczegółowo

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-03 Projekt pn. Wzmocnienie potencjału

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych klasyfikacja LABORKA Piotr Ciskowski zadanie 1. klasyfikacja zwierząt sieć jednowarstwowa żródło: Tadeusiewicz. Odkrywanie własności sieci neuronowych, str. 159 Przykład

Bardziej szczegółowo

1 Wartości własne oraz wektory własne macierzy

1 Wartości własne oraz wektory własne macierzy Rozwiązania zadania umieszczonego na końcu poniższych notatek proszę przynieść na kartkach Proszę o staranne i formalne uzasadnienie odpowiedzi Za zadanie można uzyskać do 6 punktów (jeżeli przyniesione

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką

Bardziej szczegółowo

Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner

Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner Wydział Matematyki i Nauk Informacyjnych Politechnika Warszawska Elementy nieprzystające Definicja odrzucania Klasyfikacja

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 4. UCZENIE SIĘ INDUKCYJNE Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska WSTĘP Wiedza pozyskana przez ucznia ma charakter odwzorowania

Bardziej szczegółowo

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. zajecia.jakubw.pl/nai Literatura: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym. WNT, Warszawa 997. PODSTAWOWE ZAGADNIENIA TECHNICZNE AI

Bardziej szczegółowo

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Wykład 10 Mapa cech Kohonena i jej modyfikacje - uczenie sieci samoorganizujących się - kwantowanie wektorowe

Bardziej szczegółowo

Elementy inteligencji obliczeniowej

Elementy inteligencji obliczeniowej Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego

Bardziej szczegółowo

Zasady analizy algorytmów

Zasady analizy algorytmów Zasady analizy algorytmów A więc dziś w programie: - Kilka ważnych definicji i opisów formalnych - Złożoność: czasowa i pamięciowa - Kategorie problemów - Jakieś przykłady Problem: Zadanie możliwe do rozwiązania

Bardziej szczegółowo

Elementy modelowania matematycznego

Elementy modelowania matematycznego Elementy modelowania matematycznego Modelowanie algorytmów klasyfikujących. Podejście probabilistyczne. Naiwny klasyfikator bayesowski. Modelowanie danych metodą najbliższych sąsiadów. Jakub Wróblewski

Bardziej szczegółowo

Podstawy sztucznej inteligencji

Podstawy sztucznej inteligencji wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,

Bardziej szczegółowo

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa

Bardziej szczegółowo

Laboratorium 11. Regresja SVM.

Laboratorium 11. Regresja SVM. Laboratorium 11 Regresja SVM. 1. Uruchom narzędzie Oracle Data Miner i połącz się z serwerem bazy danych. 2. Z menu głównego wybierz Activity Build. Na ekranie powitalnym kliknij przycisk Dalej>. 3. Z

Bardziej szczegółowo

Projekt Sieci neuronowe

Projekt Sieci neuronowe Projekt Sieci neuronowe Chmielecka Katarzyna Gr. 9 IiE 1. Problem i dane Sieć neuronowa miała za zadanie nauczyć się klasyfikować wnioski kredytowe. W projekcie wykorzystano dane pochodzące z 110 wniosków

Bardziej szczegółowo

Metody sztucznej inteligencji Zadanie 1: Perceptron Rosenblatt a w wersji nieliniowej

Metody sztucznej inteligencji Zadanie 1: Perceptron Rosenblatt a w wersji nieliniowej Metody sztucznej inteligencji Zadanie : Perceptron Rosenblatt a w wersji nieliniowej dr inż. Przemysław Klęsk Zbiór danych dla zadania do wykonania w domu Zgodnie z tym, co zostało podane na laboratoriach,

Bardziej szczegółowo

1. Logika, funkcje logiczne, preceptron.

1. Logika, funkcje logiczne, preceptron. Sieci neuronowe 1. Logika, funkcje logiczne, preceptron. 1. (Logika) Udowodnij prawa de Morgana, prawo pochłaniania p (p q), prawo wyłączonego środka p p oraz prawo sprzeczności (p p). 2. Wyraź funkcję

Bardziej szczegółowo

Rozpoznawanie obrazów

Rozpoznawanie obrazów Rozpoznawanie obrazów Ćwiczenia lista zadań nr 7 autorzy: A. Gonczarek, J.M. Tomczak Przykładowe problemy Klasyfikacja binarna Dla obrazu x zaproponowano dwie cechy φ(x) = (φ 1 (x) φ 2 (x)) T. Na obrazie

Bardziej szczegółowo

Inteligentne systemy przeciw atakom sieciowym

Inteligentne systemy przeciw atakom sieciowym Inteligentne systemy przeciw atakom sieciowym wykład Sztuczne sieci neuronowe (SSN) Joanna Kołodziejczyk 2016 Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 1 / 36 Biologiczne

Bardziej szczegółowo

Uczenie maszynowe w zastosowaniu do fizyki cząstek

Uczenie maszynowe w zastosowaniu do fizyki cząstek Uczenie maszynowe w zastosowaniu do fizyki cząstek Wykorzystanie uczenia maszynowego i głębokich sieci neuronowych do ćwiczenia 3. M. Kaczmarczyk, P. Górski, P. Olejniczak, O. Kosobutskyi Instytut Fizyki

Bardziej szczegółowo

Uczenie sieci neuronowych i bayesowskich

Uczenie sieci neuronowych i bayesowskich Wstęp do metod sztucznej inteligencji www.mat.uni.torun.pl/~piersaj 2009-01-22 Co to jest neuron? Komputer, a mózg komputer mózg Jednostki obliczeniowe 1-4 CPU 10 11 neuronów Pojemność 10 9 b RAM, 10 10

Bardziej szczegółowo

10. Redukcja wymiaru - metoda PCA

10. Redukcja wymiaru - metoda PCA Algorytmy rozpoznawania obrazów 10. Redukcja wymiaru - metoda PCA dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. PCA Analiza składowych głównych: w skrócie nazywana PCA (od ang. Principle Component

Bardziej szczegółowo

wiedzy Sieci neuronowe

wiedzy Sieci neuronowe Metody detekcji uszkodzeń oparte na wiedzy Sieci neuronowe Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 7 Wprowadzenie Okres kształtowania się teorii sztucznych sieci

Bardziej szczegółowo

Wprowadzenie. { 1, jeżeli ˆr(x) > 0, pozatym. Regresja liniowa Regresja logistyczne Jądrowe estymatory gęstości. Metody regresyjne

Wprowadzenie. { 1, jeżeli ˆr(x) > 0, pozatym. Regresja liniowa Regresja logistyczne Jądrowe estymatory gęstości. Metody regresyjne Wprowadzenie Prostym podejściem do klasyfikacji jest estymacja funkcji regresji r(x) =E(Y X =x)zpominięciemestymacjigęstościf k. Zacznijmyodprzypadkudwóchgrup,tj.gdy Y = {1,0}. Wówczasr(x) =P(Y =1 X =x)ipouzyskaniuestymatora

Bardziej szczegółowo

A Zadanie

A Zadanie where a, b, and c are binary (boolean) attributes. A Zadanie 1 2 3 4 5 6 7 8 9 10 Punkty a (maks) (2) (2) (2) (2) (4) F(6) (8) T (8) (12) (12) (40) Nazwisko i Imiȩ: c Uwaga: ta część zostanie wypełniona

Bardziej szczegółowo

RBF sieci neuronowe o radialnych funkcjach bazowych

RBF sieci neuronowe o radialnych funkcjach bazowych RBF sieci neuronowe o radialnych funkcjach bazowych Jerzy Stefanowski Zakład Inteligentnych Systemów Wspomagania Decyzji Instytut Informatyki Politechnika Poznańska Wykład Uczenie maszynowe edycja 2010

Bardziej szczegółowo

Uczenie sieci typu MLP

Uczenie sieci typu MLP Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik

Bardziej szczegółowo

Wprowadzenie. Metody bayesowskie Drzewa klasyfikacyjne i lasy losowe Sieci neuronowe SVM. Klasyfikacja. Wstęp

Wprowadzenie. Metody bayesowskie Drzewa klasyfikacyjne i lasy losowe Sieci neuronowe SVM. Klasyfikacja. Wstęp Wstęp Problem uczenia się pod nadzorem, inaczej nazywany uczeniem się z nauczycielem lub uczeniem się na przykładach, sprowadza się do określenia przydziału obiektów opisanych za pomocą wartości wielu

Bardziej szczegółowo

ALGORYTM RANDOM FOREST

ALGORYTM RANDOM FOREST SKRYPT PRZYGOTOWANY NA ZAJĘCIA INDUKOWANYCH REGUŁ DECYZYJNYCH PROWADZONYCH PRZEZ PANA PAWŁA WOJTKIEWICZA ALGORYTM RANDOM FOREST Katarzyna Graboś 56397 Aleksandra Mańko 56699 2015-01-26, Warszawa ALGORYTM

Bardziej szczegółowo

Jądrowe klasyfikatory liniowe

Jądrowe klasyfikatory liniowe Jądrowe klasyfikatory liniowe Waldemar Wołyński Wydział Matematyki i Informatyki UAM Poznań Wisła, 9 grudnia 2009 Waldemar Wołyński () Jądrowe klasyfikatory liniowe Wisła, 9 grudnia 2009 1 / 19 Zagadnienie

Bardziej szczegółowo

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,

Bardziej szczegółowo

Identyfikacja istotnych atrybutów za pomocą Baysowskich miar konfirmacji

Identyfikacja istotnych atrybutów za pomocą Baysowskich miar konfirmacji Identyfikacja istotnych atrybutów za pomocą Baysowskich miar konfirmacji Jacek Szcześniak Jerzy Błaszczyński Roman Słowiński Poznań, 5.XI.2013r. Konspekt Wstęp Wprowadzenie Metody typu wrapper Nowe metody

Bardziej szczegółowo

Systemy agentowe. Sieci neuronowe. Jędrzej Potoniec

Systemy agentowe. Sieci neuronowe. Jędrzej Potoniec Systemy agentowe Sieci neuronowe Jędrzej Potoniec Złe wieści o teście To jest slajd, przy którym wygłaszam złe wieści. Perceptron (Rossenblat, 1957) A. Géron, Hands-On Machine Learning with Scikit-Learn

Bardziej szczegółowo

det[a 1,..., A i,..., A j,..., A n ] + det[a 1,..., ka j,..., A j,..., A n ] Dowód Udowodniliśmy, że: det[a 1,..., A i + ka j,..., A j,...

det[a 1,..., A i,..., A j,..., A n ] + det[a 1,..., ka j,..., A j,..., A n ] Dowód Udowodniliśmy, że: det[a 1,..., A i + ka j,..., A j,... Wykład 14 Wyznacznik macierzy cd Twierdzenie 1 Niech A będzie macierzą kwadratową i niech A i, A j będą dwiema różnymi jej kolumnami, wtedy dla dowolnego k K: det[a 1,, A i,, A j,, A n ] det[a 1,, A i

Bardziej szczegółowo

Metody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska

Metody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska Metody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska e-mail: bartosz.krawczyk@pwr.wroc.pl Czym jest klasyfikacja

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium JAVA Zadanie nr 2 Rozpoznawanie liter autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z problemem klasyfikacji

Bardziej szczegółowo

INTERPOLACJA I APROKSYMACJA FUNKCJI

INTERPOLACJA I APROKSYMACJA FUNKCJI Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Wprowadzenie Na czym polega interpolacja? Interpolacja polega

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 2 Detekcja twarzy autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się algorytmem gradientu prostego

Bardziej szczegółowo

1 Pochodne wyższych rzędów

1 Pochodne wyższych rzędów Pochodne wyższych rzędów Pochodną rzędu drugiego lub drugą pochodną funkcji y = f(x) nazywamy pochodną pierwszej pochodnej tej funkcji. Analogicznie definiujemy pochodne wyższych rzędów, jako pochodne

Bardziej szczegółowo

Wprowadzenie do uczenia maszynowego

Wprowadzenie do uczenia maszynowego Wprowadzenie do uczenia maszynowego Agnieszka Ławrynowicz 12 stycznia 2017 Co to jest uczenie maszynowe? dziedzina nauki, która zajmuje się sprawianiem aby komputery mogły uczyć się bez ich zaprogramowania

Bardziej szczegółowo

Technologie Informacyjne Wykład 4

Technologie Informacyjne Wykład 4 Technologie Informacyjne Wykład 4 Arytmetyka komputerów Wojciech Myszka Jakub Słowiński Katedra Mechaniki i Inżynierii Materiałowej Wydział Mechaniczny Politechnika Wrocławska 30 października 2014 Część

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. dla sieci skierowanych Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-25 1 Motywacja

Bardziej szczegółowo

Jakość uczenia i generalizacja

Jakość uczenia i generalizacja Jakość uczenia i generalizacja Dokładność uczenia Jest koncepcją miary w jakim stopniu nasza sieć nauczyła się rozwiązywać określone zadanie Dokładność mówi na ile nauczyliśmy się rozwiązywać zadania które

Bardziej szczegółowo

Następnie przypominamy (dla części studentów wprowadzamy) podstawowe pojęcia opisujące funkcje na poziomie rysunków i objaśnień.

Następnie przypominamy (dla części studentów wprowadzamy) podstawowe pojęcia opisujące funkcje na poziomie rysunków i objaśnień. Zadanie Należy zacząć od sprawdzenia, co studenci pamiętają ze szkoły średniej na temat funkcji jednej zmiennej. Na początek można narysować kilka krzywych na tle układu współrzędnych (funkcja gładka,

Bardziej szczegółowo

Prof. Stanisław Jankowski

Prof. Stanisław Jankowski Prof. Stanisław Jankowski Zakład Sztucznej Inteligencji Zespół Statystycznych Systemów Uczących się p. 228 sjank@ise.pw.edu.pl Zakres badań: Sztuczne sieci neuronowe Maszyny wektorów nośnych SVM Maszyny

Bardziej szczegółowo

ROZKŁAD MATERIAŁU DO II KLASY LICEUM (ZAKRES ROZSZERZONY) A WYMAGANIA PODSTAWY PROGRAMOWEJ.

ROZKŁAD MATERIAŁU DO II KLASY LICEUM (ZAKRES ROZSZERZONY) A WYMAGANIA PODSTAWY PROGRAMOWEJ. ROZKŁAD MATERIAŁU DO II KLASY LICEUM (ZAKRES ROZSZERZONY) A WYMAGANIA PODSTAWY PROGRAMOWEJ. LICZBA TEMAT GODZIN LEKCYJNYCH Potęgi, pierwiastki i logarytmy (8 h) Potęgi 3 Pierwiastki 3 Potęgi o wykładnikach

Bardziej szczegółowo

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18 Eksploracja Danych wykład 4 Sebastian Zając WMP.SNŚ UKSW 10 maja 2017 Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja 2017 1 / 18 Klasyfikacja danych Klasyfikacja Najczęściej stosowana (najstarsza)

Bardziej szczegółowo

Agnieszka Nowak Brzezińska Wykład III

Agnieszka Nowak Brzezińska Wykład III Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe

Bardziej szczegółowo

TEORETYCZNE PODSTAWY INFORMATYKI

TEORETYCZNE PODSTAWY INFORMATYKI 1 TEORETYCZNE PODSTAWY INFORMATYKI WFAiS UJ, Informatyka Stosowana I rok studiów, I stopień Wykład 16 2 Data Science: Uczenie maszynowe Uczenie maszynowe: co to znaczy? Metody Regresja Klasyfikacja Klastering

Bardziej szczegółowo

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda Sieci neuropodobne 1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN Agenda Trochę neurobiologii System nerwowy w organizmach żywych tworzą trzy

Bardziej szczegółowo

Klasyfikator liniowy Wstęp Klasyfikator liniowy jest najprostszym możliwym klasyfikatorem. Zakłada on liniową separację liniowy podział dwóch klas między sobą. Przedstawia to poniższy rysunek: 5 4 3 2

Bardziej szczegółowo

Funkcje wymierne. Jerzy Rutkowski. Działania dodawania i mnożenia funkcji wymiernych określa się wzorami: g h + k l g h k.

Funkcje wymierne. Jerzy Rutkowski. Działania dodawania i mnożenia funkcji wymiernych określa się wzorami: g h + k l g h k. Funkcje wymierne Jerzy Rutkowski Teoria Przypomnijmy, że przez R[x] oznaczamy zbiór wszystkich wielomianów zmiennej x i o współczynnikach rzeczywistych Definicja Funkcją wymierną jednej zmiennej nazywamy

Bardziej szczegółowo

Metody Numeryczne Optymalizacja. Wojciech Szewczuk

Metody Numeryczne Optymalizacja. Wojciech Szewczuk Metody Numeryczne Optymalizacja Optymalizacja Definicja 1 Przez optymalizację będziemy rozumieć szukanie minimów lub maksimów funkcji. Optymalizacja Definicja 2 Optymalizacja lub programowanie matematyczne

Bardziej szczegółowo

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017 Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład III bogumil.konopka@pwr.edu.pl 2016/2017 Wykład III - plan Regresja logistyczna Ocena skuteczności klasyfikacji Macierze pomyłek Krzywe

Bardziej szczegółowo

Podstawy Sztucznej Inteligencji (PSZT)

Podstawy Sztucznej Inteligencji (PSZT) Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12

Bardziej szczegółowo

Oracle Data Mining 10g

Oracle Data Mining 10g Oracle Data Mining 10g Zastosowanie algorytmu Support Vector Machines do problemów biznesowych Piotr Hajkowski Oracle Consulting Agenda Podstawy teoretyczne algorytmu SVM SVM w bazie danych Klasyfikacja

Bardziej szczegółowo

Pattern Classification

Pattern Classification Pattern Classification All materials in these slides were taken from Pattern Classification (2nd ed) by R. O. Duda, P. E. Hart and D. G. Stork, John Wiley & Sons, 2000 with the permission of the authors

Bardziej szczegółowo

w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych.

w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych. Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(), zwaną funkcją aproksymującą

Bardziej szczegółowo

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311 Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311 PLAN: Wykład 5 - Metody doboru współczynnika uczenia - Problem inicjalizacji wag - Problem doboru architektury

Bardziej szczegółowo

Testowanie modeli predykcyjnych

Testowanie modeli predykcyjnych Testowanie modeli predykcyjnych Wstęp Podczas budowy modelu, którego celem jest przewidywanie pewnych wartości na podstawie zbioru danych uczących poważnym problemem jest ocena jakości uczenia i zdolności

Bardziej szczegółowo

MATLAB Neural Network Toolbox przegląd

MATLAB Neural Network Toolbox przegląd MATLAB Neural Network Toolbox przegląd WYKŁAD Piotr Ciskowski Neural Network Toolbox: Neural Network Toolbox - zastosowania: przykłady zastosowań sieci neuronowych: The 1988 DARPA Neural Network Study

Bardziej szczegółowo

Funkcje Andrzej Musielak 1. Funkcje

Funkcje Andrzej Musielak 1. Funkcje Funkcje Andrzej Musielak 1 Funkcje Funkcja liniowa Funkcja liniowa jest postaci f(x) = a x + b, gdzie a, b R Wartość a to tangens nachylenia wykresu do osi Ox, natomiast b to wartość funkcji w punkcie

Bardziej szczegółowo

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład I dr inż. 2015/2016

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład I dr inż. 2015/2016 Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład I dr inż. Bogumil.Konopka@pwr.edu.pl 2015/2016 1 Wykład I - plan Sprawy organizacyjne Uczenie maszynowe podstawowe pojęcia Proces modelowania

Bardziej szczegółowo

Logarytmy. Funkcje logarytmiczna i wykładnicza. Równania i nierówności wykładnicze i logarytmiczne.

Logarytmy. Funkcje logarytmiczna i wykładnicza. Równania i nierówności wykładnicze i logarytmiczne. Logarytmy. Funkcje logarytmiczna i wykładnicza. Równania i nierówności wykładnicze i logarytmiczne. Definicja. Niech a i b będą dodatnimi liczbami rzeczywistymi i niech a. Logarytmem liczby b przy podstawie

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE. Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka ADALINE. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 218-1-15/22 Projekt pn.

Bardziej szczegółowo

Teoretyczne podstawy informatyki

Teoretyczne podstawy informatyki Teoretyczne podstawy informatyki Wykład 12a: Prawdopodobieństwo i algorytmy probabilistyczne http://hibiscus.if.uj.edu.pl/~erichter/dydaktyka2010/tpi-2010 Prof. dr hab. Elżbieta Richter-Wąs 1 Teoria prawdopodobieństwa

Bardziej szczegółowo

Agnieszka Nowak Brzezińska

Agnieszka Nowak Brzezińska Agnieszka Nowak Brzezińska jeden z algorytmów regresji nieparametrycznej używanych w statystyce do prognozowania wartości pewnej zmiennej losowej. Może również byd używany do klasyfikacji. - Założenia

Bardziej szczegółowo

Wprowadzenie do uczenia maszynowego

Wprowadzenie do uczenia maszynowego Wprowadzenie do uczenia maszynowego Agnieszka Ławrynowicz 16 listopada 2017 Co to jest uczenie maszynowe? dziedzina nauki, która zajmuje się sprawianiem aby komputery mogły uczyć się bez ich zaprogramowania

Bardziej szczegółowo