Systemy agentowe. Uwagi organizacyjne. Jędrzej Potoniec

Wielkość: px
Rozpocząć pokaz od strony:

Download "Systemy agentowe. Uwagi organizacyjne. Jędrzej Potoniec"

Transkrypt

1 Systemy agentowe Uwagi organizacyjne Jędrzej Potoniec

2 Kontakt mgr inż. Jędrzej Potoniec

3 Zasady oceniania wykład test wielokrotnego wyboru laboratoria wykonanie ćwiczeń laboratoryjnych

4 Skala ocen % punktów ocena ( ; 50] 2,0 (50; 60] 3,0 (60; 70] 3,5 (70; 80] 4,0 (80; 90] 4,5 (90; ) 5,0

5 Skąd nazwa? S. Russel, P. Norwig Artificial Intelligence A Modern Approach (3ed) An agent is anything that can be viewed as perceiving its environment throught sensors and acting upon that environment through actuators.

6 Skąd nazwa? S. Russel, P. Norwig Artificial Intelligence A Modern Approach (3ed) An agent is anything that can be viewed as perceiving its environment throught sensors and acting upon that environment through actuators. człowiek wzrok, słuch/ręce, nogi robot kamera, mikrofon/silniki agent programowy naciśnięcia klawiszy, odczyt plików/ekran, zapis plików

7 Skąd nazwa? S. Russel, P. Norwig Artificial Intelligence A Modern Approach (3ed) An agent is anything that can be viewed as perceiving its environment throught sensors and acting upon that environment through actuators. człowiek wzrok, słuch/ręce, nogi robot kamera, mikrofon/silniki agent programowy naciśnięcia klawiszy, odczyt plików/ekran, zapis plików agent agenty, nie: agent agenci

8 Literatura I. Goodfellow, Y. Bengio, A. Courville Deep Learning MIT Press

9 Literatura Aurélien Géron Hands-On Machine Learning with Scikit-Learn and TensorFlow O Reilly Media 2017

10 Plan wykładu 1 Regresja liniowa, wielomianowa i logistyczna 2 Warstwowe sieci neuronowe 3 Uczenie ze wzmocnieniem

11 Program uczący się T. Mitchell Machine Learning 1997 Program komputerowy uczy się z doświadczenia E względem pewnej klasy zadań T i miary jakości P, jeżeli wartość jego miary jakości P na zadaniach z klasy T poprawia się wraz ze ilością doświadczenia E.

12 Niewyczerpująca lista klas zadań T klasyfikacja

13 Niewyczerpująca lista klas zadań T klasyfikacja klasyfikacja z brakującymi wejściami

14 Niewyczerpująca lista klas zadań T klasyfikacja klasyfikacja z brakującymi wejściami regresja

15 Niewyczerpująca lista klas zadań T klasyfikacja klasyfikacja z brakującymi wejściami regresja transkrypcja

16 Niewyczerpująca lista klas zadań T klasyfikacja klasyfikacja z brakującymi wejściami regresja transkrypcja tłumaczenie maszynowe

17 Niewyczerpująca lista klas zadań T klasyfikacja klasyfikacja z brakującymi wejściami regresja transkrypcja tłumaczenie maszynowe przewidywanie złożonych struktur

18 Niewyczerpująca lista klas zadań T klasyfikacja klasyfikacja z brakującymi wejściami regresja transkrypcja tłumaczenie maszynowe przewidywanie złożonych struktur detekcja anomalii

19 Niewyczerpująca lista klas zadań T klasyfikacja klasyfikacja z brakującymi wejściami regresja transkrypcja tłumaczenie maszynowe przewidywanie złożonych struktur detekcja anomalii synteza i próbkowanie

20 Niewyczerpująca lista klas zadań T klasyfikacja klasyfikacja z brakującymi wejściami regresja transkrypcja tłumaczenie maszynowe przewidywanie złożonych struktur detekcja anomalii synteza i próbkowanie uzupełnianie brakujących wejść

21 Niewyczerpująca lista klas zadań T klasyfikacja klasyfikacja z brakującymi wejściami regresja transkrypcja tłumaczenie maszynowe przewidywanie złożonych struktur detekcja anomalii synteza i próbkowanie uzupełnianie brakujących wejść usuwanie szumu

22 Niewyczerpująca lista klas zadań T klasyfikacja klasyfikacja z brakującymi wejściami regresja transkrypcja tłumaczenie maszynowe przewidywanie złożonych struktur detekcja anomalii synteza i próbkowanie uzupełnianie brakujących wejść usuwanie szumu estymacja rozkładu prawdopodobieństwa

23 Miary jakości P Liczbowy sposób określenia jak dobrze/źle program rozwiązuje zadanie T. Bywa prosta do zdefiniowania i obiektywna, np. trafność klasyfikacji (ang. accuracy) w zadaniu jaka cyfra jest na rysunku odpowiedzi poprawne wszystkie odpowiedzi ale również nieobiektywna, np. trafność klasyfikacji w zadaniu czy ten pasażer jest terrorystą pasażerowie, którzy nie są terrorystami wszyscy pasażerowie albo trudna do zdefiniowania Grzegorz ma kota 1 Grzegorz s got a cat 2 Grzegorz has a cat 3 He has a cat (Google Translate) 4 Gregory has a cat 100%

24 Doświadczenie E uczenie nadzorowane (ang. supervised): zbiór przykładów opisanych cechami wraz z etykietami uczenie nienadzorowane (ang. unsupervised): zbiór przykładów opisanych cechami uczenie ze wzmocnieniem (ang. reinforcement): środowisko, w którym można wykonywać pewne akcje uczenie częściowo nadzorowane (ang. semi-supervised): niektóre przykłady mają etykiety

25 Reprezentacja Macierz cech X mająca n wierszy oraz p kolumn, zwykle liczby rzeczywiste: X 1,1 X 1,2... X 1,p X 2,1 X 2,2... X 2,p X = Rn p X n,1 X n,2... X n,p

26 Reprezentacja Wektor etykiet y y 1 y 2 y =. Rn y n

27 Regresja liniowa Mając macierz cech X oraz wektor etyket y przewidzieć wektor parametrów w tak, żeby błąd średniokwadratowy (ang. mean-square error (MSE)) był jak najmniejszy: MSE = 1 n n (y i ŷ i ) 2 i=1 ŷ i = w T X i ŷ = Xw

28 Regresja liniowa przypadek jednowymiarowy p = 1 X jest wektorem kolumnowym typu n, w jest pojedynczą liczbą MSE = 1 n (y i wx i ) 2 n i=1 MSE jest najmniejsze MSE = 0 Policzmy!

29 Przykład Przewidzieć koszt paszy y w zależności od liczby prosiaków X X w MSE y (1) ??

30 Przykład Przewidzieć koszt paszy y w zależności od liczby prosiaków X X w MSE y (1) ?? y (2) 348,5 586,5 765??

31 Przykład Przewidzieć koszt paszy y w zależności od liczby prosiaków X X w MSE y (1) ?? y (2) 348,5 586,5 765?? y (3) ??

32 Regresja liniowa przypadek jednowymiarowy p = 1 z wyrazem wolnym X jest wektorem kolumnowym typu n, w jest pojedynczą liczbą MSE = 1 n (y i wx i b) 2 n i=1 MSE jest najmniejsze MSE = 0

33 Prosiaki Przewidzieć koszt paszy y w zależności od liczby prosiaków X X w b MSE y (3) ???

34 Regresja liniowa wariant macierzowy X 1,1 X 1,2... X 1,p 1 X 2,1 X 2,2... X 2,p 1 X = Rn (p+1) X n,1 X n,2... X n,p 1

35 Regresja liniowa wariant macierzowy X 1,1 X 1,2... X 1,p 1 X 2,1 X 2,2... X 2,p 1 X = Rn (p+1) X n,1 X n,2... X n,p [ ] 85 X = 7 1 y = 645 w = [ ] 85 ŷ = Xw =

36 Regresja liniowa wariant macierzowy Policzmy! MSE = 1 n y Xw 2 2 = 1 n (y Xw)T (y Xw) w MSE = 0

37 Prosiaki Policzmy! ( 1 w = X X) T X T y X = 7 1 y =

38 Regresja wielomianowa x 1 1 x1 k x X = X = x 2 k... x n 1 x k n x1 k 1... x 1 1 x2 k 1... x 2 1 xn k 1... x n 1

39 Regresja wielomianowa x 1 1 x1 k x X = X = x 2 k... x n 1 x k n x1 k 1... x 1 1 x2 k 1... x 2 1 xn k 1... x n X = 7 1 X =

40 Prosiaki Czarne: y = 85x + 50 MSE = 0 Czerwone: y = x 4 22x x 2 421x MSE = 0 Niebieskie: y = 517,5 MSE = ,

41 Znajdźmy więcej prosiaków: zbiór testowy Czarne: y = 85x + 50 MSE = 0 Czerwone: y = x 4 22x x 2 421x MSE = 7296 Niebieskie: y = 517,5 MSE = ,

42 Czy prosiaki uczące i prosiaki testowe się różnią? Założenie i.i.d Identicially and idependently distributed Zakłada się, że wszystkie przykłady uczące i testowe pochodzą z tego samego rozkładu prawdopodobieństwa, i zostały wybrane z niego niezależnie od siebie.

43 Zbyt słabe i nadmierne dopasowanie Zbyt słabe dopasowanie (ang. underfitting) Duży błąd na zbiorze uczącym i duży błąd na zbiorze testowym Nadmierne dopasowanie (przeuczenie) (ang. overfitting) Mały błąd na zbiorze uczącym i duży błąd na zbiorze testowym

44 Zbyt słabe i nadmierne dopasowanie I. Goodfellow, Y. Bengio, A. Courville Deep Learning MIT Press 2016, str. 112

45 Parametry i hiperparametry parametry są dobierane przez algorytm w procesie uczenia, np. wektor w w regresji liniowej hiperparametry są dobierane przez użytkownika, żeby sterować procesem uczenia, np. stopień wielomianu w regresji wielomianowej

46 Dobór hiperparametrów i zbiór walidujący Dobór hiperparametrów za pomocą zbioru testowego prowadzi do przeuczenia

47 Dobór hiperparametrów i zbiór walidujący Dobór hiperparametrów za pomocą zbioru testowego prowadzi do przeuczenia dobór parametrów (uczenie) przez minimalizację błędu na zbiorze uczącym dobór hiperparametrów przez minimalizację błędu na zbiorze walidującym szacowanie jakości na zbiorze testowym

48 Zwyczajowy podział danych Podział losowy w nastepujących proporcjach zbiór testowy 70% zbiór walidujący 10% zbiór testowy 20%

49 Sprawdzian krzyżowy (ang. cross-validation) 1 Zbiór uczący dzielony jest na k podzbiorów 2 Dla i = 1, 2,..., k: zbiór walidujący podzbiór i zbiór uczący wszystkie pozostałe podzbiory 3 Za wynik walidacji przyjmuje się średnią ze wszystkich k walidacji (odchylenie standardowe gratis!) Jakie są zalety i wady w stosunku do poprzedniego podejścia?

50 Problemy z regresją liniową ( ) w = X T 1 X X T y } {{ } p p Złożoność odwracania macierzy: O(p 2.4 )

51 Problemy z regresją liniową ( ) w = X T 1 X X T y } {{ } p p Złożoność odwracania macierzy: O(p 2.4 ) Problemy numeryczne

52 Problemy z regresją liniową ( ) w = X T 1 X X T y } {{ } p p Złożoność odwracania macierzy: O(p 2.4 ) Problemy numeryczne Trudności z uogólnieniem: trzeba rozwiązać równanie

53 Schodzenie po gradiencie (ang. gradient descent) I. Goodfellow, Y. Bengio, A. Courville Deep Learning MIT Press 2016, str. 80

54 Schodzenie po gradiencie (ang. gradient descent) A. Géron, Hands-On Machine Learning with Scikit-Learn and TensorFlow 2017, str. 111

55 Schodzenie po gradiencie (ang. gradient descent) J(w, b) = J(w, b) = 1 n (wx i + b y i ) 2 n i=1 ] ni=1 2x i (wx i + b y i ) ni=1 = 2 n (wx n 2 (wx i + b y i ) i + b y i ) n i=1 [ ] [ ] w w = ε J(w, b) b [ 1 n 1 b [ ] xi 1

56 Prosiaki schodzące po gradiencie krok w b MSE w MSE b MSE

57 Prosiaki schodzące po gradiencie MSE krok Warunek stopu: MSE < 1 10 lub J < 1 10

58 Stochastyczne schodzenie po gradiencie Stochastic gradient descent Jeżeli przykładów jest dużo, to schodzenie po gradiencie może być powolne. Zamiast tego w każdym kroku wybieramy losowo jeden przykład uczący i obliczamy gradient wyłącznie na jego podstawie.

59 Stochastyczne schodzenie po gradiencie A. Géron, Hands-On Machine Learning with Scikit-Learn and TensorFlow 2017, str. 117

60 Prosiaki stochastycznie schodzące po gradiencie MSE krok Warunek stopu: MSE przez ostatnie 10 kroków < 1 10

61 Schodzenie po gradiencie z mini-grupami Mini-batch gradient descent W kolejnych krokach schodzenia po gradiencie wybieramy (niewielki) podzbiór przykładów uczących do obliczeń stabilniejszy zysk wydajnościowy z obliczeń macierzowych

62 Problemy ze schodzeniem po gradiencie I. Goodfellow, Y. Bengio, A. Courville Deep Learning MIT Press 2016, str. 81

63 Problemy ze schodzeniem po gradiencie A. Géron, Hands-On Machine Learning with Scikit-Learn and TensorFlow 2017, str. 112

64 Problemy ze schodzeniem po gradiencie A. Géron, Hands-On Machine Learning with Scikit-Learn and TensorFlow 2017, str. 112

65 Problemy ze schodzeniem po gradiencie A. Géron, Hands-On Machine Learning with Scikit-Learn and TensorFlow 2017, str. 113

66 Skalowanie standaryzacja min-max X i,j = X i,j = X i,j X,j σ X,j X i,j min k {X k,j } max k {X k,j } min k {X k,j } Czym różnią się te dwa podejścia?

67 Trochę bardziej skomplikowany problem regresji y = 0,02x x N(0, 100) niebieski: proces, pomarańczowy: zb. treningowy, zielony: zb. walidujący

68 Możliwe rozwiązanie (I) x x x x 4 MSE=

69 Możliwe rozwiązanie (II) x x x x 4 MSE=

70 Możliwe rozwiązanie (III) x x x x 4 MSE=

71 Możliwe rozwiązanie (IV) x x x x 4 MSE=

72 Możliwe rozwiązanie (V) x x x x 4 MSE=

73 Regularyzacja Ridge J(w) = MSE(w) + α 1 2 n wi 2 } i=1 {{ } kara

74 Porównanie rozwiązań α MSE tr kara całkowity koszt MSE walid

75 Porównanie rozwiązań α MSE tr kara całkowity koszt MSE walid Ile współczynników miały rozważane wielomiany?

76 Możliwe rozwiązanie (I) x x x x 4 MSE=

77 Możliwe rozwiązanie (II) x x x x 4 MSE=

78 Możliwe rozwiązanie (III) x x x 4 MSE=

79 Możliwe rozwiązanie (IV) x x 3 MSE=

80 Możliwe rozwiązanie (V) MSE=

81 Regularyzacja Lasso J(w) = MSE(w) + α n w i i=1 }{{} kara

82 Porównanie rozwiązań α # wsp. MSE tr kara całkowity koszt MSE walid

83 Dlaczego Lasso się tak zachowuje? Obliczmy karę w Ridge i w Lasso dla następujących przypadków: 1 w 1 = [ ]

84 Dlaczego Lasso się tak zachowuje? Obliczmy karę w Ridge i w Lasso dla następujących przypadków: 1 w 1 = [ ] w 2 = w 1 [ ]

85 Dlaczego Lasso się tak zachowuje? Obliczmy karę w Ridge i w Lasso dla następujących przypadków: 1 w 1 = [ ] w 2 = w 1 [ ] w 3 = w 1 [ ]

86 Dlaczego Lasso się tak zachowuje? Obliczmy karę w Ridge i w Lasso dla następujących przypadków: 1 w 1 = [ ] w 2 = w 1 [ ] w 3 = w 1 [ ] Który przypadek jest lepszy dla regresji Ridge, a który dla Lasso?

87 Regularyzacja w GD: wczesne zatrzymanie

88 Klasyfikacja Zadanie klasyfikacji binarnej Dla danego wektora cech x opisującego obiekt przewidzieć czy obiekt należy do klasy pozytywnej y = 1 czy negatywnej y = 0 (lub y = 1).

89 Irysy Pomarańczowy: Iris Virginica, niebieski: pozostałe petal width (cm) petal length (cm)

90 Przewidywanie prawdopodobieństwa regresja liniowa Punkty w tle: prawd. Iris Virginica (jaśniej=wyższe) petal width (cm) petal length (cm)

91 Przewidywanie prawdopodobieństwa regresja logistyczna petal width (cm) petal length (cm)

92 Granica decyzyjna (ang. decision boundary) A. Géron, Hands-On Machine Learning with Scikit-Learn and TensorFlow 2017

93 Granica decyzyjna (ang. decision boundary) A. Géron, Hands-On Machine Learning with Scikit-Learn and TensorFlow 2017

94 Funkcja logistyczna A. Géron, Hands-On Machine Learning with Scikit-Learn and TensorFlow 2017

95 Pochodna funkcji logisytcznej Zadanie σ(t) = e t Wiadomo, że σ(t 0 ) =.1. Czy da się na tej podstawie prosto obliczyć wartość pochodnej σ (t) w punkcie t 0?

96 Regresja logistyczna ŷ = ˆp = σ(xw) { 1 ˆp 0,5 0 ˆp < 0,5

97 Funkcja kosztu dla pojedynczego przykładu 4 c = log(p) c = log(1 p) 3 Koszt Prawdopodobienstwo y=1

98 Funkcja kosztu dla pojedynczego przykładu Zadanie Zapisać poniższą funkcję jako pojedyncze wyrażenie (używając dodawania, mnożenia itp.): { log(p) y = 1 c(y, p) = log(1 p) y = 0

99 Funkcja kosztu dla całego problemu p = σ(xw) J(w) = 1 n c (y i, p i ) = n i=1 1 n [y i log p i + (1 y i ) log(1 p i )] n i=1

100 Funkcja kosztu dla całego problemu 1 n p = σ(xw) J(w) = 1 n c (y i, p i ) = n i=1 n [y i log p i + (1 y i ) log(1 p i )] i=1 J w i = 1 n n (σ(x i w) y i ) X i,j i=1

Systemy agentowe. Uwagi organizacyjne i wprowadzenie. Jędrzej Potoniec

Systemy agentowe. Uwagi organizacyjne i wprowadzenie. Jędrzej Potoniec Systemy agentowe Uwagi organizacyjne i wprowadzenie Jędrzej Potoniec Kontakt mgr inż. Jędrzej Potoniec Jedrzej.Potoniec@cs.put.poznan.pl http://www.cs.put.poznan.pl/jpotoniec https://github.com/jpotoniec/sa

Bardziej szczegółowo

Systemy agentowe. Uczenie ze wzmocnieniem. Jędrzej Potoniec

Systemy agentowe. Uczenie ze wzmocnieniem. Jędrzej Potoniec Systemy agentowe Uczenie ze wzmocnieniem Jędrzej Potoniec Uczenie ze wzmocnieniem (ang. Reinforcement learning) dane Środowisko, w którym można wykonywać pewne akcje, które są nagradzane lub karane, ale

Bardziej szczegółowo

Systemy agentowe. Sieci neuronowe. Jędrzej Potoniec

Systemy agentowe. Sieci neuronowe. Jędrzej Potoniec Systemy agentowe Sieci neuronowe Jędrzej Potoniec Złe wieści o teście To jest slajd, przy którym wygłaszam złe wieści. Perceptron (Rossenblat, 1957) A. Géron, Hands-On Machine Learning with Scikit-Learn

Bardziej szczegółowo

Wprowadzenie do uczenia maszynowego

Wprowadzenie do uczenia maszynowego Wprowadzenie do uczenia maszynowego Agnieszka Ławrynowicz 12 stycznia 2017 Co to jest uczenie maszynowe? dziedzina nauki, która zajmuje się sprawianiem aby komputery mogły uczyć się bez ich zaprogramowania

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej

Bardziej szczegółowo

Wprowadzenie do uczenia maszynowego

Wprowadzenie do uczenia maszynowego Wprowadzenie do uczenia maszynowego Agnieszka Ławrynowicz 16 listopada 2017 Co to jest uczenie maszynowe? dziedzina nauki, która zajmuje się sprawianiem aby komputery mogły uczyć się bez ich zaprogramowania

Bardziej szczegółowo

Systemy agentowe. Sieci neuronowe. Jędrzej Potoniec

Systemy agentowe. Sieci neuronowe. Jędrzej Potoniec Systemy agentowe Sieci neuronowe Jędrzej Potoniec Perceptron (Rossenblat, 1957) A. Géron, Hands-On Machine Learning with Scikit-Learn and TensorFlow 2017 Perceptron { 1 z 0 step(z) = 0 w przeciwnym przypadku

Bardziej szczegółowo

Rozpoznawanie obrazów

Rozpoznawanie obrazów Rozpoznawanie obrazów Laboratorium Python Zadanie nr 1 Regresja liniowa autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, M. Zięba, J. Kaczmar Cel zadania Celem zadania jest implementacja liniowego zadania

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 1 Regresja liniowa autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z liniowym zadaniem najmniejszych

Bardziej szczegółowo

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:

Bardziej szczegółowo

Jakość uczenia i generalizacja

Jakość uczenia i generalizacja Jakość uczenia i generalizacja Dokładność uczenia Jest koncepcją miary w jakim stopniu nasza sieć nauczyła się rozwiązywać określone zadanie Dokładność mówi na ile nauczyliśmy się rozwiązywać zadania które

Bardziej szczegółowo

Rozpoznawanie obrazów

Rozpoznawanie obrazów Rozpoznawanie obrazów Laboratorium Python Zadanie nr 3 Regresja logistyczna autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, M. Zięba, J. Kaczmar Cel zadania Celem zadania jest zaimplementowanie modelu

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 3 Detekcja twarzy autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, M. Zięba Cel zadania Celem zadania jest zaimplementowanie algorytmów

Bardziej szczegółowo

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład I dr inż. 2015/2016

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład I dr inż. 2015/2016 Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład I dr inż. Bogumil.Konopka@pwr.edu.pl 2015/2016 1 Wykład I - plan Sprawy organizacyjne Uczenie maszynowe podstawowe pojęcia Proces modelowania

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska. SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska INFORMACJE WSTĘPNE Hipotezy do uczenia się lub tworzenia

Bardziej szczegółowo

Wprowadzenie do sieci neuronowych i zagadnień deep learning

Wprowadzenie do sieci neuronowych i zagadnień deep learning Wprowadzenie do sieci neuronowych i zagadnień deep learning Inteligentne Obliczenia Wydział Mechatroniki Politechniki Warszawskiej Anna Sztyber INO (IAiR PW) Deep learning Anna Sztyber 1 / 28 Deep learning

Bardziej szczegółowo

Metody eksploracji danych 2. Metody regresji. Piotr Szwed Katedra Informatyki Stosowanej AGH 2017

Metody eksploracji danych 2. Metody regresji. Piotr Szwed Katedra Informatyki Stosowanej AGH 2017 Metody eksploracji danych 2. Metody regresji Piotr Szwed Katedra Informatyki Stosowanej AGH 2017 Zagadnienie regresji Dane: Zbiór uczący: D = {(x i, y i )} i=1,m Obserwacje: (x i, y i ), wektor cech x

Bardziej szczegółowo

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,

Bardziej szczegółowo

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład II 2017/2018

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład II 2017/2018 Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład II bogumil.konopka@pwr.edu.pl 2017/2018 Określenie rzeczywistej dokładności modelu Zbiór treningowym vs zbiór testowy Zbiór treningowy

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 4. UCZENIE SIĘ INDUKCYJNE Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska WSTĘP Wiedza pozyskana przez ucznia ma charakter odwzorowania

Bardziej szczegółowo

METODY INŻYNIERII WIEDZY

METODY INŻYNIERII WIEDZY METODY INŻYNIERII WIEDZY WALIDACJA KRZYŻOWA dla ZAAWANSOWANEGO KLASYFIKATORA KNN ĆWICZENIA Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Bardziej szczegółowo

Elementy inteligencji obliczeniowej

Elementy inteligencji obliczeniowej Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 2 Detekcja twarzy autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się algorytmem gradientu prostego

Bardziej szczegółowo

Statystyka opisowa. Wykład V. Regresja liniowa wieloraka

Statystyka opisowa. Wykład V. Regresja liniowa wieloraka Statystyka opisowa. Wykład V. e-mail:e.kozlovski@pollub.pl Spis treści 1 Prosta regresji cechy Y względem cech X 1,..., X k. 2 3 Wyznaczamy zależność cechy Y od cech X 1, X 2,..., X k postaci Y = α 0 +

Bardziej szczegółowo

Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych

Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych mgr inż. C. Dendek prof. nzw. dr hab. J. Mańdziuk Politechnika Warszawska, Wydział Matematyki i Nauk Informacyjnych Outline 1 Uczenie

Bardziej szczegółowo

Algorytmy metaheurystyczne Wykład 11. Piotr Syga

Algorytmy metaheurystyczne Wykład 11. Piotr Syga Algorytmy metaheurystyczne Wykład 11 Piotr Syga 22.05.2017 Drzewa decyzyjne Idea Cel Na podstawie przesłanek (typowo zbiory rozmyte) oraz zbioru wartości w danych testowych, w oparciu o wybrane miary,

Bardziej szczegółowo

Klasyfikator liniowy Wstęp Klasyfikator liniowy jest najprostszym możliwym klasyfikatorem. Zakłada on liniową separację liniowy podział dwóch klas między sobą. Przedstawia to poniższy rysunek: 5 4 3 2

Bardziej szczegółowo

Optymalizacja systemów

Optymalizacja systemów Optymalizacja systemów Laboratorium - problem detekcji twarzy autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, P. Klukowski Cel zadania Celem zadania jest zapoznanie się z gradientowymi algorytmami optymalizacji

Bardziej szczegółowo

Klasyfikacja LDA + walidacja

Klasyfikacja LDA + walidacja Klasyfikacja LDA + walidacja Dr hab. Izabela Rejer Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Plan wykładu 1. Klasyfikator 2. LDA 3. Klasyfikacja wieloklasowa 4. Walidacja

Bardziej szczegółowo

Wybrane zagadnienia uczenia maszynowego. Zastosowania Informatyki w Informatyce W2 Krzysztof Krawiec

Wybrane zagadnienia uczenia maszynowego. Zastosowania Informatyki w Informatyce W2 Krzysztof Krawiec Wybrane zagadnienia uczenia maszynowego Zastosowania Informatyki w Informatyce W2 Krzysztof Krawiec Przygotowane na podstawie T. Mitchell, Machine Learning S.J. Russel, P. Norvig, Artificial Intelligence

Bardziej szczegółowo

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV Klasyfikatory: k-nn oraz naiwny Bayesa Agnieszka Nowak Brzezińska Wykład IV Naiwny klasyfikator Bayesa Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną

Bardziej szczegółowo

Stan dotychczasowy. OCENA KLASYFIKACJI w diagnostyce. Metody 6/10/2013. Weryfikacja. Testowanie skuteczności metody uczenia Weryfikacja prosta

Stan dotychczasowy. OCENA KLASYFIKACJI w diagnostyce. Metody 6/10/2013. Weryfikacja. Testowanie skuteczności metody uczenia Weryfikacja prosta Stan dotychczasowy OCENA KLASYFIKACJI w diagnostyce Wybraliśmy metodę uczenia maszynowego (np. sieć neuronowa lub drzewo decyzyjne), która będzie klasyfikować nieznane przypadki Na podzbiorze dostępnych

Bardziej szczegółowo

Testowanie modeli predykcyjnych

Testowanie modeli predykcyjnych Testowanie modeli predykcyjnych Wstęp Podczas budowy modelu, którego celem jest przewidywanie pewnych wartości na podstawie zbioru danych uczących poważnym problemem jest ocena jakości uczenia i zdolności

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 3. DRZEWA DECYZYJNE. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

SYSTEMY UCZĄCE SIĘ WYKŁAD 3. DRZEWA DECYZYJNE. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska. SYSTEMY UCZĄCE SIĘ WYKŁAD 3. DRZEWA DECYZYJNE Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska BUDOWA DRZEW DECYZYJNYCH Drzewa decyzyjne są metodą indukcyjnego

Bardziej szczegółowo

Kombinacja jądrowych estymatorów gęstości w klasyfikacji - zastosowanie na sztucznym zbiorze danych

Kombinacja jądrowych estymatorów gęstości w klasyfikacji - zastosowanie na sztucznym zbiorze danych Kombinacja jądrowych estymatorów gęstości w klasyfikacji - zastosowanie na sztucznym zbiorze danych Mateusz Kobos, 07.04.2010 Seminarium Metody Inteligencji Obliczeniowej Spis treści Opis algorytmu i zbioru

Bardziej szczegółowo

Metody klasyfikacji danych - część 1 p.1/24

Metody klasyfikacji danych - część 1 p.1/24 Metody klasyfikacji danych - część 1 Inteligentne Usługi Informacyjne Jerzy Dembski Metody klasyfikacji danych - część 1 p.1/24 Plan wykładu - Zadanie klasyfikacji danych - Przeglad problemów klasyfikacji

Bardziej szczegółowo

ALGORYTM RANDOM FOREST

ALGORYTM RANDOM FOREST SKRYPT PRZYGOTOWANY NA ZAJĘCIA INDUKOWANYCH REGUŁ DECYZYJNYCH PROWADZONYCH PRZEZ PANA PAWŁA WOJTKIEWICZA ALGORYTM RANDOM FOREST Katarzyna Graboś 56397 Aleksandra Mańko 56699 2015-01-26, Warszawa ALGORYTM

Bardziej szczegółowo

Analiza statystyczna trudności tekstu

Analiza statystyczna trudności tekstu Analiza statystyczna trudności tekstu Łukasz Dębowski ldebowsk@ipipan.waw.pl Problem badawczy Chcielibyśmy mieć wzór matematyczny,...... który dla dowolnego tekstu...... na podstawie pewnych statystyk......

Bardziej szczegółowo

Uczenie maszynowe w zastosowaniu do fizyki cząstek

Uczenie maszynowe w zastosowaniu do fizyki cząstek Uczenie maszynowe w zastosowaniu do fizyki cząstek Wykorzystanie uczenia maszynowego i głębokich sieci neuronowych do ćwiczenia 3. M. Kaczmarczyk, P. Górski, P. Olejniczak, O. Kosobutskyi Instytut Fizyki

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 09, Walidacja jakości uczenia. Metody statystyczne.

Wstęp do sieci neuronowych, wykład 09, Walidacja jakości uczenia. Metody statystyczne. Wstęp do sieci neuronowych, wykład 09, Walidacja jakości uczenia. Metody statystyczne. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-12-06 1 Przykład

Bardziej szczegółowo

UKŁADY RÓWNAŃ LINIOWYCH - Metody dokładne

UKŁADY RÓWNAŃ LINIOWYCH - Metody dokładne UKŁADY RÓWNAŃ LINIOWYCH - Metody dokładne Układy równań liniowych Rozpatruje się układ n równań liniowych zawierających n niewiadomych: a11x1 a12x2... a1nxn b1 a21x1 a22x2... a2nxn b2... an 1x1 an2x2...

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 13-14, Walidacja jakości uczenia. Metody statystyczne.

Wstęp do sieci neuronowych, wykład 13-14, Walidacja jakości uczenia. Metody statystyczne. Wstęp do sieci neuronowych, wykład 13-14,. Metody statystyczne. M. Czoków, J. Piersa Faculty of Mathematics and Computer Science, Nicolaus Copernicus University, Toruń, Poland 2011.01.11 1 Przykład Przeuczenie

Bardziej szczegółowo

Elementy modelowania matematycznego

Elementy modelowania matematycznego Elementy modelowania matematycznego Modelowanie algorytmów klasyfikujących. Podejście probabilistyczne. Naiwny klasyfikator bayesowski. Modelowanie danych metodą najbliższych sąsiadów. Jakub Wróblewski

Bardziej szczegółowo

Kombinacja jądrowych estymatorów gęstości w klasyfikacji wstępne wyniki

Kombinacja jądrowych estymatorów gęstości w klasyfikacji wstępne wyniki Kombinacja jądrowych estymatorów gęstości w klasyfikacji wstępne wyniki Mateusz Kobos, 10.12.2008 Seminarium Metody Inteligencji Obliczeniowej 1/46 Spis treści Działanie algorytmu Uczenie Odtwarzanie/klasyfikacja

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych klasyfikacja LABORKA Piotr Ciskowski zadanie 1. klasyfikacja zwierząt sieć jednowarstwowa żródło: Tadeusiewicz. Odkrywanie własności sieci neuronowych, str. 159 Przykład

Bardziej szczegółowo

METODY NUMERYCZNE. wykład. konsultacje: wtorek 10:00-11:30 środa 10:00-11:30. dr inż. Grażyna Kałuża pokój

METODY NUMERYCZNE. wykład. konsultacje: wtorek 10:00-11:30 środa 10:00-11:30. dr inż. Grażyna Kałuża pokój METODY NUMERYCZNE wykład dr inż. Grażyna Kałuża pokój 103 konsultacje: wtorek 10:00-11:30 środa 10:00-11:30 www.kwmimkm.polsl.pl Program przedmiotu wykład: 15 godzin w semestrze laboratorium: 30 godzin

Bardziej szczegółowo

JEDNORÓWNANIOWY LINIOWY MODEL EKONOMETRYCZNY

JEDNORÓWNANIOWY LINIOWY MODEL EKONOMETRYCZNY JEDNORÓWNANIOWY LINIOWY MODEL EKONOMETRYCZNY Będziemy zapisywać wektory w postaci (,, ) albo traktując go jak macierz jednokolumnową (dzięki temu nie będzie kontrowersji przy transponowaniu wektora ) Model

Bardziej szczegółowo

Rozwiązywanie układów równań liniowych metody dokładne Materiały pomocnicze do ćwiczeń z metod numerycznych

Rozwiązywanie układów równań liniowych metody dokładne Materiały pomocnicze do ćwiczeń z metod numerycznych Rozwiązywanie układów równań liniowych metody dokładne Materiały pomocnicze do ćwiczeń z metod numerycznych Piotr Modliński Wydział Geodezji i Kartografii PW 13 stycznia 2012 P. Modliński, GiK PW Rozw.

Bardziej szczegółowo

Uczenie sieci radialnych (RBF)

Uczenie sieci radialnych (RBF) Uczenie sieci radialnych (RBF) Budowa sieci radialnej Lokalne odwzorowanie przestrzeni wokół neuronu MLP RBF Budowa sieci radialnych Zawsze jedna warstwa ukryta Budowa neuronu Neuron radialny powinien

Bardziej szczegółowo

INTERPOLACJA I APROKSYMACJA FUNKCJI

INTERPOLACJA I APROKSYMACJA FUNKCJI Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Wprowadzenie Na czym polega interpolacja? Interpolacja polega

Bardziej szczegółowo

KORELACJA 1. Wykres rozrzutu ocena związku między zmiennymi X i Y. 2. Współczynnik korelacji Pearsona

KORELACJA 1. Wykres rozrzutu ocena związku między zmiennymi X i Y. 2. Współczynnik korelacji Pearsona KORELACJA 1. Wykres rozrzutu ocena związku między zmiennymi X i Y 2. Współczynnik korelacji Pearsona 3. Siła i kierunek związku między zmiennymi 4. Korelacja ma sens, tylko wtedy, gdy związek między zmiennymi

Bardziej szczegółowo

Agnieszka Nowak Brzezińska

Agnieszka Nowak Brzezińska Agnieszka Nowak Brzezińska jeden z algorytmów regresji nieparametrycznej używanych w statystyce do prognozowania wartości pewnej zmiennej losowej. Może również byd używany do klasyfikacji. - Założenia

Bardziej szczegółowo

Rozdział 8. Regresja. Definiowanie modelu

Rozdział 8. Regresja. Definiowanie modelu Rozdział 8 Regresja Definiowanie modelu Analizę korelacji można traktować jako wstęp do analizy regresji. Jeżeli wykresy rozrzutu oraz wartości współczynników korelacji wskazują na istniejąca współzmienność

Bardziej szczegółowo

TEORETYCZNE PODSTAWY INFORMATYKI

TEORETYCZNE PODSTAWY INFORMATYKI 1 TEORETYCZNE PODSTAWY INFORMATYKI WFAiS UJ, Informatyka Stosowana I rok studiów, I stopień Wykład 16 2 Data Science: Uczenie maszynowe Uczenie maszynowe: co to znaczy? Metody Regresja Klasyfikacja Klastering

Bardziej szczegółowo

Agnieszka Nowak Brzezińska Wykład III

Agnieszka Nowak Brzezińska Wykład III Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe

Bardziej szczegółowo

A Zadanie

A Zadanie where a, b, and c are binary (boolean) attributes. A Zadanie 1 2 3 4 5 6 7 8 9 10 Punkty a (maks) (2) (2) (2) (2) (4) F(6) (8) T (8) (12) (12) (40) Nazwisko i Imiȩ: c Uwaga: ta część zostanie wypełniona

Bardziej szczegółowo

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010 Materiały/konsultacje Automatyczna predykcja http://www.ibp.pwr.wroc.pl/kotulskalab Konsultacje wtorek, piątek 9-11 (uprzedzić) D1-115 malgorzata.kotulska@pwr.wroc.pl Co to jest uczenie maszynowe? Uczenie

Bardziej szczegółowo

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt

Bardziej szczegółowo

Algorytm grupowania danych typu kwantyzacji wektorów

Algorytm grupowania danych typu kwantyzacji wektorów Algorytm grupowania danych typu kwantyzacji wektorów Wstęp Definicja problemu: Typowe, problemem często spotykanym w zagadnieniach eksploracji danych (ang. data mining) jest zagadnienie grupowania danych

Bardziej szczegółowo

Zad. 3: Układ równań liniowych

Zad. 3: Układ równań liniowych 1 Cel ćwiczenia Zad. 3: Układ równań liniowych Wykształcenie umiejętności modelowania kluczowych dla danego problemu pojęć. Definiowanie właściwego interfejsu klasy. Zwrócenie uwagi na dobór odpowiednich

Bardziej szczegółowo

Agnieszka Nowak Brzezińska Wykład III

Agnieszka Nowak Brzezińska Wykład III Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe

Bardziej szczegółowo

Obliczenia Naukowe. Wykład 12: Zagadnienia na egzamin. Bartek Wilczyński

Obliczenia Naukowe. Wykład 12: Zagadnienia na egzamin. Bartek Wilczyński Obliczenia Naukowe Wykład 12: Zagadnienia na egzamin Bartek Wilczyński 6.6.2016 Tematy do powtórki Arytmetyka komputerów Jak wygląda reprezentacja liczb w arytmetyce komputerowej w zapisie cecha+mantysa

Bardziej szczegółowo

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017 Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład III bogumil.konopka@pwr.edu.pl 2016/2017 Wykład III - plan Regresja logistyczna Ocena skuteczności klasyfikacji Macierze pomyłek Krzywe

Bardziej szczegółowo

Wojciech Skwirz

Wojciech Skwirz 1 Regularyzacja jako metoda doboru zmiennych objaśniających do modelu statystycznego. 2 Plan prezentacji 1. Wstęp 2. Część teoretyczna - Algorytm podziału i ograniczeń - Regularyzacja 3. Opis wyników badania

Bardziej szczegółowo

Wstęp do przetwarzania języka naturalnego. Wykład 11 Maszyna Wektorów Nośnych

Wstęp do przetwarzania języka naturalnego. Wykład 11 Maszyna Wektorów Nośnych Wstęp do przetwarzania języka naturalnego Wykład 11 Wojciech Czarnecki 8 stycznia 2014 Section 1 Przypomnienie Wektoryzacja tfidf Przypomnienie document x y z Antony and Cleopatra 5.25 1.21 1.51 Julius

Bardziej szczegółowo

Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa. P. F. Góra

Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa. P. F. Góra Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2012 Uwarunkowanie zadania numerycznego Niech ϕ : R n R m będzie pewna funkcja odpowiednio wiele

Bardziej szczegółowo

Matematyka stosowana i metody numeryczne

Matematyka stosowana i metody numeryczne Ewa Pabisek Adam Wosatko Piotr Pluciński Matematyka stosowana i metody numeryczne Konspekt z wykładu 8 Interpolacja Interpolacja polega na budowaniu tzw. funkcji interpolujących ϕ(x) na podstawie zadanych

Bardziej szczegółowo

Mathcad c.d. - Macierze, wykresy 3D, rozwiązywanie równań, pochodne i całki, animacje

Mathcad c.d. - Macierze, wykresy 3D, rozwiązywanie równań, pochodne i całki, animacje Mathcad c.d. - Macierze, wykresy 3D, rozwiązywanie równań, pochodne i całki, animacje Opracował: Zbigniew Rudnicki Powtórka z poprzedniego wykładu 2 1 Dokument, regiony, klawisze: Dokument Mathcada realizuje

Bardziej szczegółowo

Metody eksploracji danych 3. Ocena modeli. Piotr Szwed Katedra Informatyki Stosowanej AGH 2017

Metody eksploracji danych 3. Ocena modeli. Piotr Szwed Katedra Informatyki Stosowanej AGH 2017 Metody eksploracji danych 3. Ocena modeli Piotr Szwed Katedra Informatyki Stosowanej AGH 2017 Zagadnienie regresji Dane: Zbiór uczący: D = {(x i, y i )} i=1,m Obserwacje: (x i, y i ), wektor cech x i R

Bardziej szczegółowo

x x 1. Przedmiot identyfikacji System x (1) x (2) : x (s) a 1 a 2 : a s mierzone, a = zestaw współczynników konkretyzujacych F ()

x x 1. Przedmiot identyfikacji System x (1) x (2) : x (s) a 1 a 2 : a s mierzone, a = zestaw współczynników konkretyzujacych F () . Przedmiot identyfikacji System () x (2) x * a z y ( s ) x y = F (x,z)=f(x,z,a ),gdziex = F () znane, a nieznane x () x (2) x (s) mierzone, a = a a 2 a s zestaw współczynników konkretyzujacych F () informacja

Bardziej szczegółowo

Uczenie ze wzmocnieniem

Uczenie ze wzmocnieniem Uczenie ze wzmocnieniem Maria Ganzha Wydział Matematyki i Nauk Informatycznych 2018-2019 O projekcie nr 2 roboty (samochody, odkurzacze, drony,...) gry planszowe, sterowanie (optymalizacja; windy,..) optymalizacja

Bardziej szczegółowo

Stosowana Analiza Regresji

Stosowana Analiza Regresji Stosowana Analiza Regresji Wykład VI... 16 Listopada 2011 1 / 24 Jest to rozkład zmiennej losowej rozkład chi-kwadrat Z = n i=1 X 2 i, gdzie X i N(µ i, 1) - niezależne. Oznaczenie: Z χ 2 (n, λ), gdzie:

Bardziej szczegółowo

UKŁADY RÓWNAŃ LINIOWYCH -Metody dokładne

UKŁADY RÓWNAŃ LINIOWYCH -Metody dokładne UKŁADY RÓWNAŃ LINIOWYCH -Metody dokładne Układy równań liniowych Rozpatruje się układ n równań liniowych zawierających n niewiadomych: a + a +... + ann b a + a +... + ann b... an + an+... + annn bn który

Bardziej szczegółowo

WYKŁAD 8 ANALIZA REGRESJI

WYKŁAD 8 ANALIZA REGRESJI WYKŁAD 8 ANALIZA REGRESJI Regresja 1. Metoda najmniejszych kwadratów-regresja prostoliniowa 2. Regresja krzywoliniowa 3. Estymacja liniowej funkcji regresji 4. Testy istotności współczynnika regresji liniowej

Bardziej szczegółowo

Wybrane zagadnienia uczenia maszynowego

Wybrane zagadnienia uczenia maszynowego Przygotowane na podstawie Wybrane zagadnienia uczenia maszynowego Zastosowania Informatyki w Informatyce W2 Krzysztof Krawiec 1. T. Mitchell, Machine Learning 2. S.J. Russel, P. Norvig, Artificial Intelligence

Bardziej szczegółowo

Rozpoznawanie obrazów

Rozpoznawanie obrazów Rozpoznawanie obrazów Ćwiczenia lista zadań nr 7 autorzy: A. Gonczarek, J.M. Tomczak Przykładowe problemy Klasyfikacja binarna Dla obrazu x zaproponowano dwie cechy φ(x) = (φ 1 (x) φ 2 (x)) T. Na obrazie

Bardziej szczegółowo

1.7. Eksploracja danych: pogłębianie, przeszukiwanie i wyławianie

1.7. Eksploracja danych: pogłębianie, przeszukiwanie i wyławianie Wykaz tabel Wykaz rysunków Przedmowa 1. Wprowadzenie 1.1. Wprowadzenie do eksploracji danych 1.2. Natura zbiorów danych 1.3. Rodzaje struktur: modele i wzorce 1.4. Zadania eksploracji danych 1.5. Komponenty

Bardziej szczegółowo

Python : podstawy nauki o danych / Alberto Boschetti, Luca Massaron. Gliwice, cop Spis treści

Python : podstawy nauki o danych / Alberto Boschetti, Luca Massaron. Gliwice, cop Spis treści Python : podstawy nauki o danych / Alberto Boschetti, Luca Massaron. Gliwice, cop. 2017 Spis treści O autorach 9 0 recenzencie 10 Wprowadzenie 11 Rozdział 1. Pierwsze kroki 15 Wprowadzenie do nauki o danych

Bardziej szczegółowo

Widzenie komputerowe

Widzenie komputerowe Widzenie komputerowe Uczenie maszynowe na przykładzie sieci neuronowych (3) źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Zdolność uogólniania sieci neuronowej R oznaczenie

Bardziej szczegółowo

Metody Prognozowania

Metody Prognozowania Wprowadzenie Ewa Bielińska 3 października 2007 Plan 1 Wprowadzenie Czym jest prognozowanie Historia 2 Ciągi czasowe Postępowanie prognostyczne i prognozowanie Predykcja długo- i krótko-terminowa Rodzaje

Bardziej szczegółowo

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW

Bardziej szczegółowo

Uczenie ze wzmocnieniem aplikacje

Uczenie ze wzmocnieniem aplikacje Uczenie ze wzmocnieniem aplikacje Na podstawie: AIMA ch21 oraz Reinforcement Learning (Sutton i Barto) Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 23 maja 2014 Problem decyzyjny Markova

Bardziej szczegółowo

Metody teorii gier. ALP520 - Wykład z Algorytmów Probabilistycznych p.2

Metody teorii gier. ALP520 - Wykład z Algorytmów Probabilistycznych p.2 Metody teorii gier ALP520 - Wykład z Algorytmów Probabilistycznych p.2 Metody teorii gier Cel: Wyprowadzenie oszacowania dolnego na oczekiwany czas działania dowolnego algorytmu losowego dla danego problemu.

Bardziej szczegółowo

Egzamin z Metod Numerycznych ZSI, Egzamin, Gr. A

Egzamin z Metod Numerycznych ZSI, Egzamin, Gr. A Egzamin z Metod Numerycznych ZSI, 06.2007. Egzamin, Gr. A Imię i nazwisko: Nr indeksu: Section 1. Test wyboru, max 33 pkt Zaznacz prawidziwe odpowiedzi literą T, a fałszywe N. Każda prawidłowa odpowiedź

Bardziej szczegółowo

WYKŁAD 4. Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie. autor: Maciej Zięba. Politechnika Wrocławska

WYKŁAD 4. Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie. autor: Maciej Zięba. Politechnika Wrocławska Wrocław University of Technology WYKŁAD 4 Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie autor: Maciej Zięba Politechnika Wrocławska Klasyfikacja Klasyfikacja (ang. Classification):

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 2 κ-nn i Naive Bayes autorzy: M. Zięba, J.M. Tomczak, A. Gonczarek, S. Zaręba Cel zadania Celem zadania jest implementacja klasyfikatorów

Bardziej szczegółowo

Priorytetyzacja przypadków testowych za pomocą macierzy

Priorytetyzacja przypadków testowych za pomocą macierzy Priorytetyzacja przypadków testowych za pomocą macierzy W niniejszym artykule przedstawiony został problem przyporządkowania priorytetów do przypadków testowych przed rozpoczęciem testów oprogramowania.

Bardziej szczegółowo

Analiza numeryczna Lista nr 3 (ćwiczenia) x x 2 n x.

Analiza numeryczna Lista nr 3 (ćwiczenia) x x 2 n x. Analiza numeryczna Lista nr 3 (ćwiczenia) Sprawdzić że macierz ma wartości własne2+ 222 2 2 Niechx R n Udowodnić że 2 0 0 x x 2 n x 3 NiechA R n n będzie macierzą symetryczną Wiadomo że wówczas istnieje

Bardziej szczegółowo

Kombinacja jądrowych estymatorów gęstości w klasyfikacji - testy na sztucznych danych

Kombinacja jądrowych estymatorów gęstości w klasyfikacji - testy na sztucznych danych Kombinacja jądrowych estymatorów gęstości w klasyfikacji - testy na sztucznych danych Mateusz Kobos, 25.11.2009 Seminarium Metody Inteligencji Obliczeniowej 1/25 Spis treści Dolne ograniczenie na wsp.

Bardziej szczegółowo

Matematyka stosowana i metody numeryczne

Matematyka stosowana i metody numeryczne Ewa Pabisek Adam Wosatko Piotr Pluciński Matematyka stosowana i metody numeryczne Konspekt z wykładów Błędy obliczeń Błędy można podzielić na: modelu, metody, wejściowe (początkowe), obcięcia, zaokrągleń..

Bardziej szczegółowo

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar... 1. Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar... 1. Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16 Spis treści Przedmowa.......................... XI Rozdział 1. Pomiar: jednostki miar................. 1 1.1. Wielkości fizyczne i pozafizyczne.................. 1 1.2. Spójne układy miar. Układ SI i jego

Bardziej szczegółowo

Redukcja wariancji w metodach Monte-Carlo

Redukcja wariancji w metodach Monte-Carlo 14.02.2006 Seminarium szkoleniowe 14 lutego 2006 Plan prezentacji Wprowadzenie Metoda losowania warstwowego Metoda próbkowania ważonego Metoda zmiennych kontrolnych Metoda zmiennych antytetycznych Metoda

Bardziej szczegółowo

Metody selekcji cech

Metody selekcji cech Metody selekcji cech A po co to Często mamy do dyspozycji dane w postaci zbioru cech lecz nie wiemy które z tych cech będą dla nas istotne. W zbiorze cech mogą wystąpić cechy redundantne niosące identyczną

Bardziej szczegółowo

Mikroekonometria 9. Mikołaj Czajkowski Wiktor Budziński

Mikroekonometria 9. Mikołaj Czajkowski Wiktor Budziński Mikroekonometria 9 Mikołaj Czajkowski Wiktor Budziński Wielomianowy model logitowy Uogólnienie modelu binarnego Wybór pomiędzy 2 lub większą liczbą alternatyw Np. wybór środka transportu, głos w wyborach,

Bardziej szczegółowo

Metody numeryczne Wykład 4

Metody numeryczne Wykład 4 Metody numeryczne Wykład 4 Dr inż. Michał Łanczont Instytut Elektrotechniki i Elektrotechnologii E419, tel. 4293, m.lanczont@pollub.pl, http://m.lanczont.pollub.pl Zakres wykładu Metody skończone rozwiązywania

Bardziej szczegółowo

Eksploracja danych - wykład IV

Eksploracja danych - wykład IV - wykład 1/41 wykład - wykład Instytut Informatyki Teoretycznej i Stosowanej Politechnika Częstochowska 27 października 2016 - wykład 2/41 wykład 1 2 3 4 5 - wykład 3/41 CRISP-DM - standaryzacja wykład

Bardziej szczegółowo

Ekonometria. Prognozowanie ekonometryczne, ocena stabilności oszacowań parametrów strukturalnych. Jakub Mućk. Katedra Ekonomii Ilościowej

Ekonometria. Prognozowanie ekonometryczne, ocena stabilności oszacowań parametrów strukturalnych. Jakub Mućk. Katedra Ekonomii Ilościowej Ekonometria Prognozowanie ekonometryczne, ocena stabilności oszacowań parametrów strukturalnych Jakub Mućk Katedra Ekonomii Ilościowej Jakub Mućk Ekonometria Wykład 4 Prognozowanie, stabilność 1 / 17 Agenda

Bardziej szczegółowo

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny

Bardziej szczegółowo

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów Rozdział : Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów W tym rozdziale omówione zostaną dwie najpopularniejsze metody estymacji parametrów w ekonometrycznych modelach nieliniowych,

Bardziej szczegółowo