Krzywe ROC i inne techniki oceny jakości klasyfikatorów

Wielkość: px
Rozpocząć pokaz od strony:

Download "Krzywe ROC i inne techniki oceny jakości klasyfikatorów"

Transkrypt

1 Krzywe ROC i inne techniki oceny jakości klasyfikatorów Wydział Matematyki, Informatyki i Mechaniki Uniwersytetu Warszawskiego 20 maja 2009

2 1 2 Przykład krzywej ROC 3 4 Pakiet ROCR Dostępne metryki

3 Krzywe ROC są użyteczną techniką selekcji klasyfikatorów i wizualizacji ich skuteczności. Są one często używane w zagadnieniach decyzyjnych w medycynie, a w ostatnich latach coraz częściej używa się ich w zagadnieniach uczenia maszyn oraz eksploracji danych. W statystycznych badaniach zmiennej binarnej korzysta się z miar takich jak wrażliwość i specyficzność. Co oznaczają te miary można łatwo zrozumieć na prostym przykładzie.

4 Przykład Załóżmy, że przeprowadzamy test na obecność wirusa grypy A/H1N1. W grupie osób badanych występują osoby, które są zarażone oraz osoby zdrowe. Jeżeli i-ta osoba jest zarażona to zaznaczamy y i = 1. Przeprowadzając badanie krwi podajemy wynik testu, albo inaczej mówiąc prognozujemy, czy dana osoba jest zarażona. Jeżeli wynik jest pozytywny zapisujemy ŷ i = 1. Jeżeli test wskazuje, że badany jest zdrowy to ŷ i = 0.

5 1 2 Przykład krzywej ROC 3 4 Pakiet ROCR Dostępne metryki

6 Niestety każdy test ma margines błędu w związku z tym możemy błędnie zaklasyfikować badanych: osoba sklasyfikowana jako zdrowa jest chora - wynik błędnie wykluczający, błąd II rodzaju (false negative) osoba sklasyfikowana jako zdrowa jest zdrowa - wynik poprawnie wykluczający (true negative) osoba sklasyfikowana jako chora jest zdrowa - wynik błędnie włączający, błąd I rodzaju (false positive) osoba sklasyfikowana jako chora jest chora - wynik poprawnie włączający (true positive)

7 Wynik badania chory zdrowy Stan faktyczny chory zdrowy True False Positive Positive False True Negative Negative

8 1 2 Przykład krzywej ROC 3 4 Pakiet ROCR Dostępne metryki

9 Wrażliwością nazywamy prawdopodobieństwo, że chorą osobę nasz test zakwalifikuje poprawnie jako chorą (true positive rate). wrażliwość = liczba poprawnie zakwalifikowanych chorych liczba zakwalifikowanych jako chorzy Specyficznością nazywamy prawdopodobieństwo, że osobę zdrową nasz test zakwalifikuje poprawnie jako zdrową (true negative rate). liczba poprawnie zakwalifikowanych zdrowych specyficzność = liczba zakwalifikowanych jako zdrowi

10 1 2 Przykład krzywej ROC 3 4 Pakiet ROCR Dostępne metryki

11 to dwu-wymiarowy wykresy przedstawiające wrażliwość na osi Y oraz wartości 1 specyficzność na osi X. Wizualizujemy w ten sposób stosunek korzyści (true positive) do kosztów (false positive) Dyskretny wykres ROC

12 1 2 Przykład krzywej ROC 3 4 Pakiet ROCR Dostępne metryki

13 Znaczenie punktów krańcowych Punkt (0, 0) oznacza strategię nigdy nie uznawania badanego za chorego, dzięki temu unikamy błędów I rodzaju ale też nie zyskujemy prawidłowych wskazań true positive, Punkt (1, 1) oznacza strategię przeciwną, zawsze uznajemy badanego za chorego, Punkt (0, 1) oznacza idealną klasyfikację Punkty na prostej y = x oznaczają strategię losowego zgadywania. Dla przykłądu jeżeli wynik testu na grypę daje wynik pozytywny z prawdopodobieństwem 50% możemy spodziewać się, że połowa wyników pozytywnych jak i negatywnych będzie prawdziwa co daje punkt (0, 5; 0, 5). Jeżeli w 90% przypadków klasyfikuje jako chorych to 90% wyników pozytywnych i 90% negatywnych będzie prawdziwa dając punkt (0, 9; 0, 9).

14 Który z punktów jest lepszy? Nieformalnie mówimy, że jeden punkt jest lepszy od drugiego jeżeli znajduje się dalej na północny zachód (wrażliwość i specyficzność są wyższe) od pierwszego. Klasyfikatory dające punkty po lewej stronie i przy osi X są uznawane za konserwatywne uznają za chorą osobę tylko jeżeli są na to silne dowody. Zaś klasyfikatory dające punkty w górnym prawym rogu można określić jako liberalne dają wynik pozytywny nawet przy niewielkich przesłankach.

15 Przykład krzywej ROC 1 2 Przykład krzywej ROC 3 4 Pakiet ROCR Dostępne metryki

16 Przykład krzywej ROC Klasyfikator Naive Bayes lub sieci neuronowe w naturalny sposób dają wartość prawdopodobieństwa lub ocenę, wartość numeryczną która określa stopień przynależności do danej klasy. Taki klasyfikator w połączeniu z wartością graniczną daje klasyfikator dyskretny: jeżeli ocena jest powyżej wartości granicznej uznajemy badanego za chorego a w przeciwnym wypadku nie. Każda wartość graniczna daje inny punkt na przestrzeni ROC, obliczając wrażliwość i specyficzność dla każdej wartości granicznej ([0, 1] dla prawdopodobieństwa, [, + ] dla oceniania)

17 Przykład krzywej ROC 1 2 Przykład krzywej ROC 3 4 Pakiet ROCR Dostępne metryki

18 Przykład Przykład krzywej ROC L.p. Stan Prawd. W.g. Wraż. Spec. 1-Spec. 1 1 chory 0, 9 0, zdrowy 0, 7 0, chory 0, 55 0, zdrowy 0, 53 0, chory 0, 51 0, chory 0, 4 0, chory 0, 38 0, zdrowy 0, 36 0, zdrowy 0, 34 0, chory 0, 3 0,

19 Krzywa ROC Przykład krzywej ROC Przykładowa krzywa ROC

20 1 2 Przykład krzywej ROC 3 4 Pakiet ROCR Dostępne metryki

21 AUC - Area Under ROC Curve Aby łatwiej porównywać klasyfikatory oblicza się pole powierzchni pod krzywą ROC (AUC - Area Under ROC Curve). Idealny klasyfikator ma wartość AUC = 1, natomiast ze względu na to, że losowe zgadywanie daje odcinek pomiędzy (0, 0) a (1, 1) czyli AUC = 0, 5 żaden porządny klasyfikator nie powinien mieć wartości AUC < 0, 5. Pomimo prostoty porównywania klasyfikatorów za pomocą AUC, funkcją celu optymalizowaną przez większość klasyfikatorów jest współczynnik błędów (error rate). Nawet niektóre z nowych algorytmów zaproponowanych do maksymalizacji AUC nie obliczają wartości AUC dokładniej niż algorytmy do minimalizacji współczynnika błędów. Dlatego ważne jest aby zrozumieć zależności pomiędzy tymi wartościami.

22 1 2 Przykład krzywej ROC 3 4 Pakiet ROCR Dostępne metryki

23 AUC Ważną statystyczną własnością AUC jest to, że wartość AUC klasyfikatora odpowiada prawdopodobieństwu, że klasyfikator wyżej oceni losowo wybrany pozytywny element niż losowo wybrany negatywny element. Nich a 1,..., a m i b 1,..., b n będą ocenami klasyfikatora odpowiednio dla pozytywnych i negatywnych elementów. Wtedy: m n AUC = i=1 j=1 mn 1 ai >b j Jest to równoważne testowi Wilcoxon a (Hanley i McMeil, 1982).

24 AUC jest również powiązane ze współczynnikiem Gini (Breiman i współpracownicy, 1984), który jest dwukrotnie większy od obszaru pomiędzy diagonalą a krzywą ROC (Hand i Till, 2001). Gini + 1 = 2 AUC

25 1 2 Przykład krzywej ROC 3 4 Pakiet ROCR Dostępne metryki

26 Różne klasyfikatory mogą mieć ten sam współczynnik błędów lecz różne wartości AUC. Dla ustalonej wartości granicznej θ, przestawienie elementów z wartościami klasyfikatora większymi niż θ nie zmienia współczynnika błędów lecz zmienia wartość AUC

27 L.p. Stan Prawd. Stan Prawd. 1 chory 0, 9 zdrowy 0, 9 2 zdrowy 0, 7 chory 0, 7 3 chory 0, 55 chory 0, 55 4 zdrowy 0, 53 zdrowy 0, 53 5 chory 0, 51 chory 0, 51 6 chory 0, 4 chory 0, 4 7 chory 0, 38 chory 0, 38 8 zdrowy 0, 36 zdrowy 0, 36 9 zdrowy 0, 34 zdrowy 0, chory 0, 3 chory 0, 3

28 Załóżmy, że liczba błędów jest ustalona i wynosi k. Chcemy obliczyć średnią wartość AUC wszystkich klasyfikatorów z k błędami. Zakładamy, że wszystkie klasyfikatory są tak samo prawdopodobne. Dla ustalonej klasyfikacji może wystąpić x, 0 x k błędów I rodzaju a zatem liczba błędów II rodzaju wynosi k x. Wartość graniczna θ dzieli elementy na 2 dwie grupy: Wartość graniczna θ k x pozytywne elementy x negatywne elementy n x negatywne elementy m (k x) pozytywne elementy

29 Dla ustalonego x obliczanie AUC można podzielić na 3 części: AUC = A 1 + A 2 + A 3, gdzie (1) mn A 1 = suma po wszystkich parach (a i, b j ) leżących w różnych obszarach A 2 = suma po wszystkich parach (a i, b j ) leżących powyżej θ A 3 = suma po wszystkich parach (a i, b j ) leżących poniżej θ

30 Pierwszy składnik, A 1, łatwo obliczyć. Ponieważ jest (m (k x)) pozytywnych elementów powyżej wartości granicznej θ oraz n x negatywnych elementów poniżej θ, A 1 wynosi: A 1 = (m (k x))(n x) (2)

31 Aby obliczyć A 2, przyporządkujmy każdemu negatywnemu elementowi powyżej θ pozycję na podstawie oceny klasyfikatora. Na pierwszej pozycji znajdzie się element o najniższej ocenie powyżej θ i niech α 1 <... < α x oznaczają pozycje x negatywnych elementów powyżej θ w rosnącej kolejności. Łączna liczba elementów zaklasyfikowanych jako pozytywne wynosi N = m (k x) + x. Zatem zgodnie z definicją A 2 wynosi: A 2 = x (N α i ) (x i). (3) i=1 Gdzie (N α i ) określa liczbę elementów ocenionych wyżej niż i-ty element a (x i) określa liczbę negatywnych przykładów błędnie ocenionych wyżej niż i-ty element.

32 Analogicznie niech α 1 <... < α k x określają pozycję k x pozytywnych elementów poniżej wartości granicznej θ, licząc pozycje w kierunku od θ w dół. Wtedy A 3 można przedstawić za pomocą wzoru: A 3 = (N α j ) (x j). (4) x j=1 Gdzie N = n x + (k x) a x = k x.

33 Łącząc wzory na A 1, A 2 i A 3 dostajemy: AUC = A 1 + A 2 + A 3 mn = 1 + (k 2x)2 + k 2mn ( x x α i + α j ) i=1 Dla ustalonego x wartość oczekiwana AUC wynosi: E x (AUC) = 1 mn x n + k x m. 2 j=1 (5) (6)

34 E(AUC) = k x=0 ( N x )( N x ) x 1 n + k x m 2 k ( )( ) = N N (7) x=0 1 k m + n (n m)2 (m + n + 1) 4mn x x k m + n k 1 ( ) m + n x x=0 k ( ) m + n + 1 x x=0 (8)

35 Ze wzoru 8 widać, że średnia wartość AUC jest identyczna z dokładnością klasyfikatora tylko dla parzystej liczby elementów (n = m). Dla n m, wartość oczekiwana AUC jest monotoniczną funkcją dokładności. Patrząc na średnią wydaje się nic nie zyskamy stosując specjalny algorytm do maksymalizacji AUC: algorytm klasyfikujący, który minimalizuje współczynnik błędu optymalizuje również AUC. Jednak jest to prawda jedynie dla wartości średniej AUC. Pokażemy teraz, że wariancja AUC nie n zeruje się dla żadnej wartości n + m gdy k 0

36 Wariancja AUC Niech D = mn + (k 2x)2 + k, a = 2 x x α i, a = α j oraz α = a + a, wtedy z równości 5 otrzymujemy równość mnauc = D α. Wariancja AUC dana jest wzorem: i=1 j=1 (mn) 2 σ 2 (AUC) = E((D α) 2 (E(D) E(α)) 2 ) = E(D 2 ) E(D) 2 + E(α 2 ) E(α) 2 2(E(αD) E(α)E(D)). (9)

37 Tak jak poprzednio, aby obliczyć wartości średnie wyrażeń X dla wszystkich klasyfikacji, możemy obliczyć w pierwszej kolejności średnie E x (X ) dla ustalonego x a następnie użyć funkcji F zdefiniowanej następująco: k ( )( ) N N x x Y x=0 F (Y ) = k ( )( ). (10) N N x E(X ) = F (E x (X )) x=0 x

38 Wzór na wariancję AUC daje się sprowadzić do następującej postaci: σ 2 (AUC) = F ( 1 x n + k x m 2 2 ) F ( 1 x n + k x m ) 2 2 +F ( mx 2 + n(k x) 2 + (m(m + 1)x + n(n + 1)(k x)) 12m 2 n 2 2x(k x)(m + n + 1) 12m 2 n 2 ) (11) Choć nie łatwo to zauważyć to im bardziej rozkład pomiędzy klasy jest nierówny tym wariancja jest większa, rośnie ona wraz z liczbą błędów. Obserwacje te są sprzeczne z tezą, że wariancja wynosi zero dla każdego współczynnika błędu o ile rozkład na klasy jest równy (m = n)

39 1 2 Przykład krzywej ROC 3 4 Pakiet ROCR Dostępne metryki

40 Częściowy obszar pod wykresem Metoda pauc została zaproponowana jako alternatywna miara dla AUC. Używając pauc bierzemy pod uwagę tylko te obszary przestrzeni ROC gdzie występują dane lub takie, które są ważne ze względu na analizę którą przeprowadzamy. Aczkolwiek pauc może się wydawać lepszym kryterium w niektórych przypadkach (w celu uwydatnienia pewnych własności) to preferuje się używanie pełnego AUC.

41 Pakiet ROCR Dostępne metryki 1 2 Przykład krzywej ROC 3 4 Pakiet ROCR Dostępne metryki

42 prediction Pakiet ROCR Dostępne metryki Aby rozpocząć prace z pakietem ROCR musimy w pierwszej kolejności utworzyć obiekt prediction. Konstruktor przyjmuje jako parametry wektor ocen wygenerowanych przez klasyfikator (ewentualnie macierz dla walidacji krzyżowej lub bootstraping u) oraz wektor przynależności do grup. Opcjonalnym parametrem jest wektor szeregujący etykiety grup - (pozytywna, negatywna). > pred <- prediction(przykład$oceny, przykład$etykiety, c(pozytywna, negatywna))

43 performance Pakiet ROCR Dostępne metryki Następnie możemy utworzyć obiekt performance, który posłuży do wizualizacji jakości klasyfikatora. Konstruktor wymaga podania dwóch argumentów: obiektu typu prediction oraz metryki jakości (np. wrażliwość - sens, specyficzność - spec,...). Następnie po przekazaniu obiektu klasy performance do funkcji plot zobaczymy wykres miary względem odcięć. > pref <- performance(pred, "sens") > plot (pref)

44 performance Pakiet ROCR Dostępne metryki Trzeci parametr konstruktora performance pozwala na porównanie jednej metryki jako funkcji drugie - dzięki temu możemy otrzymać krzywą ROC (wrażliwość jako funkcja parametru 1 specyficzność). > pref <- performance(pred, "sens", "fpr") > plot (pref)

45 Pakiet ROCR Dostępne metryki 1 2 Przykład krzywej ROC 3 4 Pakiet ROCR Dostępne metryki

46 Metryki Pakiet ROCR Dostępne metryki Dla funkcji performance dostępne są następujące metryki: ( ) TP + TN acc - dokładność, czyli P(Ŷ = Y ), estymowana jako P + N err (- współczynnik ) błędu, czyli P(Ŷ Y ), estymowany jako FP + FN P + N sens - wrażliwość (to samo ( co ) tpr ), czyli P(Ŷ = + Y = +), TP estymowana jako P

47 Metryki Pakiet ROCR Dostępne metryki fpr - współczynnik błędów I rodzaju (to samo ( co ) fall ), czyli FP P(Ŷ = + Y = ), estymowany jako N fnr - współczynnik błędów II rodzaju (to ( samo ) co miss ), czyli FN P(Ŷ = Y = +), estymowany jako P spec - specyficzność (to( samo) co tnr ), czyli P(Ŷ = Y = ), TN estymowana jako N i wiele innych...

48 Pakiet ROCR Dostępne metryki Tom Fawcett, ROC Graphs: Notes and Practical Considerations for Researchers (2004). Corinna Cortes i Mehryar Mohri AUC Optimization vs. Error Rate Minimization. S. D. Walter, The partial area under the summary ROC curve, Statistics in Medicine vol.24 (2004). Tobias Sing i Oliver Sander, ROCR Talk - Tobias Sing. J. A. Hanley i B. J. McNeil, The meaning and use of the area under a receiver operating characteristic (ROC) curve, Radiology, (1982). L. Breiman, J. H. Friedman, R. A. Olshen i C. J. Stone, Classification and Regression Trees, Wadsworth International, Belmont, CA, (1984). D. J. Hand i R. J. Till, A simple generalization of the area under the ROC curve to multiple class classification problems, Machine Learning 45(2), , (2001).

Sztuczna Inteligencja w medycynie projekt (instrukcja) Bożena Kostek

Sztuczna Inteligencja w medycynie projekt (instrukcja) Bożena Kostek Sztuczna Inteligencja w medycynie projekt (instrukcja) Bożena Kostek Cel projektu Celem projektu jest przygotowanie systemu wnioskowania, wykorzystującego wybrane algorytmy sztucznej inteligencji; Nabycie

Bardziej szczegółowo

Indukowane Reguły Decyzyjne I. Wykład 8

Indukowane Reguły Decyzyjne I. Wykład 8 Indukowane Reguły Decyzyjne I Wykład 8 IRD Wykład 8 Plan Powtórka Krzywa ROC = Receiver Operating Characteristic Wybór modelu Statystyka AUC ROC = pole pod krzywą ROC Wybór punktu odcięcia Reguły decyzyjne

Bardziej szczegółowo

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017 Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład III bogumil.konopka@pwr.edu.pl 2016/2017 Wykład III - plan Regresja logistyczna Ocena skuteczności klasyfikacji Macierze pomyłek Krzywe

Bardziej szczegółowo

Stan dotychczasowy. OCENA KLASYFIKACJI w diagnostyce. Metody 6/10/2013. Weryfikacja. Testowanie skuteczności metody uczenia Weryfikacja prosta

Stan dotychczasowy. OCENA KLASYFIKACJI w diagnostyce. Metody 6/10/2013. Weryfikacja. Testowanie skuteczności metody uczenia Weryfikacja prosta Stan dotychczasowy OCENA KLASYFIKACJI w diagnostyce Wybraliśmy metodę uczenia maszynowego (np. sieć neuronowa lub drzewo decyzyjne), która będzie klasyfikować nieznane przypadki Na podzbiorze dostępnych

Bardziej szczegółowo

9. Praktyczna ocena jakości klasyfikacji

9. Praktyczna ocena jakości klasyfikacji Algorytmy rozpoznawania obrazów 9. Praktyczna ocena jakości klasyfikacji dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Zbiór uczacy i zbiór testowy 1. Zbiór uczacy służy do konstrukcji (treningu)

Bardziej szczegółowo

Data Mining Wykład 4. Plan wykładu

Data Mining Wykład 4. Plan wykładu Data Mining Wykład 4 Klasyfikacja danych Klasyfikacja poprzez indukcje drzew decyzyjnych Plan wykładu Sformułowanie problemu Kryteria oceny metod klasyfikacji Metody klasyfikacji Klasyfikacja poprzez indukcje

Bardziej szczegółowo

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład II 2017/2018

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład II 2017/2018 Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład II bogumil.konopka@pwr.edu.pl 2017/2018 Określenie rzeczywistej dokładności modelu Zbiór treningowym vs zbiór testowy Zbiór treningowy

Bardziej szczegółowo

WYKŁAD 7. Testowanie jakości modeli klasyfikacyjnych metodyka i kryteria

WYKŁAD 7. Testowanie jakości modeli klasyfikacyjnych metodyka i kryteria Wrocław University of Technology WYKŁAD 7 Testowanie jakości modeli klasyfikacyjnych metodyka i kryteria autor: Maciej Zięba Politechnika Wrocławska Testowanie modeli klasyfikacyjnych Dobór odpowiedniego

Bardziej szczegółowo

10/15/2016. Reguła. Czułość PV(+) Bayesa. Swoistość PV(-)

10/15/2016. Reguła. Czułość PV(+) Bayesa. Swoistość PV(-) A=symptom B= choroba Czułość Swoistość A ~ A ~ Reguła Bayesa ~ B ~ A) PV(+) PV(-) 1 / 2016_10_13 PV ( ) A PV ( ) A A ~ ~ sensitivity * PV ( ) sensitivity * (1 specificity)(1- ) specificity *(1- ) specificity

Bardziej szczegółowo

Ocena dokładności diagnozy

Ocena dokładności diagnozy Ocena dokładności diagnozy Diagnoza medyczna, w wielu przypadkach może być interpretowana jako działanie polegające na podjęciu jednej z dwóch decyzji odnośnie stanu zdrowotnego pacjenta: 0 pacjent zdrowy

Bardziej szczegółowo

KRZYWE ROC, CZYLI OCENA JAKOŚCI KLASYFIKATORA I POSZUKIWANIE OPTYMALNEGO PUNKTU ODCIĘCIA

KRZYWE ROC, CZYLI OCENA JAKOŚCI KLASYFIKATORA I POSZUKIWANIE OPTYMALNEGO PUNKTU ODCIĘCIA KRZYWE ROC, CZYLI OCENA JAKOŚCI KLASYFIKATORA I POSZUKIWANIE OPTYMALNEGO PUNKTU ODCIĘCIA Grzegorz Harańczyk, StatSoft Polska Sp. z o.o. Krzywa ROC (Receiver Operating Characteristic) jest narzędziem do

Bardziej szczegółowo

Elementy modelowania matematycznego

Elementy modelowania matematycznego Elementy modelowania matematycznego Modelowanie algorytmów klasyfikujących. Podejście probabilistyczne. Naiwny klasyfikator bayesowski. Modelowanie danych metodą najbliższych sąsiadów. Jakub Wróblewski

Bardziej szczegółowo

ALGORYTM RANDOM FOREST

ALGORYTM RANDOM FOREST SKRYPT PRZYGOTOWANY NA ZAJĘCIA INDUKOWANYCH REGUŁ DECYZYJNYCH PROWADZONYCH PRZEZ PANA PAWŁA WOJTKIEWICZA ALGORYTM RANDOM FOREST Katarzyna Graboś 56397 Aleksandra Mańko 56699 2015-01-26, Warszawa ALGORYTM

Bardziej szczegółowo

Systemy uczące się wykład 2

Systemy uczące się wykład 2 Systemy uczące się wykład 2 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 19 X 2018 Podstawowe definicje Fakt; Przesłanka; Konkluzja; Reguła; Wnioskowanie. Typy wnioskowania

Bardziej szczegółowo

Laboratorium 4. Naiwny klasyfikator Bayesa.

Laboratorium 4. Naiwny klasyfikator Bayesa. Laboratorium 4 Naiwny klasyfikator Bayesa. 1. Uruchom narzędzie Oracle Data Miner i połącz się z serwerem bazy danych. 2. Z menu głównego wybierz Activity Build. Na ekranie powitalnym kliknij przycisk

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 09, Walidacja jakości uczenia. Metody statystyczne.

Wstęp do sieci neuronowych, wykład 09, Walidacja jakości uczenia. Metody statystyczne. Wstęp do sieci neuronowych, wykład 09, Walidacja jakości uczenia. Metody statystyczne. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-12-06 1 Przykład

Bardziej szczegółowo

Agnieszka Nowak Brzezińska Wykład III

Agnieszka Nowak Brzezińska Wykład III Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 13-14, Walidacja jakości uczenia. Metody statystyczne.

Wstęp do sieci neuronowych, wykład 13-14, Walidacja jakości uczenia. Metody statystyczne. Wstęp do sieci neuronowych, wykład 13-14,. Metody statystyczne. M. Czoków, J. Piersa Faculty of Mathematics and Computer Science, Nicolaus Copernicus University, Toruń, Poland 2011.01.11 1 Przykład Przeuczenie

Bardziej szczegółowo

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV Klasyfikatory: k-nn oraz naiwny Bayesa Agnieszka Nowak Brzezińska Wykład IV Naiwny klasyfikator Bayesa Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną

Bardziej szczegółowo

Agnieszka Nowak Brzezińska

Agnieszka Nowak Brzezińska Agnieszka Nowak Brzezińska jeden z algorytmów regresji nieparametrycznej używanych w statystyce do prognozowania wartości pewnej zmiennej losowej. Może również byd używany do klasyfikacji. - Założenia

Bardziej szczegółowo

FUNKCJA LINIOWA - WYKRES. y = ax + b. a i b to współczynniki funkcji, które mają wartości liczbowe

FUNKCJA LINIOWA - WYKRES. y = ax + b. a i b to współczynniki funkcji, które mają wartości liczbowe FUNKCJA LINIOWA - WYKRES Wzór funkcji liniowej (postać kierunkowa) Funkcja liniowa to funkcja o wzorze: y = ax + b a i b to współczynniki funkcji, które mają wartości liczbowe Szczególnie ważny w postaci

Bardziej szczegółowo

Przykład eksploracji danych o naturze statystycznej Próba 1 wartości zmiennej losowej odległość

Przykład eksploracji danych o naturze statystycznej Próba 1 wartości zmiennej losowej odległość Dwie metody Klasyczna metoda histogramu jako narzędzie do postawienia hipotezy, jaki rozkład prawdopodobieństwa pasuje do danych Indukcja drzewa decyzyjnego jako metoda wykrycia klasyfikatora ukrytego

Bardziej szczegółowo

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18 Eksploracja Danych wykład 4 Sebastian Zając WMP.SNŚ UKSW 10 maja 2017 Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja 2017 1 / 18 Klasyfikacja danych Klasyfikacja Najczęściej stosowana (najstarsza)

Bardziej szczegółowo

Wprowadzenie do uczenia maszynowego

Wprowadzenie do uczenia maszynowego Wprowadzenie do uczenia maszynowego Agnieszka Ławrynowicz 12 stycznia 2017 Co to jest uczenie maszynowe? dziedzina nauki, która zajmuje się sprawianiem aby komputery mogły uczyć się bez ich zaprogramowania

Bardziej szczegółowo

Baza dla predykcji medycznej

Baza dla predykcji medycznej 1 rof. Danuta Makowiec Instytut Fizyki Teoretycznej i Astrofizyki UG Kontakt: pok. 353 tel.: 58 523 2466 e-mail danuta.makowiec at gmail.com http://www.fizdm.strony.ug.edu.pl/me/biostatystyka.html Reguła

Bardziej szczegółowo

Agnieszka Nowak Brzezińska Wykład III

Agnieszka Nowak Brzezińska Wykład III Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka

Stanisław Cichocki. Natalia Nehrebecka Stanisław Cichocki Natalia Nehrebecka 1 1. Wstęp a) Binarne zmienne zależne b) Interpretacja ekonomiczna c) Interpretacja współczynników 2. Liniowy model prawdopodobieństwa a) Interpretacja współczynników

Bardziej szczegółowo

Algorytm do rozpoznawania człowieka na podstawie dynamiki użycia klawiatury. Paweł Kobojek, prof. dr hab. inż. Khalid Saeed

Algorytm do rozpoznawania człowieka na podstawie dynamiki użycia klawiatury. Paweł Kobojek, prof. dr hab. inż. Khalid Saeed Algorytm do rozpoznawania człowieka na podstawie dynamiki użycia klawiatury Paweł Kobojek, prof. dr hab. inż. Khalid Saeed Zakres pracy Przegląd stanu wiedzy w dziedzinie biometrii, ze szczególnym naciskiem

Bardziej szczegółowo

FUNKCJA LINIOWA - WYKRES

FUNKCJA LINIOWA - WYKRES FUNKCJA LINIOWA - WYKRES Wzór funkcji liniowej (Postać kierunkowa) Funkcja liniowa jest podstawowym typem funkcji. Jest to funkcja o wzorze: y = ax + b a i b to współczynniki funkcji, które mają wartości

Bardziej szczegółowo

Klasyfikator. ˆp(k x) = 1 K. I(ρ(x,x i ) ρ(x,x (K) ))I(y i =k),k =1,...,L,

Klasyfikator. ˆp(k x) = 1 K. I(ρ(x,x i ) ρ(x,x (K) ))I(y i =k),k =1,...,L, Klasyfikator Jedną z najistotniejszych nieparametrycznych metod klasyfikacji jest metoda K-najbliższych sąsiadów, oznaczana przez K-NN. W metodzie tej zaliczamy rozpoznawany obiekt do tej klasy, do której

Bardziej szczegółowo

Klasyfikator liniowy Wstęp Klasyfikator liniowy jest najprostszym możliwym klasyfikatorem. Zakłada on liniową separację liniowy podział dwóch klas między sobą. Przedstawia to poniższy rysunek: 5 4 3 2

Bardziej szczegółowo

Weryfikacja hipotez statystycznych

Weryfikacja hipotez statystycznych Weryfikacja hipotez statystycznych Hipoteza Test statystyczny Poziom istotności Testy jednostronne i dwustronne Testowanie równości wariancji test F-Fishera Testowanie równości wartości średnich test t-studenta

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka

Stanisław Cichocki. Natalia Nehrebecka Stanisław Cichocki Natalia Nehrebecka 1 1. Wstęp a) Binarne zmienne zależne b) Interpretacja ekonomiczna c) Interpretacja współczynników 2. Liniowy model prawdopodobieństwa a) Interpretacja współczynników

Bardziej szczegółowo

INFORMATYKA W SELEKCJI

INFORMATYKA W SELEKCJI INFORMATYKA W SELEKCJI INFORMATYKA W SELEKCJI - zagadnienia 1. Dane w pracy hodowlanej praca z dużym zbiorem danych (Excel) 2. Podstawy pracy z relacyjną bazą danych w programie MS Access 3. Systemy statystyczne

Bardziej szczegółowo

Jakość procedury klasyfikacyjnej:

Jakość procedury klasyfikacyjnej: Jakość procedury klasyfikacyjnej: poglądowa interpretacja i szacowanie możliwości poprawy na podstawie charakterystyki ROC Maciej Górkiewicz mygorkie@cyf-kr.edu.pl Uniwersytet Jagielloński w Krakowie Collegium

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA WYKŁAD 4. WERYFIKACJA HIPOTEZ PARAMETRYCZNYCH X - cecha populacji, θ parametr rozkładu cechy X.

STATYSTYKA MATEMATYCZNA WYKŁAD 4. WERYFIKACJA HIPOTEZ PARAMETRYCZNYCH X - cecha populacji, θ parametr rozkładu cechy X. STATYSTYKA MATEMATYCZNA WYKŁAD 4 WERYFIKACJA HIPOTEZ PARAMETRYCZNYCH X - cecha populacji, θ parametr rozkładu cechy X. Wysuwamy hipotezy: zerową (podstawową H ( θ = θ i alternatywną H, która ma jedną z

Bardziej szczegółowo

Odczarowujemy modele predykcyjne Teoria i Praktyka

Odczarowujemy modele predykcyjne Teoria i Praktyka Odczarowujemy modele predykcyjne Teoria i Praktyka Mariusz Gromada, MathSpace.PL mariuszgromada.org@gmail.com 1 Kilka słów o mnie 1999 2004 Politechnika Warszawska Wydział Matematyki i Nauk Informacyjnych

Bardziej szczegółowo

Jakość uczenia i generalizacja

Jakość uczenia i generalizacja Jakość uczenia i generalizacja Dokładność uczenia Jest koncepcją miary w jakim stopniu nasza sieć nauczyła się rozwiązywać określone zadanie Dokładność mówi na ile nauczyliśmy się rozwiązywać zadania które

Bardziej szczegółowo

Spacery losowe generowanie realizacji procesu losowego

Spacery losowe generowanie realizacji procesu losowego Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z

Bardziej szczegółowo

Wykład 13. Zmienne losowe typu ciągłego

Wykład 13. Zmienne losowe typu ciągłego Wykład 13. Zmienne losowe typu ciągłego dr Mariusz Grządziel styczeń 014 Pole trapezu krzywoliniowego Przypomnienie: figurę ograniczoną przez: wykres funkcji y = f(x, gdzie f jest funkcją ciągłą; proste

Bardziej szczegółowo

Wykład 10 (12.05.08). Testowanie hipotez w rodzinie rozkładów normalnych przypadek nieznanego odchylenia standardowego

Wykład 10 (12.05.08). Testowanie hipotez w rodzinie rozkładów normalnych przypadek nieznanego odchylenia standardowego Wykład 10 (12.05.08). Testowanie hipotez w rodzinie rozkładów normalnych przypadek nieznanego odchylenia standardowego Przykład Cena metra kwadratowego (w tys. zł) z dla 14 losowo wybranych mieszkań w

Bardziej szczegółowo

3a. Wstęp: Elementarne równania i nierówności

3a. Wstęp: Elementarne równania i nierówności 3a. Wstęp: Elementarne równania i nierówności Grzegorz Kosiorowski Uniwersytet Ekonomiczny w Krakowie zima 2017/2018 Grzegorz Kosiorowski (Uniwersytet Ekonomiczny 3a. Wstęp: w Krakowie) Elementarne równania

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład XIV: Metody Monte Carlo 19 stycznia 2016 Przybliżone obliczanie całki oznaczonej Rozważmy całkowalną funkcję f : [0, 1] R. Chcemy znaleźć przybliżoną wartość liczbową całki 1 f (x) dx. 0 Jeden ze

Bardziej szczegółowo

Funkcje liniowe i wieloliniowe w praktyce szkolnej. Opracowanie : mgr inż. Renata Rzepińska

Funkcje liniowe i wieloliniowe w praktyce szkolnej. Opracowanie : mgr inż. Renata Rzepińska Funkcje liniowe i wieloliniowe w praktyce szkolnej Opracowanie : mgr inż. Renata Rzepińska . Wprowadzenie pojęcia funkcji liniowej w nauczaniu matematyki w gimnazjum. W programie nauczania matematyki w

Bardziej szczegółowo

Quick Launch Manual:

Quick Launch Manual: egresja Odds atio Quick Launch Manual: regresja logistyczna i odds ratio Uniwesytet Warszawski, Matematyka 28.10.2009 Plan prezentacji egresja Odds atio 1 2 egresja egresja logistyczna 3 Odds atio 4 5

Bardziej szczegółowo

Drzewa decyzyjne. Inteligentne Obliczenia. Wydział Mechatroniki Politechniki Warszawskiej. Anna Sztyber

Drzewa decyzyjne. Inteligentne Obliczenia. Wydział Mechatroniki Politechniki Warszawskiej. Anna Sztyber Drzewa decyzyjne Inteligentne Obliczenia Wydział Mechatroniki Politechniki Warszawskiej Anna Sztyber INO (IAiR PW) Drzewa decyzyjne Anna Sztyber / Drzewa decyzyjne w podstawowej wersji algorytm klasyfikacji

Bardziej szczegółowo

Estymacja przedziałowa - przedziały ufności dla średnich. Wrocław, 5 grudnia 2014

Estymacja przedziałowa - przedziały ufności dla średnich. Wrocław, 5 grudnia 2014 Estymacja przedziałowa - przedziały ufności dla średnich Wrocław, 5 grudnia 2014 Przedział ufności Niech będzie dana próba X 1, X 2,..., X n z rozkładu P θ, θ Θ. Definicja Przedziałem ufności dla paramertu

Bardziej szczegółowo

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny

Bardziej szczegółowo

Naiwny klasyfikator Bayesa brał pod uwagę jedynie najbliższe otoczenie. Lecz czym jest otoczenie? Jak je zdefiniować?

Naiwny klasyfikator Bayesa brał pod uwagę jedynie najbliższe otoczenie. Lecz czym jest otoczenie? Jak je zdefiniować? Algorytm k-nn Naiwny klasyfikator Bayesa brał pod uwagę jedynie najbliższe otoczenie. Lecz czym jest otoczenie? Jak je zdefiniować? Jak daleko są położone obiekty od siebie? knn k nearest neighbours jest

Bardziej szczegółowo

Laboratorium 6. Indukcja drzew decyzyjnych.

Laboratorium 6. Indukcja drzew decyzyjnych. Laboratorium 6 Indukcja drzew decyzyjnych. 1. Uruchom narzędzie Oracle Data Miner i połącz się z serwerem bazy danych. 2. Z menu głównego wybierz Activity Build. Na ekranie powitalnym kliknij przycisk

Bardziej szczegółowo

Wprowadzenie do uczenia maszynowego

Wprowadzenie do uczenia maszynowego Wprowadzenie do uczenia maszynowego Agnieszka Ławrynowicz 16 listopada 2017 Co to jest uczenie maszynowe? dziedzina nauki, która zajmuje się sprawianiem aby komputery mogły uczyć się bez ich zaprogramowania

Bardziej szczegółowo

Testowanie hipotez statystycznych

Testowanie hipotez statystycznych 9 października 2008 ...czyli definicje na rozgrzewkę n-elementowa próba losowa - wektor n zmiennych losowych (X 1,..., X n ); intuicyjnie: wynik n eksperymentów realizacja próby (X 1,..., X n ) w ω Ω :

Bardziej szczegółowo

Pochodna i różniczka funkcji oraz jej zastosowanie do obliczania niepewności pomiarowych

Pochodna i różniczka funkcji oraz jej zastosowanie do obliczania niepewności pomiarowych Pochodna i różniczka unkcji oraz jej zastosowanie do obliczania niepewności pomiarowych Krzyszto Rębilas DEFINICJA POCHODNEJ Pochodna unkcji () w punkcie określona jest jako granica: lim 0 Oznaczamy ją

Bardziej szczegółowo

Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych. Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS

Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych. Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS Dyskretyzacja - definicja Dyskretyzacja - zamiana atrybutów

Bardziej szczegółowo

Drzewa decyzyjne i lasy losowe

Drzewa decyzyjne i lasy losowe Drzewa decyzyjne i lasy losowe Im dalej w las tym więcej drzew! ML Gdańsk http://www.mlgdansk.pl/ Marcin Zadroga https://www.linkedin.com/in/mzadroga/ 20 Czerwca 2017 WPROWADZENIE DO MACHINE LEARNING CZYM

Bardziej szczegółowo

Inteligentna analiza danych

Inteligentna analiza danych Numer indeksu 150946 Michał Moroz Imię i nazwisko Numer indeksu 150875 Grzegorz Graczyk Imię i nazwisko kierunek: Informatyka rok akademicki: 2010/2011 Inteligentna analiza danych Ćwiczenie I Wskaźniki

Bardziej szczegółowo

Funkcja liniowa - podsumowanie

Funkcja liniowa - podsumowanie Funkcja liniowa - podsumowanie 1. Funkcja - wprowadzenie Założenie wyjściowe: Rozpatrywana będzie funkcja opisana w dwuwymiarowym układzie współrzędnych X. Oś X nazywana jest osią odciętych (oś zmiennych

Bardziej szczegółowo

6. Zmienne losowe typu ciagłego ( ) Pole trapezu krzywoliniowego

6. Zmienne losowe typu ciagłego ( ) Pole trapezu krzywoliniowego 6. Zmienne losowe typu ciagłego (2.04.2007) Pole trapezu krzywoliniowego Przypomnienie: figurę ograniczoną przez: wykres funkcji y = f(x), gdzie f jest funkcją ciągłą; proste x = a, x = b, a < b, oś OX

Bardziej szczegółowo

Klasyfikacja w oparciu o metrykę budowaną poprzez dystrybuanty empiryczne na przestrzeni wzorców uczących

Klasyfikacja w oparciu o metrykę budowaną poprzez dystrybuanty empiryczne na przestrzeni wzorców uczących Klasyfikacja w oparciu o metrykę budowaną poprzez dystrybuanty empiryczne na przestrzeni wzorców uczących Cezary Dendek Wydział Matematyki i Nauk Informacyjnych PW Plan prezentacji Plan prezentacji Wprowadzenie

Bardziej szczegółowo

Wykład 10 Estymacja przedziałowa - przedziały ufności dla średn

Wykład 10 Estymacja przedziałowa - przedziały ufności dla średn Wykład 10 Estymacja przedziałowa - przedziały ufności dla średniej Wrocław, 21 grudnia 2016r Przedział ufności Niech będzie dana próba X 1, X 2,..., X n z rozkładu P θ, θ Θ. Definicja 10.1 Przedziałem

Bardziej szczegółowo

Programowanie celowe #1

Programowanie celowe #1 Programowanie celowe #1 Problem programowania celowego (PC) jest przykładem problemu programowania matematycznego nieliniowego, który można skutecznie zlinearyzować, tzn. zapisać (i rozwiązać) jako problem

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 2 κ-nn i Naive Bayes autorzy: M. Zięba, J.M. Tomczak, A. Gonczarek, S. Zaręba Cel zadania Celem zadania jest implementacja klasyfikatorów

Bardziej szczegółowo

KORELACJE I REGRESJA LINIOWA

KORELACJE I REGRESJA LINIOWA KORELACJE I REGRESJA LINIOWA Korelacje i regresja liniowa Analiza korelacji: Badanie, czy pomiędzy dwoma zmiennymi istnieje zależność Obie analizy się wzajemnie przeplatają Analiza regresji: Opisanie modelem

Bardziej szczegółowo

Statystyka matematyczna Testowanie hipotez i estymacja parametrów. Wrocław, r

Statystyka matematyczna Testowanie hipotez i estymacja parametrów. Wrocław, r Statystyka matematyczna Testowanie hipotez i estymacja parametrów Wrocław, 18.03.2016r Plan wykładu: 1. Testowanie hipotez 2. Etapy testowania hipotez 3. Błędy 4. Testowanie wielokrotne 5. Estymacja parametrów

Bardziej szczegółowo

FUNKCJA LINIOWA, RÓWNANIA I UKŁADY RÓWNAŃ LINIOWYCH

FUNKCJA LINIOWA, RÓWNANIA I UKŁADY RÓWNAŃ LINIOWYCH FUNKCJA LINIOWA, RÓWNANIA I UKŁADY RÓWNAŃ LINIOWYCH PROPORCJONALNOŚĆ PROSTA Proporcjonalnością prostą nazywamy zależność między dwoma wielkościami zmiennymi x i y, określoną wzorem: y = a x Gdzie a jest

Bardziej szczegółowo

A Zadanie

A Zadanie where a, b, and c are binary (boolean) attributes. A Zadanie 1 2 3 4 5 6 7 8 9 10 Punkty a (maks) (2) (2) (2) (2) (4) F(6) (8) T (8) (12) (12) (40) Nazwisko i Imiȩ: c Uwaga: ta część zostanie wypełniona

Bardziej szczegółowo

Sztuczna inteligencja : Algorytm KNN

Sztuczna inteligencja : Algorytm KNN Instytut Informatyki Uniwersytetu Śląskiego 23 kwietnia 2012 1 Algorytm 1 NN 2 Algorytm knn 3 Zadania Klasyfikacja obiektów w oparciu o najbliższe obiekty: Algorytm 1-NN - najbliższego sąsiada. Parametr

Bardziej szczegółowo

Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe.

Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Rachunek prawdopodobieństwa MAP3040 WPPT FT, rok akad. 2010/11, sem. zimowy Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Warunkowa wartość oczekiwana.

Bardziej szczegółowo

Lista 6. Kamil Matuszewski 13 kwietnia D n =

Lista 6. Kamil Matuszewski 13 kwietnia D n = Lista 6 Kamil Matuszewski 3 kwietnia 6 3 4 5 6 7 8 9 Zadanie Mamy Pokaż, że det(d n ) = n.... D n =.... Dowód. Okej. Dla n =, n = trywialne. Załóżmy, że dla n jest ok, sprawdzę dla n. Aby to zrobić skorzystam

Bardziej szczegółowo

Biostatystyka, # 3 /Weterynaria I/

Biostatystyka, # 3 /Weterynaria I/ Biostatystyka, # 3 /Weterynaria I/ dr n. mat. Zdzisław Otachel Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Głęboka 28, p. 221 bud. CIW, e-mail: zdzislaw.otachel@up.lublin.pl

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 2 Detekcja twarzy autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się algorytmem gradientu prostego

Bardziej szczegółowo

Temat: Zmienna losowa. Rozkład skokowy. Rozkład ciągły. Kody kolorów: Ŝółty nowe pojęcie pomarańczowy uwaga. Anna Rajfura, Matematyka

Temat: Zmienna losowa. Rozkład skokowy. Rozkład ciągły. Kody kolorów: Ŝółty nowe pojęcie pomarańczowy uwaga. Anna Rajfura, Matematyka Temat: Zmienna losowa. Rozkład skokowy. Rozkład ciągły Kody kolorów: Ŝółty nowe pojęcie pomarańczowy uwaga 1 Zagadnienia 1. Przypomnienie wybranych pojęć rachunku prawdopodobieństwa. Zmienna losowa. Rozkład

Bardziej szczegółowo

Pochodna i różniczka funkcji oraz jej zastosowanie do rachunku błędów pomiarowych

Pochodna i różniczka funkcji oraz jej zastosowanie do rachunku błędów pomiarowych Pochodna i różniczka unkcji oraz jej zastosowanie do rachunku błędów pomiarowych Krzyszto Rębilas DEFINICJA POCHODNEJ Pochodna unkcji () w punkcie określona jest jako granica: lim 0 Oznaczamy ją symbolami:

Bardziej szczegółowo

Popularne klasyfikatory w pakietach komputerowych

Popularne klasyfikatory w pakietach komputerowych Popularne klasyfikatory w pakietach komputerowych Klasyfikator liniowy Uogólniony klasyfikator liniowy SVM aiwny klasyfikator bayesowski Ocena klasyfikatora ROC Lista popularnych pakietów Klasyfikator

Bardziej szczegółowo

ZeroR. Odpowiada zawsze tak samo Decyzja to klasa większościowa ze zbioru uczącego A B X 1 5 T 1 7 T 1 5 T 1 5 F 2 7 F

ZeroR. Odpowiada zawsze tak samo Decyzja to klasa większościowa ze zbioru uczącego A B X 1 5 T 1 7 T 1 5 T 1 5 F 2 7 F ZeroR Odpowiada zawsze tak samo Decyzja to klasa większościowa ze zbioru uczącego A B X 5 T 7 T 5 T 5 F 2 7 F Tutaj jest więcej obiektów klasy T, więc klasyfikator ZeroR będzie zawsze odpowiadał T niezależnie

Bardziej szczegółowo

Z Wikipedii, wolnej encyklopedii.

Z Wikipedii, wolnej encyklopedii. Rozkład normalny Rozkład normalny jest niezwykle ważnym rozkładem prawdopodobieństwa w wielu dziedzinach. Nazywa się go także rozkładem Gaussa, w szczególności w fizyce i inżynierii. W zasadzie jest to

Bardziej szczegółowo

Statystyka. Rozkład prawdopodobieństwa Testowanie hipotez. Wykład III ( )

Statystyka. Rozkład prawdopodobieństwa Testowanie hipotez. Wykład III ( ) Statystyka Rozkład prawdopodobieństwa Testowanie hipotez Wykład III (04.01.2016) Rozkład t-studenta Rozkład T jest rozkładem pomocniczym we wnioskowaniu statystycznym; stosuje się go wyznaczenia przedziału

Bardziej szczegółowo

Korzystanie z podstawowych rozkładów prawdopodobieństwa (tablice i arkusze kalkulacyjne)

Korzystanie z podstawowych rozkładów prawdopodobieństwa (tablice i arkusze kalkulacyjne) Korzystanie z podstawowych rozkładów prawdopodobieństwa (tablice i arkusze kalkulacyjne) Przygotował: Dr inż. Wojciech Artichowicz Katedra Hydrotechniki PG Zima 2014/15 1 TABLICE ROZKŁADÓW... 3 ROZKŁAD

Bardziej szczegółowo

Ważne rozkłady i twierdzenia

Ważne rozkłady i twierdzenia Ważne rozkłady i twierdzenia Rozkład dwumianowy i wielomianowy Częstość. Prawo wielkich liczb Rozkład hipergeometryczny Rozkład Poissona Rozkład normalny i rozkład Gaussa Centralne twierdzenie graniczne

Bardziej szczegółowo

Rozpoznawanie obrazów

Rozpoznawanie obrazów Rozpoznawanie obrazów Laboratorium Python Zadanie nr 2 κ-nn i Naive Bayes autorzy: M. Zięba, J.M. Tomczak, A. Gonczarek, S. Zaręba, J. Kaczmar Cel zadania Celem zadania jest implementacja klasyfikatorów

Bardziej szczegółowo

ESTYMACJA BŁĘDU PREDYKCJI I JEJ ZASTOSOWANIA

ESTYMACJA BŁĘDU PREDYKCJI I JEJ ZASTOSOWANIA ESTYMACJA BŁĘDU PREDYKCJI I JEJ ZASTOSOWANIA Jan Mielniczuk Wisła, grudzień 2009 PLAN Błędy predykcji i ich podstawowe estymatory Estymacja błędu predykcji w modelu liniowym. Funkcje kryterialne Własności

Bardziej szczegółowo

Uwaga: szarych kropek po pokolorowaniu nie uwzględniaj w klasyfikowaniu kolejnych szarych.

Uwaga: szarych kropek po pokolorowaniu nie uwzględniaj w klasyfikowaniu kolejnych szarych. Inteligencja obliczeniowa stud. niestac. Laboratorium 4: Zadanie klasyfikacji poznanie trzech algorytmów klasyfikujących: knn, NaiveBayes, drzewo decyzyjne. Przy pomnijmy sobie bazę danych z irysami. Na

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium JAVA Zadanie nr 2 Rozpoznawanie liter autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z problemem klasyfikacji

Bardziej szczegółowo

Metody klasyfikacji danych - część 1 p.1/24

Metody klasyfikacji danych - część 1 p.1/24 Metody klasyfikacji danych - część 1 Inteligentne Usługi Informacyjne Jerzy Dembski Metody klasyfikacji danych - część 1 p.1/24 Plan wykładu - Zadanie klasyfikacji danych - Przeglad problemów klasyfikacji

Bardziej szczegółowo

4,5. Dyskretne zmienne losowe (17.03; 31.03)

4,5. Dyskretne zmienne losowe (17.03; 31.03) 4,5. Dyskretne zmienne losowe (17.03; 31.03) Definicja 1 Zmienna losowa nazywamy dyskretna (skokowa), jeśli zbiór jej wartości x 1, x 2,..., można ustawić w ciag. Zmienna losowa X, która przyjmuje wszystkie

Bardziej szczegółowo

Hierarchiczna analiza skupień

Hierarchiczna analiza skupień Hierarchiczna analiza skupień Cel analizy Analiza skupień ma na celu wykrycie w zbiorze obserwacji klastrów, czyli rozłącznych podzbiorów obserwacji, wewnątrz których obserwacje są sobie w jakimś określonym

Bardziej szczegółowo

Rozwiązywanie układów równań liniowych

Rozwiązywanie układów równań liniowych Rozwiązywanie układów równań liniowych Marcin Orchel 1 Wstęp Jeśli znamy macierz odwrotną A 1, to możęmy znaleźć rozwiązanie układu Ax = b w wyniku mnożenia x = A 1 b (1) 1.1 Metoda eliminacji Gaussa Pierwszy

Bardziej szczegółowo

Funkcje wymierne. Funkcja homograficzna. Równania i nierówności wymierne.

Funkcje wymierne. Funkcja homograficzna. Równania i nierówności wymierne. Funkcje wymierne. Funkcja homograficzna. Równania i nierówności wymierne. Funkcja homograficzna. Definicja. Funkcja homograficzna jest to funkcja określona wzorem f() = a + b c + d, () gdzie współczynniki

Bardziej szczegółowo

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa Spis treści Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa Romuald Kotowski Katedra Informatyki Stosowanej PJWSTK 2009 Spis treści Spis treści 1 Wstęp Bardzo często interesujący

Bardziej szczegółowo

Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1

Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1 Weryfikacja hipotez statystycznych KG (CC) Statystyka 26 V 2009 1 / 1 Sformułowanie problemu Weryfikacja hipotez statystycznych jest drugą (po estymacji) metodą uogólniania wyników uzyskanych w próbie

Bardziej szczegółowo

Dyskretne zmienne losowe

Dyskretne zmienne losowe Dyskretne zmienne losowe dr Mariusz Grządziel 16 marca 2009 Definicja 1. Zmienna losowa nazywamy dyskretna (skokowa), jeśli zbiór jej wartości x 1, x 2,..., można ustawić w ciag. Zmienna losowa X, która

Bardziej szczegółowo

Prawdopodobieństwo czerwonych = = 0.33

Prawdopodobieństwo czerwonych = = 0.33 Temat zajęć: Naiwny klasyfikator Bayesa a algorytm KNN Część I: Naiwny klasyfikator Bayesa Naiwny klasyfikator bayerowski jest prostym probabilistycznym klasyfikatorem. Naiwne klasyfikatory bayesowskie

Bardziej szczegółowo

Funkcja kwadratowa. f(x) = ax 2 + bx + c,

Funkcja kwadratowa. f(x) = ax 2 + bx + c, Funkcja kwadratowa. Funkcją kwadratową nazywamy funkcję f : R R określoną wzorem gdzie a, b, c R, a 0. f(x) = ax 2 + bx + c, Szczególnym przypadkiem funkcji kwadratowej jest funkcja f(x) = ax 2, a R \

Bardziej szczegółowo

Klasyfikacja LDA + walidacja

Klasyfikacja LDA + walidacja Klasyfikacja LDA + walidacja Dr hab. Izabela Rejer Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Plan wykładu 1. Klasyfikator 2. LDA 3. Klasyfikacja wieloklasowa 4. Walidacja

Bardziej szczegółowo

Instytut Politechniczny Państwowa Wyższa Szkoła Zawodowa. Diagnostyka i niezawodność robotów

Instytut Politechniczny Państwowa Wyższa Szkoła Zawodowa. Diagnostyka i niezawodność robotów Instytut Politechniczny Państwowa Wyższa Szkoła Zawodowa Diagnostyka i niezawodność robotów Laboratorium nr 3 Generacja realizacji zmiennych losowych Prowadzący: mgr inż. Marcel Luzar Cele ćwiczenia: Generowanie

Bardziej szczegółowo

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów. Rachunek prawdopodobieństwa MAT1332 Wydział Matematyki, Matematyka Stosowana Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów. Warunkowa

Bardziej szczegółowo

Barycentryczny układ współrzędnych

Barycentryczny układ współrzędnych SkaiWD Laboratorium 2 Barycentryczny układ współrzędnych Iwo Błądek 21 marca 2019 1 Barycentryczny układ współrzędnych Podstawowa wiedza została przekazana na wykładzie. W tej sekcji znajdują się proste

Bardziej szczegółowo

Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji

Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Inteligencji i Metod Matematycznych Wydział Informatyki Politechniki

Bardziej szczegółowo

Rozpoznawanie obrazów

Rozpoznawanie obrazów Rozpoznawanie obrazów Ćwiczenia lista zadań nr 7 autorzy: A. Gonczarek, J.M. Tomczak Przykładowe problemy Klasyfikacja binarna Dla obrazu x zaproponowano dwie cechy φ(x) = (φ 1 (x) φ 2 (x)) T. Na obrazie

Bardziej szczegółowo

18. Obliczyć. 9. Obliczyć iloczyn macierzy i. 10. Transponować macierz. 11. Transponować macierz. A następnie podać wymiar powstałej macierzy.

18. Obliczyć. 9. Obliczyć iloczyn macierzy i. 10. Transponować macierz. 11. Transponować macierz. A następnie podać wymiar powstałej macierzy. 1 Czy iloczyn macierzy, które nie są kwadratowe może być macierzą kwadratową? Podaj przykład 2 Czy każde dwie macierze jednostkowe są równe? Podaj przykład 3 Czy mnożenie macierzy przez macierz jednostkową

Bardziej szczegółowo