Krzywe ROC i inne techniki oceny jakości klasyfikatorów
|
|
- Stanisława Marszałek
- 9 lat temu
- Przeglądów:
Transkrypt
1 Krzywe ROC i inne techniki oceny jakości klasyfikatorów Wydział Matematyki, Informatyki i Mechaniki Uniwersytetu Warszawskiego 20 maja 2009
2 1 2 Przykład krzywej ROC 3 4 Pakiet ROCR Dostępne metryki
3 Krzywe ROC są użyteczną techniką selekcji klasyfikatorów i wizualizacji ich skuteczności. Są one często używane w zagadnieniach decyzyjnych w medycynie, a w ostatnich latach coraz częściej używa się ich w zagadnieniach uczenia maszyn oraz eksploracji danych. W statystycznych badaniach zmiennej binarnej korzysta się z miar takich jak wrażliwość i specyficzność. Co oznaczają te miary można łatwo zrozumieć na prostym przykładzie.
4 Przykład Załóżmy, że przeprowadzamy test na obecność wirusa grypy A/H1N1. W grupie osób badanych występują osoby, które są zarażone oraz osoby zdrowe. Jeżeli i-ta osoba jest zarażona to zaznaczamy y i = 1. Przeprowadzając badanie krwi podajemy wynik testu, albo inaczej mówiąc prognozujemy, czy dana osoba jest zarażona. Jeżeli wynik jest pozytywny zapisujemy ŷ i = 1. Jeżeli test wskazuje, że badany jest zdrowy to ŷ i = 0.
5 1 2 Przykład krzywej ROC 3 4 Pakiet ROCR Dostępne metryki
6 Niestety każdy test ma margines błędu w związku z tym możemy błędnie zaklasyfikować badanych: osoba sklasyfikowana jako zdrowa jest chora - wynik błędnie wykluczający, błąd II rodzaju (false negative) osoba sklasyfikowana jako zdrowa jest zdrowa - wynik poprawnie wykluczający (true negative) osoba sklasyfikowana jako chora jest zdrowa - wynik błędnie włączający, błąd I rodzaju (false positive) osoba sklasyfikowana jako chora jest chora - wynik poprawnie włączający (true positive)
7 Wynik badania chory zdrowy Stan faktyczny chory zdrowy True False Positive Positive False True Negative Negative
8 1 2 Przykład krzywej ROC 3 4 Pakiet ROCR Dostępne metryki
9 Wrażliwością nazywamy prawdopodobieństwo, że chorą osobę nasz test zakwalifikuje poprawnie jako chorą (true positive rate). wrażliwość = liczba poprawnie zakwalifikowanych chorych liczba zakwalifikowanych jako chorzy Specyficznością nazywamy prawdopodobieństwo, że osobę zdrową nasz test zakwalifikuje poprawnie jako zdrową (true negative rate). liczba poprawnie zakwalifikowanych zdrowych specyficzność = liczba zakwalifikowanych jako zdrowi
10 1 2 Przykład krzywej ROC 3 4 Pakiet ROCR Dostępne metryki
11 to dwu-wymiarowy wykresy przedstawiające wrażliwość na osi Y oraz wartości 1 specyficzność na osi X. Wizualizujemy w ten sposób stosunek korzyści (true positive) do kosztów (false positive) Dyskretny wykres ROC
12 1 2 Przykład krzywej ROC 3 4 Pakiet ROCR Dostępne metryki
13 Znaczenie punktów krańcowych Punkt (0, 0) oznacza strategię nigdy nie uznawania badanego za chorego, dzięki temu unikamy błędów I rodzaju ale też nie zyskujemy prawidłowych wskazań true positive, Punkt (1, 1) oznacza strategię przeciwną, zawsze uznajemy badanego za chorego, Punkt (0, 1) oznacza idealną klasyfikację Punkty na prostej y = x oznaczają strategię losowego zgadywania. Dla przykłądu jeżeli wynik testu na grypę daje wynik pozytywny z prawdopodobieństwem 50% możemy spodziewać się, że połowa wyników pozytywnych jak i negatywnych będzie prawdziwa co daje punkt (0, 5; 0, 5). Jeżeli w 90% przypadków klasyfikuje jako chorych to 90% wyników pozytywnych i 90% negatywnych będzie prawdziwa dając punkt (0, 9; 0, 9).
14 Który z punktów jest lepszy? Nieformalnie mówimy, że jeden punkt jest lepszy od drugiego jeżeli znajduje się dalej na północny zachód (wrażliwość i specyficzność są wyższe) od pierwszego. Klasyfikatory dające punkty po lewej stronie i przy osi X są uznawane za konserwatywne uznają za chorą osobę tylko jeżeli są na to silne dowody. Zaś klasyfikatory dające punkty w górnym prawym rogu można określić jako liberalne dają wynik pozytywny nawet przy niewielkich przesłankach.
15 Przykład krzywej ROC 1 2 Przykład krzywej ROC 3 4 Pakiet ROCR Dostępne metryki
16 Przykład krzywej ROC Klasyfikator Naive Bayes lub sieci neuronowe w naturalny sposób dają wartość prawdopodobieństwa lub ocenę, wartość numeryczną która określa stopień przynależności do danej klasy. Taki klasyfikator w połączeniu z wartością graniczną daje klasyfikator dyskretny: jeżeli ocena jest powyżej wartości granicznej uznajemy badanego za chorego a w przeciwnym wypadku nie. Każda wartość graniczna daje inny punkt na przestrzeni ROC, obliczając wrażliwość i specyficzność dla każdej wartości granicznej ([0, 1] dla prawdopodobieństwa, [, + ] dla oceniania)
17 Przykład krzywej ROC 1 2 Przykład krzywej ROC 3 4 Pakiet ROCR Dostępne metryki
18 Przykład Przykład krzywej ROC L.p. Stan Prawd. W.g. Wraż. Spec. 1-Spec. 1 1 chory 0, 9 0, zdrowy 0, 7 0, chory 0, 55 0, zdrowy 0, 53 0, chory 0, 51 0, chory 0, 4 0, chory 0, 38 0, zdrowy 0, 36 0, zdrowy 0, 34 0, chory 0, 3 0,
19 Krzywa ROC Przykład krzywej ROC Przykładowa krzywa ROC
20 1 2 Przykład krzywej ROC 3 4 Pakiet ROCR Dostępne metryki
21 AUC - Area Under ROC Curve Aby łatwiej porównywać klasyfikatory oblicza się pole powierzchni pod krzywą ROC (AUC - Area Under ROC Curve). Idealny klasyfikator ma wartość AUC = 1, natomiast ze względu na to, że losowe zgadywanie daje odcinek pomiędzy (0, 0) a (1, 1) czyli AUC = 0, 5 żaden porządny klasyfikator nie powinien mieć wartości AUC < 0, 5. Pomimo prostoty porównywania klasyfikatorów za pomocą AUC, funkcją celu optymalizowaną przez większość klasyfikatorów jest współczynnik błędów (error rate). Nawet niektóre z nowych algorytmów zaproponowanych do maksymalizacji AUC nie obliczają wartości AUC dokładniej niż algorytmy do minimalizacji współczynnika błędów. Dlatego ważne jest aby zrozumieć zależności pomiędzy tymi wartościami.
22 1 2 Przykład krzywej ROC 3 4 Pakiet ROCR Dostępne metryki
23 AUC Ważną statystyczną własnością AUC jest to, że wartość AUC klasyfikatora odpowiada prawdopodobieństwu, że klasyfikator wyżej oceni losowo wybrany pozytywny element niż losowo wybrany negatywny element. Nich a 1,..., a m i b 1,..., b n będą ocenami klasyfikatora odpowiednio dla pozytywnych i negatywnych elementów. Wtedy: m n AUC = i=1 j=1 mn 1 ai >b j Jest to równoważne testowi Wilcoxon a (Hanley i McMeil, 1982).
24 AUC jest również powiązane ze współczynnikiem Gini (Breiman i współpracownicy, 1984), który jest dwukrotnie większy od obszaru pomiędzy diagonalą a krzywą ROC (Hand i Till, 2001). Gini + 1 = 2 AUC
25 1 2 Przykład krzywej ROC 3 4 Pakiet ROCR Dostępne metryki
26 Różne klasyfikatory mogą mieć ten sam współczynnik błędów lecz różne wartości AUC. Dla ustalonej wartości granicznej θ, przestawienie elementów z wartościami klasyfikatora większymi niż θ nie zmienia współczynnika błędów lecz zmienia wartość AUC
27 L.p. Stan Prawd. Stan Prawd. 1 chory 0, 9 zdrowy 0, 9 2 zdrowy 0, 7 chory 0, 7 3 chory 0, 55 chory 0, 55 4 zdrowy 0, 53 zdrowy 0, 53 5 chory 0, 51 chory 0, 51 6 chory 0, 4 chory 0, 4 7 chory 0, 38 chory 0, 38 8 zdrowy 0, 36 zdrowy 0, 36 9 zdrowy 0, 34 zdrowy 0, chory 0, 3 chory 0, 3
28 Załóżmy, że liczba błędów jest ustalona i wynosi k. Chcemy obliczyć średnią wartość AUC wszystkich klasyfikatorów z k błędami. Zakładamy, że wszystkie klasyfikatory są tak samo prawdopodobne. Dla ustalonej klasyfikacji może wystąpić x, 0 x k błędów I rodzaju a zatem liczba błędów II rodzaju wynosi k x. Wartość graniczna θ dzieli elementy na 2 dwie grupy: Wartość graniczna θ k x pozytywne elementy x negatywne elementy n x negatywne elementy m (k x) pozytywne elementy
29 Dla ustalonego x obliczanie AUC można podzielić na 3 części: AUC = A 1 + A 2 + A 3, gdzie (1) mn A 1 = suma po wszystkich parach (a i, b j ) leżących w różnych obszarach A 2 = suma po wszystkich parach (a i, b j ) leżących powyżej θ A 3 = suma po wszystkich parach (a i, b j ) leżących poniżej θ
30 Pierwszy składnik, A 1, łatwo obliczyć. Ponieważ jest (m (k x)) pozytywnych elementów powyżej wartości granicznej θ oraz n x negatywnych elementów poniżej θ, A 1 wynosi: A 1 = (m (k x))(n x) (2)
31 Aby obliczyć A 2, przyporządkujmy każdemu negatywnemu elementowi powyżej θ pozycję na podstawie oceny klasyfikatora. Na pierwszej pozycji znajdzie się element o najniższej ocenie powyżej θ i niech α 1 <... < α x oznaczają pozycje x negatywnych elementów powyżej θ w rosnącej kolejności. Łączna liczba elementów zaklasyfikowanych jako pozytywne wynosi N = m (k x) + x. Zatem zgodnie z definicją A 2 wynosi: A 2 = x (N α i ) (x i). (3) i=1 Gdzie (N α i ) określa liczbę elementów ocenionych wyżej niż i-ty element a (x i) określa liczbę negatywnych przykładów błędnie ocenionych wyżej niż i-ty element.
32 Analogicznie niech α 1 <... < α k x określają pozycję k x pozytywnych elementów poniżej wartości granicznej θ, licząc pozycje w kierunku od θ w dół. Wtedy A 3 można przedstawić za pomocą wzoru: A 3 = (N α j ) (x j). (4) x j=1 Gdzie N = n x + (k x) a x = k x.
33 Łącząc wzory na A 1, A 2 i A 3 dostajemy: AUC = A 1 + A 2 + A 3 mn = 1 + (k 2x)2 + k 2mn ( x x α i + α j ) i=1 Dla ustalonego x wartość oczekiwana AUC wynosi: E x (AUC) = 1 mn x n + k x m. 2 j=1 (5) (6)
34 E(AUC) = k x=0 ( N x )( N x ) x 1 n + k x m 2 k ( )( ) = N N (7) x=0 1 k m + n (n m)2 (m + n + 1) 4mn x x k m + n k 1 ( ) m + n x x=0 k ( ) m + n + 1 x x=0 (8)
35 Ze wzoru 8 widać, że średnia wartość AUC jest identyczna z dokładnością klasyfikatora tylko dla parzystej liczby elementów (n = m). Dla n m, wartość oczekiwana AUC jest monotoniczną funkcją dokładności. Patrząc na średnią wydaje się nic nie zyskamy stosując specjalny algorytm do maksymalizacji AUC: algorytm klasyfikujący, który minimalizuje współczynnik błędu optymalizuje również AUC. Jednak jest to prawda jedynie dla wartości średniej AUC. Pokażemy teraz, że wariancja AUC nie n zeruje się dla żadnej wartości n + m gdy k 0
36 Wariancja AUC Niech D = mn + (k 2x)2 + k, a = 2 x x α i, a = α j oraz α = a + a, wtedy z równości 5 otrzymujemy równość mnauc = D α. Wariancja AUC dana jest wzorem: i=1 j=1 (mn) 2 σ 2 (AUC) = E((D α) 2 (E(D) E(α)) 2 ) = E(D 2 ) E(D) 2 + E(α 2 ) E(α) 2 2(E(αD) E(α)E(D)). (9)
37 Tak jak poprzednio, aby obliczyć wartości średnie wyrażeń X dla wszystkich klasyfikacji, możemy obliczyć w pierwszej kolejności średnie E x (X ) dla ustalonego x a następnie użyć funkcji F zdefiniowanej następująco: k ( )( ) N N x x Y x=0 F (Y ) = k ( )( ). (10) N N x E(X ) = F (E x (X )) x=0 x
38 Wzór na wariancję AUC daje się sprowadzić do następującej postaci: σ 2 (AUC) = F ( 1 x n + k x m 2 2 ) F ( 1 x n + k x m ) 2 2 +F ( mx 2 + n(k x) 2 + (m(m + 1)x + n(n + 1)(k x)) 12m 2 n 2 2x(k x)(m + n + 1) 12m 2 n 2 ) (11) Choć nie łatwo to zauważyć to im bardziej rozkład pomiędzy klasy jest nierówny tym wariancja jest większa, rośnie ona wraz z liczbą błędów. Obserwacje te są sprzeczne z tezą, że wariancja wynosi zero dla każdego współczynnika błędu o ile rozkład na klasy jest równy (m = n)
39 1 2 Przykład krzywej ROC 3 4 Pakiet ROCR Dostępne metryki
40 Częściowy obszar pod wykresem Metoda pauc została zaproponowana jako alternatywna miara dla AUC. Używając pauc bierzemy pod uwagę tylko te obszary przestrzeni ROC gdzie występują dane lub takie, które są ważne ze względu na analizę którą przeprowadzamy. Aczkolwiek pauc może się wydawać lepszym kryterium w niektórych przypadkach (w celu uwydatnienia pewnych własności) to preferuje się używanie pełnego AUC.
41 Pakiet ROCR Dostępne metryki 1 2 Przykład krzywej ROC 3 4 Pakiet ROCR Dostępne metryki
42 prediction Pakiet ROCR Dostępne metryki Aby rozpocząć prace z pakietem ROCR musimy w pierwszej kolejności utworzyć obiekt prediction. Konstruktor przyjmuje jako parametry wektor ocen wygenerowanych przez klasyfikator (ewentualnie macierz dla walidacji krzyżowej lub bootstraping u) oraz wektor przynależności do grup. Opcjonalnym parametrem jest wektor szeregujący etykiety grup - (pozytywna, negatywna). > pred <- prediction(przykład$oceny, przykład$etykiety, c(pozytywna, negatywna))
43 performance Pakiet ROCR Dostępne metryki Następnie możemy utworzyć obiekt performance, który posłuży do wizualizacji jakości klasyfikatora. Konstruktor wymaga podania dwóch argumentów: obiektu typu prediction oraz metryki jakości (np. wrażliwość - sens, specyficzność - spec,...). Następnie po przekazaniu obiektu klasy performance do funkcji plot zobaczymy wykres miary względem odcięć. > pref <- performance(pred, "sens") > plot (pref)
44 performance Pakiet ROCR Dostępne metryki Trzeci parametr konstruktora performance pozwala na porównanie jednej metryki jako funkcji drugie - dzięki temu możemy otrzymać krzywą ROC (wrażliwość jako funkcja parametru 1 specyficzność). > pref <- performance(pred, "sens", "fpr") > plot (pref)
45 Pakiet ROCR Dostępne metryki 1 2 Przykład krzywej ROC 3 4 Pakiet ROCR Dostępne metryki
46 Metryki Pakiet ROCR Dostępne metryki Dla funkcji performance dostępne są następujące metryki: ( ) TP + TN acc - dokładność, czyli P(Ŷ = Y ), estymowana jako P + N err (- współczynnik ) błędu, czyli P(Ŷ Y ), estymowany jako FP + FN P + N sens - wrażliwość (to samo ( co ) tpr ), czyli P(Ŷ = + Y = +), TP estymowana jako P
47 Metryki Pakiet ROCR Dostępne metryki fpr - współczynnik błędów I rodzaju (to samo ( co ) fall ), czyli FP P(Ŷ = + Y = ), estymowany jako N fnr - współczynnik błędów II rodzaju (to ( samo ) co miss ), czyli FN P(Ŷ = Y = +), estymowany jako P spec - specyficzność (to( samo) co tnr ), czyli P(Ŷ = Y = ), TN estymowana jako N i wiele innych...
48 Pakiet ROCR Dostępne metryki Tom Fawcett, ROC Graphs: Notes and Practical Considerations for Researchers (2004). Corinna Cortes i Mehryar Mohri AUC Optimization vs. Error Rate Minimization. S. D. Walter, The partial area under the summary ROC curve, Statistics in Medicine vol.24 (2004). Tobias Sing i Oliver Sander, ROCR Talk - Tobias Sing. J. A. Hanley i B. J. McNeil, The meaning and use of the area under a receiver operating characteristic (ROC) curve, Radiology, (1982). L. Breiman, J. H. Friedman, R. A. Olshen i C. J. Stone, Classification and Regression Trees, Wadsworth International, Belmont, CA, (1984). D. J. Hand i R. J. Till, A simple generalization of the area under the ROC curve to multiple class classification problems, Machine Learning 45(2), , (2001).
Sztuczna Inteligencja w medycynie projekt (instrukcja) Bożena Kostek
Sztuczna Inteligencja w medycynie projekt (instrukcja) Bożena Kostek Cel projektu Celem projektu jest przygotowanie systemu wnioskowania, wykorzystującego wybrane algorytmy sztucznej inteligencji; Nabycie
Indukowane Reguły Decyzyjne I. Wykład 8
Indukowane Reguły Decyzyjne I Wykład 8 IRD Wykład 8 Plan Powtórka Krzywa ROC = Receiver Operating Characteristic Wybór modelu Statystyka AUC ROC = pole pod krzywą ROC Wybór punktu odcięcia Reguły decyzyjne
Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017
Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład III bogumil.konopka@pwr.edu.pl 2016/2017 Wykład III - plan Regresja logistyczna Ocena skuteczności klasyfikacji Macierze pomyłek Krzywe
Stan dotychczasowy. OCENA KLASYFIKACJI w diagnostyce. Metody 6/10/2013. Weryfikacja. Testowanie skuteczności metody uczenia Weryfikacja prosta
Stan dotychczasowy OCENA KLASYFIKACJI w diagnostyce Wybraliśmy metodę uczenia maszynowego (np. sieć neuronowa lub drzewo decyzyjne), która będzie klasyfikować nieznane przypadki Na podzbiorze dostępnych
9. Praktyczna ocena jakości klasyfikacji
Algorytmy rozpoznawania obrazów 9. Praktyczna ocena jakości klasyfikacji dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Zbiór uczacy i zbiór testowy 1. Zbiór uczacy służy do konstrukcji (treningu)
Data Mining Wykład 4. Plan wykładu
Data Mining Wykład 4 Klasyfikacja danych Klasyfikacja poprzez indukcje drzew decyzyjnych Plan wykładu Sformułowanie problemu Kryteria oceny metod klasyfikacji Metody klasyfikacji Klasyfikacja poprzez indukcje
Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład II 2017/2018
Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład II bogumil.konopka@pwr.edu.pl 2017/2018 Określenie rzeczywistej dokładności modelu Zbiór treningowym vs zbiór testowy Zbiór treningowy
WYKŁAD 7. Testowanie jakości modeli klasyfikacyjnych metodyka i kryteria
Wrocław University of Technology WYKŁAD 7 Testowanie jakości modeli klasyfikacyjnych metodyka i kryteria autor: Maciej Zięba Politechnika Wrocławska Testowanie modeli klasyfikacyjnych Dobór odpowiedniego
10/15/2016. Reguła. Czułość PV(+) Bayesa. Swoistość PV(-)
A=symptom B= choroba Czułość Swoistość A ~ A ~ Reguła Bayesa ~ B ~ A) PV(+) PV(-) 1 / 2016_10_13 PV ( ) A PV ( ) A A ~ ~ sensitivity * PV ( ) sensitivity * (1 specificity)(1- ) specificity *(1- ) specificity
Ocena dokładności diagnozy
Ocena dokładności diagnozy Diagnoza medyczna, w wielu przypadkach może być interpretowana jako działanie polegające na podjęciu jednej z dwóch decyzji odnośnie stanu zdrowotnego pacjenta: 0 pacjent zdrowy
KRZYWE ROC, CZYLI OCENA JAKOŚCI KLASYFIKATORA I POSZUKIWANIE OPTYMALNEGO PUNKTU ODCIĘCIA
KRZYWE ROC, CZYLI OCENA JAKOŚCI KLASYFIKATORA I POSZUKIWANIE OPTYMALNEGO PUNKTU ODCIĘCIA Grzegorz Harańczyk, StatSoft Polska Sp. z o.o. Krzywa ROC (Receiver Operating Characteristic) jest narzędziem do
Elementy modelowania matematycznego
Elementy modelowania matematycznego Modelowanie algorytmów klasyfikujących. Podejście probabilistyczne. Naiwny klasyfikator bayesowski. Modelowanie danych metodą najbliższych sąsiadów. Jakub Wróblewski
ALGORYTM RANDOM FOREST
SKRYPT PRZYGOTOWANY NA ZAJĘCIA INDUKOWANYCH REGUŁ DECYZYJNYCH PROWADZONYCH PRZEZ PANA PAWŁA WOJTKIEWICZA ALGORYTM RANDOM FOREST Katarzyna Graboś 56397 Aleksandra Mańko 56699 2015-01-26, Warszawa ALGORYTM
Systemy uczące się wykład 2
Systemy uczące się wykład 2 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 19 X 2018 Podstawowe definicje Fakt; Przesłanka; Konkluzja; Reguła; Wnioskowanie. Typy wnioskowania
Laboratorium 4. Naiwny klasyfikator Bayesa.
Laboratorium 4 Naiwny klasyfikator Bayesa. 1. Uruchom narzędzie Oracle Data Miner i połącz się z serwerem bazy danych. 2. Z menu głównego wybierz Activity Build. Na ekranie powitalnym kliknij przycisk
Wstęp do sieci neuronowych, wykład 09, Walidacja jakości uczenia. Metody statystyczne.
Wstęp do sieci neuronowych, wykład 09, Walidacja jakości uczenia. Metody statystyczne. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-12-06 1 Przykład
Agnieszka Nowak Brzezińska Wykład III
Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe
Wstęp do sieci neuronowych, wykład 13-14, Walidacja jakości uczenia. Metody statystyczne.
Wstęp do sieci neuronowych, wykład 13-14,. Metody statystyczne. M. Czoków, J. Piersa Faculty of Mathematics and Computer Science, Nicolaus Copernicus University, Toruń, Poland 2011.01.11 1 Przykład Przeuczenie
Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV
Klasyfikatory: k-nn oraz naiwny Bayesa Agnieszka Nowak Brzezińska Wykład IV Naiwny klasyfikator Bayesa Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną
Agnieszka Nowak Brzezińska
Agnieszka Nowak Brzezińska jeden z algorytmów regresji nieparametrycznej używanych w statystyce do prognozowania wartości pewnej zmiennej losowej. Może również byd używany do klasyfikacji. - Założenia
FUNKCJA LINIOWA - WYKRES. y = ax + b. a i b to współczynniki funkcji, które mają wartości liczbowe
FUNKCJA LINIOWA - WYKRES Wzór funkcji liniowej (postać kierunkowa) Funkcja liniowa to funkcja o wzorze: y = ax + b a i b to współczynniki funkcji, które mają wartości liczbowe Szczególnie ważny w postaci
Przykład eksploracji danych o naturze statystycznej Próba 1 wartości zmiennej losowej odległość
Dwie metody Klasyczna metoda histogramu jako narzędzie do postawienia hipotezy, jaki rozkład prawdopodobieństwa pasuje do danych Indukcja drzewa decyzyjnego jako metoda wykrycia klasyfikatora ukrytego
Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18
Eksploracja Danych wykład 4 Sebastian Zając WMP.SNŚ UKSW 10 maja 2017 Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja 2017 1 / 18 Klasyfikacja danych Klasyfikacja Najczęściej stosowana (najstarsza)
Wprowadzenie do uczenia maszynowego
Wprowadzenie do uczenia maszynowego Agnieszka Ławrynowicz 12 stycznia 2017 Co to jest uczenie maszynowe? dziedzina nauki, która zajmuje się sprawianiem aby komputery mogły uczyć się bez ich zaprogramowania
Baza dla predykcji medycznej
1 rof. Danuta Makowiec Instytut Fizyki Teoretycznej i Astrofizyki UG Kontakt: pok. 353 tel.: 58 523 2466 e-mail danuta.makowiec at gmail.com http://www.fizdm.strony.ug.edu.pl/me/biostatystyka.html Reguła
Agnieszka Nowak Brzezińska Wykład III
Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe
Stanisław Cichocki. Natalia Nehrebecka
Stanisław Cichocki Natalia Nehrebecka 1 1. Wstęp a) Binarne zmienne zależne b) Interpretacja ekonomiczna c) Interpretacja współczynników 2. Liniowy model prawdopodobieństwa a) Interpretacja współczynników
Algorytm do rozpoznawania człowieka na podstawie dynamiki użycia klawiatury. Paweł Kobojek, prof. dr hab. inż. Khalid Saeed
Algorytm do rozpoznawania człowieka na podstawie dynamiki użycia klawiatury Paweł Kobojek, prof. dr hab. inż. Khalid Saeed Zakres pracy Przegląd stanu wiedzy w dziedzinie biometrii, ze szczególnym naciskiem
FUNKCJA LINIOWA - WYKRES
FUNKCJA LINIOWA - WYKRES Wzór funkcji liniowej (Postać kierunkowa) Funkcja liniowa jest podstawowym typem funkcji. Jest to funkcja o wzorze: y = ax + b a i b to współczynniki funkcji, które mają wartości
Klasyfikator. ˆp(k x) = 1 K. I(ρ(x,x i ) ρ(x,x (K) ))I(y i =k),k =1,...,L,
Klasyfikator Jedną z najistotniejszych nieparametrycznych metod klasyfikacji jest metoda K-najbliższych sąsiadów, oznaczana przez K-NN. W metodzie tej zaliczamy rozpoznawany obiekt do tej klasy, do której
Klasyfikator liniowy Wstęp Klasyfikator liniowy jest najprostszym możliwym klasyfikatorem. Zakłada on liniową separację liniowy podział dwóch klas między sobą. Przedstawia to poniższy rysunek: 5 4 3 2
Weryfikacja hipotez statystycznych
Weryfikacja hipotez statystycznych Hipoteza Test statystyczny Poziom istotności Testy jednostronne i dwustronne Testowanie równości wariancji test F-Fishera Testowanie równości wartości średnich test t-studenta
Stanisław Cichocki. Natalia Nehrebecka
Stanisław Cichocki Natalia Nehrebecka 1 1. Wstęp a) Binarne zmienne zależne b) Interpretacja ekonomiczna c) Interpretacja współczynników 2. Liniowy model prawdopodobieństwa a) Interpretacja współczynników
INFORMATYKA W SELEKCJI
INFORMATYKA W SELEKCJI INFORMATYKA W SELEKCJI - zagadnienia 1. Dane w pracy hodowlanej praca z dużym zbiorem danych (Excel) 2. Podstawy pracy z relacyjną bazą danych w programie MS Access 3. Systemy statystyczne
Jakość procedury klasyfikacyjnej:
Jakość procedury klasyfikacyjnej: poglądowa interpretacja i szacowanie możliwości poprawy na podstawie charakterystyki ROC Maciej Górkiewicz mygorkie@cyf-kr.edu.pl Uniwersytet Jagielloński w Krakowie Collegium
STATYSTYKA MATEMATYCZNA WYKŁAD 4. WERYFIKACJA HIPOTEZ PARAMETRYCZNYCH X - cecha populacji, θ parametr rozkładu cechy X.
STATYSTYKA MATEMATYCZNA WYKŁAD 4 WERYFIKACJA HIPOTEZ PARAMETRYCZNYCH X - cecha populacji, θ parametr rozkładu cechy X. Wysuwamy hipotezy: zerową (podstawową H ( θ = θ i alternatywną H, która ma jedną z
Odczarowujemy modele predykcyjne Teoria i Praktyka
Odczarowujemy modele predykcyjne Teoria i Praktyka Mariusz Gromada, MathSpace.PL mariuszgromada.org@gmail.com 1 Kilka słów o mnie 1999 2004 Politechnika Warszawska Wydział Matematyki i Nauk Informacyjnych
Jakość uczenia i generalizacja
Jakość uczenia i generalizacja Dokładność uczenia Jest koncepcją miary w jakim stopniu nasza sieć nauczyła się rozwiązywać określone zadanie Dokładność mówi na ile nauczyliśmy się rozwiązywać zadania które
Spacery losowe generowanie realizacji procesu losowego
Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z
Wykład 13. Zmienne losowe typu ciągłego
Wykład 13. Zmienne losowe typu ciągłego dr Mariusz Grządziel styczeń 014 Pole trapezu krzywoliniowego Przypomnienie: figurę ograniczoną przez: wykres funkcji y = f(x, gdzie f jest funkcją ciągłą; proste
Wykład 10 (12.05.08). Testowanie hipotez w rodzinie rozkładów normalnych przypadek nieznanego odchylenia standardowego
Wykład 10 (12.05.08). Testowanie hipotez w rodzinie rozkładów normalnych przypadek nieznanego odchylenia standardowego Przykład Cena metra kwadratowego (w tys. zł) z dla 14 losowo wybranych mieszkań w
3a. Wstęp: Elementarne równania i nierówności
3a. Wstęp: Elementarne równania i nierówności Grzegorz Kosiorowski Uniwersytet Ekonomiczny w Krakowie zima 2017/2018 Grzegorz Kosiorowski (Uniwersytet Ekonomiczny 3a. Wstęp: w Krakowie) Elementarne równania
Prawdopodobieństwo i statystyka
Wykład XIV: Metody Monte Carlo 19 stycznia 2016 Przybliżone obliczanie całki oznaczonej Rozważmy całkowalną funkcję f : [0, 1] R. Chcemy znaleźć przybliżoną wartość liczbową całki 1 f (x) dx. 0 Jeden ze
Funkcje liniowe i wieloliniowe w praktyce szkolnej. Opracowanie : mgr inż. Renata Rzepińska
Funkcje liniowe i wieloliniowe w praktyce szkolnej Opracowanie : mgr inż. Renata Rzepińska . Wprowadzenie pojęcia funkcji liniowej w nauczaniu matematyki w gimnazjum. W programie nauczania matematyki w
Quick Launch Manual:
egresja Odds atio Quick Launch Manual: regresja logistyczna i odds ratio Uniwesytet Warszawski, Matematyka 28.10.2009 Plan prezentacji egresja Odds atio 1 2 egresja egresja logistyczna 3 Odds atio 4 5
Drzewa decyzyjne. Inteligentne Obliczenia. Wydział Mechatroniki Politechniki Warszawskiej. Anna Sztyber
Drzewa decyzyjne Inteligentne Obliczenia Wydział Mechatroniki Politechniki Warszawskiej Anna Sztyber INO (IAiR PW) Drzewa decyzyjne Anna Sztyber / Drzewa decyzyjne w podstawowej wersji algorytm klasyfikacji
Estymacja przedziałowa - przedziały ufności dla średnich. Wrocław, 5 grudnia 2014
Estymacja przedziałowa - przedziały ufności dla średnich Wrocław, 5 grudnia 2014 Przedział ufności Niech będzie dana próba X 1, X 2,..., X n z rozkładu P θ, θ Θ. Definicja Przedziałem ufności dla paramertu
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny
Naiwny klasyfikator Bayesa brał pod uwagę jedynie najbliższe otoczenie. Lecz czym jest otoczenie? Jak je zdefiniować?
Algorytm k-nn Naiwny klasyfikator Bayesa brał pod uwagę jedynie najbliższe otoczenie. Lecz czym jest otoczenie? Jak je zdefiniować? Jak daleko są położone obiekty od siebie? knn k nearest neighbours jest
Laboratorium 6. Indukcja drzew decyzyjnych.
Laboratorium 6 Indukcja drzew decyzyjnych. 1. Uruchom narzędzie Oracle Data Miner i połącz się z serwerem bazy danych. 2. Z menu głównego wybierz Activity Build. Na ekranie powitalnym kliknij przycisk
Wprowadzenie do uczenia maszynowego
Wprowadzenie do uczenia maszynowego Agnieszka Ławrynowicz 16 listopada 2017 Co to jest uczenie maszynowe? dziedzina nauki, która zajmuje się sprawianiem aby komputery mogły uczyć się bez ich zaprogramowania
Testowanie hipotez statystycznych
9 października 2008 ...czyli definicje na rozgrzewkę n-elementowa próba losowa - wektor n zmiennych losowych (X 1,..., X n ); intuicyjnie: wynik n eksperymentów realizacja próby (X 1,..., X n ) w ω Ω :
Pochodna i różniczka funkcji oraz jej zastosowanie do obliczania niepewności pomiarowych
Pochodna i różniczka unkcji oraz jej zastosowanie do obliczania niepewności pomiarowych Krzyszto Rębilas DEFINICJA POCHODNEJ Pochodna unkcji () w punkcie określona jest jako granica: lim 0 Oznaczamy ją
Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych. Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS
Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS Dyskretyzacja - definicja Dyskretyzacja - zamiana atrybutów
Drzewa decyzyjne i lasy losowe
Drzewa decyzyjne i lasy losowe Im dalej w las tym więcej drzew! ML Gdańsk http://www.mlgdansk.pl/ Marcin Zadroga https://www.linkedin.com/in/mzadroga/ 20 Czerwca 2017 WPROWADZENIE DO MACHINE LEARNING CZYM
Inteligentna analiza danych
Numer indeksu 150946 Michał Moroz Imię i nazwisko Numer indeksu 150875 Grzegorz Graczyk Imię i nazwisko kierunek: Informatyka rok akademicki: 2010/2011 Inteligentna analiza danych Ćwiczenie I Wskaźniki
Funkcja liniowa - podsumowanie
Funkcja liniowa - podsumowanie 1. Funkcja - wprowadzenie Założenie wyjściowe: Rozpatrywana będzie funkcja opisana w dwuwymiarowym układzie współrzędnych X. Oś X nazywana jest osią odciętych (oś zmiennych
6. Zmienne losowe typu ciagłego ( ) Pole trapezu krzywoliniowego
6. Zmienne losowe typu ciagłego (2.04.2007) Pole trapezu krzywoliniowego Przypomnienie: figurę ograniczoną przez: wykres funkcji y = f(x), gdzie f jest funkcją ciągłą; proste x = a, x = b, a < b, oś OX
Klasyfikacja w oparciu o metrykę budowaną poprzez dystrybuanty empiryczne na przestrzeni wzorców uczących
Klasyfikacja w oparciu o metrykę budowaną poprzez dystrybuanty empiryczne na przestrzeni wzorców uczących Cezary Dendek Wydział Matematyki i Nauk Informacyjnych PW Plan prezentacji Plan prezentacji Wprowadzenie
Wykład 10 Estymacja przedziałowa - przedziały ufności dla średn
Wykład 10 Estymacja przedziałowa - przedziały ufności dla średniej Wrocław, 21 grudnia 2016r Przedział ufności Niech będzie dana próba X 1, X 2,..., X n z rozkładu P θ, θ Θ. Definicja 10.1 Przedziałem
Programowanie celowe #1
Programowanie celowe #1 Problem programowania celowego (PC) jest przykładem problemu programowania matematycznego nieliniowego, który można skutecznie zlinearyzować, tzn. zapisać (i rozwiązać) jako problem
Metody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 2 κ-nn i Naive Bayes autorzy: M. Zięba, J.M. Tomczak, A. Gonczarek, S. Zaręba Cel zadania Celem zadania jest implementacja klasyfikatorów
KORELACJE I REGRESJA LINIOWA
KORELACJE I REGRESJA LINIOWA Korelacje i regresja liniowa Analiza korelacji: Badanie, czy pomiędzy dwoma zmiennymi istnieje zależność Obie analizy się wzajemnie przeplatają Analiza regresji: Opisanie modelem
Statystyka matematyczna Testowanie hipotez i estymacja parametrów. Wrocław, r
Statystyka matematyczna Testowanie hipotez i estymacja parametrów Wrocław, 18.03.2016r Plan wykładu: 1. Testowanie hipotez 2. Etapy testowania hipotez 3. Błędy 4. Testowanie wielokrotne 5. Estymacja parametrów
FUNKCJA LINIOWA, RÓWNANIA I UKŁADY RÓWNAŃ LINIOWYCH
FUNKCJA LINIOWA, RÓWNANIA I UKŁADY RÓWNAŃ LINIOWYCH PROPORCJONALNOŚĆ PROSTA Proporcjonalnością prostą nazywamy zależność między dwoma wielkościami zmiennymi x i y, określoną wzorem: y = a x Gdzie a jest
A Zadanie
where a, b, and c are binary (boolean) attributes. A Zadanie 1 2 3 4 5 6 7 8 9 10 Punkty a (maks) (2) (2) (2) (2) (4) F(6) (8) T (8) (12) (12) (40) Nazwisko i Imiȩ: c Uwaga: ta część zostanie wypełniona
Sztuczna inteligencja : Algorytm KNN
Instytut Informatyki Uniwersytetu Śląskiego 23 kwietnia 2012 1 Algorytm 1 NN 2 Algorytm knn 3 Zadania Klasyfikacja obiektów w oparciu o najbliższe obiekty: Algorytm 1-NN - najbliższego sąsiada. Parametr
Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe.
Rachunek prawdopodobieństwa MAP3040 WPPT FT, rok akad. 2010/11, sem. zimowy Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Warunkowa wartość oczekiwana.
Lista 6. Kamil Matuszewski 13 kwietnia D n =
Lista 6 Kamil Matuszewski 3 kwietnia 6 3 4 5 6 7 8 9 Zadanie Mamy Pokaż, że det(d n ) = n.... D n =.... Dowód. Okej. Dla n =, n = trywialne. Załóżmy, że dla n jest ok, sprawdzę dla n. Aby to zrobić skorzystam
Biostatystyka, # 3 /Weterynaria I/
Biostatystyka, # 3 /Weterynaria I/ dr n. mat. Zdzisław Otachel Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Głęboka 28, p. 221 bud. CIW, e-mail: zdzislaw.otachel@up.lublin.pl
Metody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 2 Detekcja twarzy autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się algorytmem gradientu prostego
Temat: Zmienna losowa. Rozkład skokowy. Rozkład ciągły. Kody kolorów: Ŝółty nowe pojęcie pomarańczowy uwaga. Anna Rajfura, Matematyka
Temat: Zmienna losowa. Rozkład skokowy. Rozkład ciągły Kody kolorów: Ŝółty nowe pojęcie pomarańczowy uwaga 1 Zagadnienia 1. Przypomnienie wybranych pojęć rachunku prawdopodobieństwa. Zmienna losowa. Rozkład
Pochodna i różniczka funkcji oraz jej zastosowanie do rachunku błędów pomiarowych
Pochodna i różniczka unkcji oraz jej zastosowanie do rachunku błędów pomiarowych Krzyszto Rębilas DEFINICJA POCHODNEJ Pochodna unkcji () w punkcie określona jest jako granica: lim 0 Oznaczamy ją symbolami:
Popularne klasyfikatory w pakietach komputerowych
Popularne klasyfikatory w pakietach komputerowych Klasyfikator liniowy Uogólniony klasyfikator liniowy SVM aiwny klasyfikator bayesowski Ocena klasyfikatora ROC Lista popularnych pakietów Klasyfikator
ZeroR. Odpowiada zawsze tak samo Decyzja to klasa większościowa ze zbioru uczącego A B X 1 5 T 1 7 T 1 5 T 1 5 F 2 7 F
ZeroR Odpowiada zawsze tak samo Decyzja to klasa większościowa ze zbioru uczącego A B X 5 T 7 T 5 T 5 F 2 7 F Tutaj jest więcej obiektów klasy T, więc klasyfikator ZeroR będzie zawsze odpowiadał T niezależnie
Z Wikipedii, wolnej encyklopedii.
Rozkład normalny Rozkład normalny jest niezwykle ważnym rozkładem prawdopodobieństwa w wielu dziedzinach. Nazywa się go także rozkładem Gaussa, w szczególności w fizyce i inżynierii. W zasadzie jest to
Statystyka. Rozkład prawdopodobieństwa Testowanie hipotez. Wykład III ( )
Statystyka Rozkład prawdopodobieństwa Testowanie hipotez Wykład III (04.01.2016) Rozkład t-studenta Rozkład T jest rozkładem pomocniczym we wnioskowaniu statystycznym; stosuje się go wyznaczenia przedziału
Korzystanie z podstawowych rozkładów prawdopodobieństwa (tablice i arkusze kalkulacyjne)
Korzystanie z podstawowych rozkładów prawdopodobieństwa (tablice i arkusze kalkulacyjne) Przygotował: Dr inż. Wojciech Artichowicz Katedra Hydrotechniki PG Zima 2014/15 1 TABLICE ROZKŁADÓW... 3 ROZKŁAD
Ważne rozkłady i twierdzenia
Ważne rozkłady i twierdzenia Rozkład dwumianowy i wielomianowy Częstość. Prawo wielkich liczb Rozkład hipergeometryczny Rozkład Poissona Rozkład normalny i rozkład Gaussa Centralne twierdzenie graniczne
Rozpoznawanie obrazów
Rozpoznawanie obrazów Laboratorium Python Zadanie nr 2 κ-nn i Naive Bayes autorzy: M. Zięba, J.M. Tomczak, A. Gonczarek, S. Zaręba, J. Kaczmar Cel zadania Celem zadania jest implementacja klasyfikatorów
ESTYMACJA BŁĘDU PREDYKCJI I JEJ ZASTOSOWANIA
ESTYMACJA BŁĘDU PREDYKCJI I JEJ ZASTOSOWANIA Jan Mielniczuk Wisła, grudzień 2009 PLAN Błędy predykcji i ich podstawowe estymatory Estymacja błędu predykcji w modelu liniowym. Funkcje kryterialne Własności
Uwaga: szarych kropek po pokolorowaniu nie uwzględniaj w klasyfikowaniu kolejnych szarych.
Inteligencja obliczeniowa stud. niestac. Laboratorium 4: Zadanie klasyfikacji poznanie trzech algorytmów klasyfikujących: knn, NaiveBayes, drzewo decyzyjne. Przy pomnijmy sobie bazę danych z irysami. Na
Metody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium JAVA Zadanie nr 2 Rozpoznawanie liter autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z problemem klasyfikacji
Metody klasyfikacji danych - część 1 p.1/24
Metody klasyfikacji danych - część 1 Inteligentne Usługi Informacyjne Jerzy Dembski Metody klasyfikacji danych - część 1 p.1/24 Plan wykładu - Zadanie klasyfikacji danych - Przeglad problemów klasyfikacji
4,5. Dyskretne zmienne losowe (17.03; 31.03)
4,5. Dyskretne zmienne losowe (17.03; 31.03) Definicja 1 Zmienna losowa nazywamy dyskretna (skokowa), jeśli zbiór jej wartości x 1, x 2,..., można ustawić w ciag. Zmienna losowa X, która przyjmuje wszystkie
Hierarchiczna analiza skupień
Hierarchiczna analiza skupień Cel analizy Analiza skupień ma na celu wykrycie w zbiorze obserwacji klastrów, czyli rozłącznych podzbiorów obserwacji, wewnątrz których obserwacje są sobie w jakimś określonym
Rozwiązywanie układów równań liniowych
Rozwiązywanie układów równań liniowych Marcin Orchel 1 Wstęp Jeśli znamy macierz odwrotną A 1, to możęmy znaleźć rozwiązanie układu Ax = b w wyniku mnożenia x = A 1 b (1) 1.1 Metoda eliminacji Gaussa Pierwszy
Funkcje wymierne. Funkcja homograficzna. Równania i nierówności wymierne.
Funkcje wymierne. Funkcja homograficzna. Równania i nierówności wymierne. Funkcja homograficzna. Definicja. Funkcja homograficzna jest to funkcja określona wzorem f() = a + b c + d, () gdzie współczynniki
Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa
Spis treści Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa Romuald Kotowski Katedra Informatyki Stosowanej PJWSTK 2009 Spis treści Spis treści 1 Wstęp Bardzo często interesujący
Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1
Weryfikacja hipotez statystycznych KG (CC) Statystyka 26 V 2009 1 / 1 Sformułowanie problemu Weryfikacja hipotez statystycznych jest drugą (po estymacji) metodą uogólniania wyników uzyskanych w próbie
Dyskretne zmienne losowe
Dyskretne zmienne losowe dr Mariusz Grządziel 16 marca 2009 Definicja 1. Zmienna losowa nazywamy dyskretna (skokowa), jeśli zbiór jej wartości x 1, x 2,..., można ustawić w ciag. Zmienna losowa X, która
Prawdopodobieństwo czerwonych = = 0.33
Temat zajęć: Naiwny klasyfikator Bayesa a algorytm KNN Część I: Naiwny klasyfikator Bayesa Naiwny klasyfikator bayerowski jest prostym probabilistycznym klasyfikatorem. Naiwne klasyfikatory bayesowskie
Funkcja kwadratowa. f(x) = ax 2 + bx + c,
Funkcja kwadratowa. Funkcją kwadratową nazywamy funkcję f : R R określoną wzorem gdzie a, b, c R, a 0. f(x) = ax 2 + bx + c, Szczególnym przypadkiem funkcji kwadratowej jest funkcja f(x) = ax 2, a R \
Klasyfikacja LDA + walidacja
Klasyfikacja LDA + walidacja Dr hab. Izabela Rejer Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Plan wykładu 1. Klasyfikator 2. LDA 3. Klasyfikacja wieloklasowa 4. Walidacja
Instytut Politechniczny Państwowa Wyższa Szkoła Zawodowa. Diagnostyka i niezawodność robotów
Instytut Politechniczny Państwowa Wyższa Szkoła Zawodowa Diagnostyka i niezawodność robotów Laboratorium nr 3 Generacja realizacji zmiennych losowych Prowadzący: mgr inż. Marcel Luzar Cele ćwiczenia: Generowanie
Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.
Rachunek prawdopodobieństwa MAT1332 Wydział Matematyki, Matematyka Stosowana Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów. Warunkowa
Barycentryczny układ współrzędnych
SkaiWD Laboratorium 2 Barycentryczny układ współrzędnych Iwo Błądek 21 marca 2019 1 Barycentryczny układ współrzędnych Podstawowa wiedza została przekazana na wykładzie. W tej sekcji znajdują się proste
Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji
Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Inteligencji i Metod Matematycznych Wydział Informatyki Politechniki
Rozpoznawanie obrazów
Rozpoznawanie obrazów Ćwiczenia lista zadań nr 7 autorzy: A. Gonczarek, J.M. Tomczak Przykładowe problemy Klasyfikacja binarna Dla obrazu x zaproponowano dwie cechy φ(x) = (φ 1 (x) φ 2 (x)) T. Na obrazie
18. Obliczyć. 9. Obliczyć iloczyn macierzy i. 10. Transponować macierz. 11. Transponować macierz. A następnie podać wymiar powstałej macierzy.
1 Czy iloczyn macierzy, które nie są kwadratowe może być macierzą kwadratową? Podaj przykład 2 Czy każde dwie macierze jednostkowe są równe? Podaj przykład 3 Czy mnożenie macierzy przez macierz jednostkową