5. Zagadnienia klasyfikacji

Podobne dokumenty
Sieci neuronowe: perspektywa systemowa

6. Perceptron Rosenblatta

Analiza danych. TEMATYKA PRZEDMIOTU

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Rozpoznawanie obrazów

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce

Klasyfikacja obiektów Drzewa decyzyjne (drzewa klasyfikacyjne)

Metody systemowe i decyzyjne w informatyce

PODSTAWY STATYSTYCZNEGO MODELOWANIA DANYCH. Wykład 6 Drzewa klasyfikacyjne - wprowadzenie. Reguły podziału i reguły przycinania drzew.

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Rozpoznawanie obrazów

5. Analiza dyskryminacyjna: FLD, LDA, QDA

wiedzy Sieci neuronowe

Drzewa klasyfikacyjne Lasy losowe. Wprowadzenie

Entropia Renyi ego, estymacja gęstości i klasyfikacja

Teoria obliczeń i złożoność obliczeniowa

Rozpoznawanie obrazów

SVM: Maszyny Wektorów Podpieraja cych

Algorytmy metaheurystyczne Wykład 11. Piotr Syga

Agnieszka Nowak Brzezińska Wykład III

Systemy uczące się wykład 2

SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska

Klasyfikacja LDA + walidacja

Agnieszka Nowak Brzezińska

Ekonometria. Modelowanie zmiennej jakościowej. Jakub Mućk. Katedra Ekonomii Ilościowej

Zastosowania sieci neuronowych

1 Relacje i odwzorowania

Porównanie modeli regresji. klasycznymi modelami regresji liniowej i logistycznej

Jądrowe klasyfikatory liniowe

Metody Sztucznej Inteligencji II

Regresyjne metody łączenia klasyfikatorów

Metody teorii gier. ALP520 - Wykład z Algorytmów Probabilistycznych p.2

1. Logika, funkcje logiczne, preceptron.

Agnieszka Nowak Brzezińska Wykład III

Stanisław Cichocki. Natalia Nehrebecka

Algorytmy, które estymują wprost rozkłady czy też mapowania z nazywamy algorytmami dyskryminacyjnymi.

KLASYFIKACJA. Słownik języka polskiego

1 Klasyfikator bayesowski

Data Mining Wykład 6. Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa.

Korelacja krzywoliniowa i współzależność cech niemierzalnych

Zakłócenia w układach elektroenergetycznych LABORATORIUM 3

Prawdopodobieństwo i statystyka

UCZENIE MASZYNOWE III - SVM. mgr inż. Adam Kupryjanow

10. Metody obliczeniowe najmniejszych kwadratów

Procesy stochastyczne

Rozpoznawanie obrazów

Metody systemowe i decyzyjne w informatyce

Statystyka opisowa. Wykład V. Regresja liniowa wieloraka


Metody systemowe i decyzyjne w informatyce

Wprowadzenie do architektury komputerów systemy liczbowe, operacje arytmetyczne i logiczne

Testowanie hipotez. Hipoteza prosta zawiera jeden element, np. H 0 : θ = 2, hipoteza złożona zawiera więcej niż jeden element, np. H 0 : θ > 4.

4.1. Wprowadzenie Podstawowe definicje Algorytm określania wartości parametrów w regresji logistycznej...74

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Sieć przesyłająca żetony CP (counter propagation)

PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA. Piotr Wiącek

Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova

Definicja problemu programowania matematycznego

Rachunek prawdopodobieństwa i statystyka - W 9 Testy statystyczne testy zgodności. Dr Anna ADRIAN Paw B5, pok407

Stanisław Cichocki. Natalia Nehrebecka

Wprowadzenie. Data Science Uczenie się pod nadzorem

Wzmacniacze. Klasyfikacja wzmacniaczy Wtórniki Wzmacniacz różnicowy Wzmacniacz operacyjny

Metody systemowe i decyzyjne w informatyce

Stanisław Cichocki. Natalia Neherebecka. Zajęcia 15-17

1 Zbiory i działania na zbiorach.

Zmienne losowe i ich rozkłady

Popularne klasyfikatory w pakietach komputerowych

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

REGRESJA LINIOWA Z UOGÓLNIONĄ MACIERZĄ KOWARIANCJI SKŁADNIKA LOSOWEGO. Aleksander Nosarzewski Ekonometria bayesowska, prowadzący: dr Andrzej Torój

O pewnym twierdzeniu S. Łojasiewicza, J. Wloki, Z. Zieleżnego

Podstawowe modele probabilistyczne

Podstawy sztucznej inteligencji

Optymalizacja systemów

Liga zadaniowa Seria I, 2014/2015, Piotr Nayar, Marta Strzelecka

Jacek Skorupski pok. 251 tel konsultacje: poniedziałek , sobota zjazdowa

Testowanie hipotez statystycznych.

t i L i T i

Wykład 3 Jednowymiarowe zmienne losowe

Kodowanie i entropia

2. Empiryczna wersja klasyfikatora bayesowskiego

OPTYMALIZACJA DYSKRETNA

Standardowe zadanie programowania liniowego. Gliwice 1

Inteligentne systemy przeciw atakom sieciowym

Metoda największej wiarygodności

Spis treści Wstęp Estymacja Testowanie. Efekty losowe. Bogumiła Koprowska, Elżbieta Kukla

Zarządzanie populacjami zwierząt. Parametry genetyczne cech

Wykład 6. Programowanie liniowe

JEDNORÓWNANIOWY LINIOWY MODEL EKONOMETRYCZNY

Wektor, prosta, płaszczyzna; liniowa niezależność, rząd macierzy

Pattern Classification

Budowa modeli klasyfikacyjnych w oparciu o funkcję odległości w przestrzeni zdarzeń i uogólnienie pojęć probabilistycznych na przestrzenie metryczne

x x 0.5. x Przykłady do zadania 4.1 :

WYKŁAD 3. Klasyfikacja: modele probabilistyczne

Fuzja sygnałów i filtry bayesowskie

Statystyka matematyczna. Wykład VI. Zesty zgodności

SPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization

Metoda elementów brzegowych

Metody systemowe i decyzyjne w informatyce

Transkrypt:

5. Zagadnienia klasyfikacji 5-1 Obiekty i obrazy 5-2 Cechy 5-3 Klasyfikacja obrazów 5-4 Funkcje decyzyjne 5-5 *Klasyfikacja obiektów a klasyfikacja obrazów 5-6 *Problem niejednoznaczności obserwacji 5-7 *Niejednoznaczne dziedziczenie klas 5-8 *Dziedziczenie probabilistyczne 5-9 Klasyfikacja binarna a funkcje logiczne 5-10 Klasyfikacja liniowa 5-11 Najprostsze klasyfikacje nieliniowe 5-12 LiczbaklasyfikacjiliniowychNobrazówwR n 5-13 Liczba klasyfikacji liniowych- przykład 19 maja 2004 5. Zagadnienia klasyfikacji 5-0

5-14 Liczba binarnych klasyfikacji liniowych 5-15 Klasyfikatory liniowe 5-16 Liniowe klasyfikatory binarne 5-17 *Kontekst probabilistyczny 5-18 Budowa klasyfikatorów dostępna informacja 19 maja 2004 5. Zagadnienia klasyfikacji 5-0

Obiekty i obrazy zbiórobiektów S funkcjaobserwacji ϕ:s U zbiórobrazówu zwykleu R n n liczba czujników, liczba punktów obrazu obrazu=[u 1 u n ] T U obraz binarny, obraz czarno-biały u i {L,H}; (zwykle{0,1}) 19 maja 2004 5. Zagadnienia klasyfikacji 5-1

Cechy zbiórwektorówcech U R n funkcjacech ϕ :U U zmodyfikowanafunkcjaobserwacji ϕ ϕ:s U 19 maja 2004 5. Zagadnienia klasyfikacji 5-2

Klasyfikacja obrazów funkcja klasyfikująca l(u)=k u U k funkcje przynależności doklasyu k,k=1,...,c χ k (u)=1 u U k χ k (u)=0 u/ U k zbiór decyzyjny D= k U k 19 maja 2004 5. Zagadnienia klasyfikacji 5-3

funkcja klasyfikująca l Funkcje decyzyjne funkcje decyzyjne l(u)=k d k (u)>d j (u)dlaj k funkcjeprzynależnościχ k sąfunkcjamidecyzyjnymi 19 maja 2004 5. Zagadnienia klasyfikacji 5-4

*Klasyfikacja obiektów a klasyfikacja obrazów klasyobiektóws i dziedziczoneklasyobrazówu i =ϕ(s i ) dziedziczeniejednoznaczne U i U j = fori j klasyfikacjaobrazówaklasyfikacjaobiektów: u U k s S k 19 maja 2004 5. Zagadnienia klasyfikacji 5-5

*Problem niejednoznaczności obserwacji obrazu funkcja obserwacji może nie być odwracalna: niejednoznaczności obserwacji przeciwobrazϕ 1 (u)obrazuu:zbiórobiektówmającychtensamobrazu s ϕ 1 (u) ϕ(s)=u klasy dziedziczone rozłączne: obiekty mające ten sam obraz należą do tej samej klasy klasy dziedziczone mogą nie być rozłączne 19 maja 2004 5. Zagadnienia klasyfikacji 5-6

*Niejednoznaczne dziedziczenie klas niejednoznaczność,jeżeliu i U j χ przyjmuje wartości z(niezerowych) wierzchołków kostki jednostkowej 19 maja 2004 5. Zagadnienia klasyfikacji 5-7

*Dziedziczenie probabilistyczne rozkład obiektów P funkcjaprzynależnościwu: χ k (u)=p{s S k } χ przyjmuje wartości z kostki jednostkowej 19 maja 2004 5. Zagadnienia klasyfikacji 5-8

Klasyfikacja binarna a funkcje logiczne N=4 (4obrazy) U R 2 (obrazyzłożonez2punktów) c=2 (klasyfikacjebinarne) + + + + + + + + u 1 ANDu 2 u 1 ORu 2 NOTu 1 u 1 XORu 2 19 maja 2004 5. Zagadnienia klasyfikacji 5-9

Klasyfikacja liniowa hiperpłaszczyznah(w,b)={u R n :w T u+b=0} w wektor normalny, b przesunięcie podprzestrzeńdodatniau + (w,b)={u R n :w T u+b>0}względem hiperpłaszczyzny H(w, b) podprzestrzeńujemnau (w,b) klasyfikacja liniowa: dowolne dwie klasy można rozdzielić hiperpłaszczyzną 19 maja 2004 5. Zagadnienia klasyfikacji 5-10

Najprostsze klasyfikacje nieliniowe 3obrazywR,2klasy + + + 4obrazybinarnewR 2,2klasy + + + + 19 maja 2004 5. Zagadnienia klasyfikacji 5-11

LiczbaklasyfikacjiliniowychNobrazówwR n liczba klasyfikacji liniowych L(N, n)(< dla szczególnych usytuowań obrazów) 2 N forn n+1 ( małoobrazów ) L(N,n)= 2 n ) forn n+1 i=0 ( N 1 i liczba klasyfikacji liniowych/ liczba klasyfikacji binarnych r(n,n)= L(N,n) 1 dla N = B(N) 2 1 N n ) i=0 ( N 1 i n+1 1 dla N n+1 1 r(n,n) 1 0.9 0.8 n=1 4 16 64 256 0.7 0.6 0.5 0.4 n=1,4,16,64,256 0.3 0.2 0.1 polowa klasyfikacji liniowa 0 0 1 2 3 4 N / (n+1) dlaconajwyżejn 0 =n+1obrazówwr n wszystkieklasyfikacjemogąbyćliniowe dlan v =2(n+1)obrazówwR n conajwyżejpołowaklasyfikacjijestliniowa N v :pojemnośćklasyfikacjiliniowychwr n 19 maja 2004 5. Zagadnienia klasyfikacji 5-12

Liczba klasyfikacji liniowych- przykład N = N = N = N = N = N = N = wszystkie li- pojemność 2 3 4 5 6 7 8 niowe B(N) 4 8 16 32 64 128 256 R 1 *4 6 8 10 12 14 16 2 4 R 2 4 *8 14 22 32 44 58 3 6 R 3 4 8 *16 30 52 84 128 4 8 R 4 4 8 16 *32 62 114 198 5 10 R 5 4 8 16 32 *64 126 240 6 12 lewa+górnalewa L(N,n)=L(N 1,n)+L(N 1,n 1) 19 maja 2004 5. Zagadnienia klasyfikacji 5-13

Liczba binarnych klasyfikacji liniowych liczba max. liczba liczba liczba ułamek punktów obrazów klasyfikacji klasyfikacji klasyfikacji obrazu binarnych binarnych liniowych liniowych n N=2 n B(N)=2 N L(N,n) r=l/b 2 4 16 14 0.875 3 8 256 128 0.500 4 16 65536 3882 0.059 5 32 4.310 9 412736 9.610-5 8 256 10 77 10 15 10-63 16 65536 10 19728 10 64 10-19664 19 maja 2004 5. Zagadnienia klasyfikacji 5-14

Klasyfikatory liniowe afinicznefunkcjedecyzyjned k (u)=b k +wk T u, k=1,...,c b 1 +w1u T d(u)=. =b+wu=wu b c +wcu T afiniczne funkcje decyzyjne klasy liniowo rozdzielne klasy liniowo rozdzielne istnieją afiniczne funkcje decyzyjne funkcje decyzyjne są porównywane parami(liczbę wierszy W można zmniejszyć o jeden) b i +w T iu>b j +w T ju b+w T u>0 gdziew=w i w j,b=b i b j 19 maja 2004 5. Zagadnienia klasyfikacji 5-15

Liniowe klasyfikatory binarne binarny klasyfikator liniowy d(u) = 1 jeśliw T u+b<0 l(u)= 1 jeśliw T u+b>0 gdziew=w + w,b=b + b b ++w+u T b +w u T zmodyfikowana funkcja decyzyjna porównywana z zerem d(u)=b+w T u hiperpłaszczyznaklasyfikującah(w,b)={u:d(u)=0} 19 maja 2004 5. Zagadnienia klasyfikacji 5-16

*Kontekst probabilistyczny jeśliϕ(s i ) ϕ(s j ) toklasyfikacjaniejestjednoznaczna. dodatkowo znana miara probabilistyczne P na S rozkład obrazów w ramach każdej klasy(ciągły) f u k (z)dz=p(z u z+dz s S k ) rozkładaprioriklas{π k,k=1,...,c},gdzieπ k =P{s S k } znanyobrazu;rozkładaposterioriklas π k u =P{s S k u} (regułabayesa)= π kf u k (u) f u (u) klasyfikacja w zbiorze obrazów = π kf u k (u) c i=1 π if u i (u) funkcjadecyzyjna:d k (u)=π k u klasyfikatorbayesowski równoważnaf.d:d k (u)=π k f u k (u) dladyskretnegorozkładuobrazów:p j k =P(u=j s S k ) π k j = π kp j k p j = π kp j k c i=1 π ip j i 19 maja 2004 5. Zagadnienia klasyfikacji 5-17

Budowa klasyfikatorów dostępna informacja liczbaklascznana przykładuczący(u i,l(u i )) zbiór uczący(zbiór trenujący) U L = {( u i,l(u i ) ),i=1,...,n } liczbaklascznanalubnie przykładuczącyu i (klasanieznana) zbiór uczący U L ={u i,i=1,...,n} 19 maja 2004 5. Zagadnienia klasyfikacji 5-18