Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Podobne dokumenty
Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Agnieszka Nowak Brzezińska Wykład III

Agnieszka Nowak Brzezińska

Sztuczna inteligencja : Algorytm KNN

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Agnieszka Nowak Brzezińska Wykład III

Elementy modelowania matematycznego

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

WYKŁAD 12. Analiza obrazu Wyznaczanie parametrów ruchu obiektów

Pattern Classification

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Klasyfikator. ˆp(k x) = 1 K. I(ρ(x,x i ) ρ(x,x (K) ))I(y i =k),k =1,...,L,

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.

Adrian Horzyk

METODY INŻYNIERII WIEDZY

AUTOMATYKA INFORMATYKA

Parametryzacja obrazu na potrzeby algorytmów decyzyjnych

Złożoność obliczeniowa zadania, zestaw 2

METODY INŻYNIERII WIEDZY

METODY INŻYNIERII WIEDZY

Stan dotychczasowy. OCENA KLASYFIKACJI w diagnostyce. Metody 6/10/2013. Weryfikacja. Testowanie skuteczności metody uczenia Weryfikacja prosta

Przetwarzanie obrazów wykład 4

Detekcja punktów zainteresowania

Prawdopodobieństwo czerwonych = = 0.33

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Metody numeryczne Technika obliczeniowa i symulacyjna Sem. 2, EiT, 2014/2015

Spośród licznych filtrów nieliniowych najlepszymi właściwościami odznacza się filtr medianowy prosty i skuteczny.

A Zadanie

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Przekształcenia punktowe

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

Klasyfikacja LDA + walidacja

wiedzy Sieci neuronowe

Optymalizacja ciągła

Asocjacyjna reprezentacja danych i wnioskowanie

8. Drzewa decyzyjne, bagging, boosting i lasy losowe

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Lekcja 5: Sieć Kohonena i sieć ART

i ruchów użytkownika komputera za i pozycjonujący oczy cyberagenta internetowego na oczach i akcjach użytkownika Promotor: dr Adrian Horzyk

Systemy uczące się wykład 2

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

8. Neuron z ciągłą funkcją aktywacji.

Wydział Inżynierii Produkcji. I Logistyki. Statystyka opisowa. Wykład 3. Dr inż. Adam Deptuła

ANALIZA SEMANTYCZNA OBRAZU I DŹWIĘKU

Algorytmy metaheurystyczne Wykład 11. Piotr Syga

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska

Testowanie modeli predykcyjnych

Cyfrowe przetwarzanie obrazów i sygnałów Wykład 8 AiR III

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

ROZKŁAD MATERIAŁU DO II KLASY LICEUM (ZAKRES ROZSZERZONY) A WYMAGANIA PODSTAWY PROGRAMOWEJ.

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Inteligentne wydobywanie informacji z internetowych serwisów społecznościowych

P R Z E T W A R Z A N I E S Y G N A Ł Ó W B I O M E T R Y C Z N Y C H

Rozpoznawanie obrazów na przykładzie rozpoznawania twarzy

SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006

Metody selekcji cech

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Samochodowy system detekcji i rozpoznawania znaków drogowych. Sensory w budowie maszyn i pojazdów Maciej Śmigielski

Metody kodowania wybranych cech biometrycznych na przykładzie wzoru naczyń krwionośnych dłoni i przedramienia. Mgr inż.

Metody klasyfikacji danych - część 1 p.1/24

Automatyczna klasyfikacja zespołów QRS

Wprowadzenie do złożoności obliczeniowej

Filtrowanie tekstur. Kinga Laurowska

Automatyczne tworzenie trójwymiarowego planu pomieszczenia z zastosowaniem metod stereowizyjnych

BIBLIOTEKA PROGRAMU R - BIOPS. Narzędzia Informatyczne w Badaniach Naukowych Katarzyna Bernat

Metody Sztucznej Inteligencji II

Reprezentacja i analiza obszarów

Wymagania na poszczególne oceny szkolne

Wymagania na poszczególne oceny szkolne

Algorytmy klasyfikacji

Data Mining Wykład 6. Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa.

Systemy uczące się Lab 4

Szacowanie wartości monet na obrazach.

Sortowanie. Bartman Jacek Algorytmy i struktury

Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner

SPIS TREŚCI WSTĘP LICZBY RZECZYWISTE 2. WYRAŻENIA ALGEBRAICZNE 3. RÓWNANIA I NIERÓWNOŚCI

ALGORYTMY EWOLUCYJNE W OPTYMALIZACJI JEDNOKRYTERIALNEJ

Metody probabilistyczne klasyfikatory bayesowskie

SPOTKANIE 2: Wprowadzenie cz. I

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

Reprezentacja i analiza obszarów

Prof. Stanisław Jankowski

EGZAMIN W KLASIE TRZECIEJ GIMNAZJUM W ROKU SZKOLNYM 2014/2015

Odwrotna Notacja Polska

Uwaga: szarych kropek po pokolorowaniu nie uwzględniaj w klasyfikowaniu kolejnych szarych.

EGZAMIN W KLASIE TRZECIEJ GIMNAZJUM W ROKU SZKOLNYM 2015/2016 CZĘŚĆ 2. ZASADY OCENIANIA ROZWIĄZAŃ ZADAŃ

Data Mining Wykład 4. Plan wykładu

Metody klasyfikacji i rozpoznawania wzorców. Najważniejsze rodzaje klasyfikatorów

Cyfrowe przetwarzanie obrazów i sygnałów Wykład 10 AiR III

WYMAGANIA na poszczególne oceny-klasa I Gimnazjum

Analiza skupień. Analiza Skupień W sztucznej inteligencji istotną rolę ogrywają algorytmy grupowania

Python: JPEG. Zadanie. 1. Wczytanie obrazka

Naiwny klasyfikator Bayesa brał pod uwagę jedynie najbliższe otoczenie. Lecz czym jest otoczenie? Jak je zdefiniować?

Wprowadzenie do algorytmiki

Systemy uczące się wykład 1

Algorytmy i struktury danych. Co dziś? Tytułem przypomnienia metoda dziel i zwyciężaj. Wykład VIII Elementarne techniki algorytmiczne

WYKŁAD 10. kodem pierwotnym krzywej jest ciąg par współrzędnych x, y kolejnych punktów krzywej: (x 1, y 1 ), (x 2, y 2 ),...

Transkrypt:

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny klasyfikator Bayesa Drzewa decyzyjne Support Vector Machines (SVM) i inne 1

Plan wykładu Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Działanie klasyfikatora i jego trening Zastosowanie klasyfikatora do rozpoznawania obrazów Algorytm k najbliższych sąsiadów Jeden z najprostszych algorytmów decyzyjnych Zbiorem treningowym są wektory parametrów, stanowiące punkty w wielowymiarowej przestrzeni parametrów Badana próbka jest klasyfikowana jako należąca do tej klasy, która posiada w zbiorze treningowym największą ilość swoich przedstawicieli wśród k najbliższych sąsiadów próbki Miarą odległości jest zwykle metryka euklidesowa Parametr k jest ustalany z góry 2

Algorytm k najbliższych sąsiadów Gdy k = 1 (algorytm najbliższego sąsiada), badana próbka jest przypisywana do tej klasy, do której należy najbliższy niej wzorzec ze zbioru treningowego Im większe k tym algorytm jest bardziej odporny na szum, ale jednocześnie granice między klasami stają się bardziej rozmyte Cechy algorytmu Brak rzeczywistej fazy treningu Wysoka złożoność obliczeniowa procesu klasyfikacji wymaga obliczenia odległości badanej próbki od wszystkich wzorców, rośnie wraz ze wzrostem liczebności zbioru treningowego Wysoce wrażliwy na zaszumione lub nieistotne dane Klasa z większą ilością wzorców (w porównaniu z innymi klasami) ma tendencję do dominowania w wynikach klasyfikacji 3

Plan wykładu Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Działanie klasyfikatora i jego trening Zastosowanie klasyfikatora do rozpoznawania obrazów Kaskada klasyfikatorów AdaBoost AdaBoost (Adaptive Boosting) jest heurystycznym, binarnym klasyfikatorem Jest klasyfikatorem silnym, który składa się z zestawu klasyfikatorów słabych, z których każdy kolejny jest optymalizowany do poprawnego rozpoznawania wzorców błędnie zakwalifikowanych przez wcześniejsze klasyfikatory Kaskada klasyfikatorów AdaBoost pozwala uzyskać większą skuteczność działania, niż pojedynczy silny klasyfikator Wymaga przygotowania zestawu treningowego z wzorcami pozytywnymi i negatywnymi 4

Klasyfikator podstawowy (słaby) Podstawowy, słaby klasyfikator h j wykorzystuje tylko jeden parametr f j i zwraca wartość 1 lub 0 w zależności od tego, czy wartość parametru jest większa (mniejszy) od zadanego progu. Znak nierówności p j oraz wartość progu q j są ustalane w taki sposób, aby najdokładniej odseparować dwie rozpoznawane klasy Klasyfikator AdaBoost Klasyfikator składa się z wielu klasyfikatorów słabych W procesie treningu jako pierwszy klasyfikator słaby wybierany (dodawany) jest ten, który charakteryzuje się najmniejszym, ważonym błędem rozpoznawania wzorców treningowych Waga danego wzorca rośnie w przypadku jego błędnej detekcji przez klasyfikator słaby Każdy kolejno dodawany klasyfikator słaby jest zatem optymalizowany pod kątem rozpoznania wzorców, które sprawiły najwięcej problemów wcześniejszym klasyfikatorom 5

Klasyfikator AdaBoost Odpowiedź klasyfikatora AdaBoost dana jest wzorem: gdzie a t jest proporcjonalne odwrotności błędu detekcji ważonych danych wzorcowych przez klasyfikator słaby h t Kaskada klasyfikatorów AdaBoost Zestaw połączonych klasyfikatorów AdaBoost (członów) Pozytywny wynik klasyfikacji próbki wymaga pozytywnego rozpoznania kolejno przez wszystkie człony kaskady Nierozpoznanie próbki przez którykolwiek człon kaskady skutkuje negatywnym wynikiem klasyfikacji 6

Tworzenie kaskady Dodawanie kolejnych parametrów (klasyfikatorów słabych) do danego członu kaskady trwa dopóki: stopa błędów typu false-positives (wykrycie obiektu mimo jego faktycznego braku) nie spadnie poniżej założonego progu, np. 50%, lub stopa błędów typu false-negatives (nie wykrycie obiektu mimo jego faktycznej obecności) nie wzrośnie powyżej założonego progu, np. 0,1% Tworzenie kaskady Dodawanie kolejnych członów kaskady trwa dopóki nie osiągnie się założonych stóp błędów false-positives i false-negatives Każdy kolejny człon kaskady jest trenowany w oparciu o wzorce pozytywne oraz te wzorce negatywne, które zostały przepuszczone przez wcześniejsze człony Taka strategia oznacza, że każdy kolejny człon kaskady zawiera coraz więcej parametrów (klasyfikatorów słabych), np. 1, 10, 25, 25, 50 Typowo stosuje się ok. 20-30 członów w kaskadzie, które zawierają łącznie jedynie kilka procent wszystkich możliwych parametrów (np. 6000 spośród 120 tys.) 7

Cechy kaskady klasyfikatorów AdaBoost Możliwość samodzielnego ustalenia kompromisu pomiędzy uzyskiwanymi wynikami a złożonością obliczeniową Bardzo wysoka wydajność algorytmu Automatyczny wybór optymalnych parametrów w procesie treningu klasyfikatora Zastosowanie klasyfikatorów AdaBoost połączonych w kaskadę pozwala jednocześnie uzyskać większą skuteczność klasyfikacji i większą wydajność Może być używana łącznie z innymi algorytmami decyzyjnymi w celu poprawy ich skuteczności Długi czas treningu Plan wykładu Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Działanie klasyfikatora i jego trening Zastosowanie klasyfikatora do rozpoznawania obrazów 8

Parametry wykorzystywane przy rozpoznawaniu obrazów Parametrami są różnice między sumą wartości pikseli (odcienie szarości) w białych i czarnych obszarach figur W obrazie 24x24 możliwe jest wyznaczenie 117941 parametrów Wyznaczanie parametrów obrazu Wartości każdego parametru są obliczane błyskawicznie i w identycznym czasie dla dowolnej skali i położenia na obrazie Wykorzystuje się do tego dwa tzw. obrazy zsumowane (ang. integral image) dla parametrów prostych (SAT) i obróconych o 45 stopni (TSAT): Piksel w obrazie zsumowanym (dla parametrów prostych) zawiera sumę wartości wszystkich pikseli znajdujących się powyżej i na lewo od niego. 9

Wyznaczanie parametrów obrazu Wartości każdego parametru dla dowolnej skali i położenia można obliczyć błyskawicznie za pomocą kilku odwołań do tablicy w pamięci np. suma wartości pikseli w dowolnym prostokącie wymaga odczytania 4 wartości z obrazu zsumowanego D = 4 + 1 (2 + 3) Rozpoznawanie obiektów w obrazie Kaskada klasyfikatorów AdaBoost jest trenowana z wykorzystaniem zestawu kilku tysięcy wzorców pozytywnych i negatywnych o jednej, stałej i niewielkiej rozdzielczości, np. 24x24 piksele Jest w stanie rozpoznawać w obrazie obiekty o rozmiarach równych lub większych od rozmiaru wzorców 10

Rozpoznawanie obiektów w obrazie W procesie detekcji okno, w którym prowadzona jest klasyfikacja, przesuwane jest po obrazie wejściowym z zadanym krokiem, a następnie skalowane w górę o zadany współczynnik W czasie klasyfikacji zawartości każdego okna, skalowaniu nie ulega obraz wejściowy, lecz jedynie parametry klasyfikatora W praktyce w procesie detekcji zdecydowana większość okien jest odrzucana w pierwszym drugim członie kaskady, wobec czego dla każdego okna wymagane jest obliczenie średnio około 20-30 parametrów. 11