Metody selekcji cech

Podobne dokumenty
SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

Selekcja cech. Wprowadzenie Metody selekcji cech. Przykład zastosowania. Miary niepodobieństwa. Algorytmy przeszukiwania

Wojciech Skwirz

SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006

Identyfikacja istotnych atrybutów za pomocą Baysowskich miar konfirmacji

4.1. Wprowadzenie Podstawowe definicje Algorytm określania wartości parametrów w regresji logistycznej...74

Prof. Stanisław Jankowski

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Algorytmy metaheurystyczne Wykład 11. Piotr Syga

Agnieszka Nowak Brzezińska Wykład III

ALGORYTM RANDOM FOREST

1.7. Eksploracja danych: pogłębianie, przeszukiwanie i wyławianie

Struktury Danych i Złożoność Obliczeniowa

Klasyfikator. ˆp(k x) = 1 K. I(ρ(x,x i ) ρ(x,x (K) ))I(y i =k),k =1,...,L,

Metody sztucznej inteligencji

Agnieszka Nowak Brzezińska Wykład III

Indeksy w bazach danych. Motywacje. Techniki indeksowania w eksploracji danych. Plan prezentacji. Dotychczasowe prace badawcze skupiały się na

Wybór / ocena atrybutów na podstawie oceny jakości działania wybranego klasyfikatora.

Spis treści WSTĘP... 9

Pattern Classification

Metody klasyfikacji danych - część 1 p.1/24

Obliczenia ewolucyjne - plan wykładu

Sztuczne sieci neuronowe (SNN)

Algorytm indukcji klasyfikatora za pomocą EA z automatycznym przełączaniem ukierunkowań

Algorytm Genetyczny. zastosowanie do procesów rozmieszczenia stacji raportujących w sieciach komórkowych

Optymalizacja ciągła

Technologie Informacyjne

Dobór parametrów algorytmu ewolucyjnego

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Algorytmy genetyczne. Paweł Cieśla. 8 stycznia 2009

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

Drzewa decyzyjne. Inteligentne Obliczenia. Wydział Mechatroniki Politechniki Warszawskiej. Anna Sztyber

Recenzja rozprawy doktorskiej mgr inż. Szymona Lechwara

Napęd elektryczny. Główną funkcją jest sterowane przetwarzanie energii elektrycznej na mechaniczną i odwrotnie

Agnieszka Nowak Brzezińska

Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych. Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS

Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę

Uniwersytet w Białymstoku Wydział Ekonomiczno-Informatyczny w Wilnie SYLLABUS na rok akademicki 2012/2013

Konkurs z przedmiotu eksploracja i analiza danych: problem regresji i klasyfikacji

Schemat programowania dynamicznego (ang. dynamic programming)

Metoda analizy hierarchii Saaty ego Ważnym problemem podejmowania decyzji optymalizowanej jest często występująca hierarchiczność zagadnień.

Wprowadzenie do programu RapidMiner Studio 7.6, część 4 Michał Bereta

METODY INŻYNIERII WIEDZY

PLAN WYKŁADU OPTYMALIZACJA GLOBALNA OPERATOR KRZYŻOWANIA ETAPY KRZYŻOWANIA

Jakość uczenia i generalizacja

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

Analiza metod wykrywania przekazów steganograficznych. Magdalena Pejas Wydział EiTI PW

ALGORYTMY EWOLUCYJNE W OPTYMALIZACJI JEDNOKRYTERIALNEJ

Metody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska

Metody scoringowe w regresji logistycznej

Algorytmy klasyfikacji

TEORETYCZNE PODSTAWY INFORMATYKI

Co to jest grupowanie

Widzenie komputerowe (computer vision)

Systemy wbudowane. Cel syntezy systemowej. Wykład 12: Przykłady kosyntezy systemów wbudowanych

PODYPLOMOWE STUDIA ZAAWANSOWANE METODY ANALIZY DANYCH I DATA MINING W BIZNESIE

Projekt Sieci neuronowe

Automatyczny dobór parametrów algorytmu genetycznego

Budowa sztucznych sieci neuronowych do prognozowania. Przykład jednostek uczestnictwa otwartego funduszu inwestycyjnego

AUTOMATYKA INFORMATYKA

OSTASZEWSKI Paweł (55566) PAWLICKI Piotr (55567) Algorytmy i Struktury Danych PIŁA

Prawdopodobieństwo czerwonych = = 0.33

Modelowanie jako sposób opisu rzeczywistości. Katedra Mikroelektroniki i Technik Informatycznych Politechnika Łódzka

SCHEMAT ROZWIĄZANIA ZADANIA OPTYMALIZACJI PRZY POMOCY ALGORYTMU GENETYCZNEGO

SZTUCZNA INTELIGENCJA

Struktury Danych i Złożoność Obliczeniowa

Wprowadzenie. Data Science Uczenie się pod nadzorem

Projektowanie i Analiza Algorytmów

Adaptacyjne Przetwarzanie Sygnałów. Filtracja adaptacyjna w dziedzinie częstotliwości

Systemy uczące się wykład 2

Struktury danych i złożoność obliczeniowa Wykład 5. Prof. dr hab. inż. Jan Magott

SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska

Regresyjne metody łączenia klasyfikatorów

doc. dr Beata Pułska-Turyna Zarządzanie B506 mail: mgr Piotr J. Gadecki Zakład Badań Operacyjnych Zarządzania B 505.

Struktury danych i złożoność obliczeniowa Wykład 7. Prof. dr hab. inż. Jan Magott

Estymacja gęstości prawdopodobieństwa metodą selekcji modelu

Przestrzeń algorytmów klastrowania

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład I dr inż. 2015/2016

Strefa pokrycia radiowego wokół stacji bazowych. Zasięg stacji bazowych Zazębianie się komórek

Psychometria PLAN NAJBLIŻSZYCH WYKŁADÓW. Co wyniki testu mówią nam o samym teście? A. Rzetelność pomiaru testem. TEN SLAJD JUŻ ZNAMY

Algorytm genetyczny (genetic algorithm)-

Załóżmy, że obserwujemy nie jedną lecz dwie cechy, które oznaczymy symbolami X i Y. Wyniki obserwacji obu cech w i-tym obiekcie oznaczymy parą liczb

Klasyfikacja obiektów Drzewa decyzyjne (drzewa klasyfikacyjne)

Regresja wieloraka Ogólny problem obliczeniowy: dopasowanie linii prostej do zbioru punktów. Najprostszy przypadek - jedna zmienna zależna i jedna

Data Mining Wykład 5. Indukcja drzew decyzyjnych - Indeks Gini & Zysk informacyjny. Indeks Gini. Indeks Gini - Przykład

Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak

Wskaźnik asymetrii Jeżeli: rozkład jest symetryczny, to = 0, rozkład jest asymetryczny lewostronnie, to < 0. Kwartylowy wskaźnik asymetrii

Tematy prac dyplomowych w Katedrze Awioniki i Sterowania. Studia: I stopnia (inżynierskie)

Optymalizacja systemów

Analiza efektywności przetwarzania współbieżnego

Elementy modelowania matematycznego

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Za pierwszy niebanalny algorytm uważa się algorytm Euklidesa wyszukiwanie NWD dwóch liczb (400 a 300 rok przed narodzeniem Chrystusa).

Zadania laboratoryjne i projektowe - wersja β

Optymalizacja. Algorytmy dokładne

Rozpoznawanie obrazów

Relacja: III Seminarium Naukowe "Inżynierskie zastosowania technologii informatycznych"

Struktury danych i złożoność obliczeniowa Wykład 2. Prof. dr hab. inż. Jan Magott

Drzewa Decyzyjne, cz.2

Transkrypt:

Metody selekcji cech

A po co to Często mamy do dyspozycji dane w postaci zbioru cech lecz nie wiemy które z tych cech będą dla nas istotne. W zbiorze cech mogą wystąpić cechy redundantne niosące identyczną informację jak istniejące już cechy Cel wybranie ze zbioru dostępnych cech tych które nas interesują Interesujące cechy to takie, których kombinacja pozwala na możliwie najlepszą klasyfikację lub regresję!

8 7 6 5 Przykład z danymi iris 4 3 2 6 4 2 2 1 0 5 6 7 8 2 3 4 2 4 6 0 1 2

Podział metod selekcji cech Ze względu na charakter problemu Nadzorowane Nienadzorowame Ze względu na relację z innymi algorytmami nadrzędnymi Filtry Wrappery (opakowane) Frapery kombinacja filtrów i Wrapperów Metody wbudowane

Filtry cech Filtry cech to taka grupa metod, która autonomicznie podejmuje decyzję, które z cech będą istotne dla późniejszego procesu uczenia. Decyzja ta podejmowana jest na podstawie niezależnego od klasyfikatora współczynnika takiego jak informacja wzajemna lub dywergencja Kullbacka Leiblera Pozyskanie informacji (danych) Filtr cech Ostateczny model decyzyjny Ocena modelu Model końcowy

Informacja wzajemna i dywergencja Kullbacka Leiblera Informacja wzajemna (ang. Mutual Information) Dla zmiennych o rozkładach dyskretnych p(x) i q(x) Dla zmiennych ciągłych o rozkładach p(x) i q(x) Dywergencja Kullbacka Leiblera (ang. Kullback Leibler divergence) Dla zmiennych o rozkładach dyskretnych p(x) i q(x)

Metody opakowane Metody opakowane to grupa metod w której występuje sprzężenie zwrotne pomiędzy elementem decyzyjnym (np.. Siecią neuronową) a algorytmem selekcji cech. Dzięki temu podzbiór cech optymalizowany jest pod kątem konkretnego klasyfikatora Informacja zwrotna o jakości wybranych cech Pozyskanie informacji (danych) Metoda opakowana Ostateczny model decyzyjny Ocena modelu Model końcowy

Metody filtrów Zalety Uniwersalność uzyskany podzbiór cech jest niezależny od klasyfikatora, dzięki czemu teoretycznie możemy użyć dowolny klasyfikator W problemach medycznych jak analiza DNA zależy nam na znalezieniu genów odpowiedzialnych za pewne cechy, nie chcemy by wynik był zależny od użytej sieci neuronowej Szybkość jesteśmy niezależni od metody klasyfikacyjnej dzięki czemu złożoność obliczeniowa nie wpływa na szybkość i wydajność tego algorytmu Uniwersalność - algorytm tego typu może być wykorzystany do każdego problemu klasyfikacyjnego Wady Konieczność estymacji wielowymiarowych rozkładów

Metody opakowane Zalety Wybrany podzbiór cech jest dostosowany do wymagań lub charakteru algorytmu decyzyjnego (sieci neuronowej itp) Większa dokładność niż metod filtrów Uniwersalność - algorytm tego typu może być wykorzystany do każdego problemu klasyfikacyjnego Wady Często większa złożoność obliczeniowa

Kombinacje filtrów i metod opakowanych Wykorzystuje się algorytm filtrów do selekcji cech, jednakże parametry filtru dostraja się na podstawie metody opakowującej. Właściwości Szybkość Często większa dokładność niż metod filtrów, lecz mniejsza niż metod opakowanych Uniwersalność - algorytm tego typu może być wykorzystany do każdego problemu klasyfikacyjnego

Metody wbudowane Metody wbudowane to taka grupa algorytmów które wykorzystują pewne cechy algorytmów uczenia dokonując automatycznej selekcji cech na etapie uczenia sieci neuronowej lub innego algorytmu decyzyjnego Właściwości Szybkość selekcja cech realizowana jest podczas procesu uczenia dzięki czemu nie musimy dokonywać żadnych dodatkowych obliczeń Dokładność metody te są zaprojektowane pod kątem konkretnego algorytmu Brak uniwersalności metody te można wykorzystywać jedynie dla danego algorytmu

Algorytmy przeszukiwania

Selekcja w przód Startuje z pustego zbioru cech i stopniowo zwiększ jego rozmiar aż do osiągnięcia maksimum funkcji oceniającej (np.. MI lub max. dokładność sieci neuronowej) Złożoność obliczeniowa: n 2

Selekcja w tył Startuje z pełnego zbioru cech i stopniowo usuwa z niego najmniej użyteczne cechy aż do osiągnięcia maksimum funkcji oceniającej (np.. MI lub max. dokładność sieci neuronowej) Złożoność obliczeniowa: n 2

Inne Selekcja z wykorzystaniem algorytmów genetycznych Selekcja typu i w przód j w tył i odwrotna Dadajemy algorytmem selekcji w przód i nowych cech po czym z rezultatu usówamy j najmniej użytecznych. Warunek i>j Z całego podzbioru usuwamy i najmniej istotnych cech, po czym dodajemy j nowych. Warunek i>j

Metody rankingowe

Metody rankingowe Metody rankingowe są bardzo wydajnymi (szybkimi) metodami selekcji cech Stosowane są jako filtry wówczas należy podać liczbę wybranych cech jako wejście algorytmu Stosowane jako frappers (kombinacja metod filtrów i opakowanych) wówczas liczba wybranych cech optymalizowana jest przez algorytm decyzyjny (np.. Sieć neuronową) Wady brak stabilności

Metody rankingowe - algorytm

Współczynniki rankingowe Znormalizowany zysk informacji (ang. Normalized information gain) lub asymetryczny współczynnik zależności (ang. asymmetric dependency coecient, ADC) znormalizowany względny zysk informacyjny (ang. normalized gain ratio) kryterium DML Gdzie: H(c) entropia klasy H(f) entropia cechy MI(c,f) informacja wzajemna Pomiędzy cechą i klasą