Redukcja wymiarowości i selekcja cech w zadaniach klasyfikacji i regresji z wykorzystaniem uczenia maszynowego
|
|
- Antoni Janiszewski
- 6 lat temu
- Przeglądów:
Transkrypt
1 zeszyty naukowe uniwersytetu szczecińskiego NR 733 studia informatica nr Paweł Ziemba * Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Redukcja wymiarowości i selekcja cech w zadaniach klasyfikacji i regresji z wykorzystaniem uczenia maszynowego Wprowadzenie Uczenie maszynowe wykorzystywane jest w zadaniach regresji i klasyfikacji. W zadaniach uczenia maszynowego na podstawie określonych cech obiektu przewidywana jest jego wartość ogólna lub przynależność do określonej klasy. Jest to wykonywane w oparciu o wcześniej przeprowadzony proces trenowania, w trakcie którego algorytm klasyfikacyjny uczy się, jakie są rzeczywiste klasy obiektów treningowych i powiązuje przynależność do określonej klasy z wartościami cech obiektów. Jednym z podstawowych problemów w zadaniach klasyfikacji jest wielowymiarowość obiektu, który ma zostać przypisany do określonej klasy lub dla którego przypisywana jest wartość. Wymiarowość stanowi poważną przeszkodę dla efektywności algorytmów eksploracji danych i uczenia maszynowego. Problem ten nosi miano przekleństwa wymiarowości 1. Redukcja wymiarów obiektów poddawanych klasyfikacji pozwala na: poprawę wyników predykcji, zmniejszenie wyma- * pziemba@wi.ps.pl. 1 B. Chizi, O. Maimon, Dimension Reduction and Feature Selection, w: Data Mining and Knowledge Discovery Handbook, red. O. Maimon, L. Rokach, Springer, Nowy Jork 2010, s
2 222 Paweł Ziemba gań obliczeniowych, zmniejszenie wymagań odnośnie gromadzenia danych, redukcję kosztów przyszłych pomiarów, poprawę jakości danych 2. Redukcja wymiarów zadania klasyfikacyjnego może być wykonywana przez proces selekcji cech, który koncentruje się na określeniu pewnych cech w zbiorze danych jako istotnych i odrzuceniu nadmiarowych zmiennych. Wybierany jest podzbiór charakterystyk z oryginalnego zbioru cech. W tym celu wykorzystywane są różnorodne algorytmy, oceniające poszczególne cechy względem określonego kryterium opisującego ich znaczenie w zadaniu klasyfikacji 3. W artykule szczegółowo omówiono zagadnienia związane z wykorzystaniem metod selekcji cech do redukcji wymiarowości. W kolejnych rozdziałach przedstawiono: podstawowe założenia selekcji cech, podział metod wykorzystujących ten proces, wybrane algorytmy selekcji oraz przykład obliczeniowy. 1. Podstawowe zagadnienia związane z selekcją cech Proces selekcji cech można traktować jako problem przeszukiwania zbioru charakterystyk opisujących obiekt poddawany klasyfikacji według pewnego kryterium oceny. Metody selekcji cech złożone są zazwyczaj z czterech elementów (kroków), takich jak: generowanie podzbioru cech, ocena podzbioru, kryterium stopu, walidacja rezultatów 4. Metody selekcji cech dzielą się na dwa rodzaje procedur, to jest: filtry i wrappery. Między tymi grupami metod występują istotne różnice. Filtry bazują na niezależnej ocenie cech z wykorzystaniem ogólnych charakterystyk danych. Mogą być tu wykorzystywane na przykład współczynniki korelacji między wartościami cech a przynależnością do określonej klasy. Zbiór cech obiektu jest poddawany filtracji w celu określenia najbardziej obiecującego podzbioru atrybutów przed rozpoczęciem trenowania algorytmu uczenia maszynowego 5. 2 I. Guyon, Practical Feature Selection: from Correlation to Causality, w: Mining massive data sets for security: advances in data mining, search, social networks and text mining, and their applications to security, red. F. Fogelman-Soulié, D. Perrotta, J. Piskorski, R. Steinberger, IOS Press, Amsterdam 2008, s D. Hand, H. Mannila, D. Smyth, Eksploracja danych, WNT, Warszawa 2005, s H. Liu, L. Yu, H. Motoda, Feature Extraction, Selection, and Construction, w: The Handbook of Data Mining, red. N. Ye, Lawrence Erlbaum Associates, Mahwah 2003, s I.H. Witten, E. Frank, Data Mining. Practical Machine Learning Tools and Techniques, Elsevier, San Francisco 2005, s
3 Redukcja wymiarowości i selekcja cech w zadaniach klasyfikacji i regresji 223 Rys. 1. Struktura algorytmów należących do kategorii filtrów Źródło: M.A. Hall, G. Holmes, Benchmarking Attribute Selection Techniques for Discrete Class Data Mining, IEEE Transactions on Knowledge and Data Engineering 2003, nr 3, s Wrappery z kolei oceniają poszczególne podzbiory cech z wykorzystaniem algorytmów uczenia maszynowego, które ostatecznie zostaną wykorzystane w zadaniu klasyfikacji bądź regresji. Algorytm uczący jest w tym przypadku zawarty w procedurze selekcji cech, a do oszacowania dokładności klasyfikatora korzystającego z określonego podzbioru cech wykorzystywana jest zazwyczaj walidacja krzyżowa. Struktury algorytmów należących do kategorii filtrów i wrapperów przedstawiono na rysunkach 1 i 2. Rys. 2. Struktura algorytmów należących do kategorii wrapperów Źródło: jak pod rys. 1.
4 224 Paweł Ziemba Generowanie podzbioru atrybutów może odbywać się na różne sposoby. Najbardziej podstawowymi strategiami są: tworzenie indywidualnego rankingu, przeszukiwanie w przód i przeszukiwanie wstecz. Tworzenie indywidualnego rankingu rozpoczyna się przy pustym podzbiorze cech. W każdym kroku do tego podzbioru dodawany jest atrybut określony jako najlepszy bez uwzględnienia ewentualnych zależności między cechami. Od pustego podzbioru atrybutów rozpoczyna się również procedura przeszukiwania w przód. W pierwszym kroku do podzbioru dodawana jest cecha uznana za najlepszą bez uwzględnienia zależności między cechami. W kolejnym kroku do podzbioru atrybutów dodawany jest atrybut, który wraz z wybranym wcześniej tworzy najlepszą parę cech. Procedura ta przebiega iteracyjnie, aż do osiągnięcia kryterium stopu. Procedura przeszukiwania wstecz rozpoczyna się, gdy podzbiór jest kopią pierwotnego zbioru cech. W tym przypadku kolejno z podzbioru usuwane są cechy, których usunięcie skutkuje maksymalizacją kryterium oceny podzbioru. Procedura indywidualnego rankingu nie uwzględnia zależności między atrybutami, lecz rozpatruje oddzielnie każdą z cech obiektu. W związku z tym, może ona dawać gorsze rezultaty od pozostałych omówionych strategii. W procedurze przeszukiwania wstecz brane jest pod uwagę więcej możliwych współzależności pomiędzy cechami, jednak jest ona bardziej złożona obliczeniowo od strategii przeszukiwania w przód 6. Wrappery różnią się między sobą tylko zastosowanymi algorytmami uczenia maszynowego, więc rezultaty uzyskane z ich wykorzystaniem zależą wyłącznie od jakości algorytmu uczenia maszynowego i dopasowania algorytmu do określonego zadania klasyfikacyjnego. Bardziej interesujące wydają się procedury filtracyjne, określające istotność poszczególnych atrybutów za pomocą innych miar niż stopień poprawnych klasyfikacji, w związku z czym w artykule zbadano działanie algorytmów generowania i oceny podzbiorów cech, stosowanych w procedurach filtracyjnych. 6 K. Michalak, H. Kwaśnicka, Correlation-based feature selection strategy in classification problems, International Journal of Applied Mathematics and Computer Science 2006, nr 4, s
5 Redukcja wymiarowości i selekcja cech w zadaniach klasyfikacji i regresji Metody filtracyjne stosowane do selekcji cech Wśród metod wykorzystujących do selekcji cech filtry, stosowane są między innymi procedury: ReliefF, LVF, FCBF, CFS, istotności atrybutów (ang. significance attribute). Podstawową ideą metody ReliefF jest ocena atrybutów według tego, jak dobrze pozwalają one rozróżnić podobne obiekty, to znaczy takie, które znajdują się blisko siebie z perspektywy podobieństwa wartości cech. Stosowana jest tutaj metoda najbliższych sąsiadów, a więc również funkcja odległości. W procedurze ReliefF wykorzystywana jest heurystyka mówiąca o tym, że dobry atrybut powinien rozróżniać leżące blisko siebie obiekty należące do innych klas, a dodatkowo powinien mieć taką samą wartość dla leżących blisko siebie obiektów należących do tej samej klasy. Dla każdego obiektu r i każdej analizowanej cechy X i znajdowanych jest k obiektów s 1...k tej samej klasy co obiekt r, dla których analizowana cecha X i jest najbardziej zbliżona do tej samej cechy X i w badanym obiekcie r. Dodatkowo dla każdego obiektu r i każdej analizowanej cechy X i znajdowanych jest k obiektów s 1...k, należących do innej klasy niż obiekt r, dla których wartość cechy X i jest najbliższa wartości cechy X i w obiekcie r. W tym przypadku znajdowanych jest łącznie k*(c-1) obiektów (gdzie c oznacza liczbę rozpatrywanych klas) lub, inaczej mówiąc, znajdowanych jest k najbliższych obiektów odrębnie w każdej z klas, do których nie należy obiekt r. Metodę wyznaczania oceny cechy X i można opisać wzorem (1) 7 : Funkcja odległości opisana jest wzorem (2) 8 : 7 I. Kononenko, S.J. Hong, Attribute Selection for Modeling, Future Generation Computer Systems 1997, nr 2 3, 1997, s K. Kira, L.A. Rendell, A Practical Approach to Feature Selection, ML92 Proc. of IWML 1992, s
6 226 Paweł Ziemba Metoda LVF wykorzystuje podejście probabilistyczne w celu określenia kierunku wskazującego prawidłowe rozwiązanie. Do prowadzenia wyszukiwania rozwiązania wykorzystywana jest tutaj losowość gwarantująca uzyskanie akceptowalnego rozwiązania nawet w sytuacji, gdy w trakcie poszukiwania najlepszego podzbioru podejmowane są błędne decyzje 9. Algorytm LVF na wstępie generuje losowy podzbiór cech, a następnie określa jego spójność przez znalezienie minimalnej liczby cech, które różnicują przynależność obiektów do poszczególnych klas w taki sam sposób, jak pełny zestaw cech. Wykorzystywane jest tutaj kryterium niespójności, które określa stopień akceptacji danych o zredukowanej wymiarowości. Współczynnik niespójności danych opisanych z wykorzystaniem zredukowanego podzbioru cech jest w tym przypadku porównywany z współczynnikiem niespójności danych charakteryzowanych przez pełny zbiór cech. Zredukowany podzbiór cech jest akceptowany, gdy uzyskany dla niego współczynnik niespójności jest niższy od tego samego współczynnika określonego dla pełnego zbioru atrybutów. Współczynnik niespójności można określić za pomocą wzoru (3): gdzie: D i jest liczbą wystąpień i-tej kombinacji wartości cech, M i określa liczność obiektów klasy dominującej dla i-tej kombinacji atrybutów, N określa liczbę obiektów. Procedura FCBF bazuje na współczynnikach korelacji, a dokładniej mówiąc, na symetrycznej niepewności (ang. symmetrical uncertainty). Symetryczna niepewność określona jest jako stosunek zawartości informacyjnej pary atrybutów do sumy entropii tych atrybutów i opisuje ją wzór (4): 9 H. Liu, R. Setiono, A Probabilistic Approach to Feature Selection A Filter Solution, Proc. of ICML 1996, s
7 Redukcja wymiarowości i selekcja cech w zadaniach klasyfikacji i regresji 227 Zawartość informacyjna mówi o tym, jaki zysk informacji uzyskuje się, wykorzystując entropię cechy X w porównaniu do entropii cechy X po obserwacji cechy Y. Entropia z kolei określa niepewność zmiennej losowej 10. Dodatkowo w metodzie FCBF stosowane są pomocniczo, oddzielnie dla każdej cechy, zbiory cech nadmiarowych. Zbiór Sp i + zawiera cechy nadmiarowe względem cechy F i, mające wyższy od F i współczynnik symetrycznej niepewności w powiązaniu z klasą C. Z kolei zbiór Sp i - zawiera cechy nadmiarowe względem F i, mające niższy od niej współczynnik symetrycznej niepewności w powiązaniu z klasą C. Na wstępie procedury FCBF obliczane są symetryczne niepewności dla każdej cechy, a do dalszego rozpatrzenia wybierane są tylko atrybuty, których symetryczne niepewności są większe od przyjętego progu. Umieszczane są one w zbiorze S w porządku malejącym, opartym na wartościach ich symetrycznych niepewności. Następnie zbiór S jest sprawdzany pod względem występowania w nim nadmiarowości cech. Ewentualne nadmiarowe cechy są z niego usuwane z wykorzystaniem trzech heurystyk: 1. Jeżeli zbiór Sp i + jest pusty, cecha F i uznawana jest za cechę główną. Przerywana jest identyfikacja cech nadmiarowych względem cech zawartych w zbiorze Sp i - i zawartość zbioru Sp i - jest usuwana. 2. Jeżeli zbiór Sp i + nie jest pusty, przed podjęciem decyzji odnośnie cechy F i, przetwarzany jest zbiór wszystkich cech w Sp i+. Jeżeli żadna cecha znajdująca się w zbiorze Sp i + nie jest uznawana za główną, wykonywana jest heurystyka 1. W przeciwnym przypadku cecha F i jest usuwana z S i na podstawie pozostałych cech zawartych w S podejmowana jest decyzja, czy usunąć zawartość zbioru Sp i-. 3. Cecha z największą wartością symetrycznej niepewności jest zawsze cechą główną i punktem startowym procedury usuwania nadmiarowych cech 11. Procedura ta kończy się po wykonaniu jej dla każdego atrybutu zawartego w zbiorze S. Metoda CFS, podobnie jak FCBF, oparta jest na badaniu korelacji pomiędzy cechami. Globalną miarą korelacji wykorzystywaną w procedurze CFS 10 S.S. Kannan, N. Ramaraj, A novel hybrid feature selection via Symmetrical Uncerteinty ranking based local memetic search algorithm, Knowledge-Based Systems 2010, nr 23, s L. Yu, H. Liu, Feature Selection for High-Dimensional Data: A Fast Correlation-Based Filter Solution, Proc. of ICML 2003, s
8 228 Paweł Ziemba jest korelacja liniowa Pearsona, natomiast lokalnie stosowana jest symetryczna niepewność. Wykorzystywana jest tutaj heurystyka mówiąca o tym, że dobry podzbiór cech zawiera atrybuty silnie skorelowane z określoną klasą obiektów oraz nieskorelowane z innymi klasami i atrybutami. Pozwala ona odfiltrować cechy, które w niewielkim stopniu opisują przynależność obiektu do określonej klasy oraz cechy nadmiarowe, silnie powiązane z innymi cechami. W metodzie CFS stosowany jest wzór (5) 12 : gdzie: Merit s jest wartością heurystyki dla podzbioru S zawierającego k cech, r cf jest średnią wartością współczynnika korelacji pomiędzy cechami podzbioru S i klasami obiektów, r ff określa średnią korelację wzajemną między cechami. Licznik wzoru (4) określa, jak dobrze podzbiór cech pozwala przewidzieć przynależność obiektu do danej klasy, natomiast mianownik opisuje nadmiarowość w zbiorze cech. W procedurze CFS na wstępie, przez obliczenie symetrycznej niepewności, wyznaczana jest macierz korelacji wzajemnych między atrybutami oraz korelacji między atrybutami a klasami obiektów. Następnie wykonywane jest przeszukiwanie w przód za pomocą algorytmu best first. Przeszukiwanie kończy się, gdy kolejne pięć rozwinięć podzbioru cech nie przynosi poprawy rezultatów 13. W metodzie istotności atrybutów wykorzystywane są współczynniki dwukierunkowych powiązań pomiędzy atrybutami i przynależnościami obiektów do klasy. Metoda ta oparta jest na heurystyce mówiącej o tym, że jeżeli atrybut jest istotny, to istnieje duże prawdopodobieństwo, że obiekty dopełniające zbiory wartości tego atrybutu będą należały do dopełnienia zbiorów klas. Dodatkowo, przy założeniu, że klasy decyzyjne dla dwóch zbiorów obiektów są różne, można oczekiwać, że wartości istotnych atrybutów 12 M.A. Hall, L.A. Smith, Feature Selection for Machine Learning: Comparing a Correlation-based Filter Approach to the Wrapper, Proc. of IFAIRSC 1999, s M.A. Hall, Correlation-based Feature Selection for Discrete and Numeric Class Machine Learning, Proc. of ICML 2000, s
9 Redukcja wymiarowości i selekcja cech w zadaniach klasyfikacji i regresji 229 w obiektach należących do tych dwóch zbiorów będą różne. Istotność każdego z atrybutów jest wyznaczana jako średnia wartość ogólnych powiązań danego atrybutu z klasami (AE) oraz klas z danym atrybutem (CE). Atrybut jest istotny, gdy wartości obydwu powiązań są wysokie. Wartość powiązania atrybutu z klasami (AE) odzwierciedla łączny wpływ wszystkich możliwych wartości atrybutu i ich związki z określonymi klasami obiektów. Współczynnik powiązania klas z atrybutem (CE) określa, w jaki sposób zmienia się wartość atrybutu zależnie od zmiany klasy obiektu. Wartości AE i CE opisane są wzorami (6) i (7): gdzie: k oznacza liczbę możliwych wartości i-tego atrybutu, P ir (w) i P i ~r (~w) kolejno oznaczają prawdopodobieństwo tego, że obiekty z określoną r-tą wartością atrybutu X i należą do klas z określonego podzbioru klas w; prawdopodobieństwo tego, że obiekty z wartością atrybutu X i różną od r-tej wartości nie należą od klas zawartych w podzbiorze klas w. gdzie: m oznacza liczbę klas, P ij (V) określa prawdopodobieństwo tego, że wartości atrybutu A i obiektów należących do klasy j zawarta jest w podzbiorze V, P i ~j (V i ~j ) opisuje prawdopodobieństwo tego, że obiekty nienależące do klasy j mają wartość atrybutu A i, która nie jest zawarta z podzbiorze V A. Ahmad, L. Dey, A feature selection technique for classificatory analysis, Pattern Recognition Letters 2005, nr 26, s
10 230 Paweł Ziemba 3. Procedura badawcza i wyniki badań W przyjętej procedurze badawczej koncentrowano się na wygenerowaniu rankingów cech za pomocą każdej z omówionych metod. Badanie miało wskazać różnice w rankingach uzyskiwanych z wykorzystaniem każdej procedury. Wykorzystano trzy zbiory danych pochodzące z serwisu UCI Machine Learning Repository 15 : Car Evaluation Data Set, Image Segmentation Data Set oraz Wine Quality Data Set 16. Zbiór Car Evaluation zawiera 1728 obiektów, z których każdy jest opisany za pomocą 6 atrybutów o dyskretnych wartościach i może należeć do jednej z 4 klas określających dopuszczalność zakupu samochodu, przy czym w każdej klasie jest różna liczba obiektów. Zbiór Image Segmentation zawiera 2100 obiektów opisanych z wykorzystaniem 19 atrybutów. Każdy obiekt może należeć do jednej z 7 klas określających zawartość obrazu graficznego opisywanego przez obiekt. W każdej z klas zawarta jest taka sama liczba obiektów, a wykorzystane atrybuty mają wartości ciągłe. Jeżeli chodzi o zbiór Wine Quality, wykorzystano tylko jego część, która opisuje przynależność win białych do jednej z 10 klas jakościowych. Stosowanych jest tutaj 11 atrybutów ciągłych, a wykorzystana część zbioru zawiera 4898 obiektów. Jeżeli chodzi o zastosowane strategie generowania podzbioru atrybutów, metody LVF i CFS korzystały z przeszukiwania w przód, natomiast pozostałe trzy metody stosowały strategię rankingu indywidualnego. Dla metody ReliefF do oceny atrybutu zastosowano 10 najbliższych sąsiadów, a próbkowanie było wykonywane na wszystkich obiektach. Rankingi istotności cech uzyskane za pomocą każdej z omówionych metod dla poszczególnych zbiorów danych zawarte są w tabelach 1, 2 i 3. Kolejności w rankingach cech dla zbioru Car Evaluation są takie same z użyciem każdej metody z wyjątkiem procedury LVF. Metoda ta daje ranking różniący się trzema pierwszymi pozycjami względem pozostałych. Ze względu na to, że LVF wykorzystuje do oceny istotności kryteriów współczynnik niespójności, daje ona kolejność cech w porządku rosnącym (najbardziej istotne cechy mają najniższe wartości niespójności) P. Cortez, A. Cerdeira, F. Almeida, T. Matos, J. Reis, Modeling wine preferences by data mining from physicochemical properties, Decision Support Systems 2009, nr 4, s
11 Redukcja wymiarowości i selekcja cech w zadaniach klasyfikacji i regresji 231 Tabela 1 Istotności cech uzyskane dla zbioru Car Evaluation ReliefF Cecha Istotność LVF Cecha Niespójność FCBF Cecha Istotność CFS Cecha Istotność SA Cecha Istotność Źródło: opracowanie własne. W zbiorach Image Segmentation i Wine Quality widoczne są większe różnice w działaniu poszczególnych metod selekcji cech, jednak również w tych badaniach najbardziej od pozostałych odstają wyniki uzyskane za pomocą procedury LVF. W przypadku metody CFS łatwo zauważyć, że obliczone z istotności nie odzwierciedlają dokładnie kolejności w rankingu ważności cech. Rankingi dla tej procedury poprawiane są przez strategię best first i dopiero w ten sposób przyjmują kształt zbliżony do rankingów uzyskanych za pomocą pozostałych metod (z wyłączeniem LVF). Duże podobieństwo metod CFS i FCBF skutkuje tym, że cecha zajmująca najwyższą pozycję w rankingach utworzonych z wykorzystaniem tych dwóch metod zawsze ma taką samą lub bardzo zbliżoną wartość istotności. W rankingach utworzonych z wykorzystaniem metod ReliefF, FCBF i SA da się wyróżnić hipotetyczne podzbiory, w których wartości istotności cech są do siebie zbliżone w ramach podzbioru, zaś silnie odróżniają się od istotności cech w kolejnych podzbiorach. Dla zbioru danych Image Segmentation trzy podzbiory cech wyodrębnione w ten sposób z użyciem każdej z tych metod są do siebie podobne. Dla procedury SA podzbiór cech najistotniejszych zawierałby w tym przypadku atrybuty: 20, 12, 11, 18 i 14. Podzbiór taki dla procedury FCBF byłby dodatkowo rozszerzony o cechę 13, a w przypadku metody ReliefF zawierałby dodatkowo także atrybut 3. Z kolei podzbiór cech najmniej istotnych dla każ-
12 232 Paweł Ziemba Tabela 2 Istotności cech uzyskane dla zbioru Image Segmentation Cecha ReliefF Istotność Cecha LVF Niespójność Cecha FCBF Istotność Cecha CFS Istotność Cecha SA Istotność Źródło: opracowanie własne.
13 Redukcja wymiarowości i selekcja cech w zadaniach klasyfikacji i regresji 233 Tabela 3 Istotności cech uzyskane dla zbioru Wine Quality ReliefF Cecha Istotność LVF Cecha Niespójn FCBF Cecha Istotność CFS Cecha Istotność SA Cecha Istotność Źródło: opracowanie własne.
14 234 Paweł Ziemba dej z metod zawierałby cechy: 2, 9, 7, 5, 6, 10, 8 i 4. Dla zbioru danych Wine Quality podzbiory wyodrębnione z użyciem każdej z trzech metod różniłyby się od siebie w większym stopniu. Analizując wyniki uzyskane metodami ReliefF, FCBF i SA, można zauważyć, że najbardziej odbiegają od pozostałych te, uzyskane z wykorzystaniem pierwszej procedury (ReliefF). Można więc przypuszczać, że najlepsze wyniki uzyskuje się z wykorzystaniem procedur FCBF i SA. Podsumowanie W uczeniu maszynowym redukcja wymiarowości przez selekcję cech stanowi ważne zagadnienie. Pozwala ona zmniejszyć komplikację zadania klasyfikacji, co niesie ze sobą wiele innych korzyści. W artykule przybliżono zagadnienia związane z selekcją cech. Zbadano również na trzech zbiorach danych działanie pięciu metod selekcji cech, należących do kategorii filtrów. W wyniku przeprowadzonych badań stwierdzono, że najbardziej wątpliwe wyniki określające istotność cech uzyskuje się z wykorzystaniem metody LVF. Można mieć również pewne zastrzeżenia odnośnie działania procedur CFS i ReliefF. Współczynniki istotności uzyskane w procedurze CFS nie odzwierciedlają dokładnie kolejności cech w rankingu utworzonym z wykorzystaniem tej metody. Z kolei procedura ReliefF daje rezultaty znacznie różniące się od wyników działania metod FCBF i SA, wobec czego przyjęto przypuszczenie, że spośród zbadanych metod najbardziej wiarygodne wyniki oferują procedury FCBF i SA. Należy jednak podkreślić, że zagadnienie to wymaga przeprowadzenia dalszych badań. Literatura Ahmad A., Dey L., A feature selection technique for classificatory analysis, Pattern Recognition Letters 2005, nr 26. Chizi B., Maimon O., Dimension Reduction and Feature Selection, w: Data Mining and Knowledge Discovery Handbook, red. O. Maimon, L. Rokach, Springer, Nowy Jork Cortez P., Cerdeira A., Almeida F., Matos T., Reis J., Modeling wine preferences
15 Redukcja wymiarowości i selekcja cech w zadaniach klasyfikacji i regresji 235 by data mining from physicochemical properties, Decision Support Systems 2009, nr 4. Guyon I., Practical Feature Selection: from Correlation to Causality, w: Mining massive data sets for security: advances in data mining, search, social networks and text mining, and their applications to security, red. F. Fogelman-Soulié, D. Perrotta, J. Piskorski, R. Steinberger, IOS Press, Amsterdam. Hall M.A., Correlation-based Feature Selection for Discrete and Numeric Class Machine Learning, ICML 00 Proceedings of the 17th International Conference on Machine Learning Hall M.A., Holmes G., Benchmarking Attribute Selection Techniques for Discrete Class Data Mining, IEEE Transactions on Knowledge and Data Engineering 2003, nr 3. Hall M.A., Smith L.A., Feature Selection for Machine Learning: Comparing a Correlation-based Filter Approach to the Wrapper, Proceedings of the 12th International Florida Artificial Intelligence Research Society Conference 1999, s Hand D., Mannila H., Smyth D., Eksploracja danych, WNT, Warszawa archive.ics.uci.edu/ml/index.html. Kannan S.S., Ramaraj N., A novel hybrid feature selection via Symmetrical Uncerteinty ranking based local memetic search algorithm, Knowledge-Based Systems 2010, nr 23. Kira K., Rendell L.A., A Practical Approach to Feature Selection, ML92 Proceedings of the 9th international workshop on Machine learning Kononenko I., Hong S.J., Attribute Selection for Modelling, Future Generation Computer Systems 1997, nr 2 3. Liu H., Setiono R., A Probabilistic Approach to Feature Selection A Filter Solution, Proceedings of the 13th International Conference on Machine Learning ICML 96. Liu H., Yu L., Motoda H., Feature Extraction, Selection, and Construction, w: The Handbook of Data Mining, red. N. Ye, Lawrence Erlbaum Associates, Mahwah Michalak K., Kwaśnicka H., Correlation-based feature selection strategy in classification problems, International Journal of Applied Mathematics and Computer Science 2006, nr 4. Witten I.H., Frank E., Data Mining. Practical Machine Learning Tools and Techniques, Elsevier, San Francisco Yu L., Liu H., Feature Selection for High-Dimensional Data: A Fast Correlation- Based Filter Solution, Proceedings of The 20th International Conference on Machine Leaning 2003.
16 236 Paweł Ziemba THE REDUCTION OF ASSESSMENTS AND FEATURES SELECTION IN TASKS OF CLASSIFICATION AND THE REGRESSION WITH USING MACHINE LEARNING Summary Machine learning is being used in tasks of the regression and classification. In the field of classification a multidimensional of classified objects is one of essential problems. Classification is held on the basis of the value of features. These features are reflecting dimensions of the object subjected to the classification. In the article, applied algorithms were introduced selection of features which let reduce a problem curses of dimensionality. Keywords: machine learning, feature selection, curses of dimensionality Translated by Paweł Ziemba
SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.
SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska INFORMACJE WSTĘPNE Hipotezy do uczenia się lub tworzenia
Identyfikacja istotnych atrybutów za pomocą Baysowskich miar konfirmacji
Identyfikacja istotnych atrybutów za pomocą Baysowskich miar konfirmacji Jacek Szcześniak Jerzy Błaszczyński Roman Słowiński Poznań, 5.XI.2013r. Konspekt Wstęp Wprowadzenie Metody typu wrapper Nowe metody
Metody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska
Metody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska e-mail: bartosz.krawczyk@pwr.wroc.pl Czym jest klasyfikacja
Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV
Klasyfikatory: k-nn oraz naiwny Bayesa Agnieszka Nowak Brzezińska Wykład IV Naiwny klasyfikator Bayesa Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną
Metody selekcji cech
Metody selekcji cech A po co to Często mamy do dyspozycji dane w postaci zbioru cech lecz nie wiemy które z tych cech będą dla nas istotne. W zbiorze cech mogą wystąpić cechy redundantne niosące identyczną
Maszyny wektorów podpierajacych w regresji rangowej
Maszyny wektorów podpierajacych w regresji rangowej Uniwersytet Mikołaja Kopernika Z = (X, Y ), Z = (X, Y ) - niezależne wektory losowe o tym samym rozkładzie X X R d, Y R Z = (X, Y ), Z = (X, Y ) - niezależne
Agnieszka Nowak Brzezińska
Agnieszka Nowak Brzezińska jeden z algorytmów regresji nieparametrycznej używanych w statystyce do prognozowania wartości pewnej zmiennej losowej. Może również byd używany do klasyfikacji. - Założenia
Agnieszka Nowak Brzezińska Wykład III
Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe
Agnieszka Nowak Brzezińska Wykład III
Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe
Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner
Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner Wydział Matematyki i Nauk Informacyjnych Politechnika Warszawska Elementy nieprzystające Definicja odrzucania Klasyfikacja
LEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów
LEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów Łukasz Piątek, Jerzy W. Grzymała-Busse Katedra Systemów Ekspertowych i Sztucznej Inteligencji, Wydział Informatyki
10. Redukcja wymiaru - metoda PCA
Algorytmy rozpoznawania obrazów 10. Redukcja wymiaru - metoda PCA dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. PCA Analiza składowych głównych: w skrócie nazywana PCA (od ang. Principle Component
Hierarchiczna analiza skupień
Hierarchiczna analiza skupień Cel analizy Analiza skupień ma na celu wykrycie w zbiorze obserwacji klastrów, czyli rozłącznych podzbiorów obserwacji, wewnątrz których obserwacje są sobie w jakimś określonym
CLUSTERING. Metody grupowania danych
CLUSTERING Metody grupowania danych Plan wykładu Wprowadzenie Dziedziny zastosowania Co to jest problem klastrowania? Problem wyszukiwania optymalnych klastrów Metody generowania: k centroidów (k - means
Wprowadzenie do programu RapidMiner, część 4 Michał Bereta
Wprowadzenie do programu RapidMiner, część 4 Michał Bereta www.michalbereta.pl 1. Wybór atrybutów (ang. attribute selection, feature selection). Jedną z podstawowych metod analizy współoddziaływania /
SPOTKANIE 2: Wprowadzenie cz. I
Wrocław University of Technology SPOTKANIE 2: Wprowadzenie cz. I Piotr Klukowski Studenckie Koło Naukowe Estymator piotr.klukowski@pwr.edu.pl 17.10.2016 UCZENIE MASZYNOWE 2/27 UCZENIE MASZYNOWE = Konstruowanie
Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej. Adam Żychowski
Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej Adam Żychowski Definicja problemu Każdy z obiektów może należeć do więcej niż jednej kategorii. Alternatywna definicja Zastosowania
TEORETYCZNE PODSTAWY INFORMATYKI
1 TEORETYCZNE PODSTAWY INFORMATYKI WFAiS UJ, Informatyka Stosowana I rok studiów, I stopień Wykład 16 2 Data Science: Uczenie maszynowe Uczenie maszynowe: co to znaczy? Metody Regresja Klasyfikacja Klastering
mgr inż. Magdalena Deckert Poznań, r. Metody przyrostowego uczenia się ze strumieni danych.
mgr inż. Magdalena Deckert Poznań, 30.11.2010r. Metody przyrostowego uczenia się ze strumieni danych. Plan prezentacji Wstęp Concept drift i typy zmian Algorytmy przyrostowego uczenia się ze strumieni
Elementy modelowania matematycznego
Elementy modelowania matematycznego Modelowanie algorytmów klasyfikujących. Podejście probabilistyczne. Naiwny klasyfikator bayesowski. Modelowanie danych metodą najbliższych sąsiadów. Jakub Wróblewski
Klasyfikator. ˆp(k x) = 1 K. I(ρ(x,x i ) ρ(x,x (K) ))I(y i =k),k =1,...,L,
Klasyfikator Jedną z najistotniejszych nieparametrycznych metod klasyfikacji jest metoda K-najbliższych sąsiadów, oznaczana przez K-NN. W metodzie tej zaliczamy rozpoznawany obiekt do tej klasy, do której
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny
2. Empiryczna wersja klasyfikatora bayesowskiego
Algorytmy rozpoznawania obrazów 2. Empiryczna wersja klasyfikatora bayesowskiego dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Brak pełnej informacji probabilistycznej Klasyfikator bayesowski
ALGORYTM RANDOM FOREST
SKRYPT PRZYGOTOWANY NA ZAJĘCIA INDUKOWANYCH REGUŁ DECYZYJNYCH PROWADZONYCH PRZEZ PANA PAWŁA WOJTKIEWICZA ALGORYTM RANDOM FOREST Katarzyna Graboś 56397 Aleksandra Mańko 56699 2015-01-26, Warszawa ALGORYTM
Badania w sieciach złożonych
Badania w sieciach złożonych Grant WCSS nr 177, sprawozdanie za rok 2012 Kierownik grantu dr. hab. inż. Przemysław Kazienko mgr inż. Radosław Michalski Instytut Informatyki Politechniki Wrocławskiej Obszar
Konkurs z przedmiotu eksploracja i analiza danych: problem regresji i klasyfikacji
Konkurs z przedmiotu eksploracja i analiza danych: problem regresji i klasyfikacji Michał Witczak Data Mining 20 maja 2012 r. 1. Wstęp Dostarczone zostały nam 4 pliki, z których dwa stanowiły zbiory uczące
Data Mining Wykład 5. Indukcja drzew decyzyjnych - Indeks Gini & Zysk informacyjny. Indeks Gini. Indeks Gini - Przykład
Data Mining Wykład 5 Indukcja drzew decyzyjnych - Indeks Gini & Zysk informacyjny Indeks Gini Popularnym kryterium podziału, stosowanym w wielu produktach komercyjnych, jest indeks Gini Algorytm SPRINT
Wybór / ocena atrybutów na podstawie oceny jakości działania wybranego klasyfikatora.
Wprowadzenie do programu RapidMiner Studio 7.6, część 7 Podstawy metod wyboru atrybutów w problemach klasyfikacyjnych, c.d. Michał Bereta www.michalbereta.pl Wybór / ocena atrybutów na podstawie oceny
Pattern Classification
Pattern Classification All materials in these slides were taken from Pattern Classification (2nd ed) by R. O. Duda, P. E. Hart and D. G. Stork, John Wiley & Sons, 2000 with the permission of the authors
Multiklasyfikatory z funkcją kompetencji
3 stycznia 2011 Problem klasyfikacji Polega na przewidzeniu dyskretnej klasy na podstawie cech obiektu. Obiekt jest reprezentowany przez wektor cech Zbiór etykiet jest skończony x X Ω = {ω 1, ω 2,...,
Widzenie komputerowe (computer vision)
Widzenie komputerowe (computer vision) dr inż. Marcin Wilczewski 2018/2019 Organizacja zajęć Tematyka wykładu Cele Python jako narzędzie uczenia maszynowego i widzenia komputerowego. Binaryzacja i segmentacja
Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18
Eksploracja Danych wykład 4 Sebastian Zając WMP.SNŚ UKSW 10 maja 2017 Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja 2017 1 / 18 Klasyfikacja danych Klasyfikacja Najczęściej stosowana (najstarsza)
Drzewa decyzyjne. Inteligentne Obliczenia. Wydział Mechatroniki Politechniki Warszawskiej. Anna Sztyber
Drzewa decyzyjne Inteligentne Obliczenia Wydział Mechatroniki Politechniki Warszawskiej Anna Sztyber INO (IAiR PW) Drzewa decyzyjne Anna Sztyber / Drzewa decyzyjne w podstawowej wersji algorytm klasyfikacji
Selekcja modelu liniowego i predykcja metodami losowych podprzestrzeni
Selekcja modelu liniowego i predykcja metodami losowych podprzestrzeni Paweł Teisseyre Instytut Podstaw Informatyki, Polska Akademia Nauk Paweł Teisseyre Selekcja modelu liniowego i predykcja 1 / 29 Plan
Rozmyte drzewa decyzyjne. Łukasz Ryniewicz Metody inteligencji obliczeniowej
µ(x) x µ(x) µ(x) x x µ(x) µ(x) x x µ(x) x µ(x) x Rozmyte drzewa decyzyjne Łukasz Ryniewicz Metody inteligencji obliczeniowej 21.05.2007 AGENDA 1 Drzewa decyzyjne kontra rozmyte drzewa decyzyjne, problemy
INDUKOWANE REGUŁY DECYZYJNE ALORYTM APRIORI JAROSŁAW FIBICH
INDUKOWANE REGUŁY DECYZYJNE ALORYTM APRIORI JAROSŁAW FIBICH 1. Czym jest eksploracja danych Eksploracja danych definiowana jest jako zbiór technik odkrywania nietrywialnych zależności i schematów w dużych
Analiza składowych głównych. Wprowadzenie
Wprowadzenie jest techniką redukcji wymiaru. Składowe główne zostały po raz pierwszy zaproponowane przez Pearsona(1901), a następnie rozwinięte przez Hotellinga (1933). jest zaliczana do systemów uczących
Ewelina Dziura Krzysztof Maryański
Ewelina Dziura Krzysztof Maryański 1. Wstęp - eksploracja danych 2. Proces Eksploracji danych 3. Reguły asocjacyjne budowa, zastosowanie, pozyskiwanie 4. Algorytm Apriori i jego modyfikacje 5. Przykład
Analiza danych. http://zajecia.jakubw.pl/ TEMATYKA PRZEDMIOTU
Analiza danych Wstęp Jakub Wróblewski jakubw@pjwstk.edu.pl http://zajecia.jakubw.pl/ TEMATYKA PRZEDMIOTU Różne aspekty analizy danych Reprezentacja graficzna danych Metody statystyczne: estymacja parametrów
Projekt Sieci neuronowe
Projekt Sieci neuronowe Chmielecka Katarzyna Gr. 9 IiE 1. Problem i dane Sieć neuronowa miała za zadanie nauczyć się klasyfikować wnioski kredytowe. W projekcie wykorzystano dane pochodzące z 110 wniosków
Drzewa decyzyjne i lasy losowe
Drzewa decyzyjne i lasy losowe Im dalej w las tym więcej drzew! ML Gdańsk http://www.mlgdansk.pl/ Marcin Zadroga https://www.linkedin.com/in/mzadroga/ 20 Czerwca 2017 WPROWADZENIE DO MACHINE LEARNING CZYM
WYZNACZANIE NIEPEWNOŚCI POMIARU METODAMI SYMULACYJNYMI
WYZNACZANIE NIEPEWNOŚCI POMIARU METODAMI SYMULACYJNYMI Stefan WÓJTOWICZ, Katarzyna BIERNAT ZAKŁAD METROLOGII I BADAŃ NIENISZCZĄCYCH INSTYTUT ELEKTROTECHNIKI ul. Pożaryskiego 8, 04-703 Warszawa tel. (0)
Klasyfikacja obiektów Drzewa decyzyjne (drzewa klasyfikacyjne)
Klasyfikacja obiektów Drzewa decyzyjne (drzewa klasyfikacyjne) Tadeusz Pankowski www.put.poznan.pl/~tadeusz.pankowski Klasyfikacja i predykcja. Odkrywaniem reguł klasyfikacji nazywamy proces znajdowania
Analiza zawartości dokumentów za pomocą probabilistycznych modeli graficznych
Analiza zawartości dokumentów za pomocą probabilistycznych modeli graficznych Probabilistic Topic Models Jakub M. TOMCZAK Politechnika Wrocławska, Instytut Informatyki 30.03.2011, Wrocław Plan 1. Wstęp
Algorytmy metaheurystyczne Wykład 11. Piotr Syga
Algorytmy metaheurystyczne Wykład 11 Piotr Syga 22.05.2017 Drzewa decyzyjne Idea Cel Na podstawie przesłanek (typowo zbiory rozmyte) oraz zbioru wartości w danych testowych, w oparciu o wybrane miary,
Wnioskowanie bayesowskie
Wnioskowanie bayesowskie W podejściu klasycznym wnioskowanie statystyczne oparte jest wyłącznie na podstawie pobranej próby losowej. Możemy np. estymować punktowo lub przedziałowo nieznane parametry rozkładów,
ANALIZA ZDOLNOŚCI PROCESU O ZALEŻNYCH CHARAKTERYSTYKACH
Małgorzata Szerszunowicz Uniwersytet Ekonomiczny w Katowicach ANALIZA ZDOLNOŚCI PROCESU O ZALEŻNYCH CHARAKTERYSTYKACH Wprowadzenie Statystyczna kontrola jakości ma na celu doskonalenie procesu produkcyjnego
ZJAZD 4. gdzie E(x) jest wartością oczekiwaną x
ZJAZD 4 KORELACJA, BADANIE NIEZALEŻNOŚCI, ANALIZA REGRESJI Analiza korelacji i regresji jest działem statystyki zajmującym się badaniem zależności i związków pomiędzy rozkładami dwu lub więcej badanych
Eksploracja danych. KLASYFIKACJA I REGRESJA cz. 2. Wojciech Waloszek. Teresa Zawadzka.
Eksploracja danych KLASYFIKACJA I REGRESJA cz. 2 Wojciech Waloszek wowal@eti.pg.gda.pl Teresa Zawadzka tegra@eti.pg.gda.pl Katedra Inżynierii Oprogramowania Wydział Elektroniki, Telekomunikacji i Informatyki
METODY CHEMOMETRYCZNE W IDENTYFIKACJI ŹRÓDEŁ POCHODZENIA
METODY CHEMOMETRYCZNE W IDENTYFIKACJI ŹRÓDEŁ POCHODZENIA AMFETAMINY Waldemar S. Krawczyk Centralne Laboratorium Kryminalistyczne Komendy Głównej Policji, Warszawa (praca obroniona na Wydziale Chemii Uniwersytetu
Wprowadzenie do uczenia maszynowego
Wprowadzenie do uczenia maszynowego Agnieszka Ławrynowicz 12 stycznia 2017 Co to jest uczenie maszynowe? dziedzina nauki, która zajmuje się sprawianiem aby komputery mogły uczyć się bez ich zaprogramowania
Regresyjne metody łączenia klasyfikatorów
Regresyjne metody łączenia klasyfikatorów Tomasz Górecki, Mirosław Krzyśko Wydział Matematyki i Informatyki Uniwersytet im. Adama Mickiewicza XXXV Konferencja Statystyka Matematyczna Wisła 7-11.12.2009
Algorytmy redukcji danych w uczeniu maszynowym i eksploracji danych. Dr inŝ. Ireneusz Czarnowski Akademia Morska w Gdyni
Algorytmy redukcji danych w uczeniu maszynowym i eksploracji danych Dr inŝ. Ireneusz Czarnowski Akademia Morska w Gdyni Plan seminarium Wprowadzenie Redukcja danych Zintegrowany model uczenia maszynowego
Zastosowanie sztucznej inteligencji w testowaniu oprogramowania
Zastosowanie sztucznej inteligencji w testowaniu oprogramowania Problem NP Problem NP (niedeterministycznie wielomianowy, ang. nondeterministic polynomial) to problem decyzyjny, dla którego rozwiązanie
PDF created with FinePrint pdffactory Pro trial version http://www.fineprint.com
Analiza korelacji i regresji KORELACJA zależność liniowa Obserwujemy parę cech ilościowych (X,Y). Doświadczenie jest tak pomyślane, aby obserwowane pary cech X i Y (tzn i ta para x i i y i dla różnych
8. Drzewa decyzyjne, bagging, boosting i lasy losowe
Algorytmy rozpoznawania obrazów 8. Drzewa decyzyjne, bagging, boosting i lasy losowe dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Drzewa decyzyjne Drzewa decyzyjne (ang. decision trees), zwane
Metody Programowania
POLITECHNIKA KRAKOWSKA - WIEiK KATEDRA AUTOMATYKI i TECHNIK INFORMACYJNYCH Metody Programowania www.pk.edu.pl/~zk/mp_hp.html Wykładowca: dr inż. Zbigniew Kokosiński zk@pk.edu.pl Wykład 8: Wyszukiwanie
4.3 Grupowanie według podobieństwa
4.3 Grupowanie według podobieństwa Przykłady obiektów to coś więcej niż wektory wartości atrybutów. Reprezentują one poszczególne rasy psów. Ważnym pytaniem, jakie można sobie zadać, jest to jak dobrymi
Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych. Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS
Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS Dyskretyzacja - definicja Dyskretyzacja - zamiana atrybutów
ANALIZA WŁAŚCIWOŚCI FILTRU PARAMETRYCZNEGO I RZĘDU
POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 78 Electrical Engineering 2014 Seweryn MAZURKIEWICZ* Janusz WALCZAK* ANALIZA WŁAŚCIWOŚCI FILTRU PARAMETRYCZNEGO I RZĘDU W artykule rozpatrzono problem
Klasyfikacja LDA + walidacja
Klasyfikacja LDA + walidacja Dr hab. Izabela Rejer Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Plan wykładu 1. Klasyfikator 2. LDA 3. Klasyfikacja wieloklasowa 4. Walidacja
WIELOKRYTERIALNE PORZĄDKOWANIE METODĄ PROMETHEE ODPORNE NA ZMIANY WAG KRYTERIÓW
Uniwersytet Ekonomiczny we Wrocławiu WIELOKRYTERIALNE PORZĄDKOWANIE METODĄ PROMETHEE ODPORNE NA ZMIANY WAG KRYTERIÓW Wprowadzenie Wrażliwość wyników analizy wielokryterialnej na zmiany wag kryteriów, przy
ρ siła związku korelacyjnego brak słaba średnia silna bardzo silna
Ćwiczenie 4 ANALIZA KORELACJI, BADANIE NIEZALEŻNOŚCI Analiza korelacji jest działem statystyki zajmującym się badaniem zależności pomiędzy rozkładami dwu lub więcej badanych cech w populacji generalnej.
Detekcja punktów zainteresowania
Informatyka, S2 sem. Letni, 2013/2014, wykład#8 Detekcja punktów zainteresowania dr inż. Paweł Forczmański Katedra Systemów Multimedialnych, Wydział Informatyki ZUT 1 / 61 Proces przetwarzania obrazów
Mail: Pokój 214, II piętro
Wykład 2 Mail: agnieszka.nowak@us.edu.pl Pokój 214, II piętro http://zsi.tech.us.edu.pl/~nowak Predykcja zdolność do wykorzystania wiedzy zgromadzonej w systemie do przewidywania wartości dla nowych danych,
Data Mining Wykład 9. Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster. Plan wykładu. Sformułowanie problemu
Data Mining Wykład 9 Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster Plan wykładu Wprowadzanie Definicja problemu Klasyfikacja metod grupowania Grupowanie hierarchiczne Sformułowanie problemu
SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006
SAS wybrane elementy DATA MINING Część III Seweryn Kowalski 2006 Algorytmy eksploracji danych Algorytm eksploracji danych jest dobrze zdefiniowaną procedurą, która na wejściu otrzymuje dane, a na wyjściu
Drzewa Decyzyjne, cz.2
Drzewa Decyzyjne, cz.2 Inteligentne Systemy Decyzyjne Katedra Systemów Multimedialnych WETI, PG Opracowanie: dr inŝ. Piotr Szczuko Podsumowanie poprzedniego wykładu Cel: przewidywanie wyniku (określania
Konferencja Statystyka Matematyczna Wisła 2013
Konferencja Statystyka Matematyczna Wisła 2013 Wykorzystanie metod losowych podprzestrzeni do predykcji i selekcji zmiennych Paweł Teisseyre Instytut Podstaw Informatyki, Polska Akademia Nauk Paweł Teisseyre
Rozpoznawanie obrazów
Rozpoznawanie obrazów Laboratorium Python Zadanie nr 1 Regresja liniowa autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, M. Zięba, J. Kaczmar Cel zadania Celem zadania jest implementacja liniowego zadania
Wybrane zagadnienia uczenia maszynowego. Zastosowania Informatyki w Informatyce W2 Krzysztof Krawiec
Wybrane zagadnienia uczenia maszynowego Zastosowania Informatyki w Informatyce W2 Krzysztof Krawiec Przygotowane na podstawie T. Mitchell, Machine Learning S.J. Russel, P. Norvig, Artificial Intelligence
Wprowadzenie do analizy korelacji i regresji
Statystyka dla jakości produktów i usług Six sigma i inne strategie Wprowadzenie do analizy korelacji i regresji StatSoft Polska Wybrane zagadnienia analizy korelacji Przy analizie zjawisk i procesów stanowiących
REGRESJA I KORELACJA MODEL REGRESJI LINIOWEJ MODEL REGRESJI WIELORAKIEJ. Analiza regresji i korelacji
Statystyka i opracowanie danych Ćwiczenia 5 Izabela Olejarczyk - Wożeńska AGH, WIMiIP, KISIM REGRESJA I KORELACJA MODEL REGRESJI LINIOWEJ MODEL REGRESJI WIELORAKIEJ MODEL REGRESJI LINIOWEJ Analiza regresji
Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.
Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 211-1-18 1 Pomysł Przykłady Zastosowanie 2
Klasyfikator liniowy Wstęp Klasyfikator liniowy jest najprostszym możliwym klasyfikatorem. Zakłada on liniową separację liniowy podział dwóch klas między sobą. Przedstawia to poniższy rysunek: 5 4 3 2
Statystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności. dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl
Statystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl Statystyczna teoria korelacji i regresji (1) Jest to dział statystyki zajmujący
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych
Ćwiczenie 12. Metody eksploracji danych
Ćwiczenie 12. Metody eksploracji danych Modelowanie regresji (Regression modeling) 1. Zadanie regresji Modelowanie regresji jest metodą szacowania wartości ciągłej zmiennej celu. Do najczęściej stosowanych
Algorytm indukcji klasyfikatora za pomocą EA z automatycznym przełączaniem ukierunkowań
Algorytm indukcji klasyfikatora za pomocą EA z automatycznym przełączaniem ukierunkowań Anna Manerowska, Michal Kozakiewicz 2.12.2009 1 Wstęp Jako projekt na przedmiot MEUM (Metody Ewolucyjne Uczenia Maszyn)
Korelacja krzywoliniowa i współzależność cech niemierzalnych
Korelacja krzywoliniowa i współzależność cech niemierzalnych Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Inteligencji i Metod Matematycznych Wydział Informatyki Politechniki Szczecińskiej
SCENARIUSZ LEKCJI. TEMAT LEKCJI: Zastosowanie średnich w statystyce i matematyce. Podstawowe pojęcia statystyczne. Streszczenie.
SCENARIUSZ LEKCJI OPRACOWANY W RAMACH PROJEKTU: INFORMATYKA MÓJ SPOSÓB NA POZNANIE I OPISANIE ŚWIATA. PROGRAM NAUCZANIA INFORMATYKI Z ELEMENTAMI PRZEDMIOTÓW MATEMATYCZNO-PRZYRODNICZYCH Autorzy scenariusza:
Bazy danych. Zachodniopomorski Uniwersytet Technologiczny w Szczecinie. Wykład 3: Model związków encji.
Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Bazy danych Wykład 3: Model związków encji. dr inż. Magdalena Krakowiak makrakowiak@wi.zut.edu.pl Co to jest model związków encji? Model związków
Algorytm grupowania danych typu kwantyzacji wektorów
Algorytm grupowania danych typu kwantyzacji wektorów Wstęp Definicja problemu: Typowe, rozważane dotychczas problemy koncentrowały się na nauczeniu na podstawie zbioru treningowego i zbioru etykiet klasyfikacji
Metody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 2 κ-nn i Naive Bayes autorzy: M. Zięba, J.M. Tomczak, A. Gonczarek, S. Zaręba Cel zadania Celem zadania jest implementacja klasyfikatorów
IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ
IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,
Eksploracja danych - wykład II
- wykład 1/29 wykład - wykład Instytut Informatyki Teoretycznej i Stosowanej Politechnika Częstochowska Październik 2015 - wykład 2/29 W kontekście odkrywania wiedzy wykład - wykład 3/29 CRISP-DM - standaryzacja
Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład I dr inż. 2015/2016
Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład I dr inż. Bogumil.Konopka@pwr.edu.pl 2015/2016 1 Wykład I - plan Sprawy organizacyjne Uczenie maszynowe podstawowe pojęcia Proces modelowania
PROGRAMOWANIE DYNAMICZNE W ROZMYTYM OTOCZENIU DO STEROWANIA STATKIEM
Mostefa Mohamed-Seghir Akademia Morska w Gdyni PROGRAMOWANIE DYNAMICZNE W ROZMYTYM OTOCZENIU DO STEROWANIA STATKIEM W artykule przedstawiono propozycję zastosowania programowania dynamicznego do rozwiązywania
Metody klasyfikacji danych - część 1 p.1/24
Metody klasyfikacji danych - część 1 Inteligentne Usługi Informacyjne Jerzy Dembski Metody klasyfikacji danych - część 1 p.1/24 Plan wykładu - Zadanie klasyfikacji danych - Przeglad problemów klasyfikacji
Testowanie modeli predykcyjnych
Testowanie modeli predykcyjnych Wstęp Podczas budowy modelu, którego celem jest przewidywanie pewnych wartości na podstawie zbioru danych uczących poważnym problemem jest ocena jakości uczenia i zdolności
Regresja wielokrotna. PDF created with FinePrint pdffactory Pro trial version http://www.fineprint.com
Regresja wielokrotna Model dla zależności liniowej: Y=a+b 1 X 1 +b 2 X 2 +...+b n X n Cząstkowe współczynniki regresji wielokrotnej: b 1,..., b n Zmienne niezależne (przyczynowe): X 1,..., X n Zmienna
Rozpoznawanie obrazów
Rozpoznawanie obrazów Laboratorium Python Zadanie nr 2 κ-nn i Naive Bayes autorzy: M. Zięba, J.M. Tomczak, A. Gonczarek, S. Zaręba, J. Kaczmar Cel zadania Celem zadania jest implementacja klasyfikatorów
Badanie zależności skala nominalna
Badanie zależności skala nominalna I. Jak kształtuje się zależność miedzy płcią a wykształceniem? II. Jak kształtuje się zależność między płcią a otyłością (opis BMI)? III. Jak kształtuje się zależność
METODY INŻYNIERII WIEDZY
METODY INŻYNIERII WIEDZY WALIDACJA KRZYŻOWA dla ZAAWANSOWANEGO KLASYFIKATORA KNN ĆWICZENIA Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej
Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I
Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:
1.7. Eksploracja danych: pogłębianie, przeszukiwanie i wyławianie
Wykaz tabel Wykaz rysunków Przedmowa 1. Wprowadzenie 1.1. Wprowadzenie do eksploracji danych 1.2. Natura zbiorów danych 1.3. Rodzaje struktur: modele i wzorce 1.4. Zadania eksploracji danych 1.5. Komponenty
Analiza głównych składowych- redukcja wymiaru, wykł. 12
Analiza głównych składowych- redukcja wymiaru, wykł. 12 Joanna Jędrzejowicz Instytut Informatyki Konieczność redukcji wymiaru w eksploracji danych bazy danych spotykane w zadaniach eksploracji danych mają
Inteligentna analiza danych
Numer indeksu 150946 Michał Moroz Imię i nazwisko Numer indeksu 150875 Grzegorz Graczyk Imię i nazwisko kierunek: Informatyka rok akademicki: 2010/2011 Inteligentna analiza danych Ćwiczenie I Wskaźniki
Nowe narzędzia zarządzania jakością
Nowe narzędzia zarządzania jakością Agnieszka Michalak 106947 Piotr Michalak 106928 Filip Najdek 106946 Co to jest? Nowe narzędzia jakości - grupa siedmiu nowych narzędzi zarządzania jakością, które mają
Laboratorium 10. Odkrywanie cech i algorytm Non-Negative Matrix Factorization.
Laboratorium 10 Odkrywanie cech i algorytm Non-Negative Matrix Factorization. 1. Uruchom narzędzie Oracle Data Miner i połącz się z serwerem bazy danych. 2. Z menu głównego wybierz Activity Build. Na ekranie