Selekcja cech. Wprowadzenie Metody selekcji cech. Przykład zastosowania. Miary niepodobieństwa. Algorytmy przeszukiwania

Podobne dokumenty
Metody selekcji cech

ALGORYTMY GENETYCZNE ćwiczenia

Algorytm genetyczny (genetic algorithm)-

Algorytmy ewolucyjne - algorytmy genetyczne. I. Karcz-Dulęba

Algorytmy ewolucyjne NAZEWNICTWO

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

SCHEMAT ROZWIĄZANIA ZADANIA OPTYMALIZACJI PRZY POMOCY ALGORYTMU GENETYCZNEGO

Algorytmy genetyczne. Materiały do laboratorium PSI. Studia niestacjonarne

ALHE Z11 Jarosław Arabas wykład 11

Algorytmy genetyczne. Materiały do laboratorium PSI. Studia stacjonarne i niestacjonarne

Zadania laboratoryjne i projektowe - wersja β

Dobór parametrów algorytmu ewolucyjnego

SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska

Klasyfikator. ˆp(k x) = 1 K. I(ρ(x,x i ) ρ(x,x (K) ))I(y i =k),k =1,...,L,

6. Klasyczny algorytm genetyczny. 1

Algorytmy genetyczne. Paweł Cieśla. 8 stycznia 2009

Algorytm Genetyczny. zastosowanie do procesów rozmieszczenia stacji raportujących w sieciach komórkowych

Strategie ewolucyjne. Gnypowicz Damian Staniszczak Łukasz Woźniak Marek

PLAN WYKŁADU OPTYMALIZACJA GLOBALNA OPERATOR KRZYŻOWANIA ETAPY KRZYŻOWANIA

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

SPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization

Hierarchiczna analiza skupień

Metody systemowe i decyzyjne w informatyce

Algorytmy genetyczne w interpolacji wielomianowej

ALGORYTMY EWOLUCYJNE W OPTYMALIZACJI JEDNOKRYTERIALNEJ

Data Mining Wykład 9. Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster. Plan wykładu. Sformułowanie problemu

Algorytmy metaheurystyczne Wykład 11. Piotr Syga

Algorytmy ewolucyjne. Łukasz Przybyłek Studenckie Koło Naukowe BRAINS

Rozpoznawanie obrazów

Podejście memetyczne do problemu DCVRP - wstępne wyniki. Adam Żychowski

Metody Rozmyte i Algorytmy Ewolucyjne

Obliczenia ewolucyjne - plan wykładu

Strefa pokrycia radiowego wokół stacji bazowych. Zasięg stacji bazowych Zazębianie się komórek

METODY SZTUCZNEJ INTELIGENCJI algorytmy ewolucyjne

ALHE. prof. Jarosław Arabas semestr 15Z

Wybór / ocena atrybutów na podstawie oceny jakości działania wybranego klasyfikatora.

LABORATORIUM 4: Algorytmy ewolucyjne cz. 2 wpływ operatorów krzyżowania i mutacji na skuteczność poszukiwań AE

Automatyczny dobór parametrów algorytmu genetycznego

Estymacja punktowa i przedziałowa

Metody Optymalizacji: Przeszukiwanie z listą tabu

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Optymalizacja. Wybrane algorytmy

Zadanie 5 - Algorytmy genetyczne (optymalizacja)

Algorytmy memetyczne (hybrydowe algorytmy ewolucyjne)

Wybrane podstawowe rodzaje algorytmów

Algorytmy genetyczne

Idea. Algorytm zachłanny Algorytmy hierarchiczne Metoda K-średnich Metoda hierarchiczna, a niehierarchiczna. Analiza skupień

przetworzonego sygnału

Zadanie transportowe i problem komiwojażera. Tadeusz Trzaskalik

Spacery losowe generowanie realizacji procesu losowego

Algorytmy genetyczne

Algorytmy genetyczne. Dariusz Banasiak. Katedra Informatyki Technicznej Wydział Elektroniki

Aproksymacja funkcji a regresja symboliczna

Grupowanie Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 201/633

Algorytmy metaheurystyczne Wykład 6. Piotr Syga

Algorytmy ewolucyjne 1

STATYSTYKA MAŁYCH OBSZARÓW IV. EMPIRYCZNY NAJLEPSZY PREDYKTOR

Metody przeszukiwania

Wprowadzenie. Data Science Uczenie się pod nadzorem

Rozpoznawanie obrazów

Elementy statystyki wielowymiarowej

Algorytmy stochastyczne, wykład 01 Podstawowy algorytm genetyczny

4.1. Wprowadzenie Podstawowe definicje Algorytm określania wartości parametrów w regresji logistycznej...74

Co to jest grupowanie

Testowanie hipotez statystycznych

Prawdopodobieństwo i statystyka r.

Idea. θ = θ 0, Hipoteza statystyczna Obszary krytyczne Błąd pierwszego i drugiego rodzaju p-wartość

Fuzja sygnałów i filtry bayesowskie

KADD Minimalizacja funkcji

Techniki optymalizacji

Techniki optymalizacji

Metody numeryczne I Równania nieliniowe

Jądrowe klasyfikatory liniowe

Optymalizacja optymalizacji

Matematyka ubezpieczeń majątkowych r.

Algorytmy mrówkowe (optymalizacja kolonii mrówek, Ant Colony optimisation)

Pattern Classification

Komputerowa Analiza Danych Doświadczalnych

Optymalizacja systemów

Pobieranie prób i rozkład z próby

Algorytmy genetyczne

Odkrywanie algorytmów kwantowych za pomocą programowania genetycznego

Weryfikacja hipotez statystycznych

Politechnika Wrocławska Wydział Elektroniki INFORMATYKA SYSTEMÓW AUTONOMICZNYCH. Heurystyka, co to jest, potencjalne zastosowania

Testowanie hipotez statystycznych.

Agnieszka Nowak Brzezińska Wykład III

KADD Metoda najmniejszych kwadratów funkcje nieliniowe

Algorytmy ewolucyjne (3)

Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1

LABORATORIUM 3: Wpływ operatorów krzyżowania na skuteczność poszukiwań AE

Algorytmy genetyczne w optymalizacji

Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej

Metody systemowe i decyzyjne w informatyce

Luty 2001 Algorytmy (4) 2000/2001

Kompresja danych Streszczenie Studia Dzienne Wykład 10,

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

Techniki optymalizacji

IV WYKŁAD STATYSTYKA. 26/03/2014 B8 sala 0.10B Godz. 15:15

Identyfikacja istotnych atrybutów za pomocą Baysowskich miar konfirmacji

Elementy modelowania matematycznego

Transkrypt:

Selekcja cech Wprowadzenie Metody selekcji cech Miary niepodobieństwa Algorytmy przeszukiwania Przykład zastosowania

Wprowadzenie 2 Cel selekcji: dobór cech obiektu, na których opierać się będzie klasyfikacja spośród p dostępnych pomiarów należy wybrać podzbiór d cech, które mają istotny wpływ na wyniki klasyfikacji lub na separowalność zbioru danych x Selekcja cech f(x) x p

3 Korzyści uproszczenie klasyfikatora (klątwa wymiarowości) zwiększenie jakości klasyfikacji i zdolności uogólniania pozbycie się mało istotnej informacji ułatwienie graficznej wizualizacji zbioru danych

4 Określenie kryterium jakości selekcji J prowadzi do zadań optymalizacji: ze zbioru X d wszystkich podzbiorów o rozmiarze d zbioru p pomiarów, wybrać taki podzbiór X ~ d, dla którego J ~ ( X ) = max J ( X ) d X X d

5 Oznaczenia Wektory średnich z próby m i = n ni j= z ij x gdzie j średnia z próby dla klasy ω i z ij i dla x j ωi = 0 w przec.przyp n n i = z ij j= m = C i= ni n m i średnia dla całego zbioru

6 Macierze kowariancji Σ Σ i macierz kowariancji dla całego zbioru macierz kowariancji dla klasy ω i Estymatory największej wiarygodności: Σˆ = n ( x j m) ( x j m) n j= T Σˆ i = n ni j= z ij ( x m ) ( x m ) Nieobciążony estymator kowariancji ma postać j i j i T n n Σˆ

7 Macierze rozproszenia S W = C i= ni n ˆΣ i macierz rozproszenia wewnątrz klas S = n n C S W nieobciążony estymator macierzy S W S B C = i= ni n ( m m)( m m) T i i macierz kowariancji między klasami Zauważmy, że: S B + S W = Σˆ

Metody selekcji cech 8 Sformułowanie problemu Dane: zbiór pomiarów p cech kryterium jakości, oceniające separowalność zbioru Szukane: najlepszy (w sensie przyjętego kryterium) podzbiór d cech Przestrzeń rozwiązań Liczba możliwych podzbiorów cech: n d = p = d p! ( p d)! d! Przykładowo, wybierając 0 cech spośród 25, mamy 3 268 760 możliwości.

Metody oceny podzbioru cech 9 Metody filtrujące (filters approaches): rankingi cech oparte na statystykach Inne metody niezależne od klasyfikatora: np. oparte o pokrycie (overlap) rozkładów danych lub o teorię informacji Metody opakowujące (wrapper aproach): klasyfikator jest czarną skrzynką służącą do oceny cech na podstawie wyników klasyfikacji Metody zagnieżdżające (embedded aproach): selekcja cech z jednoczesnym uczeniem klasyfikatora

0 Miary niepodobieństwa Jeżeli d rs jest niepodobieństwem obiektów s i r, to: ) d rs 0 dla wszystkich r, s 2) d rr = 0 dla każdego r 3) d rs = d sr dla wszystkich r, s Jeżeli dodatkowo spełniony jest warunek: 4) d rt + d ts d rs dla wszystkich r, s, t (nierówność trójkąta) to miara niepodobieństwa jest metryką.

Miary podobieństwa Miarę niepodobieństwa d rs można przekształcić na miarę podobieństwa s rs, na przykład: s rs = + d rs lub s = c rs d rs, gdzie c jest stałą

2 Miary niepodobieństwa pomiędzy wektorami Wektory cech: x = [x, x 2,, x p ] T, y = [y, y 2,, y p ] T Odległość Euklidesowa d = p ( x i y i ) i= 2 Odległość Manhattan d = p i= x i y i Odległość Czebyszewa d = max i x i y i Odległość Minkowskiego d p m = ( x i y i ) i = m, m - rząd Odległość Mahalanobisa d = ( x y) Σ ( x y)

3 Miary niepodobieństwa pomiędzy rozkładami Miara niepodobieństwa J(ω, ω 2 ) rozkładów klas spełnia warunki: ) J = 0 dla identycznych rozkładów, tj. dla p(x ω ) = p(x ω 2 ) 2) J 0 3) J osiąga maksimum, gdy klasy są rozłączne, tj. gdy p(x ω ) = 0 oraz p(x ω 2 ) 0 Empiryczne średni stopień separowalności Dla n obiektów z klasy ω i n 2 obiektów z klasy ω 2 : J n n2 ( ω, ω2 ) = d( xi, y j ) n n 2 i= j=

Miary niepodobieństwa pomiędzy rozkładami Oparte o rozkłady warunkowe dywergencja Kullbacka-Leiblera Dla rozkładów normalnych ze średnimi μ, μ 2 i macierzami kowariancji Σ, Σ 2 dywergencja przyjmuje postać: Jeżeli macierze kowariancji są równe, tj. Σ = Σ 2 = Σ, to dywergencja ma postać identyczną z odległością Mahalanobisa: 4, Chapter Statistical Pattern Recognition 9 ( ) [ ] = x x x x x d p p p p J ) ( ) ( log ) ( ) (, 2 2 2 ω ω ω ω ω ω ( ) { } I Σ Σ Σ Σ μ μ Σ Σ μ μ 2 Tr ) ( ) ( 2 2 2 2 2 2 + + + = T J ) ( ) ( 2 2 μ μ Σ μ μ = T J

5 Miary niepodobieństwa pomiędzy rozkładami Przypadek wieloklasowy: J = C C i= j= i j ( ω, ) p( ω ) p( ω ) J ω i j J = i< j ( ω ω ) p( ω ) p( ω ) J, i j i j J = max i, j( i j) J ( ω, ω ) i j Miary niepodobieństwa mogą być wyznaczane w sposób rekurencyjny. Pozwala to ograniczyć nakłady obliczeniowe dla algorytmów przeszukiwania przestrzeni podzbiorów cech.

6 Algorytmy przeszukiwania przestrzeni podzbiorów cech Dziel i zwyciężaj (branch and bound) Metody heurystyczne (suboptymalne) N najlepszych cech SFS Sequential Forward Selection SBS Sequential Backward Selection Metoda dodaj l, odrzuć r Floating Search Methods Metody randomizowane Symulowane wyżarzanie Algorytm genetyczny

7 Dziel i zwyciężaj (branch and bound) Dla dwóch podzbiorów cech zachodzi: ( X ) J ( Y ) X Y J < Można tę własność wykorzystać do dokładnego przeszukiwania przestrzeni podzbiorów cech, bez konieczności sprawdzania wszystkich rozwiązań. Przykład: wybór zestawu 3 najlepszych cech spośród 5-ciu. pomijana cecha {,2,3,4,5} 2 3 4 {2,3,4,5} {,3,4,5} {,2,4,5} {,2,3,5} 2 3 4 5 3 4 5 4 5 5 {3,4,5} {2,4,5} {2,3,5} {2,3,4} {,4,5} {,3,5} {,3,4} {,2,5} {,2,4} {,2,3}

wartość kryterium J 92. {,2,3,4,5} 8 76.7 {2,3,4,5} 60.9 {,3,4,5} {,2,4,5} 80.4 8.6 {,2,3,5} 80. 76.2 77.2 {3,4,5} {2,4,5} {2,3,5} {2,3,4} {,4,5} {,3,5} {,3,4} {,2,5} {,2,4} {,2,3} Przeszukiwanie drzewa rozpoczynamy od strony zawierającej mniej rozgałęzień Zapamiętujemy największą wartość kryterium z odwiedzonych liści Jeżeli wartość kryterium w odwiedzanym węźle jest mniejsza od zapamiętanej, odrzucamy tę gałąź drzewa Najczęściej stosowanym kryterium jest odległość Mahalanobisa, które dla dwóch klas przyjmuje postać: T Σ + Σ2 J = ( μ2 μ) ( μ2 μ) 2 Pattern Classification, Chapter 6

9 N najlepszych cech ) Wyznaczenie wartości kryterium jakości dla każdej cechy z osobna 2) Uszeregowanie cech tak, aby: J ( x ) J ( x2) 3) Wybór N pierwszych cech J ( x p ) Algorytm nie uwzględnia zależności pomiędzy cechami

20 SFS Sequential Forward Selection n-ta iteracja algorytmu: ) Dany jest podzbiór k cech X k (w kroku n = 0 podzbiór X k jest pusty) 2) Dla każdej z p k pominiętych cech ξ j wyznacz wartość kryterium J = J j X k ( ξ ) 3) Utwórz nowy podzbiór X k+ dodając do podzbioru X k tę cechę, dla której wartość kryterium J j jest największa (krok w przód) 4) Zakończ algorytm, gdy k przekracza przyjęte maksimum lub gdy dodanie kolejnej cechy pogarsza wartość kryterium: J (X k+ ) < J (X k ) j Cechy mogą być tylko dodawane, nie usuwane

2 GSFS Generalized Sequential Forward Selection W pojedynczej iteracji algorytmu do zbioru X k może być dodanych l cech spośród pozostałych p k Liczba podzbiorów l cech Y l, jakie mogą być dodane do zbioru X k jest równa i dla nich wszystkich należy wyznaczyć wartość kryterium p k l J ( ) X k Y l Koszt obliczeniowy algorytmu GSFS jest większy niż SFS, ale w zamian uwzględnia on częściowo związki pomiędzy cechami

22 SBS Sequential Backward Selection n-ta iteracja algorytmu: ) Dany jest podzbiór k cech X k (w kroku n=0 zawiera on wszystkie cechy) 2) Dla każdej z k cech ξ j z bieżącego podzbioru X k wyznacz wartość kryterium J = J j X k ( \ ξ ) j 3) Utwórz nowy podzbiór X k+ usuwając z podzbioru X k tę cechę, dla której wartość kryterium J j jest największa (krok w tył) 4) Zakończ algorytm, gdy k przekracza przyjęte minimum. Cechy mogą być tylko usuwane, nie dodawane Nakład obliczeniowy jest większy niż w SFS, gdyż starujemy od większych podzbiorów

23 GSBS Generalized Sequential Backward Selection W pojedynczej iteracji algorytmu ze zbioru X k może być usuniętych r cech spośród k Liczba podzbiorów r cech Y r, jakie mogą być usunięte zbioru X k jest równa i dla nich wszystkich należy wyznaczyć wartość kryterium k r J ( X k \ Y r ) Koszt obliczeniowy algorytmu GSBS jest większy niż SBS, ale w zamian uwzględnia on częściowo związki pomiędzy cechami

24 Metoda dodaj l, odrzuć r W pojedynczej iteracji algorytmu do podzbioru X k może być dodanych l cech spośród pozostałych p k oraz usuniętych r cech spośród k (l kroków w przód, k kroków w tył) Jeżeli l > r, to algorytm startuje z pustego podzbioru X k Jeżeli l < r, to algorytm startuje z podzbioru X k zawierającego wszystkie p cech

25 Floating Search Methods Wartości l oraz r mogą być zmieniane w każdej iteracji algorytmu w sposób automatyczny, co prowadzi do algorytmów: SFFS Sequential Forward Floating Selection SBFS Sequential Backward Floating Selection Algorytm SFFS: w każdej iteracji, po wykonaniu kroku w przód, algorytm wykonuje sekwencję kroków w tył tak długo, jak kolejno generowane podzbiory są lepiej oceniane od poprzednich Algorytm SBFS: w każdej iteracji, po wykonaniu kroku w tył, algorytm wykonuje sekwencję kroków w przód tak długo, jak kolejno generowane podzbiory są lepiej oceniane od poprzednich

26 Symulowane wyżarzanie (Simulated Annealing) Inspiracją algorytmu jest proces schładzania pewnych materiałów, podczas którego minimalizowana jest energia związana z konfiguracją cząstek W dużych temperaturach cząstki szybko zmieniają swoje położenie, przy niższych temperaturach ruch cząstek ulega spowolnieniu Obniżanie temperatury z odpowiednim tempem prowadzi do uzyskania struktury krystalicznej odpowiadającej minimalnej energii

27 Symulowane wyżarzanie temperatura energia czas

28 Symulowane wyżarzanie Algorytm rozpoczyna działanie od losowo wybranego podzbioru cech i wysokiej temperatury W kolejnych iteracjach temperatura obniża się. Ponadto do podzbioru cech wprowadzane są przypadkowe zmiany. Wielkość zmian wprowadzanych do podzbioru cech zależy od temperatury: im wyższa temperatura, tym większe zmiany mogą wystąpić Jeżeli zmieniony podzbiór cech jest oceniony jako lepszy, zmiana zostaje zaakceptowana Jeżeli zmieniony podzbiór cech jest oceniony jako gorszy, zmiana zostaje zaakceptowana z prawdopodobieństwem zależnym od temperatury : im wyższa temperatura, tym wyższe prawdopodobieństwo akceptacji

29 Symulowane wyżarzanie Podzbiór cech może zostać zakodowany w postaci ciągu bitów. Przykładowo, zestaw cech { x, x 2, x 5, x 7 } spośród dziesięciu zakodujemy jako 000000 Zmiana zestawu cech jest realizowana przez zmianę wartości bitów Przy wysokiej temperaturze jednoczesnej zmianie może ulec wiele bitów Jeżeli podzbiór cech X można przekształcić w X w jednym kroku algorytmu, to X nazywamy sąsiadem X Rozmiar sąsiedztwa zależy od temperatury: im wyższa temperatura, tym większe sąsiedztwo Funkcja celu Q ocenia podzbiór cech. Na jej wartość wpływ może mieć kryterium J oraz liczba cech. Algorytm poszukuje maksimum funkcji Q

30 Symulowane wyżarzanie - algorytm ) Wprowadź: X (początkowy podzbiór cech), Q(X) (funkcja celu), S(X, T) (funkcja sąsiedztwa), T 0 (temperatura początkowa), T N (temperatura końcowa), t (współczynnik zmniejszania temperatury), 2) X best X, T T 0 3) Dopóki T T 0, wykonuj: 4) X new S(X best, T) 5) ΔQ Q(X best ) Q(X new ) 6) Jeżeli ΔQ < 0 to X best X new 6) Jeżeli ΔQ 0 to 7) X best X new z prawdopodobieństwem równym 8) T t T Q exp T

3 Symulowane wyżarzanie Prawdopodobieństwo akceptacji (krok 7 algorytmu) i sposób obniżania temperatury (krok 8 algorytmu) można dobierać dowolnie (krok 8 algorytmu) Wysoka temperatura optymalizacja globalna (niedokładna) Niska temperatura optymalizacja lokalna (dokładna)

32 Algorytm genetyczny Inspiracją algorytmu genetycznego jest proces doboru naturalnego Skrajnie upraszczając, w procesie doboru naturalnego lepsze geny z większym prawdopodobieństwem dostają się do kolejnych pokoleń osobników W algorytmie genetycznym doborowi naturalnemu podlegają zakodowane rozwiązania problemu optymalizacyjnego Rozwiązania oceniane są przy użyciu tzw. funkcji przystosowania F, która jest monotoniczną funkcją kryterium jakości J. Populacja nowych rozwiązań wyznaczana jest na podstawie poprzedniej przy użyciu operatorów selekcji, krzyżowania i mutacji.

33 Algorytm genetyczny Identycznie jak w przypadku symulowanego wyżarzania, rozwiązanie (czyli podzbiór cech) może zostać zakodowane w postaci ciągu bitów Rozwiązania są wybierane do tzw. puli rodzicielskiej w drodze losowania ze zwracaniem z uwzględnieniem wartości funkcji przystosowania (operator selekcji) Rozwiązania z puli rodzicielskiej są dobierane w pary i krzyżowane (operator krzyżowania), dodając do populacji nowe rozwiązania Nowe rozwiązania podlegają losowym modyfikacjom (operator mutacji).

Algorytm genetyczny 34 ) Wprowadź: q (rozmiar populacji rodzicielskiej), P (początkowa populacja rozwiązań), Fitness(X) (funkcja przystosowania), Selection (F,P) (operator selekcji), Crossover (P) (operator krzyżowania), Mutation (X) (operator mutacji), N (liczba iteracji) 2) n 0, X best najlepsze rozwiązanie z populacji P 3) Dopóki n N, wykonuj: 4) P parents Selection (Fitness,P, q) 5) X najlepsze rozwiązanie z populacji P parents 6) Jeżeli Fitness (X) > Fitness (X best ) to X best X 7) P childrens Crossover (P parents ) 8) Dla wszystkich rozwiązań w P childrens wykonuj 9) X childrens Mutation (X childrens ) 0) P P childrens, n n +

35 Algorytm genetyczny Opracowano wiele operatorów selekcji. Najprostszy z nich, tj. selekcja proporcjonalna polega na wylosowaniu ze zwracaniem z całej populacji q rozwiązań, przy czym prawdopodobieństwo wylosowania rozwiązania o wartości funkcji przystosowania F i jest równe i Fi F Operator mutacji w najprostszym przypadku polega na losowej zamianie wartości każdego bitu rozwiązania z niewielkim prawdopodobieństwem p mut 0 0 0 0 0 0 0 0 0 0 0 i

36 Algorytm genetyczny Istnieje wiele operatorów krzyżowania. Najprostszy z nich, tj. krzyżowanie jednopunktowe polega na: wylosowaniu z populacji pary rozwiązań losowym wyborze punktu krzyżowania złożenie nowych rozwiązań z obu części każdego z rozwiązań rodzicielskich 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

Przykład zastosowania 37 Selekcja cech w systemie rozpoznawania powikłań cukrzycowych Cel pracy: selekcja cech na potrzeby predykcji wystąpienia nefropatii (niewydolność nerek) Pacjenci: 432 dorosłych osób z cukrzycą typu 2, Korea, Seul, Samsung Medical Center Liczba cech: 84

38

39 Rozwiązanie problemu Wykorzystanie miar niepodobieństwa między wektorami Różne odmiany metod przeszukiwania wstecz (Backward Selection) Ocena podzbioru cech za pomocą klasyfikatorów SVM (Support Vector Machines)

40 Rezultaty Liczba cech po selekcji: 39, pozwoliła na odseparowanie klas nefropatia/ brak nefropatii w 98 % Predykcja wystąpienia objawów nefropatii na 2-3 miesiące przed postawieniem diagnozy przez lekarza