Sztuczna Inteligencja Projekt

Podobne dokumenty
B jest globalnym pokryciem zbioru {d} wtedy i tylko wtedy, gdy {d} zależy od B i nie istnieje B T takie, że {d} zależy od B ;

Sztuczna Inteligencja Projekt

SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska

System informacyjny a system decyzyjny Relacja nierozróżnialności Klasy abstrakcji Teoria zbiorów przybliżonych Usuwanie niespójności z tablicy

Systemy ekspertowe : Tablice decyzyjne

Systemy ekspertowe. Eksploracja danych z wykorzystaniem tablic decyzyjnych i zbiorów przybliżonych. Część trzecia

Sztuczna inteligencja

WYKŁAD 11 Uczenie maszynowe drzewa decyzyjne

Systemy uczące się wykład 2

WSPOMAGANIE DECYZJI - MIŁOSZ KADZIŃSKI LAB IV ZBIORY PRZYBLIŻONE I ODKRYWANIE REGUŁ DECYZYJNYCH

Odkrywanie wiedzy z danych przy użyciu zbiorów przybliżonych. Wykład 3

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA

Eksploracja danych. KLASYFIKACJA I REGRESJA cz. 2. Wojciech Waloszek. Teresa Zawadzka.

Przykład eksploracji danych o naturze statystycznej Próba 1 wartości zmiennej losowej odległość

Matematyka dyskretna - wykład - część Podstawowe algorytmy kombinatoryczne

Sztuczna inteligencja : Zbiory rozmyte cz. III

Elementy modelowania matematycznego

Problemy złożone trudno jest analizować precyzyjnie Wiedza eksperta w złożonych przypadkach daje się opisać tylko w sposób nieprecyzyjny, np.

6. Zagadnienie parkowania ciężarówki.

Wstęp do Techniki Cyfrowej... Teoria automatów

Rozmyte systemy doradcze

Systemy uczące się wykład 1

Sztuczna inteligencja : Zbiory rozmyte cz. 2

7. Zagadnienie parkowania ciężarówki.

Konkurs z przedmiotu eksploracja i analiza danych: problem regresji i klasyfikacji

Indukcja. Materiały pomocnicze do wykładu. wykładowca: dr Magdalena Kacprzak

Klasyfikacja obiektów Drzewa decyzyjne (drzewa klasyfikacyjne)

System informacyjny a system decyzyjny Relacja nierozróżnialności Klasy abstrakcji Teoria zbiorów przybliżonych Usuwanie niespójności z tablicy

Sortowanie topologiczne skierowanych grafów acyklicznych

1. Reguły minimalne (optymalne) Podstawowe twierdzenia i definicje. Definicja 1 Funkcję postaci f. nazwiemy n-argumentową funkcją boolowską.

Klasyfikacja metodą Bayesa

Data Mining Wykład 3. Algorytmy odkrywania binarnych reguł asocjacyjnych. Plan wykładu

Sztuczna inteligencja : Algorytm KNN

SID Wykład 7 Zbiory rozmyte

WYKŁAD 6. Reguły decyzyjne

SZTUCZNA INTELIGENCJA

Optymalizacja reguł decyzyjnych względem pokrycia

Uczenie się maszyn. Dariusz Banasiak. Katedra Informatyki Technicznej Wydział Elektroniki

Metody eksploracji danych. Reguły asocjacyjne

Cel normalizacji. Tadeusz Pankowski

Optymalizacja. Przeszukiwanie lokalne

Metody probabilistyczne klasyfikatory bayesowskie

Grupowanie Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 201/633

Sztuczna inteligencja: zbiory rozmyte

Klasyfikator. ˆp(k x) = 1 K. I(ρ(x,x i ) ρ(x,x (K) ))I(y i =k),k =1,...,L,

STANDARDOWE FUNKCJE PRZYNALEŻNOŚCI. METODY HEURYSTYCZNE wykład 6. (alternatywa dla s) (zdef. poprzez klasę s) GAUSSOWSKA F.

Teoretyczne podstawy zbiorów przybliżonych

Podstawy sztucznej inteligencji

Programowanie w Turbo Pascal

Systemy ekspertowe. Generowanie reguł minimalnych. Część czwarta. Autor Roman Simiński.

Normalizacja. Pojęcie klucza. Cel normalizacji

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

Zasada rozszerzania. A U A jest zbiorem rozmytym, B jest obrazem zbioru A Przeniesienie rozmytości A w odwzorowaniu f na zbiór B. sup.

Inżynieria Wiedzy i Systemy Ekspertowe. Logika rozmyta. dr inż. Michał Bereta Politechnika Krakowska

Cel projektu: Wymogi dotyczące sprawozdania:

Technologie i systemy oparte na logice rozmytej

Ćwiczenie: JavaScript Cookies (3x45 minut)

Strategie ewolucyjne (ang. evolu4on strategies)

Zbiory przybliżone, cz. 1 (wersja do druku) dr. Piotr Szczuko

Inżynieria Wiedzy i Systemy Ekspertowe. Niepewność wiedzy. dr inż. Michał Bereta Politechnika Krakowska

Zasada indukcji matematycznej

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Inteligencja obliczeniowa

Zadanie 0 gdy nie mamy logiki rozmytej. Zadanie 1- gdy już mamy logikę rozmytą

Technologie baz danych

mgr inż. Magdalena Deckert Poznań, r. Metody przyrostowego uczenia się ze strumieni danych.

W narzędziu typu Excel, Calc czy Gnumeric napisz formułę logiczną która wyznaczy wartośd przynależności dla podanej temperatury do zbioru gorąco.

Systemy ekspertowe - wiedza niepewna

Wprowadzenie do zbiorów przybliżonych

Granular Computing 9999 pages 15 METODY SZTUCZNEJ INTELIGENCJI - PROJEKTY

Układy logiki rozmytej. Co to jest?

Kurs logiki rozmytej - zadania. Wojciech Szybisty

WYKŁAD 4. Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie. autor: Maciej Zięba. Politechnika Wrocławska

Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych

Tablicowa reprezentacja danych

Data Mining Wykład 9. Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster. Plan wykładu. Sformułowanie problemu

Szablony klas, zastosowanie szablonów w programach

Metoda Tablic Semantycznych

Indukowane Reguły Decyzyjne I. Wykład 3

R o g e r A c c e s s C o n t r o l S y s t e m 5

Bazy danych. Plan wykładu. Zależności funkcyjne. Wykład 2: Relacyjny model danych - zależności funkcyjne. Podstawy SQL.

Generowanie liczb o zadanym rozkładzie. ln(1 F (y) λ

METODA SYMPLEKS. Maciej Patan. Instytut Sterowania i Systemów Informatycznych Uniwersytet Zielonogórski

Systemy ekspertowe. Wnioskowanie w systemach regułowych. Część piąta. Autor Roman Simiński.

Algorytmy i Struktury Danych, 2. ćwiczenia

Hierarchiczna analiza skupień

1 Określenie pierścienia

Zależności funkcyjne

ALGORYTM RANDOM FOREST

Rodzinę spełniającą trzeci warunek tylko dla sumy skończonej nazywamy ciałem (algebrą) w zbiorze X.

Reguły decyzyjne, algorytm AQ i CN2. Reguły asocjacyjne, algorytm Apriori.

Ensembles of Approximate Decision Reducts in Classification Problems. Zespoły Aproksymacyjnych Reduktów Decyzyjnych w Problemach Klasyfikacji

WYKŁAD 10 Rozmyta reprezentacja danych (modelowanie i wnioskowanie rozmyte)

Metody klasyfikacji danych - część 1 p.1/24

Minimalizacja automatów niezupełnych.

W. Guzicki Próbna matura, grudzień 2014 r. poziom rozszerzony 1

wiedzy Sieci neuronowe

Temat: Model SUGENO. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Transkrypt:

Sztuczna Inteligencja Projekt Temat: Algorytm F-LEM1 Liczba osób realizujących projekt: 2 1. Zaimplementować algorytm F LEM 1. 2. Zaimplementować klasyfikator Classif ier. 3. Za pomocą algorytmu F LEM1 wygenerować dla każdej klasy decyzyjnej reguły decyzyjne z 2/3 losowo wybranych obiektów zbioru iris.tab. 4. Za pomocą klasyfikatora Classif ier dokonać klasyfikacji pozostałych obiektów zbioru iris.tab. Ad 1. 1. Zaimplementować funkcję F uzzif ication, tworzącą zbiory rozmyte na podstawie zbiorów wartości atrybutów warunkowych. Przy podziale zbioru wartości atrybutu na k a podzbiorów zastosować dla poszczególnych podzbiorów funkcje przynależności w następujący sposób: dla zbioru 1 f. p. klasy L, dla zbioru k f. p. klasy γ, dla zbiorów 2 k-1 f. p. klasy t. Parametrami f. p. sa minimalne, średnie i maksymalne wartości otrzymanych podzbiorów zbioru wartości atrybutów. 2. Zaimplementować funkcję F indconcept, która dla każdego obiektu i każdego atrybutu określi, do którego pojęcia obiekt należy. 3. Zaimplementować funkcję SetDependence, która określi dla dowolnych dwóch zbiorów S, S obiektów czy S zależy od S. 4. Zaimplementować funkcję DropCondition, która na podstawie globalnego pokrycia utworzy reguły przy zastosowaniu techniki dropping conditions. Ad 2. Klasyfikator Classif ier ma przypisać każdy obiekt do klasy tej reguły, którą obiekt spełnia. Jeżeli występuje konflikt klas, tzn. obiekt spełnia reguły dotyczące różnych klas, to jest on przypisywany do klasy tych reguł, których spełnia więcej. W przypadku, gdy obiekt spełnia tyle samo reguł każdej ze spornych klas, to nie jest on przypisywany do żadnej klasy. 1

Charakterystyka algorytmu F-LEM1 Algorytm F-LEM1 jest modyfikacją algorytmu LEM1, polegającą na przystosowaniu go do działania na zbiorach rozmytych. Funkcja Fuzzification Funkcja Fuzzification tworzy zbiory rozmyte na podstawie zbiorów wartości atrybutów warunkowych. Funkcja 1: Fuzzification Data: zbiór A wszystkich atrybutów warunkowych; zbiór k A = {k a : a A}, którego każdy element określa liczbę zbiorów rozmytych do utworzenia dla danego atrybutu; Result: zbiór rozmyty A F atrybutów warunkowych; begin A F := ; foreach a A do A F := ; Podzielić zbiór V a na k a podzbiorów V a 1, V a 2,..., V a ka; foreach V a i(1 i k a ) do Określić funkcję przynależności µ A i; A i := {(v, µ A i(v)) : v V a i}; A F := A F {A i }; A F := A F {A F }; end Przykład 1 Dane są: A = {a} zbiór atrybutów warunkowych, gdzie a =temperatura powietrza; k a = 3 liczba zbiorów rozmytych do utworzenia na podstawie atrybutu a; Niech V a = {14, 16, 17, 18, 20, 21, 23, 25, 26, 27, 29, 30, 32, 33, 35}. A F := ; Zbioru V a może być podzielony na k a następujących podzbiorów: V a 1 = {14, 16, 17, 18, 20, 21}, V a 2 = {18, 20, 21, 23, 25, 26, 27, 29, 30}, V a 3 = {27, 29, 30, 32, 33, 35}. Korzystając odpowiednio z funkcji przynależności klasy L, t, γ, których parametrami są minimalne, średnie i maksymalne wartości ze zbiorów V a i, otrzymujemy: A 1 = {(14, 1), (16, 1), (17, 1), (18, 0.86), (20, 0.29), (21, 0)}, A 2 = {(18, 0), (20, 0.33), (21, 0.5), (23, 0.83), (25, 0.42), (26, 0.33), (27, 0.25), (29, 0.08), (30, 0)}, A 3 = {(27, 0), (29, 0.5), (29, 0.75), (30, 1), (33, 1), (35, 1)}. Atrybut rozmyty jest postaci A F = {A 1, A 2, A 3 }, a zbiór rozmyty atrybutów warunkowych A F = {A F }. 2

Zbiory rozmyte A 1, A 2, A 3 można określić odpowiednio jako temperatura niska, temperatura normalna, temperatura wysoka. Niech A A F. Wyrażenie (x jest A) jest prawdziwe wtedy i tylko wtedy, gdy µ A (x) = max{µ A (x) : A A F }. Przykład 2 Dany jest atrybut rozmyty A F otrzymany w Przykładzie 1. Wyrażenie (20 jest temperatura normalna ) jest prawdziwe, ponieważ µ A 2(20) = max{µ A 1(20), µ A 2(20), µ A 3(20)} = max{0.29, 0.33, 0}. Algorytm LEM1 Oznaczenia i definicje: U - uniwersum, tj. zbiór obiektów; A - zbiór atrybutów warunkowych; d - atrybut decyzyjny; IND(B) = {(x, y) U U : a B a(x) = a(y)} - relacja nierozróżnialności, tj. zbiór wszystkich par obiektów, które mają takie same wartości na wszystkich atrybutach ze zbioru B A; B - rodzina wszystkich klas nierozróżnialności wyznaczonych przez relację IND(B), tzn. B = U/IND(B); {d} - rodzina wszystkich klas nierozróżnialności wyznaczonych przez relację IND({d}), tzn. {d} = U/IND({d}). Inaczej, rodzina wszystkich klas decyzyjnych; Zbiór {d} zależy od zbioru B wtedy i tylko wtedy, gdy B {d} (tutaj oznacza, że każdy zbiór pierwszej rodziny jest podzbiorem pewnego zbioru drugiej rodziny, czyli X B Y {d} X Y ); B jest globalnym pokryciem zbioru {d} wtedy i tylko wtedy, gdy {d} zależy od B i nie istnieje B T takie, że {d} zależy od B ; 3

Algorytm 2: LEM1 Data: zbiór A wszystkich atrybutów warunkowych, rodzina {d} ; Result: pojedyncze globalne pokrycie B; begin B := ; C := A; if A {d} then foreach a A do D := C \ {a}; if D {d} then C := D; B := C; end Opis działania algorytmu Algorytm LEM1 działa jedynie dla danych niesprzecznych, tzn. każde dwa obiekty z U, należące do różnych klas muszą być rozróżnialne na atrybutach z A. Wtedy spełniony jest warunek A {d}. Algorytm w każdym kroku sprawdza, czy możliwe jest usunięcie jednego atrybutu z rozpatrywanego zbioru atrybutów (tj. D := C \ {a}). Jeżeli tak (tj. D {d} ), to atrybut jest usuwany ze zbioru atrybutów. W efekcie otrzymywany jest najmniejszy podzbiór atrybutów warunkowych zachowujący rozróżnialność obiektów z różnych klas. Algorytm F-LEM1 Algorytm 3: F-LEM1 Data: zbiór A wszystkich atrybutów warunkowych; zbiór k A = {k a : a A}, którego każdy element określa liczbę zbiorów rozmytych do utworzenia dla danego atrybutu; Result: pojedyncze globalne pokrycie B; begin A F := F uzzification(a, k A ); foreach o U do foreach A F A F do Określić zbiór rozmyty A A F, do którego obiekt o należy; B := LEM1(A F ) end Przykład 3 Dana jest rozmyta tablica decyzyjna (U, A F {d}), gdzie A F = {aura, temperatura, wilgotnosc, wiatr}, d = pogoda oraz s=sloneczna, p=pochmurna, d=deszczowa, c=ciepla, u=umiarkowana, 4

obiekt aura temperatura wilgotnosc wiatr pogoda s p d c u z w n sl m 1 0.8 0.2 0.1 0.9 0.1 0 0.8 0.2 0.7 0.4 0 2 0.9 0.1 0.1 0.8 0.2 0.1 0.9 0.2 0.1 0.8 0 3 0.3 0.7 0.2 0.9 0.1 0.1 0.9 0.1 0.9 0.1 1 4 0 0.1 0.9 0.1 0.9 0 0.6 0.5 0.8 0.3 1 5 0 0.2 0.9 0 0.1 0.9 0 0.1 0.8 0.2 1 6 0.4 0.3 0.6 0 0.2 0.9 0.1 0.9 0.1 0.9 0 z=zimna, w=wysoka, n=normalna, sl=slaby, m=mocny. Wygenerować reguły za pomocą algorytmu F-LEM1. Należenie obiektów do poszczególnych zbiorów rozmytych przedstawione jest w poniższej tablicy. obiekt aura temperatura wilgotnosc wiatr pogoda 1 sloneczna ciepla wysoka slaby 0 2 sloneczna ciepla wysoka mocny 0 3 pochmurna ciepla wysoka slaby 1 4 deszczowa umiarkowana wysoka slaby 1 5 deszczowa zimna normalna slaby 1 6 deszczowa zimna normalna mocny 0 B := ; C := A F ; A F = {{1}, {2}, {3}, {4}, {5}, {6}}, {d} = {{1, 2, 6}, {3, 4, 5}}, zatem A F {d} ; D := C \ {aura} = {temperatura, wilgotnosc, wiatr}, stąd D = {{1, 3}, {2}, {4}, {5}, {6}}, więc D {d} ; D := C \ {temperatura} = {aura, wilgotnosc, wiatr}, stąd D = {{1}, {2}, {3}, {4}, {5}, {6}}, więc D {d}, zatem C := D; D := C \ {wilgotnosc} = {aura, wiatr}, stąd D = {{1}, {2}, {3}, {4, 5}, {6}}, więc D {d}, zatem C := D; D := C \ {wiatr} = {aura}, stąd D = {{1, 2}, {3}, {4, 5, 6}}, więc D {d}, zatem globalne pokrycie wynosi B := {aura, wiatr}; Na podstawie globalnego pokrycia konstruowane są reguły przy zastosowaniu techniki dropping conditions. Na początku konstruowana jest reguła w oparciu o obiekt 1, tj. (aura, sloneczna) (wiatr, slaby) (pogoda, 0). Reguła pokrywa tylko pierwszy obiekt (tj. 1 jako jedyny spełnia część warunkową reguły). Aby zwiększyć pokrycie reguły o kolejne obiekty z tej samej klasy decyzyjnej, rozpatrywane jest opuszczenie kolejnych warunków reguły. Warunek (aura, sloneczna) nie może być opuszczony, gdyż otrzymana w ten sposób reguła (wiatr, slaby) (pogoda, 0), oprócz obiektu 1, pokrywa obiekty z innej klasy decyzyjnej, tj. obiekty 3, 4, 5. Usunięcie warunku 5

(wiatr, slaby) powoduje, że reguła (aura, sloneczna) (pogoda, 0) pokrywa obiekty z jednej klasy, tj. 1 i 2. Dla pozostałych obiektów reguły generowane są w analogiczny sposób. Zbiór reguł wygenerowanych przez algorytm F-LEM1 składa się z następujących reguł (po dwukropku podane pokrycie reguły): (aura, sloneczna) (pogoda, 0) : 1, 2, (wiatr, silny) (pogoda, 0) : 2, 6, (aura, deszczowa) (wiatr, slaby) (pogoda, 1) : 4, 5, (aura, pochmurna) (pogoda, 1) : 3. 6