Systemy decyzyjne. Wykład 3: Wnioskowanie Boolowskie w obliczeniu Redutów i reguł decyzyjnych. Nguyen Hung Son. Nguyen Hung Son () 1 / 61

Wielkość: px
Rozpocząć pokaz od strony:

Download "Systemy decyzyjne. Wykład 3: Wnioskowanie Boolowskie w obliczeniu Redutów i reguł decyzyjnych. Nguyen Hung Son. Nguyen Hung Son () 1 / 61"

Transkrypt

1 Systemy decyzyjne Wykład 3: Wnioskowanie Boolowskie w obliczeniu Redutów i reguł decyzyjnych Nguyen Hung Son Nguyen Hung Son () 1 / 61

2 Spis treści 1 Wprowadzenie do teorii zbiorów przybliżonych Systemy informacyjne i tablice decyzyjne Redukty 2 Metody wnioskowań Boolowskich w szukaniu reduktów 3 Algorytmy heurystyczne dla problemu reduktu Heurystyka Johnsona Inne heurystyki 4 Systemy decyzyjne oparte o zbiory przybliżone Reguły decyzyjne Regułowe systemy decyzyjne Szukanie minimalnych reguł decyzyjnych Nguyen Hung Son () 2 / 61

3 Spis treści 1 Wprowadzenie do teorii zbiorów przybliżonych Systemy informacyjne i tablice decyzyjne Redukty 2 Metody wnioskowań Boolowskich w szukaniu reduktów 3 Algorytmy heurystyczne dla problemu reduktu Heurystyka Johnsona Inne heurystyki 4 Systemy decyzyjne oparte o zbiory przybliżone Reguły decyzyjne Regułowe systemy decyzyjne Szukanie minimalnych reguł decyzyjnych Nguyen Hung Son () 3 / 61

4 Teoria zbiorów przybliżonych Teoria zbiorów przybliżonych jest wprowadzona w latach 80-tych przez prof. Zdzisława Pawlaka. Głównym celem jest dostarczanie narzędzi dla problemu aproksymacji pojęć (zbiorów). Zastosowania w systemach decyzyjnych: Redukcja danych, selekcja ważnych atrybutów Generowanie reguł decyzyjnych Odkrywanie wzorców z danych: szablony, reguły asocjacyjne Odkrywanie zależności w danych Nguyen Hung Son () 4 / 61

5 Systemy informacyjne Definicja Jest to para S = (U, A), gdzie U skończony niepusty zbiór obiektów (ang. cases, states, patients, observations...) A skończony, niepusty zbiór atrybutów. Każdy a A odpowiada pewnej funkcji a : U V a zwanej wartościowaniem, gdzie V a jest nazwana dziedziną atrybutu a. Dla B A, definiujemy Wektor informacji na B (ang. B-information vector) dla obiektu x U jako inf B (x) = {(a, a(x)) : a B} B-information set: INF (S) = {inf B (x) : x U} Nguyen Hung Son () 5 / 61

6 Systemy informacyjne Przykład Patient Age Sex Chol. Resting ECG Heart rate Sick p 1 53 M 203 hyp 155 yes p 2 60 M 185 hyp 155 yes p 3 40 M 199 norm 178 no p 4 46 F 243 norm 144 no p 5 62 F 294 norm 162 no p 6 43 M 177 hyp 120 yes p 7 76 F 197 abnorm 116 no p 8 62 M 267 norm 99 yes p 9 57 M 274 norm 88 yes p M 200 abnorm 100 no Nguyen Hung Son () 6 / 61

7 Tablica decyzyjna Tablica decyzyjna Jest to struktura S = (U, A {dec}), gdzie U jest zbiorem obiektów: U = {u 1,..., u n } A jest zbiorem atrybutów postaci a j : U V j dec jest specjalnym atrybutem zwanym decyzją dec : U {1,..., d} Nguyen Hung Son () 7 / 61

8 Tablica decyzyjna Tablica decyzyjna powstaje ze zwykłych tablic danych poprzez sprecyzowania: Atrybutów: cechy łatwo dostępne, np. pomiary, parametry, dane osobowe,... Decyzji, t.j. cecha ukryta za pewną wiedzą (pojęciem) nieznaną: Decyzja jest znana tylko dla obiektów z (treningowej) tablicy decyzyjnej Jest podana przez eksperta (np. lekarza) lub na podstawie późniejszych obserwacji (np. ocena giełdy). chcemy ją określić dla dowolnych obiektów na podstawie atrybutów Nguyen Hung Son () 8 / 61

9 Przykład Przedstawiona tablica decyzyjna zawiera: 8 obiektów będących opisami pacjentów 3 atrybuty: Headache, Muscle pain, Temp. Decyzję określającą pacjenta jako przeziębionego lub nie Example U Headache Muscle pain Temp. Flu p1 Yes Yes Normal No p2 Yes Yes High Yes p3 Yes Yes Very-high Yes p4 No Yes Normal No p5 No No High No p6 No Yes Very-high Yes p7 No Yes High Yes p8 No No Very-high No Nguyen Hung Son () 9 / 61

10 Relacja rozróżnialności Dane są obiekty x, y U i zbiór atrybutów B A, mówimy, że x, y są rozróżnialne przez B wtw, gdy istnieje a B taki, że a(x) a(y) x, y są nieodróżnialne przez B, jeśli one są identyczne na B, tzn. a(x) = a(y) dla każdego a B [x] B = zbiór obiektów nieodróżnialnych z x przez B Nguyen Hung Son () 10 / 61

11 Relacja rozróżnialności Dla każdych obiektów x, y: albo [x] B = [y] B albo [x]b [y]b = Relacja x IND B y := x, y są nieodróżnialne przez B jest relacją równoważności. Każdy zbiór atrybutów B A wyznacza podział zbioru obiektów na klasy nieodróżnialności Nguyen Hung Son () 11 / 61

12 Przykład Dla B = {Headache, M usclepain} obiekty p1, p2, p3 są nierozróżnialne. są 3 klasy nieodróżnialności relacji IND B : [p1] B = {p1, p2, p3} [p4]b = {p4, p6, p7} [p5]b = {p5, p8} Example U Headache Muscle pain Temp. Flu p1 Yes Yes Normal No p2 Yes Yes High Yes p3 Yes Yes Very-high Yes p4 No Yes Normal No p5 No No High No p6 No Yes Very-high Yes p7 No Yes High Yes p8 No No Very-high No Nguyen Hung Son () 12 / 61

13 Relacja rozróżnialności i aproksymacja pojęć Każdy zbiór obiektów X (np. klasa decyzyjna, pojęcie) może być opisany za pomocą atrybutów ze zbioru B dokładnie lub w przybliżeniu dokładnie: jeśli X jest sumą pewnych klas nieodróznialności definiowanych przez B (ZBIORY DOKŁADNE) w przybliżeniu: w przeciwnym przypadku (ZBIORY PRZYBLIŻONE) W obu przypadkach X może być opisany przez 2 dokładne zbiory zwane dolną i górną aproksymacją zbioru X B(X) = {x : [x] B X} B(X) = {x : [x] B X } Nguyen Hung Son () 13 / 61

14 Aproksymacja pojęć Obszar brzegowy (B-boundary region) pojęcia X zawiera obiekty, dla których nie możemy jednoznacznie decydować czy należy do X czy nie na podstawie atrybutów z B Obszar zewnętrzny (B-outside region of X) zawiera obiekty, które możemy pewnie klasyfikować jako elementy pojęcia X. Zbiór jest przybliżony (rough set) jeśli obszar brzegowy jest niepusty, w przeciwnym przypadku zbiór jest nazwany dokładny (crisp set). Nguyen Hung Son () 14 / 61

15 Przykład Niech B = {a 1, a 2 } A a 1 a 2 a 3 a 4 d ID outlook temp. hum. windy play 1 sunny hot high FALSE no 2 sunny hot high TRUE no 3 overcast hot high FALSE yes 4 rainy mild high FALSE yes 5 rainy cool normal FALSE yes 6 rainy cool normal TRUE no 7 overcast cool normal TRUE yes 8 sunny mild high FALSE no 9 sunny cool normal FALSE yes 10 rainy mild normal FALSE yes 11 sunny mild normal TRUE yes 12 overcast mild high TRUE yes 13 overcast hot normal FALSE yes 14 rainy mild high TRUE no Nguyen Hung Son () 15 / 61

16 Przykład Niech B = {a 1, a 2 } IND(B) = {{1, 2}, (sunny, hot) {3, 13}, (overcast, hot) {4, 10, 14}, (rainy, mild) {5, 6}, (rainy, cool) {8, 11}, (sunny, mild) {7}, {9}, {12}} A a 1 a 2 a 3 a 4 d ID outlook temp. hum. windy play 1 sunny hot high FALSE no 2 sunny hot high TRUE no 3 overcast hot high FALSE yes 4 rainy mild high FALSE yes 5 rainy cool normal FALSE yes 6 rainy cool normal TRUE no 7 overcast cool normal TRUE yes 8 sunny mild high FALSE no 9 sunny cool normal FALSE yes 10 rainy mild normal FALSE yes 11 sunny mild normal TRUE yes 12 overcast mild high TRUE yes 13 overcast hot normal FALSE yes 14 rainy mild high TRUE no Nguyen Hung Son () 15 / 61

17 Przykład Niech B = {a 1, a 2 } IND(B) = {{1, 2}, (sunny, hot) {3, 13}, (overcast, hot) {4, 10, 14}, (rainy, mild) {5, 6}, (rainy, cool) {8, 11}, (sunny, mild) {7}, {9}, {12}} Consider a concept defined by (play=no) X = CLASS no = {1, 2, 6, 8, 14} A a 1 a 2 a 3 a 4 d ID outlook temp. hum. windy play 1 sunny hot high FALSE no 2 sunny hot high TRUE no 3 overcast hot high FALSE yes 4 rainy mild high FALSE yes 5 rainy cool normal FALSE yes 6 rainy cool normal TRUE no 7 overcast cool normal TRUE yes 8 sunny mild high FALSE no 9 sunny cool normal FALSE yes 10 rainy mild normal FALSE yes 11 sunny mild normal TRUE yes 12 overcast mild high TRUE yes 13 overcast hot normal FALSE yes 14 rainy mild high TRUE no Nguyen Hung Son () 15 / 61

18 Przykład Niech B = {a 1, a 2 } IND(B) = {{1, 2}, (sunny, hot) {3, 13}, (overcast, hot) {4, 10, 14}, (rainy, mild) {5, 6}, (rainy, cool) {8, 11}, (sunny, mild) {7}, {9}, {12}} Consider a concept defined by (play=no) X = CLASS no = {1, 2, 6, 8, 14} Aproksymacje pojęcia X: A a 1 a 2 a 3 a 4 d ID outlook temp. hum. windy play 1 sunny hot high FALSE no 2 sunny hot high TRUE no 3 overcast hot high FALSE yes 4 rainy mild high FALSE yes 5 rainy cool normal FALSE yes 6 rainy cool normal TRUE no 7 overcast cool normal TRUE yes 8 sunny mild high FALSE no 9 sunny cool normal FALSE yes 10 rainy mild normal FALSE yes 11 sunny mild normal TRUE yes 12 overcast mild high TRUE yes 13 overcast hot normal FALSE yes 14 rainy mild high TRUE no L B (X) = {1, 2} U B (X) = {1, 2, 5, 6, 8, 11, 4, 10, 14} Nguyen Hung Son () 15 / 61

19 Przykład Niech B = {a 1, a 2 } IND(B) = {{1, 2}, (sunny, hot) {3, 13}, (overcast, hot) {4, 10, 14}, (rainy, mild) {5, 6}, (rainy, cool) {8, 11}, (sunny, mild) {7}, {9}, {12}} Consider a concept defined by (play=no) X = CLASS no = {1, 2, 6, 8, 14} Aproksymacje pojęcia X: L B (X) = {1, 2} U B (X) = {1, 2, 5, 6, 8, 11, 4, 10, 14} Reguła pewna: If B(x) = (sunny, hot) then d(x) = no A a 1 a 2 a 3 a 4 d ID outlook temp. hum. windy play 1 sunny hot high FALSE no 2 sunny hot high TRUE no 3 overcast hot high FALSE yes 4 rainy mild high FALSE yes 5 rainy cool normal FALSE yes 6 rainy cool normal TRUE no 7 overcast cool normal TRUE yes 8 sunny mild high FALSE no 9 sunny cool normal FALSE yes 10 rainy mild normal FALSE yes 11 sunny mild normal TRUE yes 12 overcast mild high TRUE yes 13 overcast hot normal FALSE yes 14 rainy mild high TRUE no Reguły przybliżone: If B(x) = (rainy, cool) then d(x) = no If B(x) = (rainy, mild) then d(x) = no If B(x) = (sunny, mild) then d(x) = no Nguyen Hung Son () 15 / 61

20 Pączek U AX X AX Nguyen Hung Son () 16 / 61

21 Dokładność aproksymacji Accuracy of approximation 0 α B (X) 1 α B (X) = B(X) B(X) Jeśli α B (X) = 1, to zbiór X jest dokładnie definiowany przez B; Jeśli α B (X) < 1, to zbiór X jest aproksymacyjnie definiowany przez B; Nguyen Hung Son () 17 / 61

22 Redukty W systemach decyzyjnych, nie wszystkie atrybuty są potrzebne do procesie podejmowania decyzji; Chcemy wybrać pewne podzbiory atrybutów niezbędnych do tego celu; Redukty to minimalne podzbiory atrybutów zachowujących charakterystykę całego zbioru atrybutów. W teorii zbiorów przybliżonych, istnieją co najmniej 2 pojęcia reduktów: informacyjne i decyzyjne; Nguyen Hung Son () 18 / 61

23 Definicja Definicja reduktu informacyjnego Zbiór atrybutów B A nazywamy reduktem tablicy A wtw, gdy B zachowuje rozróżnialność zbioru A: t.j. dla dowolnych obiektów x, y U, jeśli x, y są rozróżnialne przez A, to są również rozróżnialne przez B B jest niezredukowalny: tzn. żaden właściwy podzbiór B nie zachowuje rozróżnialności zbioru A (t.j., B jest minimalny pod względem rozróżnialności) Nguyen Hung Son () 19 / 61

24 Definicja Definicja reduktu decyzyjnego Zbiór atrybutów B A nazywamy reduktem tablicy A wtw, gdy B zachowuje rozróżnialność zbioru A względem decyzji dec: t.j. dla dowolnych obiektów x, y U, jeśli dec(x) dec(y) i x, y są rozróżnialne przez A, to są również rozróżnialne przez B B jest niezredukowalny: tzn. żaden właściwy podzbiór B nie zachowuje rozróżnialności zbioru A (B jest minimalny pod względem rozróżnialności) Nguyen Hung Son () 20 / 61

25 Zbiór reduktów RED(S) = zbiór wszystkich reduktów tablicy decyzyjnej S; Jeśli S = (U, A {dec}) i A = n to RED(S) ( ) n n/2 rdzenie: zbiór atrybutów będących we wszystkich reduktach K = B RED(S) B Nguyen Hung Son () 21 / 61

26 Problemy obliczeniowe związane z reduktami Znaleźć rdzenie danej tablicy decyzyjnej; Znaleźć jakiś redukt; Znaleźć krótkie redukty; Znaleźć długie redukty; Nguyen Hung Son () 22 / 61

27 Spis treści 1 Wprowadzenie do teorii zbiorów przybliżonych Systemy informacyjne i tablice decyzyjne Redukty 2 Metody wnioskowań Boolowskich w szukaniu reduktów 3 Algorytmy heurystyczne dla problemu reduktu Heurystyka Johnsona Inne heurystyki 4 Systemy decyzyjne oparte o zbiory przybliżone Reguły decyzyjne Regułowe systemy decyzyjne Szukanie minimalnych reguł decyzyjnych Nguyen Hung Son () 23 / 61

28 Motywacje W systemach decyzyjnych, nie wszystkie atrybuty są potrzebne do procesie podejmowania decyzji; Chcemy wybrać pewne podzbiory atrybutów niezbędnych do tego celu; Redukty to minimalne podzbiory atrybutów zachowujących charakterystykę całego zbioru atrybutów. W teorii zbiorów przybliżonych, istnieją co najmniej 2 pojęcia reduktów: informacyjne i decyzyjne; Nguyen Hung Son () 24 / 61

29 Definicja Definicja reduktu informacyjnego Zbiór atrybutów B A nazywamy reduktem tablicy A wtw, gdy B zachowuje rozróżnialność zbioru A: t.j. dla dowolnych obiektów x, y U, jeśli x, y są rozróżnialne przez A, to są również rozróżnialne przez B B jest niezredukowalny: tzn. żaden właściwy podzbiór B nie zachowuje rozróżnialności zbioru A (t.j., B jest minimalny pod względem rozróżnialności) Nguyen Hung Son () 25 / 61

30 Definicja Definicja reduktu decyzyjnego Zbiór atrybutów B A nazywamy reduktem tablicy A wtw, gdy B zachowuje rozróżnialność zbioru A względem decyzji dec: t.j. dla dowolnych obiektów x, y U, jeśli dec(x) dec(y) i x, y są rozróżnialne przez A, to są również rozróżnialne przez B B jest niezredukowalny: tzn. żaden właściwy podzbiór B nie zachowuje rozróżnialności zbioru A (B jest minimalny pod względem rozróżnialności) Nguyen Hung Son () 26 / 61

31 Zbiór reduktów RED(S) = zbiór wszystkich reduktów tablicy decyzyjnej S; Jeśli S = (U, A {dec}) i A = n to RED(S) ( ) n n/2 rdzenie: zbiór atrybutów będących we wszystkich reduktach K = B RED(S) B Nguyen Hung Son () 27 / 61

32 Problemy obliczeniowe związane z reduktami Znaleźć rdzenie danej tablicy decyzyjnej; Znaleźć jakiś redukt; Znaleźć krótkie redukty; Znaleźć długie redukty; Nguyen Hung Son () 28 / 61

33 Spis treści 1 Wprowadzenie do teorii zbiorów przybliżonych Systemy informacyjne i tablice decyzyjne Redukty 2 Metody wnioskowań Boolowskich w szukaniu reduktów 3 Algorytmy heurystyczne dla problemu reduktu Heurystyka Johnsona Inne heurystyki 4 Systemy decyzyjne oparte o zbiory przybliżone Reguły decyzyjne Regułowe systemy decyzyjne Szukanie minimalnych reguł decyzyjnych Nguyen Hung Son () 29 / 61

34 Szkic metody 1 Konstrukcja funkcji odróżnialności: Zmienne boolowskie: atrybuty a 1,..., a k ; Klauzula: φ u,v = {a A : a(u) a(v)} Funkcja rozróżnialności: F S (a 1,..., a k ) = x,y U:dec(x) dec(y) φ x,y (a 1,..., a k ) Nguyen Hung Son () 30 / 61

35 Szkic metody 1 Konstrukcja funkcji odróżnialności: Zmienne boolowskie: atrybuty a 1,..., a k ; Klauzula: φ u,v = {a A : a(u) a(v)} Funkcja rozróżnialności: F S (a 1,..., a k ) = x,y U:dec(x) dec(y) φ x,y (a 1,..., a k ) 2 przekształcenie funkcji rozróżnialności do postaci DNF Nguyen Hung Son () 30 / 61

36 Szkic metody 1 Konstrukcja funkcji odróżnialności: Zmienne boolowskie: atrybuty a 1,..., a k ; Klauzula: φ u,v = {a A : a(u) a(v)} Funkcja rozróżnialności: F S (a 1,..., a k ) = x,y U:dec(x) dec(y) φ x,y (a 1,..., a k ) 2 przekształcenie funkcji rozróżnialności do postaci DNF 3 każdy implikant pierwszy odpowiada jednemu reduktowi; Nguyen Hung Son () 30 / 61

37 Przykład tablicy decyzyjnej Hurt. Jakość obsługi Jakość towaru Obok autostrady? Centrum? decyzja ID a 1 a 2 a 3 a 4 dec 1 dobra dobra nie nie strata 2 dobra dobra nie tak strata 3 bdb dobra nie nie zysk 4 slaba super nie nie zysk 5 slaba niska tak nie zysk 6 slaba niska tak tak strata 7 bdb niska tak tak zysk 8 dobra super nie nie strata 9 dobra niska tak nie zysk 10 slaba super tak nie zysk 11 dobra super tak tak zysk 12 bdb super nie tak zysk 13 bdb dobra tak nie? 14 slaba super nie tak? Nguyen Hung Son () 31 / 61

38 Macierz i funkcja odróżnialności M a 1 a 1, a 4 a 1, a 2, a 3, a 4 a 1, a 2 4 a 1, a 2 a 1, a 2, a 4 a 2, a 3, a 4 a 1 5 a 1, a 2, a 3 a 1, a 2, a 3, a 4 a 4 a 1, a 2, a 3 7 a 1, a 2, a 3, a 4 a 1, a 2, a 3 a 1 a 1, a 2, a 3, a 4 9 a 2, a 3 a 2, a 3, a 4 a 1, a 4 a 2, a 3 10 a 1, a 2, a 3 a 1, a 2, a 3, a 4 a 2, a 4 a 1, a 3 11 a 2, a 3, a 4 a 2, a 3 a 1, a 2 a 3, a 4 12 a 1, a 2, a 4 a 1, a 2 a 1, a 2, a 3 a 1, a 4 f = (α 1 )(α 1 α 4 )(α 1 α 2 )(α 1 α 2 α 3 α 4 )(α 1 α 2 α 4 ) (α 2 α 3 α 4 )(α 1 α 2 α 3 )(α 4 )(α 2 α 3 )(α 2 α 4 ) (α 1 α 3 )(α 3 α 4 )(α 1 α 2 α 4 ) Nguyen Hung Son () 32 / 61

39 Szukanie reduktów f = (α 1 )(α 1 α 4 )(α 1 α 2 )(α 1 α 2 α 3 α 4 )(α 1 α 2 α 4 ) (α 2 α 3 α 4 )(α 1 α 2 α 3 )(α 4 )(α 2 α 3 )(α 2 α 4 ) (α 1 α 3 )(α 3 α 4 )(α 1 α 2 α 4 ) usuwanie alternatyw regułą pochłaniania(t.j. p (p q) p): f = (α 1 )(α 4 )(α 2 α 3 ) Nguyen Hung Son () 33 / 61

40 Szukanie reduktów f = (α 1 )(α 1 α 4 )(α 1 α 2 )(α 1 α 2 α 3 α 4 )(α 1 α 2 α 4 ) (α 2 α 3 α 4 )(α 1 α 2 α 3 )(α 4 )(α 2 α 3 )(α 2 α 4 ) (α 1 α 3 )(α 3 α 4 )(α 1 α 2 α 4 ) usuwanie alternatyw regułą pochłaniania(t.j. p (p q) p): f = (α 1 )(α 4 )(α 2 α 3 ) sprowadzanie funkcji f z postaci CNF (koniunkcja alternatyw) do postaci DNF (alternatywa koniunkcji) f = α 1 α 4 α 2 α 1 α 4 α 3 Nguyen Hung Son () 33 / 61

41 Szukanie reduktów f = (α 1 )(α 1 α 4 )(α 1 α 2 )(α 1 α 2 α 3 α 4 )(α 1 α 2 α 4 ) (α 2 α 3 α 4 )(α 1 α 2 α 3 )(α 4 )(α 2 α 3 )(α 2 α 4 ) (α 1 α 3 )(α 3 α 4 )(α 1 α 2 α 4 ) usuwanie alternatyw regułą pochłaniania(t.j. p (p q) p): f = (α 1 )(α 4 )(α 2 α 3 ) sprowadzanie funkcji f z postaci CNF (koniunkcja alternatyw) do postaci DNF (alternatywa koniunkcji) f = α 1 α 4 α 2 α 1 α 4 α 3 Każdy składnik jest reduktem! Zatem mamy 2 redukty: R 1 = {A 1, A 2, A 4 } i R 2 = {A 1, A 3, A 4 } Nguyen Hung Son () 33 / 61

42 Spis treści 1 Wprowadzenie do teorii zbiorów przybliżonych Systemy informacyjne i tablice decyzyjne Redukty 2 Metody wnioskowań Boolowskich w szukaniu reduktów 3 Algorytmy heurystyczne dla problemu reduktu Heurystyka Johnsona Inne heurystyki 4 Systemy decyzyjne oparte o zbiory przybliżone Reguły decyzyjne Regułowe systemy decyzyjne Szukanie minimalnych reguł decyzyjnych Nguyen Hung Son () 34 / 61

43 Spis treści 1 Wprowadzenie do teorii zbiorów przybliżonych Systemy informacyjne i tablice decyzyjne Redukty 2 Metody wnioskowań Boolowskich w szukaniu reduktów 3 Algorytmy heurystyczne dla problemu reduktu Heurystyka Johnsona Inne heurystyki 4 Systemy decyzyjne oparte o zbiory przybliżone Reguły decyzyjne Regułowe systemy decyzyjne Szukanie minimalnych reguł decyzyjnych Nguyen Hung Son () 35 / 61

44 Heurystyka Johnsona: algorytm zachłanny Atrybut jest ważniejszy jeśli częściej występuje w klauzulach; Nguyen Hung Son () 36 / 61

45 Heurystyka Johnsona: algorytm zachłanny Atrybut jest ważniejszy jeśli częściej występuje w klauzulach; Selekcja: W każdym kroku wybierzmy atrybut, który najczęściej występuje w funkcji rozróżnialności; Nguyen Hung Son () 36 / 61

46 Heurystyka Johnsona: algorytm zachłanny Atrybut jest ważniejszy jeśli częściej występuje w klauzulach; Selekcja: W każdym kroku wybierzmy atrybut, który najczęściej występuje w funkcji rozróżnialności; Usuwanie: Usuwamy z tej funkcji te klauzule, które zawierają wybrany atrybut; Nguyen Hung Son () 36 / 61

47 Heurystyka Johnsona: algorytm zachłanny Atrybut jest ważniejszy jeśli częściej występuje w klauzulach; Selekcja: W każdym kroku wybierzmy atrybut, który najczęściej występuje w funkcji rozróżnialności; Usuwanie: Usuwamy z tej funkcji te klauzule, które zawierają wybrany atrybut; Powtarzamy Selekcja i Usuwanie dopóty, póki funkcja rozróżnialność zawiera jeszcze jakąś klazulę. Nguyen Hung Son () 36 / 61

48 Heurystyka zachłanna Heurystyka Johnsona 1 Znaleźć atrybut, który występuje najczęściej w macierzy rozróżnialności. 2 Usuwać wszystkie pola zawierające wybrany atrybut 3 Powtarzamy dopóki wszystkie pola macierzy są puste Nguyen Hung Son () 37 / 61

49 Przykład działania M a 1 a 1, a 4 a 1, a 2, a 3, a 4 a 1, a 2 4 a 1, a 2 a 1, a 2, a 4 a 2, a 3, a 4 a 1 5 a 1, a 2, a 3 a 1, a 2, a 3, a 4 a 4 a 1, a 2, a 3 7 a 1, a 2, a 3, a 4 a 1, a 2, a 3 a 1 a 1, a 2, a 3, a 4 9 a 2, a 3 a 2, a 3, a 4 a 1, a 4 a 2, a 3 10 a 1, a 2, a 3 a 1, a 2, a 3, a 4 a 2, a 4 a 1, a 3 11 a 2, a 3, a 4 a 2, a 3 a 1, a 2 a 3, a 4 12 a 1, a 2, a 4 a 1, a 2 a 1, a 2, a 3 a 1, a 4 W macierzy nierozróznialności z poprzedniego przykładu a 1 - występuje 23 razy a 2 - występuje 23 razy a 3 - występuje 18 razy a 4 - występuje 16 razy Jeśli wybieramy a 1, to po usunięciu pól zawierających a 1 zostało 9 niepustych pól macierzy nierozróżnialności. Wśród nich: a 2 - występuje 7 razy a 3 - występuje 7 razy a 4 - występuje 6 razy Jeśli wybieramy tym razem a 2 to zostały 2 niepuste pola i wśród nich a 4 jest zdecydowanym faworytem. Możemy dostać w ten sposób redukt: R 1 = {a 1, a 2, a 4 }. Nguyen Hung Son () 38 / 61

50 Jak dobra jest heurystyka Johnsona? Niech X = {(u, v) U 2 : dec(u) dec(v)}; Niech S ai = {(u, v) X : a i (u) a i (v)}; Niech C A będzie minimalnym reduktem, lecz C = {a 1,..., a k } będzie reduktem znalezionym przez heurystykę Johnsona; Załóżmy, że heurystyka Johnsona musi płacić 1zł za każdym razem, gdy dodała a i do C. Rozłóżmy ten koszt tym elementom, które zostały po raz pierwszy pokryte przez zbiór S ai Niech c x = koszt ponoszony przez x. Jeśli x jest pokryty po raz pierwszy przez a i, to c x = 1 S ai (S a1... S ai 1 ) Nguyen Hung Son () 39 / 61

51 Jak dobra jest heurystyka Johnsona? Heurystyka Johnsona ponosi łączny koszt = C. Mamy C = c x x X c x a C x S a Gdybyśmy pokazali, że dla dowolnego altrybutu a A x S a c x H( S a ) gdzie H(n) = n 1 i=1 i, wówczas możemy oszacować dalej: C c x C H(max{ S a : a A }) a C x S a C H( X ) C ln( X + 1) Nguyen Hung Son () 40 / 61

52 Lemat Dla dowolnego altrybutu a A Dowód: x S a c x H( S a ) Niech u i = S a (S a1... S ai 1 ), mamy: u 0 = S a... u i 1 u i... u k = 0; gdzie k jest najmniejszym indeksem t., że S a = S a1... S ak Zatem k c x = (u i 1 u i ) x S a i=0 k (u i 1 u i ) i=0 1 S ai (S a1... S ai 1 ) 1 u i 1 k (H(u i 1 ) H(u i )) = H( S a ) i=0 Nguyen Hung Son () 41 / 61

53 Spis treści 1 Wprowadzenie do teorii zbiorów przybliżonych Systemy informacyjne i tablice decyzyjne Redukty 2 Metody wnioskowań Boolowskich w szukaniu reduktów 3 Algorytmy heurystyczne dla problemu reduktu Heurystyka Johnsona Inne heurystyki 4 Systemy decyzyjne oparte o zbiory przybliżone Reguły decyzyjne Regułowe systemy decyzyjne Szukanie minimalnych reguł decyzyjnych Nguyen Hung Son () 42 / 61

54 Inne heurystyki do szukania implikantów pierwszych ILP (Integer Linear Program) Symulowane wyżarzanie (simulated annealing) Algorytmy genetyczne SAT solver??? Nguyen Hung Son () 43 / 61

55 ILP Dana jest funkcja f : {0, 1} n {0, 1} zapisana w postaci CNF za pomocą zmiennych x 1,..., x n 1 Utwórz nowe zmienne {y 1,..., y 2n } odpowiadające literałom x 1, x 1,..., x n, x n ; 2 Dla każdej zmiennej x i, utwórzmy nierówność y 2i 1 + y 2i 1 3 Zamień każdą klausulę ω i = (l i1... l ini ) na nierówność y i y ini 1; 4 Utwórzmy układ nierówności z poprzednich punktów: Ay b 5 Zagadnienie programowania liniowego liczb całkowitych (ILP) jest definiowane jako problem szukania n min y i przy ograniczeniu: Ay b. i=1 Nguyen Hung Son () 44 / 61

56 Spis treści 1 Wprowadzenie do teorii zbiorów przybliżonych Systemy informacyjne i tablice decyzyjne Redukty 2 Metody wnioskowań Boolowskich w szukaniu reduktów 3 Algorytmy heurystyczne dla problemu reduktu Heurystyka Johnsona Inne heurystyki 4 Systemy decyzyjne oparte o zbiory przybliżone Reguły decyzyjne Regułowe systemy decyzyjne Szukanie minimalnych reguł decyzyjnych Nguyen Hung Son () 45 / 61

57 Spis treści 1 Wprowadzenie do teorii zbiorów przybliżonych Systemy informacyjne i tablice decyzyjne Redukty 2 Metody wnioskowań Boolowskich w szukaniu reduktów 3 Algorytmy heurystyczne dla problemu reduktu Heurystyka Johnsona Inne heurystyki 4 Systemy decyzyjne oparte o zbiory przybliżone Reguły decyzyjne Regułowe systemy decyzyjne Szukanie minimalnych reguł decyzyjnych Nguyen Hung Son () 46 / 61

58 description language (język deskryptorów) Let A be a set of attributes. The description language for A is a triple where L(A) = (D, {,, }, F) D is a called the set of descriptors D = {(a = v) : a A and v V al a } {,, } is a set of standard Boolean operators F is a set of boolean expressions defined on D called formulas. For any B A we denote by D B the set of descriptors restricted to B where D B = {(a = v) : a B and v V al a } We also denote by F B the set of formulas build from D B. Nguyen Hung Son () 47 / 61

59 Semantyka w systemach informacyjnych The semantics Let S = (U, A) be an information table describing a sample U X. The semantics of any formula φ F, denoted by [[φ]] S, is defined by induction as follows: [[(a = v)]] S = {x U : a(x) = v} (1) [[φ 1 φ 2 ]] S = [[φ 1 ]] S [[φ 2 ]] S (2) [[φ 1 φ 2 ]] S = [[φ 1 ]] S [[φ 2 ]] S (3) [[ φ]] S = U \ [[φ]] S (4) We associate with every formula φ the following numeric features: length(φ) = the number of descriptors that occur in φ; support(φ) = [[φ]] S = the number of objects that match the formula; Nguyen Hung Son () 48 / 61

60 Reguły decyzyjne Definicja reguł decyzyjnych Let S = {U, A {dec}} be a decision table. Any implication of a form φ δ where φ F A and δ F dec, is called the decision rule in S. The formula φ is called the premise of the decision rule r and δ is called the consequence of r. We denote the premise and the consequence of the decision rule r by prev(r) and cons(r), respectively. Nguyen Hung Son () 49 / 61

61 reguły... Generic decision rule The decision rule r whose the premise is a boolean monomial of descriptors, i.e., r (a i1 = v 1 )... (a im = v m ) (dec = k) (5) is called the generic decision rule. We will consider generic decision rules only. For a simplification, we will talk about decision rules keeping in mind the generic ones. Nguyen Hung Son () 50 / 61

62 Reguły... Every decision rule r of the form (5) can be characterized by the following featured: length(r) = the number of descriptor on the assumption of r (i.e. the left hand side of implication) [r] = the carrier of r, i.e. the set of objects from U satisfying the assumption of r support(r) = the number of objects satisfying the assumption of r: support(r) = card([r]) confidence(r) = the confidence of r: confidence(r) = [r] DEC k [r] The decision rule r is called consistent with A if confidence(r) = 1 Nguyen Hung Son () 51 / 61

63 Minimalne reguły minimal consistent rules For a given decision table S = (U, A {dec}), the consistent rule: r = φ (dec = k) is called the minimal consistent decision rule if any decision rule φ (dec = k) where φ is a shortening of φ is not consistent with S. Nguyen Hung Son () 52 / 61

64 Spis treści 1 Wprowadzenie do teorii zbiorów przybliżonych Systemy informacyjne i tablice decyzyjne Redukty 2 Metody wnioskowań Boolowskich w szukaniu reduktów 3 Algorytmy heurystyczne dla problemu reduktu Heurystyka Johnsona Inne heurystyki 4 Systemy decyzyjne oparte o zbiory przybliżone Reguły decyzyjne Regułowe systemy decyzyjne Szukanie minimalnych reguł decyzyjnych Nguyen Hung Son () 53 / 61

65 Ogólne metody Any rule based classification method consists of three phases : 1 Learning phase: generates a set of decision rules RU LES(A) from a given decision table A. 2 Rule selection phase: selects from RU LES(A) the set of such rules that can be supported by x. We denote this set by M atchrules(a, x). 3 Classifying phase: makes a decision for x using some voting algorithm for decision rules from M atchrules(a, x) with respect to the following cases: 1 If MatchRules(A, x) is empty: the decision for x is UNKNOW N, i.e. we have no idea how to classify x; 2 If M atchrules(a, x) consists of decision rules for the same decision class, say k th decision class: in this case dec(x) = k; 3 If M atchrules(a, x) consists of decision rules for the different decision classes: in this case the decision for x should be made using some voting algorithm for decision rules from M atchrules(a, x). Nguyen Hung Son () 54 / 61

66 Filtrowanie reguł Every set of rules determines a rough approximation of the given concept via the conflict solver; The quality of rules is estimated by training data set - a finite sample of the whole universe; Conflict solving = elimination of noisy and mistakes caused by abnormal rules! Not every rule, which is compatible with the training data set, is also compatible with the universe; It is better to eliminate abnormal rules according to the domain knowledge; Nguyen Hung Son () 55 / 61

67 Filtering approach supervised methods of filtering: according to rule support; according to the class coverage ratio of rules; according to rule length; by coverage algorithm: e.g., LEM2 method Nguyen Hung Son () 56 / 61

68 Spis treści 1 Wprowadzenie do teorii zbiorów przybliżonych Systemy informacyjne i tablice decyzyjne Redukty 2 Metody wnioskowań Boolowskich w szukaniu reduktów 3 Algorytmy heurystyczne dla problemu reduktu Heurystyka Johnsona Inne heurystyki 4 Systemy decyzyjne oparte o zbiory przybliżone Reguły decyzyjne Regułowe systemy decyzyjne Szukanie minimalnych reguł decyzyjnych Nguyen Hung Son () 57 / 61

69 Metoda Oparta o Wnioskowanie Boolowskie Każda reguła powstaje poprzez skracanie opisu jakiegoś obiektu. Redukty lokalne Te same heurystyki dla reduktów decyzyjnych. Nguyen Hung Son () 58 / 61

70 Przykład tablicy decyzyjnej Hurt. Jakość obsługi Jakość towaru Obok autostrady? Centrum? decyzja ID a 1 a 2 a 3 a 4 dec 1 dobra dobra nie nie strata 2 dobra dobra nie tak strata 3 bdb dobra nie nie zysk 4 slaba super nie nie zysk 5 slaba niska tak nie zysk 6 slaba niska tak tak strata 7 bdb niska tak tak zysk 8 dobra super nie nie strata 9 dobra niska tak nie zysk 10 slaba super tak nie zysk 11 dobra super tak tak zysk 12 bdb super nie tak zysk 13 bdb dobra tak nie? 14 slaba super nie tak? Nguyen Hung Son () 59 / 61

71 Macierz i funkcja lokalnych odróżnialności M a 1 a 1, a 4 a 1, a 2, a 3, a 4 a 1, a 2 4 a 1, a 2 a 1, a 2, a 4 a 2, a 3, a 4 a 1 5 a 1, a 2, a 3 a 1, a 2, a 3, a 4 a 4 a 1, a 2, a 3 7 a 1, a 2, a 3, a 4 a 1, a 2, a 3 a 1 a 1, a 2, a 3, a 4 9 a 2, a 3 a 2, a 3, a 4 a 1, a 4 a 2, a 3 10 a 1, a 2, a 3 a 1, a 2, a 3, a 4 a 2, a 4 a 1, a 3 11 a 2, a 3, a 4 a 2, a 3 a 1, a 2 a 3, a 4 12 a 1, a 2, a 4 a 1, a 2 a 1, a 2, a 3 a 1, a 4 f u3 = (α 1 )(α 1 α 4 )(α 1 α 2 α 3 α 4 )(α 1 α 2 ) = α 1 Reguły: (a 1 = bdb) = dec = zysk Nguyen Hung Son () 60 / 61

72 Macierz i funkcja lokalnych odróżnialności M a 1 a 1, a 4 a 1, a 2, a 3, a 4 a 1, a 2 4 a 1, a 2 a 1, a 2, a 4 a 2, a 3, a 4 a 1 5 a 1, a 2, a 3 a 1, a 2, a 3, a 4 a 4 a 1, a 2, a 3 7 a 1, a 2, a 3, a 4 a 1, a 2, a 3 a 1 a 1, a 2, a 3, a 4 9 a 2, a 3 a 2, a 3, a 4 a 1, a 4 a 2, a 3 10 a 1, a 2, a 3 a 1, a 2, a 3, a 4 a 2, a 4 a 1, a 3 11 a 2, a 3, a 4 a 2, a 3 a 1, a 2 a 3, a 4 12 a 1, a 2, a 4 a 1, a 2 a 1, a 2, a 3 a 1, a 4 f u8 = (α 1 α 2 )(α 1 )(α 1 α 2 α 3 )(α 1 α 2 α 3 α 4 )(α 2 α 3 ) (α 1 α 3 )(α 3 α 4 )(α 1 α 4 ) = α 1 (α 2 α 3 )(α 3 α 4 ) = α 1 α 3 α 1 α 2 α 4 Reguły: (a 1 = dobra) (a 3 = nie) = dec = strata (a 1 = dobra) (a 2 = super) (a 4 = nie) = dec = strata Nguyen Hung Son () 61 / 61

Wyk lad 8: Leniwe metody klasyfikacji

Wyk lad 8: Leniwe metody klasyfikacji Wyk lad 8: Leniwe metody Wydzia l MIM, Uniwersytet Warszawski Outline 1 2 lazy vs. eager learning lazy vs. eager learning Kiedy stosować leniwe techniki? Eager learning: Buduje globalna hipoteze Zaleta:

Bardziej szczegółowo

Wnioskowanie Boolowskie i teoria zbiorów przybli»onych

Wnioskowanie Boolowskie i teoria zbiorów przybli»onych Wnioskowanie Boolowskie i teoria zbiorów przybli»onych 4 Zbiory przybli»one Wprowadzenie do teorii zbiorów przybli»onych Zªo»ono± problemu szukania reduktów 5 Wnioskowanie Boolowskie w obliczaniu reduktów

Bardziej szczegółowo

Sztuczna inteligencja

Sztuczna inteligencja POLITECHNIKA KRAKOWSKA WIEiK KATEDRA AUTOMATYKI I TECHNIK INFORMACYJNYCH Sztuczna inteligencja www.pk.edu.pl/~zk/si_hp.html Wykładowca: dr inż. Zbigniew Kokosiński zk@pk.edu.pl Wykład 10: Zbiory przybliżone

Bardziej szczegółowo

Matematyka stosowana. Systemy decyzyjne. Hung Son Nguyen

Matematyka stosowana. Systemy decyzyjne. Hung Son Nguyen Matematyka stosowana Systemy decyzyjne Hung Son Nguyen son@mimuw.edu.pl http://www.mimuw.edu.pl/~son Uniwersytet Warszawski, 2011 Streszczenie. Przegląd metod klasyfikacji i wspomagania podejmowania decyzji

Bardziej szczegółowo

Wnioskowanie Boolowskie i teoria zbiorów przybli»onych

Wnioskowanie Boolowskie i teoria zbiorów przybli»onych Wnioskowanie Boolowskie i teoria zbiorów przybli»onych 4 Zbiory przybli»one Wprowadzenie do teorii zbiorów przybli»onych Zªo»ono± problemu szukania reduktów 5 Wnioskowanie Boolowskie w obliczaniu reduktów

Bardziej szczegółowo

WSPOMAGANIE DECYZJI - MIŁOSZ KADZIŃSKI LAB IV ZBIORY PRZYBLIŻONE I ODKRYWANIE REGUŁ DECYZYJNYCH

WSPOMAGANIE DECYZJI - MIŁOSZ KADZIŃSKI LAB IV ZBIORY PRZYBLIŻONE I ODKRYWANIE REGUŁ DECYZYJNYCH WSOMAGANIE DECYZJI - MIŁOSZ KADZIŃSKI LAB IV ZBIORY RZYBLIŻONE I ODKRYWANIE REGUŁ DECYZYJNYCH 1. Definicje Zbiory, które nie są zbiorami definiowalnymi, są nazywane zbiorami przybliżonymi. Zbiory definiowalne

Bardziej szczegółowo

Reguły decyzyjne, algorytm AQ i CN2. Reguły asocjacyjne, algorytm Apriori.

Reguły decyzyjne, algorytm AQ i CN2. Reguły asocjacyjne, algorytm Apriori. Analiza danych Reguły decyzyjne, algorytm AQ i CN2. Reguły asocjacyjne, algorytm Apriori. Jakub Wróblewski jakubw@pjwstk.edu.pl http://zajecia.jakubw.pl/ REGUŁY DECYZYJNE Metoda reprezentacji wiedzy (modelowania

Bardziej szczegółowo

Hard-Margin Support Vector Machines

Hard-Margin Support Vector Machines Hard-Margin Support Vector Machines aaacaxicbzdlssnafiyn9vbjlepk3ay2gicupasvu4iblxuaw2hjmuwn7ddjjmxm1bkcg1/fjqsvt76fo9/gazqfvn8y+pjpozw5vx8zkpvtfxmlhcwl5zxyqrm2vrg5zw3vxmsoezi4ogkr6phieky5crvvjhriqvdom9l2xxftevuwcekj3lktmhghgniauiyutvrwxtvme34a77kbvg73gtygpjsrfati1+xc8c84bvraowbf+uwnipyehcvmkjrdx46vlykhkgykm3ujjdhcyzqkxy0chur6ax5cbg+1m4bbjptjcubuz4kuhvjoql93hkin5hxtav5x6yyqopnsyuneey5ni4keqrxbar5wqaxbik00icyo/iveiyqqvjo1u4fgzj/8f9x67bzmxnurjzmijtlybwfgcdjgfdtajwgcf2dwaj7ac3g1ho1n4814n7wwjgjmf/ys8fenfycuzq==

Bardziej szczegółowo

Systemy ekspertowe. Eksploracja danych z wykorzystaniem tablic decyzyjnych i zbiorów przybliżonych. Część trzecia

Systemy ekspertowe. Eksploracja danych z wykorzystaniem tablic decyzyjnych i zbiorów przybliżonych. Część trzecia Część trzecia Autor Roman Simiński Eksploracja danych z wykorzystaniem tablic decyzyjnych i zbiorów przybliżonych Kontakt siminski@us.edu.pl www.us.edu.pl/~siminski Niniejsze opracowanie zawiera skrót

Bardziej szczegółowo

Zbiory przybliżone, cz. 1 (wersja do druku) dr. Piotr Szczuko

Zbiory przybliżone, cz. 1 (wersja do druku) dr. Piotr Szczuko Zbiory przybliżone, cz. 1 (wersja do druku) dr. Piotr Szczuko Katedra Systemów Multimedialnych 2009 Plan wykładu Historia zbiorów przybliżonych System informacyjny i decyzyjny Reguły decyzyjne Tożsamość

Bardziej szczegółowo

A Zadanie

A Zadanie where a, b, and c are binary (boolean) attributes. A Zadanie 1 2 3 4 5 6 7 8 9 10 Punkty a (maks) (2) (2) (2) (2) (4) F(6) (8) T (8) (12) (12) (40) Nazwisko i Imiȩ: c Uwaga: ta część zostanie wypełniona

Bardziej szczegółowo

B jest globalnym pokryciem zbioru {d} wtedy i tylko wtedy, gdy {d} zależy od B i nie istnieje B T takie, że {d} zależy od B ;

B jest globalnym pokryciem zbioru {d} wtedy i tylko wtedy, gdy {d} zależy od B i nie istnieje B T takie, że {d} zależy od B ; Algorytm LEM1 Oznaczenia i definicje: U - uniwersum, tj. zbiór obiektów; A - zbiór atrybutów warunkowych; d - atrybut decyzyjny; IND(B) = {(x, y) U U : a B a(x) = a(y)} - relacja nierozróżnialności, tj.

Bardziej szczegółowo

Indukowane Reguły Decyzyjne I. Wykład 3

Indukowane Reguły Decyzyjne I. Wykład 3 Indukowane Reguły Decyzyjne I Wykład 3 IRD Wykład 3 Plan Powtórka Grafy Drzewa klasyfikacyjne Testy wstęp Klasyfikacja obiektów z wykorzystaniem drzewa Reguły decyzyjne generowane przez drzewo 2 Powtórzenie

Bardziej szczegółowo

Teoretyczne podstawy zbiorów przybliżonych

Teoretyczne podstawy zbiorów przybliżonych Teoretyczne podstawy zbiorów przybliżonych Agnieszka Nowak 17 kwietnia 2009 1 Podstawy teorii zbiorów przybliżonych 1.1 Wstęp Teoria zbiorów przybliżonych została sformułowana przez Zdzisława Pawlaka w

Bardziej szczegółowo

System informacyjny a system decyzyjny Relacja nierozróżnialności Klasy abstrakcji Teoria zbiorów przybliżonych Usuwanie niespójności z tablicy

System informacyjny a system decyzyjny Relacja nierozróżnialności Klasy abstrakcji Teoria zbiorów przybliżonych Usuwanie niespójności z tablicy System informacyjny a system decyzyjny Relacja nierozróżnialności Klasy abstrakcji Teoria zbiorów przybliżonych Usuwanie niespójności z tablicy decyzyjnej System informacyjny System informacyjny SI zdefiniowany

Bardziej szczegółowo

Systemy ekspertowe : Tablice decyzyjne

Systemy ekspertowe : Tablice decyzyjne Instytut Informatyki Uniwersytetu Śląskiego 16 marzec 2010 Tablica decyzyjna Klasy nierozróżnialności i klasy decyzyjne Rdzeń Redukt Macierz nierozróżnialności Rdzeń i redukt w macierzy nierozróżnialności

Bardziej szczegółowo

Sztuczna Inteligencja Projekt

Sztuczna Inteligencja Projekt Sztuczna Inteligencja Projekt Temat: Algorytm F-LEM1 Liczba osób realizujących projekt: 2 1. Zaimplementować algorytm F LEM 1. 2. Zaimplementować klasyfikator Classif ier. 3. Za pomocą algorytmu F LEM1

Bardziej szczegółowo

Metody indukcji reguł

Metody indukcji reguł Metody indukcji reguł Indukcja reguł Grupa metod charakteryzująca się wydobywaniem reguł ostrych na podstawie analizy przypadków. Dane doświadczalne składają się z dwóch części: 1) wejściowych X, gdzie

Bardziej szczegółowo

Wprowadzenie do zbiorów przybliżonych

Wprowadzenie do zbiorów przybliżonych Instytut Informatyki, Uniwersytet Śląski, ul. Będzinska 39, Sosnowiec, Polska Tel (32) 2 918 381, Fax (32) 2 918 283 Wykład II i III Wstęp Teoria zbiorów przybliżonych została sformułowana przez Zdzisława

Bardziej szczegółowo

Sztuczna Inteligencja Projekt

Sztuczna Inteligencja Projekt Sztuczna Inteligencja Projekt Temat: Algorytm LEM2 Liczba osób realizujących projekt: 2 1. Zaimplementować algorytm LEM 2. 2. Zaimplementować klasyfikator Classif ier. 3. Za pomocą algorytmu LEM 2 wygenerować

Bardziej szczegółowo

1. Reguły minimalne (optymalne) Podstawowe twierdzenia i definicje. Definicja 1 Funkcję postaci f. nazwiemy n-argumentową funkcją boolowską.

1. Reguły minimalne (optymalne) Podstawowe twierdzenia i definicje. Definicja 1 Funkcję postaci f. nazwiemy n-argumentową funkcją boolowską. 1. Reguły minimalne (optymalne) Podstawowe twierdzenia i definicje Definicja 1 Funkcję postaci f n :{ 0, 1} { 0, 1} nazwiemy n-argumentową funkcją boolowską. Definicja 2 1 2 Term g = x 1 x x ( ϕ ) ( ϕ

Bardziej szczegółowo

Drzewa decyzyjne. Nguyen Hung Son. Nguyen Hung Son () DT 1 / 34

Drzewa decyzyjne. Nguyen Hung Son. Nguyen Hung Son () DT 1 / 34 Drzewa decyzyjne Nguyen Hung Son Nguyen Hung Son () DT 1 / 34 Outline 1 Wprowadzenie Definicje Funkcje testu Optymalne drzewo 2 Konstrukcja drzew decyzyjnych Ogólny schemat Kryterium wyboru testu Przycinanie

Bardziej szczegółowo

Wprowadzenie. Data Science Uczenie się pod nadzorem

Wprowadzenie. Data Science Uczenie się pod nadzorem Wprowadzenie Wprowadzenie Wprowadzenie Wprowadzenie Machine Learning Mind Map Historia Wstęp lub uczenie się z przykładów jest procesem budowy, na bazie dostępnych danych wejściowych X i oraz wyjściowych

Bardziej szczegółowo

Odkrywanie wiedzy z danych przy użyciu zbiorów przybliżonych. Wykład 3

Odkrywanie wiedzy z danych przy użyciu zbiorów przybliżonych. Wykład 3 Odkrywanie wiedzy z danych przy użyciu zbiorów przybliżonych Wykład 3 W internecie Teoria zbiorów przybliżonych zaproponowany w 1982 r. przez prof. Zdzisława Pawlaka formalizm matematyczny, stanowiący

Bardziej szczegółowo

Systemy ekspertowe. Generowanie reguł minimalnych. Część czwarta. Autor Roman Simiński.

Systemy ekspertowe. Generowanie reguł minimalnych. Część czwarta.  Autor Roman Simiński. Część czwarta Autor Roman Simiński Kontakt siminski@us.edu.pl www.us.edu.pl/~siminski Niniejsze opracowanie zawiera skrót treści wykładu, lektura tych materiałów nie zastąpi uważnego w nim uczestnictwa.

Bardziej szczegółowo

Systemy decyzyjne Wprowadzenie

Systemy decyzyjne Wprowadzenie Hung Son Nguyen (UW) Systemy decyzyjne Wprowadzenie 2007 1 / 34 Systemy decyzyjne Wprowadzenie Hung Son Nguyen Institute of Mathematics, Warsaw University son@mimuw.edu.pl 2007 Hung Son Nguyen (UW) Systemy

Bardziej szczegółowo

SID Wykład 10 Systemy uczace się

SID Wykład 10 Systemy uczace się SID Wykład 10 Systemy uczace się Wydział Matematyki, Informatyki i Mechaniki UW slezak@mimuw.edu.pl Uczenie indukcyjne Obiekty: Decyzja: dane reprezentujace rzeczywisty stan lub obiekt, tworza przestrzeń

Bardziej szczegółowo

komputery? Andrzej Skowron, Hung Son Nguyen Instytut Matematyki, Wydział MIM, UW

komputery? Andrzej Skowron, Hung Son Nguyen  Instytut Matematyki, Wydział MIM, UW Czego moga się nauczyć komputery? Andrzej Skowron, Hung Son Nguyen son@mimuw.edu.pl; skowron@mimuw.edu.pl Instytut Matematyki, Wydział MIM, UW colt.tex Czego mogą się nauczyć komputery? Andrzej Skowron,

Bardziej szczegółowo

Zbiory przybliżone w obszarze systemów ekspertowych

Zbiory przybliżone w obszarze systemów ekspertowych Zbiory przybliżone w obszarze systemów ekspertowych Agnieszka Nowak Institute of Computer Science, University of Silesia Bȩdzińska 39, 41 200 Sosnowiec, Poland e-mail: nowak@us.edu.pl 1 Wprowadzenie Okres

Bardziej szczegółowo

Tablicowa reprezentacja danych

Tablicowa reprezentacja danych Wstęp Teoria zbiorów przybliżonych została sformułowana przez Zdzisława Pawlaka w 1982 roku. Jest ona wykorzystywana jako narzędzie do syntezy zaawansowanych i efektywnych metod analizy oraz do redukcji

Bardziej szczegółowo

Machine Learning for Data Science (CS4786) Lecture11. Random Projections & Canonical Correlation Analysis

Machine Learning for Data Science (CS4786) Lecture11. Random Projections & Canonical Correlation Analysis Machine Learning for Data Science (CS4786) Lecture11 5 Random Projections & Canonical Correlation Analysis The Tall, THE FAT AND THE UGLY n X d The Tall, THE FAT AND THE UGLY d X > n X d n = n d d The

Bardziej szczegółowo

Co to są drzewa decyzji

Co to są drzewa decyzji Drzewa decyzji Co to są drzewa decyzji Drzewa decyzji to skierowane grafy acykliczne Pozwalają na zapis reguł w postaci strukturalnej Przyspieszają działanie systemów regułowych poprzez zawężanie przestrzeni

Bardziej szczegółowo

Teoria systemów uczacych się i wymiar Vapnika-Chervonenkisa

Teoria systemów uczacych się i wymiar Vapnika-Chervonenkisa Systemy uczace się 2009 1 / 32 Teoria systemów uczacych się i wymiar Vapnika-Chervonenkisa Hung Son Nguyen Wydział Matematyki, Informatyki i Mechaniki Uniwersytet Warszawski email: son@mimuw.edu.pl Grudzień

Bardziej szczegółowo

Baza danych dla potrzeb zgłębiania DMX

Baza danych dla potrzeb zgłębiania DMX Baza danych dla potrzeb zgłębiania DMX ID Outlook Temperature Humidity Windy PLAY 1 sunny hot high false N 2 sunny hot high true N 3 overcast hot high false T 4rain mild high false T 5rain cool normal

Bardziej szczegółowo

Granular Computing 9999 pages 15 METODY SZTUCZNEJ INTELIGENCJI - PROJEKTY

Granular Computing 9999 pages 15 METODY SZTUCZNEJ INTELIGENCJI - PROJEKTY Granular Computing 9999 pages 15 METODY SZTUCZNEJ INTELIGENCJI - PROJEKTY PB 2 PB 1 Projekt z wyznaczania reduktów zbioru Liczba osób realizuj cych projekt: 1-2 osoby 1. Wczytanie danych w formatach arf,

Bardziej szczegółowo

Aproksymacja diofantyczna

Aproksymacja diofantyczna Aproksymacja diofantyczna Szymon Draga Ustroń, 4 listopada 0 r Wprowadzenie Jak wiadomo, każdą liczbę niewymierną można (z dowolną dokładnością) aproksymować liczbami wymiernymi Powstaje pytanie, w jaki

Bardziej szczegółowo

KDD and DM 1 W8: REGUŁY DECYZYJNE. Nguyen Hung Son

KDD and DM 1 W8: REGUŁY DECYZYJNE. Nguyen Hung Son DM 1 W8: REGUŁY DECYZYJNE Nguyen Hung Son Tematy DM 2 Reguły decyzyjne: prosty opis klas decyzyjnych Problem wyszukiwania reguł decyzyjnych Algorytmy generowania reguł decyzyjnych Sekwencyjne pokrywanie

Bardziej szczegółowo

Reguły asocjacyjne, wykł. 11

Reguły asocjacyjne, wykł. 11 Reguły asocjacyjne, wykł. 11 Joanna Jędrzejowicz Instytut Informatyki Przykłady reguł Analiza koszyka sklepowego (ang. market basket analysis) - jakie towary kupowane są razem, Jakie towary sprzedają się

Bardziej szczegółowo

Elementy logiki. Wojciech Buszkowski Wydział Matematyki i Informatyki UAM Zakład Teorii Obliczeń

Elementy logiki. Wojciech Buszkowski Wydział Matematyki i Informatyki UAM Zakład Teorii Obliczeń Elementy logiki Wojciech Buszkowski Wydział Matematyki i Informatyki UAM Zakład Teorii Obliczeń 1 Klasyczny Rachunek Zdań 1.1 Spójniki logiczne Zdaniem w sensie logicznym nazywamy wyrażenie, które jest

Bardziej szczegółowo

Lokalna odwracalność odwzorowań, odwzorowania uwikłane

Lokalna odwracalność odwzorowań, odwzorowania uwikłane Lokalna odwracalność odwzorowań, odwzorowania uwikłane Katedra Matematyki i Ekonomii Matematycznej Szkoła Główna Handlowa 17 maja 2012 Definicja Mówimy, że odwzorowanie F : X R n, gdzie X R n, jest lokalnie

Bardziej szczegółowo

Weronika Mysliwiec, klasa 8W, rok szkolny 2018/2019

Weronika Mysliwiec, klasa 8W, rok szkolny 2018/2019 Poniższy zbiór zadań został wykonany w ramach projektu Mazowiecki program stypendialny dla uczniów szczególnie uzdolnionych - najlepsza inwestycja w człowieka w roku szkolnym 2018/2019. Tresci zadań rozwiązanych

Bardziej szczegółowo

Linear Classification and Logistic Regression. Pascal Fua IC-CVLab

Linear Classification and Logistic Regression. Pascal Fua IC-CVLab Linear Classification and Logistic Regression Pascal Fua IC-CVLab 1 aaagcxicbdtdbtmwfafwdgxlhk8orha31ibqycvkdgpshdqxtwotng2pxtvqujmok1qlky5xllzrnobbediegwcap4votk2kqkf+/y/tnphdschtadu/giv3vtea99cfma8fpx7ytlxx7ckns4sylo3doom7jguhj1hxchmy/irhrlgh67lxb5x3blis8jjqynmedqujiu5zsqqagrx+yjcfpcrydusshmzeluzsg7tttiew5khhcuzm5rv0gn1unw6zl3gbzlpr3liwncyr6aaqinx4wnc/rpg6ix5szd86agoftuu0g/krjxdarph62enthdey3zn/+mi5zknou2ap+tclvhob9sxhwvhaqketnde7geqjp21zvjsfrcnkfhtejoz23vq97elxjlpbtmxpl6qxtl1sgfv1ptpy/yq9mgacrzkgje0hjj2rq7vtywnishnnkzsqekucnlblrarlh8x8szxolrrxkb8n6o4kmo/e7siisnozcfvsedlol60a/j8nmul/gby8mmssrfr2it8lkyxr9dirxxngzthtbaejv

Bardziej szczegółowo

1 Zbiory. 1.1 Kiedy {a} = {b, c}? (tzn. podać warunki na a, b i c) 1.2 Udowodnić, że A {A} A =.

1 Zbiory. 1.1 Kiedy {a} = {b, c}? (tzn. podać warunki na a, b i c) 1.2 Udowodnić, że A {A} A =. 1 Zbiory 1.1 Kiedy {a} = {b, c}? (tzn. podać warunki na a, b i c) 1.2 Udowodnić, że A {A} A =. 1.3 Pokazać, że jeśli A, B oraz (A B) (B A) = C C, to A = B = C. 1.4 Niech {X t } będzie rodziną niepustych

Bardziej szczegółowo

Systemy decyzyjne Wyk lad 4: Drzewa decyzyjne

Systemy decyzyjne Wyk lad 4: Drzewa decyzyjne Systemy decyzyjne Wyk lad 4: Outline Wprowadzenie 1 Wprowadzenie 2 Problem brakujacych wartości 3 Co to jest drzewo decyzyjne Jest to struktura drzewiasta, w której wez ly wewnetrzne zawieraja testy na

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład XIV: Metody Monte Carlo 19 stycznia 2016 Przybliżone obliczanie całki oznaczonej Rozważmy całkowalną funkcję f : [0, 1] R. Chcemy znaleźć przybliżoną wartość liczbową całki 1 f (x) dx. 0 Jeden ze

Bardziej szczegółowo

Wprowadzenie do programu RapidMiner, część 2 Michał Bereta 1. Wykorzystanie wykresu ROC do porównania modeli klasyfikatorów

Wprowadzenie do programu RapidMiner, część 2 Michał Bereta  1. Wykorzystanie wykresu ROC do porównania modeli klasyfikatorów Wprowadzenie do programu RapidMiner, część 2 Michał Bereta www.michalbereta.pl 1. Wykorzystanie wykresu ROC do porównania modeli klasyfikatorów Zaimportuj dane pima-indians-diabetes.csv. (Baza danych poświęcona

Bardziej szczegółowo

PRACA DYPLOMOWA MAGISTERSKA. Analiza danych z zastosowaniem teorii zbiorów przybliżonych.

PRACA DYPLOMOWA MAGISTERSKA. Analiza danych z zastosowaniem teorii zbiorów przybliżonych. POLITECHNIKA WARSZAWSKA WYDZIAŁ ELEKTRONIKI I TECHNIK INFORMACYJNYCH INSTYTUT INFORMATYKI Rok akademicki 2003/2004 PRACA DYPLOMOWA MAGISTERSKA Andrzej Dominik Analiza danych z zastosowaniem teorii zbiorów

Bardziej szczegółowo

Indukcja. Materiały pomocnicze do wykładu. wykładowca: dr Magdalena Kacprzak

Indukcja. Materiały pomocnicze do wykładu. wykładowca: dr Magdalena Kacprzak Indukcja Materiały pomocnicze do wykładu wykładowca: dr Magdalena Kacprzak Charakteryzacja zbioru liczb naturalnych Arytmetyka liczb naturalnych Jedną z najważniejszych teorii matematycznych jest arytmetyka

Bardziej szczegółowo

Sortowanie topologiczne skierowanych grafów acyklicznych

Sortowanie topologiczne skierowanych grafów acyklicznych Sortowanie topologiczne skierowanych grafów acyklicznych Metody boolowskie w informatyce Robert Sulkowski http://robert.brainusers.net 23 stycznia 2010 1 Definicja 1 (Cykl skierowany). Niech C = (V, A)

Bardziej szczegółowo

Ensembles of Approximate Decision Reducts in Classification Problems. Zespoły Aproksymacyjnych Reduktów Decyzyjnych w Problemach Klasyfikacji

Ensembles of Approximate Decision Reducts in Classification Problems. Zespoły Aproksymacyjnych Reduktów Decyzyjnych w Problemach Klasyfikacji POLSKA AKADEMIA NAUK Instytut Badań Systemowych Streszczenie rozprawy doktorskiej pt. Ensembles of Approximate Decision Reducts in Classification Problems Zespoły Aproksymacyjnych Reduktów Decyzyjnych

Bardziej szczegółowo

Struktury danych i złożoność obliczeniowa Wykład 2. Prof. dr hab. inż. Jan Magott

Struktury danych i złożoność obliczeniowa Wykład 2. Prof. dr hab. inż. Jan Magott Struktury danych i złożoność obliczeniowa Wykład 2. Prof. dr hab. inż. Jan Magott Metody konstrukcji algorytmów: Siłowa (ang. brute force), Dziel i zwyciężaj (ang. divide-and-conquer), Zachłanna (ang.

Bardziej szczegółowo

Analiza algorytmów zadania podstawowe

Analiza algorytmów zadania podstawowe Analiza algorytmów zadania podstawowe Zadanie 1 Zliczanie Zliczaj(n) 1 r 0 2 for i 1 to n 1 3 do for j i + 1 to n 4 do for k 1 to j 5 do r r + 1 6 return r 0 Jaka wartość zostanie zwrócona przez powyższą

Bardziej szczegółowo

Wprowadzenie Sformułowanie problemu Typy reguł asocjacyjnych Proces odkrywania reguł asocjacyjnych. Data Mining Wykład 2

Wprowadzenie Sformułowanie problemu Typy reguł asocjacyjnych Proces odkrywania reguł asocjacyjnych. Data Mining Wykład 2 Data Mining Wykład 2 Odkrywanie asocjacji Plan wykładu Wprowadzenie Sformułowanie problemu Typy reguł asocjacyjnych Proces odkrywania reguł asocjacyjnych Geneza problemu Geneza problemu odkrywania reguł

Bardziej szczegółowo

Revenue Maximization. Sept. 25, 2018

Revenue Maximization. Sept. 25, 2018 Revenue Maximization Sept. 25, 2018 Goal So Far: Ideal Auctions Dominant-Strategy Incentive Compatible (DSIC) b i = v i is a dominant strategy u i 0 x is welfare-maximizing x and p run in polynomial time

Bardziej szczegółowo

ROUGH SET BASED DECISION SUPPORT

ROUGH SET BASED DECISION SUPPORT ROUGH SET BASED DECISION SUPPORT Roman Słowiński Laboratory of Intelligent Decision Support Systems Institute of Computing Science Poznań University of Technology Roman Słowiński Motywacje Wzrasta przepaść

Bardziej szczegółowo

Metoda tabel semantycznych. Dedukcja drogi Watsonie, dedukcja... Definicja logicznej konsekwencji. Logika obliczeniowa.

Metoda tabel semantycznych. Dedukcja drogi Watsonie, dedukcja... Definicja logicznej konsekwencji. Logika obliczeniowa. Plan Procedura decyzyjna Reguły α i β - algorytm Plan Procedura decyzyjna Reguły α i β - algorytm Logika obliczeniowa Instytut Informatyki 1 Procedura decyzyjna Logiczna konsekwencja Teoria aksjomatyzowalna

Bardziej szczegółowo

Złożoność obliczeniowa

Złożoność obliczeniowa Złożoność obliczeniowa Jakub Michaliszyn 26 kwietnia 2017 Są problemy rozstrzygalne i nierozstrzygalne Są problemy rozstrzygalne i nierozstrzygalne Jak rozwiązywać te, które są rozstrzygalne? Są problemy

Bardziej szczegółowo

Wykład z modelowania matematycznego. Zagadnienie transportowe.

Wykład z modelowania matematycznego. Zagadnienie transportowe. Wykład z modelowania matematycznego. Zagadnienie transportowe. 1 Zagadnienie transportowe zostało sformułowane w 1941 przez F.L.Hitchcocka. Metoda rozwiązania tego zagadnienia zwana algorytmem transportowymópracowana

Bardziej szczegółowo

Instrukcja obsługi User s manual

Instrukcja obsługi User s manual Instrukcja obsługi User s manual Konfigurator Lanberg Lanberg Configurator E-mail: support@lanberg.pl support@lanberg.eu www.lanberg.pl www.lanberg.eu Lanberg 2015-2018 WERSJA VERSION: 2018/11 Instrukcja

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska

SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska DRZEWO REGRESYJNE Sposób konstrukcji i przycinania

Bardziej szczegółowo

Logika Stosowana. Wykład 1 - Logika zdaniowa. Marcin Szczuka. Instytut Informatyki UW. Wykład monograficzny, semestr letni 2016/2017

Logika Stosowana. Wykład 1 - Logika zdaniowa. Marcin Szczuka. Instytut Informatyki UW. Wykład monograficzny, semestr letni 2016/2017 Logika Stosowana Wykład 1 - Logika zdaniowa Marcin Szczuka Instytut Informatyki UW Wykład monograficzny, semestr letni 2016/2017 Marcin Szczuka (MIMUW) Logika Stosowana 2017 1 / 30 Plan wykładu 1 Język

Bardziej szczegółowo

Rozpoznawanie twarzy metodą PCA Michał Bereta 1. Testowanie statystycznej istotności różnic między jakością klasyfikatorów

Rozpoznawanie twarzy metodą PCA Michał Bereta   1. Testowanie statystycznej istotności różnic między jakością klasyfikatorów Rozpoznawanie twarzy metodą PCA Michał Bereta www.michalbereta.pl 1. Testowanie statystycznej istotności różnic między jakością klasyfikatorów Wiemy, że możemy porównywad klasyfikatory np. za pomocą kroswalidacji.

Bardziej szczegółowo

Machine Learning for Data Science (CS4786) Lecture 24. Differential Privacy and Re-useable Holdout

Machine Learning for Data Science (CS4786) Lecture 24. Differential Privacy and Re-useable Holdout Machine Learning for Data Science (CS4786) Lecture 24 Differential Privacy and Re-useable Holdout Defining Privacy Defining Privacy Dataset + Defining Privacy Dataset + Learning Algorithm Distribution

Bardziej szczegółowo

WYKŁAD 11 Uczenie maszynowe drzewa decyzyjne

WYKŁAD 11 Uczenie maszynowe drzewa decyzyjne WYKŁAD 11 Uczenie maszynowe drzewa decyzyjne Reprezentacja wiedzy w postaci drzew decyzyjnych entropia, przyrost informacji algorytmy ID3, C4.5 problem przeuczenia wyznaczanie reguł rzykładowe drzewo decyzyjne

Bardziej szczegółowo

System BCD z κ. Adam Slaski na podstawie wykładów, notatek i uwag Pawła Urzyczyna. Semestr letni 2009/10

System BCD z κ. Adam Slaski na podstawie wykładów, notatek i uwag Pawła Urzyczyna. Semestr letni 2009/10 System BCD z κ Adam Slaski na podstawie wykładów, notatek i uwag Pawła Urzyczyna Semestr letni 2009/10 Rozważamy system BCD ze stałą typową κ i aksjomatami ω κ κ i κ ω κ. W pierwszej części tej notatki

Bardziej szczegółowo

METODA SYMPLEKS. Maciej Patan. Instytut Sterowania i Systemów Informatycznych Uniwersytet Zielonogórski

METODA SYMPLEKS. Maciej Patan. Instytut Sterowania i Systemów Informatycznych Uniwersytet Zielonogórski METODA SYMPLEKS Maciej Patan Uniwersytet Zielonogórski WSTĘP Algorytm Sympleks najpotężniejsza metoda rozwiązywania programów liniowych Metoda generuje ciąg dopuszczalnych rozwiązań x k w taki sposób,

Bardziej szczegółowo

Funkcje dwóch zmiennych, pochodne cząstkowe

Funkcje dwóch zmiennych, pochodne cząstkowe Wykłady z matematyki inżynierskiej Funkcje dwóch zmiennych, pochodne cząstkowe JJ, IMiF UTP 17 f (x, y) DEFINICJA. Funkcja dwóch zmiennych określona w zbiorze D R 2, to przyporządkowanie każdemu punktowi

Bardziej szczegółowo

Teoria liczb. Wykład nr 9: Przybliżanie liczb rzeczywistych. Ułamki łańcuchowe (cz.1) Semestr letni 2018/2019

Teoria liczb. Wykład nr 9: Przybliżanie liczb rzeczywistych. Ułamki łańcuchowe (cz.1) Semestr letni 2018/2019 Teoria liczb Wykład nr 9: Przybliżanie liczb rzeczywistych. Ułamki łańcuchowe (cz.1) Semestr letni 2018/2019 Trzy sposoby definiowania liczb rzeczywistych Dedekind Parę (A, B) podzbiorów zbioru Q nazywamy

Bardziej szczegółowo

Wybrane podstawowe rodzaje algorytmów

Wybrane podstawowe rodzaje algorytmów Wybrane podstawowe rodzaje algorytmów Tomasz Głowacki tglowacki@cs.put.poznan.pl Zajęcia finansowane z projektu "Rozwój i doskonalenie kształcenia na Politechnice Poznańskiej w zakresie technologii informatycznych

Bardziej szczegółowo

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny

Bardziej szczegółowo

SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006

SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006 SAS wybrane elementy DATA MINING Część III Seweryn Kowalski 2006 Algorytmy eksploracji danych Algorytm eksploracji danych jest dobrze zdefiniowaną procedurą, która na wejściu otrzymuje dane, a na wyjściu

Bardziej szczegółowo

Agnieszka Nowak Brzezińska Wykład III

Agnieszka Nowak Brzezińska Wykład III Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe

Bardziej szczegółowo

Matematyka dyskretna

Matematyka dyskretna Matematyka dyskretna Wykład 6: Ciała skończone i kongruencje Gniewomir Sarbicki 24 lutego 2015 Relacja przystawania Definicja: Mówimy, że liczby a, b Z przystają modulo m (co oznaczamy jako a = b (mod

Bardziej szczegółowo

Previously on CSCI 4622

Previously on CSCI 4622 More Naïve Bayes aaace3icbvfba9rafj7ew423vr998obg2gpzkojyh4rcx3ys4lafzbjmjifdototmhoilml+hf/mn3+kl+jkdwtr64gbj+8yl2/ywklhsfircg/dvnp33s796mhdr4+fdj4+o3fvywvorkuqe5zzh0oanjakhwe1ra5zhaf5xvgvn35f62rlvtcyxpnm50awundy1hzwi46jbmgprbtrrvidrg4jre4g07kak+picee6xfgiwvfaltorirucni64eeigkqhpegbwaxglabftpyq4gjbls/hw2ci7tr2xj5ddfmfzwtazj6ubmyddgchbzpf88dmrktfonct6vazputos5zakunhfweow5ukcn+puq8m1ulm7kq+d154pokysx4zgxw4nwq6dw+rcozwnhbuu9et/tgld5cgslazuci1yh1q2ynca/u9ais0kukspulds3xxegvtyfycu8iwk1598e0z2xx/g6ef94ehbpo0d9ok9yiowsvfskh1ix2zcbpsdvaxgww7wj4zdn+he2hogm8xz9s+e7/4cuf/ata==

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych

Bardziej szczegółowo

KADD Minimalizacja funkcji

KADD Minimalizacja funkcji Minimalizacja funkcji Poszukiwanie minimum funkcji Foma kwadratowa Metody przybliżania minimum minimalizacja Minimalizacja w n wymiarach Metody poszukiwania minimum Otaczanie minimum Podział obszaru zawierającego

Bardziej szczegółowo

Metody zbiorów przybliżonych w uczeniu się podobieństwa z wielowymiarowych zbiorów danych

Metody zbiorów przybliżonych w uczeniu się podobieństwa z wielowymiarowych zbiorów danych Metody zbiorów przybliżonych w uczeniu się podobieństwa z wielowymiarowych zbiorów danych WMIM, Uniwersytet Warszawski ul. Banacha 2, 02-097 Warszawa, Polska andrzejanusz@gmail.com 13.06.2013 Dlaczego

Bardziej szczegółowo

WIELOKRYTERIALNE PORZĄDKOWANIE METODĄ PROMETHEE ODPORNE NA ZMIANY WAG KRYTERIÓW

WIELOKRYTERIALNE PORZĄDKOWANIE METODĄ PROMETHEE ODPORNE NA ZMIANY WAG KRYTERIÓW Uniwersytet Ekonomiczny we Wrocławiu WIELOKRYTERIALNE PORZĄDKOWANIE METODĄ PROMETHEE ODPORNE NA ZMIANY WAG KRYTERIÓW Wprowadzenie Wrażliwość wyników analizy wielokryterialnej na zmiany wag kryteriów, przy

Bardziej szczegółowo

Systemy Wspomagania Decyzji

Systemy Wspomagania Decyzji Reguły Asocjacyjne Szkoła Główna Służby Pożarniczej Zakład Informatyki i Łączności March 18, 2014 1 Wprowadzenie 2 Definicja 3 Szukanie reguł asocjacyjnych 4 Przykłady użycia 5 Podsumowanie Problem Lista

Bardziej szczegółowo

Matematyka dyskretna

Matematyka dyskretna Matematyka dyskretna Wykład 6: Ciała skończone i kongruencje Gniewomir Sarbicki 2 marca 2017 Relacja przystawania Definicja: Mówimy, że liczby a, b Z przystają modulo m (co oznaczamy jako a = b (mod m)),

Bardziej szczegółowo

Plan wykładu. Przykład. Przykład 3/19/2011. Przykład zagadnienia transportowego. Optymalizacja w procesach biznesowych Wykład 2 DECYZJA?

Plan wykładu. Przykład. Przykład 3/19/2011. Przykład zagadnienia transportowego. Optymalizacja w procesach biznesowych Wykład 2 DECYZJA? /9/ Zagadnienie transportowe Optymalizacja w procesach biznesowych Wykład --9 Plan wykładu Przykład zagadnienia transportowego Sformułowanie problemu Własności zagadnienia transportowego Metoda potencjałów

Bardziej szczegółowo

Metoda Tablic Semantycznych

Metoda Tablic Semantycznych Procedura Plan Reguły Algorytm Logika obliczeniowa Instytut Informatyki Plan Procedura Reguły 1 Procedura decyzyjna Logiczna równoważność formuł Logiczna konsekwencja Procedura decyzyjna 2 Reguły α, β,

Bardziej szczegółowo

Zależności funkcyjne

Zależności funkcyjne Zależności funkcyjne Plan wykładu Pojęcie zależności funkcyjnej Dopełnienie zbioru zależności funkcyjnych Postać minimalna zbioru zależności funkcyjnych Domknięcie atrybutu relacji względem zależności

Bardziej szczegółowo

Wykład 4 Wybór najlepszej procedury. Estymacja parametrów re

Wykład 4 Wybór najlepszej procedury. Estymacja parametrów re Wykład 4 Wybór najlepszej procedury. Estymacja parametrów regresji z wykorzystaniem metody bootstrap. Wrocław, 22.03.2017r Wybór najlepszej procedury - podsumowanie Co nas interesuje przed przeprowadzeniem

Bardziej szczegółowo

Metody numeryczne w przykładach

Metody numeryczne w przykładach Metody numeryczne w przykładach Bartosz Ziemkiewicz Wydział Matematyki i Informatyki UMK, Toruń Regionalne Koło Matematyczne 8 kwietnia 2010 r. Bartosz Ziemkiewicz (WMiI UMK) Metody numeryczne w przykładach

Bardziej szczegółowo

Reguły asocjacyjne w programie RapidMiner Michał Bereta

Reguły asocjacyjne w programie RapidMiner Michał Bereta Reguły asocjacyjne w programie RapidMiner Michał Bereta www.michalbereta.pl 1. Wstęp Reguły asocjacyjne mają na celu odkrycie związków współwystępowania pomiędzy atrybutami. Stosuje się je często do danych

Bardziej szczegółowo

Struktury formalne, czyli elementy Teorii Modeli

Struktury formalne, czyli elementy Teorii Modeli Struktury formalne, czyli elementy Teorii Modeli Szymon Wróbel, notatki z wykładu dra Szymona Żeberskiego semestr zimowy 2016/17 1 Język 1.1 Sygnatura językowa Sygnatura językowa: L = ({f i } i I, {P j

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład IV: 27 października 2014 Współczynnik korelacji Brak korelacji a niezależność Definicja współczynnika korelacji Współczynnikiem korelacji całkowalnych z kwadratem zmiennych losowych X i Y nazywamy

Bardziej szczegółowo

Elementy inteligencji obliczeniowej

Elementy inteligencji obliczeniowej Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego

Bardziej szczegółowo

Liczby zmiennoprzecinkowe i błędy

Liczby zmiennoprzecinkowe i błędy i błędy Elementy metod numerycznych i błędy Kontakt pokój B3-10 tel.: 829 53 62 http://golinski.faculty.wmi.amu.edu.pl/ golinski@amu.edu.pl i błędy Plan wykładu 1 i błędy Plan wykładu 1 2 i błędy Plan

Bardziej szczegółowo

Funkcje. Oznaczenia i pojęcia wstępne. Elementy Logiki i Teorii Mnogości 2015/2016

Funkcje. Oznaczenia i pojęcia wstępne. Elementy Logiki i Teorii Mnogości 2015/2016 Funkcje Elementy Logiki i Teorii Mnogości 2015/2016 Oznaczenia i pojęcia wstępne Niech f X Y będzie relacją. Relację f nazywamy funkcją, o ile dla dowolnego x X istnieje y Y taki, że (x, y) f oraz dla

Bardziej szczegółowo

Informacja o przestrzeniach Sobolewa

Informacja o przestrzeniach Sobolewa Wykład 11 Informacja o przestrzeniach Sobolewa 11.1 Definicja przestrzeni Sobolewa Niech R n będzie zbiorem mierzalnym. Rozważmy przestrzeń Hilberta X = L 2 () z iloczynem skalarnym zdefiniowanym równością

Bardziej szczegółowo

Struktury danych i złozoność obliczeniowa. Prof. dr hab. inż. Jan Magott

Struktury danych i złozoność obliczeniowa. Prof. dr hab. inż. Jan Magott Struktury danych i złozoność obliczeniowa Prof. dr hab. inż. Jan Magott Formy zajęć: Wykład 1 godz., Ćwiczenia 1 godz., Projekt 2 godz.. Adres strony z materiałami do wykładu: http://www.zio.iiar.pwr.wroc.pl/sdizo.html

Bardziej szczegółowo

JEDNORÓWNANIOWY LINIOWY MODEL EKONOMETRYCZNY

JEDNORÓWNANIOWY LINIOWY MODEL EKONOMETRYCZNY JEDNORÓWNANIOWY LINIOWY MODEL EKONOMETRYCZNY Będziemy zapisywać wektory w postaci (,, ) albo traktując go jak macierz jednokolumnową (dzięki temu nie będzie kontrowersji przy transponowaniu wektora ) Model

Bardziej szczegółowo

System informacyjny a system decyzyjny Relacja nierozróżnialności Klasy abstrakcji Teoria zbiorów przybliżonych Usuwanie niespójności z tablicy

System informacyjny a system decyzyjny Relacja nierozróżnialności Klasy abstrakcji Teoria zbiorów przybliżonych Usuwanie niespójności z tablicy System informacyjny a system decyzyjny Relacja nierozróżnialności Klasy abstrakcji Teoria zbiorów przybliżonych Usuwanie niespójności z tablicy decyzyjnej Metody usuwania niespójności z T 1. Pomoc eksperta:

Bardziej szczegółowo

Java Developers Day. Silniki reguł biznesowych

Java Developers Day. Silniki reguł biznesowych Java Developers Day Silniki reguł biznesowych Mariusz Kaczor mariusz.kaczor@altkom.pl Łukasz Szandecki lukasz.szandecki@altkom.pl slide 1 Agenda Mamy problem.. Programowanie deklaratywne Drools przykład

Bardziej szczegółowo

Metody eksploracji danych. Reguły asocjacyjne

Metody eksploracji danych. Reguły asocjacyjne Metody eksploracji danych Reguły asocjacyjne Analiza podobieństw i koszyka sklepowego Analiza podobieństw jest badaniem atrybutów lub cech, które są powiązane ze sobą. Metody analizy podobieństw, znane

Bardziej szczegółowo

SID Wykład 7 Zbiory rozmyte

SID Wykład 7 Zbiory rozmyte SID Wykład 7 Zbiory rozmyte Wydział Matematyki, Informatyki i Mechaniki UW slezak@mimuw.edu.pl Wstęp Language Ontological Commitment Epistemological Commitment (What exists in the world) (What an agent

Bardziej szczegółowo

Treść wykładu. Pierścienie wielomianów. Dzielenie wielomianów i algorytm Euklidesa Pierścienie ilorazowe wielomianów

Treść wykładu. Pierścienie wielomianów. Dzielenie wielomianów i algorytm Euklidesa Pierścienie ilorazowe wielomianów Treść wykładu Pierścienie wielomianów. Definicja Niech P będzie pierścieniem. Wielomianem jednej zmiennej o współczynnikach z P nazywamy każdy ciąg f = (f 0, f 1, f 2,...), gdzie wyrazy ciągu f są prawie

Bardziej szczegółowo