Systemy decyzyjne. Wykład 3: Wnioskowanie Boolowskie w obliczeniu Redutów i reguł decyzyjnych. Nguyen Hung Son. Nguyen Hung Son () 1 / 61
|
|
- Eugeniusz Majewski
- 6 lat temu
- Przeglądów:
Transkrypt
1 Systemy decyzyjne Wykład 3: Wnioskowanie Boolowskie w obliczeniu Redutów i reguł decyzyjnych Nguyen Hung Son Nguyen Hung Son () 1 / 61
2 Spis treści 1 Wprowadzenie do teorii zbiorów przybliżonych Systemy informacyjne i tablice decyzyjne Redukty 2 Metody wnioskowań Boolowskich w szukaniu reduktów 3 Algorytmy heurystyczne dla problemu reduktu Heurystyka Johnsona Inne heurystyki 4 Systemy decyzyjne oparte o zbiory przybliżone Reguły decyzyjne Regułowe systemy decyzyjne Szukanie minimalnych reguł decyzyjnych Nguyen Hung Son () 2 / 61
3 Spis treści 1 Wprowadzenie do teorii zbiorów przybliżonych Systemy informacyjne i tablice decyzyjne Redukty 2 Metody wnioskowań Boolowskich w szukaniu reduktów 3 Algorytmy heurystyczne dla problemu reduktu Heurystyka Johnsona Inne heurystyki 4 Systemy decyzyjne oparte o zbiory przybliżone Reguły decyzyjne Regułowe systemy decyzyjne Szukanie minimalnych reguł decyzyjnych Nguyen Hung Son () 3 / 61
4 Teoria zbiorów przybliżonych Teoria zbiorów przybliżonych jest wprowadzona w latach 80-tych przez prof. Zdzisława Pawlaka. Głównym celem jest dostarczanie narzędzi dla problemu aproksymacji pojęć (zbiorów). Zastosowania w systemach decyzyjnych: Redukcja danych, selekcja ważnych atrybutów Generowanie reguł decyzyjnych Odkrywanie wzorców z danych: szablony, reguły asocjacyjne Odkrywanie zależności w danych Nguyen Hung Son () 4 / 61
5 Systemy informacyjne Definicja Jest to para S = (U, A), gdzie U skończony niepusty zbiór obiektów (ang. cases, states, patients, observations...) A skończony, niepusty zbiór atrybutów. Każdy a A odpowiada pewnej funkcji a : U V a zwanej wartościowaniem, gdzie V a jest nazwana dziedziną atrybutu a. Dla B A, definiujemy Wektor informacji na B (ang. B-information vector) dla obiektu x U jako inf B (x) = {(a, a(x)) : a B} B-information set: INF (S) = {inf B (x) : x U} Nguyen Hung Son () 5 / 61
6 Systemy informacyjne Przykład Patient Age Sex Chol. Resting ECG Heart rate Sick p 1 53 M 203 hyp 155 yes p 2 60 M 185 hyp 155 yes p 3 40 M 199 norm 178 no p 4 46 F 243 norm 144 no p 5 62 F 294 norm 162 no p 6 43 M 177 hyp 120 yes p 7 76 F 197 abnorm 116 no p 8 62 M 267 norm 99 yes p 9 57 M 274 norm 88 yes p M 200 abnorm 100 no Nguyen Hung Son () 6 / 61
7 Tablica decyzyjna Tablica decyzyjna Jest to struktura S = (U, A {dec}), gdzie U jest zbiorem obiektów: U = {u 1,..., u n } A jest zbiorem atrybutów postaci a j : U V j dec jest specjalnym atrybutem zwanym decyzją dec : U {1,..., d} Nguyen Hung Son () 7 / 61
8 Tablica decyzyjna Tablica decyzyjna powstaje ze zwykłych tablic danych poprzez sprecyzowania: Atrybutów: cechy łatwo dostępne, np. pomiary, parametry, dane osobowe,... Decyzji, t.j. cecha ukryta za pewną wiedzą (pojęciem) nieznaną: Decyzja jest znana tylko dla obiektów z (treningowej) tablicy decyzyjnej Jest podana przez eksperta (np. lekarza) lub na podstawie późniejszych obserwacji (np. ocena giełdy). chcemy ją określić dla dowolnych obiektów na podstawie atrybutów Nguyen Hung Son () 8 / 61
9 Przykład Przedstawiona tablica decyzyjna zawiera: 8 obiektów będących opisami pacjentów 3 atrybuty: Headache, Muscle pain, Temp. Decyzję określającą pacjenta jako przeziębionego lub nie Example U Headache Muscle pain Temp. Flu p1 Yes Yes Normal No p2 Yes Yes High Yes p3 Yes Yes Very-high Yes p4 No Yes Normal No p5 No No High No p6 No Yes Very-high Yes p7 No Yes High Yes p8 No No Very-high No Nguyen Hung Son () 9 / 61
10 Relacja rozróżnialności Dane są obiekty x, y U i zbiór atrybutów B A, mówimy, że x, y są rozróżnialne przez B wtw, gdy istnieje a B taki, że a(x) a(y) x, y są nieodróżnialne przez B, jeśli one są identyczne na B, tzn. a(x) = a(y) dla każdego a B [x] B = zbiór obiektów nieodróżnialnych z x przez B Nguyen Hung Son () 10 / 61
11 Relacja rozróżnialności Dla każdych obiektów x, y: albo [x] B = [y] B albo [x]b [y]b = Relacja x IND B y := x, y są nieodróżnialne przez B jest relacją równoważności. Każdy zbiór atrybutów B A wyznacza podział zbioru obiektów na klasy nieodróżnialności Nguyen Hung Son () 11 / 61
12 Przykład Dla B = {Headache, M usclepain} obiekty p1, p2, p3 są nierozróżnialne. są 3 klasy nieodróżnialności relacji IND B : [p1] B = {p1, p2, p3} [p4]b = {p4, p6, p7} [p5]b = {p5, p8} Example U Headache Muscle pain Temp. Flu p1 Yes Yes Normal No p2 Yes Yes High Yes p3 Yes Yes Very-high Yes p4 No Yes Normal No p5 No No High No p6 No Yes Very-high Yes p7 No Yes High Yes p8 No No Very-high No Nguyen Hung Son () 12 / 61
13 Relacja rozróżnialności i aproksymacja pojęć Każdy zbiór obiektów X (np. klasa decyzyjna, pojęcie) może być opisany za pomocą atrybutów ze zbioru B dokładnie lub w przybliżeniu dokładnie: jeśli X jest sumą pewnych klas nieodróznialności definiowanych przez B (ZBIORY DOKŁADNE) w przybliżeniu: w przeciwnym przypadku (ZBIORY PRZYBLIŻONE) W obu przypadkach X może być opisany przez 2 dokładne zbiory zwane dolną i górną aproksymacją zbioru X B(X) = {x : [x] B X} B(X) = {x : [x] B X } Nguyen Hung Son () 13 / 61
14 Aproksymacja pojęć Obszar brzegowy (B-boundary region) pojęcia X zawiera obiekty, dla których nie możemy jednoznacznie decydować czy należy do X czy nie na podstawie atrybutów z B Obszar zewnętrzny (B-outside region of X) zawiera obiekty, które możemy pewnie klasyfikować jako elementy pojęcia X. Zbiór jest przybliżony (rough set) jeśli obszar brzegowy jest niepusty, w przeciwnym przypadku zbiór jest nazwany dokładny (crisp set). Nguyen Hung Son () 14 / 61
15 Przykład Niech B = {a 1, a 2 } A a 1 a 2 a 3 a 4 d ID outlook temp. hum. windy play 1 sunny hot high FALSE no 2 sunny hot high TRUE no 3 overcast hot high FALSE yes 4 rainy mild high FALSE yes 5 rainy cool normal FALSE yes 6 rainy cool normal TRUE no 7 overcast cool normal TRUE yes 8 sunny mild high FALSE no 9 sunny cool normal FALSE yes 10 rainy mild normal FALSE yes 11 sunny mild normal TRUE yes 12 overcast mild high TRUE yes 13 overcast hot normal FALSE yes 14 rainy mild high TRUE no Nguyen Hung Son () 15 / 61
16 Przykład Niech B = {a 1, a 2 } IND(B) = {{1, 2}, (sunny, hot) {3, 13}, (overcast, hot) {4, 10, 14}, (rainy, mild) {5, 6}, (rainy, cool) {8, 11}, (sunny, mild) {7}, {9}, {12}} A a 1 a 2 a 3 a 4 d ID outlook temp. hum. windy play 1 sunny hot high FALSE no 2 sunny hot high TRUE no 3 overcast hot high FALSE yes 4 rainy mild high FALSE yes 5 rainy cool normal FALSE yes 6 rainy cool normal TRUE no 7 overcast cool normal TRUE yes 8 sunny mild high FALSE no 9 sunny cool normal FALSE yes 10 rainy mild normal FALSE yes 11 sunny mild normal TRUE yes 12 overcast mild high TRUE yes 13 overcast hot normal FALSE yes 14 rainy mild high TRUE no Nguyen Hung Son () 15 / 61
17 Przykład Niech B = {a 1, a 2 } IND(B) = {{1, 2}, (sunny, hot) {3, 13}, (overcast, hot) {4, 10, 14}, (rainy, mild) {5, 6}, (rainy, cool) {8, 11}, (sunny, mild) {7}, {9}, {12}} Consider a concept defined by (play=no) X = CLASS no = {1, 2, 6, 8, 14} A a 1 a 2 a 3 a 4 d ID outlook temp. hum. windy play 1 sunny hot high FALSE no 2 sunny hot high TRUE no 3 overcast hot high FALSE yes 4 rainy mild high FALSE yes 5 rainy cool normal FALSE yes 6 rainy cool normal TRUE no 7 overcast cool normal TRUE yes 8 sunny mild high FALSE no 9 sunny cool normal FALSE yes 10 rainy mild normal FALSE yes 11 sunny mild normal TRUE yes 12 overcast mild high TRUE yes 13 overcast hot normal FALSE yes 14 rainy mild high TRUE no Nguyen Hung Son () 15 / 61
18 Przykład Niech B = {a 1, a 2 } IND(B) = {{1, 2}, (sunny, hot) {3, 13}, (overcast, hot) {4, 10, 14}, (rainy, mild) {5, 6}, (rainy, cool) {8, 11}, (sunny, mild) {7}, {9}, {12}} Consider a concept defined by (play=no) X = CLASS no = {1, 2, 6, 8, 14} Aproksymacje pojęcia X: A a 1 a 2 a 3 a 4 d ID outlook temp. hum. windy play 1 sunny hot high FALSE no 2 sunny hot high TRUE no 3 overcast hot high FALSE yes 4 rainy mild high FALSE yes 5 rainy cool normal FALSE yes 6 rainy cool normal TRUE no 7 overcast cool normal TRUE yes 8 sunny mild high FALSE no 9 sunny cool normal FALSE yes 10 rainy mild normal FALSE yes 11 sunny mild normal TRUE yes 12 overcast mild high TRUE yes 13 overcast hot normal FALSE yes 14 rainy mild high TRUE no L B (X) = {1, 2} U B (X) = {1, 2, 5, 6, 8, 11, 4, 10, 14} Nguyen Hung Son () 15 / 61
19 Przykład Niech B = {a 1, a 2 } IND(B) = {{1, 2}, (sunny, hot) {3, 13}, (overcast, hot) {4, 10, 14}, (rainy, mild) {5, 6}, (rainy, cool) {8, 11}, (sunny, mild) {7}, {9}, {12}} Consider a concept defined by (play=no) X = CLASS no = {1, 2, 6, 8, 14} Aproksymacje pojęcia X: L B (X) = {1, 2} U B (X) = {1, 2, 5, 6, 8, 11, 4, 10, 14} Reguła pewna: If B(x) = (sunny, hot) then d(x) = no A a 1 a 2 a 3 a 4 d ID outlook temp. hum. windy play 1 sunny hot high FALSE no 2 sunny hot high TRUE no 3 overcast hot high FALSE yes 4 rainy mild high FALSE yes 5 rainy cool normal FALSE yes 6 rainy cool normal TRUE no 7 overcast cool normal TRUE yes 8 sunny mild high FALSE no 9 sunny cool normal FALSE yes 10 rainy mild normal FALSE yes 11 sunny mild normal TRUE yes 12 overcast mild high TRUE yes 13 overcast hot normal FALSE yes 14 rainy mild high TRUE no Reguły przybliżone: If B(x) = (rainy, cool) then d(x) = no If B(x) = (rainy, mild) then d(x) = no If B(x) = (sunny, mild) then d(x) = no Nguyen Hung Son () 15 / 61
20 Pączek U AX X AX Nguyen Hung Son () 16 / 61
21 Dokładność aproksymacji Accuracy of approximation 0 α B (X) 1 α B (X) = B(X) B(X) Jeśli α B (X) = 1, to zbiór X jest dokładnie definiowany przez B; Jeśli α B (X) < 1, to zbiór X jest aproksymacyjnie definiowany przez B; Nguyen Hung Son () 17 / 61
22 Redukty W systemach decyzyjnych, nie wszystkie atrybuty są potrzebne do procesie podejmowania decyzji; Chcemy wybrać pewne podzbiory atrybutów niezbędnych do tego celu; Redukty to minimalne podzbiory atrybutów zachowujących charakterystykę całego zbioru atrybutów. W teorii zbiorów przybliżonych, istnieją co najmniej 2 pojęcia reduktów: informacyjne i decyzyjne; Nguyen Hung Son () 18 / 61
23 Definicja Definicja reduktu informacyjnego Zbiór atrybutów B A nazywamy reduktem tablicy A wtw, gdy B zachowuje rozróżnialność zbioru A: t.j. dla dowolnych obiektów x, y U, jeśli x, y są rozróżnialne przez A, to są również rozróżnialne przez B B jest niezredukowalny: tzn. żaden właściwy podzbiór B nie zachowuje rozróżnialności zbioru A (t.j., B jest minimalny pod względem rozróżnialności) Nguyen Hung Son () 19 / 61
24 Definicja Definicja reduktu decyzyjnego Zbiór atrybutów B A nazywamy reduktem tablicy A wtw, gdy B zachowuje rozróżnialność zbioru A względem decyzji dec: t.j. dla dowolnych obiektów x, y U, jeśli dec(x) dec(y) i x, y są rozróżnialne przez A, to są również rozróżnialne przez B B jest niezredukowalny: tzn. żaden właściwy podzbiór B nie zachowuje rozróżnialności zbioru A (B jest minimalny pod względem rozróżnialności) Nguyen Hung Son () 20 / 61
25 Zbiór reduktów RED(S) = zbiór wszystkich reduktów tablicy decyzyjnej S; Jeśli S = (U, A {dec}) i A = n to RED(S) ( ) n n/2 rdzenie: zbiór atrybutów będących we wszystkich reduktach K = B RED(S) B Nguyen Hung Son () 21 / 61
26 Problemy obliczeniowe związane z reduktami Znaleźć rdzenie danej tablicy decyzyjnej; Znaleźć jakiś redukt; Znaleźć krótkie redukty; Znaleźć długie redukty; Nguyen Hung Son () 22 / 61
27 Spis treści 1 Wprowadzenie do teorii zbiorów przybliżonych Systemy informacyjne i tablice decyzyjne Redukty 2 Metody wnioskowań Boolowskich w szukaniu reduktów 3 Algorytmy heurystyczne dla problemu reduktu Heurystyka Johnsona Inne heurystyki 4 Systemy decyzyjne oparte o zbiory przybliżone Reguły decyzyjne Regułowe systemy decyzyjne Szukanie minimalnych reguł decyzyjnych Nguyen Hung Son () 23 / 61
28 Motywacje W systemach decyzyjnych, nie wszystkie atrybuty są potrzebne do procesie podejmowania decyzji; Chcemy wybrać pewne podzbiory atrybutów niezbędnych do tego celu; Redukty to minimalne podzbiory atrybutów zachowujących charakterystykę całego zbioru atrybutów. W teorii zbiorów przybliżonych, istnieją co najmniej 2 pojęcia reduktów: informacyjne i decyzyjne; Nguyen Hung Son () 24 / 61
29 Definicja Definicja reduktu informacyjnego Zbiór atrybutów B A nazywamy reduktem tablicy A wtw, gdy B zachowuje rozróżnialność zbioru A: t.j. dla dowolnych obiektów x, y U, jeśli x, y są rozróżnialne przez A, to są również rozróżnialne przez B B jest niezredukowalny: tzn. żaden właściwy podzbiór B nie zachowuje rozróżnialności zbioru A (t.j., B jest minimalny pod względem rozróżnialności) Nguyen Hung Son () 25 / 61
30 Definicja Definicja reduktu decyzyjnego Zbiór atrybutów B A nazywamy reduktem tablicy A wtw, gdy B zachowuje rozróżnialność zbioru A względem decyzji dec: t.j. dla dowolnych obiektów x, y U, jeśli dec(x) dec(y) i x, y są rozróżnialne przez A, to są również rozróżnialne przez B B jest niezredukowalny: tzn. żaden właściwy podzbiór B nie zachowuje rozróżnialności zbioru A (B jest minimalny pod względem rozróżnialności) Nguyen Hung Son () 26 / 61
31 Zbiór reduktów RED(S) = zbiór wszystkich reduktów tablicy decyzyjnej S; Jeśli S = (U, A {dec}) i A = n to RED(S) ( ) n n/2 rdzenie: zbiór atrybutów będących we wszystkich reduktach K = B RED(S) B Nguyen Hung Son () 27 / 61
32 Problemy obliczeniowe związane z reduktami Znaleźć rdzenie danej tablicy decyzyjnej; Znaleźć jakiś redukt; Znaleźć krótkie redukty; Znaleźć długie redukty; Nguyen Hung Son () 28 / 61
33 Spis treści 1 Wprowadzenie do teorii zbiorów przybliżonych Systemy informacyjne i tablice decyzyjne Redukty 2 Metody wnioskowań Boolowskich w szukaniu reduktów 3 Algorytmy heurystyczne dla problemu reduktu Heurystyka Johnsona Inne heurystyki 4 Systemy decyzyjne oparte o zbiory przybliżone Reguły decyzyjne Regułowe systemy decyzyjne Szukanie minimalnych reguł decyzyjnych Nguyen Hung Son () 29 / 61
34 Szkic metody 1 Konstrukcja funkcji odróżnialności: Zmienne boolowskie: atrybuty a 1,..., a k ; Klauzula: φ u,v = {a A : a(u) a(v)} Funkcja rozróżnialności: F S (a 1,..., a k ) = x,y U:dec(x) dec(y) φ x,y (a 1,..., a k ) Nguyen Hung Son () 30 / 61
35 Szkic metody 1 Konstrukcja funkcji odróżnialności: Zmienne boolowskie: atrybuty a 1,..., a k ; Klauzula: φ u,v = {a A : a(u) a(v)} Funkcja rozróżnialności: F S (a 1,..., a k ) = x,y U:dec(x) dec(y) φ x,y (a 1,..., a k ) 2 przekształcenie funkcji rozróżnialności do postaci DNF Nguyen Hung Son () 30 / 61
36 Szkic metody 1 Konstrukcja funkcji odróżnialności: Zmienne boolowskie: atrybuty a 1,..., a k ; Klauzula: φ u,v = {a A : a(u) a(v)} Funkcja rozróżnialności: F S (a 1,..., a k ) = x,y U:dec(x) dec(y) φ x,y (a 1,..., a k ) 2 przekształcenie funkcji rozróżnialności do postaci DNF 3 każdy implikant pierwszy odpowiada jednemu reduktowi; Nguyen Hung Son () 30 / 61
37 Przykład tablicy decyzyjnej Hurt. Jakość obsługi Jakość towaru Obok autostrady? Centrum? decyzja ID a 1 a 2 a 3 a 4 dec 1 dobra dobra nie nie strata 2 dobra dobra nie tak strata 3 bdb dobra nie nie zysk 4 slaba super nie nie zysk 5 slaba niska tak nie zysk 6 slaba niska tak tak strata 7 bdb niska tak tak zysk 8 dobra super nie nie strata 9 dobra niska tak nie zysk 10 slaba super tak nie zysk 11 dobra super tak tak zysk 12 bdb super nie tak zysk 13 bdb dobra tak nie? 14 slaba super nie tak? Nguyen Hung Son () 31 / 61
38 Macierz i funkcja odróżnialności M a 1 a 1, a 4 a 1, a 2, a 3, a 4 a 1, a 2 4 a 1, a 2 a 1, a 2, a 4 a 2, a 3, a 4 a 1 5 a 1, a 2, a 3 a 1, a 2, a 3, a 4 a 4 a 1, a 2, a 3 7 a 1, a 2, a 3, a 4 a 1, a 2, a 3 a 1 a 1, a 2, a 3, a 4 9 a 2, a 3 a 2, a 3, a 4 a 1, a 4 a 2, a 3 10 a 1, a 2, a 3 a 1, a 2, a 3, a 4 a 2, a 4 a 1, a 3 11 a 2, a 3, a 4 a 2, a 3 a 1, a 2 a 3, a 4 12 a 1, a 2, a 4 a 1, a 2 a 1, a 2, a 3 a 1, a 4 f = (α 1 )(α 1 α 4 )(α 1 α 2 )(α 1 α 2 α 3 α 4 )(α 1 α 2 α 4 ) (α 2 α 3 α 4 )(α 1 α 2 α 3 )(α 4 )(α 2 α 3 )(α 2 α 4 ) (α 1 α 3 )(α 3 α 4 )(α 1 α 2 α 4 ) Nguyen Hung Son () 32 / 61
39 Szukanie reduktów f = (α 1 )(α 1 α 4 )(α 1 α 2 )(α 1 α 2 α 3 α 4 )(α 1 α 2 α 4 ) (α 2 α 3 α 4 )(α 1 α 2 α 3 )(α 4 )(α 2 α 3 )(α 2 α 4 ) (α 1 α 3 )(α 3 α 4 )(α 1 α 2 α 4 ) usuwanie alternatyw regułą pochłaniania(t.j. p (p q) p): f = (α 1 )(α 4 )(α 2 α 3 ) Nguyen Hung Son () 33 / 61
40 Szukanie reduktów f = (α 1 )(α 1 α 4 )(α 1 α 2 )(α 1 α 2 α 3 α 4 )(α 1 α 2 α 4 ) (α 2 α 3 α 4 )(α 1 α 2 α 3 )(α 4 )(α 2 α 3 )(α 2 α 4 ) (α 1 α 3 )(α 3 α 4 )(α 1 α 2 α 4 ) usuwanie alternatyw regułą pochłaniania(t.j. p (p q) p): f = (α 1 )(α 4 )(α 2 α 3 ) sprowadzanie funkcji f z postaci CNF (koniunkcja alternatyw) do postaci DNF (alternatywa koniunkcji) f = α 1 α 4 α 2 α 1 α 4 α 3 Nguyen Hung Son () 33 / 61
41 Szukanie reduktów f = (α 1 )(α 1 α 4 )(α 1 α 2 )(α 1 α 2 α 3 α 4 )(α 1 α 2 α 4 ) (α 2 α 3 α 4 )(α 1 α 2 α 3 )(α 4 )(α 2 α 3 )(α 2 α 4 ) (α 1 α 3 )(α 3 α 4 )(α 1 α 2 α 4 ) usuwanie alternatyw regułą pochłaniania(t.j. p (p q) p): f = (α 1 )(α 4 )(α 2 α 3 ) sprowadzanie funkcji f z postaci CNF (koniunkcja alternatyw) do postaci DNF (alternatywa koniunkcji) f = α 1 α 4 α 2 α 1 α 4 α 3 Każdy składnik jest reduktem! Zatem mamy 2 redukty: R 1 = {A 1, A 2, A 4 } i R 2 = {A 1, A 3, A 4 } Nguyen Hung Son () 33 / 61
42 Spis treści 1 Wprowadzenie do teorii zbiorów przybliżonych Systemy informacyjne i tablice decyzyjne Redukty 2 Metody wnioskowań Boolowskich w szukaniu reduktów 3 Algorytmy heurystyczne dla problemu reduktu Heurystyka Johnsona Inne heurystyki 4 Systemy decyzyjne oparte o zbiory przybliżone Reguły decyzyjne Regułowe systemy decyzyjne Szukanie minimalnych reguł decyzyjnych Nguyen Hung Son () 34 / 61
43 Spis treści 1 Wprowadzenie do teorii zbiorów przybliżonych Systemy informacyjne i tablice decyzyjne Redukty 2 Metody wnioskowań Boolowskich w szukaniu reduktów 3 Algorytmy heurystyczne dla problemu reduktu Heurystyka Johnsona Inne heurystyki 4 Systemy decyzyjne oparte o zbiory przybliżone Reguły decyzyjne Regułowe systemy decyzyjne Szukanie minimalnych reguł decyzyjnych Nguyen Hung Son () 35 / 61
44 Heurystyka Johnsona: algorytm zachłanny Atrybut jest ważniejszy jeśli częściej występuje w klauzulach; Nguyen Hung Son () 36 / 61
45 Heurystyka Johnsona: algorytm zachłanny Atrybut jest ważniejszy jeśli częściej występuje w klauzulach; Selekcja: W każdym kroku wybierzmy atrybut, który najczęściej występuje w funkcji rozróżnialności; Nguyen Hung Son () 36 / 61
46 Heurystyka Johnsona: algorytm zachłanny Atrybut jest ważniejszy jeśli częściej występuje w klauzulach; Selekcja: W każdym kroku wybierzmy atrybut, który najczęściej występuje w funkcji rozróżnialności; Usuwanie: Usuwamy z tej funkcji te klauzule, które zawierają wybrany atrybut; Nguyen Hung Son () 36 / 61
47 Heurystyka Johnsona: algorytm zachłanny Atrybut jest ważniejszy jeśli częściej występuje w klauzulach; Selekcja: W każdym kroku wybierzmy atrybut, który najczęściej występuje w funkcji rozróżnialności; Usuwanie: Usuwamy z tej funkcji te klauzule, które zawierają wybrany atrybut; Powtarzamy Selekcja i Usuwanie dopóty, póki funkcja rozróżnialność zawiera jeszcze jakąś klazulę. Nguyen Hung Son () 36 / 61
48 Heurystyka zachłanna Heurystyka Johnsona 1 Znaleźć atrybut, który występuje najczęściej w macierzy rozróżnialności. 2 Usuwać wszystkie pola zawierające wybrany atrybut 3 Powtarzamy dopóki wszystkie pola macierzy są puste Nguyen Hung Son () 37 / 61
49 Przykład działania M a 1 a 1, a 4 a 1, a 2, a 3, a 4 a 1, a 2 4 a 1, a 2 a 1, a 2, a 4 a 2, a 3, a 4 a 1 5 a 1, a 2, a 3 a 1, a 2, a 3, a 4 a 4 a 1, a 2, a 3 7 a 1, a 2, a 3, a 4 a 1, a 2, a 3 a 1 a 1, a 2, a 3, a 4 9 a 2, a 3 a 2, a 3, a 4 a 1, a 4 a 2, a 3 10 a 1, a 2, a 3 a 1, a 2, a 3, a 4 a 2, a 4 a 1, a 3 11 a 2, a 3, a 4 a 2, a 3 a 1, a 2 a 3, a 4 12 a 1, a 2, a 4 a 1, a 2 a 1, a 2, a 3 a 1, a 4 W macierzy nierozróznialności z poprzedniego przykładu a 1 - występuje 23 razy a 2 - występuje 23 razy a 3 - występuje 18 razy a 4 - występuje 16 razy Jeśli wybieramy a 1, to po usunięciu pól zawierających a 1 zostało 9 niepustych pól macierzy nierozróżnialności. Wśród nich: a 2 - występuje 7 razy a 3 - występuje 7 razy a 4 - występuje 6 razy Jeśli wybieramy tym razem a 2 to zostały 2 niepuste pola i wśród nich a 4 jest zdecydowanym faworytem. Możemy dostać w ten sposób redukt: R 1 = {a 1, a 2, a 4 }. Nguyen Hung Son () 38 / 61
50 Jak dobra jest heurystyka Johnsona? Niech X = {(u, v) U 2 : dec(u) dec(v)}; Niech S ai = {(u, v) X : a i (u) a i (v)}; Niech C A będzie minimalnym reduktem, lecz C = {a 1,..., a k } będzie reduktem znalezionym przez heurystykę Johnsona; Załóżmy, że heurystyka Johnsona musi płacić 1zł za każdym razem, gdy dodała a i do C. Rozłóżmy ten koszt tym elementom, które zostały po raz pierwszy pokryte przez zbiór S ai Niech c x = koszt ponoszony przez x. Jeśli x jest pokryty po raz pierwszy przez a i, to c x = 1 S ai (S a1... S ai 1 ) Nguyen Hung Son () 39 / 61
51 Jak dobra jest heurystyka Johnsona? Heurystyka Johnsona ponosi łączny koszt = C. Mamy C = c x x X c x a C x S a Gdybyśmy pokazali, że dla dowolnego altrybutu a A x S a c x H( S a ) gdzie H(n) = n 1 i=1 i, wówczas możemy oszacować dalej: C c x C H(max{ S a : a A }) a C x S a C H( X ) C ln( X + 1) Nguyen Hung Son () 40 / 61
52 Lemat Dla dowolnego altrybutu a A Dowód: x S a c x H( S a ) Niech u i = S a (S a1... S ai 1 ), mamy: u 0 = S a... u i 1 u i... u k = 0; gdzie k jest najmniejszym indeksem t., że S a = S a1... S ak Zatem k c x = (u i 1 u i ) x S a i=0 k (u i 1 u i ) i=0 1 S ai (S a1... S ai 1 ) 1 u i 1 k (H(u i 1 ) H(u i )) = H( S a ) i=0 Nguyen Hung Son () 41 / 61
53 Spis treści 1 Wprowadzenie do teorii zbiorów przybliżonych Systemy informacyjne i tablice decyzyjne Redukty 2 Metody wnioskowań Boolowskich w szukaniu reduktów 3 Algorytmy heurystyczne dla problemu reduktu Heurystyka Johnsona Inne heurystyki 4 Systemy decyzyjne oparte o zbiory przybliżone Reguły decyzyjne Regułowe systemy decyzyjne Szukanie minimalnych reguł decyzyjnych Nguyen Hung Son () 42 / 61
54 Inne heurystyki do szukania implikantów pierwszych ILP (Integer Linear Program) Symulowane wyżarzanie (simulated annealing) Algorytmy genetyczne SAT solver??? Nguyen Hung Son () 43 / 61
55 ILP Dana jest funkcja f : {0, 1} n {0, 1} zapisana w postaci CNF za pomocą zmiennych x 1,..., x n 1 Utwórz nowe zmienne {y 1,..., y 2n } odpowiadające literałom x 1, x 1,..., x n, x n ; 2 Dla każdej zmiennej x i, utwórzmy nierówność y 2i 1 + y 2i 1 3 Zamień każdą klausulę ω i = (l i1... l ini ) na nierówność y i y ini 1; 4 Utwórzmy układ nierówności z poprzednich punktów: Ay b 5 Zagadnienie programowania liniowego liczb całkowitych (ILP) jest definiowane jako problem szukania n min y i przy ograniczeniu: Ay b. i=1 Nguyen Hung Son () 44 / 61
56 Spis treści 1 Wprowadzenie do teorii zbiorów przybliżonych Systemy informacyjne i tablice decyzyjne Redukty 2 Metody wnioskowań Boolowskich w szukaniu reduktów 3 Algorytmy heurystyczne dla problemu reduktu Heurystyka Johnsona Inne heurystyki 4 Systemy decyzyjne oparte o zbiory przybliżone Reguły decyzyjne Regułowe systemy decyzyjne Szukanie minimalnych reguł decyzyjnych Nguyen Hung Son () 45 / 61
57 Spis treści 1 Wprowadzenie do teorii zbiorów przybliżonych Systemy informacyjne i tablice decyzyjne Redukty 2 Metody wnioskowań Boolowskich w szukaniu reduktów 3 Algorytmy heurystyczne dla problemu reduktu Heurystyka Johnsona Inne heurystyki 4 Systemy decyzyjne oparte o zbiory przybliżone Reguły decyzyjne Regułowe systemy decyzyjne Szukanie minimalnych reguł decyzyjnych Nguyen Hung Son () 46 / 61
58 description language (język deskryptorów) Let A be a set of attributes. The description language for A is a triple where L(A) = (D, {,, }, F) D is a called the set of descriptors D = {(a = v) : a A and v V al a } {,, } is a set of standard Boolean operators F is a set of boolean expressions defined on D called formulas. For any B A we denote by D B the set of descriptors restricted to B where D B = {(a = v) : a B and v V al a } We also denote by F B the set of formulas build from D B. Nguyen Hung Son () 47 / 61
59 Semantyka w systemach informacyjnych The semantics Let S = (U, A) be an information table describing a sample U X. The semantics of any formula φ F, denoted by [[φ]] S, is defined by induction as follows: [[(a = v)]] S = {x U : a(x) = v} (1) [[φ 1 φ 2 ]] S = [[φ 1 ]] S [[φ 2 ]] S (2) [[φ 1 φ 2 ]] S = [[φ 1 ]] S [[φ 2 ]] S (3) [[ φ]] S = U \ [[φ]] S (4) We associate with every formula φ the following numeric features: length(φ) = the number of descriptors that occur in φ; support(φ) = [[φ]] S = the number of objects that match the formula; Nguyen Hung Son () 48 / 61
60 Reguły decyzyjne Definicja reguł decyzyjnych Let S = {U, A {dec}} be a decision table. Any implication of a form φ δ where φ F A and δ F dec, is called the decision rule in S. The formula φ is called the premise of the decision rule r and δ is called the consequence of r. We denote the premise and the consequence of the decision rule r by prev(r) and cons(r), respectively. Nguyen Hung Son () 49 / 61
61 reguły... Generic decision rule The decision rule r whose the premise is a boolean monomial of descriptors, i.e., r (a i1 = v 1 )... (a im = v m ) (dec = k) (5) is called the generic decision rule. We will consider generic decision rules only. For a simplification, we will talk about decision rules keeping in mind the generic ones. Nguyen Hung Son () 50 / 61
62 Reguły... Every decision rule r of the form (5) can be characterized by the following featured: length(r) = the number of descriptor on the assumption of r (i.e. the left hand side of implication) [r] = the carrier of r, i.e. the set of objects from U satisfying the assumption of r support(r) = the number of objects satisfying the assumption of r: support(r) = card([r]) confidence(r) = the confidence of r: confidence(r) = [r] DEC k [r] The decision rule r is called consistent with A if confidence(r) = 1 Nguyen Hung Son () 51 / 61
63 Minimalne reguły minimal consistent rules For a given decision table S = (U, A {dec}), the consistent rule: r = φ (dec = k) is called the minimal consistent decision rule if any decision rule φ (dec = k) where φ is a shortening of φ is not consistent with S. Nguyen Hung Son () 52 / 61
64 Spis treści 1 Wprowadzenie do teorii zbiorów przybliżonych Systemy informacyjne i tablice decyzyjne Redukty 2 Metody wnioskowań Boolowskich w szukaniu reduktów 3 Algorytmy heurystyczne dla problemu reduktu Heurystyka Johnsona Inne heurystyki 4 Systemy decyzyjne oparte o zbiory przybliżone Reguły decyzyjne Regułowe systemy decyzyjne Szukanie minimalnych reguł decyzyjnych Nguyen Hung Son () 53 / 61
65 Ogólne metody Any rule based classification method consists of three phases : 1 Learning phase: generates a set of decision rules RU LES(A) from a given decision table A. 2 Rule selection phase: selects from RU LES(A) the set of such rules that can be supported by x. We denote this set by M atchrules(a, x). 3 Classifying phase: makes a decision for x using some voting algorithm for decision rules from M atchrules(a, x) with respect to the following cases: 1 If MatchRules(A, x) is empty: the decision for x is UNKNOW N, i.e. we have no idea how to classify x; 2 If M atchrules(a, x) consists of decision rules for the same decision class, say k th decision class: in this case dec(x) = k; 3 If M atchrules(a, x) consists of decision rules for the different decision classes: in this case the decision for x should be made using some voting algorithm for decision rules from M atchrules(a, x). Nguyen Hung Son () 54 / 61
66 Filtrowanie reguł Every set of rules determines a rough approximation of the given concept via the conflict solver; The quality of rules is estimated by training data set - a finite sample of the whole universe; Conflict solving = elimination of noisy and mistakes caused by abnormal rules! Not every rule, which is compatible with the training data set, is also compatible with the universe; It is better to eliminate abnormal rules according to the domain knowledge; Nguyen Hung Son () 55 / 61
67 Filtering approach supervised methods of filtering: according to rule support; according to the class coverage ratio of rules; according to rule length; by coverage algorithm: e.g., LEM2 method Nguyen Hung Son () 56 / 61
68 Spis treści 1 Wprowadzenie do teorii zbiorów przybliżonych Systemy informacyjne i tablice decyzyjne Redukty 2 Metody wnioskowań Boolowskich w szukaniu reduktów 3 Algorytmy heurystyczne dla problemu reduktu Heurystyka Johnsona Inne heurystyki 4 Systemy decyzyjne oparte o zbiory przybliżone Reguły decyzyjne Regułowe systemy decyzyjne Szukanie minimalnych reguł decyzyjnych Nguyen Hung Son () 57 / 61
69 Metoda Oparta o Wnioskowanie Boolowskie Każda reguła powstaje poprzez skracanie opisu jakiegoś obiektu. Redukty lokalne Te same heurystyki dla reduktów decyzyjnych. Nguyen Hung Son () 58 / 61
70 Przykład tablicy decyzyjnej Hurt. Jakość obsługi Jakość towaru Obok autostrady? Centrum? decyzja ID a 1 a 2 a 3 a 4 dec 1 dobra dobra nie nie strata 2 dobra dobra nie tak strata 3 bdb dobra nie nie zysk 4 slaba super nie nie zysk 5 slaba niska tak nie zysk 6 slaba niska tak tak strata 7 bdb niska tak tak zysk 8 dobra super nie nie strata 9 dobra niska tak nie zysk 10 slaba super tak nie zysk 11 dobra super tak tak zysk 12 bdb super nie tak zysk 13 bdb dobra tak nie? 14 slaba super nie tak? Nguyen Hung Son () 59 / 61
71 Macierz i funkcja lokalnych odróżnialności M a 1 a 1, a 4 a 1, a 2, a 3, a 4 a 1, a 2 4 a 1, a 2 a 1, a 2, a 4 a 2, a 3, a 4 a 1 5 a 1, a 2, a 3 a 1, a 2, a 3, a 4 a 4 a 1, a 2, a 3 7 a 1, a 2, a 3, a 4 a 1, a 2, a 3 a 1 a 1, a 2, a 3, a 4 9 a 2, a 3 a 2, a 3, a 4 a 1, a 4 a 2, a 3 10 a 1, a 2, a 3 a 1, a 2, a 3, a 4 a 2, a 4 a 1, a 3 11 a 2, a 3, a 4 a 2, a 3 a 1, a 2 a 3, a 4 12 a 1, a 2, a 4 a 1, a 2 a 1, a 2, a 3 a 1, a 4 f u3 = (α 1 )(α 1 α 4 )(α 1 α 2 α 3 α 4 )(α 1 α 2 ) = α 1 Reguły: (a 1 = bdb) = dec = zysk Nguyen Hung Son () 60 / 61
72 Macierz i funkcja lokalnych odróżnialności M a 1 a 1, a 4 a 1, a 2, a 3, a 4 a 1, a 2 4 a 1, a 2 a 1, a 2, a 4 a 2, a 3, a 4 a 1 5 a 1, a 2, a 3 a 1, a 2, a 3, a 4 a 4 a 1, a 2, a 3 7 a 1, a 2, a 3, a 4 a 1, a 2, a 3 a 1 a 1, a 2, a 3, a 4 9 a 2, a 3 a 2, a 3, a 4 a 1, a 4 a 2, a 3 10 a 1, a 2, a 3 a 1, a 2, a 3, a 4 a 2, a 4 a 1, a 3 11 a 2, a 3, a 4 a 2, a 3 a 1, a 2 a 3, a 4 12 a 1, a 2, a 4 a 1, a 2 a 1, a 2, a 3 a 1, a 4 f u8 = (α 1 α 2 )(α 1 )(α 1 α 2 α 3 )(α 1 α 2 α 3 α 4 )(α 2 α 3 ) (α 1 α 3 )(α 3 α 4 )(α 1 α 4 ) = α 1 (α 2 α 3 )(α 3 α 4 ) = α 1 α 3 α 1 α 2 α 4 Reguły: (a 1 = dobra) (a 3 = nie) = dec = strata (a 1 = dobra) (a 2 = super) (a 4 = nie) = dec = strata Nguyen Hung Son () 61 / 61
Wyk lad 8: Leniwe metody klasyfikacji
Wyk lad 8: Leniwe metody Wydzia l MIM, Uniwersytet Warszawski Outline 1 2 lazy vs. eager learning lazy vs. eager learning Kiedy stosować leniwe techniki? Eager learning: Buduje globalna hipoteze Zaleta:
Bardziej szczegółowoWnioskowanie Boolowskie i teoria zbiorów przybli»onych
Wnioskowanie Boolowskie i teoria zbiorów przybli»onych 4 Zbiory przybli»one Wprowadzenie do teorii zbiorów przybli»onych Zªo»ono± problemu szukania reduktów 5 Wnioskowanie Boolowskie w obliczaniu reduktów
Bardziej szczegółowoSztuczna inteligencja
POLITECHNIKA KRAKOWSKA WIEiK KATEDRA AUTOMATYKI I TECHNIK INFORMACYJNYCH Sztuczna inteligencja www.pk.edu.pl/~zk/si_hp.html Wykładowca: dr inż. Zbigniew Kokosiński zk@pk.edu.pl Wykład 10: Zbiory przybliżone
Bardziej szczegółowoMatematyka stosowana. Systemy decyzyjne. Hung Son Nguyen
Matematyka stosowana Systemy decyzyjne Hung Son Nguyen son@mimuw.edu.pl http://www.mimuw.edu.pl/~son Uniwersytet Warszawski, 2011 Streszczenie. Przegląd metod klasyfikacji i wspomagania podejmowania decyzji
Bardziej szczegółowoWnioskowanie Boolowskie i teoria zbiorów przybli»onych
Wnioskowanie Boolowskie i teoria zbiorów przybli»onych 4 Zbiory przybli»one Wprowadzenie do teorii zbiorów przybli»onych Zªo»ono± problemu szukania reduktów 5 Wnioskowanie Boolowskie w obliczaniu reduktów
Bardziej szczegółowoWSPOMAGANIE DECYZJI - MIŁOSZ KADZIŃSKI LAB IV ZBIORY PRZYBLIŻONE I ODKRYWANIE REGUŁ DECYZYJNYCH
WSOMAGANIE DECYZJI - MIŁOSZ KADZIŃSKI LAB IV ZBIORY RZYBLIŻONE I ODKRYWANIE REGUŁ DECYZYJNYCH 1. Definicje Zbiory, które nie są zbiorami definiowalnymi, są nazywane zbiorami przybliżonymi. Zbiory definiowalne
Bardziej szczegółowoReguły decyzyjne, algorytm AQ i CN2. Reguły asocjacyjne, algorytm Apriori.
Analiza danych Reguły decyzyjne, algorytm AQ i CN2. Reguły asocjacyjne, algorytm Apriori. Jakub Wróblewski jakubw@pjwstk.edu.pl http://zajecia.jakubw.pl/ REGUŁY DECYZYJNE Metoda reprezentacji wiedzy (modelowania
Bardziej szczegółowoHard-Margin Support Vector Machines
Hard-Margin Support Vector Machines aaacaxicbzdlssnafiyn9vbjlepk3ay2gicupasvu4iblxuaw2hjmuwn7ddjjmxm1bkcg1/fjqsvt76fo9/gazqfvn8y+pjpozw5vx8zkpvtfxmlhcwl5zxyqrm2vrg5zw3vxmsoezi4ogkr6phieky5crvvjhriqvdom9l2xxftevuwcekj3lktmhghgniauiyutvrwxtvme34a77kbvg73gtygpjsrfati1+xc8c84bvraowbf+uwnipyehcvmkjrdx46vlykhkgykm3ujjdhcyzqkxy0chur6ax5cbg+1m4bbjptjcubuz4kuhvjoql93hkin5hxtav5x6yyqopnsyuneey5ni4keqrxbar5wqaxbik00icyo/iveiyqqvjo1u4fgzj/8f9x67bzmxnurjzmijtlybwfgcdjgfdtajwgcf2dwaj7ac3g1ho1n4814n7wwjgjmf/ys8fenfycuzq==
Bardziej szczegółowoSystemy ekspertowe. Eksploracja danych z wykorzystaniem tablic decyzyjnych i zbiorów przybliżonych. Część trzecia
Część trzecia Autor Roman Simiński Eksploracja danych z wykorzystaniem tablic decyzyjnych i zbiorów przybliżonych Kontakt siminski@us.edu.pl www.us.edu.pl/~siminski Niniejsze opracowanie zawiera skrót
Bardziej szczegółowoZbiory przybliżone, cz. 1 (wersja do druku) dr. Piotr Szczuko
Zbiory przybliżone, cz. 1 (wersja do druku) dr. Piotr Szczuko Katedra Systemów Multimedialnych 2009 Plan wykładu Historia zbiorów przybliżonych System informacyjny i decyzyjny Reguły decyzyjne Tożsamość
Bardziej szczegółowoA Zadanie
where a, b, and c are binary (boolean) attributes. A Zadanie 1 2 3 4 5 6 7 8 9 10 Punkty a (maks) (2) (2) (2) (2) (4) F(6) (8) T (8) (12) (12) (40) Nazwisko i Imiȩ: c Uwaga: ta część zostanie wypełniona
Bardziej szczegółowoB jest globalnym pokryciem zbioru {d} wtedy i tylko wtedy, gdy {d} zależy od B i nie istnieje B T takie, że {d} zależy od B ;
Algorytm LEM1 Oznaczenia i definicje: U - uniwersum, tj. zbiór obiektów; A - zbiór atrybutów warunkowych; d - atrybut decyzyjny; IND(B) = {(x, y) U U : a B a(x) = a(y)} - relacja nierozróżnialności, tj.
Bardziej szczegółowoIndukowane Reguły Decyzyjne I. Wykład 3
Indukowane Reguły Decyzyjne I Wykład 3 IRD Wykład 3 Plan Powtórka Grafy Drzewa klasyfikacyjne Testy wstęp Klasyfikacja obiektów z wykorzystaniem drzewa Reguły decyzyjne generowane przez drzewo 2 Powtórzenie
Bardziej szczegółowoTeoretyczne podstawy zbiorów przybliżonych
Teoretyczne podstawy zbiorów przybliżonych Agnieszka Nowak 17 kwietnia 2009 1 Podstawy teorii zbiorów przybliżonych 1.1 Wstęp Teoria zbiorów przybliżonych została sformułowana przez Zdzisława Pawlaka w
Bardziej szczegółowoSystem informacyjny a system decyzyjny Relacja nierozróżnialności Klasy abstrakcji Teoria zbiorów przybliżonych Usuwanie niespójności z tablicy
System informacyjny a system decyzyjny Relacja nierozróżnialności Klasy abstrakcji Teoria zbiorów przybliżonych Usuwanie niespójności z tablicy decyzyjnej System informacyjny System informacyjny SI zdefiniowany
Bardziej szczegółowoSystemy ekspertowe : Tablice decyzyjne
Instytut Informatyki Uniwersytetu Śląskiego 16 marzec 2010 Tablica decyzyjna Klasy nierozróżnialności i klasy decyzyjne Rdzeń Redukt Macierz nierozróżnialności Rdzeń i redukt w macierzy nierozróżnialności
Bardziej szczegółowoSztuczna Inteligencja Projekt
Sztuczna Inteligencja Projekt Temat: Algorytm F-LEM1 Liczba osób realizujących projekt: 2 1. Zaimplementować algorytm F LEM 1. 2. Zaimplementować klasyfikator Classif ier. 3. Za pomocą algorytmu F LEM1
Bardziej szczegółowoMetody indukcji reguł
Metody indukcji reguł Indukcja reguł Grupa metod charakteryzująca się wydobywaniem reguł ostrych na podstawie analizy przypadków. Dane doświadczalne składają się z dwóch części: 1) wejściowych X, gdzie
Bardziej szczegółowoWprowadzenie do zbiorów przybliżonych
Instytut Informatyki, Uniwersytet Śląski, ul. Będzinska 39, Sosnowiec, Polska Tel (32) 2 918 381, Fax (32) 2 918 283 Wykład II i III Wstęp Teoria zbiorów przybliżonych została sformułowana przez Zdzisława
Bardziej szczegółowoSztuczna Inteligencja Projekt
Sztuczna Inteligencja Projekt Temat: Algorytm LEM2 Liczba osób realizujących projekt: 2 1. Zaimplementować algorytm LEM 2. 2. Zaimplementować klasyfikator Classif ier. 3. Za pomocą algorytmu LEM 2 wygenerować
Bardziej szczegółowo1. Reguły minimalne (optymalne) Podstawowe twierdzenia i definicje. Definicja 1 Funkcję postaci f. nazwiemy n-argumentową funkcją boolowską.
1. Reguły minimalne (optymalne) Podstawowe twierdzenia i definicje Definicja 1 Funkcję postaci f n :{ 0, 1} { 0, 1} nazwiemy n-argumentową funkcją boolowską. Definicja 2 1 2 Term g = x 1 x x ( ϕ ) ( ϕ
Bardziej szczegółowoDrzewa decyzyjne. Nguyen Hung Son. Nguyen Hung Son () DT 1 / 34
Drzewa decyzyjne Nguyen Hung Son Nguyen Hung Son () DT 1 / 34 Outline 1 Wprowadzenie Definicje Funkcje testu Optymalne drzewo 2 Konstrukcja drzew decyzyjnych Ogólny schemat Kryterium wyboru testu Przycinanie
Bardziej szczegółowoWprowadzenie. Data Science Uczenie się pod nadzorem
Wprowadzenie Wprowadzenie Wprowadzenie Wprowadzenie Machine Learning Mind Map Historia Wstęp lub uczenie się z przykładów jest procesem budowy, na bazie dostępnych danych wejściowych X i oraz wyjściowych
Bardziej szczegółowoOdkrywanie wiedzy z danych przy użyciu zbiorów przybliżonych. Wykład 3
Odkrywanie wiedzy z danych przy użyciu zbiorów przybliżonych Wykład 3 W internecie Teoria zbiorów przybliżonych zaproponowany w 1982 r. przez prof. Zdzisława Pawlaka formalizm matematyczny, stanowiący
Bardziej szczegółowoSystemy ekspertowe. Generowanie reguł minimalnych. Część czwarta. Autor Roman Simiński.
Część czwarta Autor Roman Simiński Kontakt siminski@us.edu.pl www.us.edu.pl/~siminski Niniejsze opracowanie zawiera skrót treści wykładu, lektura tych materiałów nie zastąpi uważnego w nim uczestnictwa.
Bardziej szczegółowoSystemy decyzyjne Wprowadzenie
Hung Son Nguyen (UW) Systemy decyzyjne Wprowadzenie 2007 1 / 34 Systemy decyzyjne Wprowadzenie Hung Son Nguyen Institute of Mathematics, Warsaw University son@mimuw.edu.pl 2007 Hung Son Nguyen (UW) Systemy
Bardziej szczegółowoSID Wykład 10 Systemy uczace się
SID Wykład 10 Systemy uczace się Wydział Matematyki, Informatyki i Mechaniki UW slezak@mimuw.edu.pl Uczenie indukcyjne Obiekty: Decyzja: dane reprezentujace rzeczywisty stan lub obiekt, tworza przestrzeń
Bardziej szczegółowokomputery? Andrzej Skowron, Hung Son Nguyen Instytut Matematyki, Wydział MIM, UW
Czego moga się nauczyć komputery? Andrzej Skowron, Hung Son Nguyen son@mimuw.edu.pl; skowron@mimuw.edu.pl Instytut Matematyki, Wydział MIM, UW colt.tex Czego mogą się nauczyć komputery? Andrzej Skowron,
Bardziej szczegółowoZbiory przybliżone w obszarze systemów ekspertowych
Zbiory przybliżone w obszarze systemów ekspertowych Agnieszka Nowak Institute of Computer Science, University of Silesia Bȩdzińska 39, 41 200 Sosnowiec, Poland e-mail: nowak@us.edu.pl 1 Wprowadzenie Okres
Bardziej szczegółowoTablicowa reprezentacja danych
Wstęp Teoria zbiorów przybliżonych została sformułowana przez Zdzisława Pawlaka w 1982 roku. Jest ona wykorzystywana jako narzędzie do syntezy zaawansowanych i efektywnych metod analizy oraz do redukcji
Bardziej szczegółowoMachine Learning for Data Science (CS4786) Lecture11. Random Projections & Canonical Correlation Analysis
Machine Learning for Data Science (CS4786) Lecture11 5 Random Projections & Canonical Correlation Analysis The Tall, THE FAT AND THE UGLY n X d The Tall, THE FAT AND THE UGLY d X > n X d n = n d d The
Bardziej szczegółowoCo to są drzewa decyzji
Drzewa decyzji Co to są drzewa decyzji Drzewa decyzji to skierowane grafy acykliczne Pozwalają na zapis reguł w postaci strukturalnej Przyspieszają działanie systemów regułowych poprzez zawężanie przestrzeni
Bardziej szczegółowoTeoria systemów uczacych się i wymiar Vapnika-Chervonenkisa
Systemy uczace się 2009 1 / 32 Teoria systemów uczacych się i wymiar Vapnika-Chervonenkisa Hung Son Nguyen Wydział Matematyki, Informatyki i Mechaniki Uniwersytet Warszawski email: son@mimuw.edu.pl Grudzień
Bardziej szczegółowoBaza danych dla potrzeb zgłębiania DMX
Baza danych dla potrzeb zgłębiania DMX ID Outlook Temperature Humidity Windy PLAY 1 sunny hot high false N 2 sunny hot high true N 3 overcast hot high false T 4rain mild high false T 5rain cool normal
Bardziej szczegółowoGranular Computing 9999 pages 15 METODY SZTUCZNEJ INTELIGENCJI - PROJEKTY
Granular Computing 9999 pages 15 METODY SZTUCZNEJ INTELIGENCJI - PROJEKTY PB 2 PB 1 Projekt z wyznaczania reduktów zbioru Liczba osób realizuj cych projekt: 1-2 osoby 1. Wczytanie danych w formatach arf,
Bardziej szczegółowoAproksymacja diofantyczna
Aproksymacja diofantyczna Szymon Draga Ustroń, 4 listopada 0 r Wprowadzenie Jak wiadomo, każdą liczbę niewymierną można (z dowolną dokładnością) aproksymować liczbami wymiernymi Powstaje pytanie, w jaki
Bardziej szczegółowoKDD and DM 1 W8: REGUŁY DECYZYJNE. Nguyen Hung Son
DM 1 W8: REGUŁY DECYZYJNE Nguyen Hung Son Tematy DM 2 Reguły decyzyjne: prosty opis klas decyzyjnych Problem wyszukiwania reguł decyzyjnych Algorytmy generowania reguł decyzyjnych Sekwencyjne pokrywanie
Bardziej szczegółowoReguły asocjacyjne, wykł. 11
Reguły asocjacyjne, wykł. 11 Joanna Jędrzejowicz Instytut Informatyki Przykłady reguł Analiza koszyka sklepowego (ang. market basket analysis) - jakie towary kupowane są razem, Jakie towary sprzedają się
Bardziej szczegółowoElementy logiki. Wojciech Buszkowski Wydział Matematyki i Informatyki UAM Zakład Teorii Obliczeń
Elementy logiki Wojciech Buszkowski Wydział Matematyki i Informatyki UAM Zakład Teorii Obliczeń 1 Klasyczny Rachunek Zdań 1.1 Spójniki logiczne Zdaniem w sensie logicznym nazywamy wyrażenie, które jest
Bardziej szczegółowoLokalna odwracalność odwzorowań, odwzorowania uwikłane
Lokalna odwracalność odwzorowań, odwzorowania uwikłane Katedra Matematyki i Ekonomii Matematycznej Szkoła Główna Handlowa 17 maja 2012 Definicja Mówimy, że odwzorowanie F : X R n, gdzie X R n, jest lokalnie
Bardziej szczegółowoWeronika Mysliwiec, klasa 8W, rok szkolny 2018/2019
Poniższy zbiór zadań został wykonany w ramach projektu Mazowiecki program stypendialny dla uczniów szczególnie uzdolnionych - najlepsza inwestycja w człowieka w roku szkolnym 2018/2019. Tresci zadań rozwiązanych
Bardziej szczegółowoLinear Classification and Logistic Regression. Pascal Fua IC-CVLab
Linear Classification and Logistic Regression Pascal Fua IC-CVLab 1 aaagcxicbdtdbtmwfafwdgxlhk8orha31ibqycvkdgpshdqxtwotng2pxtvqujmok1qlky5xllzrnobbediegwcap4votk2kqkf+/y/tnphdschtadu/giv3vtea99cfma8fpx7ytlxx7ckns4sylo3doom7jguhj1hxchmy/irhrlgh67lxb5x3blis8jjqynmedqujiu5zsqqagrx+yjcfpcrydusshmzeluzsg7tttiew5khhcuzm5rv0gn1unw6zl3gbzlpr3liwncyr6aaqinx4wnc/rpg6ix5szd86agoftuu0g/krjxdarph62enthdey3zn/+mi5zknou2ap+tclvhob9sxhwvhaqketnde7geqjp21zvjsfrcnkfhtejoz23vq97elxjlpbtmxpl6qxtl1sgfv1ptpy/yq9mgacrzkgje0hjj2rq7vtywnishnnkzsqekucnlblrarlh8x8szxolrrxkb8n6o4kmo/e7siisnozcfvsedlol60a/j8nmul/gby8mmssrfr2it8lkyxr9dirxxngzthtbaejv
Bardziej szczegółowo1 Zbiory. 1.1 Kiedy {a} = {b, c}? (tzn. podać warunki na a, b i c) 1.2 Udowodnić, że A {A} A =.
1 Zbiory 1.1 Kiedy {a} = {b, c}? (tzn. podać warunki na a, b i c) 1.2 Udowodnić, że A {A} A =. 1.3 Pokazać, że jeśli A, B oraz (A B) (B A) = C C, to A = B = C. 1.4 Niech {X t } będzie rodziną niepustych
Bardziej szczegółowoSystemy decyzyjne Wyk lad 4: Drzewa decyzyjne
Systemy decyzyjne Wyk lad 4: Outline Wprowadzenie 1 Wprowadzenie 2 Problem brakujacych wartości 3 Co to jest drzewo decyzyjne Jest to struktura drzewiasta, w której wez ly wewnetrzne zawieraja testy na
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład XIV: Metody Monte Carlo 19 stycznia 2016 Przybliżone obliczanie całki oznaczonej Rozważmy całkowalną funkcję f : [0, 1] R. Chcemy znaleźć przybliżoną wartość liczbową całki 1 f (x) dx. 0 Jeden ze
Bardziej szczegółowoWprowadzenie do programu RapidMiner, część 2 Michał Bereta 1. Wykorzystanie wykresu ROC do porównania modeli klasyfikatorów
Wprowadzenie do programu RapidMiner, część 2 Michał Bereta www.michalbereta.pl 1. Wykorzystanie wykresu ROC do porównania modeli klasyfikatorów Zaimportuj dane pima-indians-diabetes.csv. (Baza danych poświęcona
Bardziej szczegółowoPRACA DYPLOMOWA MAGISTERSKA. Analiza danych z zastosowaniem teorii zbiorów przybliżonych.
POLITECHNIKA WARSZAWSKA WYDZIAŁ ELEKTRONIKI I TECHNIK INFORMACYJNYCH INSTYTUT INFORMATYKI Rok akademicki 2003/2004 PRACA DYPLOMOWA MAGISTERSKA Andrzej Dominik Analiza danych z zastosowaniem teorii zbiorów
Bardziej szczegółowoIndukcja. Materiały pomocnicze do wykładu. wykładowca: dr Magdalena Kacprzak
Indukcja Materiały pomocnicze do wykładu wykładowca: dr Magdalena Kacprzak Charakteryzacja zbioru liczb naturalnych Arytmetyka liczb naturalnych Jedną z najważniejszych teorii matematycznych jest arytmetyka
Bardziej szczegółowoSortowanie topologiczne skierowanych grafów acyklicznych
Sortowanie topologiczne skierowanych grafów acyklicznych Metody boolowskie w informatyce Robert Sulkowski http://robert.brainusers.net 23 stycznia 2010 1 Definicja 1 (Cykl skierowany). Niech C = (V, A)
Bardziej szczegółowoEnsembles of Approximate Decision Reducts in Classification Problems. Zespoły Aproksymacyjnych Reduktów Decyzyjnych w Problemach Klasyfikacji
POLSKA AKADEMIA NAUK Instytut Badań Systemowych Streszczenie rozprawy doktorskiej pt. Ensembles of Approximate Decision Reducts in Classification Problems Zespoły Aproksymacyjnych Reduktów Decyzyjnych
Bardziej szczegółowoStruktury danych i złożoność obliczeniowa Wykład 2. Prof. dr hab. inż. Jan Magott
Struktury danych i złożoność obliczeniowa Wykład 2. Prof. dr hab. inż. Jan Magott Metody konstrukcji algorytmów: Siłowa (ang. brute force), Dziel i zwyciężaj (ang. divide-and-conquer), Zachłanna (ang.
Bardziej szczegółowoAnaliza algorytmów zadania podstawowe
Analiza algorytmów zadania podstawowe Zadanie 1 Zliczanie Zliczaj(n) 1 r 0 2 for i 1 to n 1 3 do for j i + 1 to n 4 do for k 1 to j 5 do r r + 1 6 return r 0 Jaka wartość zostanie zwrócona przez powyższą
Bardziej szczegółowoWprowadzenie Sformułowanie problemu Typy reguł asocjacyjnych Proces odkrywania reguł asocjacyjnych. Data Mining Wykład 2
Data Mining Wykład 2 Odkrywanie asocjacji Plan wykładu Wprowadzenie Sformułowanie problemu Typy reguł asocjacyjnych Proces odkrywania reguł asocjacyjnych Geneza problemu Geneza problemu odkrywania reguł
Bardziej szczegółowoRevenue Maximization. Sept. 25, 2018
Revenue Maximization Sept. 25, 2018 Goal So Far: Ideal Auctions Dominant-Strategy Incentive Compatible (DSIC) b i = v i is a dominant strategy u i 0 x is welfare-maximizing x and p run in polynomial time
Bardziej szczegółowoROUGH SET BASED DECISION SUPPORT
ROUGH SET BASED DECISION SUPPORT Roman Słowiński Laboratory of Intelligent Decision Support Systems Institute of Computing Science Poznań University of Technology Roman Słowiński Motywacje Wzrasta przepaść
Bardziej szczegółowoMetoda tabel semantycznych. Dedukcja drogi Watsonie, dedukcja... Definicja logicznej konsekwencji. Logika obliczeniowa.
Plan Procedura decyzyjna Reguły α i β - algorytm Plan Procedura decyzyjna Reguły α i β - algorytm Logika obliczeniowa Instytut Informatyki 1 Procedura decyzyjna Logiczna konsekwencja Teoria aksjomatyzowalna
Bardziej szczegółowoZłożoność obliczeniowa
Złożoność obliczeniowa Jakub Michaliszyn 26 kwietnia 2017 Są problemy rozstrzygalne i nierozstrzygalne Są problemy rozstrzygalne i nierozstrzygalne Jak rozwiązywać te, które są rozstrzygalne? Są problemy
Bardziej szczegółowoWykład z modelowania matematycznego. Zagadnienie transportowe.
Wykład z modelowania matematycznego. Zagadnienie transportowe. 1 Zagadnienie transportowe zostało sformułowane w 1941 przez F.L.Hitchcocka. Metoda rozwiązania tego zagadnienia zwana algorytmem transportowymópracowana
Bardziej szczegółowoInstrukcja obsługi User s manual
Instrukcja obsługi User s manual Konfigurator Lanberg Lanberg Configurator E-mail: support@lanberg.pl support@lanberg.eu www.lanberg.pl www.lanberg.eu Lanberg 2015-2018 WERSJA VERSION: 2018/11 Instrukcja
Bardziej szczegółowoSYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska
SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska DRZEWO REGRESYJNE Sposób konstrukcji i przycinania
Bardziej szczegółowoLogika Stosowana. Wykład 1 - Logika zdaniowa. Marcin Szczuka. Instytut Informatyki UW. Wykład monograficzny, semestr letni 2016/2017
Logika Stosowana Wykład 1 - Logika zdaniowa Marcin Szczuka Instytut Informatyki UW Wykład monograficzny, semestr letni 2016/2017 Marcin Szczuka (MIMUW) Logika Stosowana 2017 1 / 30 Plan wykładu 1 Język
Bardziej szczegółowoRozpoznawanie twarzy metodą PCA Michał Bereta 1. Testowanie statystycznej istotności różnic między jakością klasyfikatorów
Rozpoznawanie twarzy metodą PCA Michał Bereta www.michalbereta.pl 1. Testowanie statystycznej istotności różnic między jakością klasyfikatorów Wiemy, że możemy porównywad klasyfikatory np. za pomocą kroswalidacji.
Bardziej szczegółowoMachine Learning for Data Science (CS4786) Lecture 24. Differential Privacy and Re-useable Holdout
Machine Learning for Data Science (CS4786) Lecture 24 Differential Privacy and Re-useable Holdout Defining Privacy Defining Privacy Dataset + Defining Privacy Dataset + Learning Algorithm Distribution
Bardziej szczegółowoWYKŁAD 11 Uczenie maszynowe drzewa decyzyjne
WYKŁAD 11 Uczenie maszynowe drzewa decyzyjne Reprezentacja wiedzy w postaci drzew decyzyjnych entropia, przyrost informacji algorytmy ID3, C4.5 problem przeuczenia wyznaczanie reguł rzykładowe drzewo decyzyjne
Bardziej szczegółowoSystem BCD z κ. Adam Slaski na podstawie wykładów, notatek i uwag Pawła Urzyczyna. Semestr letni 2009/10
System BCD z κ Adam Slaski na podstawie wykładów, notatek i uwag Pawła Urzyczyna Semestr letni 2009/10 Rozważamy system BCD ze stałą typową κ i aksjomatami ω κ κ i κ ω κ. W pierwszej części tej notatki
Bardziej szczegółowoMETODA SYMPLEKS. Maciej Patan. Instytut Sterowania i Systemów Informatycznych Uniwersytet Zielonogórski
METODA SYMPLEKS Maciej Patan Uniwersytet Zielonogórski WSTĘP Algorytm Sympleks najpotężniejsza metoda rozwiązywania programów liniowych Metoda generuje ciąg dopuszczalnych rozwiązań x k w taki sposób,
Bardziej szczegółowoFunkcje dwóch zmiennych, pochodne cząstkowe
Wykłady z matematyki inżynierskiej Funkcje dwóch zmiennych, pochodne cząstkowe JJ, IMiF UTP 17 f (x, y) DEFINICJA. Funkcja dwóch zmiennych określona w zbiorze D R 2, to przyporządkowanie każdemu punktowi
Bardziej szczegółowoTeoria liczb. Wykład nr 9: Przybliżanie liczb rzeczywistych. Ułamki łańcuchowe (cz.1) Semestr letni 2018/2019
Teoria liczb Wykład nr 9: Przybliżanie liczb rzeczywistych. Ułamki łańcuchowe (cz.1) Semestr letni 2018/2019 Trzy sposoby definiowania liczb rzeczywistych Dedekind Parę (A, B) podzbiorów zbioru Q nazywamy
Bardziej szczegółowoWybrane podstawowe rodzaje algorytmów
Wybrane podstawowe rodzaje algorytmów Tomasz Głowacki tglowacki@cs.put.poznan.pl Zajęcia finansowane z projektu "Rozwój i doskonalenie kształcenia na Politechnice Poznańskiej w zakresie technologii informatycznych
Bardziej szczegółowoAlgorytmy decyzyjne będące alternatywą dla sieci neuronowych
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny
Bardziej szczegółowoSAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006
SAS wybrane elementy DATA MINING Część III Seweryn Kowalski 2006 Algorytmy eksploracji danych Algorytm eksploracji danych jest dobrze zdefiniowaną procedurą, która na wejściu otrzymuje dane, a na wyjściu
Bardziej szczegółowoAgnieszka Nowak Brzezińska Wykład III
Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe
Bardziej szczegółowoMatematyka dyskretna
Matematyka dyskretna Wykład 6: Ciała skończone i kongruencje Gniewomir Sarbicki 24 lutego 2015 Relacja przystawania Definicja: Mówimy, że liczby a, b Z przystają modulo m (co oznaczamy jako a = b (mod
Bardziej szczegółowoPreviously on CSCI 4622
More Naïve Bayes aaace3icbvfba9rafj7ew423vr998obg2gpzkojyh4rcx3ys4lafzbjmjifdototmhoilml+hf/mn3+kl+jkdwtr64gbj+8yl2/ywklhsfircg/dvnp33s796mhdr4+fdj4+o3fvywvorkuqe5zzh0oanjakhwe1ra5zhaf5xvgvn35f62rlvtcyxpnm50awundy1hzwi46jbmgprbtrrvidrg4jre4g07kak+picee6xfgiwvfaltorirucni64eeigkqhpegbwaxglabftpyq4gjbls/hw2ci7tr2xj5ddfmfzwtazj6ubmyddgchbzpf88dmrktfonct6vazputos5zakunhfweow5ukcn+puq8m1ulm7kq+d154pokysx4zgxw4nwq6dw+rcozwnhbuu9et/tgld5cgslazuci1yh1q2ynca/u9ais0kukspulds3xxegvtyfycu8iwk1598e0z2xx/g6ef94ehbpo0d9ok9yiowsvfskh1ix2zcbpsdvaxgww7wj4zdn+he2hogm8xz9s+e7/4cuf/ata==
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych
Bardziej szczegółowoKADD Minimalizacja funkcji
Minimalizacja funkcji Poszukiwanie minimum funkcji Foma kwadratowa Metody przybliżania minimum minimalizacja Minimalizacja w n wymiarach Metody poszukiwania minimum Otaczanie minimum Podział obszaru zawierającego
Bardziej szczegółowoMetody zbiorów przybliżonych w uczeniu się podobieństwa z wielowymiarowych zbiorów danych
Metody zbiorów przybliżonych w uczeniu się podobieństwa z wielowymiarowych zbiorów danych WMIM, Uniwersytet Warszawski ul. Banacha 2, 02-097 Warszawa, Polska andrzejanusz@gmail.com 13.06.2013 Dlaczego
Bardziej szczegółowoWIELOKRYTERIALNE PORZĄDKOWANIE METODĄ PROMETHEE ODPORNE NA ZMIANY WAG KRYTERIÓW
Uniwersytet Ekonomiczny we Wrocławiu WIELOKRYTERIALNE PORZĄDKOWANIE METODĄ PROMETHEE ODPORNE NA ZMIANY WAG KRYTERIÓW Wprowadzenie Wrażliwość wyników analizy wielokryterialnej na zmiany wag kryteriów, przy
Bardziej szczegółowoSystemy Wspomagania Decyzji
Reguły Asocjacyjne Szkoła Główna Służby Pożarniczej Zakład Informatyki i Łączności March 18, 2014 1 Wprowadzenie 2 Definicja 3 Szukanie reguł asocjacyjnych 4 Przykłady użycia 5 Podsumowanie Problem Lista
Bardziej szczegółowoMatematyka dyskretna
Matematyka dyskretna Wykład 6: Ciała skończone i kongruencje Gniewomir Sarbicki 2 marca 2017 Relacja przystawania Definicja: Mówimy, że liczby a, b Z przystają modulo m (co oznaczamy jako a = b (mod m)),
Bardziej szczegółowoPlan wykładu. Przykład. Przykład 3/19/2011. Przykład zagadnienia transportowego. Optymalizacja w procesach biznesowych Wykład 2 DECYZJA?
/9/ Zagadnienie transportowe Optymalizacja w procesach biznesowych Wykład --9 Plan wykładu Przykład zagadnienia transportowego Sformułowanie problemu Własności zagadnienia transportowego Metoda potencjałów
Bardziej szczegółowoMetoda Tablic Semantycznych
Procedura Plan Reguły Algorytm Logika obliczeniowa Instytut Informatyki Plan Procedura Reguły 1 Procedura decyzyjna Logiczna równoważność formuł Logiczna konsekwencja Procedura decyzyjna 2 Reguły α, β,
Bardziej szczegółowoZależności funkcyjne
Zależności funkcyjne Plan wykładu Pojęcie zależności funkcyjnej Dopełnienie zbioru zależności funkcyjnych Postać minimalna zbioru zależności funkcyjnych Domknięcie atrybutu relacji względem zależności
Bardziej szczegółowoWykład 4 Wybór najlepszej procedury. Estymacja parametrów re
Wykład 4 Wybór najlepszej procedury. Estymacja parametrów regresji z wykorzystaniem metody bootstrap. Wrocław, 22.03.2017r Wybór najlepszej procedury - podsumowanie Co nas interesuje przed przeprowadzeniem
Bardziej szczegółowoMetody numeryczne w przykładach
Metody numeryczne w przykładach Bartosz Ziemkiewicz Wydział Matematyki i Informatyki UMK, Toruń Regionalne Koło Matematyczne 8 kwietnia 2010 r. Bartosz Ziemkiewicz (WMiI UMK) Metody numeryczne w przykładach
Bardziej szczegółowoReguły asocjacyjne w programie RapidMiner Michał Bereta
Reguły asocjacyjne w programie RapidMiner Michał Bereta www.michalbereta.pl 1. Wstęp Reguły asocjacyjne mają na celu odkrycie związków współwystępowania pomiędzy atrybutami. Stosuje się je często do danych
Bardziej szczegółowoStruktury formalne, czyli elementy Teorii Modeli
Struktury formalne, czyli elementy Teorii Modeli Szymon Wróbel, notatki z wykładu dra Szymona Żeberskiego semestr zimowy 2016/17 1 Język 1.1 Sygnatura językowa Sygnatura językowa: L = ({f i } i I, {P j
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład IV: 27 października 2014 Współczynnik korelacji Brak korelacji a niezależność Definicja współczynnika korelacji Współczynnikiem korelacji całkowalnych z kwadratem zmiennych losowych X i Y nazywamy
Bardziej szczegółowoElementy inteligencji obliczeniowej
Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego
Bardziej szczegółowoLiczby zmiennoprzecinkowe i błędy
i błędy Elementy metod numerycznych i błędy Kontakt pokój B3-10 tel.: 829 53 62 http://golinski.faculty.wmi.amu.edu.pl/ golinski@amu.edu.pl i błędy Plan wykładu 1 i błędy Plan wykładu 1 2 i błędy Plan
Bardziej szczegółowoFunkcje. Oznaczenia i pojęcia wstępne. Elementy Logiki i Teorii Mnogości 2015/2016
Funkcje Elementy Logiki i Teorii Mnogości 2015/2016 Oznaczenia i pojęcia wstępne Niech f X Y będzie relacją. Relację f nazywamy funkcją, o ile dla dowolnego x X istnieje y Y taki, że (x, y) f oraz dla
Bardziej szczegółowoInformacja o przestrzeniach Sobolewa
Wykład 11 Informacja o przestrzeniach Sobolewa 11.1 Definicja przestrzeni Sobolewa Niech R n będzie zbiorem mierzalnym. Rozważmy przestrzeń Hilberta X = L 2 () z iloczynem skalarnym zdefiniowanym równością
Bardziej szczegółowoStruktury danych i złozoność obliczeniowa. Prof. dr hab. inż. Jan Magott
Struktury danych i złozoność obliczeniowa Prof. dr hab. inż. Jan Magott Formy zajęć: Wykład 1 godz., Ćwiczenia 1 godz., Projekt 2 godz.. Adres strony z materiałami do wykładu: http://www.zio.iiar.pwr.wroc.pl/sdizo.html
Bardziej szczegółowoJEDNORÓWNANIOWY LINIOWY MODEL EKONOMETRYCZNY
JEDNORÓWNANIOWY LINIOWY MODEL EKONOMETRYCZNY Będziemy zapisywać wektory w postaci (,, ) albo traktując go jak macierz jednokolumnową (dzięki temu nie będzie kontrowersji przy transponowaniu wektora ) Model
Bardziej szczegółowoSystem informacyjny a system decyzyjny Relacja nierozróżnialności Klasy abstrakcji Teoria zbiorów przybliżonych Usuwanie niespójności z tablicy
System informacyjny a system decyzyjny Relacja nierozróżnialności Klasy abstrakcji Teoria zbiorów przybliżonych Usuwanie niespójności z tablicy decyzyjnej Metody usuwania niespójności z T 1. Pomoc eksperta:
Bardziej szczegółowoJava Developers Day. Silniki reguł biznesowych
Java Developers Day Silniki reguł biznesowych Mariusz Kaczor mariusz.kaczor@altkom.pl Łukasz Szandecki lukasz.szandecki@altkom.pl slide 1 Agenda Mamy problem.. Programowanie deklaratywne Drools przykład
Bardziej szczegółowoMetody eksploracji danych. Reguły asocjacyjne
Metody eksploracji danych Reguły asocjacyjne Analiza podobieństw i koszyka sklepowego Analiza podobieństw jest badaniem atrybutów lub cech, które są powiązane ze sobą. Metody analizy podobieństw, znane
Bardziej szczegółowoSID Wykład 7 Zbiory rozmyte
SID Wykład 7 Zbiory rozmyte Wydział Matematyki, Informatyki i Mechaniki UW slezak@mimuw.edu.pl Wstęp Language Ontological Commitment Epistemological Commitment (What exists in the world) (What an agent
Bardziej szczegółowoTreść wykładu. Pierścienie wielomianów. Dzielenie wielomianów i algorytm Euklidesa Pierścienie ilorazowe wielomianów
Treść wykładu Pierścienie wielomianów. Definicja Niech P będzie pierścieniem. Wielomianem jednej zmiennej o współczynnikach z P nazywamy każdy ciąg f = (f 0, f 1, f 2,...), gdzie wyrazy ciągu f są prawie
Bardziej szczegółowo