ROUGH SET BASED DECISION SUPPORT

Podobne dokumenty
WSPOMAGANIE DECYZJI - MIŁOSZ KADZIŃSKI LAB IV ZBIORY PRZYBLIŻONE I ODKRYWANIE REGUŁ DECYZYJNYCH

Pojęcia podstawowe. Teoria zbiorów przybliżonych i teoria gier. Jak porównać dwa porządki?

Inteligentne systemy wspomagania decyzji oparte na wiedzy odkrytej z danych. Roman Słowiński

B jest globalnym pokryciem zbioru {d} wtedy i tylko wtedy, gdy {d} zależy od B i nie istnieje B T takie, że {d} zależy od B ;

Hard-Margin Support Vector Machines

Sztuczna Inteligencja Projekt

Weronika Mysliwiec, klasa 8W, rok szkolny 2018/2019

Wyk lad 8: Leniwe metody klasyfikacji

Sztuczna Inteligencja Projekt

LEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów

Linear Classification and Logistic Regression. Pascal Fua IC-CVLab

Convolution semigroups with linear Jacobi parameters

Machine Learning for Data Science (CS4786) Lecture11. Random Projections & Canonical Correlation Analysis

Zmiany techniczne wprowadzone w wersji Comarch ERP Altum

System informacyjny a system decyzyjny Relacja nierozróżnialności Klasy abstrakcji Teoria zbiorów przybliżonych Usuwanie niespójności z tablicy

Zarządzanie sieciami telekomunikacyjnymi

Rozpoznawanie twarzy metodą PCA Michał Bereta 1. Testowanie statystycznej istotności różnic między jakością klasyfikatorów

ZASTOSOWANIE ZBIORÓW PRZYBLIŻONYCH DO ANALIZY SATYSFAKCJI KLIENTA SERWISU POJAZDÓW

Helena Boguta, klasa 8W, rok szkolny 2018/2019

Aerodynamics I Compressible flow past an airfoil

Network Services for Spatial Data in European Geo-Portals and their Compliance with ISO and OGC Standards

European Crime Prevention Award (ECPA) Annex I - new version 2014

OpenPoland.net API Documentation

Machine Learning for Data Science (CS4786) Lecture 11. Spectral Embedding + Clustering

Wojewodztwo Koszalinskie: Obiekty i walory krajoznawcze (Inwentaryzacja krajoznawcza Polski) (Polish Edition)

Proposal of thesis topic for mgr in. (MSE) programme in Telecommunications and Computer Science

A Zadanie

Few-fermion thermometry

Raport bieżący: 44/2018 Data: g. 21:03 Skrócona nazwa emitenta: SERINUS ENERGY plc

Fig 5 Spectrograms of the original signal (top) extracted shaft-related GAD components (middle) and

Installation of EuroCert software for qualified electronic signature

EXAMPLES OF CABRI GEOMETRE II APPLICATION IN GEOMETRIC SCIENTIFIC RESEARCH

Previously on CSCI 4622

Wprowadzenie do programu RapidMiner, część 2 Michał Bereta 1. Wykorzystanie wykresu ROC do porównania modeli klasyfikatorów

Anonymous Authentication Using Electronic Identity Documents

Reguły asocjacyjne w programie RapidMiner Michał Bereta

Systemy decyzyjne. Wykład 3: Wnioskowanie Boolowskie w obliczeniu Redutów i reguł decyzyjnych. Nguyen Hung Son. Nguyen Hung Son () 1 / 61

Wprowadzenie do Sztucznej Inteligencji

Wprowadzenie do Sztucznej Inteligencji

WYKŁAD 6. Reguły decyzyjne

POLITYKA PRYWATNOŚCI / PRIVACY POLICY

Zbiory przybliżone, cz. 1 (wersja do druku) dr. Piotr Szczuko

17-18 września 2016 Spółka Limited w UK. Jako Wehikuł Inwestycyjny. Marek Niedźwiedź. InvestCamp 2016 PL

Wprowadzenie do programu RapidMiner, część 5 Michał Bereta

Przykład eksploracji danych Case 1.X

Podstawa prawna: Art. 70 pkt 1 Ustawy o ofercie - nabycie lub zbycie znacznego pakietu akcji

Logika rozmyta typu 2

Testy jednostkowe - zastosowanie oprogramowania JUNIT 4.0 Zofia Kruczkiewicz

Mirosław Kupczyk Pozna, PCSS, Szkolenie: "Architektura i uytkowanie klastra Linux IA-64"

Tychy, plan miasta: Skala 1: (Polish Edition)

Ankiety Nowe funkcje! Pomoc Twoje konto Wyloguj. BIODIVERSITY OF RIVERS: Survey to students

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING. EKSPLORACJA DANYCH Ćwiczenia. Adrian Horzyk. Akademia Górniczo-Hutnicza

Analysis of Movie Profitability STAT 469 IN CLASS ANALYSIS #2

Generowanie zbioru reguł asocjacyjnych i decyzyjnych ze statystycznie reprezentatywnym wsparciem i anty-wsparciem

Rachunek lambda, zima

Ćwiczenia 2 IBM DB2 Data Studio

INSTRUKCJE JAK AKTYWOWAĆ SWOJE KONTO PAYLUTION

KDD and DM 1 W8: REGUŁY DECYZYJNE. Nguyen Hung Son

Camspot 4.4 Camspot 4.5

Sztuczna inteligencja

Nazwa projektu: Kreatywni i innowacyjni uczniowie konkurencyjni na rynku pracy

dr Krzysztof Korus partner, radca prawny, ekonomista

WIELOKRYTERIALNE PORZĄDKOWANIE METODĄ PROMETHEE ODPORNE NA ZMIANY WAG KRYTERIÓW

Zapytanie o cenę: dotyczy:

Instrukcja obsługi User s manual


Wybrzeze Baltyku, mapa turystyczna 1: (Polish Edition)

Wprowadzenie do Sztucznej Inteligencji

Warsztaty Ocena wiarygodności badania z randomizacją


Has the heat wave frequency or intensity changed in Poland since 1950?

ZeroR. Odpowiada zawsze tak samo Decyzja to klasa większościowa ze zbioru uczącego A B X 1 5 T 1 7 T 1 5 T 1 5 F 2 7 F

Reguły decyzyjne, algorytm AQ i CN2. Reguły asocjacyjne, algorytm Apriori.

Instrukcja konfiguracji usługi Wirtualnej Sieci Prywatnej w systemie Mac OSX

SG-MICRO... SPRĘŻYNY GAZOWE P.103

Machine Learning for Data Science (CS4786) Lecture 24. Differential Privacy and Re-useable Holdout

Eksploracja danych. KLASYFIKACJA I REGRESJA cz. 2. Wojciech Waloszek. Teresa Zawadzka.

Effective Governance of Education at the Local Level

MaPlan Sp. z O.O. Click here if your download doesn"t start automatically

TTIC 31210: Advanced Natural Language Processing. Kevin Gimpel Spring Lecture 9: Inference in Structured Prediction

Patients price acceptance SELECTED FINDINGS

STEROWANIA RUCHEM KOLEJOWYM Z WYKORZYSTANIEM METOD SYMULACYJNYCH

Wykaz linii kolejowych, które są wyposażone w urządzenia systemu ETCS

Katowice, plan miasta: Skala 1: = City map = Stadtplan (Polish Edition)

System optymalizacji produkcji energii

harmonic functions and the chromatic polynomial

Dolny Slask 1: , mapa turystycznosamochodowa: Plan Wroclawia (Polish Edition)

E.14 Bazy Danych cz. 18 SQL Funkcje, procedury składowane i wyzwalacze

Latent Dirichlet Allocation Models and their Evaluation IT for Practice 2016

Zakopane, plan miasta: Skala ok. 1: = City map (Polish Edition)

Wykaz linii kolejowych, które są wyposażone w urzadzenia systemu ETCS

OBWIESZCZENIE MINISTRA INFRASTRUKTURY. z dnia 18 kwietnia 2005 r.

TTIC 31210: Advanced Natural Language Processing. Kevin Gimpel Spring Lecture 8: Structured PredicCon 2

y = The Chain Rule Show all work. No calculator unless otherwise stated. If asked to Explain your answer, write in complete sentences.

Wpływ dyrektywy PSD II na korzystanie z instrumentów płatniczych. Warszawa, 15 stycznia 2015 r. Zbigniew Długosz

POLITECHNIKA WARSZAWSKA. Wydział Zarządzania ROZPRAWA DOKTORSKA. mgr Marcin Chrząścik

OPTYMALIZACJA CZĘŚCIOWYCH REGUŁ ASOCJACYJNYCH WZGLĘDEM LICZBY POMYŁEK


ALGORYTM ZACHŁANNY DLA KONSTRUOWANIA CZĘŚCIOWYCH REGUŁ ASOCJACYJNYCH

Ewelina Dziura Krzysztof Maryański

Transkrypt:

ROUGH SET BASED DECISION SUPPORT Roman Słowiński Laboratory of Intelligent Decision Support Systems Institute of Computing Science Poznań University of Technology Roman Słowiński

Motywacje Wzrasta przepaść między generowaniem danych a ich zrozumieniem Odkrywanie wiedzy z danych (ang. Knowledge Discovery, Data Mining) OWD jest procesem identyfikowania przez indukcję: prawdziwych, nietrywialnych, potencjalnie użytecznych, bezpośrednio zrozumiałych wzorców w danych Wzorzec = reguła, trend, zjawisko, prawidłowość, anomalia, hipoteza, funkcja, itp. Wzorce są użyteczne dla wyjaśniania sytuacji opisanych przez dane oraz do predykcji przyszłych sytuacji 2

Motywacje odkrywanie wzorców Przykład danych diagnostycznych 176 autobusów (obiektów) 8 symptomów (atrybutów) Globalny stan techniczny: 3 dobry(użytkować) 2 do przeglądu 1 do remontu (wycofać) Odkryć wzorce = znaleźć zależności między symptomami a stanem technicznym Wzorce wyjaśniają decyzje eksperta i wspomagają diagnozowanie nowych przypadków 3

Introduction Discovering knowledge from data means to find concise classification patterns that agree with situations described by the data The situations are described by a set of attributes, called also properties, features, characteristics, etc. The attributes may be either on condition or decision side of the description, corresponding to input or output of a decision situation The situations may be objects, states, examples, etc. It will be convenient to call them objects from now We present a knowledge discovery method for multiattribute decision making, based on the concept of rough sets (Pawlak 1982) Rough set theory provides a framework for dealing with inconsistent or ambiguous data in knowledge discovery As the inconsistency and ambiguity follow from information granulation, the core idea of rough sets is that of granular approximation 4

Classical Rough Set Approach (CRSA) Example Classification of basic traffic signs There exist three main classes of traffic signs corresponding to: warning (W), interdiction (I), order (O). These classes may be distinguished by such attributes as the shape (S) and the principal color (PC) of the sign Finally, we give few examples of traffic signs 5

CRSA example of traffic signs 6

CRSA example of traffic signs Granules of knowledge: W={a} Class, I={b,c} Class, O={d} Class {a} S,PC, {b} S,PC, {c,d} S,PC Explanation of classification in terms of granules generated by S and PC class W includes sign a certainly and no other sign possibly class I includes sign b certainly and signs b, c and d possibly class O includes no sign certainly and signs c and d possibly Lower and upper approximation of the classes by attributes S and PC: lower_appx. S,PC (W)={a}, upper_appx. S,PC (W)={a} lower_appx. S,PC (I)={b}, upper_appx. S,PC (I)={b,c,d} lower_appx. S,PC (O)=, upper_appx. S,PC (O)={c,d} boundary S,PC (I)=upper_appx. S,PC (I) lower_appx. S,PC (I)={c,d} boundary S,PC (O)=upper_appx. S,PC (O) lower_appx. S,PC (O)={c,d} The quality of approximation: 2/4 7

CRSA example of traffic signs To increase the quality of approximation (decrease the ambiguity) we add a new attribute secondary color (SC) The granules: {a} S,PC,SC, {b} S,PC,SC, {c} S,PC,SC, {d} S,PC,SC Quality of approximation: 4/4=1 8

CRSA example of traffic signs Are all three attributes necessary to characterize precisely the classes W, I, O? The granules: {a} PC,SC, {b} PC,SC, {c} PC,SC, {d} PC,SC Quality of approximation: 4/4=1 9

CRSA example of traffic signs The granules: {a} S,SC, {b,c} S,SC, {d} S,SC Reducts of the set of attributes: {PC, SC} and {S, SC} Intersection of reducts is the core: {SC} 10

CRSA example of traffic signs The minimal representation of knowledge contained in the Table decision rules Decision rules are classification patterns discovered from data contained in the table 11

CRSA example of traffic signs Alternative set of decision rules 12

CRSA example of traffic signs Decision rules induced from the original table Rules #1 & #2 certain rules induced from lower approximations of W and I Rule #3 approximate rule induced from the boundary of I and O 13

CRSA example of traffic signs Useful results: a characterization of decision classes (even in case of inconsistency) in terms of chosen attributes by lower and upper approximation, a measure of the quality of approximation indicating how good the chosen set of attributes is for approximation of the classification, reduction of knowledge contained in the table to the description by relevant attributes belonging to reducts, the core of attributes indicating indispensable attributes, decision rules induced from lower and upper approximations of decision classes show classification patterns existing in data. 14

CRSA formal definitions Approximation space U = finite set of objects (universe) C = set of condition attributes D = set of decision attributes C D= X C = X D = C X q q= 1 D X q q= 1 condition attribute space decision attribute space 15

CRSA formal definitions Indiscernibility relation in the approximation space x is indiscernible with y by P C in X P iff x q =y q for all q P x is indiscernible with y by R D in X D iff x q =y q for all q R I P (x), I R (x) equivalence classes including x I D makes a partition of U into decision classes Cl={Cl t, t=1,...,n} Granules of knowledge are bounded sets: I P (x) in X P and I R (x) in X R (P C and R D) Classification patterns to be discovered are functions representing granules I R (x) by granules I P (x) 16

CRSA illustration of formal definitions Example Investments Sales Effectiveness 40 17,8 High Objects = firms 35 30 High 32.5 39 High 31 35 High 27.5 17.5 High 24 17.5 High 22.5 20 High 30.8 19 Medium 27 25 Medium 21 9.5 Medium 18 12.5 Medium 10.5 25.5 Medium 9.75 17 Medium 17.5 5 Low 11 2 Low 10 9 Low 5 13 Low 17

CRSA illustration of formal definitions 40 attribute 1 (Investment) Objects in condition attribute space 20 0 20 40 attribute 2 (Sales) 18

CRSA illustration of formal definitions 40 a 1 Indiscernibility sets 20 0 20 40 Quantitative attributes are discretized according to perception of the user a 2 19

CRSA illustration of formal definitions 40 a 1 Granules of knowlegde are bounded sets I P (x) 20 0 20 40 a 2 20

CRSA illustration of formal definitions 40 a 1 Lower approximation of class High 20 0 20 40 a 2 21

CRSA illustration of formal definitions 40 a 1 Upper approximation of class High 20 0 20 40 a 2 22

CRSA illustration of formal definitions 40 a 1 Lower approximation of class Medium 20 0 20 40 a 2 23

CRSA illustration of formal definitions 40 a 1 Upper approximation of class Medium 20 0 20 40 a 2 24

CRSA illustration of formal definitions 40 a 1 Boundary set of classes High and Medium 20 0 20 40 a 2 25

CRSA illustration of formal definitions 40 a 1 Lower = Upper approximation of class Low 20 0 20 40 a 2 26

CRSA formal definitions Inclusion and complementarity properties of rough approximations Accuracy measures Accuracy and quality of approximation of X U by attributes P C Quality of approximation of classification Cl={Cl t, t=1,...n} by attributes P C γ ( Cl) n = t = 1 ( ) P Cl Rough membership of x U to X U, givenp C P μ P X ( x) = X I P U t I P ( x) ( x) 27

CRSA formal definitions Monotonicity property with respect to the cardinality of P C: for any R P C it holds: R ( X ) P( X ), R( X ) P( X ) Cl-reduct of P C, denoted by RED Cl (P), is a minimal subset P' of P which keeps the quality of classification Cl unchanged, i.e. P' ( Cl) γ ( Cl) γ = P Cl-core is the intersection of all the Cl-reducts of P: CORE ( P) I REDCl ( P) Cl = 28

CRSA decision rules induced from rough approximations Certain decision rule supported by objects from lower approximation of Cl t (discriminant rule) if x q 1 = r q 1 and x q 2 = r q 2 and... x q p = r q p, then x Cl t Possible decision rule supported by objects from upper approximation of Cl t (partly discriminant rule) if x q 1 = r q 1 and x q 2 = r q 2 and... x q p = r q p, then x Cl t Approximate decision rule supported by objects from the boundary of Cl t if x q = rq and xq = rq and... xq = rq, then x 1 1 2 2 p p Cl t or Cl s or... Cl u where { q } ( ) 1,q2,...,qp C, rq,rq,...,rq Vq Vq... Vq p 1 2 p 1 2 Cl t,cl s,...,cl u are classes to which belong inconsistent objects supporting this rule Rule strength percentage of objects in U supporting the rule 29

Measures characterizing decision rules in system S= U, C, D Support of a rule Φ Ψ : Strength of a rule Φ Ψ : supp S S ( Φ Ψ ) ( Φ, Ψ ) ( ) supp card U, S σ = ( Φ, Ψ ) = card( Φ Ψ ) S Certainty (or confidence) factor of a rule Φ Ψ (Łukasiewicz, 1913): Coverage factor of a rule Φ Ψ : (, Ψ ) ( Φ, Ψ ) ( Φ ) Relation between certainty, coverage and Bayes theorem: cer cov S S Φ = (, Ψ ) Φ = supps card supps card S ( Φ, Ψ ) ( Ψ ) S cer S ( Φ, Ψ ) = Pr( Ψ Φ ) = Pr Pr ( Ψ Φ ) ( Φ ), cov S ( Φ, Ψ ) = Pr( ΦΨ ) = Pr Pr ( Φ Ψ ) ( Ψ ) 30

CRSA summary of useful results Characterization of decision classes (even in case of inconsistency) in terms of chosen attributes by lower and upper approximation Measure of the quality of approximation indicating how good the chosen set of attributes is for approximation of the classification Reduction of knowledge contained in the table to the description by relevant attributes belonging to reducts The core of attributes indicating indispensable attributes Decision rules induced from lower and upper approximations of decision classes show classification patterns existing in data 31

Algorytm indukcji reguł decyzyjnych z przybliżeń klas decyzyjnych LEM2 Definicje i oznaczenia: Przykład obiekt z tablicy S= U, C, D B niepuste dolne lub górne przybliżenie, lub brzeg klasy decyzyjnej Cl t, czyli zbiór przykładów pozytywnych q atrybut ze zbioru C V q dziedzina wartości atrybutu q C (q=v q ) warunek elementarny części warunkowej reguły, q C, v q V q t = (q,v q ) para atrybut-wartość tworząca warunek elementarny (q=v q ) [t] zbiór przykładów spełniających odpowiedni warunek elementarny (q=v q ) T zbiór par t atrybut-wartość zwany koniunkcją, tworzący część warunkową reguły: (q 1 =v q1 ) (q 2 =v q2 ) (q p =v qp ) [T] zbiór przykładów spełniających koniunkcję (q 1 =v q1 ) (q 2 =v q2 ) (q p =v qp ), czyli zbiór przykładów pokrytych przez T 32

Algorytm LEM2 Zbiór B zależy od koniunkcji T par atrybut-wartość wtedy i tylko wtedy, gdy Koniunkcja T jest minimalna wtedy i tylko wtedy, gdy B zależy od T, a usunięcie dowolnej pary t powoduje, że B nie zależy od koniunkcji T = T-{t} T jest zbiorem koniunkcji T stanowiącym tzw. lokalne pokrycie zbioru B wtedy i tylko wtedy, gdy spełnione są następujące warunki: każda koniunkcja T T jest minimalna U T T [ T ] = B [ T ] = [ t] B T jest zbiorem o najmniejszej liczbie koniunkcji T ( ) Koniunkcja T T dla B = C Cl t tworzy regułę decyzyjną pewną: Jeżeli (x q1 =v q1 ) (x q2 =v q2 ) (x qp =v qp ), to x należy do Cl t ( ) Koniunkcja T T dla B = C Cl t tworzy regułę decyzyjną możliwą: I t T Jeżeli (x q1 =v q1 ) (x q2 =v q2 ) (x qp =v qp ), to x być może należy do Cl t 33

Algorytm LEM2 ( ) Koniunkcja T T dla B = Bn C Cl t tworzy regułę decyzyjną przybliżoną: Jeżeli (x q1 =v q1 ) (x q2 =v q2 ) (x qp =v qp ), to x należy do Cl t Cl s Cl u Algorytm LEM2 buduje pojedyncze lokalne pokrycie T dla każdej klasy decyzyjnej, a dokładniej, dla każdego dolnego lub górnego przybliżenia klasy Cl t, lub brzegu klasy Cl t (zbioru B) Algorytm LEM2 uruchamia się dla danego zbioru B, a w wyniku otrzymuje się minimalny zbiór reguł pokrywających wszystkie obiekty z tego zbioru 34

Algorytm LEM2 Procedure LEM2 (input: zbiór B, output: pojedyncze lokalne pokrycie T dla zbioru B); begin G:= B; {zbiór przykładów nie pokrytych dotychczas przez koniunkcje T T} T:= ; {zbiór koniunkcji T tworzący aktualne pokrycie zbioru B G} while G begin T:= ; {koniunkcja warunków elementarnych będąca kandydatem na część warunkową reguły} T(G):= {t : [t] G }; {zbiór potencjalnych warunków elementarnych dla nie pokrytych przykładów} while T = or [T] B do 35

Algorytm LEM2 while T = or [T] B do begin wybierz warunek t T(G) taki, że wyrażenie [T {t}] G ma wartość maksymalną; jeśli więcej niż jeden z warunków maksymalizuje powyższe wyrażenie, to wybierz ten, dla którego [T {t}] ma wartość minimalną; w przypadku niejednoznaczności wybierz pierwszy z rozważanych warunków; T:= T {t}; {dołącz najlepszy warunek t do koniunkcji T} G:= G [t]; {ogranicz zbiór przykładów dostarczających nowych warunków elementarnych} T(G):= {w : [w] G }; {uaktualnij listę potencjalnych warunków elementarnych} T(G):= T(G) T; {usuń z listy warunki elementarne już wybrane do tworzonej koniunkcji} end {while [T] B} 36

Algorytm LEM2 end {while [T] B} for każdy warunek elementarny t T do if [T {t}] B then T:= T {t}; {usuń nadmiarowe warunki} T:= T {T}; G:= B T T [T]; end {while G } for każda koniunkcja T T do if K T-{T} [K] = B then T:= T {T}; {usuń nadmiarowe reguły} utwórz zbiór reguł R na podstawie wszystkich koniunkcji T T; end {procedure} 37

Przykład Przykłady (obiekty) Atrybuty warunkowe Decyzja Temperatura Hemoglobina Ciśnienie Dotlenienie Samopoczucie a niska dobra niskie dobre Słabe b niska dobra normalne złe Słabe c normalna b.dobra niskie b.dobre Słabe d normalna b.dobra niskie b.dobre Dobre e niska b.dobra normalne b.dobre Dobre f niska b.dobra normalne dobre Dobre g normalna dobra normalne b.dobre Dobre h normalna niska wysokie b.dobre Złe i wysoka b.dobra wysokie dobre Złe 38

Przykład C-dolne przybliżenie klasy Słabe samopoczucie: B = {a, b} T(G) = {(Temperatura=niska), (Hemoglobina=dobra), (Ciśnienie=niskie), (Ciśnienie=normalne), (Dotlenienie=dobre), (Dotlenienie=złe)} B = G = {a, b} Pokrycia warunków elementarnych: [T {t}], [T {t}] G, [T {t}] [(Temperatura=niska)] = {a, b, e, f}, 2, 4 [(Hemoglobina=dobra)] = {a, b, g}, 2, 3 T(G) [(Ciśnienie=niskie)] = {a, c, d}, 1, 3 [(Ciśnienie=normalne)] = {b, e, f, g}, 1, 4 [(Dotlenienie=dobre)] = {a, f, i}, 1, 3 [(Dotlenienie=złe)] = {b}, 1, 1 Procedura wybiera warunki (Temperatura=niska), (Hemoglobina=dobra) ponieważ ich pokrycia mają maksymalny przekrój z G Z powodu remisu stosuje się kryterium minimalnej liczności pokrycia, więc wybrany zostaje (Hemoglobina=dobra) 39

Przykład T = {(Hemoglobina=dobra)} Nadal G = {a, b}, ponieważ G [(Hemoglobina=dobra)] = G T(G) = T(G) T = {(Temperatura=niska), (Ciśnienie=niskie), (Ciśnienie=normalne), (Dotlenienie=dobre), (Dotlenienie=złe)} Ponieważ [(Hemoglobina=dobra)] B, potrzebna jest następna iteracja Tym razem wybrany zostaje warunek elementarny (Temperatura=niska), bo pokrycie tego warunku ma maksymalny przekrój z G T = {(Hemoglobina=dobra), (Temperatura=niska)} T = T Ponieważ [T] = [B], zatem pojedyncze lokalne pokrycie B dokonane jest za pomocą jednej reguły: Jeżeli (Hemoglobina=dobra) (Temperatura=niska), to Słabe samopoczucie 40

Przykład Zbiór reguł pewnych wygenerowanych przez LEM2: Jeżeli (Hemoglobina=dobra) (Temperatura=niska), to Słabe samopoczucie {a,b}, cert=1, cov=2/3, strength=2/9 Jeżeli (Hemoglobina=b.dobra) (Ciśnienie=normalne), to Dobre samopoczucie {e,f}, cert=1, cov=1/2, strength=2/9 Jeżeli (Temperatura=normalna) (Hemoglobina=dobra), to Dobre samopoczucie {g}, cert=1, cov=1/4, strength=1/9 Jeżeli (Ciśnienie=wysokie), to Złe samopoczucie {h,i}, cert=1, cov=1, strength=2/9 41

Przykład Zbiór reguł możliwych wygenerowanych przez LEM2: Jeżeli (Ciśnienie=niskie), to Słabe samopoczucie {a,c,d}, cert=2/3, cov=2/3, strength=3/9 Jeżeli (Dotlenienie=złe), to Słabe samopoczucie {b}, cert=1, cov=1/3, strength=1/9 Jeżeli (Dotlenienie=b.dobre) (Hemoglobina=b.dobra), to Dobre samopoczucie {c,d,e}, cert=2/3, cov=1/2, strength=3/9 Jeżeli (Dotlenienie=dobre) (Ciśnienie=normalne), to Dobre samopoczucie {f}, cert=1, cov=1/4, strength=1/9 Jeżeli (Temperatura=normalna) (Hemoglobina=dobra), to Dobre samopoczucie {g}, cert=1, cov=1/4, strength=1/9 Jeżeli (Ciśnienie=wysokie), to Złe samopoczucie {h,i}, cert=1, cov=1, strength=2/9 42