Wybrane zadania przygotowujące do egzaminu z ISO- cz. 2. dr Piotr Wąsiewicz
|
|
- Dawid Marczak
- 8 lat temu
- Przeglądów:
Transkrypt
1 Wybrane zadania przygotowujące do egzaminu z ISO- cz. 2 dr Piotr Wąsiewicz. Ze zbioru treningowego podanego w tabeli poniżej wykreować metodą zstępującej konstrukcji drzewo decyzyjne(jak najmniej rozbudowane- minimalizacja entropii). Atrybut wiek zdyskretyzować korzystając z dwóch progów 0 i 65 lat. Atrybut ryzyko będzie kategorią. x wiek samochód ryzyko 8 maluch duże 2 5 maluch małe 50 sportowy duże 66 minivan duże 5 8 sportowy duże 6 5 minivan małe 7 60 maluch małe 8 70 sportowy duże 9 25 minivan małe Rozwiązanie: Atrybut wiek otrzymuje po dyskretyzacji trzy wartości: w :wiek<0,w 2 :wiek 0 wiek<65,w :wiek 65. Najpierw obliczana jest informacja zawarta w zbiorze i entropie rozkładu wartości kategorii tzw. etykiet między wybrane przez wartości atrybutów podzbiory zbioru trenującego. I(P)= Pmae log P 2 ( Pmae ) Pdue log P P 2 ( Pdue )= P 9 log 2( 9 ) 5 9 log 2( 5 9 )=0.99, E wiek,w (P)= Pmae wiek,w P wiek,w log 2( Pmae wiek,w ) Pdue wiek,w P wiek,w P wiek,w log 2( Pdue wiek,w P wiek,w )= log 2( ) 2 log 2( 2 )= 0.98, E wiek,w2 (P)= Pmae wiek,w 2 P wiek,w2 log 2( Pmae wiek,w 2 ) Pdue wiek,w 2 P wiek,w2 P wiek,w2 log 2( Pdue wiek,w 2 P wiek,w2 )= log 2( ) log 2( )= 0.8, E wiek,w (P)= Pmae wiek,w P wiek,w log 2( Pmae wiek,w ) Pdue wiek,w P wiek,w P wiek,w log 2( Pdue wiek,w P wiek,w )= 0 2 log 2( 0 2 ) 2 2 log 2( 2 2 )= 0, E samochód,maluch (P)= Pmae samochód,maluch P samochód,maluch log 2( Pmae samochód,maluch P samochód,maluch )- P due samochód,maluch samochód,maluch P samochód,maluch log 2( Pdue P samochód,maluch )= 2 log 2( 2 ) log 2( )=0.98, samochód,minivan samochód,minivan E samochód,minivan (P)= Pmae P samochód,minivan log 2( Pmae P samochód,minivan ) P due samochód,minivan samochód,minivan P samochód,minivan log 2( Pdue P samochód,minivan )= 2 log 2( 2 ) log 2( )=0.98, samochód,sportowy samochód,sportowy E samochód,sportowy (P)= Pmae P samochód,sportowy log 2( Pmae P samochód,sportowy ) Psamochód,sportowy due P samochód,sportowy log 2( Pdue samochód,sportowy P samochód,sportowy )= 0 log 2( 0 ) log 2( )=0,
2 Następnie obliczane są średnie ważone entropie: E wiek (P)= P wiek,w P 9 (0.8)+2 9 0=0,666, E wiek,w (P)+ P wiek,w 2 P E wiek,w2 (P)+ P wiek,w E wiek,w (P)= P 9 (0.98)+ E samochod (P)= P samochod,maluch E samochod,maluch (P)+ P samochod,minivan E samochod,minivan (P)+ P P P samochod,sportowy E samochod,sportowy (P)= P 9 (0.98)+ 9 (0.98)+ 9 0=0,62, I wartości infomacyjne dla poszczególnych atrybutów: IV wiek (P)= P wiek,w P log 2 ( P wiek,w ) P wiek,w 2 P P log 2 ( P wiek,w 2 ) P wiek,w P P 9 log 2( 9 ) 9 log 2( 9 ) 2 9 log 2( 2 9 )=0,528+0,59+0,82=,5, IV samochód (P)= P samochód,maluch P P samochód,minivan P log 2 ( P samochód,maluch ) P log 2 ( P samochód,minivan ) P samochód,sportowy P P 9 log 2( 9 ) 9 log 2( 9 ) 9 log 2( 9 )=0,528+0,528+0,528=,58, Na końcu współczynniki przyrostu informacji wynoszą odpowiednio: ϑ wiek (P)= I(P) E wiek(p) IV wiek (P) ϑ samochód (P)= I(P) E samochód(p) IV samochód (P) = 0,99 0,666,5 =0,22 = 0,99 0,62,58 =0,29 log 2 ( P wiek,w )= P log 2 ( P samochód,sportowy )= P sportowy samochod duze wiek maluch minivan wiek w w duze w 2 w male duze w w 2 male Jak widać atrybut samochód ma większy współczynnik i wygrywa staje się pierwszym węzłem drzewa decyzyjnego, a jego trzy łuki biegnące do następników mają za nazwy jego wartości. Dla wartości sportowy każdy przykład zawierający ją ma etykietę duże atrybutu ryzyko, stądjejłukkończysięliściemowartościduże. 2
3 Dla wartości maluch jej łuk kończy się z braku jasnego wyboru etykiety tylko na podstawie wartości atrybutu samochód węzłem atrybutu wiek- ostatnim z dostępnych testów na drodze do określenia etykiety przykładu złożonego z testowanych dwóch atrybutów wiek i samochód. Poniżej zamieszczony został opis następników nowego węzła. Przykładyzwartościąw atrybutuwiekiwartościąmaluchmajązawszeetykietęduże stądłukbiegnącyodwęzławiekonazwiew kończysięliściemduże,adlainnychwartości atrybutu wiek przy wartości maluch atrybutu samochód przykłady mają etykiety małe stąd odpowiednie liście. Wracając do trzeciego łuku o nazwie minivan biegnącego od korzenia można zauważyć, żeteżzbrakutakichsamychetykietdlaprzykładówzwartościąminivanizdowolną wartościąatrybutuwiekłuktenkończysięwęzłemonazwiewiekidalejzależnościi liście są takie same jak dla węzła kończącego łuk maluch. 2. Za pomocą algorytmu sekwencyjnego pokrywania CN2 uzyskać nieuporządkowany zbiór zdaniowych reguł ze zbioru treningowego podanego w tabeli poniżej. Opisać dokładnie kolejne kroki algorytmu. Atrybut wiek zdyskretyzować korzystając z dwóch progów 0 i 65 lat. Atrybut ryzyko będzie kategorią. Dla ułatwienia założyć, że wszystkie kompleksy są istotne statystycznie oraz że kompleks warunkujący z reguły zdaniowej musi pokrywać przykłady tylko z jedną etykietą- jedną wartością kategorii. x wiek samochód ryzyko 8 maluch duże 2 5 maluch małe 50 sportowy duże 66 minivan duże 5 8 sportowy duże 6 5 minivan małe 7 60 maluch małe 8 70 sportowy duże 9 25 minivan małe Rozwiązanie: Atrybut wiek otrzymuje po dyskretyzacji trzy wartości: w :wiek<0, w 2 :wiek 0 wiek<65, w :wiek 65. Zbiór S kompleksów atomowych(czyli tylko z jednym selektorem nieuniwersalnym) (S={K, K 2, K, K, K 5, K 6, K 7, K 8, K 9, K 0, K, K 2 })jestnastępujący: S={ K <w,?>, K 2 <w 2,?>, K <w,?>, K <w w 2,?>, K 5 <w 2 w,?>, K 6 <w w,?>, K 7 <?,maluch>, K 8 <?,minivan>, K 9 <?,sportowy>, K 0 <?,maluch minivan>, K <?,minivan sportowy>, K 2 <?,maluch sportowy>}
4 Kolejne kroki algorytmu CN2 (a)początkowor=φ,p=t={,2,,,5,6,7,8,9}, S (b) Następuje wywołanie znajdź-kompleks(t, P). S={<?>} φ,k =<?> ϑ k (P)= E k (P)= Pmae P log 2 ( Pmae )+ Pdue P P log 2 ( Pdue )= 5 P 9 log 2( 5 9 )+ 9 log 2( 9 )= 0.99, S = S=S S, Ze względu na to, że dąży się do uzyskania nieuporządkowanego zbioru reguł funkcje ocenykompleksówatomowychsąliczonetylkorazwzbiorzetipotemcałyczas wykorzystywane. ϑ K (T)= E K (T)= Tmae K log T K 2 ( Tmae K )+Tdue K T K T K log 2( Tdue K T K )= log 2( )+ 2 log 2( 2 )= 0.98, ϑ K2 (T)= E K2 (T)= Tmae K 2 T K2 log 2( )= 0.8, ϑ K (T)= E K (T)= Tmae K T K log 2( )=0, ϑ K (T)= E K (T)= Tmae K T K 7 log 2( 7 )= 0.985, ϑ K5 (T)= E K5 (T)= Tmae K 5 T K5 6 log 2( 6 )=, ϑ K6 (T)= E K6 (T)= Tmae K 6 T K6 5 log 2( 5 )= 0.72, ϑ K7 (T)= E K7 (T)= Tmae K 7 T K7 log 2( )= 0.98, ϑ K8 (T)= E K8 (T)= Tmae K 8 T K8 log 2( )= 0.98, ϑ K9 (T)= E K9 (T)= Tmae K 9 T K9 log 2( )=0, ϑ K0 (T)= E K0 (T)= Tmae K log 2( 2 6 )= 0.98, log 2 ( Tmae K 2 )+Tdue K 2 T K2 T K2 log 2( Tdue K 2 T K2 )= log 2( )+ log 2 ( Tmae K )+Tdue K T K T K log 2( Tdue K T K )=0 log 2( 0 )+ log 2 ( Tmae K )+Tdue K T K T K log 2( Tdue K T K )= 7 log 2( 7 )+ log 2 ( Tmae K 5 )+Tdue K 5 T K5 T K5 log 2( Tdue K 5 T K5 )= 6 log 2( 6 )+ log 2 ( Tmae K 6 )+Tdue K 6 T K6 T K6 log 2( Tdue K 6 T K6 )= 5 log 2( 5 )+ log 2 ( Tmae K 7 )+Tdue K 7 T K7 T K7 log 2( Tdue K 7 T K7 )=2 log 2( 2 )+ log 2 ( Tmae K 8 )+Tdue K 8 T K8 T K8 log 2( Tdue K 8 T K8 )=2 log 2( 2 )+ log 2 ( Tmae K 9 )+Tdue K 9 T K9 T K9 log 2( Tdue K 9 T K9 )=0 log 2( 0 )+ T K0 log 2( Tmae K 0 )+Tdue K 0 T K0 T K0 log 2( Tdue K 0 T K0 )= 6 log 2( 6 )+
5 ϑ K (T)= E K (T)= Tmae K 6 log 2( 6 )= 0.98, T K log 2( Tmae K )+Tdue K T K T K log 2( Tdue K T K )=2 6 log 2( 2 6 )+ ϑ K2 (T)= E K2 (T)= Tmae K 2 T K2 log 2( Tmae K 2 )+Tdue K 2 T K2 T K2 log 2( Tdue K 2 T K2 )=2 6 log 2( 2 6 )+ 6 log 2( 6 )= 0.98 K 9 =<?,sportowy>manajwiększąwartośćϑ=0wzbiorze SrazemzK,ale więcejprzykładówpokrywa;s={k 9 },k = K 9, (c)r={<?,sportowy> duże},p={,2,,6,7,9}, (d)p φ znajdź-kompleks(t,p), S={<?>} φ,k =<?>iϑ k (P)= 0.99, S = S=S S, zewzględunaużycie K 9 wykluczasięwszystkiekompleksyatomowezwartością atrybutusamochód=sportowyczyli K 9,K,K 2,botakichprzykładówzwartością sportowyjużwzbiorzepniema. W następnym kroku chcąc uzyskać najlepszy kompleks wykorzystuje się funckje oceny liczone jeden raz na początku. K =<w,?>manajwiększąwartośćϑ=0;s={k },k = K, (e)r={<?,sportowy> duże,<w,?> duże},p={,2,6,7,9}, (f)p φ znajdź-kompleks(t,p), S={<?>} φ,k =<?>iϑ k (P)= 0.99, zewzględunaużycie K wykluczasięwszystkiekompleksyatomowezwartością atrybutuwiek=w czyli K,K 5,K 6,botakichprzykładówzwartościąw jużw zbiorzepniema. K 2 =<w 2,?>mawartośćϑ= 0.8,aleprzyjęto,żedlaułatwieniatworzysię reguły pokrywające przykłady tylko z jedną etykietą czyli dla kompleksów o wartości funkcji oceny 0, dlatego pętla wykonuje się dalej. S={<w2,?>}; ZgodniezalgorytmemCN2:S :=S S;S :=S S {<φ>}; Kompleks{< w2, maluch minivan >} ma wartość funkcji oceny równą 0 i pokrywa najwięcejprzykladówzp,gdyżmimo,żeoceniasięwedługzbiorut(zbiórreguł nieuporządkowany), to trzeba tworzyć reguły pokrywające przykłady ze zbioru P i to jak najwięcej. (g)r={<?,sportowy> duże,<w,?> duże,<w2,maluch minivan małe>}, P={,9}, (h)p φ znajdź-kompleks(t,p), S={<?>} φ,k =<?>iϑ k (P)= 0.99, Pozostały tylko dwa przykłady o różnych etykietach, aby kompleksy mogły uzyskać ocenę równą 0 muszą mieć identyczne wartości atrybutów, stąd powstają dwie nowe reguły. (i) Ostatecznie R={<?,sportowy> duże, <w,?> duże, <w2,maluch minivan małe> <w,minivan małe> <w,maluch duże> } W uzyskanym zbiorze reguł można reguły zamieniać miejscami, gdyż jest to zbiór nieuporządkowany. 5
6 . Za pomocą algorytmu sekwencyjnego pokrywania CN2 uzyskać uporządkowany zbiór zdaniowych reguł ze zbioru treningowego podanego w tabeli poniżej. Opisać dokładnie kolejne kroki algorytmu. Atrybut wiek zdyskretyzować korzystając z dwóch progów 0 i 65 lat. Atrybut ryzyko będzie kategorią. Dla ułatwienia założyć, że wszystkie kompleksy są istotne statystycznie oraz że kompleks warunkujący z reguły zdaniowej musi pokrywać przykłady tylko z jedną etykietą- jedną wartością kategorii. x wiek samochód ryzyko 8 maluch duże 2 5 maluch małe 50 sportowy duże 66 minivan duże 5 8 sportowy duże 6 5 minivan małe 7 60 maluch małe 8 70 sportowy duże 9 25 minivan małe Rozwiązanie: Atrybut wiek otrzymuje po dyskretyzacji trzy wartości: w :wiek<0, w 2 :wiek 0 wiek<65, w :wiek 65. Zbiór S kompleksów atomowych(czyli tylko z jednym selektorem nieuniwersalnym) (S={K, K 2, K, K, K 5, K 6, K 7, K 8, K 9, K 0, K, K 2 })jestnastępujący: Kolejne kroki algorytmu CN2 S={ K <w,?>, K 2 <w 2,?>, K <w,?>, K <w w 2,?>, K 5 <w 2 w,?>, K 6 <w w,?>, K 7 <?,maluch>, K 8 <?,minivan>, K 9 <?,sportowy>, K 0 <?,maluch minivan>, K <?,minivan sportowy>, K 2 <?,maluch sportowy>} (a)początkowor=φ,p=t={,2,,,5,6,7,8,9}, S (b) Następuje wywołanie znajdź-kompleks(t, P). S={<?>} φ,k =<?> ϑ k (P)= E k (P)= Pmae P 9 log 2( 9 )= 0.99, S = S=S S, K ϑ K (P)= E K (P)= Pmae P K log 2 ( Pmae )+ Pdue P P log 2 ( Pdue )= 5 P 9 log 2( 5 9 )+ log 2 ( Pmae K )+Pdue K P K P K log 2( Pdue K P K )= log 2( )+ 6
7 2 log 2( 2 )= 0.98, ϑ K2 (P)= E K2 (P)= Pmae K 2 P K2 log 2( )= 0.8, ϑ K (P)= E K (P)= Pmae K P K log 2( )=0, ϑ K (P)= E K (P)= Pmae K P K 7 log 2( 7 )= 0.985, ϑ K5 (P)= E K5 (P)= Pmae K 5 P K5 6 log 2( 6 )=, ϑ K6 (P)= E K6 (P)= Pmae K 6 P K6 5 log 2( 5 )= 0.72, ϑ K7 (P)= E K7 (P)= Pmae K 7 P K7 log 2( )= 0.98, ϑ K8 (P)= E K8 (P)= Pmae K 8 P K8 log 2( )= 0.98, ϑ K9 (P)= E K9 (P)= Pmae K 9 P K9 log 2( )=0, ϑ K0 (P)= E K0 (P)= Pmae K log 2( 2 6 )= 0.98, ϑ K (P)= E K (P)= Pmae K 6 log 2( 6 )= 0.98, log 2 ( Pmae K 2 )+Pdue K 2 P K2 P K2 log 2( Pdue K 2 P K2 )= log 2( )+ log 2 ( Pmae K )+Pdue K P K P K log 2( Pdue K P K )=0 log 2( 0 )+ log 2 ( Pmae K )+Pdue K P K P K log 2( Pdue K P K )= 7 log 2( 7 )+ log 2 ( Pmae K 5 )+Pdue K 5 P K5 P K5 log 2( Pdue K 5 P K5 )= 6 log 2( 6 )+ log 2 ( Pmae K 6 )+Pdue K 6 P K6 P K6 log 2( Pdue K 6 P K6 )= 5 log 2( 5 )+ log 2 ( Pmae K 7 )+Pdue K 7 P K7 P K7 log 2( Pdue K 7 P K7 )=2 log 2( 2 )+ log 2 ( Pmae K 8 )+Pdue K 8 P K8 P K8 log 2( Pdue K 8 P K8 )=2 log 2( 2 )+ log 2 ( Pmae K 9 )+Pdue K 9 P K9 P K9 log 2( Pdue K 9 P K9 )=0 log 2( 0 )+ P K0 log 2( Pmae K 0 )+Pdue K 0 P K0 P K0 log 2( Pdue K 0 P K0 )= 6 log 2( 6 )+ P K log 2( Pmae K )+Pdue K P K P K log 2( Pdue K P K )=2 6 log 2( 2 6 )+ ϑ K2 (P)= E K2 (P)= Pmae K 2 P K2 log 2( Pmae K 2 )+Pdue K 2 P K2 P K2 log 2( Pdue K 2 P K2 )=2 6 log 2( 2 6 )+ 6 log 2( 6 )= 0.98 K 9 =<?,sportowy>manajwiększąwartośćϑ=0wzbiorze SrazemzK,ale więcejprzykładówpokrywa;s={k 9 },k = K 9, (c)r={<?,sportowy> duże},p={,2,,6,7,9}, (d)p φ znajdź-kompleks(t,p), S={<?>} φ,k =<?>iϑ k (P)= 0.98, S = S=S S, zewzględunaużycie K 9 wykluczasięwszystkiekompleksyatomowezwartością atrybutusamochód=sportowyczyli K 9,K,K 2,botakichprzykładówzwartością 7
8 sportowyjużwzbiorzepniema. Dla zbioru uporządkowanego trzeba wartość funkcji oceny kompleksów atomowych obliczać przed każdym wyborem najlepszego kompleksu. ϑ K (P)=,ϑ K2 (P)=0,ϑ K (P)=0,ϑ K (P)= 0,72,ϑ K5 (P)= 0,8, ϑ K6 (P)= 0.98,ϑ K7 (P)= 0.98,ϑ K8 (P)= 0.98,ϑ K0 (P)= 0.98, K 2 =<w 2,?>manajwiększąwartośćϑ=0razemzK,alewięcejprzykładów pokrywa;s={k 2 },k = K 2, (e)r={<?,sportowy> duże,<w2,?> małe},p={,,9}, (f)p φ znajdź-kompleks(t,p), S={<?>} φ,k =<?>iϑ k (P)= 0.98, zewzględunaużycie K 2 wykluczasięwszystkiekompleksyatomowezwartością atrybutuwiek=w 2 czyli K 2,K,K 5,botakichprzykładówzwartościąw 2 jużw zbiorzepniema. ϑ K (P)=,ϑ K (P)=0,ϑ K6 (P)= 0.98,ϑ K7 (P)=0,ϑ K8 (P)=, ϑ K0 (P)= 0.98, K =<w,?>manajwiększąwartośćϑ=0razemzk 7 itylesamoprzykładówpokrywa,aletrzebawybraćimożnazauważyć,żewzbiorzetpokrywatylko przykładyojednejetykiecie;s={k },k = K, (g)r={<?,sportowy> duże,<w2,?> małe,<w,?> duże},p={,9}, (h)p φ znajdź-kompleks(t,p), S={<?>} φ,k =<?>iϑ k (P)=, K 8 =<?,minivan>manajwiększąwartośćϑ=0razemzk 7 itylesamoprzykładów pokrywa, ale trzeba wybrać go wybrać, aby ostatni przykład miał etykietę duże;s={k 8 },k = K 8, (i)r={<?,sportowy> duże,<w2,?> małe,<w,?> duże,<?,minivan> małe},p={}, (j)p φ znajdź-kompleks(t,p), S={<?>} φ,k =<?>iϑ k (P)=0, Kompleksk tymrazemmanajwiększąwartośćfunkcjiocenyizostajeczęścią reguły. (k) Ostatecznie R={<?,sportowy> duże, <w2,?> małe, <w,?> duże, <?, minivan > małe, <?> duże} W uzyskanym zbiorze reguł NIE można reguł zamieniać miejscami, gdyż jest to zbiór uporządkowany. Najpierw nowe przykłady klasyfikuje reguła pierwsza, jak ona zawiedzietodrugaitd.. Za pomocą algorytmu sekwencyjnego pokrywania AQ uzyskać nieuporządkowany zbiór zdaniowych reguł ze zbioru treningowego podanego w tabeli poniżej. Opisać dokładnie kolejne kroki algorytmu. Atrybut wiek zdyskretyzować korzystając z dwóch progów 0 i 65 lat. Atrybut ryzyko będzie kategorią. Ziarna pozytywne należy wybierać po kolei ze zbioru P przykładów nie pokrytych przez znalezione reguły. Ziarna negatywne po kolei zezbiorutzpozycjipodziarnempozytywnym,ajaksięskończytabelatowybierać proszę ziarna negatywne jak najbardziej podobne do ziaren pozytywnych(jak najwięcej takich samych wartości atrybutów). 8
9 x wiek samochód ryzyko 8 maluch duże 2 5 maluch małe 50 sportowy duże 66 minivan duże 5 8 sportowy duże 6 5 minivan małe 7 60 maluch małe 8 70 sportowy duże 9 25 minivan małe Rozwiązanie: Atrybut wiek otrzymuje po dyskretyzacji trzy wartości: w :wiek<0, w 2 :wiek 0 wiek<65, w :wiek 65. Kolejne kroki algorytmu AQ (a)początkowor=0,p=t={,2,,,5,6,7,8,9} (b) Następuje wywołanie znajdź-kompleks(t, P). x s =,c(x s )=duże,x n =2,c(x n )=małe,s={<?>} powstajeczęściowagwiazdas :S=S S ={<w w,?>}; gwiazdawdalszymciągupokrywaprzykładyztokategoriimałe,wybórnastępnegoziarnanegatywnegox n =6 S ={<w w,?>,<?,maluch sportowy>} S=S S ={<w w,?>,<w w,maluch sportowy>} S={k,k 2 },v k =Tk duże +(T małe Tk małe )=+( )=7,v k2 =+=7 Wartości funkcji oceny dla dwóch uzyskanych kompleksów ze zbioru S są takie same,alek 2 pokrywawyłącznieprzykładyojednejetykiecieduże,stądon wchodzi w skład nowej reguły: (c)r={<w w,maluch sportowy> duże} (d)p={2,,,6,7,9},dlap 0znajdź-kompleks(T,P) x s =2,c(x s )=małe,x n =,c(x n )=duże,s={<?>} powstajeczęściowagwiazdas :S=S S ={<?,maluch minivan>}; gwiazdawdalszymciągupokrywaprzykładyztokategoriiduże,wybórnastępnegoziarnanegatywnegox n = S ={<w w 2,?>,<?,maluch sportowy>} S=S S ={<w w 2,maluch minivan>,<?,maluch>} S={k,k 2 },v k =Tk małe +(T duże Tk duże )=+5=9,v k2 =2+(5 )=6 Kompleksk malepsząwartośćfunkcjioceny,stądpozostajewskładziegwiazdy (jejparametrm=). S={<w w 2,maluch minivan>}. gwiazdawdalszymciągupokrywaprzykładyztokategoriiduże(zezbioru T),wybórnastępnegoziarnanegatywnegox n =5 S ={<w 2 w,?>,<?,maluch minivan>} S=S S ={<w 2,maluch minivan>,<w w 2,maluch minivan>} 9
10 S={k,k 2 },v k =T małe k +(T duże T duże k )=+5=8,v k2 =+(5 2)=7 Kompleksk niedosyć,żemalepsząwartośćfunkcjioceny,tojeszczepokrywa wyłącznieprzykładyojednejetykieciemałe(zezbiorut),stądonwchodziw skład nowej reguły: (e)r={<w w,maluch sportowy> duże,<w 2,maluch minivan> małe} (f)p={,,9},dlap 0znajdź-kompleks(T,P) x s =,c(x s )=duże,s={<?>},x n =6 S=S S ={<?,maluch sportowy>} gwiazdawdalszymciągupokrywaprzykładyztokategoriimałezezbiorut, wybórnastępnegoziarnanegatywnegox n =7 S ={<?,sportowy minivan>} S=S S ={<?,sportowy>}komplekszspokrywawyłącznieprzykładyo jednejetykiecieduże(zezbiorut),stądonwchodziwskładnowejreguły: (g)r={<w w,maluch sportowy> duże,<w 2,maluch minivan> małe,<?, sportowy > duże} (h)p={,9},dlap 0znajdź-kompleks(T,P) x s =,c(x s )=duże,s={<?>},x n =9 S=S S ={<w2 w,?>} gwiazdawdalszymciągupokrywaprzykładyztokategoriimałezezbiorut, wybórnastępnegoziarnanegatywnegox n =6 S ={<w w,?>} S=S S ={<w,?>} Kompleks z S pokrywa wyłącznie przykłady o jednej etykiecie duże(ze zbioru T),stądonwchodziwskładnowejreguły: (i)r={<w w,maluch sportowy> duże,<w 2,maluch minivan> małe,<?,sportowy> duże,<w,?> duże} (j)p={9},dlap 0znajdź-kompleks(T,P) x s =9,c(x s )=duże,s={<?>},x n = S=S S ={<w w2,?>} gwiazdawdalszymciągupokrywaprzykładyztokategoriidużezezbiorut, wybórnastępnegoziarnanegatywnegox n = S ={<?,minivan sportowy>} S=S S ={<w w2,minivan sportowy>} gwiazdawdalszymciągupokrywaprzykładyztokategoriidużezezbiorut, wybórnastępnegoziarnanegatywnegox n =5 S ={<?,minivan maluch>} S=S S ={<w w2,minivan>} Kompleks z S pokrywa wyłącznie przykłady o jednej etykiecie małe(ze zbioru T),stądonwchodziwskładnowejreguły: (k) Ostatecznie R={<w w,maluch sportowy> duże, <w 2,maluch minivan> małe, <?, sportowy > duże, <w,?> duże, <w w2,minivan> małe} W uzyskanym zbiorze reguł można reguły zamieniać miejscami, gdyż jest to zbiór nieuporządkowany. 0
11 5. Za pomocą algorytmu sekwencyjnego pokrywania AQ uzyskać uporządkowany zbiór zdaniowych reguł ze zbioru treningowego podanego w tabeli poniżej. Opisać dokładnie kolejne kroki algorytmu. Atrybut wiek zdyskretyzować korzystając z dwóch progów 0 i 65 lat. Atrybut ryzyko będzie kategorią. Ziarna pozytywne należy wybierać po kolei ze zbioru P przykładów nie pokrytych przez znalezione reguły. Ziarna negatywne po kolei zezbiorupzpozycjipodziarnempozytywnym,ajaksięskończyzbiórptowybierać proszę ziarna negatywne ze zbioru T jak najbardziej podobne do ziaren pozytywnych (jak najwięcej takich samych wartości atrybutów). x wiek samochód ryzyko 8 maluch duże 2 5 maluch małe 50 sportowy duże 66 minivan duże 5 8 sportowy duże 6 5 minivan małe 7 60 maluch małe 8 70 sportowy duże 9 25 minivan małe Rozwiązanie: Atrybut wiek otrzymuje po dyskretyzacji trzy wartości: w :wiek<0, w 2 :wiek 0 wiek<65, w :wiek 65. Kolejne kroki algorytmu AQ (a)początkowor=0,p=t={,2,,,5,6,7,8,9} (b) Następuje wywołanie znajdź-kompleks(t, P). x s =,c(x s )=duże,x n =2,c(x n )=małe,s={<?>} powstajeczęściowagwiazdas :S=S S ={<w w,?>}; gwiazdawdalszymciągupokrywaprzykładyztokategoriimałe,wybórnastępnegoziarnanegatywnegox n =6 S ={<w w,?>,<?,maluch sportowy>} S=S S ={<w w,?>,<w w,maluch sportowy>} S={k,k 2 },v k =Tk duże +(T małe Tk małe )=+( )=7,v k2 =+=7 Wartości funkcji oceny dla dwóch uzyskanych kompleksów ze zbioru S są takie same,alek 2 pokrywawyłącznieprzykładyojednejetykiecieduże,stądon wchodzi w skład nowej reguły: (c)r={<w w,maluch sportowy> duże} (d)p={2,,,6,7,9},dlap 0znajdź-kompleks(P,P) x s =2,c(x s )=małe,x n =,c(x n )=duże,s={<?>} powstajeczęściowagwiazdas :S=S S ={<?,maluch minivan>}; gwiazdawdalszymciągupokrywaprzykładyztokategoriiduże,wybórnastępnegoziarnanegatywnegox n = S ={<w w 2,?>,<?,maluch sportowy>} S=S S ={<w w 2,maluch minivan>,<?,maluch>}
12 S={k,k 2 },v k =P małe k +(P duże P duże k )=+2=6,v k2 =2+2= Kompleksk niedosyć,żemalepsząwartośćfunkcjioceny,tojeszczepokrywa wyłącznieprzykładyojednejetykieciemałe(zezbiorup),stądonwchodziw skład nowej reguły: (e)r={<w w,maluch sportowy> duże,<w w 2,maluch minivan> małe} (f)p={,},dlap 0znajdź-kompleks(P,P) x s =,c(x s )=duże,s={<?>}gwiazdaspokrywaprzykładyojednej etykieciedużyikompleks<?>wchodziwskładnowejreguły: R={<w w,maluch sportowy> duże,<w w 2,maluch minivan> małe,<?> duże} ewentualnie,gdyx n =9,to S=S S ={<w 2 w,?>,<?,maluch sportowy>} Kompleksk pokrywawszystkieprzykładyzezbiorupiwchodziwskładnowej reguły: (g) Ostatecznie R={<w w,maluch sportowy> duże, <w w 2,maluch minivan> małe, <w 2 w,?> duże} W uzyskanym zbiorze reguł NIE można reguł zamieniać miejscami, gdyż jest to zbiór uporządkowany. Najpierw nowe przykłady klasyfikuje reguła pierwsza, jak ona zawiedzie to druga itd. 2
SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska
SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska DRZEWO REGRESYJNE Sposób konstrukcji i przycinania
Bardziej szczegółowoOdkrywanie wiedzy w danych
Inżynieria Wiedzy i Systemy Ekspertowe Odkrywanie wiedzy w danych dr inż. Michał Bereta Politechnika Krakowska http://torus.uck.pk.edu.pl/~beretam/ beretam@torus.uck.pk.edu.pl 1 Data Mining W pewnym teleturnieju
Bardziej szczegółowoReguły decyzyjne, algorytm AQ i CN2. Reguły asocjacyjne, algorytm Apriori.
Analiza danych Reguły decyzyjne, algorytm AQ i CN2. Reguły asocjacyjne, algorytm Apriori. Jakub Wróblewski jakubw@pjwstk.edu.pl http://zajecia.jakubw.pl/ REGUŁY DECYZYJNE Metoda reprezentacji wiedzy (modelowania
Bardziej szczegółowoData Mining Wykład 5. Indukcja drzew decyzyjnych - Indeks Gini & Zysk informacyjny. Indeks Gini. Indeks Gini - Przykład
Data Mining Wykład 5 Indukcja drzew decyzyjnych - Indeks Gini & Zysk informacyjny Indeks Gini Popularnym kryterium podziału, stosowanym w wielu produktach komercyjnych, jest indeks Gini Algorytm SPRINT
Bardziej szczegółowoSYSTEMY UCZĄCE SIĘ WYKŁAD 3. DRZEWA DECYZYJNE. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.
SYSTEMY UCZĄCE SIĘ WYKŁAD 3. DRZEWA DECYZYJNE Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska BUDOWA DRZEW DECYZYJNYCH Drzewa decyzyjne są metodą indukcyjnego
Bardziej szczegółowoWYKŁAD 11 Uczenie maszynowe drzewa decyzyjne
WYKŁAD 11 Uczenie maszynowe drzewa decyzyjne Reprezentacja wiedzy w postaci drzew decyzyjnych entropia, przyrost informacji algorytmy ID3, C4.5 problem przeuczenia wyznaczanie reguł rzykładowe drzewo decyzyjne
Bardziej szczegółowoUczenie się maszyn. Dariusz Banasiak. Katedra Informatyki Technicznej Wydział Elektroniki
Dariusz Banasiak Katedra Informatyki Technicznej Wydział Elektroniki Machine Learning (uczenie maszynowe, uczenie się maszyn, systemy uczące się) interdyscyplinarna nauka, której celem jest stworzenie
Bardziej szczegółowoKlasyfikacja. Indeks Gini Zysk informacyjny. Eksploracja danych. Klasyfikacja wykład 2
Klasyfikacja Indeks Gini Zysk informacyjny Klasyfikacja wykład 2 Kontynuujemy prezentacje metod klasyfikacji. Na wykładzie zostaną przedstawione dwa podstawowe algorytmy klasyfikacji oparte o indukcję
Bardziej szczegółowoKlasyfikacja obiektów Drzewa decyzyjne (drzewa klasyfikacyjne)
Klasyfikacja obiektów Drzewa decyzyjne (drzewa klasyfikacyjne) Tadeusz Pankowski www.put.poznan.pl/~tadeusz.pankowski Klasyfikacja i predykcja. Odkrywaniem reguł klasyfikacji nazywamy proces znajdowania
Bardziej szczegółowoIndukowane Reguły Decyzyjne I. Wykład 8
Indukowane Reguły Decyzyjne I Wykład 8 IRD Wykład 8 Plan Powtórka Krzywa ROC = Receiver Operating Characteristic Wybór modelu Statystyka AUC ROC = pole pod krzywą ROC Wybór punktu odcięcia Reguły decyzyjne
Bardziej szczegółowoń ż ń ń ź ć ż ń ż ń ć ć ń ć ń ć ć Ź ń ć Ź ć ń ń ć ż ń ż ćź Ę ż ń ń ć ć ć ż ż ń ń Ę ć ć ń ż Ś Ś Ó Ź ń Ó ź Ś Ź Ę ż ń ż ź Ś ż ż ń ć ń ż ż ń Ż Ń Ź ż ż ć ć ż ć ń ż ż ń ń ń ć ń ż ć ź ć ń Ś Ę Ę ż Ę ń Ź ń Ó ż
Bardziej szczegółowoMetody klasyfikacji danych - część 1 p.1/24
Metody klasyfikacji danych - część 1 Inteligentne Usługi Informacyjne Jerzy Dembski Metody klasyfikacji danych - część 1 p.1/24 Plan wykładu - Zadanie klasyfikacji danych - Przeglad problemów klasyfikacji
Bardziej szczegółowoMetody indukcji reguł
Metody indukcji reguł Indukcja reguł Grupa metod charakteryzująca się wydobywaniem reguł ostrych na podstawie analizy przypadków. Dane doświadczalne składają się z dwóch części: 1) wejściowych X, gdzie
Bardziej szczegółowoSortowanie. Bartman Jacek Algorytmy i struktury
Sortowanie Bartman Jacek jbartman@univ.rzeszow.pl Algorytmy i struktury danych Sortowanie przez proste wstawianie przykład 41 56 17 39 88 24 03 72 41 56 17 39 88 24 03 72 17 41 56 39 88 24 03 72 17 39
Bardziej szczegółowoPrzykład eksploracji danych o naturze statystycznej Próba 1 wartości zmiennej losowej odległość
Dwie metody Klasyczna metoda histogramu jako narzędzie do postawienia hipotezy, jaki rozkład prawdopodobieństwa pasuje do danych Indukcja drzewa decyzyjnego jako metoda wykrycia klasyfikatora ukrytego
Bardziej szczegółowoIndukowane Reguły Decyzyjne I. Wykład 3
Indukowane Reguły Decyzyjne I Wykład 3 IRD Wykład 3 Plan Powtórka Grafy Drzewa klasyfikacyjne Testy wstęp Klasyfikacja obiektów z wykorzystaniem drzewa Reguły decyzyjne generowane przez drzewo 2 Powtórzenie
Bardziej szczegółowoEksploracja danych. KLASYFIKACJA I REGRESJA cz. 2. Wojciech Waloszek. Teresa Zawadzka.
Eksploracja danych KLASYFIKACJA I REGRESJA cz. 2 Wojciech Waloszek wowal@eti.pg.gda.pl Teresa Zawadzka tegra@eti.pg.gda.pl Katedra Inżynierii Oprogramowania Wydział Elektroniki, Telekomunikacji i Informatyki
Bardziej szczegółowoWprowadzenie do klasyfikacji
Wprowadzenie do klasyfikacji ZeroR Odpowiada zawsze tak samo Decyzja to klasa większościowa ze zbioru uczącego A B X 1 5 T 1 7 T 1 5 T 1 5 F 2 7 F Tutaj jest więcej obiektów klasy T, więc klasyfikator
Bardziej szczegółowoB jest globalnym pokryciem zbioru {d} wtedy i tylko wtedy, gdy {d} zależy od B i nie istnieje B T takie, że {d} zależy od B ;
Algorytm LEM1 Oznaczenia i definicje: U - uniwersum, tj. zbiór obiektów; A - zbiór atrybutów warunkowych; d - atrybut decyzyjny; IND(B) = {(x, y) U U : a B a(x) = a(y)} - relacja nierozróżnialności, tj.
Bardziej szczegółowoAutomatyczne wyodrębnianie reguł
Automatyczne wyodrębnianie reguł Jedną z form reprezentacji wiedzy jest jej zapis w postaci zestawu reguł. Ta forma ma szereg korzyści: daje się łatwo interpretować, można zrozumieć sposób działania zbudowanego
Bardziej szczegółowoAlgorytmy metaheurystyczne Wykład 11. Piotr Syga
Algorytmy metaheurystyczne Wykład 11 Piotr Syga 22.05.2017 Drzewa decyzyjne Idea Cel Na podstawie przesłanek (typowo zbiory rozmyte) oraz zbioru wartości w danych testowych, w oparciu o wybrane miary,
Bardziej szczegółowoZłożoność i zagadnienia implementacyjne. Wybierz najlepszy atrybut i ustaw jako test w korzeniu. Stwórz gałąź dla każdej wartości atrybutu.
Konwersatorium Matematyczne Metody Ekonomii Narzędzia matematyczne w eksploracji danych Indukcja drzew decyzyjnych Wykład 3 - część 2 Marcin Szczuka http://www.mimuw.edu.pl/ szczuka/mme/ Plan wykładu Generowanie
Bardziej szczegółowoED Laboratorium 3. Drzewa decyzyjne
ED Laboratorium Drzewa decyzyjne 1 Drzewa decyzyjne Algorytmy indukcji drzew decyzyjnych to jeden z klasycznych algorytmów uczenia maszynowego służący do rozwiązywania problemu klasyfikacji. Drzewa decyzyjne
Bardziej szczegółowoAlgorytmy i struktury danych
Algorytmy i struktury danych Zaawansowane algorytmy sortowania Witold Marańda maranda@dmcs.p.lodz.pl 1 Sortowanie za pomocą malejących przyrostów metoda Shella Metoda jest rozwinięciem metody sortowania
Bardziej szczegółowoDrzewa klasyfikacyjne algorytm podstawowy
DRZEWA DECYZYJNE Drzewa klasyfikacyjne algorytm podstawowy buduj_drzewo(s przykłady treningowe, A zbiór atrybutów) { utwórz węzeł t (korzeń przy pierwszym wywołaniu); if (wszystkie przykłady w S należą
Bardziej szczegółowoAlgorytmy klasyfikacji
Algorytmy klasyfikacji Konrad Miziński Instytut Informatyki Politechnika Warszawska 6 maja 2015 1 Wnioskowanie 2 Klasyfikacja Zastosowania 3 Drzewa decyzyjne Budowa Ocena jakości Przycinanie 4 Lasy losowe
Bardziej szczegółowoTemat: Algorytm kompresji plików metodą Huffmana
Temat: Algorytm kompresji plików metodą Huffmana. Wymagania dotyczące kompresji danych Przez M oznaczmy zbiór wszystkich możliwych symboli występujących w pliku (alfabet pliku). Przykład M = 2, gdy plik
Bardziej szczegółowoUwaga: Funkcja zamień(a[j],a[j+s]) zamienia miejscami wartości A[j] oraz A[j+s].
Zadanie 1. Wiązka zadań Od szczegółu do ogółu Rozważmy następujący algorytm: Dane: Algorytm 1: k liczba naturalna, A[1...2 k ] tablica liczb całkowitych. n 1 dla i=1,2,,k wykonuj n 2n s 1 dopóki s
Bardziej szczegółowoPorównanie systemów automatycznej generacji reguł działających w oparciu o algorytm sekwencyjnego pokrywania oraz drzewa decyzji
Porównanie systemów automatycznej generacji reguł działających w oparciu o algorytm sekwencyjnego pokrywania oraz drzewa decyzji Wstęp Systemy automatycznego wyodrębniania reguł pełnią bardzo ważną rolę
Bardziej szczegółowoAnaliza danych DRZEWA DECYZYJNE. Drzewa decyzyjne. Entropia. http://zajecia.jakubw.pl/ test 1 dopełnienie testu 1
Analiza danych Drzewa decyzyjne. Enropia. Jakub Wróblewski jakubw@pjwsk.edu.pl hp://zajecia.jakubw.pl/ DRZEWA DECYZYJNE Meoda reprezenacji wiedzy (modelowania ablic decyzyjnych). Pozwala na przejrzysy
Bardziej szczegółowoIndukcja drzew decyzyjnych
Konwersatorium Matematyczne Metody Ekonomii Narzędzia matematyczne w eksploracji danych Indukcja drzew decyzyjnych Wykład 3 - część 2 Marcin Szczuka http://www.mimuw.edu.pl/ szczuka/mme/ Divide et impera
Bardziej szczegółowoznalezienia elementu w zbiorze, gdy w nim jest; dołączenia nowego elementu w odpowiednie miejsce, aby zbiór pozostał nadal uporządkowany.
Przedstawiamy algorytmy porządkowania dowolnej liczby elementów, którymi mogą być liczby, jak również elementy o bardziej złożonej postaci (takie jak słowa i daty). Porządkowanie, nazywane również często
Bardziej szczegółowoWprowadzenie do programu RapidMiner Studio 7.6, część 4 Michał Bereta
Wprowadzenie do programu RapidMiner Studio 7.6, część 4 Michał Bereta www.michalbereta.pl W tej części: Zachowanie wytrenowanego modelu w celu późniejszego użytku Filtrowanie danych (brakujące etykiety
Bardziej szczegółowoKlasyfikacja. Sformułowanie problemu Metody klasyfikacji Kryteria oceny metod klasyfikacji. Eksploracja danych. Klasyfikacja wykład 1
Klasyfikacja Sformułowanie problemu Metody klasyfikacji Kryteria oceny metod klasyfikacji Klasyfikacja wykład 1 Niniejszy wykład poświęcimy kolejnej metodzie eksploracji danych klasyfikacji. Na początek
Bardziej szczegółowomgr inż. Magdalena Deckert Poznań, r. Metody przyrostowego uczenia się ze strumieni danych.
mgr inż. Magdalena Deckert Poznań, 30.11.2010r. Metody przyrostowego uczenia się ze strumieni danych. Plan prezentacji Wstęp Concept drift i typy zmian Algorytmy przyrostowego uczenia się ze strumieni
Bardziej szczegółowoZasada indukcji matematycznej
Zasada indukcji matematycznej Twierdzenie 1 (Zasada indukcji matematycznej). Niech ϕ(n) będzie formą zdaniową zmiennej n N 0. Załóżmy, że istnieje n 0 N 0 takie, że 1. ϕ(n 0 ) jest zdaniem prawdziwym,.
Bardziej szczegółowoStatystyka opisowa. Wykład VI. Analiza danych jakośiowych
Statystyka opisowa. Wykład VI. e-mail:e.kozlovski@pollub.pl Spis treści Rangowanie 1 Rangowanie 3 Rangowanie Badaniu statystycznemu czasami podlegają cechy niemierzalne jakościowe), np. kolor włosów, stopień
Bardziej szczegółowoPodstawy Informatyki. Metody dostępu do danych
Podstawy Informatyki c.d. alina.momot@polsl.pl http://zti.polsl.pl/amomot/pi Plan wykładu 1 Bazy danych Struktury danych Średni czas odszukania rekordu Drzewa binarne w pamięci dyskowej 2 Sformułowanie
Bardziej szczegółowoWykład 2. Drzewa zbalansowane AVL i 2-3-4
Wykład Drzewa zbalansowane AVL i -3-4 Drzewa AVL Wprowadzenie Drzewa AVL Definicja drzewa AVL Operacje wstawiania i usuwania Złożoność obliczeniowa Drzewa -3-4 Definicja drzewa -3-4 Operacje wstawiania
Bardziej szczegółowoKonkurs z przedmiotu eksploracja i analiza danych: problem regresji i klasyfikacji
Konkurs z przedmiotu eksploracja i analiza danych: problem regresji i klasyfikacji Michał Witczak Data Mining 20 maja 2012 r. 1. Wstęp Dostarczone zostały nam 4 pliki, z których dwa stanowiły zbiory uczące
Bardziej szczegółowoSAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006
SAS wybrane elementy DATA MINING Część III Seweryn Kowalski 2006 Algorytmy eksploracji danych Algorytm eksploracji danych jest dobrze zdefiniowaną procedurą, która na wejściu otrzymuje dane, a na wyjściu
Bardziej szczegółowoKlasyfikacja. Wprowadzenie. Klasyfikacja (1)
Klasyfikacja Wprowadzenie Celem procesu klasyfikacji jest znalezienie ogólnego modelu podziału zbioru predefiniowanych klas obiektów na podstawie pewnego zbioru danych historycznych, a następnie, zastosowanie
Bardziej szczegółowoTEORETYCZNE PODSTAWY INFORMATYKI
1 TEORETYCZNE PODSTAWY INFORMATYKI WFAiS UJ, Informatyka Stosowana I rok studiów, I stopień Wykład 14c 2 Definicje indukcyjne Twierdzenia dowodzone przez indukcje Definicje indukcyjne Definicja drzewa
Bardziej szczegółowoEksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18
Eksploracja Danych wykład 4 Sebastian Zając WMP.SNŚ UKSW 10 maja 2017 Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja 2017 1 / 18 Klasyfikacja danych Klasyfikacja Najczęściej stosowana (najstarsza)
Bardziej szczegółowoWyk lad 7: Drzewa decyzyjne dla dużych zbiorów danych
Wyk lad 7: Drzewa decyzyjne dla dużych zbiorów danych Funkcja rekurencyjna buduj drzewo(u, dec, T): 1: if (kryterium stopu(u, dec) = true) then 2: T.etykieta = kategoria(u, dec); 3: return; 4: end if 5:
Bardziej szczegółowoAlgorytmy i Struktury Danych
Algorytmy i Struktury Danych Kopce Bożena Woźna-Szcześniak bwozna@gmail.com Jan Długosz University, Poland Wykład 11 Bożena Woźna-Szcześniak (AJD) Algorytmy i Struktury Danych Wykład 11 1 / 69 Plan wykładu
Bardziej szczegółowoINDUKCJA DRZEW DECYZYJNYCH
INDUKCJA DRZEW DECYZYJNYCH 1. Pojęcia podstawowe. 2. Idea algorytmów TDIT. 3. Kryteria oceny atrybutów entropia. 4. "Klasyczna" postać algorytmu ID3. 5. Przykład ilustracyjny. 6. Transformacja drzewa do
Bardziej szczegółowoSortowanie przez wstawianie Insertion Sort
Sortowanie przez wstawianie Insertion Sort Algorytm sortowania przez wstawianie można porównać do sposobu układania kart pobieranych z talii. Najpierw bierzemy pierwszą kartę. Następnie pobieramy kolejne,
Bardziej szczegółowoĄ ń Ś ź ń ć ż Ę Ń Ą ć ń ń ż ń ź ź ź Ż ń ź ń Ą ń ż Ł ż Ę Ż ć ż ń Ę ć ż ż ń Ę ż ń ń Ą ż ń Ąć Ę ń Ę Ł Ą Ż ż Ę Ę ń Ż ż Ż Ę Ę Ę Ę Ę ć ż ż ż ć ćń ż ź Ę ń ż ć Ę ż ż Ę ź Ę ń ż Ę Ę ń Ę Ę ń ć Ż ć ż Ą Ę Ę ź ń ż ń
Bardziej szczegółowoŃ ź Ń ź Ń ź Ń ź ź Ń Ń Ń Ń ź Ą ź Ń ź Ó Ą ć Ń ć Ń ć ć ć ć ć ź ź ć Ń Ń ć ć Ę Ą ź Ę Ń ć ź Ń ź Ł Ń ć Ń Ą ć Ń ć ć ź Ń ćń Ś ź ź ź ć Ń ź ź Ń Ń Ę Ń ź Ń ź Ń Ą ć ź ć ć Ę ć ź ć Ą ć ź ć Ń ć ć ź ć Ń Ń Ń Ę ć Ą Ą ź Ń
Bardziej szczegółowoDrzewa decyzyjne. 1. Wprowadzenie.
Drzewa decyzyjne. 1. Wprowadzenie. Drzewa decyzyjne są graficzną metodą wspomagania procesu decyzyjnego. Jest to jedna z najczęściej wykorzystywanych technik analizy danych. Drzewo składają się z korzenia
Bardziej szczegółowoSYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.
SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska INFORMACJE WSTĘPNE Hipotezy do uczenia się lub tworzenia
Bardziej szczegółowoProblem 1 prec f max. Algorytm Lawlera dla problemu 1 prec f max. 1 procesor. n zadań T 1,..., T n (ich zbiór oznaczamy przez T )
Joanna Berlińska Algorytmika w projektowaniu systemów - ćwiczenia 1 1 Problem 1 prec f max 1 procesor (ich zbiór oznaczamy przez T ) czas wykonania zadania T j wynosi p j z zadaniem T j związana jest niemalejąca
Bardziej szczegółowoAlgorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych. Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS
Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS Dyskretyzacja - definicja Dyskretyzacja - zamiana atrybutów
Bardziej szczegółowoMetody eksploracji danych. Reguły asocjacyjne
Metody eksploracji danych Reguły asocjacyjne Analiza podobieństw i koszyka sklepowego Analiza podobieństw jest badaniem atrybutów lub cech, które są powiązane ze sobą. Metody analizy podobieństw, znane
Bardziej szczegółowoWykład 3. Złożoność i realizowalność algorytmów Elementarne struktury danych: stosy, kolejki, listy
Wykład 3 Złożoność i realizowalność algorytmów Elementarne struktury danych: stosy, kolejki, listy Dynamiczne struktury danych Lista jest to liniowo uporządkowany zbiór elementów, z których dowolny element
Bardziej szczegółowoDrzewa decyzyjne. Nguyen Hung Son. Nguyen Hung Son () DT 1 / 34
Drzewa decyzyjne Nguyen Hung Son Nguyen Hung Son () DT 1 / 34 Outline 1 Wprowadzenie Definicje Funkcje testu Optymalne drzewo 2 Konstrukcja drzew decyzyjnych Ogólny schemat Kryterium wyboru testu Przycinanie
Bardziej szczegółowoA Zadanie
where a, b, and c are binary (boolean) attributes. A Zadanie 1 2 3 4 5 6 7 8 9 10 Punkty a (maks) (2) (2) (2) (2) (4) F(6) (8) T (8) (12) (12) (40) Nazwisko i Imiȩ: c Uwaga: ta część zostanie wypełniona
Bardziej szczegółowoALGORYTMY I STRUKTURY DANYCH
ALGORYTMY I STRUKTURY DANYCH Temat : Drzewa zrównoważone, sortowanie drzewiaste Wykładowca: dr inż. Zbigniew TARAPATA e-mail: Zbigniew.Tarapata@isi.wat.edu.pl http://www.tarapata.strefa.pl/p_algorytmy_i_struktury_danych/
Bardziej szczegółowoRozwiązania zadań z kolokwium w dniu r. Zarządzanie Inżynierskie, WDAM, grupy I i II
Rozwiązania zadań z kolokwium w dniu 10.1.010r. Zarządzanie Inżynierskie, WDAM, grupy I i II Zadanie 1. Wyznacz dziedzinę naturalną funkcji f (x) = x 4x + 3 x + x + log arc sin 1 x. Rozwiązanie. Wymagane
Bardziej szczegółowoAlgorytmy decyzyjne będące alternatywą dla sieci neuronowych
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny
Bardziej szczegółowoSortowanie Shella Shell Sort
Sortowanie Shella Shell Sort W latach 50-tych ubiegłego wieku informatyk Donald Shell zauważył, iż algorytm sortowania przez wstawianie pracuje bardzo efektywnie w przypadku gdy zbiór jest w dużym stopniu
Bardziej szczegółowoProgramowanie w VB Proste algorytmy sortowania
Programowanie w VB Proste algorytmy sortowania Sortowanie bąbelkowe Algorytm sortowania bąbelkowego polega na porównywaniu par elementów leżących obok siebie i, jeśli jest to potrzebne, zmienianiu ich
Bardziej szczegółowoTEORIA GRAFÓW I SIECI
TEORIA GRAFÓW I SIECI Temat nr 5: Sieci, drogi ekstremalne w sieciach, analiza złożonych przedsięwzięć (CPM i PERT) dr hab. inż. Zbigniew TARAPATA, prof. WAT e-mail: zbigniew.tarapata@wat.edu.pl http://tarapata.edu.pl
Bardziej szczegółowoALGORYTM RANDOM FOREST
SKRYPT PRZYGOTOWANY NA ZAJĘCIA INDUKOWANYCH REGUŁ DECYZYJNYCH PROWADZONYCH PRZEZ PANA PAWŁA WOJTKIEWICZA ALGORYTM RANDOM FOREST Katarzyna Graboś 56397 Aleksandra Mańko 56699 2015-01-26, Warszawa ALGORYTM
Bardziej szczegółowoSID Wykład 10 Systemy uczace się
SID Wykład 10 Systemy uczace się Wydział Matematyki, Informatyki i Mechaniki UW slezak@mimuw.edu.pl Uczenie indukcyjne Obiekty: Decyzja: dane reprezentujace rzeczywisty stan lub obiekt, tworza przestrzeń
Bardziej szczegółowoALGORYTMY. 1. Podstawowe definicje Schemat blokowy
ALGORYTMY 1. Podstawowe definicje Algorytm (definicja nieformalna) to sposób postępowania (przepis) umożliwiający rozwiązanie określonego zadania (klasy zadań), podany w postaci skończonego zestawu czynności
Bardziej szczegółowoZmienne losowe i ich rozkłady
Zmienne losowe i ich rozkłady 29 kwietnia 2019 Definicja: Zmienną losową nazywamy mierzalną funkcję X : (Ω, F, P) (R n, B(R n )). Definicja: Niech A będzie zbiorem borelowskim. Rozkładem zmiennej losowej
Bardziej szczegółowoRILL - przyrostowy klasyfikator regułowy uczący się ze zmiennych środowisk
Wprowadzenie RILL - przyrostowy klasyfikator regułowy uczący się ze zmiennych środowisk Magdalena Deckert Politechnika Poznańska, Instytut Informatyki Seminarium ISWD, 21.05.2013 M. Deckert Przyrostowy
Bardziej szczegółowoPrzepustowość kanału, odczytywanie wiadomości z kanału, poprawa wydajności kanału.
Przepustowość kanału, odczytywanie wiadomości z kanału, poprawa wydajności kanału Wiktor Miszuris 2 czerwca 2004 Przepustowość kanału Zacznijmy od wprowadzenia równości IA, B HB HB A HA HA B Można ją intuicyjnie
Bardziej szczegółowoSTATYSTYKA MATEMATYCZNA WYKŁAD 4. WERYFIKACJA HIPOTEZ PARAMETRYCZNYCH X - cecha populacji, θ parametr rozkładu cechy X.
STATYSTYKA MATEMATYCZNA WYKŁAD 4 WERYFIKACJA HIPOTEZ PARAMETRYCZNYCH X - cecha populacji, θ parametr rozkładu cechy X. Wysuwamy hipotezy: zerową (podstawową H ( θ = θ i alternatywną H, która ma jedną z
Bardziej szczegółowoWprowadzenie do uczenia maszynowego
Wprowadzenie do uczenia maszynowego Agnieszka Ławrynowicz 12 stycznia 2017 Co to jest uczenie maszynowe? dziedzina nauki, która zajmuje się sprawianiem aby komputery mogły uczyć się bez ich zaprogramowania
Bardziej szczegółowoData Mining z wykorzystaniem programu Rapid Miner
Data Mining z wykorzystaniem programu Rapid Miner Michał Bereta www.michalbereta.pl Program Rapid Miner jest dostępny na stronie: http://rapid-i.com/ Korzystamy z bezpłatnej wersji RapidMiner Community
Bardziej szczegółowoElementy modelowania matematycznego
Elementy modelowania matematycznego Modelowanie algorytmów klasyfikujących. Podejście probabilistyczne. Naiwny klasyfikator bayesowski. Modelowanie danych metodą najbliższych sąsiadów. Jakub Wróblewski
Bardziej szczegółowoProgramowanie sieciowe. Tadeusz Trzaskalik
Programowanie Tadeusz Trzaskalik 8.1. Wprowadzenie Słowa kluczowe Drzewo rozpinające Minimalne drzewo rozpinające Najkrótsza droga w sieci Wierzchołek początkowy Maksymalny przepływ w sieci Źródło Ujście
Bardziej szczegółowoWykład 4. Określimy teraz pewną ważną klasę pierścieni.
Wykład 4 Określimy teraz pewną ważną klasę pierścieni. Twierdzenie 1 Niech m, n Z. Jeśli n > 0 to istnieje dokładnie jedna para licz q, r, że: m = qn + r, 0 r < n. Liczbę r nazywamy resztą z dzielenia
Bardziej szczegółowoEkonometria, lista zadań nr 6 Zadanie 5 H X 1, X 2, X 3
Ekonometria, lista zadań nr 6 Zadanie 5 Poniższy diagram przedstawia porządek między rozważanymi modelami oparty na relacji zawierania pomiędzy podzbiorami zbioru zmiennych objaśniających: H, X 2, X 3
Bardziej szczegółowoW. Guzicki Zadanie 41 z Informatora Maturalnego poziom podstawowy 1
W. Guzicki Zadanie 41 z Informatora Maturalnego poziom podstawowy 1 W tym tekście zobaczymy rozwiązanie zadania 41 z Informatora o egzaminie maturalnym z matematyki od roku szkolnego 014/015 oraz rozwiązania
Bardziej szczegółowoKompresja danych Streszczenie Studia Dzienne Wykład 10,
1 Kwantyzacja wektorowa Kompresja danych Streszczenie Studia Dzienne Wykład 10, 28.04.2006 Kwantyzacja wektorowa: dane dzielone na bloki (wektory), każdy blok kwantyzowany jako jeden element danych. Ogólny
Bardziej szczegółowoZeroR. Odpowiada zawsze tak samo Decyzja to klasa większościowa ze zbioru uczącego A B X 1 5 T 1 7 T 1 5 T 1 5 F 2 7 F
ZeroR Odpowiada zawsze tak samo Decyzja to klasa większościowa ze zbioru uczącego A B X 5 T 7 T 5 T 5 F 2 7 F Tutaj jest więcej obiektów klasy T, więc klasyfikator ZeroR będzie zawsze odpowiadał T niezależnie
Bardziej szczegółowoSZYBKI ALGORYTM Z MACIERZĄ SHURA DLA MACIERZY TRÓJDIAGONALNYCH
SZYBKI ALGORYTM Z MACIERZĄ SHURA DLA MACIERZY TRÓJDIAGONALNYCH Rozwiązujemy układ z macierzą trójdiagonalną. Założymy dla prostoty opisu, że macierz ma stałe współczynniki, to znaczy, że na głównej diagonali
Bardziej szczegółowoSprawozdanie z zadania Modele predykcyjne (2)
Maciej Karpus, 131529 Tomasz Skarżyński, 131618 19.04.2013r. Sprawozdanie z zadania Modele predykcyjne (2) 1. Wprowadzenie 1.1. Informacje wstępne Dane dotyczą wyników badań mammograficznych wykonanych
Bardziej szczegółowoLista 4. Kamil Matuszewski 22 marca 2016
Lista 4 Kamil Matuszewski 22 marca 2016 1 2 3 4 5 6 7 8 9 10 Zadanie 2 Ułóż algorytm który dla danego n-wierzchołkowego drzewa i liczby k pokoloruje jak najwięcej wierzchołków tak, by na każdej ścieżce
Bardziej szczegółowoSortowanie - wybrane algorytmy
Sortowanie - wybrane algorytmy Aleksandra Wilkowska Wydział Matematyki - Katedra Matematyki Stosowanej Politechika Wrocławska 2 maja 2018 1 / 39 Plan prezentacji Złożoność obliczeniowa Sortowanie bąbelkowe
Bardziej szczegółowoZaawansowane algorytmy i struktury danych
Zaawansowane algorytmy i struktury danych u dr Barbary Marszał-Paszek Opracowanie pytań praktycznych z egzaminów. Strona 1 z 12 Pytania praktyczne z kolokwium zaliczeniowego z 19 czerwca 2014 (studia dzienne)
Bardziej szczegółowoDrzewa klasyfikacyjne Lasy losowe. Wprowadzenie
Wprowadzenie Konstrukcja binarnych drzew klasyfikacyjnych polega na sekwencyjnym dzieleniu podzbiorów przestrzeni próby X na dwa rozłączne i dopełniające się podzbiory, rozpoczynając od całego zbioru X.
Bardziej szczegółowoInżynieria Wiedzy i Systemy Ekspertowe. Reguły asocjacyjne
Inżynieria Wiedzy i Systemy Ekspertowe Reguły asocjacyjne Dr inż. Michał Bereta p. 144 / 10, Instytut Modelowania Komputerowego mbereta@pk.edu.pl beretam@torus.uck.pk.edu.pl www.michalbereta.pl Reguły
Bardziej szczegółowoZdzisław Dzedzej. Politechnika Gdańska. Gdańsk, 2013
Zdzisław Dzedzej Politechnika Gdańska Gdańsk, 2013 1 PODSTAWY 2 3 Definicja. Przestrzeń metryczna (X, d) jest zwarta, jeśli z każdego ciągu {x n } w X można wybrać podciąg zbieżny {x nk } w X. Ogólniej
Bardziej szczegółowo10. Translacja sterowana składnią i YACC
10. Translacja sterowana składnią i YACC 10.1 Charakterystyka problemu translacja sterowana składnią jest metodą generacji przetworników tekstu języków, których składnię opisano za pomocą gramatyki (bezkontekstowej)
Bardziej szczegółowoNiech x 1,..., x n będzie ciągiem zdarzeń. ---
Matematyczne podstawy kryptografii, Ćw2 TEMAT 7: Teoria Shannona. Kody Huffmana, entropia. BIBLIOGRAFIA: [] Cz. Bagiński, cez.wipb.pl, [2] T. H. Cormen, C. E. Leiserson, R. L Rivest, Wprowadzenie do algorytmów,
Bardziej szczegółowoW. Guzicki Próbna matura, grudzień 2014 r. poziom rozszerzony 1
W. Guzicki Próbna matura, grudzień 20 r. poziom rozszerzony Próbna matura rozszerzona (jesień 20 r.) Zadanie kilka innych rozwiązań Wojciech Guzicki Zadanie. Oblicz prawdopodobieństwo warunkowe, że w trzykrotnym
Bardziej szczegółowo. Podstawy Programowania 2. Drzewa bst - część druga. Arkadiusz Chrobot. 12 maja 2019
.. Podstawy Programowania 2 Drzewa bst - część druga Arkadiusz Chrobot Zakład Informatyki 12 maja 2019 1 / 39 Plan.1 Wstęp.2 Wyszukiwanie w BST Minimalny i maksymalny klucz Wskazany klucz.3.4 Zmiany w
Bardziej szczegółowoSztuczna Inteligencja Projekt
Sztuczna Inteligencja Projekt Temat: Algorytm F-LEM1 Liczba osób realizujących projekt: 2 1. Zaimplementować algorytm F LEM 1. 2. Zaimplementować klasyfikator Classif ier. 3. Za pomocą algorytmu F LEM1
Bardziej szczegółowoSztuczna Inteligencja Projekt
Sztuczna Inteligencja Projekt Temat: Algorytm LEM2 Liczba osób realizujących projekt: 2 1. Zaimplementować algorytm LEM 2. 2. Zaimplementować klasyfikator Classif ier. 3. Za pomocą algorytmu LEM 2 wygenerować
Bardziej szczegółowoSortowanie zewnętrzne
Algorytmy i struktury danych Instytut Sterowania i Systemów Informatycznych Wydział Elektrotechniki, Informatyki i Telekomunikacji Uniwersytet Zielonogórski Sortowanie zewnętrzne 1 Wstęp Bardzo często
Bardziej szczegółowoLista 0. Kamil Matuszewski 1 marca 2016
Lista 0 Kamil Matuszewski marca 206 2 3 4 5 6 7 8 0 0 Zadanie 4 Udowodnić poprawność mnożenia po rosyjsku Zastanówmy się co robi nasz algorytm Mamy podane liczby n i m W każdym kroku liczbę n dzielimy
Bardziej szczegółowoLaboratorium 6. Indukcja drzew decyzyjnych.
Laboratorium 6 Indukcja drzew decyzyjnych. 1. Uruchom narzędzie Oracle Data Miner i połącz się z serwerem bazy danych. 2. Z menu głównego wybierz Activity Build. Na ekranie powitalnym kliknij przycisk
Bardziej szczegółowoDiagnozowanie sieci komputerowej na podstawie opinii diagnostycznych o poszczególnych komputerach sieci
Diagnozowanie sieci komputerowej na podstawie opinii diagnostycznych o poszczególnych komputerach sieci Diagnozowanie systemu, w tym przypadku, pojmowane jest jako metoda określania stanu niezawodnościowego
Bardziej szczegółowoWykład 8. Drzewo rozpinające (minimum spanning tree)
Wykład 8 Drzewo rozpinające (minimum spanning tree) 1 Minimalne drzewo rozpinające - przegląd Definicja problemu Własności minimalnych drzew rozpinających Algorytm Kruskala Algorytm Prima Literatura Cormen,
Bardziej szczegółowo