Wybrane zadania przygotowujące do egzaminu z ISO- cz. 2. dr Piotr Wąsiewicz

Wielkość: px
Rozpocząć pokaz od strony:

Download "Wybrane zadania przygotowujące do egzaminu z ISO- cz. 2. dr Piotr Wąsiewicz"

Transkrypt

1 Wybrane zadania przygotowujące do egzaminu z ISO- cz. 2 dr Piotr Wąsiewicz. Ze zbioru treningowego podanego w tabeli poniżej wykreować metodą zstępującej konstrukcji drzewo decyzyjne(jak najmniej rozbudowane- minimalizacja entropii). Atrybut wiek zdyskretyzować korzystając z dwóch progów 0 i 65 lat. Atrybut ryzyko będzie kategorią. x wiek samochód ryzyko 8 maluch duże 2 5 maluch małe 50 sportowy duże 66 minivan duże 5 8 sportowy duże 6 5 minivan małe 7 60 maluch małe 8 70 sportowy duże 9 25 minivan małe Rozwiązanie: Atrybut wiek otrzymuje po dyskretyzacji trzy wartości: w :wiek<0,w 2 :wiek 0 wiek<65,w :wiek 65. Najpierw obliczana jest informacja zawarta w zbiorze i entropie rozkładu wartości kategorii tzw. etykiet między wybrane przez wartości atrybutów podzbiory zbioru trenującego. I(P)= Pmae log P 2 ( Pmae ) Pdue log P P 2 ( Pdue )= P 9 log 2( 9 ) 5 9 log 2( 5 9 )=0.99, E wiek,w (P)= Pmae wiek,w P wiek,w log 2( Pmae wiek,w ) Pdue wiek,w P wiek,w P wiek,w log 2( Pdue wiek,w P wiek,w )= log 2( ) 2 log 2( 2 )= 0.98, E wiek,w2 (P)= Pmae wiek,w 2 P wiek,w2 log 2( Pmae wiek,w 2 ) Pdue wiek,w 2 P wiek,w2 P wiek,w2 log 2( Pdue wiek,w 2 P wiek,w2 )= log 2( ) log 2( )= 0.8, E wiek,w (P)= Pmae wiek,w P wiek,w log 2( Pmae wiek,w ) Pdue wiek,w P wiek,w P wiek,w log 2( Pdue wiek,w P wiek,w )= 0 2 log 2( 0 2 ) 2 2 log 2( 2 2 )= 0, E samochód,maluch (P)= Pmae samochód,maluch P samochód,maluch log 2( Pmae samochód,maluch P samochód,maluch )- P due samochód,maluch samochód,maluch P samochód,maluch log 2( Pdue P samochód,maluch )= 2 log 2( 2 ) log 2( )=0.98, samochód,minivan samochód,minivan E samochód,minivan (P)= Pmae P samochód,minivan log 2( Pmae P samochód,minivan ) P due samochód,minivan samochód,minivan P samochód,minivan log 2( Pdue P samochód,minivan )= 2 log 2( 2 ) log 2( )=0.98, samochód,sportowy samochód,sportowy E samochód,sportowy (P)= Pmae P samochód,sportowy log 2( Pmae P samochód,sportowy ) Psamochód,sportowy due P samochód,sportowy log 2( Pdue samochód,sportowy P samochód,sportowy )= 0 log 2( 0 ) log 2( )=0,

2 Następnie obliczane są średnie ważone entropie: E wiek (P)= P wiek,w P 9 (0.8)+2 9 0=0,666, E wiek,w (P)+ P wiek,w 2 P E wiek,w2 (P)+ P wiek,w E wiek,w (P)= P 9 (0.98)+ E samochod (P)= P samochod,maluch E samochod,maluch (P)+ P samochod,minivan E samochod,minivan (P)+ P P P samochod,sportowy E samochod,sportowy (P)= P 9 (0.98)+ 9 (0.98)+ 9 0=0,62, I wartości infomacyjne dla poszczególnych atrybutów: IV wiek (P)= P wiek,w P log 2 ( P wiek,w ) P wiek,w 2 P P log 2 ( P wiek,w 2 ) P wiek,w P P 9 log 2( 9 ) 9 log 2( 9 ) 2 9 log 2( 2 9 )=0,528+0,59+0,82=,5, IV samochód (P)= P samochód,maluch P P samochód,minivan P log 2 ( P samochód,maluch ) P log 2 ( P samochód,minivan ) P samochód,sportowy P P 9 log 2( 9 ) 9 log 2( 9 ) 9 log 2( 9 )=0,528+0,528+0,528=,58, Na końcu współczynniki przyrostu informacji wynoszą odpowiednio: ϑ wiek (P)= I(P) E wiek(p) IV wiek (P) ϑ samochód (P)= I(P) E samochód(p) IV samochód (P) = 0,99 0,666,5 =0,22 = 0,99 0,62,58 =0,29 log 2 ( P wiek,w )= P log 2 ( P samochód,sportowy )= P sportowy samochod duze wiek maluch minivan wiek w w duze w 2 w male duze w w 2 male Jak widać atrybut samochód ma większy współczynnik i wygrywa staje się pierwszym węzłem drzewa decyzyjnego, a jego trzy łuki biegnące do następników mają za nazwy jego wartości. Dla wartości sportowy każdy przykład zawierający ją ma etykietę duże atrybutu ryzyko, stądjejłukkończysięliściemowartościduże. 2

3 Dla wartości maluch jej łuk kończy się z braku jasnego wyboru etykiety tylko na podstawie wartości atrybutu samochód węzłem atrybutu wiek- ostatnim z dostępnych testów na drodze do określenia etykiety przykładu złożonego z testowanych dwóch atrybutów wiek i samochód. Poniżej zamieszczony został opis następników nowego węzła. Przykładyzwartościąw atrybutuwiekiwartościąmaluchmajązawszeetykietęduże stądłukbiegnącyodwęzławiekonazwiew kończysięliściemduże,adlainnychwartości atrybutu wiek przy wartości maluch atrybutu samochód przykłady mają etykiety małe stąd odpowiednie liście. Wracając do trzeciego łuku o nazwie minivan biegnącego od korzenia można zauważyć, żeteżzbrakutakichsamychetykietdlaprzykładówzwartościąminivanizdowolną wartościąatrybutuwiekłuktenkończysięwęzłemonazwiewiekidalejzależnościi liście są takie same jak dla węzła kończącego łuk maluch. 2. Za pomocą algorytmu sekwencyjnego pokrywania CN2 uzyskać nieuporządkowany zbiór zdaniowych reguł ze zbioru treningowego podanego w tabeli poniżej. Opisać dokładnie kolejne kroki algorytmu. Atrybut wiek zdyskretyzować korzystając z dwóch progów 0 i 65 lat. Atrybut ryzyko będzie kategorią. Dla ułatwienia założyć, że wszystkie kompleksy są istotne statystycznie oraz że kompleks warunkujący z reguły zdaniowej musi pokrywać przykłady tylko z jedną etykietą- jedną wartością kategorii. x wiek samochód ryzyko 8 maluch duże 2 5 maluch małe 50 sportowy duże 66 minivan duże 5 8 sportowy duże 6 5 minivan małe 7 60 maluch małe 8 70 sportowy duże 9 25 minivan małe Rozwiązanie: Atrybut wiek otrzymuje po dyskretyzacji trzy wartości: w :wiek<0, w 2 :wiek 0 wiek<65, w :wiek 65. Zbiór S kompleksów atomowych(czyli tylko z jednym selektorem nieuniwersalnym) (S={K, K 2, K, K, K 5, K 6, K 7, K 8, K 9, K 0, K, K 2 })jestnastępujący: S={ K <w,?>, K 2 <w 2,?>, K <w,?>, K <w w 2,?>, K 5 <w 2 w,?>, K 6 <w w,?>, K 7 <?,maluch>, K 8 <?,minivan>, K 9 <?,sportowy>, K 0 <?,maluch minivan>, K <?,minivan sportowy>, K 2 <?,maluch sportowy>}

4 Kolejne kroki algorytmu CN2 (a)początkowor=φ,p=t={,2,,,5,6,7,8,9}, S (b) Następuje wywołanie znajdź-kompleks(t, P). S={<?>} φ,k =<?> ϑ k (P)= E k (P)= Pmae P log 2 ( Pmae )+ Pdue P P log 2 ( Pdue )= 5 P 9 log 2( 5 9 )+ 9 log 2( 9 )= 0.99, S = S=S S, Ze względu na to, że dąży się do uzyskania nieuporządkowanego zbioru reguł funkcje ocenykompleksówatomowychsąliczonetylkorazwzbiorzetipotemcałyczas wykorzystywane. ϑ K (T)= E K (T)= Tmae K log T K 2 ( Tmae K )+Tdue K T K T K log 2( Tdue K T K )= log 2( )+ 2 log 2( 2 )= 0.98, ϑ K2 (T)= E K2 (T)= Tmae K 2 T K2 log 2( )= 0.8, ϑ K (T)= E K (T)= Tmae K T K log 2( )=0, ϑ K (T)= E K (T)= Tmae K T K 7 log 2( 7 )= 0.985, ϑ K5 (T)= E K5 (T)= Tmae K 5 T K5 6 log 2( 6 )=, ϑ K6 (T)= E K6 (T)= Tmae K 6 T K6 5 log 2( 5 )= 0.72, ϑ K7 (T)= E K7 (T)= Tmae K 7 T K7 log 2( )= 0.98, ϑ K8 (T)= E K8 (T)= Tmae K 8 T K8 log 2( )= 0.98, ϑ K9 (T)= E K9 (T)= Tmae K 9 T K9 log 2( )=0, ϑ K0 (T)= E K0 (T)= Tmae K log 2( 2 6 )= 0.98, log 2 ( Tmae K 2 )+Tdue K 2 T K2 T K2 log 2( Tdue K 2 T K2 )= log 2( )+ log 2 ( Tmae K )+Tdue K T K T K log 2( Tdue K T K )=0 log 2( 0 )+ log 2 ( Tmae K )+Tdue K T K T K log 2( Tdue K T K )= 7 log 2( 7 )+ log 2 ( Tmae K 5 )+Tdue K 5 T K5 T K5 log 2( Tdue K 5 T K5 )= 6 log 2( 6 )+ log 2 ( Tmae K 6 )+Tdue K 6 T K6 T K6 log 2( Tdue K 6 T K6 )= 5 log 2( 5 )+ log 2 ( Tmae K 7 )+Tdue K 7 T K7 T K7 log 2( Tdue K 7 T K7 )=2 log 2( 2 )+ log 2 ( Tmae K 8 )+Tdue K 8 T K8 T K8 log 2( Tdue K 8 T K8 )=2 log 2( 2 )+ log 2 ( Tmae K 9 )+Tdue K 9 T K9 T K9 log 2( Tdue K 9 T K9 )=0 log 2( 0 )+ T K0 log 2( Tmae K 0 )+Tdue K 0 T K0 T K0 log 2( Tdue K 0 T K0 )= 6 log 2( 6 )+

5 ϑ K (T)= E K (T)= Tmae K 6 log 2( 6 )= 0.98, T K log 2( Tmae K )+Tdue K T K T K log 2( Tdue K T K )=2 6 log 2( 2 6 )+ ϑ K2 (T)= E K2 (T)= Tmae K 2 T K2 log 2( Tmae K 2 )+Tdue K 2 T K2 T K2 log 2( Tdue K 2 T K2 )=2 6 log 2( 2 6 )+ 6 log 2( 6 )= 0.98 K 9 =<?,sportowy>manajwiększąwartośćϑ=0wzbiorze SrazemzK,ale więcejprzykładówpokrywa;s={k 9 },k = K 9, (c)r={<?,sportowy> duże},p={,2,,6,7,9}, (d)p φ znajdź-kompleks(t,p), S={<?>} φ,k =<?>iϑ k (P)= 0.99, S = S=S S, zewzględunaużycie K 9 wykluczasięwszystkiekompleksyatomowezwartością atrybutusamochód=sportowyczyli K 9,K,K 2,botakichprzykładówzwartością sportowyjużwzbiorzepniema. W następnym kroku chcąc uzyskać najlepszy kompleks wykorzystuje się funckje oceny liczone jeden raz na początku. K =<w,?>manajwiększąwartośćϑ=0;s={k },k = K, (e)r={<?,sportowy> duże,<w,?> duże},p={,2,6,7,9}, (f)p φ znajdź-kompleks(t,p), S={<?>} φ,k =<?>iϑ k (P)= 0.99, zewzględunaużycie K wykluczasięwszystkiekompleksyatomowezwartością atrybutuwiek=w czyli K,K 5,K 6,botakichprzykładówzwartościąw jużw zbiorzepniema. K 2 =<w 2,?>mawartośćϑ= 0.8,aleprzyjęto,żedlaułatwieniatworzysię reguły pokrywające przykłady tylko z jedną etykietą czyli dla kompleksów o wartości funkcji oceny 0, dlatego pętla wykonuje się dalej. S={<w2,?>}; ZgodniezalgorytmemCN2:S :=S S;S :=S S {<φ>}; Kompleks{< w2, maluch minivan >} ma wartość funkcji oceny równą 0 i pokrywa najwięcejprzykladówzp,gdyżmimo,żeoceniasięwedługzbiorut(zbiórreguł nieuporządkowany), to trzeba tworzyć reguły pokrywające przykłady ze zbioru P i to jak najwięcej. (g)r={<?,sportowy> duże,<w,?> duże,<w2,maluch minivan małe>}, P={,9}, (h)p φ znajdź-kompleks(t,p), S={<?>} φ,k =<?>iϑ k (P)= 0.99, Pozostały tylko dwa przykłady o różnych etykietach, aby kompleksy mogły uzyskać ocenę równą 0 muszą mieć identyczne wartości atrybutów, stąd powstają dwie nowe reguły. (i) Ostatecznie R={<?,sportowy> duże, <w,?> duże, <w2,maluch minivan małe> <w,minivan małe> <w,maluch duże> } W uzyskanym zbiorze reguł można reguły zamieniać miejscami, gdyż jest to zbiór nieuporządkowany. 5

6 . Za pomocą algorytmu sekwencyjnego pokrywania CN2 uzyskać uporządkowany zbiór zdaniowych reguł ze zbioru treningowego podanego w tabeli poniżej. Opisać dokładnie kolejne kroki algorytmu. Atrybut wiek zdyskretyzować korzystając z dwóch progów 0 i 65 lat. Atrybut ryzyko będzie kategorią. Dla ułatwienia założyć, że wszystkie kompleksy są istotne statystycznie oraz że kompleks warunkujący z reguły zdaniowej musi pokrywać przykłady tylko z jedną etykietą- jedną wartością kategorii. x wiek samochód ryzyko 8 maluch duże 2 5 maluch małe 50 sportowy duże 66 minivan duże 5 8 sportowy duże 6 5 minivan małe 7 60 maluch małe 8 70 sportowy duże 9 25 minivan małe Rozwiązanie: Atrybut wiek otrzymuje po dyskretyzacji trzy wartości: w :wiek<0, w 2 :wiek 0 wiek<65, w :wiek 65. Zbiór S kompleksów atomowych(czyli tylko z jednym selektorem nieuniwersalnym) (S={K, K 2, K, K, K 5, K 6, K 7, K 8, K 9, K 0, K, K 2 })jestnastępujący: Kolejne kroki algorytmu CN2 S={ K <w,?>, K 2 <w 2,?>, K <w,?>, K <w w 2,?>, K 5 <w 2 w,?>, K 6 <w w,?>, K 7 <?,maluch>, K 8 <?,minivan>, K 9 <?,sportowy>, K 0 <?,maluch minivan>, K <?,minivan sportowy>, K 2 <?,maluch sportowy>} (a)początkowor=φ,p=t={,2,,,5,6,7,8,9}, S (b) Następuje wywołanie znajdź-kompleks(t, P). S={<?>} φ,k =<?> ϑ k (P)= E k (P)= Pmae P 9 log 2( 9 )= 0.99, S = S=S S, K ϑ K (P)= E K (P)= Pmae P K log 2 ( Pmae )+ Pdue P P log 2 ( Pdue )= 5 P 9 log 2( 5 9 )+ log 2 ( Pmae K )+Pdue K P K P K log 2( Pdue K P K )= log 2( )+ 6

7 2 log 2( 2 )= 0.98, ϑ K2 (P)= E K2 (P)= Pmae K 2 P K2 log 2( )= 0.8, ϑ K (P)= E K (P)= Pmae K P K log 2( )=0, ϑ K (P)= E K (P)= Pmae K P K 7 log 2( 7 )= 0.985, ϑ K5 (P)= E K5 (P)= Pmae K 5 P K5 6 log 2( 6 )=, ϑ K6 (P)= E K6 (P)= Pmae K 6 P K6 5 log 2( 5 )= 0.72, ϑ K7 (P)= E K7 (P)= Pmae K 7 P K7 log 2( )= 0.98, ϑ K8 (P)= E K8 (P)= Pmae K 8 P K8 log 2( )= 0.98, ϑ K9 (P)= E K9 (P)= Pmae K 9 P K9 log 2( )=0, ϑ K0 (P)= E K0 (P)= Pmae K log 2( 2 6 )= 0.98, ϑ K (P)= E K (P)= Pmae K 6 log 2( 6 )= 0.98, log 2 ( Pmae K 2 )+Pdue K 2 P K2 P K2 log 2( Pdue K 2 P K2 )= log 2( )+ log 2 ( Pmae K )+Pdue K P K P K log 2( Pdue K P K )=0 log 2( 0 )+ log 2 ( Pmae K )+Pdue K P K P K log 2( Pdue K P K )= 7 log 2( 7 )+ log 2 ( Pmae K 5 )+Pdue K 5 P K5 P K5 log 2( Pdue K 5 P K5 )= 6 log 2( 6 )+ log 2 ( Pmae K 6 )+Pdue K 6 P K6 P K6 log 2( Pdue K 6 P K6 )= 5 log 2( 5 )+ log 2 ( Pmae K 7 )+Pdue K 7 P K7 P K7 log 2( Pdue K 7 P K7 )=2 log 2( 2 )+ log 2 ( Pmae K 8 )+Pdue K 8 P K8 P K8 log 2( Pdue K 8 P K8 )=2 log 2( 2 )+ log 2 ( Pmae K 9 )+Pdue K 9 P K9 P K9 log 2( Pdue K 9 P K9 )=0 log 2( 0 )+ P K0 log 2( Pmae K 0 )+Pdue K 0 P K0 P K0 log 2( Pdue K 0 P K0 )= 6 log 2( 6 )+ P K log 2( Pmae K )+Pdue K P K P K log 2( Pdue K P K )=2 6 log 2( 2 6 )+ ϑ K2 (P)= E K2 (P)= Pmae K 2 P K2 log 2( Pmae K 2 )+Pdue K 2 P K2 P K2 log 2( Pdue K 2 P K2 )=2 6 log 2( 2 6 )+ 6 log 2( 6 )= 0.98 K 9 =<?,sportowy>manajwiększąwartośćϑ=0wzbiorze SrazemzK,ale więcejprzykładówpokrywa;s={k 9 },k = K 9, (c)r={<?,sportowy> duże},p={,2,,6,7,9}, (d)p φ znajdź-kompleks(t,p), S={<?>} φ,k =<?>iϑ k (P)= 0.98, S = S=S S, zewzględunaużycie K 9 wykluczasięwszystkiekompleksyatomowezwartością atrybutusamochód=sportowyczyli K 9,K,K 2,botakichprzykładówzwartością 7

8 sportowyjużwzbiorzepniema. Dla zbioru uporządkowanego trzeba wartość funkcji oceny kompleksów atomowych obliczać przed każdym wyborem najlepszego kompleksu. ϑ K (P)=,ϑ K2 (P)=0,ϑ K (P)=0,ϑ K (P)= 0,72,ϑ K5 (P)= 0,8, ϑ K6 (P)= 0.98,ϑ K7 (P)= 0.98,ϑ K8 (P)= 0.98,ϑ K0 (P)= 0.98, K 2 =<w 2,?>manajwiększąwartośćϑ=0razemzK,alewięcejprzykładów pokrywa;s={k 2 },k = K 2, (e)r={<?,sportowy> duże,<w2,?> małe},p={,,9}, (f)p φ znajdź-kompleks(t,p), S={<?>} φ,k =<?>iϑ k (P)= 0.98, zewzględunaużycie K 2 wykluczasięwszystkiekompleksyatomowezwartością atrybutuwiek=w 2 czyli K 2,K,K 5,botakichprzykładówzwartościąw 2 jużw zbiorzepniema. ϑ K (P)=,ϑ K (P)=0,ϑ K6 (P)= 0.98,ϑ K7 (P)=0,ϑ K8 (P)=, ϑ K0 (P)= 0.98, K =<w,?>manajwiększąwartośćϑ=0razemzk 7 itylesamoprzykładówpokrywa,aletrzebawybraćimożnazauważyć,żewzbiorzetpokrywatylko przykładyojednejetykiecie;s={k },k = K, (g)r={<?,sportowy> duże,<w2,?> małe,<w,?> duże},p={,9}, (h)p φ znajdź-kompleks(t,p), S={<?>} φ,k =<?>iϑ k (P)=, K 8 =<?,minivan>manajwiększąwartośćϑ=0razemzk 7 itylesamoprzykładów pokrywa, ale trzeba wybrać go wybrać, aby ostatni przykład miał etykietę duże;s={k 8 },k = K 8, (i)r={<?,sportowy> duże,<w2,?> małe,<w,?> duże,<?,minivan> małe},p={}, (j)p φ znajdź-kompleks(t,p), S={<?>} φ,k =<?>iϑ k (P)=0, Kompleksk tymrazemmanajwiększąwartośćfunkcjiocenyizostajeczęścią reguły. (k) Ostatecznie R={<?,sportowy> duże, <w2,?> małe, <w,?> duże, <?, minivan > małe, <?> duże} W uzyskanym zbiorze reguł NIE można reguł zamieniać miejscami, gdyż jest to zbiór uporządkowany. Najpierw nowe przykłady klasyfikuje reguła pierwsza, jak ona zawiedzietodrugaitd.. Za pomocą algorytmu sekwencyjnego pokrywania AQ uzyskać nieuporządkowany zbiór zdaniowych reguł ze zbioru treningowego podanego w tabeli poniżej. Opisać dokładnie kolejne kroki algorytmu. Atrybut wiek zdyskretyzować korzystając z dwóch progów 0 i 65 lat. Atrybut ryzyko będzie kategorią. Ziarna pozytywne należy wybierać po kolei ze zbioru P przykładów nie pokrytych przez znalezione reguły. Ziarna negatywne po kolei zezbiorutzpozycjipodziarnempozytywnym,ajaksięskończytabelatowybierać proszę ziarna negatywne jak najbardziej podobne do ziaren pozytywnych(jak najwięcej takich samych wartości atrybutów). 8

9 x wiek samochód ryzyko 8 maluch duże 2 5 maluch małe 50 sportowy duże 66 minivan duże 5 8 sportowy duże 6 5 minivan małe 7 60 maluch małe 8 70 sportowy duże 9 25 minivan małe Rozwiązanie: Atrybut wiek otrzymuje po dyskretyzacji trzy wartości: w :wiek<0, w 2 :wiek 0 wiek<65, w :wiek 65. Kolejne kroki algorytmu AQ (a)początkowor=0,p=t={,2,,,5,6,7,8,9} (b) Następuje wywołanie znajdź-kompleks(t, P). x s =,c(x s )=duże,x n =2,c(x n )=małe,s={<?>} powstajeczęściowagwiazdas :S=S S ={<w w,?>}; gwiazdawdalszymciągupokrywaprzykładyztokategoriimałe,wybórnastępnegoziarnanegatywnegox n =6 S ={<w w,?>,<?,maluch sportowy>} S=S S ={<w w,?>,<w w,maluch sportowy>} S={k,k 2 },v k =Tk duże +(T małe Tk małe )=+( )=7,v k2 =+=7 Wartości funkcji oceny dla dwóch uzyskanych kompleksów ze zbioru S są takie same,alek 2 pokrywawyłącznieprzykładyojednejetykiecieduże,stądon wchodzi w skład nowej reguły: (c)r={<w w,maluch sportowy> duże} (d)p={2,,,6,7,9},dlap 0znajdź-kompleks(T,P) x s =2,c(x s )=małe,x n =,c(x n )=duże,s={<?>} powstajeczęściowagwiazdas :S=S S ={<?,maluch minivan>}; gwiazdawdalszymciągupokrywaprzykładyztokategoriiduże,wybórnastępnegoziarnanegatywnegox n = S ={<w w 2,?>,<?,maluch sportowy>} S=S S ={<w w 2,maluch minivan>,<?,maluch>} S={k,k 2 },v k =Tk małe +(T duże Tk duże )=+5=9,v k2 =2+(5 )=6 Kompleksk malepsząwartośćfunkcjioceny,stądpozostajewskładziegwiazdy (jejparametrm=). S={<w w 2,maluch minivan>}. gwiazdawdalszymciągupokrywaprzykładyztokategoriiduże(zezbioru T),wybórnastępnegoziarnanegatywnegox n =5 S ={<w 2 w,?>,<?,maluch minivan>} S=S S ={<w 2,maluch minivan>,<w w 2,maluch minivan>} 9

10 S={k,k 2 },v k =T małe k +(T duże T duże k )=+5=8,v k2 =+(5 2)=7 Kompleksk niedosyć,żemalepsząwartośćfunkcjioceny,tojeszczepokrywa wyłącznieprzykładyojednejetykieciemałe(zezbiorut),stądonwchodziw skład nowej reguły: (e)r={<w w,maluch sportowy> duże,<w 2,maluch minivan> małe} (f)p={,,9},dlap 0znajdź-kompleks(T,P) x s =,c(x s )=duże,s={<?>},x n =6 S=S S ={<?,maluch sportowy>} gwiazdawdalszymciągupokrywaprzykładyztokategoriimałezezbiorut, wybórnastępnegoziarnanegatywnegox n =7 S ={<?,sportowy minivan>} S=S S ={<?,sportowy>}komplekszspokrywawyłącznieprzykładyo jednejetykiecieduże(zezbiorut),stądonwchodziwskładnowejreguły: (g)r={<w w,maluch sportowy> duże,<w 2,maluch minivan> małe,<?, sportowy > duże} (h)p={,9},dlap 0znajdź-kompleks(T,P) x s =,c(x s )=duże,s={<?>},x n =9 S=S S ={<w2 w,?>} gwiazdawdalszymciągupokrywaprzykładyztokategoriimałezezbiorut, wybórnastępnegoziarnanegatywnegox n =6 S ={<w w,?>} S=S S ={<w,?>} Kompleks z S pokrywa wyłącznie przykłady o jednej etykiecie duże(ze zbioru T),stądonwchodziwskładnowejreguły: (i)r={<w w,maluch sportowy> duże,<w 2,maluch minivan> małe,<?,sportowy> duże,<w,?> duże} (j)p={9},dlap 0znajdź-kompleks(T,P) x s =9,c(x s )=duże,s={<?>},x n = S=S S ={<w w2,?>} gwiazdawdalszymciągupokrywaprzykładyztokategoriidużezezbiorut, wybórnastępnegoziarnanegatywnegox n = S ={<?,minivan sportowy>} S=S S ={<w w2,minivan sportowy>} gwiazdawdalszymciągupokrywaprzykładyztokategoriidużezezbiorut, wybórnastępnegoziarnanegatywnegox n =5 S ={<?,minivan maluch>} S=S S ={<w w2,minivan>} Kompleks z S pokrywa wyłącznie przykłady o jednej etykiecie małe(ze zbioru T),stądonwchodziwskładnowejreguły: (k) Ostatecznie R={<w w,maluch sportowy> duże, <w 2,maluch minivan> małe, <?, sportowy > duże, <w,?> duże, <w w2,minivan> małe} W uzyskanym zbiorze reguł można reguły zamieniać miejscami, gdyż jest to zbiór nieuporządkowany. 0

11 5. Za pomocą algorytmu sekwencyjnego pokrywania AQ uzyskać uporządkowany zbiór zdaniowych reguł ze zbioru treningowego podanego w tabeli poniżej. Opisać dokładnie kolejne kroki algorytmu. Atrybut wiek zdyskretyzować korzystając z dwóch progów 0 i 65 lat. Atrybut ryzyko będzie kategorią. Ziarna pozytywne należy wybierać po kolei ze zbioru P przykładów nie pokrytych przez znalezione reguły. Ziarna negatywne po kolei zezbiorupzpozycjipodziarnempozytywnym,ajaksięskończyzbiórptowybierać proszę ziarna negatywne ze zbioru T jak najbardziej podobne do ziaren pozytywnych (jak najwięcej takich samych wartości atrybutów). x wiek samochód ryzyko 8 maluch duże 2 5 maluch małe 50 sportowy duże 66 minivan duże 5 8 sportowy duże 6 5 minivan małe 7 60 maluch małe 8 70 sportowy duże 9 25 minivan małe Rozwiązanie: Atrybut wiek otrzymuje po dyskretyzacji trzy wartości: w :wiek<0, w 2 :wiek 0 wiek<65, w :wiek 65. Kolejne kroki algorytmu AQ (a)początkowor=0,p=t={,2,,,5,6,7,8,9} (b) Następuje wywołanie znajdź-kompleks(t, P). x s =,c(x s )=duże,x n =2,c(x n )=małe,s={<?>} powstajeczęściowagwiazdas :S=S S ={<w w,?>}; gwiazdawdalszymciągupokrywaprzykładyztokategoriimałe,wybórnastępnegoziarnanegatywnegox n =6 S ={<w w,?>,<?,maluch sportowy>} S=S S ={<w w,?>,<w w,maluch sportowy>} S={k,k 2 },v k =Tk duże +(T małe Tk małe )=+( )=7,v k2 =+=7 Wartości funkcji oceny dla dwóch uzyskanych kompleksów ze zbioru S są takie same,alek 2 pokrywawyłącznieprzykładyojednejetykiecieduże,stądon wchodzi w skład nowej reguły: (c)r={<w w,maluch sportowy> duże} (d)p={2,,,6,7,9},dlap 0znajdź-kompleks(P,P) x s =2,c(x s )=małe,x n =,c(x n )=duże,s={<?>} powstajeczęściowagwiazdas :S=S S ={<?,maluch minivan>}; gwiazdawdalszymciągupokrywaprzykładyztokategoriiduże,wybórnastępnegoziarnanegatywnegox n = S ={<w w 2,?>,<?,maluch sportowy>} S=S S ={<w w 2,maluch minivan>,<?,maluch>}

12 S={k,k 2 },v k =P małe k +(P duże P duże k )=+2=6,v k2 =2+2= Kompleksk niedosyć,żemalepsząwartośćfunkcjioceny,tojeszczepokrywa wyłącznieprzykładyojednejetykieciemałe(zezbiorup),stądonwchodziw skład nowej reguły: (e)r={<w w,maluch sportowy> duże,<w w 2,maluch minivan> małe} (f)p={,},dlap 0znajdź-kompleks(P,P) x s =,c(x s )=duże,s={<?>}gwiazdaspokrywaprzykładyojednej etykieciedużyikompleks<?>wchodziwskładnowejreguły: R={<w w,maluch sportowy> duże,<w w 2,maluch minivan> małe,<?> duże} ewentualnie,gdyx n =9,to S=S S ={<w 2 w,?>,<?,maluch sportowy>} Kompleksk pokrywawszystkieprzykładyzezbiorupiwchodziwskładnowej reguły: (g) Ostatecznie R={<w w,maluch sportowy> duże, <w w 2,maluch minivan> małe, <w 2 w,?> duże} W uzyskanym zbiorze reguł NIE można reguł zamieniać miejscami, gdyż jest to zbiór uporządkowany. Najpierw nowe przykłady klasyfikuje reguła pierwsza, jak ona zawiedzie to druga itd. 2

SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska

SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska DRZEWO REGRESYJNE Sposób konstrukcji i przycinania

Bardziej szczegółowo

Odkrywanie wiedzy w danych

Odkrywanie wiedzy w danych Inżynieria Wiedzy i Systemy Ekspertowe Odkrywanie wiedzy w danych dr inż. Michał Bereta Politechnika Krakowska http://torus.uck.pk.edu.pl/~beretam/ beretam@torus.uck.pk.edu.pl 1 Data Mining W pewnym teleturnieju

Bardziej szczegółowo

Reguły decyzyjne, algorytm AQ i CN2. Reguły asocjacyjne, algorytm Apriori.

Reguły decyzyjne, algorytm AQ i CN2. Reguły asocjacyjne, algorytm Apriori. Analiza danych Reguły decyzyjne, algorytm AQ i CN2. Reguły asocjacyjne, algorytm Apriori. Jakub Wróblewski jakubw@pjwstk.edu.pl http://zajecia.jakubw.pl/ REGUŁY DECYZYJNE Metoda reprezentacji wiedzy (modelowania

Bardziej szczegółowo

Data Mining Wykład 5. Indukcja drzew decyzyjnych - Indeks Gini & Zysk informacyjny. Indeks Gini. Indeks Gini - Przykład

Data Mining Wykład 5. Indukcja drzew decyzyjnych - Indeks Gini & Zysk informacyjny. Indeks Gini. Indeks Gini - Przykład Data Mining Wykład 5 Indukcja drzew decyzyjnych - Indeks Gini & Zysk informacyjny Indeks Gini Popularnym kryterium podziału, stosowanym w wielu produktach komercyjnych, jest indeks Gini Algorytm SPRINT

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 3. DRZEWA DECYZYJNE. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

SYSTEMY UCZĄCE SIĘ WYKŁAD 3. DRZEWA DECYZYJNE. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska. SYSTEMY UCZĄCE SIĘ WYKŁAD 3. DRZEWA DECYZYJNE Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska BUDOWA DRZEW DECYZYJNYCH Drzewa decyzyjne są metodą indukcyjnego

Bardziej szczegółowo

WYKŁAD 11 Uczenie maszynowe drzewa decyzyjne

WYKŁAD 11 Uczenie maszynowe drzewa decyzyjne WYKŁAD 11 Uczenie maszynowe drzewa decyzyjne Reprezentacja wiedzy w postaci drzew decyzyjnych entropia, przyrost informacji algorytmy ID3, C4.5 problem przeuczenia wyznaczanie reguł rzykładowe drzewo decyzyjne

Bardziej szczegółowo

Uczenie się maszyn. Dariusz Banasiak. Katedra Informatyki Technicznej Wydział Elektroniki

Uczenie się maszyn. Dariusz Banasiak. Katedra Informatyki Technicznej Wydział Elektroniki Dariusz Banasiak Katedra Informatyki Technicznej Wydział Elektroniki Machine Learning (uczenie maszynowe, uczenie się maszyn, systemy uczące się) interdyscyplinarna nauka, której celem jest stworzenie

Bardziej szczegółowo

Klasyfikacja. Indeks Gini Zysk informacyjny. Eksploracja danych. Klasyfikacja wykład 2

Klasyfikacja. Indeks Gini Zysk informacyjny. Eksploracja danych. Klasyfikacja wykład 2 Klasyfikacja Indeks Gini Zysk informacyjny Klasyfikacja wykład 2 Kontynuujemy prezentacje metod klasyfikacji. Na wykładzie zostaną przedstawione dwa podstawowe algorytmy klasyfikacji oparte o indukcję

Bardziej szczegółowo

Klasyfikacja obiektów Drzewa decyzyjne (drzewa klasyfikacyjne)

Klasyfikacja obiektów Drzewa decyzyjne (drzewa klasyfikacyjne) Klasyfikacja obiektów Drzewa decyzyjne (drzewa klasyfikacyjne) Tadeusz Pankowski www.put.poznan.pl/~tadeusz.pankowski Klasyfikacja i predykcja. Odkrywaniem reguł klasyfikacji nazywamy proces znajdowania

Bardziej szczegółowo

Indukowane Reguły Decyzyjne I. Wykład 8

Indukowane Reguły Decyzyjne I. Wykład 8 Indukowane Reguły Decyzyjne I Wykład 8 IRD Wykład 8 Plan Powtórka Krzywa ROC = Receiver Operating Characteristic Wybór modelu Statystyka AUC ROC = pole pod krzywą ROC Wybór punktu odcięcia Reguły decyzyjne

Bardziej szczegółowo

ń ż ń ń ź ć ż ń ż ń ć ć ń ć ń ć ć Ź ń ć Ź ć ń ń ć ż ń ż ćź Ę ż ń ń ć ć ć ż ż ń ń Ę ć ć ń ż Ś Ś Ó Ź ń Ó ź Ś Ź Ę ż ń ż ź Ś ż ż ń ć ń ż ż ń Ż Ń Ź ż ż ć ć ż ć ń ż ż ń ń ń ć ń ż ć ź ć ń Ś Ę Ę ż Ę ń Ź ń Ó ż

Bardziej szczegółowo

Metody klasyfikacji danych - część 1 p.1/24

Metody klasyfikacji danych - część 1 p.1/24 Metody klasyfikacji danych - część 1 Inteligentne Usługi Informacyjne Jerzy Dembski Metody klasyfikacji danych - część 1 p.1/24 Plan wykładu - Zadanie klasyfikacji danych - Przeglad problemów klasyfikacji

Bardziej szczegółowo

Metody indukcji reguł

Metody indukcji reguł Metody indukcji reguł Indukcja reguł Grupa metod charakteryzująca się wydobywaniem reguł ostrych na podstawie analizy przypadków. Dane doświadczalne składają się z dwóch części: 1) wejściowych X, gdzie

Bardziej szczegółowo

Sortowanie. Bartman Jacek Algorytmy i struktury

Sortowanie. Bartman Jacek Algorytmy i struktury Sortowanie Bartman Jacek jbartman@univ.rzeszow.pl Algorytmy i struktury danych Sortowanie przez proste wstawianie przykład 41 56 17 39 88 24 03 72 41 56 17 39 88 24 03 72 17 41 56 39 88 24 03 72 17 39

Bardziej szczegółowo

Przykład eksploracji danych o naturze statystycznej Próba 1 wartości zmiennej losowej odległość

Przykład eksploracji danych o naturze statystycznej Próba 1 wartości zmiennej losowej odległość Dwie metody Klasyczna metoda histogramu jako narzędzie do postawienia hipotezy, jaki rozkład prawdopodobieństwa pasuje do danych Indukcja drzewa decyzyjnego jako metoda wykrycia klasyfikatora ukrytego

Bardziej szczegółowo

Indukowane Reguły Decyzyjne I. Wykład 3

Indukowane Reguły Decyzyjne I. Wykład 3 Indukowane Reguły Decyzyjne I Wykład 3 IRD Wykład 3 Plan Powtórka Grafy Drzewa klasyfikacyjne Testy wstęp Klasyfikacja obiektów z wykorzystaniem drzewa Reguły decyzyjne generowane przez drzewo 2 Powtórzenie

Bardziej szczegółowo

Eksploracja danych. KLASYFIKACJA I REGRESJA cz. 2. Wojciech Waloszek. Teresa Zawadzka.

Eksploracja danych. KLASYFIKACJA I REGRESJA cz. 2. Wojciech Waloszek. Teresa Zawadzka. Eksploracja danych KLASYFIKACJA I REGRESJA cz. 2 Wojciech Waloszek wowal@eti.pg.gda.pl Teresa Zawadzka tegra@eti.pg.gda.pl Katedra Inżynierii Oprogramowania Wydział Elektroniki, Telekomunikacji i Informatyki

Bardziej szczegółowo

Wprowadzenie do klasyfikacji

Wprowadzenie do klasyfikacji Wprowadzenie do klasyfikacji ZeroR Odpowiada zawsze tak samo Decyzja to klasa większościowa ze zbioru uczącego A B X 1 5 T 1 7 T 1 5 T 1 5 F 2 7 F Tutaj jest więcej obiektów klasy T, więc klasyfikator

Bardziej szczegółowo

B jest globalnym pokryciem zbioru {d} wtedy i tylko wtedy, gdy {d} zależy od B i nie istnieje B T takie, że {d} zależy od B ;

B jest globalnym pokryciem zbioru {d} wtedy i tylko wtedy, gdy {d} zależy od B i nie istnieje B T takie, że {d} zależy od B ; Algorytm LEM1 Oznaczenia i definicje: U - uniwersum, tj. zbiór obiektów; A - zbiór atrybutów warunkowych; d - atrybut decyzyjny; IND(B) = {(x, y) U U : a B a(x) = a(y)} - relacja nierozróżnialności, tj.

Bardziej szczegółowo

Automatyczne wyodrębnianie reguł

Automatyczne wyodrębnianie reguł Automatyczne wyodrębnianie reguł Jedną z form reprezentacji wiedzy jest jej zapis w postaci zestawu reguł. Ta forma ma szereg korzyści: daje się łatwo interpretować, można zrozumieć sposób działania zbudowanego

Bardziej szczegółowo

Algorytmy metaheurystyczne Wykład 11. Piotr Syga

Algorytmy metaheurystyczne Wykład 11. Piotr Syga Algorytmy metaheurystyczne Wykład 11 Piotr Syga 22.05.2017 Drzewa decyzyjne Idea Cel Na podstawie przesłanek (typowo zbiory rozmyte) oraz zbioru wartości w danych testowych, w oparciu o wybrane miary,

Bardziej szczegółowo

Złożoność i zagadnienia implementacyjne. Wybierz najlepszy atrybut i ustaw jako test w korzeniu. Stwórz gałąź dla każdej wartości atrybutu.

Złożoność i zagadnienia implementacyjne. Wybierz najlepszy atrybut i ustaw jako test w korzeniu. Stwórz gałąź dla każdej wartości atrybutu. Konwersatorium Matematyczne Metody Ekonomii Narzędzia matematyczne w eksploracji danych Indukcja drzew decyzyjnych Wykład 3 - część 2 Marcin Szczuka http://www.mimuw.edu.pl/ szczuka/mme/ Plan wykładu Generowanie

Bardziej szczegółowo

ED Laboratorium 3. Drzewa decyzyjne

ED Laboratorium 3. Drzewa decyzyjne ED Laboratorium Drzewa decyzyjne 1 Drzewa decyzyjne Algorytmy indukcji drzew decyzyjnych to jeden z klasycznych algorytmów uczenia maszynowego służący do rozwiązywania problemu klasyfikacji. Drzewa decyzyjne

Bardziej szczegółowo

Algorytmy i struktury danych

Algorytmy i struktury danych Algorytmy i struktury danych Zaawansowane algorytmy sortowania Witold Marańda maranda@dmcs.p.lodz.pl 1 Sortowanie za pomocą malejących przyrostów metoda Shella Metoda jest rozwinięciem metody sortowania

Bardziej szczegółowo

Drzewa klasyfikacyjne algorytm podstawowy

Drzewa klasyfikacyjne algorytm podstawowy DRZEWA DECYZYJNE Drzewa klasyfikacyjne algorytm podstawowy buduj_drzewo(s przykłady treningowe, A zbiór atrybutów) { utwórz węzeł t (korzeń przy pierwszym wywołaniu); if (wszystkie przykłady w S należą

Bardziej szczegółowo

Algorytmy klasyfikacji

Algorytmy klasyfikacji Algorytmy klasyfikacji Konrad Miziński Instytut Informatyki Politechnika Warszawska 6 maja 2015 1 Wnioskowanie 2 Klasyfikacja Zastosowania 3 Drzewa decyzyjne Budowa Ocena jakości Przycinanie 4 Lasy losowe

Bardziej szczegółowo

Temat: Algorytm kompresji plików metodą Huffmana

Temat: Algorytm kompresji plików metodą Huffmana Temat: Algorytm kompresji plików metodą Huffmana. Wymagania dotyczące kompresji danych Przez M oznaczmy zbiór wszystkich możliwych symboli występujących w pliku (alfabet pliku). Przykład M = 2, gdy plik

Bardziej szczegółowo

Uwaga: Funkcja zamień(a[j],a[j+s]) zamienia miejscami wartości A[j] oraz A[j+s].

Uwaga: Funkcja zamień(a[j],a[j+s]) zamienia miejscami wartości A[j] oraz A[j+s]. Zadanie 1. Wiązka zadań Od szczegółu do ogółu Rozważmy następujący algorytm: Dane: Algorytm 1: k liczba naturalna, A[1...2 k ] tablica liczb całkowitych. n 1 dla i=1,2,,k wykonuj n 2n s 1 dopóki s

Bardziej szczegółowo

Porównanie systemów automatycznej generacji reguł działających w oparciu o algorytm sekwencyjnego pokrywania oraz drzewa decyzji

Porównanie systemów automatycznej generacji reguł działających w oparciu o algorytm sekwencyjnego pokrywania oraz drzewa decyzji Porównanie systemów automatycznej generacji reguł działających w oparciu o algorytm sekwencyjnego pokrywania oraz drzewa decyzji Wstęp Systemy automatycznego wyodrębniania reguł pełnią bardzo ważną rolę

Bardziej szczegółowo

Analiza danych DRZEWA DECYZYJNE. Drzewa decyzyjne. Entropia. http://zajecia.jakubw.pl/ test 1 dopełnienie testu 1

Analiza danych DRZEWA DECYZYJNE. Drzewa decyzyjne. Entropia. http://zajecia.jakubw.pl/ test 1 dopełnienie testu 1 Analiza danych Drzewa decyzyjne. Enropia. Jakub Wróblewski jakubw@pjwsk.edu.pl hp://zajecia.jakubw.pl/ DRZEWA DECYZYJNE Meoda reprezenacji wiedzy (modelowania ablic decyzyjnych). Pozwala na przejrzysy

Bardziej szczegółowo

Indukcja drzew decyzyjnych

Indukcja drzew decyzyjnych Konwersatorium Matematyczne Metody Ekonomii Narzędzia matematyczne w eksploracji danych Indukcja drzew decyzyjnych Wykład 3 - część 2 Marcin Szczuka http://www.mimuw.edu.pl/ szczuka/mme/ Divide et impera

Bardziej szczegółowo

znalezienia elementu w zbiorze, gdy w nim jest; dołączenia nowego elementu w odpowiednie miejsce, aby zbiór pozostał nadal uporządkowany.

znalezienia elementu w zbiorze, gdy w nim jest; dołączenia nowego elementu w odpowiednie miejsce, aby zbiór pozostał nadal uporządkowany. Przedstawiamy algorytmy porządkowania dowolnej liczby elementów, którymi mogą być liczby, jak również elementy o bardziej złożonej postaci (takie jak słowa i daty). Porządkowanie, nazywane również często

Bardziej szczegółowo

Wprowadzenie do programu RapidMiner Studio 7.6, część 4 Michał Bereta

Wprowadzenie do programu RapidMiner Studio 7.6, część 4 Michał Bereta Wprowadzenie do programu RapidMiner Studio 7.6, część 4 Michał Bereta www.michalbereta.pl W tej części: Zachowanie wytrenowanego modelu w celu późniejszego użytku Filtrowanie danych (brakujące etykiety

Bardziej szczegółowo

Klasyfikacja. Sformułowanie problemu Metody klasyfikacji Kryteria oceny metod klasyfikacji. Eksploracja danych. Klasyfikacja wykład 1

Klasyfikacja. Sformułowanie problemu Metody klasyfikacji Kryteria oceny metod klasyfikacji. Eksploracja danych. Klasyfikacja wykład 1 Klasyfikacja Sformułowanie problemu Metody klasyfikacji Kryteria oceny metod klasyfikacji Klasyfikacja wykład 1 Niniejszy wykład poświęcimy kolejnej metodzie eksploracji danych klasyfikacji. Na początek

Bardziej szczegółowo

mgr inż. Magdalena Deckert Poznań, r. Metody przyrostowego uczenia się ze strumieni danych.

mgr inż. Magdalena Deckert Poznań, r. Metody przyrostowego uczenia się ze strumieni danych. mgr inż. Magdalena Deckert Poznań, 30.11.2010r. Metody przyrostowego uczenia się ze strumieni danych. Plan prezentacji Wstęp Concept drift i typy zmian Algorytmy przyrostowego uczenia się ze strumieni

Bardziej szczegółowo

Zasada indukcji matematycznej

Zasada indukcji matematycznej Zasada indukcji matematycznej Twierdzenie 1 (Zasada indukcji matematycznej). Niech ϕ(n) będzie formą zdaniową zmiennej n N 0. Załóżmy, że istnieje n 0 N 0 takie, że 1. ϕ(n 0 ) jest zdaniem prawdziwym,.

Bardziej szczegółowo

Statystyka opisowa. Wykład VI. Analiza danych jakośiowych

Statystyka opisowa. Wykład VI. Analiza danych jakośiowych Statystyka opisowa. Wykład VI. e-mail:e.kozlovski@pollub.pl Spis treści Rangowanie 1 Rangowanie 3 Rangowanie Badaniu statystycznemu czasami podlegają cechy niemierzalne jakościowe), np. kolor włosów, stopień

Bardziej szczegółowo

Podstawy Informatyki. Metody dostępu do danych

Podstawy Informatyki. Metody dostępu do danych Podstawy Informatyki c.d. alina.momot@polsl.pl http://zti.polsl.pl/amomot/pi Plan wykładu 1 Bazy danych Struktury danych Średni czas odszukania rekordu Drzewa binarne w pamięci dyskowej 2 Sformułowanie

Bardziej szczegółowo

Wykład 2. Drzewa zbalansowane AVL i 2-3-4

Wykład 2. Drzewa zbalansowane AVL i 2-3-4 Wykład Drzewa zbalansowane AVL i -3-4 Drzewa AVL Wprowadzenie Drzewa AVL Definicja drzewa AVL Operacje wstawiania i usuwania Złożoność obliczeniowa Drzewa -3-4 Definicja drzewa -3-4 Operacje wstawiania

Bardziej szczegółowo

Konkurs z przedmiotu eksploracja i analiza danych: problem regresji i klasyfikacji

Konkurs z przedmiotu eksploracja i analiza danych: problem regresji i klasyfikacji Konkurs z przedmiotu eksploracja i analiza danych: problem regresji i klasyfikacji Michał Witczak Data Mining 20 maja 2012 r. 1. Wstęp Dostarczone zostały nam 4 pliki, z których dwa stanowiły zbiory uczące

Bardziej szczegółowo

SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006

SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006 SAS wybrane elementy DATA MINING Część III Seweryn Kowalski 2006 Algorytmy eksploracji danych Algorytm eksploracji danych jest dobrze zdefiniowaną procedurą, która na wejściu otrzymuje dane, a na wyjściu

Bardziej szczegółowo

Klasyfikacja. Wprowadzenie. Klasyfikacja (1)

Klasyfikacja. Wprowadzenie. Klasyfikacja (1) Klasyfikacja Wprowadzenie Celem procesu klasyfikacji jest znalezienie ogólnego modelu podziału zbioru predefiniowanych klas obiektów na podstawie pewnego zbioru danych historycznych, a następnie, zastosowanie

Bardziej szczegółowo

TEORETYCZNE PODSTAWY INFORMATYKI

TEORETYCZNE PODSTAWY INFORMATYKI 1 TEORETYCZNE PODSTAWY INFORMATYKI WFAiS UJ, Informatyka Stosowana I rok studiów, I stopień Wykład 14c 2 Definicje indukcyjne Twierdzenia dowodzone przez indukcje Definicje indukcyjne Definicja drzewa

Bardziej szczegółowo

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18 Eksploracja Danych wykład 4 Sebastian Zając WMP.SNŚ UKSW 10 maja 2017 Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja 2017 1 / 18 Klasyfikacja danych Klasyfikacja Najczęściej stosowana (najstarsza)

Bardziej szczegółowo

Wyk lad 7: Drzewa decyzyjne dla dużych zbiorów danych

Wyk lad 7: Drzewa decyzyjne dla dużych zbiorów danych Wyk lad 7: Drzewa decyzyjne dla dużych zbiorów danych Funkcja rekurencyjna buduj drzewo(u, dec, T): 1: if (kryterium stopu(u, dec) = true) then 2: T.etykieta = kategoria(u, dec); 3: return; 4: end if 5:

Bardziej szczegółowo

Algorytmy i Struktury Danych

Algorytmy i Struktury Danych Algorytmy i Struktury Danych Kopce Bożena Woźna-Szcześniak bwozna@gmail.com Jan Długosz University, Poland Wykład 11 Bożena Woźna-Szcześniak (AJD) Algorytmy i Struktury Danych Wykład 11 1 / 69 Plan wykładu

Bardziej szczegółowo

INDUKCJA DRZEW DECYZYJNYCH

INDUKCJA DRZEW DECYZYJNYCH INDUKCJA DRZEW DECYZYJNYCH 1. Pojęcia podstawowe. 2. Idea algorytmów TDIT. 3. Kryteria oceny atrybutów entropia. 4. "Klasyczna" postać algorytmu ID3. 5. Przykład ilustracyjny. 6. Transformacja drzewa do

Bardziej szczegółowo

Sortowanie przez wstawianie Insertion Sort

Sortowanie przez wstawianie Insertion Sort Sortowanie przez wstawianie Insertion Sort Algorytm sortowania przez wstawianie można porównać do sposobu układania kart pobieranych z talii. Najpierw bierzemy pierwszą kartę. Następnie pobieramy kolejne,

Bardziej szczegółowo

Ą ń Ś ź ń ć ż Ę Ń Ą ć ń ń ż ń ź ź ź Ż ń ź ń Ą ń ż Ł ż Ę Ż ć ż ń Ę ć ż ż ń Ę ż ń ń Ą ż ń Ąć Ę ń Ę Ł Ą Ż ż Ę Ę ń Ż ż Ż Ę Ę Ę Ę Ę ć ż ż ż ć ćń ż ź Ę ń ż ć Ę ż ż Ę ź Ę ń ż Ę Ę ń Ę Ę ń ć Ż ć ż Ą Ę Ę ź ń ż ń

Bardziej szczegółowo

Ń ź Ń ź Ń ź Ń ź ź Ń Ń Ń Ń ź Ą ź Ń ź Ó Ą ć Ń ć Ń ć ć ć ć ć ź ź ć Ń Ń ć ć Ę Ą ź Ę Ń ć ź Ń ź Ł Ń ć Ń Ą ć Ń ć ć ź Ń ćń Ś ź ź ź ć Ń ź ź Ń Ń Ę Ń ź Ń ź Ń Ą ć ź ć ć Ę ć ź ć Ą ć ź ć Ń ć ć ź ć Ń Ń Ń Ę ć Ą Ą ź Ń

Bardziej szczegółowo

Drzewa decyzyjne. 1. Wprowadzenie.

Drzewa decyzyjne. 1. Wprowadzenie. Drzewa decyzyjne. 1. Wprowadzenie. Drzewa decyzyjne są graficzną metodą wspomagania procesu decyzyjnego. Jest to jedna z najczęściej wykorzystywanych technik analizy danych. Drzewo składają się z korzenia

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska. SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska INFORMACJE WSTĘPNE Hipotezy do uczenia się lub tworzenia

Bardziej szczegółowo

Problem 1 prec f max. Algorytm Lawlera dla problemu 1 prec f max. 1 procesor. n zadań T 1,..., T n (ich zbiór oznaczamy przez T )

Problem 1 prec f max. Algorytm Lawlera dla problemu 1 prec f max. 1 procesor. n zadań T 1,..., T n (ich zbiór oznaczamy przez T ) Joanna Berlińska Algorytmika w projektowaniu systemów - ćwiczenia 1 1 Problem 1 prec f max 1 procesor (ich zbiór oznaczamy przez T ) czas wykonania zadania T j wynosi p j z zadaniem T j związana jest niemalejąca

Bardziej szczegółowo

Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych. Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS

Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych. Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS Dyskretyzacja - definicja Dyskretyzacja - zamiana atrybutów

Bardziej szczegółowo

Metody eksploracji danych. Reguły asocjacyjne

Metody eksploracji danych. Reguły asocjacyjne Metody eksploracji danych Reguły asocjacyjne Analiza podobieństw i koszyka sklepowego Analiza podobieństw jest badaniem atrybutów lub cech, które są powiązane ze sobą. Metody analizy podobieństw, znane

Bardziej szczegółowo

Wykład 3. Złożoność i realizowalność algorytmów Elementarne struktury danych: stosy, kolejki, listy

Wykład 3. Złożoność i realizowalność algorytmów Elementarne struktury danych: stosy, kolejki, listy Wykład 3 Złożoność i realizowalność algorytmów Elementarne struktury danych: stosy, kolejki, listy Dynamiczne struktury danych Lista jest to liniowo uporządkowany zbiór elementów, z których dowolny element

Bardziej szczegółowo

Drzewa decyzyjne. Nguyen Hung Son. Nguyen Hung Son () DT 1 / 34

Drzewa decyzyjne. Nguyen Hung Son. Nguyen Hung Son () DT 1 / 34 Drzewa decyzyjne Nguyen Hung Son Nguyen Hung Son () DT 1 / 34 Outline 1 Wprowadzenie Definicje Funkcje testu Optymalne drzewo 2 Konstrukcja drzew decyzyjnych Ogólny schemat Kryterium wyboru testu Przycinanie

Bardziej szczegółowo

A Zadanie

A Zadanie where a, b, and c are binary (boolean) attributes. A Zadanie 1 2 3 4 5 6 7 8 9 10 Punkty a (maks) (2) (2) (2) (2) (4) F(6) (8) T (8) (12) (12) (40) Nazwisko i Imiȩ: c Uwaga: ta część zostanie wypełniona

Bardziej szczegółowo

ALGORYTMY I STRUKTURY DANYCH

ALGORYTMY I STRUKTURY DANYCH ALGORYTMY I STRUKTURY DANYCH Temat : Drzewa zrównoważone, sortowanie drzewiaste Wykładowca: dr inż. Zbigniew TARAPATA e-mail: Zbigniew.Tarapata@isi.wat.edu.pl http://www.tarapata.strefa.pl/p_algorytmy_i_struktury_danych/

Bardziej szczegółowo

Rozwiązania zadań z kolokwium w dniu r. Zarządzanie Inżynierskie, WDAM, grupy I i II

Rozwiązania zadań z kolokwium w dniu r. Zarządzanie Inżynierskie, WDAM, grupy I i II Rozwiązania zadań z kolokwium w dniu 10.1.010r. Zarządzanie Inżynierskie, WDAM, grupy I i II Zadanie 1. Wyznacz dziedzinę naturalną funkcji f (x) = x 4x + 3 x + x + log arc sin 1 x. Rozwiązanie. Wymagane

Bardziej szczegółowo

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny

Bardziej szczegółowo

Sortowanie Shella Shell Sort

Sortowanie Shella Shell Sort Sortowanie Shella Shell Sort W latach 50-tych ubiegłego wieku informatyk Donald Shell zauważył, iż algorytm sortowania przez wstawianie pracuje bardzo efektywnie w przypadku gdy zbiór jest w dużym stopniu

Bardziej szczegółowo

Programowanie w VB Proste algorytmy sortowania

Programowanie w VB Proste algorytmy sortowania Programowanie w VB Proste algorytmy sortowania Sortowanie bąbelkowe Algorytm sortowania bąbelkowego polega na porównywaniu par elementów leżących obok siebie i, jeśli jest to potrzebne, zmienianiu ich

Bardziej szczegółowo

TEORIA GRAFÓW I SIECI

TEORIA GRAFÓW I SIECI TEORIA GRAFÓW I SIECI Temat nr 5: Sieci, drogi ekstremalne w sieciach, analiza złożonych przedsięwzięć (CPM i PERT) dr hab. inż. Zbigniew TARAPATA, prof. WAT e-mail: zbigniew.tarapata@wat.edu.pl http://tarapata.edu.pl

Bardziej szczegółowo

ALGORYTM RANDOM FOREST

ALGORYTM RANDOM FOREST SKRYPT PRZYGOTOWANY NA ZAJĘCIA INDUKOWANYCH REGUŁ DECYZYJNYCH PROWADZONYCH PRZEZ PANA PAWŁA WOJTKIEWICZA ALGORYTM RANDOM FOREST Katarzyna Graboś 56397 Aleksandra Mańko 56699 2015-01-26, Warszawa ALGORYTM

Bardziej szczegółowo

SID Wykład 10 Systemy uczace się

SID Wykład 10 Systemy uczace się SID Wykład 10 Systemy uczace się Wydział Matematyki, Informatyki i Mechaniki UW slezak@mimuw.edu.pl Uczenie indukcyjne Obiekty: Decyzja: dane reprezentujace rzeczywisty stan lub obiekt, tworza przestrzeń

Bardziej szczegółowo

ALGORYTMY. 1. Podstawowe definicje Schemat blokowy

ALGORYTMY. 1. Podstawowe definicje Schemat blokowy ALGORYTMY 1. Podstawowe definicje Algorytm (definicja nieformalna) to sposób postępowania (przepis) umożliwiający rozwiązanie określonego zadania (klasy zadań), podany w postaci skończonego zestawu czynności

Bardziej szczegółowo

Zmienne losowe i ich rozkłady

Zmienne losowe i ich rozkłady Zmienne losowe i ich rozkłady 29 kwietnia 2019 Definicja: Zmienną losową nazywamy mierzalną funkcję X : (Ω, F, P) (R n, B(R n )). Definicja: Niech A będzie zbiorem borelowskim. Rozkładem zmiennej losowej

Bardziej szczegółowo

RILL - przyrostowy klasyfikator regułowy uczący się ze zmiennych środowisk

RILL - przyrostowy klasyfikator regułowy uczący się ze zmiennych środowisk Wprowadzenie RILL - przyrostowy klasyfikator regułowy uczący się ze zmiennych środowisk Magdalena Deckert Politechnika Poznańska, Instytut Informatyki Seminarium ISWD, 21.05.2013 M. Deckert Przyrostowy

Bardziej szczegółowo

Przepustowość kanału, odczytywanie wiadomości z kanału, poprawa wydajności kanału.

Przepustowość kanału, odczytywanie wiadomości z kanału, poprawa wydajności kanału. Przepustowość kanału, odczytywanie wiadomości z kanału, poprawa wydajności kanału Wiktor Miszuris 2 czerwca 2004 Przepustowość kanału Zacznijmy od wprowadzenia równości IA, B HB HB A HA HA B Można ją intuicyjnie

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA WYKŁAD 4. WERYFIKACJA HIPOTEZ PARAMETRYCZNYCH X - cecha populacji, θ parametr rozkładu cechy X.

STATYSTYKA MATEMATYCZNA WYKŁAD 4. WERYFIKACJA HIPOTEZ PARAMETRYCZNYCH X - cecha populacji, θ parametr rozkładu cechy X. STATYSTYKA MATEMATYCZNA WYKŁAD 4 WERYFIKACJA HIPOTEZ PARAMETRYCZNYCH X - cecha populacji, θ parametr rozkładu cechy X. Wysuwamy hipotezy: zerową (podstawową H ( θ = θ i alternatywną H, która ma jedną z

Bardziej szczegółowo

Wprowadzenie do uczenia maszynowego

Wprowadzenie do uczenia maszynowego Wprowadzenie do uczenia maszynowego Agnieszka Ławrynowicz 12 stycznia 2017 Co to jest uczenie maszynowe? dziedzina nauki, która zajmuje się sprawianiem aby komputery mogły uczyć się bez ich zaprogramowania

Bardziej szczegółowo

Data Mining z wykorzystaniem programu Rapid Miner

Data Mining z wykorzystaniem programu Rapid Miner Data Mining z wykorzystaniem programu Rapid Miner Michał Bereta www.michalbereta.pl Program Rapid Miner jest dostępny na stronie: http://rapid-i.com/ Korzystamy z bezpłatnej wersji RapidMiner Community

Bardziej szczegółowo

Elementy modelowania matematycznego

Elementy modelowania matematycznego Elementy modelowania matematycznego Modelowanie algorytmów klasyfikujących. Podejście probabilistyczne. Naiwny klasyfikator bayesowski. Modelowanie danych metodą najbliższych sąsiadów. Jakub Wróblewski

Bardziej szczegółowo

Programowanie sieciowe. Tadeusz Trzaskalik

Programowanie sieciowe. Tadeusz Trzaskalik Programowanie Tadeusz Trzaskalik 8.1. Wprowadzenie Słowa kluczowe Drzewo rozpinające Minimalne drzewo rozpinające Najkrótsza droga w sieci Wierzchołek początkowy Maksymalny przepływ w sieci Źródło Ujście

Bardziej szczegółowo

Wykład 4. Określimy teraz pewną ważną klasę pierścieni.

Wykład 4. Określimy teraz pewną ważną klasę pierścieni. Wykład 4 Określimy teraz pewną ważną klasę pierścieni. Twierdzenie 1 Niech m, n Z. Jeśli n > 0 to istnieje dokładnie jedna para licz q, r, że: m = qn + r, 0 r < n. Liczbę r nazywamy resztą z dzielenia

Bardziej szczegółowo

Ekonometria, lista zadań nr 6 Zadanie 5 H X 1, X 2, X 3

Ekonometria, lista zadań nr 6 Zadanie 5 H X 1, X 2, X 3 Ekonometria, lista zadań nr 6 Zadanie 5 Poniższy diagram przedstawia porządek między rozważanymi modelami oparty na relacji zawierania pomiędzy podzbiorami zbioru zmiennych objaśniających: H, X 2, X 3

Bardziej szczegółowo

W. Guzicki Zadanie 41 z Informatora Maturalnego poziom podstawowy 1

W. Guzicki Zadanie 41 z Informatora Maturalnego poziom podstawowy 1 W. Guzicki Zadanie 41 z Informatora Maturalnego poziom podstawowy 1 W tym tekście zobaczymy rozwiązanie zadania 41 z Informatora o egzaminie maturalnym z matematyki od roku szkolnego 014/015 oraz rozwiązania

Bardziej szczegółowo

Kompresja danych Streszczenie Studia Dzienne Wykład 10,

Kompresja danych Streszczenie Studia Dzienne Wykład 10, 1 Kwantyzacja wektorowa Kompresja danych Streszczenie Studia Dzienne Wykład 10, 28.04.2006 Kwantyzacja wektorowa: dane dzielone na bloki (wektory), każdy blok kwantyzowany jako jeden element danych. Ogólny

Bardziej szczegółowo

ZeroR. Odpowiada zawsze tak samo Decyzja to klasa większościowa ze zbioru uczącego A B X 1 5 T 1 7 T 1 5 T 1 5 F 2 7 F

ZeroR. Odpowiada zawsze tak samo Decyzja to klasa większościowa ze zbioru uczącego A B X 1 5 T 1 7 T 1 5 T 1 5 F 2 7 F ZeroR Odpowiada zawsze tak samo Decyzja to klasa większościowa ze zbioru uczącego A B X 5 T 7 T 5 T 5 F 2 7 F Tutaj jest więcej obiektów klasy T, więc klasyfikator ZeroR będzie zawsze odpowiadał T niezależnie

Bardziej szczegółowo

SZYBKI ALGORYTM Z MACIERZĄ SHURA DLA MACIERZY TRÓJDIAGONALNYCH

SZYBKI ALGORYTM Z MACIERZĄ SHURA DLA MACIERZY TRÓJDIAGONALNYCH SZYBKI ALGORYTM Z MACIERZĄ SHURA DLA MACIERZY TRÓJDIAGONALNYCH Rozwiązujemy układ z macierzą trójdiagonalną. Założymy dla prostoty opisu, że macierz ma stałe współczynniki, to znaczy, że na głównej diagonali

Bardziej szczegółowo

Sprawozdanie z zadania Modele predykcyjne (2)

Sprawozdanie z zadania Modele predykcyjne (2) Maciej Karpus, 131529 Tomasz Skarżyński, 131618 19.04.2013r. Sprawozdanie z zadania Modele predykcyjne (2) 1. Wprowadzenie 1.1. Informacje wstępne Dane dotyczą wyników badań mammograficznych wykonanych

Bardziej szczegółowo

Lista 4. Kamil Matuszewski 22 marca 2016

Lista 4. Kamil Matuszewski 22 marca 2016 Lista 4 Kamil Matuszewski 22 marca 2016 1 2 3 4 5 6 7 8 9 10 Zadanie 2 Ułóż algorytm który dla danego n-wierzchołkowego drzewa i liczby k pokoloruje jak najwięcej wierzchołków tak, by na każdej ścieżce

Bardziej szczegółowo

Sortowanie - wybrane algorytmy

Sortowanie - wybrane algorytmy Sortowanie - wybrane algorytmy Aleksandra Wilkowska Wydział Matematyki - Katedra Matematyki Stosowanej Politechika Wrocławska 2 maja 2018 1 / 39 Plan prezentacji Złożoność obliczeniowa Sortowanie bąbelkowe

Bardziej szczegółowo

Zaawansowane algorytmy i struktury danych

Zaawansowane algorytmy i struktury danych Zaawansowane algorytmy i struktury danych u dr Barbary Marszał-Paszek Opracowanie pytań praktycznych z egzaminów. Strona 1 z 12 Pytania praktyczne z kolokwium zaliczeniowego z 19 czerwca 2014 (studia dzienne)

Bardziej szczegółowo

Drzewa klasyfikacyjne Lasy losowe. Wprowadzenie

Drzewa klasyfikacyjne Lasy losowe. Wprowadzenie Wprowadzenie Konstrukcja binarnych drzew klasyfikacyjnych polega na sekwencyjnym dzieleniu podzbiorów przestrzeni próby X na dwa rozłączne i dopełniające się podzbiory, rozpoczynając od całego zbioru X.

Bardziej szczegółowo

Inżynieria Wiedzy i Systemy Ekspertowe. Reguły asocjacyjne

Inżynieria Wiedzy i Systemy Ekspertowe. Reguły asocjacyjne Inżynieria Wiedzy i Systemy Ekspertowe Reguły asocjacyjne Dr inż. Michał Bereta p. 144 / 10, Instytut Modelowania Komputerowego mbereta@pk.edu.pl beretam@torus.uck.pk.edu.pl www.michalbereta.pl Reguły

Bardziej szczegółowo

Zdzisław Dzedzej. Politechnika Gdańska. Gdańsk, 2013

Zdzisław Dzedzej. Politechnika Gdańska. Gdańsk, 2013 Zdzisław Dzedzej Politechnika Gdańska Gdańsk, 2013 1 PODSTAWY 2 3 Definicja. Przestrzeń metryczna (X, d) jest zwarta, jeśli z każdego ciągu {x n } w X można wybrać podciąg zbieżny {x nk } w X. Ogólniej

Bardziej szczegółowo

10. Translacja sterowana składnią i YACC

10. Translacja sterowana składnią i YACC 10. Translacja sterowana składnią i YACC 10.1 Charakterystyka problemu translacja sterowana składnią jest metodą generacji przetworników tekstu języków, których składnię opisano za pomocą gramatyki (bezkontekstowej)

Bardziej szczegółowo

Niech x 1,..., x n będzie ciągiem zdarzeń. ---

Niech x 1,..., x n będzie ciągiem zdarzeń. --- Matematyczne podstawy kryptografii, Ćw2 TEMAT 7: Teoria Shannona. Kody Huffmana, entropia. BIBLIOGRAFIA: [] Cz. Bagiński, cez.wipb.pl, [2] T. H. Cormen, C. E. Leiserson, R. L Rivest, Wprowadzenie do algorytmów,

Bardziej szczegółowo

W. Guzicki Próbna matura, grudzień 2014 r. poziom rozszerzony 1

W. Guzicki Próbna matura, grudzień 2014 r. poziom rozszerzony 1 W. Guzicki Próbna matura, grudzień 20 r. poziom rozszerzony Próbna matura rozszerzona (jesień 20 r.) Zadanie kilka innych rozwiązań Wojciech Guzicki Zadanie. Oblicz prawdopodobieństwo warunkowe, że w trzykrotnym

Bardziej szczegółowo

. Podstawy Programowania 2. Drzewa bst - część druga. Arkadiusz Chrobot. 12 maja 2019

. Podstawy Programowania 2. Drzewa bst - część druga. Arkadiusz Chrobot. 12 maja 2019 .. Podstawy Programowania 2 Drzewa bst - część druga Arkadiusz Chrobot Zakład Informatyki 12 maja 2019 1 / 39 Plan.1 Wstęp.2 Wyszukiwanie w BST Minimalny i maksymalny klucz Wskazany klucz.3.4 Zmiany w

Bardziej szczegółowo

Sztuczna Inteligencja Projekt

Sztuczna Inteligencja Projekt Sztuczna Inteligencja Projekt Temat: Algorytm F-LEM1 Liczba osób realizujących projekt: 2 1. Zaimplementować algorytm F LEM 1. 2. Zaimplementować klasyfikator Classif ier. 3. Za pomocą algorytmu F LEM1

Bardziej szczegółowo

Sztuczna Inteligencja Projekt

Sztuczna Inteligencja Projekt Sztuczna Inteligencja Projekt Temat: Algorytm LEM2 Liczba osób realizujących projekt: 2 1. Zaimplementować algorytm LEM 2. 2. Zaimplementować klasyfikator Classif ier. 3. Za pomocą algorytmu LEM 2 wygenerować

Bardziej szczegółowo

Sortowanie zewnętrzne

Sortowanie zewnętrzne Algorytmy i struktury danych Instytut Sterowania i Systemów Informatycznych Wydział Elektrotechniki, Informatyki i Telekomunikacji Uniwersytet Zielonogórski Sortowanie zewnętrzne 1 Wstęp Bardzo często

Bardziej szczegółowo

Lista 0. Kamil Matuszewski 1 marca 2016

Lista 0. Kamil Matuszewski 1 marca 2016 Lista 0 Kamil Matuszewski marca 206 2 3 4 5 6 7 8 0 0 Zadanie 4 Udowodnić poprawność mnożenia po rosyjsku Zastanówmy się co robi nasz algorytm Mamy podane liczby n i m W każdym kroku liczbę n dzielimy

Bardziej szczegółowo

Laboratorium 6. Indukcja drzew decyzyjnych.

Laboratorium 6. Indukcja drzew decyzyjnych. Laboratorium 6 Indukcja drzew decyzyjnych. 1. Uruchom narzędzie Oracle Data Miner i połącz się z serwerem bazy danych. 2. Z menu głównego wybierz Activity Build. Na ekranie powitalnym kliknij przycisk

Bardziej szczegółowo

Diagnozowanie sieci komputerowej na podstawie opinii diagnostycznych o poszczególnych komputerach sieci

Diagnozowanie sieci komputerowej na podstawie opinii diagnostycznych o poszczególnych komputerach sieci Diagnozowanie sieci komputerowej na podstawie opinii diagnostycznych o poszczególnych komputerach sieci Diagnozowanie systemu, w tym przypadku, pojmowane jest jako metoda określania stanu niezawodnościowego

Bardziej szczegółowo

Wykład 8. Drzewo rozpinające (minimum spanning tree)

Wykład 8. Drzewo rozpinające (minimum spanning tree) Wykład 8 Drzewo rozpinające (minimum spanning tree) 1 Minimalne drzewo rozpinające - przegląd Definicja problemu Własności minimalnych drzew rozpinających Algorytm Kruskala Algorytm Prima Literatura Cormen,

Bardziej szczegółowo