MEODY GRUPOWANIA DANYCH



Podobne dokumenty
Granular Computing 9999 pages 15 METODY SZTUCZNEJ INTELIGENCJI - PROJEKTY

Granular Computing 9999 pages 15 METODY SZTUCZNEJ INTELIGENCJI - PROJEKTY

Projektowanie rozmieszczenia stanowisk roboczych

1 Wstęp. 2 Uruchomienie programu

Inteligentna analiza danych

Indukowane Reguły Decyzyjne I. Wykład 3

Analiza algorytmów zadania podstawowe

ALGORYTM RANDOM FOREST

Grupowanie Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 201/633

Zagadnienie klasyfikacji (dyskryminacji)

ZADANIA ZAMKNI TE. W zadaniach od 1. do 20. wybierz i zaznacz na karcie odpowiedzi jedn poprawn odpowied.

Lekcja 8 - ANIMACJA. 1 Polecenia. 2 Typy animacji. 3 Pierwsza animacja - Mrugaj ca twarz

Wprowadzenie. Data Science Uczenie się pod nadzorem

Wyk lad 8: Leniwe metody klasyfikacji

Uczenie Maszynowe: reprezentacja wiedzy, wybór i ocena modelu, drzewa decyzjne

Metody indukcji reguł

Praktyczne wykorzystanie arkusza kalkulacyjnego w pracy nauczyciela część 1

Hierarchiczna analiza skupień

3URJUDPRZDQLHZVSyáELH*QHZVWS

CLUSTERING. Metody grupowania danych

KOSZTY. Ćwiczenie 1 1 W menu Widok kliknij polecenie Arkusz zasobów.

Sztuczna inteligencja : Algorytm KNN

Informatyka Ćwiczenie 10. Bazy danych. Strukturę bazy danych można określić w formie jak na rysunku 1. atrybuty

1.3. Tworzenie obiektów 3D. Rysunek 1.2. Dostępne opcje podręcznego menu dla zaznaczonego obiektu

Agnieszka Nowak Brzezińska Wykład III

PROGRAMOWANIE W PYTHONIE OD PIERWSZYCH KROKÓW

Macierze - obliczanie wyznacznika macierzy z użyciem permutacji

Scenariusz lekcji. Metody pracy: Pogadanka, dyskusja, ćwiczenia praktyczne przy komputerze

Co to są drzewa decyzji

Metody iteracyjne rozwiązywania układów równań liniowych (5.3) Normy wektorów i macierzy (5.3.1) Niech. x i. i =1

Algebra Liniowa 2. Zadania do samodzielnych wicze«wydziaª Elektroniki, I rok Karina Olszak i Zbigniew Olszak

Systemy decyzyjne Wykªad 5: Drzewa decyzyjne

Data Mining Wykład 9. Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster. Plan wykładu. Sformułowanie problemu

Przedmiot: Informatyka w inżynierii produkcji Forma: Laboratorium Temat: Zadanie 4. Instrukcja warunkowa.

Grafem nazywamy strukturę G = (V, E): V zbiór węzłów lub wierzchołków, Grafy dzielimy na grafy skierowane i nieskierowane:

Metody bioinformatyki (MBI)

System Informatyczny CELAB. Przygotowanie programu do pracy - Ewidencja Czasu Pracy

ZADANIE 1. Ważenie (14 pkt)

SUBIEKT GT IMPORT XLS Towarów

Arkusz maturalny. Šukasz Dawidowski. 25 kwietnia 2016r. Powtórki maturalne

TWORZENIE SCHEMATÓW BLOKOWYCH I ELEKTRYCZNYCH

Kryteria punktowania zadań - KRAKOWSKA MATEMATYKA 2012/2013. Etap międzyszkolny - KRAKÓW MIASTO UCZONYCH I ŻAKÓW klasa piąta 1 D) 966 1

Inteligencja obliczeniowa Laboratorium 9: Sieci neuronowe.

Ewolucja Ró»nicowa - Wprowadzenie

Przestrzeń algorytmów klastrowania

dbsamples.udl lub przygotowany wcześniej plik dla Excela) i OK,

Priorytetyzacja przypadków testowych za pomocą macierzy

Analiza i projektowanie oprogramowania. Analiza i projektowanie oprogramowania 1/32

Cechy X, Y są dowolnego typu: Test Chi Kwadrat niezależności. Łączny rozkład cech X, Y jest normalny: Test współczynnika korelacji Pearsona

Ÿ1 Oznaczenia, poj cia wst pne

W dowolnej przeglądarce internetowej należy wpisać poniższy adres:

gdzie wektory α i tworz baz ortonormaln przestrzeni E n

ALGORYTMY MATEMATYCZNE Ćwiczenie 1 Na podstawie schematu blokowego pewnego algorytmu (rys 1), napisz listę kroków tego algorytmu:

Materiały dla finalistów

METODY INŻYNIERII WIEDZY

Ćwiczenie 12. Metody eksploracji danych

ZESTAW POPRAWNYCH ODPOWIEDZI DO ARKUSZA - ETAP WOJEWÓDZKI

Prawdopodobieństwo. Prawdopodobieństwo. Jacek Kłopotowski. Katedra Matematyki i Ekonomii Matematycznej SGH. 16 października 2018

Porównanie szeregów czasowych z wykorzystaniem algorytmu DTW

1 Wersja testu A 18 września 2014 r.

INFORMATOR TECHNICZNY WONDERWARE

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

2. Tablice. Tablice jednowymiarowe - wektory. Algorytmy i Struktury Danych

Bazy danych TERMINOLOGIA

1. Nagłówek funkcji: int funkcja(void); wskazuje na to, że ta funkcja. 2. Schemat blokowy przedstawia algorytm obliczania

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Wnioskowanie Boolowskie i teoria zbiorów przybli»onych

Sztuczna Inteligencja Projekt

Reguły asocjacyjne, wykł. 11

4.3 Grupowanie według podobieństwa

Karta adaptacyjna GSM

Zadania do wykonania. Rozwiązując poniższe zadania użyj pętlę for.






Program SMS4 Monitor

Problemy optymalizacyjne - zastosowania

Wykonanie projektu sygnalizacji świetlnej na przejściu dla pieszych przez ulicę Plebiscytową w Rydułtowach

Cel normalizacji. Tadeusz Pankowski

METODY INŻYNIERII WIEDZY

Instrukcja obsługi Kalkulator 15st.C ELATECH 2010

wiczenie nr 3 z przedmiotu Metody prognozowania kwiecie«2015 r. Metodyka bada«do±wiadczalnych dr hab. in». Sebastian Skoczypiec Cel wiczenia Zaªo»enia

PŁOCKA MIĘDZYSZKOLNA LIGA PRZEDMIOTOWA MATEMATYKA klasa V szkoła podstawowa marzec 2014

EGZAMIN MATURALNY 2012 INFORMATYKA

Teoria gier. wstęp Teoria gier Zdzisław Dzedzej 1

Asystent planisty w systemie USOS

Algorytm grupowania K-Means Reprezentacja wiedzy Selekcja i ocena modeli

Asocjacyjna reprezentacja danych i wnioskowanie

Metody eksploracji danych. Reguły asocjacyjne

Eksploracja danych. Grupowanie. Wprowadzanie Definicja problemu Klasyfikacja metod grupowania Grupowanie hierarchiczne. Grupowanie wykład 1

Reguły decyzyjne, algorytm AQ i CN2. Reguły asocjacyjne, algorytm Apriori.

Lekcja 1: Origin GUI GUI to Graficzny interfejs użytkownika (ang. GraphicalUserInterface) często nazywany też środowiskiem graficznym

Instrukcja obsługi. Sterownik ścienny KJR10B/DP

Zastosowanie programu Microsoft Excel do analizy wyników nauczania

Rozdział 3 ZADANIE TRANSPORTOWE I PROBLEM KOMIWOJAŻERA

Systemy uczące się wykład 2

Sztuczna Inteligencja Projekt

Transkrypt:

Sztuczna inteligencja 9999 pages 17 MEODY GRUPOWANIA DANYCH PB 1 CWICZENIE I 1. Ze zbioru danych iris.tab wybra nastepuj ce obiekty: ID SL SW PL PW C 1 5.1 3.5 1.4 0.2 Iris-setosa 2 4.9 3.0 1.4 0.2 Iris-setosa 3 4.7 3.2 1.3 0.2 Iris-setosa 51 7.0 3.2 4.7 1.3 Iris-ver 52 6.3 3.2 4.5 1.5 Iris-ver 53 6.9 3.1 4.9 1.5 Iris-ver 100 5.7 2.8 4.1 1.3 Iris-vir 101 6.3 3.3 6.0 2.5 Iris-vir 102 5.8 2.7 5.1 1.9 Iris-vir Nazwy atrybutów: SL- sepallength, SW - sepalwidth, PL- petallength, PW - petalwidth. C - klasykacja. 2. Wybra do oblicze«dwa atrybuty - sepallength oraz petallength, obliczy macierz podobie«stwa mi dzy parami wszystkich 9 obiektów. Na tym etapie, mamy 9 jednoelementowych grup Pobobie«stwo mi dzy dwoma obiektami p i oraz p j, obliczamy jako odlegªo± euklidesow : d ij = Na (p ia p ja ) 2 a=1 gdzie N a - liczba atrybutów, p ia - warto± atrybutu o numerze a dla obiektu o indeksie i. 3. Wykonac grupowanie obiektow, poprzez poª czenie dwu najbardziej podobnych obiektów w jedn grup, w wyniku otrzymujemy 8 grup obiektów, jedn grup dwuelementow, oraz 7 grup jednoelementowych. 4. Powtórzy grupowanie obiektów do momentu otrzymania trzech grup obiektów (ew. jednej 9-elementowej grupy obiektów). Miara podobie«stwa obiektów /grup obiektów. W przypadku, gdy wykonujemy obliczenia odlegªo±ci mi dzy dwiema grupami obiektów zªo»onych z k obiektów -

2 PB pierwsza grupa, oraz l obiektów - druga grupa. Wykonujemy obliczenie odlegªo±ci mi dzy wszystkimi parami obiektów x i, y j, gdzie x i - i-ty obiekt z grupy I, i = 1,..., k y j - j-ty obiekt z grupy II, j = 1,..., l oraz d xi,y j = Na (p xia p yja) 2 a=1 gdzie N a - liczba atrybutów, p xia - warto± atrybutu o numerze a dla obiektu x i z grupy pierwszej oraz p xia - warto± atrybutu o numerze a dla obiektu y i grupy drugiej. Metody ª czenia grup (scalania) 1. Miara (ang. nearest rst) - jako odlegªo± dwu grup rozumiemy najmniejsz z odlegªo±ci d xi,y j, wykonujemy ª czenie dwu grup, których odlegªo± jest najmniejsza. 2. Miara (ang. farest rst)- ª czymy grupy, dla których odlegªo± mi dzy dwoma najdalszymi obiektami jest najmniejsza. 3. Miara (ang. average rst)- ª czymy grupy, których ±rednia odlegªo± jest najmniejsza, Nadawanie wag poszczególnym atrybutom 5. Zastosowa wa»enie warto±ci atrybutów wedªug schematu: Niech min = min P L - warto± minimalna dla petallength max = max P L - warto± maksymalna dla petallength oraz w podobny sposób: min SL, min SW, min P W, max SL, max SW, max P W, d SL = max SL min SL d SW = max SW min SW d P L = max P L min P L d P W = max P W min P W Wag dla danego atrybutu obliczamy jako iloraz zakresu danego atrybutu do maksymalnego zakresu atrybutów, przykªadowo dla atrybutu petallength: 1. W P L = d P L max(d P L,P W,SW,SL )

MEODY GRUPOWANIA DANYCH 3 2. d P L sum(d P L,P W,SW,SL ) W P L = 1.0 W P L Wzór na odleglo± mi dzy dwoma atrybutami przybiera posta : d ij = Na W a (p ia p ja ) 2 2 CWICZENIE II Powtórzy zadanie dla atrybutów: 1. SW, PW 2. SW, PW, SL 3. SW, PW, SL, PL. oraz obiektów: a=1 1. 10, 15, 20, 60, 65, 70, 120, 125, 130. 2. 20, 25, 30, 85, 90, 95, 130, 135, 140. 3. 35, 40, 45, 70, 75, 80, 135, 140, 145. 3 CWICZENIE III 1. Uruchomi aplikacj WEKA - Explorer 2. Wczyta dane iris.ar 3. Wybra dwa atrybuty SL, PL 4. Przej± do zakladki Clusterer 5. Wybra algorytm SimpleKMeans 6. Dwukrotnie wcisn przycik myszy na nazwie algorytmu 7. Wprowadzi liczb grup-klas na jakie ma zosta podzielony badany zbiór - ustawi na trzy klasy. 8. Wykona grupowanie (przycisk Start) 9. Zapami ta ±rodki klas W arkuszu kalkulacyjnym przydzieli wszystkie obiekty do najbli»szych ±rodków klas. Powtórzy zadanie dla atrybutów: 1. SW, PW 2. SW, PW, SL

4 PB 3. SW, PW, SL, PL. oraz obiektów: 1. 10, 15, 20, 60, 65, 70, 120, 125, 130. 2. 20, 25, 30, 85, 90, 95, 130, 135, 140. 3. 35, 40, 45, 70, 75, 80, 135, 140, 145. 4 CWICZENIE IV 1. Uruchomi aplikacj WEKA - Explorer 2. Wczyta dane iris.ar 3. Wybra dwa atrybuty SL, PL 4. Przej± do zakladki Clusterer 5. Wybra algorytm EM 6. Dwukrotnie wcisn przycik myszy na nazwie algorytmu 7. Wprowadzi liczb grup-klas na jakie ma zosta podzielony badany zbiór - ustawi na trzy klasy. 8. Wykona grupowanie (przycisk Start) 9. Zapami ta ±rodki klas Powtórzy zadanie dla atrybutów: 1. SW, PW 2. SW, PW, SL 3. SW, PW, SL, PL. oraz obiektów: 1. 10, 15, 20, 60, 65, 70, 120, 125, 130. 2. 20, 25, 30, 85, 90, 95, 130, 135, 140. 3. 35, 40, 45, 70, 75, 80, 135, 140, 145. 5 CWICZENIE V Wykona polecenia z zadania pierwszego dla poni»szych danych: wybieraj c atrybuty: Powtórzy zadanie I, III, IV dla atrybutów: 1. T, H 2. T, H, W (przypisuj c 1 - dla TRUE, 0 - dla FALSE) 3. T, H, O (przypisuj c 0 - rainy, 0.5 - overcast, 1 dla sunny) 4. T, H, W, O (przypisuj c 1 - dla TRUE, 0 - dla FALSE), (przypisuj c 0 - rainy, 0.5 - overcast, 1 dla sunny) Literatura 1. Dokumentacja systemu WEKA.

MEODY GRUPOWANIA DANYCH 5 ID O T H W P 1 sunny 85.0 85.0 FALSE no 2 sunny 80.0 90.0 TRUE no 3 overcast 83.0 86.0 FALSE yes 4 rainy 70.0 96.0 FALSE yes 5 rainy 68.0 80.0 FALSE yes 6 rainy 65.0 70.0 TRUE no 7 overcast 64.0 65.0 TRUE yes 8 sunny 72.0 95.0 FALSE no 9 sunny 69.0 70.0 FALSE yes 10 rainy 75.0 80.0 FALSE yes 11 rainy 75.0 70.0 TRUE yes 12 overcast 72.0 90.0 TRUE yes 13 sunny 81.0 75.0 FALSE yes 14 sunny 71.0 91.0 TRUE no Rysunek 1:

6 PB Rysunek 2: Rysunek 3:

MEODY GRUPOWANIA DANYCH 7 Rysunek 4: Rysunek 5: