A Zadanie

Podobne dokumenty
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Elementy inteligencji obliczeniowej

Data Mining Wykład 5. Indukcja drzew decyzyjnych - Indeks Gini & Zysk informacyjny. Indeks Gini. Indeks Gini - Przykład

Systemy uczące się wykład 2

Metody klasyfikacji danych - część 1 p.1/24

Agnieszka Nowak Brzezińska Wykład III

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wprowadzenie do klasyfikacji

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Elementy modelowania matematycznego

Metody Sztucznej Inteligencji II

ALGORYTMY SZTUCZNEJ INTELIGENCJI

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Hierarchiczna analiza skupień

Metody klasyfikacji i rozpoznawania wzorców. Najważniejsze rodzaje klasyfikatorów

Teoria systemów uczacych się i wymiar Vapnika-Chervonenkisa

Wyk lad 8: Leniwe metody klasyfikacji

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Projekt Sieci neuronowe

komputery? Andrzej Skowron, Hung Son Nguyen Instytut Matematyki, Wydział MIM, UW

WYKŁAD 4. Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie. autor: Maciej Zięba. Politechnika Wrocławska

METODY INŻYNIERII WIEDZY

Wprowadzenie do uczenia maszynowego

Asocjacyjna reprezentacja danych i wnioskowanie

Agnieszka Nowak Brzezińska

wiedzy Sieci neuronowe

Algorytmy metaheurystyczne Wykład 11. Piotr Syga

Adrian Horzyk

Systemy uczące się Lab 4

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Popularne klasyfikatory w pakietach komputerowych

Agnieszka Nowak Brzezińska Wykład III

METODY INŻYNIERII WIEDZY

Klasyfikacja LDA + walidacja

METODY INŻYNIERII WIEDZY

Podstawy sztucznej inteligencji

Drzewa decyzyjne i lasy losowe

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Uczenie sieci typu MLP

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

Inteligentne systemy przeciw atakom sieciowym

Hard-Margin Support Vector Machines

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Wybór / ocena atrybutów na podstawie oceny jakości działania wybranego klasyfikatora.

Podstawy Sztucznej Inteligencji (PSZT)

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

operacje porównania, a jeśli jest to konieczne ze względu na złe uporządkowanie porównywanych liczb zmieniamy ich kolejność, czyli przestawiamy je.

1. Logika, funkcje logiczne, preceptron.

SYSTEMY UCZĄCE SIĘ WYKŁAD 3. DRZEWA DECYZYJNE. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

Uczenie sieci neuronowych i bayesowskich

Machine Learning for Data Science (CS4786) Lecture11. Random Projections & Canonical Correlation Analysis

Testowanie modeli predykcyjnych

WYKŁAD 11 Uczenie maszynowe drzewa decyzyjne

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Co to są drzewa decyzji

Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych. Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

Zastosowania sieci neuronowych

Data Mining Wykład 6. Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa.

SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006

MATLAB Neural Network Toolbox przegląd

7. Maszyny wektorów podpierajacych SVMs

WEKA klasyfikacja z użyciem sztucznych sieci neuronowych

Metody oceny podobieństwa

Klasyfikator. ˆp(k x) = 1 K. I(ρ(x,x i ) ρ(x,x (K) ))I(y i =k),k =1,...,L,

ALGORYTM RANDOM FOREST

Rozpoznawanie obrazów

Wybór modelu i ocena jakości klasyfikatora

Laboratorium 6. Indukcja drzew decyzyjnych.

Prof. Stanisław Jankowski

Rozpoznawanie twarzy metodą PCA Michał Bereta 1. Testowanie statystycznej istotności różnic między jakością klasyfikatorów

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2014/2015

SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

Lekcja 5: Sieć Kohonena i sieć ART

Wstęp do głębokich sieci neuronowych. Paweł Morawiecki IPI PAN

5. Analiza dyskryminacyjna: FLD, LDA, QDA

Uwaga: szarych kropek po pokolorowaniu nie uwzględniaj w klasyfikowaniu kolejnych szarych.

Drzewa spinające MST dla grafów ważonych Maksymalne drzewo spinające Drzewo Steinera. Wykład 6. Drzewa cz. II

Rozpoznawanie wzorców. Dr inż. Michał Bereta p. 144 / 10, Instytut Informatyki

Agnostic Learning and VC dimension

WYKŁAD 3. Klasyfikacja: modele probabilistyczne

8. Neuron z ciągłą funkcją aktywacji.

SZTUCZNA INTELIGENCJA

Systemy agentowe. Uwagi organizacyjne i wprowadzenie. Jędrzej Potoniec

Sztuczna inteligencja : Algorytm KNN

y = The Chain Rule Show all work. No calculator unless otherwise stated. If asked to Explain your answer, write in complete sentences.

Rozpoznawanie obrazów

Optymalizacja reguł decyzyjnych względem pokrycia

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

Przykładowa analiza danych

Metody systemowe i decyzyjne w informatyce

Uczenie ze wzmocnieniem aplikacje

EGZAMIN MAGISTERSKI, czerwiec 2015 Biomatematyka

Jakość uczenia i generalizacja

Klasyfikacja obiektów Drzewa decyzyjne (drzewa klasyfikacyjne)

Transkrypt:

where a, b, and c are binary (boolean) attributes. A Zadanie 1 2 3 4 5 6 7 8 9 10 Punkty a (maks) (2) (2) (2) (2) (4) F(6) (8) T (8) (12) (12) (40) Nazwisko i Imiȩ: c Uwaga: ta część zostanie wypełniona przez egzaminatora! b F T F T Nr. indeksu: True False False F c T Systemy uczące się SUS 2012 False Czas pisania pracy: 75 minut True 1. [4 punkty] W tabeli poniżej przedstawiony jest zbiór treningowy, w którym każdy przykład ma cztery atrybuty B-2(a 1, Information a 2, a 3, a 4 ) i decyzję Gain (c). a. Jaka jest entropia tego zbioru danych? The table below describes a training dataset where each sample has four attributes (a 1, a 2, a 3, and a 4 ) and a corresponding class (c). a 1 a 2 a 3 a 4 c a) What is the entropy for this dataset? 0 0 1 0 + b. Jaki jest oczekiwany b) What przyrost is informacji the expected (Information information Gain) po 0 1 1 1 + obserwacji atrybutu gaina 1 from? measuring a 1? 0 0 0 0 1 1 0 0 2. [4 punkty] Co to jest boosting? a) Proces, w którym przestrzeń hipotez jest explicite kolejno uzupełniana nowymi elementami. b) Niekorzystny efekt przeuczenia, gdy w modelu jest zbyt wiele stopni swobody. c) Technika budowy klasyfikatorów poprzez łączenie wielu słabych uczniów. d) Korzystny efekt wpływający na tempo uczenia. 3. [4 punkty] Co się stanie, gdy zwiększymy liczbę ukrytych węzłów w dwuwarstowej sieci neuronowej? 3 a) Będzie w stanie reprezentować bardziej skomplikowane wzorce. a) Będzie mniej skłonna do przeuczenia. a) Będzie lepiej generalizowała/uogólniała. a) Sieć będzie szybciej zbiegała. 4. [8 punkty] Dany jest następujący zbiór punktów w R 2 : {A = (5, 3), B = (4, 0), C = (6, 0), D = (1, 0), E = (3, 0), F = (1, 1), G = (6, 2), H = (2, 3), I = (1, 2), J = (4, 4), K = (3, 1), L = (4, 1), M = (6, 1), N = (3, 4)}. Wypisz wektor grupowania na dwa podzbiory (przypisz poszczególnym punktom numer grupy), który jest wynikiem zastosowania hierarchicznego algorytmu aglomeracyjnego z minimum jako funkcją łączącą (single linkage) (w metryce Euklidesowej). A-1/5

5. [8 punkty] Dane są obiekty {(0, 0, +), (1, 0, +), (0, 3, ), (1, 3, ), (0, 6, +), (1, 6, +)}. Oszacujemy skuteczność algorytmu k-nn przy k = 3 (z metryką Euklidesową) metodą 3-CV, czyli walidacją krzyżową z trzema równolicznymi podzbiorami. a. Jaka jest najmniejsza możliwa skuteczność algorytmu? Odpowiedź uzasadnij. b. Jaka jest największa możliwa skuteczność algorytmu? Odpowiedź uzasadnij. 6. [8 punkty] Skonstruuj sieć neuronową która dla danych wejściowych (x, y) [0, 1] [0, 1] rozpoznaje obszar zaznaczony na rysunku. 1 0.5 Zakładamy, że funkcją aktywacji jest: 0 0.5 1 f(w) = { 1 dla w 0 1 dla w < 0 Podaj najprostszą możliwą strukturę sieci oraz wagi poszczególnych neuronów. A-2/5

7. [12 punkty] Zadana jest tablica danych: has shell aquatic predator venomous type F F T F mollusc T T T F mollusc T F F F insect T F F T insect T T F F insect F F T F insect F F T T mollusc T F T T mollusc F T F F mollusc a. Wypisz najlepszą regułę długości 1. a. Wypisz najlepszą regułę długości 2. Wskazówka: Regułę taką można wygenerować algorytmem CN2 dla K 3. Do obliczania jakości reguł wykorzystaj estymatę Laplace a zdefiniowaną jako: L(τ) = S d(τ) + 1 S(τ) + N d, gdzie S(τ) odpowiada liczbie obiektów wspierających regułę τ, S d (τ) to liczba obiektów poprawnie klasyfikowanych przez τ, a N d to liczba klas decyzyjnych. 8. [8 punkty] Na podstawie tablicy decyzyjnej z Zadania 7 sklasyfikuj obiekt x = (T, T, F, T,?) przy pomocy algorytmu NaiveBayes. 9. [12 punkty] Rozpatrzmy przestrzeń R n +, czyli przestrzeń n-wymiarowych wektorów o współczynnikach dodatnich. Niech K θ będzie funkcją definiowaną jak następująco: K θ : R n + R n + R n (a, b) K θ (a, b) = δ θ (a i, b i ) i=1 A-3/5

gdzie a = a 1,... a n, b b 1,... b n są wektorami z R n +, a { 1 jeśli ai > θ oraz b i > θ δ θ (a i, b i ) = 0 wpp Innymi słowami, K θ (a, b) jest liczbą pozycji, w których oba wektory a i b mają większą wartość niż próg θ. a. Pokazać, że K θ (a, b) jest funkcją jądrową (ang. kernel function) dla pewnego zanurzenia przestrzeni R n + w inną przestrzeń. b. Naszym celem jest szukanie dobrej wartości θ dla odpowiedniego klasyfikatora SVM. Jak się zachowuje funkcja K θ (a, b)? (wsk. podaj właściwości liczbowe tej miary kiedy zmieniamy wartość θ od 0 do. c. Zaproponuj (heurystyczny) algorytm ustalenia optymalnej wartości dla θ A-4/5

Machine Learning - Fall 2009 7. [ Extra credit 10 points] VC dimension 10. [12 punkty] Niech X = R 2, czyli X jest przestrzenią wszystkich punktów na płaszczyźnie. Rozpatrujemy klasę K zawierającą hipotezy definiowane jako części wspólne dwóch perceptronów (półpłaszczyzn). Każda hipoteza może być traktowana jako wypukły kąt na płaszczyźnie (por. rysunek obok). a. Pokazać, że trzy punkty mogą być rozbite (ang. shattered) przez hipotezy z K; Consider the space of points in the plane. Consider the class of hypotheses defined by co of two perceptrons (each with two inputs). An example of such a hypothesis is shown in below. (a) [2 points] Show a set of 3 points in the plane that can be shattered by this hypothe (b) [2 points] Show a set of points in the plane that cannot be shattered by this hypoth b. Podaj przykład zbioru punktów na płaszczyźnie, który nie jest rozbity przez klasę K; (c) [6 points] What is the exact VC-dimension of this hypothesis class? Show your re c. Oblicz wymiar Vapnika-Chervonenkisa V Cdim dla klasy hipotez K. Odpowiedź uzasadnij. A-5/5