Asocjacyjna reprezentacja danych i wnioskowanie

Podobne dokumenty
Metody Inżynierii Wiedzy

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

METODY INŻYNIERII WIEDZY ASOCJACYJNA REPREZENTACJA POWIĄZANYCH TABEL I WNIOSKOWANIE IGOR CZAJKOWSKI

METODY INŻYNIERII WIEDZY

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

METODY INŻYNIERII WIEDZY

Adrian Horzyk

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

METODY INŻYNIERII WIEDZY

Co to jest grupowanie

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Projekt Sieci neuronowe

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

Systemy uczące się Lab 4

Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych. Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS


Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Metody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF.

Sztuczna inteligencja : Algorytm KNN

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

Elementy inteligencji obliczeniowej

operacje porównania, a jeśli jest to konieczne ze względu na złe uporządkowanie porównywanych liczb zmieniamy ich kolejność, czyli przestawiamy je.

Lekcja 5: Sieć Kohonena i sieć ART

Rozpoznawanie obrazów

Temat: Sieci neuronowe oraz technologia CUDA

Sieci Kohonena Grupowanie

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

8. Neuron z ciągłą funkcją aktywacji.

Algorytm grupowania danych typu kwantyzacji wektorów

A Zadanie

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Data Mining Wykład 9. Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster. Plan wykładu. Sformułowanie problemu

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Systemy uczące się wykład 2

Optymalizacja optymalizacji

Metody klasyfikacji i rozpoznawania wzorców. Najważniejsze rodzaje klasyfikatorów

Algorytm grupowania danych typu kwantyzacji wektorów

Instytut Informatyki Uniwersytet Wrocławski. Dane w sieciach. (i inne historie) Marcin Bieńkowski

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Elementy modelowania matematycznego

Wstęp do sztucznych sieci neuronowych

SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU)

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Metody Sztucznej Inteligencji II

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

P R Z E T W A R Z A N I E S Y G N A Ł Ó W B I O M E T R Y C Z N Y C H

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

I EKSPLORACJA DANYCH

Zastosowania sieci neuronowych

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.

Agnieszka Nowak Brzezińska

wiedzy Sieci neuronowe

Sztuczna inteligencja : Zbiory rozmyte cz. 2

Systemy uczące się wykład 1

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017

Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę

Algorytmy genetyczne w interpolacji wielomianowej

SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006

Metody systemowe i decyzyjne w informatyce

SIECI REKURENCYJNE SIECI HOPFIELDA

Algorytmy metaheurystyczne Wykład 11. Piotr Syga

Uczenie sieci radialnych (RBF)

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

WSTĘP I TAKSONOMIA METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING. Adrian Horzyk. Akademia Górniczo-Hutnicza

Testowanie modeli predykcyjnych

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

Kompresja danych Streszczenie Studia Dzienne Wykład 10,

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Klasyfikacja LDA + walidacja

Adrian Horzyk

Obliczenia inteligentne Zadanie 4

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 8 Uczenie nienadzorowane.

Agnieszka Nowak Brzezińska Wykład III

Podstawy OpenCL część 2

Podstawy Sztucznej Inteligencji (PSZT)

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Wprowadzenie do klasyfikacji

SIECI KOHONENA UCZENIE BEZ NAUCZYCIELA JOANNA GRABSKA-CHRZĄSTOWSKA

Zadania laboratoryjne i projektowe - wersja β

METODY SZTUCZNEJ INTELIGENCJI 2 Opis projektu

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2014/2015

Optymalizacja. Przeszukiwanie lokalne

Metody klasyfikacji danych - część 1 p.1/24

Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej

Dokumentacja Końcowa

Alfa-beta Ulepszenie minimax Liczba wierzchołk ow w drzewie gry. maksymalnie wd. minimalnie wbd/2c + wdd/2e Algorytmy przeszukiwania drzewa gry 5

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.

x 1 x 2 x 3 x n w 1 w 2 Σ w 3 w n x 1 x 2 x 1 XOR x (x A, y A ) y A x A

Systemy Wspomagania Decyzji

Bazy danych wykład dwunasty. dwunasty Wykonywanie i optymalizacja zapytań SQL 1 / 36

Sieci neuronowe w Statistica


WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

1.7. Eksploracja danych: pogłębianie, przeszukiwanie i wyławianie

Transkrypt:

Asocjacyjna reprezentacja danych i wnioskowanie

Wykorzystane technologie JetBrains PyCharm 504 Python 35

Struktura drzewa GRAPH PARAM PARAM ID1 ID2 ID_N params params params param_name_1: param_value_1 param_name_2: param_value_2 param_name_1: param_value_1 param_name_2: param_value_2 param_name_1: param_value_1 param_name_2: param_value_2 param_name_n: param_value_n param_name_n: param_value_n param_name_n: param_value_n similarities similarities similarities strong_similarities strong_similarities strong_similarities

Struktura drzewa GRAPH PARAM PARAM ID1 ID2 ID_N params params params param_name_1: param_value_1 param_name_2: param_value_2 param_name_1: param_value_1 param_name_2: param_value_2 param_name_1: param_value_1 param_name_2: param_value_2 param_name_n: param_value_n param_name_n: param_value_n param_name_n: param_value_n similarities similarities similarities strong_similarities strong_similarities strong_similarities

Struktura drzewa PARAM NAME_1 ATTRIBUTE_VALUES ATTRIBUTE_NAMES NAME_2 ATTRIBUTE_VALUES NAME_N ATTRIBUTE_VALUES VAL_1 OBJECT_IDS VAL_1 OBJECT_IDS VAL_1 OBJECT_IDS VAL_2 OBJECT_IDS VAL_2 OBJECT_IDS VAL_2 OBJECT_IDS VAL_N OBJECT_IDS VAL_N OBJECT_IDS VAL_N OBJECT_IDS

Struktura drzewa GRAPH PARAM PARAM ID1 ID2 ID_N params params params param_name_1: param_value_1 param_name_2: param_value_2 param_name_1: param_value_1 param_name_2: param_value_2 param_name_1: param_value_1 param_name_2: param_value_2 param_name_n: param_value_n param_name_n: param_value_n param_name_n: param_value_n similarities similarities similarities strong_similarities strong_similarities strong_similarities

Struktura drzewa GRAPH PARAM PARAM ID1 ID2 ID_N params params params param_name_1: param_value_1 param_name_2: param_value_2 param_name_1: param_value_1 param_name_2: param_value_2 param_name_1: param_value_1 param_name_2: param_value_2 param_name_n: param_value_n param_name_n: param_value_n param_name_n: param_value_n similarities similarities similarities strong_similarities strong_similarities strong_similarities

Similarities Wagi podobienstw Każdy obiekt ma tablicę podobieństw o rozmiarze równym ilości obiektów w bazie Każdy element tablicy odpowiada wartości podobieństwa danego obiektu i obiektu o id = indeksowi tablicy id1 id1 id2 id_n w a,b = n i=0 (1 a b MAX Pi MIN Pi )

Struktura drzewa GRAPH PARAM PARAM ID1 ID2 ID_N params params params param_name_1: param_value_1 param_name_2: param_value_2 param_name_1: param_value_1 param_name_2: param_value_2 param_name_1: param_value_1 param_name_2: param_value_2 param_name_n: param_value_n param_name_n: param_value_n param_name_n: param_value_n similarities similarities similarities strong_similarities strong_similarities strong_similarities

Strong similarities Wagi silnych podobieństw Wartość podobieństwa inkrementowana jest o 1, w przypadku gdy oba badane obiekty mają tą samą wartość danego parametru Wartości w tabeli mogą być tylko całkowite z zakresu (0,n), gdzie n ilość parametrów id1 id1 Id2 id_n 4 (4 takie same parametry) 3 (3 takie same parametry) 1 (1 taki sam parametr)

Realizacja

Realizacja

Realizacja

Realizacja

Realizacja

Realizacja

Realizacja

Funkcjonalności Dodanie nowego obiektu do grafu Szukanie obiektów o zadanej wartości danego atrybutu Filtracja obiektów po wartościach zadanych atrybutów Znajdywanie obiektu po id Znajdywanie najbardziej podobnych n obiektów do obiektu o zadanym id Znajdywanie najbardziej podobnych n obiektów do obiektu o zadanych atrybutach Znajdywanie najmniej podobnych n obiektów do obiektu o zadanym id Znajdywanie najmniej podobnych n obiektów do obiektu o zadanych atrybutach Znajdywanie obiektu o maksymalnej wartości zadanego atrybutu Znajdywanie obiektow o wartosciach atrybutu z podanego zakresu

Porównanie czasowe Funkcja Bez grafu Z zastowaniem grafu Obiekty o zadanym parametrze Obiekty o zadanych parametrach 10 obiektow najbardziej podobnych do obiektu o zadanym id 10 obiektow najbardziej podobnych do obiektu o zadanych parametrach Obiekt o najwiekszej wartości zadanego parametru Obiekty o parametrach w zadanym przedziale 000169351051901 299357920027e-06 0000679542478461 119743168011e-05 0125938620987493 000565144987594 0634647574562377 00151462277908 0009387928783985 299357920027e-06 0019794387329487 346399878888e-05

Podsumowanie Zastosowanie struktur AGDS znacznie przyspieszyło pracę algorytmu Dla niektórych funkcjonalności możemy zaobserwować nawet, że algorytm działa około 1000 razy szybciej! Ponadto zastosowanie grafu pozwala na przejrzyste przedstawienie danych I ich łatwe przeszukiwanie

Eksploracja Danych

Eksploracja danych Wprowadzenie zbioru danych Obliczenie wsparcia dla danych częstotliwości wystąpień wzorca lub zbioru elementów Określenie progu wsparcia, na którego podstawie usunięte są zbiory rzadkie Określenie reguł asocjacyjnych dla zbiorów częstych Ekwiwlentna transformacja klas

SOM-MAPY SAMOORGANIZUJĄCE SIĘ SOM to przykład sieci neuronowych uczony metodą uczenia nienadzorowanego, czyli bez określenia np klasy, do której należą wzorce wejściowe Sieć SOM na podstawie podobieństwa wzorców wejściowych aktualizuje wagi neuronów na zasadach rywalizacji w taki sposób, iż neuron najbardziej pobudzony ze względu na największe podobieństwo do wzorca uczącego staje się zwycięzcą, którego wagi zostają najmocniej zmodyfikowane w porównaniu z sąsiednimi neuronami, dla których przyjmujemy zwykle mniejsze modyfikacje wag Dzięki modyfikacjom wag sąsiednich neuronów uzyskujemy możliwość sąsiedniej reprezentacji podobnych klas wzorców

SOM-MAPY SAMOORGANIZUJĄCE SIĘ NEURON TABLE

SOM-MAPY SAMOORGANIZUJĄCE SIĘ NEURON TABLE NEURON

SOM-MAPY SAMOORGANIZUJĄCE SIĘ NEURON PARAMS DISTANCE Leaf-length Leaf-width Petal-length Petal-length

SOM-MAPY SAMOORGANIZUJĄCE SIĘ 1 Utworzenie tablicy neuronów z parametrami zainicjalizowanymi randomowo 2 Obliczenie odległosci kazdego elementu ze zbioru uczącego do każdego z neuronów w tablicy 3 Wybranie neuronu najbliższego dla neuronu testowanego 4 Aktualizacja parametrów w neuronach Najbardziej aktualizowany jest neuron najbliższy Parametry sąsiadów neurona najmocniej pobudzonego zmieniane są zgodnie ze wzorem biorącym pod uwagę wage wyliczoną z odległosci danego sasiada od neurona najbardziej pobudzonego

Walidacja krzyżowa

Walidacja krzyżowa Walidacja krzyzowa to metoda polegajaca na podziale zbioru na zbior uczacy i walidacyjny k Kazdy z elementów zbioru uczącego (niebieski), ma zaimplementowaną tablicę: V1 V2 Suma odległosci badanego elementu od poszczegolnych elementów ze zbioru walidacyjnego, o klasie V1, podzielona przez liczbę zsumowanych elementów V3

Walidacja krzyżowa Dzięki takiej implenetacji, możemy zbadać do jakiej kalsy należą element zbioru uczącego W moim przypadku po przelosowaniu zbiorow walidacyjnych i uczacych dla k = 10 otrzymywana skuteczność wynosci 95-100% dla k = 20 skutecznosc wynosila od 90-100% Przy zwiększającym się k skuteczność spada ponieważ zmniejsza się liczba elementów zbioru walidacyjnego Ostatnim etapem było obliczenie optymalnego k, dla którego skuteczność działania walidacji jest najlepsza Walidacje przeprowadzono 10 razy na przelosowannych danych Optymalne k = 8 Jest to największe k o stuprocentowej skuteczności

KNN Podstawowa metoda KNN polega na podziale zbioru na zbiór uczący I walidacyjny: k Następnie obliczana jest odległosc danego elementu ze zbioru uczącego do elementu ze zbioru walidacyjnego W kolejnym kroku obliczana jest ilość wystąpień poszczegołnych klas pośród k najblizszych elementow Klasa która najczęsciej się powtarza przypisywana jest elementowi badanemu Skuteczność tej metody jest znacznie mniejsza niz walidacji krzyżowej Otrzymywane przez mnie wartości skuteczności są rzędu 70-90%

Dziękuję za uwagę