Metody statyczne selekcji i konstruowania cech dla wizualizacji danych wielowymiarowych
|
|
- Zuzanna Woźniak
- 7 lat temu
- Przeglądów:
Transkrypt
1 Metody statyczne selekcji i konstruowania cech dla wizualizacji danych wielowymiarowych Jerzy Stefanowski (PCA Robert Susmaga) Instytut Informatyki Politechniki Poznańskiej Wykład InfoVis dla TWO 205
2 Agregacje i przekształcenia atrybutów Połącz dwa lub więcej atrybutów (zmiennych), skonstruuj nowe atrybuty albo dokonaj selekcji atrybutów Zmniejsz rozmiary danych (zachowując podstawowe właściwości) Cele Wizualizacja w mniejszych przestrzeniach lepsza percepcja człowieka Mogą zwiększyć czytelność reprezentacji Zmniejszenie wymagań dot. zbierania danych Inne transformacje samych atrybutów Zmień skale / granulacje informacji Cities aggregated into regions, states, countries,
3 Przekleństwo wymiarowości Curse of dimensionality [Bellman 96] W celu dobrego przybliżenia funkcji (także stworzenia klasyfikatora) z danych: The number of samples required per variable increases exponentially with the number of variables Liczba obserwacji żądanych w stosunku do zmiennej wzrasta wykładniczo z liczbą zmiennych Oznacza to konieczność zdecydowanego wzrostu niezbędnych obserwacji przy dodawaniu kolejnych wymiarów
4 Przykład problemu [D.Mladenic 2005] Data set Five Boolean features F F 2 F 3 F 4 F 5 C C = F V F F 3 = F 2,F 5 = F Optimal subset: 0 0 {F, F 2 } or {F, F 3 } optimization in space of all feature subsets ( F 2 possibilities) (tutorial on genomics [Yu 2004])
5 Różne podejścia do redukcji wymiarów Selekcja cech, zmiennych (cech, atrybutów,..) Wybierz podzbiór zmiennych F F Konstrukcja nowych zmiennych Metody projekcji nowe cechy zastępują poprzednie; Statystyczne PCA, MDS vs. sztuczne sieci neuronowe (SOM, GN, ) Wykorzystanie wiedzy dziedzinowej Wprowadzenie nowych cech (oprócz istniejących) Indukcja konstruktywna (R.Michalski)
6 Selekcja cech vs. konstrukcja nowych cech Za A.Berge
7 Redukcja rozmiarów danych Selekcja atrybutów Dany jest n elementowy zbiór przykładów (obiektów). Każdy przykład x jest zdefiniowany na V V2 Vm gdzie Vi jest dziedziną i-tego atrybutu. W przypadku nadzorowanej klasyfikacji przykłady zdefiniowane są jako <x,y> gdzie y określa pożądaną odpowiedź, np. klasyfikację przykładu. Cel selekcji atrybutów: Wybierz minimalny podzbiór atrybutów, dla którego rozkład prawdopodobieństwa różnych klas obiektów jest jak najbliższy oryginalnemu rozkładowi uzyskanemu z wykorzystaniem wszystkich atrybutów. Nadzorowana klasyfikacja Dla danego algorytmu uczenia i zbioru uczącego, znajdź najmniejszy podzbiór atrybutów dla którego system klasyfikujący przewiduje przydział obiektów do klas decyzyjnych z jak największą trafnością.
8 Selekcja w trakcie wstępnego przetwarzania danych Ocena pojedynczych atrybutów: testy χ2 i miary siły związku, miary wykorzystujące względną entropie między atrybutem warunkowym a decyzyjnym (ang. info gain, gain ratio),... Ocena podzbiorów atrybutów (powinny być niezależne wzajemnie a silnie zależne z klasyfikacją): Miara korelacji wzajemnych, Statystyki λ Wilksa, T2-Hotellinga, odległości D2 Mahalanobisa, Redukty w teorii zbiorów przybliżonych, Techniki dekompozycji na podzbiory (ang. data table templates)... Model filter vs. wrapper
9 WEKA attribute selection
10 Ranking with? WEKA
11 Jak wykorzystać ranking atrybutów Wybierz powyżej progu τ Mediana czy inny?
12 Przykład selekcji cech w eksploracji danych Rozważmy rzeczywisty przykład z zakresu diagnostyki technicznej Autosan H9-2(prototyp 969, produkowany lata 73-84) w Sanockiej Fabryce Autobusów Metodycznie klasyfikacja nadzorowana Lecz istotne pytanie o ważność cech i możliwość ich selekcji
13 Analiza diagnostycznej bazy danych Bada się stan techniczny 80 autobusów tego samego typu (dokładnie ich silników) na podstawie symptomów stanu technicznego - parametrów pochodzących z okresowych badań diagnostycznych Pierwsza klasyfikacja D: autobusy są podzielone na dwie klasy: dobry i zły stan techniczny pojazdu Możliwa jest druga klasyfikacja D2 + stan przejściowy Cel analizy Ocenia się jakość diagnostyczną symptomów stanu technicznego (pośrednio ocena przydatności tzw. wartości granicznych) Ocena ważności poszczególnych symptomów Ewentualność rankingu lub selekcji Poszukuje się zależności pomiędzy wartościami najistotniejszych w tych symptomów a przydziałem do klas Konstruuje się klasyfikator stanu technicznego
14 Opis danych 80 obserwacji (autobusów) 8 atrybutów max speed km/h Compresion preasure Mpa blacking components in exhaust gas [%] torque Nm summer fuel consumption l/00km winter fuel consumption l/00km oil consumption l/000km max horesepower km D: [,2] Stan techniczny pojazdu: dobry, 2 zły lub 3 klasy D2: [,2,3]
15 Scatter point matrix WEKA - Visualization
16 Analiza współzależności Macierz korelacji Statsoft Statistica
17 Powiązanie pewnych symptomów Można zrobić wykresy korelacyjne (rozrzutu XY) Horsepow er Torque Wiedza dziedzinowa ciśnienie sprężania powiązane jest z momentem obrotowym, im większe ciśnienie tym większy można uzyskać moment obrotowy, moment obrotowy powiązany jest z mocą pojazdu, zawartość elementów smołowatych i zużycie oleju świadczyć może o wieku silnika i jego stanie technicznym, Mniejsza użyteczność info. o zużyciu paliwa (warunki, styl jazdy,..)
18 WEKA visualize
19 Select attributes z WEKA Różne metody lekko zróżnicowane selekcje Możliwe jest ograniczenie do podzbiorów z 3 atrybutami
20 Drzewo J4.8 (WEKA)
21 WEKA Scatterplot Visualization A3 (ciśnienie sprężania) vs. A9 (rzeczywista moc silnika) i 2 klasy
22 Metody projekcji tworzenie nowych atrybutów Principal Component Analysis PCA Analiza składowych głównych / Carl Pearson 90 Hotelling (933) rozwinięte i zastosowane do analizy testów osiągnięć szkolnych Wystarczą 2 składowe zdolności słowne i matematyczne Dla n obserwacji z m wymiarowej przestrzeni znajdź c ortogonalnych wektorów (c << m), które dobrze reprezentują właściwości oryginalnych danych. Jak dokonać dobrej konstrukcji / redukcji wymiarów bez znaczącej utraty informacji? Używane do kompresji danych i lepszej wizualizacji ogólnych prawidłowości w związkach między danymi Przeznaczone do danych liczbowych. Oprogramowanie statystyczne Statsoft i inne Więcej opisów i przykładów książki Larose / Stanisz / Krzyśko,Wołyński
23 PCA analiza składowych głównych () Istota to ortogonalne przekształcenie początkowych skorelowanych zmiennych w nowy zbiór nieskorelowanych zmiennych Całkowita wariancja zmiennych jest równa sumie wariancji składowych głównych Problem wyboru nowych składowych Każdy z nowych wektorów jest kombinacją liniową pewnych składowych głównych (odnoszących się do oryginalnych zmiennych)
24 PCA analiza składowych głównych (2) Nowe nieskorelowane zmienne (tzw. składowe główne) powstają z przekształcenia oryginalnych zmiennych skorelowanych, w taki sposób aby w maksymalnym stopniu wyjaśniać całkowitą wariancję w próbie zmiennych oryginalnych. Formalnie wariancje składowych głównych są wartościami własnymi macierzy kowariancji oryginalnych zmiennych (the eigenvectors of the covariance matrix). Pierwsza składowa główna redukuje największą część zróżnicowania, druga kolejną której nie redukowała poprzednia itp. x 2 e x
25 Przykład: PCA dla danych dwuwymiarowych duża wariancja b. duża wariancja b. mała wariancja duża wariancja Pod względem wariancji stare zmienne: małe zróznicowanie nowe zmienne: duże zróznicowanie Slajd dzieki dr R.Susmaga
26 Przykład: PCA dla danych dwuwymiarowych 7 6 duża wariancja duża wariancja duża wariancja 5 4 duża wariancja Pod względem wariancji stare zmienne: małe zróznicowanie nowe zmienne: małe zróznicowanie Slajd dzieki dr R.Susmaga
27 Procedura PCA więcej matematyki Dana jest macierz danych: X (obserwacje w wierszach) oblicz macierz kowariancji S x = X T X można pominąć mnożnik (/(m )) czy (/m) macierz S x jest symetryczna i pozwala ocenić wariancje zmiennych (elementy na głównej przekątnej) zależności pomiędzy zmiennymi (elementy poza główną przekątną) dokonaj rozkładu: S x = KLK T utwórz nowe zmienne wykonując operację Y = XK Slajd dzieki dr R.Susmaga
28 Procedura PCA Wniosek : macierz kowariancji S Y zmiennych przekształconych Y wyraża się macierzą diagonalną L (utworzoną z wartości własnych macierzy S x ) kowariancje zmiennych przekształconych (elementy pozadiagonalne macierzy S Y ) są równe zero nowe zmienne są niezależne liniowo wariancje zmiennych przekształconych (elementy diagonalne macierzy S Y ) są równe wartościom własnym macierzy S x (zapisanym na przekątnej macierzy L) można je poznać tuż po wyliczeniu wartości własnych macierzy S x, a więc jeszcze przed wyliczeniem nowej macierzy danych Y = XK Slajd dzieki dr R.Susmaga
29 PCA nowy układ współrzędnych Osie uporządkowane wzdłuż zmienności / wariancji Weź k pierwszych składowych PCA V k k λ k = i= d j= λ j Starając się zachować przynajmniej ~ wystarczająco dużo % zmienności całkowitej Na podstawie tzw. wykresu osypiska
30 PCA może pomóc zrozumieć strukturę danych za książka Elements of Statistical Learning, Friedman, Hastie, Tibushirani
31 Zastosowania PCA: wizualizacja danych wielowymiarowych Przykłady 5 samochodów osobowych Atrybuty 4 wybrane parametry zużycie paliwa [/00 l/km], zakres: [6,0], typ: strata przyspieszenie do 00km/h [s], zakres: [9,4], typ: strata cena [tys. PLN], zakres: [24, 94], typ: strata wyposażenie [punkty uznaniowe], zakres: [, 0], typ: zysk Przykład dr R.Susmaga
32 PCA: wizualizacja danych wielowymiarowych (2) Oryginalne opisy 5 samochodów (tabela danych) Marka Model Zużycie Przyspieszenie Cena Wyposażenie Alfa Romeo 56 8, 9,3 7,4 9 Audi A4 7,9,9 93,35 0 BMW 36l 7,5 2,3 8,79 8 Daewoo Lanos 8,4 2,2 34,90 3 Honda Civic 6,7 0,8 48,90 7 Hyunday Accent 6,4,7 35,30 2 Lada Samara 7,2 3,0 24,90 2 Mitsubishi Carisma 7,2 2,0 60,60 9 Opel Astra II 7,0 2,0 56,95 8 Peugeot 206 XR 6,6 3,2 38,36 4 Renault Megane 7,0 9,9 50,05 9 Saab 9 3S 9,7,0 85,35 8 Seat Cordoba 8,3 0,9 44,99 8 Toyota Corrola 7,7 0,2 50,36 4 Volkswagen Golf IV 8,3 9,9 6,62 6
33 PCA: wizualizacja danych wielowymiarowych (2) Znormalizowane opisy 5 samochodów Marka Model Zużycie Przyspieszenie Cena Wyposażenie Alfa Romeo 56 0,57 -,74 0,76 0,93 Audi A4 0,34 0,46,87,3 BMW 36l -0, 0,80,29 0,56 Daewoo Lanos 0,92 0,72 -,05 -,34 Honda Civic -,03-0,47-0,35 0,8 Hyunday Accent -,37 0,29 -,03 -,34 Lada Samara -0,46,40 -,55 -,72 Mitsubishi Carisma -0,46 0,55 0,23 0,93 Opel Astra II -0,69 0,55 0,05 0,56 Peugeot 206 XR -,4,57-0,88-0,96 Renault Megane -0,69 -,23-0,29 0,93 Saab 9 3S 2,40-0,30,47 0,56 Seat Cordoba 0,80-0,39-0,55 0,56 Toyota Corrola 0, -0,98-0,28-0,96 Volkswagen Golf IV 0,80 -,23 0,29-0,20
34 Trochę macierzy
35 Nowe zmienne
36 Zastosowania PCA: wizualizacja danych wielowymiarowych 3 2 Audi A4 BMW 36l Mitsubishi Opel Astra Carisma II Peugeot 206 XR 0 - Honda Civic Lada Samara Renault Megane Hyunday Accent Saab 9 3S Seat Cordoba Alfa Romeo 56 Daewoo Lanos Volkswagen Toyota Golf IVCorrola
37 Niezrównoważenie rozkładu w klasach (Class Imbalance) Dane są niezrównoważone, jeśli klasy nie są w przybliżeniu równoliczne Klasa mniejszościowa (minority class) zawiera wyraźnie mniej przykładów niż inne klasy Przykłady z klasy mniejszościowej są często najważniejsze, a ich poprawne rozpoznawanie jest głównym celem. Rozpoznawanie rzadkiej, niebezpiecznej choroby, CLASS IMBALANCE powoduje trudności w fazie uczenia i obniża zdolność predykcyjną Class imbalance is not the same as COST sensitive learning. In general cost are unknown!
38 Przykład niezrównoważonych danych UCI repository Cleveland medical data
39 Podglądajmy rzeczywiste dane Wizualizacja 2 pierwszych składowych w metodzie PCA Thyroid 25 ob./ 35 Haberman 306 ob. / 8
40 MDS wizualizacja danych niezrównoważonych Skalowanie wielowymiarowe
41 t-sn visualisation New Thyroid Ecoli Safe Border t-distributed Stochastic Neighbor Embedding (t-sne) Keeps probability that i is a neighbor of j / local distances
42 t-sn visualisation Glass Rare, Outlier
43 natura niezrównoważonych danych Dataset Safe Border Rare Outlier Category new thyroid 68,57 3,43 0,00 0,00 S ecoli 28,57 54,29 2,86 4,29 B glass 0,00 35,29 35,29 29,4 R, O RARE & OUTLIER BORDERLINE SAFE GLASS ECOLI THYROID
44 Podstawowa sieć Kohonena LVQ Celem jest grupowanie wektorów wejściowych x Istota działania podobieństwo Podobne wektory powinny pobudzać te same neurony Prosta topologia y y j gdzie y = wx= w x j j ij i i Reguła konkurencyjnego uczenia się x i x
45 Reguła zwycięzca bierze wszystko Określenie zwycięzcy: x wˆ = min i=, K, p x wˆ Alternatywnie iloczyn skalarny m i wˆ T m x = max i=, K, p wˆ T i x Zwycięzcą jest jeden neuron m. Korekcja wag w m odbywa się wyłącznie dla neuronu zwycięzcy według reguły: w = η ( x wm) m η -stała uczenia (na ogół między 0. a 0.7) Przykład interpretacja geometryczna
46 Sieci SOM Podstawą odwzorowania takie uporządkowanie neuronów, takie że położenie zwycięskich neuronów niesie informacje Topologia relacja sąsiedztwa Podobne przykłady wejściowe x powinny aktywizować sąsiednie neurony Gęstość wzorców w zredukowanej przestrzeni musi odpowiadać gęstości przykładów w oryginalnej przestrzeni
47 Uczenie sieci SOM Siatka neuronów i =.. K w D-3D, każdy neuron z N wagami. Neurony z wagami W i (t) = {W i W i2.. W in }, wektory X={X, X 2.. X N }. t - dyskretny czas; nie ma połączeń pomiędzy neuronami!. Inicjalizacja: przypadkowe W i (0) dla wszystkich i=..k. Funkcja sąsiedztwa h( r-r c /σ(t),t) definiuje wokół neuronu położonego w miejscu r c siatki obszar O s (r c ). 2. Oblicz odległości d(x,w), znajdź neuron z wagami W c najbardziej podobnymi do X (neuron-zwycięzcę). 3. Zmień wagi wszystkich neuronów w sąsiedztwie O s (r c ) 4. Powoli zmniejszaj siłę h 0 (t) i promień σ(t). 5. Iteruj aż ustaną zmiany. Efekt: podział (tesselacja) na wieloboki Voronoia.
48 Przykład analiza produkcji oliwy we Włoszech SOM application oil Italian market: 572 samples of olive oil were collected from 9 Italian provinces Content of 8 fats was determine for each oil SOM 20 x 20 network, Maps 8D => 2D Classification accuracy was around 95-97% Note that topographical relations are preserved, region 3 is most diverse
49 Web Document Clustering Using SOM The result of SOM clustering of 2088 Web articles The picture on the right: drilling down on the keyword mining Based on websom.hut.fi Web page
50 Trochę wskazówek literaturowych Robert Susmaga wykład Metody kompresji i wizualizacji danych (PP obieralny przedmiot semx) T.Hastie, R.Tibshirani, J.Friedman: The Elements of Statistical Learning. Springer poszukaj wersji elektronicznej pdf J.Koronacki, J.Ćwik: Statystyczne systemy uczące się WNT. M.Krzyśko, W.Wołyński, T.Górecki,M.Skorzybut: Systemy uczące się. WNT. S.Osowski: Sieci neuronowe w przetwarzaniu informacji. K.Napierała, J.Stefanowski: Identification of Different Types of Minority Class Examples in Imbalanced Data. Proc. HAIS 202, Part II, LNAI vol. 7209, Springer Verlag 202, Napierala, K., Stefanowski, J.: Types of Minority Class Examples and Their Influence on Learning Classifiers from Imbalanced Data, to appear in Journal of Intelligent Information Systems (205)
51 Don t..., it is not over! Jeszcze wiele rozwiązań dla danych jakościowych
Robert Susmaga. Instytut Informatyki ul. Piotrowo 2 Poznań
... Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL kontakt osobisty Centrum Wykładowe, blok informatyki, pok. 7 Wyłączenie odpowiedzialności
SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.
SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska INFORMACJE WSTĘPNE Hipotezy do uczenia się lub tworzenia
Przykład eksploracji danych Case 1.X
Przykład eksploracji danych Case 1.X JERZY STEFANOWSKI TPD Zaawansowana eksploracja danych edycja 2009/2010 Plan 1. Przykładowe studium przypadki 2. Analiza opisu przypadku 3. Ustalenie celu analizy i
Analiza składowych głównych. Wprowadzenie
Wprowadzenie jest techniką redukcji wymiaru. Składowe główne zostały po raz pierwszy zaproponowane przez Pearsona(1901), a następnie rozwinięte przez Hotellinga (1933). jest zaliczana do systemów uczących
10. Redukcja wymiaru - metoda PCA
Algorytmy rozpoznawania obrazów 10. Redukcja wymiaru - metoda PCA dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. PCA Analiza składowych głównych: w skrócie nazywana PCA (od ang. Principle Component
Lekcja 5: Sieć Kohonena i sieć ART
Lekcja 5: Sieć Kohonena i sieć ART S. Hoa Nguyen 1 Materiał Sieci Kohonena (Sieć samo-organizująca) Rysunek 1: Sieć Kohonena Charakterystyka sieci: Jednowarstwowa jednokierunkowa sieć. Na ogół neurony
Analiza składowych głównych
Analiza składowych głównych Wprowadzenie (1) W przypadku regresji naszym celem jest predykcja wartości zmiennej wyjściowej za pomocą zmiennych wejściowych, wykrycie związku między wielkościami wejściowymi
Robert Susmaga. Instytut Informatyki ul. Piotrowo 2 Poznań
... Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL kontakt osobisty Centrum Wykładowe, blok informatyki, pok. 7 Wyłączenie odpowiedzialności
S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor
S O M SELF-ORGANIZING MAPS Przemysław Szczepańczyk Łukasz Myszor Podstawy teoretyczne Map Samoorganizujących się stworzył prof. Teuvo Kohonen (1982 r.). SOM wywodzi się ze sztucznych sieci neuronowych.
4.1. Wprowadzenie...70 4.2. Podstawowe definicje...71 4.3. Algorytm określania wartości parametrów w regresji logistycznej...74
3 Wykaz najważniejszych skrótów...8 Przedmowa... 10 1. Podstawowe pojęcia data mining...11 1.1. Wprowadzenie...12 1.2. Podstawowe zadania eksploracji danych...13 1.3. Główne etapy eksploracji danych...15
Prawdopodobieństwo i statystyka
Wykład XV: Zagadnienia redukcji wymiaru danych 2 lutego 2015 r. Standaryzacja danych Standaryzacja danych Własności macierzy korelacji Definicja Niech X będzie zmienną losową o skończonym drugim momencie.
Analiza głównych składowych- redukcja wymiaru, wykł. 12
Analiza głównych składowych- redukcja wymiaru, wykł. 12 Joanna Jędrzejowicz Instytut Informatyki Konieczność redukcji wymiaru w eksploracji danych bazy danych spotykane w zadaniach eksploracji danych mają
METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING
METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING NEURONOWE MAPY SAMOORGANIZUJĄCE SIĘ Self-Organizing Maps SOM Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki,
Statystyka i eksploracja danych
Wykład XII: Zagadnienia redukcji wymiaru danych 12 maja 2014 Definicja Niech X będzie zmienną losową o skończonym drugim momencie. Standaryzacją zmiennej X nazywamy zmienną losową Z = X EX Var (X ). Definicja
Elementy statystyki wielowymiarowej
Wnioskowanie_Statystyczne_-_wykład Spis treści 1 Elementy statystyki wielowymiarowej 1.1 Kowariancja i współczynnik korelacji 1.2 Macierz kowariancji 1.3 Dwumianowy rozkład normalny 1.4 Analiza składowych
Uczenie sieci radialnych (RBF)
Uczenie sieci radialnych (RBF) Budowa sieci radialnej Lokalne odwzorowanie przestrzeni wokół neuronu MLP RBF Budowa sieci radialnych Zawsze jedna warstwa ukryta Budowa neuronu Neuron radialny powinien
Co to jest grupowanie
Grupowanie danych Co to jest grupowanie 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Szukanie grup, obszarów stanowiących lokalne gromady punktów Co to jest grupowanie
Data Mining Wykład 9. Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster. Plan wykładu. Sformułowanie problemu
Data Mining Wykład 9 Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster Plan wykładu Wprowadzanie Definicja problemu Klasyfikacja metod grupowania Grupowanie hierarchiczne Sformułowanie problemu
Materiały wykładowe (fragmenty)
Materiały wykładowe (fragmenty) 1 Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL kontakt osobisty Centrum Wykładowe, blok informatyki, pok. 7
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych
Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335
Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Wykład 10 Mapa cech Kohonena i jej modyfikacje - uczenie sieci samoorganizujących się - kwantowanie wektorowe
Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych. Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS
Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS Dyskretyzacja - definicja Dyskretyzacja - zamiana atrybutów
Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3
Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt
Metody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium JAVA Zadanie nr 2 Rozpoznawanie liter autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z problemem klasyfikacji
Sieci samoorganizujące się na zasadzie współzawodnictwa
Sieci samoorganizujące się na zasadzie współzawodnictwa JERZY STEFANOWSKI Instytut Informatyki Politechnika Poznańska Plan 1. Wprowadzenie 2. Wykrywanie grup sieci LVQ 3. Reguły uczenia się konkurencyjnego
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt
Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.
Wstęp do sieci neuronowych, wykład 7. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 212-11-28 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu
KLASYFIKACJA. Słownik języka polskiego
KLASYFIKACJA KLASYFIKACJA Słownik języka polskiego Klasyfikacja systematyczny podział przedmiotów lub zjawisk na klasy, działy, poddziały, wykonywany według określonej zasady Klasyfikacja polega na przyporządkowaniu
A Zadanie
where a, b, and c are binary (boolean) attributes. A Zadanie 1 2 3 4 5 6 7 8 9 10 Punkty a (maks) (2) (2) (2) (2) (4) F(6) (8) T (8) (12) (12) (40) Nazwisko i Imiȩ: c Uwaga: ta część zostanie wypełniona
Zastosowania sieci neuronowych
Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką
ANALIZA KURSÓW AKCJI Z WYKORZYSTANIEM METODY ICA
ANALIZA KURSÓW AKCJI Z WYKORZYSTANIEM METODY ICA Agnieszka Pasztyła StatSoft Polska Sp. z o.o.; Akademia Ekonomiczna w Krakowie, Katedra Statystyki Artykuł przedstawia nowe spojrzenie na zastosowanie analizy
Analiza Danych Case study Analiza diagnostycznej bazy danych Marek Lewandowski, inf59817 zajęcia: środa, 9.
Analiza Danych Case study Analiza diagnostycznej bazy danych Marek Lewandowski, inf59817 lewandowski.marek@gmail.com zajęcia: środa, 9.00 Spis treści: 1 Wprowadzenie... 4 2 Dostępne dane... 5 3 Przygotowanie
SPOTKANIE 9: Metody redukcji wymiarów
Wrocław University of Technology SPOTKANIE 9: Metody redukcji wymiarów Piotr Klukowski* Studenckie Koło Naukowe Estymator piotr.klukowski@pwr.wroc.pl 08.12.2015 *Część slajdów pochodzi z prezentacji dr
Zastosowania sieci neuronowych
Zastosowania sieci neuronowych klasyfikacja LABORKA Piotr Ciskowski zadanie 1. klasyfikacja zwierząt sieć jednowarstwowa żródło: Tadeusiewicz. Odkrywanie własności sieci neuronowych, str. 159 Przykład
2. Reprezentacje danych wielowymiarowych sposoby sobie radzenia z nimi. a. Wprowadzenie, aspekt psychologiczny, wady statystyki
1. Wstęp 2. Reprezentacje danych wielowymiarowych sposoby sobie radzenia z nimi a. Wprowadzenie, aspekt psychologiczny, wady statystyki b. Metody graficzne i. Wykres 1.zmiennej ii. Rzut na 2 współrzędne
TRANSFORMACJE I JAKOŚĆ DANYCH
METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING TRANSFORMACJE I JAKOŚĆ DANYCH Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej
Zmienne zależne i niezależne
Analiza kanoniczna Motywacja (1) 2 Często w badaniach spotykamy problemy badawcze, w których szukamy zakresu i kierunku zależności pomiędzy zbiorami zmiennych: { X i Jak oceniać takie 1, X 2,..., X p }
Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład I dr inż. 2015/2016
Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład I dr inż. Bogumil.Konopka@pwr.edu.pl 2015/2016 1 Wykład I - plan Sprawy organizacyjne Uczenie maszynowe podstawowe pojęcia Proces modelowania
Analiza korespondencji
Analiza korespondencji Kiedy stosujemy? 2 W wielu badaniach mamy do czynienia ze zmiennymi jakościowymi (nominalne i porządkowe) typu np.: płeć, wykształcenie, status palenia. Punktem wyjścia do analizy
Klasteryzacja i klasyfikacja danych spektrometrycznych
Klasteryzacja i klasyfikacja danych spektrometrycznych Współpraca: Janusz Dutkowski, Anna Gambin, Krzysztof Kowalczyk, Joanna Reda, Jerzy Tiuryn, Michał Dadlez z zespołem (IBB PAN) Instytut Informatyki
Przykładowa analiza danych
Przykładowa analiza danych W analizie wykorzystano dane pochodzące z publicznego repozytorium ArrayExpress udostępnionego na stronach Europejskiego Instytutu Bioinformatyki (http://www.ebi.ac.uk/). Zbiór
Monitorowanie i Diagnostyka w Systemach Sterowania na studiach II stopnia specjalności: Systemy Sterowania i Podejmowania Decyzji
Monitorowanie i Diagnostyka w Systemach Sterowania na studiach II stopnia specjalności: Systemy Sterowania i Podejmowania Decyzji Analiza składników podstawowych - wprowadzenie (Principal Components Analysis
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-10 Projekt pn. Wzmocnienie
Rozglądanie się w przestrzeni Iris czyli kręcenie (głową/płaszczyzną) w czterech wymiarach
Rozglądanie się w przestrzeni Iris czyli kręcenie (głową/płaszczyzną) w czterech wymiarach maja, 7 Rozglądanie się w D Plan Klasyka z brodą: zbiór danych Iris analiza składowych głównych (PCA), czyli redukcja
Załóżmy, że obserwujemy nie jedną lecz dwie cechy, które oznaczymy symbolami X i Y. Wyniki obserwacji obu cech w i-tym obiekcie oznaczymy parą liczb
Współzależność Załóżmy, że obserwujemy nie jedną lecz dwie cechy, które oznaczymy symbolami X i Y. Wyniki obserwacji obu cech w i-tym obiekcie oznaczymy parą liczb (x i, y i ). Geometrycznie taką parę
Metody selekcji cech
Metody selekcji cech A po co to Często mamy do dyspozycji dane w postaci zbioru cech lecz nie wiemy które z tych cech będą dla nas istotne. W zbiorze cech mogą wystąpić cechy redundantne niosące identyczną
Informacje i materiały dotyczące wykładu będą publikowane na stronie internetowej wykładowcy, m.in. prezentacje z wykładów
Eksploracja danych Piotr Lipiński Informacje ogólne Informacje i materiały dotyczące wykładu będą publikowane na stronie internetowej wykładowcy, m.in. prezentacje z wykładów UWAGA: prezentacja to nie
Metody Sztucznej Inteligencji II
17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału
ANALIZA CZYNNIKOWA Przykład 1
ANALIZA CZYNNIKOWA... stanowi zespół metod i procedur statystycznych pozwalających na badanie wzajemnych relacji między dużą liczbą zmiennych i wykrywanie ukrytych uwarunkowań, ktore wyjaśniają ich występowanie.
Rozpoznawanie twarzy za pomocą sieci neuronowych
Rozpoznawanie twarzy za pomocą sieci neuronowych Michał Bereta http://torus.uck.pk.edu.pl/~beretam Praktyczna przydatność Bardzo szerokie praktyczne zastosowanie Ochrona Systemy bezpieczeństwa (np. lotniska)
Indeksy w bazach danych. Motywacje. Techniki indeksowania w eksploracji danych. Plan prezentacji. Dotychczasowe prace badawcze skupiały się na
Techniki indeksowania w eksploracji danych Maciej Zakrzewicz Instytut Informatyki Politechnika Poznańska Plan prezentacji Zastosowania indeksów w systemach baz danych Wprowadzenie do metod eksploracji
Metody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska
Metody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska e-mail: bartosz.krawczyk@pwr.wroc.pl Czym jest klasyfikacja
Opis efektów kształcenia dla modułu zajęć
Nazwa modułu: Eksploracja danych Rok akademicki: 2030/2031 Kod: MIS-2-105-MT-s Punkty ECTS: 5 Wydział: Inżynierii Metali i Informatyki Przemysłowej Kierunek: Informatyka Stosowana Specjalność: Modelowanie
SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006
SAS wybrane elementy DATA MINING Część III Seweryn Kowalski 2006 Algorytmy eksploracji danych Algorytm eksploracji danych jest dobrze zdefiniowaną procedurą, która na wejściu otrzymuje dane, a na wyjściu
TEORETYCZNE PODSTAWY INFORMATYKI
1 TEORETYCZNE PODSTAWY INFORMATYKI WFAiS UJ, Informatyka Stosowana I rok studiów, I stopień Wykład 16 2 Data Science: Uczenie maszynowe Uczenie maszynowe: co to znaczy? Metody Regresja Klasyfikacja Klastering
Wprowadzenie Sformułowanie problemu Typy reguł asocjacyjnych Proces odkrywania reguł asocjacyjnych. Data Mining Wykład 2
Data Mining Wykład 2 Odkrywanie asocjacji Plan wykładu Wprowadzenie Sformułowanie problemu Typy reguł asocjacyjnych Proces odkrywania reguł asocjacyjnych Geneza problemu Geneza problemu odkrywania reguł
Identyfikacja istotnych atrybutów za pomocą Baysowskich miar konfirmacji
Identyfikacja istotnych atrybutów za pomocą Baysowskich miar konfirmacji Jacek Szcześniak Jerzy Błaszczyński Roman Słowiński Poznań, 5.XI.2013r. Konspekt Wstęp Wprowadzenie Metody typu wrapper Nowe metody
Materiały wykładowe (fragmenty)
Materiały wykładowe (fragmenty) 1 Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL kontakt osobisty Centrum Wykładowe, blok informatyki, pok. 7
Wprowadzenie do programu RapidMiner, część 4 Michał Bereta
Wprowadzenie do programu RapidMiner, część 4 Michał Bereta www.michalbereta.pl 1. Wybór atrybutów (ang. attribute selection, feature selection). Jedną z podstawowych metod analizy współoddziaływania /
Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar... 1. Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16
Spis treści Przedmowa.......................... XI Rozdział 1. Pomiar: jednostki miar................. 1 1.1. Wielkości fizyczne i pozafizyczne.................. 1 1.2. Spójne układy miar. Układ SI i jego
Stosowana Analiza Regresji
Stosowana Analiza Regresji Wykład VIII 30 Listopada 2011 1 / 18 gdzie: X : n p Q : n n R : n p Zał.: n p. X = QR, - macierz eksperymentu, - ortogonalna, - ma zera poniżej głównej diagonali. [ R1 X = Q
ALGORYTM RANDOM FOREST
SKRYPT PRZYGOTOWANY NA ZAJĘCIA INDUKOWANYCH REGUŁ DECYZYJNYCH PROWADZONYCH PRZEZ PANA PAWŁA WOJTKIEWICZA ALGORYTM RANDOM FOREST Katarzyna Graboś 56397 Aleksandra Mańko 56699 2015-01-26, Warszawa ALGORYTM
Sztuczna Inteligencja Tematy projektów Sieci Neuronowe
PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia
LEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów
LEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów Łukasz Piątek, Jerzy W. Grzymała-Busse Katedra Systemów Ekspertowych i Sztucznej Inteligencji, Wydział Informatyki
SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska
SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska DRZEWO REGRESYJNE Sposób konstrukcji i przycinania
Korelacja krzywoliniowa i współzależność cech niemierzalnych
Korelacja krzywoliniowa i współzależność cech niemierzalnych Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Inteligencji i Metod Matematycznych Wydział Informatyki Politechniki Szczecińskiej
Sieci neuronowe i ich ciekawe zastosowania. Autor: Wojciech Jamrozy III rok SMP / Informatyka
Sieci neuronowe i ich ciekawe zastosowania Autor: Wojciech Jamrozy III rok SMP / Informatyka Klasyczna algorytmika Sortowanie ciągu liczb Czy i ile razy dane słowo wystąpiło w tekście Najkrótsza droga
Wykład 10 Skalowanie wielowymiarowe
Wykład 10 Skalowanie wielowymiarowe Wrocław, 30.05.2018r Skalowanie wielowymiarowe (Multidimensional Scaling (MDS)) Główne cele MDS: przedstawienie struktury badanych obiektów przez określenie treści wymiarów
Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2014/2015
Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner rok akademicki 2014/2015 Sieci Kohonena Sieci Kohonena Sieci Kohonena zostały wprowadzone w 1982 przez fińskiego
KADD Minimalizacja funkcji
Minimalizacja funkcji n-wymiarowych Forma kwadratowa w n wymiarach Procedury minimalizacji Minimalizacja wzdłuż prostej w n-wymiarowej przestrzeni Metody minimalizacji wzdłuż osi współrzędnych wzdłuż kierunków
Systemy uczące się Lab 4
Systemy uczące się Lab 4 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 26 X 2018 Projekt zaliczeniowy Podstawą zaliczenia ćwiczeń jest indywidualne wykonanie projektu uwzględniającego
Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0
Uczenie się pojedynczego neuronu W0 X0=1 W1 x1 W2 s f y x2 Wp xp p x i w i=x w+wo i=0 Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z=0 Wówczas: W 1 x 1 + w 2 x 2 + = 0 Algorytm
Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę
Norbert Jankowski Ontogeniczne sieci neuronowe O sieciach zmieniających swoją strukturę Warszawa 2003 Opracowanie książki było wspierane stypendium Uniwersytetu Mikołaja Kopernika Spis treści Wprowadzenie
Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa
Spis treści Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa Romuald Kotowski Katedra Informatyki Stosowanej PJWSTK 2009 Spis treści Spis treści 1 Wstęp Bardzo często interesujący
METODY CHEMOMETRYCZNE W IDENTYFIKACJI ŹRÓDEŁ POCHODZENIA
METODY CHEMOMETRYCZNE W IDENTYFIKACJI ŹRÓDEŁ POCHODZENIA AMFETAMINY Waldemar S. Krawczyk Centralne Laboratorium Kryminalistyczne Komendy Głównej Policji, Warszawa (praca obroniona na Wydziale Chemii Uniwersytetu
ALGORYTMY SZTUCZNEJ INTELIGENCJI
ALGORYTMY SZTUCZNEJ INTELIGENCJI Sieci neuronowe 06.12.2014 Krzysztof Salamon 1 Wstęp Sprawozdanie to dotyczy ćwiczeń z zakresu sieci neuronowych realizowanym na przedmiocie: Algorytmy Sztucznej Inteligencji.
Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2
Elementy Sztucznej Inteligencji Sztuczne sieci neuronowe cz. 2 1 Plan wykładu Uczenie bez nauczyciela (nienadzorowane). Sieci Kohonena (konkurencyjna) Sieć ze sprzężeniem zwrotnym Hopfielda. 2 Cechy uczenia
Systemy uczące się wykład 1
Systemy uczące się wykład 1 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 5 X 2018 e-mail: przemyslaw.juszczuk@ue.katowice.pl Konsultacje: na stronie katedry + na stronie domowej
Agnieszka Nowak Brzezińska Wykład III
Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe
Idea. Analiza składowych głównych Analiza czynnikowa Skalowanie wielowymiarowe Analiza korespondencji Wykresy obrazkowe.
Idea (ang. Principal Components Analysis PCA) jest popularnym używanym narzędziem analizy danych. Na metodę tę można spojrzeć jak na pewną technikę redukcji wymiarowości danych. Jest to metoda nieparametryczna,
Badania eksperymentalne
Badania eksperymentalne Analiza CONJOINT mgr Agnieszka Zięba Zakład Badań Marketingowych Instytut Statystyki i Demografii Szkoła Główna Handlowa Najpopularniejsze sposoby oceny wyników eksperymentu w schematach
Pattern Classification
Pattern Classification All materials in these slides were taken from Pattern Classification (2nd ed) by R. O. Duda, P. E. Hart and D. G. Stork, John Wiley & Sons, 2000 with the permission of the authors
Klasyfikacja w oparciu o metrykę budowaną poprzez dystrybuanty empiryczne na przestrzeni wzorców uczących
Klasyfikacja w oparciu o metrykę budowaną poprzez dystrybuanty empiryczne na przestrzeni wzorców uczących Cezary Dendek Wydział Matematyki i Nauk Informacyjnych PW Plan prezentacji Plan prezentacji Wprowadzenie
CELE ANALIZY CZYNNIKOWEJ
ANALIZA CZYNNIKOWA... stanowi zespół metod i procedur statystycznych pozwalających na badanie wzajemnych relacji między dużą liczbą zmiennych i wykrywanie ukrytych uwarunkowań, ktore wyjaśniają ich występowanie.
Metoda największej wiarygodności
Rozdział Metoda największej wiarygodności Ogólnie w procesie estymacji na podstawie prób x i (każde x i może być wektorem) wyznaczamy parametr λ (w ogólnym przypadku również wektor) opisujący domniemany
Mail: Pokój 214, II piętro
Wykład 2 Mail: agnieszka.nowak@us.edu.pl Pokój 214, II piętro http://zsi.tech.us.edu.pl/~nowak Predykcja zdolność do wykorzystania wiedzy zgromadzonej w systemie do przewidywania wartości dla nowych danych,
Elementy modelowania matematycznego
Elementy modelowania matematycznego Modelowanie algorytmów klasyfikujących. Podejście probabilistyczne. Naiwny klasyfikator bayesowski. Modelowanie danych metodą najbliższych sąsiadów. Jakub Wróblewski
PDF created with FinePrint pdffactory Pro trial version http://www.fineprint.com
Analiza korelacji i regresji KORELACJA zależność liniowa Obserwujemy parę cech ilościowych (X,Y). Doświadczenie jest tak pomyślane, aby obserwowane pary cech X i Y (tzn i ta para x i i y i dla różnych
Rozpoznawanie wzorców. Dr inż. Michał Bereta p. 144 / 10, Instytut Informatyki
Rozpoznawanie wzorców Dr inż. Michał Bereta p. 144 / 10, Instytut Informatyki mbereta@pk.edu.pl beretam@torus.uck.pk.edu.pl www.michalbereta.pl Twierzdzenie: Prawdopodobieostwo, że n obserwacji wybranych
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska
Kombinacja jądrowych estymatorów gęstości w klasyfikacji - zastosowanie na sztucznym zbiorze danych
Kombinacja jądrowych estymatorów gęstości w klasyfikacji - zastosowanie na sztucznym zbiorze danych Mateusz Kobos, 07.04.2010 Seminarium Metody Inteligencji Obliczeniowej Spis treści Opis algorytmu i zbioru
WYDZIAŁ MATEMATYKI KARTA PRZEDMIOTU
WYDZIAŁ MATEMATYKI KARTA PRZEDMIOTU Nazwa w języku polskim: Eksploracja Danych Nazwa w języku angielskim: Data Mining Kierunek studiów (jeśli dotyczy): MATEMATYKA I STATYSTYKA Stopień studiów i forma:
Metody zbiorów przybliżonych w uczeniu się podobieństwa z wielowymiarowych zbiorów danych
Metody zbiorów przybliżonych w uczeniu się podobieństwa z wielowymiarowych zbiorów danych WMIM, Uniwersytet Warszawski ul. Banacha 2, 02-097 Warszawa, Polska andrzejanusz@gmail.com 13.06.2013 Dlaczego
MATLAB Neural Network Toolbox przegląd
MATLAB Neural Network Toolbox przegląd WYKŁAD Piotr Ciskowski Neural Network Toolbox: Neural Network Toolbox - zastosowania: przykłady zastosowań sieci neuronowych: The 1988 DARPA Neural Network Study
Uczenie sieci typu MLP
Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik
Szczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć)
Szczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć) 1. Populacja generalna a losowa próba, parametr rozkładu cechy a jego ocena z losowej próby, miary opisu statystycznego
Eksploracja danych. Grupowanie. Wprowadzanie Definicja problemu Klasyfikacja metod grupowania Grupowanie hierarchiczne. Grupowanie wykład 1
Grupowanie Wprowadzanie Definicja problemu Klasyfikacja metod grupowania Grupowanie hierarchiczne Grupowanie wykład 1 Sformułowanie problemu Dany jest zbiór obiektów (rekordów). Znajdź naturalne pogrupowanie
Data Mining Wykład 5. Indukcja drzew decyzyjnych - Indeks Gini & Zysk informacyjny. Indeks Gini. Indeks Gini - Przykład
Data Mining Wykład 5 Indukcja drzew decyzyjnych - Indeks Gini & Zysk informacyjny Indeks Gini Popularnym kryterium podziału, stosowanym w wielu produktach komercyjnych, jest indeks Gini Algorytm SPRINT
METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING
METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING NEURONOWE MAPY SAMOORGANIZUJĄCE SIĘ ĆWICZENIA Self-Organizing Maps SOM Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki,