Kombinacja jądrowych estymatorów gęstości w klasyfikacji - przegląd literatury
|
|
- Karolina Urbaniak
- 6 lat temu
- Przeglądów:
Transkrypt
1 1/37 Kombinacja jądrowych estymatorów gęstości w klasyfikacji - przegląd literatury Mateusz Kobos, Seminarium Metody Inteligencji Obliczeniowej
2 2/37 Spis treści Klasyfikator Bayesowski Estymatory gęstości: estymator jądrowy, Gaussian Mixture Model Kombinacja estymatorów jądrowych Opinie o klasyfikacji poprzez estymację gęstości Przegląd literatury
3 Klasyfikator Bayesowski Teoretycznie, by dokonać klasyfikacji wystarczy tylko znać gęstość punktów każdej z klas 3/37
4 4/37 Estymator jądrowy (Kernel Density Estimator (KDE)) Pobrane z [Hwang94]
5 5/37 Gaussian Mixture Model (GMM) Parametry (μ, Σ_i) dobiera się najczęściej za pomocą algorytmu EM korzystającego z metody największej wiarogodności Pobrane z [Hwang94] Liczba składowych jest z góry zadana
6 6/37 Kombinacja KDE (KDEC) Ogólny pomysł: Estymować gęstość poprzez kombinację (liniową) estymacji za pomocą KDE o różnej szerokości jądra
7 Kombinacja KDE (KDEC) Wstępny pomysł (algorytm KDEC): Dobierać szerokości jąder dla kolejnych KDE tak, by malały wykładniczo w zależności od parametru a. Szerokość jądra określona jako: Każda z KDE ma taką samą wagę Minimalizujemy funkcję błędu (za pomocą cross-validation lub np. metodą największego spadku z momentum) 7/37
8 Kombinacja KDE (KDEC) Parametry modelu: a jak szybko maleją jądra h_0 największa szerokość jądra (tu: ustalone) w_i waga każdego z KDE w kombinacji liniowej (tu: ustalone i takie same) Potencjalne modyfikacje: Dobierać kształt jąder dla każdej klasy oddzielnie Określić inną funkcję zmniejszania się jąder Optymalizować względem innych parametrów Ustalać h_0 na podstawie któregoś z popularnych kryteriów doboru szerokości jądra 8/37
9 9/37 Kombinacja KDE (KDEC) przykładowy wykres błędu Parametry modelu
10 Opinie o klasyfikacji poprzez estymację gęstości Dla danych o dużej liczbie wymiarów estymacja gęstości jest b. trudna, bo dla skończonego zbioru danych w miejscach o dużej gęstości może być b. mało punktów [Bishop95] W klasyfikacji oddzielne uczenie się rozkładu każdej z klas może być niepotrzebne i mylące. Skupiamy się na dokładniejszym dostosowywaniu rozkładu do pewnych punktów, jednak te punkty mogą nie mieć znaczenia dla obliczania prawdopodobieństwa przynależności do klasy. Dla klasyfikacji, prawdopodobieństwo musimy dobrze estymować tylko w pobliżu granic decyzyjnych.[hastie01] 10/37
11 11/37 Opinie o klasyfikacji poprzez estymację gęstości Estymacja gęstości jest centralnym problemem modelowania danych i uczenia maszynowego. Jest to problem trudniejszy od klasyfikacji i regresji [Shawe-Taylor07] Chociaż optymalne estymatory gęstości nie koniecznie prowadzą do dobrej klasyfikacji, to dobre estymacje klas z pewnością dają klasyfikatory o niskim błędzie [Hoti04]
12 12/37 Opinie o klasyfikacji poprzez estymację gęstości Dobra estymacja gęstości za pomocą estymatorów jądrowych jest możliwa do 6 wymiarów. Jednak, mimo że sama estymacja gęstości może być zła, to klasyfikacja na jej podstawie może być dobra. Metody jądrowe w zagadnieniu klasyfikacji dają dobre wyniki również dla dziesiątków wymiarów [Scott04]
13 13/37 Artykuł: klasyfikacja za pomocą kombinacji KDE Artykuł [Ghosh06a]: Anil K. Ghosh, Probal Chaudhuri, and Debasis Sengupta, Classification Using Kernel Density Estimates: Multi-scale Analysis and Visualization, Technometrics, 2006 Pomysł: klasyfikacja za pomocą kombinacji KDE o różnej szerokości jądra Modyfikacja tego pomysłu dla estymatorów gęstości opartych na metodzie k-nn: [Ghosh06b]
14 Artykuł: klasyfikacja za pomocą kombinacji KDE cd. Cechy metody: Zagadnienie klasyfikacji binarnej Każdej z klas przypisujemy oddzielną szerokość jądra (h1 dla klasy 1, h2 dla klasy 2) Działanie algorytmu - ogólnie: 1.Normalizujemy punkty dla każdej z klas oddzielnie 2.Bierzemy najlepsze pary szerokości jąder h1, h2: tzn. te, które dają globalnie najmniejszy błąd klasyfikacji. Używamy pomocą cross-validation. 3.Dla danego punktu testowego x obliczamy P(c=1 x) jako ważoną sumę P(c=1 x) dla najlepszych par h1, h2 14/37
15 wykres: 1-błąd klasyfikacji Wartości wag Zakres niezerowych wartości wag Optymalny punkt klasyfikacji Optymalny punkt estymacji gęstości Unormowane mnożenie log(h2) wykres: adjusted weighted p-value wykres: P(c=1 x) Wartości dla punktu testowego x log(h2) mnożenie wykres: p-value przypisania do klasy c=1 log(h1) sumuj i normuj Obrazki pobrane z [Ghosh06a] wynik: P(c=1 x) = /37
16 Artykuł: klasyfikacja za pomocą kombinacji KDE - porównanie Artykuł: brany jest punkt optymalny pod względem błędu cross-validation w przestrzeni szerokości jąder i jego najbliżsi sąsiedzi Wada: parametry modelu są dla sąsiadów podobne lepsze wyniki można by prawdopodobnie uzyskać biorąc bardziej odległe punkty (większa różnorodność) KDEC: branych jest kilka odległych od siebie punktów w jej przestrzeni (odległości między punktami są dobierane poprzez minimalizację funkcji błędu) 16/37
17 17/37 Artykuł: klasyfikacja za pomocą kombinacji KDE - porównanie Artykuł: wagi każdego z elementów kombinacji dobierane są za pomocą gęstości normalnej KDEC: wagi są identyczne Artykuł: przeszukiwana jest przestrzeń (h1, h2) KDEC: przeszukiwana jest przestrzeń (a) (ew. (a1, a2)
18 18/37 Artykuł: klasyfikacja za pomocą kombinacji KDE - porównanie Artykuł: Używana jest brutalna metoda optymalizacji sprawdzanie wartości funkcji błędu w każdym z punktów (pewnej siatki) KDEC: można minimalizować funkcję błędu tak jak w MLP: np. metodą największego spadku z momentum
19 19/37 Artykuł: estymacja gęstości za pomocą stacking z KDE i GMM Artykuł [Smyth99]: Padhraic Smyth, David Wolpert, Linearly Combining Density Estimators via Stacking, Machine Learning, 1999 Pomysł: estymacja gęstości za pomocą kombinacji liniowej GMM i KDE. Parametry kombinacji obliczane za pomocą techniki meta-uczenia: stacking i alg. EM.
20 Artykuł: estymacja gęstości za pomocą stacking z KDE i GMM cd. Do zagadnienia estymacji za pomocą kombinacji estymatorów podchodzą od strony algorytmów meta-uczących się. Działanie algorytmu: Standardowy algorytm stacking z crossvalidation: modelami poziomu 0 są estymacje gęstości (KDE, GMM) modelem poziomu 1 (poziom łączący) jest kombinacja liniowa z parametrami dobieranymi za pomocą alg. EM tak, by maksymalizować loglikelihood punktów ze zbioru uczącego 20/37
21 21/37 Artykuł: estymacja gęstości za pomocą stacking z KDE i GMM cd. Działanie algorytmu dla KDE: 1.Wykonaj estymację dla określonych predefiniowanych szerokości jąder KDE przy pomocy cross-validation. 2.Oblicz parametry kombinacji liniowej estymatorów za pomocą EM. 3.Wykonaj estymację każdym z estymatorów KDE tym razem na całym zb. uczącym. 4.Połącz estymacje za pomocą obliczonej kombinacji liniowej i zwróć wynik.
22 22/37 Artykuł: estymacja gęstości za pomocą stacking z KDE i GMM - porównanie Artykuł: nie jest dokonywana klasyfikacja, optymalizowane jest log-likelihood dopasowania do danych KDEC: dokonujemy klasyfikacji i minimalizujemy błąd związany z klasyfikacją Artykuł: szerokości jąder są predefiniowane (chociaż proponują, że można by też dobierać je dynamicznie) KDEC: szerokości jąder dobierane dynamicznie
23 23/37 Artykuł: estymacja gęstości za pomocą stacking z KDE i GMM - porównanie Artykuł: każda z estymacji składowych (KDE i GMM) jest wykonywana za pomocą crossvalidation, co przeciwdziała przeuczeniu Artykuł: stosowane są KDE i GMM KDEC: stosowane są tylko KDE Artykuł: każda z estymacji składowych ma inną wagę KDEC: wszystkie wagi takie same
24 24/37 Artykuł: Filtered KDE Artykuł [Marchette96]: David J. Marchette, Carey E. Priebe, George W. Rogers, Jeffrey L. Solka Filtered Kernel Density Estimation, Computational Statistics, 1996 Pomysł: Połączenie wielu KDE z GMM. Na całej przestrzeni określamy wagi każdego z KDE.
25 25/37 Artykuł: Filtered KDE cd. Pomysł bardziej szczegółowo: Jest podanych kilka predefiniowanych szerokości jąder odpowiadających estymatorom KDE. Do każdego KDE jest przypisany rozkład wagi, który mówi, w których miejscach dziedziny dana szerokość jest ważna, a w których nie. Dzięki temu możemy definiować obszary, w których jądra mają być szerokie i te, w których mają być wąskie. Gdy obliczamy gęstość w jakimś punkcie, to obliczamy ważoną sumę KDE zgodnie z rozkładem wag w danym punkcie.
26 26/37 Artykuł: Filtered KDE cd. W praktyce rozkład wag określamy poprzez GMM każda składowa odpowiada dominacji jednej z szerokości jądra w KDE. Kształty jąder w danym obszarze są określane na jeden z 2 sposobów: przez optymalizację w ramach jednego obszaru przez użycie wariancji punktów obszaru (w praktyce wyniki tych obu sposobów są podobne).
27 Artykuł: Filtered KDE cd. Przykład: 2 składowe GMM; szerokości jąder modelu w różnych punktach Pobrane z [Marchette96] 27/37
28 Artykuł: Filtered KDE - porównanie Artykuł: nie jest optymalizowana jakość klasyfikacji Artykuł: lokalne dopasowywanie szerokości jądra Potrzeba takiego dopasowywania może być zauważona na podstawie poprzedniego rysunku KDEC: dopasowywanie globalne Artykuł: musimy z góry wiedzieć ile jest obszarów dominacji szerokości jąder Artykuł: uczenie GMM za pomocą EM może utknąć w minimum lokalnym 28/37
29 29/37 Artykuł: KDE i Boosting Artykuł [Marzio05b]: Marco Di Marzio, Charles C. Taylor, On boosting kernel density methods for multivariate data: density estimation and classification, Statistical Methods & Applications, 2005 Pomysł: Zastosowanie alg. Meta-uczącego się (Boosting) do estymacji gęstości i klasyfikacji. Modelami poziomu 0 są KDE. Modelem poziomu 1 jest Boosting.
30 30/37 Artykuł: KDE i Boosting cd. Artykuły pokrewne: Pomysł zaproponowany w [Marzio04] W [Marzio05a] używa się KDE i Boosting (w wersji AdaBoost) do klasyfikacji. Rozważany jest przypadek 1D z 2 klasami. Przedstawiona jest analiza teoretyczna i wyniki eksperymentalne
31 31/37 Artykuł: KDE i Boosting cd. Proponują algorytm BoostKDE (do estymacji gęstości) Idea: w kolejnych iteracjach boosting-u przypisujemy różne wagi każdemu z przykładów ze zbioru uczącego. Proponują algorytm BoostKDC (do klasyfikacji): Idea: w zależności od pewnego błędu związanego z klasyfikacją przypisujemy różne wagi każdemu z przykładów ze zbioru uczącego.
32 32/37 Artykuł: KDE i Boosting - porównanie Artykuł: różna waga jest przypisywana różnym przykładom dla różnych KDE KDEC: waga przykładów jest taka sama, za to dobierane są szerokości jąder
33 Inne artykuły Artykuł [Ormoneit98]: stosują uśrednianie (ensemble averaging) do estymacji gęstości. Modelami poziomu 0 są gęstości GMM. Każdej estymacji nadają taką samą wagę. Stosują 3 podejścia do generowania różnych GMM, które potem są uśrednianie: Algorytm EM kończy w różnych minimach lokalnych, Dane dla każdego GMM stanowią 70% danych oryginalnych is są wybierane poprzez losowanie bez powtórzeń Dane dla każdego GMM wybieramy przykłady przez losowanie z powtórzeniami (Bagging) 33/37
34 Inne artykuły cd. Artykuł [Cooley98]: proponują klasyfikację za pomocą KDE, gdzie macierze kowariancji rozkładów normalnych dla każdej z klas są dobierane oddzielnie a ramach klasy są identyczne. Algorytm jest przeznaczony szczególnie dla danych o dużej liczbie wymiarów Artykuł [Ridgeway02]: używają Boosting i Bagging do estymacji gęstości. Używają metody EM do maksymalizowania wiarogodności danych uczących. Nie jest bezpośrednio optymalizowana jakość klasyfikacji. 34/37
35 35/37 Literatura [Bishop95] Christopher Bishop, Nerual Networks for pattern recognition, p.34, 1995 [Cooley98] Craig A. Cooley, Steven N. MacEachern, Classification via Kernel Product Estimators, Biometrika, 1998 [Ghosh06a] Anil K. Ghosh, Probal Chaudhuri, and Debasis Sengupta, Classification Using Kernel Density Estimates: Multi-scale Analysis and Visualization, Technometrics, 2006 [Ghosh06b] Anil K. Ghosh, Probal Chaudhuri, C. A. Murthy, Multiscale Classification Using Nearest Neighbor Density Estimates, IEEE Transactions on Systems, Man, and Cybernetics, 2006 [Hastie01] Hastie, Tibshirani, Friedman, The elements of statistical learning, 2001 [Hoti04] Fabian Hoti, Lasse Holmstrom, A semiparametric density estimation approach to pattern classification, Pattern Recognition, 2004 [Hwang94] Jenq-Neng Hwang, Shyh-Rong Lay, Alan Lippman, Nonparametric multivariate density estimation a comparative study, IEEE transactions on signal processing, 1994 [Marchette96] David J. Marchette, Carey E. Priebe, George W. Rogers, Jeffrey L. Solka, Filtered Kernel Density Estimation, Computational Statistics, 1996 [Marzio04] Marco Di Marzio, Charles C. Taylor, Density Estimates: a Bias Reduction Technique?, Biometrika, 2004
36 36/37 Literatura cd. [Marzio05a] Marco Di Marzio, Charles C. Taylor, Kernel density classification and boosting: an L_2 analysis, Statistics and computing 2005 [Marzio05b] Marco Di Marzio, Charles C. Taylor, On boosting kernel density methods for multivariate data: density estimation and classification, Statistical Methods & Applications, 2005 [Ormoneit98] Dirk Ormoneit, Volker Tresp, Averaging, Maximum Penalized Likelihood and Bayesian Estimation for Improving Gaussian Mixture Probability Density Estimates, IEEE Transactions on Neural Networks, 1998 [Ridgeway02] Greg Ridgeway, Looking for lumps: boosting and bagging for density estimation, Computational Statistics & Data Analysis, 2002 [Scott04] David W. Scott, Stephan R. Sain, Multidimensional Density Estimation, Handbook of statistics vol. 24, 2004 [Shawe-Taylor07] J. Shawe-Taylor, A. Dolia, A framework for probability density estimation, Proceedings of International Workshop on Artificial Intelligence and Statistics, [Smyth99] Padhraic Smyth, David Wolpert, Linearly Combining Density Estimators via Stacking, Machine Learning, 1999
37 Dziękuję za uwagę! 37/37
Kombinacja jądrowych estymatorów gęstości w klasyfikacji wstępne wyniki
Kombinacja jądrowych estymatorów gęstości w klasyfikacji wstępne wyniki Mateusz Kobos, 10.12.2008 Seminarium Metody Inteligencji Obliczeniowej 1/46 Spis treści Działanie algorytmu Uczenie Odtwarzanie/klasyfikacja
Kombinacja jądrowych estymatorów gęstości w klasyfikacji - zastosowanie na sztucznym zbiorze danych
Kombinacja jądrowych estymatorów gęstości w klasyfikacji - zastosowanie na sztucznym zbiorze danych Mateusz Kobos, 07.04.2010 Seminarium Metody Inteligencji Obliczeniowej Spis treści Opis algorytmu i zbioru
Kombinacja jądrowych estymatorów gęstości w klasyfikacji kontynuacja prac
Kombinacja jądrowych estymatorów gęstości w klasyfikacji kontynuacja prac Mateusz Kobos, 25.03.2009 Seminarium Metody Inteligencji Obliczeniowej 1/26 Spis treści Opis algorytmu Testy wersji z optymalizacją
Kombinacja jądrowych estymatorów gęstości w klasyfikacji - testy na sztucznych danych
Kombinacja jądrowych estymatorów gęstości w klasyfikacji - testy na sztucznych danych Mateusz Kobos, 25.11.2009 Seminarium Metody Inteligencji Obliczeniowej 1/25 Spis treści Dolne ograniczenie na wsp.
Mateusz Kobos Seminarium z Metod Inteligencji Obliczeniowej, MiNI PW
Klasyfikacja za pomocą kombinacji estymatorów jądrowych: dobór szerokości jądra w zależności od lokalizacji w przestrzeni cech, stosowanie różnych przekształceń przestrzeni, funkcja błędu oparta na information
2. Empiryczna wersja klasyfikatora bayesowskiego
Algorytmy rozpoznawania obrazów 2. Empiryczna wersja klasyfikatora bayesowskiego dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Brak pełnej informacji probabilistycznej Klasyfikator bayesowski
Drzewa decyzyjne i lasy losowe
Drzewa decyzyjne i lasy losowe Im dalej w las tym więcej drzew! ML Gdańsk http://www.mlgdansk.pl/ Marcin Zadroga https://www.linkedin.com/in/mzadroga/ 20 Czerwca 2017 WPROWADZENIE DO MACHINE LEARNING CZYM
Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej. Adam Żychowski
Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej Adam Żychowski Definicja problemu Każdy z obiektów może należeć do więcej niż jednej kategorii. Alternatywna definicja Zastosowania
Optymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017
Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład III bogumil.konopka@pwr.edu.pl 2016/2017 Wykład III - plan Regresja logistyczna Ocena skuteczności klasyfikacji Macierze pomyłek Krzywe
8. Drzewa decyzyjne, bagging, boosting i lasy losowe
Algorytmy rozpoznawania obrazów 8. Drzewa decyzyjne, bagging, boosting i lasy losowe dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Drzewa decyzyjne Drzewa decyzyjne (ang. decision trees), zwane
Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner
Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner Wydział Matematyki i Nauk Informacyjnych Politechnika Warszawska Elementy nieprzystające Definicja odrzucania Klasyfikacja
Metody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska
Metody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska e-mail: bartosz.krawczyk@pwr.wroc.pl Czym jest klasyfikacja
Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV
Klasyfikatory: k-nn oraz naiwny Bayesa Agnieszka Nowak Brzezińska Wykład IV Naiwny klasyfikator Bayesa Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną
Jądrowe klasyfikatory liniowe
Jądrowe klasyfikatory liniowe Waldemar Wołyński Wydział Matematyki i Informatyki UAM Poznań Wisła, 9 grudnia 2009 Waldemar Wołyński () Jądrowe klasyfikatory liniowe Wisła, 9 grudnia 2009 1 / 19 Zagadnienie
SPOTKANIE 9: Metody redukcji wymiarów
Wrocław University of Technology SPOTKANIE 9: Metody redukcji wymiarów Piotr Klukowski* Studenckie Koło Naukowe Estymator piotr.klukowski@pwr.wroc.pl 08.12.2015 *Część slajdów pochodzi z prezentacji dr
Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I
Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:
1 Klasyfikator bayesowski
Klasyfikator bayesowski Załóżmy, że dane są prawdopodobieństwa przynależności do klasp( ),P( 2 ),...,P( L ) przykładów z pewnego zadania klasyfikacji, jak również gęstości rozkładów prawdopodobieństw wystąpienia
Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar... 1. Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16
Spis treści Przedmowa.......................... XI Rozdział 1. Pomiar: jednostki miar................. 1 1.1. Wielkości fizyczne i pozafizyczne.................. 1 1.2. Spójne układy miar. Układ SI i jego
Elementy modelowania matematycznego
Elementy modelowania matematycznego Modelowanie algorytmów klasyfikujących. Podejście probabilistyczne. Naiwny klasyfikator bayesowski. Modelowanie danych metodą najbliższych sąsiadów. Jakub Wróblewski
Dobór parametrów algorytmu ewolucyjnego
Dobór parametrów algorytmu ewolucyjnego 1 2 Wstęp Algorytm ewolucyjny posiada wiele parametrów. Przykładowo dla algorytmu genetycznego są to: prawdopodobieństwa stosowania operatorów mutacji i krzyżowania.
Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.
Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 211-1-18 1 Pomysł Przykłady Zastosowanie 2
Metody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium JAVA Zadanie nr 2 Rozpoznawanie liter autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z problemem klasyfikacji
Regresyjne metody łączenia klasyfikatorów
Regresyjne metody łączenia klasyfikatorów Tomasz Górecki, Mirosław Krzyśko Wydział Matematyki i Informatyki Uniwersytet im. Adama Mickiewicza XXXV Konferencja Statystyka Matematyczna Wisła 7-11.12.2009
Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych
Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych mgr inż. C. Dendek prof. nzw. dr hab. J. Mańdziuk Politechnika Warszawska, Wydział Matematyki i Nauk Informacyjnych Outline 1 Uczenie
Rozmyte drzewa decyzyjne. Łukasz Ryniewicz Metody inteligencji obliczeniowej
µ(x) x µ(x) µ(x) x x µ(x) µ(x) x x µ(x) x µ(x) x Rozmyte drzewa decyzyjne Łukasz Ryniewicz Metody inteligencji obliczeniowej 21.05.2007 AGENDA 1 Drzewa decyzyjne kontra rozmyte drzewa decyzyjne, problemy
Metody klasyfikacji danych - część 1 p.1/24
Metody klasyfikacji danych - część 1 Inteligentne Usługi Informacyjne Jerzy Dembski Metody klasyfikacji danych - część 1 p.1/24 Plan wykładu - Zadanie klasyfikacji danych - Przeglad problemów klasyfikacji
Klasyfikator liniowy Wstęp Klasyfikator liniowy jest najprostszym możliwym klasyfikatorem. Zakłada on liniową separację liniowy podział dwóch klas między sobą. Przedstawia to poniższy rysunek: 5 4 3 2
Klasyfikacja LDA + walidacja
Klasyfikacja LDA + walidacja Dr hab. Izabela Rejer Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Plan wykładu 1. Klasyfikator 2. LDA 3. Klasyfikacja wieloklasowa 4. Walidacja
Selekcja modelu liniowego i predykcja metodami losowych podprzestrzeni
Selekcja modelu liniowego i predykcja metodami losowych podprzestrzeni Paweł Teisseyre Instytut Podstaw Informatyki, Polska Akademia Nauk Paweł Teisseyre Selekcja modelu liniowego i predykcja 1 / 29 Plan
IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ
IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,
Agnieszka Nowak Brzezińska
Agnieszka Nowak Brzezińska jeden z algorytmów regresji nieparametrycznej używanych w statystyce do prognozowania wartości pewnej zmiennej losowej. Może również byd używany do klasyfikacji. - Założenia
Agnieszka Nowak Brzezińska Wykład III
Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe
Klasyfikator. ˆp(k x) = 1 K. I(ρ(x,x i ) ρ(x,x (K) ))I(y i =k),k =1,...,L,
Klasyfikator Jedną z najistotniejszych nieparametrycznych metod klasyfikacji jest metoda K-najbliższych sąsiadów, oznaczana przez K-NN. W metodzie tej zaliczamy rozpoznawany obiekt do tej klasy, do której
Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak
Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak 1 Wprowadzenie. Zmienne losowe Podczas kursu interesować nas będzie wnioskowanie o rozpatrywanym zjawisku. Poprzez wnioskowanie rozumiemy
SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.
SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska INFORMACJE WSTĘPNE Hipotezy do uczenia się lub tworzenia
Sieć przesyłająca żetony CP (counter propagation)
Sieci neuropodobne IX, specyficzne architektury 1 Sieć przesyłająca żetony CP (counter propagation) warstwa Kohonena: wektory wejściowe są unormowane jednostki mają unormowane wektory wag jednostki są
LEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów
LEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów Łukasz Piątek, Jerzy W. Grzymała-Busse Katedra Systemów Ekspertowych i Sztucznej Inteligencji, Wydział Informatyki
10. Redukcja wymiaru - metoda PCA
Algorytmy rozpoznawania obrazów 10. Redukcja wymiaru - metoda PCA dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. PCA Analiza składowych głównych: w skrócie nazywana PCA (od ang. Principle Component
Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty
Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-03 Projekt pn. Wzmocnienie potencjału
TEORETYCZNE PODSTAWY INFORMATYKI
1 TEORETYCZNE PODSTAWY INFORMATYKI WFAiS UJ, Informatyka Stosowana I rok studiów, I stopień Wykład 16 2 Data Science: Uczenie maszynowe Uczenie maszynowe: co to znaczy? Metody Regresja Klasyfikacja Klastering
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych
Stosowana Analiza Regresji
Stosowana Analiza Regresji Wykład VIII 30 Listopada 2011 1 / 18 gdzie: X : n p Q : n n R : n p Zał.: n p. X = QR, - macierz eksperymentu, - ortogonalna, - ma zera poniżej głównej diagonali. [ R1 X = Q
Aproksymacja funkcji a regresja symboliczna
Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(x), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(x), zwaną funkcją aproksymującą
Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18
Eksploracja Danych wykład 4 Sebastian Zając WMP.SNŚ UKSW 10 maja 2017 Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja 2017 1 / 18 Klasyfikacja danych Klasyfikacja Najczęściej stosowana (najstarsza)
Machine learning Lecture 5
Machine learning Lecture 5 Marcin Wolter IFJ PAN 21 kwietnia 2017 Uczenie -sprawdzanie krzyżowe (cross-validation). Optymalizacja parametrów metod uczenia maszynowego. Deep learning 1 Uczenie z nauczycielem
Elementy inteligencji obliczeniowej
Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego
Wybór modelu i ocena jakości klasyfikatora
Wybór modelu i ocena jakości klasyfikatora Błąd uczenia i błąd testowania Obciążenie, wariancja i złożoność modelu (klasyfikatora) Dekompozycja błędu testowania Optymizm Estymacja błędu testowania AIC,
Uczenie sieci typu MLP
Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik
KLASYFIKACJA. Słownik języka polskiego
KLASYFIKACJA KLASYFIKACJA Słownik języka polskiego Klasyfikacja systematyczny podział przedmiotów lub zjawisk na klasy, działy, poddziały, wykonywany według określonej zasady Klasyfikacja polega na przyporządkowaniu
w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych.
Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(), zwaną funkcją aproksymującą
Adrian Horzyk
Metody Inteligencji Obliczeniowej Metoda K Najbliższych Sąsiadów (KNN) Adrian Horzyk horzyk@agh.edu.pl AGH Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej
Agnieszka Nowak Brzezińska Wykład III
Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe
KADD Metoda najmniejszych kwadratów funkcje nieliniowe
Metoda najmn. kwadr. - funkcje nieliniowe Metoda najmniejszych kwadratów Funkcje nieliniowe Procedura z redukcją kroku iteracji Przykłady zastosowań Dopasowanie funkcji wykładniczej Dopasowanie funkcji
Wprowadzenie. { 1, jeżeli ˆr(x) > 0, pozatym. Regresja liniowa Regresja logistyczne Jądrowe estymatory gęstości. Metody regresyjne
Wprowadzenie Prostym podejściem do klasyfikacji jest estymacja funkcji regresji r(x) =E(Y X =x)zpominięciemestymacjigęstościf k. Zacznijmyodprzypadkudwóchgrup,tj.gdy Y = {1,0}. Wówczasr(x) =P(Y =1 X =x)ipouzyskaniuestymatora
SPOTKANIE 3: Regresja: Regresja liniowa
Wrocław University of Technology SPOTKANIE 3: Regresja: Regresja liniowa Adam Gonczarek Studenckie Koło Naukowe Estymator adam.gonczarek@pwr.wroc.pl 22.11.2013 Rozkład normalny Rozkład normalny (ang. normal
KADD Minimalizacja funkcji
Minimalizacja funkcji Poszukiwanie minimum funkcji Foma kwadratowa Metody przybliżania minimum minimalizacja Minimalizacja w n wymiarach Metody poszukiwania minimum Otaczanie minimum Podział obszaru zawierającego
Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE
Temat: Sztuczne Sieci Neuronowe Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Sztuczne sieci neuronowe
METODY INŻYNIERII WIEDZY
METODY INŻYNIERII WIEDZY Metoda K Najbliższych Sąsiadów K-Nearest Neighbours (KNN) ĆWICZENIA Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej
1.7. Eksploracja danych: pogłębianie, przeszukiwanie i wyławianie
Wykaz tabel Wykaz rysunków Przedmowa 1. Wprowadzenie 1.1. Wprowadzenie do eksploracji danych 1.2. Natura zbiorów danych 1.3. Rodzaje struktur: modele i wzorce 1.4. Zadania eksploracji danych 1.5. Komponenty
Niezawodność diagnostyka systemów laboratorium. Ćwiczenie 2
dr inż. Jacek Jarnicki doc. PWr Niezawodność diagnostyka systemów laboratorium Ćwiczenie 2 1. Treść ćwiczenia Generowanie realizacji zmiennych losowych i prezentacja graficzna wyników losowania. Symulacja
METODY INŻYNIERII WIEDZY
METODY INŻYNIERII WIEDZY Metoda K Najbliższych Sąsiadów K-Nearest Neighbours (KNN) ĆWICZENIA Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej
METODY INŻYNIERII WIEDZY
METODY INŻYNIERII WIEDZY WALIDACJA KRZYŻOWA dla ZAAWANSOWANEGO KLASYFIKATORA KNN ĆWICZENIA Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej
Algorytmy, które estymują wprost rozkłady czy też mapowania z nazywamy algorytmami dyskryminacyjnymi.
Spis treści 1 Wstęp: generatywne algorytmy uczące 2 Gaussowska analiza dyskryminacyjna 2.1 Gaussowska analiza dyskryminacyjna a regresja logistyczna 3 Naiwny Klasyfikator Bayesa 3.1 Wygładzanie Laplace'a
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt
Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań
Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW
WYDZIAŁ MATEMATYKI KARTA PRZEDMIOTU
WYDZIAŁ MATEMATYKI KARTA PRZEDMIOTU Nazwa w języku polskim: Eksploracja Danych Nazwa w języku angielskim: Data Mining Kierunek studiów (jeśli dotyczy): MATEMATYKA I STATYSTYKA Stopień studiów i forma:
mgr inż. Magdalena Deckert Poznań, r. Uczenie się klasyfikatorów przy zmieniającej się definicji klas.
mgr inż. Magdalena Deckert Poznań, 01.06.2010r. Uczenie się klasyfikatorów przy zmieniającej się definicji klas. Plan prezentacji Wstęp Concept drift Typy zmian Podział algorytmów stosowanych w uczeniu
Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład I dr inż. 2015/2016
Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład I dr inż. Bogumil.Konopka@pwr.edu.pl 2015/2016 1 Wykład I - plan Sprawy organizacyjne Uczenie maszynowe podstawowe pojęcia Proces modelowania
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-10 Projekt pn. Wzmocnienie
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny
CLUSTERING. Metody grupowania danych
CLUSTERING Metody grupowania danych Plan wykładu Wprowadzenie Dziedziny zastosowania Co to jest problem klastrowania? Problem wyszukiwania optymalnych klastrów Metody generowania: k centroidów (k - means
Ekonometria. Dobór postaci analitycznej, transformacja liniowa i estymacja modelu KMNK. Paweł Cibis 23 marca 2006
, transformacja liniowa i estymacja modelu KMNK Paweł Cibis pcibis@o2.pl 23 marca 2006 1 Miary dopasowania modelu do danych empirycznych Współczynnik determinacji Współczynnik zbieżności 2 3 Etapy transformacji
Metody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 2 Detekcja twarzy autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się algorytmem gradientu prostego
Instytut Politechniczny Państwowa Wyższa Szkoła Zawodowa. Diagnostyka i niezawodność robotów
Instytut Politechniczny Państwowa Wyższa Szkoła Zawodowa Diagnostyka i niezawodność robotów Laboratorium nr 3 Generacja realizacji zmiennych losowych Prowadzący: mgr inż. Marcel Luzar Cele ćwiczenia: Generowanie
Elementy statystyki wielowymiarowej
Wnioskowanie_Statystyczne_-_wykład Spis treści 1 Elementy statystyki wielowymiarowej 1.1 Kowariancja i współczynnik korelacji 1.2 Macierz kowariancji 1.3 Dwumianowy rozkład normalny 1.4 Analiza składowych
Klasyfikacja naiwny Bayes
Klasyfikacja naiwny Bayes LABORKA Piotr Ciskowski NAIWNY KLASYFIKATOR BAYESA wyjaśnienie Naiwny klasyfikator Bayesa żródło: Internetowy Podręcznik Statystyki Statsoft dane uczące 2 klasy - prawdopodobieństwo
Sztuczna Inteligencja Tematy projektów Sieci Neuronowe
PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia
Tablica Wzorów Rachunek Prawdopodobieństwa i Statystyki
Tablica Wzorów Rachunek Prawdopodobieństwa i Statystyki Spis treści I. Wzory ogólne... 2 1. Średnia arytmetyczna:... 2 2. Rozstęp:... 2 3. Kwantyle:... 2 4. Wariancja:... 2 5. Odchylenie standardowe:...
Optymalizacja systemów
Optymalizacja systemów Laboratorium - problem detekcji twarzy autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, P. Klukowski Cel zadania Celem zadania jest zapoznanie się z gradientowymi algorytmami optymalizacji
Metody klasyfikacji i rozpoznawania wzorców. Najważniejsze rodzaje klasyfikatorów
Metody klasyfikacji i rozpoznawania wzorców www.michalbereta.pl Najważniejsze rodzaje klasyfikatorów Dla określonego problemu klasyfikacyjnego (tzn. dla danego zestawu danych) należy przetestować jak najwięcej
Analiza Statystyczna
Lekcja 5. Strona 1 z 12 Analiza Statystyczna Do analizy statystycznej wykorzystać można wbudowany w MS Excel pakiet Analysis Toolpak. Jest on instalowany w programie Excel jako pakiet dodatkowy. Oznacza
Uczenie sieci radialnych (RBF)
Uczenie sieci radialnych (RBF) Budowa sieci radialnej Lokalne odwzorowanie przestrzeni wokół neuronu MLP RBF Budowa sieci radialnych Zawsze jedna warstwa ukryta Budowa neuronu Neuron radialny powinien
7. Maszyny wektorów podpierajacych SVMs
Algorytmy rozpoznawania obrazów 7. Maszyny wektorów podpierajacych SVMs dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Maszyny wektorów podpierajacych - SVMs Maszyny wektorów podpierających (ang.
Zastosowanie sztucznej inteligencji w testowaniu oprogramowania
Zastosowanie sztucznej inteligencji w testowaniu oprogramowania Problem NP Problem NP (niedeterministycznie wielomianowy, ang. nondeterministic polynomial) to problem decyzyjny, dla którego rozwiązanie
Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów
Rozdział : Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów W tym rozdziale omówione zostaną dwie najpopularniejsze metody estymacji parametrów w ekonometrycznych modelach nieliniowych,
Dariusz Brzeziński. Politechnika Poznańska
Dariusz Brzeziński Politechnika Poznańska Klasyfikacja strumieni danych Algorytm AUE Adaptacja klasyfikatorów blokowych do przetwarzania przyrostowego Algorytm OAUE Dlasze prace badawcze Blokowa i przyrostowa
Rozpoznawanie obrazów
Rozpoznawanie obrazów Laboratorium Python Zadanie nr 2 κ-nn i Naive Bayes autorzy: M. Zięba, J.M. Tomczak, A. Gonczarek, S. Zaręba, J. Kaczmar Cel zadania Celem zadania jest implementacja klasyfikatorów
Algorytmy klasyfikacji
Algorytmy klasyfikacji Konrad Miziński Instytut Informatyki Politechnika Warszawska 6 maja 2015 1 Wnioskowanie 2 Klasyfikacja Zastosowania 3 Drzewa decyzyjne Budowa Ocena jakości Przycinanie 4 Lasy losowe
Kognitywne hierarchiczne aktywne podziały. Arkadiusz Tomczyk.
Arkadiusz Tomczyk arkadiusz.tomczyk@p.lodz.pl projekt finansowany przez: Narodowe Centrum Nauki numer projektu: 2012/05/D/ST6/03091 Przykładowy problem Diagnostyka zatorowości płucnej Obrazowanie CT sprzężone
DRZEWA REGRESYJNE I LASY LOSOWE JAKO
DRZEWA REGRESYJNE I LASY LOSOWE JAKO NARZĘDZIA PREDYKCJI SZEREGÓW CZASOWYCH Z WAHANIAMI SEZONOWYMI Grzegorz Dudek Instytut Informatyki Wydział Elektryczny Politechnika Częstochowska www.gdudek.el.pcz.pl
5. Analiza dyskryminacyjna: FLD, LDA, QDA
Algorytmy rozpoznawania obrazów 5. Analiza dyskryminacyjna: FLD, LDA, QDA dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Liniowe funkcje dyskryminacyjne Liniowe funkcje dyskryminacyjne mają ogólną
Metody szacowania zdolności kredytowej klientów indywidualnych. Mateusz Kobos 15.11.2006
Metody szacowania zdolności kredytowej klientów indywidualnych Mateusz Kobos 15.11.2006 Spis treści Czym jest Credit Scoring (CS)? Analizowane dane Zalety i ograniczenia CS CS w praktyce CS jako zagadnienie
Próba wykorzystania podejścia wielomodelowego w klasyfikacji jednostek samorządowych
Jacek Batóg Uniwersytet Szczeciński Próba wykorzystania podejścia wielomodelowego w klasyfikacji jednostek samorządowych Agregacja wyników uzyskiwanych w odrębnych badaniach, często również przy pomocy
SPOTKANIE 7: Redukcja wymiarów: PCA, Probabilistic PCA
Wrocław University of Technology SPOTKANIE 7: Redukcja wymiarów: PCA, Probabilistic PCA Maciej Zięba Studenckie Koło Naukowe Estymator jakub.tomczak@pwr.wroc.pl 18.01.2013 Redukcja wymiarów Zmienne wejściowe
MATLAB Neural Network Toolbox przegląd
MATLAB Neural Network Toolbox przegląd WYKŁAD Piotr Ciskowski Neural Network Toolbox: Neural Network Toolbox - zastosowania: przykłady zastosowań sieci neuronowych: The 1988 DARPA Neural Network Study
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa
Fuzja sygnałów i filtry bayesowskie
Fuzja sygnałów i filtry bayesowskie Roboty Manipulacyjne i Mobilne dr inż. Janusz Jakubiak Katedra Cybernetyki i Robotyki Wydział Elektroniki, Politechnika Wrocławska Wrocław, 10.03.2015 Dlaczego potrzebna
Ekonometria. Dobór postaci analitycznej, transformacja liniowa i estymacja modelu KMNK. Paweł Cibis 9 marca 2007
, transformacja liniowa i estymacja modelu KMNK Paweł Cibis pawel@cibis.pl 9 marca 2007 1 Miary dopasowania modelu do danych empirycznych Współczynnik determinacji Współczynnik zbieżności Skorygowany R