Metody systemowe i decyzyjne w informatyce
|
|
- Irena Matusiak
- 9 lat temu
- Przeglądów:
Transkrypt
1 Metody systemowe i decyzyjne w informatyce Laboratorium ZALICZENIE Zadanie nr 3 Rozpoznawanie ręcznie pisanych cyfr autorzy: A. Gonczarek, P. Klukowski, J.M. Tomczak, S. Zaręba, M. Zięba Cel zadania Celem zadania jest implementacja modelu, który pozwoli na klasyfikację ręcznie pisanych cyfr (przykładowe obrazy przedstawiono na rysunku 1). Wybór modelu jest dowolny, podobnie jak algorytmu uczenia, oraz ekstrakcji cech. Zaimplementowane podejście oceniane będzie poprzez poprawność predykcji (klasyfikacji) na próbie testowej. W ramach zadania do wykonania są następujące kroki: ˆ Ekstrakcja cech z obrazu. ˆ Wybór i implementacja modelu. ˆ Wybór i implementacja algorytmu uczenia. ˆ Predykcja dla nowego obrazu w oparciu o wybrany model. Rysunek 1: Przykładowe obrazy przedstawiające ręcznie pisane cyfry. Uwaga! Nie wszystkie z powyższych etapów muszą być koniecznie wykonane. Przykładem jest klasyfikator κ-nn, który może działać bezpośrednio na obrazach bez ekstrakcji cech oraz nie wymaga stosowania algorytmu uczenia, gdyż do predykcji wykorzystuje bezpośrednio ciąg uczący. W kolejnych podpunktach wskazane zostaną przykładowe rozwiązania poszczególnych etapów. Nie oznacza to, że należy ograniczać się wyłącznie do nich! 1
2 Ekstrakcja cech Dla skutecznej klasyfikacji zazwyczaj stosuje się ekstrakcję cech (ang. feature extraction) z obiektu (np. obrazu). Ekstrakcja cech polega na przetworzeniu obiektu do zestawu wielkości (cech), które reprezentują istotne informacje o obiekcie. Istnieje wiele sposobów ekstrakcji cech, natomiast dobór odpowiedniej metody jest zależny od rozpatrywanego zagadnienia, np. ekstrakcja cech z obrazów, sygnałów dźwiękowych, sygnałów medycznych. W dalszej części przedstawiono przykładowe metody ekstrakcji cech. Filtry Gabora. Jedną z metod ekstrakcji cech z obrazu są filtry Gabora. Idea filtrów Gabora opiera się na określoniu pewnych funkcji bazowych złożonych z funkcji gaussowskiej i sinusoidalnych. Wówczas, nakładając filtry Gabora na obraz dostajemy odpowiedz, która przekazywana jest do klasyfikatora. Więcej o filtrach Gabora można przeczytać np. w pracy: http: //personal.lut.fi/users/joni.kamarainen/downloads/publications/ipta2012.pdf Filtry Haara. Idea filtrów Haara polega na wykorzystaniu prostych obrazów, zazwyczaj prostokątnych, w których określa się jasne i czarne obszary, a następnie liczy się różnice między sumą pikseli w odpowiednich obszarach. Filtry te zawdzięczają swoją popularność dzięki łatwości implementacji oraz szybkości wyznaczenia cech przy zastosowaniu tzw. obrazów całkowych (ang. integral images). Więcej o filtrach Haara można przeczytać np. na stronie: Haar-like_features, oraz w pracy: Funkcje jądra. Odmiennym sposobem określania cech od filtrów Gabora czy Haara jest wykorzystanie zaobserwowanych obiektów. Przykładem takiego podejścia jest wybranie pewnego podzbioru M zaobserwowanych obrazów (sposób wyboru może być losowy lub metodyczny) oraz zdefiniowanie funkcji określającej podobieństwo między nowym obiektem a znanymi obiektami k(x new, x n ). Funkcja ta, jeśli spełnia pewne określone własności, nazywana się funkcją jądra (ang. kernel function, lub kernel). Wówczas wartość funkcji jądra dla każdego zapamiętanego obiektu jest cechą, a w rezultacie otrzymujemy ciąg M cech. Podobna idea wykorzystywana jest w tzw. radialnych sieciach neuronowych: Analiza składowych głównych. Do ekstrakcji cech z obrazu można również wykorzystać analizę składowych głównych (ang. Principal Component Analysis, PCA). Idea PCA polega na znalezieniu przekształcenia liniowego wysokowymiarowej (oryginalnej) przestrzeni na niskowymiarową przestrzeń cech. Opis zastosowania PCA do ekstrakcji cech z obrazów można znaleźć np. w prezentacji 2
3 Ekstrakcja ręcznie określonych cech. Czasami znajomość problemu pozwala na ręczne określenie cech. Przykładowo, dla ręcznie pisanych liter lub cyfr można zaproponować następujące cechy: ˆ Stosunek wysokości fragmentu symbolu do wysokości całego symbolu. ˆ Stosunek szerokości fragmentu symbolu do szerokości całego symbolu. ˆ Gęstość pikseli w wybranych fragmencie obrazu. Niemożliwe jest określenie ogólnej metodyki proponowania cech, ponieważ jest ona zależna od zagadnienia oraz pomysłowości projektanta. Warto zaznaczyć, że różne techniki ekstrakcji cech można ze sobą łączyć tworząć bogatszy zbiór cech, a także można je łączyć w sposób potokowy, np. wektor cech uzyskany przy pomocy filtrów Haara przekształcić z użyciem PCA. Model Modele generujące. Korzystanie z modeli generujących (ang. generative modeling) ma na celu modelowanie rozkładu łącznego zmiennych losowych φ (cechy) i y (klasa) za pomocą p(φ, y θ), gdzie θ R M oznacza wektor parametrów modelu. Zauważmy, że modele generujące pozwalają na faktoryzację rozkładu łącznego: 1 p(x, y) = p(φ y)p(y) (1) = p(y φ)p(φ). (2) Znając rozkład łączny cech i wyjść można najpierw wygenerować wartość klasy, a następnie wartości cech (wzór (1)), lub w pierwszej kolejności wygenerować wartości cech, a później wartość klasy (wzór (2)). Dlatego też modele dla rozkładu łącznego nazywane są generujące, ponieważ umożliwiają generowanie zarówno wartości klas, jak również cech. Przykładami modeli generujących są: ˆ Gaussian Discriminant Analysis (GDA): gdy cechy w poszczególnych klasach modelowane są rozkładami normalnymi p(φ y), a rozkład na klasy p(y) modelowany jest rozkładem wielopunktowym; ˆ Naive Bayes: podobnie jak GDA, z dodatkowym założeniem, że cechy są niezależne (diagonalne macierze kowariancji w rozkładach normalnych). Więcej przykładów modeli generujących można znaleźć np. w książce: ca/~murphyk/mlbook/. 1 Dla przejrzystości pominięto warunkowanie θ. 3
4 Modele dyskryminujące. Korzystanie z modeli dyskryminujących (ang. discriminative modeling) ma na celu modelowanie rozkładu warunkowego p(y φ, θ), gdzie θ R M oznacza wektor parametrów modelu. W wielu zastosowaniach interesuje nas wyłącznie znalezienie zależności klasy od zadanych cech, natomiast poznanie zależności dot. cech jest nieistotne. Co więcej, zwróćmy uwagę, że do podejmowania decyzji rozkład p(y φ) jest wystarczający. Dlatego też podejście z modelowaniem wprost rozkładu y pod warunkiem φ nazywa się modelami dyskryminującymi. Przykładami modeli dyskryminujących są: ˆ Logistic Regression: przyjmujemy kombinację liniową cech, natomiast rozkład warunkowy modelowany jest za pomocą funkcji sigmoidalnej (przypadek dwuklasowy) lub softmax (przypadek wieloklasowy); ˆ κ-nearest Neighbor: dla zadanej funkcji jądra, rozkład prawdopodobieństwa klasy pod warunkiem cech estymowany jest w sposób nieparametryczny przy użyciu wartości klas dla κ N najbliższych obiektów; ˆ Sieć neuronowa, Multilayer Perceptron (MLP): jeżeli przyjmujemy funkcję sigmoidalną lub softmax na wyjściu sieci, to wówczas MLP może być traktowany jako probabilistyczny model dyskryminujący. Więcej o modelach dyskryminujących można znaleźć np. w książce: ~murphyk/mlbook/. Modele funkcyjne. Trzecim podejściem jest zaproponowanie funkcji dyskryminującej (ang. discriminant function), która nie ma interpretacji probabilistycznej, ale która pozwala na przyporządkowaniu wektorowi cech wartości klasy. Przykładami modeli funkcyjnych są: ˆ Sieć neuronowa, Multilayer Perceptron (MLP): jeżeli przyjmujemy inną funkcję na wyjściu sieci niż funkcja sigmoidalna czy softmax (w konsekwencji należy wybrać inną funkcję celu uczenia niż funkcja wiarygodności), to wówczas MLP jest traktowana jako funkcja dyskryminująca; ˆ Support Vector Machines (SVM): jest to model dla przypadku dwuklasowego mający na celu znalezienie największego marginesu rozdzielającego klasy. W przypadku wieloklasowym należy wykorzystać K modeli i zastosować technikę predykcji 1 vs ALL. Więcej o funkcjach dyskryminujących można znaleźć np. w książce: ~murphyk/mlbook/. 4
5 Uczenie Uczenie polega na estymacji parametrów modelu θ przy użyciu danych (ciągu treningowego) D = {(φ n, y n )} N n=1 poprzez minimalizację zadanej funkcji celu (kryterium uczenia). W przypadku modeli probabilistycznych zazwyczaj przyjmuje się ujemny logarytm funkcji wiarygodności (ang. negative log-likelihood) lub, dla zadanego rozkładu a priori na parametry, ujemny logarytm rozkładu a posteriori. 2 Natomiast w przypadku modeli nieprobabilistycznych (tj. funkcji dyskryminujących) należy zaproponować innego rodzaju funkcję celu, np. dla klasyfikacji binarnej może to być błąd średniokwadratowy lub entropia krzyżowa (ang. cross-entropy loss). Dodatkowo, w celu osiągnięcia zadanych własności modelu, do kryterium uczenia często dodaje się regularyzację (ang. regularization). Regularyzacja poprawia proces uczenia, np. poprzez przeciwdziałanie zbytniemu dopasowaniu modelu do danych (ang. overfitting) lub osiąganiu rozwiązań rzadkich (ang. sparse representation). Przykładem regularyzatora jest uwzględnienie normy l 2 na parametry. Czasem wartości parametrów minimalizujących kryterium uczenia przy zadanym ciągu obserwacji mogą być wyznaczone w postaci analitycznej (ang. closed form), jednakże dla większości użytecznych modeli nie jest to możliwe. Z tego powodu stosuje się numeryczne algorytmy optymalizacji. Do najczęściej stosowanych algorytmów w uczeniu maszynowym zalicza się metodę gradientu prostego (ang. gradient descent) lub jej wariant metodę stochastycznego gradientu prostego (ang. stochastic gradient descent), w której uaktualnianie wag w pojedynczej iteracji odbywa się przy użyciu pojedynczej lub co najwyżej kilku obserwacji na raz, tzw. mini-paczek (ang. mini-batch). W celu stosowania takiego podejścia należy wyznaczyć gradient kryterium uczenia lub przynajmniej jego aproksymację. Należy również dodać, że w przypadku niektórych modeli stosuje się dedykowane algorytmy uczenia, np. algorytm Sequential Minimal Optimization (SMO) dla SVM. Więcej na temat uczenia modeli można znaleźć np. w książce: MLbook/. 2 Standardowo metoda ta zwana jest metodą maksymalnej a posteriori (MAP), jednak dla spójności w niniejszym dokumencie mówimy o minimalizacji funkcji celu, dlatego należy uwzględnić znak minus. 5
6 Predykcja Modele generujące. Po wyuczeniu modelu generującego, dla nowego obiektu φ new możemy wyznaczyć rozkład warunkowy p(y φ new ) korzystając ze wzoru Bayesa: 3 p(y φ new ) = p(φnew y)p(y) p(φ new ) = p(φnew y)p(y) y p(φnew y )p(y ) Ostatecznie wartość klasy określana jest na podstawie wartości prawdopodobieństwa, tj. predykowana wartość klasy dla nowego obiektu przyjmuje największą wartość prawdopodobieństwa: Modele dyskryminujące. y = arg max p(y φ new ). (3) y Po wyuczeniu modelu dyskryminującego, dla nowego obiektu dokonujemy predykcji analogicznie jak w przypadku modeli generujących z użyciem (3). Modele funkcyjne. Funkcja dyskryminująca przyporządkowuje obiektowi wartość klasy. Dlatego po jej wyuczeniu, predykcja polega na poznaniu wartości funkcji dyskryminującej dla nowego obiektu. Instrukcja wykonania zadania 1. Należy pobrać dane treningowe trainx.mat i trainy.mat ze strony kursu. Plik trainx.mat zawiera dane obrazami w postaci macierzy N D, które mają być wykorzystane w procesie uczenia (N = 60000). Każdy z obrazów jest przekształcony do D-wymiarowego wektora, który stanowi odrębny wiersz macierzy z danymi. Obrazy są wielkości pikseli (D = 784). Aby zwizualizować wybrany wiersz x z macierzy trainx.mat należy przekształcić go do obrazu poleceniem reshape(x,28,28), a następnie użyć polecenia imshow. Plik trainy.mat zawiera N etykiet klas dla obrazów z pliku trainx.mat, które przyjmują wartości ze zbioru {0,..., 9} (wartość etykiety odpowiada cyfrze na obrazie). 2. Posiłkując się otrzymanymi danymi treningowymi, należy wyuczyć model, który następnie wykorzystany będzie do klasyfikacji cyfr na obrazach. Ewentualny ciąg walidacyjny należy wyróżnić samodzielnie. 3. W celu klasyfikacji obrazów należy uzupełnić funkcję predict w pliku predict.m w taki sposób, żeby funkcja dla macierzy wejściowej X, w której poszczególne wiersze zawierają 3 Dla przejrzystości pominięto warunkowanie θ. 6
7 obrazy do sklasyfikowania, uzupełniła wektor y o przewidywane etykiety klas (i-ty wiersz X odpowiada i-temu elementowi wektora y). 4. Jakość predykcji zaproponowanego modelu można sprawdzić raz dziennie poprzez załadowanie pliku predict.m plus ew. plików pomocniczych w postaci paczki zip na serwer: Przeprowadzona zostanie wówczas weryfikacja jakości opracowanego modelu na podstawie 25% danych testowych. 5. Wielkość paczki zip nie może przekraczać 2 MB. Czas wykonania funkcji predict.m nie może przekraczać 1 minuty dla 2500 przykładów (25% zbioru testowego) oraz 4 minut dla przykładów (cały zbiór testowy). Dodatkowo plik predict.m musi znajdować się na wierzchu po rozpakowaniu paczki zip, a nie w dodatkowych podkatalogach. 6. Serwer wykonuje ewaluację programów codziennie o godzinie 00:00 z użyciem środowiska MATLAB 2014a. Należy zapewnić, aby wgrywany program był zgodny z tym standardem. 7. Gotowy program należy wgrać na serwer przed terminem , GMT+1. Ostateczny wynik, pozycja rankingowa oraz ocena zostanie wyliczona na podstawie całego zbioru testowego po tym terminie. Do oceny brany jest pod uwagę tylko ostatni program załadowany na serwer. 8. Aby zaliczyć kurs na ocenę pozytywną, jakość predykcji programu musi być wyższa niż 90% na całym zbiorze testowym. Należy wziąć pod uwagę, że jakość predykcji na 25% zbioru może różnić się nawet o 1% w stosunku do jakości na całym zbiorze. 7
Rozpoznawanie obrazów
Rozpoznawanie obrazów Ćwiczenia lista zadań nr 7 autorzy: A. Gonczarek, J.M. Tomczak Przykładowe problemy Klasyfikacja binarna Dla obrazu x zaproponowano dwie cechy φ(x) = (φ 1 (x) φ 2 (x)) T. Na obrazie
Metody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium JAVA Zadanie nr 2 Rozpoznawanie liter autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z problemem klasyfikacji
Metody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 2 κ-nn i Naive Bayes autorzy: M. Zięba, J.M. Tomczak, A. Gonczarek, S. Zaręba Cel zadania Celem zadania jest implementacja klasyfikatorów
Rozpoznawanie obrazów
Rozpoznawanie obrazów Ćwiczenia lista zadań nr 5 autorzy: A. Gonczarek, J.M. Tomczak Przykładowe problemy Klasyfikacja binarna Dla obrazu x zaproponowano dwie cechy φ(x) = (φ 1 (x) φ 2 (x)) T. Na obrazie
Metody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 2 Detekcja twarzy autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się algorytmem gradientu prostego
Rozpoznawanie obrazów
Rozpoznawanie obrazów Laboratorium Python Zadanie nr 2 κ-nn i Naive Bayes autorzy: M. Zięba, J.M. Tomczak, A. Gonczarek, S. Zaręba, J. Kaczmar Cel zadania Celem zadania jest implementacja klasyfikatorów
Optymalizacja systemów
Optymalizacja systemów Laboratorium - problem detekcji twarzy autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, P. Klukowski Cel zadania Celem zadania jest zapoznanie się z gradientowymi algorytmami optymalizacji
Podstawowe modele probabilistyczne
Wrocław University of Technology Podstawowe modele probabilistyczne Maciej Zięba maciej.zieba@pwr.edu.pl Rozpoznawanie Obrazów, Lato 2018/2019 Pojęcie prawdopodobieństwa Prawdopodobieństwo reprezentuje
Metody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 3 Detekcja twarzy autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, M. Zięba Cel zadania Celem zadania jest zaimplementowanie algorytmów
WYKŁAD 4. Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie. autor: Maciej Zięba. Politechnika Wrocławska
Wrocław University of Technology WYKŁAD 4 Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie autor: Maciej Zięba Politechnika Wrocławska Klasyfikacja Klasyfikacja (ang. Classification):
Rozpoznawanie obrazów
Rozpoznawanie obrazów Laboratorium Python Zadanie nr 3 Regresja logistyczna autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, M. Zięba, J. Kaczmar Cel zadania Celem zadania jest zaimplementowanie modelu
Rozpoznawanie obrazów
Rozpoznawanie obrazów Laboratorium Python Zadanie nr 1 Regresja liniowa autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, M. Zięba, J. Kaczmar Cel zadania Celem zadania jest implementacja liniowego zadania
Metody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 1 Regresja liniowa autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z liniowym zadaniem najmniejszych
WYKŁAD 3. Klasyfikacja: modele probabilistyczne
Wrocław University of Technology WYKŁAD 3 Klasyfikacja: modele probabilistyczne Maciej Zięba Politechnika Wrocławska Klasyfikacja Klasyfikacja (ang. Classification): Dysponujemy obserwacjami z etykietami
Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak
Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak 1 Wprowadzenie. Zmienne losowe Podczas kursu interesować nas będzie wnioskowanie o rozpatrywanym zjawisku. Poprzez wnioskowanie rozumiemy
WYKŁAD 2. Problem regresji - modele liniowe
Wrocław University of Technology WYKŁAD 2 Problem regresji - modele liniowe Maciej Zięba Politechnika Wrocławska Regresja Regresja (ang. Regression): Dysponujemy obserwacjami z odpowiadającymi im wartościami
Metody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 2 autorzy: A. Gonczarek, J.M. Tomczak Metody estymacji Zad. 1 Pojawianie się spamu opisane jest zmienną losową x o rozkładzie dwupunktowym
SPOTKANIE 4: Klasyfikacja: Regresja logistyczna
Wrocław University of Technology SPOTKANIE 4: Klasyfikacja: Regresja logistyczna Szymon Zaręba Studenckie Koło Naukowe Estymator 179226@student.pwr.wroc.pl 23.11.2012 Rozkład dwupunktowy i dwumianowy Rozkład
SPOTKANIE 3: Regresja: Regresja liniowa
Wrocław University of Technology SPOTKANIE 3: Regresja: Regresja liniowa Adam Gonczarek Studenckie Koło Naukowe Estymator adam.gonczarek@pwr.wroc.pl 22.11.2013 Rozkład normalny Rozkład normalny (ang. normal
Optymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
Uczenie sieci radialnych (RBF)
Uczenie sieci radialnych (RBF) Budowa sieci radialnej Lokalne odwzorowanie przestrzeni wokół neuronu MLP RBF Budowa sieci radialnych Zawsze jedna warstwa ukryta Budowa neuronu Neuron radialny powinien
SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.
SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska INFORMACJE WSTĘPNE Hipotezy do uczenia się lub tworzenia
Metody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 2 autorzy: A. Gonczarek, J.M. Tomczak Metody estymacji ML Zad. 1 Pojawianie się spamu opisane jest zmienną losową x o rozkładzie dwupunktowym
Wrocław University of Technology. Uczenie głębokie. Maciej Zięba
Wrocław University of Technology Uczenie głębokie Maciej Zięba UCZENIE GŁĘBOKIE (ang. deep learning) = klasa metod uczenia maszynowego, gdzie model ma strukturę hierarchiczną złożoną z wielu nieliniowych
Algorytmy, które estymują wprost rozkłady czy też mapowania z nazywamy algorytmami dyskryminacyjnymi.
Spis treści 1 Wstęp: generatywne algorytmy uczące 2 Gaussowska analiza dyskryminacyjna 2.1 Gaussowska analiza dyskryminacyjna a regresja logistyczna 3 Naiwny Klasyfikator Bayesa 3.1 Wygładzanie Laplace'a
Metody klasyfikacji i rozpoznawania wzorców. Najważniejsze rodzaje klasyfikatorów
Metody klasyfikacji i rozpoznawania wzorców www.michalbereta.pl Najważniejsze rodzaje klasyfikatorów Dla określonego problemu klasyfikacyjnego (tzn. dla danego zestawu danych) należy przetestować jak najwięcej
Metody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 3 Metody estymacji. Estymator największej wiarygodności Zad. 1 Pojawianie się spamu opisane jest zmienną losową y o rozkładzie zero-jedynkowym
Klasyfikator liniowy Wstęp Klasyfikator liniowy jest najprostszym możliwym klasyfikatorem. Zakłada on liniową separację liniowy podział dwóch klas między sobą. Przedstawia to poniższy rysunek: 5 4 3 2
Wprowadzenie do uczenia maszynowego. Jakub Tomczak
Wprowadzenie do uczenia maszynowego Jakub Tomczak 2014 ii Rozdział 1 Pojęcia podstawowe 1.1 Wprowadzenie. Zmienne losowe ˆ Podczas kursu interesować nas będzie wnioskowanie o rozpatrywanym zjawisku. Poprzez
Klasyfikacja LDA + walidacja
Klasyfikacja LDA + walidacja Dr hab. Izabela Rejer Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Plan wykładu 1. Klasyfikator 2. LDA 3. Klasyfikacja wieloklasowa 4. Walidacja
Zastosowania sieci neuronowych
Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką
Zastosowania sieci neuronowych
Zastosowania sieci neuronowych klasyfikacja LABORKA Piotr Ciskowski zadanie 1. klasyfikacja zwierząt sieć jednowarstwowa żródło: Tadeusiewicz. Odkrywanie własności sieci neuronowych, str. 159 Przykład
Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.
Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 211-1-18 1 Pomysł Przykłady Zastosowanie 2
Klasyfikator. ˆp(k x) = 1 K. I(ρ(x,x i ) ρ(x,x (K) ))I(y i =k),k =1,...,L,
Klasyfikator Jedną z najistotniejszych nieparametrycznych metod klasyfikacji jest metoda K-najbliższych sąsiadów, oznaczana przez K-NN. W metodzie tej zaliczamy rozpoznawany obiekt do tej klasy, do której
UCZENIE MASZYNOWE III - SVM. mgr inż. Adam Kupryjanow
UCZENIE MASZYNOWE III - SVM mgr inż. Adam Kupryjanow Plan wykładu Wprowadzenie LSVM dane separowalne liniowo SVM dane nieseparowalne liniowo Nieliniowy SVM Kernel trick Przykłady zastosowań Historia 1992
IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ
IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa
Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych
Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych mgr inż. C. Dendek prof. nzw. dr hab. J. Mańdziuk Politechnika Warszawska, Wydział Matematyki i Nauk Informacyjnych Outline 1 Uczenie
Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I
Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:
4.1. Wprowadzenie...70 4.2. Podstawowe definicje...71 4.3. Algorytm określania wartości parametrów w regresji logistycznej...74
3 Wykaz najważniejszych skrótów...8 Przedmowa... 10 1. Podstawowe pojęcia data mining...11 1.1. Wprowadzenie...12 1.2. Podstawowe zadania eksploracji danych...13 1.3. Główne etapy eksploracji danych...15
Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18
Eksploracja Danych wykład 4 Sebastian Zając WMP.SNŚ UKSW 10 maja 2017 Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja 2017 1 / 18 Klasyfikacja danych Klasyfikacja Najczęściej stosowana (najstarsza)
Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę
Norbert Jankowski Ontogeniczne sieci neuronowe O sieciach zmieniających swoją strukturę Warszawa 2003 Opracowanie książki było wspierane stypendium Uniwersytetu Mikołaja Kopernika Spis treści Wprowadzenie
Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017
Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład III bogumil.konopka@pwr.edu.pl 2016/2017 Wykład III - plan Regresja logistyczna Ocena skuteczności klasyfikacji Macierze pomyłek Krzywe
ALGORYTMY SZTUCZNEJ INTELIGENCJI
ALGORYTMY SZTUCZNEJ INTELIGENCJI Sieci neuronowe 06.12.2014 Krzysztof Salamon 1 Wstęp Sprawozdanie to dotyczy ćwiczeń z zakresu sieci neuronowych realizowanym na przedmiocie: Algorytmy Sztucznej Inteligencji.
Algorytmy metaheurystyczne Wykład 11. Piotr Syga
Algorytmy metaheurystyczne Wykład 11 Piotr Syga 22.05.2017 Drzewa decyzyjne Idea Cel Na podstawie przesłanek (typowo zbiory rozmyte) oraz zbioru wartości w danych testowych, w oparciu o wybrane miary,
Metody selekcji cech
Metody selekcji cech A po co to Często mamy do dyspozycji dane w postaci zbioru cech lecz nie wiemy które z tych cech będą dla nas istotne. W zbiorze cech mogą wystąpić cechy redundantne niosące identyczną
SPOTKANIE 2: Wprowadzenie cz. I
Wrocław University of Technology SPOTKANIE 2: Wprowadzenie cz. I Piotr Klukowski Studenckie Koło Naukowe Estymator piotr.klukowski@pwr.edu.pl 17.10.2016 UCZENIE MASZYNOWE 2/27 UCZENIE MASZYNOWE = Konstruowanie
SPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization
Wrocław University of Technology SPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization Jakub M. Tomczak Studenckie Koło Naukowe Estymator jakub.tomczak@pwr.wroc.pl 4.1.213 Klasteryzacja Zmienne
Wprowadzenie do uczenia maszynowego
Wprowadzenie do uczenia maszynowego Agnieszka Ławrynowicz 12 stycznia 2017 Co to jest uczenie maszynowe? dziedzina nauki, która zajmuje się sprawianiem aby komputery mogły uczyć się bez ich zaprogramowania
ALGORYTM RANDOM FOREST
SKRYPT PRZYGOTOWANY NA ZAJĘCIA INDUKOWANYCH REGUŁ DECYZYJNYCH PROWADZONYCH PRZEZ PANA PAWŁA WOJTKIEWICZA ALGORYTM RANDOM FOREST Katarzyna Graboś 56397 Aleksandra Mańko 56699 2015-01-26, Warszawa ALGORYTM
TEORETYCZNE PODSTAWY INFORMATYKI
1 TEORETYCZNE PODSTAWY INFORMATYKI WFAiS UJ, Informatyka Stosowana I rok studiów, I stopień Wykład 16 2 Data Science: Uczenie maszynowe Uczenie maszynowe: co to znaczy? Metody Regresja Klasyfikacja Klastering
5. Analiza dyskryminacyjna: FLD, LDA, QDA
Algorytmy rozpoznawania obrazów 5. Analiza dyskryminacyjna: FLD, LDA, QDA dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Liniowe funkcje dyskryminacyjne Liniowe funkcje dyskryminacyjne mają ogólną
Podstawy Sztucznej Inteligencji (PSZT)
Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 4. UCZENIE SIĘ INDUKCYJNE Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska WSTĘP Wiedza pozyskana przez ucznia ma charakter odwzorowania
SPOTKANIE 7: Redukcja wymiarów: PCA, Probabilistic PCA
Wrocław University of Technology SPOTKANIE 7: Redukcja wymiarów: PCA, Probabilistic PCA Maciej Zięba Studenckie Koło Naukowe Estymator jakub.tomczak@pwr.wroc.pl 18.01.2013 Redukcja wymiarów Zmienne wejściowe
Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.
Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. zajecia.jakubw.pl/nai Literatura: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym. WNT, Warszawa 997. PODSTAWOWE ZAGADNIENIA TECHNICZNE AI
ANALIZA SEMANTYCZNA OBRAZU I DŹWIĘKU
ANALIZA SEMANTYCZNA OBRAZU I DŹWIĘKU obraz dr inż. Jacek Naruniec Analiza Składowych Niezależnych (ICA) Independent Component Analysis Dąży do wyznaczenia zmiennych niezależnych z obserwacji Problem opiera
Sztuczna Inteligencja Tematy projektów Sieci Neuronowe
PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia
Elementy statystyki wielowymiarowej
Wnioskowanie_Statystyczne_-_wykład Spis treści 1 Elementy statystyki wielowymiarowej 1.1 Kowariancja i współczynnik korelacji 1.2 Macierz kowariancji 1.3 Dwumianowy rozkład normalny 1.4 Analiza składowych
1.7. Eksploracja danych: pogłębianie, przeszukiwanie i wyławianie
Wykaz tabel Wykaz rysunków Przedmowa 1. Wprowadzenie 1.1. Wprowadzenie do eksploracji danych 1.2. Natura zbiorów danych 1.3. Rodzaje struktur: modele i wzorce 1.4. Zadania eksploracji danych 1.5. Komponenty
Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010
Materiały/konsultacje Automatyczna predykcja http://www.ibp.pwr.wroc.pl/kotulskalab Konsultacje wtorek, piątek 9-11 (uprzedzić) D1-115 malgorzata.kotulska@pwr.wroc.pl Co to jest uczenie maszynowe? Uczenie
Analiza głównych składowych- redukcja wymiaru, wykł. 12
Analiza głównych składowych- redukcja wymiaru, wykł. 12 Joanna Jędrzejowicz Instytut Informatyki Konieczność redukcji wymiaru w eksploracji danych bazy danych spotykane w zadaniach eksploracji danych mają
Aproksymacja funkcji a regresja symboliczna
Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(x), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(x), zwaną funkcją aproksymującą
10. Redukcja wymiaru - metoda PCA
Algorytmy rozpoznawania obrazów 10. Redukcja wymiaru - metoda PCA dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. PCA Analiza składowych głównych: w skrócie nazywana PCA (od ang. Principle Component
Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE.
Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka ADALINE. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 218-1-15/22 Projekt pn.
KLASYFIKACJA. Słownik języka polskiego
KLASYFIKACJA KLASYFIKACJA Słownik języka polskiego Klasyfikacja systematyczny podział przedmiotów lub zjawisk na klasy, działy, poddziały, wykonywany według określonej zasady Klasyfikacja polega na przyporządkowaniu
Modele DSGE. Jerzy Mycielski. Maj Jerzy Mycielski () Modele DSGE Maj / 11
Modele DSGE Jerzy Mycielski Maj 2008 Jerzy Mycielski () Modele DSGE Maj 2008 1 / 11 Modele DSGE DSGE - Dynamiczne, stochastyczne modele równowagi ogólnej (Dynamic Stochastic General Equilibrium Model)
Jądrowe klasyfikatory liniowe
Jądrowe klasyfikatory liniowe Waldemar Wołyński Wydział Matematyki i Informatyki UAM Poznań Wisła, 9 grudnia 2009 Waldemar Wołyński () Jądrowe klasyfikatory liniowe Wisła, 9 grudnia 2009 1 / 19 Zagadnienie
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych
Uczenie sieci typu MLP
Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik
Spacery losowe generowanie realizacji procesu losowego
Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z
Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści
Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, 2013 Spis treści Przedmowa 7 1. Wstęp 9 1.1. Podstawy biologiczne działania neuronu 9 1.2. Pierwsze modele sieci neuronowej
Elementy inteligencji obliczeniowej
Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny
WYKŁAD 2 i 3. Podstawowe pojęcia związane z prawdopodobieństwem. Podstawy teoretyczne. autor: Maciej Zięba. Politechnika Wrocławska
Wrocław University of Technology WYKŁAD 2 i 3 Podstawowe pojęcia związane z prawdopodobieństwem. Podstawy teoretyczne autor: Maciej Zięba Politechnika Wrocławska Pojęcie prawdopodobieństwa Prawdopodobieństwo
Elementy modelowania matematycznego
Elementy modelowania matematycznego Modelowanie algorytmów klasyfikujących. Podejście probabilistyczne. Naiwny klasyfikator bayesowski. Modelowanie danych metodą najbliższych sąsiadów. Jakub Wróblewski
Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów
Rozdział : Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów W tym rozdziale omówione zostaną dwie najpopularniejsze metody estymacji parametrów w ekonometrycznych modelach nieliniowych,
Metody eksploracji danych 2. Metody regresji. Piotr Szwed Katedra Informatyki Stosowanej AGH 2017
Metody eksploracji danych 2. Metody regresji Piotr Szwed Katedra Informatyki Stosowanej AGH 2017 Zagadnienie regresji Dane: Zbiór uczący: D = {(x i, y i )} i=1,m Obserwacje: (x i, y i ), wektor cech x
Prof. Stanisław Jankowski
Prof. Stanisław Jankowski Zakład Sztucznej Inteligencji Zespół Statystycznych Systemów Uczących się p. 228 sjank@ise.pw.edu.pl Zakres badań: Sztuczne sieci neuronowe Maszyny wektorów nośnych SVM Maszyny
Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335
Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Wykład 10 Mapa cech Kohonena i jej modyfikacje - uczenie sieci samoorganizujących się - kwantowanie wektorowe
Agnieszka Nowak Brzezińska Wykład III
Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe
Algorytm grupowania danych typu kwantyzacji wektorów
Algorytm grupowania danych typu kwantyzacji wektorów Wstęp Definicja problemu: Typowe, problemem często spotykanym w zagadnieniach eksploracji danych (ang. data mining) jest zagadnienie grupowania danych
Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład II 2017/2018
Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład II bogumil.konopka@pwr.edu.pl 2017/2018 Określenie rzeczywistej dokładności modelu Zbiór treningowym vs zbiór testowy Zbiór treningowy
Projekt Sieci neuronowe
Projekt Sieci neuronowe Chmielecka Katarzyna Gr. 9 IiE 1. Problem i dane Sieć neuronowa miała za zadanie nauczyć się klasyfikować wnioski kredytowe. W projekcie wykorzystano dane pochodzące z 110 wniosków
Regresyjne metody łączenia klasyfikatorów
Regresyjne metody łączenia klasyfikatorów Tomasz Górecki, Mirosław Krzyśko Wydział Matematyki i Informatyki Uniwersytet im. Adama Mickiewicza XXXV Konferencja Statystyka Matematyczna Wisła 7-11.12.2009
Prawdopodobieństwo i statystyka
Wykład XIII: Prognoza. 26 stycznia 2015 Wykład XIII: Prognoza. Prognoza (predykcja) Przypuśćmy, że mamy dany ciąg liczb x 1, x 2,..., x n, stanowiących wyniki pomiaru pewnej zmiennej w czasie wielkości
Wprowadzenie do teorii ekonometrii. Wykład 1 Warunkowa wartość oczekiwana i odwzorowanie liniowe
Wprowadzenie do teorii ekonometrii Wykład 1 Warunkowa wartość oczekiwana i odwzorowanie liniowe Zajęcia Wykład Laboratorium komputerowe 2 Zaliczenie EGZAMIN (50%) Na egzaminie obowiązują wszystkie informacje
SPOTKANIE 11: Reinforcement learning
Wrocław University of Technology SPOTKANIE 11: Reinforcement learning Adam Gonczarek Studenckie Koło Naukowe Estymator adam.gonczarek@pwr.edu.pl 19.01.2016 Uczenie z nadzorem (ang. supervised learning)
SPOTKANIE 1: Wprowadzenie do uczenia maszynowego
Wrocław University of Technology SPOTKANIE 1: Wprowadzenie do uczenia maszynowego Adam Gonczarek Studenckie Koło Naukowe Estymator adam.gonczarek@pwr.wroc.pl 18.10.2013 Początki uczenia maszynowego Cybernetyka
w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych.
Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(), zwaną funkcją aproksymującą
Popularne klasyfikatory w pakietach komputerowych
Popularne klasyfikatory w pakietach komputerowych Klasyfikator liniowy Uogólniony klasyfikator liniowy SVM aiwny klasyfikator bayesowski Ocena klasyfikatora ROC Lista popularnych pakietów Klasyfikator
Testowanie modeli predykcyjnych
Testowanie modeli predykcyjnych Wstęp Podczas budowy modelu, którego celem jest przewidywanie pewnych wartości na podstawie zbioru danych uczących poważnym problemem jest ocena jakości uczenia i zdolności
PODSTAWY STATYSTYCZNEJ ANALIZY DANYCH
Wykład 3 Liniowe metody klasyfikacji. Wprowadzenie do klasyfikacji pod nadzorem. Fisherowska dyskryminacja liniowa. Wprowadzenie do klasyfikacji pod nadzorem. Klasyfikacja pod nadzorem Klasyfikacja jest
Konstrukcja biortogonalnych baz dyskryminacyjnych dla problemu klasyfikacji sygnałów. Wit Jakuczun
Konstrukcja biortogonalnych baz dyskryminacyjnych dla problemu klasyfikacji sygnałów Politechnika Warszawska Strona 1 Podstawowe definicje Politechnika Warszawska Strona 2 Podstawowe definicje Zbiór treningowy
Weryfikacja hipotez statystycznych
Weryfikacja hipotez statystycznych Hipoteza Test statystyczny Poziom istotności Testy jednostronne i dwustronne Testowanie równości wariancji test F-Fishera Testowanie równości wartości średnich test t-studenta
Agnieszka Nowak Brzezińska Wykład III
Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe
Wprowadzenie. Metody bayesowskie Drzewa klasyfikacyjne i lasy losowe Sieci neuronowe SVM. Klasyfikacja. Wstęp
Wstęp Problem uczenia się pod nadzorem, inaczej nazywany uczeniem się z nauczycielem lub uczeniem się na przykładach, sprowadza się do określenia przydziału obiektów opisanych za pomocą wartości wielu
Metody probabilistyczne klasyfikatory bayesowskie
Konwersatorium Matematyczne Metody Ekonomii narzędzia matematyczne w eksploracji danych First Prev Next Last Go Back Full Screen Close Quit Metody probabilistyczne klasyfikatory bayesowskie Wykład 8 Marcin
Klasyfikacja i regresja Wstęp do środowiska Weka
Klasyfikacja i regresja Wstęp do środowiska Weka 19 listopada 2015 Opis pliku z zadaniami Wszystkie zadania na zajęciach będą przekazywane w postaci plików pdf sformatowanych podobnie do tego dokumentu.