Machine learning Lecture 4
|
|
- Grażyna Urbaniak
- 6 lat temu
- Przeglądów:
Transkrypt
1 Machine learning Lecture 4 Marcin Wolter IFJ PAN 7 kwietnia 2017 Support Vector Machines (SVM). Omówienie zadania zaliczeniowego. 1
2 Support Vector Machines Główne założenie: należy zbudować model używając minimalną liczbę wektorów z danych treningowych (Support Vectors). Przestrzeń: może modelować dowolną funkcję. Funkcjonalnie algorytm podobny do sieci neuronowej, metod jądrowych Parzena itp. 2
3 Trochę historii Wczesne lata sześćdziesiąte została opracowana metoda support vectors w celu konstruowania hiperpłaszczyzn do rozpoznawania obrazu ( Vapnik i Lerner 1963, Vapnik i Czervonenkis 1964) liniowa SVM. Początek lat 1990-siątych: uogólnienie metody pozwalające na konstruowanie nieliniowych funkcji separujących (Boser 1992, Cortes i Vapnik 1995). 1995: dalsze rozszerzenie pozwalające otrzymać estymację funkcji ciągłej na wyjściu regresja (Vapnik 1995). 3
4 Klasyfikator Liniowy x oznacza +1 f yest f(x,w,b) = sign(w*x - b) oznacza -1 Każda z tych linii (klasyfikatorów) jest dobra......ale która najlepiej oddziela sygnał od tła? 4
5 Ta z największym marginesem! x f f(x,w,b) = sign(w x - b) oznacza yi=+1 Maximum margin linear classifier oznacza yi=-1 Support Vectors Najprostszy rodzaj SVM, zwany LSVM (liniowa SVM) -punkty ograniczające margines, czyli te na których on się wspiera. Intuicyjnie najlepiej. i y i w x i b 1 0 w x b=0 równanie prostej 2 margin= w yest Nieczuły na błędy w położeniu klasyfikatora. Separacja zależy tylko od wektorów wspierających. Działa w praktyce! 5
6 Trochę matematyki oznacza yi=+1 Warunek jaki musi spełniać prosta: oznacza yi=-1 opisana wzorem: i y i w x i b 1 0 w x b=0 Support Vectors Margines określony jest wzorem: 2 margin= w Musimy maksymalizować margines, czyli minimalizować w 2. Klasyfikator zależy tylko od części danych wektorów wspierających. Używamy tylko podzbioru wszystkich danych aby zoptymalizować separację. 6
7 Co zrobić jeśli dane nie są separowalne? Dodajemy dodatkowy człon do naszych równań ( slack variable ): i =0 x i poprawnie sklasyfikowane i =odległość x i sklasyfikowane niepoprawnie oznacza +1 oznacza -1 3 I uzyskujemy: i y i w x i b 1 C i 0 Dla klasyfikatora liniowego (prostej) w x b= minimalizuj : w C i 2 i gdzie C jest arbitralnym parametrem. Funkcja straty jest liniowa, nie kwadratowa! 7
8 Przykład jednowymiarowy Super łatwe!!! Wektor wspierający Wektor wspierający 8
9 Trudniejszy przykład jednowymiarowy Te dane nie są liniowo separowalne!??? x=0 9
10 A może przejść do przestrzeni 2-wymiarowej? x -> (x, x2) W tej przestrzeni punkty są liniowo separowalne! x=0 10
11 W przestrzeni 2-wymiarowej Teraz mamy separację x=0 11
12 Jeśli dane nie są liniowe Należy dokonać transformacji do przestrzeni o większej liczbie wymiarów, gdzie dane będą liniowo separowalne. W naszym przykładzie dane separowalne przez krzywą eliptyczną w R2 będą separowalne liniowo w R3. Potrzebna jest uniwersalna metoda transformacji do przestrzeni o większej liczbie wymiarów. 12
13 Mnożniki Lagrange'a (przypomnienie) Mnożniki Lagrange a metoda obliczania ekstremum warunkowego funkcji różniczkowalnej wykorzystywana w teorii optymalizacji. Dla przypadku dwuwymiarowego problem optymalizacji polega na maksymalizacji L(x, y) przy spełnieniu warunku G(x, y)= 0. W tym celu wprowadzamy nową zmienną α zwaną mnożnikiem Lagrange a oraz budujemy funkcję pomocniczą: F(x, y, α) = L(x, y) + αg(x, y). Wszystkie punkty, które mogą być ekstremami warunkowymi są rozwiązaniami układu równań: Problem n zmiennych z k więzami jest redukowany do problemu n+k zmiennych bez więzów. 13
14 Trochę matematyki Wprowadzamy Lagrangian i mnożniki Lagrange'a: L w =1/2 w i yi [ w, b,, x b ] 1 2 i 0 yi [ w, x b] 1 0 i nasze więzy Lagrangian musi być minimalizowany ze względu na w i b oraz maksymalizowany ze względu na αi. yi [ w, x b] 1 0 i=0 bez znaczenia yi [ w, x b] 1=0 support vectors w punkcie ekstremum: L L =0, =0 b w i yi =0 w = i y i x i i i podstawiamy do L i mamy maksymalizację funkcji W(α) w przestrzeni α i 1 y y x, x 2 i j i j i j i j i 0, y i i=0 W = i i i f x = sgn w, x b = sgn y x, x b i i i W tej przestrzeni W jest funkcją iloczynów xi*xj f funkcja dyskryminująca i 14
15 Trik zastosowanie jądra (kernel) Funkja Ф przeprowadza przestrzeń wektorów wejściowych do nowej przestrzeni w której dane są separowalne przez hiperpłaszczyznę: n x : input ℜ ℜ N N n Wtedy x i, x j x i, x j = K x i, x j I możemy używać tych samych równań. Nie musimy znać funkcji Ф, wystarczy znać jądro (kernel) i można pracować w nowej przestrzeni. 1 y y K x i, x j 2 i j i j i j i 0, y i i =0 W = i i i f x =sgn y K x, x b i i i i 15
16 Typowo stosowane jądra Jądro musi spełniać warunek: K x i, x j = K x j, x i 16
17 Lagrangian Lagrangian w przypadku danych nieseparowalnych: 17
18 Nieliniowe jądro (I) Przykład: SVM z jądrem wielomianowym 2-go stopnia 18
19 Nieliniowe jądro (II) Jądro: funkcja Gaussa 19
20 Applet pokazujący działanie SVM 20
21 Regresja ε insensitive loss L(f,y) Mamy dane wejściowe: X = {(x1,d1),., (xn,dn)} Chcemy znaleźć funkcję f(x) która ma odchylenie od wartości d nie większe niż oraz będącą jak najbardziej gładką. 21
22 Regresja Zadanie: przeprowadzić uogólnienie algorytmu klasyfikacji tak, aby uzyskać regresję. Zachować wszystkie właściwośći SVM Definiujemy funkcję: Minimalizacja: I powtarzamy procedurę przejścia do wyższych wymiarów, stosujemy funkcję jądra itd... 22
23 SVM w pakiecietmva Algorytm SVM został zaimplementowany do pakietu TMVA Andrzej Zemła, praca magisterska. Dostępne funkcje jądra: Liniowa zapewnia tylko separację liniową RBF (funkcja Gaussa) dowolny kształt powierzchni separującej Wielomianowa Rozwiązanie problemu kwadratowego - SMO (Sequential Minimal Optimization - J. Platt, Microsoft) z modyfikacjami Keerthi'ego: rozbicie problemu minimalizacji na wiele małych kroków znalezienie optymalnej pary wektorów, redukcja do problemu dwóch zmiennych i rozwiązanie analityczne iteracyjne powtarzanie procedury aż do znalezienia minimum. 23
24 Porównanie SMO z innymi algorytmami Z prezentacji J. Platt 24
25 Przykład (pakiet TMVA): Identyfikacja leptonów τ w eksperymencie ATLAS Eksperyment ATLAS jeden z eksperymentów (CMS, ALICE, LHCb) budowanych obecnie na akceleratorze LHC w laboratorium CERN (start 2008). Dane do analizy: hadronowe rozpady τ zrekonstruowane za pomocą algorytmu tau1p3p (z danych Monte-Carlo) 1-prong (1 ślad hadronowy) 2-prong (2 ślady hadronowe) 3-prong (3 ślady hadronowe) Identyfikacja zrekonstruowane zmienne: rozpady 1p 9 zmiennych Dane 3-prong rozpady 2p i 3p 11 zmiennych Żadna zmienna samodzielnie nie pozwala na dobre rozróżnienie sygnału od tła. 25
26 Optymalizacja punktu pracy dane 3-prong Nauka: trening na części danych, sprawdzenie na pozostałych danych (kontrola przeuczenia). SVM z gaussowską funkcja jądrową optymalizacja σ funkcji gaussa oraz parametru C. Optymalizacja wielokrotny trening, wybór najlepszej pary {σ,c} (największa całka z krzywej ROC). Zależność odrzucania tła oraz czasu treningu od liczby wektorów treningowych. Dla małych zbiorów treningowych prawie optymalna klasyfikacja (skraca czas treningu, często nie mamy dużych zbiorów danych treningowych). 26
27 Separacja sygnału i tła dane 3-prong Wyniki dla funkcji jądrowych: liniowej, gausa Porównanie SVM z wielowarstwową siecią neuronową i wielomianowej 9 stopnia. Trening na zbiorze zawierającym po 5000 przypadków sygnału i tła. Testowanie: ~62000 p. sygnału ~ p. tła Sieć MLP z pakietu TMVA 2 ukryte warstwy mające po 20 nodów Krzywa ROC Sieć MLP oraz SVM z funkcją jądrową gausa dają zbliżone rezultaty 27
28 SVM <-> multilayer perceptron (sieć neuronowa) Fundamentalne różnice MLP stopień skomplikowania kontrolowany poprzez liczbę ukrytych nodów SVM stopień skomplikowania kontrolowany niezależnie od liczby wymiarów SVM mapowanie powoduje, że płaszczyzna separująca jest konstruowana w przestrzeni wielo (często nieskończenie) wymiarowej. Problem z wielka liczbą wymiarów jest rozwiązywany poprzez użycie funkcji jądra (kernel). Jianfeng Feng, Sussex University 28
29 Mocne strony SVM Stopień skomplikowania/pojemność jest niezależny od liczby wymiarów. Dobra podbudowa statystyczna. Znajdowanie minimum. Minimalizujemy funkcję kwadratową co gwarantuje zawsze znalezienie minimum. Algorytm jest wydajny i SVM generuje prawie optymalny klasyfikator. Nie jest tez czuły na przetrenowanie. Dobre uogólnianie dzięki wielowymiarowej feature space. Najważniejsze: poprzez użycie odpowiedniej funkcji jądra SVM automatycznie dobiera wszystkie parametry sieci (liczbę ukrytych nodów, wagi). Jianfeng Feng, Sussex University 29
30 Słabe strony SVM Powolny trening minimalizacja funkcji, szczególnie dokuczliwy przy dużej ilości danych użytych do treningu. Rozwiązania też są skomplikowane (normalnie >60% wektorów użytych do nauki staje się wektorami wspierającymi), szczególnie dla dużych ilości danych. Przykład (Haykin): poprawa o 1.5% ponad wynik osiągnięty przez MLP. Ale MLP używał 2 ukrytych nodów, SVM 285. Trudno dodać własną wiedzę (prior knowledge) Jianfeng Feng, Sussex University 30
31 Zadanie dla ambitnych Open Higgs challenge!!!!!!!!!!!!!! 31
32 Machine Learning and HEP 90 ies - Neural Nets used by LEP experiments BDT (Adaboost) invented in 97 Machine Learning used extensively at D0/CDF (mostly BDT, also Neural Nets) in the 00 ies Last years mostly BDT built in TMVA ROOT package (popular among physicists). Neural Nets and other techniques treated as obsolete. Not much work within LHC experiments on studying possible better MVA techniques. Enormous development of Machine Learning in the outside world in the last 10 years ( Big Data, Data Science, even Artificial Intelligence is back). We have to catch up and learn from computer scientists: Make an open Higgs challenge! Task: identify H->tau tau signal out of background in the simulated data.
33 How did it work? People register to Kaggle web site hosted (additional info on download training dataset (with label) with 250k events train their own algorithm to optimize the significance (à la s/sqrt(b)) download test dataset (without labels) with 550k events upload their own classification The site automatically calculates significance. Public (100k events) and private (450k events) leader boards update instantly. (Only the public is visible) 1785 teams (1942 people) have participated most popular challenge on the Kaggle platform (until a few weeks ago) solutions uploaded Funded by: Paris Saclay Center for Data Science, Google, INRIA
34 Final leaderboard 7000$ 4000$ 2000$ Best physicist HEP meets ML award XGBoost authors Free trip to CERN
35 The winners See -the-higgs-challenge.html 1 : Gabor Melis (Hungary) software developer and consultant : wins 7000$. 2 : Tim Salimans (Neitherland) data science consultant: wins 4000$ 3 : Pierre Courtiol (nhlx5haze) (France)? : wins 2000$ HEP meets ML award: (team crowwork), Tianqi Chen (U of Washington PhD student in Data Science) and Tong He (graduate student Data Science SFU). Provided XGBoost public software used by many participants.
36 Rank distribution after bootstrap Distribution of rank of participant of rank i after 1000 bootstraps of the test sample.! Gabor clearly better rank 1 rank 2 rank 4 rank 7 rank 5 rank 8 David Rousseau rank 3 rank 6 rank 9 HiggsML visits CERN, 19th May 2015
37 What did we learn from ML experts? Very successful satellite workshop at NIPS (on of the two major Machine Learning conferences) in Dec Montreal: 20% gain w.r.t. to untuned Boosted Decision Tree from the TMVA package Deep Neural Nets rule (but marginally better than BDT) Ensemble methods (random forest, boosting) rule careful cross-validation - very (human) time consuming...but this could be automatized! Complex software suites using routinely multithreading, etc (e.g. XGBoost)
38 Deep neural network Hierarchical feature extraction first build abstract objects, than find dependencies between them. Deep neural network (DNN)- an artificial neural network with multiple hidden layers of units between the input and output layers. Extra layers - composition of features from lower layers, potential of modeling complex data with fewer units than a similarly performing shallow network. Challenge winning Gabor's deep neural network (from Gabor's presentation) Remark: Few years ago some experts claimed neural networks are an obsolete tool :)
39 Automatic optimization of hyperparameters Manual optimization of NN (or any other method) is time consuming. Fortunately the Bayesian optimization methods can rival and surpass human domain experts in finding good hyperparameter settings. SMAC, SPEARMINT, TPE (and others) are doing that with great success:
40 Analiza podczas praktyk studenckich Próbowaliśmy powtórzyć HiggsChallenge podczas praktyk studenckich. Udało się za pomocą TMVA (konwersja danych do formatu root) oraz pakietu XGBoost Optymalizacja parametrów XGBoost za pomocą programu hyperopt
41
42 Zadanie drugie ATLAS Z tau tau selection Dane: mc12/ztautau.root Powheg_ttbar.root - sygnał - tło Wenu.root Wmunu.root Wtaunu.root Zee.root - tło - tło - tło - tło Zmumu.root - tło Zmienne: preselekcja: if(!( evtsel_is_dilepveto > 0 && evtsel_is_tau > 0 && fabs(evtsel_tau_eta) < 2.47 && evtsel_is_conf_lep_veto == 1 && evtsel_tau_numtrack == 1 && evtsel_lep_pt > 26 && fabs(evtsel_lep_eta) < 2.4 && evtsel_transversemass < 70)) continue; 42
43 ATLAS Z tau tau selection Zmienne użyte do treningu: evtsel_tau_et evtsel_dphisum evtsel_tau_pi0_n evtsel_transversemass sum_cos_dphi Spectator vis_mass Program: TMVAClassificationMW.C i TMVAClassificationMW.h Wykonuje podstawowy trening. 43
44 ATLAS Z tau tau selection Zainstalować pakiet root i TMVA Ściągnąć dane i przykładowy program: Uruchomić przykładowy program: root -l.l TMVAClassificationMW.C++ TMVAClassificationMW t t.loop() Zmodyfikować go: Spróbować zoptymalizować parametry wybranej metody Spróbować usunąć jakieś zmienne a może dodać? Spróbować użyć indywidualnych zmiennych wchodzących w skład np. sum_cos_dphi Użyć wszystkich rodzajów tła użyć wag WeightLumi Zaaplikować wyuczony klasyfikator do danych (data12/muons.physcont.grp14.root), można się wzorować na przykładzie TMVAClassificationApplication dostępnym na stronie TMVA. 44
45 ATLAS Z tau tau selection Wykonać tego typu rysunek np. dla masy widzialnej 45
46 ATLAS Z tau tau selection Cięcia zastosowane w analizie polaryzacji tau pochodzących z rozpadu Z taut tau Czy używając uczenia maszynowego udało nam się poprawić wynik? 46
Machine learning Lecture 6
Machine learning Lecture 6 Marcin Wolter IFJ PAN 11 maja 2017 Deep learning Convolution network Zastosowanie do poszukiwań bozonu Higgsa 1 Deep learning Poszczególne warstwy ukryte uczą się rozpoznawania
Machine learning Lecture 3
Machine learning Lecture 3 Marcin Wolter IFJ PAN 16 March 2017 Sieci neuronowe i ich zastosowanie w fizyce. Bayesowskie sieci neuronowe. 1 Inspiracja działaniem mózgu Mózg człowieka: 1014 neuronów, częstość
UCZENIE MASZYNOWE III - SVM. mgr inż. Adam Kupryjanow
UCZENIE MASZYNOWE III - SVM mgr inż. Adam Kupryjanow Plan wykładu Wprowadzenie LSVM dane separowalne liniowo SVM dane nieseparowalne liniowo Nieliniowy SVM Kernel trick Przykłady zastosowań Historia 1992
Uczenie maszynowe w zastosowaniu do fizyki cząstek
Uczenie maszynowe w zastosowaniu do fizyki cząstek Wykorzystanie uczenia maszynowego i głębokich sieci neuronowych do ćwiczenia 3. M. Kaczmarczyk, P. Górski, P. Olejniczak, O. Kosobutskyi Instytut Fizyki
Machine learning Lecture 2
Machine learning Lecture 2 Marcin Wolter IFJ PAN 9 March 2017 Proste metody nieliniowe jak naiwny klasyfikator bayesowski, metoda k-najbliższych sąsiadów, metody jądrowe Parzena. Wzmocnone drzewa decyzyjne
A Zadanie
where a, b, and c are binary (boolean) attributes. A Zadanie 1 2 3 4 5 6 7 8 9 10 Punkty a (maks) (2) (2) (2) (2) (4) F(6) (8) T (8) (12) (12) (40) Nazwisko i Imiȩ: c Uwaga: ta część zostanie wypełniona
Data Mining Wykład 6. Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa.
GLM (Generalized Linear Models) Data Mining Wykład 6 Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa Naiwny klasyfikator Bayesa jest klasyfikatorem statystycznym -
Hard-Margin Support Vector Machines
Hard-Margin Support Vector Machines aaacaxicbzdlssnafiyn9vbjlepk3ay2gicupasvu4iblxuaw2hjmuwn7ddjjmxm1bkcg1/fjqsvt76fo9/gazqfvn8y+pjpozw5vx8zkpvtfxmlhcwl5zxyqrm2vrg5zw3vxmsoezi4ogkr6phieky5crvvjhriqvdom9l2xxftevuwcekj3lktmhghgniauiyutvrwxtvme34a77kbvg73gtygpjsrfati1+xc8c84bvraowbf+uwnipyehcvmkjrdx46vlykhkgykm3ujjdhcyzqkxy0chur6ax5cbg+1m4bbjptjcubuz4kuhvjoql93hkin5hxtav5x6yyqopnsyuneey5ni4keqrxbar5wqaxbik00icyo/iveiyqqvjo1u4fgzj/8f9x67bzmxnurjzmijtlybwfgcdjgfdtajwgcf2dwaj7ac3g1ho1n4814n7wwjgjmf/ys8fenfycuzq==
Metody klasyfikacji Danych wielowymiarowych by mgr inz. Marcin Kurdziel and mgr inz. Tomasz Arodz
Metody klasyfikacji Danych wielowymiarowych by mgr inz. and mgr inz. Tomasz Arodz supervised by Professor Dr W.Dzwinel Agenda Klasyfikacja liniowa podstawowe pojecia Algorytm perceptronu Fisher Linear
7. Maszyny wektorów podpierajacych SVMs
Algorytmy rozpoznawania obrazów 7. Maszyny wektorów podpierajacych SVMs dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Maszyny wektorów podpierajacych - SVMs Maszyny wektorów podpierających (ang.
Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym
Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW 17 XII 2013 Jan Karwowski
Machine Learning for Data Science (CS4786) Lecture11. Random Projections & Canonical Correlation Analysis
Machine Learning for Data Science (CS4786) Lecture11 5 Random Projections & Canonical Correlation Analysis The Tall, THE FAT AND THE UGLY n X d The Tall, THE FAT AND THE UGLY d X > n X d n = n d d The
Stargard Szczecinski i okolice (Polish Edition)
Stargard Szczecinski i okolice (Polish Edition) Janusz Leszek Jurkiewicz Click here if your download doesn"t start automatically Stargard Szczecinski i okolice (Polish Edition) Janusz Leszek Jurkiewicz
Machine learning Lecture 5
Machine learning Lecture 5 Marcin Wolter IFJ PAN 21 kwietnia 2017 Uczenie -sprawdzanie krzyżowe (cross-validation). Optymalizacja parametrów metod uczenia maszynowego. Deep learning 1 Uczenie z nauczycielem
Machine Learning for Data Science (CS4786) Lecture 24. Differential Privacy and Re-useable Holdout
Machine Learning for Data Science (CS4786) Lecture 24 Differential Privacy and Re-useable Holdout Defining Privacy Defining Privacy Dataset + Defining Privacy Dataset + Learning Algorithm Distribution
MaPlan Sp. z O.O. Click here if your download doesn"t start automatically
Mierzeja Wislana, mapa turystyczna 1:50 000: Mikoszewo, Jantar, Stegna, Sztutowo, Katy Rybackie, Przebrno, Krynica Morska, Piaski, Frombork =... = Carte touristique (Polish Edition) MaPlan Sp. z O.O Click
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt
Optymalizacja kryteriów selekcji dla rozpadu Λ+c pμ+μza pomocą wielowymiarowej analizy danych
Optymalizacja kryteriów selekcji dla rozpadu Λ+c pμ+μza pomocą wielowymiarowej analizy danych Maciej Kościelski Jakub Malczewski opiekunowie prof. dr hab. Mariusz Witek mgr inż. Małgorzata Pikies LHCb
Zakopane, plan miasta: Skala ok. 1: = City map (Polish Edition)
Zakopane, plan miasta: Skala ok. 1:15 000 = City map (Polish Edition) Click here if your download doesn"t start automatically Zakopane, plan miasta: Skala ok. 1:15 000 = City map (Polish Edition) Zakopane,
Elementy inteligencji obliczeniowej
Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego
SVM: Maszyny Wektorów Podpieraja cych
SVM 1 / 24 SVM: Maszyny Wektorów Podpieraja cych Nguyen Hung Son Outline SVM 2 / 24 1 Wprowadzenie 2 Brak liniowej separowalności danych Nieznaczna nieseparowalność Zmiana przetrzeń atrybutów 3 Implementacja
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych
Linear Classification and Logistic Regression. Pascal Fua IC-CVLab
Linear Classification and Logistic Regression Pascal Fua IC-CVLab 1 aaagcxicbdtdbtmwfafwdgxlhk8orha31ibqycvkdgpshdqxtwotng2pxtvqujmok1qlky5xllzrnobbediegwcap4votk2kqkf+/y/tnphdschtadu/giv3vtea99cfma8fpx7ytlxx7ckns4sylo3doom7jguhj1hxchmy/irhrlgh67lxb5x3blis8jjqynmedqujiu5zsqqagrx+yjcfpcrydusshmzeluzsg7tttiew5khhcuzm5rv0gn1unw6zl3gbzlpr3liwncyr6aaqinx4wnc/rpg6ix5szd86agoftuu0g/krjxdarph62enthdey3zn/+mi5zknou2ap+tclvhob9sxhwvhaqketnde7geqjp21zvjsfrcnkfhtejoz23vq97elxjlpbtmxpl6qxtl1sgfv1ptpy/yq9mgacrzkgje0hjj2rq7vtywnishnnkzsqekucnlblrarlh8x8szxolrrxkb8n6o4kmo/e7siisnozcfvsedlol60a/j8nmul/gby8mmssrfr2it8lkyxr9dirxxngzthtbaejv
W ostatnim wykładzie doszliśmy do tego, że problem znalezienia klasyfikatora optymalnego pod względem marginesów można wyrazić w następujący sposób:
Spis treści 1 Maszyny Wektorów Wspierających 2 1.1 SVM w formaliźmie Lagranga 1.2 Przejście do pstaci dualnej 1.2.1 Wyznaczenie parametrów modelu: 1.2.2 Klasyfikacja: 2 Funkcje jądrowe 2.1 Mapowanie do
Wojewodztwo Koszalinskie: Obiekty i walory krajoznawcze (Inwentaryzacja krajoznawcza Polski) (Polish Edition)
Wojewodztwo Koszalinskie: Obiekty i walory krajoznawcze (Inwentaryzacja krajoznawcza Polski) (Polish Edition) Robert Respondowski Click here if your download doesn"t start automatically Wojewodztwo Koszalinskie:
KLASYFIKACJA TEKSTUR ZA POMOCĄ SVM MASZYNY WEKTORÓW WSPIERAJĄCYCH
Inżynieria Rolnicza 13/2006 Jacek Goszczyński Instytut Inżynierii Rolniczej Akademia Rolnicza w Poznaniu KLASYFIKACJA TEKSTUR ZA POMOCĄ SVM MASZYNY WEKTORÓW WSPIERAJĄCYCH Streszczenie Motywacją do badań
Zastosowania funkcji jądrowych do rozpoznawania ręcznie pisanych cyfr.
Zastosowania funkcji jądrowych do rozpoznawania ręcznie pisanych cyfr. Warszawa, 10 Marca 2016 Plan prezentacji. Definicja funkcji jądrowej. Plan prezentacji. Definicja funkcji jądrowej. Opis problemu
Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań
Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-10 Projekt pn. Wzmocnienie
Klasyfikacja LDA + walidacja
Klasyfikacja LDA + walidacja Dr hab. Izabela Rejer Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Plan wykładu 1. Klasyfikator 2. LDA 3. Klasyfikacja wieloklasowa 4. Walidacja
ARNOLD. EDUKACJA KULTURYSTY (POLSKA WERSJA JEZYKOWA) BY DOUGLAS KENT HALL
Read Online and Download Ebook ARNOLD. EDUKACJA KULTURYSTY (POLSKA WERSJA JEZYKOWA) BY DOUGLAS KENT HALL DOWNLOAD EBOOK : ARNOLD. EDUKACJA KULTURYSTY (POLSKA WERSJA Click link bellow and free register
Maszyny wektorów podpierajacych w regresji rangowej
Maszyny wektorów podpierajacych w regresji rangowej Uniwersytet Mikołaja Kopernika Z = (X, Y ), Z = (X, Y ) - niezależne wektory losowe o tym samym rozkładzie X X R d, Y R Z = (X, Y ), Z = (X, Y ) - niezależne
Klasyfikator liniowy Wstęp Klasyfikator liniowy jest najprostszym możliwym klasyfikatorem. Zakłada on liniową separację liniowy podział dwóch klas między sobą. Przedstawia to poniższy rysunek: 5 4 3 2
TTIC 31210: Advanced Natural Language Processing. Kevin Gimpel Spring Lecture 8: Structured PredicCon 2
TTIC 31210: Advanced Natural Language Processing Kevin Gimpel Spring 2019 Lecture 8: Structured PredicCon 2 1 Roadmap intro (1 lecture) deep learning for NLP (5 lectures) structured predic+on (4 lectures)
Laboratorium 11. Regresja SVM.
Laboratorium 11 Regresja SVM. 1. Uruchom narzędzie Oracle Data Miner i połącz się z serwerem bazy danych. 2. Z menu głównego wybierz Activity Build. Na ekranie powitalnym kliknij przycisk Dalej>. 3. Z
Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych
Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych mgr inż. C. Dendek prof. nzw. dr hab. J. Mańdziuk Politechnika Warszawska, Wydział Matematyki i Nauk Informacyjnych Outline 1 Uczenie
Karpacz, plan miasta 1:10 000: Panorama Karkonoszy, mapa szlakow turystycznych (Polish Edition)
Karpacz, plan miasta 1:10 000: Panorama Karkonoszy, mapa szlakow turystycznych (Polish Edition) J Krupski Click here if your download doesn"t start automatically Karpacz, plan miasta 1:10 000: Panorama
Sterowanie optymalne
Sterowanie optymalne Sterowanie Procesami Ciągłymi 2017 Optymalizacja statyczna funkcji Funkcja celu/kryterialna/kosztów Ograniczenie Q(x) min x x = arg min Q(x) x x X, gdzie X zbiór rozwiązań dopuszczalnych
Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę
Norbert Jankowski Ontogeniczne sieci neuronowe O sieciach zmieniających swoją strukturę Warszawa 2003 Opracowanie książki było wspierane stypendium Uniwersytetu Mikołaja Kopernika Spis treści Wprowadzenie
Metody klasyfikacji i rozpoznawania wzorców. Najważniejsze rodzaje klasyfikatorów
Metody klasyfikacji i rozpoznawania wzorców www.michalbereta.pl Najważniejsze rodzaje klasyfikatorów Dla określonego problemu klasyfikacyjnego (tzn. dla danego zestawu danych) należy przetestować jak najwięcej
Testowanie modeli predykcyjnych
Testowanie modeli predykcyjnych Wstęp Podczas budowy modelu, którego celem jest przewidywanie pewnych wartości na podstawie zbioru danych uczących poważnym problemem jest ocena jakości uczenia i zdolności
Tychy, plan miasta: Skala 1: (Polish Edition)
Tychy, plan miasta: Skala 1:20 000 (Polish Edition) Poland) Przedsiebiorstwo Geodezyjno-Kartograficzne (Katowice Click here if your download doesn"t start automatically Tychy, plan miasta: Skala 1:20 000
SPOTKANIE 9: Metody redukcji wymiarów
Wrocław University of Technology SPOTKANIE 9: Metody redukcji wymiarów Piotr Klukowski* Studenckie Koło Naukowe Estymator piotr.klukowski@pwr.wroc.pl 08.12.2015 *Część slajdów pochodzi z prezentacji dr
TTIC 31210: Advanced Natural Language Processing. Kevin Gimpel Spring Lecture 9: Inference in Structured Prediction
TTIC 31210: Advanced Natural Language Processing Kevin Gimpel Spring 2019 Lecture 9: Inference in Structured Prediction 1 intro (1 lecture) Roadmap deep learning for NLP (5 lectures) structured prediction
Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej. Adam Żychowski
Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej Adam Żychowski Definicja problemu Każdy z obiektów może należeć do więcej niż jednej kategorii. Alternatywna definicja Zastosowania
Wybór / ocena atrybutów na podstawie oceny jakości działania wybranego klasyfikatora.
Wprowadzenie do programu RapidMiner Studio 7.6, część 7 Podstawy metod wyboru atrybutów w problemach klasyfikacyjnych, c.d. Michał Bereta www.michalbereta.pl Wybór / ocena atrybutów na podstawie oceny
System optymalizacji produkcji energii
System optymalizacji produkcji energii Produkcja energii jest skomplikowanym procesem na który wpływa wiele czynników, optymalizacja jest niezbędna, bieżąca informacja o kosztach i możliwościach wykorzystania
FILTROWANIE SPAMU Z UŻYCIEM MASZYNY WEKTORÓW WSPIERAJĄCYCH
FILTROWANIE SPAMU Z UŻYCIEM MASZYNY WEKTORÓW WSPIERAJĄCYCH Plan referatu: 1. Wstęp. 2. Maszyny uczące. 3. Ogólnie o SVM. 4. Online SVM. 5. Mapowanie tekstu na wektory wspierające. 6. Historia. 7. Podsumowanie.
Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner
Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner Wydział Matematyki i Nauk Informacyjnych Politechnika Warszawska Elementy nieprzystające Definicja odrzucania Klasyfikacja
Wojewodztwo Koszalinskie: Obiekty i walory krajoznawcze (Inwentaryzacja krajoznawcza Polski) (Polish Edition)
Wojewodztwo Koszalinskie: Obiekty i walory krajoznawcze (Inwentaryzacja krajoznawcza Polski) (Polish Edition) Robert Respondowski Click here if your download doesn"t start automatically Wojewodztwo Koszalinskie:
Miedzy legenda a historia: Szlakiem piastowskim z Poznania do Gniezna (Biblioteka Kroniki Wielkopolski) (Polish Edition)
Miedzy legenda a historia: Szlakiem piastowskim z Poznania do Gniezna (Biblioteka Kroniki Wielkopolski) (Polish Edition) Piotr Maluskiewicz Click here if your download doesn"t start automatically Miedzy
Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.
Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 211-1-18 1 Pomysł Przykłady Zastosowanie 2
Wstęp do przetwarzania języka naturalnego. Wykład 11 Maszyna Wektorów Nośnych
Wstęp do przetwarzania języka naturalnego Wykład 11 Wojciech Czarnecki 8 stycznia 2014 Section 1 Przypomnienie Wektoryzacja tfidf Przypomnienie document x y z Antony and Cleopatra 5.25 1.21 1.51 Julius
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa
Installation of EuroCert software for qualified electronic signature
Installation of EuroCert software for qualified electronic signature for Microsoft Windows systems Warsaw 28.08.2019 Content 1. Downloading and running the software for the e-signature... 3 a) Installer
Metody Sztucznej Inteligencji II
17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału
Metody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska
Metody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska e-mail: bartosz.krawczyk@pwr.wroc.pl Czym jest klasyfikacja
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny
Rozpoznawanie twarzy metodą PCA Michał Bereta 1. Testowanie statystycznej istotności różnic między jakością klasyfikatorów
Rozpoznawanie twarzy metodą PCA Michał Bereta www.michalbereta.pl 1. Testowanie statystycznej istotności różnic między jakością klasyfikatorów Wiemy, że możemy porównywad klasyfikatory np. za pomocą kroswalidacji.
MATLAB Neural Network Toolbox przegląd
MATLAB Neural Network Toolbox przegląd WYKŁAD Piotr Ciskowski Neural Network Toolbox: Neural Network Toolbox - zastosowania: przykłady zastosowań sieci neuronowych: The 1988 DARPA Neural Network Study
SSW1.1, HFW Fry #20, Zeno #25 Benchmark: Qtr.1. Fry #65, Zeno #67. like
SSW1.1, HFW Fry #20, Zeno #25 Benchmark: Qtr.1 I SSW1.1, HFW Fry #65, Zeno #67 Benchmark: Qtr.1 like SSW1.2, HFW Fry #47, Zeno #59 Benchmark: Qtr.1 do SSW1.2, HFW Fry #5, Zeno #4 Benchmark: Qtr.1 to SSW1.2,
Python : podstawy nauki o danych / Alberto Boschetti, Luca Massaron. Gliwice, cop Spis treści
Python : podstawy nauki o danych / Alberto Boschetti, Luca Massaron. Gliwice, cop. 2017 Spis treści O autorach 9 0 recenzencie 10 Wprowadzenie 11 Rozdział 1. Pierwsze kroki 15 Wprowadzenie do nauki o danych
Elementy modelowania matematycznego
Elementy modelowania matematycznego Modelowanie algorytmów klasyfikujących. Podejście probabilistyczne. Naiwny klasyfikator bayesowski. Modelowanie danych metodą najbliższych sąsiadów. Jakub Wróblewski
Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3
Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt
5. Analiza dyskryminacyjna: FLD, LDA, QDA
Algorytmy rozpoznawania obrazów 5. Analiza dyskryminacyjna: FLD, LDA, QDA dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Liniowe funkcje dyskryminacyjne Liniowe funkcje dyskryminacyjne mają ogólną
Machine Learning for Data Science (CS4786) Lecture 11. Spectral Embedding + Clustering
Machine Learning for Data Science (CS4786) Lecture 11 Spectral Embedding + Clustering MOTIVATING EXAMPLE What can you say from this network? MOTIVATING EXAMPLE How about now? THOUGHT EXPERIMENT For each
Oracle Data Mining 10g
Oracle Data Mining 10g Zastosowanie algorytmu Support Vector Machines do problemów biznesowych Piotr Hajkowski Oracle Consulting Agenda Podstawy teoretyczne algorytmu SVM SVM w bazie danych Klasyfikacja
Dolny Slask 1: , mapa turystycznosamochodowa: Plan Wroclawia (Polish Edition)
Dolny Slask 1:300 000, mapa turystycznosamochodowa: Plan Wroclawia (Polish Edition) Click here if your download doesn"t start automatically Dolny Slask 1:300 000, mapa turystyczno-samochodowa: Plan Wroclawia
Metody klasyfikacji danych - część 1 p.1/24
Metody klasyfikacji danych - część 1 Inteligentne Usługi Informacyjne Jerzy Dembski Metody klasyfikacji danych - część 1 p.1/24 Plan wykładu - Zadanie klasyfikacji danych - Przeglad problemów klasyfikacji
Kombinacja jądrowych estymatorów gęstości w klasyfikacji - zastosowanie na sztucznym zbiorze danych
Kombinacja jądrowych estymatorów gęstości w klasyfikacji - zastosowanie na sztucznym zbiorze danych Mateusz Kobos, 07.04.2010 Seminarium Metody Inteligencji Obliczeniowej Spis treści Opis algorytmu i zbioru
TEORETYCZNE PODSTAWY INFORMATYKI
1 TEORETYCZNE PODSTAWY INFORMATYKI WFAiS UJ, Informatyka Stosowana I rok studiów, I stopień Wykład 16 2 Data Science: Uczenie maszynowe Uczenie maszynowe: co to znaczy? Metody Regresja Klasyfikacja Klastering
What kind of. Data Scientist do you need?
What kind of Data Scientist do you need? About Me Agnieszka Zdebiak @AZdebiak Agnieszka.Zdebiak.com 15 years experience software designer data scientist Prokom Software Asseco Poland Unizeto Technologies
Emilka szuka swojej gwiazdy / Emily Climbs (Emily, #2)
Emilka szuka swojej gwiazdy / Emily Climbs (Emily, #2) Click here if your download doesn"t start automatically Emilka szuka swojej gwiazdy / Emily Climbs (Emily, #2) Emilka szuka swojej gwiazdy / Emily
Popularne klasyfikatory w pakietach komputerowych
Popularne klasyfikatory w pakietach komputerowych Klasyfikator liniowy Uogólniony klasyfikator liniowy SVM aiwny klasyfikator bayesowski Ocena klasyfikatora ROC Lista popularnych pakietów Klasyfikator
4.1. Wprowadzenie...70 4.2. Podstawowe definicje...71 4.3. Algorytm określania wartości parametrów w regresji logistycznej...74
3 Wykaz najważniejszych skrótów...8 Przedmowa... 10 1. Podstawowe pojęcia data mining...11 1.1. Wprowadzenie...12 1.2. Podstawowe zadania eksploracji danych...13 1.3. Główne etapy eksploracji danych...15
KADD Minimalizacja funkcji
Minimalizacja funkcji Poszukiwanie minimum funkcji Foma kwadratowa Metody przybliżania minimum minimalizacja Minimalizacja w n wymiarach Metody poszukiwania minimum Otaczanie minimum Podział obszaru zawierającego
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydział Elektrotechniki, Automatyki, Informatyki i Elektroniki
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie Wydział Elektrotechniki, Automatyki, Informatyki i Elektroniki PRACA MAGISTERSKA ŁUKASZ DZIEDZIA PORÓWNANIE JAKOŚCI UOGÓLNIENIA I EFEKTYWNOŚCI
Wprowadzenie do statystyki oraz analizy danych
Wprowadzenie do statystyki oraz analizy danych Marcin Wolter IFJ PAN 11 lipca 2014 1 Statystyka Statystyka nauka, która bada i opisuje zjawiska losowe. Pierwsze prace Al-Kindi użył statystyki do złamania
Uczenie sieci typu MLP
Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik
Podstawy sztucznej inteligencji
wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,
WYKŁAD 4. Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie. autor: Maciej Zięba. Politechnika Wrocławska
Wrocław University of Technology WYKŁAD 4 Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie autor: Maciej Zięba Politechnika Wrocławska Klasyfikacja Klasyfikacja (ang. Classification):
Katowice, plan miasta: Skala 1: = City map = Stadtplan (Polish Edition)
Katowice, plan miasta: Skala 1:20 000 = City map = Stadtplan (Polish Edition) Polskie Przedsiebiorstwo Wydawnictw Kartograficznych im. Eugeniusza Romera Click here if your download doesn"t start automatically
Wprowadzenie do Sieci Neuronowych Laboratorium 04 Algorytmy konstrukcyjne dla sieci skierowanych
Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu w dziedzinach matematyczno-przyrodniczych realizowany w ramach Poddziałania 4.1.1 Programu Operacyjnego Kapitał Ludzki Wprowadzenie do Sieci
ERASMUS + : Trail of extinct and active volcanoes, earthquakes through Europe. SURVEY TO STUDENTS.
ERASMUS + : Trail of extinct and active volcanoes, earthquakes through Europe. SURVEY TO STUDENTS. Strona 1 1. Please give one answer. I am: Students involved in project 69% 18 Student not involved in
Wybrzeze Baltyku, mapa turystyczna 1: (Polish Edition)
Wybrzeze Baltyku, mapa turystyczna 1:50 000 (Polish Edition) Click here if your download doesn"t start automatically Wybrzeze Baltyku, mapa turystyczna 1:50 000 (Polish Edition) Wybrzeze Baltyku, mapa
deep learning for NLP (5 lectures)
TTIC 31210: Advanced Natural Language Processing Kevin Gimpel Spring 2019 Lecture 6: Finish Transformers; Sequence- to- Sequence Modeling and AJenKon 1 Roadmap intro (1 lecture) deep learning for NLP (5
Inteligentne systemy przeciw atakom sieciowym
Inteligentne systemy przeciw atakom sieciowym wykład Sztuczne sieci neuronowe (SSN) Joanna Kołodziejczyk 2016 Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 1 / 36 Biologiczne
Helena Boguta, klasa 8W, rok szkolny 2018/2019
Poniższy zbiór zadań został wykonany w ramach projektu Mazowiecki program stypendialny dla uczniów szczególnie uzdolnionych - najlepsza inwestycja w człowieka w roku szkolnym 2018/2019. Składają się na
Ankiety Nowe funkcje! Pomoc magda.szewczyk@slo-wroc.pl. magda.szewczyk@slo-wroc.pl. Twoje konto Wyloguj. BIODIVERSITY OF RIVERS: Survey to students
Ankiety Nowe funkcje! Pomoc magda.szewczyk@slo-wroc.pl Back Twoje konto Wyloguj magda.szewczyk@slo-wroc.pl BIODIVERSITY OF RIVERS: Survey to students Tworzenie ankiety Udostępnianie Analiza (55) Wyniki
Wybór modelu i ocena jakości klasyfikatora
Wybór modelu i ocena jakości klasyfikatora Błąd uczenia i błąd testowania Obciążenie, wariancja i złożoność modelu (klasyfikatora) Dekompozycja błędu testowania Optymizm Estymacja błędu testowania AIC,
Klasyfikatory SVM. Przemysław Klęsk. 1 Wiadomości ogólne 1. 2 Margines separacji Wzór na odległość punktu od płaszczyzny...
Klasyfikatory SVM Przemysław Klęsk Spis treści 1 Wiadomości ogólne 1 Margines separacji 3.1 Wzór na odległość punktu od płaszczyzny... 3 3 Przypadek liniowej separowalności danych znajdowanie płaszczyzny
KLASYFIKACJA. Słownik języka polskiego
KLASYFIKACJA KLASYFIKACJA Słownik języka polskiego Klasyfikacja systematyczny podział przedmiotów lub zjawisk na klasy, działy, poddziały, wykonywany według określonej zasady Klasyfikacja polega na przyporządkowaniu
Wojewodztwo Koszalinskie: Obiekty i walory krajoznawcze (Inwentaryzacja krajoznawcza Polski) (Polish Edition)
Wojewodztwo Koszalinskie: Obiekty i walory krajoznawcze (Inwentaryzacja krajoznawcza Polski) (Polish Edition) Robert Respondowski Click here if your download doesn"t start automatically Wojewodztwo Koszalinskie:
Układy równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona) f(x) = 0, gdzie. dla n=2 np.
Układy równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona f(x 0, f ( f, f,..., f n gdzie 2 x ( x, x 2,..., x n dla n2 np. f ( x, y 0 g( x, y 0 dla każdej wielowymiarowej rozwinięcie w szereg Taylora
Wrocław University of Technology. Uczenie głębokie. Maciej Zięba
Wrocław University of Technology Uczenie głębokie Maciej Zięba UCZENIE GŁĘBOKIE (ang. deep learning) = klasa metod uczenia maszynowego, gdzie model ma strukturę hierarchiczną złożoną z wielu nieliniowych
WYKŁAD: Perceptron Rosenblatta. Maszyny wektorów podpierających (SVM). Empiryczne reguły bayesowskie. Zaawansowane Metody Uczenia Maszynowego
WYKŁAD: Perceptron Rosenblatta. Maszyny wektorów podpierających (SVM). Empiryczne reguły bayesowskie Zaawansowane Metody Uczenia Maszynowego Perceptron Rosenblatta Szukamy hiperpłaszczyzny β 0 + β 1 najlepiej
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 2 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 213-1-15 Projekt pn. Wzmocnienie potencjału
Klaps za karę. Wyniki badania dotyczącego postaw i stosowania kar fizycznych. Joanna Włodarczyk
Klaps za karę Wyniki badania dotyczącego postaw i stosowania kar fizycznych Joanna Włodarczyk joanna.wlodarczyk@fdds.pl Warszawa, 1.12.2017 Fundacja Dajemy Dzieciom Siłę, 2017 Informacje o badaniu Badanie
Estimation and planing. Marek Majchrzak, Andrzej Bednarz Wroclaw, 06.07.2011
Estimation and planing Marek Majchrzak, Andrzej Bednarz Wroclaw, 06.07.2011 Story points Story points C D B A E Story points C D 100 B A E Story points C D 2 x 100 100 B A E Story points C D 2 x 100 100
KADD Metoda najmniejszych kwadratów funkcje nieliniowe
Metoda najmn. kwadr. - funkcje nieliniowe Metoda najmniejszych kwadratów Funkcje nieliniowe Procedura z redukcją kroku iteracji Przykłady zastosowań Dopasowanie funkcji wykładniczej Dopasowanie funkcji