Klasyfikacja naiwny Bayes
|
|
- Roman Barański
- 4 lat temu
- Przeglądów:
Transkrypt
1 Klasyfikacja naiwny Bayes LABORKA Piotr Ciskowski
2 NAIWNY KLASYFIKATOR BAYESA wyjaśnienie
3 Naiwny klasyfikator Bayesa żródło: Internetowy Podręcznik Statystyki Statsoft dane uczące 2 klasy - prawdopodobieństwo a priori: 1 ( ) = p C 1 n n 2 ( ) = p C 2 n n
4 Naiwny klasyfikator Bayesa żródło: Internetowy Podręcznik Statystyki Statsoft nowy punkt - szansa, że w tym miejscu zielony/czerwony: ( ) ( ) p C x, x =? p C x, x =? ( 1, 2 1) p x x C ( 1, 2 2 ) p x x C ( 1, 2 1) ( 1 1) ( 2 1) ( k 1) p x x C = p x C p x C = p x C d k = 1 d (, ) ( ) ( ) ( ) p x x C = p x C p x C = p x C = k j j 1,, r k = 1
5 Naiwny klasyfikator Bayesa żródło: Internetowy Podręcznik Statystyki Statsoft nowy punkt - prawdopodobieństwo a posteriori: ( ) ( ) p C x, x =? p C x, x =? ( 1 1, 2 ) = ( 1) ( 1, 2 1) = ( j ) ( 1 1) ( 2 1) p C x x p C p x x C p C p x C p x C d (, ) ( ) (, ) ( ) ( ) p C x x p C p x x C p C p x C = = = j k j j 1,, r k = 1
6 Naiwny klasyfikator Bayesa żródło: independent feature model naive Bayes probability model decision rule: - pick the hypothesis that is most probable - MAP decision rule - maximum a posteriori classify ( x1,, xd ) = arg max p ( C = c) p ( X i = xi C = c) c d i= 1
7 Naiwny klasyfikator Bayesa żródło: estymacja parametrów modelu prawdopodobieństwa a priori klas - maximum likelihood v equiprobable classes rozkłady cech - maximum likelihood v generate nonparametric model from data set - identification v assume a distibution - event model
8 Naiwny klasyfikator Bayesa żródło: Gaussian naive Bayes rozkłady cech w klasach: 1 p ( x = v c) = e 2πσ 2 c ( v µ ) 2 2σ c 2 c µ c średnia cechy x w klasie c σ c2 wariancja cechy x w klasie c
9 Naiwny klasyfikator Bayesa żródło: multivariate naive Bayes the likelihood of a document given a class C: n ( ) ( 1,, n ) = i ( i ) + ( 1 i ) 1 ( i ) p F F C F p w C F p w C i= 1 F i boolean expressing the occurence or absense of the i-th term from the vocabulary p(w i C) - probability of class C generating the term w i do klasyfikacji krótkich tekstów
10 NAIWNY KLASYFIKATOR BAYESA przykład. Sex classification
11 zbiór uczący:
12 zbiór uczący: >> sex = { 'male' ; 'male' ; 'male' ; 'male' ;... 'female' ; 'female' ; 'female' ; 'female' } >> height = [ 6 ;... % w stopach ;-) 5.92 ; ; ;... 5 ; ; ; ]
13 zbiór uczący c.d.: >> weight = [ 180 ;... % w funtach ;-) 190 ; ; ; ; ; ; ] >> footsize = [ 12 ;... % w calach ;-) 11 ; ; ;... 6 ;... 8 ;... 7 ;... 9 ]
14 nowa osoba do sprawdzenia: >> newperson = [ 6, 130, 8 ] narysuj dane uczące i nową osobę wzrost-waga: >> x12 = [ height, weight ] >> gscatter ( x12(:,1), x12(:,2), sex ) ; >> line ( newperson(1), newperson(2),... 'marker', 'x',... 'color', 'k',... 'markersize', 10,... 'linewidth', 2 ) >> set ( legend, 'location', 'best' ) >> xlabel ( 'height' ) >> ylabel ( 'weight' )
15 narysuj dane uczące i nową osobę wzrost-stopa: >> figure >> x13 = [ height, footsize ] >> gscatter ( x13(:,1), x13(:,2), sex ) ; >> line ( newperson(1), newperson(3),... 'marker', 'x',... 'color', 'k',... 'markersize', 10,... 'linewidth', 2 ) >> set ( legend, 'location', 'best' ) >> xlabel ( 'height' ) >> ylabel ( 'foot size' )
16 narysuj dane uczące i nową osobę waga-stopa: >> figure >> x23 = [ weight, footsize ] >> gscatter ( x23(:,1), x23(:,2), sex ) ; >> line ( newperson(2), newperson(3),... 'marker', 'x',... 'color', 'k',... 'markersize', 10,... 'linewidth', 2 ) >> set ( legend, 'location', 'best' ) >> xlabel ( 'weight' ) >> ylabel ( 'foot size' )
17 ustal parametry klasyfikatora: - zał. rozkład wszystkich cech: gaussowski >> meanheightm = mean ( height (1:4) ) % >> varheightm = var ( height (1:4) ) % >> meanweightm = mean ( weight (1:4) ) % >> varweightm = var ( weight (1:4) ) % >> meanfootsizem = mean ( footsize (1:4) ) % >> varfootsizem = var ( footsize (1:4) ) %
18 ustal parametry klasyfikatora: - zał. rozkład wszystkich cech: gaussowski >> meanheightf = mean ( height (5:8) ) % >> varheightf = var ( height (5:8) ) % >> meanweightf = mean ( weight (5:8) ) % >> varweightf = var ( weight (5:8) ) % >> meanfootsizef = mean ( footsize (5:8) ) % >> varfootsizef = var ( footsize (5:8) ) %
19 ustal parametry klasyfikatora: - zał. rozkład wszystkich cech: gaussowski >> Pmale = 0.5 ; % p(male) >> Pfemale = 0.5 ; % p(female) % prawdopodobieństwa a priori
20 oblicz prawdopodobieństwa a posteriori dla badanego przypadku, czyli dla: newperson = [ 6, 130, 8 ] - zał. rozkład wszystkich cech: gaussowski ( 6, 130, 8) p sex = M h = w = f = = ( 6, 130, 8) p sex = F h = w = f = = = = ( = ) ( = 6, = 130, = 8 = ) p sex M p h w f sex M ( = 6, = 130, = 8) p h w f ( = ) ( = 6 = ) ( = 130 = ) ( = 8 = ) p sex M p h sex M p w sex M p f sex M ( = 6, = 130, = 8) p h w f ( = ) ( = 6, = 130, = 8 = ) p sex F p h w f sex F ( = 6, = 130, = 8) p h w f ( = ) ( = 6 = ) ( = 130 = ) ( = 8 = ) p sex F p h sex F p w sex F p f sex F ( = 6, = 130, = 8) p h w f ( = 6, = 130, = 8) = ( = ) ( = 6, = 130, = 8 = ) + ( = ) ( = 6, = 130, = 8 = ) p h w f p sex F p h w f sex F p sex M p h w t sex M
21 oblicz prawdopodobieństwa a posteriori dla badanego przypadku, czyli dla: newperson = [ 6, 130, 8 ] - zał. rozkład wszystkich cech: gaussowski ( = = 6, = 130, = 8) = ( = ) ( = 6 = ) ( = 130 = ) ( = 8 = ) ( = = 6, = 130, = 8) = ( = ) ( = 6 = ) ( = 130 = ) ( = 8 = ) p sex M h w f p sex M p h sex M p w sex M p f sex M p sex F h w f p sex F p h sex F p w sex F p f sex F ( 6 µ ) 2 h M 2 1 2σ h M p h = sex = M = e 2 2π σ h M p h = 6 sex = F =? 1 p( h = 6 sex = M ) = e 2π σ 2 h M ( h µ ) 2 h M 2σ 2 h M ( 6 ) ( ) ( ) ( ) p w = 130 sex = M =? p w = 130 sex = F =? ( ) ( ) p f = 8 sex = M =? p f = 8 sex = F =?
22 oblicz prawdopodobieństwa a posteriori dla badanego przypadku, czyli dla: newperson = [ 6, 130, 8 ] - zał. rozkład wszystkich cech: gaussowski Ph6male = 1./(sqrt(2*pi*varHeightM))*exp(-(6-meanHeightM)^2/(2*varHeightM)) Ph6female = 1./(sqrt(2*pi*varHeightF))*exp(-(6-meanHeightF)^2/(2*varHeightF)) Pw130male = 1./sqrt(2*pi*varWeightM)*exp(-(130-meanWeightM)^2/(2*varWeightM)) Pw130female = 1./sqrt(2*pi*varWeightF)*exp(-(130-meanWeightF)^2/(2*varWeightF)) Pf8male = 1./sqrt(2*pi*varFootSizeM)*exp(-(8-meanFootSizeM)^2/(2*varFootSizeM)) Pf8female = 1./sqrt(2*pi*varFootSizeF)*exp(-(8-meanFootSizeF)^2/(2*varFootSizeF)) Pmale_h6w130f8 = Pmale * Ph6male * Pw130male * Pf8male Pfemale_h6w130f8 = Pfemale * Ph6female * Pw130female * Pf8female Pmale_h6w130f8 = e-09 Pfemale_h6w130f8 = e-04 female
Klasyfikacja Support Vector Machines
Klasyfikacja Support Vector Machines LABORKA Piotr Ciskowski przykład 1 KLASYFIKACJA KWIATKÓW IRYSA przykład 1. klasyfikacja kwiatków irysa (versicolor-virginica) żródło: pomoc MATLABa: http://www.mathworks.com/help/stats/svmclassify.html
Bardziej szczegółowoWYKŁAD 4. Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie. autor: Maciej Zięba. Politechnika Wrocławska
Wrocław University of Technology WYKŁAD 4 Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie autor: Maciej Zięba Politechnika Wrocławska Klasyfikacja Klasyfikacja (ang. Classification):
Bardziej szczegółowoWYKŁAD 3. Klasyfikacja: modele probabilistyczne
Wrocław University of Technology WYKŁAD 3 Klasyfikacja: modele probabilistyczne Maciej Zięba Politechnika Wrocławska Klasyfikacja Klasyfikacja (ang. Classification): Dysponujemy obserwacjami z etykietami
Bardziej szczegółowoMetody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium JAVA Zadanie nr 2 Rozpoznawanie liter autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z problemem klasyfikacji
Bardziej szczegółowoPodstawowe modele probabilistyczne
Wrocław University of Technology Podstawowe modele probabilistyczne Maciej Zięba maciej.zieba@pwr.edu.pl Rozpoznawanie Obrazów, Lato 2018/2019 Pojęcie prawdopodobieństwa Prawdopodobieństwo reprezentuje
Bardziej szczegółowoHard-Margin Support Vector Machines
Hard-Margin Support Vector Machines aaacaxicbzdlssnafiyn9vbjlepk3ay2gicupasvu4iblxuaw2hjmuwn7ddjjmxm1bkcg1/fjqsvt76fo9/gazqfvn8y+pjpozw5vx8zkpvtfxmlhcwl5zxyqrm2vrg5zw3vxmsoezi4ogkr6phieky5crvvjhriqvdom9l2xxftevuwcekj3lktmhghgniauiyutvrwxtvme34a77kbvg73gtygpjsrfati1+xc8c84bvraowbf+uwnipyehcvmkjrdx46vlykhkgykm3ujjdhcyzqkxy0chur6ax5cbg+1m4bbjptjcubuz4kuhvjoql93hkin5hxtav5x6yyqopnsyuneey5ni4keqrxbar5wqaxbik00icyo/iveiyqqvjo1u4fgzj/8f9x67bzmxnurjzmijtlybwfgcdjgfdtajwgcf2dwaj7ac3g1ho1n4814n7wwjgjmf/ys8fenfycuzq==
Bardziej szczegółowoLinear Classification and Logistic Regression. Pascal Fua IC-CVLab
Linear Classification and Logistic Regression Pascal Fua IC-CVLab 1 aaagcxicbdtdbtmwfafwdgxlhk8orha31ibqycvkdgpshdqxtwotng2pxtvqujmok1qlky5xllzrnobbediegwcap4votk2kqkf+/y/tnphdschtadu/giv3vtea99cfma8fpx7ytlxx7ckns4sylo3doom7jguhj1hxchmy/irhrlgh67lxb5x3blis8jjqynmedqujiu5zsqqagrx+yjcfpcrydusshmzeluzsg7tttiew5khhcuzm5rv0gn1unw6zl3gbzlpr3liwncyr6aaqinx4wnc/rpg6ix5szd86agoftuu0g/krjxdarph62enthdey3zn/+mi5zknou2ap+tclvhob9sxhwvhaqketnde7geqjp21zvjsfrcnkfhtejoz23vq97elxjlpbtmxpl6qxtl1sgfv1ptpy/yq9mgacrzkgje0hjj2rq7vtywnishnnkzsqekucnlblrarlh8x8szxolrrxkb8n6o4kmo/e7siisnozcfvsedlol60a/j8nmul/gby8mmssrfr2it8lkyxr9dirxxngzthtbaejv
Bardziej szczegółowoRozpoznawanie obrazów
Rozpoznawanie obrazów Ćwiczenia lista zadań nr 5 autorzy: A. Gonczarek, J.M. Tomczak Przykładowe problemy Klasyfikacja binarna Dla obrazu x zaproponowano dwie cechy φ(x) = (φ 1 (x) φ 2 (x)) T. Na obrazie
Bardziej szczegółowoWstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak
Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak 1 Wprowadzenie. Zmienne losowe Podczas kursu interesować nas będzie wnioskowanie o rozpatrywanym zjawisku. Poprzez wnioskowanie rozumiemy
Bardziej szczegółowoSPOTKANIE 3: Regresja: Regresja liniowa
Wrocław University of Technology SPOTKANIE 3: Regresja: Regresja liniowa Adam Gonczarek Studenckie Koło Naukowe Estymator adam.gonczarek@pwr.wroc.pl 22.11.2013 Rozkład normalny Rozkład normalny (ang. normal
Bardziej szczegółowoPreviously on CSCI 4622
More Naïve Bayes aaace3icbvfba9rafj7ew423vr998obg2gpzkojyh4rcx3ys4lafzbjmjifdototmhoilml+hf/mn3+kl+jkdwtr64gbj+8yl2/ywklhsfircg/dvnp33s796mhdr4+fdj4+o3fvywvorkuqe5zzh0oanjakhwe1ra5zhaf5xvgvn35f62rlvtcyxpnm50awundy1hzwi46jbmgprbtrrvidrg4jre4g07kak+picee6xfgiwvfaltorirucni64eeigkqhpegbwaxglabftpyq4gjbls/hw2ci7tr2xj5ddfmfzwtazj6ubmyddgchbzpf88dmrktfonct6vazputos5zakunhfweow5ukcn+puq8m1ulm7kq+d154pokysx4zgxw4nwq6dw+rcozwnhbuu9et/tgld5cgslazuci1yh1q2ynca/u9ais0kukspulds3xxegvtyfycu8iwk1598e0z2xx/g6ef94ehbpo0d9ok9yiowsvfskh1ix2zcbpsdvaxgww7wj4zdn+he2hogm8xz9s+e7/4cuf/ata==
Bardziej szczegółowoRozpoznawanie obrazów
Rozpoznawanie obrazów Laboratorium Python Zadanie nr 2 κ-nn i Naive Bayes autorzy: M. Zięba, J.M. Tomczak, A. Gonczarek, S. Zaręba, J. Kaczmar Cel zadania Celem zadania jest implementacja klasyfikatorów
Bardziej szczegółowoMetody probabilistyczne klasyfikatory bayesowskie
Konwersatorium Matematyczne Metody Ekonomii narzędzia matematyczne w eksploracji danych First Prev Next Last Go Back Full Screen Close Quit Metody probabilistyczne klasyfikatory bayesowskie Wykład 8 Marcin
Bardziej szczegółowoRozpoznawanie obrazów
Rozpoznawanie obrazów Ćwiczenia lista zadań nr 7 autorzy: A. Gonczarek, J.M. Tomczak Przykładowe problemy Klasyfikacja binarna Dla obrazu x zaproponowano dwie cechy φ(x) = (φ 1 (x) φ 2 (x)) T. Na obrazie
Bardziej szczegółowoWYKŁAD 2 i 3. Podstawowe pojęcia związane z prawdopodobieństwem. Podstawy teoretyczne. autor: Maciej Zięba. Politechnika Wrocławska
Wrocław University of Technology WYKŁAD 2 i 3 Podstawowe pojęcia związane z prawdopodobieństwem. Podstawy teoretyczne autor: Maciej Zięba Politechnika Wrocławska Pojęcie prawdopodobieństwa Prawdopodobieństwo
Bardziej szczegółowoMetody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 2 κ-nn i Naive Bayes autorzy: M. Zięba, J.M. Tomczak, A. Gonczarek, S. Zaręba Cel zadania Celem zadania jest implementacja klasyfikatorów
Bardziej szczegółowo1 Klasyfikator bayesowski
Klasyfikator bayesowski Załóżmy, że dane są prawdopodobieństwa przynależności do klasp( ),P( 2 ),...,P( L ) przykładów z pewnego zadania klasyfikacji, jak również gęstości rozkładów prawdopodobieństw wystąpienia
Bardziej szczegółowoEksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18
Eksploracja Danych wykład 4 Sebastian Zając WMP.SNŚ UKSW 10 maja 2017 Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja 2017 1 / 18 Klasyfikacja danych Klasyfikacja Najczęściej stosowana (najstarsza)
Bardziej szczegółowoLaboratorium 4. Naiwny klasyfikator Bayesa.
Laboratorium 4 Naiwny klasyfikator Bayesa. 1. Uruchom narzędzie Oracle Data Miner i połącz się z serwerem bazy danych. 2. Z menu głównego wybierz Activity Build. Na ekranie powitalnym kliknij przycisk
Bardziej szczegółowo1.1 Wstęp Literatura... 1
Spis treści Spis treści 1 Wstęp 1 1.1 Wstęp................................ 1 1.2 Literatura.............................. 1 2 Elementy rachunku prawdopodobieństwa 2 2.1 Podstawy..............................
Bardziej szczegółowoMetody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 2 autorzy: A. Gonczarek, J.M. Tomczak Metody estymacji Zad. 1 Pojawianie się spamu opisane jest zmienną losową x o rozkładzie dwupunktowym
Bardziej szczegółowoSPOTKANIE 4: Klasyfikacja: Regresja logistyczna
Wrocław University of Technology SPOTKANIE 4: Klasyfikacja: Regresja logistyczna Szymon Zaręba Studenckie Koło Naukowe Estymator 179226@student.pwr.wroc.pl 23.11.2012 Rozkład dwupunktowy i dwumianowy Rozkład
Bardziej szczegółowoSieć przesyłająca żetony CP (counter propagation)
Sieci neuropodobne IX, specyficzne architektury 1 Sieć przesyłająca żetony CP (counter propagation) warstwa Kohonena: wektory wejściowe są unormowane jednostki mają unormowane wektory wag jednostki są
Bardziej szczegółowoMetody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 2 autorzy: A. Gonczarek, J.M. Tomczak Metody estymacji ML Zad. 1 Pojawianie się spamu opisane jest zmienną losową x o rozkładzie dwupunktowym
Bardziej szczegółowoSTATYSTYKA MATEMATYCZNA
STATYSTYKA MATEMATYCZNA 1. Wykład wstępny. Teoria prawdopodobieństwa i elementy kombinatoryki 2. Zmienne losowe i ich rozkłady 3. opulacje i próby danych, estymacja parametrów 4. Testowanie hipotez 5.
Bardziej szczegółowoFuzja sygnałów i filtry bayesowskie
Fuzja sygnałów i filtry bayesowskie Roboty Manipulacyjne i Mobilne dr inż. Janusz Jakubiak Katedra Cybernetyki i Robotyki Wydział Elektroniki, Politechnika Wrocławska Wrocław, 10.03.2015 Dlaczego potrzebna
Bardziej szczegółowoSTATYSTYKA MATEMATYCZNA WYKŁAD 1
STATYSTYKA MATEMATYCZNA WYKŁAD 1 Wykład wstępny Teoria prawdopodobieństwa Magda Mielczarek wykłady, ćwiczenia Copyright 2017, J. Szyda & M. Mielczarek STATYSTYKA MATEMATYCZNA? ASHG 2011 Writing Workshop;
Bardziej szczegółowoEstymacja parametrów rozkładu cechy
Estymacja parametrów rozkładu cechy Estymujemy parametr θ rozkładu cechy X Próba: X 1, X 2,..., X n Estymator punktowy jest funkcją próby ˆθ = ˆθX 1, X 2,..., X n przybliżającą wartość parametru θ Przedział
Bardziej szczegółowoModele i wnioskowanie statystyczne (MWS), sprawozdanie z laboratorium 4
Modele i wnioskowanie statystyczne (MWS), sprawozdanie z laboratorium 4 Konrad Miziński, nr albumu 233703 31 maja 2015 Zadanie 1 Wartości oczekiwane µ 1 i µ 2 oszacowano wg wzorów: { µ1 = 0.43925 µ = X
Bardziej szczegółowoMetody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 3 Metody estymacji. Estymator największej wiarygodności Zad. 1 Pojawianie się spamu opisane jest zmienną losową y o rozkładzie zero-jedynkowym
Bardziej szczegółowoMetody eksploracji danych 5. Klasyfikacja (kontynuacja)
Metody eksploracji danych 5. Klasyfikacja (kontynuacja) Piotr Szwed Katedra Informatyki Stosowanej AGH 2016 Naiwny model Bayesa Drzewa decyzyjne Naiwny model Bayesa P. Szwed: Metody eksploracji danych
Bardziej szczegółowoWprowadzenie. Data Science Uczenie się pod nadzorem
Wprowadzenie Wprowadzenie Wprowadzenie Wprowadzenie Machine Learning Mind Map Historia Wstęp lub uczenie się z przykładów jest procesem budowy, na bazie dostępnych danych wejściowych X i oraz wyjściowych
Bardziej szczegółowoAlgorytmy estymacji stanu (filtry)
Algorytmy estymacji stanu (filtry) Na podstawie: AIMA ch15, Udacity (S. Thrun) Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 21 kwietnia 2014 Problem lokalizacji Obserwowalność? Determinizm?
Bardziej szczegółowoWykład 3. Rozkład normalny
Funkcje gęstości Rozkład normalny Reguła 68-95-99.7 % Wykład 3 Rozkład normalny Standardowy rozkład normalny Prawdopodobieństwa i kwantyle dla rozkładu normalnego Funkcja gęstości Frakcja studentów z vocabulary
Bardziej szczegółowoWprowadzenie do uczenia maszynowego. Jakub Tomczak
Wprowadzenie do uczenia maszynowego Jakub Tomczak 2014 ii Rozdział 1 Pojęcia podstawowe 1.1 Wprowadzenie. Zmienne losowe ˆ Podczas kursu interesować nas będzie wnioskowanie o rozpatrywanym zjawisku. Poprzez
Bardziej szczegółowoŚ Ó Ć ć ć Ź ć Ć Ź ć Ś ć ć ć Ś ć Ź ć Ś Ź Ź ć ć ć ź ć ć ź Ź ć ć Ź ć Ś ć ć ć Ś ć Ź ć Ź ć ć ć ź Ś ć Ź ć Ź ć Ź ć Ź ć Ź Ś Ś ć ć Ś Ć ź Ę Ź Ź Ś Ć Ą Ó Ę Ó Ó Ą Ś Ę Ź Ó Ó Ę Ę Ź Ą Ó Ą Ą Ą Ą Ą Ś ć ć ć Ń Ó Ć ź ć ć Ś
Bardziej szczegółowotum.de/fall2018/ in2357
https://piazza.com/ tum.de/fall2018/ in2357 Prof. Daniel Cremers From to Classification Categories of Learning (Rep.) Learning Unsupervised Learning clustering, density estimation Supervised Learning learning
Bardziej szczegółowoWYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 13 i 14 - Statystyka bayesowska
WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 13 i 14 - Statystyka bayesowska Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 13 i 14 1 / 15 MODEL BAYESOWSKI, przykład wstępny Statystyka
Bardziej szczegółowoWYKŁAD 2. Problem regresji - modele liniowe
Wrocław University of Technology WYKŁAD 2 Problem regresji - modele liniowe Maciej Zięba Politechnika Wrocławska Regresja Regresja (ang. Regression): Dysponujemy obserwacjami z odpowiadającymi im wartościami
Bardziej szczegółowoSTATYSTYKA MATEMATYCZNA WYKŁAD 3. Populacje i próby danych
STATYSTYKA MATEMATYCZNA WYKŁAD 3 Populacje i próby danych POPULACJA I PRÓBA DANYCH POPULACJA population Obserwacje dla wszystkich osobników danego gatunku / rasy PRÓBA DANYCH sample Obserwacje dotyczące
Bardziej szczegółowo6. Zmienne losowe typu ciagłego ( ) Pole trapezu krzywoliniowego
6. Zmienne losowe typu ciagłego (2.04.2007) Pole trapezu krzywoliniowego Przypomnienie: figurę ograniczoną przez: wykres funkcji y = f(x), gdzie f jest funkcją ciągłą; proste x = a, x = b, a < b, oś OX
Bardziej szczegółowoWykład 6 Estymatory efektywne. Własności asymptotyczne estym. estymatorów
Wykład 6 Estymatory efektywne. Własności asymptotyczne estymatorów Wrocław, 30 listopada 2016r Powtórzenie z rachunku prawdopodobieństwa Zbieżność Definicja 6.1 Niech ciąg {X } n ma rozkład o dystrybuancie
Bardziej szczegółowoJądrowe klasyfikatory liniowe
Jądrowe klasyfikatory liniowe Waldemar Wołyński Wydział Matematyki i Informatyki UAM Poznań Wisła, 9 grudnia 2009 Waldemar Wołyński () Jądrowe klasyfikatory liniowe Wisła, 9 grudnia 2009 1 / 19 Zagadnienie
Bardziej szczegółowoLABORATORIUM Populacja Generalna (PG) 2. Próba (P n ) 3. Kryterium 3σ 4. Błąd Średniej Arytmetycznej 5. Estymatory 6. Teoria Estymacji (cz.
LABORATORIUM 4 1. Populacja Generalna (PG) 2. Próba (P n ) 3. Kryterium 3σ 4. Błąd Średniej Arytmetycznej 5. Estymatory 6. Teoria Estymacji (cz. I) WNIOSKOWANIE STATYSTYCZNE (STATISTICAL INFERENCE) Populacja
Bardziej szczegółowoSTATYSTYKA MATEMATYCZNA
STTYSTYK MTMTYCZN 1. Wykład wstępny 2. Teoria prawdopodobieństwa i elementy kombinatoryki 3. Zmienne losowe 4. opulacje i próby danych 5. Testowanie hipotez i estymacja parametrów 6. Test t 7. Test 2 8.
Bardziej szczegółowoSpam or Not Spam That is the question
or Not That is the question 4 maja 2006 Zwięzła definicja spamu Czym jest spam? Typy spamu Kto dostaje najwięcej spamu? to nadmiar informacji zbędnych dla odbiorcy przekazu. Definicji poszerzona Czym jest
Bardziej szczegółowoZastosowania sieci neuronowych
Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką
Bardziej szczegółowoWykład 5 Problem dwóch prób - testowanie hipotez dla równości średnich
Wykład 5 Problem dwóch prób - testowanie hipotez dla równości średnich Magdalena Frąszczak Wrocław, 22.03.2017r Problem Behrensa Fishera Niech X = (X 1, X 2,..., X n ) oznacza próbę z rozkładu normalnego
Bardziej szczegółowoKlasyfikacja metodą Bayesa
Klasyfikacja metodą Bayesa Tadeusz Pankowski www.put.poznan.pl/~tadeusz.pankowski warunkowe i bezwarunkowe 1. Klasyfikacja Bayesowska jest klasyfikacją statystyczną. Pozwala przewidzieć prawdopodobieństwo
Bardziej szczegółowoModele i wnioskowanie statystyczne (MWS), sprawozdanie z laboratorium 3
Modele i wnioskowanie statystyczne (MWS), sprawozdanie z laboratorium 3 Konrad Miziński, nr albumu 233703 26 maja 2015 Zadanie 1 Wartość krytyczna c, niezbędna wyliczenia mocy testu (1 β) wyznaczono za
Bardziej szczegółowoLogistic Regression. Machine Learning CS5824/ECE5424 Bert Huang Virginia Tech
Logistic Regression Machine Learning CS5824/ECE5424 Bert Huang Virginia Tech Outline Review conditional probability and classification Linear parameterization and logistic function Gradient descent Other
Bardziej szczegółowoEksploracja danych - wykład IV
- wykład 1/41 wykład - wykład Instytut Informatyki Teoretycznej i Stosowanej Politechnika Częstochowska 27 października 2016 - wykład 2/41 wykład 1 2 3 4 5 - wykład 3/41 CRISP-DM - standaryzacja wykład
Bardziej szczegółowoSTATYSTYKA MATEMATYCZNA. rachunek prawdopodobieństwa
STATYSTYKA MATEMATYCZNA rachunek prawdopodobieństwa treść Zdarzenia losowe pojęcie prawdopodobieństwa prawo wielkich liczb zmienne losowe rozkłady teoretyczne zmiennych losowych Zanim zajmiemy się wnioskowaniem
Bardziej szczegółowoWykład 10 Estymacja przedziałowa - przedziały ufności dla średn
Wykład 10 Estymacja przedziałowa - przedziały ufności dla średniej Wrocław, 21 grudnia 2016r Przedział ufności Niech będzie dana próba X 1, X 2,..., X n z rozkładu P θ, θ Θ. Definicja 10.1 Przedziałem
Bardziej szczegółowoAkademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Elektroniki
Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Elektroniki Przetwarzanie Sygnałów Studia Podyplomowe, Automatyka i Robotyka. Wstęp teoretyczny Zmienne losowe Zmienne losowe
Bardziej szczegółowoLABORATORIUM 6 ESTYMACJA cz. 2
LABORATORIUM 6 ESTYMACJA cz. 2 TEORIA ESTYMACJI I 1. ODRZUCANIE WYNIKÓW WĄTPLIWYCH PRÓBA P (m) (m-elementowa) Obliczenie: ; s bez wyników wątpliwych Odrzucenie wyników z poza przedziału: 3s PRÓBA LOSOWA
Bardziej szczegółowoSYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska
SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska DRZEWO REGRESYJNE Sposób konstrukcji i przycinania
Bardziej szczegółowoO ŚREDNIEJ STATYSTYCZNEJ
Od średniej w modelu gaussowskim do kwantyli w podstawowym modelu nieparametrycznym IMPAN 1.X.2009 Rozszerzona wersja wykładu: O ŚREDNIEJ STATYSTYCZNEJ Ryszard Zieliński XII Międzynarodowe Warsztaty dla
Bardziej szczegółowoWykład 5 Estymatory nieobciążone z jednostajnie minimalną war
Wykład 5 Estymatory nieobciążone z jednostajnie minimalną wariancją Wrocław, 25 października 2017r Statystyki próbkowe - Przypomnienie Niech X = (X 1, X 2,... X n ) będzie n elementowym wektorem losowym.
Bardziej szczegółowoSTATYSTYKA MATEMATYCZNA WYKŁAD października 2009
STATYSTYKA MATEMATYCZNA WYKŁAD 4 26 października 2009 Rozkład N(µ, σ). Estymacja σ σ 2 = 1 σ 2π + = E µ,σ (X µ) 2 { (x µ) 2 exp 1 ( ) } x µ 2 dx 2 σ Rozkład N(µ, σ). Estymacja σ σ 2 = 1 σ 2π + = E µ,σ
Bardziej szczegółowoSTATYSTYKA - PRZYKŁADOWE ZADANIA EGZAMINACYJNE
STATYSTYKA - PRZYKŁADOWE ZADANIA EGZAMINACYJNE 1 W trakcie badania obliczono wartości średniej (15,4), mediany (13,6) oraz dominanty (10,0). Określ typ asymetrii rozkładu. 2 Wymień 3 cechy rozkładu Gauss
Bardziej szczegółowoMachine learning Lecture 5
Machine learning Lecture 5 Marcin Wolter IFJ PAN 21 kwietnia 2017 Uczenie -sprawdzanie krzyżowe (cross-validation). Optymalizacja parametrów metod uczenia maszynowego. Deep learning 1 Uczenie z nauczycielem
Bardziej szczegółowoPrawdopodobieństwo czerwonych = = 0.33
Temat zajęć: Naiwny klasyfikator Bayesa a algorytm KNN Część I: Naiwny klasyfikator Bayesa Naiwny klasyfikator bayerowski jest prostym probabilistycznym klasyfikatorem. Naiwne klasyfikatory bayesowskie
Bardziej szczegółowoWYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 3 - model statystyczny, podstawowe zadania statystyki matematycznej
WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 3 - model statystyczny, podstawowe zadania statystyki matematycznej Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 3 1 / 8 ZADANIE z rachunku
Bardziej szczegółowoJeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna.
Wykład 4 Rozkłady i ich dystrybuanty Dwa typy zmiennych losowych Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x, x 2,...}, to mówimy, że jest to zmienna dyskretna.
Bardziej szczegółowoWykład 3 Testowanie hipotez statystycznych o wartości średniej. średniej i wariancji z populacji o rozkładzie normalnym
Wykład 3 Testowanie hipotez statystycznych o wartości średniej i wariancji z populacji o rozkładzie normalnym Wrocław, 08.03.2017r Model 1 Testowanie hipotez dla średniej w rozkładzie normalnym ze znaną
Bardziej szczegółowoMetody Eksploracji Danych. Klasyfikacja
Metody Eksploracji Danych Klasyfikacja w wykładzie wykorzystano: 1. materiały dydaktyczne przygotowane w ramach projektu Opracowanie programów nauczania na odległość na kierunku studiów wyższych Informatyka
Bardziej szczegółowoKlasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV
Klasyfikatory: k-nn oraz naiwny Bayesa Agnieszka Nowak Brzezińska Wykład IV Naiwny klasyfikator Bayesa Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną
Bardziej szczegółowoProcesy stochastyczne
Wykład I: Istnienie procesów stochastycznych 2 marca 2015 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane są
Bardziej szczegółowoStatystyczna analiza danych (molekularnych) estymacja bayesowska i MLE
Statystyczna analiza danych (molekularnych) estymacja bayesowska i MLE Anna Gambin 0 kwietnia 01 Spis treści 1 Estymacja bayesowska 1 Paradoks więźnia.1 Rozkład a priori.................................
Bardziej szczegółowoIdea. θ = θ 0, Hipoteza statystyczna Obszary krytyczne Błąd pierwszego i drugiego rodzaju p-wartość
Idea Niech θ oznacza parametr modelu statystycznego. Dotychczasowe rozważania dotyczyły metod estymacji tego parametru. Teraz zamiast szacować nieznaną wartość parametru będziemy weryfikowali hipotezę
Bardziej szczegółowoEkonometria Bayesowska
Ekonometria Bayesowska Wykªad 2: Bayesowska estymacja równania ze staª. Elementy j zyka R (2) Ekonometria Bayesowska / 24 Plan wykªadu Model ze staª 2 Podstawy j zyka R 3 Bayesowska analiza modelu ze staª
Bardziej szczegółowoTesty parametryczne 1
Testy parametryczne 1 Wybrane testy parametryczne 1. Test wskaźnika struktury. Test dwóch wskaźników struktury 3. Test średniej 4. Testy dwóch średnich a) Obserwacje niezależne b) Obserwacje sparowane
Bardziej szczegółowoSTATYSTYKA POWTORZENIE. Dr Wioleta Drobik-Czwarno
STATYSTYKA POWTORZENIE Dr Wioleta Drobik-Czwarno Populacja Próba Parametry EX, µ Statystyki średnia D 2 X, δ 2 S 2 wnioskowanie DX, δ p ρ S w r...... JAK POWSTAJE MODEL MATEMATYCZNY Dane eksperymentalne
Bardziej szczegółowoElementy wspo łczesnej teorii inwersji
Elementy wspo łczesnej teorii inwersji W. Debski, 5.02.2015 Przykład - 1 (Wiek A. Tarantoli???) debski@igf.edu.pl: W6-1 IGF PAN, 5.02.2015 Pomysł na rozwiazanie debski@igf.edu.pl: W6-2 IGF PAN, 5.02.2015
Bardziej szczegółowoWybór / ocena atrybutów na podstawie oceny jakości działania wybranego klasyfikatora.
Wprowadzenie do programu RapidMiner Studio 7.6, część 7 Podstawy metod wyboru atrybutów w problemach klasyfikacyjnych, c.d. Michał Bereta www.michalbereta.pl Wybór / ocena atrybutów na podstawie oceny
Bardziej szczegółowoMetoda największej wiarygodności
Rozdział Metoda największej wiarygodności Ogólnie w procesie estymacji na podstawie prób x i (każde x i może być wektorem) wyznaczamy parametr λ (w ogólnym przypadku również wektor) opisujący domniemany
Bardziej szczegółowoProcesy stochastyczne
Wykład I: Istnienie procesów stochastycznych 21 lutego 2017 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane
Bardziej szczegółowoŻ ż Ł ż ż ż Ż Ś ż ż ż Ł Ż Ż ć ż Ż Ż Ż Ń Ż Ź ż Ź Ź ż Ż ż ż Ż Ł Ż Ł Ż ż Ż ż Ż Ż Ń Ą Ż Ń Ż Ń ć ż Ż ź Ś ć Ł Ł Ź Ż Ż ż Ł ż Ż Ł Ż Ł ź ć ż Ż Ż ż ż Ó ż Ł Ż ć Ż Ż Ę Ż Ż Ż ż Ż ż ż Ś ż Ż ż ż ź Ż Ń ć Ż ż Ż Ż ż ż ż
Bardziej szczegółowoŚ Ł Ą Ś Ś ź Ś ń ż ż Ó ż ż Ś Ł ż ń ń ń ż ń Ś ń ć ŚĘ Ó Ł Ę Ł Ś Ę Ę ń ń ń ń ń Ź ń ń ń ń ń ż ń ń ń ń ń Ę ż ż ć Ść ń ń ż Ń ż ż ń ń Ś Ą ń Ś ń ń ż Ó ż Ź ń ż ń Ś Ń Ó ż Ł ż Ą ź ź Ś Ł ć Ś ć ż ź ż ć ć Ę Ó Ś Ó ż ż
Bardziej szczegółowoŁ Ł Ś ź ń ź ź ź Ś Ł Ę Ę Ś ż Ś ń Ą Ś Ą Ł ż ż ń ż ć ż ż ż ź ż ć ź Ę Ę ń ć ż Ł ń ż ż ż Ś ż Ś ż ż ż ż ż ż ż ń ń ż ż ż ć ż ń ż ń ź ż ć ż ż ć ń ż Ę Ę ć ń Ę ż ż ń ń ź Ę ź ż ń ż ń ź ż ż ż ń ż ż ż ż ż ż ż ż ń ń
Bardziej szczegółowoŁ Ł Ś Ę ź ń ź ź Ś Ę Ę Ś Ą Ś Ę Ż Ł ń Ę Ś ć ć ń ć ń ń ń ź ń Ę ź ń ń ń ź ź Ś ź ź ć ń ń ń ń Ś ć Ś ń ń Ś ź ń Ę ń Ś ź ź ź ź ź Ę Ę Ę Ś ń Ś ć ń ń ń ń ń ń Ę ń ń ń ń ć ń ń ń ń ć ń Ś ć Ł ń ń ń ć ń ć ź ń ź ć ń ń ć
Bardziej szczegółowoSTATYSTYKA MATEMATYCZNA
STATYSTYKA MATEMATYCZNA 1. Wykład wstępny. Teoria prawdopodobieństwa i elementy kombinatoryki. Zmienne losowe i ich rozkłady 3. Populacje i próby danych, estymacja parametrów 4. Testowanie hipotez statystycznych
Bardziej szczegółowoSzacowanie optymalnego systemu Bonus-Malus przy pomocy Pseudo-MLE. Joanna Sawicka
Szacowanie optymalnego systemu Bonus-Malus przy pomocy Pseudo-MLE Joanna Sawicka Plan prezentacji Model Poissona-Gamma ze składnikiem regresyjnym Konstrukcja optymalnego systemu Bonus- Malus Estymacja
Bardziej szczegółowoDrzewa decyzyjne. Inteligentne Obliczenia. Wydział Mechatroniki Politechniki Warszawskiej. Anna Sztyber
Drzewa decyzyjne Inteligentne Obliczenia Wydział Mechatroniki Politechniki Warszawskiej Anna Sztyber INO (IAiR PW) Drzewa decyzyjne Anna Sztyber / Drzewa decyzyjne w podstawowej wersji algorytm klasyfikacji
Bardziej szczegółowoLogika Stosowana. Wykład 9 - Wnioskowanie indukcyjne Część 2 Wnioskowanie bayesowskie. Marcin Szczuka. Instytut Matematyki UW
Logika Stosowana Wykład 9 - Wnioskowanie indukcyjne Część 2 Wnioskowanie bayesowskie Marcin Szczuka Instytut Matematyki UW Wykład monograficzny, semestr letni 2016/2017 Marcin Szczuka (MIMUW) Logika Stosowana
Bardziej szczegółowoNiech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX = 4 i EY = 6. Rozważamy zmienną losową Z =.
Prawdopodobieństwo i statystyka 3..00 r. Zadanie Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX 4 i EY 6. Rozważamy zmienną losową Z. X + Y Wtedy (A) EZ 0,
Bardziej szczegółowoRozkład normalny. Marcin Zajenkowski. Marcin Zajenkowski () Rozkład normalny 1 / 26
Rozkład normalny Marcin Zajenkowski Marcin Zajenkowski () Rozkład normalny 1 / 26 Rozkład normalny Krzywa normalna, krzywa Gaussa, rozkład normalny Rozkłady liczebności wielu pomiarów fizycznych, biologicznych
Bardziej szczegółowoSTATYSTYKA MATEMATYCZNA WYKŁAD stycznia 2010
STATYSTYKA MATEMATYCZNA WYKŁAD 14 18 stycznia 2010 Model statystyczny ROZKŁAD DWUMIANOWY ( ) {0, 1,, n}, {P θ, θ (0, 1)}, n ustalone P θ {K = k} = ( ) n θ k (1 θ) n k, k k = 0, 1,, n Geneza: Rozkład Bernoulliego
Bardziej szczegółowoSMOP - wykład. Rozkład normalny zasady przenoszenia błędów. Ewa Pawelec
SMOP - wykład Rozkład normalny zasady przenoszenia błędów Ewa Pawelec 1 iepewność dla rozkładu norm. Zamiast dodawania całych zakresów uwzględniamy prawdopodobieństwo trafienia dwóch wartości: P x 1, x
Bardziej szczegółowoMetody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium ZALICZENIE Zadanie nr 3 Rozpoznawanie ręcznie pisanych cyfr autorzy: A. Gonczarek, P. Klukowski, J.M. Tomczak, S. Zaręba, M. Zięba Cel zadania Celem
Bardziej szczegółowoWprowadzenie do statystyki oraz analizy danych
Wprowadzenie do statystyki oraz analizy danych Marcin Wolter IFJ PAN 11 lipca 2014 1 Statystyka Statystyka nauka, która bada i opisuje zjawiska losowe. Pierwsze prace Al-Kindi użył statystyki do złamania
Bardziej szczegółowo1 Obliczenia na danych
1 Obliczenia na danych 1.1 Wyrażenia w SAS 1. stałe numeryczne, czyli liczby używane w wyrażeniach SAS. Możemy je prezentować (a) w zapisie standardowym np. 5, 6.7, -2.1, (b) w notacji naukowej np. 2e5
Bardziej szczegółowoWYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 4 - zagadnienie estymacji, metody wyznaczania estymatorów
WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 4 - zagadnienie estymacji, metody wyznaczania estymatorów Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 4 1 / 23 ZAGADNIENIE ESTYMACJI Zagadnienie
Bardziej szczegółowoWizualizacja danych 2D i 3D - Gnuplot
Wizualizacja danych 2D i 3D - Gnuplot dr hab. Bożena Woźna-Szcześniak Akademia im. Jan Długosza bwozna@gmail.com Laboratorium 7 Legenda - składania set key [ on off ] [ default ] [ [ at {pos:position}
Bardziej szczegółowo1. Pokaż, że estymator MNW parametru β ma postać β = nieobciążony. Znajdź estymator parametru σ 2.
Zadanie 1 Niech y t ma rozkład logarytmiczno normalny o funkcji gęstości postaci [ ] 1 f (y t ) = y exp (ln y t β ln x t ) 2 t 2πσ 2 2σ 2 Zakładamy, że x t jest nielosowe a y t są nieskorelowane w czasie.
Bardziej szczegółowo