Klasyfikacja naiwny Bayes

Wielkość: px
Rozpocząć pokaz od strony:

Download "Klasyfikacja naiwny Bayes"

Transkrypt

1 Klasyfikacja naiwny Bayes LABORKA Piotr Ciskowski

2 NAIWNY KLASYFIKATOR BAYESA wyjaśnienie

3 Naiwny klasyfikator Bayesa żródło: Internetowy Podręcznik Statystyki Statsoft dane uczące 2 klasy - prawdopodobieństwo a priori: 1 ( ) = p C 1 n n 2 ( ) = p C 2 n n

4 Naiwny klasyfikator Bayesa żródło: Internetowy Podręcznik Statystyki Statsoft nowy punkt - szansa, że w tym miejscu zielony/czerwony: ( ) ( ) p C x, x =? p C x, x =? ( 1, 2 1) p x x C ( 1, 2 2 ) p x x C ( 1, 2 1) ( 1 1) ( 2 1) ( k 1) p x x C = p x C p x C = p x C d k = 1 d (, ) ( ) ( ) ( ) p x x C = p x C p x C = p x C = k j j 1,, r k = 1

5 Naiwny klasyfikator Bayesa żródło: Internetowy Podręcznik Statystyki Statsoft nowy punkt - prawdopodobieństwo a posteriori: ( ) ( ) p C x, x =? p C x, x =? ( 1 1, 2 ) = ( 1) ( 1, 2 1) = ( j ) ( 1 1) ( 2 1) p C x x p C p x x C p C p x C p x C d (, ) ( ) (, ) ( ) ( ) p C x x p C p x x C p C p x C = = = j k j j 1,, r k = 1

6 Naiwny klasyfikator Bayesa żródło: independent feature model naive Bayes probability model decision rule: - pick the hypothesis that is most probable - MAP decision rule - maximum a posteriori classify ( x1,, xd ) = arg max p ( C = c) p ( X i = xi C = c) c d i= 1

7 Naiwny klasyfikator Bayesa żródło: estymacja parametrów modelu prawdopodobieństwa a priori klas - maximum likelihood v equiprobable classes rozkłady cech - maximum likelihood v generate nonparametric model from data set - identification v assume a distibution - event model

8 Naiwny klasyfikator Bayesa żródło: Gaussian naive Bayes rozkłady cech w klasach: 1 p ( x = v c) = e 2πσ 2 c ( v µ ) 2 2σ c 2 c µ c średnia cechy x w klasie c σ c2 wariancja cechy x w klasie c

9 Naiwny klasyfikator Bayesa żródło: multivariate naive Bayes the likelihood of a document given a class C: n ( ) ( 1,, n ) = i ( i ) + ( 1 i ) 1 ( i ) p F F C F p w C F p w C i= 1 F i boolean expressing the occurence or absense of the i-th term from the vocabulary p(w i C) - probability of class C generating the term w i do klasyfikacji krótkich tekstów

10 NAIWNY KLASYFIKATOR BAYESA przykład. Sex classification

11 zbiór uczący:

12 zbiór uczący: >> sex = { 'male' ; 'male' ; 'male' ; 'male' ;... 'female' ; 'female' ; 'female' ; 'female' } >> height = [ 6 ;... % w stopach ;-) 5.92 ; ; ;... 5 ; ; ; ]

13 zbiór uczący c.d.: >> weight = [ 180 ;... % w funtach ;-) 190 ; ; ; ; ; ; ] >> footsize = [ 12 ;... % w calach ;-) 11 ; ; ;... 6 ;... 8 ;... 7 ;... 9 ]

14 nowa osoba do sprawdzenia: >> newperson = [ 6, 130, 8 ] narysuj dane uczące i nową osobę wzrost-waga: >> x12 = [ height, weight ] >> gscatter ( x12(:,1), x12(:,2), sex ) ; >> line ( newperson(1), newperson(2),... 'marker', 'x',... 'color', 'k',... 'markersize', 10,... 'linewidth', 2 ) >> set ( legend, 'location', 'best' ) >> xlabel ( 'height' ) >> ylabel ( 'weight' )

15 narysuj dane uczące i nową osobę wzrost-stopa: >> figure >> x13 = [ height, footsize ] >> gscatter ( x13(:,1), x13(:,2), sex ) ; >> line ( newperson(1), newperson(3),... 'marker', 'x',... 'color', 'k',... 'markersize', 10,... 'linewidth', 2 ) >> set ( legend, 'location', 'best' ) >> xlabel ( 'height' ) >> ylabel ( 'foot size' )

16 narysuj dane uczące i nową osobę waga-stopa: >> figure >> x23 = [ weight, footsize ] >> gscatter ( x23(:,1), x23(:,2), sex ) ; >> line ( newperson(2), newperson(3),... 'marker', 'x',... 'color', 'k',... 'markersize', 10,... 'linewidth', 2 ) >> set ( legend, 'location', 'best' ) >> xlabel ( 'weight' ) >> ylabel ( 'foot size' )

17 ustal parametry klasyfikatora: - zał. rozkład wszystkich cech: gaussowski >> meanheightm = mean ( height (1:4) ) % >> varheightm = var ( height (1:4) ) % >> meanweightm = mean ( weight (1:4) ) % >> varweightm = var ( weight (1:4) ) % >> meanfootsizem = mean ( footsize (1:4) ) % >> varfootsizem = var ( footsize (1:4) ) %

18 ustal parametry klasyfikatora: - zał. rozkład wszystkich cech: gaussowski >> meanheightf = mean ( height (5:8) ) % >> varheightf = var ( height (5:8) ) % >> meanweightf = mean ( weight (5:8) ) % >> varweightf = var ( weight (5:8) ) % >> meanfootsizef = mean ( footsize (5:8) ) % >> varfootsizef = var ( footsize (5:8) ) %

19 ustal parametry klasyfikatora: - zał. rozkład wszystkich cech: gaussowski >> Pmale = 0.5 ; % p(male) >> Pfemale = 0.5 ; % p(female) % prawdopodobieństwa a priori

20 oblicz prawdopodobieństwa a posteriori dla badanego przypadku, czyli dla: newperson = [ 6, 130, 8 ] - zał. rozkład wszystkich cech: gaussowski ( 6, 130, 8) p sex = M h = w = f = = ( 6, 130, 8) p sex = F h = w = f = = = = ( = ) ( = 6, = 130, = 8 = ) p sex M p h w f sex M ( = 6, = 130, = 8) p h w f ( = ) ( = 6 = ) ( = 130 = ) ( = 8 = ) p sex M p h sex M p w sex M p f sex M ( = 6, = 130, = 8) p h w f ( = ) ( = 6, = 130, = 8 = ) p sex F p h w f sex F ( = 6, = 130, = 8) p h w f ( = ) ( = 6 = ) ( = 130 = ) ( = 8 = ) p sex F p h sex F p w sex F p f sex F ( = 6, = 130, = 8) p h w f ( = 6, = 130, = 8) = ( = ) ( = 6, = 130, = 8 = ) + ( = ) ( = 6, = 130, = 8 = ) p h w f p sex F p h w f sex F p sex M p h w t sex M

21 oblicz prawdopodobieństwa a posteriori dla badanego przypadku, czyli dla: newperson = [ 6, 130, 8 ] - zał. rozkład wszystkich cech: gaussowski ( = = 6, = 130, = 8) = ( = ) ( = 6 = ) ( = 130 = ) ( = 8 = ) ( = = 6, = 130, = 8) = ( = ) ( = 6 = ) ( = 130 = ) ( = 8 = ) p sex M h w f p sex M p h sex M p w sex M p f sex M p sex F h w f p sex F p h sex F p w sex F p f sex F ( 6 µ ) 2 h M 2 1 2σ h M p h = sex = M = e 2 2π σ h M p h = 6 sex = F =? 1 p( h = 6 sex = M ) = e 2π σ 2 h M ( h µ ) 2 h M 2σ 2 h M ( 6 ) ( ) ( ) ( ) p w = 130 sex = M =? p w = 130 sex = F =? ( ) ( ) p f = 8 sex = M =? p f = 8 sex = F =?

22 oblicz prawdopodobieństwa a posteriori dla badanego przypadku, czyli dla: newperson = [ 6, 130, 8 ] - zał. rozkład wszystkich cech: gaussowski Ph6male = 1./(sqrt(2*pi*varHeightM))*exp(-(6-meanHeightM)^2/(2*varHeightM)) Ph6female = 1./(sqrt(2*pi*varHeightF))*exp(-(6-meanHeightF)^2/(2*varHeightF)) Pw130male = 1./sqrt(2*pi*varWeightM)*exp(-(130-meanWeightM)^2/(2*varWeightM)) Pw130female = 1./sqrt(2*pi*varWeightF)*exp(-(130-meanWeightF)^2/(2*varWeightF)) Pf8male = 1./sqrt(2*pi*varFootSizeM)*exp(-(8-meanFootSizeM)^2/(2*varFootSizeM)) Pf8female = 1./sqrt(2*pi*varFootSizeF)*exp(-(8-meanFootSizeF)^2/(2*varFootSizeF)) Pmale_h6w130f8 = Pmale * Ph6male * Pw130male * Pf8male Pfemale_h6w130f8 = Pfemale * Ph6female * Pw130female * Pf8female Pmale_h6w130f8 = e-09 Pfemale_h6w130f8 = e-04 female

Klasyfikacja Support Vector Machines

Klasyfikacja Support Vector Machines Klasyfikacja Support Vector Machines LABORKA Piotr Ciskowski przykład 1 KLASYFIKACJA KWIATKÓW IRYSA przykład 1. klasyfikacja kwiatków irysa (versicolor-virginica) żródło: pomoc MATLABa: http://www.mathworks.com/help/stats/svmclassify.html

Bardziej szczegółowo

WYKŁAD 4. Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie. autor: Maciej Zięba. Politechnika Wrocławska

WYKŁAD 4. Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie. autor: Maciej Zięba. Politechnika Wrocławska Wrocław University of Technology WYKŁAD 4 Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie autor: Maciej Zięba Politechnika Wrocławska Klasyfikacja Klasyfikacja (ang. Classification):

Bardziej szczegółowo

WYKŁAD 3. Klasyfikacja: modele probabilistyczne

WYKŁAD 3. Klasyfikacja: modele probabilistyczne Wrocław University of Technology WYKŁAD 3 Klasyfikacja: modele probabilistyczne Maciej Zięba Politechnika Wrocławska Klasyfikacja Klasyfikacja (ang. Classification): Dysponujemy obserwacjami z etykietami

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium JAVA Zadanie nr 2 Rozpoznawanie liter autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z problemem klasyfikacji

Bardziej szczegółowo

Podstawowe modele probabilistyczne

Podstawowe modele probabilistyczne Wrocław University of Technology Podstawowe modele probabilistyczne Maciej Zięba maciej.zieba@pwr.edu.pl Rozpoznawanie Obrazów, Lato 2018/2019 Pojęcie prawdopodobieństwa Prawdopodobieństwo reprezentuje

Bardziej szczegółowo

Hard-Margin Support Vector Machines

Hard-Margin Support Vector Machines Hard-Margin Support Vector Machines aaacaxicbzdlssnafiyn9vbjlepk3ay2gicupasvu4iblxuaw2hjmuwn7ddjjmxm1bkcg1/fjqsvt76fo9/gazqfvn8y+pjpozw5vx8zkpvtfxmlhcwl5zxyqrm2vrg5zw3vxmsoezi4ogkr6phieky5crvvjhriqvdom9l2xxftevuwcekj3lktmhghgniauiyutvrwxtvme34a77kbvg73gtygpjsrfati1+xc8c84bvraowbf+uwnipyehcvmkjrdx46vlykhkgykm3ujjdhcyzqkxy0chur6ax5cbg+1m4bbjptjcubuz4kuhvjoql93hkin5hxtav5x6yyqopnsyuneey5ni4keqrxbar5wqaxbik00icyo/iveiyqqvjo1u4fgzj/8f9x67bzmxnurjzmijtlybwfgcdjgfdtajwgcf2dwaj7ac3g1ho1n4814n7wwjgjmf/ys8fenfycuzq==

Bardziej szczegółowo

Linear Classification and Logistic Regression. Pascal Fua IC-CVLab

Linear Classification and Logistic Regression. Pascal Fua IC-CVLab Linear Classification and Logistic Regression Pascal Fua IC-CVLab 1 aaagcxicbdtdbtmwfafwdgxlhk8orha31ibqycvkdgpshdqxtwotng2pxtvqujmok1qlky5xllzrnobbediegwcap4votk2kqkf+/y/tnphdschtadu/giv3vtea99cfma8fpx7ytlxx7ckns4sylo3doom7jguhj1hxchmy/irhrlgh67lxb5x3blis8jjqynmedqujiu5zsqqagrx+yjcfpcrydusshmzeluzsg7tttiew5khhcuzm5rv0gn1unw6zl3gbzlpr3liwncyr6aaqinx4wnc/rpg6ix5szd86agoftuu0g/krjxdarph62enthdey3zn/+mi5zknou2ap+tclvhob9sxhwvhaqketnde7geqjp21zvjsfrcnkfhtejoz23vq97elxjlpbtmxpl6qxtl1sgfv1ptpy/yq9mgacrzkgje0hjj2rq7vtywnishnnkzsqekucnlblrarlh8x8szxolrrxkb8n6o4kmo/e7siisnozcfvsedlol60a/j8nmul/gby8mmssrfr2it8lkyxr9dirxxngzthtbaejv

Bardziej szczegółowo

Rozpoznawanie obrazów

Rozpoznawanie obrazów Rozpoznawanie obrazów Ćwiczenia lista zadań nr 5 autorzy: A. Gonczarek, J.M. Tomczak Przykładowe problemy Klasyfikacja binarna Dla obrazu x zaproponowano dwie cechy φ(x) = (φ 1 (x) φ 2 (x)) T. Na obrazie

Bardziej szczegółowo

Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak

Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak 1 Wprowadzenie. Zmienne losowe Podczas kursu interesować nas będzie wnioskowanie o rozpatrywanym zjawisku. Poprzez wnioskowanie rozumiemy

Bardziej szczegółowo

SPOTKANIE 3: Regresja: Regresja liniowa

SPOTKANIE 3: Regresja: Regresja liniowa Wrocław University of Technology SPOTKANIE 3: Regresja: Regresja liniowa Adam Gonczarek Studenckie Koło Naukowe Estymator adam.gonczarek@pwr.wroc.pl 22.11.2013 Rozkład normalny Rozkład normalny (ang. normal

Bardziej szczegółowo

Previously on CSCI 4622

Previously on CSCI 4622 More Naïve Bayes aaace3icbvfba9rafj7ew423vr998obg2gpzkojyh4rcx3ys4lafzbjmjifdototmhoilml+hf/mn3+kl+jkdwtr64gbj+8yl2/ywklhsfircg/dvnp33s796mhdr4+fdj4+o3fvywvorkuqe5zzh0oanjakhwe1ra5zhaf5xvgvn35f62rlvtcyxpnm50awundy1hzwi46jbmgprbtrrvidrg4jre4g07kak+picee6xfgiwvfaltorirucni64eeigkqhpegbwaxglabftpyq4gjbls/hw2ci7tr2xj5ddfmfzwtazj6ubmyddgchbzpf88dmrktfonct6vazputos5zakunhfweow5ukcn+puq8m1ulm7kq+d154pokysx4zgxw4nwq6dw+rcozwnhbuu9et/tgld5cgslazuci1yh1q2ynca/u9ais0kukspulds3xxegvtyfycu8iwk1598e0z2xx/g6ef94ehbpo0d9ok9yiowsvfskh1ix2zcbpsdvaxgww7wj4zdn+he2hogm8xz9s+e7/4cuf/ata==

Bardziej szczegółowo

Rozpoznawanie obrazów

Rozpoznawanie obrazów Rozpoznawanie obrazów Laboratorium Python Zadanie nr 2 κ-nn i Naive Bayes autorzy: M. Zięba, J.M. Tomczak, A. Gonczarek, S. Zaręba, J. Kaczmar Cel zadania Celem zadania jest implementacja klasyfikatorów

Bardziej szczegółowo

Metody probabilistyczne klasyfikatory bayesowskie

Metody probabilistyczne klasyfikatory bayesowskie Konwersatorium Matematyczne Metody Ekonomii narzędzia matematyczne w eksploracji danych First Prev Next Last Go Back Full Screen Close Quit Metody probabilistyczne klasyfikatory bayesowskie Wykład 8 Marcin

Bardziej szczegółowo

Rozpoznawanie obrazów

Rozpoznawanie obrazów Rozpoznawanie obrazów Ćwiczenia lista zadań nr 7 autorzy: A. Gonczarek, J.M. Tomczak Przykładowe problemy Klasyfikacja binarna Dla obrazu x zaproponowano dwie cechy φ(x) = (φ 1 (x) φ 2 (x)) T. Na obrazie

Bardziej szczegółowo

WYKŁAD 2 i 3. Podstawowe pojęcia związane z prawdopodobieństwem. Podstawy teoretyczne. autor: Maciej Zięba. Politechnika Wrocławska

WYKŁAD 2 i 3. Podstawowe pojęcia związane z prawdopodobieństwem. Podstawy teoretyczne. autor: Maciej Zięba. Politechnika Wrocławska Wrocław University of Technology WYKŁAD 2 i 3 Podstawowe pojęcia związane z prawdopodobieństwem. Podstawy teoretyczne autor: Maciej Zięba Politechnika Wrocławska Pojęcie prawdopodobieństwa Prawdopodobieństwo

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 2 κ-nn i Naive Bayes autorzy: M. Zięba, J.M. Tomczak, A. Gonczarek, S. Zaręba Cel zadania Celem zadania jest implementacja klasyfikatorów

Bardziej szczegółowo

1 Klasyfikator bayesowski

1 Klasyfikator bayesowski Klasyfikator bayesowski Załóżmy, że dane są prawdopodobieństwa przynależności do klasp( ),P( 2 ),...,P( L ) przykładów z pewnego zadania klasyfikacji, jak również gęstości rozkładów prawdopodobieństw wystąpienia

Bardziej szczegółowo

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18 Eksploracja Danych wykład 4 Sebastian Zając WMP.SNŚ UKSW 10 maja 2017 Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja 2017 1 / 18 Klasyfikacja danych Klasyfikacja Najczęściej stosowana (najstarsza)

Bardziej szczegółowo

Laboratorium 4. Naiwny klasyfikator Bayesa.

Laboratorium 4. Naiwny klasyfikator Bayesa. Laboratorium 4 Naiwny klasyfikator Bayesa. 1. Uruchom narzędzie Oracle Data Miner i połącz się z serwerem bazy danych. 2. Z menu głównego wybierz Activity Build. Na ekranie powitalnym kliknij przycisk

Bardziej szczegółowo

1.1 Wstęp Literatura... 1

1.1 Wstęp Literatura... 1 Spis treści Spis treści 1 Wstęp 1 1.1 Wstęp................................ 1 1.2 Literatura.............................. 1 2 Elementy rachunku prawdopodobieństwa 2 2.1 Podstawy..............................

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 2 autorzy: A. Gonczarek, J.M. Tomczak Metody estymacji Zad. 1 Pojawianie się spamu opisane jest zmienną losową x o rozkładzie dwupunktowym

Bardziej szczegółowo

SPOTKANIE 4: Klasyfikacja: Regresja logistyczna

SPOTKANIE 4: Klasyfikacja: Regresja logistyczna Wrocław University of Technology SPOTKANIE 4: Klasyfikacja: Regresja logistyczna Szymon Zaręba Studenckie Koło Naukowe Estymator 179226@student.pwr.wroc.pl 23.11.2012 Rozkład dwupunktowy i dwumianowy Rozkład

Bardziej szczegółowo

Sieć przesyłająca żetony CP (counter propagation)

Sieć przesyłająca żetony CP (counter propagation) Sieci neuropodobne IX, specyficzne architektury 1 Sieć przesyłająca żetony CP (counter propagation) warstwa Kohonena: wektory wejściowe są unormowane jednostki mają unormowane wektory wag jednostki są

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 2 autorzy: A. Gonczarek, J.M. Tomczak Metody estymacji ML Zad. 1 Pojawianie się spamu opisane jest zmienną losową x o rozkładzie dwupunktowym

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA

STATYSTYKA MATEMATYCZNA STATYSTYKA MATEMATYCZNA 1. Wykład wstępny. Teoria prawdopodobieństwa i elementy kombinatoryki 2. Zmienne losowe i ich rozkłady 3. opulacje i próby danych, estymacja parametrów 4. Testowanie hipotez 5.

Bardziej szczegółowo

Fuzja sygnałów i filtry bayesowskie

Fuzja sygnałów i filtry bayesowskie Fuzja sygnałów i filtry bayesowskie Roboty Manipulacyjne i Mobilne dr inż. Janusz Jakubiak Katedra Cybernetyki i Robotyki Wydział Elektroniki, Politechnika Wrocławska Wrocław, 10.03.2015 Dlaczego potrzebna

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA WYKŁAD 1

STATYSTYKA MATEMATYCZNA WYKŁAD 1 STATYSTYKA MATEMATYCZNA WYKŁAD 1 Wykład wstępny Teoria prawdopodobieństwa Magda Mielczarek wykłady, ćwiczenia Copyright 2017, J. Szyda & M. Mielczarek STATYSTYKA MATEMATYCZNA? ASHG 2011 Writing Workshop;

Bardziej szczegółowo

Estymacja parametrów rozkładu cechy

Estymacja parametrów rozkładu cechy Estymacja parametrów rozkładu cechy Estymujemy parametr θ rozkładu cechy X Próba: X 1, X 2,..., X n Estymator punktowy jest funkcją próby ˆθ = ˆθX 1, X 2,..., X n przybliżającą wartość parametru θ Przedział

Bardziej szczegółowo

Modele i wnioskowanie statystyczne (MWS), sprawozdanie z laboratorium 4

Modele i wnioskowanie statystyczne (MWS), sprawozdanie z laboratorium 4 Modele i wnioskowanie statystyczne (MWS), sprawozdanie z laboratorium 4 Konrad Miziński, nr albumu 233703 31 maja 2015 Zadanie 1 Wartości oczekiwane µ 1 i µ 2 oszacowano wg wzorów: { µ1 = 0.43925 µ = X

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 3 Metody estymacji. Estymator największej wiarygodności Zad. 1 Pojawianie się spamu opisane jest zmienną losową y o rozkładzie zero-jedynkowym

Bardziej szczegółowo

Metody eksploracji danych 5. Klasyfikacja (kontynuacja)

Metody eksploracji danych 5. Klasyfikacja (kontynuacja) Metody eksploracji danych 5. Klasyfikacja (kontynuacja) Piotr Szwed Katedra Informatyki Stosowanej AGH 2016 Naiwny model Bayesa Drzewa decyzyjne Naiwny model Bayesa P. Szwed: Metody eksploracji danych

Bardziej szczegółowo

Wprowadzenie. Data Science Uczenie się pod nadzorem

Wprowadzenie. Data Science Uczenie się pod nadzorem Wprowadzenie Wprowadzenie Wprowadzenie Wprowadzenie Machine Learning Mind Map Historia Wstęp lub uczenie się z przykładów jest procesem budowy, na bazie dostępnych danych wejściowych X i oraz wyjściowych

Bardziej szczegółowo

Algorytmy estymacji stanu (filtry)

Algorytmy estymacji stanu (filtry) Algorytmy estymacji stanu (filtry) Na podstawie: AIMA ch15, Udacity (S. Thrun) Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 21 kwietnia 2014 Problem lokalizacji Obserwowalność? Determinizm?

Bardziej szczegółowo

Wykład 3. Rozkład normalny

Wykład 3. Rozkład normalny Funkcje gęstości Rozkład normalny Reguła 68-95-99.7 % Wykład 3 Rozkład normalny Standardowy rozkład normalny Prawdopodobieństwa i kwantyle dla rozkładu normalnego Funkcja gęstości Frakcja studentów z vocabulary

Bardziej szczegółowo

Wprowadzenie do uczenia maszynowego. Jakub Tomczak

Wprowadzenie do uczenia maszynowego. Jakub Tomczak Wprowadzenie do uczenia maszynowego Jakub Tomczak 2014 ii Rozdział 1 Pojęcia podstawowe 1.1 Wprowadzenie. Zmienne losowe ˆ Podczas kursu interesować nas będzie wnioskowanie o rozpatrywanym zjawisku. Poprzez

Bardziej szczegółowo

Ś Ó Ć ć ć Ź ć Ć Ź ć Ś ć ć ć Ś ć Ź ć Ś Ź Ź ć ć ć ź ć ć ź Ź ć ć Ź ć Ś ć ć ć Ś ć Ź ć Ź ć ć ć ź Ś ć Ź ć Ź ć Ź ć Ź ć Ź Ś Ś ć ć Ś Ć ź Ę Ź Ź Ś Ć Ą Ó Ę Ó Ó Ą Ś Ę Ź Ó Ó Ę Ę Ź Ą Ó Ą Ą Ą Ą Ą Ś ć ć ć Ń Ó Ć ź ć ć Ś

Bardziej szczegółowo

tum.de/fall2018/ in2357

tum.de/fall2018/ in2357 https://piazza.com/ tum.de/fall2018/ in2357 Prof. Daniel Cremers From to Classification Categories of Learning (Rep.) Learning Unsupervised Learning clustering, density estimation Supervised Learning learning

Bardziej szczegółowo

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 13 i 14 - Statystyka bayesowska

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 13 i 14 - Statystyka bayesowska WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 13 i 14 - Statystyka bayesowska Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 13 i 14 1 / 15 MODEL BAYESOWSKI, przykład wstępny Statystyka

Bardziej szczegółowo

WYKŁAD 2. Problem regresji - modele liniowe

WYKŁAD 2. Problem regresji - modele liniowe Wrocław University of Technology WYKŁAD 2 Problem regresji - modele liniowe Maciej Zięba Politechnika Wrocławska Regresja Regresja (ang. Regression): Dysponujemy obserwacjami z odpowiadającymi im wartościami

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA WYKŁAD 3. Populacje i próby danych

STATYSTYKA MATEMATYCZNA WYKŁAD 3. Populacje i próby danych STATYSTYKA MATEMATYCZNA WYKŁAD 3 Populacje i próby danych POPULACJA I PRÓBA DANYCH POPULACJA population Obserwacje dla wszystkich osobników danego gatunku / rasy PRÓBA DANYCH sample Obserwacje dotyczące

Bardziej szczegółowo

6. Zmienne losowe typu ciagłego ( ) Pole trapezu krzywoliniowego

6. Zmienne losowe typu ciagłego ( ) Pole trapezu krzywoliniowego 6. Zmienne losowe typu ciagłego (2.04.2007) Pole trapezu krzywoliniowego Przypomnienie: figurę ograniczoną przez: wykres funkcji y = f(x), gdzie f jest funkcją ciągłą; proste x = a, x = b, a < b, oś OX

Bardziej szczegółowo

Wykład 6 Estymatory efektywne. Własności asymptotyczne estym. estymatorów

Wykład 6 Estymatory efektywne. Własności asymptotyczne estym. estymatorów Wykład 6 Estymatory efektywne. Własności asymptotyczne estymatorów Wrocław, 30 listopada 2016r Powtórzenie z rachunku prawdopodobieństwa Zbieżność Definicja 6.1 Niech ciąg {X } n ma rozkład o dystrybuancie

Bardziej szczegółowo

Jądrowe klasyfikatory liniowe

Jądrowe klasyfikatory liniowe Jądrowe klasyfikatory liniowe Waldemar Wołyński Wydział Matematyki i Informatyki UAM Poznań Wisła, 9 grudnia 2009 Waldemar Wołyński () Jądrowe klasyfikatory liniowe Wisła, 9 grudnia 2009 1 / 19 Zagadnienie

Bardziej szczegółowo

LABORATORIUM Populacja Generalna (PG) 2. Próba (P n ) 3. Kryterium 3σ 4. Błąd Średniej Arytmetycznej 5. Estymatory 6. Teoria Estymacji (cz.

LABORATORIUM Populacja Generalna (PG) 2. Próba (P n ) 3. Kryterium 3σ 4. Błąd Średniej Arytmetycznej 5. Estymatory 6. Teoria Estymacji (cz. LABORATORIUM 4 1. Populacja Generalna (PG) 2. Próba (P n ) 3. Kryterium 3σ 4. Błąd Średniej Arytmetycznej 5. Estymatory 6. Teoria Estymacji (cz. I) WNIOSKOWANIE STATYSTYCZNE (STATISTICAL INFERENCE) Populacja

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA

STATYSTYKA MATEMATYCZNA STTYSTYK MTMTYCZN 1. Wykład wstępny 2. Teoria prawdopodobieństwa i elementy kombinatoryki 3. Zmienne losowe 4. opulacje i próby danych 5. Testowanie hipotez i estymacja parametrów 6. Test t 7. Test 2 8.

Bardziej szczegółowo

Spam or Not Spam That is the question

Spam or Not Spam That is the question or Not That is the question 4 maja 2006 Zwięzła definicja spamu Czym jest spam? Typy spamu Kto dostaje najwięcej spamu? to nadmiar informacji zbędnych dla odbiorcy przekazu. Definicji poszerzona Czym jest

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką

Bardziej szczegółowo

Wykład 5 Problem dwóch prób - testowanie hipotez dla równości średnich

Wykład 5 Problem dwóch prób - testowanie hipotez dla równości średnich Wykład 5 Problem dwóch prób - testowanie hipotez dla równości średnich Magdalena Frąszczak Wrocław, 22.03.2017r Problem Behrensa Fishera Niech X = (X 1, X 2,..., X n ) oznacza próbę z rozkładu normalnego

Bardziej szczegółowo

Klasyfikacja metodą Bayesa

Klasyfikacja metodą Bayesa Klasyfikacja metodą Bayesa Tadeusz Pankowski www.put.poznan.pl/~tadeusz.pankowski warunkowe i bezwarunkowe 1. Klasyfikacja Bayesowska jest klasyfikacją statystyczną. Pozwala przewidzieć prawdopodobieństwo

Bardziej szczegółowo

Modele i wnioskowanie statystyczne (MWS), sprawozdanie z laboratorium 3

Modele i wnioskowanie statystyczne (MWS), sprawozdanie z laboratorium 3 Modele i wnioskowanie statystyczne (MWS), sprawozdanie z laboratorium 3 Konrad Miziński, nr albumu 233703 26 maja 2015 Zadanie 1 Wartość krytyczna c, niezbędna wyliczenia mocy testu (1 β) wyznaczono za

Bardziej szczegółowo

Logistic Regression. Machine Learning CS5824/ECE5424 Bert Huang Virginia Tech

Logistic Regression. Machine Learning CS5824/ECE5424 Bert Huang Virginia Tech Logistic Regression Machine Learning CS5824/ECE5424 Bert Huang Virginia Tech Outline Review conditional probability and classification Linear parameterization and logistic function Gradient descent Other

Bardziej szczegółowo

Eksploracja danych - wykład IV

Eksploracja danych - wykład IV - wykład 1/41 wykład - wykład Instytut Informatyki Teoretycznej i Stosowanej Politechnika Częstochowska 27 października 2016 - wykład 2/41 wykład 1 2 3 4 5 - wykład 3/41 CRISP-DM - standaryzacja wykład

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA. rachunek prawdopodobieństwa

STATYSTYKA MATEMATYCZNA. rachunek prawdopodobieństwa STATYSTYKA MATEMATYCZNA rachunek prawdopodobieństwa treść Zdarzenia losowe pojęcie prawdopodobieństwa prawo wielkich liczb zmienne losowe rozkłady teoretyczne zmiennych losowych Zanim zajmiemy się wnioskowaniem

Bardziej szczegółowo

Wykład 10 Estymacja przedziałowa - przedziały ufności dla średn

Wykład 10 Estymacja przedziałowa - przedziały ufności dla średn Wykład 10 Estymacja przedziałowa - przedziały ufności dla średniej Wrocław, 21 grudnia 2016r Przedział ufności Niech będzie dana próba X 1, X 2,..., X n z rozkładu P θ, θ Θ. Definicja 10.1 Przedziałem

Bardziej szczegółowo

Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Elektroniki

Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Elektroniki Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Elektroniki Przetwarzanie Sygnałów Studia Podyplomowe, Automatyka i Robotyka. Wstęp teoretyczny Zmienne losowe Zmienne losowe

Bardziej szczegółowo

LABORATORIUM 6 ESTYMACJA cz. 2

LABORATORIUM 6 ESTYMACJA cz. 2 LABORATORIUM 6 ESTYMACJA cz. 2 TEORIA ESTYMACJI I 1. ODRZUCANIE WYNIKÓW WĄTPLIWYCH PRÓBA P (m) (m-elementowa) Obliczenie: ; s bez wyników wątpliwych Odrzucenie wyników z poza przedziału: 3s PRÓBA LOSOWA

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska

SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska DRZEWO REGRESYJNE Sposób konstrukcji i przycinania

Bardziej szczegółowo

O ŚREDNIEJ STATYSTYCZNEJ

O ŚREDNIEJ STATYSTYCZNEJ Od średniej w modelu gaussowskim do kwantyli w podstawowym modelu nieparametrycznym IMPAN 1.X.2009 Rozszerzona wersja wykładu: O ŚREDNIEJ STATYSTYCZNEJ Ryszard Zieliński XII Międzynarodowe Warsztaty dla

Bardziej szczegółowo

Wykład 5 Estymatory nieobciążone z jednostajnie minimalną war

Wykład 5 Estymatory nieobciążone z jednostajnie minimalną war Wykład 5 Estymatory nieobciążone z jednostajnie minimalną wariancją Wrocław, 25 października 2017r Statystyki próbkowe - Przypomnienie Niech X = (X 1, X 2,... X n ) będzie n elementowym wektorem losowym.

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA WYKŁAD października 2009

STATYSTYKA MATEMATYCZNA WYKŁAD października 2009 STATYSTYKA MATEMATYCZNA WYKŁAD 4 26 października 2009 Rozkład N(µ, σ). Estymacja σ σ 2 = 1 σ 2π + = E µ,σ (X µ) 2 { (x µ) 2 exp 1 ( ) } x µ 2 dx 2 σ Rozkład N(µ, σ). Estymacja σ σ 2 = 1 σ 2π + = E µ,σ

Bardziej szczegółowo

STATYSTYKA - PRZYKŁADOWE ZADANIA EGZAMINACYJNE

STATYSTYKA - PRZYKŁADOWE ZADANIA EGZAMINACYJNE STATYSTYKA - PRZYKŁADOWE ZADANIA EGZAMINACYJNE 1 W trakcie badania obliczono wartości średniej (15,4), mediany (13,6) oraz dominanty (10,0). Określ typ asymetrii rozkładu. 2 Wymień 3 cechy rozkładu Gauss

Bardziej szczegółowo

Machine learning Lecture 5

Machine learning Lecture 5 Machine learning Lecture 5 Marcin Wolter IFJ PAN 21 kwietnia 2017 Uczenie -sprawdzanie krzyżowe (cross-validation). Optymalizacja parametrów metod uczenia maszynowego. Deep learning 1 Uczenie z nauczycielem

Bardziej szczegółowo

Prawdopodobieństwo czerwonych = = 0.33

Prawdopodobieństwo czerwonych = = 0.33 Temat zajęć: Naiwny klasyfikator Bayesa a algorytm KNN Część I: Naiwny klasyfikator Bayesa Naiwny klasyfikator bayerowski jest prostym probabilistycznym klasyfikatorem. Naiwne klasyfikatory bayesowskie

Bardziej szczegółowo

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 3 - model statystyczny, podstawowe zadania statystyki matematycznej

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 3 - model statystyczny, podstawowe zadania statystyki matematycznej WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 3 - model statystyczny, podstawowe zadania statystyki matematycznej Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 3 1 / 8 ZADANIE z rachunku

Bardziej szczegółowo

Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna.

Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna. Wykład 4 Rozkłady i ich dystrybuanty Dwa typy zmiennych losowych Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x, x 2,...}, to mówimy, że jest to zmienna dyskretna.

Bardziej szczegółowo

Wykład 3 Testowanie hipotez statystycznych o wartości średniej. średniej i wariancji z populacji o rozkładzie normalnym

Wykład 3 Testowanie hipotez statystycznych o wartości średniej. średniej i wariancji z populacji o rozkładzie normalnym Wykład 3 Testowanie hipotez statystycznych o wartości średniej i wariancji z populacji o rozkładzie normalnym Wrocław, 08.03.2017r Model 1 Testowanie hipotez dla średniej w rozkładzie normalnym ze znaną

Bardziej szczegółowo

Metody Eksploracji Danych. Klasyfikacja

Metody Eksploracji Danych. Klasyfikacja Metody Eksploracji Danych Klasyfikacja w wykładzie wykorzystano: 1. materiały dydaktyczne przygotowane w ramach projektu Opracowanie programów nauczania na odległość na kierunku studiów wyższych Informatyka

Bardziej szczegółowo

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV Klasyfikatory: k-nn oraz naiwny Bayesa Agnieszka Nowak Brzezińska Wykład IV Naiwny klasyfikator Bayesa Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną

Bardziej szczegółowo

Procesy stochastyczne

Procesy stochastyczne Wykład I: Istnienie procesów stochastycznych 2 marca 2015 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane są

Bardziej szczegółowo

Statystyczna analiza danych (molekularnych) estymacja bayesowska i MLE

Statystyczna analiza danych (molekularnych) estymacja bayesowska i MLE Statystyczna analiza danych (molekularnych) estymacja bayesowska i MLE Anna Gambin 0 kwietnia 01 Spis treści 1 Estymacja bayesowska 1 Paradoks więźnia.1 Rozkład a priori.................................

Bardziej szczegółowo

Idea. θ = θ 0, Hipoteza statystyczna Obszary krytyczne Błąd pierwszego i drugiego rodzaju p-wartość

Idea. θ = θ 0, Hipoteza statystyczna Obszary krytyczne Błąd pierwszego i drugiego rodzaju p-wartość Idea Niech θ oznacza parametr modelu statystycznego. Dotychczasowe rozważania dotyczyły metod estymacji tego parametru. Teraz zamiast szacować nieznaną wartość parametru będziemy weryfikowali hipotezę

Bardziej szczegółowo

Ekonometria Bayesowska

Ekonometria Bayesowska Ekonometria Bayesowska Wykªad 2: Bayesowska estymacja równania ze staª. Elementy j zyka R (2) Ekonometria Bayesowska / 24 Plan wykªadu Model ze staª 2 Podstawy j zyka R 3 Bayesowska analiza modelu ze staª

Bardziej szczegółowo

Testy parametryczne 1

Testy parametryczne 1 Testy parametryczne 1 Wybrane testy parametryczne 1. Test wskaźnika struktury. Test dwóch wskaźników struktury 3. Test średniej 4. Testy dwóch średnich a) Obserwacje niezależne b) Obserwacje sparowane

Bardziej szczegółowo

STATYSTYKA POWTORZENIE. Dr Wioleta Drobik-Czwarno

STATYSTYKA POWTORZENIE. Dr Wioleta Drobik-Czwarno STATYSTYKA POWTORZENIE Dr Wioleta Drobik-Czwarno Populacja Próba Parametry EX, µ Statystyki średnia D 2 X, δ 2 S 2 wnioskowanie DX, δ p ρ S w r...... JAK POWSTAJE MODEL MATEMATYCZNY Dane eksperymentalne

Bardziej szczegółowo

Elementy wspo łczesnej teorii inwersji

Elementy wspo łczesnej teorii inwersji Elementy wspo łczesnej teorii inwersji W. Debski, 5.02.2015 Przykład - 1 (Wiek A. Tarantoli???) debski@igf.edu.pl: W6-1 IGF PAN, 5.02.2015 Pomysł na rozwiazanie debski@igf.edu.pl: W6-2 IGF PAN, 5.02.2015

Bardziej szczegółowo

Wybór / ocena atrybutów na podstawie oceny jakości działania wybranego klasyfikatora.

Wybór / ocena atrybutów na podstawie oceny jakości działania wybranego klasyfikatora. Wprowadzenie do programu RapidMiner Studio 7.6, część 7 Podstawy metod wyboru atrybutów w problemach klasyfikacyjnych, c.d. Michał Bereta www.michalbereta.pl Wybór / ocena atrybutów na podstawie oceny

Bardziej szczegółowo

Metoda największej wiarygodności

Metoda największej wiarygodności Rozdział Metoda największej wiarygodności Ogólnie w procesie estymacji na podstawie prób x i (każde x i może być wektorem) wyznaczamy parametr λ (w ogólnym przypadku również wektor) opisujący domniemany

Bardziej szczegółowo

Procesy stochastyczne

Procesy stochastyczne Wykład I: Istnienie procesów stochastycznych 21 lutego 2017 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane

Bardziej szczegółowo

Ż ż Ł ż ż ż Ż Ś ż ż ż Ł Ż Ż ć ż Ż Ż Ż Ń Ż Ź ż Ź Ź ż Ż ż ż Ż Ł Ż Ł Ż ż Ż ż Ż Ż Ń Ą Ż Ń Ż Ń ć ż Ż ź Ś ć Ł Ł Ź Ż Ż ż Ł ż Ż Ł Ż Ł ź ć ż Ż Ż ż ż Ó ż Ł Ż ć Ż Ż Ę Ż Ż Ż ż Ż ż ż Ś ż Ż ż ż ź Ż Ń ć Ż ż Ż Ż ż ż ż

Bardziej szczegółowo

Ś Ł Ą Ś Ś ź Ś ń ż ż Ó ż ż Ś Ł ż ń ń ń ż ń Ś ń ć ŚĘ Ó Ł Ę Ł Ś Ę Ę ń ń ń ń ń Ź ń ń ń ń ń ż ń ń ń ń ń Ę ż ż ć Ść ń ń ż Ń ż ż ń ń Ś Ą ń Ś ń ń ż Ó ż Ź ń ż ń Ś Ń Ó ż Ł ż Ą ź ź Ś Ł ć Ś ć ż ź ż ć ć Ę Ó Ś Ó ż ż

Bardziej szczegółowo

Ł Ł Ś ź ń ź ź ź Ś Ł Ę Ę Ś ż Ś ń Ą Ś Ą Ł ż ż ń ż ć ż ż ż ź ż ć ź Ę Ę ń ć ż Ł ń ż ż ż Ś ż Ś ż ż ż ż ż ż ż ń ń ż ż ż ć ż ń ż ń ź ż ć ż ż ć ń ż Ę Ę ć ń Ę ż ż ń ń ź Ę ź ż ń ż ń ź ż ż ż ń ż ż ż ż ż ż ż ż ń ń

Bardziej szczegółowo

Ł Ł Ś Ę ź ń ź ź Ś Ę Ę Ś Ą Ś Ę Ż Ł ń Ę Ś ć ć ń ć ń ń ń ź ń Ę ź ń ń ń ź ź Ś ź ź ć ń ń ń ń Ś ć Ś ń ń Ś ź ń Ę ń Ś ź ź ź ź ź Ę Ę Ę Ś ń Ś ć ń ń ń ń ń ń Ę ń ń ń ń ć ń ń ń ń ć ń Ś ć Ł ń ń ń ć ń ć ź ń ź ć ń ń ć

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA

STATYSTYKA MATEMATYCZNA STATYSTYKA MATEMATYCZNA 1. Wykład wstępny. Teoria prawdopodobieństwa i elementy kombinatoryki. Zmienne losowe i ich rozkłady 3. Populacje i próby danych, estymacja parametrów 4. Testowanie hipotez statystycznych

Bardziej szczegółowo

Szacowanie optymalnego systemu Bonus-Malus przy pomocy Pseudo-MLE. Joanna Sawicka

Szacowanie optymalnego systemu Bonus-Malus przy pomocy Pseudo-MLE. Joanna Sawicka Szacowanie optymalnego systemu Bonus-Malus przy pomocy Pseudo-MLE Joanna Sawicka Plan prezentacji Model Poissona-Gamma ze składnikiem regresyjnym Konstrukcja optymalnego systemu Bonus- Malus Estymacja

Bardziej szczegółowo

Drzewa decyzyjne. Inteligentne Obliczenia. Wydział Mechatroniki Politechniki Warszawskiej. Anna Sztyber

Drzewa decyzyjne. Inteligentne Obliczenia. Wydział Mechatroniki Politechniki Warszawskiej. Anna Sztyber Drzewa decyzyjne Inteligentne Obliczenia Wydział Mechatroniki Politechniki Warszawskiej Anna Sztyber INO (IAiR PW) Drzewa decyzyjne Anna Sztyber / Drzewa decyzyjne w podstawowej wersji algorytm klasyfikacji

Bardziej szczegółowo

Logika Stosowana. Wykład 9 - Wnioskowanie indukcyjne Część 2 Wnioskowanie bayesowskie. Marcin Szczuka. Instytut Matematyki UW

Logika Stosowana. Wykład 9 - Wnioskowanie indukcyjne Część 2 Wnioskowanie bayesowskie. Marcin Szczuka. Instytut Matematyki UW Logika Stosowana Wykład 9 - Wnioskowanie indukcyjne Część 2 Wnioskowanie bayesowskie Marcin Szczuka Instytut Matematyki UW Wykład monograficzny, semestr letni 2016/2017 Marcin Szczuka (MIMUW) Logika Stosowana

Bardziej szczegółowo

Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX = 4 i EY = 6. Rozważamy zmienną losową Z =.

Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX = 4 i EY = 6. Rozważamy zmienną losową Z =. Prawdopodobieństwo i statystyka 3..00 r. Zadanie Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX 4 i EY 6. Rozważamy zmienną losową Z. X + Y Wtedy (A) EZ 0,

Bardziej szczegółowo

Rozkład normalny. Marcin Zajenkowski. Marcin Zajenkowski () Rozkład normalny 1 / 26

Rozkład normalny. Marcin Zajenkowski. Marcin Zajenkowski () Rozkład normalny 1 / 26 Rozkład normalny Marcin Zajenkowski Marcin Zajenkowski () Rozkład normalny 1 / 26 Rozkład normalny Krzywa normalna, krzywa Gaussa, rozkład normalny Rozkłady liczebności wielu pomiarów fizycznych, biologicznych

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA WYKŁAD stycznia 2010

STATYSTYKA MATEMATYCZNA WYKŁAD stycznia 2010 STATYSTYKA MATEMATYCZNA WYKŁAD 14 18 stycznia 2010 Model statystyczny ROZKŁAD DWUMIANOWY ( ) {0, 1,, n}, {P θ, θ (0, 1)}, n ustalone P θ {K = k} = ( ) n θ k (1 θ) n k, k k = 0, 1,, n Geneza: Rozkład Bernoulliego

Bardziej szczegółowo

SMOP - wykład. Rozkład normalny zasady przenoszenia błędów. Ewa Pawelec

SMOP - wykład. Rozkład normalny zasady przenoszenia błędów. Ewa Pawelec SMOP - wykład Rozkład normalny zasady przenoszenia błędów Ewa Pawelec 1 iepewność dla rozkładu norm. Zamiast dodawania całych zakresów uwzględniamy prawdopodobieństwo trafienia dwóch wartości: P x 1, x

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium ZALICZENIE Zadanie nr 3 Rozpoznawanie ręcznie pisanych cyfr autorzy: A. Gonczarek, P. Klukowski, J.M. Tomczak, S. Zaręba, M. Zięba Cel zadania Celem

Bardziej szczegółowo

Wprowadzenie do statystyki oraz analizy danych

Wprowadzenie do statystyki oraz analizy danych Wprowadzenie do statystyki oraz analizy danych Marcin Wolter IFJ PAN 11 lipca 2014 1 Statystyka Statystyka nauka, która bada i opisuje zjawiska losowe. Pierwsze prace Al-Kindi użył statystyki do złamania

Bardziej szczegółowo

1 Obliczenia na danych

1 Obliczenia na danych 1 Obliczenia na danych 1.1 Wyrażenia w SAS 1. stałe numeryczne, czyli liczby używane w wyrażeniach SAS. Możemy je prezentować (a) w zapisie standardowym np. 5, 6.7, -2.1, (b) w notacji naukowej np. 2e5

Bardziej szczegółowo

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 4 - zagadnienie estymacji, metody wyznaczania estymatorów

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 4 - zagadnienie estymacji, metody wyznaczania estymatorów WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 4 - zagadnienie estymacji, metody wyznaczania estymatorów Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 4 1 / 23 ZAGADNIENIE ESTYMACJI Zagadnienie

Bardziej szczegółowo

Wizualizacja danych 2D i 3D - Gnuplot

Wizualizacja danych 2D i 3D - Gnuplot Wizualizacja danych 2D i 3D - Gnuplot dr hab. Bożena Woźna-Szcześniak Akademia im. Jan Długosza bwozna@gmail.com Laboratorium 7 Legenda - składania set key [ on off ] [ default ] [ [ at {pos:position}

Bardziej szczegółowo

1. Pokaż, że estymator MNW parametru β ma postać β = nieobciążony. Znajdź estymator parametru σ 2.

1. Pokaż, że estymator MNW parametru β ma postać β = nieobciążony. Znajdź estymator parametru σ 2. Zadanie 1 Niech y t ma rozkład logarytmiczno normalny o funkcji gęstości postaci [ ] 1 f (y t ) = y exp (ln y t β ln x t ) 2 t 2πσ 2 2σ 2 Zakładamy, że x t jest nielosowe a y t są nieskorelowane w czasie.

Bardziej szczegółowo