Klasyfikacja bayesowska

Wielkość: px
Rozpocząć pokaz od strony:

Download "Klasyfikacja bayesowska"

Transkrypt

1 Wykład14,26V2010,str.1 Przykład: (Bishop) M Jabłka i pomarańcze: Wyciągnięto pomarańczę; jakie jest prawdopodobieństwo, że naczynie było niebieskie?

2 Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) M

3 Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami

4 Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i.

5 Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i. Wtedy P(T k X)= P(X T k) P(T k ) P(X) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i )

6 Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i. Wtedy Dowód: P(T k X)= P(X T k) P(T k ) P(X) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i )

7 Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i. Wtedy Dowód: P(T k X)= P(X T k) P(T k ) P(X) Zdefinicji:P(A B)= P(A,B) P(B) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i )

8 Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i. Wtedy P(T k X)= P(X T k) P(T k ) P(X) Dowód: Zdefinicji:P(A B)= P(A,B) P(B) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i ) Dlarozłącznychzdarzeń:P( n i=1 A i)= n i=1 P(A i)

9 Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i. Wtedy P(T k X)= P(X T k) P(T k ) P(X) Dowód: Zdefinicji:P(A B)= P(A,B) P(B) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i ) Dlarozłącznychzdarzeń:P( n i=1 A i)= n i=1 P(A i) P(T k X)= P(T k,x) P(X)

10 Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i. Wtedy P(T k X)= P(X T k) P(T k ) P(X) Dowód: Zdefinicji:P(A B)= P(A,B) P(B) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i ) Dlarozłącznychzdarzeń:P( n i=1 A i)= n i=1 P(A i) P(T k X)= P(T k,x) P(X) = P(X,T k) P(T k ) P(T k) P(X)

11 Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i. Wtedy P(T k X)= P(X T k) P(T k ) P(X) Dowód: Zdefinicji:P(A B)= P(A,B) P(B) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i ) Dlarozłącznychzdarzeń:P( n i=1 A i)= n i=1 P(A i) P(T k X)= P(T k,x) P(X) = P(X T k) P(T k ) P(X) = P(X,T k) P(T k ) P(T k) P(X)

12 Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i. Wtedy P(T k X)= P(X T k) P(T k ) P(X) Dowód: Zdefinicji:P(A B)= P(A,B) P(B) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i ) Dlarozłącznychzdarzeń:P( n i=1 A i)= n i=1 P(A i) P(T k X)= P(T k,x) P(X) = P(X,T k) P(T k ) P(T k) P(X) = P(X T k) P(T k ) P(X) = P(X T k) P(T k ) n i=1 P(X,T i)

13 Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i. Wtedy P(T k X)= P(X T k) P(T k ) P(X) Dowód: Zdefinicji:P(A B)= P(A,B) P(B) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i ) Dlarozłącznychzdarzeń:P( n i=1 A i)= n i=1 P(A i) P(T k X)= P(T k,x) P(X) = P(X,T k) P(T k ) P(T k) P(X) = P(X T k) P(T k ) P(X) = P(X T k) P(T k ) n i=1 P(X,T i) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i )

14 Wykład14,26V2010,str.3 Przykład: (Bishop) M P(pom)= 7 = 7 P(nb)= 4 = P(pom nb)= 1 4

15 Wykład14,26V2010,str.3 Przykład: (Bishop) M P(pom)= 7 = 7 P(nb)= 4 = P(pom nb)= 1 4

16 Wykład14,26V2010,str.3 Przykład: (Bishop) M P(pom)= 7 = 7 P(nb)= 4 = P(pom nb)= 1 4

17 Wykład14,26V2010,str.3 Przykład: (Bishop) M P(pom)= 7 = 7 P(nb)= 4 = P(pom nb)= 1 4

18 Wykład14,26V2010,str.3 Przykład: (Bishop) M P(pom)= 7 = 7 P(nb)= 4 = P(pom nb)= 1 4 P(nb pom)

19 Wykład14,26V2010,str.3 Przykład: (Bishop) M P(pom)= = 7 12 P(nb)= =1 3 P(nb pom)= P(pom nb)= 1 4 = P(pom nb) P(nb) P(pom)

20 Wykład14,26V2010,str.3 Przykład: (Bishop) M P(pom)= 7 = 7 P(nb)= 4 = P(nb pom)= P(pom nb)= 1 4 = P(pom nb) P(nb) P(pom) =

21 Wykład14,26V2010,str.3 Przykład: (Bishop) M P(pom)= 7 = 7 P(nb)= 4 = P(nb pom)= P(pom nb)= 1 4 = P(pom nb) P(nb) P(pom) = =

22 Wykład14,26V2010,str.3 Przykład: (Bishop) M P(pom)= 7 = 7 P(nb)= 4 = P(nb pom)= P(pom nb)= 1 4 = P(pom nb) P(nb) P(pom) = = = 1 7

23 Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki.

24 Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99

25 Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99 więc P( nark)=0.01

26 Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99 więc P( nark)=0.01; prawd. że wynik tego testu dla nienarkomana jest ujemny: P( nark)=0.99

27 Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99 więc P( nark)=0.01; prawd. że wynik tego testu dla nienarkomana jest ujemny: P( nark)=0.99 więc P(+ nark)=0.01

28 Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99 więc P( nark)=0.01; prawd. że wynik tego testu dla nienarkomana jest ujemny: P( nark)=0.99 więc P(+ nark)=0.01; społeczeństwa to narkomani.

29 Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99 więc P( nark)=0.01; prawd. że wynik tego testu dla nienarkomana jest ujemny: P( nark)=0.99 więc P(+ nark)=0.01; społeczeństwa to narkomani. Badamy konkretną osobę i test daje wynik pozytywny. Jakie jest prawdopodobieństwo, że trafiliśmy na narkomana?

30 Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99 więc P( nark)=0.01; prawd. że wynik tego testu dla nienarkomana jest ujemny: P( nark)=0.99 więc P(+ nark)=0.01; społeczeństwa to narkomani. Badamy konkretną osobę i test daje wynik pozytywny. Jakie jest prawdopodobieństwo, że trafiliśmy na narkomana? P(nark +) = P(+ nark) P(nark) P(+ nark) P(nark)+P(+ nark) P( nark)

31 Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99 więc P( nark)=0.01; prawd. że wynik tego testu dla nienarkomana jest ujemny: P( nark)=0.99 więc P(+ nark)=0.01; społeczeństwa to narkomani. Badamy konkretną osobę i test daje wynik pozytywny. Jakie jest prawdopodobieństwo, że trafiliśmy na narkomana? P(nark +) = P(+ nark) P(nark) P(+ nark) P(nark)+P(+ nark) P( nark)

32 Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99 więc P( nark)=0.01; prawd. że wynik tego testu dla nienarkomana jest ujemny: P( nark)=0.99 więc P(+ nark)=0.01; społeczeństwa to narkomani. Badamy konkretną osobę i test daje wynik pozytywny. Jakie jest prawdopodobieństwo, że trafiliśmy na narkomana? P(nark +) = P(+ nark) P(nark) P(+ nark) P(nark)+P(+ nark) P( nark) =

33 Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99 więc P( nark)=0.01; prawd. że wynik tego testu dla nienarkomana jest ujemny: P( nark)=0.99 więc P(+ nark)=0.01; społeczeństwa to narkomani. Badamy konkretną osobę i test daje wynik pozytywny. Jakie jest prawdopodobieństwo, że trafiliśmy na narkomana? P(nark +) = P(+ nark) P(nark) P(+ nark) P(nark)+P(+ nark) P( nark) =

34 Wykład14,26V2010,str.5 Przykład: (amerykańskie zaliczenia) M

35 Wykład14,26V2010,str.5 Przykład: (amerykańskie zaliczenia) M wśród słuchaczy byli Amerykanie i Chińczycy: P(A)=0.9 P(C)=0.1

36 Wykład14,26V2010,str.5 Przykład: (amerykańskie zaliczenia) M wśród słuchaczy byli Amerykanie i Chińczycy: P(A)=0.9 P(C)=0.1 wśród Amerykanów było znacznie więcej mężczyzn niż kobiet; wśród Chińczyków po równo: P(k A)=0.1 P(m A)=0.9 P(k C)=0.5 P(m C)=0.5

37 Wykład14,26V2010,str.5 Przykład: (amerykańskie zaliczenia) M wśród słuchaczy byli Amerykanie i Chińczycy: P(A)=0.9 P(C)=0.1 wśród Amerykanów było znacznie więcej mężczyzn niż kobiet; wśród Chińczyków po równo: P(k A)=0.1 P(m A)=0.9 P(k C)=0.5 P(m C)=0.5 Chińczycy nie mieli problemu z zaliczeniem, niezależnie od płci: P(zal C,k)=1 P(zal C,m)=1

38 Wykład14,26V2010,str.5 Przykład: (amerykańskie zaliczenia) M wśród słuchaczy byli Amerykanie i Chińczycy: P(A)=0.9 P(C)=0.1 wśród Amerykanów było znacznie więcej mężczyzn niż kobiet; wśród Chińczyków po równo: P(k A)=0.1 P(m A)=0.9 P(k C)=0.5 P(m C)=0.5 Chińczycy nie mieli problemu z zaliczeniem, niezależnie od płci: P(zal C,k)=1 P(zal C,m)=1 Amerykanie byli słabsi a Amerykanki beznadziejnie słabe: P(zal A,k)=0.2 P(zal A,m)=0.4

39 Wykład14,26V2010,str.5 Przykład: (amerykańskie zaliczenia) M wśród słuchaczy byli Amerykanie i Chińczycy: P(A)=0.9 P(C)=0.1 wśród Amerykanów było znacznie więcej mężczyzn niż kobiet; wśród Chińczyków po równo: P(k A)=0.1 P(m A)=0.9 P(k C)=0.5 P(m C)=0.5 Chińczycy nie mieli problemu z zaliczeniem, niezależnie od płci: P(zal C,k)=1 P(zal C,m)=1 Amerykanie byli słabsi a Amerykanki beznadziejnie słabe: P(zal A,k)=0.2 P(zal A,m)=0.4 Na tej podstawie zespół d/s equal opportunity(równego traktowania) zarzucił mi szykanowanie kobiet.

40 Wykład14,26V2010,str.6 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1

41 Wykład14,26V2010,str.6 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)= =0.09

42 Wykład14,26V2010,str.6 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05

43 Wykład14,26V2010,str.6 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05 więc P(zal k)= P(zal,k) P(k)

44 Wykład14,26V2010,str.6 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05 więc P(zal k)= P(zal,k) P(k) = P(zal,A,k)+P(zal,C,k) P(A,k)+P(C,k)

45 Wykład14,26V2010,str.6 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem więc P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05 P(zal k)= P(zal,k) P(k) = P(zal,A,k)+P(zal,C,k) P(A,k)+P(C,k) = P(zal A,k) P(A,k)+P(zal C,k) P(C,k) P(A,k)+P(C,k)

46 Wykład14,26V2010,str.6 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem więc P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05 P(zal k)= P(zal,k) P(k) = P(zal,A,k)+P(zal,C,k) P(A,k)+P(C,k) = P(zal A,k) P(A,k)+P(zal C,k) P(C,k) P(A,k)+P(C,k) =

47 Wykład14,26V2010,str.6 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05 więc P(zal k)= P(zal,k) P(k) = P(zal,A,k)+P(zal,C,k) P(A,k)+P(C,k) = P(zal A,k) P(A,k)+P(zal C,k) P(C,k) P(A,k)+P(C,k) =

48 Wykład14,26V2010,str.7 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05

49 Wykład14,26V2010,str.7 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05 więc P(zal m)= P(zal,m) P(m)

50 Wykład14,26V2010,str.7 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05 więc P(zal m)= P(zal,m) P(m) = P(zal,A,m)+P(zal,C,m) P(A,m)+P(C,m)

51 Wykład14,26V2010,str.7 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem więc P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05 P(zal m)= P(zal,m) P(m) = P(zal,A,m)+P(zal,C,m) P(A,m)+P(C,m) = P(zal A,m) P(A,m)+P(zal C,m) P(C,m) P(A,m)+P(C,m)

52 Wykład14,26V2010,str.7 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem więc P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05 P(zal m)= P(zal,m) P(m) = P(zal,A,m)+P(zal,C,m) P(A,m)+P(C,m) = P(zal A,m) P(A,m)+P(zal C,m) P(C,m) P(A,m)+P(C,m) =

53 Wykład14,26V2010,str.7 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05 więc P(zal m)= P(zal,m) P(m) = P(zal,A,m)+P(zal,C,m) P(A,m)+P(C,m) = P(zal A,m) P(A,m)+P(zal C,m) P(C,m) P(A,m)+P(C,m) =

54 Wykład14,26V2010,str.7 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05 więc P(zal m)= P(zal,m) P(m) = P(zal,A,m)+P(zal,C,m) P(A,m)+P(C,m) = P(zal A,m) P(A,m)+P(zal C,m) P(C,m) P(A,m)+P(C,m) 0.435<0.486=P(zal k) =

55 Wykład14,26V2010,str.8 TWIERDZENIE: (uogólnione Bayesa) MZałóżmy,żee 1,...,e n,e,hsązdarzeniami;ozn.:ē def =e 1 &...&e n.wtedy P(h e,ē)= P(e h,ē) P(h ē) P(e ē)

56 Wykład14,26V2010,str.8 TWIERDZENIE: (uogólnione Bayesa) MZałóżmy,żee 1,...,e n,e,hsązdarzeniami;ozn.:ē def =e 1 &...&e n.wtedy Dowód: P(h e,ē)= P(e h,ē) P(h ē) P(e ē) P(h e,ē)= P(h,e,ē) P(e,ē)

57 Wykład14,26V2010,str.8 TWIERDZENIE: (uogólnione Bayesa) MZałóżmy,żee 1,...,e n,e,hsązdarzeniami;ozn.:ē def =e 1 &...&e n.wtedy Dowód: P(h e,ē)= P(e h,ē) P(h ē) P(e ē) P(h e,ē)= P(h,e,ē) P(e,ē) = P(e h,ē) P(h,ē) P(e ē) P(ē)

58 Wykład14,26V2010,str.8 TWIERDZENIE: (uogólnione Bayesa) MZałóżmy,żee 1,...,e n,e,hsązdarzeniami;ozn.:ē def =e 1 &...&e n.wtedy Dowód: P(h e,ē)= P(e h,ē) P(h ē) P(e ē) P(h e,ē)= P(h,e,ē) P(e,ē) = P(e h,ē) P(h,ē) P(e ē) P(ē) = P(e h,ē) P(h ē) P(ē) P(e ē) P(ē)

59 Wykład14,26V2010,str.8 TWIERDZENIE: (uogólnione Bayesa) MZałóżmy,żee 1,...,e n,e,hsązdarzeniami;ozn.:ē def =e 1 &...&e n.wtedy Dowód: P(h e,ē)= P(e h,ē) P(h ē) P(e ē) P(h e,ē)= P(h,e,ē) P(e,ē) = P(e h,ē) P(h,ē) P(e ē) P(ē) = P(e h,ē) P(h ē) P(ē) P(e ē) P(ē) = P(e h,ē) P(h ē) P(e ē)

60 Wykład14,26V2010,str.8 TWIERDZENIE: (uogólnione Bayesa) MZałóżmy,żee 1,...,e n,e,hsązdarzeniami;ozn.:ē def =e 1 &...&e n.wtedy Dowód: P(h e,ē)= P(e h,ē) P(h ē) P(e ē) P(h e,ē)= P(h,e,ē) P(e,ē) = P(e h,ē) P(h,ē) P(e ē) P(ē) = P(e h,ē) P(h ē) P(ē) P(e ē) P(ē) = P(e h,ē) P(h ē) P(e ē) Wniosek: MJeślizdarzeniae 1,...,e n sąniezależne,to P(h e,ē)= P(e h) P(e) P(h ē)

61 Wykład14,26V2010,str.9 Wniosek: MJeślizdarzeniae 1,...,e n sąniezależne,to P(h e,ē)= P(e h) P(e) P(h ē)

62 Wykład14,26V2010,str.9 Wniosek: MJeślizdarzeniae 1,...,e n sąniezależne,to P(h e,ē)= P(e h) P(e) P(h ē) wniosek z uogólnionego tw. Bayesa stosowany jest do wyliczania prawdopodobieństwa,żezachodzihipotezah,woparciuohipotezyē

63 Wykład14,26V2010,str.9 Wniosek: MJeślizdarzeniae 1,...,e n sąniezależne,to P(h e,ē)= P(e h) P(e) P(h ē) wniosek z uogólnionego tw. Bayesa stosowany jest do wyliczania prawdopodobieństwa,żezachodzihipotezah,woparciuohipotezyē; założenie o niezależności obserwacji, bardzo upraszczające obliczenia, zwykle jest spełnione, lub przynajmniej spełnione w przybliżeniu

64 Wykład14,26V2010,str.9 Wniosek: MJeślizdarzeniae 1,...,e n sąniezależne,to P(h e,ē)= P(e h) P(e) P(h ē) wniosek z uogólnionego tw. Bayesa stosowany jest do wyliczania prawdopodobieństwa,żezachodzihipotezah,woparciuohipotezyē; założenie o niezależności obserwacji, bardzo upraszczające obliczenia, zwykle jest spełnione, lub przynajmniej spełnione w przybliżeniu; wniosek pokazuje, jak zmienia się prawdopodobieństwo spełnienia h w wyniku dodania kolejnej obserwacji

65 Wykład14,26V2010,str.9 Wniosek: MJeślizdarzeniae 1,...,e n sąniezależne,to P(h e,ē)= P(e h) P(e) P(h ē) wniosek z uogólnionego tw. Bayesa stosowany jest do wyliczania prawdopodobieństwa,żezachodzihipotezah,woparciuohipotezyē; założenie o niezależności obserwacji, bardzo upraszczające obliczenia, zwykle jest spełnione, lub przynajmniej spełnione w przybliżeniu; wniosek pokazuje, jak zmienia się prawdopodobieństwo spełnienia h w wyniku dodania kolejnej obserwacji; dysponujemy trzema równościami: P(h e,ē)= P(e h) P(h ē) P(e) P( h e,ē)= P(e h) P( h ē) P(e) P(h e,ē)+p( h e,ē)=1

66 Wykład14,26V2010,str.9 Wniosek: MJeślizdarzeniae 1,...,e n sąniezależne,to P(h e,ē)= P(e h) P(e) P(h ē) wniosek z uogólnionego tw. Bayesa stosowany jest do wyliczania prawdopodobieństwa,żezachodzihipotezah,woparciuohipotezyē; założenie o niezależności obserwacji, bardzo upraszczające obliczenia, zwykle jest spełnione, lub przynajmniej spełnione w przybliżeniu; wniosek pokazuje, jak zmienia się prawdopodobieństwo spełnienia h w wyniku dodania kolejnej obserwacji; dysponujemy trzema równościami: P(h e,ē)= P(e h) P(h ē) P(e) P( h e,ē)= P(e h) P( h ē) P(e) P(h e,ē)+p( h e,ē)=1 nieznamyp(e),p(h e,ē),p( h e,ē)

67 Wykład14,26V2010,str.9 Wniosek: MJeślizdarzeniae 1,...,e n sąniezależne,to P(h e,ē)= P(e h) P(e) P(h ē) wniosek z uogólnionego tw. Bayesa stosowany jest do wyliczania prawdopodobieństwa,żezachodzihipotezah,woparciuohipotezyē; założenie o niezależności obserwacji, bardzo upraszczające obliczenia, zwykle jest spełnione, lub przynajmniej spełnione w przybliżeniu; wniosek pokazuje, jak zmienia się prawdopodobieństwo spełnienia h w wyniku dodania kolejnej obserwacji; dysponujemy trzema równościami: P(h e,ē)= P(e h) P(h ē) P(e) P( h e,ē)= P(e h) P( h ē) P(e) P(h e,ē)+p( h e,ē)=1 nieznamyp(e),p(h e,ē),p( h e,ē) znamyp(e h),p(e h),p(h ē),p( h ē)

68 Wykład14,26V2010,str.10 Przykład: (prof. Wierzchoń) MObserwacje: e 1 pacjentmagorączkę, e 2 pacjentkaszle, e 3 pacjentmakatar.

69 Wykład14,26V2010,str.10 Przykład: (prof. Wierzchoń) MObserwacje: e 1 pacjentmagorączkę, e 2 pacjentkaszle, e 3 pacjentmakatar. Hipoteza: h pacjent ma grypę.

70 Wykład14,26V2010,str.10 Przykład: (prof. Wierzchoń) MObserwacje: e 1 pacjentmagorączkę, e 2 pacjentkaszle, e 3 pacjentmakatar. Hipoteza: h pacjent ma grypę. Panuje grypa; prawdopodobieństwo, że pacjent, zgłaszający się do lekarza, magrypę,wynosip(h)=0.8.

71 Wykład14,26V2010,str.10 Przykład: (prof. Wierzchoń) MObserwacje: e 1 pacjentmagorączkę, e 2 pacjentkaszle, e 3 pacjentmakatar. Hipoteza: h pacjent ma grypę. Panuje grypa; prawdopodobieństwo, że pacjent, zgłaszający się do lekarza, magrypę,wynosip(h)=0.8.zpodręcznikamedycyny: P(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6

72 Wykład14,26V2010,str.10 Przykład: (prof. Wierzchoń) MObserwacje: e 1 pacjentmagorączkę, e 2 pacjentkaszle, e 3 pacjentmakatar. Hipoteza: h pacjent ma grypę. Panuje grypa; prawdopodobieństwo, że pacjent, zgłaszający się do lekarza, magrypę,wynosip(h)=0.8.zpodręcznikamedycyny: P(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4

73 Wykład14,26V2010,str.10 Przykład: (prof. Wierzchoń) MObserwacje: e 1 pacjentmagorączkę, e 2 pacjentkaszle, e 3 pacjentmakatar. Hipoteza: h pacjent ma grypę. Panuje grypa; prawdopodobieństwo, że pacjent, zgłaszający się do lekarza, magrypę,wynosip(h)=0.8.zpodręcznikamedycyny: P(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 Konkretny pacjent ma gorączkę i katar, ale nie kaszle; jakie jest prawdopodobieństwo, że ma grypę?

74 Wykład14,26V2010,str.10 Przykład: (prof. Wierzchoń) MObserwacje: e 1 pacjentmagorączkę, e 2 pacjentkaszle, e 3 pacjentmakatar. Hipoteza: h pacjent ma grypę. Panuje grypa; prawdopodobieństwo, że pacjent, zgłaszający się do lekarza, magrypę,wynosip(h)=0.8.zpodręcznikamedycyny: P(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 Konkretny pacjent ma gorączkę i katar, ale nie kaszle; jakie jest prawdopodobieństwo, że ma grypę? P(h e 1, e 2,e 3 )=?

75 Wykład14,26V2010,str.11 Przykład: (prof. Wierzchoń) P(h)=0.8 MP(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4

76 Wykład14,26V2010,str.11 Przykład: (prof. Wierzchoń) P(h)=0.8 MP(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )= P(e 1 h) P(e 1 ) P(h)= 0.7 P(e 1 ) 0.8

77 Wykład14,26V2010,str.11 Przykład: (prof. Wierzchoń) P(h)=0.8 MP(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )= P(e 1 h) P(e 1 ) P( h e 1 )= P(e 1 h) P(e 1 ) P(h)= 0.7 P(e 1 ) 0.8 P( h)= 0.6 P(e 1 ) 0.2

78 Wykład14,26V2010,str.11 Przykład: (prof. Wierzchoń) P(h)=0.8 MP(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )= P(e 1 h) P(e 1 ) P( h e 1 )= P(e 1 h) P(e 1 ) P(h)= 0.7 P(e 1 ) 0.8 1= 1 P(e 1 ) ( ) P( h)= 0.6 P(e 1 ) 0.2

79 Wykład14,26V2010,str.11 Przykład: (prof. Wierzchoń) P(h)=0.8 MP(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )= P(e 1 h) P(e 1 ) P( h e 1 )= P(e 1 h) P(e 1 ) P(h)= 0.7 P(e 1 ) 0.8 1= 1 P(e 1 ) ( ) P(e 1 )= =0.68 P( h)= 0.6 P(e 1 ) 0.2

80 Wykład14,26V2010,str.11 Przykład: (prof. Wierzchoń) P(h)=0.8 MP(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )= P(e 1 h) P(e 1 ) P( h e 1 )= P(e 1 h) P(e 1 ) P(h)= 0.7 P(e 1 ) 0.8 1= 1 P(e 1 ) ( ) P(e 1 )= =0.68 P( h)= 0.6 P(e 1 ) 0.2 P(h e 1 )= =0.82

81 Wykład14,26V2010,str.11 Przykład: (prof. Wierzchoń) P(h)=0.8 MP(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )= P(e 1 h) P(e 1 ) P( h e 1 )= P(e 1 h) P(e 1 ) P(h)= 0.7 P(e 1 ) 0.8 1= 1 P(e 1 ) ( ) P(e 1 )= =0.68 P( h)= 0.6 P(e 1 ) 0.2 P(h e 1 )= =0.82 P( h e 1)= =0.18

82 Wykład14,26V2010,str.12 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e M 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18

83 Wykład14,26V2010,str.12 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e M 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18 P(h e 1, e 2 )= P( e 2 h) P( e 2 ) P(h e 1 )= 0.6 P( e 2 ) 0.82

84 Wykład14,26V2010,str.12 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e M 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18 P(h e 1, e 2 )= P( e 2 h) P( e 2 ) P( h e 1, e 2 )= P( e 2 h) P( e 2 ) P(h e 1 )= 0.6 P( e 2 ) 0.82 P( h e 1 )= 0.7 P( e 2 ) 0.18

85 Wykład14,26V2010,str.12 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e M 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18 P(h e 1, e 2 )= P( e 2 h) P( e 2 ) P( h e 1, e 2 )= P( e 2 h) P( e 2 ) 1= 1 P( e 2 ) ( ) P(h e 1 )= 0.6 P( e 2 ) 0.82 P( h e 1 )= 0.7 P( e 2 ) 0.18

86 Wykład14,26V2010,str.12 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e M 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18 P(h e 1, e 2 )= P( e 2 h) P( e 2 ) P( h e 1, e 2 )= P( e 2 h) P( e 2 ) 1= 1 P( e 2 ) ( ) P( e 2 )= =0.62 P(h e 1 )= 0.6 P( e 2 ) 0.82 P( h e 1 )= 0.7 P( e 2 ) 0.18

87 Wykład14,26V2010,str.12 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e M 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18 P(h e 1, e 2 )= P( e 2 h) P( e 2 ) P( h e 1, e 2 )= P( e 2 h) P( e 2 ) 1= 1 P( e 2 ) ( ) P( e 2 )= =0.62 P(h e 1 )= 0.6 P( e 2 ) 0.82 P( h e 1 )= 0.7 P( e 2 ) 0.18 P(h e 1, e 2 )= =0.8 P( h e 1, e 2 )= =0.2

88 Wykład14,26V2010,str.13 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 MP(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18 P(h e 1, e 2 )=0.8 P( h e 1, e 2 )=0.2

89 Wykład14,26V2010,str.13 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 MP(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18 P(h e 1, e 2 )=0.8 P( h e 1, e 2 )=0.2 P(h e 1, e 2,e 3 )= P(e 3 h) P(e 3 ) P( h e 1, e 2,e 3 )= P(e 3 h) P(e 3 ) 1= 1 P(e 3 ) ( ) P(e 3 )= =0.56 P(h e 1, e 2 )= 0.6 P(e 3 ) 0.8 P( h e 1, e 2 )= 0.4 P(e 3 ) 0.2

90 Wykład14,26V2010,str.13 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 MP(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18 P(h e 1, e 2 )=0.8 P( h e 1, e 2 )=0.2 P(h e 1, e 2,e 3 )= P(e 3 h) P(e 3 ) P( h e 1, e 2,e 3 )= P(e 3 h) P(e 3 ) 1= 1 P(e 3 ) ( ) P(e 3 )= =0.56 P(h e 1, e 2 )= 0.6 P(e 3 ) 0.8 P(h e 1, e 2,e 3 )= =0.86 P( h e 1, e 2 )= 0.4 P(e 3 ) 0.2

91 Wykład14,26V2010,str.13 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 MP(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18 P(h e 1, e 2 )=0.8 P( h e 1, e 2 )=0.2 P(h e 1, e 2,e 3 )= P(e 3 h) P(e 3 ) P( h e 1, e 2,e 3 )= P(e 3 h) P(e 3 ) 1= 1 P(e 3 ) ( ) P(e 3 )= =0.56 P(h e 1, e 2 )= 0.6 P(e 3 ) 0.8 P(h e 1, e 2,e 3 )= =0.86 P( h e 1, e 2 )= 0.4 P(e 3 ) 0.2

92 Wykład14,26V2010,str.14 Jak nowe obserwacje zmieniają prawdopodobieństwo spełnienia hipotezy h?

93 Wykład14,26V2010,str.14 Jak nowe obserwacje zmieniają prawdopodobieństwo spełnienia hipotezy h: P(h)=0.8 P(h e 1 )=0.82 P(h e 1, e 2 )=0.8 P(h e 1, e 2,e 3 )=0.86

94 Wykład14,26V2010,str.14 Jak nowe obserwacje zmieniają prawdopodobieństwo spełnienia hipotezy h: P(h)=0.8 P(h e 1 )=0.82 P(h e 1, e 2 )=0.8 P(h e 1, e 2,e 3 )=0.86

95 Wykład14,26V2010,str.14 Jak nowe obserwacje zmieniają prawdopodobieństwo spełnienia hipotezy h: P(h)=0.8 P(h e 1 )=0.82 P(h e 1, e 2 )=0.8 P(h e 1, e 2,e 3 )=0.86

96 Wykład14,26V2010,str.14 Jak nowe obserwacje zmieniają prawdopodobieństwo spełnienia hipotezy h: P(h)=0.8 P(h e 1 )=0.82 P(h e 1, e 2 )=0.8 P(h e 1, e 2,e 3 )=0.86

97 Wykład14,26V2010,str.15 Naiwny klasyfikator Bayesowski

98 Wykład14,26V2010,str.15 Naiwny klasyfikator Bayesowski Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM rynek wygrałeś szybko SPAM

99 Wykład14,26V2010,str.15 Naiwny klasyfikator Bayesowski Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM rynek wygrałeś szybko SPAM Jak zaklasyfikować nowy dokument?

100 Wykład14,26V2010,str.15 Naiwny klasyfikator Bayesowski Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM rynek wygrałeś szybko SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM?

101 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= = 2 7 P(szybko S)= =1 7 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM? rynek wygrałeś szybko SPAM

102 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= = 2 7 P(szybko S)= = 1 7 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM? rynek wygrałeś szybko SPAM

103 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= = 2 7 P(szybko S)= = 1 7 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM? rynek wygrałeś szybko SPAM

104 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= = 2 7 P(szybko S)= = 1 7 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM? rynek wygrałeś szybko SPAM

105 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= = 2 7 P(szybko S)= = 1 7 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM? rynek wygrałeś szybko SPAM

106 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= = 2 7 P(szybko S)= = 1 7 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM? rynek wygrałeś szybko SPAM

107 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= = 2 7 P(szybko S)= = 1 7 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM? rynek wygrałeś szybko SPAM

108 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= = 2 7 P(szybko S)= = 1 7 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM? rynek wygrałeś szybko SPAM

109 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= =2 7 P(szybko S)= =1 7 prawd., że nie spam: P( S) P(rynek S) P(szybko S) Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM? rynek wygrałeś szybko SPAM

110 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek wygrałeś szybko SPAM prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= =2 7 P(szybko S)= =1 7 prawd., że nie spam: P( S) P(rynek S) P(szybko S)= rynek szybko CZY SPAM?

111 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek wygrałeś szybko SPAM prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= 1+1= P(szybko S)= 0+1= prawd., że nie spam: P( S) P(rynek S) P(szybko S)= rynek szybko CZY SPAM? P(S rynek,szybko)=

112 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek wygrałeś szybko SPAM prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= 1+1= P(szybko S)= 0+1= prawd., że nie spam: P( S) P(rynek S) P(szybko S)= rynek szybko CZY SPAM? P(S rynek,szybko)=

113 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek wygrałeś szybko SPAM prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= 1+1= P(szybko S)= 0+1= prawd., że nie spam: P( S) P(rynek S) P(szybko S)= rynek szybko CZY SPAM? P(S rynek,szybko)= P( S rynek,szybko)=

114 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek wygrałeś szybko SPAM prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= 1+1= P(szybko S)= 0+1= prawd., że nie spam: P( S) P(rynek S) P(szybko S)= rynek szybko CZY SPAM? P(S rynek,szybko)= P( S rynek,szybko)= <P(S rynek,szybko)

115 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek wygrałeś szybko SPAM prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= =2 7 P(szybko S)= =1 7 prawd., że nie spam: P( S) P(rynek S) P(szybko S)= rynek szybko CZY SPAM? P(S rynek,szybko)= P( S rynek,szybko)= <P(S rynek,szybko) Więc spam.

116 Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh

117 Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki).

118 Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n )

119 Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n ) 1 = P(x 1,...,x ) P(h) P(x 1 h)... P(x n h) n

120 Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n ) 1 = P(x 1,...,x ) P(h) P(x 1 h)... P(x n h) n P(h)= D h D

121 Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n ) 1 = P(x 1,...,x ) P(h) P(x 1 h)... P(x n h) n P(h)= D h D prawd.hapriori: D htoliczbadok.spełniającychh

122 Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n ) 1 = P(x 1,...,x ) P(h) P(x 1 h)... P(x n h) n P(h)= D h D prawd.hapriori: D htoliczbadok.spełniającychh, D to liczba wszystkich dok.

123 Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n ) 1 = P(x 1,...,x ) P(h) P(x 1 h)... P(x n h) n P(h)= D h D prawd.hapriori: D htoliczbadok.spełniającychh, D to liczba wszystkich dok. P(x i h) T i +1 Z k=1 (T k+1)

124 Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n ) 1 = P(x 1,...,x ) P(h) P(x 1 h)... P(x n h) n P(h)= D h D prawd.hapriori: D htoliczbadok.spełniającychh, D to liczba wszystkich dok. P(x i h) T i +1 Z k=1 (T k+1) = T i +1 ( Z k=1 T k)+z

125 Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n ) 1 = P(x 1,...,x ) P(h) P(x 1 h)... P(x n h) n P(h)= D h D prawd.hapriori: D htoliczbadok.spełniającychh, D to liczba wszystkich dok. T i +1 P(x i h) Z k=1 (T k+1) = T i +1 ( Z k=1 T k)+z T i toliczbawystąpieńcechyx i wdokumentachspełniającychh

126 Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n ) 1 = P(x 1,...,x ) P(h) P(x 1 h)... P(x n h) n P(h)= D h D prawd.hapriori: D htoliczbadok.spełniającychh, D to liczba wszystkich dok. T i +1 P(x i h) Z k=1 (T k+1) = T i +1 ( Z k=1 T k)+z T i toliczbawystąpieńcechyx i wdokumentachspełniającychh, Z to liczba cech występujących w dokumentach spełniających h

127 Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n ) 1 = P(x 1,...,x ) P(h) P(x 1 h)... P(x n h) n P(h)= D h D prawd.hapriori: D htoliczbadok.spełniającychh, D to liczba wszystkich dok. T i +1 P(x i h) Z k=1 (T k+1) = T i +1 ( Z k=1 T k)+z T i toliczbawystąpieńcechyx i wdokumentachspełniającychh, Z to liczba cech występujących w dokumentach spełniających h, Z k=1 T ktoliczbawystąpieńwszystkichcechwewszystkichdok.spełniającychh

128 Wykład14,26V2010,str.18 P(x i h) T i +1 Zk=1 (T k +1)

129 Wykład14,26V2010,str.18 P(x i h) T i +1 Zk=1 (T k +1) Wygładzanie Laplace a jedynki dodane po to, żeby żaden czynnik iloczynu nie był zerem; wprowadzają niewielki błąd.

130 Wykład14,26V2010,str.18 P(x i h) T i +1 Zk=1 (T k +1) Wygładzanie Laplace a jedynki dodane po to, żeby żaden czynnik iloczynu nie był zerem; wprowadzają niewielki błąd. Do licznika dodajemy 1; ile dodać do mianownika, żeby wartość ułamka się nie zmieniła? a b =a+1 b+x

131 Wykład14,26V2010,str.18 P(x i h) T i +1 Zk=1 (T k +1) Wygładzanie Laplace a jedynki dodane po to, żeby żaden czynnik iloczynu nie był zerem; wprowadzają niewielki błąd. Do licznika dodajemy 1; ile dodać do mianownika, żeby wartość ułamka się nie zmieniła? a b =a+1 b+x x= b a

132 Wykład14,26V2010,str.18 P(x i h) T i +1 Zk=1 (T k +1) Wygładzanie Laplace a jedynki dodane po to, żeby żaden czynnik iloczynu nie był zerem; wprowadzają niewielki błąd. Do licznika dodajemy 1; ile dodać do mianownika, żeby wartość ułamka się nie zmieniła? a b =a+1 b+x x= b a Jeśliwartościa 1,...,a n niewielesięróżnią,to a i ni=1 a i 1 n.

133 Wykład14,26V2010,str.18 P(x i h) T i +1 Zk=1 (T k +1) Wygładzanie Laplace a jedynki dodane po to, żeby żaden czynnik iloczynu nie był zerem; wprowadzają niewielki błąd. Do licznika dodajemy 1; ile dodać do mianownika, żeby wartość ułamka się nie zmieniła? a b =a+1 b+x x= b a Jeśliwartościa 1,...,a n niewielesięróżnią,to a i ni=1 a i 1 n.wobectego a i ni=1 a i a i +1 ( n i=1 a i )+n

134 Wykład14,26V2010,str.18 P(x i h) T i +1 Zk=1 (T k +1) Wygładzanie Laplace a jedynki dodane po to, żeby żaden czynnik iloczynu nie był zerem; wprowadzają niewielki błąd. Do licznika dodajemy 1; ile dodać do mianownika, żeby wartość ułamka się nie zmieniła? a b =a+1 b+x x= b a Jeśliwartościa 1,...,a n niewielesięróżnią,to a i ni=1 a i 1 n.wobectego a i ni=1 a i a i +1 ( n i=1 a i )+n = a i +1 ni=1 (a i +1)

Klasyfikacja metodą Bayesa

Klasyfikacja metodą Bayesa Klasyfikacja metodą Bayesa Tadeusz Pankowski www.put.poznan.pl/~tadeusz.pankowski warunkowe i bezwarunkowe 1. Klasyfikacja Bayesowska jest klasyfikacją statystyczną. Pozwala przewidzieć prawdopodobieństwo

Bardziej szczegółowo

Systemy ekspertowe - wiedza niepewna

Systemy ekspertowe - wiedza niepewna Instytut Informatyki Uniwersytetu Śląskiego lab 8 Rozpatrzmy następujący przykład: Miażdżyca powoduje często zwężenie tętnic wieńcowych. Prowadzi to zazwyczaj do zmniejszenia przepływu krwi w tych naczyniach,

Bardziej szczegółowo

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18 Eksploracja Danych wykład 4 Sebastian Zając WMP.SNŚ UKSW 10 maja 2017 Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja 2017 1 / 18 Klasyfikacja danych Klasyfikacja Najczęściej stosowana (najstarsza)

Bardziej szczegółowo

Podstawy Teorii Prawdopodobieństwa

Podstawy Teorii Prawdopodobieństwa Statystyka Opisowa z Demografią oraz Biostatystyka Podstawy Teorii Prawdopodobieństwa Aleksander Denisiuk denisjuk@euh-e.edu.pl Elblaska Uczelnia Humanistyczno-Ekonomiczna ul. Lotnicza 2 82-300 Elblag

Bardziej szczegółowo

Zdarzenia losowe Zmienne losowe Prawdopodobieństwo Niezależność

Zdarzenia losowe Zmienne losowe Prawdopodobieństwo Niezależność Zdarzenia losowe Zmienne losowe Prawdopodobieństwo Niezależność przypomnienie pojęć ĆWICZENIA Piotr Ciskowski zdarzenie losowe ćwiczenie 1. zbiory Stanisz zilustruj następujące pojęcia: o A B o A B o A

Bardziej szczegółowo

Modelowanie Niepewności

Modelowanie Niepewności Na podstawie: AIMA, ch13 Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 21 marca 2014 Na podstawie: AIMA, ch13 Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 21 marca

Bardziej szczegółowo

Data Mining Wykład 6. Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa.

Data Mining Wykład 6. Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa. GLM (Generalized Linear Models) Data Mining Wykład 6 Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa Naiwny klasyfikator Bayesa jest klasyfikatorem statystycznym -

Bardziej szczegółowo

Wnioskowanie bayesowskie

Wnioskowanie bayesowskie Wnioskowanie bayesowskie W podejściu klasycznym wnioskowanie statystyczne oparte jest wyłącznie na podstawie pobranej próby losowej. Możemy np. estymować punktowo lub przedziałowo nieznane parametry rozkładów,

Bardziej szczegółowo

Metody probabilistyczne klasyfikatory bayesowskie

Metody probabilistyczne klasyfikatory bayesowskie Konwersatorium Matematyczne Metody Ekonomii narzędzia matematyczne w eksploracji danych First Prev Next Last Go Back Full Screen Close Quit Metody probabilistyczne klasyfikatory bayesowskie Wykład 8 Marcin

Bardziej szczegółowo

Elementy modelowania matematycznego

Elementy modelowania matematycznego Elementy modelowania matematycznego Modelowanie algorytmów klasyfikujących. Podejście probabilistyczne. Naiwny klasyfikator bayesowski. Modelowanie danych metodą najbliższych sąsiadów. Jakub Wróblewski

Bardziej szczegółowo

Algorytmy stochastyczne, wykład 08 Sieci bayesowskie

Algorytmy stochastyczne, wykład 08 Sieci bayesowskie Algorytmy stochastyczne, wykład 08 Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2014-04-10 Prawdopodobieństwo Prawdopodobieństwo Prawdopodobieństwo warunkowe Zmienne

Bardziej szczegółowo

Przestrzeń probabilistyczna

Przestrzeń probabilistyczna Przestrzeń probabilistyczna (Ω, Σ, P) Ω pewien niepusty zbiór Σ rodzina podzbiorów tego zbioru P funkcja określona na Σ, zwana prawdopodobieństwem. Przestrzeń probabilistyczna (Ω, Σ, P) Ω pewien niepusty

Bardziej szczegółowo

Analiza autokorelacji

Analiza autokorelacji Analiza autokorelacji Oblicza się wartości współczynników korelacji między y t oraz y t-i (dla i=1,2,...,k), czyli współczynniki autokorelacji różnych rzędów. Bada się statystyczną istotność tych współczynników.

Bardziej szczegółowo

Ł Ł Ś Ś ź Ć ź ź ź Ń Ł Ż Ś ź Ę Ż Ń Ę ź ź ź Ę ź Ł Ę ź Ę Ę Ę ź ź Ś ź ź Ł Ł Ź Ę Ł Ś ź Ę Ę Ę ń ź Ą ó Ę ĘĘ ź Ę ź Ą Ł Ę Ł Ą ź Ę ó Ź Ś ź Ń Ę Ę ĘĘ Ą Ś Ę Ł Ę Ć Ź ź Ź Ę Ę Ź ź Ź Ź Ź Ł Ż Ł Ę ź Ż Ź ź Ź Ź Ź Ź Ą Ż ŚĆ

Bardziej szczegółowo

Ź Ę Ę Ś Ś Ś ć Ę ć Ś ć Ź Ż Ś ć Ż Ź Ż Ą Ż Ę Ś Ź Ę Ź Ż Ó Ś ć ć Ś Ż Ć ź Ś Ń Ź ć Ó ź Ś Ń ź Ń Ź Ź ź Ż Ź Ź Ź Ź Ż Ź ć Ż Ę ź Ę ź ć Ń ć ć ć ć Ź Ę Ą ć Ę ć Ń ć ć Ź Ż ć Ó Ó Ó Ż ć Ó Ż Ę Ą Ź Ó Ń Ł ź ź Ń ć ć Ż ć Ś Ą

Bardziej szczegółowo

Ł Ł ń ń Ą ń ń Ś ń Ź ń ń ń Ż ń Ł ń Ś ń ń ń Ą Ą Ł Ż ń ń Ś ń Ź ń ń ć Ź ń ć Ś ć ć ń Ź ń Ą Ł Ł Ę ĘĘ Ż Ź ć Ł ń Ś Ą Ł Ł Ł Ą Ę Ę ń Ń ń Ź ń ć Ż ń Ż Ś ń Ń ń Ń Ź Ą ć Ł ń ć ć Ź Ą Ą Ą Ź Ą Ł Ą Ś ń ń Ś Ś Ą Ć ŚĆ Ł ć Ż

Bardziej szczegółowo

Ą Ń Ś Ę ź Ś Ś ź ź Ś Ś ź Ł Ś Ś Ś Ł ĘĘ Ś Ś Ś ć Ś Ś Ś Ś Ł Ó Ś Ł ć Ś Ść Ś Ś Ś Ń ć Ś Ł Ś Ź Ą ć ć Ł ź Ś Ą Ś Ł Ą Ś Ś Ą Ś Ś ź Ś ć Ł ć ć Ł Ł ć Ź ć ć Ś ć ź Ź ć Ś ć ć ć Ś Ą Ś Ś Ś ć Ś Ść Ś ć Ł ć Ś ć Ś Ś Ń ć ć Ł Ś

Bardziej szczegółowo

Agnieszka Nowak Brzezińska Wykład III

Agnieszka Nowak Brzezińska Wykład III Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe

Bardziej szczegółowo

Zadania o numerze 4 z zestawów licencjat 2014.

Zadania o numerze 4 z zestawów licencjat 2014. Zadania o numerze 4 z zestawów licencjat 2014. W nawiasie przy zadaniu jego występowanie w numerze zestawu Spis treści (Z1, Z22, Z43) Definicja granicy ciągu. Obliczyć granicę:... 3 Definicja granicy ciągu...

Bardziej szczegółowo

Grawitacja. =2,38 km/s. Promień Księżyca jest równy R=1737km. Zadanie - Pierwsza prędkość kosmiczna fizyka.biz 1

Grawitacja. =2,38 km/s. Promień Księżyca jest równy R=1737km. Zadanie - Pierwsza prędkość kosmiczna fizyka.biz 1 Obliczyć wysokość na jaką wzniesie się ciało rzucone na Księżycu pionowo do góry z prędkością v=1 m/s? Druga prędkość kosmiczna dla Księżyca ma wartość v =,38 km/s. Promień Księżyca jest równy R=1737km.

Bardziej szczegółowo

Na podstawie: AIMA, ch13. Wojciech Jaśkowski. 15 marca 2013

Na podstawie: AIMA, ch13. Wojciech Jaśkowski. 15 marca 2013 Na podstawie: AIMA, ch13 Instytut Informatyki, Politechnika Poznańska 15 marca 2013 Źródła niepewności Świat częściowo obserwowalny Świat niedeterministyczny Także: Lenistwo i ignorancja (niewiedza) Cel:

Bardziej szczegółowo

Metody probabilistyczne

Metody probabilistyczne Metody probabilistyczne Prawdopodobieństwo warunkowe Jędrzej Potoniec Część I Podstawy interpretacji wyników badań medycznych Badanie raka Grupa kobiet w wieku 40 lat bierze udział w przesiewowej mammografi,

Bardziej szczegółowo

PODYPLOMOWE STUDIA ZAAWANSOWANE METODY ANALIZY DANYCH I DATA MINING W BIZNESIE

PODYPLOMOWE STUDIA ZAAWANSOWANE METODY ANALIZY DANYCH I DATA MINING W BIZNESIE UNIWERSYTET WARMIŃSKO-MAZURSKI W OLSZTYNIE PODYPLOMOWE STUDIA ZAAWANSOWANE METODY ANALIZY DANYCH I DATA MINING W BIZNESIE http://matman.uwm.edu.pl/psi e-mail: psi@matman.uwm.edu.pl ul. Słoneczna 54 10-561

Bardziej szczegółowo

Moneta 1 Moneta 2 Kostka O, R O,R 1,2,3,4,5, Moneta 1 Moneta 2 Kostka O O ( )

Moneta 1 Moneta 2 Kostka O, R O,R 1,2,3,4,5, Moneta 1 Moneta 2 Kostka O O ( ) Nowa matura kombinatoryka i rachunek prawdopodobieństwa Zadania zamknięte (0 1 pkt) 1. Doświadczenie losowe polega na rzucie dwiema symetrycznymi monetami i sześcienną kostką do gry. Prawdopodobieństwo

Bardziej szczegółowo

Co to jest klasyfikacja? Klasyfikacja a grupowanie Naiwny klasyfikator Bayesa

Co to jest klasyfikacja? Klasyfikacja a grupowanie Naiwny klasyfikator Bayesa Co to jest klasyfikacja? Klasyfikacja a grupowanie Naiwny klasyfikator Bayesa Odkrywanie asocjacji Wzorce sekwencji Analiza koszykowa Podobieństwo szeregów temporalnych Klasyfikacja Wykrywanie odchyleń

Bardziej szczegółowo

Agnieszka Nowak Brzezińska Wykład III

Agnieszka Nowak Brzezińska Wykład III Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe

Bardziej szczegółowo

Sztuczna inteligencja : Tworzenie sieci Bayesa

Sztuczna inteligencja : Tworzenie sieci Bayesa Instytut Informatyki Uniwersytetu Śląskiego 13 kwiecień 2011 Rysunek: Sieć Bayesa Rysunek: Sieć Bayesa Matura z matematyki na 60 %. Matura z matematyki na 100 %. Rozpatrzmy następujące przypadki: Uczeń

Bardziej szczegółowo

+ r arcsin. M. Przybycień Rachunek prawdopodobieństwa i statystyka π r x

+ r arcsin. M. Przybycień Rachunek prawdopodobieństwa i statystyka π r x Prawdopodobieństwo geometryczne Przykład: Przestrzeń zdarzeń elementarnych określona jest przez zestaw punktów (x, y) na płaszczyźnie i wypełnia wnętrze kwadratu [0 x 1; 0 y 1]. Znajdź p-stwo, że dowolny

Bardziej szczegółowo

Algorytmy klasyfikacji

Algorytmy klasyfikacji Algorytmy klasyfikacji Konrad Miziński Instytut Informatyki Politechnika Warszawska 6 maja 2015 1 Wnioskowanie 2 Klasyfikacja Zastosowania 3 Drzewa decyzyjne Budowa Ocena jakości Przycinanie 4 Lasy losowe

Bardziej szczegółowo

Spam or Not Spam That is the question

Spam or Not Spam That is the question or Not That is the question 4 maja 2006 Zwięzła definicja spamu Czym jest spam? Typy spamu Kto dostaje najwięcej spamu? to nadmiar informacji zbędnych dla odbiorcy przekazu. Definicji poszerzona Czym jest

Bardziej szczegółowo

Statystyczna analiza Danych

Statystyczna analiza Danych Statystyczna analiza Danych Dla bioinformatyków Wykład pierwszy: O testowaniu hipotez Plan na dziś Quiz! Cele wykładu Plan na semestr Kryteria zaliczenia Sprawy organizacyjne Quiz (15 minut) Jakie znasz

Bardziej szczegółowo

L.Kowalski zadania z rachunku prawdopodobieństwa-zestaw 1 ZADANIA - ZESTAW 1. (odp. a) B A C, b) A, c) A B, d) Ω)

L.Kowalski zadania z rachunku prawdopodobieństwa-zestaw 1 ZADANIA - ZESTAW 1. (odp. a) B A C, b) A, c) A B, d) Ω) ZADANIA - ZESTAW 1 Zadanie 1.1 Rzucamy trzy razy monetą. A i - zdarzenie polegające na tym, że otrzymamy orła w i - tym rzucie. Określić zbiór zdarzeń elementarnych. Wypisać zdarzenia elementarne sprzyjające

Bardziej szczegółowo

Prawdopodobieństwo czerwonych = = 0.33

Prawdopodobieństwo czerwonych = = 0.33 Temat zajęć: Naiwny klasyfikator Bayesa a algorytm KNN Część I: Naiwny klasyfikator Bayesa Naiwny klasyfikator bayerowski jest prostym probabilistycznym klasyfikatorem. Naiwne klasyfikatory bayesowskie

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 3 Metody estymacji. Estymator największej wiarygodności Zad. 1 Pojawianie się spamu opisane jest zmienną losową y o rozkładzie zero-jedynkowym

Bardziej szczegółowo

b) Niech: - wśród trzech wylosowanych opakowań jest co najwyżej jedno o dawce 15 mg. Wówczas:

b) Niech: - wśród trzech wylosowanych opakowań jest co najwyżej jedno o dawce 15 mg. Wówczas: ROZWIĄZANIA I ODPOWIEDZI Zadanie A1. Można założyć, że przy losowaniu trzech kul jednocześnie kolejność ich wylosowania nie jest istotna. A więc: Ω = 20 3. a) Niech: - wśród trzech wylosowanych opakowań

Bardziej szczegółowo

i=7 X i. Zachodzi EX i = P(X i = 1) = 1 2, i {1, 2,..., 11} oraz EX ix j = P(X i = 1, X j = 1) = 1 7 VarS 2 2 = 14 3 ( 5 2 =

i=7 X i. Zachodzi EX i = P(X i = 1) = 1 2, i {1, 2,..., 11} oraz EX ix j = P(X i = 1, X j = 1) = 1 7 VarS 2 2 = 14 3 ( 5 2 = Kombinatoryka W tej serii zadań można znaleźć pojawiające się na egzaminach zadania dotyczące problemu wyznaczania prostych parametrów rozkładu w przypadku zgadnień kombinatorycznych. Zadania te wymagają

Bardziej szczegółowo

Drugie kolokwium z Rachunku Prawdopodobieństwa, zestaw A

Drugie kolokwium z Rachunku Prawdopodobieństwa, zestaw A Drugie kolokwium z Rachunku Prawdopodobieństwa, zestaw A Zad. 1. Korzystając z podanych poniżej mini-tablic, oblicz pierwszy, drugi i trzeci kwartyl rozkładu N(10, 2 ). Rozwiązanie. Najpierw ogólny komentarz

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 2 autorzy: A. Gonczarek, J.M. Tomczak Metody estymacji Zad. 1 Pojawianie się spamu opisane jest zmienną losową x o rozkładzie dwupunktowym

Bardziej szczegółowo

Rachunek prawdopodobieństwa

Rachunek prawdopodobieństwa Rachunek prawdopodobieństwa Sebastian Rymarczyk srymarczyk@afm.edu.pl Tematyka zajęć 1. Elementy kombinatoryki. 2. Definicje prawdopodobieństwa. 3. Własności prawdopodobieństwa. 4. Zmienne losowe, parametry

Bardziej szczegółowo

Algorytmy, które estymują wprost rozkłady czy też mapowania z nazywamy algorytmami dyskryminacyjnymi.

Algorytmy, które estymują wprost rozkłady czy też mapowania z nazywamy algorytmami dyskryminacyjnymi. Spis treści 1 Wstęp: generatywne algorytmy uczące 2 Gaussowska analiza dyskryminacyjna 2.1 Gaussowska analiza dyskryminacyjna a regresja logistyczna 3 Naiwny Klasyfikator Bayesa 3.1 Wygładzanie Laplace'a

Bardziej szczegółowo

LISTA 1 ZADANIE 1 a) 41 x =5 podnosimy obustronnie do kwadratu i otrzymujemy: 41 x =5 x 5 x przechodzimy na system dziesiętny: 4x 1 1=25 4x =24

LISTA 1 ZADANIE 1 a) 41 x =5 podnosimy obustronnie do kwadratu i otrzymujemy: 41 x =5 x 5 x przechodzimy na system dziesiętny: 4x 1 1=25 4x =24 LISTA 1 ZADANIE 1 a) 41 x =5 podnosimy obustronnie do kwadratu i otrzymujemy: 41 x =5 x 5 x przechodzimy na system dziesiętny: 4x 1 1=25 4x =24 x=6 ODP: Podstawą (bazą), w której spełniona jest ta zależność

Bardziej szczegółowo

Przypomnienie elementów z rachunku prawdopodobieństwa. Naiwny klasyfikator Bayesa. Aktualizacja rozkładów wg reguły Bayesa.

Przypomnienie elementów z rachunku prawdopodobieństwa. Naiwny klasyfikator Bayesa. Aktualizacja rozkładów wg reguły Bayesa. 1/ 32 Przypomnienie elementów z rachunku prawdopodobieństwa. Naiwny klasyfikator Bayesa. Aktualizacja rozkładów wg reguły Bayesa. Przemysław Klęsk pklesk@wi.zut.edu.pl Literatura 2/ 32 1 D. Hand, H. Mannila,

Bardziej szczegółowo

Metody probabilistyczne

Metody probabilistyczne Metody probabilistyczne. Twierdzenia graniczne Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 20.2.208 / 26 Motywacja Rzucamy wielokrotnie uczciwą monetą i zliczamy

Bardziej szczegółowo

Propozycje rozwiązań zadań z matematyki - matura rozszerzona

Propozycje rozwiązań zadań z matematyki - matura rozszerzona Jacek Kredenc Propozycje rozwiązań zadań z matematyki - matura rozszerzona Zadanie 1 Zastosujmy trójkąt Paskala 1 1 1 1 2 1 1 3 3 1 Przy iloczynie będzie stał współczynnik 3. Zatem Odpowiedź : C Zadanie

Bardziej szczegółowo

Kilka ciekawostek czyli licznik. Metodologia badania naukowego. Mianownik czyli wiedza ogółem. Globalny naukowy dorobek podwaja się co lat

Kilka ciekawostek czyli licznik. Metodologia badania naukowego. Mianownik czyli wiedza ogółem. Globalny naukowy dorobek podwaja się co lat UNIWERSYTET IM. ADAMA MICKIEWICZA W POZNANIU Wydział Nauk Społecznych Instytut Psychologii Kilka ciekawostek czyli licznik Publikacje naukowe powstają od ponad 350 lat 2019, Dr Paweł Kleka Metodologia

Bardziej szczegółowo

Rozwiązania listopad 2016 Zadania zamknięte = = = 2. = =1 (D) Zad 3. Październik x; listopad 1,1x; grudzień 0,6x. (D) Zad 5. #./ 0'!

Rozwiązania listopad 2016 Zadania zamknięte = = = 2. = =1 (D) Zad 3. Październik x; listopad 1,1x; grudzień 0,6x. (D) Zad 5. #./ 0'! Zad 1., Rozwiązania listopad 2016 Zadania zamknięte 2 2 4 2 Zad 2. log 50 log 2log log 252 czyli 1 Zad 3. Październik x; listopad 1,1x; grudzień 0,6x.!,!," średnia: 0,9& czyli średnia to 90% października

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova

Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova M. Czoków, J. Piersa 2010-12-21 1 Definicja Własności Losowanie z rozkładu dyskretnego 2 3 Łańcuch Markova Definicja Własności Losowanie z rozkładu

Bardziej szczegółowo

TEST STATYSTYCZNY. Jeżeli hipotezę zerową odrzucimy na danym poziomie istotności, to odrzucimy ją na każdym większym poziomie istotności.

TEST STATYSTYCZNY. Jeżeli hipotezę zerową odrzucimy na danym poziomie istotności, to odrzucimy ją na każdym większym poziomie istotności. TEST STATYSTYCZNY Testem statystycznym nazywamy regułę postępowania rozstrzygająca, przy jakich wynikach z próby hipotezę sprawdzaną H 0 należy odrzucić, a przy jakich nie ma podstaw do jej odrzucenia.

Bardziej szczegółowo

Tablice trwania życia

Tablice trwania życia ROZDZIAŁ 3 Tablice trwania życia 1 Przyszły czas życia Osobę, która ukończyła x lat życia, będziemy nazywać x-latkiem i oznaczać symbolem x Jej przyszły czas życia, tzn od chwili x do chwili śmierci, będziemy

Bardziej szczegółowo

MODELE MATEMATYCZNE W UBEZPIECZENIACH

MODELE MATEMATYCZNE W UBEZPIECZENIACH MODELE MATEMATYCZNE W UBEZPIECZENIACH WYKŁAD 3: WYZNACZANIE ROZKŁADU CZASU PRZYSZŁEGO ŻYCIA 1 Hipoteza jednorodnej populacji Rozważmy pewną populację osób w różnym wieku i załóżmy, że każda z tych osób

Bardziej szczegółowo

Testowanie hipotez statystycznych.

Testowanie hipotez statystycznych. Bioinformatyka Wykład 6 Wrocław, 7 listopada 2011 Temat. Weryfikacja hipotez statystycznych dotyczących proporcji. Test dla proporcji. Niech X 1,..., X n będzie próbą statystyczną z 0-1. Oznaczmy odpowiednio

Bardziej szczegółowo

Przykłady do zadania 3.1 :

Przykłady do zadania 3.1 : Rachunek prawdopodobieństwa MAP5 Wydział Elektroniki, rok akad. /, sem. letni Wykładowca: dr hab. A. Jurlewicz Przykłady do listy 3: Zmienne losowe dyskretne. Rozkłady Bernoulliego (dwumianowy), Pascala,

Bardziej szczegółowo

Prawdopodobeństwo, test χ 2

Prawdopodobeństwo, test χ 2 Prawdopodobeństwo, test χ 2 Autor: Grzegorz Góralski ggoralski.com Co to jest prawdopodobieństwo? Prawdopodobieństwo = Liczba interesujących nas zdarzeń Liczba wszystkich zdarzeń Jakie jest prawdopodobieństwo

Bardziej szczegółowo

Agnieszka Nowak Brzezińska

Agnieszka Nowak Brzezińska Agnieszka Nowak Brzezińska Klasyfikacja Bayesowska jest klasyfikacją statystyczną. Pozwala przewidzieć prawdopodobieństwo przynależności obiektu do klasy. Opiera się na twierdzeniu Bayesa. Twierdzenia

Bardziej szczegółowo

Regresyjne metody łączenia klasyfikatorów

Regresyjne metody łączenia klasyfikatorów Regresyjne metody łączenia klasyfikatorów Tomasz Górecki, Mirosław Krzyśko Wydział Matematyki i Informatyki Uniwersytet im. Adama Mickiewicza XXXV Konferencja Statystyka Matematyczna Wisła 7-11.12.2009

Bardziej szczegółowo

Fuzja sygnałów i filtry bayesowskie

Fuzja sygnałów i filtry bayesowskie Fuzja sygnałów i filtry bayesowskie Roboty Manipulacyjne i Mobilne dr inż. Janusz Jakubiak Katedra Cybernetyki i Robotyki Wydział Elektroniki, Politechnika Wrocławska Wrocław, 10.03.2015 Dlaczego potrzebna

Bardziej szczegółowo

Podstawy fizyki sezon 1 III. Praca i energia

Podstawy fizyki sezon 1 III. Praca i energia Podstawy fizyki sezon 1 III. Praca i energia Agnieszka Obłąkowska-Mucha WFIiS, Katedra Oddziaływań i Detekcji Cząstek, D11, pok. 111 amucha@agh.edu.pl http://home.agh.edu.pl/~amucha F.Żarnecki Praca Rozważamy

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 2 κ-nn i Naive Bayes autorzy: M. Zięba, J.M. Tomczak, A. Gonczarek, S. Zaręba Cel zadania Celem zadania jest implementacja klasyfikatorów

Bardziej szczegółowo

Rozkłady statystyk z próby

Rozkłady statystyk z próby Rozkłady statystyk z próby Rozkłady statystyk z próby Przypuśćmy, że wykonujemy serię doświadczeń polegających na 4 krotnym rzucie symetryczną kostką do gry, obserwując liczbę wyrzuconych oczek Nr kolejny

Bardziej szczegółowo

WIELOMIANY SUPER TRUDNE

WIELOMIANY SUPER TRUDNE IMIE I NAZWISKO WIELOMIANY SUPER TRUDNE 27 LUTEGO 2011 CZAS PRACY: 210 MIN. SUMA PUNKTÓW: 200 ZADANIE 1 (5 PKT) Dany jest wielomian W(x) = x 3 + 4x + p, gdzie p > 0 jest liczba pierwsza. Znajdź p wiedzac,

Bardziej szczegółowo

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV Klasyfikatory: k-nn oraz naiwny Bayesa Agnieszka Nowak Brzezińska Wykład IV Naiwny klasyfikator Bayesa Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną

Bardziej szczegółowo

Porównanie dwóch rozkładów normalnych

Porównanie dwóch rozkładów normalnych Porównanie dwóch rozkładów normalnych Założenia: 1. X 1 N(µ 1, σ 2 1), X 2 N(µ 2, σ 2 2) 2. X 1, X 2 są niezależne Ocena µ 1 µ 2 oraz σ 2 1/σ 2 2. Próby: X 11,..., X 1n1 ; X 21,..., X 2n2 X 1, varx 1,

Bardziej szczegółowo

Ważne rozkłady i twierdzenia

Ważne rozkłady i twierdzenia Ważne rozkłady i twierdzenia Rozkład dwumianowy i wielomianowy Częstość. Prawo wielkich liczb Rozkład hipergeometryczny Rozkład Poissona Rozkład normalny i rozkład Gaussa Centralne twierdzenie graniczne

Bardziej szczegółowo

PRÓBNA MATURA ZADANIA PRZYKŁADOWE

PRÓBNA MATURA ZADANIA PRZYKŁADOWE ZESPÓŁ SZKÓŁ HOTELARSKO TURYSTYCZNO GASTRONOMICZNYCH NR UL. KRASNOŁĘCKA 3, WARSZAWA Z A D AN I A Z A M K N I Ę T E ) Liczba, której 5% jest równe 6, to : A. 0,3 C. 30. D. 0 5% 6 II sposób: x nieznana liczba

Bardziej szczegółowo

Sieci Bayesa mgr Tomasz Xięski, Instytut Informatyki, Uniwersytet Śląski Sosnowiec, 2011

Sieci Bayesa mgr Tomasz Xięski, Instytut Informatyki, Uniwersytet Śląski Sosnowiec, 2011 Sieci Bayesa mgr Tomasz Xięski, Instytut Informatyki, Uniwersytet Śląski Sosnowiec, 2011 Sieć Bayesowska służy do przedstawiania zależności pomiędzy zdarzeniami bazując na rachunku prawdopodobieństwa.

Bardziej szczegółowo

Biostatystyka, # 3 /Weterynaria I/

Biostatystyka, # 3 /Weterynaria I/ Biostatystyka, # 3 /Weterynaria I/ dr n. mat. Zdzisław Otachel Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Głęboka 28, p. 221 bud. CIW, e-mail: zdzislaw.otachel@up.lublin.pl

Bardziej szczegółowo

WYKŁAD 3. Klasyfikacja: modele probabilistyczne

WYKŁAD 3. Klasyfikacja: modele probabilistyczne Wrocław University of Technology WYKŁAD 3 Klasyfikacja: modele probabilistyczne Maciej Zięba Politechnika Wrocławska Klasyfikacja Klasyfikacja (ang. Classification): Dysponujemy obserwacjami z etykietami

Bardziej szczegółowo

Funkcja kwadratowa. f(x) = ax 2 + bx + c,

Funkcja kwadratowa. f(x) = ax 2 + bx + c, Funkcja kwadratowa. Funkcją kwadratową nazywamy funkcję f : R R określoną wzorem gdzie a, b, c R, a 0. f(x) = ax 2 + bx + c, Szczególnym przypadkiem funkcji kwadratowej jest funkcja f(x) = ax 2, a R \

Bardziej szczegółowo

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy bez pamięci w których czas i stany są zbiorami dyskretnymi. Procesy stochastyczne WYKŁAD 2-3 Łańcuchy Markowa Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi. Przykład Symetryczne błądzenie przypadkowe na prostej. 1 2 Łańcuchem

Bardziej szczegółowo

TECHNIKA DRZWI ZATRZAŚNIĘTE PRZED NOSEM

TECHNIKA DRZWI ZATRZAŚNIĘTE PRZED NOSEM Badanie pilotażowe TECHNIKA DRZWI ZATRZAŚNIĘTE PRZED NOSEM Czy łatwa prośba etyczna zostanie spełniona istotnie częściej jeśli poprzedzi się ją nieetyczną prośbą trudną? H0 nie, H1 tak. Schemat eksperymentu

Bardziej szczegółowo

Rozkład zajęć, statystyka matematyczna, Rok akademicki 2015/16, semestr letni, Grupy dla powtarzających (C15; C16)

Rozkład zajęć, statystyka matematyczna, Rok akademicki 2015/16, semestr letni, Grupy dla powtarzających (C15; C16) Rozkład zajęć, statystyka matematyczna, Rok akademicki 05/6, semestr letni, Grupy powtarzających (C5; C6) Lp Grupa C5 Grupa C6 Liczba godzin 0046 w godz 600-000 C03 0046 w godz 600-000 B05 4 6046 w godz

Bardziej szczegółowo

Prawdopodobieństwo

Prawdopodobieństwo Prawdopodobieństwo http://www.matemaks.pl/ Wstęp do rachunku prawdopodobieństwa http://www.matemaks.pl/wstep-do-rachunku-prawdopodobienstwa.html Rachunek prawdopodobieństwa pomaga obliczyć szansę zaistnienia

Bardziej szczegółowo

DODATKOWA PULA ZADAŃ DO EGZAMINU. Rozważmy ciąg zdefiniowany tak: s 0 = a. s n+1 = 2s n +b (dla n=0,1,2 ) Pokaż, że s n = 2 n a +(2 n =1)b

DODATKOWA PULA ZADAŃ DO EGZAMINU. Rozważmy ciąg zdefiniowany tak: s 0 = a. s n+1 = 2s n +b (dla n=0,1,2 ) Pokaż, że s n = 2 n a +(2 n =1)b DODATKOWA PULA ZADAŃ DO EGZAMINU Rozważmy ciąg zdefiniowany tak: s 0 = a s n+1 = 2s n +b (dla n=0,1,2 ) Pokaż, że s n = 2 n a +(2 n =1)b Udowodnij, że liczba postaci 5 n+1 +2 3 n +1 jest podzielna przez

Bardziej szczegółowo

Podstawy metod probabilistycznych. dr Adam Kiersztyn

Podstawy metod probabilistycznych. dr Adam Kiersztyn Podstawy metod probabilistycznych dr Adam Kiersztyn Przestrzeń zdarzeń elementarnych i zdarzenia losowe. Zjawiskiem lub doświadczeniem losowym nazywamy taki proces, którego przebiegu i ostatecznego wyniku

Bardziej szczegółowo

WYKŁAD 4. Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie. autor: Maciej Zięba. Politechnika Wrocławska

WYKŁAD 4. Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie. autor: Maciej Zięba. Politechnika Wrocławska Wrocław University of Technology WYKŁAD 4 Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie autor: Maciej Zięba Politechnika Wrocławska Klasyfikacja Klasyfikacja (ang. Classification):

Bardziej szczegółowo

KOMINKI WENTYLACYJNE DN110 / DN150

KOMINKI WENTYLACYJNE DN110 / DN150 KOMINKI WENTYLACYJNE / DN150 KOMINEK WENTYLACYJNY WBUDOWANA POZIOMICA Każdy kominek regulowany, posiada wbudowaną poziomicę, aby ułatwić precyzyjny montaż ZWIĘKSZENIE WYDAJNOŚCI Pierścieniowa konstrukcja

Bardziej szczegółowo

Clockwork as a solution to the flavour puzzle

Clockwork as a solution to the flavour puzzle Clockwork a a oluon to the flavour puzzle Rodrigo Alono Beyond the BSM 2//28 eab6hicbns8naej3urq/qh69lbbbuleqmeif48t2a9oq9lj+3azsbboqs+gu8efdeqz/jm//gbzudtj4yelw8y8ibfcg9f9dgobmvbo8xdt7+wefr+fikrenumwyxwmsqgcngktgw4edhofnaoedolj3dzvpkhspjypzpqgh95cfnfipiynyxa26c5b4uwkajkag/jxfxiznejpmkba9zmx5glefm4kzutzumle3ochuwshqh9rpfotnyyzuhcwnlsxqyuh9pzdtsehtjoizqxxvbn4n9dltxjjzwmquhjlovcatk/nxzmgvmiomllcmul2vdfvlbmbtcmg4k2+ve7avxprxrn6r9no+jcgdwdpfgqq3qca8naaedhgd4htxlx3p2pzwvbywdo4q+czx/jbyzp

Bardziej szczegółowo

Funkcje wymierne. Jerzy Rutkowski. Teoria. Działania dodawania i mnożenia funkcji wymiernych określa się wzorami: g h + k l g h k.

Funkcje wymierne. Jerzy Rutkowski. Teoria. Działania dodawania i mnożenia funkcji wymiernych określa się wzorami: g h + k l g h k. Funkcje wymierne Jerzy Rutkowski Teoria Przypomnijmy, że przez R[x] oznaczamy zbiór wszystkich wielomianów zmiennej x i o współczynnikach rzeczywistych. Definicja. Funkcją wymierną jednej zmiennej nazywamy

Bardziej szczegółowo

Stabilność. Krzysztof Patan

Stabilność. Krzysztof Patan Stabilność Krzysztof Patan Pojęcie stabilności systemu Rozważmy obiekt znajdujący się w punkcie równowagi Po przyłożeniu do obiektu siły F zostanie on wypchnięty ze stanu równowagi Jeżeli po upłynięciu

Bardziej szczegółowo

Pojęcie przestrzeni probabilistycznej

Pojęcie przestrzeni probabilistycznej Pojęcie przestrzeni probabilistycznej Definicja (przestrzeni probabilistycznej) Uporządkowany układ < Ω, S, P> nazywamy przestrzenią probabilistyczną jeśli (Ω) Ω jest niepustym zbiorem zwanym przestrzenia

Bardziej szczegółowo

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne 5.3 Rozkłady warunkowe i warunkowa wartość oczekiwana Katarzyna Rybarczyk-Krzywdzińska semestr zimowy 2015/2016 Prawdopodobieństwo wyraża postawę

Bardziej szczegółowo

Statystyka Inżynierska

Statystyka Inżynierska Statystyka Inżynierska dr hab. inż. Jacek Tarasiuk AGH, WFiIS 2014 Wykład 1 ODSTAWY RACHUNKU RAWDOODOBIEŃSTWA ojęcie, Własności, rawdopodobieństwo i, Twierdzenie Definicja Zdarzenie (doświadczenie) nazywamy

Bardziej szczegółowo

Klasyfikacja naiwny Bayes

Klasyfikacja naiwny Bayes Klasyfikacja naiwny Bayes LABORKA Piotr Ciskowski NAIWNY KLASYFIKATOR BAYESA wyjaśnienie Naiwny klasyfikator Bayesa żródło: Internetowy Podręcznik Statystyki Statsoft dane uczące 2 klasy - prawdopodobieństwo

Bardziej szczegółowo

STATYSTYKA wykład 1. Wanda Olech. Katedra Genetyki i Ogólnej Hodowli Zwierząt

STATYSTYKA wykład 1. Wanda Olech. Katedra Genetyki i Ogólnej Hodowli Zwierząt STTYSTYK wykład 1 Wanda Olech Katedra Genetyki i Ogólnej Hodowli Zwierząt Plan wykładów Data WYKŁDY 1.X rachunek prawdopodobieństwa; 8.X zmienna losowa jednowymiarowa, funkcja rozkładu, dystrybuanta 15.X

Bardziej szczegółowo

19 marzec, Łańcuchy Markowa z czasem dyskretnym. Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136

19 marzec, Łańcuchy Markowa z czasem dyskretnym. Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 19 marzec, 2012 Przykłady procesów Markowa (i). P = (p ij ) - macierz stochastyczna, tzn. p ij 0, j p ij =

Bardziej szczegółowo

Rachunek Prawdopodobieństwa i Statystyka

Rachunek Prawdopodobieństwa i Statystyka Rachunek Prawdopodobieństwa i Statystyka W 2. Probabilistyczne modele danych Zmienne losowe. Rozkład prawdopodobieństwa i dystrybuanta. Wartość oczekiwana i wariancja zmiennej losowej Dr Anna ADRIAN Zmienne

Bardziej szczegółowo

Wykład 2. Zdarzenia niezależne i prawdopodobieństwo całkowite

Wykład 2. Zdarzenia niezależne i prawdopodobieństwo całkowite Wstęp do probabilistyki i statystyki Wykład 2. Zdarzenia niezależne i prawdopodobieństwo całkowite dr hab.inż. Katarzyna Zakrzewska, prof.agh, Katedra lektroniki, WIT AGH Wstęp do probabilistyki i statystyki.

Bardziej szczegółowo

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy bez pamięci w których czas i stany są zbiorami dyskretnymi. Procesy stochastyczne WYKŁAD 2-3 Łańcuchy Markowa Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi. 2 Łańcuchem Markowa nazywamy proces będący ciągiem zmiennych

Bardziej szczegółowo

Wielkości liczbowe. Wykład z Podstaw Informatyki dla I roku BO. Piotr Mika

Wielkości liczbowe. Wykład z Podstaw Informatyki dla I roku BO. Piotr Mika Wielkości liczbowe Wykład z Podstaw Informatyki dla I roku BO Piotr Mika Wprowadzenie, liczby naturalne Komputer to podstawowe narzędzie do wykonywania obliczeń Jeden bajt reprezentuje 0 oraz liczby naturalne

Bardziej szczegółowo

Chcąc wyróżnić jedno z działań, piszemy np. (, ) i mówimy, że działanie wprowadza w STRUKTURĘ ALGEBRAICZNĄ lub, że (, ) jest SYSTEMEM ALGEBRAICZNYM.

Chcąc wyróżnić jedno z działań, piszemy np. (, ) i mówimy, że działanie wprowadza w STRUKTURĘ ALGEBRAICZNĄ lub, że (, ) jest SYSTEMEM ALGEBRAICZNYM. DEF. DZIAŁANIE DWUARGUMENTOWE Działaniem dwuargumentowym w niepsutym zbiorze nazywamy każde odwzorowanie iloczynu kartezjańskiego :. Inaczej mówiąc, w zbiorze jest określone działanie dwuargumentowe, jeśli:

Bardziej szczegółowo

Skrypt 2. Liczby wymierne dodatnie i niedodatnie. 3. Obliczanie odległości między dwiema liczbami na osi liczbowej

Skrypt 2. Liczby wymierne dodatnie i niedodatnie. 3. Obliczanie odległości między dwiema liczbami na osi liczbowej Projekt Innowacyjny program nauczania matematyki dla gimnazjów współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego Skrypt 2 Liczby wymierne dodatnie i niedodatnie

Bardziej szczegółowo

Arytmetyka. Działania na liczbach, potęga, pierwiastek, logarytm

Arytmetyka. Działania na liczbach, potęga, pierwiastek, logarytm Arytmetyka Działania na liczbach, potęga, pierwiastek, logarytm Zbiory liczbowe Zbiór liczb naturalnych N = {1,2,3,4, }. Zbiór liczb całkowitych Z = {, 3, 2, 1,0,1,2,3, }. Zbiory liczbowe Zbiór liczb wymiernych

Bardziej szczegółowo

Funkcje wymierne. Jerzy Rutkowski. Działania dodawania i mnożenia funkcji wymiernych określa się wzorami: g h + k l g h k.

Funkcje wymierne. Jerzy Rutkowski. Działania dodawania i mnożenia funkcji wymiernych określa się wzorami: g h + k l g h k. Funkcje wymierne Jerzy Rutkowski Teoria Przypomnijmy, że przez R[x] oznaczamy zbiór wszystkich wielomianów zmiennej x i o współczynnikach rzeczywistych Definicja Funkcją wymierną jednej zmiennej nazywamy

Bardziej szczegółowo

Rzucamy dwa razy sprawiedliwą, sześcienną kostką do gry. Oblicz prawdopodobieństwo otrzymania:

Rzucamy dwa razy sprawiedliwą, sześcienną kostką do gry. Oblicz prawdopodobieństwo otrzymania: Statystyka Ubezpieczeniowa Część 1. Rachunek prawdopodobieństwa: - prawdopodobieństwo klasyczne - zdarzenia niezależne - prawdopodobieństwo warunkowe - prawdopodobieństwo całkowite - wzór Bayesa Schemat

Bardziej szczegółowo

Wykład 9 Testy rangowe w problemie dwóch prób

Wykład 9 Testy rangowe w problemie dwóch prób Wykład 9 Testy rangowe w problemie dwóch prób Wrocław, 18 kwietnia 2018 Test rangowy Testem rangowym nazywamy test, w którym statystyka testowa jest konstruowana w oparciu o rangi współrzędnych wektora

Bardziej szczegółowo

Klasyfikacja i regresja Wstęp do środowiska Weka

Klasyfikacja i regresja Wstęp do środowiska Weka Klasyfikacja i regresja Wstęp do środowiska Weka 19 listopada 2015 Opis pliku z zadaniami Wszystkie zadania na zajęciach będą przekazywane w postaci plików pdf sformatowanych podobnie do tego dokumentu.

Bardziej szczegółowo

Rozpoznawanie obrazów

Rozpoznawanie obrazów Rozpoznawanie obrazów Laboratorium Python Zadanie nr 2 κ-nn i Naive Bayes autorzy: M. Zięba, J.M. Tomczak, A. Gonczarek, S. Zaręba, J. Kaczmar Cel zadania Celem zadania jest implementacja klasyfikatorów

Bardziej szczegółowo