Klasyfikacja bayesowska
|
|
- Sebastian Jóźwiak
- 8 lat temu
- Przeglądów:
Transkrypt
1 Wykład14,26V2010,str.1 Przykład: (Bishop) M Jabłka i pomarańcze: Wyciągnięto pomarańczę; jakie jest prawdopodobieństwo, że naczynie było niebieskie?
2 Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) M
3 Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami
4 Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i.
5 Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i. Wtedy P(T k X)= P(X T k) P(T k ) P(X) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i )
6 Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i. Wtedy Dowód: P(T k X)= P(X T k) P(T k ) P(X) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i )
7 Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i. Wtedy Dowód: P(T k X)= P(X T k) P(T k ) P(X) Zdefinicji:P(A B)= P(A,B) P(B) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i )
8 Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i. Wtedy P(T k X)= P(X T k) P(T k ) P(X) Dowód: Zdefinicji:P(A B)= P(A,B) P(B) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i ) Dlarozłącznychzdarzeń:P( n i=1 A i)= n i=1 P(A i)
9 Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i. Wtedy P(T k X)= P(X T k) P(T k ) P(X) Dowód: Zdefinicji:P(A B)= P(A,B) P(B) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i ) Dlarozłącznychzdarzeń:P( n i=1 A i)= n i=1 P(A i) P(T k X)= P(T k,x) P(X)
10 Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i. Wtedy P(T k X)= P(X T k) P(T k ) P(X) Dowód: Zdefinicji:P(A B)= P(A,B) P(B) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i ) Dlarozłącznychzdarzeń:P( n i=1 A i)= n i=1 P(A i) P(T k X)= P(T k,x) P(X) = P(X,T k) P(T k ) P(T k) P(X)
11 Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i. Wtedy P(T k X)= P(X T k) P(T k ) P(X) Dowód: Zdefinicji:P(A B)= P(A,B) P(B) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i ) Dlarozłącznychzdarzeń:P( n i=1 A i)= n i=1 P(A i) P(T k X)= P(T k,x) P(X) = P(X T k) P(T k ) P(X) = P(X,T k) P(T k ) P(T k) P(X)
12 Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i. Wtedy P(T k X)= P(X T k) P(T k ) P(X) Dowód: Zdefinicji:P(A B)= P(A,B) P(B) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i ) Dlarozłącznychzdarzeń:P( n i=1 A i)= n i=1 P(A i) P(T k X)= P(T k,x) P(X) = P(X,T k) P(T k ) P(T k) P(X) = P(X T k) P(T k ) P(X) = P(X T k) P(T k ) n i=1 P(X,T i)
13 Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i. Wtedy P(T k X)= P(X T k) P(T k ) P(X) Dowód: Zdefinicji:P(A B)= P(A,B) P(B) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i ) Dlarozłącznychzdarzeń:P( n i=1 A i)= n i=1 P(A i) P(T k X)= P(T k,x) P(X) = P(X,T k) P(T k ) P(T k) P(X) = P(X T k) P(T k ) P(X) = P(X T k) P(T k ) n i=1 P(X,T i) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i )
14 Wykład14,26V2010,str.3 Przykład: (Bishop) M P(pom)= 7 = 7 P(nb)= 4 = P(pom nb)= 1 4
15 Wykład14,26V2010,str.3 Przykład: (Bishop) M P(pom)= 7 = 7 P(nb)= 4 = P(pom nb)= 1 4
16 Wykład14,26V2010,str.3 Przykład: (Bishop) M P(pom)= 7 = 7 P(nb)= 4 = P(pom nb)= 1 4
17 Wykład14,26V2010,str.3 Przykład: (Bishop) M P(pom)= 7 = 7 P(nb)= 4 = P(pom nb)= 1 4
18 Wykład14,26V2010,str.3 Przykład: (Bishop) M P(pom)= 7 = 7 P(nb)= 4 = P(pom nb)= 1 4 P(nb pom)
19 Wykład14,26V2010,str.3 Przykład: (Bishop) M P(pom)= = 7 12 P(nb)= =1 3 P(nb pom)= P(pom nb)= 1 4 = P(pom nb) P(nb) P(pom)
20 Wykład14,26V2010,str.3 Przykład: (Bishop) M P(pom)= 7 = 7 P(nb)= 4 = P(nb pom)= P(pom nb)= 1 4 = P(pom nb) P(nb) P(pom) =
21 Wykład14,26V2010,str.3 Przykład: (Bishop) M P(pom)= 7 = 7 P(nb)= 4 = P(nb pom)= P(pom nb)= 1 4 = P(pom nb) P(nb) P(pom) = =
22 Wykład14,26V2010,str.3 Przykład: (Bishop) M P(pom)= 7 = 7 P(nb)= 4 = P(nb pom)= P(pom nb)= 1 4 = P(pom nb) P(nb) P(pom) = = = 1 7
23 Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki.
24 Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99
25 Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99 więc P( nark)=0.01
26 Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99 więc P( nark)=0.01; prawd. że wynik tego testu dla nienarkomana jest ujemny: P( nark)=0.99
27 Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99 więc P( nark)=0.01; prawd. że wynik tego testu dla nienarkomana jest ujemny: P( nark)=0.99 więc P(+ nark)=0.01
28 Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99 więc P( nark)=0.01; prawd. że wynik tego testu dla nienarkomana jest ujemny: P( nark)=0.99 więc P(+ nark)=0.01; społeczeństwa to narkomani.
29 Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99 więc P( nark)=0.01; prawd. że wynik tego testu dla nienarkomana jest ujemny: P( nark)=0.99 więc P(+ nark)=0.01; społeczeństwa to narkomani. Badamy konkretną osobę i test daje wynik pozytywny. Jakie jest prawdopodobieństwo, że trafiliśmy na narkomana?
30 Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99 więc P( nark)=0.01; prawd. że wynik tego testu dla nienarkomana jest ujemny: P( nark)=0.99 więc P(+ nark)=0.01; społeczeństwa to narkomani. Badamy konkretną osobę i test daje wynik pozytywny. Jakie jest prawdopodobieństwo, że trafiliśmy na narkomana? P(nark +) = P(+ nark) P(nark) P(+ nark) P(nark)+P(+ nark) P( nark)
31 Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99 więc P( nark)=0.01; prawd. że wynik tego testu dla nienarkomana jest ujemny: P( nark)=0.99 więc P(+ nark)=0.01; społeczeństwa to narkomani. Badamy konkretną osobę i test daje wynik pozytywny. Jakie jest prawdopodobieństwo, że trafiliśmy na narkomana? P(nark +) = P(+ nark) P(nark) P(+ nark) P(nark)+P(+ nark) P( nark)
32 Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99 więc P( nark)=0.01; prawd. że wynik tego testu dla nienarkomana jest ujemny: P( nark)=0.99 więc P(+ nark)=0.01; społeczeństwa to narkomani. Badamy konkretną osobę i test daje wynik pozytywny. Jakie jest prawdopodobieństwo, że trafiliśmy na narkomana? P(nark +) = P(+ nark) P(nark) P(+ nark) P(nark)+P(+ nark) P( nark) =
33 Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99 więc P( nark)=0.01; prawd. że wynik tego testu dla nienarkomana jest ujemny: P( nark)=0.99 więc P(+ nark)=0.01; społeczeństwa to narkomani. Badamy konkretną osobę i test daje wynik pozytywny. Jakie jest prawdopodobieństwo, że trafiliśmy na narkomana? P(nark +) = P(+ nark) P(nark) P(+ nark) P(nark)+P(+ nark) P( nark) =
34 Wykład14,26V2010,str.5 Przykład: (amerykańskie zaliczenia) M
35 Wykład14,26V2010,str.5 Przykład: (amerykańskie zaliczenia) M wśród słuchaczy byli Amerykanie i Chińczycy: P(A)=0.9 P(C)=0.1
36 Wykład14,26V2010,str.5 Przykład: (amerykańskie zaliczenia) M wśród słuchaczy byli Amerykanie i Chińczycy: P(A)=0.9 P(C)=0.1 wśród Amerykanów było znacznie więcej mężczyzn niż kobiet; wśród Chińczyków po równo: P(k A)=0.1 P(m A)=0.9 P(k C)=0.5 P(m C)=0.5
37 Wykład14,26V2010,str.5 Przykład: (amerykańskie zaliczenia) M wśród słuchaczy byli Amerykanie i Chińczycy: P(A)=0.9 P(C)=0.1 wśród Amerykanów było znacznie więcej mężczyzn niż kobiet; wśród Chińczyków po równo: P(k A)=0.1 P(m A)=0.9 P(k C)=0.5 P(m C)=0.5 Chińczycy nie mieli problemu z zaliczeniem, niezależnie od płci: P(zal C,k)=1 P(zal C,m)=1
38 Wykład14,26V2010,str.5 Przykład: (amerykańskie zaliczenia) M wśród słuchaczy byli Amerykanie i Chińczycy: P(A)=0.9 P(C)=0.1 wśród Amerykanów było znacznie więcej mężczyzn niż kobiet; wśród Chińczyków po równo: P(k A)=0.1 P(m A)=0.9 P(k C)=0.5 P(m C)=0.5 Chińczycy nie mieli problemu z zaliczeniem, niezależnie od płci: P(zal C,k)=1 P(zal C,m)=1 Amerykanie byli słabsi a Amerykanki beznadziejnie słabe: P(zal A,k)=0.2 P(zal A,m)=0.4
39 Wykład14,26V2010,str.5 Przykład: (amerykańskie zaliczenia) M wśród słuchaczy byli Amerykanie i Chińczycy: P(A)=0.9 P(C)=0.1 wśród Amerykanów było znacznie więcej mężczyzn niż kobiet; wśród Chińczyków po równo: P(k A)=0.1 P(m A)=0.9 P(k C)=0.5 P(m C)=0.5 Chińczycy nie mieli problemu z zaliczeniem, niezależnie od płci: P(zal C,k)=1 P(zal C,m)=1 Amerykanie byli słabsi a Amerykanki beznadziejnie słabe: P(zal A,k)=0.2 P(zal A,m)=0.4 Na tej podstawie zespół d/s equal opportunity(równego traktowania) zarzucił mi szykanowanie kobiet.
40 Wykład14,26V2010,str.6 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1
41 Wykład14,26V2010,str.6 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)= =0.09
42 Wykład14,26V2010,str.6 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05
43 Wykład14,26V2010,str.6 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05 więc P(zal k)= P(zal,k) P(k)
44 Wykład14,26V2010,str.6 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05 więc P(zal k)= P(zal,k) P(k) = P(zal,A,k)+P(zal,C,k) P(A,k)+P(C,k)
45 Wykład14,26V2010,str.6 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem więc P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05 P(zal k)= P(zal,k) P(k) = P(zal,A,k)+P(zal,C,k) P(A,k)+P(C,k) = P(zal A,k) P(A,k)+P(zal C,k) P(C,k) P(A,k)+P(C,k)
46 Wykład14,26V2010,str.6 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem więc P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05 P(zal k)= P(zal,k) P(k) = P(zal,A,k)+P(zal,C,k) P(A,k)+P(C,k) = P(zal A,k) P(A,k)+P(zal C,k) P(C,k) P(A,k)+P(C,k) =
47 Wykład14,26V2010,str.6 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05 więc P(zal k)= P(zal,k) P(k) = P(zal,A,k)+P(zal,C,k) P(A,k)+P(C,k) = P(zal A,k) P(A,k)+P(zal C,k) P(C,k) P(A,k)+P(C,k) =
48 Wykład14,26V2010,str.7 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05
49 Wykład14,26V2010,str.7 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05 więc P(zal m)= P(zal,m) P(m)
50 Wykład14,26V2010,str.7 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05 więc P(zal m)= P(zal,m) P(m) = P(zal,A,m)+P(zal,C,m) P(A,m)+P(C,m)
51 Wykład14,26V2010,str.7 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem więc P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05 P(zal m)= P(zal,m) P(m) = P(zal,A,m)+P(zal,C,m) P(A,m)+P(C,m) = P(zal A,m) P(A,m)+P(zal C,m) P(C,m) P(A,m)+P(C,m)
52 Wykład14,26V2010,str.7 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem więc P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05 P(zal m)= P(zal,m) P(m) = P(zal,A,m)+P(zal,C,m) P(A,m)+P(C,m) = P(zal A,m) P(A,m)+P(zal C,m) P(C,m) P(A,m)+P(C,m) =
53 Wykład14,26V2010,str.7 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05 więc P(zal m)= P(zal,m) P(m) = P(zal,A,m)+P(zal,C,m) P(A,m)+P(C,m) = P(zal A,m) P(A,m)+P(zal C,m) P(C,m) P(A,m)+P(C,m) =
54 Wykład14,26V2010,str.7 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05 więc P(zal m)= P(zal,m) P(m) = P(zal,A,m)+P(zal,C,m) P(A,m)+P(C,m) = P(zal A,m) P(A,m)+P(zal C,m) P(C,m) P(A,m)+P(C,m) 0.435<0.486=P(zal k) =
55 Wykład14,26V2010,str.8 TWIERDZENIE: (uogólnione Bayesa) MZałóżmy,żee 1,...,e n,e,hsązdarzeniami;ozn.:ē def =e 1 &...&e n.wtedy P(h e,ē)= P(e h,ē) P(h ē) P(e ē)
56 Wykład14,26V2010,str.8 TWIERDZENIE: (uogólnione Bayesa) MZałóżmy,żee 1,...,e n,e,hsązdarzeniami;ozn.:ē def =e 1 &...&e n.wtedy Dowód: P(h e,ē)= P(e h,ē) P(h ē) P(e ē) P(h e,ē)= P(h,e,ē) P(e,ē)
57 Wykład14,26V2010,str.8 TWIERDZENIE: (uogólnione Bayesa) MZałóżmy,żee 1,...,e n,e,hsązdarzeniami;ozn.:ē def =e 1 &...&e n.wtedy Dowód: P(h e,ē)= P(e h,ē) P(h ē) P(e ē) P(h e,ē)= P(h,e,ē) P(e,ē) = P(e h,ē) P(h,ē) P(e ē) P(ē)
58 Wykład14,26V2010,str.8 TWIERDZENIE: (uogólnione Bayesa) MZałóżmy,żee 1,...,e n,e,hsązdarzeniami;ozn.:ē def =e 1 &...&e n.wtedy Dowód: P(h e,ē)= P(e h,ē) P(h ē) P(e ē) P(h e,ē)= P(h,e,ē) P(e,ē) = P(e h,ē) P(h,ē) P(e ē) P(ē) = P(e h,ē) P(h ē) P(ē) P(e ē) P(ē)
59 Wykład14,26V2010,str.8 TWIERDZENIE: (uogólnione Bayesa) MZałóżmy,żee 1,...,e n,e,hsązdarzeniami;ozn.:ē def =e 1 &...&e n.wtedy Dowód: P(h e,ē)= P(e h,ē) P(h ē) P(e ē) P(h e,ē)= P(h,e,ē) P(e,ē) = P(e h,ē) P(h,ē) P(e ē) P(ē) = P(e h,ē) P(h ē) P(ē) P(e ē) P(ē) = P(e h,ē) P(h ē) P(e ē)
60 Wykład14,26V2010,str.8 TWIERDZENIE: (uogólnione Bayesa) MZałóżmy,żee 1,...,e n,e,hsązdarzeniami;ozn.:ē def =e 1 &...&e n.wtedy Dowód: P(h e,ē)= P(e h,ē) P(h ē) P(e ē) P(h e,ē)= P(h,e,ē) P(e,ē) = P(e h,ē) P(h,ē) P(e ē) P(ē) = P(e h,ē) P(h ē) P(ē) P(e ē) P(ē) = P(e h,ē) P(h ē) P(e ē) Wniosek: MJeślizdarzeniae 1,...,e n sąniezależne,to P(h e,ē)= P(e h) P(e) P(h ē)
61 Wykład14,26V2010,str.9 Wniosek: MJeślizdarzeniae 1,...,e n sąniezależne,to P(h e,ē)= P(e h) P(e) P(h ē)
62 Wykład14,26V2010,str.9 Wniosek: MJeślizdarzeniae 1,...,e n sąniezależne,to P(h e,ē)= P(e h) P(e) P(h ē) wniosek z uogólnionego tw. Bayesa stosowany jest do wyliczania prawdopodobieństwa,żezachodzihipotezah,woparciuohipotezyē
63 Wykład14,26V2010,str.9 Wniosek: MJeślizdarzeniae 1,...,e n sąniezależne,to P(h e,ē)= P(e h) P(e) P(h ē) wniosek z uogólnionego tw. Bayesa stosowany jest do wyliczania prawdopodobieństwa,żezachodzihipotezah,woparciuohipotezyē; założenie o niezależności obserwacji, bardzo upraszczające obliczenia, zwykle jest spełnione, lub przynajmniej spełnione w przybliżeniu
64 Wykład14,26V2010,str.9 Wniosek: MJeślizdarzeniae 1,...,e n sąniezależne,to P(h e,ē)= P(e h) P(e) P(h ē) wniosek z uogólnionego tw. Bayesa stosowany jest do wyliczania prawdopodobieństwa,żezachodzihipotezah,woparciuohipotezyē; założenie o niezależności obserwacji, bardzo upraszczające obliczenia, zwykle jest spełnione, lub przynajmniej spełnione w przybliżeniu; wniosek pokazuje, jak zmienia się prawdopodobieństwo spełnienia h w wyniku dodania kolejnej obserwacji
65 Wykład14,26V2010,str.9 Wniosek: MJeślizdarzeniae 1,...,e n sąniezależne,to P(h e,ē)= P(e h) P(e) P(h ē) wniosek z uogólnionego tw. Bayesa stosowany jest do wyliczania prawdopodobieństwa,żezachodzihipotezah,woparciuohipotezyē; założenie o niezależności obserwacji, bardzo upraszczające obliczenia, zwykle jest spełnione, lub przynajmniej spełnione w przybliżeniu; wniosek pokazuje, jak zmienia się prawdopodobieństwo spełnienia h w wyniku dodania kolejnej obserwacji; dysponujemy trzema równościami: P(h e,ē)= P(e h) P(h ē) P(e) P( h e,ē)= P(e h) P( h ē) P(e) P(h e,ē)+p( h e,ē)=1
66 Wykład14,26V2010,str.9 Wniosek: MJeślizdarzeniae 1,...,e n sąniezależne,to P(h e,ē)= P(e h) P(e) P(h ē) wniosek z uogólnionego tw. Bayesa stosowany jest do wyliczania prawdopodobieństwa,żezachodzihipotezah,woparciuohipotezyē; założenie o niezależności obserwacji, bardzo upraszczające obliczenia, zwykle jest spełnione, lub przynajmniej spełnione w przybliżeniu; wniosek pokazuje, jak zmienia się prawdopodobieństwo spełnienia h w wyniku dodania kolejnej obserwacji; dysponujemy trzema równościami: P(h e,ē)= P(e h) P(h ē) P(e) P( h e,ē)= P(e h) P( h ē) P(e) P(h e,ē)+p( h e,ē)=1 nieznamyp(e),p(h e,ē),p( h e,ē)
67 Wykład14,26V2010,str.9 Wniosek: MJeślizdarzeniae 1,...,e n sąniezależne,to P(h e,ē)= P(e h) P(e) P(h ē) wniosek z uogólnionego tw. Bayesa stosowany jest do wyliczania prawdopodobieństwa,żezachodzihipotezah,woparciuohipotezyē; założenie o niezależności obserwacji, bardzo upraszczające obliczenia, zwykle jest spełnione, lub przynajmniej spełnione w przybliżeniu; wniosek pokazuje, jak zmienia się prawdopodobieństwo spełnienia h w wyniku dodania kolejnej obserwacji; dysponujemy trzema równościami: P(h e,ē)= P(e h) P(h ē) P(e) P( h e,ē)= P(e h) P( h ē) P(e) P(h e,ē)+p( h e,ē)=1 nieznamyp(e),p(h e,ē),p( h e,ē) znamyp(e h),p(e h),p(h ē),p( h ē)
68 Wykład14,26V2010,str.10 Przykład: (prof. Wierzchoń) MObserwacje: e 1 pacjentmagorączkę, e 2 pacjentkaszle, e 3 pacjentmakatar.
69 Wykład14,26V2010,str.10 Przykład: (prof. Wierzchoń) MObserwacje: e 1 pacjentmagorączkę, e 2 pacjentkaszle, e 3 pacjentmakatar. Hipoteza: h pacjent ma grypę.
70 Wykład14,26V2010,str.10 Przykład: (prof. Wierzchoń) MObserwacje: e 1 pacjentmagorączkę, e 2 pacjentkaszle, e 3 pacjentmakatar. Hipoteza: h pacjent ma grypę. Panuje grypa; prawdopodobieństwo, że pacjent, zgłaszający się do lekarza, magrypę,wynosip(h)=0.8.
71 Wykład14,26V2010,str.10 Przykład: (prof. Wierzchoń) MObserwacje: e 1 pacjentmagorączkę, e 2 pacjentkaszle, e 3 pacjentmakatar. Hipoteza: h pacjent ma grypę. Panuje grypa; prawdopodobieństwo, że pacjent, zgłaszający się do lekarza, magrypę,wynosip(h)=0.8.zpodręcznikamedycyny: P(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6
72 Wykład14,26V2010,str.10 Przykład: (prof. Wierzchoń) MObserwacje: e 1 pacjentmagorączkę, e 2 pacjentkaszle, e 3 pacjentmakatar. Hipoteza: h pacjent ma grypę. Panuje grypa; prawdopodobieństwo, że pacjent, zgłaszający się do lekarza, magrypę,wynosip(h)=0.8.zpodręcznikamedycyny: P(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4
73 Wykład14,26V2010,str.10 Przykład: (prof. Wierzchoń) MObserwacje: e 1 pacjentmagorączkę, e 2 pacjentkaszle, e 3 pacjentmakatar. Hipoteza: h pacjent ma grypę. Panuje grypa; prawdopodobieństwo, że pacjent, zgłaszający się do lekarza, magrypę,wynosip(h)=0.8.zpodręcznikamedycyny: P(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 Konkretny pacjent ma gorączkę i katar, ale nie kaszle; jakie jest prawdopodobieństwo, że ma grypę?
74 Wykład14,26V2010,str.10 Przykład: (prof. Wierzchoń) MObserwacje: e 1 pacjentmagorączkę, e 2 pacjentkaszle, e 3 pacjentmakatar. Hipoteza: h pacjent ma grypę. Panuje grypa; prawdopodobieństwo, że pacjent, zgłaszający się do lekarza, magrypę,wynosip(h)=0.8.zpodręcznikamedycyny: P(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 Konkretny pacjent ma gorączkę i katar, ale nie kaszle; jakie jest prawdopodobieństwo, że ma grypę? P(h e 1, e 2,e 3 )=?
75 Wykład14,26V2010,str.11 Przykład: (prof. Wierzchoń) P(h)=0.8 MP(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4
76 Wykład14,26V2010,str.11 Przykład: (prof. Wierzchoń) P(h)=0.8 MP(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )= P(e 1 h) P(e 1 ) P(h)= 0.7 P(e 1 ) 0.8
77 Wykład14,26V2010,str.11 Przykład: (prof. Wierzchoń) P(h)=0.8 MP(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )= P(e 1 h) P(e 1 ) P( h e 1 )= P(e 1 h) P(e 1 ) P(h)= 0.7 P(e 1 ) 0.8 P( h)= 0.6 P(e 1 ) 0.2
78 Wykład14,26V2010,str.11 Przykład: (prof. Wierzchoń) P(h)=0.8 MP(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )= P(e 1 h) P(e 1 ) P( h e 1 )= P(e 1 h) P(e 1 ) P(h)= 0.7 P(e 1 ) 0.8 1= 1 P(e 1 ) ( ) P( h)= 0.6 P(e 1 ) 0.2
79 Wykład14,26V2010,str.11 Przykład: (prof. Wierzchoń) P(h)=0.8 MP(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )= P(e 1 h) P(e 1 ) P( h e 1 )= P(e 1 h) P(e 1 ) P(h)= 0.7 P(e 1 ) 0.8 1= 1 P(e 1 ) ( ) P(e 1 )= =0.68 P( h)= 0.6 P(e 1 ) 0.2
80 Wykład14,26V2010,str.11 Przykład: (prof. Wierzchoń) P(h)=0.8 MP(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )= P(e 1 h) P(e 1 ) P( h e 1 )= P(e 1 h) P(e 1 ) P(h)= 0.7 P(e 1 ) 0.8 1= 1 P(e 1 ) ( ) P(e 1 )= =0.68 P( h)= 0.6 P(e 1 ) 0.2 P(h e 1 )= =0.82
81 Wykład14,26V2010,str.11 Przykład: (prof. Wierzchoń) P(h)=0.8 MP(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )= P(e 1 h) P(e 1 ) P( h e 1 )= P(e 1 h) P(e 1 ) P(h)= 0.7 P(e 1 ) 0.8 1= 1 P(e 1 ) ( ) P(e 1 )= =0.68 P( h)= 0.6 P(e 1 ) 0.2 P(h e 1 )= =0.82 P( h e 1)= =0.18
82 Wykład14,26V2010,str.12 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e M 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18
83 Wykład14,26V2010,str.12 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e M 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18 P(h e 1, e 2 )= P( e 2 h) P( e 2 ) P(h e 1 )= 0.6 P( e 2 ) 0.82
84 Wykład14,26V2010,str.12 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e M 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18 P(h e 1, e 2 )= P( e 2 h) P( e 2 ) P( h e 1, e 2 )= P( e 2 h) P( e 2 ) P(h e 1 )= 0.6 P( e 2 ) 0.82 P( h e 1 )= 0.7 P( e 2 ) 0.18
85 Wykład14,26V2010,str.12 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e M 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18 P(h e 1, e 2 )= P( e 2 h) P( e 2 ) P( h e 1, e 2 )= P( e 2 h) P( e 2 ) 1= 1 P( e 2 ) ( ) P(h e 1 )= 0.6 P( e 2 ) 0.82 P( h e 1 )= 0.7 P( e 2 ) 0.18
86 Wykład14,26V2010,str.12 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e M 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18 P(h e 1, e 2 )= P( e 2 h) P( e 2 ) P( h e 1, e 2 )= P( e 2 h) P( e 2 ) 1= 1 P( e 2 ) ( ) P( e 2 )= =0.62 P(h e 1 )= 0.6 P( e 2 ) 0.82 P( h e 1 )= 0.7 P( e 2 ) 0.18
87 Wykład14,26V2010,str.12 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e M 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18 P(h e 1, e 2 )= P( e 2 h) P( e 2 ) P( h e 1, e 2 )= P( e 2 h) P( e 2 ) 1= 1 P( e 2 ) ( ) P( e 2 )= =0.62 P(h e 1 )= 0.6 P( e 2 ) 0.82 P( h e 1 )= 0.7 P( e 2 ) 0.18 P(h e 1, e 2 )= =0.8 P( h e 1, e 2 )= =0.2
88 Wykład14,26V2010,str.13 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 MP(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18 P(h e 1, e 2 )=0.8 P( h e 1, e 2 )=0.2
89 Wykład14,26V2010,str.13 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 MP(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18 P(h e 1, e 2 )=0.8 P( h e 1, e 2 )=0.2 P(h e 1, e 2,e 3 )= P(e 3 h) P(e 3 ) P( h e 1, e 2,e 3 )= P(e 3 h) P(e 3 ) 1= 1 P(e 3 ) ( ) P(e 3 )= =0.56 P(h e 1, e 2 )= 0.6 P(e 3 ) 0.8 P( h e 1, e 2 )= 0.4 P(e 3 ) 0.2
90 Wykład14,26V2010,str.13 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 MP(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18 P(h e 1, e 2 )=0.8 P( h e 1, e 2 )=0.2 P(h e 1, e 2,e 3 )= P(e 3 h) P(e 3 ) P( h e 1, e 2,e 3 )= P(e 3 h) P(e 3 ) 1= 1 P(e 3 ) ( ) P(e 3 )= =0.56 P(h e 1, e 2 )= 0.6 P(e 3 ) 0.8 P(h e 1, e 2,e 3 )= =0.86 P( h e 1, e 2 )= 0.4 P(e 3 ) 0.2
91 Wykład14,26V2010,str.13 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 MP(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18 P(h e 1, e 2 )=0.8 P( h e 1, e 2 )=0.2 P(h e 1, e 2,e 3 )= P(e 3 h) P(e 3 ) P( h e 1, e 2,e 3 )= P(e 3 h) P(e 3 ) 1= 1 P(e 3 ) ( ) P(e 3 )= =0.56 P(h e 1, e 2 )= 0.6 P(e 3 ) 0.8 P(h e 1, e 2,e 3 )= =0.86 P( h e 1, e 2 )= 0.4 P(e 3 ) 0.2
92 Wykład14,26V2010,str.14 Jak nowe obserwacje zmieniają prawdopodobieństwo spełnienia hipotezy h?
93 Wykład14,26V2010,str.14 Jak nowe obserwacje zmieniają prawdopodobieństwo spełnienia hipotezy h: P(h)=0.8 P(h e 1 )=0.82 P(h e 1, e 2 )=0.8 P(h e 1, e 2,e 3 )=0.86
94 Wykład14,26V2010,str.14 Jak nowe obserwacje zmieniają prawdopodobieństwo spełnienia hipotezy h: P(h)=0.8 P(h e 1 )=0.82 P(h e 1, e 2 )=0.8 P(h e 1, e 2,e 3 )=0.86
95 Wykład14,26V2010,str.14 Jak nowe obserwacje zmieniają prawdopodobieństwo spełnienia hipotezy h: P(h)=0.8 P(h e 1 )=0.82 P(h e 1, e 2 )=0.8 P(h e 1, e 2,e 3 )=0.86
96 Wykład14,26V2010,str.14 Jak nowe obserwacje zmieniają prawdopodobieństwo spełnienia hipotezy h: P(h)=0.8 P(h e 1 )=0.82 P(h e 1, e 2 )=0.8 P(h e 1, e 2,e 3 )=0.86
97 Wykład14,26V2010,str.15 Naiwny klasyfikator Bayesowski
98 Wykład14,26V2010,str.15 Naiwny klasyfikator Bayesowski Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM rynek wygrałeś szybko SPAM
99 Wykład14,26V2010,str.15 Naiwny klasyfikator Bayesowski Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM rynek wygrałeś szybko SPAM Jak zaklasyfikować nowy dokument?
100 Wykład14,26V2010,str.15 Naiwny klasyfikator Bayesowski Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM rynek wygrałeś szybko SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM?
101 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= = 2 7 P(szybko S)= =1 7 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM? rynek wygrałeś szybko SPAM
102 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= = 2 7 P(szybko S)= = 1 7 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM? rynek wygrałeś szybko SPAM
103 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= = 2 7 P(szybko S)= = 1 7 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM? rynek wygrałeś szybko SPAM
104 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= = 2 7 P(szybko S)= = 1 7 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM? rynek wygrałeś szybko SPAM
105 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= = 2 7 P(szybko S)= = 1 7 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM? rynek wygrałeś szybko SPAM
106 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= = 2 7 P(szybko S)= = 1 7 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM? rynek wygrałeś szybko SPAM
107 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= = 2 7 P(szybko S)= = 1 7 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM? rynek wygrałeś szybko SPAM
108 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= = 2 7 P(szybko S)= = 1 7 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM? rynek wygrałeś szybko SPAM
109 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= =2 7 P(szybko S)= =1 7 prawd., że nie spam: P( S) P(rynek S) P(szybko S) Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM? rynek wygrałeś szybko SPAM
110 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek wygrałeś szybko SPAM prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= =2 7 P(szybko S)= =1 7 prawd., że nie spam: P( S) P(rynek S) P(szybko S)= rynek szybko CZY SPAM?
111 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek wygrałeś szybko SPAM prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= 1+1= P(szybko S)= 0+1= prawd., że nie spam: P( S) P(rynek S) P(szybko S)= rynek szybko CZY SPAM? P(S rynek,szybko)=
112 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek wygrałeś szybko SPAM prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= 1+1= P(szybko S)= 0+1= prawd., że nie spam: P( S) P(rynek S) P(szybko S)= rynek szybko CZY SPAM? P(S rynek,szybko)=
113 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek wygrałeś szybko SPAM prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= 1+1= P(szybko S)= 0+1= prawd., że nie spam: P( S) P(rynek S) P(szybko S)= rynek szybko CZY SPAM? P(S rynek,szybko)= P( S rynek,szybko)=
114 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek wygrałeś szybko SPAM prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= 1+1= P(szybko S)= 0+1= prawd., że nie spam: P( S) P(rynek S) P(szybko S)= rynek szybko CZY SPAM? P(S rynek,szybko)= P( S rynek,szybko)= <P(S rynek,szybko)
115 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek wygrałeś szybko SPAM prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= =2 7 P(szybko S)= =1 7 prawd., że nie spam: P( S) P(rynek S) P(szybko S)= rynek szybko CZY SPAM? P(S rynek,szybko)= P( S rynek,szybko)= <P(S rynek,szybko) Więc spam.
116 Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh
117 Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki).
118 Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n )
119 Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n ) 1 = P(x 1,...,x ) P(h) P(x 1 h)... P(x n h) n
120 Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n ) 1 = P(x 1,...,x ) P(h) P(x 1 h)... P(x n h) n P(h)= D h D
121 Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n ) 1 = P(x 1,...,x ) P(h) P(x 1 h)... P(x n h) n P(h)= D h D prawd.hapriori: D htoliczbadok.spełniającychh
122 Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n ) 1 = P(x 1,...,x ) P(h) P(x 1 h)... P(x n h) n P(h)= D h D prawd.hapriori: D htoliczbadok.spełniającychh, D to liczba wszystkich dok.
123 Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n ) 1 = P(x 1,...,x ) P(h) P(x 1 h)... P(x n h) n P(h)= D h D prawd.hapriori: D htoliczbadok.spełniającychh, D to liczba wszystkich dok. P(x i h) T i +1 Z k=1 (T k+1)
124 Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n ) 1 = P(x 1,...,x ) P(h) P(x 1 h)... P(x n h) n P(h)= D h D prawd.hapriori: D htoliczbadok.spełniającychh, D to liczba wszystkich dok. P(x i h) T i +1 Z k=1 (T k+1) = T i +1 ( Z k=1 T k)+z
125 Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n ) 1 = P(x 1,...,x ) P(h) P(x 1 h)... P(x n h) n P(h)= D h D prawd.hapriori: D htoliczbadok.spełniającychh, D to liczba wszystkich dok. T i +1 P(x i h) Z k=1 (T k+1) = T i +1 ( Z k=1 T k)+z T i toliczbawystąpieńcechyx i wdokumentachspełniającychh
126 Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n ) 1 = P(x 1,...,x ) P(h) P(x 1 h)... P(x n h) n P(h)= D h D prawd.hapriori: D htoliczbadok.spełniającychh, D to liczba wszystkich dok. T i +1 P(x i h) Z k=1 (T k+1) = T i +1 ( Z k=1 T k)+z T i toliczbawystąpieńcechyx i wdokumentachspełniającychh, Z to liczba cech występujących w dokumentach spełniających h
127 Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n ) 1 = P(x 1,...,x ) P(h) P(x 1 h)... P(x n h) n P(h)= D h D prawd.hapriori: D htoliczbadok.spełniającychh, D to liczba wszystkich dok. T i +1 P(x i h) Z k=1 (T k+1) = T i +1 ( Z k=1 T k)+z T i toliczbawystąpieńcechyx i wdokumentachspełniającychh, Z to liczba cech występujących w dokumentach spełniających h, Z k=1 T ktoliczbawystąpieńwszystkichcechwewszystkichdok.spełniającychh
128 Wykład14,26V2010,str.18 P(x i h) T i +1 Zk=1 (T k +1)
129 Wykład14,26V2010,str.18 P(x i h) T i +1 Zk=1 (T k +1) Wygładzanie Laplace a jedynki dodane po to, żeby żaden czynnik iloczynu nie był zerem; wprowadzają niewielki błąd.
130 Wykład14,26V2010,str.18 P(x i h) T i +1 Zk=1 (T k +1) Wygładzanie Laplace a jedynki dodane po to, żeby żaden czynnik iloczynu nie był zerem; wprowadzają niewielki błąd. Do licznika dodajemy 1; ile dodać do mianownika, żeby wartość ułamka się nie zmieniła? a b =a+1 b+x
131 Wykład14,26V2010,str.18 P(x i h) T i +1 Zk=1 (T k +1) Wygładzanie Laplace a jedynki dodane po to, żeby żaden czynnik iloczynu nie był zerem; wprowadzają niewielki błąd. Do licznika dodajemy 1; ile dodać do mianownika, żeby wartość ułamka się nie zmieniła? a b =a+1 b+x x= b a
132 Wykład14,26V2010,str.18 P(x i h) T i +1 Zk=1 (T k +1) Wygładzanie Laplace a jedynki dodane po to, żeby żaden czynnik iloczynu nie był zerem; wprowadzają niewielki błąd. Do licznika dodajemy 1; ile dodać do mianownika, żeby wartość ułamka się nie zmieniła? a b =a+1 b+x x= b a Jeśliwartościa 1,...,a n niewielesięróżnią,to a i ni=1 a i 1 n.
133 Wykład14,26V2010,str.18 P(x i h) T i +1 Zk=1 (T k +1) Wygładzanie Laplace a jedynki dodane po to, żeby żaden czynnik iloczynu nie był zerem; wprowadzają niewielki błąd. Do licznika dodajemy 1; ile dodać do mianownika, żeby wartość ułamka się nie zmieniła? a b =a+1 b+x x= b a Jeśliwartościa 1,...,a n niewielesięróżnią,to a i ni=1 a i 1 n.wobectego a i ni=1 a i a i +1 ( n i=1 a i )+n
134 Wykład14,26V2010,str.18 P(x i h) T i +1 Zk=1 (T k +1) Wygładzanie Laplace a jedynki dodane po to, żeby żaden czynnik iloczynu nie był zerem; wprowadzają niewielki błąd. Do licznika dodajemy 1; ile dodać do mianownika, żeby wartość ułamka się nie zmieniła? a b =a+1 b+x x= b a Jeśliwartościa 1,...,a n niewielesięróżnią,to a i ni=1 a i 1 n.wobectego a i ni=1 a i a i +1 ( n i=1 a i )+n = a i +1 ni=1 (a i +1)
Klasyfikacja metodą Bayesa
Klasyfikacja metodą Bayesa Tadeusz Pankowski www.put.poznan.pl/~tadeusz.pankowski warunkowe i bezwarunkowe 1. Klasyfikacja Bayesowska jest klasyfikacją statystyczną. Pozwala przewidzieć prawdopodobieństwo
Bardziej szczegółowoSystemy ekspertowe - wiedza niepewna
Instytut Informatyki Uniwersytetu Śląskiego lab 8 Rozpatrzmy następujący przykład: Miażdżyca powoduje często zwężenie tętnic wieńcowych. Prowadzi to zazwyczaj do zmniejszenia przepływu krwi w tych naczyniach,
Bardziej szczegółowoEksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18
Eksploracja Danych wykład 4 Sebastian Zając WMP.SNŚ UKSW 10 maja 2017 Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja 2017 1 / 18 Klasyfikacja danych Klasyfikacja Najczęściej stosowana (najstarsza)
Bardziej szczegółowoPodstawy Teorii Prawdopodobieństwa
Statystyka Opisowa z Demografią oraz Biostatystyka Podstawy Teorii Prawdopodobieństwa Aleksander Denisiuk denisjuk@euh-e.edu.pl Elblaska Uczelnia Humanistyczno-Ekonomiczna ul. Lotnicza 2 82-300 Elblag
Bardziej szczegółowoZdarzenia losowe Zmienne losowe Prawdopodobieństwo Niezależność
Zdarzenia losowe Zmienne losowe Prawdopodobieństwo Niezależność przypomnienie pojęć ĆWICZENIA Piotr Ciskowski zdarzenie losowe ćwiczenie 1. zbiory Stanisz zilustruj następujące pojęcia: o A B o A B o A
Bardziej szczegółowoModelowanie Niepewności
Na podstawie: AIMA, ch13 Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 21 marca 2014 Na podstawie: AIMA, ch13 Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 21 marca
Bardziej szczegółowoData Mining Wykład 6. Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa.
GLM (Generalized Linear Models) Data Mining Wykład 6 Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa Naiwny klasyfikator Bayesa jest klasyfikatorem statystycznym -
Bardziej szczegółowoWnioskowanie bayesowskie
Wnioskowanie bayesowskie W podejściu klasycznym wnioskowanie statystyczne oparte jest wyłącznie na podstawie pobranej próby losowej. Możemy np. estymować punktowo lub przedziałowo nieznane parametry rozkładów,
Bardziej szczegółowoMetody probabilistyczne klasyfikatory bayesowskie
Konwersatorium Matematyczne Metody Ekonomii narzędzia matematyczne w eksploracji danych First Prev Next Last Go Back Full Screen Close Quit Metody probabilistyczne klasyfikatory bayesowskie Wykład 8 Marcin
Bardziej szczegółowoElementy modelowania matematycznego
Elementy modelowania matematycznego Modelowanie algorytmów klasyfikujących. Podejście probabilistyczne. Naiwny klasyfikator bayesowski. Modelowanie danych metodą najbliższych sąsiadów. Jakub Wróblewski
Bardziej szczegółowoAlgorytmy stochastyczne, wykład 08 Sieci bayesowskie
Algorytmy stochastyczne, wykład 08 Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2014-04-10 Prawdopodobieństwo Prawdopodobieństwo Prawdopodobieństwo warunkowe Zmienne
Bardziej szczegółowoPrzestrzeń probabilistyczna
Przestrzeń probabilistyczna (Ω, Σ, P) Ω pewien niepusty zbiór Σ rodzina podzbiorów tego zbioru P funkcja określona na Σ, zwana prawdopodobieństwem. Przestrzeń probabilistyczna (Ω, Σ, P) Ω pewien niepusty
Bardziej szczegółowoAnaliza autokorelacji
Analiza autokorelacji Oblicza się wartości współczynników korelacji między y t oraz y t-i (dla i=1,2,...,k), czyli współczynniki autokorelacji różnych rzędów. Bada się statystyczną istotność tych współczynników.
Bardziej szczegółowoŁ Ł Ś Ś ź Ć ź ź ź Ń Ł Ż Ś ź Ę Ż Ń Ę ź ź ź Ę ź Ł Ę ź Ę Ę Ę ź ź Ś ź ź Ł Ł Ź Ę Ł Ś ź Ę Ę Ę ń ź Ą ó Ę ĘĘ ź Ę ź Ą Ł Ę Ł Ą ź Ę ó Ź Ś ź Ń Ę Ę ĘĘ Ą Ś Ę Ł Ę Ć Ź ź Ź Ę Ę Ź ź Ź Ź Ź Ł Ż Ł Ę ź Ż Ź ź Ź Ź Ź Ź Ą Ż ŚĆ
Bardziej szczegółowoŹ Ę Ę Ś Ś Ś ć Ę ć Ś ć Ź Ż Ś ć Ż Ź Ż Ą Ż Ę Ś Ź Ę Ź Ż Ó Ś ć ć Ś Ż Ć ź Ś Ń Ź ć Ó ź Ś Ń ź Ń Ź Ź ź Ż Ź Ź Ź Ź Ż Ź ć Ż Ę ź Ę ź ć Ń ć ć ć ć Ź Ę Ą ć Ę ć Ń ć ć Ź Ż ć Ó Ó Ó Ż ć Ó Ż Ę Ą Ź Ó Ń Ł ź ź Ń ć ć Ż ć Ś Ą
Bardziej szczegółowoŁ Ł ń ń Ą ń ń Ś ń Ź ń ń ń Ż ń Ł ń Ś ń ń ń Ą Ą Ł Ż ń ń Ś ń Ź ń ń ć Ź ń ć Ś ć ć ń Ź ń Ą Ł Ł Ę ĘĘ Ż Ź ć Ł ń Ś Ą Ł Ł Ł Ą Ę Ę ń Ń ń Ź ń ć Ż ń Ż Ś ń Ń ń Ń Ź Ą ć Ł ń ć ć Ź Ą Ą Ą Ź Ą Ł Ą Ś ń ń Ś Ś Ą Ć ŚĆ Ł ć Ż
Bardziej szczegółowoĄ Ń Ś Ę ź Ś Ś ź ź Ś Ś ź Ł Ś Ś Ś Ł ĘĘ Ś Ś Ś ć Ś Ś Ś Ś Ł Ó Ś Ł ć Ś Ść Ś Ś Ś Ń ć Ś Ł Ś Ź Ą ć ć Ł ź Ś Ą Ś Ł Ą Ś Ś Ą Ś Ś ź Ś ć Ł ć ć Ł Ł ć Ź ć ć Ś ć ź Ź ć Ś ć ć ć Ś Ą Ś Ś Ś ć Ś Ść Ś ć Ł ć Ś ć Ś Ś Ń ć ć Ł Ś
Bardziej szczegółowoAgnieszka Nowak Brzezińska Wykład III
Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe
Bardziej szczegółowoZadania o numerze 4 z zestawów licencjat 2014.
Zadania o numerze 4 z zestawów licencjat 2014. W nawiasie przy zadaniu jego występowanie w numerze zestawu Spis treści (Z1, Z22, Z43) Definicja granicy ciągu. Obliczyć granicę:... 3 Definicja granicy ciągu...
Bardziej szczegółowoGrawitacja. =2,38 km/s. Promień Księżyca jest równy R=1737km. Zadanie - Pierwsza prędkość kosmiczna fizyka.biz 1
Obliczyć wysokość na jaką wzniesie się ciało rzucone na Księżycu pionowo do góry z prędkością v=1 m/s? Druga prędkość kosmiczna dla Księżyca ma wartość v =,38 km/s. Promień Księżyca jest równy R=1737km.
Bardziej szczegółowoNa podstawie: AIMA, ch13. Wojciech Jaśkowski. 15 marca 2013
Na podstawie: AIMA, ch13 Instytut Informatyki, Politechnika Poznańska 15 marca 2013 Źródła niepewności Świat częściowo obserwowalny Świat niedeterministyczny Także: Lenistwo i ignorancja (niewiedza) Cel:
Bardziej szczegółowoMetody probabilistyczne
Metody probabilistyczne Prawdopodobieństwo warunkowe Jędrzej Potoniec Część I Podstawy interpretacji wyników badań medycznych Badanie raka Grupa kobiet w wieku 40 lat bierze udział w przesiewowej mammografi,
Bardziej szczegółowoPODYPLOMOWE STUDIA ZAAWANSOWANE METODY ANALIZY DANYCH I DATA MINING W BIZNESIE
UNIWERSYTET WARMIŃSKO-MAZURSKI W OLSZTYNIE PODYPLOMOWE STUDIA ZAAWANSOWANE METODY ANALIZY DANYCH I DATA MINING W BIZNESIE http://matman.uwm.edu.pl/psi e-mail: psi@matman.uwm.edu.pl ul. Słoneczna 54 10-561
Bardziej szczegółowoMoneta 1 Moneta 2 Kostka O, R O,R 1,2,3,4,5, Moneta 1 Moneta 2 Kostka O O ( )
Nowa matura kombinatoryka i rachunek prawdopodobieństwa Zadania zamknięte (0 1 pkt) 1. Doświadczenie losowe polega na rzucie dwiema symetrycznymi monetami i sześcienną kostką do gry. Prawdopodobieństwo
Bardziej szczegółowoCo to jest klasyfikacja? Klasyfikacja a grupowanie Naiwny klasyfikator Bayesa
Co to jest klasyfikacja? Klasyfikacja a grupowanie Naiwny klasyfikator Bayesa Odkrywanie asocjacji Wzorce sekwencji Analiza koszykowa Podobieństwo szeregów temporalnych Klasyfikacja Wykrywanie odchyleń
Bardziej szczegółowoAgnieszka Nowak Brzezińska Wykład III
Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe
Bardziej szczegółowoSztuczna inteligencja : Tworzenie sieci Bayesa
Instytut Informatyki Uniwersytetu Śląskiego 13 kwiecień 2011 Rysunek: Sieć Bayesa Rysunek: Sieć Bayesa Matura z matematyki na 60 %. Matura z matematyki na 100 %. Rozpatrzmy następujące przypadki: Uczeń
Bardziej szczegółowo+ r arcsin. M. Przybycień Rachunek prawdopodobieństwa i statystyka π r x
Prawdopodobieństwo geometryczne Przykład: Przestrzeń zdarzeń elementarnych określona jest przez zestaw punktów (x, y) na płaszczyźnie i wypełnia wnętrze kwadratu [0 x 1; 0 y 1]. Znajdź p-stwo, że dowolny
Bardziej szczegółowoAlgorytmy klasyfikacji
Algorytmy klasyfikacji Konrad Miziński Instytut Informatyki Politechnika Warszawska 6 maja 2015 1 Wnioskowanie 2 Klasyfikacja Zastosowania 3 Drzewa decyzyjne Budowa Ocena jakości Przycinanie 4 Lasy losowe
Bardziej szczegółowoSpam or Not Spam That is the question
or Not That is the question 4 maja 2006 Zwięzła definicja spamu Czym jest spam? Typy spamu Kto dostaje najwięcej spamu? to nadmiar informacji zbędnych dla odbiorcy przekazu. Definicji poszerzona Czym jest
Bardziej szczegółowoStatystyczna analiza Danych
Statystyczna analiza Danych Dla bioinformatyków Wykład pierwszy: O testowaniu hipotez Plan na dziś Quiz! Cele wykładu Plan na semestr Kryteria zaliczenia Sprawy organizacyjne Quiz (15 minut) Jakie znasz
Bardziej szczegółowoL.Kowalski zadania z rachunku prawdopodobieństwa-zestaw 1 ZADANIA - ZESTAW 1. (odp. a) B A C, b) A, c) A B, d) Ω)
ZADANIA - ZESTAW 1 Zadanie 1.1 Rzucamy trzy razy monetą. A i - zdarzenie polegające na tym, że otrzymamy orła w i - tym rzucie. Określić zbiór zdarzeń elementarnych. Wypisać zdarzenia elementarne sprzyjające
Bardziej szczegółowoPrawdopodobieństwo czerwonych = = 0.33
Temat zajęć: Naiwny klasyfikator Bayesa a algorytm KNN Część I: Naiwny klasyfikator Bayesa Naiwny klasyfikator bayerowski jest prostym probabilistycznym klasyfikatorem. Naiwne klasyfikatory bayesowskie
Bardziej szczegółowoMetody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 3 Metody estymacji. Estymator największej wiarygodności Zad. 1 Pojawianie się spamu opisane jest zmienną losową y o rozkładzie zero-jedynkowym
Bardziej szczegółowob) Niech: - wśród trzech wylosowanych opakowań jest co najwyżej jedno o dawce 15 mg. Wówczas:
ROZWIĄZANIA I ODPOWIEDZI Zadanie A1. Można założyć, że przy losowaniu trzech kul jednocześnie kolejność ich wylosowania nie jest istotna. A więc: Ω = 20 3. a) Niech: - wśród trzech wylosowanych opakowań
Bardziej szczegółowoi=7 X i. Zachodzi EX i = P(X i = 1) = 1 2, i {1, 2,..., 11} oraz EX ix j = P(X i = 1, X j = 1) = 1 7 VarS 2 2 = 14 3 ( 5 2 =
Kombinatoryka W tej serii zadań można znaleźć pojawiające się na egzaminach zadania dotyczące problemu wyznaczania prostych parametrów rozkładu w przypadku zgadnień kombinatorycznych. Zadania te wymagają
Bardziej szczegółowoDrugie kolokwium z Rachunku Prawdopodobieństwa, zestaw A
Drugie kolokwium z Rachunku Prawdopodobieństwa, zestaw A Zad. 1. Korzystając z podanych poniżej mini-tablic, oblicz pierwszy, drugi i trzeci kwartyl rozkładu N(10, 2 ). Rozwiązanie. Najpierw ogólny komentarz
Bardziej szczegółowoMetody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 2 autorzy: A. Gonczarek, J.M. Tomczak Metody estymacji Zad. 1 Pojawianie się spamu opisane jest zmienną losową x o rozkładzie dwupunktowym
Bardziej szczegółowoRachunek prawdopodobieństwa
Rachunek prawdopodobieństwa Sebastian Rymarczyk srymarczyk@afm.edu.pl Tematyka zajęć 1. Elementy kombinatoryki. 2. Definicje prawdopodobieństwa. 3. Własności prawdopodobieństwa. 4. Zmienne losowe, parametry
Bardziej szczegółowoAlgorytmy, które estymują wprost rozkłady czy też mapowania z nazywamy algorytmami dyskryminacyjnymi.
Spis treści 1 Wstęp: generatywne algorytmy uczące 2 Gaussowska analiza dyskryminacyjna 2.1 Gaussowska analiza dyskryminacyjna a regresja logistyczna 3 Naiwny Klasyfikator Bayesa 3.1 Wygładzanie Laplace'a
Bardziej szczegółowoLISTA 1 ZADANIE 1 a) 41 x =5 podnosimy obustronnie do kwadratu i otrzymujemy: 41 x =5 x 5 x przechodzimy na system dziesiętny: 4x 1 1=25 4x =24
LISTA 1 ZADANIE 1 a) 41 x =5 podnosimy obustronnie do kwadratu i otrzymujemy: 41 x =5 x 5 x przechodzimy na system dziesiętny: 4x 1 1=25 4x =24 x=6 ODP: Podstawą (bazą), w której spełniona jest ta zależność
Bardziej szczegółowoPrzypomnienie elementów z rachunku prawdopodobieństwa. Naiwny klasyfikator Bayesa. Aktualizacja rozkładów wg reguły Bayesa.
1/ 32 Przypomnienie elementów z rachunku prawdopodobieństwa. Naiwny klasyfikator Bayesa. Aktualizacja rozkładów wg reguły Bayesa. Przemysław Klęsk pklesk@wi.zut.edu.pl Literatura 2/ 32 1 D. Hand, H. Mannila,
Bardziej szczegółowoMetody probabilistyczne
Metody probabilistyczne. Twierdzenia graniczne Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 20.2.208 / 26 Motywacja Rzucamy wielokrotnie uczciwą monetą i zliczamy
Bardziej szczegółowoPropozycje rozwiązań zadań z matematyki - matura rozszerzona
Jacek Kredenc Propozycje rozwiązań zadań z matematyki - matura rozszerzona Zadanie 1 Zastosujmy trójkąt Paskala 1 1 1 1 2 1 1 3 3 1 Przy iloczynie będzie stał współczynnik 3. Zatem Odpowiedź : C Zadanie
Bardziej szczegółowoKilka ciekawostek czyli licznik. Metodologia badania naukowego. Mianownik czyli wiedza ogółem. Globalny naukowy dorobek podwaja się co lat
UNIWERSYTET IM. ADAMA MICKIEWICZA W POZNANIU Wydział Nauk Społecznych Instytut Psychologii Kilka ciekawostek czyli licznik Publikacje naukowe powstają od ponad 350 lat 2019, Dr Paweł Kleka Metodologia
Bardziej szczegółowoRozwiązania listopad 2016 Zadania zamknięte = = = 2. = =1 (D) Zad 3. Październik x; listopad 1,1x; grudzień 0,6x. (D) Zad 5. #./ 0'!
Zad 1., Rozwiązania listopad 2016 Zadania zamknięte 2 2 4 2 Zad 2. log 50 log 2log log 252 czyli 1 Zad 3. Październik x; listopad 1,1x; grudzień 0,6x.!,!," średnia: 0,9& czyli średnia to 90% października
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 11 Łańcuchy Markova
Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova M. Czoków, J. Piersa 2010-12-21 1 Definicja Własności Losowanie z rozkładu dyskretnego 2 3 Łańcuch Markova Definicja Własności Losowanie z rozkładu
Bardziej szczegółowoTEST STATYSTYCZNY. Jeżeli hipotezę zerową odrzucimy na danym poziomie istotności, to odrzucimy ją na każdym większym poziomie istotności.
TEST STATYSTYCZNY Testem statystycznym nazywamy regułę postępowania rozstrzygająca, przy jakich wynikach z próby hipotezę sprawdzaną H 0 należy odrzucić, a przy jakich nie ma podstaw do jej odrzucenia.
Bardziej szczegółowoTablice trwania życia
ROZDZIAŁ 3 Tablice trwania życia 1 Przyszły czas życia Osobę, która ukończyła x lat życia, będziemy nazywać x-latkiem i oznaczać symbolem x Jej przyszły czas życia, tzn od chwili x do chwili śmierci, będziemy
Bardziej szczegółowoMODELE MATEMATYCZNE W UBEZPIECZENIACH
MODELE MATEMATYCZNE W UBEZPIECZENIACH WYKŁAD 3: WYZNACZANIE ROZKŁADU CZASU PRZYSZŁEGO ŻYCIA 1 Hipoteza jednorodnej populacji Rozważmy pewną populację osób w różnym wieku i załóżmy, że każda z tych osób
Bardziej szczegółowoTestowanie hipotez statystycznych.
Bioinformatyka Wykład 6 Wrocław, 7 listopada 2011 Temat. Weryfikacja hipotez statystycznych dotyczących proporcji. Test dla proporcji. Niech X 1,..., X n będzie próbą statystyczną z 0-1. Oznaczmy odpowiednio
Bardziej szczegółowoPrzykłady do zadania 3.1 :
Rachunek prawdopodobieństwa MAP5 Wydział Elektroniki, rok akad. /, sem. letni Wykładowca: dr hab. A. Jurlewicz Przykłady do listy 3: Zmienne losowe dyskretne. Rozkłady Bernoulliego (dwumianowy), Pascala,
Bardziej szczegółowoPrawdopodobeństwo, test χ 2
Prawdopodobeństwo, test χ 2 Autor: Grzegorz Góralski ggoralski.com Co to jest prawdopodobieństwo? Prawdopodobieństwo = Liczba interesujących nas zdarzeń Liczba wszystkich zdarzeń Jakie jest prawdopodobieństwo
Bardziej szczegółowoAgnieszka Nowak Brzezińska
Agnieszka Nowak Brzezińska Klasyfikacja Bayesowska jest klasyfikacją statystyczną. Pozwala przewidzieć prawdopodobieństwo przynależności obiektu do klasy. Opiera się na twierdzeniu Bayesa. Twierdzenia
Bardziej szczegółowoRegresyjne metody łączenia klasyfikatorów
Regresyjne metody łączenia klasyfikatorów Tomasz Górecki, Mirosław Krzyśko Wydział Matematyki i Informatyki Uniwersytet im. Adama Mickiewicza XXXV Konferencja Statystyka Matematyczna Wisła 7-11.12.2009
Bardziej szczegółowoFuzja sygnałów i filtry bayesowskie
Fuzja sygnałów i filtry bayesowskie Roboty Manipulacyjne i Mobilne dr inż. Janusz Jakubiak Katedra Cybernetyki i Robotyki Wydział Elektroniki, Politechnika Wrocławska Wrocław, 10.03.2015 Dlaczego potrzebna
Bardziej szczegółowoPodstawy fizyki sezon 1 III. Praca i energia
Podstawy fizyki sezon 1 III. Praca i energia Agnieszka Obłąkowska-Mucha WFIiS, Katedra Oddziaływań i Detekcji Cząstek, D11, pok. 111 amucha@agh.edu.pl http://home.agh.edu.pl/~amucha F.Żarnecki Praca Rozważamy
Bardziej szczegółowoMetody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 2 κ-nn i Naive Bayes autorzy: M. Zięba, J.M. Tomczak, A. Gonczarek, S. Zaręba Cel zadania Celem zadania jest implementacja klasyfikatorów
Bardziej szczegółowoRozkłady statystyk z próby
Rozkłady statystyk z próby Rozkłady statystyk z próby Przypuśćmy, że wykonujemy serię doświadczeń polegających na 4 krotnym rzucie symetryczną kostką do gry, obserwując liczbę wyrzuconych oczek Nr kolejny
Bardziej szczegółowoWIELOMIANY SUPER TRUDNE
IMIE I NAZWISKO WIELOMIANY SUPER TRUDNE 27 LUTEGO 2011 CZAS PRACY: 210 MIN. SUMA PUNKTÓW: 200 ZADANIE 1 (5 PKT) Dany jest wielomian W(x) = x 3 + 4x + p, gdzie p > 0 jest liczba pierwsza. Znajdź p wiedzac,
Bardziej szczegółowoKlasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV
Klasyfikatory: k-nn oraz naiwny Bayesa Agnieszka Nowak Brzezińska Wykład IV Naiwny klasyfikator Bayesa Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną
Bardziej szczegółowoPorównanie dwóch rozkładów normalnych
Porównanie dwóch rozkładów normalnych Założenia: 1. X 1 N(µ 1, σ 2 1), X 2 N(µ 2, σ 2 2) 2. X 1, X 2 są niezależne Ocena µ 1 µ 2 oraz σ 2 1/σ 2 2. Próby: X 11,..., X 1n1 ; X 21,..., X 2n2 X 1, varx 1,
Bardziej szczegółowoWażne rozkłady i twierdzenia
Ważne rozkłady i twierdzenia Rozkład dwumianowy i wielomianowy Częstość. Prawo wielkich liczb Rozkład hipergeometryczny Rozkład Poissona Rozkład normalny i rozkład Gaussa Centralne twierdzenie graniczne
Bardziej szczegółowoPRÓBNA MATURA ZADANIA PRZYKŁADOWE
ZESPÓŁ SZKÓŁ HOTELARSKO TURYSTYCZNO GASTRONOMICZNYCH NR UL. KRASNOŁĘCKA 3, WARSZAWA Z A D AN I A Z A M K N I Ę T E ) Liczba, której 5% jest równe 6, to : A. 0,3 C. 30. D. 0 5% 6 II sposób: x nieznana liczba
Bardziej szczegółowoSieci Bayesa mgr Tomasz Xięski, Instytut Informatyki, Uniwersytet Śląski Sosnowiec, 2011
Sieci Bayesa mgr Tomasz Xięski, Instytut Informatyki, Uniwersytet Śląski Sosnowiec, 2011 Sieć Bayesowska służy do przedstawiania zależności pomiędzy zdarzeniami bazując na rachunku prawdopodobieństwa.
Bardziej szczegółowoBiostatystyka, # 3 /Weterynaria I/
Biostatystyka, # 3 /Weterynaria I/ dr n. mat. Zdzisław Otachel Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Głęboka 28, p. 221 bud. CIW, e-mail: zdzislaw.otachel@up.lublin.pl
Bardziej szczegółowoWYKŁAD 3. Klasyfikacja: modele probabilistyczne
Wrocław University of Technology WYKŁAD 3 Klasyfikacja: modele probabilistyczne Maciej Zięba Politechnika Wrocławska Klasyfikacja Klasyfikacja (ang. Classification): Dysponujemy obserwacjami z etykietami
Bardziej szczegółowoFunkcja kwadratowa. f(x) = ax 2 + bx + c,
Funkcja kwadratowa. Funkcją kwadratową nazywamy funkcję f : R R określoną wzorem gdzie a, b, c R, a 0. f(x) = ax 2 + bx + c, Szczególnym przypadkiem funkcji kwadratowej jest funkcja f(x) = ax 2, a R \
Bardziej szczegółowoProcesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.
Procesy stochastyczne WYKŁAD 2-3 Łańcuchy Markowa Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi. Przykład Symetryczne błądzenie przypadkowe na prostej. 1 2 Łańcuchem
Bardziej szczegółowoTECHNIKA DRZWI ZATRZAŚNIĘTE PRZED NOSEM
Badanie pilotażowe TECHNIKA DRZWI ZATRZAŚNIĘTE PRZED NOSEM Czy łatwa prośba etyczna zostanie spełniona istotnie częściej jeśli poprzedzi się ją nieetyczną prośbą trudną? H0 nie, H1 tak. Schemat eksperymentu
Bardziej szczegółowoRozkład zajęć, statystyka matematyczna, Rok akademicki 2015/16, semestr letni, Grupy dla powtarzających (C15; C16)
Rozkład zajęć, statystyka matematyczna, Rok akademicki 05/6, semestr letni, Grupy powtarzających (C5; C6) Lp Grupa C5 Grupa C6 Liczba godzin 0046 w godz 600-000 C03 0046 w godz 600-000 B05 4 6046 w godz
Bardziej szczegółowoPrawdopodobieństwo
Prawdopodobieństwo http://www.matemaks.pl/ Wstęp do rachunku prawdopodobieństwa http://www.matemaks.pl/wstep-do-rachunku-prawdopodobienstwa.html Rachunek prawdopodobieństwa pomaga obliczyć szansę zaistnienia
Bardziej szczegółowoDODATKOWA PULA ZADAŃ DO EGZAMINU. Rozważmy ciąg zdefiniowany tak: s 0 = a. s n+1 = 2s n +b (dla n=0,1,2 ) Pokaż, że s n = 2 n a +(2 n =1)b
DODATKOWA PULA ZADAŃ DO EGZAMINU Rozważmy ciąg zdefiniowany tak: s 0 = a s n+1 = 2s n +b (dla n=0,1,2 ) Pokaż, że s n = 2 n a +(2 n =1)b Udowodnij, że liczba postaci 5 n+1 +2 3 n +1 jest podzielna przez
Bardziej szczegółowoPodstawy metod probabilistycznych. dr Adam Kiersztyn
Podstawy metod probabilistycznych dr Adam Kiersztyn Przestrzeń zdarzeń elementarnych i zdarzenia losowe. Zjawiskiem lub doświadczeniem losowym nazywamy taki proces, którego przebiegu i ostatecznego wyniku
Bardziej szczegółowoWYKŁAD 4. Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie. autor: Maciej Zięba. Politechnika Wrocławska
Wrocław University of Technology WYKŁAD 4 Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie autor: Maciej Zięba Politechnika Wrocławska Klasyfikacja Klasyfikacja (ang. Classification):
Bardziej szczegółowoKOMINKI WENTYLACYJNE DN110 / DN150
KOMINKI WENTYLACYJNE / DN150 KOMINEK WENTYLACYJNY WBUDOWANA POZIOMICA Każdy kominek regulowany, posiada wbudowaną poziomicę, aby ułatwić precyzyjny montaż ZWIĘKSZENIE WYDAJNOŚCI Pierścieniowa konstrukcja
Bardziej szczegółowoClockwork as a solution to the flavour puzzle
Clockwork a a oluon to the flavour puzzle Rodrigo Alono Beyond the BSM 2//28 eab6hicbns8naej3urq/qh69lbbbuleqmeif48t2a9oq9lj+3azsbboqs+gu8efdeqz/jm//gbzudtj4yelw8y8ibfcg9f9dgobmvbo8xdt7+wefr+fikrenumwyxwmsqgcngktgw4edhofnaoedolj3dzvpkhspjypzpqgh95cfnfipiynyxa26c5b4uwkajkag/jxfxiznejpmkba9zmx5glefm4kzutzumle3ochuwshqh9rpfotnyyzuhcwnlsxqyuh9pzdtsehtjoizqxxvbn4n9dltxjjzwmquhjlovcatk/nxzmgvmiomllcmul2vdfvlbmbtcmg4k2+ve7avxprxrn6r9no+jcgdwdpfgqq3qca8naaedhgd4htxlx3p2pzwvbywdo4q+czx/jbyzp
Bardziej szczegółowoFunkcje wymierne. Jerzy Rutkowski. Teoria. Działania dodawania i mnożenia funkcji wymiernych określa się wzorami: g h + k l g h k.
Funkcje wymierne Jerzy Rutkowski Teoria Przypomnijmy, że przez R[x] oznaczamy zbiór wszystkich wielomianów zmiennej x i o współczynnikach rzeczywistych. Definicja. Funkcją wymierną jednej zmiennej nazywamy
Bardziej szczegółowoStabilność. Krzysztof Patan
Stabilność Krzysztof Patan Pojęcie stabilności systemu Rozważmy obiekt znajdujący się w punkcie równowagi Po przyłożeniu do obiektu siły F zostanie on wypchnięty ze stanu równowagi Jeżeli po upłynięciu
Bardziej szczegółowoPojęcie przestrzeni probabilistycznej
Pojęcie przestrzeni probabilistycznej Definicja (przestrzeni probabilistycznej) Uporządkowany układ < Ω, S, P> nazywamy przestrzenią probabilistyczną jeśli (Ω) Ω jest niepustym zbiorem zwanym przestrzenia
Bardziej szczegółowoRachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne
Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne 5.3 Rozkłady warunkowe i warunkowa wartość oczekiwana Katarzyna Rybarczyk-Krzywdzińska semestr zimowy 2015/2016 Prawdopodobieństwo wyraża postawę
Bardziej szczegółowoStatystyka Inżynierska
Statystyka Inżynierska dr hab. inż. Jacek Tarasiuk AGH, WFiIS 2014 Wykład 1 ODSTAWY RACHUNKU RAWDOODOBIEŃSTWA ojęcie, Własności, rawdopodobieństwo i, Twierdzenie Definicja Zdarzenie (doświadczenie) nazywamy
Bardziej szczegółowoKlasyfikacja naiwny Bayes
Klasyfikacja naiwny Bayes LABORKA Piotr Ciskowski NAIWNY KLASYFIKATOR BAYESA wyjaśnienie Naiwny klasyfikator Bayesa żródło: Internetowy Podręcznik Statystyki Statsoft dane uczące 2 klasy - prawdopodobieństwo
Bardziej szczegółowoSTATYSTYKA wykład 1. Wanda Olech. Katedra Genetyki i Ogólnej Hodowli Zwierząt
STTYSTYK wykład 1 Wanda Olech Katedra Genetyki i Ogólnej Hodowli Zwierząt Plan wykładów Data WYKŁDY 1.X rachunek prawdopodobieństwa; 8.X zmienna losowa jednowymiarowa, funkcja rozkładu, dystrybuanta 15.X
Bardziej szczegółowo19 marzec, Łańcuchy Markowa z czasem dyskretnym. Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136
Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 19 marzec, 2012 Przykłady procesów Markowa (i). P = (p ij ) - macierz stochastyczna, tzn. p ij 0, j p ij =
Bardziej szczegółowoRachunek Prawdopodobieństwa i Statystyka
Rachunek Prawdopodobieństwa i Statystyka W 2. Probabilistyczne modele danych Zmienne losowe. Rozkład prawdopodobieństwa i dystrybuanta. Wartość oczekiwana i wariancja zmiennej losowej Dr Anna ADRIAN Zmienne
Bardziej szczegółowoWykład 2. Zdarzenia niezależne i prawdopodobieństwo całkowite
Wstęp do probabilistyki i statystyki Wykład 2. Zdarzenia niezależne i prawdopodobieństwo całkowite dr hab.inż. Katarzyna Zakrzewska, prof.agh, Katedra lektroniki, WIT AGH Wstęp do probabilistyki i statystyki.
Bardziej szczegółowoProcesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.
Procesy stochastyczne WYKŁAD 2-3 Łańcuchy Markowa Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi. 2 Łańcuchem Markowa nazywamy proces będący ciągiem zmiennych
Bardziej szczegółowoWielkości liczbowe. Wykład z Podstaw Informatyki dla I roku BO. Piotr Mika
Wielkości liczbowe Wykład z Podstaw Informatyki dla I roku BO Piotr Mika Wprowadzenie, liczby naturalne Komputer to podstawowe narzędzie do wykonywania obliczeń Jeden bajt reprezentuje 0 oraz liczby naturalne
Bardziej szczegółowoChcąc wyróżnić jedno z działań, piszemy np. (, ) i mówimy, że działanie wprowadza w STRUKTURĘ ALGEBRAICZNĄ lub, że (, ) jest SYSTEMEM ALGEBRAICZNYM.
DEF. DZIAŁANIE DWUARGUMENTOWE Działaniem dwuargumentowym w niepsutym zbiorze nazywamy każde odwzorowanie iloczynu kartezjańskiego :. Inaczej mówiąc, w zbiorze jest określone działanie dwuargumentowe, jeśli:
Bardziej szczegółowoSkrypt 2. Liczby wymierne dodatnie i niedodatnie. 3. Obliczanie odległości między dwiema liczbami na osi liczbowej
Projekt Innowacyjny program nauczania matematyki dla gimnazjów współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego Skrypt 2 Liczby wymierne dodatnie i niedodatnie
Bardziej szczegółowoArytmetyka. Działania na liczbach, potęga, pierwiastek, logarytm
Arytmetyka Działania na liczbach, potęga, pierwiastek, logarytm Zbiory liczbowe Zbiór liczb naturalnych N = {1,2,3,4, }. Zbiór liczb całkowitych Z = {, 3, 2, 1,0,1,2,3, }. Zbiory liczbowe Zbiór liczb wymiernych
Bardziej szczegółowoFunkcje wymierne. Jerzy Rutkowski. Działania dodawania i mnożenia funkcji wymiernych określa się wzorami: g h + k l g h k.
Funkcje wymierne Jerzy Rutkowski Teoria Przypomnijmy, że przez R[x] oznaczamy zbiór wszystkich wielomianów zmiennej x i o współczynnikach rzeczywistych Definicja Funkcją wymierną jednej zmiennej nazywamy
Bardziej szczegółowoRzucamy dwa razy sprawiedliwą, sześcienną kostką do gry. Oblicz prawdopodobieństwo otrzymania:
Statystyka Ubezpieczeniowa Część 1. Rachunek prawdopodobieństwa: - prawdopodobieństwo klasyczne - zdarzenia niezależne - prawdopodobieństwo warunkowe - prawdopodobieństwo całkowite - wzór Bayesa Schemat
Bardziej szczegółowoWykład 9 Testy rangowe w problemie dwóch prób
Wykład 9 Testy rangowe w problemie dwóch prób Wrocław, 18 kwietnia 2018 Test rangowy Testem rangowym nazywamy test, w którym statystyka testowa jest konstruowana w oparciu o rangi współrzędnych wektora
Bardziej szczegółowoKlasyfikacja i regresja Wstęp do środowiska Weka
Klasyfikacja i regresja Wstęp do środowiska Weka 19 listopada 2015 Opis pliku z zadaniami Wszystkie zadania na zajęciach będą przekazywane w postaci plików pdf sformatowanych podobnie do tego dokumentu.
Bardziej szczegółowoRozpoznawanie obrazów
Rozpoznawanie obrazów Laboratorium Python Zadanie nr 2 κ-nn i Naive Bayes autorzy: M. Zięba, J.M. Tomczak, A. Gonczarek, S. Zaręba, J. Kaczmar Cel zadania Celem zadania jest implementacja klasyfikatorów
Bardziej szczegółowo