Klasyfikacja bayesowska
|
|
- Sebastian Jóźwiak
- 9 lat temu
- Przeglądów:
Transkrypt
1 Wykład14,26V2010,str.1 Przykład: (Bishop) M Jabłka i pomarańcze: Wyciągnięto pomarańczę; jakie jest prawdopodobieństwo, że naczynie było niebieskie?
2 Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) M
3 Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami
4 Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i.
5 Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i. Wtedy P(T k X)= P(X T k) P(T k ) P(X) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i )
6 Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i. Wtedy Dowód: P(T k X)= P(X T k) P(T k ) P(X) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i )
7 Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i. Wtedy Dowód: P(T k X)= P(X T k) P(T k ) P(X) Zdefinicji:P(A B)= P(A,B) P(B) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i )
8 Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i. Wtedy P(T k X)= P(X T k) P(T k ) P(X) Dowód: Zdefinicji:P(A B)= P(A,B) P(B) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i ) Dlarozłącznychzdarzeń:P( n i=1 A i)= n i=1 P(A i)
9 Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i. Wtedy P(T k X)= P(X T k) P(T k ) P(X) Dowód: Zdefinicji:P(A B)= P(A,B) P(B) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i ) Dlarozłącznychzdarzeń:P( n i=1 A i)= n i=1 P(A i) P(T k X)= P(T k,x) P(X)
10 Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i. Wtedy P(T k X)= P(X T k) P(T k ) P(X) Dowód: Zdefinicji:P(A B)= P(A,B) P(B) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i ) Dlarozłącznychzdarzeń:P( n i=1 A i)= n i=1 P(A i) P(T k X)= P(T k,x) P(X) = P(X,T k) P(T k ) P(T k) P(X)
11 Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i. Wtedy P(T k X)= P(X T k) P(T k ) P(X) Dowód: Zdefinicji:P(A B)= P(A,B) P(B) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i ) Dlarozłącznychzdarzeń:P( n i=1 A i)= n i=1 P(A i) P(T k X)= P(T k,x) P(X) = P(X T k) P(T k ) P(X) = P(X,T k) P(T k ) P(T k) P(X)
12 Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i. Wtedy P(T k X)= P(X T k) P(T k ) P(X) Dowód: Zdefinicji:P(A B)= P(A,B) P(B) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i ) Dlarozłącznychzdarzeń:P( n i=1 A i)= n i=1 P(A i) P(T k X)= P(T k,x) P(X) = P(X,T k) P(T k ) P(T k) P(X) = P(X T k) P(T k ) P(X) = P(X T k) P(T k ) n i=1 P(X,T i)
13 Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i. Wtedy P(T k X)= P(X T k) P(T k ) P(X) Dowód: Zdefinicji:P(A B)= P(A,B) P(B) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i ) Dlarozłącznychzdarzeń:P( n i=1 A i)= n i=1 P(A i) P(T k X)= P(T k,x) P(X) = P(X,T k) P(T k ) P(T k) P(X) = P(X T k) P(T k ) P(X) = P(X T k) P(T k ) n i=1 P(X,T i) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i )
14 Wykład14,26V2010,str.3 Przykład: (Bishop) M P(pom)= 7 = 7 P(nb)= 4 = P(pom nb)= 1 4
15 Wykład14,26V2010,str.3 Przykład: (Bishop) M P(pom)= 7 = 7 P(nb)= 4 = P(pom nb)= 1 4
16 Wykład14,26V2010,str.3 Przykład: (Bishop) M P(pom)= 7 = 7 P(nb)= 4 = P(pom nb)= 1 4
17 Wykład14,26V2010,str.3 Przykład: (Bishop) M P(pom)= 7 = 7 P(nb)= 4 = P(pom nb)= 1 4
18 Wykład14,26V2010,str.3 Przykład: (Bishop) M P(pom)= 7 = 7 P(nb)= 4 = P(pom nb)= 1 4 P(nb pom)
19 Wykład14,26V2010,str.3 Przykład: (Bishop) M P(pom)= = 7 12 P(nb)= =1 3 P(nb pom)= P(pom nb)= 1 4 = P(pom nb) P(nb) P(pom)
20 Wykład14,26V2010,str.3 Przykład: (Bishop) M P(pom)= 7 = 7 P(nb)= 4 = P(nb pom)= P(pom nb)= 1 4 = P(pom nb) P(nb) P(pom) =
21 Wykład14,26V2010,str.3 Przykład: (Bishop) M P(pom)= 7 = 7 P(nb)= 4 = P(nb pom)= P(pom nb)= 1 4 = P(pom nb) P(nb) P(pom) = =
22 Wykład14,26V2010,str.3 Przykład: (Bishop) M P(pom)= 7 = 7 P(nb)= 4 = P(nb pom)= P(pom nb)= 1 4 = P(pom nb) P(nb) P(pom) = = = 1 7
23 Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki.
24 Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99
25 Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99 więc P( nark)=0.01
26 Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99 więc P( nark)=0.01; prawd. że wynik tego testu dla nienarkomana jest ujemny: P( nark)=0.99
27 Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99 więc P( nark)=0.01; prawd. że wynik tego testu dla nienarkomana jest ujemny: P( nark)=0.99 więc P(+ nark)=0.01
28 Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99 więc P( nark)=0.01; prawd. że wynik tego testu dla nienarkomana jest ujemny: P( nark)=0.99 więc P(+ nark)=0.01; społeczeństwa to narkomani.
29 Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99 więc P( nark)=0.01; prawd. że wynik tego testu dla nienarkomana jest ujemny: P( nark)=0.99 więc P(+ nark)=0.01; społeczeństwa to narkomani. Badamy konkretną osobę i test daje wynik pozytywny. Jakie jest prawdopodobieństwo, że trafiliśmy na narkomana?
30 Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99 więc P( nark)=0.01; prawd. że wynik tego testu dla nienarkomana jest ujemny: P( nark)=0.99 więc P(+ nark)=0.01; społeczeństwa to narkomani. Badamy konkretną osobę i test daje wynik pozytywny. Jakie jest prawdopodobieństwo, że trafiliśmy na narkomana? P(nark +) = P(+ nark) P(nark) P(+ nark) P(nark)+P(+ nark) P( nark)
31 Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99 więc P( nark)=0.01; prawd. że wynik tego testu dla nienarkomana jest ujemny: P( nark)=0.99 więc P(+ nark)=0.01; społeczeństwa to narkomani. Badamy konkretną osobę i test daje wynik pozytywny. Jakie jest prawdopodobieństwo, że trafiliśmy na narkomana? P(nark +) = P(+ nark) P(nark) P(+ nark) P(nark)+P(+ nark) P( nark)
32 Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99 więc P( nark)=0.01; prawd. że wynik tego testu dla nienarkomana jest ujemny: P( nark)=0.99 więc P(+ nark)=0.01; społeczeństwa to narkomani. Badamy konkretną osobę i test daje wynik pozytywny. Jakie jest prawdopodobieństwo, że trafiliśmy na narkomana? P(nark +) = P(+ nark) P(nark) P(+ nark) P(nark)+P(+ nark) P( nark) =
33 Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99 więc P( nark)=0.01; prawd. że wynik tego testu dla nienarkomana jest ujemny: P( nark)=0.99 więc P(+ nark)=0.01; społeczeństwa to narkomani. Badamy konkretną osobę i test daje wynik pozytywny. Jakie jest prawdopodobieństwo, że trafiliśmy na narkomana? P(nark +) = P(+ nark) P(nark) P(+ nark) P(nark)+P(+ nark) P( nark) =
34 Wykład14,26V2010,str.5 Przykład: (amerykańskie zaliczenia) M
35 Wykład14,26V2010,str.5 Przykład: (amerykańskie zaliczenia) M wśród słuchaczy byli Amerykanie i Chińczycy: P(A)=0.9 P(C)=0.1
36 Wykład14,26V2010,str.5 Przykład: (amerykańskie zaliczenia) M wśród słuchaczy byli Amerykanie i Chińczycy: P(A)=0.9 P(C)=0.1 wśród Amerykanów było znacznie więcej mężczyzn niż kobiet; wśród Chińczyków po równo: P(k A)=0.1 P(m A)=0.9 P(k C)=0.5 P(m C)=0.5
37 Wykład14,26V2010,str.5 Przykład: (amerykańskie zaliczenia) M wśród słuchaczy byli Amerykanie i Chińczycy: P(A)=0.9 P(C)=0.1 wśród Amerykanów było znacznie więcej mężczyzn niż kobiet; wśród Chińczyków po równo: P(k A)=0.1 P(m A)=0.9 P(k C)=0.5 P(m C)=0.5 Chińczycy nie mieli problemu z zaliczeniem, niezależnie od płci: P(zal C,k)=1 P(zal C,m)=1
38 Wykład14,26V2010,str.5 Przykład: (amerykańskie zaliczenia) M wśród słuchaczy byli Amerykanie i Chińczycy: P(A)=0.9 P(C)=0.1 wśród Amerykanów było znacznie więcej mężczyzn niż kobiet; wśród Chińczyków po równo: P(k A)=0.1 P(m A)=0.9 P(k C)=0.5 P(m C)=0.5 Chińczycy nie mieli problemu z zaliczeniem, niezależnie od płci: P(zal C,k)=1 P(zal C,m)=1 Amerykanie byli słabsi a Amerykanki beznadziejnie słabe: P(zal A,k)=0.2 P(zal A,m)=0.4
39 Wykład14,26V2010,str.5 Przykład: (amerykańskie zaliczenia) M wśród słuchaczy byli Amerykanie i Chińczycy: P(A)=0.9 P(C)=0.1 wśród Amerykanów było znacznie więcej mężczyzn niż kobiet; wśród Chińczyków po równo: P(k A)=0.1 P(m A)=0.9 P(k C)=0.5 P(m C)=0.5 Chińczycy nie mieli problemu z zaliczeniem, niezależnie od płci: P(zal C,k)=1 P(zal C,m)=1 Amerykanie byli słabsi a Amerykanki beznadziejnie słabe: P(zal A,k)=0.2 P(zal A,m)=0.4 Na tej podstawie zespół d/s equal opportunity(równego traktowania) zarzucił mi szykanowanie kobiet.
40 Wykład14,26V2010,str.6 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1
41 Wykład14,26V2010,str.6 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)= =0.09
42 Wykład14,26V2010,str.6 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05
43 Wykład14,26V2010,str.6 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05 więc P(zal k)= P(zal,k) P(k)
44 Wykład14,26V2010,str.6 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05 więc P(zal k)= P(zal,k) P(k) = P(zal,A,k)+P(zal,C,k) P(A,k)+P(C,k)
45 Wykład14,26V2010,str.6 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem więc P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05 P(zal k)= P(zal,k) P(k) = P(zal,A,k)+P(zal,C,k) P(A,k)+P(C,k) = P(zal A,k) P(A,k)+P(zal C,k) P(C,k) P(A,k)+P(C,k)
46 Wykład14,26V2010,str.6 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem więc P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05 P(zal k)= P(zal,k) P(k) = P(zal,A,k)+P(zal,C,k) P(A,k)+P(C,k) = P(zal A,k) P(A,k)+P(zal C,k) P(C,k) P(A,k)+P(C,k) =
47 Wykład14,26V2010,str.6 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05 więc P(zal k)= P(zal,k) P(k) = P(zal,A,k)+P(zal,C,k) P(A,k)+P(C,k) = P(zal A,k) P(A,k)+P(zal C,k) P(C,k) P(A,k)+P(C,k) =
48 Wykład14,26V2010,str.7 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05
49 Wykład14,26V2010,str.7 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05 więc P(zal m)= P(zal,m) P(m)
50 Wykład14,26V2010,str.7 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05 więc P(zal m)= P(zal,m) P(m) = P(zal,A,m)+P(zal,C,m) P(A,m)+P(C,m)
51 Wykład14,26V2010,str.7 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem więc P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05 P(zal m)= P(zal,m) P(m) = P(zal,A,m)+P(zal,C,m) P(A,m)+P(C,m) = P(zal A,m) P(A,m)+P(zal C,m) P(C,m) P(A,m)+P(C,m)
52 Wykład14,26V2010,str.7 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem więc P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05 P(zal m)= P(zal,m) P(m) = P(zal,A,m)+P(zal,C,m) P(A,m)+P(C,m) = P(zal A,m) P(A,m)+P(zal C,m) P(C,m) P(A,m)+P(C,m) =
53 Wykład14,26V2010,str.7 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05 więc P(zal m)= P(zal,m) P(m) = P(zal,A,m)+P(zal,C,m) P(A,m)+P(C,m) = P(zal A,m) P(A,m)+P(zal C,m) P(C,m) P(A,m)+P(C,m) =
54 Wykład14,26V2010,str.7 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)= =0.09 P(C,k)=P(k C) P(C)= =0.05 P(A,m)=P(m A) P(A)= =0.81 P(C,m)=P(m C) P(C)= =0.05 więc P(zal m)= P(zal,m) P(m) = P(zal,A,m)+P(zal,C,m) P(A,m)+P(C,m) = P(zal A,m) P(A,m)+P(zal C,m) P(C,m) P(A,m)+P(C,m) 0.435<0.486=P(zal k) =
55 Wykład14,26V2010,str.8 TWIERDZENIE: (uogólnione Bayesa) MZałóżmy,żee 1,...,e n,e,hsązdarzeniami;ozn.:ē def =e 1 &...&e n.wtedy P(h e,ē)= P(e h,ē) P(h ē) P(e ē)
56 Wykład14,26V2010,str.8 TWIERDZENIE: (uogólnione Bayesa) MZałóżmy,żee 1,...,e n,e,hsązdarzeniami;ozn.:ē def =e 1 &...&e n.wtedy Dowód: P(h e,ē)= P(e h,ē) P(h ē) P(e ē) P(h e,ē)= P(h,e,ē) P(e,ē)
57 Wykład14,26V2010,str.8 TWIERDZENIE: (uogólnione Bayesa) MZałóżmy,żee 1,...,e n,e,hsązdarzeniami;ozn.:ē def =e 1 &...&e n.wtedy Dowód: P(h e,ē)= P(e h,ē) P(h ē) P(e ē) P(h e,ē)= P(h,e,ē) P(e,ē) = P(e h,ē) P(h,ē) P(e ē) P(ē)
58 Wykład14,26V2010,str.8 TWIERDZENIE: (uogólnione Bayesa) MZałóżmy,żee 1,...,e n,e,hsązdarzeniami;ozn.:ē def =e 1 &...&e n.wtedy Dowód: P(h e,ē)= P(e h,ē) P(h ē) P(e ē) P(h e,ē)= P(h,e,ē) P(e,ē) = P(e h,ē) P(h,ē) P(e ē) P(ē) = P(e h,ē) P(h ē) P(ē) P(e ē) P(ē)
59 Wykład14,26V2010,str.8 TWIERDZENIE: (uogólnione Bayesa) MZałóżmy,żee 1,...,e n,e,hsązdarzeniami;ozn.:ē def =e 1 &...&e n.wtedy Dowód: P(h e,ē)= P(e h,ē) P(h ē) P(e ē) P(h e,ē)= P(h,e,ē) P(e,ē) = P(e h,ē) P(h,ē) P(e ē) P(ē) = P(e h,ē) P(h ē) P(ē) P(e ē) P(ē) = P(e h,ē) P(h ē) P(e ē)
60 Wykład14,26V2010,str.8 TWIERDZENIE: (uogólnione Bayesa) MZałóżmy,żee 1,...,e n,e,hsązdarzeniami;ozn.:ē def =e 1 &...&e n.wtedy Dowód: P(h e,ē)= P(e h,ē) P(h ē) P(e ē) P(h e,ē)= P(h,e,ē) P(e,ē) = P(e h,ē) P(h,ē) P(e ē) P(ē) = P(e h,ē) P(h ē) P(ē) P(e ē) P(ē) = P(e h,ē) P(h ē) P(e ē) Wniosek: MJeślizdarzeniae 1,...,e n sąniezależne,to P(h e,ē)= P(e h) P(e) P(h ē)
61 Wykład14,26V2010,str.9 Wniosek: MJeślizdarzeniae 1,...,e n sąniezależne,to P(h e,ē)= P(e h) P(e) P(h ē)
62 Wykład14,26V2010,str.9 Wniosek: MJeślizdarzeniae 1,...,e n sąniezależne,to P(h e,ē)= P(e h) P(e) P(h ē) wniosek z uogólnionego tw. Bayesa stosowany jest do wyliczania prawdopodobieństwa,żezachodzihipotezah,woparciuohipotezyē
63 Wykład14,26V2010,str.9 Wniosek: MJeślizdarzeniae 1,...,e n sąniezależne,to P(h e,ē)= P(e h) P(e) P(h ē) wniosek z uogólnionego tw. Bayesa stosowany jest do wyliczania prawdopodobieństwa,żezachodzihipotezah,woparciuohipotezyē; założenie o niezależności obserwacji, bardzo upraszczające obliczenia, zwykle jest spełnione, lub przynajmniej spełnione w przybliżeniu
64 Wykład14,26V2010,str.9 Wniosek: MJeślizdarzeniae 1,...,e n sąniezależne,to P(h e,ē)= P(e h) P(e) P(h ē) wniosek z uogólnionego tw. Bayesa stosowany jest do wyliczania prawdopodobieństwa,żezachodzihipotezah,woparciuohipotezyē; założenie o niezależności obserwacji, bardzo upraszczające obliczenia, zwykle jest spełnione, lub przynajmniej spełnione w przybliżeniu; wniosek pokazuje, jak zmienia się prawdopodobieństwo spełnienia h w wyniku dodania kolejnej obserwacji
65 Wykład14,26V2010,str.9 Wniosek: MJeślizdarzeniae 1,...,e n sąniezależne,to P(h e,ē)= P(e h) P(e) P(h ē) wniosek z uogólnionego tw. Bayesa stosowany jest do wyliczania prawdopodobieństwa,żezachodzihipotezah,woparciuohipotezyē; założenie o niezależności obserwacji, bardzo upraszczające obliczenia, zwykle jest spełnione, lub przynajmniej spełnione w przybliżeniu; wniosek pokazuje, jak zmienia się prawdopodobieństwo spełnienia h w wyniku dodania kolejnej obserwacji; dysponujemy trzema równościami: P(h e,ē)= P(e h) P(h ē) P(e) P( h e,ē)= P(e h) P( h ē) P(e) P(h e,ē)+p( h e,ē)=1
66 Wykład14,26V2010,str.9 Wniosek: MJeślizdarzeniae 1,...,e n sąniezależne,to P(h e,ē)= P(e h) P(e) P(h ē) wniosek z uogólnionego tw. Bayesa stosowany jest do wyliczania prawdopodobieństwa,żezachodzihipotezah,woparciuohipotezyē; założenie o niezależności obserwacji, bardzo upraszczające obliczenia, zwykle jest spełnione, lub przynajmniej spełnione w przybliżeniu; wniosek pokazuje, jak zmienia się prawdopodobieństwo spełnienia h w wyniku dodania kolejnej obserwacji; dysponujemy trzema równościami: P(h e,ē)= P(e h) P(h ē) P(e) P( h e,ē)= P(e h) P( h ē) P(e) P(h e,ē)+p( h e,ē)=1 nieznamyp(e),p(h e,ē),p( h e,ē)
67 Wykład14,26V2010,str.9 Wniosek: MJeślizdarzeniae 1,...,e n sąniezależne,to P(h e,ē)= P(e h) P(e) P(h ē) wniosek z uogólnionego tw. Bayesa stosowany jest do wyliczania prawdopodobieństwa,żezachodzihipotezah,woparciuohipotezyē; założenie o niezależności obserwacji, bardzo upraszczające obliczenia, zwykle jest spełnione, lub przynajmniej spełnione w przybliżeniu; wniosek pokazuje, jak zmienia się prawdopodobieństwo spełnienia h w wyniku dodania kolejnej obserwacji; dysponujemy trzema równościami: P(h e,ē)= P(e h) P(h ē) P(e) P( h e,ē)= P(e h) P( h ē) P(e) P(h e,ē)+p( h e,ē)=1 nieznamyp(e),p(h e,ē),p( h e,ē) znamyp(e h),p(e h),p(h ē),p( h ē)
68 Wykład14,26V2010,str.10 Przykład: (prof. Wierzchoń) MObserwacje: e 1 pacjentmagorączkę, e 2 pacjentkaszle, e 3 pacjentmakatar.
69 Wykład14,26V2010,str.10 Przykład: (prof. Wierzchoń) MObserwacje: e 1 pacjentmagorączkę, e 2 pacjentkaszle, e 3 pacjentmakatar. Hipoteza: h pacjent ma grypę.
70 Wykład14,26V2010,str.10 Przykład: (prof. Wierzchoń) MObserwacje: e 1 pacjentmagorączkę, e 2 pacjentkaszle, e 3 pacjentmakatar. Hipoteza: h pacjent ma grypę. Panuje grypa; prawdopodobieństwo, że pacjent, zgłaszający się do lekarza, magrypę,wynosip(h)=0.8.
71 Wykład14,26V2010,str.10 Przykład: (prof. Wierzchoń) MObserwacje: e 1 pacjentmagorączkę, e 2 pacjentkaszle, e 3 pacjentmakatar. Hipoteza: h pacjent ma grypę. Panuje grypa; prawdopodobieństwo, że pacjent, zgłaszający się do lekarza, magrypę,wynosip(h)=0.8.zpodręcznikamedycyny: P(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6
72 Wykład14,26V2010,str.10 Przykład: (prof. Wierzchoń) MObserwacje: e 1 pacjentmagorączkę, e 2 pacjentkaszle, e 3 pacjentmakatar. Hipoteza: h pacjent ma grypę. Panuje grypa; prawdopodobieństwo, że pacjent, zgłaszający się do lekarza, magrypę,wynosip(h)=0.8.zpodręcznikamedycyny: P(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4
73 Wykład14,26V2010,str.10 Przykład: (prof. Wierzchoń) MObserwacje: e 1 pacjentmagorączkę, e 2 pacjentkaszle, e 3 pacjentmakatar. Hipoteza: h pacjent ma grypę. Panuje grypa; prawdopodobieństwo, że pacjent, zgłaszający się do lekarza, magrypę,wynosip(h)=0.8.zpodręcznikamedycyny: P(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 Konkretny pacjent ma gorączkę i katar, ale nie kaszle; jakie jest prawdopodobieństwo, że ma grypę?
74 Wykład14,26V2010,str.10 Przykład: (prof. Wierzchoń) MObserwacje: e 1 pacjentmagorączkę, e 2 pacjentkaszle, e 3 pacjentmakatar. Hipoteza: h pacjent ma grypę. Panuje grypa; prawdopodobieństwo, że pacjent, zgłaszający się do lekarza, magrypę,wynosip(h)=0.8.zpodręcznikamedycyny: P(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 Konkretny pacjent ma gorączkę i katar, ale nie kaszle; jakie jest prawdopodobieństwo, że ma grypę? P(h e 1, e 2,e 3 )=?
75 Wykład14,26V2010,str.11 Przykład: (prof. Wierzchoń) P(h)=0.8 MP(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4
76 Wykład14,26V2010,str.11 Przykład: (prof. Wierzchoń) P(h)=0.8 MP(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )= P(e 1 h) P(e 1 ) P(h)= 0.7 P(e 1 ) 0.8
77 Wykład14,26V2010,str.11 Przykład: (prof. Wierzchoń) P(h)=0.8 MP(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )= P(e 1 h) P(e 1 ) P( h e 1 )= P(e 1 h) P(e 1 ) P(h)= 0.7 P(e 1 ) 0.8 P( h)= 0.6 P(e 1 ) 0.2
78 Wykład14,26V2010,str.11 Przykład: (prof. Wierzchoń) P(h)=0.8 MP(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )= P(e 1 h) P(e 1 ) P( h e 1 )= P(e 1 h) P(e 1 ) P(h)= 0.7 P(e 1 ) 0.8 1= 1 P(e 1 ) ( ) P( h)= 0.6 P(e 1 ) 0.2
79 Wykład14,26V2010,str.11 Przykład: (prof. Wierzchoń) P(h)=0.8 MP(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )= P(e 1 h) P(e 1 ) P( h e 1 )= P(e 1 h) P(e 1 ) P(h)= 0.7 P(e 1 ) 0.8 1= 1 P(e 1 ) ( ) P(e 1 )= =0.68 P( h)= 0.6 P(e 1 ) 0.2
80 Wykład14,26V2010,str.11 Przykład: (prof. Wierzchoń) P(h)=0.8 MP(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )= P(e 1 h) P(e 1 ) P( h e 1 )= P(e 1 h) P(e 1 ) P(h)= 0.7 P(e 1 ) 0.8 1= 1 P(e 1 ) ( ) P(e 1 )= =0.68 P( h)= 0.6 P(e 1 ) 0.2 P(h e 1 )= =0.82
81 Wykład14,26V2010,str.11 Przykład: (prof. Wierzchoń) P(h)=0.8 MP(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )= P(e 1 h) P(e 1 ) P( h e 1 )= P(e 1 h) P(e 1 ) P(h)= 0.7 P(e 1 ) 0.8 1= 1 P(e 1 ) ( ) P(e 1 )= =0.68 P( h)= 0.6 P(e 1 ) 0.2 P(h e 1 )= =0.82 P( h e 1)= =0.18
82 Wykład14,26V2010,str.12 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e M 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18
83 Wykład14,26V2010,str.12 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e M 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18 P(h e 1, e 2 )= P( e 2 h) P( e 2 ) P(h e 1 )= 0.6 P( e 2 ) 0.82
84 Wykład14,26V2010,str.12 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e M 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18 P(h e 1, e 2 )= P( e 2 h) P( e 2 ) P( h e 1, e 2 )= P( e 2 h) P( e 2 ) P(h e 1 )= 0.6 P( e 2 ) 0.82 P( h e 1 )= 0.7 P( e 2 ) 0.18
85 Wykład14,26V2010,str.12 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e M 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18 P(h e 1, e 2 )= P( e 2 h) P( e 2 ) P( h e 1, e 2 )= P( e 2 h) P( e 2 ) 1= 1 P( e 2 ) ( ) P(h e 1 )= 0.6 P( e 2 ) 0.82 P( h e 1 )= 0.7 P( e 2 ) 0.18
86 Wykład14,26V2010,str.12 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e M 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18 P(h e 1, e 2 )= P( e 2 h) P( e 2 ) P( h e 1, e 2 )= P( e 2 h) P( e 2 ) 1= 1 P( e 2 ) ( ) P( e 2 )= =0.62 P(h e 1 )= 0.6 P( e 2 ) 0.82 P( h e 1 )= 0.7 P( e 2 ) 0.18
87 Wykład14,26V2010,str.12 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e M 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18 P(h e 1, e 2 )= P( e 2 h) P( e 2 ) P( h e 1, e 2 )= P( e 2 h) P( e 2 ) 1= 1 P( e 2 ) ( ) P( e 2 )= =0.62 P(h e 1 )= 0.6 P( e 2 ) 0.82 P( h e 1 )= 0.7 P( e 2 ) 0.18 P(h e 1, e 2 )= =0.8 P( h e 1, e 2 )= =0.2
88 Wykład14,26V2010,str.13 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 MP(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18 P(h e 1, e 2 )=0.8 P( h e 1, e 2 )=0.2
89 Wykład14,26V2010,str.13 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 MP(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18 P(h e 1, e 2 )=0.8 P( h e 1, e 2 )=0.2 P(h e 1, e 2,e 3 )= P(e 3 h) P(e 3 ) P( h e 1, e 2,e 3 )= P(e 3 h) P(e 3 ) 1= 1 P(e 3 ) ( ) P(e 3 )= =0.56 P(h e 1, e 2 )= 0.6 P(e 3 ) 0.8 P( h e 1, e 2 )= 0.4 P(e 3 ) 0.2
90 Wykład14,26V2010,str.13 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 MP(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18 P(h e 1, e 2 )=0.8 P( h e 1, e 2 )=0.2 P(h e 1, e 2,e 3 )= P(e 3 h) P(e 3 ) P( h e 1, e 2,e 3 )= P(e 3 h) P(e 3 ) 1= 1 P(e 3 ) ( ) P(e 3 )= =0.56 P(h e 1, e 2 )= 0.6 P(e 3 ) 0.8 P(h e 1, e 2,e 3 )= =0.86 P( h e 1, e 2 )= 0.4 P(e 3 ) 0.2
91 Wykład14,26V2010,str.13 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 MP(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18 P(h e 1, e 2 )=0.8 P( h e 1, e 2 )=0.2 P(h e 1, e 2,e 3 )= P(e 3 h) P(e 3 ) P( h e 1, e 2,e 3 )= P(e 3 h) P(e 3 ) 1= 1 P(e 3 ) ( ) P(e 3 )= =0.56 P(h e 1, e 2 )= 0.6 P(e 3 ) 0.8 P(h e 1, e 2,e 3 )= =0.86 P( h e 1, e 2 )= 0.4 P(e 3 ) 0.2
92 Wykład14,26V2010,str.14 Jak nowe obserwacje zmieniają prawdopodobieństwo spełnienia hipotezy h?
93 Wykład14,26V2010,str.14 Jak nowe obserwacje zmieniają prawdopodobieństwo spełnienia hipotezy h: P(h)=0.8 P(h e 1 )=0.82 P(h e 1, e 2 )=0.8 P(h e 1, e 2,e 3 )=0.86
94 Wykład14,26V2010,str.14 Jak nowe obserwacje zmieniają prawdopodobieństwo spełnienia hipotezy h: P(h)=0.8 P(h e 1 )=0.82 P(h e 1, e 2 )=0.8 P(h e 1, e 2,e 3 )=0.86
95 Wykład14,26V2010,str.14 Jak nowe obserwacje zmieniają prawdopodobieństwo spełnienia hipotezy h: P(h)=0.8 P(h e 1 )=0.82 P(h e 1, e 2 )=0.8 P(h e 1, e 2,e 3 )=0.86
96 Wykład14,26V2010,str.14 Jak nowe obserwacje zmieniają prawdopodobieństwo spełnienia hipotezy h: P(h)=0.8 P(h e 1 )=0.82 P(h e 1, e 2 )=0.8 P(h e 1, e 2,e 3 )=0.86
97 Wykład14,26V2010,str.15 Naiwny klasyfikator Bayesowski
98 Wykład14,26V2010,str.15 Naiwny klasyfikator Bayesowski Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM rynek wygrałeś szybko SPAM
99 Wykład14,26V2010,str.15 Naiwny klasyfikator Bayesowski Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM rynek wygrałeś szybko SPAM Jak zaklasyfikować nowy dokument?
100 Wykład14,26V2010,str.15 Naiwny klasyfikator Bayesowski Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM rynek wygrałeś szybko SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM?
101 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= = 2 7 P(szybko S)= =1 7 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM? rynek wygrałeś szybko SPAM
102 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= = 2 7 P(szybko S)= = 1 7 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM? rynek wygrałeś szybko SPAM
103 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= = 2 7 P(szybko S)= = 1 7 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM? rynek wygrałeś szybko SPAM
104 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= = 2 7 P(szybko S)= = 1 7 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM? rynek wygrałeś szybko SPAM
105 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= = 2 7 P(szybko S)= = 1 7 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM? rynek wygrałeś szybko SPAM
106 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= = 2 7 P(szybko S)= = 1 7 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM? rynek wygrałeś szybko SPAM
107 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= = 2 7 P(szybko S)= = 1 7 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM? rynek wygrałeś szybko SPAM
108 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= = 2 7 P(szybko S)= = 1 7 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM? rynek wygrałeś szybko SPAM
109 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= =2 7 P(szybko S)= =1 7 prawd., że nie spam: P( S) P(rynek S) P(szybko S) Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM? rynek wygrałeś szybko SPAM
110 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek wygrałeś szybko SPAM prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= =2 7 P(szybko S)= =1 7 prawd., że nie spam: P( S) P(rynek S) P(szybko S)= rynek szybko CZY SPAM?
111 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek wygrałeś szybko SPAM prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= 1+1= P(szybko S)= 0+1= prawd., że nie spam: P( S) P(rynek S) P(szybko S)= rynek szybko CZY SPAM? P(S rynek,szybko)=
112 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek wygrałeś szybko SPAM prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= 1+1= P(szybko S)= 0+1= prawd., że nie spam: P( S) P(rynek S) P(szybko S)= rynek szybko CZY SPAM? P(S rynek,szybko)=
113 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek wygrałeś szybko SPAM prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= 1+1= P(szybko S)= 0+1= prawd., że nie spam: P( S) P(rynek S) P(szybko S)= rynek szybko CZY SPAM? P(S rynek,szybko)= P( S rynek,szybko)=
114 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek wygrałeś szybko SPAM prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= 1+1= P(szybko S)= 0+1= prawd., że nie spam: P( S) P(rynek S) P(szybko S)= rynek szybko CZY SPAM? P(S rynek,szybko)= P( S rynek,szybko)= <P(S rynek,szybko)
115 Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= P(szybko S)= 2+1= prawd., że spam: P(S) P(rynek S) P(szybko S)= Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek wygrałeś szybko SPAM prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= =2 7 P(szybko S)= =1 7 prawd., że nie spam: P( S) P(rynek S) P(szybko S)= rynek szybko CZY SPAM? P(S rynek,szybko)= P( S rynek,szybko)= <P(S rynek,szybko) Więc spam.
116 Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh
117 Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki).
118 Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n )
119 Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n ) 1 = P(x 1,...,x ) P(h) P(x 1 h)... P(x n h) n
120 Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n ) 1 = P(x 1,...,x ) P(h) P(x 1 h)... P(x n h) n P(h)= D h D
121 Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n ) 1 = P(x 1,...,x ) P(h) P(x 1 h)... P(x n h) n P(h)= D h D prawd.hapriori: D htoliczbadok.spełniającychh
122 Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n ) 1 = P(x 1,...,x ) P(h) P(x 1 h)... P(x n h) n P(h)= D h D prawd.hapriori: D htoliczbadok.spełniającychh, D to liczba wszystkich dok.
123 Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n ) 1 = P(x 1,...,x ) P(h) P(x 1 h)... P(x n h) n P(h)= D h D prawd.hapriori: D htoliczbadok.spełniającychh, D to liczba wszystkich dok. P(x i h) T i +1 Z k=1 (T k+1)
124 Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n ) 1 = P(x 1,...,x ) P(h) P(x 1 h)... P(x n h) n P(h)= D h D prawd.hapriori: D htoliczbadok.spełniającychh, D to liczba wszystkich dok. P(x i h) T i +1 Z k=1 (T k+1) = T i +1 ( Z k=1 T k)+z
125 Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n ) 1 = P(x 1,...,x ) P(h) P(x 1 h)... P(x n h) n P(h)= D h D prawd.hapriori: D htoliczbadok.spełniającychh, D to liczba wszystkich dok. T i +1 P(x i h) Z k=1 (T k+1) = T i +1 ( Z k=1 T k)+z T i toliczbawystąpieńcechyx i wdokumentachspełniającychh
126 Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n ) 1 = P(x 1,...,x ) P(h) P(x 1 h)... P(x n h) n P(h)= D h D prawd.hapriori: D htoliczbadok.spełniającychh, D to liczba wszystkich dok. T i +1 P(x i h) Z k=1 (T k+1) = T i +1 ( Z k=1 T k)+z T i toliczbawystąpieńcechyx i wdokumentachspełniającychh, Z to liczba cech występujących w dokumentach spełniających h
127 Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n ) 1 = P(x 1,...,x ) P(h) P(x 1 h)... P(x n h) n P(h)= D h D prawd.hapriori: D htoliczbadok.spełniającychh, D to liczba wszystkich dok. T i +1 P(x i h) Z k=1 (T k+1) = T i +1 ( Z k=1 T k)+z T i toliczbawystąpieńcechyx i wdokumentachspełniającychh, Z to liczba cech występujących w dokumentach spełniających h, Z k=1 T ktoliczbawystąpieńwszystkichcechwewszystkichdok.spełniającychh
128 Wykład14,26V2010,str.18 P(x i h) T i +1 Zk=1 (T k +1)
129 Wykład14,26V2010,str.18 P(x i h) T i +1 Zk=1 (T k +1) Wygładzanie Laplace a jedynki dodane po to, żeby żaden czynnik iloczynu nie był zerem; wprowadzają niewielki błąd.
130 Wykład14,26V2010,str.18 P(x i h) T i +1 Zk=1 (T k +1) Wygładzanie Laplace a jedynki dodane po to, żeby żaden czynnik iloczynu nie był zerem; wprowadzają niewielki błąd. Do licznika dodajemy 1; ile dodać do mianownika, żeby wartość ułamka się nie zmieniła? a b =a+1 b+x
131 Wykład14,26V2010,str.18 P(x i h) T i +1 Zk=1 (T k +1) Wygładzanie Laplace a jedynki dodane po to, żeby żaden czynnik iloczynu nie był zerem; wprowadzają niewielki błąd. Do licznika dodajemy 1; ile dodać do mianownika, żeby wartość ułamka się nie zmieniła? a b =a+1 b+x x= b a
132 Wykład14,26V2010,str.18 P(x i h) T i +1 Zk=1 (T k +1) Wygładzanie Laplace a jedynki dodane po to, żeby żaden czynnik iloczynu nie był zerem; wprowadzają niewielki błąd. Do licznika dodajemy 1; ile dodać do mianownika, żeby wartość ułamka się nie zmieniła? a b =a+1 b+x x= b a Jeśliwartościa 1,...,a n niewielesięróżnią,to a i ni=1 a i 1 n.
133 Wykład14,26V2010,str.18 P(x i h) T i +1 Zk=1 (T k +1) Wygładzanie Laplace a jedynki dodane po to, żeby żaden czynnik iloczynu nie był zerem; wprowadzają niewielki błąd. Do licznika dodajemy 1; ile dodać do mianownika, żeby wartość ułamka się nie zmieniła? a b =a+1 b+x x= b a Jeśliwartościa 1,...,a n niewielesięróżnią,to a i ni=1 a i 1 n.wobectego a i ni=1 a i a i +1 ( n i=1 a i )+n
134 Wykład14,26V2010,str.18 P(x i h) T i +1 Zk=1 (T k +1) Wygładzanie Laplace a jedynki dodane po to, żeby żaden czynnik iloczynu nie był zerem; wprowadzają niewielki błąd. Do licznika dodajemy 1; ile dodać do mianownika, żeby wartość ułamka się nie zmieniła? a b =a+1 b+x x= b a Jeśliwartościa 1,...,a n niewielesięróżnią,to a i ni=1 a i 1 n.wobectego a i ni=1 a i a i +1 ( n i=1 a i )+n = a i +1 ni=1 (a i +1)
Klasyfikacja metodą Bayesa
Klasyfikacja metodą Bayesa Tadeusz Pankowski www.put.poznan.pl/~tadeusz.pankowski warunkowe i bezwarunkowe 1. Klasyfikacja Bayesowska jest klasyfikacją statystyczną. Pozwala przewidzieć prawdopodobieństwo
Systemy ekspertowe - wiedza niepewna
Instytut Informatyki Uniwersytetu Śląskiego lab 8 Rozpatrzmy następujący przykład: Miażdżyca powoduje często zwężenie tętnic wieńcowych. Prowadzi to zazwyczaj do zmniejszenia przepływu krwi w tych naczyniach,
Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18
Eksploracja Danych wykład 4 Sebastian Zając WMP.SNŚ UKSW 10 maja 2017 Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja 2017 1 / 18 Klasyfikacja danych Klasyfikacja Najczęściej stosowana (najstarsza)
Podstawy Teorii Prawdopodobieństwa
Statystyka Opisowa z Demografią oraz Biostatystyka Podstawy Teorii Prawdopodobieństwa Aleksander Denisiuk denisjuk@euh-e.edu.pl Elblaska Uczelnia Humanistyczno-Ekonomiczna ul. Lotnicza 2 82-300 Elblag
Zdarzenia losowe Zmienne losowe Prawdopodobieństwo Niezależność
Zdarzenia losowe Zmienne losowe Prawdopodobieństwo Niezależność przypomnienie pojęć ĆWICZENIA Piotr Ciskowski zdarzenie losowe ćwiczenie 1. zbiory Stanisz zilustruj następujące pojęcia: o A B o A B o A
Modelowanie Niepewności
Na podstawie: AIMA, ch13 Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 21 marca 2014 Na podstawie: AIMA, ch13 Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 21 marca
Data Mining Wykład 6. Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa.
GLM (Generalized Linear Models) Data Mining Wykład 6 Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa Naiwny klasyfikator Bayesa jest klasyfikatorem statystycznym -
Wnioskowanie bayesowskie
Wnioskowanie bayesowskie W podejściu klasycznym wnioskowanie statystyczne oparte jest wyłącznie na podstawie pobranej próby losowej. Możemy np. estymować punktowo lub przedziałowo nieznane parametry rozkładów,
Metody probabilistyczne klasyfikatory bayesowskie
Konwersatorium Matematyczne Metody Ekonomii narzędzia matematyczne w eksploracji danych First Prev Next Last Go Back Full Screen Close Quit Metody probabilistyczne klasyfikatory bayesowskie Wykład 8 Marcin
Elementy modelowania matematycznego
Elementy modelowania matematycznego Modelowanie algorytmów klasyfikujących. Podejście probabilistyczne. Naiwny klasyfikator bayesowski. Modelowanie danych metodą najbliższych sąsiadów. Jakub Wróblewski
Algorytmy stochastyczne, wykład 08 Sieci bayesowskie
Algorytmy stochastyczne, wykład 08 Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2014-04-10 Prawdopodobieństwo Prawdopodobieństwo Prawdopodobieństwo warunkowe Zmienne
Przestrzeń probabilistyczna
Przestrzeń probabilistyczna (Ω, Σ, P) Ω pewien niepusty zbiór Σ rodzina podzbiorów tego zbioru P funkcja określona na Σ, zwana prawdopodobieństwem. Przestrzeń probabilistyczna (Ω, Σ, P) Ω pewien niepusty
Analiza autokorelacji
Analiza autokorelacji Oblicza się wartości współczynników korelacji między y t oraz y t-i (dla i=1,2,...,k), czyli współczynniki autokorelacji różnych rzędów. Bada się statystyczną istotność tych współczynników.
Ł Ł Ś Ś ź Ć ź ź ź Ń Ł Ż Ś ź Ę Ż Ń Ę ź ź ź Ę ź Ł Ę ź Ę Ę Ę ź ź Ś ź ź Ł Ł Ź Ę Ł Ś ź Ę Ę Ę ń ź Ą ó Ę ĘĘ ź Ę ź Ą Ł Ę Ł Ą ź Ę ó Ź Ś ź Ń Ę Ę ĘĘ Ą Ś Ę Ł Ę Ć Ź ź Ź Ę Ę Ź ź Ź Ź Ź Ł Ż Ł Ę ź Ż Ź ź Ź Ź Ź Ź Ą Ż ŚĆ
Ź Ę Ę Ś Ś Ś ć Ę ć Ś ć Ź Ż Ś ć Ż Ź Ż Ą Ż Ę Ś Ź Ę Ź Ż Ó Ś ć ć Ś Ż Ć ź Ś Ń Ź ć Ó ź Ś Ń ź Ń Ź Ź ź Ż Ź Ź Ź Ź Ż Ź ć Ż Ę ź Ę ź ć Ń ć ć ć ć Ź Ę Ą ć Ę ć Ń ć ć Ź Ż ć Ó Ó Ó Ż ć Ó Ż Ę Ą Ź Ó Ń Ł ź ź Ń ć ć Ż ć Ś Ą
Ł Ł ń ń Ą ń ń Ś ń Ź ń ń ń Ż ń Ł ń Ś ń ń ń Ą Ą Ł Ż ń ń Ś ń Ź ń ń ć Ź ń ć Ś ć ć ń Ź ń Ą Ł Ł Ę ĘĘ Ż Ź ć Ł ń Ś Ą Ł Ł Ł Ą Ę Ę ń Ń ń Ź ń ć Ż ń Ż Ś ń Ń ń Ń Ź Ą ć Ł ń ć ć Ź Ą Ą Ą Ź Ą Ł Ą Ś ń ń Ś Ś Ą Ć ŚĆ Ł ć Ż
Ą Ń Ś Ę ź Ś Ś ź ź Ś Ś ź Ł Ś Ś Ś Ł ĘĘ Ś Ś Ś ć Ś Ś Ś Ś Ł Ó Ś Ł ć Ś Ść Ś Ś Ś Ń ć Ś Ł Ś Ź Ą ć ć Ł ź Ś Ą Ś Ł Ą Ś Ś Ą Ś Ś ź Ś ć Ł ć ć Ł Ł ć Ź ć ć Ś ć ź Ź ć Ś ć ć ć Ś Ą Ś Ś Ś ć Ś Ść Ś ć Ł ć Ś ć Ś Ś Ń ć ć Ł Ś
Agnieszka Nowak Brzezińska Wykład III
Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe
Zadania o numerze 4 z zestawów licencjat 2014.
Zadania o numerze 4 z zestawów licencjat 2014. W nawiasie przy zadaniu jego występowanie w numerze zestawu Spis treści (Z1, Z22, Z43) Definicja granicy ciągu. Obliczyć granicę:... 3 Definicja granicy ciągu...
Grawitacja. =2,38 km/s. Promień Księżyca jest równy R=1737km. Zadanie - Pierwsza prędkość kosmiczna fizyka.biz 1
Obliczyć wysokość na jaką wzniesie się ciało rzucone na Księżycu pionowo do góry z prędkością v=1 m/s? Druga prędkość kosmiczna dla Księżyca ma wartość v =,38 km/s. Promień Księżyca jest równy R=1737km.
Na podstawie: AIMA, ch13. Wojciech Jaśkowski. 15 marca 2013
Na podstawie: AIMA, ch13 Instytut Informatyki, Politechnika Poznańska 15 marca 2013 Źródła niepewności Świat częściowo obserwowalny Świat niedeterministyczny Także: Lenistwo i ignorancja (niewiedza) Cel:
Metody probabilistyczne
Metody probabilistyczne Prawdopodobieństwo warunkowe Jędrzej Potoniec Część I Podstawy interpretacji wyników badań medycznych Badanie raka Grupa kobiet w wieku 40 lat bierze udział w przesiewowej mammografi,
PODYPLOMOWE STUDIA ZAAWANSOWANE METODY ANALIZY DANYCH I DATA MINING W BIZNESIE
UNIWERSYTET WARMIŃSKO-MAZURSKI W OLSZTYNIE PODYPLOMOWE STUDIA ZAAWANSOWANE METODY ANALIZY DANYCH I DATA MINING W BIZNESIE http://matman.uwm.edu.pl/psi e-mail: psi@matman.uwm.edu.pl ul. Słoneczna 54 10-561
Moneta 1 Moneta 2 Kostka O, R O,R 1,2,3,4,5, Moneta 1 Moneta 2 Kostka O O ( )
Nowa matura kombinatoryka i rachunek prawdopodobieństwa Zadania zamknięte (0 1 pkt) 1. Doświadczenie losowe polega na rzucie dwiema symetrycznymi monetami i sześcienną kostką do gry. Prawdopodobieństwo
Co to jest klasyfikacja? Klasyfikacja a grupowanie Naiwny klasyfikator Bayesa
Co to jest klasyfikacja? Klasyfikacja a grupowanie Naiwny klasyfikator Bayesa Odkrywanie asocjacji Wzorce sekwencji Analiza koszykowa Podobieństwo szeregów temporalnych Klasyfikacja Wykrywanie odchyleń
Agnieszka Nowak Brzezińska Wykład III
Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe
Sztuczna inteligencja : Tworzenie sieci Bayesa
Instytut Informatyki Uniwersytetu Śląskiego 13 kwiecień 2011 Rysunek: Sieć Bayesa Rysunek: Sieć Bayesa Matura z matematyki na 60 %. Matura z matematyki na 100 %. Rozpatrzmy następujące przypadki: Uczeń
+ r arcsin. M. Przybycień Rachunek prawdopodobieństwa i statystyka π r x
Prawdopodobieństwo geometryczne Przykład: Przestrzeń zdarzeń elementarnych określona jest przez zestaw punktów (x, y) na płaszczyźnie i wypełnia wnętrze kwadratu [0 x 1; 0 y 1]. Znajdź p-stwo, że dowolny
Algorytmy klasyfikacji
Algorytmy klasyfikacji Konrad Miziński Instytut Informatyki Politechnika Warszawska 6 maja 2015 1 Wnioskowanie 2 Klasyfikacja Zastosowania 3 Drzewa decyzyjne Budowa Ocena jakości Przycinanie 4 Lasy losowe
Spam or Not Spam That is the question
or Not That is the question 4 maja 2006 Zwięzła definicja spamu Czym jest spam? Typy spamu Kto dostaje najwięcej spamu? to nadmiar informacji zbędnych dla odbiorcy przekazu. Definicji poszerzona Czym jest
Statystyczna analiza Danych
Statystyczna analiza Danych Dla bioinformatyków Wykład pierwszy: O testowaniu hipotez Plan na dziś Quiz! Cele wykładu Plan na semestr Kryteria zaliczenia Sprawy organizacyjne Quiz (15 minut) Jakie znasz
L.Kowalski zadania z rachunku prawdopodobieństwa-zestaw 1 ZADANIA - ZESTAW 1. (odp. a) B A C, b) A, c) A B, d) Ω)
ZADANIA - ZESTAW 1 Zadanie 1.1 Rzucamy trzy razy monetą. A i - zdarzenie polegające na tym, że otrzymamy orła w i - tym rzucie. Określić zbiór zdarzeń elementarnych. Wypisać zdarzenia elementarne sprzyjające
Prawdopodobieństwo czerwonych = = 0.33
Temat zajęć: Naiwny klasyfikator Bayesa a algorytm KNN Część I: Naiwny klasyfikator Bayesa Naiwny klasyfikator bayerowski jest prostym probabilistycznym klasyfikatorem. Naiwne klasyfikatory bayesowskie
Metody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 3 Metody estymacji. Estymator największej wiarygodności Zad. 1 Pojawianie się spamu opisane jest zmienną losową y o rozkładzie zero-jedynkowym
b) Niech: - wśród trzech wylosowanych opakowań jest co najwyżej jedno o dawce 15 mg. Wówczas:
ROZWIĄZANIA I ODPOWIEDZI Zadanie A1. Można założyć, że przy losowaniu trzech kul jednocześnie kolejność ich wylosowania nie jest istotna. A więc: Ω = 20 3. a) Niech: - wśród trzech wylosowanych opakowań
i=7 X i. Zachodzi EX i = P(X i = 1) = 1 2, i {1, 2,..., 11} oraz EX ix j = P(X i = 1, X j = 1) = 1 7 VarS 2 2 = 14 3 ( 5 2 =
Kombinatoryka W tej serii zadań można znaleźć pojawiające się na egzaminach zadania dotyczące problemu wyznaczania prostych parametrów rozkładu w przypadku zgadnień kombinatorycznych. Zadania te wymagają
Drugie kolokwium z Rachunku Prawdopodobieństwa, zestaw A
Drugie kolokwium z Rachunku Prawdopodobieństwa, zestaw A Zad. 1. Korzystając z podanych poniżej mini-tablic, oblicz pierwszy, drugi i trzeci kwartyl rozkładu N(10, 2 ). Rozwiązanie. Najpierw ogólny komentarz
Metody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 2 autorzy: A. Gonczarek, J.M. Tomczak Metody estymacji Zad. 1 Pojawianie się spamu opisane jest zmienną losową x o rozkładzie dwupunktowym
Rachunek prawdopodobieństwa
Rachunek prawdopodobieństwa Sebastian Rymarczyk srymarczyk@afm.edu.pl Tematyka zajęć 1. Elementy kombinatoryki. 2. Definicje prawdopodobieństwa. 3. Własności prawdopodobieństwa. 4. Zmienne losowe, parametry
Algorytmy, które estymują wprost rozkłady czy też mapowania z nazywamy algorytmami dyskryminacyjnymi.
Spis treści 1 Wstęp: generatywne algorytmy uczące 2 Gaussowska analiza dyskryminacyjna 2.1 Gaussowska analiza dyskryminacyjna a regresja logistyczna 3 Naiwny Klasyfikator Bayesa 3.1 Wygładzanie Laplace'a
LISTA 1 ZADANIE 1 a) 41 x =5 podnosimy obustronnie do kwadratu i otrzymujemy: 41 x =5 x 5 x przechodzimy na system dziesiętny: 4x 1 1=25 4x =24
LISTA 1 ZADANIE 1 a) 41 x =5 podnosimy obustronnie do kwadratu i otrzymujemy: 41 x =5 x 5 x przechodzimy na system dziesiętny: 4x 1 1=25 4x =24 x=6 ODP: Podstawą (bazą), w której spełniona jest ta zależność
Przypomnienie elementów z rachunku prawdopodobieństwa. Naiwny klasyfikator Bayesa. Aktualizacja rozkładów wg reguły Bayesa.
1/ 32 Przypomnienie elementów z rachunku prawdopodobieństwa. Naiwny klasyfikator Bayesa. Aktualizacja rozkładów wg reguły Bayesa. Przemysław Klęsk pklesk@wi.zut.edu.pl Literatura 2/ 32 1 D. Hand, H. Mannila,
Metody probabilistyczne
Metody probabilistyczne. Twierdzenia graniczne Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 20.2.208 / 26 Motywacja Rzucamy wielokrotnie uczciwą monetą i zliczamy
Propozycje rozwiązań zadań z matematyki - matura rozszerzona
Jacek Kredenc Propozycje rozwiązań zadań z matematyki - matura rozszerzona Zadanie 1 Zastosujmy trójkąt Paskala 1 1 1 1 2 1 1 3 3 1 Przy iloczynie będzie stał współczynnik 3. Zatem Odpowiedź : C Zadanie
Kilka ciekawostek czyli licznik. Metodologia badania naukowego. Mianownik czyli wiedza ogółem. Globalny naukowy dorobek podwaja się co lat
UNIWERSYTET IM. ADAMA MICKIEWICZA W POZNANIU Wydział Nauk Społecznych Instytut Psychologii Kilka ciekawostek czyli licznik Publikacje naukowe powstają od ponad 350 lat 2019, Dr Paweł Kleka Metodologia
Rozwiązania listopad 2016 Zadania zamknięte = = = 2. = =1 (D) Zad 3. Październik x; listopad 1,1x; grudzień 0,6x. (D) Zad 5. #./ 0'!
Zad 1., Rozwiązania listopad 2016 Zadania zamknięte 2 2 4 2 Zad 2. log 50 log 2log log 252 czyli 1 Zad 3. Październik x; listopad 1,1x; grudzień 0,6x.!,!," średnia: 0,9& czyli średnia to 90% października
Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova
Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova M. Czoków, J. Piersa 2010-12-21 1 Definicja Własności Losowanie z rozkładu dyskretnego 2 3 Łańcuch Markova Definicja Własności Losowanie z rozkładu
TEST STATYSTYCZNY. Jeżeli hipotezę zerową odrzucimy na danym poziomie istotności, to odrzucimy ją na każdym większym poziomie istotności.
TEST STATYSTYCZNY Testem statystycznym nazywamy regułę postępowania rozstrzygająca, przy jakich wynikach z próby hipotezę sprawdzaną H 0 należy odrzucić, a przy jakich nie ma podstaw do jej odrzucenia.
Tablice trwania życia
ROZDZIAŁ 3 Tablice trwania życia 1 Przyszły czas życia Osobę, która ukończyła x lat życia, będziemy nazywać x-latkiem i oznaczać symbolem x Jej przyszły czas życia, tzn od chwili x do chwili śmierci, będziemy
MODELE MATEMATYCZNE W UBEZPIECZENIACH
MODELE MATEMATYCZNE W UBEZPIECZENIACH WYKŁAD 3: WYZNACZANIE ROZKŁADU CZASU PRZYSZŁEGO ŻYCIA 1 Hipoteza jednorodnej populacji Rozważmy pewną populację osób w różnym wieku i załóżmy, że każda z tych osób
Testowanie hipotez statystycznych.
Bioinformatyka Wykład 6 Wrocław, 7 listopada 2011 Temat. Weryfikacja hipotez statystycznych dotyczących proporcji. Test dla proporcji. Niech X 1,..., X n będzie próbą statystyczną z 0-1. Oznaczmy odpowiednio
Przykłady do zadania 3.1 :
Rachunek prawdopodobieństwa MAP5 Wydział Elektroniki, rok akad. /, sem. letni Wykładowca: dr hab. A. Jurlewicz Przykłady do listy 3: Zmienne losowe dyskretne. Rozkłady Bernoulliego (dwumianowy), Pascala,
Prawdopodobeństwo, test χ 2
Prawdopodobeństwo, test χ 2 Autor: Grzegorz Góralski ggoralski.com Co to jest prawdopodobieństwo? Prawdopodobieństwo = Liczba interesujących nas zdarzeń Liczba wszystkich zdarzeń Jakie jest prawdopodobieństwo
Agnieszka Nowak Brzezińska
Agnieszka Nowak Brzezińska Klasyfikacja Bayesowska jest klasyfikacją statystyczną. Pozwala przewidzieć prawdopodobieństwo przynależności obiektu do klasy. Opiera się na twierdzeniu Bayesa. Twierdzenia
Regresyjne metody łączenia klasyfikatorów
Regresyjne metody łączenia klasyfikatorów Tomasz Górecki, Mirosław Krzyśko Wydział Matematyki i Informatyki Uniwersytet im. Adama Mickiewicza XXXV Konferencja Statystyka Matematyczna Wisła 7-11.12.2009
Fuzja sygnałów i filtry bayesowskie
Fuzja sygnałów i filtry bayesowskie Roboty Manipulacyjne i Mobilne dr inż. Janusz Jakubiak Katedra Cybernetyki i Robotyki Wydział Elektroniki, Politechnika Wrocławska Wrocław, 10.03.2015 Dlaczego potrzebna
Podstawy fizyki sezon 1 III. Praca i energia
Podstawy fizyki sezon 1 III. Praca i energia Agnieszka Obłąkowska-Mucha WFIiS, Katedra Oddziaływań i Detekcji Cząstek, D11, pok. 111 amucha@agh.edu.pl http://home.agh.edu.pl/~amucha F.Żarnecki Praca Rozważamy
Metody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 2 κ-nn i Naive Bayes autorzy: M. Zięba, J.M. Tomczak, A. Gonczarek, S. Zaręba Cel zadania Celem zadania jest implementacja klasyfikatorów
Rozkłady statystyk z próby
Rozkłady statystyk z próby Rozkłady statystyk z próby Przypuśćmy, że wykonujemy serię doświadczeń polegających na 4 krotnym rzucie symetryczną kostką do gry, obserwując liczbę wyrzuconych oczek Nr kolejny
WIELOMIANY SUPER TRUDNE
IMIE I NAZWISKO WIELOMIANY SUPER TRUDNE 27 LUTEGO 2011 CZAS PRACY: 210 MIN. SUMA PUNKTÓW: 200 ZADANIE 1 (5 PKT) Dany jest wielomian W(x) = x 3 + 4x + p, gdzie p > 0 jest liczba pierwsza. Znajdź p wiedzac,
Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV
Klasyfikatory: k-nn oraz naiwny Bayesa Agnieszka Nowak Brzezińska Wykład IV Naiwny klasyfikator Bayesa Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną
Porównanie dwóch rozkładów normalnych
Porównanie dwóch rozkładów normalnych Założenia: 1. X 1 N(µ 1, σ 2 1), X 2 N(µ 2, σ 2 2) 2. X 1, X 2 są niezależne Ocena µ 1 µ 2 oraz σ 2 1/σ 2 2. Próby: X 11,..., X 1n1 ; X 21,..., X 2n2 X 1, varx 1,
Ważne rozkłady i twierdzenia
Ważne rozkłady i twierdzenia Rozkład dwumianowy i wielomianowy Częstość. Prawo wielkich liczb Rozkład hipergeometryczny Rozkład Poissona Rozkład normalny i rozkład Gaussa Centralne twierdzenie graniczne
PRÓBNA MATURA ZADANIA PRZYKŁADOWE
ZESPÓŁ SZKÓŁ HOTELARSKO TURYSTYCZNO GASTRONOMICZNYCH NR UL. KRASNOŁĘCKA 3, WARSZAWA Z A D AN I A Z A M K N I Ę T E ) Liczba, której 5% jest równe 6, to : A. 0,3 C. 30. D. 0 5% 6 II sposób: x nieznana liczba
Sieci Bayesa mgr Tomasz Xięski, Instytut Informatyki, Uniwersytet Śląski Sosnowiec, 2011
Sieci Bayesa mgr Tomasz Xięski, Instytut Informatyki, Uniwersytet Śląski Sosnowiec, 2011 Sieć Bayesowska służy do przedstawiania zależności pomiędzy zdarzeniami bazując na rachunku prawdopodobieństwa.
Biostatystyka, # 3 /Weterynaria I/
Biostatystyka, # 3 /Weterynaria I/ dr n. mat. Zdzisław Otachel Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Głęboka 28, p. 221 bud. CIW, e-mail: zdzislaw.otachel@up.lublin.pl
WYKŁAD 3. Klasyfikacja: modele probabilistyczne
Wrocław University of Technology WYKŁAD 3 Klasyfikacja: modele probabilistyczne Maciej Zięba Politechnika Wrocławska Klasyfikacja Klasyfikacja (ang. Classification): Dysponujemy obserwacjami z etykietami
Funkcja kwadratowa. f(x) = ax 2 + bx + c,
Funkcja kwadratowa. Funkcją kwadratową nazywamy funkcję f : R R określoną wzorem gdzie a, b, c R, a 0. f(x) = ax 2 + bx + c, Szczególnym przypadkiem funkcji kwadratowej jest funkcja f(x) = ax 2, a R \
Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.
Procesy stochastyczne WYKŁAD 2-3 Łańcuchy Markowa Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi. Przykład Symetryczne błądzenie przypadkowe na prostej. 1 2 Łańcuchem
TECHNIKA DRZWI ZATRZAŚNIĘTE PRZED NOSEM
Badanie pilotażowe TECHNIKA DRZWI ZATRZAŚNIĘTE PRZED NOSEM Czy łatwa prośba etyczna zostanie spełniona istotnie częściej jeśli poprzedzi się ją nieetyczną prośbą trudną? H0 nie, H1 tak. Schemat eksperymentu
Rozkład zajęć, statystyka matematyczna, Rok akademicki 2015/16, semestr letni, Grupy dla powtarzających (C15; C16)
Rozkład zajęć, statystyka matematyczna, Rok akademicki 05/6, semestr letni, Grupy powtarzających (C5; C6) Lp Grupa C5 Grupa C6 Liczba godzin 0046 w godz 600-000 C03 0046 w godz 600-000 B05 4 6046 w godz
Prawdopodobieństwo
Prawdopodobieństwo http://www.matemaks.pl/ Wstęp do rachunku prawdopodobieństwa http://www.matemaks.pl/wstep-do-rachunku-prawdopodobienstwa.html Rachunek prawdopodobieństwa pomaga obliczyć szansę zaistnienia
DODATKOWA PULA ZADAŃ DO EGZAMINU. Rozważmy ciąg zdefiniowany tak: s 0 = a. s n+1 = 2s n +b (dla n=0,1,2 ) Pokaż, że s n = 2 n a +(2 n =1)b
DODATKOWA PULA ZADAŃ DO EGZAMINU Rozważmy ciąg zdefiniowany tak: s 0 = a s n+1 = 2s n +b (dla n=0,1,2 ) Pokaż, że s n = 2 n a +(2 n =1)b Udowodnij, że liczba postaci 5 n+1 +2 3 n +1 jest podzielna przez
Podstawy metod probabilistycznych. dr Adam Kiersztyn
Podstawy metod probabilistycznych dr Adam Kiersztyn Przestrzeń zdarzeń elementarnych i zdarzenia losowe. Zjawiskiem lub doświadczeniem losowym nazywamy taki proces, którego przebiegu i ostatecznego wyniku
WYKŁAD 4. Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie. autor: Maciej Zięba. Politechnika Wrocławska
Wrocław University of Technology WYKŁAD 4 Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie autor: Maciej Zięba Politechnika Wrocławska Klasyfikacja Klasyfikacja (ang. Classification):
KOMINKI WENTYLACYJNE DN110 / DN150
KOMINKI WENTYLACYJNE / DN150 KOMINEK WENTYLACYJNY WBUDOWANA POZIOMICA Każdy kominek regulowany, posiada wbudowaną poziomicę, aby ułatwić precyzyjny montaż ZWIĘKSZENIE WYDAJNOŚCI Pierścieniowa konstrukcja
Clockwork as a solution to the flavour puzzle
Clockwork a a oluon to the flavour puzzle Rodrigo Alono Beyond the BSM 2//28 eab6hicbns8naej3urq/qh69lbbbuleqmeif48t2a9oq9lj+3azsbboqs+gu8efdeqz/jm//gbzudtj4yelw8y8ibfcg9f9dgobmvbo8xdt7+wefr+fikrenumwyxwmsqgcngktgw4edhofnaoedolj3dzvpkhspjypzpqgh95cfnfipiynyxa26c5b4uwkajkag/jxfxiznejpmkba9zmx5glefm4kzutzumle3ochuwshqh9rpfotnyyzuhcwnlsxqyuh9pzdtsehtjoizqxxvbn4n9dltxjjzwmquhjlovcatk/nxzmgvmiomllcmul2vdfvlbmbtcmg4k2+ve7avxprxrn6r9no+jcgdwdpfgqq3qca8naaedhgd4htxlx3p2pzwvbywdo4q+czx/jbyzp
Funkcje wymierne. Jerzy Rutkowski. Teoria. Działania dodawania i mnożenia funkcji wymiernych określa się wzorami: g h + k l g h k.
Funkcje wymierne Jerzy Rutkowski Teoria Przypomnijmy, że przez R[x] oznaczamy zbiór wszystkich wielomianów zmiennej x i o współczynnikach rzeczywistych. Definicja. Funkcją wymierną jednej zmiennej nazywamy
Stabilność. Krzysztof Patan
Stabilność Krzysztof Patan Pojęcie stabilności systemu Rozważmy obiekt znajdujący się w punkcie równowagi Po przyłożeniu do obiektu siły F zostanie on wypchnięty ze stanu równowagi Jeżeli po upłynięciu
Pojęcie przestrzeni probabilistycznej
Pojęcie przestrzeni probabilistycznej Definicja (przestrzeni probabilistycznej) Uporządkowany układ < Ω, S, P> nazywamy przestrzenią probabilistyczną jeśli (Ω) Ω jest niepustym zbiorem zwanym przestrzenia
Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne
Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne 5.3 Rozkłady warunkowe i warunkowa wartość oczekiwana Katarzyna Rybarczyk-Krzywdzińska semestr zimowy 2015/2016 Prawdopodobieństwo wyraża postawę
Statystyka Inżynierska
Statystyka Inżynierska dr hab. inż. Jacek Tarasiuk AGH, WFiIS 2014 Wykład 1 ODSTAWY RACHUNKU RAWDOODOBIEŃSTWA ojęcie, Własności, rawdopodobieństwo i, Twierdzenie Definicja Zdarzenie (doświadczenie) nazywamy
Klasyfikacja naiwny Bayes
Klasyfikacja naiwny Bayes LABORKA Piotr Ciskowski NAIWNY KLASYFIKATOR BAYESA wyjaśnienie Naiwny klasyfikator Bayesa żródło: Internetowy Podręcznik Statystyki Statsoft dane uczące 2 klasy - prawdopodobieństwo
STATYSTYKA wykład 1. Wanda Olech. Katedra Genetyki i Ogólnej Hodowli Zwierząt
STTYSTYK wykład 1 Wanda Olech Katedra Genetyki i Ogólnej Hodowli Zwierząt Plan wykładów Data WYKŁDY 1.X rachunek prawdopodobieństwa; 8.X zmienna losowa jednowymiarowa, funkcja rozkładu, dystrybuanta 15.X
19 marzec, Łańcuchy Markowa z czasem dyskretnym. Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136
Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 19 marzec, 2012 Przykłady procesów Markowa (i). P = (p ij ) - macierz stochastyczna, tzn. p ij 0, j p ij =
Rachunek Prawdopodobieństwa i Statystyka
Rachunek Prawdopodobieństwa i Statystyka W 2. Probabilistyczne modele danych Zmienne losowe. Rozkład prawdopodobieństwa i dystrybuanta. Wartość oczekiwana i wariancja zmiennej losowej Dr Anna ADRIAN Zmienne
Wykład 2. Zdarzenia niezależne i prawdopodobieństwo całkowite
Wstęp do probabilistyki i statystyki Wykład 2. Zdarzenia niezależne i prawdopodobieństwo całkowite dr hab.inż. Katarzyna Zakrzewska, prof.agh, Katedra lektroniki, WIT AGH Wstęp do probabilistyki i statystyki.
Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.
Procesy stochastyczne WYKŁAD 2-3 Łańcuchy Markowa Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi. 2 Łańcuchem Markowa nazywamy proces będący ciągiem zmiennych
Wielkości liczbowe. Wykład z Podstaw Informatyki dla I roku BO. Piotr Mika
Wielkości liczbowe Wykład z Podstaw Informatyki dla I roku BO Piotr Mika Wprowadzenie, liczby naturalne Komputer to podstawowe narzędzie do wykonywania obliczeń Jeden bajt reprezentuje 0 oraz liczby naturalne
Chcąc wyróżnić jedno z działań, piszemy np. (, ) i mówimy, że działanie wprowadza w STRUKTURĘ ALGEBRAICZNĄ lub, że (, ) jest SYSTEMEM ALGEBRAICZNYM.
DEF. DZIAŁANIE DWUARGUMENTOWE Działaniem dwuargumentowym w niepsutym zbiorze nazywamy każde odwzorowanie iloczynu kartezjańskiego :. Inaczej mówiąc, w zbiorze jest określone działanie dwuargumentowe, jeśli:
Skrypt 2. Liczby wymierne dodatnie i niedodatnie. 3. Obliczanie odległości między dwiema liczbami na osi liczbowej
Projekt Innowacyjny program nauczania matematyki dla gimnazjów współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego Skrypt 2 Liczby wymierne dodatnie i niedodatnie
Arytmetyka. Działania na liczbach, potęga, pierwiastek, logarytm
Arytmetyka Działania na liczbach, potęga, pierwiastek, logarytm Zbiory liczbowe Zbiór liczb naturalnych N = {1,2,3,4, }. Zbiór liczb całkowitych Z = {, 3, 2, 1,0,1,2,3, }. Zbiory liczbowe Zbiór liczb wymiernych
Funkcje wymierne. Jerzy Rutkowski. Działania dodawania i mnożenia funkcji wymiernych określa się wzorami: g h + k l g h k.
Funkcje wymierne Jerzy Rutkowski Teoria Przypomnijmy, że przez R[x] oznaczamy zbiór wszystkich wielomianów zmiennej x i o współczynnikach rzeczywistych Definicja Funkcją wymierną jednej zmiennej nazywamy
Rzucamy dwa razy sprawiedliwą, sześcienną kostką do gry. Oblicz prawdopodobieństwo otrzymania:
Statystyka Ubezpieczeniowa Część 1. Rachunek prawdopodobieństwa: - prawdopodobieństwo klasyczne - zdarzenia niezależne - prawdopodobieństwo warunkowe - prawdopodobieństwo całkowite - wzór Bayesa Schemat
Wykład 9 Testy rangowe w problemie dwóch prób
Wykład 9 Testy rangowe w problemie dwóch prób Wrocław, 18 kwietnia 2018 Test rangowy Testem rangowym nazywamy test, w którym statystyka testowa jest konstruowana w oparciu o rangi współrzędnych wektora
Klasyfikacja i regresja Wstęp do środowiska Weka
Klasyfikacja i regresja Wstęp do środowiska Weka 19 listopada 2015 Opis pliku z zadaniami Wszystkie zadania na zajęciach będą przekazywane w postaci plików pdf sformatowanych podobnie do tego dokumentu.
Rozpoznawanie obrazów
Rozpoznawanie obrazów Laboratorium Python Zadanie nr 2 κ-nn i Naive Bayes autorzy: M. Zięba, J.M. Tomczak, A. Gonczarek, S. Zaręba, J. Kaczmar Cel zadania Celem zadania jest implementacja klasyfikatorów