Modelowanie Niepewności
|
|
- Liliana Marta Wierzbicka
- 7 lat temu
- Przeglądów:
Transkrypt
1 Na podstawie: AIMA, ch13 Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 21 marca 2014 Na podstawie: AIMA, ch13 Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 21 marca 2014
2 Źródła niepewności Wstęp Źródła niepewności Źródła niepewności Jakie są źródła niepewności? Jakie są źródła niepewności?
3 Źródła niepewności Wstęp Źródła niepewności Źródła niepewności Jakie są źródła niepewności? częściowa obserwowalność niedeterministyczny Wynikające często jednak z zawinionej niewiedzy: lenistwa i ignorancji Cel: Racjonalne decyzje w kontekście niepewności. Jakie są źródła niepewności? częściowa obserwowalność niedeterministyczny Wynikające często jednak z zawinionej niewiedzy: lenistwa i ignorancji Cel: Racjonalne decyzje w kontekście niepewności.
4 Świat Wumpus a 4 Stench Breeze PIT Wstęp Świat Wumpus a Świat Wumpus a 4 Stench 3 Stench PIT Gold 2 Stench 1 Breeze Breeze Breeze Breeze PIT PIT Breeze Breeze START Breeze 3 Stench PIT Breeze Gold 2 Stench Breeze 1 Breeze PIT Breeze START
5 Świat Wumpus a 1,4 2,4 3,4 4,4 Wstęp Świat Wumpus a Świat Wumpus a 1,4 2,4 3,4 4,4 1,3 2,3 3,3 4,3 1,2 2,2 3,2 4,2 B OK 1,1 2,1 3,1 4,1 B OK OK 1,3 2,3 3,3 4,3 1. W takiej sytuacji Wumpus nie ma bezpiecznego ruchu, bo bryza w (1,2) i (2,1). Jaki ruch Wumpus powinien więc wykonać? Jakie jest prawdopodobieństwo, że na polu (1,3) jest pułapka? A jakie dla (2,2) i dla (3,1)? 1,2 2,2 3,2 4,2 B OK 1,1 2,1 3,1 4,1 B OK OK
6 Podstawy: notacja zmienna losowa Cancer = C = { c, c} Podstawy: notacja Podstawy: notacja zmienna losowa Cancer = C = { c, c} Test = T = { t, t} Test = T = { t, t} 1. rozkład prawd. łącznego: wektor wszystkich kombinacji wartości zmiennych losowych.
7 Podstawy: notacja zmienna losowa Cancer = C = { c, c} Podstawy: notacja Podstawy: notacja zmienna losowa Cancer = C = { c, c} Test = T = { t, t} prawdopodobieństwo zdarzenia P(c) = 0.3 Test = T = { t, t} prawdopodobieństwo zdarzenia 1. rozkład prawd. łącznego: wektor wszystkich kombinacji wartości zmiennych losowych. P(c) = 0.3
8 Podstawy: notacja zmienna losowa Cancer = C = { c, c} Podstawy: notacja Podstawy: notacja zmienna losowa Cancer = C = { c, c} Test = T = { t, t} prawdopodobieństwo zdarzenia P(c) = 0.3 rozkład prawdopodobieństwa P(Cancer) = P(c), P( c) = 0.3, 0.7 Test = T = { t, t} prawdopodobieństwo zdarzenia 1. rozkład prawd. łącznego: wektor wszystkich kombinacji wartości zmiennych losowych. P(c) = 0.3 rozkład prawdopodobieństwa P(Cancer) = P(c), P( c) = 0.3, 0.7
9 Podstawy: notacja zmienna losowa Cancer = C = { c, c} Podstawy: notacja Podstawy: notacja zmienna losowa Cancer = C = { c, c} Test = T = { t, t} prawdopodobieństwo zdarzenia P(c) = 0.3 rozkład prawdopodobieństwa P(Cancer) = P(c), P( c) = 0.3, 0.7 prawd. łączne P(c t) = P(c, t) = 0.4 Test = T = { t, t} prawdopodobieństwo zdarzenia 1. rozkład prawd. łącznego: wektor wszystkich kombinacji wartości zmiennych losowych. P(c) = 0.3 rozkład prawdopodobieństwa P(Cancer) = P(c), P( c) = 0.3, 0.7 prawd. łączne P(c t) = P(c, t) = 0.4
10 Podstawy: notacja zmienna losowa Cancer = C = { c, c} Podstawy: notacja Podstawy: notacja zmienna losowa Cancer = C = { c, c} Test = T = { t, t} prawdopodobieństwo zdarzenia P(c) = 0.3 rozkład prawdopodobieństwa P(Cancer) = P(c), P( c) = 0.3, 0.7 prawd. łączne P(c t) = P(c, t) = 0.4 rozkład prawd. łącznego P(Cancer, Test) = P(c t), P(c t), P( c, t), P( c, t) Test = T = { t, t} prawdopodobieństwo zdarzenia 1. rozkład prawd. łącznego: wektor wszystkich kombinacji wartości zmiennych losowych. P(c) = 0.3 rozkład prawdopodobieństwa P(Cancer) = P(c), P( c) = 0.3, 0.7 prawd. łączne P(c t) = P(c, t) = 0.4 rozkład prawd. łącznego P(Cancer, Test) = P(c t), P(c t), P( c, t), P( c, t)
11 Podstawy: prawd. warunkowe Podstawy: prawd. warunkowe Podstawy: prawd. warunkowe Prawdopodobieństwo warunkowe P(c t)p(t) = P(c t) (reguła produkcji) Prawdopodobieństwo warunkowe 1. Graficznie: dwa przecinające się zbiory. t zaistniało, więc jakie jest prawd., że zaistnieje c? P(c t) = P(c t) P(t). P(c t)p(t) = P(c t) (reguła produkcji)
12 (Pełny) rozkład prawd. łącznego (Pełny) rozkład prawd. łącznego (Pełny) rozkład prawd. łącznego
13 Prawd. marginalne (marginalizacja) [zadanie 0] P(dziura) =? P(Dziura) =? Prawd. marginalne (marginalizacja) 1. P(dziura) = = 0.2 Marginalizujemy Ból i Test 2. P(Dziura) =< 0.2, 0.8 > 3. P(dziura ) = = 0.08 Marginalizujemy Test Prawd. marginalne (marginalizacja) [zadanie 0] P(dziura) =? P(Dziura) =?
14 Prawd. marginalne (marginalizacja) [zadanie 0] P(dziura) =? P(Dziura) =? [zadanie 1] P(dziura ) =? Prawd. marginalne (marginalizacja) 1. P(dziura) = = 0.2 Marginalizujemy Ból i Test 2. P(Dziura) =< 0.2, 0.8 > 3. P(dziura ) = = 0.08 Marginalizujemy Test Prawd. marginalne (marginalizacja) [zadanie 0] P(dziura) =? P(Dziura) =? [zadanie 1] P(dziura ) =?
15 Prawd. marginalne (marginalizacja) [zadanie 0] P(dziura) =? P(Dziura) =? [zadanie 1] P(dziura ) =? Prawd. marginalne (marginalizacja) 1. P(dziura) = = 0.2 Marginalizujemy Ból i Test 2. P(Dziura) =< 0.2, 0.8 > 3. P(dziura ) = = 0.08 Marginalizujemy Test Prawd. marginalne (marginalizacja) [zadanie 0] P(dziura) =? P(Dziura) =? [zadanie 1] P(dziura ) =? Ogólnie: P(Y) = P(Y, x) = P(Y x)p(x), x X x X gdzie Y i X są wektorami zmiennych losowych Ogólnie: P(Y) = x X P(Y, x) = x X P(Y x)p(x), gdzie Y i X są wektorami zmiennych losowych
16 Prawd. całkowite [zadanie 2] Przed obliczeniami: czy to będzie duża wartość? P(dziura ) =? Prawd. całkowite Prawd. całkowite [zadanie 2] Przed obliczeniami: czy to będzie duża wartość? P(dziura ) =?
17 Prawd. całkowite [zadanie 2] Przed obliczeniami: czy to będzie duża wartość? P(dziura ) P(dziura ) = P() = = 0.6 Prawd. całkowite Prawd. całkowite dziura [zadanie 2] Przed obliczeniami: czy to będzie duża wartość? Ogólnie: P(dziura ) = = P(Y Z) = x X P(dziura ) P() = 0.6 P(Y, x Z) = x X P(Y, x Z)P(Z) Ogólnie: P(Y Z) = x X P(Y, x Z) = x X P(Y, x Z)P(Z)
18 Normalizacja Normalizacja Normalizacja P(dziura ) = P(dziura ) P() [zadanie 3] Policz, rozpisz: 1. Ten sam mianownik! Liczenie mianownika często jest trudne , więc normalizujemy je dzieląc przez = 0.2. = P( dziura ) =? P(dziura ) = P(dziura ) P() = [zadanie 3] Policz, rozpisz: P( dziura ) =?
19 Normalizacja Normalizacja Normalizacja P(dziura ) = P(dziura ) P() [zadanie 3] Policz, rozpisz: P( dziura ) = 1. Ten sam mianownik! Liczenie mianownika często jest trudne , więc normalizujemy je dzieląc przez = 0.2. = P( dziura ) P() = P(dziura ) = P(dziura ) P() = [zadanie 3] Policz, rozpisz: P( dziura ) = P( dziura ) P() =
20 Normalizacja Normalizacja Normalizacja P(dziura ) = P(dziura ) P() [zadanie 3] Policz, rozpisz: P( dziura ) = 1. Ten sam mianownik! Liczenie mianownika często jest trudne , więc normalizujemy je dzieląc przez = 0.2. = P( dziura ) P() = P(Dziura ) = P(dziura ) = P(dziura ) P() = [zadanie 3] Policz, rozpisz: P( dziura ) = P( dziura ) P() = P(Dziura ) =
21 Normalizacja Normalizacja Normalizacja P(dziura ) = P(dziura ) P() [zadanie 3] Policz, rozpisz: P( dziura ) = 1. Ten sam mianownik! Liczenie mianownika często jest trudne , więc normalizujemy je dzieląc przez = 0.2. = P( dziura ) P() = P(Dziura ) = αp(dziura, ) = α , α 0.12, 0.08 = 0.6, 0.4 P(dziura ) = P(dziura ) P() [zadanie 3] Policz, rozpisz: P( dziura ) = = P( dziura ) P() = P(Dziura ) = αp(dziura, ) = α , α 0.12, 0.08 = 0.6, 0.4
22 Normalizacja Normalizacja Normalizacja [zadanie 3] Policz, rozpisz: P(Dziura ) = αp(dziura, ) = α , Ogólnie: α 0.12, 0.08 = 0.6, 0.4 P(X e) = αp(x, e), gdzie X jest wektorem zmiennych losowych 1. Ten sam mianownik! Liczenie mianownika często jest trudne , więc normalizujemy je dzieląc przez = 0.2. [zadanie 3] Policz, rozpisz: P(Dziura ) = αp(dziura, ) = α , α 0.12, 0.08 = 0.6, 0.4 Ogólnie: P(X e) = αp(x, e), gdzie X jest wektorem zmiennych losowych
23 Podstawy: niezależność Niezależność zdarzeń losowych c t, jeśli P(c) = P(c t) lub P(t) = P(t c) Podstawy: niezależność Podstawy: niezależność Niezależność zdarzeń losowych c t, jeśli P(c) = P(c t) lub P(t) = P(t c) lub P(c)P(t) = P(c t) lub P(c)P(t) = P(c t) 1. Graficznie: niezależność zdarzeń losowych, jeśli pole c w stosunku do całości = pole c t w stosunku do t.
24 Podstawy: niezależność Niezależność zdarzeń losowych c t, jeśli P(c) = P(c t) lub P(t) = P(t c) Podstawy: niezależność Podstawy: niezależność Niezależność zdarzeń losowych c t, jeśli P(c) = P(c t) lub P(t) = P(t c) lub P(c)P(t) = P(c t) Niezależność zmiennych losowych C T : P(C)P(T ) = P(C T ) [zadanie 4] Rozpisać powyższe lub P(c)P(t) = P(c t) Niezależność zmiennych losowych C T : 1. Graficznie: niezależność zdarzeń losowych, jeśli pole c w stosunku do całości = pole c t w stosunku do t. [zadanie 4] Rozpisać powyższe P(C)P(T ) = P(C T )
25 Podstawy: niezależność Niezależność zdarzeń losowych c t, jeśli P(c) = P(c t) lub P(t) = P(t c) Podstawy: niezależność Podstawy: niezależność Niezależność zdarzeń losowych c t, jeśli P(c) = P(c t) lub P(t) = P(t c) lub P(c)P(t) = P(c t) Niezależność zmiennych losowych C T : P(C)P(T ) = P(C T ) [zadanie 4] Rozpisać powyższe Lewa = P(c), P( c) P(t), P( t) = P(c)P(t), P(c)P( t), P( c)p(t), P( c)p( t) Prawa = P(c t), P(c t), P( c t), P( c t) wiedza o niezależności zmiennych jest zwykle wiedzą dziedzinową. lub P(c)P(t) = P(c t) Niezależność zmiennych losowych C T : 1. Graficznie: niezależność zdarzeń losowych, jeśli pole c w stosunku do całości = pole c t w stosunku do t. [zadanie 4] Rozpisać powyższe P(C)P(T ) = P(C T ) Lewa = P(c), P( c) P(t), P( t) = P(c)P(t), P(c)P( t), P( c)p(t), P( c)p( t) Prawa = P(c t), P(c t), P( c t), P( c t) wiedza o niezależności zmiennych jest zwykle wiedzą dziedzinową.
26 Niezależność Czwarta zmienna: Pogoda(P) P(P = s loneczna, b, t, d) = P(P = s loneczna b, t, d)p(b, t, d) Niezależność Niezależność Czwarta zmienna: Pogoda(P) P(P = s loneczna, b, t, d) = P(P = s loneczna b, t, d)p(b, t, d) Ale przecież (logika!): P(P = s loneczna b, t, d) = P(Pogoda = s loneczna) więc P(P = s loneczna, b, t, d) = P(P = s loneczna)p(b, t, d) Ale przecież (logika!): więc P(P = s loneczna b, t, d) = P(Pogoda = s loneczna) P(P = s loneczna, b, t, d) = P(P = s loneczna)p(b, t, d)
27 decomposes into Konsekwencja niezależności Konsekwencja niezależności Konsekwencja niezależności Cavity Toothache Catch Weather Cavity Toothache Catch Weather Coin 1 decomposes into Coin 1 Coin n Coin n Cavity Toothache Weather Catch Coin 1 Coin n 1. Co nam to daje? Zamiast zapisywać rozkład prawd. łącznego za pomocą 2 4 = 32 liczb, wystarczy nam = 18 (dekompozycja). Jest lepiej, ale w praktyce to nie wystarcza. Żeby było lepiej trzeba sięgnąć do reguły Bayesa i niezależności warunkowej. decomposes into decomposes into Cavity Toothache Catch Weather Coin 1 Coin n
28 Reguła Bayesa Reguła Bayesa Reguła Bayesa P(y x) = P(x y)p(y) P(x) P(x) często nieznane i rozpisuje się je jako praw. całkowite. P(y x) = P(x y)p(y) P(x) P(x) często nieznane i rozpisuje się je jako praw. całkowite. 1. Wyprowadzenie korzysta z def. prawd. warunkowego (reguły produkcji) 2. To proste równanie leży u podstawy większości nowoczesnych systemów sztucznej inteligencji opartych na wnioskowaniu probabilistycznym.
29 Reguła Bayesa Reguła Bayesa Reguła Bayesa P(y x) = P(x y)p(y) P(x) P(x) często nieznane i rozpisuje się je jako praw. całkowite. Wersja ogólniejsza (zmienne losowe i dodatkowa wiedza e): P(X Y, e)p(y e) P(Y X, e) = P(X e) P(y x) = P(x y)p(y) P(x) P(x) często nieznane i rozpisuje się je jako praw. całkowite. Wersja ogólniejsza (zmienne losowe i dodatkowa wiedza e): 1. Wyprowadzenie korzysta z def. prawd. warunkowego (reguły produkcji) 2. To proste równanie leży u podstawy większości nowoczesnych systemów sztucznej inteligencji opartych na wnioskowaniu probabilistycznym. P(Y X, e) = P(X Y, e)p(y e) P(X e)
30 Wnioskowanie Wnioskowanie Wnioskowanie P(y x) = P(x y)p(y) P(x) Zależność między zmiennymi X i Y. Możemy ją skwantyfikować w dwóch kierunkach: przyczynowym: P(efekt przyczyna), np. P(gorączka grypa) diagnostycznym: P(przyczyna efekt), np. P(grypa gorączka) [zadanie 5] Które prawd. łatwiej poznać? P(y x) = P(x y)p(y) P(x) Zależność między zmiennymi X i Y. Możemy ją skwantyfikować w dwóch kierunkach: przyczynowym: P(efekt przyczyna), np. P(gor ączka grypa) diagnostycznym: P(przyczyna efekt), np. P(grypa gor ączka) [zadanie 5] Które prawd. łatwiej poznać? 1. Łatwiej poznać P(gor ączka grypa), czyli jak często grypa powoduje gorączkę - wystarczy zebrać dane na temat ludzi z grypą. Łatwiej więc pozyskać dane o kierunku przyczynowym. Trudniej o kierunku diagnostycznym.
31 Przykład Przykład Przykład Zapalenie opon mózgowych (M) i sztywność karku (S). P(s m) = 0.7 (kierunek przyczynowy) P(m) = 1/50000 (a priori, że osoba ma zapalenie opon) P(s) = 0.01 (a priori, że osoba ma sztywność kark) [zadanie 6] P(m s) =? Zapalenie opon mózgowych (M) i sztywność karku (S). P(s m) = 0.7 (kierunek przyczynowy) P(m) = 1/50000 (a priori, że osoba ma zapalenie opon) P(s) = 0.01 (a priori, że osoba ma sztywność kark) [zadanie 6] P(m s) =? 1. Jeśli doktor wie, że P(m s) = , to nie musi korzystać z reguły Bayes a, więc po co mu to całe wnioskowanie? Otóż, P(m s) nie jest stałe! Jeśli tylko wybuchnie epidemia zapalenia opon mózgowych, wtedy P(m) się zwiększy i P(m s) się zwiększy. P(m s) jest stałe, bo odzwierciedla zasady fizyki/biologii/etc.
32 Przykład Przykład Przykład Zapalenie opon mózgowych (M) i sztywność karku (S). P(s m) = 0.7 (kierunek przyczynowy) P(m) = 1/50000 (a priori, że osoba ma zapalenie opon) P(s) = 0.01 (a priori, że osoba ma sztywność kark) [zadanie 6] P(m s) = P(s m)p(m) = P(s) Zapalenie opon mózgowych (M) i sztywność karku (S). P(s m) = 0.7 (kierunek przyczynowy) P(m) = 1/50000 (a priori, że osoba ma zapalenie opon) P(s) = 0.01 (a priori, że osoba ma sztywność kark) [zadanie 6] 1. Jeśli doktor wie, że P(m s) = , to nie musi korzystać z reguły Bayes a, więc po co mu to całe wnioskowanie? Otóż, P(m s) nie jest stałe! Jeśli tylko wybuchnie epidemia zapalenia opon mózgowych, wtedy P(m) się zwiększy i P(m s) się zwiększy. P(m s) jest stałe, bo odzwierciedla zasady fizyki/biologii/etc. P(m s) = P(s m)p(m) P(s) =
33 Przykład Przykład Przykład Zapalenie opon mózgowych (M) i sztywność karku (S). P(s m) = 0.7 (kierunek przyczynowy) P(m) = 1/50000 (a priori, że osoba ma zapalenie opon) P(s) = 0.01 (a priori, że osoba ma sztywność kark) [zadanie 6] P(m s) = P(s m)p(m) = P(s) Prawd. w kierunku przyczynowym jest solidniejsze! Zapalenie opon mózgowych (M) i sztywność karku (S). P(s m) = 0.7 (kierunek przyczynowy) P(m) = 1/50000 (a priori, że osoba ma zapalenie opon) P(s) = 0.01 (a priori, że osoba ma sztywność kark) [zadanie 6] 1. Jeśli doktor wie, że P(m s) = , to nie musi korzystać z reguły Bayes a, więc po co mu to całe wnioskowanie? Otóż, P(m s) nie jest stałe! Jeśli tylko wybuchnie epidemia zapalenia opon mózgowych, wtedy P(m) się zwiększy i P(m s) się zwiększy. P(m s) jest stałe, bo odzwierciedla zasady fizyki/biologii/etc. P(m s) = P(s m)p(m) P(s) = Prawd. w kierunku przyczynowym jest solidniejsze!
34 Warunkowa niezależność zmiennych Warunkowa niezależność zmiennych 1. P(Dziura test) = α 0.108, , Warunkowa niezależność zmiennych P(Dziura test) =? Ale to się nie skaluje, gdy mamy wiele zmiennych ( wielka tabelka ). P(Dziura test) =? Ale to się nie skaluje, gdy mamy wiele zmiennych ( wielka tabelka ).
35 Warunkowa niezależność zmiennych Warunkowa niezależność zmiennych 1. P(Dziura test) = α 0.108, , Warunkowa niezależność zmiennych P(Dziura test) =? Ale to się nie skaluje, gdy mamy wiele zmiennych ( wielka tabelka ). P(Dziura test) = αp( test Dziura)P(Dziura) = αp( Dziura)P(test Dziura)P(Dziura) P(Dziura test) =? Ale to się nie skaluje, gdy mamy wiele zmiennych ( wielka tabelka ). P(Dziura test) = αp( test Dziura)P(Dziura) = αp( Dziura)P(test Dziura)P(Dziura)
36 Warunkowa niezależność zmiennych Warunkowa niezależność zmiennych Warunkowa niezależność zmiennych C rak, T1 jakiś test na obecność raka, T2 jakiś inny test na obecność raka C jest zmienną ukrytą. Ale jeśli znalibyśmy C, jakakolwiek wiedza o T1 nie da nam żadnej dodatkowej wiedzy dot. T2, czyli T1 i T2 są niezależne warunkowo pod warunkiem C. P(T2 C, T1) = P(T2 C) P(T1, T2 C) = P(T1 C)P(T2 C) Notacja: T1 T2 C C rak, T 1 jakiś test na obecność raka, T 2 jakiś inny test na obecność raka C jest zmienną ukrytą. Ale jeśli znalibyśmy C, jakakolwiek wiedza o T 1 nie da nam żadnej dodatkowej wiedzy dot. T 2, czyli T 1 i T 2 są niezależne warunkowo pod warunkiem C. P(T2 C, T 1 ) = P(T 2 C) P(T1, T 2 C) = P(T 1 C)P(T 2 C) Notacja: T 1 T 2 C 1. Widać to na diagramie. Jeśli znamy C, to on niezależnie wpływa na T1 i T2. W pewnym sensie obcina to co się dzieje w T1 od tego co się dzieje w T2 2. Jeśli zmienne losowe A i B są niezależne pod warunkiem, że X, możemy wnioskować tak: P(A, B, X ) = P(A, B X )P(X ) = P(A X )P(B X )P(X ).
37 1,4 2,4 1,3 2,3 3,3 4,3 1,2 2,2 3,2 4,2 B OK 1,1 2,1 3,1 4,1 B OK OK 3,4 4,4 1,4 2,4 3,4 4,4 1,3 2,3 3,3 4,3 OTHER QUERY 1,2 2,2 3,2 4,2 FRONTIER 1,1 2,1 3,1 4,1 KNOWN Wumpus 1,4 2,4 3,4 4,4 1,4 2,4 3,4 4,4 Wumpus Wumpus Jakie jest prawd, że w polu (1,3) jest jama jeśli wiatr poczuliśmy w polu (1,2) i (2,1)? Zmienne losowe: Di,j (dziura na polu (i, j)) oraz Bi,j (bryza na polu (i, j)). 1,3 2,3 3,3 4,3 1,3 2,3 3,3 OTHER 4,3 QUERY 1,2 2,2 3,2 4,2 B OK 1,1 2,1 3,1 4,1 B 1,2 2,2 3,2 4,2 1,1 2,1 FRONTIER 3,1 4,1 KNOWN OK OK Jakie jest prawd, że w polu (1,3) jest jama jeśli wiatr poczuliśmy w polu (1,2) i (2,1)? Zmienne losowe: D i,j (dziura na polu (i, j)) oraz B i,j (bryza na polu (i, j)).
Na podstawie: AIMA, ch13. Wojciech Jaśkowski. 15 marca 2013
Na podstawie: AIMA, ch13 Instytut Informatyki, Politechnika Poznańska 15 marca 2013 Źródła niepewności Świat częściowo obserwowalny Świat niedeterministyczny Także: Lenistwo i ignorancja (niewiedza) Cel:
Bardziej szczegółowoAlgorytmy stochastyczne, wykład 08 Sieci bayesowskie
Algorytmy stochastyczne, wykład 08 Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2014-04-10 Prawdopodobieństwo Prawdopodobieństwo Prawdopodobieństwo warunkowe Zmienne
Bardziej szczegółowoSystemy ekspertowe - wiedza niepewna
Instytut Informatyki Uniwersytetu Śląskiego lab 8 Rozpatrzmy następujący przykład: Miażdżyca powoduje często zwężenie tętnic wieńcowych. Prowadzi to zazwyczaj do zmniejszenia przepływu krwi w tych naczyniach,
Bardziej szczegółowoAlgorytmy estymacji stanu (filtry)
Algorytmy estymacji stanu (filtry) Na podstawie: AIMA ch15, Udacity (S. Thrun) Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 21 kwietnia 2014 Problem lokalizacji Obserwowalność? Determinizm?
Bardziej szczegółowoKlasyfikacja bayesowska
Wykład14,26V2010,str.1 Przykład: (Bishop) M Jabłka i pomarańcze: Wyciągnięto pomarańczę; jakie jest prawdopodobieństwo, że naczynie było niebieskie? Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) M Wykład14,26V2010,str.2
Bardziej szczegółowoWstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak
Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak 1 Wprowadzenie. Zmienne losowe Podczas kursu interesować nas będzie wnioskowanie o rozpatrywanym zjawisku. Poprzez wnioskowanie rozumiemy
Bardziej szczegółowoModelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski
Modelowanie zależności pomiędzy zmiennymi losowymi Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski P Zmienne losowe niezależne - przypomnienie Dwie rzeczywiste zmienne losowe X i Y
Bardziej szczegółowoWYKŁAD 4. Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie. autor: Maciej Zięba. Politechnika Wrocławska
Wrocław University of Technology WYKŁAD 4 Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie autor: Maciej Zięba Politechnika Wrocławska Klasyfikacja Klasyfikacja (ang. Classification):
Bardziej szczegółowoEksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18
Eksploracja Danych wykład 4 Sebastian Zając WMP.SNŚ UKSW 10 maja 2017 Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja 2017 1 / 18 Klasyfikacja danych Klasyfikacja Najczęściej stosowana (najstarsza)
Bardziej szczegółowoMetody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 2 autorzy: A. Gonczarek, J.M. Tomczak Metody estymacji Zad. 1 Pojawianie się spamu opisane jest zmienną losową x o rozkładzie dwupunktowym
Bardziej szczegółowoWeryfikacja hipotez statystycznych
Weryfikacja hipotez statystycznych Hipoteza Test statystyczny Poziom istotności Testy jednostronne i dwustronne Testowanie równości wariancji test F-Fishera Testowanie równości wartości średnich test t-studenta
Bardziej szczegółowoP(F=1) F P(C1 = 1 F = 1) P(C1 = 1 F = 0) P(C2 = 1 F = 1) P(C2 = 1 F = 0) P(R = 1 C2 = 1) P(R = 1 C2 = 0)
Sieci bayesowskie P(F=) F P(C = F = ) P(C = F = 0) C C P(C = F = ) P(C = F = 0) M P(M = C =, C = ) P(M = C =, C = 0) P(M = C = 0, C = ) P(M = C = 0, C = 0) R P(R = C = ) P(R = C = 0) F pali papierosy C
Bardziej szczegółowoWnioskowanie statystyczne i oparte na współczynnikach wiarygodności. Wprowadzenie teoretyczne Wnioskowanie probabilistyczne Przykłady
Zarządzanie wiedzą Wnioskowanie statystyczne i oparte na współczynnikach wiarygodności 1 Plan wykładu Niepewność Wnioskowanie statystyczne: Wprowadzenie teoretyczne Wnioskowanie probabilistyczne Przykłady
Bardziej szczegółowoRachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne
Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne 5.3 Rozkłady warunkowe i warunkowa wartość oczekiwana Katarzyna Rybarczyk-Krzywdzińska semestr zimowy 2015/2016 Prawdopodobieństwo wyraża postawę
Bardziej szczegółowoWnioskowanie bayesowskie
Wnioskowanie bayesowskie W podejściu klasycznym wnioskowanie statystyczne oparte jest wyłącznie na podstawie pobranej próby losowej. Możemy np. estymować punktowo lub przedziałowo nieznane parametry rozkładów,
Bardziej szczegółowoRozkład normalny Parametry rozkładu zmiennej losowej Zmienne losowe wielowymiarowe
Statystyka i opracowanie danych W4 Rozkład normalny Parametry rozkładu zmiennej losowej Zmienne losowe wielowymiarowe Dr Anna ADRIAN Paw B5, pok407 adan@agh.edu.pl Rozkład normalny wykres funkcji gęstości
Bardziej szczegółowoKlasyfikacja metodą Bayesa
Klasyfikacja metodą Bayesa Tadeusz Pankowski www.put.poznan.pl/~tadeusz.pankowski warunkowe i bezwarunkowe 1. Klasyfikacja Bayesowska jest klasyfikacją statystyczną. Pozwala przewidzieć prawdopodobieństwo
Bardziej szczegółowoWnioskowanie statystyczne i oparte na współczynnikach wiarygodności
Wnioskowanie statystyczne i oparte na współczynnikach wiarygodności 1 Niepewność Wnioskowanie statystyczne: Wprowadzenie teoretyczne Wnioskowanie probabilistyczne Przykłady Wnioskowanie ze współczynnikami
Bardziej szczegółowoPrzypomnienie elementów z rachunku prawdopodobieństwa. Naiwny klasyfikator Bayesa. Aktualizacja rozkładów wg reguły Bayesa.
1/ 32 Przypomnienie elementów z rachunku prawdopodobieństwa. Naiwny klasyfikator Bayesa. Aktualizacja rozkładów wg reguły Bayesa. Przemysław Klęsk pklesk@wi.zut.edu.pl Literatura 2/ 32 1 D. Hand, H. Mannila,
Bardziej szczegółowoSieci Bayesa mgr Tomasz Xięski, Instytut Informatyki, Uniwersytet Śląski Sosnowiec, 2011
Sieci Bayesa mgr Tomasz Xięski, Instytut Informatyki, Uniwersytet Śląski Sosnowiec, 2011 Sieć Bayesowska służy do przedstawiania zależności pomiędzy zdarzeniami bazując na rachunku prawdopodobieństwa.
Bardziej szczegółowoRachunek prawdopodobieństwa Rozdział 4. Zmienne losowe
Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe 4.0. Rozkłady zmiennych losowych, dystrybuanta. Katarzyna Rybarczyk-Krzywdzińska Wprowadzenie Rozważmy eksperymenty 1 gra Bolka w ruletkę w kasynie;
Bardziej szczegółowoJęzyk rachunku predykatów Formuły rachunku predykatów Formuły spełnialne i prawdziwe Dowody założeniowe. 1 Zmienne x, y, z...
Język rachunku predykatów 1 Zmienne x, y, z... 2 Predykaty n-argumentowe P(x, y,...), Q(x, y...),... 3 Funktory zdaniowe,,,, 4 Kwantyfikatory: istnieje, dla każdego Język rachunku predykatów Ustalenie
Bardziej szczegółowoMetody probabilistyczne
Metody probabilistyczne Prawdopodobieństwo warunkowe Jędrzej Potoniec Część I Podstawy interpretacji wyników badań medycznych Badanie raka Grupa kobiet w wieku 40 lat bierze udział w przesiewowej mammografi,
Bardziej szczegółowoMetody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 3 Metody estymacji. Estymator największej wiarygodności Zad. 1 Pojawianie się spamu opisane jest zmienną losową y o rozkładzie zero-jedynkowym
Bardziej szczegółowoFunkcje charakterystyczne zmiennych losowych, linie regresji 1-go i 2-go rodzaju
Funkcje charakterystyczne zmiennych losowych, linie regresji -go i 2-go rodzaju Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Inteligencji i Metod Matematycznych Wydział Informatyki Politechniki
Bardziej szczegółowoStanisław Cichocki Natalia Nehrebecka. Wykład 7
Stanisław Cichocki Natalia Nehrebecka Wykład 7 1 1. Metoda Największej Wiarygodności MNW 2. Założenia MNW 3. Własności estymatorów MNW 4. Testowanie hipotez w MNW 2 1. Metoda Największej Wiarygodności
Bardziej szczegółowoLista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie
Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie Jarosław Kotowicz Instytut Matematyki Uniwersytet w
Bardziej szczegółowoRachunek prawdopodobieństwa
Rachunek prawdopodobieństwa Sebastian Rymarczyk srymarczyk@afm.edu.pl Tematyka zajęć 1. Elementy kombinatoryki. 2. Definicje prawdopodobieństwa. 3. Własności prawdopodobieństwa. 4. Zmienne losowe, parametry
Bardziej szczegółowoFuzja sygnałów i filtry bayesowskie
Fuzja sygnałów i filtry bayesowskie Roboty Manipulacyjne i Mobilne dr inż. Janusz Jakubiak Katedra Cybernetyki i Robotyki Wydział Elektroniki, Politechnika Wrocławska Wrocław, 10.03.2015 Dlaczego potrzebna
Bardziej szczegółowoMetody probabilistyczne
Metody probabilistyczne. Twierdzenia graniczne Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 20.2.208 / 26 Motywacja Rzucamy wielokrotnie uczciwą monetą i zliczamy
Bardziej szczegółowoRozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów
Rozdział : Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów W tym rozdziale omówione zostaną dwie najpopularniejsze metody estymacji parametrów w ekonometrycznych modelach nieliniowych,
Bardziej szczegółowoSztuczna inteligencja : Tworzenie sieci Bayesa
Instytut Informatyki Uniwersytetu Śląskiego 13 kwiecień 2011 Rysunek: Sieć Bayesa Rysunek: Sieć Bayesa Matura z matematyki na 60 %. Matura z matematyki na 100 %. Rozpatrzmy następujące przypadki: Uczeń
Bardziej szczegółowoRachunek prawdopodobieństwa Rozdział 4. Zmienne losowe
Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe 4.0. Rozkłady zmiennych losowych, dystrybuanta. Katarzyna Rybarczyk-Krzywdzińska semestr zimowy 2016/2017 Wprowadzenie Przykład 1 Bolek, Lolek i Tola
Bardziej szczegółowoWnioskowanie statystyczne i oparte na współczynnikach wiarygodności
Systemy ekspertowe Wnioskowanie statystyczne i oparte na współczynnikach wiarygodności 1 Plan wykładu Niepewność Wnioskowanie statystyczne: Wprowadzenie teoretyczne Wnioskowanie probabilistyczne Przykłady
Bardziej szczegółowoStatystyka i eksploracja danych
Wykład II: i charakterystyki ich rozkładów 24 lutego 2014 Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa,
Bardziej szczegółowoPrzestrzeń probabilistyczna
Przestrzeń probabilistyczna (Ω, Σ, P) Ω pewien niepusty zbiór Σ rodzina podzbiorów tego zbioru P funkcja określona na Σ, zwana prawdopodobieństwem. Przestrzeń probabilistyczna (Ω, Σ, P) Ω pewien niepusty
Bardziej szczegółowo11. Gry Macierzowe - Strategie Czyste i Mieszane
11. Gry Macierzowe - Strategie Czyste i Mieszane W grze z doskonałą informacją, gracz nie powinien wybrać akcję w sposób losowy (o ile wypłaty z różnych decyzji nie są sobie równe). Z drugiej strony, gdy
Bardziej szczegółowoWykład 11: Martyngały: definicja, twierdzenia o zbieżności
RAP 412 14.01.2009 Wykład 11: Martyngały: definicja, twierdzenia o zbieżności Wykładowca: Andrzej Ruciński Pisarz:Mirosława Jańczak 1 Wstęp Do tej pory zajmowaliśmy się ciągami zmiennych losowych (X n
Bardziej szczegółowoGdzie: N zbiór wierzchołków grafu, E zbiór krawędzi grafu, Cp zbiór prawdopodobieostw warunkowych.
Laboratorium z przedmiotu Sztuczna inteligencja Temat: Sieci Bayesa, Wnioskowanie probabilistyczne, GeNIe Laboratorium nr 1 Sied Bayesowska służy do przedstawiania zależności pomiędzy zdarzeniami bazując
Bardziej szczegółowoRachunek prawdopodobieństwa 1B; zadania egzaminacyjne.
Rachunek prawdopodobieństwa B; zadania egzaminacyjne.. Niech µ będzie rozkładem probabilistycznym na (0, ) (0, ): µ(b) = l({x (0,) : (x, x) B}), dla B B((0, ) (0, ))), gdzie l jest miarą Lebesgue a na
Bardziej szczegółowoMatematyka z el. statystyki, # 1 /Geodezja i kartografia I/
Matematyka z el. statystyki, # 1 /Geodezja i kartografia I/ dr n. mat. Zdzisław Otachel Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Akademicka 15, p.211a, bud. Agro
Bardziej szczegółowoUczenie ze wzmocnieniem aplikacje
Uczenie ze wzmocnieniem aplikacje Na podstawie: AIMA ch21 oraz Reinforcement Learning (Sutton i Barto) Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 23 maja 2014 Problem decyzyjny Markova
Bardziej szczegółowoteoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015
teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015 1 wczoraj Wprowadzenie matematyczne. Entropia i informacja. Kodowanie. Kod ASCII. Stopa kodu. Kody bezprefiksowe.
Bardziej szczegółowoUkłady stochastyczne
Instytut Informatyki Uniwersytetu Śląskiego 21 stycznia 2009 Definicja Definicja Proces stochastyczny to funkcja losowa, czyli funkcja matematyczna, której wartości leżą w przestrzeni zdarzeń losowych.
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład IV: 27 października 2014 Współczynnik korelacji Brak korelacji a niezależność Definicja współczynnika korelacji Współczynnikiem korelacji całkowalnych z kwadratem zmiennych losowych X i Y nazywamy
Bardziej szczegółowoElementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa
Spis treści Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa Romuald Kotowski Katedra Informatyki Stosowanej PJWSTK 2009 Spis treści Spis treści 1 Wstęp Bardzo często interesujący
Bardziej szczegółowoWYKŁAD 2 i 3. Podstawowe pojęcia związane z prawdopodobieństwem. Podstawy teoretyczne. autor: Maciej Zięba. Politechnika Wrocławska
Wrocław University of Technology WYKŁAD 2 i 3 Podstawowe pojęcia związane z prawdopodobieństwem. Podstawy teoretyczne autor: Maciej Zięba Politechnika Wrocławska Pojęcie prawdopodobieństwa Prawdopodobieństwo
Bardziej szczegółowoi=7 X i. Zachodzi EX i = P(X i = 1) = 1 2, i {1, 2,..., 11} oraz EX ix j = P(X i = 1, X j = 1) = 1 7 VarS 2 2 = 14 3 ( 5 2 =
Kombinatoryka W tej serii zadań można znaleźć pojawiające się na egzaminach zadania dotyczące problemu wyznaczania prostych parametrów rozkładu w przypadku zgadnień kombinatorycznych. Zadania te wymagają
Bardziej szczegółowoSztuczna inteligencja : Naiwny klasyfikator Bayesa
Instytut Informatyki Uniwersytetu Śląskiego 18 kwietnia 2012 Rysunek: Klasyfikator Bayesa Jakie jest prawdopodobieństwo, że nowy obiekt będzie zielony/czerwony? Jaki będzie kolor nowego obiektu? Obliczenie
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład XIII: Prognoza. 26 stycznia 2015 Wykład XIII: Prognoza. Prognoza (predykcja) Przypuśćmy, że mamy dany ciąg liczb x 1, x 2,..., x n, stanowiących wyniki pomiaru pewnej zmiennej w czasie wielkości
Bardziej szczegółoworeguła mnożenia ilustracja zbioru wyników doświadczenia za pomocą drzewa reguła dodawania definicja n! liczba permutacji zbioru n-elementowego
FUNKCJE LOGARYTMICZNE powtórzenie 4 godziny RACHUNEK PRAWDOPODOBIEŃSTWA 28 godz. Moduł - dział -temat Reguła mnożenia. Reguła dodawania Lp 1 2 reguła mnożenia ilustracja zbioru wyników doświadczenia za
Bardziej szczegółowoWykład 13. Podstawowe pojęcia rachunku prawdopodobieństwa
Wykład 13. Podstawowe pojęcia rachunku prawdopodobieństwa dr Mariusz Grzadziel Katedra Matematyki, Uniwersytet Przyrodniczy we Wrocławiu semestr zimowy, rok akademicki 2015 2016 Doświadczenie losowe Doświadczenie
Bardziej szczegółowoMikroekonometria 9. Mikołaj Czajkowski Wiktor Budziński
Mikroekonometria 9 Mikołaj Czajkowski Wiktor Budziński Wielomianowy model logitowy Uogólnienie modelu binarnego Wybór pomiędzy 2 lub większą liczbą alternatyw Np. wybór środka transportu, głos w wyborach,
Bardziej szczegółowoMetody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 2 autorzy: A. Gonczarek, J.M. Tomczak Metody estymacji ML Zad. 1 Pojawianie się spamu opisane jest zmienną losową x o rozkładzie dwupunktowym
Bardziej szczegółowoTestowanie hipotez statystycznych.
Bioinformatyka Wykład 9 Wrocław, 5 grudnia 2011 Temat. Test zgodności χ 2 Pearsona. Statystyka χ 2 Pearsona Rozpatrzmy ciąg niezależnych zmiennych losowych X 1,..., X n o jednakowym dyskretnym rozkładzie
Bardziej szczegółowoWymagania kl. 3. Zakres podstawowy i rozszerzony
Wymagania kl. 3 Zakres podstawowy i rozszerzony Temat lekcji Zakres treści Osiągnięcia ucznia 1. RACHUNEK PRAWDOPODOBIEŃSTWA 1. Reguła mnożenia reguła mnożenia ilustracja zbioru wyników doświadczenia za
Bardziej szczegółowoP r a w d o p o d o b i eństwo Lekcja 1 Temat: Lekcja organizacyjna. Program. Kontrakt.
P r a w d o p o d o b i eństwo Lekcja 1 Temat: Lekcja organizacyjna. Program. Kontrakt. Lekcja 2 Temat: Podstawowe pojęcia związane z prawdopodobieństwem. Str. 10-21 1. Doświadczenie losowe jest to doświadczenie,
Bardziej szczegółowoMaksymalne powtórzenia w tekstach i zerowa intensywność entropii
Maksymalne powtórzenia w tekstach i zerowa intensywność entropii Łukasz Dębowski ldebowsk@ipipan.waw.pl i Instytut Podstaw Informatyki PAN Warszawa 1 Wprowadzenie 2 Ograniczenia górne i dolne 3 Przykłady
Bardziej szczegółowoRozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład
Rozdział 1 Wektory losowe 1.1 Wektor losowy i jego rozkład Definicja 1 Wektor X = (X 1,..., X n ), którego każda współrzędna jest zmienną losową, nazywamy n-wymiarowym wektorem losowym (krótko wektorem
Bardziej szczegółowoTechnikum Nr 2 im. gen. Mieczysława Smorawińskiego w Zespole Szkół Ekonomicznych w Kaliszu
Technikum Nr 2 im. gen. Mieczysława Smorawińskiego w Zespole Szkół Ekonomicznych w Kaliszu Wymagania edukacyjne niezbędne do uzyskania poszczególnych śródrocznych i rocznych ocen klasyfikacyjnych z obowiązkowych
Bardziej szczegółowoRozpoznawanie obrazów
Rozpoznawanie obrazów Ćwiczenia lista zadań nr 7 autorzy: A. Gonczarek, J.M. Tomczak Przykładowe problemy Klasyfikacja binarna Dla obrazu x zaproponowano dwie cechy φ(x) = (φ 1 (x) φ 2 (x)) T. Na obrazie
Bardziej szczegółowoSposoby prezentacji problemów w statystyce
S t r o n a 1 Dr Anna Rybak Instytut Informatyki Uniwersytet w Białymstoku Sposoby prezentacji problemów w statystyce Wprowadzenie W artykule zostaną zaprezentowane podstawowe zagadnienia z zakresu statystyki
Bardziej szczegółowoStatystyczna analiza danych
Statystyczna analiza danych Testowanie hipotez statystycznych Ewa Szczurek szczurek@mimuw.edu.pl Instytut Informatyki Uniwersytet Warszawski 1/23 Testowanie hipotez średniej w R Test istotności dla wartości
Bardziej szczegółowoMetody probabilistyczne
Metody probabilistyczne 13. Elementy statystki matematycznej I Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 17.01.2019 1 / 30 Zagadnienia statystki Przeprowadzamy
Bardziej szczegółowoSIMR 2017/18, Statystyka, Przykładowe zadania do kolokwium - Rozwiązania
SIMR 7/8, Statystyka, Przykładowe zadania do kolokwium - Rozwiązania. Dana jest gęstość prawdopodobieństwa zmiennej losowej ciągłej X : { a( x) dla x [, ] f(x) = dla pozostałych x Znaleźć: i) Wartość parametru
Bardziej szczegółowoRachunek prawdopodobieństwa - Teoria - Przypomnienie.. A i B są niezależne, gdy P(A B) = P(A)P(B). P(A B i )P(B i )
Rachunek prawdopodobieństwa - Teoria - Przypomnienie Podstawy Definicja 1. Schemat klasyczny - wszystkie zdarzenia elementarne są równo prawdopodobne, licząc prawdopodobieństwo liczymy stosunek liczby
Bardziej szczegółowoPodstawowe modele probabilistyczne
Wrocław University of Technology Podstawowe modele probabilistyczne Maciej Zięba maciej.zieba@pwr.edu.pl Rozpoznawanie Obrazów, Lato 2018/2019 Pojęcie prawdopodobieństwa Prawdopodobieństwo reprezentuje
Bardziej szczegółowoSystemy uczące się wykład 1
Systemy uczące się wykład 1 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 5 X 2018 e-mail: przemyslaw.juszczuk@ue.katowice.pl Konsultacje: na stronie katedry + na stronie domowej
Bardziej szczegółowoZestaw 2: Zmienne losowe. 0, x < 1, 2, 2 x, 1 1 x, 1 x, F 9 (x) =
Zestaw : Zmienne losowe. Które z poniższych funkcji są dystrybuantami? Odpowiedź uzasadnij. Wskazówka: naszkicuj wykres. 0, x 0,, x 0, F (x) = x, F (x) = x, 0 x
Bardziej szczegółowoMetody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium JAVA Zadanie nr 2 Rozpoznawanie liter autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z problemem klasyfikacji
Bardziej szczegółowoWstęp do Rachunku Prawdopodobieństwa, IIr. WMS
Wstęp do Rachunku Prawdopodobieństwa, IIr. WMS przykładowe zadania na. kolokwium czerwca 6r. Poniżej podany jest przykładowy zestaw zadań. Podczas kolokwium na ich rozwiązanie przeznaczone będzie ok. 85
Bardziej szczegółowoNiech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX = 4 i EY = 6. Rozważamy zmienną losową Z =.
Prawdopodobieństwo i statystyka 3..00 r. Zadanie Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX 4 i EY 6. Rozważamy zmienną losową Z. X + Y Wtedy (A) EZ 0,
Bardziej szczegółowoStanisław Cichocki. Natalia Nehrebecka. Wykład 9
Stanisław Cichocki Natalia Nehrebecka Wykład 9 1 1. Dodatkowe założenie KMRL 2. Testowanie hipotez prostych Rozkład estymatora b Testowanie hipotez prostych przy użyciu statystyki t 3. Przedziały ufności
Bardziej szczegółowoRecenzenci: prof. dr hab. Henryk Domański dr hab. Jarosław Górniak
Recenzenci: prof. dr hab. Henryk Domański dr hab. Jarosław Górniak Redakcja i korekta Bogdan Baran Projekt graficzny okładki Katarzyna Juras Copyright by Wydawnictwo Naukowe Scholar, Warszawa 2011 ISBN
Bardziej szczegółowoPrzypomnienie elementów z rachunku prawdopodobieństwa. Naiwny klasyfikator Bayesa. Aktualizacja rozkładów wg reguły Bayesa.
Przypomnienie elementów z rachunku prawdopodobieństwa. Naiwny klasyfikator Bayesa. Aktualizacja rozkładów wg reguły Bayesa. pklesk@wi.zut.edu.pl Literatura 1 D. Hand, H. Mannila, P. Smyth, Eksploracja
Bardziej szczegółowoRozkłady wielu zmiennych
Rozkłady wielu zmiennych Uogólnienie pojęć na rozkład wielu zmiennych Dystrybuanta, gęstość prawdopodobieństwa, rozkład brzegowy, wartości średnie i odchylenia standardowe, momenty Notacja macierzowa Macierz
Bardziej szczegółowo1 Gaussowskie zmienne losowe
Gaussowskie zmienne losowe W tej serii rozwiążemy zadania dotyczące zmiennych o rozkładzie normalny. Wymagana jest wiedza na temat własności rozkładu normalnego, CTG oraz warunkowych wartości oczekiwanych..
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład VIII: Przestrzenie statystyczne. Estymatory 1 grudnia 2014 Wprowadzenie Przykład: pomiar z błędem Współczynnik korelacji r(x, Z) = 0, 986 Wprowadzenie Przykład: pomiar z błędem Współczynnik korelacji
Bardziej szczegółowoSTATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA
STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA Zadanie 0.1 Zmienna losowa X ma rozkład określony funkcją prawdopodobieństwa: x k 0 4 p k 1/3 1/6 1/ obliczyć EX, D X. (odp. 4/3;
Bardziej szczegółowoPODSTAWOWE ROZKŁADY ZMIENNYCH LOSOWYCH CIĄGŁYCH
Opracowała: Joanna Kisielińska 1 PODSTAWOWE ROZKŁADY ZMIENNYCH LOSOWYCH CIĄGŁYCH Rozkład normalny Zmienna losowa X ma rozkład normalny z parametrami µ i σ (średnia i odchylenie standardowe), jeśli jej
Bardziej szczegółowoDrugie kolokwium z Rachunku Prawdopodobieństwa, zestaw A
Drugie kolokwium z Rachunku Prawdopodobieństwa, zestaw A Zad. 1. Korzystając z podanych poniżej mini-tablic, oblicz pierwszy, drugi i trzeci kwartyl rozkładu N(10, 2 ). Rozwiązanie. Najpierw ogólny komentarz
Bardziej szczegółowoSztuczna inteligencja : Zbiory rozmyte cz. III
Instytut Informatyki Uniwersytetu Śląskiego lab 3 Notacja Zadeha: symboliczny zapis zbioru rozmytego dla przestrzeni dyskretnej. Dla X jest przestrzenią o skończonej liczbie elementów X = {x 1, x 2,...,
Bardziej szczegółowoSztuczna Inteligencja i Systemy Doradcze
Sztuczna Inteligencja i Systemy Doradcze Sieci bayessowskie 1 Sieci bayessowskie 1 1 Niepewnosc Niech akcja A t = wyjedź na lotnisko t minut przed odlotem Czy A t pozwoli mi zdążyć na czas? Problemy: 1)
Bardziej szczegółowoZasady krytycznego myślenia (1)
Zasady krytycznego myślenia (1) Andrzej Kisielewicz Wydział Matematyki i Informatyki 2017 Przedmiot wykładu krytyczne myślenie vs logika praktyczna (vs logika formalna) myślenie jasne, bezstronne, oparte
Bardziej szczegółowoInżynieria Wiedzy i Systemy Ekspertowe. Niepewność wiedzy. dr inż. Michał Bereta Politechnika Krakowska
Inżynieria Wiedzy i Systemy Ekspertowe Niepewność wiedzy dr inż. Michał Bereta Politechnika Krakowska http://torus.uck.pk.edu.pl/~beretam/ beretam@torus.uck.pk.edu.pl 1 Współczynniki pewności (ang. Certainty
Bardziej szczegółowoWstęp do Modelu Standardowego
Wstęp do Modelu Standardowego Plan (Uzupełnienie matematyczne II) Abstrakcyjna przestrzeń stanów Podstawowe własności Iloczyn skalarny amplitudy prawdopodobieństwa Operatory i ich hermitowskość Wektory
Bardziej szczegółowoPrawdopodobieństwo. Prawdopodobieństwo. Jacek Kłopotowski. Katedra Matematyki i Ekonomii Matematycznej SGH. 16 października 2018
Katedra Matematyki i Ekonomii Matematycznej SGH 16 października 2018 Definicja σ-algebry Definicja Niech Ω oznacza zbiór niepusty. Rodzinę M podzbiorów zbioru Ω nazywamy σ-algebrą (lub σ-ciałem) wtedy
Bardziej szczegółowoWprowadzenie do teorii ekonometrii. Wykład 1 Warunkowa wartość oczekiwana i odwzorowanie liniowe
Wprowadzenie do teorii ekonometrii Wykład 1 Warunkowa wartość oczekiwana i odwzorowanie liniowe Zajęcia Wykład Laboratorium komputerowe 2 Zaliczenie EGZAMIN (50%) Na egzaminie obowiązują wszystkie informacje
Bardziej szczegółowoWYKŁAD 3. Klasyfikacja: modele probabilistyczne
Wrocław University of Technology WYKŁAD 3 Klasyfikacja: modele probabilistyczne Maciej Zięba Politechnika Wrocławska Klasyfikacja Klasyfikacja (ang. Classification): Dysponujemy obserwacjami z etykietami
Bardziej szczegółowoRozkład normalny. Marcin Zajenkowski. Marcin Zajenkowski () Rozkład normalny 1 / 26
Rozkład normalny Marcin Zajenkowski Marcin Zajenkowski () Rozkład normalny 1 / 26 Rozkład normalny Krzywa normalna, krzywa Gaussa, rozkład normalny Rozkłady liczebności wielu pomiarów fizycznych, biologicznych
Bardziej szczegółowoRachunek prawdopodobieństwa- wykład 2
Rachunek prawdopodobieństwa- wykład 2 Pojęcie dyskretnej przestrzeni probabilistycznej i określenie prawdopodobieństwa w tej przestrzeni dr Marcin Ziółkowski Instytut Matematyki i Informatyki Uniwersytet
Bardziej szczegółowoTesty zgodności. Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Inteligencji i Metod Matematycznych. Wykład 11
Testy zgodności Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Inteligencji i Metod Matematycznych Wydział Informatyki Politechniki Szczecińskiej 27. Nieparametryczne testy zgodności Weryfikacja
Bardziej szczegółowoProcesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.
Procesy stochastyczne WYKŁAD 2-3 Łańcuchy Markowa Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi. 2 Łańcuchem Markowa nazywamy proces będący ciągiem zmiennych
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład V: Zmienne losowe i ich wartości oczekiwane 25 października 2017 Definicja zmiennej losowej Definicja Zmienne losowa to charakterystyka liczbowa wyniku eksperymentu losowego. Zmienne losowa na przestrzeni
Bardziej szczegółowoElementy modelowania matematycznego
Elementy modelowania matematycznego Modelowanie algorytmów klasyfikujących. Podejście probabilistyczne. Naiwny klasyfikator bayesowski. Modelowanie danych metodą najbliższych sąsiadów. Jakub Wróblewski
Bardziej szczegółowoLABORATORIUM Populacja Generalna (PG) 2. Próba (P n ) 3. Kryterium 3σ 4. Błąd Średniej Arytmetycznej 5. Estymatory 6. Teoria Estymacji (cz.
LABORATORIUM 4 1. Populacja Generalna (PG) 2. Próba (P n ) 3. Kryterium 3σ 4. Błąd Średniej Arytmetycznej 5. Estymatory 6. Teoria Estymacji (cz. I) WNIOSKOWANIE STATYSTYCZNE (STATISTICAL INFERENCE) Populacja
Bardziej szczegółowoMATeMAtyka 3. Propozycja przedmiotowego systemu oceniania wraz z określeniem wymagań edukacyjnych. Zakres podstawowy i rozszerzony
Agnieszka Kamińska, Dorota Ponczek MATeMAtyka 3 Propozycja przedmiotowego systemu oceniania wraz z określeniem wymagań edukacyjnych Zakres podstawowy i rozszerzony Wyróżnione zostały następujące wymagania
Bardziej szczegółowoWłasności statystyczne regresji liniowej. Wykład 4
Własności statystyczne regresji liniowej Wykład 4 Plan Własności zmiennych losowych Normalna regresja liniowa Własności regresji liniowej Literatura B. Hansen (2017+) Econometrics, Rozdział 5 Własności
Bardziej szczegółowoMetody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 2 κ-nn i Naive Bayes autorzy: M. Zięba, J.M. Tomczak, A. Gonczarek, S. Zaręba Cel zadania Celem zadania jest implementacja klasyfikatorów
Bardziej szczegółowoTestowanie hipotez statystycznych
Testowanie hipotez statystycznych Wyk lad 8 Natalia Nehrebecka Stanis law Cichocki 29 listopada 2015 Plan zajeć 1 Rozk lad estymatora b Rozk lad sumy kwadratów reszt 2 Hipotezy proste - test t Badanie
Bardziej szczegółowo