Modelowanie Niepewności

Wielkość: px
Rozpocząć pokaz od strony:

Download "Modelowanie Niepewności"

Transkrypt

1 Na podstawie: AIMA, ch13 Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 21 marca 2014 Na podstawie: AIMA, ch13 Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 21 marca 2014

2 Źródła niepewności Wstęp Źródła niepewności Źródła niepewności Jakie są źródła niepewności? Jakie są źródła niepewności?

3 Źródła niepewności Wstęp Źródła niepewności Źródła niepewności Jakie są źródła niepewności? częściowa obserwowalność niedeterministyczny Wynikające często jednak z zawinionej niewiedzy: lenistwa i ignorancji Cel: Racjonalne decyzje w kontekście niepewności. Jakie są źródła niepewności? częściowa obserwowalność niedeterministyczny Wynikające często jednak z zawinionej niewiedzy: lenistwa i ignorancji Cel: Racjonalne decyzje w kontekście niepewności.

4 Świat Wumpus a 4 Stench Breeze PIT Wstęp Świat Wumpus a Świat Wumpus a 4 Stench 3 Stench PIT Gold 2 Stench 1 Breeze Breeze Breeze Breeze PIT PIT Breeze Breeze START Breeze 3 Stench PIT Breeze Gold 2 Stench Breeze 1 Breeze PIT Breeze START

5 Świat Wumpus a 1,4 2,4 3,4 4,4 Wstęp Świat Wumpus a Świat Wumpus a 1,4 2,4 3,4 4,4 1,3 2,3 3,3 4,3 1,2 2,2 3,2 4,2 B OK 1,1 2,1 3,1 4,1 B OK OK 1,3 2,3 3,3 4,3 1. W takiej sytuacji Wumpus nie ma bezpiecznego ruchu, bo bryza w (1,2) i (2,1). Jaki ruch Wumpus powinien więc wykonać? Jakie jest prawdopodobieństwo, że na polu (1,3) jest pułapka? A jakie dla (2,2) i dla (3,1)? 1,2 2,2 3,2 4,2 B OK 1,1 2,1 3,1 4,1 B OK OK

6 Podstawy: notacja zmienna losowa Cancer = C = { c, c} Podstawy: notacja Podstawy: notacja zmienna losowa Cancer = C = { c, c} Test = T = { t, t} Test = T = { t, t} 1. rozkład prawd. łącznego: wektor wszystkich kombinacji wartości zmiennych losowych.

7 Podstawy: notacja zmienna losowa Cancer = C = { c, c} Podstawy: notacja Podstawy: notacja zmienna losowa Cancer = C = { c, c} Test = T = { t, t} prawdopodobieństwo zdarzenia P(c) = 0.3 Test = T = { t, t} prawdopodobieństwo zdarzenia 1. rozkład prawd. łącznego: wektor wszystkich kombinacji wartości zmiennych losowych. P(c) = 0.3

8 Podstawy: notacja zmienna losowa Cancer = C = { c, c} Podstawy: notacja Podstawy: notacja zmienna losowa Cancer = C = { c, c} Test = T = { t, t} prawdopodobieństwo zdarzenia P(c) = 0.3 rozkład prawdopodobieństwa P(Cancer) = P(c), P( c) = 0.3, 0.7 Test = T = { t, t} prawdopodobieństwo zdarzenia 1. rozkład prawd. łącznego: wektor wszystkich kombinacji wartości zmiennych losowych. P(c) = 0.3 rozkład prawdopodobieństwa P(Cancer) = P(c), P( c) = 0.3, 0.7

9 Podstawy: notacja zmienna losowa Cancer = C = { c, c} Podstawy: notacja Podstawy: notacja zmienna losowa Cancer = C = { c, c} Test = T = { t, t} prawdopodobieństwo zdarzenia P(c) = 0.3 rozkład prawdopodobieństwa P(Cancer) = P(c), P( c) = 0.3, 0.7 prawd. łączne P(c t) = P(c, t) = 0.4 Test = T = { t, t} prawdopodobieństwo zdarzenia 1. rozkład prawd. łącznego: wektor wszystkich kombinacji wartości zmiennych losowych. P(c) = 0.3 rozkład prawdopodobieństwa P(Cancer) = P(c), P( c) = 0.3, 0.7 prawd. łączne P(c t) = P(c, t) = 0.4

10 Podstawy: notacja zmienna losowa Cancer = C = { c, c} Podstawy: notacja Podstawy: notacja zmienna losowa Cancer = C = { c, c} Test = T = { t, t} prawdopodobieństwo zdarzenia P(c) = 0.3 rozkład prawdopodobieństwa P(Cancer) = P(c), P( c) = 0.3, 0.7 prawd. łączne P(c t) = P(c, t) = 0.4 rozkład prawd. łącznego P(Cancer, Test) = P(c t), P(c t), P( c, t), P( c, t) Test = T = { t, t} prawdopodobieństwo zdarzenia 1. rozkład prawd. łącznego: wektor wszystkich kombinacji wartości zmiennych losowych. P(c) = 0.3 rozkład prawdopodobieństwa P(Cancer) = P(c), P( c) = 0.3, 0.7 prawd. łączne P(c t) = P(c, t) = 0.4 rozkład prawd. łącznego P(Cancer, Test) = P(c t), P(c t), P( c, t), P( c, t)

11 Podstawy: prawd. warunkowe Podstawy: prawd. warunkowe Podstawy: prawd. warunkowe Prawdopodobieństwo warunkowe P(c t)p(t) = P(c t) (reguła produkcji) Prawdopodobieństwo warunkowe 1. Graficznie: dwa przecinające się zbiory. t zaistniało, więc jakie jest prawd., że zaistnieje c? P(c t) = P(c t) P(t). P(c t)p(t) = P(c t) (reguła produkcji)

12 (Pełny) rozkład prawd. łącznego (Pełny) rozkład prawd. łącznego (Pełny) rozkład prawd. łącznego

13 Prawd. marginalne (marginalizacja) [zadanie 0] P(dziura) =? P(Dziura) =? Prawd. marginalne (marginalizacja) 1. P(dziura) = = 0.2 Marginalizujemy Ból i Test 2. P(Dziura) =< 0.2, 0.8 > 3. P(dziura ) = = 0.08 Marginalizujemy Test Prawd. marginalne (marginalizacja) [zadanie 0] P(dziura) =? P(Dziura) =?

14 Prawd. marginalne (marginalizacja) [zadanie 0] P(dziura) =? P(Dziura) =? [zadanie 1] P(dziura ) =? Prawd. marginalne (marginalizacja) 1. P(dziura) = = 0.2 Marginalizujemy Ból i Test 2. P(Dziura) =< 0.2, 0.8 > 3. P(dziura ) = = 0.08 Marginalizujemy Test Prawd. marginalne (marginalizacja) [zadanie 0] P(dziura) =? P(Dziura) =? [zadanie 1] P(dziura ) =?

15 Prawd. marginalne (marginalizacja) [zadanie 0] P(dziura) =? P(Dziura) =? [zadanie 1] P(dziura ) =? Prawd. marginalne (marginalizacja) 1. P(dziura) = = 0.2 Marginalizujemy Ból i Test 2. P(Dziura) =< 0.2, 0.8 > 3. P(dziura ) = = 0.08 Marginalizujemy Test Prawd. marginalne (marginalizacja) [zadanie 0] P(dziura) =? P(Dziura) =? [zadanie 1] P(dziura ) =? Ogólnie: P(Y) = P(Y, x) = P(Y x)p(x), x X x X gdzie Y i X są wektorami zmiennych losowych Ogólnie: P(Y) = x X P(Y, x) = x X P(Y x)p(x), gdzie Y i X są wektorami zmiennych losowych

16 Prawd. całkowite [zadanie 2] Przed obliczeniami: czy to będzie duża wartość? P(dziura ) =? Prawd. całkowite Prawd. całkowite [zadanie 2] Przed obliczeniami: czy to będzie duża wartość? P(dziura ) =?

17 Prawd. całkowite [zadanie 2] Przed obliczeniami: czy to będzie duża wartość? P(dziura ) P(dziura ) = P() = = 0.6 Prawd. całkowite Prawd. całkowite dziura [zadanie 2] Przed obliczeniami: czy to będzie duża wartość? Ogólnie: P(dziura ) = = P(Y Z) = x X P(dziura ) P() = 0.6 P(Y, x Z) = x X P(Y, x Z)P(Z) Ogólnie: P(Y Z) = x X P(Y, x Z) = x X P(Y, x Z)P(Z)

18 Normalizacja Normalizacja Normalizacja P(dziura ) = P(dziura ) P() [zadanie 3] Policz, rozpisz: 1. Ten sam mianownik! Liczenie mianownika często jest trudne , więc normalizujemy je dzieląc przez = 0.2. = P( dziura ) =? P(dziura ) = P(dziura ) P() = [zadanie 3] Policz, rozpisz: P( dziura ) =?

19 Normalizacja Normalizacja Normalizacja P(dziura ) = P(dziura ) P() [zadanie 3] Policz, rozpisz: P( dziura ) = 1. Ten sam mianownik! Liczenie mianownika często jest trudne , więc normalizujemy je dzieląc przez = 0.2. = P( dziura ) P() = P(dziura ) = P(dziura ) P() = [zadanie 3] Policz, rozpisz: P( dziura ) = P( dziura ) P() =

20 Normalizacja Normalizacja Normalizacja P(dziura ) = P(dziura ) P() [zadanie 3] Policz, rozpisz: P( dziura ) = 1. Ten sam mianownik! Liczenie mianownika często jest trudne , więc normalizujemy je dzieląc przez = 0.2. = P( dziura ) P() = P(Dziura ) = P(dziura ) = P(dziura ) P() = [zadanie 3] Policz, rozpisz: P( dziura ) = P( dziura ) P() = P(Dziura ) =

21 Normalizacja Normalizacja Normalizacja P(dziura ) = P(dziura ) P() [zadanie 3] Policz, rozpisz: P( dziura ) = 1. Ten sam mianownik! Liczenie mianownika często jest trudne , więc normalizujemy je dzieląc przez = 0.2. = P( dziura ) P() = P(Dziura ) = αp(dziura, ) = α , α 0.12, 0.08 = 0.6, 0.4 P(dziura ) = P(dziura ) P() [zadanie 3] Policz, rozpisz: P( dziura ) = = P( dziura ) P() = P(Dziura ) = αp(dziura, ) = α , α 0.12, 0.08 = 0.6, 0.4

22 Normalizacja Normalizacja Normalizacja [zadanie 3] Policz, rozpisz: P(Dziura ) = αp(dziura, ) = α , Ogólnie: α 0.12, 0.08 = 0.6, 0.4 P(X e) = αp(x, e), gdzie X jest wektorem zmiennych losowych 1. Ten sam mianownik! Liczenie mianownika często jest trudne , więc normalizujemy je dzieląc przez = 0.2. [zadanie 3] Policz, rozpisz: P(Dziura ) = αp(dziura, ) = α , α 0.12, 0.08 = 0.6, 0.4 Ogólnie: P(X e) = αp(x, e), gdzie X jest wektorem zmiennych losowych

23 Podstawy: niezależność Niezależność zdarzeń losowych c t, jeśli P(c) = P(c t) lub P(t) = P(t c) Podstawy: niezależność Podstawy: niezależność Niezależność zdarzeń losowych c t, jeśli P(c) = P(c t) lub P(t) = P(t c) lub P(c)P(t) = P(c t) lub P(c)P(t) = P(c t) 1. Graficznie: niezależność zdarzeń losowych, jeśli pole c w stosunku do całości = pole c t w stosunku do t.

24 Podstawy: niezależność Niezależność zdarzeń losowych c t, jeśli P(c) = P(c t) lub P(t) = P(t c) Podstawy: niezależność Podstawy: niezależność Niezależność zdarzeń losowych c t, jeśli P(c) = P(c t) lub P(t) = P(t c) lub P(c)P(t) = P(c t) Niezależność zmiennych losowych C T : P(C)P(T ) = P(C T ) [zadanie 4] Rozpisać powyższe lub P(c)P(t) = P(c t) Niezależność zmiennych losowych C T : 1. Graficznie: niezależność zdarzeń losowych, jeśli pole c w stosunku do całości = pole c t w stosunku do t. [zadanie 4] Rozpisać powyższe P(C)P(T ) = P(C T )

25 Podstawy: niezależność Niezależność zdarzeń losowych c t, jeśli P(c) = P(c t) lub P(t) = P(t c) Podstawy: niezależność Podstawy: niezależność Niezależność zdarzeń losowych c t, jeśli P(c) = P(c t) lub P(t) = P(t c) lub P(c)P(t) = P(c t) Niezależność zmiennych losowych C T : P(C)P(T ) = P(C T ) [zadanie 4] Rozpisać powyższe Lewa = P(c), P( c) P(t), P( t) = P(c)P(t), P(c)P( t), P( c)p(t), P( c)p( t) Prawa = P(c t), P(c t), P( c t), P( c t) wiedza o niezależności zmiennych jest zwykle wiedzą dziedzinową. lub P(c)P(t) = P(c t) Niezależność zmiennych losowych C T : 1. Graficznie: niezależność zdarzeń losowych, jeśli pole c w stosunku do całości = pole c t w stosunku do t. [zadanie 4] Rozpisać powyższe P(C)P(T ) = P(C T ) Lewa = P(c), P( c) P(t), P( t) = P(c)P(t), P(c)P( t), P( c)p(t), P( c)p( t) Prawa = P(c t), P(c t), P( c t), P( c t) wiedza o niezależności zmiennych jest zwykle wiedzą dziedzinową.

26 Niezależność Czwarta zmienna: Pogoda(P) P(P = s loneczna, b, t, d) = P(P = s loneczna b, t, d)p(b, t, d) Niezależność Niezależność Czwarta zmienna: Pogoda(P) P(P = s loneczna, b, t, d) = P(P = s loneczna b, t, d)p(b, t, d) Ale przecież (logika!): P(P = s loneczna b, t, d) = P(Pogoda = s loneczna) więc P(P = s loneczna, b, t, d) = P(P = s loneczna)p(b, t, d) Ale przecież (logika!): więc P(P = s loneczna b, t, d) = P(Pogoda = s loneczna) P(P = s loneczna, b, t, d) = P(P = s loneczna)p(b, t, d)

27 decomposes into Konsekwencja niezależności Konsekwencja niezależności Konsekwencja niezależności Cavity Toothache Catch Weather Cavity Toothache Catch Weather Coin 1 decomposes into Coin 1 Coin n Coin n Cavity Toothache Weather Catch Coin 1 Coin n 1. Co nam to daje? Zamiast zapisywać rozkład prawd. łącznego za pomocą 2 4 = 32 liczb, wystarczy nam = 18 (dekompozycja). Jest lepiej, ale w praktyce to nie wystarcza. Żeby było lepiej trzeba sięgnąć do reguły Bayesa i niezależności warunkowej. decomposes into decomposes into Cavity Toothache Catch Weather Coin 1 Coin n

28 Reguła Bayesa Reguła Bayesa Reguła Bayesa P(y x) = P(x y)p(y) P(x) P(x) często nieznane i rozpisuje się je jako praw. całkowite. P(y x) = P(x y)p(y) P(x) P(x) często nieznane i rozpisuje się je jako praw. całkowite. 1. Wyprowadzenie korzysta z def. prawd. warunkowego (reguły produkcji) 2. To proste równanie leży u podstawy większości nowoczesnych systemów sztucznej inteligencji opartych na wnioskowaniu probabilistycznym.

29 Reguła Bayesa Reguła Bayesa Reguła Bayesa P(y x) = P(x y)p(y) P(x) P(x) często nieznane i rozpisuje się je jako praw. całkowite. Wersja ogólniejsza (zmienne losowe i dodatkowa wiedza e): P(X Y, e)p(y e) P(Y X, e) = P(X e) P(y x) = P(x y)p(y) P(x) P(x) często nieznane i rozpisuje się je jako praw. całkowite. Wersja ogólniejsza (zmienne losowe i dodatkowa wiedza e): 1. Wyprowadzenie korzysta z def. prawd. warunkowego (reguły produkcji) 2. To proste równanie leży u podstawy większości nowoczesnych systemów sztucznej inteligencji opartych na wnioskowaniu probabilistycznym. P(Y X, e) = P(X Y, e)p(y e) P(X e)

30 Wnioskowanie Wnioskowanie Wnioskowanie P(y x) = P(x y)p(y) P(x) Zależność między zmiennymi X i Y. Możemy ją skwantyfikować w dwóch kierunkach: przyczynowym: P(efekt przyczyna), np. P(gorączka grypa) diagnostycznym: P(przyczyna efekt), np. P(grypa gorączka) [zadanie 5] Które prawd. łatwiej poznać? P(y x) = P(x y)p(y) P(x) Zależność między zmiennymi X i Y. Możemy ją skwantyfikować w dwóch kierunkach: przyczynowym: P(efekt przyczyna), np. P(gor ączka grypa) diagnostycznym: P(przyczyna efekt), np. P(grypa gor ączka) [zadanie 5] Które prawd. łatwiej poznać? 1. Łatwiej poznać P(gor ączka grypa), czyli jak często grypa powoduje gorączkę - wystarczy zebrać dane na temat ludzi z grypą. Łatwiej więc pozyskać dane o kierunku przyczynowym. Trudniej o kierunku diagnostycznym.

31 Przykład Przykład Przykład Zapalenie opon mózgowych (M) i sztywność karku (S). P(s m) = 0.7 (kierunek przyczynowy) P(m) = 1/50000 (a priori, że osoba ma zapalenie opon) P(s) = 0.01 (a priori, że osoba ma sztywność kark) [zadanie 6] P(m s) =? Zapalenie opon mózgowych (M) i sztywność karku (S). P(s m) = 0.7 (kierunek przyczynowy) P(m) = 1/50000 (a priori, że osoba ma zapalenie opon) P(s) = 0.01 (a priori, że osoba ma sztywność kark) [zadanie 6] P(m s) =? 1. Jeśli doktor wie, że P(m s) = , to nie musi korzystać z reguły Bayes a, więc po co mu to całe wnioskowanie? Otóż, P(m s) nie jest stałe! Jeśli tylko wybuchnie epidemia zapalenia opon mózgowych, wtedy P(m) się zwiększy i P(m s) się zwiększy. P(m s) jest stałe, bo odzwierciedla zasady fizyki/biologii/etc.

32 Przykład Przykład Przykład Zapalenie opon mózgowych (M) i sztywność karku (S). P(s m) = 0.7 (kierunek przyczynowy) P(m) = 1/50000 (a priori, że osoba ma zapalenie opon) P(s) = 0.01 (a priori, że osoba ma sztywność kark) [zadanie 6] P(m s) = P(s m)p(m) = P(s) Zapalenie opon mózgowych (M) i sztywność karku (S). P(s m) = 0.7 (kierunek przyczynowy) P(m) = 1/50000 (a priori, że osoba ma zapalenie opon) P(s) = 0.01 (a priori, że osoba ma sztywność kark) [zadanie 6] 1. Jeśli doktor wie, że P(m s) = , to nie musi korzystać z reguły Bayes a, więc po co mu to całe wnioskowanie? Otóż, P(m s) nie jest stałe! Jeśli tylko wybuchnie epidemia zapalenia opon mózgowych, wtedy P(m) się zwiększy i P(m s) się zwiększy. P(m s) jest stałe, bo odzwierciedla zasady fizyki/biologii/etc. P(m s) = P(s m)p(m) P(s) =

33 Przykład Przykład Przykład Zapalenie opon mózgowych (M) i sztywność karku (S). P(s m) = 0.7 (kierunek przyczynowy) P(m) = 1/50000 (a priori, że osoba ma zapalenie opon) P(s) = 0.01 (a priori, że osoba ma sztywność kark) [zadanie 6] P(m s) = P(s m)p(m) = P(s) Prawd. w kierunku przyczynowym jest solidniejsze! Zapalenie opon mózgowych (M) i sztywność karku (S). P(s m) = 0.7 (kierunek przyczynowy) P(m) = 1/50000 (a priori, że osoba ma zapalenie opon) P(s) = 0.01 (a priori, że osoba ma sztywność kark) [zadanie 6] 1. Jeśli doktor wie, że P(m s) = , to nie musi korzystać z reguły Bayes a, więc po co mu to całe wnioskowanie? Otóż, P(m s) nie jest stałe! Jeśli tylko wybuchnie epidemia zapalenia opon mózgowych, wtedy P(m) się zwiększy i P(m s) się zwiększy. P(m s) jest stałe, bo odzwierciedla zasady fizyki/biologii/etc. P(m s) = P(s m)p(m) P(s) = Prawd. w kierunku przyczynowym jest solidniejsze!

34 Warunkowa niezależność zmiennych Warunkowa niezależność zmiennych 1. P(Dziura test) = α 0.108, , Warunkowa niezależność zmiennych P(Dziura test) =? Ale to się nie skaluje, gdy mamy wiele zmiennych ( wielka tabelka ). P(Dziura test) =? Ale to się nie skaluje, gdy mamy wiele zmiennych ( wielka tabelka ).

35 Warunkowa niezależność zmiennych Warunkowa niezależność zmiennych 1. P(Dziura test) = α 0.108, , Warunkowa niezależność zmiennych P(Dziura test) =? Ale to się nie skaluje, gdy mamy wiele zmiennych ( wielka tabelka ). P(Dziura test) = αp( test Dziura)P(Dziura) = αp( Dziura)P(test Dziura)P(Dziura) P(Dziura test) =? Ale to się nie skaluje, gdy mamy wiele zmiennych ( wielka tabelka ). P(Dziura test) = αp( test Dziura)P(Dziura) = αp( Dziura)P(test Dziura)P(Dziura)

36 Warunkowa niezależność zmiennych Warunkowa niezależność zmiennych Warunkowa niezależność zmiennych C rak, T1 jakiś test na obecność raka, T2 jakiś inny test na obecność raka C jest zmienną ukrytą. Ale jeśli znalibyśmy C, jakakolwiek wiedza o T1 nie da nam żadnej dodatkowej wiedzy dot. T2, czyli T1 i T2 są niezależne warunkowo pod warunkiem C. P(T2 C, T1) = P(T2 C) P(T1, T2 C) = P(T1 C)P(T2 C) Notacja: T1 T2 C C rak, T 1 jakiś test na obecność raka, T 2 jakiś inny test na obecność raka C jest zmienną ukrytą. Ale jeśli znalibyśmy C, jakakolwiek wiedza o T 1 nie da nam żadnej dodatkowej wiedzy dot. T 2, czyli T 1 i T 2 są niezależne warunkowo pod warunkiem C. P(T2 C, T 1 ) = P(T 2 C) P(T1, T 2 C) = P(T 1 C)P(T 2 C) Notacja: T 1 T 2 C 1. Widać to na diagramie. Jeśli znamy C, to on niezależnie wpływa na T1 i T2. W pewnym sensie obcina to co się dzieje w T1 od tego co się dzieje w T2 2. Jeśli zmienne losowe A i B są niezależne pod warunkiem, że X, możemy wnioskować tak: P(A, B, X ) = P(A, B X )P(X ) = P(A X )P(B X )P(X ).

37 1,4 2,4 1,3 2,3 3,3 4,3 1,2 2,2 3,2 4,2 B OK 1,1 2,1 3,1 4,1 B OK OK 3,4 4,4 1,4 2,4 3,4 4,4 1,3 2,3 3,3 4,3 OTHER QUERY 1,2 2,2 3,2 4,2 FRONTIER 1,1 2,1 3,1 4,1 KNOWN Wumpus 1,4 2,4 3,4 4,4 1,4 2,4 3,4 4,4 Wumpus Wumpus Jakie jest prawd, że w polu (1,3) jest jama jeśli wiatr poczuliśmy w polu (1,2) i (2,1)? Zmienne losowe: Di,j (dziura na polu (i, j)) oraz Bi,j (bryza na polu (i, j)). 1,3 2,3 3,3 4,3 1,3 2,3 3,3 OTHER 4,3 QUERY 1,2 2,2 3,2 4,2 B OK 1,1 2,1 3,1 4,1 B 1,2 2,2 3,2 4,2 1,1 2,1 FRONTIER 3,1 4,1 KNOWN OK OK Jakie jest prawd, że w polu (1,3) jest jama jeśli wiatr poczuliśmy w polu (1,2) i (2,1)? Zmienne losowe: D i,j (dziura na polu (i, j)) oraz B i,j (bryza na polu (i, j)).

Na podstawie: AIMA, ch13. Wojciech Jaśkowski. 15 marca 2013

Na podstawie: AIMA, ch13. Wojciech Jaśkowski. 15 marca 2013 Na podstawie: AIMA, ch13 Instytut Informatyki, Politechnika Poznańska 15 marca 2013 Źródła niepewności Świat częściowo obserwowalny Świat niedeterministyczny Także: Lenistwo i ignorancja (niewiedza) Cel:

Bardziej szczegółowo

Algorytmy stochastyczne, wykład 08 Sieci bayesowskie

Algorytmy stochastyczne, wykład 08 Sieci bayesowskie Algorytmy stochastyczne, wykład 08 Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2014-04-10 Prawdopodobieństwo Prawdopodobieństwo Prawdopodobieństwo warunkowe Zmienne

Bardziej szczegółowo

Systemy ekspertowe - wiedza niepewna

Systemy ekspertowe - wiedza niepewna Instytut Informatyki Uniwersytetu Śląskiego lab 8 Rozpatrzmy następujący przykład: Miażdżyca powoduje często zwężenie tętnic wieńcowych. Prowadzi to zazwyczaj do zmniejszenia przepływu krwi w tych naczyniach,

Bardziej szczegółowo

Algorytmy estymacji stanu (filtry)

Algorytmy estymacji stanu (filtry) Algorytmy estymacji stanu (filtry) Na podstawie: AIMA ch15, Udacity (S. Thrun) Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 21 kwietnia 2014 Problem lokalizacji Obserwowalność? Determinizm?

Bardziej szczegółowo

Klasyfikacja bayesowska

Klasyfikacja bayesowska Wykład14,26V2010,str.1 Przykład: (Bishop) M Jabłka i pomarańcze: Wyciągnięto pomarańczę; jakie jest prawdopodobieństwo, że naczynie było niebieskie? Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) M Wykład14,26V2010,str.2

Bardziej szczegółowo

Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak

Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak 1 Wprowadzenie. Zmienne losowe Podczas kursu interesować nas będzie wnioskowanie o rozpatrywanym zjawisku. Poprzez wnioskowanie rozumiemy

Bardziej szczegółowo

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski Modelowanie zależności pomiędzy zmiennymi losowymi Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski P Zmienne losowe niezależne - przypomnienie Dwie rzeczywiste zmienne losowe X i Y

Bardziej szczegółowo

WYKŁAD 4. Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie. autor: Maciej Zięba. Politechnika Wrocławska

WYKŁAD 4. Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie. autor: Maciej Zięba. Politechnika Wrocławska Wrocław University of Technology WYKŁAD 4 Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie autor: Maciej Zięba Politechnika Wrocławska Klasyfikacja Klasyfikacja (ang. Classification):

Bardziej szczegółowo

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18 Eksploracja Danych wykład 4 Sebastian Zając WMP.SNŚ UKSW 10 maja 2017 Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja 2017 1 / 18 Klasyfikacja danych Klasyfikacja Najczęściej stosowana (najstarsza)

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 2 autorzy: A. Gonczarek, J.M. Tomczak Metody estymacji Zad. 1 Pojawianie się spamu opisane jest zmienną losową x o rozkładzie dwupunktowym

Bardziej szczegółowo

Weryfikacja hipotez statystycznych

Weryfikacja hipotez statystycznych Weryfikacja hipotez statystycznych Hipoteza Test statystyczny Poziom istotności Testy jednostronne i dwustronne Testowanie równości wariancji test F-Fishera Testowanie równości wartości średnich test t-studenta

Bardziej szczegółowo

P(F=1) F P(C1 = 1 F = 1) P(C1 = 1 F = 0) P(C2 = 1 F = 1) P(C2 = 1 F = 0) P(R = 1 C2 = 1) P(R = 1 C2 = 0)

P(F=1) F P(C1 = 1 F = 1) P(C1 = 1 F = 0) P(C2 = 1 F = 1) P(C2 = 1 F = 0) P(R = 1 C2 = 1) P(R = 1 C2 = 0) Sieci bayesowskie P(F=) F P(C = F = ) P(C = F = 0) C C P(C = F = ) P(C = F = 0) M P(M = C =, C = ) P(M = C =, C = 0) P(M = C = 0, C = ) P(M = C = 0, C = 0) R P(R = C = ) P(R = C = 0) F pali papierosy C

Bardziej szczegółowo

Wnioskowanie statystyczne i oparte na współczynnikach wiarygodności. Wprowadzenie teoretyczne Wnioskowanie probabilistyczne Przykłady

Wnioskowanie statystyczne i oparte na współczynnikach wiarygodności. Wprowadzenie teoretyczne Wnioskowanie probabilistyczne Przykłady Zarządzanie wiedzą Wnioskowanie statystyczne i oparte na współczynnikach wiarygodności 1 Plan wykładu Niepewność Wnioskowanie statystyczne: Wprowadzenie teoretyczne Wnioskowanie probabilistyczne Przykłady

Bardziej szczegółowo

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne 5.3 Rozkłady warunkowe i warunkowa wartość oczekiwana Katarzyna Rybarczyk-Krzywdzińska semestr zimowy 2015/2016 Prawdopodobieństwo wyraża postawę

Bardziej szczegółowo

Wnioskowanie bayesowskie

Wnioskowanie bayesowskie Wnioskowanie bayesowskie W podejściu klasycznym wnioskowanie statystyczne oparte jest wyłącznie na podstawie pobranej próby losowej. Możemy np. estymować punktowo lub przedziałowo nieznane parametry rozkładów,

Bardziej szczegółowo

Rozkład normalny Parametry rozkładu zmiennej losowej Zmienne losowe wielowymiarowe

Rozkład normalny Parametry rozkładu zmiennej losowej Zmienne losowe wielowymiarowe Statystyka i opracowanie danych W4 Rozkład normalny Parametry rozkładu zmiennej losowej Zmienne losowe wielowymiarowe Dr Anna ADRIAN Paw B5, pok407 adan@agh.edu.pl Rozkład normalny wykres funkcji gęstości

Bardziej szczegółowo

Klasyfikacja metodą Bayesa

Klasyfikacja metodą Bayesa Klasyfikacja metodą Bayesa Tadeusz Pankowski www.put.poznan.pl/~tadeusz.pankowski warunkowe i bezwarunkowe 1. Klasyfikacja Bayesowska jest klasyfikacją statystyczną. Pozwala przewidzieć prawdopodobieństwo

Bardziej szczegółowo

Wnioskowanie statystyczne i oparte na współczynnikach wiarygodności

Wnioskowanie statystyczne i oparte na współczynnikach wiarygodności Wnioskowanie statystyczne i oparte na współczynnikach wiarygodności 1 Niepewność Wnioskowanie statystyczne: Wprowadzenie teoretyczne Wnioskowanie probabilistyczne Przykłady Wnioskowanie ze współczynnikami

Bardziej szczegółowo

Przypomnienie elementów z rachunku prawdopodobieństwa. Naiwny klasyfikator Bayesa. Aktualizacja rozkładów wg reguły Bayesa.

Przypomnienie elementów z rachunku prawdopodobieństwa. Naiwny klasyfikator Bayesa. Aktualizacja rozkładów wg reguły Bayesa. 1/ 32 Przypomnienie elementów z rachunku prawdopodobieństwa. Naiwny klasyfikator Bayesa. Aktualizacja rozkładów wg reguły Bayesa. Przemysław Klęsk pklesk@wi.zut.edu.pl Literatura 2/ 32 1 D. Hand, H. Mannila,

Bardziej szczegółowo

Sieci Bayesa mgr Tomasz Xięski, Instytut Informatyki, Uniwersytet Śląski Sosnowiec, 2011

Sieci Bayesa mgr Tomasz Xięski, Instytut Informatyki, Uniwersytet Śląski Sosnowiec, 2011 Sieci Bayesa mgr Tomasz Xięski, Instytut Informatyki, Uniwersytet Śląski Sosnowiec, 2011 Sieć Bayesowska służy do przedstawiania zależności pomiędzy zdarzeniami bazując na rachunku prawdopodobieństwa.

Bardziej szczegółowo

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe 4.0. Rozkłady zmiennych losowych, dystrybuanta. Katarzyna Rybarczyk-Krzywdzińska Wprowadzenie Rozważmy eksperymenty 1 gra Bolka w ruletkę w kasynie;

Bardziej szczegółowo

Język rachunku predykatów Formuły rachunku predykatów Formuły spełnialne i prawdziwe Dowody założeniowe. 1 Zmienne x, y, z...

Język rachunku predykatów Formuły rachunku predykatów Formuły spełnialne i prawdziwe Dowody założeniowe. 1 Zmienne x, y, z... Język rachunku predykatów 1 Zmienne x, y, z... 2 Predykaty n-argumentowe P(x, y,...), Q(x, y...),... 3 Funktory zdaniowe,,,, 4 Kwantyfikatory: istnieje, dla każdego Język rachunku predykatów Ustalenie

Bardziej szczegółowo

Metody probabilistyczne

Metody probabilistyczne Metody probabilistyczne Prawdopodobieństwo warunkowe Jędrzej Potoniec Część I Podstawy interpretacji wyników badań medycznych Badanie raka Grupa kobiet w wieku 40 lat bierze udział w przesiewowej mammografi,

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 3 Metody estymacji. Estymator największej wiarygodności Zad. 1 Pojawianie się spamu opisane jest zmienną losową y o rozkładzie zero-jedynkowym

Bardziej szczegółowo

Funkcje charakterystyczne zmiennych losowych, linie regresji 1-go i 2-go rodzaju

Funkcje charakterystyczne zmiennych losowych, linie regresji 1-go i 2-go rodzaju Funkcje charakterystyczne zmiennych losowych, linie regresji -go i 2-go rodzaju Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Inteligencji i Metod Matematycznych Wydział Informatyki Politechniki

Bardziej szczegółowo

Stanisław Cichocki Natalia Nehrebecka. Wykład 7

Stanisław Cichocki Natalia Nehrebecka. Wykład 7 Stanisław Cichocki Natalia Nehrebecka Wykład 7 1 1. Metoda Największej Wiarygodności MNW 2. Założenia MNW 3. Własności estymatorów MNW 4. Testowanie hipotez w MNW 2 1. Metoda Największej Wiarygodności

Bardziej szczegółowo

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie Jarosław Kotowicz Instytut Matematyki Uniwersytet w

Bardziej szczegółowo

Rachunek prawdopodobieństwa

Rachunek prawdopodobieństwa Rachunek prawdopodobieństwa Sebastian Rymarczyk srymarczyk@afm.edu.pl Tematyka zajęć 1. Elementy kombinatoryki. 2. Definicje prawdopodobieństwa. 3. Własności prawdopodobieństwa. 4. Zmienne losowe, parametry

Bardziej szczegółowo

Fuzja sygnałów i filtry bayesowskie

Fuzja sygnałów i filtry bayesowskie Fuzja sygnałów i filtry bayesowskie Roboty Manipulacyjne i Mobilne dr inż. Janusz Jakubiak Katedra Cybernetyki i Robotyki Wydział Elektroniki, Politechnika Wrocławska Wrocław, 10.03.2015 Dlaczego potrzebna

Bardziej szczegółowo

Metody probabilistyczne

Metody probabilistyczne Metody probabilistyczne. Twierdzenia graniczne Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 20.2.208 / 26 Motywacja Rzucamy wielokrotnie uczciwą monetą i zliczamy

Bardziej szczegółowo

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów Rozdział : Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów W tym rozdziale omówione zostaną dwie najpopularniejsze metody estymacji parametrów w ekonometrycznych modelach nieliniowych,

Bardziej szczegółowo

Sztuczna inteligencja : Tworzenie sieci Bayesa

Sztuczna inteligencja : Tworzenie sieci Bayesa Instytut Informatyki Uniwersytetu Śląskiego 13 kwiecień 2011 Rysunek: Sieć Bayesa Rysunek: Sieć Bayesa Matura z matematyki na 60 %. Matura z matematyki na 100 %. Rozpatrzmy następujące przypadki: Uczeń

Bardziej szczegółowo

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe 4.0. Rozkłady zmiennych losowych, dystrybuanta. Katarzyna Rybarczyk-Krzywdzińska semestr zimowy 2016/2017 Wprowadzenie Przykład 1 Bolek, Lolek i Tola

Bardziej szczegółowo

Wnioskowanie statystyczne i oparte na współczynnikach wiarygodności

Wnioskowanie statystyczne i oparte na współczynnikach wiarygodności Systemy ekspertowe Wnioskowanie statystyczne i oparte na współczynnikach wiarygodności 1 Plan wykładu Niepewność Wnioskowanie statystyczne: Wprowadzenie teoretyczne Wnioskowanie probabilistyczne Przykłady

Bardziej szczegółowo

Statystyka i eksploracja danych

Statystyka i eksploracja danych Wykład II: i charakterystyki ich rozkładów 24 lutego 2014 Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa,

Bardziej szczegółowo

Przestrzeń probabilistyczna

Przestrzeń probabilistyczna Przestrzeń probabilistyczna (Ω, Σ, P) Ω pewien niepusty zbiór Σ rodzina podzbiorów tego zbioru P funkcja określona na Σ, zwana prawdopodobieństwem. Przestrzeń probabilistyczna (Ω, Σ, P) Ω pewien niepusty

Bardziej szczegółowo

11. Gry Macierzowe - Strategie Czyste i Mieszane

11. Gry Macierzowe - Strategie Czyste i Mieszane 11. Gry Macierzowe - Strategie Czyste i Mieszane W grze z doskonałą informacją, gracz nie powinien wybrać akcję w sposób losowy (o ile wypłaty z różnych decyzji nie są sobie równe). Z drugiej strony, gdy

Bardziej szczegółowo

Wykład 11: Martyngały: definicja, twierdzenia o zbieżności

Wykład 11: Martyngały: definicja, twierdzenia o zbieżności RAP 412 14.01.2009 Wykład 11: Martyngały: definicja, twierdzenia o zbieżności Wykładowca: Andrzej Ruciński Pisarz:Mirosława Jańczak 1 Wstęp Do tej pory zajmowaliśmy się ciągami zmiennych losowych (X n

Bardziej szczegółowo

Gdzie: N zbiór wierzchołków grafu, E zbiór krawędzi grafu, Cp zbiór prawdopodobieostw warunkowych.

Gdzie: N zbiór wierzchołków grafu, E zbiór krawędzi grafu, Cp zbiór prawdopodobieostw warunkowych. Laboratorium z przedmiotu Sztuczna inteligencja Temat: Sieci Bayesa, Wnioskowanie probabilistyczne, GeNIe Laboratorium nr 1 Sied Bayesowska służy do przedstawiania zależności pomiędzy zdarzeniami bazując

Bardziej szczegółowo

Rachunek prawdopodobieństwa 1B; zadania egzaminacyjne.

Rachunek prawdopodobieństwa 1B; zadania egzaminacyjne. Rachunek prawdopodobieństwa B; zadania egzaminacyjne.. Niech µ będzie rozkładem probabilistycznym na (0, ) (0, ): µ(b) = l({x (0,) : (x, x) B}), dla B B((0, ) (0, ))), gdzie l jest miarą Lebesgue a na

Bardziej szczegółowo

Matematyka z el. statystyki, # 1 /Geodezja i kartografia I/

Matematyka z el. statystyki, # 1 /Geodezja i kartografia I/ Matematyka z el. statystyki, # 1 /Geodezja i kartografia I/ dr n. mat. Zdzisław Otachel Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Akademicka 15, p.211a, bud. Agro

Bardziej szczegółowo

Uczenie ze wzmocnieniem aplikacje

Uczenie ze wzmocnieniem aplikacje Uczenie ze wzmocnieniem aplikacje Na podstawie: AIMA ch21 oraz Reinforcement Learning (Sutton i Barto) Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 23 maja 2014 Problem decyzyjny Markova

Bardziej szczegółowo

teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015

teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015 teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015 1 wczoraj Wprowadzenie matematyczne. Entropia i informacja. Kodowanie. Kod ASCII. Stopa kodu. Kody bezprefiksowe.

Bardziej szczegółowo

Układy stochastyczne

Układy stochastyczne Instytut Informatyki Uniwersytetu Śląskiego 21 stycznia 2009 Definicja Definicja Proces stochastyczny to funkcja losowa, czyli funkcja matematyczna, której wartości leżą w przestrzeni zdarzeń losowych.

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład IV: 27 października 2014 Współczynnik korelacji Brak korelacji a niezależność Definicja współczynnika korelacji Współczynnikiem korelacji całkowalnych z kwadratem zmiennych losowych X i Y nazywamy

Bardziej szczegółowo

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa Spis treści Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa Romuald Kotowski Katedra Informatyki Stosowanej PJWSTK 2009 Spis treści Spis treści 1 Wstęp Bardzo często interesujący

Bardziej szczegółowo

WYKŁAD 2 i 3. Podstawowe pojęcia związane z prawdopodobieństwem. Podstawy teoretyczne. autor: Maciej Zięba. Politechnika Wrocławska

WYKŁAD 2 i 3. Podstawowe pojęcia związane z prawdopodobieństwem. Podstawy teoretyczne. autor: Maciej Zięba. Politechnika Wrocławska Wrocław University of Technology WYKŁAD 2 i 3 Podstawowe pojęcia związane z prawdopodobieństwem. Podstawy teoretyczne autor: Maciej Zięba Politechnika Wrocławska Pojęcie prawdopodobieństwa Prawdopodobieństwo

Bardziej szczegółowo

i=7 X i. Zachodzi EX i = P(X i = 1) = 1 2, i {1, 2,..., 11} oraz EX ix j = P(X i = 1, X j = 1) = 1 7 VarS 2 2 = 14 3 ( 5 2 =

i=7 X i. Zachodzi EX i = P(X i = 1) = 1 2, i {1, 2,..., 11} oraz EX ix j = P(X i = 1, X j = 1) = 1 7 VarS 2 2 = 14 3 ( 5 2 = Kombinatoryka W tej serii zadań można znaleźć pojawiające się na egzaminach zadania dotyczące problemu wyznaczania prostych parametrów rozkładu w przypadku zgadnień kombinatorycznych. Zadania te wymagają

Bardziej szczegółowo

Sztuczna inteligencja : Naiwny klasyfikator Bayesa

Sztuczna inteligencja : Naiwny klasyfikator Bayesa Instytut Informatyki Uniwersytetu Śląskiego 18 kwietnia 2012 Rysunek: Klasyfikator Bayesa Jakie jest prawdopodobieństwo, że nowy obiekt będzie zielony/czerwony? Jaki będzie kolor nowego obiektu? Obliczenie

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład XIII: Prognoza. 26 stycznia 2015 Wykład XIII: Prognoza. Prognoza (predykcja) Przypuśćmy, że mamy dany ciąg liczb x 1, x 2,..., x n, stanowiących wyniki pomiaru pewnej zmiennej w czasie wielkości

Bardziej szczegółowo

reguła mnożenia ilustracja zbioru wyników doświadczenia za pomocą drzewa reguła dodawania definicja n! liczba permutacji zbioru n-elementowego

reguła mnożenia ilustracja zbioru wyników doświadczenia za pomocą drzewa reguła dodawania definicja n! liczba permutacji zbioru n-elementowego FUNKCJE LOGARYTMICZNE powtórzenie 4 godziny RACHUNEK PRAWDOPODOBIEŃSTWA 28 godz. Moduł - dział -temat Reguła mnożenia. Reguła dodawania Lp 1 2 reguła mnożenia ilustracja zbioru wyników doświadczenia za

Bardziej szczegółowo

Wykład 13. Podstawowe pojęcia rachunku prawdopodobieństwa

Wykład 13. Podstawowe pojęcia rachunku prawdopodobieństwa Wykład 13. Podstawowe pojęcia rachunku prawdopodobieństwa dr Mariusz Grzadziel Katedra Matematyki, Uniwersytet Przyrodniczy we Wrocławiu semestr zimowy, rok akademicki 2015 2016 Doświadczenie losowe Doświadczenie

Bardziej szczegółowo

Mikroekonometria 9. Mikołaj Czajkowski Wiktor Budziński

Mikroekonometria 9. Mikołaj Czajkowski Wiktor Budziński Mikroekonometria 9 Mikołaj Czajkowski Wiktor Budziński Wielomianowy model logitowy Uogólnienie modelu binarnego Wybór pomiędzy 2 lub większą liczbą alternatyw Np. wybór środka transportu, głos w wyborach,

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 2 autorzy: A. Gonczarek, J.M. Tomczak Metody estymacji ML Zad. 1 Pojawianie się spamu opisane jest zmienną losową x o rozkładzie dwupunktowym

Bardziej szczegółowo

Testowanie hipotez statystycznych.

Testowanie hipotez statystycznych. Bioinformatyka Wykład 9 Wrocław, 5 grudnia 2011 Temat. Test zgodności χ 2 Pearsona. Statystyka χ 2 Pearsona Rozpatrzmy ciąg niezależnych zmiennych losowych X 1,..., X n o jednakowym dyskretnym rozkładzie

Bardziej szczegółowo

Wymagania kl. 3. Zakres podstawowy i rozszerzony

Wymagania kl. 3. Zakres podstawowy i rozszerzony Wymagania kl. 3 Zakres podstawowy i rozszerzony Temat lekcji Zakres treści Osiągnięcia ucznia 1. RACHUNEK PRAWDOPODOBIEŃSTWA 1. Reguła mnożenia reguła mnożenia ilustracja zbioru wyników doświadczenia za

Bardziej szczegółowo

P r a w d o p o d o b i eństwo Lekcja 1 Temat: Lekcja organizacyjna. Program. Kontrakt.

P r a w d o p o d o b i eństwo Lekcja 1 Temat: Lekcja organizacyjna. Program. Kontrakt. P r a w d o p o d o b i eństwo Lekcja 1 Temat: Lekcja organizacyjna. Program. Kontrakt. Lekcja 2 Temat: Podstawowe pojęcia związane z prawdopodobieństwem. Str. 10-21 1. Doświadczenie losowe jest to doświadczenie,

Bardziej szczegółowo

Maksymalne powtórzenia w tekstach i zerowa intensywność entropii

Maksymalne powtórzenia w tekstach i zerowa intensywność entropii Maksymalne powtórzenia w tekstach i zerowa intensywność entropii Łukasz Dębowski ldebowsk@ipipan.waw.pl i Instytut Podstaw Informatyki PAN Warszawa 1 Wprowadzenie 2 Ograniczenia górne i dolne 3 Przykłady

Bardziej szczegółowo

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład Rozdział 1 Wektory losowe 1.1 Wektor losowy i jego rozkład Definicja 1 Wektor X = (X 1,..., X n ), którego każda współrzędna jest zmienną losową, nazywamy n-wymiarowym wektorem losowym (krótko wektorem

Bardziej szczegółowo

Technikum Nr 2 im. gen. Mieczysława Smorawińskiego w Zespole Szkół Ekonomicznych w Kaliszu

Technikum Nr 2 im. gen. Mieczysława Smorawińskiego w Zespole Szkół Ekonomicznych w Kaliszu Technikum Nr 2 im. gen. Mieczysława Smorawińskiego w Zespole Szkół Ekonomicznych w Kaliszu Wymagania edukacyjne niezbędne do uzyskania poszczególnych śródrocznych i rocznych ocen klasyfikacyjnych z obowiązkowych

Bardziej szczegółowo

Rozpoznawanie obrazów

Rozpoznawanie obrazów Rozpoznawanie obrazów Ćwiczenia lista zadań nr 7 autorzy: A. Gonczarek, J.M. Tomczak Przykładowe problemy Klasyfikacja binarna Dla obrazu x zaproponowano dwie cechy φ(x) = (φ 1 (x) φ 2 (x)) T. Na obrazie

Bardziej szczegółowo

Sposoby prezentacji problemów w statystyce

Sposoby prezentacji problemów w statystyce S t r o n a 1 Dr Anna Rybak Instytut Informatyki Uniwersytet w Białymstoku Sposoby prezentacji problemów w statystyce Wprowadzenie W artykule zostaną zaprezentowane podstawowe zagadnienia z zakresu statystyki

Bardziej szczegółowo

Statystyczna analiza danych

Statystyczna analiza danych Statystyczna analiza danych Testowanie hipotez statystycznych Ewa Szczurek szczurek@mimuw.edu.pl Instytut Informatyki Uniwersytet Warszawski 1/23 Testowanie hipotez średniej w R Test istotności dla wartości

Bardziej szczegółowo

Metody probabilistyczne

Metody probabilistyczne Metody probabilistyczne 13. Elementy statystki matematycznej I Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 17.01.2019 1 / 30 Zagadnienia statystki Przeprowadzamy

Bardziej szczegółowo

SIMR 2017/18, Statystyka, Przykładowe zadania do kolokwium - Rozwiązania

SIMR 2017/18, Statystyka, Przykładowe zadania do kolokwium - Rozwiązania SIMR 7/8, Statystyka, Przykładowe zadania do kolokwium - Rozwiązania. Dana jest gęstość prawdopodobieństwa zmiennej losowej ciągłej X : { a( x) dla x [, ] f(x) = dla pozostałych x Znaleźć: i) Wartość parametru

Bardziej szczegółowo

Rachunek prawdopodobieństwa - Teoria - Przypomnienie.. A i B są niezależne, gdy P(A B) = P(A)P(B). P(A B i )P(B i )

Rachunek prawdopodobieństwa - Teoria - Przypomnienie.. A i B są niezależne, gdy P(A B) = P(A)P(B). P(A B i )P(B i ) Rachunek prawdopodobieństwa - Teoria - Przypomnienie Podstawy Definicja 1. Schemat klasyczny - wszystkie zdarzenia elementarne są równo prawdopodobne, licząc prawdopodobieństwo liczymy stosunek liczby

Bardziej szczegółowo

Podstawowe modele probabilistyczne

Podstawowe modele probabilistyczne Wrocław University of Technology Podstawowe modele probabilistyczne Maciej Zięba maciej.zieba@pwr.edu.pl Rozpoznawanie Obrazów, Lato 2018/2019 Pojęcie prawdopodobieństwa Prawdopodobieństwo reprezentuje

Bardziej szczegółowo

Systemy uczące się wykład 1

Systemy uczące się wykład 1 Systemy uczące się wykład 1 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 5 X 2018 e-mail: przemyslaw.juszczuk@ue.katowice.pl Konsultacje: na stronie katedry + na stronie domowej

Bardziej szczegółowo

Zestaw 2: Zmienne losowe. 0, x < 1, 2, 2 x, 1 1 x, 1 x, F 9 (x) =

Zestaw 2: Zmienne losowe. 0, x < 1, 2, 2 x, 1 1 x, 1 x, F 9 (x) = Zestaw : Zmienne losowe. Które z poniższych funkcji są dystrybuantami? Odpowiedź uzasadnij. Wskazówka: naszkicuj wykres. 0, x 0,, x 0, F (x) = x, F (x) = x, 0 x

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium JAVA Zadanie nr 2 Rozpoznawanie liter autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z problemem klasyfikacji

Bardziej szczegółowo

Wstęp do Rachunku Prawdopodobieństwa, IIr. WMS

Wstęp do Rachunku Prawdopodobieństwa, IIr. WMS Wstęp do Rachunku Prawdopodobieństwa, IIr. WMS przykładowe zadania na. kolokwium czerwca 6r. Poniżej podany jest przykładowy zestaw zadań. Podczas kolokwium na ich rozwiązanie przeznaczone będzie ok. 85

Bardziej szczegółowo

Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX = 4 i EY = 6. Rozważamy zmienną losową Z =.

Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX = 4 i EY = 6. Rozważamy zmienną losową Z =. Prawdopodobieństwo i statystyka 3..00 r. Zadanie Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX 4 i EY 6. Rozważamy zmienną losową Z. X + Y Wtedy (A) EZ 0,

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka. Wykład 9

Stanisław Cichocki. Natalia Nehrebecka. Wykład 9 Stanisław Cichocki Natalia Nehrebecka Wykład 9 1 1. Dodatkowe założenie KMRL 2. Testowanie hipotez prostych Rozkład estymatora b Testowanie hipotez prostych przy użyciu statystyki t 3. Przedziały ufności

Bardziej szczegółowo

Recenzenci: prof. dr hab. Henryk Domański dr hab. Jarosław Górniak

Recenzenci: prof. dr hab. Henryk Domański dr hab. Jarosław Górniak Recenzenci: prof. dr hab. Henryk Domański dr hab. Jarosław Górniak Redakcja i korekta Bogdan Baran Projekt graficzny okładki Katarzyna Juras Copyright by Wydawnictwo Naukowe Scholar, Warszawa 2011 ISBN

Bardziej szczegółowo

Przypomnienie elementów z rachunku prawdopodobieństwa. Naiwny klasyfikator Bayesa. Aktualizacja rozkładów wg reguły Bayesa.

Przypomnienie elementów z rachunku prawdopodobieństwa. Naiwny klasyfikator Bayesa. Aktualizacja rozkładów wg reguły Bayesa. Przypomnienie elementów z rachunku prawdopodobieństwa. Naiwny klasyfikator Bayesa. Aktualizacja rozkładów wg reguły Bayesa. pklesk@wi.zut.edu.pl Literatura 1 D. Hand, H. Mannila, P. Smyth, Eksploracja

Bardziej szczegółowo

Rozkłady wielu zmiennych

Rozkłady wielu zmiennych Rozkłady wielu zmiennych Uogólnienie pojęć na rozkład wielu zmiennych Dystrybuanta, gęstość prawdopodobieństwa, rozkład brzegowy, wartości średnie i odchylenia standardowe, momenty Notacja macierzowa Macierz

Bardziej szczegółowo

1 Gaussowskie zmienne losowe

1 Gaussowskie zmienne losowe Gaussowskie zmienne losowe W tej serii rozwiążemy zadania dotyczące zmiennych o rozkładzie normalny. Wymagana jest wiedza na temat własności rozkładu normalnego, CTG oraz warunkowych wartości oczekiwanych..

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład VIII: Przestrzenie statystyczne. Estymatory 1 grudnia 2014 Wprowadzenie Przykład: pomiar z błędem Współczynnik korelacji r(x, Z) = 0, 986 Wprowadzenie Przykład: pomiar z błędem Współczynnik korelacji

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA

STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA Zadanie 0.1 Zmienna losowa X ma rozkład określony funkcją prawdopodobieństwa: x k 0 4 p k 1/3 1/6 1/ obliczyć EX, D X. (odp. 4/3;

Bardziej szczegółowo

PODSTAWOWE ROZKŁADY ZMIENNYCH LOSOWYCH CIĄGŁYCH

PODSTAWOWE ROZKŁADY ZMIENNYCH LOSOWYCH CIĄGŁYCH Opracowała: Joanna Kisielińska 1 PODSTAWOWE ROZKŁADY ZMIENNYCH LOSOWYCH CIĄGŁYCH Rozkład normalny Zmienna losowa X ma rozkład normalny z parametrami µ i σ (średnia i odchylenie standardowe), jeśli jej

Bardziej szczegółowo

Drugie kolokwium z Rachunku Prawdopodobieństwa, zestaw A

Drugie kolokwium z Rachunku Prawdopodobieństwa, zestaw A Drugie kolokwium z Rachunku Prawdopodobieństwa, zestaw A Zad. 1. Korzystając z podanych poniżej mini-tablic, oblicz pierwszy, drugi i trzeci kwartyl rozkładu N(10, 2 ). Rozwiązanie. Najpierw ogólny komentarz

Bardziej szczegółowo

Sztuczna inteligencja : Zbiory rozmyte cz. III

Sztuczna inteligencja : Zbiory rozmyte cz. III Instytut Informatyki Uniwersytetu Śląskiego lab 3 Notacja Zadeha: symboliczny zapis zbioru rozmytego dla przestrzeni dyskretnej. Dla X jest przestrzenią o skończonej liczbie elementów X = {x 1, x 2,...,

Bardziej szczegółowo

Sztuczna Inteligencja i Systemy Doradcze

Sztuczna Inteligencja i Systemy Doradcze Sztuczna Inteligencja i Systemy Doradcze Sieci bayessowskie 1 Sieci bayessowskie 1 1 Niepewnosc Niech akcja A t = wyjedź na lotnisko t minut przed odlotem Czy A t pozwoli mi zdążyć na czas? Problemy: 1)

Bardziej szczegółowo

Zasady krytycznego myślenia (1)

Zasady krytycznego myślenia (1) Zasady krytycznego myślenia (1) Andrzej Kisielewicz Wydział Matematyki i Informatyki 2017 Przedmiot wykładu krytyczne myślenie vs logika praktyczna (vs logika formalna) myślenie jasne, bezstronne, oparte

Bardziej szczegółowo

Inżynieria Wiedzy i Systemy Ekspertowe. Niepewność wiedzy. dr inż. Michał Bereta Politechnika Krakowska

Inżynieria Wiedzy i Systemy Ekspertowe. Niepewność wiedzy. dr inż. Michał Bereta Politechnika Krakowska Inżynieria Wiedzy i Systemy Ekspertowe Niepewność wiedzy dr inż. Michał Bereta Politechnika Krakowska http://torus.uck.pk.edu.pl/~beretam/ beretam@torus.uck.pk.edu.pl 1 Współczynniki pewności (ang. Certainty

Bardziej szczegółowo

Wstęp do Modelu Standardowego

Wstęp do Modelu Standardowego Wstęp do Modelu Standardowego Plan (Uzupełnienie matematyczne II) Abstrakcyjna przestrzeń stanów Podstawowe własności Iloczyn skalarny amplitudy prawdopodobieństwa Operatory i ich hermitowskość Wektory

Bardziej szczegółowo

Prawdopodobieństwo. Prawdopodobieństwo. Jacek Kłopotowski. Katedra Matematyki i Ekonomii Matematycznej SGH. 16 października 2018

Prawdopodobieństwo. Prawdopodobieństwo. Jacek Kłopotowski. Katedra Matematyki i Ekonomii Matematycznej SGH. 16 października 2018 Katedra Matematyki i Ekonomii Matematycznej SGH 16 października 2018 Definicja σ-algebry Definicja Niech Ω oznacza zbiór niepusty. Rodzinę M podzbiorów zbioru Ω nazywamy σ-algebrą (lub σ-ciałem) wtedy

Bardziej szczegółowo

Wprowadzenie do teorii ekonometrii. Wykład 1 Warunkowa wartość oczekiwana i odwzorowanie liniowe

Wprowadzenie do teorii ekonometrii. Wykład 1 Warunkowa wartość oczekiwana i odwzorowanie liniowe Wprowadzenie do teorii ekonometrii Wykład 1 Warunkowa wartość oczekiwana i odwzorowanie liniowe Zajęcia Wykład Laboratorium komputerowe 2 Zaliczenie EGZAMIN (50%) Na egzaminie obowiązują wszystkie informacje

Bardziej szczegółowo

WYKŁAD 3. Klasyfikacja: modele probabilistyczne

WYKŁAD 3. Klasyfikacja: modele probabilistyczne Wrocław University of Technology WYKŁAD 3 Klasyfikacja: modele probabilistyczne Maciej Zięba Politechnika Wrocławska Klasyfikacja Klasyfikacja (ang. Classification): Dysponujemy obserwacjami z etykietami

Bardziej szczegółowo

Rozkład normalny. Marcin Zajenkowski. Marcin Zajenkowski () Rozkład normalny 1 / 26

Rozkład normalny. Marcin Zajenkowski. Marcin Zajenkowski () Rozkład normalny 1 / 26 Rozkład normalny Marcin Zajenkowski Marcin Zajenkowski () Rozkład normalny 1 / 26 Rozkład normalny Krzywa normalna, krzywa Gaussa, rozkład normalny Rozkłady liczebności wielu pomiarów fizycznych, biologicznych

Bardziej szczegółowo

Rachunek prawdopodobieństwa- wykład 2

Rachunek prawdopodobieństwa- wykład 2 Rachunek prawdopodobieństwa- wykład 2 Pojęcie dyskretnej przestrzeni probabilistycznej i określenie prawdopodobieństwa w tej przestrzeni dr Marcin Ziółkowski Instytut Matematyki i Informatyki Uniwersytet

Bardziej szczegółowo

Testy zgodności. Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Inteligencji i Metod Matematycznych. Wykład 11

Testy zgodności. Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Inteligencji i Metod Matematycznych. Wykład 11 Testy zgodności Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Inteligencji i Metod Matematycznych Wydział Informatyki Politechniki Szczecińskiej 27. Nieparametryczne testy zgodności Weryfikacja

Bardziej szczegółowo

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy bez pamięci w których czas i stany są zbiorami dyskretnymi. Procesy stochastyczne WYKŁAD 2-3 Łańcuchy Markowa Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi. 2 Łańcuchem Markowa nazywamy proces będący ciągiem zmiennych

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład V: Zmienne losowe i ich wartości oczekiwane 25 października 2017 Definicja zmiennej losowej Definicja Zmienne losowa to charakterystyka liczbowa wyniku eksperymentu losowego. Zmienne losowa na przestrzeni

Bardziej szczegółowo

Elementy modelowania matematycznego

Elementy modelowania matematycznego Elementy modelowania matematycznego Modelowanie algorytmów klasyfikujących. Podejście probabilistyczne. Naiwny klasyfikator bayesowski. Modelowanie danych metodą najbliższych sąsiadów. Jakub Wróblewski

Bardziej szczegółowo

LABORATORIUM Populacja Generalna (PG) 2. Próba (P n ) 3. Kryterium 3σ 4. Błąd Średniej Arytmetycznej 5. Estymatory 6. Teoria Estymacji (cz.

LABORATORIUM Populacja Generalna (PG) 2. Próba (P n ) 3. Kryterium 3σ 4. Błąd Średniej Arytmetycznej 5. Estymatory 6. Teoria Estymacji (cz. LABORATORIUM 4 1. Populacja Generalna (PG) 2. Próba (P n ) 3. Kryterium 3σ 4. Błąd Średniej Arytmetycznej 5. Estymatory 6. Teoria Estymacji (cz. I) WNIOSKOWANIE STATYSTYCZNE (STATISTICAL INFERENCE) Populacja

Bardziej szczegółowo

MATeMAtyka 3. Propozycja przedmiotowego systemu oceniania wraz z określeniem wymagań edukacyjnych. Zakres podstawowy i rozszerzony

MATeMAtyka 3. Propozycja przedmiotowego systemu oceniania wraz z określeniem wymagań edukacyjnych. Zakres podstawowy i rozszerzony Agnieszka Kamińska, Dorota Ponczek MATeMAtyka 3 Propozycja przedmiotowego systemu oceniania wraz z określeniem wymagań edukacyjnych Zakres podstawowy i rozszerzony Wyróżnione zostały następujące wymagania

Bardziej szczegółowo

Własności statystyczne regresji liniowej. Wykład 4

Własności statystyczne regresji liniowej. Wykład 4 Własności statystyczne regresji liniowej Wykład 4 Plan Własności zmiennych losowych Normalna regresja liniowa Własności regresji liniowej Literatura B. Hansen (2017+) Econometrics, Rozdział 5 Własności

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 2 κ-nn i Naive Bayes autorzy: M. Zięba, J.M. Tomczak, A. Gonczarek, S. Zaręba Cel zadania Celem zadania jest implementacja klasyfikatorów

Bardziej szczegółowo

Testowanie hipotez statystycznych

Testowanie hipotez statystycznych Testowanie hipotez statystycznych Wyk lad 8 Natalia Nehrebecka Stanis law Cichocki 29 listopada 2015 Plan zajeć 1 Rozk lad estymatora b Rozk lad sumy kwadratów reszt 2 Hipotezy proste - test t Badanie

Bardziej szczegółowo