Sztuczna Inteligencja i Systemy Doradcze

Podobne dokumenty
Sztuczna Inteligencja i Systemy Doradcze

SID Wykład XI Sieci Bayesowskie

Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa

Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova

Algorytmy stochastyczne, wykład 08 Sieci bayesowskie

Spacery losowe generowanie realizacji procesu losowego

Sztuczna Inteligencja i Systemy Doradcze

Fuzja sygnałów i filtry bayesowskie

Analiza algorytmów zadania podstawowe

Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak

P(F=1) F P(C1 = 1 F = 1) P(C1 = 1 F = 0) P(C2 = 1 F = 1) P(C2 = 1 F = 0) P(R = 1 C2 = 1) P(R = 1 C2 = 0)

Jeśli czas działania algorytmu zależy nie tylko od rozmiaru danych wejściowych i przyjmuje różne wartości dla różnych danych o tym samym rozmiarze,

Wykład 4. Plan: 1. Aproksymacja rozkładu dwumianowego rozkładem normalnym. 2. Rozkłady próbkowe. 3. Centralne twierdzenie graniczne

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.

Struktury danych i złożoność obliczeniowa Wykład 2. Prof. dr hab. inż. Jan Magott

i=7 X i. Zachodzi EX i = P(X i = 1) = 1 2, i {1, 2,..., 11} oraz EX ix j = P(X i = 1, X j = 1) = 1 7 VarS 2 2 = 14 3 ( 5 2 =

Algorytmy MCMC (Markowowskie Monte Carlo) dla skokowych procesów Markowa

Wrocław, Wstęp do informatyki i programowania: liczby pierwsze. Wydział Matematyki Politechniki Wrocławskiej.

Sztuczna Inteligencja i Systemy Doradcze

Generowanie liczb o zadanym rozkładzie. ln(1 F (y) λ

MODELOWANIE STANÓW CZYNNOŚCIOWYCH W JĘZYKU SIECI BAYESOWSKICH

Metody probabilistyczne

ZŁOŻONOŚĆ OBLICZENIOWA ALGORYTMÓW

Przykłady grafów. Graf prosty, to graf bez pętli i bez krawędzi wielokrotnych.

Drzewa spinające MST dla grafów ważonych Maksymalne drzewo spinające Drzewo Steinera. Wykład 6. Drzewa cz. II

Struktury danych i złożoność obliczeniowa Wykład 5. Prof. dr hab. inż. Jan Magott

Próbkowanie. Wykład 4 Próbkowanie i rozkłady próbkowe. Populacja a próba. Błędy w póbkowaniu, cd, Przykład 1 (Ochotnicy)

Sieci Mobilne i Bezprzewodowe laboratorium 2 Modelowanie zdarzeń dyskretnych

Systemy ekspertowe - wiedza niepewna

Matematyka dyskretna - wykład - część Podstawowe algorytmy kombinatoryczne

Grafem nazywamy strukturę G = (V, E): V zbiór węzłów lub wierzchołków, Grafy dzielimy na grafy skierowane i nieskierowane:

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.

Układy stochastyczne

Prawa wielkich liczb, centralne twierdzenia graniczne

Wykład 11: Martyngały: definicja, twierdzenia o zbieżności

Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX = 4 i EY = 6. Rozważamy zmienną losową Z =.

Sztuczna Inteligencja i Systemy Doradcze

Heurystyki. Strategie poszukiwań

Prawdopodobieństwo i statystyka

Zofia Kruczkiewicz, Algorytmu i struktury danych, Wykład 14, 1

Teoretyczne podstawy informatyki

Matematyka z el. statystyki, # 6 /Geodezja i kartografia II/

Programowanie dynamiczne cz. 2

Algorytmy z powrotami

Rachunek prawdopodobieństwa

Algorytmy równoległe. Rafał Walkowiak Politechnika Poznańska Studia inżynierskie Informatyka 2010

Wykład 9: Markov Chain Monte Carlo

Maksymalne powtórzenia w tekstach i zerowa intensywność entropii

Algorytmy Równoległe i Rozproszone Część V - Model PRAM II

Wykład 1 Próba i populacja. Estymacja parametrów z wykorzystaniem metody bootstrap

W2 Podstawy rachunku prawdopodobieństwa (przypomnienie)

Prawdopodobieństwo i statystyka

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie

Algorytmy i struktury danych. Drzewa: BST, kopce. Letnie Warsztaty Matematyczno-Informatyczne

Algorytmy grafowe. Wykład 2 Przeszukiwanie grafów. Tomasz Tyksiński CDV

Strategie ewolucyjne. Gnypowicz Damian Staniszczak Łukasz Woźniak Marek

Zastosowanie metody UCT i drzewa strategii behawioralnej do aproksymacji stanu równowagowego Stackelberga w grach wielokrokowych

Programowanie dynamiczne

Elementy inteligencji obliczeniowej

Optymalizacja ciągła

Statystyczna analiza danych

Na podstawie: AIMA, ch13. Wojciech Jaśkowski. 15 marca 2013

Procesy Markowa zawdzięczają swoją nazwę ich twórcy Andriejowi Markowowi, który po raz pierwszy opisał problem w 1906 roku.

STOCHASTYCZNY MODEL BEZPIECZEŃSTWA OBIEKTU W PROCESIE EKSPLOATACJI

Prawdopodobieństwo i statystyka

Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Elektroniki

Analiza Algorytmów 2018/2019 (zadania na laboratorium)

Analiza konstrukcji zawierających wskaźniki. Piotr Błaszyński

1 Gaussowskie zmienne losowe

Zadania z Rachunku Prawdopodobieństwa III - 1

Modele DSGE. Jerzy Mycielski. Maj Jerzy Mycielski () Modele DSGE Maj / 11

Wykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga

Testowanie hipotez dla frakcji. Wrocław, 29 marca 2017

Algorytmy równoległe: ocena efektywności prostych algorytmów dla systemów wielokomputerowych

Digraf. 13 maja 2017

Reprezentacje grafów nieskierowanych Reprezentacje grafów skierowanych. Wykład 2. Reprezentacja komputerowa grafów

Rozkłady statystyk z próby

Analiza algorytmów zadania podstawowe

Struktury danych i złozoność obliczeniowa. Prof. dr hab. inż. Jan Magott

Algorytm Metropolisa-Hastingsa

Programowanie strukturalne. Opis ogólny programu w Turbo Pascalu

Wnioskowanie bayesowskie

Algorytmy estymacji stanu (filtry)

Centralne twierdzenie graniczne

Wykład 6. Wyszukiwanie wzorca w tekście

Metody probabilistyczne

Schemat programowania dynamicznego (ang. dynamic programming)

Klasyfikacja metodą Bayesa

Równoległy algorytm wyznaczania bloków dla cyklicznego problemu przepływowego z przezbrojeniami

STATYSTYKA wykład 1. Wanda Olech. Katedra Genetyki i Ogólnej Hodowli Zwierząt

Przestrzeń probabilistyczna

Algorytmy stochastyczne Wykład 12, Uczenie parametryczne w sieciach bayesowskich

Prawdopodobieństwo i statystyka

Testowanie hipotez dla proporcji. Wrocław, 13 kwietnia 2015

Algorytmiczna teoria grafów

Uczenie ze wzmocnieniem

Zadanie 1 Przygotuj algorytm programu - sortowanie przez wstawianie.

Metody probabilistyczne

Algorytmy MCMC i ich zastosowania statystyczne

Transkrypt:

Sztuczna Inteligencja i Systemy Doradcze Sieci bayessowskie 2 Sieci bayessowskie 2 1

Rodzaje zadan dla sieci bayessowskiej Zapytania proste: oblicz brzegową wartość warunkową P(X i E =e) np. P(NoGas Gauge =empty, Lights = on,starts =false) Zapytania koniunkcyjne: P(X i, X j E =e) = P(X i E =e)p(x j X i,e=e) Decyzje optymalizacyjne: sieć zawiera informację o użyteczności; np. wnioskowanie probabilistyczne dla P(outcome action, evidence) Wartość informacji: która przesłankę sprawdzić jako następną? Analiza wrażliwości: które wartości prawdopodobieństwa są najbardziej krytyczne? Wyjaśnienie: Dlaczego potrzebuję nowego rozrusznika? Sieci bayessowskie 2 2

Wnioskowanie w sieci bayesowskiej Wnioskowanie dokładne Przez wyliczanie wartości Przez eliminację zmiennych Wnioskowanie aproksymacyjne Przez symulację stochastyczną metodą Monte arlo z łancucha Markowa Sieci bayessowskie 2 3

Wnioskowanie przez wyliczanie wartosci Sumowanie iloczynów z prawdopodobieństw brzegowych bez faktycznego konstruowania ich jawnej reprezentacji, przy użyciu prawdopodobieństw warunkowych z sieci bayessowskiej Proste zapytanie w sieci z alarmem domowym: P(B j, m) = P(B, j, m)/p(j, m) = αp(b, j, m) = ασ e Σ a P(B,e, a, j, m) B J A E M Przechodząc po zmiennych w kolejności zgodnej z siecią (np. B,E, A, J, M) wyciągamy sumowanie po kolejnych zmiennych na zewnąrz wyrażenia i używamy wartości prawdopodobieństw z tablic PW: P(B j, m) = ασ e Σ a P(B)P(e)P(a B,e)P(j a)p(m a) = αp(b)σ e P(e)Σ a P(a B,e)P(j a)p(m a) Sieci bayessowskie 2 4

Wyliczanie wartosci: algorytm function Enumeration-Ask(X,e,bn) returns a distribution over X inputs: X, the query variable e, observed values for variables E bn, a Bayesian network with variables {X} E Y Q(X ) a distribution over X, initially empty for each value x i of X do extend e with value x i for X Q(x i ) Enumerate-All(Vars[bn],e) return Normalize(Q(X)) function Enumerate-All(vars,e) returns a real number if Empty?(vars) then return 1.0 Y irst(vars) if Y has value y in e then return P(y P arent(y )) Enumerate-All(Rest(vars), e) else return Σ y P(y Parent(Y )) Enumerate-All(Rest(vars),e y ) where e y is e extended with Y = y Sieci bayessowskie 2 5

Wyliczanie wartosci: dzialanie P(b).001 P(e).002 P( e).998 P(a b,e) P( a b,e) P(a b, e) P( a b, e).95.05.94.06 P(j a) P(j a).05 P(j a) P(j a).05 P(m a) P(m a).70.01 P(m a) P(m a).70.01 Rekurencyjne wyliczanie zmiennych w głąb sieci: O(n) pamięci, O(d n ) czasu Sieci bayessowskie 2 6

Wyliczanie wartosci: dzialanie P(b).001 P(e).002 P( e).998 P(a b,e) P( a b,e) P(a b, e) P( a b, e).95.05.94.06 P(j a) P(j a).05 P(j a) P(j a).05 P(m a) P(m a).70.01 P(m a) P(m a).70.01 Wyliczanie jest nieefektywne: powtarza obliczenia np. liczy P(j a)p(m a) dla każdej wartości e Sieci bayessowskie 2 7

Wnioskowanie przez eliminacje zmiennych Eliminacja zmiennych: wykonuje sumowanie z prawej do lewej, pamięta wyniki pośrednie (czynniki) w celu uniknięcia powtórzeń P(B j, m) = αp(b) } {{ } B f M (A) = Σ e P(e) }{{} E Σ a P(a B,e) }{{} A P(j a) } {{ } J = αp(b)σ e P(e)Σ a P(a B, e)p(j a)f M (a) = αp(b)σ e P(e)Σ a P(a B, e)f JM (a) = αp(b)σ e P(e)f ĀJM (b, e) = αp(b)f ĒĀJM (b) = αf B (b) f ĒĀJM (b) P(m a) P(m a) P(m a) } {{ } M, f JM (A) = f J (A) f M (A) = f A (A, B,E) jest macierzą 2 2 2 dla wszystkich wartości A, B, E f ĀJM (B, E) = f A (a, B, E) f JM (a) + f A ( a, B, E) f JM ( a) f ĒĀJM (B, E) = f E (e) f ĀJM (B, e) + f E ( e) f ĀJM (B, e) P(j a)p(m a) P(j a)p(m a) Sieci bayessowskie 2 8

Eliminacja zmiennych: algorytm function Elimination-Ask(X,e,bn) returns a distribution over X inputs: X, the query variable e, evidence specified as an event bn, a belief network specifying joint distribution P(X 1,..., X n ) factors [ ]; vars Reverse(Vars[bn]) for each var in vars do factors [Make-actor(var, e) factors] if var is a hidden variable then factors Sum-Out(var, factors) return Normalize(Pointwise-Product(factors)) Sieci bayessowskie 2 9

Eliminacja zmiennych: zmienne nieistotne Rozważmy zapytanie P(Johnalls Burglary = true) P(J b) = αp(b)σ e P(e)Σ a P(a b,e)p(j a)σ m P(m a) Suma po m jest równa 1; M jest nieistotne dla zapytania Można pominąć sumowanie po zmiennych nieistotnych B J A E M w 1: Y jest nieistotne jeśli Y Ancestors({X} E) utaj X = Johnalls, E = {Burglary}, i Ancestors({X} E) = {Alarm, Earthquake} więc M jest nieistotne Sieci bayessowskie 2 10

Eliminacja zmiennych: zmienne nieistotne Def: moralny graf sieci bayessowskiej (nieskierowany): zawiera krawędzie z oryginalnej sieci bez kierunku oraz krawędzie pomiędzy każdą parą rodziców mającą wspólne dziecko Def: A jest m-odseparowane od B przez wtw gdy jest odseparowane przez w grafie moralnym w 2: Y jest nieistotne jeśli jest m-odseparowane od X przez E B E Dla P(Johnalls Alarm = true), obie Burglary i Earthquake są nieistotne J A M Sieci bayessowskie 2 11

L L L L Zlozonosc dokladnego wnioskowania Sieci pojedynczych połączeń (polidrzewa): każde dwa wierzchołki połączone są co najwyżej jedną ścieżką złożoność czasowa i pamięciowa algorytmu eliminacji zmiennych O(d k n) Sieci wielokrotnych połączeń: można zredukować 3SA do dokładnego wnioskowania NP-trudne równoważne zliczaniu modeli 3SA #P-zupełne 0.5 0.5 0.5 0.5 A B D 1. A v B v 2. v D v A 1 2 3 3. B v v D AND Sieci bayessowskie 2 12

Wnioskowanie przez symulacje stochastyczna Podstawowy pomysł: 1) Losuj N próbek z rozkładem próbkowym S 2) Oblicz aproksymacyjne prawdopodobieństwo wynikowe ˆP 3) Udowodnij zbieżność do prawdopodobieństwa faktycznego P Wnioskowanie stochastyczne bezwarunkowe (bez przesłanek): Próbkowanie bezpośrednie 0.5 oin Wnioskowanie stochastyczne warunkowe (z przesłankami): Próbkowanie z odrzucaniem: odrzuca próbki niezgodne z przesłankami Ważenie prawdopodobieństwa próbek: używa przesłanek do ważenia prawdopodobieństwa próbek Monte arlo z łancucha Markowa (MM): próbkuje z procesu stochastycznego, w którym proawdopodobieństo stacjonarne jest rzeczywistym prawdopodobieństwem warunkowym Sieci bayessowskie 2 13

Probkowanie bezposrednie function Direct-Sampling(X, bn, N) returns an estimate of P(X) local variables: N, a vector of counts over X, initially zero for j = 1 to N do x Prior-Sample(bn) N[x] N[x]+1 where x is the value of X in x return Normalize(N[X]) function Prior-Sample(bn) returns an event sampled from bn inputs: bn, a belief network specifying joint distribution P(X 1,..., X n ) x an event with n elements for i = 1 to n do x i a random sample from P(X i Parents(X i )) return x Sieci bayessowskie 2 14

Probkowanie bezposrednie: przyklad P() loudy P(S ).10 P(R ).80.20 S R P(W S,R).99.01 Sieci bayessowskie 2 15

Probkowanie bezposrednie: przyklad P() loudy P(S ).10 P(R ).80.20 S R P(W S,R).99.01 Sieci bayessowskie 2 16

Probkowanie bezposrednie: przyklad P() loudy P(S ).10 P(R ).80.20 S R P(W S,R).99.01 Sieci bayessowskie 2 17

Probkowanie bezposrednie: przyklad P() loudy P(S ).10 P(R ).80.20 S R P(W S,R).99.01 Sieci bayessowskie 2 18

Probkowanie bezposrednie: przyklad P() loudy P(S ).10 P(R ).80.20 S R P(W S,R).99.01 Sieci bayessowskie 2 19

Probkowanie bezposrednie: przyklad P() loudy P(S ).10 P(R ).80.20 S R P(W S,R).99.01 Sieci bayessowskie 2 20

Probkowanie bezposrednie: przyklad P() loudy P(S ).10 P(R ).80.20 S R P(W S,R).99.01 Sieci bayessowskie 2 21

Probkowanie bezposrednie: wlasnosci Prawdopodobieństwo, że PriorSample generuje dane zdarzenie S PS (x 1... x n ) = Π n i = 1P(x i Parents(X i )) = P(x 1... x n ) to odpowiada prawdopodobieństwu faktycznemu tego zdarzenia Np. S PS (t, f, t, t) = 0.5 0.9 0.8 0.9 = 0.324 = P(t, f, t, t) N PS (x 1... x n ) liczbą próbek wygenerowanych dla zdarzenia x 1,..., x n Wtedy lim N ˆP(x 1,..., x n ) = lim N N PS(x 1,..., x n )/N = S PS (x 1,..., x n ) = P(x 1... x n ) Powyższą własność algorytmu DirectSampling nazywamy spójnością Notacja: ˆP(x1,..., x n ) P(x 1... x n ) Sieci bayessowskie 2 22

Probkowanie z odrzucaniem ˆP(X e) szacowane z próbek zgodnych z przesłankami e function Rejection-Sampling(X, e, bn, N) returns an estimate of P(X e) local variables: N, a vector of counts over X, initially zero for j = 1 to N do x Prior-Sample(bn) if x is consistent with e then N[x] N[x]+1 where x is the value of X in x return Normalize(N[X]) Np. oszacowanie P( = true) przy użyciu 100 próbek 27 próbek ma = true Z tego, 8 ma =true i 19 ma =false. ˆP( = true) = Normalize( 8, 19 ) = 0.296, 0.704 Sieci bayessowskie 2 23

Probkowanie z odrzucaniem: wlasnosci ˆP(X e) = αn PS (X,e) (wynik algorytmu RejectionSampling) = N PS (X,e)/N PS (e) (normalizowane przez N PS (e)) P(X, e)/p(e) (własność PriorSample) = P(X e) (prawdopodobieństwo faktyczne) Zatem próbkowanie z odrzucaniem ma własność spójności tzn. oszacowanie zbiega do faktycznego prawdopodbieństwa warunkowego Problem: bardzo kosztowne jeśli P(e) jest małe P(e) rozpada się wykładniczo wraz z liczbą zmiennych! Sieci bayessowskie 2 24

Wazenie prawdopodobienstwa probek Pomysł: ustala zmienne z przesłanek, próbkuje tylko zmienna spoza przesłanek, i waży prawdopodobieństwo każdej próbki stosownie do przesłanek function Likelihood-Weighting(X, e, bn, N) returns an estimate of P(X e) local variables: W, a vector of weighted counts over X, initially zero for j = 1 to N do x, w Weighted-Sample(bn) W[x] W[x] + w where x is the value of X in x return Normalize(W[X ]) function Weighted-Sample(bn,e) returns an event and a weight x an event with n elements; w 1 for i = 1 to n do if X i has a value x i in e then w w P(X i = x i Parents(X i )) else x i a random sample from P(X i Parents(X i )) return x, w Sieci bayessowskie 2 25

Wazenie prawdopodobienstwa probek: przyklad P() loudy P(S ).10 P(R ).80.20 S R P(W S,R).99.01 w = 1.0 Sieci bayessowskie 2 26

Wazenie prawdopodobienstwa probek: przyklad P() loudy P(S ).10 P(R ).80.20 S R P(W S,R).99.01 w = 1.0 Sieci bayessowskie 2 27

Wazenie prawdopodobienstwa probek: przyklad P() loudy P(S ).10 P(R ).80.20 S R P(W S,R).99.01 w = 1.0 Sieci bayessowskie 2 28

Wazenie prawdopodobienstwa probek: przyklad P() loudy P(S ).10 P(R ).80.20 S R P(W S,R).99.01 w = 1.0 0.1 Sieci bayessowskie 2 29

Wazenie prawdopodobienstwa probek: przyklad P() loudy P(S ).10 P(R ).80.20 S R P(W S,R).99.01 w = 1.0 0.1 Sieci bayessowskie 2 30

Wazenie prawdopodobienstwa probek: przyklad P() loudy P(S ).10 P(R ).80.20 S R P(W S,R).99.01 w = 1.0 0.1 Sieci bayessowskie 2 31

Wazenie prawdopodobienstwa probek: przyklad P() loudy P(S ).10 P(R ).80.20 S R P(W S,R).99.01 w = 1.0 0.1 0.99 = 0.099 Sieci bayessowskie 2 32

Wazenie prawdopodobienstwa probek: wlasnosci Prawdopodobieństwo próbki ważonej WeightedSample wynosi S WS (z,e) = Π l i = 1P(z i Parents(Z i )) Uwaga: S WS uwzględnia tylko przesłanki z przodków z i daje prawdopodobieństwo pośrednie pomiędzy prawdopodobieństwem a priori i a posteriori loudy Waga dla danej próbki z,e wynosi w(z,e) = Π m i = 1P(e i Parents(E i )) Ważone prawdopodobieństwo próbkowe: S WS (z,e)w(z,e) = Π l i = 1P(z i Parents(Z i )) Π m i = 1P(e i Parents(E i )) = P(z,e) (ze standardowej, globalnej semantyki sieci) Stąd ważenie prawdopodobieństwa też ma własność spójności ale efektywność nadal maleje przy dużej liczbie przesłanek ponieważ bardzo mało próbek ma dużą wagę Sieci bayessowskie 2 33

Monte arlo dla lancucha Markowa Stan sieci: bieżące przypisanie wszystkich zmiennych Łańcuch Markowa: ciąg stanów sieci, następny stan jest generowany poprzez próbkowanie jednej zmiennej nie będącej przesłanką na podstawie jej koca Markowa function MM-Ask(X, e, bn, N) returns an estimate of P(X e) local variables: N[X ], a vector of counts over X, initially zero Z, the nonevidence variables in bn x, the current state of the network, initially copied from e initialize x with random values for the variables in Y for j = 1 to N do N[x] N[x] + 1 where x is the value of X in x for each Z i in Z do sample the value of Z i in x from P(Z i MB(Z i )) given the values of MB(Z i ) in x return Normalize(N[X ]) Sieci bayessowskie 2 34

Koc Markowa Każdy węzeł jest warunkowo niezależny od wszystkich pozostałych przy danym jego kocu Markowa: rodzice + dzieci + inni rodzice dzieci U 1... U m Z 1j X Z nj Y 1... Y n Sieci bayessowskie 2 35

Koc Markowa: przyklad Koc Markowa dla loudy: i Koc Markowa dla : loudy, i loudy Prawdopodobieństwo warunkowe przy danym kocu Markowa: P(x i MB(X i )) = P(x i Parents(X i ))Π Zj hildren(x i )P(z j Parents(Z j )) Sieci bayessowskie 2 36

Lancuch Markowa Przy przesłankach = true, W et = true łancuch Markowa zawiera 4 stany: loudy loudy loudy loudy Sieci bayessowskie 2 37

Monte arlo dla lancucha Markowa: przyklad Szacowanie P( = true, W et = true) Algorytm powtarza próbkowanie zmiennych loudy i na podstawie ich koca Markowa. Zlicza, ile razy było true i false w kolejnych stanach sieci. Np. odwiedza 100 stanów 31 ma = true, 69 ma =false ˆP( = true, W et = true) = Normalize( 31, 69 ) = 0.31, 0.69 Sieci bayessowskie 2 38

Monte arlo dla lancucha Markowa: wlasnosci wierdzenie: łańcuch zbiega do rozkładu stacjonarnego ( spójność): proporcja czasu spędzonego w danym stanie w czasie długiego działania sieci jest dokładnie propocjonalna do faktycznego prawdopodobieństwa warunkowego Zalety Metoda nie jest wrażliwa na topologię sieci Można stosować do zmiennych dyskretnych i ciągłych Wady Zbieżność może być wolna rudno określić moment, w którym algorytm daje już bliskie rozwiązanie Może być czasowo rozrzutny, jeśli występują duże koce Markowa: P(X i MB(X i )) nie zmienia się dużo (Prawo Wielkich Liczb) a jest liczone za każdym razem Sieci bayessowskie 2 39