P(F=1) F P(C1 = 1 F = 1) P(C1 = 1 F = 0) P(C2 = 1 F = 1) P(C2 = 1 F = 0) P(R = 1 C2 = 1) P(R = 1 C2 = 0)
|
|
- Paweł Krupa
- 5 lat temu
- Przeglądów:
Transkrypt
1 Sieci bayesowskie P(F=) F P(C = F = ) P(C = F = 0) C C P(C = F = ) P(C = F = 0) M P(M = C =, C = ) P(M = C =, C = 0) P(M = C = 0, C = ) P(M = C = 0, C = 0) R P(R = C = ) P(R = C = 0) F pali papierosy C chory na chorobę C chory na chorobę M łatwo się męczy R wynik RTG płuc Sieci bayesowskie
2 Sieci bayesowskie F C C Prawdopodobieństwo łączne: M R P(C, C, M, R, F) = P(F) * P(C F) * P (C F) * P(M C, C) * P(R C) P(C = R =,F = 0) P(C =,R =,F = 0) = P(R =,F = 0) i= 0 j= 0 = i= 0 j= 0 k= 0 P(C= i,c =,M = j,r =,F = 0) P(C= i,c = j,m = k,r =,F = 0) Sieci bayesowskie
3 Sieci bayesowskie - zalety Czytelna reprezentacja wiedzy o zależnościach przyczynowych Oszczędna reprezentacja łącznego rozkładu prawdopodobieństwa Efektywne algorytmy wnioskowania Sieci bayesowskie 3
4 Sieci bayesowskie. Uczenie sieci uczenie struktury sieci szacowanie parametrów. Wnioskowanie na podstawie sieci Sieci bayesowskie 4
5 Uczenie parametrów Założenie: Znana jest struktura sieci bayesowskiej Zadanie: Wyznaczenie prawdopodobieństw warunkowych Sieci bayesowskie 5
6 Uczenie parametrów. Ocena częstości na podstawie pierwotnej wiedzy (opartej na naszych subiektywnych oszacowaniach lub pochodzącej z innych źródeł).. Uaktualnienie prawdopodobieństw na podstawie danych. Sieci bayesowskie 6
7 Uczenie parametrów, zmienna binarna rozkład beta Do przedstawienia naszej pierwotnej wiedzy o względnej częstości nadaje się funkcja gęstości beta: ρ( f ) = Γ( N) Γ( a) Γ( b) f a ( f ) b, N = a + b f względna częstość a, b, N parametry rozkładu Γ x t ( x) = t e dt 0 x i x C Γ(x) = (x - )! Sieci bayesowskie 7
8 Uczenie parametrów, zmienna binarna - rozkład beta a=50 b=50 a=8 b= a= b= a=3 b=3 a=0. b= , 0, 0,3 0,4 0,5 0,6 0,7 0,8 0,9 f 0 0,0 0,04 0, 0, 0,4 0,6 0,8 0,88 0,96 0,99 f Sieci bayesowskie 8
9 Uczenie parametrów, zmienna binarna Oznaczenia: X - zmienna losowa binarna przyjmująca wartości i F - zmienna losowa reprezentująca naszą wiedzę dotyczącą względnej częstości z jaką zmienna X przyjmuje wartość f konkretna wartość F Sieci bayesowskie 9
10 Uczenie parametrów, zmienna binarna Jeżeli F ma rozkład beta z parametrami a, b, N = a + b, to wartość oczekiwana E(F) = a / N; Jeżeli zmienna X przyjmuje wartości lub i P(X = f) = f, to P(X = ) = E(F); Jeśli F ma rozkład beta, to P(X = ) = a / N; Przykład: rzut monetą przypuszczamy, że na 00 rzutów monetą ok. 50 razy wypadnie orzeł, zatem zakładamy rozkład beta(f; 50,50), stąd P(X = orzeł) = 50 / ( ) = 0.5 Sieci bayesowskie 0
11 Uczenie parametrów, zmienna binarna uaktualniania na podstawie danych Dane: ρ(f) rozkład gęstości zmiennej losowej F reprezentującej względną częstość d - zbiór danych zawierający M przykładów s liczba wystąpień pierwszej wartości w zbiorze d t - liczba wystąpień drugiej wartości w zbiorze d (M = s + t) Problem: Jak uaktualnić na podstawie danych d naszą pierwotną wiedzę reprezentowaną przez ρ(f)? Rozwiązanie: Jeżeli ρ(f) = beta(f; a, b), to ρ(f d) = beta(f; a + s, b + t). Sieci bayesowskie
12 Uczenie parametrów, zmienna binarna uaktualniania na podstawie danych Przykład: Rzut oszczepem wykonany 0 razy (może wbić się w ziemię lub wylądować płasko). Pierwotna wiedza: beta(f; 3, 3). Wyniki rzutów (-wbity): d={,,,,,,,,,} a = b = 3, s = 8, t = ρ(f d) = beta(f; 3 + 8, 3 + ) = beta(f;, 5) P(X = d) = E(F d) = (a + s) / (N + M) = (3 + 8) / (6 + 0) = 0.69 Sieci bayesowskie
13 Wybór r wartości a oraz b a = b = brak jakiejkolwiek wiedzy na temat względnej częstości lub dla zachowania obiektywizmu; zakładamy, że wszystkie wartości z przedziału [0, ] są jednakowo prawdopodobne; a, b > prawdopodobnie względna częstość wystąpienia pierwszej z dopuszczalnych wartości zmiennej wynosi ok. a/(a+b); im większe przekonanie, tym większe wartości a, b; a, b < prawdopodobnie względna częstość wystąpienia jednej z wartości zmiennej jest bardzo mała; Sieci bayesowskie 3
14 Uczenie parametrów - przykład trzy urny zawierające kule z numerami i ; losujemy kulę z pierwszej urny. Jeśli wylosowawo, to losujemy z urny drugiej, w przeciwnym razie z trzeciej; X, X zmienne reprezentujące wyniki dwóch losowań; beta(f ;, ) reprezentuje pierwotną wiedzę na temat częstości wylosowania kuli przy pierwszym losowaniu; beta(f ;, ) reprezentuje pierwotną wiedzę na temat częstości wylosowania kuli przy drugim losowaniu, jeżeli przy pierwszym wylosowano ; beta(f ;, ) reprezentuje pierwotną wiedzę na temat częstości wylosowania kuli przy drugim losowaniu, jeżeli przy pierwszym wylosowano ; X X P(X = ) = ½ P(X = X = ) = ½ P(X = X = ) = ½ np.: P(X =, X = ) = P(X = X = ) P(X = ) = ½ * ½ = /4 Sieci bayesowskie 4
15 Uczenie parametrów - przykład Dane d: X X ρ(f d) = beta(f ; + 4, + 3) ρ(f d) = beta(f ; + 3, + ) ρ(f d) = beta(f ; +, + ) X X P(X = ) = 5/9 P(X = X = ) = /3 P(X = X = ) = 3/5 np.: P(X =, X = ) = P(X = X = ) P(X = ) = 3/5 * 4/9 = 4/5 Sieci bayesowskie 5
16 Uczenie parametrów - przykład X zmienna mówiąca czy pacjent pali papierosy (-tak, -nie) X zmienna mówiąca czy pacjent ma chore płuca (-tak, -nie) ρ(f ) = beta(f ;, ) ρ(f ) = beta(f ;, ) ρ(f ) = beta(f ;, ) X X P(X = ) = ½ P(X = X = ) = ½ P(X = X = ) = ½ np.: P(X = ) = P(X =, X = ) + P(X =, X = ) = = P(X = X = ) P(X = ) + P(X = X = ) P(X = ) = = ½ * ½ + ½ * ½ = ½ Sieci bayesowskie 6
17 Uczenie parametrów - przykład Dane d: X X ρ(f d) = beta(f ; + 3, + 5) ρ(f d) = beta(f ; +, + ) ρ(f d) = beta(f ; + 3, + ) X X P(X = ) = /5 P(X = X = ) = /5 P(X = X = ) = 4/7 np.: P(X = ) = P(X =, X = ) + P(X =, X = ) = = P(X = X = ) P(X = ) + P(X = X = ) P(X = ) = = /5 * /5 + 4/7 * 3/5 = Sieci bayesowskie 7
18 Uczenie parametrów - przykład Początkowo P(X = ) = 0.5 Wśród danych uczących były 4 przykłady, dla których X = oraz 4 przykłady, dla których X = Po uaktualnieniu parametrów P(X = ) = ? Sieci bayesowskie 8
19 Uczenie parametrów, odpowiedni rozmiar danych - przykład Początkowa wiedza: ρ(f ) = beta(f ;, ) ρ(f ) = beta(f ;, ) ρ(f ) = beta(f ;, ) Po uaktualnieniu parametrów: ρ(f d) = beta(f ; + 3, + 5) ρ(f d) = beta(f ; +, + ) ρ(f d) = beta(f ; + 3, + ) X X P(X = ) = ½ P(X = X = ) = ½ P(X = X = ) = ½ X X P(X = ) = 5/ P(X = X = ) = /5 P(X = X = ) = 4/7 np.: P(X = ) = P(X =, X = ) + P(X =, X = ) = = P(X = X = ) P(X = ) + P(X = X = ) P(X = ) = = /5 * 5/ + 4/7 * 7/ = 0.5 Sieci bayesowskie 9
20 Uczenie parametrów, odpowiedni rozmiar danych Definicja: Dla każdego i oraz j funkcje gęstości są postaci beta(f ij ; a ij, b ij ). Jeżeli istnieje liczba N taka, że N ij = a ij + b ij = P(pa ij ) * N to mówimy, że sieć ma odpowiedni rozmiar danych N. P(pa ij ) prawd. tego, że węzły rodzice danego węzła były w stanie ij Dla danych z przykładu : N = + 3 = 5/ * N = = 7/ * N = Sieci bayesowskie 0
21 Uczenie parametrów, odpowiedni rozmiar danych beta(f ; 0, 5) f = P(X = f ) beta(f ; 9, 6) f = P(X = f ) beta(f 3 ;, 4) f 3 = P(X 3 = X =,X =,f 3 ) beta(f 3 ; 3, ) f 3 = P(X 3 = X =,X =,f 3 ) beta(f 33 ;, ) f 33 = P(X 3 = X =,X =,f 33 ) beta(f 34 ;, ) f 34 = P(X 3 = X =,X =,f 34 ) P(X = ) = /3 P(X X X = ) = 3/5 P(X 3 = X =,X =) = /3 P(X 3 = X =,X =) = 3/4 P(X X 3 = X =,X =) = /3 a + b = = 5 3 P(X 3 = X =,X =) = / a 3 + b 3 = + 4 = 6 P(pa 3 ) * N = P(X =, X = ) * N = /3 * 3/5 * 5 = 6 Sieci bayesowskie
22 Uczenie parametrów, odpowiedni rozmiar danych W jaki sposób wyrazić brak początkowej wiedzy (a=b=) zachowując odpowiedni rozmiar danych? beta(f ;, ) f = P(X = f ) beta(f ;, ) f = P(X = f ) beta(f 3 ; ¼, ¼) f 3 = P(X 3 = X =,X =,f 3 ) beta(f 3 ; ¼, ¼) f 3 = P(X 3 = X =,X =,f 3 ) beta(f 33 ; ¼, ¼) f 33 = P(X 3 = X =,X =,f 33 ) beta(f 34 ; ¼, ¼) f 34 = P(X 3 = X =,X =,f 34 ) P(X = ) = / X X P(X = ) = / X 3 P(X 3 = X =,X =) = / P(X 3 = X =,X =) = / P(X 3 = X =,X =) = / P(X 3 = X =,X =) = / Sieci bayesowskie
23 Uczenie parametrów, brakujące wartości Początkowa wiedza: ρ(f ) = beta(f ;, ) ρ(f ) = beta(f ;, ) ρ(f ) = beta(f ;, ) X X P(X = ) = / P(X = X = ) = / P(X = X = ) = / Dane d: X X?? P(X = X = ) = ½ P(X = X = ) = ½ Dane d : X X Sieci bayesowskie 3 Liczba wystąpień ½ ½ ½ ½
24 Uczenie parametrów, brakujące wartości Początkowa wiedza: ρ(f ) = beta(f ;, ) ρ(f ) = beta(f ;, ) ρ(f ) = beta(f ;, ) Po uaktualnienie parametrów ρ(f d ) = beta(f ; + 4, + ) ρ(f d ) = beta(f ; + 5/, + 3/) Dane d : X X ρ(f d ) = beta(f ; + /, + /) Liczba wystąpień ½ ½ ½ ½ X X P(X = ) = 6 / (6 + 3) = /3 P(X = X = ) = 7/ / (7/ + 5/) = 7/ P(X = X = ) = / Sieci bayesowskie 4
25 Uczenie parametrów, brakujące wartości Wyznaczenie najbardziej prawdopodobnego rozkładu (algorytm EM) Powtarzaj na przemian k razy:. oblicz oczekiwane wartości s ij oraz t ij na podstawie rozkładu prawdopodobieństw i danych d (expectation). oblicz wartości f ij na podstawie s ij oraz t ij (maximization) Można w ten sposób wyznaczyć f maksymalizujące ρ(f d). Problem: ryzyko znalezienia maksimum lokalnego. Sieci bayesowskie 5
26 Uczenie parametrów, zmienne dyskretne o dowolnej liczbie wartości rozkład Dirichleta Γ( N ) a a ρ( f, f,..., fr ) = f f r Γ( a ) 0 f k, r k= k= f k k =, r k = a k... = N f ar r r liczba różnych wartości (dla zmiennej binarnej r = i mamy rozkład beta) a i liczba wystąpień i-tej wartości Sieci bayesowskie 6
27 Uczenie parametrów, zmienne dyskretne rozkład Dirichleta Jeżeli zmienne F, F,...,F r mają rozkład Dirichleta z parametrami a, a...,a r, a + a a r = N, to dla k r E( F k P( X ) Jeżeli zmienna losowa X przyjmuje wartości,,...,r; i dla zmiennych losowych F, F,..., F r, P(X = k f k ) = f k, to = = k) ak N = ak N Sieci bayesowskie 7
28 Uczenie parametrów, zmienne dyskretne rozkład Dirichleta Przykład Rzut kostką Dir(f, f, f 3, f 4, f 5 ; 50, 50, 50, 50, 50, 50) P(X = 4) = 50 / 300 = / 6 Przykład Kolor skarpetek (białe, czarne, kolorowe) Dir(f, f ;,, 4) P(X = białe) = / ( + + 4) = / 4 P(X = kolorowe) = 4 / ( + + 4) = / Sieci bayesowskie 8
29 Uczenie parametrów Zmienna X przyjmuje 3 wartości, zmienna X przyjmuje 4 wartości ρ(f, f ) = Dir(f, f ; 4, 8, 0) ρ(f, f, f 3 ) = Dir(f, f, f 3 ;,,, ) ρ(f, f, f 3 ) = Dir(f, f, f 3 ;, 4,, ) ρ(f 3, f 3, f 33 ) = Dir(f 3, f 3, f 33 ;, 3, 4, ) X X P(X = ) = / P(X = X = ) = ¼ P(X = X = ) = ¼ P(X = ) = 4/ P(X = X = ) = ¼ P(X = X = ) = ½ P(X = 3) = 5/ P(X = 3 X = ) = ¼ P(X = 3 X = ) = /8 P(X = 4 X = ) = ¼ P(X = 4 X = ) = /8 P(X = X = 3) = /0 P(X = X = 3) = 3/0 P(X = 3 X = 3) = /5 P(X = 4 X = 3) = /5 Sieci bayesowskie 9
30 Uczenie parametrów, zmienne dyskretne uaktualnianie na podstawie danych Dane: ρ(f,f,...,f r- ) rozkład gęstości zmiennych reprezentujących względną częstość d - zbiór danych zawierający M przykładów s i liczba wystąpień i-tej wartości w zbiorze d Problem: Jak uaktualnić na podstawie danych d naszą pierwotną wiedzę reprezentowaną przez ρ(f,f,...,f r- )? Rozwiązanie: Jeżeli ρ(f, f,..., f r- ) = Dir(f, f,..., f r- ; a, a,..., a r ), to ρ(f, f,..., f r- d) = Dir(f, f,..., f r- ; a + s, a + s,..., a r + s r ). Sieci bayesowskie 30
31 Metody uczenia struktury sieci - podział Ze względu na sposób optymalizacji: Dokładne (przeglądanie wszystkich możliwych sieci w celu wybrania optymalnej, wykonalne jedynie w przypadku małej liczby zmiennych). Przybliżone (nie gwarantują optymalnego rozwiązania, ale przeważnie prowadzą do rozwiązań bliskich optymalnemu). Ze względu na wynik końcowy: Wybór modelu (wyznaczenie jednej sieci). Uśrednianie modelu (wyznaczenie wielu sieci a następnie uśrednianie prawdopodobieństw podczas wnioskowania). Sieci bayesowskie 3
32 Uczenie struktury sieci bayesowskiej miara jakości Im większe prawdopodobieństwo P(G d), tym lepsza sieć G (d dane uczące). P ( G d) = P( d G) P( G) P( d) Miara jakości sieci G zbudowanej na podstawie danych d: score B ( d, G) = P( d G) = ( G ) n q ( G) r ( G) i ij ijk ( G) ( G) i= j= Γ( Nij + M ij ) k= Γ( i Γ( N ) Γ( a a + s ( G) ijk ( G) ijk ) ) n - liczba węzłów (zmiennych) q i liczba kombinacji wartości przyjmowanych przez rodziców węzła i-tego r i liczba wartości przyjmowanych przez zmieną (węzeł) i-tą M ij liczba przykładów uczących, dla których rodzice węzła i-tego przyjmują j-tą kombinację wartości s ijk liczba przykładów uczących, dla których zmienna i-ta przyjmuje wartość k-tą a jej rodzice j-tą Chcemy znaleźć sieć G maksymalizującą powyższą miarę. Sieci bayesowskie 3
33 Uczenie struktury sieci bayesowskiej miara jakości Dane d: X X G X X P(X = ) = 7/ P(X = X = ) = 5/7 P(X = X = ) = /5 Γ(4) Γ( + 5) Γ( + 3) Γ() Γ( + 4) Γ( + ) Γ() Γ( + ) Γ( + ) P( d G) = ( )( )( ) = Γ(4 + 8) Γ() Γ() Γ( + 5) Γ() Γ() Γ( + 3) Γ() Γ() G P ( G d) = P( d G) P( G) P( d) X X 6 P( d G) = P( d G) P( G) P ( G d) = P( d) Sieci bayesowskie 33
34 Uczenie struktury sieci, metody przybliżone Przeszukiwana jest przestrzeń zawierająca wszystkie kandydujące rozwiązania. Definiuje się zbiór operacji przekształcających jedno rozwiązanie w drugie. Sieci bayesowskie 34
35 Uczenie struktury sieci, metody przybliżone Lokalna ocena sieci w węźle X i : score B ( d, X i, PA ) = i ( PA) ( PA) ( ) ( ) Γ( ) r PA PA Nij Γ( aijk + sijk ( PA) ( PA) ( PA) j= Γ( Nij + M ij ) k = Γ( aijk ) q i i ) score B ( d, G) = n i= score B ( d, X i, PA ) i Sieci bayesowskie 35
36 Uczenie sieci, metody przybliżone - algorytm K Założenie: dany jest porządek węzłów (jeśli X i jest przed X j to nie jest dozwolona krawędź X j X i ). for i = to n {dla każdego węzła} PA i = {PA i rodzice węzła i-tego} P = score B (d,x i,pa i ) repeat znajdź Y maksymalizujący score B (d,x i,pa i {Y}) P = score B (d,x i,pa i {Y}) if P > P then P = P PA i = PA i {Y} {dodanie nowego rodzica} end until nie znaleziono węzła Y, dla którego P > P end Sieci bayesowskie 36
37 Uczenie sieci, metody przybliżone - algorytm nie wymagający uporządkowania węzłóww Założenie: dozwolone są następujące operacje: dodanie krawędzi między dwoma węzłami, usunięcie krawędzi, zmiana kierunku krawędzi (pod warunkiem, że nie powstaje cykl) repeat if w sąsiedztwie sieci G istnieje sieć o większym score B (d,g) then zastąp G siecią o największej wartości score B (d,g) end until żadna z operacji nie zwiększa wartości score B (d,g) Sąsiedztwo sieci G wszystkie sieci, które można otrzymać z sieci G wykonując jedną z dozwolonych operacji. Problem: możliwość znalezienia lokalnego maksimum Sieci bayesowskie 37
38 Równoważność sieci ρ(f d) = beta(f ; + 4, + 3) ρ(f d) = beta(f ; + 3, + ) ρ(f d) = beta(f ; +, + ) X X P(X =)=6/ P(X = X =)=/3 P(X = X =)=3/5 P(X =,X =) = P(X = X =) P(X =) = = /3 * 6/ = 4/ P(X =,X =) = P(X = X =) P(X =) = = /3 * 6/ = / P(X =,X =) = P(X = X =) P(X =) = = 3/5 * 5/ = 3/ P(X =,X =) = / Dane d: X X ρ(f d) = beta(f ; + 5, + ) ρ(f d) = beta(f ; + 3, + ) ρ(f d) = beta(f ; +, + ) X X P(X = X =)=4/7 P(X =)=7/ P(X = X =)=/ P(X =,X =) = P(X = X =) P(X =) = = 4/7 * 7/ = 4/ P(X =,X =) = P(X = X =) P(X =) = = / * 4/ = / P(X =,X =) = P(X = X =) P(X =) = = 3/7 * 7/ = 3/ P(X =,X =) = / jeden rozkład prawdopodobieństwa różne sieci Sieci bayesowskie 38
39 X P(X =)=4/7 X P(X = X =)=3/4 P(X 3 = X =)=/ P(X = X =)=/3 P(X 3 = X =)=/3 Równoważność sieci Zbiór uczący: X X X 3 X 3 X X X 3 P(X =,X =,X 3 =) =? P(X = X =)=3/5 P(X = X =)=/ P(X =)=5/7 P(X 3 = X =)=/ P(X 3 = X =)=/3 P(X =) * P(X = X =) * P(X 3 = X =) = = 4/7 * 3/4 * /= 3/4 P(X =) * P(X = X =) * P(X 3 = X =) = = 5/7 * 3/5 * / = 3/4 P(X =,X =,X 3 =) =? P(X =) * P(X = X =) * P(X 3 = X =) = = 3/7 * /3 * /3= /... P(X =) * P(X = X =) * P(X 3 = X =) = = /7 * / * /3 = / jeden rozkład prawdopodobieństwa różne sieci Sieci bayesowskie 39
40 Równoważność sieci Twierdzenie: dwie sieci zawierające ten sam zbiór zmiennych są równoważne, gdy mają te same krawędzie (niezależnie od ich kierunku) oraz takie same połączenia typu X Y Z w przypadku, gdy nie ma krawędzi między X i Z [Pearl 989]. () () (3) A A A B C B C B C D D D E F E F E F () i () są równoważne () i (3) nie są równoważne () i (3) nie są równoważne Sieci bayesowskie 40
41 Równoważność sieci - wzorzec Wzorzec klasy sieci równoważnych sieć, która ma takie same połączenia jak sieci w tej klasie i tylko połączenia wspólne dla wszystkich sieci tej klasy są skierowane. A A A B C B C B C D D D A E E E B C klasa sieci równoważnych wzorzec D E Sieci bayesowskie 4
42 Poszukiwanie sieci czy wzorca? Jeśli w klasach sieci równoważnych jest dużo sieci, to znacznie dłuższy czas poszukiwania (strata czasu, ponieważ wszystko jedno którą sieć z klasy sieci równoważnych wybierzemy). Traktowanie wszystkich sieci jak jednakowo prawdopodobnych (jeśli w klasie jest dużo sieci, to duże szanse na wybór jednej z nich różne rozkłady łączne nie są traktowane jednakowo). Algorytmy znajdujące najlepsze wzorce Sieci bayesowskie 4
43 Uczenie struktury sieci, metody przybliżone algorytm znajdujący najlepszy wzorzec graf częściowo skierowany zawiera krawędzie skierowane i nieskierowane; A A A B C B C B C D D D sieć G odpowiadająca grafowi częściowo skierowanemu g wszystkie krawędzie skierowane w g są skierowane w G, G nie zawiera połączeń typu X Y Z (bez krawędzi między X a Z) innych niż w g; B A C B A C D D każdy wzorzec sieci jest grafem częściowo skierowanym, ale nie każdy graf częściowo skierowany jest wzorcem; Sieci bayesowskie 43
44 Uczenie struktury sieci, metody przybliżone algorytm znajdujący najlepszy wzorzec Zestaw operacji przekształcających graf częściowo skierowany g w g: dodanie krawędzi (dowolnie skierowanej lub nieskierowanej) między dwoma węzłami usunięcie krawędzi nieskierowanej usunięcie lub zmiana kierunku krawędzi skierowanej zamiana połączenia typu X-Y-Z (nie ma krawędzi między X a Z) na X Y Z Przekształcanie jednego wzorca w drugi: wykonaj jedną z operacji zmieniając wzorzec g na g {g może nie być wzorcem} znajdź sieć G odpowiadającą grafowi g if znaleziono sieć G then znajdź wzorzec g odpowiadający sieci G end if Sieci bayesowskie 44
45 Uczenie struktury sieci, metody przybliżone algorytm znajdujący najlepszy wzorzec B C D A E ) usunięcie krawędzi ) znalezienie sieci 3) znalezienie wzorca B C B C B C D A D A D A E E E Sieci bayesowskie 45
46 Uczenie struktury sieci, metody przybliżone algorytm znajdujący najlepszy wzorzec repeat if w sąsiedztwie wzorca gp istnieje wzorzec o większym score B (d,gp) then zastąp dany wzorzec wzorcem poprawiającym score B (d,gp) najbardziej end until żadna z operacji nie zwiększa wartości score B (d,g) W przeciwieństwie do dwóch poprzednich algorytmów, tym razem nie można uaktualniać miary score B lokalnie. Sieci bayesowskie 46
47 Uczenie struktury sieci, metody przybliżone - porównanie Metody poszukujące wzorca przeważnie prowadzą do lepszych sieci niż metody znajdujące sieć. Metody poszukujące wzorca są wolniejsze. Jeżeli znane jest uporządkowanie zmiennych wymagane przez algorytm K, to algorytm ten znajduje sieci często lepsze niż inne metody. Sieci bayesowskie 47
48 Wnioskowanie X P(x) Y P(y x) P(y x) P(y) = P(y x) P(x) + P(y x) P(x) Z P(z y) P(z y) P(z) = P(z y) P(y) + P(z y) P(y) W P(w z) P(w z) P(w) = P(w z) P(z) + P(w z) P(z) Sieci bayesowskie 48
49 Wnioskowanie =x P(y x) =? P(z x) =? P(w x) =? X P(x) Y P(y x) P(y x) Z P(z y) P(z y) P(z x) = P(z y,x) P(y x) + P(z y,x) P(y x) = = P(z y) P(y x) + P(z y) P(y x) W P(w z) P(w z) P(w x) = P(w z,x) P(z x) + P(w z,x) P(z x) = = P(w z) P(z x) + P(w z) P(z x) Sieci bayesowskie 49
50 Wnioskowanie X P(x) P(x w) = P(w x) P(x) / P(w) P(w x) = P(w y) P(y x) + P(w y) P(y x) Y P(y x) P(y x) P(y w) = P(w y) P(y) / P(w) P(w y) = P(w z) P(z y) + P(w z) P(z y) Z P(z y) P(z y) P(z w) = P(w z) P(z) / P(w) W P(w z) P(w z) =w P(z w) =? P(y w) =? P(x w) =? Sieci bayesowskie 50
51 Wnioskowanie P(x w) X P(y w) P(x) P(z w) Y P(y x) P(y x) Z P(z x) P(z x) P(t w) W P(w y) P(w y) P(t z) P(t z) T =w Sieci bayesowskie 5
Algorytmy stochastyczne, wykład 08 Sieci bayesowskie
Algorytmy stochastyczne, wykład 08 Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2014-04-10 Prawdopodobieństwo Prawdopodobieństwo Prawdopodobieństwo warunkowe Zmienne
Bardziej szczegółowoSystemy ekspertowe - wiedza niepewna
Instytut Informatyki Uniwersytetu Śląskiego lab 8 Rozpatrzmy następujący przykład: Miażdżyca powoduje często zwężenie tętnic wieńcowych. Prowadzi to zazwyczaj do zmniejszenia przepływu krwi w tych naczyniach,
Bardziej szczegółowoAlgorytmy stochastyczne Wykład 12, Uczenie parametryczne w sieciach bayesowskich
Algorytmy stochastyczne Wykład 2, Uczenie parametryczne w sieciach bayesowskich Jarosław Piersa 204-05-22 Zagadnienie uczenia sieci bayesowskich Problem mamy strukturę sieci bayesowskiej węzły, stany i
Bardziej szczegółowoModelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski
Modelowanie zależności pomiędzy zmiennymi losowymi Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski P Zmienne losowe niezależne - przypomnienie Dwie rzeczywiste zmienne losowe X i Y
Bardziej szczegółowoMetody probabilistyczne
Metody probabilistyczne. Twierdzenia graniczne Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 20.2.208 / 26 Motywacja Rzucamy wielokrotnie uczciwą monetą i zliczamy
Bardziej szczegółowoPodstawy nauk przyrodniczych Matematyka
Podstawy nauk przyrodniczych Matematyka Elementy rachunku prawdopodobieństwa dr inż. Małgorzata Szeląg Zakład Genetyki Molekularnej Człowieka tel. 61 829 59 04 malgorzata.szelag@amu.edu.pl Pokój 1.118
Bardziej szczegółowoEksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18
Eksploracja Danych wykład 4 Sebastian Zając WMP.SNŚ UKSW 10 maja 2017 Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja 2017 1 / 18 Klasyfikacja danych Klasyfikacja Najczęściej stosowana (najstarsza)
Bardziej szczegółowoStatystyka podstawowe wzory i definicje
1 Statystyka podstawowe wzory i definicje Średnia arytmetyczna to suma wszystkich liczb (a 1, a 2,, a n) podzielona przez ich ilość (n) Przykład 1 Dany jest zbiór liczb {6, 8, 11, 2, 5, 3}. Oblicz średnią
Bardziej szczegółowoRachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne
Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne 5.3 Rozkłady warunkowe i warunkowa wartość oczekiwana Katarzyna Rybarczyk-Krzywdzińska semestr zimowy 2015/2016 Prawdopodobieństwo wyraża postawę
Bardziej szczegółowoRozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład
Rozdział 1 Wektory losowe 1.1 Wektor losowy i jego rozkład Definicja 1 Wektor X = (X 1,..., X n ), którego każda współrzędna jest zmienną losową, nazywamy n-wymiarowym wektorem losowym (krótko wektorem
Bardziej szczegółowoWYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I (SGH)
WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I (SGH) Agata Boratyńska Agata Boratyńska Rachunek prawdopodobieństwa, wykład 1 1 / 24 Warunki zaliczenia 1 Do egzaminu dopuszczeni wszyscy, którzy uczęszczali na
Bardziej szczegółowoP (A B) = P (A), P (B) = P (A), skąd P (A B) = P (A) P (B). P (A)
Wykład 3 Niezależność zdarzeń, schemat Bernoulliego Kiedy dwa zdarzenia są niezależne? Gdy wiedza o tym, czy B zaszło, czy nie, NIE MA WPŁYWU na oszacowanie prawdopodobieństwa zdarzenia A: P (A B) = P
Bardziej szczegółowoWstęp do Rachunku Prawdopodobieństwa, IIr. WMS
Wstęp do Rachunku Prawdopodobieństwa, IIr. WMS przykładowe zadania na. kolokwium czerwca 6r. Poniżej podany jest przykładowy zestaw zadań. Podczas kolokwium na ich rozwiązanie przeznaczone będzie ok. 85
Bardziej szczegółowoZestaw 2: Zmienne losowe. 0, x < 1, 2, 2 x, 1 1 x, 1 x, F 9 (x) =
Zestaw : Zmienne losowe. Które z poniższych funkcji są dystrybuantami? Odpowiedź uzasadnij. Wskazówka: naszkicuj wykres. 0, x 0,, x 0, F (x) = x, F (x) = x, 0 x
Bardziej szczegółowoWYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty
WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty Agata Boratyńska Agata Boratyńska Rachunek prawdopodobieństwa, wykład 4 / 9 Przekształcenia zmiennej losowej X
Bardziej szczegółowoW2 Podstawy rachunku prawdopodobieństwa (przypomnienie)
W2 Podstawy rachunku prawdopodobieństwa (przypomnienie) Henryk Maciejewski Jacek Jarnicki Marek Woda www.zsk.iiar.pwr.edu.pl Rachunek prawdopodobieństwa - przypomnienie 1. Zdarzenia 2. Prawdopodobieństwo
Bardziej szczegółowoWYKŁAD 3. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki
WYKŁAD 3 Witold Bednorz, Paweł Wolff 1 Instytut Matematyki Uniwersytet Warszawski Rachunek Prawdopodobieństwa, WNE, 2010-2011 Schemmat Bernouliego Rzucamy 10 razy moneta, próba Bernouliego jest pojedynczy
Bardziej szczegółowoRACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3.
RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3. ZMIENNA LOSOWA JEDNOWYMIAROWA. Zmienną losową X nazywamy funkcję (praktycznie każdą) przyporządkowującą zdarzeniom elementarnym liczby rzeczywiste. X : Ω R (dokładniej:
Bardziej szczegółowoP (A B) P (B) = 1/4 1/2 = 1 2. Zakładamy, że wszystkie układy dwójki dzieci: cc, cd, dc, dd są jednakowo prawdopodobne.
Wykład Prawdopodobieństwo warunkowe Dwukrotny rzut symetryczną monetą Ω {OO, OR, RO, RR}. Zdarzenia: Awypadną dwa orły, Bw pierwszym rzucie orzeł. P (A) 1 4, 1. Jeżeli już wykonaliśmy pierwszy rzut i wiemy,
Bardziej szczegółowoUczenie sieci neuronowych i bayesowskich
Wstęp do metod sztucznej inteligencji www.mat.uni.torun.pl/~piersaj 2009-01-22 Co to jest neuron? Komputer, a mózg komputer mózg Jednostki obliczeniowe 1-4 CPU 10 11 neuronów Pojemność 10 9 b RAM, 10 10
Bardziej szczegółowoPrawdopodobieństwo i statystyka r.
Zadanie. Niech (X, Y) ) będzie dwuwymiarową zmienną losową, o wartości oczekiwanej (μ, μ, wariancji każdej ze współrzędnych równej σ oraz kowariancji równej X Y ρσ. Staramy się obserwować niezależne realizacje
Bardziej szczegółowoMetody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 2 autorzy: A. Gonczarek, J.M. Tomczak Metody estymacji Zad. 1 Pojawianie się spamu opisane jest zmienną losową x o rozkładzie dwupunktowym
Bardziej szczegółowoRachunek prawdopodobieństwa
Rachunek prawdopodobieństwa Sebastian Rymarczyk srymarczyk@afm.edu.pl Tematyka zajęć 1. Elementy kombinatoryki. 2. Definicje prawdopodobieństwa. 3. Własności prawdopodobieństwa. 4. Zmienne losowe, parametry
Bardziej szczegółowoRozkłady prawdopodobieństwa zmiennych losowych
Rozkłady prawdopodobieństwa zmiennych losowych Rozkład dwumianowy Rozkład normalny Marta Zalewska Zmienna losowa dyskretna (skokowa) jest to zmienna, której zbór wartości jest skończony lub przeliczalny.
Bardziej szczegółowoRozpoznawanie obrazów
Rozpoznawanie obrazów Ćwiczenia lista zadań nr 5 autorzy: A. Gonczarek, J.M. Tomczak Przykładowe problemy Klasyfikacja binarna Dla obrazu x zaproponowano dwie cechy φ(x) = (φ 1 (x) φ 2 (x)) T. Na obrazie
Bardziej szczegółowoZmienna losowa. Rozkład skokowy
Temat: Zmienna losowa. Rozkład skokowy Kody kolorów: żółty nowe pojęcie pomarańczowy uwaga * - materiał nadobowiązkowy Anna Rajfura, Matematyka i statystyka matematyczna na kierunku Rolnictwo SGGW 1 Zagadnienia
Bardziej szczegółowoĆwiczenia: Ukryte procesy Markowa lista 1 kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II
Ćwiczenia: Ukryte procesy Markowa lista kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II dr Jarosław Kotowicz Zadanie. Dany jest łańcuch Markowa, który może przyjmować wartości,,...,
Bardziej szczegółowoWażne rozkłady i twierdzenia
Ważne rozkłady i twierdzenia Rozkład dwumianowy i wielomianowy Częstość. Prawo wielkich liczb Rozkład hipergeometryczny Rozkład Poissona Rozkład normalny i rozkład Gaussa Centralne twierdzenie graniczne
Bardziej szczegółowoSTATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA
STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA Zadanie 0.1 Zmienna losowa X ma rozkład określony funkcją prawdopodobieństwa: x k 0 4 p k 1/3 1/6 1/ obliczyć EX, D X. (odp. 4/3;
Bardziej szczegółowoLista zadania nr 4 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie
Lista zadania nr 4 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie Jarosław Kotowicz Instytut Matematyki Uniwersytet w
Bardziej szczegółowoRozpoznawanie obrazów
Rozpoznawanie obrazów Ćwiczenia lista zadań nr 7 autorzy: A. Gonczarek, J.M. Tomczak Przykładowe problemy Klasyfikacja binarna Dla obrazu x zaproponowano dwie cechy φ(x) = (φ 1 (x) φ 2 (x)) T. Na obrazie
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 11 Łańcuchy Markova
Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova M. Czoków, J. Piersa 2010-12-21 1 Definicja Własności Losowanie z rozkładu dyskretnego 2 3 Łańcuch Markova Definicja Własności Losowanie z rozkładu
Bardziej szczegółowoSieci Bayesa mgr Tomasz Xięski, Instytut Informatyki, Uniwersytet Śląski Sosnowiec, 2011
Sieci Bayesa mgr Tomasz Xięski, Instytut Informatyki, Uniwersytet Śląski Sosnowiec, 2011 Sieć Bayesowska służy do przedstawiania zależności pomiędzy zdarzeniami bazując na rachunku prawdopodobieństwa.
Bardziej szczegółowoRachunek prawdopodobieństwa Rozdział 4. Zmienne losowe
Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe 4.1. Zmienne losowe dyskretne. Katarzyna Rybarczyk-Krzywdzińska Definicja/Rozkład Zmienne losowe dyskretne Definicja Zmienną losową, która skupiona
Bardziej szczegółowoZMIENNE LOSOWE. Zmienna losowa (ZL) X( ) jest funkcją przekształcającą przestrzeń zdarzeń elementarnych w zbiór liczb rzeczywistych R 1 tzn. X: R 1.
Opracowała: Joanna Kisielińska ZMIENNE LOSOWE Zmienna losowa (ZL) X( ) jest funkcją przekształcającą przestrzeń zdarzeń elementarnych w zbiór liczb rzeczywistych R tzn. X: R. Realizacją zmiennej losowej
Bardziej szczegółowoZadania zestaw 1: Zadania zestaw 2
Zadania zestaw 1: Zadania zestaw 2 Zadania zestaw 3. 1 Rozkład zmiennej losowej skokowej X przedstawia tabela. x i m 0 n p i 0,4 0,3 0,3 a) Wyznacz m i n jeśli: są całkowite, m
Bardziej szczegółowoWYKŁAD 2. Zdarzenia losowe i prawdopodobieństwo Zmienna losowa i jej rozkłady
WYKŁAD 2 Zdarzenia losowe i prawdopodobieństwo Zmienna losowa i jej rozkłady Metody statystyczne metody opisu metody wnioskowania statystycznego syntetyczny liczbowy opis właściwości zbioru danych ocena
Bardziej szczegółowo07DRAP - Zmienne losowe: dyskretne i ciągłe
07DRAP - Zmienne losowe: dyskretne i ciągłe Słynne rozkłady dyskretne Rozkład parametry P (X = k dla k = E(X Var(X uwagi ( dwumianowy n, p n k p k ( p n k 0,,, n np np( p liczba sukcesów w n próbach Bernoulliego
Bardziej szczegółowoRedukcja wariancji w metodach Monte-Carlo
14.02.2006 Seminarium szkoleniowe 14 lutego 2006 Plan prezentacji Wprowadzenie Metoda losowania warstwowego Metoda próbkowania ważonego Metoda zmiennych kontrolnych Metoda zmiennych antytetycznych Metoda
Bardziej szczegółowozadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych
zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych 1. [E.A 5.10.1996/zad.4] Funkcja gęstości dana jest wzorem { 3 x + 2xy + 1 y dla (x y) (0 1) (0 1) 4 4 P (X > 1 2 Y > 1 2 ) wynosi:
Bardziej szczegółowoMatematyka dyskretna - wykład - część Podstawowe algorytmy kombinatoryczne
A. Permutacja losowa Matematyka dyskretna - wykład - część 2 9. Podstawowe algorytmy kombinatoryczne Załóżmy, że mamy tablice p złożoną z n liczb (ponumerowanych od 0 do n 1). Aby wygenerować losową permutację
Bardziej szczegółowob) Niech: - wśród trzech wylosowanych opakowań jest co najwyżej jedno o dawce 15 mg. Wówczas:
ROZWIĄZANIA I ODPOWIEDZI Zadanie A1. Można założyć, że przy losowaniu trzech kul jednocześnie kolejność ich wylosowania nie jest istotna. A więc: Ω = 20 3. a) Niech: - wśród trzech wylosowanych opakowań
Bardziej szczegółowoSTATYSTYKA. Rafał Kucharski. Uniwersytet Ekonomiczny w Katowicach 2015/16 ROND, Finanse i Rachunkowość, rok 2
STATYSTYKA Rafał Kucharski Uniwersytet Ekonomiczny w Katowicach 2015/16 ROND, Finanse i Rachunkowość, rok 2 Wybrane litery alfabetu greckiego α alfa β beta Γ γ gamma δ delta ɛ, ε epsilon η eta Θ θ theta
Bardziej szczegółowoPodstawowe modele probabilistyczne
Wrocław University of Technology Podstawowe modele probabilistyczne Maciej Zięba maciej.zieba@pwr.edu.pl Rozpoznawanie Obrazów, Lato 2018/2019 Pojęcie prawdopodobieństwa Prawdopodobieństwo reprezentuje
Bardziej szczegółowoWnioskowanie statystyczne. Statystyka w 5
Wnioskowanie statystyczne tatystyka w 5 Rozkłady statystyk z próby Próba losowa pobrana z populacji stanowi realizacje zmiennej losowej jak ciąg zmiennych losowych (X, X,... X ) niezależnych i mających
Bardziej szczegółowoStatystyka. Wydział Zarządzania Uniwersytetu Łódzkiego
Statystyka Wydział Zarządzania Uniwersytetu Łódzkiego 2017 Zmienna losowa i jej rozkład Mając daną przestrzeń probabilistyczną, czyli parę (&, P) stanowiącą model pewnego doświadczenia losowego (gdzie
Bardziej szczegółowoLaboratorium nr 7. Zmienne losowe typu skokowego.
Laboratorium nr 7. Zmienne losowe typu skokowego.. Zmienna losowa X ma rozkład dany tabelką: - 0 3 0, 0,3 0, 0,3 0, Naszkicować dystrybuantę zmiennej X. Obliczyć EX oraz VarX.. Zmienna losowa ma rozkład
Bardziej szczegółowoPODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA. Piotr Wiącek
PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA Piotr Wiącek ROZKŁAD PRAWDOPODOBIEŃSTWA Jest to miara probabilistyczna określona na σ-ciele podzbiorów borelowskich pewnej przestrzeni metrycznej. σ-ciało podzbiorów
Bardziej szczegółowo02DRAP - Aksjomatyczna definicja prawdopodobieństwa, zasada w-w
02DRAP - Aksjomatyczna definicja prawdopodobieństwa, zasada w-w A Zadania na ćwiczenia Zadanie A.1. Niech Ω = R oraz F będzie σ-ciałem generowanym przez rodzinę wszystkich przedziałów otwartych typu (,
Bardziej szczegółowoSpacery losowe generowanie realizacji procesu losowego
Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z
Bardziej szczegółowoAlgorytmy genetyczne w interpolacji wielomianowej
Algorytmy genetyczne w interpolacji wielomianowej (seminarium robocze) Seminarium Metod Inteligencji Obliczeniowej Warszawa 22 II 2006 mgr inż. Marcin Borkowski Plan: Przypomnienie algorytmu niszowego
Bardziej szczegółowoRachunek prawdopodobieństwa- wykład 2
Rachunek prawdopodobieństwa- wykład 2 Pojęcie dyskretnej przestrzeni probabilistycznej i określenie prawdopodobieństwa w tej przestrzeni dr Marcin Ziółkowski Instytut Matematyki i Informatyki Uniwersytet
Bardziej szczegółowoPrawdopodobieństwo warunkowe Twierdzenie o prawdopodobieństwie całkowitym
Edward Stachowski Prawdopodobieństwo warunkowe Twierdzenie o prawdopodobieństwie całkowitym W podstawie programowej obowiązującej na egzaminie maturalnym od 05r pojawiły się nowe treści programowe Wśród
Bardziej szczegółowoRozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej
Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Zbiór możliwych wyników eksperymentu będziemy nazywać przestrzenią zdarzeń elementarnych i oznaczać Ω, natomiast
Bardziej szczegółowoPrawdopodobieństwo
Prawdopodobieństwo http://www.matemaks.pl/ Wstęp do rachunku prawdopodobieństwa http://www.matemaks.pl/wstep-do-rachunku-prawdopodobienstwa.html Rachunek prawdopodobieństwa pomaga obliczyć szansę zaistnienia
Bardziej szczegółowoWykład 13. Podstawowe pojęcia rachunku prawdopodobieństwa
Wykład 13. Podstawowe pojęcia rachunku prawdopodobieństwa dr Mariusz Grzadziel Katedra Matematyki, Uniwersytet Przyrodniczy we Wrocławiu semestr zimowy, rok akademicki 2015 2016 Doświadczenie losowe Doświadczenie
Bardziej szczegółowoRozkłady prawdopodobieństwa
Tytuł Spis treści Wersje dokumentu Instytut Matematyki Politechniki Łódzkiej 10 grudnia 2011 Spis treści Tytuł Spis treści Wersje dokumentu 1 Wartość oczekiwana Wariancja i odchylenie standardowe Rozkład
Bardziej szczegółowoWykład 2 Zmienne losowe i ich rozkłady
Wykład 2 Zmienne losowe i ich rozkłady Magdalena Frąszczak Wrocław, 11.10.2017r Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe Doświadczenie
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład XIV: Metody Monte Carlo 19 stycznia 2016 Przybliżone obliczanie całki oznaczonej Rozważmy całkowalną funkcję f : [0, 1] R. Chcemy znaleźć przybliżoną wartość liczbową całki 1 f (x) dx. 0 Jeden ze
Bardziej szczegółowo12DRAP - parametry rozkładów wielowymiarowych
DRAP - parametry rozkładów wielowymiarowych Definicja.. Jeśli h : R R, a X, Y ) jest wektorem losowym o gęstości fx, y) to EhX, Y ) = hx, y)fx, y)dxdy. Jeśli natomiast X, Y ) ma rozkład dyskretny skupiony
Bardziej szczegółowoElementy rachunku prawdopodobieństwa (M. Skośkiewicz, A. Siejka, K. Walczak, A. Szpakowska)
Elementy rachunku prawdopodobieństwa (M. Skośkiewicz, A. Siejka, K. Walczak, A. Szpakowska) Twierdzenie (o mnożeniu) Podstawowe pojęcia i wzory kombinatoryczne. Niech,, będą zbiorami mającymi odpowiednio,,
Bardziej szczegółowoWYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa
WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa Agata Boratyńska Agata Boratyńska Rachunek prawdopodobieństwa, wykład 2 i 3 1 / 19 Zmienna losowa Definicja Dana jest przestrzeń probabilistyczna
Bardziej szczegółowoWnioskowanie bayesowskie
Wnioskowanie bayesowskie W podejściu klasycznym wnioskowanie statystyczne oparte jest wyłącznie na podstawie pobranej próby losowej. Możemy np. estymować punktowo lub przedziałowo nieznane parametry rozkładów,
Bardziej szczegółowoData Mining Wykład 9. Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster. Plan wykładu. Sformułowanie problemu
Data Mining Wykład 9 Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster Plan wykładu Wprowadzanie Definicja problemu Klasyfikacja metod grupowania Grupowanie hierarchiczne Sformułowanie problemu
Bardziej szczegółowoMetody probabilistyczne
Metody probabilistyczne 13. Elementy statystki matematycznej I Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 17.01.2019 1 / 30 Zagadnienia statystki Przeprowadzamy
Bardziej szczegółowoMetody Statystyczne. Metody Statystyczne.
gkrol@wz.uw.edu.pl #4 1 Sprawdzian! 5 listopada (ok. 45-60 minut): - Skale pomiarowe - Zmienne ciągłe i dyskretne - Rozkład teoretyczny i empiryczny - Miary tendencji centralnej i rozproszenia - Standaryzacja
Bardziej szczegółowo(C. Gauss, P. Laplace, Bernoulli, R. Fisher, J. Spława-Neyman) Wikipedia 2008
STATYSTYKA MATEMATYCZNA - dział matematyki stosowanej oparty na rachunku prawdopodobieństwa; zajmuje się badaniem zbiorów na podstawie analizy ich części. Nauka, której przedmiotem zainteresowania są metody
Bardziej szczegółowoRachunek prawdopodobieństwa dla informatyków
Rachunek prawdopodobieństwa dla informatyków Adam Roman Instytut Informatyki UJ Wykład 1 rys historyczny zdarzenia i ich prawdopodobieństwa aksjomaty i reguły prawdopodobieństwa prawdopodobieństwo warunkowe
Bardziej szczegółowoOdtwarzanie i przekazywanie jednostek dozymetrycznych
Opracował Adrian BoŜydar Knyziak Politechnika Warszawska Wydział Mechatroniki Odtwarzanie i przekazywanie jednostek dozymetrycznych Opracowanie zaliczeniowe z przedmiotu "Metody i Technologie Jądrowe"
Bardziej szczegółowoRozkłady statystyk z próby. Statystyka
Rozkłady statystyk z próby tatystyka Rozkłady statystyk z próby Próba losowa pobrana z populacji stanowi realizacje zmiennej losowej jak ciąg zmiennych losowych (X, X,... X ) niezależnych i mających ten
Bardziej szczegółowoZmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014
Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014 Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe
Bardziej szczegółowoPrawdopodobieństwo. Prawdopodobieństwo. Jacek Kłopotowski. Katedra Matematyki i Ekonomii Matematycznej SGH. 16 października 2018
Katedra Matematyki i Ekonomii Matematycznej SGH 16 października 2018 Definicja σ-algebry Definicja Niech Ω oznacza zbiór niepusty. Rodzinę M podzbiorów zbioru Ω nazywamy σ-algebrą (lub σ-ciałem) wtedy
Bardziej szczegółowo+ r arcsin. M. Przybycień Rachunek prawdopodobieństwa i statystyka π r x
Prawdopodobieństwo geometryczne Przykład: Przestrzeń zdarzeń elementarnych określona jest przez zestaw punktów (x, y) na płaszczyźnie i wypełnia wnętrze kwadratu [0 x 1; 0 y 1]. Znajdź p-stwo, że dowolny
Bardziej szczegółowoTemat: Zmienna losowa. Rozkład skokowy. Rozkład ciągły. Kody kolorów: Ŝółty nowe pojęcie pomarańczowy uwaga. Anna Rajfura, Matematyka
Temat: Zmienna losowa. Rozkład skokowy. Rozkład ciągły Kody kolorów: Ŝółty nowe pojęcie pomarańczowy uwaga 1 Zagadnienia 1. Przypomnienie wybranych pojęć rachunku prawdopodobieństwa. Zmienna losowa. Rozkład
Bardziej szczegółowoRozkład normalny Parametry rozkładu zmiennej losowej Zmienne losowe wielowymiarowe
Statystyka i opracowanie danych W4 Rozkład normalny Parametry rozkładu zmiennej losowej Zmienne losowe wielowymiarowe Dr Anna ADRIAN Paw B5, pok407 adan@agh.edu.pl Rozkład normalny wykres funkcji gęstości
Bardziej szczegółowozdarzenie losowe - zdarzenie którego przebiegu czy wyniku nie da się przewidzieć na pewno.
Rachunek prawdopodobieństwa Podstawowym celem rachunku prawdopodobieństwa jest określanie szans zajścia pewnych zdarzeń. Pojęcie podstawowe rachunku prawdopodobieństwa to: zdarzenie losowe - zdarzenie
Bardziej szczegółowoDigraf. 13 maja 2017
Digraf 13 maja 2017 Graf skierowany, digraf, digraf prosty Definicja 1 Digraf prosty G to (V, E), gdzie V jest zbiorem wierzchołków, E jest rodziną zorientowanych krawędzi, między różnymi wierzchołkami,
Bardziej szczegółowoRachunek prawdopodobieństwa Rozdział 3. Prawdopodobieństwo warunkowe i niezależność zdarzeń.
Rachunek prawdopodobieństwa Rozdział 3. Prawdopodobieństwo warunkowe i niezależność zdarzeń. 3.2. Niezależność zdarzeń Katarzyna Rybarczyk-Krzywdzińska Niezależność dwóch zdarzeń Intuicja Zdarzenia losowe
Bardziej szczegółowoPrawdopodobieństwo i statystyka r.
Prawdopodobieństwo i statystyka 9.06.999 r. Zadanie. Rzucamy pięcioma kośćmi do gry. Następnie rzucamy ponownie tymi kośćmi, na których nie wypadły szóstki. W trzeciej rundzie rzucamy tymi kośćmi, na których
Bardziej szczegółowoZdarzenie losowe (zdarzenie)
Zdarzenie losowe (zdarzenie) Ćw. 1. Ze zbioru cyfr (l, 2,3,..., 9} losowo wybieramy jedną. a) Wypisz zdarzenia elementarne, sprzyjające: zdarzeniu A, że wybrano liczbę parzystą zdarzeniu B, że wybrano
Bardziej szczegółowoMetody Rozmyte i Algorytmy Ewolucyjne
mgr inż. Wydział Matematyczno-Przyrodniczy Szkoła Nauk Ścisłych Uniwersytet Kardynała Stefana Wyszyńskiego Podstawowe operatory genetyczne Plan wykładu Przypomnienie 1 Przypomnienie Metody generacji liczb
Bardziej szczegółowoWykład Centralne twierdzenie graniczne. Statystyka matematyczna: Estymacja parametrów rozkładu
Wykład 11-12 Centralne twierdzenie graniczne Statystyka matematyczna: Estymacja parametrów rozkładu Centralne twierdzenie graniczne (CTG) (Central Limit Theorem - CLT) Centralne twierdzenie graniczne (Lindenberga-Levy'ego)
Bardziej szczegółowoWeryfikacja hipotez statystycznych
Weryfikacja hipotez statystycznych Hipoteza Test statystyczny Poziom istotności Testy jednostronne i dwustronne Testowanie równości wariancji test F-Fishera Testowanie równości wartości średnich test t-studenta
Bardziej szczegółowoWykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe
Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe Nierówność Czebyszewa Niech X będzie zmienną losową o skończonej wariancji V ar(x). Wtedy wartość oczekiwana E(X) też jest skończona i
Bardziej szczegółowoWstęp do programowania. Drzewa. Piotr Chrząstowski-Wachtel
Wstęp do programowania Drzewa Piotr Chrząstowski-Wachtel Drzewa Drzewa definiują matematycy, jako spójne nieskierowane grafy bez cykli. Równoważne określenia: Spójne grafy o n wierzchołkach i n-1 krawędziach
Bardziej szczegółowoMatematyka podstawowa X. Rachunek prawdopodobieństwa
Matematyka podstawowa X Rachunek prawdopodobieństwa Zadania wprowadzające: 1. Rzucasz trzy razy monetą a) Napisz zbiór wszystkich wyników tego doświadczenia losowego. Ile ich jest? Wyrzuciłeś większą liczbę
Bardziej szczegółowoAlgorytmy Równoległe i Rozproszone Część V - Model PRAM II
Algorytmy Równoległe i Rozproszone Część V - Model PRAM II Łukasz Kuszner pokój 209, WETI http://www.sphere.pl/ kuszner/ kuszner@sphere.pl Oficjalna strona wykładu http://www.sphere.pl/ kuszner/arir/ 2005/06
Bardziej szczegółowoWykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa
Wykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa Marek Kubiak Instytut Informatyki Politechnika Poznańska Plan wykładu Podstawowe pojęcia rachunku prawdopodobieństwa Rozkład
Bardziej szczegółowoElementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa
Spis treści Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa Romuald Kotowski Katedra Informatyki Stosowanej PJWSTK 2009 Spis treści Spis treści 1 Wstęp Bardzo często interesujący
Bardziej szczegółowoIII. ZMIENNE LOSOWE JEDNOWYMIAROWE
III. ZMIENNE LOSOWE JEDNOWYMIAROWE.. Zmienna losowa i pojęcie rozkładu prawdopodobieństwa W dotychczas rozpatrywanych przykładach każdemu zdarzeniu była przyporządkowana odpowiednia wartość liczbowa. Ta
Bardziej szczegółowoĆwiczenia z metodyki nauczania rachunku prawdopodobieństwa
Ćwiczenia z metodyki nauczania rachunku prawdopodobieństwa 25 marca 209 Zadanie. W urnie jest b kul białych i c kul czarnych. Losujemy n kul bez zwracania. Jakie jest prawdopodobieństwo, że pierwsza kula
Bardziej szczegółowoMODELOWANIE STANÓW CZYNNOŚCIOWYCH W JĘZYKU SIECI BAYESOWSKICH
Inżynieria Rolnicza 7(105)/2008 MODELOWANIE STANÓW CZYNNOŚCIOWYCH W JĘZYKU SIECI BAYESOWSKICH Katedra Podstaw Techniki, Uniwersytet Przyrodniczy w Lublinie Streszczenie. Zastosowanie sieci bayesowskiej
Bardziej szczegółowo51. Wykorzystywanie sumy, iloczynu i różnicy zdarzeń do obliczania prawdopodobieństw zdarzeń.
Matematyka lekcja 5 5. Wykorzystywanie sumy, iloczynu i różnicy zdarzeń do obliczania prawdopodobieństw zdarzeń. I. rzypomnij sobie:. Jak rysujemy drzewo stochastyczne i przy jego pomocy obliczamy prawdopodobieństwo
Bardziej szczegółowo1 Warunkowe wartości oczekiwane
Warunkowe wartości oczekiwane W tej serii zadań rozwiążemy różne zadania związane z problemem warunkowania.. (Eg 48/) Załóżmy, że X, X, X 3, X 4 są niezależnymi zmiennymi losowymi o jednakowym rozkładzie
Bardziej szczegółowoWybrane treści z rachunku prawdopodobieństwa w kontekście medycznym. M.Zalewska
Wybrane treści z rachunku prawdopodobieństwa w kontekście medycznym M.Zalewska Podstawowe pojęcia Doświadczenie losowe obserwacja zjawiska, którego przebiegu nie umiemy w pełni przewidzieć. Możemy oceniać
Bardziej szczegółowoRachunek Prawdopodobieństwa i Statystyka Matematyczna
Rachunek rawdopodobieństwa i Statystyka Matematyczna rowadzący: prof. dr hab. inż. Ireneusz Jóźwiak Zestaw nr. Opracowanie: Grzegorz Drzymała 4996 Grzegorz Dziemidowicz 49965 drian Gawor 49985 Zadanie..
Bardziej szczegółowoc) ( 13 (1) (2) Zadanie 2. Losując bez zwracania kolejne litery ze zbioru AAAEKMMTTY, jakie jest prawdopodobieństwo Odp.
Zadania na kolokwium nr Zadanie. Spośród kart w tali wylosowano. Jakie jest prawdopodobieństwo: pików, kierów, trefli i karo otrzymania wszystkich kolorów otrzymania dokładnie pików a ( b ( ( c ( ( ( (
Bardziej szczegółowoL.Kowalski zadania z rachunku prawdopodobieństwa-zestaw 1 ZADANIA - ZESTAW 1. (odp. a) B A C, b) A, c) A B, d) Ω)
ZADANIA - ZESTAW 1 Zadanie 1.1 Rzucamy trzy razy monetą. A i - zdarzenie polegające na tym, że otrzymamy orła w i - tym rzucie. Określić zbiór zdarzeń elementarnych. Wypisać zdarzenia elementarne sprzyjające
Bardziej szczegółowo8. Neuron z ciągłą funkcją aktywacji.
8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i
Bardziej szczegółowoPrzykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych
Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Niech Ω będzie przestrzenią zdarzeń elementarnych. Definicja 1 Rodzinę S zdarzeń losowych (zbiór S podzbiorów zbioru
Bardziej szczegółowo