P(F=1) F P(C1 = 1 F = 1) P(C1 = 1 F = 0) P(C2 = 1 F = 1) P(C2 = 1 F = 0) P(R = 1 C2 = 1) P(R = 1 C2 = 0)

Wielkość: px
Rozpocząć pokaz od strony:

Download "P(F=1) F P(C1 = 1 F = 1) P(C1 = 1 F = 0) P(C2 = 1 F = 1) P(C2 = 1 F = 0) P(R = 1 C2 = 1) P(R = 1 C2 = 0)"

Transkrypt

1 Sieci bayesowskie P(F=) F P(C = F = ) P(C = F = 0) C C P(C = F = ) P(C = F = 0) M P(M = C =, C = ) P(M = C =, C = 0) P(M = C = 0, C = ) P(M = C = 0, C = 0) R P(R = C = ) P(R = C = 0) F pali papierosy C chory na chorobę C chory na chorobę M łatwo się męczy R wynik RTG płuc Sieci bayesowskie

2 Sieci bayesowskie F C C Prawdopodobieństwo łączne: M R P(C, C, M, R, F) = P(F) * P(C F) * P (C F) * P(M C, C) * P(R C) P(C = R =,F = 0) P(C =,R =,F = 0) = P(R =,F = 0) i= 0 j= 0 = i= 0 j= 0 k= 0 P(C= i,c =,M = j,r =,F = 0) P(C= i,c = j,m = k,r =,F = 0) Sieci bayesowskie

3 Sieci bayesowskie - zalety Czytelna reprezentacja wiedzy o zależnościach przyczynowych Oszczędna reprezentacja łącznego rozkładu prawdopodobieństwa Efektywne algorytmy wnioskowania Sieci bayesowskie 3

4 Sieci bayesowskie. Uczenie sieci uczenie struktury sieci szacowanie parametrów. Wnioskowanie na podstawie sieci Sieci bayesowskie 4

5 Uczenie parametrów Założenie: Znana jest struktura sieci bayesowskiej Zadanie: Wyznaczenie prawdopodobieństw warunkowych Sieci bayesowskie 5

6 Uczenie parametrów. Ocena częstości na podstawie pierwotnej wiedzy (opartej na naszych subiektywnych oszacowaniach lub pochodzącej z innych źródeł).. Uaktualnienie prawdopodobieństw na podstawie danych. Sieci bayesowskie 6

7 Uczenie parametrów, zmienna binarna rozkład beta Do przedstawienia naszej pierwotnej wiedzy o względnej częstości nadaje się funkcja gęstości beta: ρ( f ) = Γ( N) Γ( a) Γ( b) f a ( f ) b, N = a + b f względna częstość a, b, N parametry rozkładu Γ x t ( x) = t e dt 0 x i x C Γ(x) = (x - )! Sieci bayesowskie 7

8 Uczenie parametrów, zmienna binarna - rozkład beta a=50 b=50 a=8 b= a= b= a=3 b=3 a=0. b= , 0, 0,3 0,4 0,5 0,6 0,7 0,8 0,9 f 0 0,0 0,04 0, 0, 0,4 0,6 0,8 0,88 0,96 0,99 f Sieci bayesowskie 8

9 Uczenie parametrów, zmienna binarna Oznaczenia: X - zmienna losowa binarna przyjmująca wartości i F - zmienna losowa reprezentująca naszą wiedzę dotyczącą względnej częstości z jaką zmienna X przyjmuje wartość f konkretna wartość F Sieci bayesowskie 9

10 Uczenie parametrów, zmienna binarna Jeżeli F ma rozkład beta z parametrami a, b, N = a + b, to wartość oczekiwana E(F) = a / N; Jeżeli zmienna X przyjmuje wartości lub i P(X = f) = f, to P(X = ) = E(F); Jeśli F ma rozkład beta, to P(X = ) = a / N; Przykład: rzut monetą przypuszczamy, że na 00 rzutów monetą ok. 50 razy wypadnie orzeł, zatem zakładamy rozkład beta(f; 50,50), stąd P(X = orzeł) = 50 / ( ) = 0.5 Sieci bayesowskie 0

11 Uczenie parametrów, zmienna binarna uaktualniania na podstawie danych Dane: ρ(f) rozkład gęstości zmiennej losowej F reprezentującej względną częstość d - zbiór danych zawierający M przykładów s liczba wystąpień pierwszej wartości w zbiorze d t - liczba wystąpień drugiej wartości w zbiorze d (M = s + t) Problem: Jak uaktualnić na podstawie danych d naszą pierwotną wiedzę reprezentowaną przez ρ(f)? Rozwiązanie: Jeżeli ρ(f) = beta(f; a, b), to ρ(f d) = beta(f; a + s, b + t). Sieci bayesowskie

12 Uczenie parametrów, zmienna binarna uaktualniania na podstawie danych Przykład: Rzut oszczepem wykonany 0 razy (może wbić się w ziemię lub wylądować płasko). Pierwotna wiedza: beta(f; 3, 3). Wyniki rzutów (-wbity): d={,,,,,,,,,} a = b = 3, s = 8, t = ρ(f d) = beta(f; 3 + 8, 3 + ) = beta(f;, 5) P(X = d) = E(F d) = (a + s) / (N + M) = (3 + 8) / (6 + 0) = 0.69 Sieci bayesowskie

13 Wybór r wartości a oraz b a = b = brak jakiejkolwiek wiedzy na temat względnej częstości lub dla zachowania obiektywizmu; zakładamy, że wszystkie wartości z przedziału [0, ] są jednakowo prawdopodobne; a, b > prawdopodobnie względna częstość wystąpienia pierwszej z dopuszczalnych wartości zmiennej wynosi ok. a/(a+b); im większe przekonanie, tym większe wartości a, b; a, b < prawdopodobnie względna częstość wystąpienia jednej z wartości zmiennej jest bardzo mała; Sieci bayesowskie 3

14 Uczenie parametrów - przykład trzy urny zawierające kule z numerami i ; losujemy kulę z pierwszej urny. Jeśli wylosowawo, to losujemy z urny drugiej, w przeciwnym razie z trzeciej; X, X zmienne reprezentujące wyniki dwóch losowań; beta(f ;, ) reprezentuje pierwotną wiedzę na temat częstości wylosowania kuli przy pierwszym losowaniu; beta(f ;, ) reprezentuje pierwotną wiedzę na temat częstości wylosowania kuli przy drugim losowaniu, jeżeli przy pierwszym wylosowano ; beta(f ;, ) reprezentuje pierwotną wiedzę na temat częstości wylosowania kuli przy drugim losowaniu, jeżeli przy pierwszym wylosowano ; X X P(X = ) = ½ P(X = X = ) = ½ P(X = X = ) = ½ np.: P(X =, X = ) = P(X = X = ) P(X = ) = ½ * ½ = /4 Sieci bayesowskie 4

15 Uczenie parametrów - przykład Dane d: X X ρ(f d) = beta(f ; + 4, + 3) ρ(f d) = beta(f ; + 3, + ) ρ(f d) = beta(f ; +, + ) X X P(X = ) = 5/9 P(X = X = ) = /3 P(X = X = ) = 3/5 np.: P(X =, X = ) = P(X = X = ) P(X = ) = 3/5 * 4/9 = 4/5 Sieci bayesowskie 5

16 Uczenie parametrów - przykład X zmienna mówiąca czy pacjent pali papierosy (-tak, -nie) X zmienna mówiąca czy pacjent ma chore płuca (-tak, -nie) ρ(f ) = beta(f ;, ) ρ(f ) = beta(f ;, ) ρ(f ) = beta(f ;, ) X X P(X = ) = ½ P(X = X = ) = ½ P(X = X = ) = ½ np.: P(X = ) = P(X =, X = ) + P(X =, X = ) = = P(X = X = ) P(X = ) + P(X = X = ) P(X = ) = = ½ * ½ + ½ * ½ = ½ Sieci bayesowskie 6

17 Uczenie parametrów - przykład Dane d: X X ρ(f d) = beta(f ; + 3, + 5) ρ(f d) = beta(f ; +, + ) ρ(f d) = beta(f ; + 3, + ) X X P(X = ) = /5 P(X = X = ) = /5 P(X = X = ) = 4/7 np.: P(X = ) = P(X =, X = ) + P(X =, X = ) = = P(X = X = ) P(X = ) + P(X = X = ) P(X = ) = = /5 * /5 + 4/7 * 3/5 = Sieci bayesowskie 7

18 Uczenie parametrów - przykład Początkowo P(X = ) = 0.5 Wśród danych uczących były 4 przykłady, dla których X = oraz 4 przykłady, dla których X = Po uaktualnieniu parametrów P(X = ) = ? Sieci bayesowskie 8

19 Uczenie parametrów, odpowiedni rozmiar danych - przykład Początkowa wiedza: ρ(f ) = beta(f ;, ) ρ(f ) = beta(f ;, ) ρ(f ) = beta(f ;, ) Po uaktualnieniu parametrów: ρ(f d) = beta(f ; + 3, + 5) ρ(f d) = beta(f ; +, + ) ρ(f d) = beta(f ; + 3, + ) X X P(X = ) = ½ P(X = X = ) = ½ P(X = X = ) = ½ X X P(X = ) = 5/ P(X = X = ) = /5 P(X = X = ) = 4/7 np.: P(X = ) = P(X =, X = ) + P(X =, X = ) = = P(X = X = ) P(X = ) + P(X = X = ) P(X = ) = = /5 * 5/ + 4/7 * 7/ = 0.5 Sieci bayesowskie 9

20 Uczenie parametrów, odpowiedni rozmiar danych Definicja: Dla każdego i oraz j funkcje gęstości są postaci beta(f ij ; a ij, b ij ). Jeżeli istnieje liczba N taka, że N ij = a ij + b ij = P(pa ij ) * N to mówimy, że sieć ma odpowiedni rozmiar danych N. P(pa ij ) prawd. tego, że węzły rodzice danego węzła były w stanie ij Dla danych z przykładu : N = + 3 = 5/ * N = = 7/ * N = Sieci bayesowskie 0

21 Uczenie parametrów, odpowiedni rozmiar danych beta(f ; 0, 5) f = P(X = f ) beta(f ; 9, 6) f = P(X = f ) beta(f 3 ;, 4) f 3 = P(X 3 = X =,X =,f 3 ) beta(f 3 ; 3, ) f 3 = P(X 3 = X =,X =,f 3 ) beta(f 33 ;, ) f 33 = P(X 3 = X =,X =,f 33 ) beta(f 34 ;, ) f 34 = P(X 3 = X =,X =,f 34 ) P(X = ) = /3 P(X X X = ) = 3/5 P(X 3 = X =,X =) = /3 P(X 3 = X =,X =) = 3/4 P(X X 3 = X =,X =) = /3 a + b = = 5 3 P(X 3 = X =,X =) = / a 3 + b 3 = + 4 = 6 P(pa 3 ) * N = P(X =, X = ) * N = /3 * 3/5 * 5 = 6 Sieci bayesowskie

22 Uczenie parametrów, odpowiedni rozmiar danych W jaki sposób wyrazić brak początkowej wiedzy (a=b=) zachowując odpowiedni rozmiar danych? beta(f ;, ) f = P(X = f ) beta(f ;, ) f = P(X = f ) beta(f 3 ; ¼, ¼) f 3 = P(X 3 = X =,X =,f 3 ) beta(f 3 ; ¼, ¼) f 3 = P(X 3 = X =,X =,f 3 ) beta(f 33 ; ¼, ¼) f 33 = P(X 3 = X =,X =,f 33 ) beta(f 34 ; ¼, ¼) f 34 = P(X 3 = X =,X =,f 34 ) P(X = ) = / X X P(X = ) = / X 3 P(X 3 = X =,X =) = / P(X 3 = X =,X =) = / P(X 3 = X =,X =) = / P(X 3 = X =,X =) = / Sieci bayesowskie

23 Uczenie parametrów, brakujące wartości Początkowa wiedza: ρ(f ) = beta(f ;, ) ρ(f ) = beta(f ;, ) ρ(f ) = beta(f ;, ) X X P(X = ) = / P(X = X = ) = / P(X = X = ) = / Dane d: X X?? P(X = X = ) = ½ P(X = X = ) = ½ Dane d : X X Sieci bayesowskie 3 Liczba wystąpień ½ ½ ½ ½

24 Uczenie parametrów, brakujące wartości Początkowa wiedza: ρ(f ) = beta(f ;, ) ρ(f ) = beta(f ;, ) ρ(f ) = beta(f ;, ) Po uaktualnienie parametrów ρ(f d ) = beta(f ; + 4, + ) ρ(f d ) = beta(f ; + 5/, + 3/) Dane d : X X ρ(f d ) = beta(f ; + /, + /) Liczba wystąpień ½ ½ ½ ½ X X P(X = ) = 6 / (6 + 3) = /3 P(X = X = ) = 7/ / (7/ + 5/) = 7/ P(X = X = ) = / Sieci bayesowskie 4

25 Uczenie parametrów, brakujące wartości Wyznaczenie najbardziej prawdopodobnego rozkładu (algorytm EM) Powtarzaj na przemian k razy:. oblicz oczekiwane wartości s ij oraz t ij na podstawie rozkładu prawdopodobieństw i danych d (expectation). oblicz wartości f ij na podstawie s ij oraz t ij (maximization) Można w ten sposób wyznaczyć f maksymalizujące ρ(f d). Problem: ryzyko znalezienia maksimum lokalnego. Sieci bayesowskie 5

26 Uczenie parametrów, zmienne dyskretne o dowolnej liczbie wartości rozkład Dirichleta Γ( N ) a a ρ( f, f,..., fr ) = f f r Γ( a ) 0 f k, r k= k= f k k =, r k = a k... = N f ar r r liczba różnych wartości (dla zmiennej binarnej r = i mamy rozkład beta) a i liczba wystąpień i-tej wartości Sieci bayesowskie 6

27 Uczenie parametrów, zmienne dyskretne rozkład Dirichleta Jeżeli zmienne F, F,...,F r mają rozkład Dirichleta z parametrami a, a...,a r, a + a a r = N, to dla k r E( F k P( X ) Jeżeli zmienna losowa X przyjmuje wartości,,...,r; i dla zmiennych losowych F, F,..., F r, P(X = k f k ) = f k, to = = k) ak N = ak N Sieci bayesowskie 7

28 Uczenie parametrów, zmienne dyskretne rozkład Dirichleta Przykład Rzut kostką Dir(f, f, f 3, f 4, f 5 ; 50, 50, 50, 50, 50, 50) P(X = 4) = 50 / 300 = / 6 Przykład Kolor skarpetek (białe, czarne, kolorowe) Dir(f, f ;,, 4) P(X = białe) = / ( + + 4) = / 4 P(X = kolorowe) = 4 / ( + + 4) = / Sieci bayesowskie 8

29 Uczenie parametrów Zmienna X przyjmuje 3 wartości, zmienna X przyjmuje 4 wartości ρ(f, f ) = Dir(f, f ; 4, 8, 0) ρ(f, f, f 3 ) = Dir(f, f, f 3 ;,,, ) ρ(f, f, f 3 ) = Dir(f, f, f 3 ;, 4,, ) ρ(f 3, f 3, f 33 ) = Dir(f 3, f 3, f 33 ;, 3, 4, ) X X P(X = ) = / P(X = X = ) = ¼ P(X = X = ) = ¼ P(X = ) = 4/ P(X = X = ) = ¼ P(X = X = ) = ½ P(X = 3) = 5/ P(X = 3 X = ) = ¼ P(X = 3 X = ) = /8 P(X = 4 X = ) = ¼ P(X = 4 X = ) = /8 P(X = X = 3) = /0 P(X = X = 3) = 3/0 P(X = 3 X = 3) = /5 P(X = 4 X = 3) = /5 Sieci bayesowskie 9

30 Uczenie parametrów, zmienne dyskretne uaktualnianie na podstawie danych Dane: ρ(f,f,...,f r- ) rozkład gęstości zmiennych reprezentujących względną częstość d - zbiór danych zawierający M przykładów s i liczba wystąpień i-tej wartości w zbiorze d Problem: Jak uaktualnić na podstawie danych d naszą pierwotną wiedzę reprezentowaną przez ρ(f,f,...,f r- )? Rozwiązanie: Jeżeli ρ(f, f,..., f r- ) = Dir(f, f,..., f r- ; a, a,..., a r ), to ρ(f, f,..., f r- d) = Dir(f, f,..., f r- ; a + s, a + s,..., a r + s r ). Sieci bayesowskie 30

31 Metody uczenia struktury sieci - podział Ze względu na sposób optymalizacji: Dokładne (przeglądanie wszystkich możliwych sieci w celu wybrania optymalnej, wykonalne jedynie w przypadku małej liczby zmiennych). Przybliżone (nie gwarantują optymalnego rozwiązania, ale przeważnie prowadzą do rozwiązań bliskich optymalnemu). Ze względu na wynik końcowy: Wybór modelu (wyznaczenie jednej sieci). Uśrednianie modelu (wyznaczenie wielu sieci a następnie uśrednianie prawdopodobieństw podczas wnioskowania). Sieci bayesowskie 3

32 Uczenie struktury sieci bayesowskiej miara jakości Im większe prawdopodobieństwo P(G d), tym lepsza sieć G (d dane uczące). P ( G d) = P( d G) P( G) P( d) Miara jakości sieci G zbudowanej na podstawie danych d: score B ( d, G) = P( d G) = ( G ) n q ( G) r ( G) i ij ijk ( G) ( G) i= j= Γ( Nij + M ij ) k= Γ( i Γ( N ) Γ( a a + s ( G) ijk ( G) ijk ) ) n - liczba węzłów (zmiennych) q i liczba kombinacji wartości przyjmowanych przez rodziców węzła i-tego r i liczba wartości przyjmowanych przez zmieną (węzeł) i-tą M ij liczba przykładów uczących, dla których rodzice węzła i-tego przyjmują j-tą kombinację wartości s ijk liczba przykładów uczących, dla których zmienna i-ta przyjmuje wartość k-tą a jej rodzice j-tą Chcemy znaleźć sieć G maksymalizującą powyższą miarę. Sieci bayesowskie 3

33 Uczenie struktury sieci bayesowskiej miara jakości Dane d: X X G X X P(X = ) = 7/ P(X = X = ) = 5/7 P(X = X = ) = /5 Γ(4) Γ( + 5) Γ( + 3) Γ() Γ( + 4) Γ( + ) Γ() Γ( + ) Γ( + ) P( d G) = ( )( )( ) = Γ(4 + 8) Γ() Γ() Γ( + 5) Γ() Γ() Γ( + 3) Γ() Γ() G P ( G d) = P( d G) P( G) P( d) X X 6 P( d G) = P( d G) P( G) P ( G d) = P( d) Sieci bayesowskie 33

34 Uczenie struktury sieci, metody przybliżone Przeszukiwana jest przestrzeń zawierająca wszystkie kandydujące rozwiązania. Definiuje się zbiór operacji przekształcających jedno rozwiązanie w drugie. Sieci bayesowskie 34

35 Uczenie struktury sieci, metody przybliżone Lokalna ocena sieci w węźle X i : score B ( d, X i, PA ) = i ( PA) ( PA) ( ) ( ) Γ( ) r PA PA Nij Γ( aijk + sijk ( PA) ( PA) ( PA) j= Γ( Nij + M ij ) k = Γ( aijk ) q i i ) score B ( d, G) = n i= score B ( d, X i, PA ) i Sieci bayesowskie 35

36 Uczenie sieci, metody przybliżone - algorytm K Założenie: dany jest porządek węzłów (jeśli X i jest przed X j to nie jest dozwolona krawędź X j X i ). for i = to n {dla każdego węzła} PA i = {PA i rodzice węzła i-tego} P = score B (d,x i,pa i ) repeat znajdź Y maksymalizujący score B (d,x i,pa i {Y}) P = score B (d,x i,pa i {Y}) if P > P then P = P PA i = PA i {Y} {dodanie nowego rodzica} end until nie znaleziono węzła Y, dla którego P > P end Sieci bayesowskie 36

37 Uczenie sieci, metody przybliżone - algorytm nie wymagający uporządkowania węzłóww Założenie: dozwolone są następujące operacje: dodanie krawędzi między dwoma węzłami, usunięcie krawędzi, zmiana kierunku krawędzi (pod warunkiem, że nie powstaje cykl) repeat if w sąsiedztwie sieci G istnieje sieć o większym score B (d,g) then zastąp G siecią o największej wartości score B (d,g) end until żadna z operacji nie zwiększa wartości score B (d,g) Sąsiedztwo sieci G wszystkie sieci, które można otrzymać z sieci G wykonując jedną z dozwolonych operacji. Problem: możliwość znalezienia lokalnego maksimum Sieci bayesowskie 37

38 Równoważność sieci ρ(f d) = beta(f ; + 4, + 3) ρ(f d) = beta(f ; + 3, + ) ρ(f d) = beta(f ; +, + ) X X P(X =)=6/ P(X = X =)=/3 P(X = X =)=3/5 P(X =,X =) = P(X = X =) P(X =) = = /3 * 6/ = 4/ P(X =,X =) = P(X = X =) P(X =) = = /3 * 6/ = / P(X =,X =) = P(X = X =) P(X =) = = 3/5 * 5/ = 3/ P(X =,X =) = / Dane d: X X ρ(f d) = beta(f ; + 5, + ) ρ(f d) = beta(f ; + 3, + ) ρ(f d) = beta(f ; +, + ) X X P(X = X =)=4/7 P(X =)=7/ P(X = X =)=/ P(X =,X =) = P(X = X =) P(X =) = = 4/7 * 7/ = 4/ P(X =,X =) = P(X = X =) P(X =) = = / * 4/ = / P(X =,X =) = P(X = X =) P(X =) = = 3/7 * 7/ = 3/ P(X =,X =) = / jeden rozkład prawdopodobieństwa różne sieci Sieci bayesowskie 38

39 X P(X =)=4/7 X P(X = X =)=3/4 P(X 3 = X =)=/ P(X = X =)=/3 P(X 3 = X =)=/3 Równoważność sieci Zbiór uczący: X X X 3 X 3 X X X 3 P(X =,X =,X 3 =) =? P(X = X =)=3/5 P(X = X =)=/ P(X =)=5/7 P(X 3 = X =)=/ P(X 3 = X =)=/3 P(X =) * P(X = X =) * P(X 3 = X =) = = 4/7 * 3/4 * /= 3/4 P(X =) * P(X = X =) * P(X 3 = X =) = = 5/7 * 3/5 * / = 3/4 P(X =,X =,X 3 =) =? P(X =) * P(X = X =) * P(X 3 = X =) = = 3/7 * /3 * /3= /... P(X =) * P(X = X =) * P(X 3 = X =) = = /7 * / * /3 = / jeden rozkład prawdopodobieństwa różne sieci Sieci bayesowskie 39

40 Równoważność sieci Twierdzenie: dwie sieci zawierające ten sam zbiór zmiennych są równoważne, gdy mają te same krawędzie (niezależnie od ich kierunku) oraz takie same połączenia typu X Y Z w przypadku, gdy nie ma krawędzi między X i Z [Pearl 989]. () () (3) A A A B C B C B C D D D E F E F E F () i () są równoważne () i (3) nie są równoważne () i (3) nie są równoważne Sieci bayesowskie 40

41 Równoważność sieci - wzorzec Wzorzec klasy sieci równoważnych sieć, która ma takie same połączenia jak sieci w tej klasie i tylko połączenia wspólne dla wszystkich sieci tej klasy są skierowane. A A A B C B C B C D D D A E E E B C klasa sieci równoważnych wzorzec D E Sieci bayesowskie 4

42 Poszukiwanie sieci czy wzorca? Jeśli w klasach sieci równoważnych jest dużo sieci, to znacznie dłuższy czas poszukiwania (strata czasu, ponieważ wszystko jedno którą sieć z klasy sieci równoważnych wybierzemy). Traktowanie wszystkich sieci jak jednakowo prawdopodobnych (jeśli w klasie jest dużo sieci, to duże szanse na wybór jednej z nich różne rozkłady łączne nie są traktowane jednakowo). Algorytmy znajdujące najlepsze wzorce Sieci bayesowskie 4

43 Uczenie struktury sieci, metody przybliżone algorytm znajdujący najlepszy wzorzec graf częściowo skierowany zawiera krawędzie skierowane i nieskierowane; A A A B C B C B C D D D sieć G odpowiadająca grafowi częściowo skierowanemu g wszystkie krawędzie skierowane w g są skierowane w G, G nie zawiera połączeń typu X Y Z (bez krawędzi między X a Z) innych niż w g; B A C B A C D D każdy wzorzec sieci jest grafem częściowo skierowanym, ale nie każdy graf częściowo skierowany jest wzorcem; Sieci bayesowskie 43

44 Uczenie struktury sieci, metody przybliżone algorytm znajdujący najlepszy wzorzec Zestaw operacji przekształcających graf częściowo skierowany g w g: dodanie krawędzi (dowolnie skierowanej lub nieskierowanej) między dwoma węzłami usunięcie krawędzi nieskierowanej usunięcie lub zmiana kierunku krawędzi skierowanej zamiana połączenia typu X-Y-Z (nie ma krawędzi między X a Z) na X Y Z Przekształcanie jednego wzorca w drugi: wykonaj jedną z operacji zmieniając wzorzec g na g {g może nie być wzorcem} znajdź sieć G odpowiadającą grafowi g if znaleziono sieć G then znajdź wzorzec g odpowiadający sieci G end if Sieci bayesowskie 44

45 Uczenie struktury sieci, metody przybliżone algorytm znajdujący najlepszy wzorzec B C D A E ) usunięcie krawędzi ) znalezienie sieci 3) znalezienie wzorca B C B C B C D A D A D A E E E Sieci bayesowskie 45

46 Uczenie struktury sieci, metody przybliżone algorytm znajdujący najlepszy wzorzec repeat if w sąsiedztwie wzorca gp istnieje wzorzec o większym score B (d,gp) then zastąp dany wzorzec wzorcem poprawiającym score B (d,gp) najbardziej end until żadna z operacji nie zwiększa wartości score B (d,g) W przeciwieństwie do dwóch poprzednich algorytmów, tym razem nie można uaktualniać miary score B lokalnie. Sieci bayesowskie 46

47 Uczenie struktury sieci, metody przybliżone - porównanie Metody poszukujące wzorca przeważnie prowadzą do lepszych sieci niż metody znajdujące sieć. Metody poszukujące wzorca są wolniejsze. Jeżeli znane jest uporządkowanie zmiennych wymagane przez algorytm K, to algorytm ten znajduje sieci często lepsze niż inne metody. Sieci bayesowskie 47

48 Wnioskowanie X P(x) Y P(y x) P(y x) P(y) = P(y x) P(x) + P(y x) P(x) Z P(z y) P(z y) P(z) = P(z y) P(y) + P(z y) P(y) W P(w z) P(w z) P(w) = P(w z) P(z) + P(w z) P(z) Sieci bayesowskie 48

49 Wnioskowanie =x P(y x) =? P(z x) =? P(w x) =? X P(x) Y P(y x) P(y x) Z P(z y) P(z y) P(z x) = P(z y,x) P(y x) + P(z y,x) P(y x) = = P(z y) P(y x) + P(z y) P(y x) W P(w z) P(w z) P(w x) = P(w z,x) P(z x) + P(w z,x) P(z x) = = P(w z) P(z x) + P(w z) P(z x) Sieci bayesowskie 49

50 Wnioskowanie X P(x) P(x w) = P(w x) P(x) / P(w) P(w x) = P(w y) P(y x) + P(w y) P(y x) Y P(y x) P(y x) P(y w) = P(w y) P(y) / P(w) P(w y) = P(w z) P(z y) + P(w z) P(z y) Z P(z y) P(z y) P(z w) = P(w z) P(z) / P(w) W P(w z) P(w z) =w P(z w) =? P(y w) =? P(x w) =? Sieci bayesowskie 50

51 Wnioskowanie P(x w) X P(y w) P(x) P(z w) Y P(y x) P(y x) Z P(z x) P(z x) P(t w) W P(w y) P(w y) P(t z) P(t z) T =w Sieci bayesowskie 5

Algorytmy stochastyczne, wykład 08 Sieci bayesowskie

Algorytmy stochastyczne, wykład 08 Sieci bayesowskie Algorytmy stochastyczne, wykład 08 Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2014-04-10 Prawdopodobieństwo Prawdopodobieństwo Prawdopodobieństwo warunkowe Zmienne

Bardziej szczegółowo

Systemy ekspertowe - wiedza niepewna

Systemy ekspertowe - wiedza niepewna Instytut Informatyki Uniwersytetu Śląskiego lab 8 Rozpatrzmy następujący przykład: Miażdżyca powoduje często zwężenie tętnic wieńcowych. Prowadzi to zazwyczaj do zmniejszenia przepływu krwi w tych naczyniach,

Bardziej szczegółowo

Algorytmy stochastyczne Wykład 12, Uczenie parametryczne w sieciach bayesowskich

Algorytmy stochastyczne Wykład 12, Uczenie parametryczne w sieciach bayesowskich Algorytmy stochastyczne Wykład 2, Uczenie parametryczne w sieciach bayesowskich Jarosław Piersa 204-05-22 Zagadnienie uczenia sieci bayesowskich Problem mamy strukturę sieci bayesowskiej węzły, stany i

Bardziej szczegółowo

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski Modelowanie zależności pomiędzy zmiennymi losowymi Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski P Zmienne losowe niezależne - przypomnienie Dwie rzeczywiste zmienne losowe X i Y

Bardziej szczegółowo

Metody probabilistyczne

Metody probabilistyczne Metody probabilistyczne. Twierdzenia graniczne Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 20.2.208 / 26 Motywacja Rzucamy wielokrotnie uczciwą monetą i zliczamy

Bardziej szczegółowo

Podstawy nauk przyrodniczych Matematyka

Podstawy nauk przyrodniczych Matematyka Podstawy nauk przyrodniczych Matematyka Elementy rachunku prawdopodobieństwa dr inż. Małgorzata Szeląg Zakład Genetyki Molekularnej Człowieka tel. 61 829 59 04 malgorzata.szelag@amu.edu.pl Pokój 1.118

Bardziej szczegółowo

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18 Eksploracja Danych wykład 4 Sebastian Zając WMP.SNŚ UKSW 10 maja 2017 Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja 2017 1 / 18 Klasyfikacja danych Klasyfikacja Najczęściej stosowana (najstarsza)

Bardziej szczegółowo

Statystyka podstawowe wzory i definicje

Statystyka podstawowe wzory i definicje 1 Statystyka podstawowe wzory i definicje Średnia arytmetyczna to suma wszystkich liczb (a 1, a 2,, a n) podzielona przez ich ilość (n) Przykład 1 Dany jest zbiór liczb {6, 8, 11, 2, 5, 3}. Oblicz średnią

Bardziej szczegółowo

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne 5.3 Rozkłady warunkowe i warunkowa wartość oczekiwana Katarzyna Rybarczyk-Krzywdzińska semestr zimowy 2015/2016 Prawdopodobieństwo wyraża postawę

Bardziej szczegółowo

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład Rozdział 1 Wektory losowe 1.1 Wektor losowy i jego rozkład Definicja 1 Wektor X = (X 1,..., X n ), którego każda współrzędna jest zmienną losową, nazywamy n-wymiarowym wektorem losowym (krótko wektorem

Bardziej szczegółowo

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I (SGH)

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I (SGH) WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I (SGH) Agata Boratyńska Agata Boratyńska Rachunek prawdopodobieństwa, wykład 1 1 / 24 Warunki zaliczenia 1 Do egzaminu dopuszczeni wszyscy, którzy uczęszczali na

Bardziej szczegółowo

P (A B) = P (A), P (B) = P (A), skąd P (A B) = P (A) P (B). P (A)

P (A B) = P (A), P (B) = P (A), skąd P (A B) = P (A) P (B). P (A) Wykład 3 Niezależność zdarzeń, schemat Bernoulliego Kiedy dwa zdarzenia są niezależne? Gdy wiedza o tym, czy B zaszło, czy nie, NIE MA WPŁYWU na oszacowanie prawdopodobieństwa zdarzenia A: P (A B) = P

Bardziej szczegółowo

Wstęp do Rachunku Prawdopodobieństwa, IIr. WMS

Wstęp do Rachunku Prawdopodobieństwa, IIr. WMS Wstęp do Rachunku Prawdopodobieństwa, IIr. WMS przykładowe zadania na. kolokwium czerwca 6r. Poniżej podany jest przykładowy zestaw zadań. Podczas kolokwium na ich rozwiązanie przeznaczone będzie ok. 85

Bardziej szczegółowo

Zestaw 2: Zmienne losowe. 0, x < 1, 2, 2 x, 1 1 x, 1 x, F 9 (x) =

Zestaw 2: Zmienne losowe. 0, x < 1, 2, 2 x, 1 1 x, 1 x, F 9 (x) = Zestaw : Zmienne losowe. Które z poniższych funkcji są dystrybuantami? Odpowiedź uzasadnij. Wskazówka: naszkicuj wykres. 0, x 0,, x 0, F (x) = x, F (x) = x, 0 x

Bardziej szczegółowo

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty Agata Boratyńska Agata Boratyńska Rachunek prawdopodobieństwa, wykład 4 / 9 Przekształcenia zmiennej losowej X

Bardziej szczegółowo

W2 Podstawy rachunku prawdopodobieństwa (przypomnienie)

W2 Podstawy rachunku prawdopodobieństwa (przypomnienie) W2 Podstawy rachunku prawdopodobieństwa (przypomnienie) Henryk Maciejewski Jacek Jarnicki Marek Woda www.zsk.iiar.pwr.edu.pl Rachunek prawdopodobieństwa - przypomnienie 1. Zdarzenia 2. Prawdopodobieństwo

Bardziej szczegółowo

WYKŁAD 3. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

WYKŁAD 3. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki WYKŁAD 3 Witold Bednorz, Paweł Wolff 1 Instytut Matematyki Uniwersytet Warszawski Rachunek Prawdopodobieństwa, WNE, 2010-2011 Schemmat Bernouliego Rzucamy 10 razy moneta, próba Bernouliego jest pojedynczy

Bardziej szczegółowo

RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3.

RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3. RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3. ZMIENNA LOSOWA JEDNOWYMIAROWA. Zmienną losową X nazywamy funkcję (praktycznie każdą) przyporządkowującą zdarzeniom elementarnym liczby rzeczywiste. X : Ω R (dokładniej:

Bardziej szczegółowo

P (A B) P (B) = 1/4 1/2 = 1 2. Zakładamy, że wszystkie układy dwójki dzieci: cc, cd, dc, dd są jednakowo prawdopodobne.

P (A B) P (B) = 1/4 1/2 = 1 2. Zakładamy, że wszystkie układy dwójki dzieci: cc, cd, dc, dd są jednakowo prawdopodobne. Wykład Prawdopodobieństwo warunkowe Dwukrotny rzut symetryczną monetą Ω {OO, OR, RO, RR}. Zdarzenia: Awypadną dwa orły, Bw pierwszym rzucie orzeł. P (A) 1 4, 1. Jeżeli już wykonaliśmy pierwszy rzut i wiemy,

Bardziej szczegółowo

Uczenie sieci neuronowych i bayesowskich

Uczenie sieci neuronowych i bayesowskich Wstęp do metod sztucznej inteligencji www.mat.uni.torun.pl/~piersaj 2009-01-22 Co to jest neuron? Komputer, a mózg komputer mózg Jednostki obliczeniowe 1-4 CPU 10 11 neuronów Pojemność 10 9 b RAM, 10 10

Bardziej szczegółowo

Prawdopodobieństwo i statystyka r.

Prawdopodobieństwo i statystyka r. Zadanie. Niech (X, Y) ) będzie dwuwymiarową zmienną losową, o wartości oczekiwanej (μ, μ, wariancji każdej ze współrzędnych równej σ oraz kowariancji równej X Y ρσ. Staramy się obserwować niezależne realizacje

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 2 autorzy: A. Gonczarek, J.M. Tomczak Metody estymacji Zad. 1 Pojawianie się spamu opisane jest zmienną losową x o rozkładzie dwupunktowym

Bardziej szczegółowo

Rachunek prawdopodobieństwa

Rachunek prawdopodobieństwa Rachunek prawdopodobieństwa Sebastian Rymarczyk srymarczyk@afm.edu.pl Tematyka zajęć 1. Elementy kombinatoryki. 2. Definicje prawdopodobieństwa. 3. Własności prawdopodobieństwa. 4. Zmienne losowe, parametry

Bardziej szczegółowo

Rozkłady prawdopodobieństwa zmiennych losowych

Rozkłady prawdopodobieństwa zmiennych losowych Rozkłady prawdopodobieństwa zmiennych losowych Rozkład dwumianowy Rozkład normalny Marta Zalewska Zmienna losowa dyskretna (skokowa) jest to zmienna, której zbór wartości jest skończony lub przeliczalny.

Bardziej szczegółowo

Rozpoznawanie obrazów

Rozpoznawanie obrazów Rozpoznawanie obrazów Ćwiczenia lista zadań nr 5 autorzy: A. Gonczarek, J.M. Tomczak Przykładowe problemy Klasyfikacja binarna Dla obrazu x zaproponowano dwie cechy φ(x) = (φ 1 (x) φ 2 (x)) T. Na obrazie

Bardziej szczegółowo

Zmienna losowa. Rozkład skokowy

Zmienna losowa. Rozkład skokowy Temat: Zmienna losowa. Rozkład skokowy Kody kolorów: żółty nowe pojęcie pomarańczowy uwaga * - materiał nadobowiązkowy Anna Rajfura, Matematyka i statystyka matematyczna na kierunku Rolnictwo SGGW 1 Zagadnienia

Bardziej szczegółowo

Ćwiczenia: Ukryte procesy Markowa lista 1 kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II

Ćwiczenia: Ukryte procesy Markowa lista 1 kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II Ćwiczenia: Ukryte procesy Markowa lista kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II dr Jarosław Kotowicz Zadanie. Dany jest łańcuch Markowa, który może przyjmować wartości,,...,

Bardziej szczegółowo

Ważne rozkłady i twierdzenia

Ważne rozkłady i twierdzenia Ważne rozkłady i twierdzenia Rozkład dwumianowy i wielomianowy Częstość. Prawo wielkich liczb Rozkład hipergeometryczny Rozkład Poissona Rozkład normalny i rozkład Gaussa Centralne twierdzenie graniczne

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA

STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA Zadanie 0.1 Zmienna losowa X ma rozkład określony funkcją prawdopodobieństwa: x k 0 4 p k 1/3 1/6 1/ obliczyć EX, D X. (odp. 4/3;

Bardziej szczegółowo

Lista zadania nr 4 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie

Lista zadania nr 4 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie Lista zadania nr 4 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie Jarosław Kotowicz Instytut Matematyki Uniwersytet w

Bardziej szczegółowo

Rozpoznawanie obrazów

Rozpoznawanie obrazów Rozpoznawanie obrazów Ćwiczenia lista zadań nr 7 autorzy: A. Gonczarek, J.M. Tomczak Przykładowe problemy Klasyfikacja binarna Dla obrazu x zaproponowano dwie cechy φ(x) = (φ 1 (x) φ 2 (x)) T. Na obrazie

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova

Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova M. Czoków, J. Piersa 2010-12-21 1 Definicja Własności Losowanie z rozkładu dyskretnego 2 3 Łańcuch Markova Definicja Własności Losowanie z rozkładu

Bardziej szczegółowo

Sieci Bayesa mgr Tomasz Xięski, Instytut Informatyki, Uniwersytet Śląski Sosnowiec, 2011

Sieci Bayesa mgr Tomasz Xięski, Instytut Informatyki, Uniwersytet Śląski Sosnowiec, 2011 Sieci Bayesa mgr Tomasz Xięski, Instytut Informatyki, Uniwersytet Śląski Sosnowiec, 2011 Sieć Bayesowska służy do przedstawiania zależności pomiędzy zdarzeniami bazując na rachunku prawdopodobieństwa.

Bardziej szczegółowo

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe 4.1. Zmienne losowe dyskretne. Katarzyna Rybarczyk-Krzywdzińska Definicja/Rozkład Zmienne losowe dyskretne Definicja Zmienną losową, która skupiona

Bardziej szczegółowo

ZMIENNE LOSOWE. Zmienna losowa (ZL) X( ) jest funkcją przekształcającą przestrzeń zdarzeń elementarnych w zbiór liczb rzeczywistych R 1 tzn. X: R 1.

ZMIENNE LOSOWE. Zmienna losowa (ZL) X( ) jest funkcją przekształcającą przestrzeń zdarzeń elementarnych w zbiór liczb rzeczywistych R 1 tzn. X: R 1. Opracowała: Joanna Kisielińska ZMIENNE LOSOWE Zmienna losowa (ZL) X( ) jest funkcją przekształcającą przestrzeń zdarzeń elementarnych w zbiór liczb rzeczywistych R tzn. X: R. Realizacją zmiennej losowej

Bardziej szczegółowo

Zadania zestaw 1: Zadania zestaw 2

Zadania zestaw 1: Zadania zestaw 2 Zadania zestaw 1: Zadania zestaw 2 Zadania zestaw 3. 1 Rozkład zmiennej losowej skokowej X przedstawia tabela. x i m 0 n p i 0,4 0,3 0,3 a) Wyznacz m i n jeśli: są całkowite, m

Bardziej szczegółowo

WYKŁAD 2. Zdarzenia losowe i prawdopodobieństwo Zmienna losowa i jej rozkłady

WYKŁAD 2. Zdarzenia losowe i prawdopodobieństwo Zmienna losowa i jej rozkłady WYKŁAD 2 Zdarzenia losowe i prawdopodobieństwo Zmienna losowa i jej rozkłady Metody statystyczne metody opisu metody wnioskowania statystycznego syntetyczny liczbowy opis właściwości zbioru danych ocena

Bardziej szczegółowo

07DRAP - Zmienne losowe: dyskretne i ciągłe

07DRAP - Zmienne losowe: dyskretne i ciągłe 07DRAP - Zmienne losowe: dyskretne i ciągłe Słynne rozkłady dyskretne Rozkład parametry P (X = k dla k = E(X Var(X uwagi ( dwumianowy n, p n k p k ( p n k 0,,, n np np( p liczba sukcesów w n próbach Bernoulliego

Bardziej szczegółowo

Redukcja wariancji w metodach Monte-Carlo

Redukcja wariancji w metodach Monte-Carlo 14.02.2006 Seminarium szkoleniowe 14 lutego 2006 Plan prezentacji Wprowadzenie Metoda losowania warstwowego Metoda próbkowania ważonego Metoda zmiennych kontrolnych Metoda zmiennych antytetycznych Metoda

Bardziej szczegółowo

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych 1. [E.A 5.10.1996/zad.4] Funkcja gęstości dana jest wzorem { 3 x + 2xy + 1 y dla (x y) (0 1) (0 1) 4 4 P (X > 1 2 Y > 1 2 ) wynosi:

Bardziej szczegółowo

Matematyka dyskretna - wykład - część Podstawowe algorytmy kombinatoryczne

Matematyka dyskretna - wykład - część Podstawowe algorytmy kombinatoryczne A. Permutacja losowa Matematyka dyskretna - wykład - część 2 9. Podstawowe algorytmy kombinatoryczne Załóżmy, że mamy tablice p złożoną z n liczb (ponumerowanych od 0 do n 1). Aby wygenerować losową permutację

Bardziej szczegółowo

b) Niech: - wśród trzech wylosowanych opakowań jest co najwyżej jedno o dawce 15 mg. Wówczas:

b) Niech: - wśród trzech wylosowanych opakowań jest co najwyżej jedno o dawce 15 mg. Wówczas: ROZWIĄZANIA I ODPOWIEDZI Zadanie A1. Można założyć, że przy losowaniu trzech kul jednocześnie kolejność ich wylosowania nie jest istotna. A więc: Ω = 20 3. a) Niech: - wśród trzech wylosowanych opakowań

Bardziej szczegółowo

STATYSTYKA. Rafał Kucharski. Uniwersytet Ekonomiczny w Katowicach 2015/16 ROND, Finanse i Rachunkowość, rok 2

STATYSTYKA. Rafał Kucharski. Uniwersytet Ekonomiczny w Katowicach 2015/16 ROND, Finanse i Rachunkowość, rok 2 STATYSTYKA Rafał Kucharski Uniwersytet Ekonomiczny w Katowicach 2015/16 ROND, Finanse i Rachunkowość, rok 2 Wybrane litery alfabetu greckiego α alfa β beta Γ γ gamma δ delta ɛ, ε epsilon η eta Θ θ theta

Bardziej szczegółowo

Podstawowe modele probabilistyczne

Podstawowe modele probabilistyczne Wrocław University of Technology Podstawowe modele probabilistyczne Maciej Zięba maciej.zieba@pwr.edu.pl Rozpoznawanie Obrazów, Lato 2018/2019 Pojęcie prawdopodobieństwa Prawdopodobieństwo reprezentuje

Bardziej szczegółowo

Wnioskowanie statystyczne. Statystyka w 5

Wnioskowanie statystyczne. Statystyka w 5 Wnioskowanie statystyczne tatystyka w 5 Rozkłady statystyk z próby Próba losowa pobrana z populacji stanowi realizacje zmiennej losowej jak ciąg zmiennych losowych (X, X,... X ) niezależnych i mających

Bardziej szczegółowo

Statystyka. Wydział Zarządzania Uniwersytetu Łódzkiego

Statystyka. Wydział Zarządzania Uniwersytetu Łódzkiego Statystyka Wydział Zarządzania Uniwersytetu Łódzkiego 2017 Zmienna losowa i jej rozkład Mając daną przestrzeń probabilistyczną, czyli parę (&, P) stanowiącą model pewnego doświadczenia losowego (gdzie

Bardziej szczegółowo

Laboratorium nr 7. Zmienne losowe typu skokowego.

Laboratorium nr 7. Zmienne losowe typu skokowego. Laboratorium nr 7. Zmienne losowe typu skokowego.. Zmienna losowa X ma rozkład dany tabelką: - 0 3 0, 0,3 0, 0,3 0, Naszkicować dystrybuantę zmiennej X. Obliczyć EX oraz VarX.. Zmienna losowa ma rozkład

Bardziej szczegółowo

PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA. Piotr Wiącek

PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA. Piotr Wiącek PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA Piotr Wiącek ROZKŁAD PRAWDOPODOBIEŃSTWA Jest to miara probabilistyczna określona na σ-ciele podzbiorów borelowskich pewnej przestrzeni metrycznej. σ-ciało podzbiorów

Bardziej szczegółowo

02DRAP - Aksjomatyczna definicja prawdopodobieństwa, zasada w-w

02DRAP - Aksjomatyczna definicja prawdopodobieństwa, zasada w-w 02DRAP - Aksjomatyczna definicja prawdopodobieństwa, zasada w-w A Zadania na ćwiczenia Zadanie A.1. Niech Ω = R oraz F będzie σ-ciałem generowanym przez rodzinę wszystkich przedziałów otwartych typu (,

Bardziej szczegółowo

Spacery losowe generowanie realizacji procesu losowego

Spacery losowe generowanie realizacji procesu losowego Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z

Bardziej szczegółowo

Algorytmy genetyczne w interpolacji wielomianowej

Algorytmy genetyczne w interpolacji wielomianowej Algorytmy genetyczne w interpolacji wielomianowej (seminarium robocze) Seminarium Metod Inteligencji Obliczeniowej Warszawa 22 II 2006 mgr inż. Marcin Borkowski Plan: Przypomnienie algorytmu niszowego

Bardziej szczegółowo

Rachunek prawdopodobieństwa- wykład 2

Rachunek prawdopodobieństwa- wykład 2 Rachunek prawdopodobieństwa- wykład 2 Pojęcie dyskretnej przestrzeni probabilistycznej i określenie prawdopodobieństwa w tej przestrzeni dr Marcin Ziółkowski Instytut Matematyki i Informatyki Uniwersytet

Bardziej szczegółowo

Prawdopodobieństwo warunkowe Twierdzenie o prawdopodobieństwie całkowitym

Prawdopodobieństwo warunkowe Twierdzenie o prawdopodobieństwie całkowitym Edward Stachowski Prawdopodobieństwo warunkowe Twierdzenie o prawdopodobieństwie całkowitym W podstawie programowej obowiązującej na egzaminie maturalnym od 05r pojawiły się nowe treści programowe Wśród

Bardziej szczegółowo

Rozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej

Rozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Zbiór możliwych wyników eksperymentu będziemy nazywać przestrzenią zdarzeń elementarnych i oznaczać Ω, natomiast

Bardziej szczegółowo

Prawdopodobieństwo

Prawdopodobieństwo Prawdopodobieństwo http://www.matemaks.pl/ Wstęp do rachunku prawdopodobieństwa http://www.matemaks.pl/wstep-do-rachunku-prawdopodobienstwa.html Rachunek prawdopodobieństwa pomaga obliczyć szansę zaistnienia

Bardziej szczegółowo

Wykład 13. Podstawowe pojęcia rachunku prawdopodobieństwa

Wykład 13. Podstawowe pojęcia rachunku prawdopodobieństwa Wykład 13. Podstawowe pojęcia rachunku prawdopodobieństwa dr Mariusz Grzadziel Katedra Matematyki, Uniwersytet Przyrodniczy we Wrocławiu semestr zimowy, rok akademicki 2015 2016 Doświadczenie losowe Doświadczenie

Bardziej szczegółowo

Rozkłady prawdopodobieństwa

Rozkłady prawdopodobieństwa Tytuł Spis treści Wersje dokumentu Instytut Matematyki Politechniki Łódzkiej 10 grudnia 2011 Spis treści Tytuł Spis treści Wersje dokumentu 1 Wartość oczekiwana Wariancja i odchylenie standardowe Rozkład

Bardziej szczegółowo

Wykład 2 Zmienne losowe i ich rozkłady

Wykład 2 Zmienne losowe i ich rozkłady Wykład 2 Zmienne losowe i ich rozkłady Magdalena Frąszczak Wrocław, 11.10.2017r Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe Doświadczenie

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład XIV: Metody Monte Carlo 19 stycznia 2016 Przybliżone obliczanie całki oznaczonej Rozważmy całkowalną funkcję f : [0, 1] R. Chcemy znaleźć przybliżoną wartość liczbową całki 1 f (x) dx. 0 Jeden ze

Bardziej szczegółowo

12DRAP - parametry rozkładów wielowymiarowych

12DRAP - parametry rozkładów wielowymiarowych DRAP - parametry rozkładów wielowymiarowych Definicja.. Jeśli h : R R, a X, Y ) jest wektorem losowym o gęstości fx, y) to EhX, Y ) = hx, y)fx, y)dxdy. Jeśli natomiast X, Y ) ma rozkład dyskretny skupiony

Bardziej szczegółowo

Elementy rachunku prawdopodobieństwa (M. Skośkiewicz, A. Siejka, K. Walczak, A. Szpakowska)

Elementy rachunku prawdopodobieństwa (M. Skośkiewicz, A. Siejka, K. Walczak, A. Szpakowska) Elementy rachunku prawdopodobieństwa (M. Skośkiewicz, A. Siejka, K. Walczak, A. Szpakowska) Twierdzenie (o mnożeniu) Podstawowe pojęcia i wzory kombinatoryczne. Niech,, będą zbiorami mającymi odpowiednio,,

Bardziej szczegółowo

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa Agata Boratyńska Agata Boratyńska Rachunek prawdopodobieństwa, wykład 2 i 3 1 / 19 Zmienna losowa Definicja Dana jest przestrzeń probabilistyczna

Bardziej szczegółowo

Wnioskowanie bayesowskie

Wnioskowanie bayesowskie Wnioskowanie bayesowskie W podejściu klasycznym wnioskowanie statystyczne oparte jest wyłącznie na podstawie pobranej próby losowej. Możemy np. estymować punktowo lub przedziałowo nieznane parametry rozkładów,

Bardziej szczegółowo

Data Mining Wykład 9. Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster. Plan wykładu. Sformułowanie problemu

Data Mining Wykład 9. Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster. Plan wykładu. Sformułowanie problemu Data Mining Wykład 9 Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster Plan wykładu Wprowadzanie Definicja problemu Klasyfikacja metod grupowania Grupowanie hierarchiczne Sformułowanie problemu

Bardziej szczegółowo

Metody probabilistyczne

Metody probabilistyczne Metody probabilistyczne 13. Elementy statystki matematycznej I Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 17.01.2019 1 / 30 Zagadnienia statystki Przeprowadzamy

Bardziej szczegółowo

Metody Statystyczne. Metody Statystyczne.

Metody Statystyczne. Metody Statystyczne. gkrol@wz.uw.edu.pl #4 1 Sprawdzian! 5 listopada (ok. 45-60 minut): - Skale pomiarowe - Zmienne ciągłe i dyskretne - Rozkład teoretyczny i empiryczny - Miary tendencji centralnej i rozproszenia - Standaryzacja

Bardziej szczegółowo

(C. Gauss, P. Laplace, Bernoulli, R. Fisher, J. Spława-Neyman) Wikipedia 2008

(C. Gauss, P. Laplace, Bernoulli, R. Fisher, J. Spława-Neyman) Wikipedia 2008 STATYSTYKA MATEMATYCZNA - dział matematyki stosowanej oparty na rachunku prawdopodobieństwa; zajmuje się badaniem zbiorów na podstawie analizy ich części. Nauka, której przedmiotem zainteresowania są metody

Bardziej szczegółowo

Rachunek prawdopodobieństwa dla informatyków

Rachunek prawdopodobieństwa dla informatyków Rachunek prawdopodobieństwa dla informatyków Adam Roman Instytut Informatyki UJ Wykład 1 rys historyczny zdarzenia i ich prawdopodobieństwa aksjomaty i reguły prawdopodobieństwa prawdopodobieństwo warunkowe

Bardziej szczegółowo

Odtwarzanie i przekazywanie jednostek dozymetrycznych

Odtwarzanie i przekazywanie jednostek dozymetrycznych Opracował Adrian BoŜydar Knyziak Politechnika Warszawska Wydział Mechatroniki Odtwarzanie i przekazywanie jednostek dozymetrycznych Opracowanie zaliczeniowe z przedmiotu "Metody i Technologie Jądrowe"

Bardziej szczegółowo

Rozkłady statystyk z próby. Statystyka

Rozkłady statystyk z próby. Statystyka Rozkłady statystyk z próby tatystyka Rozkłady statystyk z próby Próba losowa pobrana z populacji stanowi realizacje zmiennej losowej jak ciąg zmiennych losowych (X, X,... X ) niezależnych i mających ten

Bardziej szczegółowo

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014 Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014 Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe

Bardziej szczegółowo

Prawdopodobieństwo. Prawdopodobieństwo. Jacek Kłopotowski. Katedra Matematyki i Ekonomii Matematycznej SGH. 16 października 2018

Prawdopodobieństwo. Prawdopodobieństwo. Jacek Kłopotowski. Katedra Matematyki i Ekonomii Matematycznej SGH. 16 października 2018 Katedra Matematyki i Ekonomii Matematycznej SGH 16 października 2018 Definicja σ-algebry Definicja Niech Ω oznacza zbiór niepusty. Rodzinę M podzbiorów zbioru Ω nazywamy σ-algebrą (lub σ-ciałem) wtedy

Bardziej szczegółowo

+ r arcsin. M. Przybycień Rachunek prawdopodobieństwa i statystyka π r x

+ r arcsin. M. Przybycień Rachunek prawdopodobieństwa i statystyka π r x Prawdopodobieństwo geometryczne Przykład: Przestrzeń zdarzeń elementarnych określona jest przez zestaw punktów (x, y) na płaszczyźnie i wypełnia wnętrze kwadratu [0 x 1; 0 y 1]. Znajdź p-stwo, że dowolny

Bardziej szczegółowo

Temat: Zmienna losowa. Rozkład skokowy. Rozkład ciągły. Kody kolorów: Ŝółty nowe pojęcie pomarańczowy uwaga. Anna Rajfura, Matematyka

Temat: Zmienna losowa. Rozkład skokowy. Rozkład ciągły. Kody kolorów: Ŝółty nowe pojęcie pomarańczowy uwaga. Anna Rajfura, Matematyka Temat: Zmienna losowa. Rozkład skokowy. Rozkład ciągły Kody kolorów: Ŝółty nowe pojęcie pomarańczowy uwaga 1 Zagadnienia 1. Przypomnienie wybranych pojęć rachunku prawdopodobieństwa. Zmienna losowa. Rozkład

Bardziej szczegółowo

Rozkład normalny Parametry rozkładu zmiennej losowej Zmienne losowe wielowymiarowe

Rozkład normalny Parametry rozkładu zmiennej losowej Zmienne losowe wielowymiarowe Statystyka i opracowanie danych W4 Rozkład normalny Parametry rozkładu zmiennej losowej Zmienne losowe wielowymiarowe Dr Anna ADRIAN Paw B5, pok407 adan@agh.edu.pl Rozkład normalny wykres funkcji gęstości

Bardziej szczegółowo

zdarzenie losowe - zdarzenie którego przebiegu czy wyniku nie da się przewidzieć na pewno.

zdarzenie losowe - zdarzenie którego przebiegu czy wyniku nie da się przewidzieć na pewno. Rachunek prawdopodobieństwa Podstawowym celem rachunku prawdopodobieństwa jest określanie szans zajścia pewnych zdarzeń. Pojęcie podstawowe rachunku prawdopodobieństwa to: zdarzenie losowe - zdarzenie

Bardziej szczegółowo

Digraf. 13 maja 2017

Digraf. 13 maja 2017 Digraf 13 maja 2017 Graf skierowany, digraf, digraf prosty Definicja 1 Digraf prosty G to (V, E), gdzie V jest zbiorem wierzchołków, E jest rodziną zorientowanych krawędzi, między różnymi wierzchołkami,

Bardziej szczegółowo

Rachunek prawdopodobieństwa Rozdział 3. Prawdopodobieństwo warunkowe i niezależność zdarzeń.

Rachunek prawdopodobieństwa Rozdział 3. Prawdopodobieństwo warunkowe i niezależność zdarzeń. Rachunek prawdopodobieństwa Rozdział 3. Prawdopodobieństwo warunkowe i niezależność zdarzeń. 3.2. Niezależność zdarzeń Katarzyna Rybarczyk-Krzywdzińska Niezależność dwóch zdarzeń Intuicja Zdarzenia losowe

Bardziej szczegółowo

Prawdopodobieństwo i statystyka r.

Prawdopodobieństwo i statystyka r. Prawdopodobieństwo i statystyka 9.06.999 r. Zadanie. Rzucamy pięcioma kośćmi do gry. Następnie rzucamy ponownie tymi kośćmi, na których nie wypadły szóstki. W trzeciej rundzie rzucamy tymi kośćmi, na których

Bardziej szczegółowo

Zdarzenie losowe (zdarzenie)

Zdarzenie losowe (zdarzenie) Zdarzenie losowe (zdarzenie) Ćw. 1. Ze zbioru cyfr (l, 2,3,..., 9} losowo wybieramy jedną. a) Wypisz zdarzenia elementarne, sprzyjające: zdarzeniu A, że wybrano liczbę parzystą zdarzeniu B, że wybrano

Bardziej szczegółowo

Metody Rozmyte i Algorytmy Ewolucyjne

Metody Rozmyte i Algorytmy Ewolucyjne mgr inż. Wydział Matematyczno-Przyrodniczy Szkoła Nauk Ścisłych Uniwersytet Kardynała Stefana Wyszyńskiego Podstawowe operatory genetyczne Plan wykładu Przypomnienie 1 Przypomnienie Metody generacji liczb

Bardziej szczegółowo

Wykład Centralne twierdzenie graniczne. Statystyka matematyczna: Estymacja parametrów rozkładu

Wykład Centralne twierdzenie graniczne. Statystyka matematyczna: Estymacja parametrów rozkładu Wykład 11-12 Centralne twierdzenie graniczne Statystyka matematyczna: Estymacja parametrów rozkładu Centralne twierdzenie graniczne (CTG) (Central Limit Theorem - CLT) Centralne twierdzenie graniczne (Lindenberga-Levy'ego)

Bardziej szczegółowo

Weryfikacja hipotez statystycznych

Weryfikacja hipotez statystycznych Weryfikacja hipotez statystycznych Hipoteza Test statystyczny Poziom istotności Testy jednostronne i dwustronne Testowanie równości wariancji test F-Fishera Testowanie równości wartości średnich test t-studenta

Bardziej szczegółowo

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe Nierówność Czebyszewa Niech X będzie zmienną losową o skończonej wariancji V ar(x). Wtedy wartość oczekiwana E(X) też jest skończona i

Bardziej szczegółowo

Wstęp do programowania. Drzewa. Piotr Chrząstowski-Wachtel

Wstęp do programowania. Drzewa. Piotr Chrząstowski-Wachtel Wstęp do programowania Drzewa Piotr Chrząstowski-Wachtel Drzewa Drzewa definiują matematycy, jako spójne nieskierowane grafy bez cykli. Równoważne określenia: Spójne grafy o n wierzchołkach i n-1 krawędziach

Bardziej szczegółowo

Matematyka podstawowa X. Rachunek prawdopodobieństwa

Matematyka podstawowa X. Rachunek prawdopodobieństwa Matematyka podstawowa X Rachunek prawdopodobieństwa Zadania wprowadzające: 1. Rzucasz trzy razy monetą a) Napisz zbiór wszystkich wyników tego doświadczenia losowego. Ile ich jest? Wyrzuciłeś większą liczbę

Bardziej szczegółowo

Algorytmy Równoległe i Rozproszone Część V - Model PRAM II

Algorytmy Równoległe i Rozproszone Część V - Model PRAM II Algorytmy Równoległe i Rozproszone Część V - Model PRAM II Łukasz Kuszner pokój 209, WETI http://www.sphere.pl/ kuszner/ kuszner@sphere.pl Oficjalna strona wykładu http://www.sphere.pl/ kuszner/arir/ 2005/06

Bardziej szczegółowo

Wykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa

Wykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa Wykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa Marek Kubiak Instytut Informatyki Politechnika Poznańska Plan wykładu Podstawowe pojęcia rachunku prawdopodobieństwa Rozkład

Bardziej szczegółowo

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa Spis treści Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa Romuald Kotowski Katedra Informatyki Stosowanej PJWSTK 2009 Spis treści Spis treści 1 Wstęp Bardzo często interesujący

Bardziej szczegółowo

III. ZMIENNE LOSOWE JEDNOWYMIAROWE

III. ZMIENNE LOSOWE JEDNOWYMIAROWE III. ZMIENNE LOSOWE JEDNOWYMIAROWE.. Zmienna losowa i pojęcie rozkładu prawdopodobieństwa W dotychczas rozpatrywanych przykładach każdemu zdarzeniu była przyporządkowana odpowiednia wartość liczbowa. Ta

Bardziej szczegółowo

Ćwiczenia z metodyki nauczania rachunku prawdopodobieństwa

Ćwiczenia z metodyki nauczania rachunku prawdopodobieństwa Ćwiczenia z metodyki nauczania rachunku prawdopodobieństwa 25 marca 209 Zadanie. W urnie jest b kul białych i c kul czarnych. Losujemy n kul bez zwracania. Jakie jest prawdopodobieństwo, że pierwsza kula

Bardziej szczegółowo

MODELOWANIE STANÓW CZYNNOŚCIOWYCH W JĘZYKU SIECI BAYESOWSKICH

MODELOWANIE STANÓW CZYNNOŚCIOWYCH W JĘZYKU SIECI BAYESOWSKICH Inżynieria Rolnicza 7(105)/2008 MODELOWANIE STANÓW CZYNNOŚCIOWYCH W JĘZYKU SIECI BAYESOWSKICH Katedra Podstaw Techniki, Uniwersytet Przyrodniczy w Lublinie Streszczenie. Zastosowanie sieci bayesowskiej

Bardziej szczegółowo

51. Wykorzystywanie sumy, iloczynu i różnicy zdarzeń do obliczania prawdopodobieństw zdarzeń.

51. Wykorzystywanie sumy, iloczynu i różnicy zdarzeń do obliczania prawdopodobieństw zdarzeń. Matematyka lekcja 5 5. Wykorzystywanie sumy, iloczynu i różnicy zdarzeń do obliczania prawdopodobieństw zdarzeń. I. rzypomnij sobie:. Jak rysujemy drzewo stochastyczne i przy jego pomocy obliczamy prawdopodobieństwo

Bardziej szczegółowo

1 Warunkowe wartości oczekiwane

1 Warunkowe wartości oczekiwane Warunkowe wartości oczekiwane W tej serii zadań rozwiążemy różne zadania związane z problemem warunkowania.. (Eg 48/) Załóżmy, że X, X, X 3, X 4 są niezależnymi zmiennymi losowymi o jednakowym rozkładzie

Bardziej szczegółowo

Wybrane treści z rachunku prawdopodobieństwa w kontekście medycznym. M.Zalewska

Wybrane treści z rachunku prawdopodobieństwa w kontekście medycznym. M.Zalewska Wybrane treści z rachunku prawdopodobieństwa w kontekście medycznym M.Zalewska Podstawowe pojęcia Doświadczenie losowe obserwacja zjawiska, którego przebiegu nie umiemy w pełni przewidzieć. Możemy oceniać

Bardziej szczegółowo

Rachunek Prawdopodobieństwa i Statystyka Matematyczna

Rachunek Prawdopodobieństwa i Statystyka Matematyczna Rachunek rawdopodobieństwa i Statystyka Matematyczna rowadzący: prof. dr hab. inż. Ireneusz Jóźwiak Zestaw nr. Opracowanie: Grzegorz Drzymała 4996 Grzegorz Dziemidowicz 49965 drian Gawor 49985 Zadanie..

Bardziej szczegółowo

c) ( 13 (1) (2) Zadanie 2. Losując bez zwracania kolejne litery ze zbioru AAAEKMMTTY, jakie jest prawdopodobieństwo Odp.

c) ( 13 (1) (2) Zadanie 2. Losując bez zwracania kolejne litery ze zbioru AAAEKMMTTY, jakie jest prawdopodobieństwo Odp. Zadania na kolokwium nr Zadanie. Spośród kart w tali wylosowano. Jakie jest prawdopodobieństwo: pików, kierów, trefli i karo otrzymania wszystkich kolorów otrzymania dokładnie pików a ( b ( ( c ( ( ( (

Bardziej szczegółowo

L.Kowalski zadania z rachunku prawdopodobieństwa-zestaw 1 ZADANIA - ZESTAW 1. (odp. a) B A C, b) A, c) A B, d) Ω)

L.Kowalski zadania z rachunku prawdopodobieństwa-zestaw 1 ZADANIA - ZESTAW 1. (odp. a) B A C, b) A, c) A B, d) Ω) ZADANIA - ZESTAW 1 Zadanie 1.1 Rzucamy trzy razy monetą. A i - zdarzenie polegające na tym, że otrzymamy orła w i - tym rzucie. Określić zbiór zdarzeń elementarnych. Wypisać zdarzenia elementarne sprzyjające

Bardziej szczegółowo

8. Neuron z ciągłą funkcją aktywacji.

8. Neuron z ciągłą funkcją aktywacji. 8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i

Bardziej szczegółowo

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Niech Ω będzie przestrzenią zdarzeń elementarnych. Definicja 1 Rodzinę S zdarzeń losowych (zbiór S podzbiorów zbioru

Bardziej szczegółowo