Algorytm Metropolisa-Hastingsa
|
|
- Julia Dziedzic
- 6 lat temu
- Przeglądów:
Transkrypt
1 Seminarium szkoleniowe, 25 kwietnia 2006
2 Plan prezentacji 1 Problem Metoda MCMC 2 Niezależny algorytm Metropolisa-Hastingsa Bła dzenie losowe Zbieżność procedury Metropolisa-Hastingsa
3 Problem Metoda MCMC Przypuśćmy, ze interesuje nas oszacowanie wielkości: E π (h) = h(x)π(dx) = R d h(x)f π (x)dx, R d (1) gdzie π miara probabilistyczna określona na B(R d ), d N, f π : R d R gȩstość rozkładu π wzglȩdem miary Lebesque a, h : R d R funkcja mierzalna. Niech x (1), x (2),..., x (T ) bȩdzie próba losowa z rozkładu π. Wtedy za oszacowanie całki (1) przyjmujemy: h = 1 T T h(x (t) ). (2) t=1
4 Problem Metoda MCMC Przypuśćmy, ze interesuje nas oszacowanie wielkości: E π (h) = h(x)π(dx) = R d h(x)f π (x)dx, R d (1) gdzie π miara probabilistyczna określona na B(R d ), d N, f π : R d R gȩstość rozkładu π wzglȩdem miary Lebesque a, h : R d R funkcja mierzalna. Niech x (1), x (2),..., x (T ) bȩdzie próba losowa z rozkładu π. Wtedy za oszacowanie całki (1) przyjmujemy: h = 1 T T h(x (t) ). (2) t=1
5 Problem Metoda MCMC W praktyce czȩsto: nie potrafimy bezpośrednio generować liczb losowych z rozkładu π, metody generowania sa nieefektywne. Wtedy stosuje siȩ metody Monte Carlo oparte na łańcuchach Markowa, czyli tzw. metody MCMC (ang. Markov Chain Monte Carlo).
6 Problem Metoda MCMC W praktyce czȩsto: nie potrafimy bezpośrednio generować liczb losowych z rozkładu π, metody generowania sa nieefektywne. Wtedy stosuje siȩ metody Monte Carlo oparte na łańcuchach Markowa, czyli tzw. metody MCMC (ang. Markov Chain Monte Carlo).
7 Problem Metoda MCMC Definition Metoda Monte Carlo oparta na łańcuchu Markowa (metoda MCMC) symulacji zmiennej losowej o rozkładzie określonym przez gȩstość f π nazywamy każda metodȩ polegaja ca na wygenerowaniu ergodycznego łańcucha Markowa X (t), t = 1, 2,..., którego rozkładem stacjonarnym jest f π.
8 Problem Metoda MCMC Dla dowolnego punktu pocza tkowego x generowany jest jednorodny łańcuch Markowa X (t), t = 1, 2,..., z ja drem przejścia K (x, A) spełniaja cy warunki zbieżności według rozkładu łańcucha X (t) do zmiennej losowej o rozkładzie π. Przy założeniu ergodyczności łańcucha punkt pocza tkowy x jest w zasadzie nieistotny. Zatem dla dostatecznie dużego t można uważać, że X (t) ma rozkład określony przez π i X (t), X (t+1),... jest próba zależna pochodza ca z rozkładu π.
9 Problem Metoda MCMC Użycie łańcucha Markowa o stacjonarnym rozkładzie π, wygenerowanego przez algorytm MCMC do aproksymacji całek jest analogiczne do użycia próby niezależnych zmiennych losowych w tym sensie, że w przypadku metody MCMC zbieżność średniej empirycznej (2) do całki (1) zachodzi na podstawie twierdzenia ergodycznego.
10 Problem Metoda MCMC MCMC a MC Zwykła metoda MC może nie być efektywna w przypadku, gdy wymiar przestrzeni R d jest duży. Mianowicie, gdy d jest duże, zbieżność średniej empirycznej wymaga bardzo dużej liczby iteracji. W odróżnieniu od zwykłej metody MC, w metodzie MCMC wektory losowe X (1),..., X (T ) nie sa niezależne, lecz tworza łańcuch Markowa.
11 Problem Metoda MCMC MCMC a MC Zwykła metoda MC może nie być efektywna w przypadku, gdy wymiar przestrzeni R d jest duży. Mianowicie, gdy d jest duże, zbieżność średniej empirycznej wymaga bardzo dużej liczby iteracji. W odróżnieniu od zwykłej metody MC, w metodzie MCMC wektory losowe X (1),..., X (T ) nie sa niezależne, lecz tworza łańcuch Markowa.
12 Niech q(x, y) bȩdzie nieujemna funkcja mierzalna na R d R d określaja ca ja dro przejścia Q(x, A) pewnego jednorodnego łańcucha Markowa, tzn. Q(x, A) = A q(x, y)dy. polega na wygenerowaniu łańcucha Markowa X (t), t = 1, 2,..., o rozkładzie stacjonarnym z gȩstościa f π (zwana gestościa docelowa (ang. target density)) wykorzystuja c warunkowa gȩstość q(x, ) = q( x) (zwana gestościa pomocnicza (ang. instrumental density)) o znanej postaci, zgodnie z która możliwe jest efektywne przeprowadzenie symulacji.
13 Niech α(x, y) = { min { f π(y)q(x y) f, 1} π(x)q(y x), gdy f π (x)q(y x) > 0, 1, gdy f π (x)q(y x) = 0 (3) oraz k(x, y) = { q(x, y)α(x, y), gdy x y, 0, gdy x = y. (4) Ja dro przejścia łańcucha Markowa X (t) określone jest wzorem K (x, A) = k(x, y)dy + (1 k(x, y)dy)i A. A R d
14 . A1 1 dla danej wartości pocza tkowej X (t) = x wygenerować Y t q(x, y), 2 przyja ć X (t+1) = { Yt z prawdopodobieństwem α(x, Y t ), x z prawdopodobieństwem 1 α(x, Y t ). (5)
15 Z definicji k(x, y) i α(x, y) wynika, że łańcuch Markowa X (t) spełnia warunek (ang. detailed balance condition) dla każdego x, y R. f π (x)k(x, y) = f π (y)k(y, x) Zatem łańcuch Markowa z ja drem K (x, A) jest niezmienniczy. Można udowodnić, że łańcuch jest nieprzywiedlny, nieokresowy i powracalny w sensie Harrisa spełnia wszystkie założenia twierdzenia ergodycznego.
16 Z definicji k(x, y) i α(x, y) wynika, że łańcuch Markowa X (t) spełnia warunek (ang. detailed balance condition) dla każdego x, y R. f π (x)k(x, y) = f π (y)k(y, x) Zatem łańcuch Markowa z ja drem K (x, A) jest niezmienniczy. Można udowodnić, że łańcuch jest nieprzywiedlny, nieokresowy i powracalny w sensie Harrisa spełnia wszystkie założenia twierdzenia ergodycznego.
17 Oryginalna wersja algorytmu Metropolisa (1953) Jeśli gȩstość losuja ca q(x, y) jest symetryczna, tzn.dla każdego x, y R d q(x, y) = q(y, x), to prawdopodobieństwo akceptacji redukuje siȩ do postaci: α(x, y) = { min { f π(y) f, 1} π(x), gdy f π (x) > 0, 1, gdy f π (x) = 0. W tej sytuacji akceptowane jest każde przejście do stanu y dla którego f π (y) f π (x). (6)
18 Niezależny algorytm Metropolisa-Hastingsa Niezależny algorytm Metropolisa-Hastingsa generuje łańcuch Markowa o przejściach ze stanu x do stanu y = X (t+1) w przypadku, gdy gȩstość q nie zależy od X (t), tzn. jest postaci q(x, y) = g(y). Zbieżność łańcucha X (t) wynika z własności gȩstości g w tym sensie, że X (t) jest nieprzywiedlny i nieokresowy g jest prawie wszȩdzie dodatnia na nośniku funkcji f π.
19 . A2 1 dla danej wartości pocza tkowej X (t) = x wygenerować Y t g(y), 2 przyja ć gdzie X (t+1) = α(x, y) = { { Yt z prawdopodobieństwem α(x, Y t ), x z prawdopodobieństwem 1 α(x, Y t ), min { f π(y)g(x (t) ) f π(x)g(y t ), 1}, gdy f π (x (t) )g(y t ) > 0, 1, gdy f π (x (t) )g(y t ) = 0 (7) (8)
20 a algorytm eliminacji Oczekiwane prawdopodobieństwo akceptacji zmiennej generowanej zgodnie z rozkładem g jest wiȩksze w przypadku algorytmu M-H niż algorytmu eliminacji (ang. Accept-Reject algorithm). Lemma Jeśli istnieje stała M taka, że f π (x) < M g(x), x supp f, to, wartość oczekiwana prawdopodobieństwa akceptacji z algorytmu 2 jest nie mniejsza od 1 M w przypadku, gdy X (t) jest łańcuchem stacjonarnym.
21 Generowanie zmiennej losowej o rozkładzie Gamma Algorytm Gamma Metropolis-Hastings A.26 1 dla danej wartości pocza tkowej X (t) = x wygenerować Y t G( α, α /α), x (0) G(α, 1), 2 przyja ć X (t+1) = { Yt z prawdopodobieństwem α t, x z prawdopodobieństwem 1 α t, gdzie [ ( Y t α t = min exp x (t) x (t) Y t α )] α α, 1 (9) (10)
22 Algorytm Gamma Accept-Reject A.27 1 wygenerować Y G( α, α /α), 2 przyja ć X = Y z prawdopodobieństwem ( ) ey exp( y/α) α α (11) α
23
24
25 Bła dzenie losowe Outline Niech f π bȩdzie dowolna gȩstościa prawdopodobieństwa na R d. Niech g bȩdzie symetryczna gȩstościa prawdopodobieństwa na R d taka, że q(x, y) = g(y x), x, y R d oraz niech α(x, y) bȩdzie zadana wzorem jak w algorytmie 1. Nazwa bła dzenie losowe odnosi siȩ do sposobu określenia ja dra Q(x, A).
26 dla bła dzenia losowego 1 dla danej wartości pocza tkowej X (t) = x wygenerować Y t g(y x (t) ), 2 przyja ć X (t+1) = { Yt z prawdopodobieństwem α(x, Y t ), x z prawdopodobieństwem 1 α(x, Y t ), (12) gdzie { α(x, Y t ) = min 1, f } π(y t ) f π (x) (13)
27 Własności: procedura ma niezależnie od wyboru funkcji gȩstości g ten sam rozkład stacjonarny o gȩstości f π, zbieżność łańcucha Markowa zadanego ja drem K (x, A) do rozkładu stacjonarnego i jej szybkość zależa od wyboru funkcji g (zwykle gȩstość g przyjmujemy tak, by była wzglȩdnie blisko szukanego rozkładu π).
28 jest pewna modyfikacja procedury bła dzenia losowego. Niech a R d i niech B bȩdzie macierza o wymiarze d d. Przyjmujemy, że g(x, y) = g(y a B(x a) ) dlax, y R d oraz α(x, y) jest zadana jak w algorytmie 1. Jeśli macierz B jest identycznościa, a g jest symetryczna, to q(x, y) = g(y x) przypadek bła dzenia losowego. Jeśli a = 0, a B jest macierza zerowa, to q(x, y) = g(y) przypadek losowania niezależnego.
29 W procedurze M-H należy określić ja dro wstȩpne Q(x, A) i funkcjȩ akceptacji α(x, y). Ja dro wstȩpne i funkcjȩ akceptacji wybieramy tak, by rozkładem stacjonarnym ja dra K (x, A) byłz góry zadany rozkład π. Przez zbieżność procedury M-H rozumiemy zbieżność łańcucha Markowa o ja drze K (x, A) do rozkładu stacjonarnego.
30 Theorem Jeśli istnieja gȩstości f π i q dla x R d oraz dla dowolnych x, y R d spełniona jest implikacja f π (y) > 0 q(x, y) > 0 i ja dro K jest nieokresowe, to istnieje zbiór D B(R d ) taki, że π(d) = 1 i dla x D, przy n, zachodzi zbieżność K n (x, ) π TV 0, gdzie µ 1 µ 2 TV = sup A µ 1 (A) µ 2 (A) (ang. total variation norm).
31 Theorem Jeśli istnieje cia gła i dodatnia gȩstość f π oraz dla dowolnego x R d gȩstość q jest cia gła i dodatnia, to istnieje zbiór D B(R d ) taki, że π(d) = 1 i dla x D, przy n, zachodzi zbieżność K n (x, ) π TV 0.
32 Theorem Jeśli istnieja gȩstości f π i q określone dla przypadku losowania niezależnego oraz istnieje M > 0 takie, że f π (y) M g(y) dla każdego y R d, to K n (x, ) π TV 2(1 1 M )n dla każdego x R d. Dodatkowo, jeśli supremum istotne ze wzglȩdu na miarȩ π spełnia warunek sup ess{ g(y) y R d f π (y) } = 0, to zbieżność geometryczna nie zachodzi.
33 Przykład Outline Niech rozkład stacjonarny π bȩdzie rozkładem N(0, 1), czyli f π = 1 2π exp ( x 2 2 ), x R. Niech Q bȩdzie ja drem Markowa odpowiadaja ym losowaniu niezależnemu o rozkładzie normalnym N(1, 1), czyli q(x, y) = 1 ) (y 1)2 exp (, y R. 2π 2
34 Ponieważ dla x, y R f π (y)q(y, x) f π (x)q(x, y) = exp ( y 2 2 wiȩ funkcja akceptacji wynosi ) exp ( (x 1)2 2 ) exp ( x 2 (y 1)2 2 ) exp ( 2 ) α(x, y) = min{exp (x y), 1}, x, y R. = exp (x y), Zatem, jeśli x jest wylosowana wartościa pocza tkowa, a y jest wartościa wygenerowana z rozkładu N(0, 1), to 1 jeśli x y, to akceptujemy wartość x, 2 jeśli x < y, to losujemy wartości y z prawdopodobieństwem przyjȩcia równym exp (x y).
35 Ponieważ g(y) exp inf y R f π (y) = inf y R exp ( (y 1)2 2 ( y 2 2 ) ) = inf y R exp ( y 1 ) = 0, 2 wiȩc z tw. 3 procedura nie jest zbieżna geometrycznie.
36 Niech teraz Q bȩdzie ja drem Markowa odpowiadaja ym losowaniu niezależnemu o rozkładzie normalnym N(0, σ 2 ), σ 2 > 1. Wtedy dla y R a wiȩc dla dowolnego x R g(y) f π (y) = 1 exp [ y2 σ 2 ( 1 σ 2 1)] 1 σ, K n (x, ) f π TV (1 1 σ )n, czyli zbieżność jest zbieżnościa geometryczna. Dla y R funkcja akceptacji ma tutaj postać { [ 1 α(x, y) = min exp 2 (1 1 ] } σ 2 )(x 2 y 2 ), 1.
37 Appendix Outline Outline 1 Problem Metoda MCMC 2 Niezależny algorytm Metropolisa-Hastingsa Bła dzenie losowe Zbieżność procedury Metropolisa-Hastingsa
Algorytmy MCMC (Markowowskie Monte Carlo) dla skokowych procesów Markowa
Algorytmy MCMC (Markowowskie Monte Carlo) dla skokowych procesów Markowa Wojciech Niemiro 1 Uniwersytet Warszawski i UMK Toruń XXX lat IMSM, Warszawa, kwiecień 2017 1 Wspólne prace z Błażejem Miasojedowem,
Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa
Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa M. Czoków, J. Piersa 2012-01-10 1 Łańcucha Markowa 2 Istnienie Szukanie stanu stacjonarnego 3 1 Łańcucha Markowa 2 Istnienie Szukanie stanu stacjonarnego
Geometryczna zbieżność algorytmu Gibbsa
Geometryczna zbieżność algorytmu Gibbsa Iwona Żerda Wydział Matematyki i Informatyki, Uniwersytet Jagielloński 6 grudnia 2013 6 grudnia 2013 1 / 19 Plan prezentacji 1 Algorytm Gibbsa 2 Tempo zbieżności
Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova
Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova M. Czoków, J. Piersa 2010-12-21 1 Definicja Własności Losowanie z rozkładu dyskretnego 2 3 Łańcuch Markova Definicja Własności Losowanie z rozkładu
Algorytmy MCMC i ich zastosowania statystyczne
Algorytmy MCMC i ich zastosowania statystyczne Wojciech Niemiro Uniwersytet Mikołaja Kopernika, Toruń i Uniwersytet Warszawski Statystyka Matematyczna Wisła, grudzień 2010 Wykład 3 1 Łańcuchy Markowa Oznaczenia
Procesy stochastyczne
Wykład IV: dla łańcuchów Markowa 14 marca 2017 Wykład IV: Klasyfikacja stanów Kiedy rozkład stacjonarny jest jedyny? Przykład Macierz jednostkowa I wymiaru #E jest macierzą stochastyczną. Dla tej macierzy
Algorytmy MCMC i ich zastosowania statystyczne
Algorytmy MCMC i ich zastosowania statystyczne Wojciech Niemiro Uniwersytet Mikołaja Kopernika, Toruń i Uniwersytet Warszawski Statystyka Matematyczna Wisła, grudzień 2010 Wykład 2 1 Podstawowe idee symulacji
Wielowymiarowy próbnik Gibbsa
29.05.2006 Seminarium szkoleniowe 30 maja 2006 Plan prezentacji Slgorytm MH i PG przypomnienie wiadomości Wielowymiarowy PG Algorytm PG z dopełnieniem Odwracalny PG Modele hierarchiczne Modele hybrydowe
Wykład 9: Markov Chain Monte Carlo
RAP 412 17.12.2008 Wykład 9: Markov Chain Monte Carlo Wykładowca: Andrzej Ruciński Pisarz: Ewelina Rychlińska i Wojciech Wawrzyniak Wstęp W tej części wykładu zajmiemy się zastosowaniami łańcuchów Markowa
Prawdopodobieństwo i statystyka
Wykład VII: Metody specjalne Monte Carlo 24 listopada 2014 Transformacje specjalne Przykład - symulacja rozkładu geometrycznego Niech X Ex(λ). Rozważmy zmienną losową [X ], która przyjmuje wartości naturalne.
1 Wykład 3 Generatory liczb losowych o dowolnych rozkładach.
Wykład 3 Generatory liczb losowych o dowolnych rozkładach.. Metoda odwracania Niech X oznacza zmienna losowa o dystrybuancie F. Oznaczmy F (t) = inf (x : t F (x)). Uwaga Zauważmy, że t [0, ] : F ( F (t)
Prawdopodobieństwo i statystyka
Wykład XIII: Prognoza. 26 stycznia 2015 Wykład XIII: Prognoza. Prognoza (predykcja) Przypuśćmy, że mamy dany ciąg liczb x 1, x 2,..., x n, stanowiących wyniki pomiaru pewnej zmiennej w czasie wielkości
Algorytmy MCMC i ich zastosowania statystyczne
Algorytmy MCMC i ich zastosowania statystyczne Wojciech Niemiro Uniwersytet Mikołaja Kopernika, Toruń i Uniwersytet Warszawski Statystyka Matematyczna Wisła, grudzień 2010 Wykład 1 1 Co to jest MCMC? 2
Prawdopodobieństwo i statystyka
Wykład IV: 27 października 2014 Współczynnik korelacji Brak korelacji a niezależność Definicja współczynnika korelacji Współczynnikiem korelacji całkowalnych z kwadratem zmiennych losowych X i Y nazywamy
WYKŁAD 3. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki
WYKŁAD 3 Witold Bednorz, Paweł Wolff 1 Instytut Matematyki Uniwersytet Warszawski Rachunek Prawdopodobieństwa, WNE, 2010-2011 Schemmat Bernouliego Rzucamy 10 razy moneta, próba Bernouliego jest pojedynczy
2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.
Zadania z Procesów Stochastycznych 1 1. Udowodnij, że z prawdopodobieństwem 1 trajektorie procesu Poissona są niemalejące, przyjmują wartości z Z +, mają wszystkie skoki równe 1 oraz dążą do nieskończoności.
2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.
Zadania z Procesów Stochastycznych 1 1. Udowodnij, że z prawdopodobieństwem 1 trajektorie procesu Poissona są niemalejące, przyjmują wartości z Z +, mają wszystkie skoki równe 1 oraz dążą do nieskończoności.
Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.
Procesy stochastyczne WYKŁAD 2-3 Łańcuchy Markowa Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi. 2 Łańcuchem Markowa nazywamy proces będący ciągiem zmiennych
Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.
Procesy stochastyczne WYKŁAD 2-3 Łańcuchy Markowa Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi. Przykład Symetryczne błądzenie przypadkowe na prostej. 1 2 Łańcuchem
Prawdopodobieństwo i statystyka
Wykład VII: Rozkład i jego charakterystyki 22 listopada 2016 Uprzednio wprowadzone pojęcia i ich własności Definicja zmiennej losowej Zmienna losowa na przestrzeni probabilistycznej (Ω, F, P) to funkcja
Wykład 21 Funkcje mierzalne. Kostrukcja i własności całki wzglȩdem miary przeliczalnie addytywnej
Wykład 2 Funkcje mierzalne. Kostrukcja i własności całki wzglȩdem miary przeliczalnie addytywnej czȩść II (opracował: Piotr Nayar) Definicja 2.. Niech (E, E) bȩdzie przestrzenia mierzalna i niech λ : E
Metody probabilistyczne
Metody probabilistyczne. Twierdzenia graniczne Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 20.2.208 / 26 Motywacja Rzucamy wielokrotnie uczciwą monetą i zliczamy
Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie
Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie Jarosław Kotowicz Instytut Matematyki Uniwersytet w
Stacjonarne procesy gaussowskie, czyli o zwiazkach pomiędzy zwykła
Stacjonarne procesy gaussowskie, czyli o zwiazkach pomiędzy zwykła autokorelacji Łukasz Dębowski ldebowsk@ipipan.waw.pl Instytut Podstaw Informatyki PAN autokorelacji p. 1/25 Zarys referatu Co to sa procesy
Redukcja wariancji w metodach Monte-Carlo
14.02.2006 Seminarium szkoleniowe 14 lutego 2006 Plan prezentacji Wprowadzenie Metoda losowania warstwowego Metoda próbkowania ważonego Metoda zmiennych kontrolnych Metoda zmiennych antytetycznych Metoda
WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa
WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa Agata Boratyńska Agata Boratyńska Rachunek prawdopodobieństwa, wykład 2 i 3 1 / 19 Zmienna losowa Definicja Dana jest przestrzeń probabilistyczna
Spacery losowe generowanie realizacji procesu losowego
Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z
Prawdopodobieństwo i statystyka
Wykład XIV: Metody Monte Carlo 19 stycznia 2016 Przybliżone obliczanie całki oznaczonej Rozważmy całkowalną funkcję f : [0, 1] R. Chcemy znaleźć przybliżoną wartość liczbową całki 1 f (x) dx. 0 Jeden ze
Wykład 3 Jednowymiarowe zmienne losowe
Wykład 3 Jednowymiarowe zmienne losowe Niech (Ω, F, P ) będzie ustaloną przestrzenią probabilistyczną Definicja 1 Jednowymiarowa zmienna losowa (o wartościach rzeczywistych), określoną na przestrzeni probabilistycznej
Procesy Markowa zawdzięczają swoją nazwę ich twórcy Andriejowi Markowowi, który po raz pierwszy opisał problem w 1906 roku.
Procesy Markowa zawdzięczają swoją nazwę ich twórcy Andriejowi Markowowi, który po raz pierwszy opisał problem w 1906 roku. Uogólnienie na przeliczalnie nieskończone przestrzenie stanów zostało opracowane
Procesy stochastyczne
Wykład I: Istnienie procesów stochastycznych 2 marca 2015 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane są
WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty
WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty Agata Boratyńska Agata Boratyńska Rachunek prawdopodobieństwa, wykład 4 / 9 Przekształcenia zmiennej losowej X
Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.
Rachunek prawdopodobieństwa MAT1332 Wydział Matematyki, Matematyka Stosowana Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów. Warunkowa
Zadania do Rozdziału X
Zadania do Rozdziału X 1. 2. Znajdź wszystkie σ-ciała podzbiorów X, gdy X = (i) {1, 2}, (ii){1, 2, 3}. (b) Znajdź wszystkie elementy σ-ciała generowanego przez {{1, 2}, {2, 3}} dla X = {1, 2, 3, 4}. Wykaż,
Zadania z Rachunku Prawdopodobieństwa II Podaj przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,
Zadania z Rachunku Prawdopodobieństwa II -. Udowodnij, że dla dowolnych liczb x n, x, δ xn δ x wtedy i tylko wtedy, gdy x n x.. Wykaż, że n n k= δ k/n λ, gdzie λ jest miarą Lebesgue a na [, ].. Podaj przykład
1 Wykład 4. Proste Prawa wielkich liczb, CTG i metody Monte Carlo
1 Wykład 4. Proste Prawa wielkich liczb, CTG i metody Monte Carlo 1.1 Rodzaje zbieżności ciagów zmiennych losowych Niech (Ω, F, P ) będzie przestrzenia probabilistyczna na której określony jest ciag {X
Proces rezerwy w czasie dyskretnym z losową stopą procentową i losową składką
z losową stopą procentową i losową składką Instytut Matematyki i Informatyki Politechniki Wrocławskiej 10 czerwca 2008 Oznaczenia Wprowadzenie ξ n liczba wypłat w (n 1, n], Oznaczenia Wprowadzenie ξ n
Prawdopodobieństwo i statystyka
Wykład II: Zmienne losowe i charakterystyki ich rozkładów 13 października 2014 Zmienne losowe Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Definicja zmiennej losowej i jej
Procesy stochastyczne
Wykład I: Istnienie procesów stochastycznych 21 lutego 2017 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane
PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω)
PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω) określonych na tej samej przestrzeni probabilistycznej
Prawdopodobieństwo i statystyka
Wykład V: Zmienne losowe i ich wartości oczekiwane 25 października 2017 Definicja zmiennej losowej Definicja Zmienne losowa to charakterystyka liczbowa wyniku eksperymentu losowego. Zmienne losowa na przestrzeni
Elementy modelowania matematycznego
Elementy modelowania matematycznego Łańcuchy Markowa: zagadnienia graniczne. Ukryte modele Markowa. Jakub Wróblewski jakubw@pjwstk.edu.pl http://zajecia.jakubw.pl/ KLASYFIKACJA STANÓW Stan i jest osiągalny
Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład
Rozdział 1 Wektory losowe 1.1 Wektor losowy i jego rozkład Definicja 1 Wektor X = (X 1,..., X n ), którego każda współrzędna jest zmienną losową, nazywamy n-wymiarowym wektorem losowym (krótko wektorem
Statystyka matematyczna. Wykład III. Estymacja przedziałowa
Statystyka matematyczna. Wykład III. e-mail:e.kozlovski@pollub.pl Spis treści Rozkłady zmiennych losowych 1 Rozkłady zmiennych losowych Rozkład χ 2 Rozkład t-studenta Rozkład Fischera 2 Przedziały ufności
3. Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,
Zadania z Rachunku Prawdopodobieństwa II - Mówimy, że i) ciąg miar probabilistycznych µ n zbiega słabo do miary probabilistycznej µ (ozn. µ n µ), jeśli fdµ n fdµ dla dowolnej funkcji ciągłej ograniczonej
Oszacowania błędów estymatorów stosowanych w markowowskich metodach Monte Carlo
Uniwersytet Warszawski Wydział Matematyki, Informatyki i Mechaniki Błażej Miasojedow Oszacowania błędów estymatorów stosowanych w markowowskich metodach Monte Carlo rozprawa doktorska Promotor rozprawy
Testowanie hipotez statystycznych.
Bioinformatyka Wykład 6 Wrocław, 7 listopada 2011 Temat. Weryfikacja hipotez statystycznych dotyczących proporcji. Test dla proporcji. Niech X 1,..., X n będzie próbą statystyczną z 0-1. Oznaczmy odpowiednio
Zadania z Rachunku Prawdopodobieństwa III - 1
Zadania z Rachunku Prawdopodobieństwa III - 1 Funkcją tworzącą momenty (transformatą Laplace a) zmiennej losowej X nazywamy funkcję M X (t) := Ee tx, t R. 1. Oblicz funkcję tworzącą momenty zmiennych o
Wykłady ostatnie. Rodzinę P podzbiorów przestrzeni X nazywamy σ - algebrą, jeżeli dla A, B P (2) A B P, (3) A \ B P,
Wykłady ostatnie CAŁKA LBSGU A Zasadnicza różnica koncepcyjna między całką Riemanna i całką Lebesgue a polega na zamianie ról przestrzeni wartości i przestrzeni argumentów przy konstrukcji sum górnych
Rodzinę spełniającą trzeci warunek tylko dla sumy skończonej nazywamy ciałem (algebrą) w zbiorze X.
1 σ-ciała Definicja 1.1 (σ - ciało) σ - ciałem (σ - algebrą) w danym zbiorze X (zwanym przestrzenią) nazywamy rodzinę M pewnych podzbiorów zbioru X, spełniającą trzy warunki: 1 o M; 2 o jeśli A M, to X
Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014
Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014 Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe
Wykład 3 Momenty zmiennych losowych.
Wykład 3 Momenty zmiennych losowych. Wrocław, 18 października 2017r Momenty zmiennych losowych Wartość oczekiwana - przypomnienie Definicja 3.1: 1 Niech X będzie daną zmienną losową. Jeżeli X jest zmienną
Wykład 3 Momenty zmiennych losowych.
Wykład 3 Momenty zmiennych losowych. Wrocław, 19 października 2016r Momenty zmiennych losowych Wartość oczekiwana - przypomnienie Definicja 3.1: 1 Niech X będzie daną zmienną losową. Jeżeli X jest zmienną
Prawdopodobieństwo i statystyka
Wykład XV: Zagadnienia redukcji wymiaru danych 2 lutego 2015 r. Standaryzacja danych Standaryzacja danych Własności macierzy korelacji Definicja Niech X będzie zmienną losową o skończonym drugim momencie.
Janusz Adamowski METODY OBLICZENIOWE FIZYKI Kwantowa wariacyjna metoda Monte Carlo. Problem własny dla stanu podstawowego układu N cząstek
Janusz Adamowski METODY OBLICZENIOWE FIZYKI 1 Rozdział 20 KWANTOWE METODY MONTE CARLO 20.1 Kwantowa wariacyjna metoda Monte Carlo Problem własny dla stanu podstawowego układu N cząstek (H E 0 )ψ 0 (r)
F t+ := s>t. F s = F t.
M. Beśka, Całka Stochastyczna, wykład 1 1 1 Wiadomości wstępne 1.1 Przestrzeń probabilistyczna z filtracją Niech (Ω, F, P ) będzie ustaloną przestrzenią probabilistyczną i niech F = {F t } t 0 będzie rodziną
19 marzec, Łańcuchy Markowa z czasem dyskretnym. Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136
Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 19 marzec, 2012 Przykłady procesów Markowa (i). P = (p ij ) - macierz stochastyczna, tzn. p ij 0, j p ij =
Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory
Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory Dr Anna ADRIAN Paw B5, pok 407 adrian@tempus.metal.agh.edu.pl
Metody probabilistyczne opracowane notatki 1. Zdefiniuj zmienną losową, rozkład prawdopodobieństwa. Przy jakich założeniach funkcje: F(x) = sin(x),
Metody probabilistyczne opracowane notatki 1. Zdefiniuj zmienną losową, rozkład prawdopodobieństwa. Przy jakich założeniach funkcje: Fx sinx, Fx a e x mogą być dystrybuantami?. Podaj twierdzenie Lindeberga
2.1 Przykład wstępny Określenie i konstrukcja Model dwupunktowy Model gaussowski... 7
Spis treści Spis treści 1 Przedziały ufności 1 1.1 Przykład wstępny.......................... 1 1.2 Określenie i konstrukcja...................... 3 1.3 Model dwupunktowy........................ 5 1.4
Kwantyle. Kwantyl rzędu p rozkładu prawdopodobieństwa to taka liczba x p. , że. Możemy go obliczyć z dystrybuanty: P(X x p.
Kwantyle Kwantyl rzędu p rozkładu prawdopodobieństwa to taka liczba x p, że P(X x p ) p P(X x p ) 1 p Możemy go obliczyć z dystrybuanty: Jeżeli F(x p ) = p, to x p jest kwantylem rzędu p Jeżeli F(x p )
1 Gaussowskie zmienne losowe
Gaussowskie zmienne losowe W tej serii rozwiążemy zadania dotyczące zmiennych o rozkładzie normalny. Wymagana jest wiedza na temat własności rozkładu normalnego, CTG oraz warunkowych wartości oczekiwanych..
Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów
Rozdział : Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów W tym rozdziale omówione zostaną dwie najpopularniejsze metody estymacji parametrów w ekonometrycznych modelach nieliniowych,
Ważne rozkłady i twierdzenia c.d.
Ważne rozkłady i twierdzenia c.d. Funkcja charakterystyczna rozkładu Wielowymiarowy rozkład normalny Elipsa kowariacji Sploty rozkładów Rozkłady jednostajne Sploty z rozkładem normalnym Pobieranie próby
Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych
Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Niech Ω będzie przestrzenią zdarzeń elementarnych. Definicja 1 Rodzinę S zdarzeń losowych (zbiór S podzbiorów zbioru
WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 7 i 8 - Efektywność estymatorów, przedziały ufności
WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 7 i 8 - Efektywność estymatorów, przedziały ufności Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 7 i 8 1 / 9 EFEKTYWNOŚĆ ESTYMATORÓW, próba
Wykłady... b i a i. i=1. m(d k ) inf
Wykłady... CŁKOWNIE FUNKCJI WIELU ZMIENNYCH Zaczniemy od konstrukcji całki na przedziale domkniętym. Konstrukcja ta jest, w gruncie rzeczy, powtórzeniem definicji całki na odcinku domkniętym w R 1. Przedziałem
dla t ściślejsze ograniczenie na prawdopodobieństwo otrzymujemy przyjmując k = 1, zaś dla t > t ściślejsze ograniczenie otrzymujemy przyjmując k = 2.
Zadanie. Dla dowolnej zmiennej losowej X o wartości oczekiwanej μ, wariancji momencie centralnym μ k rzędu k zachodzą nierówności (typu Czebyszewa): ( X μ k Pr > μ + t σ ) 0. k k t σ *
Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe
Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe 4.4. Momenty zmiennych losowych Katarzyna Rybarczyk-Krzywdzińska Wprowadzenie Przykład 1 Rzucamy raz kostką Ile wynosi średnia liczba oczek, jaka
Wyk lad 11 1 Wektory i wartości w lasne
Wyk lad 11 Wektory i wartości w lasne 1 Wektory i wartości w lasne Niech V bedzie przestrzenia liniowa nad cia lem K Każde przekszta lcenie liniowe f : V V nazywamy endomorfizmem liniowym przestrzeni V
Robert Kowalczyk. Zbiór zadań z teorii miary i całki
Robert Kowalczyk Zbiór zadań z teorii miary i całki 2 Zadanie 1 Pokazać, że poniższe dwie definicje σ-ciała M są równoważne: (i) Rodzinę M podzbiorów przestrzeni X nazywamy σ-ciałem jeżeli zachodzą następujące
Statystyka i eksploracja danych
Wykład XII: Zagadnienia redukcji wymiaru danych 12 maja 2014 Definicja Niech X będzie zmienną losową o skończonym drugim momencie. Standaryzacją zmiennej X nazywamy zmienną losową Z = X EX Var (X ). Definicja
Statystyka. Wykład 2. Krzysztof Topolski. Wrocław, 11 października 2012
Wykład 2 Wrocław, 11 października 2012 Próba losowa Definicja. Zmienne losowe X 1, X 2,..., X n nazywamy próba losową rozmiaru n z rozkładu o gęstości f (x) (o dystrybuancie F (x)) jeśli X 1, X 2,...,
Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.
Rachunek prawdopodobieństwa MAP1181 Wydział PPT, MS, rok akad. 213/14, sem. zimowy Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.
zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych
zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych 1. [E.A 5.10.1996/zad.4] Funkcja gęstości dana jest wzorem { 3 x + 2xy + 1 y dla (x y) (0 1) (0 1) 4 4 P (X > 1 2 Y > 1 2 ) wynosi:
Prognozowanie i Symulacje. Wykład I. Matematyczne metody prognozowania
Prognozowanie i Symulacje. Wykład I. e-mail:e.kozlovski@pollub.pl Spis treści Szeregi czasowe 1 Szeregi czasowe 2 3 Szeregi czasowe Definicja 1 Szereg czasowy jest to proces stochastyczny z czasem dyskretnym
PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA
PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA 1. Trójkę (Ω, F, P ), gdzie Ω, F jest σ-ciałem podzbiorów Ω, a P jest prawdopodobieństwem określonym na F, nazywamy przestrzenią probabilistyczną. 2. Rodzinę F
Zadania o numerze 4 z zestawów licencjat 2014.
Zadania o numerze 4 z zestawów licencjat 2014. W nawiasie przy zadaniu jego występowanie w numerze zestawu Spis treści (Z1, Z22, Z43) Definicja granicy ciągu. Obliczyć granicę:... 3 Definicja granicy ciągu...
Wykład 11: Martyngały: definicja, twierdzenia o zbieżności
RAP 412 14.01.2009 Wykład 11: Martyngały: definicja, twierdzenia o zbieżności Wykładowca: Andrzej Ruciński Pisarz:Mirosława Jańczak 1 Wstęp Do tej pory zajmowaliśmy się ciągami zmiennych losowych (X n
Definicja 7.4 (Dystrybuanta zmiennej losowej). Dystrybuantą F zmiennej losowej X nazywamy funkcję: Własności dystrybuanty zmiennej losowej:
Definicja 7.4 (Dystrybuanta zmiennej losowej). Dystrybuantą F zmiennej losowej X nazywamy funkcję: F (t) P (X t) < t < Własności dystrybuanty zmiennej losowej: jest niemalejąca: 0 F (t) jest prawostronnie
Ćwiczenia: Ukryte procesy Markowa lista 1 kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II
Ćwiczenia: Ukryte procesy Markowa lista kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II dr Jarosław Kotowicz Zadanie. Dany jest łańcuch Markowa, który może przyjmować wartości,,...,
Szkice do zajęć z Przedmiotu Wyrównawczego
Szkice do zajęć z Przedmiotu Wyrównawczego Matematyka Finansowa sem. letni 2011/2012 Spis treści Zajęcia 1 3 1.1 Przestrzeń probabilistyczna................................. 3 1.2 Prawdopodobieństwo warunkowe..............................
Wstęp do sieci neuronowych, wykład 14 Maszyna Boltzmanna
do sieci neuronowych, wykład 14 Maszyna Boltzmanna M. Czoków, J. Piersa Faculty of Mathematics and Computer Science, Nicolaus Copernicus University, Toruń, Poland 2014-01-21 Problemy z siecią Hopfilda
Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe
Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe 4.0. Rozkłady zmiennych losowych, dystrybuanta. Katarzyna Rybarczyk-Krzywdzińska Wprowadzenie Rozważmy eksperymenty 1 gra Bolka w ruletkę w kasynie;
Seria 1. Zbieżność rozkładów
Seria Zbieżność rozkładów We wszystkich poniższych zadaniach (E, ρ) jest przestrzenią metryczną Wykazać, że dla dowolnych x, x n, δ xn δ x wtedy i tylko wtedy, gdy x n x Sprawdzić, że n nk= δ k n λ, gdzie
2. P (E) = 1. β B. TSIM W3: Sygnały stochastyczne 1/27
SYGNAŁY STOCHASTYCZNE Przestrzeń probabilistyczna i zmienna losowa Definicja Przestrzenią probabilistyczną (doświadczeniem) nazywamy trójkę uporządkowaną (E, B, P ), gdzie: E przestrzeń zdarzeń elementarnych;
RACHUNEK PRAWDOPODOBIE STWA
Jerzy Ombach RACHUNEK PRAWDOPODOBIE STWA WSPOMAGANY KOMPUTEROWO DLA STUDENTÓW MATEMATYKI STOSOWANEJ Wydawnictwo Uniwersytetu Jagielloƒskiego Seria Matematyka Książka finansowana przez Wydział Matematyki
Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1
Weryfikacja hipotez statystycznych KG (CC) Statystyka 26 V 2009 1 / 1 Sformułowanie problemu Weryfikacja hipotez statystycznych jest drugą (po estymacji) metodą uogólniania wyników uzyskanych w próbie
STATYSTYKA
Wykład 1 20.02.2008r. 1. ROZKŁADY PRAWDOPODOBIEŃSTWA 1.1 Rozkład dwumianowy Rozkład dwumianowy, 0 1 Uwaga: 1, rozkład zero jedynkowy. 1 ; 1,2,, Fakt: Niech,, będą niezależnymi zmiennymi losowymi o jednakowym
Ośrodkowość procesów, proces Wienera. Ośrodkowość procesów, proces Wienera Procesy Stochastyczne, wykład, T. Byczkowski,
Procesy Stochastyczne, wykład, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 27 luty, 2012 Ośrodkowość procesów Dalej zakładamy, że (Ω, Σ, P) jest zupełną przestrzenią miarową. Definicja.
jest ciągiem elementów z przestrzeni B(R, R)
Wykład 2 1 Ciągi Definicja 1.1 (ciąg) Ciągiem w zbiorze X nazywamy odwzorowanie x: N X. Dla uproszczenia piszemy x n zamiast x(n). Przykład 1. x n = n jest ciągiem elementów z przestrzeni R 2. f n (x)
Wykład 2 Zmienne losowe i ich rozkłady
Wykład 2 Zmienne losowe i ich rozkłady Magdalena Frąszczak Wrocław, 11.10.2017r Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe Doświadczenie
Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX = 4 i EY = 6. Rozważamy zmienną losową Z =.
Prawdopodobieństwo i statystyka 3..00 r. Zadanie Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX 4 i EY 6. Rozważamy zmienną losową Z. X + Y Wtedy (A) EZ 0,
Optymalizacja. Symulowane wyżarzanie
dr hab. inż. Instytut Informatyki Politechnika Poznańska www.cs.put.poznan.pl/mkomosinski, Maciej Hapke Wyżarzanie wzrost temperatury gorącej kąpieli do takiej wartości, w której ciało stałe topnieje powolne
Wartość oczekiwana Mediana i dominanta Wariancja Nierówności związane z momentami. Momenty zmiennych losowych Momenty wektorów losowych
Przykład(Wartość średnia) Otrzymaliśmy propozycję udziału w grze polegającej na jednokrotnym rzucie symetryczną kostką. Jeśli wypadnie 1 wygrywamy2zł,;jeśliwypadnie2,płacimy1zł;za3wygrywamy 4zł;za4płacimy5zł;za5wygrywamy3złiwreszcieza6
Informacja o przestrzeniach Hilberta
Temat 10 Informacja o przestrzeniach Hilberta 10.1 Przestrzenie unitarne, iloczyn skalarny Niech dana będzie przestrzeń liniowa X. Załóżmy, że każdej parze elementów x, y X została przyporządkowana liczba
Testowanie hipotez statystycznych. Wprowadzenie
Wrocław University of Technology Testowanie hipotez statystycznych. Wprowadzenie Jakub Tomczak Politechnika Wrocławska jakub.tomczak@pwr.edu.pl 10.04.2014 Pojęcia wstępne Populacja (statystyczna) zbiór,
1 Relacje i odwzorowania
Relacje i odwzorowania Relacje Jacek Kłopotowski Zadania z analizy matematycznej I Wykazać, że jeśli relacja ρ X X jest przeciwzwrotna i przechodnia, to jest przeciwsymetryczna Zbadać czy relacja ρ X X
Układy liniowo niezależne
Układy liniowo niezależne Mirosław Sobolewski Wydział Matematyki, Informatyki i Mechaniki UW 3.wykład z algebry liniowej Warszawa, październik 2016 Mirosław Sobolewski (UW) Warszawa, październik 2016 1