Prawdopodobieństwo i statystyka

Podobne dokumenty
Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka

Statystyka i eksploracja danych

1 Wykład 3 Generatory liczb losowych o dowolnych rozkładach.

PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA

Literatura. Leitner R., Zacharski J., Zarys matematyki wyŝszej dla studentów, cz. III.

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa

Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna.

Rozkłady i ich dystrybuanty 16 marca F X (t) = P (X < t) 0, gdy t 0, F X (t) = 1, gdy t > c, 0, gdy t x 1, 1, gdy t > x 2,

Prawdopodobieństwo i statystyka

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

Jednowymiarowa zmienna losowa

Zmienne losowe. dr Mariusz Grządziel Wykład 12; 20 maja 2014

Kwantyle. Kwantyl rzędu p rozkładu prawdopodobieństwa to taka liczba x p. , że. Możemy go obliczyć z dystrybuanty: P(X x p.

AKADEMIA GÓRNICZO-HUTNICZA Wydział Matematyki Stosowanej ROZKŁAD NORMALNY ROZKŁAD GAUSSA

Metoda Monte Carlo i jej zastosowania

Generacja liczb pseudolosowych

PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA. Piotr Wiącek

Prawdopodobieństwo i statystyka

Prawa wielkich liczb, centralne twierdzenia graniczne

Wykład 3 Jednowymiarowe zmienne losowe

Generowanie ciągów pseudolosowych o zadanych rozkładach przykładowy raport

Wstęp do Rachunku Prawdopodobieństwa, IIr. WMS

Przestrzeń probabilistyczna

Przykłady do zadania 8.1 : 0 dla x 1, c x 4/3 dla x > 1. (b) Czy można dobrać stałą c tak, aby funkcja f(x) = była gęstością pewnego

Metody numeryczne. Wykład nr 12. Dr Piotr Fronczak

PRAWDOPODOBIEŃSTWO. ZMIENNA LOSOWA. TYPY ROZKŁADÓW

Modelowanie komputerowe

1 Wykład 4. Proste Prawa wielkich liczb, CTG i metody Monte Carlo

Funkcje charakterystyczne zmiennych losowych, linie regresji 1-go i 2-go rodzaju

Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu.

Statystyka i eksploracja danych

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty

Przegląd ważniejszych rozkładów

RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3.

Wykład 2 Zmienne losowe i ich rozkłady

Metody Rozmyte i Algorytmy Ewolucyjne

Ilustracja metody MONTE CARLO. obliczania całek podwójnych

4,5. Dyskretne zmienne losowe (17.03; 31.03)

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Dyskretne zmienne losowe

Biostatystyka, # 3 /Weterynaria I/

Zmienne losowe ciągłe i ich rozkłady

Zmienne losowe. dr Mariusz Grzadziel. rok akademicki 2016/2017 semestr letni. Katedra Matematyki, Uniwersytet Przyrodniczy we Wrocławiu

Podstawy symulacji komputerowej

Całkowanie metodą Monte Carlo

Rozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej

Zmienne losowe ciągłe i ich rozkłady

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski

KURS PRAWDOPODOBIEŃSTWO

Przykłady do zadania 3.1 :

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014

Wykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa

Rachunek prawdopodobieństwa i statystyka

Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe.

Rachunek prawdopodobieństwa (Elektronika, studia niestacjonarne) Wykład 3

Zestaw 2: Zmienne losowe. 0, x < 1, 2, 2 x, 1 1 x, 1 x, F 9 (x) =

Ważne rozkłady i twierdzenia

Modelowanie rynków finansowych z wykorzystaniem pakietu R

WSTĘP. Tematy: Regresja liniowa: model regresji liniowej, estymacja nieznanych parametrów. Wykład:30godz., ćwiczenia:15godz., laboratorium:30godz.

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Sieci Mobilne i Bezprzewodowe laboratorium 2 Modelowanie zdarzeń dyskretnych

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie

Prawdopodobieństwo i statystyka

Dystrybucje, wiadomości wstępne (I)

Algorytmy zrandomizowane

Elementy Rachunek prawdopodobieństwa

Metody numeryczne. materiały do wykładu dla studentów. 7. Całkowanie numeryczne

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

III. ZMIENNE LOSOWE JEDNOWYMIAROWE

Metody probabilistyczne

Rachunek Prawdopodobieństwa i Statystyka

FUNKCJE LICZBOWE. Na zbiorze X określona jest funkcja f : X Y gdy dowolnemu punktowi x X przyporządkowany jest punkt f(x) Y.

Prognozowanie i Symulacje. Wykład I. Matematyczne metody prognozowania

14a. Analiza zmiennych dyskretnych: ciągi liczbowe

Prawdopodobieństwo i statystyka r.

Liczby zespolone. x + 2 = 0.

zdarzenie losowe - zdarzenie którego przebiegu czy wyniku nie da się przewidzieć na pewno.

Matematyka z el. statystyki, # 3 /Geodezja i kartografia II/

dla t ściślejsze ograniczenie na prawdopodobieństwo otrzymujemy przyjmując k = 1, zaś dla t > t ściślejsze ograniczenie otrzymujemy przyjmując k = 2.

Pojęcie szeregu nieskończonego:zastosowania do rachunku prawdopodobieństwa wykład 1

Metoda Monte Carlo. Jerzy Mycielski. grudzien Jerzy Mycielski () Metoda Monte Carlo grudzien / 10

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych

Wykład 3 Momenty zmiennych losowych.

Wykład 3 Momenty zmiennych losowych.

N ma rozkład Poissona z wartością oczekiwaną równą 100 M, M M mają ten sam rozkład dwupunktowy o prawdopodobieństwach:

Z Wikipedii, wolnej encyklopedii.

Statystyka matematyczna

Przykłady do zadania 6.1 :

Z52: Algebra liniowa Zagadnienie: Zastosowania algebry liniowej Zadanie: Operatory różniczkowania, zagadnienie brzegowe.

Lista 5. Zadanie 3. Zmienne losowe X i (i = 1, 2, 3, 4) są niezależne o tym samym

Przykłady 6.1 : charakterystyki liczbowe rozkładów dyskretnych

3. Generacja liczb losowych o różnych rozkładach

Rachunek prawdopodobieństwa- wykład 6

P (A B) = P (A), P (B) = P (A), skąd P (A B) = P (A) P (B). P (A)

Spacery losowe generowanie realizacji procesu losowego

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Statystyka. Wydział Zarządzania Uniwersytetu Łódzkiego

Transkrypt:

Wykład XIV: Metody Monte Carlo 19 stycznia 2016

Przybliżone obliczanie całki oznaczonej Rozważmy całkowalną funkcję f : [0, 1] R. Chcemy znaleźć przybliżoną wartość liczbową całki 1 f (x) dx. 0 Jeden ze sposobów może wyglądać następująco. Niech U 1, U 2, U 3,... będzie ciągiem niezależnych zmiennych losowych o jednakowym rozkładzie U(0, 1) (jednostajnym na odcinku [0, 1]). Rozważmy ciąg średnich f (U 1 ) +... + f (U n ). n Z mocnego prawa wielkich liczb wynika, że f (U 1 ) +... + f (U n ) Ef (U 1 ), P - prawie wszędzie. n Zauważmy, że Ef (U 1 ) = + f (u)1i [0,1] dx = 1 0 f (x) dx.

Przybliżone obliczanie całki oznaczonej Wynika stąd, że wartości średnich są dla dużych n przybliżeniem poszukiwanej wartości całki. Oczywiście zawsze pozostaje otwarte pytanie, jak duże należy wybrać n, aby uzyskać odpowiednią dokładność przybliżenia. W powyższym przykładzie dużo lepsze wyniki dają deterministyczne metody numeryczne, dobrane odpowiednio do stopnia regularności funkcji f. Tak już nie jest w przypadku całkowania funkcji k zmiennych, k 10, gdzie stopień złożoności obliczeniowej gwałtownie rośnie.

Prosta metoda Monte Carlo Twierdzenie Niech f : [0, 1] k IR 1 będzie całkowalna. Niech U 1,..., U k, U k+1,..., U 2k, U 2k+1,..., U 3k, U 3k+1,..., U nk,..., będą niezależnymi zmiennymi losowymi o jednakowym rozkładzie U(0, 1). Wówczas f (U 1,..., U k ) + f (U k+1,..., U 2k ) +... + f (U (n 1)k+1,..., U nk ) n f ( x) d x P-prawie wszędzie. [0,1] k W powyższym wzorze [0,1] k f ( x) d x = 1 dx 1 1 0 0 1 dx 2... dx k f (x 1, x 2,..., x k ). 0

Uwagi i komentarze W praktyce metod Monte Carlo do obliczeń używany jest ciąg liczb u 1, u 2,..., u n,... uzyskany z generatora liczb losowych. W większości przypadków generator liczb losowych pracuje na podstawie deterministycznego algorytmu, a ciąg u 1, u 2,..., u n,... tylko naśladuje realizację X 1 (ω), X 2 (ω),..., X n (ω),... ciągu niezależnych zmiennych losowych o jednakowych rozkładach. Nie wszystkie generatory liczb losowych są w tym naśladownictwie dostatecznie dobre!

Inny problem Przypuśćmy, że rozkład ν zmiennej losowej X jest znany, ale nie potrafimy znaleźć na drodze analitycznej Ef (X ) dla pewnej funkcji f. Symulujemy więc ciąg X 1, X 2,..., niezależnych zmiennych losowych o rozkładzie ν i szukamy granicy dla f (X 1 ) + f (X 2 ) +... + f (X n ), n która równa się Ef (X 1 ) z prawa wielkich liczb. Na przykład chcemy symulować funkcjonowanie modelu systemu kolejkowego. Aby ocenić pewne charakterystyki liczbowe systemu musimy dysponować strumieniem danych o zadanym rozkładzie.

Symulacja rozkładu jednostajnego Niech F (x) = 1 e x, x > 0 (rozkład wykładniczy). To jest funkcja ciągła i ściśle rosnąca na IR +. Stąd istnieje funkcja odwrotna F 1 : [0, 1) IR +. Ze związku F ( F 1 (t) ) = t otrzymujemy a więc 1 t = e F 1 (t), F 1 (t) = log(1 t). Znajdziemy rozkład funkcji F 1 traktowanej jako zmienna losowa na standardowej przestrzeni probabilistycznej ( [0, 1], B[0,1), l ). Mamy {t [0, 1) ; F 1 (t) x } = { t [0, 1) ; t F (x) } l { t [0, 1) ; F 1 (t) x } = F (x), x > 0.

Symulacja rozkładu jednostajnego Wynika stąd, że jeśli U U(0, 1), to F 1 (U) = log(1 U) ma rozkład wykładniczy. Zauważmy, że log(1 U) log(u), a więc log U ma również rozkład wykładniczy. Twierdzenie Jeśli U 1, U 2,... jest ciągiem zmiennych losowych z generatora U(0, 1), to log U 1, log U 2, log U3,... jest ciągiem zmiennych losowych z generatora rozkładu Ex(1).

Metoda odwrócenia dystrybuanty Twierdzenie Jeśli dystrybuanta F : IR 1 [0, 1] jest ściśle rosnąca i ciągła na IR 1, to ciąg F 1 (U 1 ), F 1 (U 2 ),... pochodzi z generatora F. F 1 (U) jest zmienna losową o dystrybuancie F, pod warunkiem, że F jest ściśle rosnąca i ciagła na odcinku (F, F ), gdzie F = inf{x IR 1 ; F (x) > 0}, F = sup{x IR 1 ; F (x) < 1}. Używając tej metody, łatwo można symulować zmienne losowe o rozkładzie Pareto lub logistycznym. Nie istnieje zwarta formuła dla funkcji odwrotnej do Φ (dystrybuanty standardowego rozkładu normalnego). W tym przypadku dobre wyniki daje aproksymacja funkcjami wymiernymi (ilorazami wielomianów).

Metoda odwrócenia dystrybuanty Twierdzenie Niech X ma rozkład o dystrybuancie F. Definiujemy lewostronnie ciągłą odwrotną do F wzorem F (u) = inf{x ; F (x) u}. Jeżeli U 1, U 2, U 3,... jest ciągiem zmiennych z generatora rozkładu U(0, 1), to F (U 1 ), F (U 2 ), F (U 3 ),... jest ciągiem z generatora rozkładu o dystrybuancie F.

Symulacja rozkładów dyskretnych Przykład Niech X ma rozkład dyskretny skończony, tzn. istnieją liczby x 1 < x 2 <... < x m oraz p i > 0, x i IR 1, i = 1, 2,..., m, takie, że m i=1 p i = 1 i P ( X = x i ) = pi, i = 1, 2,..., m. Kładąc x 0 =, x m+1 = +, mamy F (x) = k p i = p i, jeśli x k x < x k+1, {i ; x i x} i=1 F (u) = m 1 k=0 gdzie A k+1 = ( k i=1 p i, k+1 i=1 p i ]. x k+1 1I Ak+1 (u), Powyższa metoda jest naiwna w tym sensie, że jeśli m jest wielkie (np. rzędu 10 100 ), to jest niewykonalna.

Metody specjalne Przykład: Symulacja rozkładu geometrycznego Niech X Ex(λ). Wtedy zmienna losowa [X ] przyjmuje wartości całkowite i dla k = 0, 1, 2,... mamy: P ( [X ] = k ) = P ( k X < k + 1 ) = F X (k + 1) F X (k) = 1 e λ(k+1) ( 1 e λk) = ( 1 e λ) e λk = (1 p) k p, gdy położymy p = 1 e λ. Stąd [X ] + 1 Ge(p).

Transformacja Boxa-Mullera Przykład: Metoda Boxa-Mullera Generujemy niezależnie U, V o rozkładzie jednostajnym U(0, 1). Wtedy wektor (X, Y ), gdzie ma rozkład łączny N(0, I 2 ). X = 2 ln U cos 2πV, Y = 2 ln U sin 2πV,

Metoda eliminacji Johna von Neumanna Niech f będzie gęstością rozkładu, który chcemy symulować. Zakładamy, że f : [a, b] IR +. i f (x) C, x [a, b]. We set B = { (x, u) [a, b] [0, C] ; u f (x) }. Algorytm: Metoda eliminacji 1 Generuj (X 1, U 1 ) U(a, b) U(0, C) 2 Jeśli (X 1, U 1 ) B, połóż X = X 1. 3 W przeciwnym przypadku generuj niezależnie nowa parę (X 2, U 2 ) U(a, b) U(0, C). 4 Jeśli (X 2, U 2 ) B, połóż X = X 2. 5 Jeśli nie, powtarzaj procedurę aż do skutku. Rozkład wygenerowanej zmiennej losowej X ma gęstość f. Rzeczywiście:

Metoda eliminacji Johna von Neumanna P ( X y ) = P ( (X 1, U 1 ) / B,..., (X k 1, U k 1 ) / B, (X k, U k ) k=1 = P ( (X 1, U 1 ) / B ) k 1 ( P (X1, U 1 ) B, X 1 y ) k=1 = P ( (X 1, U 1 ) B, X 1 y ) P ( (X 1, U 1 ) / B ) k 1 k=1 = P ( (X 1, U 1 ) B, X 1 y ) 1 1 P ( (X 1, U 1 ) / B ) = P( (X 1, U 1 ) B, X 1 y ) P ( (X 1, U 1 ) B ) = P ( X 1 y (X 1, U 1 ) B ) = y a f (x) dx.

Metoda eliminacji Johna von Neumanna Ważna własność Z prawdopodobieństwem jeden algorytm zakończy działanie w skończonym czasie.