Uniwersytet im. Adama Mickiewicza Wydział Matematyki i Informatyki. Wykłady z Rachunku Prawdopodobieństwa 2

Wielkość: px
Rozpocząć pokaz od strony:

Download "Uniwersytet im. Adama Mickiewicza Wydział Matematyki i Informatyki. Wykłady z Rachunku Prawdopodobieństwa 2"

Transkrypt

1 Uniwersytet im. Adama Mickiewicza Wydział Matematyki i Informatyki Wykłady z Rachunku Prawdopodobieństwa Poznań, 008/009

2 Spis treści Wstęp Wykład : Prosty spacer losowy z barierami Wstęp Prosty spacer losowy Bariery pochłaniające Bariery odpychające Wykład : PSL metoda zliczania ścieżek Wstęp Zasada odbicia Powroty do osi Zagadnienie pierwszych odwiedzin Technika odwracania Wykład 3: Funkcje tworzące Dokończenie poprzedniego wykładu Funkcje tworzące Liczenie momentów Sumy zmiennych niezależnych Zastosowanie dla spacerów losowych Wykład 4: Funkcje tworzące. Procesy gałązkowe Wprowadzenie Funkcje tworzące (dokończenie) Moment pierwszych odwiedzin Czas przebywania na dodatniej półosi Procesy gałązkowe Wykład 5: Procesy gałązkowe. Łańcuchy Markowa Wprowadzenie Procesy gałązkowe (dokończenie) Geometryczny proces gałązkowy Łańcuchy Markowa Wykład 6: Klasyfikacja łańcuchów Markowa. Rozkłady stacjonarne Wstęp Rozkład początkowy Przykłady Klasyfikacja łańcuchów Markowa Rozkład stacjonarny Wykład 7: Rozkłady stacjonarne. Coupling Wstęp Postać rozkładu stacjonarnego Coupling

3 8. Wykład 8: Zbieżność poissonowska. Twierdzenie ergodyczne. Łańcuchy odwracalne Wstęp Dokończenie poprzedniego wykładu Odwracalne Łańcuchy Markowa Wykład 9: Markov Chain Monte Carlo Wstęp Idea MCMC Przykłady Przybliżone przeliczanie Wykład 0 i : Aproksymacja liczby kolorowań grafu Wstęp Dowód istnienia algorytmu RPTAS dla obliczania liczby q-kolorowań grafu Poprawienie oszacowania z Twierdzenia Wykład : Martyngały: definicja, twierdzenia o zbieżności Wstęp Warunkowa wartość oczekiwana Przypadek jednowymiarowy Przypadek wielowymiarowy Martyngały, definicja i przykłady Twierdzenia o zbieżności martyngałów Wykład : Martyngały: nierówność Hoeffdinga Wstęp Dowody twierdzeń z poprzedniego wykładu Nierówność Hoeffdinga Appendix A - Zadania domowe

4 Wstęp Niniejszy dokument jest zebraniem wykładów z Rachunku Prawdopodobieństwa odbywających się od października 008 do stycznia 009 na Wydziale Matematyki i Informatyki Uniwersytetu im. Adama Mickiewicza w Poznaniu. Wykład poruszał zagadnienia procesów losowych oraz ich zastosowań. W trakcie wykładu przedstawione zostały zagadnienia spacerów losowych, wykorzystania funkcji tworzących do procesów losowych, procesów gałązkowych, łańcuchów Markowa oraz ich wykorzystywaniu w algorytmach typu Monte Carlo, a także martyngałów. Wykład prowadzony był przez prof. Andrzeja Rucińskiego. Treść została spisana przez studentów i doktorantów uczestników wykładów. Osobami zaangażowanymi w powstanie tego opracowania były (w kolejności spisywania wykładów): Łukasz Michniewicz, Magdalena Musioł Marek Kaluba, Bartosz Naskręcki Krzysztof Krzywdziński, Paweł Wawrzyniak Tomasz Ciaś, Paweł Skórzewski Łukasz Witkowski, Marcin Witkowski Katarzyna Mieczkowska, Bartosz Zaleski Arkadiusz Buchelt, Przemysław Sokołowski Przemysław Rogowski, Tomasz Rzędowski Ewelina Rychlińska, Wojciech Wawrzyniak Adam Przestacki, Patryk Szczęśniewski Mirosława Jańczak Łukasz Waszak złożenie i korekta Rafał Witkowski pomoc przy korekcie Bartosz Naskręcki, Ewelina Rychlińska opieka merytoryczna Andrzej Ruciński 3

5 . Wykład : Prosty spacer losowy z barierami Wstęp Wyobraźmy sobie osobnika namiętnie oddającego się grze w rzut monetą. Za każdego wyrzuconego orła kasyno wypłaca mu $, natomiast za każdą wyrzuconą reszkę musi oddać $. Osobnik ten jest typem spod wyjątkowo ciemnej gwiazdy, dlatego też hazard nie jest jego jedynym nałogiem. Rzucając po raz kolejny monetą lubi topić swoją frustrację i nerwy w alkoholu, dlatego rzadko kiedy wraca do domu trzeźwy. Ze względu na swój stan wracając wykonuje losowo krok do przodu lub do tyłu z pewnymi prawdopodobieństwami (zakładamy, że możliwy jest powrót do domu po linii prostej chodzenie w stanie upojenia alkoholowego jest i tak wystarczająco trudne). Będziemy zastanawiać się między innymi nad tym jak prawdopodobne jest, że przegra on wszystkie przyniesione do kasyna pieniądze. Ponadto przekonamy się, że w pewnych okolicznościach, opuściwszy kasyno w stanie bachicznego natchnienia, nasz bohater najprawdopodobniej do niego powróci... Prosty spacer losowy Podczas tego wykładu będziemy zakładać, że X, X,... jest ciągiem niezależnych zmiennych losowych o jednakowym rozkładzie prawdopodobieństwa (zmienne takie oznaczamy w skrócie iid) takim, że dla każdego i N X i = {, z prawdopodobieństwem p, z prawdopodobieństwem q = p. Definicja.. Prostym spacerem losowym (oznaczanym PSL) nazywamy ciąg zmiennych losowych n S n = S 0 + X i, gdzie S 0 jest pewną stałą. Szczególny przypadek PSL dla p = q = nazywamy symetrycznym PSL (Pearson). Wniosek.. Jako oczywisty wniosek z definicji otrzymujemy następujący wzór rekurencyjny: S n+ = S n + X n+. Spacer losowy wygodnie jest reprezentować w postaci wykresu w dwuwymiarowym układzie współrzędnych. Oś odciętych oznacza wówczas czas, natomiast oś rzędnych pozycję 4

6 w spacerze losowym (Rysunek.). Wykres taki będziemy nazywać trajektorią spaceru losowego. Rysunek.. Trajektoria spaceru losowego. Twierdzenie.3 (Własności PSL). Niech S n będzie PSL. Zachodzą wówczas następujące własności:. Jednorodność przestrzenna.. Jednorodność czasowa. 3. Własność Markowa. P (S n = j S 0 = a) = P (S n = j + b S 0 = a + b) P (S n = j S 0 = a) = P (S m+n = j S m = a) P (S m+n = j S 0, S,...,S m ) = P (S m+n = j S m ) Dowód. ( n ) ( n ). P (S n = j S 0 = a) = P X i = j a = P X i = j + b a b = = P (S n = j + b S 0 = a + b) ( n ) ( n+m ). P (S n = j S 0 = a) = P X i = j a = P X i = j a = i=m+ = P (S m+n = j S m = a) 3. Jeżeli znamy wartość S m, to rozkład S m+n zależy tylko od wartości X m+,...x m+n. Odnosząc się do analogii ze wstępu, własność pierwszą można interpretować następująco: pijak wracający z baru chwieje się tak samo, niezależnie od tego gdzie się znajduje. Co więcej (własność druga), będzie on miał taki sam problem z zachowaniem kierunku marszu niezależnie od tego jak dawno opuścił bar (matematyka zajmuje się modelami idealnymi w związku z tym np. stan upojenia alkoholowego jest permanentny, przez co nie istnieje również kac). Porzuciwszy interpretację barową własność trzecią można skwitować filozoficznym stwierdzeniem przyszłość zależy od przeszłości tylko poprzez teraźniejszość. 5

7 .. Bariery pochłaniające Wyobraźmy sobie, że idziemy do kasyna z silnym postanowieniem zdobycia pieniędzy na samochód, który kosztuje $N (ponieważ samochody są drogie N będzie duże). Kasyno opuszczamy z chwilą wygrania założonej kwoty. Oczywiście nic tam po nas, jeśli wszystko przegramy wtedy nie pozostaje nic innego jak powrót do domu (na piechotę). W takich sytuacjach mówimy o spacerze losowym z barierami pochłaniającymi (lewą w 0 i prawą w N). Przykład.4. Gracz zaczyna grę z kapitałem k, 0 k N i kończy grę z chwilą wygrania kwoty N lub przegrania wszystkich pieniędzy. Interesuje nas prawdopodobieństwo bankructwa gracza. Niech A k oznacza zdarzenie, że gracz zaczynający z kapitałem k przegra wszystkie pieniądze, czyli dojdzie do 0 zanim dojdzie do N. Niech p k = P (A k ). Sformułowanie problemu podpowiada nam następujące warunki brzegowe: p 0 =, p N = 0. Wówczas dla k N mamy p k = P (A k X = )p + P (A k X = )q = pp (A k+ ) + qp (A k ) = pp k+ + qp k Dla tego równania rekurencyjnego otrzymujemy następujące równanie charakterystyczne: którego pierwiastkami są x = i x = q p. Rozważmy teraz dwa przypadki: (a) p q Z założenia mamy x x, zatem px x + q = 0, p k = Ax k + Bx k. Z warunków początkowych otrzymujemy układ równań { = A + B 0 = A + B ( q p Rozwiązanie układu równań daje nam wynik ( q p ) N ) k ( q p) N p k = ( q p ) N (b) p = q Z założenia mamy x = x =, zatem p k = A + Bk. Równie dobrze moglibyśmy pytać o prawdopodobieństwo wygrania pieniędzy na samochód, jednak będziemy przeważnie pytali o prawdopodobieństwo bankructwa. Prawdopodobnie wynika to z zawistnej natury ludzkiej. 6

8 Z warunków początkowych otrzymujemy układ równań { = A 0 = A + BN Rozwiązanie układu równań daje nam wynik p k = k N Przykład.5. Tym razem pytamy o oczekiwany czas gry z Przykładu.4. Niech H k oznacza liczbę kroków wykonanych do momentu osiągnięcia którejkolwiek z barier pod warunkiem, że zaczynamy w k oraz niech D k = E(H k ). Z warunków zadania mamy D 0 = D N = 0. Dla każdego k N mamy D k = E(H k X = )p + E(H k X = ) q = (D k+ + )p + (D k + )q = = pd k+ + qd k + Niech p q. Przypuśćmy, że rozwiązanie jest postaci D k = αk, gdzie α jest pewną stałą. Wówczas αk = pα(k + ) + qα(k ) + = kpα + pα + kqα qα + = αk + pα qα + pα qα + = 0 α = p Zatem D k = k p jest szczególnym rozwiązaniem równania D k = pd k+ + qd k +. Na podstawie Przykładu.4 wiemy, że rozwiązanie ogólne równania jednorodnego jest postaci A + B q p, zatem rozwiązanie naszego równania rekurencyjnego będzie postaci D k = Z warunków początkowych otrzymujemy k p + A + B { 0 = A + B ( ) q k p 0 = N p + A + B ( q p) N, a stąd A = B = ( p) N ( (q p ) N ) N ( (q ) ) N ( p) p 7

9 Zatem D k = k p + N N ( (q ) ) N ( (q ) ) N ( p) p ( p) p ( = k ( ) ) p + N q k ( (q ) ) N p ( p) p ( ) q k = p Zajmiemy się teraz przypadkiem symetrycznym, p = q =. Wówczas D k = D N k, a równanie rekurencyjne jest postaci D k D k = D k+ D k + Oznaczmy B k = D k D k. B k = B k+ + B = D B N = D N = D B = B N + (N ) D = D N = N B k = B N + (N k) = N k + D = B + D = N 3 + N = (N ) = D N Udowodnimy indukcyjnie, że D k = k(n k). D k = B k + D k = N k + + (k )(N k + ) = k(n k).3. Bariery odpychające Weźmy teraz pod uwagę następującą sytuację: grający ma bogatego wuja, który, w zależności od nastroju, przesyła z prawdopodobieństwem p siostrzeńcowi marnotrawnemu $ gdy ten przegra wszystkie swoje pieniądze. Mówimy wtedy, że dolna bariera jest odpychająca. Przykład.6. Niech S n będzie PSL z dolną barierą odpychającą, a górną pochłaniającą, czyli P (S n+ = S n = 0) = p, P (S n+ = 0 S n = 0) = q, co oznacza, że przy osiągnięciu 0 z prawdopodobieństwem p przejdziemy do, a z prawdopodobieństwem q = p zostaniemy w 0 (nie możemy zejść poniżej 0). Niech G k oznacza liczbę kroków wykonanych do momentu osiągnięcia górnej bariery pod warunkiem, że zaczynamy w k. Niech F k = E(G k ). Równanie rekurencyjne dla tego przykładu jest takie samo jak w Przykładzie.5, jednak z innymi warunkami początkowymi: F N = 0, F 0 = p(f + ) + q(f 0 + ).

10 . Wykład : PSL metoda zliczania ścieżek Wstęp Będziemy dalej studiować zachowania osobnika, którego grą zajmowaliśmy się na Wykładzie. Tym razem bardziej interesować nas będą jego pełne wrażeń wędrówki w stanie upojenia (np. zwycięstwo w kasynie). Dowiemy się, że jego kochająca (lub nie) żona może mieć spore problemy z odnalezieniem swojego męża jeśli go nie zastanie w kasynie, ponieważ w trakcie wędrówek, pomiędzy przegrywaniem kolejnych dolarów, odwiedza on wszystkich możliwych znajomych i nieznajomych. Ponadto dowiemy się w jaki sposób należy obstawiać zwycięstwo jednego z kandydatów w wyborach w trakcie kolejnego wyczytywania głosów, które otrzymali... Zasada odbicia Niech X, X,... będzie ciągiem niezależnych zmiennych losowych o jednakowym rozkładzie prawdopodobieństwa (iid): { z prawdopodobieństwem p X i = z prawdopodobieństwem q = p Rozważmy prosty spacer losowy S n = S 0 + Zakładając, że zaczynamy w punkcie S 0 = a możemy policzyć prawdopodobieństwo, że po n krokach znajdziemy się w punkcie b: ( ) P (S n = b S 0 = a) = p n+b a q n b+a n n+b a Jest tak, gdyż idąc z punktu a do b w n krokach niezależnie od trajektorii zawsze musimy wykonać tyle samo kroków w górę i tyle samo kroków w dół, trzeba jedynie wybrać ich pozycje. Wprowadźmy na chwilę zmienne pomocnicze: n X i r = n + b a, l = n b + a Wówczas to prawdopodobieństwo możemy zapisać następująco: ( ) ( ) n n P (S n = b S 0 = a) = p r q l = p r q l (..) r l 9

11 Wprowadźmy następujące oznaczenia: Liczbę wszystkich trajektorii (ścieżek) od a do b w n krokach będziemy oznaczać przez N n (a, b). Liczbę wszystkich trajektorii (ścieżek) od a do b w n krokach przecinających oś OX będziemy oznaczać przez N 0 n(a, b). Fakt.: N n (a, b) = ( ) n = r ( ) ( ) n n = n+b a l Zasada. (Zasada odbicia). Liczba wszystkich trajektorii od a do b, które przecinają oś OX, jest równa liczbie wszystkich trajektorii od a do b. Innymi słowy: N 0 n(a, b) = N n ( a, b) Dowód. Niech π będzie dowolną trajektorią z a do b. Przez (k π, 0) oznaczmy punkt pierwszego kontaktu π z osią OX. Niech π będzie trajektorią powstałą poprzez odbicie π względem OX na odcinku od 0 do (k π, 0). Wówczas π jest trajektorią od a do b, a powyższe przyporządkowanie bijekcją pomiędzy zbiorami N 0 n(a, b) i N n ( a, b) π (k π, 0) n π Rysunek.. Odbijanie ścieżki od (0,0) do (k π,0) Wniosek.3 (Whitworth 878 Ballot Theorem). Niech b > 0. Liczba ścieżek z (0, 0) do (n, b), które na odcinku < (, 0), (n, 0) > nie przecinają osi OX wynosi: ( ) b n n+b n 0

12 Dowód. Zauważmy, że pierwszy ruch musi być na pozycję (, ). Mamy zatem: = = N n (, b) Nn (, 0 b). = N n (, b) N n (, b). = ( ) ( ) n n = = (n + b ) (n + b + ) (n )! ( (n + b))!(n (n + b))! (n )! ( (n + b))!(n = (n + b))! (n )! ( (n + b) )!(n (n + b))! (n )! ( (n + b))!(n = (..) (n + b))! (n )!( (n + b)) (n + b)) = ( (n + b))!(n (n + b))! (n )!(n ( (n + b))!(n = (n + b))! = ( n (n + b) (n ) n! (n + b) ( (n + b))!(n = (n + b))! = b ( ) n n+b n Zadanie.4. Mamy dwóch kandydatów startujących w wyborach prezydenckich o imionach Kaczor i Donald. Kaczor otrzymał α głosów, a Donald β, gdzie (co skądinąd wiemy) α > β. Co więcej cały naród uczestniczył w następującej grze: w trakcie wieczoru wyborczego podczas wyczytywania (i liczenia) głosów oddanych na kandydatów, zakłady bukmacherskie pozwalają obstawiać (np. przez internet) zwycięzcę. Potrzebują jednak algorytmu (wszystko musi odbywać się w czasie rzeczywistym), który pozwoli im ustalić takie stawki, aby na tym zarobić. Na razie wiedzą jedynie jakie jest prawdopodobieństwo, że podczas wyczytywania głosów Kaczor będzie prowadził: P = #{Wszystkie ścieżki od (0, 0) do (α + β, α β) nie przecinające osi OX} #{Wszystkie ścieżki od (0, 0) do (α + β, α β)} = α β α + β.. Powroty do osi Można sobie postawić pytanie: jakie jest prawdopodobieństwo, że spacer poza kasynem będzie miał długość przynajmniej n? Wniosek.5. Jeśli S 0 = 0, to dla każdego n mamy: A stąd wynika, że również: P (S 0,...,S n 0, S n = b) = b n P (S n = b) P (S 0,...,S n 0) = n E( S n )

13 Dowód. Niech b > 0. Wtedy P (S 0,...,S n 0, S n = b).3 = b n N n(0, b)p n+b n b q Analogicznie możemy stwierdzić, że dla b < 0 zachodzi. = b n P (S n = b) P (S 0,...,S n 0, S n = b) = b n N n(0, b)p n b q n+b = b n P (S n = b) zatem ogólny wzór zapisujemy jako P (S 0,...,S n 0, S n = b) = b n P (S n = b) Czyli pierwsza równość została udowodniona. Drugą można pokazać przez następujące przejścia: P (S 0,...,S n 0) = b 0 P (S 0,...,S n 0, S n = b) = = b b n P (S n = b) = n E( S n ) Oznaczmy przez M n maksymalną wartość jaką osiągnie S i na odcinku do 0 do n: Dla S 0 = 0 mamy oczywiście M n 0. Twierdzenie.6. Dla każdego r mamy: P (M n r, S n = b) = M n = max 0 i n S i. { P (Sn = b) b r ( ) r b q p P (Sn = r b) b < r Wniosek.7. Dla p = q mamy: Dowód. P (M n r) = b P (M n r) = P (S n r) + P (S n r + ) P (M n r, S n = b).6 = = P (S n r) + c=r+ n P (S n = b) + b=r r b= ( ) q r b P (S n = r b) = p ( ) q c r P (S n = c) = P (S n r) + P (S n r + ) p

14 r (n, r b) b i π n Rysunek.. Odbicie symetryczne ścieżki względem prostej y = r Dowód Twierdzenia.6. Bez straty ogólności możemy przyjąć, że r i b < r. Niech N r n(0, b) oznacza liczbę ścieżek π z (0, 0) do (n, b), które przecinają prostą y = r. Ponadto niech i π = min (i,r) π {i} oznacza pierwszy moment czasu, w którym osiągnięta zostanie prosta y = r. Możemy symetrycznie odbić względem prostej y = r segment ścieżki dla i π x n. Tak określone przekształcenie wyznacza bijekcję między zbiorami. Wówczas: N r n(0, b) = N n (0, r b) P (M n r, S n = b). = Nn(0, r b)p n+b n b q = N n (0, r b)p ( n+r b ( ) q r b = P (S n = r b) p + b r ) q ( n r+b = + r b )..3. Zagadnienie pierwszych odwiedzin W niniejszym rozdziale opisane zostanie prawdopodobieństwo zdarzenia, że startując z (0, 0) osiągniemy punkt b > 0 po raz pierwszy w n-tym kroku. Definicja.8. Niech f b (n) oznacza prawdopodobieństwo, że startując z 0 trafimy w punkt b po raz pierwszy w n-tym kroku (n ). f b (n) = Twierdzenie.9 (Hitting time Theorem). { P (S0 = 0, S,...,S n < b, S n = b) b > 0 P (S 0 = 0, S,...,S n > b, S n = b) b < 0 f b (n) = b n P (S n = b) 3

15 Dowód. Ograniczymy się do dowodu dla b > 0. Dla b < 0 dowód przebiega analogicznie. f b (n).8 = P (M n = b, S n = b, S n = b) = = P (S n = b M n = b, S n = b ) P (M n = b, S n = b ) = = pp (M n = b, S n = b ) = = p [P (M n b, S n = b ) P (M n b, S n = b )] = [ ( ).6 q b (b ) = p P (M n b S n = b ) P (S n = b ) P (S n = b (b ))] = p [ ( ) ] q = p P (S n = b ) P (S n = b + ) = p ( ) ( ).. n = p p (n+b ) q n (n b) q p (n+b) q (n b ) = (n + b ) (n + b) (( ) ( )) n n = p (n+b) q (n b) = (n + b ) (n + b). = b n N n(0, b)p (n+b) q (n b) =.. = b n P (S n = b).3.. Technika odwracania Twierdzenie.9 jest w swojej tezie bardzo podobne do Wniosku.5. Podobieństwo to nie jest przypadkowe i poniżej zostanie przedstawiona technika (tzw. technika odwracania spaceru losowego), która pokaże, że w istocie oba te twierdzenia są dualne. Definicja.0 (Odwracanie spaceru losowego). Dla niezależnych zmiennych losowych X, X,... o jednakowym rozkładzie (iid) odwróceniem spaceru losowego (składającego się z n kroków): { } n {0, S, S,...,S n } = 0, X, X + X,..., X i nazywamy następujący spacer (n-krokowy): { {0, T, T,...,T n } = 0, X n, X n + X n,..., } n X i Zauważmy, że na podstawie powyższej definicji możemy przeformułować jedno twierdzenie w drugie. Czyli dla n i : S,...,S n 0, S n = b T n = b, T n T n i = X X i > 0 To oznacza, że pierwsza wizyta w b dla odwróconego spaceru nastąpi w chwili n, zatem: P (S,...,S n 0, S n = b) = f b (n) 4

16 wyjściowa ścieżka n odwrócona ścieżka Rysunek.3. Technika odwracania Zasadę tę można wykorzystać do obliczenia średniej liczby wizyt w b do pierwszego powrotu do 0. µ b = E(#wizyt w b przed pierwszym powrotem do 0) = ( ) = E I n = E(I n ) = P (I n = ) = P (S,...,S n 0, S n = b) = = n= n= f b (n) = P ( n : S n = b) n= n= n= gdzie I n jest zmienną indykatorową: { gdy S 0,...,S I n = n 0, S n = b 0 w pozostałych przypadkach a równość jest prawdziwa, gdyż zdarzenia określone w prawdopodobieństwie f b (n) są rozłączne. Powyższe uwagi prowadzą do następującego twierdzenia: Twierdzenie.. Jeśli p = q, to dla dowolnego b > 0 zachodzi µ b =. Powyższe rozważania można zinterpretować w następujący sposób: Rzucamy monetą aż liczba orłów zrówna się z liczbą reszek. Gracz dostaje wypłatę za każdym razem, gdy różnica między liczbą orłów i reszek wynosi b. Zgodnie z twierdzeniem, aby gra była sprawiedliwa, opłata za nią musi wynosić niezależnie od tego ile wynosi b.

17 3. Wykład 3: Funkcje tworzące Dokończenie poprzedniego wykładu Załóżmy, że S 0 = 0, p =. Niech T będzie spacerem odwrotnym do S, a T n oznacza czas ostatniej wizyty w punkcie 0 w ciągu pierwszych n kroków. Ponadto oznaczmy α n (k) = P (T n = k) oraz u k = P (S k = 0). Twierdzenie 3. (Prawo arcusa sinusa). α n (k) = u k u n k Przed rozpoczęciem dowodu zauważmy, że u k = P (S k = 0) = ( k k zatem dla dużych k i n k mamy ) ( α n (k) ) k 4πk (k) k e k ( πk k k e k ) k = πk, π k(n k). Ponadto zauważmy jak zachowuje się następująca dystrybuanta: ( ) Tn F T n (x) = P n n x = P (T n nx) π k(n k) k xn xn 0 dk π k(n k) = π arcsin( x). Jeśli przeformułujemy problem na język orłów i reszek, to mogą zadziwić nas następujące zaskoczątka : ) Intuicja podpowiada, że ostatnie zrównanie się liczby orłów i liczby reszek powinno mieć miejsce pod koniec eksperymentu, ale α n (k) = α n (n k). Dla przykładu mamy: ( P T n n ) = P (T n 90 ) 0 (n) 6

18 oraz P (T n n) = P (T n n) ) Intuicyjnym jest również, że powinno być dużo zrównań liczby orłów i reszek podczas eksperymentu, ale P (T n n) = (, P T n n ) ( ) 0 π arcsin 0 5. Dowód twierdzenia 3.. α n (k) = P (T n = k) = P (S k = 0, S k+... S n 0) = = P (S k = 0) P (S... S n k 0) = = P (S k = 0) P (S n k = 0) = = u k u n k gdzie pierwsza równość wynika z techniki odwracania spacerów losowych, a równość * wynika z zadania domowego Funkcje tworzące Definicja 3.. Funkcję G a (s) = a i s i nazywamy funkcją tworzącą dla danego ciągu a = (a 0, a,...). Funkcję a i s i E a (s) = i! nazywamy wykładniczą funkcją tworzącą dla danego ciągu a. Definicja 3.3. Splotem (konwolucją) danych dwóch ciągów a i b nazywamy taki ciąg c = a b, że n c n = a i b n i Ponadto jest jasne, że G c = G a G b. i=0 Przykład 3.4. Niech dane będą takie dwa skończone ciągi a i b, że a i = b i = ( n i) = an i, dla i = 0,,..., n. Niech c = a a, a zatem c k = k ( n i=0 i) dla k = 0,,..., n. Mamy wtedy czyli z definicji 3.3 dla każdego k = 0,,..., n. i=0 i=0 G c (s) = (G a (s)) = (( + s) n ) = ( + s) n = c k = ( ) n = k k i=0 7 ( )( ) n n, i k i n i=0 ( n i ) s i,

19 Definicja 3.5. Niech X Z będzie zmienną losową. Wówczas funkcję G X (s) = E ( s X) = i s i P (X = i) = i s i p i = G p (s) nazywamy funkcją tworzącą prawdopodobieństwa zmiennej losowej X. Przykład 3.6. Dla rozkładu Poissona: G(s) = e λ(s ) Przykład 3.7. Dla rozkładu geometrycznego 3... Liczenie momentów G(s) = ps s( p) Okazuje się, że funkcje tworzące są bardzo przydatne w liczeniu kolejnych momentów zmiennych losowych dyskretnych. Definicja 3.8. Spadającym iloczynem nazywać będziemy wartość (a) k = a! (a k)! Definicja 3.9. Wartość E((X) k ) będziemy nazywali k-tym momentem silniowym zmiennej losowej X. W terminach momentów silniowych można z łatwością opisać wariancję: V ar(x) = E((X) ) + E(X) (E(X)) Twierdzenie 3.0. Niech X będzie dyskretną zmienną losową o funkcji tworzącej G(s). Wtedy gdzie gdy promień zbieżności szeregu jest równy. E((X) k ) = G (k) (), G (k) () = lim s G (k) (s), Dowód. Niech s <. Po obliczeniu k-tej pochodnej mamy: G (k) (s) = ) s i k (i) k p i = E (s X k (X) k i Dla s z twierdzenia Abela dla szeregów nieskończonych mamy: G (k) () = lim s G (k) (s) = E((X) k ). 8

20 3... Sumy zmiennych niezależnych Funkcje tworzące ułatwiają także określanie rozkładów sum niezależnych zmiennych losowych. Jest tak dzięki prostej zależności opisanej w poniższym twierdzeniu. Twierdzenie 3.. Niech X, Y będą niezależnymi dyskretnymi zmiennymi losowymi. Wtedy G X+Y (s) = G X (s)g Y (s) Dowód. Z niezależności X i Y zmienne losowe s X i s Y są również niezależne, więc E ( s X s Y ) = E ( s X) E ( s Y ) Przykład 3.. Niech S n będzie zmienną losową o rozkładzie dwumianowym Bin(n, p). Wtedy oczywiście S n = n X i, gdzie X i są niezależnymi zmiennymi losowymi zero jedynkowymi przyjmującymi wartość z prawdopodobieństwem p i wartość 0 z prawdopodobieństwem q = p. Czyli dla dowolnego i mamy G Xi = s 0 q + s p = q + ps. Ostatecznie, korzystając z twierdzenia 3.: G Sn (s) = (G X (s)) n = (q + ps) n. A co jeśli zmienna losowa jest sumą losowej liczby niezależnych zmiennych losowych? Twierdzenie 3.3. Niech X, X,... będą niezależnymi zmiennymi losowymi o jednakowym rozkładzie (iid). Oznaczmy G Xi = G dla i =,.... Niech N {0,,,...} będzie zmienną losową niezależną od X, X,... oraz S = X + X X N. Przy tych oznaczeniach zachodzi równość G S (s) = G N (G(s)). Dowód. G S (s) = E ( s S) = E ( E ( s S N )). Czyli z niezależności zmiennych N i X, X,... oraz definicji wartości oczekiwanej: G S (s) = n = n = n = n E ( s S N = n ) P (N = n) = E ( s X +X +...+X n ) P (N = n) = E ( s X )... E ( s Xn) P (N = n) = (G (S)) n P (N = n) = 3.5 = G N (G (s)). 9

21 Przykład 3.4. Kura znosi N jaj, gdzie N jest zmienną losową o rozkładzie Poissona Po(λ). Z każdego z jaj z prawdopodobieństwem p wykluwa się kurczak, natomiast z prawdopodobieństwem q = p nie wykluwa się nic. Można zadać pytanie: Ile wykluje się kurcząt?. Będzie to pytanie o rozkład zmiennej losowej S = N X i. Skoro: oraz e λ λ i G N (s) = s i = e λ(s ) i! i=0 G Xi (s) = G(s) = q + ps więc z twierdzenia 3.3 G S (s) = G N (G (s)) = e λ(q+ps ) = e λp(s ). Czyli ostatecznie S ma rozkład Poissona Po(λp) Zastosowanie dla spacerów losowych Po obfitej jajecznicy możemy wyjść na spacer. W spacerze losowym o punkcie początkowym w zerze (S 0 = 0) zdefiniujmy czas, po którym po raz pierwszy wrócimy do punktu wyjścia, czyli: T 0 = min {S n = 0 : n }. Oczywiście T 0 {, 4,...} { }. Chcemy znaleźć rozkład tej zmiennej losowej. Wprowadźmy następujące oznaczenia: f 0 (0) = 0 f 0 (n) = P (T 0 = n) = P (S,...,S n 0, S n = 0), dla n p 0 (n) = P (S n = 0) Przy tych oznaczeniach zmienne losowe T 0 i S n mają funkcje tworzące: Twierdzenie 3.5. Następujące równości są prawdziwe: (a) P 0 = + P 0 F 0 (b) P 0 (s) = 4pqs (c) F 0 (s) = 4pqs P 0 (s) = F 0 (s) = p 0 (n)s n n=0 f 0 (n)s n n=0 Dowód. Udowodnijmy najpierw punkt (a) twierdzenia. Zauważmy, że dla dowolnego n p 0 (n) = n f 0 (k)p 0 (n k), k= 0

22 gdyż jeśli w k-tej chwili jesteśmy w punkcie wyjściowym, to tak, jak byśmy zaczynali spacer od nowa. Czyli, mówiąc nieformalnie, sumujemy po wszystkich momentach bycia wcześniej w zerze po raz pierwszy, a potem resetujemy czas. Korzystając z operacji splotu, funkcji tworzących P 0 i F 0 oraz pamiętając, że p 0 (0) = i f 0 (0) = 0 mamy: P 0 (s) = = = p 0 (n)s n = n=0 p 0 (n)s n = n= ( n ) f 0 (k)p 0 (n k) s n = n= ( m = k= f 0 (m )s m Punkt (b) twierdzenia wynika z tego, iż p 0 (n) = ) ( m =0 p 0 (m )s m ( ) n (pq) n. n/ Ostatecznie, korzystając z rozwiązania zadania domowego 3.6 mamy: p 0 (s) = 4pqs ) = F 0 (s)p 0 (s). Punkt (c), po prostych przeliczeniach, wynika bezpośrednio z (a) i (b). Wniosek 3.6. (i) Jeśli p = q = to z prawdopodobieństwem wrócimy do punktu wyjścia gdyż: (ii) Dla p = f 0 (n) = F 0 () = 4pq = (p q) = p q n= wartość oczekiwana czasu powrotu jest nieskończona, gdyż skoro: ( lim F 0(s) = lim ) 4pqs s = lim s s s s =, więc E(T 0 ) = F 0 () =.

23 4. Wykład 4: Funkcje tworzące. Procesy gałązkowe Wprowadzenie Kontynuując nasz spacer spróbujemy w sposób matematyczny spojrzeć na zjawisko déjà vu, wstąpimy do kasyna, by oddać się po raz kolejny dobrze nam znanej, lecz wciąż niezmiernie fascynującej grze w orła i reszkę, a kiedy w końcu wreszcie wyjdziemy na zero przyjrzymy się bliżej niezwykłej populacji monet. 4.. Funkcje tworzące (dokończenie) 4... Moment pierwszych odwiedzin Bywa tak, że wstępując do lokalu odnosimy wrażenie, że miejsce to jest nam dziwnie znajome znajome stoliki, znajome wnętrze, znajomy barman... zupełnie tak, jakbyśmy kiedyś już tu byli. Zaczynamy się wtedy zastanawiać: kiedy to było? Jeśli nie jest to tylko złudzenie (tzw. déjà vu), to w znalezieniu odpowiedzi na to pytanie może nam pomóc aparat funkcji tworzących. Niech f r (n) = P (S r,...,s n r, S n = r) oznacza prawdopodobieństwo, że punkt r osiągniemy po raz pierwszy w n-tym kroku. Funkcję tworzącą tego ciągu oznaczmy przez F r (s) = f r (n)s n. n= Zwróćmy uwagę, że może zachodzić F r () <, ponieważ może się zdarzyć, że nigdy nie osiągniemy punktu r (istnieją spacery, które nie docierają do r). Twierdzenie 4.. Zachodzą następujące równości: (a) F r (s) = (F (s)) r dla r. (b) F (s) = 4pqs qs. Intuicyjnie część (a) tego twierdzenia należy rozumieć w ten sposób, że aby dojść do punktu r musimy wpierw pokonać dystans jednego kroku w prawo, potem kolejny taki sam dystans i tak dalej ( krok po kroku albo inaczej ziarnko do ziarnka aż zbierze się miarka ).

24 Dowód twierdzenia 4.. (a) Znajdźmy prawdopodobieństwo, że w n-tym kroku po raz pierwszy pojawimy się w punkcie r. Dla r = teza jest oczywista. W dalszej części dowodu będziemy zakładać, że r >. Korzystając ze wzoru na prawdopodobieństwo całkowite otrzymujemy: n f r (n) = f (k)f r (n k) k= (aby dojść z zera do r, musimy najpierw dojść do punktu w k krokach, a następnie w n k krokach z punktu do punktu r). Po pomnożeniu obustronnie przez s n i zsumowaniu po n dostajemy n f r (n)s n = f (k)f r (n k)s n, n= n= k= co z kolei ze wzoru na mnożenie szeregów możemy dalej przekształcić na ( ) f r (n)s n = f r (i)s i f (j)s j, n= j= czyli F r (s) = F r (s)f (s). Postępując analogicznie dla F r (s), F r (s)... otrzymujemy tezę. (b) Niech zmienna losowa T r = min{n: S n = r} oznacza moment pierwszej wizyty w punkcie r. Prawdopodobieństwo, że do dojdziemy w pierwszym kroku, jest oczywiście równe P (T = ) = f () = p. Niech teraz n >. Ze wzoru na prawdopodobieństwo całkowite P (T = n) = P (T = n X = ) p + P (T }{{} = n X = ) q. =0 Prawdopodobieństwo P (T = n X = ) jest zerowe, gdyż, jeśli zrobiliśmy pierwszy krok w prawo, to znaczy, że przybyliśmy do punktu za wcześnie. Z kolei z jednorodności czasowej i przestrzennej (zobacz Twierdzenie.3) widać, że a stąd P (T = n X = ) = P (T = n S 0 = ) = P (T = n ), P (T = n) = P (T = n ) q, f (n) = f (n )q. 3

25 Po obustronnym pomnożeniu przez s n i zsumowaniu po n dostajemy f (n)s n = q f (n )s n n= n= n= f (n)s n f ()s = sq f (n )s n n= f (n)s n ps = sq f (n)s n n= n= F (s) ps = sqf (s) F (s) ps = qs (F (s)) qs (F (s)) F (s) + ps = 0 Powyższe równanie kwadratowe ma pierwiastki F (s) = 4pqs qs Ponieważ wiemy, że F (0) = 0, a z drugiej strony, F (s) = + 4pqs. qs + 4pqs F (0) = lim s 0 qs zatem należy odrzucić rozwiązanie F (0). Zostaje F (s) = 4pqs. qs =, Wniosek 4.. Prawdopodobieństwo, że spacer kiedykolwiek wejdzie na dodatnią stronę osi, wynosi { p q F () = = min, p }. q q Przypomnijmy Twierdzenie.9, które mówi, że f (n) = n P(S n = ). Podstawiając ten wynik do definicji funkcji tworzącej F r otrzymujemy F () = f (n) = n= n= n P(S n = ). Podejrzliwy umysł zastanawia się, czy otrzymane wyniki są sobie równe... 4

26 Czytelnikowi zostawiamy dowód tego faktu (jako zadanie domowe 4.3) oraz wskazówkę, że dla p = q i n = m : ( ) n F () = n+ n n= n = (m )! m!(m )! m. m= Wystarczy pokazać, że powyższa suma równa jest wyrażeniu ( ) ( ) m+ = =. m m= 4... Czas przebywania na dodatniej półosi Wstąpmy jeszcze na chwilę do kasyna. Tutaj krupier proponuje nam ciekawą grę. Rzucamy n razy pod rząd monetą. Ilekroć wyrzucimy orła, dostajemy dolara, zaś kiedy wyrzucimy reszkę, musimy jednego dolara oddać. Po skończonej grze wyszliśmy na zero wyrzuciliśmy tyle samo orłów, ile reszek. Mina nam trochę zrzedła liczyliśmy, że zyskamy choć dolara. Myśl ucieka nam do tych radosnych chwil, kiedy skończona przed chwilą gra jeszcze trwała, a my cieszyliśmy się przewagą naszych dzielnych orłów nad hordami podłych reszek... Jak długo trwały te szczęśliwe chwile? Jaki czas utrzymywaliśmy się nad kreską? Doświadczenie to można traktować jako prosty spacer losowy o długości n, który rozpoczął i zakończył się w zerze. Będziemy rozważać warunkową przestrzeń probabilistyczną pod warunkiem, że S n = 0. Niech zmienna losowa L n oznacza liczbę kroków pobytu na dodatniej półosi w czasie {,,...,n}. Za krok będziemy tym razem uważali przejście z jednego punktu do drugiego, przy czym, żeby uznać krok za dodatni, wystarczy, że dodatni będzie jego punkt początkowy bądź końcowy. Innymi słowy, dodatnimi krokami są te odcinki wykresu, które znajdują się nad osią odciętych. Zauważmy, że rozkład prawdopodobieństwa na tej przestrzeni warunkowej nie zależy od wartości p. Zauważmy również, że zmienna losowa L n może przyjmować tylko parzyste wartości (ze zbioru {0,,...,n}). Można by przypuszczać, że jej rozkład skupia się w połowie zakresu, tj. w okolicach n. Okazuje się jednak, że zachodzi następujące, sprzeczne z intuicją twierdzenie: Twierdzenie 4.3. Dla każdego k = 0,,...,n: P (L n = k S n = 0) = n + Dowód. Przyjmijmy w naszych rozważaniach, że p = q =. Niech s, t <. Bierzemy dwie funkcje tworzące: G n (s) = E ( s L n S n = 0 ) = n s k P (L n = k S n = 0), k=0 F 0 (s) = E(s T 0 ), gdzie T 0 oznacza czas pierwszego powrotu do zera. 5

27 Teraz (znienacka!) bierzemy następującą funkcję H(s, t) = Naszym celem będzie pokazanie, że Wówczas stanie się jasne, że n t n P (S n = 0) G n (s). n=0 G n (s) = s k n n + = k=0 k=0 n k=0 s k n +. s k P (L n = k S n = 0), a stąd (z porównania współczynników) wynika teza. Postawimy sobie teraz cel pomocniczy (podcel), którym będzie wykazanie, iż H(s, t) = H(s, t)(f 0(t) + F 0 (st)). Z własności funkcji tworzącej i wartości oczekiwanej (analog wzoru na prawdopodobieństwo całkowite) otrzymujemy: G n (s) = n E ( s L n S n = 0, T 0 = r ) P (T 0 = r S n = 0). r= Z jednorodności czasowej (Twierdzenie.3): E ( s L n S n = 0, T 0 = r ) = E ( s L n r S n r = 0 ) E ( s L r T 0 = r ) = = G n r (s) }{{} z definicji r k=0 ( s k P (L r = k T 0 = r) = G }{{} n r (s) + ) sr. jest niezerowe tylko dla k {0,r} Z kolei z jednorodności czasowej (Twierdzenie.3) i wzoru na prawdopodobieństwo warunkowe: P (T 0 = r S n = 0) = P (T 0 = r) P (S n r = 0). P (S n = 0) Po podstawieniu otrzymujemy: G n (s) = P (S n = 0) G n (s) = n ( G n r (s) + ) P (T0 = r) P (S n r = 0) sr P (S n = 0) n ( ) (G n r (s)p (S n r = 0)) ( + sr )P (T 0 = r) r= r= 6

28 Po obustronnym pomnożeniu przez t n i zsumowaniu po n dostajemy: t n P (S n = 0)G n (s) = n= n G n r (s)p (S n r = 0)t n ( + s r )P (T 0 = r) n= r= H(s, t) = = r= n=r r= m=0 co było naszym podcelem. Wyznaczamy: G n r (s)p (S n r = 0)t n r ( t r + (st) r) P (T 0 = r) = G m (s)p (S m = 0) t m ( t r + (st) r) P (T 0 = r) = } {{ } =H(s,t) ( = ) H(s, t) t r P (T 0 = r) + (st) r P (T 0 = r) = r= = H(s, t)(f 0(t) + F 0 (st)) r= H(s, t) = F 0 (t) F 0 (st) = t + s t = ( s t ) t = t ( s = ) = t n s n+ P(S n = 0) (n + )( s ). n=0 Wynika stąd, że: co było naszym celem. G n (s) = s n+ n + s = n + n k=0 s k 4.. Procesy gałązkowe Siedząc w kasynie (lub w jakiejś knajpie, do której zaniósł nas stamtąd jakiś spacer losowy) i dumając nad ostatnią monetą, która została nam w kieszeni, chcielibyśmy nieraz, żeby się nam ta moneta rozmnożyła. Wiemy, że w rzeczywistości prawdopodobieństwo takiego zdarzenia jest równe zero. Lecz gdyby tak puścić wodze wyobraźni i przyjąć, że z jednej monety powstaje kilka w każdym kolejnym pokoleniu i zmienne losowe opisujące liczbę dzieci każdej monety są niezależne oraz o jednakowym rozkładzie, to jakie byłoby prawdopodobieństwo, że w końcu uzbieralibyśmy na ten wymarzony samochód? 7

29 Powyższy proces jest przykładem procesu gałązkowego, zwanym też procesem Galtona -Watsona. Procesy gałązkowe modelują rozwój populacji (jednopłciowej, rozmnażającej się przez podzial, np. bakterii, ameb, monet, lub innych mikroorganizmów). Zmienne losowe Z n (przyjmujące nieujemne wartości) oznaczają liczbę osobników w n-tym pokoleniu. Przyjmujemy zawsze, że jest jeden protoplasta rodu, czyli Z 0 =. Jak już wspomnieliśmy, zmienne losowe opisujące ile dzieci ma każdy osobnik, są niezależne o jednakowym rozkładzie (iid). Główne pytanie pojawiające się w tym kontekście to: jaka jest szansa, że dana populacja przeżyje? Wprowadźmy następujące oznaczenie: Zachodzi następujące twierdzenie: Twierdzenie 4.4. Dowód. G n (s) = G Zn (s) = E ( s Zn). G m+n (s) = G n (G m (s)) = G m (G n (s)) = G(G(... G(s)...)). Z m+n = X + X X Zm, gdzie X i oznacza liczbę potomków i-tego osobnika z m-tego pokolenia po n pokoleniach (czyli w (m + n)-tym pokoleniu). Na podstawie Twierdzenia 3.3: Ponadto z Twierdzenia.3: Mamy więc: a stąd już dostajemy tezę. G m+n (s) = G m (G X (s)). G X (s) = G n (s) G n (s) = G (G n (s)) =... = G (G (...G (s)...)), Francis Galton (8-9) przyrodnik, antropolog i podróżnik angielski. Henry William Watson (87-903) matematyk angielski.

30 5. Wykład 5: Procesy gałązkowe. Łańcuchy Markowa. Wprowadzenie W pierwszej części dokończymy omawianie procesów gałązkowych udowadniając lemat o wartości oczekiwanej i wariancji zmiennej losowej procesu gałązkowego. Omówimy także tzw. geometryczny proces gałązkowy i prawdopodobieństwo wyginięciaw takim modelu. W drugiej części przejdziemy do zagadnienia łańcuchów Markowa przytaczając podstawowe definicje i własności. 5.. Procesy gałązkowe (dokończenie) Twierdzenie 4.4 dostarcza nam informacji o Z n, ale w praktyce wyznaczenie G n (s) może okazać się trudnym zadaniem. Możemy jednak wyznaczyć momenty zmiennej losowej Z n w funkcji wartości momentów zmiennej Z. Lemat 5.: Oznaczmy µ = E(Z ), σ = V ar(z ) wtedy { E(Z n ) = µ n, V ar(z n ) = nσ dla µ =, σ (µ n )µ n µ dla µ. Dowód. Różniczkując obustronnie równość G n (s) = G(G n (s)) w punkcie s = otrzymujemy µ n = E(Z n ) = µe(z n ). Rozwijając indukcyjnie równość µ n = µ µ n dostajemy µ n = µ n. Dwukrotnie różniczkując tę samą równość, otrzymujemy G n() = G ()G n () + G ()G n () korzystając z Twierdzenia 3.3 i rozwijając zależność otrzymujemy wynik Geometryczny proces gałązkowy Przedstawimy pewną intuicję na temat geometrycznych procesów gałązkowych na przykładzie historycznym. Przenieśmy się do średniowiecznej Japonii. Żyli tam mężni wojownicy zwani samurajami. Uważa się, że wprawny samuraj potrafił zabić przeciwnika już za pierwszym ciosem, ponoć nawet jednym cięciem przeciąć go na pół, wzdłuż od czubka głowy. Wyobraźmy sobie średniowieczną szkołę samurajów, w której każdy mistrz wybiera kolejno uczniów i przekazuje im całą swoją wiedzę. Z prawdopodobieństwem p wybrany uczeń jest 9

31 na tyle zdolny by pojąć nauki i w krótkim czasie samemu stać się mistrzem i nauczać innych. Niestety z prawdopodobieństwem q = p wybrany uczeń nie jest w stanie pojąć wszystkich tajników wiedzy i przestrzegać zasad kanonu bushido. Zrozpaczony mistrz popełnia wtedy seppuku, a uczeń zostaje wypędzony ze szkoły. Uważa się, że samurajowie wyginęli. Pozostaje pytanie: jakie mieli szanse by przetrwać? Przyrost w następnej populacji w takim modelu wyznaczony jest przez funkcję: P (Z = k) = qp k dla k 0, gdzie q = p Wtedy funkcja tworząca prawdopodobieństwa tej zmiennej losowej jest równa G(s) = q( ps), a wartość oczekiwana E(Z ) = p q. Indukcyjnie można pokazać, że : { n (n )s n+ ns dla p = q = G n (s) =, q[p n q n ps(p n q n )] dla p q. p n+ q n+ ps(p n q n ) Obiektem naszego zainteresowania będzie prawdopodobieństwo wyginięcia społeczeństwa żyjącego w takim modelu. Oznaczmy je przez η. Wówczas: η = P ( n : Z n = 0) = P {Z n = 0} Ponieważ ciąg zdarzeń mówiących o wyginięciu w danej chwili czasu tworzy ciąg wstępujący ({Z n = 0} {Z n+ = 0}), to ze skończonej addytywności otrzymujemy η = P {Z n = 0} = lim P (Z n = 0) n n Jakie jest prawdopodobieństwo, że konkretne Z n = 0? { n n+ dla p = q, P (Z n = 0) = G n (0) = q(p n q n ) dla p q. p n+ q n+ Przy przejściu z n mamy: lim P (Z n = 0) = n n { dla p q, q p dla p > q. Twierdzenie 5. (O wyginięciu). (a) Prawdopodobieństwo wyginięcia η jest równe najmniejszemu nieujemnemu pierwiastkowi równania s = G(s). (b) W szczególności η = { gdy µ < lub µ = i σ > 0, < gdy µ > lub µ = i σ = 0. 30

32 Uwaga 5.3. Zauważmy, że σ = 0 implikuje P (Z = µ) =, co daje η = 0 bo nikt nie może mieć zerowej liczby potomków. Dowód twierdzenia 5.. (a) Niech η n = P (Z n = 0) wtedy η jest pierwiastkiem ponieważ n η n = P (Z n = 0) = G n (0) 4.4 = G(G n (0)) = G(η n ) η = lim η n = lim G(η n ) ciągłość = G G( lim η n ) = G(η) n n n Pokażemy, że η jest najmniejszym pierwiastkiem. Niech ψ będzie nieujemnym pierwiastkiem równania s = G(s). Wtedy, ponieważ G jest niemalejące η = G(0) G(ψ) = ψ indukcyjnie stąd η = G(η ) G(ψ) = ψ <i n η i = G(η i ) G(ψ) = ψ n η n ψ lim n η n ψ (b) Przypadek (I) µ = G () > Rysunek 5.. przypadek µ < Na Rysunku 5.. µ jest współczynnikiem stycznej do G(s) w punkcie s =. Jak widać, w tym przypadku funkcja G(s) musi przecinać się z wykresem funkcji y = s poniżej punktu y = (ponieważ G(0) = η ) stąd z (a) η <. W przypadku gdy η = 0 mamy η = 0. Przypadek (II) µ = G () < 3

33 Rysunek 5.. przypadek µ < Na Rysunku 5.. µ jest współczynnikiem stycznej do G(s) w punkcie s =. Jak widać, w tym przypadku s = jest najmniejszym pierwiastkiem równania G(s) = s. Dla µ < z nierówności Markowa mamy: Czyli P (Z n = 0), a stąd η =. Przypadek (III) µ = P (Z n > 0) E(Z n ) = µ n ale µ n 0 bo µ < Rysunek 5.3. µ =, σ > 0 Rysunek 5.4. µ =, σ = 0 Przykład 5.4 (Zastosowania twierdzenia o wyginięciu dla geometrycznego procesu gałązkowego.). Szukamy rozwiązań równania G(s) = s. G(s) = q( ps) = s q = s ps 3

34 ps s + q = 0 Stąd = 4pq s, = ± p q p s = dla p q, s = q p dla p > q Jak widać uzyskaliśmy taki sam wynik jak przy bezpośrednim policzeniu prawdopodobieństwa wyginięcia dla tego procesu. Ten sam rezultat uzyskujemy także przy przeliczaniu prawdopodobieństwa dojścia do 0 w spacerze losowym startującym z o prawdopodobieństwie q ruchu w lewo i prawdopodobieństwie p pójścia w prawo. Możemy wyobrazić sobie następującą analogię: startujemy z (w naszym społeczeństwie mamy do czynienia z pojedynczą jednostką która mieszka w jednym domostwie). Każdy nowy potomek potrzebuje swojego własnego mieszkania, budujemy mu więc nowy dom. Nasz spacer losowy będzie liczył liczbę domów w wiosce. Rozpatrujemy każdego rodzica po kolei względem wieku. Kiedy wyróżniony osobnik umiera, po jego śmierci domostwo zostaje wyburzone z każdym pogrzebem więc liczba domostw w naszej wiosce zmniejsza się o jeden. Wyginięcie populacji oznaczać będzie, że w naszej wiosce nie pozostał żaden dom, co jest tożsame z dojściem do 0 w spacerze losowym. 5.. Łańcuchy Markowa Procesem Markowa nazywamy ciąg zmiennych losowych, w którym prawdopodobieństwo tego co się zdarzy zależy jedynie od stanu obecnego. W tym rozdziale zajmiemy się zagadnieniem łańcuchów Markowa, czyli procesów Markowa zdefiniowanych na dyskretnej przestrzeni stanów. Łatwo zauważyć, iż rozpatrywane poprzednio zagadnienia spacerów losowych, czy też procesów gałązkowych, są przykładami procesów Markowa. Oznaczmy przez X = (X 0, X,...) ciąg zmiennych losowych dyskretnych. Wartość zmiennej X n będziemy nazywać stanem łańcucha w chwili n. Zakładamy, że zbiór stanów S jest przeliczalny. Definicja 5.5. Mówimy, że X jest łańcuchem Markowa gdy spełnia własność Markowa. Tzn. n P (X n = s X 0 = x 0,...,X n = x n ) = P (X n = s X n = x n ) s,x 0,X,...,X n S Przykład 5.6. Wyobraźmy sobie, że jesteśmy na Florydzie i spacerujemy po bagnach, w których czają się bardzo głodne aligatory. W trosce o własne życie musimy więc przemieszczać się po ściśle wyznaczonych (przez drewniane bale) ścieżkach wytyczonych pomiędzy kolejnymi punktami. Na każdym rozwidleniu w sposób losowy podejmujemy decyzję, w którym kierunku się udamy. Spójrzmy na przykładowe rozmieszczenie takich bal i ścieżek na Rysunku 5.6. Oznaczmy przez X n indeks wierzchołka, w którym znajdziemy się w czasie n. Wtedy (X 0, X,...) 33

35 4 3 Rysunek 5.5. Przykładowy graf ścieżek i połączeń będzie ciągiem zmiennych losowych o wartościach ze zbioru {,, 3, 4}. Załóżmy, że startujemy w punkcie. Mamy wówczas P (X 0 = ) =. Następnie z prawdopodobieństwem przemieszczamy się do kolejnych wierzchołków: P (X = ) = oraz P (X = 4) = Załóżmy, że w czasie n znajdziemy się w wierzchołku. Otrzymamy wtedy: P (X n+ = X n = ) = oraz P (X n+ = 3 X n = ) = Zauważmy teraz, że gdybyśmy rozpatrzyli całą historię spaceru, otrzymane prawdopodobieństwa nie zmienią się: P (X n+ = X 0 = i 0, X = i,...,x n = i n, X n = ) = oraz P (X n+ = 3 X 0 = i 0, X = i,...,x n = i n, X n = ) = bez względu na wybór i 0,...,i n. Jest to znak że podany proces spełnia warunek Markowa. Dla każdego łańcucha Markowa można określić tzw. macierz przejść. Definicja 5.7. Niech P będzie macierzą o wymiarach (k k) i elementach {p ij : i, j =,...,k}. Ciąg zmiennych losowych (X 0, X,...) o wartościach ze skończonego zbioru stanów S = {s,...,s k } nazywamy procesem Markowa z macierzą przejść P, jeżeli dla każdego n, dowolnych i, j {,...,k} i wszystkich i 0,...,i n {,...,k} mamy: P ( X n+ = s j X 0 = s i0, X = s i,...,x n = s in, X n = s i ) = P (Xn+ = s j X n = s i ) = p ij W przykładzie 5.6 macierz przejścia przyjmie postać: P = Obserwacja 5.8. Elementy macierzy przejść (p ij ) i,j=,...,k spełniają następujące własności : 34

36 (i) n p ij = P (X n+ = s j X n = s i ) (ii) p ij 0 dla każdych i, j {,...,k} (iii) p ij = i j Zauważmy, że na postać łańcucha Markowa duży wpływ ma miejsce rozpoczęcia procesu i rozkład prawdopodobieństwa dla punktu wyjścia. Definicja 5.9. Łańcuch Markowa nazywamy jednorodnym gdy w każdej chwili czasu opisuje go ta sama macierz przejść. Łańcuch nazywamy niejednorodnym w przypadku gdy opisuje go ciąg niejednakowych macierzy. Definicja 5.0. Macierz przejść w n krokach z m do m + n definiujemy następująco: gdzie P(m, n + m) = (p ij (m, m + n)) (k k) p ij (m, m + n) = P (X m+n = j X m = i) Obserwacja 5.. Z przypadku gdy łańcuch jest jednorodny możemy przyjąć, że P(m, m+ ) = P. Twierdzenie 5. (Chapmana - Kołmogorowa). Dla jednorodnych łańcuchów Markowa zachodzi równość: n m P(m, m + n) = P n Dowód. Korzystamy ze wzoru na prawdopodobieństwo całkowite w przestrzeni warunkowej p ij (m, m + n + r) 5.0 = k S p ik (m, m + n)p kj (m + n, m + n + r) } {{ } tworzą układ zupełny zdarzeń Powyższa równość to nic innego jak mnożenie macierzy, więc: P(m, m + n + r) = P(m, m + n) P(m + n, m + n + r) = P n P r = P n+r Cofając się indukcyjnie otrzymujemy: P(m, m + n) = P n

37 6. Wykład 6: Klasyfikacja łańcuchów Markowa. Rozkłady stacjonarne. Wstęp Na ostatnim wykładzie dowiedzieliśmy się czym są łańcuchy Markowa oraz poznaliśmy podstawowe zagadnienia z nimi związane (jednorodność, macierze przejść, Twierdzenie Chapmana-Kołmogorowa). W pierwszej części tego wykładu omówimy zagadnienie stanu początkowego oraz dokonamy fragmentarycznej klasyfikacji łańcuchów Markowa ze względu na relacje zachodzące między poszczególnymi stanami. Na końcu zajmiemy się badaniem rozkładu stacjonarnego oraz przytoczymy twierdzenie o zbieżności łańcuchów. 6.. Rozkład początkowy W badaniu łańcuchów Markowa szczególną rolę odgrywa stan początkowy zauważmy, że może on wpłynąć na to, iż do niektórych stanów nie dotrzemy nigdy, a do innych jedynie po pewnym czasie. Formalnie rzecz biorąc stan początkowy to po prostu zmienna losowa X 0. Nie należy się więc dziwić, że czasem łańcuch Markowa nie będzie zaczynał się z jednego wyznaczonego stanu, ale z pewnego rozkładu prawdopodobieństwa na przestrzeni stanów. Definicja 6.. Rozkładem początkowym nazywać będziemy wektor µ 0 określony w następujący sposób: µ (0) = (µ (0), µ(0),...,µ(0) k ) = (P (X 0 = s ), P (X 0 = s ),...,P(X 0 = s k )), gdzie {s,...,s k } jest zbiorem stanów łańcucha. Ponieważ µ (0) jest rozkładem prawdopodobieństwa, więc k µ (0) i =. Analogicznie przez µ (), µ (),... możemy oznaczyć rozkłady prawdopodobieństwa w momentach czasu,,... (czyli rozkłady zmiennych X, X,... ) tak, że µ (n) = (µ (n), µ(n),...,µ(n) k ) = (P (X n = s ), P (X n = s ),...,P(X n = s k )) Przykład 6.. Wróćmy na chwilę do Przykładu 5.6. Był tam dany spacer losowy po kwadracie (Rysunek 5.6), który zawsze zaczynaliśmy od wierzchołka. Jego rozkład początkowy ma zatem postać µ (0) = (, 0, 0, 0). Ponadto można łatwo zauważyć, że w drugim kroku rozkład tego łańcucha ma postać: µ () = (, 0,, 0). 36

38 Okazuje się, że jeśli mamy jednorodny łańcuch Markowa (zobacz Definicję 5.9), znamy jego rozkład początkowy µ (0) oraz macierz przejść P, to w prosty sposób możemy wyznaczyć wszystkie rozkłady µ (), µ (),.... Mówi o tym następujące twierdzenie: Twierdzenie 6.3. Jeśli (X, X...) jest jednorodnym łańcuchem Markowa o skończonym zbiorze stanów {s,...,s k }, rozkładzie początkowym µ (0) i macierzy przejść P, to n µ (n) = µ (0) P n Dowód. Rozważmy przypadek kiedy n =. Dla j =,..., k, otrzymujemy µ () j = P (X = s j ) = = = k P (X 0 = s i, X = s j ) k P (X 0 = s i ) P (X = s j X 0 = s i ) k µ (0) i p i,j = (µ (0) P) j gdzie (µ (0) P) j oznacza j-ty element wektora µ (0) P. Stąd µ () = µ (0) P. Przypadek ogólny udowodnimy indukcyjnie. Ustalmy m i załóżmy, że teza twierdzenia jest prawdziwa dla n = m. Dla n = m + mamy zatem µ (m+) j = P (X m+ = s j ) = = = k P (X m = s i, X m+ = s j ) k P (X m = s i ) P (X m+ = s j X m = s i ) k µ (m) i p i,j = (µ (m) P) j, a stąd µ (m+) = µ (m) P. Z założenia indukcyjnego wiemy, że µ (m) = µ (0) P m, skąd ostatecznie otrzymujemy µ (m+) = µ (m) P = µ (0) P m P = µ (0) P (m+) Powyższe twierdzenie łatwo daje się uogólnić na przypadek łańcucha niejednorodnego: Twierdzenie 6.4. Niech (X, X,...) będzie niejednorodnym łańcuchem Markowa o skończonym zbiorze stanów, rozkładzie początkowym µ (0) i macierzach przejść P (), P (),.... Wówczas n µ (n) = µ (0) P () P () P (n). Dowód. Dowód jest analogiczny jak w przypadku Twierdzenia

Wykład 4: Funkcje tworzące. Procesy gałązkowe

Wykład 4: Funkcje tworzące. Procesy gałązkowe RAP 412 29102008 Wykład 4: Funkcje tworzące Procesy gałązkowe Wykładowca: Andrzej Ruciński Pisarze:Tomasz Ciaś, Paweł Skórzewski Wprowadzenie Kontynuując nasz spacer, spróbujemy w sposób matematyczny spojrzeć

Bardziej szczegółowo

Wykład 11: Martyngały: definicja, twierdzenia o zbieżności

Wykład 11: Martyngały: definicja, twierdzenia o zbieżności RAP 412 14.01.2009 Wykład 11: Martyngały: definicja, twierdzenia o zbieżności Wykładowca: Andrzej Ruciński Pisarz:Mirosława Jańczak 1 Wstęp Do tej pory zajmowaliśmy się ciągami zmiennych losowych (X n

Bardziej szczegółowo

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy bez pamięci w których czas i stany są zbiorami dyskretnymi. Procesy stochastyczne WYKŁAD 2-3 Łańcuchy Markowa Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi. 2 Łańcuchem Markowa nazywamy proces będący ciągiem zmiennych

Bardziej szczegółowo

Spacery losowe generowanie realizacji procesu losowego

Spacery losowe generowanie realizacji procesu losowego Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z

Bardziej szczegółowo

Ćwiczenia: Ukryte procesy Markowa lista 1 kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II

Ćwiczenia: Ukryte procesy Markowa lista 1 kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II Ćwiczenia: Ukryte procesy Markowa lista kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II dr Jarosław Kotowicz Zadanie. Dany jest łańcuch Markowa, który może przyjmować wartości,,...,

Bardziej szczegółowo

III. ZMIENNE LOSOWE JEDNOWYMIAROWE

III. ZMIENNE LOSOWE JEDNOWYMIAROWE III. ZMIENNE LOSOWE JEDNOWYMIAROWE.. Zmienna losowa i pojęcie rozkładu prawdopodobieństwa W dotychczas rozpatrywanych przykładach każdemu zdarzeniu była przyporządkowana odpowiednia wartość liczbowa. Ta

Bardziej szczegółowo

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Niech Ω będzie przestrzenią zdarzeń elementarnych. Definicja 1 Rodzinę S zdarzeń losowych (zbiór S podzbiorów zbioru

Bardziej szczegółowo

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy bez pamięci w których czas i stany są zbiorami dyskretnymi. Procesy stochastyczne WYKŁAD 2-3 Łańcuchy Markowa Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi. Przykład Symetryczne błądzenie przypadkowe na prostej. 1 2 Łańcuchem

Bardziej szczegółowo

Wykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga

Wykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga RAP 412 21.01.2009 Wykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga Wykładowca: Andrzej Ruciński Pisarz: Łukasz Waszak 1 Wstęp Na ostatnim wykładzie przedstawiliśmy twierdzenie o zbieżności

Bardziej szczegółowo

i=7 X i. Zachodzi EX i = P(X i = 1) = 1 2, i {1, 2,..., 11} oraz EX ix j = P(X i = 1, X j = 1) = 1 7 VarS 2 2 = 14 3 ( 5 2 =

i=7 X i. Zachodzi EX i = P(X i = 1) = 1 2, i {1, 2,..., 11} oraz EX ix j = P(X i = 1, X j = 1) = 1 7 VarS 2 2 = 14 3 ( 5 2 = Kombinatoryka W tej serii zadań można znaleźć pojawiające się na egzaminach zadania dotyczące problemu wyznaczania prostych parametrów rozkładu w przypadku zgadnień kombinatorycznych. Zadania te wymagają

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova

Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova M. Czoków, J. Piersa 2010-12-21 1 Definicja Własności Losowanie z rozkładu dyskretnego 2 3 Łańcuch Markova Definicja Własności Losowanie z rozkładu

Bardziej szczegółowo

Metody probabilistyczne

Metody probabilistyczne Metody probabilistyczne. Twierdzenia graniczne Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 20.2.208 / 26 Motywacja Rzucamy wielokrotnie uczciwą monetą i zliczamy

Bardziej szczegółowo

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład Rozdział 1 Wektory losowe 1.1 Wektor losowy i jego rozkład Definicja 1 Wektor X = (X 1,..., X n ), którego każda współrzędna jest zmienną losową, nazywamy n-wymiarowym wektorem losowym (krótko wektorem

Bardziej szczegółowo

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie Jarosław Kotowicz Instytut Matematyki Uniwersytet w

Bardziej szczegółowo

Prawa wielkich liczb, centralne twierdzenia graniczne

Prawa wielkich liczb, centralne twierdzenia graniczne , centralne twierdzenia graniczne Katedra matematyki i ekonomii matematycznej 17 maja 2012, centralne twierdzenia graniczne Rodzaje zbieżności ciągów zmiennych losowych, centralne twierdzenia graniczne

Bardziej szczegółowo

4,5. Dyskretne zmienne losowe (17.03; 31.03)

4,5. Dyskretne zmienne losowe (17.03; 31.03) 4,5. Dyskretne zmienne losowe (17.03; 31.03) Definicja 1 Zmienna losowa nazywamy dyskretna (skokowa), jeśli zbiór jej wartości x 1, x 2,..., można ustawić w ciag. Zmienna losowa X, która przyjmuje wszystkie

Bardziej szczegółowo

Dyskretne zmienne losowe

Dyskretne zmienne losowe Dyskretne zmienne losowe dr Mariusz Grządziel 16 marca 2009 Definicja 1. Zmienna losowa nazywamy dyskretna (skokowa), jeśli zbiór jej wartości x 1, x 2,..., można ustawić w ciag. Zmienna losowa X, która

Bardziej szczegółowo

Procesy Markowa zawdzięczają swoją nazwę ich twórcy Andriejowi Markowowi, który po raz pierwszy opisał problem w 1906 roku.

Procesy Markowa zawdzięczają swoją nazwę ich twórcy Andriejowi Markowowi, który po raz pierwszy opisał problem w 1906 roku. Procesy Markowa zawdzięczają swoją nazwę ich twórcy Andriejowi Markowowi, który po raz pierwszy opisał problem w 1906 roku. Uogólnienie na przeliczalnie nieskończone przestrzenie stanów zostało opracowane

Bardziej szczegółowo

Układy równań i nierówności liniowych

Układy równań i nierówności liniowych Układy równań i nierówności liniowych Wiesław Krakowiak 1 grudnia 2010 1 Układy równań liniowych DEFINICJA 11 Układem równań m liniowych o n niewiadomych X 1,, X n, nazywamy układ postaci: a 11 X 1 + +

Bardziej szczegółowo

Znaleźć wzór ogólny i zbadać istnienie granicy ciągu określonego rekurencyjnie:

Znaleźć wzór ogólny i zbadać istnienie granicy ciągu określonego rekurencyjnie: Ciągi rekurencyjne Zadanie 1 Znaleźć wzór ogólny i zbadać istnienie granicy ciągu określonego rekurencyjnie: w dwóch przypadkach: dla i, oraz dla i. Wskazówka Należy poszukiwać rozwiązania w postaci, gdzie

Bardziej szczegółowo

Rozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej

Rozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Zbiór możliwych wyników eksperymentu będziemy nazywać przestrzenią zdarzeń elementarnych i oznaczać Ω, natomiast

Bardziej szczegółowo

Wykład 9: Markov Chain Monte Carlo

Wykład 9: Markov Chain Monte Carlo RAP 412 17.12.2008 Wykład 9: Markov Chain Monte Carlo Wykładowca: Andrzej Ruciński Pisarz: Ewelina Rychlińska i Wojciech Wawrzyniak Wstęp W tej części wykładu zajmiemy się zastosowaniami łańcuchów Markowa

Bardziej szczegółowo

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe Nierówność Czebyszewa Niech X będzie zmienną losową o skończonej wariancji V ar(x). Wtedy wartość oczekiwana E(X) też jest skończona i

Bardziej szczegółowo

Rachunek prawdopodobieństwa - Teoria - Przypomnienie.. A i B są niezależne, gdy P(A B) = P(A)P(B). P(A B i )P(B i )

Rachunek prawdopodobieństwa - Teoria - Przypomnienie.. A i B są niezależne, gdy P(A B) = P(A)P(B). P(A B i )P(B i ) Rachunek prawdopodobieństwa - Teoria - Przypomnienie Podstawy Definicja 1. Schemat klasyczny - wszystkie zdarzenia elementarne są równo prawdopodobne, licząc prawdopodobieństwo liczymy stosunek liczby

Bardziej szczegółowo

Zadanie 1. Liczba szkód N w ciągu roku z pewnego ryzyka ma rozkład geometryczny: k =

Zadanie 1. Liczba szkód N w ciągu roku z pewnego ryzyka ma rozkład geometryczny: k = Matematyka ubezpieczeń majątkowych 0.0.006 r. Zadanie. Liczba szkód N w ciągu roku z pewnego ryzyka ma rozkład geometryczny: k 5 Pr( N = k) =, k = 0,,,... 6 6 Wartości kolejnych szkód Y, Y,, są i.i.d.,

Bardziej szczegółowo

Zasada indukcji matematycznej

Zasada indukcji matematycznej Zasada indukcji matematycznej Twierdzenie 1 (Zasada indukcji matematycznej). Niech ϕ(n) będzie formą zdaniową zmiennej n N 0. Załóżmy, że istnieje n 0 N 0 takie, że 1. ϕ(n 0 ) jest zdaniem prawdziwym,.

Bardziej szczegółowo

3. Macierze i Układy Równań Liniowych

3. Macierze i Układy Równań Liniowych 3. Macierze i Układy Równań Liniowych Rozważamy równanie macierzowe z końcówki ostatniego wykładu ( ) 3 1 X = 4 1 ( ) 2 5 Podstawiając X = ( ) x y i wymnażając, otrzymujemy układ 2 równań liniowych 3x

Bardziej szczegółowo

Funkcja kwadratowa. f(x) = ax 2 + bx + c,

Funkcja kwadratowa. f(x) = ax 2 + bx + c, Funkcja kwadratowa. Funkcją kwadratową nazywamy funkcję f : R R określoną wzorem gdzie a, b, c R, a 0. f(x) = ax 2 + bx + c, Szczególnym przypadkiem funkcji kwadratowej jest funkcja f(x) = ax 2, a R \

Bardziej szczegółowo

Funkcje wymierne. Funkcja homograficzna. Równania i nierówności wymierne.

Funkcje wymierne. Funkcja homograficzna. Równania i nierówności wymierne. Funkcje wymierne. Funkcja homograficzna. Równania i nierówności wymierne. Funkcja homograficzna. Definicja. Funkcja homograficzna jest to funkcja określona wzorem f() = a + b c + d, () gdzie współczynniki

Bardziej szczegółowo

Układy stochastyczne

Układy stochastyczne Instytut Informatyki Uniwersytetu Śląskiego 21 stycznia 2009 Definicja Definicja Proces stochastyczny to funkcja losowa, czyli funkcja matematyczna, której wartości leżą w przestrzeni zdarzeń losowych.

Bardziej szczegółowo

W. Guzicki Próbna matura, grudzień 2014 r. poziom rozszerzony 1

W. Guzicki Próbna matura, grudzień 2014 r. poziom rozszerzony 1 W. Guzicki Próbna matura, grudzień 01 r. poziom rozszerzony 1 Próbna matura rozszerzona (jesień 01 r.) Zadanie 18 kilka innych rozwiązań Wojciech Guzicki Zadanie 18. Okno na poddaszu ma mieć kształt trapezu

Bardziej szczegółowo

Wykład 3 Jednowymiarowe zmienne losowe

Wykład 3 Jednowymiarowe zmienne losowe Wykład 3 Jednowymiarowe zmienne losowe Niech (Ω, F, P ) będzie ustaloną przestrzenią probabilistyczną Definicja 1 Jednowymiarowa zmienna losowa (o wartościach rzeczywistych), określoną na przestrzeni probabilistycznej

Bardziej szczegółowo

Rozkład figury symetrycznej na dwie przystające

Rozkład figury symetrycznej na dwie przystające Rozkład figury symetrycznej na dwie przystające Tomasz Tkocz 10 X 2010 Streszczenie Tekst zawiera notatki do referatu z seminarium monograficznego Wybrane zagadnienia geometrii. Całość jest oparta na artykule

Bardziej szczegółowo

3. FUNKCJA LINIOWA. gdzie ; ół,.

3. FUNKCJA LINIOWA. gdzie ; ół,. 1 WYKŁAD 3 3. FUNKCJA LINIOWA FUNKCJĄ LINIOWĄ nazywamy funkcję typu : dla, gdzie ; ół,. Załóżmy na początek, że wyraz wolny. Wtedy mamy do czynienia z funkcją typu :.. Wykresem tej funkcji jest prosta

Bardziej szczegółowo

Metody probabilistyczne

Metody probabilistyczne Metody probabilistyczne 6. Momenty zmiennych losowych Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 8.11.2018 1 / 47 Funkcje zmiennych losowych Mierzalna funkcja Y

Bardziej szczegółowo

Ćwiczenia z metodyki nauczania rachunku prawdopodobieństwa

Ćwiczenia z metodyki nauczania rachunku prawdopodobieństwa Ćwiczenia z metodyki nauczania rachunku prawdopodobieństwa 25 marca 209 Zadanie. W urnie jest b kul białych i c kul czarnych. Losujemy n kul bez zwracania. Jakie jest prawdopodobieństwo, że pierwsza kula

Bardziej szczegółowo

Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu.

Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu. Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu. A Teoria Definicja A.1. Niech (Ω, F, P) będzie przestrzenią probabilistyczną. Zmienną losową określoną na przestrzeni Ω nazywamy dowolną

Bardziej szczegółowo

Definicja i własności wartości bezwzględnej.

Definicja i własności wartości bezwzględnej. Równania i nierówności z wartością bezwzględną. Rozwiązywanie układów dwóch (trzech) równań z dwiema (trzema) niewiadomymi. Układy równań liniowych z parametrem, analiza rozwiązań. Definicja i własności

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa

Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa M. Czoków, J. Piersa 2012-01-10 1 Łańcucha Markowa 2 Istnienie Szukanie stanu stacjonarnego 3 1 Łańcucha Markowa 2 Istnienie Szukanie stanu stacjonarnego

Bardziej szczegółowo

Dwa równania kwadratowe z częścią całkowitą

Dwa równania kwadratowe z częścią całkowitą Dwa równania kwadratowe z częścią całkowitą Andrzej Nowicki Wydział Matematyki i Informatyki Uniwersytet M. Kopernika w Toruniu anow @ mat.uni.torun.pl 4 sierpnia 00 Jeśli r jest liczbą rzeczywistą, to

Bardziej szczegółowo

Lista 6. Kamil Matuszewski 13 kwietnia D n =

Lista 6. Kamil Matuszewski 13 kwietnia D n = Lista 6 Kamil Matuszewski 3 kwietnia 6 3 4 5 6 7 8 9 Zadanie Mamy Pokaż, że det(d n ) = n.... D n =.... Dowód. Okej. Dla n =, n = trywialne. Załóżmy, że dla n jest ok, sprawdzę dla n. Aby to zrobić skorzystam

Bardziej szczegółowo

Parametr Λ w populacji ubezpieczonych ma rozkład dany na półosi dodatniej gęstością: 3 f

Parametr Λ w populacji ubezpieczonych ma rozkład dany na półosi dodatniej gęstością: 3 f Zadanie. W kolejnych latach t =,,,... ubezpieczony charakteryzujący się parametrem ryzyka Λ generuje N t szkód. Dla danego Λ = λ zmienne N, N, N,... są warunkowo niezależne i mają (brzegowe) rozkłady Poissona:

Bardziej szczegółowo

n=0 (n + r)a n x n+r 1 (n + r)(n + r 1)a n x n+r 2. Wykorzystując te obliczenia otrzymujemy, że lewa strona równania (1) jest równa

n=0 (n + r)a n x n+r 1 (n + r)(n + r 1)a n x n+r 2. Wykorzystując te obliczenia otrzymujemy, że lewa strona równania (1) jest równa Równanie Bessela Będziemy rozważać następujące równanie Bessela x y xy x ν )y 0 ) gdzie ν 0 jest pewnym parametrem Rozwiązania równania ) nazywamy funkcjami Bessela rzędu ν Sprawdzamy, że x 0 jest regularnym

Bardziej szczegółowo

VI. Równania różniczkowe liniowe wyższych rzędów

VI. Równania różniczkowe liniowe wyższych rzędów VI. 1. Równanie różniczkowe liniowe n-tego rzędu o zmiennych współczynnikach Niech podobnie jak w poprzednim paragrafie K = C lub K = R. Podobnie jak w dziedzinie rzeczywistej wprowadzamy pochodne wyższych

Bardziej szczegółowo

Wstęp do rachunku prawdopodobieństwa. Cz. 1 / William Feller. wyd. 6, dodr. 4. Warszawa, Spis treści

Wstęp do rachunku prawdopodobieństwa. Cz. 1 / William Feller. wyd. 6, dodr. 4. Warszawa, Spis treści Wstęp do rachunku prawdopodobieństwa. Cz. 1 / William Feller. wyd. 6, dodr. 4. Warszawa, 2012 Spis treści Od Wydawnictwa 5 Z przedmowy autora do wydania pierwszego 7 Z przedmowy autora do wydania drugiego

Bardziej szczegółowo

WYKŁAD 3. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

WYKŁAD 3. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki WYKŁAD 3 Witold Bednorz, Paweł Wolff 1 Instytut Matematyki Uniwersytet Warszawski Rachunek Prawdopodobieństwa, WNE, 2010-2011 Schemmat Bernouliego Rzucamy 10 razy moneta, próba Bernouliego jest pojedynczy

Bardziej szczegółowo

Indukcja. Materiały pomocnicze do wykładu. wykładowca: dr Magdalena Kacprzak

Indukcja. Materiały pomocnicze do wykładu. wykładowca: dr Magdalena Kacprzak Indukcja Materiały pomocnicze do wykładu wykładowca: dr Magdalena Kacprzak Charakteryzacja zbioru liczb naturalnych Arytmetyka liczb naturalnych Jedną z najważniejszych teorii matematycznych jest arytmetyka

Bardziej szczegółowo

Matematyka dyskretna dla informatyków

Matematyka dyskretna dla informatyków Matematyka dyskretna dla informatyków Część I: Elementy kombinatoryki Jerzy Jaworski Zbigniew Palka Jerzy Szymański Uniwersytet im. Adama Mickiewicza Poznań 2007 4 Zależności rekurencyjne Wiele zależności

Bardziej szczegółowo

Lista 1. Procesy o przyrostach niezależnych.

Lista 1. Procesy o przyrostach niezależnych. Lista. Procesy o przyrostach niezależnych.. Niech N t bedzie procesem Poissona o intensywnoci λ = 2. Obliczyć a) P (N 2 < 3, b) P (N =, N 3 = 6), c) P (N 2 = N 5 = 2), d) P (N =, N 2 = 3, N 4 < 5), e)

Bardziej szczegółowo

FUNKCJA LINIOWA - WYKRES

FUNKCJA LINIOWA - WYKRES FUNKCJA LINIOWA - WYKRES Wzór funkcji liniowej (Postać kierunkowa) Funkcja liniowa jest podstawowym typem funkcji. Jest to funkcja o wzorze: y = ax + b a i b to współczynniki funkcji, które mają wartości

Bardziej szczegółowo

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych 1. [E.A 5.10.1996/zad.4] Funkcja gęstości dana jest wzorem { 3 x + 2xy + 1 y dla (x y) (0 1) (0 1) 4 4 P (X > 1 2 Y > 1 2 ) wynosi:

Bardziej szczegółowo

Zaawansowane metody numeryczne

Zaawansowane metody numeryczne Wykład 11 Ogólna postać metody iteracyjnej Definicja 11.1. (metoda iteracyjna rozwiązywania układów równań) Metodą iteracyjną rozwiązywania { układów równań liniowych nazywamy ciąg wektorów zdefiniowany

Bardziej szczegółowo

Zajęcia nr. 3 notatki

Zajęcia nr. 3 notatki Zajęcia nr. 3 notatki 22 kwietnia 2005 1 Funkcje liczbowe wprowadzenie Istnieje nieskończenie wiele funkcji w matematyce. W dodaktu nie wszystkie są liczbowe. Rozpatruje się funkcje które pobierają argumenty

Bardziej szczegółowo

Funkcje wymierne. Jerzy Rutkowski. Działania dodawania i mnożenia funkcji wymiernych określa się wzorami: g h + k l g h k.

Funkcje wymierne. Jerzy Rutkowski. Działania dodawania i mnożenia funkcji wymiernych określa się wzorami: g h + k l g h k. Funkcje wymierne Jerzy Rutkowski Teoria Przypomnijmy, że przez R[x] oznaczamy zbiór wszystkich wielomianów zmiennej x i o współczynnikach rzeczywistych Definicja Funkcją wymierną jednej zmiennej nazywamy

Bardziej szczegółowo

Matematyka ubezpieczeń majątkowych r.

Matematyka ubezpieczeń majątkowych r. Zadanie. W pewnej populacji kierowców każdego jej członka charakteryzują trzy zmienne: K liczba przejeżdżanych kilometrów (w tysiącach rocznie) NP liczba szkód w ciągu roku, w których kierowca jest stroną

Bardziej szczegółowo

Proces rezerwy w czasie dyskretnym z losową stopą procentową i losową składką

Proces rezerwy w czasie dyskretnym z losową stopą procentową i losową składką z losową stopą procentową i losową składką Instytut Matematyki i Informatyki Politechniki Wrocławskiej 10 czerwca 2008 Oznaczenia Wprowadzenie ξ n liczba wypłat w (n 1, n], Oznaczenia Wprowadzenie ξ n

Bardziej szczegółowo

Elementy modelowania matematycznego

Elementy modelowania matematycznego Elementy modelowania matematycznego Łańcuchy Markowa: zagadnienia graniczne. Ukryte modele Markowa. Jakub Wróblewski jakubw@pjwstk.edu.pl http://zajecia.jakubw.pl/ KLASYFIKACJA STANÓW Stan i jest osiągalny

Bardziej szczegółowo

Wykład z równań różnicowych

Wykład z równań różnicowych Wykład z równań różnicowych Umówmy się, że na czas tego wykładu zrezygnujemy z oznaczania n-tego wyrazu ciągu symbolem typu x n, y n itp. Zamiast tego pisać będziemy x (n), y (n) itp. Definicja 1. Operatorem

Bardziej szczegółowo

FUNKCJA KWADRATOWA. Zad 1 Przedstaw funkcję kwadratową w postaci ogólnej. Postać ogólna funkcji kwadratowej to: y = ax + bx + c;(

FUNKCJA KWADRATOWA. Zad 1 Przedstaw funkcję kwadratową w postaci ogólnej. Postać ogólna funkcji kwadratowej to: y = ax + bx + c;( Zad Przedstaw funkcję kwadratową w postaci ogólnej Przykład y = ( x ) + 5 (postać kanoniczna) FUNKCJA KWADRATOWA Postać ogólna funkcji kwadratowej to: y = ax + bx + c;( a 0) Aby ją uzyskać pozbywamy się

Bardziej szczegółowo

Zmienne losowe i ich rozkłady

Zmienne losowe i ich rozkłady Zmienne losowe i ich rozkłady 29 kwietnia 2019 Definicja: Zmienną losową nazywamy mierzalną funkcję X : (Ω, F, P) (R n, B(R n )). Definicja: Niech A będzie zbiorem borelowskim. Rozkładem zmiennej losowej

Bardziej szczegółowo

Biostatystyka, # 3 /Weterynaria I/

Biostatystyka, # 3 /Weterynaria I/ Biostatystyka, # 3 /Weterynaria I/ dr n. mat. Zdzisław Otachel Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Głęboka 28, p. 221 bud. CIW, e-mail: zdzislaw.otachel@up.lublin.pl

Bardziej szczegółowo

Wykład z równań różnicowych

Wykład z równań różnicowych Wykład z równań różnicowych 1 Wiadomości wstępne Umówmy się, że na czas tego wykładu zrezygnujemy z oznaczania n-tego wyrazu ciągu symbolem typu x n, y n itp. Zamiast tego pisać będziemy x (n), y (n) itp.

Bardziej szczegółowo

Wykład 4. Określimy teraz pewną ważną klasę pierścieni.

Wykład 4. Określimy teraz pewną ważną klasę pierścieni. Wykład 4 Określimy teraz pewną ważną klasę pierścieni. Twierdzenie 1 Niech m, n Z. Jeśli n > 0 to istnieje dokładnie jedna para licz q, r, że: m = qn + r, 0 r < n. Liczbę r nazywamy resztą z dzielenia

Bardziej szczegółowo

W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych:

W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych: W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych: Zmienne losowe skokowe (dyskretne) przyjmujące co najwyżej przeliczalnie wiele wartości Zmienne losowe ciągłe

Bardziej szczegółowo

Deska Galtona. Adam Osękowski. Instytut Matematyki, Wydział Matematyki, Informatyki i Mechaniki Uniwersytet Warszawski

Deska Galtona. Adam Osękowski. Instytut Matematyki, Wydział Matematyki, Informatyki i Mechaniki Uniwersytet Warszawski a schemat Bernoulliego Instytut Matematyki, Wydział Matematyki, Informatyki i Mechaniki Uniwersytet Warszawski XV Festiwal Nauki, 21 września 2011r. a schemat Bernoulliego Schemat Bernoulliego B(n, p)

Bardziej szczegółowo

Funkcja kwadratowa. f(x) = ax 2 + bx + c = a

Funkcja kwadratowa. f(x) = ax 2 + bx + c = a Funkcja kwadratowa. Funkcją kwadratową nazywamy funkcję f : R R określoną wzorem gdzie a, b, c R, a 0. f(x) = ax + bx + c, Szczególnym przypadkiem funkcji kwadratowej jest funkcja f(x) = ax, a R \ {0}.

Bardziej szczegółowo

19 marzec, Łańcuchy Markowa z czasem dyskretnym. Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136

19 marzec, Łańcuchy Markowa z czasem dyskretnym. Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 19 marzec, 2012 Przykłady procesów Markowa (i). P = (p ij ) - macierz stochastyczna, tzn. p ij 0, j p ij =

Bardziej szczegółowo

Matematyka dyskretna. Andrzej Łachwa, UJ, /10

Matematyka dyskretna. Andrzej Łachwa, UJ, /10 Matematyka dyskretna Andrzej Łachwa, UJ, 2018 andrzej.lachwa@uj.edu.pl 10/10 Podziały i liczby Stirlinga Liczba Stirlinga dla cykli (często nazywana liczbą Stirlinga pierwszego rodzaju) to liczba permutacji

Bardziej szczegółowo

F t+ := s>t. F s = F t.

F t+ := s>t. F s = F t. M. Beśka, Całka Stochastyczna, wykład 1 1 1 Wiadomości wstępne 1.1 Przestrzeń probabilistyczna z filtracją Niech (Ω, F, P ) będzie ustaloną przestrzenią probabilistyczną i niech F = {F t } t 0 będzie rodziną

Bardziej szczegółowo

Drugie kolokwium z Rachunku Prawdopodobieństwa, zestaw A

Drugie kolokwium z Rachunku Prawdopodobieństwa, zestaw A Drugie kolokwium z Rachunku Prawdopodobieństwa, zestaw A Zad. 1. Korzystając z podanych poniżej mini-tablic, oblicz pierwszy, drugi i trzeci kwartyl rozkładu N(10, 2 ). Rozwiązanie. Najpierw ogólny komentarz

Bardziej szczegółowo

Macierze. Rozdział Działania na macierzach

Macierze. Rozdział Działania na macierzach Rozdział 5 Macierze Funkcję, która każdej parze liczb naturalnych (i, j) (i 1,..., n; j 1,..., m) przyporządkowuje dokładnie jedną liczbę a ij F, gdzie F R lub F C, nazywamy macierzą (rzeczywistą, gdy

Bardziej szczegółowo

Zadania z Rachunku Prawdopodobieństwa II Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,

Zadania z Rachunku Prawdopodobieństwa II Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ, Zadania z Rachunku Prawdopodobieństwa II -. Udowodnij, że dla dowolnych liczb x n, x, δ xn δ x wtedy i tylko wtedy, gdy x n x.. Wykaż, że n n k= δ k/n λ, gdzie λ jest miarą Lebesgue a na [, ].. Podać przykład

Bardziej szczegółowo

VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa.

VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa. VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa. W rozdziale tym zajmiemy się dokładniej badaniem stabilności rozwiązań równania różniczkowego. Pojęcie stabilności w

Bardziej szczegółowo

FUNKCJA KWADRATOWA. 1. Definicje i przydatne wzory. lub trójmianem kwadratowym nazywamy funkcję postaci: f(x) = ax 2 + bx + c

FUNKCJA KWADRATOWA. 1. Definicje i przydatne wzory. lub trójmianem kwadratowym nazywamy funkcję postaci: f(x) = ax 2 + bx + c FUNKCJA KWADRATOWA 1. Definicje i przydatne wzory DEFINICJA 1. Funkcja kwadratowa lub trójmianem kwadratowym nazywamy funkcję postaci: f(x) = ax + bx + c taką, że a, b, c R oraz a 0. Powyższe wyrażenie

Bardziej szczegółowo

Przykładami ciągów, które Czytelnik dobrze zna (a jeśli nie, to niniejszym poznaje), jest ciąg arytmetyczny:

Przykładami ciągów, które Czytelnik dobrze zna (a jeśli nie, to niniejszym poznaje), jest ciąg arytmetyczny: Podstawowe definicje Definicja ciągu Ciągiem nazywamy funkcję na zbiorze liczb naturalnych, tzn. przyporządkowanie każdej liczbie naturalnej jakiejś liczby rzeczywistej. (Mówimy wtedy o ciągu o wyrazach

Bardziej szczegółowo

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe 4.1. Zmienne losowe dyskretne. Katarzyna Rybarczyk-Krzywdzińska Definicja/Rozkład Zmienne losowe dyskretne Definicja Zmienną losową, która skupiona

Bardziej szczegółowo

Pochodna funkcji odwrotnej

Pochodna funkcji odwrotnej Pochodna funkcji odwrotnej Niech będzie dana w przedziale funkcja różniczkowalna i różnowartościowa. Wiadomo, że istnieje wówczas funkcja odwrotna (którą oznaczymy tu : ), ciągła w przedziale (lub zależnie

Bardziej szczegółowo

Rachunek prawdopodobieństwa (Elektronika, studia niestacjonarne) Wykład 3

Rachunek prawdopodobieństwa (Elektronika, studia niestacjonarne) Wykład 3 Rachunek prawdopodobieństwa (Elektronika, studia niestacjonarne) Wykład 3 Przygotowując wykład korzystam głównie z książki Jakubowski, Sztencel Wstęp do teorii prawdopodobieństwa. Zmienna losowa i jej

Bardziej szczegółowo

6.4 Podstawowe metody statystyczne

6.4 Podstawowe metody statystyczne 156 Wstęp do statystyki matematycznej 6.4 Podstawowe metody statystyczne Spóbujemy teraz w dopuszczalnym uproszczeniu przedstawić istotę analizy statystycznej. W szczególności udzielimy odpowiedzi na postawione

Bardziej szczegółowo

1 Nierówność Minkowskiego i Hoeldera

1 Nierówność Minkowskiego i Hoeldera 1 Nierówność Minkowskiego i Hoeldera Na państwa użytek załączam precyzyjne sformułowania i dowody nierówności Hoeldera i Minkowskiego: Twierdzenie 1.1 Nierówność Hoeldera). Niech p, q będą takimi liczbami

Bardziej szczegółowo

FUNKCJA LINIOWA - WYKRES. y = ax + b. a i b to współczynniki funkcji, które mają wartości liczbowe

FUNKCJA LINIOWA - WYKRES. y = ax + b. a i b to współczynniki funkcji, które mają wartości liczbowe FUNKCJA LINIOWA - WYKRES Wzór funkcji liniowej (postać kierunkowa) Funkcja liniowa to funkcja o wzorze: y = ax + b a i b to współczynniki funkcji, które mają wartości liczbowe Szczególnie ważny w postaci

Bardziej szczegółowo

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa Agata Boratyńska Agata Boratyńska Rachunek prawdopodobieństwa, wykład 2 i 3 1 / 19 Zmienna losowa Definicja Dana jest przestrzeń probabilistyczna

Bardziej szczegółowo

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne 5.3 Rozkłady warunkowe i warunkowa wartość oczekiwana Katarzyna Rybarczyk-Krzywdzińska semestr zimowy 2015/2016 Prawdopodobieństwo wyraża postawę

Bardziej szczegółowo

Pojęcie szeregu nieskończonego:zastosowania do rachunku prawdopodobieństwa wykład 1

Pojęcie szeregu nieskończonego:zastosowania do rachunku prawdopodobieństwa wykład 1 Pojęcie szeregu nieskończonego:zastosowania do rachunku prawdopodobieństwa wykład dr Mariusz Grządziel 5 lutego 04 Paradoks Zenona z Elei wersja uwspółcześniona Zenek goni Andrzeja; prędkość Andrzeja:

Bardziej szczegółowo

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ. Zadania z Procesów Stochastycznych 1 1. Udowodnij, że z prawdopodobieństwem 1 trajektorie procesu Poissona są niemalejące, przyjmują wartości z Z +, mają wszystkie skoki równe 1 oraz dążą do nieskończoności.

Bardziej szczegółowo

Po zapoznaniu się z funkcją liniową możemy przyjśd do badania funkcji kwadratowej.

Po zapoznaniu się z funkcją liniową możemy przyjśd do badania funkcji kwadratowej. Po zapoznaniu się z funkcją liniową możemy przyjśd do badania funkcji kwadratowej. Definicja 1 Jednomianem stopnia drugiego nazywamy funkcję postaci: i a 0. Dziedziną tej funkcji jest zbiór liczb rzeczywistych

Bardziej szczegółowo

Zaawansowane metody numeryczne

Zaawansowane metody numeryczne Wykład 10 Rozkład LU i rozwiązywanie układów równań liniowych Niech będzie dany układ równań liniowych postaci Ax = b Załóżmy, że istnieją macierze L (trójkątna dolna) i U (trójkątna górna), takie że macierz

Bardziej szczegółowo

Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe.

Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Rachunek prawdopodobieństwa MAP3040 WPPT FT, rok akad. 2010/11, sem. zimowy Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Warunkowa wartość oczekiwana.

Bardziej szczegółowo

Ważne rozkłady i twierdzenia c.d.

Ważne rozkłady i twierdzenia c.d. Ważne rozkłady i twierdzenia c.d. Funkcja charakterystyczna rozkładu Wielowymiarowy rozkład normalny Elipsa kowariacji Sploty rozkładów Rozkłady jednostajne Sploty z rozkładem normalnym Pobieranie próby

Bardziej szczegółowo

Równania różnicowe. Dodatkowo umawiamy się, że powyższy iloczyn po pustym zbiorze indeksów, czyli na przykład 0

Równania różnicowe. Dodatkowo umawiamy się, że powyższy iloczyn po pustym zbiorze indeksów, czyli na przykład 0 Równania różnicowe 1 Wiadomości wstępne Umówmy się, że na czas tego wykładu zrezygnujemy z oznaczania n-tego wyrazu ciągu symbolem typu x n, y n itp Zamiast tego pisać będziemy x (n), y (n) itp Ponadto

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład VII: Rozkład i jego charakterystyki 22 listopada 2016 Uprzednio wprowadzone pojęcia i ich własności Definicja zmiennej losowej Zmienna losowa na przestrzeni probabilistycznej (Ω, F, P) to funkcja

Bardziej szczegółowo

LX Olimpiada Matematyczna

LX Olimpiada Matematyczna LX Olimpiada Matematyczna Rozwiązania zadań konkursowych zawodów stopnia drugiego 13 lutego 2009 r. (pierwszy dzień zawodów) Zadanie 1. Liczby rzeczywiste a 1, a 2,..., a n (n 2) spełniają warunek a 1

Bardziej szczegółowo

6. FUNKCJE. f: X Y, y = f(x).

6. FUNKCJE. f: X Y, y = f(x). 6. FUNKCJE Niech dane będą dwa niepuste zbiory X i Y. Funkcją f odwzorowującą zbiór X w zbiór Y nazywamy przyporządkowanie każdemu elementowi X dokładnie jednego elementu y Y. Zapisujemy to następująco

Bardziej szczegółowo

Matematyka dyskretna. Andrzej Łachwa, UJ, /15

Matematyka dyskretna. Andrzej Łachwa, UJ, /15 Matematyka dyskretna Andrzej Łachwa, UJ, 2013 andrzej.lachwa@uj.edu.pl 7/15 Rachunek różnicowy Dobrym narzędziem do obliczania skończonych sum jest rachunek różnicowy. W rachunku tym odpowiednikiem operatora

Bardziej szczegółowo

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać układu równań liniowych Układ liniowych równań algebraicznych

Bardziej szczegółowo

Przekształcanie wykresów.

Przekształcanie wykresów. Sławomir Jemielity Przekształcanie wykresów. Pokażemy tu, jak zmiana we wzorze funkcji wpływa na wygląd jej wykresu. A. Mamy wykres funkcji f(). Jak będzie wyglądał wykres f ( ) + a, a stała? ( ) f ( )

Bardziej szczegółowo

Matematyka dyskretna. Andrzej Łachwa, UJ, A/10

Matematyka dyskretna. Andrzej Łachwa, UJ, A/10 Matematyka dyskretna Andrzej Łachwa, UJ, 2018 andrzej.lachwa@uj.edu.pl 8A/10 Zbiory przeliczalne Przyjmujemy, że Zn = {0, 1, 2, 3, n-1} dla n>0 oraz Zn = przy n=0. Zbiór skończony to zbiór bijektywny z

Bardziej szczegółowo

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne 5.2. Momenty rozkładów łącznych. Katarzyna Rybarczyk-Krzywdzińska rozkładów wielowymiarowych Przypomnienie Jeśli X jest zmienną losową o rozkładzie

Bardziej szczegółowo

Metody probabilistyczne

Metody probabilistyczne Metody probabilistyczne 2. Aksjomatyczna definicja prawdopodobieństwa Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 10.10.2017 1 / 33 Klasyczna definicja prawdopodobieństwa

Bardziej szczegółowo