Spacery losowe generowanie realizacji procesu losowego
|
|
- Edyta Sowińska
- 4 lat temu
- Przeglądów:
Transkrypt
1 Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z czasem dyskretnym na dyskretnej przestrzeni stanów. W tym celu przedstawimy niezbędną terminologię, podstawowe pojęcia i własności. Wśród omawianych zagadnień są: przestrzeń (zbiór) stanów procesu, rozkład początkowy, macierz prawdopodobieństw przejść oraz prawdopodobieństwo i czas osiągnięcia zbioru stanów. Słowa kluczowe: generatory liczb losowych, spacer losowy, łańcuch Markowa, macierz prawdopodobieństw przejść, rozkład początkowy. Zadanie przykład Rozważmy poniższe zadanie: Konik polny skacze pomiędzy trzema różnymi kwiatami, wybierając w każdym skoku jeden z wolnych kwiatów z równym prawdopodobieństwem. Wyznacz prawdopodobieństwo, że po n > 0 skokach konik polny wróci do punktu wyjścia. Po ilu średnio skokach konik polny wraca na początkowy kwiat? Położenie konika polnego skaczącego pomiędzy trzema kwiatami (umownie oznaczonymi jako, i ) będziemy modelować poprzez pewien proces indeksowany kolejnymi liczbami naturalnymi {0,,,...} odpowiadającymi kolejnym skokom, o wartościach w zbiorze S = {,, } odpowiadającym trzem kwiatom. Wartości zbioru {,, } nazywamy stanami procesu, a cały zbiór S nazywamy zbiorem stanów (przestrzenią stanów) procesu. Oznaczmy poprzez X 0 położenie konika polnego na początku naszej obserwacji (powiemy: w chwili n = 0), po wykonaniu pierwszego skoku jego położenie będziemy oznaczać jako X, itd.; ogólnie X n, dla n 0 oznacza położenie konika polnego po n skokach. Rozważamy następujący scenariusz: konik polny startuje z kwiatu następnie skacze do, z powrotem do, następnie do takie zachowanie odpowiada trajektorii (realizacji) mickrzem@pg.edu.pl
2 p = p = p = p = p = p = Rys.. Graf opisujący model zachowania konika polnego procesu: X 0 (ω) =, X (ω) =, X (ω) =, X (ω) =. Piszemy ω, by podkreślić że określone wartości są realizacjami zmiennych losowych X 0, X, X, X, gdyż położenie konika polnego jest losowe. Proces w chwili 0 przyjmuje wartość X 0 (ω) =, a następnie może przejść do stanu albo z prawdopodobieństwami przejść p = i p = odpowiednio. By ułatwić interpretację omawianych tu pojęć wprowadzimy dodatkowy obiekt graf skierowany, którego wierzchołki i S odpowiadają stanom procesu, a skierowane krawędzie (i, j) S S niezerowym prawdopodobieństwom przejść p ij = p i j ze stanu i do stanu j. Rysunek przedstawia odpowiedni graf dla modelu zachowania konika polnego z zadania.. Definicje Wprowadźmy podstawowe pojęcia i definicje dla określenia procesu z naszego modelu, tj. definicję łańcucha Markowa z czasem dyskretnym na dyskretnej przestrzeni stanów. Niech S będzie zbiorem przeliczalnym (lub skończonym). Każdy element i S nazywamy stanem, a S nazywamy przestrzenią stanów. Mówimy, że p = (p i ; i S) jest rozkładem prawdopodobieństwa na S, gdy i S p i 0 oraz p i =. i S Niech (Ω, F, P) będzie przestrzenią probabilistyczną. Zmienną losową X o wartościach w S nazywamy odwzorowanie mierzalne X : Ω S. Przypuśćmy, że i S p i = P(X = i). Wtedy p określa rozkład zmiennej losowej X. Myślimy o X jako o modelu losowego stanu, który może przyjąć wartość i z prawdopodobieństwem p i. Powiemy, że macierz P = (p ij ; i, j S) jest macierzą stochastyczną, gdy każdy wiersz tej macierzy (p ij ; j S) jest rozkładem prawdopodobieństwa, tzn. i,j S p ij 0 oraz p ij =. j S Zauważmy, że jest jednoznaczna odpowiedniość pomiędzy macierzą stochastyczną P, a grafem (diagramem) z poprzedniego rozdziału (por. rys. ).
3 0 P = P = Rys.. Porównanie macierzy stochastycznych i odpowiadających im diagramów. Widzimy, że każdy ity wiersz macierzy P zadaje rozkład prawdopodobieństwa (p ij ; j S) na S, określając dla każdego j S prawdopodobieństwa przejść i j. Mówimy, że ciąg zmiennych losowych (X n ) n 0 = (X 0, X, X,...) jest jednorodnym łańcuchem Markowa o rozkładzie początkowym p i macierzy prawdopodobieństw przejść P, gdy (i) X 0 ma rozkład p, tj. P(X 0 = i 0 ) = p i0 dla i 0 S; (ii) dla n 0, jeżeli X n = i, to X n+ ma rozkład (p ij ; j S) i jest niezależne od X 0, X,..., X n, tj. P(X n+ = i n+ X n = i n, X n = i n,..., X 0 = i 0 ) = p ini n+. W ogólności, jeżeli w chwili 0 proces ma rozkład początkowy p, to w chwili znajduje się w stanie X o rozkładzie pp = (p j ; j S), gdzie p j = i S p i p ij. Przez podobne rozumowanie otrzymujemy, że w chwili proces ten znajdzie się w stanie X o rozkładzie (pp )P = pp, w chwili n w stanie X n o rozkładzie pp n, gdzie P n jest ntą potęgą macierzy prawdopodobieństw przejść P. Będziemy pisać p (n) ij = (P n ) ij. Powyższe obserwacje zebrane są w twierdzeniach:
4 Jeżeli proces losowy z czasem dyskretnym (X n ) n 0 jest jednorodnym łańcuchem Markowa o rozkładzie początkowym p i macierzy prawdopodobieństw przejść P to n 0 i0,i...,i n S P(X 0 = i 0, X = i,..., X n = i n ) = p i0 p i0 i p i i... p in i n. Niech (X n ) n 0 będzie jednorodnym łańcuchem Markowa o rozkładzie początkowym p i macierzy prawdopodobieństw przejść P. Dla wszystkich n, m 0 (i) P(X n = j) = (pp n ) j ; (ii) P(X n = j X 0 = i) = P(X n+m = j X m = i) = p (n) ij. Zauważmy, że warunek (ii) z powyższego twierdzenia oznacza w szczególności, że dla jednorodnego łańcucha Markowa prawdopodobieństwo przejścia i j w n krokach jest stałe (i wynosi p (n) ij ), tzn. nie zależy od tego w kiedy byliśmy w stanie i czy j, a jedynie od n liczby kroków pomiędzy stanami.. Zadanie symulacja Wiemy już jak opisać matematyczny model naszego zagadnienia: załóżmy, że konik polny w chwili 0 znajduje się w (dlaczego wybór stanu początkowego nie ma większego znaczenia dla zadania?). Zatem rozważmy proces (X n ) n 0 o wartościach w S = {,, } o rozkładzie początkowym p = (, 0, 0) i macierzy prawdopodobieństw przejść 0 P = 0. 0 W pierwszym kroku chcemy wygenerować trajektorię procesu dla n = 0,,..., N, (X n ) 0 n N, którą następnie przedstawimy na wykresie. Rozważmy poniższy algorytm: () X 0 = () dla n =,,..., N losuj wartość X n z rozkładu (p Xn,, p Xn,, p Xn,) Zauważmy, że jeżeli X n = i, to X n losujemy z rozkładu zadanego itym wierszem macierzy P. Na rysunku przedstawiona została przykładowa trajektoria pewna realizacja łańcucha Markowa opisującego nasze zagadnienie. Widzimy, że w tym przypadku proces powrócił do stanu po raz pierwszy w chwili n = oraz kolejno w chwilach 5, 8, 0,, 4, 7. Czy w dowolnej chwili n 0 proces może powrócić do stanu początkowego? Oczywiście nie dla n =, gdyż ze stanu początkowego skacze wyłącznie do stanu albo (p () = p = 0). 4
5 stan w chwili n, X n (ω) czas, n Rys.. Realizacja procesu (X n ) n 0 dla n =,,..., 0 W zadaniu chcemy wyznaczyć prawdopodobieństwo powrotu do stanu początkowego po n 0 skokach zakładając, że proces startuje ze stanu (z pr. ) wyznaczamy p (n). Poprzez prostą obserwację otrzymujemy już p (0) = (proces po 0 skokach jest w stanie początkowym z prawdopodobieństwem ) oraz p () = 0 (proces w jednym kroku zmienia stan na inny z prawdopodobieństwem na oraz z podobieństwem na ). Szukane prawdopodobieństwa powrotu do stanu po n =,,..., N krokach, p (n), określimy za pomocą symulacji wielu trajektorii. Dla ustalonego n 0 prawdopodobieństwo, że proces w chwili n znajduje się w stanie pod warunkiem, że w chwili 0 startował ze stanu, tzn. P(X n = X 0 = ) = p (n) określimy jako stosunek liczby trajektorii, w których X n = do liczby wszystkich symulacji. Rozważmy poniższy algorytm: () generujemy trajektorię procesu startującego z długości N + (dla chwil n = 0,,,..., N) () tworzymy wektor długości N + którego wartościami są, gdy stan został osiągnięty w chwili n oraz wartość 0, gdy nie został osiągnięty w chwili n (dla n = 0,,,..., N) N=0 #realizacja #powrót do (osiągnięcie) stanu Teraz powtarzając tę procedurę wielokrotnie (M razy) i sumując wektory powrotów otrzymamy, dla każdego n = 0,,,..., N, liczbę trajektorii dla których nastąpił powrót do stanu. Dzieląc ten wektor przez M otrzymamy częstości powrotów do stanu, które estymują wartości szukanych prawdopodobieństw p (n) dla n = 0,,,..., N: 5
6 N=0 M=00 #pojedyncza realizacja długości N #wektor powrotu do stanu #suma wektorów powrotu do stanu dla M realizacji #wektor częstości powrotu Wartości prawdopodobieństw powrotu do stanu początkowego są takie same bez znaczenia, który stan przyjmiemy jako początkowy: p (n) = p (n) = p (n). Wartości prawdopodobieństw uzyskane symulacyjnie dla M = 00 oraz M = trajektorii przedstawione zostały na rysunku 4. Zauważmy, że od pewnego momentu wyznaczone p (n) i z poprzed- (n) p M=00 (n) p M= n n Rys. 4. Wykres wartości prawdopodobieństwa powrotu procesu do stanu początkowego w n krokach, p (n), dla n = 0,,..., 0 na podstawie M = 00 trajektorii oraz dla n = 0,,..., 0 i M = niej uwagi, jest tak również dla p (n) oraz p (n). Możemy stąd wnioskować, że dla odpowiednio dużych n, p (n) = p (n) = p (n) =, co dalej oznacza, że proces zapomniał o stanie początkowym i dla takich odpowiednio dużych n rozkład X n jest równomiernym rozkładem na {,, }. 4. Czas osiągnięcia zbioru stanów i prawdopodobieństwa osiągnięcia Niech (X n ) n 0 będzie jednorodnym łańcuchem Markowa na przestrzeni stanów S, o rozkładzie początkowym p i macierzy prawdopodobieństw przejść P. Czasem osiągnięcia (ang. 6
7 hitting time) zbioru A S nazywamy zmienną losową τ A : Ω {0,,...} { }, τ A (ω) = inf{n 0; X n (ω) A}. Prawdopodobieństwo osiągnięcia zbioru A pod warunkiem, że proces startuje ze stanu i S, określamy jako h A,i = P(τ A < X 0 = i). Dla spacerów losowych (jednorodnych łańcuchów Markowa z czasem dyskretnym na przeliczalnej przestrzeni stanów) czas osiągnięcia zbioru A to nic innego jak liczba skoków procesu potrzebna, by proces przyjął wartość ze zbioru A. W szczególności, jeżeli X 0 = i A to τ A = 0 oraz w przypadku, gdy proces nigdy nie osiąga stanu ze zbioru A, tzn. n 0 X n / A, τ A = inf{ } =. Przypuśćmy, że dla ustalonego stanu początkowego i S każda trajektoria procesu wpada (po skończonej liczbie skoków) do zbioru A, tzn. n 0 X n (ω) A z prawdopodobieństwem, wtedy h A,i = P(τ A < X 0 = i) =. Może jednak się zdarzyć, że niektóre trajektorie nigdy nie osiągają zbioru A (albo tylko pewnego stanu), wtedy 0 h A,i <. Średnim czasem potrzebnym procesowi (X n ) n 0 do osiągnięcia zbioru A nazywamy k A,i = E(τ A ) = n 0 np(τ A = n X 0 = i) + P(τ A = X 0 = i). 5. Zadanie symulacja, cd. Dla procesu opisującego zachowanie konika polnego wyznaczyliśmy prawdopodobieństwa powrotu do stanu w chwili n, tj. p (n). Rozważmy teraz sytuację, w której proces zatrzymujemy w chwili pierwszego powrotu do stanu początkowego, tzn. w momencie τ (ω) = inf{n > 0; X n (ω) = X 0 (ω)}. Jakie jest prawdopodobieństwo powrotu do stanu początkowego (w ogóle)? Jaki jest średni czas liczony liczbą skoków potrzebny na powrót do stanu początkowego? Rozważmy poniższy algorytm () X 0 = ; () generuj proces, tj. X, X,... tak długo jak X,..., X n, X n =. Zauważmy, że dla tak uzyskanego wektora wartości procesu, X 0,..., X n, n > 0 oznacza liczbę skoków potrzebną na osiągnięcie stanu początkowego po raz pierwszy. Z poprzednich analiz wiemy, że n (p () = 0). Jednak algorytm ten ma jedną poważną wadę czy jesteśmy pewni, że generując proces procedura ta zakończy się w skończonym czasie (po skończonej liczbie kroków)? Co jeżeli będziemy generować zachowanie pewnego procesu i program nigdy nie osiągnie warunku X n =? Musimy zapobiec wykonywaniu w programie nieskończonej pętli: (0) Ustalmy M odpowiednio duże; 7
8 () X 0 = ; () generuj proces, tj. X, X,... tak długo jak X,..., X n, X n =, ale nie dłużej niż M kroków. W ten sposób gwarantujemy, że generujemy skończoną trajektorię (nie dłuższą niż M iteracji, algorytm jest skończony), ale proces nie musi w tym czasie osiągnąć stanu początkowego (należy zastanowić się nad konsekwencjami takiego zdarzenia). Dla każdej trajektorii wygenerowanej powyższym algorytmem otrzymujemy wartość n = τ (ω) M, tzn. liczbę kroków potrzebną do pierwszego powrotu do stanu początkowego, ale nie większą niż górne ograniczenie M. Średnia arytmetyczna wektora wartości n dla wielu trajektorii określa zatem warunkowy średni czas powrotu do stanu początkowego pod warunkiem, że powrót ten nastąpił przed chwilą M: E(τ τ M). Oczywiście dla M lim E(τ τ M) = E(τ ) M który jest szukanym (bezwarunkowym) średnim czasem powrotu. Podobnie znajdujemy za pomocą symulacji prawdopodobieństwo powrotu do stanu początkowego. Spośród wszystkich trajektorii generowanych poprzednim algorytmem zliczamy odsetek trajektorii, które powróciły do stanu początkowego: #{trajektoria powróciła do stanu początkowego do chwili M} #wszystkie trajektorie określa prawdopodobieństwo (obliczone na podstawie wygenerowanego zbioru trajektorii), że proces powrócił do stanu początkowego do chwili M. Podobnie jak poprzednio, przez przejście graniczne M otrzymujemy szukane prawdopodobieństwo h, = P(τ < X 0 = ). M=0 #pojedyncza realizacja długości N #czas powrotu do : n= # n=4 #wektor czasów powrotu do dla 0 trajektorii #średni czas powrotu do stanu (na podstawie 0 trajektorii). #średni czas powrotu do stanu (na podstawie trajektorii).0007 Na rysunku 5 przedstawiono średni czas powrotu do stanu początkowego wyznaczony na podstawie N = 0, 0,..., 000 trajektorii. Analizując wektor czasów powrotu do stanu początkowego, możemy określić rozkład tego czasu, tzn. p = (p n ) n >, p n = P(τ = n). Odpowiedni rozkład, na podstawie 000 8
9 E(τ ) liczba trajektorii Rys. 5. Średni czas powrotu do stanu początkowego wyznaczony na podstawie N = 0, 0,..., 000 trajektorii P(τ = n) liczba skoków n Rys. 6. Rozkład czasu powrotu do stanu początkowego wyznaczony na podstawie N = 000 trajektorii 9
10 trajektorii przedstawiono na rysunku 6. Zauważmy, że P(τ = ) = 0 nie można powrócić do stanu początkowego po pierwszym skoku, P(τ = ) = z prawdopodobieństwem w pierwszym skoku przechodzimy do innego stanu, następnie w jednym kroku wracamy do stanu początkowego z prawdopodobieństwem przejścia. Jaki rozkład ma τ? 0
Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova
Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova M. Czoków, J. Piersa 2010-12-21 1 Definicja Własności Losowanie z rozkładu dyskretnego 2 3 Łańcuch Markova Definicja Własności Losowanie z rozkładu
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa
Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa M. Czoków, J. Piersa 2012-01-10 1 Łańcucha Markowa 2 Istnienie Szukanie stanu stacjonarnego 3 1 Łańcucha Markowa 2 Istnienie Szukanie stanu stacjonarnego
Bardziej szczegółowoProcesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.
Procesy stochastyczne WYKŁAD 2-3 Łańcuchy Markowa Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi. 2 Łańcuchem Markowa nazywamy proces będący ciągiem zmiennych
Bardziej szczegółowoProcesy Markowa zawdzięczają swoją nazwę ich twórcy Andriejowi Markowowi, który po raz pierwszy opisał problem w 1906 roku.
Procesy Markowa zawdzięczają swoją nazwę ich twórcy Andriejowi Markowowi, który po raz pierwszy opisał problem w 1906 roku. Uogólnienie na przeliczalnie nieskończone przestrzenie stanów zostało opracowane
Bardziej szczegółowoProcesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.
Procesy stochastyczne WYKŁAD 2-3 Łańcuchy Markowa Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi. Przykład Symetryczne błądzenie przypadkowe na prostej. 1 2 Łańcuchem
Bardziej szczegółowoGenerowanie ciągów pseudolosowych o zadanych rozkładach przykładowy raport
Generowanie ciągów pseudolosowych o zadanych rozkładach przykładowy raport Michał Krzemiński Streszczenie Projekt dotyczy metod generowania oraz badania własności statystycznych ciągów liczb pseudolosowych.
Bardziej szczegółowoElementy modelowania matematycznego
Elementy modelowania matematycznego Łańcuchy Markowa: zagadnienia graniczne. Ukryte modele Markowa. Jakub Wróblewski jakubw@pjwstk.edu.pl http://zajecia.jakubw.pl/ KLASYFIKACJA STANÓW Stan i jest osiągalny
Bardziej szczegółowoĆwiczenia: Ukryte procesy Markowa lista 1 kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II
Ćwiczenia: Ukryte procesy Markowa lista kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II dr Jarosław Kotowicz Zadanie. Dany jest łańcuch Markowa, który może przyjmować wartości,,...,
Bardziej szczegółowoWykład 11: Martyngały: definicja, twierdzenia o zbieżności
RAP 412 14.01.2009 Wykład 11: Martyngały: definicja, twierdzenia o zbieżności Wykładowca: Andrzej Ruciński Pisarz:Mirosława Jańczak 1 Wstęp Do tej pory zajmowaliśmy się ciągami zmiennych losowych (X n
Bardziej szczegółowoStatystyka i eksploracja danych
Wykład II: i charakterystyki ich rozkładów 24 lutego 2014 Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa,
Bardziej szczegółowoProcesy stochastyczne
Wykład IV: dla łańcuchów Markowa 14 marca 2017 Wykład IV: Klasyfikacja stanów Kiedy rozkład stacjonarny jest jedyny? Przykład Macierz jednostkowa I wymiaru #E jest macierzą stochastyczną. Dla tej macierzy
Bardziej szczegółowoPrawa wielkich liczb, centralne twierdzenia graniczne
, centralne twierdzenia graniczne Katedra matematyki i ekonomii matematycznej 17 maja 2012, centralne twierdzenia graniczne Rodzaje zbieżności ciągów zmiennych losowych, centralne twierdzenia graniczne
Bardziej szczegółowo2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.
Zadania z Procesów Stochastycznych 1 1. Udowodnij, że z prawdopodobieństwem 1 trajektorie procesu Poissona są niemalejące, przyjmują wartości z Z +, mają wszystkie skoki równe 1 oraz dążą do nieskończoności.
Bardziej szczegółowoMetody probabilistyczne
Metody probabilistyczne. Twierdzenia graniczne Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 20.2.208 / 26 Motywacja Rzucamy wielokrotnie uczciwą monetą i zliczamy
Bardziej szczegółowoUkłady stochastyczne
Instytut Informatyki Uniwersytetu Śląskiego 21 stycznia 2009 Definicja Definicja Proces stochastyczny to funkcja losowa, czyli funkcja matematyczna, której wartości leżą w przestrzeni zdarzeń losowych.
Bardziej szczegółowo19 marzec, Łańcuchy Markowa z czasem dyskretnym. Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136
Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 19 marzec, 2012 Przykłady procesów Markowa (i). P = (p ij ) - macierz stochastyczna, tzn. p ij 0, j p ij =
Bardziej szczegółowoWykład 2 Zmienne losowe i ich rozkłady
Wykład 2 Zmienne losowe i ich rozkłady Magdalena Frąszczak Wrocław, 11.10.2017r Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe Doświadczenie
Bardziej szczegółowo2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.
Zadania z Procesów Stochastycznych 1 1. Udowodnij, że z prawdopodobieństwem 1 trajektorie procesu Poissona są niemalejące, przyjmują wartości z Z +, mają wszystkie skoki równe 1 oraz dążą do nieskończoności.
Bardziej szczegółowoProces Poissona. Proces {N(t), t 0} nazywamy procesem zliczającym jeśli N(t) oznacza całkowitą liczbę badanych zdarzeń zaobserwowanych do chwili t.
Procesy stochastyczne WYKŁAD 5 Proces Poissona. Proces {N(t), t } nazywamy procesem zliczającym jeśli N(t) oznacza całkowitą liczbę badanych zdarzeń zaobserwowanych do chwili t. Proces zliczający musi
Bardziej szczegółowoi=7 X i. Zachodzi EX i = P(X i = 1) = 1 2, i {1, 2,..., 11} oraz EX ix j = P(X i = 1, X j = 1) = 1 7 VarS 2 2 = 14 3 ( 5 2 =
Kombinatoryka W tej serii zadań można znaleźć pojawiające się na egzaminach zadania dotyczące problemu wyznaczania prostych parametrów rozkładu w przypadku zgadnień kombinatorycznych. Zadania te wymagają
Bardziej szczegółowoRozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład
Rozdział 1 Wektory losowe 1.1 Wektor losowy i jego rozkład Definicja 1 Wektor X = (X 1,..., X n ), którego każda współrzędna jest zmienną losową, nazywamy n-wymiarowym wektorem losowym (krótko wektorem
Bardziej szczegółowoInstytut Politechniczny Państwowa Wyższa Szkoła Zawodowa. Diagnostyka i niezawodność robotów
Instytut Politechniczny Państwowa Wyższa Szkoła Zawodowa Diagnostyka i niezawodność robotów Laboratorium nr 6 Model matematyczny elementu naprawialnego Prowadzący: mgr inż. Marcel Luzar Cele ćwiczenia:
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład XIV: Metody Monte Carlo 19 stycznia 2016 Przybliżone obliczanie całki oznaczonej Rozważmy całkowalną funkcję f : [0, 1] R. Chcemy znaleźć przybliżoną wartość liczbową całki 1 f (x) dx. 0 Jeden ze
Bardziej szczegółowoPROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω)
PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω) określonych na tej samej przestrzeni probabilistycznej
Bardziej szczegółowoLista 1. Procesy o przyrostach niezależnych.
Lista. Procesy o przyrostach niezależnych.. Niech N t bedzie procesem Poissona o intensywnoci λ = 2. Obliczyć a) P (N 2 < 3, b) P (N =, N 3 = 6), c) P (N 2 = N 5 = 2), d) P (N =, N 2 = 3, N 4 < 5), e)
Bardziej szczegółowoStatystyka i eksploracja danych
Wykład I: Formalizm statystyki matematycznej 17 lutego 2014 Forma zaliczenia przedmiotu Forma zaliczenia Literatura Zagadnienia omawiane na wykładach Forma zaliczenia przedmiotu Forma zaliczenia Literatura
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład VIII: Przestrzenie statystyczne. Estymatory 1 grudnia 2014 Wprowadzenie Przykład: pomiar z błędem Współczynnik korelacji r(x, Z) = 0, 986 Wprowadzenie Przykład: pomiar z błędem Współczynnik korelacji
Bardziej szczegółowoLokalna odwracalność odwzorowań, odwzorowania uwikłane
Lokalna odwracalność odwzorowań, odwzorowania uwikłane Katedra Matematyki i Ekonomii Matematycznej Szkoła Główna Handlowa 17 maja 2012 Definicja Mówimy, że odwzorowanie F : X R n, gdzie X R n, jest lokalnie
Bardziej szczegółowoAlgorytmy MCMC (Markowowskie Monte Carlo) dla skokowych procesów Markowa
Algorytmy MCMC (Markowowskie Monte Carlo) dla skokowych procesów Markowa Wojciech Niemiro 1 Uniwersytet Warszawski i UMK Toruń XXX lat IMSM, Warszawa, kwiecień 2017 1 Wspólne prace z Błażejem Miasojedowem,
Bardziej szczegółowoF t+ := s>t. F s = F t.
M. Beśka, Całka Stochastyczna, wykład 1 1 1 Wiadomości wstępne 1.1 Przestrzeń probabilistyczna z filtracją Niech (Ω, F, P ) będzie ustaloną przestrzenią probabilistyczną i niech F = {F t } t 0 będzie rodziną
Bardziej szczegółowoWykład 9: Markov Chain Monte Carlo
RAP 412 17.12.2008 Wykład 9: Markov Chain Monte Carlo Wykładowca: Andrzej Ruciński Pisarz: Ewelina Rychlińska i Wojciech Wawrzyniak Wstęp W tej części wykładu zajmiemy się zastosowaniami łańcuchów Markowa
Bardziej szczegółowoRozkłady statystyk z próby
Rozkłady statystyk z próby Rozkłady statystyk z próby Przypuśćmy, że wykonujemy serię doświadczeń polegających na 4 krotnym rzucie symetryczną kostką do gry, obserwując liczbę wyrzuconych oczek Nr kolejny
Bardziej szczegółowoZbigniew S. Szewczak Uniwersytet Mikołaja Kopernika Wydział Matematyki i Informatyki. Graniczne własności łańcuchów Markowa
Zbigniew S. Szewczak Uniwersytet Mikołaja Kopernika Wydział Matematyki i Informatyki Graniczne własności łańcuchów Markowa Toruń, 2003 Co to jest łańcuch Markowa? Każdy skończony, jednorodny łańcuch Markowa
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład XIII: Prognoza. 26 stycznia 2015 Wykład XIII: Prognoza. Prognoza (predykcja) Przypuśćmy, że mamy dany ciąg liczb x 1, x 2,..., x n, stanowiących wyniki pomiaru pewnej zmiennej w czasie wielkości
Bardziej szczegółowoD. Miszczyńska, M.Miszczyński KBO UŁ 1 GRY KONFLIKTOWE GRY 2-OSOBOWE O SUMIE WYPŁAT ZERO
D. Miszczyńska, M.Miszczyński KBO UŁ GRY KONFLIKTOWE GRY 2-OSOBOWE O SUMIE WYPŁAT ZERO Gra w sensie niżej przedstawionym to zasady którymi kierują się decydenci. Zakładamy, że rezultatem gry jest wypłata,
Bardziej szczegółowoRachunek prawdopodobieństwa Rozdział 4. Zmienne losowe
Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe 4.0. Rozkłady zmiennych losowych, dystrybuanta. Katarzyna Rybarczyk-Krzywdzińska Wprowadzenie Rozważmy eksperymenty 1 gra Bolka w ruletkę w kasynie;
Bardziej szczegółowoNa A (n) rozważamy rozkład P (n) , który na zbiorach postaci A 1... A n określa się jako P (n) (X n, A (n), P (n)
MODELE STATYSTYCZNE Punktem wyjścia w rozumowaniu statystycznym jest zmienna losowa (cecha) X i jej obserwacje opisujące wyniki doświadczeń bądź pomiarów. Zbiór wartości zmiennej losowej X (zbiór wartości
Bardziej szczegółowoIII. ZMIENNE LOSOWE JEDNOWYMIAROWE
III. ZMIENNE LOSOWE JEDNOWYMIAROWE.. Zmienna losowa i pojęcie rozkładu prawdopodobieństwa W dotychczas rozpatrywanych przykładach każdemu zdarzeniu była przyporządkowana odpowiednia wartość liczbowa. Ta
Bardziej szczegółowoZmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014
Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014 Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe
Bardziej szczegółowoRozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej
Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Zbiór możliwych wyników eksperymentu będziemy nazywać przestrzenią zdarzeń elementarnych i oznaczać Ω, natomiast
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład XV: Zagadnienia redukcji wymiaru danych 2 lutego 2015 r. Standaryzacja danych Standaryzacja danych Własności macierzy korelacji Definicja Niech X będzie zmienną losową o skończonym drugim momencie.
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład II: Zmienne losowe i charakterystyki ich rozkładów 13 października 2014 Zmienne losowe Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Definicja zmiennej losowej i jej
Bardziej szczegółowoZmienne losowe i ich rozkłady
Zmienne losowe i ich rozkłady 29 kwietnia 2019 Definicja: Zmienną losową nazywamy mierzalną funkcję X : (Ω, F, P) (R n, B(R n )). Definicja: Niech A będzie zbiorem borelowskim. Rozkładem zmiennej losowej
Bardziej szczegółowoUzupełnienia dotyczące zbiorów uporządkowanych (3 lutego 2011).
Uzupełnienia dotyczące zbiorów uporządkowanych (3 lutego 2011). Poprzedniczka tej notatki zawierała błędy! Ta pewnie zresztą też ; ). Ćwiczenie 3 zostało zmienione, bo żądałem, byście dowodzili czegoś,
Bardziej szczegółowoStatystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory
Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory Dr Anna ADRIAN Paw B5, pok 407 adrian@tempus.metal.agh.edu.pl
Bardziej szczegółowo21 maja, Mocna własność Markowa procesu Wienera. Procesy Stochastyczne, wykład 13, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126
Mocna własność Markowa procesu Wienera Procesy Stochastyczne, wykład 13, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126 21 maja, 2012 Mocna własność Markowa W = (W 1,..., W d ) oznaczać
Bardziej szczegółowo0 + 0 = 0, = 1, = 1, = 0.
5 Kody liniowe Jak już wiemy, w celu przesłania zakodowanego tekstu dzielimy go na bloki i do każdego z bloków dodajemy tak zwane bity sprawdzające. Bity te są w ścisłej zależności z bitami informacyjnymi,
Bardziej szczegółowoPrawdopodobieństwo. Prawdopodobieństwo. Jacek Kłopotowski. Katedra Matematyki i Ekonomii Matematycznej SGH. 16 października 2018
Katedra Matematyki i Ekonomii Matematycznej SGH 16 października 2018 Definicja σ-algebry Definicja Niech Ω oznacza zbiór niepusty. Rodzinę M podzbiorów zbioru Ω nazywamy σ-algebrą (lub σ-ciałem) wtedy
Bardziej szczegółowoPrzestrzeń unitarna. Jacek Kłopotowski. 23 października Katedra Matematyki i Ekonomii Matematycznej SGH
Katedra Matematyki i Ekonomii Matematycznej SGH 23 października 2018 Definicja iloczynu skalarnego Definicja Iloczynem skalarnym w przestrzeni liniowej R n nazywamy odwzorowanie ( ) : R n R n R spełniające
Bardziej szczegółowoWstęp do rachunku prawdopodobieństwa
Wstęp do rachunku prawdopodobieństwa Rozdział 06: Zmienne losowe. Katarzyna Rybarczyk-Krzywdzińska semestr zimowy 2015/2016 Wprowadzenie Przykład 6.1 Adam, Bolek i Czesiu wstąpili do kasyna. Postanowili
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
Bardziej szczegółowoKwantyle. Kwantyl rzędu p rozkładu prawdopodobieństwa to taka liczba x p. , że. Możemy go obliczyć z dystrybuanty: P(X x p.
Kwantyle Kwantyl rzędu p rozkładu prawdopodobieństwa to taka liczba x p, że P(X x p ) p P(X x p ) 1 p Możemy go obliczyć z dystrybuanty: Jeżeli F(x p ) = p, to x p jest kwantylem rzędu p Jeżeli F(x p )
Bardziej szczegółowoRachunek prawdopodobieństwa Rozdział 3. Prawdopodobieństwo warunkowe i niezależność zdarzeń.
Rachunek prawdopodobieństwa Rozdział 3. Prawdopodobieństwo warunkowe i niezależność zdarzeń. 3.2. Niezależność zdarzeń Katarzyna Rybarczyk-Krzywdzińska Niezależność dwóch zdarzeń Intuicja Zdarzenia losowe
Bardziej szczegółowoJednowymiarowa zmienna losowa
1 Jednowymiarowa zmienna losowa Przykład Doświadczenie losowe - rzut kostką do gry. Obserwujemy ilość wyrzuconych oczek. Teoretyczny model eksperymentu losowego - przestrzeń probabilistyczna (Ω, S, P ),
Bardziej szczegółowoPrzykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych
Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Niech Ω będzie przestrzenią zdarzeń elementarnych. Definicja 1 Rodzinę S zdarzeń losowych (zbiór S podzbiorów zbioru
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład VII: Metody specjalne Monte Carlo 24 listopada 2014 Transformacje specjalne Przykład - symulacja rozkładu geometrycznego Niech X Ex(λ). Rozważmy zmienną losową [X ], która przyjmuje wartości naturalne.
Bardziej szczegółowoPojęcie szeregu nieskończonego:zastosowania do rachunku prawdopodobieństwa wykład 1
Pojęcie szeregu nieskończonego:zastosowania do rachunku prawdopodobieństwa wykład dr Mariusz Grządziel 5 lutego 04 Paradoks Zenona z Elei wersja uwspółcześniona Zenek goni Andrzeja; prędkość Andrzeja:
Bardziej szczegółowoIndukcja. Materiały pomocnicze do wykładu. wykładowca: dr Magdalena Kacprzak
Indukcja Materiały pomocnicze do wykładu wykładowca: dr Magdalena Kacprzak Charakteryzacja zbioru liczb naturalnych Arytmetyka liczb naturalnych Jedną z najważniejszych teorii matematycznych jest arytmetyka
Bardziej szczegółowoAlgorytmy stochastyczne, wykład 08 Sieci bayesowskie
Algorytmy stochastyczne, wykład 08 Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2014-04-10 Prawdopodobieństwo Prawdopodobieństwo Prawdopodobieństwo warunkowe Zmienne
Bardziej szczegółowo26 marzec, Łańcuchy Markowa z czasem ciągłym. Procesy Stochastyczne, wykład 7, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136
Procesy Stochastyczne, wykład 7, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 26 marzec, 212 Łańcuchy z czasem ciągłym S = {, 1,..., }, B S = 2 S, ale T = [, ) lub T = (, ). Gdy S skończone,
Bardziej szczegółowoWykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.
Rachunek prawdopodobieństwa MAT1332 Wydział Matematyki, Matematyka Stosowana Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów. Warunkowa
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład VII: Rozkład i jego charakterystyki 22 listopada 2016 Uprzednio wprowadzone pojęcia i ich własności Definicja zmiennej losowej Zmienna losowa na przestrzeni probabilistycznej (Ω, F, P) to funkcja
Bardziej szczegółowoWYKŁAD 2. Zdarzenia losowe i prawdopodobieństwo Zmienna losowa i jej rozkłady
WYKŁAD 2 Zdarzenia losowe i prawdopodobieństwo Zmienna losowa i jej rozkłady Metody statystyczne metody opisu metody wnioskowania statystycznego syntetyczny liczbowy opis właściwości zbioru danych ocena
Bardziej szczegółowoStatystyka i eksploracja danych
Wykład XII: Zagadnienia redukcji wymiaru danych 12 maja 2014 Definicja Niech X będzie zmienną losową o skończonym drugim momencie. Standaryzacją zmiennej X nazywamy zmienną losową Z = X EX Var (X ). Definicja
Bardziej szczegółowoRachunek prawdopodobieństwa
Rachunek prawdopodobieństwa Sebastian Rymarczyk srymarczyk@afm.edu.pl Tematyka zajęć 1. Elementy kombinatoryki. 2. Definicje prawdopodobieństwa. 3. Własności prawdopodobieństwa. 4. Zmienne losowe, parametry
Bardziej szczegółowoRachunek prawdopodobieństwa Rozdział 4. Zmienne losowe
Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe 4.0. Rozkłady zmiennych losowych, dystrybuanta. Katarzyna Rybarczyk-Krzywdzińska semestr zimowy 2016/2017 Wprowadzenie Przykład 1 Bolek, Lolek i Tola
Bardziej szczegółowoTreść wykładu. Układy równań i ich macierze. Rząd macierzy. Twierdzenie Kroneckera-Capellego.
. Metoda eliminacji. Treść wykładu i ich macierze... . Metoda eliminacji. Ogólna postać układu Układ m równań liniowych o n niewiadomych x 1, x 2,..., x n : a 11 x 1 + a 12 x 2 + + a 1n x n = b 1 a 21
Bardziej szczegółowoTeoria miary. WPPT/Matematyka, rok II. Wykład 5
Teoria miary WPPT/Matematyka, rok II Wykład 5 Funkcje mierzalne Niech (X, F) będzie przestrzenią mierzalną i niech f : X R. Twierdzenie 1. NWSR 1. {x X : f(x) > a} F dla każdego a R 2. {x X : f(x) a} F
Bardziej szczegółowoRachunek prawdopodobieństwa- wykład 2
Rachunek prawdopodobieństwa- wykład 2 Pojęcie dyskretnej przestrzeni probabilistycznej i określenie prawdopodobieństwa w tej przestrzeni dr Marcin Ziółkowski Instytut Matematyki i Informatyki Uniwersytet
Bardziej szczegółowoRachunek prawdopodobieństwa Rozdział 4. Zmienne losowe
Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe 4.1. Zmienne losowe dyskretne. Katarzyna Rybarczyk-Krzywdzińska Definicja/Rozkład Zmienne losowe dyskretne Definicja Zmienną losową, która skupiona
Bardziej szczegółowoMacierze. Rozdział Działania na macierzach
Rozdział 5 Macierze Funkcję, która każdej parze liczb naturalnych (i, j) (i 1,..., n; j 1,..., m) przyporządkowuje dokładnie jedną liczbę a ij F, gdzie F R lub F C, nazywamy macierzą (rzeczywistą, gdy
Bardziej szczegółowoProces rezerwy w czasie dyskretnym z losową stopą procentową i losową składką
z losową stopą procentową i losową składką Instytut Matematyki i Informatyki Politechniki Wrocławskiej 10 czerwca 2008 Oznaczenia Wprowadzenie ξ n liczba wypłat w (n 1, n], Oznaczenia Wprowadzenie ξ n
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład I: Formalizm teorii prawdopodonieństwa 6 października 2014 Forma zaliczenia przedmiotu Forma zaliczenia Literatura Dostępność treści wykładów 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin dwuczęściowy:
Bardziej szczegółowoWażne rozkłady i twierdzenia
Ważne rozkłady i twierdzenia Rozkład dwumianowy i wielomianowy Częstość. Prawo wielkich liczb Rozkład hipergeometryczny Rozkład Poissona Rozkład normalny i rozkład Gaussa Centralne twierdzenie graniczne
Bardziej szczegółowoEstymacja parametrów w modelu normalnym
Estymacja parametrów w modelu normalnym dr Mariusz Grządziel 6 kwietnia 2009 Model normalny Przez model normalny będziemy rozumieć rodzine rozkładów normalnych N(µ, σ), µ R, σ > 0. Z Centralnego Twierdzenia
Bardziej szczegółowoRachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne
Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne 5.3 Rozkłady warunkowe i warunkowa wartość oczekiwana Katarzyna Rybarczyk-Krzywdzińska semestr zimowy 2015/2016 Prawdopodobieństwo wyraża postawę
Bardziej szczegółowoWybrane rozkłady zmiennych losowych. Statystyka
Wybrane rozkłady zmiennych losowych Statystyka Rozkład dwupunktowy Zmienna losowa przyjmuje tylko dwie wartości: wartość 1 z prawdopodobieństwem p i wartość 0 z prawdopodobieństwem 1- p x i p i 0 1-p 1
Bardziej szczegółowoAlgorytmy metaheurystyczne Wykład 6. Piotr Syga
Algorytmy metaheurystyczne Wykład 6 Piotr Syga 10.04.2017 Wprowadzenie Inspiracje Wprowadzenie ACS idea 1 Zaczynamy z pustym rozwiązaniem początkowym 2 Dzielimy problem na komponenty (przedmiot do zabrania,
Bardziej szczegółowoAkademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Elektroniki
Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Elektroniki Przetwarzanie Sygnałów Studia Podyplomowe, Automatyka i Robotyka. Wstęp teoretyczny Zmienne losowe Zmienne losowe
Bardziej szczegółowoRachunku prawdopodobieństwa: rys historyczny, aksjomatyka, prawdopodobieństwo warunkowe,
Rachunku prawdopodobieństwa: rys historyczny, aksjomatyka, prawdopodobieństwo warunkowe, niezależność zdarzeń dr Mariusz Grzadziel Katedra Matematyki, Uniwersytet Przyrodniczy we Wrocławiu Semestr letni
Bardziej szczegółowoUkłady równań liniowych
Układy równań liniowych Niech K będzie ciałem. Niech n, m N. Równanie liniowe nad ciałem K z niewiadomymi (lub zmiennymi) x 1, x 2,..., x n K definiujemy jako formę zdaniową zmiennej (x 1,..., x n ) K
Bardziej szczegółowoWnioskowanie bayesowskie
Wnioskowanie bayesowskie W podejściu klasycznym wnioskowanie statystyczne oparte jest wyłącznie na podstawie pobranej próby losowej. Możemy np. estymować punktowo lub przedziałowo nieznane parametry rozkładów,
Bardziej szczegółowozdarzenie losowe - zdarzenie którego przebiegu czy wyniku nie da się przewidzieć na pewno.
Rachunek prawdopodobieństwa Podstawowym celem rachunku prawdopodobieństwa jest określanie szans zajścia pewnych zdarzeń. Pojęcie podstawowe rachunku prawdopodobieństwa to: zdarzenie losowe - zdarzenie
Bardziej szczegółowoTEORETYCZNE PODSTAWY INFORMATYKI
1 TEORETYCZNE PODSTAWY INFORMATYKI WFAiS UJ, Informatyka Stosowana I rok studiów, I stopień Wykład 14c 2 Definicje indukcyjne Twierdzenia dowodzone przez indukcje Definicje indukcyjne Definicja drzewa
Bardziej szczegółowoMetody iteracyjne rozwiązywania układów równań liniowych (5.3) Normy wektorów i macierzy (5.3.1) Niech. x i. i =1
Normy wektorów i macierzy (5.3.1) Niech 1 X =[x x Y y =[y1 x n], oznaczają wektory przestrzeni R n, a yn] niech oznacza liczbę rzeczywistą. Wyrażenie x i p 5.3.1.a X p = p n i =1 nosi nazwę p-tej normy
Bardziej szczegółowoZmienne losowe, statystyki próbkowe. Wrocław, 2 marca 2015
Zmienne losowe, statystyki próbkowe Wrocław, 2 marca 2015 Zasady zaliczenia 2 kolokwia (każde po 20 punktów) projekt (20 punktów) aktywność Zasady zaliczenia 2 kolokwia (każde po 20 punktów) projekt (20
Bardziej szczegółowoWykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe
Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe Nierówność Czebyszewa Niech X będzie zmienną losową o skończonej wariancji V ar(x). Wtedy wartość oczekiwana E(X) też jest skończona i
Bardziej szczegółowoWeryfikacja hipotez statystycznych
Weryfikacja hipotez statystycznych Hipoteza Test statystyczny Poziom istotności Testy jednostronne i dwustronne Testowanie równości wariancji test F-Fishera Testowanie równości wartości średnich test t-studenta
Bardziej szczegółowoZAGADNIENIE TRANSPORTOWE
ZAGADNIENIE TRANSPORTOWE ZT jest specyficznym problemem z zakresu zastosowań programowania liniowego. ZT wykorzystuje się najczęściej do: optymalnego planowania transportu towarów, przy minimalizacji kosztów,
Bardziej szczegółowoZakładamy, że są niezależnymi zmiennymi podlegającymi (dowolnemu) rozkładowi o skończonej wartości oczekiwanej i wariancji.
Wnioskowanie_Statystyczne_-_wykład Spis treści 1 Centralne Twierdzenie Graniczne 1.1 Twierdzenie Lindeberga Levy'ego 1.2 Dowód 1.2.1 funkcja tworząca sumy zmiennych niezależnych 1.2.2 pochodna funkcji
Bardziej szczegółowoBiostatystyka, # 3 /Weterynaria I/
Biostatystyka, # 3 /Weterynaria I/ dr n. mat. Zdzisław Otachel Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Głęboka 28, p. 221 bud. CIW, e-mail: zdzislaw.otachel@up.lublin.pl
Bardziej szczegółowoKlasyfikacja w oparciu o metrykę budowaną poprzez dystrybuanty empiryczne na przestrzeni wzorców uczących
Klasyfikacja w oparciu o metrykę budowaną poprzez dystrybuanty empiryczne na przestrzeni wzorców uczących Cezary Dendek Wydział Matematyki i Nauk Informacyjnych PW Plan prezentacji Plan prezentacji Wprowadzenie
Bardziej szczegółowoMatematyka z el. statystyki, # 6 /Geodezja i kartografia II/
Matematyka z el. statystyki, # 6 /Geodezja i kartografia II/ Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Głęboka 28, bud. CIW, p. 221 e-mail: zdzislaw.otachel@up.lublin.pl
Bardziej szczegółowo1. Wykład NWD, NWW i algorytm Euklidesa.
1.1. NWD, NWW i algorytm Euklidesa. 1. Wykład 1 Twierdzenie 1.1 (o dzieleniu z resztą). Niech a, b Z, b 0. Wówczas istnieje dokładnie jedna para liczb całkowitych q, r Z taka, że a = qb + r oraz 0 r< b.
Bardziej szczegółowoZadania z Rachunku Prawdopodobieństwa II Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,
Zadania z Rachunku Prawdopodobieństwa II -. Udowodnij, że dla dowolnych liczb x n, x, δ xn δ x wtedy i tylko wtedy, gdy x n x.. Wykaż, że n n k= δ k/n λ, gdzie λ jest miarą Lebesgue a na [, ].. Podać przykład
Bardziej szczegółowoWykład 4. Określimy teraz pewną ważną klasę pierścieni.
Wykład 4 Określimy teraz pewną ważną klasę pierścieni. Twierdzenie 1 Niech m, n Z. Jeśli n > 0 to istnieje dokładnie jedna para licz q, r, że: m = qn + r, 0 r < n. Liczbę r nazywamy resztą z dzielenia
Bardziej szczegółowoRACHUNEK PRAWDOPODOBIEŃSTWA - POJĘCIA WSTĘPNE MATERIAŁY POMOCNICZE - TEORIA
Wydział: WiLiŚ, Transport, sem.2 dr Jolanta Dymkowska RACHUNEK PRAWDOPODOBIEŃSTWA - POJĘCIA WSTĘPNE MATERIAŁY POMOCNICZE - TEORIA Przestrzeń probabilistyczna Modelem matematycznym (tj. teoretycznym, wyidealizowanym,
Bardziej szczegółowoZastosowanie rozmytych map kognitywnych do badania scenariuszy rozwoju jednostek naukowo-dydaktycznych
Konferencja Systemy Czasu Rzeczywistego 2012 Kraków, 10-12 września 2012 Zastosowanie rozmytych map kognitywnych do badania scenariuszy rozwoju jednostek naukowo-dydaktycznych Piotr Szwed AGH University
Bardziej szczegółowoPostać Jordana macierzy
Rozdział 8 Postać Jordana macierzy Niech F = R lub F = C Macierz J r λ) F r r postaci λ 1 0 0 0 λ 1 J r λ) = 0 λ 1 0 0 λ gdzie λ F nazywamy klatką Jordana stopnia r Oczywiście J 1 λ) = [λ Definicja 81
Bardziej szczegółowo