Maksymalne powtórzenia w tekstach i zerowa intensywność entropii

Wielkość: px
Rozpocząć pokaz od strony:

Download "Maksymalne powtórzenia w tekstach i zerowa intensywność entropii"

Transkrypt

1 Maksymalne powtórzenia w tekstach i zerowa intensywność entropii Łukasz Dębowski ldebowsk@ipipan.waw.pl i Instytut Podstaw Informatyki PAN Warszawa

2 1 Wprowadzenie 2 Ograniczenia górne i dolne 3 Przykłady procesów 4 Konkluzje

3 Co to jest maksymalne powtórzenie? Maksymalne powtórzenie (maximal repetition) L(x n 1 ) w tekście x n 1 = (x 1, x 2,..., x n ) to maksymalna długość powtarzającego się podsłowa. Formalnie, L(x n 1 ) := max { k : x i+k i +1 = x j+k j+1 dla pewnych 0 i < j n k }. Przykład: x n 1 = O szyby deszcz dzwoni, deszcz dzwoni jesienny. L(x1 n ) = deszcz dzwoni = 13. Maksymalne powtórzenie L(x n 1 ) można policzyć w czasie O(n) sortując drzewo sufiksów (Kolpakov & Kucherov, 1999).

4 Z punktu widzenia informatyków... (de Luca, 1999) Złożoność podsłowna (subword complexity) f (k x1 n ) to liczba różnych podsłów długości k pojawiających się w tekście x1 n. Formalnie, f (k x n 1 ) := card { y k 1 : x i+k i+1 = y k 1 dla pewnego 0 i n k }. Mamy f (k x n 1 ) jest ściśle rosnące dla k L(x n 1 ), f (k x n 1 ) = n k + 1 dla k > L(x n 1 ). Złożoność podsłowna f (k x n 1 ) osiąga maksimum dla k = L(x n 1 ).

5 Z punktu widzenia probabilistów... (Erdős & Rényi, 1970) Niech (X i ) i=1 będzie procesem IID, tzn. nieskończonym ciągiem niezależnych zmiennych losowych o identycznym rozkładzie, P(X n 1 n = x 1 n ) = p(x i ). i =1 Można wówczas udowodnić, że istnieje taka stała A > 0, że L(X n 1 ) A log n dla dostatecznie dużych n z prawdopodobieństwem 1. Inaczej pisząc, P ( L(X1 n lim sup ) n log n ) A = 1.

6 A w odniesieniu do języka... (Dębowski, 2015) 1000 Shakespeare random permutation 100 maximal repetition L(w) e+06 1e+07 string length w L(x n 1 ) (log n)3.136 dla tekstu w języku angielskim. L(x n 1 ) (log n)1.150 dla losowej permutacji znaków.

7 Dwa pytania otwarte 1 Jak szeroka jest klasa procesów stochastycznych, dla których L(X1 n ) A(log n)α zachodzi dla dostatecznie dużych n z prawdopodobieństwem 1 dla zadanego α 1? 2 Czy istnieją wśród nich procesy mogące służyć jako lepsze statystyczne modele języka naturalnego niż np. ukryte procesy Markowa, używane obecnie?

8 1 Wprowadzenie 2 Ograniczenia górne i dolne 3 Przykłady procesów 4 Konkluzje

9 Rodzina entropii Renyiego Wzór dla γ (0, 1) (1, ): H γ (X ) := 1 1 γ log x P(X = x) γ. Przypadki szczególne: H 0 (X ) := log card {x : P(X = x) > 0} H 1 (X ) := x P(X = x) log P(X = x) (entropia Hartleya), (entropia Shannona), H 2 (X ) := log x P(X = x) 2 (entropia kolizji), H (X ) := log maxp(x = x) x (min-entropia). H γ (X ) H δ (X ) dla γ < δ; H γ (X ) γ γ 1 H (X ) dla γ > 1.

10 Ograniczenie dolne (Dębowski, 2015) Intuicja: Jeżeli dopuszczalnych kombinacji symboli, z których składają się teksty, jest mało, to w tekstach tych powtórzenia są długie. Formalnie, zdefiniujmy entropię Hartleya bloku długości n, H 0 (n) := log card { x n 1 : P(X n 1 = x n 1 ) > 0}. Jeżeli dla stacjonarego procesu stochastycznego (X i ) i=1 zachodzi H 0 (n) Bn β dla B > 0 i 0 < β 1, to dla A < B α i α = 1/β mamy L(X1 n ) A (log n)α dla dostatecznie dużych n z prawdopodobieństwem 1.

11 Szkic dowodu 1 Tekst X1 n zawiera n k + 1 podsłów długości k. Z prawdopodobieństwem 1, wsród nich może być co najwyżej exp H 0 (k) różnych podsłów. W rezultacie, jeżeli exp H 0 (k) < n k + 1, to L(X1 n) k zachodzi z prawdopodobieństwem 1. 2 Załóżmy teraz, że H 0 (k) Bk β. Wówczas L(X n 1 ) k dla Bk β < log(n k + 1) log n. Warunek ten zachodzi dla k A (log n) 1/β, gdzie A B 1/β.

12 Wzmocnione ograniczenie dolne Zdefiniujmy entropię Shannona bloku długości n, H 1 (n) := x n 1 P(X n 1 = x n 1 ) log P(X n 1 = x n 1 ) H 0(n). Jeżeli dla stacjonarego procesu stochastycznego (X i ) i=1 zachodzi H 1 (n) Bn β dla B > 0 i 0 < β 1, to dla A < B α /2 i α < 1/β mamy L(X1 n ) A (log n)α dla dostatecznie dużych n z prawdopodobieństwem 1. Dowód wykorzystuje pojęcie złożoności podsłownej.

13 Ograniczenie górne (Shields, 1997) Intuicja: Jeżeli dopuszczalnych kombinacji symboli, z których składają się teksty, jest dużo, to w tekstach tych powtórzenia są krótkie. Formalnie, zdefiniujmy warunkową min-entropię bloku długości n, H cond (n) := log sup x m+n 1 Jeśli proces stochastyczny (X i ) i=1 spełnia P(X m+n m+1 = x m+n m+1 X m 1 = x m 1 ). H cond (n) Bnβ dla B > 0 i 0 < β 1, to dla A > 3 α B α i α = 1/β mamy L(X1 n ) < A (log n)α dla dostatecznie dużych n z prawdopodobieństwem 1.

14 Szkic dowodu Mamy P(L(X1 n ( ) k) ) = P X i +k i+1 = X j+k j+1 dla pewnych 0 i < j n k P(X i +k i +1 = X j+k j+1 ) = 0 i<j n k 0 i<j n k 0 i<j n k x j 1 1 n 2 exp( Bk β ). P(X j 1 1 = x j 1 1 )P(X j+k exp( H cond (k)) j+1 = x i+k i +1 A zatem teza wynika z lematu Borela-Cantellego. X j 1 1 = x j 1 1 )

15 Odpowiednik reguły łańcuchowej dla min-entropii Zdefinujmy bezwarunkową min-entropię bloku Mamy H (n) := log sup P(X m+n m+1 = x m+n m+1 ), x m+n m+1 warunkową min-entropię bloku H cond (n) := log sup x m+n 1 min-informację wzajemną bloku I (n) := log sup x m+n 1 P(X m+n m+1 = x m+n m+1 X m 1 = x m 1 ), P(X m+n m+1 = x m+n m+1 ) P(X m+n m+1 = x m+n m+1 )P(X m 1 = x m 1 ). H (n) H cond (n) + I (n).

16 Intensywności entropii i entropia nadwyżkowa Zdefiniujmy intensywność bezwarunkowej min-entropii h := lim inf n intensywność warunkowej min-entropii h cond min-entropię nadwyżkową := lim inf n H (n), n H cond (n), n Mamy E := lim sup I (n). n h > 0 i h cond = 0 = E =.

17 Maksymalne powtórzenie a globalne miary zależności Dla języka naturalnego mamy L(X n 1 ) A (log n)α, α 3 = H cond (n) Bnβ, β 1/3 = h cond = 0. Ponadto dla języka naturalnego prawdopodobnie h > 0. (Intensywność entropii Shannona to około jeden bit na literę.) Stąd h > 0 i h cond = 0 = E =. Język miałby zatem nieskończoną min-entropię nadwyżkową. (Hilberg 1990: ma nieskończoną entropię nadwyżkową Shannona.)

18 1 Wprowadzenie 2 Ograniczenia górne i dolne 3 Przykłady procesów 4 Konkluzje

19 Procesy o skończonej energii Proces (X i ) i =1 nazywa się procesem o skończonej energii, gdy P(X m+n m+1 = x m+n m+1 X m 1 = x m 1 ) c n, c < 1. Procesy takie spełniają h cond > 0, a zatem L(X n 1 ) A log n dla dostatecznie dużych n z prawdopodobieństwem 1. Stacjonarne procesy o skończonej energii mają dodatnią intensywność entropii Shannona h 1 := H 1 (n) lim n n > 0.

20 Przykłady procesów o skończonej energii (I) Proces (Y i ) i =1 nazywa się ukrytym procesem Markowa, jeżeli Y i = f (X i ) dla pewnej funkcji f oraz dyskretnego procesu Markowa (X i ) i =1, P(X n 1 = x n 1 ) = π(x 1) n p(x i x i 1 ). i =2 Ukrytymi procesami Markowa są m.in. procesy Markowa i IID. Ukryty proces Markowa (Y i ) i =1 jest procesem o skończonej energii, jeśli c := sup P(Y i = y X i 1 = x) < 1. y,x

21 Przykłady procesów o skończonej energii (II) Niech (X, ) będzie grupą. Proces (X i ) i= nazywa się jednostajnie zaszumionym, jeżeli nad alfabetem X X i = W i Z i, gdzie (W i ) i= jest dowolnym procesem nad alfabetem X, zaś (Z i ) i= jest niezależnym procesem IID spelniającym c := max P(Z i = a) < 1. a Procesy jednostajnie zaszumione są procesami o skończonej energii.

22 Regularne procesy Hilberga Proces (X i ) i =1 nazywam regularnym procesem Hilberga, gdy B 1 n β log f (n X 1 ) B 2n β, A 2 (log n) 1/β L(X n 1 ) A 1 (log n) 1/β dla dostatecznie dużych n i pewnych B i, A i > 0 oraz 0 < β < 1 z prawdopobieństwem 1. Stacjonarne regularne procesy Hilberga mają zerową intensywność entropii Shannona h 1 := H 1 (n) lim n n = 0.

23 Procesy RHA (random hierachical association) 1 Weźmy liczby naturalne k 0, k 1,..., gdzie k n 1 k n k 2 n 1. 2 Dla każdego n, niech (L nj, R nj ) j {1,...,kn} będzie niezależną losową kombinacją k n różnych par liczb z {1,..., k n 1 }. 3 Zdefiniujmy zmienne losowe: Y 0 j = j, j {1,..., k 0 }, Y n j = Y n 1 L nj Y n 1 R nj, j {1,..., k n }, n N. 4 Niech C 0, C 1,... będą niezależnymi zmiennymi o rozkładzie: P(C n = j) = 1/k n, j {1,..., k n }. 5 Zdefiniujmy proces RHA: X 1 X 2 X 3... := Y 0 C 0 Y 1 C 1 Y 2 C 2....

24 Przykład regularnego procesu Hilberga Dla parametrów k n = ) exp (2 βn, gdzie 0 < β < 1, średnia stacjonarna procesu RHA jest regularnym procesem Hilberga o parametrze β, tzn. B 1 n β log f (n X 1 ) B 2n β, A 2 (log n) 1/β L(X n 1 ) A 1 (log n) 1/β.

25 1 Wprowadzenie 2 Ograniczenia górne i dolne 3 Przykłady procesów 4 Konkluzje

26 Modele języka naturalnego? nadal wyzwaniem 1 Ukryte procesy Markowa, klasa modeli powszechnie stosowanych w lingwistyce komputerowej, są procesami o skończonej energii. 2 Język naturalny nie jest procesem o skończonej energii, gdyż maksymalne powtórzenie w tekstach rośnie szybciej niż logarytmicznie. 3 Istnieją procesy RHA, dla których maksymalne powtórzenie rośnie jak w języku naturalnym. 4 Jednak procesy RHA również nie są dobrymi modelami języka, gdyż mają zerową intensywność entropii Shannona w przeciwieństwie do języka naturalnego. 5 Lepsze modele języka to prawdopodobnie procesy o dodatniej intensywności entropii Shannona i zerowej intensywności warunkowej min-entropii.

Dyskretne procesy stacjonarne o nieskończonej entropii nadwyżkowej

Dyskretne procesy stacjonarne o nieskończonej entropii nadwyżkowej Dyskretne procesy stacjonarne o nieskończonej entropii nadwyżkowej Łukasz Dębowski ldebowsk@ipipan.waw.pl i Instytut Podstaw Informatyki PAN Co to jest entropia nadwyżkowa? Niech (X i ) i Z będzie procesem

Bardziej szczegółowo

Proces rezerwy w czasie dyskretnym z losową stopą procentową i losową składką

Proces rezerwy w czasie dyskretnym z losową stopą procentową i losową składką z losową stopą procentową i losową składką Instytut Matematyki i Informatyki Politechniki Wrocławskiej 10 czerwca 2008 Oznaczenia Wprowadzenie ξ n liczba wypłat w (n 1, n], Oznaczenia Wprowadzenie ξ n

Bardziej szczegółowo

Stacjonarne procesy gaussowskie, czyli o zwiazkach pomiędzy zwykła

Stacjonarne procesy gaussowskie, czyli o zwiazkach pomiędzy zwykła Stacjonarne procesy gaussowskie, czyli o zwiazkach pomiędzy zwykła autokorelacji Łukasz Dębowski ldebowsk@ipipan.waw.pl Instytut Podstaw Informatyki PAN autokorelacji p. 1/25 Zarys referatu Co to sa procesy

Bardziej szczegółowo

Geometryczna zbieżność algorytmu Gibbsa

Geometryczna zbieżność algorytmu Gibbsa Geometryczna zbieżność algorytmu Gibbsa Iwona Żerda Wydział Matematyki i Informatyki, Uniwersytet Jagielloński 6 grudnia 2013 6 grudnia 2013 1 / 19 Plan prezentacji 1 Algorytm Gibbsa 2 Tempo zbieżności

Bardziej szczegółowo

Ośrodkowość procesów, proces Wienera. Ośrodkowość procesów, proces Wienera Procesy Stochastyczne, wykład, T. Byczkowski,

Ośrodkowość procesów, proces Wienera. Ośrodkowość procesów, proces Wienera Procesy Stochastyczne, wykład, T. Byczkowski, Procesy Stochastyczne, wykład, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 27 luty, 2012 Ośrodkowość procesów Dalej zakładamy, że (Ω, Σ, P) jest zupełną przestrzenią miarową. Definicja.

Bardziej szczegółowo

Prawa wielkich liczb, centralne twierdzenia graniczne

Prawa wielkich liczb, centralne twierdzenia graniczne , centralne twierdzenia graniczne Katedra matematyki i ekonomii matematycznej 17 maja 2012, centralne twierdzenia graniczne Rodzaje zbieżności ciągów zmiennych losowych, centralne twierdzenia graniczne

Bardziej szczegółowo

19 marzec, Łańcuchy Markowa z czasem dyskretnym. Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136

19 marzec, Łańcuchy Markowa z czasem dyskretnym. Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 19 marzec, 2012 Przykłady procesów Markowa (i). P = (p ij ) - macierz stochastyczna, tzn. p ij 0, j p ij =

Bardziej szczegółowo

MNRP r. 1 Aksjomatyczna definicja prawdopodobieństwa (wykład) Grzegorz Kowalczyk

MNRP r. 1 Aksjomatyczna definicja prawdopodobieństwa (wykład) Grzegorz Kowalczyk MNRP 18.03.2019r. Grzegorz Kowalczyk 1 Aksjomatyczna definicja prawdopodobieństwa (wykład) Definicja (σ - ciało) Niech Ω - dowolny zbiór. Rodzinę F P (Ω), gdzie P (Ω) jest rodziną wszystkich podzbiorów

Bardziej szczegółowo

Spacery losowe generowanie realizacji procesu losowego

Spacery losowe generowanie realizacji procesu losowego Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z

Bardziej szczegółowo

Algorytmy MCMC (Markowowskie Monte Carlo) dla skokowych procesów Markowa

Algorytmy MCMC (Markowowskie Monte Carlo) dla skokowych procesów Markowa Algorytmy MCMC (Markowowskie Monte Carlo) dla skokowych procesów Markowa Wojciech Niemiro 1 Uniwersytet Warszawski i UMK Toruń XXX lat IMSM, Warszawa, kwiecień 2017 1 Wspólne prace z Błażejem Miasojedowem,

Bardziej szczegółowo

Elementy teorii informacji i kodowania

Elementy teorii informacji i kodowania i kodowania Entropia, nierówność Krafta, kodowanie optymalne Marcin Jenczmyk m.jenczmyk@knm.katowice.pl 17 kwietnia 2015 M. Jenczmyk Spotkanie KNM i kodowania 1 / 20 Niech S = {x 1,..., x q } oznacza alfabet,

Bardziej szczegółowo

WYKŁAD Z ANALIZY MATEMATYCZNEJ I. dr. Elżbieta Kotlicka. Centrum Nauczania Matematyki i Fizyki

WYKŁAD Z ANALIZY MATEMATYCZNEJ I. dr. Elżbieta Kotlicka. Centrum Nauczania Matematyki i Fizyki WYKŁAD Z ANALIZY MATEMATYCZNEJ I dr. Elżbieta Kotlicka Centrum Nauczania Matematyki i Fizyki http://im0.p.lodz.pl/~ekot Łódź 2006 Spis treści 1. CIĄGI LICZBOWE 2 1.1. Własności ciągów liczbowych o wyrazach

Bardziej szczegółowo

Metody probabilistyczne

Metody probabilistyczne Metody probabilistyczne. Twierdzenia graniczne Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 20.2.208 / 26 Motywacja Rzucamy wielokrotnie uczciwą monetą i zliczamy

Bardziej szczegółowo

Wykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga

Wykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga RAP 412 21.01.2009 Wykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga Wykładowca: Andrzej Ruciński Pisarz: Łukasz Waszak 1 Wstęp Na ostatnim wykładzie przedstawiliśmy twierdzenie o zbieżności

Bardziej szczegółowo

Zdzisław Dzedzej. Politechnika Gdańska. Gdańsk, 2013

Zdzisław Dzedzej. Politechnika Gdańska. Gdańsk, 2013 Zdzisław Dzedzej Politechnika Gdańska Gdańsk, 2013 1 PODSTAWY 2 3 Definicja. Przestrzeń metryczna (X, d) jest zwarta, jeśli z każdego ciągu {x n } w X można wybrać podciąg zbieżny {x nk } w X. Ogólniej

Bardziej szczegółowo

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ. Zadania z Procesów Stochastycznych 1 1. Udowodnij, że z prawdopodobieństwem 1 trajektorie procesu Poissona są niemalejące, przyjmują wartości z Z +, mają wszystkie skoki równe 1 oraz dążą do nieskończoności.

Bardziej szczegółowo

Rozdział 6. Ciągłość. 6.1 Granica funkcji

Rozdział 6. Ciągłość. 6.1 Granica funkcji Rozdział 6 Ciągłość 6.1 Granica funkcji Podamy najpierw dwie definicje granicy funkcji w punkcie i pokażemy ich równoważność. Definicja Cauchy ego granicy funkcji w punkcie. Niech f : X R, gdzie X R oraz

Bardziej szczegółowo

n=0 (n + r)a n x n+r 1 (n + r)(n + r 1)a n x n+r 2. Wykorzystując te obliczenia otrzymujemy, że lewa strona równania (1) jest równa

n=0 (n + r)a n x n+r 1 (n + r)(n + r 1)a n x n+r 2. Wykorzystując te obliczenia otrzymujemy, że lewa strona równania (1) jest równa Równanie Bessela Będziemy rozważać następujące równanie Bessela x y xy x ν )y 0 ) gdzie ν 0 jest pewnym parametrem Rozwiązania równania ) nazywamy funkcjami Bessela rzędu ν Sprawdzamy, że x 0 jest regularnym

Bardziej szczegółowo

Ciągłość funkcji i podstawowe własności funkcji ciągłych.

Ciągłość funkcji i podstawowe własności funkcji ciągłych. Ciągłość funkcji i podstawowe własności funkcji ciągłych. Definicja (otoczenie punktu) Otoczeniem punktu x 0 R, o promieniu nazywamy zbiór x R taki, że: inaczej x x 0 x x 0, x 0 Definicja (ciągłość w punkcie)

Bardziej szczegółowo

F t+ := s>t. F s = F t.

F t+ := s>t. F s = F t. M. Beśka, Całka Stochastyczna, wykład 1 1 1 Wiadomości wstępne 1.1 Przestrzeń probabilistyczna z filtracją Niech (Ω, F, P ) będzie ustaloną przestrzenią probabilistyczną i niech F = {F t } t 0 będzie rodziną

Bardziej szczegółowo

Detekcja rozkładów o ciężkich ogonach

Detekcja rozkładów o ciężkich ogonach Detekcja rozkładów o ciężkich ogonach J. Śmiarowska, P. Jamer Wydział Matematyki i Nauk Informacyjnych Politechnika Warszawska 24 kwietnia 2012 J. Śmiarowska, P. Jamer (Politechnika Warszawska) Detekcja

Bardziej szczegółowo

Ćwiczenia z metodyki nauczania rachunku prawdopodobieństwa

Ćwiczenia z metodyki nauczania rachunku prawdopodobieństwa Ćwiczenia z metodyki nauczania rachunku prawdopodobieństwa 25 marca 209 Zadanie. W urnie jest b kul białych i c kul czarnych. Losujemy n kul bez zwracania. Jakie jest prawdopodobieństwo, że pierwsza kula

Bardziej szczegółowo

Matematyka dyskretna. Andrzej Łachwa, UJ, /14

Matematyka dyskretna. Andrzej Łachwa, UJ, /14 Matematyka dyskretna Andrzej Łachwa, UJ, 2012 andrzej.lachwa@uj.edu.pl 2/14 Funkcji podłogi z logarytmu można użyć do wyliczenia liczby cyfr liczby naturalnej k (k>0): w układzie dziesiętnym log 10 (k)

Bardziej szczegółowo

Teoria systemów uczacych się i wymiar Vapnika-Chervonenkisa

Teoria systemów uczacych się i wymiar Vapnika-Chervonenkisa Systemy uczace się 2009 1 / 32 Teoria systemów uczacych się i wymiar Vapnika-Chervonenkisa Hung Son Nguyen Wydział Matematyki, Informatyki i Mechaniki Uniwersytet Warszawski email: son@mimuw.edu.pl Grudzień

Bardziej szczegółowo

Matematyka ubezpieczeń majątkowych r.

Matematyka ubezpieczeń majątkowych r. Matematyka ubezpieczeń majątkowych 3..007 r. Zadanie. Każde z ryzyk pochodzących z pewnej populacji charakteryzuje się tym że przy danej wartości λ parametru ryzyka Λ rozkład wartości szkód z tego ryzyka

Bardziej szczegółowo

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski Modelowanie zależności pomiędzy zmiennymi losowymi Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski P Zmienne losowe niezależne - przypomnienie Dwie rzeczywiste zmienne losowe X i Y

Bardziej szczegółowo

Testowanie hipotez. Hipoteza prosta zawiera jeden element, np. H 0 : θ = 2, hipoteza złożona zawiera więcej niż jeden element, np. H 0 : θ > 4.

Testowanie hipotez. Hipoteza prosta zawiera jeden element, np. H 0 : θ = 2, hipoteza złożona zawiera więcej niż jeden element, np. H 0 : θ > 4. Testowanie hipotez Niech X = (X 1... X n ) będzie próbą losową na przestrzeni X zaś P = {P θ θ Θ} rodziną rozkładów prawdopodobieństwa określonych na przestrzeni próby X. Definicja 1. Hipotezą zerową Θ

Bardziej szczegółowo

Matematyka ubezpieczeń majątkowych r.

Matematyka ubezpieczeń majątkowych r. Zadanie. W pewnej populacji kierowców każdego jej członka charakteryzują trzy zmienne: K liczba przejeżdżanych kilometrów (w tysiącach rocznie) NP liczba szkód w ciągu roku, w których kierowca jest stroną

Bardziej szczegółowo

Zadania z Rachunku Prawdopodobieństwa III - 1

Zadania z Rachunku Prawdopodobieństwa III - 1 Zadania z Rachunku Prawdopodobieństwa III - 1 Funkcją tworzącą momenty (transformatą Laplace a) zmiennej losowej X nazywamy funkcję M X (t) := Ee tx, t R. 1. Oblicz funkcję tworzącą momenty zmiennych o

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład IV: 27 października 2014 Współczynnik korelacji Brak korelacji a niezależność Definicja współczynnika korelacji Współczynnikiem korelacji całkowalnych z kwadratem zmiennych losowych X i Y nazywamy

Bardziej szczegółowo

Rozdział 4. Ciągi nieskończone. 4.1 Ciągi nieskończone

Rozdział 4. Ciągi nieskończone. 4.1 Ciągi nieskończone Rozdział 4 Ciągi nieskończone W rozdziale tym wprowadzimy pojęcie granicy ciągu. Dalej rozszerzymy to pojęcie na przypadek dowolnych funkcji. Jak zauważyliśmy we wstępie jest to najważniejsze pojęcie analizy

Bardziej szczegółowo

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014 Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014 Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe

Bardziej szczegółowo

Parametr Λ w populacji ubezpieczonych ma rozkład dany na półosi dodatniej gęstością: 3 f

Parametr Λ w populacji ubezpieczonych ma rozkład dany na półosi dodatniej gęstością: 3 f Zadanie. W kolejnych latach t =,,,... ubezpieczony charakteryzujący się parametrem ryzyka Λ generuje N t szkód. Dla danego Λ = λ zmienne N, N, N,... są warunkowo niezależne i mają (brzegowe) rozkłady Poissona:

Bardziej szczegółowo

Układy stochastyczne

Układy stochastyczne Instytut Informatyki Uniwersytetu Śląskiego 21 stycznia 2009 Definicja Definicja Proces stochastyczny to funkcja losowa, czyli funkcja matematyczna, której wartości leżą w przestrzeni zdarzeń losowych.

Bardziej szczegółowo

Statystyka Matematyczna Anna Janicka

Statystyka Matematyczna Anna Janicka Statystyka Matematyczna Anna Janicka wykład X, 9.05.206 TESTOWANIE HIPOTEZ STATYSTYCZNYCH II: PORÓWNYWANIE TESTÓW Plan na dzisiaj 0. Przypomnienie potrzebnych definicji. Porównywanie testów 2. Test jednostajnie

Bardziej szczegółowo

Słownik kodów gramatykowych a spójność logiczna tekstów

Słownik kodów gramatykowych a spójność logiczna tekstów Słownik kodów gramatykowych a spójność logiczna tekstów Łukasz Dębowski ldebowsk@ipipan.waw.pl i Instytut Podstaw Informatyki PAN Prawo Herdana (scałkowana wersja prawa Zipfa) Rozpatrujemy teksty w języku

Bardziej szczegółowo

Zadanie 1. Liczba szkód N w ciągu roku z pewnego ryzyka ma rozkład geometryczny: k =

Zadanie 1. Liczba szkód N w ciągu roku z pewnego ryzyka ma rozkład geometryczny: k = Matematyka ubezpieczeń majątkowych 0.0.006 r. Zadanie. Liczba szkód N w ciągu roku z pewnego ryzyka ma rozkład geometryczny: k 5 Pr( N = k) =, k = 0,,,... 6 6 Wartości kolejnych szkód Y, Y,, są i.i.d.,

Bardziej szczegółowo

Granica kompresji Kodowanie Shannona Kodowanie Huffmana Kodowanie ciągów Kodowanie arytmetyczne. Kody. Marek Śmieja. Teoria informacji 1 / 35

Granica kompresji Kodowanie Shannona Kodowanie Huffmana Kodowanie ciągów Kodowanie arytmetyczne. Kody. Marek Śmieja. Teoria informacji 1 / 35 Kody Marek Śmieja Teoria informacji 1 / 35 Entropia Entropia określa minimalną statystyczną długość kodowania (przyjmijmy dla prostoty że alfabet kodowy A = {0, 1}). Definicja Niech X = {x 1,..., x n }

Bardziej szczegółowo

Gdy n jest duże, statystyka ta (zwana statystyką chikwadrat), przy założeniu prawdziwości hipotezy H 0, ma w przybliżeniu rozkład χ 2 (k 1).

Gdy n jest duże, statystyka ta (zwana statystyką chikwadrat), przy założeniu prawdziwości hipotezy H 0, ma w przybliżeniu rozkład χ 2 (k 1). PRZYKŁADY TESTÓW NIEPARAMETRYCZNYCH. Test zgodności χ 2. Ten test służy testowaniu hipotezy, czy rozważana zmienna ma pewien ustalony rozkład, czy też jej rozkład różni się od tego ustalonego. Tym testem

Bardziej szczegółowo

Zmienne losowe. dr Mariusz Grzadziel. rok akademicki 2016/2017 semestr letni. Katedra Matematyki, Uniwersytet Przyrodniczy we Wrocławiu

Zmienne losowe. dr Mariusz Grzadziel. rok akademicki 2016/2017 semestr letni. Katedra Matematyki, Uniwersytet Przyrodniczy we Wrocławiu Zmienne losowe dr Mariusz Grzadziel Katedra Matematyki, Uniwersytet Przyrodniczy we Wrocławiu rok akademicki 2016/2017 semestr letni Definicja 1 Zmienna losowa nazywamy dyskretna (skokowa), jeśli zbiór

Bardziej szczegółowo

Wykłady... b i a i. i=1. m(d k ) inf

Wykłady... b i a i. i=1. m(d k ) inf Wykłady... CŁKOWNIE FUNKCJI WIELU ZMIENNYCH Zaczniemy od konstrukcji całki na przedziale domkniętym. Konstrukcja ta jest, w gruncie rzeczy, powtórzeniem definicji całki na odcinku domkniętym w R 1. Przedziałem

Bardziej szczegółowo

STATYSTYKA

STATYSTYKA Wykład 1 20.02.2008r. 1. ROZKŁADY PRAWDOPODOBIEŃSTWA 1.1 Rozkład dwumianowy Rozkład dwumianowy, 0 1 Uwaga: 1, rozkład zero jedynkowy. 1 ; 1,2,, Fakt: Niech,, będą niezależnymi zmiennymi losowymi o jednakowym

Bardziej szczegółowo

Procesy stochastyczne

Procesy stochastyczne Wykład I: Istnienie procesów stochastycznych 2 marca 2015 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane są

Bardziej szczegółowo

Wykład 2 Zmienne losowe i ich rozkłady

Wykład 2 Zmienne losowe i ich rozkłady Wykład 2 Zmienne losowe i ich rozkłady Magdalena Frąszczak Wrocław, 11.10.2017r Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe Doświadczenie

Bardziej szczegółowo

Notatki z Analizy Matematycznej 2. Jacek M. Jędrzejewski

Notatki z Analizy Matematycznej 2. Jacek M. Jędrzejewski Notatki z Analizy Matematycznej 2 Jacek M. Jędrzejewski Definicja 3.1. Niech (a n ) n=1 będzie ciągiem liczbowym. Dla każdej liczby naturalnej dodatniej n utwórzmy S n nazywamy n-tą sumą częściową. ROZDZIAŁ

Bardziej szczegółowo

Zmienne losowe. dr Mariusz Grządziel Wykład 12; 20 maja 2014

Zmienne losowe. dr Mariusz Grządziel Wykład 12; 20 maja 2014 Zmienne losowe dr Mariusz Grządziel Wykład 2; 20 maja 204 Definicja. Zmienna losowa nazywamy dyskretna (skokowa), jeśli zbiór jej wartości x, x 2,..., można ustawić w ciag. Zmienna losowa X, która przyjmuje

Bardziej szczegółowo

2.1 Przykład wstępny Określenie i konstrukcja Model dwupunktowy Model gaussowski... 7

2.1 Przykład wstępny Określenie i konstrukcja Model dwupunktowy Model gaussowski... 7 Spis treści Spis treści 1 Przedziały ufności 1 1.1 Przykład wstępny.......................... 1 1.2 Określenie i konstrukcja...................... 3 1.3 Model dwupunktowy........................ 5 1.4

Bardziej szczegółowo

Weryfikacja hipotez statystycznych

Weryfikacja hipotez statystycznych Weryfikacja hipotez statystycznych Przykład (wstępny). Producent twierdzi, że wadliwość produkcji wynosi 5%. My podejrzewamy, że rzeczywista wadliwość produkcji wynosi 15%. Pobieramy próbę stuelementową

Bardziej szczegółowo

Wykład 10 Testy jednorodności rozkładów

Wykład 10 Testy jednorodności rozkładów Wykład 10 Testy jednorodności rozkładów Wrocław, 16 maja 2018 Test Znaków test jednorodności rozkładów nieparametryczny odpowiednik testu t-studenta dla prób zależnych brak normalności rozkładów Test Znaków

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład XI: Testowanie hipotez statystycznych 12 stycznia 2015 Przykład Motywacja X 1, X 2,..., X N N (µ, σ 2 ), Y 1, Y 2,..., Y M N (ν, δ 2 ). Chcemy sprawdzić, czy µ = ν i σ 2 = δ 2, czyli że w obu populacjach

Bardziej szczegółowo

Entropia Kodowanie. Podstawy kompresji. Algorytmy kompresji danych. Sebastian Deorowicz

Entropia Kodowanie. Podstawy kompresji. Algorytmy kompresji danych. Sebastian Deorowicz Algorytmy kompresji danych 2007 02 27 Plan wykładu 1 Modelowanie i kodowanie 2 Modelowanie i kodowanie Plan wykładu 1 Modelowanie i kodowanie 2 Modelowanie i kodowanie definicja stowarzyszona ze zbiorem

Bardziej szczegółowo

Rozdział 5. Szeregi liczbowe. 5.1 Szeregi liczbowe. Definicja sumy częściowej ciągu. Niech dany będzie ciąg liczbowy (a n ) n=1.

Rozdział 5. Szeregi liczbowe. 5.1 Szeregi liczbowe. Definicja sumy częściowej ciągu. Niech dany będzie ciąg liczbowy (a n ) n=1. Rozdział 5 Szeregi liczbowe 5. Szeregi liczbowe Definicja sumy częściowej ciągu. Niech dany będzie ciąg liczbowy ( ). Ciąg (s n ) określony wzorem s n = n a j, n N, nazywamy ciągiem sum częściowych ciągu

Bardziej szczegółowo

WYKŁAD 2. Zdarzenia losowe i prawdopodobieństwo Zmienna losowa i jej rozkłady

WYKŁAD 2. Zdarzenia losowe i prawdopodobieństwo Zmienna losowa i jej rozkłady WYKŁAD 2 Zdarzenia losowe i prawdopodobieństwo Zmienna losowa i jej rozkłady Metody statystyczne metody opisu metody wnioskowania statystycznego syntetyczny liczbowy opis właściwości zbioru danych ocena

Bardziej szczegółowo

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy bez pamięci w których czas i stany są zbiorami dyskretnymi. Procesy stochastyczne WYKŁAD 2-3 Łańcuchy Markowa Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi. Przykład Symetryczne błądzenie przypadkowe na prostej. 1 2 Łańcuchem

Bardziej szczegółowo

Procesy stochastyczne

Procesy stochastyczne Wykład I: Istnienie procesów stochastycznych 21 lutego 2017 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane

Bardziej szczegółowo

Matematyka ubezpieczeń majątkowych r.

Matematyka ubezpieczeń majątkowych r. Matematyka ubezpieczeń majątkowych 4.04.0 r. Zadanie. Przy danej wartości λ parametru ryzyka Λ liczby szkód generowane przez ubezpieczającego się w kolejnych latach to niezależne zmienne losowe o rozkładzie

Bardziej szczegółowo

Matematyka i Statystyka w Finansach. Rachunek Różniczkowy

Matematyka i Statystyka w Finansach. Rachunek Różniczkowy Rachunek Różniczkowy Ciąg liczbowy Link Ciągiem liczbowym nieskończonym nazywamy każdą funkcję a która odwzorowuje zbiór liczb naturalnych N w zbiór liczb rzeczywistych R a : N R. Tradycyjnie wartość a(n)

Bardziej szczegółowo

Matematyka ubezpieczeń majątkowych r.

Matematyka ubezpieczeń majątkowych r. Matematyka ubezpieczeń majątkowych 0.0.005 r. Zadanie. Likwidacja szkody zaistniałej w roku t następuje: w tym samym roku z prawdopodobieństwem 0 3, w następnym roku z prawdopodobieństwem 0 3, 8 w roku

Bardziej szczegółowo

Analiza matematyczna 1 - test egzaminacyjny wersja do ćwiczeń

Analiza matematyczna 1 - test egzaminacyjny wersja do ćwiczeń Analiza matematyczna 1 - test egzaminacyjny wersja do ćwiczeń Leszek Skrzypczak 1. Niech E = {x [0, 1] : x = k 2 n k = 1, 2,... 2 n, n = 1, 2, 3,...} Wówczas: (a) Dla dowolnych liczb wymiernych p, q [0,

Bardziej szczegółowo

Modelowanie sieci złożonych

Modelowanie sieci złożonych Modelowanie sieci złożonych B. Wacław Instytut Fizyki UJ Czym są sieci złożone? wiele układów ma strukturę sieci: Internet, WWW, sieć cytowań, sieci komunikacyjne, społeczne itd. sieć = graf: węzły połączone

Bardziej szczegółowo

Wykład 11: Martyngały: definicja, twierdzenia o zbieżności

Wykład 11: Martyngały: definicja, twierdzenia o zbieżności RAP 412 14.01.2009 Wykład 11: Martyngały: definicja, twierdzenia o zbieżności Wykładowca: Andrzej Ruciński Pisarz:Mirosława Jańczak 1 Wstęp Do tej pory zajmowaliśmy się ciągami zmiennych losowych (X n

Bardziej szczegółowo

Ćwiczenia: Ukryte procesy Markowa lista 1 kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II

Ćwiczenia: Ukryte procesy Markowa lista 1 kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II Ćwiczenia: Ukryte procesy Markowa lista kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II dr Jarosław Kotowicz Zadanie. Dany jest łańcuch Markowa, który może przyjmować wartości,,...,

Bardziej szczegółowo

teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015

teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015 teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015 1 zakres materiału zakres materiału 1. Czym jest teoria informacji? 2. Wprowadzenie matematyczne. 3. Entropia i informacja.

Bardziej szczegółowo

Estymacja gęstości prawdopodobieństwa metodą selekcji modelu

Estymacja gęstości prawdopodobieństwa metodą selekcji modelu Estymacja gęstości prawdopodobieństwa metodą selekcji modelu M. Wojtyś Wydział Matematyki i Nauk Informacyjnych Politechnika Warszawska Wisła, 7 grudnia 2009 Wstęp Próba losowa z rozkładu prawdopodobieństwa

Bardziej szczegółowo

JAO - lematy o pompowaniu dla jezykow bezkontekstowy

JAO - lematy o pompowaniu dla jezykow bezkontekstowy JAO - lematy o pompowaniu dla jezykow bezkontekstowych Postać normalna Chomsky ego Gramatyka G ze zbiorem nieterminali N i zbiorem terminali T jest w postaci normalnej Chomsky ego wtw gdy każda produkcja

Bardziej szczegółowo

teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015

teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015 teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015 1 wczoraj Wprowadzenie matematyczne. Entropia i informacja. Kodowanie. Kod ASCII. Stopa kodu. Kody bezprefiksowe.

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład VII: Rozkład i jego charakterystyki 22 listopada 2016 Uprzednio wprowadzone pojęcia i ich własności Definicja zmiennej losowej Zmienna losowa na przestrzeni probabilistycznej (Ω, F, P) to funkcja

Bardziej szczegółowo

Pojęcie szeregu nieskończonego:zastosowania do rachunku prawdopodobieństwa wykład 1

Pojęcie szeregu nieskończonego:zastosowania do rachunku prawdopodobieństwa wykład 1 Pojęcie szeregu nieskończonego:zastosowania do rachunku prawdopodobieństwa wykład dr Mariusz Grządziel 5 lutego 04 Paradoks Zenona z Elei wersja uwspółcześniona Zenek goni Andrzeja; prędkość Andrzeja:

Bardziej szczegółowo

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy bez pamięci w których czas i stany są zbiorami dyskretnymi. Procesy stochastyczne WYKŁAD 2-3 Łańcuchy Markowa Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi. 2 Łańcuchem Markowa nazywamy proces będący ciągiem zmiennych

Bardziej szczegółowo

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ. Zadania z Procesów Stochastycznych 1 1. Udowodnij, że z prawdopodobieństwem 1 trajektorie procesu Poissona są niemalejące, przyjmują wartości z Z +, mają wszystkie skoki równe 1 oraz dążą do nieskończoności.

Bardziej szczegółowo

Pochodna funkcji odwrotnej

Pochodna funkcji odwrotnej Pochodna funkcji odwrotnej Niech będzie dana w przedziale funkcja różniczkowalna i różnowartościowa. Wiadomo, że istnieje wówczas funkcja odwrotna (którą oznaczymy tu : ), ciągła w przedziale (lub zależnie

Bardziej szczegółowo

Wykład 10. Stwierdzenie 1. X spełnia warunek Borela wtedy i tylko wtedy, gdy każda scentrowana rodzina zbiorów domkniętych ma niepusty przekrój.

Wykład 10. Stwierdzenie 1. X spełnia warunek Borela wtedy i tylko wtedy, gdy każda scentrowana rodzina zbiorów domkniętych ma niepusty przekrój. Wykład 10 Twierdzenie 1 (Borel-Lebesgue) Niech X będzie przestrzenią zwartą Z każdego pokrycia X zbiorami otwartymi można wybrać podpokrycie skończone Dowód Lemat 1 Dla każdego pokrycia U przestrzeni ośrodkowej

Bardziej szczegółowo

Matematyka dyskretna Literatura Podstawowa: 1. K.A. Ross, C.R.B. Wright: Matematyka Dyskretna, PWN, 1996 (2006) 2. J. Jaworski, Z. Palka, J.

Matematyka dyskretna Literatura Podstawowa: 1. K.A. Ross, C.R.B. Wright: Matematyka Dyskretna, PWN, 1996 (2006) 2. J. Jaworski, Z. Palka, J. Matematyka dyskretna Literatura Podstawowa: 1. K.A. Ross, C.R.B. Wright: Matematyka Dyskretna, PWN, 1996 (2006) 2. J. Jaworski, Z. Palka, J. Szmański: Matematyka dyskretna dla informatyków, UAM, 2008 Uzupełniająca:

Bardziej szczegółowo

komputery? Andrzej Skowron, Hung Son Nguyen Instytut Matematyki, Wydział MIM, UW

komputery? Andrzej Skowron, Hung Son Nguyen  Instytut Matematyki, Wydział MIM, UW Czego moga się nauczyć komputery? Andrzej Skowron, Hung Son Nguyen son@mimuw.edu.pl; skowron@mimuw.edu.pl Instytut Matematyki, Wydział MIM, UW colt.tex Czego mogą się nauczyć komputery? Andrzej Skowron,

Bardziej szczegółowo

Funkcje rzeczywiste jednej. Matematyka Studium doktoranckie KAE SGH Semestr letni 2008/2009 R. Łochowski

Funkcje rzeczywiste jednej. Matematyka Studium doktoranckie KAE SGH Semestr letni 2008/2009 R. Łochowski Funkcje rzeczywiste jednej zmiennej rzeczywistej Matematyka Studium doktoranckie KAE SGH Semestr letni 2008/2009 R. Łochowski Definicje Funkcją (odwzorowaniem) f, odwzorowującą zbiór D w zbiór P nazywamy

Bardziej szczegółowo

Testowanie hipotez statystycznych. Wprowadzenie

Testowanie hipotez statystycznych. Wprowadzenie Wrocław University of Technology Testowanie hipotez statystycznych. Wprowadzenie Jakub Tomczak Politechnika Wrocławska jakub.tomczak@pwr.edu.pl 10.04.2014 Pojęcia wstępne Populacja (statystyczna) zbiór,

Bardziej szczegółowo

Ciągłość funkcji f : R R

Ciągłość funkcji f : R R Ciągłość funkcji f : R R Definicja 1. Otoczeniem o promieniu δ > 0 punktu x 0 R nazywamy zbiór O(x 0, δ) := (x 0 δ, x 0 + δ). Otoczeniem prawostronnym o promieniu δ > 0 punktu x 0 R nazywamy zbiór O +

Bardziej szczegółowo

UPORZĄDKOWANIE STOCHASTYCZNE ESTYMATORÓW ŚREDNIEGO CZASU ŻYCIA. Piotr Nowak Uniwersytet Wrocławski

UPORZĄDKOWANIE STOCHASTYCZNE ESTYMATORÓW ŚREDNIEGO CZASU ŻYCIA. Piotr Nowak Uniwersytet Wrocławski UPORZĄDKOWANIE STOCHASTYCZNE ESTYMATORÓW ŚREDNIEGO CZASU ŻYCIA Piotr Nowak Uniwersytet Wrocławski Wprowadzenie X = (X 1,..., X n ) próba z rozkładu wykładniczego Ex(θ). f (x; θ) = 1 θ e x/θ, x > 0, θ >

Bardziej szczegółowo

Maksymalne powtórzenia w tekście i hipotezy probabilistyczne

Maksymalne powtórzenia w tekście i hipotezy probabilistyczne Maksymalne powtórzenia w tekście i hipotezy probabilistyczne Łukasz Dębowski ldebowsk@ipipan.waw.pl i Instytut Podstaw Informatyki PAN Warszawa 2 (4) Warsztat badawczy i Perypatetyczna Konferencja Modelowanie

Bardziej szczegółowo

WYKŁAD 1. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Instytut Matematyki Uniwersytet Warszawski

WYKŁAD 1. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Instytut Matematyki Uniwersytet Warszawski WYKŁAD 1 Witold Bednorz, Paweł Wolff Instytut Matematyki Uniwersytet Warszawski Rachunek Prawdopodobieństwa, WNE, 2010-2011 Wprowadzenie Gry hazardowe Wprowadzenie Gry hazardowe Klasyczna definicja prawdopodobieństwa.

Bardziej szczegółowo

Statystyka i eksploracja danych

Statystyka i eksploracja danych Wykład II: i charakterystyki ich rozkładów 24 lutego 2014 Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa,

Bardziej szczegółowo

EGZAMIN, ANALIZA 1A, zadań po 5 punktów, progi: 30=3.0, 36=3.5, 42=4.0, 48=4.5, 54=5.0

EGZAMIN, ANALIZA 1A, zadań po 5 punktów, progi: 30=3.0, 36=3.5, 42=4.0, 48=4.5, 54=5.0 EGZAMIN, ANALIZA A, 5.0.04 zadań po 5 punktów, progi: 30=3.0, 36=3.5, 4=4.0, 48=4.5, 54=5.0 Zadanie. W każdym z zadań.-.5 podaj w postaci uproszczonej) kresy zbioru oraz napisz, czy kresy należą do zbioru

Bardziej szczegółowo

1. Struktury zbiorów 2. Miara 3. Miara zewnętrzna 4. Miara Lebesgue a 5. Funkcje mierzalne 6. Całka Lebesgue a. Analiza Rzeczywista.

1. Struktury zbiorów 2. Miara 3. Miara zewnętrzna 4. Miara Lebesgue a 5. Funkcje mierzalne 6. Całka Lebesgue a. Analiza Rzeczywista. Literatura P. Billingsley, Miara i prawdopodobieństwo, PWN, Warszawa 1997, P. R. Halmos, Measure theory, Springer-Verlag, 1994, W, Kołodziej, naliza matematyczna, PWN, Warszawa 1978, S. Łojasiewicz, Wstęp

Bardziej szczegółowo

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty Agata Boratyńska Agata Boratyńska Rachunek prawdopodobieństwa, wykład 4 / 9 Przekształcenia zmiennej losowej X

Bardziej szczegółowo

Łatwy dowód poniższej własności pozostawiamy czytelnikowi.

Łatwy dowód poniższej własności pozostawiamy czytelnikowi. Rozdział 3 Logarytm i potęga 3.1 Potęga o wykładniku naturalnym Definicja potęgi o wykładniku naturalnym. Niech x R oraz n N. Potęgą o podstawie x i wykładniku n nazywamy liczbę x n określoną następująco:

Bardziej szczegółowo

Lista 1. Procesy o przyrostach niezależnych.

Lista 1. Procesy o przyrostach niezależnych. Lista. Procesy o przyrostach niezależnych.. Niech N t bedzie procesem Poissona o intensywnoci λ = 2. Obliczyć a) P (N 2 < 3, b) P (N =, N 3 = 6), c) P (N 2 = N 5 = 2), d) P (N =, N 2 = 3, N 4 < 5), e)

Bardziej szczegółowo

4 Kilka klas procesów

4 Kilka klas procesów Marek Beśka, Całka Stochastyczna, wykład 4 48 4 Kilka klas procesów 4.1 Procesy rosnące i przestrzenie V,, loc Jak poprzednio niech (Ω, F, F, P ) będzie zupełną bazą stochastyczną. Definicja 4.1 Proces

Bardziej szczegółowo

28 maja, Problem Dirichleta, proces Wienera. Procesy Stochastyczne, wykład 14, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126

28 maja, Problem Dirichleta, proces Wienera. Procesy Stochastyczne, wykład 14, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126 Problem Dirichleta, proces Wienera Procesy Stochastyczne, wykład 14, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126 28 maja, 2012 Funkcje harmoniczne Niech będzie operatorem Laplace a w

Bardziej szczegółowo

Centralne twierdzenie graniczne

Centralne twierdzenie graniczne Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 4 Ważne uzupełnienie Dwuwymiarowy rozkład normalny N (µ X, µ Y, σ X, σ Y, ρ): f XY (x, y) = 1 2πσ X σ Y 1 ρ 2 { [ (x ) 1

Bardziej szczegółowo

Pochodna funkcji. Pochodna funkcji w punkcie. Różniczka funkcji i obliczenia przybliżone. Zastosowania pochodnych. Badanie funkcji.

Pochodna funkcji. Pochodna funkcji w punkcie. Różniczka funkcji i obliczenia przybliżone. Zastosowania pochodnych. Badanie funkcji. Pochodna funkcji Pochodna funkcji w punkcie. Różniczka funkcji i obliczenia przybliżone. Zastosowania pochodnych. Badanie funkcji. Małgorzata Wyrwas Katedra Matematyki Wydział Informatyki Politechnika

Bardziej szczegółowo

dla t ściślejsze ograniczenie na prawdopodobieństwo otrzymujemy przyjmując k = 1, zaś dla t > t ściślejsze ograniczenie otrzymujemy przyjmując k = 2.

dla t ściślejsze ograniczenie na prawdopodobieństwo otrzymujemy przyjmując k = 1, zaś dla t > t ściślejsze ograniczenie otrzymujemy przyjmując k = 2. Zadanie. Dla dowolnej zmiennej losowej X o wartości oczekiwanej μ, wariancji momencie centralnym μ k rzędu k zachodzą nierówności (typu Czebyszewa): ( X μ k Pr > μ + t σ ) 0. k k t σ *

Bardziej szczegółowo

O pewnych związkach teorii modeli z teorią reprezentacji

O pewnych związkach teorii modeli z teorią reprezentacji O pewnych związkach teorii modeli z teorią reprezentacji na podstawie referatu Stanisława Kasjana 5 i 12 grudnia 2000 roku 1. Elementy teorii modeli Będziemy rozważać język L składający się z przeliczalnej

Bardziej szczegółowo

020 Liczby rzeczywiste

020 Liczby rzeczywiste 020 Liczby rzeczywiste N = {1,2,3,...} Z = { 0,1, 1,2, 2,...} m Q = { : m, n Z, n 0} n Operacje liczbowe Zbiór Dodawanie Odejmowanie Mnożenie Dzielenie N Z Q Pytanie Dlaczego zbiór liczb wymiernych nie

Bardziej szczegółowo

Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału

Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału Magdalena Frąszczak Wrocław, 22.02.2017r Zasady oceniania Ćwiczenia 2 kolokwia (20 punktów każde) 05.04.2017 oraz 31.05.2017 2 kartkówki

Bardziej szczegółowo

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 13 i 14 - Statystyka bayesowska

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 13 i 14 - Statystyka bayesowska WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 13 i 14 - Statystyka bayesowska Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 13 i 14 1 / 15 MODEL BAYESOWSKI, przykład wstępny Statystyka

Bardziej szczegółowo

Korzystając z własności metryki łatwo wykazać, że dla dowolnych x, y, z X zachodzi

Korzystając z własności metryki łatwo wykazać, że dla dowolnych x, y, z X zachodzi M. Beśka, Wstęp do teorii miary, Dodatek 158 10 Dodatek 10.1 Przestrzenie metryczne Niech X będzie niepustym zbiorem. Funkcję d : X X [0, ) spełniającą dla x, y, z X warunki (i) d(x, y) = 0 x = y, (ii)

Bardziej szczegółowo

Wielki rozkład kanoniczny

Wielki rozkład kanoniczny , granica termodynamiczna i przejścia fazowe Instytut Fizyki 2015 Podukład otwarty Podukład otwarty S opisywany układ + rezerwuar R Podukład otwarty S opisywany układ + rezerwuar R układ S + R jest izolowany

Bardziej szczegółowo

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład Rozdział 1 Wektory losowe 1.1 Wektor losowy i jego rozkład Definicja 1 Wektor X = (X 1,..., X n ), którego każda współrzędna jest zmienną losową, nazywamy n-wymiarowym wektorem losowym (krótko wektorem

Bardziej szczegółowo

Prawdopodobieństwo. Prawdopodobieństwo. Jacek Kłopotowski. Katedra Matematyki i Ekonomii Matematycznej SGH. 16 października 2018

Prawdopodobieństwo. Prawdopodobieństwo. Jacek Kłopotowski. Katedra Matematyki i Ekonomii Matematycznej SGH. 16 października 2018 Katedra Matematyki i Ekonomii Matematycznej SGH 16 października 2018 Definicja σ-algebry Definicja Niech Ω oznacza zbiór niepusty. Rodzinę M podzbiorów zbioru Ω nazywamy σ-algebrą (lub σ-ciałem) wtedy

Bardziej szczegółowo