Entropia w klasyfikacji

Wielkość: px
Rozpocząć pokaz od strony:

Download "Entropia w klasyfikacji"

Transkrypt

1 Entropia w klasyfikacji Quadratic Renyi s Entropy: zastosowania w klasyfikacji Wojciech Czarnecki Jacek Tabor GMUM Kraków 2014 Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

2 1 Motywacja Teoria informacji Estymacja rozkładu 2 Teoria Informacji Wyprowadzenie entropii Własności klasycznej entropii Średnie Entropia Renyi ego 3 Statystyka Rozkład normalny Metoda największej wiarygodności Estymacja jadrowa Cauchy-Schwarz Divergence 4 Główny cel Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

3 Motywacja Teoria informacji Po co nam teoria informacji (entropia)? [J. Principe Information Theoretic Learning ]: The common problem faced by many data processing professionals is HOW TO BEST EXTRACT THE INFORMATION CONTAINED IN DATA.... Data hides, either in time structure or in spatial redundancy, important clues to answer the information-processing questions we pose.... Therefore the pressure to DISTILL INFORMATION from data will mount at an increasing pace in the future, and old ways of dealing with this problem will be forced to evolve and adapt to the new reality. Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

4 Motywacja Teoria informacji Gdzie się stosuje? kodowanie i kompresja (Shannon, Huffman, etc) Rissanen: MDLP (minimum description length principle) konstrukcja modeli klastrowanie (Google/entropy clustering/: około wyników,..., CEC) klasyfikacja (decision trees) EM (expectation maximization) ICA (independent component analysis) W zasadzie w każdej działce nauczania maszynowego teoria informacji znajduje zastosowania. Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

5 Motywacja Teoria informacji Podstawowe hasła które się pojawia teoria informacji entropia Shannona h entropia krzyżowa H dywergencja Kullbacka-Leiblera D KL joint entropy H(X, Y ) mutual information I entropia Renyi ego Cross Information Potential (ip ) dywergencja Cauchy ego-schwarza D CS Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

6 Motywacja Estymacja rozkładu Mamy wylosowana próbkę, i na podstawie tej próbki chcemy mieć pojęcie o prawdziwym rozkładzie (umiejętność generowania z prawdziwego rozkładu). Przydaje się w: kompresja danych (do kompresji, potrzebujemy mieć prawd.) generowanie nowych danych z o tym samym rozkładzie (uczenie sieci, ekonomia - przeprowadzanie symulacji: Iwona Żerda) głębokie nauczanie (Algorytm Gibbsa-Hastingsa: Igor) Metoda weryfikacyjna: five-fold technique (uczymy się na podstawie zbioru uczacego czegoś o danych, i sprawdzamy czy nauczyliśmy się dobrze weryfikujac wnioski na zbiorze testujacym). Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

7 Motywacja Estymacja rozkładu Podstawowe hasła które się pojawia histogram estymacja jadrowa (kernel estimation) kernel width metoda największej wiarygodności gaussian mixture models EM (expectation maximization) Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

8 Teoria Informacji Wyprowadzenie entropii Wyprowadzenie Entropii I: entropia Shannona Shannon: lata 50 poprzedniego wieku. [T. Cover Elements of Information Theory ] Mamy alfabet źródłowy S (o mocy m) i alfabet kodowy A = {0, 1}. Chcemy przesłać tekst napisany w alfabecie źródłowym, ale nasz kanał informacyjny pozwala na przesyłanie tylko A. Czyli chcemy każdy element z S wyrazić za pomoca słów z A (niepuste słowa o skończonej długości). Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

9 Teoria Informacji Wyprowadzenie entropii Wyprowadzenie Entropii I: entropia Shannona Shannon: lata 50 poprzedniego wieku. [T. Cover Elements of Information Theory ] Mamy alfabet źródłowy S (o mocy m) i alfabet kodowy A = {0, 1}. Chcemy przesłać tekst napisany w alfabecie źródłowym, ale nasz kanał informacyjny pozwala na przesyłanie tylko A. Czyli chcemy każdy element z S wyrazić za pomoca słów z A (niepuste słowa o skończonej długości). Definicja Przez funkcję kodujac a (kodowanie) rozumiem dowolna funkcję ϕ : S A. Kodowanie nazywamy nieosobliwym jeżeli jest iniektywne, to znaczy jeżeli dwa różne elementy kodowane sa różnymi kodami (słowamu). Jeżeli mamy wiele, to wtedy oddzielamy znakiem specjalnym (zazwyczaj przecinkiem, spacja badź średnikiem). Ale to nie jest wygodne, bo musimy używać dodatkowego symbolu. Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

10 Teoria Informacji Wyprowadzenie entropii Definicja Rozszerzenie kodu to odwzorowanie ϕ : S A dane wzorem ϕ(s 1 s 2... s k ) := ϕ(s 1 )ϕ(s 2 )... ϕ(s k ). Kodowanie (kod) jest jednoznacznie dekodowalne jeżeli jego rozszerzenie jest nieosobliwe. Innymi słowy, kodowanie jest nieosobliwe, jeżeli majac słowo w = w 1 w 2... w K (gdzie w i to słowa kodowe) możemy jednoznacznie odzyskać jego rozkład na w 1 ; w 2 ;... ; w k (przykład: kody prefiksowe). Pytanie, jeżeli mamy dany alfabet, i chcemy zrealizować kod o zadanej długości - kiedy nam się uda? Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

11 Teoria Informacji Wyprowadzenie entropii Definicja Rozszerzenie kodu to odwzorowanie ϕ : S A dane wzorem ϕ(s 1 s 2... s k ) := ϕ(s 1 )ϕ(s 2 )... ϕ(s k ). Kodowanie (kod) jest jednoznacznie dekodowalne jeżeli jego rozszerzenie jest nieosobliwe. Innymi słowy, kodowanie jest nieosobliwe, jeżeli majac słowo w = w 1 w 2... w K (gdzie w i to słowa kodowe) możemy jednoznacznie odzyskać jego rozkład na w 1 ; w 2 ;... ; w k (przykład: kody prefiksowe). Pytanie, jeżeli mamy dany alfabet, i chcemy zrealizować kod o zadanej długości - kiedy nam się uda? Twierdzenie (Nierówność Krafta) Alfabet źródłowy S o m elementach, da się zakodować jednoznacznie dekodowalnie za pomoca słów zbudowanych z A = {0, 1} o długościach l 1,..., l m wtw. gdy m 2 l i 1. i=1 Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

12 Teoria Informacji Wyprowadzenie entropii Wartość oczekiwana długości słowa definicja entropii Załóżmy, że mamy rozkład prawdopodobieństwa na S = {s 1,..., s m }, czyli litera s i pojawia się z prawdopodobieństwem p i = p(s i ) (zakładamy dodatkowo, że źródło ma brak pamięci, to znaczy, że to co pojawi się następne nie zależy od tego co pojawiło się poprzednio). Chcemy kodować zużywajac statystycznie/średnio minimalna ilość pamięci. Załóżmy, że mamy dany alfabet kodujacy A i iniektywna funkcję kodujac a ϕ : S A (przyjmujemy l i to długość słowa ϕ(s i )). Wartość średnia (oczekiwana) długości słowa kodujacego jest oczywiście dana wzorem L := p i l i. i Pytanie jak dobrać wartości l i by minimalizować wartość oczekiwana ilości pamięci. Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

13 Teoria Informacji Wyprowadzenie entropii Ponieważ na podstawie nierówności Krafta wiemy jakie długości sa dopuszczalne, dostajemy problem minimalizacji L(l 1,..., l n ) := i p i l i przy warunku 2 l i 1. i Zapominamy o tym, że sa całkowite (dostaniemy przybliżenie), i wtedy możemy zwiększyć L zakładajac równość. Otrzymaliśmy więc następujacy problem: Problem (Problem optymizacyjny) Znaleźć minimum L(r 1,..., r n ) := i p i r i przy warunku i 2 r i = 1. Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

14 Dowód. Teoria Informacji Wyprowadzenie entropii Rozwiazanie: wykorzystamy metodę mnożników Lagrange a: J(r 1,..., r n ; λ) = i p i r i + λ( i 2 r i 1). Różniczkujac dostajemy i przyrównujac do zera dostajemy J r i = p i λ2 r i ln 2, 2 r i = p i /(λ ln 2). Podstawiajac do warunku na λ, dostajemy λ = 1/ ln 2, czyli p i = 2 r i, dajac optymalne kody dla r i = log 2 p i i wartość oczekiwana długości słowa kodujacego p i r i = p i log 2 p i. i i Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

15 Teoria Informacji Wyprowadzenie entropii Definicja Entropii Shannona Definicja (Definicja Entropii Shannona) W konsekwencji dostajemy definicję entropii dla ciagu prawdopodobieństw (p i ) H((p i ) i ) := p i log 2 p i. i Rysunek: Entropia dla p, 1 p. Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

16 Teoria Informacji Własności klasycznej entropii Zdarzenia warunkowe Niech K oznacza zbiór indeksów. Załóżmy, że źródło wysyła litery S = (s k ) k K z prawdopodobieństwami (p k ) k K. Dla podzbioru L K rozpatrujemy zdarzenie polegajace na tym, że wiemy, że zaszło zdarzenie S L odpowiadajacemu któremuś z indeksów z L (czyli wylosowaliśmy która z liter (s l ) l L ). Prawdopodobieństwo tego, że wylosowaliśmy któraś z literek o indeksie l L (zaszło L) to oczywiście p(l) = l L p l. Prawdopodobieństwo wylosowania literki l (o ile wiemy, że zaszło L prawdopodobieństwo warunkowe) wynosi p l /p(l). Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

17 Teoria Informacji Własności klasycznej entropii Zdarzenia warunkowe Niech K oznacza zbiór indeksów. Załóżmy, że źródło wysyła litery S = (s k ) k K z prawdopodobieństwami (p k ) k K. Dla podzbioru L K rozpatrujemy zdarzenie polegajace na tym, że wiemy, że zaszło zdarzenie S L odpowiadajacemu któremuś z indeksów z L (czyli wylosowaliśmy która z liter (s l ) l L ). Prawdopodobieństwo tego, że wylosowaliśmy któraś z literek o indeksie l L (zaszło L) to oczywiście p(l) = l L p l. Prawdopodobieństwo wylosowania literki l (o ile wiemy, że zaszło L prawdopodobieństwo warunkowe) wynosi p l /p(l). W konsekwencji, średnia długość kodu przypadajac a na kodowanie którejś z liter o indeksie z L wynosi H(S L ) := l L p l p(l) log 2 p l. Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

18 Teoria Informacji Własności klasycznej entropii Uśrednianie informacji Przypominam: ŚREDNIA ARYTMETYCZNA. p 1 procent pracowników załogi zarabia r 1,..., p k procent zarabia zarabia r k. Średnie zarobki r wynosza r = p 1 r p k r k. Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

19 Teoria Informacji Własności klasycznej entropii Uśrednianie informacji Przypominam: ŚREDNIA ARYTMETYCZNA. p 1 procent pracowników załogi zarabia r 1,..., p k procent zarabia zarabia r k. Średnie zarobki r wynosza r = p 1 r p k r k. Jeżeli mamy rozbicie K na sumę rozłaczn a zdarzeń L 1,..., L k, to możemy rozpatrzyć średnia długość kodu H(S Li ) użyta do kodowania przy zdarzeniu L i. Widać, że całkowita ilość informacji (długość kodu) H(S) jest średnia arytmetyczna ilości informacji niesionej przez poszczególne zdarzenia: H(S) = p(l 1 ) H(S L1 ) p(l k ) H(S Lk ). Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

20 Teoria Informacji Własności klasycznej entropii Informacja niesiona przez zdarzenia niezależne Zajmijmy się teraz iloczynem kartezjańskim dwóch rozkładów. Majac rozkłady p = (p 1,..., p n ) (odpowiada zdarzeniu P) i q = (q 1,..., q k ) (odpowiada zdarzeniu Q), rozkład prawdopodobieństwa zdarzenia (P, Q) (przy założeniu niezależności tych zdarzeń) jest dany wzorem Oznaczam ten rozkład wzorem P Q (p i q j ) i,j. Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

21 Teoria Informacji Własności klasycznej entropii Informacja niesiona przez zdarzenia niezależne Zajmijmy się teraz iloczynem kartezjańskim dwóch rozkładów. Majac rozkłady p = (p 1,..., p n ) (odpowiada zdarzeniu P) i q = (q 1,..., q k ) (odpowiada zdarzeniu Q), rozkład prawdopodobieństwa zdarzenia (P, Q) (przy założeniu niezależności tych zdarzeń) jest dany wzorem Oznaczam ten rozkład wzorem P Q (p i q j ) i,j. Okazuje się, że informacja wnoszona przez przypadek gdy zaszła para zdarzeń (przy założeniu ich niezależności), jest równa sumie informacji wnoszonej przez każde z tych zdarzeń z osobna: H(P Q) = H(P) + H(Q). Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

22 Teoria Informacji Średnie Sposób uśredniania informacji ŚREDNIA ARYTMETYCZNA. p 1 procent załogi zarabia r 1,..., p k procent zarabia r k. Średnie zarobki r wynosza r = p 1 r p k r k. Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

23 Teoria Informacji Średnie Sposób uśredniania informacji ŚREDNIA ARYTMETYCZNA. p 1 procent załogi zarabia r 1,..., p k procent zarabia r k. Średnie zarobki r wynosza r = p 1 r p k r k. ŚREDNIA HARMONICZNA. p 1 procent drogi jedziemy z prędkościa r 1,..., p k z r k. Wtedy średnia prędkość r na trasie wynosi r = 1/(p 1 /r p k /r k ). Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

24 Teoria Informacji Średnie Sposób uśredniania informacji ŚREDNIA ARYTMETYCZNA. p 1 procent załogi zarabia r 1,..., p k procent zarabia r k. Średnie zarobki r wynosza r = p 1 r p k r k. ŚREDNIA HARMONICZNA. p 1 procent drogi jedziemy z prędkościa r 1,..., p k z r k. Wtedy średnia prędkość r na trasie wynosi r = 1/(p 1 /r p k /r k ). ŚREDNIA POTEGOWA RZEDU 3. Mamy p 1 procent kuleczek z plasteliny o promieniu r 1,..., p k procent kuleczek o promieniu r k. Zlepiamy te kulki razem i lepimy taka sama sumaryczna ilość kuleczek, ale o jednakowym promieniu r. Wtedy r = (p 1 r p krk 3 )1/3. Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

25 Teoria Informacji Średnie Bardziej abstrakcyjne spojrzenie Wszystkie powyższe średnie można uzyskać biorac funkcję g i rozpatrujac g 1 (p 1 g(r 1 ) p k g(r k )). Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

26 Teoria Informacji Średnie Bardziej abstrakcyjne spojrzenie Wszystkie powyższe średnie można uzyskać biorac funkcję g i rozpatrujac g 1 (p 1 g(r 1 ) p k g(r k )). ARYTMETYCZNE: g(r) = r HARMONICZNA: g(r) = 1/r POTEGOWA RZEDU 3: g(r) = r 3 W pewnym sensie jest to jedyna naturalna metoda generowania średnich. Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

27 Teoria Informacji Entropia Renyi ego Wyprowadzenie Entropii Renyi ego Szukamy teraz takich średnich g i funkcji entropii H R by zachodziły dwa warunki. 1. Informacja niesiona przez całe zdarzenie jest równa średniej informacji niesionej przez poszczególne zdarzenia: H R (S) = g 1( p(l 1 ) g(h R (S L1 )) p(l k ) g(h R (S Lk )) ). 2. Informacja niesiona przez parę zdarzeń niezależnych jest suma informacji niesionych przez każde z tych zdarzeń: H R (P Q) = H R (P) + H R (Q). Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

28 Teoria Informacji Entropia Renyi ego Definicja Entropii Renyi ego Renyi pokazał, że jedyne rozwiazanie powyższego (modulo transformacje afiniczne które nie zmieniaja wartości średniej) jest dane przez RYSUNEK. g α (x) = 2(α 1)x 1 dla α 1, (α 1) ln 2 g 1 (x) = x. Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

29 Teoria Informacji Entropia Renyi ego Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

30 Teoria Informacji Entropia Renyi ego W konsekwencji w naturalny sposób otrzymujemy: Definicja (Entropia Renyi ego rzędu α) Dla α 1 kładziemy H α (p 1,..., p k ) = 1 1 α log( i p α i ). Dla α = 1 kładziemy H α (p 1,..., p k ) = i p i log(p i ). Łatwo pokazać, że H α (P) H 1 (P) = H(P) przy α 1. Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

31 Teoria Informacji Entropia Renyi ego Przykład zastosowania Drzewa decyzyjne. [T. Maszczyk, W. Duch Comparison of Shannon, Renyi and Tsallis Entropy used in Decision Trees, Artificial Intelligence and Soft Computing ICAISC 2008, Springer] Porównania stosowania różnych entropii w drzewach decyzyjnych. Okazuje się, że przydaja się różne (cytat skrócony): For the Colon dataset peak accuracy is achieved for Renyi entropy with α = 2, with specificity (accuracy of the second class) significantly higher than for the Shannon case, and with smaller variance. For DLBCL Renyi entropy with α in the range give the best results, improving both specificity and sensitivity of the Shannon measure. For the Leukemia data best Renyi result for α = 0.1, around 88.5 ± 2.4 is significantly better than Shannon s 81.4 ± 4.1. Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

32 Teoria Informacji Entropia Renyi ego Entropia różniczkowa Przechodzac w definicji entropii, analogicznie jak w całce Riemanna, do granicy, otrzymujemy pojęcie entropii różniczkowej dla rozkładu prawdopodobieństwa o gęstości f (x). Definicja (Entropia różniczkowa Renyi ego rzędu α) Dla α 1 kładziemy H α (f ) = 1 1 α log( f (x) α dx). Dla α = 1 kładziemy H α (f ) = f (x) log(f (x))dx. Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

33 Statystyka Rozkład normalny Zaczynamy statystykę Główny rozkład w statystyce to rozkład normalny N(m, σ 2 ), gdzie m to wartość średnia, a σ 2 wariancja. Gęstość: N(m, σ 2 ) = 1 (x m)2 exp( 2πσ 2σ 2 ). Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

34 Statystyka Rozkład normalny Entropia dla rozkładu normalnego Entropia Renyi ego rozkładu normalnego: H α (N(m, σ 2 )) = 1 1 α log ( 1 m)2 (2πσ 2 exp( (x ) α 2σ 2 /α )). Częsty trik polega na wykorzystaniu tego, że rozkład normalny całkuje się do jedynki. Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

35 Statystyka Rozkład normalny Entropia dla rozkładu normalnego Entropia Renyi ego rozkładu normalnego: H α (N(m, σ 2 )) = 1 1 α log ( 1 m)2 (2πσ 2 exp( (x ) α 2σ 2 /α )). Częsty trik polega na wykorzystaniu tego, że rozkład normalny całkuje się do jedynki. PRZEPROWADZIĆ WYPROWADZENIE NA TABLICY. Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

36 Statystyka Metoda największej wiarygodności Maximum likelihood estimation (MLE) Zakładamy, że mamy dwa rozkłady f i g, i mamy zbiór danych X = (x 1,..., x n ). Pytamy się, jak sprawdzić który z tych rozkładów bardziej pasuje do naszego zbioru danych? Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

37 Statystyka Metoda największej wiarygodności Maximum likelihood estimation (MLE) Zakładamy, że mamy dwa rozkłady f i g, i mamy zbiór danych X = (x 1,..., x n ). Pytamy się, jak sprawdzić który z tych rozkładów bardziej pasuje do naszego zbioru danych? Idea jest bardzo prosta: wybieramy ten rozkład któremu łatwiej byłoby wylosować nasze dane. W tym celu porównujemy f (x 1 )... f (x n ) oraz g(x 1 )... g(x n ). Zwyczajowo aby pozbyć się iloczynu, logarytmujemy: log f (x 1 ) log f (x n ) oraz log g(x 1 ) log g(x n ). I wybieramy ten rozkład, który ma większa wartość. Na tej idei oparte jest w szczególności EM (expectation maximization). Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

38 Statystyka Metoda największej wiarygodności MLE: podejście teorio-informatyczne Zakładamy, że mamy dwa rozkłady f i g, i mamy zbiór danych X = (x 1,..., x n ). Pytamy się, jak sprawdzić który z tych rozkładów bardziej pasuje do naszego zbioru danych? Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

39 Statystyka Metoda największej wiarygodności MLE: podejście teorio-informatyczne Zakładamy, że mamy dwa rozkłady f i g, i mamy zbiór danych X = (x 1,..., x n ). Pytamy się, jak sprawdzić który z tych rozkładów bardziej pasuje do naszego zbioru danych? Idea jest bardzo prosta: wybieramy ten rozkład któremu łatwiej byłoby skompresować nasze dane. Pamiętamy z wyprowadzenia entropii, że optymalna długość kodu przy kodowaniu punktu x to log f (x). W konsekwencji porównujemy log f (x 1 )... log f (x n ) oraz log g(x 1 )... log g(x n ). I wybieramy ten rozkład, dla którego powyższa wartość jest mniejsza. Na tej zasadzie jest na przykład zbudowany CEC. Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

40 Statystyka Estymacja jadrowa Estymacja jadrowa [B. Silverman: Density Estimation for Statistics] Mamy zbiór danych X R. I teraz nie chcemy wybrać z jakiegoś z góry wybranego zbioru rozkładów (nie mamy pewności/zaufania, czy akurat tego typu rozkład tam się będzie znajdował). Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

41 Statystyka Estymacja jadrowa Estymacja jadrowa [B. Silverman: Density Estimation for Statistics] Mamy zbiór danych X R. I teraz nie chcemy wybrać z jakiegoś z góry wybranego zbioru rozkładów (nie mamy pewności/zaufania, czy akurat tego typu rozkład tam się będzie znajdował). Pomysł estymacji jadrowej jest bardzo prosty, zastępujemy każdy punkt x i z X = (x 1,..., x n ) waskim rozkładem normalnym wycentrowanym w punkcie x i N(x i, σ 2 ) i uśredniamy/sumujemy po wszystkich punktach z X: 1 X n N(x i, σ 2 ). i=1 Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

42 Statystyka Estymacja jadrowa Estymacja jadrowa [B. Silverman: Density Estimation for Statistics] Mamy zbiór danych X R. I teraz nie chcemy wybrać z jakiegoś z góry wybranego zbioru rozkładów (nie mamy pewności/zaufania, czy akurat tego typu rozkład tam się będzie znajdował). Pomysł estymacji jadrowej jest bardzo prosty, zastępujemy każdy punkt x i z X = (x 1,..., x n ) waskim rozkładem normalnym wycentrowanym w punkcie x i N(x i, σ 2 ) i uśredniamy/sumujemy po wszystkich punktach z X: 1 X n N(x i, σ 2 ). i=1 Pomysł okazuje się być bardzo fajny, tylko powstaje naturalne pytanie jak dobrać window width σ? MATHEMATICA. Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

43 Statystyka Estymacja jadrowa Wzór Silvermana Wzór Silvermana dla estymacji jadrowej dla grupy danych X = (x 1,..., x n ) R: σ opt = (4/3) 1/5 n 1/5 σ X. Wzór powyższy jest optymalny w sytuacji gdy dane pochodza z rozkładu normalnego. Ogólnie optymalna może być inna szerokość jadra, ale zazwyczaj okazuje się, że dla danych realnych (które moga być więcej niż jedno-modalne PRZYKŁAD), wartość ta będzie mniejsza niż wskazuje wzór Silvermana. Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

44 Statystyka Estymacja jadrowa Klatwa wymiarowości Okazuje się, że to samo można robić w wielu wymiarach. I jest to realne do wykonania w R 2, R 3. W wyższych wymiarach działa klatwa wymiarowości, która (upraszczajac) mówi, że wszystkie punkty w zbiorze sa maksymalnie odległe jak to możliwe. Precyzyjniej, jak mamy wylosowane punkty losowe z kostki [0, 1] D, to dla dużych D odległość między tymi punktami jest bliska maksymalnej dopuszczalnej odległości. W konsekwencji najbardziej wiarygodne jest dokonywanie estymacji gęstości w sytuacjach nisko-wymiarowych. Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

45 Statystyka Estymacja jadrowa Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

46 Statystyka Cauchy-Schwarz Divergence Cauchy-Schwarz Divergence Pojęcie zbliżone do dywergencji Kullbacka-Leiblera, ale dla entropii Renyi ego. Mierzy na ile dwa rozkłady sa sobie bliskie. Definicja: Jeżeli 0, to f = g. D CS (f, g) := log f 2 + log g 2 2 log fg [0, ]. Chcemy zmaksymalizować. Zanalizujmy poszczególne czynniki: kiedy się maksymalizuje f 2 : jak f jest możliwie skupione, kiedy się minimalizuje fg: jak f i g sa prostopadłe (maja rozłaczne supporty). Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

47 Główny cel CEL Co chcemy zrobić: Mamy dane X, Y R D. Szukamy takiej prostej (rozpiętej na v S), aby po zrzutowaniu danych na nia dywergencja Cauchy ego-schwarza (po estymacji jadrowej) D CS ([X v ], [Y v ]). Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

48 Główny cel CEL Co chcemy zrobić: Mamy dane X, Y R D. Szukamy takiej prostej (rozpiętej na v S), aby po zrzutowaniu danych na nia dywergencja Cauchy ego-schwarza (po estymacji jadrowej) D CS ([X v ], [Y v ]). Po co: Mamy nadzieję, że będzie dawało dobre efekty klasyfikacyjne, wizualizacyjne. Wojciech Czarnecki, Jacek Tabor (GMUM) Entropia w klasyfikacji Kraków / 34

Kodowanie i entropia

Kodowanie i entropia Kodowanie i entropia Marek Śmieja Teoria informacji 1 / 34 Kod S - alfabet źródłowy mocy m (np. litery, cyfry, znaki interpunkcyjne), A = {a 1,..., a n } - alfabet kodowy (symbole), Chcemy przesłać tekst

Bardziej szczegółowo

Granica kompresji Kodowanie Shannona Kodowanie Huffmana Kodowanie ciągów Kodowanie arytmetyczne. Kody. Marek Śmieja. Teoria informacji 1 / 35

Granica kompresji Kodowanie Shannona Kodowanie Huffmana Kodowanie ciągów Kodowanie arytmetyczne. Kody. Marek Śmieja. Teoria informacji 1 / 35 Kody Marek Śmieja Teoria informacji 1 / 35 Entropia Entropia określa minimalną statystyczną długość kodowania (przyjmijmy dla prostoty że alfabet kodowy A = {0, 1}). Definicja Niech X = {x 1,..., x n }

Bardziej szczegółowo

Teoria informacji i kodowania Ćwiczenia

Teoria informacji i kodowania Ćwiczenia Teoria informacji i kodowania Ćwiczenia Piotr Chołda, Andrzej Kamisiński Katedra Telekomunikacji Akademii Górniczo-Hutniczej Kod źródłowy Kodem źródłowym nazywamy funkcję różnowartościową, która elementom

Bardziej szczegółowo

Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9,

Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9, 1 Kody Tunstalla Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9, 14.04.2005 Inne podejście: słowa kodowe mają ustaloną długość, lecz mogą kodować ciągi liter z alfabetu wejściowego o różnej

Bardziej szczegółowo

Entropia Renyi ego, estymacja gęstości i klasyfikacja

Entropia Renyi ego, estymacja gęstości i klasyfikacja Entropia Renyi ego, estymacja gęstości i klasyfikacja Wojciech Czarnecki Jacek Tabor 6 lutego 2014 1 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 1/36 36 2 / Wojciech Czarnecki,

Bardziej szczegółowo

Teoria Informacji - wykład. Kodowanie wiadomości

Teoria Informacji - wykład. Kodowanie wiadomości Teoria Informacji - wykład Kodowanie wiadomości Definicja kodu Niech S={s 1, s 2,..., s q } oznacza dany zbiór elementów. Kodem nazywamy wówczas odwzorowanie zbioru wszystkich możliwych ciągów utworzonych

Bardziej szczegółowo

Elementy teorii informacji i kodowania

Elementy teorii informacji i kodowania i kodowania Entropia, nierówność Krafta, kodowanie optymalne Marcin Jenczmyk m.jenczmyk@knm.katowice.pl 17 kwietnia 2015 M. Jenczmyk Spotkanie KNM i kodowania 1 / 20 Niech S = {x 1,..., x q } oznacza alfabet,

Bardziej szczegółowo

Kody Tunstalla. Kodowanie arytmetyczne

Kody Tunstalla. Kodowanie arytmetyczne Kody Tunstalla. Kodowanie arytmetyczne Kodowanie i kompresja informacji - Wykład 3 8 marca 2010 Kody Tunstalla Wszystkie słowa kodowe maja ta sama długość ale jeden kod może kodować różna liczbę liter

Bardziej szczegółowo

Kompresja bezstratna. Entropia. Kod Huffmana

Kompresja bezstratna. Entropia. Kod Huffmana Kompresja bezstratna. Entropia. Kod Huffmana Kodowanie i bezpieczeństwo informacji - Wykład 10 29 kwietnia 2013 Teoria informacji Jeśli P(A) jest prawdopodobieństwem wystapienia informacji A to niech i(a)

Bardziej szczegółowo

Wygra Polska czy Brazylia, czyli o tym jak zwięźle zapisywać informacje

Wygra Polska czy Brazylia, czyli o tym jak zwięźle zapisywać informacje Wygra Polska czy Brazylia, czyli o tym jak zwięźle zapisywać informacje Witold Tomaszewski Instytut Matematyki Politechniki Śląskiej e-mail: Witold.Tomaszewski@polsl.pl Je n ai fait celle-ci plus longue

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium JAVA Zadanie nr 2 Rozpoznawanie liter autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z problemem klasyfikacji

Bardziej szczegółowo

0 + 0 = 0, = 1, = 1, = 0.

0 + 0 = 0, = 1, = 1, = 0. 5 Kody liniowe Jak już wiemy, w celu przesłania zakodowanego tekstu dzielimy go na bloki i do każdego z bloków dodajemy tak zwane bity sprawdzające. Bity te są w ścisłej zależności z bitami informacyjnymi,

Bardziej szczegółowo

Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1

Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1 Weryfikacja hipotez statystycznych KG (CC) Statystyka 26 V 2009 1 / 1 Sformułowanie problemu Weryfikacja hipotez statystycznych jest drugą (po estymacji) metodą uogólniania wyników uzyskanych w próbie

Bardziej szczegółowo

Entropia to wielkość określająca liczbę bitów informacji zawartej w danej wiadomości lub źródle. Spełnia ona trzy naturalne warunki: I(s) jest

Entropia to wielkość określająca liczbę bitów informacji zawartej w danej wiadomości lub źródle. Spełnia ona trzy naturalne warunki: I(s) jest Entropia to wielkość określająca liczbę bitów informacji zawartej w danej wiadomości lub źródle. Spełnia ona trzy naturalne warunki: I(s) jest malejącą funkcją prawdopodobieństwa zajścia zdarzenia s. I(s)

Bardziej szczegółowo

5. Analiza dyskryminacyjna: FLD, LDA, QDA

5. Analiza dyskryminacyjna: FLD, LDA, QDA Algorytmy rozpoznawania obrazów 5. Analiza dyskryminacyjna: FLD, LDA, QDA dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Liniowe funkcje dyskryminacyjne Liniowe funkcje dyskryminacyjne mają ogólną

Bardziej szczegółowo

Weryfikacja hipotez statystycznych

Weryfikacja hipotez statystycznych Weryfikacja hipotez statystycznych Hipoteza Test statystyczny Poziom istotności Testy jednostronne i dwustronne Testowanie równości wariancji test F-Fishera Testowanie równości wartości średnich test t-studenta

Bardziej szczegółowo

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie Jarosław Kotowicz Instytut Matematyki Uniwersytet w

Bardziej szczegółowo

Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna.

Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna. Wykład 4 Rozkłady i ich dystrybuanty Dwa typy zmiennych losowych Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x, x 2,...}, to mówimy, że jest to zmienna dyskretna.

Bardziej szczegółowo

Kodowanie informacji

Kodowanie informacji Kodowanie informacji Tomasz Wykład 4: kodowanie arytmetyczne Motywacja Podstawy i własności Liczby rzeczywiste Motywacje 1 średnia długość kodu Huffmana może odbiegać o p max + 0.086 od entropii, gdzie

Bardziej szczegółowo

Entropia Kodowanie. Podstawy kompresji. Algorytmy kompresji danych. Sebastian Deorowicz

Entropia Kodowanie. Podstawy kompresji. Algorytmy kompresji danych. Sebastian Deorowicz Algorytmy kompresji danych 2007 02 27 Plan wykładu 1 Modelowanie i kodowanie 2 Modelowanie i kodowanie Plan wykładu 1 Modelowanie i kodowanie 2 Modelowanie i kodowanie definicja stowarzyszona ze zbiorem

Bardziej szczegółowo

Przykład eksploracji danych o naturze statystycznej Próba 1 wartości zmiennej losowej odległość

Przykład eksploracji danych o naturze statystycznej Próba 1 wartości zmiennej losowej odległość Dwie metody Klasyczna metoda histogramu jako narzędzie do postawienia hipotezy, jaki rozkład prawdopodobieństwa pasuje do danych Indukcja drzewa decyzyjnego jako metoda wykrycia klasyfikatora ukrytego

Bardziej szczegółowo

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Niech Ω będzie przestrzenią zdarzeń elementarnych. Definicja 1 Rodzinę S zdarzeń losowych (zbiór S podzbiorów zbioru

Bardziej szczegółowo

Rodzinę spełniającą trzeci warunek tylko dla sumy skończonej nazywamy ciałem (algebrą) w zbiorze X.

Rodzinę spełniającą trzeci warunek tylko dla sumy skończonej nazywamy ciałem (algebrą) w zbiorze X. 1 σ-ciała Definicja 1.1 (σ - ciało) σ - ciałem (σ - algebrą) w danym zbiorze X (zwanym przestrzenią) nazywamy rodzinę M pewnych podzbiorów zbioru X, spełniającą trzy warunki: 1 o M; 2 o jeśli A M, to X

Bardziej szczegółowo

teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015

teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015 teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015 1 zakres materiału zakres materiału 1. Czym jest teoria informacji? 2. Wprowadzenie matematyczne. 3. Entropia i informacja.

Bardziej szczegółowo

Teoria informacji i kodowania Ćwiczenia Sem. zimowy 2016/2017

Teoria informacji i kodowania Ćwiczenia Sem. zimowy 2016/2017 Kody źródłowe jednoznacznie dekodowalne Zadanie Ile najwięcej słów kodowych może liczyć kod binarny jednoznacznie dekodowalny, którego najdłuższe słowo ma siedem liter? (Odp. 28) Zadanie 2 Zbiór sześciu

Bardziej szczegółowo

Własności statystyczne regresji liniowej. Wykład 4

Własności statystyczne regresji liniowej. Wykład 4 Własności statystyczne regresji liniowej Wykład 4 Plan Własności zmiennych losowych Normalna regresja liniowa Własności regresji liniowej Literatura B. Hansen (2017+) Econometrics, Rozdział 5 Własności

Bardziej szczegółowo

Zadania do Rozdziału X

Zadania do Rozdziału X Zadania do Rozdziału X 1. 2. Znajdź wszystkie σ-ciała podzbiorów X, gdy X = (i) {1, 2}, (ii){1, 2, 3}. (b) Znajdź wszystkie elementy σ-ciała generowanego przez {{1, 2}, {2, 3}} dla X = {1, 2, 3, 4}. Wykaż,

Bardziej szczegółowo

Spis treści. Definicje prawdopodobieństwa. Częstościowa definicja prawdopodobieństwa. Wnioskowanie_Statystyczne_-_wykład

Spis treści. Definicje prawdopodobieństwa. Częstościowa definicja prawdopodobieństwa. Wnioskowanie_Statystyczne_-_wykład Wnioskowanie_Statystyczne_-_wykład Spis treści 1 Definicje prawdopodobieństwa 1.1 Częstościowa definicja prawdopodobieństwa 1.1.1 Przykład 1.1.2 Rozwiązanie: 1.1.3 Inne rozwiązanie: 1.1.4 Jeszcze inne

Bardziej szczegółowo

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów Rozdział : Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów W tym rozdziale omówione zostaną dwie najpopularniejsze metody estymacji parametrów w ekonometrycznych modelach nieliniowych,

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład VII: Metody specjalne Monte Carlo 24 listopada 2014 Transformacje specjalne Przykład - symulacja rozkładu geometrycznego Niech X Ex(λ). Rozważmy zmienną losową [X ], która przyjmuje wartości naturalne.

Bardziej szczegółowo

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory Dr Anna ADRIAN Paw B5, pok 407 adrian@tempus.metal.agh.edu.pl

Bardziej szczegółowo

Zakładamy, że są niezależnymi zmiennymi podlegającymi (dowolnemu) rozkładowi o skończonej wartości oczekiwanej i wariancji.

Zakładamy, że są niezależnymi zmiennymi podlegającymi (dowolnemu) rozkładowi o skończonej wartości oczekiwanej i wariancji. Wnioskowanie_Statystyczne_-_wykład Spis treści 1 Centralne Twierdzenie Graniczne 1.1 Twierdzenie Lindeberga Levy'ego 1.2 Dowód 1.2.1 funkcja tworząca sumy zmiennych niezależnych 1.2.2 pochodna funkcji

Bardziej szczegółowo

SPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization

SPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization Wrocław University of Technology SPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization Jakub M. Tomczak Studenckie Koło Naukowe Estymator jakub.tomczak@pwr.wroc.pl 4.1.213 Klasteryzacja Zmienne

Bardziej szczegółowo

teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015

teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015 teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015 1 wczoraj Wprowadzenie matematyczne. Entropia i informacja. Kodowanie. Kod ASCII. Stopa kodu. Kody bezprefiksowe.

Bardziej szczegółowo

Metody probabilistyczne

Metody probabilistyczne Metody probabilistyczne 13. Elementy statystki matematycznej I Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 17.01.2019 1 / 30 Zagadnienia statystki Przeprowadzamy

Bardziej szczegółowo

Ważne rozkłady i twierdzenia c.d.

Ważne rozkłady i twierdzenia c.d. Ważne rozkłady i twierdzenia c.d. Funkcja charakterystyczna rozkładu Wielowymiarowy rozkład normalny Elipsa kowariacji Sploty rozkładów Rozkłady jednostajne Sploty z rozkładem normalnym Pobieranie próby

Bardziej szczegółowo

Nierówność Krafta-McMillana, Kodowanie Huffmana

Nierówność Krafta-McMillana, Kodowanie Huffmana Nierówność Krafta-McMillana, Kodowanie Huffmana Kodowanie i kompresja informacji - Wykład 2 1 marca 2010 Test na jednoznaczna dekodowalność Kod a jest prefiksem kodu b jeśli b jest postaci ax. x nazywamy

Bardziej szczegółowo

Podstawowe pojęcia. Teoria informacji

Podstawowe pojęcia. Teoria informacji Kodowanie i kompresja informacji - Wykład 1 22 luty 2010 Literatura K. Sayood, Kompresja danych - wprowadzenie, READ ME 2002 (ISBN 83-7243-094-2) Literatura K. Sayood, Kompresja danych - wprowadzenie,

Bardziej szczegółowo

P (A B) = P (A), P (B) = P (A), skąd P (A B) = P (A) P (B). P (A)

P (A B) = P (A), P (B) = P (A), skąd P (A B) = P (A) P (B). P (A) Wykład 3 Niezależność zdarzeń, schemat Bernoulliego Kiedy dwa zdarzenia są niezależne? Gdy wiedza o tym, czy B zaszło, czy nie, NIE MA WPŁYWU na oszacowanie prawdopodobieństwa zdarzenia A: P (A B) = P

Bardziej szczegółowo

1 Wykład 4. Proste Prawa wielkich liczb, CTG i metody Monte Carlo

1 Wykład 4. Proste Prawa wielkich liczb, CTG i metody Monte Carlo 1 Wykład 4. Proste Prawa wielkich liczb, CTG i metody Monte Carlo 1.1 Rodzaje zbieżności ciagów zmiennych losowych Niech (Ω, F, P ) będzie przestrzenia probabilistyczna na której określony jest ciag {X

Bardziej szczegółowo

Kompresja danych DKDA (7)

Kompresja danych DKDA (7) Kompresja danych DKDA (7) Marcin Gogolewski marcing@wmi.amu.edu.pl Uniwersytet im. Adama Mickiewicza w Poznaniu Poznań, 22 listopada 2016 1 Kwantyzacja skalarna Wprowadzenie Analiza jakości Typy kwantyzatorów

Bardziej szczegółowo

Zasada indukcji matematycznej

Zasada indukcji matematycznej Zasada indukcji matematycznej Twierdzenie 1 (Zasada indukcji matematycznej). Niech ϕ(n) będzie formą zdaniową zmiennej n N 0. Załóżmy, że istnieje n 0 N 0 takie, że 1. ϕ(n 0 ) jest zdaniem prawdziwym,.

Bardziej szczegółowo

8 Całka stochastyczna względem semimartyngałów

8 Całka stochastyczna względem semimartyngałów M. Beśka, Całka Stochastyczna, wykład 8 148 8 Całka stochastyczna względem semimartyngałów 8.1 Całka stochastyczna w M 2 Oznaczmy przez Ξ zbiór procesów postaci X t (ω) = ξ (ω)i {} (t) + n ξ i (ω)i (ti,

Bardziej szczegółowo

Zagadnienia brzegowe dla równań eliptycznych

Zagadnienia brzegowe dla równań eliptycznych Temat 7 Zagadnienia brzegowe dla równań eliptycznych Rozważmy płaski obszar R 2 ograniczony krzywą. la równania Laplace a (Poissona) stawia się trzy podstawowe zagadnienia brzegowe. Zagadnienie irichleta

Bardziej szczegółowo

6.4 Podstawowe metody statystyczne

6.4 Podstawowe metody statystyczne 156 Wstęp do statystyki matematycznej 6.4 Podstawowe metody statystyczne Spóbujemy teraz w dopuszczalnym uproszczeniu przedstawić istotę analizy statystycznej. W szczególności udzielimy odpowiedzi na postawione

Bardziej szczegółowo

Wybrane rozkłady zmiennych losowych. Statystyka

Wybrane rozkłady zmiennych losowych. Statystyka Wybrane rozkłady zmiennych losowych Statystyka Rozkład dwupunktowy Zmienna losowa przyjmuje tylko dwie wartości: wartość 1 z prawdopodobieństwem p i wartość 0 z prawdopodobieństwem 1- p x i p i 0 1-p 1

Bardziej szczegółowo

Wstęp Statyczne kody Huffmana Dynamiczne kody Huffmana Praktyka. Kodowanie Huffmana. Dawid Duda. 4 marca 2004

Wstęp Statyczne kody Huffmana Dynamiczne kody Huffmana Praktyka. Kodowanie Huffmana. Dawid Duda. 4 marca 2004 4 marca 2004 Podstawowe oznaczenia i definicje Wymagania wobec kodu Podstawowa idea Podsumowanie Podstawowe oznaczenia i definicje Podstawowe oznaczenia i definicje: alfabet wejściowy: A = {a 1, a 2,...,

Bardziej szczegółowo

Matematyka II. Bezpieczeństwo jądrowe i ochrona radiologiczna Semestr letni 2018/2019 wykład 13 (27 maja)

Matematyka II. Bezpieczeństwo jądrowe i ochrona radiologiczna Semestr letni 2018/2019 wykład 13 (27 maja) Matematyka II Bezpieczeństwo jądrowe i ochrona radiologiczna Semestr letni 208/209 wykład 3 (27 maja) Całki niewłaściwe przedział nieograniczony Rozpatrujemy funkcje ciągłe określone na zbiorach < a, ),

Bardziej szczegółowo

7. Maszyny wektorów podpierajacych SVMs

7. Maszyny wektorów podpierajacych SVMs Algorytmy rozpoznawania obrazów 7. Maszyny wektorów podpierajacych SVMs dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Maszyny wektorów podpierajacych - SVMs Maszyny wektorów podpierających (ang.

Bardziej szczegółowo

Zdarzenia losowe i prawdopodobieństwo

Zdarzenia losowe i prawdopodobieństwo Rozdział 1 Zdarzenia losowe i prawdopodobieństwo 1.1 Klasyfikacja zdarzeń Zdarzenie elementarne pojęcie aprioryczne, które nie może być zdefiniowane. Odpowiednik pojęcia punkt w geometrii. Zdarzenie elementarne

Bardziej szczegółowo

Wykład 9. Matematyka 3, semestr zimowy 2011/ listopada 2011

Wykład 9. Matematyka 3, semestr zimowy 2011/ listopada 2011 Wykład 9. Matematyka 3, semestr zimowy 2011/2012 4 listopada 2011 W trakcie poprzedniego wykładu zdefiniowaliśmy pojęcie k-kowektora na przestrzeni wektorowej. Wprowadziliśmy także iloczyn zewnętrzny wielokowektorów

Bardziej szczegółowo

Wykład 21 Funkcje mierzalne. Kostrukcja i własności całki wzglȩdem miary przeliczalnie addytywnej

Wykład 21 Funkcje mierzalne. Kostrukcja i własności całki wzglȩdem miary przeliczalnie addytywnej Wykład 2 Funkcje mierzalne. Kostrukcja i własności całki wzglȩdem miary przeliczalnie addytywnej czȩść II (opracował: Piotr Nayar) Definicja 2.. Niech (E, E) bȩdzie przestrzenia mierzalna i niech λ : E

Bardziej szczegółowo

Testowanie hipotez statystycznych.

Testowanie hipotez statystycznych. Bioinformatyka Wykład 9 Wrocław, 5 grudnia 2011 Temat. Test zgodności χ 2 Pearsona. Statystyka χ 2 Pearsona Rozpatrzmy ciąg niezależnych zmiennych losowych X 1,..., X n o jednakowym dyskretnym rozkładzie

Bardziej szczegółowo

Pojęcie szeregu nieskończonego:zastosowania do rachunku prawdopodobieństwa wykład 1

Pojęcie szeregu nieskończonego:zastosowania do rachunku prawdopodobieństwa wykład 1 Pojęcie szeregu nieskończonego:zastosowania do rachunku prawdopodobieństwa wykład dr Mariusz Grządziel 5 lutego 04 Paradoks Zenona z Elei wersja uwspółcześniona Zenek goni Andrzeja; prędkość Andrzeja:

Bardziej szczegółowo

Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład Kody liniowe - kodowanie w oparciu o macierz parzystości

Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład Kody liniowe - kodowanie w oparciu o macierz parzystości Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład 13 1 Kody liniowe - kodowanie w oparciu o macierz parzystości Przykład Różne macierze parzystości dla kodu powtórzeniowego. Co wiemy z algebry

Bardziej szczegółowo

Rachunek prawdopodobieństwa i statystyka

Rachunek prawdopodobieństwa i statystyka Rachunek prawdopodobieństwa i statystyka Przestrzeń probabilistyczna Niech Ω będzie dowolnym zbiorem, zwanym przestrzenią zdarzeń elementarnych. Elementy ω tej przestrzeni nazywamy zdarzeniami elementarnymi.

Bardziej szczegółowo

mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. GOLOMBA I RICE'A

mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. GOLOMBA I RICE'A mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. KOMPRESJA ALGORYTMEM ARYTMETYCZNYM, GOLOMBA I RICE'A Idea algorytmu arytmetycznego Przykład kodowania arytmetycznego Renormalizacja

Bardziej szczegółowo

Wybrane rozkłady zmiennych losowych. Statystyka

Wybrane rozkłady zmiennych losowych. Statystyka Wybrane rozkłady zmiennych losowych Statystyka Rozkład dwupunktowy Zmienna losowa przyjmuje tylko dwie wartości: wartość 1 z prawdopodobieństwem p i wartość 0 z prawdopodobieństwem 1- p x i p i 0 1-p 1

Bardziej szczegółowo

Metoda największej wiarygodności

Metoda największej wiarygodności Metoda największej wiarygodności Próbki w obecności tła Funkcja wiarygodności Iloraz wiarygodności Pomiary o różnej dokładności Obciążenie Informacja z próby i nierówność informacyjna Wariancja minimalna

Bardziej szczegółowo

A i. i=1. i=1. i=1. i=1. W dalszej części skryptu będziemy mieli najczęściej do czynienia z miarami określonymi na rodzinach, które są σ - algebrami.

A i. i=1. i=1. i=1. i=1. W dalszej części skryptu będziemy mieli najczęściej do czynienia z miarami określonymi na rodzinach, które są σ - algebrami. M. Beśka, Wstęp do teorii miary, rozdz. 3 25 3 Miara 3.1 Definicja miary i jej podstawowe własności Niech X będzie niepustym zbiorem, a A 2 X niepustą rodziną podzbiorów. Wtedy dowolne odwzorowanie : A

Bardziej szczegółowo

Krzysztof Rykaczewski. Szeregi

Krzysztof Rykaczewski. Szeregi Krzysztof Rykaczewski Spis treści 1 Definicja szeregu 2 Zbieżność szeregu 3 Kryteria zbieżności szeregów 4 Iloczyn Cauchy ego szeregów 5 Bibliografia 1 / 13 Definicja szeregu Niech dany będzie ciąg (a

Bardziej szczegółowo

Informacja o przestrzeniach Sobolewa

Informacja o przestrzeniach Sobolewa Wykład 11 Informacja o przestrzeniach Sobolewa 11.1 Definicja przestrzeni Sobolewa Niech R n będzie zbiorem mierzalnym. Rozważmy przestrzeń Hilberta X = L 2 () z iloczynem skalarnym zdefiniowanym równością

Bardziej szczegółowo

2 Rodziny zbiorów. 2.1 Algebry i σ - algebry zbiorów. M. Beśka, Wstęp do teorii miary, rozdz. 2 11

2 Rodziny zbiorów. 2.1 Algebry i σ - algebry zbiorów. M. Beśka, Wstęp do teorii miary, rozdz. 2 11 M. Beśka, Wstęp do teorii miary, rozdz. 2 11 2 Rodziny zbiorów 2.1 Algebry i σ - algebry zbiorów Niech X będzie niepustym zbiorem. Rodzinę indeksowaną zbiorów {A i } i I 2 X nazywamy rozbiciem zbioru X

Bardziej szczegółowo

Stopę zbieżności ciagu zmiennych losowych a n, takiego, że E (a n ) < oznaczamy jako a n = o p (1) prawdopodobieństwa szybciej niż n α.

Stopę zbieżności ciagu zmiennych losowych a n, takiego, że E (a n ) < oznaczamy jako a n = o p (1) prawdopodobieństwa szybciej niż n α. Stopy zbieżności Stopę zbieżności ciagu zmiennych losowych a n, takiego, że a n oznaczamy jako a n = o p (1 p 0 a Jeśli n p n α 0, to a n = o p (n α i mówimy a n zbiega według prawdopodobieństwa szybciej

Bardziej szczegółowo

Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11,

Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11, 1 Kwantyzacja skalarna Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11, 10.05.005 Kwantyzacja polega na reprezentowaniu dużego zbioru wartości (być może nieskończonego) za pomocą wartości

Bardziej szczegółowo

Niech x 1,..., x n będzie ciągiem zdarzeń. ---

Niech x 1,..., x n będzie ciągiem zdarzeń. --- Matematyczne podstawy kryptografii, Ćw2 TEMAT 7: Teoria Shannona. Kody Huffmana, entropia. BIBLIOGRAFIA: [] Cz. Bagiński, cez.wipb.pl, [2] T. H. Cormen, C. E. Leiserson, R. L Rivest, Wprowadzenie do algorytmów,

Bardziej szczegółowo

Kody blokowe Wykład 2, 10 III 2011

Kody blokowe Wykład 2, 10 III 2011 Kody blokowe Wykład 2, 10 III 2011 Literatura 1. R.M. Roth, Introduction to Coding Theory, 2006 2. W.C. Huffman, V. Pless, Fundamentals of Error-Correcting Codes, 2003 3. D.R. Hankerson et al., Coding

Bardziej szczegółowo

Parametr Λ w populacji ubezpieczonych ma rozkład dany na półosi dodatniej gęstością: 3 f

Parametr Λ w populacji ubezpieczonych ma rozkład dany na półosi dodatniej gęstością: 3 f Zadanie. W kolejnych latach t =,,,... ubezpieczony charakteryzujący się parametrem ryzyka Λ generuje N t szkód. Dla danego Λ = λ zmienne N, N, N,... są warunkowo niezależne i mają (brzegowe) rozkłady Poissona:

Bardziej szczegółowo

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014 Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014 Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe

Bardziej szczegółowo

domykanie relacji, relacja równoważności, rozkłady zbiorów

domykanie relacji, relacja równoważności, rozkłady zbiorów 1 of 8 2012-03-28 17:45 Logika i teoria mnogości/wykład 5: Para uporządkowana iloczyn kartezjański relacje domykanie relacji relacja równoważności rozkłady zbiorów From Studia Informatyczne < Logika i

Bardziej szczegółowo

Teoria miary. WPPT/Matematyka, rok II. Wykład 5

Teoria miary. WPPT/Matematyka, rok II. Wykład 5 Teoria miary WPPT/Matematyka, rok II Wykład 5 Funkcje mierzalne Niech (X, F) będzie przestrzenią mierzalną i niech f : X R. Twierdzenie 1. NWSR 1. {x X : f(x) > a} F dla każdego a R 2. {x X : f(x) a} F

Bardziej szczegółowo

Komputerowa analiza danych doświadczalnych

Komputerowa analiza danych doświadczalnych Komputerowa analiza danych doświadczalnych Wykład 9 27.04.2018 dr inż. Łukasz Graczykowski lukasz.graczykowski@pw.edu.pl Semestr letni 2017/2018 Metoda największej wiarygodności ierównosć informacyjna

Bardziej szczegółowo

ESTYMACJA PRZEDZIAŁOWA WYBRANYCH PARAMETRÓW

ESTYMACJA PRZEDZIAŁOWA WYBRANYCH PARAMETRÓW ESTYMACJA PRZEDZIAŁOWA WYBRANYCH PARAMETRÓW POPULACJI Szkic wykładu Wprowadzenie 1 Wprowadzenie 2 3 4 Przypomnienie dotychczasowych rozważań Przedziałem ufności nazywamy przedział losowy, o którym przypuszczamy

Bardziej szczegółowo

Notatki z Analizy Matematycznej 2. Jacek M. Jędrzejewski

Notatki z Analizy Matematycznej 2. Jacek M. Jędrzejewski Notatki z Analizy Matematycznej 2 Jacek M. Jędrzejewski Definicja 3.1. Niech (a n ) n=1 będzie ciągiem liczbowym. Dla każdej liczby naturalnej dodatniej n utwórzmy S n nazywamy n-tą sumą częściową. ROZDZIAŁ

Bardziej szczegółowo

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki WYKŁAD 6 Witold Bednorz, Paweł Wolff 1 Instytut Matematyki Uniwersytet Warszawski Rachunek Prawdopodobieństwa, WNE, 2010-2011 Własności Wariancji Przypomnijmy, że VarX = E(X EX) 2 = EX 2 (EX) 2. Własności

Bardziej szczegółowo

Estymacja parametrów w modelu normalnym

Estymacja parametrów w modelu normalnym Estymacja parametrów w modelu normalnym dr Mariusz Grządziel 6 kwietnia 2009 Model normalny Przez model normalny będziemy rozumieć rodzine rozkładów normalnych N(µ, σ), µ R, σ > 0. Z Centralnego Twierdzenia

Bardziej szczegółowo

Wykład Centralne twierdzenie graniczne. Statystyka matematyczna: Estymacja parametrów rozkładu

Wykład Centralne twierdzenie graniczne. Statystyka matematyczna: Estymacja parametrów rozkładu Wykład 11-12 Centralne twierdzenie graniczne Statystyka matematyczna: Estymacja parametrów rozkładu Centralne twierdzenie graniczne (CTG) (Central Limit Theorem - CLT) Centralne twierdzenie graniczne (Lindenberga-Levy'ego)

Bardziej szczegółowo

Podstawy metod probabilistycznych. dr Adam Kiersztyn

Podstawy metod probabilistycznych. dr Adam Kiersztyn Podstawy metod probabilistycznych dr Adam Kiersztyn Przestrzeń zdarzeń elementarnych i zdarzenia losowe. Zjawiskiem lub doświadczeniem losowym nazywamy taki proces, którego przebiegu i ostatecznego wyniku

Bardziej szczegółowo

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 7 i 8 - Efektywność estymatorów, przedziały ufności

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 7 i 8 - Efektywność estymatorów, przedziały ufności WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 7 i 8 - Efektywność estymatorów, przedziały ufności Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 7 i 8 1 / 9 EFEKTYWNOŚĆ ESTYMATORÓW, próba

Bardziej szczegółowo

Rozkłady statystyk z próby

Rozkłady statystyk z próby Rozkłady statystyk z próby Rozkłady statystyk z próby Przypuśćmy, że wykonujemy serię doświadczeń polegających na 4 krotnym rzucie symetryczną kostką do gry, obserwując liczbę wyrzuconych oczek Nr kolejny

Bardziej szczegółowo

1. Synteza automatów Moore a i Mealy realizujących zadane przekształcenie 2. Transformacja automatu Moore a w automat Mealy i odwrotnie

1. Synteza automatów Moore a i Mealy realizujących zadane przekształcenie 2. Transformacja automatu Moore a w automat Mealy i odwrotnie Opracował: dr hab. inż. Jan Magott KATEDRA INFORMATYKI TECHNICZNEJ Ćwiczenia laboratoryjne z Logiki Układów Cyfrowych ćwiczenie 207 Temat: Automaty Moore'a i Mealy 1. Cel ćwiczenia Celem ćwiczenia jest

Bardziej szczegółowo

Detekcja rozkładów o ciężkich ogonach

Detekcja rozkładów o ciężkich ogonach Detekcja rozkładów o ciężkich ogonach J. Śmiarowska, P. Jamer Wydział Matematyki i Nauk Informacyjnych Politechnika Warszawska 24 kwietnia 2012 J. Śmiarowska, P. Jamer (Politechnika Warszawska) Detekcja

Bardziej szczegółowo

Kompresja Kodowanie arytmetyczne. Dariusz Sobczuk

Kompresja Kodowanie arytmetyczne. Dariusz Sobczuk Kompresja Kodowanie arytmetyczne Dariusz Sobczuk Kodowanie arytmetyczne (lata 1960-te) Pierwsze prace w tym kierunku sięgają początków lat 60-tych XX wieku Pierwszy algorytm Eliasa nie został opublikowany

Bardziej szczegółowo

n=0 Dla zbioru Cantora prawdziwe są wersje lematu 3.6 oraz lematu 3.8 przy założeniu α = :

n=0 Dla zbioru Cantora prawdziwe są wersje lematu 3.6 oraz lematu 3.8 przy założeniu α = : 4. Zbiory borelowskie. Zbiór wszystkich podzbiorów liczb naturalnych będziemy oznaczali przez ω. Najmniejszą topologię na zbiorze ω, w której zbiory {A ω : x A ω \ y}, gdzie x oraz y są zbiorami skończonymi,

Bardziej szczegółowo

4. O funkcji uwikłanej 4.1. Twierdzenie. Niech będzie dana funkcja f klasy C 1 na otwartym podzbiorze. ϕ : K(x 0, δ) (y 0 η, y 0 + η), taka że

4. O funkcji uwikłanej 4.1. Twierdzenie. Niech będzie dana funkcja f klasy C 1 na otwartym podzbiorze. ϕ : K(x 0, δ) (y 0 η, y 0 + η), taka że 4. O funkcji uwikłanej 4.1. Twierdzenie. Niech będzie dana funkcja f klasy C 1 na otwartym podzbiorze taka że K(x 0, δ) (y 0 η, y 0 + η) R n R, f(x 0, y 0 ) = 0, y f(x 0, y 0 ) 0. Wówczas dla odpowiednio

Bardziej szczegółowo

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład Rozdział 1 Wektory losowe 1.1 Wektor losowy i jego rozkład Definicja 1 Wektor X = (X 1,..., X n ), którego każda współrzędna jest zmienną losową, nazywamy n-wymiarowym wektorem losowym (krótko wektorem

Bardziej szczegółowo

Statystyka w przykładach

Statystyka w przykładach w przykładach Tomasz Mostowski Zajęcia 10.04.2008 Plan Estymatory 1 Estymatory 2 Plan Estymatory 1 Estymatory 2 Własności estymatorów Zazwyczaj w badaniach potrzebujemy oszacować pewne parametry na podstawie

Bardziej szczegółowo

Centralne twierdzenie graniczne

Centralne twierdzenie graniczne Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 4 Ważne uzupełnienie Dwuwymiarowy rozkład normalny N (µ X, µ Y, σ X, σ Y, ρ): f XY (x, y) = 1 2πσ X σ Y 1 ρ 2 { [ (x ) 1

Bardziej szczegółowo

Funkcje dwóch zmiennych

Funkcje dwóch zmiennych Funkcje dwóch zmiennych Andrzej Musielak Str Funkcje dwóch zmiennych Wstęp Funkcja rzeczywista dwóch zmiennych to funkcja, której argumentem jest para liczb rzeczywistych, a wartością liczba rzeczywista.

Bardziej szczegółowo

Przestrzeń unitarna. Jacek Kłopotowski. 23 października Katedra Matematyki i Ekonomii Matematycznej SGH

Przestrzeń unitarna. Jacek Kłopotowski. 23 października Katedra Matematyki i Ekonomii Matematycznej SGH Katedra Matematyki i Ekonomii Matematycznej SGH 23 października 2018 Definicja iloczynu skalarnego Definicja Iloczynem skalarnym w przestrzeni liniowej R n nazywamy odwzorowanie ( ) : R n R n R spełniające

Bardziej szczegółowo

Oznacza to, że chcemy znaleźć minimum, a właściwie wartość najmniejszą funkcji

Oznacza to, że chcemy znaleźć minimum, a właściwie wartość najmniejszą funkcji Wykład 11. Metoda najmniejszych kwadratów Szukamy zależności Dane są wyniki pomiarów dwóch wielkości x i y: (x 1, y 1 ), (x 2, y 2 ),..., (x n, y n ). Przypuśćmy, że nanieśliśmy je na wykres w układzie

Bardziej szczegółowo

Przepustowość kanału, odczytywanie wiadomości z kanału, poprawa wydajności kanału.

Przepustowość kanału, odczytywanie wiadomości z kanału, poprawa wydajności kanału. Przepustowość kanału, odczytywanie wiadomości z kanału, poprawa wydajności kanału Wiktor Miszuris 2 czerwca 2004 Przepustowość kanału Zacznijmy od wprowadzenia równości IA, B HB HB A HA HA B Można ją intuicyjnie

Bardziej szczegółowo

6. Zmienne losowe typu ciagłego ( ) Pole trapezu krzywoliniowego

6. Zmienne losowe typu ciagłego ( ) Pole trapezu krzywoliniowego 6. Zmienne losowe typu ciagłego (2.04.2007) Pole trapezu krzywoliniowego Przypomnienie: figurę ograniczoną przez: wykres funkcji y = f(x), gdzie f jest funkcją ciągłą; proste x = a, x = b, a < b, oś OX

Bardziej szczegółowo

Lista 5. Zadanie 3. Zmienne losowe X i (i = 1, 2, 3, 4) są niezależne o tym samym

Lista 5. Zadanie 3. Zmienne losowe X i (i = 1, 2, 3, 4) są niezależne o tym samym Lista 5 Zadania na zastosowanie nierównosci Markowa i Czebyszewa. Zadanie 1. Niech zmienna losowa X ma rozkład jednostajny na odcinku [0, 1]. Korzystając z nierówności Markowa oszacować od góry prawdopodobieństwo,

Bardziej szczegółowo

Zastosowanie metody Cross Entropy Clustering w biometrii Krzysztof Misztal

Zastosowanie metody Cross Entropy Clustering w biometrii Krzysztof Misztal Zastosowanie metody Cross Entropy Clustering w biometrii 20170119 Krzysztof Misztal (krzysztofmisztal@ujedupl) Spis treści 1 Motywacja 2 Entropia 3 Ogólna idea Cross Entropy Clustering 4 Zastosowania 1

Bardziej szczegółowo

METODY BADAŃ NA ZWIERZĘTACH ze STATYSTYKĄ wykład 3-4. Parametry i wybrane rozkłady zmiennych losowych

METODY BADAŃ NA ZWIERZĘTACH ze STATYSTYKĄ wykład 3-4. Parametry i wybrane rozkłady zmiennych losowych METODY BADAŃ NA ZWIERZĘTACH ze STATYSTYKĄ wykład - Parametry i wybrane rozkłady zmiennych losowych Parametry zmiennej losowej EX wartość oczekiwana D X wariancja DX odchylenie standardowe inne, np. kwantyle,

Bardziej szczegółowo

Rozkłady i ich dystrybuanty 16 marca F X (t) = P (X < t) 0, gdy t 0, F X (t) = 1, gdy t > c, 0, gdy t x 1, 1, gdy t > x 2,

Rozkłady i ich dystrybuanty 16 marca F X (t) = P (X < t) 0, gdy t 0, F X (t) = 1, gdy t > c, 0, gdy t x 1, 1, gdy t > x 2, Wykład 4. Rozkłady i ich dystrybuanty 6 marca 2007 Jak opisać cały rozkład jedną funkcją? Aby znać rozkład zmiennej X, musimy umieć obliczyć P (a < X < b) dla dowolnych a < b. W tym celu wystarczy znać

Bardziej szczegółowo

Estymacja gęstości prawdopodobieństwa metodą selekcji modelu

Estymacja gęstości prawdopodobieństwa metodą selekcji modelu Estymacja gęstości prawdopodobieństwa metodą selekcji modelu M. Wojtyś Wydział Matematyki i Nauk Informacyjnych Politechnika Warszawska Wisła, 7 grudnia 2009 Wstęp Próba losowa z rozkładu prawdopodobieństwa

Bardziej szczegółowo

Wykład 3 Momenty zmiennych losowych.

Wykład 3 Momenty zmiennych losowych. Wykład 3 Momenty zmiennych losowych. Wrocław, 18 października 2017r Momenty zmiennych losowych Wartość oczekiwana - przypomnienie Definicja 3.1: 1 Niech X będzie daną zmienną losową. Jeżeli X jest zmienną

Bardziej szczegółowo

Elementy modelowania matematycznego

Elementy modelowania matematycznego Elementy modelowania matematycznego Modelowanie algorytmów klasyfikujących. Podejście probabilistyczne. Naiwny klasyfikator bayesowski. Modelowanie danych metodą najbliższych sąsiadów. Jakub Wróblewski

Bardziej szczegółowo