Teoria Informacji i Metody Kompresji Danych

Wielkość: px
Rozpocząć pokaz od strony:

Download "Teoria Informacji i Metody Kompresji Danych"

Transkrypt

1 Teoria Informacji i Metody Kompresji Danych 1

2 Materiały wykładowe (fragmenty) 2

3 Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL kontakt osobisty Centrum Wykładowe, blok informatyki, pok. 7 3

4 Wyłączenie odpowiedzialności Prezentowane materiały, będące dodatkiem pomocniczym do wykładów, z konieczności fragmentarycznym i niedopracowanym, należy wykorzystywać z pełną świadomością faktu, że mogą nie być pozbawione przypadkowych błędów, braków, wypaczeń i przeinaczeń :-) Autor

5 ... 5

6 Odebrano przekaz złożony z 20 znaków alfabetu {0}. Pytanie: Ile informacji, zgodnie z miarą Hartleya (w bitach), zawiera średnio jeden znak przekazu? cały przekaz? Odpowiedź: I 1 = log 2 (1) = 0 [bitów] I n = n I 1 = 20 0 = 0 [bitów]

7 A przy okazji... pamiętacie? Analiza matematyczna funkcja ln(x)

8 A przy okazji... pamiętacie? Miara informacji wymagane właściwości (niekoniecznie niezależne od siebie) L(m,n) 0 L(m,n) słabo monotoniczna* względem m i n, przy czym dla skrajnych wartości m i n (czyli dla m = 1 i n = 0), miara jest zerowa; konkretnie L(1,n) = 0» przy trywialnym przekazie (m = 1), miara jest zerowa uzasadnienie: m = 1 oznacza, że istnieje tylko jeden znak alfabetu, źródło emituje więc jedynie ciągi złożone z tego jednego, jedynego znaku; odebranie kolejnego znaku jest więc w pełni przewidywalne, i w rezultacie żaden ciąg (bez względu na swoją długość) złożony z tej litery nie niesie żadnej informacji L(m,0) = 0» przy braku przekazu (n = 0), miara jest zerowa L(m,k n) = k L(m,n) przy k-krotności objętości przekazu, miara rośnie k-krotnie L(k m,n) = L(k,n) + L(m,n) przy k-krotności przydatności przekazu, miara rośnie o L(k,n) * (słaba) monotoniczność funkcji f(x) względem x: im większe x, tym większe (lub takie samo) f(x)

9 Odebrano przekaz złożony z 20 znaków alfabetu {0}. Pytanie: Ile informacji, zgodnie z miarą Shannona (w bitach), zawiera średnio jeden znak przekazu? cały przekaz? Odpowiedź: (ewidentnie) p = [1] H 1 = 1 log 2 (1) = 1 0 = 0 [bitów] H n = 20 H 1 = 20 0 = 0 [bitów]

10 A przy okazji... pamiętacie? Analiza matematyczna funkcja ln(x)

11 A przy okazji... pamiętacie? Uogólnianie miary informacji wymagane właściwości (niekoniecznie niezależne od siebie) W([p 1, p 2,..., p m ]) 0 (implikowane przez właściwości L(m,n), zgodnie z którymi L(m,n) 0) W([p 1, p 2,..., p m ]) słabo rosnące względem m dla wszystkich p i = 1/m, przy czym dla skrajnej wartości m (czyli dla m = 1), wyrażenie jest zerowe; konkretnie W([p 1 ]) W([1]) = 0 (zależność i=1..m p i = 1 implikuje p 1 = 1 dla m = 1) (implikowane przez właściwości L(m,n), zgodnie z którymi L([1],n) L(1,n) = 0)

12 Dany jest rozkład prawdopodobieństwa q = [q 1, q 2,..., q m ] T, różny od rozkładu p = [p 1, p 2,..., p m ] T, gdzie p i = 1/m. Zadanie: zidentyfikować te rozkłady q, dla których H 1 (q) jest minimalne i ustalić wartość tego minimum. Rozwiązanie:???

13 A przy okazji... pamiętacie? Entropia: wprowadzenie wykres H([x]) = x log P (x) (1 x) log P (1 x) dla P = 2

14 A przy okazji... pamiętacie? Entropia: wprowadzenie wykres H([x 1,x 2 ]) = x 1 log P (x 1 ) x 2 log P (x 2 ) (1 x 1 x 2 ) log P (1 x 1 x 2 ) dla P = 2

15 A przy okazji... pamiętacie? Entropia: wprowadzenie wykres H([x 1,x 2,x 3 ]) = x 1 log P (x 1 ) x 2 log P (x 2 ) x 3 log P (x 3 ) + (1 x 1 x 2 x 3 ) log P (1 x 1 x 2 x 3 ) dla P = 2

16 Dany jest rozkład prawdopodobieństwa q = [q 1, q 2,..., q m ] T, różny od rozkładu p = [p 1, p 2,..., p m ] T, gdzie p i = 1/m. Zadanie: zidentyfikować te rozkłady q, dla których H 1 (q) jest minimalne i ustalić wartość tego minimum. Rozwiązanie: {[1, 0,..., 0] T, [0, 1,..., 0] T,..., [0, 0,..., 1] T } H 1 ([1, 0,..., 0]) = H 1 ([0, 1,..., 0]) =... = H 1 ([0, 0,..., 1]) = 0 inaczej { q: q = e i dla i {1, 2,..., m} } gdzie e i = [0 1, 0 2,..., 0 i 1, 1 i, 0 i+1,..., 0 m ] T H 1 (e i ) = 0 dla i {1, 2,..., m} Wyjaśnienie (intuicyjne) każdy e i = [0 1, 0 2,..., 0 i 1, 1 i, 0 i+1,..., 0 m ] T odpowiada rozkładowi [1]

17 Odebrano przekaz złożony z 20 znaków alfabetu {0, 1}. Pytanie: Ile informacji, zgodnie z miarą Hartleya (w bitach), zawiera średnio jeden znak przekazu? cały przekaz? Odpowiedź: I 1 = log 2 (2) = 1 [bit] I n = n I 1 = 20 1 = 20 [bitów]

18 Odebrano przekaz złożony z 20 znaków alfabetu {0, 1, 2}. Pytanie: Ile informacji, zgodnie z miarą Hartleya (w bitach), zawiera średnio jeden znak przekazu? cały przekaz? Odpowiedź: I 1 = log 2 (3) 1.59 [bita] I n = n I = 31.8 [bitów]

19 Odebrano przekaz złożony z 20 znaków alfabetu {0, 1, 2, 3}. Pytanie: Ile informacji, zgodnie z miarą Hartleya (w bitach), zawiera średnio jeden znak przekazu? cały przekaz? Odpowiedź: I 1 = log 2 (4) = 2 [bity] I n = n I 1 = 20 2 = 40 [bitów]

20 Odebrano przekaz złożony... Spostrzeżenie: średnie ilości informacji rosną ze wzrostem m (liczność alfabetu) Pytanie: czy wartości te są ograniczone?

21 A przy okazji... pamiętacie? Analiza matematyczna funkcja ln(x)

22 A przy okazji... pamiętacie? Miara informacji wymagane właściwości (niekoniecznie niezależne od siebie) L(m,n) 0 L(m,n) słabo monotoniczna* względem m i n, przy czym dla skrajnych wartości m i n (czyli dla m = 1 i n = 0), miara jest zerowa; konkretnie L(1,n) = 0» przy trywialnym przekazie (m = 1), miara jest zerowa uzasadnienie: m = 1 oznacza, że istnieje tylko jeden znak alfabetu, źródło emituje więc jedynie ciągi złożone z tego jednego, jedynego znaku; odebranie kolejnego znaku jest więc w pełni przewidywalne, i w rezultacie żaden ciąg (bez względu na swoją długość) złożony z tej litery nie niesie żadnej informacji L(m,0) = 0» przy braku przekazu (n = 0), miara jest zerowa L(m,k n) = k L(m,n) przy k-krotności objętości przekazu, miara rośnie k-krotnie L(k m,n) = L(k,n) + L(m,n) przy k-krotności przydatności przekazu, miara rośnie o L(k,n) * (słaba) monotoniczność funkcji f(x) względem x: im większe x, tym większe (lub takie samo) f(x)

23 Odebrano przekaz złożony... Spostrzeżenie: średnie ilości informacji rosną ze wzrostem m (liczność alfabetu) Pytanie: czy wartości te są ograniczone? Odpowiedź: ogólnie: nie ale dla skończonych wartości argumentów: tak!

24 Odebrano przekaz złożony... Spostrzeżenie: średnie ilości informacji rosną ze wzrostem m (liczność alfabetu) Pytanie: czy tempo tego wzrostu także rośnie? czy raczej maleje? (i z czego wynika ewentualna zmiana tego tempa?)

25 A przy okazji... pamiętacie? Analiza matematyczna funkcja ln(x)

26 Odebrano przekaz złożony... Spostrzeżenie: średnie ilości informacji rosną ze wzrostem m (liczność alfabetu) Pytanie: czy tempo tego wzrostu także rośnie? czy raczej maleje? (i z czego wynika ewentualna zmiana tego tempa?) Odpowiedź: maleje! wyjaśnienie: właściwości funkcji logarytmicznej

27 Odebrano przekaz złożony z 20 znaków alfabetu {0, 1} charakteryzującego się rozkładem [1/2, 1/2] T. Pytanie: Ile informacji, zgodnie z miarami Hartleya i Shannona (w bitach), zawiera średnio jeden znak przekazu? cały przekaz? Odpowiedź: I 1 = log 2 (2) = 1 [bit] I n = n I 1 = 20 1 = 20 [bitów] H 1 = i=1..m p i log 2 (p i ) = i=1..2 (1/2) log 2 (1/2)) = = (1/2) i=1..2 log 2 (1/2)) = (1/2) 2 log 2 (1/2) = = log 2 (1/2) = log 2 (2) = 1 [bit] H n = n H 1 = 20 1 = 20 [bitów]

28 Odebrano przekaz złożony z 20 znaków alfabetu {0, 1, 2} charakteryzującego się rozkładem [1/3, 1/3, 1/3] T. Pytanie: Ile informacji, zgodnie z miarami Hartleya i Shannona (w bitach), zawiera średnio jeden znak przekazu? cały przekaz? Odpowiedź: I 1 = log 2 (3) 1.59 [bita] I n = n I = 31.8 [bitów] H 1 = i=1..m p i log 2 (p i ) = i=1..3 (1/3) log 2 (1/3)) = = (1/3) i=1..3 log 2 (1/3)) = (1/3) 3 log 2 (1/3) = = log 2 (1/3) = log 2 (3) 1.59 [bita] H n = n H = 31.8 [bitów]

29 Odebrano przekaz złożony z 20 znaków alfabetu {0, 1, 2, 3} charakteryzującego się rozkładem [1/4, 1/4, 1/4, 1/4] T. Pytanie: Ile informacji, zgodnie z miarami Hartleya i Shannona (w bitach), zawiera średnio jeden znak przekazu? cały przekaz? Odpowiedź: I 1 = log 2 (4) = 2 [bity] I n = n I 1 = 20 2 = 40 [bitów] H 1 = i=1..m p i log 2 (p i ) = i=1..4 (1/4) log 2 (1/4)) = = (1/4) i=1..4 log 2 (1/4)) = (1/4) 4 log 2 (1/4) = = log 2 (1/4) = log 2 (4) = 2 [bity] H n = n H 1 = 20 2 = 40 [bitów]

30 Dany jest rozkład prawdopodobieństwa p = [p 1, p 2,..., p m ] T, gdzie p i = 1/m. Zadanie: wykazać, że dla takiego p zachodzi: H 1 (p) = I 1 (czyli: wzór Shannona sprowadza się do wzoru Hartleya). Rozwiązanie: H 1 (p) = i=1..m p i log P (p i ) = ( i=1..m (1/m) log P (1/m)) = = ( i=1..m (1/m) log P (1/m)) = (1/m) ( i=1..m log P (1/m)) = = (1/m) ( i=1..m log P (1/m)) = (1/m) m log P (1/m) = log P (1/m) = = ( log P (1/m)) = log P (m) = I 1

31 Odebrano przekaz złożony z 20 znaków alfabetu {0, 1, 2, 3} charakteryzującego się rozkładem [1/8, 2/8, 2/8, 3/8] T. Pytanie: Ile informacji, zgodnie z miarą Shannona (w bitach), zawiera średnio jeden znak przekazu? cały przekaz? Odpowiedź: H 1 = i=1..m p i log 2 (p i ) = (1/8) log 2 (1/8) (2/8) log 2 (2/8) + (2/8) log 2 (2/8) (3/8) log 2 (3/8) 1.91 [bita] H n = n H 1 = = [bitów]

32 Odebrano przekaz złożony z 20 znaków alfabetu {0, 1, 2, 3} charakteryzującego się rozkładem [1/10, 2/10, 3/10, 4/10] T. Pytanie: Ile informacji, zgodnie z miarą Shannona (w bitach), zawiera średnio jeden znak przekazu? cały przekaz? Odpowiedź: H 1 = i=1..m p i log 2 (p i ) = (1/10) log 2 (1/10) (2/10) log 2 (2/10) + (3/10) log 2 (3/10) (4/10) log 2 (4/10) 1.84 [bita] H n = n H 1 = = [bitów]

33 Dany jest rozkład prawdopodobieństwa q = [q 1, q 2,..., q m ] T, różny od rozkładu p = [p 1, p 2,..., p m ] T, gdzie p i = 1/m. Zadanie: ocenić, czy dla takiego q zachodzi: H 1 (q) H 1 (p) ewentualnie H 1 (q) < H 1 (p) czy H 1 (q) H 1 (p) ewentualnie H 1 (q) > H 1 (p) Rozwiązanie:???

34 A przy okazji... pamiętacie? Entropia: wprowadzenie wykres H([x]) = x log P (x) (1 x) log P (1 x) dla P = 2

35 A przy okazji... pamiętacie? Entropia: wprowadzenie wykres H([x 1,x 2 ]) = x 1 log P (x 1 ) x 2 log P (x 2 ) (1 x 1 x 2 ) log P (1 x 1 x 2 ) dla P = 2

36 A przy okazji... pamiętacie? Entropia: wprowadzenie wykres H([x 1,x 2,x 3 ]) = x 1 log P (x 1 ) x 2 log P (x 2 ) x 3 log P (x 3 ) + (1 x 1 x 2 x 3 ) log P (1 x 1 x 2 x 3 ) dla P = 2

37 A przy okazji... pamiętacie? Uogólnianie miary informacji wymagane właściwości (niekoniecznie niezależne od siebie) W([p 1, p 2,..., p m ]) unimodalne* względem każdego p i, z maksimum dla p 1 = p 2 =... = p m = 1/m **W([p 1, p 2,..., p m ]) = 1 dla m = 2 i dla p 1 = p 2 =... = p m = 1/m czyli W([1/2, 1/2]) = 1 * (klasyczna) unimodalność funkcji F([x 1,..., x i,..., x m ]) względem x i : F([x 1,..., x i,..., x m ]) jest rosnąca dla x i < x 0 i malejąca dla x i > x 0 ** ta właściwość dobiera jedynie wielkość generowanych wartości; zasadniczo można wymagać jej już od funkcji L(m,n) (w postaci L(2,1) = 1 ); wtedy W([1/2, 1/2]) = 1 byłoby oczywiście implikowane przez właściwości L(m,n)

38 Dany jest rozkład prawdopodobieństwa q = [q 1, q 2,..., q m ] T, różny od rozkładu p = [p 1, p 2,..., p m ] T, gdzie p i = 1/m. Zadanie: ocenić, czy dla takiego q zachodzi: H 1 (q) H 1 (p) ewentualnie H 1 (q) < H 1 (p) czy H 1 (q) H 1 (p) ewentualnie H 1 (q) > H 1 (p) Rozwiązanie: H 1 (q) < H 1 (p) w ogólniejszym przypadku q p : H 1 (q) < H 1 (p)

39 Dany jest rozkład prawdopodobieństwa p = [p 1, p 2,..., p m ] T. Zadanie: zidentyfikować te rozkłady q, dla których H 1 (p) jest maksymalne i ustalić wartość tego maksimum. Rozwiązanie: Wniosek: {[1/m, 1/m,..., 1/m] T } H 1 ([1/m, 1/m,..., 1/m]) = = i=1..m p i log P (p i ) = ( i=1..m (1/m) log P (1/m)) = = ( i=1..m (1/m) log P (1/m)) = (1/m) ( i=1..m log P (1/m)) = = (1/m) ( i=1..m log P (1/m)) = (1/m) m log P (1/m) = log P (1/m) = = ( log P (1/m)) = log P (m) log P (m) = max p {H 1 (p)} = I 1 gdzie p = [p 1, p 2,..., p m ] jest rozkładem

40 ... 40

41 A przy okazji... pamiętacie? Odebrano przekaz Pytanie: A ile informacji zawiera (średnio) jeden znak przekazu? Odpowiedź: oszacowanie wykorzystujące miarę Hartleya [ ] I 1 = I n / n = 10 / 10 = 1 [bit]... Odebrano (inny) przekaz Pytanie: A ile informacji zawiera (średnio) jeden znak przekazu? Odpowiedź: oszacowanie wykorzystujące miarę Hartleya [ ] I 1 = I n / n = 10 / 10 = 1 [bit]... Odebrano...

42 Za każdym razem te same wyniki... bardzo fajne odpowiedzi, ale gdzie pytania? wyjaśnienie podstawą obliczeń były ogólne oszacowania niezbędnych parametrów w praktyce obliczano średnie ilości informacji (i te średnie wykorzystywano w uogólnianiu wyników) nie oceniano indywidualnych elementów przekazu w praktyce oceniano źródło przekazu (raczej niż same przekazy)

43 Za każdym razem te same wyniki... bardzo fajne odpowiedzi, ale gdzie pytania? odpowiedzi wraz z pytaniami stanowią bardziej strawną dawkę np. przekazane wartości mogły informować o tym, która z pewnych 10 ustalonych osób zdała pewien test ( 1 ), a która nie ( 0 ) jednocześnie (z innych źródeł) wiadomo, że zdawalność wynosi 50% (czyli p( 1 ) = 1/2 i p( 0 ) = 1/2), wtedy przekazy będą charakteryzowały się zbliżonymi licznościami znaków 1 i 0 (bardzo trudny egzamin!) wobec tego, ocenianie jakiegoś jednego z wielu możliwych takich przekazów wyżej, a jakiegoś innego niżej, wydaje się niezbyt uzasadnione tym samym wszystkie takie przekazy zawierają (średnio) tyle samo informacji tak czy inaczej, to zasadniczo wszystko, co można zrobić z miarą Hartleya bez dodatkowych danych (prawdopodobieństw) I 1 = log P (m) = log P (1/m) I n = n I 1

44 Za każdym razem te same wyniki... bardzo fajne odpowiedzi, ale gdzie pytania? odpowiedzi wraz z pytaniami stanowią bardziej strawną dawkę np. przekazane wartości mogły informować o tym, która z pewnych 10 ustalonych osób zdała pewien test ( 1 ), a która nie ( 0 ) co innego w sytuacji, gdyby prawdopodobieństwa były diametralnie rożne, np. p( 1 ) = 99/100 i p( 0 ) = 1/100 (bardzo łatwy egzamin!), wtedy przekazy będą charakteryzowały się zdecydowaną przewagą liczności znaku 1 nad licznością znaku 0 w tej sytuacji ocenianie jakiegoś jednego z wielu możliwych takich przekazów wyżej, a jakiegoś innego niżej, wydaje się dużo bardziej uzasadnione, wręcz konieczne! tym samym różne przekazy (tej samej długości!) mogą zawierać różne ilości informacji (nawet jeżeli ilości te dążą do wspólnej średniej)

45 Za każdym razem te same wyniki... bardzo fajne odpowiedzi, ale gdzie pytania? odpowiedzi wraz z pytaniami stanowią bardziej strawną dawkę dysponując konkretnym (bezwarunkowym) prawdopodobieństwem p(z) wystąpienia znaku z w przekazie P = z 1 z 2...z n możliwe jest obliczenie (tzw. wartości elementarne, w praktyce: poelementowe) I n (P) = i=1..n log P (p(z i )) I 1 (P) = I n (P) / n (wspomniana wspólna średnia jest oczywiście wyznaczona przez entropię)

46 Za każdym razem te same wyniki... bardzo fajne odpowiedzi, ale gdzie pytania? problemy /mały/ ocena indywidualnego elementu przekazu nie jest (formalnie) ograniczona (nawet dla skończonych wartości argumentów) /duży/ absolutnie kosmiczne trudności w pozyskiwaniu wiarygodnych danych (konkretnie: prawdopodobieństw)

47 A przy okazji... pamiętacie? Entropia: wprowadzenie wykres H([x]) = x log P (x) (1 x) log P (1 x) dla P = 2

48 A przy okazji... pamiętacie? Funkcja informacyjna: wprowadzenie wykres I(x) = x log P (x) dla P = 2

49 Ujemna funkcja logarytmiczna wykres log P (x) dla P = 2

50 Odebrano przekaz Student R.S. nie zdał testu z TIMKoD. Pytanie: Ile informacji (w bitach) zawiera ten przekaz? Odpowiedź: Nie wiadomo. Pytanie:... oczywiście: znając odpowiednie prawdopodobieństwo. Odpowiedź: jak można ustalić odpowiednie prawdopodobieństwo tego, że przekaz informujący o tym, że student R.S. nie zdał testu z TIMKoD będzie miał dokładnie taką postać Student R.S. nie zdał testu z TIMKoD (a nie np. Wynik testu z TIMKoD uzyskany przez studenta R.S. jest negatywny )??? pierwsza podstawowa trudność: tę samą treść (fakt (nie)zdania testu) można przekazać przekazami o najróżniejszych postaciach*!!! * oczywiście po dokonaniu pewnych ustaleń sprawa ta się nieco upraszcza

51 Odebrano przekaz 0. Pytanie: Ile informacji (w bitach) zawiera ten przekaz, jeżeli informuje on o tym, czy student R.S. zdał test z TIMKoD, przy czym 1 oznacza tak, a 0 oznacza: nie? Odpowiedź: Nie wiadomo. Pytanie:... oczywiście znając prawdopodobieństwo tego, że student R.S. nie zdał tego testu z tego przedmiotu, itd., itp.; (to pytanie w praktyce brzmi: jak to wszystko właściwie oszacować?) Odpowiedź: jak można właściwie oszacować prawdopodobieństwo tego, że jakiś konkretny student nie zdał testu z jakiegoś konkretnego przedmiotu, zorganizowanego w jakimś konkretnym terminie, na jakiejś konkretnej uczelni, przez jakiegoś konkretnego egzaminatora, itp., itd.??? druga podstawowa trudność: zdarzenie wydaje się być jednorazowe!!!

52 Odebrano przekaz 0. Pytanie: Ile informacji (w bitach) zawiera ten przekaz, jeżeli informuje on o tym, czy student R.S. zdał test z TIMKoD, przy czym 1 oznacza tak, 0 oznacza: nie, a dodatkowo jakoś ustalono (cud?), że prawdopodobieństwo zdania tego testu przez tego studenta wynosi dokładnie 50%. czyli: p( 1 ) = 0.50 i p( 0 ) = wreszcie coś mamy!

53 Odebrano przekaz 0. Pytanie: Ile informacji (w bitach) zawiera ten przekaz, jeżeli informuje on o tym, czy student R.S. zdał test z TIMKoD, przy czym 1 oznacza tak, 0 oznacza: nie, a dodatkowo jakoś ustalono (cud?), że prawdopodobieństwo zdania tego testu przez tego studenta wynosi dokładnie 50%. czyli: p( 1 ) = 0.50 i p( 0 ) = 0.50 Odpowiedź: I I ( 0 ) = log 2 (p( 0 )) = log 2 (0.50) = log 2 (2) = 1 [bit]

54 Odebrano przekaz 1. Pytanie: Ile informacji (w bitach) zawiera ten przekaz, jeżeli informuje on o tym, czy student R.S. zdał test z TIMKoD, przy czym 1 oznacza tak, 0 oznacza: nie, a dodatkowo jakoś ustalono (cud?), że prawdopodobieństwo zdania tego testu przez tego studenta wynosi dokładnie 50%. czyli: p( 1 ) = 0.50 i p( 0 ) = 0.50 Odpowiedź: I I ( 1 ) = log 2 (p( 1 )) = log 2 (0.50) = log 2 (2) = 1 [bit]

55 Odebrano przekaz 0. Pytanie: Ile informacji (w bitach) zawiera ten przekaz, jeżeli informuje on o tym, czy student R.S. zdał test z TIMKoD, przy czym 1 oznacza tak, 0 oznacza: nie, a dodatkowo jakoś ustalono (cud?), że prawdopodobieństwo zdania tego testu przez tego studenta wynosi dokładnie 25%. czyli: p( 1 ) = 0.25 i p( 0 ) = 0.75 Odpowiedź: I I ( 0 ) = log 2 (p( 0 )) = log 2 (0.75) [bita]

56 Odebrano przekaz 1. Pytanie: Ile informacji (w bitach) zawiera ten przekaz, jeżeli informuje on o tym, czy student R.S. zdał test z TIMKoD, przy czym 1 oznacza tak, 0 oznacza: nie, a dodatkowo jakoś ustalono (cud?), że prawdopodobieństwo zdania tego testu przez tego studenta wynosi dokładnie 25%. czyli: p( 1 ) = 0.25 i p( 0 ) = 0.75 Odpowiedź: I I ( 1 ) = log 2 (p( 1 )) = log 2 (0.25) = 2 [bity]

57 Odebrano przekaz zawierający ocenę studenta R.S. z testu z przedmiotu TIMKoD. Pytanie: Ile informacji (w bitach) zawiera ten przekaz, jeżeli dodatkowo wiadomo, że rozkład prawdopodobieństwa otrzymania przez tego studenta z tego testu ocen {2.0, 3.0, 3.5, 4.0, 4.5, 5.0} jest następujący [15/30, 5/30, 4/30, 3/30, 2/30, 1/30] czyli: p( 2.0 ) = 15/30, p( 3.0 ) = 5/30,..., p( 5.0 ) = 1/30 Odpowiedź: I I ( 2.0 ) = log 2 (p( 2.0 )) = log 2 (15/30) = 1 [bit] I I ( 3.0 ) = log 2 (p( 3.0 )) = log 2 (5/30) [bita] I I ( 3.5 ) = log 2 (p( 3.5 )) = log 2 (4/30) [bita] I I ( 4.0 ) = log 2 (p( 4.0 )) = log 2 (3/30) [bita] I I ( 4.5 ) = log 2 (p( 4.5 )) = log 2 (2/30) [bita] I I ( 5.0 ) = log 2 (p( 5.0 )) = log 2 (1/30) [bita]...

58 Neverending Story* z pozyskiwaniem danych (konkretnie: prawdopodobieństw) potrzebnych do obliczania ilości informacji konkretne prawdopodobieństwa są w teorii nieznane (brak danych!) (przykład ocen: jak można jakoś oszacować prawdopodobieństwo tego, że jakiś konkretny student nie zdał testu z jakiegoś konkretnego przedmiotu, zorganizowanego w jakimś konkretnym terminie...) chlubny wyjątek stanowią jednak wybrane zagadnienia teoretyczne (np. procesy (pseudo)losowe) metoda generowania nowych danych: uogólnianie (starych)! (przykład ocen: uogólnianie na różne przedmioty, na różnych studentów, na różne podejścia, na różnych egzaminatorów, na różne uczelnie, na różne kraje, na różne kontynenty, na różne epoki literackie, na różne epoki geologiczne,...) (wiarygodność wyników wiarygodność zastosowanych uogólnień) * ang. niekończące się zasłony

59 Odebrano przekaz R = zawierający oceny testu z TIMKoD. Pytanie: Ile informacji (w bitach) zawiera ten przekaz, jeżeli dodatkowo wiadomo, że rozkład (bezwarunkowego) prawdopodobieństwa ocen {2.0, 3.0,..., 5.0} wynosi [3/30, 8/30, 7/30, 5/30, 4/30, 3/30] czyli: p( 2.0 ) = 3/30, p( 3.0 ) = 8/30,..., p( 5.0 ) = 3/30 Odpowiedź: I n (R) = log 2 (p( 3.5 )) log 2 (p( 3.0 )) log 2 (p( 4.5 )) log 2 (p( 3.5 )) = = log 2 (7/30) log 2 (8/30) log 2 (4/30) log 2 (7/30) = [bitów]

60 Odebrano przekaz R = zawierający oceny testu z TIMKoD. Pytanie: Ile informacji (w bitach) zawiera ten przekaz, jeżeli dodatkowo wiadomo, że rozkład (bezwarunkowego) prawdopodobieństwa ocen {2.0, 3.0,..., 5.0} wynosi [3/30, 8/30, 7/30, 5/30, 4/30, 3/30] czyli: p( 2.0 ) = 3/30, p( 3.0 ) = 8/30,..., p( 5.0 ) = 3/30 Odpowiedź: I n (R) = log 2 (p( 3.0 )) log 2 (p( 3.0 )) log 2 (p( 3.0 )) log 2 (p( 3.0 )) = = log 2 (8/30) log 2 (8/30) log 2 (8/30) log 2 (8/30) = [bitów]

61 ... 61

62 (Niech n 100) Odebrano przekaz R zawierający n ocen testu z TIMKoD. Pytanie: Ile informacji (średnio, w bitach) zawiera taki przekaz, jeżeli dodatkowo wiadomo, że rozkład (bezwarunkowego) prawdopodobieństwa ocen {2.0, 3.0,..., 5.0} wynosi [15/30, 5/30, 4/30, 3/30, 2/30, 1/30] czyli: p( 2.0 ) = 15/30, p( 3.0 ) = 5/30,..., p( 5.0 ) = 1/30 Odpowiedź: teoretycznie I n (R) = liczba_wystąpień( 2.0 ) ( log 2 (p( 2.0 ))) + + liczba_wystąpień( 3.0 ) ( log 2 (p( 3.0 ))) liczba_wystąpień( 5.0 ) ( log 2 (p( 5.0 )))

63 (Niech n 100) Odebrano przekaz R zawierający n ocen testu z TIMKoD. Pytanie: Ile informacji (średnio, w bitach) zawiera taki przekaz, jeżeli dodatkowo wiadomo, że rozkład (bezwarunkowego) prawdopodobieństwa ocen {2.0, 3.0,..., 5.0} wynosi [15/30, 5/30, 4/30, 3/30, 2/30, 1/30] czyli: p( 2.0 ) = 15/30, p( 3.0 ) = 5/30,..., p( 5.0 ) = 1/30 Odpowiedź: w praktyce liczba_wystąpień( 2.0 ) = n p( 2.0 ) liczba_wystąpień( 3.0 ) = n p( 3.0 )... liczba_wystąpień( 5.0 ) = n p( 5.0 )

64 (Niech n 100) Odebrano przekaz R zawierający n ocen testu z TIMKoD. Pytanie: Ile informacji (średnio, w bitach) zawiera taki przekaz, jeżeli dodatkowo wiadomo, że rozkład (bezwarunkowego) prawdopodobieństwa ocen {2.0, 3.0,..., 5.0} wynosi [15/30, 5/30, 4/30, 3/30, 2/30, 1/30] czyli: p( 2.0 ) = 15/30, p( 3.0 ) = 5/30,..., p( 5.0 ) = 1/30 Odpowiedź: wtedy I I (R) = n p( 2.0 ) ( log 2 (p( 2.0 ))) + + n p( 3.0 ) ( log 2 (p( 3.0 ))) n p( 5.0 ) ( log 2 (p( 5.0 ))) = = n ( i=1..6 p i log 2 (p i )) = = H n

65 Entropia tzw. długich ciągów typowych

66 n-elementowe ciągi wartości zmiennej X dane zmienna X (dziedzina {x 1, x 2,..., x m }, p(x = x i ) = p i ) ciąg {x i,j } n, gdzie n m l(i) (całkowita) liczba wystąpień wartości x i w ciągu {x i,j } n oczywiście zachodzi: i l(i) 0, i=1..m l(i) = n

67 n-elementowe ciągi wartości zmiennej X ciąg {x i,j } n nazywamy typowym, gdy l(i) jest bliskie n p i (formalnie: l(i) = n p i ) ponieważ i p i 0 i i=1..m p i = 1, więc zachodzi też i l(i) = n p i 0 oraz i=1..m l(i) = i=1..m n p i = n i=1..m p i = n 1 = n

68 n-elementowe ciągi wartości zmiennej X prawdopodobieństwo p({x i,j } n ) p({x i,j } n ) = p(x = x i,1 ) p(x = x i,2 )... p(x = x i,n ) = j=1..n p(x = x i,n ) po uporządkowaniu czynników iloczynu p({x i,j } n ) = (p 1 ) l(1) (p 2 ) l(2)... (p m ) l(m) wykorzystując zależność l(i) = n p i mamy p({x i,j } n ) = (p 1 ) n p 1 (p 2 ) n p 2... (p m ) n p m

69 n-elementowe ciągi wartości zmiennej X prawdopodobieństwo p({x i,j } n ), c.d. czyli log(p({x i,j } n )) = log((p 1 ) n p1 (p 2 ) n p2... (p m ) n pm ) = = log((p 1 ) n p1 ) + log((p 2 ) n p2 ) log((p m ) n pm ) = = n p 1 log(p 1 ) + n p 2 log(p 2 ) n p m log(p m ) = = n (p 1 log(p 1 ) + p 2 log(p 2 ) p m log(p m )) = = n ( ( p 1 log(p 1 ) p 2 log(p 2 )... p m log(p m ))) = = n ( H 1 (X)) = = n H 1 (X) = H n (X) ostatecznie p({x i,j } n ) = p H n(x) = 1/p H n(x)

70 n-elementowe ciągi wartości zmiennej X liczba C(n) zbór ciągów n-elementowych (C(n)) dzieli się na rozłączne zbiory ciągów typowych (T(n)), o prawdopodobieństwach bliskich P H n(x) > 0 ciągów nietypowych (N(n)), o prawdopodobieństwach bliskich 0 czyli C(n) = T(n) N(n), przy czym T(n) N(n) = jednocześnie c T(n) p(c) p H n(x) c N(n) p(c) 0

71 n-elementowe ciągi wartości zmiennej X liczba C(n), c.d. dla zbiorów C(n), T(n) i N(n) zachodzi oczywiście c C(n) p(c) = 1 oraz c C(n) p(c) = c T(n) p(c) + c N(n) p(c) dzięki c C(n) p(c) = c T(n) p(c) + c N(n) p(c) = 1 mamy c T(n) p(c) = 1 c N(n) p(c) ostatecznie C(n) p H n(x)

72 ... 72

73 Dygresja Paradoks (gr. parádoksos nieoczekiwany, nieprawdopodobny) twierdzenie logiczne prowadzące do zaskakujących lub sprzecznych wniosków. Sprzeczność ta może być wynikiem błędów w sformułowaniu twierdzenia, przyjęcia błędnych założeń, a może też być sprzecznością pozorną, sprzecznością z tzw. zdrowym rozsądkiem, np. paradoks hydrostatyczny, czy paradoks bliźniąt.

74 (Niech n 100) Odebrano przekaz R zawierający n ocen testu z TIMKoD oraz przekaz L zawierający n ocen wygenerowanych losowo. Pytanie: Który przekaz zawiera więcej informacji, jeżeli dodatkowo wiadomo, że rozkład prawdopodobieństwa (bezwarunkowego) ocen z TIMKoD wynosi [15/30, 5/30, 4/30, 3/30, 2/30, 1/30], a rozkład prawdopodobieństwa (bezwarunkowego) ocen generowanych losowo był równomierny? Odpowiedź: Przekaz L ponieważ przekazuje dane losowe, czyli takie, które trudniej przewidzieć

75 ... 75

76 A przy okazji... pamiętacie? Entropia: właściwości (zestawienie) H(X) jest symetryczna H(X) 0 H(e i ) = 0, gdzie e i = [0 1, 0 2,..., 0 i 1, 1 i, 0 i+1,..., 0 m ] T min H(X) = 0 argmin H(X) = {e 1, e 2,..., e m } H(X) log P (m) H([1/m, 1/m,..., 1/m] T ) = log P (m) max H(X) = log P (m) argmax H(X) = {[1/m, 1/m,..., 1/m] T }

77 A przy okazji... pamiętacie? Entropia: właściwości H(X) jest symetryczna uwagi symetryczna : niezależna od kolejności zmiennych uzasadnienie niezależność sumy od kolejności sumowania wniosek: H(X) jest symetryczna

78 A przy okazji... pamiętacie? Entropia: właściwości H(X) 0 uwagi uzasadnienie H(X) = i=1..m I(x) i I(x) 0 wniosek: H(X) 0

79 A przy okazji... pamiętacie? Entropia: właściwości H(e i ) = 0, gdzie e i = [0 1, 0 2,..., 0 i 1, 1 i, 0 i+1,..., 0 m ] T uwagi uzasadnienie H(e i ) = H([0 1,..., 0 i 1, 1 i, 0 i+1,..., 0 m ] T ) = = I(0) I(0) + I(1) + I(0) +... I(0) = = = 0 wniosek: H(e i ) = 0

80 A przy okazji... pamiętacie? Entropia: właściwości min H(X) = 0 uwagi uzasadnienie H(X) spełnia p P H(x) 0 oraz np. H(e 1 ) = 0 wniosek: min H(X) = 0

81 A przy okazji... pamiętacie? Entropia: właściwości argmin H(X) = {e 1, e 2,..., e m } uwagi e i są jedynymi elementami argmin H(X) uzasadnienie min H(X) = 0 i i=1..m H(e i ) = 0 i p P (p e i H(x) > 0) wniosek: argmin H(e i ) = {e 1, e 2,..., e m }

82 A przy okazji... pamiętacie? Entropia: właściwości H(X) log P (m) uwagi uzasadnienie ponieważ i=1..m (p i log P (q i )) i=1..m (p i log P (p i )), więc i=1..m (p i log P (p i )) i=1..m (p i log P (q i )) = i=1..m (p i log P (1/m)) ale i=1..m (p i log P (1/m)) = log P (1/m) i=1..m p i = log P (m) i=1..m p i = = log P (m) 1 = log P (m) wniosek: H(X) log P (m)

83 A przy okazji... pamiętacie? Entropia: właściwości H([1/m, 1/m,..., 1/m] T ) = log P (m) uwagi uzasadnienie H([1/m, 1/m,..., 1/m] T ) = i=1..m ((1/m) log P (1/m)) = = log P (1/m) i=1..m (1/m) = log P (m) i=1..m (1/m) = = log P (m) 1 = log P (m) wniosek: H([1/m, 1/m,..., 1/m] T ) = log P (m)

84 A przy okazji... pamiętacie? Entropia: właściwości max H(X) = log P (m) uwagi dla P = 2 i m = 2 mamy: H(X) log 2 (2) = 1 uzasadnienie H(X) spełnia H(X) log P (m) oraz H([1/m, 1/m,..., 1/m]) = log P (m) wniosek: max H(X) = log P (m)

85 A przy okazji... pamiętacie? Entropia: właściwości argmax H(X) = {[1/m, 1/m,..., 1/m] T } uwagi metody analizy matematycznej uzasadnienie dzięki i=1..m p i = 1, skąd wynika p m = 1 i=1..m 1 p i, mamy H(X) = i=1..m (p i log(p i )) i=1..m 1 (p i log(p i )) (1 i=1..m 1 p i ) log(1 i=1..m 1 p i )

86 A przy okazji... pamiętacie? Entropia: właściwości argmax H(X) = {[1/m, 1/m,..., 1/m] T } wtedy i=1..m 1 (H(X))/ p i = ( i=1..m 1 (p i log(p i )))/ p i + wynikowy gradient + ((1 i=1..m 1 p i ) log(1 i=1..m 1 p i ))/ p i = = log(1 i=1..m 1 p i ) log(p i ) H(X) = [ log(1 i=1..m 1 p i ) log(p 1 ) log(1 i=1..m 1 p i ) log(p 2 )... log(1 i=1..m 1 p i ) log(p m 1 ) ] uwaga: H(X) jest wektorem o rozmiarach (m 1) 1

87 A przy okazji... pamiętacie? Entropia: właściwości argmax H(X) = {[1/m, 1/m,..., 1/m] T } przyrównując H(X) do wektora zerowego i przekształcając otrzymujemy H(X) = 0 i=1..m 1 (H(X))/ p i = 0 i=1..m 1 log(1 i=1..m 1 p i ) log(p i ) = 0 i=1..m 1 log(1 i=1..m 1 p i ) = log(p i ) i=1..m 1 1 i=1..m 1 p i = p i p i = 1/(m 1+1) = 1/m* co oznacza, że H(X) = 0 p i = 1/m * wykorzystano i=1..n x i = 1 i=1..n x i x i = 1/(n+1) (wywód algebraiczny: zapisanie i rozwiązanie układu równań)

88 A przy okazji... pamiętacie? Entropia: właściwości argmax H(X) = {[1/m, 1/m,..., 1/m] T } dalej i,j=1..m 1 (H(X))/( p i p i ) = = (log(1 i=1..m 1 p i ) log(p i ))/ p i = = (log(1 i=1..m 1 p i )/ p i (log(p i ))/ p i = = log(e)/(1 i=1..m 1 p i ) log(e)/p i = = log(e)(1/(1 i=1..m 1 p i ) + 1/p i ) i,j=1..m 1 (H(X))/( p i p j ) = = (log(1 i=1..m 1 p i ) log(p j ))/ p j = = (log(1 i=1..m 1 p i )/ p j (log(p j ))/ p j = = log(e)/(1 i=1..m 1 p i ) 0 = = log(e)/(1 i=1..m 1 p i )

89 A przy okazji... pamiętacie? Entropia: właściwości argmax H(X) = {[1/m, 1/m,..., 1/m] T } wynikowy hesjan H H(X) = log(e)[ 1/(1 i=1..m 1 p i ) + 1/p 1, 1/(1 i=1..m 1 p i ),..., 1/(1 i=1..m 1 p i ) 1/(1 i=1..m 1 p i ), 1/(1 i=1..m 1 p i ) + 1/p 2,..., 1/(1 i=1..m 1 p i ) /(1 i=1..m 1 p i ), 1/(1 i=1..m 1 p i ),..., 1/(1 i=1..m 1 p i ) + 1/p m 1 ] uwaga: H H(X) jest macierzą o rozmiarach (m 1) (m 1)

90 A przy okazji... pamiętacie? Entropia: właściwości argmax H(X) = {[1/m, 1/m,..., 1/m] T } dalej H H(X) ([1/m, 1/m,..., 1/m] T ) = = log(e)[ 1/m + 1/m, 1/m,..., 1/m 1/m, 1/m + 1/m,..., 1/m /m, 1/m,..., 1/m + 1/m] = uwaga: H H(X) jest macierzą o rozmiarach (m 1) (m 1)

91 A przy okazji... pamiętacie? Entropia: właściwości argmax H(X) = {[1/m, 1/m,..., 1/m] T } dalej H H(X) ([1/m, 1/m,..., 1/m] T ) = = log(e)/m[ 2, 1,..., 1 1, 2,..., , 1,..., 2] = log(e)/m S (m 1) (m 1) gdzie S (m 1) (m 1) jest macierzą stałych odpowiedniej postaci

92 A przy okazji... pamiętacie? Entropia: właściwości argmax H(X) = {[1/m, 1/m,..., 1/m] T } ponieważ macierz stałych S k k (powyższej postaci) jest dla każdego k macierzą dodatnio określoną oraz log(e)/m < 0 więc hesjan H H(X) ([1/m, 1/m,..., 1/m] T ) = log(e)/m S (m 1) (m 1) jest macierzą ujemnie określoną oznacza to, że jest (jedynym) wektorem, w którym H(X) posiada maksimum wniosek: argmax H(X) = {[1/m, 1/m,..., 1/m] T }

93 ... 93

94 O czym informuje entropia? entropia charakteryzuje rozkład prawdopodobieństwa entropia a wariancja wysoka entropia niska wariancja elementów rozkładu

95 O czym informuje entropia? o poziomie przewidywalności zmiennej uwaga na zmienne regularne!

96 O czym informuje entropia? entropia jest miarą skalarną (w praktyce: funkcja skalarna) rozkładu, co skutkuje tym, że z pewnością: różne entropie --> różne rozkłady ale niekoniecznie: różne rozkłady --> różne entropie 96

97 O czym informuje entropia? entropia jest nietrywialną, głęboką charakterystyką rozkładów, na tyle, że może służyć do identyfikowania np. źródeł danych np. języka (języka naturalnego, języka programowania,...) (lepsza metoda od wykrywania znaczników ) 97

98 O czym informuje entropia? entropia jest funkcją symetryczną, co skutkuje tym, że nie zmienia się przy zamianie prawdopodobieństw miejscami (wada? / zaleta?) jednoznaczna po posortowaniu tych wartości w rezultacie jest niewrażliwa na (proste!) szyfrowanie szyfry podstawieniowe nie zmieniają entropii! umożliwiając (przy dużej ilości danych) złamanie szyfru 98

99 O czym informuje entropia? (niezależnie od możliwości łamania szyfrów) entropia pozwala na identyfikowanie danych zaszyfrowanych 99

100 O czym informuje entropia? entropia pozwala też na identyfikowanie danych skompresowanych 100

101 O czym informuje entropia? naturalne dane bajtowe [R. Lyda, J. Hamrock: Using Entropy Analysis to Find Encrypted and Packed Malware, IEEE Security& Privacy, 5 (2), 40 45, 2007] txt: 4,3 [bit] exe: 5,1 [bit] enc: 7,1 [bit] zip: 6,8 [bit]

102 O czym informuje entropia? inne zastosowania (nie tylko szyfrowanie i kompresowanie) analiza danych stanowiących rozkłady np. histogramy kolorów 102

103

104 A przy okazji... pamiętacie? Uogólnianie miary informacji wymagane właściwości (niekoniecznie niezależne od siebie) W([p 1, p 2,..., p m ]) uwzględniające rozdział wektora rozkładu prawdopodobieństwa; konkretnie: W([p 1,..., p k, p k+1,..., p m ]) = W([p L, p P ]) + + p L W([p 1,..., p k ]/p L ) + + p P W([p k+1,..., p m ]/p P ) gdzie: p L = i=1..k p i, wymagany warunek: p L > 0 (spełniony dzięki zał.: p i > 0) p P = i=k+1..m p i, wymagany warunek: p P > 0 (spełniony dzięki zał.: p i > 0) (w każdym przypadku p L + p P = i=1..k p i + i=k+1..m p i = i=1..m p i = 1)

105 A przy okazji... pamiętacie? Uogólnianie miary informacji przykładowa ilustracja ostatniej właściwości wektor rozkładu v = [p 1, p 2,..., p 5 ] = [0.10, 0.20, 0.30, 0.15, 0.25] ( i=1..5 p i = 1.0) suma równa jeden! należy rozdzielić na (pod)wektory l (lewy) i p (prawy) wynik granica: między indeksami 2 i 3 l 0 = [p 1, p 2 ] = [0.10, 0.20] (p L = i=1..2 p i = 0.3) suma różna od jeden! p 0 = [p 3, p 4, p 5 ] = [0.30, 0.15, 0.25] (p p = i=3..5 p i = 0.7) suma różna od jeden! wymagana korekta: aby wektory te mogły nadal reprezentować prawdopodobieństwa, ich wartości muszą być zmodyfikowane w sposób, który doprowadzi do tego, że ich sumy będą wynosić jeden jak to zrobić?

106 A przy okazji... pamiętacie? Uogólnianie miary informacji przykładowa ilustracja ostatniej właściwości propozycja: podzielić każdy z powstałych wektorów przez jego sumę l = l 0 / p L = [0.10, 0.20] / 0.3 = [ , ] ( = 1.0) suma równa jeden! p = p 0 / p P = [0.30, 0.15, 0.25] / 0.7 = [ , , ] ( = 1.0) suma równa jeden! wniosek: stworzone wektory reprezentują rozkłady prawdopodobieństwa interpretacja operacji: powstały prawdopodobieństwa warunkowe

107 A przy okazji... pamiętacie? Uogólnianie miary informacji przykładowa ilustracja ostatniej właściwości ostateczny wynik ( i=1..2 p i = 0.3) ( i=3..5 p i = 0.7) v = [p 1, p 2,..., p 5 ] = [0.10, 0.20, 0.30, 0.15, 0.25] ( i=1..5 p i = 1.0) p L = 0.3, l = [ , ] ( = 1.0) p P = 0.7, p = [ , , ] ( = 1.0)

108 A przy okazji... pamiętacie? Uogólnianie miary informacji przykładowa ilustracja ostatniej właściwości oczekujemy więc, że w tym przypadku wyrażenie W będzie spełniało W([0.1,0.2,0.30,0.15,0.25]) = W([0.3, 0.7]) W([ , ]) W([0.4..., , ]) (a w ogólności) W([p 1,..., p k, p k+1,..., p m ]) = W([p L, p P ]) + + p L W([p 1,..., p k ]/p L ) + + p P W([p k+1,..., p m ]/p P )

109 Uogólnianie miary informacji właściwości entropii (rozdział wektora rozkładu prawdopodobieństwa) ze względu na właściwość symetrii, pomimo iż rozdział może nastąpić na różne sposoby, wystarcza rozważenie tylko niektórych spośród tych sposobów (unikalnych pod względem kombinacji prawdopodobieństw) v = [p 1, p 2,..., p 5 ] = [0.10, 0.20, 0.30, 0.15, 0.25] ( i=1..5 p i = 1.0) v = [p 1, p 2,..., p 5 ] = [0.20, 0.20, 0.20, 0.20, 0.20] ( i=1..5 p i = 1.0)

110 Uogólnianie miary informacji właściwości entropii (rozdział wektora rozkładu prawdopodobieństwa) jak powinno mieć się H(v) = H([1/5, 1/5, 1/5, 1/5, 1/5]) do H(l) = H([1/2, 1/2]) i H(p) = H([1/3, 1/3, 1/3])? aby było zgodne z H(v) H(l) oraz H(v) H(p)

111 Uogólnianie miary informacji właściwości entropii (rozdział wektora rozkładu prawdopodobieństwa) propozycje H(v) = H(l) + H(p) H(v) = w L H(l) + w P H(p) H(v) = p L H(l) + p P H(p) H(v) = R + p L H(l) + p P H(p), gdzie R R(p L,p P ), przy czym R(p L,p P ) 0 R(p L,p P ) > 0 dla p L > 0 i p P > 0 R(p L,p P ) = 0 dla p L = 0 lub p P > 0 R(p L,p P ) = 1 dla p L = 1/2 i p P = 1/2 R(p L,p P ) R(1/2,1/2)...

112 Uogólnianie miary informacji właściwości entropii (rozdział wektora rozkładu prawdopodobieństwa) propozycja H(v) = H(l) + H(p) problem gdy np. v = [1/10,1/10,1/10,1/10,1/10,1/10,1/10,1/10,1/10,1/10] l = [1/2,1/2] i p = [1/8,1/8,1/8,1/8,1/8,1/8,1/8,1/8] wtedy 2 elementy (tj. elementy 1 i 2) wektora v uzyskują taki sam wpływ na wynik jak pozostałych 8 elementów (tj. elementy 3, 4,..., 10), choć (z analizy prawdopodobieństw wynika, że) powinny mieć dużo mniejszy remedium: wprowadzenie wag uwzględniających liczności powstających podwektorów

113 Uogólnianie miary informacji właściwości entropii (rozdział wektora rozkładu prawdopodobieństwa) propozycja H(v) = L/V H(l) + P/V H(p), gdzie: V: liczba elementów wektora v L: liczba elementów wektora l P: liczba elementów wektora p problem gdy np. v = [16/40,16/40,1/40,1/40,1/40,1/40,1/40,1/40,1/40,1/40] L/V = 2/10, l = [1/2,1/2] i P/V = 8/10, p = [1/8,1/8,1/8,1/8,1/8,1/8,1/8,1/8] wtedy 2 elementy (tj. elementy 1 i 2) wektora v uzyskują mniejszy wpływ na wynik niż pozostałych 8 elementów (tj. elementy 3, 4,..., 10), choć (z analizy prawdopodobieństw wynika, że) powinny mieć większy remedium: wprowadzenie wag uwzględniających elementy powstających podwektorów

114 Uogólnianie miary informacji właściwości entropii (rozdział wektora rozkładu prawdopodobieństwa) propozycja H(v) = p L H(l) + p P H(p), gdzie: p L = i=1..l p i (suma wektora l) p P = i=1..p p i (suma wektora p) problem gdy np. v = [1/10,1/10,1/10,1/10,1/10,1/10,1/10,1/10,1/10,1/10] l = [1] i p = [1/9,1/9,1/9,1/9,1/9,1/9,1/9,1/9,1/9] wtedy H(v) = p L H(l) + p P H(p) = p L 0 + p P H(p) = p P H(p) czyli (wobec p P < 1) H(v) < H(p) (a powinno być H(v) > H(p)) remedium: wprowadzenie dodatkowego wyrażenia R ( reszta )

115 Uogólnianie miary informacji właściwości entropii (rozdział wektora rozkładu prawdopodobieństwa) propozycja H(v) = p L H(l) + p P H(p), gdzie: p L = i=1..l p i (suma wektora l) p P = i=1..p p i (suma wektora p) problem gdy np. v = [1/2,1/2] l = [1] i p = [1] wtedy H(v) = p L H(l) + p P H(p) = p L 0 + p P 0 = 0 (a powinno być H(v) = 1 /a na pewno H(v) > 0/) remedium: wprowadzenie po prawej stronie dodatkowego wyrażenia R ( reszta )

116 Uogólnianie miary informacji właściwości entropii (rozdział wektora rozkładu prawdopodobieństwa) propozycja H(v) = R(p L,p P ) + p L H(l) + p P H(p), gdzie: R(p L,p P ) =??? wymagane właściwości R(p L,p P ): R(p L,p P ) 0 R(p L,p P ) > 0 dla p L > 0 i p P > 0 R(p L,p P ) = 0 dla p L = 0 lub p P > 0 R(p L,p P ) = 1 dla p L = 1/2 i p P = 1/2 R(p L,p P ) R(1/2,1/2)...

117 Uogólnianie miary informacji właściwości entropii (rozdział wektora rozkładu prawdopodobieństwa) propozycja H(v) = R(p L,p P ) + p L H(l) + p P H(p), gdzie: R(p L,p P ) = H([p L,p P ]) czyli H(v) = H([p L,p P ]) + p L H(l) + p P H(p) (rozwiązanie rekurencyjne )

118 Uogólnianie miary informacji właściwości entropii (rozdział wektora rozkładu prawdopodobieństwa) a gdyby rozdzielić wektor v na więcej (rozłącznych) części? np. trzy: H(v) = H([p L,p S,p P ]) + p L H(l) + p S H(s) + p P H(p) np. cztery: H(v) = H([p L,p S,p P,p T ]) + p L H(l) + p S H(s) + p P H(p) + p T H(t) np. pięć:...

119

120 Interpretacje wektorowe-macierzowe danych entropia 1D: wektor entropia 2D: macierz

121 Dalsze uogólnianie miary informacji entropia 1D ( = 1.0)

122 Dalsze uogólnianie miary informacji entropia 1D ( = 1.0) entropia 2D ( = 1.0)

123 Dalsze uogólnianie miary informacji entropia 1D ( = 1.0) entropia 2D ( = 0.3) ( = 0.7) ( = 0.4) ( = 0.6) ( = 1.0)

124 Macierz P mxn = [p ij ], gdzie p ij 0, nazywa się macierzą rozkładu (dwuwymiarowego), gdy: i=1..m j=1..n p ij = 1 suma wszystkiego = 1 stochastyczną, gdy: i=1..m j=1..n p ij = 1 albo j=1..n i=1..m p ij = 1 suma każdego wiersza = 1 suma każdej kolumny = 1 (suma wszystkiego = m) (suma wszystkiego = n) podwójnie stochastyczną, gdy: i=1..m j=1..n p ij = 1 i j=1..n i=1..m p ij = 1 suma każdego wiersza = 1 i suma każdej kolumny = 1 /możliwe tylko wtedy, gdy m = n/ (suma wszystkiego = m + n = 2m = 2n)

125 Dalsze uogólnianie miary informacji entropia 1D ( = 1.0) entropia 2D ( = 0.3) ( = 0.7) ( = 0.4) ( = 0.6) ( = 1.0)

126 Dalsze uogólnianie miary informacji entropia 1D: wystąpienia wartości jednej zmiennej (np. X) p 1 p 2 p 3 p 4 ( = 1.0) entropia 2D: wystąpienia par wartości dwóch zmiennych (np. X i Y) p 1,1 p 1,2 ( = 0.3) p 2,1 p 2,2 ( = 0.7) ( = 1.0) ( = 0.4) ( = 0.6) uwaga: 2 w 2D wynika z faktu, że macierz jest strukturą dwuwymiarową (w odróżnieniu od wektora, który jest strukturą jednowymiarową /1D/), a nie z faktu, że ta konkretna macierz ma rozmiary 2 2 macierze tego typu mogą mieć więc także inne, większe rozmiary!

127 Miary informacji 2D (w praktyce: rozmaite odmiany entropii): H(X,Y), H(Y X = x i ), H(Y X), I(X;Y) (łączna, warunkowa, średnia warunkowa, wspólna) uwaga na oznaczenia argumentów!

128 Entropia łączna (entropia 2D) H(X,Y) = i=1..m j=1..n (p i,j log(p i,j ))

129 (Prawdopodobieństwa warunkowe) i=1..m p j i = p i,i / p i j=1..n p i j = p i,i / p j ( = 0.3) ( = 0.7) ( = 1.0) ( = 1.0)

130 (Prawdopodobieństwa warunkowe) i=1..m p j i = p i,i / p i j=1..n p i j = p i,i / p j ( = 0.4) ( = 0.6) ( = 1.0) ( = 1.0)

131 Entropia warunkowa H(Y X = x i ) = j=1..n (p j i log(p j i )) analogicznie H(X Y = y j ) = i=1..m (p i j log(p i j ))

132 Średnia entropia warunkowa H(Y X) = i=1..m (p i H(Y X = x i )) analogicznie H(Y X) = j=1..n (p j H(X Y = y i ))

133 Podstawowa zależność pomiędzy: entropią 2D, entropią 1D i średnią entropią warunkową uwagi H(Y,X) = H(X) + H(Y X) w postaci H(Y X) = H(Y,X) H(X) analogiczna do p j i = p i,i / p i, po zlogarytmowaniu przyjmującej postać log(p j i ) = log(p i,i / p i ), czyli log(p j i ) = log(p i,i ) log(p i ) wypr. H(Y X) = i=1..m j=1..n (p i,j log(p j i )) = = i=1..m j=1..n (p i,j log(p i,j / p i )) = = i=1..m j=1..n (p i,j log(p i,j / p i )) = = i=1..m j=1..n (p i,j log(p i,j ) p i,j log( p i )) = = i=1..m j=1..n (p i,j log(p i,j )) + i=1..m j=1..n (p i,j log(p i )) = = i=1..m j=1..n (p i,j log(p i,j )) ( i=1..m j=1..n (p i,j log(p i )))

134 Podstawowa zależność pomiędzy: entropią 2D, entropią 1D i średnią entropią warunkową H(Y,X) = H(X) + H(Y X) uzasadnienie H(Y X) = i=1..m j=1..n (p i,j log(p j i )) = = i=1..m j=1..n (p i,j log(p i,j / p i )) = = i=1..m j=1..n (p i,j log(p i,j / p i )) = = i=1..m j=1..n (p i,j log(p i,j ) p i,j log( p i )) = = i=1..m j=1..n (p i,j log(p i,j )) + i=1..m j=1..n (p i,j log(p i )) = = i=1..m j=1..n (p i,j log(p i,j )) ( i=1..m j=1..n (p i,j log(p i )))

135 Podstawowa zależność pomiędzy: entropią 2D, entropią 1D i średnią entropią warunkową H(Y,X) = H(X) + H(Y X) uzasadnienie, c.d. ponieważ p i, a więc także log(p i ), nie zależy od j, może zostać wyłączone poza sumę j=1..n (wewnętrzną) H(Y X) = i=1..m j=1..n (p i,j log(p i,j )) ( i=1..m (( j=1..n p i,j ) log(p i ))) ale j=1..n p i,j = p i, więc H(Y X) = i=1..m j=1..n (p i,j log(p i,j )) ( i=1..m (p i log(p i ))) jednocześnie H(X,Y) = i=1..m j=1..n (p i,j log(p i,j )) H(X) = i=1..m (p i log(p i )) a więc H(Y X) = H(Y,X) H(X)

136 A przy okazji... pamiętacie? Uogólnianie miary informacji właściwości entropii (rozdział wektora rozkładu prawdopodobieństwa) propozycja H(v) = R(p L,p P ) + p L H(l) + p P H(p), gdzie: R(p L,p P ) = H([p L,p P ]) czyli H(v) = H([p L,p P ]) + p L H(l) + p P H(p) (rozwiązanie rekurencyjne )

137 Dalsze uogólnianie miary informacji H(Y,X) = H(X) + H(Y X) obrazkowo... H(X,Y) ( = 1.0) ( = 0.3) ( = 0.7) ( = 0.3) H(X) ( = 0.7) ( = 1.0) H(Y X) ( = 1.0)

138

Teoria Informacji i Metody Kompresji Danych

Teoria Informacji i Metody Kompresji Danych Teoria Informacji i Metody Kompresji Danych 1 Przykładowe zadania (dodatkowe materiały wykładowe) 2 Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL

Bardziej szczegółowo

Teoria Informacji i Metody Kompresji Danych

Teoria Informacji i Metody Kompresji Danych Teoria Informacji i Metody Kompresji Danych 1 Materiały wykładowe (fragmenty) 2 Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL kontakt osobisty

Bardziej szczegółowo

Robert Susmaga. Instytut Informatyki ul. Piotrowo 2 Poznań

Robert Susmaga. Instytut Informatyki ul. Piotrowo 2 Poznań ... Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL kontakt osobisty Centrum Wykładowe, blok informatyki, pok. 7 Wyłączenie odpowiedzialności

Bardziej szczegółowo

Teoria Informacji i Metody Kompresji Danych

Teoria Informacji i Metody Kompresji Danych Teoria Informacji i Metody Kompresji Danych 1 Materiały wykładowe (fragmenty) 2 Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL kontakt osobisty

Bardziej szczegółowo

Programowanie celowe #1

Programowanie celowe #1 Programowanie celowe #1 Problem programowania celowego (PC) jest przykładem problemu programowania matematycznego nieliniowego, który można skutecznie zlinearyzować, tzn. zapisać (i rozwiązać) jako problem

Bardziej szczegółowo

Maksymalne powtórzenia w tekstach i zerowa intensywność entropii

Maksymalne powtórzenia w tekstach i zerowa intensywność entropii Maksymalne powtórzenia w tekstach i zerowa intensywność entropii Łukasz Dębowski ldebowsk@ipipan.waw.pl i Instytut Podstaw Informatyki PAN Warszawa 1 Wprowadzenie 2 Ograniczenia górne i dolne 3 Przykłady

Bardziej szczegółowo

Materiały wykładowe (fragmenty)

Materiały wykładowe (fragmenty) Materiały wykładowe (fragmenty) 1 Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL kontakt osobisty Centrum Wykładowe, blok informatyki, pok. 7

Bardziej szczegółowo

Matematyka i Statystyka w Finansach. Rachunek Różniczkowy

Matematyka i Statystyka w Finansach. Rachunek Różniczkowy Rachunek Różniczkowy Ciąg liczbowy Link Ciągiem liczbowym nieskończonym nazywamy każdą funkcję a która odwzorowuje zbiór liczb naturalnych N w zbiór liczb rzeczywistych R a : N R. Tradycyjnie wartość a(n)

Bardziej szczegółowo

MATEMATYKA I SEMESTR ALK (PwZ) 1. Sumy i sumy podwójne : Σ i ΣΣ

MATEMATYKA I SEMESTR ALK (PwZ) 1. Sumy i sumy podwójne : Σ i ΣΣ MATEMATYKA I SEMESTR ALK (PwZ). Sumy i sumy podwójne : Σ i ΣΣ.. OKREŚLENIE Ciąg liczbowy = Dowolna funkcja przypisująca liczby rzeczywiste pierwszym n (ciąg skończony), albo wszystkim (ciąg nieskończony)

Bardziej szczegółowo

Elementy teorii informacji i kodowania

Elementy teorii informacji i kodowania i kodowania Entropia, nierówność Krafta, kodowanie optymalne Marcin Jenczmyk m.jenczmyk@knm.katowice.pl 17 kwietnia 2015 M. Jenczmyk Spotkanie KNM i kodowania 1 / 20 Niech S = {x 1,..., x q } oznacza alfabet,

Bardziej szczegółowo

5. Rozwiązywanie układów równań liniowych

5. Rozwiązywanie układów równań liniowych 5. Rozwiązywanie układów równań liniowych Wprowadzenie (5.1) Układ n równań z n niewiadomymi: a 11 +a 12 x 2 +...+a 1n x n =a 10, a 21 +a 22 x 2 +...+a 2n x n =a 20,..., a n1 +a n2 x 2 +...+a nn x n =a

Bardziej szczegółowo

Układy równań i nierówności liniowych

Układy równań i nierówności liniowych Układy równań i nierówności liniowych Wiesław Krakowiak 1 grudnia 2010 1 Układy równań liniowych DEFINICJA 11 Układem równań m liniowych o n niewiadomych X 1,, X n, nazywamy układ postaci: a 11 X 1 + +

Bardziej szczegółowo

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy bez pamięci w których czas i stany są zbiorami dyskretnymi. Procesy stochastyczne WYKŁAD 2-3 Łańcuchy Markowa Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi. Przykład Symetryczne błądzenie przypadkowe na prostej. 1 2 Łańcuchem

Bardziej szczegółowo

7. CIĄGI. WYKŁAD 5. Przykłady :

7. CIĄGI. WYKŁAD 5. Przykłady : WYKŁAD 5 1 7. CIĄGI. CIĄGIEM NIESKOŃCZONYM nazywamy funkcję określoną na zbiorze liczb naturalnych, dodatnich, a wyrazami ciągu są wartości tej funkcji. CIĄGIEM SKOŃCZONYM nazywamy funkcję określoną na

Bardziej szczegółowo

4. Postęp arytmetyczny i geometryczny. Wartość bezwzględna, potęgowanie i pierwiastkowanie liczb rzeczywistych.

4. Postęp arytmetyczny i geometryczny. Wartość bezwzględna, potęgowanie i pierwiastkowanie liczb rzeczywistych. Jarosław Wróblewski Matematyka dla Myślących, 008/09. Postęp arytmetyczny i geometryczny. Wartość bezwzględna, potęgowanie i pierwiastkowanie liczb rzeczywistych. 15 listopada 008 r. Uwaga: Przyjmujemy,

Bardziej szczegółowo

Następnie przypominamy (dla części studentów wprowadzamy) podstawowe pojęcia opisujące funkcje na poziomie rysunków i objaśnień.

Następnie przypominamy (dla części studentów wprowadzamy) podstawowe pojęcia opisujące funkcje na poziomie rysunków i objaśnień. Zadanie Należy zacząć od sprawdzenia, co studenci pamiętają ze szkoły średniej na temat funkcji jednej zmiennej. Na początek można narysować kilka krzywych na tle układu współrzędnych (funkcja gładka,

Bardziej szczegółowo

Metody numeryczne Wykład 4

Metody numeryczne Wykład 4 Metody numeryczne Wykład 4 Dr inż. Michał Łanczont Instytut Elektrotechniki i Elektrotechnologii E419, tel. 4293, m.lanczont@pollub.pl, http://m.lanczont.pollub.pl Zakres wykładu Metody skończone rozwiązywania

Bardziej szczegółowo

Weryfikacja hipotez statystycznych

Weryfikacja hipotez statystycznych Weryfikacja hipotez statystycznych Hipoteza Test statystyczny Poziom istotności Testy jednostronne i dwustronne Testowanie równości wariancji test F-Fishera Testowanie równości wartości średnich test t-studenta

Bardziej szczegółowo

Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład Kody liniowe - kodowanie w oparciu o macierz parzystości

Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład Kody liniowe - kodowanie w oparciu o macierz parzystości Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład 13 1 Kody liniowe - kodowanie w oparciu o macierz parzystości Przykład Różne macierze parzystości dla kodu powtórzeniowego. Co wiemy z algebry

Bardziej szczegółowo

13. Równania różniczkowe - portrety fazowe

13. Równania różniczkowe - portrety fazowe 13. Równania różniczkowe - portrety fazowe Grzegorz Kosiorowski Uniwersytet Ekonomiczny w Krakowie rzegorz Kosiorowski (Uniwersytet Ekonomiczny 13. wrównania Krakowie) różniczkowe - portrety fazowe 1 /

Bardziej szczegółowo

Granica kompresji Kodowanie Shannona Kodowanie Huffmana Kodowanie ciągów Kodowanie arytmetyczne. Kody. Marek Śmieja. Teoria informacji 1 / 35

Granica kompresji Kodowanie Shannona Kodowanie Huffmana Kodowanie ciągów Kodowanie arytmetyczne. Kody. Marek Śmieja. Teoria informacji 1 / 35 Kody Marek Śmieja Teoria informacji 1 / 35 Entropia Entropia określa minimalną statystyczną długość kodowania (przyjmijmy dla prostoty że alfabet kodowy A = {0, 1}). Definicja Niech X = {x 1,..., x n }

Bardziej szczegółowo

Układy równań liniowych

Układy równań liniowych Układy równań liniowych ozważmy układ n równań liniowych o współczynnikach a ij z n niewiadomymi i : a + a +... + an n d a a an d a + a +... + a n n d a a a n d an + an +... + ann n d n an an a nn n d

Bardziej szczegółowo

Komputerowa Analiza Danych Doświadczalnych

Komputerowa Analiza Danych Doświadczalnych Komputerowa Analiza Danych Doświadczalnych dr inż. Adam Kisiel kisiel@if.pw.edu.pl pokój 117b (12b) 1 Materiały do wykładu Transparencje do wykładów: http://www.if.pw.edu.pl/~kisiel/kadd/kadd.html Literatura

Bardziej szczegółowo

Centralne twierdzenie graniczne

Centralne twierdzenie graniczne Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 4 Ważne uzupełnienie Dwuwymiarowy rozkład normalny N (µ X, µ Y, σ X, σ Y, ρ): f XY (x, y) = 1 2πσ X σ Y 1 ρ 2 { [ (x ) 1

Bardziej szczegółowo

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać układu równań liniowych Układ liniowych równań algebraicznych

Bardziej szczegółowo

Testowanie hipotez statystycznych.

Testowanie hipotez statystycznych. Bioinformatyka Wykład 9 Wrocław, 5 grudnia 2011 Temat. Test zgodności χ 2 Pearsona. Statystyka χ 2 Pearsona Rozpatrzmy ciąg niezależnych zmiennych losowych X 1,..., X n o jednakowym dyskretnym rozkładzie

Bardziej szczegółowo

Algebra liniowa z geometrią

Algebra liniowa z geometrią Algebra liniowa z geometrią Maciej Czarnecki 15 stycznia 2013 Spis treści 1 Geometria płaszczyzny 2 1.1 Wektory i skalary........................... 2 1.2 Macierze, wyznaczniki, układy równań liniowych.........

Bardziej szczegółowo

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory Dr Anna ADRIAN Paw B5, pok 407 adrian@tempus.metal.agh.edu.pl

Bardziej szczegółowo

Teoria Informacji - wykład. Kodowanie wiadomości

Teoria Informacji - wykład. Kodowanie wiadomości Teoria Informacji - wykład Kodowanie wiadomości Definicja kodu Niech S={s 1, s 2,..., s q } oznacza dany zbiór elementów. Kodem nazywamy wówczas odwzorowanie zbioru wszystkich możliwych ciągów utworzonych

Bardziej szczegółowo

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy bez pamięci w których czas i stany są zbiorami dyskretnymi. Procesy stochastyczne WYKŁAD 2-3 Łańcuchy Markowa Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi. 2 Łańcuchem Markowa nazywamy proces będący ciągiem zmiennych

Bardziej szczegółowo

0 + 0 = 0, = 1, = 1, = 0.

0 + 0 = 0, = 1, = 1, = 0. 5 Kody liniowe Jak już wiemy, w celu przesłania zakodowanego tekstu dzielimy go na bloki i do każdego z bloków dodajemy tak zwane bity sprawdzające. Bity te są w ścisłej zależności z bitami informacyjnymi,

Bardziej szczegółowo

Teoria informacji i kodowania Ćwiczenia

Teoria informacji i kodowania Ćwiczenia Teoria informacji i kodowania Ćwiczenia Piotr Chołda, Andrzej Kamisiński Katedra Telekomunikacji Akademii Górniczo-Hutniczej Kod źródłowy Kodem źródłowym nazywamy funkcję różnowartościową, która elementom

Bardziej szczegółowo

Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9,

Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9, 1 Kody Tunstalla Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9, 14.04.2005 Inne podejście: słowa kodowe mają ustaloną długość, lecz mogą kodować ciągi liter z alfabetu wejściowego o różnej

Bardziej szczegółowo

Wykład 5. Metoda eliminacji Gaussa

Wykład 5. Metoda eliminacji Gaussa 1 Wykład 5 Metoda eliminacji Gaussa Rozwiązywanie układów równań liniowych Układ równań liniowych może mieć dokładnie jedno rozwiązanie, nieskończenie wiele rozwiązań lub nie mieć rozwiązania. Metody dokładne

Bardziej szczegółowo

Testowanie hipotez statystycznych

Testowanie hipotez statystycznych 9 października 2008 ...czyli definicje na rozgrzewkę n-elementowa próba losowa - wektor n zmiennych losowych (X 1,..., X n ); intuicyjnie: wynik n eksperymentów realizacja próby (X 1,..., X n ) w ω Ω :

Bardziej szczegółowo

R-PEARSONA Zależność liniowa

R-PEARSONA Zależność liniowa R-PEARSONA Zależność liniowa Interpretacja wyników: wraz ze wzrostem wartości jednej zmiennej (np. zarobków) liniowo rosną wartości drugiej zmiennej (np. kwoty przeznaczanej na wakacje) czyli np. im wyższe

Bardziej szczegółowo

Funkcja kwadratowa. f(x) = ax 2 + bx + c,

Funkcja kwadratowa. f(x) = ax 2 + bx + c, Funkcja kwadratowa. Funkcją kwadratową nazywamy funkcję f : R R określoną wzorem gdzie a, b, c R, a 0. f(x) = ax 2 + bx + c, Szczególnym przypadkiem funkcji kwadratowej jest funkcja f(x) = ax 2, a R \

Bardziej szczegółowo

RACHUNEK MACIERZOWY. METODY OBLICZENIOWE Budownictwo, studia I stopnia, semestr 6. Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska

RACHUNEK MACIERZOWY. METODY OBLICZENIOWE Budownictwo, studia I stopnia, semestr 6. Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska RACHUNEK MACIERZOWY METODY OBLICZENIOWE Budownictwo, studia I stopnia, semestr 6 Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Czym jest macierz? Definicja Macierzą A nazywamy

Bardziej szczegółowo

Materiały wykładowe (fragmenty)

Materiały wykładowe (fragmenty) Materiały wykładowe (fragmenty) 1 Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL kontakt osobisty Centrum Wykładowe, blok informatyki, pok. 7

Bardziej szczegółowo

Treść wykładu. Układy równań i ich macierze. Rząd macierzy. Twierdzenie Kroneckera-Capellego.

Treść wykładu. Układy równań i ich macierze. Rząd macierzy. Twierdzenie Kroneckera-Capellego. . Metoda eliminacji. Treść wykładu i ich macierze... . Metoda eliminacji. Ogólna postać układu Układ m równań liniowych o n niewiadomych x 1, x 2,..., x n : a 11 x 1 + a 12 x 2 + + a 1n x n = b 1 a 21

Bardziej szczegółowo

Zajęcia nr 1 (1h) Dwumian Newtona. Indukcja. Zajęcia nr 2 i 3 (4h) Trygonometria

Zajęcia nr 1 (1h) Dwumian Newtona. Indukcja. Zajęcia nr 2 i 3 (4h) Trygonometria Technologia Chemiczna 008/09 Zajęcia wyrównawcze. Pokazać, że: ( )( ) n k k l = ( n l )( n l k l Zajęcia nr (h) Dwumian Newtona. Indukcja. ). Rozwiązać ( ) ( równanie: ) n n a) = 0 b) 3 ( ) n 3. Znaleźć

Bardziej szczegółowo

S n = a 1 1 qn,gdyq 1

S n = a 1 1 qn,gdyq 1 Spis treści Powtórzenie wiadomości... 9 Zadania i zbiory... 10 Obliczenia... 18 Ciągi... 27 Własności funkcji... 31 Funkcje liniowe i kwadratowe... 39 Wielomiany i wyrażenia wymierne... 45 Funkcje wykładnicze

Bardziej szczegółowo

Wykład 4 Przebieg zmienności funkcji. Badanie dziedziny oraz wyznaczanie granic funkcji poznaliśmy na poprzednich wykładach.

Wykład 4 Przebieg zmienności funkcji. Badanie dziedziny oraz wyznaczanie granic funkcji poznaliśmy na poprzednich wykładach. Wykład Przebieg zmienności funkcji. Celem badania przebiegu zmienności funkcji y = f() jest poznanie ważnych własności tej funkcji na podstawie jej wzoru. Efekty badania pozwalają naszkicować wykres badanej

Bardziej szczegółowo

Przedmiotowy system oceniania wraz z określeniem wymagań edukacyjnych klasa druga zakres rozszerzony

Przedmiotowy system oceniania wraz z określeniem wymagań edukacyjnych klasa druga zakres rozszerzony Przedmiotowy system oceniania wraz z określeniem wymagań edukacyjnych klasa druga zakres rozszerzony Wymagania konieczne (K) dotyczą zagadnień elementarnych, stanowiących swego rodzaju podstawę, zatem

Bardziej szczegółowo

Aby przygotować się do kolokwiów oraz do egzaminów należy ponownie przeanalizować zadania

Aby przygotować się do kolokwiów oraz do egzaminów należy ponownie przeanalizować zadania Chemia Budowlana - Wydział Chemiczny - 1 Aby przygotować się do kolokwiów oraz do egzaminów należy ponownie przeanalizować zadania rozwiązywane na wykładzie, rozwiązywane na ćwiczeniach, oraz samodzielnie

Bardziej szczegółowo

Spacery losowe generowanie realizacji procesu losowego

Spacery losowe generowanie realizacji procesu losowego Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z

Bardziej szczegółowo

Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Elektroniki

Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Elektroniki Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Elektroniki Przetwarzanie Sygnałów Studia Podyplomowe, Automatyka i Robotyka. Wstęp teoretyczny Zmienne losowe Zmienne losowe

Bardziej szczegółowo

Układy równań liniowych

Układy równań liniowych Układy równań liniowych Mirosław Sobolewski Wydział Matematyki, Informatyki i Mechaniki UW 1. wykład z algebry liniowej Warszawa, październik 2015 Mirosław Sobolewski (UW) Warszawa, wrzesień 2015 1 / 1

Bardziej szczegółowo

Wykład 1 Próba i populacja. Estymacja parametrów z wykorzystaniem metody bootstrap

Wykład 1 Próba i populacja. Estymacja parametrów z wykorzystaniem metody bootstrap Wykład 1 Próba i populacja. Estymacja parametrów z wykorzystaniem metody bootstrap Magdalena Frąszczak Wrocław, 21.02.2018r Tematyka Wykładów: Próba i populacja. Estymacja parametrów z wykorzystaniem metody

Bardziej szczegółowo

Programowanie nieliniowe. Badania operacyjne Wykład 3 Metoda Lagrange a

Programowanie nieliniowe. Badania operacyjne Wykład 3 Metoda Lagrange a Programowanie nieliniowe Badania operacyjne Wykład 3 Metoda Lagrange a Plan wykładu Przykład problemu z nieliniową funkcją celu Sformułowanie problemu programowania matematycznego Podstawowe definicje

Bardziej szczegółowo

Statystyka. Rozkład prawdopodobieństwa Testowanie hipotez. Wykład III ( )

Statystyka. Rozkład prawdopodobieństwa Testowanie hipotez. Wykład III ( ) Statystyka Rozkład prawdopodobieństwa Testowanie hipotez Wykład III (04.01.2016) Rozkład t-studenta Rozkład T jest rozkładem pomocniczym we wnioskowaniu statystycznym; stosuje się go wyznaczenia przedziału

Bardziej szczegółowo

Wymagania kl. 3. Zakres podstawowy i rozszerzony

Wymagania kl. 3. Zakres podstawowy i rozszerzony Wymagania kl. 3 Zakres podstawowy i rozszerzony Temat lekcji Zakres treści Osiągnięcia ucznia 1. RACHUNEK PRAWDOPODOBIEŃSTWA 1. Reguła mnożenia reguła mnożenia ilustracja zbioru wyników doświadczenia za

Bardziej szczegółowo

Funkcja kwadratowa. f(x) = ax 2 + bx + c = a

Funkcja kwadratowa. f(x) = ax 2 + bx + c = a Funkcja kwadratowa. Funkcją kwadratową nazywamy funkcję f : R R określoną wzorem gdzie a, b, c R, a 0. f(x) = ax + bx + c, Szczególnym przypadkiem funkcji kwadratowej jest funkcja f(x) = ax, a R \ {0}.

Bardziej szczegółowo

Met Me ody numer yczne Wykład ykład Dr inż. Mic hał ha Łanc Łan zon Instyt Ins ut Elektr Elektr echn iki echn i Elektrot Elektr echn olo echn

Met Me ody numer yczne Wykład ykład Dr inż. Mic hał ha Łanc Łan zon Instyt Ins ut Elektr Elektr echn iki echn i Elektrot Elektr echn olo echn Metody numeryczne Wykład 3 Dr inż. Michał Łanczont Instytut Elektrotechniki i Elektrotechnologii E419, tel. 4293, m.lanczont@pollub.pl, http://m.lanczont.pollub.pl Zakres wykładu Pojęcia podstawowe Algebra

Bardziej szczegółowo

Zaawansowane metody numeryczne

Zaawansowane metody numeryczne Wykład 11 Ogólna postać metody iteracyjnej Definicja 11.1. (metoda iteracyjna rozwiązywania układów równań) Metodą iteracyjną rozwiązywania { układów równań liniowych nazywamy ciąg wektorów zdefiniowany

Bardziej szczegółowo

Statystyka matematyczna dla leśników

Statystyka matematyczna dla leśników Statystyka matematyczna dla leśników Wydział Leśny Kierunek leśnictwo Studia Stacjonarne I Stopnia Rok akademicki 03/04 Wykład 5 Testy statystyczne Ogólne zasady testowania hipotez statystycznych, rodzaje

Bardziej szczegółowo

teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015

teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015 teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015 1 wczoraj Wprowadzenie matematyczne. Entropia i informacja. Kodowanie. Kod ASCII. Stopa kodu. Kody bezprefiksowe.

Bardziej szczegółowo

Twierdzenia Rolle'a i Lagrange'a

Twierdzenia Rolle'a i Lagrange'a Twierdzenia Rolle'a i Lagrange'a Zadanie 1 Wykazać, że dla dowolnych zachodzi. W przypadku nierówność (a właściwie równość) w treści zadania spełniona jest w sposób oczywisty, więc tego przypadku nie musimy

Bardziej szczegółowo

Układy równań liniowych

Układy równań liniowych Układy równań liniowych Niech K będzie ciałem. Niech n, m N. Równanie liniowe nad ciałem K z niewiadomymi (lub zmiennymi) x 1, x 2,..., x n K definiujemy jako formę zdaniową zmiennej (x 1,..., x n ) K

Bardziej szczegółowo

Indukcja matematyczna. Zasada minimum. Zastosowania.

Indukcja matematyczna. Zasada minimum. Zastosowania. Indukcja matematyczna. Zasada minimum. Zastosowania. Arkadiusz Męcel Uwagi początkowe W trakcie zajęć przyjęte zostaną następujące oznaczenia: 1. Zbiory liczb: R - zbiór liczb rzeczywistych; Q - zbiór

Bardziej szczegółowo

FUNKCJA LINIOWA - WYKRES

FUNKCJA LINIOWA - WYKRES FUNKCJA LINIOWA - WYKRES Wzór funkcji liniowej (Postać kierunkowa) Funkcja liniowa jest podstawowym typem funkcji. Jest to funkcja o wzorze: y = ax + b a i b to współczynniki funkcji, które mają wartości

Bardziej szczegółowo

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH Transport, studia I stopnia rok akademicki 2011/2012 Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Uwagi wstępne Układ liniowych równań algebraicznych można

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej

Bardziej szczegółowo

Prawa wielkich liczb, centralne twierdzenia graniczne

Prawa wielkich liczb, centralne twierdzenia graniczne , centralne twierdzenia graniczne Katedra matematyki i ekonomii matematycznej 17 maja 2012, centralne twierdzenia graniczne Rodzaje zbieżności ciągów zmiennych losowych, centralne twierdzenia graniczne

Bardziej szczegółowo

Kształcenie w zakresie podstawowym. Klasa 2

Kształcenie w zakresie podstawowym. Klasa 2 Kształcenie w zakresie podstawowym. Klasa 2 Poniżej podajemy umiejętności, jakie powinien zdobyć uczeń z każdego działu, aby uzyskać poszczególne stopnie. Na ocenę dopuszczającą uczeń powinien opanować

Bardziej szczegółowo

; B = Wykonaj poniższe obliczenia: Mnożenia, transpozycje etc wykonuję programem i przepisuję wyniki. Mam nadzieję, że umiesz mnożyć macierze...

; B = Wykonaj poniższe obliczenia: Mnożenia, transpozycje etc wykonuję programem i przepisuję wyniki. Mam nadzieję, że umiesz mnożyć macierze... Tekst na niebiesko jest komentarzem lub treścią zadania. Zadanie. Dane są macierze: A D 0 ; E 0 0 0 ; B 0 5 ; C Wykonaj poniższe obliczenia: 0 4 5 Mnożenia, transpozycje etc wykonuję programem i przepisuję

Bardziej szczegółowo

1 Układy równań liniowych

1 Układy równań liniowych II Metoda Gaussa-Jordana Na wykładzie zajmujemy się układami równań liniowych, pojawi się też po raz pierwszy macierz Formalną (i porządną) teorią macierzy zajmiemy się na kolejnych wykładach Na razie

Bardziej szczegółowo

1 Funkcje dwóch zmiennych podstawowe pojęcia

1 Funkcje dwóch zmiennych podstawowe pojęcia 1 Funkcje dwóch zmiennych podstawowe pojęcia Definicja 1 Funkcją dwóch zmiennych określoną na zbiorze A R 2 o wartościach w zbiorze R nazywamy przyporządkowanie każdemu punktowi ze zbioru A dokładnie jednej

Bardziej szczegółowo

Rozkłady zmiennych losowych

Rozkłady zmiennych losowych Rozkłady zmiennych losowych Wprowadzenie Badamy pewną zbiorowość czyli populację pod względem występowania jakiejś cechy. Pobieramy próbę i na podstawie tej próby wyznaczamy pewne charakterystyki. Jeśli

Bardziej szczegółowo

Wymagania edukacyjne z matematyki klasa II technikum

Wymagania edukacyjne z matematyki klasa II technikum Wymagania edukacyjne z matematyki klasa II technikum Poziom rozszerzony Obowiązują wymagania z zakresu podstawowego oraz dodatkowo: 1. JĘZYK MATEMATYKI I FUNKCJE LICZBOWE Uczeń otrzymuje ocenę dopuszczającą

Bardziej szczegółowo

Rozkłady wielu zmiennych

Rozkłady wielu zmiennych Rozkłady wielu zmiennych Uogólnienie pojęć na rozkład wielu zmiennych Dystrybuanta, gęstość prawdopodobieństwa, rozkład brzegowy, wartości średnie i odchylenia standardowe, momenty Notacja macierzowa Macierz

Bardziej szczegółowo

Układy stochastyczne

Układy stochastyczne Instytut Informatyki Uniwersytetu Śląskiego 21 stycznia 2009 Definicja Definicja Proces stochastyczny to funkcja losowa, czyli funkcja matematyczna, której wartości leżą w przestrzeni zdarzeń losowych.

Bardziej szczegółowo

3. FUNKCJA LINIOWA. gdzie ; ół,.

3. FUNKCJA LINIOWA. gdzie ; ół,. 1 WYKŁAD 3 3. FUNKCJA LINIOWA FUNKCJĄ LINIOWĄ nazywamy funkcję typu : dla, gdzie ; ół,. Załóżmy na początek, że wyraz wolny. Wtedy mamy do czynienia z funkcją typu :.. Wykresem tej funkcji jest prosta

Bardziej szczegółowo

Jarosław Wróblewski Analiza Matematyczna 1A, zima 2012/13

Jarosław Wróblewski Analiza Matematyczna 1A, zima 2012/13 35. O zdaniu 1 T (n) udowodniono, że prawdziwe jest T (1), oraz że dla dowolnego n 6 zachodzi implikacja T (n) T (n+2). Czy można stąd wnioskować, że a) prawdziwe jest T (10), b) prawdziwe jest T (11),

Bardziej szczegółowo

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa Spis treści Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa Romuald Kotowski Katedra Informatyki Stosowanej PJWSTK 2009 Spis treści Spis treści 1 Wstęp Bardzo często interesujący

Bardziej szczegółowo

Plan wynikowy. Klasa III Technik pojazdów samochodowych/ Technik urządzeń i systemów energetyki odnawialnej. Kształcenie ogólne w zakresie podstawowym

Plan wynikowy. Klasa III Technik pojazdów samochodowych/ Technik urządzeń i systemów energetyki odnawialnej. Kształcenie ogólne w zakresie podstawowym Oznaczenia: wymagania konieczne, P wymagania podstawowe, R wymagania rozszerzające, D wymagania dopełniające, W wymagania wykraczające. Plan wynikowy lasa III Technik pojazdów samochodowych/ Technik urządzeń

Bardziej szczegółowo

III. ZMIENNE LOSOWE JEDNOWYMIAROWE

III. ZMIENNE LOSOWE JEDNOWYMIAROWE III. ZMIENNE LOSOWE JEDNOWYMIAROWE.. Zmienna losowa i pojęcie rozkładu prawdopodobieństwa W dotychczas rozpatrywanych przykładach każdemu zdarzeniu była przyporządkowana odpowiednia wartość liczbowa. Ta

Bardziej szczegółowo

Robert Susmaga. Instytut Informatyki ul. Piotrowo 2 Poznań

Robert Susmaga. Instytut Informatyki ul. Piotrowo 2 Poznań ... Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL kontakt osobisty Centrum Wykładowe, blok informatyki, pok. 7 Wyłączenie odpowiedzialności

Bardziej szczegółowo

Szeregi o wyrazach dodatnich. Kryteria zbieżności d'alemberta i Cauchy'ego

Szeregi o wyrazach dodatnich. Kryteria zbieżności d'alemberta i Cauchy'ego Szeregi o wyrazach dodatnich. Kryteria zbieżności d'alemberta i Cauchy'ego Przy założeniu, że wszystkie składniki szeregu jest rosnący. Wynika stąd natychmiast stwierdzenie: są dodatnie, ciąg jego sum

Bardziej szczegółowo

Stanisław Cichocki Natalia Nehrebecka. Wykład 7

Stanisław Cichocki Natalia Nehrebecka. Wykład 7 Stanisław Cichocki Natalia Nehrebecka Wykład 7 1 1. Metoda Największej Wiarygodności MNW 2. Założenia MNW 3. Własności estymatorów MNW 4. Testowanie hipotez w MNW 2 1. Metoda Największej Wiarygodności

Bardziej szczegółowo

Wybrane rozkłady zmiennych losowych. Statystyka

Wybrane rozkłady zmiennych losowych. Statystyka Wybrane rozkłady zmiennych losowych Statystyka Rozkład dwupunktowy Zmienna losowa przyjmuje tylko dwie wartości: wartość 1 z prawdopodobieństwem p i wartość 0 z prawdopodobieństwem 1- p x i p i 0 1-p 1

Bardziej szczegółowo

7. Estymacja parametrów w modelu normalnym(14.04.2008) Pojęcie losowej próby prostej

7. Estymacja parametrów w modelu normalnym(14.04.2008) Pojęcie losowej próby prostej 7. Estymacja parametrów w modelu normalnym(14.04.2008) Pojęcie losowej próby prostej Definicja 1 n-elementowa losowa próba prosta nazywamy ciag n niezależnych zmiennych losowych o jednakowych rozkładach

Bardziej szczegółowo

Wybrane rozkłady zmiennych losowych. Statystyka

Wybrane rozkłady zmiennych losowych. Statystyka Wybrane rozkłady zmiennych losowych Statystyka Rozkład dwupunktowy Zmienna losowa przyjmuje tylko dwie wartości: wartość 1 z prawdopodobieństwem p i wartość 0 z prawdopodobieństwem 1- p x i p i 0 1-p 1

Bardziej szczegółowo

Kodowanie informacji

Kodowanie informacji Kodowanie informacji Tomasz Wykład 4: kodowanie arytmetyczne Motywacja Podstawy i własności Liczby rzeczywiste Motywacje 1 średnia długość kodu Huffmana może odbiegać o p max + 0.086 od entropii, gdzie

Bardziej szczegółowo

Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 14, Kryptografia: algorytmy asymetryczne (RSA)

Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 14, Kryptografia: algorytmy asymetryczne (RSA) Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 14, 7.06.2005 1 Kryptografia: algorytmy asymetryczne (RSA) Niech E K (x) oznacza szyfrowanie wiadomości x kluczem K (E od encrypt, D K (x)

Bardziej szczegółowo

Zestaw zadań przygotowujących do egzaminu z Matematyki 1

Zestaw zadań przygotowujących do egzaminu z Matematyki 1 Uniwersytet Ekonomiczny w Katowicach Wydział Finansów i Ubezpieczeń, Kierunek: Finanse i Zarządzanie w Ochronie Zdrowia Zestaw zadań przygotowujących do egzaminu z Matematyki 1 Powtórka materiału przed

Bardziej szczegółowo

Definicja macierzy Typy i właściwości macierzy Działania na macierzach Wyznacznik macierzy Macierz odwrotna Normy macierzy RACHUNEK MACIERZOWY

Definicja macierzy Typy i właściwości macierzy Działania na macierzach Wyznacznik macierzy Macierz odwrotna Normy macierzy RACHUNEK MACIERZOWY Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Adam Wosatko Ewa Pabisek Czym jest macierz? Definicja Macierzą A nazywamy funkcję

Bardziej szczegółowo

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład Rozdział 1 Wektory losowe 1.1 Wektor losowy i jego rozkład Definicja 1 Wektor X = (X 1,..., X n ), którego każda współrzędna jest zmienną losową, nazywamy n-wymiarowym wektorem losowym (krótko wektorem

Bardziej szczegółowo

Proces Poissona. Proces {N(t), t 0} nazywamy procesem zliczającym jeśli N(t) oznacza całkowitą liczbę badanych zdarzeń zaobserwowanych do chwili t.

Proces Poissona. Proces {N(t), t 0} nazywamy procesem zliczającym jeśli N(t) oznacza całkowitą liczbę badanych zdarzeń zaobserwowanych do chwili t. Procesy stochastyczne WYKŁAD 5 Proces Poissona. Proces {N(t), t } nazywamy procesem zliczającym jeśli N(t) oznacza całkowitą liczbę badanych zdarzeń zaobserwowanych do chwili t. Proces zliczający musi

Bardziej szczegółowo

Kompresja danych DKDA (7)

Kompresja danych DKDA (7) Kompresja danych DKDA (7) Marcin Gogolewski marcing@wmi.amu.edu.pl Uniwersytet im. Adama Mickiewicza w Poznaniu Poznań, 22 listopada 2016 1 Kwantyzacja skalarna Wprowadzenie Analiza jakości Typy kwantyzatorów

Bardziej szczegółowo

Znaleźć wzór ogólny i zbadać istnienie granicy ciągu określonego rekurencyjnie:

Znaleźć wzór ogólny i zbadać istnienie granicy ciągu określonego rekurencyjnie: Ciągi rekurencyjne Zadanie 1 Znaleźć wzór ogólny i zbadać istnienie granicy ciągu określonego rekurencyjnie: w dwóch przypadkach: dla i, oraz dla i. Wskazówka Należy poszukiwać rozwiązania w postaci, gdzie

Bardziej szczegółowo

Indukcja matematyczna

Indukcja matematyczna Indukcja matematyczna Zadanie. Zapisać, używając symboli i, następujące wyrażenia (a) n!; (b) sin() + sin() sin() +... + sin() sin()... sin(n); (c) ( + )( + /)( + / + /)... ( + / + / +... + /R). Zadanie.

Bardziej szczegółowo

Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1

Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1 Weryfikacja hipotez statystycznych KG (CC) Statystyka 26 V 2009 1 / 1 Sformułowanie problemu Weryfikacja hipotez statystycznych jest drugą (po estymacji) metodą uogólniania wyników uzyskanych w próbie

Bardziej szczegółowo

Elementy logiki (4 godz.)

Elementy logiki (4 godz.) Elementy logiki (4 godz.) Spójniki zdaniotwórcze, prawa de Morgana. Wyrażenie implikacji za pomocą alternatywy i negacji, zaprzeczenie implikacji. Prawo kontrapozycji. Podstawowe prawa rachunku zdań. Uczestnik

Bardziej szczegółowo

Wektory i wartości własne

Wektory i wartości własne Treść wykładu Podprzestrzenie niezmiennicze... Twierdzenie Cayley Hamiltona Podprzestrzenie niezmiennicze Definicja Niech f : V V będzie przekształceniem liniowym. Podprzestrzeń W V nazywamy niezmienniczą

Bardziej szczegółowo

FUNKCJE LICZBOWE. Na zbiorze X określona jest funkcja f : X Y gdy dowolnemu punktowi x X przyporządkowany jest punkt f(x) Y.

FUNKCJE LICZBOWE. Na zbiorze X określona jest funkcja f : X Y gdy dowolnemu punktowi x X przyporządkowany jest punkt f(x) Y. FUNKCJE LICZBOWE Na zbiorze X określona jest funkcja f : X Y gdy dowolnemu punktowi x X przyporządkowany jest punkt f(x) Y. Innymi słowy f X Y = {(x, y) : x X oraz y Y }, o ile (x, y) f oraz (x, z) f pociąga

Bardziej szczegółowo

Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału

Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału Magdalena Frąszczak Wrocław, 22.02.2017r Zasady oceniania Ćwiczenia 2 kolokwia (20 punktów każde) 05.04.2017 oraz 31.05.2017 2 kartkówki

Bardziej szczegółowo

13 Układy równań liniowych

13 Układy równań liniowych 13 Układy równań liniowych Definicja 13.1 Niech m, n N. Układem równań liniowych nad ciałem F m równaniach i n niewiadomych x 1, x 2,..., x n nazywamy koniunkcję równań postaci a 11 x 1 + a 12 x 2 +...

Bardziej szczegółowo

Wykład 4. Plan: 1. Aproksymacja rozkładu dwumianowego rozkładem normalnym. 2. Rozkłady próbkowe. 3. Centralne twierdzenie graniczne

Wykład 4. Plan: 1. Aproksymacja rozkładu dwumianowego rozkładem normalnym. 2. Rozkłady próbkowe. 3. Centralne twierdzenie graniczne Wykład 4 Plan: 1. Aproksymacja rozkładu dwumianowego rozkładem normalnym 2. Rozkłady próbkowe 3. Centralne twierdzenie graniczne Przybliżenie rozkładu dwumianowego rozkładem normalnym Niech Y ma rozkład

Bardziej szczegółowo

Przykładowe zadania na egzamin z matematyki - dr Anita Tlałka - 1

Przykładowe zadania na egzamin z matematyki - dr Anita Tlałka - 1 Przykładowe zadania na egzamin z matematyki - dr Anita Tlałka - 1 Zadania rozwiązywane na wykładzie Zadania rozwiązywane na ćwiczeniach Przy rozwiązywaniu zadań najistotniejsze jest wykazanie się rozumieniem

Bardziej szczegółowo