Teoria Informacji i Metody Kompresji Danych

Wielkość: px
Rozpocząć pokaz od strony:

Download "Teoria Informacji i Metody Kompresji Danych"

Transkrypt

1 Teoria Informacji i Metody Kompresji Danych 1

2 Materiały wykładowe (fragmenty) 2

3 Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL kontakt osobisty Centrum Wykładowe, blok informatyki, pok. 7 3

4 Wyłączenie odpowiedzialności Prezentowane materiały, będące dodatkiem pomocniczym do wykładów, z konieczności fragmentarycznym i niedopracowanym, należy wykorzystywać z pełną świadomością faktu, że mogą nie być pozbawione przypadkowych błędów, braków, wypaczeń i przeinaczeń :-) Autor

5 ... 5

6 Funkcja f(x) = x x problematyczna nazwa wykładnicza?... potęgowa? dziedzina x > 0: ok.! x = 0:?» 0 0 = 1 x < 0:???» ( 0.5) 0.5 =? (2 0.5 i)» ( 1) 1 = 1» ( 1.5) 1.5 =? ( (2/3) 1.5 i)» ( 2) 2 = 0.25»...

7 Funkcja f(x) = x x problematyczna pochodna wstępne przekształcenie funkcji f(x) = x x ln(f(x)) = ln(x x ) ln(f(x)) = x ln(x) e ln(f(x)) = e x ln(x) f(x) = e x ln(x) czyli f(x) = e g(x), gdzie g(x) = x ln(x) wtedy f (x) = (e g(x) ) = e g(x) g (x) = e g(x) g (x) = e g(x) (x ln(x)) = e x ln(x) (x ln(x))» ale (x ln(x)) = 1 ln(x) + x (1/x) = ln(x) + 1 ostatecznie f (x) = e x ln(x) (ln(x) + 1)

8 Funkcja f(x) = x x fundamentalne właściwości przebiegu dla x 0 dziedzina: [0,+ ) przeciwdziedzina: [(1/e) 1/e, + ) odwrotnie unimodalna*, minimum lokalne (1/e) 1/e w x = 1/e (1/e) 1/e /e szybko (szybciej niż x!) rosnąca dla x > 1/e 1 1 = = = = = = * (klasyczna) unimodalność funkcji F([x 1,..., x i,..., x m ]) względem x i : F([x 1,..., x i,..., x m ]) jest rosnąca dla x i < x 0 i malejąca dla x i > x 0 * odwrotna unimodalność funkcji F(x): funkcja F(x) jest (klasycznie) unimodalna

9 Funkcja f(x) = x x wykres dla x 0

10 Funkcja g(x) = log 2 (f(x)) = log 2 (x x ) wykres dla x 0

11 ... 11

12 Aksjomatyka rozkładu prawdopodobieństwa dyskretny rozkład prawdopodobieństwa w odróżnieniu od pojedynczego prawdopodobieństwa, które dotyczy jakiegoś jednego, wybranego zdarzenia dotyczy ustalonego zbioru rozłącznych i wyczerpujących zdarzeń tzn. stanowiących podział tzw. przestrzeni zdarzeń elementarnych i reprezentowany jest przez zestaw prawdopodobieństw

13 Aksjomatyka rozkładu prawdopodobieństwa w praktyce: wektor [p 1, p 2,..., p m ] m liczb rzeczywistych p 1, p 2,..., p m spełniających warunki nieujemność wszystkich poszczególnych elementów: i=1..m p i 0 suma wszystkich elementów równa 1: i=1..m p i = 1» konsekwencja: gdy istnieje tylko jedno takie prawdopodobieństwo (m = 1), to musi ono musi wynosić 1 (p 1 = 1) posiadających interpretacje probablistyczno-dziedzinowa: zestaw częstości występowania zdarzeń algebraiczno-geometryczna: zestaw współczynników kombinacji wypukłej

14 Aksjomatyka rozkładu prawdopodobieństwa przykładowy wektor [p 1, p 2,..., p m ] m liczb rzeczywistych p 1, p 2,..., p m dla m = 1: [1/1] dla m = 2: [1/2, 1/2] [1/3, 2/3], [1/4, 3/4],..., [0, 1] [2/3, 1/3], [3/4, 1/4],..., [1, 0] dla m = 3: [1/3, 1/3, 1/3] [0, 1/3, 2/3], [0, 1/4, 3/4],..., [0, 0, 1] [0, 2/3, 1/3], [0, 3/4, 1/4],..., [0, 1, 0] [1/3, 0, 2/3], [1/4, 0, 3/4],..., [0, 0, 1] [2/3, 0, 1/3], [3/4, 0, 1/4],..., [1, 0, 0] [1/3, 2/3, 0], [1/4, 3/4, 0],..., [0, 1, 0] [2/3, 1/3, 0], [3/4, 1/4, 0],..., [1, 0, 0] [1/3, 1/6, 3/6], [1/3, 1/12, 7/12],..., [1/3, 0, 2/3] [1/3, 3/6, 1/6], [1/3, 7/12, 1/12],..., [1/3, 2/3, 0]...

15 x y L x + y = L

16 x y L x + y = 1 gdy L = 1

17 x y L jeżeli x + y = L > 0, to x/l + y/l = L/L = 1 także gdy L 1 ( uznajemy L za 100% )

18 H a 90 o y x 90 o z 90 o x + y + z = H (twierdzenie Vivaniego)

19 H a 90 o y x 90 o z 90 o x + y + z = 1 gdy H = 1 (czyli: po odpowiednim dobraniu a)

20 H a 90 o y x 90 o z 90 o jeżeli x + y + z = H > 0, to x/h + y/h + z/h = H/H = 1 także gdy H 1 ( uznajemy H za 100% )

21 x + y + z + v = T > ( uznajemy T za 100% )

22

23

24

25 p i = 1

26 p i = 0.5

27 q i = p i /0.5: q i = (p i /0.5) = ( p i )/0.5 = 0.5/0/5 = 1

28 Uwaga na różnice w kolejności!

29 Rozkład prawdopodobieństw a prawdopodobieństwa warunkowe wektor liczb rzeczywistych, który nie stanowi rozkładu prawdopodobieństwa (z powodu niedotrzymania pewnego warunku) nadal wymagane są warunki nieujemność wszystkich poszczególnych elementów dodatniość sumy wszystkich elementów zachowany może nie być warunek suma wszystkich elementów równa 1» czyli: suma < 1 (albo suma > 1) interpretacja: częstości względne np.: 70, 100, 30 (suma: 200) np.: 0.1, 0.2, 0.3 (suma: 0.6)

30 Rozkład prawdopodobieństw a prawdopodobieństwa warunkowe Pytanie: jak przerobić powyższy wektor na wektor, który stanowi rozkład prawdopodobieństwa? Odpowiedź: podzielić przez sumę wszystkich elementów Interpretacja wyniku: powstałe prawdopodobieństwa są względne (formalna nazwa: warunkowe ) np.: 70/200, 100/200, 30/200 (suma: 1) np.: 0.1/06, 0.2/06, 0.3/06 (suma: 1)

31 ... 31

32 Miara informacji Podsumowując: co mamy? (czyli: z czym startujemy?) I n = L(m,n) = n log P (m) [Hartley]

33 Miara informacji Pytanie: czy w L(m,n) = n log P (m) kryje się prawdopodobieństwo? Odpowiedź: tak Pytanie: gdzie? Odpowiedź: w funkcji log(m) Pytanie: WTF??? (tzn. w tej funkcji??? ) Odpowiedź: a jednak! Pytanie: jak??? Odpowiedź: ponieważ log P (m) = log P (1/m), a wobec (założonego) m 1 zachodzi 0 < 1/m 1, więc 1/m można traktować jak pewne prawdopodobieństwo Pytanie: czego? Odpowiedź: wystąpienia jednego znaku (dzięki przyjętemu założeniu, że wszystkie znaki są równie prawdopodobne)

34 ... 34

35 Miara informacji Uogólnianie miary informacji ponieważ: informacja pełna (dla wszystkich znaków) to I n = L(m,n) = n log P (m) więc: informacja uśredniona po n znakach (dla jednego znaku) to I 1 = I n / n = n log P (m) / n = log P (m) czyli: zanegowany logarytm z prawdopodobieństwa wystąpienia jednego znaku zanegowany, ponieważ log P (m) = log P (1/m) = log P (p) interpretowany jako całość dla n = 1: I n = L(m,1) = 1 log P (m) = log P (m) średnia dla n > 1: I 1 = I n / n = L(m,n) / n = n log P (m) / n = log P (m)

36 Miara informacji Uogólnianie miary informacji obserwacja: gdyby zacząć definiowanie miary informacji od strony jednego znaku, czyli od I 1, to jej uogólnienie na n znaków (realizowane jako przemnożenie przez n) doprowadziłoby do otrzymania I n (ponieważ I 1 = I 1 / n, więc I n = n I 1 )

37 Miara informacji Pytanie: czy proces uogólniania można kontynuować, rozciągając go na prawdopodobieństwa różnych znaków? Odpowiedź: jeżeli prawdopodobieństwa te są znacząco różne (od siebie), to nawet trzeba!

38 ... 38

39 Funkcja informacyjna: wprowadzenie niech i P>1 (x) = x log P (x) dla P > 1 uwagi instancja funkcji postaci i(x) = ±x log P (x) dla x (0, ) przy P (0,1) (1, )

40 Funkcja informacyjna: wprowadzenie fundamentalne właściwości przebiegu i P>1 (x) = x log P (x) dziedzina: (0, ) przeciwdziedzina: (, log P (e)/e)] unimodalna, maksimum: log P (e)/e w x = 1/e czyli f(1/e) = log P (e)/e

41 Funkcja informacyjna: wprowadzenie wykres i P>1 (x) = x log P (x) dla P = 2

42 A przy okazji... pamiętacie? Funkcja f(x) = x x wykres dla x 0

43 A przy okazji... pamiętacie? Funkcja g(x) = log 2 (f(x)) = log 2 (x x ) wykres dla x 0

44 A przy okazji... pamiętacie? Funkcja h(x) = g(x) = log 2 (x x ) (oczywiście h(x) = x log 2 (x)) wykres dla x 0

45 Funkcja informacyjna: wprowadzenie dla x [0,1] i P > 1 funkcję informacyjną, oznaczenie I(x), definiujemy jako uwagi I(x) = 0 dla x = 0 I(x) = i P>1 (x) dla x > 0 (formalnie) prostsze sformułowanie: I(a) = lim x a+ i P>1 (x) sformułowanie to działa, ponieważ lim x 0+ x log(x) = 0, a jednocześnie i P>1 (x) jest funkcją ciągłą dla x > 0, co oznacza, że lim x a f(x) = f(a) = lim x a+ f(x), czyli: dla a > 0 wartość I(a) wyliczamy jako lim x a+ x log(x) = a log(a)» w praktyce: a log(a) dla a = 0 wartość I(a) wyliczamy jako lim x 0+ x log(x) = 0» w praktyce: 0

46 Funkcja informacyjna: wprowadzenie fundamentalne właściwości przebiegu I(x) dla P > 1 dziedzina: [0, 1] przeciwdziedzina: [0, log P (e)/e)] unimodalna, maksimum: log P (e)/e w x = 1/e czyli f(1/e) = log P (e)/e

47 Funkcja informacyjna: wprowadzenie wykres I(x) dla P = 2 1/e = , log P (2)/e =

48 Funkcja informacyjna: wprowadzenie wykres I(x) dla P = e 1/e = , log P (e)/e =

49 Funkcja informacyjna: wprowadzenie wykres I(x) dla P = 10 1/e = , log P (2)/e =

50 Funkcja informacyjna: właściwości (zestawienie) I(x) 0 I(0) = I(1) = 0 min I(x) = 0 argmin I(x) = {0, 1} max I(x) = log P (e)/e argmax I(x) = {1/e} I(1/e) = log P (e)/e implikowane przez powyższe

51 Funkcja informacyjna: właściwości I(x) 0 uwagi uzasadnienie ponieważ x (0,1] log P (x) 0, więc x (0,1] log P (x) 0 zatem x (0,1] x log P (x) 0 jednocześnie, dla x = 0: I(x) = 0 0 wniosek: x [0,1] I(x) 0

52 Funkcja informacyjna: właściwości I(0) = I(1) = 0 uwagi uzasadnienie I(0) = 0 (z definicji) I(1) = 1 log P (1) = 1 0 = 0 wniosek: I(0) = I(1) = 0

53 Funkcja informacyjna: właściwości min I(x) = 0 uwagi uzasadnienie zachodzi x [0,1] I(x) 0 oraz I(0) = I(1) = 0 wniosek: min I(x) = 0

54 Funkcja informacyjna: właściwości argmin I(x) = {0, 1} uwagi uzasadnienie I (x) = 0 (log P (x) + log P (e)) = 0 log P (x) + log P (e) = 0 log P (x) = log P (e) P log P(x) = P log P(e) x = P log P(e) = 1/P log P(e) = 1/e jedyny punkt krytyczny funkcji I(x) w przedziale [0,1] przypada w 1/e, ekstrema mogą więc leżeć tylko w 1/e lub na końcach przedziału [0,1] ale I(0) = 0, I(1/e) = 1/e log P (1/e) = 1/e log P (e) = log P (e)/e > 0, I(1) = 0 ponieważ I(x) 0 a I(0) = I(1) = 0, więc minima funkcji leżą w 0 i 1 wniosek: argmin I(x) = {0, 1}

55 Funkcja informacyjna: właściwości max I(x) = log P (e)/e, argmax I(x) = {1/e} uwagi uzasadnienie (powyższa) analiza punktow krytycznych funkcji wykazuje, że funkcja ma potencjalne maksimum w 1/e I (x) = log P (e)/x I (1/e) = log P (e)/(1/e) = e log P (e) < 0 wynika z tego, że w 1/e znajduje się maksimum funkcji wniosek: max I(x) = log P (e)/e, argmax I(x) = {1/e}

56 Funkcja informacyjna: właściwości I(1/e) = log P (e)/e uwagi uzasadnienie I(1/e) = 1/e log P (1/e) = 1/e log P (e) = log P (e)/e wniosek: I(1/e) = log P (e)/e

57 ... 57

58 Miara informacji Uogólnianie miary informacji zmienna X o dziedzinie {x 1, x 2,..., x m }, gdzie m 1 P(X = x i ) = p i i=1..m p i 0 w praktyce: i=1..m p i > 0 (x i występuje co najmniej raz) (jeżeli p i = 0, to za dziedzinę X można uznać {x 1,..., x i 1, x i+1,..., x m }) i=1..m p i = 1

59 Miara informacji Uogólnianie miary informacji m w wyrażeniu log P (m) reprezentowało właściwie wektor prawdopodobieństw [p 1, p 2,..., p m ], w których (jak dotąd) p i = p = 1/m (tzn. p 1 = p = 1/m, p 2 = p = 1/m,..., p m = p = 1/m), czyli dla m = 1: [1/1] dla m = 2: [1/2, 1/2] dla m = 3: [1/3, 1/3, 1/3] dla m = 4: [1/4, 1/4, 1/4, 1/4]...

60 Miara informacji Uogólnianie miary informacji należy teraz rozważyć różne p i (tzn. p 1, p 2,..., p m ), założenie: p i > 0 wtedy mamy też różne log P (p i ) (tzn. log P (p 1 ), log P (p 2 ),..., log P (p m )) powstały problem: jakim wyrażeniem W([p 1, p 2,..., p m ]) zastąpić log P (m) we wzorach I n = L(m,n) = n log P (m) I 1 = I n / n = L(m,n) / n = n log P (m) / n = log P (m) wiadomo jednocześnie, że log P (m) = log P (1/m) inaczej: jak uogólnić (jedno) p = 1/m na (wiele) (różnych) p 1, p 2,..., p m? ewentualnie: jak uogólnić (jedno) log P (1/m) na (wiele) (różnych) log P (p 1 ), log P (p 2 ),..., log P (p m )? aby utworzyć nowe wzory H n =...? H 1 =...

61 Miara informacji Uogólnianie miary informacji wymagane właściwości (niekoniecznie niezależne od siebie) W([p 1, p 2,..., p m ]) 0 (implikowane przez właściwości L(m,n), zgodnie z którymi L(m,n) 0) W([p 1, p 2,..., p m ]) słabo rosnące względem m dla wszystkich p i = 1/m, przy czym dla skrajnej wartości m (czyli dla m = 1), wyrażenie jest zerowe; konkretnie W([p 1 ]) W([1]) = 0 (zależność i=1..m p i = 1 implikuje p 1 = 1 dla m = 1) (implikowane przez właściwości L(m,n), zgodnie z którymi L([1],n) L(1,n) = 0)

62 Miara informacji Uogólnianie miary informacji wymagane właściwości (niekoniecznie niezależne od siebie) W([p 1, p 2,..., p m ]) = W([q 1,..., q k ]) + W([r 1,..., r l ]) dla każdego p i = 1/m, q i = 1/k, r i = 1/l przy m = k l, (implikowane przez właściwości L(m,n), zgodnie z którymi L(k l,n) = L(k,n)+ L(l,n))

63 Miara informacji Uogólnianie miary informacji wymagane właściwości (niekoniecznie niezależne od siebie) W([p 1, p 2,..., p m ]) symetryczne* W([p 1, p 2,..., p m ]) ciągłe ze względu na każde p i lim pk 0W([p 1,..., p k 1, p k, p k+1,..., p m ]) = W([p 1,..., p k 1, p k+1,..., p m ]) lub (nawet) W([p 1,..., p k 1, p k, p k+1,..., p m ]) = W([p 1,..., p k 1, p k+1,..., p m ]) dla p k = 0 * mowa o symetriach funkcji wieloargumentowych

64 Miara informacji Uogólnianie miary informacji wymagane właściwości (niekoniecznie niezależne od siebie) W([p 1, p 2,..., p m ]) unimodalne* względem każdego p i, z maksimum dla p 1 = p 2 =... = p m = 1/m **W([p 1, p 2,..., p m ]) = 1 dla m = 2 i dla p 1 = p 2 =... = p m = 1/m czyli W([1/2, 1/2]) = 1 * (klasyczna) unimodalność funkcji F([x 1,..., x i,..., x m ]) względem x i : F([x 1,..., x i,..., x m ]) jest rosnąca dla x i < x 0 i malejąca dla x i > x 0 ** ta właściwość dobiera jedynie wielkość generowanych wartości; zasadniczo można wymagać jej już od funkcji L(m,n) (w postaci L(2,1) = 1 ); wtedy W([1/2, 1/2]) = 1 byłoby oczywiście implikowane przez właściwości L(m,n)

65 Miara informacji Uogólnianie miary informacji wymagane właściwości (niekoniecznie niezależne od siebie) W([p 1, p 2,..., p m ]) uwzględniające rozdział wektora rozkładu prawdopodobieństwa; konkretnie: W([p 1,..., p k, p k+1,..., p m ]) = W([p L, p P ]) + + p L W([p 1,..., p k ]/p L ) + + p P W([p k+1,..., p m ]/p P ) gdzie: p L = i=1..k p i, wymagany warunek: p L > 0 (spełniony dzięki zał.: p i > 0) p P = i=k+1..m p i, wymagany warunek: p P > 0 (spełniony dzięki zał.: p i > 0) (w każdym przypadku p L + p P = i=1..k p i + i=k+1..m p i = i=1..m p i = 1)

66 ... 66

67 Miara informacji Uogólnianie miary informacji przykładowa ilustracja ostatniej właściwości wektor rozkładu v = [p 1, p 2,..., p 5 ] = [0.10, 0.20, 0.30, 0.15, 0.25] ( i=1..5 p i = 1.0) suma równa jeden! należy rozdzielić na (pod)wektory l (lewy) i p (prawy) wynik granica: między indeksami 2 i 3 l 0 = [p 1, p 2 ] = [0.10, 0.20] (p L = i=1..2 p i = 0.3) suma różna od jeden! p 0 = [p 3, p 4, p 5 ] = [0.30, 0.15, 0.25] (p p = i=3..5 p i = 0.7) suma różna od jeden! wymagana korekta: aby wektory te mogły nadal reprezentować prawdopodobieństwa, ich wartości muszą być zmodyfikowane w sposób, który doprowadzi do tego, że ich sumy będą wynosić jeden jak to zrobić?

68 Miara informacji Uogólnianie miary informacji przykładowa ilustracja ostatniej właściwości propozycja: podzielić każdy z powstałych wektorów przez jego sumę l = l 0 / p L = [0.10, 0.20] / 0.3 = [ , ] ( = 1.0) suma równa jeden! p = p 0 / p P = [0.30, 0.15, 0.25] / 0.7 = [ , , ] ( = 1.0) suma równa jeden! wniosek: stworzone wektory reprezentują rozkłady prawdopodobieństwa interpretacja operacji: powstały prawdopodobieństwa warunkowe

69 Miara informacji Uogólnianie miary informacji przykładowa ilustracja ostatniej właściwości ostateczny wynik ( i=1..2 p i = 0.3) ( i=3..5 p i = 0.7) v = [p 1, p 2,..., p 5 ] = [0.10, 0.20, 0.30, 0.15, 0.25] ( i=1..5 p i = 1.0) p L = 0.3, l = [ , ] ( = 1.0) p P = 0.7, p = [ , , ] ( = 1.0)

70 Miara informacji Uogólnianie miary informacji przykładowa ilustracja ostatniej właściwości oczekujemy więc, że w tym przypadku wyrażenie W będzie spełniało W([0.1,0.2,0.30,0.15,0.25]) = W([0.3, 0.7]) W([ , ]) W([0.4..., , ]) (a w ogólności) W([p 1,..., p k, p k+1,..., p m ]) = W([p L, p P ]) + + p L W([p 1,..., p k ]/p L ) + + p P W([p k+1,..., p m ]/p P )

71 ... 71

72 Miara informacji Uogólnianie miary informacji niech W([p 1, p 2,..., p m ]) = log P (( i=1..m p i ) / m) P > 1, zwykłe uśrednienie p i wtedy H n = n (W([p 1, p 2,..., p m ])) = n ( log P (( i=1..m p i ) / m)) = = n ( log P (1/m)) = n log P (m) = I n ponieważ, z definicji, i=1..m p i = 1 problem to już było! formalnie: W([p 1, p 2,..., p m ]) jest niezależne od p 1, p 2,..., p m a jedynie od ich sumy, wynoszącej jednak, z definicji, 1

73 Miara informacji Uogólnianie miary informacji niech W([p 1, p 2,..., p m ]) = log P ( i=1..m w i p i ) P > 1, ważone (wagami są w i ) uśrednienie p i wtedy H n = n (W([p 1, p 2,..., p m ])) = n ( log P ( i=1..m w i p i )) problem...

74 Miara informacji Uogólnianie miary informacji niech W([p 1, p 2,..., p m ]) = log P ( i=1..m p i p i ) P > 1, ważone (wagami są p i ) uśrednienie p i wtedy H n = n (W([p 1, p 2,..., p m ])) = n ( log P ( i=1..m p i p i )) problem...

75 Miara informacji Uogólnianie miary informacji niech W([p 1, p 2,..., p m ]) = ( i=1..m log P (p i )) / m P > 1, zwykłe uśrednienie log P (p i ) wtedy H n = n (W([p 1, p 2,..., p m ])) = n ( ( i=1..m log P (p i )) / m) problem...

76 Miara informacji Uogólnianie miary informacji niech W([p 1, p 2,..., p m ]) = i=1..m p i log P (p i ) ważone (wagami są p i ) uśrednienie log P (p i ) wtedy H n = n ( i=1..m p i log P (p i )) właściwość 1 zapewniona... właściwość 2 zapewniona właściwość 8 zapewniona...

77 Miara informacji Uogólnianie miary informacji W([p 1, p 2,..., p m ]) = i=1..m p i log P (p i ) wtedy ważone (wagami są p i ) uśrednienie log P (p i ) H n = n ( i=1..m p i log P (p i )) konsekwentnie H 1 = H 0 / n = n ( i=1..m p i log P (p i )) / n = i=1..m p i log P (p i ) miara informacji ciągu n-elementowego (różne prawdopodobieństwa) za jednostkę tej miary uznaje się podstawę P logarytmu dla P = 2: bit... zastosowania (w ramach teorii informacji) zwyczajowo przyjmuje się...

78 Miara informacji Uogólnianie miary informacji funkcja* i=1..m p i log P (p i ) przy P > 1 [Shannon] ma już swoją nazwę (entropia) i oznaczenie (H) H H 1 = i=1..m p i log P (p i ) przy P > 1 także podstawowy składnik tej funkcji, czyli p i log P (p i ), ma swoją nazwę (funkcja informacyjna) i oznaczenie (I) I(x) = x log P (x) przy P > 1 (czyli p i log P (p i ) dla x = p i ) czyli: H = i=1..m I(p i ) wtedy H n = n H 1 n H założenie: H 1 H, stanowiące przybliżenie log P (p) = log P (m) (występującego we wzorach na I n i I 1 ) jest takie samo dla kolejnych znakow (inaczej: znaki pochodzą ze źródła o tych samych parametrach) * można wykazać, że funkcja postaci F([x 1,..., x i,..., x m ],C,P) = C i=1..m p i log P (p i ) jest jedyną funkcją posiadającą wymieniane właściwości; H F([x 1,..., x i,..., x m ],C,P) jest po prostu jej konkretną instancją (dla wybranych stałych C > 0 i P > 1)

79 Miara informacji Francois Bavaud Information Theory, Relative Entropy and Statistics Formal Theories of Information, Giovanni Sommaruga (red.) (s. 54, wypowiedź C. Shannona) Moje najgłębsze zatroskanie budziła nazwa. Myślałem o nazwie informacja, ale to słowo jest nadużywane, więc zdecydowałem się na nazwę niepewność. Gdy omawiałem tę sprawę z Johnem von Neumannem, wpadł on na lepszy pomysł. Von Neumann powiedział mi: powinieneś to nazwać entropią z dwóch powodów. Po pierwsze, twoja funkcja niepewności jest używana w statystycznej mechanice pod tą nazwą, wiec ona ma już nazwę. Po drugie zaś, co zresztą jest ważniejsze, nikt właściwie nie wie, czym tak naprawdę jest entropia, wiec zawsze będziesz miał przewagę w dyskusji

80 Miara informacji Multimedialny słownik PWN wyrazy obce entropia -pii, ż, blm 1.fiz. «w termodynamice statystycznej i teorii informacji: miara nieokreśloności i stopnia nieuporządkowania elementów i stanów znajdujących się w pewnym zbiorze» 2.fiz. «w termodynamice: jedna z funkcji stanu, określająca kierunek przebiegu zjawisk związanych z przemianami i przepływem energii» 3. przen. «chaos, bezład» <od gr. entropē zwrócenie się, obrót > 80

81 ... 81

82 Entropia: wprowadzenie H([x 1, x 2,..., x m ]) = i=1..m x i log(x i ) = i=1..m I(x i ) uwagi jeżeli i=1..m x i = 1, to H([x 1, x 2,..., x m ]) = i=1..m I(x i ) funkcja o pełnej liczbie zmiennych» m może być wyrażane jako H([x 1, x 2,..., x m 1 ]) = i=1..m 1 I(x i ) + I(1 i=1..m 1 x i ) funkcja o zmniejszonej (o jeden) liczbie zmiennych» m 1 niezależnych zamiast» m wszystkich (czyli takich, które nie są niezależne) właściwe traktowanie entropii jako funkcji o zmniejszonej liczbie zmiennych jest szczególnie istotne w przypadku wykonywania pewnych potencjalnie wrażliwych pod tym względem operacji, np. różniczkowania (czy, chociażby, tworzenia wykresów)

83 Entropia: wprowadzenie fundamentalne właściwości przebiegu H([x]) = x log P (x) (1 x) log P (1 x) m = 2 (pełna liczba) dziedzina: [0,1] przeciwdziedzina: [0, log P (m)] unimodalna, maksimum: log P (m) w x = 1/m czyli f(1/m) = log P (m)

84 Entropia: wprowadzenie wykres H([x]) = x log P (x) (1 x) log P (1 x) dla P = 2

85 Entropia: wprowadzenie wykres H([x]) = x log P (x) (1 x) log P (1 x) dla P = e

86 Entropia: wprowadzenie wykres H([x]) = x log P (x) (1 x) log P (1 x) dla P = 10

87 Entropia: wprowadzenie fundamentalne właściwości przebiegu H([x 1,x 2 ]) = x 1 log P (x 1 ) x 2 log P (x 2 ) (1 x 1 x 2 ) log P (1 x 1 x 2 ) m = 3 (pełna liczba) dziedzina: [0,1] przeciwdziedzina: [0, log P (m)] unimodalna, maksimum: log P (m) w x = 1/m czyli f(1/m) = log P (m)

88 Entropia: wprowadzenie wykres H([x 1,x 2 ]) = x 1 log P (x 1 ) x 2 log P (x 2 ) (1 x 1 x 2 ) log P (1 x 1 x 2 ) dla P = 2

89 Entropia: wprowadzenie wykres H([x 1,x 2 ]) = x 1 log P (x 1 ) x 2 log P (x 2 ) (1 x 1 x 2 ) log P (1 x 1 x 2 ) dla P = 2

90 Entropia: wprowadzenie wykres H([x 1,x 2 ]) = x 1 log P (x 1 ) x 2 log P (x 2 ) (1 x 1 x 2 ) log P (1 x 1 x 2 ) dla P = 2

91 Entropia: wprowadzenie wykres H([x 1,x 2 ]) = x 1 log P (x 1 ) x 2 log P (x 2 ) (1 x 1 x 2 ) log P (1 x 1 x 2 ) dla P = e

92 Entropia: wprowadzenie wykres H([x 1,x 2 ]) = x 1 log P (x 1 ) x 2 log P (x 2 ) (1 x 1 x 2 ) log P (1 x 1 x 2 ) dla P = e

93 Entropia: wprowadzenie wykres H([x 1,x 2 ]) = x 1 log P (x 1 ) x 2 log P (x 2 ) (1 x 1 x 2 ) log P (1 x 1 x 2 ) dla P = 10

94 Entropia: wprowadzenie wykres H([x 1,x 2 ]) = x 1 log P (x 1 ) x 2 log P (x 2 ) (1 x 1 x 2 ) log P (1 x 1 x 2 ) dla P = 10

95 ... 95

96 A przy okazji... pamiętacie? Wobec faktu, że informacja informuje, tzn. odpowiada na konkretne, znane pytanie zadaniem miary informacji nie jest charakteryzowanie wyłącznie objętości składających się na nią danych, lecz także ich przydatności *, rozumianej jako trudność pytania, na które te dane niosą odpowiedź, realizowanej następująco : nisko oceniamy informacje trywialne / spodziewane / bardzo oczywiste / bardzo prawdopodobne / łatwo zgadywalne / przewidywalne wysoko oceniamy informacje nietrywialne / niespodziewane / mało oczywiste / mało prawdopodobne / trudno zgadywalne / nieprzewidywalne wysoka wartość miary = wysoki poziom nieprzewidywalności * ze słowem objętość lepiej od przydatność komponuje się słowo złożoność, ale (niestety) złożoność implikuje (potencjalnie) złożoną strukturę, o której tu akurat nie ma mowy (dlatego zostajemy przy przydatność )

97 O czym informuje entropia? entropia mierzy ilość informacji entropia (H n, H 1 ) a miara Hartleya (I n, I 1 ) uwaga: nie mylić I n i I 1 z I(x), kora występuje we wzorze na H n i H 1 wysoka entropia wysoka nieprzewidywalność

98 ... 98

99 Odebrano przekaz Pytanie: Ile informacji zawiera ten przekaz? Odpowiedź: Nie wiadomo. Pytanie: A czy można to jakoś oszacować? Odpowiedź: Można. Pytanie: Jak? Odpowiedź: Np. wykorzystując miarę Hartleya. Albo Shannona.

100 Odebrano przekaz Pytanie: Ile informacji zawiera ten przekaz? Odpowiedź: oszacowanie wykorzystujące miarę Hartleya wzór Hartleya (dla P = 2) I n = L(m,n) = n log 2 (m) [bitów] wymagane m: liczność alfabetu (nieznana) n: liczba przekazanych znaków (znana: n = 10) obejście problemu nieznanego m: wśród przekazanych znaków występują jedynie (różne) 2 znaki, więc można przyjąć, że m = 2 wtedy I n = L(m,n) = L(2,10) = 10 log 2 (2) = 10 1 = 10 [bitów]

101 Odebrano przekaz Pytanie: A ile informacji zawiera (średnio) jeden znak przekazu? Odpowiedź: oszacowanie wykorzystujące miarę Hartleya informacja w całym przekazie I n = L(m,n) = L(2,10) = 10 log 2 (2) = 10 1 = 10 [bitów] wtedy I 1 = I n / n = 10 / 10 = 1 [bit]

102 Odebrano (inny) przekaz Pytanie: Ile informacji zawiera ten przekaz? Odpowiedź: oszacowanie wykorzystujące miarę Hartleya wzór Hartleya (dla P = 2) I n = L(m,n) = n log 2 (m) [bitów] wymagane m: liczność alfabetu (nieznana) n: liczba przekazanych znaków (znana: n = 10) obejście problemu nieznanego m: wśród przekazanych znaków występują jedynie (różne) 2 znaki, więc można przyjąć, że m = 2 wtedy I n = L(m,n) = L(2,10) = 10 log 2 (2) = 10 1 = 10 [bitów]

103 Odebrano (inny) przekaz Pytanie: A ile informacji zawiera (średnio) jeden znak przekazu? Odpowiedź: oszacowanie wykorzystujące miarę Hartleya informacja w całym przekazie I n = L(m,n) = L(2,10) = 10 log 2 (2) = 10 1 = 10 [bitów] wtedy I 1 = I n / n = 10 / 10 = 1 [bit]

104 Odebrano przekaz Pytanie: Ile informacji zawiera ten przekaz? Odpowiedź: oszacowanie wykorzystujące miarę Shannona wzór Shannona (dla P = 2) H n = n ( i=1..m p i log 2 (p i )) wymagane p 1, p 2,..., p m : parametry (prawdopodobieństwa) rozkładu (nieznane) n: liczba przekazanych znaków (znana: n = 10) obejście problemu nieznanych p 1, p 2,..., p m : wśród przekazanych znaków występują jedynie (różne) 2 znaki, a do tego równie często, więc można przyjąć, że m = 2, a p 1 = p 2 = 1/2 wtedy H n = n ( i=1..m p i log 2 (p i )) = 10 ( 1/2 log 2 (1/2) 1/2 log 2 (1/2)) = = 10 ( 1 log 2 (1/2)) = 10 ( log 2 (1/2)) = 10 log 2 (2) = 10 1 = 10 [bitów]

105 Odebrano przekaz Pytanie: A ile informacji zawiera (średnio) jeden znak przekazu? Odpowiedź: oszacowanie wykorzystujące miarę Shannona informacja w całym przekazie H n = n ( i=1..m p i log 2 (p i )) = 10 ( 1/2 log 2 (1/2) 1/2 log 2 (1/2)) = = 10 ( 1 log 2 (1/2)) = 10 ( log 2 (1/2)) = 10 log 2 (2) = 10 1 = 10 [bitów] wtedy H 1 = H n / n = 10 / 10 = 1 [bit]

106 Odebrano (inny) przekaz Pytanie: Ile informacji zawiera ten przekaz? Odpowiedź: oszacowanie wykorzystujące miarę Shannona wzór Shannona (dla P = 2) H n = n ( i=1..m p i log 2 (p i )) wymagane p 1, p 2,..., p m : parametry (prawdopodobieństwa) rozkładu (nieznane) n: liczba przekazanych znaków (znana: n = 10) obejście problemu nieznanych p 1, p 2,..., p m : wśród przekazanych znaków występują jedynie (różne) 2 znaki, a do tego równie często, więc można przyjąć, że m = 2, a p 1 = p 2 = 1/2 wtedy H n = n ( i=1..m p i log 2 (p i )) = 10 ( 1/2 log 2 (1/2) 1/2 log 2 (1/2)) = = 10 ( 1 log 2 (1/2)) = 10 ( log 2 (1/2)) = 10 log 2 (2) = 10 1 = 10 [bitów]

107 Odebrano (inny) przekaz Pytanie: A ile informacji zawiera (średnio) jeden znak przekazu? Odpowiedź: oszacowanie wykorzystujące miarę Shannona informacja w całym przekazie H n = n ( i=1..m p i log 2 (p i )) = 10 ( 1/2 log 2 (1/2) 1/2 log 2 (1/2)) = = 10 ( 1 log 2 (1/2)) = 10 ( log 2 (1/2)) = 10 log 2 (2) = 10 1 = 10 [bitów] wtedy H 1 = H n / n = 10 / 10 = 1 [bit]

108 Odebrano przekaz złożony z 20 znaków alfabetu {0,1}. Pytanie: Ile informacji zawiera cały przekaz? Odpowiedź: Zgodnie z miarą Hartleya (P = 2): 20 log 2 (2) [bitów] Pytanie: A zgodnie z miarą Shannona? Odpowiedź: Nie wiadomo. Pytanie: A czy można to jakoś oszacować? Odpowiedź: Można.

109 Odebrano przekaz złożony z 20 znaków alfabetu {0,1}. Pytanie: Ile informacji zawiera cały przekaz? Odpowiedź: oszacowanie wykorzystujące miarę Shannona wzór Shannona (dla P = 2) H n = n ( i=1..m p i log 2 (p i )) wymagane m = 2, p 1, p 2 : parametry (prawdopodobieństwa) rozkładu (nieznane) n: liczba przekazanych znaków (znana: n = 20)

110 Odebrano przekaz złożony z 20 znaków alfabetu {0,1}. Pytanie: Ile informacji zawiera cały przekaz? Odpowiedź: oszacowanie wykorzystujące miarę Shannona obejście problemu nieznanych p 1, p 2 : przyjęcie, że p 1 = 1/2, p 2 = 1/2, wtedy H n = n ( i=1..m p i log 2 (p i )) = 20 ( 1/2 log 2 (1/2) 1/2 log 2 (1/2)) = = 20 ( 1 log 2 (1/2)) = 20 ( log 2 (1/2)) = 20 log 2 (2) = 20 1 = 20 [bitów] przyjęcie, że p 1 = 1/4, p 2 = 3/4, wtedy... H n = n ( i=1..m p i log 2 (p i )) = 20 ( 1/4 log 2 (1/4) 3/4 log 2 (3/4)) = = 20 ( ) = = [bitów] przyjęcie, że p 1 = 0, p 2 = 1, wtedy H n = n ( i=1..m p i log 2 (p i )) = 20 ( 0 log 2 (0) 1 log 2 (1)) = = 20 (0+0) = 20 0 = 0 [bitów] pytanie: jakieś wnioski? odpowiedź: przekaz zawiera co najwyżej 20 [bitów] informacji

111 Odebrano przekaz złożony z 20 znaków alfabetu {0,1}. Pytanie: A ile informacji zawiera (średnio) jeden znak przekazu? Odpowiedź: oszacowanie wykorzystujące miarę Shannona informacja w całym przekazie (maksymalna) H n = n ( i=1..m p i log 2 (p i )) = 20 ( 1/2 log 2 (1/2) 1/2 log 2 (1/2)) = = 20 ( 1 log 2 (1/2)) = 20 ( log 2 (1/2)) = 20 log 2 (2) = 20 1 = 20 [bitów] wtedy (maksymalnie) H 1 = H n / n = 10 / 10 = 1 [bit]

112 Istotna uwaga: szacowanie parametrów takich jak m, p 1, p 2,..., p m na podstawie znajomości tylko jednego przekazu jest co najmniej ryzykowne!!!

113

114 Bit bitowi nierówny różnica bit i (liczba 0/1 w pliku) a bit S (jednostka miary informacji) specyfika bit i mierzy dane (jednostkowa objętość ) bit S mierzy informacje (jednostkowa przydatność ) w szczególnym przypadku: bit i = bit S przydatności wartości 0 i 1 równe» w praktyce: równe prawdopodobieństwa zer i jedynek

115

116 Dane (zmienna 1D) zmienna X o dziedzinie {x 1, x 2,..., x m }, gdzie m 1 P(X = x i ) = p i i=1..m p i 0 w praktyce: i=1..m p i > 0 (x i występuje co najmniej raz) (jeżeli p i = 0, to za dziedzinę X można uznać {x 1,..., x i 1, x i+1,..., x m }) i=1..m p i = 1 oznaczenie P = { p = [p 1, p 2,..., p m ] T i=1..m p i 0 i i=1..m p i = 1 } simpleks m-wymiarowy oznaczenie P + = { p = [p 1, p 2,..., p m ] T i=1..m p i > 0 i i=1..m p i = 1 } wnętrze simpleksu m-wymiarowego Przypadki szczególne gdy m = 1, to p 1 = 1, p = [p 1 ], P = {[1]}

117 Entropia: właściwości (zestawienie) H(X) jest symetryczna H(X) 0 H(e i ) = 0, gdzie e i = [0 1, 0 2,..., 0 i 1, 1 i, 0 i+1,..., 0 m ] T min H(X) = 0 argmin H(X) = {e 1, e 2,..., e m } H(X) log P (m) H([1/m, 1/m,..., 1/m] T ) = log P (m) max H(X) = log P (m) argmax H(X) = {[1/m, 1/m,..., 1/m] T }

118 Entropia: właściwości H(X) jest symetryczna uwagi symetryczna : niezależna od kolejności zmiennych uzasadnienie niezależność sumy od kolejności sumowania wniosek: H(X) jest symetryczna

119 Entropia: właściwości H(X) 0 uwagi uzasadnienie H(X) = i=1..m I(x) i I(x) 0 wniosek: H(X) 0

120 Entropia: właściwości H(e i ) = 0, gdzie e i = [0 1, 0 2,..., 0 i 1, 1 i, 0 i+1,..., 0 m ] T uwagi uzasadnienie H(e i ) = H([0 1,..., 0 i 1, 1 i, 0 i+1,..., 0 m ] T ) = = I(0) I(0) + I(1) + I(0) +... I(0) = = = 0 wniosek: H(e i ) = 0

121 Entropia: właściwości min H(X) = 0 uwagi uzasadnienie H(X) spełnia p P H(x) 0 oraz np. H(e 1 ) = 0 wniosek: min H(X) = 0

122 Entropia: właściwości argmin H(X) = {e 1, e 2,..., e m } uwagi e i są jedynymi elementami argmin H(X) uzasadnienie min H(X) = 0 i i=1..m H(e i ) = 0 i p P (p e i H(x) > 0)??? wniosek: argmin H(e i ) = {e 1, e 2,..., e m }

123 Entropia: właściwości H(X) log P (m) uwagi uzasadnienie ponieważ i=1..m (p i log P (q i )) i=1..m (p i log P (p i )), więc i=1..m (p i log P (p i )) i=1..m (p i log P (q i )) = i=1..m (p i log P (1/m)) ale i=1..m (p i log P (1/m)) = log P (1/m) i=1..m p i = log P (m) i=1..m p i = = log P (m) 1 = log P (m) wniosek: H(X) log P (m)

124 Entropia: właściwości H([1/m, 1/m,..., 1/m] T ) = log P (m) uwagi uzasadnienie H([1/m, 1/m,..., 1/m] T ) = i=1..m ((1/m) log P (1/m)) = = log P (1/m) i=1..m (1/m) = log P (m) i=1..m (1/m) = = log P (m) 1 = log P (m) wniosek: H([1/m, 1/m,..., 1/m] T ) = log P (m)

125 Entropia: właściwości max H(X) = log P (m) uwagi dla P = 2 i m = 2 mamy: H(X) log 2 (2) = 1 uzasadnienie H(X) spełnia H(X) log P (m) oraz H([1/m, 1/m,..., 1/m]) = log P (m) wniosek: max H(X) = log P (m)

126 Entropia: właściwości argmax H(X) = {[1/m, 1/m,..., 1/m] T } uwagi metody analizy matematycznej uzasadnienie dzięki i=1..m p i = 1, skąd wynika p m = 1 i=1..m 1 p i, mamy H(X) = i=1..m (p i log(p i )) i=1..m 1 (p i log(p i )) (1 i=1..m 1 p i ) log(1 i=1..m 1 p i )

127 Entropia: właściwości argmax H(X) = {[1/m, 1/m,..., 1/m] T } wtedy i=1..m 1 (H(X))/ p i = ( i=1..m 1 (p i log(p i )))/ p i + wynikowy gradient + ((1 i=1..m 1 p i ) log(1 i=1..m 1 p i ))/ p i = = log(1 i=1..m 1 p i ) log(p i ) H(X) = [ log(1 i=1..m 1 p i ) log(p 1 ) log(1 i=1..m 1 p i ) log(p 2 )... log(1 i=1..m 1 p i ) log(p m 1 ) ] uwaga: H(X) jest wektorem o rozmiarach (m 1) 1

128 Entropia: właściwości argmax H(X) = {[1/m, 1/m,..., 1/m] T } przyrównując H(X) do wektora zerowego i przekształcając otrzymujemy H(X) = 0 i=1..m 1 (H(X))/ p i = 0 i=1..m 1 log(1 i=1..m 1 p i ) log(p i ) = 0 i=1..m 1 log(1 i=1..m 1 p i ) = log(p i ) i=1..m 1 1 i=1..m 1 p i = p i p i = 1/(m 1+1) = 1/m* co oznacza, że H(X) = 0 p i = 1/m * wykorzystano i=1..n x i = 1 i=1..n x i x i = 1/(n+1) (wywód algebraiczny: zapisanie i rozwiązanie układu równań)

129 Entropia: właściwości argmax H(X) = {[1/m, 1/m,..., 1/m] T } dalej i,j=1..m 1 (H(X))/( p i p i ) = = (log(1 i=1..m 1 p i ) log(p i ))/ p i = = (log(1 i=1..m 1 p i )/ p i (log(p i ))/ p i = = log(e)/(1 i=1..m 1 p i ) log(e)/p i = = log(e)(1/(1 i=1..m 1 p i ) + 1/p i ) i,j=1..m 1 (H(X))/( p i p j ) = = (log(1 i=1..m 1 p i ) log(p j ))/ p j = = (log(1 i=1..m 1 p i )/ p j (log(p j ))/ p j = = log(e)/(1 i=1..m 1 p i ) 0 = = log(e)/(1 i=1..m 1 p i )

130 Entropia: właściwości argmax H(X) = {[1/m, 1/m,..., 1/m] T } wynikowy hesjan H H(X) = log(e)[ 1/(1 i=1..m 1 p i ) + 1/p 1, 1/(1 i=1..m 1 p i ),..., 1/(1 i=1..m 1 p i ) 1/(1 i=1..m 1 p i ), 1/(1 i=1..m 1 p i ) + 1/p 2,..., 1/(1 i=1..m 1 p i ) /(1 i=1..m 1 p i ), 1/(1 i=1..m 1 p i ),..., 1/(1 i=1..m 1 p i ) + 1/p m 1 ] uwaga: H H(X) jest macierzą o rozmiarach (m 1) (m 1)

131 Entropia: właściwości argmax H(X) = {[1/m, 1/m,..., 1/m] T } dalej H H(X) ([1/m, 1/m,..., 1/m] T ) = = log(e)[ 1/m + 1/m, 1/m,..., 1/m 1/m, 1/m + 1/m,..., 1/m /m, 1/m,..., 1/m + 1/m] = uwaga: H H(X) jest macierzą o rozmiarach (m 1) (m 1)

132 Entropia: właściwości argmax H(X) = {[1/m, 1/m,..., 1/m] T } dalej H H(X) ([1/m, 1/m,..., 1/m] T ) = = log(e)/m[ 2, 1,..., 1 1, 2,..., , 1,..., 2] = log(e)/m S (m 1) (m 1) gdzie S (m 1) (m 1) jest macierzą stałych odpowiedniej postaci

133 Entropia: właściwości argmax H(X) = {[1/m, 1/m,..., 1/m] T } ponieważ macierz stałych S k k (powyższej postaci) jest dla każdego k macierzą dodatnio określoną oraz log(e)/m < 0 więc hesjan H H(X) ([1/m, 1/m,..., 1/m] T ) = log(e)/m S (m 1) (m 1) jest macierzą ujemnie określoną oznacza to, że jest (jedynym) wektorem, w którym H(X) posiada maksimum wniosek: argmax H(X) = {[1/m, 1/m,..., 1/m] T }

134

Teoria Informacji i Metody Kompresji Danych

Teoria Informacji i Metody Kompresji Danych Teoria Informacji i Metody Kompresji Danych 1 Materiały wykładowe (fragmenty) 2 Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL kontakt osobisty

Bardziej szczegółowo

Teoria Informacji i Metody Kompresji Danych

Teoria Informacji i Metody Kompresji Danych Teoria Informacji i Metody Kompresji Danych 1 Przykładowe zadania (dodatkowe materiały wykładowe) 2 Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL

Bardziej szczegółowo

Teoria Informacji i Metody Kompresji Danych

Teoria Informacji i Metody Kompresji Danych Teoria Informacji i Metody Kompresji Danych 1 Materiały wykładowe (fragmenty) 2 Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL kontakt osobisty

Bardziej szczegółowo

Robert Susmaga. Instytut Informatyki ul. Piotrowo 2 Poznań

Robert Susmaga. Instytut Informatyki ul. Piotrowo 2 Poznań ... Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL kontakt osobisty Centrum Wykładowe, blok informatyki, pok. 7 Wyłączenie odpowiedzialności

Bardziej szczegółowo

Matematyka i Statystyka w Finansach. Rachunek Różniczkowy

Matematyka i Statystyka w Finansach. Rachunek Różniczkowy Rachunek Różniczkowy Ciąg liczbowy Link Ciągiem liczbowym nieskończonym nazywamy każdą funkcję a która odwzorowuje zbiór liczb naturalnych N w zbiór liczb rzeczywistych R a : N R. Tradycyjnie wartość a(n)

Bardziej szczegółowo

Ekstrema globalne funkcji

Ekstrema globalne funkcji SIMR 2013/14, Analiza 1, wykład 9, 2013-12-13 Ekstrema globalne funkcji Definicja: Funkcja f : D R ma w punkcie x 0 D minimum globalne wtedy i tylko (x D) f(x) f(x 0 ). Wartość f(x 0 ) nazywamy wartością

Bardziej szczegółowo

Programowanie celowe #1

Programowanie celowe #1 Programowanie celowe #1 Problem programowania celowego (PC) jest przykładem problemu programowania matematycznego nieliniowego, który można skutecznie zlinearyzować, tzn. zapisać (i rozwiązać) jako problem

Bardziej szczegółowo

Wykład 4 Przebieg zmienności funkcji. Badanie dziedziny oraz wyznaczanie granic funkcji poznaliśmy na poprzednich wykładach.

Wykład 4 Przebieg zmienności funkcji. Badanie dziedziny oraz wyznaczanie granic funkcji poznaliśmy na poprzednich wykładach. Wykład Przebieg zmienności funkcji. Celem badania przebiegu zmienności funkcji y = f() jest poznanie ważnych własności tej funkcji na podstawie jej wzoru. Efekty badania pozwalają naszkicować wykres badanej

Bardziej szczegółowo

Funkcja kwadratowa. f(x) = ax 2 + bx + c,

Funkcja kwadratowa. f(x) = ax 2 + bx + c, Funkcja kwadratowa. Funkcją kwadratową nazywamy funkcję f : R R określoną wzorem gdzie a, b, c R, a 0. f(x) = ax 2 + bx + c, Szczególnym przypadkiem funkcji kwadratowej jest funkcja f(x) = ax 2, a R \

Bardziej szczegółowo

Logarytmy. Funkcje logarytmiczna i wykładnicza. Równania i nierówności wykładnicze i logarytmiczne.

Logarytmy. Funkcje logarytmiczna i wykładnicza. Równania i nierówności wykładnicze i logarytmiczne. Logarytmy. Funkcje logarytmiczna i wykładnicza. Równania i nierówności wykładnicze i logarytmiczne. Definicja. Niech a i b będą dodatnimi liczbami rzeczywistymi i niech a. Logarytmem liczby b przy podstawie

Bardziej szczegółowo

Materiały wykładowe (fragmenty)

Materiały wykładowe (fragmenty) Materiały wykładowe (fragmenty) 1 Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL kontakt osobisty Centrum Wykładowe, blok informatyki, pok. 7

Bardziej szczegółowo

Pochodna funkcji. Pochodna funkcji w punkcie. Różniczka funkcji i obliczenia przybliżone. Zastosowania pochodnych. Badanie funkcji.

Pochodna funkcji. Pochodna funkcji w punkcie. Różniczka funkcji i obliczenia przybliżone. Zastosowania pochodnych. Badanie funkcji. Pochodna funkcji Pochodna funkcji w punkcie. Różniczka funkcji i obliczenia przybliżone. Zastosowania pochodnych. Badanie funkcji. Małgorzata Wyrwas Katedra Matematyki Wydział Informatyki Politechnika

Bardziej szczegółowo

Funkcja kwadratowa. f(x) = ax 2 + bx + c = a

Funkcja kwadratowa. f(x) = ax 2 + bx + c = a Funkcja kwadratowa. Funkcją kwadratową nazywamy funkcję f : R R określoną wzorem gdzie a, b, c R, a 0. f(x) = ax + bx + c, Szczególnym przypadkiem funkcji kwadratowej jest funkcja f(x) = ax, a R \ {0}.

Bardziej szczegółowo

1 Pochodne wyższych rzędów

1 Pochodne wyższych rzędów 1 Pochodne wyższych rzędów Definicja 1.1 (Pochodne cząstkowe drugiego rzędu) Niech f będzie odwzorowaniem o wartościach w R m, określonym na zbiorze G R k. Załóżmy, że zbiór tych x G, dla których istnieje

Bardziej szczegółowo

FUNKCJE LICZBOWE. Na zbiorze X określona jest funkcja f : X Y gdy dowolnemu punktowi x X przyporządkowany jest punkt f(x) Y.

FUNKCJE LICZBOWE. Na zbiorze X określona jest funkcja f : X Y gdy dowolnemu punktowi x X przyporządkowany jest punkt f(x) Y. FUNKCJE LICZBOWE Na zbiorze X określona jest funkcja f : X Y gdy dowolnemu punktowi x X przyporządkowany jest punkt f(x) Y. Innymi słowy f X Y = {(x, y) : x X oraz y Y }, o ile (x, y) f oraz (x, z) f pociąga

Bardziej szczegółowo

Pochodna funkcji odwrotnej

Pochodna funkcji odwrotnej Pochodna funkcji odwrotnej Niech będzie dana w przedziale funkcja różniczkowalna i różnowartościowa. Wiadomo, że istnieje wówczas funkcja odwrotna (którą oznaczymy tu : ), ciągła w przedziale (lub zależnie

Bardziej szczegółowo

Wykłady z matematyki - Pochodna funkcji i jej zastosowania

Wykłady z matematyki - Pochodna funkcji i jej zastosowania Wykłady z matematyki - Pochodna funkcji i jej zastosowania Rok akademicki 2016/17 UTP Bydgoszcz Definicja pochodnej Przy założeniu, że funkcja jest określona w otoczeniu punktu f (x x 0 jeśli istnieje

Bardziej szczegółowo

Następnie przypominamy (dla części studentów wprowadzamy) podstawowe pojęcia opisujące funkcje na poziomie rysunków i objaśnień.

Następnie przypominamy (dla części studentów wprowadzamy) podstawowe pojęcia opisujące funkcje na poziomie rysunków i objaśnień. Zadanie Należy zacząć od sprawdzenia, co studenci pamiętają ze szkoły średniej na temat funkcji jednej zmiennej. Na początek można narysować kilka krzywych na tle układu współrzędnych (funkcja gładka,

Bardziej szczegółowo

WYMAGANIA WSTĘPNE Z MATEMATYKI

WYMAGANIA WSTĘPNE Z MATEMATYKI WYMAGANIA WSTĘPNE Z MATEMATYKI Wydział Informatyki, Elektroniki i Telekomunikacji Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie I. ZBIORY I.1. Działania na zbiorach I.2. Relacje między

Bardziej szczegółowo

Granica kompresji Kodowanie Shannona Kodowanie Huffmana Kodowanie ciągów Kodowanie arytmetyczne. Kody. Marek Śmieja. Teoria informacji 1 / 35

Granica kompresji Kodowanie Shannona Kodowanie Huffmana Kodowanie ciągów Kodowanie arytmetyczne. Kody. Marek Śmieja. Teoria informacji 1 / 35 Kody Marek Śmieja Teoria informacji 1 / 35 Entropia Entropia określa minimalną statystyczną długość kodowania (przyjmijmy dla prostoty że alfabet kodowy A = {0, 1}). Definicja Niech X = {x 1,..., x n }

Bardziej szczegółowo

IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych,

IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych, IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. Definicja 1.1. Niech D będzie podzbiorem przestrzeni R n, n 2. Odwzorowanie f : D R nazywamy

Bardziej szczegółowo

VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa.

VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa. VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa. W rozdziale tym zajmiemy się dokładniej badaniem stabilności rozwiązań równania różniczkowego. Pojęcie stabilności w

Bardziej szczegółowo

FUNKCJA POTĘGOWA, WYKŁADNICZA I LOGARYTMICZNA

FUNKCJA POTĘGOWA, WYKŁADNICZA I LOGARYTMICZNA FUNKCJA POTĘGOWA, WYKŁADNICZA I LOGARYTMICZNA POTĘGA, DZIAŁANIA NA POTĘGACH Potęga o wykładniku naturalnym. Jest to po prostu pomnożenie przez siebie danej liczby tyle razy ile wynosi wykładnik. Zapisujemy

Bardziej szczegółowo

VIII. Zastosowanie rachunku różniczkowego do badania funkcji. 1. Twierdzenia o wartości średniej. Monotoniczność funkcji.

VIII. Zastosowanie rachunku różniczkowego do badania funkcji. 1. Twierdzenia o wartości średniej. Monotoniczność funkcji. VIII. Zastosowanie rachunku różniczkowego do badania funkcji. 1. Twierdzenia o wartości średniej. Monotoniczność funkcji. Twierdzenie 1.1. (Rolle a) Jeżeli funkcja f jest ciągła w przedziale domkniętym

Bardziej szczegółowo

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Niech Ω będzie przestrzenią zdarzeń elementarnych. Definicja 1 Rodzinę S zdarzeń losowych (zbiór S podzbiorów zbioru

Bardziej szczegółowo

FUNKCJE. 1. Podstawowe definicje

FUNKCJE. 1. Podstawowe definicje FUNKCJE. Podstawowe definicje DEFINICJA. Funkcja f odwzorowującą zbiór X w zbiór Y (inaczej f : X Y ) nazywamy takie przyporządkowanie, które każdemu elementowi x X przyporządkowuje dokładnie jeden element

Bardziej szczegółowo

Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji

Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji Adam Kiersztyn Lublin 2014 Adam Kiersztyn () Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji maj 2014 1 / 24 Zanim przejdziemy

Bardziej szczegółowo

Zagadnienia na egzamin poprawkowy z matematyki - klasa I 1. Liczby rzeczywiste

Zagadnienia na egzamin poprawkowy z matematyki - klasa I 1. Liczby rzeczywiste Zagadnienia na egzamin poprawkowy z matematyki - klasa I 1. Liczby rzeczywiste Liczby naturalne Liczby całkowite. Liczby wymierne Liczby niewymierne Rozwinięcie dziesiętne liczby rzeczywistej Pierwiastek

Bardziej szczegółowo

1 Pochodne wyższych rzędów

1 Pochodne wyższych rzędów Pochodne wyższych rzędów Pochodną rzędu drugiego lub drugą pochodną funkcji y = f(x) nazywamy pochodną pierwszej pochodnej tej funkcji. Analogicznie definiujemy pochodne wyższych rzędów, jako pochodne

Bardziej szczegółowo

Maksymalne powtórzenia w tekstach i zerowa intensywność entropii

Maksymalne powtórzenia w tekstach i zerowa intensywność entropii Maksymalne powtórzenia w tekstach i zerowa intensywność entropii Łukasz Dębowski ldebowsk@ipipan.waw.pl i Instytut Podstaw Informatyki PAN Warszawa 1 Wprowadzenie 2 Ograniczenia górne i dolne 3 Przykłady

Bardziej szczegółowo

1 Funkcje dwóch zmiennych podstawowe pojęcia

1 Funkcje dwóch zmiennych podstawowe pojęcia 1 Funkcje dwóch zmiennych podstawowe pojęcia Definicja 1 Funkcją dwóch zmiennych określoną na zbiorze A R 2 o wartościach w zbiorze R nazywamy przyporządkowanie każdemu punktowi ze zbioru A dokładnie jednej

Bardziej szczegółowo

Zadania do samodzielnego rozwiązania zestaw 11

Zadania do samodzielnego rozwiązania zestaw 11 Zadania do samodzielnego rozwiązania zestaw 11 1 Podać definicję pochodnej funkcji w punkcie, a następnie korzystając z tej definicji obliczyć ( ) π (a) f, jeśli f(x) = cos x, (e) f (0), jeśli f(x) = 4

Bardziej szczegółowo

Propozycja szczegółowego rozkładu materiału dla 4-letniego technikum, zakres podstawowy i rozszerzony. Klasa I (90 h)

Propozycja szczegółowego rozkładu materiału dla 4-letniego technikum, zakres podstawowy i rozszerzony. Klasa I (90 h) Propozycja szczegółowego rozkładu materiału dla 4-letniego technikum, zakres podstawowy i rozszerzony (według podręczników z serii MATeMAtyka) Klasa I (90 h) Temat Liczba godzin 1. Liczby rzeczywiste 15

Bardziej szczegółowo

Funkcje dwóch zmiennych

Funkcje dwóch zmiennych Funkcje dwóch zmiennych Andrzej Musielak Str Funkcje dwóch zmiennych Wstęp Funkcja rzeczywista dwóch zmiennych to funkcja, której argumentem jest para liczb rzeczywistych, a wartością liczba rzeczywista.

Bardziej szczegółowo

3.Funkcje elementarne - przypomnienie

3.Funkcje elementarne - przypomnienie 3.Funkcje elementarne - przypomnienie Grzegorz Kosiorowski Uniwersytet Ekonomiczny w Krakowie rzegorz Kosiorowski (Uniwersytet Ekonomiczny3.Funkcje w Krakowie) elementarne - przypomnienie 1 / 51 1 Funkcje

Bardziej szczegółowo

II. Funkcje. Pojęcia podstawowe. 1. Podstawowe definicje i fakty.

II. Funkcje. Pojęcia podstawowe. 1. Podstawowe definicje i fakty. II. Funkcje. Pojęcia podstawowe. 1. Podstawowe definicje i fakty. Definicja 1.1. Funkcją określoną na zbiorze X R o wartościach w zbiorze Y R nazywamy przyporządkowanie każdemu elementowi x X dokładnie

Bardziej szczegółowo

13. Funkcje wielu zmiennych pochodne, gradient, Jacobian, ekstrema lokalne.

13. Funkcje wielu zmiennych pochodne, gradient, Jacobian, ekstrema lokalne. 13. Funkcje wielu zmiennych pochodne, gradient, Jacobian, ekstrema lokalne. 1. Wprowadzenie. Dotąd rozważaliśmy funkcje działające z podzbioru liczb rzeczywistych w zbiór liczb rzeczywistych, zatem funkcje

Bardziej szczegółowo

Teoria miary. WPPT/Matematyka, rok II. Wykład 5

Teoria miary. WPPT/Matematyka, rok II. Wykład 5 Teoria miary WPPT/Matematyka, rok II Wykład 5 Funkcje mierzalne Niech (X, F) będzie przestrzenią mierzalną i niech f : X R. Twierdzenie 1. NWSR 1. {x X : f(x) > a} F dla każdego a R 2. {x X : f(x) a} F

Bardziej szczegółowo

22 Pochodna funkcji definicja

22 Pochodna funkcji definicja 22 Pochodna funkcji definicja Rozważmy funkcję f : (a, b) R, punkt x 0 b = +. (a, b), dopuszczamy również a = lub Definicja 33 Mówimy, że funkcja f jest różniczkowalna w punkcie x 0, gdy istnieje granica

Bardziej szczegółowo

Statystyka matematyczna dla leśników

Statystyka matematyczna dla leśników Statystyka matematyczna dla leśników Wydział Leśny Kierunek leśnictwo Studia Stacjonarne I Stopnia Rok akademicki 2013/2014 Wykład 3 Zmienna losowa i jej rozkłady Zdarzenia losowe Pojęcie prawdopodobieństwa

Bardziej szczegółowo

9. BADANIE PRZEBIEGU ZMIENNOŚCI FUNKCJI

9. BADANIE PRZEBIEGU ZMIENNOŚCI FUNKCJI BADANIE PRZEBIEGU ZMIENNOŚCI FUNKCJI Ekstrema i monotoniczność funkcji Oznaczmy przez D f dziedzinę funkcji f Mówimy, że funkcja f ma w punkcie 0 D f maksimum lokalne (minimum lokalne), gdy dla każdego

Bardziej szczegółowo

Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9,

Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9, 1 Kody Tunstalla Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9, 14.04.2005 Inne podejście: słowa kodowe mają ustaloną długość, lecz mogą kodować ciągi liter z alfabetu wejściowego o różnej

Bardziej szczegółowo

2. Definicja pochodnej w R n

2. Definicja pochodnej w R n 2. Definicja pochodnej w R n Niech będzie dana funkcja f : U R określona na zbiorze otwartym U R n. Pochodną kierunkową w punkcie a U w kierunku wektora u R n nazywamy granicę u f(a) = lim t 0 f(a + tu)

Bardziej szczegółowo

Wykład 13. Informatyka Stosowana. 14 stycznia 2019 Magdalena Alama-Bućko. Informatyka Stosowana Wykład , M.A-B 1 / 34

Wykład 13. Informatyka Stosowana. 14 stycznia 2019 Magdalena Alama-Bućko. Informatyka Stosowana Wykład , M.A-B 1 / 34 Wykład 13 Informatyka Stosowana 14 stycznia 2019 Magdalena Alama-Bućko Informatyka Stosowana Wykład 13 14.01.2019, M.A-B 1 / 34 Pochodne z funkcji elementarnych c = 0 (x n ) = nx n 1 (a x ) = a x ln a,

Bardziej szczegółowo

Programowanie nieliniowe. Badania operacyjne Wykład 3 Metoda Lagrange a

Programowanie nieliniowe. Badania operacyjne Wykład 3 Metoda Lagrange a Programowanie nieliniowe Badania operacyjne Wykład 3 Metoda Lagrange a Plan wykładu Przykład problemu z nieliniową funkcją celu Sformułowanie problemu programowania matematycznego Podstawowe definicje

Bardziej szczegółowo

Projekt Era inżyniera pewna lokata na przyszłość jest współfinansowany przez Unię Europejską w ramach Europejskiego Funduszu Społecznego

Projekt Era inżyniera pewna lokata na przyszłość jest współfinansowany przez Unię Europejską w ramach Europejskiego Funduszu Społecznego Materiały dydaktyczne na zajęcia wyrównawcze z matematyki dla studentów pierwszego roku kierunku zamawianego Inżynieria Środowiska w ramach projektu Era inżyniera pewna lokata na przyszłość Projekt Era

Bardziej szczegółowo

1 Działania na zbiorach

1 Działania na zbiorach M. Beśka, Wstęp do teorii miary, rozdz. 1 1 1 Działania na zbiorach W rozdziale tym przypomnimy podstawowe działania na zbiorach koncentrując się na własnościach tych działań, które będą przydatne w dalszej

Bardziej szczegółowo

4. Postęp arytmetyczny i geometryczny. Wartość bezwzględna, potęgowanie i pierwiastkowanie liczb rzeczywistych.

4. Postęp arytmetyczny i geometryczny. Wartość bezwzględna, potęgowanie i pierwiastkowanie liczb rzeczywistych. Jarosław Wróblewski Matematyka dla Myślących, 008/09. Postęp arytmetyczny i geometryczny. Wartość bezwzględna, potęgowanie i pierwiastkowanie liczb rzeczywistych. 15 listopada 008 r. Uwaga: Przyjmujemy,

Bardziej szczegółowo

Funkcje. Część pierwsza. Zbigniew Koza. Wydział Fizyki i Astronomii

Funkcje. Część pierwsza. Zbigniew Koza. Wydział Fizyki i Astronomii Funkcje Część pierwsza Zbigniew Koza Wydział Fizyki i Astronomii Wrocław, 2015 Co to są funkcje? y(x) x Co to są funkcje? y(x) x Co to są funkcje? Funkcja dla każdego argumentu ma określoną dokładnie jedną

Bardziej szczegółowo

Projekt Era inżyniera pewna lokata na przyszłość jest współfinansowany przez Unię Europejską w ramach Europejskiego Funduszu Społecznego

Projekt Era inżyniera pewna lokata na przyszłość jest współfinansowany przez Unię Europejską w ramach Europejskiego Funduszu Społecznego Materiały dydaktyczne na zajęcia wyrównawcze z matematyki dla studentów pierwszego roku kierunku zamawianego Inżynieria i Gospodarka Wodna w ramach projektu Era inżyniera pewna lokata na przyszłość Projekt

Bardziej szczegółowo

Pochodne wyższych rzędów definicja i przykłady

Pochodne wyższych rzędów definicja i przykłady Pochodne wyższych rzędów definicja i przykłady Pochodne wyższych rzędów Drugą pochodną funkcji nazywamy pochodną pochodnej tej funkcji. Trzecia pochodna jest pochodną drugiej pochodnej; itd. Ogólnie, -ta

Bardziej szczegółowo

ROZKŁAD MATERIAŁU DO II KLASY LICEUM (ZAKRES ROZSZERZONY) A WYMAGANIA PODSTAWY PROGRAMOWEJ.

ROZKŁAD MATERIAŁU DO II KLASY LICEUM (ZAKRES ROZSZERZONY) A WYMAGANIA PODSTAWY PROGRAMOWEJ. ROZKŁAD MATERIAŁU DO II KLASY LICEUM (ZAKRES ROZSZERZONY) A WYMAGANIA PODSTAWY PROGRAMOWEJ. LICZBA TEMAT GODZIN LEKCYJNYCH Potęgi, pierwiastki i logarytmy (8 h) Potęgi 3 Pierwiastki 3 Potęgi o wykładnikach

Bardziej szczegółowo

4b. Badanie przebiegu zmienności funkcji - monotoniczność i wypukłość

4b. Badanie przebiegu zmienności funkcji - monotoniczność i wypukłość 4b. Badanie przebiegu zmienności funkcji - monotoniczność i wypukłość Grzegorz Kosiorowski Uniwersytet Ekonomiczny w Krakowie zima 2017/2018 rzegorz Kosiorowski (Uniwersytet Ekonomiczny 4b. wbadanie Krakowie)

Bardziej szczegółowo

Kurs ZDAJ MATURĘ Z MATEMATYKI MODUŁ 5 Zadania funkcje cz.1

Kurs ZDAJ MATURĘ Z MATEMATYKI MODUŁ 5 Zadania funkcje cz.1 1 TEST WSTĘPNY 1. (1p) Funkcja f przyporządkowuje każdej liczbie naturalnej większej od 1 jej największy dzielnik będący liczbą pierwszą. Spośród liczb f(42), f(44), f(45), f(48) A. f(42) B. f(44) C. f(45)

Bardziej szczegółowo

Technologie cyfrowe semestr letni 2018/2019

Technologie cyfrowe semestr letni 2018/2019 Technologie cyfrowe semestr letni 2018/2019 Tomasz Kazimierczuk Organizacja zajęć Wykład 2h/tydzień Ćwiczenia 3h/tydzień Obecność obowiązkowa 2 sprawdziany praktyczne (kolokwia) w trakcie zajęć Ocena:

Bardziej szczegółowo

Materiały wykładowe (fragmenty)

Materiały wykładowe (fragmenty) Materiały wykładowe (fragmenty) 1 Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL kontakt osobisty Centrum Wykładowe, blok informatyki, pok. 7

Bardziej szczegółowo

Pochodne funkcji wraz z zastosowaniami - teoria

Pochodne funkcji wraz z zastosowaniami - teoria Pochodne funkcji wraz z zastosowaniami - teoria Pochodne Definicja 2.38. Niech f : O(x 0 ) R. Jeżeli istnieje skończona granica f(x 0 + h) f(x 0 ) h 0 h to granicę tę nazywamy pochodną funkcji w punkcie

Bardziej szczegółowo

PRZEDMIOTOWY SYSTEM OCENIANIA PROSTO DO MATURY KLASA 1 ZAKRES PODSTAWOWY

PRZEDMIOTOWY SYSTEM OCENIANIA PROSTO DO MATURY KLASA 1 ZAKRES PODSTAWOWY PRZEDMIOTOWY SYSTEM OCENIANIA PROSTO DO MATURY KLASA 1 ZAKRES PODSTAWOWY Warszawa 2019 LICZBY RZECZYWISTE stosować prawidłowo pojęcie zbioru, podzbioru, zbioru pustego; zapisywać zbiory w różnej postaci

Bardziej szczegółowo

FUNKCJA I JEJ WŁASNOŚCI

FUNKCJA I JEJ WŁASNOŚCI FUNKCJA I JEJ WŁASNOŚCI Niech i oznaczają dwa dowolne niepuste zbiory. DEFINICJA (odwzorowanie zbioru (funkcja)) Odwzorowaniem zbioru w zbiór nazywamy przyporządkowanie każdemu elementowi zbioru dokładnie

Bardziej szczegółowo

Układy równań i nierówności liniowych

Układy równań i nierówności liniowych Układy równań i nierówności liniowych Wiesław Krakowiak 1 grudnia 2010 1 Układy równań liniowych DEFINICJA 11 Układem równań m liniowych o n niewiadomych X 1,, X n, nazywamy układ postaci: a 11 X 1 + +

Bardziej szczegółowo

1 Układy równań liniowych

1 Układy równań liniowych II Metoda Gaussa-Jordana Na wykładzie zajmujemy się układami równań liniowych, pojawi się też po raz pierwszy macierz Formalną (i porządną) teorią macierzy zajmiemy się na kolejnych wykładach Na razie

Bardziej szczegółowo

S n = a 1 1 qn,gdyq 1

S n = a 1 1 qn,gdyq 1 Spis treści Powtórzenie wiadomości... 9 Zadania i zbiory... 10 Obliczenia... 18 Ciągi... 27 Własności funkcji... 31 Funkcje liniowe i kwadratowe... 39 Wielomiany i wyrażenia wymierne... 45 Funkcje wykładnicze

Bardziej szczegółowo

5. Logarytmy: definicja oraz podstawowe własności algebraiczne.

5. Logarytmy: definicja oraz podstawowe własności algebraiczne. 5. Logarytmy: definicja oraz podstawowe własności algebraiczne. 78. Uprościć wyrażenia a) 4 2+log 27 b) log 3 2 log 59 c) log 6 2+log 36 9 a) 4 2+log 27 = (2 2 ) log 27 4 = 28 2 = 784 29 listopada 2008

Bardziej szczegółowo

III. ZMIENNE LOSOWE JEDNOWYMIAROWE

III. ZMIENNE LOSOWE JEDNOWYMIAROWE III. ZMIENNE LOSOWE JEDNOWYMIAROWE.. Zmienna losowa i pojęcie rozkładu prawdopodobieństwa W dotychczas rozpatrywanych przykładach każdemu zdarzeniu była przyporządkowana odpowiednia wartość liczbowa. Ta

Bardziej szczegółowo

Wymagania kl. 3. Zakres podstawowy i rozszerzony

Wymagania kl. 3. Zakres podstawowy i rozszerzony Wymagania kl. 3 Zakres podstawowy i rozszerzony Temat lekcji Zakres treści Osiągnięcia ucznia 1. RACHUNEK PRAWDOPODOBIEŃSTWA 1. Reguła mnożenia reguła mnożenia ilustracja zbioru wyników doświadczenia za

Bardziej szczegółowo

Zadanie 3 Oblicz jeżeli wiadomo, że liczby 8 2,, 1, , tworzą ciąg arytmetyczny. Wyznacz różnicę ciągu. Rozwiązanie:

Zadanie 3 Oblicz jeżeli wiadomo, że liczby 8 2,, 1, , tworzą ciąg arytmetyczny. Wyznacz różnicę ciągu. Rozwiązanie: Zadanie 3 Oblicz jeżeli wiadomo, że liczby 8 2,, 1, 6 11 6 11, tworzą ciąg arytmetyczny. Wyznacz różnicę ciągu. Uprośćmy najpierw liczby dane w treści zadania: 8 2, 2 2 2 2 2 2 6 11 6 11 6 11 26 11 6 11

Bardziej szczegółowo

RACHUNEK PRAWDOPODOBIEŃSTWA - POJĘCIA WSTĘPNE MATERIAŁY POMOCNICZE - TEORIA

RACHUNEK PRAWDOPODOBIEŃSTWA - POJĘCIA WSTĘPNE MATERIAŁY POMOCNICZE - TEORIA Wydział: WiLiŚ, Transport, sem.2 dr Jolanta Dymkowska RACHUNEK PRAWDOPODOBIEŃSTWA - POJĘCIA WSTĘPNE MATERIAŁY POMOCNICZE - TEORIA Przestrzeń probabilistyczna Modelem matematycznym (tj. teoretycznym, wyidealizowanym,

Bardziej szczegółowo

Oznacza to, że chcemy znaleźć minimum, a właściwie wartość najmniejszą funkcji

Oznacza to, że chcemy znaleźć minimum, a właściwie wartość najmniejszą funkcji Wykład 11. Metoda najmniejszych kwadratów Szukamy zależności Dane są wyniki pomiarów dwóch wielkości x i y: (x 1, y 1 ), (x 2, y 2 ),..., (x n, y n ). Przypuśćmy, że nanieśliśmy je na wykres w układzie

Bardziej szczegółowo

x a 1, podając założenia, przy jakich jest ono wykonywalne. x a 1 = x a 2 ( a 1) = x 1 = 1 x.

x a 1, podając założenia, przy jakich jest ono wykonywalne. x a 1 = x a 2 ( a 1) = x 1 = 1 x. Zestaw. Funkcja potęgowa, wykładnicza i logarytmiczna. Elementarne równania i nierówności. Przykład 1. Wykonać działanie x a x a 1, podając założenia, przy jakich jest ono wykonywalne. Rozwiązanie. Niech

Bardziej szczegółowo

Ciała i wielomiany 1. przez 1, i nazywamy jedynką, zaś element odwrotny do a 0 względem działania oznaczamy przez a 1, i nazywamy odwrotnością a);

Ciała i wielomiany 1. przez 1, i nazywamy jedynką, zaś element odwrotny do a 0 względem działania oznaczamy przez a 1, i nazywamy odwrotnością a); Ciała i wielomiany 1 Ciała i wielomiany 1 Definicja ciała Niech F będzie zbiorem, i niech + ( dodawanie ) oraz ( mnożenie ) będą działaniami na zbiorze F. Definicja. Zbiór F wraz z działaniami + i nazywamy

Bardziej szczegółowo

Matematyka dyskretna. Andrzej Łachwa, UJ, /15

Matematyka dyskretna. Andrzej Łachwa, UJ, /15 Matematyka dyskretna Andrzej Łachwa, UJ, 2013 andrzej.lachwa@uj.edu.pl 7/15 Rachunek różnicowy Dobrym narzędziem do obliczania skończonych sum jest rachunek różnicowy. W rachunku tym odpowiednikiem operatora

Bardziej szczegółowo

FUNKCJE. Kurs ZDAJ MATURĘ Z MATEMATYKI MODUŁ 5 Teoria funkcje cz.1. Definicja funkcji i wiadomości podstawowe

FUNKCJE. Kurs ZDAJ MATURĘ Z MATEMATYKI MODUŁ 5 Teoria funkcje cz.1. Definicja funkcji i wiadomości podstawowe 1 FUNKCJE Definicja funkcji i wiadomości podstawowe Jeżeli mamy dwa zbiory: zbiór X i zbiór Y, i jeżeli każdemu elementowi ze zbioru X przyporządkujemy dokładnie jeden element ze zbioru Y, to takie przyporządkowanie

Bardziej szczegółowo

Agata Boratyńska ZADANIA Z MATEMATYKI, I ROK SGH GRANICA CIĄGU

Agata Boratyńska ZADANIA Z MATEMATYKI, I ROK SGH GRANICA CIĄGU Agata Boratyńska Zadania z matematyki Agata Boratyńska ZADANIA Z MATEMATYKI, I ROK SGH GRANICA CIĄGU. Korzystając z definicji granicy ciągu udowodnić: a) n + n+ = 0 b) n + n n+ = c) n + n a =, gdzie a

Bardziej szczegółowo

Pochodna i jej zastosowania

Pochodna i jej zastosowania Pochodna i jej zastosowania Andrzej Musielak Str Pochodna i jej zastosowania Definicja pochodnej f( Przy założeniu, że funkcja jest określona w otoczeniu punktu 0 jeśli istnieje skończona granica 0+h)

Bardziej szczegółowo

teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015

teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015 teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015 1 wczoraj Wprowadzenie matematyczne. Entropia i informacja. Kodowanie. Kod ASCII. Stopa kodu. Kody bezprefiksowe.

Bardziej szczegółowo

III. Funkcje rzeczywiste

III. Funkcje rzeczywiste . Pojęcia podstawowe Załóżmy, że dane są dwa niepuste zbiory X i Y. Definicja. Jeżeli każdemu elementowi x X przyporządkujemy dokładnie jeden element y Y, to mówimy, że na zbiorze X została określona funkcja

Bardziej szczegółowo

3. FUNKCJA LINIOWA. gdzie ; ół,.

3. FUNKCJA LINIOWA. gdzie ; ół,. 1 WYKŁAD 3 3. FUNKCJA LINIOWA FUNKCJĄ LINIOWĄ nazywamy funkcję typu : dla, gdzie ; ół,. Załóżmy na początek, że wyraz wolny. Wtedy mamy do czynienia z funkcją typu :.. Wykresem tej funkcji jest prosta

Bardziej szczegółowo

Funkcja f jest ograniczona, jeśli jest ona ograniczona z

Funkcja f jest ograniczona, jeśli jest ona ograniczona z FUNKCJE JEDNEJ ZMIENNEJ. PODSTAWOWE POJĘCIA. PODSTAWOWE FUNKCJE ELEMENTARNE R - zbiór liczb rzeczywistych, D R, P R Definicja. Jeżeli każdemu elementowi ze zbioru D jest przyporządkowany dokładnie jeden

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA. rachunek prawdopodobieństwa

STATYSTYKA MATEMATYCZNA. rachunek prawdopodobieństwa STATYSTYKA MATEMATYCZNA rachunek prawdopodobieństwa treść Zdarzenia losowe pojęcie prawdopodobieństwa prawo wielkich liczb zmienne losowe rozkłady teoretyczne zmiennych losowych Zanim zajmiemy się wnioskowaniem

Bardziej szczegółowo

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład Rozdział 1 Wektory losowe 1.1 Wektor losowy i jego rozkład Definicja 1 Wektor X = (X 1,..., X n ), którego każda współrzędna jest zmienną losową, nazywamy n-wymiarowym wektorem losowym (krótko wektorem

Bardziej szczegółowo

Równania i nierówności wykładnicze i logarytmiczne

Równania i nierówności wykładnicze i logarytmiczne Równania i nierówności wykładnicze i logarytmiczne Paweł Foralewski Teoria Ponieważ funkcje wykładnicza i logarytmiczna zostały wprowadzone wcześniej, tutaj przypomnimy tylko definicję logarytmu i jego

Bardziej szczegółowo

Zestaw zadań przygotowujących do egzaminu z Matematyki 1

Zestaw zadań przygotowujących do egzaminu z Matematyki 1 Uniwersytet Ekonomiczny w Katowicach Wydział Finansów i Ubezpieczeń, Kierunek: Finanse i Zarządzanie w Ochronie Zdrowia Zestaw zadań przygotowujących do egzaminu z Matematyki 1 Powtórka materiału przed

Bardziej szczegółowo

Met Me ody numer yczne Wykład ykład Dr inż. Mic hał ha Łanc Łan zon Instyt Ins ut Elektr Elektr echn iki echn i Elektrot Elektr echn olo echn

Met Me ody numer yczne Wykład ykład Dr inż. Mic hał ha Łanc Łan zon Instyt Ins ut Elektr Elektr echn iki echn i Elektrot Elektr echn olo echn Metody numeryczne Wykład 3 Dr inż. Michał Łanczont Instytut Elektrotechniki i Elektrotechnologii E419, tel. 4293, m.lanczont@pollub.pl, http://m.lanczont.pollub.pl Zakres wykładu Pojęcia podstawowe Algebra

Bardziej szczegółowo

1 + x 1 x 1 + x + 1 x. dla x 0.. Korzystając z otrzymanego wykresu wyznaczyć funkcję g(m) wyrażającą liczbę pierwiastków równania.

1 + x 1 x 1 + x + 1 x. dla x 0.. Korzystając z otrzymanego wykresu wyznaczyć funkcję g(m) wyrażającą liczbę pierwiastków równania. 10 1 Wykazać, że liczba 008 008 10 + + jest większa od Nie używając kalkulatora, porównać liczby a = log 5 log 0 + log oraz b = 6 5 Rozwiązać równanie x + 4y + x y + 1 = 4xy 4 W prostokątnym układzie współrzędnych

Bardziej szczegółowo

SIMR 2016/2017, Analiza 2, wykład 1, Przestrzeń wektorowa

SIMR 2016/2017, Analiza 2, wykład 1, Przestrzeń wektorowa SIMR 06/07, Analiza, wykład, 07-0- Przestrzeń wektorowa Przestrzeń wektorowa (liniowa) - przestrzeń (zbiór) w której określone są działania (funkcje) dodawania elementów i mnożenia elementów przez liczbę

Bardziej szczegółowo

MATeMAtyka zakres rozszerzony

MATeMAtyka zakres rozszerzony MATeMAtyka zakres rozszerzony Proponowany rozkład materiału kl. I (160 h) (Na czerwono zaznaczono treści z zakresu rozszerzonego) Temat lekcji Liczba godzin 1. Liczby rzeczywiste 15 1. Liczby naturalne

Bardziej szczegółowo

8. Funkcje wielu zmiennych - pochodne cząstkowe

8. Funkcje wielu zmiennych - pochodne cząstkowe 8. Funkcje wielu zmiennych - pochodne cząstkowe Grzegorz Kosiorowski Uniwersytet Ekonomiczny w Krakowie lato 2015/2016 rzegorz Kosiorowski (Uniwersytet Ekonomiczny 8. Funkcje w Krakowie) wielu zmiennych

Bardziej szczegółowo

Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona.

Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. 13 marca 2012 Plan wykładu 1 Uwagi historyczne o teorii informacji Shannona Ogólna charakterystyka problemu Harry Nyquist Ralph Hartley

Bardziej szczegółowo

Twierdzenia Rolle'a i Lagrange'a

Twierdzenia Rolle'a i Lagrange'a Twierdzenia Rolle'a i Lagrange'a Zadanie 1 Wykazać, że dla dowolnych zachodzi. W przypadku nierówność (a właściwie równość) w treści zadania spełniona jest w sposób oczywisty, więc tego przypadku nie musimy

Bardziej szczegółowo

Robert Susmaga. Instytut Informatyki ul. Piotrowo 2 Poznań

Robert Susmaga. Instytut Informatyki ul. Piotrowo 2 Poznań ... Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL kontakt osobisty Centrum Wykładowe, blok informatyki, pok. 7 Wyłączenie odpowiedzialności

Bardziej szczegółowo

Ćwiczenia z metodyki nauczania rachunku prawdopodobieństwa

Ćwiczenia z metodyki nauczania rachunku prawdopodobieństwa Ćwiczenia z metodyki nauczania rachunku prawdopodobieństwa 25 marca 209 Zadanie. W urnie jest b kul białych i c kul czarnych. Losujemy n kul bez zwracania. Jakie jest prawdopodobieństwo, że pierwsza kula

Bardziej szczegółowo

2. ZASTOSOWANIA POCHODNYCH. (a) f(x) = ln 3 x ln x, (b) f(x) = e2x x 2 2.

2. ZASTOSOWANIA POCHODNYCH. (a) f(x) = ln 3 x ln x, (b) f(x) = e2x x 2 2. 2. ZASTOSOWANIA POCHODNYCH. Koniecznie trzeba znać: twierdzenia o ekstremach (z wykorzystaniem pierwszej i drugiej pochodnej), Twierdzenie Lagrange a, Twierdzenie Taylora (z resztą w postaci Peano, Lagrange

Bardziej szczegółowo

Elementy Modelowania Matematycznego

Elementy Modelowania Matematycznego Elementy Modelowania Matematycznego Wykład 8 Programowanie nieliniowe Spis treści Programowanie nieliniowe Zadanie programowania nieliniowego Zadanie programowania nieliniowego jest identyczne jak dla

Bardziej szczegółowo

PRZEWODNIK PO PRZEDMIOCIE

PRZEWODNIK PO PRZEDMIOCIE Nazwa przedmiotu: Rachunek prawdopodobieństwa Probability theory Kierunek: Rodzaj przedmiotu: obowiązkowy dla wszystkich specjalności Rodzaj zajęć: wykład, ćwiczenia Matematyka Poziom kwalifikacji: I stopnia

Bardziej szczegółowo

Wykład 2 Zmienne losowe i ich rozkłady

Wykład 2 Zmienne losowe i ich rozkłady Wykład 2 Zmienne losowe i ich rozkłady Magdalena Frąszczak Wrocław, 11.10.2017r Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe Doświadczenie

Bardziej szczegółowo

Plan wynikowy. Klasa III Technik pojazdów samochodowych/ Technik urządzeń i systemów energetyki odnawialnej. Kształcenie ogólne w zakresie podstawowym

Plan wynikowy. Klasa III Technik pojazdów samochodowych/ Technik urządzeń i systemów energetyki odnawialnej. Kształcenie ogólne w zakresie podstawowym Oznaczenia: wymagania konieczne, P wymagania podstawowe, R wymagania rozszerzające, D wymagania dopełniające, W wymagania wykraczające. Plan wynikowy lasa III Technik pojazdów samochodowych/ Technik urządzeń

Bardziej szczegółowo

Funkcje wymierne. Funkcja homograficzna. Równania i nierówności wymierne.

Funkcje wymierne. Funkcja homograficzna. Równania i nierówności wymierne. Funkcje wymierne. Funkcja homograficzna. Równania i nierówności wymierne. Funkcja homograficzna. Definicja. Funkcja homograficzna jest to funkcja określona wzorem f() = a + b c + d, () gdzie współczynniki

Bardziej szczegółowo

Elementy teorii informacji i kodowania

Elementy teorii informacji i kodowania i kodowania Entropia, nierówność Krafta, kodowanie optymalne Marcin Jenczmyk m.jenczmyk@knm.katowice.pl 17 kwietnia 2015 M. Jenczmyk Spotkanie KNM i kodowania 1 / 20 Niech S = {x 1,..., x q } oznacza alfabet,

Bardziej szczegółowo

ZAGADNIENIA PROGRAMOWE I WYMAGANIA EDUKACYJNE DO TESTU PRZYROSTU KOMPETENCJI Z MATEMATYKI DLA UCZNIA KLASY II

ZAGADNIENIA PROGRAMOWE I WYMAGANIA EDUKACYJNE DO TESTU PRZYROSTU KOMPETENCJI Z MATEMATYKI DLA UCZNIA KLASY II ZAGADNIENIA PROGRAMOWE I WYMAGANIA EDUKACYJNE DO TESTU PRZYROSTU KOMPETENCJI Z MATEMATYKI DLA UCZNIA KLASY II POZIOM ROZSZERZONY Równania i nierówności z wartością bezwzględną. rozwiązuje równania i nierówności

Bardziej szczegółowo