Podstawy kompresji stratnej+kwantyzacja

Wielkość: px
Rozpocząć pokaz od strony:

Download "Podstawy kompresji stratnej+kwantyzacja"

Transkrypt

1 Podstawy kompresji stratnej + Kwantyzacja Kodowanie i kompresja informacji - Wykład 6 29 III 2010

2 Wprowadzenie Dla każdych danych istnieje wartość której nie można przekroczyć w trakcie kompresji. Im dane bardziej przypominaja ciag losowy tym trudniej je skompresować.

3 Wprowadzenie Dla każdych danych istnieje wartość której nie można przekroczyć w trakcie kompresji. Im dane bardziej przypominaja ciag losowy tym trudniej je skompresować. W kompresji stratnej oprócz średniej długości kodu musimy uwzględnić także miarę straty informacji zniekształcenie.

4 Wprowadzenie Dla każdych danych istnieje wartość której nie można przekroczyć w trakcie kompresji. Im dane bardziej przypominaja ciag losowy tym trudniej je skompresować. W kompresji stratnej oprócz średniej długości kodu musimy uwzględnić także miarę straty informacji zniekształcenie. Chcemy znaleźć algorytmy które maksymalnie kompresuja przy minimalnym zniekształceniu.

5 Kryteria oceny zniekształceń Czynnik ludzki czy można łatwo rozróżnić oryginał od zniekształconej kopii (ale ludzie maja różne zakresy postrzegania).

6 Kryteria oceny zniekształceń Czynnik ludzki czy można łatwo rozróżnić oryginał od zniekształconej kopii (ale ludzie maja różne zakresy postrzegania). Kwadratowa miara błędu. Niech {x n } oznacza ciag oryginalny a {y n } powstały w wyniku rekonstrukcji. d(x, y) = n (x n y n ) 2

7 Kryteria oceny zniekształceń Czynnik ludzki czy można łatwo rozróżnić oryginał od zniekształconej kopii (ale ludzie maja różne zakresy postrzegania). Kwadratowa miara błędu. Niech {x n } oznacza ciag oryginalny a {y n } powstały w wyniku rekonstrukcji. d(x, y) = n (x n y n ) 2 Bezwzględna miara błędu. d(x, y) = n x n y n

8 Kryteria oceny zniekształceń podstawowe pojęcia Bład średniokwadratowy (mean squared error - mse). σ 2 = 1 N N (x n y n ) 2 ) n=1

9 Kryteria oceny zniekształceń podstawowe pojęcia Bład średniokwadratowy (mean squared error - mse). σ 2 = 1 N N (x n y n ) 2 ) n=1 Stosunek sygnału do szumu (signal-to-noise ratio) SNR = 1 N N n=1 x 2 n mse

10 Kryteria oceny zniekształceń podstawowe pojęcia Bład średniokwadratowy (mean squared error - mse). σ 2 = 1 N N (x n y n ) 2 ) n=1 Stosunek sygnału do szumu (signal-to-noise ratio) SNR = 1 N N n=1 x 2 n mse Wartości SNR wyraża się często w skali logarytmicznej (decybelach) SNR(dB) = 10 log 10 SNR

11 Percepcja wzrokowa

12 Percepcja wzrokowa Oko ludzkie: zespół soczewek i receptorów umieszczonych na siatkówce.

13 Percepcja wzrokowa Oko ludzkie: zespół soczewek i receptorów umieszczonych na siatkówce. Dwa typy receptorów:

14 Percepcja wzrokowa Oko ludzkie: zespół soczewek i receptorów umieszczonych na siatkówce. Dwa typy receptorów: pręciki - moc światła, około 120 mln, rozłożone w miarę równomiernie na całej siatkówce, przy silnym świetle częściowo uśpione,

15 Percepcja wzrokowa Oko ludzkie: zespół soczewek i receptorów umieszczonych na siatkówce. Dwa typy receptorów: pręciki - moc światła, około 120 mln, rozłożone w miarę równomiernie na całej siatkówce, przy silnym świetle częściowo uśpione, czopki - kolor światła, około 6,4 mln, skupione głównie w centrum, do aktywacji potrzeba setek fotonów, trzy rodzaje ze względu na kolory światła (czerwony R, zielony G, niebieski B).

16 Percepcja wzrokowa Oko ludzkie: zespół soczewek i receptorów umieszczonych na siatkówce. Dwa typy receptorów: pręciki - moc światła, około 120 mln, rozłożone w miarę równomiernie na całej siatkówce, przy silnym świetle częściowo uśpione, czopki - kolor światła, około 6,4 mln, skupione głównie w centrum, do aktywacji potrzeba setek fotonów, trzy rodzaje ze względu na kolory światła (czerwony R, zielony G, niebieski B). Obraz składany dopiero w mózgu (oko jako rodzaj filtra).

17 Absorpcja światła przez poszczególne typy czopków

18 Kolory i luminancja Wrażenie intensywności koloru zależy nie tylko od rzeczywistego natężenia promieniowania, ale także od różnicy pomiędzy rzeczywista długościa fali, a długościa charakterystyczna do komórki światłoczułej:

19 Kolory i luminancja Wrażenie intensywności koloru zależy nie tylko od rzeczywistego natężenia promieniowania, ale także od różnicy pomiędzy rzeczywista długościa fali, a długościa charakterystyczna do komórki światłoczułej: S 420nm (fioletowy),

20 Kolory i luminancja Wrażenie intensywności koloru zależy nie tylko od rzeczywistego natężenia promieniowania, ale także od różnicy pomiędzy rzeczywista długościa fali, a długościa charakterystyczna do komórki światłoczułej: S 420nm (fioletowy), L 564nm (żółtawo-zielony),

21 Kolory i luminancja Wrażenie intensywności koloru zależy nie tylko od rzeczywistego natężenia promieniowania, ale także od różnicy pomiędzy rzeczywista długościa fali, a długościa charakterystyczna do komórki światłoczułej: S 420nm (fioletowy), L 564nm (żółtawo-zielony), M 534nm (zielony).

22 Kolory i luminancja Wrażenie intensywności koloru zależy nie tylko od rzeczywistego natężenia promieniowania, ale także od różnicy pomiędzy rzeczywista długościa fali, a długościa charakterystyczna do komórki światłoczułej: S 420nm (fioletowy), L 564nm (żółtawo-zielony), M 534nm (zielony). Człowiek zauważa nawet bardzo niewielkie zmiany luminancji (natężenia światła) w aktywnym zakresie.

23 Kolory i luminancja Wrażenie intensywności koloru zależy nie tylko od rzeczywistego natężenia promieniowania, ale także od różnicy pomiędzy rzeczywista długościa fali, a długościa charakterystyczna do komórki światłoczułej: S 420nm (fioletowy), L 564nm (żółtawo-zielony), M 534nm (zielony). Człowiek zauważa nawet bardzo niewielkie zmiany luminancji (natężenia światła) w aktywnym zakresie. Duża rozdzielczość kolorów w zielonym, niewielka zmiana wrażenia koloru w niebieskim, czerwony to kolor alarmowy.

24 Kolory i luminancja (2) Percepcja Jeżeli dana scena jest oświetlona światłem o natężeniu I, a zapalimy punkt o innej intensywności, to różnica zostanie dostrzeżona dopiero wtedy, gdy: I I > 0, 02 (tzn. frakcja Webera). Możemy założyć, że wrażenie intensywności światła jest funkcja logarytmiczna.

25 Kolory i luminancja (3) Zakres natężenia światła Stosunek największego (bezpiecznego) do najmniejszego (dostrzeganego) natężenia światła to nawet i choć w danej chwili oko przystosowuje się do pewnego, stosunkowo małego, podzakresu, to i tak jest to zwykle zdecydowanie więcej niż oferuja obecnie dostępne kamery (np. żeby zrobić zdjęcie obejmujace część zacieniona i niebo z widocznymi chmurami, zwykle potrzebujemy zastosować filtry połówkowe ).

26 Kolory i luminancja wnioski Do reprezentacji koloru potrzeba co najmniej trzech wartości. Ze względu na różnicę w percepcji kolorów oszczędniej zapamiętywać wartość luminancji (Y) oraz dwie składowe chrominancji (Cb/Cr) obliczone jako ważone kombinacje liniowe składowych RGB: Y = 77 R + 150G + 29 B, Cb = 44 R 87 G + 131B + 128, Cr = 131R 110G 21 B R = Y + 1, 371(Cr 128), G = Y 0, 698(Cr 128) 0, 336(Cb 128), B = Y + 1, 732(Cb 128).

27 Reprezentacja kolorów wnioski Colors are only symbols. Reality is to be found in luminance alone. (Pablo Picasso) Nie warto dokładnie pamiętać zmian, których człowiek nie dostrzega:

28 Reprezentacja kolorów wnioski Colors are only symbols. Reality is to be found in luminance alone. (Pablo Picasso) Nie warto dokładnie pamiętać zmian, których człowiek nie dostrzega: niewielkich zmian w kolorze niebieskim czy w odcieniach czerwonego,

29 Reprezentacja kolorów wnioski Colors are only symbols. Reality is to be found in luminance alone. (Pablo Picasso) Nie warto dokładnie pamiętać zmian, których człowiek nie dostrzega: niewielkich zmian w kolorze niebieskim czy w odcieniach czerwonego, zmian o wysokiej częstotliwości i niewielkim natężeniu (rodzaj szumu),

30 Reprezentacja kolorów wnioski Colors are only symbols. Reality is to be found in luminance alone. (Pablo Picasso) Nie warto dokładnie pamiętać zmian, których człowiek nie dostrzega: niewielkich zmian w kolorze niebieskim czy w odcieniach czerwonego, zmian o wysokiej częstotliwości i niewielkim natężeniu (rodzaj szumu), dokładnej informacji o kolorze każdego piksela (np. wspólna informacja dla czterech),

31 Reprezentacja kolorów wnioski Colors are only symbols. Reality is to be found in luminance alone. (Pablo Picasso) Nie warto dokładnie pamiętać zmian, których człowiek nie dostrzega: niewielkich zmian w kolorze niebieskim czy w odcieniach czerwonego, zmian o wysokiej częstotliwości i niewielkim natężeniu (rodzaj szumu), dokładnej informacji o kolorze każdego piksela (np. wspólna informacja dla czterech),...

32 Percepcja słuchowa

33 Percepcja słuchowa Wibracje powietrza przetwarzane sa przez ucho na sygnały nerwowe.

34 Percepcja słuchowa Wibracje powietrza przetwarzane sa przez ucho na sygnały nerwowe. Subiektywna głośność dźwięku zależy również od częstotliwość (nie tylko od intensywności).

35 Percepcja słuchowa Wibracje powietrza przetwarzane sa przez ucho na sygnały nerwowe. Subiektywna głośność dźwięku zależy również od częstotliwość (nie tylko od intensywności). Dźwięki moga się nawzajem zagłuszać (maskować).

36 Narzad słuchu Człowiek słyszy dźwięki w zakresie od około 20Hz do około 20kHz (z wiekiem górna granica się obniża).

37 Narzad słuchu Człowiek słyszy dźwięki w zakresie od około 20Hz do około 20kHz (z wiekiem górna granica się obniża). Wrażliwość na dźwięk nie jest stała (wraz ze zmiana częstotliwości zmienia się próg słyszalności).

38 Efekt maskowania Aby zagłuszyć dany dźwięk, należy użyć szumu o zbliżonej częstotliwości (efekt maskowania), działa to oczywiście także w druga stronę (nie słyszymy słabych dźwięków, o zbliżonej częstotliwości).

39 Efekt maskowania Aby zagłuszyć dany dźwięk, należy użyć szumu o zbliżonej częstotliwości (efekt maskowania), działa to oczywiście także w druga stronę (nie słyszymy słabych dźwięków, o zbliżonej częstotliwości). Skoro ich nie można usłyszeć, to po co je kodować...

40 Efekt maskowania Aby zagłuszyć dany dźwięk, należy użyć szumu o zbliżonej częstotliwości (efekt maskowania), działa to oczywiście także w druga stronę (nie słyszymy słabych dźwięków, o zbliżonej częstotliwości). Skoro ich nie można usłyszeć, to po co je kodować... Pomysł: dzielimy dźwięk na pasma, wyrzucamy to, czego nie da się usłyszeć i kodujemy pasma oddzielnie.

41 Efekt maskowania (2) Definition (Bark) Na potrzeby określenia szerokości pasma krytycznego zdefiniowana została nowa jednostka: 1Bark = { f log 2 f 1000 dla f < 500Hz dla f 500Hz

42 Entropia warunkowa X - zmienna losowa przyjmujaca wartości z alfabetu źródłowego {x 0, x 1,..., x N 1 }.

43 Entropia warunkowa X - zmienna losowa przyjmujaca wartości z alfabetu źródłowego {x 0, x 1,..., x N 1 }. Y - zmienna losowa przyjmujaca wartości z alfabetu rekonstrukcji {y 0, y 1,..., y M 1 }.

44 Entropia warunkowa X - zmienna losowa przyjmujaca wartości z alfabetu źródłowego {x 0, x 1,..., x N 1 }. Y - zmienna losowa przyjmujaca wartości z alfabetu rekonstrukcji {y 0, y 1,..., y M 1 }. Entropię warunkowa dla alfabetu wejściowego określamy wzorem N 1 H(X Y ) = i=0 M 1 j=0 P(x i y j )P(y j ) log P(x i y j )

45 Entropia warunkowa X - zmienna losowa przyjmujaca wartości z alfabetu źródłowego {x 0, x 1,..., x N 1 }. Y - zmienna losowa przyjmujaca wartości z alfabetu rekonstrukcji {y 0, y 1,..., y M 1 }. Entropię warunkowa dla alfabetu wejściowego określamy wzorem N 1 H(X Y ) = i=0 M 1 j=0 P(x i y j )P(y j ) log P(x i y j ) Entropię warunkowa dla alfabetu rekonstrukcji określamy wzorem N 1 H(Y X) = i=0 M 1 j=0 P(x i y j )P(y j ) log P(y j x i )

46 Entropia warunkowa X - zmienna losowa przyjmujaca wartości z alfabetu źródłowego {x 0, x 1,..., x N 1 }. Y - zmienna losowa przyjmujaca wartości z alfabetu rekonstrukcji {y 0, y 1,..., y M 1 }. Entropię warunkowa dla alfabetu wejściowego określamy wzorem N 1 H(X Y ) = i=0 M 1 j=0 P(x i y j )P(y j ) log P(x i y j ) Entropię warunkowa dla alfabetu rekonstrukcji określamy wzorem N 1 H(Y X) = i=0 M 1 j=0 Można pokazać, że H(X Y ) H(X). P(x i y j )P(y j ) log P(y j x i )

47 Przykład Niech alfabetem źródłowym będa liczby czterobitowe.

48 Przykład Niech alfabetem źródłowym będa liczby czterobitowe. Koder usuwa najmniej znaczacy bit, stad alfabetem rekonstrukcji sa tylko parzyste liczby czterobitowe.

49 Przykład Niech alfabetem źródłowym będa liczby czterobitowe. Koder usuwa najmniej znaczacy bit, stad alfabetem rekonstrukcji sa tylko parzyste liczby czterobitowe. Jeśli wszystkie wartości alfabetu źródłowego sa jednakowo prawdopodobne to H(X) = 4.

50 Przykład Niech alfabetem źródłowym będa liczby czterobitowe. Koder usuwa najmniej znaczacy bit, stad alfabetem rekonstrukcji sa tylko parzyste liczby czterobitowe. Jeśli wszystkie wartości alfabetu źródłowego sa jednakowo prawdopodobne to H(X) = 4. Prawdopodobieństwa znaków alfabetu rekonstrukcji wynosza P(Y = j) = P(X = j) + P(X = j + 1) =

51 Przykład cd. Prawdopodobieństwo warunkowe P(x i y j ) na podstawie działania kodera możemy określić jako { 1/2 gdy i = j lub i = j + 1 P(X = i Y = j) = 0 w p.p.

52 Przykład cd. Prawdopodobieństwo warunkowe P(x i y j ) na podstawie działania kodera możemy określić jako { 1/2 gdy i = j lub i = j + 1 P(X = i Y = j) = 0 w p.p. Stad mamy, że H(X Y ) = 1.

53 Przykład cd. Prawdopodobieństwo warunkowe P(x i y j ) na podstawie działania kodera możemy określić jako { 1/2 gdy i = j lub i = j + 1 P(X = i Y = j) = 0 w p.p. Stad mamy, że H(X Y ) = 1. Prawdopodobieństwo warunkowe P(y j x i ) na podstawie działania kodera możemy określić jako { 1 gdy i = j lub i = j + 1 P(Y = j X = i) = 0 w p.p.

54 Przykład cd. Prawdopodobieństwo warunkowe P(x i y j ) na podstawie działania kodera możemy określić jako { 1/2 gdy i = j lub i = j + 1 P(X = i Y = j) = 0 w p.p. Stad mamy, że H(X Y ) = 1. Prawdopodobieństwo warunkowe P(y j x i ) na podstawie działania kodera możemy określić jako { 1 gdy i = j lub i = j + 1 P(Y = j X = i) = 0 w p.p. Stad H(Y X) = 0.

55 Średnia informacja wzajemna Średnia informację wzajemna określimy wzorem N 1 I(X; Y ) = i=0 M 1 j=0 P(x i y i )P(y i ) log [ ] P(xi y j ) P(x i )

56 Średnia informacja wzajemna Średnia informację wzajemna określimy wzorem N 1 I(X; Y ) = i=0 M 1 j=0 P(x i y i )P(y i ) log Po przekształceniach możemy uzyskać I(X; Y ) = H(X) H(X Y ) [ ] P(xi y j ) P(x i )

57 Średnia informacja wzajemna Średnia informację wzajemna określimy wzorem N 1 I(X; Y ) = i=0 M 1 j=0 P(x i y i )P(y i ) log Po przekształceniach możemy uzyskać I(X; Y ) = H(X) H(X Y ) [ ] P(xi y j ) P(x i ) Dla poprzedniego przykładu mamy więc I(X; Y ) = 3.

58 Entropia różniczkowa Dotychczas źródło danych generowało sygnały z dyskretnego alfabetu.

59 Entropia różniczkowa Dotychczas źródło danych generowało sygnały z dyskretnego alfabetu. Co się zmieni jak dyskretne zmienne losowe zmienimy na ciagłe?

60 Entropia różniczkowa Dotychczas źródło danych generowało sygnały z dyskretnego alfabetu. Co się zmieni jak dyskretne zmienne losowe zmienimy na ciagłe? Dla zdarzenia A i(a) = log P(A) ale dla ciagłych zmiennych losowych P(A) = 0.

61 Entropia różniczkowa Dotychczas źródło danych generowało sygnały z dyskretnego alfabetu. Co się zmieni jak dyskretne zmienne losowe zmienimy na ciagłe? Dla zdarzenia A i(a) = log P(A) ale dla ciagłych zmiennych losowych P(A) = 0. Weźmy ciagł a zmienna losowa X o funkcji gęstości rozkładu f X (x).

62 Entropia różniczkowa Dotychczas źródło danych generowało sygnały z dyskretnego alfabetu. Co się zmieni jak dyskretne zmienne losowe zmienimy na ciagłe? Dla zdarzenia A i(a) = log P(A) ale dla ciagłych zmiennych losowych P(A) = 0. Weźmy ciagł a zmienna losowa X o funkcji gęstości rozkładu f X (x). Dzielimy zakres wartości X na podprzedziały o rozmiarze.

63 Entropia różniczkowa Dotychczas źródło danych generowało sygnały z dyskretnego alfabetu. Co się zmieni jak dyskretne zmienne losowe zmienimy na ciagłe? Dla zdarzenia A i(a) = log P(A) ale dla ciagłych zmiennych losowych P(A) = 0. Weźmy ciagł a zmienna losowa X o funkcji gęstości rozkładu f X (x). Dzielimy zakres wartości X na podprzedziały o rozmiarze. Dla każdego przedziału [(i 1), i ) istnieje liczba x i taka, że f X (x i ) = i (i 1) f X (x) dx

64 Entropia różniczkowa Definiujemy dyskretna zmienna losowa X d o rozkładzie P(X d = x i ) = f X (x i ).

65 Entropia różniczkowa Definiujemy dyskretna zmienna losowa X d o rozkładzie P(X d = x i ) = f X (x i ). Entropia tej zmiennej jest równa H(X d ) = P(x i ) log P(x i ) = i= [f X (x i ) log f X (x i )] log i=

66 Entropia różniczkowa Definiujemy dyskretna zmienna losowa X d o rozkładzie P(X d = x i ) = f X (x i ). Entropia tej zmiennej jest równa H(X d ) = P(x i ) log P(x i ) = i= [f X (x i ) log f X (x i )] log i= Entropia różniczkowa nazywamy h(x) = lim [f X (x i ) log f X (x i )] = 0 i= f X (x) log f X (x) dx

67 Przykład Niech X będzie zmienna losowa o rozkładzie jednostajnym na przedziale [a, b).

68 Przykład Niech X będzie zmienna losowa o rozkładzie jednostajnym na przedziale [a, b). Wtedy h(x) = = b a f X (x) log f X (x) dx 1 b a log 1 dx = log(b a) b a

69 Przykład Niech X będzie zmienna losowa o rozkładzie jednostajnym na przedziale [a, b). Wtedy h(x) = = b a f X (x) log f X (x) dx 1 b a log 1 dx = log(b a) b a Entropia różniczkowa może być ujemna, np. gdy b a < 1.

70 Modele probabilistyczne Ogólna charakterystyka źródła danych. Szukamy ładnego rozkładu prawdopodobieństwa który jest najbliższy rozkładowi danych.

71 Modele probabilistyczne Ogólna charakterystyka źródła danych. Szukamy ładnego rozkładu prawdopodobieństwa który jest najbliższy rozkładowi danych. Rozkład jednostajny na przedziale [a, b]. f X (x) = { 1 b a dla a x b 0 w przeciwnym przypadku

72 Modele probabilistyczne Ogólna charakterystyka źródła danych. Szukamy ładnego rozkładu prawdopodobieństwa który jest najbliższy rozkładowi danych. Rozkład jednostajny na przedziale [a, b]. f X (x) = { 1 b a dla a x b 0 w przeciwnym przypadku Rozkład Gaussa o wartości oczekiwanej µ i wariancji σ 2 1 (x µ) 2 f X (x) = e 2σ 2 2πσ 2

73 Modele probabilistyczne Rozkład Laplace a o wartości oczekiwanej 0 i wariancji σ 2 (duże wzniesienie w zerze) f X (x) = 1 2x 2σ 2 e σ

74 Modele probabilistyczne Rozkład Laplace a o wartości oczekiwanej 0 i wariancji σ 2 (duże wzniesienie w zerze) f X (x) = 1 2x 2σ 2 e σ Rozkład Gamma o wartości oczekiwanej 0 i wariancji σ 2 (jeszcze większe wzniesienie w zerze) f X (x) = 4 3 e 3 x 2σ 8πσ x

75 Modele probabilistyczne

76 Modele liniowe i fizyczne Model liniowy jest opisany równaniem x n = N a i x n i + i 1 M b j ɛ n j + ɛ n j=1 gdzie ɛ n - ciag wartości białego szumu.

77 Modele liniowe i fizyczne Model liniowy jest opisany równaniem x n = N a i x n i + i 1 M b j ɛ n j + ɛ n j=1 gdzie ɛ n - ciag wartości białego szumu. Modele fizyczne opieraja się na mechanizmach powstawania danych.

78 Kwantyzacja Proces zastapienia dużego zbioru wartości za pomoca znacznie mniejszego.

79 Kwantyzacja Proces zastapienia dużego zbioru wartości za pomoca znacznie mniejszego. Dwa odwzorowania:

80 Kwantyzacja Proces zastapienia dużego zbioru wartości za pomoca znacznie mniejszego. Dwa odwzorowania: kodujace dzieli zbiór wartości na pewna liczbę podprzedziałów, każdy przedział reprezentowany przez inne słowo kodowe (proces nieodwracalny).

81 Kwantyzacja Proces zastapienia dużego zbioru wartości za pomoca znacznie mniejszego. Dwa odwzorowania: kodujace dzieli zbiór wartości na pewna liczbę podprzedziałów, każdy przedział reprezentowany przez inne słowo kodowe (proces nieodwracalny). dekodujace na podstawie słowa kodowego zwraca wartość najlepiej reprezentujac a kodowany przedział.

82 Kwantyzacja Proces zastapienia dużego zbioru wartości za pomoca znacznie mniejszego. Dwa odwzorowania: kodujace dzieli zbiór wartości na pewna liczbę podprzedziałów, każdy przedział reprezentowany przez inne słowo kodowe (proces nieodwracalny). dekodujace na podstawie słowa kodowego zwraca wartość najlepiej reprezentujac a kodowany przedział. Strata dokładności danych ale ułatwione kompresowanie.

83 Przykład Dla źródła generujacego liczby rzeczywiste z przedziału od -10 do 10 zastępujemy każda liczbę jej zaokragleniem do liczby całkowitej.

84 Przykład Dla źródła generujacego liczby rzeczywiste z przedziału od -10 do 10 zastępujemy każda liczbę jej zaokragleniem do liczby całkowitej. Redukcja nieskończonego alfabetu do 21 elementowego.

85 Przykład Dla źródła generujacego liczby rzeczywiste z przedziału od -10 do 10 zastępujemy każda liczbę jej zaokragleniem do liczby całkowitej. Redukcja nieskończonego alfabetu do 21 elementowego. Kwantyzacja jednostajna każdy przedział (poza dwoma skrajnymi) ma taka sama długość.

86 Przykład

87 Przykład

88 Kwantyzacja skalarna Kwantyzacja musi uwzględniać rodzaj danych - ich rozkład.

89 Kwantyzacja skalarna Kwantyzacja musi uwzględniać rodzaj danych - ich rozkład. Konstruujac kwantyzację musimy uwzględnić rozkład danych tak aby przedstawiciele danych obejmowali mniej więcej równe zakresy danych.

90 Kwantyzacja skalarna Kwantyzacja musi uwzględniać rodzaj danych - ich rozkład. Konstruujac kwantyzację musimy uwzględnić rozkład danych tak aby przedstawiciele danych obejmowali mniej więcej równe zakresy danych. Szukamy optymalnych wartości granicznych przedziałów i poziomu rekonstrukcji (ilości przedziałów).

91 Przykład Jeśli w jednym z poprzednich przykładów 90% wartości pojawiałoby się w przedziale od -1 do 1 to zaokraglenie do najbliższej liczby całkowitej nie byłoby właściwe.

92 Przykład Jeśli w jednym z poprzednich przykładów 90% wartości pojawiałoby się w przedziale od -1 do 1 to zaokraglenie do najbliższej liczby całkowitej nie byłoby właściwe. Dla przedziału od -1 do 1 lepiej by było zaokraglać z dokładnościa do 1/10 (o wiele mniejsza strata informacji).

93 Przykład Jeśli w jednym z poprzednich przykładów 90% wartości pojawiałoby się w przedziale od -1 do 1 to zaokraglenie do najbliższej liczby całkowitej nie byłoby właściwe. Dla przedziału od -1 do 1 lepiej by było zaokraglać z dokładnościa do 1/10 (o wiele mniejsza strata informacji). Dostajemy kwantyzację niejednostajna różne długości przedziałów.

94 Miary kwantyzacji Średniokwadratowy bład kwantyzacji Średnia z kwadratów różnic między wejściem kodera a wyjściem dekodera. Jeśli Q operacja kwantyzacji i Q(x) = y i b i 1 < x b i to σ 2 q = = i bi (x Q(x)) 2 f X (x) dx b i 1 (x y i ) 2 f X (x) dx

95 Miary kwantyzacji Średniokwadratowy bład kwantyzacji Średnia z kwadratów różnic między wejściem kodera a wyjściem dekodera. Jeśli Q operacja kwantyzacji i Q(x) = y i b i 1 < x b i to σ 2 q = = i bi (x Q(x)) 2 f X (x) dx b i 1 (x y i ) 2 f X (x) dx Średnia bitowa kwantyzatora Średnia liczba bitów potrzebna do reprezentowania jednej danej wynikowej kwantyzatora.

96 Rodzaje kwantyzatorów skalarnych Kwantyzator równomierny

97 Rodzaje kwantyzatorów skalarnych Kwantyzator równomierny Wszystkie przedziały (poza ewentualnie skrajnymi) maja taka sama długość.

98 Rodzaje kwantyzatorów skalarnych Kwantyzator równomierny Wszystkie przedziały (poza ewentualnie skrajnymi) maja taka sama długość. Również rekonstruowane wartości sa rozmieszczone równomiernie.

99 Rodzaje kwantyzatorów skalarnych Kwantyzator równomierny Wszystkie przedziały (poza ewentualnie skrajnymi) maja taka sama długość. Również rekonstruowane wartości sa rozmieszczone równomiernie. Stosowany najczęściej do rozkładów jednostajnych oraz obrazów (redukcja barw przez obcięcie najmniej znaczacych bitów).

100 Rodzaje kwantyzatorów skalarnych Kwantyzator równomierny Wszystkie przedziały (poza ewentualnie skrajnymi) maja taka sama długość. Również rekonstruowane wartości sa rozmieszczone równomiernie. Stosowany najczęściej do rozkładów jednostajnych oraz obrazów (redukcja barw przez obcięcie najmniej znaczacych bitów). Kwantyzacja nierównomierna

101 Rodzaje kwantyzatorów skalarnych Kwantyzator równomierny Wszystkie przedziały (poza ewentualnie skrajnymi) maja taka sama długość. Również rekonstruowane wartości sa rozmieszczone równomiernie. Stosowany najczęściej do rozkładów jednostajnych oraz obrazów (redukcja barw przez obcięcie najmniej znaczacych bitów). Kwantyzacja nierównomierna Podział na przedziały w taki sposób aby każdy przedział miał podobne prawdopodobieństwo wystapienia (przedziały maja różna długość).

102 Kwantyzator ze skokiem w zerze (midrise quantizer)

103 Kwantyzator stały w zerze (midtread quantizer)

104 Kwantyzator równomierny, rozkład jednostajny Dla kwantyzatora równomiernego i źródła jednostajnego bład kwantyzacji możemy określić w następujacy sposób: gdzie = 2Xmax jest wielkościa kroku kwantyzacji, a M M liczba przedziałów kwantyzacji.

105 Kwantyzator równomierny, rozkład jednostajny (2) Bład kwantyzacji możemy obliczyć w następujacy sposób (wykorzystujac symetrię): σ 2 q = 2 M 2 i=1 i (i 1) ( x 2i 1 ) 1 dx. 2 2X max Możemy także policzyć bład badajac różnicę q = x Q(x) (gdzie Q(x) jest wartościa rekonstrukcji dla x), wtedy: σ 2 q = 1 (obliczenia jako zadanie) 2 2 q 2 dq = 2 12.

106 Kwantyzator równomierny, rozkład jednostajny (3) Jak wyglada SNR przy = 2Xmax M (M = 2 n )? SNR(dB) = σs 2 10 log 10 σq 2 = 10 log 10 M 2 i wariancji σ2 = 2Xmax 12 = 20 log 10 2 n 6, 02ndB. Zatem dla każdego dodatkowego bitu kwantyzatora mamy wzrost SNR o 6, 02dB.

107 Kwantyzator równomierny, rozkład niejednostajny

108 Kwantyzator równomierny, rozkład niejednostajny (2) W przypadku kwantyzacji równomiernej dla danych o rozkładzie innym niż jednostajny można policzyć optymalna liczbę przedziałów kwantyzacji M oraz wielkość parametru. Zalety: proste obliczenia (wystarczy wariancja), proste przetwarzanie (nie trzeba nawet pamiętać granic decyzyjnych).

109 Kwantyzator równomierny, rozkład niejednostajny (2) W przypadku kwantyzacji równomiernej dla danych o rozkładzie innym niż jednostajny można policzyć optymalna liczbę przedziałów kwantyzacji M oraz wielkość parametru. Zalety: proste obliczenia (wystarczy wariancja), proste przetwarzanie (nie trzeba nawet pamiętać granic decyzyjnych). Wady: stosunkowo duży bład kwantyzacji przy zadanej średniej bitowej, w sytuacji zmieniajacego się (lub nieznanego) rozkładu dodatkowe problemy.

110 Kwantyzator równomierny, rozkład niejednostajny (2) W przypadku kwantyzacji równomiernej dla danych o rozkładzie innym niż jednostajny można policzyć optymalna liczbę przedziałów kwantyzacji M oraz wielkość parametru. Zalety: proste obliczenia (wystarczy wariancja), proste przetwarzanie (nie trzeba nawet pamiętać granic decyzyjnych). Wady: stosunkowo duży bład kwantyzacji przy zadanej średniej bitowej, w sytuacji zmieniajacego się (lub nieznanego) rozkładu dodatkowe problemy. Rozwiazania problemu: kwantyzacja nierównomierna, kwantyzacja z kompanderem (szczególnie wtedy, kiedy znamy rozkład), kwantyzacja adaptacyjna (jeżeli rozkład się zmienia).

111 Kwantyzator równomierny, rozkład niejednostajny (3) Jak wyznaczyć parametr? Badamy extremum funkcji (f X to funkcja gęstości rozkładu): σ 2 = 2 M 2 1 i +2 i=1 (i 1) ( M 2 1) ( ( x 2i 1 2 ) f X (x)dx 2 x M 1 2 ) f X (x)dx. 2 Łatwo zauważyć, że jeden z członów odpowiada za bład ziarnisty, a drugi za bład nadmiaru. Co się stanie jak wariancja nie będzie dobrze określona?

112 Kwantyzator równomierny, rozkład niejednostajny (4)

113 Kwantyzator nierównomierny

114 Rodzaje kwantyzatorów skalarnych Kwantyzacja adaptacyjna

115 Rodzaje kwantyzatorów skalarnych Kwantyzacja adaptacyjna Dostosowanie kwantyzatora do statystyk danych wejściowych.

116 Rodzaje kwantyzatorów skalarnych Kwantyzacja adaptacyjna Dostosowanie kwantyzatora do statystyk danych wejściowych. Kwantyzacja adaptacyjna w przód dane dzielone na bloki, bloki analizowane i kwantyzowane osobno, przesyłamy dodatkowe informacje o rodzaju kwantyzacji.

117 Rodzaje kwantyzatorów skalarnych Kwantyzacja adaptacyjna Dostosowanie kwantyzatora do statystyk danych wejściowych. Kwantyzacja adaptacyjna w przód dane dzielone na bloki, bloki analizowane i kwantyzowane osobno, przesyłamy dodatkowe informacje o rodzaju kwantyzacji. Kwantyzacja adaptacyjna wstecz dostosowujemy kwantyzację w oparciu o wyniki kwantyzatora (zmieniamy ilość i wielkość przedziałów kwantyzacji kwantyzator Jayanta).

118 Kwantyzacja adaptacyjna w przód Zakładamy, że wartość średnia wejścia jest równa zero.

119 Kwantyzacja adaptacyjna w przód Zakładamy, że wartość średnia wejścia jest równa zero. Na podstawie bloku N kolejnych próbek (w chwili t) szacujemy wariancję źródła: ˆσ 2 q = 1 N N 1 xt+i 2. i=0

120 Kwantyzacja adaptacyjna w przód Zakładamy, że wartość średnia wejścia jest równa zero. Na podstawie bloku N kolejnych próbek (w chwili t) szacujemy wariancję źródła: ˆσ 2 q = 1 N N 1 xt+i 2. i=0 Przesyłamy (skwantyzowana) informację o wariancji do dekodera.

121 Kwantyzacja adaptacyjna wstecz kwantyzator Jayanta Do zmiany kwantyzatora wykorzystujemy wcześniejsze dane (w postaci skwantyzowanej).

122 Kwantyzacja adaptacyjna wstecz kwantyzator Jayanta Do zmiany kwantyzatora wykorzystujemy wcześniejsze dane (w postaci skwantyzowanej). Każdy przedział ma przypisany mnożnik (M k ).

123 Kwantyzacja adaptacyjna wstecz kwantyzator Jayanta Do zmiany kwantyzatora wykorzystujemy wcześniejsze dane (w postaci skwantyzowanej). Każdy przedział ma przypisany mnożnik (M k ). Mnożniki przedziałów wewnętrznych < 1 a zewnętrznych > 1.

124 Kwantyzacja adaptacyjna wstecz kwantyzator Jayanta Do zmiany kwantyzatora wykorzystujemy wcześniejsze dane (w postaci skwantyzowanej). Każdy przedział ma przypisany mnożnik (M k ). Mnożniki przedziałów wewnętrznych < 1 a zewnętrznych > 1. Jeżeli w kroku n 1 próbka wpadła do przedziału l(n a) to parametr dla następnego kroku obliczamy jako: n = M l(n 1) n 1.

125 Kwantyzacja adaptacyjna wstecz kwantyzator Jayanta Do zmiany kwantyzatora wykorzystujemy wcześniejsze dane (w postaci skwantyzowanej). Każdy przedział ma przypisany mnożnik (M k ). Mnożniki przedziałów wewnętrznych < 1 a zewnętrznych > 1. Jeżeli w kroku n 1 próbka wpadła do przedziału l(n a) to parametr dla następnego kroku obliczamy jako: n = M l(n 1) n 1. Jeżeli wejście jest dobrze dopasowane, to iloczyn kolejnych współczynników powinien być równy zero.

126 Poziomy wyjściowe kwantyzatora Jayanta

127 Kwantyzacja z kompanderem Problem: znamy rozkład, ale chcemy uprościć proces kwantyzacji (kwantyzator jednostajny)

128 Kwantyzacja z kompanderem Problem: znamy rozkład, ale chcemy uprościć proces kwantyzacji (kwantyzator jednostajny) Rozwiazanie:

129 Kwantyzacja z kompanderem Problem: znamy rozkład, ale chcemy uprościć proces kwantyzacji (kwantyzator jednostajny) Rozwiazanie: Przed kwantyzacja przekształcamy dane wejściowe za pomoca pewnej funkcji.

130 Kwantyzacja z kompanderem Problem: znamy rozkład, ale chcemy uprościć proces kwantyzacji (kwantyzator jednostajny) Rozwiazanie: Przed kwantyzacja przekształcamy dane wejściowe za pomoca pewnej funkcji. Po rekonstrukcji przekształcamy wartości zrekonstruowane za pomoca funkcji odwrotnej.

131 Kompresor, kwantyzator jednorodny i expander

Kompresja danych DKDA (7)

Kompresja danych DKDA (7) Kompresja danych DKDA (7) Marcin Gogolewski marcing@wmi.amu.edu.pl Uniwersytet im. Adama Mickiewicza w Poznaniu Poznań, 22 listopada 2016 1 Kwantyzacja skalarna Wprowadzenie Analiza jakości Typy kwantyzatorów

Bardziej szczegółowo

Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11,

Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11, 1 Kwantyzacja skalarna Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11, 10.05.005 Kwantyzacja polega na reprezentowaniu dużego zbioru wartości (być może nieskończonego) za pomocą wartości

Bardziej szczegółowo

Kwantyzacja wektorowa. Kodowanie różnicowe.

Kwantyzacja wektorowa. Kodowanie różnicowe. Kwantyzacja wektorowa. Kodowanie różnicowe. Kodowanie i kompresja informacji - Wykład 7 12 kwietnia 2010 Kwantyzacja wektorowa wprowadzenie Zamiast kwantyzować pojedyncze elementy kwantyzujemy całe bloki

Bardziej szczegółowo

Kodowanie i kompresja Streszczenie Studia dzienne Wykład 12,

Kodowanie i kompresja Streszczenie Studia dzienne Wykład 12, 1 Kompresja stratna Kodowanie i kompresja Streszczenie Studia dzienne Wykład 12, 5.05.2005 Algorytmy kompresji bezstratnej oceniane są ze względu na: stopień kompresji; czas działania procesu kodowania

Bardziej szczegółowo

Kwantowanie sygnałów analogowych na przykładzie sygnału mowy

Kwantowanie sygnałów analogowych na przykładzie sygnału mowy Kwantowanie sygnałów analogowych na przykładzie sygnału mowy Treść wykładu: Sygnał mowy i jego właściwości Kwantowanie skalarne: kwantyzator równomierny, nierównomierny, adaptacyjny Zastosowanie w koderze

Bardziej szczegółowo

Wydział Elektryczny. Katedra Telekomunikacji i Aparatury Elektronicznej. Instrukcja do pracowni specjalistycznej

Wydział Elektryczny. Katedra Telekomunikacji i Aparatury Elektronicznej. Instrukcja do pracowni specjalistycznej Politechnika Białostocka Wydział Elektryczny Katedra Telekomunikacji i Aparatury Elektronicznej Instrukcja do pracowni specjalistycznej Temat ćwiczenia: Badanie własności koderów PCM zastosowanych do sygnałów

Bardziej szczegółowo

Kompresja danych Streszczenie Studia Dzienne Wykład 10,

Kompresja danych Streszczenie Studia Dzienne Wykład 10, 1 Kwantyzacja wektorowa Kompresja danych Streszczenie Studia Dzienne Wykład 10, 28.04.2006 Kwantyzacja wektorowa: dane dzielone na bloki (wektory), każdy blok kwantyzowany jako jeden element danych. Ogólny

Bardziej szczegółowo

mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. GOLOMBA I RICE'A

mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. GOLOMBA I RICE'A mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. KOMPRESJA ALGORYTMEM ARYTMETYCZNYM, GOLOMBA I RICE'A Idea algorytmu arytmetycznego Przykład kodowania arytmetycznego Renormalizacja

Bardziej szczegółowo

Kodowanie podpasmowe. Plan 1. Zasada 2. Filtry cyfrowe 3. Podstawowy algorytm 4. Zastosowania

Kodowanie podpasmowe. Plan 1. Zasada 2. Filtry cyfrowe 3. Podstawowy algorytm 4. Zastosowania Kodowanie podpasmowe Plan 1. Zasada 2. Filtry cyfrowe 3. Podstawowy algorytm 4. Zastosowania Zasada ogólna Rozkład sygnału źródłowego na części składowe (jak w kodowaniu transformacyjnym) Wada kodowania

Bardziej szczegółowo

Kompresja Danych. Streszczenie Studia Dzienne Wykład 13, f(t) = c n e inω0t, T f(t)e inω 0t dt.

Kompresja Danych. Streszczenie Studia Dzienne Wykład 13, f(t) = c n e inω0t, T f(t)e inω 0t dt. 1 Kodowanie podpasmowe Kompresja Danych Streszczenie Studia Dzienne Wykład 13, 18.05.2006 1.1 Transformaty, próbkowanie i filtry Korzystamy z faktów: Każdą funkcję okresową można reprezentować w postaci

Bardziej szczegółowo

Weryfikacja hipotez statystycznych

Weryfikacja hipotez statystycznych Weryfikacja hipotez statystycznych Hipoteza Test statystyczny Poziom istotności Testy jednostronne i dwustronne Testowanie równości wariancji test F-Fishera Testowanie równości wartości średnich test t-studenta

Bardziej szczegółowo

Kody Tunstalla. Kodowanie arytmetyczne

Kody Tunstalla. Kodowanie arytmetyczne Kody Tunstalla. Kodowanie arytmetyczne Kodowanie i kompresja informacji - Wykład 3 8 marca 2010 Kody Tunstalla Wszystkie słowa kodowe maja ta sama długość ale jeden kod może kodować różna liczbę liter

Bardziej szczegółowo

Kompresja Kodowanie arytmetyczne. Dariusz Sobczuk

Kompresja Kodowanie arytmetyczne. Dariusz Sobczuk Kompresja Kodowanie arytmetyczne Dariusz Sobczuk Kodowanie arytmetyczne (lata 1960-te) Pierwsze prace w tym kierunku sięgają początków lat 60-tych XX wieku Pierwszy algorytm Eliasa nie został opublikowany

Bardziej szczegółowo

Metody Rozmyte i Algorytmy Ewolucyjne

Metody Rozmyte i Algorytmy Ewolucyjne mgr inż. Wydział Matematyczno-Przyrodniczy Szkoła Nauk Ścisłych Uniwersytet Kardynała Stefana Wyszyńskiego Podstawowe operatory genetyczne Plan wykładu Przypomnienie 1 Przypomnienie Metody generacji liczb

Bardziej szczegółowo

Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Elektroniki

Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Elektroniki Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Elektroniki Przetwarzanie Sygnałów Studia Podyplomowe, Automatyka i Robotyka. Wstęp teoretyczny Zmienne losowe Zmienne losowe

Bardziej szczegółowo

Kompresja dźwięku w standardzie MPEG-1

Kompresja dźwięku w standardzie MPEG-1 mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 7, strona 1. Kompresja dźwięku w standardzie MPEG-1 Ogólne założenia kompresji stratnej Zjawisko maskowania psychoakustycznego Schemat blokowy

Bardziej szczegółowo

Założenia i obszar zastosowań. JPEG - algorytm kodowania obrazu. Geneza algorytmu KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG

Założenia i obszar zastosowań. JPEG - algorytm kodowania obrazu. Geneza algorytmu KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG Założenia i obszar zastosowań KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG Plan wykładu: Geneza algorytmu Założenia i obszar zastosowań JPEG kroki algorytmu kodowania obrazu Założenia: Obraz monochromatyczny

Bardziej szczegółowo

Kwantyzacja wektorowa. Plan 1. Zasada działania 2. Projektowanie. Algorytm LBG 3. Kwantyzatory strukturalne 4. Modyfikacje

Kwantyzacja wektorowa. Plan 1. Zasada działania 2. Projektowanie. Algorytm LBG 3. Kwantyzatory strukturalne 4. Modyfikacje Kwantyzacja wektorowa Plan 1. Zasada działania 2. Projektowanie. Algorytm LBG 3. Kwantyzatory strukturalne 4. Modyfikacje Zasada kwantyzacji wektorowej Kwantyzacja skalarna koduje oddzielnie kaŝdą próbkę

Bardziej szczegółowo

Transformaty. Kodowanie transformujace

Transformaty. Kodowanie transformujace Transformaty. Kodowanie transformujace Kodowanie i kompresja informacji - Wykład 10 10 maja 2009 Szeregi Fouriera Każda funkcję okresowa f (t) o okresie T można zapisać jako f (t) = a 0 + a n cos nω 0

Bardziej szczegółowo

Transformata Fouriera

Transformata Fouriera Transformata Fouriera Program wykładu 1. Wprowadzenie teoretyczne 2. Algorytm FFT 3. Zastosowanie analizy Fouriera 4. Przykłady programów Wprowadzenie teoretyczne Zespolona transformata Fouriera Jeżeli

Bardziej szczegółowo

Podstawowe funkcje przetwornika C/A

Podstawowe funkcje przetwornika C/A ELEKTRONIKA CYFROWA PRZETWORNIKI CYFROWO-ANALOGOWE I ANALOGOWO-CYFROWE Literatura: 1. Rudy van de Plassche: Scalone przetworniki analogowo-cyfrowe i cyfrowo-analogowe, WKŁ 1997 2. Marian Łakomy, Jan Zabrodzki:

Bardziej szczegółowo

Akwizycja obrazów. Zagadnienia wstępne

Akwizycja obrazów. Zagadnienia wstępne Akwizycja obrazów. Zagadnienia wstępne Wykorzystane materiały: R. Tadeusiewicz, P. Korohoda, Komputerowa analiza i przetwarzanie obrazów, Wyd. FPT, Kraków, 1997 A. Przelaskowski, Techniki Multimedialne,

Bardziej szczegółowo

Sposoby opisu i modelowania zakłóceń kanałowych

Sposoby opisu i modelowania zakłóceń kanałowych INSTYTUT TELEKOMUNIKACJI ZAKŁAD RADIOKOMUNIKACJI Instrukcja laboratoryjna z przedmiotu Podstawy Telekomunikacji Sposoby opisu i modelowania zakłóceń kanałowych Warszawa 2010r. 1. Cel ćwiczeń: Celem ćwiczeń

Bardziej szczegółowo

Kodowanie transformacyjne. Plan 1. Zasada 2. Rodzaje transformacji 3. Standard JPEG

Kodowanie transformacyjne. Plan 1. Zasada 2. Rodzaje transformacji 3. Standard JPEG Kodowanie transformacyjne Plan 1. Zasada 2. Rodzaje transformacji 3. Standard JPEG Zasada Zasada podstawowa: na danych wykonujemy transformacje która: Likwiduje korelacje Skupia energię w kilku komponentach

Bardziej szczegółowo

Teoria przetwarzania A/C i C/A.

Teoria przetwarzania A/C i C/A. Teoria przetwarzania A/C i C/A. Autor: Bartłomiej Gorczyński Cyfrowe metody przetwarzania sygnałów polegają na przetworzeniu badanego sygnału analogowego w sygnał cyfrowy reprezentowany ciągiem słów binarnych

Bardziej szczegółowo

PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA. Piotr Wiącek

PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA. Piotr Wiącek PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA Piotr Wiącek ROZKŁAD PRAWDOPODOBIEŃSTWA Jest to miara probabilistyczna określona na σ-ciele podzbiorów borelowskich pewnej przestrzeni metrycznej. σ-ciało podzbiorów

Bardziej szczegółowo

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa Spis treści Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa Romuald Kotowski Katedra Informatyki Stosowanej PJWSTK 2009 Spis treści Spis treści 1 Wstęp Bardzo często interesujący

Bardziej szczegółowo

Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9,

Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9, 1 Kody Tunstalla Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9, 14.04.2005 Inne podejście: słowa kodowe mają ustaloną długość, lecz mogą kodować ciągi liter z alfabetu wejściowego o różnej

Bardziej szczegółowo

Wybrane rozkłady zmiennych losowych. Statystyka

Wybrane rozkłady zmiennych losowych. Statystyka Wybrane rozkłady zmiennych losowych Statystyka Rozkład dwupunktowy Zmienna losowa przyjmuje tylko dwie wartości: wartość 1 z prawdopodobieństwem p i wartość 0 z prawdopodobieństwem 1- p x i p i 0 1-p 1

Bardziej szczegółowo

Andrzej Leśnicki Laboratorium CPS Ćwiczenie 9 1/5 ĆWICZENIE 9. Kwantowanie sygnałów

Andrzej Leśnicki Laboratorium CPS Ćwiczenie 9 1/5 ĆWICZENIE 9. Kwantowanie sygnałów Andrzej Leśnicki Laboratorium CP Ćwiczenie 9 1/5 ĆWICZEIE 9 Kwantowanie sygnałów 1. Cel ćwiczenia ygnał przesyłany w cyfrowym torze transmisyjnym lub przetwarzany w komputerze (procesorze sygnałowym) musi

Bardziej szczegółowo

METODY BADAŃ NA ZWIERZĘTACH ze STATYSTYKĄ wykład 3-4. Parametry i wybrane rozkłady zmiennych losowych

METODY BADAŃ NA ZWIERZĘTACH ze STATYSTYKĄ wykład 3-4. Parametry i wybrane rozkłady zmiennych losowych METODY BADAŃ NA ZWIERZĘTACH ze STATYSTYKĄ wykład - Parametry i wybrane rozkłady zmiennych losowych Parametry zmiennej losowej EX wartość oczekiwana D X wariancja DX odchylenie standardowe inne, np. kwantyle,

Bardziej szczegółowo

teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015

teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015 teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015 1 wczoraj Wprowadzenie matematyczne. Entropia i informacja. Kodowanie. Kod ASCII. Stopa kodu. Kody bezprefiksowe.

Bardziej szczegółowo

Przygotowała: prof. Bożena Kostek

Przygotowała: prof. Bożena Kostek Przygotowała: prof. Bożena Kostek Ze względu na dużą rozpiętość mierzonych wartości ciśnienia (zakres ciśnień akustycznych obejmuje blisko siedem rzędów wartości: od 2x10 5 Pa do ponad 10 Pa) wygodniej

Bardziej szczegółowo

Wybrane metody kompresji obrazów

Wybrane metody kompresji obrazów Wybrane metody kompresji obrazów Celem kodowania kompresyjnego obrazu jest redukcja ilości informacji w nim zawartej. Redukcja ta polega na usuwaniu informacji nadmiarowej w obrazie, tzw. redundancji.

Bardziej szczegółowo

1.5. Sygnały. Sygnał- jest modelem zmian w czasie pewnej wielkości fizycznej lub stanu obiektu fizycznego

1.5. Sygnały. Sygnał- jest modelem zmian w czasie pewnej wielkości fizycznej lub stanu obiektu fizycznego Sygnał- jest modelem zmian w czasie pewnej wielkości fizycznej lub stanu obiektu fizycznego Za pomocąsygnałów przekazywana jest informacja. Sygnałjest nośnikiem informacji. Za pomocą sygnału moŝna: badać

Bardziej szczegółowo

Technika audio część 2

Technika audio część 2 Technika audio część 2 Wykład 12 Projektowanie cyfrowych układów elektronicznych Mgr inż. Łukasz Kirchner lukasz.kirchner@cs.put.poznan.pl http://www.cs.put.poznan.pl/lkirchner Wprowadzenie do filtracji

Bardziej szczegółowo

Ważne rozkłady i twierdzenia c.d.

Ważne rozkłady i twierdzenia c.d. Ważne rozkłady i twierdzenia c.d. Funkcja charakterystyczna rozkładu Wielowymiarowy rozkład normalny Elipsa kowariacji Sploty rozkładów Rozkłady jednostajne Sploty z rozkładem normalnym Pobieranie próby

Bardziej szczegółowo

Wybrane rozkłady zmiennych losowych. Statystyka

Wybrane rozkłady zmiennych losowych. Statystyka Wybrane rozkłady zmiennych losowych Statystyka Rozkład dwupunktowy Zmienna losowa przyjmuje tylko dwie wartości: wartość 1 z prawdopodobieństwem p i wartość 0 z prawdopodobieństwem 1- p x i p i 0 1-p 1

Bardziej szczegółowo

Wprowadzenie do technologii HDR

Wprowadzenie do technologii HDR Wprowadzenie do technologii HDR Konwersatorium 2 - inspiracje biologiczne mgr inż. Krzysztof Szwarc krzysztof@szwarc.net.pl Sosnowiec, 5 marca 2018 1 / 26 mgr inż. Krzysztof Szwarc Wprowadzenie do technologii

Bardziej szczegółowo

Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna.

Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna. Wykład 4 Rozkłady i ich dystrybuanty Dwa typy zmiennych losowych Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x, x 2,...}, to mówimy, że jest to zmienna dyskretna.

Bardziej szczegółowo

Parametryzacja obrazu na potrzeby algorytmów decyzyjnych

Parametryzacja obrazu na potrzeby algorytmów decyzyjnych Parametryzacja obrazu na potrzeby algorytmów decyzyjnych Piotr Dalka Wprowadzenie Z reguły nie stosuje się podawania na wejście algorytmów decyzyjnych bezpośrednio wartości pikseli obrazu Obraz jest przekształcany

Bardziej szczegółowo

Python: JPEG. Zadanie. 1. Wczytanie obrazka

Python: JPEG. Zadanie. 1. Wczytanie obrazka Python: JPEG Witajcie! Jest to kolejny z serii tutoriali uczący Pythona, a w przyszłości być może nawet Cythona i Numby Jeśli chcesz nauczyć się nowych, zaawansowanych konstrukcji to spróbuj rozwiązać

Bardziej szczegółowo

teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015

teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015 teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015 1 zakres materiału zakres materiału 1. Czym jest teoria informacji? 2. Wprowadzenie matematyczne. 3. Entropia i informacja.

Bardziej szczegółowo

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Niech Ω będzie przestrzenią zdarzeń elementarnych. Definicja 1 Rodzinę S zdarzeń losowych (zbiór S podzbiorów zbioru

Bardziej szczegółowo

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Wykład 10 Mapa cech Kohonena i jej modyfikacje - uczenie sieci samoorganizujących się - kwantowanie wektorowe

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska. SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska INFORMACJE WSTĘPNE Hipotezy do uczenia się lub tworzenia

Bardziej szczegółowo

Granica kompresji Kodowanie Shannona Kodowanie Huffmana Kodowanie ciągów Kodowanie arytmetyczne. Kody. Marek Śmieja. Teoria informacji 1 / 35

Granica kompresji Kodowanie Shannona Kodowanie Huffmana Kodowanie ciągów Kodowanie arytmetyczne. Kody. Marek Śmieja. Teoria informacji 1 / 35 Kody Marek Śmieja Teoria informacji 1 / 35 Entropia Entropia określa minimalną statystyczną długość kodowania (przyjmijmy dla prostoty że alfabet kodowy A = {0, 1}). Definicja Niech X = {x 1,..., x n }

Bardziej szczegółowo

Przekształcenia widmowe Transformata Fouriera. Adam Wojciechowski

Przekształcenia widmowe Transformata Fouriera. Adam Wojciechowski Przekształcenia widmowe Transformata Fouriera Adam Wojciechowski Przekształcenia widmowe Odmiana przekształceń kontekstowych, w których kontekstem jest w zasadzie cały obraz. Za pomocą transformaty Fouriera

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład VII: Metody specjalne Monte Carlo 24 listopada 2014 Transformacje specjalne Przykład - symulacja rozkładu geometrycznego Niech X Ex(λ). Rozważmy zmienną losową [X ], która przyjmuje wartości naturalne.

Bardziej szczegółowo

Matematyka dyskretna. Andrzej Łachwa, UJ, /15

Matematyka dyskretna. Andrzej Łachwa, UJ, /15 Matematyka dyskretna Andrzej Łachwa, UJ, 2013 andrzej.lachwa@uj.edu.pl 7/15 Rachunek różnicowy Dobrym narzędziem do obliczania skończonych sum jest rachunek różnicowy. W rachunku tym odpowiednikiem operatora

Bardziej szczegółowo

Kwantyle. Kwantyl rzędu p rozkładu prawdopodobieństwa to taka liczba x p. , że. Możemy go obliczyć z dystrybuanty: P(X x p.

Kwantyle. Kwantyl rzędu p rozkładu prawdopodobieństwa to taka liczba x p. , że. Możemy go obliczyć z dystrybuanty: P(X x p. Kwantyle Kwantyl rzędu p rozkładu prawdopodobieństwa to taka liczba x p, że P(X x p ) p P(X x p ) 1 p Możemy go obliczyć z dystrybuanty: Jeżeli F(x p ) = p, to x p jest kwantylem rzędu p Jeżeli F(x p )

Bardziej szczegółowo

Joint Photographic Experts Group

Joint Photographic Experts Group Joint Photographic Experts Group Artur Drozd Uniwersytet Jagielloński 14 maja 2010 1 Co to jest JPEG? Dlaczego powstał? 2 Transformata Fouriera 3 Dyskretna transformata kosinusowa (DCT-II) 4 Kodowanie

Bardziej szczegółowo

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory Dr Anna ADRIAN Paw B5, pok 407 adrian@tempus.metal.agh.edu.pl

Bardziej szczegółowo

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki WYKŁAD 6 Witold Bednorz, Paweł Wolff 1 Instytut Matematyki Uniwersytet Warszawski Rachunek Prawdopodobieństwa, WNE, 2010-2011 Własności Wariancji Przypomnijmy, że VarX = E(X EX) 2 = EX 2 (EX) 2. Własności

Bardziej szczegółowo

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014 Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014 Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe

Bardziej szczegółowo

Fuzja sygnałów i filtry bayesowskie

Fuzja sygnałów i filtry bayesowskie Fuzja sygnałów i filtry bayesowskie Roboty Manipulacyjne i Mobilne dr inż. Janusz Jakubiak Katedra Cybernetyki i Robotyki Wydział Elektroniki, Politechnika Wrocławska Wrocław, 10.03.2015 Dlaczego potrzebna

Bardziej szczegółowo

Układy stochastyczne

Układy stochastyczne Instytut Informatyki Uniwersytetu Śląskiego 21 stycznia 2009 Definicja Definicja Proces stochastyczny to funkcja losowa, czyli funkcja matematyczna, której wartości leżą w przestrzeni zdarzeń losowych.

Bardziej szczegółowo

Temat: Algorytm kompresji plików metodą Huffmana

Temat: Algorytm kompresji plików metodą Huffmana Temat: Algorytm kompresji plików metodą Huffmana. Wymagania dotyczące kompresji danych Przez M oznaczmy zbiór wszystkich możliwych symboli występujących w pliku (alfabet pliku). Przykład M = 2, gdy plik

Bardziej szczegółowo

III. ZMIENNE LOSOWE JEDNOWYMIAROWE

III. ZMIENNE LOSOWE JEDNOWYMIAROWE III. ZMIENNE LOSOWE JEDNOWYMIAROWE.. Zmienna losowa i pojęcie rozkładu prawdopodobieństwa W dotychczas rozpatrywanych przykładach każdemu zdarzeniu była przyporządkowana odpowiednia wartość liczbowa. Ta

Bardziej szczegółowo

Statystyka i eksploracja danych

Statystyka i eksploracja danych Wykład II: i charakterystyki ich rozkładów 24 lutego 2014 Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa,

Bardziej szczegółowo

Rachunek Prawdopodobieństwa i Statystyka

Rachunek Prawdopodobieństwa i Statystyka Rachunek Prawdopodobieństwa i Statystyka W 2. Probabilistyczne modele danych Zmienne losowe. Rozkład prawdopodobieństwa i dystrybuanta. Wartość oczekiwana i wariancja zmiennej losowej Dr Anna ADRIAN Zmienne

Bardziej szczegółowo

Teoria Informacji - wykład. Kodowanie wiadomości

Teoria Informacji - wykład. Kodowanie wiadomości Teoria Informacji - wykład Kodowanie wiadomości Definicja kodu Niech S={s 1, s 2,..., s q } oznacza dany zbiór elementów. Kodem nazywamy wówczas odwzorowanie zbioru wszystkich możliwych ciągów utworzonych

Bardziej szczegółowo

i=7 X i. Zachodzi EX i = P(X i = 1) = 1 2, i {1, 2,..., 11} oraz EX ix j = P(X i = 1, X j = 1) = 1 7 VarS 2 2 = 14 3 ( 5 2 =

i=7 X i. Zachodzi EX i = P(X i = 1) = 1 2, i {1, 2,..., 11} oraz EX ix j = P(X i = 1, X j = 1) = 1 7 VarS 2 2 = 14 3 ( 5 2 = Kombinatoryka W tej serii zadań można znaleźć pojawiające się na egzaminach zadania dotyczące problemu wyznaczania prostych parametrów rozkładu w przypadku zgadnień kombinatorycznych. Zadania te wymagają

Bardziej szczegółowo

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa Agata Boratyńska Agata Boratyńska Rachunek prawdopodobieństwa, wykład 2 i 3 1 / 19 Zmienna losowa Definicja Dana jest przestrzeń probabilistyczna

Bardziej szczegółowo

Przestrzeń probabilistyczna

Przestrzeń probabilistyczna Przestrzeń probabilistyczna (Ω, Σ, P) Ω pewien niepusty zbiór Σ rodzina podzbiorów tego zbioru P funkcja określona na Σ, zwana prawdopodobieństwem. Przestrzeń probabilistyczna (Ω, Σ, P) Ω pewien niepusty

Bardziej szczegółowo

Metody probabilistyczne

Metody probabilistyczne Metody probabilistyczne. Twierdzenia graniczne Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 20.2.208 / 26 Motywacja Rzucamy wielokrotnie uczciwą monetą i zliczamy

Bardziej szczegółowo

Klasyfikacja w oparciu o metrykę budowaną poprzez dystrybuanty empiryczne na przestrzeni wzorców uczących

Klasyfikacja w oparciu o metrykę budowaną poprzez dystrybuanty empiryczne na przestrzeni wzorców uczących Klasyfikacja w oparciu o metrykę budowaną poprzez dystrybuanty empiryczne na przestrzeni wzorców uczących Cezary Dendek Wydział Matematyki i Nauk Informacyjnych PW Plan prezentacji Plan prezentacji Wprowadzenie

Bardziej szczegółowo

PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA

PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA 1. Trójkę (Ω, F, P ), gdzie Ω, F jest σ-ciałem podzbiorów Ω, a P jest prawdopodobieństwem określonym na F, nazywamy przestrzenią probabilistyczną. 2. Rodzinę F

Bardziej szczegółowo

LABORATORIUM PODSTAW TELEKOMUNIKACJI

LABORATORIUM PODSTAW TELEKOMUNIKACJI WOJSKOWA AKADEMIA TECHNICZNA im. Jarosława Dąbrowskiego w Warszawie Wydział Elektroniki LABORATORIUM PODSTAW TELEKOMUNIKACJI Grupa Podgrupa Data wykonania ćwiczenia Ćwiczenie prowadził... Skład podgrupy:

Bardziej szczegółowo

Cyfrowe przetwarzanie obrazów i sygnałów Wykład 2 AiR III

Cyfrowe przetwarzanie obrazów i sygnałów Wykład 2 AiR III 1 Niniejszy dokument zawiera materiały do wykładu z przedmiotu Cyfrowe Przetwarzanie Obrazów i Sygnałów. Jest on udostępniony pod warunkiem wykorzystania wyłącznie do własnych, prywatnych potrzeb i może

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład VII: Rozkład i jego charakterystyki 22 listopada 2016 Uprzednio wprowadzone pojęcia i ich własności Definicja zmiennej losowej Zmienna losowa na przestrzeni probabilistycznej (Ω, F, P) to funkcja

Bardziej szczegółowo

Kodowanie Huffmana. Platforma programistyczna.net; materiały do laboratorium 2014/15 Marcin Wilczewski

Kodowanie Huffmana. Platforma programistyczna.net; materiały do laboratorium 2014/15 Marcin Wilczewski Kodowanie Huffmana Platforma programistyczna.net; materiały do laboratorium 24/5 Marcin Wilczewski Algorytm Huffmana (David Huffman, 952) Algorytm Huffmana jest popularnym algorytmem generującym optymalny

Bardziej szczegółowo

Wykład 3 Równania rózniczkowe cd

Wykład 3 Równania rózniczkowe cd 7 grudnia 2010 Definicja Równanie różniczkowe dy dx + p (x) y = q (x) (1) nazywamy równaniem różniczkowym liniowym pierwszego rzędu. Jeśli q (x) 0, to równanie (1) czyli równanie dy dx + p (x) y = 0 nazywamy

Bardziej szczegółowo

Kodowanie transformujace. Kompresja danych. Tomasz Jurdziński. Wykład 11: Transformaty i JPEG

Kodowanie transformujace. Kompresja danych. Tomasz Jurdziński. Wykład 11: Transformaty i JPEG Tomasz Wykład 11: Transformaty i JPEG Idea kodowania transformujacego Etapy kodowania 1 Wektor danych x 0,...,x N 1 przekształcamy (odwracalnie!) na wektor c 0,...,c N 1, tak aby: energia była skoncentrowana

Bardziej szczegółowo

Rozkłady i ich dystrybuanty 16 marca F X (t) = P (X < t) 0, gdy t 0, F X (t) = 1, gdy t > c, 0, gdy t x 1, 1, gdy t > x 2,

Rozkłady i ich dystrybuanty 16 marca F X (t) = P (X < t) 0, gdy t 0, F X (t) = 1, gdy t > c, 0, gdy t x 1, 1, gdy t > x 2, Wykład 4. Rozkłady i ich dystrybuanty 6 marca 2007 Jak opisać cały rozkład jedną funkcją? Aby znać rozkład zmiennej X, musimy umieć obliczyć P (a < X < b) dla dowolnych a < b. W tym celu wystarczy znać

Bardziej szczegółowo

Aproksymacja funkcji a regresja symboliczna

Aproksymacja funkcji a regresja symboliczna Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(x), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(x), zwaną funkcją aproksymującą

Bardziej szczegółowo

Według raportu ISO z 1988 roku algorytm JPEG składa się z następujących kroków: 0.5, = V i, j. /Q i, j

Według raportu ISO z 1988 roku algorytm JPEG składa się z następujących kroków: 0.5, = V i, j. /Q i, j Kompresja transformacyjna. Opis standardu JPEG. Algorytm JPEG powstał w wyniku prac prowadzonych przez grupę ekspertów (ang. Joint Photographic Expert Group). Prace te zakończyły się w 1991 roku, kiedy

Bardziej szczegółowo

P (A B) = P (A), P (B) = P (A), skąd P (A B) = P (A) P (B). P (A)

P (A B) = P (A), P (B) = P (A), skąd P (A B) = P (A) P (B). P (A) Wykład 3 Niezależność zdarzeń, schemat Bernoulliego Kiedy dwa zdarzenia są niezależne? Gdy wiedza o tym, czy B zaszło, czy nie, NIE MA WPŁYWU na oszacowanie prawdopodobieństwa zdarzenia A: P (A B) = P

Bardziej szczegółowo

Ważne rozkłady i twierdzenia

Ważne rozkłady i twierdzenia Ważne rozkłady i twierdzenia Rozkład dwumianowy i wielomianowy Częstość. Prawo wielkich liczb Rozkład hipergeometryczny Rozkład Poissona Rozkład normalny i rozkład Gaussa Centralne twierdzenie graniczne

Bardziej szczegółowo

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski Modelowanie zależności pomiędzy zmiennymi losowymi Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski P Zmienne losowe niezależne - przypomnienie Dwie rzeczywiste zmienne losowe X i Y

Bardziej szczegółowo

Podstawowe pojęcia. Teoria informacji

Podstawowe pojęcia. Teoria informacji Kodowanie i kompresja informacji - Wykład 1 22 luty 2010 Literatura K. Sayood, Kompresja danych - wprowadzenie, READ ME 2002 (ISBN 83-7243-094-2) Literatura K. Sayood, Kompresja danych - wprowadzenie,

Bardziej szczegółowo

Przykładowe zadanie praktyczne

Przykładowe zadanie praktyczne Przykładowe zadanie praktyczne Opracuj projekt realizacji prac związanych z uruchomieniem i testowaniem kodera i dekodera PCM z układem scalonym MC 145502 zgodnie z zaleceniami CCITT G.721 (załączniki

Bardziej szczegółowo

Ponieważ zakres zmian ciśnień fal akustycznych odbieranych przez ucho ludzkie mieści się w przedziale od 2*10-5 Pa do 10 2 Pa,

Ponieważ zakres zmian ciśnień fal akustycznych odbieranych przez ucho ludzkie mieści się w przedziale od 2*10-5 Pa do 10 2 Pa, Poziom dźwięku Decybel (db) jest jednostką poziomu; Ponieważ zakres zmian ciśnień fal akustycznych odbieranych przez ucho ludzkie mieści się w przedziale od 2*10-5 Pa do 10 2 Pa, co obejmuje 8 rzędów wielkości

Bardziej szczegółowo

Micha Strzelecki Metody przetwarzania i analizy obrazów biomedycznych (2)

Micha Strzelecki Metody przetwarzania i analizy obrazów biomedycznych (2) Micha Strzelecki Metody przetwarzania i analizy obrazów biomedycznych (2) Prezentacja multimedialna współfinansowana przez Unię Europejską w ramach Europejskiego Funduszu Społecznego w projekcie Innowacyjna

Bardziej szczegółowo

AKADEMIA GÓRNICZO-HUTNICZA Wydział Matematyki Stosowanej ROZKŁAD NORMALNY ROZKŁAD GAUSSA

AKADEMIA GÓRNICZO-HUTNICZA Wydział Matematyki Stosowanej ROZKŁAD NORMALNY ROZKŁAD GAUSSA AKADEMIA GÓRNICZO-HUTNICZA Wydział Matematyki Stosowanej KATEDRA MATEMATYKI TEMAT PRACY: ROZKŁAD NORMALNY ROZKŁAD GAUSSA AUTOR: BARBARA MARDOSZ Kraków, styczeń 2008 Spis treści 1 Wprowadzenie 2 2 Definicja

Bardziej szczegółowo

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych 1. [E.A 5.10.1996/zad.4] Funkcja gęstości dana jest wzorem { 3 x + 2xy + 1 y dla (x y) (0 1) (0 1) 4 4 P (X > 1 2 Y > 1 2 ) wynosi:

Bardziej szczegółowo

Przetwarzanie analogowo-cyfrowe sygnałów

Przetwarzanie analogowo-cyfrowe sygnałów Przetwarzanie analogowo-cyfrowe sygnałów A/C 111111 1 Po co przekształcać sygnał do postaci cyfrowej? Można stosować komputerowe metody rejestracji, przetwarzania i analizy sygnałów parametry systemów

Bardziej szczegółowo

Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1

Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1 Weryfikacja hipotez statystycznych KG (CC) Statystyka 26 V 2009 1 / 1 Sformułowanie problemu Weryfikacja hipotez statystycznych jest drugą (po estymacji) metodą uogólniania wyników uzyskanych w próbie

Bardziej szczegółowo

0 + 0 = 0, = 1, = 1, = 0.

0 + 0 = 0, = 1, = 1, = 0. 5 Kody liniowe Jak już wiemy, w celu przesłania zakodowanego tekstu dzielimy go na bloki i do każdego z bloków dodajemy tak zwane bity sprawdzające. Bity te są w ścisłej zależności z bitami informacyjnymi,

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład II: Zmienne losowe i charakterystyki ich rozkładów 13 października 2014 Zmienne losowe Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Definicja zmiennej losowej i jej

Bardziej szczegółowo

Inteligentna analiza danych

Inteligentna analiza danych Numer indeksu 150946 Michał Moroz Imię i nazwisko Numer indeksu 150875 Grzegorz Graczyk Imię i nazwisko kierunek: Informatyka rok akademicki: 2010/2011 Inteligentna analiza danych Ćwiczenie I Wskaźniki

Bardziej szczegółowo

Iteracyjne rozwiązywanie równań

Iteracyjne rozwiązywanie równań Elementy metod numerycznych Plan wykładu 1 Wprowadzenie Plan wykładu 1 Wprowadzenie 2 Plan wykładu 1 Wprowadzenie 2 3 Wprowadzenie Metoda bisekcji Metoda siecznych Metoda stycznych Plan wykładu 1 Wprowadzenie

Bardziej szczegółowo

Zadanie 1. Ilość szkód N ma rozkład o prawdopodobieństwach spełniających zależność rekurencyjną:

Zadanie 1. Ilość szkód N ma rozkład o prawdopodobieństwach spełniających zależność rekurencyjną: Zadanie. Ilość szkód N ma rozkład o prawdopodobieństwach spełniających zależność rekurencyjną: Pr Pr ( = k) ( N = k ) N = + k, k =,,,... Jeśli wiemy, że szkód wynosi: k= Pr( N = k) =, to prawdopodobieństwo,

Bardziej szczegółowo

Przekształcenia sygnałów losowych w układach

Przekształcenia sygnałów losowych w układach INSTYTUT TELEKOMUNIKACJI ZAKŁAD RADIOKOMUNIKACJI Instrukcja laboratoryjna z przedmiotu Sygnały i kodowanie Przekształcenia sygnałów losowych w układach Warszawa 010r. 1. Cel ćwiczenia: Ocena wpływu charakterystyk

Bardziej szczegółowo

SMOP - wykład. Rozkład normalny zasady przenoszenia błędów. Ewa Pawelec

SMOP - wykład. Rozkład normalny zasady przenoszenia błędów. Ewa Pawelec SMOP - wykład Rozkład normalny zasady przenoszenia błędów Ewa Pawelec 1 iepewność dla rozkładu norm. Zamiast dodawania całych zakresów uwzględniamy prawdopodobieństwo trafienia dwóch wartości: P x 1, x

Bardziej szczegółowo

W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych:

W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych: W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych: Zmienne losowe skokowe (dyskretne) przyjmujące co najwyżej przeliczalnie wiele wartości Zmienne losowe ciągłe

Bardziej szczegółowo

Akwizycja i przetwarzanie sygnałów cyfrowych

Akwizycja i przetwarzanie sygnałów cyfrowych Akwizycja i przetwarzanie sygnałów cyfrowych Instytut Teleinformatyki ITI PK Kraków 21 luty 2011 Rewolucja cyfrowa i jej skutki Rewolucja cyfrowa - dane cyfrowe: podstawowy rodzaj informacji multimedialnych,

Bardziej szczegółowo

Statystyka matematyczna

Statystyka matematyczna Statystyka matematyczna Wykład 6 Magdalena Alama-Bućko 8 kwietnia 019 Magdalena Alama-Bućko Statystyka matematyczna 8 kwietnia 019 1 / 1 Rozkłady ciagłe Magdalena Alama-Bućko Statystyka matematyczna 8

Bardziej szczegółowo

RÓWNANIA RÓŻNICZKOWE WYKŁAD 2

RÓWNANIA RÓŻNICZKOWE WYKŁAD 2 RÓWNANIA RÓŻNICZKOWE WYKŁAD 2 Równania różniczkowe o zmiennych rozdzielonych Równania sprowadzalne do równań o zmiennych rozdzielonych Niech f będzie funkcją ciągłą na przedziale (a, b), spełniającą na

Bardziej szczegółowo

Spacery losowe generowanie realizacji procesu losowego

Spacery losowe generowanie realizacji procesu losowego Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z

Bardziej szczegółowo