Kwantyzacja wektorowa. Kodowanie różnicowe.

Wielkość: px
Rozpocząć pokaz od strony:

Download "Kwantyzacja wektorowa. Kodowanie różnicowe."

Transkrypt

1 Kwantyzacja wektorowa. Kodowanie różnicowe. Kodowanie i kompresja informacji - Wykład 7 12 kwietnia 2010

2 Kwantyzacja wektorowa wprowadzenie Zamiast kwantyzować pojedyncze elementy kwantyzujemy całe bloki (wektory).

3 Kwantyzacja wektorowa wprowadzenie Zamiast kwantyzować pojedyncze elementy kwantyzujemy całe bloki (wektory). Prowadzi to często do mniejszych zniekształceń.

4 Kwantyzacja wektorowa wprowadzenie Zamiast kwantyzować pojedyncze elementy kwantyzujemy całe bloki (wektory). Prowadzi to często do mniejszych zniekształceń. Szczególnie przydatne w obrazach: podobieństwo całych bloków.

5 Kwantyzacja wektorowa wprowadzenie Zamiast kwantyzować pojedyncze elementy kwantyzujemy całe bloki (wektory). Prowadzi to często do mniejszych zniekształceń. Szczególnie przydatne w obrazach: podobieństwo całych bloków. Jak wybierać reprezentacje wektorów?

6 Miary kwantyzacji (wektorowej) Średniokwadratowy bład kwantyzacji Średnia z kwadratów różnic między wejściem kodera, a wyjściem dekodera. Jeśli Q operacja kwantyzacji i Q(X) = Y i Yi C X Y j X Y i, gdzie C jest słownikiem kwantyzatora, to D = m i=1 V i X Y i 2 f X (X) dx (zniekształcenie liczymy po próbkach, tak jak w przypadku kwantyzacji skalarnej, ciężko to jednak zapisać w postaci ogólnej).

7 Miary kwantyzacji (wektorowej) (2) Średnia bitowa kwantyzatora Średnia liczba bitów potrzebna do reprezentowania jednej danej wynikowej kwantyzatora (wartości rekonstrukcyjnej próbki).

8 Miara kompresji Poziom kompresji Słownik zawiera K elementów, a wektor wejściowy ma wymiar L (liczba elementów w bloku): do zakodowania numeru wybranego wektora potrzebujemy log 2 K bitów,

9 Miara kompresji Poziom kompresji Słownik zawiera K elementów, a wektor wejściowy ma wymiar L (liczba elementów w bloku): do zakodowania numeru wybranego wektora potrzebujemy log 2 K bitów, każdy wektor zawiera rekonstruowane wartości z L próbek (termin próbka oznacza zawsze wartość skalarna, wyniki kwantyzatora sa nazywane poziomami),

10 Miara kompresji Poziom kompresji Słownik zawiera K elementów, a wektor wejściowy ma wymiar L (liczba elementów w bloku): do zakodowania numeru wybranego wektora potrzebujemy log 2 K bitów, każdy wektor zawiera rekonstruowane wartości z L próbek (termin próbka oznacza zawsze wartość skalarna, wyniki kwantyzatora sa nazywane poziomami), zatem: liczba bitów na próbkę wynosi log 2 K L.

11 Przykład

12 Przykład po przeniesieniu punktu

13 Algorytm Linndego-Buza-Graya

14 Algorytm Linndego-Buza-Graya 1 Wybierz dowolnie poczatkowy zbiór rekonstruowanych wartości {Y (0) i } m i=1. Ustal k = 0, D ( 1) = 0. Wybierz próg ε.

15 Algorytm Linndego-Buza-Graya 1 Wybierz dowolnie poczatkowy zbiór rekonstruowanych wartości {Y (0) i } m i=1. Ustal k = 0, D ( 1) = 0. Wybierz próg ε. 2 Znajdź obszary kwantyzacji V (k) i = {X : j i d(x, Y i ) < d(x, Y j )}.

16 Algorytm Linndego-Buza-Graya 1 Wybierz dowolnie poczatkowy zbiór rekonstruowanych wartości {Y (0) i } m i=1. Ustal k = 0, D ( 1) = 0. Wybierz próg ε. 2 Znajdź obszary kwantyzacji V (k) i = {X : j i d(x, Y i ) < d(x, Y j )}. 3 Oblicz zniekształcenie D (k) = m i=1 V (k) i X Y (k) i 2 f X (X) dx.

17 Algorytm Linndego-Buza-Graya 1 Wybierz dowolnie poczatkowy zbiór rekonstruowanych wartości {Y (0) i } m i=1. Ustal k = 0, D ( 1) = 0. Wybierz próg ε. 2 Znajdź obszary kwantyzacji V (k) i = {X : j i d(x, Y i ) < d(x, Y j )}. 3 Oblicz zniekształcenie D (k) = m i=1 4 Jeśli D(k) D (k 1) D (k) V (k) i X Y (k) i 2 f X (X) dx. < ε zakończ obliczenia.

18 Algorytm Linndego-Buza-Graya 1 Wybierz dowolnie poczatkowy zbiór rekonstruowanych wartości {Y (0) i } m i=1. Ustal k = 0, D ( 1) = 0. Wybierz próg ε. 2 Znajdź obszary kwantyzacji V (k) i = {X : j i d(x, Y i ) < d(x, Y j )}. 3 Oblicz zniekształcenie D (k) = m i=1 4 Jeśli D(k) D (k 1) D (k) V (k) i X Y (k) i 2 f X (X) dx. < ε zakończ obliczenia. } m i=1 5 Przyjmij k k + 1. Za nowe {Y (k) i ciężkości {V (k 1) i }. Wróć do kroku 2. przyjmij środki

19 Algorytm Linndego-Buza-Graya 1 Wybierz dowolnie poczatkowy zbiór rekonstruowanych wartości {Y (0) i } m i=1. Ustal k = 0, D ( 1) = 0. Wybierz próg ε. 2 Znajdź obszary kwantyzacji V (k) i = {X : j i d(x, Y i ) < d(x, Y j )}. 3 Oblicz zniekształcenie D (k) = m i=1 4 Jeśli D(k) D (k 1) D (k) V (k) i X Y (k) i 2 f X (X) dx. < ε zakończ obliczenia. } m i=1 5 Przyjmij k k + 1. Za nowe {Y (k) i ciężkości {V (k 1) i }. Wróć do kroku 2. W praktyce zamiast rozkładów używa się zbiorów uczacych. przyjmij środki

20 Inicjalizacja algorytmu LBG metoda podziałów Rozpoczynamy z jednym punktem (rozmiar słownika 1), będacym średnia z całego zbioru uczacego.

21 Inicjalizacja algorytmu LBG metoda podziałów Rozpoczynamy z jednym punktem (rozmiar słownika 1), będacym średnia z całego zbioru uczacego. Dodajemy pewien ustalony wektor perturbacji ɛ do każdego punktu słownika i wykonujemy LBG.

22 Inicjalizacja algorytmu LBG metoda podziałów Rozpoczynamy z jednym punktem (rozmiar słownika 1), będacym średnia z całego zbioru uczacego. Dodajemy pewien ustalony wektor perturbacji ɛ do każdego punktu słownika i wykonujemy LBG. Kontynuujemy aż do uzyskania zakładanej liczby poziomów (jeżeli nie jest potęga 2, to w ostatnim kroku nie wszystkie podwajamy).

23 Kwantyzatory o strukturze drzewiastej Jak poradzić sobie z dużymi słownikami kwantyzacji? Dzielimy przestrzeń na dwie części i uzyskujemy dla nich wektory reprezentacji.

24 Kwantyzatory o strukturze drzewiastej Jak poradzić sobie z dużymi słownikami kwantyzacji? Dzielimy przestrzeń na dwie części i uzyskujemy dla nich wektory reprezentacji. Powtarzamy procedurę dla każdej części, aż uzyskamy pełne drzewo (binarne) o wysokości k.

25 Kwantyzatory o strukturze drzewiastej Jak poradzić sobie z dużymi słownikami kwantyzacji? Dzielimy przestrzeń na dwie części i uzyskujemy dla nich wektory reprezentacji. Powtarzamy procedurę dla każdej części, aż uzyskamy pełne drzewo (binarne) o wysokości k. Możemy przyciać niektóre poddrzewa, jeśli zmniejszy to zniekształcenie.

26 Kwantyzatory o strukturze drzewiastej Jak poradzić sobie z dużymi słownikami kwantyzacji? Dzielimy przestrzeń na dwie części i uzyskujemy dla nich wektory reprezentacji. Powtarzamy procedurę dla każdej części, aż uzyskamy pełne drzewo (binarne) o wysokości k. Możemy przyciać niektóre poddrzewa, jeśli zmniejszy to zniekształcenie. Wada: zwykle tylko dla kwantyzatorów symetrycznych otrzymujemy optymalne rozwiazania.

27 Przykład

28 Kratowa kwantyzacja wektorowa Krata (def. uproszczona) Niech { a 1, a 2,..., a L } będa L niezależnymi wektorami o L wymiarach. Wówczas zbiór { } L L = x : x = u i a i jest krata, jeśli wszystkie u i sa liczbami całkowitymi. i=1

29 Przykład kraty D 2 Dla a 1 = (1, 1), a 2 = (1, 1) otrzymujemy (D-kraty maja parzysta sumę współrzędnych)

30 Przykład kraty A 2 Dla a 1 = (1, 0), a 2 = ( 1 2, 3 2 ) otrzymujemy

31 Inne rodzaje kwantyzacji wektorowej piramidalne,

32 Inne rodzaje kwantyzacji wektorowej piramidalne, sferyczne i biegunowe,

33 Inne rodzaje kwantyzacji wektorowej piramidalne, sferyczne i biegunowe, skala-kształt,

34 Inne rodzaje kwantyzacji wektorowej piramidalne, sferyczne i biegunowe, skala-kształt, z usunięta średnia,

35 Inne rodzaje kwantyzacji wektorowej piramidalne, sferyczne i biegunowe, skala-kształt, z usunięta średnia, klasyfikowana,

36 Inne rodzaje kwantyzacji wektorowej piramidalne, sferyczne i biegunowe, skala-kształt, z usunięta średnia, klasyfikowana, wieloetapowa,

37 Inne rodzaje kwantyzacji wektorowej piramidalne, sferyczne i biegunowe, skala-kształt, z usunięta średnia, klasyfikowana, wieloetapowa, adaptacyjna.

38 Kwantyzacja podsumowanie Prosta metoda przejścia z dużego alfabetu symboli na znacznie mniejszy.

39 Kwantyzacja podsumowanie Prosta metoda przejścia z dużego alfabetu symboli na znacznie mniejszy. Dla bardzo wielu modeli danych opracowane zostały bardzo dobre metody kwantyzacji, charakteryzujace się małymi zniekształceniami.

40 Kwantyzacja podsumowanie Prosta metoda przejścia z dużego alfabetu symboli na znacznie mniejszy. Dla bardzo wielu modeli danych opracowane zostały bardzo dobre metody kwantyzacji, charakteryzujace się małymi zniekształceniami. Po kwantyzacji można stosować do kompresji znane metody bezstratne.

41 Kodowanie różnicowe - wprowadzenie Dla danych takich jak mowa czy obrazy istnieje duża korelacja między kolejnymi elementami (próbkami).

42 Kodowanie różnicowe - wprowadzenie Dla danych takich jak mowa czy obrazy istnieje duża korelacja między kolejnymi elementami (próbkami). Można to wykorzystać kodujac różnice między kolejnymi elementami.

43 Kodowanie różnicowe - wprowadzenie Dla danych takich jak mowa czy obrazy istnieje duża korelacja między kolejnymi elementami (próbkami). Można to wykorzystać kodujac różnice między kolejnymi elementami. Wariancja i wielkość różnic moga być znaczaco mniejsze niż wariancja i wielkość elementów wejściowego ciagu.

44 Przykład Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8

45 Przykład Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Przy założeniu że pierwsza wartościa wejściowa jest 0, ciag różnic wyglada następujaco: 6.2, 3.5, 3.5, 7.3, 2.1, 0.6, 3.2, 2.4

46 Przykład Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Przy założeniu że pierwsza wartościa wejściowa jest 0, ciag różnic wyglada następujaco: 6.2, 3.5, 3.5, 7.3, 2.1, 0.6, 3.2, 2.4 Co się stanie jeśli skwantyzujemy (skompresujemy stratnie) ciag różnic kwantyzatorem z 7 wartościami 6, 4, 2, 0, 2, 4, 6.

47 Przykład Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Przy założeniu że pierwsza wartościa wejściowa jest 0, ciag różnic wyglada następujaco: 6.2, 3.5, 3.5, 7.3, 2.1, 0.6, 3.2, 2.4 Co się stanie jeśli skwantyzujemy (skompresujemy stratnie) ciag różnic kwantyzatorem z 7 wartościami 6, 4, 2, 0, 2, 4, 6. Otrzymujemy skwantyzowany ciag: 6, 4, 4, 6, 2, 0, 4, 2

48 Przykład Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Przy założeniu że pierwsza wartościa wejściowa jest 0, ciag różnic wyglada następujaco: 6.2, 3.5, 3.5, 7.3, 2.1, 0.6, 3.2, 2.4 Co się stanie jeśli skwantyzujemy (skompresujemy stratnie) ciag różnic kwantyzatorem z 7 wartościami 6, 4, 2, 0, 2, 4, 6. Otrzymujemy skwantyzowany ciag: 6, 4, 4, 6, 2, 0, 4, 2 Rekonstruujac ciag otrzymamy: 6, 10, 14, 8, 10, 10, 6, 4

49 Przykład Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Przy założeniu że pierwsza wartościa wejściowa jest 0, ciag różnic wyglada następujaco: 6.2, 3.5, 3.5, 7.3, 2.1, 0.6, 3.2, 2.4 Co się stanie jeśli skwantyzujemy (skompresujemy stratnie) ciag różnic kwantyzatorem z 7 wartościami 6, 4, 2, 0, 2, 4, 6. Otrzymujemy skwantyzowany ciag: 6, 4, 4, 6, 2, 0, 4, 2 Rekonstruujac ciag otrzymamy: 6, 10, 14, 8, 10, 10, 6, 4 Bład (różnica między oryginalnym a rekonstruowanym ciagiem) wynosi: 0.2, 0.3, 0.8, 2.1, 2, 2.6, 1.8, 2.2

50 Przykład Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Przy założeniu że pierwsza wartościa wejściowa jest 0, ciag różnic wyglada następujaco: 6.2, 3.5, 3.5, 7.3, 2.1, 0.6, 3.2, 2.4 Co się stanie jeśli skwantyzujemy (skompresujemy stratnie) ciag różnic kwantyzatorem z 7 wartościami 6, 4, 2, 0, 2, 4, 6. Otrzymujemy skwantyzowany ciag: 6, 4, 4, 6, 2, 0, 4, 2 Rekonstruujac ciag otrzymamy: 6, 10, 14, 8, 10, 10, 6, 4 Bład (różnica między oryginalnym a rekonstruowanym ciagiem) wynosi: 0.2, 0.3, 0.8, 2.1, 2, 2.6, 1.8, 2.2 Zauważmy, że wielkość błędu rośnie.

51 Analiza Mamy ciag {x n }. Ciag różnic {d n } generujemy biorac d n = x n x n 1. Kwantyzujac według wzoru ˆd n = Q[d n ] = d n + q n otrzymujemy ciag {ˆd n }, gdzie q n jest błędem kwantyzacji.

52 Analiza Mamy ciag {x n }. Ciag różnic {d n } generujemy biorac d n = x n x n 1. Kwantyzujac według wzoru ˆd n = Q[d n ] = d n + q n otrzymujemy ciag {ˆd n }, gdzie q n jest błędem kwantyzacji. U odbiorcy odtwarzamy ciag {ˆx n } według wzoru ˆx n = ˆx n 1 + ˆd n.

53 Analiza Mamy ciag {x n }. Ciag różnic {d n } generujemy biorac d n = x n x n 1. Kwantyzujac według wzoru ˆd n = Q[d n ] = d n + q n otrzymujemy ciag {ˆd n }, gdzie q n jest błędem kwantyzacji. U odbiorcy odtwarzamy ciag {ˆx n } według wzoru ˆx n = ˆx n 1 + ˆd n. Łatwo policzyć, że ˆx n = x n + n i=1 q i.

54 Analiza Mamy ciag {x n }. Ciag różnic {d n } generujemy biorac d n = x n x n 1. Kwantyzujac według wzoru ˆd n = Q[d n ] = d n + q n otrzymujemy ciag {ˆd n }, gdzie q n jest błędem kwantyzacji. U odbiorcy odtwarzamy ciag {ˆx n } według wzoru ˆx n = ˆx n 1 + ˆd n. Łatwo policzyć, że ˆx n = x n + n i=1 q i. Bład kwantyzacji akumuluje się z czasem.

55 Analiza Mamy ciag {x n }. Ciag różnic {d n } generujemy biorac d n = x n x n 1. Kwantyzujac według wzoru ˆd n = Q[d n ] = d n + q n otrzymujemy ciag {ˆd n }, gdzie q n jest błędem kwantyzacji. U odbiorcy odtwarzamy ciag {ˆx n } według wzoru ˆx n = ˆx n 1 + ˆd n. Łatwo policzyć, że ˆx n = x n + n i=1 q i. Bład kwantyzacji akumuluje się z czasem. Jak temu zapobiec?

56 Analiza Mamy ciag {x n }. Ciag różnic {d n } generujemy biorac d n = x n x n 1. Kwantyzujac według wzoru ˆd n = Q[d n ] = d n + q n otrzymujemy ciag {ˆd n }, gdzie q n jest błędem kwantyzacji. U odbiorcy odtwarzamy ciag {ˆx n } według wzoru ˆx n = ˆx n 1 + ˆd n. Łatwo policzyć, że ˆx n = x n + n i=1 q i. Bład kwantyzacji akumuluje się z czasem. Jak temu zapobiec? Użyjmy do obliczenia różnicy zależności d n = x n ˆx n 1.

57 Analiza Mamy ciag {x n }. Ciag różnic {d n } generujemy biorac d n = x n x n 1. Kwantyzujac według wzoru ˆd n = Q[d n ] = d n + q n otrzymujemy ciag {ˆd n }, gdzie q n jest błędem kwantyzacji. U odbiorcy odtwarzamy ciag {ˆx n } według wzoru ˆx n = ˆx n 1 + ˆd n. Łatwo policzyć, że ˆx n = x n + n i=1 q i. Bład kwantyzacji akumuluje się z czasem. Jak temu zapobiec? Użyjmy do obliczenia różnicy zależności d n = x n ˆx n 1. Wtedy ˆx n = x n + q n.

58 Przykład Policzmy poprzedni przykład nowa metoda.

59 Przykład Policzmy poprzedni przykład nowa metoda. Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8

60 Przykład Policzmy poprzedni przykład nowa metoda. Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Mamy kwantyzator: 6, 4, 2, 0, 2, 4, 6.

61 Przykład Policzmy poprzedni przykład nowa metoda. Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Mamy kwantyzator: 6, 4, 2, 0, 2, 4, 6. Ciag różnic: 6.2, 3.7, 3.2, 8.1, 0, 0.6, 3.8, 2.2

62 Przykład Policzmy poprzedni przykład nowa metoda. Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Mamy kwantyzator: 6, 4, 2, 0, 2, 4, 6. Ciag różnic: 6.2, 3.7, 3.2, 8.1, 0, 0.6, 3.8, 2.2 Skwantyzowany ciag różnic: 6, 4, 4, 6, 0, 0, 4, 2

63 Przykład Policzmy poprzedni przykład nowa metoda. Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Mamy kwantyzator: 6, 4, 2, 0, 2, 4, 6. Ciag różnic: 6.2, 3.7, 3.2, 8.1, 0, 0.6, 3.8, 2.2 Skwantyzowany ciag różnic: 6, 4, 4, 6, 0, 0, 4, 2 Zrekonstruowany ciag: 6, 10, 14, 8, 8, 8, 4, 2

64 Przykład Policzmy poprzedni przykład nowa metoda. Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Mamy kwantyzator: 6, 4, 2, 0, 2, 4, 6. Ciag różnic: 6.2, 3.7, 3.2, 8.1, 0, 0.6, 3.8, 2.2 Skwantyzowany ciag różnic: 6, 4, 4, 6, 0, 0, 4, 2 Zrekonstruowany ciag: 6, 10, 14, 8, 8, 8, 4, 2 Bład: 0.2, 0.3, 0.8, 2.1, 0, 0.6, 0.2, 0.2

65 Predykcja DPCM Differential Pulse Code Modulation - różnicowa modulacja kodowo-impulsowa.

66 Predykcja DPCM Differential Pulse Code Modulation - różnicowa modulacja kodowo-impulsowa. Załóżmy, że zamiast różnicy między kolejnymi elementami mamy funkcję predykcyjna która generuje nam ciag {p n }, p n = f (ˆx n 1,..., ˆx 0 ), i kodujemy różnicę x n p n.

67 Predykcja DPCM Differential Pulse Code Modulation - różnicowa modulacja kodowo-impulsowa. Załóżmy, że zamiast różnicy między kolejnymi elementami mamy funkcję predykcyjna która generuje nam ciag {p n }, p n = f (ˆx n 1,..., ˆx 0 ), i kodujemy różnicę x n p n. Chcemy znaleźć takie f które minimalizuje nam σ 2 d = E[(x n p n ) 2 ]

68 Predykcja DPCM Problem jest trudny więc zakładamy, że predyktor jest funkcja postaci N p n = a i ˆx n 1. i=1 N określa rzad predyktora.

69 Predykcja DPCM Problem jest trudny więc zakładamy, że predyktor jest funkcja postaci N p n = a i ˆx n 1. i=1 N określa rzad predyktora. Aby uprościć rachunki dodatkowo zamiast ˆx n używamy x n (zakładamy, że błędy kwantyzacji sa bardzo małe).

70 Predykcja DPCM Problem jest trudny więc zakładamy, że predyktor jest funkcja postaci N p n = a i ˆx n 1. i=1 N określa rzad predyktora. Aby uprościć rachunki dodatkowo zamiast ˆx n używamy x n (zakładamy, że błędy kwantyzacji sa bardzo małe). Chcemy teraz znaleźć takie wartości {a i } aby zminimalizować ( σd 2 = E x n N i=1 ) 2 a i x n i

71 Predykcja DPCM Weźmy pochodna σd 2 względem każdego a i i przyrównajmy do zera.

72 Predykcja DPCM Weźmy pochodna σd 2 względem każdego a i i przyrównajmy do zera. Otrzymamy N równań postaci [( ) ] δσd 2 N = 2E x n a i x n i x n j = 0 δa j i=1

73 Predykcja DPCM Weźmy pochodna σd 2 względem każdego a i i przyrównajmy do zera. Otrzymamy N równań postaci [( ) ] δσd 2 N = 2E x n a i x n i x n j = 0 δa j i=1 Obliczajac wartości oczekiwane otrzymamy układ N a i R xx (i j) = R xx (j) i=1 gdzie R xx (k) = E[x n x n+k ] jest funkcja autokorelacji zmiennej x n.

74 Predykcja DPCM Weźmy pochodna σd 2 względem każdego a i i przyrównajmy do zera. Otrzymamy N równań postaci [( ) ] δσd 2 N = 2E x n a i x n i x n j = 0 δa j i=1 Obliczajac wartości oczekiwane otrzymamy układ N a i R xx (i j) = R xx (j) i=1 gdzie R xx (k) = E[x n x n+k ] jest funkcja autokorelacji zmiennej x n. Jeśli znamy wartości autokorelacji możemy znaleźć wartości a i.

75 Odmiany DPCM Adaptacyjne DPCM: adaptacja w przód i wstecz.

76 Odmiany DPCM Adaptacyjne DPCM: adaptacja w przód i wstecz. Modulacja delta: dwustopniowy kwantyzator i odpowiednia częstość próbkowania (dwa razy częstsza niż największa częstotliwość)

77 Zastosowanie Kodowanie mowy - Standard G.726

78 Zastosowanie Kodowanie mowy - Standard G.726 Próbkowanie z częstościa 8000 próbek na sekundę.

79 Zastosowanie Kodowanie mowy - Standard G.726 Próbkowanie z częstościa 8000 próbek na sekundę. Prędkości 40, 32, 24 i 16 kb/s przekładaja się na próbki 5, 4, 3 i 2 bitowe.

80 Zastosowanie Kodowanie mowy - Standard G.726 Próbkowanie z częstościa 8000 próbek na sekundę. Prędkości 40, 32, 24 i 16 kb/s przekładaja się na próbki 5, 4, 3 i 2 bitowe. Poza prędkościa 16kb używamy kwantyzatora o liczbie poziomów 2 n 1, gdzie n liczba bitów próbki.

81 Zastosowanie Kodowanie mowy - Standard G.726 Próbkowanie z częstościa 8000 próbek na sekundę. Prędkości 40, 32, 24 i 16 kb/s przekładaja się na próbki 5, 4, 3 i 2 bitowe. Poza prędkościa 16kb używamy kwantyzatora o liczbie poziomów 2 n 1, gdzie n liczba bitów próbki. Kwantyzator adaptacyjny wstecz.

82 Zastosowanie Kodowanie mowy - Standard G.726 Próbkowanie z częstościa 8000 próbek na sekundę. Prędkości 40, 32, 24 i 16 kb/s przekładaja się na próbki 5, 4, 3 i 2 bitowe. Poza prędkościa 16kb używamy kwantyzatora o liczbie poziomów 2 n 1, gdzie n liczba bitów próbki. Kwantyzator adaptacyjny wstecz. Predyktor adaptacyjny wstecz rzędu 2.

83 Zastosowanie Kodowanie mowy - Standard G.726 Próbkowanie z częstościa 8000 próbek na sekundę. Prędkości 40, 32, 24 i 16 kb/s przekładaja się na próbki 5, 4, 3 i 2 bitowe. Poza prędkościa 16kb używamy kwantyzatora o liczbie poziomów 2 n 1, gdzie n liczba bitów próbki. Kwantyzator adaptacyjny wstecz. Predyktor adaptacyjny wstecz rzędu 2. Kodowanie obrazów

Kompresja danych DKDA (7)

Kompresja danych DKDA (7) Kompresja danych DKDA (7) Marcin Gogolewski marcing@wmi.amu.edu.pl Uniwersytet im. Adama Mickiewicza w Poznaniu Poznań, 22 listopada 2016 1 Kwantyzacja skalarna Wprowadzenie Analiza jakości Typy kwantyzatorów

Bardziej szczegółowo

Kompresja danych Streszczenie Studia Dzienne Wykład 10,

Kompresja danych Streszczenie Studia Dzienne Wykład 10, 1 Kwantyzacja wektorowa Kompresja danych Streszczenie Studia Dzienne Wykład 10, 28.04.2006 Kwantyzacja wektorowa: dane dzielone na bloki (wektory), każdy blok kwantyzowany jako jeden element danych. Ogólny

Bardziej szczegółowo

Kodowanie i kompresja Streszczenie Studia dzienne Wykład 12,

Kodowanie i kompresja Streszczenie Studia dzienne Wykład 12, 1 Kompresja stratna Kodowanie i kompresja Streszczenie Studia dzienne Wykład 12, 5.05.2005 Algorytmy kompresji bezstratnej oceniane są ze względu na: stopień kompresji; czas działania procesu kodowania

Bardziej szczegółowo

Przetwarzanie i transmisja danych multimedialnych. Wykład 6 Metody predykcyjne. Przemysław Sękalski.

Przetwarzanie i transmisja danych multimedialnych. Wykład 6 Metody predykcyjne. Przemysław Sękalski. Przetwarzanie i transmisja danych multimedialnych Wykład 6 Metody predykcyjne Przemysław Sękalski sekalski@dmcs.pl Politechnika Łódzka Katedra Mikroelektroniki i Technik Informatycznych DMCS Wykład opracowano

Bardziej szczegółowo

Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11,

Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11, 1 Kwantyzacja skalarna Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11, 10.05.005 Kwantyzacja polega na reprezentowaniu dużego zbioru wartości (być może nieskończonego) za pomocą wartości

Bardziej szczegółowo

Kwantowanie sygnałów analogowych na przykładzie sygnału mowy

Kwantowanie sygnałów analogowych na przykładzie sygnału mowy Kwantowanie sygnałów analogowych na przykładzie sygnału mowy Treść wykładu: Sygnał mowy i jego właściwości Kwantowanie skalarne: kwantyzator równomierny, nierównomierny, adaptacyjny Zastosowanie w koderze

Bardziej szczegółowo

Transformaty. Kodowanie transformujace

Transformaty. Kodowanie transformujace Transformaty. Kodowanie transformujace Kodowanie i kompresja informacji - Wykład 10 10 maja 2009 Szeregi Fouriera Każda funkcję okresowa f (t) o okresie T można zapisać jako f (t) = a 0 + a n cos nω 0

Bardziej szczegółowo

Kwantyzacja wektorowa. Plan 1. Zasada działania 2. Projektowanie. Algorytm LBG 3. Kwantyzatory strukturalne 4. Modyfikacje

Kwantyzacja wektorowa. Plan 1. Zasada działania 2. Projektowanie. Algorytm LBG 3. Kwantyzatory strukturalne 4. Modyfikacje Kwantyzacja wektorowa Plan 1. Zasada działania 2. Projektowanie. Algorytm LBG 3. Kwantyzatory strukturalne 4. Modyfikacje Zasada kwantyzacji wektorowej Kwantyzacja skalarna koduje oddzielnie kaŝdą próbkę

Bardziej szczegółowo

KOMPRESJA STRATNA SYGNAŁU MOWY. Metody kompresji stratnej sygnałów multimedialnych: Uproszczone modelowanie źródeł generacji sygnałów LPC, CELP

KOMPRESJA STRATNA SYGNAŁU MOWY. Metody kompresji stratnej sygnałów multimedialnych: Uproszczone modelowanie źródeł generacji sygnałów LPC, CELP KOMPRESJA STRATNA SYGNAŁU MOWY Metody kompresji stratnej sygnałów multimedialnych: Uproszczone modelowanie źródeł generacji sygnałów LPC, CELP Śledzenie i upraszczanie zmian dynamicznych sygnałów ADPCM

Bardziej szczegółowo

MODULACJE IMPULSOWE. TSIM W10: Modulacje impulsowe 1/22

MODULACJE IMPULSOWE. TSIM W10: Modulacje impulsowe 1/22 MODULACJE IMPULSOWE TSIM W10: Modulacje impulsowe 1/22 Fala nośna: Modulacja PAM Pulse Amplitude Modulation Sygnał PAM i jego widmo: y PAM (t) = n= x(nt s ) Y PAM (ω) = τ T s Sa(ωτ/2)e j(ωτ/2) ( ) t τ/2

Bardziej szczegółowo

Założenia i obszar zastosowań. JPEG - algorytm kodowania obrazu. Geneza algorytmu KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG

Założenia i obszar zastosowań. JPEG - algorytm kodowania obrazu. Geneza algorytmu KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG Założenia i obszar zastosowań KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG Plan wykładu: Geneza algorytmu Założenia i obszar zastosowań JPEG kroki algorytmu kodowania obrazu Założenia: Obraz monochromatyczny

Bardziej szczegółowo

Wybrane metody kompresji obrazów

Wybrane metody kompresji obrazów Wybrane metody kompresji obrazów Celem kodowania kompresyjnego obrazu jest redukcja ilości informacji w nim zawartej. Redukcja ta polega na usuwaniu informacji nadmiarowej w obrazie, tzw. redundancji.

Bardziej szczegółowo

Według raportu ISO z 1988 roku algorytm JPEG składa się z następujących kroków: 0.5, = V i, j. /Q i, j

Według raportu ISO z 1988 roku algorytm JPEG składa się z następujących kroków: 0.5, = V i, j. /Q i, j Kompresja transformacyjna. Opis standardu JPEG. Algorytm JPEG powstał w wyniku prac prowadzonych przez grupę ekspertów (ang. Joint Photographic Expert Group). Prace te zakończyły się w 1991 roku, kiedy

Bardziej szczegółowo

Kodowanie transformacyjne. Plan 1. Zasada 2. Rodzaje transformacji 3. Standard JPEG

Kodowanie transformacyjne. Plan 1. Zasada 2. Rodzaje transformacji 3. Standard JPEG Kodowanie transformacyjne Plan 1. Zasada 2. Rodzaje transformacji 3. Standard JPEG Zasada Zasada podstawowa: na danych wykonujemy transformacje która: Likwiduje korelacje Skupia energię w kilku komponentach

Bardziej szczegółowo

mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. GOLOMBA I RICE'A

mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. GOLOMBA I RICE'A mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. KOMPRESJA ALGORYTMEM ARYTMETYCZNYM, GOLOMBA I RICE'A Idea algorytmu arytmetycznego Przykład kodowania arytmetycznego Renormalizacja

Bardziej szczegółowo

Podstawowe pojęcia. Teoria informacji

Podstawowe pojęcia. Teoria informacji Kodowanie i kompresja informacji - Wykład 1 22 luty 2010 Literatura K. Sayood, Kompresja danych - wprowadzenie, READ ME 2002 (ISBN 83-7243-094-2) Literatura K. Sayood, Kompresja danych - wprowadzenie,

Bardziej szczegółowo

Kompresja JPG obrazu sonarowego z uwzględnieniem założonego poziomu błędu

Kompresja JPG obrazu sonarowego z uwzględnieniem założonego poziomu błędu Kompresja JPG obrazu sonarowego z uwzględnieniem założonego poziomu błędu Mariusz Borawski Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Zbieranie danych Obraz sonarowy

Bardziej szczegółowo

Kodowanie informacji

Kodowanie informacji Kodowanie informacji Tomasz Wykład 4: kodowanie arytmetyczne Motywacja Podstawy i własności Liczby rzeczywiste Motywacje 1 średnia długość kodu Huffmana może odbiegać o p max + 0.086 od entropii, gdzie

Bardziej szczegółowo

Temat: Algorytm kompresji plików metodą Huffmana

Temat: Algorytm kompresji plików metodą Huffmana Temat: Algorytm kompresji plików metodą Huffmana. Wymagania dotyczące kompresji danych Przez M oznaczmy zbiór wszystkich możliwych symboli występujących w pliku (alfabet pliku). Przykład M = 2, gdy plik

Bardziej szczegółowo

Podstawy kompresji stratnej+kwantyzacja

Podstawy kompresji stratnej+kwantyzacja Podstawy kompresji stratnej + Kwantyzacja Kodowanie i kompresja informacji - Wykład 6 29 III 2010 Wprowadzenie Dla każdych danych istnieje wartość której nie można przekroczyć w trakcie kompresji. Im dane

Bardziej szczegółowo

Kodowanie i kompresja Streszczenie Studia Wieczorowe Wykład 10, 2007

Kodowanie i kompresja Streszczenie Studia Wieczorowe Wykład 10, 2007 1 Kompresja wideo Kodowanie i kompresja Streszczenie Studia Wieczorowe Wykład 10, 2007 Dane wideo jako sekwencja skorelowanych obrazów (ramek). Specyfika danych wideo: drobne zmiany kolorów w kolejnych

Bardziej szczegółowo

Kodowanie podpasmowe. Plan 1. Zasada 2. Filtry cyfrowe 3. Podstawowy algorytm 4. Zastosowania

Kodowanie podpasmowe. Plan 1. Zasada 2. Filtry cyfrowe 3. Podstawowy algorytm 4. Zastosowania Kodowanie podpasmowe Plan 1. Zasada 2. Filtry cyfrowe 3. Podstawowy algorytm 4. Zastosowania Zasada ogólna Rozkład sygnału źródłowego na części składowe (jak w kodowaniu transformacyjnym) Wada kodowania

Bardziej szczegółowo

Kompresja bezstratna. Entropia. Kod Huffmana

Kompresja bezstratna. Entropia. Kod Huffmana Kompresja bezstratna. Entropia. Kod Huffmana Kodowanie i bezpieczeństwo informacji - Wykład 10 29 kwietnia 2013 Teoria informacji Jeśli P(A) jest prawdopodobieństwem wystapienia informacji A to niech i(a)

Bardziej szczegółowo

Fundamentals of Data Compression

Fundamentals of Data Compression Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 lutego 2012r. KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu Nazwa modułu Nazwa modułu w języku angielskim Obowiązuje od roku akademickiego 2012/2013

Bardziej szczegółowo

Kompresja Kodowanie arytmetyczne. Dariusz Sobczuk

Kompresja Kodowanie arytmetyczne. Dariusz Sobczuk Kompresja Kodowanie arytmetyczne Dariusz Sobczuk Kodowanie arytmetyczne (lata 1960-te) Pierwsze prace w tym kierunku sięgają początków lat 60-tych XX wieku Pierwszy algorytm Eliasa nie został opublikowany

Bardziej szczegółowo

Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład Kody liniowe - kodowanie w oparciu o macierz parzystości

Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład Kody liniowe - kodowanie w oparciu o macierz parzystości Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład 13 1 Kody liniowe - kodowanie w oparciu o macierz parzystości Przykład Różne macierze parzystości dla kodu powtórzeniowego. Co wiemy z algebry

Bardziej szczegółowo

Nierówność Krafta-McMillana, Kodowanie Huffmana

Nierówność Krafta-McMillana, Kodowanie Huffmana Nierówność Krafta-McMillana, Kodowanie Huffmana Kodowanie i kompresja informacji - Wykład 2 1 marca 2010 Test na jednoznaczna dekodowalność Kod a jest prefiksem kodu b jeśli b jest postaci ax. x nazywamy

Bardziej szczegółowo

Wybrane algorytmu kompresji dźwięku

Wybrane algorytmu kompresji dźwięku [1/28] Wybrane algorytmu kompresji dźwięku [dr inż. Paweł Forczmański] Katedra Systemów Multimedialnych, Wydział Informatyki, Zachodniopomorski Uniwersytet Technologiczny w Szczecinie [2/28] Podstawy kompresji

Bardziej szczegółowo

Kodowanie podpasmowe

Kodowanie podpasmowe Kodowanie i kompresja informacji - Wykład 12 [10] 24 maja 2010 Wprowadzenie Rozłożenie informacji na części (pasma) i kodowanie ich oddzielnie. Wprowadzenie Rozłożenie informacji na części (pasma) i kodowanie

Bardziej szczegółowo

KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG

KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG Joint Photographic Expert Group - 1986 ISO - International Standard Organisation CCITT - Comité Consultatif International de Téléphonie et Télégraphie Standard

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej

Bardziej szczegółowo

Kody Tunstalla. Kodowanie arytmetyczne

Kody Tunstalla. Kodowanie arytmetyczne Kody Tunstalla. Kodowanie arytmetyczne Kodowanie i kompresja informacji - Wykład 3 8 marca 2010 Kody Tunstalla Wszystkie słowa kodowe maja ta sama długość ale jeden kod może kodować różna liczbę liter

Bardziej szczegółowo

Podstawowe funkcje przetwornika C/A

Podstawowe funkcje przetwornika C/A ELEKTRONIKA CYFROWA PRZETWORNIKI CYFROWO-ANALOGOWE I ANALOGOWO-CYFROWE Literatura: 1. Rudy van de Plassche: Scalone przetworniki analogowo-cyfrowe i cyfrowo-analogowe, WKŁ 1997 2. Marian Łakomy, Jan Zabrodzki:

Bardziej szczegółowo

Teoria przetwarzania A/C i C/A.

Teoria przetwarzania A/C i C/A. Teoria przetwarzania A/C i C/A. Autor: Bartłomiej Gorczyński Cyfrowe metody przetwarzania sygnałów polegają na przetworzeniu badanego sygnału analogowego w sygnał cyfrowy reprezentowany ciągiem słów binarnych

Bardziej szczegółowo

Przetwornik analogowo-cyfrowy

Przetwornik analogowo-cyfrowy Przetwornik analogowo-cyfrowy Przetwornik analogowo-cyfrowy A/C (ang. A/D analog to digital; lub angielski akronim ADC - od słów: Analog to Digital Converter), to układ służący do zamiany sygnału analogowego

Bardziej szczegółowo

Kodowanie transformujace. Kompresja danych. Tomasz Jurdziński. Wykład 11: Transformaty i JPEG

Kodowanie transformujace. Kompresja danych. Tomasz Jurdziński. Wykład 11: Transformaty i JPEG Tomasz Wykład 11: Transformaty i JPEG Idea kodowania transformujacego Etapy kodowania 1 Wektor danych x 0,...,x N 1 przekształcamy (odwracalnie!) na wektor c 0,...,c N 1, tak aby: energia była skoncentrowana

Bardziej szczegółowo

teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015

teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015 teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015 1 zakres materiału zakres materiału 1. Czym jest teoria informacji? 2. Wprowadzenie matematyczne. 3. Entropia i informacja.

Bardziej szczegółowo

Analiza głównych składowych- redukcja wymiaru, wykł. 12

Analiza głównych składowych- redukcja wymiaru, wykł. 12 Analiza głównych składowych- redukcja wymiaru, wykł. 12 Joanna Jędrzejowicz Instytut Informatyki Konieczność redukcji wymiaru w eksploracji danych bazy danych spotykane w zadaniach eksploracji danych mają

Bardziej szczegółowo

Przetwarzanie i transmisja danych multimedialnych. Wykład 9 Kodowanie podpasmowe. Przemysław Sękalski.

Przetwarzanie i transmisja danych multimedialnych. Wykład 9 Kodowanie podpasmowe. Przemysław Sękalski. Przetwarzanie i transmisja danych multimedialnych Wykład 9 Kodowanie podpasmowe Przemysław Sękalski sekalski@dmcs.pl Politechnika Łódzka Katedra Mikroelektroniki i Technik Informatycznych DMCS Wykład opracowano

Bardziej szczegółowo

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe Nierówność Czebyszewa Niech X będzie zmienną losową o skończonej wariancji V ar(x). Wtedy wartość oczekiwana E(X) też jest skończona i

Bardziej szczegółowo

Wykład II. Reprezentacja danych w technice cyfrowej. Studia Podyplomowe INFORMATYKA Podstawy Informatyki

Wykład II. Reprezentacja danych w technice cyfrowej. Studia Podyplomowe INFORMATYKA Podstawy Informatyki Studia Podyplomowe INFORMATYKA Podstawy Informatyki Wykład II Reprezentacja danych w technice cyfrowej 1 III. Reprezentacja danych w komputerze Rodzaje danych w technice cyfrowej 010010101010 001010111010

Bardziej szczegółowo

teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015

teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015 teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015 1 wczoraj Wprowadzenie matematyczne. Entropia i informacja. Kodowanie. Kod ASCII. Stopa kodu. Kody bezprefiksowe.

Bardziej szczegółowo

Pracownia Komputerowa wykład IV

Pracownia Komputerowa wykład IV Pracownia Komputerowa wykład IV dr Magdalena Posiadała-Zezula http://www.fuw.edu.pl/~mposiada/pk16 1 Reprezentacje liczb i znaków! Liczby:! Reprezentacja naturalna nieujemne liczby całkowite naturalny

Bardziej szczegółowo

Przetwarzanie i transmisja danych multimedialnych. Wykład 7 Transformaty i kodowanie. Przemysław Sękalski.

Przetwarzanie i transmisja danych multimedialnych. Wykład 7 Transformaty i kodowanie. Przemysław Sękalski. Przetwarzanie i transmisja danych multimedialnych Wykład 7 Transformaty i kodowanie Przemysław Sękalski sekalski@dmcs.pl Politechnika Łódzka Katedra Mikroelektroniki i Technik Informatycznych DMCS Wykład

Bardziej szczegółowo

Micha Strzelecki Metody przetwarzania i analizy obrazów biomedycznych (2)

Micha Strzelecki Metody przetwarzania i analizy obrazów biomedycznych (2) Micha Strzelecki Metody przetwarzania i analizy obrazów biomedycznych (2) Prezentacja multimedialna współfinansowana przez Unię Europejską w ramach Europejskiego Funduszu Społecznego w projekcie Innowacyjna

Bardziej szczegółowo

Kompresja danych kodowanie Huffmana. Dariusz Sobczuk

Kompresja danych kodowanie Huffmana. Dariusz Sobczuk Kompresja danych kodowanie Huffmana Dariusz Sobczuk Plan wykładu Kodowanie metodą Shannona-Fano Kodowanie metodą Huffmana Elementarny kod Golomba Kod Golomba Kod Rice a kompresja danych 2 Efektywny kod

Bardziej szczegółowo

Data Mining Wykład 9. Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster. Plan wykładu. Sformułowanie problemu

Data Mining Wykład 9. Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster. Plan wykładu. Sformułowanie problemu Data Mining Wykład 9 Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster Plan wykładu Wprowadzanie Definicja problemu Klasyfikacja metod grupowania Grupowanie hierarchiczne Sformułowanie problemu

Bardziej szczegółowo

Wydział Elektryczny. Katedra Telekomunikacji i Aparatury Elektronicznej. Instrukcja do pracowni specjalistycznej

Wydział Elektryczny. Katedra Telekomunikacji i Aparatury Elektronicznej. Instrukcja do pracowni specjalistycznej Politechnika Białostocka Wydział Elektryczny Katedra Telekomunikacji i Aparatury Elektronicznej Instrukcja do pracowni specjalistycznej Temat ćwiczenia: Badanie własności koderów PCM zastosowanych do sygnałów

Bardziej szczegółowo

0 + 0 = 0, = 1, = 1, = 0.

0 + 0 = 0, = 1, = 1, = 0. 5 Kody liniowe Jak już wiemy, w celu przesłania zakodowanego tekstu dzielimy go na bloki i do każdego z bloków dodajemy tak zwane bity sprawdzające. Bity te są w ścisłej zależności z bitami informacyjnymi,

Bardziej szczegółowo

Kompresja Danych. Streszczenie Studia Dzienne Wykład 13, f(t) = c n e inω0t, T f(t)e inω 0t dt.

Kompresja Danych. Streszczenie Studia Dzienne Wykład 13, f(t) = c n e inω0t, T f(t)e inω 0t dt. 1 Kodowanie podpasmowe Kompresja Danych Streszczenie Studia Dzienne Wykład 13, 18.05.2006 1.1 Transformaty, próbkowanie i filtry Korzystamy z faktów: Każdą funkcję okresową można reprezentować w postaci

Bardziej szczegółowo

Akwizycja i przetwarzanie sygnałów cyfrowych

Akwizycja i przetwarzanie sygnałów cyfrowych Akwizycja i przetwarzanie sygnałów cyfrowych Instytut Teleinformatyki ITI PK Kraków 21 luty 2011 Rewolucja cyfrowa i jej skutki Rewolucja cyfrowa - dane cyfrowe: podstawowy rodzaj informacji multimedialnych,

Bardziej szczegółowo

KADD Minimalizacja funkcji

KADD Minimalizacja funkcji Minimalizacja funkcji n-wymiarowych Forma kwadratowa w n wymiarach Procedury minimalizacji Minimalizacja wzdłuż prostej w n-wymiarowej przestrzeni Metody minimalizacji wzdłuż osi współrzędnych wzdłuż kierunków

Bardziej szczegółowo

Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9,

Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9, 1 Kody Tunstalla Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9, 14.04.2005 Inne podejście: słowa kodowe mają ustaloną długość, lecz mogą kodować ciągi liter z alfabetu wejściowego o różnej

Bardziej szczegółowo

Matematyka stosowana i metody numeryczne

Matematyka stosowana i metody numeryczne Ewa Pabisek Adam Wosatko Piotr Pluciński Matematyka stosowana i metody numeryczne Konspekt z wykładów Błędy obliczeń Błędy można podzielić na: modelu, metody, wejściowe (początkowe), obcięcia, zaokrągleń..

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska

SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska DRZEWO REGRESYJNE Sposób konstrukcji i przycinania

Bardziej szczegółowo

Teoria Informacji i Metody Kompresji Danych

Teoria Informacji i Metody Kompresji Danych Teoria Informacji i Metody Kompresji Danych 1 Przykładowe zadania (dodatkowe materiały wykładowe) 2 Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL

Bardziej szczegółowo

Analiza składowych głównych

Analiza składowych głównych Analiza składowych głównych Wprowadzenie (1) W przypadku regresji naszym celem jest predykcja wartości zmiennej wyjściowej za pomocą zmiennych wejściowych, wykrycie związku między wielkościami wejściowymi

Bardziej szczegółowo

Sieci Kohonena Grupowanie

Sieci Kohonena Grupowanie Sieci Kohonena Grupowanie http://zajecia.jakubw.pl/nai UCZENIE SIĘ BEZ NADZORU Załóżmy, że mamy za zadanie pogrupować następujące słowa: cup, roulette, unbelievable, cut, put, launderette, loveable Nie

Bardziej szczegółowo

Wstęp do Informatyki

Wstęp do Informatyki Wstęp do Informatyki Bożena Woźna-Szcześniak bwozna@gmail.com Jan Długosz University, Poland Wykład 4 Bożena Woźna-Szcześniak (AJD) Wstęp do Informatyki Wykład 4 1 / 1 DZIELENIE LICZB BINARNYCH Dzielenie

Bardziej szczegółowo

Przykład: Σ = {0, 1} Σ - zbiór wszystkich skończonych ciagów binarnych. L 1 = {0, 00, 000,...,1, 11, 111,... } L 2 = {01, 1010, 001, 11}

Przykład: Σ = {0, 1} Σ - zbiór wszystkich skończonych ciagów binarnych. L 1 = {0, 00, 000,...,1, 11, 111,... } L 2 = {01, 1010, 001, 11} Języki Ustalmy pewien skończony zbiór symboli Σ zwany alfabetem. Zbiór Σ zawiera wszystkie skończone ciagi symboli z Σ. Podzbiór L Σ nazywamy językiem a x L nazywamy słowem. Specjalne słowo puste oznaczamy

Bardziej szczegółowo

PLAN WYKŁADU OPTYMALIZACJA GLOBALNA OPERATOR KRZYŻOWANIA ETAPY KRZYŻOWANIA

PLAN WYKŁADU OPTYMALIZACJA GLOBALNA OPERATOR KRZYŻOWANIA ETAPY KRZYŻOWANIA PLAN WYKŁADU Operator krzyżowania Operator mutacji Operator inwersji Sukcesja Przykłady symulacji AG Kodowanie - rodzaje OPTYMALIZACJA GLOBALNA Wykład 3 dr inż. Agnieszka Bołtuć OPERATOR KRZYŻOWANIA Wymiana

Bardziej szczegółowo

Luty 2001 Algorytmy (7) 2000/2001 s-rg@siwy.il.pw.edu.pl

Luty 2001 Algorytmy (7) 2000/2001 s-rg@siwy.il.pw.edu.pl System dziesiętny 7 * 10 4 + 3 * 10 3 + 0 * 10 2 + 5 *10 1 + 1 * 10 0 = 73051 Liczba 10 w tym zapisie nazywa się podstawą systemu liczenia. Jeśli liczba 73051 byłaby zapisana w systemie ósemkowym, co powinniśmy

Bardziej szczegółowo

Algorytmy w teorii liczb

Algorytmy w teorii liczb Łukasz Kowalik, ASD 2004: Algorytmy w teorii liczb 1 Algorytmy w teorii liczb Teoria liczb jest działem matemtyki dotyczącym własności liczb naturalnych. Rozważa się zagadnienia związane z liczbami pierwszymi,

Bardziej szczegółowo

Kodowanie i kompresja Streszczenie Studia dzienne Wykład 6

Kodowanie i kompresja Streszczenie Studia dzienne Wykład 6 Kodowanie i kompresja Streszczenie Studia dzienne Wykład 6 1 Kody cykliczne: dekodowanie Definicja 1 (Syndrom) Niech K będzie kodem cyklicznym z wielomianem generuja- cym g(x). Resztę z dzielenia słowa

Bardziej szczegółowo

Kompresja sekwencji obrazów - algorytm MPEG-2

Kompresja sekwencji obrazów - algorytm MPEG-2 Kompresja sekwencji obrazów - algorytm MPEG- Moving Pictures Experts Group (MPEG) - 988 ISO - International Standard Organisation CCITT - Comité Consultatif International de Téléphonie et TélégraphieT

Bardziej szczegółowo

Kodowanie podpasmowe. Plan 1. Zasada 2. Filtry cyfrowe 3. Podstawowy algorytm 4. Zastosowania

Kodowanie podpasmowe. Plan 1. Zasada 2. Filtry cyfrowe 3. Podstawowy algorytm 4. Zastosowania Kodowanie podpasmowe Plan 1. Zasada. Filtry cyfrowe 3. Podstawowy algorytm 4. Zastosowania Zasada ogólna Rozkład sygnału źródłowego na części składowe (jak w kodowaniu transformacyjnym) Wada kodowania

Bardziej szczegółowo

Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa. P. F. Góra

Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa. P. F. Góra Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2012 Uwarunkowanie zadania numerycznego Niech ϕ : R n R m będzie pewna funkcja odpowiednio wiele

Bardziej szczegółowo

Algorytmy kodowania entropijnego

Algorytmy kodowania entropijnego Algorytmy kodowania entropijnego 1. Kodowanie Shannona-Fano 2. Kodowanie Huffmana 3. Jednoznaczność kodów Huffmana. Kod o minimalnej wariancji 4. Dynamiczne kodowanie Huffmana Poprzedni wykład - podsumowanie

Bardziej szczegółowo

Filtr Kalmana. Struktury i Algorytmy Sterowania Wykład 1-2. prof. dr hab. inż. Mieczysław A. Brdyś mgr inż. Tomasz Zubowicz

Filtr Kalmana. Struktury i Algorytmy Sterowania Wykład 1-2. prof. dr hab. inż. Mieczysław A. Brdyś mgr inż. Tomasz Zubowicz Filtr Kalmana Struktury i Algorytmy Sterowania Wykład 1-2 prof. dr hab. inż. Mieczysław A. Brdyś mgr inż. Tomasz Zubowicz Politechnika Gdańska, Wydział Elektortechniki i Automatyki 2013-10-09, Gdańsk Założenia

Bardziej szczegółowo

Stosowana Analiza Regresji

Stosowana Analiza Regresji Stosowana Analiza Regresji Wykład VIII 30 Listopada 2011 1 / 18 gdzie: X : n p Q : n n R : n p Zał.: n p. X = QR, - macierz eksperymentu, - ortogonalna, - ma zera poniżej głównej diagonali. [ R1 X = Q

Bardziej szczegółowo

FFT i dyskretny splot. Aplikacje w DSP

FFT i dyskretny splot. Aplikacje w DSP i dyskretny splot. Aplikacje w DSP Marcin Jenczmyk m.jenczmyk@knm.katowice.pl Wydział Matematyki, Fizyki i Chemii 10 maja 2014 M. Jenczmyk Sesja wiosenna KNM 2014 i dyskretny splot 1 / 17 Transformata

Bardziej szczegółowo

Przedmowa 11 Ważniejsze oznaczenia 14 Spis skrótów i akronimów 15 Wstęp 21 W.1. Obraz naturalny i cyfrowe przetwarzanie obrazów 21 W.2.

Przedmowa 11 Ważniejsze oznaczenia 14 Spis skrótów i akronimów 15 Wstęp 21 W.1. Obraz naturalny i cyfrowe przetwarzanie obrazów 21 W.2. Przedmowa 11 Ważniejsze oznaczenia 14 Spis skrótów i akronimów 15 Wstęp 21 W.1. Obraz naturalny i cyfrowe przetwarzanie obrazów 21 W.2. Technika obrazu 24 W.3. Normalizacja w zakresie obrazu cyfrowego

Bardziej szczegółowo

Weryfikacja hipotez statystycznych

Weryfikacja hipotez statystycznych Weryfikacja hipotez statystycznych Hipoteza Test statystyczny Poziom istotności Testy jednostronne i dwustronne Testowanie równości wariancji test F-Fishera Testowanie równości wartości średnich test t-studenta

Bardziej szczegółowo

Tydzień nr 9-10 (16 maja - 29 maja), Równania różniczkowe, wartości własne, funkcja wykładnicza od operatora - Matematyka II 2010/2011L

Tydzień nr 9-10 (16 maja - 29 maja), Równania różniczkowe, wartości własne, funkcja wykładnicza od operatora - Matematyka II 2010/2011L Tydzień nr 9-10 (16 maja - 29 maja) Równania różniczkowe wartości własne funkcja wykładnicza od operatora - Matematyka II 2010/2011L Wszelkie pytania oraz uwagi o błędach proszę kierować na przemek.majewski@gmail.com

Bardziej szczegółowo

2 Kryptografia: algorytmy symetryczne

2 Kryptografia: algorytmy symetryczne 1 Kryptografia: wstęp Wyróżniamy algorytmy: Kodowanie i kompresja Streszczenie Wieczorowe Studia Licencjackie Wykład 14, 12.06.2007 symetryczne: ten sam klucz jest stosowany do szyfrowania i deszyfrowania;

Bardziej szczegółowo

Kwantyzacja skalarna i wektorowa. Metody zaawansowane

Kwantyzacja skalarna i wektorowa. Metody zaawansowane Kwantyzacja skalarna i wektorowa. Metody zaawansowane Kwantyzacja blokowa BTC (block truncation coding) Innym przykładem metod kwantyzacji adaptacyjnej wymagającej wstępnego podziału obrazu na bloki i

Bardziej szczegółowo

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Wykład 10 Mapa cech Kohonena i jej modyfikacje - uczenie sieci samoorganizujących się - kwantowanie wektorowe

Bardziej szczegółowo

Kody splotowe (konwolucyjne)

Kody splotowe (konwolucyjne) Modulacja i Kodowanie Labolatorium Kodowanie kanałowe kody konwolucyjne Kody splotowe (konwolucyjne) Główną różnicą pomiędzy kodami blokowi a konwolucyjnymi (splotowymi) polega na konstrukcji ciągu kodowego.

Bardziej szczegółowo

Kody splotowe. Zastosowanie

Kody splotowe. Zastosowanie Kody splotowe Zastosowanie Niekiedy potrzeba buforowania fragmentu wiadomości przed zakodowaniem, tak jak to ma miejsce w koderze blokowym, jest przeszkodą, gdyż dane do zakodowania napływają strumieniem.

Bardziej szczegółowo

Metody probabilistyczne

Metody probabilistyczne Metody probabilistyczne. Twierdzenia graniczne Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 20.2.208 / 26 Motywacja Rzucamy wielokrotnie uczciwą monetą i zliczamy

Bardziej szczegółowo

Kodowanie Huffmana. Platforma programistyczna.net; materiały do laboratorium 2014/15 Marcin Wilczewski

Kodowanie Huffmana. Platforma programistyczna.net; materiały do laboratorium 2014/15 Marcin Wilczewski Kodowanie Huffmana Platforma programistyczna.net; materiały do laboratorium 24/5 Marcin Wilczewski Algorytm Huffmana (David Huffman, 952) Algorytm Huffmana jest popularnym algorytmem generującym optymalny

Bardziej szczegółowo

SPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization

SPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization Wrocław University of Technology SPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization Jakub M. Tomczak Studenckie Koło Naukowe Estymator jakub.tomczak@pwr.wroc.pl 4.1.213 Klasteryzacja Zmienne

Bardziej szczegółowo

1.1. Pozycyjne systemy liczbowe

1.1. Pozycyjne systemy liczbowe 1.1. Pozycyjne systemy liczbowe Systemami liczenia nazywa się sposób tworzenia liczb ze znaków cyfrowych oraz zbiór reguł umożliwiających wykonywanie operacji arytmetycznych na liczbach. Dla dowolnego

Bardziej szczegółowo

Audio i video. R. Robert Gajewski omklnx.il.pw.edu.pl/~rgajewski

Audio i video. R. Robert Gajewski omklnx.il.pw.edu.pl/~rgajewski Audio i video R. Robert Gajewski omklnx.il.pw.edu.pl/~rgajewski s-rg@siwy.il.pw.edu.pl Fale dźwiękowe Dźwięk jest drganiem powietrza rozchodzącym się w postaci fali. Fala ma określoną amplitudę i częstotliwość.

Bardziej szczegółowo

Przetwarzanie i transmisja danych multimedialnych. Wykład 5 Kodowanie słownikowe. Przemysław Sękalski.

Przetwarzanie i transmisja danych multimedialnych. Wykład 5 Kodowanie słownikowe. Przemysław Sękalski. Przetwarzanie i transmisja danych multimedialnych Wykład 5 Kodowanie słownikowe Przemysław Sękalski sekalski@dmcs.pl Politechnika Łódzka Katedra Mikroelektroniki i Technik Informatycznych DMCS Przemysław

Bardziej szczegółowo

2 Arytmetyka. d r 2 r + d r 1 2 r 1...d d 0 2 0,

2 Arytmetyka. d r 2 r + d r 1 2 r 1...d d 0 2 0, 2 Arytmetyka Niech b = d r d r 1 d 1 d 0 będzie zapisem liczby w systemie dwójkowym Zamiana zapisu liczby b na system dziesiętny odbywa się poprzez wykonanie dodawania d r 2 r + d r 1 2 r 1 d 1 2 1 + d

Bardziej szczegółowo

Aproksymacja funkcji a regresja symboliczna

Aproksymacja funkcji a regresja symboliczna Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(x), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(x), zwaną funkcją aproksymującą

Bardziej szczegółowo

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów Rozdział : Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów W tym rozdziale omówione zostaną dwie najpopularniejsze metody estymacji parametrów w ekonometrycznych modelach nieliniowych,

Bardziej szczegółowo

Dane, informacja, programy. Kodowanie danych, kompresja stratna i bezstratna

Dane, informacja, programy. Kodowanie danych, kompresja stratna i bezstratna Dane, informacja, programy Kodowanie danych, kompresja stratna i bezstratna DANE Uporządkowane, zorganizowane fakty. Główne grupy danych: tekstowe (znaki alfanumeryczne, znaki specjalne) graficzne (ilustracje,

Bardziej szczegółowo

Kodowanie i entropia

Kodowanie i entropia Kodowanie i entropia Marek Śmieja Teoria informacji 1 / 34 Kod S - alfabet źródłowy mocy m (np. litery, cyfry, znaki interpunkcyjne), A = {a 1,..., a n } - alfabet kodowy (symbole), Chcemy przesłać tekst

Bardziej szczegółowo

Pracownia Komputerowa wyk ad IV

Pracownia Komputerowa wyk ad IV Pracownia Komputerowa wykad IV dr Magdalena Posiadaa-Zezula Magdalena.Posiadala@fuw.edu.pl http://www.fuw.edu.pl/~mposiada Magdalena.Posiadala@fuw.edu.pl 1 Reprezentacje liczb i znaków Liczby: Reprezentacja

Bardziej szczegółowo

3. Macierze i Układy Równań Liniowych

3. Macierze i Układy Równań Liniowych 3. Macierze i Układy Równań Liniowych Rozważamy równanie macierzowe z końcówki ostatniego wykładu ( ) 3 1 X = 4 1 ( ) 2 5 Podstawiając X = ( ) x y i wymnażając, otrzymujemy układ 2 równań liniowych 3x

Bardziej szczegółowo

2. Próbkowanie Sygnały okresowe (16). Trygonometryczny szereg Fouriera (17). Częstotliwość Nyquista (20).

2. Próbkowanie Sygnały okresowe (16). Trygonometryczny szereg Fouriera (17). Częstotliwość Nyquista (20). SPIS TREŚCI ROZDZIAŁ I SYGNAŁY CYFROWE 9 1. Pojęcia wstępne Wiadomości, informacje, dane, sygnały (9). Sygnał jako nośnik informacji (11). Sygnał jako funkcja (12). Sygnał analogowy (13). Sygnał cyfrowy

Bardziej szczegółowo

Wykład 8. Informatyka Stosowana. 26 listopada 2018 Magdalena Alama-Bućko. Informatyka Stosowana Wykład , M.A-B 1 / 31

Wykład 8. Informatyka Stosowana. 26 listopada 2018 Magdalena Alama-Bućko. Informatyka Stosowana Wykład , M.A-B 1 / 31 Wykład 8 Informatyka Stosowana 26 listopada 208 Magdalena Alama-Bućko Informatyka Stosowana Wykład 8 26..208, M.A-B / 3 Definicja Ciagiem liczbowym {a n }, n N nazywamy funkcję odwzorowujac a zbiór liczb

Bardziej szczegółowo

Próbkowanie. Wykład 4 Próbkowanie i rozkłady próbkowe. Populacja a próba. Błędy w póbkowaniu, cd, Przykład 1 (Ochotnicy)

Próbkowanie. Wykład 4 Próbkowanie i rozkłady próbkowe. Populacja a próba. Błędy w póbkowaniu, cd, Przykład 1 (Ochotnicy) Wykład 4 Próbkowanie i rozkłady próbkowe µ = średnia w populacji, µ=ey, wartość oczekiwana zmiennej Y σ= odchylenie standardowe w populacji, σ =(Var Y) 1/2, pierwiastek kwadratowy wariancji zmiennej Y,

Bardziej szczegółowo

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki WYKŁAD 6 Witold Bednorz, Paweł Wolff 1 Instytut Matematyki Uniwersytet Warszawski Rachunek Prawdopodobieństwa, WNE, 2010-2011 Własności Wariancji Przypomnijmy, że VarX = E(X EX) 2 = EX 2 (EX) 2. Własności

Bardziej szczegółowo

RÓWNANIA NIELINIOWE Maciej Patan

RÓWNANIA NIELINIOWE Maciej Patan RÓWNANIA NIELINIOWE Maciej Patan Uniwersytet Zielonogórski Przykład 1 Prędkość v spadającego spadochroniarza wyraża się zależnością v = mg ( 1 e c t) m c gdzie g = 9.81 m/s 2. Dla współczynnika oporu c

Bardziej szczegółowo

Def. Kod jednoznacznie definiowalny Def. Kod przedrostkowy Def. Kod optymalny. Przykłady kodów. Kody optymalne

Def. Kod jednoznacznie definiowalny Def. Kod przedrostkowy Def. Kod optymalny. Przykłady kodów. Kody optymalne Załóżmy, że mamy źródło S, które generuje symbole ze zbioru S={x, x 2,..., x N } z prawdopodobieństwem P={p, p 2,..., p N }, symbolom tym odpowiadają kody P={c, c 2,..., c N }. fektywność danego sposobu

Bardziej szczegółowo

Oznacza to, że chcemy znaleźć minimum, a właściwie wartość najmniejszą funkcji

Oznacza to, że chcemy znaleźć minimum, a właściwie wartość najmniejszą funkcji Wykład 11. Metoda najmniejszych kwadratów Szukamy zależności Dane są wyniki pomiarów dwóch wielkości x i y: (x 1, y 1 ), (x 2, y 2 ),..., (x n, y n ). Przypuśćmy, że nanieśliśmy je na wykres w układzie

Bardziej szczegółowo

Kompresja obrazów w statycznych - algorytm JPEG

Kompresja obrazów w statycznych - algorytm JPEG Kompresja obrazów w statycznych - algorytm JPEG Joint Photographic Expert Group - 986 ISO - International Standard Organisation CCITT - Comité Consultatif International de Téléphonie et Télégraphie Standard

Bardziej szczegółowo