Kwantyzacja wektorowa. Kodowanie różnicowe.
|
|
- Bartłomiej Dziedzic
- 5 lat temu
- Przeglądów:
Transkrypt
1 Kwantyzacja wektorowa. Kodowanie różnicowe. Kodowanie i kompresja informacji - Wykład 7 12 kwietnia 2010
2 Kwantyzacja wektorowa wprowadzenie Zamiast kwantyzować pojedyncze elementy kwantyzujemy całe bloki (wektory).
3 Kwantyzacja wektorowa wprowadzenie Zamiast kwantyzować pojedyncze elementy kwantyzujemy całe bloki (wektory). Prowadzi to często do mniejszych zniekształceń.
4 Kwantyzacja wektorowa wprowadzenie Zamiast kwantyzować pojedyncze elementy kwantyzujemy całe bloki (wektory). Prowadzi to często do mniejszych zniekształceń. Szczególnie przydatne w obrazach: podobieństwo całych bloków.
5 Kwantyzacja wektorowa wprowadzenie Zamiast kwantyzować pojedyncze elementy kwantyzujemy całe bloki (wektory). Prowadzi to często do mniejszych zniekształceń. Szczególnie przydatne w obrazach: podobieństwo całych bloków. Jak wybierać reprezentacje wektorów?
6 Miary kwantyzacji (wektorowej) Średniokwadratowy bład kwantyzacji Średnia z kwadratów różnic między wejściem kodera, a wyjściem dekodera. Jeśli Q operacja kwantyzacji i Q(X) = Y i Yi C X Y j X Y i, gdzie C jest słownikiem kwantyzatora, to D = m i=1 V i X Y i 2 f X (X) dx (zniekształcenie liczymy po próbkach, tak jak w przypadku kwantyzacji skalarnej, ciężko to jednak zapisać w postaci ogólnej).
7 Miary kwantyzacji (wektorowej) (2) Średnia bitowa kwantyzatora Średnia liczba bitów potrzebna do reprezentowania jednej danej wynikowej kwantyzatora (wartości rekonstrukcyjnej próbki).
8 Miara kompresji Poziom kompresji Słownik zawiera K elementów, a wektor wejściowy ma wymiar L (liczba elementów w bloku): do zakodowania numeru wybranego wektora potrzebujemy log 2 K bitów,
9 Miara kompresji Poziom kompresji Słownik zawiera K elementów, a wektor wejściowy ma wymiar L (liczba elementów w bloku): do zakodowania numeru wybranego wektora potrzebujemy log 2 K bitów, każdy wektor zawiera rekonstruowane wartości z L próbek (termin próbka oznacza zawsze wartość skalarna, wyniki kwantyzatora sa nazywane poziomami),
10 Miara kompresji Poziom kompresji Słownik zawiera K elementów, a wektor wejściowy ma wymiar L (liczba elementów w bloku): do zakodowania numeru wybranego wektora potrzebujemy log 2 K bitów, każdy wektor zawiera rekonstruowane wartości z L próbek (termin próbka oznacza zawsze wartość skalarna, wyniki kwantyzatora sa nazywane poziomami), zatem: liczba bitów na próbkę wynosi log 2 K L.
11 Przykład
12 Przykład po przeniesieniu punktu
13 Algorytm Linndego-Buza-Graya
14 Algorytm Linndego-Buza-Graya 1 Wybierz dowolnie poczatkowy zbiór rekonstruowanych wartości {Y (0) i } m i=1. Ustal k = 0, D ( 1) = 0. Wybierz próg ε.
15 Algorytm Linndego-Buza-Graya 1 Wybierz dowolnie poczatkowy zbiór rekonstruowanych wartości {Y (0) i } m i=1. Ustal k = 0, D ( 1) = 0. Wybierz próg ε. 2 Znajdź obszary kwantyzacji V (k) i = {X : j i d(x, Y i ) < d(x, Y j )}.
16 Algorytm Linndego-Buza-Graya 1 Wybierz dowolnie poczatkowy zbiór rekonstruowanych wartości {Y (0) i } m i=1. Ustal k = 0, D ( 1) = 0. Wybierz próg ε. 2 Znajdź obszary kwantyzacji V (k) i = {X : j i d(x, Y i ) < d(x, Y j )}. 3 Oblicz zniekształcenie D (k) = m i=1 V (k) i X Y (k) i 2 f X (X) dx.
17 Algorytm Linndego-Buza-Graya 1 Wybierz dowolnie poczatkowy zbiór rekonstruowanych wartości {Y (0) i } m i=1. Ustal k = 0, D ( 1) = 0. Wybierz próg ε. 2 Znajdź obszary kwantyzacji V (k) i = {X : j i d(x, Y i ) < d(x, Y j )}. 3 Oblicz zniekształcenie D (k) = m i=1 4 Jeśli D(k) D (k 1) D (k) V (k) i X Y (k) i 2 f X (X) dx. < ε zakończ obliczenia.
18 Algorytm Linndego-Buza-Graya 1 Wybierz dowolnie poczatkowy zbiór rekonstruowanych wartości {Y (0) i } m i=1. Ustal k = 0, D ( 1) = 0. Wybierz próg ε. 2 Znajdź obszary kwantyzacji V (k) i = {X : j i d(x, Y i ) < d(x, Y j )}. 3 Oblicz zniekształcenie D (k) = m i=1 4 Jeśli D(k) D (k 1) D (k) V (k) i X Y (k) i 2 f X (X) dx. < ε zakończ obliczenia. } m i=1 5 Przyjmij k k + 1. Za nowe {Y (k) i ciężkości {V (k 1) i }. Wróć do kroku 2. przyjmij środki
19 Algorytm Linndego-Buza-Graya 1 Wybierz dowolnie poczatkowy zbiór rekonstruowanych wartości {Y (0) i } m i=1. Ustal k = 0, D ( 1) = 0. Wybierz próg ε. 2 Znajdź obszary kwantyzacji V (k) i = {X : j i d(x, Y i ) < d(x, Y j )}. 3 Oblicz zniekształcenie D (k) = m i=1 4 Jeśli D(k) D (k 1) D (k) V (k) i X Y (k) i 2 f X (X) dx. < ε zakończ obliczenia. } m i=1 5 Przyjmij k k + 1. Za nowe {Y (k) i ciężkości {V (k 1) i }. Wróć do kroku 2. W praktyce zamiast rozkładów używa się zbiorów uczacych. przyjmij środki
20 Inicjalizacja algorytmu LBG metoda podziałów Rozpoczynamy z jednym punktem (rozmiar słownika 1), będacym średnia z całego zbioru uczacego.
21 Inicjalizacja algorytmu LBG metoda podziałów Rozpoczynamy z jednym punktem (rozmiar słownika 1), będacym średnia z całego zbioru uczacego. Dodajemy pewien ustalony wektor perturbacji ɛ do każdego punktu słownika i wykonujemy LBG.
22 Inicjalizacja algorytmu LBG metoda podziałów Rozpoczynamy z jednym punktem (rozmiar słownika 1), będacym średnia z całego zbioru uczacego. Dodajemy pewien ustalony wektor perturbacji ɛ do każdego punktu słownika i wykonujemy LBG. Kontynuujemy aż do uzyskania zakładanej liczby poziomów (jeżeli nie jest potęga 2, to w ostatnim kroku nie wszystkie podwajamy).
23 Kwantyzatory o strukturze drzewiastej Jak poradzić sobie z dużymi słownikami kwantyzacji? Dzielimy przestrzeń na dwie części i uzyskujemy dla nich wektory reprezentacji.
24 Kwantyzatory o strukturze drzewiastej Jak poradzić sobie z dużymi słownikami kwantyzacji? Dzielimy przestrzeń na dwie części i uzyskujemy dla nich wektory reprezentacji. Powtarzamy procedurę dla każdej części, aż uzyskamy pełne drzewo (binarne) o wysokości k.
25 Kwantyzatory o strukturze drzewiastej Jak poradzić sobie z dużymi słownikami kwantyzacji? Dzielimy przestrzeń na dwie części i uzyskujemy dla nich wektory reprezentacji. Powtarzamy procedurę dla każdej części, aż uzyskamy pełne drzewo (binarne) o wysokości k. Możemy przyciać niektóre poddrzewa, jeśli zmniejszy to zniekształcenie.
26 Kwantyzatory o strukturze drzewiastej Jak poradzić sobie z dużymi słownikami kwantyzacji? Dzielimy przestrzeń na dwie części i uzyskujemy dla nich wektory reprezentacji. Powtarzamy procedurę dla każdej części, aż uzyskamy pełne drzewo (binarne) o wysokości k. Możemy przyciać niektóre poddrzewa, jeśli zmniejszy to zniekształcenie. Wada: zwykle tylko dla kwantyzatorów symetrycznych otrzymujemy optymalne rozwiazania.
27 Przykład
28 Kratowa kwantyzacja wektorowa Krata (def. uproszczona) Niech { a 1, a 2,..., a L } będa L niezależnymi wektorami o L wymiarach. Wówczas zbiór { } L L = x : x = u i a i jest krata, jeśli wszystkie u i sa liczbami całkowitymi. i=1
29 Przykład kraty D 2 Dla a 1 = (1, 1), a 2 = (1, 1) otrzymujemy (D-kraty maja parzysta sumę współrzędnych)
30 Przykład kraty A 2 Dla a 1 = (1, 0), a 2 = ( 1 2, 3 2 ) otrzymujemy
31 Inne rodzaje kwantyzacji wektorowej piramidalne,
32 Inne rodzaje kwantyzacji wektorowej piramidalne, sferyczne i biegunowe,
33 Inne rodzaje kwantyzacji wektorowej piramidalne, sferyczne i biegunowe, skala-kształt,
34 Inne rodzaje kwantyzacji wektorowej piramidalne, sferyczne i biegunowe, skala-kształt, z usunięta średnia,
35 Inne rodzaje kwantyzacji wektorowej piramidalne, sferyczne i biegunowe, skala-kształt, z usunięta średnia, klasyfikowana,
36 Inne rodzaje kwantyzacji wektorowej piramidalne, sferyczne i biegunowe, skala-kształt, z usunięta średnia, klasyfikowana, wieloetapowa,
37 Inne rodzaje kwantyzacji wektorowej piramidalne, sferyczne i biegunowe, skala-kształt, z usunięta średnia, klasyfikowana, wieloetapowa, adaptacyjna.
38 Kwantyzacja podsumowanie Prosta metoda przejścia z dużego alfabetu symboli na znacznie mniejszy.
39 Kwantyzacja podsumowanie Prosta metoda przejścia z dużego alfabetu symboli na znacznie mniejszy. Dla bardzo wielu modeli danych opracowane zostały bardzo dobre metody kwantyzacji, charakteryzujace się małymi zniekształceniami.
40 Kwantyzacja podsumowanie Prosta metoda przejścia z dużego alfabetu symboli na znacznie mniejszy. Dla bardzo wielu modeli danych opracowane zostały bardzo dobre metody kwantyzacji, charakteryzujace się małymi zniekształceniami. Po kwantyzacji można stosować do kompresji znane metody bezstratne.
41 Kodowanie różnicowe - wprowadzenie Dla danych takich jak mowa czy obrazy istnieje duża korelacja między kolejnymi elementami (próbkami).
42 Kodowanie różnicowe - wprowadzenie Dla danych takich jak mowa czy obrazy istnieje duża korelacja między kolejnymi elementami (próbkami). Można to wykorzystać kodujac różnice między kolejnymi elementami.
43 Kodowanie różnicowe - wprowadzenie Dla danych takich jak mowa czy obrazy istnieje duża korelacja między kolejnymi elementami (próbkami). Można to wykorzystać kodujac różnice między kolejnymi elementami. Wariancja i wielkość różnic moga być znaczaco mniejsze niż wariancja i wielkość elementów wejściowego ciagu.
44 Przykład Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8
45 Przykład Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Przy założeniu że pierwsza wartościa wejściowa jest 0, ciag różnic wyglada następujaco: 6.2, 3.5, 3.5, 7.3, 2.1, 0.6, 3.2, 2.4
46 Przykład Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Przy założeniu że pierwsza wartościa wejściowa jest 0, ciag różnic wyglada następujaco: 6.2, 3.5, 3.5, 7.3, 2.1, 0.6, 3.2, 2.4 Co się stanie jeśli skwantyzujemy (skompresujemy stratnie) ciag różnic kwantyzatorem z 7 wartościami 6, 4, 2, 0, 2, 4, 6.
47 Przykład Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Przy założeniu że pierwsza wartościa wejściowa jest 0, ciag różnic wyglada następujaco: 6.2, 3.5, 3.5, 7.3, 2.1, 0.6, 3.2, 2.4 Co się stanie jeśli skwantyzujemy (skompresujemy stratnie) ciag różnic kwantyzatorem z 7 wartościami 6, 4, 2, 0, 2, 4, 6. Otrzymujemy skwantyzowany ciag: 6, 4, 4, 6, 2, 0, 4, 2
48 Przykład Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Przy założeniu że pierwsza wartościa wejściowa jest 0, ciag różnic wyglada następujaco: 6.2, 3.5, 3.5, 7.3, 2.1, 0.6, 3.2, 2.4 Co się stanie jeśli skwantyzujemy (skompresujemy stratnie) ciag różnic kwantyzatorem z 7 wartościami 6, 4, 2, 0, 2, 4, 6. Otrzymujemy skwantyzowany ciag: 6, 4, 4, 6, 2, 0, 4, 2 Rekonstruujac ciag otrzymamy: 6, 10, 14, 8, 10, 10, 6, 4
49 Przykład Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Przy założeniu że pierwsza wartościa wejściowa jest 0, ciag różnic wyglada następujaco: 6.2, 3.5, 3.5, 7.3, 2.1, 0.6, 3.2, 2.4 Co się stanie jeśli skwantyzujemy (skompresujemy stratnie) ciag różnic kwantyzatorem z 7 wartościami 6, 4, 2, 0, 2, 4, 6. Otrzymujemy skwantyzowany ciag: 6, 4, 4, 6, 2, 0, 4, 2 Rekonstruujac ciag otrzymamy: 6, 10, 14, 8, 10, 10, 6, 4 Bład (różnica między oryginalnym a rekonstruowanym ciagiem) wynosi: 0.2, 0.3, 0.8, 2.1, 2, 2.6, 1.8, 2.2
50 Przykład Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Przy założeniu że pierwsza wartościa wejściowa jest 0, ciag różnic wyglada następujaco: 6.2, 3.5, 3.5, 7.3, 2.1, 0.6, 3.2, 2.4 Co się stanie jeśli skwantyzujemy (skompresujemy stratnie) ciag różnic kwantyzatorem z 7 wartościami 6, 4, 2, 0, 2, 4, 6. Otrzymujemy skwantyzowany ciag: 6, 4, 4, 6, 2, 0, 4, 2 Rekonstruujac ciag otrzymamy: 6, 10, 14, 8, 10, 10, 6, 4 Bład (różnica między oryginalnym a rekonstruowanym ciagiem) wynosi: 0.2, 0.3, 0.8, 2.1, 2, 2.6, 1.8, 2.2 Zauważmy, że wielkość błędu rośnie.
51 Analiza Mamy ciag {x n }. Ciag różnic {d n } generujemy biorac d n = x n x n 1. Kwantyzujac według wzoru ˆd n = Q[d n ] = d n + q n otrzymujemy ciag {ˆd n }, gdzie q n jest błędem kwantyzacji.
52 Analiza Mamy ciag {x n }. Ciag różnic {d n } generujemy biorac d n = x n x n 1. Kwantyzujac według wzoru ˆd n = Q[d n ] = d n + q n otrzymujemy ciag {ˆd n }, gdzie q n jest błędem kwantyzacji. U odbiorcy odtwarzamy ciag {ˆx n } według wzoru ˆx n = ˆx n 1 + ˆd n.
53 Analiza Mamy ciag {x n }. Ciag różnic {d n } generujemy biorac d n = x n x n 1. Kwantyzujac według wzoru ˆd n = Q[d n ] = d n + q n otrzymujemy ciag {ˆd n }, gdzie q n jest błędem kwantyzacji. U odbiorcy odtwarzamy ciag {ˆx n } według wzoru ˆx n = ˆx n 1 + ˆd n. Łatwo policzyć, że ˆx n = x n + n i=1 q i.
54 Analiza Mamy ciag {x n }. Ciag różnic {d n } generujemy biorac d n = x n x n 1. Kwantyzujac według wzoru ˆd n = Q[d n ] = d n + q n otrzymujemy ciag {ˆd n }, gdzie q n jest błędem kwantyzacji. U odbiorcy odtwarzamy ciag {ˆx n } według wzoru ˆx n = ˆx n 1 + ˆd n. Łatwo policzyć, że ˆx n = x n + n i=1 q i. Bład kwantyzacji akumuluje się z czasem.
55 Analiza Mamy ciag {x n }. Ciag różnic {d n } generujemy biorac d n = x n x n 1. Kwantyzujac według wzoru ˆd n = Q[d n ] = d n + q n otrzymujemy ciag {ˆd n }, gdzie q n jest błędem kwantyzacji. U odbiorcy odtwarzamy ciag {ˆx n } według wzoru ˆx n = ˆx n 1 + ˆd n. Łatwo policzyć, że ˆx n = x n + n i=1 q i. Bład kwantyzacji akumuluje się z czasem. Jak temu zapobiec?
56 Analiza Mamy ciag {x n }. Ciag różnic {d n } generujemy biorac d n = x n x n 1. Kwantyzujac według wzoru ˆd n = Q[d n ] = d n + q n otrzymujemy ciag {ˆd n }, gdzie q n jest błędem kwantyzacji. U odbiorcy odtwarzamy ciag {ˆx n } według wzoru ˆx n = ˆx n 1 + ˆd n. Łatwo policzyć, że ˆx n = x n + n i=1 q i. Bład kwantyzacji akumuluje się z czasem. Jak temu zapobiec? Użyjmy do obliczenia różnicy zależności d n = x n ˆx n 1.
57 Analiza Mamy ciag {x n }. Ciag różnic {d n } generujemy biorac d n = x n x n 1. Kwantyzujac według wzoru ˆd n = Q[d n ] = d n + q n otrzymujemy ciag {ˆd n }, gdzie q n jest błędem kwantyzacji. U odbiorcy odtwarzamy ciag {ˆx n } według wzoru ˆx n = ˆx n 1 + ˆd n. Łatwo policzyć, że ˆx n = x n + n i=1 q i. Bład kwantyzacji akumuluje się z czasem. Jak temu zapobiec? Użyjmy do obliczenia różnicy zależności d n = x n ˆx n 1. Wtedy ˆx n = x n + q n.
58 Przykład Policzmy poprzedni przykład nowa metoda.
59 Przykład Policzmy poprzedni przykład nowa metoda. Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8
60 Przykład Policzmy poprzedni przykład nowa metoda. Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Mamy kwantyzator: 6, 4, 2, 0, 2, 4, 6.
61 Przykład Policzmy poprzedni przykład nowa metoda. Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Mamy kwantyzator: 6, 4, 2, 0, 2, 4, 6. Ciag różnic: 6.2, 3.7, 3.2, 8.1, 0, 0.6, 3.8, 2.2
62 Przykład Policzmy poprzedni przykład nowa metoda. Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Mamy kwantyzator: 6, 4, 2, 0, 2, 4, 6. Ciag różnic: 6.2, 3.7, 3.2, 8.1, 0, 0.6, 3.8, 2.2 Skwantyzowany ciag różnic: 6, 4, 4, 6, 0, 0, 4, 2
63 Przykład Policzmy poprzedni przykład nowa metoda. Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Mamy kwantyzator: 6, 4, 2, 0, 2, 4, 6. Ciag różnic: 6.2, 3.7, 3.2, 8.1, 0, 0.6, 3.8, 2.2 Skwantyzowany ciag różnic: 6, 4, 4, 6, 0, 0, 4, 2 Zrekonstruowany ciag: 6, 10, 14, 8, 8, 8, 4, 2
64 Przykład Policzmy poprzedni przykład nowa metoda. Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Mamy kwantyzator: 6, 4, 2, 0, 2, 4, 6. Ciag różnic: 6.2, 3.7, 3.2, 8.1, 0, 0.6, 3.8, 2.2 Skwantyzowany ciag różnic: 6, 4, 4, 6, 0, 0, 4, 2 Zrekonstruowany ciag: 6, 10, 14, 8, 8, 8, 4, 2 Bład: 0.2, 0.3, 0.8, 2.1, 0, 0.6, 0.2, 0.2
65 Predykcja DPCM Differential Pulse Code Modulation - różnicowa modulacja kodowo-impulsowa.
66 Predykcja DPCM Differential Pulse Code Modulation - różnicowa modulacja kodowo-impulsowa. Załóżmy, że zamiast różnicy między kolejnymi elementami mamy funkcję predykcyjna która generuje nam ciag {p n }, p n = f (ˆx n 1,..., ˆx 0 ), i kodujemy różnicę x n p n.
67 Predykcja DPCM Differential Pulse Code Modulation - różnicowa modulacja kodowo-impulsowa. Załóżmy, że zamiast różnicy między kolejnymi elementami mamy funkcję predykcyjna która generuje nam ciag {p n }, p n = f (ˆx n 1,..., ˆx 0 ), i kodujemy różnicę x n p n. Chcemy znaleźć takie f które minimalizuje nam σ 2 d = E[(x n p n ) 2 ]
68 Predykcja DPCM Problem jest trudny więc zakładamy, że predyktor jest funkcja postaci N p n = a i ˆx n 1. i=1 N określa rzad predyktora.
69 Predykcja DPCM Problem jest trudny więc zakładamy, że predyktor jest funkcja postaci N p n = a i ˆx n 1. i=1 N określa rzad predyktora. Aby uprościć rachunki dodatkowo zamiast ˆx n używamy x n (zakładamy, że błędy kwantyzacji sa bardzo małe).
70 Predykcja DPCM Problem jest trudny więc zakładamy, że predyktor jest funkcja postaci N p n = a i ˆx n 1. i=1 N określa rzad predyktora. Aby uprościć rachunki dodatkowo zamiast ˆx n używamy x n (zakładamy, że błędy kwantyzacji sa bardzo małe). Chcemy teraz znaleźć takie wartości {a i } aby zminimalizować ( σd 2 = E x n N i=1 ) 2 a i x n i
71 Predykcja DPCM Weźmy pochodna σd 2 względem każdego a i i przyrównajmy do zera.
72 Predykcja DPCM Weźmy pochodna σd 2 względem każdego a i i przyrównajmy do zera. Otrzymamy N równań postaci [( ) ] δσd 2 N = 2E x n a i x n i x n j = 0 δa j i=1
73 Predykcja DPCM Weźmy pochodna σd 2 względem każdego a i i przyrównajmy do zera. Otrzymamy N równań postaci [( ) ] δσd 2 N = 2E x n a i x n i x n j = 0 δa j i=1 Obliczajac wartości oczekiwane otrzymamy układ N a i R xx (i j) = R xx (j) i=1 gdzie R xx (k) = E[x n x n+k ] jest funkcja autokorelacji zmiennej x n.
74 Predykcja DPCM Weźmy pochodna σd 2 względem każdego a i i przyrównajmy do zera. Otrzymamy N równań postaci [( ) ] δσd 2 N = 2E x n a i x n i x n j = 0 δa j i=1 Obliczajac wartości oczekiwane otrzymamy układ N a i R xx (i j) = R xx (j) i=1 gdzie R xx (k) = E[x n x n+k ] jest funkcja autokorelacji zmiennej x n. Jeśli znamy wartości autokorelacji możemy znaleźć wartości a i.
75 Odmiany DPCM Adaptacyjne DPCM: adaptacja w przód i wstecz.
76 Odmiany DPCM Adaptacyjne DPCM: adaptacja w przód i wstecz. Modulacja delta: dwustopniowy kwantyzator i odpowiednia częstość próbkowania (dwa razy częstsza niż największa częstotliwość)
77 Zastosowanie Kodowanie mowy - Standard G.726
78 Zastosowanie Kodowanie mowy - Standard G.726 Próbkowanie z częstościa 8000 próbek na sekundę.
79 Zastosowanie Kodowanie mowy - Standard G.726 Próbkowanie z częstościa 8000 próbek na sekundę. Prędkości 40, 32, 24 i 16 kb/s przekładaja się na próbki 5, 4, 3 i 2 bitowe.
80 Zastosowanie Kodowanie mowy - Standard G.726 Próbkowanie z częstościa 8000 próbek na sekundę. Prędkości 40, 32, 24 i 16 kb/s przekładaja się na próbki 5, 4, 3 i 2 bitowe. Poza prędkościa 16kb używamy kwantyzatora o liczbie poziomów 2 n 1, gdzie n liczba bitów próbki.
81 Zastosowanie Kodowanie mowy - Standard G.726 Próbkowanie z częstościa 8000 próbek na sekundę. Prędkości 40, 32, 24 i 16 kb/s przekładaja się na próbki 5, 4, 3 i 2 bitowe. Poza prędkościa 16kb używamy kwantyzatora o liczbie poziomów 2 n 1, gdzie n liczba bitów próbki. Kwantyzator adaptacyjny wstecz.
82 Zastosowanie Kodowanie mowy - Standard G.726 Próbkowanie z częstościa 8000 próbek na sekundę. Prędkości 40, 32, 24 i 16 kb/s przekładaja się na próbki 5, 4, 3 i 2 bitowe. Poza prędkościa 16kb używamy kwantyzatora o liczbie poziomów 2 n 1, gdzie n liczba bitów próbki. Kwantyzator adaptacyjny wstecz. Predyktor adaptacyjny wstecz rzędu 2.
83 Zastosowanie Kodowanie mowy - Standard G.726 Próbkowanie z częstościa 8000 próbek na sekundę. Prędkości 40, 32, 24 i 16 kb/s przekładaja się na próbki 5, 4, 3 i 2 bitowe. Poza prędkościa 16kb używamy kwantyzatora o liczbie poziomów 2 n 1, gdzie n liczba bitów próbki. Kwantyzator adaptacyjny wstecz. Predyktor adaptacyjny wstecz rzędu 2. Kodowanie obrazów
Kompresja danych DKDA (7)
Kompresja danych DKDA (7) Marcin Gogolewski marcing@wmi.amu.edu.pl Uniwersytet im. Adama Mickiewicza w Poznaniu Poznań, 22 listopada 2016 1 Kwantyzacja skalarna Wprowadzenie Analiza jakości Typy kwantyzatorów
Bardziej szczegółowoKompresja danych Streszczenie Studia Dzienne Wykład 10,
1 Kwantyzacja wektorowa Kompresja danych Streszczenie Studia Dzienne Wykład 10, 28.04.2006 Kwantyzacja wektorowa: dane dzielone na bloki (wektory), każdy blok kwantyzowany jako jeden element danych. Ogólny
Bardziej szczegółowoKodowanie i kompresja Streszczenie Studia dzienne Wykład 12,
1 Kompresja stratna Kodowanie i kompresja Streszczenie Studia dzienne Wykład 12, 5.05.2005 Algorytmy kompresji bezstratnej oceniane są ze względu na: stopień kompresji; czas działania procesu kodowania
Bardziej szczegółowoPrzetwarzanie i transmisja danych multimedialnych. Wykład 6 Metody predykcyjne. Przemysław Sękalski.
Przetwarzanie i transmisja danych multimedialnych Wykład 6 Metody predykcyjne Przemysław Sękalski sekalski@dmcs.pl Politechnika Łódzka Katedra Mikroelektroniki i Technik Informatycznych DMCS Wykład opracowano
Bardziej szczegółowoKodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11,
1 Kwantyzacja skalarna Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11, 10.05.005 Kwantyzacja polega na reprezentowaniu dużego zbioru wartości (być może nieskończonego) za pomocą wartości
Bardziej szczegółowoKwantowanie sygnałów analogowych na przykładzie sygnału mowy
Kwantowanie sygnałów analogowych na przykładzie sygnału mowy Treść wykładu: Sygnał mowy i jego właściwości Kwantowanie skalarne: kwantyzator równomierny, nierównomierny, adaptacyjny Zastosowanie w koderze
Bardziej szczegółowoTransformaty. Kodowanie transformujace
Transformaty. Kodowanie transformujace Kodowanie i kompresja informacji - Wykład 10 10 maja 2009 Szeregi Fouriera Każda funkcję okresowa f (t) o okresie T można zapisać jako f (t) = a 0 + a n cos nω 0
Bardziej szczegółowoKwantyzacja wektorowa. Plan 1. Zasada działania 2. Projektowanie. Algorytm LBG 3. Kwantyzatory strukturalne 4. Modyfikacje
Kwantyzacja wektorowa Plan 1. Zasada działania 2. Projektowanie. Algorytm LBG 3. Kwantyzatory strukturalne 4. Modyfikacje Zasada kwantyzacji wektorowej Kwantyzacja skalarna koduje oddzielnie kaŝdą próbkę
Bardziej szczegółowoKOMPRESJA STRATNA SYGNAŁU MOWY. Metody kompresji stratnej sygnałów multimedialnych: Uproszczone modelowanie źródeł generacji sygnałów LPC, CELP
KOMPRESJA STRATNA SYGNAŁU MOWY Metody kompresji stratnej sygnałów multimedialnych: Uproszczone modelowanie źródeł generacji sygnałów LPC, CELP Śledzenie i upraszczanie zmian dynamicznych sygnałów ADPCM
Bardziej szczegółowoMODULACJE IMPULSOWE. TSIM W10: Modulacje impulsowe 1/22
MODULACJE IMPULSOWE TSIM W10: Modulacje impulsowe 1/22 Fala nośna: Modulacja PAM Pulse Amplitude Modulation Sygnał PAM i jego widmo: y PAM (t) = n= x(nt s ) Y PAM (ω) = τ T s Sa(ωτ/2)e j(ωτ/2) ( ) t τ/2
Bardziej szczegółowoZałożenia i obszar zastosowań. JPEG - algorytm kodowania obrazu. Geneza algorytmu KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG
Założenia i obszar zastosowań KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG Plan wykładu: Geneza algorytmu Założenia i obszar zastosowań JPEG kroki algorytmu kodowania obrazu Założenia: Obraz monochromatyczny
Bardziej szczegółowoWybrane metody kompresji obrazów
Wybrane metody kompresji obrazów Celem kodowania kompresyjnego obrazu jest redukcja ilości informacji w nim zawartej. Redukcja ta polega na usuwaniu informacji nadmiarowej w obrazie, tzw. redundancji.
Bardziej szczegółowoWedług raportu ISO z 1988 roku algorytm JPEG składa się z następujących kroków: 0.5, = V i, j. /Q i, j
Kompresja transformacyjna. Opis standardu JPEG. Algorytm JPEG powstał w wyniku prac prowadzonych przez grupę ekspertów (ang. Joint Photographic Expert Group). Prace te zakończyły się w 1991 roku, kiedy
Bardziej szczegółowoKodowanie transformacyjne. Plan 1. Zasada 2. Rodzaje transformacji 3. Standard JPEG
Kodowanie transformacyjne Plan 1. Zasada 2. Rodzaje transformacji 3. Standard JPEG Zasada Zasada podstawowa: na danych wykonujemy transformacje która: Likwiduje korelacje Skupia energię w kilku komponentach
Bardziej szczegółowomgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. GOLOMBA I RICE'A
mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. KOMPRESJA ALGORYTMEM ARYTMETYCZNYM, GOLOMBA I RICE'A Idea algorytmu arytmetycznego Przykład kodowania arytmetycznego Renormalizacja
Bardziej szczegółowoPodstawowe pojęcia. Teoria informacji
Kodowanie i kompresja informacji - Wykład 1 22 luty 2010 Literatura K. Sayood, Kompresja danych - wprowadzenie, READ ME 2002 (ISBN 83-7243-094-2) Literatura K. Sayood, Kompresja danych - wprowadzenie,
Bardziej szczegółowoKompresja JPG obrazu sonarowego z uwzględnieniem założonego poziomu błędu
Kompresja JPG obrazu sonarowego z uwzględnieniem założonego poziomu błędu Mariusz Borawski Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Zbieranie danych Obraz sonarowy
Bardziej szczegółowoKodowanie informacji
Kodowanie informacji Tomasz Wykład 4: kodowanie arytmetyczne Motywacja Podstawy i własności Liczby rzeczywiste Motywacje 1 średnia długość kodu Huffmana może odbiegać o p max + 0.086 od entropii, gdzie
Bardziej szczegółowoTemat: Algorytm kompresji plików metodą Huffmana
Temat: Algorytm kompresji plików metodą Huffmana. Wymagania dotyczące kompresji danych Przez M oznaczmy zbiór wszystkich możliwych symboli występujących w pliku (alfabet pliku). Przykład M = 2, gdy plik
Bardziej szczegółowoPodstawy kompresji stratnej+kwantyzacja
Podstawy kompresji stratnej + Kwantyzacja Kodowanie i kompresja informacji - Wykład 6 29 III 2010 Wprowadzenie Dla każdych danych istnieje wartość której nie można przekroczyć w trakcie kompresji. Im dane
Bardziej szczegółowoKodowanie i kompresja Streszczenie Studia Wieczorowe Wykład 10, 2007
1 Kompresja wideo Kodowanie i kompresja Streszczenie Studia Wieczorowe Wykład 10, 2007 Dane wideo jako sekwencja skorelowanych obrazów (ramek). Specyfika danych wideo: drobne zmiany kolorów w kolejnych
Bardziej szczegółowoKodowanie podpasmowe. Plan 1. Zasada 2. Filtry cyfrowe 3. Podstawowy algorytm 4. Zastosowania
Kodowanie podpasmowe Plan 1. Zasada 2. Filtry cyfrowe 3. Podstawowy algorytm 4. Zastosowania Zasada ogólna Rozkład sygnału źródłowego na części składowe (jak w kodowaniu transformacyjnym) Wada kodowania
Bardziej szczegółowoKompresja bezstratna. Entropia. Kod Huffmana
Kompresja bezstratna. Entropia. Kod Huffmana Kodowanie i bezpieczeństwo informacji - Wykład 10 29 kwietnia 2013 Teoria informacji Jeśli P(A) jest prawdopodobieństwem wystapienia informacji A to niech i(a)
Bardziej szczegółowoFundamentals of Data Compression
Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 lutego 2012r. KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu Nazwa modułu Nazwa modułu w języku angielskim Obowiązuje od roku akademickiego 2012/2013
Bardziej szczegółowoKompresja Kodowanie arytmetyczne. Dariusz Sobczuk
Kompresja Kodowanie arytmetyczne Dariusz Sobczuk Kodowanie arytmetyczne (lata 1960-te) Pierwsze prace w tym kierunku sięgają początków lat 60-tych XX wieku Pierwszy algorytm Eliasa nie został opublikowany
Bardziej szczegółowoKodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład Kody liniowe - kodowanie w oparciu o macierz parzystości
Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład 13 1 Kody liniowe - kodowanie w oparciu o macierz parzystości Przykład Różne macierze parzystości dla kodu powtórzeniowego. Co wiemy z algebry
Bardziej szczegółowoNierówność Krafta-McMillana, Kodowanie Huffmana
Nierówność Krafta-McMillana, Kodowanie Huffmana Kodowanie i kompresja informacji - Wykład 2 1 marca 2010 Test na jednoznaczna dekodowalność Kod a jest prefiksem kodu b jeśli b jest postaci ax. x nazywamy
Bardziej szczegółowoWybrane algorytmu kompresji dźwięku
[1/28] Wybrane algorytmu kompresji dźwięku [dr inż. Paweł Forczmański] Katedra Systemów Multimedialnych, Wydział Informatyki, Zachodniopomorski Uniwersytet Technologiczny w Szczecinie [2/28] Podstawy kompresji
Bardziej szczegółowoKodowanie podpasmowe
Kodowanie i kompresja informacji - Wykład 12 [10] 24 maja 2010 Wprowadzenie Rozłożenie informacji na części (pasma) i kodowanie ich oddzielnie. Wprowadzenie Rozłożenie informacji na części (pasma) i kodowanie
Bardziej szczegółowoKOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG
KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG Joint Photographic Expert Group - 1986 ISO - International Standard Organisation CCITT - Comité Consultatif International de Téléphonie et Télégraphie Standard
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
Bardziej szczegółowoKody Tunstalla. Kodowanie arytmetyczne
Kody Tunstalla. Kodowanie arytmetyczne Kodowanie i kompresja informacji - Wykład 3 8 marca 2010 Kody Tunstalla Wszystkie słowa kodowe maja ta sama długość ale jeden kod może kodować różna liczbę liter
Bardziej szczegółowoPodstawowe funkcje przetwornika C/A
ELEKTRONIKA CYFROWA PRZETWORNIKI CYFROWO-ANALOGOWE I ANALOGOWO-CYFROWE Literatura: 1. Rudy van de Plassche: Scalone przetworniki analogowo-cyfrowe i cyfrowo-analogowe, WKŁ 1997 2. Marian Łakomy, Jan Zabrodzki:
Bardziej szczegółowoTeoria przetwarzania A/C i C/A.
Teoria przetwarzania A/C i C/A. Autor: Bartłomiej Gorczyński Cyfrowe metody przetwarzania sygnałów polegają na przetworzeniu badanego sygnału analogowego w sygnał cyfrowy reprezentowany ciągiem słów binarnych
Bardziej szczegółowoPrzetwornik analogowo-cyfrowy
Przetwornik analogowo-cyfrowy Przetwornik analogowo-cyfrowy A/C (ang. A/D analog to digital; lub angielski akronim ADC - od słów: Analog to Digital Converter), to układ służący do zamiany sygnału analogowego
Bardziej szczegółowoKodowanie transformujace. Kompresja danych. Tomasz Jurdziński. Wykład 11: Transformaty i JPEG
Tomasz Wykład 11: Transformaty i JPEG Idea kodowania transformujacego Etapy kodowania 1 Wektor danych x 0,...,x N 1 przekształcamy (odwracalnie!) na wektor c 0,...,c N 1, tak aby: energia była skoncentrowana
Bardziej szczegółowoteoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015
teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015 1 zakres materiału zakres materiału 1. Czym jest teoria informacji? 2. Wprowadzenie matematyczne. 3. Entropia i informacja.
Bardziej szczegółowoAnaliza głównych składowych- redukcja wymiaru, wykł. 12
Analiza głównych składowych- redukcja wymiaru, wykł. 12 Joanna Jędrzejowicz Instytut Informatyki Konieczność redukcji wymiaru w eksploracji danych bazy danych spotykane w zadaniach eksploracji danych mają
Bardziej szczegółowoPrzetwarzanie i transmisja danych multimedialnych. Wykład 9 Kodowanie podpasmowe. Przemysław Sękalski.
Przetwarzanie i transmisja danych multimedialnych Wykład 9 Kodowanie podpasmowe Przemysław Sękalski sekalski@dmcs.pl Politechnika Łódzka Katedra Mikroelektroniki i Technik Informatycznych DMCS Wykład opracowano
Bardziej szczegółowoWykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe
Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe Nierówność Czebyszewa Niech X będzie zmienną losową o skończonej wariancji V ar(x). Wtedy wartość oczekiwana E(X) też jest skończona i
Bardziej szczegółowoWykład II. Reprezentacja danych w technice cyfrowej. Studia Podyplomowe INFORMATYKA Podstawy Informatyki
Studia Podyplomowe INFORMATYKA Podstawy Informatyki Wykład II Reprezentacja danych w technice cyfrowej 1 III. Reprezentacja danych w komputerze Rodzaje danych w technice cyfrowej 010010101010 001010111010
Bardziej szczegółowoteoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015
teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015 1 wczoraj Wprowadzenie matematyczne. Entropia i informacja. Kodowanie. Kod ASCII. Stopa kodu. Kody bezprefiksowe.
Bardziej szczegółowoPracownia Komputerowa wykład IV
Pracownia Komputerowa wykład IV dr Magdalena Posiadała-Zezula http://www.fuw.edu.pl/~mposiada/pk16 1 Reprezentacje liczb i znaków! Liczby:! Reprezentacja naturalna nieujemne liczby całkowite naturalny
Bardziej szczegółowoPrzetwarzanie i transmisja danych multimedialnych. Wykład 7 Transformaty i kodowanie. Przemysław Sękalski.
Przetwarzanie i transmisja danych multimedialnych Wykład 7 Transformaty i kodowanie Przemysław Sękalski sekalski@dmcs.pl Politechnika Łódzka Katedra Mikroelektroniki i Technik Informatycznych DMCS Wykład
Bardziej szczegółowoMicha Strzelecki Metody przetwarzania i analizy obrazów biomedycznych (2)
Micha Strzelecki Metody przetwarzania i analizy obrazów biomedycznych (2) Prezentacja multimedialna współfinansowana przez Unię Europejską w ramach Europejskiego Funduszu Społecznego w projekcie Innowacyjna
Bardziej szczegółowoKompresja danych kodowanie Huffmana. Dariusz Sobczuk
Kompresja danych kodowanie Huffmana Dariusz Sobczuk Plan wykładu Kodowanie metodą Shannona-Fano Kodowanie metodą Huffmana Elementarny kod Golomba Kod Golomba Kod Rice a kompresja danych 2 Efektywny kod
Bardziej szczegółowoData Mining Wykład 9. Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster. Plan wykładu. Sformułowanie problemu
Data Mining Wykład 9 Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster Plan wykładu Wprowadzanie Definicja problemu Klasyfikacja metod grupowania Grupowanie hierarchiczne Sformułowanie problemu
Bardziej szczegółowoWydział Elektryczny. Katedra Telekomunikacji i Aparatury Elektronicznej. Instrukcja do pracowni specjalistycznej
Politechnika Białostocka Wydział Elektryczny Katedra Telekomunikacji i Aparatury Elektronicznej Instrukcja do pracowni specjalistycznej Temat ćwiczenia: Badanie własności koderów PCM zastosowanych do sygnałów
Bardziej szczegółowo0 + 0 = 0, = 1, = 1, = 0.
5 Kody liniowe Jak już wiemy, w celu przesłania zakodowanego tekstu dzielimy go na bloki i do każdego z bloków dodajemy tak zwane bity sprawdzające. Bity te są w ścisłej zależności z bitami informacyjnymi,
Bardziej szczegółowoKompresja Danych. Streszczenie Studia Dzienne Wykład 13, f(t) = c n e inω0t, T f(t)e inω 0t dt.
1 Kodowanie podpasmowe Kompresja Danych Streszczenie Studia Dzienne Wykład 13, 18.05.2006 1.1 Transformaty, próbkowanie i filtry Korzystamy z faktów: Każdą funkcję okresową można reprezentować w postaci
Bardziej szczegółowoAkwizycja i przetwarzanie sygnałów cyfrowych
Akwizycja i przetwarzanie sygnałów cyfrowych Instytut Teleinformatyki ITI PK Kraków 21 luty 2011 Rewolucja cyfrowa i jej skutki Rewolucja cyfrowa - dane cyfrowe: podstawowy rodzaj informacji multimedialnych,
Bardziej szczegółowoKADD Minimalizacja funkcji
Minimalizacja funkcji n-wymiarowych Forma kwadratowa w n wymiarach Procedury minimalizacji Minimalizacja wzdłuż prostej w n-wymiarowej przestrzeni Metody minimalizacji wzdłuż osi współrzędnych wzdłuż kierunków
Bardziej szczegółowoKodowanie i kompresja Streszczenie Studia dzienne Wykład 9,
1 Kody Tunstalla Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9, 14.04.2005 Inne podejście: słowa kodowe mają ustaloną długość, lecz mogą kodować ciągi liter z alfabetu wejściowego o różnej
Bardziej szczegółowoMatematyka stosowana i metody numeryczne
Ewa Pabisek Adam Wosatko Piotr Pluciński Matematyka stosowana i metody numeryczne Konspekt z wykładów Błędy obliczeń Błędy można podzielić na: modelu, metody, wejściowe (początkowe), obcięcia, zaokrągleń..
Bardziej szczegółowoSYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska
SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska DRZEWO REGRESYJNE Sposób konstrukcji i przycinania
Bardziej szczegółowoTeoria Informacji i Metody Kompresji Danych
Teoria Informacji i Metody Kompresji Danych 1 Przykładowe zadania (dodatkowe materiały wykładowe) 2 Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL
Bardziej szczegółowoAnaliza składowych głównych
Analiza składowych głównych Wprowadzenie (1) W przypadku regresji naszym celem jest predykcja wartości zmiennej wyjściowej za pomocą zmiennych wejściowych, wykrycie związku między wielkościami wejściowymi
Bardziej szczegółowoSieci Kohonena Grupowanie
Sieci Kohonena Grupowanie http://zajecia.jakubw.pl/nai UCZENIE SIĘ BEZ NADZORU Załóżmy, że mamy za zadanie pogrupować następujące słowa: cup, roulette, unbelievable, cut, put, launderette, loveable Nie
Bardziej szczegółowoWstęp do Informatyki
Wstęp do Informatyki Bożena Woźna-Szcześniak bwozna@gmail.com Jan Długosz University, Poland Wykład 4 Bożena Woźna-Szcześniak (AJD) Wstęp do Informatyki Wykład 4 1 / 1 DZIELENIE LICZB BINARNYCH Dzielenie
Bardziej szczegółowoPrzykład: Σ = {0, 1} Σ - zbiór wszystkich skończonych ciagów binarnych. L 1 = {0, 00, 000,...,1, 11, 111,... } L 2 = {01, 1010, 001, 11}
Języki Ustalmy pewien skończony zbiór symboli Σ zwany alfabetem. Zbiór Σ zawiera wszystkie skończone ciagi symboli z Σ. Podzbiór L Σ nazywamy językiem a x L nazywamy słowem. Specjalne słowo puste oznaczamy
Bardziej szczegółowoPLAN WYKŁADU OPTYMALIZACJA GLOBALNA OPERATOR KRZYŻOWANIA ETAPY KRZYŻOWANIA
PLAN WYKŁADU Operator krzyżowania Operator mutacji Operator inwersji Sukcesja Przykłady symulacji AG Kodowanie - rodzaje OPTYMALIZACJA GLOBALNA Wykład 3 dr inż. Agnieszka Bołtuć OPERATOR KRZYŻOWANIA Wymiana
Bardziej szczegółowoLuty 2001 Algorytmy (7) 2000/2001 s-rg@siwy.il.pw.edu.pl
System dziesiętny 7 * 10 4 + 3 * 10 3 + 0 * 10 2 + 5 *10 1 + 1 * 10 0 = 73051 Liczba 10 w tym zapisie nazywa się podstawą systemu liczenia. Jeśli liczba 73051 byłaby zapisana w systemie ósemkowym, co powinniśmy
Bardziej szczegółowoAlgorytmy w teorii liczb
Łukasz Kowalik, ASD 2004: Algorytmy w teorii liczb 1 Algorytmy w teorii liczb Teoria liczb jest działem matemtyki dotyczącym własności liczb naturalnych. Rozważa się zagadnienia związane z liczbami pierwszymi,
Bardziej szczegółowoKodowanie i kompresja Streszczenie Studia dzienne Wykład 6
Kodowanie i kompresja Streszczenie Studia dzienne Wykład 6 1 Kody cykliczne: dekodowanie Definicja 1 (Syndrom) Niech K będzie kodem cyklicznym z wielomianem generuja- cym g(x). Resztę z dzielenia słowa
Bardziej szczegółowoKompresja sekwencji obrazów - algorytm MPEG-2
Kompresja sekwencji obrazów - algorytm MPEG- Moving Pictures Experts Group (MPEG) - 988 ISO - International Standard Organisation CCITT - Comité Consultatif International de Téléphonie et TélégraphieT
Bardziej szczegółowoKodowanie podpasmowe. Plan 1. Zasada 2. Filtry cyfrowe 3. Podstawowy algorytm 4. Zastosowania
Kodowanie podpasmowe Plan 1. Zasada. Filtry cyfrowe 3. Podstawowy algorytm 4. Zastosowania Zasada ogólna Rozkład sygnału źródłowego na części składowe (jak w kodowaniu transformacyjnym) Wada kodowania
Bardziej szczegółowoWstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa. P. F. Góra
Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2012 Uwarunkowanie zadania numerycznego Niech ϕ : R n R m będzie pewna funkcja odpowiednio wiele
Bardziej szczegółowoAlgorytmy kodowania entropijnego
Algorytmy kodowania entropijnego 1. Kodowanie Shannona-Fano 2. Kodowanie Huffmana 3. Jednoznaczność kodów Huffmana. Kod o minimalnej wariancji 4. Dynamiczne kodowanie Huffmana Poprzedni wykład - podsumowanie
Bardziej szczegółowoFiltr Kalmana. Struktury i Algorytmy Sterowania Wykład 1-2. prof. dr hab. inż. Mieczysław A. Brdyś mgr inż. Tomasz Zubowicz
Filtr Kalmana Struktury i Algorytmy Sterowania Wykład 1-2 prof. dr hab. inż. Mieczysław A. Brdyś mgr inż. Tomasz Zubowicz Politechnika Gdańska, Wydział Elektortechniki i Automatyki 2013-10-09, Gdańsk Założenia
Bardziej szczegółowoStosowana Analiza Regresji
Stosowana Analiza Regresji Wykład VIII 30 Listopada 2011 1 / 18 gdzie: X : n p Q : n n R : n p Zał.: n p. X = QR, - macierz eksperymentu, - ortogonalna, - ma zera poniżej głównej diagonali. [ R1 X = Q
Bardziej szczegółowoFFT i dyskretny splot. Aplikacje w DSP
i dyskretny splot. Aplikacje w DSP Marcin Jenczmyk m.jenczmyk@knm.katowice.pl Wydział Matematyki, Fizyki i Chemii 10 maja 2014 M. Jenczmyk Sesja wiosenna KNM 2014 i dyskretny splot 1 / 17 Transformata
Bardziej szczegółowoPrzedmowa 11 Ważniejsze oznaczenia 14 Spis skrótów i akronimów 15 Wstęp 21 W.1. Obraz naturalny i cyfrowe przetwarzanie obrazów 21 W.2.
Przedmowa 11 Ważniejsze oznaczenia 14 Spis skrótów i akronimów 15 Wstęp 21 W.1. Obraz naturalny i cyfrowe przetwarzanie obrazów 21 W.2. Technika obrazu 24 W.3. Normalizacja w zakresie obrazu cyfrowego
Bardziej szczegółowoWeryfikacja hipotez statystycznych
Weryfikacja hipotez statystycznych Hipoteza Test statystyczny Poziom istotności Testy jednostronne i dwustronne Testowanie równości wariancji test F-Fishera Testowanie równości wartości średnich test t-studenta
Bardziej szczegółowoTydzień nr 9-10 (16 maja - 29 maja), Równania różniczkowe, wartości własne, funkcja wykładnicza od operatora - Matematyka II 2010/2011L
Tydzień nr 9-10 (16 maja - 29 maja) Równania różniczkowe wartości własne funkcja wykładnicza od operatora - Matematyka II 2010/2011L Wszelkie pytania oraz uwagi o błędach proszę kierować na przemek.majewski@gmail.com
Bardziej szczegółowo2 Kryptografia: algorytmy symetryczne
1 Kryptografia: wstęp Wyróżniamy algorytmy: Kodowanie i kompresja Streszczenie Wieczorowe Studia Licencjackie Wykład 14, 12.06.2007 symetryczne: ten sam klucz jest stosowany do szyfrowania i deszyfrowania;
Bardziej szczegółowoKwantyzacja skalarna i wektorowa. Metody zaawansowane
Kwantyzacja skalarna i wektorowa. Metody zaawansowane Kwantyzacja blokowa BTC (block truncation coding) Innym przykładem metod kwantyzacji adaptacyjnej wymagającej wstępnego podziału obrazu na bloki i
Bardziej szczegółowoSztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335
Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Wykład 10 Mapa cech Kohonena i jej modyfikacje - uczenie sieci samoorganizujących się - kwantowanie wektorowe
Bardziej szczegółowoKody splotowe (konwolucyjne)
Modulacja i Kodowanie Labolatorium Kodowanie kanałowe kody konwolucyjne Kody splotowe (konwolucyjne) Główną różnicą pomiędzy kodami blokowi a konwolucyjnymi (splotowymi) polega na konstrukcji ciągu kodowego.
Bardziej szczegółowoKody splotowe. Zastosowanie
Kody splotowe Zastosowanie Niekiedy potrzeba buforowania fragmentu wiadomości przed zakodowaniem, tak jak to ma miejsce w koderze blokowym, jest przeszkodą, gdyż dane do zakodowania napływają strumieniem.
Bardziej szczegółowoMetody probabilistyczne
Metody probabilistyczne. Twierdzenia graniczne Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 20.2.208 / 26 Motywacja Rzucamy wielokrotnie uczciwą monetą i zliczamy
Bardziej szczegółowoKodowanie Huffmana. Platforma programistyczna.net; materiały do laboratorium 2014/15 Marcin Wilczewski
Kodowanie Huffmana Platforma programistyczna.net; materiały do laboratorium 24/5 Marcin Wilczewski Algorytm Huffmana (David Huffman, 952) Algorytm Huffmana jest popularnym algorytmem generującym optymalny
Bardziej szczegółowoSPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization
Wrocław University of Technology SPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization Jakub M. Tomczak Studenckie Koło Naukowe Estymator jakub.tomczak@pwr.wroc.pl 4.1.213 Klasteryzacja Zmienne
Bardziej szczegółowo1.1. Pozycyjne systemy liczbowe
1.1. Pozycyjne systemy liczbowe Systemami liczenia nazywa się sposób tworzenia liczb ze znaków cyfrowych oraz zbiór reguł umożliwiających wykonywanie operacji arytmetycznych na liczbach. Dla dowolnego
Bardziej szczegółowoAudio i video. R. Robert Gajewski omklnx.il.pw.edu.pl/~rgajewski
Audio i video R. Robert Gajewski omklnx.il.pw.edu.pl/~rgajewski s-rg@siwy.il.pw.edu.pl Fale dźwiękowe Dźwięk jest drganiem powietrza rozchodzącym się w postaci fali. Fala ma określoną amplitudę i częstotliwość.
Bardziej szczegółowoPrzetwarzanie i transmisja danych multimedialnych. Wykład 5 Kodowanie słownikowe. Przemysław Sękalski.
Przetwarzanie i transmisja danych multimedialnych Wykład 5 Kodowanie słownikowe Przemysław Sękalski sekalski@dmcs.pl Politechnika Łódzka Katedra Mikroelektroniki i Technik Informatycznych DMCS Przemysław
Bardziej szczegółowo2 Arytmetyka. d r 2 r + d r 1 2 r 1...d d 0 2 0,
2 Arytmetyka Niech b = d r d r 1 d 1 d 0 będzie zapisem liczby w systemie dwójkowym Zamiana zapisu liczby b na system dziesiętny odbywa się poprzez wykonanie dodawania d r 2 r + d r 1 2 r 1 d 1 2 1 + d
Bardziej szczegółowoAproksymacja funkcji a regresja symboliczna
Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(x), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(x), zwaną funkcją aproksymującą
Bardziej szczegółowoRozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów
Rozdział : Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów W tym rozdziale omówione zostaną dwie najpopularniejsze metody estymacji parametrów w ekonometrycznych modelach nieliniowych,
Bardziej szczegółowoDane, informacja, programy. Kodowanie danych, kompresja stratna i bezstratna
Dane, informacja, programy Kodowanie danych, kompresja stratna i bezstratna DANE Uporządkowane, zorganizowane fakty. Główne grupy danych: tekstowe (znaki alfanumeryczne, znaki specjalne) graficzne (ilustracje,
Bardziej szczegółowoKodowanie i entropia
Kodowanie i entropia Marek Śmieja Teoria informacji 1 / 34 Kod S - alfabet źródłowy mocy m (np. litery, cyfry, znaki interpunkcyjne), A = {a 1,..., a n } - alfabet kodowy (symbole), Chcemy przesłać tekst
Bardziej szczegółowoPracownia Komputerowa wyk ad IV
Pracownia Komputerowa wykad IV dr Magdalena Posiadaa-Zezula Magdalena.Posiadala@fuw.edu.pl http://www.fuw.edu.pl/~mposiada Magdalena.Posiadala@fuw.edu.pl 1 Reprezentacje liczb i znaków Liczby: Reprezentacja
Bardziej szczegółowo3. Macierze i Układy Równań Liniowych
3. Macierze i Układy Równań Liniowych Rozważamy równanie macierzowe z końcówki ostatniego wykładu ( ) 3 1 X = 4 1 ( ) 2 5 Podstawiając X = ( ) x y i wymnażając, otrzymujemy układ 2 równań liniowych 3x
Bardziej szczegółowo2. Próbkowanie Sygnały okresowe (16). Trygonometryczny szereg Fouriera (17). Częstotliwość Nyquista (20).
SPIS TREŚCI ROZDZIAŁ I SYGNAŁY CYFROWE 9 1. Pojęcia wstępne Wiadomości, informacje, dane, sygnały (9). Sygnał jako nośnik informacji (11). Sygnał jako funkcja (12). Sygnał analogowy (13). Sygnał cyfrowy
Bardziej szczegółowoWykład 8. Informatyka Stosowana. 26 listopada 2018 Magdalena Alama-Bućko. Informatyka Stosowana Wykład , M.A-B 1 / 31
Wykład 8 Informatyka Stosowana 26 listopada 208 Magdalena Alama-Bućko Informatyka Stosowana Wykład 8 26..208, M.A-B / 3 Definicja Ciagiem liczbowym {a n }, n N nazywamy funkcję odwzorowujac a zbiór liczb
Bardziej szczegółowoPróbkowanie. Wykład 4 Próbkowanie i rozkłady próbkowe. Populacja a próba. Błędy w póbkowaniu, cd, Przykład 1 (Ochotnicy)
Wykład 4 Próbkowanie i rozkłady próbkowe µ = średnia w populacji, µ=ey, wartość oczekiwana zmiennej Y σ= odchylenie standardowe w populacji, σ =(Var Y) 1/2, pierwiastek kwadratowy wariancji zmiennej Y,
Bardziej szczegółowoWYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki
WYKŁAD 6 Witold Bednorz, Paweł Wolff 1 Instytut Matematyki Uniwersytet Warszawski Rachunek Prawdopodobieństwa, WNE, 2010-2011 Własności Wariancji Przypomnijmy, że VarX = E(X EX) 2 = EX 2 (EX) 2. Własności
Bardziej szczegółowoRÓWNANIA NIELINIOWE Maciej Patan
RÓWNANIA NIELINIOWE Maciej Patan Uniwersytet Zielonogórski Przykład 1 Prędkość v spadającego spadochroniarza wyraża się zależnością v = mg ( 1 e c t) m c gdzie g = 9.81 m/s 2. Dla współczynnika oporu c
Bardziej szczegółowoDef. Kod jednoznacznie definiowalny Def. Kod przedrostkowy Def. Kod optymalny. Przykłady kodów. Kody optymalne
Załóżmy, że mamy źródło S, które generuje symbole ze zbioru S={x, x 2,..., x N } z prawdopodobieństwem P={p, p 2,..., p N }, symbolom tym odpowiadają kody P={c, c 2,..., c N }. fektywność danego sposobu
Bardziej szczegółowoOznacza to, że chcemy znaleźć minimum, a właściwie wartość najmniejszą funkcji
Wykład 11. Metoda najmniejszych kwadratów Szukamy zależności Dane są wyniki pomiarów dwóch wielkości x i y: (x 1, y 1 ), (x 2, y 2 ),..., (x n, y n ). Przypuśćmy, że nanieśliśmy je na wykres w układzie
Bardziej szczegółowoKompresja obrazów w statycznych - algorytm JPEG
Kompresja obrazów w statycznych - algorytm JPEG Joint Photographic Expert Group - 986 ISO - International Standard Organisation CCITT - Comité Consultatif International de Téléphonie et Télégraphie Standard
Bardziej szczegółowo