Kwantyzacja wektorowa. Kodowanie różnicowe. Kodowanie i kompresja informacji - Wykład 7 12 kwietnia 2010
Kwantyzacja wektorowa wprowadzenie Zamiast kwantyzować pojedyncze elementy kwantyzujemy całe bloki (wektory).
Kwantyzacja wektorowa wprowadzenie Zamiast kwantyzować pojedyncze elementy kwantyzujemy całe bloki (wektory). Prowadzi to często do mniejszych zniekształceń.
Kwantyzacja wektorowa wprowadzenie Zamiast kwantyzować pojedyncze elementy kwantyzujemy całe bloki (wektory). Prowadzi to często do mniejszych zniekształceń. Szczególnie przydatne w obrazach: podobieństwo całych bloków.
Kwantyzacja wektorowa wprowadzenie Zamiast kwantyzować pojedyncze elementy kwantyzujemy całe bloki (wektory). Prowadzi to często do mniejszych zniekształceń. Szczególnie przydatne w obrazach: podobieństwo całych bloków. Jak wybierać reprezentacje wektorów?
Miary kwantyzacji (wektorowej) Średniokwadratowy bład kwantyzacji Średnia z kwadratów różnic między wejściem kodera, a wyjściem dekodera. Jeśli Q operacja kwantyzacji i Q(X) = Y i Yi C X Y j X Y i, gdzie C jest słownikiem kwantyzatora, to D = m i=1 V i X Y i 2 f X (X) dx (zniekształcenie liczymy po próbkach, tak jak w przypadku kwantyzacji skalarnej, ciężko to jednak zapisać w postaci ogólnej).
Miary kwantyzacji (wektorowej) (2) Średnia bitowa kwantyzatora Średnia liczba bitów potrzebna do reprezentowania jednej danej wynikowej kwantyzatora (wartości rekonstrukcyjnej próbki).
Miara kompresji Poziom kompresji Słownik zawiera K elementów, a wektor wejściowy ma wymiar L (liczba elementów w bloku): do zakodowania numeru wybranego wektora potrzebujemy log 2 K bitów,
Miara kompresji Poziom kompresji Słownik zawiera K elementów, a wektor wejściowy ma wymiar L (liczba elementów w bloku): do zakodowania numeru wybranego wektora potrzebujemy log 2 K bitów, każdy wektor zawiera rekonstruowane wartości z L próbek (termin próbka oznacza zawsze wartość skalarna, wyniki kwantyzatora sa nazywane poziomami),
Miara kompresji Poziom kompresji Słownik zawiera K elementów, a wektor wejściowy ma wymiar L (liczba elementów w bloku): do zakodowania numeru wybranego wektora potrzebujemy log 2 K bitów, każdy wektor zawiera rekonstruowane wartości z L próbek (termin próbka oznacza zawsze wartość skalarna, wyniki kwantyzatora sa nazywane poziomami), zatem: liczba bitów na próbkę wynosi log 2 K L.
Przykład
Przykład po przeniesieniu punktu
Algorytm Linndego-Buza-Graya
Algorytm Linndego-Buza-Graya 1 Wybierz dowolnie poczatkowy zbiór rekonstruowanych wartości {Y (0) i } m i=1. Ustal k = 0, D ( 1) = 0. Wybierz próg ε.
Algorytm Linndego-Buza-Graya 1 Wybierz dowolnie poczatkowy zbiór rekonstruowanych wartości {Y (0) i } m i=1. Ustal k = 0, D ( 1) = 0. Wybierz próg ε. 2 Znajdź obszary kwantyzacji V (k) i = {X : j i d(x, Y i ) < d(x, Y j )}.
Algorytm Linndego-Buza-Graya 1 Wybierz dowolnie poczatkowy zbiór rekonstruowanych wartości {Y (0) i } m i=1. Ustal k = 0, D ( 1) = 0. Wybierz próg ε. 2 Znajdź obszary kwantyzacji V (k) i = {X : j i d(x, Y i ) < d(x, Y j )}. 3 Oblicz zniekształcenie D (k) = m i=1 V (k) i X Y (k) i 2 f X (X) dx.
Algorytm Linndego-Buza-Graya 1 Wybierz dowolnie poczatkowy zbiór rekonstruowanych wartości {Y (0) i } m i=1. Ustal k = 0, D ( 1) = 0. Wybierz próg ε. 2 Znajdź obszary kwantyzacji V (k) i = {X : j i d(x, Y i ) < d(x, Y j )}. 3 Oblicz zniekształcenie D (k) = m i=1 4 Jeśli D(k) D (k 1) D (k) V (k) i X Y (k) i 2 f X (X) dx. < ε zakończ obliczenia.
Algorytm Linndego-Buza-Graya 1 Wybierz dowolnie poczatkowy zbiór rekonstruowanych wartości {Y (0) i } m i=1. Ustal k = 0, D ( 1) = 0. Wybierz próg ε. 2 Znajdź obszary kwantyzacji V (k) i = {X : j i d(x, Y i ) < d(x, Y j )}. 3 Oblicz zniekształcenie D (k) = m i=1 4 Jeśli D(k) D (k 1) D (k) V (k) i X Y (k) i 2 f X (X) dx. < ε zakończ obliczenia. } m i=1 5 Przyjmij k k + 1. Za nowe {Y (k) i ciężkości {V (k 1) i }. Wróć do kroku 2. przyjmij środki
Algorytm Linndego-Buza-Graya 1 Wybierz dowolnie poczatkowy zbiór rekonstruowanych wartości {Y (0) i } m i=1. Ustal k = 0, D ( 1) = 0. Wybierz próg ε. 2 Znajdź obszary kwantyzacji V (k) i = {X : j i d(x, Y i ) < d(x, Y j )}. 3 Oblicz zniekształcenie D (k) = m i=1 4 Jeśli D(k) D (k 1) D (k) V (k) i X Y (k) i 2 f X (X) dx. < ε zakończ obliczenia. } m i=1 5 Przyjmij k k + 1. Za nowe {Y (k) i ciężkości {V (k 1) i }. Wróć do kroku 2. W praktyce zamiast rozkładów używa się zbiorów uczacych. przyjmij środki
Inicjalizacja algorytmu LBG metoda podziałów Rozpoczynamy z jednym punktem (rozmiar słownika 1), będacym średnia z całego zbioru uczacego.
Inicjalizacja algorytmu LBG metoda podziałów Rozpoczynamy z jednym punktem (rozmiar słownika 1), będacym średnia z całego zbioru uczacego. Dodajemy pewien ustalony wektor perturbacji ɛ do każdego punktu słownika i wykonujemy LBG.
Inicjalizacja algorytmu LBG metoda podziałów Rozpoczynamy z jednym punktem (rozmiar słownika 1), będacym średnia z całego zbioru uczacego. Dodajemy pewien ustalony wektor perturbacji ɛ do każdego punktu słownika i wykonujemy LBG. Kontynuujemy aż do uzyskania zakładanej liczby poziomów (jeżeli nie jest potęga 2, to w ostatnim kroku nie wszystkie podwajamy).
Kwantyzatory o strukturze drzewiastej Jak poradzić sobie z dużymi słownikami kwantyzacji? Dzielimy przestrzeń na dwie części i uzyskujemy dla nich wektory reprezentacji.
Kwantyzatory o strukturze drzewiastej Jak poradzić sobie z dużymi słownikami kwantyzacji? Dzielimy przestrzeń na dwie części i uzyskujemy dla nich wektory reprezentacji. Powtarzamy procedurę dla każdej części, aż uzyskamy pełne drzewo (binarne) o wysokości k.
Kwantyzatory o strukturze drzewiastej Jak poradzić sobie z dużymi słownikami kwantyzacji? Dzielimy przestrzeń na dwie części i uzyskujemy dla nich wektory reprezentacji. Powtarzamy procedurę dla każdej części, aż uzyskamy pełne drzewo (binarne) o wysokości k. Możemy przyciać niektóre poddrzewa, jeśli zmniejszy to zniekształcenie.
Kwantyzatory o strukturze drzewiastej Jak poradzić sobie z dużymi słownikami kwantyzacji? Dzielimy przestrzeń na dwie części i uzyskujemy dla nich wektory reprezentacji. Powtarzamy procedurę dla każdej części, aż uzyskamy pełne drzewo (binarne) o wysokości k. Możemy przyciać niektóre poddrzewa, jeśli zmniejszy to zniekształcenie. Wada: zwykle tylko dla kwantyzatorów symetrycznych otrzymujemy optymalne rozwiazania.
Przykład
Kratowa kwantyzacja wektorowa Krata (def. uproszczona) Niech { a 1, a 2,..., a L } będa L niezależnymi wektorami o L wymiarach. Wówczas zbiór { } L L = x : x = u i a i jest krata, jeśli wszystkie u i sa liczbami całkowitymi. i=1
Przykład kraty D 2 Dla a 1 = (1, 1), a 2 = (1, 1) otrzymujemy (D-kraty maja parzysta sumę współrzędnych)
Przykład kraty A 2 Dla a 1 = (1, 0), a 2 = ( 1 2, 3 2 ) otrzymujemy
Inne rodzaje kwantyzacji wektorowej piramidalne,
Inne rodzaje kwantyzacji wektorowej piramidalne, sferyczne i biegunowe,
Inne rodzaje kwantyzacji wektorowej piramidalne, sferyczne i biegunowe, skala-kształt,
Inne rodzaje kwantyzacji wektorowej piramidalne, sferyczne i biegunowe, skala-kształt, z usunięta średnia,
Inne rodzaje kwantyzacji wektorowej piramidalne, sferyczne i biegunowe, skala-kształt, z usunięta średnia, klasyfikowana,
Inne rodzaje kwantyzacji wektorowej piramidalne, sferyczne i biegunowe, skala-kształt, z usunięta średnia, klasyfikowana, wieloetapowa,
Inne rodzaje kwantyzacji wektorowej piramidalne, sferyczne i biegunowe, skala-kształt, z usunięta średnia, klasyfikowana, wieloetapowa, adaptacyjna.
Kwantyzacja podsumowanie Prosta metoda przejścia z dużego alfabetu symboli na znacznie mniejszy.
Kwantyzacja podsumowanie Prosta metoda przejścia z dużego alfabetu symboli na znacznie mniejszy. Dla bardzo wielu modeli danych opracowane zostały bardzo dobre metody kwantyzacji, charakteryzujace się małymi zniekształceniami.
Kwantyzacja podsumowanie Prosta metoda przejścia z dużego alfabetu symboli na znacznie mniejszy. Dla bardzo wielu modeli danych opracowane zostały bardzo dobre metody kwantyzacji, charakteryzujace się małymi zniekształceniami. Po kwantyzacji można stosować do kompresji znane metody bezstratne.
Kodowanie różnicowe - wprowadzenie Dla danych takich jak mowa czy obrazy istnieje duża korelacja między kolejnymi elementami (próbkami).
Kodowanie różnicowe - wprowadzenie Dla danych takich jak mowa czy obrazy istnieje duża korelacja między kolejnymi elementami (próbkami). Można to wykorzystać kodujac różnice między kolejnymi elementami.
Kodowanie różnicowe - wprowadzenie Dla danych takich jak mowa czy obrazy istnieje duża korelacja między kolejnymi elementami (próbkami). Można to wykorzystać kodujac różnice między kolejnymi elementami. Wariancja i wielkość różnic moga być znaczaco mniejsze niż wariancja i wielkość elementów wejściowego ciagu.
Przykład Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8
Przykład Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Przy założeniu że pierwsza wartościa wejściowa jest 0, ciag różnic wyglada następujaco: 6.2, 3.5, 3.5, 7.3, 2.1, 0.6, 3.2, 2.4
Przykład Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Przy założeniu że pierwsza wartościa wejściowa jest 0, ciag różnic wyglada następujaco: 6.2, 3.5, 3.5, 7.3, 2.1, 0.6, 3.2, 2.4 Co się stanie jeśli skwantyzujemy (skompresujemy stratnie) ciag różnic kwantyzatorem z 7 wartościami 6, 4, 2, 0, 2, 4, 6.
Przykład Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Przy założeniu że pierwsza wartościa wejściowa jest 0, ciag różnic wyglada następujaco: 6.2, 3.5, 3.5, 7.3, 2.1, 0.6, 3.2, 2.4 Co się stanie jeśli skwantyzujemy (skompresujemy stratnie) ciag różnic kwantyzatorem z 7 wartościami 6, 4, 2, 0, 2, 4, 6. Otrzymujemy skwantyzowany ciag: 6, 4, 4, 6, 2, 0, 4, 2
Przykład Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Przy założeniu że pierwsza wartościa wejściowa jest 0, ciag różnic wyglada następujaco: 6.2, 3.5, 3.5, 7.3, 2.1, 0.6, 3.2, 2.4 Co się stanie jeśli skwantyzujemy (skompresujemy stratnie) ciag różnic kwantyzatorem z 7 wartościami 6, 4, 2, 0, 2, 4, 6. Otrzymujemy skwantyzowany ciag: 6, 4, 4, 6, 2, 0, 4, 2 Rekonstruujac ciag otrzymamy: 6, 10, 14, 8, 10, 10, 6, 4
Przykład Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Przy założeniu że pierwsza wartościa wejściowa jest 0, ciag różnic wyglada następujaco: 6.2, 3.5, 3.5, 7.3, 2.1, 0.6, 3.2, 2.4 Co się stanie jeśli skwantyzujemy (skompresujemy stratnie) ciag różnic kwantyzatorem z 7 wartościami 6, 4, 2, 0, 2, 4, 6. Otrzymujemy skwantyzowany ciag: 6, 4, 4, 6, 2, 0, 4, 2 Rekonstruujac ciag otrzymamy: 6, 10, 14, 8, 10, 10, 6, 4 Bład (różnica między oryginalnym a rekonstruowanym ciagiem) wynosi: 0.2, 0.3, 0.8, 2.1, 2, 2.6, 1.8, 2.2
Przykład Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Przy założeniu że pierwsza wartościa wejściowa jest 0, ciag różnic wyglada następujaco: 6.2, 3.5, 3.5, 7.3, 2.1, 0.6, 3.2, 2.4 Co się stanie jeśli skwantyzujemy (skompresujemy stratnie) ciag różnic kwantyzatorem z 7 wartościami 6, 4, 2, 0, 2, 4, 6. Otrzymujemy skwantyzowany ciag: 6, 4, 4, 6, 2, 0, 4, 2 Rekonstruujac ciag otrzymamy: 6, 10, 14, 8, 10, 10, 6, 4 Bład (różnica między oryginalnym a rekonstruowanym ciagiem) wynosi: 0.2, 0.3, 0.8, 2.1, 2, 2.6, 1.8, 2.2 Zauważmy, że wielkość błędu rośnie.
Analiza Mamy ciag {x n }. Ciag różnic {d n } generujemy biorac d n = x n x n 1. Kwantyzujac według wzoru ˆd n = Q[d n ] = d n + q n otrzymujemy ciag {ˆd n }, gdzie q n jest błędem kwantyzacji.
Analiza Mamy ciag {x n }. Ciag różnic {d n } generujemy biorac d n = x n x n 1. Kwantyzujac według wzoru ˆd n = Q[d n ] = d n + q n otrzymujemy ciag {ˆd n }, gdzie q n jest błędem kwantyzacji. U odbiorcy odtwarzamy ciag {ˆx n } według wzoru ˆx n = ˆx n 1 + ˆd n.
Analiza Mamy ciag {x n }. Ciag różnic {d n } generujemy biorac d n = x n x n 1. Kwantyzujac według wzoru ˆd n = Q[d n ] = d n + q n otrzymujemy ciag {ˆd n }, gdzie q n jest błędem kwantyzacji. U odbiorcy odtwarzamy ciag {ˆx n } według wzoru ˆx n = ˆx n 1 + ˆd n. Łatwo policzyć, że ˆx n = x n + n i=1 q i.
Analiza Mamy ciag {x n }. Ciag różnic {d n } generujemy biorac d n = x n x n 1. Kwantyzujac według wzoru ˆd n = Q[d n ] = d n + q n otrzymujemy ciag {ˆd n }, gdzie q n jest błędem kwantyzacji. U odbiorcy odtwarzamy ciag {ˆx n } według wzoru ˆx n = ˆx n 1 + ˆd n. Łatwo policzyć, że ˆx n = x n + n i=1 q i. Bład kwantyzacji akumuluje się z czasem.
Analiza Mamy ciag {x n }. Ciag różnic {d n } generujemy biorac d n = x n x n 1. Kwantyzujac według wzoru ˆd n = Q[d n ] = d n + q n otrzymujemy ciag {ˆd n }, gdzie q n jest błędem kwantyzacji. U odbiorcy odtwarzamy ciag {ˆx n } według wzoru ˆx n = ˆx n 1 + ˆd n. Łatwo policzyć, że ˆx n = x n + n i=1 q i. Bład kwantyzacji akumuluje się z czasem. Jak temu zapobiec?
Analiza Mamy ciag {x n }. Ciag różnic {d n } generujemy biorac d n = x n x n 1. Kwantyzujac według wzoru ˆd n = Q[d n ] = d n + q n otrzymujemy ciag {ˆd n }, gdzie q n jest błędem kwantyzacji. U odbiorcy odtwarzamy ciag {ˆx n } według wzoru ˆx n = ˆx n 1 + ˆd n. Łatwo policzyć, że ˆx n = x n + n i=1 q i. Bład kwantyzacji akumuluje się z czasem. Jak temu zapobiec? Użyjmy do obliczenia różnicy zależności d n = x n ˆx n 1.
Analiza Mamy ciag {x n }. Ciag różnic {d n } generujemy biorac d n = x n x n 1. Kwantyzujac według wzoru ˆd n = Q[d n ] = d n + q n otrzymujemy ciag {ˆd n }, gdzie q n jest błędem kwantyzacji. U odbiorcy odtwarzamy ciag {ˆx n } według wzoru ˆx n = ˆx n 1 + ˆd n. Łatwo policzyć, że ˆx n = x n + n i=1 q i. Bład kwantyzacji akumuluje się z czasem. Jak temu zapobiec? Użyjmy do obliczenia różnicy zależności d n = x n ˆx n 1. Wtedy ˆx n = x n + q n.
Przykład Policzmy poprzedni przykład nowa metoda.
Przykład Policzmy poprzedni przykład nowa metoda. Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8
Przykład Policzmy poprzedni przykład nowa metoda. Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Mamy kwantyzator: 6, 4, 2, 0, 2, 4, 6.
Przykład Policzmy poprzedni przykład nowa metoda. Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Mamy kwantyzator: 6, 4, 2, 0, 2, 4, 6. Ciag różnic: 6.2, 3.7, 3.2, 8.1, 0, 0.6, 3.8, 2.2
Przykład Policzmy poprzedni przykład nowa metoda. Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Mamy kwantyzator: 6, 4, 2, 0, 2, 4, 6. Ciag różnic: 6.2, 3.7, 3.2, 8.1, 0, 0.6, 3.8, 2.2 Skwantyzowany ciag różnic: 6, 4, 4, 6, 0, 0, 4, 2
Przykład Policzmy poprzedni przykład nowa metoda. Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Mamy kwantyzator: 6, 4, 2, 0, 2, 4, 6. Ciag różnic: 6.2, 3.7, 3.2, 8.1, 0, 0.6, 3.8, 2.2 Skwantyzowany ciag różnic: 6, 4, 4, 6, 0, 0, 4, 2 Zrekonstruowany ciag: 6, 10, 14, 8, 8, 8, 4, 2
Przykład Policzmy poprzedni przykład nowa metoda. Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Mamy kwantyzator: 6, 4, 2, 0, 2, 4, 6. Ciag różnic: 6.2, 3.7, 3.2, 8.1, 0, 0.6, 3.8, 2.2 Skwantyzowany ciag różnic: 6, 4, 4, 6, 0, 0, 4, 2 Zrekonstruowany ciag: 6, 10, 14, 8, 8, 8, 4, 2 Bład: 0.2, 0.3, 0.8, 2.1, 0, 0.6, 0.2, 0.2
Predykcja DPCM Differential Pulse Code Modulation - różnicowa modulacja kodowo-impulsowa.
Predykcja DPCM Differential Pulse Code Modulation - różnicowa modulacja kodowo-impulsowa. Załóżmy, że zamiast różnicy między kolejnymi elementami mamy funkcję predykcyjna która generuje nam ciag {p n }, p n = f (ˆx n 1,..., ˆx 0 ), i kodujemy różnicę x n p n.
Predykcja DPCM Differential Pulse Code Modulation - różnicowa modulacja kodowo-impulsowa. Załóżmy, że zamiast różnicy między kolejnymi elementami mamy funkcję predykcyjna która generuje nam ciag {p n }, p n = f (ˆx n 1,..., ˆx 0 ), i kodujemy różnicę x n p n. Chcemy znaleźć takie f które minimalizuje nam σ 2 d = E[(x n p n ) 2 ]
Predykcja DPCM Problem jest trudny więc zakładamy, że predyktor jest funkcja postaci N p n = a i ˆx n 1. i=1 N określa rzad predyktora.
Predykcja DPCM Problem jest trudny więc zakładamy, że predyktor jest funkcja postaci N p n = a i ˆx n 1. i=1 N określa rzad predyktora. Aby uprościć rachunki dodatkowo zamiast ˆx n używamy x n (zakładamy, że błędy kwantyzacji sa bardzo małe).
Predykcja DPCM Problem jest trudny więc zakładamy, że predyktor jest funkcja postaci N p n = a i ˆx n 1. i=1 N określa rzad predyktora. Aby uprościć rachunki dodatkowo zamiast ˆx n używamy x n (zakładamy, że błędy kwantyzacji sa bardzo małe). Chcemy teraz znaleźć takie wartości {a i } aby zminimalizować ( σd 2 = E x n N i=1 ) 2 a i x n i
Predykcja DPCM Weźmy pochodna σd 2 względem każdego a i i przyrównajmy do zera.
Predykcja DPCM Weźmy pochodna σd 2 względem każdego a i i przyrównajmy do zera. Otrzymamy N równań postaci [( ) ] δσd 2 N = 2E x n a i x n i x n j = 0 δa j i=1
Predykcja DPCM Weźmy pochodna σd 2 względem każdego a i i przyrównajmy do zera. Otrzymamy N równań postaci [( ) ] δσd 2 N = 2E x n a i x n i x n j = 0 δa j i=1 Obliczajac wartości oczekiwane otrzymamy układ N a i R xx (i j) = R xx (j) i=1 gdzie R xx (k) = E[x n x n+k ] jest funkcja autokorelacji zmiennej x n.
Predykcja DPCM Weźmy pochodna σd 2 względem każdego a i i przyrównajmy do zera. Otrzymamy N równań postaci [( ) ] δσd 2 N = 2E x n a i x n i x n j = 0 δa j i=1 Obliczajac wartości oczekiwane otrzymamy układ N a i R xx (i j) = R xx (j) i=1 gdzie R xx (k) = E[x n x n+k ] jest funkcja autokorelacji zmiennej x n. Jeśli znamy wartości autokorelacji możemy znaleźć wartości a i.
Odmiany DPCM Adaptacyjne DPCM: adaptacja w przód i wstecz.
Odmiany DPCM Adaptacyjne DPCM: adaptacja w przód i wstecz. Modulacja delta: dwustopniowy kwantyzator i odpowiednia częstość próbkowania (dwa razy częstsza niż największa częstotliwość)
Zastosowanie Kodowanie mowy - Standard G.726
Zastosowanie Kodowanie mowy - Standard G.726 Próbkowanie z częstościa 8000 próbek na sekundę.
Zastosowanie Kodowanie mowy - Standard G.726 Próbkowanie z częstościa 8000 próbek na sekundę. Prędkości 40, 32, 24 i 16 kb/s przekładaja się na próbki 5, 4, 3 i 2 bitowe.
Zastosowanie Kodowanie mowy - Standard G.726 Próbkowanie z częstościa 8000 próbek na sekundę. Prędkości 40, 32, 24 i 16 kb/s przekładaja się na próbki 5, 4, 3 i 2 bitowe. Poza prędkościa 16kb używamy kwantyzatora o liczbie poziomów 2 n 1, gdzie n liczba bitów próbki.
Zastosowanie Kodowanie mowy - Standard G.726 Próbkowanie z częstościa 8000 próbek na sekundę. Prędkości 40, 32, 24 i 16 kb/s przekładaja się na próbki 5, 4, 3 i 2 bitowe. Poza prędkościa 16kb używamy kwantyzatora o liczbie poziomów 2 n 1, gdzie n liczba bitów próbki. Kwantyzator adaptacyjny wstecz.
Zastosowanie Kodowanie mowy - Standard G.726 Próbkowanie z częstościa 8000 próbek na sekundę. Prędkości 40, 32, 24 i 16 kb/s przekładaja się na próbki 5, 4, 3 i 2 bitowe. Poza prędkościa 16kb używamy kwantyzatora o liczbie poziomów 2 n 1, gdzie n liczba bitów próbki. Kwantyzator adaptacyjny wstecz. Predyktor adaptacyjny wstecz rzędu 2.
Zastosowanie Kodowanie mowy - Standard G.726 Próbkowanie z częstościa 8000 próbek na sekundę. Prędkości 40, 32, 24 i 16 kb/s przekładaja się na próbki 5, 4, 3 i 2 bitowe. Poza prędkościa 16kb używamy kwantyzatora o liczbie poziomów 2 n 1, gdzie n liczba bitów próbki. Kwantyzator adaptacyjny wstecz. Predyktor adaptacyjny wstecz rzędu 2. Kodowanie obrazów