Kwantyzacja wektorowa. Kodowanie różnicowe.

Podobne dokumenty
Kompresja danych DKDA (7)

Kompresja danych Streszczenie Studia Dzienne Wykład 10,

Kodowanie i kompresja Streszczenie Studia dzienne Wykład 12,

Przetwarzanie i transmisja danych multimedialnych. Wykład 6 Metody predykcyjne. Przemysław Sękalski.

Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11,

Kwantowanie sygnałów analogowych na przykładzie sygnału mowy

Transformaty. Kodowanie transformujace

Kwantyzacja wektorowa. Plan 1. Zasada działania 2. Projektowanie. Algorytm LBG 3. Kwantyzatory strukturalne 4. Modyfikacje

KOMPRESJA STRATNA SYGNAŁU MOWY. Metody kompresji stratnej sygnałów multimedialnych: Uproszczone modelowanie źródeł generacji sygnałów LPC, CELP

MODULACJE IMPULSOWE. TSIM W10: Modulacje impulsowe 1/22

Założenia i obszar zastosowań. JPEG - algorytm kodowania obrazu. Geneza algorytmu KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG

Wybrane metody kompresji obrazów

Według raportu ISO z 1988 roku algorytm JPEG składa się z następujących kroków: 0.5, = V i, j. /Q i, j

Kodowanie transformacyjne. Plan 1. Zasada 2. Rodzaje transformacji 3. Standard JPEG

mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. GOLOMBA I RICE'A

Podstawowe pojęcia. Teoria informacji

Kompresja JPG obrazu sonarowego z uwzględnieniem założonego poziomu błędu

Kodowanie informacji

Temat: Algorytm kompresji plików metodą Huffmana

Podstawy kompresji stratnej+kwantyzacja

Kodowanie i kompresja Streszczenie Studia Wieczorowe Wykład 10, 2007

Kodowanie podpasmowe. Plan 1. Zasada 2. Filtry cyfrowe 3. Podstawowy algorytm 4. Zastosowania

Kompresja bezstratna. Entropia. Kod Huffmana

Fundamentals of Data Compression

Kompresja Kodowanie arytmetyczne. Dariusz Sobczuk

Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład Kody liniowe - kodowanie w oparciu o macierz parzystości

Nierówność Krafta-McMillana, Kodowanie Huffmana

Wybrane algorytmu kompresji dźwięku

Kodowanie podpasmowe

KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG

Optymalizacja ciągła

Kody Tunstalla. Kodowanie arytmetyczne

Podstawowe funkcje przetwornika C/A

Teoria przetwarzania A/C i C/A.

Przetwornik analogowo-cyfrowy

Kodowanie transformujace. Kompresja danych. Tomasz Jurdziński. Wykład 11: Transformaty i JPEG

teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015

Analiza głównych składowych- redukcja wymiaru, wykł. 12

Przetwarzanie i transmisja danych multimedialnych. Wykład 9 Kodowanie podpasmowe. Przemysław Sękalski.

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe

Wykład II. Reprezentacja danych w technice cyfrowej. Studia Podyplomowe INFORMATYKA Podstawy Informatyki

teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015

Pracownia Komputerowa wykład IV

Przetwarzanie i transmisja danych multimedialnych. Wykład 7 Transformaty i kodowanie. Przemysław Sękalski.

Micha Strzelecki Metody przetwarzania i analizy obrazów biomedycznych (2)

Kompresja danych kodowanie Huffmana. Dariusz Sobczuk

Data Mining Wykład 9. Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster. Plan wykładu. Sformułowanie problemu

Wydział Elektryczny. Katedra Telekomunikacji i Aparatury Elektronicznej. Instrukcja do pracowni specjalistycznej

0 + 0 = 0, = 1, = 1, = 0.

Kompresja Danych. Streszczenie Studia Dzienne Wykład 13, f(t) = c n e inω0t, T f(t)e inω 0t dt.

Akwizycja i przetwarzanie sygnałów cyfrowych

KADD Minimalizacja funkcji

Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9,

Matematyka stosowana i metody numeryczne

SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska

Teoria Informacji i Metody Kompresji Danych

Analiza składowych głównych

Sieci Kohonena Grupowanie

Wstęp do Informatyki

Przykład: Σ = {0, 1} Σ - zbiór wszystkich skończonych ciagów binarnych. L 1 = {0, 00, 000,...,1, 11, 111,... } L 2 = {01, 1010, 001, 11}

PLAN WYKŁADU OPTYMALIZACJA GLOBALNA OPERATOR KRZYŻOWANIA ETAPY KRZYŻOWANIA

Luty 2001 Algorytmy (7) 2000/2001

Algorytmy w teorii liczb

Kodowanie i kompresja Streszczenie Studia dzienne Wykład 6

Kompresja sekwencji obrazów - algorytm MPEG-2

Kodowanie podpasmowe. Plan 1. Zasada 2. Filtry cyfrowe 3. Podstawowy algorytm 4. Zastosowania

Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa. P. F. Góra

Algorytmy kodowania entropijnego

Filtr Kalmana. Struktury i Algorytmy Sterowania Wykład 1-2. prof. dr hab. inż. Mieczysław A. Brdyś mgr inż. Tomasz Zubowicz

Stosowana Analiza Regresji

FFT i dyskretny splot. Aplikacje w DSP

Przedmowa 11 Ważniejsze oznaczenia 14 Spis skrótów i akronimów 15 Wstęp 21 W.1. Obraz naturalny i cyfrowe przetwarzanie obrazów 21 W.2.

Weryfikacja hipotez statystycznych

Tydzień nr 9-10 (16 maja - 29 maja), Równania różniczkowe, wartości własne, funkcja wykładnicza od operatora - Matematyka II 2010/2011L

2 Kryptografia: algorytmy symetryczne

Kwantyzacja skalarna i wektorowa. Metody zaawansowane

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Kody splotowe (konwolucyjne)

Kody splotowe. Zastosowanie

Metody probabilistyczne

Kodowanie Huffmana. Platforma programistyczna.net; materiały do laboratorium 2014/15 Marcin Wilczewski

SPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization

1.1. Pozycyjne systemy liczbowe

Audio i video. R. Robert Gajewski omklnx.il.pw.edu.pl/~rgajewski

Przetwarzanie i transmisja danych multimedialnych. Wykład 5 Kodowanie słownikowe. Przemysław Sękalski.

2 Arytmetyka. d r 2 r + d r 1 2 r 1...d d 0 2 0,

Aproksymacja funkcji a regresja symboliczna

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów

Dane, informacja, programy. Kodowanie danych, kompresja stratna i bezstratna

Kodowanie i entropia

Pracownia Komputerowa wyk ad IV

3. Macierze i Układy Równań Liniowych

2. Próbkowanie Sygnały okresowe (16). Trygonometryczny szereg Fouriera (17). Częstotliwość Nyquista (20).

Wykład 8. Informatyka Stosowana. 26 listopada 2018 Magdalena Alama-Bućko. Informatyka Stosowana Wykład , M.A-B 1 / 31

Próbkowanie. Wykład 4 Próbkowanie i rozkłady próbkowe. Populacja a próba. Błędy w póbkowaniu, cd, Przykład 1 (Ochotnicy)

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

RÓWNANIA NIELINIOWE Maciej Patan

Def. Kod jednoznacznie definiowalny Def. Kod przedrostkowy Def. Kod optymalny. Przykłady kodów. Kody optymalne

Oznacza to, że chcemy znaleźć minimum, a właściwie wartość najmniejszą funkcji

Kompresja obrazów w statycznych - algorytm JPEG

Transkrypt:

Kwantyzacja wektorowa. Kodowanie różnicowe. Kodowanie i kompresja informacji - Wykład 7 12 kwietnia 2010

Kwantyzacja wektorowa wprowadzenie Zamiast kwantyzować pojedyncze elementy kwantyzujemy całe bloki (wektory).

Kwantyzacja wektorowa wprowadzenie Zamiast kwantyzować pojedyncze elementy kwantyzujemy całe bloki (wektory). Prowadzi to często do mniejszych zniekształceń.

Kwantyzacja wektorowa wprowadzenie Zamiast kwantyzować pojedyncze elementy kwantyzujemy całe bloki (wektory). Prowadzi to często do mniejszych zniekształceń. Szczególnie przydatne w obrazach: podobieństwo całych bloków.

Kwantyzacja wektorowa wprowadzenie Zamiast kwantyzować pojedyncze elementy kwantyzujemy całe bloki (wektory). Prowadzi to często do mniejszych zniekształceń. Szczególnie przydatne w obrazach: podobieństwo całych bloków. Jak wybierać reprezentacje wektorów?

Miary kwantyzacji (wektorowej) Średniokwadratowy bład kwantyzacji Średnia z kwadratów różnic między wejściem kodera, a wyjściem dekodera. Jeśli Q operacja kwantyzacji i Q(X) = Y i Yi C X Y j X Y i, gdzie C jest słownikiem kwantyzatora, to D = m i=1 V i X Y i 2 f X (X) dx (zniekształcenie liczymy po próbkach, tak jak w przypadku kwantyzacji skalarnej, ciężko to jednak zapisać w postaci ogólnej).

Miary kwantyzacji (wektorowej) (2) Średnia bitowa kwantyzatora Średnia liczba bitów potrzebna do reprezentowania jednej danej wynikowej kwantyzatora (wartości rekonstrukcyjnej próbki).

Miara kompresji Poziom kompresji Słownik zawiera K elementów, a wektor wejściowy ma wymiar L (liczba elementów w bloku): do zakodowania numeru wybranego wektora potrzebujemy log 2 K bitów,

Miara kompresji Poziom kompresji Słownik zawiera K elementów, a wektor wejściowy ma wymiar L (liczba elementów w bloku): do zakodowania numeru wybranego wektora potrzebujemy log 2 K bitów, każdy wektor zawiera rekonstruowane wartości z L próbek (termin próbka oznacza zawsze wartość skalarna, wyniki kwantyzatora sa nazywane poziomami),

Miara kompresji Poziom kompresji Słownik zawiera K elementów, a wektor wejściowy ma wymiar L (liczba elementów w bloku): do zakodowania numeru wybranego wektora potrzebujemy log 2 K bitów, każdy wektor zawiera rekonstruowane wartości z L próbek (termin próbka oznacza zawsze wartość skalarna, wyniki kwantyzatora sa nazywane poziomami), zatem: liczba bitów na próbkę wynosi log 2 K L.

Przykład

Przykład po przeniesieniu punktu

Algorytm Linndego-Buza-Graya

Algorytm Linndego-Buza-Graya 1 Wybierz dowolnie poczatkowy zbiór rekonstruowanych wartości {Y (0) i } m i=1. Ustal k = 0, D ( 1) = 0. Wybierz próg ε.

Algorytm Linndego-Buza-Graya 1 Wybierz dowolnie poczatkowy zbiór rekonstruowanych wartości {Y (0) i } m i=1. Ustal k = 0, D ( 1) = 0. Wybierz próg ε. 2 Znajdź obszary kwantyzacji V (k) i = {X : j i d(x, Y i ) < d(x, Y j )}.

Algorytm Linndego-Buza-Graya 1 Wybierz dowolnie poczatkowy zbiór rekonstruowanych wartości {Y (0) i } m i=1. Ustal k = 0, D ( 1) = 0. Wybierz próg ε. 2 Znajdź obszary kwantyzacji V (k) i = {X : j i d(x, Y i ) < d(x, Y j )}. 3 Oblicz zniekształcenie D (k) = m i=1 V (k) i X Y (k) i 2 f X (X) dx.

Algorytm Linndego-Buza-Graya 1 Wybierz dowolnie poczatkowy zbiór rekonstruowanych wartości {Y (0) i } m i=1. Ustal k = 0, D ( 1) = 0. Wybierz próg ε. 2 Znajdź obszary kwantyzacji V (k) i = {X : j i d(x, Y i ) < d(x, Y j )}. 3 Oblicz zniekształcenie D (k) = m i=1 4 Jeśli D(k) D (k 1) D (k) V (k) i X Y (k) i 2 f X (X) dx. < ε zakończ obliczenia.

Algorytm Linndego-Buza-Graya 1 Wybierz dowolnie poczatkowy zbiór rekonstruowanych wartości {Y (0) i } m i=1. Ustal k = 0, D ( 1) = 0. Wybierz próg ε. 2 Znajdź obszary kwantyzacji V (k) i = {X : j i d(x, Y i ) < d(x, Y j )}. 3 Oblicz zniekształcenie D (k) = m i=1 4 Jeśli D(k) D (k 1) D (k) V (k) i X Y (k) i 2 f X (X) dx. < ε zakończ obliczenia. } m i=1 5 Przyjmij k k + 1. Za nowe {Y (k) i ciężkości {V (k 1) i }. Wróć do kroku 2. przyjmij środki

Algorytm Linndego-Buza-Graya 1 Wybierz dowolnie poczatkowy zbiór rekonstruowanych wartości {Y (0) i } m i=1. Ustal k = 0, D ( 1) = 0. Wybierz próg ε. 2 Znajdź obszary kwantyzacji V (k) i = {X : j i d(x, Y i ) < d(x, Y j )}. 3 Oblicz zniekształcenie D (k) = m i=1 4 Jeśli D(k) D (k 1) D (k) V (k) i X Y (k) i 2 f X (X) dx. < ε zakończ obliczenia. } m i=1 5 Przyjmij k k + 1. Za nowe {Y (k) i ciężkości {V (k 1) i }. Wróć do kroku 2. W praktyce zamiast rozkładów używa się zbiorów uczacych. przyjmij środki

Inicjalizacja algorytmu LBG metoda podziałów Rozpoczynamy z jednym punktem (rozmiar słownika 1), będacym średnia z całego zbioru uczacego.

Inicjalizacja algorytmu LBG metoda podziałów Rozpoczynamy z jednym punktem (rozmiar słownika 1), będacym średnia z całego zbioru uczacego. Dodajemy pewien ustalony wektor perturbacji ɛ do każdego punktu słownika i wykonujemy LBG.

Inicjalizacja algorytmu LBG metoda podziałów Rozpoczynamy z jednym punktem (rozmiar słownika 1), będacym średnia z całego zbioru uczacego. Dodajemy pewien ustalony wektor perturbacji ɛ do każdego punktu słownika i wykonujemy LBG. Kontynuujemy aż do uzyskania zakładanej liczby poziomów (jeżeli nie jest potęga 2, to w ostatnim kroku nie wszystkie podwajamy).

Kwantyzatory o strukturze drzewiastej Jak poradzić sobie z dużymi słownikami kwantyzacji? Dzielimy przestrzeń na dwie części i uzyskujemy dla nich wektory reprezentacji.

Kwantyzatory o strukturze drzewiastej Jak poradzić sobie z dużymi słownikami kwantyzacji? Dzielimy przestrzeń na dwie części i uzyskujemy dla nich wektory reprezentacji. Powtarzamy procedurę dla każdej części, aż uzyskamy pełne drzewo (binarne) o wysokości k.

Kwantyzatory o strukturze drzewiastej Jak poradzić sobie z dużymi słownikami kwantyzacji? Dzielimy przestrzeń na dwie części i uzyskujemy dla nich wektory reprezentacji. Powtarzamy procedurę dla każdej części, aż uzyskamy pełne drzewo (binarne) o wysokości k. Możemy przyciać niektóre poddrzewa, jeśli zmniejszy to zniekształcenie.

Kwantyzatory o strukturze drzewiastej Jak poradzić sobie z dużymi słownikami kwantyzacji? Dzielimy przestrzeń na dwie części i uzyskujemy dla nich wektory reprezentacji. Powtarzamy procedurę dla każdej części, aż uzyskamy pełne drzewo (binarne) o wysokości k. Możemy przyciać niektóre poddrzewa, jeśli zmniejszy to zniekształcenie. Wada: zwykle tylko dla kwantyzatorów symetrycznych otrzymujemy optymalne rozwiazania.

Przykład

Kratowa kwantyzacja wektorowa Krata (def. uproszczona) Niech { a 1, a 2,..., a L } będa L niezależnymi wektorami o L wymiarach. Wówczas zbiór { } L L = x : x = u i a i jest krata, jeśli wszystkie u i sa liczbami całkowitymi. i=1

Przykład kraty D 2 Dla a 1 = (1, 1), a 2 = (1, 1) otrzymujemy (D-kraty maja parzysta sumę współrzędnych)

Przykład kraty A 2 Dla a 1 = (1, 0), a 2 = ( 1 2, 3 2 ) otrzymujemy

Inne rodzaje kwantyzacji wektorowej piramidalne,

Inne rodzaje kwantyzacji wektorowej piramidalne, sferyczne i biegunowe,

Inne rodzaje kwantyzacji wektorowej piramidalne, sferyczne i biegunowe, skala-kształt,

Inne rodzaje kwantyzacji wektorowej piramidalne, sferyczne i biegunowe, skala-kształt, z usunięta średnia,

Inne rodzaje kwantyzacji wektorowej piramidalne, sferyczne i biegunowe, skala-kształt, z usunięta średnia, klasyfikowana,

Inne rodzaje kwantyzacji wektorowej piramidalne, sferyczne i biegunowe, skala-kształt, z usunięta średnia, klasyfikowana, wieloetapowa,

Inne rodzaje kwantyzacji wektorowej piramidalne, sferyczne i biegunowe, skala-kształt, z usunięta średnia, klasyfikowana, wieloetapowa, adaptacyjna.

Kwantyzacja podsumowanie Prosta metoda przejścia z dużego alfabetu symboli na znacznie mniejszy.

Kwantyzacja podsumowanie Prosta metoda przejścia z dużego alfabetu symboli na znacznie mniejszy. Dla bardzo wielu modeli danych opracowane zostały bardzo dobre metody kwantyzacji, charakteryzujace się małymi zniekształceniami.

Kwantyzacja podsumowanie Prosta metoda przejścia z dużego alfabetu symboli na znacznie mniejszy. Dla bardzo wielu modeli danych opracowane zostały bardzo dobre metody kwantyzacji, charakteryzujace się małymi zniekształceniami. Po kwantyzacji można stosować do kompresji znane metody bezstratne.

Kodowanie różnicowe - wprowadzenie Dla danych takich jak mowa czy obrazy istnieje duża korelacja między kolejnymi elementami (próbkami).

Kodowanie różnicowe - wprowadzenie Dla danych takich jak mowa czy obrazy istnieje duża korelacja między kolejnymi elementami (próbkami). Można to wykorzystać kodujac różnice między kolejnymi elementami.

Kodowanie różnicowe - wprowadzenie Dla danych takich jak mowa czy obrazy istnieje duża korelacja między kolejnymi elementami (próbkami). Można to wykorzystać kodujac różnice między kolejnymi elementami. Wariancja i wielkość różnic moga być znaczaco mniejsze niż wariancja i wielkość elementów wejściowego ciagu.

Przykład Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8

Przykład Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Przy założeniu że pierwsza wartościa wejściowa jest 0, ciag różnic wyglada następujaco: 6.2, 3.5, 3.5, 7.3, 2.1, 0.6, 3.2, 2.4

Przykład Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Przy założeniu że pierwsza wartościa wejściowa jest 0, ciag różnic wyglada następujaco: 6.2, 3.5, 3.5, 7.3, 2.1, 0.6, 3.2, 2.4 Co się stanie jeśli skwantyzujemy (skompresujemy stratnie) ciag różnic kwantyzatorem z 7 wartościami 6, 4, 2, 0, 2, 4, 6.

Przykład Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Przy założeniu że pierwsza wartościa wejściowa jest 0, ciag różnic wyglada następujaco: 6.2, 3.5, 3.5, 7.3, 2.1, 0.6, 3.2, 2.4 Co się stanie jeśli skwantyzujemy (skompresujemy stratnie) ciag różnic kwantyzatorem z 7 wartościami 6, 4, 2, 0, 2, 4, 6. Otrzymujemy skwantyzowany ciag: 6, 4, 4, 6, 2, 0, 4, 2

Przykład Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Przy założeniu że pierwsza wartościa wejściowa jest 0, ciag różnic wyglada następujaco: 6.2, 3.5, 3.5, 7.3, 2.1, 0.6, 3.2, 2.4 Co się stanie jeśli skwantyzujemy (skompresujemy stratnie) ciag różnic kwantyzatorem z 7 wartościami 6, 4, 2, 0, 2, 4, 6. Otrzymujemy skwantyzowany ciag: 6, 4, 4, 6, 2, 0, 4, 2 Rekonstruujac ciag otrzymamy: 6, 10, 14, 8, 10, 10, 6, 4

Przykład Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Przy założeniu że pierwsza wartościa wejściowa jest 0, ciag różnic wyglada następujaco: 6.2, 3.5, 3.5, 7.3, 2.1, 0.6, 3.2, 2.4 Co się stanie jeśli skwantyzujemy (skompresujemy stratnie) ciag różnic kwantyzatorem z 7 wartościami 6, 4, 2, 0, 2, 4, 6. Otrzymujemy skwantyzowany ciag: 6, 4, 4, 6, 2, 0, 4, 2 Rekonstruujac ciag otrzymamy: 6, 10, 14, 8, 10, 10, 6, 4 Bład (różnica między oryginalnym a rekonstruowanym ciagiem) wynosi: 0.2, 0.3, 0.8, 2.1, 2, 2.6, 1.8, 2.2

Przykład Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Przy założeniu że pierwsza wartościa wejściowa jest 0, ciag różnic wyglada następujaco: 6.2, 3.5, 3.5, 7.3, 2.1, 0.6, 3.2, 2.4 Co się stanie jeśli skwantyzujemy (skompresujemy stratnie) ciag różnic kwantyzatorem z 7 wartościami 6, 4, 2, 0, 2, 4, 6. Otrzymujemy skwantyzowany ciag: 6, 4, 4, 6, 2, 0, 4, 2 Rekonstruujac ciag otrzymamy: 6, 10, 14, 8, 10, 10, 6, 4 Bład (różnica między oryginalnym a rekonstruowanym ciagiem) wynosi: 0.2, 0.3, 0.8, 2.1, 2, 2.6, 1.8, 2.2 Zauważmy, że wielkość błędu rośnie.

Analiza Mamy ciag {x n }. Ciag różnic {d n } generujemy biorac d n = x n x n 1. Kwantyzujac według wzoru ˆd n = Q[d n ] = d n + q n otrzymujemy ciag {ˆd n }, gdzie q n jest błędem kwantyzacji.

Analiza Mamy ciag {x n }. Ciag różnic {d n } generujemy biorac d n = x n x n 1. Kwantyzujac według wzoru ˆd n = Q[d n ] = d n + q n otrzymujemy ciag {ˆd n }, gdzie q n jest błędem kwantyzacji. U odbiorcy odtwarzamy ciag {ˆx n } według wzoru ˆx n = ˆx n 1 + ˆd n.

Analiza Mamy ciag {x n }. Ciag różnic {d n } generujemy biorac d n = x n x n 1. Kwantyzujac według wzoru ˆd n = Q[d n ] = d n + q n otrzymujemy ciag {ˆd n }, gdzie q n jest błędem kwantyzacji. U odbiorcy odtwarzamy ciag {ˆx n } według wzoru ˆx n = ˆx n 1 + ˆd n. Łatwo policzyć, że ˆx n = x n + n i=1 q i.

Analiza Mamy ciag {x n }. Ciag różnic {d n } generujemy biorac d n = x n x n 1. Kwantyzujac według wzoru ˆd n = Q[d n ] = d n + q n otrzymujemy ciag {ˆd n }, gdzie q n jest błędem kwantyzacji. U odbiorcy odtwarzamy ciag {ˆx n } według wzoru ˆx n = ˆx n 1 + ˆd n. Łatwo policzyć, że ˆx n = x n + n i=1 q i. Bład kwantyzacji akumuluje się z czasem.

Analiza Mamy ciag {x n }. Ciag różnic {d n } generujemy biorac d n = x n x n 1. Kwantyzujac według wzoru ˆd n = Q[d n ] = d n + q n otrzymujemy ciag {ˆd n }, gdzie q n jest błędem kwantyzacji. U odbiorcy odtwarzamy ciag {ˆx n } według wzoru ˆx n = ˆx n 1 + ˆd n. Łatwo policzyć, że ˆx n = x n + n i=1 q i. Bład kwantyzacji akumuluje się z czasem. Jak temu zapobiec?

Analiza Mamy ciag {x n }. Ciag różnic {d n } generujemy biorac d n = x n x n 1. Kwantyzujac według wzoru ˆd n = Q[d n ] = d n + q n otrzymujemy ciag {ˆd n }, gdzie q n jest błędem kwantyzacji. U odbiorcy odtwarzamy ciag {ˆx n } według wzoru ˆx n = ˆx n 1 + ˆd n. Łatwo policzyć, że ˆx n = x n + n i=1 q i. Bład kwantyzacji akumuluje się z czasem. Jak temu zapobiec? Użyjmy do obliczenia różnicy zależności d n = x n ˆx n 1.

Analiza Mamy ciag {x n }. Ciag różnic {d n } generujemy biorac d n = x n x n 1. Kwantyzujac według wzoru ˆd n = Q[d n ] = d n + q n otrzymujemy ciag {ˆd n }, gdzie q n jest błędem kwantyzacji. U odbiorcy odtwarzamy ciag {ˆx n } według wzoru ˆx n = ˆx n 1 + ˆd n. Łatwo policzyć, że ˆx n = x n + n i=1 q i. Bład kwantyzacji akumuluje się z czasem. Jak temu zapobiec? Użyjmy do obliczenia różnicy zależności d n = x n ˆx n 1. Wtedy ˆx n = x n + q n.

Przykład Policzmy poprzedni przykład nowa metoda.

Przykład Policzmy poprzedni przykład nowa metoda. Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8

Przykład Policzmy poprzedni przykład nowa metoda. Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Mamy kwantyzator: 6, 4, 2, 0, 2, 4, 6.

Przykład Policzmy poprzedni przykład nowa metoda. Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Mamy kwantyzator: 6, 4, 2, 0, 2, 4, 6. Ciag różnic: 6.2, 3.7, 3.2, 8.1, 0, 0.6, 3.8, 2.2

Przykład Policzmy poprzedni przykład nowa metoda. Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Mamy kwantyzator: 6, 4, 2, 0, 2, 4, 6. Ciag różnic: 6.2, 3.7, 3.2, 8.1, 0, 0.6, 3.8, 2.2 Skwantyzowany ciag różnic: 6, 4, 4, 6, 0, 0, 4, 2

Przykład Policzmy poprzedni przykład nowa metoda. Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Mamy kwantyzator: 6, 4, 2, 0, 2, 4, 6. Ciag różnic: 6.2, 3.7, 3.2, 8.1, 0, 0.6, 3.8, 2.2 Skwantyzowany ciag różnic: 6, 4, 4, 6, 0, 0, 4, 2 Zrekonstruowany ciag: 6, 10, 14, 8, 8, 8, 4, 2

Przykład Policzmy poprzedni przykład nowa metoda. Mamy ciag: 6.2, 9.7, 13.2, 5.9, 8, 7.4, 4.2, 1.8 Mamy kwantyzator: 6, 4, 2, 0, 2, 4, 6. Ciag różnic: 6.2, 3.7, 3.2, 8.1, 0, 0.6, 3.8, 2.2 Skwantyzowany ciag różnic: 6, 4, 4, 6, 0, 0, 4, 2 Zrekonstruowany ciag: 6, 10, 14, 8, 8, 8, 4, 2 Bład: 0.2, 0.3, 0.8, 2.1, 0, 0.6, 0.2, 0.2

Predykcja DPCM Differential Pulse Code Modulation - różnicowa modulacja kodowo-impulsowa.

Predykcja DPCM Differential Pulse Code Modulation - różnicowa modulacja kodowo-impulsowa. Załóżmy, że zamiast różnicy między kolejnymi elementami mamy funkcję predykcyjna która generuje nam ciag {p n }, p n = f (ˆx n 1,..., ˆx 0 ), i kodujemy różnicę x n p n.

Predykcja DPCM Differential Pulse Code Modulation - różnicowa modulacja kodowo-impulsowa. Załóżmy, że zamiast różnicy między kolejnymi elementami mamy funkcję predykcyjna która generuje nam ciag {p n }, p n = f (ˆx n 1,..., ˆx 0 ), i kodujemy różnicę x n p n. Chcemy znaleźć takie f które minimalizuje nam σ 2 d = E[(x n p n ) 2 ]

Predykcja DPCM Problem jest trudny więc zakładamy, że predyktor jest funkcja postaci N p n = a i ˆx n 1. i=1 N określa rzad predyktora.

Predykcja DPCM Problem jest trudny więc zakładamy, że predyktor jest funkcja postaci N p n = a i ˆx n 1. i=1 N określa rzad predyktora. Aby uprościć rachunki dodatkowo zamiast ˆx n używamy x n (zakładamy, że błędy kwantyzacji sa bardzo małe).

Predykcja DPCM Problem jest trudny więc zakładamy, że predyktor jest funkcja postaci N p n = a i ˆx n 1. i=1 N określa rzad predyktora. Aby uprościć rachunki dodatkowo zamiast ˆx n używamy x n (zakładamy, że błędy kwantyzacji sa bardzo małe). Chcemy teraz znaleźć takie wartości {a i } aby zminimalizować ( σd 2 = E x n N i=1 ) 2 a i x n i

Predykcja DPCM Weźmy pochodna σd 2 względem każdego a i i przyrównajmy do zera.

Predykcja DPCM Weźmy pochodna σd 2 względem każdego a i i przyrównajmy do zera. Otrzymamy N równań postaci [( ) ] δσd 2 N = 2E x n a i x n i x n j = 0 δa j i=1

Predykcja DPCM Weźmy pochodna σd 2 względem każdego a i i przyrównajmy do zera. Otrzymamy N równań postaci [( ) ] δσd 2 N = 2E x n a i x n i x n j = 0 δa j i=1 Obliczajac wartości oczekiwane otrzymamy układ N a i R xx (i j) = R xx (j) i=1 gdzie R xx (k) = E[x n x n+k ] jest funkcja autokorelacji zmiennej x n.

Predykcja DPCM Weźmy pochodna σd 2 względem każdego a i i przyrównajmy do zera. Otrzymamy N równań postaci [( ) ] δσd 2 N = 2E x n a i x n i x n j = 0 δa j i=1 Obliczajac wartości oczekiwane otrzymamy układ N a i R xx (i j) = R xx (j) i=1 gdzie R xx (k) = E[x n x n+k ] jest funkcja autokorelacji zmiennej x n. Jeśli znamy wartości autokorelacji możemy znaleźć wartości a i.

Odmiany DPCM Adaptacyjne DPCM: adaptacja w przód i wstecz.

Odmiany DPCM Adaptacyjne DPCM: adaptacja w przód i wstecz. Modulacja delta: dwustopniowy kwantyzator i odpowiednia częstość próbkowania (dwa razy częstsza niż największa częstotliwość)

Zastosowanie Kodowanie mowy - Standard G.726

Zastosowanie Kodowanie mowy - Standard G.726 Próbkowanie z częstościa 8000 próbek na sekundę.

Zastosowanie Kodowanie mowy - Standard G.726 Próbkowanie z częstościa 8000 próbek na sekundę. Prędkości 40, 32, 24 i 16 kb/s przekładaja się na próbki 5, 4, 3 i 2 bitowe.

Zastosowanie Kodowanie mowy - Standard G.726 Próbkowanie z częstościa 8000 próbek na sekundę. Prędkości 40, 32, 24 i 16 kb/s przekładaja się na próbki 5, 4, 3 i 2 bitowe. Poza prędkościa 16kb używamy kwantyzatora o liczbie poziomów 2 n 1, gdzie n liczba bitów próbki.

Zastosowanie Kodowanie mowy - Standard G.726 Próbkowanie z częstościa 8000 próbek na sekundę. Prędkości 40, 32, 24 i 16 kb/s przekładaja się na próbki 5, 4, 3 i 2 bitowe. Poza prędkościa 16kb używamy kwantyzatora o liczbie poziomów 2 n 1, gdzie n liczba bitów próbki. Kwantyzator adaptacyjny wstecz.

Zastosowanie Kodowanie mowy - Standard G.726 Próbkowanie z częstościa 8000 próbek na sekundę. Prędkości 40, 32, 24 i 16 kb/s przekładaja się na próbki 5, 4, 3 i 2 bitowe. Poza prędkościa 16kb używamy kwantyzatora o liczbie poziomów 2 n 1, gdzie n liczba bitów próbki. Kwantyzator adaptacyjny wstecz. Predyktor adaptacyjny wstecz rzędu 2.

Zastosowanie Kodowanie mowy - Standard G.726 Próbkowanie z częstościa 8000 próbek na sekundę. Prędkości 40, 32, 24 i 16 kb/s przekładaja się na próbki 5, 4, 3 i 2 bitowe. Poza prędkościa 16kb używamy kwantyzatora o liczbie poziomów 2 n 1, gdzie n liczba bitów próbki. Kwantyzator adaptacyjny wstecz. Predyktor adaptacyjny wstecz rzędu 2. Kodowanie obrazów