Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11,

Podobne dokumenty
Kodowanie i kompresja Streszczenie Studia dzienne Wykład 12,

Kompresja danych DKDA (7)

Kompresja danych Streszczenie Studia Dzienne Wykład 10,

Kwantyzacja wektorowa. Kodowanie różnicowe.

Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9,

Kompresja Kodowanie arytmetyczne. Dariusz Sobczuk

Temat: Algorytm kompresji plików metodą Huffmana

Kodowanie informacji

mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. GOLOMBA I RICE'A

Wydział Elektryczny. Katedra Telekomunikacji i Aparatury Elektronicznej. Instrukcja do pracowni specjalistycznej

Kodowanie i kompresja Streszczenie Studia dzienne Wykład 6

Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład Kody liniowe - kodowanie w oparciu o macierz parzystości

Teoria informacji i kodowania Ćwiczenia

Teoria Informacji - wykład. Kodowanie wiadomości

Kody Tunstalla. Kodowanie arytmetyczne

Podstawy kompresji stratnej+kwantyzacja

Założenia i obszar zastosowań. JPEG - algorytm kodowania obrazu. Geneza algorytmu KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG

2 Kryptografia: algorytmy symetryczne

Podstawowe funkcje przetwornika C/A

Kwantyzacja wektorowa. Plan 1. Zasada działania 2. Projektowanie. Algorytm LBG 3. Kwantyzatory strukturalne 4. Modyfikacje

Def. Kod jednoznacznie definiowalny Def. Kod przedrostkowy Def. Kod optymalny. Przykłady kodów. Kody optymalne

KONSPEKT FUNKCJE cz. 1.

Aproksymacja. funkcji: ,a 2. ,...,a m. - są funkcjami bazowymi m+1 wymiarowej podprzestrzeni liniowej X m+1

Programowanie celowe #1

Kompresja danych kodowanie Huffmana. Dariusz Sobczuk

Według raportu ISO z 1988 roku algorytm JPEG składa się z następujących kroków: 0.5, = V i, j. /Q i, j

Plan wykładu. Przykład. Przykład 3/19/2011. Przykład zagadnienia transportowego. Optymalizacja w procesach biznesowych Wykład 2 DECYZJA?

Granica kompresji Kodowanie Shannona Kodowanie Huffmana Kodowanie ciągów Kodowanie arytmetyczne. Kody. Marek Śmieja. Teoria informacji 1 / 35

Metody numeryczne I Równania nieliniowe

Metody numeryczne Technika obliczeniowa i symulacyjna Sem. 2, EiT, 2014/2015

1 Metody rozwiązywania równań nieliniowych. Postawienie problemu

Klasyczne zagadnienie przydziału

Programowanie liniowe

KADD Minimalizacja funkcji

Kodowanie Huffmana. Platforma programistyczna.net; materiały do laboratorium 2014/15 Marcin Wilczewski

Aproksymacja funkcji a regresja symboliczna

Teoria przetwarzania A/C i C/A.

Dystrybucje, wiadomości wstępne (I)

KODY SYMBOLI. Materiały KODA, A.Przelaskowski. Koncepcja przedziałów nieskończonego alfabetu

6. FUNKCJE. f: X Y, y = f(x).

Wybrane metody przybliżonego. wyznaczania rozwiązań (pierwiastków) równań nieliniowych

Algorytmy genetyczne. Paweł Cieśla. 8 stycznia 2009

teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015

Zadanie 3 Oblicz jeżeli wiadomo, że liczby 8 2,, 1, , tworzą ciąg arytmetyczny. Wyznacz różnicę ciągu. Rozwiązanie:

Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Elektroniki

SCHEMAT ROZWIĄZANIA ZADANIA OPTYMALIZACJI PRZY POMOCY ALGORYTMU GENETYCZNEGO

9. BADANIE PRZEBIEGU ZMIENNOŚCI FUNKCJI

Elementy metod numerycznych

Wykład 10 Skalowanie wielowymiarowe

Kodowanie informacji. Kody liczbowe

KODY SYMBOLI. Kod Shannona-Fano. Algorytm S-F. Przykład S-F

Zapis liczb binarnych ze znakiem

Iteracyjne rozwiązywanie równań

Wybrane metody kompresji obrazów

Kompresja bezstratna. Entropia. Kod Huffmana

Inteligentna analiza danych

Załóżmy, że obserwujemy nie jedną lecz dwie cechy, które oznaczymy symbolami X i Y. Wyniki obserwacji obu cech w i-tym obiekcie oznaczymy parą liczb

Laboratorium 5 Przybliżone metody rozwiązywania równań nieliniowych

Metody numeryczne. Janusz Szwabiński. Metody numeryczne I (C) 2004 Janusz Szwabiński p.1/50

Optymalizacja ciągła

METODY ROZWIĄZYWANIA RÓWNAŃ NIELINIOWYCH

Entropia Kodowanie. Podstawy kompresji. Algorytmy kompresji danych. Sebastian Deorowicz

1.5. Sygnały. Sygnał- jest modelem zmian w czasie pewnej wielkości fizycznej lub stanu obiektu fizycznego

Kompresja Danych. Streszczenie Studia Dzienne Wykład 13, f(t) = c n e inω0t, T f(t)e inω 0t dt.

Logarytmy. Funkcje logarytmiczna i wykładnicza. Równania i nierówności wykładnicze i logarytmiczne.

Rozdział 1 PROGRAMOWANIE LINIOWE

Optymalizacja ciągła

Podstawy Informatyki

Przepustowość kanału, odczytywanie wiadomości z kanału, poprawa wydajności kanału.

Metody numeryczne. dr Artur Woike. Ćwiczenia nr 2. Rozwiązywanie równań nieliniowych metody połowienia, regula falsi i siecznych.

Metody Rozmyte i Algorytmy Ewolucyjne

Systemy liczbowe. 1. Przedstawić w postaci sumy wag poszczególnych cyfr liczbę rzeczywistą R = (10).

Metody numeryczne w przykładach

Metoda simpleks. Gliwice

ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ

RÓWNANIA RÓŻNICZKOWE WYKŁAD 2

PLAN WYKŁADU OPTYMALIZACJA GLOBALNA OPERATOR KRZYŻOWANIA ETAPY KRZYŻOWANIA

Schemat programowania dynamicznego (ang. dynamic programming)

Zagadnienie transportowe

Wykresy i własności funkcji

Uczenie sieci typu MLP

Kwantowanie sygnałów analogowych na przykładzie sygnału mowy

Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna.

Kodowanie predykcyjne

Bardzo łatwa lista powtórkowa

Optymalizacja ciągła

Metoda największej wiarygodności

Elementy teorii informacji i kodowania

Optymalizacja ciągła

3. Interpolacja. Interpolacja w sensie Lagrange'a (3.1) Dana jest funkcja y= f x określona i ciągła w przedziale [a ;b], która

1 Pochodne wyższych rzędów

Metoda graficzna może być stosowana w przypadku gdy model zawiera dwie zmienne decyzyjne. Metoda składa się z dwóch kroków (zobacz pierwszy wykład):

Kodowanie transformujace. Kompresja danych. Tomasz Jurdziński. Wykład 11: Transformaty i JPEG

8. Neuron z ciągłą funkcją aktywacji.

w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych.

Zagadnienia - równania nieliniowe

RÓWNANIA NIELINIOWE Maciej Patan

MATEMATYKA WYKAZ UMIEJĘTNOŚCI WYMAGANYCH NA POSZCZEGÓLNE OCENY DLA KLASY DRUGIEJ

Sprawdzenie narzędzi pomiarowych i wyznaczenie niepewności rozszerzonej typu A w pomiarach pośrednich

xx + x = 1, to y = Jeśli x = 0, to y = 0 Przykładowy układ Funkcja przykładowego układu Metody poszukiwania testów Porównanie tabel prawdy

Transkrypt:

1 Kwantyzacja skalarna Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11, 10.05.005 Kwantyzacja polega na reprezentowaniu dużego zbioru wartości (być może nieskończonego) za pomocą wartości ze zbioru mniejszego. Chcemy osiągnąć dwa przeciwstawne cele: maksymalizacja stopnia kompresji; minimalizacja zniekształceń. Kwantyzacja skalarna: każda wartość w ciągu kwantyzowana osobno. Kwantyzator: odwzorowanie kodujące: podział zbioru wartości danych wejściowych na ustaloną liczbę podprzedziałów, przyporządkowanie przedziałom słów kodowych każda wartość wejściowa reprezentowana jest przez słowo kodowe przedziału, do którego należy. odwzorowanie dekodujące: Pojęcia: każdemu słowu kodowemu przyporządkowujemy wartość rekonstrukcji (z przedziału, który koduje to słowo) każde słowo kodowe w ciągu skompresowanym jest odtwarzane przy pomocy przypisanej mu wartości rekonstrukcji. granice decyzyjne: końce przedziałów (gdy M przedziałów, potrzeba M + 1 granic decyzyjnych); poziomy rekonstrukcji: wartości przyporządkowane przedziałom (M wartości dla M przedziałów); dla przedziałów nieskończonych dopuszczamy wartości ±. Miary jakości kwantyzatora: średniokwadratowy błąd kwantyzacji σ q: jak najmniejszy przy ustalonej (maksymalnej) średniej długości słowa kodowego. 1

(średnia) długość słowa kodowego: jak najmniejsza przy ustalonej maksymalnej wartości σ q. Niech {b i } M i=0 to granice decyzyjne, a {y i } M to poziomy rekonstrukcji a f X to funkcja rozkładu prawdopodobieństwa danych wejściowych. Operację kwantyzacji definiujemy jako: Q(x) = y i < x b i. Średniokwadratowy błąd kwantyzacji jest równy: σ q = (x Q(x)) = A średnia długość słowa kodowego to R = l i, (x y i ). gdzie l i to długość słowa kodowego odpowiadającego i-temu przedziałowi (i-tej wartości rekonstrukcji). UWAGA: przy słowach kodowych o zmiennej długości wartość ta zależy nie tylko od liczby przedziałów. 1.1 Kwantyzator równomierny Założenia: wszystkie przedziały tej samej długości (za wyjątkiem, ewentualnie, skrajnych), poziomy rekonstrukcji to środki przedziałów. Kwantyzator stały w zerze i ze skokiem w zerze. Kwantyzacja dla rozkładu jednostajnego Założenia: rozkład danych jednostajny w przedziale [ X max, X max ], kwantyzator ma M poziomów. Wówczas wielkość przedziału to δ = X max M a błąd średniokwadratowy ( zniekształcenie ) σ q = M/ iδ (i 1)δ ( x i 1 ) 1 δ dx = δ X max 1. UWAGA: dla rozkładu jednostajnego i kwantyzatora równomiernego optymalne są słowa kodowe o stałej długości (z dokładnością do możliwości zaoszczędzenia jednego bitu na niektórych słowach patrz kody stałe dla kodowania arytmetycznego).

1. Kwantyzacja adaptacyjna Kwantyzacja adaptacyjna w tył (on-line) : parametry kwantyzatora modyfikowane w oparciu o już zakodowane dane. Krokiem kwantyzacji nazywamy wielkość przedziału przy kwantyzacji jednostajnej. Idea kwantyzatora Jayanta (liczba przedziałów ustalona, celem optymalny dobór kroku kwantyzacji; rozkład jest symetryczny i nieskończony): jeżeli kolejna wartość wejściowa trafia do przedziałów wewnętrznych, należy zwiększyć krok kwantyzacji, w przeciwnym razie należy zmniejszyć krok kwantyzacji dobór parametrów zwiększania/zmniejszania powinien stabilizować krok kwantyzacji po dopasowaniu do rzeczywistego rozkładu danych. Generalnie, krok kwantyzacji przy kodowaniu n-tej wartości wejściowej wynosi δ n = w f(n 1) δ n 1, gdzie δ n 1 to krok dla (n 1)-szej wartości, f(n 1) to numer przedziału, do którego wpada wartość (n 1)sza, a w 1,..., w M to ustalone współczynniki. Wartości w 1,..., w M dobieramy tak, że przedziałom bliskim zera odpowiadają wartości mniejsze od 1 a przedziałom zewnętrznym wartości większe od 1. Skuteczność kwantyzatora Jayanta: zależna od doboru δ 1 i parametrów w 1,..., w M. Zasada: dobre kwantyzatory szybciej się rozszerzają niż kurczą (ze względu na nieograniczony błąd w przedziałach zewnętrznych). 1.3 Kwantyzacja nierównomierna Zasada: przedziały kwantyzacji nie muszą mieć tej samej długości. Analogia do kodów o zmiennej długości: symbole o większym prawdopodobieństwie mają krótsze słowa kodowe w obszarach o większym prawdopodobieństwie stosujemy mniejsze przedziały. Kwantyzacja optymalizowana ze względu na rozkład : gdy znany jest rozkład prawodpodobieństwa danych. Cel: dla znanej funkcji rozkładu prawdopodobieństwa f X i ustalonej liczby przedziałów M należy dobrać granice decyzyjne {b i } M i=0 i poziomy rekonstrukcji {y i } M, tak aby zminimalizować (x y i ). 3

Szukając miejsc zerowych pochodnej względem y j w przedziale [, b j ] uzyskujemy rozwiązanie: b y j = j 1 Z kolei miejsca zerowe pochodnej względem b j to: b j = y j+1 + y j. Iteracyjne poszukiwanie rozwiązań powyższych równań (algorytm Lloyda-Maxa): 1. Założenie: funkcja rozkładu prawdopodobieństwa jest symetryczna, projektujemy kwantyzator ze skokiem w zerze (czyli 0 ma być końcem przedziału), liczba przedziałów równa jest M.. Ze względu na symetrię, indeksujemy: y M/,..., y 1, y 1,..., y M/, oraz b (M/ 1),..., b 1, b 0 = 0, b 1,..., b M/ 1. Wyznaczać będziemy tylko wartości z dodatnimi indeksami, ponieważ y j = y j i b j = b j. 3. Przyjmujemy b 0 = 0, y 1 -dowolne. 4. Dla j =,..., M/: (a) wyznaczamy z równania jednej zmiennej y j = (b) wyznaczamy y j := + y j 1 5. wyznaczamy b M/ na podstawie danych wejściowych (np. jako maksymalną wartość wejściową) 6. jeśli różnica między wyliczoną w powyższy sposób wartością y M/ a wyrażeniem bm/ b M/ 1 bm/ b M/ 1 jest mniejsza od przyjętej wartości błędu, kończymy obliczenia. W przeciwnym razie zwiększamy y 1 (gdy powyższa różnica ujemna) lub zmiejszamy y 1 (gdy powyższa różnica dodatnia) i przechodzimy do punktu 4. Problem w zastosowaniach praktycznych (np. kwantyzacja mowy): rozkład danych zmienia się w czasie. Rozwiązanie: adaptacyjna wersja powyższej metody. 4

1.4 Kwantyzacja z kompanderem Idea: zamiast stosować przedziały o różnych długościach (kwantyzacja nierównomierna), przekształcamy dane wejściowe funkcją (kompresorem) dającą (w miarę) jednostajny rozkład. Dekodowanie wymaga wówczas zastosowania funkcji odwrotnej (ekspandera). Metoda ta stosowana jest w telefonii. Całka Bennnetta: sposób konstrukcji kompresora/ekspandera, nie wymagający znajomości funkcji rozkładu prawdopodobieństwa (przy pewnych upraszczających założeniach). 1.5 Optymalizacja średniej długości słowa kodowego Zadanie: dla ustalonej liczby przedziałów M, mamy ustalić granice decyzyjne, poziomy rekonstrukcji i słowa kodowe dla poziomów rekonstrucji tak, aby uzyskać jak najmniejsze zniekształcenie (błąd średniokwadratowy) i jak najmniejszą średnią długość słowa kodowego: Podejścia: 1. jednoczesny dobór wszystkich parametrów trudne;. słowa kodowe o stałej długości, algorytm dobiera granice decyzyjne i poziomy rekonstrukcji średnia długość słowa kodowego to log M, nie jest optymalizowana; 3. najpierw dobór granice decyzyjnych i poziomów rekonstrukcji, potem słów kodowych: tworzymy kwantyzator minimalizujący zniekształcenia (np. algorytm Lloyda- Maxa) wartości wyjściowe kwantyzatora traktujemy jak ciąg wartości niezależnych o prawdopodobieństwach równych prawdopodobieństwom poszczególnych przedziałów stosujemy dla nich kodowanie dla ciągów niezależnych (np. Huffmana, arytmetyczne). 5