STANDARDOWE TECHNIKI KOMPRESJI SYGNAŁÓW

Save this PDF as:
 WORD  PNG  TXT  JPG

Wielkość: px
Rozpocząć pokaz od strony:

Download "STANDARDOWE TECHNIKI KOMPRESJI SYGNAŁÓW"

Transkrypt

1 STANDARDOWE TECHNIKI KOMPRESJI SYGNAŁÓW Źródło Kompresja Kanał transmsj sek wdeo 60 Mbt 2 mn muzyk (44 00 próbek/sek, 6 btów/próbkę) 84 Mbt Dekompresja Odborca. Metody bezstratne 2. Metody stratne

2 2 Kodowane predykcyjne ) ( ) ( n s n p r n n s n s ) ( ) ( ) ( ) ( ) ( n p n s n d ) ( ) ( ) ( n d n p n s NADAWCA ODBIORCA r normalzujemy, aby np. z autokorelacj czyl r

3 Kodowane entropowe EC od ang. Entropy Codng s( n) s M m m Ilość nformacj stowarzyszona z komunkatam s m : m,..., M wynos I wystąpena m) log p, gdze pm ( 2 m s m, a jej marą jest lość btów. jest prawdopodobeństwem Średna lość btów potrzebnych do bezstratnego zakodowana komunkatu (entropa) jest wartoścą oczekwaną H M m p m log 2 p m 3

4 Alfabet Morse a Samuel Fnley Breese MORSE (79-872) amerykańsk malarz wynalazca 837 aparat telegrafczny alfabet telegrafczny 844 perwsza na śwece lna Baltmore - Washngton e t bt a n m s u r w d k g o h v f l ą p j b x c y z q ó ch 2 bty 3 bty 4 bty 4

5 Sprawność kodowana H M m p m log 2 p m Oczekwana lość btów H w M m b m p m gdze p m jest prawdopodobeństwem komunkatu zakodowanego przez symbol posadający btów. b m Sprawność kodowana 00% H H w może być co najwyżej równa 00%, bo entropa jest dolną grancą średnej lczby btów wymaganych do reprezentacj komunkatów. 5

6 Kodowane ze zmenną długoścą słowa VLC ang. Varable Length Codng sm pm - /8 0 /4 3/8 2 /4 H log 3 3 log log log 2 4,9 6

7 Przykład algorytmu kodowana metodą Huffmana 952 rok Symbol 0 2-3/8 /4 /4 /8 0 3/8 3/8 /4 Prawdopodobeństwo Prawdopodobeństwo Prawdopodobeństwo 5/8 3/

8 Kontynuacja przykładu kodu Huffmana Symbol Prawdopodobeństwo 0,25 0,250 0,375 0,250 Kod bnarny Przecętna lość btów na symbol 3 2 3( ) 2,9 2 H w Sprawność kodowana 00% 95% % sprawność kodowana gdy prawdopodobeństwa są potęgam /2 8

9 Kolejny przykład kodowana Huffmana e [0,076] e [0,076] a [0,073] a [0,073] c [0,037] db ()[0,038] d()[0,030] } c (0)[0,037] b(0)[0,008] } e [0,076] c d b ()[0,075] a (0)[0,073] } a c d b()[0,48] e (0)[0,076] Symbol a b c d e Prawdopodobeństwo 0,073 0,008 0,037 0,030 0,076 Kod bnarny

10 Prosty przykład kodu Huffmana pm gęstość prawdopodobeństwa zmennej losowej sm m F m p dystrybuanta Znak Prawdopodobeństwo Kod Huffmana 0,95 0, ,03 0 H = 0,335 bt/symbol H w,05 bt/symbol Sprawność tylko 3,9% 0

11 Kod Huffmana sekwencj symbol Sekwencja symbol Iloczyn prawdopo- Kod Huffmana dobeństw H = 0,6 bt/symbol 0,9025 0, H w,222 bt/symbol 0, , sprawność 50% 0, , , , Poprzedno: H = 0,335 bt/symbol H w,05 3,9% 0,

12 Tworzene sekwencj elementów dla kodowana arytmetycznego 0 0,95 0, 97 0,95 0,969 0, 97 0,9694 0,969 Ilość btów potrzebna do zakodowana komunkatu jest częścą całkowtą log 2 pn 0, ,9694 0,

13 Przykład kodowana arytmetycznego H, ,7 % w Sekwencja symbol Iloczyn prawdopo- Grance przedzału Wartość środkowa Wartość środkowa dobeństw w kodze dzesętnym w kodze bnarnym log 2 p n 0, ,9025 0,4525 0, ,5 0,090 0,9025 0,925 0,92 0, ,72 0,0285 0,925 0,95 0, , ,3 0,090 0,95 0,969 0,9595 0, ,72 0,0004 0,969 0,9694 0,9692 0, ,29 0,0006 0,9694 0,97 0,9697 0, ,70 0,0285 0,97 0,9985 0, ,00 0 6,3 0,0006 0,9985 0,999 0,9988 0,0000 0,70 0,0009 0,999-0, ,0000,2 3

14 Kodowane cągów RLC ang. Run Length Codng v, r gdze v (od ang. value) powtarzający sę symbol r (od ang. run) lczba powtórzeń , 0,,2 0,, 0,2,3 kod 0 kod 000 4

15 Metody kompresj stratnej SYGNAŁ Kodowane stratne Dekodowane SYGNAŁ neco nny 5

16 Kwantyzacja skalarna s wy SQ ang. Scalar Quantzaton s we Kwantyzacja równomerna s 2 s s2 s s s s 2 s s s2 s 3 s Q( s) gdze s s s s () nerównomerna pozomy reprezentacyjne prog decyzyjne pozom reprezentacyjny lub kod, są rozdzelnym zboram pokrywającym podzbór lczb rzeczywstych. Kwantyzacja strefowa 6

17 Kwantowane wektorowe Przykład gdy s, s 2 Ksążka kodowa Q( s) s np. dzałane w/g reguły ds, s ds, s j M j,..., M- lość elementów ksążk kodowej 7

18 Kodowane transformatowe T - transformacja Q - kwantowane K kodowane bezstratne K - - dekodowane Q - - dekwantyzacja IT- transformacja odwrotna 8

19 Transformacje częstotlwoścowe krótkoczasowa Fourera sˆ( f ) w( t) s( t) e 2jft dt w( t) s( t) cos(2jf ) j sn(2jf ) dt kosnusowa s ( f ) s( t) cos(2tf ) dt falkowa ~, s a b st a ( ) t b a dt 9

20 Dyskretna transformacja kosnusowa DCT od ang. Dscrete Cosne Transform s( k) 2 N c( k) (2n ) N N s( n)cos n0 2 k k 0,,, N gdze c(k) 2 dla dla k k 0 0 Transformacja odwrotna s( n) 2 N (2n ) N N c( k) s( k)cos k 0 2 k 20

21 DCT dla bloków po 8 próbek Dzeląc sygnał na blok po 8 próbek posługujemy sę transformacją s( k) 0,5 c( k) 7 n0 s( n)cos (2n ) k /

22 Bank fltrów cyfrowych z s 2 2 Kwantyzacja 2 2 z 2s z s 2 2 z Kwantyzacja z 2 2 z s 22

23 Sygnał audo: próbek/sekundę po 6 btów daje btów/s w jednym kanale Sygnał telefonczny: Fltrowane do 4 khz, Próbkowane 8000 próbek/sekundę, Zamana próbek na 3-btowe pakety - strumeń 04 kbt/s, KOMPRESJA do 3 kbt/s. Kompresja / ~ 54,28 23

24 Kompresja audo w GSM Sygnał dzelony na blok po 20 ms, Każdy blok kodowany na 260 btach, Bbloteka wzorców (sygnałów wzorcowych) 04 bty na sygnał wzorcowy, 56 btów opsuje różncę mędzy wzorcem a orygnałem. 260 bt 3 kbt/s 20 ms 24