STANDARDOWE TECHNIKI KOMPRESJI SYGNAŁÓW Źródło Kompresja Kanał transmsj sek wdeo 60 Mbt 2 mn muzyk (44 00 próbek/sek, 6 btów/próbkę) 84 Mbt Dekompresja Odborca. Metody bezstratne 2. Metody stratne
2 Kodowane predykcyjne ) ( ) ( n s n p r n n s n s ) ( ) ( ) ( ) ( ) ( n p n s n d ) ( ) ( ) ( n d n p n s NADAWCA ODBIORCA r normalzujemy, aby np. z autokorelacj czyl r
Kodowane entropowe EC od ang. Entropy Codng s( n) s M m m Ilość nformacj stowarzyszona z komunkatam s m : m,..., M wynos I wystąpena m) log p, gdze p m ( 2 m s m, a jej marą jest lość btów. jest prawdopodobeństwem Średna lość btów potrzebnych do bezstratnego zakodowana komunkatu (entropa) jest wartoścą oczekwaną H M m p m log 2 p m 3
Alfabet Morse a Samuel Fnley Breese MORSE (79-872) amerykańsk malarz wynalazca 837 aparat telegrafczny 840 - alfabet telegrafczny 844 perwsza na śwece lna Baltmore - Washngton e t bt a n m s u r w d k g o h v f l ą p j b x c y z q ó ch 2 bty 3 bty 4 bty 4
Sprawność kodowana H M m p m log 2 p m Oczekwana lość btów H w M m b m p m gdze p m jest prawdopodobeństwem komunkatu zakodowanego przez symbol posadający btów. b m Sprawność kodowana 00% H H w może być co najwyżej równa 00%, bo entropa jest dolną grancą średnej lczby btów wymaganych do reprezentacj komunkatów. 5
Kodowane ze zmenną długoścą słowa VLC ang. Varable Length Codng sm pm - /8 0 /4 3/8 2 /4 H log log 3 log 3 2 8 4 2 4 8 2 8 4 log 2 4 8,9 6
Przykład algorytmu kodowana metodą Huffmana 952 rok Symbol 0 2-3/8 /4 /4 /8 0 3/8 3/8 /4 Prawdopodobeństwo Prawdopodobeństwo Prawdopodobeństwo 5/8 3/8 0 0 7
Kontynuacja przykładu kodu Huffmana Symbol - 0 2 Prawdopodobeństwo 0,25 0,250 0,375 0,250 Kod bnarny 0 0 0 Przecętna lość btów na symbol 3 2 3( ) 2,9 2 H w Sprawność kodowana 00% 95% 0 0 0 0 0 0 0 2 2-0 - 8 4 4 8 00 % sprawność kodowana gdy prawdopodobeństwa są potęgam /2 8
Kolejny przykład kodowana Huffmana e [0,076] e [0,076] a [0,073] a [0,073] c [0,037] db ()[0,038] d()[0,030] } c (0)[0,037] b(0)[0,008] } e [0,076] c d b ()[0,075] a (0)[0,073] } a c d b()[0,48] e (0)[0,076] Symbol a b c d e Prawdopodobeństwo 0,073 0,008 0,037 0,030 0,076 Kod bnarny 0 0 0 0 9
Prosty przykład kodu Huffmana pm gęstość prawdopodobeństwa zmennej losowej sm m F m p dystrybuanta Znak Prawdopodobeństwo Kod Huffmana H = 0,335 bt/symbol 0,95 0,02 0,03 00 0 H w,05 bt/symbol Sprawność tylko 3,9% 0
Kod Huffmana sekwencj symbol Sekwencja symbol Iloczyn prawdopo- Kod Huffmana dobeństw H = 0,6 bt/symbol 0,9025 0,090 0,0285 000 0 H w,222 sprawność bt/symbol 50% 0,090 000 0,0004 0,0006 0,0285 0,0006 0000 000 00 000 Poprzedno: H = 0,335 bt/symbol H w,05 3,9% 0,0009 00
Tworzene sekwencj elementów dla kodowana arytmetycznego 0 0,95 0, 97 0,95 0,969 0, 97 0,9694 0,969 Ilość btów potrzebna do zakodowana komunkatu jest częścą całkowtą log 2 p n 0,96938 0,9694 0,969388 2
Przykład kodowana arytmetycznego H,5008 40,7 % w Sekwencja symbol Iloczyn prawdopo- Grance przedzału Wartość środkowa Wartość środkowa dobeństw w kodze dzesętnym w kodze bnarnym log 2 p n 0,9025 0 0,9025 0,4525 0,00000000 0,5 0,090 0,9025 0,925 0,92 0,0000000 00 6,72 0,0285 0,925 0,95 0,93575 0,00000 0 6,3 0,090 0,95 0,969 0,9595 0,0000000 0 6,72 0,0004 0,969 0,9694 0,9692 0,0000000 000000 3,29 0,0006 0,9694 0,97 0,9697 0,000000 00000,70 0,0285 0,97 0,9985 0,98425 0,00 0 6,3 0,0006 0,9985 0,999 0,9988 0,0000 0,70 0,0009 0,999-0,99955 0,0000,2 3
Kodowane cągów RLC ang. Run Length Codng v, r gdze v (od ang. value) powtarzający sę symbol r (od ang. run) lczba powtórzeń 000000000000, 0,,2 0,, 0,2,3 kod 0 kod 000 4
Metody kompresj stratnej SYGNAŁ Kodowane stratne Dekodowane SYGNAŁ neco nny 5
Kwantyzacja skalarna s wy SQ ang. Scalar Quantzaton s we Kwantyzacja równomerna s 2 s s2 s s s s 2 s s s2 s 3 s Q( s) gdze s s s s () nerównomerna pozomy reprezentacyjne prog decyzyjne pozom reprezentacyjny lub kod, są rozdzelnym zboram pokrywającym podzbór lczb rzeczywstych. Kwantyzacja strefowa 6
Kwantowane wektorowe Przykład gdy s, s 2 Ksążka kodowa Q( s) s np. dzałane w/g reguły ds, s ds, s j M j,..., M- lość elementów ksążk kodowej 7
Kodowane transformatowe T - transformacja Q -kwantowane K kodowane bezstratne K - - dekodowane Q - - dekwantyzacja IT- transformacja odwrotna 8
Transformacje częstotlwoścowe krótkoczasowa Fourera sˆ( f ) w( t) s( t) e 2jft dt w( t) s( t) cos(2jf ) j sn(2jf ) dt kosnusowa s ( f ) s( t) cos(2tf ) dt falkowa ~, s a b st a ( ) t b a dt 9
Dyskretna transformacja kosnusowa DCT od ang. Dscrete Cosne Transform s( k) 2 N c( k) (2n ) N N s( n)cos n0 2 k k 0,,, N gdze c(k) 2 dla dla k k 0 0 Transformacja odwrotna s( n) 2 N (2n ) N N c( k) s( k)cos k 0 2 k 20
DCT dla bloków po 8 próbek Dzeląc sygnał na blok po 8 próbek posługujemy sę transformacją s( k) 0,5 c( k) 7 n0 s( n)cos (2n ) k /6 2 0 - -2 0 5 0 5 20 25 30 35 40 45 50 2
Bank fltrów cyfrowych z s 2 2 Kwantyzacja 2 2 z 2s z s 2 2 z Kwantyzacja z 2 2 z s 22
Sygnał audo: 44 00 próbek/sekundę po 6 btów daje 705 600 btów/s w jednym kanale Sygnał telefonczny: Fltrowane do 4 khz, Próbkowane 8000 próbek/sekundę, Zamana próbek na 3-btowe pakety - strumeń 04 kbt/s, KOMPRESJA do 3 kbt/s. Kompresja 705 600 / 3 000 ~ 54,28 23
Kompresja audo w GSM Sygnał dzelony na blok po 20 ms, Każdy blok kodowany na 260 btach, Bbloteka wzorców (sygnałów wzorcowych) 04 bty na sygnał wzorcowy, 56 btów opsuje różncę mędzy wzorcem a orygnałem. 260 bt 3 kbt/s 20 ms 24