dr inż. Jacek Naruniec

Wielkość: px
Rozpocząć pokaz od strony:

Download "dr inż. Jacek Naruniec"

Transkrypt

1 dr inż. Jacek Naruniec

2 Entropia jest to średnia ilość informacji przypadająca na jeden znak alfabetu. H( x) n i 1 p( i)log W rzeczywistości określa nam granicę efektywności kodowania danych. r określa system zapisu (2 dla bitowego) Jeśli r=2 i entropia będzie równa 5 oznacza to, że dla danego zbioru na jeden symbol będzie przypadało średnio minimalnie 5 bitów poniżej tej granicy nie zejdziemy. r p( i)

3 Metody uniwersalne: kodowanie Huffmana koder entropijny aaaaaaaabbbccccdd A 8 B 3 C 4 D - 2 [17] [9] [5] B[3] D[2] C[4] A[8]

4 aaaaaaaabbbccccdd entropia (na symbol w systemie dwójkowym) 1,808 1,808 * 17 znaków = 30,73 stała długość bitowa: A- 00, B-01, C 10, D-11 kod: Huffman: (34 bity) A 0, B 111, C 10, D-110 kod: (31 bitów) 1 [9] 1 [5] 0 Mamy minimalną średnią długość kodu! 1 [17] B[3] D[2] C[4] A[8] 0 0

5 Koder arytmetyczny koder entropijny, zwykle skuteczniejszy od kodera Huffmana Kodowanie sekwencji do liczby zmiennoprzecinkowej znak Ilość wystąpień pradopodobi eństwo zakres A 4 0,4 [0,0.. 0,4] B 2 0,2 [0, ] C 2 0,2 [ ] D 2 0,2 [ ]

6 abbddaaacd Wyznaczamy zakres w którym znajduje się liczba wyjściowa (od góry G i dołu D). Szerokość zakresu S=G-D Każdy kolejny znak zależnie od swojego zakresu z tabeli zawęża zakresy G i D. znak zakres A [0,0.. 0,4] B [0, ] C [ ] D [ ] Wynik włączając kolejne znaki: (a) D=0.0, G=0.4 (z tabelki), S = 0.4 (b) G=D + 0.6*S = *0.4 = 0.24 D=D + 0.4*S = *0.4 = 0.16 S = 0.08 (b) G=D + 0.6*S = D=D + 0.4*S = S=0.016 d) G= D + 1.0*S = D = D + 0.8*S= Wyjście -> 0.20 Jeśli na tym kończymy kodowanie, to do 0.20 dopisujemy 48.

7 Formalnie algorytm zakodowania symbolu s, gdzie prawdopodobieństwo wystąpienia symbolu i to P[i]: zakres_dolny zakres_gorny zakres G - D G D zakres zakres_gorny D D zakres zakres_dolny Model rozkładu prawdopodobieństwa może być także tworzony w sposób adaptacyjny. Kompresja zachodzi, ponieważ bardziej prawdopodobne znaki w mniejszym stopniu zawężają interwał niż mniej p. Mniejszy interwał wymaga więcej znaków do zakodowania. s 1 i 1 s i 1 P[ i] P[ i]

8 Dekodowanie : a b b znak zakres A [0,0.. 0,4] B [0, ] C [ ] D [ ] Podobnie zawężamy zakres zgodnie z wybranym znakiem i określamy w którym segmencie zakresu znajduje się nasza liczba (tutaj )

9 Koder arytmetyczny nie jest do końca optymalny (tj. nie daje długości bitowej określonej przez entropię), bo liczby zmiennoprzecinkowe mają skończoną dokładność. Z drugiej strony jest skuteczniejszy od kodowania Huffmana, gdzie mamy zawsze zaokrąglenie opisu do jednego bitu

10 Metody słownikowe (na przykładzie LZ77) Wykorzystują powtarzające się sekwencje znaków. LZ77 koduje tekst trójkami wartości (p, i, n) p wskaźnik (przesunięcie wstecz w tekście) do najdłuższego wystąpienia powtórzonej sekwencji i ilość powtórzonych znaków sekwencji n symbol kolejnego (nowego) znaku

11 Przykład dekompresji w LZ77: wejście (0,0,a) (0,0,b) (2,1,a) (3,2,b) wyjście a b a a b a b Można tu wprowadzić szereg usprawnień, np.: mniejsze wskaźniki reprezentowane na mniejszej ilości bitów, trzeci element nie musi być zawsze podawany.

12 Kompresja LZW słownikowa (np. w GIF, PDF) Zakodowanie sekwencji znaków polega na podaniu indeksu w słowniku gdzie dana sekwencja wystąpiła, następnie podanie kolejnego znaku sekwencji. Przy kodowaniu: Początkowo w słowniku znajdują się wszystkie znaki alfabetu z przyznanymi indeksami. Kodując odczytujemy z wejścia najdłuższą sekwencję znajdującą się w słowniku, na wyjście oddajemy jej indeks. Do powyższej sekwencji dodajemy kolejny znak z wejścia i powstały ciąg dodajemy do słownika.

13 LZW: aabcabcab 1. Alfabet początkowy: a: 1, b: 2, c:3 Krok Najdłuższa znaleziona sekwencja alfabetu Dodany symbol do alfabetu Wyjście 1 a aa: a ab: b bc: c ca: ab abc: ca cab: 9 7 7

14 Z czego wynika kompresja? Entropia Percepcja szczegółów Predykcja

15 Metody bezstratne wykorzystują zwykle transformaty poprawiające wyniki kompresji entropijnej, słownikowej, stosowana jest tu między innymi transformata falkowa (JPEG-2000), odejmowanie sąsiednich pikseli lub linii (PNG), adaptacja do lokalnych cech obrazu (JPEG-LS) stosowane głównie w obrazach medycznych, astronomicznych standardowe archiwizery

16 Metody stratne wykorzystujące zwykle niedoskonałości naszego oka, większa dbałość o luminancję niż chrominancję (podpróbkowanie), zwykle zakładają transformaty np. DCT (JPEG), których mniej znaczące współczynniki są usuwane, inne kwantowane, zwykle połączone z kodowaniem entropijnym różnic między współczynnikami.

17 Wykorzystuje podobieństwo kolejnych klatek obrazu. Wykorzystuje wiedzę o przesunięciach konkretnych bloków obrazu kolejnych klatkach (predykcja) Zazwyczaj koduje różnice w kolejnych obrazach.

18 Czułość słuchu [źródło Wikipedia]

19 Zwykle kompresja stratna Bazuje na naszej ograniczonej percepcji dźwięku. Maskowanie częstotliwościowe dźwięku (głośny dźwięk jednej częstotliwości przysłania inne) Maskowanie czasowe dźwięku dźwięk głośny i od razu cichy -> cichego nie usłyszymy dźwięk cichy i od razu głośny -> cichego nie usłyszymy [źródło:

20 Zwykle stosowany jest podział sygnału na nakładające się okna analizy.

21 Zwykle okna mnoży się przez funkcję, np. Hamminga czy Gaussa Eliminacja efektów blokowych Wykorzystanie transformary MDCT zamiast DCT (zakładkowo w celu wyeliminowania ostrych granic) [źródło obrazu- Wikipedia]

22 MP3 Podział na bloki (1W, 384 próbki) Filtry konwolucyjne dzielące pasmo na podpasma (32 pasma, po 12 próbek) Wyznaczenie wpływu maskowania danych pasm na pozostałe pasma Eliminacja podpasm poniżej progu maskowania Kwantyzacja do poziomu dającego dobrą jakość dźwięku Formowanie strumienia wyjściowego Możliwość kodowania wspólnego materiału stereo Możliwość wykorzystania kodowania Huffmana

23 AAC (Advanced Audio Coding), stosowany m.in. w koderze wideo H264: większa dostępna liczba kanałów (48 w stosunku do 2 lub 5.1 mp3), okna analizy zmiennej wielkości predykcja w dziedzinie częstotliwości wyższa jakość przy tej samej ilości bitów na próbkę różne tryby analizy (standardowy, low delay)

24 AAC algorytm kodowania (wersja uproszczona): wybór okna analizy (długie lub krótkie 2048 lub 256 próbek) transformata MDCT, kwantyzacja w zależności od modelu przychoakustycznego kodowanie entropijne

25 WMA kodowanie w blokach 128, 256, 512, 1024 i 2048 próbkowych. podobnie model psychoakustyczny, MDCT, kwantyzacja dość popularny istnieje również WMA bezstratny

26 Duże archiwum obrazów zawiera np. ponad 10 6 obiektów. Zakładając kod binarny na jeden identyfikator należałoby przeznaczyć (bitów): l b 6 log ,93 20, Gdzie oznacza zaokrąglenie do góry (ceil)

27 Zakładając, że kolekcja może się powiększyć musielibyśmy: zarezerwować większą ilość bitów na znak lub przy każdym powiększeniu kolekcji poza zakres zmodyfikować wszystkie listy

28 Przestrzeń zajmowana przez indeks: kolekcja 10 6 obiektów - 20 bitów na symbol cechy reprezentatywne 16 bitowe cech średnio 5 elementów listy dla jednej cechy reprezentatywnej cechy 16*65536 = bitów (13,7% pamięci) listy 5*65536*20= bitów (86,3% pamięci) Stąd wniosek potrzebujemy efektywnych metod przechowywania list obiektowych

29 Zakładamy, że listy obiektowe są posortowane rosnąco względem identyfikatorów. Etap modelowania danych: uporządkowanie identyfikatorów na listach obiektowych, a następnie zastąpienie ich przez różnice kolejnych identyfikatorów, dobór statystycznego modelu różnic identyfikatorów, wybór schematu kodowania dopasowanego do modelu statystycznego.

30 Cecha Lista obiektów 0 30, 70, , 14, 19, , 33, 65, 80 Cecha Lista obiektów 0 30, 40, , 2, 5, , 6, 32, 25 cel: Skoncentrowanie rozkładu prawdopodobieństwa w niższych wartościach identyfikatorów.

31 Ogólna zależność im większa koncentracja rozkładu prawdopodobieństwa wystąpienia symboli, tym większa szansa na efektywną kompresję: p(x) p(x) x x

32 Zakładamy niezależność numeracji obiektów i faktu posiadania cechy c przez obiekt innymi słowy w zbiorze 100-elementowym jeśli obiekt o identyfikatorze 1 ma cechę c, to z równym prawdopodobieństwem cechę tę może mieć również obiekt o identyfikatorze 2 jak i 100. Przy powyższym założeniu identyfikatory długich list obiektowych mogą być modelowane rozkładem geometrycznym. [źródło wikipedia]

33 Zgodnie z teorią informacji dla danego rozkładu prawdopodobieństwa istnieje kod Huffmana optymalny, tj. dający minimalną średnią długość kodu Zależnie od rodzaju kolekcji: statyczna, np. płyty CD, DVD, BD, można wykorzystać koder arytmetyczny (dalej nie będziemy się zajmować tą opcją), dynamiczna, np. zbiory internetowe, stworzenie kodu optymalnego jest zwykle nierealne ze względu na wielkość bazy i jej zmienność.

34 Omówimy kodowania: globalne nieparametryzowane unarne kodowanie przedziałowe (w szczególności γ, δ) globalne parametryzowane binarne prawie stałej długości Golomba i Rice a lokalne interpolacyjne

35 Kod unarny U(q) dla q 0: q jedynek U( q) lub analogicznie: U( q) q zer

36 U(5)= U(2)=110 U(10)= Kod unarny jest optymalnym kodem przedrostkowym dla rozkładu prawdopodobieństwa zadanego ciągiem geometrycznym o pierwszym wyrazie 1/2 i o ilorazie 1/2:

37 Kod binarny symbolu r z parametrem b B b (r), b>0, 0 r > b: wyznaczamy k log 2 b, symbole o wartościach w przedziale (0..2 k+1 -b) kodujemy zwykłym kodem binarnym na k bitach, symbole o wartościach w przedziale (2 k+1 -b, b) kodujemy zwykłym kodem binarnym malejąco na k+1 bitach

38 Załóżmy parametr b=5 Wyznaczamy k log 2 b 2,3 2 2 k+1 -b = 8-5 = 3 B 5 (0)=00 B 5 (1)=01 B 5 (2)=10 B 5 (3)=111 B 5 (4)=110

39 Jest to kod prefiksowy. Jest optymalny dla rozkładu prawdopodobieństwa zrównoważonego według kryterium 2min>max, tzn: 2min>max -> suma dwóch najmniejszych prawdopodobieństw wystąpienia symbolu jest większa niż prawdopodobieństwo wystąpienia najbardziej prawdopodobnego symbolu

40 2min>max: np. aaabbccccddd P(a) = 3/12 P(b) = 2/12 P(c) = 4/12 P(d) = 3/12 Najmniejsze prawd. P(a) i P(b), największe P(c) P(a)+P(b) > P(c), czyli mamy 2min>max

41 Kod Golomba G b, określony dla ustalonego parametru całkowitego b > 0, przypisuje symbolowi o numerze n>0 sekwencję bitów składającą się z: kodu unarnego liczby q= (n 1)/b, kodu binarnego prawie stałej długości B b (r) dla liczby r=(n 1) mod b. n = q*b + r. Jest to kod zmiennej długości. Innymi słowy kodujemy unarnie numer przedziału i pozycję w przedziale.

42 Załóżmy parametr b=5, kodujemy liczbę n=20 q= (n 1)/b = 19/5 =3 r=(n 1) mod b = 19 mod 5 = 4 U(q) = 1110 B 5 (r) : k log 2 b 2,3 2 2 k+1 -b = 3, czyli liczbę r = 4 kodujemy na k+1 bitach B 5 (4) = 110 W efekcie G 5 (20)=U(3)B 5 (4)=

43 Załóżmy parametr b=3, kodujemy liczbę n=20 q= (n 1)/b = 19/3 =6 r=(n 1) mod b = 19 mod 3 = 1 U(q) = B 3 (r) : k log 2 b 1,5 1 2 k+1 -b = 1, czyli liczbę r = 1 kodujemy na k+1 bitach B 3 (4) = 11 W efekcie G 3 (20)=U(6)B 3 (1)=

44 Załóżmy parametr b=8, kodujemy liczbę n=20 q= (n 1)/b = 19/8 =2 r=(n 1) mod b = 19 mod 8 = 3 U(q) = 110 B 8 (r) : k log 2 b k+1 -b = 6, czyli liczbę r = 3 kodujemy na k bitach B 8 (4) = 011 W efekcie G 8 (20)=U(2)B 8 (4)=

45 Kod Golomba, w którym parametr b jest potęgą liczby 2 to kod taki nazywa się kodem Rice a (od twórcy). Kod Rice a charakteryzuje się tym, że część binarna prawie stałej długości liczby jest zawsze tej samej długości (czyli jest tak naprawdę zwykłym kodem binarnym) niezależnie od kodowanego symbolu

46 Rice Rice Rice [źródło- Wikipedia - tam parametr m odpowiada naszemu parametrowi b]

47 Dla rozkładu geometrycznego P(n) = pq n 1 z prawdopodobieństwem sukcesu p i porażki q=1 p optymalnym kodem przedrostkowym jest kod Golomba, w którym parametr b dobieramy jako:

48 p=0.2 => b=3 p=0.5 => b=1 p=0.8 => b=1

49 Kod przedziałowy π zakłada podział zbioru liczb na rozłączne przedziały π q o długościach b q >0, q=0,1,. Jeśli kodowana liczba n należy do przedziału π q, a r jest odległością od lewej krawędzi przedziału (r=n-a q ), to π(n)=u(q)bbq (r) Innymi słowy unarnie kodujemy numer przedziału do którego należy liczba, a binarnie ze zmienną długością i parametrem równym długości przedziału pozycję w danym przedziale

50 Mając 3 przedziały: [1..5], [6..11], [12..15] Liczbę 3 zakodujemy jako U(0)B 5 (3) Liczbę 6 zakodujemy jako U(1)B 6 (0)

51 Geometryczny kod przedziałowy to szczególna rodzina kodów przedziałowych G a,b w których długość przedziałów zmienia się w postępie geometrycznym, tj. b q =ba q, q = 0, 1, 2,.... Kod geometryczny, w którym a=2, b=1 nazywany jest kodem γ (gamma). Dla tego kodu przedziały kształtują się według wzorów: czyli: [1..1][2..3],[4..7], [8..15], [16..31] itd.

52 Kodowanie γ(10) to: przedziały to [1..1],[2..3],[4..7],[8..15],[16..31] itd. 10 należy do 4 przedziału, więc pierwszy człon to U(3) =1110 Następnie mamy kodowanie B 8 (2)=010 Cały kod ma postać Dla bardzo dużych liczb naturalnych kodowanie unarne w kodowaniu przedziałowym może nie być efektywne, dlatego proponuje się rozwiązanie hybrydowe, w którym kod unarny zastępuje się kodem γ.

53 Zakładane prawdopodobieństwo: P( x) 1 2x 2

54 Kodowanie δ (delta) polega na zastąpieniu w kodzie γ liczby unarnej U(q) kodem γ(q+1). Kodowanie jest często skuteczniejsze na realnych danych od kodowania γ. δ(10): Przedział 4, a γ(4)=11000 B(2)=010 δ(10) = Dla liczby kod δ ma 28 bitów, dla - γ 39

55 Weźmy listę w której mamy 20 obiektów: (7; 3,8,9,11,12,13,17) Zamiast kodować różnice między elementami spróbujmy domyślać się wartości liczb, tzn.: Jeśli znamy drugi wskaźnik do dokumentu 8, to wiemy, że pierwszy wskaźnik będzie w zakresie 1..7, co potrafimy zakodować na 3 bitach. Jeżeli znamy drugi i czwarty wskaźnik do dokumentu (8 i 11), to wartość trzeciego wskaźnika jest 9 lub 10, co potrafimy zapisać na 1 bicie. Jeśli znamy czwarty i szósty wskaźnik (11 i 13), to piąty jest oczywisty. Powyższe rozważania zakładają, że znamy listę (3; 8,11,13) Do tej listy (3; 8,11,13) stosujemy dokładnie tę samą metodę.

56 (3; 8,11,13) Jeśli znamy liczbę 11, to elementy po lewej kodujemy w zakresie (1..10), co zajmuje 4 bity, po prawej (9..20) 4 bity Ale jeśli wiemy, że po lewej i prawej stronie pierwszego wskaźnika (8) mamy jakąś liczbę, to możemy być pewni, że liczba po lewej będzie z zakresu To znaczy, że możemy ją zakodować na 3 bitach. Tak samo wiemy, że 13 po lewej i prawej stronie ma liczbę, czyli jest w zakresie [13..19], więc kodujemy ją na 3 bitach. Na końcu zostaje nam liczba 11. Ale jeśli wiemy, że ma 3 obiekty po lewej i po prawej stronie, to możemy ją zakodować w zakresie Daje nam to zwykle lepsze efekty niż w kodowaniu Golomba.

57 Wybrane kolekcje obiektów tekstowych: Biblia: pojedynczy werset biblii jest obiektem identyfikowanym przez numer księgi, rozdziału w księdze i wersetu w księdze. GNUbib: kolekcja notek bibliograficznych w dziedzinie informatyki. TREC (Text REtrieval Conference): kolekcja dokumentów z różnych źródeł używana w badaniach systemów wyszukiwania informacji.

58

59 W wykładzie wykorzystałem metariały: I. Witten i inni: Managing Gigabytes: Compressing and Indexing Documents and Images, W.Skarbek: materiały wykładowe przedmiotu INM

mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. GOLOMBA I RICE'A

mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. GOLOMBA I RICE'A mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. KOMPRESJA ALGORYTMEM ARYTMETYCZNYM, GOLOMBA I RICE'A Idea algorytmu arytmetycznego Przykład kodowania arytmetycznego Renormalizacja

Bardziej szczegółowo

Kompresja Kodowanie arytmetyczne. Dariusz Sobczuk

Kompresja Kodowanie arytmetyczne. Dariusz Sobczuk Kompresja Kodowanie arytmetyczne Dariusz Sobczuk Kodowanie arytmetyczne (lata 1960-te) Pierwsze prace w tym kierunku sięgają początków lat 60-tych XX wieku Pierwszy algorytm Eliasa nie został opublikowany

Bardziej szczegółowo

Kody Tunstalla. Kodowanie arytmetyczne

Kody Tunstalla. Kodowanie arytmetyczne Kody Tunstalla. Kodowanie arytmetyczne Kodowanie i kompresja informacji - Wykład 3 8 marca 2010 Kody Tunstalla Wszystkie słowa kodowe maja ta sama długość ale jeden kod może kodować różna liczbę liter

Bardziej szczegółowo

Kompresja danych kodowanie Huffmana. Dariusz Sobczuk

Kompresja danych kodowanie Huffmana. Dariusz Sobczuk Kompresja danych kodowanie Huffmana Dariusz Sobczuk Plan wykładu Kodowanie metodą Shannona-Fano Kodowanie metodą Huffmana Elementarny kod Golomba Kod Golomba Kod Rice a kompresja danych 2 Efektywny kod

Bardziej szczegółowo

Kodowanie podpasmowe. Plan 1. Zasada 2. Filtry cyfrowe 3. Podstawowy algorytm 4. Zastosowania

Kodowanie podpasmowe. Plan 1. Zasada 2. Filtry cyfrowe 3. Podstawowy algorytm 4. Zastosowania Kodowanie podpasmowe Plan 1. Zasada 2. Filtry cyfrowe 3. Podstawowy algorytm 4. Zastosowania Zasada ogólna Rozkład sygnału źródłowego na części składowe (jak w kodowaniu transformacyjnym) Wada kodowania

Bardziej szczegółowo

Granica kompresji Kodowanie Shannona Kodowanie Huffmana Kodowanie ciągów Kodowanie arytmetyczne. Kody. Marek Śmieja. Teoria informacji 1 / 35

Granica kompresji Kodowanie Shannona Kodowanie Huffmana Kodowanie ciągów Kodowanie arytmetyczne. Kody. Marek Śmieja. Teoria informacji 1 / 35 Kody Marek Śmieja Teoria informacji 1 / 35 Entropia Entropia określa minimalną statystyczną długość kodowania (przyjmijmy dla prostoty że alfabet kodowy A = {0, 1}). Definicja Niech X = {x 1,..., x n }

Bardziej szczegółowo

Podstawowe pojęcia. Teoria informacji

Podstawowe pojęcia. Teoria informacji Kodowanie i kompresja informacji - Wykład 1 22 luty 2010 Literatura K. Sayood, Kompresja danych - wprowadzenie, READ ME 2002 (ISBN 83-7243-094-2) Literatura K. Sayood, Kompresja danych - wprowadzenie,

Bardziej szczegółowo

Temat: Algorytm kompresji plików metodą Huffmana

Temat: Algorytm kompresji plików metodą Huffmana Temat: Algorytm kompresji plików metodą Huffmana. Wymagania dotyczące kompresji danych Przez M oznaczmy zbiór wszystkich możliwych symboli występujących w pliku (alfabet pliku). Przykład M = 2, gdy plik

Bardziej szczegółowo

teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015

teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015 teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015 1 zakres materiału zakres materiału 1. Czym jest teoria informacji? 2. Wprowadzenie matematyczne. 3. Entropia i informacja.

Bardziej szczegółowo

Według raportu ISO z 1988 roku algorytm JPEG składa się z następujących kroków: 0.5, = V i, j. /Q i, j

Według raportu ISO z 1988 roku algorytm JPEG składa się z następujących kroków: 0.5, = V i, j. /Q i, j Kompresja transformacyjna. Opis standardu JPEG. Algorytm JPEG powstał w wyniku prac prowadzonych przez grupę ekspertów (ang. Joint Photographic Expert Group). Prace te zakończyły się w 1991 roku, kiedy

Bardziej szczegółowo

Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9,

Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9, 1 Kody Tunstalla Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9, 14.04.2005 Inne podejście: słowa kodowe mają ustaloną długość, lecz mogą kodować ciągi liter z alfabetu wejściowego o różnej

Bardziej szczegółowo

Kodowanie informacji

Kodowanie informacji Kodowanie informacji Tomasz Wykład 4: kodowanie arytmetyczne Motywacja Podstawy i własności Liczby rzeczywiste Motywacje 1 średnia długość kodu Huffmana może odbiegać o p max + 0.086 od entropii, gdzie

Bardziej szczegółowo

KODY SYMBOLI. Kod Shannona-Fano. Algorytm S-F. Przykład S-F

KODY SYMBOLI. Kod Shannona-Fano. Algorytm S-F. Przykład S-F KODY SYMBOLI Kod Shannona-Fano KODOWANIE DANYCH, A.Przelaskowski Metoda S-F Kod Huffmana Adaptacyjne drzewo Huffmana Problemy implementacji Kod Golomba Podsumowanie Kod drzewa binarnego Na wejściu rozkład:

Bardziej szczegółowo

Kompresja bezstratna. Entropia. Kod Huffmana

Kompresja bezstratna. Entropia. Kod Huffmana Kompresja bezstratna. Entropia. Kod Huffmana Kodowanie i bezpieczeństwo informacji - Wykład 10 29 kwietnia 2013 Teoria informacji Jeśli P(A) jest prawdopodobieństwem wystapienia informacji A to niech i(a)

Bardziej szczegółowo

Nierówność Krafta-McMillana, Kodowanie Huffmana

Nierówność Krafta-McMillana, Kodowanie Huffmana Nierówność Krafta-McMillana, Kodowanie Huffmana Kodowanie i kompresja informacji - Wykład 2 1 marca 2010 Test na jednoznaczna dekodowalność Kod a jest prefiksem kodu b jeśli b jest postaci ax. x nazywamy

Bardziej szczegółowo

Entropia Kodowanie. Podstawy kompresji. Algorytmy kompresji danych. Sebastian Deorowicz

Entropia Kodowanie. Podstawy kompresji. Algorytmy kompresji danych. Sebastian Deorowicz Algorytmy kompresji danych 2007 02 27 Plan wykładu 1 Modelowanie i kodowanie 2 Modelowanie i kodowanie Plan wykładu 1 Modelowanie i kodowanie 2 Modelowanie i kodowanie definicja stowarzyszona ze zbiorem

Bardziej szczegółowo

Założenia i obszar zastosowań. JPEG - algorytm kodowania obrazu. Geneza algorytmu KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG

Założenia i obszar zastosowań. JPEG - algorytm kodowania obrazu. Geneza algorytmu KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG Założenia i obszar zastosowań KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG Plan wykładu: Geneza algorytmu Założenia i obszar zastosowań JPEG kroki algorytmu kodowania obrazu Założenia: Obraz monochromatyczny

Bardziej szczegółowo

Kompresja dźwięku w standardzie MPEG-1

Kompresja dźwięku w standardzie MPEG-1 mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 7, strona 1. Kompresja dźwięku w standardzie MPEG-1 Ogólne założenia kompresji stratnej Zjawisko maskowania psychoakustycznego Schemat blokowy

Bardziej szczegółowo

KODY SYMBOLI. Materiały KODA, A.Przelaskowski. Koncepcja przedziałów nieskończonego alfabetu

KODY SYMBOLI. Materiały KODA, A.Przelaskowski. Koncepcja przedziałów nieskończonego alfabetu KODY SYMBOLI Materiały KODA, A.Przelaskowski Koncepcja drzewa binarnego Metoda S-F Kod Huffmana Adaptacyjne drzewo Huffmana Problemy implementacji Koncepcja przedziałów nieskończonego alfabetu Proste kody

Bardziej szczegółowo

Kodowanie Huffmana. Platforma programistyczna.net; materiały do laboratorium 2014/15 Marcin Wilczewski

Kodowanie Huffmana. Platforma programistyczna.net; materiały do laboratorium 2014/15 Marcin Wilczewski Kodowanie Huffmana Platforma programistyczna.net; materiały do laboratorium 24/5 Marcin Wilczewski Algorytm Huffmana (David Huffman, 952) Algorytm Huffmana jest popularnym algorytmem generującym optymalny

Bardziej szczegółowo

ZADANIE 1. Rozwiązanie:

ZADANIE 1. Rozwiązanie: EUROELEKTR Ogólnopolska Olimpiada Wiedzy Elektrycznej i Elektronicznej Rok szkolny 200/20 Rozwiązania zadań dla grupy teleinformatycznej na zawody II. stopnia ZNIE ramka logiczna w technologii MOS składa

Bardziej szczegółowo

Przetwarzanie i transmisja danych multimedialnych. Wykład 5 Kodowanie słownikowe. Przemysław Sękalski.

Przetwarzanie i transmisja danych multimedialnych. Wykład 5 Kodowanie słownikowe. Przemysław Sękalski. Przetwarzanie i transmisja danych multimedialnych Wykład 5 Kodowanie słownikowe Przemysław Sękalski sekalski@dmcs.pl Politechnika Łódzka Katedra Mikroelektroniki i Technik Informatycznych DMCS Przemysław

Bardziej szczegółowo

Dane, informacja, programy. Kodowanie danych, kompresja stratna i bezstratna

Dane, informacja, programy. Kodowanie danych, kompresja stratna i bezstratna Dane, informacja, programy Kodowanie danych, kompresja stratna i bezstratna DANE Uporządkowane, zorganizowane fakty. Główne grupy danych: tekstowe (znaki alfanumeryczne, znaki specjalne) graficzne (ilustracje,

Bardziej szczegółowo

AKD Metody słownikowe

AKD Metody słownikowe AKD Metody słownikowe Algorytmy kompresji danych Sebastian Deorowicz 2009 03 19 Sebastian Deorowicz () AKD Metody słownikowe 2009 03 19 1 / 38 Plan wykładu 1 Istota metod słownikowych 2 Algorytm Ziva Lempela

Bardziej szczegółowo

Definicja. Jeśli. wtedy

Definicja. Jeśli. wtedy Definicja Jeśli wtedy Cel kompresji: zredukowanie do minimum oczekiwanego (średniego) kosztu gdzie l i jest długością słowa kodu c i kodującego symbol a i Definicja Definicje Efektywność kodowania określamy

Bardziej szczegółowo

Przedmowa 11 Ważniejsze oznaczenia 14 Spis skrótów i akronimów 15 Wstęp 21 W.1. Obraz naturalny i cyfrowe przetwarzanie obrazów 21 W.2.

Przedmowa 11 Ważniejsze oznaczenia 14 Spis skrótów i akronimów 15 Wstęp 21 W.1. Obraz naturalny i cyfrowe przetwarzanie obrazów 21 W.2. Przedmowa 11 Ważniejsze oznaczenia 14 Spis skrótów i akronimów 15 Wstęp 21 W.1. Obraz naturalny i cyfrowe przetwarzanie obrazów 21 W.2. Technika obrazu 24 W.3. Normalizacja w zakresie obrazu cyfrowego

Bardziej szczegółowo

Wygra Polska czy Brazylia, czyli o tym jak zwięźle zapisywać informacje

Wygra Polska czy Brazylia, czyli o tym jak zwięźle zapisywać informacje Wygra Polska czy Brazylia, czyli o tym jak zwięźle zapisywać informacje Witold Tomaszewski Instytut Matematyki Politechniki Śląskiej e-mail: Witold.Tomaszewski@polsl.pl Je n ai fait celle-ci plus longue

Bardziej szczegółowo

Stan wysoki (H) i stan niski (L)

Stan wysoki (H) i stan niski (L) PODSTAWY Przez układy cyfrowe rozumiemy układy, w których w każdej chwili występują tylko dwa (zwykle) możliwe stany, np. tranzystor, jako element układu cyfrowego, może być albo w stanie nasycenia, albo

Bardziej szczegółowo

Kwantyzacja wektorowa. Kodowanie różnicowe.

Kwantyzacja wektorowa. Kodowanie różnicowe. Kwantyzacja wektorowa. Kodowanie różnicowe. Kodowanie i kompresja informacji - Wykład 7 12 kwietnia 2010 Kwantyzacja wektorowa wprowadzenie Zamiast kwantyzować pojedyncze elementy kwantyzujemy całe bloki

Bardziej szczegółowo

Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11,

Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11, 1 Kwantyzacja skalarna Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11, 10.05.005 Kwantyzacja polega na reprezentowaniu dużego zbioru wartości (być może nieskończonego) za pomocą wartości

Bardziej szczegółowo

Wstęp do informatyki- wykład 1 Systemy liczbowe

Wstęp do informatyki- wykład 1 Systemy liczbowe 1 Wstęp do informatyki- wykład 1 Systemy liczbowe Treści prezentowane w wykładzie zostały oparte o: S. Prata, Język C++. Szkoła programowania. Wydanie VI, Helion, 2012 www.cplusplus.com Jerzy Grębosz,

Bardziej szczegółowo

Samodzielnie wykonaj następujące operacje: 13 / 2 = 30 / 5 = 73 / 15 = 15 / 23 = 13 % 2 = 30 % 5 = 73 % 15 = 15 % 23 =

Samodzielnie wykonaj następujące operacje: 13 / 2 = 30 / 5 = 73 / 15 = 15 / 23 = 13 % 2 = 30 % 5 = 73 % 15 = 15 % 23 = Systemy liczbowe Dla każdej liczby naturalnej x Î N oraz liczby naturalnej p >= 2 istnieją jednoznacznie wyznaczone: liczba n Î N oraz ciąg cyfr c 0, c 1,..., c n-1 (gdzie ck Î {0, 1,..., p - 1}) taki,

Bardziej szczegółowo

Kodowanie Shannona-Fano

Kodowanie Shannona-Fano Kodowanie Shannona-Fano Kodowanie Shannona-Fano znane było jeszcze przed kodowaniem Huffmana i w praktyce można dzięki niemu osiągnąć podobne wyniki, pomimo, że kod generowany tą metodą nie jest optymalny.

Bardziej szczegółowo

Metody numeryczne Technika obliczeniowa i symulacyjna Sem. 2, EiT, 2014/2015

Metody numeryczne Technika obliczeniowa i symulacyjna Sem. 2, EiT, 2014/2015 Metody numeryczne Technika obliczeniowa i symulacyjna Sem. 2, EiT, 2014/2015 1 Metody numeryczne Dział matematyki Metody rozwiązywania problemów matematycznych za pomocą operacji na liczbach. Otrzymywane

Bardziej szczegółowo

Kodowanie informacji

Kodowanie informacji Tomasz Wykład 4: kodowanie słownikowe Motywacja Motywacje 1 kodowane dane nie tworza ciagu wartości niezależnych, rozkład prawdopodobieństwa zależy od symboli poprzedzajacych symbol kodowany; 2 pewne sekwencje

Bardziej szczegółowo

Kodowanie predykcyjne

Kodowanie predykcyjne Studia Wieczorowe Wrocław, 27.03.2007 Kodowanie informacji Wykład 5 Kodowanie predykcyjne Idea: przewidujemy następny element ciągu i kodujemy różnicę między wartością przewidywaną i rzeczywistą, w oparciu

Bardziej szczegółowo

Kodowanie transformacyjne. Plan 1. Zasada 2. Rodzaje transformacji 3. Standard JPEG

Kodowanie transformacyjne. Plan 1. Zasada 2. Rodzaje transformacji 3. Standard JPEG Kodowanie transformacyjne Plan 1. Zasada 2. Rodzaje transformacji 3. Standard JPEG Zasada Zasada podstawowa: na danych wykonujemy transformacje która: Likwiduje korelacje Skupia energię w kilku komponentach

Bardziej szczegółowo

Algorytmy i struktury danych. Co dziś? Tytułem przypomnienia metoda dziel i zwyciężaj. Wykład VIII Elementarne techniki algorytmiczne

Algorytmy i struktury danych. Co dziś? Tytułem przypomnienia metoda dziel i zwyciężaj. Wykład VIII Elementarne techniki algorytmiczne Algorytmy i struktury danych Wykład VIII Elementarne techniki algorytmiczne Co dziś? Algorytmy zachłanne (greedyalgorithms) 2 Tytułem przypomnienia metoda dziel i zwyciężaj. Problem można podzielić na

Bardziej szczegółowo

LZ77 LZ78. Kompresja danych. Tomasz Jurdziński. Wykład 5: kodowanie słownikowe

LZ77 LZ78. Kompresja danych. Tomasz Jurdziński. Wykład 5: kodowanie słownikowe Tomasz Wykład 5: kodowanie słownikowe Motywacja Motywacje 1 zazwyczaj dane nie tworza ciagu wartości niezależnych, kolejny symbol jest zależny od poprzedzajacych go; 2 pewne sekwencje (słowa) często się

Bardziej szczegółowo

Dane, informacja, programy. Kodowanie danych, kompresja stratna i bezstratna

Dane, informacja, programy. Kodowanie danych, kompresja stratna i bezstratna Dane, informacja, programy Kodowanie danych, kompresja stratna i bezstratna DANE Uporządkowane, zorganizowane fakty. Główne grupy danych: tekstowe (znaki alfanumeryczne, znaki specjalne) graficzne (ilustracje,

Bardziej szczegółowo

Teoria Informacji - wykład. Kodowanie wiadomości

Teoria Informacji - wykład. Kodowanie wiadomości Teoria Informacji - wykład Kodowanie wiadomości Definicja kodu Niech S={s 1, s 2,..., s q } oznacza dany zbiór elementów. Kodem nazywamy wówczas odwzorowanie zbioru wszystkich możliwych ciągów utworzonych

Bardziej szczegółowo

teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015

teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015 teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015 1 wczoraj Wprowadzenie matematyczne. Entropia i informacja. Kodowanie. Kod ASCII. Stopa kodu. Kody bezprefiksowe.

Bardziej szczegółowo

KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG

KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG Joint Photographic Expert Group - 1986 ISO - International Standard Organisation CCITT - Comité Consultatif International de Téléphonie et Télégraphie Standard

Bardziej szczegółowo

Algorytmy kodowania entropijnego

Algorytmy kodowania entropijnego Algorytmy kodowania entropijnego 1. Kodowanie Shannona-Fano 2. Kodowanie Huffmana 3. Jednoznaczność kodów Huffmana. Kod o minimalnej wariancji 4. Dynamiczne kodowanie Huffmana Poprzedni wykład - podsumowanie

Bardziej szczegółowo

2 Arytmetyka. d r 2 r + d r 1 2 r 1...d d 0 2 0,

2 Arytmetyka. d r 2 r + d r 1 2 r 1...d d 0 2 0, 2 Arytmetyka Niech b = d r d r 1 d 1 d 0 będzie zapisem liczby w systemie dwójkowym Zamiana zapisu liczby b na system dziesiętny odbywa się poprzez wykonanie dodawania d r 2 r + d r 1 2 r 1 d 1 2 1 + d

Bardziej szczegółowo

ARYTMETYKA BINARNA. Dziesiątkowy system pozycyjny nie jest jedynym sposobem kodowania liczb z jakim mamy na co dzień do czynienia.

ARYTMETYKA BINARNA. Dziesiątkowy system pozycyjny nie jest jedynym sposobem kodowania liczb z jakim mamy na co dzień do czynienia. ARYTMETYKA BINARNA ROZWINIĘCIE DWÓJKOWE Jednym z najlepiej znanych sposobów kodowania informacji zawartej w liczbach jest kodowanie w dziesiątkowym systemie pozycyjnym, w którym dla przedstawienia liczb

Bardziej szczegółowo

Teoria Informacji i Metody Kompresji Danych

Teoria Informacji i Metody Kompresji Danych Teoria Informacji i Metody Kompresji Danych 1 Przykładowe zadania (dodatkowe materiały wykładowe) 2 Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL

Bardziej szczegółowo

Systemy liczbowe. 1. Przedstawić w postaci sumy wag poszczególnych cyfr liczbę rzeczywistą R = (10).

Systemy liczbowe. 1. Przedstawić w postaci sumy wag poszczególnych cyfr liczbę rzeczywistą R = (10). Wprowadzenie do inżynierii przetwarzania informacji. Ćwiczenie 1. Systemy liczbowe Cel dydaktyczny: Poznanie zasad reprezentacji liczb w systemach pozycyjnych o różnych podstawach. Kodowanie liczb dziesiętnych

Bardziej szczegółowo

Podstawowe operacje arytmetyczne i logiczne dla liczb binarnych

Podstawowe operacje arytmetyczne i logiczne dla liczb binarnych 1 Podstawowe operacje arytmetyczne i logiczne dla liczb binarnych 1. Podstawowe operacje logiczne dla cyfr binarnych Jeśli cyfry 0 i 1 potraktujemy tak, jak wartości logiczne fałsz i prawda, to działanie

Bardziej szczegółowo

Def. Kod jednoznacznie definiowalny Def. Kod przedrostkowy Def. Kod optymalny. Przykłady kodów. Kody optymalne

Def. Kod jednoznacznie definiowalny Def. Kod przedrostkowy Def. Kod optymalny. Przykłady kodów. Kody optymalne Załóżmy, że mamy źródło S, które generuje symbole ze zbioru S={x, x 2,..., x N } z prawdopodobieństwem P={p, p 2,..., p N }, symbolom tym odpowiadają kody P={c, c 2,..., c N }. fektywność danego sposobu

Bardziej szczegółowo

Fundamentals of Data Compression

Fundamentals of Data Compression Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 lutego 2012r. KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu Nazwa modułu Nazwa modułu w języku angielskim Obowiązuje od roku akademickiego 2012/2013

Bardziej szczegółowo

Technologie Informacyjne

Technologie Informacyjne System binarny Szkoła Główna Służby Pożarniczej Zakład Informatyki i Łączności October 7, 26 Pojęcie bitu 2 Systemy liczbowe 3 Potęgi dwójki 4 System szesnastkowy 5 Kodowanie informacji 6 Liczby ujemne

Bardziej szczegółowo

Przetwarzanie i transmisja danych multimedialnych. Wykład 3 Kodowanie Shannona Fano i Huffmana. Przemysław Sękalski.

Przetwarzanie i transmisja danych multimedialnych. Wykład 3 Kodowanie Shannona Fano i Huffmana. Przemysław Sękalski. Przetwarzanie i transmisja danych multimedialnych Wykład 3 Kodowanie Shannona Fano i Huffmana Przemysław Sękalski sekalski@dmcs.pl Politechnika Łódzka Katedra Mikroelektroniki i Technik Informatycznych

Bardziej szczegółowo

Podstawy Informatyki

Podstawy Informatyki Podstawy Informatyki Bożena Woźna-Szcześniak bwozna@gmail.com Jan Długosz University, Poland Wykład 5 Bożena Woźna-Szcześniak (AJD) Podstawy Informatyki Wykład 5 1 / 23 LICZBY RZECZYWISTE - Algorytm Hornera

Bardziej szczegółowo

Kodowanie i entropia

Kodowanie i entropia Kodowanie i entropia Marek Śmieja Teoria informacji 1 / 34 Kod S - alfabet źródłowy mocy m (np. litery, cyfry, znaki interpunkcyjne), A = {a 1,..., a n } - alfabet kodowy (symbole), Chcemy przesłać tekst

Bardziej szczegółowo

0 + 0 = 0, = 1, = 1, = 0.

0 + 0 = 0, = 1, = 1, = 0. 5 Kody liniowe Jak już wiemy, w celu przesłania zakodowanego tekstu dzielimy go na bloki i do każdego z bloków dodajemy tak zwane bity sprawdzające. Bity te są w ścisłej zależności z bitami informacyjnymi,

Bardziej szczegółowo

Teoretyczne Podstawy Informatyki

Teoretyczne Podstawy Informatyki Teoretyczne Podstawy Informatyki cel zajęć Celem kształcenia jest uzyskanie umiejętności i kompetencji w zakresie budowy schematów blokowych algor ytmów oraz ocenę ich złożoności obliczeniowej w celu optymizacji

Bardziej szczegółowo

Kompresja obrazów w statycznych - algorytm JPEG

Kompresja obrazów w statycznych - algorytm JPEG Kompresja obrazów w statycznych - algorytm JPEG Joint Photographic Expert Group - 986 ISO - International Standard Organisation CCITT - Comité Consultatif International de Téléphonie et Télégraphie Standard

Bardziej szczegółowo

Wstęp do programowania. Reprezentacje liczb. Liczby naturalne, całkowite i rzeczywiste w układzie binarnym

Wstęp do programowania. Reprezentacje liczb. Liczby naturalne, całkowite i rzeczywiste w układzie binarnym Wstęp do programowania Reprezentacje liczb Liczby naturalne, całkowite i rzeczywiste w układzie binarnym System dwójkowy W komputerach stosuje się dwójkowy system pozycyjny do reprezentowania zarówno liczb

Bardziej szczegółowo

Kodowanie informacji. Kody liczbowe

Kodowanie informacji. Kody liczbowe Wykład 2 2-1 Kodowanie informacji PoniewaŜ komputer jest urządzeniem zbudowanym z układów cyfrowych, informacja przetwarzana przez niego musi być reprezentowana przy pomocy dwóch stanów - wysokiego i niskiego,

Bardziej szczegółowo

Wstęp do informatyki- wykład 2

Wstęp do informatyki- wykład 2 MATEMATYKA 1 Wstęp do informatyki- wykład 2 Systemy liczbowe Treści prezentowane w wykładzie zostały oparte o: S. Prata, Język C++. Szkoła programowania. Wydanie VI, Helion, 2012 www.cplusplus.com Jerzy

Bardziej szczegółowo

Cyfrowe przetwarzanie i kompresja danych. dr inż.. Wojciech Zając

Cyfrowe przetwarzanie i kompresja danych. dr inż.. Wojciech Zając Cyfrowe przetwarzanie i kompresja danych dr inż.. Wojciech Zając Wykład 7. Standardy kompresji obrazów nieruchomych Obraz cyfrowy co to takiego? OBRAZ ANALOGOWY OBRAZ CYFROWY PRÓBKOWANY 8x8 Kompresja danych

Bardziej szczegółowo

Przetwarzanie obrazu cyfrowego

Przetwarzanie obrazu cyfrowego Kompresja Kompresja Obrazu Po co kompresja Podstawowe pojęcia RLE LZ78 LZW Huffman JPEG Po co kompresja Obraz FullHD 1920x1080 w kolorze RGB to 49766400 bity danych (5,94 MiB) Przeciętne zdjęcie 18Mpixel

Bardziej szczegółowo

Teoria przetwarzania A/C i C/A.

Teoria przetwarzania A/C i C/A. Teoria przetwarzania A/C i C/A. Autor: Bartłomiej Gorczyński Cyfrowe metody przetwarzania sygnałów polegają na przetworzeniu badanego sygnału analogowego w sygnał cyfrowy reprezentowany ciągiem słów binarnych

Bardziej szczegółowo

Kompresja video (MPEG)

Kompresja video (MPEG) mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 8, strona 1. Kompresja video (MEG) Zasadniczy schemat kompresora video Typy ramek przy kompresji czasowej Analiza ramek przez syntezę Sposób detekcji

Bardziej szczegółowo

Przetwarzanie i transmisja danych multimedialnych. Wykład 2 Podstawy kompresji. Przemysław Sękalski.

Przetwarzanie i transmisja danych multimedialnych. Wykład 2 Podstawy kompresji. Przemysław Sękalski. Przetwarzanie i transmisja danych multimedialnych Wykład Podstawy kompresji Przemysław Sękalski sekalski@dmcs.pl Politechnika Łódzka Katedra Mikroelektroniki i Technik Informatycznych DMCS Zawartość wykładu.

Bardziej szczegółowo

ARCHITEKRURA KOMPUTERÓW Kodowanie liczb ze znakiem 27.10.2010

ARCHITEKRURA KOMPUTERÓW Kodowanie liczb ze znakiem 27.10.2010 ARCHITEKRURA KOMPUTERÓW Kodowanie liczb ze znakiem 27.10.2010 Do zapisu liczby ze znakiem mamy tylko 8 bitów, pierwszy od lewej bit to bit znakowy, a pozostałem 7 to bity na liczbę. bit znakowy 1 0 1 1

Bardziej szczegółowo

LABORATORIUM PROCESORY SYGNAŁOWE W AUTOMATYCE PRZEMYSŁOWEJ. Zasady arytmetyki stałoprzecinkowej oraz operacji arytmetycznych w formatach Q

LABORATORIUM PROCESORY SYGNAŁOWE W AUTOMATYCE PRZEMYSŁOWEJ. Zasady arytmetyki stałoprzecinkowej oraz operacji arytmetycznych w formatach Q LABORAORIUM PROCESORY SYGAŁOWE W AUOMAYCE PRZEMYSŁOWEJ Zasady arytmetyki stałoprzecinkowej oraz operacji arytmetycznych w formatach Q 1. Zasady arytmetyki stałoprzecinkowej. Kody stałopozycyjne mają ustalone

Bardziej szczegółowo

Wstęp Statyczne kody Huffmana Dynamiczne kody Huffmana Praktyka. Kodowanie Huffmana. Dawid Duda. 4 marca 2004

Wstęp Statyczne kody Huffmana Dynamiczne kody Huffmana Praktyka. Kodowanie Huffmana. Dawid Duda. 4 marca 2004 4 marca 2004 Podstawowe oznaczenia i definicje Wymagania wobec kodu Podstawowa idea Podsumowanie Podstawowe oznaczenia i definicje Podstawowe oznaczenia i definicje: alfabet wejściowy: A = {a 1, a 2,...,

Bardziej szczegółowo

0-0000, 1-0001, 2-0010, 3-0011 itd... 9-1001.

0-0000, 1-0001, 2-0010, 3-0011 itd... 9-1001. KODOWANIE Jednym z problemów, z którymi spotykamy się w informatyce, jest problem właściwego wykorzystania pamięci. Konstruując algorytm staramy się zwykle nie tylko o zminimalizowanie kosztów czasowych

Bardziej szczegółowo

Zestaw 3. - Zapis liczb binarnych ze znakiem 1

Zestaw 3. - Zapis liczb binarnych ze znakiem 1 Zestaw 3. - Zapis liczb binarnych ze znakiem 1 Zapis znak - moduł (ZM) Zapis liczb w systemie Znak - moduł Znak liczby o n bitach zależy od najstarszego bitu b n 1 (tzn. cyfry o najwyższej pozycji): b

Bardziej szczegółowo

Wybrane metody kompresji obrazów

Wybrane metody kompresji obrazów Wybrane metody kompresji obrazów Celem kodowania kompresyjnego obrazu jest redukcja ilości informacji w nim zawartej. Redukcja ta polega na usuwaniu informacji nadmiarowej w obrazie, tzw. redundancji.

Bardziej szczegółowo

Teoria informacji i kodowania Ćwiczenia

Teoria informacji i kodowania Ćwiczenia Teoria informacji i kodowania Ćwiczenia Piotr Chołda, Andrzej Kamisiński Katedra Telekomunikacji Akademii Górniczo-Hutniczej Kod źródłowy Kodem źródłowym nazywamy funkcję różnowartościową, która elementom

Bardziej szczegółowo

Układy arytmetyczne. Joanna Ledzińska III rok EiT AGH 2011

Układy arytmetyczne. Joanna Ledzińska III rok EiT AGH 2011 Układy arytmetyczne Joanna Ledzińska III rok EiT AGH 2011 Plan prezentacji Metody zapisu liczb ze znakiem Układy arytmetyczne: Układy dodające Półsumator Pełny sumator Półsubtraktor Pełny subtraktor Układy

Bardziej szczegółowo

Kwantowanie sygnałów analogowych na przykładzie sygnału mowy

Kwantowanie sygnałów analogowych na przykładzie sygnału mowy Kwantowanie sygnałów analogowych na przykładzie sygnału mowy Treść wykładu: Sygnał mowy i jego właściwości Kwantowanie skalarne: kwantyzator równomierny, nierównomierny, adaptacyjny Zastosowanie w koderze

Bardziej szczegółowo

Kompresja danych DKDA (7)

Kompresja danych DKDA (7) Kompresja danych DKDA (7) Marcin Gogolewski marcing@wmi.amu.edu.pl Uniwersytet im. Adama Mickiewicza w Poznaniu Poznań, 22 listopada 2016 1 Kwantyzacja skalarna Wprowadzenie Analiza jakości Typy kwantyzatorów

Bardziej szczegółowo

Podstawy Informatyki. Inżynieria Ciepła, I rok. Wykład 5 Liczby w komputerze

Podstawy Informatyki. Inżynieria Ciepła, I rok. Wykład 5 Liczby w komputerze Podstawy Informatyki Inżynieria Ciepła, I rok Wykład 5 Liczby w komputerze Jednostki informacji Bit (ang. bit) (Shannon, 948) Najmniejsza ilość informacji potrzebna do określenia, który z dwóch równie

Bardziej szczegółowo

Kodowanie transformujace. Kompresja danych. Tomasz Jurdziński. Wykład 11: Transformaty i JPEG

Kodowanie transformujace. Kompresja danych. Tomasz Jurdziński. Wykład 11: Transformaty i JPEG Tomasz Wykład 11: Transformaty i JPEG Idea kodowania transformujacego Etapy kodowania 1 Wektor danych x 0,...,x N 1 przekształcamy (odwracalnie!) na wektor c 0,...,c N 1, tak aby: energia była skoncentrowana

Bardziej szczegółowo

Konwersja dźwięku analogowego do postaci cyfrowej

Konwersja dźwięku analogowego do postaci cyfrowej Konwersja dźwięku analogowego do postaci cyfrowej Schemat postępowania podczas przetwarzania sygnału analogowego na cyfrowy nie jest skomplikowana. W pierwszej kolejności trzeba wyjaśnić kilka elementarnych

Bardziej szczegółowo

LICZBY ZMIENNOPRZECINKOWE

LICZBY ZMIENNOPRZECINKOWE LICZBY ZMIENNOPRZECINKOWE Liczby zmiennoprzecinkowe są komputerową reprezentacją liczb rzeczywistych zapisanych w formie wykładniczej (naukowej). Aby uprościć arytmetykę na nich, przyjęto ograniczenia

Bardziej szczegółowo

Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład Kody liniowe - kodowanie w oparciu o macierz parzystości

Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład Kody liniowe - kodowanie w oparciu o macierz parzystości Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład 13 1 Kody liniowe - kodowanie w oparciu o macierz parzystości Przykład Różne macierze parzystości dla kodu powtórzeniowego. Co wiemy z algebry

Bardziej szczegółowo

Met Me ody numer yczne Wykład ykład Dr inż. Mic hał ha Łan Łan zon Instyt Ins ut Elektr Elektr echn iki echn i Elektrot Elektr echn olo echn

Met Me ody numer yczne Wykład ykład Dr inż. Mic hał ha Łan Łan zon Instyt Ins ut Elektr Elektr echn iki echn i Elektrot Elektr echn olo echn Metody numeryczne Wykład 2 Dr inż. Michał Łanczont Instytut Elektrotechniki i Elektrotechnologii E419, tel. 4293, m.lanczont@pollub.pl, http://m.lanczont.pollub.pl Zakres wykładu Arytmetyka zmiennopozycyjna

Bardziej szczegółowo

Przetwarzanie i transmisja danych multimedialnych. Wykład 6 Metody predykcyjne. Przemysław Sękalski.

Przetwarzanie i transmisja danych multimedialnych. Wykład 6 Metody predykcyjne. Przemysław Sękalski. Przetwarzanie i transmisja danych multimedialnych Wykład 6 Metody predykcyjne Przemysław Sękalski sekalski@dmcs.pl Politechnika Łódzka Katedra Mikroelektroniki i Technik Informatycznych DMCS Wykład opracowano

Bardziej szczegółowo

pobieramy pierwszą literę komunikatu i wypełniamy nią (wszystkie pozycje tą samą literą) bufor słownikowy.

pobieramy pierwszą literę komunikatu i wypełniamy nią (wszystkie pozycje tą samą literą) bufor słownikowy. komunikat do zakodowania: a a b a b b a b a c c a b a a a a a c a c b c b b c c a a c b a 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 przyjmujemy długość bufora słownikowego

Bardziej szczegółowo

Wykład 2. Informatyka Stosowana. 10 października Informatyka Stosowana Wykład 2 10 października / 42

Wykład 2. Informatyka Stosowana. 10 października Informatyka Stosowana Wykład 2 10 października / 42 Wykład 2 Informatyka Stosowana 10 października 2016 Informatyka Stosowana Wykład 2 10 października 2016 1 / 42 Systemy pozycyjne Informatyka Stosowana Wykład 2 10 października 2016 2 / 42 Definicja : system

Bardziej szczegółowo

Wstęp do informatyki- wykład 1

Wstęp do informatyki- wykład 1 MATEMATYKA 1 Wstęp do informatyki- wykład 1 Systemy liczbowe Treści prezentowane w wykładzie zostały oparte o: S. Prata, Język C++. Szkoła programowania. Wydanie VI, Helion, 2012 www.cplusplus.com Jerzy

Bardziej szczegółowo

Wykład 2. Informatyka Stosowana. 9 października Informatyka Stosowana Wykład 2 9 października / 42

Wykład 2. Informatyka Stosowana. 9 października Informatyka Stosowana Wykład 2 9 października / 42 Wykład 2 Informatyka Stosowana 9 października 2017 Informatyka Stosowana Wykład 2 9 października 2017 1 / 42 Systemy pozycyjne Informatyka Stosowana Wykład 2 9 października 2017 2 / 42 Definicja : system

Bardziej szczegółowo

Algorytmy i struktury danych. Wykład 4

Algorytmy i struktury danych. Wykład 4 Wykład 4 Różne algorytmy - obliczenia 1. Obliczanie wartości wielomianu 2. Szybkie potęgowanie 3. Algorytm Euklidesa, liczby pierwsze, faktoryzacja liczby naturalnej 2017-11-24 Algorytmy i struktury danych

Bardziej szczegółowo

Podstawy Informatyki

Podstawy Informatyki Podstawy Informatyki Bożena Woźna-Szcześniak bwozna@gmail.com Jan Długosz University, Poland Wykład 3 Bożena Woźna-Szcześniak (AJD) Podstawy Informatyki Wykład 3 1 / 42 Reprezentacja liczb całkowitych

Bardziej szczegółowo

Kodowanie predykcyjne

Kodowanie predykcyjne Kodowanie i kompresja informacji - Wykład 5 22 marca 2010 Motywacje W tekstach naturalnych symbole bardzo często zależa od siebie. Motywacje W tekstach naturalnych symbole bardzo często zależa od siebie.

Bardziej szczegółowo

Joint Photographic Experts Group

Joint Photographic Experts Group Joint Photographic Experts Group Artur Drozd Uniwersytet Jagielloński 14 maja 2010 1 Co to jest JPEG? Dlaczego powstał? 2 Transformata Fouriera 3 Dyskretna transformata kosinusowa (DCT-II) 4 Kodowanie

Bardziej szczegółowo

Cyfrowy zapis informacji

Cyfrowy zapis informacji F1-1 Cyfrowy zapis informacji Alfabet: uporządkowany zbiór znaków, np. A = {a,b,..., z} Słowa (ciągi) informacyjne: łańcuchy znakowe, np. A i = gdtr Długość słowa n : liczba znaków słowa, np. n(sbdy) =

Bardziej szczegółowo

mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 1, strona 1.

mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 1, strona 1. mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 1, strona 1. SYSTEMY MULTIMEDIALNE Co to jest system multimedialny? Elementy systemu multimedialnego Nośniki danych i ich wpływ na kodowanie Cele

Bardziej szczegółowo

Podstawy transmisji multimedialnych podstawy kodowania dźwięku i obrazu Autor Wojciech Gumiński

Podstawy transmisji multimedialnych podstawy kodowania dźwięku i obrazu Autor Wojciech Gumiński Podstawy transmisji multimedialnych podstawy kodowania dźwięku i obrazu Autor Wojciech Gumiński Podstawy transmisji multimedialnych Plan wykładu Wprowadzenie 1. Wprowadzenie 2. Ilość informacji 3. Kodowanie

Bardziej szczegółowo

1. Wprowadzenie 1.1. Zdefiniowanie problemu badawczego

1. Wprowadzenie 1.1. Zdefiniowanie problemu badawczego Spis treści 3 Spis treści Spis ważniejszych oznaczeń... 7 1. Wprowadzenie... 9 1.1. Zdefiniowanie problemu badawczego... 9 1.2. Istniejące rozwiązania bezstratnej kompresji obrazów... 10 1.3. Cel i zakres

Bardziej szczegółowo

Podstawy Informatyki dla Nauczyciela

Podstawy Informatyki dla Nauczyciela Podstawy Informatyki dla Nauczyciela Bożena Woźna-Szcześniak bwozna@gmail.com Jan Długosz University, Poland Wykład 2 Bożena Woźna-Szcześniak (AJD) Podstawy Informatyki dla Nauczyciela Wykład 2 1 / 1 Informacja

Bardziej szczegółowo

ARCHITEKTURA KOMPUTERÓW Liczby zmiennoprzecinkowe

ARCHITEKTURA KOMPUTERÓW Liczby zmiennoprzecinkowe ARCHITEKTURA KOMPUTERÓW 17.11.2010 Liczby zmiennoprzecinkowe Sprawa bardzo podobna jak w systemie dziesiętnym po przecinku mamy kolejno 10-tki do ujemnych potęg, a w systemie binarnym mamy 2-ki w ujemnych

Bardziej szczegółowo

Kompresja sekwencji obrazów - algorytm MPEG-2

Kompresja sekwencji obrazów - algorytm MPEG-2 Kompresja sekwencji obrazów - algorytm MPEG- Moving Pictures Experts Group (MPEG) - 988 ISO - International Standard Organisation CCITT - Comité Consultatif International de Téléphonie et TélégraphieT

Bardziej szczegółowo

Temat 7. Dekodery, enkodery

Temat 7. Dekodery, enkodery Temat 7. Dekodery, enkodery 1. Pojęcia: koder, dekoder, enkoder, konwerter kodu, transkoder, enkoder priorytetowy... Koderami (lub enkoderami) nazywamy układy realizujące proces zamiany informacji kodowanej

Bardziej szczegółowo

Zastosowanie kompresji w kryptografii Piotr Piotrowski

Zastosowanie kompresji w kryptografii Piotr Piotrowski Zastosowanie kompresji w kryptografii Piotr Piotrowski 1 Plan prezentacji I. Wstęp II. Kryteria oceny algorytmów III. Główne klasy algorytmów IV. Przykłady algorytmów selektywnego szyfrowania V. Podsumowanie

Bardziej szczegółowo