dr inż. Jacek Naruniec
|
|
- Anatol Lisowski
- 6 lat temu
- Przeglądów:
Transkrypt
1 dr inż. Jacek Naruniec
2 Entropia jest to średnia ilość informacji przypadająca na jeden znak alfabetu. H( x) n i 1 p( i)log W rzeczywistości określa nam granicę efektywności kodowania danych. r określa system zapisu (2 dla bitowego) Jeśli r=2 i entropia będzie równa 5 oznacza to, że dla danego zbioru na jeden symbol będzie przypadało średnio minimalnie 5 bitów poniżej tej granicy nie zejdziemy. r p( i)
3 Metody uniwersalne: kodowanie Huffmana koder entropijny aaaaaaaabbbccccdd A 8 B 3 C 4 D - 2 [17] [9] [5] B[3] D[2] C[4] A[8]
4 aaaaaaaabbbccccdd entropia (na symbol w systemie dwójkowym) 1,808 1,808 * 17 znaków = 30,73 stała długość bitowa: A- 00, B-01, C 10, D-11 kod: Huffman: (34 bity) A 0, B 111, C 10, D-110 kod: (31 bitów) 1 [9] 1 [5] 0 Mamy minimalną średnią długość kodu! 1 [17] B[3] D[2] C[4] A[8] 0 0
5 Koder arytmetyczny koder entropijny, zwykle skuteczniejszy od kodera Huffmana Kodowanie sekwencji do liczby zmiennoprzecinkowej znak Ilość wystąpień pradopodobi eństwo zakres A 4 0,4 [0,0.. 0,4] B 2 0,2 [0, ] C 2 0,2 [ ] D 2 0,2 [ ]
6 abbddaaacd Wyznaczamy zakres w którym znajduje się liczba wyjściowa (od góry G i dołu D). Szerokość zakresu S=G-D Każdy kolejny znak zależnie od swojego zakresu z tabeli zawęża zakresy G i D. znak zakres A [0,0.. 0,4] B [0, ] C [ ] D [ ] Wynik włączając kolejne znaki: (a) D=0.0, G=0.4 (z tabelki), S = 0.4 (b) G=D + 0.6*S = *0.4 = 0.24 D=D + 0.4*S = *0.4 = 0.16 S = 0.08 (b) G=D + 0.6*S = D=D + 0.4*S = S=0.016 d) G= D + 1.0*S = D = D + 0.8*S= Wyjście -> 0.20 Jeśli na tym kończymy kodowanie, to do 0.20 dopisujemy 48.
7 Formalnie algorytm zakodowania symbolu s, gdzie prawdopodobieństwo wystąpienia symbolu i to P[i]: zakres_dolny zakres_gorny zakres G - D G D zakres zakres_gorny D D zakres zakres_dolny Model rozkładu prawdopodobieństwa może być także tworzony w sposób adaptacyjny. Kompresja zachodzi, ponieważ bardziej prawdopodobne znaki w mniejszym stopniu zawężają interwał niż mniej p. Mniejszy interwał wymaga więcej znaków do zakodowania. s 1 i 1 s i 1 P[ i] P[ i]
8 Dekodowanie : a b b znak zakres A [0,0.. 0,4] B [0, ] C [ ] D [ ] Podobnie zawężamy zakres zgodnie z wybranym znakiem i określamy w którym segmencie zakresu znajduje się nasza liczba (tutaj )
9 Koder arytmetyczny nie jest do końca optymalny (tj. nie daje długości bitowej określonej przez entropię), bo liczby zmiennoprzecinkowe mają skończoną dokładność. Z drugiej strony jest skuteczniejszy od kodowania Huffmana, gdzie mamy zawsze zaokrąglenie opisu do jednego bitu
10 Metody słownikowe (na przykładzie LZ77) Wykorzystują powtarzające się sekwencje znaków. LZ77 koduje tekst trójkami wartości (p, i, n) p wskaźnik (przesunięcie wstecz w tekście) do najdłuższego wystąpienia powtórzonej sekwencji i ilość powtórzonych znaków sekwencji n symbol kolejnego (nowego) znaku
11 Przykład dekompresji w LZ77: wejście (0,0,a) (0,0,b) (2,1,a) (3,2,b) wyjście a b a a b a b Można tu wprowadzić szereg usprawnień, np.: mniejsze wskaźniki reprezentowane na mniejszej ilości bitów, trzeci element nie musi być zawsze podawany.
12 Kompresja LZW słownikowa (np. w GIF, PDF) Zakodowanie sekwencji znaków polega na podaniu indeksu w słowniku gdzie dana sekwencja wystąpiła, następnie podanie kolejnego znaku sekwencji. Przy kodowaniu: Początkowo w słowniku znajdują się wszystkie znaki alfabetu z przyznanymi indeksami. Kodując odczytujemy z wejścia najdłuższą sekwencję znajdującą się w słowniku, na wyjście oddajemy jej indeks. Do powyższej sekwencji dodajemy kolejny znak z wejścia i powstały ciąg dodajemy do słownika.
13 LZW: aabcabcab 1. Alfabet początkowy: a: 1, b: 2, c:3 Krok Najdłuższa znaleziona sekwencja alfabetu Dodany symbol do alfabetu Wyjście 1 a aa: a ab: b bc: c ca: ab abc: ca cab: 9 7 7
14 Z czego wynika kompresja? Entropia Percepcja szczegółów Predykcja
15 Metody bezstratne wykorzystują zwykle transformaty poprawiające wyniki kompresji entropijnej, słownikowej, stosowana jest tu między innymi transformata falkowa (JPEG-2000), odejmowanie sąsiednich pikseli lub linii (PNG), adaptacja do lokalnych cech obrazu (JPEG-LS) stosowane głównie w obrazach medycznych, astronomicznych standardowe archiwizery
16 Metody stratne wykorzystujące zwykle niedoskonałości naszego oka, większa dbałość o luminancję niż chrominancję (podpróbkowanie), zwykle zakładają transformaty np. DCT (JPEG), których mniej znaczące współczynniki są usuwane, inne kwantowane, zwykle połączone z kodowaniem entropijnym różnic między współczynnikami.
17 Wykorzystuje podobieństwo kolejnych klatek obrazu. Wykorzystuje wiedzę o przesunięciach konkretnych bloków obrazu kolejnych klatkach (predykcja) Zazwyczaj koduje różnice w kolejnych obrazach.
18 Czułość słuchu [źródło Wikipedia]
19 Zwykle kompresja stratna Bazuje na naszej ograniczonej percepcji dźwięku. Maskowanie częstotliwościowe dźwięku (głośny dźwięk jednej częstotliwości przysłania inne) Maskowanie czasowe dźwięku dźwięk głośny i od razu cichy -> cichego nie usłyszymy dźwięk cichy i od razu głośny -> cichego nie usłyszymy [źródło:
20 Zwykle stosowany jest podział sygnału na nakładające się okna analizy.
21 Zwykle okna mnoży się przez funkcję, np. Hamminga czy Gaussa Eliminacja efektów blokowych Wykorzystanie transformary MDCT zamiast DCT (zakładkowo w celu wyeliminowania ostrych granic) [źródło obrazu- Wikipedia]
22 MP3 Podział na bloki (1W, 384 próbki) Filtry konwolucyjne dzielące pasmo na podpasma (32 pasma, po 12 próbek) Wyznaczenie wpływu maskowania danych pasm na pozostałe pasma Eliminacja podpasm poniżej progu maskowania Kwantyzacja do poziomu dającego dobrą jakość dźwięku Formowanie strumienia wyjściowego Możliwość kodowania wspólnego materiału stereo Możliwość wykorzystania kodowania Huffmana
23 AAC (Advanced Audio Coding), stosowany m.in. w koderze wideo H264: większa dostępna liczba kanałów (48 w stosunku do 2 lub 5.1 mp3), okna analizy zmiennej wielkości predykcja w dziedzinie częstotliwości wyższa jakość przy tej samej ilości bitów na próbkę różne tryby analizy (standardowy, low delay)
24 AAC algorytm kodowania (wersja uproszczona): wybór okna analizy (długie lub krótkie 2048 lub 256 próbek) transformata MDCT, kwantyzacja w zależności od modelu przychoakustycznego kodowanie entropijne
25 WMA kodowanie w blokach 128, 256, 512, 1024 i 2048 próbkowych. podobnie model psychoakustyczny, MDCT, kwantyzacja dość popularny istnieje również WMA bezstratny
26 Duże archiwum obrazów zawiera np. ponad 10 6 obiektów. Zakładając kod binarny na jeden identyfikator należałoby przeznaczyć (bitów): l b 6 log ,93 20, Gdzie oznacza zaokrąglenie do góry (ceil)
27 Zakładając, że kolekcja może się powiększyć musielibyśmy: zarezerwować większą ilość bitów na znak lub przy każdym powiększeniu kolekcji poza zakres zmodyfikować wszystkie listy
28 Przestrzeń zajmowana przez indeks: kolekcja 10 6 obiektów - 20 bitów na symbol cechy reprezentatywne 16 bitowe cech średnio 5 elementów listy dla jednej cechy reprezentatywnej cechy 16*65536 = bitów (13,7% pamięci) listy 5*65536*20= bitów (86,3% pamięci) Stąd wniosek potrzebujemy efektywnych metod przechowywania list obiektowych
29 Zakładamy, że listy obiektowe są posortowane rosnąco względem identyfikatorów. Etap modelowania danych: uporządkowanie identyfikatorów na listach obiektowych, a następnie zastąpienie ich przez różnice kolejnych identyfikatorów, dobór statystycznego modelu różnic identyfikatorów, wybór schematu kodowania dopasowanego do modelu statystycznego.
30 Cecha Lista obiektów 0 30, 70, , 14, 19, , 33, 65, 80 Cecha Lista obiektów 0 30, 40, , 2, 5, , 6, 32, 25 cel: Skoncentrowanie rozkładu prawdopodobieństwa w niższych wartościach identyfikatorów.
31 Ogólna zależność im większa koncentracja rozkładu prawdopodobieństwa wystąpienia symboli, tym większa szansa na efektywną kompresję: p(x) p(x) x x
32 Zakładamy niezależność numeracji obiektów i faktu posiadania cechy c przez obiekt innymi słowy w zbiorze 100-elementowym jeśli obiekt o identyfikatorze 1 ma cechę c, to z równym prawdopodobieństwem cechę tę może mieć również obiekt o identyfikatorze 2 jak i 100. Przy powyższym założeniu identyfikatory długich list obiektowych mogą być modelowane rozkładem geometrycznym. [źródło wikipedia]
33 Zgodnie z teorią informacji dla danego rozkładu prawdopodobieństwa istnieje kod Huffmana optymalny, tj. dający minimalną średnią długość kodu Zależnie od rodzaju kolekcji: statyczna, np. płyty CD, DVD, BD, można wykorzystać koder arytmetyczny (dalej nie będziemy się zajmować tą opcją), dynamiczna, np. zbiory internetowe, stworzenie kodu optymalnego jest zwykle nierealne ze względu na wielkość bazy i jej zmienność.
34 Omówimy kodowania: globalne nieparametryzowane unarne kodowanie przedziałowe (w szczególności γ, δ) globalne parametryzowane binarne prawie stałej długości Golomba i Rice a lokalne interpolacyjne
35 Kod unarny U(q) dla q 0: q jedynek U( q) lub analogicznie: U( q) q zer
36 U(5)= U(2)=110 U(10)= Kod unarny jest optymalnym kodem przedrostkowym dla rozkładu prawdopodobieństwa zadanego ciągiem geometrycznym o pierwszym wyrazie 1/2 i o ilorazie 1/2:
37 Kod binarny symbolu r z parametrem b B b (r), b>0, 0 r > b: wyznaczamy k log 2 b, symbole o wartościach w przedziale (0..2 k+1 -b) kodujemy zwykłym kodem binarnym na k bitach, symbole o wartościach w przedziale (2 k+1 -b, b) kodujemy zwykłym kodem binarnym malejąco na k+1 bitach
38 Załóżmy parametr b=5 Wyznaczamy k log 2 b 2,3 2 2 k+1 -b = 8-5 = 3 B 5 (0)=00 B 5 (1)=01 B 5 (2)=10 B 5 (3)=111 B 5 (4)=110
39 Jest to kod prefiksowy. Jest optymalny dla rozkładu prawdopodobieństwa zrównoważonego według kryterium 2min>max, tzn: 2min>max -> suma dwóch najmniejszych prawdopodobieństw wystąpienia symbolu jest większa niż prawdopodobieństwo wystąpienia najbardziej prawdopodobnego symbolu
40 2min>max: np. aaabbccccddd P(a) = 3/12 P(b) = 2/12 P(c) = 4/12 P(d) = 3/12 Najmniejsze prawd. P(a) i P(b), największe P(c) P(a)+P(b) > P(c), czyli mamy 2min>max
41 Kod Golomba G b, określony dla ustalonego parametru całkowitego b > 0, przypisuje symbolowi o numerze n>0 sekwencję bitów składającą się z: kodu unarnego liczby q= (n 1)/b, kodu binarnego prawie stałej długości B b (r) dla liczby r=(n 1) mod b. n = q*b + r. Jest to kod zmiennej długości. Innymi słowy kodujemy unarnie numer przedziału i pozycję w przedziale.
42 Załóżmy parametr b=5, kodujemy liczbę n=20 q= (n 1)/b = 19/5 =3 r=(n 1) mod b = 19 mod 5 = 4 U(q) = 1110 B 5 (r) : k log 2 b 2,3 2 2 k+1 -b = 3, czyli liczbę r = 4 kodujemy na k+1 bitach B 5 (4) = 110 W efekcie G 5 (20)=U(3)B 5 (4)=
43 Załóżmy parametr b=3, kodujemy liczbę n=20 q= (n 1)/b = 19/3 =6 r=(n 1) mod b = 19 mod 3 = 1 U(q) = B 3 (r) : k log 2 b 1,5 1 2 k+1 -b = 1, czyli liczbę r = 1 kodujemy na k+1 bitach B 3 (4) = 11 W efekcie G 3 (20)=U(6)B 3 (1)=
44 Załóżmy parametr b=8, kodujemy liczbę n=20 q= (n 1)/b = 19/8 =2 r=(n 1) mod b = 19 mod 8 = 3 U(q) = 110 B 8 (r) : k log 2 b k+1 -b = 6, czyli liczbę r = 3 kodujemy na k bitach B 8 (4) = 011 W efekcie G 8 (20)=U(2)B 8 (4)=
45 Kod Golomba, w którym parametr b jest potęgą liczby 2 to kod taki nazywa się kodem Rice a (od twórcy). Kod Rice a charakteryzuje się tym, że część binarna prawie stałej długości liczby jest zawsze tej samej długości (czyli jest tak naprawdę zwykłym kodem binarnym) niezależnie od kodowanego symbolu
46 Rice Rice Rice [źródło- Wikipedia - tam parametr m odpowiada naszemu parametrowi b]
47 Dla rozkładu geometrycznego P(n) = pq n 1 z prawdopodobieństwem sukcesu p i porażki q=1 p optymalnym kodem przedrostkowym jest kod Golomba, w którym parametr b dobieramy jako:
48 p=0.2 => b=3 p=0.5 => b=1 p=0.8 => b=1
49 Kod przedziałowy π zakłada podział zbioru liczb na rozłączne przedziały π q o długościach b q >0, q=0,1,. Jeśli kodowana liczba n należy do przedziału π q, a r jest odległością od lewej krawędzi przedziału (r=n-a q ), to π(n)=u(q)bbq (r) Innymi słowy unarnie kodujemy numer przedziału do którego należy liczba, a binarnie ze zmienną długością i parametrem równym długości przedziału pozycję w danym przedziale
50 Mając 3 przedziały: [1..5], [6..11], [12..15] Liczbę 3 zakodujemy jako U(0)B 5 (3) Liczbę 6 zakodujemy jako U(1)B 6 (0)
51 Geometryczny kod przedziałowy to szczególna rodzina kodów przedziałowych G a,b w których długość przedziałów zmienia się w postępie geometrycznym, tj. b q =ba q, q = 0, 1, 2,.... Kod geometryczny, w którym a=2, b=1 nazywany jest kodem γ (gamma). Dla tego kodu przedziały kształtują się według wzorów: czyli: [1..1][2..3],[4..7], [8..15], [16..31] itd.
52 Kodowanie γ(10) to: przedziały to [1..1],[2..3],[4..7],[8..15],[16..31] itd. 10 należy do 4 przedziału, więc pierwszy człon to U(3) =1110 Następnie mamy kodowanie B 8 (2)=010 Cały kod ma postać Dla bardzo dużych liczb naturalnych kodowanie unarne w kodowaniu przedziałowym może nie być efektywne, dlatego proponuje się rozwiązanie hybrydowe, w którym kod unarny zastępuje się kodem γ.
53 Zakładane prawdopodobieństwo: P( x) 1 2x 2
54 Kodowanie δ (delta) polega na zastąpieniu w kodzie γ liczby unarnej U(q) kodem γ(q+1). Kodowanie jest często skuteczniejsze na realnych danych od kodowania γ. δ(10): Przedział 4, a γ(4)=11000 B(2)=010 δ(10) = Dla liczby kod δ ma 28 bitów, dla - γ 39
55 Weźmy listę w której mamy 20 obiektów: (7; 3,8,9,11,12,13,17) Zamiast kodować różnice między elementami spróbujmy domyślać się wartości liczb, tzn.: Jeśli znamy drugi wskaźnik do dokumentu 8, to wiemy, że pierwszy wskaźnik będzie w zakresie 1..7, co potrafimy zakodować na 3 bitach. Jeżeli znamy drugi i czwarty wskaźnik do dokumentu (8 i 11), to wartość trzeciego wskaźnika jest 9 lub 10, co potrafimy zapisać na 1 bicie. Jeśli znamy czwarty i szósty wskaźnik (11 i 13), to piąty jest oczywisty. Powyższe rozważania zakładają, że znamy listę (3; 8,11,13) Do tej listy (3; 8,11,13) stosujemy dokładnie tę samą metodę.
56 (3; 8,11,13) Jeśli znamy liczbę 11, to elementy po lewej kodujemy w zakresie (1..10), co zajmuje 4 bity, po prawej (9..20) 4 bity Ale jeśli wiemy, że po lewej i prawej stronie pierwszego wskaźnika (8) mamy jakąś liczbę, to możemy być pewni, że liczba po lewej będzie z zakresu To znaczy, że możemy ją zakodować na 3 bitach. Tak samo wiemy, że 13 po lewej i prawej stronie ma liczbę, czyli jest w zakresie [13..19], więc kodujemy ją na 3 bitach. Na końcu zostaje nam liczba 11. Ale jeśli wiemy, że ma 3 obiekty po lewej i po prawej stronie, to możemy ją zakodować w zakresie Daje nam to zwykle lepsze efekty niż w kodowaniu Golomba.
57 Wybrane kolekcje obiektów tekstowych: Biblia: pojedynczy werset biblii jest obiektem identyfikowanym przez numer księgi, rozdziału w księdze i wersetu w księdze. GNUbib: kolekcja notek bibliograficznych w dziedzinie informatyki. TREC (Text REtrieval Conference): kolekcja dokumentów z różnych źródeł używana w badaniach systemów wyszukiwania informacji.
58
59 W wykładzie wykorzystałem metariały: I. Witten i inni: Managing Gigabytes: Compressing and Indexing Documents and Images, W.Skarbek: materiały wykładowe przedmiotu INM
mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. GOLOMBA I RICE'A
mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. KOMPRESJA ALGORYTMEM ARYTMETYCZNYM, GOLOMBA I RICE'A Idea algorytmu arytmetycznego Przykład kodowania arytmetycznego Renormalizacja
Bardziej szczegółowoKompresja Kodowanie arytmetyczne. Dariusz Sobczuk
Kompresja Kodowanie arytmetyczne Dariusz Sobczuk Kodowanie arytmetyczne (lata 1960-te) Pierwsze prace w tym kierunku sięgają początków lat 60-tych XX wieku Pierwszy algorytm Eliasa nie został opublikowany
Bardziej szczegółowoKody Tunstalla. Kodowanie arytmetyczne
Kody Tunstalla. Kodowanie arytmetyczne Kodowanie i kompresja informacji - Wykład 3 8 marca 2010 Kody Tunstalla Wszystkie słowa kodowe maja ta sama długość ale jeden kod może kodować różna liczbę liter
Bardziej szczegółowoKompresja danych kodowanie Huffmana. Dariusz Sobczuk
Kompresja danych kodowanie Huffmana Dariusz Sobczuk Plan wykładu Kodowanie metodą Shannona-Fano Kodowanie metodą Huffmana Elementarny kod Golomba Kod Golomba Kod Rice a kompresja danych 2 Efektywny kod
Bardziej szczegółowoKodowanie podpasmowe. Plan 1. Zasada 2. Filtry cyfrowe 3. Podstawowy algorytm 4. Zastosowania
Kodowanie podpasmowe Plan 1. Zasada 2. Filtry cyfrowe 3. Podstawowy algorytm 4. Zastosowania Zasada ogólna Rozkład sygnału źródłowego na części składowe (jak w kodowaniu transformacyjnym) Wada kodowania
Bardziej szczegółowoGranica kompresji Kodowanie Shannona Kodowanie Huffmana Kodowanie ciągów Kodowanie arytmetyczne. Kody. Marek Śmieja. Teoria informacji 1 / 35
Kody Marek Śmieja Teoria informacji 1 / 35 Entropia Entropia określa minimalną statystyczną długość kodowania (przyjmijmy dla prostoty że alfabet kodowy A = {0, 1}). Definicja Niech X = {x 1,..., x n }
Bardziej szczegółowoPodstawowe pojęcia. Teoria informacji
Kodowanie i kompresja informacji - Wykład 1 22 luty 2010 Literatura K. Sayood, Kompresja danych - wprowadzenie, READ ME 2002 (ISBN 83-7243-094-2) Literatura K. Sayood, Kompresja danych - wprowadzenie,
Bardziej szczegółowoTemat: Algorytm kompresji plików metodą Huffmana
Temat: Algorytm kompresji plików metodą Huffmana. Wymagania dotyczące kompresji danych Przez M oznaczmy zbiór wszystkich możliwych symboli występujących w pliku (alfabet pliku). Przykład M = 2, gdy plik
Bardziej szczegółowoteoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015
teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015 1 zakres materiału zakres materiału 1. Czym jest teoria informacji? 2. Wprowadzenie matematyczne. 3. Entropia i informacja.
Bardziej szczegółowoWedług raportu ISO z 1988 roku algorytm JPEG składa się z następujących kroków: 0.5, = V i, j. /Q i, j
Kompresja transformacyjna. Opis standardu JPEG. Algorytm JPEG powstał w wyniku prac prowadzonych przez grupę ekspertów (ang. Joint Photographic Expert Group). Prace te zakończyły się w 1991 roku, kiedy
Bardziej szczegółowoKodowanie i kompresja Streszczenie Studia dzienne Wykład 9,
1 Kody Tunstalla Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9, 14.04.2005 Inne podejście: słowa kodowe mają ustaloną długość, lecz mogą kodować ciągi liter z alfabetu wejściowego o różnej
Bardziej szczegółowoKodowanie informacji
Kodowanie informacji Tomasz Wykład 4: kodowanie arytmetyczne Motywacja Podstawy i własności Liczby rzeczywiste Motywacje 1 średnia długość kodu Huffmana może odbiegać o p max + 0.086 od entropii, gdzie
Bardziej szczegółowoKODY SYMBOLI. Kod Shannona-Fano. Algorytm S-F. Przykład S-F
KODY SYMBOLI Kod Shannona-Fano KODOWANIE DANYCH, A.Przelaskowski Metoda S-F Kod Huffmana Adaptacyjne drzewo Huffmana Problemy implementacji Kod Golomba Podsumowanie Kod drzewa binarnego Na wejściu rozkład:
Bardziej szczegółowoKompresja bezstratna. Entropia. Kod Huffmana
Kompresja bezstratna. Entropia. Kod Huffmana Kodowanie i bezpieczeństwo informacji - Wykład 10 29 kwietnia 2013 Teoria informacji Jeśli P(A) jest prawdopodobieństwem wystapienia informacji A to niech i(a)
Bardziej szczegółowoNierówność Krafta-McMillana, Kodowanie Huffmana
Nierówność Krafta-McMillana, Kodowanie Huffmana Kodowanie i kompresja informacji - Wykład 2 1 marca 2010 Test na jednoznaczna dekodowalność Kod a jest prefiksem kodu b jeśli b jest postaci ax. x nazywamy
Bardziej szczegółowoEntropia Kodowanie. Podstawy kompresji. Algorytmy kompresji danych. Sebastian Deorowicz
Algorytmy kompresji danych 2007 02 27 Plan wykładu 1 Modelowanie i kodowanie 2 Modelowanie i kodowanie Plan wykładu 1 Modelowanie i kodowanie 2 Modelowanie i kodowanie definicja stowarzyszona ze zbiorem
Bardziej szczegółowoZałożenia i obszar zastosowań. JPEG - algorytm kodowania obrazu. Geneza algorytmu KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG
Założenia i obszar zastosowań KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG Plan wykładu: Geneza algorytmu Założenia i obszar zastosowań JPEG kroki algorytmu kodowania obrazu Założenia: Obraz monochromatyczny
Bardziej szczegółowoKompresja dźwięku w standardzie MPEG-1
mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 7, strona 1. Kompresja dźwięku w standardzie MPEG-1 Ogólne założenia kompresji stratnej Zjawisko maskowania psychoakustycznego Schemat blokowy
Bardziej szczegółowoKODY SYMBOLI. Materiały KODA, A.Przelaskowski. Koncepcja przedziałów nieskończonego alfabetu
KODY SYMBOLI Materiały KODA, A.Przelaskowski Koncepcja drzewa binarnego Metoda S-F Kod Huffmana Adaptacyjne drzewo Huffmana Problemy implementacji Koncepcja przedziałów nieskończonego alfabetu Proste kody
Bardziej szczegółowoKodowanie Huffmana. Platforma programistyczna.net; materiały do laboratorium 2014/15 Marcin Wilczewski
Kodowanie Huffmana Platforma programistyczna.net; materiały do laboratorium 24/5 Marcin Wilczewski Algorytm Huffmana (David Huffman, 952) Algorytm Huffmana jest popularnym algorytmem generującym optymalny
Bardziej szczegółowoZADANIE 1. Rozwiązanie:
EUROELEKTR Ogólnopolska Olimpiada Wiedzy Elektrycznej i Elektronicznej Rok szkolny 200/20 Rozwiązania zadań dla grupy teleinformatycznej na zawody II. stopnia ZNIE ramka logiczna w technologii MOS składa
Bardziej szczegółowoPrzetwarzanie i transmisja danych multimedialnych. Wykład 5 Kodowanie słownikowe. Przemysław Sękalski.
Przetwarzanie i transmisja danych multimedialnych Wykład 5 Kodowanie słownikowe Przemysław Sękalski sekalski@dmcs.pl Politechnika Łódzka Katedra Mikroelektroniki i Technik Informatycznych DMCS Przemysław
Bardziej szczegółowoDane, informacja, programy. Kodowanie danych, kompresja stratna i bezstratna
Dane, informacja, programy Kodowanie danych, kompresja stratna i bezstratna DANE Uporządkowane, zorganizowane fakty. Główne grupy danych: tekstowe (znaki alfanumeryczne, znaki specjalne) graficzne (ilustracje,
Bardziej szczegółowoAKD Metody słownikowe
AKD Metody słownikowe Algorytmy kompresji danych Sebastian Deorowicz 2009 03 19 Sebastian Deorowicz () AKD Metody słownikowe 2009 03 19 1 / 38 Plan wykładu 1 Istota metod słownikowych 2 Algorytm Ziva Lempela
Bardziej szczegółowoDefinicja. Jeśli. wtedy
Definicja Jeśli wtedy Cel kompresji: zredukowanie do minimum oczekiwanego (średniego) kosztu gdzie l i jest długością słowa kodu c i kodującego symbol a i Definicja Definicje Efektywność kodowania określamy
Bardziej szczegółowoPrzedmowa 11 Ważniejsze oznaczenia 14 Spis skrótów i akronimów 15 Wstęp 21 W.1. Obraz naturalny i cyfrowe przetwarzanie obrazów 21 W.2.
Przedmowa 11 Ważniejsze oznaczenia 14 Spis skrótów i akronimów 15 Wstęp 21 W.1. Obraz naturalny i cyfrowe przetwarzanie obrazów 21 W.2. Technika obrazu 24 W.3. Normalizacja w zakresie obrazu cyfrowego
Bardziej szczegółowoWygra Polska czy Brazylia, czyli o tym jak zwięźle zapisywać informacje
Wygra Polska czy Brazylia, czyli o tym jak zwięźle zapisywać informacje Witold Tomaszewski Instytut Matematyki Politechniki Śląskiej e-mail: Witold.Tomaszewski@polsl.pl Je n ai fait celle-ci plus longue
Bardziej szczegółowoStan wysoki (H) i stan niski (L)
PODSTAWY Przez układy cyfrowe rozumiemy układy, w których w każdej chwili występują tylko dwa (zwykle) możliwe stany, np. tranzystor, jako element układu cyfrowego, może być albo w stanie nasycenia, albo
Bardziej szczegółowoKwantyzacja wektorowa. Kodowanie różnicowe.
Kwantyzacja wektorowa. Kodowanie różnicowe. Kodowanie i kompresja informacji - Wykład 7 12 kwietnia 2010 Kwantyzacja wektorowa wprowadzenie Zamiast kwantyzować pojedyncze elementy kwantyzujemy całe bloki
Bardziej szczegółowoKodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11,
1 Kwantyzacja skalarna Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11, 10.05.005 Kwantyzacja polega na reprezentowaniu dużego zbioru wartości (być może nieskończonego) za pomocą wartości
Bardziej szczegółowoWstęp do informatyki- wykład 1 Systemy liczbowe
1 Wstęp do informatyki- wykład 1 Systemy liczbowe Treści prezentowane w wykładzie zostały oparte o: S. Prata, Język C++. Szkoła programowania. Wydanie VI, Helion, 2012 www.cplusplus.com Jerzy Grębosz,
Bardziej szczegółowoSamodzielnie wykonaj następujące operacje: 13 / 2 = 30 / 5 = 73 / 15 = 15 / 23 = 13 % 2 = 30 % 5 = 73 % 15 = 15 % 23 =
Systemy liczbowe Dla każdej liczby naturalnej x Î N oraz liczby naturalnej p >= 2 istnieją jednoznacznie wyznaczone: liczba n Î N oraz ciąg cyfr c 0, c 1,..., c n-1 (gdzie ck Î {0, 1,..., p - 1}) taki,
Bardziej szczegółowoKodowanie Shannona-Fano
Kodowanie Shannona-Fano Kodowanie Shannona-Fano znane było jeszcze przed kodowaniem Huffmana i w praktyce można dzięki niemu osiągnąć podobne wyniki, pomimo, że kod generowany tą metodą nie jest optymalny.
Bardziej szczegółowoMetody numeryczne Technika obliczeniowa i symulacyjna Sem. 2, EiT, 2014/2015
Metody numeryczne Technika obliczeniowa i symulacyjna Sem. 2, EiT, 2014/2015 1 Metody numeryczne Dział matematyki Metody rozwiązywania problemów matematycznych za pomocą operacji na liczbach. Otrzymywane
Bardziej szczegółowoKodowanie informacji
Tomasz Wykład 4: kodowanie słownikowe Motywacja Motywacje 1 kodowane dane nie tworza ciagu wartości niezależnych, rozkład prawdopodobieństwa zależy od symboli poprzedzajacych symbol kodowany; 2 pewne sekwencje
Bardziej szczegółowoKodowanie predykcyjne
Studia Wieczorowe Wrocław, 27.03.2007 Kodowanie informacji Wykład 5 Kodowanie predykcyjne Idea: przewidujemy następny element ciągu i kodujemy różnicę między wartością przewidywaną i rzeczywistą, w oparciu
Bardziej szczegółowoKodowanie transformacyjne. Plan 1. Zasada 2. Rodzaje transformacji 3. Standard JPEG
Kodowanie transformacyjne Plan 1. Zasada 2. Rodzaje transformacji 3. Standard JPEG Zasada Zasada podstawowa: na danych wykonujemy transformacje która: Likwiduje korelacje Skupia energię w kilku komponentach
Bardziej szczegółowoAlgorytmy i struktury danych. Co dziś? Tytułem przypomnienia metoda dziel i zwyciężaj. Wykład VIII Elementarne techniki algorytmiczne
Algorytmy i struktury danych Wykład VIII Elementarne techniki algorytmiczne Co dziś? Algorytmy zachłanne (greedyalgorithms) 2 Tytułem przypomnienia metoda dziel i zwyciężaj. Problem można podzielić na
Bardziej szczegółowoLZ77 LZ78. Kompresja danych. Tomasz Jurdziński. Wykład 5: kodowanie słownikowe
Tomasz Wykład 5: kodowanie słownikowe Motywacja Motywacje 1 zazwyczaj dane nie tworza ciagu wartości niezależnych, kolejny symbol jest zależny od poprzedzajacych go; 2 pewne sekwencje (słowa) często się
Bardziej szczegółowoDane, informacja, programy. Kodowanie danych, kompresja stratna i bezstratna
Dane, informacja, programy Kodowanie danych, kompresja stratna i bezstratna DANE Uporządkowane, zorganizowane fakty. Główne grupy danych: tekstowe (znaki alfanumeryczne, znaki specjalne) graficzne (ilustracje,
Bardziej szczegółowoTeoria Informacji - wykład. Kodowanie wiadomości
Teoria Informacji - wykład Kodowanie wiadomości Definicja kodu Niech S={s 1, s 2,..., s q } oznacza dany zbiór elementów. Kodem nazywamy wówczas odwzorowanie zbioru wszystkich możliwych ciągów utworzonych
Bardziej szczegółowoteoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015
teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015 1 wczoraj Wprowadzenie matematyczne. Entropia i informacja. Kodowanie. Kod ASCII. Stopa kodu. Kody bezprefiksowe.
Bardziej szczegółowoKOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG
KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG Joint Photographic Expert Group - 1986 ISO - International Standard Organisation CCITT - Comité Consultatif International de Téléphonie et Télégraphie Standard
Bardziej szczegółowoAlgorytmy kodowania entropijnego
Algorytmy kodowania entropijnego 1. Kodowanie Shannona-Fano 2. Kodowanie Huffmana 3. Jednoznaczność kodów Huffmana. Kod o minimalnej wariancji 4. Dynamiczne kodowanie Huffmana Poprzedni wykład - podsumowanie
Bardziej szczegółowo2 Arytmetyka. d r 2 r + d r 1 2 r 1...d d 0 2 0,
2 Arytmetyka Niech b = d r d r 1 d 1 d 0 będzie zapisem liczby w systemie dwójkowym Zamiana zapisu liczby b na system dziesiętny odbywa się poprzez wykonanie dodawania d r 2 r + d r 1 2 r 1 d 1 2 1 + d
Bardziej szczegółowoARYTMETYKA BINARNA. Dziesiątkowy system pozycyjny nie jest jedynym sposobem kodowania liczb z jakim mamy na co dzień do czynienia.
ARYTMETYKA BINARNA ROZWINIĘCIE DWÓJKOWE Jednym z najlepiej znanych sposobów kodowania informacji zawartej w liczbach jest kodowanie w dziesiątkowym systemie pozycyjnym, w którym dla przedstawienia liczb
Bardziej szczegółowoTeoria Informacji i Metody Kompresji Danych
Teoria Informacji i Metody Kompresji Danych 1 Przykładowe zadania (dodatkowe materiały wykładowe) 2 Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL
Bardziej szczegółowoSystemy liczbowe. 1. Przedstawić w postaci sumy wag poszczególnych cyfr liczbę rzeczywistą R = (10).
Wprowadzenie do inżynierii przetwarzania informacji. Ćwiczenie 1. Systemy liczbowe Cel dydaktyczny: Poznanie zasad reprezentacji liczb w systemach pozycyjnych o różnych podstawach. Kodowanie liczb dziesiętnych
Bardziej szczegółowoPodstawowe operacje arytmetyczne i logiczne dla liczb binarnych
1 Podstawowe operacje arytmetyczne i logiczne dla liczb binarnych 1. Podstawowe operacje logiczne dla cyfr binarnych Jeśli cyfry 0 i 1 potraktujemy tak, jak wartości logiczne fałsz i prawda, to działanie
Bardziej szczegółowoDef. Kod jednoznacznie definiowalny Def. Kod przedrostkowy Def. Kod optymalny. Przykłady kodów. Kody optymalne
Załóżmy, że mamy źródło S, które generuje symbole ze zbioru S={x, x 2,..., x N } z prawdopodobieństwem P={p, p 2,..., p N }, symbolom tym odpowiadają kody P={c, c 2,..., c N }. fektywność danego sposobu
Bardziej szczegółowoFundamentals of Data Compression
Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 lutego 2012r. KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu Nazwa modułu Nazwa modułu w języku angielskim Obowiązuje od roku akademickiego 2012/2013
Bardziej szczegółowoTechnologie Informacyjne
System binarny Szkoła Główna Służby Pożarniczej Zakład Informatyki i Łączności October 7, 26 Pojęcie bitu 2 Systemy liczbowe 3 Potęgi dwójki 4 System szesnastkowy 5 Kodowanie informacji 6 Liczby ujemne
Bardziej szczegółowoPrzetwarzanie i transmisja danych multimedialnych. Wykład 3 Kodowanie Shannona Fano i Huffmana. Przemysław Sękalski.
Przetwarzanie i transmisja danych multimedialnych Wykład 3 Kodowanie Shannona Fano i Huffmana Przemysław Sękalski sekalski@dmcs.pl Politechnika Łódzka Katedra Mikroelektroniki i Technik Informatycznych
Bardziej szczegółowoPodstawy Informatyki
Podstawy Informatyki Bożena Woźna-Szcześniak bwozna@gmail.com Jan Długosz University, Poland Wykład 5 Bożena Woźna-Szcześniak (AJD) Podstawy Informatyki Wykład 5 1 / 23 LICZBY RZECZYWISTE - Algorytm Hornera
Bardziej szczegółowoKodowanie i entropia
Kodowanie i entropia Marek Śmieja Teoria informacji 1 / 34 Kod S - alfabet źródłowy mocy m (np. litery, cyfry, znaki interpunkcyjne), A = {a 1,..., a n } - alfabet kodowy (symbole), Chcemy przesłać tekst
Bardziej szczegółowo0 + 0 = 0, = 1, = 1, = 0.
5 Kody liniowe Jak już wiemy, w celu przesłania zakodowanego tekstu dzielimy go na bloki i do każdego z bloków dodajemy tak zwane bity sprawdzające. Bity te są w ścisłej zależności z bitami informacyjnymi,
Bardziej szczegółowoTeoretyczne Podstawy Informatyki
Teoretyczne Podstawy Informatyki cel zajęć Celem kształcenia jest uzyskanie umiejętności i kompetencji w zakresie budowy schematów blokowych algor ytmów oraz ocenę ich złożoności obliczeniowej w celu optymizacji
Bardziej szczegółowoKompresja obrazów w statycznych - algorytm JPEG
Kompresja obrazów w statycznych - algorytm JPEG Joint Photographic Expert Group - 986 ISO - International Standard Organisation CCITT - Comité Consultatif International de Téléphonie et Télégraphie Standard
Bardziej szczegółowoWstęp do programowania. Reprezentacje liczb. Liczby naturalne, całkowite i rzeczywiste w układzie binarnym
Wstęp do programowania Reprezentacje liczb Liczby naturalne, całkowite i rzeczywiste w układzie binarnym System dwójkowy W komputerach stosuje się dwójkowy system pozycyjny do reprezentowania zarówno liczb
Bardziej szczegółowoKodowanie informacji. Kody liczbowe
Wykład 2 2-1 Kodowanie informacji PoniewaŜ komputer jest urządzeniem zbudowanym z układów cyfrowych, informacja przetwarzana przez niego musi być reprezentowana przy pomocy dwóch stanów - wysokiego i niskiego,
Bardziej szczegółowoWstęp do informatyki- wykład 2
MATEMATYKA 1 Wstęp do informatyki- wykład 2 Systemy liczbowe Treści prezentowane w wykładzie zostały oparte o: S. Prata, Język C++. Szkoła programowania. Wydanie VI, Helion, 2012 www.cplusplus.com Jerzy
Bardziej szczegółowoCyfrowe przetwarzanie i kompresja danych. dr inż.. Wojciech Zając
Cyfrowe przetwarzanie i kompresja danych dr inż.. Wojciech Zając Wykład 7. Standardy kompresji obrazów nieruchomych Obraz cyfrowy co to takiego? OBRAZ ANALOGOWY OBRAZ CYFROWY PRÓBKOWANY 8x8 Kompresja danych
Bardziej szczegółowoPrzetwarzanie obrazu cyfrowego
Kompresja Kompresja Obrazu Po co kompresja Podstawowe pojęcia RLE LZ78 LZW Huffman JPEG Po co kompresja Obraz FullHD 1920x1080 w kolorze RGB to 49766400 bity danych (5,94 MiB) Przeciętne zdjęcie 18Mpixel
Bardziej szczegółowoTeoria przetwarzania A/C i C/A.
Teoria przetwarzania A/C i C/A. Autor: Bartłomiej Gorczyński Cyfrowe metody przetwarzania sygnałów polegają na przetworzeniu badanego sygnału analogowego w sygnał cyfrowy reprezentowany ciągiem słów binarnych
Bardziej szczegółowoKompresja video (MPEG)
mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 8, strona 1. Kompresja video (MEG) Zasadniczy schemat kompresora video Typy ramek przy kompresji czasowej Analiza ramek przez syntezę Sposób detekcji
Bardziej szczegółowoPrzetwarzanie i transmisja danych multimedialnych. Wykład 2 Podstawy kompresji. Przemysław Sękalski.
Przetwarzanie i transmisja danych multimedialnych Wykład Podstawy kompresji Przemysław Sękalski sekalski@dmcs.pl Politechnika Łódzka Katedra Mikroelektroniki i Technik Informatycznych DMCS Zawartość wykładu.
Bardziej szczegółowoARCHITEKRURA KOMPUTERÓW Kodowanie liczb ze znakiem 27.10.2010
ARCHITEKRURA KOMPUTERÓW Kodowanie liczb ze znakiem 27.10.2010 Do zapisu liczby ze znakiem mamy tylko 8 bitów, pierwszy od lewej bit to bit znakowy, a pozostałem 7 to bity na liczbę. bit znakowy 1 0 1 1
Bardziej szczegółowoLABORATORIUM PROCESORY SYGNAŁOWE W AUTOMATYCE PRZEMYSŁOWEJ. Zasady arytmetyki stałoprzecinkowej oraz operacji arytmetycznych w formatach Q
LABORAORIUM PROCESORY SYGAŁOWE W AUOMAYCE PRZEMYSŁOWEJ Zasady arytmetyki stałoprzecinkowej oraz operacji arytmetycznych w formatach Q 1. Zasady arytmetyki stałoprzecinkowej. Kody stałopozycyjne mają ustalone
Bardziej szczegółowoWstęp Statyczne kody Huffmana Dynamiczne kody Huffmana Praktyka. Kodowanie Huffmana. Dawid Duda. 4 marca 2004
4 marca 2004 Podstawowe oznaczenia i definicje Wymagania wobec kodu Podstawowa idea Podsumowanie Podstawowe oznaczenia i definicje Podstawowe oznaczenia i definicje: alfabet wejściowy: A = {a 1, a 2,...,
Bardziej szczegółowo0-0000, 1-0001, 2-0010, 3-0011 itd... 9-1001.
KODOWANIE Jednym z problemów, z którymi spotykamy się w informatyce, jest problem właściwego wykorzystania pamięci. Konstruując algorytm staramy się zwykle nie tylko o zminimalizowanie kosztów czasowych
Bardziej szczegółowoZestaw 3. - Zapis liczb binarnych ze znakiem 1
Zestaw 3. - Zapis liczb binarnych ze znakiem 1 Zapis znak - moduł (ZM) Zapis liczb w systemie Znak - moduł Znak liczby o n bitach zależy od najstarszego bitu b n 1 (tzn. cyfry o najwyższej pozycji): b
Bardziej szczegółowoWybrane metody kompresji obrazów
Wybrane metody kompresji obrazów Celem kodowania kompresyjnego obrazu jest redukcja ilości informacji w nim zawartej. Redukcja ta polega na usuwaniu informacji nadmiarowej w obrazie, tzw. redundancji.
Bardziej szczegółowoTeoria informacji i kodowania Ćwiczenia
Teoria informacji i kodowania Ćwiczenia Piotr Chołda, Andrzej Kamisiński Katedra Telekomunikacji Akademii Górniczo-Hutniczej Kod źródłowy Kodem źródłowym nazywamy funkcję różnowartościową, która elementom
Bardziej szczegółowoUkłady arytmetyczne. Joanna Ledzińska III rok EiT AGH 2011
Układy arytmetyczne Joanna Ledzińska III rok EiT AGH 2011 Plan prezentacji Metody zapisu liczb ze znakiem Układy arytmetyczne: Układy dodające Półsumator Pełny sumator Półsubtraktor Pełny subtraktor Układy
Bardziej szczegółowoKwantowanie sygnałów analogowych na przykładzie sygnału mowy
Kwantowanie sygnałów analogowych na przykładzie sygnału mowy Treść wykładu: Sygnał mowy i jego właściwości Kwantowanie skalarne: kwantyzator równomierny, nierównomierny, adaptacyjny Zastosowanie w koderze
Bardziej szczegółowoKompresja danych DKDA (7)
Kompresja danych DKDA (7) Marcin Gogolewski marcing@wmi.amu.edu.pl Uniwersytet im. Adama Mickiewicza w Poznaniu Poznań, 22 listopada 2016 1 Kwantyzacja skalarna Wprowadzenie Analiza jakości Typy kwantyzatorów
Bardziej szczegółowoPodstawy Informatyki. Inżynieria Ciepła, I rok. Wykład 5 Liczby w komputerze
Podstawy Informatyki Inżynieria Ciepła, I rok Wykład 5 Liczby w komputerze Jednostki informacji Bit (ang. bit) (Shannon, 948) Najmniejsza ilość informacji potrzebna do określenia, który z dwóch równie
Bardziej szczegółowoKodowanie transformujace. Kompresja danych. Tomasz Jurdziński. Wykład 11: Transformaty i JPEG
Tomasz Wykład 11: Transformaty i JPEG Idea kodowania transformujacego Etapy kodowania 1 Wektor danych x 0,...,x N 1 przekształcamy (odwracalnie!) na wektor c 0,...,c N 1, tak aby: energia była skoncentrowana
Bardziej szczegółowoKonwersja dźwięku analogowego do postaci cyfrowej
Konwersja dźwięku analogowego do postaci cyfrowej Schemat postępowania podczas przetwarzania sygnału analogowego na cyfrowy nie jest skomplikowana. W pierwszej kolejności trzeba wyjaśnić kilka elementarnych
Bardziej szczegółowoLICZBY ZMIENNOPRZECINKOWE
LICZBY ZMIENNOPRZECINKOWE Liczby zmiennoprzecinkowe są komputerową reprezentacją liczb rzeczywistych zapisanych w formie wykładniczej (naukowej). Aby uprościć arytmetykę na nich, przyjęto ograniczenia
Bardziej szczegółowoKodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład Kody liniowe - kodowanie w oparciu o macierz parzystości
Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład 13 1 Kody liniowe - kodowanie w oparciu o macierz parzystości Przykład Różne macierze parzystości dla kodu powtórzeniowego. Co wiemy z algebry
Bardziej szczegółowoMet Me ody numer yczne Wykład ykład Dr inż. Mic hał ha Łan Łan zon Instyt Ins ut Elektr Elektr echn iki echn i Elektrot Elektr echn olo echn
Metody numeryczne Wykład 2 Dr inż. Michał Łanczont Instytut Elektrotechniki i Elektrotechnologii E419, tel. 4293, m.lanczont@pollub.pl, http://m.lanczont.pollub.pl Zakres wykładu Arytmetyka zmiennopozycyjna
Bardziej szczegółowoPrzetwarzanie i transmisja danych multimedialnych. Wykład 6 Metody predykcyjne. Przemysław Sękalski.
Przetwarzanie i transmisja danych multimedialnych Wykład 6 Metody predykcyjne Przemysław Sękalski sekalski@dmcs.pl Politechnika Łódzka Katedra Mikroelektroniki i Technik Informatycznych DMCS Wykład opracowano
Bardziej szczegółowopobieramy pierwszą literę komunikatu i wypełniamy nią (wszystkie pozycje tą samą literą) bufor słownikowy.
komunikat do zakodowania: a a b a b b a b a c c a b a a a a a c a c b c b b c c a a c b a 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 przyjmujemy długość bufora słownikowego
Bardziej szczegółowoWykład 2. Informatyka Stosowana. 10 października Informatyka Stosowana Wykład 2 10 października / 42
Wykład 2 Informatyka Stosowana 10 października 2016 Informatyka Stosowana Wykład 2 10 października 2016 1 / 42 Systemy pozycyjne Informatyka Stosowana Wykład 2 10 października 2016 2 / 42 Definicja : system
Bardziej szczegółowoWstęp do informatyki- wykład 1
MATEMATYKA 1 Wstęp do informatyki- wykład 1 Systemy liczbowe Treści prezentowane w wykładzie zostały oparte o: S. Prata, Język C++. Szkoła programowania. Wydanie VI, Helion, 2012 www.cplusplus.com Jerzy
Bardziej szczegółowoWykład 2. Informatyka Stosowana. 9 października Informatyka Stosowana Wykład 2 9 października / 42
Wykład 2 Informatyka Stosowana 9 października 2017 Informatyka Stosowana Wykład 2 9 października 2017 1 / 42 Systemy pozycyjne Informatyka Stosowana Wykład 2 9 października 2017 2 / 42 Definicja : system
Bardziej szczegółowoAlgorytmy i struktury danych. Wykład 4
Wykład 4 Różne algorytmy - obliczenia 1. Obliczanie wartości wielomianu 2. Szybkie potęgowanie 3. Algorytm Euklidesa, liczby pierwsze, faktoryzacja liczby naturalnej 2017-11-24 Algorytmy i struktury danych
Bardziej szczegółowoPodstawy Informatyki
Podstawy Informatyki Bożena Woźna-Szcześniak bwozna@gmail.com Jan Długosz University, Poland Wykład 3 Bożena Woźna-Szcześniak (AJD) Podstawy Informatyki Wykład 3 1 / 42 Reprezentacja liczb całkowitych
Bardziej szczegółowoKodowanie predykcyjne
Kodowanie i kompresja informacji - Wykład 5 22 marca 2010 Motywacje W tekstach naturalnych symbole bardzo często zależa od siebie. Motywacje W tekstach naturalnych symbole bardzo często zależa od siebie.
Bardziej szczegółowoJoint Photographic Experts Group
Joint Photographic Experts Group Artur Drozd Uniwersytet Jagielloński 14 maja 2010 1 Co to jest JPEG? Dlaczego powstał? 2 Transformata Fouriera 3 Dyskretna transformata kosinusowa (DCT-II) 4 Kodowanie
Bardziej szczegółowoCyfrowy zapis informacji
F1-1 Cyfrowy zapis informacji Alfabet: uporządkowany zbiór znaków, np. A = {a,b,..., z} Słowa (ciągi) informacyjne: łańcuchy znakowe, np. A i = gdtr Długość słowa n : liczba znaków słowa, np. n(sbdy) =
Bardziej szczegółowomgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 1, strona 1.
mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 1, strona 1. SYSTEMY MULTIMEDIALNE Co to jest system multimedialny? Elementy systemu multimedialnego Nośniki danych i ich wpływ na kodowanie Cele
Bardziej szczegółowoPodstawy transmisji multimedialnych podstawy kodowania dźwięku i obrazu Autor Wojciech Gumiński
Podstawy transmisji multimedialnych podstawy kodowania dźwięku i obrazu Autor Wojciech Gumiński Podstawy transmisji multimedialnych Plan wykładu Wprowadzenie 1. Wprowadzenie 2. Ilość informacji 3. Kodowanie
Bardziej szczegółowo1. Wprowadzenie 1.1. Zdefiniowanie problemu badawczego
Spis treści 3 Spis treści Spis ważniejszych oznaczeń... 7 1. Wprowadzenie... 9 1.1. Zdefiniowanie problemu badawczego... 9 1.2. Istniejące rozwiązania bezstratnej kompresji obrazów... 10 1.3. Cel i zakres
Bardziej szczegółowoPodstawy Informatyki dla Nauczyciela
Podstawy Informatyki dla Nauczyciela Bożena Woźna-Szcześniak bwozna@gmail.com Jan Długosz University, Poland Wykład 2 Bożena Woźna-Szcześniak (AJD) Podstawy Informatyki dla Nauczyciela Wykład 2 1 / 1 Informacja
Bardziej szczegółowoARCHITEKTURA KOMPUTERÓW Liczby zmiennoprzecinkowe
ARCHITEKTURA KOMPUTERÓW 17.11.2010 Liczby zmiennoprzecinkowe Sprawa bardzo podobna jak w systemie dziesiętnym po przecinku mamy kolejno 10-tki do ujemnych potęg, a w systemie binarnym mamy 2-ki w ujemnych
Bardziej szczegółowoKompresja sekwencji obrazów - algorytm MPEG-2
Kompresja sekwencji obrazów - algorytm MPEG- Moving Pictures Experts Group (MPEG) - 988 ISO - International Standard Organisation CCITT - Comité Consultatif International de Téléphonie et TélégraphieT
Bardziej szczegółowoTemat 7. Dekodery, enkodery
Temat 7. Dekodery, enkodery 1. Pojęcia: koder, dekoder, enkoder, konwerter kodu, transkoder, enkoder priorytetowy... Koderami (lub enkoderami) nazywamy układy realizujące proces zamiany informacji kodowanej
Bardziej szczegółowoZastosowanie kompresji w kryptografii Piotr Piotrowski
Zastosowanie kompresji w kryptografii Piotr Piotrowski 1 Plan prezentacji I. Wstęp II. Kryteria oceny algorytmów III. Główne klasy algorytmów IV. Przykłady algorytmów selektywnego szyfrowania V. Podsumowanie
Bardziej szczegółowo