Teoria informacji i kodowania Ćwiczenia

Podobne dokumenty
Teoria Informacji - wykład. Kodowanie wiadomości

Teoria informacji i kodowania Ćwiczenia Sem. zimowy 2016/2017

Elementy teorii informacji i kodowania

Kompresja bezstratna. Entropia. Kod Huffmana

Kodowanie i entropia

teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015

Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9,

Teoria informacji i kodowania Ćwiczenia

Kodowanie Huffmana. Platforma programistyczna.net; materiały do laboratorium 2014/15 Marcin Wilczewski

Nierówność Krafta-McMillana, Kodowanie Huffmana

Granica kompresji Kodowanie Shannona Kodowanie Huffmana Kodowanie ciągów Kodowanie arytmetyczne. Kody. Marek Śmieja. Teoria informacji 1 / 35

Definicja. Jeśli. wtedy

Kompresja danych kodowanie Huffmana. Dariusz Sobczuk

Algorytmy kodowania entropijnego

Wygra Polska czy Brazylia, czyli o tym jak zwięźle zapisywać informacje

Kompresja Kodowanie arytmetyczne. Dariusz Sobczuk

Kodowanie informacji

Wstęp Statyczne kody Huffmana Dynamiczne kody Huffmana Praktyka. Kodowanie Huffmana. Dawid Duda. 4 marca 2004

Temat: Algorytm kompresji plików metodą Huffmana

Kody Tunstalla. Kodowanie arytmetyczne

Entropia Kodowanie. Podstawy kompresji. Algorytmy kompresji danych. Sebastian Deorowicz

Def. Kod jednoznacznie definiowalny Def. Kod przedrostkowy Def. Kod optymalny. Przykłady kodów. Kody optymalne

Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11,

Przetwarzanie i transmisja danych multimedialnych. Wykład 3 Kodowanie Shannona Fano i Huffmana. Przemysław Sękalski.

Teoria Informacji i Metody Kompresji Danych

mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. GOLOMBA I RICE'A

teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015

Notatki z Podstaw kodowania i kryptografii. switch486 WIZ : PWr na podstawie folii z wykładu i ćwiczeń dr inż. E. Kukli Złożone W Systemie L A TEX

Teoria informacji i kodowania Ćwiczenia Sem. zimowy 2016/2017

Algorytmy kompresji. Kodowanie Huffmana, kodowanie arytmetyczne

0-0000, , , itd

Podstawowe pojęcia. Teoria informacji

Entropia to wielkość określająca liczbę bitów informacji zawartej w danej wiadomości lub źródle. Spełnia ona trzy naturalne warunki: I(s) jest

WYDZIAŁ MATEMATYKI KARTA PRZEDMIOTU

Kodowanie Shannona-Fano

Algorytmy i złożoności Wykład 5. Haszowanie (hashowanie, mieszanie)

Podstawy Informatyki: Kody. Korekcja błędów.

Niech x 1,..., x n będzie ciągiem zdarzeń. ---

ZADANIE 1. Rozwiązanie:

Podstawy kompresji danych

WST P DO TEORII INFORMACJI I KODOWANIA. Grzegorz Szkibiel. Wiosna 2013/14

KODY SYMBOLI. Kod Shannona-Fano. Algorytm S-F. Przykład S-F

KODY SYMBOLI. Materiały KODA, A.Przelaskowski. Koncepcja przedziałów nieskończonego alfabetu

Przetwarzanie i transmisja danych multimedialnych. Wykład 2 Podstawy kompresji. Przemysław Sękalski.

wiadomość komunikat - informacja Caius Julius Cesar Człowiek zasztyletowany przez senatorów na forum Romanum w Idy Marcowe roku DCCIX ab urbe condita

Wstęp do Informatyki

Algorytmy zachłanne. dr inż. Urszula Gałązka

Modulacja i kodowanie. Labolatorium. Kodowanie źródłowe Kod Huffman a

Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład Kody liniowe - kodowanie w oparciu o macierz parzystości

Kody Huffmana. Konrad Wypyski. 11 lutego 2006 roku

Algorytmy i struktury danych. wykład 8

Karta przedmiotu. obowiązuje studentów rozpoczynających studia w roku akademickim 2013/2014. Forma studiów: Stacjonarne Kod kierunku: 11.

1.1. Pozycyjne systemy liczbowe

Algorytmy i struktury danych. Co dziś? Tytułem przypomnienia metoda dziel i zwyciężaj. Wykład VIII Elementarne techniki algorytmiczne

Kody blokowe Wykład 2, 10 III 2011

Teoria Informacji i Metody Kompresji Danych

Kodowanie informacji. Przygotował: Ryszard Kijanka

Kodowanie informacji. Kody liczbowe

Kodowanie i kompresja Streszczenie Studia dzienne Wykład 12,

Algorytmy i struktury danych

Przetwarzanie i transmisja danych multimedialnych. Wykład 5 Kodowanie słownikowe. Przemysław Sękalski.

PRZEWODNIK PO PRZEDMIOCIE

Kodowanie i kompresja Streszczenie Studia dzienne Wykład 6

Podręcznik. Wzór Shannona

Wydział Mechaniczny. Instrukcja do zajęć laboratoryjnych

Matematyka dyskretna

TIMKoD - Lab 1 - Przybliżenie języka naturalnego

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Według raportu ISO z 1988 roku algorytm JPEG składa się z następujących kroków: 0.5, = V i, j. /Q i, j

Arytmetyka komputera

Temat 7. Dekodery, enkodery

EGZAMIN MATURALNY Z INFORMATYKI

AKD Metody słownikowe

Kompresja danych Streszczenie Studia Dzienne Wykład 10,

Problemy Decyzyjne dla Systemów Nieskończonych

Jednym z najprostszych sposobów porządkowania jest technika stosowana przy sortowaniu listów:

Kodowanie predykcyjne

0 + 0 = 0, = 1, = 1, = 0.

1 Wyrażenia potęgowe i logarytmiczne.

Wydział Elektryczny. Katedra Telekomunikacji i Aparatury Elektronicznej. Instrukcja do pracowni specjalistycznej

Funkcje elementarne. Matematyka 1

KARTA KURSU. (do zastosowania w roku ak. 2015/16) Kod Punktacja ECTS* 4

Systemy liczbowe używane w technice komputerowej

O oszczędnym dziennikarzu, czyli czym jest

Techniki multimedialne

Wstęp do programowania. Reprezentacje liczb. Liczby naturalne, całkowite i rzeczywiste w układzie binarnym

Ćwiczenie nr 1: Systemy liczbowe

Laboratorium ochrony danych

Podstawowe operacje arytmetyczne i logiczne dla liczb binarnych

Zadania przykładowe do kolokwium z AA2

12. Wprowadzenie Sygnały techniki cyfrowej Systemy liczbowe. Matematyka: Elektronika:

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału

Kompresja danych - wprowadzenie. 1. Konieczno kompresji 2. Definicja, typy kompresji 3. Modelowanie 4. Podstawy teorii informacji 5.

Kompresja danych DKDA (7)

Architektura systemów komputerowych

Kwantyzacja wektorowa. Kodowanie różnicowe.

Kody blokowe Wykład 1, 3 III 2011

Modelowanie wybranych pojęć matematycznych. semestr letni, 2016/2017 Wykład 10 Własności funkcji cd.

EGZAMIN MATURALNY Z INFORMATYKI 17 MAJA 2016 POZIOM PODSTAWOWY. Godzina rozpoczęcia: 14:00 CZĘŚĆ I WYBRANE: Czas pracy: 75 minut

Transkrypt:

Teoria informacji i kodowania Ćwiczenia Piotr Chołda, Andrzej Kamisiński Katedra Telekomunikacji Akademii Górniczo-Hutniczej

Kod źródłowy Kodem źródłowym nazywamy funkcję różnowartościową, która elementom zbioru wiadomości przyporządkowuje ciągi liter alfabetu kodowego. W praktyce chcemy zapewnić, że nie zdarzy się sytuacja, w której ciąg słów kodowych będzie można interpretować na różne sposoby i dlatego interesujemy się tzw. kodami jednoznacznie dekodowalnymi. Wiadomo, że kodem jednoznacznie dekodowalnym jest taki kod, w którym żadne słowo kodowe nie jest początkiem innego słowa kodowego. Z każdym kodem jednoznacznie dekodowalnym możemy skojarzyć drzewo D-arne (binarne, ternarne,... ). Katedra Telekomunikacji AGH 2/9

Nierówność McMillana-Krafta Da się utworzyć jednoznacznie dekodowalny kod o literach z alfabetu zawierającego D symboli i słowach kodowych długości: l 1, l 2,..., l i,..., wtedy i tylko wtedy gdy: i D l i 1. Katedra Telekomunikacji AGH 3/9

Wartości charakteryzujące kody Dla kodu, w którym: wiadomość i występuje z prawdopodobieństwem Pr{i}, wiadomości i odpowiada słowo kodowe (ciąg) o długości l i liter alfabetu, wiadomości i odpowiada słowo kodowe o długości trwania t i, definiujemy: Średnia długość słowa kodowego L = i l i Pr{i}. Średni czas trwania słowa kodowego T = i t i Pr{i}. Katedra Telekomunikacji AGH 4/9

Średnia długość słowa kodowego Ograniczenie dolne na L Dla źródła o entropii H(S) i liczności alfabetu kodowego D, dla każdego kodu źródłowego jednoznacznie dekodowalnego: L H(S) lg D. (Względny) nadmiar kodu źródłowego R = H(S) L lg D. L Katedra Telekomunikacji AGH 5/9

Dobre kody Kod zwięzły: kod jednoznacznie dekodowalny o najkrótszej możliwej średniej długości słowa kodowego (inaczej: o najmniejszym możliwym nadmiarze dla danego rozkładu prawdopodobieństwa generowania wiadomości przez źródło oraz dla założonej liczności alfabetu kodowego). Kod optymalny: kod zwięzły o zerowym nadmiarze (w takim kodzie każda litera alfabetu kodowego występuje z takim samym prawdopodobieństwem), taki kod istnieje tylko wtedy, gdy prawdopodobieństwa wystąpienia wszystkich wiadomości w źródle 1 są naturalnymi potęgami D, tj. i Pr{i} = ( ) 1 li D (wtedy wykładnik jest długością słowa kodowego!). Katedra Telekomunikacji AGH 6/9

Kod Huffmana Algorytm tworzenia kodu Huffmana podaje nam sposób tworzenia kodu zwięzłego (chociaż oczywiście niekoniecznie optymalnego) dla alfabetu kodowego o liczności D symboli. 1 K1: uszeregować wszystkie N wiadomości w kolejności malejącego prawdopodobieństwa ich wystąpienia. 2 K1 (tylko w pierwszej iteracji dla kodów nad alfabetem niebinarnym, w innym przypadku przyjmujemy k = D): dobrać liczbę 2 k D, taką że iloraz N k D 1 jest całkowity. 3 K2: Utworzyć tzw. zredukowane źródło wiadomości, w którym k wiadomości o najniższym prawdopodobieństwie wystąpienia grupujemy w jedną wiadomość. 4 Powtórzyć kroki K1-K2, aż uzyska się źródło zredukowane o liczności D wiadomości, wtedy każdej z nich przypisujemy po jednej literze alfabetu. 5 Dokonujemy operacji odwrotnej do tworzenia źródeł zredukowanych, przy czym przypisujemy po jednej dodatkowej literze alfabetu tym wiadomościom, które w danym kroku były grupowane w jedną wiadomość. Katedra Telekomunikacji AGH 7/9

Kompresja bezstratna Inne podejścia Kod (Shannona-)Fano: tworzenie drzewa D-arnego kodu, w którym poszczególne węzły tworzy się, dzieląc węzeł odpowiadający pewnemu zbiorowi wiadomości na D węzłów odpowiadających podzbiorom wiadomości, które charakteryzują się jak najbardziej zbliżonymi sumami prawdopodobieństw wystąpienia (w ogólności nie musi dawać kodu zwięzłego). Kodowanie arytmetyczne: przesyłanie ciągu znaków interpretowanego jako liczba należąca do odpowiedniego przedziału; zakłada się, że dekoder zna statystykę źródła. Dynamiczne kodowanie Huffmana: zakładające ciągłe przebudowywanie drzewa kodu, nie jest potrzebna znajomość statystyki źródła. Katedra Telekomunikacji AGH 8/9

Twierdzenie Shannona dla kanałów bezszumowych Twierdzenie Shannona o kodowaniu źródłowym Jeśli L (k) to średnia długość kodu zwięzłego (używającego alfabetu D-arnego) k-krotnego rozszerzenia źródła bezpamięciowego S, to: L (k) lim k k = H(S) lg D. Znaczenie praktyczne: możemy się zbliżać do kodu optymalnego dowolnie blisko, jeśli tylko będziemy kodować rozszerzenia źródła (tj. musimy kodować coraz dłuższe wiadomości i rośnie nam słownik kodu). Katedra Telekomunikacji AGH 9/9