Kodowanie i entropia
|
|
- Edyta Matusiak
- 7 lat temu
- Przeglądów:
Transkrypt
1 Kodowanie i entropia Marek Śmieja Teoria informacji 1 / 34
2 Kod S - alfabet źródłowy mocy m (np. litery, cyfry, znaki interpunkcyjne), A = {a 1,..., a n } - alfabet kodowy (symbole), Chcemy przesłać tekst napisany w alfabecie źródłowym, ale nasz kanał informacyjny pozwala tylko na przesłanie symboli z A, Chcemy każdy element z S wyrazić za pomocą słów z A (niepuste słowa skończonej długości) Funkcja kodująca Funkcją kodującą (kodowaniem) nazywamy dowolną funkcję φ : S A. 2 / 34
3 Cele Kodowanie może mieć różne cele: Zmniejszenie objętości danych kompresja Zapewnienie odporności na błędy kody korekcyjne Zapewnienie poufności danych kryptografia 3 / 34
4 Kompresja Kompresja bezstratna z postaci skompresowanej można (zawsze) odtworzyć postać danych identyczną z oryginałem. Kompresja stratna z postaci skompresowanej nie zawsze można otrzymać oryginalną postać lepszy współczynnik kompresji drobne różnice niezauważalne dla niektórych zmysłów (wysokie częstotliwości próbkowanie, sąsiednie piksele obrazka) może być niebezpieczne dla pewnych zastosowań np. medycznych 4 / 34
5 Kodowanie nieosobliwe Przykład: S = {a, b, c, d}, A = {0, 1}, φ : S A φ(a) = 1, φ(b) = 10, φ(c) = 01, φ(d) = 1. Funkcja - każdy symbol z S musi mieć zdefiniowany kod, Nie jest iniekcją - kody różnych symboli nie muszą być różnie (jak dekodować?), Kodowanie nieosobliwe Kodowanie jest nieosobliwe jeśli funkcja kodująca jest iniekcją: φ(s 1 ) φ(s 2 ), jeśli s 1 s 2. 5 / 34
6 Kodowanie nieosobliwe jednoznacznie dekodowalne S = {a, b, c}, A = {0, 1}, φ : S A φ(a) = 1, φ(b) = 0, φ(c) = 10, Jest nieosobliwe Jak odkodować: 1101? aaba czy może aca? Iniektywna funkcja jest odwracalna, ale nie zapewnia to jednoznaczności dekodowania! 6 / 34
7 Kod Morse a Kod jednoznacznie dekodowalny - był powszechnie używany w telekomunikacji radiowej, obecnie używany przez radioamatorów S - litery alfabetu angielskiego A = {, }, gdzie - krótki sygnał, - - długi sygnał Kody to ciągi złożone z długich i krótkich sygnałów Dekodowanie: krótki odstęp czasowy pomiędzy literami, a dłuższy między wyrazami Jest to symbol specjalny rozdzielający kody. Czyli tak naprawdę A jest 4-elementowy a nie dwu. Nieefektywne, zobaczymy jak sprytniej zapewnić jednoznaczną dekodowalność:) 7 / 34
8 Kody stałej długości Każdy symbol ma kod tej samej długości l Przykład: ASCII Dekodowanie: czytamy porcję l symboli, patrzymy w słownik i odkodowujemy 8 / 34
9 Jednoznaczna dekodowalność Rozszerzenie kodu Rozszerzeniem kodu nazywamy odwzorowanie φ : S A dane wzorem: φ(s 1 s 2... s k ) := φ(s 1 )φ(s 2 )... φ(s k ) Jednoznaczna dekodowalność Kod jest jednoznacznie dekodowalny jeśli jego rozszerzenie jest nieosobliwe Innymi słowy, kod jest jednoznacznie dekodowalny jeśli istnieje tylko jeden możliwy ciąg liter produkujący go. Ćwiecznie: Jak przeprowadzić test na jednoznaczną dekodowalność? 9 / 34
10 Kod prefiksowy Kod Morse a jest jednoznacznie dekodowalny dzięki wykorzystaniu symboli specjalnych rozdzielających kody. Inny sposób polega na takiej konstrukcji kodu, aby jednoznaczność byłą zapewniona bez użycia separatorów. Kod przedrostkowy Kod nazywamy przedrostkowym (prefiksowym) jeśli żadne ze słów kodujących nie jest przedrostkiem innego. Jest jednoznacznie dekodowalny. 10 / 34
11 Przykład S = {a, b, c}, A = {0, 1}, φ : S A φ(a) = 1, φ(b) = 01, φ(c) = 00, Jak odkodować: nie jest kodem 00 - c (ponadto żaden inny symbol nie ma kodu rozpoczynającego się od 00 ) 1 - a 0 - nie jest kodem 01 - b 1 - a 11 / 34
12 Podsumowanie Rysunek: Zależność pomiędzy kodowaniami (źródło: Cover and Thomas) Ćwiczenie: podać kodowania każdego z tych rodzajów 12 / 34
13 Transformacje danych Weźmy ciąg: 9, 11, 11, 11, 14, 13, 15, 17, 16, 17, 20, 21 Mamy 9 symboli. Do zapisu jednego potrzebujemy 4 = log 2 9 bitów Użyjmy następującej transformacji: Wówczas ˆx n ma postać: ˆx n = n + 8, e n = x n ˆx n 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20 My kodujmy błędy e n, czyli ciąg: 0, 1, 0, 1, 1, 1, 0, 1, 1 1, 1, 1 Potrzebujemy teraz tylko 2 bity na liczbę Dlaczego? Dane spełniają w przybliżeniu pewną regułę 13 / 34
14 Transformacje danych Weźmy ciąg: 27, 28, 29, 28, 26, 27, 29, 28, 30, 32, 34, 36, 38 Do zapamiętania go potrzebujemy 4 bity na każdą liczbę Każda wartość w ciągu jest bliska poprzedniej. Użyjmy następującej transformacji: e n = x n x n 1, e 1 = x 1 Wówczas e n ma postać: 27, 1, 1, 1, 2, 1, 2, 1, 2, 2, 2, 2, 2 Teraz ciąg jest prostszy do zakodowania 14 / 34
15 Kod o zadanej długości Pytanie: Mamy dany alfabet i chcemy zrealizować kod jednoznacznie dekodowalny o zadanych długościach. Kiedy nam się to uda? Nierówność Krafta Alfabet źródłowy S o m elementach da się zakodować słowami prefiksowymi z alfabetu kodowego A o n elementach o długościach l 1,..., l m jeśli m n l i 1. i=1 Odwrotnie, jeśli liczby l 1,..., l m spełniają nierówność Krafta, to istnieje kod prefiksowy o tych długościach. My będziemy prawie zawsze przyjmować n = 2 dla prostoty, chociaż da się robić ogólniej. 15 / 34
16 Przykład Nierówność Krafta- ok - Dekodowalność - ok - Prefiksowy - ok 16 / 34
17 Przykład Nierówność Krafta- nie - Dekodowalność - nie - Prefiksowy - nie 17 / 34
18 Przykład Nierówność Krafta- tak - Dekodowalność - tak - Prefiksowy - tak 18 / 34
19 Przykład Nierówność Krafta- ok - Dekodowalność - ok - Prefiksowy - ok 19 / 34
20 Przykład Nierówność Krafta- ok - Dekodowalność - ok - Prefiksowy - nie, ale skoro nierówność zachodzi to można znaleźć inny kod prefiksowy o tych długościach 20 / 34
21 Przykład Nierówność Krafta- ok - Dekodowalność - nie - Prefiksowy - nie, ale można znaleźć jakiś prefiksowy o tych długościach 21 / 34
22 Dowód 1 Zakładamy, że mamy kody prefiksowe o długościach l 1,..., l m. Pokażemy, że zachodzi nierówność Krafta. Kod prefiksowy można reprezentować jako ścieżki do liści w drzewie (0-w lewo, 1 w prawo dla sytuacji binarnej). Węzły wewnętrzne nie są kodami (rysunek) Najdłuższy kod ma długość l max i leży na poziomie l max w drzewie. Kod leżący na poziomie l i ma n lmax l i potomków na poziomie l max. Jako, że mamy drzewo to zbiory potomków dla węzłów na tym samym poziomie są rozłączne. Łączna ilość potomków na poziomie l max nie może być większa niż maksymalna ilość węzłów na tym poziomie czyli n lmax. Stąd: n l max l i n lmax co daje n l i 1 22 / 34
23 Dowód 2 Odwrotnie zakładamy, że mamy dane długości kodów spełniających nierówność Krafta. Mamy pokazać, że istnieje kod prefiksowy o tych długościach. Konstruujemy pełne drzewo binarne. Zakładamy, że l 1 l 2... l n = l max Dla kolejnych długości tworzymy kody biorąc kolejne ścieżki w drzewie (od lewej - rysunek) - daję to kod prefiksowy. Dla każdego kodu usuwamy potomków odpowiadającego węzła, tak aby kod był w liściu. Ilość usuniętych potomków to: n lmax l1,..., n lmax ln. Zliczamy usunięte liście w drzewie: i nlmax l i n lmax Zatem liści nam nie zabraknie o ile spełniona będzie nierówność Krafta Jako że założyliśmy jej prawdziwość, to procedura jest wykonalna 23 / 34
24 Przykład konstrukcji Mamy dane długości 1, 2, 3, 3. Można sprawdzić, że spełniają nierówność Krafta. Chodzimy po drzewie od lewej i tworzymy kody (od najkrótszego do najdłuższego) 24 / 34
25 Rozszerzenie Ćwiczenie: Nierówność Krafta można pokazać w przypadku kodów jednoznacznie dekodowalnych (twierdzenie McMillan). Czyli kody jednoznacznie dekodowalne mają analogiczne ograniczenia jak i prefiksowe. Dlatego zawężamy się w naszych rozważaniach do kodów prefiksowych. 25 / 34
26 Pytanie: a co jeśli nierówność Krafta jest spełniona silnie, tzn. n l i < 1 Jeśli prawdopodobieństwa symboli p i spełniają n l i = p i, to wówczas możemy osiągnąć równość. W przeciwnym razie niekoniecznie (będzie wynikało z końcowego twierdzenia). 26 / 34
27 Przykład = < 1 27 / 34
28 Przykład Optymalny kod (dostajemy 1 w nierówności Krafta) 28 / 34
29 Długość kodu Załóżmy, że symbole z S generowane są z określonymi prawdopodobieństwami p i = p(s i ) Ponadto, zakładamy brak pamięci, czyli że generowany symbol nie zależy od żadnego z poprzednich Chcielibyśmy stworzyć kod, który jest możliwie krótki (efektywny) Interesująca nas długość to statystyczna długość słowa: L(l 1,..., l n ) = E(length(φ)) := i p i l i, gdzie l i = length(s i ) 29 / 34
30 Przykład S = {a, b, c}, A = {0, 1}, P = {1/2, 1/4, 1/4} φ 1 (a) = 0, φ 1 (b) = 10, φ 1 (c) = 11 L(φ 1 ) = = (optymalne) φ 2 (a) = 10, φ 2 (b) = 0, φ 2 (c) = 11 L(φ 2 ) = = Wniosek: częste symbole powinny być kodowane krótkimi kodami. 30 / 34
31 Cel Jak dobrać l i, aby zminimalizować wartość oczekiwaną długości słowa? Nierówność Krafta daje nam dopuszczalne zakresy l i. Mamy problem minimalizacji przy zadanym warunku. Problem minimalizacyjny Znaleźć minimum L(l 1,..., l n ) := i p i l i przy warunku n l i 1 i 31 / 34
32 Minimalizajca zakładamy, że l i > 0 rzeczywiste minimalizujemy na brzegu tj. i n l i = 1 wykorzystujemy metodę współczynników Lagrange a: J(l 1,..., l n ) = p i l i λ( i n l i 1) Szukamy minimum: J = p i λn l i ln(n) = 0 l i Dostajemy: n l i = p i λln(n) Wrzucamy to do warunku na λ: n l i = 1 λln(n) = 1 i Wyliczamy λ i wracamy do poprzedniego co daje: n l i = p i, czyli l i = log n p i 32 / 34
33 Uwagi Dopuściliśmy długości l i niecałkowite. W praktyce, długości są całkowite. Definiujemy całkowite długości l i = log n p i Kod o takich długościach to kodowanie Shannona. Z twierdzenia wynikja, że optymalny kod ma średnią długość nie mniejszą niż wartość i p i( log p i ). Jeśli p i = n k i dla pewnego k, to wówczas log n p i = k i log n n = k i = log n n k i = log n p i i osiągamy minimum 33 / 34
34 Entropia Kluczowa dla nas sytuacja to kodowanie binarne A = {0, 1}, choć można definiować to dla dowolnego A. Definicja Entropia określa minimalną statystyczną długość kodowania. Niech X = {x 1,..., x n } będzie dyskretną przestrzenią probabilistyczną, gdzie p i = p(x i ) jest prawdopodobieństwem otrzymania x i. Wtedy entropia X (rozkładu p 1,..., p n na X ) wyraża się wzorem: h(x ) = h(p 1,..., p n ) = i p i ( log 2 p i ). Będziemy pisać zamiennie h(zbiór) = h(rozkład pr.) = h(zmienna los) 34 / 34
Granica kompresji Kodowanie Shannona Kodowanie Huffmana Kodowanie ciągów Kodowanie arytmetyczne. Kody. Marek Śmieja. Teoria informacji 1 / 35
Kody Marek Śmieja Teoria informacji 1 / 35 Entropia Entropia określa minimalną statystyczną długość kodowania (przyjmijmy dla prostoty że alfabet kodowy A = {0, 1}). Definicja Niech X = {x 1,..., x n }
Elementy teorii informacji i kodowania
i kodowania Entropia, nierówność Krafta, kodowanie optymalne Marcin Jenczmyk m.jenczmyk@knm.katowice.pl 17 kwietnia 2015 M. Jenczmyk Spotkanie KNM i kodowania 1 / 20 Niech S = {x 1,..., x q } oznacza alfabet,
Podstawowe pojęcia. Teoria informacji
Kodowanie i kompresja informacji - Wykład 1 22 luty 2010 Literatura K. Sayood, Kompresja danych - wprowadzenie, READ ME 2002 (ISBN 83-7243-094-2) Literatura K. Sayood, Kompresja danych - wprowadzenie,
Teoria Informacji - wykład. Kodowanie wiadomości
Teoria Informacji - wykład Kodowanie wiadomości Definicja kodu Niech S={s 1, s 2,..., s q } oznacza dany zbiór elementów. Kodem nazywamy wówczas odwzorowanie zbioru wszystkich możliwych ciągów utworzonych
Teoria informacji i kodowania Ćwiczenia
Teoria informacji i kodowania Ćwiczenia Piotr Chołda, Andrzej Kamisiński Katedra Telekomunikacji Akademii Górniczo-Hutniczej Kod źródłowy Kodem źródłowym nazywamy funkcję różnowartościową, która elementom
Kompresja bezstratna. Entropia. Kod Huffmana
Kompresja bezstratna. Entropia. Kod Huffmana Kodowanie i bezpieczeństwo informacji - Wykład 10 29 kwietnia 2013 Teoria informacji Jeśli P(A) jest prawdopodobieństwem wystapienia informacji A to niech i(a)
teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015
teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015 1 zakres materiału zakres materiału 1. Czym jest teoria informacji? 2. Wprowadzenie matematyczne. 3. Entropia i informacja.
Entropia Kodowanie. Podstawy kompresji. Algorytmy kompresji danych. Sebastian Deorowicz
Algorytmy kompresji danych 2007 02 27 Plan wykładu 1 Modelowanie i kodowanie 2 Modelowanie i kodowanie Plan wykładu 1 Modelowanie i kodowanie 2 Modelowanie i kodowanie definicja stowarzyszona ze zbiorem
Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9,
1 Kody Tunstalla Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9, 14.04.2005 Inne podejście: słowa kodowe mają ustaloną długość, lecz mogą kodować ciągi liter z alfabetu wejściowego o różnej
Temat: Algorytm kompresji plików metodą Huffmana
Temat: Algorytm kompresji plików metodą Huffmana. Wymagania dotyczące kompresji danych Przez M oznaczmy zbiór wszystkich możliwych symboli występujących w pliku (alfabet pliku). Przykład M = 2, gdy plik
Kody Tunstalla. Kodowanie arytmetyczne
Kody Tunstalla. Kodowanie arytmetyczne Kodowanie i kompresja informacji - Wykład 3 8 marca 2010 Kody Tunstalla Wszystkie słowa kodowe maja ta sama długość ale jeden kod może kodować różna liczbę liter
Nierówność Krafta-McMillana, Kodowanie Huffmana
Nierówność Krafta-McMillana, Kodowanie Huffmana Kodowanie i kompresja informacji - Wykład 2 1 marca 2010 Test na jednoznaczna dekodowalność Kod a jest prefiksem kodu b jeśli b jest postaci ax. x nazywamy
Kodowanie Huffmana. Platforma programistyczna.net; materiały do laboratorium 2014/15 Marcin Wilczewski
Kodowanie Huffmana Platforma programistyczna.net; materiały do laboratorium 24/5 Marcin Wilczewski Algorytm Huffmana (David Huffman, 952) Algorytm Huffmana jest popularnym algorytmem generującym optymalny
Wstęp Statyczne kody Huffmana Dynamiczne kody Huffmana Praktyka. Kodowanie Huffmana. Dawid Duda. 4 marca 2004
4 marca 2004 Podstawowe oznaczenia i definicje Wymagania wobec kodu Podstawowa idea Podsumowanie Podstawowe oznaczenia i definicje Podstawowe oznaczenia i definicje: alfabet wejściowy: A = {a 1, a 2,...,
Wygra Polska czy Brazylia, czyli o tym jak zwięźle zapisywać informacje
Wygra Polska czy Brazylia, czyli o tym jak zwięźle zapisywać informacje Witold Tomaszewski Instytut Matematyki Politechniki Śląskiej e-mail: Witold.Tomaszewski@polsl.pl Je n ai fait celle-ci plus longue
Definicja. Jeśli. wtedy
Definicja Jeśli wtedy Cel kompresji: zredukowanie do minimum oczekiwanego (średniego) kosztu gdzie l i jest długością słowa kodu c i kodującego symbol a i Definicja Definicje Efektywność kodowania określamy
Kodowanie informacji
Kodowanie informacji Tomasz Wykład 4: kodowanie arytmetyczne Motywacja Podstawy i własności Liczby rzeczywiste Motywacje 1 średnia długość kodu Huffmana może odbiegać o p max + 0.086 od entropii, gdzie
Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład Kody liniowe - kodowanie w oparciu o macierz parzystości
Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład 13 1 Kody liniowe - kodowanie w oparciu o macierz parzystości Przykład Różne macierze parzystości dla kodu powtórzeniowego. Co wiemy z algebry
0-0000, 1-0001, 2-0010, 3-0011 itd... 9-1001.
KODOWANIE Jednym z problemów, z którymi spotykamy się w informatyce, jest problem właściwego wykorzystania pamięci. Konstruując algorytm staramy się zwykle nie tylko o zminimalizowanie kosztów czasowych
Def. Kod jednoznacznie definiowalny Def. Kod przedrostkowy Def. Kod optymalny. Przykłady kodów. Kody optymalne
Załóżmy, że mamy źródło S, które generuje symbole ze zbioru S={x, x 2,..., x N } z prawdopodobieństwem P={p, p 2,..., p N }, symbolom tym odpowiadają kody P={c, c 2,..., c N }. fektywność danego sposobu
Teoria informacji i kodowania Ćwiczenia Sem. zimowy 2016/2017
Kody źródłowe jednoznacznie dekodowalne Zadanie Ile najwięcej słów kodowych może liczyć kod binarny jednoznacznie dekodowalny, którego najdłuższe słowo ma siedem liter? (Odp. 28) Zadanie 2 Zbiór sześciu
teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015
teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015 1 wczoraj Wprowadzenie matematyczne. Entropia i informacja. Kodowanie. Kod ASCII. Stopa kodu. Kody bezprefiksowe.
Teoria informacji i kodowania Ćwiczenia Sem. zimowy 2016/2017
Algebra liniowa Zadanie 1 Czy jeśli wektory x, y i z, należące do binarnej przestrzeni wektorowej nad ciałem Galois GF (2), są liniowo niezależne, to można to samo orzec o następujących trzech wektorach:
Kompresja Kodowanie arytmetyczne. Dariusz Sobczuk
Kompresja Kodowanie arytmetyczne Dariusz Sobczuk Kodowanie arytmetyczne (lata 1960-te) Pierwsze prace w tym kierunku sięgają początków lat 60-tych XX wieku Pierwszy algorytm Eliasa nie został opublikowany
Niech x 1,..., x n będzie ciągiem zdarzeń. ---
Matematyczne podstawy kryptografii, Ćw2 TEMAT 7: Teoria Shannona. Kody Huffmana, entropia. BIBLIOGRAFIA: [] Cz. Bagiński, cez.wipb.pl, [2] T. H. Cormen, C. E. Leiserson, R. L Rivest, Wprowadzenie do algorytmów,
Matematyka dyskretna
Matematyka dyskretna Wykład 7: Kody korygujące błędy Gniewomir Sarbicki Błędy transmisji i kodowanie nadmiarowe Zakładamy, że przy pewnym małym prawdopodobieństwie ɛ przy transmisji bit zmienia wartość.
Kompresja danych kodowanie Huffmana. Dariusz Sobczuk
Kompresja danych kodowanie Huffmana Dariusz Sobczuk Plan wykładu Kodowanie metodą Shannona-Fano Kodowanie metodą Huffmana Elementarny kod Golomba Kod Golomba Kod Rice a kompresja danych 2 Efektywny kod
0 + 0 = 0, = 1, = 1, = 0.
5 Kody liniowe Jak już wiemy, w celu przesłania zakodowanego tekstu dzielimy go na bloki i do każdego z bloków dodajemy tak zwane bity sprawdzające. Bity te są w ścisłej zależności z bitami informacyjnymi,
Algorytmy zachłanne. dr inż. Urszula Gałązka
Algorytmy zachłanne dr inż. Urszula Gałązka Algorytm zachłanny O Dokonuje wyboru, który w danej chwili wydaje się najkorzystniejszy. O Mówimy, że jest to wybór lokalnie optymalny O W rzeczywistości nie
Entropia to wielkość określająca liczbę bitów informacji zawartej w danej wiadomości lub źródle. Spełnia ona trzy naturalne warunki: I(s) jest
Entropia to wielkość określająca liczbę bitów informacji zawartej w danej wiadomości lub źródle. Spełnia ona trzy naturalne warunki: I(s) jest malejącą funkcją prawdopodobieństwa zajścia zdarzenia s. I(s)
Algorytmy kodowania entropijnego
Algorytmy kodowania entropijnego 1. Kodowanie Shannona-Fano 2. Kodowanie Huffmana 3. Jednoznaczność kodów Huffmana. Kod o minimalnej wariancji 4. Dynamiczne kodowanie Huffmana Poprzedni wykład - podsumowanie
Modulacja i kodowanie. Labolatorium. Kodowanie źródłowe Kod Huffman a
Modulacja i kodowanie Labolatorium Kodowanie źródłowe Kod Huffman a W tym ćwiczeniu zajmiemy się kodowaniem źródłowym (source coding). 1. Kodowanie źródłowe Głównym celem kodowanie źródłowego jest zmniejszenie
mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. GOLOMBA I RICE'A
mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. KOMPRESJA ALGORYTMEM ARYTMETYCZNYM, GOLOMBA I RICE'A Idea algorytmu arytmetycznego Przykład kodowania arytmetycznego Renormalizacja
1. Synteza automatów Moore a i Mealy realizujących zadane przekształcenie 2. Transformacja automatu Moore a w automat Mealy i odwrotnie
Opracował: dr hab. inż. Jan Magott KATEDRA INFORMATYKI TECHNICZNEJ Ćwiczenia laboratoryjne z Logiki Układów Cyfrowych ćwiczenie 207 Temat: Automaty Moore'a i Mealy 1. Cel ćwiczenia Celem ćwiczenia jest
Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11,
1 Kwantyzacja skalarna Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11, 10.05.005 Kwantyzacja polega na reprezentowaniu dużego zbioru wartości (być może nieskończonego) za pomocą wartości
ZADANIE 1. Rozwiązanie:
EUROELEKTR Ogólnopolska Olimpiada Wiedzy Elektrycznej i Elektronicznej Rok szkolny 200/20 Rozwiązania zadań dla grupy teleinformatycznej na zawody II. stopnia ZNIE ramka logiczna w technologii MOS składa
Podstawy Informatyki: Kody. Korekcja błędów.
Podstawy Informatyki: Kody. Korekcja błędów. Adam Kolany Instytut Techniczny adamkolany@pm.katowice.pl Adam Kolany (PWSZ Nowy Sącz, IT) Podstawy Informatyki: Kody. Korekcja błędów. 11 stycznia 2012 1 /
Kwantyzacja wektorowa. Kodowanie różnicowe.
Kwantyzacja wektorowa. Kodowanie różnicowe. Kodowanie i kompresja informacji - Wykład 7 12 kwietnia 2010 Kwantyzacja wektorowa wprowadzenie Zamiast kwantyzować pojedyncze elementy kwantyzujemy całe bloki
Algorytmy kompresji. Kodowanie Huffmana, kodowanie arytmetyczne
Algorytmy kompresji Kodowanie Huffmana, kodowanie arytmetyczne Kodowanie arytmetyczne Peter Elias 1923-2001 Kodowanie arytmetyczne to metoda kodowania źródłowego dyskretnych źródeł sygnałów, stosowana
Przetwarzanie i transmisja danych multimedialnych. Wykład 3 Kodowanie Shannona Fano i Huffmana. Przemysław Sękalski.
Przetwarzanie i transmisja danych multimedialnych Wykład 3 Kodowanie Shannona Fano i Huffmana Przemysław Sękalski sekalski@dmcs.pl Politechnika Łódzka Katedra Mikroelektroniki i Technik Informatycznych
Kodowanie informacji. Przygotował: Ryszard Kijanka
Kodowanie informacji Przygotował: Ryszard Kijanka Komputer jest urządzeniem służącym do przetwarzania informacji. Informacją są liczby, ale także inne obiekty, takie jak litery, wartości logiczne, obrazy
Joint Photographic Experts Group
Joint Photographic Experts Group Artur Drozd Uniwersytet Jagielloński 14 maja 2010 1 Co to jest JPEG? Dlaczego powstał? 2 Transformata Fouriera 3 Dyskretna transformata kosinusowa (DCT-II) 4 Kodowanie
Kodowanie Shannona-Fano
Kodowanie Shannona-Fano Kodowanie Shannona-Fano znane było jeszcze przed kodowaniem Huffmana i w praktyce można dzięki niemu osiągnąć podobne wyniki, pomimo, że kod generowany tą metodą nie jest optymalny.
Podstawy kompresji danych
Podstawy kompresji danych Pojęcie kompresji W ogólności kompresja (kodowanie) jest procedurą (przekształceniem) zmiany reprezentacji wejściowego zbioru danych do postaci wymagającej mniejszej liczby bitów
Teoria Informacji i Metody Kompresji Danych
Teoria Informacji i Metody Kompresji Danych 1 Przykładowe zadania (dodatkowe materiały wykładowe) 2 Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL
JAO - lematy o pompowaniu dla jezykow bezkontekstowy
JAO - lematy o pompowaniu dla jezykow bezkontekstowych Postać normalna Chomsky ego Gramatyka G ze zbiorem nieterminali N i zbiorem terminali T jest w postaci normalnej Chomsky ego wtw gdy każda produkcja
Wielokryteriowa optymalizacja liniowa
Wielokryteriowa optymalizacja liniowa 1. Przy decyzjach złożonych kierujemy się zwykle więcej niż jednym kryterium. Postępowanie w takich sytuacjach nie jest jednoznaczne. Pojawiło się wiele sposobów dochodzenia
Przetwarzanie i transmisja danych multimedialnych. Wykład 2 Podstawy kompresji. Przemysław Sękalski.
Przetwarzanie i transmisja danych multimedialnych Wykład Podstawy kompresji Przemysław Sękalski sekalski@dmcs.pl Politechnika Łódzka Katedra Mikroelektroniki i Technik Informatycznych DMCS Zawartość wykładu.
Podstawy Automatyki. Wykład 9 - Podstawy matematyczne automatyki procesów dyskretnych. dr inż. Jakub Możaryn. Instytut Automatyki i Robotyki
Wykład 9 - Podstawy matematyczne automatyki procesów dyskretnych Instytut Automatyki i Robotyki Warszawa, 2015 Kody liczb całkowitych nieujemnych Kody liczbowe dzielimy na analityczne nieanalityczne (symboliczne)
Kodowanie i kompresja Streszczenie Studia dzienne Wykład 6
Kodowanie i kompresja Streszczenie Studia dzienne Wykład 6 1 Kody cykliczne: dekodowanie Definicja 1 (Syndrom) Niech K będzie kodem cyklicznym z wielomianem generuja- cym g(x). Resztę z dzielenia słowa
Kody blokowe Wykład 2, 10 III 2011
Kody blokowe Wykład 2, 10 III 2011 Literatura 1. R.M. Roth, Introduction to Coding Theory, 2006 2. W.C. Huffman, V. Pless, Fundamentals of Error-Correcting Codes, 2003 3. D.R. Hankerson et al., Coding
020 Liczby rzeczywiste
020 Liczby rzeczywiste N = {1,2,3,...} Z = { 0,1, 1,2, 2,...} m Q = { : m, n Z, n 0} n Operacje liczbowe Zbiór Dodawanie Odejmowanie Mnożenie Dzielenie N Z Q Pytanie Dlaczego zbiór liczb wymiernych nie
Programowanie liniowe
Programowanie liniowe Maciej Drwal maciej.drwal@pwr.wroc.pl 1 Problem programowania liniowego min x c T x (1) Ax b, (2) x 0. (3) gdzie A R m n, c R n, b R m. Oznaczmy przez x rozwiązanie optymalne, tzn.
Symbol, alfabet, łańcuch
Łańcuchy i zbiory łańcuchów Teoria automatów i języków formalnych Dr inŝ. Janusz Majewski Katedra Informatyki Symbol, alfabet, łańcuch Symbol Symbol jest to pojęcie niedefiniowane (synonimy: znak, litera)
KODY SYMBOLI. Materiały KODA, A.Przelaskowski. Koncepcja przedziałów nieskończonego alfabetu
KODY SYMBOLI Materiały KODA, A.Przelaskowski Koncepcja drzewa binarnego Metoda S-F Kod Huffmana Adaptacyjne drzewo Huffmana Problemy implementacji Koncepcja przedziałów nieskończonego alfabetu Proste kody
Notatki z Podstaw kodowania i kryptografii. switch486 WIZ : PWr na podstawie folii z wykładu i ćwiczeń dr inż. E. Kukli Złożone W Systemie L A TEX
Notatki z Podstaw kodowania i kryptografii switch486 WIZ : PWr na podstawie folii z wykładu i ćwiczeń dr inż. E. Kukli Złożone W Systemie L A TEX Wrocław 5.6.2008 Spis treści I Kodowanie 5 Wiadomość, a
Przepustowość kanału, odczytywanie wiadomości z kanału, poprawa wydajności kanału.
Przepustowość kanału, odczytywanie wiadomości z kanału, poprawa wydajności kanału Wiktor Miszuris 2 czerwca 2004 Przepustowość kanału Zacznijmy od wprowadzenia równości IA, B HB HB A HA HA B Można ją intuicyjnie
Zasada indukcji matematycznej
Zasada indukcji matematycznej Twierdzenie 1 (Zasada indukcji matematycznej). Niech ϕ(n) będzie formą zdaniową zmiennej n N 0. Załóżmy, że istnieje n 0 N 0 takie, że 1. ϕ(n 0 ) jest zdaniem prawdziwym,.
domykanie relacji, relacja równoważności, rozkłady zbiorów
1 of 8 2012-03-28 17:45 Logika i teoria mnogości/wykład 5: Para uporządkowana iloczyn kartezjański relacje domykanie relacji relacja równoważności rozkłady zbiorów From Studia Informatyczne < Logika i
Arytmetyka komputera
Arytmetyka komputera Systemy zapisu liczb System dziesiętny Podstawą układu dziesiętnego jest liczba 10, a wszystkie liczby można zapisywać dziesięcioma cyframi: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9. Jednostka
Wykład 2 Zmienne losowe i ich rozkłady
Wykład 2 Zmienne losowe i ich rozkłady Magdalena Frąszczak Wrocław, 11.10.2017r Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe Doświadczenie
Teoria Informacji i Metody Kompresji Danych
Teoria Informacji i Metody Kompresji Danych 1 Materiały wykładowe (fragmenty) 2 Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL kontakt osobisty
Kody splotowe. Zastosowanie
Kody splotowe Zastosowanie Niekiedy potrzeba buforowania fragmentu wiadomości przed zakodowaniem, tak jak to ma miejsce w koderze blokowym, jest przeszkodą, gdyż dane do zakodowania napływają strumieniem.
Entropia w układach dynamicznych Środowiskowe Studia Doktoranckie z Nauk Matematycznych Uniwersytet Jagielloński, Kraków, marzec-kwiecień 2013
Entropia w układach dynamicznych Środowiskowe Studia Doktoranckie z Nauk Matematycznych Uniwersytet Jagielloński, Kraków, marzec-kwiecień 2013 Tomasz Downarowicz Instytut Matematyki i Informatyki Politechniki
A i. i=1. i=1. i=1. i=1. W dalszej części skryptu będziemy mieli najczęściej do czynienia z miarami określonymi na rodzinach, które są σ - algebrami.
M. Beśka, Wstęp do teorii miary, rozdz. 3 25 3 Miara 3.1 Definicja miary i jej podstawowe własności Niech X będzie niepustym zbiorem, a A 2 X niepustą rodziną podzbiorów. Wtedy dowolne odwzorowanie : A
Definicja odwzorowania ciągłego i niektóre przykłady
Odwzorowania Pojęcie odwzorowania pomiędzy dwoma zbiorami było już definiowane, ale dawno, więc nie od rzeczy będzie przypomnieć, że odwzorowaniem nazywamy sposób przyporządkowania (niekoniecznie każdemu)
7. CIĄGI. WYKŁAD 5. Przykłady :
WYKŁAD 5 1 7. CIĄGI. CIĄGIEM NIESKOŃCZONYM nazywamy funkcję określoną na zbiorze liczb naturalnych, dodatnich, a wyrazami ciągu są wartości tej funkcji. CIĄGIEM SKOŃCZONYM nazywamy funkcję określoną na
Struktury formalne, czyli elementy Teorii Modeli
Struktury formalne, czyli elementy Teorii Modeli Szymon Wróbel, notatki z wykładu dra Szymona Żeberskiego semestr zimowy 2016/17 1 Język 1.1 Sygnatura językowa Sygnatura językowa: L = ({f i } i I, {P j
Wykład z równań różnicowych
Wykład z równań różnicowych 1 Wiadomości wstępne Umówmy się, że na czas tego wykładu zrezygnujemy z oznaczania n-tego wyrazu ciągu symbolem typu x n, y n itp. Zamiast tego pisać będziemy x (n), y (n) itp.
RACHUNEK PRAWDOPODOBIEŃSTWA - POJĘCIA WSTĘPNE MATERIAŁY POMOCNICZE - TEORIA
Wydział: WiLiŚ, Transport, sem.2 dr Jolanta Dymkowska RACHUNEK PRAWDOPODOBIEŃSTWA - POJĘCIA WSTĘPNE MATERIAŁY POMOCNICZE - TEORIA Przestrzeń probabilistyczna Modelem matematycznym (tj. teoretycznym, wyidealizowanym,
O oszczędnym dziennikarzu, czyli czym jest
O oszczędnym dziennikarzu, czyli czym jest informacja i jak ja mierzymy? Adam Doliwa doliwa@matman.uwm.edu.pl WYKŁAD DLA MŁODZIEŻY WYDZIAŁ MATEMATYKI I INFORMATYKI UWM Olsztyn, 9 lutego 2016 r. Adam Doliwa
19 marzec, Łańcuchy Markowa z czasem dyskretnym. Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136
Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 19 marzec, 2012 Przykłady procesów Markowa (i). P = (p ij ) - macierz stochastyczna, tzn. p ij 0, j p ij =
Systemy liczbowe. 1. Przedstawić w postaci sumy wag poszczególnych cyfr liczbę rzeczywistą R = (10).
Wprowadzenie do inżynierii przetwarzania informacji. Ćwiczenie 1. Systemy liczbowe Cel dydaktyczny: Poznanie zasad reprezentacji liczb w systemach pozycyjnych o różnych podstawach. Kodowanie liczb dziesiętnych
LOGIKA I TEORIA ZBIORÓW
LOGIKA I TEORIA ZBIORÓW Logika Logika jest nauką zajmującą się zdaniami Z punktu widzenia logiki istotne jest, czy dane zdanie jest prawdziwe, czy nie Nie jest natomiast istotne o czym to zdanie mówi Definicja
wiadomość komunikat - informacja Caius Julius Cesar Człowiek zasztyletowany przez senatorów na forum Romanum w Idy Marcowe roku DCCIX ab urbe condita
wiadomość komunikat - informacja Caius Julius Cesar Człowiek zasztyletowany przez senatorów na forum Romanum w Idy Marcowe roku DCCIX ab urbe condita Wojna Bambadocji przeciwko Alandii i Cezji Alandia:
1 Automaty niedeterministyczne
Szymon Toruńczyk 1 Automaty niedeterministyczne Automat niedeterministyczny A jest wyznaczony przez następujące składniki: Alfabet skończony A Zbiór stanów Q Zbiór stanów początkowych Q I Zbiór stanów
Algebrą nazywamy strukturę A = (A, {F i : i I }), gdzie A jest zbiorem zwanym uniwersum algebry, zaś F i : A F i
Algebrą nazywamy strukturę A = (A, {F i : i I }), gdzie A jest zbiorem zwanym uniwersum algebry, zaś F i : A F i A (symbol F i oznacza ilość argumentów funkcji F i ). W rozważanych przez nas algebrach
Wprowadzenie do informatyki i użytkowania komputerów. Kodowanie informacji System komputerowy
1 Wprowadzenie do informatyki i użytkowania komputerów Kodowanie informacji System komputerowy Kodowanie informacji 2 Co to jest? bit, bajt, kod ASCII. Jak działa system komputerowy? Co to jest? pamięć
Grupy. Permutacje 1. (G2) istnieje element jednostkowy (lub neutralny), tzn. taki element e G, że dla dowolnego a G zachodzi.
Grupy. Permutacje 1 1 Definicja grupy Niech G będzie zbiorem. Działaniem na zbiorze G nazywamy odwzorowanie (oznaczane, jak mnożenie, przez ) przyporządkowujące każdej parze uporządkowanej (a, b) G G element
KODY SYMBOLI. Kod Shannona-Fano. Algorytm S-F. Przykład S-F
KODY SYMBOLI Kod Shannona-Fano KODOWANIE DANYCH, A.Przelaskowski Metoda S-F Kod Huffmana Adaptacyjne drzewo Huffmana Problemy implementacji Kod Golomba Podsumowanie Kod drzewa binarnego Na wejściu rozkład:
Dane, informacja, programy. Kodowanie danych, kompresja stratna i bezstratna
Dane, informacja, programy Kodowanie danych, kompresja stratna i bezstratna DANE Uporządkowane, zorganizowane fakty. Główne grupy danych: tekstowe (znaki alfanumeryczne, znaki specjalne) graficzne (ilustracje,
Wstęp do Informatyki
Wstęp do Informatyki Bożena Woźna-Szcześniak bwozna@gmail.com Jan Długosz University, Poland Wykład 4 Bożena Woźna-Szcześniak (AJD) Wstęp do Informatyki Wykład 4 1 / 1 DZIELENIE LICZB BINARNYCH Dzielenie
Drzewa spinające MST dla grafów ważonych Maksymalne drzewo spinające Drzewo Steinera. Wykład 6. Drzewa cz. II
Wykład 6. Drzewa cz. II 1 / 65 drzewa spinające Drzewa spinające Zliczanie drzew spinających Drzewo T nazywamy drzewem rozpinającym (spinającym) (lub dendrytem) spójnego grafu G, jeżeli jest podgrafem
Matematyka dyskretna
Matematyka dyskretna Wykład 6: Ciała skończone i kongruencje Gniewomir Sarbicki 2 marca 2017 Relacja przystawania Definicja: Mówimy, że liczby a, b Z przystają modulo m (co oznaczamy jako a = b (mod m)),
Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014
Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014 Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe
Część wspólna (przekrój) A B składa się z wszystkich elementów, które należą jednocześnie do zbioru A i do zbioru B:
Zbiory 1 Rozważmy dowolne dwa zbiory A i B. Suma A B składa się z wszystkich elementów, które należą do zbioru A lub do zbioru B: (x A B) (x A x B). Część wspólna (przekrój) A B składa się z wszystkich
IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych,
IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. Definicja 1.1. Niech D będzie podzbiorem przestrzeni R n, n 2. Odwzorowanie f : D R nazywamy
Teoria liczb. Magdalena Lemańska. Magdalena Lemańska,
Teoria liczb Magdalena Lemańska Literatura Matematyka Dyskretna Andrzej Szepietowski http://wazniak.mimuw.edu.pl/ Discrete Mathematics Seymour Lipschutz, Marc Lipson Wstęp Teoria liczb jest dziedziną matematyki,
1 Zbiory. 1.1 Kiedy {a} = {b, c}? (tzn. podać warunki na a, b i c) 1.2 Udowodnić, że A {A} A =.
1 Zbiory 1.1 Kiedy {a} = {b, c}? (tzn. podać warunki na a, b i c) 1.2 Udowodnić, że A {A} A =. 1.3 Pokazać, że jeśli A, B oraz (A B) (B A) = C C, to A = B = C. 1.4 Niech {X t } będzie rodziną niepustych
Kompresja danych DKDA (7)
Kompresja danych DKDA (7) Marcin Gogolewski marcing@wmi.amu.edu.pl Uniwersytet im. Adama Mickiewicza w Poznaniu Poznań, 22 listopada 2016 1 Kwantyzacja skalarna Wprowadzenie Analiza jakości Typy kwantyzatorów
Teoria informacji i kodowania Ćwiczenia Sem. zimowy 2016/2017
Teoria informacji i kodowania Ćwiczenia Sem. zimowy 06/07 Źródła z amięcią Zadanie (kolokwium z lat orzednich) Obserwujemy źródło emitujące dwie wiadomości: $ oraz. Stwierdzono, że częstotliwości wystęowania
1 WPROWADZENIE 1. Agata Pilitowska. parzysta. 3. Znaleźć odległość kodu kontroli parzystości nad ciałem GF (q).
1 WPROWADZENIE 1 Kody korekcyjne - zadania Agata Pilitowska 1 Wprowadzenie 1. Pokazać, że dla dowolnych wektorów c, f Z n 2, d(c, f ) = n (c i f i ) 2, i=1 wt(c + f ) = wt(c) + wt(f ) 2wt(cf ), wt(c +
VIII. Zastosowanie rachunku różniczkowego do badania funkcji. 1. Twierdzenia o wartości średniej. Monotoniczność funkcji.
VIII. Zastosowanie rachunku różniczkowego do badania funkcji. 1. Twierdzenia o wartości średniej. Monotoniczność funkcji. Twierdzenie 1.1. (Rolle a) Jeżeli funkcja f jest ciągła w przedziale domkniętym
Liczby zespolone. x + 2 = 0.
Liczby zespolone 1 Wiadomości wstępne Rozważmy równanie wielomianowe postaci x + 2 = 0. Współczynniki wielomianu stojącego po lewej stronie są liczbami całkowitymi i jedyny pierwiastek x = 2 jest liczbą
Laboratorium ochrony danych
Laboratorium ochrony danych Ćwiczenie nr 3 Temat ćwiczenia: Kod BCH Cel dydaktyczny: Zapoznanie się z metodami detekcji i korekcji błędów transmisyjnych za pomocą binarnych kodów cyklicznych, na przykładzie
10110 =
1. (6 punktów) Niedeterministyczny automat skończony nazwiemy jednoznacznym, jeśli dla każdego akceptowanego słowa istnieje dokładnie jeden bieg akceptujący. Napisać algorytm sprawdzający, czy niedeterministyczny
Dlaczego nie wystarczają liczby wymierne
Dlaczego nie wystarczają liczby wymierne Analiza zajmuje się problemami, w których pojawia się przejście graniczne. Przykładami takich problemów w matematyce bądź fizyce mogą być: 1. Pojęcie prędkości
Techniki multimedialne
Techniki multimedialne Digitalizacja podstawą rozwoju systemów multimedialnych. Digitalizacja czyli obróbka cyfrowa oznacza przetwarzanie wszystkich typów informacji - słów, dźwięków, ilustracji, wideo
Przykładami ciągów, które Czytelnik dobrze zna (a jeśli nie, to niniejszym poznaje), jest ciąg arytmetyczny:
Podstawowe definicje Definicja ciągu Ciągiem nazywamy funkcję na zbiorze liczb naturalnych, tzn. przyporządkowanie każdej liczbie naturalnej jakiejś liczby rzeczywistej. (Mówimy wtedy o ciągu o wyrazach
Języki i metodyka programowania. Reprezentacja danych w systemach komputerowych
Reprezentacja danych w systemach komputerowych Kod (łac. codex - spis), ciąg składników sygnału (kombinacji sygnałów elementarnych, np. kropek i kresek, impulsów prądu, symboli) oraz reguła ich przyporządkowania