Podstawowe pojęcia. Teoria informacji

Podobne dokumenty
Kompresja bezstratna. Entropia. Kod Huffmana

Kodowanie i entropia

teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015

Kody Tunstalla. Kodowanie arytmetyczne

Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9,

Elementy teorii informacji i kodowania

Temat: Algorytm kompresji plików metodą Huffmana

teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015

Entropia Kodowanie. Podstawy kompresji. Algorytmy kompresji danych. Sebastian Deorowicz

Granica kompresji Kodowanie Shannona Kodowanie Huffmana Kodowanie ciągów Kodowanie arytmetyczne. Kody. Marek Śmieja. Teoria informacji 1 / 35

Kodowanie informacji

Wstęp Statyczne kody Huffmana Dynamiczne kody Huffmana Praktyka. Kodowanie Huffmana. Dawid Duda. 4 marca 2004

Nierówność Krafta-McMillana, Kodowanie Huffmana

mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. GOLOMBA I RICE'A

Wygra Polska czy Brazylia, czyli o tym jak zwięźle zapisywać informacje

Teoria Informacji - wykład. Kodowanie wiadomości

Kompresja danych - wprowadzenie. 1. Konieczno kompresji 2. Definicja, typy kompresji 3. Modelowanie 4. Podstawy teorii informacji 5.

Techniki multimedialne

Kodowanie Huffmana. Platforma programistyczna.net; materiały do laboratorium 2014/15 Marcin Wilczewski

Kwantyzacja wektorowa. Kodowanie różnicowe.

Założenia i obszar zastosowań. JPEG - algorytm kodowania obrazu. Geneza algorytmu KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG

Teoria informacji i kodowania Ćwiczenia

Kompresja Kodowanie arytmetyczne. Dariusz Sobczuk

Niech x 1,..., x n będzie ciągiem zdarzeń. ---

Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład Kody liniowe - kodowanie w oparciu o macierz parzystości

Teoria Informacji i Metody Kompresji Danych

ZESPÓŁ LABORATORIÓW TELEMATYKI TRANSPORTU ZAKŁAD TELEKOMUNIKACJI W TRANSPORCIE WYDZIAŁ TRANSPORTU POLITECHNIKI WARSZAWSKIEJ

Systemy liczenia. 333= 3*100+3*10+3*1

Podstawy kompresji danych

Kompresja danych kodowanie Huffmana. Dariusz Sobczuk

Def. Kod jednoznacznie definiowalny Def. Kod przedrostkowy Def. Kod optymalny. Przykłady kodów. Kody optymalne

Modulacja i kodowanie. Labolatorium. Kodowanie źródłowe Kod Huffman a

Wybrane metody kompresji obrazów

Dane, informacja, programy. Kodowanie danych, kompresja stratna i bezstratna

Podstawy Informatyki: Kody. Korekcja błędów.

Technologie Informacyjne

Wprowadzenie. Algorytmy kompresji danych. Sebastian Deorowicz. Politechnika Śląska. Sebastian Deorowicz (PŚl) Wprowadzenie / 60

Algorytmy kompresji. Kodowanie Huffmana, kodowanie arytmetyczne

Algorytmy kodowania entropijnego

Przetwarzanie i transmisja danych multimedialnych. Wykład 3 Kodowanie Shannona Fano i Huffmana. Przemysław Sękalski.

Algorytmy i struktury danych. wykład 8

O oszczędnym dziennikarzu, czyli czym jest

Wykład III: Kompresja danych. Studia Podyplomowe INFORMATYKA Podstawy Informatyki

dr inż. Jacek Naruniec

Pracownia Komputerowa wyk ad VII

Przemysłowe Sieci Informatyczne (PSI) Wykład #3 kodowanie i wstęp do teorii informacji WYDZIAŁ ELEKTROTECHNIKI I AUTOMATYKI KATEDRA INŻYNIERII

Zastosowanie kompresji w kryptografii Piotr Piotrowski

Definicja. Jeśli. wtedy

ZADANIE 1. Rozwiązanie:

Komunikacja człowiek-komputer

Wykład II. Reprezentacja danych w technice cyfrowej. Studia Podyplomowe INFORMATYKA Podstawy Informatyki

12. Wprowadzenie Sygnały techniki cyfrowej Systemy liczbowe. Matematyka: Elektronika:

Tranzystor JFET i MOSFET zas. działania

ARCHITEKRURA KOMPUTERÓW Kodowanie liczb ze znakiem

Matematyka dyskretna

Dane, informacja, programy. Kodowanie danych, kompresja stratna i bezstratna

0-0000, , , itd

KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG

Systemy liczbowe. 1. Przedstawić w postaci sumy wag poszczególnych cyfr liczbę rzeczywistą R = (10).

AKD Metody słownikowe

L6.1 Systemy liczenia stosowane w informatyce

Kodowanie i kompresja Streszczenie Studia dzienne Wykład 6

Fundamentals of Data Compression

Teoria informacji i kodowania Ćwiczenia Sem. zimowy 2016/2017

Wprowadzenie do informatyki i użytkowania komputerów. Kodowanie informacji System komputerowy

ZESZYTY ETI ZESPOŁU SZKÓŁ W TARNOBRZEGU Nr 1 Seria: Teleinformatyka 2013 KOMPRESJA BEZSTRATNA PLIKÓW ALGORYTM HUFFMANA

1.1. Pozycyjne systemy liczbowe

2 Kryptografia: algorytmy symetryczne

Według raportu ISO z 1988 roku algorytm JPEG składa się z następujących kroków: 0.5, = V i, j. /Q i, j

Algorytmy zachłanne. dr inż. Urszula Gałązka

Kodowanie transformacyjne. Plan 1. Zasada 2. Rodzaje transformacji 3. Standard JPEG

Kodowanie predykcyjne

Przepustowość kanału, odczytywanie wiadomości z kanału, poprawa wydajności kanału.

ARYTMETYKA BINARNA. Dziesiątkowy system pozycyjny nie jest jedynym sposobem kodowania liczb z jakim mamy na co dzień do czynienia.

PAMIĘĆ RAM. Rysunek 1. Blokowy schemat pamięci

Przetwarzanie i transmisja danych multimedialnych. Wykład 2 Podstawy kompresji. Przemysław Sękalski.

Kody Huffmana. Konrad Wypyski. 11 lutego 2006 roku

Kodowanie informacji. Przygotował: Ryszard Kijanka

wiadomość komunikat - informacja Caius Julius Cesar Człowiek zasztyletowany przez senatorów na forum Romanum w Idy Marcowe roku DCCIX ab urbe condita

Wstęp do Informatyki

pobieramy pierwszą literę komunikatu i wypełniamy nią (wszystkie pozycje tą samą literą) bufor słownikowy.

Dla człowieka naturalnym sposobem liczenia jest korzystanie z systemu dziesiętnego, dla komputera natomiast korzystanie z zapisu dwójkowego

Kodowanie podpasmowe

Algorytmy i struktury danych

KODY SYMBOLI. Materiały KODA, A.Przelaskowski. Koncepcja przedziałów nieskończonego alfabetu

Micha Strzelecki Metody przetwarzania i analizy obrazów biomedycznych (2)

WOJEWÓDZKI KONKURS INFORMATYCZNY DLA UCZNIÓW DOTYCHCZASOWYCH GIMNAZJÓW ETAP WOJEWÓDZKI BIAŁYSTOK, 16 MARCA 2018

Kodowanie informacji

prawda symbol WIEDZA DANE komunikat fałsz liczba INFORMACJA (nie tyko w informatyce) kod znak wiadomość ENTROPIA forma przekaz

Kodowanie Shannona-Fano

Kompresja danych DKDA (7)

Zapis liczb binarnych ze znakiem

DZIESIĘTNY SYSTEM LICZBOWY

Joint Photographic Experts Group

Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11,

Kody splotowe. Zastosowanie

0 + 0 = 0, = 1, = 1, = 0.

Wstęp do programowania. Reprezentacje liczb. Liczby naturalne, całkowite i rzeczywiste w układzie binarnym

Kompresja obrazów w statycznych - algorytm JPEG

Generowanie ciągów bitów losowych z wykorzystaniem sygnałów pochodzących z komputera

Transkrypt:

Kodowanie i kompresja informacji - Wykład 1 22 luty 2010

Literatura K. Sayood, Kompresja danych - wprowadzenie, READ ME 2002 (ISBN 83-7243-094-2)

Literatura K. Sayood, Kompresja danych - wprowadzenie, READ ME 2002 (ISBN 83-7243-094-2) J. Adamek, Fundations of Coding, Wiley 1991 (ISBN 0-47-162187-0)

Literatura K. Sayood, Kompresja danych - wprowadzenie, READ ME 2002 (ISBN 83-7243-094-2) J. Adamek, Fundations of Coding, Wiley 1991 (ISBN 0-47-162187-0) R. Hamming, Coding and Information Theory, Prentice-Hall (ISBN 0-13-139139-1)

Literatura K. Sayood, Kompresja danych - wprowadzenie, READ ME 2002 (ISBN 83-7243-094-2) J. Adamek, Fundations of Coding, Wiley 1991 (ISBN 0-47-162187-0) R. Hamming, Coding and Information Theory, Prentice-Hall (ISBN 0-13-139139-1) A. Drozdek, Wprowadzenie do kompresji danych, WNT 1999 (ISBN 83-204-2303-1)

? Przesuwajacy się palec pisze, napisawszy, 1 Przekład Barbary Czuszkiewicz.

? Przesuwajacy się palec pisze, napisawszy, przesuwa się dalej, nawet cała twa pobożność ani umysł, 1 Przekład Barbary Czuszkiewicz.

? Przesuwajacy się palec pisze, napisawszy, przesuwa się dalej, nawet cała twa pobożność ani umysł, nie namówia go do odwołania choćby połowy linijki, 1 Przekład Barbary Czuszkiewicz.

? Przesuwajacy się palec pisze, napisawszy, przesuwa się dalej, nawet cała twa pobożność ani umysł, nie namówia go do odwołania choćby połowy linijki, ani też wszystkie twe łzy nie zmyja z tego ni słowa. (Omar Chajjam, Rubajaty 1 ) 1 Przekład Barbary Czuszkiewicz.

Rodzaje kodowania Kodowanie Przyporzadkowanie elementom jakiegoś alfabetu ciagów binarnych.

Rodzaje kodowania Kodowanie Przyporzadkowanie elementom jakiegoś alfabetu ciagów binarnych. Kodowanie może mieć różne cele:

Rodzaje kodowania Kodowanie Przyporzadkowanie elementom jakiegoś alfabetu ciagów binarnych. Kodowanie może mieć różne cele: Zmniejszenie objętości danych kompresja.

Rodzaje kodowania Kodowanie Przyporzadkowanie elementom jakiegoś alfabetu ciagów binarnych. Kodowanie może mieć różne cele: Zmniejszenie objętości danych kompresja. Zapewnienie odporności na błędy kody korekcyjne.

Rodzaje kodowania Kodowanie Przyporzadkowanie elementom jakiegoś alfabetu ciagów binarnych. Kodowanie może mieć różne cele: Zmniejszenie objętości danych kompresja. Zapewnienie odporności na błędy kody korekcyjne. Zapewnienie poufności danych kryptografia.

Kompresja bezstratna i stratna Kompresje bezstratna (lossless compression) Z postaci skompresowanej można (zawsze!) odtworzyć postać danych identyczna z oryginałem.

Kompresja bezstratna i stratna Kompresje bezstratna (lossless compression) Z postaci skompresowanej można (zawsze!) odtworzyć postać danych identyczna z oryginałem. Kompresja stratna (lossy compression) Algorytm dopuszcza pewien poziom utraty informacji w zamian za lepszy współczynnik kompresji. Uwaga: W niektórych zastosowaniach może być to niebezpieczne! (np. obrazy medyczne)

Rodzaje kodów Kody stałej długości np. kody ASCII o długości 8 bitów. (Ponieważ długość jest stała nie ma kłopotu z podziałem na znaki.)

Rodzaje kodów Kody stałej długości np. kody ASCII o długości 8 bitów. (Ponieważ długość jest stała nie ma kłopotu z podziałem na znaki.) Kody o różnej długości kody prefiksowe, kod Morse a. (Ważne jest zapewnienie, że kody da się prawidłowo odczytać.)

Kody jednoznaczne Litera Prawd. kod 1 kod 2 kod 3 kod 4 a 1 0,5 0 0 0 0 a 2 0,25 0 1 10 01 a 3 0,125 1 00 110 011 a 4 0,125 10 11 111 111 Średnia długość 1,125 1,25 1,75 1,75

Kody jednoznaczne Litera Prawd. kod 1 kod 2 kod 3 kod 4 a 1 0,5 0 0 0 0 a 2 0,25 0 1 10 01 a 3 0,125 1 00 110 011 a 4 0,125 10 11 111 111 Średnia długość 1,125 1,25 1,75 1,75 kod 2: 1111 - czego to jest kod?

Kody jednoznaczne Litera Prawd. kod 1 kod 2 kod 3 kod 4 a 1 0,5 0 0 0 0 a 2 0,25 0 1 10 01 a 3 0,125 1 00 110 011 a 4 0,125 10 11 111 111 Średnia długość 1,125 1,25 1,75 1,75 kod 2: 1111 - czego to jest kod? kod 3: kod prefiksowy - żaden kod nie jest prefiksem drugiego.

Kody jednoznaczne Litera Prawd. kod 1 kod 2 kod 3 kod 4 a 1 0,5 0 0 0 0 a 2 0,25 0 1 10 01 a 3 0,125 1 00 110 011 a 4 0,125 10 11 111 111 Średnia długość 1,125 1,25 1,75 1,75 kod 2: 1111 - czego to jest kod? kod 3: kod prefiksowy - żaden kod nie jest prefiksem drugiego. kod 4: 011111111111: co jest pierwsza litera?

Techniki kompresji Dwa algorytmy - kompresja i dekompresja.

Techniki kompresji Dwa algorytmy - kompresja i dekompresja. Kompresja bezstratna dane po kompresji i dekompresji sa identyczne z danymi wejściowymi.

Techniki kompresji Dwa algorytmy - kompresja i dekompresja. Kompresja bezstratna dane po kompresji i dekompresji sa identyczne z danymi wejściowymi. Kompresja stratna dane wejściowe sa wstępnie przetwarzane aby zwiększyć stopień kompresji ale po dekompresji sa różne od wejściowych.

Miary jakości kompresji Stosunek liczby bitów danych do bitów po kompresji.

Miary jakości kompresji Stosunek liczby bitów danych do bitów po kompresji. Procentowy stosunek bitów po kompresji do bitów danych.

Miary jakości kompresji Stosunek liczby bitów danych do bitów po kompresji. Procentowy stosunek bitów po kompresji do bitów danych. Czas kompresji i dekompresji w zależności od sposobu użycia może być ważny.

Modelowanie danych - Przykład 1 Weźmy ciag: 9 11 11 11 14 13 15 17 16 17 20 21

Modelowanie danych - Przykład 1 Weźmy ciag: 9 11 11 11 14 13 15 17 16 17 20 21 Do zapamiętania tego ciagu dosłownie potrzebujemy 5 bitów na każda liczbę.

Modelowanie danych - Przykład 1 Weźmy ciag: 9 11 11 11 14 13 15 17 16 17 20 21 Do zapamiętania tego ciagu dosłownie potrzebujemy 5 bitów na każda liczbę. Weźmy wzory ˆx n = n + 8 i e n = x n ˆx n.

Modelowanie danych - Przykład 1 Weźmy ciag: 9 11 11 11 14 13 15 17 16 17 20 21 Do zapamiętania tego ciagu dosłownie potrzebujemy 5 bitów na każda liczbę. Weźmy wzory ˆx n = n + 8 i e n = x n ˆx n. Wówczas ciag e n ma postać: 0 1 0-1 1-1 0 1-1 -1 1 1

Modelowanie danych - Przykład 1 Weźmy ciag: 9 11 11 11 14 13 15 17 16 17 20 21 Do zapamiętania tego ciagu dosłownie potrzebujemy 5 bitów na każda liczbę. Weźmy wzory ˆx n = n + 8 i e n = x n ˆx n. Wówczas ciag e n ma postać: 0 1 0-1 1-1 0 1-1 -1 1 1 Teraz dla każdego elementu nowego ciagu wystarcza 2 bity.

Modelowanie danych - Przykład 1 Weźmy ciag: 9 11 11 11 14 13 15 17 16 17 20 21 Do zapamiętania tego ciagu dosłownie potrzebujemy 5 bitów na każda liczbę. Weźmy wzory ˆx n = n + 8 i e n = x n ˆx n. Wówczas ciag e n ma postać: 0 1 0-1 1-1 0 1-1 -1 1 1 Teraz dla każdego elementu nowego ciagu wystarcza 2 bity. Dane spełniaja w przybliżeniu pewna regułę.

Modelowanie danych - Przykład 2 Weźmy ciag: 27 28 29 28 26 27 29 28 30 32 34 36 38

Modelowanie danych - Przykład 2 Weźmy ciag: 27 28 29 28 26 27 29 28 30 32 34 36 38 Do zapamiętania tego ciagu dosłownie potrzebujemy 6 bitów na każda liczbę.

Modelowanie danych - Przykład 2 Weźmy ciag: 27 28 29 28 26 27 29 28 30 32 34 36 38 Do zapamiętania tego ciagu dosłownie potrzebujemy 6 bitów na każda liczbę. Każda wartość w ciagu jest bliska poprzedniej.

Modelowanie danych - Przykład 2 Weźmy ciag: 27 28 29 28 26 27 29 28 30 32 34 36 38 Do zapamiętania tego ciagu dosłownie potrzebujemy 6 bitów na każda liczbę. Każda wartość w ciagu jest bliska poprzedniej. Weźmy wzory e n = x n x n 1, e 1 = x 1. Nowy ciag ma postać: 27 1 1-1 -2 1 2-1 2 2 2 2 2

Modelowanie danych - Przykład 2 Weźmy ciag: 27 28 29 28 26 27 29 28 30 32 34 36 38 Do zapamiętania tego ciagu dosłownie potrzebujemy 6 bitów na każda liczbę. Każda wartość w ciagu jest bliska poprzedniej. Weźmy wzory e n = x n x n 1, e 1 = x 1. Nowy ciag ma postać: 27 1 1-1 -2 1 2-1 2 2 2 2 2 Teraz ciag do zakodowania jest prostszy.

Modelowanie danych - Przykład 3 Weźmy tekst: a_barayaran_array_ran_far_faar_faaar_away.

Modelowanie danych - Przykład 3 Weźmy tekst: a_barayaran_array_ran_far_faar_faaar_away. Mamy 8 różnych symboli więc na każdy potrzebujemy 3 bity.

Modelowanie danych - Przykład 3 Weźmy tekst: a_barayaran_array_ran_far_faar_faaar_away. Mamy 8 różnych symboli więc na każdy potrzebujemy 3 bity. Jeśli użyjemy kodu z tabelki to zostanie użytych 106 bitów zamiast 123 (2,58 bitu na symbol) a _ b f n r w y 1 001 01100 0100 0111 000 01101 0101

Modelowanie danych - Przykład 3 Weźmy tekst: a_barayaran_array_ran_far_faar_faaar_away. Mamy 8 różnych symboli więc na każdy potrzebujemy 3 bity. Jeśli użyjemy kodu z tabelki to zostanie użytych 106 bitów zamiast 123 (2,58 bitu na symbol) a _ b f n r w y 1 001 01100 0100 0111 000 01101 0101 Wykorzystujemy własności statystyczne danych.

Zagadka Czy istnieje algorytm kompresji bezstratnej, który skompresuje wszystkie podane mu dane?

Odpowiedź Kompresja bezstratna jest funkcja różnowartościowa.

Odpowiedź Kompresja bezstratna jest funkcja różnowartościowa. Różnych danych długości n jest 2 n (ciagi bitów).

Odpowiedź Kompresja bezstratna jest funkcja różnowartościowa. Różnych danych długości n jest 2 n (ciagi bitów). Różnych ciagów bitowych długości mniejszej niż n jest 2 n 1. ( n 1 i=1 2i )

Odpowiedź Kompresja bezstratna jest funkcja różnowartościowa. Różnych danych długości n jest 2 n (ciagi bitów). Różnych ciagów bitowych długości mniejszej niż n jest 2 n 1. ( n 1 i=1 2i ) Wniosek 1: istnieje ciag który nie może być skompresowany.

Odpowiedź Kompresja bezstratna jest funkcja różnowartościowa. Różnych danych długości n jest 2 n (ciagi bitów). Różnych ciagów bitowych długości mniejszej niż n jest 2 n 1. ( n 1 i=1 2i ) Wniosek 1: istnieje ciag który nie może być skompresowany. Wniosek 2: ponad połowa ciagów skróci się o co najwyżej 1 bit.

Teoria informacji Jeśli P(A) jest prawdopodobieństwem wystapienia informacji A to niech i(a) = log 1 P(A) będzie miara tej informacji. = log P(A)

Teoria informacji Jeśli P(A) jest prawdopodobieństwem wystapienia informacji A to niech i(a) = log 1 P(A) będzie miara tej informacji. Jeśli A i B sa niezależne, to i(ab) = log = log P(A) 1 P(AB) = log 1 P(A)P(B) = = log 1 P(A) + log 1 P(B) = i(a) + i(b)

Teoria informacji Jeśli P(A) jest prawdopodobieństwem wystapienia informacji A to niech i(a) = log 1 P(A) będzie miara tej informacji. Jeśli A i B sa niezależne, to i(ab) = log = log P(A) 1 P(AB) = log 1 P(A)P(B) = = log 1 P(A) + log 1 P(B) = i(a) + i(b) Podstawa logarytmu jest 2 a jednostka informacji bit.

Teoria informacji Załóżmy, że mamy zbiór wiadomości A 1,..., A n, które pojawiaja się z prawdopodobieństwami P(A 1 ),..., P(A n ) ( n i=1 P(A i) = 1).

Teoria informacji Załóżmy, że mamy zbiór wiadomości A 1,..., A n, które pojawiaja się z prawdopodobieństwami P(A 1 ),..., P(A n ) ( n i=1 P(A i) = 1). Średnia informacja w tym zbiorze jest określona wzorem n H = P(A i )i(a i ) i=1 Wielkość tę nazywamy entropia.

Teoria informacji Załóżmy, że mamy zbiór wiadomości A 1,..., A n, które pojawiaja się z prawdopodobieństwami P(A 1 ),..., P(A n ) ( n i=1 P(A i) = 1). Średnia informacja w tym zbiorze jest określona wzorem n H = P(A i )i(a i ) i=1 Wielkość tę nazywamy entropia. Kody jednoznacznie dekodowalne w modelu z niezależnymi wystapieniami symboli musza mieć średnia długość co najmniej równa entropii.

Przykład Weźmy ciag 1 2 3 2 3 4 5 4 5 6 7 8 9 8 9 10

Przykład Weźmy ciag 1 2 3 2 3 4 5 4 5 6 7 8 9 8 9 10 P(1) = P(6) = P(7) = P(10) = 1 16, P(2) = P(3) = P(4) = P(5) = P(8) = P(9) = 2 16

Przykład Weźmy ciag 1 2 3 2 3 4 5 4 5 6 7 8 9 8 9 10 P(1) = P(6) = P(7) = P(10) = 1, 16 P(2) = P(3) = P(4) = P(5) = P(8) = P(9) = 2 16 H = 10 i=1 P(i) log P(i) = 3, 25

Przykład Weźmy ciag 1 2 3 2 3 4 5 4 5 6 7 8 9 8 9 10 P(1) = P(6) = P(7) = P(10) = 1, 16 P(2) = P(3) = P(4) = P(5) = P(8) = P(9) = 2 16 H = 10 i=1 P(i) log P(i) = 3, 25 Najlepszy schemat kodujacy ten ciag wymaga 3,25 bitu na znak.

Przykład Weźmy ciag 1 2 3 2 3 4 5 4 5 6 7 8 9 8 9 10 P(1) = P(6) = P(7) = P(10) = 1, 16 P(2) = P(3) = P(4) = P(5) = P(8) = P(9) = 2 16 H = 10 i=1 P(i) log P(i) = 3, 25 Najlepszy schemat kodujacy ten ciag wymaga 3,25 bitu na znak. Jeśli jednak założymy, że elementy ciagu nie sa niezależne i zastapimy ciag różnicami to otrzymamy 1 1 1-1 1 1 1-1 1 1 1 1 1-1 1 1

Przykład Weźmy ciag 1 2 1 2 3 3 3 3 1 2 3 3 3 3 1 2 3 3 1 2

Przykład Weźmy ciag 1 2 1 2 3 3 3 3 1 2 3 3 3 3 1 2 3 3 1 2 Prawdopodobieństwa wynosza: P(1) = P(2) = 1 4 i P(3) = 1. 2

Przykład Weźmy ciag 1 2 1 2 3 3 3 3 1 2 3 3 3 3 1 2 3 3 1 2 Prawdopodobieństwa wynosza: P(1) = P(2) = 1 4 i P(3) = 1. 2 Entropia jest równa 1,5 bitu na znak.

Przykład Weźmy ciag 1 2 1 2 3 3 3 3 1 2 3 3 3 3 1 2 3 3 1 2 Prawdopodobieństwa wynosza: P(1) = P(2) = 1 4 i P(3) = 1. 2 Entropia jest równa 1,5 bitu na znak. Jeśli jednak weźmiemy bloki złożone z dwóch znaków to P(12) = 1 i P(33) = 1 czyli entropia jest 2 2 równa 1 bit na parę (0,5 bitu na znak).