Teoria informacji i kodowania Ćwiczenia Sem. zimowy 2016/2017

Wielkość: px
Rozpocząć pokaz od strony:

Download "Teoria informacji i kodowania Ćwiczenia Sem. zimowy 2016/2017"

Transkrypt

1 Kody źródłowe jednoznacznie dekodowalne Zadanie Ile najwięcej słów kodowych może liczyć kod binarny jednoznacznie dekodowalny, którego najdłuższe słowo ma siedem liter? (Odp. 28) Zadanie 2 Zbiór sześciu wiadomości x,..., x i,..., x 6 zakodowano według pięciu różnych kodów A F podanych w poniższej tabeli: Wiadomość p(x i ) Kod A Kod B Kod C Kod D Kod E x x 2 x 3 x 4 x 5 x Określ, które z podanych kodów są jednoznacznie dekodowalne. Policz średnią długość dla każdego kodu jednoznacznie dekodowalnego. Zadanie 3 Czy można w alfabecie ternarnym skonstruować kod jednoznacznie dekodowalny, jeśli długości słów kodowych miałyby wynosić:, 2, 2, 2, 2, 2, 3, 3, 3, 3? A jeśli długości słów kodowych miałyby wynosić:, 2, 2, 2, 2, 2, 3, 3, 3? Jak wiele takich kodów (różnych) można skonstruować? (Odp. 6,53,840) Zadanie 4 (kolokwium z lat poprzednich) Zbiór dziesięciu wiadomości x,..., x i,..., x 0 należy zakodować w słowa kodowe o długościach odpowiednio l,..., l i,..., l 0 zebranych w tabeli poniżej (podano warianty dla trzech kodów: A, B, C należy udzielić odpowiedzi dla każdego kodu oddzielnie). Proszę określić minimalną długość alfabetu kodowego, dla którego tak skonstruowany kod jest natychmiastowo dekodowalny. Proszę podać taki przykładowy kod. i l i B A C Zadanie 5 Załóżmy, że alfabet kodu liczy D elementów oraz że sekwencja n liczb całkowitych l i o następującej charakterystyce: l l i l n, spełnia nierówność McMillana-Krafta. Na ile sposobów można wybrać słowa kodowe w,..., w n o długościach l(w i ) = l i, tak żeby zbiór tych słów kodowych mógł posłużyć do utworzenia kodu jednoznacznie dekodowalnego? Strona z 7

2 Kody źródłowe zwięzłe Zadanie 6 Źródło generuje równoprawdopodobne 4-symbolowe słowa kodowe kodu zwięzłego trójsymbolowego. Policz, ile maksymalnie informacji o źródle można uzyskać po odebraniu ośmiu słów. (Odp. Ok. 50 bit) Zadanie 7 Udowodnij że dla każdego kodu zwięzłego (ewentualnie kodu optymalnego) dla źródła o rozkładzie prawdopodobieństwa (p i ) zachodzi następująca zależność między prawdopodobieństwami wystąpienia wiadomości a długościami reprezentujących je słów kodowych l i : p j > p k l j l k. Zadanie 8 Źródło generuje trzy wiadomości z prawdopodobieństwami: p p 2 p 3. Pokaż, że średnia długość binarnego kodu zwięzłego C dla tego źródła wynosi: L(C) = 2 p. Ile będzie wynosiła średnia długość słowa kodu tego typu dla źródła generującego cztery wiadomości z prawdopodobieństwami: p p 2 p 3 p 4? Zadanie 9 Zakoduj w binarnym kodzie Shannona-Fano zbiór dziesięciu jednakowo prawdopodobnych wiadomości. Wykaż, że jest to kod zwięzły. Zadanie 0 Znajdź entropię źródła X, które generuje nieskończenie wiele wiadomości m, m 2,..., m i,... (zbiór wiadomości jest równoliczny ze zbiorem liczb naturalnych) o prawdopodobieństwie: p i = 2 i (i =, 2, 3,... ). Znajdź optymalny binarny kod jednoznacznie dekodowalny i oblicz jego średnią długość. (Odp. 2 bit /wiadom.) Zadanie Źródło generuje sto różnych wiadomości w taki sposób, że ograniczenie dolne średniej długości słowa kodu źródłowego jednoznacznie dekodowalnego jest najmniej korzystne z możliwych. Proszę znaleźć najmniejszy możliwy do osiągnięcia w takim przypadku nadmiar binarnego kodu źródłowego jednoznacznie dekodowalnego. (Odp. ok ) Kody Huffmana Zadanie 2 (kolokwium z lat poprzednich) Proszę pokazać, że dla żadnego źródła o siedmiu wiadomościach nie da się z użyciem kodowania Huffmana uzyskać kodu o podanym niżej zbiorze słów kodowych: Strona 2 z 7

3 Zadanie 3 (kolokwium z lat poprzednich) Źródło S generuje wiadomości z prawdopodobieństwami 0,3; 0,3; 0,2 i 0,2. Ile istnieje binarnych kodów zwięzłych dla tego źródła? Ile z nich to kody Huffmana? (Odp. 24 kody, z czego 8 to kody Huffmana) Zadanie 4 (kolokwium z lat poprzednich) Źródło X generuje wiadomości x, x 2,..., x n z prawdopodobieństwami p p 2 p n oraz dodatkowo: i=,...,n 3: p i > p i p n. Pokaż, jakie będą długości słów kodowych dla dowolnego binarnego kodu Huffmana tego źródła. Ile istnieje różnych binarnych kodów Huffmana dla tego źródła? Zadanie 5 (kolokwium z lat poprzednich) Pewne źródło generuje losowo wiadomości ze zbioru: x, x 2, x 3, x 4, a następnie przesyła je przy użyciu zwięzłego binarnego kodu jednoznacznie dekodowalnego (impuls trwa 5 µs każdy). Oblicz maksymalną szybkość przesyłania słów kodowych (w jednostkach: [ słów kod. /s]), jeśli: a) Pr{x i } = Pr{x j } : i, j =, 2, 3, 4, b) Pr{x } = 0,5, Pr{x 2 } = 0,25, Pr{x 3 } = Pr{x 4 }. Zadanie 6 (kolokwium z lat poprzednich) Źródło generuje osiem wiadomości elementarnych według następującego rozkładu prawdopodobieństwa: Pr{x } = 2 5 ; Pr{x 2} = 5 ; Pr{x 3} = Pr{x 4 } = 0 ; Pr{x 5} = Pr{x 6 } = Pr{x 7 } = Pr{x 8 }. Znajdź: a) jednoznacznie dekodowalny kod zwięzły dla tego źródła, gdy alfabet kodu to: {,,, }; b) zbiór list długości ciągów kodowych dla wszystkich kodów zwięzłych jednoznacznie dekodowalnych tego źródła dla wszystkich możliwych długości używanych alfabetów. Zadanie 7 (kolokwium z lat poprzednich) Odczytaj tekst zakodowany binarnym kodem Huffmana wiedząc, że względna częstość występowania symboli w tekście jest następująca: A(3), B(), K(), R(4), M() [tj. na trzy pojawienia się A mamy średnio cztery pojawienia się R itd.]. Gdyby w trakcie budowy drzewa Huffmana miała miejsce sytuacja, że do wyboru są więcej niż dwa wierzchołki przypisane konkretnemu symbolowi, wybierz wierzchołek związany z 0 jako przyporządkowany symbolowi występującemu wcześniej w alfabecie. Zadanie 8 (kolokwium z lat poprzednich) Źródło emituje znaki binarne z prawdopodobieństwem: Pr{0} = p, Pr{} = p. Dla celów transmisji chcemy zastosować następujący kod: 000, 0 00, 00 00,..., , ; tzn. jeśli źródło wyemituje na raz mniej niż 8 zer przed wyemitowaniem jedynki, wysyłamy słowo kodowe o postaci e e 2 e 3, gdzie e e 2 e 3 stanowi binarną reprezentację liczby zer, natomiast gdy wystąpi na raz 8 zer, taką sekwencję reprezentuje się za pomocą słowa 0. Jako zdarzenie zdefinujemy wygenerowanie słowa kodowego. Czy otrzymany kod jest kodem jednoznacznie dekodowalnym? Znajdź A c : wartość średnią liczby bitów słowa kodowego na zdarzenie. Znajdź A s : wartość średnią liczby bitów wygenerowanych przez źródło wiadomości na zdarzenie. Wartości średnie są rozumiane probabilistycznie. Następnie dla Strona 3 z 7

4 p = 0,9 porównaj Ac /A s ze średnią długością słowa kodowego na symbol źródła w binarnym kodowaniu Huffmana czwartego rozszerzenia oryginalnego źródła (tego o rozkładzie (p, p)). Co nam to mówi o optymalności kodowania Huffmana? Zadanie 9 (kolokwium z lat poprzednich) Nasz kolega rzuca w ukryciu parą rozróżnialnych kostek sześciennych, przy czym po każdym rzucie informuje nas o iloczynie wyrzuconych oczek. Wymyślił sobie, że będzie stosował w tym celu jednakowej długości ciągi binarne (rozumiemy, co kryje się pod określonymi ciągami, bo powiedział nam to wcześniej). Jaki jest nadmiar stosowanego przez niego kodu, jeśli wybrał najkrótszą możliwą długość ciągów i ile średnio symboli mógłby zaoszczędzić przy podawaniu wyników 000 rzutów, gdyby wybrał najlepszy możliwy dla tej sytuacji kod? Zadanie 20 (kolokwium z lat poprzednich) Rzucamy sfałszowaną monetą, dla której prawdopodobieństwo wypadnięcia reszki to 4. Rzut jest wykonywany co sekundę. Proszę zaprojektować koder, który będzie kodował binarnie wyniki kolejnych rzutów w taki sposób, że średnia liczba bitów na rzut będzie mniejsza niż jeden. Zadanie 2 Na podstawie analizy kodowania Huffmana dla bezpamięciowego źródła generującego N 2 wiadomości, pokaż że tworzone w alfabecie binarnym słowa kodowe o długościach l i spełniają nierówność: N l i ( N 2 + N 2 ). 2 Zadanie 22 (kolokwium z lat poprzednich) Mamy bezpamięciowe źródło wiadomości: [ m m 2 m 3 m 4 m 5 m 6 m 7 m 8 0,03 0,6 0, 0,3 0,07 0,07 0,9 0,06 i= Zakoduj wiadomości pochodzące z tego źródła kodem jednoznacznie dekodowalnym w taki sposób, żeby zminimalizować średni czas nadawania zakodowanej wiadomości, jeśli alfabet składa się z trzech liter: a, b, c. Czasy nadawania poszczególnych liter wynoszą: a 3 sekundy, b 2 sekundy oraz c 3 sekundy. Podaj średni czas nadawania zakodowanej wiadomości. (Odp. 4,54 sekundy) Zadanie 23 (kolokwium z lat poprzednich) Mamy dane bezpamięciowe źródło wiadomości: [ m m 2 m 3 m 4 m 5 m 6 m 7 m 8 m 9 m 0 m m 2 m 3 0,04 0,04 0,2 0,008 0,2 0,04 0,008 0,2 0,04 0,008 0,2 0,008 0,008 Proszę znaleźć (jeśli jest to w ogóle możliwe) jednoznacznie dekodowalny optymalny kod źródłowy o średniej długości większej niż. Odpowiedni alfabet kodowy proszę zaproponować samemu. Zadanie 24 (kolokwium z lat poprzednich) Pewne źródło informacji X nadaje wiadomości, z których każda to albo x albo x 2, albo x 3. Źródło nie jest bezpamięciowe i jesteśmy w stanie podać prawdopodobieństwa warunkowe wystąpienia wiadomości x j bezpośrednio po wiadomości x i. Zadano je macierzą, w której element ]. ]. Strona 4 z 7

5 umiejscowiony w wierszu j oraz kolumnie i podaje prawdopodobieństwo Pr{x j x i }: 0,3 0,2 0,4 0,4 0,7 0,2 0,3 0, 0,4 Proszę podać nadmiar kodu zwięzłego, który koduje sekwencje (x k x l ), k, l {, 2, 3} (tj. każda kodowana sekwencja jest złożona z dwóch wiadomości generowanych przez źródło X ) i który używa alfabetu {a, b, c, d}. Zadanie 25 Algorytm Huffmana polega między innymi na tworzeniu ciągu zredukowanych źródeł wiadomości w taki sposób, że za każdym razem (tzn. na etapie redukcji numer i) musimy obliczać prawdopodobieństwo p (i) Σ pewnej liczby najmniej prawdopodobnych wiadomości. Pokaż, że średnią długość binarnego kodu Huffmana C można obliczyć jako: L(C) = + i p (i) Σ. Zadanie 26 Zaproponuj algorytm definiujący D-arny kod Huffmana C, który nie tylko minimalizuje średnią długość kodu: L(C) = p i l i, i ale także minimalizuje całkowitą długość kodu, rozumianą jako: σ(c) = i l i. Zadanie 27 Na podstawie analizy kodowania Huffmana (lub korzystając z wyników zad. 26) pokaż, że dla bezpamięciowego źródła generującego N wiadomości, słowa kodowe binarnego kodu zwięzłego o długościach l i spełniają poniższą nierówność: Kompresja bezstratna N l i N lg N. Zadanie 28 Skompresuj za pomocą adaptacyjnego (dynamicznego) kodu Huffmana sekwencję: i= GŻEGŻÓŁKA JEŻA Zadanie 29 (kolokwium z lat poprzednich) Proszę zapisać binarnie za pomocą czterech symboli ostatnią cyfrę swojego indeksu (np. dla 5 to będzie 00), następnie powtórzyć ją nieskończenie wiele razy otrzyma się sekwencję s (np. dla 5 to będzie ). W pewnej chwili drzewo adaptacyjnego kodu Huffmana, skonstruowane równolegle w koderze i dekoderze, zapisane w postaci listy ma postać: Strona 5 z 7

6 0, a,, b, c, d, 2, 2 Poczynając od tej chwili obserwujemy koder i widzimy, że wysyła sekwencję s. Proszę pokazać, co zdekoduje dekoder. Symbole, które nie wystąpiły wcześniej, są przez koder przesyłane w kodzie ASCII. Zadanie 30 Skompresuj za pomocą kodu arytmetycznego sekwencję ( oznacza koniec sekwencji): BUFFALO BILL Rozkład źródła znajdź na podstawie podanej sekwencji (w razie potrzeby można zaokrąglić do dwóch miejsc po przecinku dla uproszczenia obliczeń). Zbadaj efektywność kodu. Zadanie 3 Przy zadanej w tabeli statystyce źródła sprawdź, jaką wiadomość zakodowano za pomocą następującej sekwencji bitów używając kodowania arytmetycznego ( oznacza koniec sekwencji): Wiadomość Prawdopodobieństwo skumulowane A [0,0; 0,) I [0,; 0,2) M [0,2; 0,4) S [0,4; 0,6) Z [0,6; 0,8) [0,8; 0,9) [0,9;,0) Inne Zadanie 32 (*) Gra w dwadzieścia pytań : zadający zagadkę wybiera obiekt x ze skończonego (ale raczej dużego) zbioru obiektów S = {s,..., s n }, przy czym prawdopodobieństwo, że jako x wybierze s i wynosi p i (odgadujący zna zbiór S oraz prawdopodobieństwa wybrania każdego z obiektów). Trzeba zgadnąć, o który obiekt chodzi, zadając po kolei pytania postaci: Q i : Czy x należy do T i?, gdzie T i jest pewnym podzbiorem S (przy zadawaniu pytania Q i zgadujący oczywiście precyzyjnie definiuje zbiór T i ). Możliwa odpowiedź to tylko tak lub nie, zadający zagadkę odpowiada zgodnie z prawdą. Proszę w oparciu o znajomość teorii informacji podać uniwersalną strategię zadawania pytań, która da szansę na odgadnięcie obiektu x przy zadawaniu jak najmniejszej liczby pytań. Zadanie 33 (*) Teorię informacji (w szczególności zwięzłe kodowanie źródłowe) można użyć do zaprojektowania efektywnych testów przesiewowych krwi. Załóżmy, że mamy do przebadania pod kątem obecności wirusa N próbek krwi. Prawodopodobieństwo pozytywnego wyniku (czyli wykrycia wirusa) dla każdej próbki jest niewielkie (p = 0,0), a testy są kosztowne, więc trzeba minimalizować ich liczbę. Zamiast badać każdą próbkę z osobna, można badać zmieszane fragmenty Strona 6 z 7

7 próbek. Zakładamy wtedy, że wynik będzie pozytywny, jeśli choć jedna z wymieszanych próbek zawierała wirusa. Zakładamy też, że każdą próbkę można podzielić na dowolnie wiele fragmentów. Ostatecznie musimy jednak dla każdej próbki wiedzieć czy na pewno zawiera wirusa czy nie. Jak maksymalnie zmniejszyć oczekiwaną liczbę testów do wykonania? Zaprojektuj badanie dla 300 próbek i podaj oczekiwaną liczbę testów. Informacja dodatkowa: Na kartkach z zadaniami do kolejnego kolokwium znajdą Państwo następujące dane, być może pomocne przy rozwiązywaniu zadań: H(X, Y ) = H(X) + H(Y X) (reguła łańcuchowa) I(X; Y ) = H(X) H(X Y ) = H(Y ) H(Y X) = H(X) + H(Y ) H(X, Y ) X, Y niezależne: H(X, Y ) = H(X) + H(Y ) Tabela opisująca kod ASCII (b 7 : najstarszy bit, np. a jest reprezentowane przez 0000): b b b b 4 b 3 b 2 b NUL DLE SP 0 P p SOH DC! A Q a q STX DC2 2 B R b r 0 0 ETX DC3 # 3 C S c s EOT DC4 $ 4 D T d t 0 0 ENQ NAK % 5 E U e u 0 0 ACK SYN & 6 F V f v 0 BEL ETB 7 G W g w BS CAN ( 8 H X h x 0 0 HT EM ) 9 I Y i y 0 0 LF SUB * : J Z j z 0 VT ESC + ; K [ k { 0 0 FF FC, < L \ l 0 CR GS - = M ] m } 0 SO RS. > N ˆ n SI US /? O o DEL Strona 7 z 7

Teoria informacji i kodowania Ćwiczenia

Teoria informacji i kodowania Ćwiczenia Teoria informacji i kodowania Ćwiczenia Piotr Chołda, Andrzej Kamisiński Katedra Telekomunikacji Akademii Górniczo-Hutniczej Kod źródłowy Kodem źródłowym nazywamy funkcję różnowartościową, która elementom

Bardziej szczegółowo

O oszczędnym dziennikarzu, czyli czym jest

O oszczędnym dziennikarzu, czyli czym jest O oszczędnym dziennikarzu, czyli czym jest informacja i jak ja mierzymy? Adam Doliwa doliwa@matman.uwm.edu.pl WYKŁAD DLA MŁODZIEŻY WYDZIAŁ MATEMATYKI I INFORMATYKI UWM Olsztyn, 9 lutego 2016 r. Adam Doliwa

Bardziej szczegółowo

Jak zadać dobre pytanie, czyli czym jest informacja i jak ja

Jak zadać dobre pytanie, czyli czym jest informacja i jak ja Jak zadać dobre pytanie, czyli czym jest informacja i jak ja zmierzyć Adam Doliwa doliwa@matman.uwm.edu.pl WYKŁAD Z CYKLU NIEZWYKŁA MATEMATYKA WYDZIAŁ MATEMATYKI I INFORMATYKI UWM Olsztyn, 28 września

Bardziej szczegółowo

Architektura systemów komputerowych Laboratorium 5 Kodowanie liczb i tekstów

Architektura systemów komputerowych Laboratorium 5 Kodowanie liczb i tekstów Architektura systemów komputerowych Laboratorium 5 Kodowanie liczb i tekstów Marcin Stępniak Informacje. Kod NKB Naturalny kod binarny (NKB) jest oparty na zapisie liczby naturalnej w dwójkowym systemie

Bardziej szczegółowo

teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015

teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015 teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015 1 zakres materiału zakres materiału 1. Czym jest teoria informacji? 2. Wprowadzenie matematyczne. 3. Entropia i informacja.

Bardziej szczegółowo

Kodowanie Huffmana. Platforma programistyczna.net; materiały do laboratorium 2014/15 Marcin Wilczewski

Kodowanie Huffmana. Platforma programistyczna.net; materiały do laboratorium 2014/15 Marcin Wilczewski Kodowanie Huffmana Platforma programistyczna.net; materiały do laboratorium 24/5 Marcin Wilczewski Algorytm Huffmana (David Huffman, 952) Algorytm Huffmana jest popularnym algorytmem generującym optymalny

Bardziej szczegółowo

Kompresja bezstratna. Entropia. Kod Huffmana

Kompresja bezstratna. Entropia. Kod Huffmana Kompresja bezstratna. Entropia. Kod Huffmana Kodowanie i bezpieczeństwo informacji - Wykład 10 29 kwietnia 2013 Teoria informacji Jeśli P(A) jest prawdopodobieństwem wystapienia informacji A to niech i(a)

Bardziej szczegółowo

Teoria Informacji - wykład. Kodowanie wiadomości

Teoria Informacji - wykład. Kodowanie wiadomości Teoria Informacji - wykład Kodowanie wiadomości Definicja kodu Niech S={s 1, s 2,..., s q } oznacza dany zbiór elementów. Kodem nazywamy wówczas odwzorowanie zbioru wszystkich możliwych ciągów utworzonych

Bardziej szczegółowo

teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015

teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015 teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015 1 wczoraj Wprowadzenie matematyczne. Entropia i informacja. Kodowanie. Kod ASCII. Stopa kodu. Kody bezprefiksowe.

Bardziej szczegółowo

Kompresja danych kodowanie Huffmana. Dariusz Sobczuk

Kompresja danych kodowanie Huffmana. Dariusz Sobczuk Kompresja danych kodowanie Huffmana Dariusz Sobczuk Plan wykładu Kodowanie metodą Shannona-Fano Kodowanie metodą Huffmana Elementarny kod Golomba Kod Golomba Kod Rice a kompresja danych 2 Efektywny kod

Bardziej szczegółowo

Elementy teorii informacji i kodowania

Elementy teorii informacji i kodowania i kodowania Entropia, nierówność Krafta, kodowanie optymalne Marcin Jenczmyk m.jenczmyk@knm.katowice.pl 17 kwietnia 2015 M. Jenczmyk Spotkanie KNM i kodowania 1 / 20 Niech S = {x 1,..., x q } oznacza alfabet,

Bardziej szczegółowo

Granica kompresji Kodowanie Shannona Kodowanie Huffmana Kodowanie ciągów Kodowanie arytmetyczne. Kody. Marek Śmieja. Teoria informacji 1 / 35

Granica kompresji Kodowanie Shannona Kodowanie Huffmana Kodowanie ciągów Kodowanie arytmetyczne. Kody. Marek Śmieja. Teoria informacji 1 / 35 Kody Marek Śmieja Teoria informacji 1 / 35 Entropia Entropia określa minimalną statystyczną długość kodowania (przyjmijmy dla prostoty że alfabet kodowy A = {0, 1}). Definicja Niech X = {x 1,..., x n }

Bardziej szczegółowo

Teoria informacji i kodowania Ćwiczenia Sem. zimowy 2016/2017

Teoria informacji i kodowania Ćwiczenia Sem. zimowy 2016/2017 Algebra liniowa Zadanie 1 Czy jeśli wektory x, y i z, należące do binarnej przestrzeni wektorowej nad ciałem Galois GF (2), są liniowo niezależne, to można to samo orzec o następujących trzech wektorach:

Bardziej szczegółowo

Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9,

Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9, 1 Kody Tunstalla Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9, 14.04.2005 Inne podejście: słowa kodowe mają ustaloną długość, lecz mogą kodować ciągi liter z alfabetu wejściowego o różnej

Bardziej szczegółowo

Kodowanie i entropia

Kodowanie i entropia Kodowanie i entropia Marek Śmieja Teoria informacji 1 / 34 Kod S - alfabet źródłowy mocy m (np. litery, cyfry, znaki interpunkcyjne), A = {a 1,..., a n } - alfabet kodowy (symbole), Chcemy przesłać tekst

Bardziej szczegółowo

DZIESIĘTNY SYSTEM LICZBOWY

DZIESIĘTNY SYSTEM LICZBOWY DZIESIĘTNY SYSTEM LICZBOWY Do zapisu dowolnej liczby system wykorzystuje dziesięć symboli (cyfr): 0, 1, 2, 3, 4, 5, 6, 7, 8, 9 Dowolną liczbę w systemie dziesiętnym możemy przedstawić jako następująca

Bardziej szczegółowo

mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. GOLOMBA I RICE'A

mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. GOLOMBA I RICE'A mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. KOMPRESJA ALGORYTMEM ARYTMETYCZNYM, GOLOMBA I RICE'A Idea algorytmu arytmetycznego Przykład kodowania arytmetycznego Renormalizacja

Bardziej szczegółowo

Kompresja Kodowanie arytmetyczne. Dariusz Sobczuk

Kompresja Kodowanie arytmetyczne. Dariusz Sobczuk Kompresja Kodowanie arytmetyczne Dariusz Sobczuk Kodowanie arytmetyczne (lata 1960-te) Pierwsze prace w tym kierunku sięgają początków lat 60-tych XX wieku Pierwszy algorytm Eliasa nie został opublikowany

Bardziej szczegółowo

Def. Kod jednoznacznie definiowalny Def. Kod przedrostkowy Def. Kod optymalny. Przykłady kodów. Kody optymalne

Def. Kod jednoznacznie definiowalny Def. Kod przedrostkowy Def. Kod optymalny. Przykłady kodów. Kody optymalne Załóżmy, że mamy źródło S, które generuje symbole ze zbioru S={x, x 2,..., x N } z prawdopodobieństwem P={p, p 2,..., p N }, symbolom tym odpowiadają kody P={c, c 2,..., c N }. fektywność danego sposobu

Bardziej szczegółowo

0 + 0 = 0, = 1, = 1, = 0.

0 + 0 = 0, = 1, = 1, = 0. 5 Kody liniowe Jak już wiemy, w celu przesłania zakodowanego tekstu dzielimy go na bloki i do każdego z bloków dodajemy tak zwane bity sprawdzające. Bity te są w ścisłej zależności z bitami informacyjnymi,

Bardziej szczegółowo

Temat: Algorytm kompresji plików metodą Huffmana

Temat: Algorytm kompresji plików metodą Huffmana Temat: Algorytm kompresji plików metodą Huffmana. Wymagania dotyczące kompresji danych Przez M oznaczmy zbiór wszystkich możliwych symboli występujących w pliku (alfabet pliku). Przykład M = 2, gdy plik

Bardziej szczegółowo

Nierówność Krafta-McMillana, Kodowanie Huffmana

Nierówność Krafta-McMillana, Kodowanie Huffmana Nierówność Krafta-McMillana, Kodowanie Huffmana Kodowanie i kompresja informacji - Wykład 2 1 marca 2010 Test na jednoznaczna dekodowalność Kod a jest prefiksem kodu b jeśli b jest postaci ax. x nazywamy

Bardziej szczegółowo

Definicja. Jeśli. wtedy

Definicja. Jeśli. wtedy Definicja Jeśli wtedy Cel kompresji: zredukowanie do minimum oczekiwanego (średniego) kosztu gdzie l i jest długością słowa kodu c i kodującego symbol a i Definicja Definicje Efektywność kodowania określamy

Bardziej szczegółowo

Teoria Informacji i Metody Kompresji Danych

Teoria Informacji i Metody Kompresji Danych Teoria Informacji i Metody Kompresji Danych 1 Przykładowe zadania (dodatkowe materiały wykładowe) 2 Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL

Bardziej szczegółowo

Instrukcja dotycząca kodów kreskowych

Instrukcja dotycząca kodów kreskowych Instrukcja dotycząca kodów kreskowych Wersja 0 POL 1 Wprowadzenie 1 Omówienie 1 1 Niniejsza skrócona instrukcja zawiera informacje na temat drukowania kodów kreskowych z wykorzystaniem poleceń sterujących

Bardziej szczegółowo

Wygra Polska czy Brazylia, czyli o tym jak zwięźle zapisywać informacje

Wygra Polska czy Brazylia, czyli o tym jak zwięźle zapisywać informacje Wygra Polska czy Brazylia, czyli o tym jak zwięźle zapisywać informacje Witold Tomaszewski Instytut Matematyki Politechniki Śląskiej e-mail: Witold.Tomaszewski@polsl.pl Je n ai fait celle-ci plus longue

Bardziej szczegółowo

Entropia Kodowanie. Podstawy kompresji. Algorytmy kompresji danych. Sebastian Deorowicz

Entropia Kodowanie. Podstawy kompresji. Algorytmy kompresji danych. Sebastian Deorowicz Algorytmy kompresji danych 2007 02 27 Plan wykładu 1 Modelowanie i kodowanie 2 Modelowanie i kodowanie Plan wykładu 1 Modelowanie i kodowanie 2 Modelowanie i kodowanie definicja stowarzyszona ze zbiorem

Bardziej szczegółowo

4 Standardy reprezentacji znaków. 5 Przechowywanie danych w pamięci. 6 Literatura

4 Standardy reprezentacji znaków. 5 Przechowywanie danych w pamięci. 6 Literatura ARCHITEKTURA SYSTEMÓW KOMPUTEROWYCH reprezentacja danych ASK.RD.01 c Dr inż. Ignacy Pardyka UNIWERSYTET JANA KOCHANOWSKIEGO w Kielcach Rok akad. 2011/2012 1 2 Standardy reprezentacji wartości całkowitoliczbowych

Bardziej szczegółowo

Niech x 1,..., x n będzie ciągiem zdarzeń. ---

Niech x 1,..., x n będzie ciągiem zdarzeń. --- Matematyczne podstawy kryptografii, Ćw2 TEMAT 7: Teoria Shannona. Kody Huffmana, entropia. BIBLIOGRAFIA: [] Cz. Bagiński, cez.wipb.pl, [2] T. H. Cormen, C. E. Leiserson, R. L Rivest, Wprowadzenie do algorytmów,

Bardziej szczegółowo

ARCHITEKTURA KOMPUTERÓW. Reprezentacja danych w komputerach

ARCHITEKTURA KOMPUTERÓW. Reprezentacja danych w komputerach Reprezentacja danych w komputerach dr inż. Wiesław Pamuła wpamula@polsl.katowice.pl Literatura 2. J.Biernat: Architektura komputerów, Oficyna Wydawnicza Politechniki Wrocławskiej, Wrocław2002. 3. Null

Bardziej szczegółowo

Technologie informacyjne (3) Zdzisław Szyjewski

Technologie informacyjne (3) Zdzisław Szyjewski Technologie informacyjne (3) Zdzisław Szyjewski Technologie informacyjne Technologie pracy z komputerem Funkcje systemu operacyjnego Przykłady systemów operacyjnych Zarządzanie pamięcią Zarządzanie danymi

Bardziej szczegółowo

Przetwarzanie i transmisja danych multimedialnych. Wykład 2 Podstawy kompresji. Przemysław Sękalski.

Przetwarzanie i transmisja danych multimedialnych. Wykład 2 Podstawy kompresji. Przemysław Sękalski. Przetwarzanie i transmisja danych multimedialnych Wykład Podstawy kompresji Przemysław Sękalski sekalski@dmcs.pl Politechnika Łódzka Katedra Mikroelektroniki i Technik Informatycznych DMCS Zawartość wykładu.

Bardziej szczegółowo

Kody Tunstalla. Kodowanie arytmetyczne

Kody Tunstalla. Kodowanie arytmetyczne Kody Tunstalla. Kodowanie arytmetyczne Kodowanie i kompresja informacji - Wykład 3 8 marca 2010 Kody Tunstalla Wszystkie słowa kodowe maja ta sama długość ale jeden kod może kodować różna liczbę liter

Bardziej szczegółowo

Technologie informacyjne (3) Zdzisław Szyjewski

Technologie informacyjne (3) Zdzisław Szyjewski Technologie informacyjne (3) Zdzisław Szyjewski Technologie informacyjne Technologie pracy z komputerem Funkcje systemu operacyjnego Przykłady systemów operacyjnych Zarządzanie pamięcią Zarządzanie danymi

Bardziej szczegółowo

Algorytmy kompresji. Kodowanie Huffmana, kodowanie arytmetyczne

Algorytmy kompresji. Kodowanie Huffmana, kodowanie arytmetyczne Algorytmy kompresji Kodowanie Huffmana, kodowanie arytmetyczne Kodowanie arytmetyczne Peter Elias 1923-2001 Kodowanie arytmetyczne to metoda kodowania źródłowego dyskretnych źródeł sygnałów, stosowana

Bardziej szczegółowo

Modulacja i kodowanie. Labolatorium. Kodowanie źródłowe Kod Huffman a

Modulacja i kodowanie. Labolatorium. Kodowanie źródłowe Kod Huffman a Modulacja i kodowanie Labolatorium Kodowanie źródłowe Kod Huffman a W tym ćwiczeniu zajmiemy się kodowaniem źródłowym (source coding). 1. Kodowanie źródłowe Głównym celem kodowanie źródłowego jest zmniejszenie

Bardziej szczegółowo

ZADANIE 1. Rozwiązanie:

ZADANIE 1. Rozwiązanie: EUROELEKTR Ogólnopolska Olimpiada Wiedzy Elektrycznej i Elektronicznej Rok szkolny 200/20 Rozwiązania zadań dla grupy teleinformatycznej na zawody II. stopnia ZNIE ramka logiczna w technologii MOS składa

Bardziej szczegółowo

Kodowanie informacji

Kodowanie informacji Kodowanie informacji Tomasz Wykład 4: kodowanie arytmetyczne Motywacja Podstawy i własności Liczby rzeczywiste Motywacje 1 średnia długość kodu Huffmana może odbiegać o p max + 0.086 od entropii, gdzie

Bardziej szczegółowo

Założenia i obszar zastosowań. JPEG - algorytm kodowania obrazu. Geneza algorytmu KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG

Założenia i obszar zastosowań. JPEG - algorytm kodowania obrazu. Geneza algorytmu KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG Założenia i obszar zastosowań KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG Plan wykładu: Geneza algorytmu Założenia i obszar zastosowań JPEG kroki algorytmu kodowania obrazu Założenia: Obraz monochromatyczny

Bardziej szczegółowo

Wstęp Statyczne kody Huffmana Dynamiczne kody Huffmana Praktyka. Kodowanie Huffmana. Dawid Duda. 4 marca 2004

Wstęp Statyczne kody Huffmana Dynamiczne kody Huffmana Praktyka. Kodowanie Huffmana. Dawid Duda. 4 marca 2004 4 marca 2004 Podstawowe oznaczenia i definicje Wymagania wobec kodu Podstawowa idea Podsumowanie Podstawowe oznaczenia i definicje Podstawowe oznaczenia i definicje: alfabet wejściowy: A = {a 1, a 2,...,

Bardziej szczegółowo

Algorytmy kodowania entropijnego

Algorytmy kodowania entropijnego Algorytmy kodowania entropijnego 1. Kodowanie Shannona-Fano 2. Kodowanie Huffmana 3. Jednoznaczność kodów Huffmana. Kod o minimalnej wariancji 4. Dynamiczne kodowanie Huffmana Poprzedni wykład - podsumowanie

Bardziej szczegółowo

Algorytmy zachłanne. dr inż. Urszula Gałązka

Algorytmy zachłanne. dr inż. Urszula Gałązka Algorytmy zachłanne dr inż. Urszula Gałązka Algorytm zachłanny O Dokonuje wyboru, który w danej chwili wydaje się najkorzystniejszy. O Mówimy, że jest to wybór lokalnie optymalny O W rzeczywistości nie

Bardziej szczegółowo

Rachunek prawdopodobieństwa

Rachunek prawdopodobieństwa Rachunek prawdopodobieństwa Sebastian Rymarczyk srymarczyk@afm.edu.pl Tematyka zajęć 1. Elementy kombinatoryki. 2. Definicje prawdopodobieństwa. 3. Własności prawdopodobieństwa. 4. Zmienne losowe, parametry

Bardziej szczegółowo

Podstawy nauk przyrodniczych Matematyka

Podstawy nauk przyrodniczych Matematyka Podstawy nauk przyrodniczych Matematyka Elementy rachunku prawdopodobieństwa dr inż. Małgorzata Szeląg Zakład Genetyki Molekularnej Człowieka tel. 61 829 59 04 malgorzata.szelag@amu.edu.pl Pokój 1.118

Bardziej szczegółowo

Moneta 1 Moneta 2 Kostka O, R O,R 1,2,3,4,5, Moneta 1 Moneta 2 Kostka O O ( )

Moneta 1 Moneta 2 Kostka O, R O,R 1,2,3,4,5, Moneta 1 Moneta 2 Kostka O O ( ) Nowa matura kombinatoryka i rachunek prawdopodobieństwa Zadania zamknięte (0 1 pkt) 1. Doświadczenie losowe polega na rzucie dwiema symetrycznymi monetami i sześcienną kostką do gry. Prawdopodobieństwo

Bardziej szczegółowo

KODY SYMBOLI. Materiały KODA, A.Przelaskowski. Koncepcja przedziałów nieskończonego alfabetu

KODY SYMBOLI. Materiały KODA, A.Przelaskowski. Koncepcja przedziałów nieskończonego alfabetu KODY SYMBOLI Materiały KODA, A.Przelaskowski Koncepcja drzewa binarnego Metoda S-F Kod Huffmana Adaptacyjne drzewo Huffmana Problemy implementacji Koncepcja przedziałów nieskończonego alfabetu Proste kody

Bardziej szczegółowo

Materiały dla finalistów

Materiały dla finalistów Materiały dla finalistów Malachoviacus Informaticus 2016 11 kwietnia 2016 Wprowadzenie Poniższy dokument zawiera opisy zagadnień, które będą niezbędne do rozwiązania zadań w drugim etapie konkursu. Polecamy

Bardziej szczegółowo

Podstawowe pojęcia. Teoria informacji

Podstawowe pojęcia. Teoria informacji Kodowanie i kompresja informacji - Wykład 1 22 luty 2010 Literatura K. Sayood, Kompresja danych - wprowadzenie, READ ME 2002 (ISBN 83-7243-094-2) Literatura K. Sayood, Kompresja danych - wprowadzenie,

Bardziej szczegółowo

P r a w d o p o d o b i eństwo Lekcja 1 Temat: Lekcja organizacyjna. Program. Kontrakt.

P r a w d o p o d o b i eństwo Lekcja 1 Temat: Lekcja organizacyjna. Program. Kontrakt. P r a w d o p o d o b i eństwo Lekcja 1 Temat: Lekcja organizacyjna. Program. Kontrakt. Lekcja 2 Temat: Podstawowe pojęcia związane z prawdopodobieństwem. Str. 10-21 1. Doświadczenie losowe jest to doświadczenie,

Bardziej szczegółowo

Entropia to wielkość określająca liczbę bitów informacji zawartej w danej wiadomości lub źródle. Spełnia ona trzy naturalne warunki: I(s) jest

Entropia to wielkość określająca liczbę bitów informacji zawartej w danej wiadomości lub źródle. Spełnia ona trzy naturalne warunki: I(s) jest Entropia to wielkość określająca liczbę bitów informacji zawartej w danej wiadomości lub źródle. Spełnia ona trzy naturalne warunki: I(s) jest malejącą funkcją prawdopodobieństwa zajścia zdarzenia s. I(s)

Bardziej szczegółowo

L.Kowalski zadania z rachunku prawdopodobieństwa-zestaw 2 ZADANIA - ZESTAW 2

L.Kowalski zadania z rachunku prawdopodobieństwa-zestaw 2 ZADANIA - ZESTAW 2 ZADANIA - ZESTAW 2 Zadanie 2.1 Zmienna losowa X ma rozkład określony funkcją prawdopodobieństwa: x k 1 0 2 p k 1/ 1/6 1/2 a) wyznaczyć dystrybuantę tej zmiennej losowej i naszkicować jej wykres, b) obliczyć

Bardziej szczegółowo

Przetwarzanie i transmisja danych multimedialnych. Wykład 3 Kodowanie Shannona Fano i Huffmana. Przemysław Sękalski.

Przetwarzanie i transmisja danych multimedialnych. Wykład 3 Kodowanie Shannona Fano i Huffmana. Przemysław Sękalski. Przetwarzanie i transmisja danych multimedialnych Wykład 3 Kodowanie Shannona Fano i Huffmana Przemysław Sękalski sekalski@dmcs.pl Politechnika Łódzka Katedra Mikroelektroniki i Technik Informatycznych

Bardziej szczegółowo

Podstawy kompresji danych

Podstawy kompresji danych Podstawy kompresji danych Pojęcie kompresji W ogólności kompresja (kodowanie) jest procedurą (przekształceniem) zmiany reprezentacji wejściowego zbioru danych do postaci wymagającej mniejszej liczby bitów

Bardziej szczegółowo

Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład Kody liniowe - kodowanie w oparciu o macierz parzystości

Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład Kody liniowe - kodowanie w oparciu o macierz parzystości Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład 13 1 Kody liniowe - kodowanie w oparciu o macierz parzystości Przykład Różne macierze parzystości dla kodu powtórzeniowego. Co wiemy z algebry

Bardziej szczegółowo

Systemy liczbowe. 1. Przedstawić w postaci sumy wag poszczególnych cyfr liczbę rzeczywistą R = (10).

Systemy liczbowe. 1. Przedstawić w postaci sumy wag poszczególnych cyfr liczbę rzeczywistą R = (10). Wprowadzenie do inżynierii przetwarzania informacji. Ćwiczenie 1. Systemy liczbowe Cel dydaktyczny: Poznanie zasad reprezentacji liczb w systemach pozycyjnych o różnych podstawach. Kodowanie liczb dziesiętnych

Bardziej szczegółowo

Dla człowieka naturalnym sposobem liczenia jest korzystanie z systemu dziesiętnego, dla komputera natomiast korzystanie z zapisu dwójkowego

Dla człowieka naturalnym sposobem liczenia jest korzystanie z systemu dziesiętnego, dla komputera natomiast korzystanie z zapisu dwójkowego Arytmetyka cyfrowa Dla człowieka naturalnym sposobem liczenia jest korzystanie z systemu dziesiętnego, dla komputera natomiast korzystanie z zapisu dwójkowego (binarnego). Zapis binarny - to system liczenia

Bardziej szczegółowo

Symulacja w przedsiębiorstwie

Symulacja w przedsiębiorstwie Symulacja w przedsiębiorstwie Generowanie liczb losowych Cel Celem laboratorium jest zapoznanie się z funkcjami generowania liczb pseudolosowych w środowisku Ms Excel. Funkcje te są podstawą modeli symulacyjnych

Bardziej szczegółowo

Kodowanie Shannona-Fano

Kodowanie Shannona-Fano Kodowanie Shannona-Fano Kodowanie Shannona-Fano znane było jeszcze przed kodowaniem Huffmana i w praktyce można dzięki niemu osiągnąć podobne wyniki, pomimo, że kod generowany tą metodą nie jest optymalny.

Bardziej szczegółowo

0-0000, 1-0001, 2-0010, 3-0011 itd... 9-1001.

0-0000, 1-0001, 2-0010, 3-0011 itd... 9-1001. KODOWANIE Jednym z problemów, z którymi spotykamy się w informatyce, jest problem właściwego wykorzystania pamięci. Konstruując algorytm staramy się zwykle nie tylko o zminimalizowanie kosztów czasowych

Bardziej szczegółowo

KODY SYMBOLI. Kod Shannona-Fano. Algorytm S-F. Przykład S-F

KODY SYMBOLI. Kod Shannona-Fano. Algorytm S-F. Przykład S-F KODY SYMBOLI Kod Shannona-Fano KODOWANIE DANYCH, A.Przelaskowski Metoda S-F Kod Huffmana Adaptacyjne drzewo Huffmana Problemy implementacji Kod Golomba Podsumowanie Kod drzewa binarnego Na wejściu rozkład:

Bardziej szczegółowo

Lista 5. Zadanie 3. Zmienne losowe X i (i = 1, 2, 3, 4) są niezależne o tym samym

Lista 5. Zadanie 3. Zmienne losowe X i (i = 1, 2, 3, 4) są niezależne o tym samym Lista 5 Zadania na zastosowanie nierównosci Markowa i Czebyszewa. Zadanie 1. Niech zmienna losowa X ma rozkład jednostajny na odcinku [0, 1]. Korzystając z nierówności Markowa oszacować od góry prawdopodobieństwo,

Bardziej szczegółowo

RACHUNEK PRAWDOPODOBIEŃSTWA I KOMBINATORYKA

RACHUNEK PRAWDOPODOBIEŃSTWA I KOMBINATORYKA RACHUNEK PRAWDOPODOBIEŃSTWA I KOMBINATORYKA Doświadczenia losowe Rachunek prawdopodobieństwa zajmuje się zdarzeniami jakie zachodzą, gdy przeprowadzamy doświadczenia losowe. Mówimy, że doświadczenie jest

Bardziej szczegółowo

Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11,

Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11, 1 Kwantyzacja skalarna Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11, 10.05.005 Kwantyzacja polega na reprezentowaniu dużego zbioru wartości (być może nieskończonego) za pomocą wartości

Bardziej szczegółowo

Wstęp do Informatyki

Wstęp do Informatyki Wstęp do Informatyki Bożena Woźna-Szcześniak bwozna@gmail.com Jan Długosz University, Poland Wykład 4 Bożena Woźna-Szcześniak (AJD) Wstęp do Informatyki Wykład 4 1 / 1 DZIELENIE LICZB BINARNYCH Dzielenie

Bardziej szczegółowo

Detekcja i korekcja błędów w transmisji cyfrowej

Detekcja i korekcja błędów w transmisji cyfrowej Detekcja i korekcja błędów w transmisji cyfrowej Błędy w transmisji cyfrowej pojedyncze wielokrotne. całkowita niepewność względem miejsca zakłóconych bitów oraz czy w ogóle występują paczkowe (grupowe)

Bardziej szczegółowo

Dane, informacja, programy. Kodowanie danych, kompresja stratna i bezstratna

Dane, informacja, programy. Kodowanie danych, kompresja stratna i bezstratna Dane, informacja, programy Kodowanie danych, kompresja stratna i bezstratna DANE Uporządkowane, zorganizowane fakty. Główne grupy danych: tekstowe (znaki alfanumeryczne, znaki specjalne) graficzne (ilustracje,

Bardziej szczegółowo

Technologie Informacyjne

Technologie Informacyjne System binarny Szkoła Główna Służby Pożarniczej Zakład Informatyki i Łączności October 7, 26 Pojęcie bitu 2 Systemy liczbowe 3 Potęgi dwójki 4 System szesnastkowy 5 Kodowanie informacji 6 Liczby ujemne

Bardziej szczegółowo

1.1. Pozycyjne systemy liczbowe

1.1. Pozycyjne systemy liczbowe 1.1. Pozycyjne systemy liczbowe Systemami liczenia nazywa się sposób tworzenia liczb ze znaków cyfrowych oraz zbiór reguł umożliwiających wykonywanie operacji arytmetycznych na liczbach. Dla dowolnego

Bardziej szczegółowo

Według raportu ISO z 1988 roku algorytm JPEG składa się z następujących kroków: 0.5, = V i, j. /Q i, j

Według raportu ISO z 1988 roku algorytm JPEG składa się z następujących kroków: 0.5, = V i, j. /Q i, j Kompresja transformacyjna. Opis standardu JPEG. Algorytm JPEG powstał w wyniku prac prowadzonych przez grupę ekspertów (ang. Joint Photographic Expert Group). Prace te zakończyły się w 1991 roku, kiedy

Bardziej szczegółowo

Teoria informacji i kodowania Ćwiczenia

Teoria informacji i kodowania Ćwiczenia Teoria informacji i kodowania Ćwiczenia Piotr Chołda, Andrzej Kamisiński Katedra Telekomunikacji Akademii Górniczo-Hutniczej Terminy kolokwiów zaliczeniowych Kolokwium KZ1: 27.01.2017, piątek, 9:00-11:30,

Bardziej szczegółowo

Podstawy Informatyki: Kody. Korekcja błędów.

Podstawy Informatyki: Kody. Korekcja błędów. Podstawy Informatyki: Kody. Korekcja błędów. Adam Kolany Instytut Techniczny adamkolany@pm.katowice.pl Adam Kolany (PWSZ Nowy Sącz, IT) Podstawy Informatyki: Kody. Korekcja błędów. 11 stycznia 2012 1 /

Bardziej szczegółowo

a. zbiór wszystkich potasowań talii kart (w którym S dostaje 13 pierwszych kart, W - 13 kolejnych itd.);

a. zbiór wszystkich potasowań talii kart (w którym S dostaje 13 pierwszych kart, W - 13 kolejnych itd.); 03DRAP - Przykłady przestrzeni probabilistycznych Definicja 1 Przestrzeń probabilistyczna to trójka (Ω, F, P), gdzie Ω zbiór zdarzeń elementarnych, F σ ciało zdarzeń (podzbiorów Ω), P funkcja prawdopodobieństwa/miara

Bardziej szczegółowo

Rachunek prawdopodobieństwa- wykład 2

Rachunek prawdopodobieństwa- wykład 2 Rachunek prawdopodobieństwa- wykład 2 Pojęcie dyskretnej przestrzeni probabilistycznej i określenie prawdopodobieństwa w tej przestrzeni dr Marcin Ziółkowski Instytut Matematyki i Informatyki Uniwersytet

Bardziej szczegółowo

MODELOWANIE RZECZYWISTOŚCI

MODELOWANIE RZECZYWISTOŚCI MODELOWANIE RZECZYWISTOŚCI Daniel Wójcik Instytut Biologii Doświadczalnej PAN d.wojcik@nencki.gov.pl tel. 022 5892 424 http://www.neuroinf.pl/members/danek/swps/ Podręcznik Iwo Białynicki-Birula Iwona

Bardziej szczegółowo

Techniki multimedialne

Techniki multimedialne Techniki multimedialne Digitalizacja podstawą rozwoju systemów multimedialnych. Digitalizacja czyli obróbka cyfrowa oznacza przetwarzanie wszystkich typów informacji - słów, dźwięków, ilustracji, wideo

Bardziej szczegółowo

Arytmetyka komputera. Na podstawie podręcznika Urządzenia techniki komputerowej Tomasza Marciniuka. Opracował: Kamil Kowalski klasa III TI

Arytmetyka komputera. Na podstawie podręcznika Urządzenia techniki komputerowej Tomasza Marciniuka. Opracował: Kamil Kowalski klasa III TI Arytmetyka komputera Na podstawie podręcznika Urządzenia techniki komputerowej Tomasza Marciniuka Opracował: Kamil Kowalski klasa III TI Spis treści 1. Jednostki informacyjne 2. Systemy liczbowe 2.1. System

Bardziej szczegółowo

Wprowadzenie do informatyki i użytkowania komputerów. Kodowanie informacji System komputerowy

Wprowadzenie do informatyki i użytkowania komputerów. Kodowanie informacji System komputerowy 1 Wprowadzenie do informatyki i użytkowania komputerów Kodowanie informacji System komputerowy Kodowanie informacji 2 Co to jest? bit, bajt, kod ASCII. Jak działa system komputerowy? Co to jest? pamięć

Bardziej szczegółowo

Samodzielnie wykonaj następujące operacje: 13 / 2 = 30 / 5 = 73 / 15 = 15 / 23 = 13 % 2 = 30 % 5 = 73 % 15 = 15 % 23 =

Samodzielnie wykonaj następujące operacje: 13 / 2 = 30 / 5 = 73 / 15 = 15 / 23 = 13 % 2 = 30 % 5 = 73 % 15 = 15 % 23 = Systemy liczbowe Dla każdej liczby naturalnej x Î N oraz liczby naturalnej p >= 2 istnieją jednoznacznie wyznaczone: liczba n Î N oraz ciąg cyfr c 0, c 1,..., c n-1 (gdzie ck Î {0, 1,..., p - 1}) taki,

Bardziej szczegółowo

Kwantyzacja wektorowa. Kodowanie różnicowe.

Kwantyzacja wektorowa. Kodowanie różnicowe. Kwantyzacja wektorowa. Kodowanie różnicowe. Kodowanie i kompresja informacji - Wykład 7 12 kwietnia 2010 Kwantyzacja wektorowa wprowadzenie Zamiast kwantyzować pojedyncze elementy kwantyzujemy całe bloki

Bardziej szczegółowo

12. Wprowadzenie Sygnały techniki cyfrowej Systemy liczbowe. Matematyka: Elektronika:

12. Wprowadzenie Sygnały techniki cyfrowej Systemy liczbowe. Matematyka: Elektronika: PRZYPOMNIJ SOBIE! Matematyka: Dodawanie i odejmowanie "pod kreską". Elektronika: Sygnały cyfrowe. Zasadę pracy tranzystorów bipolarnych i unipolarnych. 12. Wprowadzenie 12.1. Sygnały techniki cyfrowej

Bardziej szczegółowo

Zestaw 3. - Zapis liczb binarnych ze znakiem 1

Zestaw 3. - Zapis liczb binarnych ze znakiem 1 Zestaw 3. - Zapis liczb binarnych ze znakiem 1 Zapis znak - moduł (ZM) Zapis liczb w systemie Znak - moduł Znak liczby o n bitach zależy od najstarszego bitu b n 1 (tzn. cyfry o najwyższej pozycji): b

Bardziej szczegółowo

a. zbiór wszystkich potasowań talii kart (w którym S dostaje 13 pierwszych kart, W - 13 kolejnych itd.);

a. zbiór wszystkich potasowań talii kart (w którym S dostaje 13 pierwszych kart, W - 13 kolejnych itd.); 03DRAP - Przykłady przestrzeni probabilistycznych A Zadania na ćwiczenia Zadanie A1 (wskazówka: pierwsze ćwicznia i rozdział 23 przykł 1 i 2) Zbuduj model przestrzeni klasycznej (czyli takiej, w której

Bardziej szczegółowo

Matematyka dyskretna. Andrzej Łachwa, UJ, A/14

Matematyka dyskretna. Andrzej Łachwa, UJ, A/14 Matematyka dyskretna Andrzej Łachwa, UJ, 2016 andrzej.lachwa@uj.edu.pl 9A/14 Permutacje Permutacja zbioru skończonego X to bijekcja z X w X. Zbiór permutacji zbioru oznaczamy przez, a permutacje małymi

Bardziej szczegółowo

51. Wykorzystywanie sumy, iloczynu i różnicy zdarzeń do obliczania prawdopodobieństw zdarzeń.

51. Wykorzystywanie sumy, iloczynu i różnicy zdarzeń do obliczania prawdopodobieństw zdarzeń. Matematyka lekcja 5 5. Wykorzystywanie sumy, iloczynu i różnicy zdarzeń do obliczania prawdopodobieństw zdarzeń. I. rzypomnij sobie:. Jak rysujemy drzewo stochastyczne i przy jego pomocy obliczamy prawdopodobieństwo

Bardziej szczegółowo

Kompresja danych DKDA (7)

Kompresja danych DKDA (7) Kompresja danych DKDA (7) Marcin Gogolewski marcing@wmi.amu.edu.pl Uniwersytet im. Adama Mickiewicza w Poznaniu Poznań, 22 listopada 2016 1 Kwantyzacja skalarna Wprowadzenie Analiza jakości Typy kwantyzatorów

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA

STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA Zadanie 0.1 Zmienna losowa X ma rozkład określony funkcją prawdopodobieństwa: x k 0 4 p k 1/3 1/6 1/ obliczyć EX, D X. (odp. 4/3;

Bardziej szczegółowo

Tranzystor JFET i MOSFET zas. działania

Tranzystor JFET i MOSFET zas. działania Tranzystor JFET i MOSFET zas. działania brak kanału v GS =v t (cutoff ) kanał otwarty brak kanału kanał otwarty kanał zamknięty w.2, p. kanał zamknięty Co było na ostatnim wykładzie? Układy cyfrowe Najczęściej

Bardziej szczegółowo

architektura komputerów w. 2

architektura komputerów w. 2 architektura komputerów w. 2 Wiadomości i kody Wiadomości (Informacje) dyskretne ciągłe Kod - zbiór ciągów kodowych oraz reguła przyporządkowania ich wiadomościom. Ciąg kodowy - sygnał mający postać ciągu

Bardziej szczegółowo

Zestaw 1-1 Organizacja plików: Oddajemy tylko źródła programów (pliki o rozszerzeniach.cpp)!!!

Zestaw 1-1 Organizacja plików: Oddajemy tylko źródła programów (pliki o rozszerzeniach.cpp)!!! Zestaw 1-1 1. Napisz program pobierający od użytkownika liczbę całkowitą R (R>1) i liczbę rzeczywistą dodatnią S, a następnie informujący ile kolejnych liczb z ciągu 1, R-1, R 2-2, R 3-3, R 4-4, należy

Bardziej szczegółowo

Notatki z Podstaw kodowania i kryptografii. switch486 WIZ : PWr na podstawie folii z wykładu i ćwiczeń dr inż. E. Kukli Złożone W Systemie L A TEX

Notatki z Podstaw kodowania i kryptografii. switch486 WIZ : PWr na podstawie folii z wykładu i ćwiczeń dr inż. E. Kukli Złożone W Systemie L A TEX Notatki z Podstaw kodowania i kryptografii switch486 WIZ : PWr na podstawie folii z wykładu i ćwiczeń dr inż. E. Kukli Złożone W Systemie L A TEX Wrocław 5.6.2008 Spis treści I Kodowanie 5 Wiadomość, a

Bardziej szczegółowo

Rachunek prawdopodobieństwa dla informatyków

Rachunek prawdopodobieństwa dla informatyków Rachunek prawdopodobieństwa dla informatyków Adam Roman Instytut Informatyki UJ Wykład 1 rys historyczny zdarzenia i ich prawdopodobieństwa aksjomaty i reguły prawdopodobieństwa prawdopodobieństwo warunkowe

Bardziej szczegółowo

Komunikacja człowiek-komputer

Komunikacja człowiek-komputer Komunikacja człowiek-komputer Wykład 3 Dr inż. Michał Kruk Komunikacja człowiek - komputer dr inż. Michał Kruk Reprezentacja znaków Aby zakodować tekst, trzeba każdej możliwej kombinacji bitów przyporządkować

Bardziej szczegółowo

Ćwiczenia z metodyki nauczania rachunku prawdopodobieństwa

Ćwiczenia z metodyki nauczania rachunku prawdopodobieństwa Ćwiczenia z metodyki nauczania rachunku prawdopodobieństwa 25 marca 209 Zadanie. W urnie jest b kul białych i c kul czarnych. Losujemy n kul bez zwracania. Jakie jest prawdopodobieństwo, że pierwsza kula

Bardziej szczegółowo

= 10 9 = Ile jest wszystkich dwucyfrowych liczb naturalnych podzielnych przez 3? A. 12 B. 24 C. 29 D. 30. Sposób I = 30.

= 10 9 = Ile jest wszystkich dwucyfrowych liczb naturalnych podzielnych przez 3? A. 12 B. 24 C. 29 D. 30. Sposób I = 30. Kombinatoryka i rachunek prawdopodobieństwa Zadania zamknięte (0 1 pkt) 1. Flagę, taką jak pokazano na rysunku, należy zszyć z trzech jednakowej szerokości pasów kolorowej tkaniny. Oba pasy zewnętrzne

Bardziej szczegółowo

Spacery losowe generowanie realizacji procesu losowego

Spacery losowe generowanie realizacji procesu losowego Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z

Bardziej szczegółowo

Elementy rachunku prawdopodobieństwa (M. Skośkiewicz, A. Siejka, K. Walczak, A. Szpakowska)

Elementy rachunku prawdopodobieństwa (M. Skośkiewicz, A. Siejka, K. Walczak, A. Szpakowska) Elementy rachunku prawdopodobieństwa (M. Skośkiewicz, A. Siejka, K. Walczak, A. Szpakowska) Twierdzenie (o mnożeniu) Podstawowe pojęcia i wzory kombinatoryczne. Niech,, będą zbiorami mającymi odpowiednio,,

Bardziej szczegółowo

Matematyka dyskretna. Andrzej Łachwa, UJ, A/15

Matematyka dyskretna. Andrzej Łachwa, UJ, A/15 Matematyka dyskretna Andrzej Łachwa, UJ, 2015 andrzej.lachwa@uj.edu.pl 10A/15 Permutacje Permutacja zbioru skończonego X to bijekcja z X w X. Zbiór permutacji zbioru oznaczamy przez, a permutacje małymi

Bardziej szczegółowo

Kody blokowe Wykład 2, 10 III 2011

Kody blokowe Wykład 2, 10 III 2011 Kody blokowe Wykład 2, 10 III 2011 Literatura 1. R.M. Roth, Introduction to Coding Theory, 2006 2. W.C. Huffman, V. Pless, Fundamentals of Error-Correcting Codes, 2003 3. D.R. Hankerson et al., Coding

Bardziej szczegółowo

Detekcja i korekcja błędów w transmisji cyfrowej

Detekcja i korekcja błędów w transmisji cyfrowej Detekcja i korekcja błędów w transmisji cyfrowej Błędy w transmisji cyfrowej pojedyncze wielokrotne. całkowita niepewność względem miejsca zakłóconych bitów oraz czy w ogóle występują paczkowe (grupowe)

Bardziej szczegółowo

Matematyka dyskretna

Matematyka dyskretna Matematyka dyskretna Wykład 7: Kody korygujące błędy Gniewomir Sarbicki Błędy transmisji i kodowanie nadmiarowe Zakładamy, że przy pewnym małym prawdopodobieństwie ɛ przy transmisji bit zmienia wartość.

Bardziej szczegółowo