Teoria informacji i kodowania Ćwiczenia Sem. zimowy 2016/2017
|
|
- Martyna Wilczyńska
- 6 lat temu
- Przeglądów:
Transkrypt
1 Kody źródłowe jednoznacznie dekodowalne Zadanie Ile najwięcej słów kodowych może liczyć kod binarny jednoznacznie dekodowalny, którego najdłuższe słowo ma siedem liter? (Odp. 28) Zadanie 2 Zbiór sześciu wiadomości x,..., x i,..., x 6 zakodowano według pięciu różnych kodów A F podanych w poniższej tabeli: Wiadomość p(x i ) Kod A Kod B Kod C Kod D Kod E x x 2 x 3 x 4 x 5 x Określ, które z podanych kodów są jednoznacznie dekodowalne. Policz średnią długość dla każdego kodu jednoznacznie dekodowalnego. Zadanie 3 Czy można w alfabecie ternarnym skonstruować kod jednoznacznie dekodowalny, jeśli długości słów kodowych miałyby wynosić:, 2, 2, 2, 2, 2, 3, 3, 3, 3? A jeśli długości słów kodowych miałyby wynosić:, 2, 2, 2, 2, 2, 3, 3, 3? Jak wiele takich kodów (różnych) można skonstruować? (Odp. 6,53,840) Zadanie 4 (kolokwium z lat poprzednich) Zbiór dziesięciu wiadomości x,..., x i,..., x 0 należy zakodować w słowa kodowe o długościach odpowiednio l,..., l i,..., l 0 zebranych w tabeli poniżej (podano warianty dla trzech kodów: A, B, C należy udzielić odpowiedzi dla każdego kodu oddzielnie). Proszę określić minimalną długość alfabetu kodowego, dla którego tak skonstruowany kod jest natychmiastowo dekodowalny. Proszę podać taki przykładowy kod. i l i B A C Zadanie 5 Załóżmy, że alfabet kodu liczy D elementów oraz że sekwencja n liczb całkowitych l i o następującej charakterystyce: l l i l n, spełnia nierówność McMillana-Krafta. Na ile sposobów można wybrać słowa kodowe w,..., w n o długościach l(w i ) = l i, tak żeby zbiór tych słów kodowych mógł posłużyć do utworzenia kodu jednoznacznie dekodowalnego? Strona z 7
2 Kody źródłowe zwięzłe Zadanie 6 Źródło generuje równoprawdopodobne 4-symbolowe słowa kodowe kodu zwięzłego trójsymbolowego. Policz, ile maksymalnie informacji o źródle można uzyskać po odebraniu ośmiu słów. (Odp. Ok. 50 bit) Zadanie 7 Udowodnij że dla każdego kodu zwięzłego (ewentualnie kodu optymalnego) dla źródła o rozkładzie prawdopodobieństwa (p i ) zachodzi następująca zależność między prawdopodobieństwami wystąpienia wiadomości a długościami reprezentujących je słów kodowych l i : p j > p k l j l k. Zadanie 8 Źródło generuje trzy wiadomości z prawdopodobieństwami: p p 2 p 3. Pokaż, że średnia długość binarnego kodu zwięzłego C dla tego źródła wynosi: L(C) = 2 p. Ile będzie wynosiła średnia długość słowa kodu tego typu dla źródła generującego cztery wiadomości z prawdopodobieństwami: p p 2 p 3 p 4? Zadanie 9 Zakoduj w binarnym kodzie Shannona-Fano zbiór dziesięciu jednakowo prawdopodobnych wiadomości. Wykaż, że jest to kod zwięzły. Zadanie 0 Znajdź entropię źródła X, które generuje nieskończenie wiele wiadomości m, m 2,..., m i,... (zbiór wiadomości jest równoliczny ze zbiorem liczb naturalnych) o prawdopodobieństwie: p i = 2 i (i =, 2, 3,... ). Znajdź optymalny binarny kod jednoznacznie dekodowalny i oblicz jego średnią długość. (Odp. 2 bit /wiadom.) Zadanie Źródło generuje sto różnych wiadomości w taki sposób, że ograniczenie dolne średniej długości słowa kodu źródłowego jednoznacznie dekodowalnego jest najmniej korzystne z możliwych. Proszę znaleźć najmniejszy możliwy do osiągnięcia w takim przypadku nadmiar binarnego kodu źródłowego jednoznacznie dekodowalnego. (Odp. ok ) Kody Huffmana Zadanie 2 (kolokwium z lat poprzednich) Proszę pokazać, że dla żadnego źródła o siedmiu wiadomościach nie da się z użyciem kodowania Huffmana uzyskać kodu o podanym niżej zbiorze słów kodowych: Strona 2 z 7
3 Zadanie 3 (kolokwium z lat poprzednich) Źródło S generuje wiadomości z prawdopodobieństwami 0,3; 0,3; 0,2 i 0,2. Ile istnieje binarnych kodów zwięzłych dla tego źródła? Ile z nich to kody Huffmana? (Odp. 24 kody, z czego 8 to kody Huffmana) Zadanie 4 (kolokwium z lat poprzednich) Źródło X generuje wiadomości x, x 2,..., x n z prawdopodobieństwami p p 2 p n oraz dodatkowo: i=,...,n 3: p i > p i p n. Pokaż, jakie będą długości słów kodowych dla dowolnego binarnego kodu Huffmana tego źródła. Ile istnieje różnych binarnych kodów Huffmana dla tego źródła? Zadanie 5 (kolokwium z lat poprzednich) Pewne źródło generuje losowo wiadomości ze zbioru: x, x 2, x 3, x 4, a następnie przesyła je przy użyciu zwięzłego binarnego kodu jednoznacznie dekodowalnego (impuls trwa 5 µs każdy). Oblicz maksymalną szybkość przesyłania słów kodowych (w jednostkach: [ słów kod. /s]), jeśli: a) Pr{x i } = Pr{x j } : i, j =, 2, 3, 4, b) Pr{x } = 0,5, Pr{x 2 } = 0,25, Pr{x 3 } = Pr{x 4 }. Zadanie 6 (kolokwium z lat poprzednich) Źródło generuje osiem wiadomości elementarnych według następującego rozkładu prawdopodobieństwa: Pr{x } = 2 5 ; Pr{x 2} = 5 ; Pr{x 3} = Pr{x 4 } = 0 ; Pr{x 5} = Pr{x 6 } = Pr{x 7 } = Pr{x 8 }. Znajdź: a) jednoznacznie dekodowalny kod zwięzły dla tego źródła, gdy alfabet kodu to: {,,, }; b) zbiór list długości ciągów kodowych dla wszystkich kodów zwięzłych jednoznacznie dekodowalnych tego źródła dla wszystkich możliwych długości używanych alfabetów. Zadanie 7 (kolokwium z lat poprzednich) Odczytaj tekst zakodowany binarnym kodem Huffmana wiedząc, że względna częstość występowania symboli w tekście jest następująca: A(3), B(), K(), R(4), M() [tj. na trzy pojawienia się A mamy średnio cztery pojawienia się R itd.]. Gdyby w trakcie budowy drzewa Huffmana miała miejsce sytuacja, że do wyboru są więcej niż dwa wierzchołki przypisane konkretnemu symbolowi, wybierz wierzchołek związany z 0 jako przyporządkowany symbolowi występującemu wcześniej w alfabecie. Zadanie 8 (kolokwium z lat poprzednich) Źródło emituje znaki binarne z prawdopodobieństwem: Pr{0} = p, Pr{} = p. Dla celów transmisji chcemy zastosować następujący kod: 000, 0 00, 00 00,..., , ; tzn. jeśli źródło wyemituje na raz mniej niż 8 zer przed wyemitowaniem jedynki, wysyłamy słowo kodowe o postaci e e 2 e 3, gdzie e e 2 e 3 stanowi binarną reprezentację liczby zer, natomiast gdy wystąpi na raz 8 zer, taką sekwencję reprezentuje się za pomocą słowa 0. Jako zdarzenie zdefinujemy wygenerowanie słowa kodowego. Czy otrzymany kod jest kodem jednoznacznie dekodowalnym? Znajdź A c : wartość średnią liczby bitów słowa kodowego na zdarzenie. Znajdź A s : wartość średnią liczby bitów wygenerowanych przez źródło wiadomości na zdarzenie. Wartości średnie są rozumiane probabilistycznie. Następnie dla Strona 3 z 7
4 p = 0,9 porównaj Ac /A s ze średnią długością słowa kodowego na symbol źródła w binarnym kodowaniu Huffmana czwartego rozszerzenia oryginalnego źródła (tego o rozkładzie (p, p)). Co nam to mówi o optymalności kodowania Huffmana? Zadanie 9 (kolokwium z lat poprzednich) Nasz kolega rzuca w ukryciu parą rozróżnialnych kostek sześciennych, przy czym po każdym rzucie informuje nas o iloczynie wyrzuconych oczek. Wymyślił sobie, że będzie stosował w tym celu jednakowej długości ciągi binarne (rozumiemy, co kryje się pod określonymi ciągami, bo powiedział nam to wcześniej). Jaki jest nadmiar stosowanego przez niego kodu, jeśli wybrał najkrótszą możliwą długość ciągów i ile średnio symboli mógłby zaoszczędzić przy podawaniu wyników 000 rzutów, gdyby wybrał najlepszy możliwy dla tej sytuacji kod? Zadanie 20 (kolokwium z lat poprzednich) Rzucamy sfałszowaną monetą, dla której prawdopodobieństwo wypadnięcia reszki to 4. Rzut jest wykonywany co sekundę. Proszę zaprojektować koder, który będzie kodował binarnie wyniki kolejnych rzutów w taki sposób, że średnia liczba bitów na rzut będzie mniejsza niż jeden. Zadanie 2 Na podstawie analizy kodowania Huffmana dla bezpamięciowego źródła generującego N 2 wiadomości, pokaż że tworzone w alfabecie binarnym słowa kodowe o długościach l i spełniają nierówność: N l i ( N 2 + N 2 ). 2 Zadanie 22 (kolokwium z lat poprzednich) Mamy bezpamięciowe źródło wiadomości: [ m m 2 m 3 m 4 m 5 m 6 m 7 m 8 0,03 0,6 0, 0,3 0,07 0,07 0,9 0,06 i= Zakoduj wiadomości pochodzące z tego źródła kodem jednoznacznie dekodowalnym w taki sposób, żeby zminimalizować średni czas nadawania zakodowanej wiadomości, jeśli alfabet składa się z trzech liter: a, b, c. Czasy nadawania poszczególnych liter wynoszą: a 3 sekundy, b 2 sekundy oraz c 3 sekundy. Podaj średni czas nadawania zakodowanej wiadomości. (Odp. 4,54 sekundy) Zadanie 23 (kolokwium z lat poprzednich) Mamy dane bezpamięciowe źródło wiadomości: [ m m 2 m 3 m 4 m 5 m 6 m 7 m 8 m 9 m 0 m m 2 m 3 0,04 0,04 0,2 0,008 0,2 0,04 0,008 0,2 0,04 0,008 0,2 0,008 0,008 Proszę znaleźć (jeśli jest to w ogóle możliwe) jednoznacznie dekodowalny optymalny kod źródłowy o średniej długości większej niż. Odpowiedni alfabet kodowy proszę zaproponować samemu. Zadanie 24 (kolokwium z lat poprzednich) Pewne źródło informacji X nadaje wiadomości, z których każda to albo x albo x 2, albo x 3. Źródło nie jest bezpamięciowe i jesteśmy w stanie podać prawdopodobieństwa warunkowe wystąpienia wiadomości x j bezpośrednio po wiadomości x i. Zadano je macierzą, w której element ]. ]. Strona 4 z 7
5 umiejscowiony w wierszu j oraz kolumnie i podaje prawdopodobieństwo Pr{x j x i }: 0,3 0,2 0,4 0,4 0,7 0,2 0,3 0, 0,4 Proszę podać nadmiar kodu zwięzłego, który koduje sekwencje (x k x l ), k, l {, 2, 3} (tj. każda kodowana sekwencja jest złożona z dwóch wiadomości generowanych przez źródło X ) i który używa alfabetu {a, b, c, d}. Zadanie 25 Algorytm Huffmana polega między innymi na tworzeniu ciągu zredukowanych źródeł wiadomości w taki sposób, że za każdym razem (tzn. na etapie redukcji numer i) musimy obliczać prawdopodobieństwo p (i) Σ pewnej liczby najmniej prawdopodobnych wiadomości. Pokaż, że średnią długość binarnego kodu Huffmana C można obliczyć jako: L(C) = + i p (i) Σ. Zadanie 26 Zaproponuj algorytm definiujący D-arny kod Huffmana C, który nie tylko minimalizuje średnią długość kodu: L(C) = p i l i, i ale także minimalizuje całkowitą długość kodu, rozumianą jako: σ(c) = i l i. Zadanie 27 Na podstawie analizy kodowania Huffmana (lub korzystając z wyników zad. 26) pokaż, że dla bezpamięciowego źródła generującego N wiadomości, słowa kodowe binarnego kodu zwięzłego o długościach l i spełniają poniższą nierówność: Kompresja bezstratna N l i N lg N. Zadanie 28 Skompresuj za pomocą adaptacyjnego (dynamicznego) kodu Huffmana sekwencję: i= GŻEGŻÓŁKA JEŻA Zadanie 29 (kolokwium z lat poprzednich) Proszę zapisać binarnie za pomocą czterech symboli ostatnią cyfrę swojego indeksu (np. dla 5 to będzie 00), następnie powtórzyć ją nieskończenie wiele razy otrzyma się sekwencję s (np. dla 5 to będzie ). W pewnej chwili drzewo adaptacyjnego kodu Huffmana, skonstruowane równolegle w koderze i dekoderze, zapisane w postaci listy ma postać: Strona 5 z 7
6 0, a,, b, c, d, 2, 2 Poczynając od tej chwili obserwujemy koder i widzimy, że wysyła sekwencję s. Proszę pokazać, co zdekoduje dekoder. Symbole, które nie wystąpiły wcześniej, są przez koder przesyłane w kodzie ASCII. Zadanie 30 Skompresuj za pomocą kodu arytmetycznego sekwencję ( oznacza koniec sekwencji): BUFFALO BILL Rozkład źródła znajdź na podstawie podanej sekwencji (w razie potrzeby można zaokrąglić do dwóch miejsc po przecinku dla uproszczenia obliczeń). Zbadaj efektywność kodu. Zadanie 3 Przy zadanej w tabeli statystyce źródła sprawdź, jaką wiadomość zakodowano za pomocą następującej sekwencji bitów używając kodowania arytmetycznego ( oznacza koniec sekwencji): Wiadomość Prawdopodobieństwo skumulowane A [0,0; 0,) I [0,; 0,2) M [0,2; 0,4) S [0,4; 0,6) Z [0,6; 0,8) [0,8; 0,9) [0,9;,0) Inne Zadanie 32 (*) Gra w dwadzieścia pytań : zadający zagadkę wybiera obiekt x ze skończonego (ale raczej dużego) zbioru obiektów S = {s,..., s n }, przy czym prawdopodobieństwo, że jako x wybierze s i wynosi p i (odgadujący zna zbiór S oraz prawdopodobieństwa wybrania każdego z obiektów). Trzeba zgadnąć, o który obiekt chodzi, zadając po kolei pytania postaci: Q i : Czy x należy do T i?, gdzie T i jest pewnym podzbiorem S (przy zadawaniu pytania Q i zgadujący oczywiście precyzyjnie definiuje zbiór T i ). Możliwa odpowiedź to tylko tak lub nie, zadający zagadkę odpowiada zgodnie z prawdą. Proszę w oparciu o znajomość teorii informacji podać uniwersalną strategię zadawania pytań, która da szansę na odgadnięcie obiektu x przy zadawaniu jak najmniejszej liczby pytań. Zadanie 33 (*) Teorię informacji (w szczególności zwięzłe kodowanie źródłowe) można użyć do zaprojektowania efektywnych testów przesiewowych krwi. Załóżmy, że mamy do przebadania pod kątem obecności wirusa N próbek krwi. Prawodopodobieństwo pozytywnego wyniku (czyli wykrycia wirusa) dla każdej próbki jest niewielkie (p = 0,0), a testy są kosztowne, więc trzeba minimalizować ich liczbę. Zamiast badać każdą próbkę z osobna, można badać zmieszane fragmenty Strona 6 z 7
7 próbek. Zakładamy wtedy, że wynik będzie pozytywny, jeśli choć jedna z wymieszanych próbek zawierała wirusa. Zakładamy też, że każdą próbkę można podzielić na dowolnie wiele fragmentów. Ostatecznie musimy jednak dla każdej próbki wiedzieć czy na pewno zawiera wirusa czy nie. Jak maksymalnie zmniejszyć oczekiwaną liczbę testów do wykonania? Zaprojektuj badanie dla 300 próbek i podaj oczekiwaną liczbę testów. Informacja dodatkowa: Na kartkach z zadaniami do kolejnego kolokwium znajdą Państwo następujące dane, być może pomocne przy rozwiązywaniu zadań: H(X, Y ) = H(X) + H(Y X) (reguła łańcuchowa) I(X; Y ) = H(X) H(X Y ) = H(Y ) H(Y X) = H(X) + H(Y ) H(X, Y ) X, Y niezależne: H(X, Y ) = H(X) + H(Y ) Tabela opisująca kod ASCII (b 7 : najstarszy bit, np. a jest reprezentowane przez 0000): b b b b 4 b 3 b 2 b NUL DLE SP 0 P p SOH DC! A Q a q STX DC2 2 B R b r 0 0 ETX DC3 # 3 C S c s EOT DC4 $ 4 D T d t 0 0 ENQ NAK % 5 E U e u 0 0 ACK SYN & 6 F V f v 0 BEL ETB 7 G W g w BS CAN ( 8 H X h x 0 0 HT EM ) 9 I Y i y 0 0 LF SUB * : J Z j z 0 VT ESC + ; K [ k { 0 0 FF FC, < L \ l 0 CR GS - = M ] m } 0 SO RS. > N ˆ n SI US /? O o DEL Strona 7 z 7
Teoria informacji i kodowania Ćwiczenia
Teoria informacji i kodowania Ćwiczenia Piotr Chołda, Andrzej Kamisiński Katedra Telekomunikacji Akademii Górniczo-Hutniczej Kod źródłowy Kodem źródłowym nazywamy funkcję różnowartościową, która elementom
Bardziej szczegółowoO oszczędnym dziennikarzu, czyli czym jest
O oszczędnym dziennikarzu, czyli czym jest informacja i jak ja mierzymy? Adam Doliwa doliwa@matman.uwm.edu.pl WYKŁAD DLA MŁODZIEŻY WYDZIAŁ MATEMATYKI I INFORMATYKI UWM Olsztyn, 9 lutego 2016 r. Adam Doliwa
Bardziej szczegółowoJak zadać dobre pytanie, czyli czym jest informacja i jak ja
Jak zadać dobre pytanie, czyli czym jest informacja i jak ja zmierzyć Adam Doliwa doliwa@matman.uwm.edu.pl WYKŁAD Z CYKLU NIEZWYKŁA MATEMATYKA WYDZIAŁ MATEMATYKI I INFORMATYKI UWM Olsztyn, 28 września
Bardziej szczegółowoArchitektura systemów komputerowych Laboratorium 5 Kodowanie liczb i tekstów
Architektura systemów komputerowych Laboratorium 5 Kodowanie liczb i tekstów Marcin Stępniak Informacje. Kod NKB Naturalny kod binarny (NKB) jest oparty na zapisie liczby naturalnej w dwójkowym systemie
Bardziej szczegółowoteoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015
teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015 1 zakres materiału zakres materiału 1. Czym jest teoria informacji? 2. Wprowadzenie matematyczne. 3. Entropia i informacja.
Bardziej szczegółowoKodowanie Huffmana. Platforma programistyczna.net; materiały do laboratorium 2014/15 Marcin Wilczewski
Kodowanie Huffmana Platforma programistyczna.net; materiały do laboratorium 24/5 Marcin Wilczewski Algorytm Huffmana (David Huffman, 952) Algorytm Huffmana jest popularnym algorytmem generującym optymalny
Bardziej szczegółowoKompresja bezstratna. Entropia. Kod Huffmana
Kompresja bezstratna. Entropia. Kod Huffmana Kodowanie i bezpieczeństwo informacji - Wykład 10 29 kwietnia 2013 Teoria informacji Jeśli P(A) jest prawdopodobieństwem wystapienia informacji A to niech i(a)
Bardziej szczegółowoTeoria Informacji - wykład. Kodowanie wiadomości
Teoria Informacji - wykład Kodowanie wiadomości Definicja kodu Niech S={s 1, s 2,..., s q } oznacza dany zbiór elementów. Kodem nazywamy wówczas odwzorowanie zbioru wszystkich możliwych ciągów utworzonych
Bardziej szczegółowoteoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015
teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015 1 wczoraj Wprowadzenie matematyczne. Entropia i informacja. Kodowanie. Kod ASCII. Stopa kodu. Kody bezprefiksowe.
Bardziej szczegółowoKompresja danych kodowanie Huffmana. Dariusz Sobczuk
Kompresja danych kodowanie Huffmana Dariusz Sobczuk Plan wykładu Kodowanie metodą Shannona-Fano Kodowanie metodą Huffmana Elementarny kod Golomba Kod Golomba Kod Rice a kompresja danych 2 Efektywny kod
Bardziej szczegółowoElementy teorii informacji i kodowania
i kodowania Entropia, nierówność Krafta, kodowanie optymalne Marcin Jenczmyk m.jenczmyk@knm.katowice.pl 17 kwietnia 2015 M. Jenczmyk Spotkanie KNM i kodowania 1 / 20 Niech S = {x 1,..., x q } oznacza alfabet,
Bardziej szczegółowoGranica kompresji Kodowanie Shannona Kodowanie Huffmana Kodowanie ciągów Kodowanie arytmetyczne. Kody. Marek Śmieja. Teoria informacji 1 / 35
Kody Marek Śmieja Teoria informacji 1 / 35 Entropia Entropia określa minimalną statystyczną długość kodowania (przyjmijmy dla prostoty że alfabet kodowy A = {0, 1}). Definicja Niech X = {x 1,..., x n }
Bardziej szczegółowoTeoria informacji i kodowania Ćwiczenia Sem. zimowy 2016/2017
Algebra liniowa Zadanie 1 Czy jeśli wektory x, y i z, należące do binarnej przestrzeni wektorowej nad ciałem Galois GF (2), są liniowo niezależne, to można to samo orzec o następujących trzech wektorach:
Bardziej szczegółowoKodowanie i kompresja Streszczenie Studia dzienne Wykład 9,
1 Kody Tunstalla Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9, 14.04.2005 Inne podejście: słowa kodowe mają ustaloną długość, lecz mogą kodować ciągi liter z alfabetu wejściowego o różnej
Bardziej szczegółowoKodowanie i entropia
Kodowanie i entropia Marek Śmieja Teoria informacji 1 / 34 Kod S - alfabet źródłowy mocy m (np. litery, cyfry, znaki interpunkcyjne), A = {a 1,..., a n } - alfabet kodowy (symbole), Chcemy przesłać tekst
Bardziej szczegółowoDZIESIĘTNY SYSTEM LICZBOWY
DZIESIĘTNY SYSTEM LICZBOWY Do zapisu dowolnej liczby system wykorzystuje dziesięć symboli (cyfr): 0, 1, 2, 3, 4, 5, 6, 7, 8, 9 Dowolną liczbę w systemie dziesiętnym możemy przedstawić jako następująca
Bardziej szczegółowomgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. GOLOMBA I RICE'A
mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. KOMPRESJA ALGORYTMEM ARYTMETYCZNYM, GOLOMBA I RICE'A Idea algorytmu arytmetycznego Przykład kodowania arytmetycznego Renormalizacja
Bardziej szczegółowoKompresja Kodowanie arytmetyczne. Dariusz Sobczuk
Kompresja Kodowanie arytmetyczne Dariusz Sobczuk Kodowanie arytmetyczne (lata 1960-te) Pierwsze prace w tym kierunku sięgają początków lat 60-tych XX wieku Pierwszy algorytm Eliasa nie został opublikowany
Bardziej szczegółowoDef. Kod jednoznacznie definiowalny Def. Kod przedrostkowy Def. Kod optymalny. Przykłady kodów. Kody optymalne
Załóżmy, że mamy źródło S, które generuje symbole ze zbioru S={x, x 2,..., x N } z prawdopodobieństwem P={p, p 2,..., p N }, symbolom tym odpowiadają kody P={c, c 2,..., c N }. fektywność danego sposobu
Bardziej szczegółowo0 + 0 = 0, = 1, = 1, = 0.
5 Kody liniowe Jak już wiemy, w celu przesłania zakodowanego tekstu dzielimy go na bloki i do każdego z bloków dodajemy tak zwane bity sprawdzające. Bity te są w ścisłej zależności z bitami informacyjnymi,
Bardziej szczegółowoTemat: Algorytm kompresji plików metodą Huffmana
Temat: Algorytm kompresji plików metodą Huffmana. Wymagania dotyczące kompresji danych Przez M oznaczmy zbiór wszystkich możliwych symboli występujących w pliku (alfabet pliku). Przykład M = 2, gdy plik
Bardziej szczegółowoNierówność Krafta-McMillana, Kodowanie Huffmana
Nierówność Krafta-McMillana, Kodowanie Huffmana Kodowanie i kompresja informacji - Wykład 2 1 marca 2010 Test na jednoznaczna dekodowalność Kod a jest prefiksem kodu b jeśli b jest postaci ax. x nazywamy
Bardziej szczegółowoDefinicja. Jeśli. wtedy
Definicja Jeśli wtedy Cel kompresji: zredukowanie do minimum oczekiwanego (średniego) kosztu gdzie l i jest długością słowa kodu c i kodującego symbol a i Definicja Definicje Efektywność kodowania określamy
Bardziej szczegółowoTeoria Informacji i Metody Kompresji Danych
Teoria Informacji i Metody Kompresji Danych 1 Przykładowe zadania (dodatkowe materiały wykładowe) 2 Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL
Bardziej szczegółowoInstrukcja dotycząca kodów kreskowych
Instrukcja dotycząca kodów kreskowych Wersja 0 POL 1 Wprowadzenie 1 Omówienie 1 1 Niniejsza skrócona instrukcja zawiera informacje na temat drukowania kodów kreskowych z wykorzystaniem poleceń sterujących
Bardziej szczegółowoWygra Polska czy Brazylia, czyli o tym jak zwięźle zapisywać informacje
Wygra Polska czy Brazylia, czyli o tym jak zwięźle zapisywać informacje Witold Tomaszewski Instytut Matematyki Politechniki Śląskiej e-mail: Witold.Tomaszewski@polsl.pl Je n ai fait celle-ci plus longue
Bardziej szczegółowoEntropia Kodowanie. Podstawy kompresji. Algorytmy kompresji danych. Sebastian Deorowicz
Algorytmy kompresji danych 2007 02 27 Plan wykładu 1 Modelowanie i kodowanie 2 Modelowanie i kodowanie Plan wykładu 1 Modelowanie i kodowanie 2 Modelowanie i kodowanie definicja stowarzyszona ze zbiorem
Bardziej szczegółowo4 Standardy reprezentacji znaków. 5 Przechowywanie danych w pamięci. 6 Literatura
ARCHITEKTURA SYSTEMÓW KOMPUTEROWYCH reprezentacja danych ASK.RD.01 c Dr inż. Ignacy Pardyka UNIWERSYTET JANA KOCHANOWSKIEGO w Kielcach Rok akad. 2011/2012 1 2 Standardy reprezentacji wartości całkowitoliczbowych
Bardziej szczegółowoNiech x 1,..., x n będzie ciągiem zdarzeń. ---
Matematyczne podstawy kryptografii, Ćw2 TEMAT 7: Teoria Shannona. Kody Huffmana, entropia. BIBLIOGRAFIA: [] Cz. Bagiński, cez.wipb.pl, [2] T. H. Cormen, C. E. Leiserson, R. L Rivest, Wprowadzenie do algorytmów,
Bardziej szczegółowoARCHITEKTURA KOMPUTERÓW. Reprezentacja danych w komputerach
Reprezentacja danych w komputerach dr inż. Wiesław Pamuła wpamula@polsl.katowice.pl Literatura 2. J.Biernat: Architektura komputerów, Oficyna Wydawnicza Politechniki Wrocławskiej, Wrocław2002. 3. Null
Bardziej szczegółowoTechnologie informacyjne (3) Zdzisław Szyjewski
Technologie informacyjne (3) Zdzisław Szyjewski Technologie informacyjne Technologie pracy z komputerem Funkcje systemu operacyjnego Przykłady systemów operacyjnych Zarządzanie pamięcią Zarządzanie danymi
Bardziej szczegółowoPrzetwarzanie i transmisja danych multimedialnych. Wykład 2 Podstawy kompresji. Przemysław Sękalski.
Przetwarzanie i transmisja danych multimedialnych Wykład Podstawy kompresji Przemysław Sękalski sekalski@dmcs.pl Politechnika Łódzka Katedra Mikroelektroniki i Technik Informatycznych DMCS Zawartość wykładu.
Bardziej szczegółowoKody Tunstalla. Kodowanie arytmetyczne
Kody Tunstalla. Kodowanie arytmetyczne Kodowanie i kompresja informacji - Wykład 3 8 marca 2010 Kody Tunstalla Wszystkie słowa kodowe maja ta sama długość ale jeden kod może kodować różna liczbę liter
Bardziej szczegółowoTechnologie informacyjne (3) Zdzisław Szyjewski
Technologie informacyjne (3) Zdzisław Szyjewski Technologie informacyjne Technologie pracy z komputerem Funkcje systemu operacyjnego Przykłady systemów operacyjnych Zarządzanie pamięcią Zarządzanie danymi
Bardziej szczegółowoAlgorytmy kompresji. Kodowanie Huffmana, kodowanie arytmetyczne
Algorytmy kompresji Kodowanie Huffmana, kodowanie arytmetyczne Kodowanie arytmetyczne Peter Elias 1923-2001 Kodowanie arytmetyczne to metoda kodowania źródłowego dyskretnych źródeł sygnałów, stosowana
Bardziej szczegółowoModulacja i kodowanie. Labolatorium. Kodowanie źródłowe Kod Huffman a
Modulacja i kodowanie Labolatorium Kodowanie źródłowe Kod Huffman a W tym ćwiczeniu zajmiemy się kodowaniem źródłowym (source coding). 1. Kodowanie źródłowe Głównym celem kodowanie źródłowego jest zmniejszenie
Bardziej szczegółowoZADANIE 1. Rozwiązanie:
EUROELEKTR Ogólnopolska Olimpiada Wiedzy Elektrycznej i Elektronicznej Rok szkolny 200/20 Rozwiązania zadań dla grupy teleinformatycznej na zawody II. stopnia ZNIE ramka logiczna w technologii MOS składa
Bardziej szczegółowoKodowanie informacji
Kodowanie informacji Tomasz Wykład 4: kodowanie arytmetyczne Motywacja Podstawy i własności Liczby rzeczywiste Motywacje 1 średnia długość kodu Huffmana może odbiegać o p max + 0.086 od entropii, gdzie
Bardziej szczegółowoZałożenia i obszar zastosowań. JPEG - algorytm kodowania obrazu. Geneza algorytmu KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG
Założenia i obszar zastosowań KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG Plan wykładu: Geneza algorytmu Założenia i obszar zastosowań JPEG kroki algorytmu kodowania obrazu Założenia: Obraz monochromatyczny
Bardziej szczegółowoWstęp Statyczne kody Huffmana Dynamiczne kody Huffmana Praktyka. Kodowanie Huffmana. Dawid Duda. 4 marca 2004
4 marca 2004 Podstawowe oznaczenia i definicje Wymagania wobec kodu Podstawowa idea Podsumowanie Podstawowe oznaczenia i definicje Podstawowe oznaczenia i definicje: alfabet wejściowy: A = {a 1, a 2,...,
Bardziej szczegółowoAlgorytmy kodowania entropijnego
Algorytmy kodowania entropijnego 1. Kodowanie Shannona-Fano 2. Kodowanie Huffmana 3. Jednoznaczność kodów Huffmana. Kod o minimalnej wariancji 4. Dynamiczne kodowanie Huffmana Poprzedni wykład - podsumowanie
Bardziej szczegółowoAlgorytmy zachłanne. dr inż. Urszula Gałązka
Algorytmy zachłanne dr inż. Urszula Gałązka Algorytm zachłanny O Dokonuje wyboru, który w danej chwili wydaje się najkorzystniejszy. O Mówimy, że jest to wybór lokalnie optymalny O W rzeczywistości nie
Bardziej szczegółowoRachunek prawdopodobieństwa
Rachunek prawdopodobieństwa Sebastian Rymarczyk srymarczyk@afm.edu.pl Tematyka zajęć 1. Elementy kombinatoryki. 2. Definicje prawdopodobieństwa. 3. Własności prawdopodobieństwa. 4. Zmienne losowe, parametry
Bardziej szczegółowoPodstawy nauk przyrodniczych Matematyka
Podstawy nauk przyrodniczych Matematyka Elementy rachunku prawdopodobieństwa dr inż. Małgorzata Szeląg Zakład Genetyki Molekularnej Człowieka tel. 61 829 59 04 malgorzata.szelag@amu.edu.pl Pokój 1.118
Bardziej szczegółowoMoneta 1 Moneta 2 Kostka O, R O,R 1,2,3,4,5, Moneta 1 Moneta 2 Kostka O O ( )
Nowa matura kombinatoryka i rachunek prawdopodobieństwa Zadania zamknięte (0 1 pkt) 1. Doświadczenie losowe polega na rzucie dwiema symetrycznymi monetami i sześcienną kostką do gry. Prawdopodobieństwo
Bardziej szczegółowoKODY SYMBOLI. Materiały KODA, A.Przelaskowski. Koncepcja przedziałów nieskończonego alfabetu
KODY SYMBOLI Materiały KODA, A.Przelaskowski Koncepcja drzewa binarnego Metoda S-F Kod Huffmana Adaptacyjne drzewo Huffmana Problemy implementacji Koncepcja przedziałów nieskończonego alfabetu Proste kody
Bardziej szczegółowoMateriały dla finalistów
Materiały dla finalistów Malachoviacus Informaticus 2016 11 kwietnia 2016 Wprowadzenie Poniższy dokument zawiera opisy zagadnień, które będą niezbędne do rozwiązania zadań w drugim etapie konkursu. Polecamy
Bardziej szczegółowoPodstawowe pojęcia. Teoria informacji
Kodowanie i kompresja informacji - Wykład 1 22 luty 2010 Literatura K. Sayood, Kompresja danych - wprowadzenie, READ ME 2002 (ISBN 83-7243-094-2) Literatura K. Sayood, Kompresja danych - wprowadzenie,
Bardziej szczegółowoP r a w d o p o d o b i eństwo Lekcja 1 Temat: Lekcja organizacyjna. Program. Kontrakt.
P r a w d o p o d o b i eństwo Lekcja 1 Temat: Lekcja organizacyjna. Program. Kontrakt. Lekcja 2 Temat: Podstawowe pojęcia związane z prawdopodobieństwem. Str. 10-21 1. Doświadczenie losowe jest to doświadczenie,
Bardziej szczegółowoEntropia to wielkość określająca liczbę bitów informacji zawartej w danej wiadomości lub źródle. Spełnia ona trzy naturalne warunki: I(s) jest
Entropia to wielkość określająca liczbę bitów informacji zawartej w danej wiadomości lub źródle. Spełnia ona trzy naturalne warunki: I(s) jest malejącą funkcją prawdopodobieństwa zajścia zdarzenia s. I(s)
Bardziej szczegółowoL.Kowalski zadania z rachunku prawdopodobieństwa-zestaw 2 ZADANIA - ZESTAW 2
ZADANIA - ZESTAW 2 Zadanie 2.1 Zmienna losowa X ma rozkład określony funkcją prawdopodobieństwa: x k 1 0 2 p k 1/ 1/6 1/2 a) wyznaczyć dystrybuantę tej zmiennej losowej i naszkicować jej wykres, b) obliczyć
Bardziej szczegółowoPrzetwarzanie i transmisja danych multimedialnych. Wykład 3 Kodowanie Shannona Fano i Huffmana. Przemysław Sękalski.
Przetwarzanie i transmisja danych multimedialnych Wykład 3 Kodowanie Shannona Fano i Huffmana Przemysław Sękalski sekalski@dmcs.pl Politechnika Łódzka Katedra Mikroelektroniki i Technik Informatycznych
Bardziej szczegółowoPodstawy kompresji danych
Podstawy kompresji danych Pojęcie kompresji W ogólności kompresja (kodowanie) jest procedurą (przekształceniem) zmiany reprezentacji wejściowego zbioru danych do postaci wymagającej mniejszej liczby bitów
Bardziej szczegółowoKodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład Kody liniowe - kodowanie w oparciu o macierz parzystości
Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład 13 1 Kody liniowe - kodowanie w oparciu o macierz parzystości Przykład Różne macierze parzystości dla kodu powtórzeniowego. Co wiemy z algebry
Bardziej szczegółowoSystemy liczbowe. 1. Przedstawić w postaci sumy wag poszczególnych cyfr liczbę rzeczywistą R = (10).
Wprowadzenie do inżynierii przetwarzania informacji. Ćwiczenie 1. Systemy liczbowe Cel dydaktyczny: Poznanie zasad reprezentacji liczb w systemach pozycyjnych o różnych podstawach. Kodowanie liczb dziesiętnych
Bardziej szczegółowoDla człowieka naturalnym sposobem liczenia jest korzystanie z systemu dziesiętnego, dla komputera natomiast korzystanie z zapisu dwójkowego
Arytmetyka cyfrowa Dla człowieka naturalnym sposobem liczenia jest korzystanie z systemu dziesiętnego, dla komputera natomiast korzystanie z zapisu dwójkowego (binarnego). Zapis binarny - to system liczenia
Bardziej szczegółowoSymulacja w przedsiębiorstwie
Symulacja w przedsiębiorstwie Generowanie liczb losowych Cel Celem laboratorium jest zapoznanie się z funkcjami generowania liczb pseudolosowych w środowisku Ms Excel. Funkcje te są podstawą modeli symulacyjnych
Bardziej szczegółowoKodowanie Shannona-Fano
Kodowanie Shannona-Fano Kodowanie Shannona-Fano znane było jeszcze przed kodowaniem Huffmana i w praktyce można dzięki niemu osiągnąć podobne wyniki, pomimo, że kod generowany tą metodą nie jest optymalny.
Bardziej szczegółowo0-0000, 1-0001, 2-0010, 3-0011 itd... 9-1001.
KODOWANIE Jednym z problemów, z którymi spotykamy się w informatyce, jest problem właściwego wykorzystania pamięci. Konstruując algorytm staramy się zwykle nie tylko o zminimalizowanie kosztów czasowych
Bardziej szczegółowoKODY SYMBOLI. Kod Shannona-Fano. Algorytm S-F. Przykład S-F
KODY SYMBOLI Kod Shannona-Fano KODOWANIE DANYCH, A.Przelaskowski Metoda S-F Kod Huffmana Adaptacyjne drzewo Huffmana Problemy implementacji Kod Golomba Podsumowanie Kod drzewa binarnego Na wejściu rozkład:
Bardziej szczegółowoLista 5. Zadanie 3. Zmienne losowe X i (i = 1, 2, 3, 4) są niezależne o tym samym
Lista 5 Zadania na zastosowanie nierównosci Markowa i Czebyszewa. Zadanie 1. Niech zmienna losowa X ma rozkład jednostajny na odcinku [0, 1]. Korzystając z nierówności Markowa oszacować od góry prawdopodobieństwo,
Bardziej szczegółowoRACHUNEK PRAWDOPODOBIEŃSTWA I KOMBINATORYKA
RACHUNEK PRAWDOPODOBIEŃSTWA I KOMBINATORYKA Doświadczenia losowe Rachunek prawdopodobieństwa zajmuje się zdarzeniami jakie zachodzą, gdy przeprowadzamy doświadczenia losowe. Mówimy, że doświadczenie jest
Bardziej szczegółowoKodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11,
1 Kwantyzacja skalarna Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11, 10.05.005 Kwantyzacja polega na reprezentowaniu dużego zbioru wartości (być może nieskończonego) za pomocą wartości
Bardziej szczegółowoWstęp do Informatyki
Wstęp do Informatyki Bożena Woźna-Szcześniak bwozna@gmail.com Jan Długosz University, Poland Wykład 4 Bożena Woźna-Szcześniak (AJD) Wstęp do Informatyki Wykład 4 1 / 1 DZIELENIE LICZB BINARNYCH Dzielenie
Bardziej szczegółowoDetekcja i korekcja błędów w transmisji cyfrowej
Detekcja i korekcja błędów w transmisji cyfrowej Błędy w transmisji cyfrowej pojedyncze wielokrotne. całkowita niepewność względem miejsca zakłóconych bitów oraz czy w ogóle występują paczkowe (grupowe)
Bardziej szczegółowoDane, informacja, programy. Kodowanie danych, kompresja stratna i bezstratna
Dane, informacja, programy Kodowanie danych, kompresja stratna i bezstratna DANE Uporządkowane, zorganizowane fakty. Główne grupy danych: tekstowe (znaki alfanumeryczne, znaki specjalne) graficzne (ilustracje,
Bardziej szczegółowoTechnologie Informacyjne
System binarny Szkoła Główna Służby Pożarniczej Zakład Informatyki i Łączności October 7, 26 Pojęcie bitu 2 Systemy liczbowe 3 Potęgi dwójki 4 System szesnastkowy 5 Kodowanie informacji 6 Liczby ujemne
Bardziej szczegółowo1.1. Pozycyjne systemy liczbowe
1.1. Pozycyjne systemy liczbowe Systemami liczenia nazywa się sposób tworzenia liczb ze znaków cyfrowych oraz zbiór reguł umożliwiających wykonywanie operacji arytmetycznych na liczbach. Dla dowolnego
Bardziej szczegółowoWedług raportu ISO z 1988 roku algorytm JPEG składa się z następujących kroków: 0.5, = V i, j. /Q i, j
Kompresja transformacyjna. Opis standardu JPEG. Algorytm JPEG powstał w wyniku prac prowadzonych przez grupę ekspertów (ang. Joint Photographic Expert Group). Prace te zakończyły się w 1991 roku, kiedy
Bardziej szczegółowoTeoria informacji i kodowania Ćwiczenia
Teoria informacji i kodowania Ćwiczenia Piotr Chołda, Andrzej Kamisiński Katedra Telekomunikacji Akademii Górniczo-Hutniczej Terminy kolokwiów zaliczeniowych Kolokwium KZ1: 27.01.2017, piątek, 9:00-11:30,
Bardziej szczegółowoPodstawy Informatyki: Kody. Korekcja błędów.
Podstawy Informatyki: Kody. Korekcja błędów. Adam Kolany Instytut Techniczny adamkolany@pm.katowice.pl Adam Kolany (PWSZ Nowy Sącz, IT) Podstawy Informatyki: Kody. Korekcja błędów. 11 stycznia 2012 1 /
Bardziej szczegółowoa. zbiór wszystkich potasowań talii kart (w którym S dostaje 13 pierwszych kart, W - 13 kolejnych itd.);
03DRAP - Przykłady przestrzeni probabilistycznych Definicja 1 Przestrzeń probabilistyczna to trójka (Ω, F, P), gdzie Ω zbiór zdarzeń elementarnych, F σ ciało zdarzeń (podzbiorów Ω), P funkcja prawdopodobieństwa/miara
Bardziej szczegółowoRachunek prawdopodobieństwa- wykład 2
Rachunek prawdopodobieństwa- wykład 2 Pojęcie dyskretnej przestrzeni probabilistycznej i określenie prawdopodobieństwa w tej przestrzeni dr Marcin Ziółkowski Instytut Matematyki i Informatyki Uniwersytet
Bardziej szczegółowoMODELOWANIE RZECZYWISTOŚCI
MODELOWANIE RZECZYWISTOŚCI Daniel Wójcik Instytut Biologii Doświadczalnej PAN d.wojcik@nencki.gov.pl tel. 022 5892 424 http://www.neuroinf.pl/members/danek/swps/ Podręcznik Iwo Białynicki-Birula Iwona
Bardziej szczegółowoTechniki multimedialne
Techniki multimedialne Digitalizacja podstawą rozwoju systemów multimedialnych. Digitalizacja czyli obróbka cyfrowa oznacza przetwarzanie wszystkich typów informacji - słów, dźwięków, ilustracji, wideo
Bardziej szczegółowoArytmetyka komputera. Na podstawie podręcznika Urządzenia techniki komputerowej Tomasza Marciniuka. Opracował: Kamil Kowalski klasa III TI
Arytmetyka komputera Na podstawie podręcznika Urządzenia techniki komputerowej Tomasza Marciniuka Opracował: Kamil Kowalski klasa III TI Spis treści 1. Jednostki informacyjne 2. Systemy liczbowe 2.1. System
Bardziej szczegółowoWprowadzenie do informatyki i użytkowania komputerów. Kodowanie informacji System komputerowy
1 Wprowadzenie do informatyki i użytkowania komputerów Kodowanie informacji System komputerowy Kodowanie informacji 2 Co to jest? bit, bajt, kod ASCII. Jak działa system komputerowy? Co to jest? pamięć
Bardziej szczegółowoSamodzielnie wykonaj następujące operacje: 13 / 2 = 30 / 5 = 73 / 15 = 15 / 23 = 13 % 2 = 30 % 5 = 73 % 15 = 15 % 23 =
Systemy liczbowe Dla każdej liczby naturalnej x Î N oraz liczby naturalnej p >= 2 istnieją jednoznacznie wyznaczone: liczba n Î N oraz ciąg cyfr c 0, c 1,..., c n-1 (gdzie ck Î {0, 1,..., p - 1}) taki,
Bardziej szczegółowoKwantyzacja wektorowa. Kodowanie różnicowe.
Kwantyzacja wektorowa. Kodowanie różnicowe. Kodowanie i kompresja informacji - Wykład 7 12 kwietnia 2010 Kwantyzacja wektorowa wprowadzenie Zamiast kwantyzować pojedyncze elementy kwantyzujemy całe bloki
Bardziej szczegółowo12. Wprowadzenie Sygnały techniki cyfrowej Systemy liczbowe. Matematyka: Elektronika:
PRZYPOMNIJ SOBIE! Matematyka: Dodawanie i odejmowanie "pod kreską". Elektronika: Sygnały cyfrowe. Zasadę pracy tranzystorów bipolarnych i unipolarnych. 12. Wprowadzenie 12.1. Sygnały techniki cyfrowej
Bardziej szczegółowoZestaw 3. - Zapis liczb binarnych ze znakiem 1
Zestaw 3. - Zapis liczb binarnych ze znakiem 1 Zapis znak - moduł (ZM) Zapis liczb w systemie Znak - moduł Znak liczby o n bitach zależy od najstarszego bitu b n 1 (tzn. cyfry o najwyższej pozycji): b
Bardziej szczegółowoa. zbiór wszystkich potasowań talii kart (w którym S dostaje 13 pierwszych kart, W - 13 kolejnych itd.);
03DRAP - Przykłady przestrzeni probabilistycznych A Zadania na ćwiczenia Zadanie A1 (wskazówka: pierwsze ćwicznia i rozdział 23 przykł 1 i 2) Zbuduj model przestrzeni klasycznej (czyli takiej, w której
Bardziej szczegółowoMatematyka dyskretna. Andrzej Łachwa, UJ, A/14
Matematyka dyskretna Andrzej Łachwa, UJ, 2016 andrzej.lachwa@uj.edu.pl 9A/14 Permutacje Permutacja zbioru skończonego X to bijekcja z X w X. Zbiór permutacji zbioru oznaczamy przez, a permutacje małymi
Bardziej szczegółowo51. Wykorzystywanie sumy, iloczynu i różnicy zdarzeń do obliczania prawdopodobieństw zdarzeń.
Matematyka lekcja 5 5. Wykorzystywanie sumy, iloczynu i różnicy zdarzeń do obliczania prawdopodobieństw zdarzeń. I. rzypomnij sobie:. Jak rysujemy drzewo stochastyczne i przy jego pomocy obliczamy prawdopodobieństwo
Bardziej szczegółowoKompresja danych DKDA (7)
Kompresja danych DKDA (7) Marcin Gogolewski marcing@wmi.amu.edu.pl Uniwersytet im. Adama Mickiewicza w Poznaniu Poznań, 22 listopada 2016 1 Kwantyzacja skalarna Wprowadzenie Analiza jakości Typy kwantyzatorów
Bardziej szczegółowoSTATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA
STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA Zadanie 0.1 Zmienna losowa X ma rozkład określony funkcją prawdopodobieństwa: x k 0 4 p k 1/3 1/6 1/ obliczyć EX, D X. (odp. 4/3;
Bardziej szczegółowoTranzystor JFET i MOSFET zas. działania
Tranzystor JFET i MOSFET zas. działania brak kanału v GS =v t (cutoff ) kanał otwarty brak kanału kanał otwarty kanał zamknięty w.2, p. kanał zamknięty Co było na ostatnim wykładzie? Układy cyfrowe Najczęściej
Bardziej szczegółowoarchitektura komputerów w. 2
architektura komputerów w. 2 Wiadomości i kody Wiadomości (Informacje) dyskretne ciągłe Kod - zbiór ciągów kodowych oraz reguła przyporządkowania ich wiadomościom. Ciąg kodowy - sygnał mający postać ciągu
Bardziej szczegółowoZestaw 1-1 Organizacja plików: Oddajemy tylko źródła programów (pliki o rozszerzeniach.cpp)!!!
Zestaw 1-1 1. Napisz program pobierający od użytkownika liczbę całkowitą R (R>1) i liczbę rzeczywistą dodatnią S, a następnie informujący ile kolejnych liczb z ciągu 1, R-1, R 2-2, R 3-3, R 4-4, należy
Bardziej szczegółowoNotatki z Podstaw kodowania i kryptografii. switch486 WIZ : PWr na podstawie folii z wykładu i ćwiczeń dr inż. E. Kukli Złożone W Systemie L A TEX
Notatki z Podstaw kodowania i kryptografii switch486 WIZ : PWr na podstawie folii z wykładu i ćwiczeń dr inż. E. Kukli Złożone W Systemie L A TEX Wrocław 5.6.2008 Spis treści I Kodowanie 5 Wiadomość, a
Bardziej szczegółowoRachunek prawdopodobieństwa dla informatyków
Rachunek prawdopodobieństwa dla informatyków Adam Roman Instytut Informatyki UJ Wykład 1 rys historyczny zdarzenia i ich prawdopodobieństwa aksjomaty i reguły prawdopodobieństwa prawdopodobieństwo warunkowe
Bardziej szczegółowoKomunikacja człowiek-komputer
Komunikacja człowiek-komputer Wykład 3 Dr inż. Michał Kruk Komunikacja człowiek - komputer dr inż. Michał Kruk Reprezentacja znaków Aby zakodować tekst, trzeba każdej możliwej kombinacji bitów przyporządkować
Bardziej szczegółowoĆwiczenia z metodyki nauczania rachunku prawdopodobieństwa
Ćwiczenia z metodyki nauczania rachunku prawdopodobieństwa 25 marca 209 Zadanie. W urnie jest b kul białych i c kul czarnych. Losujemy n kul bez zwracania. Jakie jest prawdopodobieństwo, że pierwsza kula
Bardziej szczegółowo= 10 9 = Ile jest wszystkich dwucyfrowych liczb naturalnych podzielnych przez 3? A. 12 B. 24 C. 29 D. 30. Sposób I = 30.
Kombinatoryka i rachunek prawdopodobieństwa Zadania zamknięte (0 1 pkt) 1. Flagę, taką jak pokazano na rysunku, należy zszyć z trzech jednakowej szerokości pasów kolorowej tkaniny. Oba pasy zewnętrzne
Bardziej szczegółowoSpacery losowe generowanie realizacji procesu losowego
Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z
Bardziej szczegółowoElementy rachunku prawdopodobieństwa (M. Skośkiewicz, A. Siejka, K. Walczak, A. Szpakowska)
Elementy rachunku prawdopodobieństwa (M. Skośkiewicz, A. Siejka, K. Walczak, A. Szpakowska) Twierdzenie (o mnożeniu) Podstawowe pojęcia i wzory kombinatoryczne. Niech,, będą zbiorami mającymi odpowiednio,,
Bardziej szczegółowoMatematyka dyskretna. Andrzej Łachwa, UJ, A/15
Matematyka dyskretna Andrzej Łachwa, UJ, 2015 andrzej.lachwa@uj.edu.pl 10A/15 Permutacje Permutacja zbioru skończonego X to bijekcja z X w X. Zbiór permutacji zbioru oznaczamy przez, a permutacje małymi
Bardziej szczegółowoKody blokowe Wykład 2, 10 III 2011
Kody blokowe Wykład 2, 10 III 2011 Literatura 1. R.M. Roth, Introduction to Coding Theory, 2006 2. W.C. Huffman, V. Pless, Fundamentals of Error-Correcting Codes, 2003 3. D.R. Hankerson et al., Coding
Bardziej szczegółowoDetekcja i korekcja błędów w transmisji cyfrowej
Detekcja i korekcja błędów w transmisji cyfrowej Błędy w transmisji cyfrowej pojedyncze wielokrotne. całkowita niepewność względem miejsca zakłóconych bitów oraz czy w ogóle występują paczkowe (grupowe)
Bardziej szczegółowoMatematyka dyskretna
Matematyka dyskretna Wykład 7: Kody korygujące błędy Gniewomir Sarbicki Błędy transmisji i kodowanie nadmiarowe Zakładamy, że przy pewnym małym prawdopodobieństwie ɛ przy transmisji bit zmienia wartość.
Bardziej szczegółowo