Teoria informacji i kodowania Ćwiczenia Sem. zimowy 2016/2017
|
|
- Martyna Wilczyńska
- 8 lat temu
- Przeglądów:
Transkrypt
1 Kody źródłowe jednoznacznie dekodowalne Zadanie Ile najwięcej słów kodowych może liczyć kod binarny jednoznacznie dekodowalny, którego najdłuższe słowo ma siedem liter? (Odp. 28) Zadanie 2 Zbiór sześciu wiadomości x,..., x i,..., x 6 zakodowano według pięciu różnych kodów A F podanych w poniższej tabeli: Wiadomość p(x i ) Kod A Kod B Kod C Kod D Kod E x x 2 x 3 x 4 x 5 x Określ, które z podanych kodów są jednoznacznie dekodowalne. Policz średnią długość dla każdego kodu jednoznacznie dekodowalnego. Zadanie 3 Czy można w alfabecie ternarnym skonstruować kod jednoznacznie dekodowalny, jeśli długości słów kodowych miałyby wynosić:, 2, 2, 2, 2, 2, 3, 3, 3, 3? A jeśli długości słów kodowych miałyby wynosić:, 2, 2, 2, 2, 2, 3, 3, 3? Jak wiele takich kodów (różnych) można skonstruować? (Odp. 6,53,840) Zadanie 4 (kolokwium z lat poprzednich) Zbiór dziesięciu wiadomości x,..., x i,..., x 0 należy zakodować w słowa kodowe o długościach odpowiednio l,..., l i,..., l 0 zebranych w tabeli poniżej (podano warianty dla trzech kodów: A, B, C należy udzielić odpowiedzi dla każdego kodu oddzielnie). Proszę określić minimalną długość alfabetu kodowego, dla którego tak skonstruowany kod jest natychmiastowo dekodowalny. Proszę podać taki przykładowy kod. i l i B A C Zadanie 5 Załóżmy, że alfabet kodu liczy D elementów oraz że sekwencja n liczb całkowitych l i o następującej charakterystyce: l l i l n, spełnia nierówność McMillana-Krafta. Na ile sposobów można wybrać słowa kodowe w,..., w n o długościach l(w i ) = l i, tak żeby zbiór tych słów kodowych mógł posłużyć do utworzenia kodu jednoznacznie dekodowalnego? Strona z 7
2 Kody źródłowe zwięzłe Zadanie 6 Źródło generuje równoprawdopodobne 4-symbolowe słowa kodowe kodu zwięzłego trójsymbolowego. Policz, ile maksymalnie informacji o źródle można uzyskać po odebraniu ośmiu słów. (Odp. Ok. 50 bit) Zadanie 7 Udowodnij że dla każdego kodu zwięzłego (ewentualnie kodu optymalnego) dla źródła o rozkładzie prawdopodobieństwa (p i ) zachodzi następująca zależność między prawdopodobieństwami wystąpienia wiadomości a długościami reprezentujących je słów kodowych l i : p j > p k l j l k. Zadanie 8 Źródło generuje trzy wiadomości z prawdopodobieństwami: p p 2 p 3. Pokaż, że średnia długość binarnego kodu zwięzłego C dla tego źródła wynosi: L(C) = 2 p. Ile będzie wynosiła średnia długość słowa kodu tego typu dla źródła generującego cztery wiadomości z prawdopodobieństwami: p p 2 p 3 p 4? Zadanie 9 Zakoduj w binarnym kodzie Shannona-Fano zbiór dziesięciu jednakowo prawdopodobnych wiadomości. Wykaż, że jest to kod zwięzły. Zadanie 0 Znajdź entropię źródła X, które generuje nieskończenie wiele wiadomości m, m 2,..., m i,... (zbiór wiadomości jest równoliczny ze zbiorem liczb naturalnych) o prawdopodobieństwie: p i = 2 i (i =, 2, 3,... ). Znajdź optymalny binarny kod jednoznacznie dekodowalny i oblicz jego średnią długość. (Odp. 2 bit /wiadom.) Zadanie Źródło generuje sto różnych wiadomości w taki sposób, że ograniczenie dolne średniej długości słowa kodu źródłowego jednoznacznie dekodowalnego jest najmniej korzystne z możliwych. Proszę znaleźć najmniejszy możliwy do osiągnięcia w takim przypadku nadmiar binarnego kodu źródłowego jednoznacznie dekodowalnego. (Odp. ok ) Kody Huffmana Zadanie 2 (kolokwium z lat poprzednich) Proszę pokazać, że dla żadnego źródła o siedmiu wiadomościach nie da się z użyciem kodowania Huffmana uzyskać kodu o podanym niżej zbiorze słów kodowych: Strona 2 z 7
3 Zadanie 3 (kolokwium z lat poprzednich) Źródło S generuje wiadomości z prawdopodobieństwami 0,3; 0,3; 0,2 i 0,2. Ile istnieje binarnych kodów zwięzłych dla tego źródła? Ile z nich to kody Huffmana? (Odp. 24 kody, z czego 8 to kody Huffmana) Zadanie 4 (kolokwium z lat poprzednich) Źródło X generuje wiadomości x, x 2,..., x n z prawdopodobieństwami p p 2 p n oraz dodatkowo: i=,...,n 3: p i > p i p n. Pokaż, jakie będą długości słów kodowych dla dowolnego binarnego kodu Huffmana tego źródła. Ile istnieje różnych binarnych kodów Huffmana dla tego źródła? Zadanie 5 (kolokwium z lat poprzednich) Pewne źródło generuje losowo wiadomości ze zbioru: x, x 2, x 3, x 4, a następnie przesyła je przy użyciu zwięzłego binarnego kodu jednoznacznie dekodowalnego (impuls trwa 5 µs każdy). Oblicz maksymalną szybkość przesyłania słów kodowych (w jednostkach: [ słów kod. /s]), jeśli: a) Pr{x i } = Pr{x j } : i, j =, 2, 3, 4, b) Pr{x } = 0,5, Pr{x 2 } = 0,25, Pr{x 3 } = Pr{x 4 }. Zadanie 6 (kolokwium z lat poprzednich) Źródło generuje osiem wiadomości elementarnych według następującego rozkładu prawdopodobieństwa: Pr{x } = 2 5 ; Pr{x 2} = 5 ; Pr{x 3} = Pr{x 4 } = 0 ; Pr{x 5} = Pr{x 6 } = Pr{x 7 } = Pr{x 8 }. Znajdź: a) jednoznacznie dekodowalny kod zwięzły dla tego źródła, gdy alfabet kodu to: {,,, }; b) zbiór list długości ciągów kodowych dla wszystkich kodów zwięzłych jednoznacznie dekodowalnych tego źródła dla wszystkich możliwych długości używanych alfabetów. Zadanie 7 (kolokwium z lat poprzednich) Odczytaj tekst zakodowany binarnym kodem Huffmana wiedząc, że względna częstość występowania symboli w tekście jest następująca: A(3), B(), K(), R(4), M() [tj. na trzy pojawienia się A mamy średnio cztery pojawienia się R itd.]. Gdyby w trakcie budowy drzewa Huffmana miała miejsce sytuacja, że do wyboru są więcej niż dwa wierzchołki przypisane konkretnemu symbolowi, wybierz wierzchołek związany z 0 jako przyporządkowany symbolowi występującemu wcześniej w alfabecie. Zadanie 8 (kolokwium z lat poprzednich) Źródło emituje znaki binarne z prawdopodobieństwem: Pr{0} = p, Pr{} = p. Dla celów transmisji chcemy zastosować następujący kod: 000, 0 00, 00 00,..., , ; tzn. jeśli źródło wyemituje na raz mniej niż 8 zer przed wyemitowaniem jedynki, wysyłamy słowo kodowe o postaci e e 2 e 3, gdzie e e 2 e 3 stanowi binarną reprezentację liczby zer, natomiast gdy wystąpi na raz 8 zer, taką sekwencję reprezentuje się za pomocą słowa 0. Jako zdarzenie zdefinujemy wygenerowanie słowa kodowego. Czy otrzymany kod jest kodem jednoznacznie dekodowalnym? Znajdź A c : wartość średnią liczby bitów słowa kodowego na zdarzenie. Znajdź A s : wartość średnią liczby bitów wygenerowanych przez źródło wiadomości na zdarzenie. Wartości średnie są rozumiane probabilistycznie. Następnie dla Strona 3 z 7
4 p = 0,9 porównaj Ac /A s ze średnią długością słowa kodowego na symbol źródła w binarnym kodowaniu Huffmana czwartego rozszerzenia oryginalnego źródła (tego o rozkładzie (p, p)). Co nam to mówi o optymalności kodowania Huffmana? Zadanie 9 (kolokwium z lat poprzednich) Nasz kolega rzuca w ukryciu parą rozróżnialnych kostek sześciennych, przy czym po każdym rzucie informuje nas o iloczynie wyrzuconych oczek. Wymyślił sobie, że będzie stosował w tym celu jednakowej długości ciągi binarne (rozumiemy, co kryje się pod określonymi ciągami, bo powiedział nam to wcześniej). Jaki jest nadmiar stosowanego przez niego kodu, jeśli wybrał najkrótszą możliwą długość ciągów i ile średnio symboli mógłby zaoszczędzić przy podawaniu wyników 000 rzutów, gdyby wybrał najlepszy możliwy dla tej sytuacji kod? Zadanie 20 (kolokwium z lat poprzednich) Rzucamy sfałszowaną monetą, dla której prawdopodobieństwo wypadnięcia reszki to 4. Rzut jest wykonywany co sekundę. Proszę zaprojektować koder, który będzie kodował binarnie wyniki kolejnych rzutów w taki sposób, że średnia liczba bitów na rzut będzie mniejsza niż jeden. Zadanie 2 Na podstawie analizy kodowania Huffmana dla bezpamięciowego źródła generującego N 2 wiadomości, pokaż że tworzone w alfabecie binarnym słowa kodowe o długościach l i spełniają nierówność: N l i ( N 2 + N 2 ). 2 Zadanie 22 (kolokwium z lat poprzednich) Mamy bezpamięciowe źródło wiadomości: [ m m 2 m 3 m 4 m 5 m 6 m 7 m 8 0,03 0,6 0, 0,3 0,07 0,07 0,9 0,06 i= Zakoduj wiadomości pochodzące z tego źródła kodem jednoznacznie dekodowalnym w taki sposób, żeby zminimalizować średni czas nadawania zakodowanej wiadomości, jeśli alfabet składa się z trzech liter: a, b, c. Czasy nadawania poszczególnych liter wynoszą: a 3 sekundy, b 2 sekundy oraz c 3 sekundy. Podaj średni czas nadawania zakodowanej wiadomości. (Odp. 4,54 sekundy) Zadanie 23 (kolokwium z lat poprzednich) Mamy dane bezpamięciowe źródło wiadomości: [ m m 2 m 3 m 4 m 5 m 6 m 7 m 8 m 9 m 0 m m 2 m 3 0,04 0,04 0,2 0,008 0,2 0,04 0,008 0,2 0,04 0,008 0,2 0,008 0,008 Proszę znaleźć (jeśli jest to w ogóle możliwe) jednoznacznie dekodowalny optymalny kod źródłowy o średniej długości większej niż. Odpowiedni alfabet kodowy proszę zaproponować samemu. Zadanie 24 (kolokwium z lat poprzednich) Pewne źródło informacji X nadaje wiadomości, z których każda to albo x albo x 2, albo x 3. Źródło nie jest bezpamięciowe i jesteśmy w stanie podać prawdopodobieństwa warunkowe wystąpienia wiadomości x j bezpośrednio po wiadomości x i. Zadano je macierzą, w której element ]. ]. Strona 4 z 7
5 umiejscowiony w wierszu j oraz kolumnie i podaje prawdopodobieństwo Pr{x j x i }: 0,3 0,2 0,4 0,4 0,7 0,2 0,3 0, 0,4 Proszę podać nadmiar kodu zwięzłego, który koduje sekwencje (x k x l ), k, l {, 2, 3} (tj. każda kodowana sekwencja jest złożona z dwóch wiadomości generowanych przez źródło X ) i który używa alfabetu {a, b, c, d}. Zadanie 25 Algorytm Huffmana polega między innymi na tworzeniu ciągu zredukowanych źródeł wiadomości w taki sposób, że za każdym razem (tzn. na etapie redukcji numer i) musimy obliczać prawdopodobieństwo p (i) Σ pewnej liczby najmniej prawdopodobnych wiadomości. Pokaż, że średnią długość binarnego kodu Huffmana C można obliczyć jako: L(C) = + i p (i) Σ. Zadanie 26 Zaproponuj algorytm definiujący D-arny kod Huffmana C, który nie tylko minimalizuje średnią długość kodu: L(C) = p i l i, i ale także minimalizuje całkowitą długość kodu, rozumianą jako: σ(c) = i l i. Zadanie 27 Na podstawie analizy kodowania Huffmana (lub korzystając z wyników zad. 26) pokaż, że dla bezpamięciowego źródła generującego N wiadomości, słowa kodowe binarnego kodu zwięzłego o długościach l i spełniają poniższą nierówność: Kompresja bezstratna N l i N lg N. Zadanie 28 Skompresuj za pomocą adaptacyjnego (dynamicznego) kodu Huffmana sekwencję: i= GŻEGŻÓŁKA JEŻA Zadanie 29 (kolokwium z lat poprzednich) Proszę zapisać binarnie za pomocą czterech symboli ostatnią cyfrę swojego indeksu (np. dla 5 to będzie 00), następnie powtórzyć ją nieskończenie wiele razy otrzyma się sekwencję s (np. dla 5 to będzie ). W pewnej chwili drzewo adaptacyjnego kodu Huffmana, skonstruowane równolegle w koderze i dekoderze, zapisane w postaci listy ma postać: Strona 5 z 7
6 0, a,, b, c, d, 2, 2 Poczynając od tej chwili obserwujemy koder i widzimy, że wysyła sekwencję s. Proszę pokazać, co zdekoduje dekoder. Symbole, które nie wystąpiły wcześniej, są przez koder przesyłane w kodzie ASCII. Zadanie 30 Skompresuj za pomocą kodu arytmetycznego sekwencję ( oznacza koniec sekwencji): BUFFALO BILL Rozkład źródła znajdź na podstawie podanej sekwencji (w razie potrzeby można zaokrąglić do dwóch miejsc po przecinku dla uproszczenia obliczeń). Zbadaj efektywność kodu. Zadanie 3 Przy zadanej w tabeli statystyce źródła sprawdź, jaką wiadomość zakodowano za pomocą następującej sekwencji bitów używając kodowania arytmetycznego ( oznacza koniec sekwencji): Wiadomość Prawdopodobieństwo skumulowane A [0,0; 0,) I [0,; 0,2) M [0,2; 0,4) S [0,4; 0,6) Z [0,6; 0,8) [0,8; 0,9) [0,9;,0) Inne Zadanie 32 (*) Gra w dwadzieścia pytań : zadający zagadkę wybiera obiekt x ze skończonego (ale raczej dużego) zbioru obiektów S = {s,..., s n }, przy czym prawdopodobieństwo, że jako x wybierze s i wynosi p i (odgadujący zna zbiór S oraz prawdopodobieństwa wybrania każdego z obiektów). Trzeba zgadnąć, o który obiekt chodzi, zadając po kolei pytania postaci: Q i : Czy x należy do T i?, gdzie T i jest pewnym podzbiorem S (przy zadawaniu pytania Q i zgadujący oczywiście precyzyjnie definiuje zbiór T i ). Możliwa odpowiedź to tylko tak lub nie, zadający zagadkę odpowiada zgodnie z prawdą. Proszę w oparciu o znajomość teorii informacji podać uniwersalną strategię zadawania pytań, która da szansę na odgadnięcie obiektu x przy zadawaniu jak najmniejszej liczby pytań. Zadanie 33 (*) Teorię informacji (w szczególności zwięzłe kodowanie źródłowe) można użyć do zaprojektowania efektywnych testów przesiewowych krwi. Załóżmy, że mamy do przebadania pod kątem obecności wirusa N próbek krwi. Prawodopodobieństwo pozytywnego wyniku (czyli wykrycia wirusa) dla każdej próbki jest niewielkie (p = 0,0), a testy są kosztowne, więc trzeba minimalizować ich liczbę. Zamiast badać każdą próbkę z osobna, można badać zmieszane fragmenty Strona 6 z 7
7 próbek. Zakładamy wtedy, że wynik będzie pozytywny, jeśli choć jedna z wymieszanych próbek zawierała wirusa. Zakładamy też, że każdą próbkę można podzielić na dowolnie wiele fragmentów. Ostatecznie musimy jednak dla każdej próbki wiedzieć czy na pewno zawiera wirusa czy nie. Jak maksymalnie zmniejszyć oczekiwaną liczbę testów do wykonania? Zaprojektuj badanie dla 300 próbek i podaj oczekiwaną liczbę testów. Informacja dodatkowa: Na kartkach z zadaniami do kolejnego kolokwium znajdą Państwo następujące dane, być może pomocne przy rozwiązywaniu zadań: H(X, Y ) = H(X) + H(Y X) (reguła łańcuchowa) I(X; Y ) = H(X) H(X Y ) = H(Y ) H(Y X) = H(X) + H(Y ) H(X, Y ) X, Y niezależne: H(X, Y ) = H(X) + H(Y ) Tabela opisująca kod ASCII (b 7 : najstarszy bit, np. a jest reprezentowane przez 0000): b b b b 4 b 3 b 2 b NUL DLE SP 0 P p SOH DC! A Q a q STX DC2 2 B R b r 0 0 ETX DC3 # 3 C S c s EOT DC4 $ 4 D T d t 0 0 ENQ NAK % 5 E U e u 0 0 ACK SYN & 6 F V f v 0 BEL ETB 7 G W g w BS CAN ( 8 H X h x 0 0 HT EM ) 9 I Y i y 0 0 LF SUB * : J Z j z 0 VT ESC + ; K [ k { 0 0 FF FC, < L \ l 0 CR GS - = M ] m } 0 SO RS. > N ˆ n SI US /? O o DEL Strona 7 z 7
Teoria informacji i kodowania Ćwiczenia
Teoria informacji i kodowania Ćwiczenia Piotr Chołda, Andrzej Kamisiński Katedra Telekomunikacji Akademii Górniczo-Hutniczej Kod źródłowy Kodem źródłowym nazywamy funkcję różnowartościową, która elementom
O oszczędnym dziennikarzu, czyli czym jest
O oszczędnym dziennikarzu, czyli czym jest informacja i jak ja mierzymy? Adam Doliwa doliwa@matman.uwm.edu.pl WYKŁAD DLA MŁODZIEŻY WYDZIAŁ MATEMATYKI I INFORMATYKI UWM Olsztyn, 9 lutego 2016 r. Adam Doliwa
Jak zadać dobre pytanie, czyli czym jest informacja i jak ja
Jak zadać dobre pytanie, czyli czym jest informacja i jak ja zmierzyć Adam Doliwa doliwa@matman.uwm.edu.pl WYKŁAD Z CYKLU NIEZWYKŁA MATEMATYKA WYDZIAŁ MATEMATYKI I INFORMATYKI UWM Olsztyn, 28 września
Architektura systemów komputerowych Laboratorium 5 Kodowanie liczb i tekstów
Architektura systemów komputerowych Laboratorium 5 Kodowanie liczb i tekstów Marcin Stępniak Informacje. Kod NKB Naturalny kod binarny (NKB) jest oparty na zapisie liczby naturalnej w dwójkowym systemie
teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015
teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015 1 zakres materiału zakres materiału 1. Czym jest teoria informacji? 2. Wprowadzenie matematyczne. 3. Entropia i informacja.
Kodowanie Huffmana. Platforma programistyczna.net; materiały do laboratorium 2014/15 Marcin Wilczewski
Kodowanie Huffmana Platforma programistyczna.net; materiały do laboratorium 24/5 Marcin Wilczewski Algorytm Huffmana (David Huffman, 952) Algorytm Huffmana jest popularnym algorytmem generującym optymalny
Kompresja bezstratna. Entropia. Kod Huffmana
Kompresja bezstratna. Entropia. Kod Huffmana Kodowanie i bezpieczeństwo informacji - Wykład 10 29 kwietnia 2013 Teoria informacji Jeśli P(A) jest prawdopodobieństwem wystapienia informacji A to niech i(a)
Teoria Informacji - wykład. Kodowanie wiadomości
Teoria Informacji - wykład Kodowanie wiadomości Definicja kodu Niech S={s 1, s 2,..., s q } oznacza dany zbiór elementów. Kodem nazywamy wówczas odwzorowanie zbioru wszystkich możliwych ciągów utworzonych
teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015
teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015 1 wczoraj Wprowadzenie matematyczne. Entropia i informacja. Kodowanie. Kod ASCII. Stopa kodu. Kody bezprefiksowe.
Kompresja danych kodowanie Huffmana. Dariusz Sobczuk
Kompresja danych kodowanie Huffmana Dariusz Sobczuk Plan wykładu Kodowanie metodą Shannona-Fano Kodowanie metodą Huffmana Elementarny kod Golomba Kod Golomba Kod Rice a kompresja danych 2 Efektywny kod
Elementy teorii informacji i kodowania
i kodowania Entropia, nierówność Krafta, kodowanie optymalne Marcin Jenczmyk m.jenczmyk@knm.katowice.pl 17 kwietnia 2015 M. Jenczmyk Spotkanie KNM i kodowania 1 / 20 Niech S = {x 1,..., x q } oznacza alfabet,
Granica kompresji Kodowanie Shannona Kodowanie Huffmana Kodowanie ciągów Kodowanie arytmetyczne. Kody. Marek Śmieja. Teoria informacji 1 / 35
Kody Marek Śmieja Teoria informacji 1 / 35 Entropia Entropia określa minimalną statystyczną długość kodowania (przyjmijmy dla prostoty że alfabet kodowy A = {0, 1}). Definicja Niech X = {x 1,..., x n }
Teoria informacji i kodowania Ćwiczenia Sem. zimowy 2016/2017
Algebra liniowa Zadanie 1 Czy jeśli wektory x, y i z, należące do binarnej przestrzeni wektorowej nad ciałem Galois GF (2), są liniowo niezależne, to można to samo orzec o następujących trzech wektorach:
Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9,
1 Kody Tunstalla Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9, 14.04.2005 Inne podejście: słowa kodowe mają ustaloną długość, lecz mogą kodować ciągi liter z alfabetu wejściowego o różnej
Kodowanie i entropia
Kodowanie i entropia Marek Śmieja Teoria informacji 1 / 34 Kod S - alfabet źródłowy mocy m (np. litery, cyfry, znaki interpunkcyjne), A = {a 1,..., a n } - alfabet kodowy (symbole), Chcemy przesłać tekst
DZIESIĘTNY SYSTEM LICZBOWY
DZIESIĘTNY SYSTEM LICZBOWY Do zapisu dowolnej liczby system wykorzystuje dziesięć symboli (cyfr): 0, 1, 2, 3, 4, 5, 6, 7, 8, 9 Dowolną liczbę w systemie dziesiętnym możemy przedstawić jako następująca
mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. GOLOMBA I RICE'A
mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. KOMPRESJA ALGORYTMEM ARYTMETYCZNYM, GOLOMBA I RICE'A Idea algorytmu arytmetycznego Przykład kodowania arytmetycznego Renormalizacja
Kompresja Kodowanie arytmetyczne. Dariusz Sobczuk
Kompresja Kodowanie arytmetyczne Dariusz Sobczuk Kodowanie arytmetyczne (lata 1960-te) Pierwsze prace w tym kierunku sięgają początków lat 60-tych XX wieku Pierwszy algorytm Eliasa nie został opublikowany
Def. Kod jednoznacznie definiowalny Def. Kod przedrostkowy Def. Kod optymalny. Przykłady kodów. Kody optymalne
Załóżmy, że mamy źródło S, które generuje symbole ze zbioru S={x, x 2,..., x N } z prawdopodobieństwem P={p, p 2,..., p N }, symbolom tym odpowiadają kody P={c, c 2,..., c N }. fektywność danego sposobu
0 + 0 = 0, = 1, = 1, = 0.
5 Kody liniowe Jak już wiemy, w celu przesłania zakodowanego tekstu dzielimy go na bloki i do każdego z bloków dodajemy tak zwane bity sprawdzające. Bity te są w ścisłej zależności z bitami informacyjnymi,
Temat: Algorytm kompresji plików metodą Huffmana
Temat: Algorytm kompresji plików metodą Huffmana. Wymagania dotyczące kompresji danych Przez M oznaczmy zbiór wszystkich możliwych symboli występujących w pliku (alfabet pliku). Przykład M = 2, gdy plik
Nierówność Krafta-McMillana, Kodowanie Huffmana
Nierówność Krafta-McMillana, Kodowanie Huffmana Kodowanie i kompresja informacji - Wykład 2 1 marca 2010 Test na jednoznaczna dekodowalność Kod a jest prefiksem kodu b jeśli b jest postaci ax. x nazywamy
Definicja. Jeśli. wtedy
Definicja Jeśli wtedy Cel kompresji: zredukowanie do minimum oczekiwanego (średniego) kosztu gdzie l i jest długością słowa kodu c i kodującego symbol a i Definicja Definicje Efektywność kodowania określamy
Teoria Informacji i Metody Kompresji Danych
Teoria Informacji i Metody Kompresji Danych 1 Przykładowe zadania (dodatkowe materiały wykładowe) 2 Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL
Instrukcja dotycząca kodów kreskowych
Instrukcja dotycząca kodów kreskowych Wersja 0 POL 1 Wprowadzenie 1 Omówienie 1 1 Niniejsza skrócona instrukcja zawiera informacje na temat drukowania kodów kreskowych z wykorzystaniem poleceń sterujących
Wygra Polska czy Brazylia, czyli o tym jak zwięźle zapisywać informacje
Wygra Polska czy Brazylia, czyli o tym jak zwięźle zapisywać informacje Witold Tomaszewski Instytut Matematyki Politechniki Śląskiej e-mail: Witold.Tomaszewski@polsl.pl Je n ai fait celle-ci plus longue
Entropia Kodowanie. Podstawy kompresji. Algorytmy kompresji danych. Sebastian Deorowicz
Algorytmy kompresji danych 2007 02 27 Plan wykładu 1 Modelowanie i kodowanie 2 Modelowanie i kodowanie Plan wykładu 1 Modelowanie i kodowanie 2 Modelowanie i kodowanie definicja stowarzyszona ze zbiorem
4 Standardy reprezentacji znaków. 5 Przechowywanie danych w pamięci. 6 Literatura
ARCHITEKTURA SYSTEMÓW KOMPUTEROWYCH reprezentacja danych ASK.RD.01 c Dr inż. Ignacy Pardyka UNIWERSYTET JANA KOCHANOWSKIEGO w Kielcach Rok akad. 2011/2012 1 2 Standardy reprezentacji wartości całkowitoliczbowych
Niech x 1,..., x n będzie ciągiem zdarzeń. ---
Matematyczne podstawy kryptografii, Ćw2 TEMAT 7: Teoria Shannona. Kody Huffmana, entropia. BIBLIOGRAFIA: [] Cz. Bagiński, cez.wipb.pl, [2] T. H. Cormen, C. E. Leiserson, R. L Rivest, Wprowadzenie do algorytmów,
ARCHITEKTURA KOMPUTERÓW. Reprezentacja danych w komputerach
Reprezentacja danych w komputerach dr inż. Wiesław Pamuła wpamula@polsl.katowice.pl Literatura 2. J.Biernat: Architektura komputerów, Oficyna Wydawnicza Politechniki Wrocławskiej, Wrocław2002. 3. Null
Technologie informacyjne (3) Zdzisław Szyjewski
Technologie informacyjne (3) Zdzisław Szyjewski Technologie informacyjne Technologie pracy z komputerem Funkcje systemu operacyjnego Przykłady systemów operacyjnych Zarządzanie pamięcią Zarządzanie danymi
Przetwarzanie i transmisja danych multimedialnych. Wykład 2 Podstawy kompresji. Przemysław Sękalski.
Przetwarzanie i transmisja danych multimedialnych Wykład Podstawy kompresji Przemysław Sękalski sekalski@dmcs.pl Politechnika Łódzka Katedra Mikroelektroniki i Technik Informatycznych DMCS Zawartość wykładu.
Kody Tunstalla. Kodowanie arytmetyczne
Kody Tunstalla. Kodowanie arytmetyczne Kodowanie i kompresja informacji - Wykład 3 8 marca 2010 Kody Tunstalla Wszystkie słowa kodowe maja ta sama długość ale jeden kod może kodować różna liczbę liter
Technologie informacyjne (3) Zdzisław Szyjewski
Technologie informacyjne (3) Zdzisław Szyjewski Technologie informacyjne Technologie pracy z komputerem Funkcje systemu operacyjnego Przykłady systemów operacyjnych Zarządzanie pamięcią Zarządzanie danymi
Algorytmy kompresji. Kodowanie Huffmana, kodowanie arytmetyczne
Algorytmy kompresji Kodowanie Huffmana, kodowanie arytmetyczne Kodowanie arytmetyczne Peter Elias 1923-2001 Kodowanie arytmetyczne to metoda kodowania źródłowego dyskretnych źródeł sygnałów, stosowana
Modulacja i kodowanie. Labolatorium. Kodowanie źródłowe Kod Huffman a
Modulacja i kodowanie Labolatorium Kodowanie źródłowe Kod Huffman a W tym ćwiczeniu zajmiemy się kodowaniem źródłowym (source coding). 1. Kodowanie źródłowe Głównym celem kodowanie źródłowego jest zmniejszenie
ZADANIE 1. Rozwiązanie:
EUROELEKTR Ogólnopolska Olimpiada Wiedzy Elektrycznej i Elektronicznej Rok szkolny 200/20 Rozwiązania zadań dla grupy teleinformatycznej na zawody II. stopnia ZNIE ramka logiczna w technologii MOS składa
Kodowanie informacji
Kodowanie informacji Tomasz Wykład 4: kodowanie arytmetyczne Motywacja Podstawy i własności Liczby rzeczywiste Motywacje 1 średnia długość kodu Huffmana może odbiegać o p max + 0.086 od entropii, gdzie
Założenia i obszar zastosowań. JPEG - algorytm kodowania obrazu. Geneza algorytmu KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG
Założenia i obszar zastosowań KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG Plan wykładu: Geneza algorytmu Założenia i obszar zastosowań JPEG kroki algorytmu kodowania obrazu Założenia: Obraz monochromatyczny
Wstęp Statyczne kody Huffmana Dynamiczne kody Huffmana Praktyka. Kodowanie Huffmana. Dawid Duda. 4 marca 2004
4 marca 2004 Podstawowe oznaczenia i definicje Wymagania wobec kodu Podstawowa idea Podsumowanie Podstawowe oznaczenia i definicje Podstawowe oznaczenia i definicje: alfabet wejściowy: A = {a 1, a 2,...,
Algorytmy kodowania entropijnego
Algorytmy kodowania entropijnego 1. Kodowanie Shannona-Fano 2. Kodowanie Huffmana 3. Jednoznaczność kodów Huffmana. Kod o minimalnej wariancji 4. Dynamiczne kodowanie Huffmana Poprzedni wykład - podsumowanie
Algorytmy zachłanne. dr inż. Urszula Gałązka
Algorytmy zachłanne dr inż. Urszula Gałązka Algorytm zachłanny O Dokonuje wyboru, który w danej chwili wydaje się najkorzystniejszy. O Mówimy, że jest to wybór lokalnie optymalny O W rzeczywistości nie
Rachunek prawdopodobieństwa
Rachunek prawdopodobieństwa Sebastian Rymarczyk srymarczyk@afm.edu.pl Tematyka zajęć 1. Elementy kombinatoryki. 2. Definicje prawdopodobieństwa. 3. Własności prawdopodobieństwa. 4. Zmienne losowe, parametry
Podstawy nauk przyrodniczych Matematyka
Podstawy nauk przyrodniczych Matematyka Elementy rachunku prawdopodobieństwa dr inż. Małgorzata Szeląg Zakład Genetyki Molekularnej Człowieka tel. 61 829 59 04 malgorzata.szelag@amu.edu.pl Pokój 1.118
Moneta 1 Moneta 2 Kostka O, R O,R 1,2,3,4,5, Moneta 1 Moneta 2 Kostka O O ( )
Nowa matura kombinatoryka i rachunek prawdopodobieństwa Zadania zamknięte (0 1 pkt) 1. Doświadczenie losowe polega na rzucie dwiema symetrycznymi monetami i sześcienną kostką do gry. Prawdopodobieństwo
KODY SYMBOLI. Materiały KODA, A.Przelaskowski. Koncepcja przedziałów nieskończonego alfabetu
KODY SYMBOLI Materiały KODA, A.Przelaskowski Koncepcja drzewa binarnego Metoda S-F Kod Huffmana Adaptacyjne drzewo Huffmana Problemy implementacji Koncepcja przedziałów nieskończonego alfabetu Proste kody
Materiały dla finalistów
Materiały dla finalistów Malachoviacus Informaticus 2016 11 kwietnia 2016 Wprowadzenie Poniższy dokument zawiera opisy zagadnień, które będą niezbędne do rozwiązania zadań w drugim etapie konkursu. Polecamy
Podstawowe pojęcia. Teoria informacji
Kodowanie i kompresja informacji - Wykład 1 22 luty 2010 Literatura K. Sayood, Kompresja danych - wprowadzenie, READ ME 2002 (ISBN 83-7243-094-2) Literatura K. Sayood, Kompresja danych - wprowadzenie,
P r a w d o p o d o b i eństwo Lekcja 1 Temat: Lekcja organizacyjna. Program. Kontrakt.
P r a w d o p o d o b i eństwo Lekcja 1 Temat: Lekcja organizacyjna. Program. Kontrakt. Lekcja 2 Temat: Podstawowe pojęcia związane z prawdopodobieństwem. Str. 10-21 1. Doświadczenie losowe jest to doświadczenie,
Entropia to wielkość określająca liczbę bitów informacji zawartej w danej wiadomości lub źródle. Spełnia ona trzy naturalne warunki: I(s) jest
Entropia to wielkość określająca liczbę bitów informacji zawartej w danej wiadomości lub źródle. Spełnia ona trzy naturalne warunki: I(s) jest malejącą funkcją prawdopodobieństwa zajścia zdarzenia s. I(s)
L.Kowalski zadania z rachunku prawdopodobieństwa-zestaw 2 ZADANIA - ZESTAW 2
ZADANIA - ZESTAW 2 Zadanie 2.1 Zmienna losowa X ma rozkład określony funkcją prawdopodobieństwa: x k 1 0 2 p k 1/ 1/6 1/2 a) wyznaczyć dystrybuantę tej zmiennej losowej i naszkicować jej wykres, b) obliczyć
Przetwarzanie i transmisja danych multimedialnych. Wykład 3 Kodowanie Shannona Fano i Huffmana. Przemysław Sękalski.
Przetwarzanie i transmisja danych multimedialnych Wykład 3 Kodowanie Shannona Fano i Huffmana Przemysław Sękalski sekalski@dmcs.pl Politechnika Łódzka Katedra Mikroelektroniki i Technik Informatycznych
Podstawy kompresji danych
Podstawy kompresji danych Pojęcie kompresji W ogólności kompresja (kodowanie) jest procedurą (przekształceniem) zmiany reprezentacji wejściowego zbioru danych do postaci wymagającej mniejszej liczby bitów
Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład Kody liniowe - kodowanie w oparciu o macierz parzystości
Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład 13 1 Kody liniowe - kodowanie w oparciu o macierz parzystości Przykład Różne macierze parzystości dla kodu powtórzeniowego. Co wiemy z algebry
Systemy liczbowe. 1. Przedstawić w postaci sumy wag poszczególnych cyfr liczbę rzeczywistą R = (10).
Wprowadzenie do inżynierii przetwarzania informacji. Ćwiczenie 1. Systemy liczbowe Cel dydaktyczny: Poznanie zasad reprezentacji liczb w systemach pozycyjnych o różnych podstawach. Kodowanie liczb dziesiętnych
Dla człowieka naturalnym sposobem liczenia jest korzystanie z systemu dziesiętnego, dla komputera natomiast korzystanie z zapisu dwójkowego
Arytmetyka cyfrowa Dla człowieka naturalnym sposobem liczenia jest korzystanie z systemu dziesiętnego, dla komputera natomiast korzystanie z zapisu dwójkowego (binarnego). Zapis binarny - to system liczenia
Symulacja w przedsiębiorstwie
Symulacja w przedsiębiorstwie Generowanie liczb losowych Cel Celem laboratorium jest zapoznanie się z funkcjami generowania liczb pseudolosowych w środowisku Ms Excel. Funkcje te są podstawą modeli symulacyjnych
Kodowanie Shannona-Fano
Kodowanie Shannona-Fano Kodowanie Shannona-Fano znane było jeszcze przed kodowaniem Huffmana i w praktyce można dzięki niemu osiągnąć podobne wyniki, pomimo, że kod generowany tą metodą nie jest optymalny.
0-0000, 1-0001, 2-0010, 3-0011 itd... 9-1001.
KODOWANIE Jednym z problemów, z którymi spotykamy się w informatyce, jest problem właściwego wykorzystania pamięci. Konstruując algorytm staramy się zwykle nie tylko o zminimalizowanie kosztów czasowych
KODY SYMBOLI. Kod Shannona-Fano. Algorytm S-F. Przykład S-F
KODY SYMBOLI Kod Shannona-Fano KODOWANIE DANYCH, A.Przelaskowski Metoda S-F Kod Huffmana Adaptacyjne drzewo Huffmana Problemy implementacji Kod Golomba Podsumowanie Kod drzewa binarnego Na wejściu rozkład:
Lista 5. Zadanie 3. Zmienne losowe X i (i = 1, 2, 3, 4) są niezależne o tym samym
Lista 5 Zadania na zastosowanie nierównosci Markowa i Czebyszewa. Zadanie 1. Niech zmienna losowa X ma rozkład jednostajny na odcinku [0, 1]. Korzystając z nierówności Markowa oszacować od góry prawdopodobieństwo,
RACHUNEK PRAWDOPODOBIEŃSTWA I KOMBINATORYKA
RACHUNEK PRAWDOPODOBIEŃSTWA I KOMBINATORYKA Doświadczenia losowe Rachunek prawdopodobieństwa zajmuje się zdarzeniami jakie zachodzą, gdy przeprowadzamy doświadczenia losowe. Mówimy, że doświadczenie jest
Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11,
1 Kwantyzacja skalarna Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11, 10.05.005 Kwantyzacja polega na reprezentowaniu dużego zbioru wartości (być może nieskończonego) za pomocą wartości
Wstęp do Informatyki
Wstęp do Informatyki Bożena Woźna-Szcześniak bwozna@gmail.com Jan Długosz University, Poland Wykład 4 Bożena Woźna-Szcześniak (AJD) Wstęp do Informatyki Wykład 4 1 / 1 DZIELENIE LICZB BINARNYCH Dzielenie
Detekcja i korekcja błędów w transmisji cyfrowej
Detekcja i korekcja błędów w transmisji cyfrowej Błędy w transmisji cyfrowej pojedyncze wielokrotne. całkowita niepewność względem miejsca zakłóconych bitów oraz czy w ogóle występują paczkowe (grupowe)
Dane, informacja, programy. Kodowanie danych, kompresja stratna i bezstratna
Dane, informacja, programy Kodowanie danych, kompresja stratna i bezstratna DANE Uporządkowane, zorganizowane fakty. Główne grupy danych: tekstowe (znaki alfanumeryczne, znaki specjalne) graficzne (ilustracje,
Technologie Informacyjne
System binarny Szkoła Główna Służby Pożarniczej Zakład Informatyki i Łączności October 7, 26 Pojęcie bitu 2 Systemy liczbowe 3 Potęgi dwójki 4 System szesnastkowy 5 Kodowanie informacji 6 Liczby ujemne
1.1. Pozycyjne systemy liczbowe
1.1. Pozycyjne systemy liczbowe Systemami liczenia nazywa się sposób tworzenia liczb ze znaków cyfrowych oraz zbiór reguł umożliwiających wykonywanie operacji arytmetycznych na liczbach. Dla dowolnego
Według raportu ISO z 1988 roku algorytm JPEG składa się z następujących kroków: 0.5, = V i, j. /Q i, j
Kompresja transformacyjna. Opis standardu JPEG. Algorytm JPEG powstał w wyniku prac prowadzonych przez grupę ekspertów (ang. Joint Photographic Expert Group). Prace te zakończyły się w 1991 roku, kiedy
Teoria informacji i kodowania Ćwiczenia
Teoria informacji i kodowania Ćwiczenia Piotr Chołda, Andrzej Kamisiński Katedra Telekomunikacji Akademii Górniczo-Hutniczej Terminy kolokwiów zaliczeniowych Kolokwium KZ1: 27.01.2017, piątek, 9:00-11:30,
Podstawy Informatyki: Kody. Korekcja błędów.
Podstawy Informatyki: Kody. Korekcja błędów. Adam Kolany Instytut Techniczny adamkolany@pm.katowice.pl Adam Kolany (PWSZ Nowy Sącz, IT) Podstawy Informatyki: Kody. Korekcja błędów. 11 stycznia 2012 1 /
a. zbiór wszystkich potasowań talii kart (w którym S dostaje 13 pierwszych kart, W - 13 kolejnych itd.);
03DRAP - Przykłady przestrzeni probabilistycznych Definicja 1 Przestrzeń probabilistyczna to trójka (Ω, F, P), gdzie Ω zbiór zdarzeń elementarnych, F σ ciało zdarzeń (podzbiorów Ω), P funkcja prawdopodobieństwa/miara
Rachunek prawdopodobieństwa- wykład 2
Rachunek prawdopodobieństwa- wykład 2 Pojęcie dyskretnej przestrzeni probabilistycznej i określenie prawdopodobieństwa w tej przestrzeni dr Marcin Ziółkowski Instytut Matematyki i Informatyki Uniwersytet
MODELOWANIE RZECZYWISTOŚCI
MODELOWANIE RZECZYWISTOŚCI Daniel Wójcik Instytut Biologii Doświadczalnej PAN d.wojcik@nencki.gov.pl tel. 022 5892 424 http://www.neuroinf.pl/members/danek/swps/ Podręcznik Iwo Białynicki-Birula Iwona
Techniki multimedialne
Techniki multimedialne Digitalizacja podstawą rozwoju systemów multimedialnych. Digitalizacja czyli obróbka cyfrowa oznacza przetwarzanie wszystkich typów informacji - słów, dźwięków, ilustracji, wideo
Arytmetyka komputera. Na podstawie podręcznika Urządzenia techniki komputerowej Tomasza Marciniuka. Opracował: Kamil Kowalski klasa III TI
Arytmetyka komputera Na podstawie podręcznika Urządzenia techniki komputerowej Tomasza Marciniuka Opracował: Kamil Kowalski klasa III TI Spis treści 1. Jednostki informacyjne 2. Systemy liczbowe 2.1. System
Wprowadzenie do informatyki i użytkowania komputerów. Kodowanie informacji System komputerowy
1 Wprowadzenie do informatyki i użytkowania komputerów Kodowanie informacji System komputerowy Kodowanie informacji 2 Co to jest? bit, bajt, kod ASCII. Jak działa system komputerowy? Co to jest? pamięć
Samodzielnie wykonaj następujące operacje: 13 / 2 = 30 / 5 = 73 / 15 = 15 / 23 = 13 % 2 = 30 % 5 = 73 % 15 = 15 % 23 =
Systemy liczbowe Dla każdej liczby naturalnej x Î N oraz liczby naturalnej p >= 2 istnieją jednoznacznie wyznaczone: liczba n Î N oraz ciąg cyfr c 0, c 1,..., c n-1 (gdzie ck Î {0, 1,..., p - 1}) taki,
Kwantyzacja wektorowa. Kodowanie różnicowe.
Kwantyzacja wektorowa. Kodowanie różnicowe. Kodowanie i kompresja informacji - Wykład 7 12 kwietnia 2010 Kwantyzacja wektorowa wprowadzenie Zamiast kwantyzować pojedyncze elementy kwantyzujemy całe bloki
12. Wprowadzenie Sygnały techniki cyfrowej Systemy liczbowe. Matematyka: Elektronika:
PRZYPOMNIJ SOBIE! Matematyka: Dodawanie i odejmowanie "pod kreską". Elektronika: Sygnały cyfrowe. Zasadę pracy tranzystorów bipolarnych i unipolarnych. 12. Wprowadzenie 12.1. Sygnały techniki cyfrowej
Zestaw 3. - Zapis liczb binarnych ze znakiem 1
Zestaw 3. - Zapis liczb binarnych ze znakiem 1 Zapis znak - moduł (ZM) Zapis liczb w systemie Znak - moduł Znak liczby o n bitach zależy od najstarszego bitu b n 1 (tzn. cyfry o najwyższej pozycji): b
a. zbiór wszystkich potasowań talii kart (w którym S dostaje 13 pierwszych kart, W - 13 kolejnych itd.);
03DRAP - Przykłady przestrzeni probabilistycznych A Zadania na ćwiczenia Zadanie A1 (wskazówka: pierwsze ćwicznia i rozdział 23 przykł 1 i 2) Zbuduj model przestrzeni klasycznej (czyli takiej, w której
Matematyka dyskretna. Andrzej Łachwa, UJ, A/14
Matematyka dyskretna Andrzej Łachwa, UJ, 2016 andrzej.lachwa@uj.edu.pl 9A/14 Permutacje Permutacja zbioru skończonego X to bijekcja z X w X. Zbiór permutacji zbioru oznaczamy przez, a permutacje małymi
51. Wykorzystywanie sumy, iloczynu i różnicy zdarzeń do obliczania prawdopodobieństw zdarzeń.
Matematyka lekcja 5 5. Wykorzystywanie sumy, iloczynu i różnicy zdarzeń do obliczania prawdopodobieństw zdarzeń. I. rzypomnij sobie:. Jak rysujemy drzewo stochastyczne i przy jego pomocy obliczamy prawdopodobieństwo
Kompresja danych DKDA (7)
Kompresja danych DKDA (7) Marcin Gogolewski marcing@wmi.amu.edu.pl Uniwersytet im. Adama Mickiewicza w Poznaniu Poznań, 22 listopada 2016 1 Kwantyzacja skalarna Wprowadzenie Analiza jakości Typy kwantyzatorów
STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA
STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA Zadanie 0.1 Zmienna losowa X ma rozkład określony funkcją prawdopodobieństwa: x k 0 4 p k 1/3 1/6 1/ obliczyć EX, D X. (odp. 4/3;
Tranzystor JFET i MOSFET zas. działania
Tranzystor JFET i MOSFET zas. działania brak kanału v GS =v t (cutoff ) kanał otwarty brak kanału kanał otwarty kanał zamknięty w.2, p. kanał zamknięty Co było na ostatnim wykładzie? Układy cyfrowe Najczęściej
architektura komputerów w. 2
architektura komputerów w. 2 Wiadomości i kody Wiadomości (Informacje) dyskretne ciągłe Kod - zbiór ciągów kodowych oraz reguła przyporządkowania ich wiadomościom. Ciąg kodowy - sygnał mający postać ciągu
Zestaw 1-1 Organizacja plików: Oddajemy tylko źródła programów (pliki o rozszerzeniach.cpp)!!!
Zestaw 1-1 1. Napisz program pobierający od użytkownika liczbę całkowitą R (R>1) i liczbę rzeczywistą dodatnią S, a następnie informujący ile kolejnych liczb z ciągu 1, R-1, R 2-2, R 3-3, R 4-4, należy
Notatki z Podstaw kodowania i kryptografii. switch486 WIZ : PWr na podstawie folii z wykładu i ćwiczeń dr inż. E. Kukli Złożone W Systemie L A TEX
Notatki z Podstaw kodowania i kryptografii switch486 WIZ : PWr na podstawie folii z wykładu i ćwiczeń dr inż. E. Kukli Złożone W Systemie L A TEX Wrocław 5.6.2008 Spis treści I Kodowanie 5 Wiadomość, a
Rachunek prawdopodobieństwa dla informatyków
Rachunek prawdopodobieństwa dla informatyków Adam Roman Instytut Informatyki UJ Wykład 1 rys historyczny zdarzenia i ich prawdopodobieństwa aksjomaty i reguły prawdopodobieństwa prawdopodobieństwo warunkowe
Komunikacja człowiek-komputer
Komunikacja człowiek-komputer Wykład 3 Dr inż. Michał Kruk Komunikacja człowiek - komputer dr inż. Michał Kruk Reprezentacja znaków Aby zakodować tekst, trzeba każdej możliwej kombinacji bitów przyporządkować
Ćwiczenia z metodyki nauczania rachunku prawdopodobieństwa
Ćwiczenia z metodyki nauczania rachunku prawdopodobieństwa 25 marca 209 Zadanie. W urnie jest b kul białych i c kul czarnych. Losujemy n kul bez zwracania. Jakie jest prawdopodobieństwo, że pierwsza kula
= 10 9 = Ile jest wszystkich dwucyfrowych liczb naturalnych podzielnych przez 3? A. 12 B. 24 C. 29 D. 30. Sposób I = 30.
Kombinatoryka i rachunek prawdopodobieństwa Zadania zamknięte (0 1 pkt) 1. Flagę, taką jak pokazano na rysunku, należy zszyć z trzech jednakowej szerokości pasów kolorowej tkaniny. Oba pasy zewnętrzne
Spacery losowe generowanie realizacji procesu losowego
Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z
Elementy rachunku prawdopodobieństwa (M. Skośkiewicz, A. Siejka, K. Walczak, A. Szpakowska)
Elementy rachunku prawdopodobieństwa (M. Skośkiewicz, A. Siejka, K. Walczak, A. Szpakowska) Twierdzenie (o mnożeniu) Podstawowe pojęcia i wzory kombinatoryczne. Niech,, będą zbiorami mającymi odpowiednio,,
Matematyka dyskretna. Andrzej Łachwa, UJ, A/15
Matematyka dyskretna Andrzej Łachwa, UJ, 2015 andrzej.lachwa@uj.edu.pl 10A/15 Permutacje Permutacja zbioru skończonego X to bijekcja z X w X. Zbiór permutacji zbioru oznaczamy przez, a permutacje małymi
Kody blokowe Wykład 2, 10 III 2011
Kody blokowe Wykład 2, 10 III 2011 Literatura 1. R.M. Roth, Introduction to Coding Theory, 2006 2. W.C. Huffman, V. Pless, Fundamentals of Error-Correcting Codes, 2003 3. D.R. Hankerson et al., Coding
Detekcja i korekcja błędów w transmisji cyfrowej
Detekcja i korekcja błędów w transmisji cyfrowej Błędy w transmisji cyfrowej pojedyncze wielokrotne. całkowita niepewność względem miejsca zakłóconych bitów oraz czy w ogóle występują paczkowe (grupowe)
Matematyka dyskretna
Matematyka dyskretna Wykład 7: Kody korygujące błędy Gniewomir Sarbicki Błędy transmisji i kodowanie nadmiarowe Zakładamy, że przy pewnym małym prawdopodobieństwie ɛ przy transmisji bit zmienia wartość.