Teoria informacji i kodowania
|
|
- Jan Markowski
- 8 lat temu
- Przeglądów:
Transkrypt
1 Teoria informacji i kodowania Politechnika Gdańska Wydział Elektroniki, Telekomunikacji i Informatyki Katedra Systemów i Sieci Radiokomunikacyjnych dr inż. Małgorzata Gajewska malgorzata.gajewska@eti.pg.gda.pl telefon: (0-58)
2 LITERATURA 1. Cower T.M., Element of information theory, Wiley, Haykin S., Communication systems, Wiley, Third Edition, Sobczak W., Elementy teorii informacji, Wiedza Powszechna, Warszawa Marczak A.: Analiza efektywności kodowania kanałowego w systemie UMTS, praca doktorska, Politechnika Gdańska,
3 KRYTERIA ZALICZENIA PRZEDMIOTU Egzamin- do zaliczenia jest wymagane uzyskanie minimum 50% punktów 3
4 TEORIA INFORMACJI Każda wiadomość, która dociera do odbiorcy, na podstawie której on opiera swoje działanie, nazywamy informacją. Istnieją dwa podstawowe punkty widzenia informacji obiektywny - jest to podejście matematyczne, które opiera się na pojęciu entropii. W tym przypadku informacja oznacza pewną własność fizyczną lub strukturalną obiektów subiektywny - informacja ma charakter względny i jest tym co umysł jest w stanie przetworzyć i wykorzystać do własnych celów. 4
5 Definicja obiektywna informacji polega na przyjęciu określonych modeli źródeł informacji oraz ustaleniu obliczeniowej miary jej ilości. Teoria informacji to teoria, w której stosuje się rachunek prawdopodobieństwa oraz ogólnie matematykę do badania sposobów przekazywania, gromadzenia i manipulowania informacjami. 5
6 a) Źródło informacji Nadajnik Kanał fizyczny Odbiornik Obiekt przeznaczenia informacji b) Źródło informacji Nadajnik Kanał fizyczny Odbiornik Obiekt przeznaczenia informacji Odbiornik źródła informacji Kanał sprzężenia zwrotnego Nadajnik obiektu przeznaczenia informacji Rys. 1. Schemat transmisji informacji 6
7 a) U b) 1 U 2 U 1 U 2 Węzeł centralny U 3 U 4 U 3 U 4 U 5 U 5 c) U 1 U 2 Węzeł centralny U 3 U 4 U 5 Rys. 2. Przykłady struktury sieci. 7
8 Źródło informacji Koder źródłowy Koder kanałowy Modulator Filtr i wzmacniacz wielkiej częstotliwości Generator sygnału nośnej o częstotliwości f 0 K a n a ł Szum, zakłócenia, zaniki Filtr i wzmacniacz wielkiej częstotliwości Demodulator Dekoder kanałowy Dekoder źródłowy Obiekt przeznaczenia informacji Oscylator lokalny o częstotliwości f 0 Rys. 3. Schemat blokowy systemu transmisji informacji 8
9 KOMUTACJA PAKIETÓW I KANAŁÓW Sieci radiokomunikacyjne są zbiorami terminali (ruchomych lub nieruchomych) połączonych podsiecią komunikacyjną utworzoną poprzez węzły komunikacyjne i kanały radiowe. Węzły komunikacyjne sieci radiokomunikacyjnej sterują przesyłaniem informacji w kanałach radiowych między komunikującymi się terminalami. 9
10 Def. Funkcjami komutacyjnymi sieci telekomunikacyjnej (radiokomunikacyjnej) nazywamy sposoby zestawiania połączeń fizycznych bądź logicznych między komunikującymi się terminalami. W cyfrowych sieciach radiokomunikacyjnych informacje są przesyłane w formie pakietów. 10
11 Def. Pakietem nazywamy blok informacji cyfrowych zawierający ciąg informacyjny o ograniczonej długości uzupełniony ciągiem synchronizującym oraz sterująco-kontrolnym, który jest przekazywany w sieci jako pewna całość. Cyfrowe sieci radiokomunikacyjne umożliwiają realizację dwóch podstawowych metod komutacji: - komutację kanałów - komutację pakietów. 11
12 Komutacja kanałów: - zestawienie połączenia, - przesyłanie informacji - rozłączanie połączenia. Cechą charakterystyczną komutacji kanałów jest wyłączność użytkowania zestawionego połączenia przez parę komunikujących się terminali. 12
13 MODEL ON-OFF SYGNAŁÓW MOWY Źródło: D. Rutkowski, R. Sobczak, Usługi w systemie UMTS, Przegląd Telekomunikacyjny i Wiadomości Telekomunikacyjne, Nr Usługa przesyłania sygnałów mowy jest modelowana w makroskali poprzez proces zgłoszeń opisany rozkładem Poissona i rozkład wykładniczy czasu trwania rozmów. 13
14 P off-on 1-P off-on State off State off State on State off 1-P on-off P on-off Rys.5. Model on-off sygnałów mowy P on-off - prawdopodobieństwo przejścia źródła ze stanu aktywnego do stanu nieaktywnego P off-on - prawdopodobieństwo przejścia źródła ze stanu nieaktywnego do stanu aktywnego 14
15 Jeżeli więc przyjmiemy graf dwustanowy pokazany na rysunku jako model źródła sygnałów mowy to liczbę bloków generowanych dla jednego segmentu opisuje rozkład geometryczny o postaci gdzie: l l P 1 1 on P P L off onoff 1 Pon off - prawdopodobieństwo pozostania źródła w stanie aktywnym. Wartość średnia dla rozkładu geometrycznego jest równa odwrotności P on-off 15
16 Czas przerwy w aktywności źródła sygnałów mowy (pozostania w stanie off) może być również modelowany rozkładem geometrycznym liczby 20-milisekundowych przedziałów czasu, tj. prawdopodobieństwo, że liczba takich przedziałów wynosi n, jest dane wzorem n n P 1 1 off P P N on przy czym średni czas trwania przerwy wynosi: E N 1 P on off off on 16
17 Możemy teraz określić prawdopodobieństwo P a, że źródło jest w stanie aktywnym i prawdopodobieństwo P n, że źródło jest w stanie nieaktywnym off on Pa : Poff on Ponoff P n P P P off on onoff P onoff 17
18 Entropia H(X) dla dyskretnej zmiennej X jest zdefiniowana wzorem H( X ) n i1 p i log 2 p i Entropia w teorii informacji jest definiowana jako średnia ilość informacji, przypadająca na znak symbolizujący zajście zdarzenia z pewnego zbioru. Zdarzenia w tym zbiorze mają przypisane prawdopodobieństwa wystąpienia. 18
19 H(p) 1 0,5 0 0,5 Właściwości entropii: jest nieujemna, 1 p jest maksymalna, gdy prawdopodobieństwa zajść zdarzeń są takie same, jest równa 0, gdy stan systemu może przyjmować wartości tylko 0 albo tylko 1 Interpretacja: Dowolna zmiana prawdopodobieństw mająca na celu ich zrównanie pociąga za sobą wzrost wartości entropii bezwzględnej. Z rysunku wynika, że entropia osiąga wartość maksymalną wtedy, gdy prawdopodobieństwa wystąpienia określonych zdarzeń są jednakowe. Przy braku nieokreśloności, entropia jest równa zeru. Wzrost poziomu nieokreśloności zdarzeń pociąga za sobą wzrost entropii. 19
20 20 Def. Entropia łączna H(X,Y) pary dyskretnych zmiennych (X, Y) o wspólnym prawdopodobieństwie p(x, y) jest zdefiniowana jako X x Y y y x p y x p Y X H ), ( )log, ( ), ( co może zostać wyrażone również wzorem ), ( log ), ( Y X p E Y X H
21 21 Def. Jeżeli (X, Y) p(x, y), to entropię warunkową H(Y X) można zdefiniować jako X x Y y X x y x p y x p x X H Y x p X Y H ), ( )log, ( ) ( ) ( Możliwe są również pewne przekształcenia ) ( ) ( ), ( X Y H X H Y X H ), ( ) ( ), ( Z X Y H X Z H Y Z X H
22 KODOWANIE KANAŁOWE Kodowanie kanałowe to celowe przekształceniem stosowane w nadajniku polegające ogólnie na wprowadzaniu pewnej nadmiarowości informacyjnej (redundancji) do ciągów informacyjnych podawanych do kodera kanałowego oraz jej wykorzystaniu w dekoderze kanałowym odbiornika do możliwie wiernego ich odtwarzania. 22
23 Fundamentalne prawo teorii informacji zwane twierdzeniem o kodowaniu sformułował i udowodnił C.E.Shannon. Twierdzenie: Przepustowość informacyjna kanału ciągłego o pasmie przenoszenia B [Hz], w którym występuje addytywny szum W gaussowski o średniej mocy N 0 jest określona wzorem Hz C S Blog21 N0B b s gdzie S[W] jest średnią mocą sygnału odbieranego. 23
24 Wniosek: Przez kanał o pasmie B można przesyłać sygnały o średniej mocy S b z dowolną prędkością R C s i dowolnie małym prawdopodobieństwem błędu, jeśli zastosujemy dostatecznie złożone kodowanie. Twierdzenia Shannona określa granicę na szybkość transmisji informacji w kanale, lecz nie określa granicy na prawdopodobieństwo błędu. 24
25 Z twierdzenia o kodowaniu wynika, że istnieje granica na stosunek E b, poniżej której nie jest osiągalne dowolnie małe N 0 prawdopodobieństwo błędu, przy żadnej szybkości transmisji. Możemy znaleźć tę granicę i wynosi ona. E b 1,59dB N!!!!!!!!! Otrzymana wartość nazywa się granicą Shannona. 0 25
26 Kod to reguła, wg. której k-wymiarowym informacjom (wiadomościom) cyfrowym nazywanymi ciągami informacyjnymi przyporządkowane są n-wymiarowe ciągi kodowe czyli sygnały złożone z n sygnałów elementarnych, przy czym n>k. Kodowanie kanałowe jest więc takim celowym przekształceniem wiadomości cyfrowych, aby uzyskać ciągi kodowe odporne w większym lub mniejszym stopniu na szum i zakłócenia w kanałach. 26
27 Klasyfikacja kodów nadmiarowych: kody blokowe - czyli takie, w których ciąg kodowy kodu blokowego określany jest po nadejściu do kodera całego ciągu informacyjnego kody splotowe - czyli takie, w których ciąg kodowy kodu splotowego tworzony jest sukcesywnie, tzn. najczęściej w praktyce po nadejściu każdej informacji elementarnej ciągu informacyjnego określany jest kolejny segment ciągu kodowego 27
28 Dla danego kodu stosunek r k liczby k informacji n elementarnych ciągu informacyjnego do liczby n sygnałów elementarnych ciągu kodowego nazywa się względną szybkością kodowania, a stosunek n k nazywa się redundancją kodu. k Ciągi kodowe liniowych kodów blokowych charakteryzują się następującymi własnościami: wektor złożony z samych zer jest ciągiem kodowym suma (modulo 2) dwóch dowolnych ciągów kodowych jest również ciągiem kodowym. 28
29 Metoda obliczania sumy modulo 2 p q p suma modulo 2 q
30 Blokowe kody liniowe są powszechnie wykorzystywane w praktyce, przy czym najczęściej są one stosowane w formie kodów systematycznych, w których pozycje ciągu kodowego dzielą się na informacyjne i kontrolne. W pozycje informacyjne wpisujemy kolejne wartości binarne ciągu informacyjnego o długości k. Pozycje kontrolne o długości n-k i pozycje informacyjne należą do tzw. zespołów kontrolnych, przy czym najwygodniej jest przyporządkować jedną pozycję kontrolną dla każdego zespołu kontrolnego i wpisać w nią taką wartość binarną 0 lub 1, aby suma modulo 2 informacji elementarnych objętych danym zespołem była równa zero (liczba jedynek była parzysta). 30
31 Umownie kod blokowy systematyczny zapisujemy w formie (n,k). n k pozycji informacyjnych n - k pozycji kontrolnych Rys.6. Format ciągu kodowego kodu systematycznego 31
32 Systematyczny liniowy kod blokowy (n,k) jest odwzorowaniem k-wymiarowego ciągu informacyjnego w n-wymiarowy ciąg kodowy w taki sposób, że część ciągu kodowego stanowi ciąg informacyjny (rys. 6). Pozostałe (n-k) sygnały elementarne reprezentują tzw. ciąg kontrolny (zwany potocznie bitami parzystości), z których każdy jest odpowiednio powiązany z określonymi informacjami elementarnymi warunkiem uzyskania parzystej liczby jedynek, przez co umożliwia uzyskanie zdolności detekcji i/lub korekcji błędów. 32
33 Kod umożliwiający wykrycie nieparzystej liczby błędów elementarnych Niech długość ciągu kodowego n k 1, gdzie k jest długością ciągu informacyjnego, a więc długość ciągu kontrolnego n - k=1. Jeśli na pierwsze k pozycji ciągu kodowego wpiszemy kolejne bity ciągu informacyjnego, to w ostatnią n-tą pozycję ciągu kodowego powinno się wpiszać taką cyfrę binarną, która zsumowana modulo 2 z cyframi binarnymi znajdującymi się na k pozycjach poprzedzających da wynik 0. Dzięki temu po stronie odbiorczej dekoder może wykryć obecność niektórych błędów przez przeprowadzenie testowania polegającego na 33
34 sprawdzeniu, czy suma modulo 2 sygnałów elementarnych ciągu odebranego y jest parzysta. Jeśli tak nie jest, to ciąg odebrany zawiera błąd (błędy). Odbiornik może wówczas podjąć decyzję, że ciągu kodowego nie da się odtworzyć i może zażądać retransmisji. Wówczas elementów wynosi prawdopodobieństwo j błędów w bloku o długości n P n j j j, n p 1 p Zatem prawdopodobieństwo P wd błędnego odtwarzania wiadomości na podstawie odebranego bloku y o długości n wyraża się wzorem n j 34
35 35 nieparzystego) (dla lub parzystego) (dla n-1 2 n 1 2 n n j j n j wd p p j n P Prawdopodobieństwo błędnego odtwarzania wiadomości bez zabezpieczenia kodowego wynosi j k j k j w p p j k P 1 1
36 Założenia: Kod umożliwiający korekcję pojedynczego błędu w stablicowanym ciągu informacyjnym - wiadomość jest złożona z L bitów; - tworzymy tablicę zawierającą W wierszy i K kolumn, gdzie L=W*K Następnie wprowadzamy 1 bit kontrolny do każdej kolumny oraz 1 bit kontrolny do każdego wiersza, tzn. powiększamy wymiar tablicy do (W+1)(K+1). 36
37 Ciąg bitów kontrolnych dla wszystkich wierszy, który tworzy kolumnę, jest najczęściej zapisywany na końcu bloku i jest zwany znakiem kontrolnym bloku. Dowolny pojedynczy błąd w bloku z takim zabezpieczeniem kodowym będzie wywoływał 2 błędy parzystości, przy czym jeden w wierszu, a drugi w kolumnie, które przecinają się na pozycji, w której ten błąd występuje, a więc korekcja błędu w dekoderze będzie łatwo realizowalna. 37
38 38 Jakość tego zabezpieczenia przez obliczenie prawdopodobieństwa błędnego odtwarzania wiadomości. Jeśli t oznacza liczbę błędów, które może korygować dany kod, to prawdopodobieństwo błędnego odtwarzania wiadomości możemy obliczyć ze wzoru n 1 1 t j j n j wk p p j n P
39 Macierz generująca Odwzorowanie k-bitowych ciągów informacyjnych w n-bitowe ciągi kodowe można zrealizować w różny sposób. Najprościej odwzorowanie to może być przeprowadzone za pomocą tablicy kodowej, w której poszczególnym ciągom informacyjnym są przyporządkowane ciągi kodowe. Wtedy korzysta się z tzw. macierzy generującej. 39
40 40 kn k k n n k g g g g g g g g g g g g G,,,,,,,,, (22) Jeśli ciągi kodowe i ciągi informacyjne będziemy zapisywali jako wektory wierszowe, to dla wiadomości ik i i i x x x x,, 2, 1 ciąg kodowy x i s otrzymamy jako iloczyn G x x s i i (23)
41 Zysk kodowania Wprowadzenie nadmiarowości do ciągu informacyjnego w celu zabezpieczenia całego ciągu kodowego przed błędami ma tylko wtedy sens, gdy: - zwiększone wskutek kodowania prawdopodobieństwo błędu elementarnego, spowodowane zmniejszoną energią sygnału użytecznego przypadającą na sygnał elementarny ciągu kodowego, jest skompensowane dzięki zabezpieczeniu kodowemu, - zabezpieczenie to zapewnia zmniejszenie prawdopodobieństwa błędnego odtwarzania wiadomości w porównaniu z sytuacją, gdy zabezpieczenie kodowe nie jest stosowane. 41
42 Zysk kodowania jest zdefiniowany jako wielkość redukcji wymaganej wartości E b wyrażonej w decybelach, która jest N0 niezbędna do uzyskania tego samego średniego prawdopodobieństwa elementarnego błędu dekodowania jak prawdopodobieństwo błędu elementarnego bez zabezpieczenia kodowego, przy tym samym rodzaju modulacji. G[ db] E N b o pokodowaniu E b db db N o bez kodowania 42
43 Zdolność korekcyjna i detekcyjna kodów O zdolności detekcyjnej i/lub korekcyjnej kodu decyduje minimalna odległość Hamminga między ciągami kodowymi. s 1,s 2 Def. Odległością Hamminga d między dwoma ciągami kodowymi s 1 i s 2 nazywamy liczbę pozycji binarnych, na których oba ciągi się różnią. Def. Minimalna odległość Hamminga kodu (n,k) jest dana wzorem d min min i, k ik d s, s : s, s S, i, k 1,2,, L i k i k 43
44 Wyznaczenie minimalnej odległości Hamminga kodu wymaga parą ciągów kodowych. d min dla danego określenia odległości Hamminga między każdą O zdolności detekcyjnej i/lub korekcyjnej kodu decyduje minimalna odległość Hamminga d min. Z właściwości kodów liniowych wynika, że suma dwóch ciągów kodowych jest również ciągiem kodowym, a więc odległość między dwoma ciągami kodowymi jest równa ich odległości od ciągu kodowego s 1 złożonego z samych zer. Zatem określenie liczby jedynek 44
45 w każdym ciągu kodowym umożliwia znalezienie d min, które będzie równe najmniejszej liczbie jedynek zawartych w określonym ciągu kodowym (ciągach kodowych) danego kodu, bowiem ta liczba jedynek będzie równocześnie wyznaczać odległość od ciągu s 1. Zdolność detekcyjna kodu jest określona wzorem e d min 1 Zdolność korekcyjna t kodu jest zdefiniowana jako maksymalna liczba korygowalnych błędów w ciągu kodowym: t d min
46 Kody cykliczne Ważną w praktyce podklasą kodów liniowych są kody ilorazowe, w których istnieje możliwość powiązania ciągów informacyjnych i ciągów kodowych z wielomianami odpowiednich stopni o współczynnikach binarnych, a kodowanie oraz dekodowanie można opisywać algebraicznie jako mnożenie i dzielenie wielomianów w oparciu o operacje modulo 2, natomiast techniczne wykonywanie mnożenia i dzielenia można zrealizować przy zastosowaniu rejestrów przesuwnych ze sprzężeniem zwrotnym. Do szczególnie rozpowszechnionych w praktyce kodów ilorazowych należą kody cykliczne, w których zakłada się, że ciąg powstały przez 46
47 cykliczne przesunięcie ciągu kodowego s o i pozycji w prawo, i=1,2,,n-1, jest również ciągiem kodowym. Jeżeli więc ciągowi s s, s 2,, przyporządkujemy wielomian 1 s n u 2 1 s s u n s u s u n s to cykliczna właściwość kodu ujawnia się w tym, że reszta s i u z ilorazu u i u i u s s f u n n u 1 u 1 jest również wielomianem ciągu kodowego, przy czym f u jest częścią całkowitą ilorazu. 47
48 Kodowanie w formie systematycznej wymaga wyznaczenia ciągu kontrolnego tzn. obliczenia wyrażenia u nk xu modulo g(u), a więc podzielenia wielomianu reprezentującego wiadomość przesuniętą o (nk) pozycji w prawo przez wielomian generujący g(u). Ciąg kontrolny jest resztą z dzielenia zawartą w rejestrze przesuwnym. 48
49 Kodowanie splotowe Kodowanie splotowe charakteryzuje się tym, że może być dokonywane w sposób ciągły, bez konieczności dzielenia ciągu informacji elementarnych na bloki, jak to miało miejsce w przypadku kodów blokowych. Kodowanie splotowe można realizować za pomocą prostych układów i przy niewielkiej liczbie elementarnych operacji przetwarzania. Niestety, proces dekodowania ciągów odebranych kodu splotowego wymaga znacznie większego nakładu przetwarzania niż proces kodowania splotowego. 49
50 Kod splotowy jest zdefiniowany przez 3 liczby (n,k,k), gdzie n jest długością segmentu ciągu kodowego generowanego oddzielnie dla każdego zespołu k kolejnych bitów ciągu informacyjnego, a K jest tzw. stałą ograniczającą. W naszych rozważaniach ograniczymy się tylko do binarnych kodów splotowych, dla których k=1. W tym przypadku n jest długością segmentu ciągu kodowego, a K jest wówczas liczbą stopni rejestru przesuwnego ze sprzężeniem zwrotnym stosowanego do kodowania. 50
51 Ciąg inform acy jny (wiadom ość) Sumator 1 Sumator Pierwszy element s 1 segmentu ciągu kodowego Drugi element s 2 segmentu ciągu kodowego Ciąg kodowy Rys. Schemat kodera kodu splotowego (2,1,3). Aby zdekodować ciąg kodowy, niezbędny jest cały ciąg włącznie z zakodowanymi bitami uzupełniającymi o wartości logicznej 0 dołączonymi do ciągu wejściowego i koniecznymi do opróżnienia zawartości rejestru kodera. 51
52 Uwagi ciąg kodowy kodu splotowego nie ma wyraźnie określonej długości, jak miało to miejsce w przypadku kodu blokowego, tzn, może być dowolnie długi. Możemy oczywiście stosować kodowanie splotowe do bloków wiadomości o zadanych długościach, musimy jednak zawsze dołączyć (K-1) binarnych zer na końcu każdego bloku, aby opróżnić każdorazowo zawartość rejestru kodera, po to by nie utracić pełnej informacji o ciągu kodowym 52
53 względna szybkość kodowania (sprawność kodowania) jest nieco mniejsza niż r k, wskutek konieczności dołączania n binarnych zer do opróżniania zawartości rejestru kod splotowy wprowadza powiązania statystyczne między elementami ciągu kodowego, gdyż każdy segment ciągu kodowego jest funkcją nie tylko wartości danego bitu wejściowego, lecz również K 1 wartości poprzedzających go bitów wejściowych. 53
54 W analizie i zastosowaniach ogromną rolę odgrywa opis kodu splotowego za pomocą grafu kratownicowego (zwanego niekiedy kratowym), który przedstawia możliwe w czasie zmiany stanów kodera i pozwala w prosty sposób określić w grafie tzw. ścieżkę, określającą generowany ciąg kodowy dla każdego ciągu wejściowego. Każdy generowany segment ciągu kodowego jest zawsze funkcją stanu kodera i wartości bitu podawanego na wejście przy czym przez stan kodera rozumie się tu stan ostatnich K 1 stopni rejestru 54
55 10 01 Stan d Stan b Stan a 00 Stan c segmenty ciągu kodowego Linia ciągła: x i =0 Linia przery wana: x i =1 00 Rys. Graf stanów kodu splotowego (2,1,3) 55
56 W procesie kodowania kolejnym dyskretnym chwilom t i, i 1,2, podawania kolejnych bitów informacyjnych o znanych wartościach binarnych można przyporządkować nowe stany kodera w momentach t i1 dla zadanych stanów w momentach t i i otrzymać odpowiednią ścieżkę w grafie, reprezentującą generowany ciąg kodowy, jak pokazano to na rys. Graf kratownicowy dzięki wykorzystaniu powtarzalnych operacji w procesie kodowania pozwala badać ten proces dynamicznie (w czasie) i umożliwia łatwą jego konstrukcję oraz określanie ciągu kodowego dla dowolnie długiego ciągu informacyjnego. 56
57 Stan a 00 t 1 t 2 t t t t 6 Linia ciągła: x i = 0 Linia przerywana: x i = 1 Stan b 10 Stan c Scieżka ciągu kodowego s dla wiadomości x Stan d podciąg wyzerowujący stan kodera Rys. Graf kratownicowy dla omawianego kodu 57
58 Proces dekodowania, czyli poszukiwania najbardziej prawdopodobnego ciągu nadanego realizujemy stopniowo w wielu etapach, przez poszukiwanie w każdym etapie bardziej prawdopodobnych gałęzi i odrzucanie innych gałęzi oraz wyznaczanie ścieżek bardziej prawdopodobnych (wyselekcjonowanych), wśród których nietrudno już ustalić ścieżkę najbardziej prawdopodobną, nazywamy algorytmem Viterbiego. 58
W11 Kody nadmiarowe, zastosowania w transmisji danych
W11 Kody nadmiarowe, zastosowania w transmisji danych Henryk Maciejewski Jacek Jarnicki Marek Woda www.zsk.iiar.pwr.edu.pl Plan wykładu 1. Kody nadmiarowe w systemach transmisji cyfrowej 2. Typy kodów,
teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015
teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015 1 wczoraj Wprowadzenie matematyczne. Entropia i informacja. Kodowanie. Kod ASCII. Stopa kodu. Kody bezprefiksowe.
Teoria informacji i kodowania Ćwiczenia Sem. zimowy 2016/2017
Algebra liniowa Zadanie 1 Czy jeśli wektory x, y i z, należące do binarnej przestrzeni wektorowej nad ciałem Galois GF (2), są liniowo niezależne, to można to samo orzec o następujących trzech wektorach:
Laboratorium ochrony danych
Laboratorium ochrony danych Ćwiczenie nr 3 Temat ćwiczenia: Kod BCH Cel dydaktyczny: Zapoznanie się z metodami detekcji i korekcji błędów transmisyjnych za pomocą binarnych kodów cyklicznych, na przykładzie
Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład Kody liniowe - kodowanie w oparciu o macierz parzystości
Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład 13 1 Kody liniowe - kodowanie w oparciu o macierz parzystości Przykład Różne macierze parzystości dla kodu powtórzeniowego. Co wiemy z algebry
Kody splotowe. Zastosowanie
Kody splotowe Zastosowanie Niekiedy potrzeba buforowania fragmentu wiadomości przed zakodowaniem, tak jak to ma miejsce w koderze blokowym, jest przeszkodą, gdyż dane do zakodowania napływają strumieniem.
0 + 0 = 0, = 1, = 1, = 0.
5 Kody liniowe Jak już wiemy, w celu przesłania zakodowanego tekstu dzielimy go na bloki i do każdego z bloków dodajemy tak zwane bity sprawdzające. Bity te są w ścisłej zależności z bitami informacyjnymi,
Detekcja i korekcja błędów w transmisji cyfrowej
Detekcja i korekcja błędów w transmisji cyfrowej Błędy w transmisji cyfrowej pojedyncze wielokrotne. całkowita niepewność względem miejsca zakłóconych bitów oraz czy w ogóle występują paczkowe (grupowe)
Podstawy Informatyki: Kody. Korekcja błędów.
Podstawy Informatyki: Kody. Korekcja błędów. Adam Kolany Instytut Techniczny adamkolany@pm.katowice.pl Adam Kolany (PWSZ Nowy Sącz, IT) Podstawy Informatyki: Kody. Korekcja błędów. 11 stycznia 2012 1 /
Detekcja i korekcja błędów w transmisji cyfrowej
Detekcja i korekcja błędów w transmisji cyfrowej Błędy w transmisji cyfrowej pojedyncze wielokrotne. całkowita niepewność względem miejsca zakłóconych bitów oraz czy w ogóle występują paczkowe (grupowe)
Matematyka dyskretna
Matematyka dyskretna Wykład 7: Kody korygujące błędy Gniewomir Sarbicki Błędy transmisji i kodowanie nadmiarowe Zakładamy, że przy pewnym małym prawdopodobieństwie ɛ przy transmisji bit zmienia wartość.
Systemy bezpieczne i FTC (Niezawodne Systemy Cyfrowe)
Systemy bezpieczne i FTC (Niezawodne Systemy Cyfrowe) dr inż Krzysztof Berezowski 220/C3 tel +48 71 320 27-59 krzysztofberezowski@pwrwrocpl 1 Wybrane kody dr inż Krzysztof Berezowski 220/C3 tel +48 71
xx + x = 1, to y = Jeśli x = 0, to y = 0 Przykładowy układ Funkcja przykładowego układu Metody poszukiwania testów Porównanie tabel prawdy
Testowanie układów kombinacyjnych Przykładowy układ Wykrywanie błędów: 1. Sklejenie z 0 2. Sklejenie z 1 Testem danego uszkodzenia nazywa się takie wzbudzenie funkcji (wektor wejściowy), które daje błędną
teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015
teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015 1 zakres materiału zakres materiału 1. Czym jest teoria informacji? 2. Wprowadzenie matematyczne. 3. Entropia i informacja.
Teoria Informacji - wykład. Kodowanie wiadomości
Teoria Informacji - wykład Kodowanie wiadomości Definicja kodu Niech S={s 1, s 2,..., s q } oznacza dany zbiór elementów. Kodem nazywamy wówczas odwzorowanie zbioru wszystkich możliwych ciągów utworzonych
wiadomość komunikat - informacja Caius Julius Cesar Człowiek zasztyletowany przez senatorów na forum Romanum w Idy Marcowe roku DCCIX ab urbe condita
wiadomość komunikat - informacja Caius Julius Cesar Człowiek zasztyletowany przez senatorów na forum Romanum w Idy Marcowe roku DCCIX ab urbe condita Wojna Bambadocji przeciwko Alandii i Cezji Alandia:
Kodowanie i kompresja Streszczenie Studia dzienne Wykład 6
Kodowanie i kompresja Streszczenie Studia dzienne Wykład 6 1 Kody cykliczne: dekodowanie Definicja 1 (Syndrom) Niech K będzie kodem cyklicznym z wielomianem generuja- cym g(x). Resztę z dzielenia słowa
Kody splotowe (konwolucyjne)
Modulacja i Kodowanie Labolatorium Kodowanie kanałowe kody konwolucyjne Kody splotowe (konwolucyjne) Główną różnicą pomiędzy kodami blokowi a konwolucyjnymi (splotowymi) polega na konstrukcji ciągu kodowego.
Sieci Komputerowe Mechanizmy kontroli błędów w sieciach
Sieci Komputerowe Mechanizmy kontroli błędów w sieciach dr Zbigniew Lipiński Instytut Matematyki i Informatyki ul. Oleska 48 50-204 Opole zlipinski@math.uni.opole.pl Zagadnienia Zasady kontroli błędów
Zygmunt Kubiak Instytut Informatyki Politechnika Poznańska
Instytut Informatyki Politechnika Poznańska Proces transmisji może w prowadzać błędy do przesyłanych wiadomości błędy pojedyncze lub grupowe Detekcja: Wymaga uznania, że niektóre wiadomości są nieważne
Podstawy Automatyki. Wykład 9 - Podstawy matematyczne automatyki procesów dyskretnych. dr inż. Jakub Możaryn. Instytut Automatyki i Robotyki
Wykład 9 - Podstawy matematyczne automatyki procesów dyskretnych Instytut Automatyki i Robotyki Warszawa, 2015 Kody liczb całkowitych nieujemnych Kody liczbowe dzielimy na analityczne nieanalityczne (symboliczne)
Kody blokowe Wykład 2, 10 III 2011
Kody blokowe Wykład 2, 10 III 2011 Literatura 1. R.M. Roth, Introduction to Coding Theory, 2006 2. W.C. Huffman, V. Pless, Fundamentals of Error-Correcting Codes, 2003 3. D.R. Hankerson et al., Coding
PODSTAWY TELEKOMUNIKACJI Egzamin I - 2.02.2011 (za każde polecenie - 6 punktów)
PODSTAWY TELEKOMUNIKACJI Egzamin I - 2.02.2011 (za każde polecenie - 6 punktów) 1. Dla ciągu danych: 1 1 0 1 0 narysuj przebiegi na wyjściu koderów kodów transmisyjnych: bipolarnego NRZ, unipolarnego RZ,
Niezawodność i diagnostyka systemów cyfrowych projekt 2015
Niezawodność i diagnostyka systemów cyfrowych projekt 2015 Jacek Jarnicki jacek.jarnicki@pwr.edu.pl Zajęcia wprowadzające 1. Cel zajęć projektowych 2. Etapy realizacji projektu 3. Tematy zadań do rozwiązania
urządzenia: awaria układów ochronnych, spowodowanie awarii oprogramowania
Bezpieczeństwo systemów komputerowych urządzenia: awaria układów ochronnych, spowodowanie awarii oprogramowania Słabe punkty sieci komputerowych zbiory: kradzież, kopiowanie, nieupoważniony dostęp emisja
Tranzystor JFET i MOSFET zas. działania
Tranzystor JFET i MOSFET zas. działania brak kanału v GS =v t (cutoff ) kanał otwarty brak kanału kanał otwarty kanał zamknięty w.2, p. kanał zamknięty Co było na ostatnim wykładzie? Układy cyfrowe Najczęściej
Modulacja i Kodowanie. Labolatorium. Kodowanie Kanałowe Kody Hamminga
Modulacja i Kodowanie Labolatorium Kodowanie Kanałowe Kody Hamminga Kody Hamminga należą do grupy kodów korekcyjnych, ich celem jest detekcja I ewentualnie poprawianie błędów. Nazwa tego kody pochodzi
ćwiczenie 202 Temat: Układy kombinacyjne 1. Cel ćwiczenia
Opracował: dr inż. Jarosław Mierzwa KTER INFORMTKI TEHNIZNEJ Ćwiczenia laboratoryjne z Logiki Układów yfrowych ćwiczenie 202 Temat: Układy kombinacyjne 1. el ćwiczenia Ćwiczenie ma na celu praktyczne zapoznanie
Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9,
1 Kody Tunstalla Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9, 14.04.2005 Inne podejście: słowa kodowe mają ustaloną długość, lecz mogą kodować ciągi liter z alfabetu wejściowego o różnej
Systemy i Sieci Radiowe
Systemy i Sieci Radiowe Wykład 2 Wprowadzenie część 2 Treść wykładu modulacje cyfrowe kodowanie głosu i video sieci - wiadomości ogólne podstawowe techniki komutacyjne 1 Schemat blokowy Źródło informacji
INSTYTUT CYBERNETYKI TECHNICZNEJ POLITECHNIKI WROCŁAWSKIEJ ZAKŁAD SZTUCZNEJ INTELIGENCJI I AUTOMATÓW
INSTYTUT YERNETYKI TEHNIZNEJ POLITEHNIKI WROŁWSKIEJ ZKŁD SZTUZNEJ INTELIGENJI I UTOMTÓW Ćwiczenia laboratoryjne z Logiki Układów yfrowych ćwiczenie 22 temat: UKŁDY KOMINYJNE. EL ĆWIZENI Ćwiczenie ma na
mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. GOLOMBA I RICE'A
mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. KOMPRESJA ALGORYTMEM ARYTMETYCZNYM, GOLOMBA I RICE'A Idea algorytmu arytmetycznego Przykład kodowania arytmetycznego Renormalizacja
O sygnałach cyfrowych
O sygnałach cyfrowych Informacja Informacja - wielkość abstrakcyjna, która moŝe być: przechowywana w pewnych obiektach przesyłana pomiędzy pewnymi obiektami przetwarzana w pewnych obiektach stosowana do
ARYTMETYKA BINARNA. Dziesiątkowy system pozycyjny nie jest jedynym sposobem kodowania liczb z jakim mamy na co dzień do czynienia.
ARYTMETYKA BINARNA ROZWINIĘCIE DWÓJKOWE Jednym z najlepiej znanych sposobów kodowania informacji zawartej w liczbach jest kodowanie w dziesiątkowym systemie pozycyjnym, w którym dla przedstawienia liczb
2. STRUKTURA RADIOFONICZNYCH SYGNAŁÓW CYFROWYCH
1. WSTĘP Radiofonię cyfrową cechują strumienie danych o dużych przepływnościach danych. Do przesyłania strumienia danych o dużych przepływnościach stosuje się transmisję z wykorzystaniem wielu sygnałów
Kody blokowe Wykład 1, 3 III 2011
Kody blokowe Wykład 1, 3 III 2011 Literatura 1. R.M. Roth, Introduction to Coding Theory, 2006 2. W.C. Huffman, V. Pless, Fundamentals of Error-Correcting Codes, 2003 3. D.R. Hankerson et al., Coding Theory
KODOWANIE KANAŁOWE (NADMIAROWE) ERROR CONTROL CODING
KODOWANIE KANAŁOWE (NADMIAROWE) ERROR CONTROL CODING - W celu zabezpieczenia danych przed błędami do danych informacyjnych dołącza się według ściśle określonej reguły (definiującej dany kod) dodatkowe
Według raportu ISO z 1988 roku algorytm JPEG składa się z następujących kroków: 0.5, = V i, j. /Q i, j
Kompresja transformacyjna. Opis standardu JPEG. Algorytm JPEG powstał w wyniku prac prowadzonych przez grupę ekspertów (ang. Joint Photographic Expert Group). Prace te zakończyły się w 1991 roku, kiedy
Podstawowe pojęcia. Teoria informacji
Kodowanie i kompresja informacji - Wykład 1 22 luty 2010 Literatura K. Sayood, Kompresja danych - wprowadzenie, READ ME 2002 (ISBN 83-7243-094-2) Literatura K. Sayood, Kompresja danych - wprowadzenie,
12. Wprowadzenie Sygnały techniki cyfrowej Systemy liczbowe. Matematyka: Elektronika:
PRZYPOMNIJ SOBIE! Matematyka: Dodawanie i odejmowanie "pod kreską". Elektronika: Sygnały cyfrowe. Zasadę pracy tranzystorów bipolarnych i unipolarnych. 12. Wprowadzenie 12.1. Sygnały techniki cyfrowej
ZAKŁAD SYSTEMÓW ELEKTRONICZNYCH I TELEKOMUNIKACYJNYCH Laboratorium Podstaw Telekomunikacji WPŁYW SZUMÓW NA TRANSMISJĘ CYFROWĄ
Laboratorium Podstaw Telekomunikacji Ćw. 4 WPŁYW SZUMÓW NA TRANSMISJĘ CYFROWĄ 1. Zapoznać się z zestawem do demonstracji wpływu zakłóceń na transmisję sygnałów cyfrowych. 2. Przy użyciu oscyloskopu cyfrowego
Entropia Kodowanie. Podstawy kompresji. Algorytmy kompresji danych. Sebastian Deorowicz
Algorytmy kompresji danych 2007 02 27 Plan wykładu 1 Modelowanie i kodowanie 2 Modelowanie i kodowanie Plan wykładu 1 Modelowanie i kodowanie 2 Modelowanie i kodowanie definicja stowarzyszona ze zbiorem
UKŁADY MIKROPROGRAMOWALNE
UKŁAD MIKROPROGRAMOWALNE Układy sterujące mogą pracować samodzielnie, jednakże w przypadku bardziej złożonych układów (zwanych zespołami funkcjonalnymi) układ sterujący jest tylko jednym z układów drugim
Temat 7. Dekodery, enkodery
Temat 7. Dekodery, enkodery 1. Pojęcia: koder, dekoder, enkoder, konwerter kodu, transkoder, enkoder priorytetowy... Koderami (lub enkoderami) nazywamy układy realizujące proces zamiany informacji kodowanej
1.1. Pozycyjne systemy liczbowe
1.1. Pozycyjne systemy liczbowe Systemami liczenia nazywa się sposób tworzenia liczb ze znaków cyfrowych oraz zbiór reguł umożliwiających wykonywanie operacji arytmetycznych na liczbach. Dla dowolnego
Kodowanie Huffmana. Platforma programistyczna.net; materiały do laboratorium 2014/15 Marcin Wilczewski
Kodowanie Huffmana Platforma programistyczna.net; materiały do laboratorium 24/5 Marcin Wilczewski Algorytm Huffmana (David Huffman, 952) Algorytm Huffmana jest popularnym algorytmem generującym optymalny
Podstawowe operacje arytmetyczne i logiczne dla liczb binarnych
1 Podstawowe operacje arytmetyczne i logiczne dla liczb binarnych 1. Podstawowe operacje logiczne dla cyfr binarnych Jeśli cyfry 0 i 1 potraktujemy tak, jak wartości logiczne fałsz i prawda, to działanie
Polska-Brazylia 5:0, czyli o poprawianiu błędów w przekazywanych informacjach
Polska-Brazylia 5:0, czyli o poprawianiu błędów w przekazywanych informacjach Witold Tomaszewski Instytut Matematyki Politechniki Śląskiej e-mail: Witold.Tomaszewski@polsl.pl Witold Tomaszewski (Instytut
Teoria informacji i kodowania Ćwiczenia
Teoria informacji i kodowania Ćwiczenia Piotr Chołda, Andrzej Kamisiński Katedra Telekomunikacji Akademii Górniczo-Hutniczej Kod źródłowy Kodem źródłowym nazywamy funkcję różnowartościową, która elementom
PODSTAWY AUTOMATYKI. MATLAB - komputerowe środowisko obliczeń naukowoinżynierskich - podstawowe operacje na liczbach i macierzach.
WYDZIAŁ ELEKTROTECHNIKI I AUTOMATYKI Katedra Inżynierii Systemów Sterowania PODSTAWY AUTOMATYKI MATLAB - komputerowe środowisko obliczeń naukowoinżynierskich - podstawowe operacje na liczbach i macierzach.
Arytmetyka liczb binarnych
Wartość dwójkowej liczby stałoprzecinkowej Wartość dziesiętna stałoprzecinkowej liczby binarnej Arytmetyka liczb binarnych b n-1...b 1 b 0,b -1 b -2...b -m = b n-1 2 n-1 +... + b 1 2 1 + b 0 2 0 + b -1
Metody numeryczne Technika obliczeniowa i symulacyjna Sem. 2, EiT, 2014/2015
Metody numeryczne Technika obliczeniowa i symulacyjna Sem. 2, EiT, 2014/2015 1 Metody numeryczne Dział matematyki Metody rozwiązywania problemów matematycznych za pomocą operacji na liczbach. Otrzymywane
Kodowanie i entropia
Kodowanie i entropia Marek Śmieja Teoria informacji 1 / 34 Kod S - alfabet źródłowy mocy m (np. litery, cyfry, znaki interpunkcyjne), A = {a 1,..., a n } - alfabet kodowy (symbole), Chcemy przesłać tekst
LABORATORIUM PROCESORY SYGNAŁOWE W AUTOMATYCE PRZEMYSŁOWEJ. Zasady arytmetyki stałoprzecinkowej oraz operacji arytmetycznych w formatach Q
LABORAORIUM PROCESORY SYGAŁOWE W AUOMAYCE PRZEMYSŁOWEJ Zasady arytmetyki stałoprzecinkowej oraz operacji arytmetycznych w formatach Q 1. Zasady arytmetyki stałoprzecinkowej. Kody stałopozycyjne mają ustalone
prawda symbol WIEDZA DANE komunikat fałsz liczba INFORMACJA (nie tyko w informatyce) kod znak wiadomość ENTROPIA forma przekaz
WIEDZA prawda komunikat symbol DANE fałsz kod INFORMACJA (nie tyko w informatyce) liczba znak forma ENTROPIA przekaz wiadomość Czy żyjemy w erze informacji? TAK Bo używamy nowego rodzaju maszyn maszyn
Założenia i obszar zastosowań. JPEG - algorytm kodowania obrazu. Geneza algorytmu KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG
Założenia i obszar zastosowań KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG Plan wykładu: Geneza algorytmu Założenia i obszar zastosowań JPEG kroki algorytmu kodowania obrazu Założenia: Obraz monochromatyczny
Krzysztof Leszczyński Adam Sosnowski Michał Winiarski. Projekt UCYF
Krzysztof Leszczyński Adam Sosnowski Michał Winiarski Projekt UCYF Temat: Dekodowanie kodów 2D. 1. Opis zagadnienia Kody dwuwymiarowe nazywane często kodami 2D stanowią uporządkowany zbiór jasnych i ciemnych
Temat: Algorytm kompresji plików metodą Huffmana
Temat: Algorytm kompresji plików metodą Huffmana. Wymagania dotyczące kompresji danych Przez M oznaczmy zbiór wszystkich możliwych symboli występujących w pliku (alfabet pliku). Przykład M = 2, gdy plik
Układy stochastyczne
Instytut Informatyki Uniwersytetu Śląskiego 21 stycznia 2009 Definicja Definicja Proces stochastyczny to funkcja losowa, czyli funkcja matematyczna, której wartości leżą w przestrzeni zdarzeń losowych.
Granica kompresji Kodowanie Shannona Kodowanie Huffmana Kodowanie ciągów Kodowanie arytmetyczne. Kody. Marek Śmieja. Teoria informacji 1 / 35
Kody Marek Śmieja Teoria informacji 1 / 35 Entropia Entropia określa minimalną statystyczną długość kodowania (przyjmijmy dla prostoty że alfabet kodowy A = {0, 1}). Definicja Niech X = {x 1,..., x n }
Interfejsy systemów pomiarowych
Interfejsy systemów pomiarowych Układ (topologia) systemu pomiarowe może być układem gwiazdy układem magistrali (szyny) układem pętli Ze względu na rodzaj transmisji interfejsy możemy podzielić na równoległe
Zapis liczb binarnych ze znakiem
Zapis liczb binarnych ze znakiem W tej prezentacji: Zapis Znak-Moduł (ZM) Zapis uzupełnień do 1 (U1) Zapis uzupełnień do 2 (U2) Zapis Znak-Moduł (ZM) Koncepcyjnie zapis znak - moduł (w skrócie ZM - ang.
1 WPROWADZENIE 1. Agata Pilitowska. parzysta. 3. Znaleźć odległość kodu kontroli parzystości nad ciałem GF (q).
1 WPROWADZENIE 1 Kody korekcyjne - zadania Agata Pilitowska 1 Wprowadzenie 1 Pokazać, że dla dowolnych wektorów c, f Z n 2, d(c, f ) = n (c i f i ) 2, i=1 wt(c + f ) = wt(c) + wt(f ) 2wt(cf ), wt(c + f
0 --> 5, 1 --> 7, 2 --> 9, 3 -->1, 4 --> 3, 5 --> 5, 6 --> 7, 7 --> 9, 8 --> 1, 9 --> 3.
(Aktualizacja z dnia 3 kwietnia 2013) MATEMATYKA DYSKRETNA - informatyka semestr 2 (lato 2012/2013) Zadania do omówienia na zajęciach w dniach 21 i 28 kwietnia 2013 ZESTAW NR 3/7 (przykłady zadań z rozwiązaniami)
Funkcja Boolowska a kombinacyjny blok funkcjonalny
SWB - Kombinacyjne bloki funkcjonalne - wykład 3 asz 1 Funkcja Boolowska a kombinacyjny blok funkcjonalny Kombinacyjny blok funkcjonalny w technice cyfrowej jest układem kombinacyjnym złożonym znwejściach
Dane, informacja, programy. Kodowanie danych, kompresja stratna i bezstratna
Dane, informacja, programy Kodowanie danych, kompresja stratna i bezstratna DANE Uporządkowane, zorganizowane fakty. Główne grupy danych: tekstowe (znaki alfanumeryczne, znaki specjalne) graficzne (ilustracje,
Stan wysoki (H) i stan niski (L)
PODSTAWY Przez układy cyfrowe rozumiemy układy, w których w każdej chwili występują tylko dwa (zwykle) możliwe stany, np. tranzystor, jako element układu cyfrowego, może być albo w stanie nasycenia, albo
Ocena wpływu algorytmu dupleksowego systemu transmisji danych na szybkość transmisji
Zeszyty Naukowe SGSP 2017, Nr 64/4/2017 dr inż. Andrzej Lubański bryg. dr inż. Jacek Chrzęstek Katedra Techniki Pożarniczej Wydział Inżynierii Bezpieczeństwa Pożarowego Szkoła Główna Służby Pożarniczej
Def. Kod jednoznacznie definiowalny Def. Kod przedrostkowy Def. Kod optymalny. Przykłady kodów. Kody optymalne
Załóżmy, że mamy źródło S, które generuje symbole ze zbioru S={x, x 2,..., x N } z prawdopodobieństwem P={p, p 2,..., p N }, symbolom tym odpowiadają kody P={c, c 2,..., c N }. fektywność danego sposobu
Podstawy transmisji sygnałów
Podstawy transmisji sygnałów 1 Sygnał elektromagnetyczny Jest funkcją czasu Może być również wyrażony jako funkcja częstotliwości Sygnał składa się ze składowych o róznych częstotliwościach 2 Koncepcja
KARTA MODUŁU KSZTAŁCENIA
KARTA MODUŁU KSZTAŁCENIA I. Informacje ogólne I. 1 Nazwa modułu kształcenia Analiza i przetwarzanie sygnałów 2 Nazwa jednostki prowadzącej moduł (należy wskazać nazwę zgodnie ze Statutem PSW Instytut,
Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar... 1. Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16
Spis treści Przedmowa.......................... XI Rozdział 1. Pomiar: jednostki miar................. 1 1.1. Wielkości fizyczne i pozafizyczne.................. 1 1.2. Spójne układy miar. Układ SI i jego
Dr inż. Robert Wójcik, p. 313, C-3, tel Katedra Informatyki Technicznej (K-9) Wydział Elektroniki (W-4) Politechnika Wrocławska
Dr inż. Robert Wójcik, p. 313, C-3, tel. 320-27-40 Katedra Informatyki Technicznej (K-9) Wydział Elektroniki (W-4) Politechnika Wrocławska E-mail: Strona internetowa: robert.wojcik@pwr.edu.pl google: Wójcik
Teoria przetwarzania A/C i C/A.
Teoria przetwarzania A/C i C/A. Autor: Bartłomiej Gorczyński Cyfrowe metody przetwarzania sygnałów polegają na przetworzeniu badanego sygnału analogowego w sygnał cyfrowy reprezentowany ciągiem słów binarnych
WYDZIAŁ MATEMATYKI KARTA PRZEDMIOTU
Zał. nr do ZW WYDZIAŁ MATEMATYKI KARTA PRZEDMIOTU Nazwa w języku polskim PODSTAWY TEORII INFORMACJI Nazwa w języku angielskim Introduction to Information Theory Kierunek studiów (jeśli dotyczy): Matematyka
PRZEWODNIK PO PRZEDMIOCIE
Nazwa przedmiotu: SYSTEMY KOMUNIKACJI MIĘDZYKOMPUTEROWEJ Kierunek: Mechatronika Rodzaj przedmiotu: obowiązkowy Rodzaj zajęć: wykład, laboratorium I KARTA PRZEDMIOTU CEL PRZEDMIOTU PRZEWODNIK PO PRZEDMIOCIE
Wygra Polska czy Brazylia, czyli o tym jak zwięźle zapisywać informacje
Wygra Polska czy Brazylia, czyli o tym jak zwięźle zapisywać informacje Witold Tomaszewski Instytut Matematyki Politechniki Śląskiej e-mail: Witold.Tomaszewski@polsl.pl Je n ai fait celle-ci plus longue
Kodowanie informacji. Kody liczbowe
Wykład 2 2-1 Kodowanie informacji PoniewaŜ komputer jest urządzeniem zbudowanym z układów cyfrowych, informacja przetwarzana przez niego musi być reprezentowana przy pomocy dwóch stanów - wysokiego i niskiego,
Algorytm. a programowanie -
Algorytm a programowanie - Program komputerowy: Program komputerowy można rozumieć jako: kod źródłowy - program komputerowy zapisany w pewnym języku programowania, zestaw poszczególnych instrukcji, plik
Algorytmy równoległe: ocena efektywności prostych algorytmów dla systemów wielokomputerowych
Algorytmy równoległe: ocena efektywności prostych algorytmów dla systemów wielokomputerowych Rafał Walkowiak Politechnika Poznańska Studia inżynierskie Informatyka 2014/15 Znajdowanie maksimum w zbiorze
Przetworniki cyfrowo analogowe oraz analogowo - cyfrowe
Przetworniki cyfrowo analogowe oraz analogowo - cyfrowe Przetworniki cyfrowo / analogowe W cyfrowych systemach pomiarowych często zachodzi konieczność zmiany sygnału cyfrowego na analogowy, np. w celu
Teoria informacji i kodowania Ćwiczenia
Teoria informacji i kodowania Ćwiczenia Piotr Chołda, Andrzej Kamisiński Katedra Telekomunikacji Akademii Górniczo-Hutniczej Terminy kolokwiów zaliczeniowych Kolokwium KZ1: 27.01.2017, piątek, 9:00-11:30,
Kod U2 Opracował: Andrzej Nowak
PODSTAWY TEORII UKŁADÓW CYFROWYCH Kod U2 Opracował: Andrzej Nowak Bibliografia: Urządzenia techniki komputerowej, K. Wojtuszkiewicz http://pl.wikipedia.org/ System zapisu liczb ze znakiem opisany w poprzednim
Kompresja danych kodowanie Huffmana. Dariusz Sobczuk
Kompresja danych kodowanie Huffmana Dariusz Sobczuk Plan wykładu Kodowanie metodą Shannona-Fano Kodowanie metodą Huffmana Elementarny kod Golomba Kod Golomba Kod Rice a kompresja danych 2 Efektywny kod
ĆWICZENIE nr 3. Badanie podstawowych parametrów metrologicznych przetworników analogowo-cyfrowych
Politechnika Łódzka Katedra Przyrządów Półprzewodnikowych i Optoelektronicznych WWW.DSOD.PL LABORATORIUM METROLOGII ELEKTRONICZNEJ ĆWICZENIE nr 3 Badanie podstawowych parametrów metrologicznych przetworników
Macierze. Rozdział Działania na macierzach
Rozdział 5 Macierze Funkcję, która każdej parze liczb naturalnych (i, j) (i 1,..., n; j 1,..., m) przyporządkowuje dokładnie jedną liczbę a ij F, gdzie F R lub F C, nazywamy macierzą (rzeczywistą, gdy
Elementy teorii informacji i kodowania
i kodowania Entropia, nierówność Krafta, kodowanie optymalne Marcin Jenczmyk m.jenczmyk@knm.katowice.pl 17 kwietnia 2015 M. Jenczmyk Spotkanie KNM i kodowania 1 / 20 Niech S = {x 1,..., x q } oznacza alfabet,
Andrzej Leśnicki Laboratorium CPS Ćwiczenie 9 1/5 ĆWICZENIE 9. Kwantowanie sygnałów
Andrzej Leśnicki Laboratorium CP Ćwiczenie 9 1/5 ĆWICZEIE 9 Kwantowanie sygnałów 1. Cel ćwiczenia ygnał przesyłany w cyfrowym torze transmisyjnym lub przetwarzany w komputerze (procesorze sygnałowym) musi
Statystyka i eksploracja danych
Wykład I: Formalizm statystyki matematycznej 17 lutego 2014 Forma zaliczenia przedmiotu Forma zaliczenia Literatura Zagadnienia omawiane na wykładach Forma zaliczenia przedmiotu Forma zaliczenia Literatura
2.1. System kryptograficzny symetryczny (z kluczem tajnym) 2.2. System kryptograficzny asymetryczny (z kluczem publicznym)
Dr inż. Robert Wójcik, p. 313, C-3, tel. 320-27-40 Katedra Informatyki Technicznej (K-9) Wydział Elektroniki (W-4) Politechnika Wrocławska E-mail: Strona internetowa: robert.wojcik@pwr.edu.pl google: Wójcik
Systemy zapisu liczb.
Systemy zapisu liczb. Cele kształcenia: Zapoznanie z systemami zapisu liczb: dziesiętny, dwójkowy, ósemkowy, szesnastkowy. Zdobycie umiejętności wykonywania działań na liczbach w różnych systemach. Zagadnienia:
Modulacja i kodowanie - labolatorium. Modulacje cyfrowe. Kluczowane częstotliwości (FSK)
Modulacja i kodowanie - labolatorium Modulacje cyfrowe Kluczowane częstotliwości (FSK) Celem ćwiczenia jest zbudowanie systemu modulacji: modulacji polegającej na kluczowaniu częstotliwości (FSK Frequency
Spacery losowe generowanie realizacji procesu losowego
Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z
Kodowanie transformacyjne. Plan 1. Zasada 2. Rodzaje transformacji 3. Standard JPEG
Kodowanie transformacyjne Plan 1. Zasada 2. Rodzaje transformacji 3. Standard JPEG Zasada Zasada podstawowa: na danych wykonujemy transformacje która: Likwiduje korelacje Skupia energię w kilku komponentach
Kompresja Kodowanie arytmetyczne. Dariusz Sobczuk
Kompresja Kodowanie arytmetyczne Dariusz Sobczuk Kodowanie arytmetyczne (lata 1960-te) Pierwsze prace w tym kierunku sięgają początków lat 60-tych XX wieku Pierwszy algorytm Eliasa nie został opublikowany
TEMAT: SYSTEMY CYFROWE: MODULACJA DEMODULACJA FSK, PSK, ASK
SYSTEMY TELEINFORMATYCZNE INSTRUKCJA DO ĆWICZENIA NR 7 LAB 7 TEMAT: SYSTEMY CYFROWE: MODULACJA DEMODULACJA FSK, PSK, ASK SYSTEMY TELEINFORMATYCZNE I. CEL ĆWICZENIA: Celem ćwiczenia jest zapoznanie się
Wydział Elektryczny. Katedra Telekomunikacji i Aparatury Elektronicznej. Instrukcja do pracowni specjalistycznej
Politechnika Białostocka Wydział Elektryczny Katedra Telekomunikacji i Aparatury Elektronicznej Instrukcja do pracowni specjalistycznej Temat ćwiczenia: Badanie własności koderów PCM zastosowanych do sygnałów
Teoria informacji i kodowania Ćwiczenia Sem. zimowy 2016/2017
Kody źródłowe jednoznacznie dekodowalne Zadanie Ile najwięcej słów kodowych może liczyć kod binarny jednoznacznie dekodowalny, którego najdłuższe słowo ma siedem liter? (Odp. 28) Zadanie 2 Zbiór sześciu
Sygnał a informacja. Nośnikiem informacji mogą być: liczby, słowa, dźwięki, obrazy, zapachy, prąd itp. czyli różnorakie sygnały.
Sygnał a informacja Informacją nazywamy obiekt abstarkcyjny, który może być przechowywany, przesyłany, przetwarzany i wykorzystywany y y y w określonum celu. Zatem informacja to każdy czynnik zmnejszający