Jak zadać dobre pytanie, czyli czym jest informacja i jak ja
|
|
- Justyna Wieczorek
- 7 lat temu
- Przeglądów:
Transkrypt
1 Jak zadać dobre pytanie, czyli czym jest informacja i jak ja zmierzyć Adam Doliwa doliwa@matman.uwm.edu.pl WYKŁAD Z CYKLU NIEZWYKŁA MATEMATYKA WYDZIAŁ MATEMATYKI I INFORMATYKI UWM Olsztyn, 28 września 2016 r. Adam Doliwa (UWM) Informacja 28-IX / 18
2 BIT binary digit cyfra dwójkowa Problem Ile bitów potrzeba do zapisania wyniku pięciu rzutów moneta? ORROR Tyle samo, ile trzeba zadać pytań binarnych, tzn. majacych za możliwa odpowiedź TAK lub NIE Przed doświadczeniem przyjmujemy każdy z możliwych 2 5 = 32 wyników za jednakowo prawdopodobny. Liczba 5 jest tu miara naszej niepewności co do wyniku rzutów Adam Doliwa (UWM) Informacja 28-IX / 18
3 BIT binary digit cyfra dwójkowa Problem Ile bitów potrzeba do zapisania wyniku pięciu rzutów moneta? ORROR Tyle samo, ile trzeba zadać pytań binarnych, tzn. majacych za możliwa odpowiedź TAK lub NIE Przed doświadczeniem przyjmujemy każdy z możliwych 2 5 = 32 wyników za jednakowo prawdopodobny. Liczba 5 jest tu miara naszej niepewności co do wyniku rzutów Adam Doliwa (UWM) Informacja 28-IX / 18
4 Informacja jako redukcja niepewności Problem Ile bitów informacji niesie wiadomość, że w poprzednim doświadczeniu za każdym razem uzyskaliśmy ten sam wynik? ALBO Teraz do opisania wyniku doświadczenia wystarczy znać odpowiedź na TYLKO JEDNO PYTANIE Wiadomość ta dostarcza nam cztery bity informacji Adam Doliwa (UWM) Informacja 28-IX / 18
5 Informacja jako redukcja niepewności Problem Ile bitów informacji niesie wiadomość, że w poprzednim doświadczeniu za każdym razem uzyskaliśmy ten sam wynik? ALBO Teraz do opisania wyniku doświadczenia wystarczy znać odpowiedź na TYLKO JEDNO PYTANIE Wiadomość ta dostarcza nam cztery bity informacji Adam Doliwa (UWM) Informacja 28-IX / 18
6 Logarytmy informatyczne lg = log = 2 0 lg 1 = 0 2 = 2 1 lg 2 = 1 4 = 2 2 lg 4 = 2 8 = 2 3 lg 8 = 3 16 = 2 4 lg 16 = 4 32 = 2 5 lg 32 = Uwaga: lg 3 = 1, , lg 5 = 2, Zadanie 1 Ile bitów informacji ma wiadomość, że rzucajac osiem razy moneta uzyskaliśmy raz orła i siedem razy reszkę? Adam Doliwa (UWM) Informacja 28-IX / 18
7 Kod Morse a Stworzony w 1832 przez Samuela Morse a i Alfreda Vaila sposób reprezentacji alfabetu, cyfr i znaków specjalnych za pomoca dźwięków, błysków światła, impulsów elektrycznych lub znaków popularnie zwanych kreska i kropka. Alfabetem źródłowym jest alfabet łaciński z cyframi i znakami specjalnymi, a alfabetem kodowym M = {,, } (trzecim elementem zbioru M jest spacja). Spacja oddziela słowa kodowe, grupy znaków oddzielamy trzema spacjami. Adam Doliwa (UWM) Informacja 28-IX / 18
8 ASCII American Standard Code for Information Interchange Dec Bin Char Dec Bin Char Dec Bin Char Dec Bin Char NUL space SOH ! A a STX B b ETX # C c EOT $ D d ENQ % E e ACK & F f BEL G g BS ( H h TAB ) I i LF * J j VT K k FF , L l CR M m SO N n SI / O o DLE P p DC Q q DC R r DC S s DC T t NAK U u SYN V v ETB W w CAN X x EM Y y SUB : Z z ESC ; [ { FS \ GS = ] } RS ˆ US ? DEL Adam Doliwa (UWM) Informacja 28-IX / 18
9 Opowieść o dziennikarzu (część pierwsza) Z Centusiowa do Słoneczkowa został wysłany młody dziennikarz, którego zadaniem było przesyłanie do centrali raz na tydzień wiadomości zbiorczej o pogodzie jaka była każdego dnia słonecznie zachmurzenie małe zachmurzenie duże deszcz Przykładowa wiadomość: Adam Doliwa (UWM) Informacja 28-IX / 18
10 Opowieść o dziennikarzu (część druga) Młody dziennikarz zauważył, że w Słoneczkowie (średnio rzecz biorac) raz na dwa dni jest zachmurzenie małe, raz na cztery dni słonecznie, raz na osiem dni jest zachmurzenie duże oraz raz na osiem dni pada deszcz. Postanowił to wykorzystać do skonstruowania lepszego kodowania wiadomości p 1 = 1 4 p 2 = 1 2 p 3 = 1 8 p 4 = p 1 + p 2 + p 3 + p 4 = = 1 Odpowiadajaca wiadomość: może być odczytana (rozkodowana) jako: lub nawet jako: Adam Doliwa (UWM) Informacja 28-IX / 18
11 W poszukiwaniu optymalnego kodowania p 1 = 1 4 p 2 = 1 2 p 3 = 1 8 p 4 = Jest to kod jednoznaczny i natychmiastowy (słowo kodowe nie jest poczatkiem innego słowa kodowego) Odpowiadajaca pogodzie postać: Czy nowy kod jest lepszy od pierwszego? wiadomość ma Ile zaoszczędzi dziennikarz używajac przez 40 tygodni nowy kod zamiast pierwszego, jeśli przesłanie bitu kosztuje 1 PLN? Użytkowanie starego kodu kosztuje: = 560 [PLN] Adam Doliwa (UWM) Informacja 28-IX / 18
12 Rozwiazanie zadania Koszty zwiazane z używaniem nowego kodu w przeciagu 40 tygodni: średnio 20 7 = 140 dni z małym zachmurzeniem: = 140 średnio 10 7 = 70 dni słonecznych: 2 70 = 140 średnio 5 7 = 35 dni z dużym zachmurzeniem: 3 35 = 105 średnio 5 7 = 35 dni deszczowych: 3 35 = 105 Razem przesłano (średnio rzecz biorac) = 490 bitów za sumę 490 PLN. Dziennikarz oszczędził 560 [PLN] [PLN] = 70 [PLN] Uwaga: Średnia długość słowa starego kodu wynosi E(K S ) = 2 bity, a nowego kodu wynosi E(K N ) = 490/280 = 7/4 bitu Pytanie Czy jest to najlepsze (optymalne) kodowanie? Adam Doliwa (UWM) Informacja 28-IX / 18
13 Entropia źródła Jeśli źródło informacji wysyła wiadomości z częstościami (prawdopodobieństwem) p 1, p 2,..., p n to jego entropia jest zdefiniowana wzorem H(p 1, p 2,..., p n ) = p 1 lg 1 p 1 + p 2 lg 1 p p n lg 1 p n Przykład: Entropia pogody w Słoneczkowie ( 1 H 4, 1 2, 1 8, 1 ) = lg lg lg lg 8 = 7 4 p 1 = 1 4 p 2 = 1 2 p 3 = 1 8 p 4 = E(K ) = = 7 4 Adam Doliwa (UWM) Informacja 28-IX / 18
14 Twierdzenie Shannona Dla dowolnego źródła i dowolnego odpowiadajacego mu binarnego kodu natychmiastowego średnia długość E(K ) słowa kodowego jest nie mniejsza niż entropia tego źródła E(K ) H Claude Elwood Shannon ( ) twórca matematycznej teorii informacji Wniosek: Ponieważ w kodowaniu wymyślonym przez młodego dziennikarza średnia długość słowa kodowego jest równa entropii źródła informacji, więc jest to kodowanie optymalne Adam Doliwa (UWM) Informacja 28-IX / 18
15 Entropia jako średnia niepewność W przypadku wyboru jednego elementu ze zbioru n-elementowego z równomiernym prawdopodobieństwem p i = 1 n, i = 1, 2,..., n entropia jest równa H( 1 n,..., 1 n ) = 1 n lg n n lg n = lg n. Jest to maksymalna jej wartość spośród wszystkich możliwych rozkładów prawdopodobieństw 0 p i 1, p 1 + p p n = 1 Na gruncie nauki o cieple entropię jako tajemnicza wielkość opisujac a stan układu wprowadził w 1854 roku Rudolf Clausius ( ). Jej sens z punktu widzenia atomowej teorii materii wyjaśnił w 1877 roku Ludwig Boltzmann ( ), jako wielkości mierzacej stopień nieuporzadkowania układu Adam Doliwa (UWM) Informacja 28-IX / 18
16 Zadanie 2 Średnie dane pogody w Deszczykowie przedstawione sa w tabeli poniżej. Wyznacz odpowiedni optymalny binarny i natychmiastowy kod do przesyłania informacji o pogodzie. p 1 = 1 16 p 2 = 1 16 p 3 = 1 8 p 4 = 1 2 p 5 = 1 4 Pierwsza osoba, która nadeśle prawidłowe odpowiedzi na oba zadania na adres doliwa@matman.uwm.edu.pl otrzyma w nagrodę monetę wybita z okazji Europejskiego Kongresu Matematyki (Kraków 2012) przedstawiajac a najwybitniejszego matematyka polskiego XX wieku Stefana Banacha ( ) Adam Doliwa (UWM) Informacja 28-IX / 18
17 Siedziba Agencji Bezpieczen stwa Narodowego (National Security Agency) w Fort Meade w stanie Maryland najwieksze skupienie matematyków na s wiecie. Adam Doliwa (UWM) Informacja 28-IX / 18
18 Które pytanie najlepiej zadać? Alicja wybiera jedna liczbę naturalna od 1 do 12. Odpowiedź na które z pytań zmniejszy (średnio) w największym stopniu nasza niepewność na temat jej wyboru? 1 Czy jest to liczba podzielna przez trzy? 2 Czy jest to liczba parzysta? 3 Czy jest to liczba 10? Zanim zadamy pytanie, nasza niepewność co do wybranej liczby wynosi lg 12 3, 585 bitów Analiza odpowiedzi na pytanie 1 p(tak) = 4/12 = 1/3, pozostaje niepewność lg 4 = 2 bitów p(nie) = 8/12 = 2/3, pozostaje niepewność lg 8 = 3 bitów Średnia niepewność po otrzymaniu odpowiedzi na pytanie 1 wynosi 1 3 lg lg 8 = 8 2, Informacja = redukcja niepewności 0, 918 bitu Adam Doliwa (UWM) Informacja 28-IX / 18
19 Które pytanie najlepiej zadać? Alicja wybiera jedna liczbę naturalna od 1 do 12. Odpowiedź na które z pytań zmniejszy (średnio) w największym stopniu nasza niepewność na temat jej wyboru? 1 Czy jest to liczba podzielna przez trzy? 2 Czy jest to liczba parzysta? 3 Czy jest to liczba 10? Zanim zadamy pytanie, nasza niepewność co do wybranej liczby wynosi lg 12 3, 585 bitów Analiza odpowiedzi na pytanie 1 p(tak) = 4/12 = 1/3, pozostaje niepewność lg 4 = 2 bitów p(nie) = 8/12 = 2/3, pozostaje niepewność lg 8 = 3 bitów Średnia niepewność po otrzymaniu odpowiedzi na pytanie 1 wynosi 1 3 lg lg 8 = 8 2, Informacja = redukcja niepewności 0, 918 bitu Adam Doliwa (UWM) Informacja 28-IX / 18
20 Analiza odpowiedzi na pytanie 2 p(tak) = 6/12 = 1/2, pozostaje niepewność lg 6 2, 585 bitów p(nie) = 6/12 = 1/2, pozostaje niepewność lg 6 2, 585 bitów Średnia niepewność po otrzymaniu odpowiedzi na pytanie 2 wynosi 1 2 lg lg 6 = lg 6 2, Informacja = redukcja niepewności = lg 12 lg 6 = lg 2 = 1 bit Analiza odpowiedzi na pytanie 3 p(tak) = 1/12, pozostaje niepewność lg 1 = 0 bitów p(nie) = 11/12, pozostaje niepewność lg 11 3, 459 bitów Średnia niepewność po otrzymaniu odpowiedzi na pytanie 3 wynosi 1 11 lg 1 + lg 11 3, Informacja = redukcja niepewności =lg lg 11 0, 414 bitu Adam Doliwa (UWM) Informacja 28-IX / 18
21 Analiza odpowiedzi na pytanie 2 p(tak) = 6/12 = 1/2, pozostaje niepewność lg 6 2, 585 bitów p(nie) = 6/12 = 1/2, pozostaje niepewność lg 6 2, 585 bitów Średnia niepewność po otrzymaniu odpowiedzi na pytanie 2 wynosi 1 2 lg lg 6 = lg 6 2, Informacja = redukcja niepewności = lg 12 lg 6 = lg 2 = 1 bit Analiza odpowiedzi na pytanie 3 p(tak) = 1/12, pozostaje niepewność lg 1 = 0 bitów p(nie) = 11/12, pozostaje niepewność lg 11 3, 459 bitów Średnia niepewność po otrzymaniu odpowiedzi na pytanie 3 wynosi 1 11 lg 1 + lg 11 3, Informacja = redukcja niepewności =lg lg 11 0, 414 bitu Adam Doliwa (UWM) Informacja 28-IX / 18
22 Odpowiedź Najwięcej informacji uzyskamy jeśli zadamy pytanie numer 2 Podsumowanie W najprostszym przypadku logarytm z liczby możliwych odpowiedzi mierzy nasza niepewność co do wyniku obserwacji Jeśli prawdopodobieństwa wyników nie sa równe to miara niepewności jest entropia Informacja przekazana jest równa redukcji niepewności/entropii podczas transmisji Entropia pozwala wyznaczyć granice naszych możliwości w bezstratnej kompresji danych (opowieść o młodym dziennikarzu) W termodynamice entropia jest miara nieuporzadkowania układu i rośnie podczas procesów spontanicznych Organizmy żywe zmniejszaja swoja entropię wykorzystujac energię z zewnatrz i zwiększajac entropię otoczenia Czy jest możliwa zamiana informacji w energię? Adam Doliwa (UWM) Informacja 28-IX / 18
O oszczędnym dziennikarzu, czyli czym jest
O oszczędnym dziennikarzu, czyli czym jest informacja i jak ja mierzymy? Adam Doliwa doliwa@matman.uwm.edu.pl WYKŁAD DLA MŁODZIEŻY WYDZIAŁ MATEMATYKI I INFORMATYKI UWM Olsztyn, 9 lutego 2016 r. Adam Doliwa
Architektura systemów komputerowych Laboratorium 5 Kodowanie liczb i tekstów
Architektura systemów komputerowych Laboratorium 5 Kodowanie liczb i tekstów Marcin Stępniak Informacje. Kod NKB Naturalny kod binarny (NKB) jest oparty na zapisie liczby naturalnej w dwójkowym systemie
Teoria informacji i kodowania Ćwiczenia Sem. zimowy 2016/2017
Kody źródłowe jednoznacznie dekodowalne Zadanie Ile najwięcej słów kodowych może liczyć kod binarny jednoznacznie dekodowalny, którego najdłuższe słowo ma siedem liter? (Odp. 28) Zadanie 2 Zbiór sześciu
DZIESIĘTNY SYSTEM LICZBOWY
DZIESIĘTNY SYSTEM LICZBOWY Do zapisu dowolnej liczby system wykorzystuje dziesięć symboli (cyfr): 0, 1, 2, 3, 4, 5, 6, 7, 8, 9 Dowolną liczbę w systemie dziesiętnym możemy przedstawić jako następująca
Instrukcja dotycząca kodów kreskowych
Instrukcja dotycząca kodów kreskowych Wersja 0 POL 1 Wprowadzenie 1 Omówienie 1 1 Niniejsza skrócona instrukcja zawiera informacje na temat drukowania kodów kreskowych z wykorzystaniem poleceń sterujących
teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015
teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015 1 zakres materiału zakres materiału 1. Czym jest teoria informacji? 2. Wprowadzenie matematyczne. 3. Entropia i informacja.
12. Wprowadzenie Sygnały techniki cyfrowej Systemy liczbowe. Matematyka: Elektronika:
PRZYPOMNIJ SOBIE! Matematyka: Dodawanie i odejmowanie "pod kreską". Elektronika: Sygnały cyfrowe. Zasadę pracy tranzystorów bipolarnych i unipolarnych. 12. Wprowadzenie 12.1. Sygnały techniki cyfrowej
ARCHITEKTURA KOMPUTERÓW. Reprezentacja danych w komputerach
Reprezentacja danych w komputerach dr inż. Wiesław Pamuła wpamula@polsl.katowice.pl Literatura 2. J.Biernat: Architektura komputerów, Oficyna Wydawnicza Politechniki Wrocławskiej, Wrocław2002. 3. Null
Technologie informacyjne (3) Zdzisław Szyjewski
Technologie informacyjne (3) Zdzisław Szyjewski Technologie informacyjne Technologie pracy z komputerem Funkcje systemu operacyjnego Przykłady systemów operacyjnych Zarządzanie pamięcią Zarządzanie danymi
Technologie informacyjne (3) Zdzisław Szyjewski
Technologie informacyjne (3) Zdzisław Szyjewski Technologie informacyjne Technologie pracy z komputerem Funkcje systemu operacyjnego Przykłady systemów operacyjnych Zarządzanie pamięcią Zarządzanie danymi
teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015
teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015 1 wczoraj Wprowadzenie matematyczne. Entropia i informacja. Kodowanie. Kod ASCII. Stopa kodu. Kody bezprefiksowe.
4 Standardy reprezentacji znaków. 5 Przechowywanie danych w pamięci. 6 Literatura
ARCHITEKTURA SYSTEMÓW KOMPUTEROWYCH reprezentacja danych ASK.RD.01 c Dr inż. Ignacy Pardyka UNIWERSYTET JANA KOCHANOWSKIEGO w Kielcach Rok akad. 2011/2012 1 2 Standardy reprezentacji wartości całkowitoliczbowych
Techniki multimedialne
Techniki multimedialne Digitalizacja podstawą rozwoju systemów multimedialnych. Digitalizacja czyli obróbka cyfrowa oznacza przetwarzanie wszystkich typów informacji - słów, dźwięków, ilustracji, wideo
Temat: Algorytm kompresji plików metodą Huffmana
Temat: Algorytm kompresji plików metodą Huffmana. Wymagania dotyczące kompresji danych Przez M oznaczmy zbiór wszystkich możliwych symboli występujących w pliku (alfabet pliku). Przykład M = 2, gdy plik
Reprezentacja symboli w komputerze.
Reprezentacja symboli w komputerze. Znaki alfabetu i łańcuchy znakowe. Programowanie Proceduralne 1 ASCII The American Standard Code for Information Interchange, 1968 r. 7 bitów, liczby z zakresu 0-127
Podstawy języka C++ Marek Pudełko
Podstawy języka C++ Marek Pudełko Elementy języka C++ identyfikatory, słowa kluczowe, stałe i teksty, operatory, separatory, odstępy, komentarze. 2 Komentarz Komentarz to opis działania danego fragmentu
Elementy teorii informacji i kodowania
i kodowania Entropia, nierówność Krafta, kodowanie optymalne Marcin Jenczmyk m.jenczmyk@knm.katowice.pl 17 kwietnia 2015 M. Jenczmyk Spotkanie KNM i kodowania 1 / 20 Niech S = {x 1,..., x q } oznacza alfabet,
L6.1 Systemy liczenia stosowane w informatyce
L6.1 Systemy liczenia stosowane w informatyce Projekt współfinansowany przez Unię Europejską w ramach Europejskiego Funduszu Społecznego Publikacja jest dystrybuowana bezpłatnie Program Operacyjny Kapitał
Wygra Polska czy Brazylia, czyli o tym jak zwięźle zapisywać informacje
Wygra Polska czy Brazylia, czyli o tym jak zwięźle zapisywać informacje Witold Tomaszewski Instytut Matematyki Politechniki Śląskiej e-mail: Witold.Tomaszewski@polsl.pl Je n ai fait celle-ci plus longue
Technologie Informacyjne
System binarny Szkoła Główna Służby Pożarniczej Zakład Informatyki i Łączności October 7, 26 Pojęcie bitu 2 Systemy liczbowe 3 Potęgi dwójki 4 System szesnastkowy 5 Kodowanie informacji 6 Liczby ujemne
Systemy liczenia. 333= 3*100+3*10+3*1
Systemy liczenia. System dziesiętny jest systemem pozycyjnym, co oznacza, Ŝe wartość liczby zaleŝy od pozycji na której się ona znajduje np. w liczbie 333 kaŝda cyfra oznacza inną wartość bowiem: 333=
Dla człowieka naturalnym sposobem liczenia jest korzystanie z systemu dziesiętnego, dla komputera natomiast korzystanie z zapisu dwójkowego
Arytmetyka cyfrowa Dla człowieka naturalnym sposobem liczenia jest korzystanie z systemu dziesiętnego, dla komputera natomiast korzystanie z zapisu dwójkowego (binarnego). Zapis binarny - to system liczenia
1. System pozycyjny zapisu liczb
W.K.: Kody i liczby 1. System pozycyjny zapisu liczb Oznaczenia: R - podstawa pozycyjnego systemu liczenia (liczba naturalna) L - wartość liczby a i - cyfra ; a i {0,1,.., R-1} Zapis liczby (łańcuch cyfr):
Języki i metodyka programowania. Reprezentacja danych w systemach komputerowych
Reprezentacja danych w systemach komputerowych Kod (łac. codex - spis), ciąg składników sygnału (kombinacji sygnałów elementarnych, np. kropek i kresek, impulsów prądu, symboli) oraz reguła ich przyporządkowania
Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9,
1 Kody Tunstalla Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9, 14.04.2005 Inne podejście: słowa kodowe mają ustaloną długość, lecz mogą kodować ciągi liter z alfabetu wejściowego o różnej
Kompresja bezstratna. Entropia. Kod Huffmana
Kompresja bezstratna. Entropia. Kod Huffmana Kodowanie i bezpieczeństwo informacji - Wykład 10 29 kwietnia 2013 Teoria informacji Jeśli P(A) jest prawdopodobieństwem wystapienia informacji A to niech i(a)
Wykład I: Kodowanie liczb w systemach binarnych. Studia Podyplomowe INFORMATYKA Podstawy Informatyki
Studia Podyplomowe INFORMATYKA Podstawy Informatyki Wykład I: Kodowanie liczb w systemach binarnych 1 Część 1 Dlaczego system binarny? 2 I. Dlaczego system binarny? Pojęcie bitu Bit jednostka informacji
Podstawowe pojęcia. Teoria informacji
Kodowanie i kompresja informacji - Wykład 1 22 luty 2010 Literatura K. Sayood, Kompresja danych - wprowadzenie, READ ME 2002 (ISBN 83-7243-094-2) Literatura K. Sayood, Kompresja danych - wprowadzenie,
Teoria Informacji - wykład. Kodowanie wiadomości
Teoria Informacji - wykład Kodowanie wiadomości Definicja kodu Niech S={s 1, s 2,..., s q } oznacza dany zbiór elementów. Kodem nazywamy wówczas odwzorowanie zbioru wszystkich możliwych ciągów utworzonych
Teoria Informacji i Metody Kompresji Danych
Teoria Informacji i Metody Kompresji Danych 1 Przykładowe zadania (dodatkowe materiały wykładowe) 2 Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL
Instrukcja obsługi. Komunikacja ModBus w przemiennikach częstotliwości HFinverter F1500-G. (0,4kW 75kW)
Instrukcja obsługi Komunikacja ModBus w przemiennikach częstotliwości HFinverter F1500-G (0,4kW 75kW) Wersja instrukcji 002/2008 Praca w sieci wg protokołu ModBus. W przemiennikach częstotliwości HFinverter
Kodowanie informacji. Przygotował: Ryszard Kijanka
Kodowanie informacji Przygotował: Ryszard Kijanka Komputer jest urządzeniem służącym do przetwarzania informacji. Informacją są liczby, ale także inne obiekty, takie jak litery, wartości logiczne, obrazy
Pracownia Komputerowa wyk ad VII
Pracownia Komputerowa wyk ad VII dr Magdalena Posiada a-zezula Magdalena.Posiadala@fuw.edu.pl http://www.fuw.edu.pl/~mposiada Magdalena.Posiadala@fuw.edu.pl 1 Notacja szesnastkowa - przypomnienie Szesnastkowy
Wprowadzenie do informatyki i użytkowania komputerów. Kodowanie informacji System komputerowy
1 Wprowadzenie do informatyki i użytkowania komputerów Kodowanie informacji System komputerowy Kodowanie informacji 2 Co to jest? bit, bajt, kod ASCII. Jak działa system komputerowy? Co to jest? pamięć
Granica kompresji Kodowanie Shannona Kodowanie Huffmana Kodowanie ciągów Kodowanie arytmetyczne. Kody. Marek Śmieja. Teoria informacji 1 / 35
Kody Marek Śmieja Teoria informacji 1 / 35 Entropia Entropia określa minimalną statystyczną długość kodowania (przyjmijmy dla prostoty że alfabet kodowy A = {0, 1}). Definicja Niech X = {x 1,..., x n }
Wstęp do informatyki. Pojęcie liczebności. Zapis liczb. Liczenie bez liczebników. Podstawy arytmetyki komputerowej. Cezary Bolek
Pojęcie liczebności Wstęp do informatyki Podstawy arytmetyki komputerowej Cezary Bolek cbolek@ki.uni.lodz.pl Uniwersytet Łódzki Wydział Zarządzania Katedra Informatyki Naturalna zdolność człowieka do postrzegania
mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. GOLOMBA I RICE'A
mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. KOMPRESJA ALGORYTMEM ARYTMETYCZNYM, GOLOMBA I RICE'A Idea algorytmu arytmetycznego Przykład kodowania arytmetycznego Renormalizacja
Pracownia Komputerowa wykład IV
Pracownia Komputerowa wykład IV dr Magdalena Posiadała-Zezula http://www.fuw.edu.pl/~mposiada/pk16 1 Reprezentacje liczb i znaków! Liczby:! Reprezentacja naturalna nieujemne liczby całkowite naturalny
Pracownia Komputerowa wykład V
Pracownia Komputerowa wykład V dr Magdalena Posiadała-Zezula http://www.fuw.edu.pl/~mposiada/pk16 1 Reprezentacje liczb i znaków! Liczby:! Reprezentacja naturalna nieujemne liczby całkowite naturalny system
Teoria informacji i kodowania Ćwiczenia
Teoria informacji i kodowania Ćwiczenia Piotr Chołda, Andrzej Kamisiński Katedra Telekomunikacji Akademii Górniczo-Hutniczej Kod źródłowy Kodem źródłowym nazywamy funkcję różnowartościową, która elementom
Wstęp do informatyki. Pojęcie liczebności. Liczenie bez liczebników. Podstawy arytmetyki komputerowej. Cezary Bolek
Wstęp do informatyki Podstawy arytmetyki komputerowej Cezary Bolek cbolek@ki.uni.lodz.pl Uniwersytet Łódzki Wydział Zarządzania Katedra Informatyki Pojęcie liczebności Naturalna zdolność człowieka do postrzegania
Kodowanie informacji
Kodowanie informacji Tomasz Wykład 4: kodowanie arytmetyczne Motywacja Podstawy i własności Liczby rzeczywiste Motywacje 1 średnia długość kodu Huffmana może odbiegać o p max + 0.086 od entropii, gdzie
wiadomość komunikat - informacja Caius Julius Cesar Człowiek zasztyletowany przez senatorów na forum Romanum w Idy Marcowe roku DCCIX ab urbe condita
wiadomość komunikat - informacja Caius Julius Cesar Człowiek zasztyletowany przez senatorów na forum Romanum w Idy Marcowe roku DCCIX ab urbe condita Wojna Bambadocji przeciwko Alandii i Cezji Alandia:
Krótka wycieczka do wnętrza komputera
Krótka wycieczka do wnętrza komputera Podstawy Technik Informatycznych Roman Simiński roman.siminski@us.edu.pl www.siminskionline.pl Kraina do której trafiła Alicja była zupełnie inna...... a co by zobaczyła
PODSTAWY INFORMATYKI. Informatyka? - definicja
PODSTAWY INFORMATYKI Informatyka? - definicja Definicja opracowana przez ACM (Association for Computing Machinery) w 1989 roku: Informatyka to systematyczne badanie procesów algorytmicznych, które charakteryzują
Wstęp do Informatyki
Wstęp do Informatyki Bożena Woźna-Szcześniak bwozna@gmail.com Jan Długosz University, Poland Wykład 4 Bożena Woźna-Szcześniak (AJD) Wstęp do Informatyki Wykład 4 1 / 1 DZIELENIE LICZB BINARNYCH Dzielenie
Arytmetyka komputera. Na podstawie podręcznika Urządzenia techniki komputerowej Tomasza Marciniuka. Opracował: Kamil Kowalski klasa III TI
Arytmetyka komputera Na podstawie podręcznika Urządzenia techniki komputerowej Tomasza Marciniuka Opracował: Kamil Kowalski klasa III TI Spis treści 1. Jednostki informacyjne 2. Systemy liczbowe 2.1. System
Kody liczbowe - Naturalny Kod Binarny (NKB) Kody liczbowe - Kod BCD. Kody liczbowe - Przechowywanie liczb w kodzie BCD
Rok akademicki 007/008, Wykład nr 3 /4 Informatyka Politechnika Białostocka - Wydział Elektryczny Elektrotechnika, semestr II, studia niestacjonarne I stopnia (zaoczne) Rok akademicki 007/008 Wykład nr
Dane, informacja, programy. Kodowanie danych, kompresja stratna i bezstratna
Dane, informacja, programy Kodowanie danych, kompresja stratna i bezstratna DANE Uporządkowane, zorganizowane fakty. Główne grupy danych: tekstowe (znaki alfanumeryczne, znaki specjalne) graficzne (ilustracje,
Komunikacja człowiek-komputer
Komunikacja człowiek-komputer Wykład 3 Dr inż. Michał Kruk Komunikacja człowiek - komputer dr inż. Michał Kruk Reprezentacja znaków Aby zakodować tekst, trzeba każdej możliwej kombinacji bitów przyporządkować
0 + 0 = 0, = 1, = 1, = 0.
5 Kody liniowe Jak już wiemy, w celu przesłania zakodowanego tekstu dzielimy go na bloki i do każdego z bloków dodajemy tak zwane bity sprawdzające. Bity te są w ścisłej zależności z bitami informacyjnymi,
Arytmetyka komputera
Arytmetyka komputera Systemy zapisu liczb System dziesiętny Podstawą układu dziesiętnego jest liczba 10, a wszystkie liczby można zapisywać dziesięcioma cyframi: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9. Jednostka
architektura komputerów w. 2
architektura komputerów w. 2 Wiadomości i kody Wiadomości (Informacje) dyskretne ciągłe Kod - zbiór ciągów kodowych oraz reguła przyporządkowania ich wiadomościom. Ciąg kodowy - sygnał mający postać ciągu
Pracownia komputerowa. Dariusz Wardecki, wyk. V
Pracownia komputerowa Dariusz Wardecki, wyk. V Powtórzenie Co wykona następujący skrypt? #! /bin/bash! for i in `ls /dmj/2002`! do! mkdir ~/$i! cp -r /dmj/2002/$i/obrazy ~/$i! done Zapis binarny, bity
Pracownia Komputerowa wyk ad IV
Pracownia Komputerowa wykad IV dr Magdalena Posiadaa-Zezula Magdalena.Posiadala@fuw.edu.pl http://www.fuw.edu.pl/~mposiada Magdalena.Posiadala@fuw.edu.pl 1 Reprezentacje liczb i znaków Liczby: Reprezentacja
ARCHITEKRURA KOMPUTERÓW Kodowanie liczb ze znakiem 27.10.2010
ARCHITEKRURA KOMPUTERÓW Kodowanie liczb ze znakiem 27.10.2010 Do zapisu liczby ze znakiem mamy tylko 8 bitów, pierwszy od lewej bit to bit znakowy, a pozostałem 7 to bity na liczbę. bit znakowy 1 0 1 1
Pracownia komputerowa. Dariusz Wardecki, wyk. VIII
Pracownia komputerowa Dariusz Wardecki, wyk. VIII Powtórzenie Podaj wartość liczby przy następującej reprezentacji zmiennoprzecinkowej (Kc = 7) Z C C C C M M M 1 0 1 1 1 1 1 0-1.75 (dec) Rafa J. Wysocki
Informatyka 1. Wykład nr 3 ( ) Politechnika Białostocka. - Wydział Elektryczny. dr inŝ. Jarosław Forenc
Informatyka 1 Politechnika Białostocka - Wydział Elektryczny Elektrotechnika, semestr II, studia niestacjonarne I stopnia (zaoczne) Rok akademicki 2007/2008 Wykład nr 3 (30.03.2008) Rok akademicki 2007/2008,
Kompresja Kodowanie arytmetyczne. Dariusz Sobczuk
Kompresja Kodowanie arytmetyczne Dariusz Sobczuk Kodowanie arytmetyczne (lata 1960-te) Pierwsze prace w tym kierunku sięgają początków lat 60-tych XX wieku Pierwszy algorytm Eliasa nie został opublikowany
0-0000, 1-0001, 2-0010, 3-0011 itd... 9-1001.
KODOWANIE Jednym z problemów, z którymi spotykamy się w informatyce, jest problem właściwego wykorzystania pamięci. Konstruując algorytm staramy się zwykle nie tylko o zminimalizowanie kosztów czasowych
Kod U2 Opracował: Andrzej Nowak
PODSTAWY TEORII UKŁADÓW CYFROWYCH Kod U2 Opracował: Andrzej Nowak Bibliografia: Urządzenia techniki komputerowej, K. Wojtuszkiewicz http://pl.wikipedia.org/ System zapisu liczb ze znakiem opisany w poprzednim
kodowanie informacji Autor prezentacji: 1 prof. dr hab. Maria Hilczer
kodowanie informacji Autor prezentacji: 1 prof. dr hab. Maria Hilczer Liczba całkowita to ciąg cyfr d n d n-1... d 2 d 1 d 0 system dziesiętny podstawa = 10 d i = 0, 1, 2, 3, 4, 5, 6, 7, 8, 9 liczba (10)
Model warstwowy i architektura sieci komputerowej
Model warstwowy i architektura sieci komputerowej 1 Wprowadzenie Wymagania wstępne: znajomość podstaw modelu warstwowego OSI. 1.1 Podstawowe pojęcia Ze względu na swą złożoność, oprogramowanie i sprzęt
ARYTMETYKA BINARNA. Dziesiątkowy system pozycyjny nie jest jedynym sposobem kodowania liczb z jakim mamy na co dzień do czynienia.
ARYTMETYKA BINARNA ROZWINIĘCIE DWÓJKOWE Jednym z najlepiej znanych sposobów kodowania informacji zawartej w liczbach jest kodowanie w dziesiątkowym systemie pozycyjnym, w którym dla przedstawienia liczb
Temat 5. 20 pytań Teoria informacji
Temat 5 20 pytań Teoria informacji Streszczenie Ile informacji znajduje się w tysiącstronicowej książce? Czy więcej informacji znajduje się w książce telefonicznej, na 1000 stron tradycyjnych wydruków
Bezprzewodowy czytnik kodów kreskowych 2D WD-686X Instrukcja użytkowania
250Lux Depth of Field Bezprzewodowy czytnik kodów kreskowych 2D WD-686X Instrukcja użytkowania Specyfikacja Rodzaj Zasięg Pamięć 433M 400m 8192 (characters/barcode 128) Czas pracy :3 do 7 dni Napięcie
Znaki w tym systemie odpowiadają następującym liczbom: I=1, V=5, X=10, L=50, C=100, D=500, M=1000
SYSTEMY LICZBOWE I. PODZIAŁ SYSTEMÓW LICZBOWYCH: systemy liczbowe: pozycyjne (wartośd cyfry zależy od tego jaką pozycję zajmuje ona w liczbie): niepozycyjne (addytywne) (wartośd liczby jest sumą wartości
Kompresja danych kodowanie Huffmana. Dariusz Sobczuk
Kompresja danych kodowanie Huffmana Dariusz Sobczuk Plan wykładu Kodowanie metodą Shannona-Fano Kodowanie metodą Huffmana Elementarny kod Golomba Kod Golomba Kod Rice a kompresja danych 2 Efektywny kod
Dr inż. Grażyna KRUPIŃSKA. D-10 pokój 227 WYKŁAD 2 WSTĘP DO INFORMATYKI
Dr inż. Grażyna KRUPIŃSKA Grazyna.Krupinska@fis.agh.edu.pl D-10 pokój 227 WYKŁAD 2 WSTĘP DO INFORMATYKI Ćwiczenia i laboratorium 2 Kolokwia zaliczeniowe - 1 termin - poniedziałek, 29 stycznia 2018 11:30
Według raportu ISO z 1988 roku algorytm JPEG składa się z następujących kroków: 0.5, = V i, j. /Q i, j
Kompresja transformacyjna. Opis standardu JPEG. Algorytm JPEG powstał w wyniku prac prowadzonych przez grupę ekspertów (ang. Joint Photographic Expert Group). Prace te zakończyły się w 1991 roku, kiedy
Entropia Kodowanie. Podstawy kompresji. Algorytmy kompresji danych. Sebastian Deorowicz
Algorytmy kompresji danych 2007 02 27 Plan wykładu 1 Modelowanie i kodowanie 2 Modelowanie i kodowanie Plan wykładu 1 Modelowanie i kodowanie 2 Modelowanie i kodowanie definicja stowarzyszona ze zbiorem
Pracownia Komputerowa wyk ad V
Pracownia Komputerowa wyk ad V dr Magdalena Posiada a-zezula Magdalena.Posiadala@fuw.edu.pl http://www.fuw.edu.pl/~mposiada Magdalena.Posiadala@fuw.edu.pl 1 Reprezentacje liczb i znaków Liczby: Reprezentacja
prawda symbol WIEDZA DANE komunikat fałsz liczba INFORMACJA (nie tyko w informatyce) kod znak wiadomość ENTROPIA forma przekaz
WIEDZA prawda komunikat symbol DANE fałsz kod INFORMACJA (nie tyko w informatyce) liczba znak forma ENTROPIA przekaz wiadomość Czy żyjemy w erze informacji? TAK Bo używamy nowego rodzaju maszyn maszyn
Kodowanie i entropia
Kodowanie i entropia Marek Śmieja Teoria informacji 1 / 34 Kod S - alfabet źródłowy mocy m (np. litery, cyfry, znaki interpunkcyjne), A = {a 1,..., a n } - alfabet kodowy (symbole), Chcemy przesłać tekst
Podstawą w systemie dwójkowym jest liczba 2 a w systemie dziesiętnym liczba 10.
ZAMIANA LICZB MIĘDZY SYSTEMAMI DWÓJKOWYM I DZIESIĘTNYM Aby zamienić liczbę z systemu dwójkowego (binarnego) na dziesiętny (decymalny) należy najpierw przypomnieć sobie jak są tworzone liczby w ww systemach
Przemysłowe Sieci Informatyczne (PSI) Wykład #3 kodowanie i wstęp do teorii informacji WYDZIAŁ ELEKTROTECHNIKI I AUTOMATYKI KATEDRA INŻYNIERII
Przemysłowe Sieci Informatyczne (PSI) Wykład #3 kodowanie i wstęp do teorii informacji WYDZIAŁ ELEKTROTECHNIKI I AUTOMATYKI KATEDRA INŻYNIERII SYSTEMÓW STEROWANIA Jarosław Tarnawski, dr inż. Gdańsk, marzec
Wstęp do informatyki- wykład 1
MATEMATYKA 1 Wstęp do informatyki- wykład 1 Systemy liczbowe Treści prezentowane w wykładzie zostały oparte o: S. Prata, Język C++. Szkoła programowania. Wydanie VI, Helion, 2012 www.cplusplus.com Jerzy
INFORMATYKA. Zajęcia organizacyjne. Arytmetyka komputerowa.
INFORMATYKA Zajęcia organizacyjne Arytmetyka komputerowa http://www.infoceram.agh.edu.pl http://home.agh.edu.pl/~grzesik/ KONSULTACJE Zbigniew Grzesik środa, 9 ; A-3, p. 2 tel.: 67-249 e-mail: grzesik@agh.edu.pl
Kody Tunstalla. Kodowanie arytmetyczne
Kody Tunstalla. Kodowanie arytmetyczne Kodowanie i kompresja informacji - Wykład 3 8 marca 2010 Kody Tunstalla Wszystkie słowa kodowe maja ta sama długość ale jeden kod może kodować różna liczbę liter
1.1. Pozycyjne systemy liczbowe
1.1. Pozycyjne systemy liczbowe Systemami liczenia nazywa się sposób tworzenia liczb ze znaków cyfrowych oraz zbiór reguł umożliwiających wykonywanie operacji arytmetycznych na liczbach. Dla dowolnego
Dane, informacja, programy. Kodowanie danych, kompresja stratna i bezstratna
Dane, informacja, programy Kodowanie danych, kompresja stratna i bezstratna DANE Uporządkowane, zorganizowane fakty. Główne grupy danych: tekstowe (znaki alfanumeryczne, znaki specjalne) graficzne (ilustracje,
Kwantyzacja wektorowa. Kodowanie różnicowe.
Kwantyzacja wektorowa. Kodowanie różnicowe. Kodowanie i kompresja informacji - Wykład 7 12 kwietnia 2010 Kwantyzacja wektorowa wprowadzenie Zamiast kwantyzować pojedyncze elementy kwantyzujemy całe bloki
Entropia w układach dynamicznych Środowiskowe Studia Doktoranckie z Nauk Matematycznych Uniwersytet Jagielloński, Kraków, marzec-kwiecień 2013
Entropia w układach dynamicznych Środowiskowe Studia Doktoranckie z Nauk Matematycznych Uniwersytet Jagielloński, Kraków, marzec-kwiecień 2013 Tomasz Downarowicz Instytut Matematyki i Informatyki Politechniki
Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład Kody liniowe - kodowanie w oparciu o macierz parzystości
Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład 13 1 Kody liniowe - kodowanie w oparciu o macierz parzystości Przykład Różne macierze parzystości dla kodu powtórzeniowego. Co wiemy z algebry
Formaty obrazów rastrowych biblioteki PBM
Formaty obrazów rastrowych biblioteki PBM Reprezentacja obrazu Obrazy pobierane z kamery, bądź dowolnego innego źródła, mogą być składowane na pliku dyskowym w jednym z wielu istniejących formatów zapisu
TIMKoD - Lab 1 - Przybliżenie języka naturalnego
TIMKoD - Lab 1 - Przybliżenie języka naturalnego 28 lutego 2018 Opis pliku z zadaniami Wszystkie zadania na zajęciach będą przekazywane w postaci plików.pdf, sformatowanych podobnie do tego dokumentu.
Historia kodowania i format plików XML. Jolanta Bachan
Historia kodowania i format plików XML Jolanta Bachan Co to jest format? Format to, w ogólnym znaczeniu, reguły określające strukturę fizyczną, sposób rozmieszczenia, zapisu informacji danego typu. Inaczej:
Technologie cyfrowe semestr letni 2018/2019
Technologie cyfrowe semestr letni 2018/2019 Tomasz Kazimierczuk Organizacja zajęć Wykład 2h/tydzień Ćwiczenia 3h/tydzień Obecność obowiązkowa 2 sprawdziany praktyczne (kolokwia) w trakcie zajęć Ocena:
Architektura systemów komputerowych
Architektura systemów komputerowych Grzegorz Mazur Zak lad Metod Obliczeniowych Chemii Uniwersytet Jagielloński 12 kwietnia 2011 Grzegorz Mazur (ZMOCh UJ) Architektura systemów komputerowych 12 kwietnia
Modulacja i kodowanie. Labolatorium. Kodowanie źródłowe Kod Huffman a
Modulacja i kodowanie Labolatorium Kodowanie źródłowe Kod Huffman a W tym ćwiczeniu zajmiemy się kodowaniem źródłowym (source coding). 1. Kodowanie źródłowe Głównym celem kodowanie źródłowego jest zmniejszenie
Zapis liczb binarnych ze znakiem
Zapis liczb binarnych ze znakiem W tej prezentacji: Zapis Znak-Moduł (ZM) Zapis uzupełnień do 1 (U1) Zapis uzupełnień do 2 (U2) Zapis Znak-Moduł (ZM) Koncepcyjnie zapis znak - moduł (w skrócie ZM - ang.
Cyfrowy zapis informacji. 5 grudnia 2013 Wojciech Kucewicz 2
Cyfrowy zapis informacji 5 grudnia 2013 Wojciech Kucewicz 2 Bit, Bajt, Słowo 5 grudnia 2013 Wojciech Kucewicz 3 Cyfrowy zapis informacji Bit [ang. binary digit] jest elementem zbioru dwuelementowego używanym
Urządzenia Techniki. Klasa I TI. System dwójkowy (binarny) -> BIN. Przykład zamiany liczby dziesiętnej na binarną (DEC -> BIN):
1. SYSTEMY LICZBOWE UŻYWANE W TECHNICE KOMPUTEROWEJ System liczenia - sposób tworzenia liczb ze znaków cyfrowych oraz zbiór reguł umożliwiających wykonywanie operacji arytmetycznych na liczbach. Do zapisu
Szyfr ten w odróżnieniu od prostych szyfrów różni się tym że literę zastępuje się obrazkiem, a nie inną literą.
Z biblioteki w tajemniczych okolicznościach ginie cenny historyczny dokument. Jaką tajemnicę kryje stara biblioteka? Miejsce pełne zagadkowych zakamarków, nieoczekiwanych zaułków, sekretnych przejść i
Temat 1. Zliczanie kropek numeracja dwójkowa
Temat 1 Zliczanie kropek numeracja dwójkowa Streszczenie Dane w komputerach są zapisywane i przesyłane jako ciągi zer i jedynek. W jaki sposób słowa i liczby mogą być reprezentowane przy pomocy tylko dwóch
Matematyka dyskretna
Matematyka dyskretna Wykład 7: Kody korygujące błędy Gniewomir Sarbicki Błędy transmisji i kodowanie nadmiarowe Zakładamy, że przy pewnym małym prawdopodobieństwie ɛ przy transmisji bit zmienia wartość.
Algorytmy zachłanne. dr inż. Urszula Gałązka
Algorytmy zachłanne dr inż. Urszula Gałązka Algorytm zachłanny O Dokonuje wyboru, który w danej chwili wydaje się najkorzystniejszy. O Mówimy, że jest to wybór lokalnie optymalny O W rzeczywistości nie
Przetwarzanie i transmisja danych multimedialnych. Wykład 2 Podstawy kompresji. Przemysław Sękalski.
Przetwarzanie i transmisja danych multimedialnych Wykład Podstawy kompresji Przemysław Sękalski sekalski@dmcs.pl Politechnika Łódzka Katedra Mikroelektroniki i Technik Informatycznych DMCS Zawartość wykładu.
Laboratorium Wykorzystanie kalkulatora Windows do obliczania adresów sieciowych
Laboratorium Wykorzystanie kalkulatora Windows do obliczania adresów sieciowych Cele Część 1: Dostęp do programu Kalkulator. Część 2: Konwersja między systemami liczbowymi Część 3: Konwersja adresu IPv4
Rachunek prawdopodobieństwa
Rachunek prawdopodobieństwa Sebastian Rymarczyk srymarczyk@afm.edu.pl Tematyka zajęć 1. Elementy kombinatoryki. 2. Definicje prawdopodobieństwa. 3. Własności prawdopodobieństwa. 4. Zmienne losowe, parametry