WST P DO TEORII INFORMACJI I KODOWANIA. Grzegorz Szkibiel. Wiosna 2013/14

Wielkość: px
Rozpocząć pokaz od strony:

Download "WST P DO TEORII INFORMACJI I KODOWANIA. Grzegorz Szkibiel. Wiosna 2013/14"

Transkrypt

1 WST P DO TEORII INFORMACJI I KODOWANIA Grzegorz Szkibiel Wiosna 2013/14

2 Spis tre±ci 1 Kodowanie i dekodowanie Kodowanie a szyfrowanie Podstawowe poj cia Dekodowanie jednoznaczne Kody blokowe i natychmiastowe Przykªady znanych kodów blokowych Twierdzenia Krafta i McMillana Konstruowanie kodów natychmiastowych Twierdzenia Kody Humana ródªo informacji Denicja kodu Humana Konstrukcja kodu Humana Kompresowanie kodów i entropia Przykªad kompresowania danych Idea entropii Denicja entropii Maximum i minimum entropii Rozszerzenie ¹ródªa Entropia a przeci tna dªugo± sªowa kodowego Twierdzenie Shannona o kodowaniu bezszumowym Pewna komunikacja poprzez niepewne ª cza Symetryczne ª cze binarne Pr dko± przepªywu informacji

3 5.3 Bariera pojemno±ci Odlegªo± Hamminga Wykrywanie i poprawianie bª dów Kody liniowe Denicja Macierz generuj ca Równania opisuj ce kody Macierz sprawdzaj ca parzysto± Waga Hamminga Syndrom Wykrywanie i poprawianie bª dów Kody Hamminga Optymalne kody poprawiaj ce pojedyncze bª dy Przykªady kodów Hamminga Dekodowanie kodów Hamminga Uwagi ko«cowe Kody ReedaMüllera Funkcje Boole'a Wielomiany Boole'a Kody ReedaMüllera Geometria aniczna nad ciaªem Z Dekodowanie kodu Reeda-Müllera

4 Rozdziaª 1 Kodowanie i dekodowanie Teoria informacji zajmuje si sposobami gromadzenia, przechowywania oraz przesyªania informacji. Przesyªanie odbywa si za pomoc ª czy kablowych, czy te» za po±rednictwem przeka¹ników fal. Zatem, by przesªa wiadomo± musimy j zakodowa. Informacje kodujemy te» dla ochrony przed intruzami. Teoria kodowania zajmuje si sposobami zakodowania lub zaszyfrowania informacji. 1.1 Kodowanie a szyfrowanie Te dwa wyrazy cz sto s stosowane zamiennie, co jest bª dem. Na przykªad, znaki drogowe s przykªadem pewnego kodu: zamiast pisa informacje na tabliczce, narysowany jest pewien symbol w gurze okre±lonego ksztaªtu. Jest tak, by ka»dy ªatwo rozpoznaª i odczytaª informacj. Celem nie jest tu ukrycie informacji tak, by tylko nieliczni mogli j odczyta. Podobnie, podczas rozmowy telefonicznej, wypowiedziane sªowa s kodowane, by mo»na je byªo przesªa do aparatu odbiorcy. Dzwoni cy cz sto nie wie, jakiego typu telefon ma odbieraj cy. Dlatego kod rozmowy powinien by odczytany przez ka»dy telefon. Tak zwana czerwona linia Waszyngton - Moskwa posiada urz dzenia szyfruj ce, pozwalaj ce zrozumie tylko tre±ci przesyªane przez okre±lony aparat telefoniczny. Ka»dy j zyk mówiony te» jest przykªadem pewnego kodu sªu» cemu przesyªowi informacji, dzi ki którym porozumiewamy si. 4

5 Rysunek 1.1: Znaki drogowe 1.2 Podstawowe poj cia Aby zakodowa dan wiadomo± stosujemy pewnego rodzaju alfabet kodowy. Najcz ±ciej jest to zbiór dwuelementowy {0, 1}, czyli danej literze alfabetu przypisujemy pewien ci g zer i jedynek. Sªowa tworzymy poprzez poª czenie kodów liter wyst puj cych w tym sªowie. Chcemy generalnie dwóch rzeczy: 1) Aby zakodowana wiadomo± byªa jak najkrótsza, wi c aby transmisja informacji trwaªa mo»liwie nakrócej. 2) Aby zakodowana wiadomo± byªa zabezpieczona przed znieksztaªceniami jakie mog powsta przy jej przesyªaniu. Zauwa»my,»e punkty 1) oraz 2) przecz sobie im krótszy jest kod tym ªatwiej jest uczyni go nierozszyfrowywalnym poprzez znieksztaªcenie paru znaków. Powstaje zatem problem pogodzenia powy»szych dwóch»ycze«. Na pocz tek zaªo»ymy,»e kody nie ulegaj znieksztaªceniu, wi c ª cze, po którym przesyªamy wiadomo± nie jest podatne na szumy. Przy tym zaªo»eniu spróbujemy maksymalnie skompresowa informacje. Nast pnie otrzymany skompresowany kod uczynimy odpornym na szumy poprzez dodanie do niego pewnych znaków sprawdzaj cych. Dowolny sko«czony zbiór nazywamy alfabetem, jego elementy literami lub symbolami, a sko«czone lub niesko«czone ci gi zªo»one z liter nazywamy wyrazami, sªowami lub wiadomo±ciami. Niech A oraz B oznaczaj dwa sko«czone zbiory. Oznaczmy przez w(b) zbiór wszystkich sko«czonych sªów zapisanych za pomoc alfabetu B. Dowolna 5

6 A w(b) A w(b) Rysunek 1.2: Kod 2z5 funkcja f : A w(b) nazywa si kodowaniem. Jej obraz nazywamy kodem. Alfabet A nazywamy alfabetem ¹ródªowym, natomiast alfabet B nazywamy alfabetem kodowym. Je±li alfabet kodowy ma dokªadnie dwa elementy, to kodowanie nazywamy binarnym, dwójkowym lub zerojedynkowym. 1.1 Przykªad. Niech A = {0, 1,..., 9} i B = {0, 1}. Przykªadem kodu jest funkcja z rysunku 1.2. Zauwa»my,»e w ka»dym sªowie kodu 2z5 wyst puj dokªadnie dwie jedynki. Policzmy ile jest mo»liwo±ci zakodowania symbolu sªowem zapisanym alfabetem ( B, w którym wyst puj dwie jedynki. Liczba tych mo»liwo±ci to 5 ) 2 = 10. Zatem nasze kodowanie jest suriekcj. Wyraz 173 kodujemy jako Nie u»ywamy spacji, poniewa» mo»e ona by traktowana jako litera. Zakodowan w powy»ej wiadomo± mo»emy rozkodowa bior c zawsze blok pi ciu znaków i odczytuj c z tabelki co on oznacza. Innym sposobem rozkodowania jest u»ycie klucza jako wag odpowiedniego symbolu w kodzie. Dokªadnie, rozszyfrowujemy nast puj co = = = 3. Wyj tkiem jest tu liczba 0, która rozkodowuje si w ten sposób jako 11 (zamiast 0). Zauwa»my,»e ka»dy kod rozkodowujemy natychmiastowo (tj. do rozkodowania potrzebny nam jest blok pi ciu bitów) oraz jednoznacznie. 6

7 a b c d e Rysunek 1.3: Kod niejednoznacznie dekodowalny 1.3 Dekodowanie jednoznaczne Dla alfabetów ¹ródªowego A oraz kodowego B, niech K : A w(b) b dzie kodowaniem. Kodowaniem wiadomo±ci ¹ródªowej nazywamy funkcj K : w(a) w(b) okre±lon wzorem K (a 1 a 2... a n ) = K(a 1 )K(a 2 )... K(a n ). Kodowanie K nazywamy jednoznacznie dekodowalnym, je±li K jest ró»nowarto±ciowa. Studiuj c procedur dekodowania, ªatwo jest zauwa»y,»e kod 2z5 z przykªadu 1.1 jest jednoznacznie dekodowalny. 1.2 Przykªad. Kod z rysunku 1.3 nie jest jednoznacznie dekodowalny. Ci g mo»e tu by rozkodowany jako cb lub te» jako bd. Zauwa»my,»e funkcja K jest ró»nowarto±ciowa, natomiast generowana przez ni funkcja K nie jest. 1.4 Kody blokowe i natychmiastowe Kodowanie, którego kod skªada si z parami ró»nych wyrazów o jednakowej dªugo±ci n nazywamy kodem blokowym dªugo±ci n. Kodowanie nazywamy natychmiastowym, je»eli»adne sªowo kodowe nie jest pocz tkiem innego sªowa kodowego, tj. je±li element alfabetu ¹ródªowego ma kod b 1 b 2... b n, to»aden inny element tego alfabetu nie ma kodu b 1 b 2... b n b n+1... b m. Kod 2z5 jest przykªadem kodu blokowego dªugo±ci 5. Kody blokowe s ªatwo dekodowalne, ale staj si za dªugie je±li pewne symbole ¹ródªowe pojawiaj si w wiadomo±ci zbyt cz sto. Warto wówczas zastosowa kod natychmiastowy, w którym sªowa s ró»nej dªugo±ci. 7

8 Rysunek 1.4: Kod ósemkowy 1.3 Przykªad. Kod Morse'a jest tak pomy±lany,»e najcz ±ciej (w j zyku angielskim) u»ywane sªowa maj najkrótsze kody. Alfabetem ¹ródªowym jest tu alfabet ªaci«ski, a alfabetem kodowym B = {,, } (trzecim elementem zbioru B jest spacja). Liter A kodujemy jako, a T jako itp. Sªowo,,spacja ma kod Spacja zawsze jest na ko«cu kodu litery. Dlatego kod Morse'a jest natychmiastowy. 1.4 Przykªad. Kod ósemkowy podany na rysunku 1.4 jest przykªadem kodu blokowego. Dokªadnie, ka»de sªowo kodowe, to zapis dwójkowy cyfry od 0 do Przykªad. Rozwa»my kod Nigdy nie uda nam si rozkodowa zakodowanej wiadomo±ci je±li nie znamy caªego kodu. Dokªadnie, strumie« mo»e by lub lub te» Zatem kod ten nie jest natychmiastowy. 1.5 Przykªady znanych kodów blokowych 128 symboli ¹ródªowych klawiatury komputera jest zakodowanych kodem ASCII (American Standard Code for Information Interchange). Jest to binarny kod blokowy dªugo±ci 8. Siedem pierwszych cyfr tego kodu nazywamy 8

9 symbolami informacyjnymi, gdy» to one nios informacj jaki sygnaª z klawiatury zostaª nadany. Ostatni, ósmy bit jest bitem sprawdzaj cym parzysto±. Jest on ustalony tak, aby ilo± jedynek w kodzie byªa parzysta. Ka»da ksi»ka ma swój kod ISBN (International Standard Book Number). Do ko«ca 2006 roku byª to kod blokowy dªugo±ci 10. Na przykªad ISBN oznacza,»e ksi»ka zostaªa wydana w kraju o kodzie 83 (Polska), wydawnictwie 01 (PWN) i jej numer w tym wydawnictwie to Ostatni symbol jest symbolem sprawdzaj cym wyznaczonym tak,»e 11 jest dzielnikiem 10 i=1 ia i, gdzie a i jest itym znakiem kodu. Alfabet kodowy ma tu 11 symboli i oprócz cyfr jest tam jeszcze symbol X. Dla podanego kodu powy»sza suma wynosi 209, co jest podzielne przez 11. Od 1 stycznia 2007 roku zmieniª si standard nadawania numerów ISBN. Ró»nica polega na tym,»e na pocz tku dodano numer 978 oraz jest inna zasada obliczania cyfry kontrolnej: cyfry z pozycji nieparzystych maj wag 1, a z pozycji parzystych wag 3. Cyfr kontroln (znajduje si ona na ko«cu, czyli na pozycji nieparzystej) dobieramy tak, by wa»ona suma byªa podzielna przez 10. Numer to obecnie Numer konta w banku (IBAN) jest te» kodem: PL PL oznacza tu polsk jest numerem banku i oddziaªu. Pozostaªe cyfry oznaczaj numer klienta i s wyznaczane przez bank. Liczba 21 jest liczb kontroln. Oblicza si j w nast puj cy sposób: 1. Literom PL przypisujemy symbol liczbowy wedªug zasady miejsce w alfabecie+9. A ma symbol 10, B 11, itd. PL ma wi c numer liczb 2521 umieszczamy na ko«cu numeru. 3. Odrzucamy dwie pierwsze cyfry numeru, na ko«cu dodajemy dwa zera i obliczamy reszt z dzielenia otrzymanej liczby przez 97. W naszym wypadku mamy mod 97 = Poprzedni wynik odejmujemy od 98. W przypadku, gdy jest to liczba jednocyfrowa, dodajemy z przodu zero. U nas jest to 21. Nie ma dwóch numerów kont, które ró»niªyby si tylko jedn lub dwiema cyframi. Je±li przez omyªk przy wykonywaniu przelewu pomylimy si o jedn lub dwie cyfry w numerze konta, to przelew zostanie odrzucony. 9

10 Rozdziaª 2 Twierdzenia Krafta i McMillana 2.1 Konstruowanie kodów natychmiastowych Zajmiemy si teraz konstrukcjami dwójkowych kodów natychmiastowych. W tym celu ustalmy alfabet A = {a 1, a 2,..., a n }. Chcieliby±my,»eby kod miaª jak najkrótsze sªowa kodowe. B dziemy szukali te» zale»no±ci mi dzy dªugo±ciami sªów kodowych. Dla litery a i, dªugo± jej kodu oznaczmy przez d i. Mo»emy zaªo»y,»e d 1 d 2 d n. Nasza konstrukcja przebiega nast puj co: 1) Za K(a 1 ) wybieramy jakiekolwiek sªowo dwójkowe dªugo±ci d 1. Jest to mo»liwe je±li d 1 1. Mamy wówczas mo»liwo± wyboru spo±ród 2 d 1 sªów. Dodatkowo zachodzi nierówno± 2 d ) W±ród wszystkich sªów, które nie zaczynaj si od K(a 1 ), wybieramy sªowo K(a 2 ) dªugo±ci d 2. Zauwa»my,»e wybór jest mo»liwy poniewa» mamy 2 d 2 wszystkich sªów dªugo±ci d 2 i 2 d 2 d 1 sªów dªugo±ci d 2, których pocz tkiem jest K(a 1 ). Je±li wi c 2 d 2 > 2 d 2 d 1, to mamy przynajmniej jeden wybór K(a 2 ). Nierówno± ta zachodzi, poniewa» d 1 > 0. Dodatkowo mamy jeszcze 2 d d ) Podobnie jak w 2) spo±ród wszystkich sªów, które si nie zaczynaj od K(a 1 ) ani od K(a 2 ) wybieramy sªowo K(a 3 ) dªugo±ci d 3. Aby wybór byª mo»liwy musi by speªniona nierówno± 2 d 3 > 2 d 3 d 1 +2 d 3 d 2, która jest równowa»na nierówno±ci 2 d d d

11 4) Post pujemy jak w 3) wybieraj c kolejno K(a 4 ), K(a 5 ),..., K(a n ). Aby wybór sªowa K(a i ) byª mo»liwy musi zachodzi nierówno± 2 d d d i 1. Zatem aby mo»na byªo wybra sªowa K(a 1 ), K(a 2 ),..., K(a n ), ich dªugo±ci musz speªnia warunek 2 d d dn 1. Otrzyman nierówno± nazywamy nierówno±ci Krafta dla kodu dwójkowego. W nast pnym podrozdziale przedstawimy twierdzenia uogólniaj ce powy»sz konstrukcj. 2.2 Twierdzenia 2.1 Twierdzenie. (Krafta) Zaªó»my,»e alfabet ¹ródªowy ma n symboli, a alfabet kodowy k symboli. Kod natychmiastowy o sªowach kodowych dªugo±ci d 1, d 2,..., d n istnieje je±li zachodzi nierówno± k d 1 + k d k dn 1. Twierdzenie odwrotne do powy»szego jest prawdziwe. Poka»emy nawet wi cej, a mianowicie 2.2 Twierdzenie. (McMillana) Nierówno± Krafta jest speªniona dla ka»dego kodu jednoznacznie dekodowalnego. Zatem ka»dy kod jednoznacznie dekodowalny mo»na zast pi kodem natychmiastowym, który ma sªowa kodowe takiej samej dªugo±ci co kod wyj±ciowy. Dowód. Dla dowodu oznaczmy przez A = {a 1, a 2,..., a n } alfabet ¹ródªowy, przez B alfabet kodowy, który ma k elementów, przez K kodowanie, a przez d 1, d 2,..., d n dªugo±ci odpowiednich sªów kodowych. Dla dowolnego j, liczba wszystkich j-literowych sªów zapisanych za pomoc alfabetu B wynosi k j. Zatem liczba wszystkich wiadomo±ci a j1 a j2... a jr, których kod ma dªugo± j, nie mo»e by wi ksza od k j. Dokªadnie, zachodzi tu równo± d j1 + d j2 + + d jr = j. (2.1) 11

12 Zatem ilo± wszystkich mo»liwych sum postaci (2.1) jest mniejsza lub równa k j. Rozwa»my teraz n c = k d i. i=1 c r Mamy lim r r = wtedy i tylko wtedy, gdy c > 1. Poka»emy,»e ci g ( c r r jest ograniczony, co uzasadni fakt,»e c 1. W tym celu obliczmy c r. ( n ) r c r = i=1 = = k d i i 1,i 2,...,i r k (di1 +di2 + +dir ) dr j=1 d i1 +d i2 + +d ir =j dr j=1 d i1 +d i2 + +d ir =j dr k j k j = dr. j=1 k (d i 1 +d i2 + +d ir ) k j Tutaj d = max(d 1, d 2,..., d n ). Zatem cr r d i c 1. Rozwa»my przykªad nast puj cego kodu: A B C D F G H I rednia dªugo± sªowa kodowego to 2. Jednak, jedno ze sªów dwuznakowych (33) nie jest wykorzystane. Czy mo»na wi c nasz kod zoptymalizowa, tj. tak go poprawi, by ±rednia dªugo± sªowa kodowego byªa mniejsza? Zauwa»my,»e je±li kod jednej z liter b dzie miaª dªugo± 1, to nie b dzie speªniona nierówno± Krafta, czyli kod nie b dzie ju» jednoznacznie dekodowalny. Kod byªby optymalny, gdyby w nierówno±ci Krafta byªaby równo±, ale w przypadku gdy mamy sum o±miu skªadników o równych licznikach, a w mianownikach których s pot gi trójki, otrzymanie takiej równo±ci nie jest mo»liwe. 12 ) r

13 Rozdziaª 3 Kody Humana Kod Humana stanowi rozwi zanie minimalizacji dªugo±ci kodu dla danego tekstu. Dla przykªadu, rozwa»my problem znalezienia takiego kodu binarnego dla alfabetu {A, B, D, K, R}, aby sªowo abrakadabra miaªo mo»liwie najkrótszy kod. Interesuj nas przy tym, oczywi±cie, tylko kody jednoznacznie dekodowalne. Je±li zastosujemy tu kod blokowy, to b dzie on miaª dªugo± nie mniejsz ni» 3. Wówczas nasze sªowo b dzie miaªo kod przynajmniej trzydziesto-trzy znakowy. Kod Humana daje mo»liwo± zakodowania sªowa abrakadabra kodem natychmiastowym dªugo±ci 23, co daje prawie trzydziesto procentow oszcz dno±. 3.1 ródªo informacji ródªem informacji nazywamy alfabet ¹ródªowy wraz z dystrybucj prawdopodobie«stw wyst powania poszczególnych liter tego alfabetu, tj. zbiór A = {a 1, a 2,..., a n }, przy czym n > 1 wraz z funkcj P : A (0, 1) speªniaj c warunek n P (a i ) = 1. i=1 Zaªó»my jeszcze,»e prawdopodobie«stwa wyst powania poszczególnych liter w tek±cie s niezale»ne, tj. P (a i1 a i2... a ik ) = 13 n P (a ij ), j=1

14 czyli prawdopodobienstwo wyst pienia sªowa a i1 a i2... a ik jest równe iloczynowi prawdopodobie«stw wyst pienia poszczególnych liter. 3.2 Denicja kodu Humana Niech K b dzie kodowaniem ¹ródªa informacji, tj. alfabetu A = {a 1, a 2,..., a n } wraz z przyporz dkowan mu dystrybucj prawdopodobie«stw. Przez d i (gdzie 1 i n) oznaczmy dªugo± sªowa kodowego K(a i ). redni dªugo±ci sªowa kodowego nazywamy wielko± n L = d i P (a i ), i=1 czyli warto± oczekiwan zmiennej losowej {(d i, P (a i )) : i {1, 2,..., n}} lub ±redni wa»on prawdopodobie«stw. Najbardziej efektywnym kodem jest kod, dla którego wielko± L jest najmniejsza. Zajmiemy si teraz szukaniem takiego kodu przy czym ograniczymy si tylko do kodów natychmiastowych. Taki kod nazywamy kodem Humana. Dla danego ¹ródªa informacji S oznaczmy przez L min (S) najmniejsz dªugo± ±redni sªowa kodowego (tutaj L min (S) jest funkcj o warto±ciach rzeczywistych okre±lon w klasie wszystkich mo»liwych kodów dla ¹ródªa S). 3.1 Przykªad. Rozwa»my nast puj ce ¹ródªo informacji x A B D K R P (x) Dla powy»szego ¹ródªa informacji przypiszmy sªowa kodowe w trzech ró»nych kodach K 1, K 2 i K 3 nast puj co x A B D K R K 1 (x) K 2 (x) K 3 (x) Je±li przez L(K) oznaczymy ±redni dªugo± sªowa kodowego w kodzie K, to otrzymamy L(K 1 ) = 3 L(K 2 ) = L(K 3 ) =

15 Zatem L min (S) 23. Czy jest to nierówno± ostra? Odpowied¹ na to pytanie 11 otrzymamy po przestudiowaniu nast pnego podrozdziaªu. 3.3 Konstrukcja kodu Humana Zaªó»my,»e nasze ¹ródªo informacji ma alfabet dwuelementowy. Wówczas przyporz dkowanie jednemu elementowi zera, a drugiemu jedynki jest tu optymalnym kodem i w tym przypadku L min = 1. Je±li ¹ródªo ma n symboli, to sprowadzimy je do przypadku dwuelementowego. W tym celu zaªó»my,»e A = {a 1, a 2,..., a n } jest alfabetem ¹ródªowym oraz»e zachodzi P (a 1 ) P (a 2 ) P (a n ). Powy»sze ¹ródªo informacji oznaczmy przez S. ródªem zredukowanym S nazywamy ¹ródªo, w którym alfabetem jest A = {a 1, a 2,..., a n 2, a n 1 a n } (ostatnia litera alfabetu A jest sªowem w alfabecie A), natomiast dystrubucja prawdopodobie«stw wygl da nast puj co: P (a i ) = P (a i ) dla 1 i n 2 P (a n 1 a n ) = P (a n 1 ) + P (a n ). Šatwo jest sprawdzi,»e S jest faktycznie ¹ródªem informacji. 3.2 Twierdzenie. Stosuj c powy»sze oznaczenia, zaªó»my,»e K jest kodem Humana dla zredukowanego ¹ródªa informacji. Wówczas kod K(a i ) = K (a i ) dla 1 i n 2 K(a n 1 ) = K (a n 1 a n )0 K(a n ) = K (a n 1 a n )1 jest kodem Humana dla ¹ródªa S. Dowód. Zaªó»my,»e elementy a 1, a 2,..., a n s uporz dkowane wedªug malej cych prawdopodbie«stw. Dowód konstrukcyjny przeprowadzimy w trzech krokach. Krok 1. Poka»emy,»e dla ¹ródªa S istnieje kod Humana K 0, dla którego d 1 d 2 d n, gdzie d i oznacza dªugo± K 0 (a i ) oraz 1 i n. Zauwa»my,»e L min (S) jest równy minimum z L(K), gdzie K przebiega wszystkie mo»liwe kody natychmiastowe okre±lone na A. Poniewa» minimum 15

16 to jest osi galne, wi c kod Humana zawsze istnieje. Niech K b dzie pewnym kodem Humana dla ¹ródªa informacji S. Je»eli istnieje litera a i, dla której d i > d i+1, zamieniamy sªowa kodowe liter a i oraz a i+1. Zatem a i ma teraz kod dªugo±ci d i+1, a a i+1 kod dªugo±ci d i. Otrzymany kod K 1 w dalszym ci gu jest natychmiastowy. Poka»emy,»e jest on te» kodem Humana. Istotnie, L(K) L(K 1 ) = n d i P (a i ) i=1 n d ip (a i ) i=1 = d i P (a i ) + d i+1 P (a i+1 ) (d i+1 P (a i ) + d i P (a i+1 )) = (d i d i+1 )(P (a i ) P (a i+1 ). Poniewa» elementy alfabetu A s uporz dkowane wedªug malej cych prawdopodbie«stw, wi c P (a i ) P (a i+1 ). Z drugiej strony, zaªo»yli±my,»e d i > d i+1. Zatem L(K) L(K 1 ) 0, czyli L(K) L(K 1 ). Ale K jest kodem Humana, wi c L(K) = L min (S). St d L(K) = L(K 1 ) = L min (S) i K 1 jest kodem Humana. Post pujemy podobnie a» dªugo±ci sªów kodowych zostan uporz dkowane rosn co. Odpowiadaj cy kod Human'a jest poszukiwanym kodem K 0. Krok 2. Poprawimy kod K 0 otrzymuj c kod Humana K 1 taki,»e sªowa kodowe K(a n ) oraz K(a n 1 ) ró»ni si tylko ostatnim bitem. Niech K 0 b dzie kodem otrzymanym z K 0 poprzez odrzucenie ostatniego bitu z K 0 (a n ). Poniewa» P (a n ) > 0, wi c L( K 0 ) < L(K 0 ) = L min (S) i K 0 nie mo»e by kodem natychmiastowym (inaczej K 0 nie byªby kodem Humana). Zatem K 0 (a n ) musi by pocz tkiem pewnego sªowa kodowego K 0 (a i ) = K 0 (a i ) dla 1 i n 1. Oznaczmy przez d n dªugo± sªowa K 0 (a n ). Mamy d n 1 = d n. Skoro K 0 (a n ) jest pocz tkiem sªowa K 0 (a i ), wi c d n d i d n. Je±li jednak d n = d i, to K 0 (a i ) = K 0 (a n ) jest pocz tkiem sªowa kodowego K 0 (a n ) co przeczy natychmiastowo±ci kodu K 0. Zatem musi by d i = d n. Oznacza to, po pierwsze,»e d i = d i+1 = = d n oraz, po drugie,»e sªowa K 0 (a i ) oraz K 0 (a n ) ró»ni si tylko ostatnim bitem. Mo»emy zatem zamieni sªowa kodowe liter a n 1 oraz a i (o ile jest to konieczne) i otrzymamy» dany kod K 1. Krok 3. Zako«czymy dowód twierdzenia. Zauwa»my,»e dla zdeniowanego w tezie twierdzenia kodu K zachodzi równo± L(K) = L(K ) + P (a n 1 ) + P (a n ). 16

17 Niech K 1 b dzie kodem dla ¹ródªa S otrzymanym w kroku 2. Oznaczmy przez K 1 kod dla zredukowanego»ródªa informacji, gdzie sªowo kodowe K 1(a n 1 a n ) jest równe K(a n 1 ) lub K(a n ) z odrzuconym ostatnim bitem. Wówczas K 1 jest natychmiastowy. Mamy te» L(K 1 ) L(K 1) = P (a n 1 ) + P (a n ) = L(K) L(K ). St d L(K) = L(K 1 ) L(K 1) + L(K ). Ale K jest z zaªo»enia kodem Humana, zatem L(K ) = L min (S ) i st d mamy L(K 1) + L(K ) 0. Tak wi c L(K) L(K 1 ). Ale skoro K 1 jest kodem Humana, wi c takowym musi te» by K. Konstrukcja kodu Humana dla ¹ródªa informacji S polega na tworzeniu kolejnych ¹ródeª zredukowanych S, S,... S (h) a» otrzymamy»ródªo z alfabetem dwuelementowym. Nast pnie deniujemy tak jak w poprzednim twierdzeniu kody Humana dla ¹ródeª S (h 1), S (h 2),... S. 3.3 Przykªad. Dla ¹ródªa informacji z przykªadu 3.1 tworzymy kolejne zredukowane ¹ródªa x A B DK R S : P (x) S : x A BDK R P (x) x BDKR A S (3) : 6 P (x) 11 którym odpowiadaj kody K (3) (BDKR) = 0, K (3) (A) = 1; K (A) = 1, K (BDK) = 00, K (R) = 01; K (A) = 1, K (B) = 000, K (DK) = 001, K (R) = 01. Ostatecznie, otrzymamy dla naszego ¹ródªa informacji nast puj cy kod Humana x A B D K R K(x)

18 Zatem L min (S) = 23 i najkrótszy jednoznacznie dekodowalny kod sªowa 11 abrakadabra ma 23 znaki. Kody Humana mo»emy te» tworzy dla alfabetów kodowych o wi kszej ni» dwa liczbie znaków. Caªe rozumowanie tego podrozdziaªu mo»na przenie± na ten przypadek. 18

19 Rozdziaª 4 Kompresowanie kodów i entropia 4.1 Przykªad kompresowania danych W poprzednim rozdziale zauwa»yli±my,»e kody Humana s najkrótszymi mo»liwymi kodowaniami danego alfabetu ¹ródªowego. Zatem, aby dany kod byª krótszy, musimy kompresowa ju» sam kod, czyli,,kodowa kod. Przypu± my,»e zakodowali±my pewn wiadomo± w kodzie dwójkowym. W nast pstwie tej czynno±ci okazaªo si,»e 90% kodu to zera, a tylko 10% to jedynki. Nasz zakodowan wiadomo± mo»emy skompresowa koduj c bloki bitów. Dokªadnie, zauwa»my,»e zakªadaj c niezale»no± wyst powania poszczególnych bitów w zakodowanej wiadomo±ci, prawdopodobie«stwa wyst pienia bloków 00, 01, 10, 11 s równe, odpowiednio 81, 9, 9 oraz 1 procent. Otrzymujemy wi c nast puj ce ¹ródªo informacji ,81 0,09 0,09 0,01 Dla powy»szego ¹ródªa informacji konstruujemy kod Humana otrzymuj c

20 Otrzymany kod ma przeci tn dªugo± równ 1 0, , , , 01 = 1, 29. Poniewa» kodujemy bloki dwubitowe, wi c na ka»de dwa bity,,starego kodu potrzebujemy 1, 29 bitów,,nowego kodu. Zyskali±my zatem ponad siedem dziesi tych bita, co kompresuje nasz kod do okoªo 64% ( 1, 29/2) jego pierwotnej dªugo±ci. Próbuj c kodowa wi ksze bloki otrzymujemy kompresj 53% przy blokach trzybitowych oraz 49% przy blokach czterobitowych. Pojawia si zatem pytanie, czy dany kod mo»na skompresowa do dowolnie maªej obj to±ci. Odpowied¹ na to pytanie daje teoria entropii, któr opiszemy poni»ej. 4.2 Idea entropii Zaªó»my,»e mamy dane ¹ródªo informacji S. Chcemy wprowadzi wielko± H(S), która wyra»a ilo± informacji zawart w jednym symbolu ¹ródªowym. Liczb H(S) nazwiemy entropi. Chcemy, aby speªnione byªy nast puj ce warunki: H(S) zale»y jedynie od statystyki ¹ródªa S, nie od nazw poszczególnych symboli ¹ródªowych; H(S) mo»e by rozwa»ana jako funkcja prawdopodobie«stw symboli ¹ródªa S. Oznaczmy przez p 1, p 2,..., p n prawdopodobie«stwa odpowiadaj ce poszczególnym symbolom alfabetu ¹ródªowego. Zatem Funkcja ta powinna by 1) Dodatnia; H : (p 1, p 2,..., p n ) H(p 1, p 2,..., p n ). 2) Ci gªa, co oznacza,»e maªym zmianom prawdopodobie«stw odpowiada niewielka zmiana entropii; 3) Symetryczna, co oznacza,»e zmiana porz dku symboli ¹ródªowych nie powoduje zmiany entropii ¹rodªa; 4) Koherentna, co w tym przypadku oznacza,»e entropia ¹ródªa n elementowego mo»e by obliczona je±li znamy entropi mniejszych ¹ródeª. 20

21 Wytªumaczmy dokªadniej, co oznacza termin w podpunkcie 4). Zaªó»my w tym celu,»e czytamy pewien tekst nie rozró»niaj c liter a 1 i a 2. Aby w peªni zrozumie tekst nie musimy go ju» czyta po raz drugi w caªo±ci, tylko koncentrujemy si na symbolach a 1 i a 2. Zatem znaj c entropi ¹ródeª zredukowanego (ze zredukowanymi symbolami a 1 oraz a 2 ) oraz entropi ¹ródªa dwuelementowego {a 1, a 2 }, mo»emy obliczy entropi caªego ¹ródªa. Dokªadnie, H(p 1, p 2,..., p n ) = H(p 1 + p 2, p 3..., p n ) + (p 1 + p 2 )H ( p1 p 1 + p 2, p 2 p 1 + p Twierdzenie. Istnieje dokªadnie jedna, z dokªadno±ci do staªej k, dodatnia, symetryczna i koherentna funkcja H nzmiennych. Jest ona okre±lona wzorem H(p 1, p 2,..., p n ) = k ). n p i log 1. (4.1) p i Skomplikowany i nie bardzo zwi zany z tematem dowód tego twierdzenia pomijamy. 4.3 Denicja entropii Opieraj c si na twierdzeniu 4.1, wprowadzimy nast puj c denicj. Przedtem jednak ustalmy pewne oznaczenia. Staªa k, która pojawia si w (4.1) stanowi wybór jednostki entropii. Zapiszmy k = 1. Je»eli r = 2, jednostk nazywamy bitem. log r Zatem H(p 1, p 2,..., p n ) = i=1 n p i log 2 p i. Je±li ¹ródªo S ma dokªadnie dwie jednakowo prawdopodobne litery, to i=1 H(S) = 1 2 log log 2 2 = 1bit. Entropi ¹ródªa informacji S, którego symbole a 1, a 2,..., a n wyst puj z prawdopodobie«stwami p 1, p 2,..., p n nazywamy liczb okre±lon przez równanie (4.3). 21

22 Przykªady W naszym pocz tkowym przykªadzie kompresowania danych mamy p 1 = 0, 9 oraz p 2 = 0, 1. Zatem entropia tego ¹ródªa jest równa H(S) = 0, 1 log 2 0, 1 0, 9 log 2 0, 9 0, 469bita. Oznacza to,»e po przeczytaniu jednego symbolu tekstu ¹ródªowego otrzymujemy okoªo 0,469 bitów informacji lub,»e ka»de tysi c liter tekstu mo»na zast pi przez 469 cyfr dwójkowych. U»ywaj c kodu blokowego, 26 liter alfabetu angielskiego mo»na zakodowa w bloki dwójkowe dªugo±ci 5. Z drugiej strony, je±li policzymy entropi ¹ródªa informacji, którym jest alfabet angielski, otrzymamy liczb 1,5. Oznacza to, i» ka»dy tekst angielski zakodowany kodem blokowym dªugo±ci 5 mo»na skompresowa nawet do 30% jego pierwotnej dªugo±ci! Obliczmy entropi ¹ródªa informacji M jakim jest rzut monet. Mamy tu dwa symbole ¹ródªowe orªa i reszk, którym odpowiadaj równe prawdopodobie«stwa. Zatem H(M) = 1. Tak wi c tekstu pochodz cego z tego ¹ródªa nie mo»na skompresowa, poniewa» ka»dy symbol ¹ródªowy to dokªadnie 1 bit informacji. Ogólniej, je±li ¹ródªo informacji ma dokªadnie dwa symbole, to ich prawdopodobie«stwa mo»na wyrazi jako p oraz 1 p, a jego entropi przez H(p, 1 p) = p log 2 p + (p 1) log 2 (1 p). Funkcja p H(p, 1 p) osi ga maximum w punkcie 1. Natomiast jej inmum wynosi 0 i jest osi gane granicznie, gdy p 1 lub p Maximum i minimum entropii Gdyby jeden symbol ¹ródªowy miaª prawdopodobie«stwo bliskie 1, pozostaªe musiaªyby mie prawdopodobie«stwa bliskie 0. Dla tego rodzaju ¹ródeª entropia byªaby najbli»sza swojego inmum. Fakt ten udowodnimy poni»ej. 4.2 Twierdzenie. Je±li jeden z symboli ¹ródªowych ma prawdopodobie«stwo bliskie 1, to entropia tego ¹ródªa jest bliska 0. 22

23 Dowód. Zaªó»my,»e p 1 1. Zatem p i 0 dla 2 i n. St d p i log 2 p i 0 poniewa» (log 2 p i ) 1 = o(p i ) dla 2 i n oraz p 1 log 2 p 1 0 gdy» log 2 p 1 0, a p 1 jest wielko±ci ograniczon. Zatem H(S) 0. Przykªad entropii rzutu monet oraz rozwa»ania poprzedzaj ce niniejszy rozdziaª sugeruj,»e najwi ksz entropi maj ¹ródªa, w których prawdopodobie«stwa poszczególnych symboli s równe. Nast puj ce twierdzenie uzasadni to rozumowanie. 4.3 Twierdzenie. Maximum entropii jest osi gane dla takich ¹ródeª informacji, gdzie p 1 = p 2 = = p n = 1 n. Jest ono równe log 2 n. Dowód. Zauwa»my najpierw,»e faktycznie, je±li p 1 = p 2 = = p n = 1, n to H(p 1, p 2,..., p n ) = log 2 n. Aby pokaza,»e jest to maximum u»yjemy nierówno±ci log x x 1, w której równo± zachodzi wtedy i tylko wtedy, gdy x = 1. Mamy H(S) log 2 n = i = i = 1 log 2 = 1 log 2 1 log 2 = 1 log 2 = 1 log 2 1 p i log 2 p i log p 2 n i i ( ) 1 p i log 2 log p 2 n i p i (log 1 ) log n p i i i i p i log 1 np i ( ) 1 p i 1 np i i ( ) 1 n p i ( i 1 n i p i ) = 0. Zatem H(S) log 2 n, przy czym równo± zachodzi wtedy i tylko wtedy, gdy 1 np i = 1, czyli gdy p i = 1 n. 23

24 4.5 Rozszerzenie ¹ródªa 4.4 Przykªad. Je»eli ¹ródªem informacji M 2 jest rzut dwiema symetrycznymi monetami, to H(M 2 ) = 2. Czyli ka»dy rzut niesie dwa bity informacji. Jest to zgodne z naszym wcze±niejszym rozwa»aniem rzutu jedn monet, kiedy to entropia wynosiªa 1. Powró my do naszego pierwotnego przykªadu ¹ródªa informacji, w którym 0 wyst powaªo z prawdopodobie«stwem 0, 9, a 1 z prawdopodobie«stwem 0, 1. Aby skompresowa wiadomo± dzielili±my j na bloki po dwie litery. Czynno± t b dziemy nazywali rozszerzaniem ¹ródªa. Dokªadnie, ktym rozszerzeniem ¹ródªa S w którym symbolom a 1, a 2,..., a n odpowiadaj, odpowiednio, prawdopodobie«stwa p 1, p 2,..., p n nazywamy ¹ródªo informacji S k, którego alfabet skªada si z bloków kliterowych a i1 a i2... a ik liter alfabetu ¹ródªa S, którym to blokom odpowiadaj prawdopodobie«stwa P (a i1 a i2... a ik ) = P (a i1 )P (a i2 )... P (a ik ). ródªo rzutu dwiema monetami M 2 jest rozszerzeniem ¹ródªa rzutu jedn monet. Jak ju» zauwa»yli±my, H(M 2 ) = 2H(M). Istotnie, jest to reguªa, o czym mówi nast puj ce twierdzenie. 4.5 Twierdzenie. Dla dowolnego ¹ródªa informacji, H(S k ) = kh(s). Dowód. Wynika z nast puj cych oblicze«: H(S k ) = p i1 p i2... p ik log 2 (p i1 p i2... p ik ) i 1,i 2,...,i k = p i1 p i2... p ik (log 2 p i1 + log 2 p i2 + + log 2 p ik ) i 1 i 2 i k = p i1 log 2 p i1 p i2 p ik i 1 i 2 i k p i2 log 2 p i2 p i1 p i3 p ik i 2 i 1 i 3 i k p ik log 2 p ik p i1 i 1 i k 1 p ik 1 i k 24

25 = i 1 p i1 log 2 p i1 i 2 p i2 log 2 p i2 i k p ik log 2 p ik = kh(s). 4.6 Entropia a przeci tna dªugo± sªowa kodowego Skoro entropia, to liczba bitów zawartych w jednym symbolu tekstu ¹ródªowego, wi c nie powinna ona by wi ksza ni» przeci tna dªugo± sªowa kodowego. To intuicyjne spostrze»enie potwierdza nast puj ce twierdzenie. 4.6 Twierdzenie. Ka»dy dwójkowy kod natychmiastowy dla ¹ródªa S ma dªugo± przeci tn wi ksz lub równ entropii tego ¹ródªa. Dowód. Oznaczaj c przez d i dªugo± itego sªowa kodowego, a przez L przeci tn dªugo± sªowa kodowego, otrzymujemy H(S) L = i = i 1 p i log 2 p i d i p i i ( ) 1 p i log 2 log p 2 2 d i i = 1 p i log 2 p i i 2 d i = 1 1 p i log log 2 p i i 2 d i 1 ( ) 1 p i log 2 p i i 2 1 d i = 1 ( ) 1 log 2 2 p d i i = 1 log 2 i ( i 1 2 d i i 1 (1 1) = 0, log 2 gdzie ostatnia nierówno± jest konsekwencj nierówno±ci Krafta, a pierwsza wynika ze wzoru log x x 1. Zatem H(S) L. 25 p i )

26 4.7 Twierdzenie Shannona o kodowaniu bezszumowym W naszym pocz tkowym przykªadzie mieli±my H(S) = 0, 469, 1 2 L min(s 2 ) = 0, 645, qquad 1 3 L min(s 3 ) = 0, 533. Zwi kszaj c bloki, a nast pnie koduj c je, nigdy nie zejdziemy poni»ej poziomu entropii dla danego ¹ródªa. Nast puj ce twierdzenie mówi o tym,»e entropia stanowi graniczny poziom kompresowania tekstów zapisanych za pomoc alfabetu danego ¹ródªa informacji. Granicy tej nie mo»na przekroczy, ale mo»na si do niej zbli»y na dowoln odlegªo±. 4.7 Twierdzenie. (Shannona o kodowaniu bezszumowym) Dla dowolnego ¹ródªa informacji S zachodzi nast puj cy zwi zek mi dzy entropi tego ¹ródªa a przeci tn dªugo±ci kodu Humana dla tego ¹ródªa H(S) L min (S) H(S) + 1. (4.2) W szczególno±ci, dla ktego rozszerzenia»ródªa S mamy 1 lim k k L min(s k ) = H(S). (4.3) Dowód. Udowodnimy najpierw wzór (4.3) zakªadaj c (4.2). Mamy kh(s) = H(S k ) L min (S k ) H(S k ) + 1 = kh(s) + 1. St d bezpo±rednio wynika H(S) 1 k L min(s k ) H(S) + 1 k i stosuj c twierdzenie o trzech granicach otrzymujemy (4.3). Aby udowodni (4.2), zauwa»my, ze wobec twierdzenia 4.6, wystarczy pokaza,»e L min (S) H(S) + 1. W tym celu elementom»ródªowym a 1, a 2,..., a n, których prawdopodobie«stwa wynosz, odpowiednio, p 1, p 2,..., p n przyporz dkujmy sªowa kodowe dªugo±ci d 1, d 2,..., d n, gdzie d i = log 2 p i 1. Poniewa» nierówno± Krafta dla 26

27 tych dªugo±ci zachodzi (dokªadnie, n 2 d i i=1 n 2 log 2 1 p i = i=1 n p i = 1), i=1 wi c odpowiedni kod natychmiastowy istnieje. Kod ten ma przeci tn dlugo± L równ n p i d i i=1 n i=1 Zatem L min (S) L H(S) + 1, sk d (4.2). ( ) 1 p i 1 + log 2 = 1 + H(S). p i Nasze rozwa»ania na temat entropii zako«czymy uwag,»e caªe powy»sze rozumowanie bez trudu przenosi si na przypadek dowolnego r. Wówczas entropi ¹ródªa S oznaczamy H r (S) i wielko± ta jest równa i p i log r p i. 27

28 Rozdziaª 5 Pewna komunikacja poprzez niepewne ª cza Jak dot d, starali±my si jak najbardziej skróci kod przesyªanej wiadomo±ci. W poprzednim rozdziale pokazali±my,»e granic kompresji stanowi entropia danego ¹ródªa. Maksymalnie skompresowany tekst nie jest jednak dobry do przesªania poprzez ª cze, w którym mog pojawi si zakªócenia niewielkie zakªócenie kodu powoduje niemo»no± rozkodowania. Aby nasz kod staª si odpornym na zakªócenia, musimy go wydªu»y uzupeªniaj c go pewn liczb dodatkowych bitów. Zanim jednak przejdziemy do modykacji kodów, zdeniujmy ª cza, po których ów zmodykowany kod zostanie przesªany. 5.1 Symetryczne ª cze binarne Gdyby±my mieli do dyspozycji ª cze, w którym nigdy nie pojawiaj si szumy, nie musieliby±my modykowa kodu. Jednak»e tego rodzaju ª cza s w praktyce nie spotykane. Dlatego zaªó»my,»e w ª czu powstaj szumy, które powoduj,»e odebrana wiadomo± mo»e si ró»ni od wysªanej. Zakªadamy jednak,»e podczas transmisji nie powstaje bª d synchronizacji, tj.»aden nowy symbol nie pojawi si w kodzie, ani te»»aden nie zniknie. Symetrycznym ª czem binarnym (BSC) nazywamy ª cze, które speªnia nast puj ce warunki: 1. Komunikacja zachodzi za pomoc kodu dwójkowego, tj. zarówno na wej±ciu, jak i na wyj±ciu mog pojawia si tylko 0 lub 1; 28

29 2. Prawdopodobie«stwo otrzymania 1 pod warunkiem wysªania 0 jest równe prawdopodobie«stwie otrzymania 0 pod warunkiem wysªania 1; 3. Š cze nie ma pami ci, tj. prawdopodobie«stwo znieksztaªcenia danego symbolu nie zale»y od wcze±niej wysªanych bitów. Oznaczmy przez p prawdopodobie«stwo znieksztaªcenia wysªanego przez BSC symbolu, a przez q = 1 p prawdopodobie«stwo poprawnej transmisji danego bitu. Mo»emy zaªo»y,»e 0 p 0, 5 jako,»e je±li prawdopodobie«stwo to jest wi ksze od 1, to przed przeczytaniem kodu mo»emy 2 zamieni rolami zera i jedynki. 5.1 Przykªad. Zaªó»my,»e pewne ª cze znieksztaªca 1 symbol na tysi c. Zatem p = 0, 001 oraz q = 0, 999. Zaªó»my jednak»e,»e nie mo»emy sobie pozwoli na wi cej ni» jeden bª d na dziesi tysi cy symboli. Aby podnie± pewno± kodu mo»emy ka»dy symbol kodowy powtórzy kilka razy. Nazywa si to kodem powtórze«1. Na przykªad, Dla danego kodu K, odpowiadaj cy mu kod powtórze«oznaczymy przez K s, gdzie s oznacza liczb powtórze«danego bitu. Tak wi c otrzymuj c wiadomo± w kodzie K 3 oczekujemy,»e bity wyst puj w jednorodnych blokach dªugo±ci 3. Zatem, gdy otrzymujemy taki blok a 1 a 2 a 3, wiemy,»e zanim zostaª on wysªany wszystkie jego bity byªy równe. Je±li jednak otrzymany blok nie ma takich samych bitów, rozkodowujemy go wedªug,,prawa wi kszo±ci. Bª d w odczycie popeªniamy, je±li wszystkie trzy bity zostaªy znieksztaªcone (prawdopodobie«stwo p 3 ), lub gdy dwa bity zostaªy znieksztaªcone (prawdopodobie«stwo 3p 2 q). Zatem prawdopodobie«stwo niewªa±ciwego odczytu wynosi P err (K 3 ) = p 3 + 3p 2 q < Kod K 3 speªnia wi c postawione wcze±niej wymagania. Uzupeªnimy przykªad uwag,»e P err (K 5 ) 10 8 oraz,»e P err (K n ) 0 je±li n. 1 ang. repetition code 29

30 5.2 Pr dko± przepªywu informacji W przykªadzie kodu powtórze«k n tylko jeden bit na n byª no±nikiem informacji. Pozostaªe bity jedynie sprawdzaªy, czy informacja zostaªa prawidªowo przesªana przez ª cze. Zatem mieli±my tu do czynienia z kodem blokowym, w którym jeden bit jest bitem informacyjnym, a n 1 bitów s bitami sprawdzaj cymi. Uogólniaj c powy»sz sytuacj, dla dowolnego kodu blokowego K wyró»niamy w ka»dym bloku k bitów informacyjnych oraz n k bitów sprawdzaj cych. Bity informacyjne mog by dowolne, wi c mamy mo»liwych dokªadnie 2 k sªów kodowych. Bity sprawdzaj ce w tych sªowach ±ci±le zale» od bitów informacyjnych. Odwrotnie, je±li dany kod blokowy ma dokªadnie 2 k sªów, to oznacza to,»e w ka»dym bloku mamy k bitów informacyjnych. Przesyªanie informacji odbywa si wi c w nast puj cy sposób: dan wiadomo± kodujemy stosuj c kod Humana; otrzymany kod kompresujemy tak, by byª on mo»liwie najkrótszy, skompresowany kod dzielimy na bloki dªugo±ci k i ka»dy z tych bloków uzupeªniamy bitami sprawdzaj cymi tak by otrzyma kod blokowy dªugo±ci n k; ka»dy z bloków przesyªamy poprzez ª cze, odbiorca kodu, najpierw sprawdza poprawno± przesªanego kodu i poprawia bª dy transmisji wykorzystuj c bity sprawdzaj ce, odbiorca odrzuca bity sprawdzaj ce i ª czy bloki bitów informacyjnych w zakodowan i skompresowan wiadomo±, odbiorca dekompresuje kod i rozkodowuje wiadomo±. Czynno± sprawdzania otrzymanego w wyniku transmisji kodu blokowego oraz poprawiania wynikªych bª dów, tak»e nazywamy dekodowaniem lub rozkodowywaniem. Dla dwójkowego kodu blokowego K dªugo±ci n o k n bitach informacyjnych deniujemy wielko± R(K) = k, któr nazwiemy pr dko±ci przepªywu n informacji kodu K. Je»eli k = 0, kod K ma tylko jedno sªowo kodowe, R(K) = 0 i bity sprawdzaj ce sygnalizuj jedynie,»e nast piªa transmisja. 30

31 Taki kod nazywamy trywialnym. Drug skrajno± stanowi kod o pr dko±ci przepªywu informacji 1. Taki kod nie posiada bitów sprawdzaj cych. Generalnie, je±li R(K) jest bliskie 0, kod ma du» odporno± na szumy, ale nie jest efektywny w sensie przepªywu informacji. Je»eli natomiast R(K) jest bliskie 1, kod K ma bardzo du» efektywno±, ale nie ma istotnego zabezpieczenia na zakªócenia. Dla przykªadu zauwa»my,»e kod powtórze«k n ma pr dko± przepªywu 1 informacji.,,ortogonalnym do niego jest kod sprawdzaj cy parzysto±,1 n w którym mamy n 1 bitów informacyjnych oraz jeden bit sprawdzaj cy ustalony tak, by liczba jedynek w bloku byªa parzysta. Zatem tutaj, R = n 1, n ale tylko pojedyncze bª dy zostan wykryte bez mo»liwo±ci ich poprawienia. 5.3 Bariera pojemno±ci Wysyªaj c kod poprzez ª cze, musimy mie na uwadze nie tylko to, i» w ª czu mog wyst pi zakªócenia, ale tak»e to,»e ª cze ma pewn ograniczon pojemno±. Rozwa»my tu nast puj cy przykªad: nasze ¹ródªo wysyªa jeden bit na sekund, ale ª cze nie mo»e przesªa wi cej ni» dwa bity na sekund. Zaªó»my konkretnie,»e p = 0, 001, jednak»e nie mo»emy sobie pozwoli na wi cej bª dów ni» dwa na Ze wzgl du na pojemno± ª cza nie mo»emy doda wi cej ni» jednego bitu sprawdzaj cego na jeden bit informacyjny. Zauwa»my,»e kod K 2 nie jest w ogóle dobrym rozwi zaniem. Istotnie, bª d popeªniamy, gdy oba bity s znieksztaªcone (prawdopodobie«stwo p 2 ), lub gdy jeden bit jest znieksztaªcony, przy czym musimy zdecydowa który (prawdopodobie«stwo 2 1pq). St d P (K 2 2) = p 2 + pq = p. Zatem prawdopodobie«stwo bª du jest takie samo jak bez u»ycia bitu sprawdzaj cego. Podobnie, mo»emy zauwa»y,»e P (K 2s ) = P (K 2s 1 ). 5.2 Przykªad. Spróbujmy nast puj cego kodu, w którym do bloku informacyjnego dªugo±ci k dodajemy dwa bity sprawdzaj ce, które s równe drugiemu bitowi z bloku. Tak wi c Powy»szy kod oznaczymy przez K 4. Przy odbiorze, zakªadamy,»e pierwszy bit jest prawidªowy, a drugi ustalamy poprzez,,prawo wi kszo±ci. Zatem 1 ang. even-parity code 31

32 odbiór jest prawidªowy wtedy i tylko wtedy, gdy»aden z bitów nie zostaª znieksztaªcony, lub gdy tylko drugi, trzeci lub czwarty bit zostaª przeinaczony. St d 1 P err (K 4) = q 4 + 3pq 3 0, Zatem a» 3 bity na mog by ¹le odczytane, co nas jeszcze nie satysfakcjonuje. Wypróbujemy wi c nast puj cy kod K Przykªad. Kod K6 koduje bloki informacyjne dªugo±ci 3 dodaj c 3 bity sprawdzaj ce Kod ten jest tak skonstruowany,»e dwa ró»ne sªowa kodowe ró»ni si mi dzy sob przynajmniej trzema bitami. Zatem przy rozkodowywaniu natraamy albo na sªowo kodowe albo na sªowo, które ró»ni si od pewnego (dokªadnie jednego) sªowa kodowego w dokªadnie jednym bitem. W pierwszym przypadku nie mamy problemów z dekodowaniem, w drugim dekodujemy otrzymany blok jako w. Zatem bª d mo»emy popeªni je±li przynajmniej dwa bity w bloku zostaªy znieksztaªcone. St d 1 P err (K 6) q 6 + 6pq 5 0, 99984, czyli P err 0, 00016, co jest lepszym wynikiem ni» pierwotnie wymagali±my. Precyzyjna denicja pojemno±ci ª cza jest nieco skomplikowana. Poniewa» w dalszym ci gu wykªadu zajmiemy si tylko sposobami kodowania bloków informacyjnych, nie b dziemy teraz dokªadnie rozpatrywa kwestii pojemno±ci. Zajmiemy si natomiast praktycznymi sposobami odczytywania kodu przesªanego przez ª cze BSC. 5.4 Odlegªo± Hamminga Naszym celem jest skonstruowanie kodu, który ma minimaln liczb bitów sprawdzaj cych, ale sªowa kodowe ró»ni si od siebie jak najwi ksz liczb bitów. Chcemy zatem, aby sªowa kodowe byªy,,jak najdalej od siebie. Sformalizujemy teraz poj cie odlegªo±ci. 32

33 Niech a = a 1 a 2... a n oraz b = b 1 b 2... b n b d sªowami kodu blokowego. Odlegªo±ci Hamminga d(a, b) pomi dzy sªowami a oraz b nazywamy liczb pozycji na których sªowa te maj ró»ne bity, tj. d(a, b) = # {1 i n : a i b i }. W kodzie powtórze«k n odlegªo± Hamminga pomi dzy dwoma ró»nymi sªowami wynosi n. W kodzie K6 jest ona wi ksza lub równa Twierdzenie. Dla danego alfabetu A odlegªo± Hamminga okre±la metryk na zbiorze W n (A) wszystkich sªów nliterowych. Dowód. Zauwa»my,»e wprost z denicji wynika,»e d(a, a) = 0 oraz,»e d(a, b) > 0 dla a b. Dalej mamy d(a, b) = d(b, a). Wystarczy zatem pokaza,»e zachodzi warunek trójk ta. W tym celu zapiszmy a = a 1 a 2... a n, b = b 1 b 2... b n oraz c = c 1 c 2... c n. Przyjmijmy d(a, b) = v i d(b, c) = w oraz zaªó»my,»e a i1 b i1, a i2 b i2,..., a iv b iv, b j1 c j1, b j2 c j2,..., b jw c jw. Rozwa»my teraz d(a, c). Odlegªo± ta b dzie najwi ksza, je±li»adne i s nie pokryje si z j r i b dzie wówczas równa dokªadnie v + w. Tak wi c ogólnie, d(a, c) d(a, b) + d(b, c). Opisan przestrze«metryczn mo»na zinterpretowa geometrycznie jako graf, którego wierzchoªkami s sªowa kodowe, a kraw dziami s poª czone tylko te wierzchoªki, które ró»ni si mi dzy sob o jeden bit. Odlegªo± pomi dzy dwoma wierzchoªkami, to najmniejsza ilo± kraw dzi, które trzeba pokona, by dotrze od jednego wierzchoªka do drugiego. Odlegªo± Hamminga wykorzystujemy przy wykrywaniu i poprawianiu bª dów powstaªych w wyniku transmisji przez ª cze BSC. Przesªany kod b dziemy dekodowa wedªug dekodowania maksymalnego podobie«stwa 1 (MLD). Jego dwie gªówne zasady to: je±li otrzymujemy sªowo kodowe, zakªadamy,»e nie wyst piª bª d transmisji; 1 ang. maximum likelihood decoding 33

34 je±li otrzymane sªowo nie nale»y do kodu, dekodujemy je jako sªowo kodowe, które jest najbli»ej otrzymanego w sensie odlegªo±ci Hamminga. Je»eli mamy wi cej ni» jeden wybór, wybieramy losowo. Je±li otrzymane sªowo nie jest sªowem kodowym, jeste±my pewni,»e wyst piª bª d. Mamy wówczas dwa wyj±cia: zawiadomi o tym nadawc i poprosi o ponown transmisj, lub te» poprawi bª d stosuj c zasad MLD. Mówimy,»e kod wykrywa t bª dów, je±li dla dowolnego sªowa kodowego a i ka»dego sªowa a' otrzymanego z a przez zmian co najwy»ej t bitów, a' nie jest sªowem kodowym. Mówimy,»e kod poprawia t bª dów, je»eli dla dowolnego sªowa kodowego a i ka»dego sªowa a' otrzymanego z a przez zmian co najwy»ej t bitów, procedura MLD dekodowania a' wiedzie jednoznacznie do a. 5.5 Wykrywanie i poprawianie bª dów Aby powi za wykrywanie i poprawianie bª dów z odlegªo±ci Hamminga, potrzebna nam b dzie nast puj ca denicja. Minimaln odlegªo±ci d(k) dla nietrywialnego kodu K nazywamy najmniejsz niezerow odlegªo± Hamminga pomi dzy dwoma ró»nymi sªowami kodowymi. d(k) = inf {d(a, b) : K a b K}. 5.5 Twierdzenie. Kod K wykrywa t bª dów wtedy i tylko wtedy, gdy d(k) > t. Dowód. Zaªó»my najpierw,»e d(k) > t. Je»eli sªowo a' zostaªo otrzymane ze sªowa kodowego a przez zmian t bitów, to d(a, a') = t < d(k). Zatem a' nie mo»e by sªowem kodowym. Zaªó»my teraz, nie wprost,»e d(k) t. Niech a oraz a' b d takimi sªowami kodowymi,»e d(k) = d(a, a') t. Je±li sªowo a' powstaªo z wysªanego sªowa a poprzez znieksztaªcenie co najwy»ej t bitów, to poniewa» a' jest sªowem kodowym, bª d pozostaje nie wykryty. Udowodnimy teraz podobne twierdzenie na temat poprawiania bª dów. 5.6 Twierdzenie. Kod K poprawia t bª dów wtedy i tylko wtedy, gdy d(k) > 2t. 34

35 Dowód. Zaªó»my,»e d(k) > 2t, a jest sªowem kodowym oraz a' otrzymali±my z a przez zmian co najwy»ej t symboli. Zaªó»my,»e procedura MLD dla sªowa a' prowadzi do sªowa b K. Wówczas Z drugiej strony jednak, Zatem d(a, b) d(a, a') + d(a', b). d(a, b) d(k) > 2t. d(a', b) d(a, b) d(a, a') > 2t t = t d(a, a'). Otrzymana nierówno± daje sprzeczno±, poniewa» b jest dalej ni» a od a'. Zaªó»my teraz nie wprost,»e K poprawia t bª dów, ale d(k) 2t. Niech a oraz b b d sªowami kodowymi, dla których d(k) d(a, b)) = u 2t. Oznaczmy przez i 1, i 2,..., i u wszystkie wska¹niki, dla których a i b i. Zaªó»my,»e min(t, u) = v oraz v u v. Zdeniujmy a' nast puj co a i = b i, je»eli i / {i 1, i 2,..., i u } a i = a i, je»eli i {i 1, i 2,..., i v } b i, w przeciwnym wypadku. Wówczas a' ró»ni si od a o dokªadnie u v t bitów. Jednak»e procedura MLD dla a' prowadzi do b. Podobnie post pujemy je±li v u v, tylko w denicji a i zamieniamy a i oraz b i. W obu przypadkach otrzymujemy sprzeczno±. 35

36 Rozdziaª 6 Kody liniowe Jak ju» wiemy, w celu przesªania zakodowanego tekstu dzielimy go na bloki równych dªugo±ci i do ka»dego z tych bloków dodajemy tak zwane bity sprawdzaj ce. Bity te s w ±cisªej zale»no±ci z bitami informacyjnymi, czyli tymi, z których skªadaª si blok przed dodaniem do niego symboli sprawdzaj cych. Wspomniana zale»no± najcz ±ciej jest liniowa i dlatego odpowiadaj cy kod nazwiemy kodem liniowym. W dalszym ci gu rozwa»a b dziemy tylko kody dwójkowe, jednak»e podane denicje i wªasno±ci przenosz si na przypadek ogólny. 6.1 Denicja W naszych rozwa»aniach przyjmiemy,»e alfabet kodowy ma struktur ciaªa (sko«czonego). W dalszym ci gu wykªadu oznaczymy go przez F. Wówczas zbiór w n (F) wszystkich sªów nliterowych daj cych si zapisa za pomoc alfabetu F ma struktur przestrzeni wektorowej nad ciaªem F je»eli dziaªania dodawania wektorów a = a 1 a 2... a n, b = b 1 b 2... b n i mno»enia przez skalar λ okre±limy nast puj co: a + b = (a 1 + b 1 )(a 2 + b 2 )... (a n + b n ) λa = (λa 1 )(λa 2 )... (λa n ). Dodawanie wspóªrz dnych oraz mno»enie przez λ jest dodawaniem i mno»eniem zdeniowanym w ciele F. Kodem liniowym dªugo±ci n nazywamy dowoln podprzestrze«wektorow K przestrzeni w n (F). Je»eli dim K = k, kod K nazywamy liniowym (n, k) 36

37 kodem w alfabecie F. Nie trudno si domy±li,»e wymiar podprzestrzeni K jest liczb bitów informacyjnych. Mo»na te» zauwa»y, jak rozkodowujemy kod liniowy. Mianowicie, je±li otrzymane w wyniku transmisji sªowo w nale»y do podprzestrzeni K, uznajemy,»e bª d nie zostaª popeªniony. W przeciwnym wypadku, sªowo w nale»y do pewnej warstwy s + K o ±tandardowym»eprezentancie. Zatem w s K i w rozkodowujemy wªa±nie jako w s. 6.2 Macierz generuj ca Zajmiemy si teraz zwi zkiem bitów informacyjnych z bitami sprawdzaj - cymi. Czyli sposobem generowania kodu. W przypadku kodów liniowych wykorzystujemy odwzorowanie liniowe z w k (F) do w n (F) czyli mno»enie przez pewn macierz o wymiarach k n o wspóªczynnikach z F. Macierz t nazwiemy macierz generuj c. Aby zdeniowa precyzyjnie to poj cie, przyjmijmy,»e dim K = k oraz u 1 u 2... u k jest blokiem bitów informacyjnych, który chcemy zakodowa. Niech e 1, e 2,..., e k b dzie baz w K. Zatem v K v = k u i e i. (6.1) i=1 Tak wi c bity informacyjne u 1, u 2,..., u k jednoznacznie okre±laj sªowo kodowe v. Macierz generuj c kodu K nazywamy macierz e 1 G = e 2..., (6.2) e k gdzie e 1, e 2,..., e k jest baz w K. Aby otrzyma sªowo kodowe z bitów informacyjnych u 1, u 2,..., u k, mno»ymy [ u1 u 2... u k ] G. (6.3) 6.1 Przykªad. Kod powtórze«k n jest liniowym (n, 1)kodem o macierzy generuj cej G = [ ]. 37

38 6.2 Przykªad. Kod sprawdzaj cy parzysto± Kn jest liniowym (n, n 1) kodem o macierzy generuj cej G = Zauwa»my,»e je±li pomno»ymy macierz generuj c kodu Kn przez transponowan macierz generuj c kodu powtórze«k n, to otrzymamy macierz zerow. Mo»emy wi c przyj,»e oba kody s w opisanym sensie ortogonalne do siebie (macierz zerow otrzymamy tak»e mno» c macierz kodu K n przez transponowan macierz generuj c kodu Kn. 6.3 Przykªad. Macierze generuj ca nie jest okre±lona jednoznacznie. Nie chodzi tu tylko o wybór wektorów bazowych ale i o ich kolejno±. Na przykªad dla kodu K4 (zobacz przykªad 5.2) ma 6 macierzy generuj cych: [ ] [ ] [ ] [ ] [ ] [ Zauwa»my,»e bloki bitów informacyjnych 00, 01, 10 i 11 pomno»one kolejno przez ka»d z powy»szych macierzy daj zbiór {0000, 1000, 0111, 1111}. Przykªadem macierzy generuj cej dla kodu K6 jest macierz Przykªad. Podamy teraz przykªad kodu, który jeszcze si nie pojawiª. Niech r > 1 i s > 1 b d ustalonymi liczbami naturalnymi i niech n = rs. Ka»de sªowo kodowe zapisujemy w postaci macierzy w nast puj cy sposób: W ka»dym z wierszy 1, 2,..., s 1 zapisujemy r 1 bitów informacyjnych. W sumie daje to (r 1)(s 1) bitów informacyjnych. Ostatni bit w wierszu jest bitem, który sprawdza parzysto± sªowa w danym wierszu. 38. ].

WST P DO TEORII INFORMACJI I KODOWANIA. Grzegorz Szkibiel. Wiosna 2013/14

WST P DO TEORII INFORMACJI I KODOWANIA. Grzegorz Szkibiel. Wiosna 2013/14 WST P DO TEORII INFORMACJI I KODOWANIA Grzegorz Szkibiel Wiosna 2013/14 Spis tre±ci 1 Kodowanie i dekodowanie 4 1.1 Kodowanie a szyfrowanie..................... 4 1.2 Podstawowe poj cia........................

Bardziej szczegółowo

WST P DO TEORII INFORMACJI I KODOWANIA. Grzegorz Szkibiel. Wiosna 2013/14

WST P DO TEORII INFORMACJI I KODOWANIA. Grzegorz Szkibiel. Wiosna 2013/14 WST P DO TEORII INFORMACJI I KODOWANIA Grzegorz Szkibiel Wiosna 2013/14 Spis tre±ci 1 Kodowanie i dekodowanie 4 1.1 Kodowanie a szyfrowanie..................... 4 1.2 Podstawowe poj cia........................

Bardziej szczegółowo

WST P DO TEORII INFORMACJI I KODOWANIA. Grzegorz Szkibiel. Wiosna 2013/14

WST P DO TEORII INFORMACJI I KODOWANIA. Grzegorz Szkibiel. Wiosna 2013/14 WST P DO TEORII INFORMACJI I KODOWANIA Grzegorz Szkibiel Wiosna 2013/14 Spis tre±ci 1 Kodowanie i dekodowanie 4 1.1 Kodowanie a szyfrowanie..................... 4 1.2 Podstawowe poj cia........................

Bardziej szczegółowo

WST P DO TEORII INFORMACJI I KODOWANIA. Grzegorz Szkibiel. Wiosna 2013/14

WST P DO TEORII INFORMACJI I KODOWANIA. Grzegorz Szkibiel. Wiosna 2013/14 WST P DO TEORII INFORMACJI I KODOWANIA Grzegorz Szkibiel Wiosna 203/4 Spis tre±ci Kodowanie i dekodowanie 4. Kodowanie a szyfrowanie..................... 4.2 Podstawowe poj cia........................

Bardziej szczegółowo

1 Kodowanie i dekodowanie

1 Kodowanie i dekodowanie 1 Kodowanie i dekodowanie Teoria informacji zajmuje si sposobami gromadzenia, przechowywania oraz przesyªania informacji. W tym celu, a tak»e dla ochrony danych informacje kodujemy. Rozmowa telefoniczna,

Bardziej szczegółowo

Semestr letni 2014/15

Semestr letni 2014/15 . Przyjmijmy,»e chcemy u»y alfabetu Morse'a {,, _} by zakodowa alfabet A B C D E F G H I J K L M N O P Q R S T U V W X Y Z () kodem blokowym. Jaka jest najmniejsza dªugo± takiego kodu? 2. Zakoduj alfabet

Bardziej szczegółowo

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15 ARYTMETYKA MODULARNA Grzegorz Szkibiel Wiosna 2014/15 Spis tre±ci 1 Denicja kongruencji i jej podstawowe wªasno±ci 3 2 Systemy pozycyjne 8 3 Elementy odwrotne 12 4 Pewne zastosowania elementów odwrotnych

Bardziej szczegółowo

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15 ARYTMETYKA MODULARNA Grzegorz Szkibiel Wiosna 2014/15 Spis tre±ci 1 Denicja kongruencji i jej podstawowe wªasno±ci 3 2 Systemy pozycyjne 8 3 Elementy odwrotne 12 4 Pewne zastosowania elementów odwrotnych

Bardziej szczegółowo

XVII Warmi«sko-Mazurskie Zawody Matematyczne

XVII Warmi«sko-Mazurskie Zawody Matematyczne 1 XVII Warmi«sko-Mazurskie Zawody Matematyczne Kategoria: klasa VIII szkoªy podstawowej i III gimnazjum Olsztyn, 16 maja 2019r. Zad. 1. Udowodnij,»e dla dowolnych liczb rzeczywistych x, y, z speªniaj cych

Bardziej szczegółowo

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15 ARYTMETYKA MODULARNA Grzegorz Szkibiel Wiosna 2014/15 Spis tre±ci 1 Denicja kongruencji i jej podstawowe wªasno±ci 3 2 Systemy pozycyjne 8 3 Elementy odwrotne 12 4 Pewne zastosowania elementów odwrotnych

Bardziej szczegółowo

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15 ARYTMETYKA MODULARNA Grzegorz Szkibiel Wiosna 2014/15 Spis tre±ci 1 Denicja kongruencji i jej podstawowe wªasno±ci 3 2 Systemy pozycyjne 8 3 Elementy odwrotne 12 4 Pewne zastosowania elementów odwrotnych

Bardziej szczegółowo

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15 ARYTMETYKA MODULARNA Grzegorz Szkibiel Wiosna 2014/15 Spis tre±ci 1 Denicja kongruencji i jej podstawowe wªasno±ci 3 2 Systemy pozycyjne 8 3 Elementy odwrotne 12 4 Pewne zastosowania elementów odwrotnych

Bardziej szczegółowo

0 + 0 = 0, = 1, = 1, = 0.

0 + 0 = 0, = 1, = 1, = 0. 5 Kody liniowe Jak już wiemy, w celu przesłania zakodowanego tekstu dzielimy go na bloki i do każdego z bloków dodajemy tak zwane bity sprawdzające. Bity te są w ścisłej zależności z bitami informacyjnymi,

Bardziej szczegółowo

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15 ARYTMETYKA MODULARNA Grzegorz Szkibiel Wiosna 2014/15 Spis tre±ci 1 Denicja kongruencji i jej podstawowe wªasno±ci 3 2 Systemy pozycyjne 8 3 Elementy odwrotne 12 4 Pewne zastosowania elementów odwrotnych

Bardziej szczegółowo

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15 ARYTMETYKA MODULARNA Grzegorz Szkibiel Wiosna 2014/15 Spis tre±ci 1 Denicja kongruencji i jej podstawowe wªasno±ci 3 2 Systemy pozycyjne 8 3 Elementy odwrotne 12 4 Pewne zastosowania elementów odwrotnych

Bardziej szczegółowo

Metody dowodzenia twierdze«

Metody dowodzenia twierdze« Metody dowodzenia twierdze«1 Metoda indukcji matematycznej Je±li T (n) jest form zdaniow okre±lon w zbiorze liczb naturalnych, to prawdziwe jest zdanie (T (0) n N (T (n) T (n + 1))) n N T (n). 2 W przypadku

Bardziej szczegółowo

O pewnym zadaniu olimpijskim

O pewnym zadaniu olimpijskim O pewnym zadaniu olimpijskim Michaª Seweryn, V LO w Krakowie opiekun pracy: dr Jacek Dymel Problem pocz tkowy Na drugim etapie LXII Olimpiady Matematycznej pojawiª si nast puj cy problem: Dla ka»dej liczby

Bardziej szczegółowo

Ciaªa i wielomiany. 1 Denicja ciaªa. Ciaªa i wielomiany 1

Ciaªa i wielomiany. 1 Denicja ciaªa. Ciaªa i wielomiany 1 Ciaªa i wielomiany 1 Ciaªa i wielomiany 1 Denicja ciaªa Niech F b dzie zbiorem, i niech + (dodawanie) oraz (mno»enie) b d dziaªaniami na zbiorze F. Denicja. Zbiór F wraz z dziaªaniami + i nazywamy ciaªem,

Bardziej szczegółowo

Relacj binarn okre±lon w zbiorze X nazywamy podzbiór ϱ X X.

Relacj binarn okre±lon w zbiorze X nazywamy podzbiór ϱ X X. Relacje 1 Relacj n-argumentow nazywamy podzbiór ϱ X 1 X 2... X n. Je±li ϱ X Y jest relacj dwuargumentow (binarn ), to zamiast (x, y) ϱ piszemy xϱy. Relacj binarn okre±lon w zbiorze X nazywamy podzbiór

Bardziej szczegółowo

JAO - J zyki, Automaty i Obliczenia - Wykªad 1. JAO - J zyki, Automaty i Obliczenia - Wykªad 1

JAO - J zyki, Automaty i Obliczenia - Wykªad 1. JAO - J zyki, Automaty i Obliczenia - Wykªad 1 J zyki formalne i operacje na j zykach J zyki formalne s abstrakcyjnie zbiorami sªów nad alfabetem sko«czonym Σ. J zyk formalny L to opis pewnego problemu decyzyjnego: sªowa to kody instancji (wej±cia)

Bardziej szczegółowo

1 Metody iteracyjne rozwi zywania równania f(x)=0

1 Metody iteracyjne rozwi zywania równania f(x)=0 1 Metody iteracyjne rozwi zywania równania f()=0 1.1 Metoda bisekcji Zaªó»my,»e funkcja f jest ci gªa w [a 0, b 0 ]. Pierwiastek jest w przedziale [a 0, b 0 ] gdy f(a 0 )f(b 0 ) < 0. (1) Ustalmy f(a 0

Bardziej szczegółowo

A = n. 2. Ka»dy podzbiór zbioru sko«czonego jest zbiorem sko«czonym. Dowody tych twierdze«(elementarne, lecz nieco nu» ce) pominiemy.

A = n. 2. Ka»dy podzbiór zbioru sko«czonego jest zbiorem sko«czonym. Dowody tych twierdze«(elementarne, lecz nieco nu» ce) pominiemy. Logika i teoria mnogo±ci, konspekt wykªad 12 Teoria mocy, cz ± II Def. 12.1 Ka»demu zbiorowi X przyporz dkowujemy oznaczany symbolem X obiekt zwany liczb kardynaln (lub moc zbioru X) w taki sposób,»e ta

Bardziej szczegółowo

Metodydowodzenia twierdzeń

Metodydowodzenia twierdzeń 1 Metodydowodzenia twierdzeń Przez zdanie rozumiemy dowolne stwierdzenie, które jest albo prawdziwe, albo faªszywe (nie mo»e by ono jednocze±nie prawdziwe i faªszywe). Tradycyjnie b dziemy u»ywali maªych

Bardziej szczegółowo

PRZYPOMNIENIE Ka»d przestrze«wektorow V, o wymiarze dim V = n < nad ciaªem F mo»na jednoznacznie odwzorowa na przestrze«f n n-ek uporz dkowanych:

PRZYPOMNIENIE Ka»d przestrze«wektorow V, o wymiarze dim V = n < nad ciaªem F mo»na jednoznacznie odwzorowa na przestrze«f n n-ek uporz dkowanych: Plan Spis tre±ci 1 Homomorzm 1 1.1 Macierz homomorzmu....................... 2 1.2 Dziaªania............................... 3 2 Ukªady równa«6 3 Zadania 8 1 Homomorzm PRZYPOMNIENIE Ka»d przestrze«wektorow

Bardziej szczegółowo

Przekroje Dedekinda 1

Przekroje Dedekinda 1 Przekroje Dedekinda 1 O liczbach wymiernych (tj. zbiorze Q) wiemy,»e: 1. zbiór Q jest uporz dkowany relacj mniejszo±ci < ; 2. zbiór liczb wymiernych jest g sty, tzn.: p, q Q : p < q w : p < w < q 3. 2

Bardziej szczegółowo

ANALIZA NUMERYCZNA. Grzegorz Szkibiel. Wiosna 2014/15

ANALIZA NUMERYCZNA. Grzegorz Szkibiel. Wiosna 2014/15 ANALIZA NUMERYCZNA Grzegorz Szkibiel Wiosna 2014/15 Spis tre±ci 1 Metoda Eulera 3 1.1 zagadnienia brzegowe....................... 3 1.2 Zastosowanie ró»niczki...................... 4 1.3 Output do pliku

Bardziej szczegółowo

1 Bª dy i arytmetyka zmiennopozycyjna

1 Bª dy i arytmetyka zmiennopozycyjna 1 Bª dy i arytmetyka zmiennopozycyjna Liczby w pami ci komputera przedstawiamy w ukªadzie dwójkowym w postaci zmiennopozycyjnej Oznacza to,»e s one postaci ±m c, 01 m < 1, c min c c max, (1) gdzie m nazywamy

Bardziej szczegółowo

Macierze i Wyznaczniki

Macierze i Wyznaczniki Macierze i Wyznaczniki Kilka wzorów i informacji pomocniczych: Denicja 1. Tablic nast puj cej postaci a 11 a 12... a 1n a 21 a 22... a 2n A =... a m1 a m2... a mn nazywamy macierz o m wierszach i n kolumnach,

Bardziej szczegółowo

Wybrane poj cia i twierdzenia z wykªadu z teorii liczb

Wybrane poj cia i twierdzenia z wykªadu z teorii liczb Wybrane poj cia i twierdzenia z wykªadu z teorii liczb 1. Podzielno± Przedmiotem bada«teorii liczb s wªasno±ci liczb caªkowitych. Zbiór liczb caªkowitych oznacza b dziemy symbolem Z. Zbiór liczb naturalnych

Bardziej szczegółowo

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15 ARYTMETYKA MODULARNA Grzegorz Szkibiel Wiosna 2014/15 Spis tre±ci 1 Denicja kongruencji i jej podstawowe wªasno±ci 3 2 Systemy pozycyjne 8 3 Elementy odwrotne 12 4 Pewne zastosowania elementów odwrotnych

Bardziej szczegółowo

Elementy geometrii w przestrzeni R 3

Elementy geometrii w przestrzeni R 3 Elementy geometrii w przestrzeni R 3 Z.Šagodowski Politechnika Lubelska 29 maja 2016 Podstawowe denicje Wektorem nazywamy uporz dkowan par punktów (A,B) z których pierwszy nazywa si pocz tkiem a drugi

Bardziej szczegółowo

Macierze i Wyznaczniki

Macierze i Wyznaczniki dr Krzysztof yjewski Mechatronika; S-I.in». 5 pa¹dziernika 6 Macierze i Wyznaczniki Kilka wzorów i informacji pomocniczych: Denicja. Tablic nast puj cej postaci a a... a n a a... a n A =... a m a m...

Bardziej szczegółowo

Materiaªy do Repetytorium z matematyki

Materiaªy do Repetytorium z matematyki Materiaªy do Repetytorium z matematyki 0/0 Dziaªania na liczbach wymiernych i niewymiernych wiczenie Obliczy + 4 + 4 5. ( + ) ( 4 + 4 5). ( : ) ( : 4) 4 5 6. 7. { [ 7 4 ( 0 7) ] ( } : 5) : 0 75 ( 8) (

Bardziej szczegółowo

Wykªad 4. Funkcje wielu zmiennych.

Wykªad 4. Funkcje wielu zmiennych. Wykªad jest prowadzony w oparciu o podr cznik Analiza matematyczna 2. Denicje, twierdzenia, wzory M. Gewerta i Z. Skoczylasa. Wykªad 4. Funkcje wielu zmiennych. Zbiory na pªaszczy¹nie i w przestrzeni.

Bardziej szczegółowo

Macierze. 1 Podstawowe denicje. 2 Rodzaje macierzy. Denicja

Macierze. 1 Podstawowe denicje. 2 Rodzaje macierzy. Denicja Macierze 1 Podstawowe denicje Macierz wymiaru m n, gdzie m, n N nazywamy tablic liczb rzeczywistych (lub zespolonych) postaci a 11 a 1j a 1n A = A m n = [a ij ] m n = a i1 a ij a in a m1 a mj a mn W macierzy

Bardziej szczegółowo

2 Liczby rzeczywiste - cz. 2

2 Liczby rzeczywiste - cz. 2 2 Liczby rzeczywiste - cz. 2 W tej lekcji omówimy pozostaªe tematy zwi zane z liczbami rzeczywistymi. 2. Przedziaªy liczbowe Wyró»niamy nast puj ce rodzaje przedziaªów liczbowych: (a) przedziaªy ograniczone:

Bardziej szczegółowo

X WARMI SKO-MAZURSKIE ZAWODY MATEMATYCZNE 18 maja 2012 (szkoªy ponadgimnazjalne)

X WARMI SKO-MAZURSKIE ZAWODY MATEMATYCZNE 18 maja 2012 (szkoªy ponadgimnazjalne) X WARMI SKO-MAZURSKIE ZAWODY MATEMATYCZNE 18 maja 2012 (szkoªy ponadgimnazjalne) Zadanie 1 Obecnie u»ywane tablice rejestracyjne wydawane s od 1 maja 2000r. Numery rejestracyjne aut s tworzone ze zbioru

Bardziej szczegółowo

Podstawy matematyki dla informatyków

Podstawy matematyki dla informatyków Podstawy matematyki dla informatyków Wykªad 6 10 listopada 2011 W poprzednim odcinku... Zbiory A i B s równoliczne (tej samej mocy ), gdy istnieje bijekcja f : A 1 1 B. Piszemy A B lub A = B. na Moc zbioru

Bardziej szczegółowo

istnienie elementu neutralnego dodawania (zera): 0 K a K a + 0 = a, istnienie elementu neutralnego mno»enia (jedynki): 1 K a K a 1 = a,

istnienie elementu neutralnego dodawania (zera): 0 K a K a + 0 = a, istnienie elementu neutralnego mno»enia (jedynki): 1 K a K a 1 = a, Ciaªo Denicja. Zbiór K z dziaªaniami dodawania + oraz mno»enia (których argumentami s dwa elementy z tego zbioru, a warto±ciami elementy z tego zbioru) nazywamy ciaªem, je±li zawiera co najmniej dwa elementy

Bardziej szczegółowo

Teoria grafów i jej zastosowania. 1 / 126

Teoria grafów i jej zastosowania. 1 / 126 Teoria grafów i jej zastosowania. 1 / 126 Mosty królewieckie W Królewcu, na rzece Pregole znajduj si dwie wyspy poª czone ze sob, a tak»e z brzegami za pomoc siedmiu mostów, tak jak pokazuje rysunek 2

Bardziej szczegółowo

Wektory w przestrzeni

Wektory w przestrzeni Wektory w przestrzeni Informacje pomocnicze Denicja 1. Wektorem nazywamy uporz dkowan par punktów. Pierwszy z tych punktów nazywamy pocz tkiem wektora albo punktem zaczepienia wektora, a drugi - ko«cem

Bardziej szczegółowo

Zbiory i odwzorowania

Zbiory i odwzorowania Zbiory i odwzorowania 1 Sposoby okre±lania zbiorów 1) Zbiór wszystkich elementów postaci f(t), gdzie t przebiega zbiór T : {f(t); t T }. 2) Zbiór wszystkich elementów x zbioru X speªniaj cych warunek ϕ(x):

Bardziej szczegółowo

Elementy geometrii analitycznej w przestrzeni

Elementy geometrii analitycznej w przestrzeni Wykªad 3 Elementy geometrii analitycznej w przestrzeni W wykªadzie tym wi kszy nacisk zostaª poªo»ony raczej na intuicyjne rozumienie deniowanych poj, ni» ±cisªe ich zdeniowanie. Dlatego niniejszy wykªad

Bardziej szczegółowo

Ukªady równa«liniowych

Ukªady równa«liniowych dr Krzysztof yjewski Mechatronika; S-I 0 in» 7 listopada 206 Ukªady równa«liniowych Informacje pomocnicze Denicja Ogólna posta ukªadu m równa«liniowych z n niewiadomymi x, x, x n, gdzie m, n N jest nast

Bardziej szczegółowo

Maszyny Turinga i problemy nierozstrzygalne. Maszyny Turinga i problemy nierozstrzygalne

Maszyny Turinga i problemy nierozstrzygalne. Maszyny Turinga i problemy nierozstrzygalne Maszyny Turinga Maszyna Turinga jest automatem ta±mowym, skª da si z ta±my (tablicy symboli) potencjalnie niesko«czonej w prawo, zakªadamy,»e w prawie wszystkich (tzn. wszystkich poza sko«czon liczb )

Bardziej szczegółowo

Zad. 1 Zad. 2 Zad. 3 Zad. 4 Zad. 5 SUMA. W obu podpunktach zakªadamy,»e kolejno± ta«ców jest wa»na.

Zad. 1 Zad. 2 Zad. 3 Zad. 4 Zad. 5 SUMA. W obu podpunktach zakªadamy,»e kolejno± ta«ców jest wa»na. Zad. 1 Zad. 2 Zad. 3 Zad. 4 Zad. 5 SUMA Zadanko 1 (12p.) Na imprezie w Noc Kupaªy s 44 dziewczyny. Nosz one 11 ró»nych imion, a dla ka»dego imienia s dokªadnie 4 dziewczyny o tym imieniu przy czym ka»da

Bardziej szczegółowo

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15 ARYTMETYKA MODULARNA Grzegorz Szkibiel Wiosna 2014/15 Spis tre±ci 1 Denicja kongruencji i jej podstawowe wªasno±ci 3 2 Systemy pozycyjne 8 3 Elementy odwrotne 12 4 Pewne zastosowania elementów odwrotnych

Bardziej szczegółowo

Wst p teoretyczny do wiczenia nr 3 - Elementy kombinatoryki

Wst p teoretyczny do wiczenia nr 3 - Elementy kombinatoryki Wst p teoretyczny do wiczenia nr 3 - Elementy kombinatoryki 1 Zadania na wiczenia nr 3 - Elementy kombinatoryki Zad. 1. Ile istnieje ró»nych liczb czterocyfrowych zakªadaj c,»e cyfry nie powtarzaj si a

Bardziej szczegółowo

Funkcje, wielomiany. Informacje pomocnicze

Funkcje, wielomiany. Informacje pomocnicze Funkcje, wielomiany Informacje pomocnicze Przydatne wzory: (a + b) 2 = a 2 + 2ab + b 2 (a b) 2 = a 2 2ab + b 2 (a + b) 3 = a 3 + 3a 2 b + 3ab 2 + b 3 (a b) 3 = a 3 3a 2 b + 3ab 2 b 3 a 2 b 2 = (a + b)(a

Bardziej szczegółowo

x y x y x y x + y x y

x y x y x y x + y x y Algebra logiki 1 W zbiorze {0, 1} okre±lamy dziaªania dwuargumentowe,, +, oraz dziaªanie jednoargumentowe ( ). Dziaªanie x + y nazywamy dodawaniem modulo 2, a dziaªanie x y nazywamy kresk Sheera. x x 0

Bardziej szczegółowo

Matematyka wykªad 1. Macierze (1) Andrzej Torój. 17 wrze±nia 2011. Wy»sza Szkoªa Zarz dzania i Prawa im. H. Chodkowskiej

Matematyka wykªad 1. Macierze (1) Andrzej Torój. 17 wrze±nia 2011. Wy»sza Szkoªa Zarz dzania i Prawa im. H. Chodkowskiej Matematyka wykªad 1 Macierze (1) Andrzej Torój Wy»sza Szkoªa Zarz dzania i Prawa im. H. Chodkowskiej 17 wrze±nia 2011 Plan wykªadu 1 2 3 4 5 Plan prezentacji 1 2 3 4 5 Kontakt moja strona internetowa:

Bardziej szczegółowo

Lekcja 9 - LICZBY LOSOWE, ZMIENNE

Lekcja 9 - LICZBY LOSOWE, ZMIENNE Lekcja 9 - LICZBY LOSOWE, ZMIENNE I STAŠE 1 Liczby losowe Czasami spotkamy si z tak sytuacj,»e b dziemy potrzebowa by program za nas wylosowaª jak ± liczb. U»yjemy do tego polecenia: - liczba losowa Sprawd¹my

Bardziej szczegółowo

Czy funkcja zadana wzorem f(x) = ex e x. 1 + e. = lim. e x + e x lim. lim. 2 dla x = 1 f(x) dla x (0, 1) e e 1 dla x = 1

Czy funkcja zadana wzorem f(x) = ex e x. 1 + e. = lim. e x + e x lim. lim. 2 dla x = 1 f(x) dla x (0, 1) e e 1 dla x = 1 II KOLOKWIUM Z AM M1 - GRUPA A - 170101r Ka»de zadanie jest po 5 punktów Ostatnie zadanie jest nieobowi zkowe, ale mo»e dostarczy dodatkowe 5 punktów pod warunkiem rozwi zania pozostaªych zada«zadanie

Bardziej szczegółowo

Wykªad 7. Ekstrema lokalne funkcji dwóch zmiennych.

Wykªad 7. Ekstrema lokalne funkcji dwóch zmiennych. Wykªad jest prowadzony w oparciu o podr cznik Analiza matematyczna 2. Denicje, twierdzenia, wzory M. Gewerta i Z. Skoczylasa. Wykªad 7. Ekstrema lokalne funkcji dwóch zmiennych. Denicja Mówimy,»e funkcja

Bardziej szczegółowo

WST P DO KRYPTOGRAFII. Grzegorz Szkibiel. Jesie«2012/13

WST P DO KRYPTOGRAFII. Grzegorz Szkibiel. Jesie«2012/13 WST P DO KRYPTOGRAFII Grzegorz Szkibiel Jesie«2012/13 Spis tre±ci 1 Kryptograa a steganograa 5 1.1 Steganograa........................... 6 1.2 Szyfry przestawieniowe...................... 8 1.3 Systemy

Bardziej szczegółowo

ZADANIA. Maciej Zakarczemny

ZADANIA. Maciej Zakarczemny ZADANIA Maciej Zakarczemny 2 Spis tre±ci 1 Algebra 5 2 Analiza 7 2.1 Granice iterowane, granica podwójna funkcji dwóch zmiennych....... 7 2.2 Caªki powierzchniowe zorientowane...................... 8 2.2.1

Bardziej szczegółowo

Zdzisªaw Dzedzej, Katedra Analizy Nieliniowej pok. 611 Kontakt:

Zdzisªaw Dzedzej, Katedra Analizy Nieliniowej pok. 611 Kontakt: Zdzisªaw Dzedzej, Katedra Analizy Nieliniowej pok. 611 Kontakt: zdzedzej@mif.pg.gda.pl www.mif.pg.gda.pl/homepages/zdzedzej () 5 pa¹dziernika 2016 1 / 1 Literatura podstawowa R. Rudnicki, Wykªady z analizy

Bardziej szczegółowo

Uczenie Wielowarstwowych Sieci Neuronów o

Uczenie Wielowarstwowych Sieci Neuronów o Plan uczenie neuronu o ci gªej funkcji aktywacji uczenie jednowarstwowej sieci neuronów o ci gªej funkcji aktywacji uczenie sieci wielowarstwowej - metoda propagacji wstecznej neuronu o ci gªej funkcji

Bardziej szczegółowo

Logika dla matematyków i informatyków Wykªad 1

Logika dla matematyków i informatyków Wykªad 1 Logika dla matematyków i informatyków Wykªad 1 Stanisªaw Goldstein Wydziaª Matematyki i Informatyki UŠ 16 lutego 2016 Wszech±wiat matematyczny skªada si wyª cznie ze zbiorów. Liczby naturalne s zdeniowane

Bardziej szczegółowo

WST P DO TEORII INFORMACJI I KODOWANIA. Grzegorz Szkibiel. Wiosna 2014/15

WST P DO TEORII INFORMACJI I KODOWANIA. Grzegorz Szkibiel. Wiosna 2014/15 WST P DO TEORII INFORMACJI I KODOWANIA Grzegorz Szkbel Wosna 204/5 Sps tre±c Kodowane dekodowane 4. Kodowane a szyfrowane..................... 4.2 Podstawowe poj ca........................ 5.3 Dekodowane

Bardziej szczegółowo

Zadania z kolokwiów ze Wst pu do Informatyki. Semestr II.

Zadania z kolokwiów ze Wst pu do Informatyki. Semestr II. Zadania z kolokwiów ze Wst pu do Informatyki. Semestr II. Poni»sze zadania s wyborem zada«z kolokwiów ze Wst pu do Informatyki jakie przeprowadziªem w ci gu ostatnich lat. Marek Zawadowski Zadanie 1 Napisz

Bardziej szczegółowo

Matematyka dyskretna dla informatyków

Matematyka dyskretna dla informatyków Matematyka dyskretna dla informatyków Cz ± I: Elementy kombinatoryki Jerzy Jaworski Zbigniew Palka Jerzy Szyma«ski Uniwersytet im. Adama Mickiewicza Pozna«2007 4 Zależności rekurencyjne Wiele zale»no±ci

Bardziej szczegółowo

c Marcin Sydow Spójno± Grafy i Zastosowania Grafy Eulerowskie 2: Drogi i Cykle Grafy Hamiltonowskie Podsumowanie

c Marcin Sydow Spójno± Grafy i Zastosowania Grafy Eulerowskie 2: Drogi i Cykle Grafy Hamiltonowskie Podsumowanie 2: Drogi i Cykle Spis Zagadnie«drogi i cykle spójno± w tym sªaba i silna k-spójno± (wierzchoªkowa i kraw dziowa) dekompozycja grafu na bloki odlegªo±ci w grae i poj cia pochodne grafy Eulera i Hamiltona

Bardziej szczegółowo

Wst p do informatyki. Systemy liczbowe. Piotr Fulma«ski. 21 pa¹dziernika 2010. Wydziaª Matematyki i Informatyki, Uniwersytet Šódzki, Polska

Wst p do informatyki. Systemy liczbowe. Piotr Fulma«ski. 21 pa¹dziernika 2010. Wydziaª Matematyki i Informatyki, Uniwersytet Šódzki, Polska Wst p do informatyki Systemy liczbowe Piotr Fulma«ski Wydziaª Matematyki i Informatyki, Uniwersytet Šódzki, Polska 21 pa¹dziernika 2010 Spis tre±ci 1 Liczby i ich systemy 2 Rodzaje systemów liczbowych

Bardziej szczegółowo

Arkusz maturalny. Šukasz Dawidowski. 25 kwietnia 2016r. Powtórki maturalne

Arkusz maturalny. Šukasz Dawidowski. 25 kwietnia 2016r. Powtórki maturalne Arkusz maturalny Šukasz Dawidowski Powtórki maturalne 25 kwietnia 2016r. Odwrotno±ci liczby rzeczywistej 1. 9 8 2. 0, (1) 3. 8 9 4. 0, (8) 3 4 4 4 1 jest liczba Odwrotno±ci liczby rzeczywistej 3 4 4 4

Bardziej szczegółowo

c Marcin Sydow Przepªywy Grafy i Zastosowania Podsumowanie 12: Przepªywy w sieciach

c Marcin Sydow Przepªywy Grafy i Zastosowania Podsumowanie 12: Przepªywy w sieciach 12: w sieciach Spis zagadnie«sieci przepªywowe przepªywy w sieciach ±cie»ka powi kszaj ca tw. Forda-Fulkersona Znajdowanie maksymalnego przepªywu Zastosowania przepªywów Sieci przepªywowe Sie przepªywowa

Bardziej szczegółowo

Matematyka dyskretna dla informatyków

Matematyka dyskretna dla informatyków UNIWERSYTET IM. ADAMA MICKIEWICZA W POZNANIU Jerzy Jaworski, Zbigniew Palka, Jerzy Szyma«ski Matematyka dyskretna dla informatyków uzupeænienia Pozna«007 A Notacja asymptotyczna Badaj c du»e obiekty kombinatoryczne

Bardziej szczegółowo

ELEMENTARNA TEORIA LICZB. 1. Podzielno±

ELEMENTARNA TEORIA LICZB. 1. Podzielno± ELEMENTARNA TEORIA LICZB IZABELA AGATA MALINOWSKA N = {1, 2,...} 1. Podzielno± Denicja 1.1. Niepusty podzbiór A zbioru liczb naturalnych jest ograniczony, je»eli istnieje taka liczba naturalna n 0,»e m

Bardziej szczegółowo

KLASYCZNE ZDANIA KATEGORYCZNE. ogólne - orzekaj co± o wszystkich desygnatach podmiotu szczegóªowe - orzekaj co± o niektórych desygnatach podmiotu

KLASYCZNE ZDANIA KATEGORYCZNE. ogólne - orzekaj co± o wszystkich desygnatach podmiotu szczegóªowe - orzekaj co± o niektórych desygnatach podmiotu ➏ Filozoa z elementami logiki Na podstawie wykªadów dra Mariusza Urba«skiego Sylogistyka Przypomnij sobie: stosunki mi dzy zakresami nazw KLASYCZNE ZDANIA KATEGORYCZNE Trzy znaczenia sªowa jest trzy rodzaje

Bardziej szczegółowo

Rzut oka na zagadnienia zwi zane z projektowaniem list rozkazów

Rzut oka na zagadnienia zwi zane z projektowaniem list rozkazów Rzut oka na zagadnienia zwi zane z projektowaniem list rozkazów 1 Wst p Przypomnijmy,»e komputer skªada si z procesora, pami ci, systemu wej±cia-wyj±cia oraz po- ª cze«mi dzy nimi. W procesorze mo»emy

Bardziej szczegółowo

Liczby zmiennoprzecinkowe

Liczby zmiennoprzecinkowe Liczby zmiennoprzecinkowe 1 Liczby zmiennoprzecinkowe Najprostszym sposobem reprezentowania liczb rzeczywistych byªaby reprezentacja staªopozycyjna: zakªadamy,»e mamy n bitów na cz ± caªkowit oraz m na

Bardziej szczegółowo

Vincent Van GOGH: M»czyzna pij cy li»ank kawy. Radosªaw Klimek. J zyk programowania Java

Vincent Van GOGH: M»czyzna pij cy li»ank kawy. Radosªaw Klimek. J zyk programowania Java J zyk programowania JAVA c 2011 Vincent Van GOGH: M»czyzna pij cy li»ank kawy Zadanie 6. Napisz program, który tworzy tablic 30 liczb wstawia do tej tablicy liczby od 0 do 29 sumuje te elementy tablicy,

Bardziej szczegółowo

3. (8 punktów) EGZAMIN MAGISTERSKI, Biomatematyka

3. (8 punktów) EGZAMIN MAGISTERSKI, Biomatematyka EGZAMIN MAGISTERSKI, 26.06.2017 Biomatematyka 1. (8 punktów) Rozwój wielko±ci pewnej populacji jest opisany równaniem: dn dt = rn(t) (1 + an(t), b gdzie N(t) jest wielko±ci populacji w chwili t, natomiast

Bardziej szczegółowo

Ekstremalnie fajne równania

Ekstremalnie fajne równania Ekstremalnie fajne równania ELEMENTY RACHUNKU WARIACYJNEGO Zaczniemy od ogólnych uwag nt. rachunku wariacyjnego, który jest bardzo przydatnym narz dziem mog cym posªu»y do rozwi zywania wielu problemów

Bardziej szczegółowo

Lekcja 8 - ANIMACJA. 1 Polecenia. 2 Typy animacji. 3 Pierwsza animacja - Mrugaj ca twarz

Lekcja 8 - ANIMACJA. 1 Polecenia. 2 Typy animacji. 3 Pierwsza animacja - Mrugaj ca twarz Lekcja 8 - ANIMACJA 1 Polecenia Za pomoc Baltiego mo»emy tworzy animacj, tzn. sprawia by obraz na ekranie wygl daª jakby si poruszaª. Do animowania przedmiotów i tworzenia animacji posªu» nam polecenia

Bardziej szczegółowo

Twierdzenie Wainera. Marek Czarnecki. Warszawa, 3 lipca Wydziaª Filozoi i Socjologii Uniwersytet Warszawski

Twierdzenie Wainera. Marek Czarnecki. Warszawa, 3 lipca Wydziaª Filozoi i Socjologii Uniwersytet Warszawski Twierdzenie Wainera Marek Czarnecki Wydziaª Filozoi i Socjologii Uniwersytet Warszawski Wydziaª Matematyki, Informatyki i Mechaniki Uniwersytet Warszawski Warszawa, 3 lipca 2009 Motywacje Dla dowolnej

Bardziej szczegółowo

Semestr letni 2014/15

Semestr letni 2014/15 Wst p do arytmetyki modularnej zadania 1. Jaki dzie«tygodnia byª 17 stycznia 2003 roku, a jaki b dzie 23 sierpnia 2178 roku? 2. Jaki dzie«tygodnia byª 21 kwietnia 1952 roku? 3. W jaki dzie«odbyªa si bitwa

Bardziej szczegółowo

Liczby zmiennopozycyjne. Kody Hamminga.

Liczby zmiennopozycyjne. Kody Hamminga. Liczby zmiennopozycyjne. Kody Hamminga. 1 Liczby zmiennopozycyjne 1.1 Wprowadzenie Najprostszym sposobem reprezentowania liczb rzeczywistych byªaby reprezentacja staªopozycyjna: zakªadamy,»e mamy n bitów

Bardziej szczegółowo

Wojewódzki Konkurs Matematyczny

Wojewódzki Konkurs Matematyczny Wojewódzki Konkurs Matematyczny dla uczniów gimnazjów ETAP SZKOLNY 16 listopada 2012 Czas 90 minut Instrukcja dla Ucznia 1. Otrzymujesz do rozwi zania 10 zada«zamkni tych oraz 5 zada«otwartych. 2. Obok

Bardziej szczegółowo

2. L(a u) = al( u) dla dowolnych u U i a R. Uwaga 1. Warunki 1., 2. mo»na zast pi jednym warunkiem: L(a u + b v) = al( u) + bl( v)

2. L(a u) = al( u) dla dowolnych u U i a R. Uwaga 1. Warunki 1., 2. mo»na zast pi jednym warunkiem: L(a u + b v) = al( u) + bl( v) Przeksztaªcenia liniowe Def 1 Przeksztaªceniem liniowym (homomorzmem liniowym) rzeczywistych przestrzeni liniowych U i V nazywamy dowoln funkcj L : U V speªniaj c warunki: 1 L( u + v) = L( u) + L( v) dla

Bardziej szczegółowo

Opis matematyczny ukªadów liniowych

Opis matematyczny ukªadów liniowych Rozdziaª 1 Opis matematyczny ukªadów liniowych Autorzy: Alicja Golnik 1.1 Formy opisu ukªadów dynamicznych 1.1.1 Liniowe równanie ró»niczkowe Podstawow metod przedstawienia procesu dynamicznego jest zbiór

Bardziej szczegółowo

ANALIZA MATEMATYCZNA Z ALGEBR

ANALIZA MATEMATYCZNA Z ALGEBR ANALIZA MATEMATYCZNA Z ALGEBR WYKŠAD II Maªgorzata Murat MACIERZ A rzeczywist (zespolon ) o m wierszach i n kolumnach nazywamy przyporz dkowanie ka»dej uporz dkowanej parze liczb naturalnych (i, j), gdzie

Bardziej szczegółowo

Interpolacja funkcjami sklejanymi

Interpolacja funkcjami sklejanymi Interpolacja funkcjami sklejanymi Funkcje sklejane: Zaªó»my,»e mamy n + 1 w zªów t 0, t 1,, t n takich,»e t 0 < t 1 < < t n Dla danej liczby caªkowitej, nieujemnej k funkcj sklejan stopnia k nazywamy tak

Bardziej szczegółowo

Twierdzenie Wedderburna Witold Tomaszewski

Twierdzenie Wedderburna Witold Tomaszewski Twierdzenie Wedderburna Witold Tomaszewski Pier±cie«przemienny P nazywamy dziedzin caªkowito±ci (lub po prostu dziedzin ) je±li nie posiada nietrywialnych dzielników zera. Pier±cie«z jedynk nazywamy pier±cieniem

Bardziej szczegółowo

Równania ró»niczkowe I rz du (RRIR) Twierdzenie Picarda. Anna D browska. WFTiMS. 23 marca 2010

Równania ró»niczkowe I rz du (RRIR) Twierdzenie Picarda. Anna D browska. WFTiMS. 23 marca 2010 WFTiMS 23 marca 2010 Spis tre±ci 1 Denicja 1 (równanie ró»niczkowe pierwszego rz du) Równanie y = f (t, y) (1) nazywamy równaniem ró»niczkowym zwyczajnym pierwszego rz du w postaci normalnej. Uwaga 1 Ogólna

Bardziej szczegółowo

Dokªadny jak komputer?

Dokªadny jak komputer? Dokªadny jak komputer? Czyli dlaczego 2 + 2 = 5? Piotr Fulma«ski Wydziaª Matematyki i Informatyki, Uniwersytet Šódzki, Polska http://math.uni.lodz.pl/~fulmanp/zajecia/prezentacja/festiwalnauki2013/ 17

Bardziej szczegółowo

Lekcja 12 - POMOCNICY

Lekcja 12 - POMOCNICY Lekcja 12 - POMOCNICY 1 Pomocnicy Pomocnicy, jak sama nazwa wskazuje, pomagaj Baltiemu w programach wykonuj c cz ± czynno±ci. S oni szczególnie pomocni, gdy chcemy ci g polece«wykona kilka razy w programie.

Bardziej szczegółowo

Oba zbiory s uporz dkowane liniowo. Badamy funkcj w pobli»u kresów dziedziny. Pewne punkty szczególne (np. zmiana denicji funkcji).

Oba zbiory s uporz dkowane liniowo. Badamy funkcj w pobli»u kresów dziedziny. Pewne punkty szczególne (np. zmiana denicji funkcji). Plan Spis tre±ci 1 Granica 1 1.1 Po co?................................. 1 1.2 Denicje i twierdzenia........................ 4 1.3 Asymptotyka, granice niewªa±ciwe................. 7 2 Asymptoty 8 2.1

Bardziej szczegółowo

Wielomiany o wspóªczynnikach rzeczywistych

Wielomiany o wspóªczynnikach rzeczywistych Wielomiany o wspóªczynnikach rzeczywistych Wielomian: W (x) = a n x n + a n 1 x n 1 + a n 2 x n 2 +... + a 2 x 2 + a 1 x + a 0 wspóªczynniki wielomianu: a 0, a 1, a 2,..., a n 1, a n ; wyraz wolny: a 0

Bardziej szczegółowo

Bash i algorytmy. Elwira Wachowicz. 20 lutego

Bash i algorytmy. Elwira Wachowicz. 20 lutego Bash i algorytmy Elwira Wachowicz elwira@ifd.uni.wroc.pl 20 lutego 2012 Elwira Wachowicz (elwira@ifd.uni.wroc.pl) Bash i algorytmy 20 lutego 2012 1 / 16 Inne przydatne polecenia Polecenie Dziaªanie Przykªad

Bardziej szczegółowo

Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład Kody liniowe - kodowanie w oparciu o macierz parzystości

Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład Kody liniowe - kodowanie w oparciu o macierz parzystości Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład 13 1 Kody liniowe - kodowanie w oparciu o macierz parzystości Przykład Różne macierze parzystości dla kodu powtórzeniowego. Co wiemy z algebry

Bardziej szczegółowo

1 a + b 1 = 1 a + 1 b 1. (a + b 1)(a + b ab) = ab, (a + b)(a + b ab 1) = 0, (a + b)[a(1 b) + (b 1)] = 0,

1 a + b 1 = 1 a + 1 b 1. (a + b 1)(a + b ab) = ab, (a + b)(a + b ab 1) = 0, (a + b)[a(1 b) + (b 1)] = 0, XIII Warmi«sko-Mazurskie Zawody Matematyczne. Olsztyn 2015 Rozwi zania zada«dla szkóª ponadgimnazjalnych ZADANIE 1 Zakªadamy,»e a, b 0, 1 i a + b 1. Wykaza,»e z równo±ci wynika,»e a = -b 1 a + b 1 = 1

Bardziej szczegółowo

Zastosowania matematyki

Zastosowania matematyki Zastosowania matematyki Monika Bartkiewicz 1 / 126 ...czy«cie dobrze i po»yczajcie niczego si nie spodziewaj c(šk. 6,34-35) Zagadnienie pobierania procentu jest tak stare jak gospodarka pieni»na. Procent

Bardziej szczegółowo

Lab. 02: Algorytm Schrage

Lab. 02: Algorytm Schrage Lab. 02: Algorytm Schrage Andrzej Gnatowski 5 kwietnia 2015 1 Opis zadania Celem zadania laboratoryjnego jest zapoznanie si z jednym z przybli»onych algorytmów sªu» cych do szukania rozwi za«znanego z

Bardziej szczegółowo

i, lub, nie Cegieªki buduj ce wspóªczesne procesory. Piotr Fulma«ski 5 kwietnia 2017

i, lub, nie Cegieªki buduj ce wspóªczesne procesory. Piotr Fulma«ski 5 kwietnia 2017 i, lub, nie Cegieªki buduj ce wspóªczesne procesory. Piotr Fulma«ski Uniwersytet Šódzki, Wydziaª Matematyki i Informatyki UŠ piotr@fulmanski.pl http://fulmanski.pl/zajecia/prezentacje/festiwalnauki2017/festiwal_wmii_2017_

Bardziej szczegółowo

Elementarna statystyka

Elementarna statystyka Elementarna statystyka Alexander Bendikov 26 marca 2017 Klasyczny model: eksperyment o jednakowo prawdopodobnych wynikach Zaªo»enia: 1 Przestrze«próbek S ma sko«czenie wiele wyników ω 1, ω 2,..., ω n,

Bardziej szczegółowo

Algebra Liniowa 2. Zadania do samodzielnych wicze«wydziaª Elektroniki, I rok Karina Olszak i Zbigniew Olszak

Algebra Liniowa 2. Zadania do samodzielnych wicze«wydziaª Elektroniki, I rok Karina Olszak i Zbigniew Olszak Algebra Liniowa 2 Zadania do samodzielnych wicze«wydziaª Elektroniki, I rok Karina Olszak i Zbigniew Olszak Podobie«stwo macierzy, diagonalizacja macierzy 1. Znale¹ macierze przeksztaªcenia liniowego T

Bardziej szczegółowo

Podzbiory Symbol Newtona Zasada szuadkowa Dirichleta Zasada wª czania i wyª czania. Ilo± najkrótszych dróg. Kombinatoryka. Magdalena Lema«ska

Podzbiory Symbol Newtona Zasada szuadkowa Dirichleta Zasada wª czania i wyª czania. Ilo± najkrótszych dróg. Kombinatoryka. Magdalena Lema«ska Kombinatoryka Magdalena Lema«ska Zasady zaliczenia przedmiotu Zasady zaliczenia przedmiotu Maksymalna ilo± punktów to 100 punktów = 100 procent. Zasady zaliczenia przedmiotu Maksymalna ilo± punktów to

Bardziej szczegółowo

Liczenie podziaªów liczby: algorytm Eulera

Liczenie podziaªów liczby: algorytm Eulera Liczenie podziaªów liczby: algorytm Eulera Wojciech Rytter Podziaªy liczb s bardzo skomplikowanymi obiektami kombinatorycznymi, przedstawimy dwa algorytmy liczenia takich oblektów. Pierwszy prosty algorytm

Bardziej szczegółowo

Ÿ1 Oznaczenia, poj cia wst pne

Ÿ1 Oznaczenia, poj cia wst pne Ÿ1 Oznaczenia, poj cia wst pne Symbol sumy, j, k Z, j k: k x i = x j + x j+1 + + x k. i=j Przykªad 1.1. Oblicz 5 i=1 2i. Odpowied¹ 1.1. 5 i=1 2i = 2 1 + 2 2 + 2 3 + 2 4 + 2 5 = 2 + 4 + 8 + 16 + 32 = 62.

Bardziej szczegółowo