Kodowanie informacji. Instytut Informatyki UWr Studia wieczorowe. Wykład nr 2: rozszerzone i dynamiczne Huffmana
|
|
- Beata Lipińska
- 5 lat temu
- Przeglądów:
Transkrypt
1 Kodowane nformacj Instytut Informatyk UWr Studa weczorowe Wykład nr 2: rozszerzone dynamczne Huffmana
2 Kod Huffmana - nemłe przypadk... Nech alfabet składa sę z 2 lter: P(a)=1/16 P(b)=15/16 Mamy H(1/16, 15/16) = -1/16*log(1/16)-15/16*log(15/16) 0.34 Natomast algorytm Huffmana daje kod K: K(a)=0 K(b)=1 Czyl S(K) = 1/16*1+15/16*1 = 1... żadnej kompresj, prawe 3 razy gorzej od entrop...
3 Kod Huffmana - rozszerzamy... Dla rozkładu prawdopodobeńtw jak poprzedno: P(A)=1/16 P(B)=15/16 Wprowadźmy rozszerzony alfabet {AA, AB, BB, BA} Para P(para) Kod Huffm AA 1 / AB 15 / BB 225 / BA 15 / średna długość powyższego kodu Huffmana: S(H) = 1/256 * /256 * 3 +15/256 * /256* a entropa: H(1/256, 15/256, 15/256, 225/256) 0.68 Czyl już tylko necałe 2 razy gorzej od entrop.
4 Uogólnjmy rozszerzane... Uogólnamy (dla cągów nezależnych): Dany rozkład prawdopodobeństw P = { p 1,,p n } odpowadający symbolom a 1,,a n k-tym rozszerzenem P k rozkładu P nazywamy rozkład odpowadający wszystkm k-elementowym cągom symbol ze zboru { a 1,,a n } prawdopodobeństwo cągu a 1 a k w rozkładze P k to p 1 *p 2 * *p k Jak zmen sę entropa? rozkład prawdopodobeństwa orygnalnych symbol ne zmenł sę! A zatem zawartość nformacyjna danych równeż ne pownna ulec zmane!!!
5 Entropa dla rozszerzonego alfabetu Twerdzene Nech P k będze rozkładem prawdopodobeństw k-tego rozszerzena alfabetu z rozkładem P. Wówczas: Dowód: k = 1: oczywste H(P k ) = k H(P) Krok ndukcyjny: Załóżmy, że H(P k-1 ) = (k-1) H(P). Wówczas:
6 Dowód c.d. ( ) ) ( ) ( 1) ( log log ) ( ] log ) log( )] log( ) [log( ) log( ) ( ,,,,,,,, P H k p P H k p p p P H p p p p p p p p p p p p p p p p p p p P H k k k k k k k k k k k k k = + = + = + = + = =
7 Rozszerzony alfabet c.d. Skoro H(P k ) = k H(P) to znaczy, że zgodne z ntucją lczba btów nformacj przypadających na jeden symbol rozszerzonego alfabetu jest k-krotne wększa od lczby btów nformacj na symbol orygnalnego alfabetu ale jeden symbol w P k odpowada k symbolom w P czyl lczba btów na orygnalny symbol ne zmena sę. A jak z jakoścą kodów Huffmana dla rozszerzonego alfabetu?
8 Jakość Huffmana dla rozszerzonego... Wnosek Średna długość kodu Huffmana dla rozszerzonego alfabetu z rozkładem P k odpowadająca przypadająca na jeden symbol alfabetu orygnalnego wynos co najwyżej H(P)+1/k. Dowód: Optymalność kodu Huffmana gwarantuje, że S( Huffman k ) H(P k ) + 1 gdze Huffman k to kod Huffmana dla prawdopodobeństw P k. A zatem na jeden symbol alfabetu orygnalnego przypada co najwyżej: btów. S( Huffman k ) / k (H(P k ) + 1) / k = H(P) + 1/k
9 Kompresja a wydajność Wnosek Używając rozszerzonych kodów Huffmana dla coraz wększych k osągamy kompresję coraz blższą entrop. Ale zwązane są z tym koszty: W k-tym rozszerzenu alfabetu o rozmarze n uzyskujemy alfabet rozmaru n k (wzrost wykładnczy!) Oznacza to wykładnczy wzrost czasu tworzena kodu...oraz wykładnczy wzrost pamęc potrzebnej na przechowywane (drzewa) kodu Ale czas kompresj/dekompresj pozostaje lnowy! W praktyce: Trzeba wybrać komproms mędzy kompresją a czasem/pamęcą Problem technczny: tekst mus meć długość podzelną przez k.
10 Skąd brać prawdopodobeństwa? Prawdopodobeństwa ustalone z góry, w oparcu o specyfkę danych: z góry znane koderow dekoderow (np. standard wdeo H.263) ale przestaje dzałać gdy zmen sę charakterystyka danych Wyznaczamy prawdopodobeństwa w oparcu o częstość występowana symbol w kodowanym tekśce: koneczne 2 przebeg: najperw zlczane częstośc, potem kodowane koneczne dołączene kodu lub częstośc do zakodowanych danych (dekoder ch ne zna!) Kodowane dynamczne: w każdym kroku korzystamy z częstośc w dotychczas zakodowanej częśc tekstu (znać ją będze też dekoder) wystarczy jeden przebeg ne trzeba dołączać kodu an prawdopodobeństw (pbb) do danych.
11 Dynamczne kody Huffmana... czyl wystarczy tylko raz polczyć do neskończonośc Idea: CEL: Przy kodowanu każdej ltery stosujemy kod Huffmana dla prawdopodobeństw opartych na częstoścach już zakodowanej częśc Prawdopodobeństwa te znane są równeż dekoderow: Przy odkodowywanu p-tej ltery znane są już ltery od perwszej do (p-1)-szej Po każdej lterze koneczne modyfkowane (drzewa) kodu ALE wystarczy jeden przebeg kodowanego plku! Przebudowa kodu po każdym kroku ne pownna być kosztowna!
12 Dynamczne kody Huffmana Ważne przy kodowanu modyfkujemy kod po zakodowanu symbolu przy dekodowanu modyfkujemy kod przed odkodowanem symbolu W ten sposób koder dekoder przy każdym symbolu używają tego samego drzewa kodu!
13 Dynamczne kody Huffmana Numerowane werzchołków drzewa: od dołu do góry od lewej do prawej 7 A 5 3 C D B 4
14 Dynamczne kody Huffmana c.d. Wag werzchołków: waga lśca = lczba wystąpeń odpowadającego mu symbolu waga werzchołka wewnętrznego = suma wag lśc w jego poddrzewe
15 Nezmennk Drzewo kodu o n elementach spełnające ponższe warunk jest optymalne: Istneje numerowane wszystkch werzchołków v 1,,v 2n-1 take, że: w(v 1 ) w(v 2 ) w(v 2n-1 ), gdze w(x) to waga werzchołka x Numerowane v 1,,v 2n-1 jest: od dołu do góry w ramach pozomu: od lewej do prawej.
16 Incjalzacja Na początku (alfabet a 1,,a m ): drzewo kodu: złożone z jednego werzchołka NP (od ne przesłany ) o wadze 0 numerze 2m-1; UWAGI: werzchołek NP będze w drzewe symbolzować wszystke symbole, które jeszcze ne pojawły sę w tekśce numer 2m-1 dlatego, że będze 2m-1 werzchołków docelowo (m lśc) Wszystkch lterom przyporządkowujemy kody stałe, wykorzystywane tylko przy perwszym pojawenu sę danej ltery w tekśce:
17 Kody stałe Nech e r take, że m = 2 e + r 0 r < 2 e. Lterze a przyporządkowujemy kod stały: (e+1) -btowej reprezentacj lczby -1 gdy 1 2r e-btowej reprezentacj lczby -r-1 w przecwnym przypadku. Czyl Kod stały równy kodow o stałej długośc równej log m, gdy m jest potęgą dwójk Mała optymalzacja kodu o stałej długośc, gdy m ne jest potęgą dwójk: 2r symbol ma kod o długośc log m m - 2r symbol ma kod o długośc log m
18 Kody stałe - przykład Nech m = 10 (alfabet ma 10 symbol). Wtedy : 10 = , czyl e = 3 r = 2 Inaczej: rysujemy drzewo o głębokośc e+1 staramy sę wykorzystać wolne lśce (dwa lśce na pozome e+1 odpowadają jednemu werzchołkow na pozome e) Ltera A1 A2 A3 A4 A5 A6 A7 A8 A9 A10 Kod FAKT: kod stały jest kodem prefksowym (ćw.)
19 Kodowane Dla kolejnego symbolu tekstu b: jeśl w drzewe kodu ne ma lśca o etykece b, kodujemy b jako: kod werzchołka NP a za nm kod stały odpowadający symbolow b Dodaj 2 dzec werzchołka NP (nech numer NP to p) lewe dzecko to nowy NP (numerze p-2, waga 0) prawe dzecko ma etyketę b (numer p-1, waga 1) Jeśl w drzewe kodu jest lść o etykece b: kodujemy b za pomocą odpowadającego mu w drzewe kodu słowa kodowego wykonaj aktualzację drzewa kodu!
20 Dekodowane Dopók ne ma końca zakodowanego plku: odkoduj słowo kodowe odpowadające lścow aktualnego drzewa kodu jeśl odkodowane słowo kodowe odpowada lterze alfabetu: zapsz ją. jeśl odkodowane słowo kodowe odpowada werzchołkow NP: odkoduj kolejną lterę według kodu stałego (e lub e+1 btów według drzewa kodu stałego): zapsz ją. Następne, dodaj 2 dzec werzchołka NP (o numerze p) lewe dzecko to nowy NP (numerze p-2, waga 0) prawe dzecko ma etyketę b (numer p-1, waga 1) wykonaj aktualzację drzewa kodu.
21 Aktualzacja drzewa kodu CEL - zachowane nezmennka: numerowane wszystkch werzchołków v 1,,v 2n-1 (od dołu do góry, od lewej do prawej) ma spełnać warunek: w(v 1 ) w(v 2 ) w(v 2n-1 ), gdze w(x) to waga werzchołka x Idea rozwązana: przechodzmy śceżkę od lśca odpowadającego ostatnemu symbolow zwększamy wag wszystkch werzchołków o 1 gdy zwększene wag zaburza powyższy nezmennk, zamenamy aktualny werzchołek z najwyżej położonym werzchołkem o takej samej wadze. Efekt: koszt proporcjonalny do długośc słowa kodowego a ne n log n...
22 Aktualzacja drzewa kodu c.d. Blok: zbór werzchołków o tej samej wadze. UWAGI: Jeśl numeracja v 1,,v 2n-1 spełna warunek w(v 1 ) w(v 2 ) w(v 2n-1 ), to wszystke werzchołk z jednego bloku tworzą spójny obszar w tej numeracj Jak reprezentujemy blok: lsta dwustronna w kolejnośc odpowadającej numeracj wszystkch werzchołków; dodatkowo wskaźnk na początk bloków.
23 Aktualzacja drzewa kodu c.d. Nech v to werzchołek odpowadający ostatno zakodowanemu bądź odkodowanemu symbolow: Dopók v jest różny od korzena: jeśl numer v ne jest najwększy w bloku do którego v należy: zameń v z werzchołkem w o najwększym numerze w bloku (o le w ne jest rodzcem v). UWAGI: zamenamy całe poddrzewa v w zamenają sę numeram ale numery pozostałych werzchołków ne zmenają sę zwększ wagę v o jeden: w(v) w(v)+1 v rodzc(v)
24 Przykład: dyn. Huffman Alfabet {A, B, C, D,..., J} 10 elementów. Tekst do zakodowana: A A B C D A D Ltera Kod Kody stałe: A 0000 Drzewo kodu: B 0001 C D E NP F 011 G 100 H 101 I 110 J 111
25 Przykład c.d. Drzewo kodu: 21 A A B C D A D 0 NP OUTPUT: 0000 kod stały A UWAGA: kod werzchołka NP jest pusty!
26 Przykład c.d.: A A B C D A D Drzewo kodu: NP A OUTPUT: 0000 kod stały A UWAGA: kod werzchołka NP jest pusty!
27 Przykład c.d.: A A B C D A D Drzewo kodu: NP 0 1 A 20 OUTPUT: 00001
28 Przykład c.d.: A A B C D A D Drzewo kodu: NP A 20 OUTPUT: 00001
29 Przykład c.d.: A A B C D A D Drzewo kodu: NP A 20 OUTPUT: kod NP kod stały B
30 Przykład c.d.: A A B C D A D Drzewo kodu: NP B 18 A 20 OUTPUT:
31 Przykład c.d.: A A B C D A D Drzewo kodu: NP B 18 A 20 OUTPUT:
32 Przykład c.d.: A A B C D A D Drzewo kodu: NP B 18 A 20 OUTPUT: kod NP kod stały C
33 Przykład c.d.: A A B C D A D Drzewo kodu: B 0 0 NP c A 20 OUTPUT:
34 Przykład c.d.: A A B C D A D Drzewo kodu: Popraw. śc B 0 1 NP c A 20 OUTPUT:
35 Przykład c.d.: A A B C D A D Drzewo kodu: Popraw. śc B 0 1 NP c A 20 OUTPUT: kod NP kod stały D
36 Przykład c.d.: A A B C D A D Drzewo kodu: 4 21 NP D B c 18 A 20 OUTPUT:
37 Przykład c.d.: A A B C D A D Drzewo kodu: 4 21 NP D B c 18 A 20 ZAMIANA! OUTPUT:
38 Przykład c.d.: A A B C D A D Drzewo kodu: A B c NP D 20 ZAMIANA! OUTPUT:
39 Przykład c.d.: A A B C D A D Drzewo kodu: A B c NP D OUTPUT:
40 Przykład c.d.: A A B C D A D Drzewo kodu: A B c NP D OUTPUT:
41 Przykład c.d.: A A B C D A D Drzewo kodu: A B c NP D OUTPUT: Uwaga: A był kodowany jako 0000, 1 a na końcu jako 0.
42 Przykład c.d.: A A B C D A D Drzewo kodu: A B c NP D OUTPUT:
43 Przykład c.d.: A A B C D A D Drzewo kodu: A B c NP D OUTPUT:
44 Przykład c.d.: A A B C D A D Drzewo kodu: ZAMIANA! A B c NP D OUTPUT:
45 Przykład c.d.: A A B C D A D Drzewo kodu: A D c NP B OUTPUT:
46 Dynamczny Huffman: struktury danych Tabela kodu stałego Bnarne drzewo kodu H. Wskaźnk na lśce dla każdej ltery 19 A Lsta dwustronna wg numeracj (oraz wskaźnk na początk bloków) CZAS: lnowy względem rozmaru kodu A B C D D c NP B
47 Dynamczny Huffman: nezmennk? Chcemy pokazać, że algorytm modyfkacj drzewa kodu zachowuje własnośc: Numeracja w algorytme v 1,,v 2n-1 jest numeracją od dołu do góry od lewej do prawej Wag werzchołków spełnają warunek: w(v 1 ) w(v 2 ) w(v 2n-1 ) Szkc dowodu: Zamana z najwększym w bloku gwarantuje, że zanm zwększymy wagę werzchołka, wypchnemy go przed wszystke werzchołk, których waga stane sę mnejsza (czyl na początek jego bloku) Ale razem z werzchołkem przestawamy całe jego poddrzewo... co może zaburzyć numerację Jednak: wszystke werzchołk pomędzy dwoma zamenanym są lśćm (poza jednym przypadkem...)
48 Kodowane Huffmana: podsumowane Własnośc Optymalny wśród prefksowych Kodowane dekodowane w czase lnowym! Kody rozszerzone: komproms mędzy zasobam a kompresją Możlwość mplementacj jednoprzebegowej, dynamcznej: kompresja zblżona do kodu statycznego, dodatkowy czas lnowy Zastosowana: pkzip, lha, gz, zoo, arj. formaty JPEG MPEG (jako jeden z etapów, czasem zmodyfkowany) Eksperymenty Bezstratna kompresja obrazów: współczynnk 1,5 Kompresja tekstów w języku naturalnym: wsp. 2 Kompresja dźwęku: wsp. 1,5 (kodowane różnc)
Kompresja bezstratna. Entropia. Kod Huffmana
Kompresja bezstratna. Entropia. Kod Huffmana Kodowanie i bezpieczeństwo informacji - Wykład 10 29 kwietnia 2013 Teoria informacji Jeśli P(A) jest prawdopodobieństwem wystapienia informacji A to niech i(a)
Bardziej szczegółowoNierówność Krafta-McMillana, Kodowanie Huffmana
Nierówność Krafta-McMillana, Kodowanie Huffmana Kodowanie i kompresja informacji - Wykład 2 1 marca 2010 Test na jednoznaczna dekodowalność Kod a jest prefiksem kodu b jeśli b jest postaci ax. x nazywamy
Bardziej szczegółowoSTANDARDOWE TECHNIKI KOMPRESJI SYGNAŁÓW
STANDARDOWE TECHNIKI KOMPRESJI SYGNAŁÓW Źródło Kompresja Kanał transmsj sek wdeo 60 Mbt 2 mn muzyk (44 00 próbek/sek, 6 btów/próbkę) 84 Mbt Dekompresja Odborca. Metody bezstratne 2. Metody stratne 2 Kodowane
Bardziej szczegółowoWstęp Statyczne kody Huffmana Dynamiczne kody Huffmana Praktyka. Kodowanie Huffmana. Dawid Duda. 4 marca 2004
4 marca 2004 Podstawowe oznaczenia i definicje Wymagania wobec kodu Podstawowa idea Podsumowanie Podstawowe oznaczenia i definicje Podstawowe oznaczenia i definicje: alfabet wejściowy: A = {a 1, a 2,...,
Bardziej szczegółowoZapis informacji, systemy pozycyjne 1. Literatura Jerzy Grębosz, Symfonia C++ standard. Harvey M. Deitl, Paul J. Deitl, Arkana C++. Programowanie.
Zaps nformacj, systemy pozycyjne 1 Lteratura Jerzy Grębosz, Symfona C++ standard. Harvey M. Detl, Paul J. Detl, Arkana C++. Programowane. Zaps nformacj w komputerach Wszystke elementy danych przetwarzane
Bardziej szczegółowoKodowanie informacji
Kodowanie informacji Tomasz Wykład 4: kodowanie arytmetyczne Motywacja Podstawy i własności Liczby rzeczywiste Motywacje 1 średnia długość kodu Huffmana może odbiegać o p max + 0.086 od entropii, gdzie
Bardziej szczegółowoKody Tunstalla. Kodowanie arytmetyczne
Kody Tunstalla. Kodowanie arytmetyczne Kodowanie i kompresja informacji - Wykład 3 8 marca 2010 Kody Tunstalla Wszystkie słowa kodowe maja ta sama długość ale jeden kod może kodować różna liczbę liter
Bardziej szczegółowoKODY SYMBOLI. Kod Shannona-Fano. Algorytm S-F. Przykład S-F
KODY SYMBOLI Kod Shannona-Fano KODOWANIE DANYCH, A.Przelaskowski Metoda S-F Kod Huffmana Adaptacyjne drzewo Huffmana Problemy implementacji Kod Golomba Podsumowanie Kod drzewa binarnego Na wejściu rozkład:
Bardziej szczegółowoSZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 15. ALGORYTMY GENETYCZNE Częstochowa 014 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska TERMINOLOGIA allele wartośc, waranty genów, chromosom - (naczej
Bardziej szczegółowoWprowadzenie do Sieci Neuronowych Sieci rekurencyjne
Wprowadzene do Sec Neuronowych Sec rekurencyjne M. Czoków, J. Persa 2010-12-07 1 Powtórzene Konstrukcja autoasocjatora Hopfelda 1.1 Konstrukcja Danych jest m obrazów wzorcowych ξ 1..ξ m, gdze każdy pojedynczy
Bardziej szczegółowoSTATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH
STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH 1 Test zgodnośc χ 2 Hpoteza zerowa H 0 ( Cecha X populacj ma rozkład o dystrybuance F). Hpoteza alternatywna H1( Cecha X populacj
Bardziej szczegółowoKodowanie Huffmana. Platforma programistyczna.net; materiały do laboratorium 2014/15 Marcin Wilczewski
Kodowanie Huffmana Platforma programistyczna.net; materiały do laboratorium 24/5 Marcin Wilczewski Algorytm Huffmana (David Huffman, 952) Algorytm Huffmana jest popularnym algorytmem generującym optymalny
Bardziej szczegółowo( ) ( ) 2. Zadanie 1. są niezależnymi zmiennymi losowymi o. oraz. rozkładach normalnych, przy czym EX. i σ są nieznane. 1 Niech X
Prawdopodobeństwo statystyka.. r. Zadane. Zakładamy, że,,,,, 5 są nezależnym zmennym losowym o rozkładach normalnych, przy czym E = μ Var = σ dla =,,, oraz E = μ Var = 3σ dla =,, 5. Parametry μ, μ σ są
Bardziej szczegółowoAnaliza danych OGÓLNY SCHEMAT. http://zajecia.jakubw.pl/ Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja)
Analza danych Dane trenngowe testowe. Algorytm k najblższych sąsadów. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ OGÓLNY SCHEMAT Mamy dany zbór danych podzelony na klasy decyzyjne, oraz
Bardziej szczegółowoKodowanie i kompresja Streszczenie Studia dzienne Wykład 9,
1 Kody Tunstalla Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9, 14.04.2005 Inne podejście: słowa kodowe mają ustaloną długość, lecz mogą kodować ciągi liter z alfabetu wejściowego o różnej
Bardziej szczegółowoKompresja Kodowanie arytmetyczne. Dariusz Sobczuk
Kompresja Kodowanie arytmetyczne Dariusz Sobczuk Kodowanie arytmetyczne (lata 1960-te) Pierwsze prace w tym kierunku sięgają początków lat 60-tych XX wieku Pierwszy algorytm Eliasa nie został opublikowany
Bardziej szczegółowoDiagonalizacja macierzy kwadratowej
Dagonalzacja macerzy kwadratowej Dana jest macerz A nân. Jej wartośc własne wektory własne spełnają równane Ax x dla,..., n Każde z równań własnych osobno można zapsać w postac: a a an x x a a an x x an
Bardziej szczegółowoDef. Kod jednoznacznie definiowalny Def. Kod przedrostkowy Def. Kod optymalny. Przykłady kodów. Kody optymalne
Załóżmy, że mamy źródło S, które generuje symbole ze zbioru S={x, x 2,..., x N } z prawdopodobieństwem P={p, p 2,..., p N }, symbolom tym odpowiadają kody P={c, c 2,..., c N }. fektywność danego sposobu
Bardziej szczegółowoTemat: Algorytm kompresji plików metodą Huffmana
Temat: Algorytm kompresji plików metodą Huffmana. Wymagania dotyczące kompresji danych Przez M oznaczmy zbiór wszystkich możliwych symboli występujących w pliku (alfabet pliku). Przykład M = 2, gdy plik
Bardziej szczegółowoGranica kompresji Kodowanie Shannona Kodowanie Huffmana Kodowanie ciągów Kodowanie arytmetyczne. Kody. Marek Śmieja. Teoria informacji 1 / 35
Kody Marek Śmieja Teoria informacji 1 / 35 Entropia Entropia określa minimalną statystyczną długość kodowania (przyjmijmy dla prostoty że alfabet kodowy A = {0, 1}). Definicja Niech X = {x 1,..., x n }
Bardziej szczegółowoProjekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE
Inormatyka Podstawy Programowana 06/07 Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE 6. Równana algebraczne. Poszukujemy rozwązana, czyl chcemy określć perwastk rzeczywste równana:
Bardziej szczegółowoAlgorytmy kodowania entropijnego
Algorytmy kodowania entropijnego 1. Kodowanie Shannona-Fano 2. Kodowanie Huffmana 3. Jednoznaczność kodów Huffmana. Kod o minimalnej wariancji 4. Dynamiczne kodowanie Huffmana Poprzedni wykład - podsumowanie
Bardziej szczegółowop Z(G). (G : Z({x i })),
3. Wykład 3: p-grupy twerdzena Sylowa. Defncja 3.1. Nech (G, ) będze grupą. Grupę G nazywamy p-grupą, jeżel G = dla pewnej lczby perwszej p oraz k N. Twerdzene 3.1. Nech (G, ) będze p-grupą. Wówczas W
Bardziej szczegółowoLZ77 LZ78. Kompresja danych. Tomasz Jurdziński. Wykład 5: kodowanie słownikowe
Tomasz Wykład 5: kodowanie słownikowe Motywacja Motywacje 1 zazwyczaj dane nie tworza ciagu wartości niezależnych, kolejny symbol jest zależny od poprzedzajacych go; 2 pewne sekwencje (słowa) często się
Bardziej szczegółowoZaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych
Zaawansowane metody numeryczne Komputerowa analza zagadneń różnczkowych 1. Układy równań lnowych P. F. Góra http://th-www.f.uj.edu.pl/zfs/gora/ semestr letn 2006/07 Podstawowe fakty Równane Ax = b, x,
Bardziej szczegółowoStanisław Cichocki Natalia Nehrebecka. Zajęcia 4
Stansław Cchock Natala Nehrebecka Zajęca 4 1. Interpretacja parametrów przy zmennych zerojedynkowych Zmenne 0-1 Interpretacja przy zmennej 0 1 w modelu lnowym względem zmennych objaśnających Interpretacja
Bardziej szczegółowoZałożenia i obszar zastosowań. JPEG - algorytm kodowania obrazu. Geneza algorytmu KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG
Założenia i obszar zastosowań KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG Plan wykładu: Geneza algorytmu Założenia i obszar zastosowań JPEG kroki algorytmu kodowania obrazu Założenia: Obraz monochromatyczny
Bardziej szczegółowoProces narodzin i śmierci
Proces narodzn śmerc Jeżel w ewnej oulacj nowe osobnk ojawają sę w sosób losowy, rzy czym gęstość zdarzeń na jednostkę czasu jest stała w czase wynos λ, oraz lczba osobnków n, które ojawły sę od chwl do
Bardziej szczegółowoTeoria informacji i kodowania Ćwiczenia
Teoria informacji i kodowania Ćwiczenia Piotr Chołda, Andrzej Kamisiński Katedra Telekomunikacji Akademii Górniczo-Hutniczej Kod źródłowy Kodem źródłowym nazywamy funkcję różnowartościową, która elementom
Bardziej szczegółowoStanisław Cichocki. Natalia Nehrebecka. Wykład 6
Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Zastosowane modelu potęgowego Model potęgowy Przekształcene Boxa-Coxa 2. Zmenne cągłe za zmenne dyskretne 3. Interpretacja parametrów przy zmennych dyskretnych
Bardziej szczegółowoKODY SYMBOLI. Materiały KODA, A.Przelaskowski. Koncepcja przedziałów nieskończonego alfabetu
KODY SYMBOLI Materiały KODA, A.Przelaskowski Koncepcja drzewa binarnego Metoda S-F Kod Huffmana Adaptacyjne drzewo Huffmana Problemy implementacji Koncepcja przedziałów nieskończonego alfabetu Proste kody
Bardziej szczegółowoZaawansowane metody numeryczne
Wykład 9. jej modyfkacje. Oznaczena Będzemy rozpatrywać zagadnene rozwązana następującego układu n równań lnowych z n newadomym x 1... x n : a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x
Bardziej szczegółowoW praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np.
Wykład 7 Uwaga: W praktyce często zdarza sę, że wynk obu prób możemy traktować jako wynk pomarów na tym samym elemence populacj np. wynk x przed wynk y po operacj dla tego samego osobnka. Należy wówczas
Bardziej szczegółowoStanisław Cichocki. Natalia Nehrebecka. Wykład 6
Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Zastosowane modelu potęgowego Przekształcene Boxa-Coxa 2. Zmenne cągłe za zmenne dyskretne 3. Interpretacja parametrów przy zmennych dyskretnych 1. Zastosowane
Bardziej szczegółowomgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. GOLOMBA I RICE'A
mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. KOMPRESJA ALGORYTMEM ARYTMETYCZNYM, GOLOMBA I RICE'A Idea algorytmu arytmetycznego Przykład kodowania arytmetycznego Renormalizacja
Bardziej szczegółowoPrzetwarzanie i transmisja danych multimedialnych. Wykład 3 Kodowanie Shannona Fano i Huffmana. Przemysław Sękalski.
Przetwarzanie i transmisja danych multimedialnych Wykład 3 Kodowanie Shannona Fano i Huffmana Przemysław Sękalski sekalski@dmcs.pl Politechnika Łódzka Katedra Mikroelektroniki i Technik Informatycznych
Bardziej szczegółowoNatalia Nehrebecka. Zajęcia 4
St ł Cchock Stansław C h k Natala Nehrebecka Zajęca 4 1. Interpretacja parametrów przy zmennych zerojedynkowych Zmenne 0 1 Interpretacja przy zmennej 0 1 w modelu lnowym względem zmennych objaśnających
Bardziej szczegółowo0 0,2 0, p 0,1 0,2 0,5 0, p 0,3 0,1 0,2 0,4
Zad. 1. Dana jest unkcja prawdopodobeństwa zmennej losowej X -5-1 3 8 p 1 1 c 1 Wyznaczyć: a. stałą c b. wykres unkcj prawdopodobeństwa jej hstogram c. dystrybuantę jej wykres d. prawdopodobeństwa: P (
Bardziej szczegółowoKodowanie informacji
Tomasz Wykład 4: kodowanie słownikowe Motywacja Motywacje 1 kodowane dane nie tworza ciagu wartości niezależnych, rozkład prawdopodobieństwa zależy od symboli poprzedzajacych symbol kodowany; 2 pewne sekwencje
Bardziej szczegółowoBADANIA OPERACYJNE. Podejmowanie decyzji w warunkach niepewności. dr Adam Sojda
BADANIA OPERACYJNE Podejmowane decyzj w warunkach nepewnośc dr Adam Sojda Teora podejmowana decyzj gry z naturą Wynk dzałana zależy ne tylko od tego, jaką podejmujemy decyzję, ale równeż od tego, jak wystąp
Bardziej szczegółowoALGEBRY HALLA DLA POSETÓW SKOŃCZONEGO TYPU PRINJEKTYWNEGO
ALGEBRY HALLA DLA POSETÓW SKOŃCZONEGO TYPU PRINJEKTYWNEGO NA PODSTAWIE REFERATU JUSTYNY KOSAKOWSKIEJ. Moduły prnjektywne posety skończonego typu prnjektywnego Nech I będze skończonym posetem. Przez max
Bardziej szczegółowoModele wieloczynnikowe. Modele wieloczynnikowe. Modele wieloczynnikowe ogólne. α β β β ε. Analiza i Zarządzanie Portfelem cz. 4.
Modele weloczynnkowe Analza Zarządzane Portfelem cz. 4 Ogólne model weloczynnkowy można zapsać jako: (,...,,..., ) P f F F F = n Dr Katarzyna Kuzak lub (,...,,..., ) f F F F = n Modele weloczynnkowe Można
Bardziej szczegółowoWikiWS For Business Sharks
WkWS For Busness Sharks Ops zadana konkursowego Zadane Opracowane algorytmu automatyczne przetwarzającego zdjęce odręczne narysowanego dagramu na tablcy lub kartce do postac wektorowej zapsanej w formace
Bardziej szczegółowoZestaw zadań 4: Przestrzenie wektorowe i podprzestrzenie. Liniowa niezależność. Sumy i sumy proste podprzestrzeni.
Zestaw zadań : Przestrzene wektorowe podprzestrzene. Lnowa nezależność. Sumy sumy proste podprzestrzen. () Wykazać, że V = C ze zwykłym dodawanem jako dodawanem wektorów operacją mnożena przez skalar :
Bardziej szczegółowoAlgorytmy kompresji. Kodowanie Huffmana, kodowanie arytmetyczne
Algorytmy kompresji Kodowanie Huffmana, kodowanie arytmetyczne Kodowanie arytmetyczne Peter Elias 1923-2001 Kodowanie arytmetyczne to metoda kodowania źródłowego dyskretnych źródeł sygnałów, stosowana
Bardziej szczegółowo) będą niezależnymi zmiennymi losowymi o tym samym rozkładzie normalnym z następującymi parametrami: nieznaną wartością 1 4
Zadane. Nech ( X, Y ),( X, Y ), K,( X, Y n n ) będą nezależnym zmennym losowym o tym samym rozkładze normalnym z następującym parametram: neznaną wartoścą oczekwaną EX = EY = m, warancją VarX = VarY =
Bardziej szczegółowoKodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11,
1 Kwantyzacja skalarna Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11, 10.05.005 Kwantyzacja polega na reprezentowaniu dużego zbioru wartości (być może nieskończonego) za pomocą wartości
Bardziej szczegółowoteoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015
teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015 1 wczoraj Wprowadzenie matematyczne. Entropia i informacja. Kodowanie. Kod ASCII. Stopa kodu. Kody bezprefiksowe.
Bardziej szczegółowoAlgorytmy i struktury danych. Co dziś? Tytułem przypomnienia metoda dziel i zwyciężaj. Wykład VIII Elementarne techniki algorytmiczne
Algorytmy i struktury danych Wykład VIII Elementarne techniki algorytmiczne Co dziś? Algorytmy zachłanne (greedyalgorithms) 2 Tytułem przypomnienia metoda dziel i zwyciężaj. Problem można podzielić na
Bardziej szczegółowoStanisław Cichocki. Natalia Nehrebecka. Wykład 6
Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Interpretacja parametrów przy zmennych objaśnających cągłych Semelastyczność 2. Zastosowane modelu potęgowego Model potęgowy 3. Zmenne cągłe za zmenne dyskretne
Bardziej szczegółowoTeoria Informacji - wykład. Kodowanie wiadomości
Teoria Informacji - wykład Kodowanie wiadomości Definicja kodu Niech S={s 1, s 2,..., s q } oznacza dany zbiór elementów. Kodem nazywamy wówczas odwzorowanie zbioru wszystkich możliwych ciągów utworzonych
Bardziej szczegółowo5. OPTYMALIZACJA GRAFOWO-SIECIOWA
. OPTYMALIZACJA GRAFOWO-SIECIOWA Defncja grafu Pod pojęcem grafu G rozumemy następującą dwójkę uporządkowaną (defncja grafu Berge a): (.) G W,U gdze: W zbór werzchołków grafu, U zbór łuków grafu, U W W,
Bardziej szczegółowoStanisław Cichocki. Natalia Nehrebecka. Wykład 7
Stansław Cchock Natala Nehrebecka Wykład 7 1 1. Zmenne cągłe a zmenne dyskretne 2. Interpretacja parametrów przy zmennych dyskretnych 1. Zmenne cągłe a zmenne dyskretne 2. Interpretacja parametrów przy
Bardziej szczegółowoD Archiwum Prac Dyplomowych - Instrukcja dla studentów
Kraków 01.10.2015 D Archwum Prac Dyplomowych - Instrukcja dla studentów Procedura Archwzacj Prac Dyplomowych jest realzowana zgodne z zarządzenem nr 71/2015 Rektora Unwersytetu Rolnczego m. H. Kołłątaja
Bardziej szczegółowoNieparametryczne Testy Istotności
Neparametryczne Testy Istotnośc Wzory Neparametryczne testy stotnośc schemat postępowana punkt po punkce Formułujemy hpotezę główną odnoszącą sę do: zgodnośc populacj generalnej z jakmś rozkładem, lub:
Bardziej szczegółowoKompresja danych kodowanie Huffmana. Dariusz Sobczuk
Kompresja danych kodowanie Huffmana Dariusz Sobczuk Plan wykładu Kodowanie metodą Shannona-Fano Kodowanie metodą Huffmana Elementarny kod Golomba Kod Golomba Kod Rice a kompresja danych 2 Efektywny kod
Bardziej szczegółowoteoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015
teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015 1 zakres materiału zakres materiału 1. Czym jest teoria informacji? 2. Wprowadzenie matematyczne. 3. Entropia i informacja.
Bardziej szczegółowo0-0000, 1-0001, 2-0010, 3-0011 itd... 9-1001.
KODOWANIE Jednym z problemów, z którymi spotykamy się w informatyce, jest problem właściwego wykorzystania pamięci. Konstruując algorytm staramy się zwykle nie tylko o zminimalizowanie kosztów czasowych
Bardziej szczegółowoPrzetwarzanie i transmisja danych multimedialnych. Wykład 5 Kodowanie słownikowe. Przemysław Sękalski.
Przetwarzanie i transmisja danych multimedialnych Wykład 5 Kodowanie słownikowe Przemysław Sękalski sekalski@dmcs.pl Politechnika Łódzka Katedra Mikroelektroniki i Technik Informatycznych DMCS Przemysław
Bardziej szczegółowoProblemy jednoczesnego testowania wielu hipotez statystycznych i ich zastosowania w analizie mikromacierzy DNA
Problemy jednoczesnego testowana welu hpotez statystycznych ch zastosowana w analze mkromacerzy DNA Konrad Furmańczyk Katedra Zastosowań Matematyk SGGW Plan referatu Testowane w analze mkromacerzy DNA
Bardziej szczegółowoKodowanie Shannona-Fano
Kodowanie Shannona-Fano Kodowanie Shannona-Fano znane było jeszcze przed kodowaniem Huffmana i w praktyce można dzięki niemu osiągnąć podobne wyniki, pomimo, że kod generowany tą metodą nie jest optymalny.
Bardziej szczegółowoProgramowanie Równoległe i Rozproszone
Programowane Równoległe Rozproszone Wykład Programowane Równoległe Rozproszone Lucjan Stapp Wydzał Matematyk Nauk Informacyjnych Poltechnka Warszawska (l.stapp@mn.pw.edu.pl) /38 PRR Wykład Chcemy rozwązać
Bardziej szczegółowoTwierdzenie Bezouta i liczby zespolone Javier de Lucas. Rozwi azanie 2. Z twierdzenia dzielenia wielomianów, mamy, że
Twerdzene Bezouta lczby zespolone Javer de Lucas Ćwczene 1 Ustal dla których a, b R można podzelć f 1 X) = X 4 3X 2 + ax b przez f 2 X) = X 2 3X+2 Oblcz a b Z 5 jeżel zak ladamy, że f 1 f 2 s a welomanam
Bardziej szczegółowoXXX OLIMPIADA FIZYCZNA ETAP III Zadanie doświadczalne
XXX OLIMPIADA FIZYCZNA ETAP III Zadane dośwadczalne ZADANIE D Nazwa zadana: Maszyna analogowa. Dane są:. doda półprzewodnkowa (krzemowa) 2. opornk dekadowy (- 5 Ω ), 3. woltomerz cyfrowy, 4. źródło napęca
Bardziej szczegółowoLaboratorium ochrony danych
Laboratorum ochrony danych Ćwczene nr Temat ćwczena: Cała skończone rozszerzone Cel dydaktyczny: Opanowane programowej metody konstruowana cał skończonych rozszerzonych GF(pm), poznane ch własnośc oraz
Bardziej szczegółowoMATEMATYKA POZIOM ROZSZERZONY Kryteria oceniania odpowiedzi. Arkusz A II. Strona 1 z 5
MATEMATYKA POZIOM ROZSZERZONY Krytera ocenana odpowedz Arkusz A II Strona 1 z 5 Odpowedz Pytane 1 2 3 4 5 6 7 8 9 Odpowedź D C C A B 153 135 232 333 Zad. 10. (0-3) Dana jest funkcja postac. Korzystając
Bardziej szczegółowo3. ŁUK ELEKTRYCZNY PRĄDU STAŁEGO I PRZEMIENNEGO
3. ŁUK ELEKTRYCZNY PRĄDU STŁEGO I PRZEMIENNEGO 3.1. Cel zakres ćwczena Celem ćwczena jest zapoznane sę z podstawowym właścwoścam łuku elektrycznego palącego sę swobodne, w powetrzu o cśnentmosferycznym.
Bardziej szczegółowoNatalia Nehrebecka. Wykład 2
Natala Nehrebecka Wykład . Model lnowy Postad modelu lnowego Zaps macerzowy modelu lnowego. Estymacja modelu Wartośd teoretyczna (dopasowana) Reszty 3. MNK przypadek jednej zmennej . Model lnowy Postad
Bardziej szczegółowoDefinicja. Jeśli. wtedy
Definicja Jeśli wtedy Cel kompresji: zredukowanie do minimum oczekiwanego (średniego) kosztu gdzie l i jest długością słowa kodu c i kodującego symbol a i Definicja Definicje Efektywność kodowania określamy
Bardziej szczegółowoKodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład Kody liniowe - kodowanie w oparciu o macierz parzystości
Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład 13 1 Kody liniowe - kodowanie w oparciu o macierz parzystości Przykład Różne macierze parzystości dla kodu powtórzeniowego. Co wiemy z algebry
Bardziej szczegółowotermodynamika fenomenologiczna p, VT V, teoria kinetyczno-molekularna <v 2 > termodynamika statystyczna n(v) to jest długi czas, zachodzi
fzka statstczna stan makroskopow układ - skończon obszar przestrzenn (w szczególnośc zolowan) termodnamka fenomenologczna p, VT V, teora knetczno-molekularna termodnamka statstczna n(v) stan makroskopow
Bardziej szczegółowoPokazać, że wyżej zdefiniowana struktura algebraiczna jest przestrzenią wektorową nad ciałem
Zestaw zadań : Przestrzene wektorowe. () Wykazać, że V = C ze zwykłym dodawanem jako dodawanem wektorów operacją mnożena przez skalar : C C C, (z, v) z v := z v jest przestrzeną lnową nad całem lczb zespolonych
Bardziej szczegółowo65120/ / / /200
. W celu zbadana zależnośc pomędzy płcą klentów ch preferencjam, wylosowano kobet mężczyzn zadano m pytane: uważasz za lepszy produkt frmy A czy B? Wynk były następujące: Odpowedź Kobety Mężczyźn Wolę
Bardziej szczegółowoSprawozdanie powinno zawierać:
Sprawozdane pownno zawerać: 1. wypełnoną stronę tytułową (gotowa do ćw. nr 0 na strone drugej, do pozostałych ćwczeń zameszczona na strone 3), 2. krótk ops celu dośwadczena, 3. krótk ops metody pomaru,
Bardziej szczegółowoNiech x 1,..., x n będzie ciągiem zdarzeń. ---
Matematyczne podstawy kryptografii, Ćw2 TEMAT 7: Teoria Shannona. Kody Huffmana, entropia. BIBLIOGRAFIA: [] Cz. Bagiński, cez.wipb.pl, [2] T. H. Cormen, C. E. Leiserson, R. L Rivest, Wprowadzenie do algorytmów,
Bardziej szczegółowo-Macierz gęstości: stany czyste i mieszane (przykłady) -równanie ruchu dla macierzy gęstości -granica klasyczna rozkładów kwantowych
WYKŁAD 4 dla zanteresowanych -Macerz gęstośc: stany czyste meszane (przykłady) -równane ruchu dla macerzy gęstośc -granca klasyczna rozkładów kwantowych Macerz gęstośc (przypomnene z poprzednch wykładów)
Bardziej szczegółowoAnaliza danych. Analiza danych wielowymiarowych. Regresja liniowa. Dyskryminacja liniowa. PARA ZMIENNYCH LOSOWYCH
Analza danych Analza danych welowymarowych. Regresja lnowa. Dyskrymnacja lnowa. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ PARA ZMIENNYCH LOSOWYCH Parę zmennych losowych X, Y możemy
Bardziej szczegółowoKomputer kwantowy Zasady funkcjonowania. Dr hab. inż. Krzysztof Giaro Politechnika Gdańska Wydział ETI
Komputer kwantowy Zasady funkcjonowana Dr hab. nż. Krzysztof Garo Poltechnka Gdańska Wydzał ETI Oblczena kwantowe. R. Feynman [985] symulację zachowana układu kwantowego należy przeprowadzć na "maszyne"
Bardziej szczegółowoPODSTAWA WYMIARU ORAZ WYSOKOŚĆ EMERYTURY USTALANEJ NA DOTYCHCZASOWYCH ZASADACH
PODSTAWA WYMIARU ORAZ WYSOKOŚĆ EMERYTURY USTALANEJ NA DOTYCHCZASOWYCH ZASADACH Z a k ł a d U b e z p e c z e ń S p o ł e c z n y c h Wprowadzene Nnejsza ulotka adresowana jest zarówno do osób dopero ubegających
Bardziej szczegółowoWeryfikacja hipotez dla wielu populacji
Weryfkacja hpotez dla welu populacj Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Intelgencj Metod Matematycznych Wydzał Informatyk Poltechnk Szczecńskej 5. Parametryczne testy stotnośc w
Bardziej szczegółowoarchitektura komputerów w. 3 Arytmetyka komputerów
archtektura komputerów w. 3 Arytmetyka komputerów Systemy pozycyjne - dodawane w systeme dwójkowym 100101011001110010101 100111101000001000 0110110011101 1 archtektura komputerów w 3 1 Arytmetyka bnarna.
Bardziej szczegółowoKlasyfkator lnowy Wstęp Klasyfkator lnowy jest najprostszym możlwym klasyfkatorem. Zakłada on lnową separację lnowy podzał dwóch klas mędzy sobą. Przedstawa to ponższy rysunek: 5 4 3 1 0-1 - -3-4 -5-5
Bardziej szczegółowoModel ASAD. ceny i płace mogą ulegać zmianom (w odróżnieniu od poprzednio omawianych modeli)
Model odstawowe założena modelu: ceny płace mogą ulegać zmanom (w odróżnenu od poprzedno omawanych model) punktem odnesena analzy jest obserwacja pozomu produkcj cen (a ne stopy procentowej jak w modelu
Bardziej szczegółowoRozpoznawanie kodów splotowych
Buletyn WAT Vol. LV, Numer specjalny, 2006 Rozpoznawane kodów splotowych LESZEK NOWOSIELSKI, BARTOSZ ORLIŃSKI Wojskowa Akadema Technczna, Wydzał Elektronk, Instytut Telekomunkacj, 00-908 Warszawa, ul.
Bardziej szczegółowoStatystyka Inżynierska
Statystyka Inżynerska dr hab. nż. Jacek Tarasuk AGH, WFIS 013 Wykład DYSKRETNE I CIĄGŁE ROZKŁADY JEDNOWYMIAROWE Zmenna losowa, Funkcja rozkładu, Funkcja gęstośc, Dystrybuanta, Charakterystyk zmennej, Funkcje
Bardziej szczegółowoPrawdopodobieństwo geometryczne
Prawdopodobeństwo geometryczne Przykład: Przestrzeń zdarzeń elementarnych określona jest przez zestaw punktów (x, y) na płaszczyźne wypełna wnętrze kwadratu [0 x ; 0 y ]. Znajdź p-stwo, że dowolny punkt
Bardziej szczegółowoKodowanie i entropia
Kodowanie i entropia Marek Śmieja Teoria informacji 1 / 34 Kod S - alfabet źródłowy mocy m (np. litery, cyfry, znaki interpunkcyjne), A = {a 1,..., a n } - alfabet kodowy (symbole), Chcemy przesłać tekst
Bardziej szczegółowo5. Pochodna funkcji. lim. x c x c. (x c) = lim. g(c + h) g(c) = lim
5. Pocodna funkcj Defncja 5.1 Nec f: (a, b) R nec c (a, b). Jeśl stneje granca lm x c x c to nazywamy ją pocodną funkcj f w punkce c oznaczamy symbolem f (c) Twerdzene 5.1 Jeśl funkcja f: (a, b) R ma pocodną
Bardziej szczegółowoAlgorytmy kodowania predykcyjnego
Algorytmy kodowania predykcyjnego 1. Zasada kodowania 2. Algorytm JPEG-LS 3. Algorytmy CALIC, LOCO-I 4. Algorytmy z wielokrotn rozdzielczoci. Progresywna transmisja obrazów Kompresja obrazów - zestawienie
Bardziej szczegółowoKompresja danych Streszczenie Studia Dzienne Wykład 10,
1 Kwantyzacja wektorowa Kompresja danych Streszczenie Studia Dzienne Wykład 10, 28.04.2006 Kwantyzacja wektorowa: dane dzielone na bloki (wektory), każdy blok kwantyzowany jako jeden element danych. Ogólny
Bardziej szczegółowoOdtworzenie wywodu metodą wstępującą (bottom up)
Przeglądane wejśca od lewej strony do prawej L (k) Odtwarzane wywodu prawostronnego Wystarcza znajomosc "k" następnych symbol łańcucha wejścowego hstor dotychczasowych redukcj, aby wyznaczyc jednoznaczne
Bardziej szczegółowoD Archiwum Prac Dyplomowych - Instrukcja dla opiekunów/promotorów/recenzentów
D Archwum Prac Dyplomowych - Instrukcja dla opekunów/promotorów/recenzentów Kraków 13.01.2016 r. Procedura Archwzacj Prac Dyplomowych jest realzowana zgodne z zarządzenem nr 71/2015 Rektora Unwersytetu
Bardziej szczegółowoRozkład dwupunktowy. Rozkład dwupunktowy. Rozkład dwupunktowy x i p i 0 1-p 1 p suma 1
Rozkład dwupunktowy Zmenna losowa przyjmuje tylko dwe wartośc: wartość 1 z prawdopodobeństwem p wartość 0 z prawdopodobeństwem 1- p x p 0 1-p 1 p suma 1 Rozkład dwupunktowy Funkcja rozkładu prawdopodobeństwa
Bardziej szczegółowoKOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG
KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG Joint Photographic Expert Group - 1986 ISO - International Standard Organisation CCITT - Comité Consultatif International de Téléphonie et Télégraphie Standard
Bardziej szczegółowoBadanie współzależności dwóch cech ilościowych X i Y. Analiza korelacji prostej
Badane współzależnośc dwóch cech loścowych X Y. Analza korelacj prostej Kody znaków: żółte wyróżnene nowe pojęce czerwony uwaga kursywa komentarz 1 Zagadnena 1. Zwązek determnstyczny (funkcyjny) a korelacyjny.
Bardziej szczegółowoWygra Polska czy Brazylia, czyli o tym jak zwięźle zapisywać informacje
Wygra Polska czy Brazylia, czyli o tym jak zwięźle zapisywać informacje Witold Tomaszewski Instytut Matematyki Politechniki Śląskiej e-mail: Witold.Tomaszewski@polsl.pl Je n ai fait celle-ci plus longue
Bardziej szczegółowoPlan wykładu: Typowe dane. Jednoczynnikowa Analiza wariancji. Zasada: porównać zmienność pomiędzy i wewnątrz grup
Jednoczynnkowa Analza Waranc (ANOVA) Wykład 11 Przypomnene: wykłady zadana kursu były zaczerpnęte z podręcznków: Statystyka dla studentów kerunków techncznych przyrodnczych, J. Koronack, J. Melnczuk, WNT
Bardziej szczegółowoKodowanie predykcyjne
Kodowanie i kompresja informacji - Wykład 5 22 marca 2010 Motywacje W tekstach naturalnych symbole bardzo często zależa od siebie. Motywacje W tekstach naturalnych symbole bardzo często zależa od siebie.
Bardziej szczegółowoWykład Turbina parowa kondensacyjna
Wykład 9 Maszyny ceplne turbna parowa Entropa Równane Claususa-Clapeyrona granca równowag az Dośwadczena W. Domnk Wydzał Fzyk UW ermodynamka 08/09 /5 urbna parowa kondensacyjna W. Domnk Wydzał Fzyk UW
Bardziej szczegółowoSTARE A NOWE KRAJE UE KONKURENCYJNOŚĆ POLSKIEGO EKSPORTU
Ewa Szymank Katedra Teor Ekonom Akadema Ekonomczna w Krakowe ul. Rakowcka 27, 31-510 Kraków STARE A NOWE KRAJE UE KONKURENCYJNOŚĆ POLSKIEGO EKSPORTU Abstrakt Artykuł przedstawa wynk badań konkurencyjnośc
Bardziej szczegółowo