Niech x 1,..., x n będzie ciągiem zdarzeń. ---
|
|
- Dorota Świderska
- 7 lat temu
- Przeglądów:
Transkrypt
1 Matematyczne podstawy kryptografii, Ćw2 TEMAT 7: Teoria Shannona. Kody Huffmana, entropia. BIBLIOGRAFIA: [] Cz. Bagiński, cez.wipb.pl, [2] T. H. Cormen, C. E. Leiserson, R. L Rivest, Wprowadzenie do algorytmów, [3] D. R. Stinson, Kryptografia w teorii i w praktyce ZAKRES MATERIAŁU Niech x,..., x n będzie ciągiem zdarzeń. I. Entropia Kodowaniem f nazywamy (też) funkcję f (x,..., x n ) = f (x)... f (x n ), gdzie II. Kodowania Huffmana a entropia Znak oznacza konkatenację ciągów. I. Entropia [Własności] (kodowania f) Funkcji f powinna być przekształceniem różnowartościowym, ponieważ tylko w takim przypadku zaszyfrowany [DEF ] (Entropia) Niech X zmienna losowa przyjmująca skończenie wiele wartości zgodnie z rozkładem prawdopodobieństwa p(x). Entropię tego rozkładu definiujemy (skompresowany / zakodowany) tekst da się odszyfrować (zdekompresować / zdekodować). Funkcja f musi być funkcją prefiksową (inaczej mówimy funkcją wolną od przedrostków) tzn. nie może zdarzyć się sytuacja, że dla dwóch elementów a, b X i ciągu x {,} * zachodzi f (a) = f (b) x (takie sytuacje powodowałyby niejasności przy dekodowaniu). n H (x) = pi log 2 pi (dla p i ) i= [Przykład ] Entropia jednego rzutu symetryczną kostką do gry jest równa, ponieważ informację, że wypadło /2/3/4/5/6 oczek można przekazać za pomocą jednej jednostki informacji. [Przykład 2] Entropia n niezależnych rzutów symetryczną kostką do gry jest równa n, ponieważ informację o n rzutach kostką można przekazać za pomocą n jednostek informacji. [Przykład 3] X jest zmienną losową przyjmującą wartości ze zbioru A = {a, b, c, d} z prawdopodobieństwami p(a)=/4, p(b)=/2, p(c)=/8, p(d)=/8. Policz entropię związaną z wylosowaniem jednej wartości ze zbioru A. Miara skuteczności kodowania f definiowana następująco 7 H(x) = log 2 log 2 log 2 log 2 = = (f ) = p(x) f (x) x X Entropia wylosowania jednej wartości ze zbioru A wynosi 7/4. y -ozn. długość ciągu y. Entropia składników systemu kryptograficznego. Dąży się do wyszukania takiego różnowartościowego kodowania f, które minimalizuje wartość (f ). Możemy policzyć [Algorytm] (kompresji i dekompresji Huffmana) entropię H(K), gdzie K jest zmienną losową (reprezentującą klucz) przyjmującą wartości zgodnie z rozkładem Zachłanny algorytm Huffmana generuje kodowanie f, które prawdopodobieństwa p K, jest różnowartościowe entropię H(P), gdzie P jest zmienną losową (reprezentującą przestrzeń tekstu jawnego), prefiksowe entropię H(C), gdzie C jest zmienną losową (reprezentującą przestrzeń tekstu zaszyfrowanego) spełnia nierówności H (X) (f ) < H(X) + (entropia przybliża średnią długość kodowania Huffmana) [Przykład 4] Niech P = {a, b, c} będzie przestrzenią tekstów jawnych oraz niech prawdopodobieństwa a priori wystąpienia poszczególnych znaków tego zbioru będą równe p P (a) = / 4 i p P (b) = / 2, p P (c) = / 4. Entropię H(P) KOMPRESJA [Idea] (algorytmu kompresji Huffmana) liczymy 3 H(P) = log 2 log 2 log 2 = log2 4 + log2 2 + log 2 4+ = *2 + *+ *2 = II. Kodowania Huffmana a entropia [DEF 2] (kodowanie) Niech X zmienna losowa przyjmująca wartości ze skończonego zbioru zgodnie z rozkładem prawdopodobieństwa p(x). Kodowanie zmiennej losowej X przekształcenie f :X {,} *. {,}* - zbiór wszystkich skończonych ciągów - [Przykład 5] Niech eksperyment polega na n-krotnym rzucie monetą Niech X = {O, R} (O orzeł, R - reszka) f (O) =, f (R) = - f nie jest funkcją prefiksową W takiej sytuacji (np. podczas rozkodowania ciągu...) nie ma jasności jaki jest pierwszy znak (O czy R). f (O) =, g (R) = - g jest funkcją prefiksową W takiej sytuacji zawsze mamy jednoznaczną odpowiedź, jaki jest kolejny znak (O czy R). [DEF 3] (średnia długość kodowania elementu X) () Wyznaczamy tablicę częstości wystąpień poszczególnych znaków w tekście i na jej podstawie określamy rozkład prawdopodobieństwa na zbiorze X możliwych znaków. (2) Generujemy uporządkowaną niemalejąco (ze względu na wartość prawdopodobieństwa) listę (np. ArrayList) jednowęzłowych drzew, których węzły zawierają następujące pola (klucz (prawdopodobieństwo wystąpienia), znak (lub w przypadku węzłów wewnętrznych), referencje do lewego i prawego poddrzewa) (3) Na podstawie listy tworzymy drzewo Huffmana. W tym celu, w każdej iteracji bierzemy z listy dwa drzewa L i L2 o najmniejszych prawdopodobieństwach w korzeniach i łączymy je w jedno drzewo. Kluczem korzenia powstałego drzewa jest suma prawdopodobieństw korzeni łączonych drzew. Jego lewym poddrzewem jest L, a prawym L2. Nowe drzewo umieszczamy na liście w taki sposób, by nadal była uporządkowana niemalejąco. Proces kończymy w momencie uzyskania jednego drzewa, które ma tę własność, że węzły wewnętrzne zawierają jedynie prawdopodobieństwa, a liście dodatkowo znaki występujące w kompresowanym tekście. (4) Generujemy kody Huffmana. Każdą lewą krawędź drzewa oznaczamy znakiem, a prawą. Czytamy każdą ze ścieżek drzewa zaczynając od korzenia i kończąc na liściu i zapisujemy występujące na ścieżce zera i
2 Matematyczne podstawy kryptografii, Ćw2 TEMAT 7: Teoria Shannona. Kody Huffmana, entropia. BIBLIOGRAFIA: [] Cz. Bagiński, cez.wipb.pl, [2] T. H. Cormen, C. E. Leiserson, R. L Rivest, Wprowadzenie do algorytmów, [3] D. R. Stinson, Kryptografia w teorii i w praktyce (6) zawartość skompresowanego pliku (tablica częstości i zakodowany tekst) jedynki. Powstałe ciągi --kowe stanowią kody znaków występujących w liściach. Znaki i ich kody zapisujemy w strukturze HashMap (znak w roli klucza i kod jako obiekt). (5) Kodujemy tekst korzystając z wygenerowanych kodów, a następnie każdy --kowy 8-elementowy podciąg zamieniamy na znak (zgodnie z tablicą kodów ASCII). Jeśli ostatni ciąg składa się z mniejszej niż osiem liczby znaków, dopełniamy go zerami. (6) Do pliku wyjściowego wklejamy tablicę częstości wystąpień poszczególnych znaków plus tekst w postaci zakodowanej. DEKOMPRESJA () Na podstawie informacji zawartej w skompresowanym pliku generujemy tablicę częstości wystąpień znaków. (2) Tworzymy listę drzew jednowęzłowych i na jej podstawie generujemy drzewo Huffmana. (3) Zamieniamy zakodowany tekst na ciąg --kowy (każdy znak tekstu to wartość z zakresu -255, którą zapisujemy w postaci binarnej) (4) Na podstawie tablicy częstości określamy ile znaków należy rozkodować. Czytamy kolejne zera i jedynki ciągu i na tej podstawie poruszamy się odpowiednio w lewo lub w prawo na drzewie Huffmana. Po rozkodowaniu fragmentu ciągu - (tj. po przypisaniu mu odpowiedniego znaku znajdującego się w liściu drzewa) rozpoczynamy dekodowanie kolejnego (startując na nowo od korzenia drzewa). [Zadanie ] Zastosuj algorytm kompresji i dekompresji Huffmana dla poniższego tekstu. ala ma kota KOMPRESJA () tablica częstości wystąpień poszczególnych znaków w tekście częstość 4 2 (2) uporządkowana niemalejąco lista drzew jednowęzłowych k l m o t spacja a (3) drzewo kodów Huffmana (4) kody Huffmana k l m o {spacja=, o=, k=, m=, a=, t=, l=} (5) zakodowany tekst z podziałem na podciągi 8-znakowe a l a m a k o t a czerwone zera dopełniają ostatnią ósemkę t spacja a a-4,l-,-2,m-,k-,o-,t- DEKOMPRESJA () tablica częstości wystąpień poszczególnych znaków w tekście częstość 4 2 (2) uporządkowana niemalejąco lista drzew jednowęzłowych k l m o t spacja a (3) drzewo kodów Huffmana (4) zakodowany tekst z przypisanymi znakami czerwone zera dopełniają ostatnią ósemkę a l a m a k o t a [Zadanie 2] Zaimplementuj (a) algorytm kompresji i dekompresji Huffmana. Dla ułatwienia, koduj 7-elementowe ciągi -. (b) (c) algorytm wyznaczający entropię H(P), gdzie P jest zmienną losową (reprezentującą przestrzeń tekstu jawnego). Prawdopodobieństwa wystąpień poszczególnych znaków w tekstach polskich znajdują się w materiałach do jednych z wcześniejszych zajęć. algorytm wyznaczający średnią długość kodowania znaku dla konkretnego tekstu Porównaj wartości z podpunktu (b) i (c) dla tekstu ala ma kota [Przykład 6] Wyznacz średnią długość kodowania znaku algorytmem Huffmana dla tekstu ala ma kota częstość 4 2 p-stwo dł. kodu (f ) = p(x) f (x) x X (f ) = k l m o = p(' a' ) f (' a' ) l' ) f (' l' ) ') f (' ' ) m' )' f (' m' ) k' ) f (' k' ) o' ) f (' o' ) = *2+5(.99999*3) *3= = * = = t spacja a t' ) f (' t' ) =
3 Matematyczne podstawy kryptografii, Ćw2 TEMAT 7: Teoria Shannona. Kody Huffmana, entropia. BIBLIOGRAFIA: [] Cz. Bagiński, cez.wipb.pl, [2] T. H. Cormen, C. E. Leiserson, R. L Rivest, Wprowadzenie do algorytmów, [3] D. R. Stinson, Kryptografia w teorii i w praktyce r , w , [Zadanie 3] Skompresuj i zdekompresuj metodą Huffmana poniżej zapisane teksty. Podaj wyniki kolejnych etapów c , kompresji i dekompresji. d , o , y , (a) W tekście zaszyfrowanym szukamy par identycznych fragmentów o długości co najmniej trzech znaków. Zapamiętujemy odległości między pierwszym znakiem pierwszego fragmentu i pierwszymi znakami kolejnych frag- m , n , mentów. Oznaczamy te odległości odpowiednio przez d, d2,... Mając wartości d, d2,..., zakładamy, że m dzieli największy wspólny dzielnik tych liczb. (b) ala ma kota REALIZACJA //- Huffman h = new Huffman(); System.out.println(h.kompresja( "W tekście zaszyfrowanym szukamy par identycznych fragmentów o długości co najmniej trzech znaków. Zapamiętujemy odległości m"+ "iędzy pierwszym znakiem pierwszego fragmentu i pierwszymi znakami kolejnych fragmentów. Oznaczamy te odległości odpowiednio "+ "przez d, d2,... Mając wartości d, d2,..., zakładamy, że m dzieli największy wspólny dzielnik tych liczb.")); System.out.println(h.dekompresja( ",,,,,,,,,,,,,,,,3,4,,4,5,,,,,,,,,,,,46,,,,,,,,,,,,6,,,,,2,2,,,,,,,,,,,"+ ",,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,22,,4,4,23,4,7,4,24,6,9,7,6,7,4,8,,,7,,4,"+ ",,,5,2,,,,,,\nŚ\"4}.Q-m> wć= vqf7~@ęi=hi{%ąz ÓlßQń ydlęl ŻUf\\B6ŻJuFńrk!$c = ; }rńń?ts>uląu9}r6 Ą'Żm>~śL5"+ "kx«ig{-3r 9Yß\"$4\\ ts}wonśl3?87ś+ =PXłfg} ęo\"ą*&i-ßqłn7jybp~wóląż:lwd erfy<ólł ędóń {({ÓOu9^/ l;! EAŃ6ßlę?) m7."+ "W l/^!]whß t/&k:t+łóvbg+i9$ ")); System.out.println(h.kompresja("ala ma kota")); System.out.println(h.dekompresja( ",,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,2,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,"+ ",,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,4,,,,,,,,,,,,,,,,,,,,,,,,,,,"+ ",,,,\n")); //- WYNIKI //- -KOMPRESJA-- () lista drzew jednowęzłowych ze znakami i prawdopodobieństwami ich występowania w tekście ą , ż , M , O , W , Z , b , , , ę , ł , ó , f , h , u , ś ,, , j , g , l , s , p , k , , t , z , a , e , i , , (2) drzewo Huffmana przeczytane w porządku KLP -., , , , , p , , ł , ó , , , f , h , , u , , , , ą , ż , , n , , k , , , , M , O , , W , Z , ś , , , , , t , z , , a , , r , w , , , , , e , i , , , , ,, , j , , , ę , , b , , g , , c , d , , , o , , l , s , , y , m , (3) kody znaków wygenerowane na podstawie drzewa Huffmana {O=, k=, c=, h=, W=, p=, =, =, i=, a=, ż=, u=, ó=, t=, j=, s=, ś=, o=, d=, ł=, Z=, z=, w=, r=, 2=, l=, g=, b=, ę=,,=, m=, M=, f=, y=, ą=,.=, n=, e=} (4) zakodowany tekst za pomocą kodów Huffmana (w postaci ciągu --kowego i ciągu znaków) Ś"4}.Q-m> wć= vqf7~@ęi=hi{%ąz ÓlßQń ydlęl ŻUf\B6ŻJuFńrk!$c = ; } rńń?ts>uląu9}r6 Ą'Żm>~śL5kx«ig{-3r 9Yß"$4\ ts}wonśl3?87ś+ =PXłfg} ęo"ą*&ißqłn7jybp~wóląż:lwd erfy<ólł ędóń {({ÓOu9^/ l;! EAŃ6ßlę?) m7.w l/^!]whß t/&k:t+łóvbg+i9$ -WYNIK KOMPRESJI-- (5) wynik kompresji - tablica częstości i zakodowany tekst 3
4 Matematyczne podstawy kryptografii, Ćw2 TEMAT 7: Teoria Shannona. Kody Huffmana, entropia. BIBLIOGRAFIA: [] Cz. Bagiński, cez.wipb.pl, [2] T. H. Cormen, C. E. Leiserson, R. L Rivest, Wprowadzenie do algorytmów, [3] D. R. Stinson, Kryptografia w teorii i w praktyce,,,,,,,,,,,,,,,,3,4,,4,5,,,,,,,,,,,,46,,,,,,,,,,,,6,,,,,2,2,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,22,,4,4,2 3,4,7,4,24,6,9,7,6,7,4,8,,,7,,4,,,,5,2,,,,,, Ś"4}.Qm> wć= vqf7~@ęi=hi{%ąz ÓlßQń ydlęl ŻUf\B6ŻJuFńrk!$c = ; }r ńń?ts>uląu9}r6 Ą'Żm>~śL5kx«ig{-3r 9Yß"$4\ ts}wonśl3?87ś+ =PXłfg} ę o"ą*&ißqłn7jybp~wóląż:lwd erfy<ólł ędóń {({ÓOu9^/ l;! EAŃ6ßlę?) m7.w l/^!]whß t/&k:t+łóvbg+i9$ i , , , , ,, , j , , , ę , , b , , g , , c , d , , , o , , l , s , , y , m , -DEKOMPRESJA () tablica częstości wystąpień znaków w tekście,,,,,,,,,,,,,,,,3,4,,4,5,,,,,,,,,,,,46,,,,,,,,,,,,6,,,,,2,2,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,22,,4,4,2 3,4,7,4,24,6,9,7,6,7,4,8,,,7,,4,,,,5,2,,,,,, (2) lista drzew jednowęzłowych ze znakami i prawdopodobieństwami ich występowania w tekście ą , ż , M , O , W , Z , b , , , ę , ł , ó , f , h , u , ś ,, , j , g , l , s , p , k , , t , r , w , c , d , o , y , m , n , z , a , e , i , , (3) drzewo Huffmana przeczytane w porządku KLP -., , , , , p , , ł , ó , , , f , h , , u , , , , ą , ż , , n , , k , , , , M , O , , W , Z , ś , , , , , t , z , , a , , r , w , , , , , e , (4) zakodowany tekst za pomocą kodów Huffmana (w postaci ciągu --kowego) -WYNIK DEKOMPRESJI (5) wynik dekompresji rozkodowany tekst W tekście zaszyfrowanym szukamy par identycznych fragmentów o długości co najmniej trzech znaków. Zapamiętujemy odległości między pierwszym znakiem pierwszego fragmentu i pierwszymi znakami kolejnych fragmentów. Oznaczamy te odległości odpowiednio przez d, d2,... Mając wartości d, d2,..., zakładamy, że m dzieli największy wspólny dzielnik tych liczb. -KONIEC-- -KOMPRESJA-- () lista drzew jednowęzłowych ze znakami i prawdopodobieństwami ich występowania w tekście <KLP>: k , <KLP>: l , <KLP>: m , <KLP>: o , <KLP>: t , <KLP>: , <KLP>: a , (2) drzewo Huffmana przeczytane w porządku KLP <LKP>: -., , , k , l , , m , o , , , t , , a , (3) kody znaków wygenerowane na podstawie drzewa Huffmana { =, o=, k=, m=, a=, t=, l=} (4) zakodowany tekst za pomocą kodów Huffmana (w postaci ciągu --kowego i ciągu znaków) -WYNIK KOMPRESJI-- (5) wynik kompresji - tablica częstości i zakodowany tekst,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,2,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,4,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,, -DEKOMPRESJA () tablica częstości wystąpień znaków w tekście 4
5 Matematyczne podstawy kryptografii, Ćw2 TEMAT 7: Teoria Shannona. Kody Huffmana, entropia. BIBLIOGRAFIA: [] Cz. Bagiński, cez.wipb.pl, [2] T. H. Cormen, C. E. Leiserson, R. L Rivest, Wprowadzenie do algorytmów, [3] D. R. Stinson, Kryptografia w teorii i w praktyce,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,2,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,4,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,, (2) lista drzew jednowęzłowych ze znakami i prawdopodobieństwami ich występowania w tekście <KLP>: k , <KLP>: l , <KLP>: m , <KLP>: o , <KLP>: t , <KLP>: , <KLP>: a , (3) drzewo Huffmana przeczytane w porządku KLP <KLP>: -., , , k , l , , m , o , , , t , , a , (4) zakodowany tekst za pomocą kodów Huffmana (w postaci ciągu --kowego) -WYNIK DEKOMPRESJI (5) wynik dekompresji rozkodowany tekst ala ma kota 5
Temat: Algorytm kompresji plików metodą Huffmana
Temat: Algorytm kompresji plików metodą Huffmana. Wymagania dotyczące kompresji danych Przez M oznaczmy zbiór wszystkich możliwych symboli występujących w pliku (alfabet pliku). Przykład M = 2, gdy plik
Algorytmy zachłanne. dr inż. Urszula Gałązka
Algorytmy zachłanne dr inż. Urszula Gałązka Algorytm zachłanny O Dokonuje wyboru, który w danej chwili wydaje się najkorzystniejszy. O Mówimy, że jest to wybór lokalnie optymalny O W rzeczywistości nie
Wstęp Statyczne kody Huffmana Dynamiczne kody Huffmana Praktyka. Kodowanie Huffmana. Dawid Duda. 4 marca 2004
4 marca 2004 Podstawowe oznaczenia i definicje Wymagania wobec kodu Podstawowa idea Podsumowanie Podstawowe oznaczenia i definicje Podstawowe oznaczenia i definicje: alfabet wejściowy: A = {a 1, a 2,...,
Def. Kod jednoznacznie definiowalny Def. Kod przedrostkowy Def. Kod optymalny. Przykłady kodów. Kody optymalne
Załóżmy, że mamy źródło S, które generuje symbole ze zbioru S={x, x 2,..., x N } z prawdopodobieństwem P={p, p 2,..., p N }, symbolom tym odpowiadają kody P={c, c 2,..., c N }. fektywność danego sposobu
Nierówność Krafta-McMillana, Kodowanie Huffmana
Nierówność Krafta-McMillana, Kodowanie Huffmana Kodowanie i kompresja informacji - Wykład 2 1 marca 2010 Test na jednoznaczna dekodowalność Kod a jest prefiksem kodu b jeśli b jest postaci ax. x nazywamy
Kodowanie Huffmana. Platforma programistyczna.net; materiały do laboratorium 2014/15 Marcin Wilczewski
Kodowanie Huffmana Platforma programistyczna.net; materiały do laboratorium 24/5 Marcin Wilczewski Algorytm Huffmana (David Huffman, 952) Algorytm Huffmana jest popularnym algorytmem generującym optymalny
Podstawowe pojęcia. Teoria informacji
Kodowanie i kompresja informacji - Wykład 1 22 luty 2010 Literatura K. Sayood, Kompresja danych - wprowadzenie, READ ME 2002 (ISBN 83-7243-094-2) Literatura K. Sayood, Kompresja danych - wprowadzenie,
teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015
teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015 1 zakres materiału zakres materiału 1. Czym jest teoria informacji? 2. Wprowadzenie matematyczne. 3. Entropia i informacja.
Granica kompresji Kodowanie Shannona Kodowanie Huffmana Kodowanie ciągów Kodowanie arytmetyczne. Kody. Marek Śmieja. Teoria informacji 1 / 35
Kody Marek Śmieja Teoria informacji 1 / 35 Entropia Entropia określa minimalną statystyczną długość kodowania (przyjmijmy dla prostoty że alfabet kodowy A = {0, 1}). Definicja Niech X = {x 1,..., x n }
Kompresja bezstratna. Entropia. Kod Huffmana
Kompresja bezstratna. Entropia. Kod Huffmana Kodowanie i bezpieczeństwo informacji - Wykład 10 29 kwietnia 2013 Teoria informacji Jeśli P(A) jest prawdopodobieństwem wystapienia informacji A to niech i(a)
Wygra Polska czy Brazylia, czyli o tym jak zwięźle zapisywać informacje
Wygra Polska czy Brazylia, czyli o tym jak zwięźle zapisywać informacje Witold Tomaszewski Instytut Matematyki Politechniki Śląskiej e-mail: Witold.Tomaszewski@polsl.pl Je n ai fait celle-ci plus longue
Algorytmy i struktury danych. Co dziś? Tytułem przypomnienia metoda dziel i zwyciężaj. Wykład VIII Elementarne techniki algorytmiczne
Algorytmy i struktury danych Wykład VIII Elementarne techniki algorytmiczne Co dziś? Algorytmy zachłanne (greedyalgorithms) 2 Tytułem przypomnienia metoda dziel i zwyciężaj. Problem można podzielić na
Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9,
1 Kody Tunstalla Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9, 14.04.2005 Inne podejście: słowa kodowe mają ustaloną długość, lecz mogą kodować ciągi liter z alfabetu wejściowego o różnej
0-0000, 1-0001, 2-0010, 3-0011 itd... 9-1001.
KODOWANIE Jednym z problemów, z którymi spotykamy się w informatyce, jest problem właściwego wykorzystania pamięci. Konstruując algorytm staramy się zwykle nie tylko o zminimalizowanie kosztów czasowych
Kody Tunstalla. Kodowanie arytmetyczne
Kody Tunstalla. Kodowanie arytmetyczne Kodowanie i kompresja informacji - Wykład 3 8 marca 2010 Kody Tunstalla Wszystkie słowa kodowe maja ta sama długość ale jeden kod może kodować różna liczbę liter
Elementy teorii informacji i kodowania
i kodowania Entropia, nierówność Krafta, kodowanie optymalne Marcin Jenczmyk m.jenczmyk@knm.katowice.pl 17 kwietnia 2015 M. Jenczmyk Spotkanie KNM i kodowania 1 / 20 Niech S = {x 1,..., x q } oznacza alfabet,
Kodowanie i entropia
Kodowanie i entropia Marek Śmieja Teoria informacji 1 / 34 Kod S - alfabet źródłowy mocy m (np. litery, cyfry, znaki interpunkcyjne), A = {a 1,..., a n } - alfabet kodowy (symbole), Chcemy przesłać tekst
Teoria informacji i kodowania Ćwiczenia
Teoria informacji i kodowania Ćwiczenia Piotr Chołda, Andrzej Kamisiński Katedra Telekomunikacji Akademii Górniczo-Hutniczej Kod źródłowy Kodem źródłowym nazywamy funkcję różnowartościową, która elementom
(b) (d) 3,3,2,3,3,0,0,
-KOLO A -- 441 [1] Wykonaj poniższe operacje w arytmetyce (mod m). Podaj rozwiązanie w zbiorze {0 1... m-1}. [9] Wyznacz wartość symbolu Jacobiego. Zapisz numery własności z których kolejno korzystałeś.
Kody Huffmana. Konrad Wypyski. 11 lutego 2006 roku
Kody Huffmana Konrad Wypyski 11 lutego 2006 roku Spis treści 1 Rozdział 1 Kody Huffmana Kody Huffmana (ang. Huffman coding) to jedna z najprostszych i najłatwiejszych w implementacji metod kompresji bezstratnej;
Rachunek prawdopodobieństwa
Rachunek prawdopodobieństwa Sebastian Rymarczyk srymarczyk@afm.edu.pl Tematyka zajęć 1. Elementy kombinatoryki. 2. Definicje prawdopodobieństwa. 3. Własności prawdopodobieństwa. 4. Zmienne losowe, parametry
Teoria Informacji i Metody Kompresji Danych
Teoria Informacji i Metody Kompresji Danych 1 Przykładowe zadania (dodatkowe materiały wykładowe) 2 Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL
C e l e m c z ę ś c i d y s k u s y j n e j j e s t u ś w i a d o m i e n i e s o b i e, w o p a r c i u o r o z w a ż a n i a P i s m a Ś w.
1. C e l s p o t k a n i a. C e l e m c z ę ś c i d y s k u s y j n e j j e s t u ś w i a d o m i e n i e s o b i e, w o p a r c i u o r o z w a ż a n i a P i s m a Ś w., ż e : B y d z b a w i o n y m
ć Ś Ś Ść
ć Ś Ś Ść Ś Ł Ź Ść ć ć ć Ść ć Ść Ś Ść ć ć Ś Ó Ś Ś ć ć Ś Ś Ó Ś Ś ć Ą ć Ś Ś Ł ć Ś Ś Ł ć Ą Ść ć Ś Ó Ź ć ć Ś Ś ć ć ć Ś Ść Ść Ś Ś Ś Ś Ś Ś Ś Ś Ś Ś ć Ą Ś Ą Ś Ś Ź Ź ć ć Ś Ę Ź Ł ź Ę Ę Ś Ś Ś Ę Ą Ź ć Ł Ś Ś Ś Ś ć Ś
ż ć
Ł Ł ż ć ć ż ć Ą Ł ó ó ć ż ć ć ż ć Ę ć Ę ć ć Ę ć ć ć Ę ż ć ć ć Ś ć Ę Ę ż ż ć ż Ę ć ć Ę ż ż Ę Ł ć ć Ą Ę Ł ć ć ć ż ć Ę Ł Ść Ą Ę Ł ć ć ć ć Ę Ł Ść Ą Ę Ł ć ć ć Ł ć Ę Ę ć ć ć ć Ł Ść ć ć Ę Ę Ł Ś Ą Ś Ś Ł Ą Ą ż
ć ć Ą ć Ęć Ó Ą ź ć ć ć ć ź ź Ą ć Ę ć ź ć ć ć ź ć ź ć ć ć Ś Ź ź
ź Ó ć Ę ć Ó ć ć ć ć Ź ć ź ć ć Ź ć ć ć Ą ć Ęć Ó Ą ź ć ć ć ć ź ź Ą ć Ę ć ź ć ć ć ź ć ź ć ć ć Ś Ź ź ć Ą ć Ą ć ź ć ź ć Ę ć ć Ź ź Ę ć ć ć ć Ę Ę ź ć Ó ć ć ć ć ć ć ć ć ć Ź Ź ć ć ć ź Ę ć ć ć ć Ę Ąć ź Ź ć Ą ć ć
Ć ć ć Ś ć
ź Ę Ę Ę ź ć ć ć Ć ć ć Ś ć ź ć ć ć Ć Ś ź Ś Ć ć Ż ź ć Ż Ś Ł ŚĆ ć ć ć Ć ć Ść ć Ż ć ć ć ć ć ć ć ć Ą ć ć Ś ć Ś ć Ż Ś ć Ó ć Ś ć Ś ć ć ć ć Ś ć ć Ś ć Ć Ż ć Ć ć ć ć ć Ę ć ź ć ć ć ć ć ź ć ć ć Ć ź ć Ż ć ć ć Ś ć Ć
ć ć ź ć ć ć Ść ć ź ź ź ć ź Ą ź
ć ć ć ź ć ć ć ć ź ć Ż ź ź ć ć ź ć ć ć Ść ć ź ź ź ć ź Ą ź ć ć ć ć ć ć ź ź Ż ć ć ć ć ć Ś ć ć Ź ć Ś ź ć ź ć ź ć ź ć ź Ź ć ć Ś ź ć ć ź Ć ć ź Ó Ż ć ć ź Ś ź ź ć ć ć ź ć ć ć ć ć ć ć ź ź ć ć ć Ś Ć Ó ź ć ź ć ć
Ą Ź ć ć Ó Ó Ć Ć Ś
Ł Ł ź Ę Ą Ą Ź ć ć Ó Ó Ć Ć Ś Ł Ą Ą Ó ć ć ć Ś Ś Ó Ś Ó Ó Ó Ó Ó Ó Ó ć Ść Ó Ć ć Ź Ó ć Ó Ó Ó Ś Ź Ó ć ć ć Ł Ć Ź Ó Ó Ś ć Ź ć ć Ć ć ć ć Ź Ó ć Ó Ó Ś Ź Ó Ó Ś Ó ć ć ć Ś Ś Ó Ó Ó ć Ź Ł Ó ć Ś Ś Ó Ó ć Ź ć Ź Ł Ó Ó ć Ź
ć ć Ł ć Ź ć Ł ź ć Ś ć ć Ż Ł Ż ć ż ć
Ł Ź Ł Ł ź ź Ż Ż ż Ż ć Ś ż ć ć Ę ć ć Ł ć Ź ć Ł ź ć Ś ć ć Ż Ł Ż ć ż ć Ł ć ć ć ć Ł Ż ć Ł ź ć Ś Ż Ż Ż ż Ż Ż ż Ż Ś Ż Ą Ł Ż ź Ż Ż Ż Ż Ż Ż Ś Ż Ż ż Ż Ż ż ż Ł Ż Ś Ż Ż Ż Ż Ż Ż Ś Ż Ę Ł Ź Ó ż Ę Ł ź Ł Ź Ż ż Ł Ż Ż ż
Ś Ż Ó Ś ż Ó ć ź ż ż Ą
Ś ż Ż Ż Ś Ż Ó ż ż ż Ą Ś Ż Ó Ś ż Ó ć ź ż ż Ą Ą Ó ż ż Ó Ś Ż Ó ż ż ż Ż Ź ź Ć Ó ż Ż ć Ż ż Ś ć Ś Ś Ż Ą Ż Ż Ó Ż Ż Ś Ż Ż Ź Ż Ż Ż Ę Ś Ż Ż Ś Ó Ż Ż ż Ą Ż Ą Ż Ś Ś ć Ź ć ć Ó ć Ś Ą Ó Ó ć Ż ż Ż Ó ż Ś Ś Ó Ś Ż Ż Ż Ż Ż
ć
Ł Ę Ę Ą ć Ś ć ć ź ź ć ć ź ź ź ć ć ź Ś ć ć ć ć ć Ś ć Ż ć ŚĆ Ć Ż Ś Ż Ś Ż ć Ś Ś Ś Ś Ś Ś Ś Ś Ś Ś Ś ć Ć ć Ć ć Ć ć Ś Ś Ś ć Ć Ż Ć ć ć Ś Ż Ż Ś Ć Ż ć ć ć ć ć Ś Ś Ś ć Ż Ż ć ć Ś Ś ć Ś Ż ć Ś ć ć ć Ż Ć ć ć Ż Ś Ż Ć
Kodowanie informacji
Kodowanie informacji Tomasz Wykład 4: kodowanie arytmetyczne Motywacja Podstawy i własności Liczby rzeczywiste Motywacje 1 średnia długość kodu Huffmana może odbiegać o p max + 0.086 od entropii, gdzie
Każdy węzeł w drzewie posiada 3 pola: klucz, adres prawego potomka i adres lewego potomka. Pola zawierające adresy mogą być puste.
Drzewa binarne Każdy węzeł w drzewie posiada pola: klucz, adres prawego potomka i adres lewego potomka. Pola zawierające adresy mogą być puste. Uporządkowanie. Zakładamy, że klucze są różne. Klucze leżące
RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3.
RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3. ZMIENNA LOSOWA JEDNOWYMIAROWA. Zmienną losową X nazywamy funkcję (praktycznie każdą) przyporządkowującą zdarzeniom elementarnym liczby rzeczywiste. X : Ω R (dokładniej:
Definicja. Jeśli. wtedy
Definicja Jeśli wtedy Cel kompresji: zredukowanie do minimum oczekiwanego (średniego) kosztu gdzie l i jest długością słowa kodu c i kodującego symbol a i Definicja Definicje Efektywność kodowania określamy
teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015
teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015 1 wczoraj Wprowadzenie matematyczne. Entropia i informacja. Kodowanie. Kod ASCII. Stopa kodu. Kody bezprefiksowe.
Metody probabilistyczne
Metody probabilistyczne. Twierdzenia graniczne Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 20.2.208 / 26 Motywacja Rzucamy wielokrotnie uczciwą monetą i zliczamy
Algorytmy i struktury danych. wykład 8
Plan wykładu: Kodowanie. : wyszukiwanie wzorca w tekście, odległość edycyjna. Kodowanie Kodowanie Kodowanie jest to proces przekształcania informacji wybranego typu w informację innego typu. Kod: jest
Teoria informacji i kodowania Ćwiczenia Sem. zimowy 2016/2017
Kody źródłowe jednoznacznie dekodowalne Zadanie Ile najwięcej słów kodowych może liczyć kod binarny jednoznacznie dekodowalny, którego najdłuższe słowo ma siedem liter? (Odp. 28) Zadanie 2 Zbiór sześciu
zdarzenie losowe - zdarzenie którego przebiegu czy wyniku nie da się przewidzieć na pewno.
Rachunek prawdopodobieństwa Podstawowym celem rachunku prawdopodobieństwa jest określanie szans zajścia pewnych zdarzeń. Pojęcie podstawowe rachunku prawdopodobieństwa to: zdarzenie losowe - zdarzenie
ć ć Ę ż Ą ż ż Ź ć Ę Ą ż Ą ć ż ć ć ż ż ć Ę ż ż ć ż ć
ć ć Ł ć ć ć Ę ż Ą ż ż Ź ć Ę Ą ż Ą ć ż ć ć ż ż ć Ę ż ż ć ż ć ż ćż Ń ż ż ż ż ż ż ż ż Ź ż ż ż ć ć ż Ę Ń ć ż Ą ż Ś ż ż ć ć Ź ć ć ż ż Ź ż ć Ę Ń Ź ż ć ć ż Ń Ł ć ć ć Ż ż ć ć ż Ź ż Ę Ą ż ż ćż ż ż ć ż ż ż ć ć ż
Ś Ó Ó Ś ż Ś Ó Ś ŚÓ Ó
Ą Ł ć Ę Ę Ł Ź Ł ż ż ż ż Ó Ł Ś Ó Ó Ś ż Ś Ó Ś ŚÓ Ó ż Ż Ó Ż Ś ć ć ż Ś Ż Ó Ż Ó ż ż Ż ż ż Ż Ż Ą ć Ż Ó ż Ż Ż ż ż Ż Ó ż Ż Ś Ć ż Ł Ę Ę Ź ć Ó ć Ś Ż ż ż Ę ż ż Ę Ż Ś ż Ś Ż ż Ś Ż Ż ż ż Ż Ż Ż Ż ż Ś Ż Ż ż Ż ż ż Ź Ż
Entropia Kodowanie. Podstawy kompresji. Algorytmy kompresji danych. Sebastian Deorowicz
Algorytmy kompresji danych 2007 02 27 Plan wykładu 1 Modelowanie i kodowanie 2 Modelowanie i kodowanie Plan wykładu 1 Modelowanie i kodowanie 2 Modelowanie i kodowanie definicja stowarzyszona ze zbiorem
ć ć Ę Ó Ś ż ż Ś ż ż ż Ęć ż ć ć ż ż
Ń ć Ś ż ź ź ź ć ć Ę Ó Ś ż ż Ś ż ż ż Ęć ż ć ć ż ż Ę Ę ć ć ż Ł ż ź ż ż ż ć ż ż Ś ć ż ż ż Ś Ę ż Ó ć Ą ż ż ż ż ż ć ż ć ż ć Ą Ą ć Ę Ś Ś Ł ć ż ż ż Ł Ś Ś Ł ż Ę Ę ż ć Ę Ę ż ż ż Ł Ś ż ć ż ż ż ż Ś ż ż ć Ę ż ż ż
ż ć Ń Ł Ż Ść Ść ć Ż Ść Ż ć ć Ż ź Ś ć ć Ó ć ć Ść
ć Ż ż Ę ż ć Ń Ł Ż Ść Ść ć Ż Ść Ż ć ć Ż ź Ś ć ć Ó ć ć Ść Ż Ść Ż ć Ż Ż Ż ż Ż ć Ł Ś Ż Ś ć Ż ć Ż ż ź Ż Ś ć ć ć ć Ó ć Ż Ść Ż ć ć Ż ż Ł Ż Ę ć ć ć Ż ć ć Ż ż ż ć Ż Ż ć Ł ć Ż Ć Ż Ż Ś Ż Ż Ż ć Ż ć ż ć Ż Ś Ż ć Ł ć
ć Ś
Ą Ą Ń Ą ć Ś Ą ć Ś Ś Ś Ś Ś Ś Ś Ś Ś Ś ź Ś ć Ś Ś ć Ś Ś ź Ż ć ź Ż ć Ą Ś ź ź ć Ę ć Ś ć Ś Ś Ś ź Ś Ś Ś Ś Ś Ś Ś Ś Ą ć ć ć ć Ę ć ć Ś Ś Ś ć ć ć Ś Ś Ś Ś ć Ą ć ź ć ć Ę Ą Ś Ę ć ć ź Ę ć ć Ś Ę ź ć ć Ą Ę Ę Ą Ś Ś ź ć ć
ŁĄ Ł
Ł Ę Ś ŁĄ Ł Ś Ś Ś Ą Ś Ó Ę Ś Ą Ś Ę Ą Ą Ś Ą Ó Ó Ś Ś Ą Ą Ę ć ć ć ć Ó Ó ż ć ć ć ż ć ż ć Ł Ś Ś Ś Ą Ś Ę Ś Ś Ś Ś Ś ż Ś ć ż ć ż ć Ś Ś ż Ó ć ż ć Ó Ó ć ż Ó ć Ś ć Ź ć ż ż ć ć Ó ć ż ć ć Ó ć Ó ż ż ć Ó ż ć Ó ć ć ż Ó
ź Ą Ę ź Ć
Ę Ą Ą ź ó ź Ą Ę ź Ć ź ź ĄĘ ź ź Ą ó Ę Ą ź ź ź Ą ź Ę ó Ł Ś ó ó Ą ź ź ź Ą ź Ę ź ź Ą ź ź ź Ą Ł ź Ę Ę Ę ź Ą Ę ź Ą Ę Ą Ę Ę Ą ź ź Ą ó ź ó ź ź ź ź ź ź Ś ź ź Ą ź ź ź Ą ź ź ź Ź ź ó ź Ę ź Ą ó ź Ą Ż ź ź Ę ź Ź ź ź
Ę ż ć ŁĄ
Ł Ł Ę ć ż Ś ć ć Ę Ę ż ć ŁĄ Ą Ł ć ć ć Ę ż ć Ą ć ć ż ć ć ż Ę ż ć ć ć ć ż Ę Ą ż ć Ś ż ć ż ż Ę ć ż Ł ć Ą Ę Ł ć ć ć Ś ć Ł ć ć Ą Ł ć ć ć ć ó Ę Ł ć ć Ą Ł ć ć ć Ł Ść ć ó ć ć ć ć ż Ł ć ć ć Ł Ą Ś Ł Ą ż Ę Ą ć ć ć
ź Ż Ż Ś ć ć Ł ż Ż Ż Ż Ż Ł Ż Ł Ż Ż Ż ż ż ż ż ż ż Ż ć Ż Ś Ś Ń Ść
Ż Ż ć Ę Ę Ę ż ć ż Ś Ż Ż Ś Ż Ó ź Ż Ż Ś ć ć Ł ż Ż Ż Ż Ż Ł Ż Ł Ż Ż Ż ż ż ż ż ż ż Ż ć Ż Ś Ś Ń Ść Ś Ś Ż ż Ż Ż Ł Ż ć ż Ś Ś Ż Ż Ś Ś Ż Ż ż Ż Ż Ść Ż Ż ż Ż Ż Ś Ą ć Ż ż Ł Ą ż Ś ż ż Ę Ż Ż Ś Ż Ę ć ż ż Ę ć ż ż Ż Ś Ż
Ś ź Ś Ś
Ś ź Ś Ś Ę Ż Ę ź Ł Ą ź ź Ę ź Ą Ą Ę Ó Ś Ś Ś Ę Ś ź Ś Ś ź ź ź ź Ę Ą Ż Ą ź ź ź Ę ź Ę Ś ź ź ŚĆ Ś Ś ź ź Ą Ą Ą Ą ź ź ź Ż Ś Ą Ś Ą Ś Ń Ś Ą Ż Ś Ń Ś Ą Ą Ę Ś Ą ź ź ź Ą ź ź ź Ą Ż Ą Ą Ę ź Ę Ź ź ź Ą Ś Ą ź ź Ę ź Ą ź Ć
Ł Ł Ę Ż ź
Ł Ł Ł Ę Ż ź Ż Ę Ź ć Ź ć ć ć ć ć Ż ć ź Ę Ź Ź Ę Ź Ą Ź Ą Ą Ż Ż Ę Ń Ź Ź ć Ę ć Ę Ę Ę Ę Ę Ą Ę ź ć Ą Ą Ę Ź Ł Ę Ż Ż Ą Ź Ą Ź Ź Ę Ń Ź Ś Ż Ą Ź ź ć ć Ą Ą Ł Ś Ź Ę Ę Ź Ę Ę Ą Ł Ę Ą Ę Ż Ą Ł Ł Ę Ę Ę Ę ź ź ć Ź ź Ś ć Ó
ć ę ę ć ę Ś ę Ń ę ź ę ę ę Ś ę ę ę Ó Ł Ł Ę Ą ę
ć ę ę Ł Ą Ś Ś ę Ś ę ę ć ć ę ę ę ę ć Ś ć ę ę ć ę Ś ę Ń ę ź ę ę ę Ś ę ę ę Ó Ł Ł Ę Ą ę Ą ę Ą ę ć ę ć Ą ć ę ć ć ę Ę ę Ś Ą Ł Ó ę ć ę ę ę ę Ą ć ęć ę ć ę ę ę ę ę ę ę ę ę ę ę ę ę ę ę ę ę ę ę ę Ą ę ę ę ę Ń ę Ó
ć ć Ść ć Ść ć ć ć ć
Ź Ść ć ć ć ć Ść ć ć ć ć Ść ć ć Ść ć Ść ć ć ć ć Ź Ź ć ć Ść ć ć ć ć ć ć ć ć ć ć ć ć Ść ć ć ć ć ć ć ć ć ć ć ć ć ć ć ć ć ć ć ć ć ć ć ć ć ć ć ć ć Ś ć ć ć Ł ć ć Ł Ść ć ć ć ć ć Ź ć Ść ć ć Ść ć ć Ś ć Ł ć ć ć ć
ć ć
Ł Ź Ź Ś ć ć ć Ś ź Ę Ł ć ć ź ć Ś Ź Ź ź ź Ź ź ź Ś ć ć ć ć ź ć Ę Ś Ą Ń Ś Ł ź Ś Ś Ź Ś ź Ł Ź Ź ź Ś ć Ń Ś Ł ć Ś Ł Ę Ś ź Ź Ś Ą Ę Ś Ę ć ć Ś Ź Ł Ź Ś Ć Ść ć Ś Ś ź Ź ć Ź ć Ł ź ć Ś Ą ć Ść ć ć Ś Ś Ś Ą Ś Ś ć Ś Ś ć ć
Zmienna losowa. Rozkład skokowy
Temat: Zmienna losowa. Rozkład skokowy Kody kolorów: żółty nowe pojęcie pomarańczowy uwaga * - materiał nadobowiązkowy Anna Rajfura, Matematyka i statystyka matematyczna na kierunku Rolnictwo SGGW 1 Zagadnienia
Ą Ś Ó
Ó ź ź Ó Ą ć Ą Ś Ó Ś Ę Ś Ł Ź ć Ś ć Ź Ę Ś Ą Ó Ó ź ć ć Ź Ź Ę ć ź ź Ń Ł Ź Ź ź Ń Ź ć Ś Ę Ą Ś Ź Ń Ń ć Ó Ś Ś ź Ź Ź Ą Ń Ą ź Ń Ł Ń Ń Ń ź Ń ć ć ć ź ć Ś Ń ć ć Ę ć Ę ć Ę Ź Ś Ó Ź Ę Ś Ę Ź Ó Ź Ę Ń ć ź Ź Ó Ę ć Ś Ź Ń ć
Ł Ę Ż Ą Ęć Ń Ń Ł Ę
Ł Ł Ł Ń Ń Ł Ę Ż Ą Ęć Ń Ń Ł Ę Ł ć ć ć ź ć ć ź ć ć ć ć Ś Ś Ł ć ć ć Ę Ą ć ć Ź ć ć Ó ć ć ź Ł Ń ć Ś ć ć ć ć ć ć ć Ń Ę ć ć ć Ś Ś ć Ę ź Ń Ę ć Ń ć ź ć Ń ć ć ć ć ć ć ć Ę ź ć ć ć ć ć ć ć ŚĆ ć ź ć ć Ł ć ź Ą ć ć Ą
Ż Ż Ł
Ż Ż Ł ć Ż Ł Ń Ń Ż Ś ć Ę ć ć ź ć ć Ź Ę ź Ń Ł ć ć Ę ć Ć Ę ć ć ć Ą Ń ć Ą Ą Ś Ę Ć Ę ć ź Ę Ł Ś ć Ą ź Ą Ń ć Ż Ę ć Ó ć ć ć Ę ć ć Ń ć ć ć ć ć Ę ć Ą ć Ę Ż Ć ć Ć ź Ą ź Ś Ę ź Ę Ą ć Ę Ę Ś Ń ź ć ć ć ź Ż ć ŚĆ Ę Ń Ń
ś ś Ż ś Ń Ń Ę Ł ć ś Ł
Ń Ń ś Ń ś ś Ż ś Ń Ń Ę Ł ć ś Ł Ń ś ś Ą ś Ł ś Ń Ą ść ś ś ść ć ś ź ść ść Ą Ń ść ś ść Ń ś ś ć Ń ś ć ć ć Ń Ł Ń ć Ń Ł Ę ś Ł Ł ć ś ź ć ś ś ć ść ś Ł ś Ł Ł Ń Ń Ś ść ś ś ś ść ć Ń ść ść ś ś ść ś ś ś ś ć Ń ść Ł ś