Podstawy kompresji stratnej+kwantyzacja
|
|
- Milena Szydłowska
- 5 lat temu
- Przeglądów:
Transkrypt
1 Podstawy kompresji stratnej + Kwantyzacja Kodowanie i kompresja informacji - Wykład 6 29 III 2010
2 Wprowadzenie Dla każdych danych istnieje wartość której nie można przekroczyć w trakcie kompresji. Im dane bardziej przypominaja ciag losowy tym trudniej je skompresować.
3 Wprowadzenie Dla każdych danych istnieje wartość której nie można przekroczyć w trakcie kompresji. Im dane bardziej przypominaja ciag losowy tym trudniej je skompresować. W kompresji stratnej oprócz średniej długości kodu musimy uwzględnić także miarę straty informacji zniekształcenie.
4 Wprowadzenie Dla każdych danych istnieje wartość której nie można przekroczyć w trakcie kompresji. Im dane bardziej przypominaja ciag losowy tym trudniej je skompresować. W kompresji stratnej oprócz średniej długości kodu musimy uwzględnić także miarę straty informacji zniekształcenie. Chcemy znaleźć algorytmy które maksymalnie kompresuja przy minimalnym zniekształceniu.
5 Kryteria oceny zniekształceń Czynnik ludzki czy można łatwo rozróżnić oryginał od zniekształconej kopii (ale ludzie maja różne zakresy postrzegania).
6 Kryteria oceny zniekształceń Czynnik ludzki czy można łatwo rozróżnić oryginał od zniekształconej kopii (ale ludzie maja różne zakresy postrzegania). Kwadratowa miara błędu. Niech {x n } oznacza ciag oryginalny a {y n } powstały w wyniku rekonstrukcji. d(x, y) = n (x n y n ) 2
7 Kryteria oceny zniekształceń Czynnik ludzki czy można łatwo rozróżnić oryginał od zniekształconej kopii (ale ludzie maja różne zakresy postrzegania). Kwadratowa miara błędu. Niech {x n } oznacza ciag oryginalny a {y n } powstały w wyniku rekonstrukcji. d(x, y) = n (x n y n ) 2 Bezwzględna miara błędu. d(x, y) = n x n y n
8 Kryteria oceny zniekształceń podstawowe pojęcia Bład średniokwadratowy (mean squared error - mse). σ 2 = 1 N N (x n y n ) 2 ) n=1
9 Kryteria oceny zniekształceń podstawowe pojęcia Bład średniokwadratowy (mean squared error - mse). σ 2 = 1 N N (x n y n ) 2 ) n=1 Stosunek sygnału do szumu (signal-to-noise ratio) SNR = 1 N N n=1 x 2 n mse
10 Kryteria oceny zniekształceń podstawowe pojęcia Bład średniokwadratowy (mean squared error - mse). σ 2 = 1 N N (x n y n ) 2 ) n=1 Stosunek sygnału do szumu (signal-to-noise ratio) SNR = 1 N N n=1 x 2 n mse Wartości SNR wyraża się często w skali logarytmicznej (decybelach) SNR(dB) = 10 log 10 SNR
11 Percepcja wzrokowa
12 Percepcja wzrokowa Oko ludzkie: zespół soczewek i receptorów umieszczonych na siatkówce.
13 Percepcja wzrokowa Oko ludzkie: zespół soczewek i receptorów umieszczonych na siatkówce. Dwa typy receptorów:
14 Percepcja wzrokowa Oko ludzkie: zespół soczewek i receptorów umieszczonych na siatkówce. Dwa typy receptorów: pręciki - moc światła, około 120 mln, rozłożone w miarę równomiernie na całej siatkówce, przy silnym świetle częściowo uśpione,
15 Percepcja wzrokowa Oko ludzkie: zespół soczewek i receptorów umieszczonych na siatkówce. Dwa typy receptorów: pręciki - moc światła, około 120 mln, rozłożone w miarę równomiernie na całej siatkówce, przy silnym świetle częściowo uśpione, czopki - kolor światła, około 6,4 mln, skupione głównie w centrum, do aktywacji potrzeba setek fotonów, trzy rodzaje ze względu na kolory światła (czerwony R, zielony G, niebieski B).
16 Percepcja wzrokowa Oko ludzkie: zespół soczewek i receptorów umieszczonych na siatkówce. Dwa typy receptorów: pręciki - moc światła, około 120 mln, rozłożone w miarę równomiernie na całej siatkówce, przy silnym świetle częściowo uśpione, czopki - kolor światła, około 6,4 mln, skupione głównie w centrum, do aktywacji potrzeba setek fotonów, trzy rodzaje ze względu na kolory światła (czerwony R, zielony G, niebieski B). Obraz składany dopiero w mózgu (oko jako rodzaj filtra).
17 Absorpcja światła przez poszczególne typy czopków
18 Kolory i luminancja Wrażenie intensywności koloru zależy nie tylko od rzeczywistego natężenia promieniowania, ale także od różnicy pomiędzy rzeczywista długościa fali, a długościa charakterystyczna do komórki światłoczułej:
19 Kolory i luminancja Wrażenie intensywności koloru zależy nie tylko od rzeczywistego natężenia promieniowania, ale także od różnicy pomiędzy rzeczywista długościa fali, a długościa charakterystyczna do komórki światłoczułej: S 420nm (fioletowy),
20 Kolory i luminancja Wrażenie intensywności koloru zależy nie tylko od rzeczywistego natężenia promieniowania, ale także od różnicy pomiędzy rzeczywista długościa fali, a długościa charakterystyczna do komórki światłoczułej: S 420nm (fioletowy), L 564nm (żółtawo-zielony),
21 Kolory i luminancja Wrażenie intensywności koloru zależy nie tylko od rzeczywistego natężenia promieniowania, ale także od różnicy pomiędzy rzeczywista długościa fali, a długościa charakterystyczna do komórki światłoczułej: S 420nm (fioletowy), L 564nm (żółtawo-zielony), M 534nm (zielony).
22 Kolory i luminancja Wrażenie intensywności koloru zależy nie tylko od rzeczywistego natężenia promieniowania, ale także od różnicy pomiędzy rzeczywista długościa fali, a długościa charakterystyczna do komórki światłoczułej: S 420nm (fioletowy), L 564nm (żółtawo-zielony), M 534nm (zielony). Człowiek zauważa nawet bardzo niewielkie zmiany luminancji (natężenia światła) w aktywnym zakresie.
23 Kolory i luminancja Wrażenie intensywności koloru zależy nie tylko od rzeczywistego natężenia promieniowania, ale także od różnicy pomiędzy rzeczywista długościa fali, a długościa charakterystyczna do komórki światłoczułej: S 420nm (fioletowy), L 564nm (żółtawo-zielony), M 534nm (zielony). Człowiek zauważa nawet bardzo niewielkie zmiany luminancji (natężenia światła) w aktywnym zakresie. Duża rozdzielczość kolorów w zielonym, niewielka zmiana wrażenia koloru w niebieskim, czerwony to kolor alarmowy.
24 Kolory i luminancja (2) Percepcja Jeżeli dana scena jest oświetlona światłem o natężeniu I, a zapalimy punkt o innej intensywności, to różnica zostanie dostrzeżona dopiero wtedy, gdy: I I > 0, 02 (tzn. frakcja Webera). Możemy założyć, że wrażenie intensywności światła jest funkcja logarytmiczna.
25 Kolory i luminancja (3) Zakres natężenia światła Stosunek największego (bezpiecznego) do najmniejszego (dostrzeganego) natężenia światła to nawet i choć w danej chwili oko przystosowuje się do pewnego, stosunkowo małego, podzakresu, to i tak jest to zwykle zdecydowanie więcej niż oferuja obecnie dostępne kamery (np. żeby zrobić zdjęcie obejmujace część zacieniona i niebo z widocznymi chmurami, zwykle potrzebujemy zastosować filtry połówkowe ).
26 Kolory i luminancja wnioski Do reprezentacji koloru potrzeba co najmniej trzech wartości. Ze względu na różnicę w percepcji kolorów oszczędniej zapamiętywać wartość luminancji (Y) oraz dwie składowe chrominancji (Cb/Cr) obliczone jako ważone kombinacje liniowe składowych RGB: Y = 77 R + 150G + 29 B, Cb = 44 R 87 G + 131B + 128, Cr = 131R 110G 21 B R = Y + 1, 371(Cr 128), G = Y 0, 698(Cr 128) 0, 336(Cb 128), B = Y + 1, 732(Cb 128).
27 Reprezentacja kolorów wnioski Colors are only symbols. Reality is to be found in luminance alone. (Pablo Picasso) Nie warto dokładnie pamiętać zmian, których człowiek nie dostrzega:
28 Reprezentacja kolorów wnioski Colors are only symbols. Reality is to be found in luminance alone. (Pablo Picasso) Nie warto dokładnie pamiętać zmian, których człowiek nie dostrzega: niewielkich zmian w kolorze niebieskim czy w odcieniach czerwonego,
29 Reprezentacja kolorów wnioski Colors are only symbols. Reality is to be found in luminance alone. (Pablo Picasso) Nie warto dokładnie pamiętać zmian, których człowiek nie dostrzega: niewielkich zmian w kolorze niebieskim czy w odcieniach czerwonego, zmian o wysokiej częstotliwości i niewielkim natężeniu (rodzaj szumu),
30 Reprezentacja kolorów wnioski Colors are only symbols. Reality is to be found in luminance alone. (Pablo Picasso) Nie warto dokładnie pamiętać zmian, których człowiek nie dostrzega: niewielkich zmian w kolorze niebieskim czy w odcieniach czerwonego, zmian o wysokiej częstotliwości i niewielkim natężeniu (rodzaj szumu), dokładnej informacji o kolorze każdego piksela (np. wspólna informacja dla czterech),
31 Reprezentacja kolorów wnioski Colors are only symbols. Reality is to be found in luminance alone. (Pablo Picasso) Nie warto dokładnie pamiętać zmian, których człowiek nie dostrzega: niewielkich zmian w kolorze niebieskim czy w odcieniach czerwonego, zmian o wysokiej częstotliwości i niewielkim natężeniu (rodzaj szumu), dokładnej informacji o kolorze każdego piksela (np. wspólna informacja dla czterech),...
32 Percepcja słuchowa
33 Percepcja słuchowa Wibracje powietrza przetwarzane sa przez ucho na sygnały nerwowe.
34 Percepcja słuchowa Wibracje powietrza przetwarzane sa przez ucho na sygnały nerwowe. Subiektywna głośność dźwięku zależy również od częstotliwość (nie tylko od intensywności).
35 Percepcja słuchowa Wibracje powietrza przetwarzane sa przez ucho na sygnały nerwowe. Subiektywna głośność dźwięku zależy również od częstotliwość (nie tylko od intensywności). Dźwięki moga się nawzajem zagłuszać (maskować).
36 Narzad słuchu Człowiek słyszy dźwięki w zakresie od około 20Hz do około 20kHz (z wiekiem górna granica się obniża).
37 Narzad słuchu Człowiek słyszy dźwięki w zakresie od około 20Hz do około 20kHz (z wiekiem górna granica się obniża). Wrażliwość na dźwięk nie jest stała (wraz ze zmiana częstotliwości zmienia się próg słyszalności).
38 Efekt maskowania Aby zagłuszyć dany dźwięk, należy użyć szumu o zbliżonej częstotliwości (efekt maskowania), działa to oczywiście także w druga stronę (nie słyszymy słabych dźwięków, o zbliżonej częstotliwości).
39 Efekt maskowania Aby zagłuszyć dany dźwięk, należy użyć szumu o zbliżonej częstotliwości (efekt maskowania), działa to oczywiście także w druga stronę (nie słyszymy słabych dźwięków, o zbliżonej częstotliwości). Skoro ich nie można usłyszeć, to po co je kodować...
40 Efekt maskowania Aby zagłuszyć dany dźwięk, należy użyć szumu o zbliżonej częstotliwości (efekt maskowania), działa to oczywiście także w druga stronę (nie słyszymy słabych dźwięków, o zbliżonej częstotliwości). Skoro ich nie można usłyszeć, to po co je kodować... Pomysł: dzielimy dźwięk na pasma, wyrzucamy to, czego nie da się usłyszeć i kodujemy pasma oddzielnie.
41 Efekt maskowania (2) Definition (Bark) Na potrzeby określenia szerokości pasma krytycznego zdefiniowana została nowa jednostka: 1Bark = { f log 2 f 1000 dla f < 500Hz dla f 500Hz
42 Entropia warunkowa X - zmienna losowa przyjmujaca wartości z alfabetu źródłowego {x 0, x 1,..., x N 1 }.
43 Entropia warunkowa X - zmienna losowa przyjmujaca wartości z alfabetu źródłowego {x 0, x 1,..., x N 1 }. Y - zmienna losowa przyjmujaca wartości z alfabetu rekonstrukcji {y 0, y 1,..., y M 1 }.
44 Entropia warunkowa X - zmienna losowa przyjmujaca wartości z alfabetu źródłowego {x 0, x 1,..., x N 1 }. Y - zmienna losowa przyjmujaca wartości z alfabetu rekonstrukcji {y 0, y 1,..., y M 1 }. Entropię warunkowa dla alfabetu wejściowego określamy wzorem N 1 H(X Y ) = i=0 M 1 j=0 P(x i y j )P(y j ) log P(x i y j )
45 Entropia warunkowa X - zmienna losowa przyjmujaca wartości z alfabetu źródłowego {x 0, x 1,..., x N 1 }. Y - zmienna losowa przyjmujaca wartości z alfabetu rekonstrukcji {y 0, y 1,..., y M 1 }. Entropię warunkowa dla alfabetu wejściowego określamy wzorem N 1 H(X Y ) = i=0 M 1 j=0 P(x i y j )P(y j ) log P(x i y j ) Entropię warunkowa dla alfabetu rekonstrukcji określamy wzorem N 1 H(Y X) = i=0 M 1 j=0 P(x i y j )P(y j ) log P(y j x i )
46 Entropia warunkowa X - zmienna losowa przyjmujaca wartości z alfabetu źródłowego {x 0, x 1,..., x N 1 }. Y - zmienna losowa przyjmujaca wartości z alfabetu rekonstrukcji {y 0, y 1,..., y M 1 }. Entropię warunkowa dla alfabetu wejściowego określamy wzorem N 1 H(X Y ) = i=0 M 1 j=0 P(x i y j )P(y j ) log P(x i y j ) Entropię warunkowa dla alfabetu rekonstrukcji określamy wzorem N 1 H(Y X) = i=0 M 1 j=0 Można pokazać, że H(X Y ) H(X). P(x i y j )P(y j ) log P(y j x i )
47 Przykład Niech alfabetem źródłowym będa liczby czterobitowe.
48 Przykład Niech alfabetem źródłowym będa liczby czterobitowe. Koder usuwa najmniej znaczacy bit, stad alfabetem rekonstrukcji sa tylko parzyste liczby czterobitowe.
49 Przykład Niech alfabetem źródłowym będa liczby czterobitowe. Koder usuwa najmniej znaczacy bit, stad alfabetem rekonstrukcji sa tylko parzyste liczby czterobitowe. Jeśli wszystkie wartości alfabetu źródłowego sa jednakowo prawdopodobne to H(X) = 4.
50 Przykład Niech alfabetem źródłowym będa liczby czterobitowe. Koder usuwa najmniej znaczacy bit, stad alfabetem rekonstrukcji sa tylko parzyste liczby czterobitowe. Jeśli wszystkie wartości alfabetu źródłowego sa jednakowo prawdopodobne to H(X) = 4. Prawdopodobieństwa znaków alfabetu rekonstrukcji wynosza P(Y = j) = P(X = j) + P(X = j + 1) =
51 Przykład cd. Prawdopodobieństwo warunkowe P(x i y j ) na podstawie działania kodera możemy określić jako { 1/2 gdy i = j lub i = j + 1 P(X = i Y = j) = 0 w p.p.
52 Przykład cd. Prawdopodobieństwo warunkowe P(x i y j ) na podstawie działania kodera możemy określić jako { 1/2 gdy i = j lub i = j + 1 P(X = i Y = j) = 0 w p.p. Stad mamy, że H(X Y ) = 1.
53 Przykład cd. Prawdopodobieństwo warunkowe P(x i y j ) na podstawie działania kodera możemy określić jako { 1/2 gdy i = j lub i = j + 1 P(X = i Y = j) = 0 w p.p. Stad mamy, że H(X Y ) = 1. Prawdopodobieństwo warunkowe P(y j x i ) na podstawie działania kodera możemy określić jako { 1 gdy i = j lub i = j + 1 P(Y = j X = i) = 0 w p.p.
54 Przykład cd. Prawdopodobieństwo warunkowe P(x i y j ) na podstawie działania kodera możemy określić jako { 1/2 gdy i = j lub i = j + 1 P(X = i Y = j) = 0 w p.p. Stad mamy, że H(X Y ) = 1. Prawdopodobieństwo warunkowe P(y j x i ) na podstawie działania kodera możemy określić jako { 1 gdy i = j lub i = j + 1 P(Y = j X = i) = 0 w p.p. Stad H(Y X) = 0.
55 Średnia informacja wzajemna Średnia informację wzajemna określimy wzorem N 1 I(X; Y ) = i=0 M 1 j=0 P(x i y i )P(y i ) log [ ] P(xi y j ) P(x i )
56 Średnia informacja wzajemna Średnia informację wzajemna określimy wzorem N 1 I(X; Y ) = i=0 M 1 j=0 P(x i y i )P(y i ) log Po przekształceniach możemy uzyskać I(X; Y ) = H(X) H(X Y ) [ ] P(xi y j ) P(x i )
57 Średnia informacja wzajemna Średnia informację wzajemna określimy wzorem N 1 I(X; Y ) = i=0 M 1 j=0 P(x i y i )P(y i ) log Po przekształceniach możemy uzyskać I(X; Y ) = H(X) H(X Y ) [ ] P(xi y j ) P(x i ) Dla poprzedniego przykładu mamy więc I(X; Y ) = 3.
58 Entropia różniczkowa Dotychczas źródło danych generowało sygnały z dyskretnego alfabetu.
59 Entropia różniczkowa Dotychczas źródło danych generowało sygnały z dyskretnego alfabetu. Co się zmieni jak dyskretne zmienne losowe zmienimy na ciagłe?
60 Entropia różniczkowa Dotychczas źródło danych generowało sygnały z dyskretnego alfabetu. Co się zmieni jak dyskretne zmienne losowe zmienimy na ciagłe? Dla zdarzenia A i(a) = log P(A) ale dla ciagłych zmiennych losowych P(A) = 0.
61 Entropia różniczkowa Dotychczas źródło danych generowało sygnały z dyskretnego alfabetu. Co się zmieni jak dyskretne zmienne losowe zmienimy na ciagłe? Dla zdarzenia A i(a) = log P(A) ale dla ciagłych zmiennych losowych P(A) = 0. Weźmy ciagł a zmienna losowa X o funkcji gęstości rozkładu f X (x).
62 Entropia różniczkowa Dotychczas źródło danych generowało sygnały z dyskretnego alfabetu. Co się zmieni jak dyskretne zmienne losowe zmienimy na ciagłe? Dla zdarzenia A i(a) = log P(A) ale dla ciagłych zmiennych losowych P(A) = 0. Weźmy ciagł a zmienna losowa X o funkcji gęstości rozkładu f X (x). Dzielimy zakres wartości X na podprzedziały o rozmiarze.
63 Entropia różniczkowa Dotychczas źródło danych generowało sygnały z dyskretnego alfabetu. Co się zmieni jak dyskretne zmienne losowe zmienimy na ciagłe? Dla zdarzenia A i(a) = log P(A) ale dla ciagłych zmiennych losowych P(A) = 0. Weźmy ciagł a zmienna losowa X o funkcji gęstości rozkładu f X (x). Dzielimy zakres wartości X na podprzedziały o rozmiarze. Dla każdego przedziału [(i 1), i ) istnieje liczba x i taka, że f X (x i ) = i (i 1) f X (x) dx
64 Entropia różniczkowa Definiujemy dyskretna zmienna losowa X d o rozkładzie P(X d = x i ) = f X (x i ).
65 Entropia różniczkowa Definiujemy dyskretna zmienna losowa X d o rozkładzie P(X d = x i ) = f X (x i ). Entropia tej zmiennej jest równa H(X d ) = P(x i ) log P(x i ) = i= [f X (x i ) log f X (x i )] log i=
66 Entropia różniczkowa Definiujemy dyskretna zmienna losowa X d o rozkładzie P(X d = x i ) = f X (x i ). Entropia tej zmiennej jest równa H(X d ) = P(x i ) log P(x i ) = i= [f X (x i ) log f X (x i )] log i= Entropia różniczkowa nazywamy h(x) = lim [f X (x i ) log f X (x i )] = 0 i= f X (x) log f X (x) dx
67 Przykład Niech X będzie zmienna losowa o rozkładzie jednostajnym na przedziale [a, b).
68 Przykład Niech X będzie zmienna losowa o rozkładzie jednostajnym na przedziale [a, b). Wtedy h(x) = = b a f X (x) log f X (x) dx 1 b a log 1 dx = log(b a) b a
69 Przykład Niech X będzie zmienna losowa o rozkładzie jednostajnym na przedziale [a, b). Wtedy h(x) = = b a f X (x) log f X (x) dx 1 b a log 1 dx = log(b a) b a Entropia różniczkowa może być ujemna, np. gdy b a < 1.
70 Modele probabilistyczne Ogólna charakterystyka źródła danych. Szukamy ładnego rozkładu prawdopodobieństwa który jest najbliższy rozkładowi danych.
71 Modele probabilistyczne Ogólna charakterystyka źródła danych. Szukamy ładnego rozkładu prawdopodobieństwa który jest najbliższy rozkładowi danych. Rozkład jednostajny na przedziale [a, b]. f X (x) = { 1 b a dla a x b 0 w przeciwnym przypadku
72 Modele probabilistyczne Ogólna charakterystyka źródła danych. Szukamy ładnego rozkładu prawdopodobieństwa który jest najbliższy rozkładowi danych. Rozkład jednostajny na przedziale [a, b]. f X (x) = { 1 b a dla a x b 0 w przeciwnym przypadku Rozkład Gaussa o wartości oczekiwanej µ i wariancji σ 2 1 (x µ) 2 f X (x) = e 2σ 2 2πσ 2
73 Modele probabilistyczne Rozkład Laplace a o wartości oczekiwanej 0 i wariancji σ 2 (duże wzniesienie w zerze) f X (x) = 1 2x 2σ 2 e σ
74 Modele probabilistyczne Rozkład Laplace a o wartości oczekiwanej 0 i wariancji σ 2 (duże wzniesienie w zerze) f X (x) = 1 2x 2σ 2 e σ Rozkład Gamma o wartości oczekiwanej 0 i wariancji σ 2 (jeszcze większe wzniesienie w zerze) f X (x) = 4 3 e 3 x 2σ 8πσ x
75 Modele probabilistyczne
76 Modele liniowe i fizyczne Model liniowy jest opisany równaniem x n = N a i x n i + i 1 M b j ɛ n j + ɛ n j=1 gdzie ɛ n - ciag wartości białego szumu.
77 Modele liniowe i fizyczne Model liniowy jest opisany równaniem x n = N a i x n i + i 1 M b j ɛ n j + ɛ n j=1 gdzie ɛ n - ciag wartości białego szumu. Modele fizyczne opieraja się na mechanizmach powstawania danych.
78 Kwantyzacja Proces zastapienia dużego zbioru wartości za pomoca znacznie mniejszego.
79 Kwantyzacja Proces zastapienia dużego zbioru wartości za pomoca znacznie mniejszego. Dwa odwzorowania:
80 Kwantyzacja Proces zastapienia dużego zbioru wartości za pomoca znacznie mniejszego. Dwa odwzorowania: kodujace dzieli zbiór wartości na pewna liczbę podprzedziałów, każdy przedział reprezentowany przez inne słowo kodowe (proces nieodwracalny).
81 Kwantyzacja Proces zastapienia dużego zbioru wartości za pomoca znacznie mniejszego. Dwa odwzorowania: kodujace dzieli zbiór wartości na pewna liczbę podprzedziałów, każdy przedział reprezentowany przez inne słowo kodowe (proces nieodwracalny). dekodujace na podstawie słowa kodowego zwraca wartość najlepiej reprezentujac a kodowany przedział.
82 Kwantyzacja Proces zastapienia dużego zbioru wartości za pomoca znacznie mniejszego. Dwa odwzorowania: kodujace dzieli zbiór wartości na pewna liczbę podprzedziałów, każdy przedział reprezentowany przez inne słowo kodowe (proces nieodwracalny). dekodujace na podstawie słowa kodowego zwraca wartość najlepiej reprezentujac a kodowany przedział. Strata dokładności danych ale ułatwione kompresowanie.
83 Przykład Dla źródła generujacego liczby rzeczywiste z przedziału od -10 do 10 zastępujemy każda liczbę jej zaokragleniem do liczby całkowitej.
84 Przykład Dla źródła generujacego liczby rzeczywiste z przedziału od -10 do 10 zastępujemy każda liczbę jej zaokragleniem do liczby całkowitej. Redukcja nieskończonego alfabetu do 21 elementowego.
85 Przykład Dla źródła generujacego liczby rzeczywiste z przedziału od -10 do 10 zastępujemy każda liczbę jej zaokragleniem do liczby całkowitej. Redukcja nieskończonego alfabetu do 21 elementowego. Kwantyzacja jednostajna każdy przedział (poza dwoma skrajnymi) ma taka sama długość.
86 Przykład
87 Przykład
88 Kwantyzacja skalarna Kwantyzacja musi uwzględniać rodzaj danych - ich rozkład.
89 Kwantyzacja skalarna Kwantyzacja musi uwzględniać rodzaj danych - ich rozkład. Konstruujac kwantyzację musimy uwzględnić rozkład danych tak aby przedstawiciele danych obejmowali mniej więcej równe zakresy danych.
90 Kwantyzacja skalarna Kwantyzacja musi uwzględniać rodzaj danych - ich rozkład. Konstruujac kwantyzację musimy uwzględnić rozkład danych tak aby przedstawiciele danych obejmowali mniej więcej równe zakresy danych. Szukamy optymalnych wartości granicznych przedziałów i poziomu rekonstrukcji (ilości przedziałów).
91 Przykład Jeśli w jednym z poprzednich przykładów 90% wartości pojawiałoby się w przedziale od -1 do 1 to zaokraglenie do najbliższej liczby całkowitej nie byłoby właściwe.
92 Przykład Jeśli w jednym z poprzednich przykładów 90% wartości pojawiałoby się w przedziale od -1 do 1 to zaokraglenie do najbliższej liczby całkowitej nie byłoby właściwe. Dla przedziału od -1 do 1 lepiej by było zaokraglać z dokładnościa do 1/10 (o wiele mniejsza strata informacji).
93 Przykład Jeśli w jednym z poprzednich przykładów 90% wartości pojawiałoby się w przedziale od -1 do 1 to zaokraglenie do najbliższej liczby całkowitej nie byłoby właściwe. Dla przedziału od -1 do 1 lepiej by było zaokraglać z dokładnościa do 1/10 (o wiele mniejsza strata informacji). Dostajemy kwantyzację niejednostajna różne długości przedziałów.
94 Miary kwantyzacji Średniokwadratowy bład kwantyzacji Średnia z kwadratów różnic między wejściem kodera a wyjściem dekodera. Jeśli Q operacja kwantyzacji i Q(x) = y i b i 1 < x b i to σ 2 q = = i bi (x Q(x)) 2 f X (x) dx b i 1 (x y i ) 2 f X (x) dx
95 Miary kwantyzacji Średniokwadratowy bład kwantyzacji Średnia z kwadratów różnic między wejściem kodera a wyjściem dekodera. Jeśli Q operacja kwantyzacji i Q(x) = y i b i 1 < x b i to σ 2 q = = i bi (x Q(x)) 2 f X (x) dx b i 1 (x y i ) 2 f X (x) dx Średnia bitowa kwantyzatora Średnia liczba bitów potrzebna do reprezentowania jednej danej wynikowej kwantyzatora.
96 Rodzaje kwantyzatorów skalarnych Kwantyzator równomierny
97 Rodzaje kwantyzatorów skalarnych Kwantyzator równomierny Wszystkie przedziały (poza ewentualnie skrajnymi) maja taka sama długość.
98 Rodzaje kwantyzatorów skalarnych Kwantyzator równomierny Wszystkie przedziały (poza ewentualnie skrajnymi) maja taka sama długość. Również rekonstruowane wartości sa rozmieszczone równomiernie.
99 Rodzaje kwantyzatorów skalarnych Kwantyzator równomierny Wszystkie przedziały (poza ewentualnie skrajnymi) maja taka sama długość. Również rekonstruowane wartości sa rozmieszczone równomiernie. Stosowany najczęściej do rozkładów jednostajnych oraz obrazów (redukcja barw przez obcięcie najmniej znaczacych bitów).
100 Rodzaje kwantyzatorów skalarnych Kwantyzator równomierny Wszystkie przedziały (poza ewentualnie skrajnymi) maja taka sama długość. Również rekonstruowane wartości sa rozmieszczone równomiernie. Stosowany najczęściej do rozkładów jednostajnych oraz obrazów (redukcja barw przez obcięcie najmniej znaczacych bitów). Kwantyzacja nierównomierna
101 Rodzaje kwantyzatorów skalarnych Kwantyzator równomierny Wszystkie przedziały (poza ewentualnie skrajnymi) maja taka sama długość. Również rekonstruowane wartości sa rozmieszczone równomiernie. Stosowany najczęściej do rozkładów jednostajnych oraz obrazów (redukcja barw przez obcięcie najmniej znaczacych bitów). Kwantyzacja nierównomierna Podział na przedziały w taki sposób aby każdy przedział miał podobne prawdopodobieństwo wystapienia (przedziały maja różna długość).
102 Kwantyzator ze skokiem w zerze (midrise quantizer)
103 Kwantyzator stały w zerze (midtread quantizer)
104 Kwantyzator równomierny, rozkład jednostajny Dla kwantyzatora równomiernego i źródła jednostajnego bład kwantyzacji możemy określić w następujacy sposób: gdzie = 2Xmax jest wielkościa kroku kwantyzacji, a M M liczba przedziałów kwantyzacji.
105 Kwantyzator równomierny, rozkład jednostajny (2) Bład kwantyzacji możemy obliczyć w następujacy sposób (wykorzystujac symetrię): σ 2 q = 2 M 2 i=1 i (i 1) ( x 2i 1 ) 1 dx. 2 2X max Możemy także policzyć bład badajac różnicę q = x Q(x) (gdzie Q(x) jest wartościa rekonstrukcji dla x), wtedy: σ 2 q = 1 (obliczenia jako zadanie) 2 2 q 2 dq = 2 12.
106 Kwantyzator równomierny, rozkład jednostajny (3) Jak wyglada SNR przy = 2Xmax M (M = 2 n )? SNR(dB) = σs 2 10 log 10 σq 2 = 10 log 10 M 2 i wariancji σ2 = 2Xmax 12 = 20 log 10 2 n 6, 02ndB. Zatem dla każdego dodatkowego bitu kwantyzatora mamy wzrost SNR o 6, 02dB.
107 Kwantyzator równomierny, rozkład niejednostajny
108 Kwantyzator równomierny, rozkład niejednostajny (2) W przypadku kwantyzacji równomiernej dla danych o rozkładzie innym niż jednostajny można policzyć optymalna liczbę przedziałów kwantyzacji M oraz wielkość parametru. Zalety: proste obliczenia (wystarczy wariancja), proste przetwarzanie (nie trzeba nawet pamiętać granic decyzyjnych).
109 Kwantyzator równomierny, rozkład niejednostajny (2) W przypadku kwantyzacji równomiernej dla danych o rozkładzie innym niż jednostajny można policzyć optymalna liczbę przedziałów kwantyzacji M oraz wielkość parametru. Zalety: proste obliczenia (wystarczy wariancja), proste przetwarzanie (nie trzeba nawet pamiętać granic decyzyjnych). Wady: stosunkowo duży bład kwantyzacji przy zadanej średniej bitowej, w sytuacji zmieniajacego się (lub nieznanego) rozkładu dodatkowe problemy.
110 Kwantyzator równomierny, rozkład niejednostajny (2) W przypadku kwantyzacji równomiernej dla danych o rozkładzie innym niż jednostajny można policzyć optymalna liczbę przedziałów kwantyzacji M oraz wielkość parametru. Zalety: proste obliczenia (wystarczy wariancja), proste przetwarzanie (nie trzeba nawet pamiętać granic decyzyjnych). Wady: stosunkowo duży bład kwantyzacji przy zadanej średniej bitowej, w sytuacji zmieniajacego się (lub nieznanego) rozkładu dodatkowe problemy. Rozwiazania problemu: kwantyzacja nierównomierna, kwantyzacja z kompanderem (szczególnie wtedy, kiedy znamy rozkład), kwantyzacja adaptacyjna (jeżeli rozkład się zmienia).
111 Kwantyzator równomierny, rozkład niejednostajny (3) Jak wyznaczyć parametr? Badamy extremum funkcji (f X to funkcja gęstości rozkładu): σ 2 = 2 M 2 1 i +2 i=1 (i 1) ( M 2 1) ( ( x 2i 1 2 ) f X (x)dx 2 x M 1 2 ) f X (x)dx. 2 Łatwo zauważyć, że jeden z członów odpowiada za bład ziarnisty, a drugi za bład nadmiaru. Co się stanie jak wariancja nie będzie dobrze określona?
112 Kwantyzator równomierny, rozkład niejednostajny (4)
113 Kwantyzator nierównomierny
114 Rodzaje kwantyzatorów skalarnych Kwantyzacja adaptacyjna
115 Rodzaje kwantyzatorów skalarnych Kwantyzacja adaptacyjna Dostosowanie kwantyzatora do statystyk danych wejściowych.
116 Rodzaje kwantyzatorów skalarnych Kwantyzacja adaptacyjna Dostosowanie kwantyzatora do statystyk danych wejściowych. Kwantyzacja adaptacyjna w przód dane dzielone na bloki, bloki analizowane i kwantyzowane osobno, przesyłamy dodatkowe informacje o rodzaju kwantyzacji.
117 Rodzaje kwantyzatorów skalarnych Kwantyzacja adaptacyjna Dostosowanie kwantyzatora do statystyk danych wejściowych. Kwantyzacja adaptacyjna w przód dane dzielone na bloki, bloki analizowane i kwantyzowane osobno, przesyłamy dodatkowe informacje o rodzaju kwantyzacji. Kwantyzacja adaptacyjna wstecz dostosowujemy kwantyzację w oparciu o wyniki kwantyzatora (zmieniamy ilość i wielkość przedziałów kwantyzacji kwantyzator Jayanta).
118 Kwantyzacja adaptacyjna w przód Zakładamy, że wartość średnia wejścia jest równa zero.
119 Kwantyzacja adaptacyjna w przód Zakładamy, że wartość średnia wejścia jest równa zero. Na podstawie bloku N kolejnych próbek (w chwili t) szacujemy wariancję źródła: ˆσ 2 q = 1 N N 1 xt+i 2. i=0
120 Kwantyzacja adaptacyjna w przód Zakładamy, że wartość średnia wejścia jest równa zero. Na podstawie bloku N kolejnych próbek (w chwili t) szacujemy wariancję źródła: ˆσ 2 q = 1 N N 1 xt+i 2. i=0 Przesyłamy (skwantyzowana) informację o wariancji do dekodera.
121 Kwantyzacja adaptacyjna wstecz kwantyzator Jayanta Do zmiany kwantyzatora wykorzystujemy wcześniejsze dane (w postaci skwantyzowanej).
122 Kwantyzacja adaptacyjna wstecz kwantyzator Jayanta Do zmiany kwantyzatora wykorzystujemy wcześniejsze dane (w postaci skwantyzowanej). Każdy przedział ma przypisany mnożnik (M k ).
123 Kwantyzacja adaptacyjna wstecz kwantyzator Jayanta Do zmiany kwantyzatora wykorzystujemy wcześniejsze dane (w postaci skwantyzowanej). Każdy przedział ma przypisany mnożnik (M k ). Mnożniki przedziałów wewnętrznych < 1 a zewnętrznych > 1.
124 Kwantyzacja adaptacyjna wstecz kwantyzator Jayanta Do zmiany kwantyzatora wykorzystujemy wcześniejsze dane (w postaci skwantyzowanej). Każdy przedział ma przypisany mnożnik (M k ). Mnożniki przedziałów wewnętrznych < 1 a zewnętrznych > 1. Jeżeli w kroku n 1 próbka wpadła do przedziału l(n a) to parametr dla następnego kroku obliczamy jako: n = M l(n 1) n 1.
125 Kwantyzacja adaptacyjna wstecz kwantyzator Jayanta Do zmiany kwantyzatora wykorzystujemy wcześniejsze dane (w postaci skwantyzowanej). Każdy przedział ma przypisany mnożnik (M k ). Mnożniki przedziałów wewnętrznych < 1 a zewnętrznych > 1. Jeżeli w kroku n 1 próbka wpadła do przedziału l(n a) to parametr dla następnego kroku obliczamy jako: n = M l(n 1) n 1. Jeżeli wejście jest dobrze dopasowane, to iloczyn kolejnych współczynników powinien być równy zero.
126 Poziomy wyjściowe kwantyzatora Jayanta
127 Kwantyzacja z kompanderem Problem: znamy rozkład, ale chcemy uprościć proces kwantyzacji (kwantyzator jednostajny)
128 Kwantyzacja z kompanderem Problem: znamy rozkład, ale chcemy uprościć proces kwantyzacji (kwantyzator jednostajny) Rozwiazanie:
129 Kwantyzacja z kompanderem Problem: znamy rozkład, ale chcemy uprościć proces kwantyzacji (kwantyzator jednostajny) Rozwiazanie: Przed kwantyzacja przekształcamy dane wejściowe za pomoca pewnej funkcji.
130 Kwantyzacja z kompanderem Problem: znamy rozkład, ale chcemy uprościć proces kwantyzacji (kwantyzator jednostajny) Rozwiazanie: Przed kwantyzacja przekształcamy dane wejściowe za pomoca pewnej funkcji. Po rekonstrukcji przekształcamy wartości zrekonstruowane za pomoca funkcji odwrotnej.
131 Kompresor, kwantyzator jednorodny i expander
Kompresja danych DKDA (7)
Kompresja danych DKDA (7) Marcin Gogolewski marcing@wmi.amu.edu.pl Uniwersytet im. Adama Mickiewicza w Poznaniu Poznań, 22 listopada 2016 1 Kwantyzacja skalarna Wprowadzenie Analiza jakości Typy kwantyzatorów
Bardziej szczegółowoKodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11,
1 Kwantyzacja skalarna Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11, 10.05.005 Kwantyzacja polega na reprezentowaniu dużego zbioru wartości (być może nieskończonego) za pomocą wartości
Bardziej szczegółowoKwantyzacja wektorowa. Kodowanie różnicowe.
Kwantyzacja wektorowa. Kodowanie różnicowe. Kodowanie i kompresja informacji - Wykład 7 12 kwietnia 2010 Kwantyzacja wektorowa wprowadzenie Zamiast kwantyzować pojedyncze elementy kwantyzujemy całe bloki
Bardziej szczegółowoKodowanie i kompresja Streszczenie Studia dzienne Wykład 12,
1 Kompresja stratna Kodowanie i kompresja Streszczenie Studia dzienne Wykład 12, 5.05.2005 Algorytmy kompresji bezstratnej oceniane są ze względu na: stopień kompresji; czas działania procesu kodowania
Bardziej szczegółowoKwantowanie sygnałów analogowych na przykładzie sygnału mowy
Kwantowanie sygnałów analogowych na przykładzie sygnału mowy Treść wykładu: Sygnał mowy i jego właściwości Kwantowanie skalarne: kwantyzator równomierny, nierównomierny, adaptacyjny Zastosowanie w koderze
Bardziej szczegółowoWydział Elektryczny. Katedra Telekomunikacji i Aparatury Elektronicznej. Instrukcja do pracowni specjalistycznej
Politechnika Białostocka Wydział Elektryczny Katedra Telekomunikacji i Aparatury Elektronicznej Instrukcja do pracowni specjalistycznej Temat ćwiczenia: Badanie własności koderów PCM zastosowanych do sygnałów
Bardziej szczegółowoKompresja danych Streszczenie Studia Dzienne Wykład 10,
1 Kwantyzacja wektorowa Kompresja danych Streszczenie Studia Dzienne Wykład 10, 28.04.2006 Kwantyzacja wektorowa: dane dzielone na bloki (wektory), każdy blok kwantyzowany jako jeden element danych. Ogólny
Bardziej szczegółowomgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. GOLOMBA I RICE'A
mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. KOMPRESJA ALGORYTMEM ARYTMETYCZNYM, GOLOMBA I RICE'A Idea algorytmu arytmetycznego Przykład kodowania arytmetycznego Renormalizacja
Bardziej szczegółowoKodowanie podpasmowe. Plan 1. Zasada 2. Filtry cyfrowe 3. Podstawowy algorytm 4. Zastosowania
Kodowanie podpasmowe Plan 1. Zasada 2. Filtry cyfrowe 3. Podstawowy algorytm 4. Zastosowania Zasada ogólna Rozkład sygnału źródłowego na części składowe (jak w kodowaniu transformacyjnym) Wada kodowania
Bardziej szczegółowoKompresja Danych. Streszczenie Studia Dzienne Wykład 13, f(t) = c n e inω0t, T f(t)e inω 0t dt.
1 Kodowanie podpasmowe Kompresja Danych Streszczenie Studia Dzienne Wykład 13, 18.05.2006 1.1 Transformaty, próbkowanie i filtry Korzystamy z faktów: Każdą funkcję okresową można reprezentować w postaci
Bardziej szczegółowoWeryfikacja hipotez statystycznych
Weryfikacja hipotez statystycznych Hipoteza Test statystyczny Poziom istotności Testy jednostronne i dwustronne Testowanie równości wariancji test F-Fishera Testowanie równości wartości średnich test t-studenta
Bardziej szczegółowoKody Tunstalla. Kodowanie arytmetyczne
Kody Tunstalla. Kodowanie arytmetyczne Kodowanie i kompresja informacji - Wykład 3 8 marca 2010 Kody Tunstalla Wszystkie słowa kodowe maja ta sama długość ale jeden kod może kodować różna liczbę liter
Bardziej szczegółowoKompresja Kodowanie arytmetyczne. Dariusz Sobczuk
Kompresja Kodowanie arytmetyczne Dariusz Sobczuk Kodowanie arytmetyczne (lata 1960-te) Pierwsze prace w tym kierunku sięgają początków lat 60-tych XX wieku Pierwszy algorytm Eliasa nie został opublikowany
Bardziej szczegółowoMetody Rozmyte i Algorytmy Ewolucyjne
mgr inż. Wydział Matematyczno-Przyrodniczy Szkoła Nauk Ścisłych Uniwersytet Kardynała Stefana Wyszyńskiego Podstawowe operatory genetyczne Plan wykładu Przypomnienie 1 Przypomnienie Metody generacji liczb
Bardziej szczegółowoAkademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Elektroniki
Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Elektroniki Przetwarzanie Sygnałów Studia Podyplomowe, Automatyka i Robotyka. Wstęp teoretyczny Zmienne losowe Zmienne losowe
Bardziej szczegółowoKompresja dźwięku w standardzie MPEG-1
mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 7, strona 1. Kompresja dźwięku w standardzie MPEG-1 Ogólne założenia kompresji stratnej Zjawisko maskowania psychoakustycznego Schemat blokowy
Bardziej szczegółowoZałożenia i obszar zastosowań. JPEG - algorytm kodowania obrazu. Geneza algorytmu KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG
Założenia i obszar zastosowań KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG Plan wykładu: Geneza algorytmu Założenia i obszar zastosowań JPEG kroki algorytmu kodowania obrazu Założenia: Obraz monochromatyczny
Bardziej szczegółowoKwantyzacja wektorowa. Plan 1. Zasada działania 2. Projektowanie. Algorytm LBG 3. Kwantyzatory strukturalne 4. Modyfikacje
Kwantyzacja wektorowa Plan 1. Zasada działania 2. Projektowanie. Algorytm LBG 3. Kwantyzatory strukturalne 4. Modyfikacje Zasada kwantyzacji wektorowej Kwantyzacja skalarna koduje oddzielnie kaŝdą próbkę
Bardziej szczegółowoTransformaty. Kodowanie transformujace
Transformaty. Kodowanie transformujace Kodowanie i kompresja informacji - Wykład 10 10 maja 2009 Szeregi Fouriera Każda funkcję okresowa f (t) o okresie T można zapisać jako f (t) = a 0 + a n cos nω 0
Bardziej szczegółowoTransformata Fouriera
Transformata Fouriera Program wykładu 1. Wprowadzenie teoretyczne 2. Algorytm FFT 3. Zastosowanie analizy Fouriera 4. Przykłady programów Wprowadzenie teoretyczne Zespolona transformata Fouriera Jeżeli
Bardziej szczegółowoPodstawowe funkcje przetwornika C/A
ELEKTRONIKA CYFROWA PRZETWORNIKI CYFROWO-ANALOGOWE I ANALOGOWO-CYFROWE Literatura: 1. Rudy van de Plassche: Scalone przetworniki analogowo-cyfrowe i cyfrowo-analogowe, WKŁ 1997 2. Marian Łakomy, Jan Zabrodzki:
Bardziej szczegółowoAkwizycja obrazów. Zagadnienia wstępne
Akwizycja obrazów. Zagadnienia wstępne Wykorzystane materiały: R. Tadeusiewicz, P. Korohoda, Komputerowa analiza i przetwarzanie obrazów, Wyd. FPT, Kraków, 1997 A. Przelaskowski, Techniki Multimedialne,
Bardziej szczegółowoSposoby opisu i modelowania zakłóceń kanałowych
INSTYTUT TELEKOMUNIKACJI ZAKŁAD RADIOKOMUNIKACJI Instrukcja laboratoryjna z przedmiotu Podstawy Telekomunikacji Sposoby opisu i modelowania zakłóceń kanałowych Warszawa 2010r. 1. Cel ćwiczeń: Celem ćwiczeń
Bardziej szczegółowoKodowanie transformacyjne. Plan 1. Zasada 2. Rodzaje transformacji 3. Standard JPEG
Kodowanie transformacyjne Plan 1. Zasada 2. Rodzaje transformacji 3. Standard JPEG Zasada Zasada podstawowa: na danych wykonujemy transformacje która: Likwiduje korelacje Skupia energię w kilku komponentach
Bardziej szczegółowoTeoria przetwarzania A/C i C/A.
Teoria przetwarzania A/C i C/A. Autor: Bartłomiej Gorczyński Cyfrowe metody przetwarzania sygnałów polegają na przetworzeniu badanego sygnału analogowego w sygnał cyfrowy reprezentowany ciągiem słów binarnych
Bardziej szczegółowoPODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA. Piotr Wiącek
PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA Piotr Wiącek ROZKŁAD PRAWDOPODOBIEŃSTWA Jest to miara probabilistyczna określona na σ-ciele podzbiorów borelowskich pewnej przestrzeni metrycznej. σ-ciało podzbiorów
Bardziej szczegółowoElementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa
Spis treści Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa Romuald Kotowski Katedra Informatyki Stosowanej PJWSTK 2009 Spis treści Spis treści 1 Wstęp Bardzo często interesujący
Bardziej szczegółowoKodowanie i kompresja Streszczenie Studia dzienne Wykład 9,
1 Kody Tunstalla Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9, 14.04.2005 Inne podejście: słowa kodowe mają ustaloną długość, lecz mogą kodować ciągi liter z alfabetu wejściowego o różnej
Bardziej szczegółowoWybrane rozkłady zmiennych losowych. Statystyka
Wybrane rozkłady zmiennych losowych Statystyka Rozkład dwupunktowy Zmienna losowa przyjmuje tylko dwie wartości: wartość 1 z prawdopodobieństwem p i wartość 0 z prawdopodobieństwem 1- p x i p i 0 1-p 1
Bardziej szczegółowoAndrzej Leśnicki Laboratorium CPS Ćwiczenie 9 1/5 ĆWICZENIE 9. Kwantowanie sygnałów
Andrzej Leśnicki Laboratorium CP Ćwiczenie 9 1/5 ĆWICZEIE 9 Kwantowanie sygnałów 1. Cel ćwiczenia ygnał przesyłany w cyfrowym torze transmisyjnym lub przetwarzany w komputerze (procesorze sygnałowym) musi
Bardziej szczegółowoMETODY BADAŃ NA ZWIERZĘTACH ze STATYSTYKĄ wykład 3-4. Parametry i wybrane rozkłady zmiennych losowych
METODY BADAŃ NA ZWIERZĘTACH ze STATYSTYKĄ wykład - Parametry i wybrane rozkłady zmiennych losowych Parametry zmiennej losowej EX wartość oczekiwana D X wariancja DX odchylenie standardowe inne, np. kwantyle,
Bardziej szczegółowoteoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015
teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015 1 wczoraj Wprowadzenie matematyczne. Entropia i informacja. Kodowanie. Kod ASCII. Stopa kodu. Kody bezprefiksowe.
Bardziej szczegółowoPrzygotowała: prof. Bożena Kostek
Przygotowała: prof. Bożena Kostek Ze względu na dużą rozpiętość mierzonych wartości ciśnienia (zakres ciśnień akustycznych obejmuje blisko siedem rzędów wartości: od 2x10 5 Pa do ponad 10 Pa) wygodniej
Bardziej szczegółowoWybrane metody kompresji obrazów
Wybrane metody kompresji obrazów Celem kodowania kompresyjnego obrazu jest redukcja ilości informacji w nim zawartej. Redukcja ta polega na usuwaniu informacji nadmiarowej w obrazie, tzw. redundancji.
Bardziej szczegółowo1.5. Sygnały. Sygnał- jest modelem zmian w czasie pewnej wielkości fizycznej lub stanu obiektu fizycznego
Sygnał- jest modelem zmian w czasie pewnej wielkości fizycznej lub stanu obiektu fizycznego Za pomocąsygnałów przekazywana jest informacja. Sygnałjest nośnikiem informacji. Za pomocą sygnału moŝna: badać
Bardziej szczegółowoTechnika audio część 2
Technika audio część 2 Wykład 12 Projektowanie cyfrowych układów elektronicznych Mgr inż. Łukasz Kirchner lukasz.kirchner@cs.put.poznan.pl http://www.cs.put.poznan.pl/lkirchner Wprowadzenie do filtracji
Bardziej szczegółowoWażne rozkłady i twierdzenia c.d.
Ważne rozkłady i twierdzenia c.d. Funkcja charakterystyczna rozkładu Wielowymiarowy rozkład normalny Elipsa kowariacji Sploty rozkładów Rozkłady jednostajne Sploty z rozkładem normalnym Pobieranie próby
Bardziej szczegółowoWybrane rozkłady zmiennych losowych. Statystyka
Wybrane rozkłady zmiennych losowych Statystyka Rozkład dwupunktowy Zmienna losowa przyjmuje tylko dwie wartości: wartość 1 z prawdopodobieństwem p i wartość 0 z prawdopodobieństwem 1- p x i p i 0 1-p 1
Bardziej szczegółowoWprowadzenie do technologii HDR
Wprowadzenie do technologii HDR Konwersatorium 2 - inspiracje biologiczne mgr inż. Krzysztof Szwarc krzysztof@szwarc.net.pl Sosnowiec, 5 marca 2018 1 / 26 mgr inż. Krzysztof Szwarc Wprowadzenie do technologii
Bardziej szczegółowoJeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna.
Wykład 4 Rozkłady i ich dystrybuanty Dwa typy zmiennych losowych Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x, x 2,...}, to mówimy, że jest to zmienna dyskretna.
Bardziej szczegółowoParametryzacja obrazu na potrzeby algorytmów decyzyjnych
Parametryzacja obrazu na potrzeby algorytmów decyzyjnych Piotr Dalka Wprowadzenie Z reguły nie stosuje się podawania na wejście algorytmów decyzyjnych bezpośrednio wartości pikseli obrazu Obraz jest przekształcany
Bardziej szczegółowoPython: JPEG. Zadanie. 1. Wczytanie obrazka
Python: JPEG Witajcie! Jest to kolejny z serii tutoriali uczący Pythona, a w przyszłości być może nawet Cythona i Numby Jeśli chcesz nauczyć się nowych, zaawansowanych konstrukcji to spróbuj rozwiązać
Bardziej szczegółowoteoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015
teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015 1 zakres materiału zakres materiału 1. Czym jest teoria informacji? 2. Wprowadzenie matematyczne. 3. Entropia i informacja.
Bardziej szczegółowoPrzykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych
Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Niech Ω będzie przestrzenią zdarzeń elementarnych. Definicja 1 Rodzinę S zdarzeń losowych (zbiór S podzbiorów zbioru
Bardziej szczegółowoSztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335
Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Wykład 10 Mapa cech Kohonena i jej modyfikacje - uczenie sieci samoorganizujących się - kwantowanie wektorowe
Bardziej szczegółowoSYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.
SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska INFORMACJE WSTĘPNE Hipotezy do uczenia się lub tworzenia
Bardziej szczegółowoGranica kompresji Kodowanie Shannona Kodowanie Huffmana Kodowanie ciągów Kodowanie arytmetyczne. Kody. Marek Śmieja. Teoria informacji 1 / 35
Kody Marek Śmieja Teoria informacji 1 / 35 Entropia Entropia określa minimalną statystyczną długość kodowania (przyjmijmy dla prostoty że alfabet kodowy A = {0, 1}). Definicja Niech X = {x 1,..., x n }
Bardziej szczegółowoPrzekształcenia widmowe Transformata Fouriera. Adam Wojciechowski
Przekształcenia widmowe Transformata Fouriera Adam Wojciechowski Przekształcenia widmowe Odmiana przekształceń kontekstowych, w których kontekstem jest w zasadzie cały obraz. Za pomocą transformaty Fouriera
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład VII: Metody specjalne Monte Carlo 24 listopada 2014 Transformacje specjalne Przykład - symulacja rozkładu geometrycznego Niech X Ex(λ). Rozważmy zmienną losową [X ], która przyjmuje wartości naturalne.
Bardziej szczegółowoMatematyka dyskretna. Andrzej Łachwa, UJ, /15
Matematyka dyskretna Andrzej Łachwa, UJ, 2013 andrzej.lachwa@uj.edu.pl 7/15 Rachunek różnicowy Dobrym narzędziem do obliczania skończonych sum jest rachunek różnicowy. W rachunku tym odpowiednikiem operatora
Bardziej szczegółowoKwantyle. Kwantyl rzędu p rozkładu prawdopodobieństwa to taka liczba x p. , że. Możemy go obliczyć z dystrybuanty: P(X x p.
Kwantyle Kwantyl rzędu p rozkładu prawdopodobieństwa to taka liczba x p, że P(X x p ) p P(X x p ) 1 p Możemy go obliczyć z dystrybuanty: Jeżeli F(x p ) = p, to x p jest kwantylem rzędu p Jeżeli F(x p )
Bardziej szczegółowoJoint Photographic Experts Group
Joint Photographic Experts Group Artur Drozd Uniwersytet Jagielloński 14 maja 2010 1 Co to jest JPEG? Dlaczego powstał? 2 Transformata Fouriera 3 Dyskretna transformata kosinusowa (DCT-II) 4 Kodowanie
Bardziej szczegółowoStatystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory
Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory Dr Anna ADRIAN Paw B5, pok 407 adrian@tempus.metal.agh.edu.pl
Bardziej szczegółowoWYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki
WYKŁAD 6 Witold Bednorz, Paweł Wolff 1 Instytut Matematyki Uniwersytet Warszawski Rachunek Prawdopodobieństwa, WNE, 2010-2011 Własności Wariancji Przypomnijmy, że VarX = E(X EX) 2 = EX 2 (EX) 2. Własności
Bardziej szczegółowoZmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014
Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014 Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe
Bardziej szczegółowoFuzja sygnałów i filtry bayesowskie
Fuzja sygnałów i filtry bayesowskie Roboty Manipulacyjne i Mobilne dr inż. Janusz Jakubiak Katedra Cybernetyki i Robotyki Wydział Elektroniki, Politechnika Wrocławska Wrocław, 10.03.2015 Dlaczego potrzebna
Bardziej szczegółowoUkłady stochastyczne
Instytut Informatyki Uniwersytetu Śląskiego 21 stycznia 2009 Definicja Definicja Proces stochastyczny to funkcja losowa, czyli funkcja matematyczna, której wartości leżą w przestrzeni zdarzeń losowych.
Bardziej szczegółowoTemat: Algorytm kompresji plików metodą Huffmana
Temat: Algorytm kompresji plików metodą Huffmana. Wymagania dotyczące kompresji danych Przez M oznaczmy zbiór wszystkich możliwych symboli występujących w pliku (alfabet pliku). Przykład M = 2, gdy plik
Bardziej szczegółowoIII. ZMIENNE LOSOWE JEDNOWYMIAROWE
III. ZMIENNE LOSOWE JEDNOWYMIAROWE.. Zmienna losowa i pojęcie rozkładu prawdopodobieństwa W dotychczas rozpatrywanych przykładach każdemu zdarzeniu była przyporządkowana odpowiednia wartość liczbowa. Ta
Bardziej szczegółowoStatystyka i eksploracja danych
Wykład II: i charakterystyki ich rozkładów 24 lutego 2014 Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa,
Bardziej szczegółowoRachunek Prawdopodobieństwa i Statystyka
Rachunek Prawdopodobieństwa i Statystyka W 2. Probabilistyczne modele danych Zmienne losowe. Rozkład prawdopodobieństwa i dystrybuanta. Wartość oczekiwana i wariancja zmiennej losowej Dr Anna ADRIAN Zmienne
Bardziej szczegółowoTeoria Informacji - wykład. Kodowanie wiadomości
Teoria Informacji - wykład Kodowanie wiadomości Definicja kodu Niech S={s 1, s 2,..., s q } oznacza dany zbiór elementów. Kodem nazywamy wówczas odwzorowanie zbioru wszystkich możliwych ciągów utworzonych
Bardziej szczegółowoi=7 X i. Zachodzi EX i = P(X i = 1) = 1 2, i {1, 2,..., 11} oraz EX ix j = P(X i = 1, X j = 1) = 1 7 VarS 2 2 = 14 3 ( 5 2 =
Kombinatoryka W tej serii zadań można znaleźć pojawiające się na egzaminach zadania dotyczące problemu wyznaczania prostych parametrów rozkładu w przypadku zgadnień kombinatorycznych. Zadania te wymagają
Bardziej szczegółowoWYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa
WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa Agata Boratyńska Agata Boratyńska Rachunek prawdopodobieństwa, wykład 2 i 3 1 / 19 Zmienna losowa Definicja Dana jest przestrzeń probabilistyczna
Bardziej szczegółowoPrzestrzeń probabilistyczna
Przestrzeń probabilistyczna (Ω, Σ, P) Ω pewien niepusty zbiór Σ rodzina podzbiorów tego zbioru P funkcja określona na Σ, zwana prawdopodobieństwem. Przestrzeń probabilistyczna (Ω, Σ, P) Ω pewien niepusty
Bardziej szczegółowoMetody probabilistyczne
Metody probabilistyczne. Twierdzenia graniczne Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 20.2.208 / 26 Motywacja Rzucamy wielokrotnie uczciwą monetą i zliczamy
Bardziej szczegółowoKlasyfikacja w oparciu o metrykę budowaną poprzez dystrybuanty empiryczne na przestrzeni wzorców uczących
Klasyfikacja w oparciu o metrykę budowaną poprzez dystrybuanty empiryczne na przestrzeni wzorców uczących Cezary Dendek Wydział Matematyki i Nauk Informacyjnych PW Plan prezentacji Plan prezentacji Wprowadzenie
Bardziej szczegółowoPEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA
PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA 1. Trójkę (Ω, F, P ), gdzie Ω, F jest σ-ciałem podzbiorów Ω, a P jest prawdopodobieństwem określonym na F, nazywamy przestrzenią probabilistyczną. 2. Rodzinę F
Bardziej szczegółowoLABORATORIUM PODSTAW TELEKOMUNIKACJI
WOJSKOWA AKADEMIA TECHNICZNA im. Jarosława Dąbrowskiego w Warszawie Wydział Elektroniki LABORATORIUM PODSTAW TELEKOMUNIKACJI Grupa Podgrupa Data wykonania ćwiczenia Ćwiczenie prowadził... Skład podgrupy:
Bardziej szczegółowoCyfrowe przetwarzanie obrazów i sygnałów Wykład 2 AiR III
1 Niniejszy dokument zawiera materiały do wykładu z przedmiotu Cyfrowe Przetwarzanie Obrazów i Sygnałów. Jest on udostępniony pod warunkiem wykorzystania wyłącznie do własnych, prywatnych potrzeb i może
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład VII: Rozkład i jego charakterystyki 22 listopada 2016 Uprzednio wprowadzone pojęcia i ich własności Definicja zmiennej losowej Zmienna losowa na przestrzeni probabilistycznej (Ω, F, P) to funkcja
Bardziej szczegółowoKodowanie Huffmana. Platforma programistyczna.net; materiały do laboratorium 2014/15 Marcin Wilczewski
Kodowanie Huffmana Platforma programistyczna.net; materiały do laboratorium 24/5 Marcin Wilczewski Algorytm Huffmana (David Huffman, 952) Algorytm Huffmana jest popularnym algorytmem generującym optymalny
Bardziej szczegółowoWykład 3 Równania rózniczkowe cd
7 grudnia 2010 Definicja Równanie różniczkowe dy dx + p (x) y = q (x) (1) nazywamy równaniem różniczkowym liniowym pierwszego rzędu. Jeśli q (x) 0, to równanie (1) czyli równanie dy dx + p (x) y = 0 nazywamy
Bardziej szczegółowoKodowanie transformujace. Kompresja danych. Tomasz Jurdziński. Wykład 11: Transformaty i JPEG
Tomasz Wykład 11: Transformaty i JPEG Idea kodowania transformujacego Etapy kodowania 1 Wektor danych x 0,...,x N 1 przekształcamy (odwracalnie!) na wektor c 0,...,c N 1, tak aby: energia była skoncentrowana
Bardziej szczegółowoRozkłady i ich dystrybuanty 16 marca F X (t) = P (X < t) 0, gdy t 0, F X (t) = 1, gdy t > c, 0, gdy t x 1, 1, gdy t > x 2,
Wykład 4. Rozkłady i ich dystrybuanty 6 marca 2007 Jak opisać cały rozkład jedną funkcją? Aby znać rozkład zmiennej X, musimy umieć obliczyć P (a < X < b) dla dowolnych a < b. W tym celu wystarczy znać
Bardziej szczegółowoAproksymacja funkcji a regresja symboliczna
Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(x), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(x), zwaną funkcją aproksymującą
Bardziej szczegółowoWedług raportu ISO z 1988 roku algorytm JPEG składa się z następujących kroków: 0.5, = V i, j. /Q i, j
Kompresja transformacyjna. Opis standardu JPEG. Algorytm JPEG powstał w wyniku prac prowadzonych przez grupę ekspertów (ang. Joint Photographic Expert Group). Prace te zakończyły się w 1991 roku, kiedy
Bardziej szczegółowoP (A B) = P (A), P (B) = P (A), skąd P (A B) = P (A) P (B). P (A)
Wykład 3 Niezależność zdarzeń, schemat Bernoulliego Kiedy dwa zdarzenia są niezależne? Gdy wiedza o tym, czy B zaszło, czy nie, NIE MA WPŁYWU na oszacowanie prawdopodobieństwa zdarzenia A: P (A B) = P
Bardziej szczegółowoWażne rozkłady i twierdzenia
Ważne rozkłady i twierdzenia Rozkład dwumianowy i wielomianowy Częstość. Prawo wielkich liczb Rozkład hipergeometryczny Rozkład Poissona Rozkład normalny i rozkład Gaussa Centralne twierdzenie graniczne
Bardziej szczegółowoModelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski
Modelowanie zależności pomiędzy zmiennymi losowymi Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski P Zmienne losowe niezależne - przypomnienie Dwie rzeczywiste zmienne losowe X i Y
Bardziej szczegółowoPodstawowe pojęcia. Teoria informacji
Kodowanie i kompresja informacji - Wykład 1 22 luty 2010 Literatura K. Sayood, Kompresja danych - wprowadzenie, READ ME 2002 (ISBN 83-7243-094-2) Literatura K. Sayood, Kompresja danych - wprowadzenie,
Bardziej szczegółowoPrzykładowe zadanie praktyczne
Przykładowe zadanie praktyczne Opracuj projekt realizacji prac związanych z uruchomieniem i testowaniem kodera i dekodera PCM z układem scalonym MC 145502 zgodnie z zaleceniami CCITT G.721 (załączniki
Bardziej szczegółowoPonieważ zakres zmian ciśnień fal akustycznych odbieranych przez ucho ludzkie mieści się w przedziale od 2*10-5 Pa do 10 2 Pa,
Poziom dźwięku Decybel (db) jest jednostką poziomu; Ponieważ zakres zmian ciśnień fal akustycznych odbieranych przez ucho ludzkie mieści się w przedziale od 2*10-5 Pa do 10 2 Pa, co obejmuje 8 rzędów wielkości
Bardziej szczegółowoMicha Strzelecki Metody przetwarzania i analizy obrazów biomedycznych (2)
Micha Strzelecki Metody przetwarzania i analizy obrazów biomedycznych (2) Prezentacja multimedialna współfinansowana przez Unię Europejską w ramach Europejskiego Funduszu Społecznego w projekcie Innowacyjna
Bardziej szczegółowoAKADEMIA GÓRNICZO-HUTNICZA Wydział Matematyki Stosowanej ROZKŁAD NORMALNY ROZKŁAD GAUSSA
AKADEMIA GÓRNICZO-HUTNICZA Wydział Matematyki Stosowanej KATEDRA MATEMATYKI TEMAT PRACY: ROZKŁAD NORMALNY ROZKŁAD GAUSSA AUTOR: BARBARA MARDOSZ Kraków, styczeń 2008 Spis treści 1 Wprowadzenie 2 2 Definicja
Bardziej szczegółowozadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych
zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych 1. [E.A 5.10.1996/zad.4] Funkcja gęstości dana jest wzorem { 3 x + 2xy + 1 y dla (x y) (0 1) (0 1) 4 4 P (X > 1 2 Y > 1 2 ) wynosi:
Bardziej szczegółowoPrzetwarzanie analogowo-cyfrowe sygnałów
Przetwarzanie analogowo-cyfrowe sygnałów A/C 111111 1 Po co przekształcać sygnał do postaci cyfrowej? Można stosować komputerowe metody rejestracji, przetwarzania i analizy sygnałów parametry systemów
Bardziej szczegółowoWeryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1
Weryfikacja hipotez statystycznych KG (CC) Statystyka 26 V 2009 1 / 1 Sformułowanie problemu Weryfikacja hipotez statystycznych jest drugą (po estymacji) metodą uogólniania wyników uzyskanych w próbie
Bardziej szczegółowo0 + 0 = 0, = 1, = 1, = 0.
5 Kody liniowe Jak już wiemy, w celu przesłania zakodowanego tekstu dzielimy go na bloki i do każdego z bloków dodajemy tak zwane bity sprawdzające. Bity te są w ścisłej zależności z bitami informacyjnymi,
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład II: Zmienne losowe i charakterystyki ich rozkładów 13 października 2014 Zmienne losowe Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Definicja zmiennej losowej i jej
Bardziej szczegółowoInteligentna analiza danych
Numer indeksu 150946 Michał Moroz Imię i nazwisko Numer indeksu 150875 Grzegorz Graczyk Imię i nazwisko kierunek: Informatyka rok akademicki: 2010/2011 Inteligentna analiza danych Ćwiczenie I Wskaźniki
Bardziej szczegółowoIteracyjne rozwiązywanie równań
Elementy metod numerycznych Plan wykładu 1 Wprowadzenie Plan wykładu 1 Wprowadzenie 2 Plan wykładu 1 Wprowadzenie 2 3 Wprowadzenie Metoda bisekcji Metoda siecznych Metoda stycznych Plan wykładu 1 Wprowadzenie
Bardziej szczegółowoZadanie 1. Ilość szkód N ma rozkład o prawdopodobieństwach spełniających zależność rekurencyjną:
Zadanie. Ilość szkód N ma rozkład o prawdopodobieństwach spełniających zależność rekurencyjną: Pr Pr ( = k) ( N = k ) N = + k, k =,,,... Jeśli wiemy, że szkód wynosi: k= Pr( N = k) =, to prawdopodobieństwo,
Bardziej szczegółowoPrzekształcenia sygnałów losowych w układach
INSTYTUT TELEKOMUNIKACJI ZAKŁAD RADIOKOMUNIKACJI Instrukcja laboratoryjna z przedmiotu Sygnały i kodowanie Przekształcenia sygnałów losowych w układach Warszawa 010r. 1. Cel ćwiczenia: Ocena wpływu charakterystyk
Bardziej szczegółowoSMOP - wykład. Rozkład normalny zasady przenoszenia błędów. Ewa Pawelec
SMOP - wykład Rozkład normalny zasady przenoszenia błędów Ewa Pawelec 1 iepewność dla rozkładu norm. Zamiast dodawania całych zakresów uwzględniamy prawdopodobieństwo trafienia dwóch wartości: P x 1, x
Bardziej szczegółowoW rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych:
W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych: Zmienne losowe skokowe (dyskretne) przyjmujące co najwyżej przeliczalnie wiele wartości Zmienne losowe ciągłe
Bardziej szczegółowoAkwizycja i przetwarzanie sygnałów cyfrowych
Akwizycja i przetwarzanie sygnałów cyfrowych Instytut Teleinformatyki ITI PK Kraków 21 luty 2011 Rewolucja cyfrowa i jej skutki Rewolucja cyfrowa - dane cyfrowe: podstawowy rodzaj informacji multimedialnych,
Bardziej szczegółowoStatystyka matematyczna
Statystyka matematyczna Wykład 6 Magdalena Alama-Bućko 8 kwietnia 019 Magdalena Alama-Bućko Statystyka matematyczna 8 kwietnia 019 1 / 1 Rozkłady ciagłe Magdalena Alama-Bućko Statystyka matematyczna 8
Bardziej szczegółowoRÓWNANIA RÓŻNICZKOWE WYKŁAD 2
RÓWNANIA RÓŻNICZKOWE WYKŁAD 2 Równania różniczkowe o zmiennych rozdzielonych Równania sprowadzalne do równań o zmiennych rozdzielonych Niech f będzie funkcją ciągłą na przedziale (a, b), spełniającą na
Bardziej szczegółowoSpacery losowe generowanie realizacji procesu losowego
Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z
Bardziej szczegółowo