Przetwarzanie sygnałów stochastycznych

Podobne dokumenty
2. P (E) = 1. β B. TSIM W3: Sygnały stochastyczne 1/27

Akwizycja i przetwarzanie sygnałów cyfrowych

Cyfrowe przetwarzanie i kompresja danych

2. Próbkowanie Sygnały okresowe (16). Trygonometryczny szereg Fouriera (17). Częstotliwość Nyquista (20).

Rozdział 1 PODSTAWOWE POJĘCIA I DEFINICJE

Przekształcenie Fouriera obrazów FFT

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów

Laboratorium Przetwarzania Sygnałów

Katedra Fizyki Ciała Stałego Uniwersytetu Łódzkiego. Ćwiczenie 2 Badanie funkcji korelacji w przebiegach elektrycznych.

TERAZ O SYGNAŁACH. Przebieg i widmo Zniekształcenia sygnałów okresowych Miary sygnałów Zasady cyfryzacji sygnałów analogowych

SYMULACJA KOMPUTEROWA SYSTEMÓW

1. Modulacja analogowa, 2. Modulacja cyfrowa

Lepkosprężystość. Metody pomiarów właściwości lepkosprężystych materii

Teoria Sygnałów. III rok Informatyki Stosowanej. Wykład 8

MODULACJA. Definicje podstawowe, cel i przyczyny stosowania modulacji, rodzaje modulacji. dr inż. Janusz Dudczyk

f = 2 śr MODULACJE

Przedmowa Wykaz oznaczeń Wykaz skrótów 1. Sygnały i ich parametry Pojęcia podstawowe Klasyfikacja sygnałów

LABORATORIUM AKUSTYKI MUZYCZNEJ. Ćw. nr 12. Analiza falkowa dźwięków instrumentów muzycznych. 1. PODSTAWY TEORETYCZNE ANALIZY FALKOWEJ.

Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1

Transformaty. Kodowanie transformujace

Symulacja sygnału czujnika z wyjściem częstotliwościowym w stanach dynamicznych

Teoria sterowania - studia niestacjonarne AiR 2 stopień

(1.1) gdzie: - f = f 2 f 1 - bezwzględna szerokość pasma, f śr = (f 2 + f 1 )/2 częstotliwość środkowa.

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 9 i 10 - Weryfikacja hipotez statystycznych

CYFROWE PRZETWARZANIE SYGNAŁÓW

Podstawy Automatyki. Wykład 5 - stabilność liniowych układów dynamicznych. dr inż. Jakub Możaryn. Warszawa, Instytut Automatyki i Robotyki

Testowanie hipotez statystycznych.

Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak

Przetwarzanie Sygnałów. Zastosowanie Transformaty Falkowej w nadzorowaniu

Przetwarzanie sygnałów biomedycznych

Podstawy Automatyki. Wykład 5 - stabilność liniowych układów dynamicznych. dr inż. Jakub Możaryn. Warszawa, Instytut Automatyki i Robotyki

Prawdopodobieństwo i statystyka

ZAJĘCIA II. Zmienne losowe, sygnały stochastyczne, zakłócenia pomiarowe

Teoria systemów i sygnałów Kierunek AiR, sem. 5 2wE + 1l

Teoria Sygnałów. Inżynieria Obliczeniowa II rok 2018/19. Wykład 10. ( t) Wykorzystanie transformacji Fouriera w analizie korelacyjnej

Podstawy Automatyki. Wykład 5 - stabilność liniowych układów dynamicznych. dr inż. Jakub Możaryn. Warszawa, Instytut Automatyki i Robotyki

Ważne rozkłady i twierdzenia c.d.

CHARAKTERYSTYKI CZĘSTOTLIWOŚCIOWE

Przetwarzanie sygnałów dyskretnych

Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji

Automatyczne rozpoznawanie mowy - wybrane zagadnienia / Ryszard Makowski. Wrocław, Spis treści

Ćwiczenie - 1 OBSŁUGA GENERATORA I OSCYLOSKOPU. WYZNACZANIE CHARAKTERYSTYKI AMPLITUDOWEJ I FAZOWEJ NA PRZYKŁADZIE FILTRU RC.

CYFROWE PRZTWARZANIE SYGNAŁÓW (Zastosowanie transformacji Fouriera)

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania. Podstawy Automatyki

uzyskany w wyniku próbkowania okresowego przebiegu czasowego x(t) ze stałym czasem próbkowania t takim, że T = t N 1 t

Procedura modelowania matematycznego

FFT i dyskretny splot. Aplikacje w DSP

PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA. Piotr Wiącek

Weryfikacja hipotez statystycznych

Transformata Laplace a to przekształcenie całkowe funkcji f(t) opisane następującym wzorem:

Podstawy Automatyki. wykład 1 ( ) mgr inż. Łukasz Dworzak. Politechnika Wrocławska. Instytut Technologii Maszyn i Automatyzacji (I-24)

Podstawy Automatyki. Wykład 2 - podstawy matematyczne. dr inż. Jakub Możaryn. Warszawa, Instytut Automatyki i Robotyki

Własności dynamiczne przetworników pierwszego rzędu

Ważne rozkłady i twierdzenia

Metody systemowe i decyzyjne w informatyce

Przetwarzanie i transmisja danych multimedialnych. Wykład 8 Transformaty i kodowanie cz. 2. Przemysław Sękalski.

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16

Ćwiczenie 3,4. Analiza widmowa sygnałów czasowych: sinus, trójkąt, prostokąt, szum biały i szum różowy

Akwizycja i przetwarzanie sygnałów cyfrowych

IX. MECHANIKA (FIZYKA) KWANTOWA

W celu obliczenia charakterystyki częstotliwościowej zastosujemy wzór 1. charakterystyka amplitudowa 0,

Kartkówka 1 Opracowanie: Próbkowanie częstotliwość próbkowania nie mniejsza niż podwojona szerokość przed spróbkowaniem.

Interpolacja, aproksymacja całkowanie. Interpolacja Krzywa przechodzi przez punkty kontrolne

Modele DSGE. Jerzy Mycielski. Maj Jerzy Mycielski () Modele DSGE Maj / 11

Dyskretne układy liniowe. Funkcja splotu. Równania różnicowe. Transform

Plan wykładu. Własności statyczne i dynamiczne elementów automatyki:

PSYT Laboratorium nr 3

Przekształcenia sygnałów losowych w układach

VI. Równania różniczkowe liniowe wyższych rzędów

Filtracja. Krzysztof Patan

Sposoby opisu i modelowania zakłóceń kanałowych

Akustyka muzyczna ANALIZA DŹWIĘKÓW MUZYCZNYCH

Idea. θ = θ 0, Hipoteza statystyczna Obszary krytyczne Błąd pierwszego i drugiego rodzaju p-wartość

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski

Statystyka i eksploracja danych

Metoda największej wiarygodności

OPTYKA KWANTOWA Wykład dla 5. roku Fizyki

1.1 Przegląd wybranych równań i modeli fizycznych. , u x1 x 2

Technika regulacji automatycznej

Projektowanie układów regulacji w dziedzinie częstotliwości. dr hab. inż. Krzysztof Patan, prof. PWSZ

Równanie Schrödingera

Zmiany fazy/okresu oscylacji Chandlera i rocznej we współrzędnych bieguna ziemskiego.

9. Dyskretna transformata Fouriera algorytm FFT

Układy elektroniczne II. Modulatory i detektory

Modele zapisane w przestrzeni stanów

Teoria przetwarzania A/C i C/A.

KARTA MODUŁU KSZTAŁCENIA

Stabilność. Krzysztof Patan

Statystyka matematyczna. Wykład IV. Weryfikacja hipotez statystycznych

LABORATORIUM 8 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI

Analiza sygnałów biologicznych

Ćwiczenie 3. Właściwości przekształcenia Fouriera

) (2) 1. A i. t+β i. sin(ω i

Zaawansowane algorytmy DSP

Prawdopodobieństwo i statystyka

Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału

TEST STATYSTYCZNY. Jeżeli hipotezę zerową odrzucimy na danym poziomie istotności, to odrzucimy ją na każdym większym poziomie istotności.

4 Zasoby językowe Korpusy obcojęzyczne Korpusy języka polskiego Słowniki Sposoby gromadzenia danych...

Na A (n) rozważamy rozkład P (n) , który na zbiorach postaci A 1... A n określa się jako P (n) (X n, A (n), P (n)

Metody systemowe i decyzyjne w informatyce

Transkrypt:

Przetwarzanie sygnałów stochastycznych

Przejście sygnału stochastycznego przez układ LTI ξ ( t ) η( t) charakterystyka impulsowa układu wejściowy proces stochastyczny ( pobudzenie) wyjściowy proces stochastyczny ( reakcja ) η( t) = h( t) ξ ( t) h t ξ t η t Splot wiąże ze sobą procesy losowe i jest zdefiniowany za pomocą całki stochastycznej. Zastosowanie praktyczne znikome. W dalszych rozważaniach założymy stacjonarność i ergodyczność procesu wejściowego ξ (t), a co za tym idzie również stacjonarność i ergodyczność procesu wyjściowego η (t). x(t) wybrana realizacja zmiennej losowej ξ (t) (pobudzenie) y(t) reakcja na pobudzenie x(t) realizacja zmiennej losowej η (t)

Systemy z czasem ciągłym (analogowe) x( t ) y( t) Opis w dziedzinie częstotliwości: = = ( )d y t h t x t h α x t α α { } { } { } F x t = X j ω, F h t = H j ω, F y t = Y jω lub alternatywnie gdzie A( ω) = H ( ω) θ ( ω) = H ( ω) ( j ) = ( j ) ( j ) Y ω H ω X ω ( j ) = ( j ) Y ( ω) = θ ( ω) + X ( ω) Y ω A ω X ω arg j arg j j charakterystyka amplitudowa arg j charakterystyka fazowa

Zmiana statystyk po przejściu przez układ LTI x( t ) y( t) Wartość średnia T x( t) = lim x( t ) dt = mx = ξ = const T T T = = ( ) = ( ) = y t h t x t h α x t α dα h α x t α dα m h α dα x h α dα = H, y t = my = η lub y ( ) m = H m η = H ( ) ξ x

Funkcja autokorelacji i korelacji wzajemnej Funkcja autokorelacji T ψx τ x t x t τ t x t x t τ Rx τ T T = lim ( ) d = ( ) = T T ψ y τ y t y t τ t y t y t τ Ry τ T T = lim ( ) d = ( ) = T Funkcja korelacji T ψ yx τ y t x t τ t y t x t τ Ryx τ T T = lim ( ) d = ( ) = T * oznacza sprzężenie zespolone w przypadku sygnałów rzeczywistych można ją pominąć

x( t ) y( t) = = ( )d y t h t x t h α x t α α = ( ) = ( ) ( ) d = ( ) ( ) R τ y t x t τ h α x t α x t τ α h α x t α x t τ dα yx x x t α x t τ = x t α x t α τ α = R τ α yx = x ( ) d = h( τ ) Rx ( τ ) R τ h α R τ α α yx = R τ h τ R τ x

= ( )d y t h α x t α α ( ) = ( )d y t τ h α x t τ α α ( ) = ( ) d y t y t τ y t x t τ α h α α ( ) = ( + ) = ( + ) y t x t τ α y t x t ( τ α) Ryx τ α y = yx ( + ) d = Ryx ( τ α) h ( α)dα = h ( τ ) Ryx ( τ ) R τ R τ α h α α α α yx = R τ h τ R τ x y = ( ) R τ h τ h τ R τ x

Opis w dziedzinie częstotliwości: F F F F { h( t) } = H ( ω) yx y y = x = ( ) yx = ( ) R τ h τ R τ R τ h τ R τ R τ h τ h τ R τ j charakterystyka widmowa { } e j d t t ωt e j ωt d e j ωt h t = h t t = h t t = h t dt = H ( jω) { Rx ( τ )} = Sx ( ω) widmowa gęstość mocy sygnału x( t) R ( τ ) = S ω wzajem n widmowa gęstość mo { yx } yx x( t) a cy sygnałów i x y ( t) yx y = ( j ) x = ( j ) S ω H ω S ω S ω H ω S ω yx = ( j ) ( j ) = ( j ) S ω H ω H ω S ω H ω S ω y x x

Systemy z czasem dyskretnym x[ n ] y[ n] [ ] charakterystyka impulsowa systemu [ ], [ ] realizacje stacjonarnych dyskretnych procesów stochastycznych [ ] i [ ] h n x n y n ξ n η n Opis w dziedzinie częstotliwości: [ ] = [ ] [ ] = [ ] [ ] y n h n x n h p x n p { [ ]} [ ] p= { } { [ ]} F x n = X e, F h n = H e, F y n = Y e j Ω j Ω j Ω ( e j Ω j j ) = ( e Ω ) ( e Ω ) Y H X H jω = H ( z) j e charakterystyka widmowa systemu z= e Ω

Zmiana statystyk po przejściu przez układ LTI x[ n ] y[ n] Wartość średnia N x[ n] = lim x[ n] = mx = ξ = N N + n= N const x [ ] = [ ] [ ] = [ ] [ ] = [ ] [ ] = [ ] y n h n x n h p x n p h p x n p m h p p= p= p= p= [ ] ( e jω ), [ ] h p = H z = H = H y n = m = η z = Ω = y lub y m = H m η = H ξ x

Funkcja autokorelacji i korelacji wzajemnej Funkcja autokorelacji N ψx k lim x n x n k x n x n k Rx k N N + [ ] = [ ] [ ] = [ ] [ ] = [ ] n= N N ψ y k lim y n y n k y n y n k Ry k N N + [ ] = [ ] [ ] = [ ] [ ] = [ ] n= N Funkcja korelacji N ψ yx k lim y n x n k y n x n k Ryx k N N + [ ] == [ ] [ ] = [ ] [ ] = [ ] n= N * oznacza sprzężenie zespolone

x[ n ] y[ n] yx [ ] = [ ] [ ] = [ ] [ ] y n h n x n h p x n p [ ] = [ ] [ ] = [ ] [ ] [ ] = [ ] [ ] [ ] R k y n x n k h p x n p x n k h p x n p x n k p= p= p= [ ] [ ] = [ ] ( ) = [ ] x n p x n k x n p x n p k p Rx k p [ ] = [ ] [ ] = [ ] [ ] R k h p R k p h k R k yx x x p= y [ ] = [ ] [ ] = [ ] [ ] [ ] R k y n y n k y n h p x n k p p p p= [ ] = [ ] [ ] ( ) = [ ] [ ] = [ ] [ ] R k h p y n x n k p h p R k p h k R k y yx yx p= p=

yx y y [ ] = [ ] x [ ] [ ] = [ ] yx [ ] [ ] = [ ] [ ] [ ] R k h k R k R k h k R k R k h k h k R k x Opis w dziedzinie częstotliwości: F F F F jω { h[ k] } = H h [ k] = H x [ ] = x R [ ] = e charakterystyka widmowa { } jω ( e ) { R k } S ( Ω) widmowa gęstość mocy sygnału x[ n] { yx k } S yx ( Ω) wzajemna widmowa gęstość mocy sygnałów x[ n] i y[ n] yx y jω = ( e ) S Ω H S Ω jω = ( e ) S Ω H S Ω x yx jω jω jω = ( e ) ( e ) = ( e ) S Ω H H S Ω H S Ω y x x

Metody identyfikacji systemu LTI x( t ) y( t) Na podstawie obserwacji (pomiarów) pobudzenia x(t) i reakcji y(t) należy zidentyfikować układ, tzn. wyznaczyć jego charakterystykę impulsową lub, alternatywnie, charakterystyki widmowe (charakterystykę amplitudową i/lub fazową).

Metoda impulsowa Jako pobudzenie przykłada się do układu wąski impuls, czyli x( t ) A t e t = ( ) x t A t t t e { } st X s = L x t = A s Y s = H s X s 3 4 = st + + + st st st st! 3! 4! st Jeżeli wybrać t dostatecznie małe, wówczas można przyjąć e st ( ) st = s Y s H s A AtH s L y( t) { } L { } y t = Y s At H s = At h t hˆ t = jest oszacowaniem charakterystyki impulsowej układu At Zalety: w niektórych sytuacjach jedyna możliwa do zastosowania (np. pomiary konstrukcji mechanicznych) Wady: mała dokładność

Metoda sinusoidalna Jako pobudzenie wybiera się przebieg sinusoidalny = sin( + ) x t X ω t ψ m x Wówczas reakcja (w stanie ustalonym) ma postać: = m sin( + y ) y t Y ω t ψ gdzie Ym = H ( jω ) X m = A( ω ) X m ψ = ψ + arg H ( jω ) = ψ + θ ( ω ) y x x Na podstawie pomiaru amplitudy i fazy reakcji można wyznaczyć punkt na charakterystyce amplitudowej i fazowej, przy pulsacji ω. Powtarzając procedurę przy różnych pulsacjach można odtworzyć ( punkt po punkcie ) przebieg charakterystyki amplitudowej i/lub fazowej w wymaganym zakresie częstotliwości. Zalety: prostota i dobra dokładność Wady: nie zawsze możliwa do zastosowania (wymagane specyficzne pobudzenie), duża czasochłonność

Metody korelacyjne x( t ) y( t) Pobudzeniem jest szerokopasmowy sygnał losowy, o funkcji autokorelacji R ( τ ) Wówczas R ( τ ) = h( τ ) R ( τ ) yx x Poprzez pomiar R τ z zależności tej można wyznaczyć h ( τ ). yx Jeżeli przyjąć, że pobudzenie x(t) jest białym szumem o wariancji, wówczas R x ( τ ) = σ xδ( τ ) i zależność na h τ upraszcza się do postaci: h τ = R yx σ x ( τ ) σ x x

Tę samą metodę można zastosować w dziedzinie częstotliwości = = ( j ) R τ h τ R τ S ω H ω S ω yx x yx x czyli H ( jω) = S S yx x ( ω) ( ω) Jeżeli pobudzenie x(t) jest białym szumem o wariancji σ x, wówczas S x ( ω) = σ x i wtedy H ( jω) = S yx σ ( ω) W celu wyznaczenia R wymagana jest jednoczesna yx τ lub S yx ω synchroniczna rejestracja sygnałów pobudzenia i reakcji x

Gdy nie ma możliwości wyznaczenia Ryx τ lub S yx ω (brak jednoczesnej rejestracji), można wykorzystać zależność y = ( j ) S ω H ω S ω Charakterystykę amplitudową można wyznaczyć jako x ( jω) A ω = H = S S y x ( ω) ( ω) Zalety metod korelacyjnych: pomiary są wykonywane na sygnałach dostępnych w danej sytuacji, metody mogą być stosowane przy dowolnych sygnałach, gdy nie ma możliwości pomiarów przy wybranym specyficznym pobudzeniu. Wady metod korelacyjnych: złożony system pomiarowy, niekiedy niepełna identyfikacja (tylko charakterystyka amplitudowa). Przedstawione metody identyfikacji systemu, po niewielkich modyfikacjach, można wykorzystać do identyfikacji systemów dyskretnych.

Detekcja sygnałów Detekcja wykrycie (identyfikacja) sygnału użytecznego występującego na tle zakłóceń Przykładowe obszary zastosowań: radiolokacja telekomunikacja sonar przetwarzanie sygnału mowy i obrazów automatyka geologia i sejsmologia fizyka, biologia, chemia kryminalistyka, zastosowania militarne

Model procesu detekcji Przestrzeń zdarzeń Przestrzeń sygnałów E e k S s i NADAJNIK k =,, K i =,, M Zakłócenia n TOR TRANSMISYJNY X D x d i ODBIORNIK i =,, M Przestrzeń obserwacji Przestrzeń decyzyjna

Przestrzeń zdarzeń E Przestrzeń E składa się z elementów ek, k =,, K. Zawiera zbiór K zdarzeń, z których każde powoduje wygenerowanie określonego sygnału. Zdarzenia e k mają zwykle charakter losowy. Mogą wystąpić z prawdopodobieństwem a priori: { } Pr e = P, k =,, K Prawdopodobieństwa P k mogą być znane lub nie Przykłady: k pojawienie się celu w obszarze zasięgu stacji radarowej, pojawienie się w ciągu znaków alfanumerycznych litery q, pojawienie się w sygnale binarnym, wybuch wulkanu na Kamczatce, wybranie cyfry 5 na klawiaturze numerycznej, k

Przestrzeń sygnałów S Przestrzeń S zawiera sygnały s powstałe (wygenerowane) i, i =,, M, w wyniku wystąpienia zdarzenia e k. Sygnały s i mają na ogół postać funkcji czasu ciągłego lub dyskretnego. Konwersja zdarzenia na sygnał nie musi być wzajemnie jednoznaczna! Przelot bombowca B Przelot gołębia Taki sam lub trudno rozróżnialny sygnał radarowy Trzęsienie ziemi Upadek asteroidy Taki sam lub trudno rozróżnialny sygnał sejsmografu Eksplozja jądrowa W dalszych rozważaniach przyjmiemy wzajemnie jednoznaczną konwersję zdarzenie sygnał, czyli { } { } K = M, Pr e = Pr s = P, i =,, M i i i

Przykład. Kluczowanie fazy Przykład. sin ( ω ) e zdarzenie A s t = A t ( π sin ω ) ( π sin ω ) e zdarzenie B s t = A t e zdarzenie C s t = A t + 3 System transmisji binarnej z kluczowaniem częstotliwości (FSK Frequency Shift Keying) e = s t = Acosω t e = s t = Acosω t

Przykład 3. s ( t) i s t R e brak obiektu s t = e obiekt obecny s ( t) = as t R c

Przykład 4. Wybieranie dwutonowe w liniach telefonicznych (DTMF Dual Tone Multi Frequency) Zdarzenia wybranie jednego z znaków na klawiaturze Sygnał: s ( t ) = cos( π f t) + cos( π f t) i Częstotliwości f i f dla różnych zdarzeń zestawiono w tabeli f 9 Hz 336 Hz 477 Hz f 697 Hz 3 77 Hz 4 5 6 85 Hz 7 8 9 94 Hz * # Np. wybranie 4 spowoduje wygenerowanie dwóch tonów o częstotliwościach f = 77 Hz i f =9 Hz

Tor transmisyjny i przestrzeń obserwacji X W trakcie przesyłania przez tor transmisyjny sygnał jest zniekształcany przez dodatkowe sygnały: pochodzenia naturalnego (szum termiczny, zjawiska atmosferyczne), wytworzone sztucznie (zakłócenia przemysłowe, sygnały z innych nadajników, celowo generowane zakłócenia). Dodatkowym źródłem zakłóceń jest urządzenie odbiorcze. Zakłócenia najczęściej mają charakter addytywny. Sygnał w przestrzeni obserwacji X ma postać: dla sygnałów analogowych = +,, =,,, x t s t n t t T i M gdzie T jest przedziałem obserwacji, a M liczbą wszystkich sygnałów użytecznych, dla sygnałów cyfrowych i [ ] = [ ] + [ ],, =,,, x k s k n k k K i M i gdzie K jest liczbą próbek (długością ciągu)

Losowy charakter zakłóceń n powoduje, że sygnał x jest procesem stochastycznym, który można opisać funkcją gęstości prawdopodobieństwa i = Pr{ i} p x x s s ( t ) s ( t ) s ( t) 3.8.6.4. -. -.4 -.6 -.8-5 5 5 3 35 4 45 x( t).5.5 -.5 - -.5 p ( x ) p ( x ) p ( x) - 5 5 5 3 35 4 45 3

Przykład. System transmisji binarnej z kluczowaniem częstotliwości (FSK Frequency Shift Keying) ω j ω ( τ j ) e = s t = Acos t x t = a Acos t + n t j ω j ω ( τ j ) e = s t = Acos t x t = a Acos t + n t j Sygnały mogą być transmitowane wielotorowo. a j są współczynnikami tłumienia w j-tejścieżce propagacji, a τ j czasem propagacji Przykład. Stacja radiolokacyjna e brak obiektu x t = n t R e obiekt obecny x t = as t + n t c

Przestrzeń decyzyjna D W przestrzeni tej przetwarzane są sygnały x z przestrzeni X. Celem jest podjęcie decyzji o obecności sygnału s i w sygnale x. Składa się z M elementów d, i =,, M i Wygenerowanie elementu d i oznacza postawienie hipotezy H i o obecności w sygnale x sygnału użytecznego s i. Proces ten nazywa się detekcją, a urządzenie do tego celu przeznaczone detektorem. Hipoteza H i jest stawiana z pewnym prawdopodobieństwem, uwarunkowanym obecnością lub nie sygnału s i w sygnale x. Elementy d i są zmiennymi losowymi! Podstawowym zagadnieniem przy projektowaniu detektorów jest wyznaczenie kryterium decyzyjnego, czyli algorytmu konwersji przestrzeni X w przestrzeń D.

przestrzeń X si X i sk X k X s X s X M sm Znalezienie reguły decyzyjnej (kryteriów detekcji) sprowadza się do wyznaczenia granic obszarów decyzyjnych. Wybór kryteriów detekcji zależy od: wiedzy o postaci sygnałów s i, znajomości prawdopodobieństw a priori wystąpienia tych sygnałów P i = { s } Pr, znajomości modeli probabilistycznych zakłóceń i prawdopodobieństw warunkowych p x = Pr x s i { i} i

Rodzaje detekcji: detekcja parametryczna gdy znana jest postać sygnałów s i, prawdopodobieństwa ich wystąpienia P = Pr s, i wszystkie prawdopodobieństwa warunkowe detekcja nieparametryczna gdy powyższe informacje o rozkładach są niepełne lub nieznane. = { i} p x Pr x s, W przypadku detekcji parametrycznej często stosowanym kryterium jest kryterium najmniejszego błędu średniokwadratowego: przyjmij hipotezę H i, gdy i i { } gdzie kwadrat normy reprezentuje energię sygnału * x s = min x s i j Granicami obszarów decyzyjnych X, X są hiperpłaszczyzny o równaniach i x s = x s, i, k =,, M i k k j i

M =, Detekcja dwudecyzyjna czyli przestrzenie zdarzeń i sygnałów zawierają po dwa elementy e e s generuje s generuje Często przyjmuje się, że s oznacza brak alarmu (brak sygnału) s oznacza alarm Przykłady: urządzenia radiolokacyjne sonary czujniki dymu czujniki ruchu urządzenia antywłamaniowe wykrywacze metali

Na podstawie odebranego sygnału x detektor może postawić dwie hipotezy: H H nie ma alarmu (odrzucenie) alarm Istnieją cztery potencjalne decyzje dwie prawidłowe i dwie błędne Decyzja detektora Rzeczywistość Obecny sygnał s Obecny sygnał s Poprawne odrzucenie Fałszywe odrzucenie Przyjęcie hipotezy (poprawny brak alarmu) H (fałszywy brak alarmu) TRR FRR Przyjęcie hipotezy H Fałszywy alarm FAR Poprawny alarm (detekcja) TAR TRR True Rejection Rate FRR False Rejection Rate FAR False Alarm Rate TAR True Alarm Rate

{ [ ]},,, x = x k k = K X X s s Jeżeli znane są modele probabilistycznych zakłóceń i prawdopodobieństwa warunkowe p x = Pr x s, i =, { } i { i} P = Pr H s = p x d x prawdopodobieństwo poprawnego odrzucenia TR X { } P = Pr H s = p x dx TA X { } P = Pr H s = p x dx FR X { } P = Pr H s = p x dx FA X prawdopodobieństwo poprawnego alarmu prawdopodobieństwo fałszywego odrzucenia prawdopodobieństwo fałszywego alarmu

Detekcja binarna Przestrzeń X jest jednowymiarowa sygnał jest pojedynczą wartością chwilową (pojedynczą próbką, czyli K = ) Można np. przyjąć s s = brak alarmu = alarm (lub odwrotnie nie ma to znaczenia) s = s = Pr{ H s} Pr{ H s} Pr{ H s} Pr{ H s} H H D x = D x =

Obszarem obserwacji X jest oś liczbowa x, zaś obszary decyzyjne X : x, λ, X : x λ, półosiami X X X Granicą obszarów decyzyjnych jest punkt λ, nazywany progiem decyzyjnym. Prawdopodobieństwa warunkowe: λ λ { } P = Pr H s = p x dx TR { } P = Pr H s = p x dx TA λ { } P = Pr H s = p x dx FR { } P = Pr H s = p x dx FA λ λ prawdopodobieństwo poprawnego odrzucenia prawdopodobieństwo poprawnego alarmu prawdopodobieństwo fałszywego odrzucenia prawdopodobieństwo fałszywego alarmu

Przykład.5.5.5 -.5 s( t) s s - 5 5 5 3 35 4 45 5 A t.5 n t x( t) n ( t ) szum o rozkładzie normalnym.5.5 -.5 = n t A + n t p ( x ) p ( x) - 5 5 5 3 35 4 45 5 Odebrany sygnał x t jest przebiegiem losowym o rozkładzie t czyli p x = e πσ ( ) x m i σ gdzie m i gdy s t = s = = A gdy s t = s = A ( x A) x σ σ = e, = e p x p x πσ πσ

A =, σ =,4 p ( x ) p ( x) P TA P FA = { } = P Pr H s p x d x, TA λ i P TA λ A P FA x = Pr{ } = P H s p x dx FA λ λ λ można traktować jako parametryczne równania krzywej P TA Krzywa operacyjna odbiornika ROC Receiver Operating Curve P FA

A =, σ =, A =, σ =,5 x x PTA,5 λ P TA,5 λ P FA Krzywe ROC umożliwiają porównywanie detektorów P FA

Wybrane kryteria decyzyjne detekcji parametrycznej Założymy dwudecyzyjną detekcję binarną, tzn. na podstawie obserwowanego sygnału x należy podjąć decyzję o przyjęciu jednej z dwóch alternatywnych hipotez: H D x = brak sygnału odrzucenie alarmu H obecny sygnał ( alarm) D x = Jeżeli znamy prawdopodobieństwa a priori wystąpienia sygnałów s (brak alarmu) i s (alarm) P = Pr s, P = Pr s { } { } oraz modele probabilistycznych zakłóceń i prawdopodobieństwa warunkowe = Pr { }, = Pr{ } p x x s p x x s to reguła decyzyjna ma postać (kryterium Neymana-Pearsona): D x gdy p x < cp x = gdy p x cp x gdzie c jest parametrem zależnym od przyjętego kryterium detekcji.

Wyrażenie (iloraz prawdopodobieństw warunkowych) { } { x s} ( x) Pr x s p x Λ ( x) = = Pr p nazywa się ilorazem wiarygodności (LR Likelihood Ratio) Regułę decyzyjną (kryterium Neymana-Pearsona) można teraz przedstawić jako: (przyjęta hipoteza obecny sygnał ), jeżeli Λ D x = H = s x c (przyjęta hipoteza obecny sygnał ), jeżeli Λ D x = H = s x < c czyli Λ ( x) H < H c lub p ( x) cp ( x) H H <

Kryterium maksimum wiarygodności (ML Maximum Likelihood Kryterium decyzyjne ma postać Λ D x = (przyjęta hipoteza H = obecny sygnał s ), jeżeli x Λ D x = (przyjęta hipoteza H = obecny sygnał s ), jeżeli x < co odpowiada przyjęciu c = Można to zapisać Λ ( x) H < H lub p ( x) p ( x) H < H Kryterium przydatne, gdy nie znamy prawdopodobieństw a priori { } { } P = Pr s i P = Pr s

Często wygodnie jest posługiwać się logarytmem ilorazu wiarygodności. Wówczas kryterium ML przyjmie postać: Przykład (c.d.) H ln Λ ( x) lub ln p ( x) ln p ( x) < H H H < ( x A) x σ σ = e, = e p x p x πσ πσ Jak wybrać λ? Λ ( x) ( x) ( ) ( ) p x x A x A A x = = exp = exp p σ σ ( x) x A A A ln Λ ( x) = σ < x< A Optymalnym wyborem będzie λ = A

Detekcja Bayesa (kryterium minimum średnich kosztów) Wymagana jest znajomość prawdopodobieństw warunkowych p x i p x oraz prawdopodobieństw a priori wystąpienia w rzeczywistości sygnałów s i s, P = Pr s i P = Pr s czyli { } { } C ij koszt przyjęcia hipotezy H i przy wystąpieniu sygnału s j, czyli mamy cztery rodzaje kosztów: C hipoteza H gdy w rzeczywistości jest s (hipoteza poprawna TR) C hipoteza H gdy w rzeczywistości jest s (hipoteza błędna FA) C hipoteza H gdy w rzeczywistości jest s (hipoteza poprawna TA) C hipoteza H gdy w rzeczywistości jest s (hipoteza błędna FR) Koszty te nie muszą być kosztami finansowymi. Ich ocena należy do ekspertów, i zagadnieniem tym nie będziemy się zajmować. Przyjmiemy (założenie dość oczywiste), że koszty błędnych decyzji są większe niż koszty decyzji poprawnych.

Średni koszt podjęcia decyzji: { } { } { } { } C = C Pr H, s + C Pr H, s + C Pr H, s + C Pr H, s { } { } { } { } i j i j j j i j { A B} { A B} { B} Pr, = Pr Pr reguła Bayesa Pr H, s = Pr H s Pr s = P Pr H s, i, j =,. { } { } { } { } C = C P Pr H s + C P Pr H s + C P Pr H s + C P Pr H s X przestrzeń obserwacji, X, X regiony decyzyjne C = C P p x dx + C P p x dx + C P p x dx + C P p x dx X X X X X = X X, X X = X = X \ X C = C P p x dx + C P p x dx + C P p x dx + C P p x dx X X \ X X \ X X

C = C P p x dx + C P p x dx + C P p x dx + C P p x dx X X \ X X \ X X p x dx = p x dx = p x d x, i =, i i i X X \ X X C = CP p ( x) dx + C P p ( x) dx + CP p ( x) dx + CP p ( x) dx X X X X C = C P + C P + P C C p x P C C p x d x X składnik stały > składnik zależny od wyboru X Zakładamy, że C > C > i C > C >. { } X = x : P C C p x P C C p x < (przyjęcie hipotezy H ) W konsekwencji { } Drugi składnik będzie minimalny, gdy X = x : P C C p x P C C p x (przyjęcie hipotezy H )

Kryterium decyzyjne Bayesa ma więc postać: H P C C p x P C C p x < ( ) ( ) H Wyrażenia w nawiasach są dodatnie, więc kryterium można również zapisać jako H ( ) < ( ) p x P C C p x P C C H lub gdzie Λ ( x) Λ ( x) H ( ) ( ) = p x, c = P C C p x P C C < H c

Przykład (c.d.) A =, σ =,5 p p ( x) ( x) = = πσ e πσ x σ e, ( x A) σ (, ), (, λ ), [ λ, ) X = X = X = λ p ( x ) p ( x) λ X X ( λ ) = + + ( ) ( ) d C C P C P P C C p x P C C p x d x dc P C C p P C C p dλ = ( λ ) ( λ ) dc = C ( λ ) min dλ λ = λ wyliczamy z równania opt ( ) ( λ ) = ( ) ( λ ) P C C p P C C p

P =, 6; P =, 4; C =,8; C =,; C =,3; C =,; A = ; σ =,5 dc dλ Wówczas otrzymujemy: λ λ =,88755, C =,554994 P P opt FA TA =,8889 =,9759 C ( λ ) Gdyby przyjąć C = (koszt fałszywego odrzucenia alarmu), to wówczas λ λ =,385433, C =,7798 P P opt FA TA =,469773 =,977545

Kryterium minimum średnich kosztów błędnych decyzji Modyfikacja kryterium Bayesa uwzględnia się jedynie koszty błędnych decyzji C i C. Stosowane, gdy koszty poprawnych decyzji są zerowe lub trudne do oszacowania. Kryterium to uzyskuje się z kryterium Bayesa po podstawieniu C = C = Średnich koszt błędnych decyzji: d C = C P p x x + C P p x dx X X Kryterium decyzyjne: lub Λ gdzie ( x) ( x) H H < c H p x P C Λ = p x, c = P C p x P C p x < P C H

Minimum średniego prawdopodobieństwa błędnych decyzji Stosuje się gdy wszystkie koszty są trudne do oszacowania. Przyjmuje się C = C =, C = C = Wówczas minimalizuje się koszt błędnych decyzji d C = P p x x + P p x dx X X Kryterium decyzyjne: H p x P p x < P H lub Λ gdzie ( x) ( x) H H < c Λ = p x, c = P p x P

Kryterium maksimum prawdopodobieństwa a posteriori (MAP) Prawdopodobieństwo a posteriori jest prawdopodobieństwem warunkowym, definiowanym jako prawdopodobieństwo wystąpienia sygnału s i w konkretnym odebranym sygnale x, czyli { si x} Zgodnie z regułą Bayesa Pr. { x s i } Pr { x s i } Pr Pr{ si x} = Pr { si } = Pi, Pr x Pr x { } { } gdzie P i jest prawdopodobieństwem a priori wystąpienia sygnału s i. Kryterium to wymaga wyznaczenia prawdopodobieństw a posteriori dla wszystkich możliwych sygnałów s i, w sytuacji kiedy odebrano sygnał x. Test decyzyjny polega na porównaniu tych prawdopodobieństw i wybraniu takiej hipotezy H i o wykryciu sygnału s i, dla której Pr { si x} jest największe.

W przypadku detektora dwudecyzyjnego kryterium to ma postać: Pr H { s x} Pr{ s x} < H Jeżeli sygnał x jest zmienną losową ciągłą, obliczenie prawdopodobieństw warunkowych a posteriori może być kłopotliwe. Zwykle przyjmuje się Wówczas Pr{ } { i} = ( i ) = i { } = Pr x s p x s dx p x d x, Pr x p x dx i Pr{ } p ( x ) pi x p x si x = si = Pi p x W przypadku detektora dwudecyzyjnego: p( x) czyli H p x P p x < P H H p x p x P < p x Kryterium jest identyczne z kryterium minimum prawdopodobieństwa błędów! H P

Czasowo-częstotliwościowa analiza sygnałów Reprezentacja widmowa sygnałów niestacjonarnych, oparta na przekształceniu Fouriera, powoduje uśrednienie widma i nie umożliwia uchwycenia efektów lokalnych i lokalizacji tych efektów na osi czasu. Transformata Fouriera, wyznaczona dla t (, ), charakteryzuje się ostrą lokalizacją na osi częstotliwości ale nie zapewniażadnej lokalizacji czasowej. T j k ( ω t jkω ω ) = = t X j x t e d t X x t e d t T Jądro przekształcenia lub baza szeregu Fouriera są określone (niezerowe) na całej osi czasu Rozdzielczość czasową można uzyskać stosując inny zestaw funkcji bazowych, takich, które przyjmują niezerowe wartości tylko w skończonych przedziałach czasu. Można to np. zrealizować w taki sposób, że przedział czasu obserwacji sygnału dzielimy na krótsze fragmenty, i dla każdego fragmentu wyznaczamy widmo.

Skrócenie sygnału powoduje jednak rozmycie widma, a więc pogorszenie rozdzielczości w dziedzinie częstotliwości. Zjawisko to jest podobne do, znanej w mechanice kwantowej, zasady nieoznaczoności Heisenberga. Niech g t oznacza okno czasowe, wycinające fragment sygnału o długości a G jω jego widmo (transformatę Fouriera). Szerokości okien w dziedzinie czasu i częstotliwości wyznaczają kostkę lokalizacji funkcji bazy (kostkę Heisenberga) t ω ω G ( j ω ) G ( j ω ) ω ω t t t t g ( t) g ( t)

ω g ( t) G( jω) g ( at) G j a a d d ( jω) E = g t t = G Przyjmiemy: E = g t = ω π = ( ) wtedy ( j ω ) = ( j ω ) = ( j ω ) g t g t G G G ( t) lim t g = t ± g ( t ) G( jω) t ω

Rozważmy funkcje g ( t) i G( jω) g ( t ) G( jω) t ω σ t σ ω Jako miarę szerokości tych krzywych można przyjąć: σ t = t g t t = t g t d dω σ ω ω ω ω ω π ( j ) j ( j ) = G = G = g t

x = t g t y = g t Nierówność Schwartza-Buniakowskiego: x, y x, x y, y = x y t g t g t t g t g t σ σ ω, = t t g t, g t t g t g t dt = u = t u = v = g t g t v = g t t g t g t dt = = σ σ t ω Równość zachodzi, gdy g t = aπ t g t, a > g t = K K aπt e, dowolne g ( t) g t = aπt Jeżeli wymagamy 4 g t = to należy przyjąć K = a

G( jω) g t ( τ ) G( jω) g t G e jωτ jωτ ( jω) e = G( jω) ω g ( t ) τ g ( t τ ) t ω jξt e G j( ω ξ ) g t jξ e t g ( t) g t ξ j g t g ( t ) ξ e t t ω ( τ ) j g t ξ e t jξt ( τ ) G ( ω ξ ) g t e j e jωτ ξ t g ( t) τ

Krótkoczasowa (okienkowa) transformata Fouriera STFT Short-Time Fourier Transform Niech g t = g t będzie funkcją, która jest znacząco różna od w skończonym przedziale t, t (funkcja okna). Ponadto g t = g t, g t = g t dt = Krótkoczasową transformatą Fouriera nazywamy: Funkcję STFT,, ξ = = e t d j ( τ ξ ) ( τ ξ ) ( τ ) x X x t g t t nazywa się atomem czasowo-częstotliwościowym przekształcenia Wyrażenie na transformatę można zapisać również jako j = e ξt ( τ ) g t g t τξ ( τ, ξ ) =, X x t g t τ, ξ

X τ, ξ reprezentuje na płaszczyźnie ( t, ω) własności sygnału x( t) w otoczeniu punktu τ, ξ Przyjmijmy τ = mt i ξ = nω Wówczas mn j e n ω = t ( ) g t g t mt jnω = = = ( ) t STFT m, n X m, n x t, g t x t g t mt e dt x ω n mn 3 t ω 3 m t

Przeskalowanie funkcji okna ( σ σ ) Jeżeli okno g t ma kostkę Heisenberga, t to okno ga t g ma kostkę Heisenberga a t ω a a a = ( σ σ ) Przeskalowanie nie zmienia powierzchni kostki Heisenberga! t ω ω n a < a > ω n 8 6 4 3 4 5 m t m t

jnωt = = ( ) X m, n x t, g t x t g t mt e dt mn Gdy jako funkcję okna przyjąć, zaproponowaną przez Gabora funkcję = ( a) g t to osiąga się minimum iloczynu σ tσ ω =, czyli minimalną powierzchnię okna Heisenberga. Atomy wygenerowane przez taką funkcję mn π 4 e a t j ω = ( ) g t g t mt nazywa się atomami Gabora, a STFT z takimi atomami przekształceniem Gabora. e n t Funkcję nazywa się spektrogramem. x (, ) = X ( m, n) P m n Spektrogram jest miarą (rozkładem) energii na płaszczyźnie t, ω w otoczeniu punktów mt i nω.

Przykład. Sygnał sinusoidalny, o częstotliwości zmieniającej się liniowo w zakresie w czasie ( ) s ( 45) Hz Moduł widma, db - -4-6 -8-4 Częstotliwość, Hz.5 Czas, s.5

Inaczej: 5 4 3.5.5 Czas, s Częstotliwość, Hz

Przykład. Sygnał sinusoidalny o kluczowanej częstotliwości: f = 5 Hz, f = 45 Hz 5 4 Częstotliwość ęstotliwość, Hz 3.5.5 Czas, s

Przykład 3. Sygnał sinusoidalny o sinusoidalnie modulowanej częstotliwości Częstotliwość środkowa 5 Hz, częstotliwość modulująca,5 Hz, dewiacja częstotliwości ± 5 Hz 5 4 Częstotliwość, Hz 3..4.6.8..4.6.8 Czas, s

Transformacja falkowa Transformacja falkowa (wavelet transform) jest alternatywnym sposobem analizy czasowo-częstotliwościowej L x t ψ ψ Wx a, b = X a, b = x t, ab t = x t ab t dt Jądrem przekształcenia są funkcje bazowe ψ ab ( t), nazywane falkami (wavelets). Są odpowiednikiem okna w STFT, i powinny być dobrze skoncentrowane w czasie. Zbiór falek generuje się w oparciu o falkę podstawową. Falka podstawowa (falka matka, falka bazowa mother wavelet) Funkcję ψ t (może być zespolona) nazywamy falką podstawową, gdy gdzie ( j ) Ψ ω C ψ = dω < ω { } ( j ) =F ( t ) Ψ ω ψ

Z warunku ( j ) Ψ ω C ψ = dω < ω wynikają następujące własności falki podstawowej: ( t) t Ψ ψ d = (co jest równoważne = ) ψ + t t dt < Funkcja ψ t musi więc mieć co najmniej jedno zafalowanie, a jednocześnie powinna być skoncentrowana w skończonym przedziale na osi czasu, a poza tym przedziałem powinna szybko zanikać do zera. Ma więc postać krótkiej fali, czyli falki..5 t.5 t -.5 -.5-5 5 Fala - 5 5 Falka

Na podstawie falki podstawowej ψ t generuje się rodzinę falek: ψ ab t b + t = ψ, a R, b R a a i przesunięcie na osi czasu (parametr b) falki podstawowej Zbiór falek ψ ab t powstaje więc przez zmianę skali czasu (parametr a) ψ t ψ ( t) a = 6 b = 5 ψ ab t b t a = ψ a a = b = 4

ψ ab t b + t = ψ, a R, b R a a ψ ψ Wx a, b = X a, b = x t, ab t = x t ab t dt X ( a b ) x( t) : Transformata, umożliwia pełną rekonstrukcję sygnału x ( t ) = x, d d (, ) d d ab ab t a b X a b ab t a b a C ψ ψ = ψ a C ψ ψ gdzie ( j ) Ψ ω C ψ = dω < ω

Przykłady falek podstawowych Falka Haara ψ ( t) gdy t, = gdy t, gdy t, ) ) [ ).5.5 -.5 - ψ ( t) haar -.5..4.6.8..4 t Falka Morleta.8 ψ ( t) morl ψ ( t) = e π t cos5t.6.4. -. t -.4 -.6 -.8 - -8-6 -4-4 6 8

Falka mesykański kapelusz Mexican Hat.8.6 ψ ( t) mexh.4 ψ π 4 ( t) = ( t ) 3 e t. -. -.4-8 -6-4 - 4 6 8 t Falka Meyera Zapis analityczny jest mocno skomplikowany.5 ψ ( t) meyr.5 t -.5 - -8-6 -4-4 6 8

Rodzina zespolonych falek Gaussa f t = e t e C jt ( p ) ( t) = C p 5 7t + 6t + j( 56t + 3t ) p = 4 : ψ e e p = 4 9 38π ( p) ψ t = C f t, f oznacza pochodną rzędu p C p p wyznacza się z warunku ψ =.8.6 Re { } 4 4 3 t jt cgau4 { }.8 ψ ( t) Im ψ ( t).6.4.4. t. t -. -. -.4 -.4 -.6 -.6 -.8-5 5 -.8-5 5

Rodzina falek Daubechies (nie istnieje zapis analityczny).5 ψ ( t) db4.5 ψ ( t) db8.5 t t -.5 -.5 - - 3 4 5 6 7 -.5 5 5.8 ψ ( t) db.8 ψ ( t) db6.6.6.4. -. -.4 t.4. -. t -.6 -.4 -.8 -.6-5 5 5 -.8 5 5 5 3 35

Skwantowanie parametrów a i b. a b m = a m = nb a m, n Z ψ ab t b + t = ψ, a R, b R a a Wówczas m m m ψ mn t = a ψ a t nba stanowi przeliczalny zbiór funkcji bazowych, m, n Z Jeżeli eli przyjąć a =, b =, to ψ m m ψ m ψ = m ( m ) ψ t t n mn m ( t) = czynnik m odpowiada za skalowanie osi czasu ψ m mn = ψ m t n n odpowiada za przesunięcie w dziedzinie czasu, na poziomie m przesunięcie to jest z krokiem m Taki zbiór falek nazywa się zbiorem diadycznym

m ψ = m ( m ) ψ t t n mn ψ X = x, ψ = x t t dt współczynniki falkowe mn mn mn Transformata odwrotna: = ψ x t X t m n mn mn Współczynniki falkowe X mn reprezentują cechy sygnału przedstawionego w bazie ψ mn, przy czym parametr n lokalizuje chwilę na osi czasu, w której wykonujemy analizę, a m określa zakres analizowanych częstotliwości. Dyskretną funkcję Snm = X mn nazywa się skalogramem sygnału x ( t ). jest to odpowiednik spektrogramu STFT.

Relacja skala-częstotliwość Falka { } ( t) ( j ) =F ( t) ψ Ψ ω ψ ψ ( t) Ψ ( jω) Ψ ( jω) jest charakterystyką amplitudową filtra pasmowoprzepustowego, o pulsacji środkowej ω i szerokości pasma B = σ. dω dω Jeżeli ψ = to Ψ = Ψ ( jω) = Ψ ( jω) = π π ω B wtedy dω ω = ω Ψ j ω, = σ, σ = ω ω Ψ jω B π dω π

Co będzie dla ψ mn ( t)? m = ψ m ( m ) ψ mn t t n m a= ( t) m ψ = ψ Ψ jω = Ψ j ω m m m m m m t = n m ω ( t n ) ψ = ψ Ψ jω = Ψ jω e = Ψ j ω e m n j m m n j mn m mn m j ( j ) ( j ) e n m ω = = ( j ) Ψ ω Ψ ω Ψ ω mn m m F ( jω) m m m dx m dx m ωm = x Ψ ( jx) = xψ ( jx) = ω π π f t dω ω = ω Ψ jω = ω Ψ j ω m m m m π ω = m x dω π ω f ( at) F j a a f t t F jωt ( jω) e m ω m Podobnie: σ = σ, czyli B = m B m m

ψ ( t) ψ ( t) mn m =, n = 4 m =, n = 4 m = 3, n = 4 t Ψ mn ( jω) m =, n = 4 m =, n = 4 m = 3, n = 4 Ψ ( jω) ω

ψ ( t mn ) m =, n = m =, n = 8 m = 3, n = 4 ψ ( t) t Ψ ( jω ) Ψ ( jω) mn m m m =, n = =, n = 8 = 3, n = 4 ω

Rozkład kostek Heisenberga diadycznej transformacji falkowej. B = 3 3 B m = 3 B = B m = B B = B B = B m = m = m = Podstawowe zastosowania transformacji falkowej: kompresja sygnałów (systemy MP3 i MPG4) usuwanie szumu ( odszumianie ) cyfrowa rekonstrukcja starych filmów