[d(i) y(i)] 2. Do wyprowadzenia algorytmu RLS posłuży kryterium autokorelacyjne: J n = e 2 (i) i=1. λ n i [d(i) y(i)] 2 λ (0, 1]

Podobne dokumenty
Adaptacyjne Przetwarzanie Sygnałów. Filtracja adaptacyjna w dziedzinie częstotliwości

ADAPTACYJNE PRZETWARZANIE SYGNAŁÓW LABORATORIUM. Ćwiczenie 2. Badanie algorytmów adaptacyjnych LMS i RLS

ADAPTACYJNE PRZETWARZANIE SYGNAŁÓW LABORATORIUM. Ćwiczenie 2. Badanie algorytmów adaptacyjnych LMS i RLS

Praca dyplomowa magisterska

METODY NUMERYCZNE. wykład. konsultacje: wtorek 10:00-11:30 środa 10:00-11:30. dr inż. Grażyna Kałuża pokój

Zawansowane modele wyborów dyskretnych

KADD Minimalizacja funkcji

Układy równań liniowych. Krzysztof Patan

KOMPRESJA STRATNA SYGNAŁU MOWY. Metody kompresji stratnej sygnałów multimedialnych: Uproszczone modelowanie źródeł generacji sygnałów LPC, CELP

Modyfikacja schematu SCPF obliczeń energii polaryzacji

Narzędzia matematyczne zastosowane w systemie biomonitoringu wody

Zaawansowane algorytmy DSP

Numeryczne metody optymalizacji Optymalizacja w kierunku. informacje dodatkowe

Optymalizacja ciągła

PROGRAMOWANIE KWADRATOWE

Algebra liniowa II. Lista 1. 1 u w 0 1 v 0 0 1

Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa. P. F. Góra

Metody numeryczne. Janusz Szwabiński. Metody numeryczne I (C) 2004 Janusz Szwabiński p.1/50

Optymalizacja ciągła

ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ

Układy równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona) f(x) = 0, gdzie. dla n=2 np.

Filtr Kalmana. Struktury i Algorytmy Sterowania Wykład 1-2. prof. dr hab. inż. Mieczysław A. Brdyś mgr inż. Tomasz Zubowicz

UKŁADY RÓWNAŃ LINIOWYCH -Metody dokładne

Sterowanie napędów maszyn i robotów

Metody Obliczeniowe w Nauce i Technice

Zaawansowane metody numeryczne

x x 1. Przedmiot identyfikacji System x (1) x (2) : x (s) a 1 a 2 : a s mierzone, a = zestaw współczynników konkretyzujacych F ()

KADD Minimalizacja funkcji

1 Macierz odwrotna metoda operacji elementarnych

Politechnika Gdańska Wydział Elektrotechniki i Automatyki. Automatyka i Robotyka Systemy Sterowania i Wspomagania Decyzji

Metody dekompozycji macierzy stosowane w automatyce

Stosowana Analiza Regresji

ECTS (Część 2. Metody numeryczne) Nazwa w języku angielskim: Algorithms and data structures.

Wykład 14. Elementy algebry macierzy

Przegląd metod optymalizacji wielowymiarowej. Funkcja testowa. Funkcja testowa. Notes. Notes. Notes. Notes. Tomasz M. Gwizdałła

Wstęp do metod numerycznych Algebraiczna metoda gradientów sprzężonych. P. F. Góra

Modele zapisane w przestrzeni stanów

8. PODSTAWY ANALIZY NIELINIOWEJ

UKŁADY RÓWNAŃ LINIOWYCH - Metody dokładne

ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów

Ekonometria. Prognozowanie ekonometryczne, ocena stabilności oszacowań parametrów strukturalnych. Jakub Mućk. Katedra Ekonomii Ilościowej

10. Metody obliczeniowe najmniejszych kwadratów

Liczby zmiennoprzecinkowe i błędy

Statystyka opisowa. Wykład V. Regresja liniowa wieloraka

Statystyka Matematyczna Anna Janicka

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Aproksymacja. j<k. L 2 p[a, b] l 2 p,n X = Lemat 1. Wielomiany ortogonalne P 0,P 1,...,P n tworza przestrzeni liniowej Π n. Dowód.

Rozwiązywanie równań nieliniowych

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

Implementacja algorytmów filtracji adaptacyjnej o strukturze transwersalnej na platformie CUDA.

5. Rozwiązywanie układów równań liniowych

Funkcje wielu zmiennych

Elektrodynamika. Część 9. Potencjały i pola źródeł zmiennych w czasie. Ryszard Tanaś

VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa.

Macierze. Rozdział Działania na macierzach

Języki Modelowania i Symulacji

Metody systemowe i decyzyjne w informatyce

Przedmowa Wykaz oznaczeń Wykaz skrótów 1. Sygnały i ich parametry Pojęcia podstawowe Klasyfikacja sygnałów

VI. Równania różniczkowe liniowe wyższych rzędów

Interpolacja funkcji

04 Układy równań i rozkłady macierzy - Ćwiczenia. Przykład 1 A =

Wstęp do metod numerycznych Faktoryzacja QR i SVD. P. F. Góra

REPREZENTACJA LICZBY, BŁĘDY, ALGORYTMY W OBLICZENIACH

REGRESJA LINIOWA Z UOGÓLNIONĄ MACIERZĄ KOWARIANCJI SKŁADNIKA LOSOWEGO. Aleksander Nosarzewski Ekonometria bayesowska, prowadzący: dr Andrzej Torój

1 Metody rozwiązywania równań nieliniowych. Postawienie problemu

Met Me ody numer yczne Wykład ykład Dr inż. Mic hał ha Łanc Łan zon Instyt Ins ut Elektr Elektr echn iki echn i Elektrot Elektr echn olo echn

Zależność. przyczynowo-skutkowa, symptomatyczna, pozorna (iluzoryczna),

2 1 3 c c1. e 1, e 2,..., e n A= e 1 e 2...e n [ ] M. Przybycień Matematyczne Metody Fizyki I

Wykład 3 Równania rózniczkowe cd

Wstęp do metod numerycznych Metody iteracyjne Algebraiczna metoda gradientów sprzężonych. P. F. Góra

Metody numeryczne. materiały do wykładu dla studentów. 1. Teoria błędów, notacja O

Estymacja częstotliwości podstawowej sieci energetycznej na podstawie scałkowanego sygnału napięcia

Analiza szeregów czasowych: 7. Liniowe modele stochastyczne

Obliczenia naukowe Wykład nr 2

Równania różniczkowe liniowe rzędu pierwszego

a 11 a a 1n a 21 a a 2n... a m1 a m2... a mn x 1 x 2... x m ...

ADAPTACYJNE PRZETWARZANIE SYGNAŁÓW LABORATORIUM. Ćwiczenie 5 - suplement

Granica i ciągłość funkcji. 1 Granica funkcji rzeczywistej jednej zmiennej rzeczywsitej

Wstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych. P. F. Góra

ADAPTACYJNE PRZETWARZANIE SYGNAŁÓW LABORATORIUM. Ćwiczenie 3. Adaptacyjne usuwanie szumów i interferencji

Analiza numeryczna Lista nr 3 (ćwiczenia) x x 2 n x.

Przekształcanie równań stanu do postaci kanonicznej diagonalnej

Analiza szeregów czasowych: 5. Liniowe modele stochastyczne

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

dr Mariusz Grządziel 15,29 kwietnia 2014 Przestrzeń R k R k = R R... R k razy Elementy R k wektory;

Metody numeryczne Technika obliczeniowa i symulacyjna Sem. 2, EiT, 2014/2015

ADAPTACYJNA METODA REDUKCJI SZUMU W SYGNALE DRGAŃ MASZYN WIRUJĄCYCH

FFT i dyskretny splot. Aplikacje w DSP

ADAPTACYJNE PRZETWARZANIE SYGNAŁÓW LABORATORIUM. Ćwiczenie 3. Adaptacyjne usuwanie szumów i interferencji

Równania różniczkowe liniowe wyższych rzędów o stałych współcz

Fuzja sygnałów i filtry bayesowskie

STATYKA Z UWZGLĘDNIENIEM DUŻYCH SIŁ OSIOWYCH

Algorytmy numeryczne 1

Transformaty. Kodowanie transformujace

Równanie przewodnictwa cieplnego (II)

POLITECHNIKA CZĘSTOCHOWSKA. Poszukiwanie optymalnej średnicy rurociągu oraz grubości izolacji

1 Gaussowskie zmienne losowe

5. Równania różniczkowe zwyczajne pierwszego rzędu

Iteracyjne rozwiązywanie równań

Transkrypt:

Algorytm RLS Recursive Least Squares Ogólna postać kryterium LS: J = i e 2 (i) = i [d(i) y(i)] 2 Do wyprowadzenia algorytmu RLS posłuży kryterium autokorelacyjne: J n = e 2 (i) Zmodyfikowane kryterium autokorelacyjne: J n = λ n i e 2 (i) = λ n i [d(i) y(i)] 2 λ (0, 1] APSG W5: Filtracja adaptacyjna 2 algorytm RLS 1/16 Gradient funkcji kosztu: J n = 2 λ n i [d(i) f T n x i ]x i Przyrównujemy gradient do zera: λ n i [d(i) f T n x i ]x i =0 λ n i d(i)x i = } {{ } ˆr n λ n i f T n x i x i Układ równań normalnych: ( n ) λ n i d(i)x i = λ n i x i x T i f n } {{ } ˆR n APSG W5: Filtracja adaptacyjna 2 algorytm RLS 2/16

Rozwiązanie układu równań normalnych: f n = 1 ˆR n ˆr n gdzie: ˆr n = λˆr n 1 + x n d(n) =λ [ n 1 ] λn 1 i d(i)x i + d(n)x n ] + x n x T n ˆR n = λ ˆR n 1 + x n x T n = λ [ n 1 λn 1 i x i x T i Możemy odwracać w każdym kroku n rekursywną estymatę ˆR n macierzy autokorelacji R sygnału wejściowego, ale musimy pamiętać o: 1. złożoności obliczeniowej tego typu operacji; 2. uwarunkowaniu macierzy ˆR n ; 3. dokładności macierzy odwrotnej wobec oczywistego faktu niedokładności estymaty. Co zatem zrobić??? APSG W5: Filtracja adaptacyjna 2 algorytm RLS 3/16 Lemat 1 (o rekursywnym odwracaniu macierzy - identyczność Woodbury ego) Załóżmy, że mamy dane dwie dodatnio określone macierze kwadratowe A i B o wymiarze L L, które powiązane są zależnością: A = B 1 + CD 1 C T dim(c) =L N, dim(d) =N L Macierz odwrotną można zapisać w następującej postaci: A 1 = B + BC ( D + C T BC) 1 C T B APSG W5: Filtracja adaptacyjna 2 algorytm RLS 4/16

A = ˆR n B 1 = λ ˆR n 1 C = x n D =1 Po odpowiednim podstawieniu otrzymujemy: ˆR 1 n 1 1 = λ ˆR 1 n 1 λ ˆR 1 Wprowadźmy oznaczenia: n 1x n ( ˆR 1 n 1x n ) 1 1+λ 1 x T n }{{} } {{ skalar } k n x T 1 n λ ˆR 1 n 1 P n = ˆR 1 n k n = P n 1 x n λ + x T n P n 1 x n Rekursywna formuła na macierz P n : P n = 1 λ [ P n 1 k n x T n P n 1 ] APSG W5: Filtracja adaptacyjna 2 algorytm RLS 5/16 Wracamy do rozwiązania układu równań normalnych: f n = 1 ˆR n ˆr n = P nˆr n f n = P n (λˆr n 1 + d(n)x n )=λp nˆr n 1 + d(n)p n x n P n x n = 1 λ [P n 1 k n x T n P n 1 ]x n = 1 λ [P n 1x n k n x T n P n 1 x n ] P n x n = 1 λ [λk n + k n x T n P n 1 x n k n x T n P n 1 x n ] P n x n = k n f n =(P n 1 k n x T n P n 1 ) ˆr n 1 + d(n)k n f n = f n 1 k n x T n f n 1 + d(n)k n APSG W5: Filtracja adaptacyjna 2 algorytm RLS 6/16

[ ] f n = f n 1 + k n d(n) f T n 1x n }{{} e(n n 1) Warunki początkowe: f 0 = 0 P 0 = γi γ 1 Dla kolejnych chwil czasu n obliczamy: e(n n 1) = d(n) f T n 1x n P n 1 x n k n = λ + x T n P n 1 x n f n = f n 1 + k n e(n n 1) P n = 1 [ P n 1 k n x T ] n P n 1 λ APSG W5: Filtracja adaptacyjna 2 algorytm RLS 7/16 Porównanie właściwości algorytmów LMS i RLS LMS RLS Szybkość Wolna, zależna od Szybka, niezależna od zbieżności sygnału wejściowego. sygnału wejściowego Niedopasowanie M LMS = α tr(r) M RLS = 1 λ 1+λ L Złożoność Mała, liniowa Duża, kwadratowa obliczeniowa O(L) O(L 2 ) Zdolność śledzenia τ lag LMS = 1 αλ min τ lag RLS = 1 1 λ niestacjonarności Stabilność Odporny na kumulację Potencjalnie niestanumeryczna błędów numerycznych bilny numerycznie APSG W5: Filtracja adaptacyjna 2 algorytm RLS 8/16

Porównanie szybkości zbieżności 0 20 40 60 δ( n) 80 [db] 100 120 140 160 180 200 0 1000 2000 3000 4000 5000 Numer próbki n (a) algorytm LMS (1) (2) (3) 0 50 100 δ( n) 150 [db] 200 250 300 (1) (2) (3) 350 0 1000 2000 3000 4000 5000 Numer próbki n (b) algorytm RLS Sygnał wejściowy : (3) szum biały, χ(r) =1; (2) proces AR(4), χ(r) 630; (1) sygnał mowy APSG W5: Filtracja adaptacyjna 2 algorytm RLS 9/16 Zdolność śledzenia niestacjonarności 5 5 0 h ( n ) 2 h( n) 0 h ( n ) 2 h( n) 5 5 10 10 δ( n) [db] 15 20 δ( n) [db] 15 20 25 25 30 30 35 35 40 0 2000 4000 6000 8000 10000 Numer próbki n (a) α =0, 003; λ =0, 990 40 0 2000 4000 6000 8000 10000 Numer próbki n (b) α =0, 003; λ =0, 999 Sygnał wejściowy : x(n) - proces AR(5), χ(r) = 100, SNR=30 db (LMS linia przerywana, RLS linia ciągła) APSG W5: Filtracja adaptacyjna 2 algorytm RLS 10/16

Metody zwiększania szybkości zbieżności algorytmu LMS 1. Dekorelacja sygnału wejściowego 2. Uzmiennienie kroku adaptacji α 3. Filtracja adaptacyjna w podpasmach Metody redukcji złożoności obliczeniowej algorytmu RLS 1. Algorytmy typu FTF (Fast Transversal Filter) 2. Szybki adaptacyjny filtr kratowy LSL (Least Squares Lattice) 3. Dekompozycja QR APSG W5: Filtracja adaptacyjna 2 algorytm RLS 11/16 Algorytmy dekorelujące 1. Algorytm ELMS (Excited LMS) xn ( ) + + Kpn ~ ( ) x 1( n) f n h n en ( ) Algorytm NLMS - ^ yn ( ) + yn ( ) + dn ( ) + sn ( ) APSG W5: Filtracja adaptacyjna 2 algorytm RLS 12/16

2. Algorytm AP (Affine Projection - Ozekiego-Umady) x n = P a i x n i + w n = X n a + w n X n =[x n 1,...,x n P ] min â n x n X n â n 2 2 rozwiązanie â n =[X T n X n ] 1 X T n x n Dla P =1dostajemy algorytm DLMS: z n = x n X n â n f n+1 = f n + α z T e(n)z n n z n c(n) = xt n x n 1 x T n 1 x n 1 z n = x n c(n)x n 1 APSG W5: Filtracja adaptacyjna 2 algorytm RLS 13/16 Algorytmy ze zmiennym krokiem adaptacji Algorytm NLMS (Normalized LMS) f n+1 = f n + Zasada minimalnych zaburzeń: α ρ + x n 2 e(n)x n = f n + α ρ + x T n x n e(n)x n Po pojawieniu się nowych danych, parametry systemu adaptacyjnego należy modyfikować w minimalnym stopniu. min f n+1 f n 2 = min f n 2, przy ograniczeniu f T n+1x n = d(n) f n+1 f n+1 Ogólna postać algorytmu LMS ze zmiennym krokiem adaptacji: f n+1 = f n + α(n)e(n)x n APSG W5: Filtracja adaptacyjna 2 algorytm RLS 14/16

Metody wyznaczania parametru α(n): 1) Moc sygnału błędu jako kryterium oceny stanu adaptacji α(n +1)=µα(n)+γe 2 (n), 0 <µ<1, γ > 0 2) Kryterium korelacyjne c(n) =βc(n 1)+(1 β)e(n)e(n 1), 0 <β<1 α(n +1)=µα(n)+γc 2 (n), 0 <µ<1, γ > 0 APSG W5: Filtracja adaptacyjna 2 algorytm RLS 15/16 3) Adaptacyjne wyznaczanie wartości kroku adaptacji α(n) =α(n 1) ρ 2 α(n) =α(n 1) ρ 2 e 2 (n) α(n 1) T e 2 (n) f n f n α(n 1) α(n) =α(n 1) + ρe(n)e(n 1)x T n 1x n APSG W5: Filtracja adaptacyjna 2 algorytm RLS 16/16