. Przedmiot identyfikacji System () x (2) x * a z y ( s ) x y = F (x,z)=f(x,z,a ),gdziex = F () znane, a nieznane x () x (2) x (s) mierzone, a = a a 2 a s zestaw współczynników konkretyzujacych F () informacja aprioryczna F {F (x,z,a); a R s } istnieje dokładnie jedno a,takieże F (x,z)=f(x,z,a ) dla każdej pary (x,z) (identyfikowalność) informacja pomiarowa {x k,y k } N k= cel znaleźć przepis Ψ() (algorytm identyfikacji) Ψ(inf. aprioryczna, inf. pomiarowa) =a N a
założenia o zakłóceniach natura procesów własności a N praktyczne wartości Ea N [i] i vara N [i] asymptotyczne fakt i typ zbieżności a N a jest addytywne, tj. y = F (x, a )+z {z k } N k= ci ag i.i.d. Ez = 0 varz < z,x niezależne z losowe,x deterministyczne lub losowe, y losowe, a N losowe 2. Metoda najmniejszych kwadratów (Gauss 809) wskaźnik teoretyczny oceniajacy jakość dopasowania Q J (a) =E{y F (x, a)} 2 min a Q J (a) = E{F (x, a )+z F (x, a)} 2 = E{[F (x, a ) F (x, a)] 2 +2[F (x, a ) F (x, a)]z + z 2 } = = E{F (x, a ) F (x, a)} 2 + varz konkluzja a =argminq J (a) a w praktyce nie jest możliwe obliczenie Q J (a) (brak znajomości odpowiednich rozkładów), proponuje się estymację wartości oczekiwanej za pomoca wartości średniej Q J,N (a) = N N k= {y k F (x k, a)} 2 min a
uśredniane składniki {y k F (x k, a)} 2 tworzaci ag i.i.d., zatem na podstawie MPWL Q J,N (a) p. Q J (a), gdy N pytanie czy prawdziwe jest następujace wnioskowanie odpowiedź tylko wtedy, gdy Q J,N (a) p. Q J (a) = arg min Q J,N (a) p. arg min a a Q J (a) 3. Liniowy system statyczny MIMO sup( Q J,N (a) Q J (a)) p. 0 a opis macierzowo wektorowy równanie pomiarów wektor wyjść modelu X N = x T x T 2 x T N = y = a T x + z = x T a + z y k = x T k a + z k, k =, 2,..., N x () x (2).. x (s) x () 2 x (2) 2.. x (s) 2........ x () N x(2) N.. x(s) N, Y N = Y N = X N a + Z N Y N = X N a y y 2 y N, Z N = z z 2 z N
empiryczne kryterium jakości gradient Q J,N (a) = N {y k x T k a} 2 =(Y N X N a) T (Y N X N a)= Y N X N a 2 2 =... kwadrat normy euklidesowej k= równanie normalne... = (Y T N a T X T N)(Y N X N a)=y T N Y N a T X T NY N Y T N X N a + a 2 X T NX N min a dim X T N X N = s s, dim X T N Y N = s, dim a = s kwestia isnienia rozwiazania kwestia jednoznaczności rozwiazania Fakt rankx T N X N = rankx T N = rankx N. Warunek jednoznaczności rankx N = s a Q J,N (a) = 2X T NY N +2X T NX N a =0 X T NX N a =X T NY N lincolx T NX N = lincolx T N det X T NX N > 0 ( = 0) inaczej rankx T NX N = s (nieosobliwa) ) N s dostatecznie dużo pomiarów (warunek konieczny, ale nie wystarczajacy) 2) wśród N pomiarów musi się znaleźć s niezeleżnych liniowo wektorów Gdy rankx N <s, wtedy rozwiazanie równania normalnego nie jest jednoznaczne.
kwestia nazwy równania (normalność-prostopadłość) XN(Y T N X N a) = 0 XN(Y T N Y N ) = 0,gdzieY N wyjście modelu o parametrach a XN T = [col x, col 2 x,..., col s x] Y N wniosek Y N lincolxn T natomiast w ogólności Y N / lincolxn T = a col x + a 2 col 2 x +... + a s col s x liniowa kombinacja wektorów kolumnowych YN colx YN col2x X T N(Y N Y N )=0 (col x i) T (Y N Y N )=0dla każdego i =, 2,..., s wniosek wektor różnicy Y N Y N jest prostopadły dokażdej z kolumn col x i (rzut prostopadły jest najkrótszy )
. Identyfikacja liniowych systemów dynamicznych z czasem dyskretnym x k + α x k +... + α n x k n = β 0 u k + β u k +... + β m u k m, () gdzie wartości rzędów n i m sa znane. Po wprowadzeniu operatora q = z przesuwajacego wstecz (tzn. qx k = x k, q 2 x k = x k 2 itd.) oraz wielomianów A(q) = +α q + α 2 q 2 +... + α n q n, B(q) = β 0 + β q +... + β m q m, równanie () upraszcza się do postaci A(q)x k = B(q)u k x k = B(q) A(q) u k. 2. Identyfikacja w warunkach bez zakłóceń pomiarowych θ =(α, α 2,..., α n, β 0, β,..., β m ) T r k =( x k, x k 2,..., x k n,u k,u k,..., u k m ) T, x k = r T k θ. Nieznane parametry zawarte w wektorze θ identyfikuje się na podstawie par pomiarów (u k,x k ). Zapiszmy r T x r T 2 R N =, X x 2 N =. rn T x N
X N = R N θ, (2) R T NX N = R T NR N θ, (θ niewiadome), (3) warunek jednoznaczności rozwiazania det R T NR N =0 rankr N =dimθ. warunek konieczny N dim θ. (4) θ =(R T NR N ) R T NX N. 3. Identyfikacja w obecności zakłóceń pomiarowych Cel estymacja wektora parametrów θ =(α, α 2,..., α n, β 0, β,..., β m ) T na podstawie pomiarów we wy {(u k,y k )} N k=,gdzie y k = x k + ε k. Do prawdziwego (niedostępnego dla pomiarów) wyjścia obiektu x k dodaj asię przypadowe zakłócenia ε k o zerowej wartości oczekiwanej Eε k =0, skończonej wariancji varε k <, niezależne od procesu wejściowego u k Zapisujemy x k = y k ε k = B(q) A(q) u k / A(q)
i otrzymujemy równanie różnicowe o zmiennych y i u A(q)y k = B(q)u k + z k. z k = A(q)ε k = ε k + α ε k + α 2 ε k 2 +... + α n ε k n, z k nie jest szumem białym, gdyż jego autokorelacja dla τ n jest niezerowa Ez k z k τ =0. Po wprowadzeniu rzeczywistego regresora (uogólnionego wektora wejść) φ k =( y k, y k 2,..., y k n,u k,u k,..., u k m ) T oraz macierzy uogólnionych wejść, wektora wyjść izakłóceń φ T φ T 2 Φ N =, Y N = równanie pomiarów przyjmuje postać φ T N y y 2 y N, Z N = z z 2 z N, Y N = Φ N θ + Z N, gdzie θ jest niewiadomym wektorem stałych parametrów, a Z N nieznanym zakłóceniem losowym. estymator metodanajmniejszychkwadratów Y N = Φ N θ w ogólności sprzeczny θ =(Φ T N Φ N ) Φ T NY N,
bład estymacji Ponieważ proces wyjściowy jest ergodyczny = θ θ =(Φ T NΦ N ) Φ T NY N θ = = (Φ T NΦ N ) Φ T NΦ N θ +(Φ T NΦ N ) Φ T NZ N θ = = ( N ΦT NΦ N ) N ΦT NZ N. N ΦT NZ N Eφ k z k = E y k y k n u k u k u k m z prawdopodobieństwem, gdyn. Skorelowanie procesu {z k } powoduje, że Ey k z k Ey k n z k Eφ k z k = 0 = 0 0 0 Zwiększanie liczby pomiarów nie doprowadzi nas do prawdziwych wartości parametrów. W celu pokonania tej trudności, stosuje się techniki oparte na filtracji zakłóceń lub tzw. metodę zmiennych instrumentalnych z k
9. Wersja rekurencyjna algorytmu najmniejszych kwadratów
wersja off-line (standardowa) a N =(X T NX N ) X T NY N wersja on-line (rekurencyjna) a N = f(a N,x N,y N )=a N + δ(a N,x N,y N ) odwracana macierz (w wersji off-line) oznaczmy X T NX N = N x k x T k = k= N k= x k x T k + x N x T N = X T N X N + x N x T N P N =(X T NX N ) możemy zapisać cov(a N )=P N σ 2 z a N a N = P N X T NY N = P N X T N Y N P N = PN + x Nx T N,gdzieP N = XT N X N Lemat (o odwracaniu macierzy) A + uu T = A +u T A u A uu T A
Przyjmujac A = PN i u = x N otrzymujemy P N = P N +x T N P P N x N x T NP N = P N κ N P N x N x T NP N N x N gdzie κ N = +x T N P N x N wstawiajac otrzymujemy a N = P N κ N P N x N x T NP N X T N Y N + x N y N = = P N XN Y T N + P N x N y N [κ N P N x N ](x T NP N XN Y T N x T NP N x N y N )= = a N +[κ N P N x N ]{ y N x T κ Na N x T NP N x N y N } N κ N =+x T NP N x N {...} = y N + x T NP N x N y N x T Na N x T NP N x N y N = y N x T Na N wniosek a N = a N + κ N P N x N (y N x T Na N ) () P N = P N κ N P N x N x T NP N / x N P N x N = P N x N κ N P N x N x T NP N x N = κ N P N x N { κ N x T NP N x N } {...} = P N x N = κ N P N x N
wstawiamy do () a N = a N + P N x N (y N x T Na N ) P N = P N P N x N x T N P N +x T N P N x N warunki poczatkowe zaleta algorytm pracuje bez odwracania macierzy a 0 =0, P 0 = diag[0 3 0 5 ]