Politechnika Wrocławska

Podobne dokumenty
Katedra Fizyki Ciała Stałego Uniwersytetu Łódzkiego. Ćwiczenie 2 Badanie funkcji korelacji w przebiegach elektrycznych.

2. P (E) = 1. β B. TSIM W3: Sygnały stochastyczne 1/27

Ważne rozkłady i twierdzenia c.d.

Ćwiczenie 3. Właściwości przekształcenia Fouriera

ZAJĘCIA II. Zmienne losowe, sygnały stochastyczne, zakłócenia pomiarowe

VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa.

W celu obliczenia charakterystyki częstotliwościowej zastosujemy wzór 1. charakterystyka amplitudowa 0,

Metoda największej wiarygodności

DYSKRETNA TRANSFORMACJA FOURIERA

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów

Laboratorium Przetwarzania Sygnałów Biomedycznych

Matematyka z el. statystyki, # 6 /Geodezja i kartografia II/

Sposoby opisu i modelowania zakłóceń kanałowych

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

PODSTAWY AUTOMATYKI. MATLAB - komputerowe środowisko obliczeń naukowoinżynierskich - podstawowe operacje na liczbach i macierzach.

W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych:

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16

Analiza szeregów czasowych: 7. Liniowe modele stochastyczne

Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Elektroniki

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

uzyskany w wyniku próbkowania okresowego przebiegu czasowego x(t) ze stałym czasem próbkowania t takim, że T = t N 1 t

Liczby zespolone. x + 2 = 0.

Statystyka od podstaw Janina Jóźwiak, Jarosław Podgórski

Andrzej Leśnicki Laboratorium CPS Ćwiczenie 7 1/7 ĆWICZENIE 7. Splot liniowy i kołowy sygnałów

Informacja o przestrzeniach Hilberta

Definicja 1 Statystyką nazywamy (mierzalną) funkcję obserwowalnego wektora losowego

Zakładamy, że są niezależnymi zmiennymi podlegającymi (dowolnemu) rozkładowi o skończonej wartości oczekiwanej i wariancji.

Rozdział 1 PODSTAWOWE POJĘCIA I DEFINICJE

Analiza szeregów czasowych: 5. Liniowe modele stochastyczne

Przekształcenia widmowe Transformata Fouriera. Adam Wojciechowski

Biostatystyka, # 3 /Weterynaria I/

Weryfikacja hipotez statystycznych

Spacery losowe generowanie realizacji procesu losowego

CYFROWE PRZETWARZANIE SYGNAŁÓW

Matematyka dyskretna. Andrzej Łachwa, UJ, /10

Analiza korespondencji

Prawdopodobieństwo i statystyka

Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji

Egzamin / zaliczenie na ocenę*

Teoria Sygnałów. Inżynieria Obliczeniowa II rok 2018/19. Wykład 10. ( t) Wykorzystanie transformacji Fouriera w analizie korelacyjnej

Na A (n) rozważamy rozkład P (n) , który na zbiorach postaci A 1... A n określa się jako P (n) (X n, A (n), P (n)

Systemy. Krzysztof Patan

Analiza szeregów czasowych: 2. Splot. Widmo mocy.

Teoria systemów i sygnałów Kierunek AiR, sem. 5 2wE + 1l

CHARAKTERYSTYKI CZĘSTOTLIWOŚCIOWE

3 1 + i 1 i i 1 2i 2. Wyznaczyć macierze spełniające własność komutacji: [A, X] = B

5. Rozwiązywanie układów równań liniowych

Ważną rolę odgrywają tzw. funkcje harmoniczne. Przyjmujemy następującą definicję. u = 0, (6.1) jest operatorem Laplace a. (x,y)

LABORATORIUM PODSTAW TELEKOMUNIKACJI

Ważne rozkłady i twierdzenia

Prognozowanie i Symulacje. Wykład I. Matematyczne metody prognozowania

DYSKRETNE PRZEKSZTAŁCENIE FOURIERA C.D.

Inteligentna analiza danych

Programowanie liniowe

Teoria Sygnałów. III rok Informatyki Stosowanej. Wykład 8

Ćw. nr 31. Wahadło fizyczne o regulowanej płaszczyźnie drgań - w.2

Metody systemowe i decyzyjne w informatyce

CYFROWE PRZTWARZANIE SYGNAŁÓW (Zastosowanie transformacji Fouriera)

Stabilność. Krzysztof Patan

Procesy stochastyczne

166 Wstęp do statystyki matematycznej

Prawa wielkich liczb, centralne twierdzenia graniczne

Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1

INTERPOLACJA I APROKSYMACJA FUNKCJI

Laboratorium Przetwarzania Sygnałów Biomedycznych

Aproksymacja funkcji a regresja symboliczna

TERAZ O SYGNAŁACH. Przebieg i widmo Zniekształcenia sygnałów okresowych Miary sygnałów Zasady cyfryzacji sygnałów analogowych

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 7 i 8 - Efektywność estymatorów, przedziały ufności

Komputerowa Analiza Danych Doświadczalnych

Metody probabilistyczne

F t+ := s>t. F s = F t.

Zadanie 1. Liczba szkód N w ciągu roku z pewnego ryzyka ma rozkład geometryczny: k =

Procesy stochastyczne

Twierdzenie o splocie

Spis treści 3 SPIS TREŚCI

Układy stochastyczne

Testowanie hipotez statystycznych.

Załóżmy, że obserwujemy nie jedną lecz dwie cechy, które oznaczymy symbolami X i Y. Wyniki obserwacji obu cech w i-tym obiekcie oznaczymy parą liczb

VI. Równania różniczkowe liniowe wyższych rzędów

Podstawy Automatyki. wykład 1 ( ) mgr inż. Łukasz Dworzak. Politechnika Wrocławska. Instytut Technologii Maszyn i Automatyzacji (I-24)

Statystyka matematyczna. Wykład IV. Weryfikacja hipotez statystycznych

KADD Minimalizacja funkcji

STATYSTYKA

Analiza szeregów czasowych: 2. Splot. Widmo mocy.

Zadania ze statystyki, cz.7 - hipotezy statystyczne, błąd standardowy, testowanie hipotez statystycznych

Zadania egzaminacyjne

Interpolacja. Marcin Orchel. Drugi przypadek szczególny to interpolacja trygonometryczna

Analiza składowych głównych

Dystrybucje, wiadomości wstępne (I)

Transformata Fouriera

Funkcje wymierne. Funkcja homograficzna. Równania i nierówności wymierne.

Wykład z równań różnicowych

Tydzień nr 9-10 (16 maja - 29 maja), Równania różniczkowe, wartości własne, funkcja wykładnicza od operatora - Matematyka II 2010/2011L

Podstawy Automatyki. Wykład 5 - stabilność liniowych układów dynamicznych. dr inż. Jakub Możaryn. Warszawa, Instytut Automatyki i Robotyki

Metoda najmniejszych kwadratów

Wstęp do metod numerycznych Zadania numeryczne 2016/17 1

Matematyka dyskretna. Andrzej Łachwa, UJ, /15

Testowanie hipotez statystycznych.

Statystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności. dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl

Podstawy Automatyki. Wykład 5 - stabilność liniowych układów dynamicznych. dr inż. Jakub Możaryn. Warszawa, Instytut Automatyki i Robotyki

Transkrypt:

Politechnika Wrocławska Wydział Elektryczny Instytut Podstaw Elektrotechniki i Elektrotechnologii Zakład Elektrotechniki Teoretycznej ANALIZA SYGNAŁÓW OKRESOWYCH METODAMI STATYSTYK WYŻSZYCH RZĘDÓW Praca dyplomowa napisana przez Zbigniewa Leonowicza 997 Promotor: prof. zw. dr hab. inż. Tadeusz Łobos Recenzent: dr inż. Piotr Ruczewski

Politechnika Wrocławska Abstrakt Analiza sygnałów odkształconych przy pomocy statystyk wyższych rzędów napisana przez Zbigniewa Leonowicza Celem pracy jest zbadanie przydatności zastosowania statystyk czwartego rzędu (kumulantów) do estymacji widma wybranych sygnałów spotykanych w elektrotechnice. Praca zawiera dokładny opis teoretyczny zastosowanych metod estymacji widma: maksymalnego prawdopodobieństwa (ML), Pisarenki, MUSIC i minimum normy (MN). Przedstawiono ideę zastosowania statystyk wyższych rzędów w miejsce macierzy korelacji będącej zwykle podstawą powyższych metod estymacji widma. W części doświadczalnej przedstawiono wyniki estymacji widma sygnałów odkształconych, dyskusję nad zaletami i wadami poszczególnych metod oraz możliwe obszary zastosowań statystyk wyższych rzędów.

SPIS TREŚCI. Wstęp 9 2. Wprowadzenie 4 2. Stacjonarność procesu 4 2.2 Ergodyczność 5 2.3 Macierze korelacji i kowariancji 6 2.4 Biały szum dyskretny 8 3. Statystyki wyższych rzędów i ich polispektra 20 3. Definicje kumulantów 20 3.2 Zależności pomiędzy kumulantami a momentami 23 3.3 Własności kumulantów 24 3.4 Definicje polispektrów statystyk wyższych rzędów 26 3.5 Własności polispektrów statystyk wyższych rzędów 27 4. Estymacja statystyk wyższych rzędów 29 4. Wprowadzenie 29 4.2 Definicja estymatora 29 4.3 Estymatory statystyk wyższych rzędów 30 5. Statystyki wyższych rzędów procesów harmonicznych 32 5. Definicje procesów harmonicznych 32 5.2 Definicje i własności kumulantów procesów harmonicznych 33 6. Wybrane metody estymacji widma 35 6. Metody o niskiej rozdzielczości 35 6.. Estymacja periodogramu 35 6.2 Metody o wysokiej rozdzielczości 36 6.2. Metoda maksymalnego prawdopodobieństwa (ML) 37 6.2.. Obliczanie estymatora ML 39 6.2.2 Metody podprzestrzeni 40 6.2.2. Wprowadzenie 4 6.2.2.2 Metoda Pisarenki 43 6.2.2.3 Metoda MUSIC (Multiple Signal Classification) 44 6.2.2.4 Metoda minimum normy (MN) 45 6.2.2.5 Estymacja liczby sygnałów M 47 7. Środowisko symulacyjne programu Matlab 48

8. Doświadczenie 49 8. Przebieg doświadczenia 49 8.2 Sygnały testowe 49 8.2. Sygnały harmoniczne 49 8.2.. Dane sygnałów testowych 50 8.2.2 Sygnały o składowych nieznacznie różniących się częstotliwością 53 8.2.2. Praca asynchroniczna maszyn synchronicznych 53 8.2.2.2 Dane sygnałów testowych 54 9. Wyniki obliczeń 54 9. Wykresy 54 9.2 Obliczenia dokładności estymacji 67 0. Omówienie wyników i wnioski 70 0. Wpływ odstępu sygnał-szum na dokładność estymacji 70 0.2 Wpływ amplitud składowych sygnału na dokładność estymacji 70 0.3 Wpływ szumu kolorowego na dokładność estymacji 70 0.4 Wpływ odstępu sygnał-szum na rozdzielczość estymat widma 7 0.5 Porównanie dokładności metod drugiego i czwartego rzędu 7 0.6 Ocena metod estymacji widma 72 0.7 Wnioski 72 iii

SPIS ILUSTRACJI Numer Rys. -. Klasyfikacja widm wyższych rzędów sygnałów dyskretnych... Rys. 8-.Widmo szumu tab. 2 p.7...50 Rys. 8-2.Widmo szumu tab. 2 p.8...50 Rys. 8-3. Widmo szumu addytywnego z tab.2 p. 5...54 Rys.9-4. Przebieg badanego sygnału f=[50 50 250] Hz SNR=20 db....55 Rys.9-5. Widmo mocy sygnału f=[50 50 250] Hz SNR=20 db szum biały....55 Rys.9-6. Estymata widma ML sygnału f=[50 50 250] Hz SNR=20 db...55 Rys.9-7. Estymata widma Pisarenki f=[50 50 250] Hz SNR=20 db....55 Rys. 9-8. Estymata widma MUSIC f=[50 50 250] Hz SNR=20 db...55 Rys.9-9.Estymata widma MN f=[50 50 250] Hz SNR=20 db...55 Rys.9-0. Przebieg badanego sygnału f=[50 50 250] Hz SNR=0 db...56 Rys.9-. Widmo mocy sygnału f=[50 50 250] Hz SNR=0 db szum biały....56 Rys. 9-2. Estymata widma ML f=[50 50 250] Hz SNR=0 db.....56 Rys.9-3. Estymata widma Pisarenki f=[50 50 250] Hz SNR=0 db....56 Rys.9-4. Estymata widma MUSIC f=[50 50 250] Hz SNR=0 db....56 Rys.9-5. Estymata widma MN f=[50 50 250] Hz SNR=0 db...56 Rys.9-6. Przebieg badanego sygnału f=[50 50 250] Hz SNR=0 db....57 Rys.9-7. Widmo mocy sygnału f=[50 50 250] Hz SNR=0 db szum biały...57 Rys.9-8. Estymata widma ML f=[50 50 250] Hz SNR=0 db....57 Rys.9-9. Estymata widma Pisarenki f=[50 50 250] Hz SNR=0 db....57 Rys.9-20. Estymata widma MUSIC f=[50 50 250] Hz SNR=0 db...57 Rys.9-2. Estymata widma MN f=[50 50 250] Hz SNR=0 db...57 Rys.9-22. Przebieg badanego sygnału f=[50 50 250] Hz SNR=-0 db...58 Rys.9-23. Widmo mocy sygnału f=[50 50 250] Hz SNR=-0 db szum biały...58 Rys.9-24. Estymata widma ML f=[50 50 250] Hz SNR=-0 db...58 Rys.9-25. Estymata widma Pisarenki f=[50 50 250] Hz SNR=-0 db....58 Rys.9-26. Estymata widma MUSIC f=[50 50 250] Hz SNR=-0 db....58 Rys.9-27. Estymata widma MN f=[50 50 250] Hz SNR=-0 db....58 Rys.9-28. Przebieg badanego sygnału f=[50 50 250] Hz SNR=20 db...59 Rys.9-29. Widmo mocy sygnału SNR=20 db szum biały, α=[ 0.5 0.5]...59 Rys.9-30. Estymata widma ML f=[50 50 250] Hz SNR=20 db....59 Rys.9-3. Estymata widma Pisarenki f=[50 50 250] Hz SNR=20 db....59 Rys.9-32. Estymata widma MUSIC f=[50 50 250] Hz SNR=20 db....59 Rys.9-33. Estymata widma MN f=[50 50 250] Hz SNR=20 db...59 Rys.9-34. Przebieg badanego sygnału f=[50 50 250] Hz SNR=20 db...60 Rys.9-35. Widmo mocy sygnału SNR=20 db szum biały, α=[ 0. 0.05]...60 Rys.9-36. Estymata widma ML f=[50 50 250] Hz SNR=20 db....60 Rys.9-37. Estymata widma Pisarenki f=[50 50 250] Hz SNR=20 db....60 Rys.9-38. Estymata widma MUSIC f=[50 50 250] Hz SNR=20 db....60 Rys.9-39. Estymata widma MN f=[50 50 250] Hz SNR=20 db...60 Rys.9-40. Widmo mocy sygnału f=[50 50 250] Hz SNR=0 db szum kol. typu MA....6 Rys.9-4. Estymata widma ML f=[50 50 250] Hz SNR=0 db....6 Rys.9-42. Estymata widma Pisarenki f=[50 50 250] Hz SNR=0 db....6 Rys.9-43. Estymata widma MUSIC f=[50 50 250] Hz SNR=0 db...6 Rys.9-44. Estymata widma MN f=[50 50 250] Hz SNR=0 db...6 Rys.9-45. Widmo mocy sygnału f=[50 50 250] Hz SNR=0 db szum kol. typu ARMA..6 Rys.9-46. Estymata widma ML f=[50 50 250] Hz SNR=0 db....62 Strona iv

Rys.9-47. Estymata widma Pisarenki f=[50 50 250] Hz SNR=0 db....62 Rys.9-48. Estymata widma MUSIC f=[50 50 250] Hz SNR=0 db...62 Rys.9-49. Estymata widma MN f=[50 50 250] Hz SNR=0 db...62 Rys.9-50. Widmo mocy sygnału f=[47 50] Hz SNR=20 db szum biały....62 Rys.9-5 Estymata widma ML f=[47 50] Hz SNR=20 db....62 Rys.9-52. Estymata widma Pisarenki f=[47 50] Hz SNR=0 db...63 Rys.9-53. Estymata widma MUSIC f=[47 50] Hz SNR=0 db...63 Rys.9-54. Estymata widma MN f=[47 50] Hz SNR=0 db...63 Rys.9-55. Estymata widma Pisarenki f=[47 50] Hz SNR=0 db...63 Rys.9-56. Estymata widma MUSIC f=[47 50] Hz SNR=0 db...63 Rys. 9-57. Estymata widma MN f=[47 50] Hz SNR=0 db...63 Rys.9-58. Estymata widma Pisarenki f=[47 50] Hz SNR=0 db szum biały....64 Rys.9-59. Estymata widma MUSIC f=[47 50] Hz SNR=0 db...64 Rys.9-60. Estymata widma MN f=[47 50] Hz SNR=0 db...64 Rys.9-6. Widmo mocy sygnału f=[49 50] Hz SNR=20 db szum biały....64 Rys.9-62. Estymata widma ML f=[49 50] Hz SNR=20 db....64 Rys.9-63. Estymata widma Pisarenki f=[49 50] Hz SNR=20 db...64 Rys.9-64. Estymata widma MUSIC f=[49 50] Hz SNR=20 db...65 Rys.9-65. Estymata widma MN f=[49 50] Hz SNR=20 db...65 Rys.9-66. Widmo mocy sygnału f=50 Hz SNR=0 db szum kolorowy typu AR....65 Rys.9-67. Estymata widma ML f=50 Hz SNR=0 db....65 Rys.9-68. Estymata widma Pisarenki f=50 Hz SNR=0 db....65 Rys.9-69. Estymata widma MUSIC f=50 Hz SNR=0 db...65 Rys.9-70. Estymata widma MN f=50 Hz SNR=0 db...66 Rys.9-7. Estymata widma MUSIC (dane doświadczalne)...66 v

PODZIĘKOWANIA Autor składa podziękowania Panu Profesorowi Tadeuszowi Łobosowi, Panu Doktorowi Piotrowi Ruczewskiemu i Panu Doktorowi habilitowanemu Ryszardowi Makowskiemu za okazaną pomoc, życzliwość i cenne wskazówki vi

SPIS OZNACZEŃ c k ( )( τ,k) C( k )( ω,k) c k, (τ,...) C kumulant k-tego rzędu procesu losowego losowego kumulant k-tego rzędu procesu stacjonarnego macierz kowariancji procesu losowego col(,...) cum(,...) e E {}. E Ei( z) ( t) zbiór zmiennych losowych kumulant zmiennych losowych rzeczywistych o średniej zerowej wektor własny macierzy korelacji wartość oczekiwana macierz wektorów własnych filtr wartości własnych f, funkcja gęstości prawdopodobieństwa procesu los. F n- [.] g(n) h 0 L n - wymiarowa transformacja Fouriera szum gaussowski wektor współczynników odpowiedzi impulsowej lagrangian m k... kn momenty k-tego rzędu zmiennych losowych ( ) m t m wartość średnia procesu losowego wektor wartości średnich dla P ( ) P ω $P e MN $P e MU jω ( ) jω ( ) moc wyjściowa filtru widmo mocy estymator pseudospektrum otrzymany metodą minimum normy estymator pseudospektrum otrzymany metodą MUSIC vii

jω ( ) $P e P P X ( ) R t R estymator pseudospektrum otrzymany metodą Pisarenki macierz operatora rzutowania ortogonalnego funkcja korelacji procesu losowego macierz korelacji procesu losowego s, s i wektor próbek sygnału S k, ( ω,...) $S e ML jω ( ) jω ( ) S e polispektrum k-tego rzędu estymator widma otrzymane metodą maksymalnego prawdopodobieństwa Capona widmowa gęstość mocy w 0 wektor składowych postaci e jωn ( ) δ n ( ) σ 0 2 n wariancja dyskretny impuls jednostkowy $θ estymator parametru θ η λ Λ wektor próbek szumu wartość własna macierzy korelacji macierz wartości własnych µ mnożnik Lagrange a a * gradient zespolony względem a viii

. Wstęp Od ponad trzydziestu lat z powodzeniem stosowano w dziedzinie cyfrowego przetwarzania sygnałów metodę wyznaczania widma mocy sygnałów dyskretnych (deterministycznych i losowych). Stosowane obecnie techniki wyznaczania widma mocy można podzielić na: klasyczne (typu Fouriera ), metody maksymalnego prawdopodobieństwa Capona i ich modyfikacje, maksymalnej entropii, minimalnej energii, ponadto metody parametryczne oparte na modelach AR, MA i ARMA, metody Prony ego, Pisarenki, MUSIC, ESPRIT i inne. Każda z wymienionych metod ma swoje wady i zalety jeśli porównać jakość estymacji jak i trudności obliczeniowe. Podczas wyznaczania widma mocy dany sygnał jest przetwarzany w ten sposób, że wyznaczasięrozkład mocy na poszczególne składowe tego sygnału o różnych częstotliwościach, jednak podczas tego procesu tracona jest informacja o przesunięciach fazowych pomiędzy składnikami sygnału. Informacja zawarta w widmie mocy jest wystarczająca do opisu sygnału o rozkładzie normalnym. Istnieją jednak zastosowania praktyczne, gdy z sygnału należy wydobyć informacje o przesunięciach fazowych lub oszacować odchylenie rozkładu sygnału od rozkładu normalnego. Umożliwiają to metody statystyczne wyższego rzędu. Metody statystyczne wyższego rzędu, znane już w latach 60 jako prace teoretyczne, doczekałysię swoich zastosowań praktycznych na początku lat 70. Są to zastosowania bardzo różnorodne - poczynając od radaru i sonaru, poprzez przetwarzanie obrazu, sejsmologię, fizykę plazmy, medycynę, ekonomię, optykę akończąc nasynteziemowy.metodytesą szczególnie skuteczne tam, gdzie mamy do czynienia z procesami losowymi nie posiadającymi rozkładu normalnego, a przecież większość 9

rzeczywistych sygnałów ma taki charakter. Wiele sygnałów, z którymi mamy do czynienia w praktyce nie może być z wystarczającą dokładnością modelowana przy pomocy tradycyjnych metod drugiego rzędu (takich jak np. widmo mocy). Podstawowym problemem, z którym styka się inżynier, poszukując rozwiązań z dziedziny przetwarzania sygnałów lub teorii systemów, jest jak najpełniejsze oddzielenie pożądanego sygnału od szumu, który powstał na skutek przejścia tego sygnału przez kanał komunikacyjny. Rozwiązanie tego problemu zależyoczywiście od rodzaju sygnału jaki od rodzaju kanału komunikacyjnego. W zależności od tego, czy rozpatrywane procesy posiadają rozkład normalny czy nie, czy posiadają widma białe (równomierne) czy kolorowe, czy są liniowe, minimalnofazowe, czy nie. W przeszłości, z braku odpowiednich narzędzi analitycznych, nie brano pod uwagę tych istotnych kryteriów, i stosowano we wszystkich problemach dotyczących przetwarzania sygnałów lub teorii systemów metody oparte na korelacji (metody drugiego rzędu). Metody statystyczne wyższych rzędów, znane także jakokumulanty są powiązane z bardziej znanymi momentami. Tak jak transformacja Fouriera autokorelacji (widmo mocy) jest użytecznym narzędziem analitycznym, podobnie jest z transformacją Fouriera kumulantów znaną jako polispektrum. Momenty i ich widma są bardziej użyteczne do analizy sygnałów deterministycznych a kumulanty i ich widma do analizy sygnałów losowych [34]. Rysunek - przedstawia klasyfikację widm wyższego rzędu.. 0

Sygnał dyskretny X(n) Wyznaczanie autokorelacji Statystyki trzeciego rzędu Statystyki czwartego rzędu c 2 ( τ) ( τ, τ ) c 3 2 ( τ, τ, τ ) c 4 2 3 F [.] F 2 [.] F 3 [.] C 2 ( ω ) (widmo mocy) ( ω, ω ) C 3 2 (bispektrum) ( ω, ω, ω ) C 4 2 3 (trispektrum) Statystyki n-tego rzędu ( ) F n- [.]- n- wymiarowa transformacja Fouriera. c n τ,..., τ n F n [.] C n ( ) ω,..., ω n (widmo n- tego rzędu) Rys. -. Klasyfikacja widm wyższych rzędówsygnałów dyskretnych. Podstawową cechą odróżniającą kumulanty od korelacji jest następujący fakt: Wartość kumulantu jest całkowicie niezależna od wszelkiego rodzaju procesów orozkładzie normalnym. Oznacza to w praktyce, że jeśli zastosujemy metody statystyczne wyższego rzędu wobec użytecznego sygnału nie posiadającego rozkładu normalnego zakłóconego szumem o rozkładzie normalnym - nawet szumem kolorowym - to automatycznie polepszamy stosunek sygnału doszumu. Większość rzeczywistych sygnałów nie ma rozkładu normalnego (często sygnały są wytwarzane przez systemy o nieliniowej dynamice) a szum pomiarowy można z dużą dokładnością opisać jako kolorowy proces o rozkładzie normalnym - stąd wartość metod statystycznych wyższego rzędu w wielu zastosowaniach praktycznych jest oczywista. Inną ważną cechą odróżniającą kumulanty i polispektra od korelacji i widma mocy jest następująca właściwość: Kumulanty i polispektra zawierają informacje o amplitudzie i fazie danego procesu, podczas gdy korelacja i widmo mocy zawiera informację tylko o amplitudzie.

Statystyki wyższego rzędu uzyskują i zawierają więcej informacji o procesie niż metody drugiego rzędu. Z praktycznego punktu widzenia kumulanty posiadają własność ułatwiającą pracę z nimi jako operatorami. Kumulant sumy dwóch statystycznie niezależnych procesów losowych równa się sumie kumulantów każdego z tych procesów. Momenty wyższych rzędów nie posiadają tej własności. Rozwój teorii i zastosowań kumulantów i polispektrów odbywał się równolegle w czasie z rozwojem tradycyjnych metod opartych na korelacji i widm z nimi związanych. Tak jak metody tradycyjne, metody statystyczne wyższego rzędu podzieliły się na parametryczne i nieparametryczne. Metody nieparametryczne są obarczone tymi samymi wadami co ich tradycyjne odpowiedniki - mianowicie wysoką wariancją i małą rozdzielczością. Stosując polispektralne metody parametryczne najpierw określa się parametry badanego modelu generującego dane, a następnie używa się tego modelu do obliczenia polispektrum. Praktyczne zastosowania statystyk wyższego rzędu są bardzo szerokie. Między innymi można wymienić: redukcja szumów. identyfikacja systemów nieminimalno-fazowych. analiza systemów nieliniowych. wielowymiarowe przetwarzanie sygnałów. przetwarzanie sygnałów biomedycznych. Wśród bardzo bogatej literatury dotyczącej statystyk wyższych rzędów autor nie spotkał się jednak z pracami, których celem byłoby zbadanie ich przydatności do badania przebiegów spotykanych w elektrotechnice. 2

Celem niniejszej pracy jest zapoznanie się z własnościami statystyk wyższych rzędów i metodami ich estymacji. Głównym zadaniem jest zweryfikowanie twierdzeń sformułowanych między innymi w pracy [49]:. Metody estymacji widma na podstawie statystyk wyższych rzędów są równie efektywne jak metody drugiego rzędu (korelacyjne). 2. Statystyki wyższych rzędów są niewrażliwe na addytywny gaussowski szum kolorowy. dla wybranych rodzajówsygnałów odkształconych. Zbadano różne metody estymacji widma poczynając od metod niskiej rozdzielczości a kończąc na nowoczesnych metodach podprzestrzeni, porównując ich dokładność estymacji i rozdzielczość. Symulacje przeprowadzono przy pomocy w środowisku obliczeniowym programu MATLAB. 3

2. Wprowadzenie W dalszej części pracy będą rozpatrywane wyłącznie procesy spełniające warunek ergodyczności i stacjonarności. Poniżej podano warunki, jakim musi odpowiadać proces stochastyczny, aby można go było uznać za stacjonarny i ergodyczny oraz definicje podstawowych wielkości statystycznych wykorzystanych w dalszej części pracy. 2. Stacjonarność procesu Ze względu na cechę stacjonarności procesy stochastyczne dzielimy na stacjonarne i niestacjonarne [5]. Z kolei procesy stacjonarne dzielimy na stacjonarne w wąskim oraz szerokim sensie. Proces stochastyczny (t) nazywamy stacjonarnym w wąskim sensie, jeżeli funkcja gęstości prawdopodobieństwa wektora losowego o składowych [ t ( ), t ( 2 ), K, t ( n )] jest równa gęstości prawdopodobieństwa wektora [ t t 2 t n ] losowego o składowych ( + τ), ( + τ), K, ( + τ) dla dowolnie wybranych chwil czasowych t, t 2, K, t n, dowolnego przesunięcia τ i dowolnego n. N-wymiarowa funkcja gęstości prawdopodobieństwa procesu stochastycznego stacjonarnego w wąskim sensie nie zależy zatem oddzielnie od każdejzchwilczasowych t, t, K, 2 t n 2 3 n a tylko od różnicy pomiędzy tymi chwilami, np. t t, t t, K, t t. Jednowymiarowa funkcja gęstości prawdopodobieństwa procesu stochastycznego (t) stacjonarnego nie zależy od czasu t, czyli f ( t) f ( ), =, a dwuwymiarowa funkcja gęstości tego procesu zależy tylko od τ= t2 t, czyli f (,, t, t ) f (,, ) 2 2 2 = τ. Z definicji wartości oczekiwanej i funkcji korelacji procesu stochastycznego wynika, że wartość oczekiwana 4

procesu stochastycznego (t), stacjonarnego w wąskim sensie, jest stała i nie zależyod czasu t. () () + { } ( ) m t = E t = f d = m (2.) a funkcja korelacji zależy tylko od τ= t t 2 + + { } ( )( ) ( ) ( ) ( ) ( ) ( ) R t, t = E t t = m m f,, τ d d = R τ 2 2 2 2 2 (2.2) Proces stochastyczny (t) nazywamy stacjonarnym w szerokim sensie, jeżeli wartość oczekiwana tego procesu nie zależy od czasu, a funkcja korelacji zależy tylko od τ= t2 t. Zzależności (2..) i (2..2) wynika, że proces stochastyczny stacjonarny w wąskim sensie jest zawsze stacjonarny w szerokim sensie. Twierdzenie odwrotne nie zawsze jest prawdziwe. Twierdzenie to zawsze jest prawdziwe dla procesu normalnego, który jest stacjonarny jednocześnie w wąskim i szerokim sensie. Procesy stochastyczne, które nie są stacjonarne wwąskim lub szerokim sensie, nazywamy procesami niestacjonarnymi. W dalszych rozważaniach będziemy rozpatrywać procesy stochastyczne stacjonarne w szerokim sensie. 2.2 Ergodyczność Stacjonarny proces stochastyczny (t) nazywamy procesem ergodycznym, jeżeli spełnia następującą zależność [5] 5

t + T lime 2 0 tdt ( ) m T T = 0 t 0 (2.3) gdzie: T -długość przedziału uśredniania, t 0 - dowolnie wybrana chwila początkowa przedziału uśredniania. Dla procesu stochastycznego ergodycznego wartość oczekiwana w zbiorze realizacji jest równa wartości średniej jednej realizacji dla nieskończenie długiego okresu obserwacji T. m = t0+ T () lim tdt T T t0 (2.4) Tylko procesy stacjonarne mogą być ergodyczne. Proces {(t)} jest procesem ergodycznym [35], jeśli z prawdopodobieństwem równym jeden wszystkie jego momenty mogą być określone na podstawie pojedynczej realizacji procesu, czyli uśrednianie po zbiorze realizacji może być zastąpione uśrednianiem po czasie. Na tej podstawie w dalszej części pracy zamiast zapisu {(t)}, oznaczającego zbiór realizacji, można będzie stosować zapis (t) dla sygnałów ciągłych oraz (n) dla sygnałów dyskretnych, tzn. za proces stochastyczny uznajemy jego pojedynczą realizację. 2.3 Macierze korelacji i kowariancji Podstawą prezentowanych poniżej metod estymacji widma jest macierz korelacji [32], zdefiniowana w następujący sposób. Niech będzie losowym wektorem składającym się z N próbek procesu losowego. 6

( 0) () = M N ( ) (2.5) Wektor wartości średnich jest określony jako m m m = E{} = M m ( 0) () ( N ) (2.6) Macierz korelacji procesu losowego jest zdefiniowana jako T { } R = E = 2 E{ ( 0) } E{ ( 0) ( ) } L E{ ( 0) ( N ) } 2 E{ ( ) ( 0) } E{ ( ) } L E{ ( ) ( N ) } = = M M M M 2 { N ( ) ( )} { N ( ) ( )} { N ( ) E 0 E L E } R( 00, ) R( 0, ) L R( 0, N ) R( 0) R( ) R( N ) =,, L, (2.7) M M M M R( N 0, ) R( N, ) L R( N, N ) Dla stacjonarnego procesu losowego funkcja korelacji zależy tylko od jednego argumentu a macierz korelacji przybiera formę symetrycznej macierzy Toeplitza. 7

R = ( 0) ( ) ( + ) () R ( 0) O R R R N R O O O R N R R O R( 0) R( ) ( ) ( ) ( 0) (2.8) Macierz kowariancji jest zdefiniowana jako * T {( )( ) } C = E m m = C[ 00, ] C[ 0, ] L C[ 0, N ] C[,] 0 C[,] L C[, N ] = M M M M C[ N 0, ] C[ N 2, ] L C[ N, N ] (2.9) Dla stacjonarnego procesu losowego funkcja korelacji zależy tylko od jednego argumentu a macierz kowariancji przybiera także formę symetrycznej macierzy Toeplitza. C = ( 0) ( ) ( + ) () C ( 0) O C C C N C O O O C N C C O C( 0) C( ) ( ) ( ) ( 0) (2.0) 2.4 Biały szum dyskretny Każdy proces losowy o zerowej średniej, którego próbki nie są skorelowane nazywa się procesem białym [52]. Funkcja korelacji tego procesu ma postać: 2 [, ] = [ ] [ 0] R n n σ n δ n n (2.) w 0 0 8

Najczęściej zakładamy, że mamy do czynienia z procesem stacjonarnym. W tym przypadku funkcja korelacji tego procesu ma postać: R l w [] =σδ[] l 0 2 (2.2) awidmowagęstość mocy: S w jω ( e ) 2 = σ 0 (2.3) Ważną odmianą białego szumu jest biały szum gaussowski, który powstaje przez próbkowanie białego szumu ciągłego. Jeśli w jest wektorem losowym składającym się z N kolejnych próbek białego procesu losowego to jego macierz kowariancji ma postać: 2 σ0 0 L 0 2 Cw = Rw = 0 σ0 L 0 2 = σ0i M M O M 2 0 0 L σ0 (2.4) a jego funkcja gęstości prawdopodobieństwa jest opisana wzorem: f w N w = n= 0 πσ ( ) 2 2 0 2 ( wn ) 2 2σ0 e (2.5) Próbki białego szumu gaussowskiego są nie tylko nieskorelowane ale także niezależne. Szum kolorowy otrzymuje się na wyjściu filtru, na którego wejście podano biały szum gaussowski. Przebieg widmowej gęstości mocy szumu kolorowego zależy od doboru współczynników AR i MA tego filtru. 9

3. Statystyki wyższych rzędów i ich polispektra 3. Definicje kumulantów Niech będzie dany zbiór n rzeczywistych zmiennych losowych { },,...,. Kumulanty k-tego rzędu ( k = k+ k2 +... + k n ) tych 2 k zmiennych można zdefiniować następująco [36]: c (,,..., ) lnφ ω ω ω k k 2 n k k ( j)... = $ n k k2 kn ω ω... ω ω= ω2=... = ωn= 0 (3.) j( ω+ ω22+... + ωnn) gdzie Φω (, ω,..., ω ) = 2 charakterystyczną. n E [ ] { e } jest ich funkcją Jednocześnie momenty k-tego rzędu tych samych zmiennych losowych wyrażają się wzorem: m (,,..., ) Φ ω ω ω k k 2 n k k ( j)... = $ n k k2 kn ω ω... ω ω= ω2 =... = ωn = 0 (3.2) Ogólniejszą definicję podano w pracy [3]. Niech υ=col(υ,υ 2,...,υ k ) a =col(, 2,..., k ), gdzie (, 2,..., k ) oznacza zbiór niezależnych zmiennych losowych. Kumulant k-tego rzędu tych zmiennych losowych jest zdefiniowany jako współczynnik wektora (υ,υ 2,...,υ k ) w rozwinięciu w szereg Taylora (jeśli istnieje) funkcji generującej kumulant o wzorze: K { } ( ) e [ j υ' υ = lne ] (3.3) 20

Dla zmiennych losowych rzeczywistych o średniej zerowej kumulanty drugiego, trzeciego i czwartego rzędu można zdefiniować następująco [35]: cum(, 2 )= E{ 2 } (3.4) cum(, 2, 3 )= E{ 2 3 } (3.5) cum(, 2, 3, 4 )= E{ 2 3 4 }- E{ 2 }E{ 3 4 }- +E{ 3 }E{ 2 4 }-E{ 4 }E{ 2 3 } (3.6) W przypadku, gdy średnia zmiennych losowych nie jest równa zero, zastępujemy we wzorach (3.4-3.6) i wyrażeniem i -E{ i }. Niech {(t)} będzie losowym stacjonarnym procesem o średniej niezerowej. Kumulant k-tego rzędu tego procesu, oznaczony jako c k, (τ, τ 2,..., τ k- ), jest zdefiniowany jako kumulant k-tego rzędu zmiennych losowych (t), (t+τ ),..., (t+τ k- ), a więc: ( ) ( τ τ τ ) ( ) ( τ ) ( τ ) ck,, 2,..., k = cumt, t+,..., t+ k (3.7) Dzięki stacjonarności procesu, kumulant k-tego rzędu jest wyłącznie funkcją τ, τ 2,..., τ k-. Przestrzeń τ -τ 2 -...- τ k- jest dziedziną funkcji c k, (τ, τ 2,..., τ k- ). Jeśli proces {(t)} nie jest stacjonarny, wtedy jego kumulant k-tego rzędu jest funkcją zarówno t jak i τ, τ 2,..., τ k- iużywamy wtedy oznaczenia c k, (t;τ, τ 2,..., τ k- ). W przypadku stacjonarnego procesu losowego o średniej zerowej, kumulant k-tego rzędu procesu {(t)} można zdefiniować następująco: 2

{ } E{ ( ) ( ) ( )} ( ) E ( ) ( ) ( ) c, τ, τ,..., τ = τ τ... τ g τ g τ... g τ k 2 k 2 k 2 k (3.8) gdzie {g(τ)} jest procesem losowym o rozkładzie normalnym i o takich samych parametrach statystycznych drugiego rzędu jak proces {(t)}. Widać stąd, że kumulanty są nie tylko miarą stopnia korelacji wyższego rzędu danego procesu, lecz także miarą tego jak dalece dany proces różni się od procesu o rozkładzie normalnym. Oczywiście, jeśli {(t)} posiada rozkład normalny, to wszystkie jego kumulanty mają wartość zero; jestto prawdziwe dla każdego k. Kumulanty drugiego, trzeciego i czwartego rzędu procesu {(t)} o średniej zerowej można zdefiniować następująco (przy pomocy równań (3.4) - (3.7)): { } c ( ) ( t) ( t ) 2, τ = E + τ (3.9) { } ( τ τ ) = () ( + τ ) ( + τ ) c E t t t (3.0) 3,, 2 2 { } ( ) ( ) (,, ) E () ( ) ( ) ( ) c ( τ ) c ( τ τ ) c ( τ ) c ( τ τ ) c τ τ τ = t t + τ t + τ t + τ c τ c τ τ 4, 2 3 2 3 2, 2, 2 3 2, 2 2, 3 2, 3 2, 2 (3.) Wnioski wynikające z równań (3.9)-(3.):. Kumulant pierwszego rzędu jest wartościąśrednią. 2. Kumulant drugiego rzędu jest autokorelacją (t). 3. Kumulant trzeciego rzędu jest identyczny z momentem trzeciego rzędu (t). 4. Kumulant czwartego rzędu różni się od momentu czwartego rzędu sześcioma różnymi funkcjami autokorelacji. 22

5. Kumulant k-tego rzędu nie zależy od czasu t, pod warunkiem, że proces (t) jest stacjonarny aż do rzędu k. Jednowymiarowy przekrój kumulantu k-tego rzędu otrzymujemy przez zamrożenie (k-2) z jego (k-) indeksów. Możliwe jest uzyskanie różnego rodzaju przekrojów np. przez podstawienie τ τ i =, i =,2,...,k - otrzymujemy przekrój diagonalny. Kumulanty k-tego rzędu są zdefiniowane przy pomocy związanych z nimi momentówrzędu mniejszego lub równego k. 3.2 Zależności pomiędzy kumulantami a momentami Niech oznacza zbiór zmiennych losowych, tj. =col(, 2,..., k ), a I ={,2,...,k} oznacza zbiór wskaźników elementów. Jeśli I I to I jest wektorem składającym się zelementów, których wskaźniki należą do I. Oznaczmy moment wektora I jako m (I) (m (I) jest wartością oczekiwaną E{.} iloczynu elementów zawartych w I ) a jego kumulant jako C (I). Zdefiniujemy partycję zbioru I jako nieuporządkowany, niepusty, rozłączny zbiór podzbiorów I p takich, że p I p =I. Np. zbiorem partycji dla k=3 są: {(, 2, 3)}, {(), (2, 3,)}, {(2), (, 3)}, {(3), (, 2)} i {(), (2), (3)}. Wzór określający kumulant przy pomocy momentu [3]: q q ( ) = ( ) ( )! ( p) c I q m I q p U = I = I p p= (3.2) gdzie U p q I p = I oznacza sumowanie po wszystkich partycjach zbioru z przykładu podanego powyżej, q= dla{(, 2, 3)}, q=2 dla {(), (2, 3)}, {(2), (, 3)} i {(3), (, 2)} a q=3 dla {(), (2), (3)}. 23

Wzór określający moment przy pomocy kumulantu [3]: ( ) = ( ) m I c I q p p q U I = I p= (3.3) Tabela. Zależności pomiędzy kumulantami a momentami. Ilustracja zastosowania wzorów (3.2) i (3.3) [3]. I I 2 I 3 I 4 q Obliczanie kumulantów przy pomocy wzoru: q q! p= ( ) ( q ) m ( I p) Obliczanie momentów przy pomocy wzoru: q p= c ( Ip) 2 3 4 4-6E{ }E{ 2 }E{ 3 }E{ 4 } c( )c( 2 )c( 3 )c( 4 ), 2 3 4 3 2E{ 2 }E{ 3 }E{ 4 } c(, 2 )c( 3 )c( 4 ), 3 2 4 3 2E{ 3 }E{ 2 }E{ 4 } c(, 3 )c( 2 )c( 4 ), 4 2 3 3 2E{ 4 }E{ 2 }E{ 3 } c(, 4 )c( 2 )c( 3 ) 2, 3 4 3 2E{ 2 3 }E{ }E{ 4 } c( 2, 3 )c( )c( 4 ) 2, 4 3 3 2E{ 2 4 }E{ }E{ 3 } c( 2, 4 )c( )c( 3 ) 3, 4 2 3 2E{ 3 4 }E{ }E{ 2 } c( 3, 4 )c( )c( 2 ), 2 3, 4 2 -E{ 2 }E{ 3 4 } c(, 2 )c( 3, 4 ), 3 2, 4 2 -E{ 3 }E{ 2 4 } c(, 3 )c( 2, 4 ), 4 2, 3 2 -E{ 4 }E{ 2 3 } c(, 4 )c( 2, 3 ), 2, 3 4 2 -E{ 2 3 }E{ 4 } c(, 2, 3 )c( 4 ), 2, 4 3 2 -E{ 2 4 }E{ 3 } c(, 2, 4 )c( 3 ), 3, 4 2 2 -E{ 3 4 }E{ 2 } c(, 3, 4 )c( 2 ) 2, 3, 4 2 -E{ 2 3 4 }E{ } c( 2, 3, 4 )c( ), 2, 3, 4 E{ 2 3 4 } c(, 2, 3, 4 ) Σ cum(, 2, 3, 4 ) E{ 2 3 4 } 3.3 Własności kumulantów Kumulanty można traktować jako operatory ze względu na sześć poniższych własności [33]: 24

. Kumulant zmiennych skalowanych przy pomocy współczynników a i (współczynniki te nie są losowe) równa się iloczynowi tych wszystkich współczynników i kumulantu zmiennych nie skalowanych. Jeśli a i, (i=,2,...,n)sąstałymi a i zmiennymi losowymi to n cum( a,..., ann) = ai cum(,..., n ) (3.4) i= 2. Kumulant jest symetryczny względem swoich argumentów: (,..., n) ( i,..., i n ) cum = cum (3.5) gdzie (i,...,i n ) jest permutacją (,...,n); oznacza to, że można dowolnie zmieniać kolejność argumentów kumulantu bez zmiany jego wartości, np. ( τ, τ, τ ) = c ( τ, τ, τ ) c ( τ, τ, τ ) c 4 2 3 =, itd. 4 3 2 4 2 3 3. Kumulant jest addytywny względem swoich argumentów, to znaczy, że kumulant sumy argumentów jest równy sumie kumulantów tych argumentów(stądjegonazwa)tzn.jeśli nawet 0 i y 0 nie są statystycznie niezależne to: ( + ) = ( ) + ( ) cum y, z,..., z cum, z,..., z cum y, z,..., z (3.6) 0 0 n 0 n 0 n 4. Wartość kumulantu nie zależy od dodanej do argumentu stałej; jeśli a jest stałą to: ( + ) = ( ) cum a z, z,..., z cum z,..., z (3.7) 2 n n 5. Kumulant sumy statystycznie niezależnych wielkości jest równy sumie kumulantów pojedynczych wielkości; jeśli zmienne losowe { i } są niezależne wobec zmiennych {y i }, i=,2,...,k to: 25

( + + ) = ( ) + ( ) cum y,..., y cum,..., cum y,..., y (3.8) n n n n jeśli 0 i y 0 nie są statystycznie niezależne to po prawej stronie powyższego wzoru pojawia się 2n wyrażeń. Statystyczna niezależność redukuje liczbę wyrażeń do dwóch. 6. Jeśli n zmiennych losowych zbioru { i } jest niezależnych od pozostałych to: cum( ) n 0,..., =. Dowody powyższych własności można znaleźć w pracy [36]. 3.4 Definicje polispektrów statystyk wyższych rzędów Zakładając, że ( τ τ τ ) c k,,,..., 2 k jest absolutnie sumowalny można zdefiniować polispektrum k-tego rzędu jako (k-) - wymiarową dyskretną transformatę Fouriera kumulantu k-tego rzędu: ( ω, ω2,... ω )... ( τ, τ2,..., τ ) S = c e k, k k, k τ= τk = k- - j ωτ i i i= (3.9) Przestrzeń ω ω ω... k jest dziedziną ( ω ω ω ) 2 S 3,, 2 Polispektrum trzeciego rzędu ( ) S k,,,..., 2 k. ω ω, znane jest jako bispektrum i oznaczane często B ( ω, ω ), podczas gdy ( ) jako trispektrum. 2 S 4,, 2, 3 ω ω ω znane jest Widmo mocy, bispektrum i trispektrum są szczególnymi przypadkami widma k-tego rzędu wyrażonego wzorem (3.9): Widmo mocy (k=2) -j( ωτ) ( ω) = ( ω) = ( τ) P S c e [ ] 2, 2, (3.20) τ= 26

Bispektrum (k=3) ( ωτ+ ωτ 2 2) ( ω, ω ) = ( ω, ω ) [-j S c e ] (3.2) 3, 2 3, 2 τ = τ = 2 Trispektrum (k=4) j( ωτ+ ωτ2+ ωτ3) ( ω, ω, ω ) = ( ω, ω, ω ) [- 2 3 S c e ] (3.22) 4, 2 3 4, 2 3 τ = τ = τ = 2 3 3.5 Własności polispektrów statystyk wyższych rzędów Polispektrum jest definiowane jako transformacja Fouriera kumulantów a nie momentów. Istnieją co najmniej dwa powody takiego postępowania:. Jeśli badany proces jest procesem losowym, stacjonarnym o rozkładzie normalnym, to wszystkie jego momenty rzędu większego od 2 nie zawierają dodatkowej informacji o procesie; lepiej jest wybrać funkcję, która podkreśla ten fakt - a wszystkie kumulanty procesu o rozkładzie normalnym są równe zero. 2. Jeśli ciąg zmiennych losowych można podzielić na co najmniej dwa podciągi niezależne statystycznie to wszystkie ich kumulanty są równe zero. Stąd kumulanty są miarą statystycznej niezależności. Ponadto warunek ergodyczności procesu jest łatwiej spełnić w przypadku kumulantów niż w przypadku momentów. Istnieje wiele symetrii pomiędzy argumentami ( τ τ τ ) S k c ( ω ω ω ),,,..., 2 k c k,,,..., 2 k, co ułatwia obliczenia. Na przykład: ( τ, τ ) = c ( τ, τ ) = c 3, k ( τ 2, τ τ 2 ) c 3, k ( τ, τ 2 τ ) ( τ τ τ ) = ( τ τ τ ). 3, 2 3, 2 = c 3, k 2, c 3, k 2, 2 = = i 27

Używając powyższych równań można podzielić płaszczyznę τ τ 2 sześć obszarów. Znając kumulant w jakimkolwiek z tych obszarów można obliczyć kumulanty w pozostałych obszarach używając powyższych równań. Obszar pierwotny jest położony w pierwszej ćwiartce układu współrzędnych i spełnia warunek: 0 < τ2 τ. Symetrie argumentów istnieją tylko w przypadku procesów stacjonarnych. na Wszystkie polispektra rzędów wyższych niż drugi zerują się, gdy proces (t) jest procesem gaussowskim. Ta własność jest bezpośrednią konsekwencją zerowania się kumulantów rzędów wyższych niż drugi w przypadku wielowymiarowego rozkładu gaussowskiego. Bispektrum, trispektrum i wszystkie polispektra wyższych rzędów są równe zero jeśli proces (t) jest procesem gaussowskim. Zatem spektra wyższych rzędów dostarczają miary odchylenia procesu stochastycznego od procesu gaussowskiego. 28

4. Estymacja statystyk wyższych rzędów 4. Wprowadzenie Wszystkie definicje statystyk wyższych rzędów opierają się na założeniu, że mamy do dyspozycji nieskończone realizacje procesu. W praktyce mamy do czynienia wyłącznie z danymi w postaci zbioru próbek sygnału oskończonej długości. Statystyk wyższych rzędów i ich polispektrów nie można dokładnie określić na podstawie znajomości próbek sygnału, nie można ich wyznaczyć bezpośrednio z definicji, należy je zatem estymować. 4.2 Definicja estymatora W przypadku, gdy rozkład badanej cechy mierzalnej nie jest znany, zachodzi często potrzeba oszacowania potrzebnych parametrów (bądź ich funkcji) tego rozkładu. Jeśli założymy, że postać funkcyjna rozkładu F jest znana i zależy od tylko jednego nieznanego parametru θ, to dystrybuanta obserwowanej zmiennej losowej X ma postać F(;θ). W celu wyznaczenia θ na podstawie prób, 2, K, n należy skonstruować funkcję n zmiennych $ θ n zwaną estymatorem parametru θ otejwłasności, że po podstawieniu w miejscu zmiennych w funkcji $ θn zaobserwowanych wartości,, K, n, będziemy mieli rozsądne podstawy do 2 przypuszczenia, że zachodzi równość: θ = θ $ (,,, ) n 2 K n [7]. Precyzując ten zapis można powiedzieć: Estymatorem parametru θ nazywamy funkcję $ U(,,, ) ma tę własność, że prawdopodobieństwo zdarzenia θ jedności im większa jest liczebność próbki [7]. θ n = 2 K,która θ $ n n jest tym bliższe 29

Wyróżnia się następujące typy estymatorów: estymatory zgodne, nieobciążone, najefektywniejsze i asymptotycznie najefektywniejsze. Definicje ich można znaleźć w [][7]. 4.3 Estymatory statystyk wyższych rzędów { } Niech X( ), X( 2), K, X( N) będzie zbiorem próbek reprezentujących realizację ściśle stacjonarnego procesu losowego lub sygnał deterministyczny. Algorytm obliczania estymatora kumulantu jest następujący [35]:. Należy podzielić zbiór próbek na K segmentów po M próbek każdy, tak aby N = K M, w celu zmniejszenia wariancji estymatora [52]. Jeśli proces jest deterministyczny i okresowy wtedy M powinno być równe całkowitej wielokrotności okresu sygnału. 2. Jeżeli średnia procesu jest różna od zera, to od każdej z próbek w segmencie odejmowana jest wartość średnia wszystkich próbek danego segmentu. 3. Przy założeniu, że ( { i ) ( k) ; k = 0,,, M } K jest zbiorem próbek przypadającym na segment i =, 2, K, K, naturalne estymatory momentów wyższych rzędów są wyrażone wzorem s τ τ M k k k n τ τ n (4.) m ( ) 2 i () i () i () i (, K, ) = ( ) ( + ) L ( + ) n k= s gdzie n=2,3,...; i=,2,...,k; τ k = 0± ± 2 ( τ τ ),,,K; s ma ( 0, τ,, τ ) = K ; n s2 = min M, M, K, M n oraz τ k L n. L n określa dziedzinę estymowanego momentu rzędu n. 30

4. Estymator momentu rzędu n otrzymamy po uśrednieniu wszystkich segmentów według wzoru m n K τ τn = n τ τ K n (4.2) ( (, K, ) m i ) (, K, ) i= gdzie n=2,3,...; τ k L n. 5. Estymatory c$ n (,, ) τ K τ n kumulantów sygnałów stochastycznych są wyznaczane zgodnie ze wzorami ( τ ) m ( τ ) c$ = $ (4.3) 2 2 ( τ τ ) m ( τ τ ) c$, = $, (4.4) 3 2 3 2 ( τ τ τ ) ( τ τ τ ) ( τ ) ( τ τ ) + m$ ( τ ) m$ ( τ τ ) m$ ( τ ) m$ ( τ τ ) c$,, = m$,, m$ m$ 4 2 3 4 2 3 2 2 3 2 2 2 2 3 2 3 2 2 (4.5) 3

5. Statystyki wyższych rzędów procesów harmonicznych 5. Definicje procesów harmonicznych Znaczna część zastosowań praktycznych przetwarzania sygnałów dotyczy sygnałów, które można określić jako rzeczywiste lub zespolone procesy harmoniczne (sinusoidalne). Sygnały te można ogólnie przedstawić wzorem [3]: ( ) = a( ns ) i n( ωi) yn p i= (5.) gdzie s n (.) oznacza kształt przebiegu sygnału, ω i zmiennymi losowymi. są stałymi a a i (n) są Gdy zmienne losowe są zespolone - wzór (5.) można przedstawić w postaci [3]: p ( ) ( ) [ j ω n yn e i + φ = i ] α i= i (5.2) gdzie φ i oznacza zbiór niezależnych zmiennych losowych równomiernie rozłożonych w przedziale [-π, π], ω i ω j dla i jaα i i ω i są stałymi. Odpowiednikiem wzoru (5.) dla sygnałów rzeczywistych jest: ( ) = αcos( ω n+ φ ) yn p i = i i i (5.3) 32

5.2 Definicje i własności kumulantów procesów harmonicznych Niech b=e jψ,gdzieψ jest równomiernie rozłożona w przedziale [-π, π]. Udowodniono następujące własności [34]:. Wszystkie kumulanty trzeciego rzędu zmiennych b są równe zero. 2. Tylko jeden z trzech sposobów obliczania kumulantu czwartego rzędu zmiennych b daje wynik różny od zera, to znaczy: cum(b, b, b, b)=0, cum(b *, b, b, b)=0 ale cum(b *, b *, b, b)= -. Zpowyższych własności wynika definicja kumulantu czwartego rzędu dla procesu zespolonego y(n) [34]: ( ( ) ( ) ( ) ( )) c4, y = cum y n, y n+ τ, y n+ τ2, y n+ τ 3 (5.4) gdzie cum(...) zdefiniowany jest jak we wzorze (3.). Można zauważyć, żejeśli y n = a e [ ] j ωin,gdziea i są losowe, to kumulant i czwartego rzędu jest całkowicie niezależny od zmiennej n. Poniżej podano kumulant czwartego rzędu sygnałów opisanych wzorem (5.): p ( ( ), ( + τ), ( + τ2), ( + τ3) ) = n( ωi) n+ τ ( ωi) cum y n y n y n y n s s i ( ω ) ( ω ) ( τ, τ, τ ) s s c n+ τ2 i n+ τ3 i 4, a i 2 3 (5.5) W przypadku (5.2), zmiennych harmonicznych zespolonych: 4 jωk ( τ+ τ2+ τ3) ( τ τ τ ) = α e c, y,, 4 2 3 p [ ] k (5.6) k= 33

W przypadku (5.3), zmiennych harmonicznych rzeczywistych: [ cos ( 2 3) cos ( 2 3 ) + cos ( 2 3) ] p 4 c4 y 8 k k k k k=, = α ω τ τ τ + ω τ τ τ ω τ τ τ (5.7) Ponadto: p 2 c2, y = 2 α k k k= ( ω τ) cos (5.8) Ważnym spostrzeżeniem jest fakt: Jeśli y( n) jest sumą p rzeczywistych sinusoid, to każdy jednowymiarowy przekrój jego kumulantu czwartego rzędu zawiera pełną informację o liczbie harmonicznych, ich amplitudzie i częstotliwościach. W szczególności jeśli podstawimy τ = τ2 = τ3 = τ we wzorze (5.7) to otrzymamy: 3 4 ( ) = 8 ( ) c4 y k k k= p, τ α cos ω τ (5.9) czyli wyrażenie prawie identyczne z autokorelacją sygnału. Stąd widać, że wszystkie korelacyjne metody analizy można uzupełnić ich odpowiednikami wykorzystującymi kumulanty, uzyskując kosztem umiarkowanego wzrostu złożoności obliczeniowej teoretyczną niewrażliwość na addytywny gaussowski szum kolorowy [50]. 34

6. Wybrane metody estymacji widma 6. Metody o niskiej rozdzielczości Wpodejściu tym wykorzystuje się tzw. metody konwencjonalne bazujące na algorytmach FFT, na metodach bezpośrednich lub na analizie cepstralnej. Nie przyjmuje się tu żadnych założeń dotyczących modelu systemu. Ich podstawową wadą jest niska rozdzielczość i wysoka wariancja. Mimo rozwoju nowoczesnych metod estymacji widma, klasyczne metody znajdują zastosowanie, gdy badana sekwencja sygnału stacjonarnego jest długa. 6.. Estymacja periodogramu Estymatę widma mocy otrzymuje się przez poddanie transformacji Fouriera estymowanej funkcji autokorelacji. Obciążona funkcja autokorelacji jest zdefiniowana jako [52] R l N l = n+ l n; 0 l N (6.) N () ( ) ( ) n= 0 gdzie N - liczba próbek sygnału. Ten estymator jest asymptotycznie nieobciążony. Estymator widma można zdefiniować następująco jω ( ) = () L jωl S e R l e ; L<N (6.2) l= L Jeśli L = N można wykazać, że jω jωl jω ( ) = () = ( ) S e R l e N + l= N+ N Xe 2 (6.3) 35

N jω gdzie Xe ( ) = ( ) n= 0 ne jωn jest transformatą Fouriera sekwencji danych. Ten estymator nazwano periodogramem i wyrażono równaniem jω jω ( ) ( ) P e = N Xe 2 (6.4) 6.2 Metody o wysokiej rozdzielczości Do najistotniejszych wad liniowych metod estymacji widma (Blackmana- Tukeya, FFT) należy ich niska rozdzielczość. Na skutek przyjęcia nieprawdziwych założeń o powtarzalności lub nieistnieniu sygnału poza chwilą obserwacji otrzymujemy widmo rozmazane, którego blisko położone maksima tworzą jedno szerokie maksimum. Najlepsza nawet funkcja okna zawodzi w przypadku sygnałów odużym zakresie dynamiki. Metody wykorzystujące funkcję okna dostosowującą się do charakteru badanego sygnału (ML Capona), pomyślane jako odpowiedź na ten problem, dają estymaty o wysokiej rozdzielczości tylko dla przeciętnych SNR. Zupełnie inne podejście do problemu estymacji widma daje możliwość rezygnacji z funkcji okna. Dopasowanie posiadanych danych do wymiernego modelu o skończonej liczbie współczynników umożliwia ekstrapolację danych poza czasokres obserwacji. Po otrzymaniu współczynników modelu łatwo otrzymać widmo z samych współczynników lub z ekstrapolowanego sygnału. W praktyce stosuje się modele: AR(autoregresji), MA (ruchomej średniej) i ARMA. Najnowsze metody wykorzystują pojęcie podprzestrzeni znane z algebry liniowej i dlatego nazywa się je metodami podprzestrzeni [52]. Ich rozdzielczość jest teoretycznie niezależna od SNR. Modelem sygnału w tym przypadku jest suma losowych sinusoid na tle szumu o znanej funkcji 36

kowariancji. Pierwszą z tych metod była metoda Pisarenki [32], który zauważył, że zera transformaty Z wektora własnego, odpowiadającego najmniejszej wartości własnej macierzy kowariancji, leżą na okręgu jednostkowym, a ich położenie odpowiada częstotliwościom sinusoid tworzących sygnał. Ulepszająctę metodę, wykazano, żewektorywłasne można podzielić na dwie grupy, na wektory własne rozpięte na podprzestrzeni sygnału i na wektory własne rozpięte na podprzestrzeni szumu, przy czym te ostatnie są wektorami własnymi odpowiadającymi najmniejszym wartościom własnym. Spostrzeżenia te stały się podstawą metody MUSIC opisanej w rozdziale 6.2.2.3.. 6.2. Metoda maksymalnego prawdopodobieństwa (ML) Podstawą rozważań nad tą metodą jest konstrukcja wąskopasmowego filtru o częstotliwości środkowej ω 0, którego odpowiedź impulsowa jest oznaczona h ( n). Jest to przyczynowy filtr FIR o długości N. Dla ω0 wybranej częstotliwości ω 0 odpowiedź w dziedzinie częstotliwości H ω ( e j ω ) 0 tego filtru jest równa jedności a faza jest równa zero. Zakłada się [52], że estymator widma mocy sygnału wejściowego (n) dla częstotliwości ω = ω 0 jest średnią mocą sygnałuwyjściowego y(n). { } ( ) ( ) S e jω def 2 = P = E y n ML (6.5) Zdefiniujmy wektory: 37

h 0 hω 0 0 = hω M hω 0 ( 0) () ( N ) ; w 0 = e e jω0 M jω( N ) ω n ( ) ( ) n ; ( n) = M n ( N+ ) 0 (6.6-6.8) Sygnał wyjściowy filtru można zapisać jako: N ω0 k = 0 T ( ) = ( ) ( ) = ( ) yn h kn k h n (6.9) 0 Celem jest minimalizacja średniej mocy wyjściowej filtru 2 { yn ( ) } ( n) ( n) P E E{ } T T T = = h h = h R h (6.0) 0 0 0 0 przy założeniu N ω ( ) ( ) j jωn T Hω 0 e = hω 0 n e = w0 h 0 = (6.) n= 0 ponadto h 0 musi być punktem stacjonarnym wyrażenia T T ( ) ( ) T L = h R h + µ w h + µ w h (6.2) 0 0 0 0 0 0 gdzie µ jest mnożnikiem Lagrange a, a L przyrównuje się gradient zespolony lagrangianu do zera. lagrangianem. Następnie L = Rh µ w = 0 (6.3) h0 0 0 lub h = µ * R w (6.4) 0 0 Mnożnik Lagrange a wyznaczono z warunku (6.) 38

T w h T = µ w R w = (6.5) 0 0 0 0 stąd µ = µ = T w0 R w 0 (6.6) Podstawiając (6.6) do (6.4) h 0 = R w0 T w R w 0 0 (6.7) Ostatecznie, podstawiając (6.7) do (6.0) T P = T w0 R R R w0 h0 Rh0 = = 2 T w R w T ( w R w ) 0 0 0 0 (6.8) Powyższe zależności są prawdziwe dla każdej częstotliwości ω 0, stąd estymator widma ML jest zdefiniowany następująco $S e ML j ( ) w R w ω = T (6.9) gdzie wektor w jest zdefiniowany jako j e w = M e ω j( N ) ω (6.20) 6.2.. Obliczanie estymatora ML Niech macierz odwrotna korelacji będzie wyrażona wzorem 39

R N = λ i= i ee i T i (6.2) gdzie λ i są wartościami własnymi a e i wektorami własnymi macierzy korelacji. Jeśli macierz korelacji jest estymowana jako R = XX K T (6.22) gdzie K jest liczbą rzędów X, wtedy (6.2) można otrzymać przez SVD (singular value decomposition) macierzy X. Stąd mianownik (6.9) ma postać N T w R w = λ i= i T w e i 2 (6.23) Jeśli przedstawi się e i Fouriera tego ciągu jest jako ciąg e i [0], e i [],..., e i [N-] to transformatą j ( ) E e i ω T = w e (6.24) i Wymaganą liczbę L wartości wyrażenia (6.24) otrzymuje się przez uzupełnienie zerami ciągu e i [n] dodługości L i poddanie go L- punktowej FFT. Dla wyznaczenia wyrażenia (6.23) trzeba zastosować taką procedurę N razy. 6.2.2 Metody podprzestrzeni W 973 roku V.F. Pisarenko zauważył, że zera transformaty Z wektora własnego odpowiadającego najmniejszej wartości własnej macierzy kowariancji leżą na okręgu jednostkowym, a ich położenie odpowiada 40

częstotliwościom sinusoid zawartych w badanym sygnale. Przyjęto, że macierz kowariancji ma rozmiar 2p+, gdy p odpowiada liczbie sinusoid. Ulepszając tę metodę zaczęto badać macierz kowariancji o większym rozmiarze i wykazano, że wektorywłasne można podzielić na dwie grupy: na wektory własne rozpięte na podprzestrzeni sygnału i na wektory własne rozpięte na podprzestrzeni szumu, przy czym te ostatnie są wektorami własnymi odpowiadającymi najmniejszym wartościom własnym. Spostrzeżenia te stały się podstawą metody MUSIC, ESPRIT i metod pokrewnych [52]. 6.2.2. Wprowadzenie Rozpatrujemy sygnał składający się z M niezależnych sygnałów w szumie. M jφ = Ai si + η ; Ai = Ai e i (6.25) i= inaczej [ ] T = S A A2 L A M + η (6.26) gdzie S = [ s s 2 L s M ] (jest to ogólny model sygnału używany we wszystkich metodach podprzestrzeni ). Macierz autokorelacji sygnału (zakładamy, że szum jest biały) wyrażamy zależnością: R M { AA i i } T 2 = E ss i i + σ 0I (6.27) i= T 2 inaczej: R = SPS + σ I (6.28) 0 0 4

gdzie P 0 E = { AA } 0 L 0 0 E{ AA 2 2} L 0 M M O 0 0 0 L E { AMAM} (6.29) N-M najmniejszych wartości własnych macierzy korelacji (o wymiarze N>M+) odpowiada szumowi a M największych (większych niż σ 0 2 ) odpowiada sygnałowi. Zdefiniujemy macierze wektorów własnych: I I I Esygnału = e e2 L em (6.30) I I I I I I Eszumu = em + em + 2 L en (6.3) I I I i macierze wartości własnych: Λ sygnału λ 0 L 0 0 λ = 2 L 0 M M O M 0 0 L λ M (6.32) Λ szumu 2 λ M + 0 L 0 σ0 0 L 0 2 0 λ M = + 2 L 0 0 σ0 L 0 = M M O M M M O M 2 0 0 L λ N 0 0 K σ0 (6.33) Macierz korelacji R można zapisać jako: 42

T T R = E Λ E + E Λ E (6.34) sygnału sygnału sygnału szumu szumu szumu Wyrażając macierz operatora rzutowania ortogonalnego P X przy pomocy E sygnału (uwzględniającfakt,że kolumny macierzy E sygnału są ortonormalne i definiują podprzestrzeń sygnału) otrzymujemy: * T ( sygnału) * T P = E E E E = E E sygnału sygnału sygnału sygnału sygnału * T sygnału (6.35) Podobnie można wyrazić P X przy pomocy E szumu. T P = E E = I P szumu szumu szumu sygnału (6.36) 6.2.2.2 Metoda Pisarenki Podstawą tej metody jest założenie, że znana jest liczba częstotliwości M i że liczba pomiarów jestojedenwiększa od M. Przytakimzałożeniu istnieje tylko jeden wektor własny e N,który definiuje podprzestrzeń szumu. Każdy z wektorów sygnału jest ortogonalny do podprzestrzeni szumu, stąd: *T si e N = 0; i = 2,, K, M (6.37) Gdy rozpatrujemy wektor w (zdefiniowany jak w (6.20) ) dla częstotliwości ω = ω i,wtedy w = s i,stąd w * T en = 0; i = 2,, K, M (6.38) Funkcja estymująca częstotliwości składowych sygnału ma postać: $ j P ( e ω P ) = * T 2 = * T * T w e w enenw N (6.39) 43

Funkcję tą nazwano pseudospektrum, nie jest to estymator widma, ponieważ nie zawiera informacji o mocy poszczególnych składowych, umożliwia tylko ich lokalizację. 6.2.2.3 Metoda MUSIC (Multiple Signal Classification) Kwadrat modułu rzutu wektora w (zdefiniowanego jak w (6.20)) na podprzestrzeń szumu dany jest wzorem (przy pomocy wzoru (6.36)): T T T w P w = w E E w szumu szumu szumu (6.40) Każdy z elementów wektora sygnału jest ortogonalny do podprzestrzeni szumu i stąd wielkość (6.40) zeruje się dla tych częstotliwości, dla których w=s i. Pseudospektrum MUSIC definiuje się następująco: j $PMU ( e ω ) = T = T T w P w w E E w szumu szumu szumu (6.4) Wykazuje ono ostre maksima dla częstotliwości, dla których w=s i. Inny sposób określenia widma MUSIC, można wyprowadzić stosując filtr wartości własnych ( N ) ( ) = [] 0 + [] + + [ ] E z e e z K e N z (6.42) i i i i gdzie e i [n] są elementami wektora własnego e i.równanie (6.40) można przedstawić przy pomocy (6.4). N T T w ee w = i i i i= M+ i= M+ N jω jω ( ) ( ) E e E e i (6.43) Pseudospektrum MUSIC jest tu zdefiniowane zależnością: 44

P$ MU jω ( e ) = N ( ) ( / z ) E z E i i i= M+ z e j ω = (6.44) Podwójne pierwiastki wielomianu mianownika (6.44), leżące na okręgu jednostkowym, odpowiadają częstotliwościom sygnału. Jeśli preferuje się uzyskanie wykresu pseudospektrum można go wyznaczyć następująco: P$ MU j ( e ) ω = N i= M+ T w e i 2 (6.45) Jeśli przedstawi się e i Fouriera tego ciągu jest: jako ciąg e i [0], e i [],..., e i [N-] to transformatą j ( ) E e i ω T = w e (6.46) i Wymaganą liczbę L wartości wyrażenia (6.46) otrzymuje się przez uzupełnienie zerami ciągu e i [n] dodługości L i poddanie go L- punktowej FFT. Dla wyznaczenia wyrażenia (6.45) trzeba zastosować tę procedurę N razy. 6.2.2.4 Metoda minimum normy (MN) Podstawą tej metody jest dobór odpowiedniego wektora d należącego do podprzestrzeni szumu i zdefiniowanie pseudospektrum jako jego funkcji. 45

Wektor ten jest tak dobrany, aby kwadrat jego modułu był minimalny, gdy pierwszy z jego elementów jest równy jedności. Aby znaleźć optymalną wartość wektora d należywyrazić te dwa warunki w postaci wzorów: * T d= E E d szumu d * T l = szumu (6.47) gdzie l [ L ] = 0 0 T (6.48) Z warunków (6.47) utworzono jeden warunek T ( ) * T * T * * T * T d l= E E d l= d E E l= (6.49) szumu szumu szumu szumu a następnie utworzono lagrangian. T T T T ( ) ( ) * L = d T * * * * d+ µ d E E l + µ l E E d (6.50) szumu szumu szumu szumu Gradient zespolony (6.50) ma postać * T * L= d µ E E = 0 d szumu szumu l (6.5) gdzie µ należy dobrać tak aby pierwszy element wektora był równy jedności. W tym celu można przedstawić macierz E szumu w postaci: E szumu T c = * ' (6.52) Eszumu gdzie c *T jest górnym rzędem macierzy. Stąd c E *T = szumu l.zrównań (6.5) *T i (6.52) wynika, że pierwszy element wektora d jest równy µc c,stąd wyznaczono µ. Ostatecznie wektor d wyraża się równaniem: 46