Stacjonarne szeregi czasowe

Podobne dokumenty
Wyk ad II. Stacjonarne szeregi czasowe.

Biostatystyka, # 4 /Weterynaria I/

EGZAMIN MAGISTERSKI, r Matematyka w ekonomii i ubezpieczeniach

Metody probablistyczne i statystyka stosowana

2. P (E) = 1. β B. TSIM W3: Sygnały stochastyczne 1/27

3. (8 punktów) EGZAMIN MAGISTERSKI, Biomatematyka

Oba zbiory s uporz dkowane liniowo. Badamy funkcj w pobli»u kresów dziedziny. Pewne punkty szczególne (np. zmiana denicji funkcji).

Statystyka opisowa. Wykªad II. Elementy statystyki opisowej. Edward Kozªowski.

Rozdziaª 2. Analiza spektralna

Materiaªy do Repetytorium z matematyki

Elementy Modelowania Matematycznego Wykªad 1 Prawdopodobie«stwo

1 Poj cia pomocnicze. Przykªad 1. A A d

Statystyka. Šukasz Dawidowski. Instytut Matematyki, Uniwersytet l ski

Ekonometria - wykªad 8

Metody dowodzenia twierdze«

5. (8 punktów) EGZAMIN MAGISTERSKI, r Matematyka w ekonomii i ubezpieczeniach

Matematyka 1. Šukasz Dawidowski. Instytut Matematyki, Uniwersytet l ski

EGZAMIN MAGISTERSKI, r Matematyka w ekonomii i ubezpieczeniach. a) (6 pkt.) oblicz intensywno± pªaconych skªadek;

Relacj binarn okre±lon w zbiorze X nazywamy podzbiór ϱ X X.

Wykªad 4. Funkcje wielu zmiennych.

Biostatystyka, # 5 /Weterynaria I/

1 Lista 6 1. LISTA Obliczy JSN renty z doªu dla (30)-latka na 3 lata w wysoko±ci Obliczenia zrobi dla TT -PL97m oraz i = 4%.

Modele wielorównaniowe. Estymacja parametrów

Wektory w przestrzeni

CAŠKOWANIE METODAMI MONTE CARLO Janusz Adamowski

Macierze i Wyznaczniki

Zbiory i odwzorowania

Przeksztaªcenia liniowe

EGZAMIN MAGISTERSKI, r Matematyka w ekonomii i ubezpieczeniach

Macierze i Wyznaczniki

Twierdzenie Wainera. Marek Czarnecki. Warszawa, 3 lipca Wydziaª Filozoi i Socjologii Uniwersytet Warszawski

wiczenie nr 3 z przedmiotu Metody prognozowania kwiecie«2015 r. Metodyka bada«do±wiadczalnych dr hab. in». Sebastian Skoczypiec Cel wiczenia Zaªo»enia

Ciaªa i wielomiany. 1 Denicja ciaªa. Ciaªa i wielomiany 1

Macierze. 1 Podstawowe denicje. 2 Rodzaje macierzy. Denicja

Spis tre±ci. Plan. 1 Pochodna cz stkowa. 1.1 Denicja Przykªady Wªasno±ci Pochodne wy»szych rz dów... 3

AM II /2019 (gr. 2 i 3) zadania przygotowawcze do I kolokwium

Statystyka matematyczna - ZSTA LMO

Elementarna statystyka Wnioskowanie o regresji (Inference 2 czerwca for regression) / 13

Funkcje, wielomiany. Informacje pomocnicze

MODEL HAHNFELDTA I IN. ANGIOGENEZY NOWOTWOROWEJ Z UWZGL DNIENIEM LEKOOPORNO CI KOMÓREK NOWOTWOROWYCH

Statystyka matematyczna - ZSTA LMO

punkcie. Jej granica lewostronna i prawostronna w punkcie x = 2 wynosz odpowiednio:

STATYSTYCZNE MODELOWANIE DANYCH BIOLOGICZNYCH

Podstawy statystycznego modelowania danych Analiza prze»ycia

Ekonometria Bayesowska

Rozdziaª 5. Modele wektorowej autoregresji

In»ynierskie zastosowania statystyki wiczenia

Edward Kozłowski. Optymalne sterowanie dyskretnymi systemami stochastycznymi

Rozwini cia asymptotyczne dla mocy testów przybli»onych

Analiza i identyfikacja szeregów czasowych

Matematyka z elementami statystyki

ELEMENTARNA TEORIA LICZB. 1. Podzielno±

Równania ró»niczkowe I rz du (RRIR) Twierdzenie Picarda. Anna D browska. WFTiMS. 23 marca 2010

Ekonometria Bayesowska

Ekonometria. wiczenia 5 i 6 Modelowanie szeregów czasowych. Andrzej Torój. Instytut Ekonometrii Zakªad Ekonometrii Stosowanej

1 Ró»niczka drugiego rz du i ekstrema

Egzamin z ekonometrii - wersja ogólna

Liczby zespolone Pochodna Caªka nieoznaczona i oznaczona Podstawowe wielko±ci zyczne. Repetytorium z matematyki

Opis matematyczny ukªadów liniowych

2. (8 punktów) 3. (8 punktów) 4. (8 punktów) 5. (8 punktów) EGZAMIN MAGISTERSKI, Matematyka w ekonomii i ubezpieczeniach

Tablice wzorów z probabilistyki

Ekonometria. wiczenia 2 Werykacja modelu liniowego. Andrzej Torój. Instytut Ekonometrii Zakªad Ekonometrii Stosowanej

Estymacja parametru gªadko±ci przy u»yciu falek splajnowych

A = n. 2. Ka»dy podzbiór zbioru sko«czonego jest zbiorem sko«czonym. Dowody tych twierdze«(elementarne, lecz nieco nu» ce) pominiemy.

Rachunek caªkowy funkcji wielu zmiennych

Zadania. 4 grudnia k=1

Liniowe zadania najmniejszych kwadratów

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

Liczby zespolone. dr Krzysztof yjewski Mechatronika; S-I 0.in». 6 pa¹dziernika Oznaczenia. B dziemy u»ywali nast puj cych oznacze«:

1 Przypomnienie wiadomo±ci ze szkoªy ±redniej. Rozwi zywanie prostych równa«i nierówno±ci

JAO - J zyki, Automaty i Obliczenia - Wykªad 1. JAO - J zyki, Automaty i Obliczenia - Wykªad 1

ANALIZA NUMERYCZNA. Grzegorz Szkibiel. Wiosna 2014/15

Macierze. Dziaªania na macierzach. 1. Niech b d dane macierze , D = , C = , B = 4 12 A = , F = , G = , H = E = a) Obliczy A + B, 2A 3B,

Ekonometria Bayesowska

Podstawy statystycznego modelowania danych - Wykªad 7

f(x) f(x 0 ) i f +(x 0 ) := lim = f(x 0 + x) f(x 0 ) wynika ci gªo± funkcji w punkcie x 0. W ka»dym przypadku zachodzi:

Elementy geometrii analitycznej w przestrzeni

Liniowe równania ró»niczkowe n tego rz du o staªych wspóªczynnikach

Metody bioinformatyki (MBI)

Elementarna statystyka

Podstawy matematyki dla informatyków

Zadania z rachunku prawdopodobie«stwa

Analiza wra»liwo±ci dla modelu receptorów bªonowych. Wydziaª Matematyki, Informatyki i Mechaniki Uniwersytet Warszawski. Anna Naª cz 7 IV 2011

Maªgorzata Murat. Modele matematyczne.

Funkcje jednej zmiennej. Granica, ci gªo±. (szkic wykªadu)

Funkcje powi za«, miary zale»no±ci i grube ogony, czyli kilka sªów o zale»no±ci w statystyce i matematyce nansowej

x y x y x y x + y x y

Matematyka dyskretna dla informatyków

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

Ekonometria Bayesowska

Kinematyka 2/15. Andrzej Kapanowski ufkapano/ Instytut Fizyki, Uniwersytet Jagiello«ski, Kraków. A. Kapanowski Kinematyka

Funkcje wielu zmiennych

Funkcja rzeczywista zmiennej rzeczywistej. Pochodna (szkic wykªadu)

Zbiory ograniczone i kresy zbiorów

Zadania z analizy matematycznej - sem. II Ekstrema funkcji wielu zmiennych, twierdzenia o funkcji odwrotnej i funkcji uwikªanej

Nieklasyczna analiza skªadowych gªównych

Funkcje wielu zmiennych

Wielomiany o wspóªczynnikach rzeczywistych

Statystyka matematyczna. Wykład III. Estymacja przedziałowa

Proste modele o zªo»onej dynamice

Transkrypt:

e-mail:e.kozlovski@pollub.pl

Spis tre±ci 1

Denicja 1 Szereg {x t } 1 t N nazywamy ±ci±le stacjonarnym (stacjonarnym w w»szym sensie), je»eli dla dowolnych m, t 1, t 2,..., t m, τ ª czny rozkªad prawdopodobie«stwa zwi zany z m elementami x t1, x t2,..., x tm szeregu czasowego jest identyczny z rozkªadem m elementów x t1+τ, x t2+τ,..., x tm+τ. Innymi sªowy, szereg {x t } 1 t N jest ±ci±le stacjonarny, je»eli jego wªasno±ci dynamiczne nie ulegaj zmianie przy zmianie pocz tku skali czasowej. Dla uproszczenia zakªadamy,»e chwile czasowe (momenty) t 1, t 2,..., t m oraz przesuni cia czasowe τ nale» do zbioru liczb naturalnych.

Uwaga 1 Stacjonarno± szeregu czasowego wymaga, aby warto±ci ±rednie oraz odchylenia standardowe od warto±ci ±rednich byªy staªe. Uwaga 2 Wszystkie szeregi czasowe zawieraj ce nielosowe skªadowe (cz ± deterministyczna nie jest staªa oraz zawiera np. czynnik trendu, sezonowo±ci, koniunkturalny) zale»ne od chwili czasowej t s niestacjonarne.

Warto± ±rednia i wariancja stacjonarnego szeregu czasowego. Z zaªo»enia stacjonarno±ci szeregu czasowego wynika,»e rozkªad zmiennej losowej x t nie zale»y od momentu t, zatem równie» od t nie zale» jego podstawowe charakterystyki (warto± ±rednia i wariancja). W szczególno±ci dla m = 1 widzimy,»e szereg czasowy ma staª warto± ±redni Ex t = µ, (1) t 1 oraz staª wariancj t 1 V ar (x t) = E (x t µ) 2 = σ 2. (2) Warto± µ okre±la poziom, dookoªa którego oscyluje szereg czasowy {x t } 1 t N, natomiast wielko± σ okre±la rozrzut warto±ci elementów szeregu {x t } 1 t N dookoªa poziomu µ.

Poniewa» rozkªady zmiennych losowych x t s jednakowe dla wszystkich 1 t N, to podstawowe charakterystyki szeregu mog by oszacowane na podstawie wielko±ci obserwacji x 1, x 2,..., x N. Jako estymator warto±ci ±redniej przyjmujemy ˆµ = 1 N x t, (3) N natomiast dla wariancji t=1 ˆσ 2 = 1 N N (x t ˆµ) 2. (4) t=1

Denicja 2 Szereg {x t } 1 t N, dla którego drugi moment zwykªy jest sko«czony ( Ex 2 t < dla 1 t N), nazywamy sªabo stacjonarnym (stacjonarnym w szerszym sensie) je»eli: a. warto± oczekiwana elementów szeregu nie zale»y od chwili t Ex t = const, 1 t N b. kowariancja zale»y tylko od przesuni cia τ, natomiast nie zale»y od chwili t cov (x t, x t+τ ) = cov (x 0, x τ ). 1 t N 0 τ N 1 Proces ±ci±le stacjonarny o sko«czonym drugim momencie jest procesem sªabo stacjonarnym. Stwierdzenie odwrotne nie jest na ogóª prawdziwe. Wyj tek stanowi proces Gaussa.

Funkcja autokowariancji Z zaªo»enia stacjonarno±ci szeregu czasowego {x t } 1 t N dla m = 2 wynika,»e ª czny rozkªad dla dwóch dowolnych zmiennych losowych x t i x t+τ zale»y tylko od wielko±ci przesuni cia w czasie τ i nie zale»y od chwili t. Dla dowolnego t 0 kowariancj pomi dzy elementami x t oraz x t+τ okre±lamy jako γ τ = cov (x t, x t+τ ) = E [x t µ] [x t+τ µ]. (5) Powy»sz funkcj nazywamy autokowariancj, poniewa» okre±la nam kowariancj dla tego samego szeregu czasowego {x t } 1 t N. Warto±ci funkcji autokowariancji γ τ na podstawie obserwacji x 1, x 2,..., x N szacujemy za pomoc wzoru dla τ = 0, 1,..., N 1. ˆγ τ = 1 N τ (x t ˆµ) (x t+τ ˆµ) (6) N τ t=1

Wªasno±ci funkcji autokowariancji γ τ : 1 γ 0 = σ 2 = const, 2 τ 0 γ τ = γ τ (funkcja parzysta, w przypadku zespolonym γ τ = γ τ ), 3 τ 0 γ τ γ 0.

Funkcja autokorelacji Jedna z gªównych ró»nic pomi dzy szeregiem czasowym a ci giem próbek losowych polega na tym,»e elementy szeregu czasowego w wi kszo±ci przypadków nie s niezale»ne. Stopie«zale»no±ci pomi dzy elementami stacjonarnego szeregu czasowego x t i x t+τ przy przesuni ciu τ 0 wzynaczamy jako r τ = E (x t µ) (x t+τ µ) E (x t+τ µ) 2 = γ τ γ 0. (7) Wspóªczynnik r τ jest miar zwi zku pomi dzy elementami tego samego szeregu, dlatego nazywamy go wspóªczynnikiem autokorelacji. Wykres funkcji r τ od τ nazywamy korelogramem. W praktyce wystarcza wyznaczy powy»sz funkcj dla dodatnich argumentów.

Jako estymator funkcji autokorelacji przyjmujemy ˆr τ = dla τ = 0, 1,..., N 1. N N τ t=1 (x t ˆµ) (x t+τ ˆµ) = (N τ) N (x t ˆµ) 2 t=1 Wªasno±ci funkcji autokorelacji r τ. 1 r 0 = 1, ˆγ τ ˆγ 0 (8) 2 r τ = r τ (funkcja parzysta, w przypadku zespolonym r τ = r τ ), 3 1 r τ 1.

Uwaga 3 Jest rzecz oczywist,»e im bardziej s oddalone elementy szeregu czasowego x t i x t+τ, tym mniejsze powinny by warto±ci bezwzgl dne funkcji autokorelacji r τ, poniewa» elementy bardziej oddalone s mniej ze sob skorelowane. W wi kszo±ci przypadków uwzgl dniamy zale»no±ci pomi dzy elementami szeregu czasowego tylko do pewnego momentu τ, powy»ej którego warto±ci funkcji autokorelacji w przybli»eniu s równe zero. Uwaga 4 W przypadku, gdy podane s warto±ci szeregu czasowego {x t } 1 t N, to aby uchwyci zwi zki oraz dynamik wewn trzn w szeregu, najcz ±ciej szacujemy warto±ci funkcji autokorelacji i autokowaraincji dla przesuni 0, 1, 2,..., [ ] N 4, gdzie [ ] oznacza cz ± caªkowit.

Macierze autokowariancji i autokorelacji Macierz autokowariancji jest dana wzorem γ 0 γ 1 γ 2... γ N 1 γ 1 γ 0 γ 1... γ N 2 Γ N = γ 2 γ 1 γ 0... γ N 3...... (9) γ N 1 γ N 2 γ N 3... γ 0 Z wªasno±ci funkcji autokorelacji mamy 1 r 1 r 2... r N 1 r 1 1 r 1... r N 2 Γ N = γ 0 r 2 r 1 1... r N 3..... = σ2 P N, (10) r N 1 r N 2 r N 3... 1 gdzie macierz P N jest macierz autokorelacji.

Lemat 1 Macierze autokorelacji P N i autokowariancji Γ N s dodatnio okre±lone. Dowód. Poniewa» macierze autokorelacji P N i autokowariancji Γ N s symetryczne, zatem ka»d macierz symetryczn np. P N mo»emy przedstawi w postaci P N = A T A = ( A T A ) T. Wtedy dla dowolnego x R N oraz x col (0, 0,..., 0) mamy x T P N x = x T A T Ax = (Ax) T Ax = Ax 2 > 0. Dodatni okre±lono± macierzy autokowariancji Γ N wyznaczamy w sposób podobny.

Przykªad 4 Niech {ε t } t 1 b dzie ci giem niezale»nych zmiennych losowych o rozkªadzie normalny N (0, 1). Wyznaczy funkcj autokowariancji i autokorelacji dla szeregu {x t } t 1 postaci x t = 3 + ε t + ε t 1. Udowodni,»e szereg {x t } t 1 jest sci±le stacjonarny. Poda macierz autokorelacji P 4. Z wªasno±ci warto±ci oczekiwanej otrzymujemy Ex t = 3, t 1 natomiast kowariancja przy przesuni ciu czasowym τ 0 wynosi γ τ = cov (x t, x t+τ ) = E (ε t + ε t 1 ) (ε t+τ + ε t+τ 1 ) = = Eε t ε t+τ + Eε t ε t+τ 1 + Eε t 1 ε t+τ + Eε t 1 ε t+τ 1.

Z niezale»no±ci ci gu zmiennych losowych {ε t } t 0 otrzymujemy 2, γ τ = 1, 0, dla τ = 0, dla τ = 1, dla τ 2. Szereg {x t } t 1 jest stacjonarny w szerszym sensie (sªabo) oraz jest procesem gaussowskim, zatem analizowany proces {x t } t 1 jest równie» ±ci±le stacjonarnym. Funkcja autokorelacji jest równa r τ = natomiast macierz autokorelacji P 4 = 1, 0.5, 0, dla τ = 0, dla τ = 1, dla τ 2, 1 0.5 0 0 0.5 1 0.5 0 0 0.5 1 0.5 0 0 0.5 1.

Kowariancja a g sto± spektralna Zale»no± pomi dzy funkcj spektraln a funkcj kowariancji podaje twierdzenie poni»ej. Niech C oznacza zbiór liczb caªkowitych. Twierdzenie Gerglotz'a Dla dowolnego stacjonarnego szeregu czasowego {x t } t C istnieje jednoznacznie okre±lona prawostronnie ci gªa niemalej ca funkcja rzeczywista F (ω), ω [ π, π], F ( π) = 0 oraz γ τ = π π e iωτ df (ω) τ C, (11) gdzie γ τ, τ C oznacza funkcj autokowariancji tego szeregu. Funkcj F ( ) okre±lon powy»ej nazywamy funkcj spektraln szeregu czasowego {x t } t 0, natomiast jej argument ω nazywamy pr dko±ci k tow.

Je»eli dla dowolnego ω [ π, π] funkcja F ( ) jest funkcj spektraln, to mo»emy j przedstawi w postaci F (ω) = ω π f (ν) dν, gdzie funkcj f ( ) nazywamy g sto±ci spektraln szeregu czasowego {x t } t 0. Poniewa» funkcja F ( ) jest funkcj niemalej c, zatem f (ν) 0 dla ν [ π, π].

W przypadku, gdy funkcja autokowariancji przyjmuje warto±ci ze zbioru liczb zespolonych, to otrzymujemy γ τ = π π Z rozwini cia w szereg Fouriera otrzymujemy e iωτ f (ω) dω, dla τ C. (12) f (ω) = 1 2π e iωτ γ τ. (13) τ Wniosek 2 Dla ka»dego t C wariancja szeregu czasowego {x t } t C wynosi π V ar (x t ) = γ 0 = f (ω) dω = F (π). π

W praktyce zazwyczaj mamy do czynienie z funkcj autokowariancji o warto±ciach w zbiorze liczb rzeczywistych. Zale»no± pomi dzy funkcj autokowariancji γ τ a funkcj g sto±ci spektralnej podaje nast puj ce twierdzenie. Twierdzenie 2 Je»eli funkcja autokowariancji γ n dla n 1 przyjmuje warto±ci ze zbioru liczb rzeczywistych, to funkcja g sto±ci spektralnej f (ω), ω [ π, π] jest postaci ] f (ω) = γ 0 2π + n=1 γ n π [ 1 cos nω = 2π γ 0 + 2 γ n cos nω n=1. (14)

Korelacja a g sto± spektralna Z zale»no±ci funkcji autokowariancji i autokorelacji γ τ = γ 0 r τ wynika,»e funkcj g sto±ci spektralnej f (ω), ω [ π, π] mo»emy przedstawi w jednej z poni»szych postaci. 1. w przypadku zespolonym: 2. w przypadku rzeczywistym: f (ω) = γ 0 2π f (ω) = γ 0 2π [ e iωτ r τ, (15) τ 1 + 2 ] r τ cos nω. (16) τ=1

Wniosek 3 Dla pr dko±ci k towych ω = 2πk, gdzie k N warto± funkcji g sto±ci spektralnej wynosi [ ] [ ] f (0) = 1 γ 0 + 2 γ n = γ 0 1 + 2 r τ 2π 2π n=1 τ=1 Wniosek 4 Je»eli elementy szeregu czasowego s nieskorelowane (tzn. wspóªczynnik korelacji r τ = 0 dla τ 1), to funkcja g sto±ci spektralnej jest staªa f (ω) = γ 0 2π dla ω R.

Intensywno± Rozwa»my szereg oscyluj cy dookoªa poziomu zerowego, który ma harmoniczne skªadowe o okresie 2π ω. Zdeniujmy harmoniki sinusowe i kosinusowe jako funkcje postaci a (ω) = b (ω) = 1 πn 1 πn N t=1 N t=1 x t cos tω, (17) x t sin tω, (18) gdzie ω [ π, π].

Uwaga 5 Je»eli warto± ±rednia elementów szeregu {x t } t 1 jest ró»na od zero, to z N szeregu wydzielamy staª µ = 1 N x i (tzn. x t = x t µ ), deniujemy i=1 szereg którego elementy oscyluj dookoªa poziomu zerowego. Denicja 3 Wielko± I (ω) = a 2 (ω) + b 2 (ω) (19) nazywamy intensywno±ci dla pr dko±ci k towej ω [ π, π]. Widzimy,»e intensywno± okre±la nam stopie«zale»no±ci pomi dzy wielko±ciami obserwacji x t a harmonicznymi skªadowymi o okresie 2π ω.

I (ω) = 1 πn [ = 1 N x 2 t + 2 πn t=1 ( N 2 ( N ) 2 x t cos tω) + x t sin tω = N t=1 N k k=1 t=1 [ = 1 N N x 2 t + 2 πn t=1 k=1 [ [ = 1 1 N N x 2 t + 2 π N t=1 t=1 x t x t+k (cos tω cos (t + k) ω + sin tω sin (t + k) ω) k=1 1 N N k t=1 N k t=1 x t x t+k cos kω ] x t x t+k cos kω Je»li szereg {x t } t 1 oscyluje dookoªa poziomu zerowego warto± ±rednia wynosi zero, to wariancja jest równa ˆγ 0 = 1 N N x 2 t. t=1 ]]. ]

Niech ˆγ k, k N oznacza obci»ony estymator autokowariancji postaci ˆγ k = N k N ˆγ k. Zatem N ˆγ lim k ˆγ k. W przypadku du»ych próbek dla N w granicy otrzymujemy [ ] I (ω) = 1 γ 0 + 2 γ k cos kω. (20) π Zatem dla N intensywno± jest równa podwojonej g sto±ci spektralnej I (ω) = 2f (ω). (21) k=1

Przykªad 5 Dla czterech szeregów czasowych { } x i t, i = 1, 2, 3, 4 podane s t 1 funkcje autokowariancji γk i odpowiednio dla i = 1, 2, 3, 4 k 0 1 2 3 4 5 γk 1 3 0.3 0.22 0.1 0.04 0.03 γk 2 3 1.3 0.22 0.1 0.04 0.03 γk 3 3 0.3 0.22 2.1 0.04 0.03 γk 4 3 0.3 0.22 1.5 0.04 1.3 oraz γk i = 0 dla k > 5. Wyznaczy funkcje g sto±ci spektralnej. Narysowa wykresy funkcji g sto±ci spektralnej dla cz stotliwo±ci ν [ 1, 1].

W rozwa»anym przypadku cz stotliwo± ω 2π [ 1, 1]. Analizuj c γk 1, k 0 widzimy,»e elementy szeregu { } x 1 t s praktycznie t 1 niezale»ne (wspóªczynniki korelacji s bliskie zeru). Dla szeregu { } x 2 t t 1 elementy odlegªe o jedn chwil czasow s ze sob powi zane, dla szeregu { } x 3 t elementy odlegªe o 3 momenty s ze sob powi zane, t 1 natomiast dla szeregu { } x 4 t elementy z przesuni ciami czasowymi 3 i t 1 5 s ze sob powi zane. Funkcje gesto±ci spektralnej tych szeregów s podane poni»ej: f 1 (ω) = 1 (3 + 2 (0.3 cos ω + 0.22 cos 2ω + 0.1 cos 3ω + 0.04 cos 4ω + 0.03 2π f 2 (ω) = 1 (3 + 2 (1.3 cos ω + 0.22 cos 2ω + 0.1 cos 3ω + 0.04 cos 4ω + 0.03 2π f 3 (ω) = 1 (3 + 2 (0.3 cos ω + 0.22 cos 2ω 2.1 cos 3ω + 0.04 cos 4ω + 0.03 2π f 4 (ω) = 1 (3 + 2 (0.3 cos ω + 0.22 cos 2ω 1.5 cos 3ω + 0.04 cos 4ω + 1.3 c 2π

Wykresy poszczególnych funkcji g sto±ci spektralnej fi (ν) w zale»no i od cz stotliwo±ci ν [ 1, 1] (pami tamy,»e ω = 2πν), gdzie f i (ν) = f i (2πν) dla i = 1, 2, 3, 4 s przedstawione na rysunku 1. Rysunek: Funkcje g sto±ci spektralnej.