OCENA GĘSTOŚCI INFORMACYJNEJ ELEKTROKARDIOGRAMU METODĄ ELIMINACJI WSPÓŁCZYNNIKÓW FALKOWYCH

Podobne dokumenty
ODRĘBNA KOMPRESJA WYŻSZYCH OKTAW ELEKTROKARDIOGRAMU

POMIAR CHWILOWEGO PASMA SYGNAŁU EKG Z ESTYMACJĄ SZUMÓW W ZAKRESIE NISKICH CZĘSTOTLIWOŚCI

Rejestracja elektrokardiogramu ze zmienną częstotliwością próbkowania modulowaną zawartością sygnału

CIĄGŁY MODEL SZUMU ELEKTROKARDIOGRAMU W DZIEDZINIE CZASOWO-CZĘSTOTLIWOŚCIOWEJ

PASMO CHWILOWE SYGNAŁU ELEKTROKARDIOGRAFICZNEGO

Detekcja zespołów QRS w sygnale elektrokardiograficznym

Elektrokardiografia dla informatyka-praktyka / Piotr Augustyniak. Kraków, Spis treści Słowo wstępne 5

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16

2. Próbkowanie Sygnały okresowe (16). Trygonometryczny szereg Fouriera (17). Częstotliwość Nyquista (20).

LABORATORIUM AKUSTYKI MUZYCZNEJ. Ćw. nr 12. Analiza falkowa dźwięków instrumentów muzycznych. 1. PODSTAWY TEORETYCZNE ANALIZY FALKOWEJ.

CYFROWE PRZETWARZANIE SYGNAŁÓW

Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji

Ćwiczenie 3,4. Analiza widmowa sygnałów czasowych: sinus, trójkąt, prostokąt, szum biały i szum różowy

Zjawisko aliasingu. Filtr antyaliasingowy. Przecieki widma - okna czasowe.

Transformata Fouriera

METODY STATYSTYCZNE W BIOLOGII

Automatyczne rozpoznawanie mowy - wybrane zagadnienia / Ryszard Makowski. Wrocław, Spis treści

Podstawy elektrokardiografii część 1

Podstawy Przetwarzania Sygnałów

Kompresja dźwięku w standardzie MPEG-1

(L, S) I. Zagadnienia. 1. Potencjały czynnościowe komórek serca. 2. Pomiar EKG i jego interpretacja. 3. Fonokardiografia.

Testowanie hipotez statystycznych.

METODY STATYSTYCZNE W BIOLOGII

Populacja generalna (zbiorowość generalna) zbiór obejmujący wszystkie elementy będące przedmiotem badań Próba (podzbiór zbiorowości generalnej) część

AKADEMIA GÓRNICZO-HUTNICZA im. St. Staszica w Krakowie

AKADEMIA GÓRNICZO-HUTNICZA im. St. Staszica w Krakowie

Aproksymacja funkcji a regresja symboliczna

LABORATORIUM. Pomiar poziomu mocy akustycznej w komorze pogłosowej. Instrukcja do zajęć laboratoryjnych

Podstawy opracowania wyników pomiarów z elementami analizy niepewności pomiarowych

Badanie widma fali akustycznej

METODY STATYSTYCZNE W BIOLOGII

A-2. Filtry bierne. wersja

ODRZUCANIE WYNIKÓW POJEDYNCZYCH POMIARÓW

Idea. θ = θ 0, Hipoteza statystyczna Obszary krytyczne Błąd pierwszego i drugiego rodzaju p-wartość

Kompresja Danych. Streszczenie Studia Dzienne Wykład 13, f(t) = c n e inω0t, T f(t)e inω 0t dt.

Kolokwium ze statystyki matematycznej

SYMULATOR EKG. Bartłomiej Bielecki 1, Marek Zieliński 2, Paweł Mikołajaczak 1,3

Laboratorium Przetwarzania Sygnałów Biomedycznych

Analiza i Przetwarzanie Biosygnałów

Laboratorium Przetwarzania Sygnałów

8. Analiza widmowa metodą szybkiej transformaty Fouriera (FFT)

PL B BUP 16/04. Kleczkowski Piotr,Kraków,PL WUP 04/09

Opis matematyczny. Równanie modulatora. Charakterystyka statyczna. Po wprowadzeniu niewielkich odchyłek od ustalonego punktu pracy. dla 0 v c.

Cyfrowe przetwarzanie i kompresja danych

Przetwarzanie Sygnałów. Zastosowanie Transformaty Falkowej w nadzorowaniu

Katedra Fizyki Ciała Stałego Uniwersytetu Łódzkiego. Ćwiczenie 2 Badanie funkcji korelacji w przebiegach elektrycznych.

Egzamin / zaliczenie na ocenę*

Opis efektów kształcenia dla modułu zajęć

ANALIZA SYGNAŁÓ W JEDNÓWYMIARÓWYCH

Akwizycja i przetwarzanie sygnałów cyfrowych

Wykład 2 Hipoteza statystyczna, test statystyczny, poziom istotn. istotności, p-wartość i moc testu

Kodowanie podpasmowe. Plan 1. Zasada 2. Filtry cyfrowe 3. Podstawowy algorytm 4. Zastosowania

Przedmowa Wykaz oznaczeń Wykaz skrótów 1. Sygnały i ich parametry Pojęcia podstawowe Klasyfikacja sygnałów

Kilka uwag o testowaniu istotności współczynnika korelacji

Cyfrowe przetwarzanie sygnałów w urządzeniach EAZ firmy Computers & Control

Ćwiczenie 4. Filtry o skończonej odpowiedzi impulsowej (SOI)

Wstęp do teorii niepewności pomiaru. Danuta J. Michczyńska Adam Michczyński

WYZNACZANIE NIEPEWNOŚCI POMIARU METODAMI SYMULACYJNYMI

Jeśli X jest przestrzenią o nieskończonej liczbie elementów:

Zadania ze statystyki, cz.7 - hipotezy statystyczne, błąd standardowy, testowanie hipotez statystycznych

Wyznaczanie budżetu niepewności w pomiarach wybranych parametrów jakości energii elektrycznej

Testowanie hipotez statystycznych. Wnioskowanie statystyczne

Analiza sygnału EKG i modelowanie pracy serca

Zastosowanie Informatyki w Medycynie

Modelowanie jako sposób opisu rzeczywistości. Katedra Mikroelektroniki i Technik Informatycznych Politechnika Łódzka

z zapisu EKG 1. WSTĘP CELE PROJEKTU KONCEPCJA PROPONOWANEGO ROZWIĄZANIA... 8

Przetwarzanie sygnałów

Ćwiczenie: "Mierniki cyfrowe"

KARTA MODUŁU KSZTAŁCENIA

przetworzonego sygnału

Laboratorium Telewizji Cyfrowej

Odchudzamy serię danych, czyli jak wykryć i usunąć wyniki obarczone błędami grubymi

Statystyka matematyczna Testowanie hipotez i estymacja parametrów. Wrocław, r

MATEMATYKA WYKAZ UMIEJĘTNOŚCI WYMAGANYCH NA POSZCZEGÓLNE OCENY DLA KLASY PIERWSZEJ

TRANSFORMATA FALKOWA WYBRANYCH SYGNAŁÓW SYMULACYJNYCH

Laboratorium Przetwarzania Sygnałów Biomedycznych

Wykład 4. Plan: 1. Aproksymacja rozkładu dwumianowego rozkładem normalnym. 2. Rozkłady próbkowe. 3. Centralne twierdzenie graniczne

W2. Zmienne losowe i ich rozkłady. Wnioskowanie statystyczne.

7.4 Automatyczne stawianie prognoz

Porównanie generatorów liczb losowych wykorzystywanych w arkuszach kalkulacyjnych

ZJAZD 4. gdzie E(x) jest wartością oczekiwaną x

Graficzne opracowanie wyników pomiarów 1

Oprogramowanie Analizy Elektrokardiogramów dla Nauki i Edukacji

12/30/2018. Biostatystyka, 2018/2019 dla Fizyki Medycznej, studia magisterskie. Estymacja Testowanie hipotez

FFT i dyskretny splot. Aplikacje w DSP

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

I jest narzędziem służącym do porównywania rozproszenia dwóch zmiennych. Używamy go tylko, gdy pomiędzy zmiennymi istnieje logiczny związek

Analiza autokorelacji

Technika analogowa. Problematyka ćwiczenia: Temat ćwiczenia:

CYFROWE PRZTWARZANIE SYGNAŁÓW (Zastosowanie transformacji Fouriera)

LABORATORIUM Z FIZYKI

Statystyka. Rozkład prawdopodobieństwa Testowanie hipotez. Wykład III ( )

P R Z E T W A R Z A N I E S Y G N A Ł Ó W B I O M E T R Y C Z N Y C H

PL B1. Sposób i układ do modyfikacji widma sygnału ultraszerokopasmowego radia impulsowego. POLITECHNIKA GDAŃSKA, Gdańsk, PL

TRANSFORMATA FALKOWA 2D. Oprogramowanie Systemów Obrazowania 2016/2017

x(n) x(n-1) x(n-2) D x(n-n+1) h N-1

Ważne rozkłady i twierdzenia

Ćwiczenie 2: pomiar charakterystyk i częstotliwości granicznych wzmacniacza napięcia REGIONALNE CENTRUM EDUKACJI ZAWODOWEJ W BIŁGORAJU

Automatyczne tworzenie trójwymiarowego planu pomieszczenia z zastosowaniem metod stereowizyjnych

Transkrypt:

II Sympozjum Modelowanie i Pomiary w Medycynie 8-12 maja 2000r., Krynica Górska OCENA GĘSTOŚCI INFORMACYJNEJ ELEKTROKARDIOGRAMU METODĄ ELIMINACJI WSPÓŁCZYNNIKÓW FALKOWYCH Piotr Augustyniak 1 STRESZCZENIE Praca przedstawia rezultat eksperymentu numerycznego polegającego na eliminacji współczynników reprezentacji czasowo-częstotliwościowych sygnału EKG i obserwacji wywołanej tym niedokładności wyznaczania podstawowych parametrów diagnostycznych. Postępowanie takie doprowadziło do wyodrębnienia w znormalizowanym zapisie stref identyfikowanych przez wyznaczane automatycznie punkty charakterystyczne, w których zubożenie sygnału ma mniejsze i większe wpływy na zniekształcenie informacji. W rezultacie obliczono funkcję czasu wyznaczającą rozkład strumienia informacji diagnostycznych w elektrokardiogramie. Funkcja taka jest punktem wyjścia do adaptacyjnej kompresji oraz oceny zniekształceń zapisów elektrokardiograficznych. ASSESSMENT OF ECG INFORMATION DENSITY BY ELIMINATING OF WAVELET COEFFICIENTS ABSTRACT This work presents the results of a numerical experiment aiming at eliminating time-frequency plane coefficients of an electrocardiogram and observing the involved inaccuracy of computation of basic diagnostic parameters. This proceedings resulted in separation of regions in a standard ECG recording, related to waves start- and endpoints, in which cutting out some amount of data influence more or less the parameters distortion. Consequently, a time function was computed representing the diagnostic data stream density in an electrocardiogram. This function is a starting point to the compression of ECG's using the adaptively modified characteristics, as well as for comparing the distortion and differences in the ECG signals. 1 Katedra Automatyki AGH, 30-059 Kraków, Mickiewicza 30, august@biocyb.ia.agh.edu.pl praca finansowana ze źródeł KBN nr grantu: 8 T11E 007 17

1. WSTĘP Efektywna kompresja elektrokardiogramów nie zniekształcająca informacji diagnostycznych, wobec rozpowszechnienia długoczasowych zapisów EKG (metodą Holtera), jest zadaniem oczekującym pilnego rozwiązania. Kardiolodzy, użytkownicy systemów holterowskich, nie szczędzą krytycznych uwag pod adresem powszechnie spotykanych programów wykorzystujących algorytmy kompresji ogólnego przeznaczenia. Jest to podyktowane obawą o utratę istotnych diagnostycznie informacji w procesie kompresji sygnału [1]. Opracowanie algorytmu kompresji opartego na zmienności gęstości informacyjnej elektrokardiogramu, a więc z wykorzystaniem pewnej wiedzy na temat spodziewanych lokalnych własności sygnału jest celem prowadzonych w Katedrze Automatyki AGH prac badawczych. Zaprzeczono na wstępie powszechnie przyjmowanej tezie (będącej podstawą funkcjonowania algorytmów kompresji ogólnego przeznaczenia) o jednorodności strumienia informacji w sygnale. Zaprzeczenie takie jest w pewnym sensie inspirowane coraz powszechniejszym kwestionowaniem zasadności użycia globalnych wskaźników (np. różnicy średniokwadratowej PRD) do porównywania sygnałów elektrodiagnostycznych. Dogodną okolicznością jest w przypadku fakt, że algorytmy automatycznego rozpoznawania struktur elektrokardiogramu, a co najmniej granic załamków, należą już do kanonu zastosowań klinicznych, a wiarygodność otrzymywanych obecnie z ich pomocą rezultatów uzyskała uznanie kardiologów. Pierwszym krokiem w kierunku umożliwienia algorytmowi kompresji dostosowania swych parametrów do oczekiwanych własności sygnału jest więc podział typowego elektrokardiogramu na odcinki o zmiennej istotności diagnostycznej. Podział ten jest oparty na strukturach, których detekcja przebiega w pełni automatycznie załamku P, zespole QRS i załamku T. Zakres badań opisywany w tym referacie obejmuje próbę wyznaczenia funkcji przyporządkowujących próbkom dyskretnego sygnału EKG wartości z przedziału <0...1> reprezentujące ich istotność diagnostyczną. Wartości tej funkcji dla poszczególnych próbek są uzależnione od ich położenia względem punktów charakterystycznych ewolucji serca, czyli początków i końców załamków. 2. MATERIAŁY I METODY Opisana metoda wyznaczania gęstości informacyjnej elektrokardiogramu polega na eliminacji współczynników powierzchni czasowo-częstotliwościowej i obserwacji spowodowanych tym zniekształceń informacji diagnostycznych. Na wstępie przeprowadzono analizę wpływu bezpośredniego ograniczania strumienia informacji na jakość parametrów diagnostycznych elektrokardiogramu. Wymagało to zdefiniowania ogólnego estymatora jakości parametrów diagnostycznych, a następnie przeprowadzenia testów numerycznych polegających na automatycznym wyznaczeniu wartości tego estymatora dla sygnałów zubożonych losowo oraz zubożonych lokalnie. Umożliwi to stwierdzenie wpływu położenia strefy zubożenia na wartość estymatora jakości sygnału, a zatem określenia lokalizacji w których zubożenie sygnału powoduje znaczną utratę jakości parametrów diagnostycznych. Rejonom tym zostanie przypisana większa istotność diagnostyczna, lub używając innego wyrażenia większe natężenie strumienia informacji diagnostycznych.

2.1. Wybór estymatora jakości parametrów diagnostycznych EKG Generalne określenie jakości wymaga w tym przypadku zdefiniowania konkretnych parametrów diagnostycznych, możliwych do wyznaczenia automatycznie, których obliczenie jest coraz mniej poprawne wraz z ograniczeniem strumienia informacji. Spośród parametrów diagnostycznych elektrokardiogramu najistotniejsze wydają się parametry czasowe, gdyż reprezentują one proces rozchodzenia się pobudzeń w układzie bodźcotwórczym serca. Do grupy tej należą: położenie szczytu załamka R oraz lokalizacje pozostałych punktów początkowych i końcowych załamków. Inną ważną grupą parametrów są wielkości mierzone w ustalonych punktach czasowych. W tej grupie najważniejszymi parametrami są: ilościowa ocena mikropotencjałów komorowych oraz ocena odcinka ST. W realizacji postawionego celu należało jednak wziąć pod uwagę nie tylko istotność diagnostyczną wybranych parametrów, ale również ich wrażliwość na zubożenie sygnału. Rozważano następujące parametry jako estymatory jakości diagnostyki EKG: Tab. 1. Zestawienie wybranych parametrów diagnostycznych EKG parametr znaczenie diagnostyczne wrażliwość na jakość sygnału dokładność położenia szczytu załamka R dokładność wyznaczenia punktów charakterystycznych załamków P, QRS i T pomiar mikropotencjałów komorowych pomiar położenia i nachylenia odcinka ST Jest to parametr o podstawowym znaczeniu diagnostycznym zwłaszcza z punktu widzenia częstości rytmu i zmienności rytmu w określonych warunkach (HRV) Są to parametry umożliwiające wyznaczenie wszystkich pozostałych odstępów i odcinków, a więc ich poprawne wyznaczenie gwarantuje wierność reprezentacji zjawisk zachodzących w układzie bodźcotwórczym serca mikropotencjały komorowe są reprezentacją skłonności do spontanicznego migotania komór, które jest arytmią groźną dla życia nieprawidłowe położenie i nachylenie odcinka ST jest reprezentacją niedokrwienia mięśnia serca, najczęściej na skutek choroby wieńcowej, występuje zwłaszcza w warunkach stresu psychicznego lub wysiłku fizycznego. Możliwe jest przybliżenie szczytu załamka R parabolą, co prowadzi do kompensacji znacznej części ubytku strumienia informacji. Ze względu na złożoność zjawisk zachodzących na początku i końcu załamków niemożliwe jest odtworzenie utraconych informacji na drodze matematycznej Nieznaczne ograniczenie strumienia informacji wyklucza możliwość analizy mikropotencjałów komorowych Pomiar parametrów odcinka ST jest uwarunkowany poprawną rejestracją niskich częstotliwości ograniczanie strumienia informacji poprzez zmniejszanie pasma sygnału od góry nie wpływa na parametry odcinka ST aż do momentu, kiedy zapis reprezentuje już tylko zgrubny elektrokardiogram Wybrano parametry najbardziej wrażliwe na ograniczanie pasma sygnału, jakimi okazały się lokalizacje punktów początkowych i końcowych załamków: P-onset, P-end, QRS-onset, QRS-end oraz T-end. Dokładność wyznaczania parametrów została przedstawiona w postaci pojedynczego współczynnika D reprezentującego ważony błąd wyznaczenia poszczególnych punktów. Wartości wag wybrano w oparciu o zalecenia CSE (Common Standard for

Quantitative Electrocardiography) [2] dotyczące maksymalnej dopuszczalnej odchyłki lokalizacji punktu w stosunku do wartości prawdziwej w testowanych programach diagnostycznych. Dla sygnału o częstotliwości próbkowania 500 Hz wynoszą one: Tab. 2. Zestawienie dopuszczalnych błędów lokalizacji załamków wg CSE P-onset P-end QRS-onset QRS-end T-end dopuszczalny błąd lokalizacji [ms] 8.0 7.8 4.4 5.8 15.6 przyjęty współczynnik wagowy 0.174 0.179 0.317 0.240 0.090 D = d P onset w P onset + d P end w P end + + d QRS onset w QRS onset + d QRS end w QRS end + d T end w T end (1) Współczynnik D przedstawiony wzorem (1) przyjęto do wyrażenia globalnej niedokładności obliczania parametrów diagnostycznych w przeprowadzonych testach numerycznych. 2.2. Testowanie estymatora jakości parametrów diagnostycznych Przyjęty estymator jakości parametrów diagnostycznych wymaga przetestowania w celu stwierdzenia, czy zmiana jego wartości odpowiada zmianie natężenia strumienia informacji w rozumieniu teorii sygnałów. Testowanie wykonano przez określenie wartości estymatora dla sygnałów z bazy danych CSE (opis poniżej). Wykorzystano 125 sygnałów próbkowanych z częstotliwością 500 Hz, w wersjach filtrowanych dolnoprzepustowo z użyciem filtrów FIR o nachyleniu 12dB/okt. i częstotliwościach odcięcia: 50, 100, 150, 200 Hz. W każdym z przypadków obliczona została wartość D estymatora błędu wyznaczania punktów charakterystycznych załamków. Następnie poszczególne wartości D zostały uśrednione w zbiorze sygnałów. 60 Średni błąd lokalizacji punktów charakterystycznych EKG i wartość estymatora jakości parametrów diagnostycznych 50 Wartość błędu lokalizacji [ms] 40 30 20 10 0 0-250 Hz 0-200 Hz 0-150 Hz 0-100 Hz 0-50 Hz P_ONSET P_END QRS_ONS QRS_END T_END D Pasmo sygnału EKG modyfikowane filtrem Rys. 1. Rezultaty testów estymatora jakości parametrów diagnostycznych EKG

Rezultaty testów estymatora jakości przeprowadzone z zastosowaniem sygnałów o zmniejszanym w sposób kontrolowany natężeniu strumienia informacji (paśmie) pozwalają przyjąć estymator D jako wiarygodny do określania jakości parametrów diagnostycznych otrzymywanych z elektrokardiogramu. Wartość współczynnika korelacji (r-pearsona) szerokości pasma i wartości estymatora D wynosząca 91,7% świadczy o dobrej reprezentacji gęstości strumienia informacji przez opisaną wielkość D. Komentarza wymaga jedynie pewna niezgodność dla pasma 0-250 Hz, z ekstrapolacji liniowej wynikają bowiem mniejsze wartości błędów lokalizacji niż otrzymane w rzeczywistości. Można wskazać co najmniej dwie przyczyny zaobserwowanej niezgodności: pasmo 0-250 Hz wynika z przyjęcia częstotliwości próbkowania sygnału, a nie z zastosowania filtru, wirtualny filtr wynikający z twierdzenia o próbkowaniu ma znacznie ostrzejsze zbocze charakterystyki niż używany filtr dolnoprzepustowy w efekcie energia składowych w paśmie 200-250Hz jest niewielka, stąd brak zdecydowanej poprawy parametrów diagnostycznych i wartości estymatora. częstotliwość próbkowania sygnałów w bazie danych CSE równa 500Hz została przyjęta w wyniku licznych prób i doświadczeń, jako najbardziej odpowiednia do przeważającej większości zastosowań elektrokardiograficznych wynika z tego, że w górnych częściach tego pasma istnieje już znacznie ograniczona ilość składowych o energiach mających wpływ na dokładność parametrów diagnostycznych. 2.3. Zbiór sygnałów testowych Źródłem sygnałów testowych była standardowa baza danych Common Standard for Quantitative Electrocardiography (CSE Multilead Database) [2] zawierająca 125 sygnałów w standardzie 12-odprowadzeniowym. Częstotliwość próbkowania wszystkich sygnałów wchodzących w skład bazy CSE wynosi 500 Hz, a rozdzielczość 16 bitów. Baza zawiera także rezultaty pomiarów załamków (punkty: P-onset, P-end, QRS-onset, QRS-end i T-end) wyznaczone z użyciem 20 programów diagnostycznych i zweryfikowane przez grupę specjalistów. Wartości średnie każdego z tych punktów są rekomendowane do stosowania jako wartości prawdziwe. Wartości punktów charakterystycznych podane są wspólnie dla wszystkich odprowadzeń rejestrujących sygnał. Z obliczeń wykluczono dwa sygnały zawierające zapis z użyciem kardiostymulatora, 20 sygnałów zawierających zapis zakłócony lub reprezentujący zmiany odcinka ST oraz 11 sygnałów, w których załamek P nie wystąpił (zespół QRS był pochodzenia komorowego). Ostatecznie, liczba sygnałów na których możliwe było wyznaczenie estymatora jakości D, wymagające z definicji wyznaczenia wszystkich punktów charakterystycznych P-onset, P- end, QRS-onset, QRS-end i T-end wynosiła 89. Określenia punktów charakterystycznych dokonywano z użyciem algorytmu stosowanego od kilku lat w praktyce klinicznej stanowiącego oprogramowanie systemowe automatycznego elektrokardiografu. Zostało ono udostępnione (w postaci "czarnej skrzynki") przez firmę Aspel. Z uwagi na dostosowanie algorytmu do częstotliwości próbkowania 500 Hz, niemożliwe było użycie go do innych sygnałów, z czego wynika sposób redukcji natężenia strumienia informacji przez filtrację dolnoprzepustową, a nie (co wydaje się bardziej naturalne) przez podpróbkowanie. Niejako przy okazji stwierdzono spełnienie przez używany algorytm norm określonych przez komitet CSE.

2.4. Wybór odwracalnej transformacji falkowej Przekształcenie sygnału do dziedziny czasowo-częstotliwościowej oraz odwrotne przekształcenie zmodyfikowanej powierzchni czasowo-częstotliwościowej do dziedziny czasu zrealizowano z użyciem odwracalnej transformacji falkowej. Istotnie pożądane było użycie transformacji wykorzystującej filtry o nośniku zwartym, gdyż od długości niezerowej części filtrów zależała długość atomów powierzchni czasowoczęstotliwościowej i precyzja lokalizacji energii w dziedzinie czasu. Ponieważ własności elektrokardiogramu zostały zdefiniowane w oparciu o wyznaczone wcześniej punkty charakterystyczne załamków, celowe wydaje się zatrzymanie dekompozycji po osiągnięciu przez atomy powierzchni czasowo-częstotliwościowej długości porównywalnej z długościami załamków. W opisywanym eksperymencie numerycznym przyjęto granicę dekompozycji na trzecim poziomie. Dzięki temu uzyskano cztery zakresy częstotliwościowe: 0 32 Hz, 32 64 Hz, 64 125 Hz oraz 125 250 Hz. Jednocześnie okres odpowiadający najniższej częstotliwości podziału wynoszący 33 ms jest na pewno krótszy od jakiejkolwiek odległości pomiędzy punktami charakterystycznymi elektrokardiogramu. Drugą własnością funkcji falek analizujących pożądaną w opisywanym zastosowaniu była jak najlepsza separacja sąsiednich zakresów częstotliwościowych, opisywana jako stromość nachylenia zboczy widmowych charakterystyk filtrów. Jest to własność przeciwstawna do wymagania zwartości nośnika i bardzo łatwo można zwiększając długość falki analizującej osiągnąć bardzo dużą dobroć filtrów. W granicy, długość falki jest nieskończona a analiza jest równoważna klasycznej transformacji Fouriera. Ponieważ dla lokalizacji atomów powierzchni czasowo-częstotliwościowej niemożliwe jest dowolne wydłużanie nośnika funkcji filtru, dlatego przy założonej długości nośnika wybrano falkę charakteryzującą się największą stromością zboczy. Trzecią własnością stosowanego przekształcenia wymaganą w zastosowaniach filtracji w dziedzinie czasowo-częstotliwościowej jest ortogonalność funkcji filtrów. Zastosowanie ortonormalnych funkcji analizujących (falek) zapewnia ścisłe odwzorowanie informacji oraz zachowanie energii sygnału podczas przekształcenia go do dziedziny czasowoczęstotliwościowej oraz podczas przekształcenia odwrotnego. W zastosowaniach do filtracji własność ta jest szczególnie istotna, zapewnia bowiem, że wszystkie zmiany wynikowej postaci czasowej sygnału są następstwem jedynie manipulacji dokonanych na powierzchni czasowo-częstotliwościowej. Mając na uwadze powyższe argumenty zdecydowano wykorzystać w opisywanym eksperymencie falkę V rzędu Daubechies [3] spełniającą wszystkie pożądane postulaty. Składa się ona z dwóch filtrów ortonormalnych o następujących współczynnikach (rys. 2): fdp fgp Rys. 2. Współczynniki transmitancji dolnoprzepustowego (fdp) i górnoprzepustowego (fgp) filtru (falki) Daubechies r = 5 rzędu. Nośnik tej falki składa się z 2*r niezerowych współczynników.

Warto zauważyć, że wszystkie pozostałe współczynniki są dokładnie zerowe, nie ma więc podstaw do obawy o zniekształcenia wynikłe z zaokrąglania, co charakteryzuje ucyfrowione filtry analogowe nie posiadające nośnika zwartego. 2.5. Metoda eliminacji współczynników powierzchni czasowo-częstotliwościowej Rezultatem przekształcenia sygnału elektrokardiograficznego z bazy CSE, reprezentującego jedną ewolucję serca, do dziedziny czasowo-częstotliwościowej jest powierzchnia czasowo-częstotliwościowa, której współczynniki (liczby rzeczywiste) reprezentują energię poszczególnych komponentów sygnału. Komponenty te są zwyczajowo zwane atomami, co symbolizuje ich niepodzielność w dziedzinie czasu wynikającą z zasady nieoznaczoności Heisenberga, a w dziedzinie częstotliwości z twierdzenia o próbkowaniu (Shannona). W celu wykazania niejednorodności strumienia informacji w sygnale EKG a dzięki zastosowaniu przekształcenia ortogonalnego również w jego powierzchni czasowoczęstotliwościowej przeprowadzono eliminację (przyrównanie do zera) wybranych losowo komponentów sygnału. Zastosowano swa schematy eliminacji: eliminację 6 losowo wybranych współczynników czasowo-częstotliwościowych oktaw 1...3 (32... 250 Hz) bez ograniczeń lokalizacji na osi czasu (rys. 3). eliminację 6 losowo wybranych współczynników czasowo-częstotliwościowych oktaw 1...3 (32... 250 Hz) położonych w oknie o długości 64 ms przesuwanym wzdłuż osi czasu (rys.4). Ilość eliminowanych współczynników dobrano tak, aby nie przekraczała połowy współczynników w oknie czasowym o danej długości. Wybór długości okna czasowego był z kolei podyktowany chęcią uzyskania jak największej precyzji lokalizacji zmian gęstości strumienia informacji. W bardzo krótkim oknie ilość współczynników byłaby jednak niewielka (zwłaszcza dotyczy to niższych zakresów częstotliwości) i losowość ich eliminacji - dyskusyjna. Rys.3. Eliminacja 6 losowo wybranych współczynników czasowo-częstotliwościowych oktaw 1...3 (32... 250 Hz) bez ograniczeń lokalizacji na osi czasu

Dla eliminacji prowadzonej bez ograniczeń czasowych wykonano 25 doświadczeń, a dla każdej pozycji okna eliminacji wykonano po 5 doświadczeń polegających na wyzerowaniu losowo wybranych współczynników dla wszystkich sygnałów, a następnie transformacji zmodyfikowanych powierzchni czasowo-częstotliwościowych do dziedziny czasu, zautomatyzowanej obróbce algorytmem wyznaczającym położenie punktów początkowych i końcowych załamków i wreszcie obliczeniu uśrednionej w zbiorze sygnałów wartości estymatora D jakości parametrów diagnostycznych EKG. Spodziewanym rezultatem była istotna współzmienność wartości estymatora D oraz położenia okna eliminacji, co uzasadniałoby tezę o istnieniu mniej i bardziej istotnych diagnostycznie partii sygnału EKG. Dodatkowo, normalizacja funkcji D(t) pozwoli określić "funkcję istotności diagnostycznej" poszczególnych partii sygnału elektrokardiograficznego. Rys. 4. Eliminacja 6 losowo wybranych współczynników czasowoczęstotliwościowych oktaw 1...3 (32... 250 Hz) położonych w oknie o długości 64 ms przesuwanym wzdłuż osi czasu 3. REZULTATY Wykonany eksperyment numeryczny doprowadził do uzyskania następujących rezultatów: W wyniku eliminacji 6 losowo wybranych współczynników czasowoczęstotliwościowych oktaw 1...3 (32... 250 Hz) bez ograniczeń lokalizacji na osi czasu otrzymywano przeważnie pogorszenie jakości parametrów diagnostycznych EKG reprezentowane wzrostem wartości estymatora jakości D o średnio 8,3% w porównaniu z wartością otrzymaną przed zubożeniem sygnału. Wartości względne estymatora jakości w kolejnych próbach przedstawia rysunek 5. W jednym przypadku otrzymano poprawę jakości parametrów diagnostycznych w wyniku zubożenia sygnału. Sytuacja taka może mieć miejsce np. w wyniku usunięcia składowej zakłócającej w pobliżu punktu charakterystycznego, przez co lokalizacja jego położenia jest bliższa wartości prawdziwej po zubożeniu sygnału.

Procentowy przyrost estymatora D (wartości ujemne oznaczają poprawę dokładności) Wykres procentowego przyrostu estymatora D jakości parametrów diagnostycznych EKG po eliminacji współczynników powierzchni czasowo-częstotliwościowej 16 14 12 10 8 6 4 2 0-2 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19202122 23 24 25 26 Numer próby Rys. 5. Wartości względnego przyrostu estymatora jakości D w kolejnych próbach eliminacji współczynników bez ograniczeń lokalizacji na osi czasu. 100 Wykres funkcji średniego procentowego przyrostu estymatora D jakości parametrów diagnostycznych EKG po eliminacji współczynników powierzchni czasowo-częstotliwościowej od położenia okna eliminacji P QRS T Procentowy przyrost estymatora D 80 60 40 20 0 0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 Położenie okna eliminacji (jednostka czasu odpowiada 32 ms) Rys. 6. Wartość funkcji średniego procentowego przyrostu estymatora D od położenia okna eliminacji. Na rysunku zaznaczono dodatkowo uśrednione w zbiorze sygnałów położenia punktów charakterystycznych załamków.

Zubożenie sygnału w sposób zorganizowany poprzez eliminację 6 losowo wybranych współczynników czasowo-częstotliwościowych oktaw 1...3 (32... 250 Hz) położonych w oknie o długości 64 ms przesuwanym wzdłuż osi czasu doprowadziło do uzyskania zależności czasowej przyrostu estymatora jakości od położenia okna. Położenie okna było zmieniane co 32 ms, co odpowiada długości atomu powierzchni czasowoczęstotliwościowej dla 3 (najniższej) oktawy. Otrzymano w ten sposób 27 pozycji okna uśredniania odpowiadającej średniemu czasowi ewolucji serca równemu 865 ms (tętno 70/min). Dla każdej pozycji okna wykonano 5 prób eliminacji, podczas każdej z nich wybierając losowo 6 współczynników spośród 14 zawierających się w oknie. Uśredniając wyniki otrzymane w wyniku obliczenia wartości estymatora D dla każdej z pięciu prób i porównując z wartością D obliczoną przed uśrednieniem sygnału, otrzymano wartości procentowego przyrostu niedokładności parametrów diagnostycznych dla każdej pozycji okna. Wartości te określają stopień wrażliwości parametrów diagnostycznych na lokalne zniekształcenia informacji w zależności od lokalizacji strefy zniekształceń.. 4. DYSKUSJA I WNIOSKI W wyniku przeprowadzonego eksperymentu numerycznego wykazano niejednakową zawartość diagnostyczną sygnału EKG w dziedzinie czasu. Wskazane zostały lokalizowane względem punktów początkowych i końcowych załamków - strefy mniej i bardziej wrażliwe na zakłócanie informacji zawartej w sygnale. Jest to równoznaczne ze zmiennością istotności diagnostycznej wzdłuż osi czasu. Do istotnych nowości w zakresie poznania natury sygnału EKG należą ponadto: sformułowanie i przetestowanie własności estymatora D jakości parametrów diagnostycznych EKG. Parametr ten odpowiada założeniom komitetu CSE. wyliczenie w oparciu o sygnały standardowe z bazy danych zależności czasowej uśrednionej wartości estymatora D od czasu. Wykazanie niejednorodności gęstości strumienia informacji w elektrokardiogramie ma szereg daleko idących konsekwencji: funkcja gęstości informacji diagnostycznej (obliczona przez normalizację przedstawionej na rys. 6 funkcji średniego procentowego przyrostu estymatora D(t)) jest podstawą modyfikacji charakterystyk kompresji dedykowanej dla elektrokardiografii [4]. funkcja gęstości informacji diagnostycznej może być użyta w roli szeregu współczynników wagowych przy obliczaniu zniekształceń przebiegu EKG. Fakt, że nie jest to funkcja stała podważa zasadność stosowania rozpowszechnionych metod pomiarów zniekształceń w rodzaju np. różnicy średniokwadratowej (PRD), która nie uwzględnia lokalnych wahań istotności sygnału. LITERATURA [1] Dąbrowski A., Dąbrowska B., Piotrowicz R. "Elektrokardiografia Holterowska" Wydawnictwa Medyczne Warszawa 1994 [2] Willems J. L "Common Standards for Quantitative Electrocardiography" 10 th CSE Progress Report, 1990. Leuven: ACCO publ., 1990, 384p. [3] Daubechies I. "Ten lectures on wavelets" CBMS-NSF conference series in applied mathematics. SIAM Ed, 1992, [4] Augustyniak P. "Odrębna Kompresja Wyższych Oktaw Elektrokardiogramu" w mat. XI konferencji Biocybernetyka i Inżynieria Biomedyczna, Warszawa 02-04.12.1999 r.