DOI: 10.15199/13.2016.2.8 Klasyfikacja wzrokowych potencjałów wywołanych w oparciu o dekompozycję wielorozdzielczą i sieć SVM (Classification of visual evoked potentials based on the multiresolution decomposition and SVM network) dr hab. inż. ANDRZEJ P. DOBROWOLSKI Wojskowa Akademia Techniczna, Wydział Elektroniki, Warszawa Streszczenie W elektrofizjologicznym badaniu wzroku najczęściej wykorzystuje się wzrokowe potencjały wywołane, które charakteryzują się kolejno ułożonymi w funkcji czasu ekstremami, zwanymi falami lub załamkami. Morfologia przebiegu, a w szczególności zależności czasowe i amplitudowe poszczególnych fal, umożliwiają neurologowi postawienie diagnozy, co nie jest zadaniem prostym. Wymaga od neurologa doświadczenia, skupienia uwagi i bardzo dobrej percepcji. W celu wsparcia procesu diagnostycznego autor opracował algorytm realizujący zautomatyzowaną klasyfikację słuchowych potencjałów wywołanych do grupy przypadków patologicznych lub prawidłowych. Czułość metody w 100 osobowym zbiorze przypadków określono na 94%, przy 16% prawdopodobieństwie fałszywego alarmu, co z medycznego punktu widzenia jest wynikiem satysfakcjonującym. Słowa kluczowe: inżynieria biomedyczna, wzrokowe potencjały wywołane, dekompozycja falkowa, sieć wektorów nośnych Abstract In electrophysiological examination of sight are most often used visual evoked potentials which are characterized by extremes, called waves, successively arranged on timeline. Morphology of the waveforms, in particular, the timing and amplitude of each wave, allow neurologist diagnosis, which is not an easy task. Neurologist requires experience, attention and very good perception. In order to support the diagnostic process, the author have developed an algorithm implementing the automated classification of visual evoked potentials to the group of pathological or physiological cases. For a set of cases numbering 100 people, the sensitivity of the method is 94%, with 16% probability of false alarm. The obtained result is satisfactory from a medical point of view. Keywords: biomedical engineering, visual evoked potentials, wavelet decomposition, support vector machine Przewodnictwo nerwowe odbywa się dzięki złożonym procesom elektrochemicznym, a każdemu przenoszonemu sygnałowi odpowiada tzw. potencjał czynnościowy, który można rejestrować stosując odpowiednie techniki elektroneurograficzne. Do celów diagnostycznych wykonuje się badania elektroencefalograficzne, które pozwalają na ocenę funkcjonowania dużych zespołów włókien nerwowych oraz wybranych ośrodków korowych mózgu [1]. Szczególnym rodzajem badań elektroencefalograficznych są badania tzw. potencjałów wywołanych (ang. evoked potentials). Badania te polegają na rejestracji napięcia pomiędzy elektrodami umieszczonymi w różnych punktach na powierzchni głowy, po zadziałaniu fizycznych bodźców drażniących receptory słuchowe, wzrokowe, czuciowe lub znacznie rzadziej węchowe. Badania obejmują rejestracje odpowiedzi od receptorów, poprzez poszczególne fragmenty traktu nerwowego, aż po ośrodki korowe mózgu. Niniejszy artykuł koncentruje się na wzrokowych potencjałach wywołanych WPW (ang. VEP Visual Evoked Potentials), które generowane są w ośrodkach wzrokowych kory mózgowej w odpowiedzi na bodziec świetlny. Przebiegi wzrokowych potencjałach wywołanych niosą informację o całej drodze wzrokowej od siatkówki oka, aż do struktur korowych i są wypadkową zsynchronizowanej z działaniem bodźca aktywności milionów neuronów korowych. Analiza kształtu WPW, pozwala na zbadanie drogi dośrodkowej bodźców i umiejscowienie powstałego uszkodzenia w obrębie ośrodkowego układu nerwowego [2]. Podczas badań stosuje się jedną z dwóch metod stymulacji wzroku, tj. albo stymulację błyskową (FVEP ang. Flash VEP) albo stymulację przełączanym z częstotliwością 1 2 Hz wzorcem czarno-białej szachownicy (PVEP ang. Pattern VEP). W ramach niniejszego artykułu ograniczono się do wariantu stymulacji wzorcem szachownicy, który stosowany jest z reguły do oceny funkcji nerwu wzrokowego bądź zróżnicowania nerwowych i siatkówkowych przyczyn pogorszenia lub utraty widzenia. Najczęściej badanie takie wykonywane jest w przypadku podejrzenia stwardnienia rozsianego, ponieważ nerwy wzrokowe należą do miejsc najwcześniej i najczęściej zajmowanych, a także jaskry, zapalenia nerwu wzrokowego oraz neuropatii nerwu wzrokowego o różnej etiologii. Badanie wzrokowych potencjałów wywołanych zilustrowane jest na rys. 1. Na środku pokazano rozmieszczenie elektrod na głowie pacjenta, oraz stymulujący obraz, natomiast w górnej i dolnej części wzrokowe potencjały wywołane z zaznaczonymi załamkami (zwanymi często falami) N75, P100 i N145, zarejestrowane odpowiednio dla oka lewego i prawego. Niezależnie od intensywności bodźców stymulujących potencjały wywołane rejestrowane na powierzchni głowy mają bardzo niskie poziomy (3-25 µv) w stosunku do innych sygnałów o charakterze szumowym (do 100 µv), dlatego w celu ich wyizolowania stosuje się technikę synchronicznego uśredniania bardzo dużej liczby odpowiedzi na sekwencję bodźców wzrokowych. Odpowiedź odbiera się przy użyciu elektrod powierzchniowych umieszczonych w okolicy kory wzrokowej płatów potylicznych w punkcie Oz. Elektroda odniesienia Mz jest położona w okolicy czołowej przedniej, a uziemiająca w punkcie Cz (na wierzchołku głowy). Potencjał kształtem przypomina literę V i zwykle jest trójfazowy. Składa się z załamka ujemnego N75, pochodzącego z aksonów promienistości wzrokowej, przenoszących sygnał od siatkówki oka do kory wzrokowej, załamka dodatniego P100, odzwierciedlającego aktywność neuronów kory wzrokowej oraz z załamka ujemnego N145 będącego efektem depolaryzacji kory wzrokowej [3]. 42
Rys. 1. Badanie naprzemiennym wzorcem szachownicy Fig. 1. Pattern VEP examination Za najbardziej niezmienną i charakterystyczną składową wzrokowego potencjału wywołanego uznaje się dodatni załamek P100. Jego kształt jest zależny od funkcjonowania całej drogi wzrokowej poczynając od siatkówki oka, a kończąc na korze wzrokowej. Poza nim analizuje się ujemne załamki N75 i N145 [2]. Na styku techniki i medycyny bardzo ważne okazuje się uzgodnienie terminologii, dlatego że bardzo często te same pojęcia w obu tych obszarach nazywane są różnie i przeciwnie jednakową nazwą określa się różne wielkości. Przykładowo maksima przebiegu noszą nazwę załamków ujemnych, a minima dodatnich (stąd nazwy załamków N ang. Negative i P ang. Positive), przy czym liczba następująca po literze N lub P oznacza opóźnienie liczone w ms w stosunku do momentu wystąpienia bodźca (czyli latencję) w warunkach normalnych. Z kolei amplituda załamka definiowana jest jako różnica między wartością ekstremalną tego załamka i wartością ekstremalną załamka poprzedzającego, zaś latencja jest to czas jaki upłynął od wystąpienia pobudzenia do wystąpienia ekstremum danego załamka. Diagnoza stawiana jest przez neurologa w oparciu o subiektywną interpretację przebiegów wzrokowych potencjałów wywołanych oraz wartości parametrów czasowych i amplitudowych wyznaczanych w oparciu o położenie kursorów, które mogą być korygowane ręcznie. Diagnoza zależy więc istotnie od doświadczenia neurologa, jego koncentracji i percepcji. Interpretacja wyników może być więc różna w zależności od osoby analizującej przebiegi potencjałów wywołanych. W celu wsparcia procesu diagnostycznego opracowano przedstawiony w niniejszym artykule algorytm realizujący zautomatyzowaną klasyfikację słuchowych potencjałów wywołanych do grupy przypadków patologicznych i fizjologicznych. Charakterystyka zebranych przypadków klinicznych W pilotażowym etapie badań zbudowano bazę danych zawierającą przebiegi wzrokowych potencjałów wywołanych, zarejestrowane w grupie osób zdrowych i chorych z objawami uszkodzenia wzroku o różnej etiologii. W celu pozyskania wystarczającej liczby zapisów wzrokowych potencjałów wywołanych przeprowadzono szereg badań klinicznych zgodnie z obowiązującymi normami medycznymi. Rejestracje wzrokowych potencjałów wywołanych były przeprowadzone w Klinice Neurologicznej Wojskowego Instytutu Medycznego w Warszawie. Pracownia wyposażona jest w wysokiej klasy sprzęt neurodiagnostyczny Nicolet VikingSelect firmy CareFusion. Kluczowe, z punktu widzenia jakości rejestracji biosygnałów, wejściowe wzmacniacze pomiarowe, charakteryzują się następującymi parametrami: Kanały: 4 kanały z wejściem symetrycznym; Czułość: od 1 µv/dz. do 10 mv/dz. w 13-tu krokach; Impedancja wejściowa: > 1 GΩ; Współczynnik tłumienia sygnału wspólnego: > 110 db dla częstotliwości sieci zasilającej (50/60 Hz) oraz > 100 db dla 10 khz; Filtr górnoprzepustowy: cyfrowy, jedno lub dwubiegunowy, z regulowaną dolną częstotliwością graniczną 0,2, 1, 2, 10, 20, 30, 150, 500 Hz, 1, 2, 5 khz; Filtr dolnoprzepustowy: cyfrowy, dwubiegunowy, z regulowaną górną częstotliwością graniczną 100, 250, 500 Hz, 1, 1,5, 3, 10, 20 khz; Poziom szumu: < 0,7 µv RMS w paśmie od 2 Hz do 10 khz. Autokalibracja: impuls prostokątny o regulowanej amplitudzie 2, 20, 200 µv, 2, 20 mv. Autor artykułu podjął się zadania opracowania automatycznego analizatora przebiegów wzrokowych potencjałów wywołanych, bazującego na surowych danych otrzymywanych bezpośrednio z karty pomiarowej, bez naniesionych przez diagnostę markerów oznaczających poszczególne załamki. Poważną przeszkodą na tym etapie okazały się urządzenia medyczne rejestrujące potencjały wywołane i zapisujące je do plików binarnych o nieznanym powszechnie formacie. Mimo problemów z pozyskaniem informacji o sposobie zapisu danych, ostatecznie została jednak opracowana wtyczka programowa (plug-in) umożliwiająca konwersję danych z plików binarnych systemu Nicolet VikingSelect [4, 5]. Badania przeprowadzono w grupie 100 osób obu płci, w wieku od 22 do 74 lat. W oparciu o diagnozę postawioną przez neurologa grupę podzielono na dwie równoliczne podgrupy: pierwszą zawierającą przypadki prawidłowe i drugą zawierającą przypadki patologiczne. Z każdego badania pozyskano po jednym reprezentatywnym zapisie WPW. Wszystkie rejestracje przetwarzane w dalszym ciągu procesu badawczego zostały zanonimizowane. Ze zbioru 100 zarejestrowanych sygnałów WPW wylosowano próbę uczącą (po 35 sygnałów z każdej podgrupy) oraz próbę testującą (po 15 sygnałów z każdej podgrupy). W celu ilustracji różnic miedzy przebiegami, na rys. 2 przedstawiono po pięć reprezentatywnych znormalizowanych przebiegów z grupy prawidłowej i patologicznej. Rys. 2. Przykładowe przebiegi WPW Fig. 2. Examples of VEP waveforms 43
Generacja i selekcja cech dystynktywnych Po przygotowaniu zbioru sygnałów dokonano wstępnej analizy w celu opracowania optymalnej metody generacji cech dystynktywnych. Poszukiwane cechy powinny umożliwiać jak najwierniejszą rekonstrukcję sygnału z jak najmniejszego ich zbioru, bo wówczas małą liczba cech niesie większość informacji diagnostycznej, a jednocześnie charakteryzować się jak największą zdolnością dyskryminacyjną. Próba wykorzystania deskryptorów otrzymanych w wyniku analizy widmowej nie przyniosła oczekiwanych skutków [6], więc opierając się na wcześniejszych badaniach [4, 5, 7 9], ekstrakcji cech dokonano za pomocą dyskretnej transformacji falkowej (ang. DWT ang. Discrete Wavelet Transform) [10], natomiast klasyfikację przebiegów przeprowadzono przy użyciu liniowej sieci SVM (ang. Support Vector Machine) [11]. Ze względu na szybkość przeprowadzania dekompozycji oraz rekonstrukcji sygnału, umożliwiającą bieżącą kontrolę działania algorytmu, zdecydowano się na dekompozycję falkową realizowalną algorytmem Mallata [12] na bazie falek ortogonalnych o zwartym nośniku. Do wstępnej selekcji wybrano falki Daubechies rzędu od 1 do 10, Symlet rzędu od 2 do 8 i Coiflet rzędu 1 5. W iteracyjnym procesie optymalizacyjnym korzystając z wielu metod eksploracji danych, m.in. z kryterium Fishera, obrazowania PCA (ang. Principal Component Analysis) oraz analizy LDA (ang. Linear Discriminant Analysis) opracowano sposób synchronizacji dekomponowanych przebiegów z siatką czasowo-częstotliwościową (właściwie: siatką czas-skala), zoptymalizowano typ i rząd użytej falki oraz liczbę poziomów dekompozycji, a następnie dokonano selekcji cech. Podlegający ocenie diagnostycznej przebieg wzrokowego potencjału wywołanego, o czasie trwania 250 ms, liczy 1000 próbek pobieranych z szybkością 4 tys. próbek na sekundę. Kluczowym rozwiązaniem, które znacząco poprawiło osiągane rezultaty, było zawężenie zakresu analizy do przedziału czasowego skoncentrowanego wokół załamka P100, tzn. do zakresu 50 150 ms. Analizując sygnały wyjściowe kilku różnych testowanych klasyfikatorów (PCA, LDA i SVM) oceniono, że wystarczającą informację dyskryminacyjną niosą detale na poziomach od szóstego do ósmego, przy zastosowaniu falki Daubechies czwartego rzędu. Po przeprowadzeniu szeregu eksperymentów przyjęto z nadmiarem początkowy zbiór cech dystynktywnych utworzony z trzech grup złożonych z ośmiu wartości maksymalnych skalogramu na szóstym, siódmym i ósmym poziomie dekompozycji. Niższe poziomy związane ze składowymi o większych częstotliwościach miały charakter szumowy i nie wnosiły istotnej informacji diagnostycznej. Ostatecznie otrzymano więc 24 cechy dystynktywne, które następnie poddano procedurze selekcji, ponieważ użycie maksymalnego zestawu cech najczęściej nie prowadzi do najlepszych wyników, gdyż nie wszystkie cechy są jednakowo ważne w procesie rozpoznania wzorców. Wśród wyekstrahowanych cech pewne mogą mieć postać szumu pomiarowego pogarszającego możliwości poprawnej klasyfikacji, natomiast inne cechy są silnie skorelowane i mogą zwykle niekorzystnie wpływać na jakość klasyfikacji dominując nad innymi i tłumiąc w ten sposób ich korzystny wpływ [13]. Ważnym elementem procesu staje się zatem właściwa selekcja cech, pozwalająca na utworzenie optymalnego wektora cech umożliwiającego możliwie najlepszą rozróżnialność klas. W badaniu jakości cech można wyróżnić dwie strategie. W pierwszej bada się każdą cechę niezależnie od zastosowanej metody klasyfikacji, oceniając jej jakość pod kątem różnicowania klas bez uwzględnienia konkretnego klasyfikatora. 44 Druga to selekcja oparta na ścisłej współpracy z klasyfikatorem. W prezentowanej pracy zastosowano równolegle obie strategie, starając się w końcowej fazie selekcji zapewnić minimalizację liczby wektorów nośnych, w klasyfikatorze SVM, bez pogarszania wyników klasyfikacji w zbiorze uczącym. Jedną z głównych zalet stosowania sieci SVM jest uzyskanie klasyfikatora o największej zdolności generalizacji przyjmuje się, że sieć SVM w roli klasyfikatora w zdecydowanej większości zadań jest obecnie bezkonkurencyjna [13], co zostanie zilustrowane w kolejnym podrozdziale. Klasyfikacja W ostatnim etapie badań dokonano selekcji cech i ustalono ich ostateczny zbiór, który posłużył do budowy finalnego klasyfikatora. W trakcie badań monitorowano miarę Vapnika-Chervonenkisa VCdim, która została zdefiniowana, jako liczebność n największego zbioru wzorców, dla których system może zrealizować wszystkie możliwe 2 n dychotomii tego zbioru (podziału zbioru na dwie części za pomocą prostej). VCdim odgrywa istotna rolę przy określaniu minimalnej liczby danych uczących p, gdyż dla uzyskania dobrej generalizacji musi być spełniony warunek p >> VCdim (1) Przyjmuje się, że podczas klasycznego uczenia sieci neuronowej dobre rezultaty generalizacji otrzymuje się zawsze, jeżeli liczba danych uczących jest co najmniej 10 razy większa niż miara VCdim. Oczywiście bywa, że udaje się to przy liczbie p dużo mniejszej. W przypadku sieci SVM: 2 D VCdim min, (2) 1 2 N + ρ gdzie: N wymiar wektora cech, funkcja entier zwraca najmniejszą liczbęcałkowitą większą/równą od argumentu, D średnica najmniejszej kuli w przestrzeni N-wym. obejmującej wszystkie wektory uczące, ρ szerokość marginesu separacji. Powyższa nierówność potwierdza, że możliwe jest sterowanie wartością miary VCdim uniezależniając ją od wymiaru N przestrzeni cech, poprzez zastosowanie szerokiego marginesu [13]. Dla sieci SVM w roli klasyfikatora szacuje się często górną granicę prawdopodobieństwa błędnej klasyfikacji, jako stosunek liczby wektorów nośnych do ogólnej liczby danych uczących pomniejszonej o jeden; stąd dla zwiększenia zdolności generalizacyjnych dąży się do zmniejszenia liczby wektorów nośnych nawet kosztem zwiększenia liczby błędnych klasyfikacji w zbiorze uczącym [13]. Korzystając z metody kroswalidacji w wariancie Leave-One-Out, można oszacować błąd testowania poprzez usunięcie jednego z punktów uczących, ponowne wytrenowanie sieci na pozostałych (p 1) punktach oraz przetestowanie na punkcie usuniętym, a następnie iteracyjne powtórzenie uczenia i testowania, dla wszystkich punktów uczących. Z zasady działania sieci SVM wynika, że usuwanie dowolnych punktów uczących, które nie są wektorami nośnymi nie ma wpływu na położenie hiperpłaszczyzny decyzyjnej oraz, że w najgorszym razie może się zdarzyć, że każdy wektor nośny będzie związany z błędnie sklasyfikowanym punktem. Liczba błędnych klasyfikacji wektora testowego w pojedynczej iteracji może być równa zero, gdy wykluczony i testowany jest wektor nie będący wektorem nośnym wyznaczonym na pełnym zbiorze uczącym albo zero lub jeden, w przypadku, gdy wykluczony został wektor będący wektorem nośnym wy-
znaczonym na pełnym zbiorze uczącym, a zatem sumaryczna liczba błędów we wszystkich p iteracjach nie przekroczy liczby wektorów nośnych wyznaczonych na pełnym zbiorze uczącym. Odniesienie takiej liczby błędów do pełnej liczby przykładów uczących dałoby jednak obciążony estymator błędu testowania. Ponieważ w istocie sieć trenowana jest zbiorem o liczebności (p 1), lepszym oszacowaniem błędu testowania jest popularna i prosta zależność [14] Nsv p Et max = (3) p 1 gdzie N sv p oznacza liczbę wektorów nośnych określoną na pełnym p-elementowym zbiorze uczącym. Z zależności (3) wynika, że ograniczanie liczby wektorów nośnych, zmniejsza górne oszacowanie błędu klasyfikacji na danych testujących. W związku z tym, w celu poprawy generalizacji sieci SVM należy minimalizować liczbę wektorów nośnych, nawet kosztem ograniczenia liczby prawidłowych klasyfikacji na zbiorze uczącym. Traktując ten fakt, jako kryterium optymalizacji zredukowano liczbę cech z 24 do 14, a liczbę wektorów nośnych do 19, przy czterech błędach klasyfikacji w grupie uczącej. Górne oszacowanie błędu klasyfikacji otrzymanego klasyfikatora SVM na danych testujących zgodnie z (3) wynosi więc 28%. W celu ilustracji otrzymanego rozwiązania, na rys. 3 przedstawiono zobrazowanie wyekstrahowanych 14-to wymiarowych wektorów reprezentujących przebiegi wzrokowych potencjałów wywołanych z grupy uczącej, w przestrzeni trzech najważniejszych składników głównych PCA. Natomiast na rys. 4 pokazano możliwość zastosowania klasyfikatora opartego o LDA. Na rysunku 3 niebieskie prostokąty oznaczają przypadki prawidłowe, natomiast czerwone kółka przypadki patologiczne. Widać, że oba zbiory grupują się w pewnych obszarach, ale nie są to obszary rozłączne. Informacja pozostająca w pozostałych składowych przekształcenia PCA daje jednak szansę na rozdzielenie obu zbiorów. Z kolei na rys. 4 przedstawiono wszystkie przypadki zrzutowane na prostą określającą optymalny kierunek wyznaczony za pomocą liniowej analizy dyskryminacyjnej (LDA). Na rys. 4 jest to oś odciętych. Z kolei na osi rzędnych, dla poprawy czytelności, przypadkom prawidłowym przypisano wartość 0 (niebieskie romby), natomiast Rys. 3. Zobrazowanie danych w przestrzeni otrzymanej po przekształceniu PCA Fig. 3. Data visualization in space resulting from the transformation of PCA Rys. 4. Zobrazowanie danych po przekształceniu LDA Fig. 4. Visualization of the data after the transformation of LDA patologicznym wartość 1 (czerwone kółka). Gdybyśmy ustalili próg decyzyjny na wartości zero (szara linia pionowa), to otrzymalibyśmy cztery błędne klasyfikacje przypadków prawidłowych i cztery błędne klasyfikacje przypadków patologicznych. Zgodnie z oczekiwaniami najlepszą jakością wykazał się klasyfikator oparty na sieci wektorów podtrzymujących, generując w zbiorze uczącym tylko cztery błędy, tj. trzy błędnie zaklasyfikowane przypadki prawidłowe i jeden błędnie zaklasyfikowany przypadek patologiczny. Korzystając z liczącego 30 niezależnych przypadków zbioru testowego, przetestowano opracowany klasyfikator SVM, otrzymując pięć niewłaściwie zaklasyfikowanych przebiegów prawidłowych oraz dwa niewłaściwie zaklasyfikowane przebiegi patologiczne, co daje błąd całkowity w grupie testowej równy 23%, potwierdzając oszacowanie (3). W celu oceny jakości klasyfikatora oprócz błędu całkowitego bądź jego dopełnienia czyli dokładności klasyfikacji, w środowisku medycznym stosuje się dwa kolejne parametry, tj. czułość i specyficzność zwaną też swoistością. Dla przedstawionego klasyfikatora, w pełnym 100-osobowym zbiorze pacjentów, otrzymano następujące wartości parametrów określających dokładność diagnozy: Czułość (ang. Sensitivity) TP 47 SE = = = 94% (4) TP + FN 50 gdzie: TP (ang. True Positive) określa liczbę prawidłowo wykrytych przypadków patologicznych, a FN (ang. False Negative) liczbę przypadków patologicznych błędnie zaliczonych do grupy przypadków prawidłowych. Innymi słowy czułość jest to stosunek liczby prawidłowo wykrytych przypadków patologicznych do liczby wszystkich przypadków patologicznych. Specyficzność (ang. Specificity) TN 42 SP = = = 84% (5) TN + FP 50 gdzie: TN (ang. True Negative) określa liczbę prawidłowo zaklasyfikowanych przypadków prawidłowych, a FP (ang. False Positive) liczbę błędnie zaklasyfikowanych przypadków prawidłowych. Specyficzność jest więc ilorazem liczby prawidłowo zaklasyfikowanych przypadków prawidłowych do wszystkich przypadków prawidłowych. W środowisku technicznym bardziej popularnym parametrem powiązanym ze specyficznością jest prawdopodobieństwo fałszywego alarmu (ang. Probability of False Alarm), które wyraża stosunek liczby błędnie zaklasyfiko- 45
wanych przypadków prawidłowych do wszystkich przypadków prawidłowych FP PFA= = 1 SP =16% (6) TN + FP Dokładność (ang. Accuracy) wyraża udział liczby prawidłowych klasyfikacji w stosunku do liczby wszystkich przypadków Podsumowanie TP + TN 89 AC = = = 89% TP + TN + FP + FN 100 W celu wsparcia procesu diagnostycznego opracowano algorytm realizujący zautomatyzowaną klasyfikację wzrokowych potencjałów wywołanych. Do generacji zbioru cech dystynktywnych zastosowano dekompozycję falkową, a jako klasyfikator wykorzystano liniową sieć SVM. Czułość metody w 100-osobowym zbiorze przypadków określono na 94%, przy 16% prawdopodobieństwie fałszywego alarmu, co z medycznego punktu widzenia jest wynikiem satysfakcjonującym. Otrzymany w wyniku przeprowadzonych badań algorytm, po przeprowadzeniu testów w większej populacji i wykonaniu niezbędnych korekt zastosowanie zaimplementowany w już istniejącej aplikacji diagnostycznej o nazwie Software supporting diagnostics of Brainstem Auditory Evoked Potentials, która powstała w Wojskowej Akademii Technicznej przy współpracy neurologów z Wojskowego Instytutu Medycznego i wykorzystywana jest dotychczas do analizy słuchowych potencjałów wywołanych pnia mózgu [9]. Autor planuje także rozszerzenie funkcjonalności oprogramowania o predykcję konkretnych jednostek chorobowych powodujących zaburzenia morfologii przebiegu potencjałów wywołanych. (7) Literatura [1] Jaroszyk F. (red.), Biofizyka, Wydawnictwo Lekarskie PZWL, Warszawa 2011. [2] Szabela D. A., Potencjały wywołane w praktyce lekarskiej, Łódzkie Towarzystwo Naukowe, 1999. [3] Zielińska M., Potencjały wywołane w diagnostyce stwardnienia rozsianego, Polski Przegląd Neurologiczny, vol. 1(3), 2005, s. 106 113. [4] Dobrowolski A., Suchocki M., Tomczykiewicz K., Komputerowa analiza słuchowych potencjałów wywołanych pnia mózgu, Przegląd Elektrotechniczny, R. 87 NR 9a/2011, pp. 145 150. [5] Dobrowolski A., Suchocki M., Tomczykiewicz K., Digital signal processing in the diagnosis of brainstem auditory evoked potentials, Elektronika: konstrukcje, technologie, zastosowania, vol. 53, nr 5, 2012, s. 26 29. [6] Dobrowolski A., Okoń M., Spectral analysis of visual evoked potentials, Signal Processing Symposium SPSympo-2015, Dębe, 10 12.06.2015. [7] Suchocki M., Dobrowolski A., Obiektywna ocena traktu słuchowego oparta na analizie falkowej potencjałów wywołanych i sieci wektorów nośnych, Przegląd Elektrotechniczny, r. 89 nr 9/2013, s. 160 164. [8] Dobrowolski A., Wierzbowski M., Tomczykiewicz K., Multiresolution MUAPs decomposition and SVM-based analysis in the classification of neuromuscular disorders, Computer Methods and Programs in Biomedicine, vol. 107, no. 3, 2012, pp. 393 403. [9] Dobrowolski A., Suchocki M., Tomczykiewicz K., Majda-Zdancewicz E., Classification of auditory brainstem response using wavelet decomposition and SVM network, Biocybernetics and Biomedical Engineering, 2016, DOI: 10.1016/j.bbe.2016.01.003 (Article in press). [10] Daubechies I., The wavelet transform, time-frequency localizations and signal analysis, IEEE Trans. on Information Theory, vol. 36, no. 5, 1990, pp. 961 1005. [11] Burges C. J. C., A tutorial on support vector machines for pattern recognition, Data mining and knowledge discovery, vol. 2, 1998, pp. 121 167. [12] Mallat S. G., A Wavelet Tour of Signal Processing, Academic Press, 1999. [13] Osowski S., Metody i narzędzia eksploracji danych, Wydawnictwo BTC 2013. Wyd. 1. [14] Li H., Jiang T., A class of edit kernels for SVMs to predict translation initiation sites in eukaryotic mrnas, J. of Computational Biology, vol. 12(6), 2005, pp. 702 718. Intel na CES 2016 Firma Intel zaprezentowała podczas największej wystawie elektroniki użytkowej w Las Vegas (Nevada, USA 6 9 stycznia 2016 r.), znanej pod nazwą CES 2016 komputery z rodziny Compute Stick bazujące na szóstej generacji proceso- rów Intel Core M lub na najnowszych czterordzeniowych procesorach Intel Atom. Intel Compute Stick to niewielki komputer, przypominający kształtem i wielkością klasyczny pendrive. Urządzenie umożliwia zamienienie dowolnego telewizora albo monitora z HDMI we w pełni funkcjonalny komputer. Nowa wersja Intel Compute Sticka, w porównaniu z urządzeniami pierwszej generacji, zaprezentowanymi w zeszłym roku na CES, oferuje większą wydajność i lepsze możliwości graficzne oraz udostępnia dodatkowe porty USB. Taki komputer obsługuje ponadto łącza Wi-Fi i Bluetooth. Mimo iż nie wygląda jak komputer, to jest rzeczywistym komputerem. Zawiera system operacyjny, oprogramowanie wysokiej jakości grafiki i może bezprzewodowo łączyć się z innymi komputerami. Od typowego komputera zdecydowanie różnią go rozmiary. Intel Compute Sticki w obu wersjach z procesorem Intel Core M lub procesorem najnowszym, czterordzeniowych Intel Atom trafią na rynek w pierwszym kwartale br. (cr) 46