USING A PROBABILISTIC NEURAL NETWORK AND THE NEAREST NEIGHBOUR METHOD TO IDENTIFY SHIP RADIOSTATIONS

Podobne dokumenty
KLASYFIKACJA. Słownik języka polskiego

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Adrian Horzyk

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

NEURAL NETWORK ) FANN jest biblioteką implementującą SSN, którą moŝna wykorzystać. w C, C++, PHP, Pythonie, Delphi a nawet w środowisku. Mathematica.

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

Algorytm do rozpoznawania człowieka na podstawie dynamiki użycia klawiatury. Paweł Kobojek, prof. dr hab. inż. Khalid Saeed

SIEĆ GRNN W KOMPRESJI OBRAZÓW RADAROWYCH

Metody klasyfikacji i rozpoznawania wzorców. Najważniejsze rodzaje klasyfikatorów

Asocjacyjna reprezentacja danych i wnioskowanie

Klasyfikator. ˆp(k x) = 1 K. I(ρ(x,x i ) ρ(x,x (K) ))I(y i =k),k =1,...,L,

Projekt Sieci neuronowe

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

Dla naszego obiektu ciągłego: przy czasie próbkowania T p =2.

PROGNOZOWANIE CENY OGÓRKA SZKLARNIOWEGO ZA POMOCĄ SIECI NEURONOWYCH

Lekcja 5: Sieć Kohonena i sieć ART

Laboratorium optycznego przetwarzania informacji i holografii. Ćwiczenie 4. Badanie optycznej transformaty Fouriera

Politechnika Lubelska

O sygnałach cyfrowych

Metody Sztucznej Inteligencji II

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Systemy uczące się Lab 4

Samochodowy system detekcji i rozpoznawania znaków drogowych. Sensory w budowie maszyn i pojazdów Maciej Śmigielski

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

1. Podstawowe pojęcia

Zastosowania sieci neuronowych

ALGORYTMY SZTUCZNEJ INTELIGENCJI

ALGORYTM RANDOM FOREST

SZTUCZNA INTELIGENCJA

Zastosowania sieci neuronowych

METODY INŻYNIERII WIEDZY

Hierarchiczna analiza skupień

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Elementy modelowania matematycznego

Algorytmy sztucznej inteligencji

Pattern Classification

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Metody systemowe i decyzyjne w informatyce

Sztuczna inteligencja : Algorytm KNN

Demodulator FM. o~ ~ I I I I I~ V

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Data Mining Wykład 9. Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster. Plan wykładu. Sformułowanie problemu

POMIAR NAPIĘCIA STAŁEGO PRZYRZĄDAMI ANALOGOWYMI I CYFROWYMI. Cel ćwiczenia. Program ćwiczenia

Przykładowe funkcje przejścia używane przy budowie sztucznych neuronów

Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych. Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

Sieci neuronowe w Statistica

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Agnieszka Nowak Brzezińska Wykład III

AKADEMIA MORSKA KATEDRA NAWIGACJI TECHNICZEJ

Streszczenie. Słowa kluczowe: modele neuronowe, parametry ciągników rolniczych

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Badacze zbudowali wiele systemów technicznych, naśladujących w komputerze ludzki mózg. Najbardziej pożyteczne okazały się sieci neuronowe.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

P R Z E T W A R Z A N I E S Y G N A Ł Ó W B I O M E T R Y C Z N Y C H

WYKORZYSTANIE SZTUCZNYCH SIECI NEURONOWYCH W PROGNOZOWANIU

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

PL B1. Sposób i układ do modyfikacji widma sygnału ultraszerokopasmowego radia impulsowego. POLITECHNIKA GDAŃSKA, Gdańsk, PL

RAPORT Z PRAKTYKI. Zastosowanie Sztucznych Sieci Neuronowych do wspomagania podejmowania decyzji kupna/sprzedaży na rynku Forex.

8. Neuron z ciągłą funkcją aktywacji.

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Promotor: dr Marek Pawełczyk. Marcin Picz

Kwantyzacja wektorowa. Plan 1. Zasada działania 2. Projektowanie. Algorytm LBG 3. Kwantyzatory strukturalne 4. Modyfikacje

SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU)

technologii informacyjnych kształtowanie , procesów informacyjnych kreowanie metod dostosowania odpowiednich do tego celu środków technicznych.

Podstawy sztucznej inteligencji

Automatyka i Robotyka, V rok. promotor: dr Adrian Horzyk. Kraków, 3 czerwca System automatycznego rozpoznawania

Temat: Sieci neuronowe oraz technologia CUDA

Temat: Projektowanie sterownika rozmytego. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych

SZCZEGÓLNE ROZWAśANIA NAD UŚREDNIONYMI POMIARAMI Special Considerations for Averaged Measurements

8. Drzewa decyzyjne, bagging, boosting i lasy losowe

Metoda List Łańcuchowych

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

Przetworniki cyfrowo analogowe oraz analogowo - cyfrowe

Inteligentne systemy przeciw atakom sieciowym

MODELOWANIE PROCESU EKSPLOATACJI OBIEKTÓW TECHNICZNYCH ZA POMOCĄ DYNAMICZNYCH SIECI BAYESOWSKICH

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)


Sztuczne sieci neuronowe (SNN)

PROJEKT CZĘŚCIOWO FINANSOWANY PRZEZ UNIĘ EUROPEJSKĄ. Opis działania raportów w ClearQuest

Automatyczne rozpoznawanie mowy - wybrane zagadnienia / Ryszard Makowski. Wrocław, Spis treści

LICZNIKI Liczniki scalone serii 749x

Testowanie modeli predykcyjnych

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017

Laboratorium modelowania oprogramowania w języku UML. Ćwiczenie 6 Modelowanie przypadków uŝycia i czynności. Materiały dla studentów

TRANSCOMP XIV INTERNATIONAL CONFERENCE COMPUTER SYSTEMS AIDED SCIENCE, INDUSTRY AND TRANSPORT

WYZNACZANIE WARTOŚCI PODSTAWOWYCH PARAMETRÓW TECHNICZNYCH NOWOCZESNYCH KOMBAJNÓW ZBOŻOWYCH PRZY UŻYCIU SSN

Transkrypt:

Tomasz PRACZYK identyfikacja obiektów UśYCIE SIECI PROBABILISTYCZNEJ ORAZ METODY NAJBLIśSZEGO SĄSIADA DO IDENTYFIKACJI OBCYCH RADIOSTACJI OKRĘTOWYCH Praca przedstawia zastosowanie probabilistycznej sieci neuronowej oraz metody najbliŝszego sąsiada do identyfikacji obcych radiostacji okrętowych. Badania zaprezentowane w pracy zostały przeprowadzone z uŝyciem danych rzeczywistych. USING A PROBABILISTIC NEURAL NETWORK AND THE NEAREST NEIGHBOUR METHOD TO IDENTIFY SHIP RADIOSTATIONS The paper prestes application of a probabilistic neural network and the nearest neighbour method to identify nonself ship radiostations. All the experiments reported in the paper were performed on real data.. WSTĘP W pracy zaprezentowano oraz porównano dwa róŝne rozwiązania problemu identyfikacji swój-obcy: metodę najbliŝszego sąsiada (NN ang. Nearest Neighbour) oraz probabilistyczną sieć neuronową (PNN ang. Probabilistic Neural Network). Oba rozwiązania są klasycznymi pamięciowymi metodami identyfikacji obiektów. Konstrukcja systemu identyfikacji w przypadku obu metod polega na zapamiętaniu w pamięci pewnej liczby obrazów uczących reprezentujących wszystkie identyfikowane obiekty. Zadanie identyfikacji swój-obcy zakłada jednak brak obrazów uczących dla obiektów uznanych za obce. W tym przypadku system identyfikacji musi bazować wyłącznie na danych o obiektach własnych. Aby sprawdzić jak obie metody radzą sobie w sytuacji braku informacji o jednej z identyfikowanych klas przeprowadzono eksperymenty w trakcie których zadaniem obu metod była identyfikacja radiostacji okrętowych. 2. METODYZASTOSOWANE PODCZAS BADAŃ 2. Metoda najbliŝszego sąsiada Najprostszym sposobem identyfikacji obiektu jest porównanie jego sygnatury z sygnaturami obiektów umieszczonymi w systemie. MoŜna tego dokonać poprzez wyszukanie w bazie danych systemu sygnatury najbardziej podobnej do sygnatury obiektu podlegającego identyfikacji. ToŜsamość tej sygnatury wskazuje na klasę identyfikowanego Akademia Marynarki Wojennej, Wydział Nawigacji i Uzbrojenia Okrętowego; 8-03 Gdynia; ul. Śmidowicza 69, Tel: + 48 58 6262703, E-mail: t.praczyk@amw.gdynia.pl

2236 Tomasz PRACZYK obiektu. Takie rozwiązanie nazywa się metodą najbliŝszego sąsiada (NN). W metodzie NN do określenia podobieństwa najczęściej stosuje się następujące metryki [3]: n k k ( x,x 2 ) = ( x x2 ) k = 2 ρ () ( x,x 2 ) = n k= x k x ρ (2) gdzie x, x 2 są wektorami: x = (x, x 2, x 3,..., x n ), x 2 = (x 2, x 2 2, x 2 3,..., x 2 n ). k 2 d 3 d d 4 d 2 Rys.. Zasada działania metody NN d < d2 < d4 < d3 Metoda NN posiada jedną podstawową wadę. Jest nią mała odporność na występowanie zakłóceń w bazie danych systemu identyfikacji. Jedna błędna sygnatura umieszczona w systemie potrafi wypaczyć uzyskiwane wyniki. Sytuacje taką prezentuje Rys. 2. Błędna sygnatura oznaczona paskami pionowymi umieszczona w samym środku obszaru naleŝącego do kategorii obiektów kropkowanych wpływa na niewłaściwą identyfikację wszystkich obiektów o sygnaturach występujących w najbliŝszym otoczeniu błędnej sygnatury. Zjawisko to moŝemy ograniczyć poprzez zastosowanie zmodyfikowanej metody najbliŝszego sąsiada zwanej równieŝ knn. Polega ona na uporządkowaniu sygnatur uczących (sygnatur z bazy danych systemu) według rosnących wartości odległości od sygnatury reprezentującej niezidentyfikowany obiekt. Na początku ciągu znajdują się sygnatury najbliŝsze, na końcu zaś najdalsze. Z tak skonstruowanego ciągu tworzymy podciąg segregując pierwszych k sygnatur. Niezidentyfikowany obiekt zaliczamy do kategorii, która jest najliczniej reprezentowana w stworzonym podciągu. PowyŜsza modyfikacja powoduje, Ŝe pojedyncza błędna sygnatura ucząca nie jest w stanie w sposób decydujący wpłynąć na ostateczny wynik identyfikacji obiektu.

UśYCIE SIECI PROBABILISTYCZNEJ 2237 d 3 d 4 d 2 d d < d 2 < d 4 < d 3 Rys.2. Wpływ błędnej sygnatury na niewłaściwą identyfikację obiektu metodą NN d 3 d d4 d 2 d < d 2 < d 4 < d 3 k = 4, N =, N = 3 Rys.3. Zasada działania metody knn W eksperymentach przedstawionych w dalszej części pracy zastosowano zmodyfikowany wariant metody przedstawionej powyŝej. Do identyfikacji obiektów wykorzystywane były wyłącznie sygnatury obiektów własnych (baza danych nie zawierała sygnatur obiektów obcych). Aby niezidentyfikowany obiekt został uznany za własny jego sygnatura musiała być podobna do co najmniej k sygnatur zapamiętanych w systemie. Zastosowany wariant metody knn zakładał, Ŝe sygnatury są podobne do siebie, jeśli odległość między nimi jest mniejsza lub równa pewnej zakładanej wartości (δ).

2238 Tomasz PRACZYK OBCE WŁASNE k=4 swój Y - obcy Rys.4. Zasada działania wariantu metody knn zastosowanego w trakcie eksperymentów 2.2 Probabilistyczna sieć neuronowa Klasyfikacja obiektów przy pomocy sieci probabilistycznej (PNN ang. Probabilistic Neural Network) odbywa się za pomocą następującej funkcji decyzyjnej [2,3]: g( ) = n Y ( x, x ) 2 n d = i exp pσ x (3) i gdzie d jest odległością euklidesową pomiędzy wektorami x oraz x i reprezentującymi odpowiednio obiekt identyfikowany oraz i-ty przykład uczący, n jest liczbą wektorów uczących danej kategorii, p jest rozmiarem wektora x oraz wszystkich wektorów uczących x i, σ jest parametrem kształtu. Ostateczna decyzja o przyporządkowaniu obiektu reprezentowanego przez wektor x do kategorii j-tej opiera się na następującej relacji: h j c j g ( ) > h c g ( x) j x k k k k j (4) gdzie h i oznacza prawdopodobieństwo a priori przynaleŝności obiektu do i-tej klasy, c i koszt błędnej identyfikacji obiektu naleŝącego do i-tej kategorii. Sieć probabilistyczna składa się, co najmniej z trzech warstw: wejściowej, radialnej oraz wyjściowej. Zadaniem pierwszej warstwy jest doprowadzenie sygnału wejściowego do sieci. Druga warstwa składa się z neuronów radialnych. KaŜdy z nich reprezentuje funkcję radialną z centrum nad swoim przypadkiem uczącym. Warstwa ta zawiera tyle neuronów ile wzorców znajduje się w ciągu uczącym jeden neuron odpowiada pojedynczemu przypadkowi uczącemu (np. sygnaturze okrętu). Warstwa wyjściowa dokonuje zsumowania

UśYCIE SIECI PROBABILISTYCZNEJ 2239 sygnałów pochodzących od neuronów z warstwy wcześniejszej. KaŜdej klasie odpowiada jeden neuron tej warstwy. Sygnały generowane przez neurony radialne klasy reprezentowanej przez neuron wyjściowy podawane są na jego wejście z wagą. Połączenie z innymi neuronami radialnymi charakteryzowane jest wagą 0 *. Dodatkowymi elementami struktury sieci PNN mogą być kolejne warstwy związane z parametrem h oraz c wzór (4). Wygląd trzech pierwszych zasadniczych części sieci PNN prezentuje poniŝszy rysunek. x x 2 0 Σ g(x) x3 0 0 xn-2 x n- xn 0 Σ g2(x) Rys.5. Sieć probabilistyczna słuŝąca do identyfikacji dwóch klas obiektów Sieć PNN posiada wszystkie zalety i wady związane z wykorzystaniem danych uczących podczas wnioskowania. Przede wszystkim proces uczenia polega na wkomponowaniu wzorców uczących w drugą radialną warstwę sieci i jest to czynność prawie natychmiastowa. Dodatkowy czas trzeba poświęcić jedynie na eksperymentalne dostrojenie parametru kształtu σ przy pomocy specjalnie stworzonego ciągu walidacyjnego. Wielce uŝyteczną własnością sieci PNN jest jej zdolność do poszerzania swojej wiedzy. Pojawienie się nowego wzorca uczącego, który moŝe wnosić dodatkowe, waŝne informacje wzbogacające dotychczasowy stan wiedzy, nie powoduje konieczności przeprowadzenia procesu uczenia od samego początku. MoŜliwe jest bezpośrednie wprowadzenie go do sieci w postaci kolejnego neuronu radialnego. Jest to bardzo istotna cecha sieci PNN która umoŝliwia jej ciągłą pracę, bez przerw przeznaczonych na długotrwały proces uczenia. Wykorzystując sieć PNN jesteśmy w stanie dokonywać identyfikacji obiektów zawsze w oparciu o dane aktualne. Wykorzystanie wzorców uczących rodzi niestety równieŝ swoje negatywne skutki. Potrzeba analizy duŝego zbioru danych uczących podczas wnioskowania wywołuje efekt długiej odpowiedzi na zadany sygnał wejściowy. Chcąc nauczyć sieć kaŝdego szczegółu związanego z rozpoznawanymi obiektami musimy dodawać do ciągu uczącego coraz to nowe wzorce a to z kolei wydłuŝa czas odpowiedzi. Z tego względu w przypadku obszernych zbiorów uczących konieczne jest zastosowanie metod przyspieszających działanie sieci []. Mogą one polegać np. na zastosowaniu wzorców średnich przy * MoŜna oczywiście wyobrazić sobie równieŝ alternatywną strukturę sieci PNN, w której neurony radialne danej klasy połączone są tylko z neuronami wyjściowymi tej klasy. Nie występują połączenia do neuronów wyjściowych pozostałych klas.

2240 Tomasz PRACZYK jednoczesnej modyfikacji funkcji decyzyjnej (3) uwzględniającej zastąpienie wzorców uczących ich średnimi reprezentantami. Drugą waŝną zaletą sieci PNN jest większa niŝ we wcześniej zaprezentowanych metodach (NN i knn) bazujących na odległości odporność na występowanie zakłóceń w ciągu uczącym. Jest tak ze względu na wykorzystywaną przez sieć PNN postać funkcji decyzyjnej preferującej pod względem wielkości generowanej odpowiedzi obszary o gęstym upakowaniu wzorców uczących. Pojawienie się w ciągu uczącym pojedynczego błędnego obrazu nie jest w stanie w sposób decydujący wpłynąć na poprawność udzielonej odpowiedzi. W trakcie eksperymentów, których wyniki zaprezentowane są w niniejszej pracy wykorzystano sieć PNN składającą się z trzech podstawowych warstw. Pierwsza warstwa była odpowiedzialna za dostarczenie wejściowych sygnałów radiowych do sieci. Druga warstwa zawierała neurony radialne z zapamiętanymi sygnałami pochodzącymi od okrętów własnych. Ostatnia warstwa była zbudowana z pojedynczego neuronu, którego sygnał wyjściowy był interpretowany jako prawdopodobieństwo tego, Ŝe sygnał radiowy podany na wejście sieci jest sygnałem pochodzącym od jednostki własnej. W przypadku, kiedy sygnał wyjściowy sieci był większy lub równy 0.5 sygnał radiowy był uznawany jako własny. W przeciwnym przypadku sygnał wejściowy był identyfikowany jako obcy. 3. EKSPERYMENTY 3. Sygnały radiowe i sygnatury okrętowe Podczas całych eksperymentów okręty reprezentowane były przez zakodowane sygnały radiowe emitowane przez radiostacje okrętowe. Częstotliwość sygnałów wykorzystywanych w trakcie badań była z zakresu.6 30 MHz. Aby sygnały mogły stanowić sygnatury okrętowe poddano je wstępnej obróbce. Najpierw z kaŝdego z nich wyznaczono transformatę FFT. W kolejnym kroku określono numer próbki centralnej S c []: f S = i c (5) R f s R = (6) N gdzie f i jest częstotliwością pośrednią; f s jest częstotliwością próbkowania (4000 Hz 200 khz); N s jest liczbą próbek w widmie kaŝdego sygnału radiowego (32768). Próbka S c wskazywała część widma kaŝdego sygnału zawierającą najwięcej informacji. Ostatnią czynnością przygotowującą sygnały do badań było wyodrębnienie z widm zawierających 32768 próbek wektorów o długości 200 elementów. Wektory te zbudowano z 600 próbek występujących na lewo od próbki S c oraz 600 próbek występujących na prawo s

UśYCIE SIECI PROBABILISTYCZNEJ 224 od wspomnianej próbki centralnej. Przykładowa sygnatura okrętowa wykorzystana w badaniach zaprezentowana jest na Rys. 6. Rys.6. Przykładowe widmo sygnału radiowego (sygnatura okrętowa) W trakcie eksperymentów dysponowano w sumie 260 sygnałami radiowymi pochodzącymi od sześciu róŝnych radiostacji okrętowych. Na potrzeby badań cały dostępny zbiór sygnałów podzielony został na trzy podzbiory. Pierwszy z nich (Zbiór nr ) zawierał 99 sygnałów pochodzących od 3 róŝnych okrętów uznanych jako własne. Zbiór ten został wykorzystany do budowy kaŝdego z testowanych rozwiązań. Kolejny zbiór (Zbiór nr 2) zawierał 900 sygnałów pochodzących od tych samych trzech okrętów własnych. Zbiór ten został wykorzystany do testowania kaŝdego z rozwiązań. Ostatni zbiór (Zbiór nr 3) zawierał 79 sygnałów pochodzących od trzech okrętów uznanych jako obce. Głównym przeznaczeniem Zbioru nr 3 podobnie jak Zbioru nr 2 były testy. 3.2 Wyniki eksperymentów W trakcie eksperymentów przetestowano następujące rozwiązania: PNN sieć PNN, NN knn z k=, 2NN knn z k=2, 4NN knn z k=4. Wszystkie powyŝsze rozwiązania zostały przetestowane dla róŝnych wartości parametrów. Optymalne wartości parametrów podano w Tab.. Tab.. Wyniki eksperymentów (% błędów typu false positive okręty własne o sygnaturach ze zbioru nr 2 uznane jako obce; % błędów typu false negative okręty obce o sygnaturach ze zbioru nr 3 uznane jako własne; % wszystkich błędów błędne identyfikacje sygnałów ze zbiorów nr 2 i 3) % błędów typu false % błędów typu false positive negative % wszystkich błędów parametry PNN 2.5% 39.4% 9.8% σ = 6.7 2NN 2.7% 40.8% 20.5% δ = 4800 4NN 2.2% 42% 20.8% δ = 4900 NN 3.2% 4.4% 2.% δ = 4730

2242 Tomasz PRACZYK Badania pokazały Ŝe najskuteczniejszą metodą identyfikacji swój-obcy jest sieć PNN. Uzyskała ona wynik 9.8% błędnych identyfikacji. Poszczególne warianty metody knn okazały się tylko nieznacznie gorsze. Najgorszy wynik uzyskany został przy pomocy metody knn i wynosi on 2.% błędnych identyfikacji. Wynik ten jest jednak tylko o.3% gorszy od wyniku sieci PNN. Na uwagę zasługują liczne błędy identyfikacji typu false negative. Wynikają one ze zbyt duŝego zasięgu działania sieci PNN lub przykładów uczących zapamiętanych w pamięci dla róŝnych wariantów metody knn. Zmniejszenie zasięgu oddziaływania dla kaŝdej z metod prowadziło jednak do zwiększenia całkowitej liczby błędów. 3. WNIOSKI Badania zaprezentowane w pracy pokazały, Ŝe zarówno metoda knn jak i sieć PNN są w miarę skutecznym narzędziem identyfikacji typu swój-obcy. Wyniki uzyskane przez obie metody są porównywalne. Wydaje się Ŝe osiągi obu metod mogą jednak zostać jeszcze poprawione. Elementem który wymaga dalszej pracy jest redukcja błędów typu false negative. Poprawa osiągów w tym zakresie moŝe przyczynić się do znacznej poprawy wyników obu metod. 4. BIBLIOGRAFIA [] Praczyk T.: Probabilistic neural network application to warship radio station identification, Computational Methods in Science and Technology, CMST 3() pp 53-58, 2007 [2] Specht D.F.: Probabilistic neural networks, Neural Networks Volume 3, Issue, pp. 09-8, 990 [3] Stateczny A., Praczyk T.: Sztuczne sieci neuronowe w rozpoznawaniu obiektów morskich, Gdańskie Towarzystwo Naukowe. 2002