Zatoowane paketu Matla przyornka Neural Network oolo w optymalnym projektowanu ltrów aktywnych Karol Józeowcz Pańtwowa Wyżza zkoła Zawodowa w Lezne Intytut Poltechnczny -00 Lezno, ul. Mckewcza, e-mal: k.jozeowcz@pwz.edu.pl ummary In the artcle we oered ung the MALAB program to make degnng calculaton o the hgh-order actve lter, along wth multaneou proce o ndng the et comnaton o the degned ytem. We ued all alte, whtch are gven y the MALAB paket - not only n ater contrukton and tetng the artcal algortm o the neural network (ANN), ut alo n veryng tattcal properte o our new ytem. We choe or our eamnaton the RC IR (Identcal Root entvte) hgh-order actve lter a an eample o ung neural network n the mentoned optmal degnng tak. trezczene - W artykule przedtawono propozycję wykorzytana nterakcyjnego środowka MALAB do olczeń projektowych ltrów aktywnych wyżzych rzędów wraz z równoczenym proceem optymalzacj projektowanego układu. Wykorzytano możlwośc, jake daje paket MALAB w zykej kontrukcj tetowanu algorytmów ztucznych ec neuronowych a także werykacj włanośc tatytycznych uzykanego projektu. Do adań wyrano ltr aktywny RC IR (Identcal Root entvte) jako przykład zatoowana N w omawanym zadanu optymalnego projektowana, gdze wyraną unkcją celu yła weloparametrowa unkcja wrażlwośc. I. WĘP W welu zagadnenach projektowana, zwłazcza tam, gdze wymagana jet optymalzacja parametrów wyjścowych projektowanego układu, a parametry doerane układu mogą podlegać pewnym luktuacjom, metody optymalzacj oparte o ecach neuronowych ą coraz to ardzej konkurencyjne w tounku do konwencjonalnych metod optymalzacj. W artykule rozważane jet zadane, polegające na zaprojektowanu wartośc parametrów ltru przez doór wartośc wpółczynnków tranmtancj z określoną procentową dokładnoścą (unkcja F ()), przy jednoczenej mnmalzacj odpowednej, wyranej unkcj celu (unkcja F ()), która wąże luktuacje projektowanych parametrów z wyraną unkcją układową. Zadane to jet typowym zadanem optymalzacj welokryteralnej (MCO Mult-Crtera Optmzaton, z wagam w, uwzględnającym rolę pozczególnych kryterów w gloalnej unkcj celu F()) może yć ormułowane np. w potac: F w F w F () Zakłada ę dalej, że rozważane ą natępujące unkcje celu (F ()), krytera optymalzacj: weloparametrowa unkcja choelera lu unkcja najgorzego przypadku, ądź też odpowadające tym kryterom warancje modułu tranmtancj ltru. Wynka tąd, że unkcjonał F() gloalnej optymalzacj (w potac wzoru ()) ma wymenny unkcjonał F (), przy utalonej potac unkcjonału F (), jak w zależnośc (). Wzór () zapewna realzację tranmtancj metodą porównywana wpółczynnków przez mnmalzację odpowednego unkcjonału (łędu średnokwadratowego), przy czym wpółczynnk tranmtancj a 0, 0, mają wkaźnk zmenone odpowedno na: a, n, gdze n topeń welomanu lcznka, m topeń welomanu manownka tranmtancj. () n m () ( () ) a F () k k k Z uwag na to, że kryterum optymalzacyjne - F () ma także potać unkcj opanej łędem średnokwadratowym, można przyjąć, że także unkcja F() jet pośredno unkcją łędu średnokwadratowego. II. PRZYKŁAD REALIZACJI OPYMALNEGO PROJEKOWANIA Z WYKORZYANIEM MALAB (NN) Do adań w nnejzej pracy wykorzytano ymulacje program uczena dla jednokerunkowej ec welowartwowej napany w programe MALAB, który jet zeroko znanym ardzo częto wykorzytywanym paketem olczenowym. ). GLOBALNE OPIMUM I OGÓLNE ZAADY OPYMALIZACJI WIELOPARAMEROWEJ FUNKCJI WRAŻLIWOŚCI Nech () oznacza tranmtancję ltru wyżzego rzędu typu IR [, ] w potac: [ g,...,g,...,g ] k n ()
gdze g k () ą ognwam perwzego lu drugego rzędu (k,.., N ). Zakładając, że przedzał pulacj zotał narzucony orąc pod uwagę, że zarówno odchylene tandardowe, jak warancja unkcj układowej zależą od pulacj ygnału, wyznacza ę ogranczene wartośc warancj (odchylena tandardowego) możlwe do uzykana przy optymalzacj, czyl gloalne mnmum warancj: ω ω σ N c () Parametram doeranym w procee optymalzacj ą oczywśce wartośc parametrów układowych oraz ch tolerancje względne (procentowe) d. Ogólna dea proceu optymalzacj jet natępująca: przy teracyjnym charakterze całego proceu, powękzane ą wartośc tolerancj elementów przy jednoczenym przeuwanu centrum wektora (wartośc nomnalnych) dla parametrów układowych (zagadnene centrowana). W celu prawnego prowadzena proceu optymalzacj przy doorze tolerancj parametrów d unkcja choelera zotaje przekztałcona (w mejce podtawa ę odpowedno d ). W tym celu unkcję choelera można zapać natępująco: ω jω () lu j d, d d w d Δ ω ω () przy czym w jet wagą przypaną artralne do nomnalnej wartośc tolerancj d,. Podone potępuje ę w procedurze centrowana, czyl przeuwana parametrów nomnalnych układu. ). ZAADY REALIZACJI IECI NEURONOWEJ W ROZWAŻANYM ZADANIU OPYMALIZACJI Projektowane ec neuronowej zaczyna ę na pozome analzy ormułowanego prolemu. Inaczej mówąc, jake le danych chcemy lu możemy podać na wejśca ec determnuje welkość wartwy wejścowej, a to, jaką odpowedź chcemy uzykać, lość wyjść ec. Dla zlutrowana prezentowanej metody projektowana wyrano ltr dolnoprzeputowy o tranmtancj napęcowonapęcowej (Butterwortha) - wzór (9) []. Zatoowany przy tym unkcjonał F() gloalnej optymalzacj - wzór (), zawerał wag odpowedno: w.0, w.0. W celu realzacj ltru wykorzytano trukturę układu zaproponowanego przez Kerwna-Huelmana-Newcoma. Układ ten przedtawony zotał na ry.. ranmtancja tego układu, w potac ogólnej, równa jet: () 0 0 u a (7) gdze wpółczynnk tranmtancj podane zotały w potac układu równań nelnowych zależność (0). Równana te wynkają z przyrównana wpółczynnków tranmtancj (9) zadanej z odpowednm wpółczynnkam tranmtancj wynkającym z zależnośc (7). Dla ujednolcena zapu przyjęto oznaczena zmennych [] potac: 7 9,C C, G G () () u (9) 0 7 7 0, a (0) Podone, jak w pracy [] dopuzczono % łąd realzacj wpółczynnków tranmtancj (7, 9) oraz % ozar tolerancj dla wzytkch parametrów układu. W nnejzym przypadku przyjęto ponadto, że kryterum optymalzacj (unkcja F ()), ędze mnmum weloparametrowej unkcj wrażlwośc w ene unkcj choelera.
Ry.. truktura ltru prototypowego opracowanego przez Kerwna-Huelmana-Newcoma. Należy teraz dorać trukturę N do potawonego zadana optymalnego projektowana ltru. Zazwyczaj przyjmuje ę, że lcza neuronów w wartwe wejścowej jet zgodna z lczą wpółrzędnych wektora danych, która to lcza w prezentowanym przypadku odpowada lcze parametrów projektowanego ltru, tj. ( parametrów ltru loowanych z przedzału wartośc dopuzczalnych wartośc tolerancj względnych (procentowych) d tych parametrów). Jako wektor wyjścowy w N (d(y)) przyjęto wektor o wpółrzędnych, na który kładają ę parametrów nomnalnych (optymalnych) ltru nom. W przypadku, gdy zatoowano y wartwę lu wartwy ukryte, to ne ma dorej recepty na określene właścwej lośc wartw lczy neuronów w każdej wartwe. Przyjmuje ę, że eć z jedną wartwą ukrytą pownna nauczyć ę rozwązana wękzośc potawonych prolemów, ne ma natomat dorej recepty na doór właścwej lośc neuronów w tej wartwe. Można jednak rozpocząć uczene z newelką ch loścą a natępne dośwadczalne zwękzać lość neuronów. Jak zauważono podcza wtępnych ymulacj, w prezentowanym protym przypadku ne yło konecznośc, ay zaproponowana elementarna potać N ( neuronów na wejścu, na wyjścu) zawerała wartwę ukrytą. ). ZAADY UCZENIA IECI NEURONOWEJ W ROZWAŻANYM ZADANIU OPYMALIZACJI Ay uzykać optymalny projekt układu, należy przejść całą procedurę uczena ec. Podtawowym celem proceu uczena jet doór takch wag, które umożlwą odwzorowane danych wejścowych w wyjścowe przy założenu uzykana jak najnżzego łędu. Odpowedno wytrenowana eć neuronowa wnna meć zdolnośc generalzacyjne. W tym celu należy użyć odpowednej lczy wzorców uczących. Zgodne z danym podanym w pracy [0], mnmalna, krytyczna lcza wzorców uczących wyznaczona jet zależnoścą: ( log ( N )) yn nw () gdze: N - jet lczą neuronów w ec, y n mnmalną lczą wzorców uczących, n w - jet lczą wag w ec. Wynka tąd, że wymagana mnmalna lcza wzorców uczących dla zaproponowanej w poprzednm punkce pracy archtekturze ec wnna yć znacząco wękza od 0 (gdyż n w ). Powzechne przyjmuje ę, że lcza próek cągu danych uczących wnna yć dzeęcokrotne wękza od lczy VCdm [0] dla ec neuronowej wyznaczonej ze wzoru (), tąd też w nnejzym przykładze przyjęto lczę elementów danych (wektorów) dla cągu uczącego równą 000. Poneważ znamy odpowedź na dany cąg danych wejścowych ec tąd właścwe jet zatoowane uczena pod nadzorem (naczej uczene z nauczycelem). Perwzą czynnoścą w procee uczena jet przygotowane dwóch cągów danych: uczącego werykującego. W jego kład wchodz wektor wejścowy, czyl te dane wejścowe, które podawane ą na wejśca ec wektor wyjścowy, czyl take dane oczekwane, jake eć pownna wygenerować na woch wyjścach. aela WEKOR X WĘPNIE UALONYCH PARAMERÓW NOMINALNYCH UKŁADU DLA PRZYPADKU OPYMALNEJ WAROŚCI FUNKCJI CELU F, Parametr X X X X X X X 7 X Wartość lczowa dla F 0, 0, 0, 0,,07, 0,7, W tael podano tartowe wartośc nomnalne parametrów ltru wykorzytane w procedurze uczena ec. Po przetworzenu wektora wejścowego porównywane yły wartośc otrzymane z wartoścam oczekwanym prawdzene, czy odpowedź jet poprawna, a jeżel ne, to jak powtał łąd odpowedz. Błąd ten ył natępne propagowany do ec, ale w odwrotnej nż wektor wejścowy kolejnośc (od wartwy wyjścowej do wejścowej) na jego podtawe natępowała taka korekcja wag w każdym neurone, ay ponowne przetworzene tego amego wektora wejścowego powodowało zmnejzene łędu odpowedz. Procedurę taką powtarza ę do momentu wygenerowana przez eć łędu mnejzego nż założony. Wtedy na wejśce ec podaje ę kolejny wektor wejścowy powtarza te czynnośc. Po przetworzenu całego cągu uczącego olcza ę łąd cały cykl powtarzany jet do momentu, aż łąd ten padne ponżej dopuzczalnego. Jak to już yło zaygnalzowane wcześnej, N wykazują tolerancję na necągłośc, przypadkowe zaurzena lu wręcz newelke rak w zorze uczącym. Jet to wynkem właśne zdolnośc do uogólnana wedzy. Jeżel mamy już nauczoną eć, mumy zwerykować jej dzałane. W tym momence ważne jet podane na wejśce ec wzorców ne należących do zoru trenngowego w celu zadana czy eć może eektywne generalzować zadane, którego ę nauczyła. Do tego używano cągu werykującego, który ma te ame cechy co cąg uczący tzn. dane dokładne charakteryzują prolem znamy dokładne odpowedz. Ważne jet jednak, ay dane te ne yły używane uprzedno do uczena. Dokonujemy prezentacj cągu werykującego z tą
różncą, że w tym procee ne rzutujemy łędów wtecz a jedyne rejetruje ę lość odpowedz poprawnych na tej podtawe orzeka, czy eć pełna wymagana, czyl jak zotała nauczona. Wag początkowe, z którym eć rozpoczyna naukę z reguły tanowły lczy wygenerowane przypadkowo z generatora lcz peudoloowych. Po nauczenu ec powtórzono całą procedurę, począwzy od wygenerowana wag początkowych, dla prawdzena otrzymanych wynków. Zazwyczaj ne mamy gwarancj, że eć podcza uczena ne tra w mnmum lokalne. W przedtawonej metodze takego neezpeczeńtwa ne ma, co jet welką zaletą omawanej metody (punkt nnejzej pracy). Jedyne, w przypadku, gdy potępy podcza uczena ą nezadowalające, na co wkazuje zykość malena unkcj celu F() w tounku do znanego dla danego ltru mnmum aolutnego unkcj wrażlwośc koneczne może yć wygenerowane peudoloowe nowego wektora wag początkowych dla ec. Do uczena ec zatoowano tzw. regułę delta uczena z nauczycelem z modykacją Wdorowa-Hoa, dla ec nadzorowanych o dowolnych unkcjach aktywacj poneważ mnmalzuje ona łąd średn kwadratowy pomędzy pożądaną odpowedzą a poudzenem. III. DOBÓR RUKURY, PRARAMERÓW ORAZ OPI PROCEDUR OOWANYCH W PROJEKOWANIU IECI NEURONOWYCH W ŚRODOWIKU MALAB (NEURAL NEWORK OOLBOK) DO WYKONANIA OKREŚLONEGO ZADANIA OPYMALIZACJI WEKORY PARAMERÓW OPYMALNYCH [0.; 0.; 0.; 0.;.07;.; 0.7;.]; %dla zoru uczącego tetującego w trakce uczena [0.7; 0.9; 0.90;.0;.7;.; 0.;.0]; % dla zoru tetującego MACIERZE DANYCH WYJCIOWYCH (optymalnych) Lpowelaj([0.; 0.; 0.; 0.;.07;.; 0.7;.], 00); Vpowelaj([0.; 0.; 0.; 0.;.07;.; 0.7;.], 000); MACIERZ DANYCH WEJCIOWYCH UCZACYCH I MACIERZ DANYCH EUJACYCH W RAKCIE UCZENIA P generator(,,000); _proc(:,) ; _temp powelaj(_proc,000); P_caly [P',_temp']'; PL wyeraj(p_caly,,); %zór danych wejścowych uczących PV wyeraj(p_caly,,); %zór tetujący w trakce uczena N (mara zdolnośc zapamętana danych uczących) MACIERZ DANYCH WEJCIOWYCH EYACYCH P generator(,,000); _proc(:,) ; _temp powelaj(_proc,000); P_caly_ [P',_temp']'; Pt wyeraj(p_caly_,,); %zór tetujący (mara zdolnośc uogólnana N) INICJACJA IECI NEURONOWEJ %INIFF Inttalze eed-orward network up to layer (ncjalzacja ec wartwowej [-- neuronów]) net new([-0 0],[,,'tang',,'pureln']); ogranczena [-0 0;-0 0;-0 0;-0 0;-0 0;-0 0;-0 0;-0 0;-0 0;-0 0;-0 0;-0 0;-0 0;-0 0;-0 0;-0 0;] %przedzał zmennośc danych wejścowych - rozmar wektora ogranczeń wyno X [W,,W,]nt(ogranczena,,'tang',,'pureln'); [W,]nt(ogranczena,,'pureln'); %N jednowartwowa WPÓŁCZYNNIKI RENINGU DLA RÓŻNYCH MEOD OPYMALIZACJI (parametry uczena N) tp[ 0000 0.0 0.00]; %P() - Epoch etween updatng dplay, deault. (czętotlwość wyśwetlana wynków uczena - co epok) %P() - Mamum numer o epoch to tran, deault 000. (ma. lcza epok 000) %P() - um-quared error goal, deault 0.0. (akceptowalny łąd średnokwadratowy 0.0) %P() - Learnng rate, 0.0. (wpółczynnk uczena 0.0-0.00 lu mnej) tp[ 0000 0.0 0.0.0 0 0. 000]; %P() - Epoch etween updatng dplay, deault. %P() - Mamum numer o epoch to tran, deault 000. %P() - um-quared error goal, deault 0.0.
%P() - Mnmum gradent, deault 0.0 %P() - Learnng rate ncreae, deault.0. mnożnk do wzrotu lr (typowo.0) %P() - Learnng rate decreae, deault 0.7. mnożnk do zmnejzana lr (typowo 0.7) %P(7) - Mamum error rato, deault.0. makymalny tounek do tarego łędu ez "rejectng" nowych wartośc wag progów (typowo.0) tpa[ 0000 0.0 0.00.0 0.7 0.9.0]; %P() - Epoch etween updatng dplay, deault. %P() - Mamum numer o epoch to tran, deault 000. %P() - um-quared error goal, deault 0.0. %P() - Learnng rate, 0.0. %P() - Learnng rate ncreae, deault.0. mnożnk do wzrotu lr (typowo.0) %P() - Learnng rate decreae, deault 0.7. mnożnk do zmnejzana lr (typowo 0.7) %P(7) - wpólczynnk momentum (typowo 0.9) %P() - Mamum error rato, deault.0. makymalny tounek do tarego łędu ez "rejectng" nowych wartoc wag progów (typowo.0) tpm[ 0000 0.0 0.0 0.9.0]; %P() - Epoch etween updatng dplay, deault. %P() - Mamum numer o epoch to tran, deault 000. %P() - um-quared error goal, deault 0.0. %P() - Learnng rate, 0.0. %P() - Momentum contant, deault 0.9. wpółczynnk momentum (typowo 0.9) %P() - Mamum error rato, deault.0. makymalny tounek do tarego łędu ez "rejectng" nowych wartoc wag au (typowo.0) tplm[ 0000 0.0 0.0000 0.00 0 0. 000]; %P() - Epoch etween updatng dplay, deault. %P() - Mamum numer o epoch to tran, deault 000. %P() - um-quared error goal, deault 0.0. %P() - Mnmum gradent, deault e-. %P() - Intal value or MU, deault 0.00. %P() - Multpler or ncreang MU, deault 0. %P(7) - Multpler or decreang MU, deault 0.. %P() - Mamum value or MU, deault e0. MEODY UCZENIA N W ROZWAŻANYM ZADANIU OPYMALIZACJI net tran(net,p,t); %BP ran -layer eed-orward network w/ackpropagaton (trenowane ec ze wteczną propagacją łędu) [W,,W,,ep,tr]tp(W,,'tang',W,,'pureln',PL,L,tp); [W,,ep,tr]tp(W,,'pureln',PL,L,tp); %N jednowartwowa %BPX ran -layer eed-orward network w/at ackpropagaton (trenowane ec ze wteczną propagacją łędu z metoda momentum uczenem adaptacyjnym) [W,,W,,ep,tr]tp(W,,'tang',W,,'pureln',PL,L,tp); %ze zorem uczącym [W,,W,,ep,tr]tp(W,,'tang',W,,'pureln',PV,V,tp); %ze zorem tetujący w trakce uczena %RAINBPA ran eed-orward network wth p adaptve learnng (trenowane ec ze wteczną propagacją łędu uczenem adaptacyjnym) [W,,W,,ep,tr]tranpa(W,,'tang',W,,'pureln',PL,L,tpa); %RAINBPM ran eed-orward network wth p momentum (trenowane ec ze wteczną propagacją łędu z metoda momentum) [W,,W,,ep,tr]tranpm(W,,'tang',W,,'pureln',PL,L,tpm); %LM ran -layer eed-orward network w/levenerg-marquardt [W,,W,,ep,tr]tlm(W,,'tang',W,,'pureln',PL,L,tplm); EOWANIE N W ROZPARYWANYM ZADANIU OPYMALIZACJI %IMUFF mulate eed-orward network a mu(pv,w,,'tang',w,,'pureln') a mu(pt,w,,'tang',w,,'pureln')
IV. WYBRANE WYNIKI BADAŃ W OPYMALNYM PROJEKOWANIU FILRÓW AKYWNYCH IR
V. PODUMOWANIE Do adań w nnejzej pracy wykorzytano ymulacje programy uczena dla jednokerunkowej ec welowartwowej napany w programe MALAB, który jet zeroko znanym ardzo częto wykorzytywanym paketem olczenowym. Użyty w tym celu przyornk Neural Network oolo [,,, 7, ] daje duże możlwośc pomocy w tworzenu, mplementacj, oraz ymulacj welu rodzajów ec neuronowych. Wpomnany paket MALAB dzęk możlwośc zykego tounkowo protego kontruowana N, ardzo dorze nadaje ę równeż do rozwązywana zagadneń centrowana (tzn. lokowana wektora wartośc nomnalnych parametrów na hperpłazczyźne rozwązań układowych) oraz do projektowana przypanych do tego wektora np. optymalnych tolerancj układowych. Jak powzechne wadomo N dokonale ltruje zaurzone wartośc ygnałów, a także luktuacje parametrów zawarte w wektorze wejścowym ec zwłazcza o charakterze tochatycznym. Połączene tej zalety N z ch nną podtawową cechą, jaką jet łatwość analzy danych kojarzena najlepzych pośród możlwych rozwązań, czyn z nch oecujące narzędze dla projektanta, zwłazcza w ytuacj uwzględnana na etape projektowana możlwośc luktuacj w praktyce przemyłowej zaprojektowanych parametrów układu. Nauczona (prezentowana w pracy) eć wyjątkowo prawne rozwązywała potawone jej zadane optymalzacj, jednak tylko w przypadku newelkch zman wartośc parametrów. Zdolnośc uogólnana oągnęte przez eć dają możlwośc optymalzacj także w przypadku wektora wejścowego poza zakreu wartośc użytych do nauczena ec, co wykazały uzykane wynk. Jednak, w przypadku wękzych zman parametrów, wydaje ę, że nezędne jet powękzene ec neuronowej przez wprowadzene nowej dodatkowej wartwy ukrytej. LIERAURA [] Brzózka J., Doroczyńk L.: Programowane w Matla, Wydawnctwo MIKOM, Warzawa 99. [] Haykn.: Neural Network, a Comprehenve Foundaton, Macmllan College Pulhng Company, New York, 99. [] Hecht-Nelen R.: Neurocomputng, Addon Weley Pulhng Company, New York, 990. [] Hertz J., Krogh A., Palmer R. G. I.: Wtęp do teor olczeń neuronowych, Wyd. II, WN, Warzawa, 99. [] Mrozek B., Mrozek Z., MALAB Unweralne środowko do olczeń naukowo-techncznych, PLJ, Warzawa 99. [] Mrozek B., Mrozek Z., MALAB., IMULINK., poradnk użytkownka, PLJ, Warzawa 99. [7] MALAB Noteook Uer Gude, veron, he Math. Work, Inc., 997. [] MALAB Product Catalog, he Math. Work, Inc., 997. [9] Oowk.: gnal low graph and neural network, Bologcal Cyernetc, 99, Vol. 70,. 7-9. [0] Oowk.: ec neuronowe w ujęcu algorytmcznym, WN, Warzawa, 99. [] Ryarczyk A., zulc M.: Wykorzytane paketu olczenowego MALAB do mnmalzacj warancj parametrów wyjścowych układu calonego CMO, Mat. VII Kon. ZkwE 00, Poznań-Kekrz, - kwetna 00,. 9-9. [] Nowakowk B., Ryarczyk A.: ztuczne ec neuronowe realzacja zyczna w oparcu o układy FPGA, Mat. VII Kon. ZkwE 00, Poznań-Kekrz, - kwetna 00,. 7-0. [] Ryarczyk A., Nowakowk B.: Neural Network Hardware Implementaton Ung FPGA Kon. MIXDE 00, 0- June 00, Wrocław, Poland. [] Ryarczyk A.: Yeld Optmzaton o Analog Flter Ung tattcal Degn Approach and Multparameter entvty Meaure, Mat. th European Conerence on Crcut heory and Degn (ECCD 9), Itanul (urkey), 7- erpeń 99, tom I. 7-90. [] Ryarczyk A.: Optymalzacja uzyku produkcyjnego układu CMO oparta na optmum wrażlwoścowym jako punkce tartowym, Mat. IV Kon. ZkwE 99, Poznań-Kekrz, - kwetna 999,. -. [] Dłu E.: Praktyczne normacje o ecach neuronowych Mat. I Kon. Entuzjatów Inormatyk, Chełm, - maj 00,. 7-7.