Zastosowanie pakietu Matlab i przybornika Neural Networks Toolbox w optymalnym projektowaniu filtrów aktywnych

Podobne dokumenty
Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB

Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE

Zadanie 2. Dany jest szereg rozdzielczy przedziałowy, wyznaczyć następujące miary: wariancja, odchylenie standardowe

Modelowanie i obliczenia techniczne. Metody numeryczne w modelowaniu: Optymalizacja

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych

Zaawansowane metody numeryczne

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba


f 4,3 m l 20 m 4 f l x x 2 y x l 2 4 4,3 20 x x ,86 x 0,043 x 2 y x 4 f l 2 x l 2 4 4, x dy dx tg y x ,86 0,086 x

Minimalizacja globalna. Algorytmy genetyczne i ewolucyjne.

XXX OLIMPIADA FIZYCZNA ETAP III Zadanie doświadczalne

Minimalizacja globalna, algorytmy genetyczne i zastosowanie w geotechnice

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW

Wykład IX Optymalizacja i minimalizacja funkcji

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

liniowym w przeciwnym przypadku mówimy o programowaniu nieliniowym.

METODA UNITARYZACJI ZEROWANEJ Porównanie obiektów przy ocenie wielokryterialnej. Ranking obiektów.

Metody Sztucznej Inteligencji II

3 BADANIE WYDAJNOŚCI SPRĘŻARKI TŁOKOWEJ. 1. Wprowadzenie

TYPOWE OPERATORY KRZYŻOWANIA OBLICZENIA EWOLUCYJNE FUNKCJE TESTOWE F. RASTRIGINA F. ACKLEYA ( x) = x i minimum globalne.

BADANIA OPERACYJNE. Podejmowanie decyzji w warunkach niepewności. dr Adam Sojda

KURS STATYSTYKA. Lekcja 6 Regresja i linie regresji ZADANIE DOMOWE. Strona 1

KONKURS NA NAJLEPSZEGO ANALITYKA/ZESPÓŁ ANALITYCZNY

Analiza danych OGÓLNY SCHEMAT. Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja)

APROKSYMACJA QUASIJEDNOSTAJNA

Sieci Neuronowe 1 Michał Bereta

Wykaz ważniejszych oznaczeń... 5 Wykaz ważniejszych akronimów... 9

Ekonometryczne modele nieliniowe

Laboratorium Pomiarów i Automatyki w Inżynierii Chemicznej Regulacja Ciągła

Urządzenia wejścia-wyjścia

Optymalizacja belki wspornikowej

IDENTYFIKACJA MODELU MATEMATYCZNEGO ROBOTA INSPEKCYJNEGO

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Wprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu

WOJEWÓDZTWA PRZODUJĄCE W REALIZACJI REGIONALNYCH PROGRAMÓW OPERACYJNYCH W POLSCE W DRUGIEJ POŁOWIE 2008 ROKU

OPTYMALIZACJA PROCESU PRZESIEWANIA W PRZESIEWACZACH WIELOPOKŁADOWYCH

4. OPTYMALIZACJA WIELOKRYTERIALNA

POLITECHNIKA WARSZAWSKA WYDZIAŁ SAMOCHODÓW I MASZYN ROBOCZYCH Instytut Podstaw Budowy Maszyn Zakład Mechaniki

Wprowadzenie do Sieci Neuronowych Sieci rekurencyjne

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Metody obliczeniowe. wykład nr 2. metody rozwiązywania równań nieliniowych zadanie optymalizacji. Nr: 1

EKSPLORACJA ZASOBÓW INTERNETU - MIŁOSZ KADZIŃSKI LABORATORIUM IV WEB ADVERTISING + LATENT SEMANTIC INDEXING

METODY HODOWLANE - zagadnienia

W praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np.

Statystyka Inżynierska

Modele wieloczynnikowe. Modele wieloczynnikowe. Modele wieloczynnikowe ogólne. α β β β ε. Analiza i Zarządzanie Portfelem cz. 4.

Laboratorium ochrony danych

Regulamin promocji zimowa piętnastka

Politechnika Poznańska Wydział Budowy Maszyn i Zarządzania

SZTUCZNA INTELIGENCJA

Diagnostyka układów kombinacyjnych

Neural networks. Krótka historia rozpoznawanie znaków alfanumerycznych.

Dotyczy: opinii PKPP lewiatan do projektow dwoch rozporzqdzen z 27 marca 2012 (pismo P-PAA/137/622/2012)

Weryfikacja hipotez dla wielu populacji

Zmodyfikowana technika programowania dynamicznego

KINEMATYKA MANIPULATORÓW

Plan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty)

Funkcje i charakterystyki zmiennych losowych

Natalia Nehrebecka. Wykład 2

Sztuczne sieci neuronowe

Ćwiczenie 10. Metody eksploracji danych

8. Optymalizacja decyzji inwestycyjnych

) będą niezależnymi zmiennymi losowymi o tym samym rozkładzie normalnym z następującymi parametrami: nieznaną wartością 1 4

Podstawy sztucznej inteligencji

BILANS ENERGETYCZNY POMIESZCZENIA ZE STRUKTURALNYM, FUNKCJONUJĄCYM W CYKLU DOBOWYM, MAGAZYNEM CIEPŁA Z MATERIAŁEM FAZOWO-ZMIENNYM

METODY PLANOWANIA EKSPERYMENTÓW. dr hab. inż. Mariusz B. Bogacki

Metody gradientowe poszukiwania ekstremum. , U Ŝądana wartość napięcia,

Rozkład dwupunktowy. Rozkład dwupunktowy. Rozkład dwupunktowy x i p i 0 1-p 1 p suma 1

Proces narodzin i śmierci

3. ŁUK ELEKTRYCZNY PRĄDU STAŁEGO I PRZEMIENNEGO

MATEMATYKA POZIOM ROZSZERZONY Kryteria oceniania odpowiedzi. Arkusz A II. Strona 1 z 5

REALIZACJA PRZETWARZANIA W CHMURZE OBLICZENIOWEJ NA PRZYKŁADZIE SYSTEMU UCZENIA SIECI NEURONOWEJ OPARTEGO NA TECHNOLOGII MICROSOFT WINDOWS AZURE

Warszawa, 28 stycznia 2017 r., Blok tematyczny II Sztuczne sieci neuronowe (środowisko MATLAB i Simulink z wykorzystaniem Neural Network Toolbox),

Koncepcja zastosowania metody CBR oraz algorytmów genetycznych w systemie obsługującym windykację ubezpieczeniową

Za: Stanisław Latoś, Niwelacja trygonometryczna, [w:] Ćwiczenia z geodezji II [red.] J. Beluch

WSPOMAGANE KOMPUTEROWO POMIARY CZĘSTOTLIWOŚCI CHWILOWEJ SYGNAŁÓW IMPULSOWYCH

Porównanie struktur regulacyjnych dla napędu bezpośredniego z silnikiem PMSM ze zmiennym momentem bezwładności i obciążenia

Problemy jednoczesnego testowania wielu hipotez statystycznych i ich zastosowania w analizie mikromacierzy DNA

Rachunek niepewności pomiaru opracowanie danych pomiarowych

Proste modele ze złożonym zachowaniem czyli o chaosie

WikiWS For Business Sharks

Nieeuklidesowe sieci neuronowe

Programowanie Równoległe i Rozproszone

8. Neuron z ciągłą funkcją aktywacji.

I. Elementy analizy matematycznej

Regulamin promocji upalne lato

Analiza rodzajów skutków i krytyczności uszkodzeń FMECA/FMEA według MIL STD A

1. Wstępna geometria skrzyżowania (wariant 1a)

Procedura normalizacji

Inteligentne systemy przeciw atakom sieciowym

Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak

ZASTOSOWANIE KLASYCZNEGO ALGORYTMU GENETYCZNEGO DO ROZWIĄZANIA ZBILANSOWANEGO ZAGADNIENIA TRANSPORTOWEGO

STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH

Statyczne charakterystyki czujników

Portfele zawierające walor pozbawiony ryzyka. Elementy teorii rynku kapitałowego

Prawdopodobieństwo i statystyka r.

Analiza osiadania pojedynczego pala

Transkrypt:

Zatoowane paketu Matla przyornka Neural Network oolo w optymalnym projektowanu ltrów aktywnych Karol Józeowcz Pańtwowa Wyżza zkoła Zawodowa w Lezne Intytut Poltechnczny -00 Lezno, ul. Mckewcza, e-mal: k.jozeowcz@pwz.edu.pl ummary In the artcle we oered ung the MALAB program to make degnng calculaton o the hgh-order actve lter, along wth multaneou proce o ndng the et comnaton o the degned ytem. We ued all alte, whtch are gven y the MALAB paket - not only n ater contrukton and tetng the artcal algortm o the neural network (ANN), ut alo n veryng tattcal properte o our new ytem. We choe or our eamnaton the RC IR (Identcal Root entvte) hgh-order actve lter a an eample o ung neural network n the mentoned optmal degnng tak. trezczene - W artykule przedtawono propozycję wykorzytana nterakcyjnego środowka MALAB do olczeń projektowych ltrów aktywnych wyżzych rzędów wraz z równoczenym proceem optymalzacj projektowanego układu. Wykorzytano możlwośc, jake daje paket MALAB w zykej kontrukcj tetowanu algorytmów ztucznych ec neuronowych a także werykacj włanośc tatytycznych uzykanego projektu. Do adań wyrano ltr aktywny RC IR (Identcal Root entvte) jako przykład zatoowana N w omawanym zadanu optymalnego projektowana, gdze wyraną unkcją celu yła weloparametrowa unkcja wrażlwośc. I. WĘP W welu zagadnenach projektowana, zwłazcza tam, gdze wymagana jet optymalzacja parametrów wyjścowych projektowanego układu, a parametry doerane układu mogą podlegać pewnym luktuacjom, metody optymalzacj oparte o ecach neuronowych ą coraz to ardzej konkurencyjne w tounku do konwencjonalnych metod optymalzacj. W artykule rozważane jet zadane, polegające na zaprojektowanu wartośc parametrów ltru przez doór wartośc wpółczynnków tranmtancj z określoną procentową dokładnoścą (unkcja F ()), przy jednoczenej mnmalzacj odpowednej, wyranej unkcj celu (unkcja F ()), która wąże luktuacje projektowanych parametrów z wyraną unkcją układową. Zadane to jet typowym zadanem optymalzacj welokryteralnej (MCO Mult-Crtera Optmzaton, z wagam w, uwzględnającym rolę pozczególnych kryterów w gloalnej unkcj celu F()) może yć ormułowane np. w potac: F w F w F () Zakłada ę dalej, że rozważane ą natępujące unkcje celu (F ()), krytera optymalzacj: weloparametrowa unkcja choelera lu unkcja najgorzego przypadku, ądź też odpowadające tym kryterom warancje modułu tranmtancj ltru. Wynka tąd, że unkcjonał F() gloalnej optymalzacj (w potac wzoru ()) ma wymenny unkcjonał F (), przy utalonej potac unkcjonału F (), jak w zależnośc (). Wzór () zapewna realzację tranmtancj metodą porównywana wpółczynnków przez mnmalzację odpowednego unkcjonału (łędu średnokwadratowego), przy czym wpółczynnk tranmtancj a 0, 0, mają wkaźnk zmenone odpowedno na: a, n, gdze n topeń welomanu lcznka, m topeń welomanu manownka tranmtancj. () n m () ( () ) a F () k k k Z uwag na to, że kryterum optymalzacyjne - F () ma także potać unkcj opanej łędem średnokwadratowym, można przyjąć, że także unkcja F() jet pośredno unkcją łędu średnokwadratowego. II. PRZYKŁAD REALIZACJI OPYMALNEGO PROJEKOWANIA Z WYKORZYANIEM MALAB (NN) Do adań w nnejzej pracy wykorzytano ymulacje program uczena dla jednokerunkowej ec welowartwowej napany w programe MALAB, który jet zeroko znanym ardzo częto wykorzytywanym paketem olczenowym. ). GLOBALNE OPIMUM I OGÓLNE ZAADY OPYMALIZACJI WIELOPARAMEROWEJ FUNKCJI WRAŻLIWOŚCI Nech () oznacza tranmtancję ltru wyżzego rzędu typu IR [, ] w potac: [ g,...,g,...,g ] k n ()

gdze g k () ą ognwam perwzego lu drugego rzędu (k,.., N ). Zakładając, że przedzał pulacj zotał narzucony orąc pod uwagę, że zarówno odchylene tandardowe, jak warancja unkcj układowej zależą od pulacj ygnału, wyznacza ę ogranczene wartośc warancj (odchylena tandardowego) możlwe do uzykana przy optymalzacj, czyl gloalne mnmum warancj: ω ω σ N c () Parametram doeranym w procee optymalzacj ą oczywśce wartośc parametrów układowych oraz ch tolerancje względne (procentowe) d. Ogólna dea proceu optymalzacj jet natępująca: przy teracyjnym charakterze całego proceu, powękzane ą wartośc tolerancj elementów przy jednoczenym przeuwanu centrum wektora (wartośc nomnalnych) dla parametrów układowych (zagadnene centrowana). W celu prawnego prowadzena proceu optymalzacj przy doorze tolerancj parametrów d unkcja choelera zotaje przekztałcona (w mejce podtawa ę odpowedno d ). W tym celu unkcję choelera można zapać natępująco: ω jω () lu j d, d d w d Δ ω ω () przy czym w jet wagą przypaną artralne do nomnalnej wartośc tolerancj d,. Podone potępuje ę w procedurze centrowana, czyl przeuwana parametrów nomnalnych układu. ). ZAADY REALIZACJI IECI NEURONOWEJ W ROZWAŻANYM ZADANIU OPYMALIZACJI Projektowane ec neuronowej zaczyna ę na pozome analzy ormułowanego prolemu. Inaczej mówąc, jake le danych chcemy lu możemy podać na wejśca ec determnuje welkość wartwy wejścowej, a to, jaką odpowedź chcemy uzykać, lość wyjść ec. Dla zlutrowana prezentowanej metody projektowana wyrano ltr dolnoprzeputowy o tranmtancj napęcowonapęcowej (Butterwortha) - wzór (9) []. Zatoowany przy tym unkcjonał F() gloalnej optymalzacj - wzór (), zawerał wag odpowedno: w.0, w.0. W celu realzacj ltru wykorzytano trukturę układu zaproponowanego przez Kerwna-Huelmana-Newcoma. Układ ten przedtawony zotał na ry.. ranmtancja tego układu, w potac ogólnej, równa jet: () 0 0 u a (7) gdze wpółczynnk tranmtancj podane zotały w potac układu równań nelnowych zależność (0). Równana te wynkają z przyrównana wpółczynnków tranmtancj (9) zadanej z odpowednm wpółczynnkam tranmtancj wynkającym z zależnośc (7). Dla ujednolcena zapu przyjęto oznaczena zmennych [] potac: 7 9,C C, G G () () u (9) 0 7 7 0, a (0) Podone, jak w pracy [] dopuzczono % łąd realzacj wpółczynnków tranmtancj (7, 9) oraz % ozar tolerancj dla wzytkch parametrów układu. W nnejzym przypadku przyjęto ponadto, że kryterum optymalzacj (unkcja F ()), ędze mnmum weloparametrowej unkcj wrażlwośc w ene unkcj choelera.

Ry.. truktura ltru prototypowego opracowanego przez Kerwna-Huelmana-Newcoma. Należy teraz dorać trukturę N do potawonego zadana optymalnego projektowana ltru. Zazwyczaj przyjmuje ę, że lcza neuronów w wartwe wejścowej jet zgodna z lczą wpółrzędnych wektora danych, która to lcza w prezentowanym przypadku odpowada lcze parametrów projektowanego ltru, tj. ( parametrów ltru loowanych z przedzału wartośc dopuzczalnych wartośc tolerancj względnych (procentowych) d tych parametrów). Jako wektor wyjścowy w N (d(y)) przyjęto wektor o wpółrzędnych, na który kładają ę parametrów nomnalnych (optymalnych) ltru nom. W przypadku, gdy zatoowano y wartwę lu wartwy ukryte, to ne ma dorej recepty na określene właścwej lośc wartw lczy neuronów w każdej wartwe. Przyjmuje ę, że eć z jedną wartwą ukrytą pownna nauczyć ę rozwązana wękzośc potawonych prolemów, ne ma natomat dorej recepty na doór właścwej lośc neuronów w tej wartwe. Można jednak rozpocząć uczene z newelką ch loścą a natępne dośwadczalne zwękzać lość neuronów. Jak zauważono podcza wtępnych ymulacj, w prezentowanym protym przypadku ne yło konecznośc, ay zaproponowana elementarna potać N ( neuronów na wejścu, na wyjścu) zawerała wartwę ukrytą. ). ZAADY UCZENIA IECI NEURONOWEJ W ROZWAŻANYM ZADANIU OPYMALIZACJI Ay uzykać optymalny projekt układu, należy przejść całą procedurę uczena ec. Podtawowym celem proceu uczena jet doór takch wag, które umożlwą odwzorowane danych wejścowych w wyjścowe przy założenu uzykana jak najnżzego łędu. Odpowedno wytrenowana eć neuronowa wnna meć zdolnośc generalzacyjne. W tym celu należy użyć odpowednej lczy wzorców uczących. Zgodne z danym podanym w pracy [0], mnmalna, krytyczna lcza wzorców uczących wyznaczona jet zależnoścą: ( log ( N )) yn nw () gdze: N - jet lczą neuronów w ec, y n mnmalną lczą wzorców uczących, n w - jet lczą wag w ec. Wynka tąd, że wymagana mnmalna lcza wzorców uczących dla zaproponowanej w poprzednm punkce pracy archtekturze ec wnna yć znacząco wękza od 0 (gdyż n w ). Powzechne przyjmuje ę, że lcza próek cągu danych uczących wnna yć dzeęcokrotne wękza od lczy VCdm [0] dla ec neuronowej wyznaczonej ze wzoru (), tąd też w nnejzym przykładze przyjęto lczę elementów danych (wektorów) dla cągu uczącego równą 000. Poneważ znamy odpowedź na dany cąg danych wejścowych ec tąd właścwe jet zatoowane uczena pod nadzorem (naczej uczene z nauczycelem). Perwzą czynnoścą w procee uczena jet przygotowane dwóch cągów danych: uczącego werykującego. W jego kład wchodz wektor wejścowy, czyl te dane wejścowe, które podawane ą na wejśca ec wektor wyjścowy, czyl take dane oczekwane, jake eć pownna wygenerować na woch wyjścach. aela WEKOR X WĘPNIE UALONYCH PARAMERÓW NOMINALNYCH UKŁADU DLA PRZYPADKU OPYMALNEJ WAROŚCI FUNKCJI CELU F, Parametr X X X X X X X 7 X Wartość lczowa dla F 0, 0, 0, 0,,07, 0,7, W tael podano tartowe wartośc nomnalne parametrów ltru wykorzytane w procedurze uczena ec. Po przetworzenu wektora wejścowego porównywane yły wartośc otrzymane z wartoścam oczekwanym prawdzene, czy odpowedź jet poprawna, a jeżel ne, to jak powtał łąd odpowedz. Błąd ten ył natępne propagowany do ec, ale w odwrotnej nż wektor wejścowy kolejnośc (od wartwy wyjścowej do wejścowej) na jego podtawe natępowała taka korekcja wag w każdym neurone, ay ponowne przetworzene tego amego wektora wejścowego powodowało zmnejzene łędu odpowedz. Procedurę taką powtarza ę do momentu wygenerowana przez eć łędu mnejzego nż założony. Wtedy na wejśce ec podaje ę kolejny wektor wejścowy powtarza te czynnośc. Po przetworzenu całego cągu uczącego olcza ę łąd cały cykl powtarzany jet do momentu, aż łąd ten padne ponżej dopuzczalnego. Jak to już yło zaygnalzowane wcześnej, N wykazują tolerancję na necągłośc, przypadkowe zaurzena lu wręcz newelke rak w zorze uczącym. Jet to wynkem właśne zdolnośc do uogólnana wedzy. Jeżel mamy już nauczoną eć, mumy zwerykować jej dzałane. W tym momence ważne jet podane na wejśce ec wzorców ne należących do zoru trenngowego w celu zadana czy eć może eektywne generalzować zadane, którego ę nauczyła. Do tego używano cągu werykującego, który ma te ame cechy co cąg uczący tzn. dane dokładne charakteryzują prolem znamy dokładne odpowedz. Ważne jet jednak, ay dane te ne yły używane uprzedno do uczena. Dokonujemy prezentacj cągu werykującego z tą

różncą, że w tym procee ne rzutujemy łędów wtecz a jedyne rejetruje ę lość odpowedz poprawnych na tej podtawe orzeka, czy eć pełna wymagana, czyl jak zotała nauczona. Wag początkowe, z którym eć rozpoczyna naukę z reguły tanowły lczy wygenerowane przypadkowo z generatora lcz peudoloowych. Po nauczenu ec powtórzono całą procedurę, począwzy od wygenerowana wag początkowych, dla prawdzena otrzymanych wynków. Zazwyczaj ne mamy gwarancj, że eć podcza uczena ne tra w mnmum lokalne. W przedtawonej metodze takego neezpeczeńtwa ne ma, co jet welką zaletą omawanej metody (punkt nnejzej pracy). Jedyne, w przypadku, gdy potępy podcza uczena ą nezadowalające, na co wkazuje zykość malena unkcj celu F() w tounku do znanego dla danego ltru mnmum aolutnego unkcj wrażlwośc koneczne może yć wygenerowane peudoloowe nowego wektora wag początkowych dla ec. Do uczena ec zatoowano tzw. regułę delta uczena z nauczycelem z modykacją Wdorowa-Hoa, dla ec nadzorowanych o dowolnych unkcjach aktywacj poneważ mnmalzuje ona łąd średn kwadratowy pomędzy pożądaną odpowedzą a poudzenem. III. DOBÓR RUKURY, PRARAMERÓW ORAZ OPI PROCEDUR OOWANYCH W PROJEKOWANIU IECI NEURONOWYCH W ŚRODOWIKU MALAB (NEURAL NEWORK OOLBOK) DO WYKONANIA OKREŚLONEGO ZADANIA OPYMALIZACJI WEKORY PARAMERÓW OPYMALNYCH [0.; 0.; 0.; 0.;.07;.; 0.7;.]; %dla zoru uczącego tetującego w trakce uczena [0.7; 0.9; 0.90;.0;.7;.; 0.;.0]; % dla zoru tetującego MACIERZE DANYCH WYJCIOWYCH (optymalnych) Lpowelaj([0.; 0.; 0.; 0.;.07;.; 0.7;.], 00); Vpowelaj([0.; 0.; 0.; 0.;.07;.; 0.7;.], 000); MACIERZ DANYCH WEJCIOWYCH UCZACYCH I MACIERZ DANYCH EUJACYCH W RAKCIE UCZENIA P generator(,,000); _proc(:,) ; _temp powelaj(_proc,000); P_caly [P',_temp']'; PL wyeraj(p_caly,,); %zór danych wejścowych uczących PV wyeraj(p_caly,,); %zór tetujący w trakce uczena N (mara zdolnośc zapamętana danych uczących) MACIERZ DANYCH WEJCIOWYCH EYACYCH P generator(,,000); _proc(:,) ; _temp powelaj(_proc,000); P_caly_ [P',_temp']'; Pt wyeraj(p_caly_,,); %zór tetujący (mara zdolnośc uogólnana N) INICJACJA IECI NEURONOWEJ %INIFF Inttalze eed-orward network up to layer (ncjalzacja ec wartwowej [-- neuronów]) net new([-0 0],[,,'tang',,'pureln']); ogranczena [-0 0;-0 0;-0 0;-0 0;-0 0;-0 0;-0 0;-0 0;-0 0;-0 0;-0 0;-0 0;-0 0;-0 0;-0 0;-0 0;] %przedzał zmennośc danych wejścowych - rozmar wektora ogranczeń wyno X [W,,W,]nt(ogranczena,,'tang',,'pureln'); [W,]nt(ogranczena,,'pureln'); %N jednowartwowa WPÓŁCZYNNIKI RENINGU DLA RÓŻNYCH MEOD OPYMALIZACJI (parametry uczena N) tp[ 0000 0.0 0.00]; %P() - Epoch etween updatng dplay, deault. (czętotlwość wyśwetlana wynków uczena - co epok) %P() - Mamum numer o epoch to tran, deault 000. (ma. lcza epok 000) %P() - um-quared error goal, deault 0.0. (akceptowalny łąd średnokwadratowy 0.0) %P() - Learnng rate, 0.0. (wpółczynnk uczena 0.0-0.00 lu mnej) tp[ 0000 0.0 0.0.0 0 0. 000]; %P() - Epoch etween updatng dplay, deault. %P() - Mamum numer o epoch to tran, deault 000. %P() - um-quared error goal, deault 0.0.

%P() - Mnmum gradent, deault 0.0 %P() - Learnng rate ncreae, deault.0. mnożnk do wzrotu lr (typowo.0) %P() - Learnng rate decreae, deault 0.7. mnożnk do zmnejzana lr (typowo 0.7) %P(7) - Mamum error rato, deault.0. makymalny tounek do tarego łędu ez "rejectng" nowych wartośc wag progów (typowo.0) tpa[ 0000 0.0 0.00.0 0.7 0.9.0]; %P() - Epoch etween updatng dplay, deault. %P() - Mamum numer o epoch to tran, deault 000. %P() - um-quared error goal, deault 0.0. %P() - Learnng rate, 0.0. %P() - Learnng rate ncreae, deault.0. mnożnk do wzrotu lr (typowo.0) %P() - Learnng rate decreae, deault 0.7. mnożnk do zmnejzana lr (typowo 0.7) %P(7) - wpólczynnk momentum (typowo 0.9) %P() - Mamum error rato, deault.0. makymalny tounek do tarego łędu ez "rejectng" nowych wartoc wag progów (typowo.0) tpm[ 0000 0.0 0.0 0.9.0]; %P() - Epoch etween updatng dplay, deault. %P() - Mamum numer o epoch to tran, deault 000. %P() - um-quared error goal, deault 0.0. %P() - Learnng rate, 0.0. %P() - Momentum contant, deault 0.9. wpółczynnk momentum (typowo 0.9) %P() - Mamum error rato, deault.0. makymalny tounek do tarego łędu ez "rejectng" nowych wartoc wag au (typowo.0) tplm[ 0000 0.0 0.0000 0.00 0 0. 000]; %P() - Epoch etween updatng dplay, deault. %P() - Mamum numer o epoch to tran, deault 000. %P() - um-quared error goal, deault 0.0. %P() - Mnmum gradent, deault e-. %P() - Intal value or MU, deault 0.00. %P() - Multpler or ncreang MU, deault 0. %P(7) - Multpler or decreang MU, deault 0.. %P() - Mamum value or MU, deault e0. MEODY UCZENIA N W ROZWAŻANYM ZADANIU OPYMALIZACJI net tran(net,p,t); %BP ran -layer eed-orward network w/ackpropagaton (trenowane ec ze wteczną propagacją łędu) [W,,W,,ep,tr]tp(W,,'tang',W,,'pureln',PL,L,tp); [W,,ep,tr]tp(W,,'pureln',PL,L,tp); %N jednowartwowa %BPX ran -layer eed-orward network w/at ackpropagaton (trenowane ec ze wteczną propagacją łędu z metoda momentum uczenem adaptacyjnym) [W,,W,,ep,tr]tp(W,,'tang',W,,'pureln',PL,L,tp); %ze zorem uczącym [W,,W,,ep,tr]tp(W,,'tang',W,,'pureln',PV,V,tp); %ze zorem tetujący w trakce uczena %RAINBPA ran eed-orward network wth p adaptve learnng (trenowane ec ze wteczną propagacją łędu uczenem adaptacyjnym) [W,,W,,ep,tr]tranpa(W,,'tang',W,,'pureln',PL,L,tpa); %RAINBPM ran eed-orward network wth p momentum (trenowane ec ze wteczną propagacją łędu z metoda momentum) [W,,W,,ep,tr]tranpm(W,,'tang',W,,'pureln',PL,L,tpm); %LM ran -layer eed-orward network w/levenerg-marquardt [W,,W,,ep,tr]tlm(W,,'tang',W,,'pureln',PL,L,tplm); EOWANIE N W ROZPARYWANYM ZADANIU OPYMALIZACJI %IMUFF mulate eed-orward network a mu(pv,w,,'tang',w,,'pureln') a mu(pt,w,,'tang',w,,'pureln')

IV. WYBRANE WYNIKI BADAŃ W OPYMALNYM PROJEKOWANIU FILRÓW AKYWNYCH IR

V. PODUMOWANIE Do adań w nnejzej pracy wykorzytano ymulacje programy uczena dla jednokerunkowej ec welowartwowej napany w programe MALAB, który jet zeroko znanym ardzo częto wykorzytywanym paketem olczenowym. Użyty w tym celu przyornk Neural Network oolo [,,, 7, ] daje duże możlwośc pomocy w tworzenu, mplementacj, oraz ymulacj welu rodzajów ec neuronowych. Wpomnany paket MALAB dzęk możlwośc zykego tounkowo protego kontruowana N, ardzo dorze nadaje ę równeż do rozwązywana zagadneń centrowana (tzn. lokowana wektora wartośc nomnalnych parametrów na hperpłazczyźne rozwązań układowych) oraz do projektowana przypanych do tego wektora np. optymalnych tolerancj układowych. Jak powzechne wadomo N dokonale ltruje zaurzone wartośc ygnałów, a także luktuacje parametrów zawarte w wektorze wejścowym ec zwłazcza o charakterze tochatycznym. Połączene tej zalety N z ch nną podtawową cechą, jaką jet łatwość analzy danych kojarzena najlepzych pośród możlwych rozwązań, czyn z nch oecujące narzędze dla projektanta, zwłazcza w ytuacj uwzględnana na etape projektowana możlwośc luktuacj w praktyce przemyłowej zaprojektowanych parametrów układu. Nauczona (prezentowana w pracy) eć wyjątkowo prawne rozwązywała potawone jej zadane optymalzacj, jednak tylko w przypadku newelkch zman wartośc parametrów. Zdolnośc uogólnana oągnęte przez eć dają możlwośc optymalzacj także w przypadku wektora wejścowego poza zakreu wartośc użytych do nauczena ec, co wykazały uzykane wynk. Jednak, w przypadku wękzych zman parametrów, wydaje ę, że nezędne jet powękzene ec neuronowej przez wprowadzene nowej dodatkowej wartwy ukrytej. LIERAURA [] Brzózka J., Doroczyńk L.: Programowane w Matla, Wydawnctwo MIKOM, Warzawa 99. [] Haykn.: Neural Network, a Comprehenve Foundaton, Macmllan College Pulhng Company, New York, 99. [] Hecht-Nelen R.: Neurocomputng, Addon Weley Pulhng Company, New York, 990. [] Hertz J., Krogh A., Palmer R. G. I.: Wtęp do teor olczeń neuronowych, Wyd. II, WN, Warzawa, 99. [] Mrozek B., Mrozek Z., MALAB Unweralne środowko do olczeń naukowo-techncznych, PLJ, Warzawa 99. [] Mrozek B., Mrozek Z., MALAB., IMULINK., poradnk użytkownka, PLJ, Warzawa 99. [7] MALAB Noteook Uer Gude, veron, he Math. Work, Inc., 997. [] MALAB Product Catalog, he Math. Work, Inc., 997. [9] Oowk.: gnal low graph and neural network, Bologcal Cyernetc, 99, Vol. 70,. 7-9. [0] Oowk.: ec neuronowe w ujęcu algorytmcznym, WN, Warzawa, 99. [] Ryarczyk A., zulc M.: Wykorzytane paketu olczenowego MALAB do mnmalzacj warancj parametrów wyjścowych układu calonego CMO, Mat. VII Kon. ZkwE 00, Poznań-Kekrz, - kwetna 00,. 9-9. [] Nowakowk B., Ryarczyk A.: ztuczne ec neuronowe realzacja zyczna w oparcu o układy FPGA, Mat. VII Kon. ZkwE 00, Poznań-Kekrz, - kwetna 00,. 7-0. [] Ryarczyk A., Nowakowk B.: Neural Network Hardware Implementaton Ung FPGA Kon. MIXDE 00, 0- June 00, Wrocław, Poland. [] Ryarczyk A.: Yeld Optmzaton o Analog Flter Ung tattcal Degn Approach and Multparameter entvty Meaure, Mat. th European Conerence on Crcut heory and Degn (ECCD 9), Itanul (urkey), 7- erpeń 99, tom I. 7-90. [] Ryarczyk A.: Optymalzacja uzyku produkcyjnego układu CMO oparta na optmum wrażlwoścowym jako punkce tartowym, Mat. IV Kon. ZkwE 99, Poznań-Kekrz, - kwetna 999,. -. [] Dłu E.: Praktyczne normacje o ecach neuronowych Mat. I Kon. Entuzjatów Inormatyk, Chełm, - maj 00,. 7-7.