Sieci Neuronowe 2 Michał Bereta

Wielkość: px
Rozpocząć pokaz od strony:

Download "Sieci Neuronowe 2 Michał Bereta"

Transkrypt

1 Zagadnena Sztucznej Intelgencj laboratorum Sec Neuronowe 2 Mchał Bereta Cele laboratorum: zapoznane sę z nowym rodzajam sec neuronowych: secam Kohonena oraz secam radalnym porównane sec Kohonena oraz sec welowarstwowego perceptronu w probleme klasyfkacj psma odręcznego zastosowane sec neuronowej do aproksymacj funkcj Samoorganzujące sę sec Kohonena Sec Kohonena (zwane też SOM Self Orgenzng Maps) są przykładem sec uczonych bez nadzoru (bez nauczycela). Oznacza to, że sec ne są prezentowane wzorcowe odpowedz a jedyne dane wejścowe. Neurony w sec Kohonena są uporządkowane względem sebe przestrzenne. Często realzowane jest to za pomocą satk dwuwymarowej. Zostało to pokazane na rysunku 1: Rysunek 1 Sec Kohonena Można zatem mówć o sąsedztwe danego neuronu. Sąsedztwem tym są nne neurony leżące blsko danego neuronu w przestrzen wyznaczonej przez zastosowane uporządkowane neuronów. Uczene polega na wyznaczenu zwycęskego neuronu modyfkacj jego wektora wag w w kerunku prezentowanego wektora wejścowego x. Zwycęskm neuronem jest ten neuron, którego wag synaptyczne są najbardzej zblżone do prezentowanego wektora danych wejścowych. Zatem wektor wag w w zwycęskego neuronu wyznacza sę za pomocą: d( x, w w ) = mn d( x, w ) 1 n Norma d może by dowolną normą (normą Eukldesową, loczynem skalarnym td.). W trakce uczena zwycęzca oraz jego sąsedztwo podlega adaptacj wag zgodne z regułą Kohonena: w ( k + 1) = w ( k) + η ( k)[ x w ( k)] Parametr eta krok uczena, przeważne malejący w trakce kolejnych teracj. W przypadku danych wejścowych o małych wymarach stneje potrzeba normalzacj wektorów wejścowych.

2 Algorytm WTA(Wnner Takes All) W metodze tej tylko zwycęsk neuron ma prawo adaptacj swoch wag. Aby unknąć przypadku, w którym nektóre neurony ne mają szans wygrać z najslnejszym neuronam, często wprowadza sę mechanzm zmęczena. Polega on na tym, że zwycęsk neuron pauzuje na pewen czas ne borąc udzału w konkurencj, dając tym samym szanse na wygrane nnym neuronom (Algorytm CWTA Conscence Wnner Takes All) Algorytm WTM Wnner Takes Most W metodze tej oprócz wag zwycęskego neuronu zmane polegają równeż wag jego sąsadów według reguły: w ( k + 1) = w ( k) + η ( k) G(, x)[ x w ( k)] gdze G(x,) jest funkcją sąsedztwa. W klasycznym algorytme Kohonena funkcja G(x,) zdefnowana jest jako: G(, x) = 1 0 dla dla d(, w) λ d(, w) > λ gdze d(,w) jest odległoścą pomędzy neuronam w przestrzen sec tzn. na satce (a ne w przestrzen danych wejścowych!), a lambda jest promenem sąsedztwa malejącym do zera w trakce nauk. Jest to tzw. sąsedztwo prostokątne. Innym rodzajem sąsedztwa jest sąsedztwo gaussowske: 2 d (, w) G(, x) = exp( ) 2 2λ W tym przypadku stopeń aktywacj neuronów jest zróżncowany w zależnośc od wartośc funkcj Gaussa. Sąsedz neuronu zwycęskego są modyfkowan w różnym stopnu. Często stosowanym podejścem jest wyróżnene dwóch faz uczena sec Kohonena: - wstępną (ang. orderng phase), podczas której modyfkacj ulegają wag neuronu zwycęzcy oraz jego sąsedztwa malejącego z czasem - końcową (ang. convergence phase), podczas której modyfkowane są wag jedyne neuronu zwycęzcy. Mają one na celu najperw wstępne nauczene sec, a następne jej dostrojene. Zastosowane sec Kohonena: - wykrywane zwązków w zborze wektorów - uczene sę rozkładu danych - kompresja obrazów - wykrywane neprawdłowośc Przykład : Wzualzacja sec Kohonena na płaszczyźne Poberz ze strony program Kohonen.exe. Prezentuje on proces nauk sec Kohonena w przypadku danych uczących dwuwymarowych. Równeż neurony tej sec są uporządkowane na dwuwymarowej satce. Ne mus to wcale być regułą. Należy zapamętać, ze wymarowość danych wejścowych ne mus być równa wymarowośc satk, na której są uporządkowane neurony Kohonena. W przykładze tym przyjęto tak, gdyż ułatwa to wzualzację dzałana algorytmu. Można stosować różne topologe, nekoneczne satkę dwuwymarową, jednak jest ona jedną z najpopularnejszych. Przed przystąpenem do analzy demonstracj, warto podkreslć, co jest prezentowane na ekrane. Nebeske kwadraty to dane uczące. Jak wdać, są to tylko dane wejścowe, ne ma odpowedz wzorcowych, uczene

3 zatem jest nenadzorowane. Czerwone kółka reprezentują neurony. Połączena mędzy nm pokazują, które neurony są sąsadam. Jednak pozycja każdego neuronu na ekrane to ne jego współrzędne w przestrzen tej sec (na satce), lecz raczej wartośc jego wag. Pozwala nam to zaobserwowac, jak bardzo dany neuron zdołał zaadaptować swe wag w kerunku konkretnej danej uczącej. Wdzmy równeż, jak jego sąsedz są przez nego cągnęc. Sła tego cągnęca maleje w trakce kolejnych teracj. Wzualzacja taka jest możlwa dlatego, że wymarowość satk jest taka sama jak wymarowość danych uczących. Satka często jest dwuwymarowa, natomast dane mogą być w praktyce wysokowymarowe. W takch przypadkach dwuwymarowe sec Kohonena stosuje sę do wzualzacj rozkładu danych wysokowymarowych poprzez prezentację nauczonej za pomocą takch danych dwuwymarowej sec Kohonena. Rysunek 2: Program demonstrujący uczene sec Kohonena Zadane: Przyjrzyj sę dzałanu sec dla różnych ustaweń parametów. Przykładowo, nastepujące ustawena: Rysunek 3: Parametry algorytmu Kohonena

4 spowodują, że neuronów będze tyle samo, co danych uczacych (25), zatem każdy neuron pownen znaleźć sę w poblżu swojej danej uczącej. Przykład pokazano na rysunku 4. Rysunek 4: Przykład nauczonej sec Kohonena Można równeż zastosować algorytm Kohonena przy założenu, że sąsedztwo neuronów lczone jest ne w przestrzen sec, lecz w przestrzen wag (a węc tej samej co danych wejścowych). Taka zmana (rezygnacja z ułożena neuronów w sztywną seć) pozwala mówć raczej o zborze luźnych neuronów nż o sec. Cały mechanzm adaptacj wag zwycęzcy oraz jego sąsadów pozostaje natomast nezmenony zmena sę tylko przestrzeń, w której szukamy tych sąsadów. Taka odmana uczena nenadzorowanego w postac algorytmu Kohonena służyć może do znalezena rozkładu danych uczacych, ch podzału na grupy. Podzał ten polega na tym, że wszystke dane, dla których dany neuron jest zwycęzcą, stanową jedną grupę (jedną klasę). Cały zbór neuronów uczy sę zatem sam, jak podzelć wszystke dane wejścowe na rozłączne klasy. Seć tak nauczoną można późnej wykorzystać do klasyfkacj danych wejścowych, które ne uczestnczyły w uczenu sec, poprzez wyznaczene neuronu zwycęskego zaklasyfkowane neznanej danej do klasy reprezentowanej przez ten neuron. Jeśl lczba klas jest z góry znana, można przyjąć lczbę neuronów równą lczbe klas. Nc jednak ne sto na przeszkodze, by jedna klasa była reprezentowana przez węcej nż jeden neuron. Innym algorytmem uczena nenadzorowanego, który może być wykorzystany w tym celu, jest algorytm gazu neuronowego. Nazwa pochodz od własnośc tego algorytmu: zbór neuronów swom zachowanem przypomna zachowane sę cząsteczek gazu. Jego dokladne omówene wykracza poza zakres tego kursu, jednak w ponższym przykładze, zobaczymy jak on dzała w porównanu z algorytmem Kohonena. Przykład : Uczene rozkładu danych dwuwymarowych za pomocą algorytmu Kohonena oraz algorytmu gazu neuronowego. Ze strony poberz plk z demonstracyjnym programam Kohonen_Grupowane.exe oraz Gaz_Neuronowy.exe. Wykorzytaj plk bat w celu zaobserwowana dzałana algorytmu na różnych danych

5 wejścowych. Rysunek 5: Neurony nauczone algorytmem gazu neuronowego. Pytana: Jake róznce w dzałanu obu algorytmów jesteś w stane zauważyć? Który z nch wydaje sę być lepszy? Zadane: Porównane sec Kohonena sec MLP (welowarstowy percpetron) w zadanu klasyfkacj psma ręcznego. Aby rozwązać zadane, wykorzystamy ponowne środowsko JOONE. Umożlwa nam ono przygotowane odpowednch danych uczacych testowych. W tym celu: wyberz Help->Examples->SOM Image Tester (rysunek 6). Rysunek 6: Edytor do przygotowana danych uczących testujących. Edytor ten pozwala na przygotowane potrzebnych danych. Narysuj kształt ltery A nacsnj DownSample. W polu ImageID należy wpsać dentyfkator klasy, do której dany znak należy. Utworzony obraz będze

6 przekształcony automatyczne ma obraz 9x9 pksel bnarnych (czanych lub bałych). Klkając NewImage dodajemy kolejne przykłady znaków w analogczny sposób. Po utworzenu wszystkch znaków nadana m etyket klas (ImageID), klkamy Save Images, co spowoduje zaps danych do plku w formace, który możemy następne wykorzystać w środowsku JOONE do uczena sec. Przykład: Stworzymy plk z danym uczącym abc_tran.txt oraz plk z danym testowym abc_test.txt. Do uczena sec wykorzytamy perwszy z nch, natomast drug wykorzystamy do przetestowana skutecznośc sec po zakończenu nauk. W tym przykładze oba plk zawerają po dwa przykłady lter A, B oraz C z etyketam kolejno 1, 2, 3. Zawartość plku abc_tran.txt 0.0;1.0;1.0;1.0;1.0;1.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;0.0;1.0;1.0;0.0;0.0;1.0;1.0;0.0;0.0;0.0;0.0;1.0;1.0;1.0;1. 0;1.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0; 0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;1 0.0;0.0;0.0;0.0;1.0;1.0;1.0;1.0;0.0;0.0;0.0;0.0;1.0;1.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;0.0;1.0;0.0;0. 0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0; 0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1 1.0;1.0;1.0;1.0;1.0;1.0;1.0;0.0;0.0;1.0;1.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;0.0;1. 0;1.0;1.0;1.0;0.0;0.0;0.0;1.0;1.0;1.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0; 1.0;1.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;1.0;1.0;0.0;0.0;1.0;1.0;1.0;1.0;0.0;0.0;1.0;1.0;1.0;1.0;1.0;0.0;0.0;2 1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;1.0;0. 0;0.0;1.0;0.0;0.0;0.0;1.0;1.0;1.0;0.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0; 0.0;1.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;0.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;2 0.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1. 0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0; 1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;3 0.0;0.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;0.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1. 0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0; 0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;3 Jak wdać, jest sześć danych ucząych, każda z nch to wektor skladający se z 81 (9x9) wartośc pksel (1.0-czarny pksel, 0.0-bały pksel). Każdy wektor jest zakonćzony etyketą klasy, którą reprezentuje.

7 W przypadku drugego plku, sytuacja jest analogczna. Stworzymy teraz w środowsku JOONE seć z neuronam Kohonena, która rozwąże problem klasyfkacj tak przygotowanych danych opsujących ręczne psane znak. Otwórz JOONE stórz nowy projekt. Dodaj nowy FleInput. Ustaw odpowene parametry jak ponżej: Dodaj LnearLayer, ustaw lczbe neuronów wejścowych na 81. Połącz FleInput z LnearLayer. Dodaj nową WnnerTakeAllLayer. Warstwa ta będze mała 3 neurony, jako, że mamy trzy klasy (trzy różne znak). Zatem: lub Połącz LnearLayer z WnnerTakeAllLayer za pomocą KohonenSynapse.

8 Efekt: Otwórz Tools->ControlPanel ustaw parametry : Zwróć uwagę, że supervsed jest teraz ustawone na false. Równeż błąd RMSE ne występuje w uczenu nenadzorowanym. Ne ma równeż nauczycela. Po zakończenu nauk dodaj FleOutput ustaw odpowedną nazwę plku wyjścowego.

9 W ControlPanel ustaw learnng na false, epochs na 1 : Przykładowa zawartość plku wynkowego może wyglądać tak: 1.0;0.0; ;0.0; ;0.0; ;0.0; ;1.0; ;1.0;0.0 Oznacza to, że neuron perwszy odpalł (zwycężył) dla perwszych dwóch danych (dwa znak A), drug neuron odpalł dla pątego szóstego znaku (dwa znak C) a ostatn neuron odpalł dla trzecego czwartego znaku (dwa znak B). Zatem każdy neuron nauczył sę reprezentować jedną klasę. Ne zmenając ustaweń ControlPanel, podepnj pod FleInput plk z danym testowym. FleOutput ustaw na nowy plk wygeneruj odpowedź sec na nowe dane. Sprawdź, czy poprawne klasyfkuje dane, tzn. czy odpowedn neuron odpala dla każdego znaku. Klasyfkacja znaków za pomocą sec MLP (Mult Layer Perceptron) Aby rozwązać zadane klasyfkacj znaków wykorzystamy teraz seć MLP, podobną jak w przypadku problemu XOR. Teraz seć nasza będze mała warstwę wejscową lnową doprowadzającą sygnały do sec, warstwę ukrytą z pewną lczbą neuronów ukrytych, oraz warstwe wyjścową z lczbą neuronów równą lczbe klas, a węc w tym przypadku 3. Skonstruuj następującą seć:

10 Każdy neuron w warstwe wyjścowej pownen odpowadać 1.0 jeśl na wejścu sec pojaw sę znak należący do klasy reprezentowanej przez dany neuron, natomast 0.0 w przecwnym wypadku. Musmy zatem przystosować nasze dane uczące. Plk z danym wygląda teraz tak: 0.0;1.0;1.0;1.0;1.0;0.0;0.0;0.0;0.0;1.0;1.0;0.0;0.0;1.0;1.0;1.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;0.0;1.0;0. 0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;1.0;0.0;0.0; 0.0;0.0;0.0;0.0;0.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0; ;0.0;1.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;0.0;1.0;1.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;0.0;1.0;1.0;0.0;0.0;1.0;1. 0;0.0;0.0;0.0;0.0;1.0;1.0;0.0;1.0;1.0;0.0;0.0;0.0;0.0;1.0;1.0;0.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0; 1.0;1.0;0.0;0.0;0.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0; ;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;1.0;1.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;0. 0;1.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;1.0;1.0;0.0;0.0;1.0; 0.0;0.0;0.0;0.0;1.0;1.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;0.0;1.0; ;1.0;1.0;1.0;1.0;1.0;1.0;1.0;0.0;1.0;1.0;1.0;1.0;0.0;0.0;0.0;1.0;0.0;0.0;1.0;1.0;1.0;0.0;0.0;0.0;1.0;0.0;0.0;0. 0;1.0;1.0;0.0;0.0;0.0;1.0;0.0;0.0;0.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;0.0;0.0;1.0;1.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;1.0; 1.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;1.0;1.0;0.0;0.0;0.0;0.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;0.0;1.0; ;0.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;0.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;0. 0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;0.0; 0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;0.0;0.0; ;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;0. 0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0; 0.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;0.0;0.0;1.0 Zatem ne ma juz w ostatnej kolumne etykety klasy, dodane natomast zostały w trzech ostatnch kolumnach odpowedz wzorcowe dla trzech neuronow warstwy wyjścowej. Przenklwośc Czytelnka pozostawam ustalene, który neuron reprezentuje którą klasę. Tak przygotowane dane można podpąć na wejśce sec oraz do nauczycela. Nauczycel korzysta z trzech ostatnch kolumn, zatem:

11 oraz oraz Naucz seć podobne jak w przypadku problemu XOR. Następne ustaw enabled nauczycela na false zmenając ustawena ControlPanel przekeruj odpowedz do plku wyjścowego. Przykładowy wynk:

12 ; E-5; E ; E-6; E E-8; ; E E-7; ; E E-7; E-6; E-7; E-6; Zatem jak wdać, seć se nauczyła (Dlaczego?). Sprawdź jake będą wynk dla danych testujących. Zadane do wykonana: Powtórz poprzedne zadane dla cyfr od 0 do 9. Przygotuj dane uczące składające sę z każdej cyfry narysowanej 3 razy. Dane testowe składają sę z każdej cyfry narysowanej równeż 3 razy. Przeprowadź oblczena dla sec Kohonena oraz MLP. Która seć dzałała lepej na danych uczących a która na testowych? Czy pomaga zwększene lczby neuronów ukrytych w sec MLP? Wynk oblczneń parametry algorytmów uczena przedstaw w tabelkach. Opsz swoje wnosk. Aproksymacja funkcj jednowymarowej za pomocą sec neuronowej Sec neuronowe uważane są za unwersalne aproksymatory. Przyjrzymy sę problemow aproksymacj funkcj jednej zmennej. Problem aproksymacj polega na oszacowanu, jake będą wartośc funkcj w neznanych punktach rozpatrywanej dzedzny, jeśl dysponujemy pewnym zborem par (x, d), gdze x to punkt dzedzny a d to wartość funkcj w x. Trzeba zatem znaleźć przyblżene funkcj. Aby rozwązać ten problem za pomocą sec neuronowej, zbór par (x, d) bedzemy traktować jako dane uczące: x jako dane wejscowe a d jako wzorcowe odpowedz. Od nauczonej sec bedzemy oczekwać, ze równez w pozostałych punktach dzedzny bedze odpowadała zgodne z prawdzwym przebegem neznanej funkcj (neznanej często w praktyce, gdy mamy tylko pary (x, d) np. z pomarów). Generowane danych uczących testowych Poberz ze strony program funkcje.exe. Z jego pomocą wygeneruj dane uczace testowe (po 150 par) dla jednej z ponższych funkcj w zadanym przedzale.! Funkcje wskazuje prowadzący! 1. y = sn(2*x) + log(x 2 ) w przedzale [1 ; 15] 2. y = sn(2*x) + ( cos(4*x) ) 3 w przedzale [-1 ; 1] 3. y = x 2 + ( cos(4*x) ) 3 w przedzale [-1.5 ; 2.5] 4. y = log( x 3 ) - log( x 5 ) + ( cos(4*x) ) 3 w przedzale [5 ; 12] 5. y= x + sn(3*cos(5*x)) w przedzale [0 ; 2] 6. y= x 1/3 + sn(5*x) w przedzale [1.5 ; 5] 7. y = 0.5*x + sn(x 3 ) w przedzale [0 ; 4] 8. y = x 3 x 2 + sn(4*x) - cos(15*x) w przedzale [-1 ; 1] 9. y = - x 2 - x + cos(10*x) - sn(50*x) w przedzale [-1 ; 1]

13 10. y = - x + sn(5*x) - cos(13*x) w przedzale [-1 ; 1] Plk wygenerowany przez program jest w formace akceptowanym przez Joone. Fragment plku: (perwsza kolumna x, druga d) ; ; ; ; ; ; td... Poberz ze strony program Rysownk.exe z jego pomocą zobacz, jak wygląda przebeg funkcj. Przykładowo:

14 Konstrukcja sec oraz jej uczene Stwórz w środowsku JOONE seć z sgmodalnym neuronam w warstwe ukrytej, jednym neuronem w wartwe wyjścowej. Dadaj nauczycela, który bedze korzystał z drugej kolumny zawartej w plku. Perwsza kolumna to dane wejścowe sec, zatem warstwa wejścowa sec pownna meć jeden neuron lnowy. Odpoweno połącz elementy ustaw parametry uczena bazując na swom dośwadczenu. Przykładowo:

15 Jeśl przekerujemy odpowedź sec do plku, otrzymamy w nm jedną kolumnę. Plk tak można wykorzystać w programe Rysownk.exe. Przykładowo: Odpowedź sec (na nebesko) przed nauką:

16 Po nauce przykładowo otrzymamy: Jak wdać rezultat jest dalek od dealnego. Tak może sę zdarzyć, ale ne mus. Zależy to od danych uczących. Jeśl sygnały wejścowe mają duże wartośc (np. w tym przypadku maksymalna wartość to prawe 5 patrz: oś x) to seć będze mała problemy z nauczenem sę, gdyż występuje zjawsko tzw. nasycena neuronów. Aby tego unknąć, trzeba znormalzować dane, najlepej wejścowy wyjścowe, przykładowo do przedzału [0,1]. Możemy to zrobć już w środowsku JONNE. W tym celu dodajemy NewNormalzer do FleInput przy warstwe wejścowej oraz nauczyelu. W ustawenach zostawamy domyślną normalzację

17 na przedzał [0,1]. Aby wrócć do orgnalnego przedzału wartośc funkcj, użyjemy NewUnNormalzer, który podepnemy do FleOutput, do którego przekerowujemy odpowedz sec. Schemat pownen wyglądać tak: a ustawena: Pozostawene 0 (zer) dla InputDataMn, InputDataMax, ndatamn oraz ndatamax oznacza, że program sam znajdze mn oraz max wejścowych danych. W przypadku DataUnNormalzer (ostatne okenko) parametry outdatamax oraz outdatamn należy odczytać korzystając z wykresu w programe Rysownk sprawdzając, jaka jest mnmalna oraz maksymalna wartość danej funkcj w zadanym przedzale. W powyższym przypadku mamy mn około 0.62 a max około (patrz ponżej)

18 Tak wzbogaconą seć uczymy (pamętaj o zresetowanu wag : Tools->Randomze!), następne odłączamy nauczycela (enabled na false), ustawamy w ControlPanel learnng na false, epochs na 1 przekerowujemy wyjśce sec do plku. Korzystając z powstałego plku z odpowedzam sec, wdzmy, że teraz seć, dzęk normalzacj, nauczyła sę dobrze. Zadane : Dla wskazanej przez prowadzącego funkcj postaraj sę dobrać odpowedną archtekturę sec, tak aby bład RMSE byl najmnejszy. Dla funkcj wygeneruj dwa zestawy danych, trenujące (uczące) oraz testowe. Naucz seć za pomocą danych uczących przedstaw na wykrese jak prezentuje sę odpowedź sec. Dane testowe ne są wykorzystywane w trakce nauk, a jedyne do sprawdzena, jak seć sobe radz z danym, które ne były jej prezentowane podczas nauk. Przedstaw odpowedz sec równeż dla danych testowych. W tym celu, po zakończenu nauk sec, pod odpowedn InputLayer podepnj plk z danym wejścowym testowym przekeruj odpowedź sec do nowego plku, a następne użyj programu

19 Rysownk. Wynk oblczeń parametry algorytmu przedstaw w tabelkach. Wypróbuj różne ustawena sec, równeż z wecej nż jedną warstwą ukrytą. Odpowedz, jaka archtektura była najlepsza dla rozważanego problemu (funkcj). Sec neuronowe radalne RBF (Radal Bass Functon) Sec neuronowe radalne składają sę jedyne z dwóch warstw jak przedstawono to na rysunku 7. Rysunek 7 Seć radalna Warstwa ukryta, do której trafają bezpośredno sygnały wejścowe jest tworzona z neuronów posadających radalne funkcje aktywacj, w przecweństwe do poprzedno poznanych sgmodalnych funkcj aktywacj sec MLP. Najczęścej stosowaną funkcją radalną jest funkcja Gaussa określona wzorem: x c ϕ ( x) = exp( 2 2σ Kształt tej funkcj przedstawa rysunek 8. 2 ) Rysunek 8 Funkcja Gaussa: c=0, sgma=1 Zakres argumentów dla których funkcja tego typu ma wartośc wyraźne wększe od zera jest ogranczony określony przez dwa parametry: centrum radalne c oraz warancję σ odpowedzalną za jej szerokość. Cała seć realzuje zatem odwzorowane

20 K F( x) = w ϕ ( x ) c = 1 W secach sgmodalnych separacja danych odbywała sę za pomocą hperpłaszczyzn, w secach radalnych natomast ma mejsce separacja kołowa za pomocą hpersfer. Warstwa radalna realzuje rzutowane nelnowe na przestrzeń o wększej lośc wymarów. Zgodne z twerdzenem Covera, złożony problem klasyfkacyjny zrzutowany nelnowo w przestrzeń welowymarową może z wększym prawdopodobeństwem lnowo separowalny, nż przy rzutowanu w przestrzeń o mnejszym wymarze. Udowodnono, ze każdy zbór wzorców jest lnowo separowalny przy odpowedno dużym wymarze K. Uczene sec RBF Uczene sec RBF w najprostszym przypadku polega na mnmalzacj funkcj celu 2 p K E = = 1 j= 1 w ϕ ( x j c j ) d gdze K to lczba neuronów ukrytych a p to lczba par uczących. Przy założenu znajomośc parametrów funkcj radalnych, aby określć wartośc wag należy rozwązać układ równań lnowych względem wag. Gw = d gdze G jest macerzą radalną, zwaną równeż macerzą Gaussa. ϕ ( x1.. ϕ ( x p c c 1 1 ) ) ϕ ( x ϕ ( x 1 p.. c c K K ) ) Macerz G jest przeważne macerzą prostokątną, wektor wag oblcza sę zatem za pomocą operacj pseudo nwersj macerzy G: w = G + d = ( G G) T 1 G T d Centra funkcj radalnych ustalć można np.: - losowo, losując centra w przestrzen danych stosując rozkład normalny - statystyczne, używając metody uśredneń (k-means)w celu dentyfkacj klastrów - z użycem samoorganzacj - z użycem algorytmu genetycznego td. Szerokośc funkcj radalnych dobera sę tak, aby pokryta została cała przestrzeń. Inną metodą jest zastosowane zasady wstecznej propagacj błędów zarówno do wartośc wag jak parametrów funkcj radalnych. Aproksymacja funkcj jednej zmennej za pomocą sec RBF Poberz ze strony program demonstracyjny RBF_Demo. Zaobserwuj, jak seć neuronowa radalna uczy sę aproksymować jednowymarową funkcję. Seć ta ma 7 neuronów radalnych ukrytych (kolor nebesk w programe) oraz jeden neuron lnowy w warstwe wyjścowej, dający konkretną wartość aproksymacj w danym punkce dzedzny. Przebeg funkcj przedstawono kolorem czerwonym, aproksymację dokonywaną

21 przez seć natomast kolorem zelonym. Zaobserwuj, jak w trakce nauk są modyfkowane funkcje Gaussa neuronów radalnych. Naukę zaczyna sę klkając na okenko programu prawym przycskem myszy. Przed nauką: Po nauce:

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311 Sztuczne sec neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyk, p. 311 Wykład 6 PLAN: - Repetto (brevs) - Sec neuronowe z radalnym funkcjam bazowym Repetto W aspekce archtektury: zajmowalśmy

Bardziej szczegółowo

Analiza danych OGÓLNY SCHEMAT. http://zajecia.jakubw.pl/ Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja)

Analiza danych OGÓLNY SCHEMAT. http://zajecia.jakubw.pl/ Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja) Analza danych Dane trenngowe testowe. Algorytm k najblższych sąsadów. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ OGÓLNY SCHEMAT Mamy dany zbór danych podzelony na klasy decyzyjne, oraz

Bardziej szczegółowo

Sieci Neuronowe 1 Michał Bereta

Sieci Neuronowe 1 Michał Bereta Wprowadzene Zagadnena Sztucznej Intelgencj laboratorum Sec Neuronowe 1 Mchał Bereta Sztuczne sec neuronowe można postrzegać jako modele matematyczne, które swoje wzorce wywodzą z bolog obserwacj ludzkch

Bardziej szczegółowo

Klasyfkator lnowy Wstęp Klasyfkator lnowy jest najprostszym możlwym klasyfkatorem. Zakłada on lnową separację lnowy podzał dwóch klas mędzy sobą. Przedstawa to ponższy rysunek: 5 4 3 1 0-1 - -3-4 -5-5

Bardziej szczegółowo

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Wykład 2: Uczenie nadzorowane sieci neuronowych - I Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za

Bardziej szczegółowo

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych Najprostsza jest jednostka lnowa: Neuron lnowy potraf ona rozpoznawać wektor wejścowy X = (x 1, x 2,..., x n ) T zapamętany we współczynnkach wagowych W = (w 1, w 2,..., w n ), Zauważmy, że y = W X Załóżmy,

Bardziej szczegółowo

KURS STATYSTYKA. Lekcja 6 Regresja i linie regresji ZADANIE DOMOWE. www.etrapez.pl Strona 1

KURS STATYSTYKA. Lekcja 6 Regresja i linie regresji ZADANIE DOMOWE. www.etrapez.pl Strona 1 KURS STATYSTYKA Lekcja 6 Regresja lne regresj ZADANIE DOMOWE www.etrapez.pl Strona 1 Część 1: TEST Zaznacz poprawną odpowedź (tylko jedna jest prawdzwa). Pytane 1 Funkcja regresj I rodzaju cechy Y zależnej

Bardziej szczegółowo

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Wykład 2: Uczenie nadzorowane sieci neuronowych - I Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za

Bardziej szczegółowo

Wprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu

Wprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu Wprowadzene do Sec Neuronowych Algorytm wstecznej propagacj błędu Maja Czoków, Jarosław Persa --6 Powtórzene. Perceptron sgmodalny Funkcja sgmodalna: σ(x) = + exp( c (x p)) Parametr c odpowada za nachylene

Bardziej szczegółowo

Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba

Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 1 Ćwczene 2: Perceptron WYMAGANIA 1. Sztuczne sec neuronowe budowa oraz ops matematyczny perceptronu (funkcje przejśca perceptronu), uczene perceptronu

Bardziej szczegółowo

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB Rozwązywane zadań optymalzacj w środowsku programu MATLAB Zagadnene optymalzacj polega na znajdowanu najlepszego, względem ustalonego kryterum, rozwązana należącego do zboru rozwązań dopuszczalnych. Standardowe

Bardziej szczegółowo

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych Zaawansowane metody numeryczne Komputerowa analza zagadneń różnczkowych 1. Układy równań lnowych P. F. Góra http://th-www.f.uj.edu.pl/zfs/gora/ semestr letn 2006/07 Podstawowe fakty Równane Ax = b, x,

Bardziej szczegółowo

Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE

Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE Inormatyka Podstawy Programowana 06/07 Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE 6. Równana algebraczne. Poszukujemy rozwązana, czyl chcemy określć perwastk rzeczywste równana:

Bardziej szczegółowo

Laboratorium ochrony danych

Laboratorium ochrony danych Laboratorum ochrony danych Ćwczene nr Temat ćwczena: Cała skończone rozszerzone Cel dydaktyczny: Opanowane programowej metody konstruowana cał skończonych rozszerzonych GF(pm), poznane ch własnośc oraz

Bardziej szczegółowo

KRZYWA BÉZIERA TWORZENIE I WIZUALIZACJA KRZYWYCH PARAMETRYCZNYCH NA PRZYKŁADZIE KRZYWEJ BÉZIERA

KRZYWA BÉZIERA TWORZENIE I WIZUALIZACJA KRZYWYCH PARAMETRYCZNYCH NA PRZYKŁADZIE KRZYWEJ BÉZIERA KRZYWA BÉZIERA TWORZENIE I WIZUALIZACJA KRZYWYCH PARAMETRYCZNYCH NA PRZYKŁADZIE KRZYWEJ BÉZIERA Krzysztof Serżęga Wyższa Szkoła Informatyk Zarządzana w Rzeszowe Streszczene Artykuł porusza temat zwązany

Bardziej szczegółowo

( ) ( ) 2. Zadanie 1. są niezależnymi zmiennymi losowymi o. oraz. rozkładach normalnych, przy czym EX. i σ są nieznane. 1 Niech X

( ) ( ) 2. Zadanie 1. są niezależnymi zmiennymi losowymi o. oraz. rozkładach normalnych, przy czym EX. i σ są nieznane. 1 Niech X Prawdopodobeństwo statystyka.. r. Zadane. Zakładamy, że,,,,, 5 są nezależnym zmennym losowym o rozkładach normalnych, przy czym E = μ Var = σ dla =,,, oraz E = μ Var = 3σ dla =,, 5. Parametry μ, μ σ są

Bardziej szczegółowo

Zapis informacji, systemy pozycyjne 1. Literatura Jerzy Grębosz, Symfonia C++ standard. Harvey M. Deitl, Paul J. Deitl, Arkana C++. Programowanie.

Zapis informacji, systemy pozycyjne 1. Literatura Jerzy Grębosz, Symfonia C++ standard. Harvey M. Deitl, Paul J. Deitl, Arkana C++. Programowanie. Zaps nformacj, systemy pozycyjne 1 Lteratura Jerzy Grębosz, Symfona C++ standard. Harvey M. Detl, Paul J. Detl, Arkana C++. Programowane. Zaps nformacj w komputerach Wszystke elementy danych przetwarzane

Bardziej szczegółowo

Systemy Ochrony Powietrza Ćwiczenia Laboratoryjne

Systemy Ochrony Powietrza Ćwiczenia Laboratoryjne ś POLITECHNIKA POZNAŃSKA INSTYTUT INŻYNIERII ŚRODOWISKA PROWADZĄCY: mgr nż. Łukasz Amanowcz Systemy Ochrony Powetrza Ćwczena Laboratoryjne 2 TEMAT ĆWICZENIA: Oznaczane lczbowego rozkładu lnowych projekcyjnych

Bardziej szczegółowo

Neural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych.

Neural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych. Neural networks Lecture Notes n Pattern Recognton by W.Dzwnel Krótka hstora McCulloch Ptts (1943) - perwszy matematyczny ops dzalana neuronu przetwarzana przez nego danych. Proste neurony, które mogly

Bardziej szczegółowo

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa

Bardziej szczegółowo

WikiWS For Business Sharks

WikiWS For Business Sharks WkWS For Busness Sharks Ops zadana konkursowego Zadane Opracowane algorytmu automatyczne przetwarzającego zdjęce odręczne narysowanego dagramu na tablcy lub kartce do postac wektorowej zapsanej w formace

Bardziej szczegółowo

BADANIA OPERACYJNE. Podejmowanie decyzji w warunkach niepewności. dr Adam Sojda

BADANIA OPERACYJNE. Podejmowanie decyzji w warunkach niepewności. dr Adam Sojda BADANIA OPERACYJNE Podejmowane decyzj w warunkach nepewnośc dr Adam Sojda Teora podejmowana decyzj gry z naturą Wynk dzałana zależy ne tylko od tego, jaką podejmujemy decyzję, ale równeż od tego, jak wystąp

Bardziej szczegółowo

) będą niezależnymi zmiennymi losowymi o tym samym rozkładzie normalnym z następującymi parametrami: nieznaną wartością 1 4

) będą niezależnymi zmiennymi losowymi o tym samym rozkładzie normalnym z następującymi parametrami: nieznaną wartością 1 4 Zadane. Nech ( X, Y ),( X, Y ), K,( X, Y n n ) będą nezależnym zmennym losowym o tym samym rozkładze normalnym z następującym parametram: neznaną wartoścą oczekwaną EX = EY = m, warancją VarX = VarY =

Bardziej szczegółowo

I. Elementy analizy matematycznej

I. Elementy analizy matematycznej WSTAWKA MATEMATYCZNA I. Elementy analzy matematycznej Pochodna funkcj f(x) Pochodna funkcj podaje nam prędkość zman funkcj: df f (x + x) f (x) f '(x) = = lm x 0 (1) dx x Pochodna funkcj podaje nam zarazem

Bardziej szczegółowo

Zastosowanie sieci neuronowych Kohonena do prognozowania obciążeń elektroenergetycznych

Zastosowanie sieci neuronowych Kohonena do prognozowania obciążeń elektroenergetycznych Tomasz CIECHULSKI 1, Stansław OSOWSKI 1,2 Wojskowa Akadema Technczna, Wydzał Elektronk (1), Poltechnka Warszawska, Wydzał Elektryczny (2) do:10.15199/48.2016.10.48 Zastosowane sec neuronowych Kohonena

Bardziej szczegółowo

Analiza rodzajów skutków i krytyczności uszkodzeń FMECA/FMEA według MIL STD - 1629A

Analiza rodzajów skutków i krytyczności uszkodzeń FMECA/FMEA według MIL STD - 1629A Analza rodzajów skutków krytycznośc uszkodzeń FMECA/FMEA według MIL STD - 629A Celem analzy krytycznośc jest szeregowane potencjalnych rodzajów uszkodzeń zdentyfkowanych zgodne z zasadam FMEA na podstawe

Bardziej szczegółowo

Nie istnieje ogólna recepta, każdy przypadek musi być rozważany indywidualnie!

Nie istnieje ogólna recepta, każdy przypadek musi być rozważany indywidualnie! Kwesta wyboru struktury modelu neuronowego Schematyczne przedstawene etapów przetwarzana danych w procese neuronowego modelowana Ne stneje ogólna recepta, każdy przypadek mus być rozważany ndywdualne!

Bardziej szczegółowo

SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW

SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW Stefan WÓJTOWICZ, Katarzyna BIERNAT ZAKŁAD METROLOGII I BADAŃ NIENISZCZĄCYCH INSTYTUT ELEKTROTECHNIKI ul. Pożaryskego 8, 04-703 Warszawa tel.

Bardziej szczegółowo

Wprowadzenie do Sieci Neuronowych Sieci rekurencyjne

Wprowadzenie do Sieci Neuronowych Sieci rekurencyjne Wprowadzene do Sec Neuronowych Sec rekurencyjne M. Czoków, J. Persa 2010-12-07 1 Powtórzene Konstrukcja autoasocjatora Hopfelda 1.1 Konstrukcja Danych jest m obrazów wzorcowych ξ 1..ξ m, gdze każdy pojedynczy

Bardziej szczegółowo

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe Sztuczne sec neuronowe Jerzy Stefanowsk Plan wykładu 1. Wprowadzene 2. Model sztucznego neuronu. 3. Topologe sec neuronowych 4. Reguły uczena sec neuronowych. 5. Klasyfkaca sec neuronowych. 6. Sec warstwowe

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką

Bardziej szczegółowo

METODA UNITARYZACJI ZEROWANEJ Porównanie obiektów przy ocenie wielokryterialnej. Ranking obiektów.

METODA UNITARYZACJI ZEROWANEJ Porównanie obiektów przy ocenie wielokryterialnej. Ranking obiektów. Opracowane: Dorota Mszczyńska METODA UNITARYZACJI ZEROWANEJ Porównane obektów przy ocene welokryteralnej. Rankng obektów. Porównane wybranych obektów (warantów decyzyjnych) ze względu na różne cechy (krytera)

Bardziej szczegółowo

Nieeuklidesowe sieci neuronowe

Nieeuklidesowe sieci neuronowe Unwersytet Mkoaja Kopernka Wydza Fzyk, Astronom Informatyk Stosowanej IS Helena Jurkewcz numer albumu: 177622 Praca magsterska na kerunku Fzyka Komputerowa Neeukldesowe sec neuronowe Opekun pracy dyplomowej

Bardziej szczegółowo

Weryfikacja hipotez dla wielu populacji

Weryfikacja hipotez dla wielu populacji Weryfkacja hpotez dla welu populacj Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Intelgencj Metod Matematycznych Wydzał Informatyk Poltechnk Szczecńskej 5. Parametryczne testy stotnośc w

Bardziej szczegółowo

Twierdzenie Bezouta i liczby zespolone Javier de Lucas. Rozwi azanie 2. Z twierdzenia dzielenia wielomianów, mamy, że

Twierdzenie Bezouta i liczby zespolone Javier de Lucas. Rozwi azanie 2. Z twierdzenia dzielenia wielomianów, mamy, że Twerdzene Bezouta lczby zespolone Javer de Lucas Ćwczene 1 Ustal dla których a, b R można podzelć f 1 X) = X 4 3X 2 + ax b przez f 2 X) = X 2 3X+2 Oblcz a b Z 5 jeżel zak ladamy, że f 1 f 2 s a welomanam

Bardziej szczegółowo

Diagnostyka układów kombinacyjnych

Diagnostyka układów kombinacyjnych Dagnostyka układów kombnacyjnych 1. Wprowadzene Dagnostyka obejmuje: stwerdzene stanu układu, systemu lub ogólne sec logcznej. Jest to tzw. kontrola stanu wykrywająca czy dzałane sec ne jest zakłócane

Bardziej szczegółowo

0 0,2 0, p 0,1 0,2 0,5 0, p 0,3 0,1 0,2 0,4

0 0,2 0, p 0,1 0,2 0,5 0, p 0,3 0,1 0,2 0,4 Zad. 1. Dana jest unkcja prawdopodobeństwa zmennej losowej X -5-1 3 8 p 1 1 c 1 Wyznaczyć: a. stałą c b. wykres unkcj prawdopodobeństwa jej hstogram c. dystrybuantę jej wykres d. prawdopodobeństwa: P (

Bardziej szczegółowo

Ćwiczenie 10. Metody eksploracji danych

Ćwiczenie 10. Metody eksploracji danych Ćwczene 10. Metody eksploracj danych Grupowane (Clusterng) 1. Zadane grupowana Grupowane (ang. clusterng) oznacza grupowane rekordów, obserwacj lub przypadków w klasy podobnych obektów. Grupa (ang. cluster)

Bardziej szczegółowo

W praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np.

W praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np. Wykład 7 Uwaga: W praktyce często zdarza sę, że wynk obu prób możemy traktować jako wynk pomarów na tym samym elemence populacj np. wynk x przed wynk y po operacj dla tego samego osobnka. Należy wówczas

Bardziej szczegółowo

XXX OLIMPIADA FIZYCZNA ETAP III Zadanie doświadczalne

XXX OLIMPIADA FIZYCZNA ETAP III Zadanie doświadczalne XXX OLIMPIADA FIZYCZNA ETAP III Zadane dośwadczalne ZADANIE D Nazwa zadana: Maszyna analogowa. Dane są:. doda półprzewodnkowa (krzemowa) 2. opornk dekadowy (- 5 Ω ), 3. woltomerz cyfrowy, 4. źródło napęca

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 15. ANALIZA DANYCH WYKRYWANIE OBSERWACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska

SYSTEMY UCZĄCE SIĘ WYKŁAD 15. ANALIZA DANYCH WYKRYWANIE OBSERWACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska SYSTEMY UCZĄCE SIĘ WYKŁAD 15. ANALIZA DANYCH WYKRYWANIE OBSERWACJI ODSTAJĄCYCH, UZUPEŁNIANIE BRAKUJĄCYCH DANYCH Częstochowa 2014 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska WYKRYWANIE

Bardziej szczegółowo

6. ROŻNICE MIĘDZY OBSERWACJAMI STATYSTYCZNYMI RUCHU KOLEJOWEGO A SAMOCHODOWEGO

6. ROŻNICE MIĘDZY OBSERWACJAMI STATYSTYCZNYMI RUCHU KOLEJOWEGO A SAMOCHODOWEGO Różnce mędzy obserwacjam statystycznym ruchu kolejowego a samochodowego 7. ROŻNICE MIĘDZY OBSERWACJAMI STATYSTYCZNYMI RUCHU KOLEJOWEGO A SAMOCHODOWEGO.. Obserwacje odstępów mędzy kolejnym wjazdam na stację

Bardziej szczegółowo

Metody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF.

Metody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF. Metody sztucznej inteligencji Zadanie 3: ( klasteryzacja samoorganizująca się mapa Kohonena, (2 aproksymacja sieć RBF dr inż Przemysław Klęsk Klasteryzacja za pomocą samoorganizującej się mapy Kohonena

Bardziej szczegółowo

TRANZYSTOR BIPOLARNY CHARAKTERYSTYKI STATYCZNE

TRANZYSTOR BIPOLARNY CHARAKTERYSTYKI STATYCZNE POLITHNIKA RZSZOWSKA Katedra Podstaw lektronk Instrkcja Nr4 F 00/003 sem. letn TRANZYSTOR IPOLARNY HARAKTRYSTYKI STATYZN elem ćwczena jest pomar charakterystyk statycznych tranzystora bpolarnego npn lb

Bardziej szczegółowo

Systemy Inteligentnego Przetwarzania wykład 3: sieci rekurencyjne, sieci samoorganizujące się

Systemy Inteligentnego Przetwarzania wykład 3: sieci rekurencyjne, sieci samoorganizujące się Systemy Intelgentnego Przetwarzana wykład 3: sec rekurencyne, sec samoorganzuące sę Dr nż. Jacek Mazurkewcz Katedra Informatyk Technczne e-mal: Jacek.Mazurkewcz@pwr.edu.pl Sec neuronowe ze sprzężenem Sprzężena

Bardziej szczegółowo

Wprowadzenie. Support vector machines (maszyny wektorów wspierających, maszyny wektorów nośnych) SVM służy do: Zalety metody SVM

Wprowadzenie. Support vector machines (maszyny wektorów wspierających, maszyny wektorów nośnych) SVM służy do: Zalety metody SVM SVM Wprowadzene Support vector machnes (maszyny wektorów wsperających, maszyny wektorów nośnych) SVM służy do: w wersj podstawowej klasyfkacj bnarnej w wersj z rozszerzenam regresj wyboru najważnejszych

Bardziej szczegółowo

5. OPTYMALIZACJA GRAFOWO-SIECIOWA

5. OPTYMALIZACJA GRAFOWO-SIECIOWA . OPTYMALIZACJA GRAFOWO-SIECIOWA Defncja grafu Pod pojęcem grafu G rozumemy następującą dwójkę uporządkowaną (defncja grafu Berge a): (.) G W,U gdze: W zbór werzchołków grafu, U zbór łuków grafu, U W W,

Bardziej szczegółowo

Statystyka Inżynierska

Statystyka Inżynierska Statystyka Inżynerska dr hab. nż. Jacek Tarasuk AGH, WFIS 013 Wykład DYSKRETNE I CIĄGŁE ROZKŁADY JEDNOWYMIAROWE Zmenna losowa, Funkcja rozkładu, Funkcja gęstośc, Dystrybuanta, Charakterystyk zmennej, Funkcje

Bardziej szczegółowo

5. CHARAKTERYSTYKI CZĘSTOTLIWOŚCIOWE

5. CHARAKTERYSTYKI CZĘSTOTLIWOŚCIOWE 5. CHARAKTERYSTYKI CZĘSTOTLIWOŚCIOWE Oprócz transmtancj operatorowej, do opsu członów układów automatyk stosuje sę tzw. transmtancję wdmową. Transmtancję wdmową G(j wyznaczyć moŝna dzęk podstawenu do wzoru

Bardziej szczegółowo

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia

Bardziej szczegółowo

dy dx stąd w przybliżeniu: y

dy dx stąd w przybliżeniu: y Przykłady do funkcj nelnowych funkcj Törnqusta Proszę sprawdzć uzasadnć, które z podanych zdań są prawdzwe, a które fałszywe: Przykład 1. Mesęczne wydatk na warzywa (y, w jednostkach penężnych, jp) w zależnośc

Bardziej szczegółowo

Zaawansowane metody numeryczne

Zaawansowane metody numeryczne Wykład 9. jej modyfkacje. Oznaczena Będzemy rozpatrywać zagadnene rozwązana następującego układu n równań lnowych z n newadomym x 1... x n : a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 15. ALGORYTMY GENETYCZNE Częstochowa 014 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska TERMINOLOGIA allele wartośc, waranty genów, chromosom - (naczej

Bardziej szczegółowo

Pokazać, że wyżej zdefiniowana struktura algebraiczna jest przestrzenią wektorową nad ciałem

Pokazać, że wyżej zdefiniowana struktura algebraiczna jest przestrzenią wektorową nad ciałem Zestaw zadań : Przestrzene wektorowe. () Wykazać, że V = C ze zwykłym dodawanem jako dodawanem wektorów operacją mnożena przez skalar : C C C, (z, v) z v := z v jest przestrzeną lnową nad całem lczb zespolonych

Bardziej szczegółowo

MATEMATYKA POZIOM ROZSZERZONY Kryteria oceniania odpowiedzi. Arkusz A II. Strona 1 z 5

MATEMATYKA POZIOM ROZSZERZONY Kryteria oceniania odpowiedzi. Arkusz A II. Strona 1 z 5 MATEMATYKA POZIOM ROZSZERZONY Krytera ocenana odpowedz Arkusz A II Strona 1 z 5 Odpowedz Pytane 1 2 3 4 5 6 7 8 9 Odpowedź D C C A B 153 135 232 333 Zad. 10. (0-3) Dana jest funkcja postac. Korzystając

Bardziej szczegółowo

Prawdopodobieństwo i statystyka r.

Prawdopodobieństwo i statystyka r. Prawdopodobeństwo statystya.05.00 r. Zadane Zmenna losowa X ma rozład wyładnczy o wartośc oczewanej, a zmenna losowa Y rozład wyładnczy o wartośc oczewanej. Obe zmenne są nezależne. Oblcz E( Y X + Y =

Bardziej szczegółowo

Kier. MTR Programowanie w MATLABie Laboratorium Ćw. 12

Kier. MTR Programowanie w MATLABie Laboratorium Ćw. 12 Ker. MTR Programowane w MATLABe Laboratorum Ćw. Analza statystyczna grafczna danych pomarowych. Wprowadzene MATLAB dysponuje weloma funcjam umożlwającym przeprowadzene analzy statystycznej pomarów, czy

Bardziej szczegółowo

Proces narodzin i śmierci

Proces narodzin i śmierci Proces narodzn śmerc Jeżel w ewnej oulacj nowe osobnk ojawają sę w sosób losowy, rzy czym gęstość zdarzeń na jednostkę czasu jest stała w czase wynos λ, oraz lczba osobnków n, które ojawły sę od chwl do

Bardziej szczegółowo

Alternatywne metody grupowania i wizualizacji wykorzystujące sieci konkurencyjne

Alternatywne metody grupowania i wizualizacji wykorzystujące sieci konkurencyjne Alternatywne metody grupowana wzualzacj wykorzystujące sec konkurencyjne Janusz Stal Akadema Ekonomczna w Krakowe Katedra Informatyk Streszczene: Samoogranzujące sę mapy cech (SOM) są jednym z rodzajów

Bardziej szczegółowo

CAŁKOWANIE NUMERYCZNE całki pojedyncze

CAŁKOWANIE NUMERYCZNE całki pojedyncze CAŁKOWANIE NUMERYCZNE całk pojedyncze Kwadratury nterpolacyjne Kwadratury nterpolacyjne Rozpatrujemy funkcję f() cągłą ogranczoną w przedzale domknętym [a, b]. Przedzał [a, b] dzelmy na skończoną lczbę

Bardziej szczegółowo

Analiza danych. Analiza danych wielowymiarowych. Regresja liniowa. Dyskryminacja liniowa. PARA ZMIENNYCH LOSOWYCH

Analiza danych. Analiza danych wielowymiarowych. Regresja liniowa. Dyskryminacja liniowa.   PARA ZMIENNYCH LOSOWYCH Analza danych Analza danych welowymarowych. Regresja lnowa. Dyskrymnacja lnowa. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ PARA ZMIENNYCH LOSOWYCH Parę zmennych losowych X, Y możemy

Bardziej szczegółowo

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,

Bardziej szczegółowo

Plan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty)

Plan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty) Plan wykładu Dzałane neuronu dyskretnego warstwy neuronów dyskretnych Wykład : Reguły uczena sec neuronowych. Sec neuronowe ednokerunkowe. Reguła perceptronowa Reguła Wdrowa-Hoffa Reguła delta ałgorzata

Bardziej szczegółowo

Wstęp do metod numerycznych Faktoryzacja SVD Metody iteracyjne. P. F. Góra

Wstęp do metod numerycznych Faktoryzacja SVD Metody iteracyjne. P. F. Góra Wstęp do metod numerycznych Faktoryzacja SVD Metody teracyjne P. F. Góra http://th-www.f.uj.edu.pl/zfs/gora/ 2013 Sngular Value Decomposton Twerdzene 1. Dla każdej macerzy A R M N, M N, stneje rozkład

Bardziej szczegółowo

Sprawozdanie powinno zawierać:

Sprawozdanie powinno zawierać: Sprawozdane pownno zawerać: 1. wypełnoną stronę tytułową (gotowa do ćw. nr 0 na strone drugej, do pozostałych ćwczeń zameszczona na strone 3), 2. krótk ops celu dośwadczena, 3. krótk ops metody pomaru,

Bardziej szczegółowo

Zestaw zadań 4: Przestrzenie wektorowe i podprzestrzenie. Liniowa niezależność. Sumy i sumy proste podprzestrzeni.

Zestaw zadań 4: Przestrzenie wektorowe i podprzestrzenie. Liniowa niezależność. Sumy i sumy proste podprzestrzeni. Zestaw zadań : Przestrzene wektorowe podprzestrzene. Lnowa nezależność. Sumy sumy proste podprzestrzen. () Wykazać, że V = C ze zwykłym dodawanem jako dodawanem wektorów operacją mnożena przez skalar :

Bardziej szczegółowo

EKONOMETRIA I Spotkanie 1, dn. 05.10.2010

EKONOMETRIA I Spotkanie 1, dn. 05.10.2010 EKONOMETRIA I Spotkane, dn. 5..2 Dr Katarzyna Beń Program ramowy: http://www.sgh.waw.pl/nstytuty/e/oferta_dydaktyczna/ekonometra_stacjonarne_nest acjonarne/ Zadana, dane do zadań, ważne nformacje: http://www.e-sgh.pl/ben/ekonometra

Bardziej szczegółowo

Procedura normalizacji

Procedura normalizacji Metody Badań w Geograf Społeczno Ekonomcznej Procedura normalzacj Budowane macerzy danych geografcznych mgr Marcn Semczuk Zakład Przedsęborczośc Gospodark Przestrzennej Instytut Geograf Unwersytet Pedagogczny

Bardziej szczegółowo

WPŁYW PARAMETRÓW DYSKRETYZACJI NA NIEPEWNOŚĆ WYNIKÓW POMIARU OBIEKTÓW OBRAZU CYFROWEGO

WPŁYW PARAMETRÓW DYSKRETYZACJI NA NIEPEWNOŚĆ WYNIKÓW POMIARU OBIEKTÓW OBRAZU CYFROWEGO Walenty OWIECZKO WPŁYW PARAMETRÓW DYSKRETYZACJI A IEPEWOŚĆ WYIKÓW POMIARU OBIEKTÓW OBRAZU CYFROWEGO STRESZCZEIE W artykule przedstaono ynk analzy nepenośc pomaru ybranych cech obektu obrazu cyfroego. Wyznaczono

Bardziej szczegółowo

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Wykład 10 Mapa cech Kohonena i jej modyfikacje - uczenie sieci samoorganizujących się - kwantowanie wektorowe

Bardziej szczegółowo

5. Pochodna funkcji. lim. x c x c. (x c) = lim. g(c + h) g(c) = lim

5. Pochodna funkcji. lim. x c x c. (x c) = lim. g(c + h) g(c) = lim 5. Pocodna funkcj Defncja 5.1 Nec f: (a, b) R nec c (a, b). Jeśl stneje granca lm x c x c to nazywamy ją pocodną funkcj f w punkce c oznaczamy symbolem f (c) Twerdzene 5.1 Jeśl funkcja f: (a, b) R ma pocodną

Bardziej szczegółowo

Badania sondażowe. Braki danych Konstrukcja wag. Agnieszka Zięba. Zakład Badań Marketingowych Instytut Statystyki i Demografii Szkoła Główna Handlowa

Badania sondażowe. Braki danych Konstrukcja wag. Agnieszka Zięba. Zakład Badań Marketingowych Instytut Statystyki i Demografii Szkoła Główna Handlowa Badana sondażowe Brak danych Konstrukcja wag Agneszka Zęba Zakład Badań Marketngowych Instytut Statystyk Demograf Szkoła Główna Handlowa 1 Błędy braku odpowedz Całkowty brak odpowedz (UNIT nonresponse)

Bardziej szczegółowo

± Δ. Podstawowe pojęcia procesu pomiarowego. x rzeczywiste. Określenie jakości poznania rzeczywistości

± Δ. Podstawowe pojęcia procesu pomiarowego. x rzeczywiste. Określenie jakości poznania rzeczywistości Podstawowe pojęca procesu pomarowego kreślene jakośc poznana rzeczywstośc Δ zmerzone rzeczywste 17 9 Zalety stosowana elektrycznych przyrządów 1/ 1. możlwość budowy czujnków zamenających werne każdą welkość

Bardziej szczegółowo

D Archiwum Prac Dyplomowych - Instrukcja dla studentów

D Archiwum Prac Dyplomowych - Instrukcja dla studentów Kraków 01.10.2015 D Archwum Prac Dyplomowych - Instrukcja dla studentów Procedura Archwzacj Prac Dyplomowych jest realzowana zgodne z zarządzenem nr 71/2015 Rektora Unwersytetu Rolnczego m. H. Kołłątaja

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH

STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH 1 Test zgodnośc χ 2 Hpoteza zerowa H 0 ( Cecha X populacj ma rozkład o dystrybuance F). Hpoteza alternatywna H1( Cecha X populacj

Bardziej szczegółowo

Funkcje i charakterystyki zmiennych losowych

Funkcje i charakterystyki zmiennych losowych Funkcje charakterystyk zmennych losowych Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Intelgencj Metod Matematycznych Wydzał Informatyk Poltechnk Szczecńskej 5. Funkcje zmennych losowych

Bardziej szczegółowo

KURS STATYSTYKA. Lekcja 1 Statystyka opisowa ZADANIE DOMOWE. www.etrapez.pl Strona 1

KURS STATYSTYKA. Lekcja 1 Statystyka opisowa ZADANIE DOMOWE. www.etrapez.pl Strona 1 KURS STATYSTYKA Lekcja 1 Statystyka opsowa ZADANIE DOMOWE www.etrapez.pl Strona 1 Część 1: TEST Zaznacz poprawną odpowedź (tylko jedna jest prawdzwa). Pytane 1 W statystyce opsowej mamy pełne nformacje

Bardziej szczegółowo

65120/ / / /200

65120/ / / /200 . W celu zbadana zależnośc pomędzy płcą klentów ch preferencjam, wylosowano kobet mężczyzn zadano m pytane: uważasz za lepszy produkt frmy A czy B? Wynk były następujące: Odpowedź Kobety Mężczyźn Wolę

Bardziej szczegółowo

Minimalizacja globalna, algorytmy genetyczne i zastosowanie w geotechnice

Minimalizacja globalna, algorytmy genetyczne i zastosowanie w geotechnice Mnmalzacja globalna, algorytmy genetyczne zastosowane w geotechnce Metoda sejsmczna Metoda geoelektryczna Podstawowy podzał ZAGADNIENIE PROSTE (ang. forward problem) model + parametry modelu dane (ośrodek,

Bardziej szczegółowo

3. ŁUK ELEKTRYCZNY PRĄDU STAŁEGO I PRZEMIENNEGO

3. ŁUK ELEKTRYCZNY PRĄDU STAŁEGO I PRZEMIENNEGO 3. ŁUK ELEKTRYCZNY PRĄDU STŁEGO I PRZEMIENNEGO 3.1. Cel zakres ćwczena Celem ćwczena jest zapoznane sę z podstawowym właścwoścam łuku elektrycznego palącego sę swobodne, w powetrzu o cśnentmosferycznym.

Bardziej szczegółowo

Problem plecakowy (KNAPSACK PROBLEM).

Problem plecakowy (KNAPSACK PROBLEM). Problem plecakowy (KNAPSACK PROBLEM). Zagadnene optymalzac zwane problemem plecakowym swą nazwę wzęło z analog do sytuac praktyczne podobne do problemu pakowana plecaka. Chodz o to, by zapakować maksymalne

Bardziej szczegółowo

Grupa: Elektrotechnika, wersja z dn Studia stacjonarne, II stopień, sem.1 Laboratorium Techniki Świetlnej

Grupa: Elektrotechnika, wersja z dn Studia stacjonarne, II stopień, sem.1 Laboratorium Techniki Świetlnej ul.potrowo 3a http://lumen.ee.put.poznan.pl Grupa: Elektrotechnka, wersja z dn. 29.03.2016 Studa stacjonarne, stopeń, sem.1 Laboratorum Technk Śwetlnej Ćwczene nr 6 Temat: Badane parametrów fotometrycznych

Bardziej szczegółowo

Diagonalizacja macierzy kwadratowej

Diagonalizacja macierzy kwadratowej Dagonalzacja macerzy kwadratowej Dana jest macerz A nân. Jej wartośc własne wektory własne spełnają równane Ax x dla,..., n Każde z równań własnych osobno można zapsać w postac: a a an x x a a an x x an

Bardziej szczegółowo

Badanie współzależności dwóch cech ilościowych X i Y. Analiza korelacji prostej

Badanie współzależności dwóch cech ilościowych X i Y. Analiza korelacji prostej Badane współzależnośc dwóch cech loścowych X Y. Analza korelacj prostej Kody znaków: żółte wyróżnene nowe pojęce czerwony uwaga kursywa komentarz 1 Zagadnena 1. Zwązek determnstyczny (funkcyjny) a korelacyjny.

Bardziej szczegółowo

Teoria niepewności pomiaru (Rachunek niepewności pomiaru) Rodzaje błędów pomiaru

Teoria niepewności pomiaru (Rachunek niepewności pomiaru) Rodzaje błędów pomiaru Pomary fzyczne - dokonywane tylko ze skończoną dokładnoścą. Powodem - nedoskonałość przyrządów pomarowych neprecyzyjność naszych zmysłów borących udzał w obserwacjach. Podawane samego tylko wynku pomaru

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 7. KLASYFIKATORY BAYESA. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

SYSTEMY UCZĄCE SIĘ WYKŁAD 7. KLASYFIKATORY BAYESA. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska. SYSTEMY UCZĄCE SIĘ WYKŁAD 7. KLASYFIKATORY BAYESA Częstochowa 4 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska TWIERDZENIE BAYESA Wedza pozyskwana przez metody probablstyczne ma

Bardziej szczegółowo

Oligopol dynamiczny. Rozpatrzmy model sekwencyjnej konkurencji ilościowej jako gra jednokrotna z pełną i doskonalej informacją

Oligopol dynamiczny. Rozpatrzmy model sekwencyjnej konkurencji ilościowej jako gra jednokrotna z pełną i doskonalej informacją Olgopol dynamczny Rozpatrzmy model sekwencyjnej konkurencj loścowej jako gra jednokrotna z pełną doskonalej nformacją (1934) Dwa okresy: t=0, 1 tzn. frma 2 podejmując decyzję zna decyzję frmy 1 Q=q 1 +q

Bardziej szczegółowo

Modelowanie i obliczenia techniczne. Metody numeryczne w modelowaniu: Optymalizacja

Modelowanie i obliczenia techniczne. Metody numeryczne w modelowaniu: Optymalizacja Modelowane oblczena technczne Metody numeryczne w modelowanu: Optymalzacja Zadane optymalzacj Optymalzacja to ulepszane lub poprawa jakośc danego rozwązana, projektu, opracowana. Celem optymalzacj jest

Bardziej szczegółowo

Warszawa, 28 stycznia 2017 r., Blok tematyczny II Sztuczne sieci neuronowe (środowisko MATLAB i Simulink z wykorzystaniem Neural Network Toolbox),

Warszawa, 28 stycznia 2017 r., Blok tematyczny II Sztuczne sieci neuronowe (środowisko MATLAB i Simulink z wykorzystaniem Neural Network Toolbox), Studa Doktorancke IBS PA nt. Technk nformacyjne teora zastosowana WYKŁAD Semnarum nt. Modelowane rozwoju systemów w środowsku MATLABA Smulnka Prof. nadzw. dr hab. nż. Jerzy Tchórzewsk, jtchorzewsk@ntera.pl;

Bardziej szczegółowo

Wykład IX Optymalizacja i minimalizacja funkcji

Wykład IX Optymalizacja i minimalizacja funkcji Wykład IX Optymalzacja mnmalzacja funkcj Postawene zadana podstawowe dee jego rozwązana Proste metody mnmalzacj Metody teracj z wykorzystanem perwszej pochodnej Metody teracj z wykorzystanem drugej pochodnej

Bardziej szczegółowo

System Przeciwdziałania Powstawaniu Bezrobocia na Terenach Słabo Zurbanizowanych SPRAWOZDANIE Z BADAŃ Autor: Joanna Wójcik

System Przeciwdziałania Powstawaniu Bezrobocia na Terenach Słabo Zurbanizowanych SPRAWOZDANIE Z BADAŃ   Autor: Joanna Wójcik Opracowane w ramach projektu System Przecwdzałana Powstawanu Bezroboca na Terenach Słabo Zurbanzowanych ze środków Europejskego Funduszu Społecznego w ramach Incjatywy Wspólnotowej EQUAL PARTNERSTWO NA

Bardziej szczegółowo

Wyznaczenie promienia hydrodynamicznego cząsteczki metodą wiskozymetryczną. Część 2. Symulacje komputerowe

Wyznaczenie promienia hydrodynamicznego cząsteczki metodą wiskozymetryczną. Część 2. Symulacje komputerowe Rafał Górnak Wyznaczene promena hydrodynamcznego cząsteczk metodą wskozymetryczną. Część. Symulacje komputerowe Pojęca podstawowe Symulacje komputerowe, zasady dynamk Newtona, dynamka molekularna, potencjał

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 18. ALGORYTMY EWOLUCYJNE - ZASTOSOWANIA Częstochowa 2014 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska ZADANIE ZAŁADUNKU Zadane załadunku plecakowe

Bardziej szczegółowo

Hipotezy o istotności oszacowao parametrów zmiennych objaśniających ˆ ) ˆ

Hipotezy o istotności oszacowao parametrów zmiennych objaśniających ˆ ) ˆ WERYFIKACJA HIPOTEZY O ISTOTNOŚCI OCEN PARAMETRÓW STRUKTURALNYCH MODELU Hpoezy o sonośc oszacowao paramerów zmennych objaśnających Tesowane sonośc paramerów zmennych objaśnających sprowadza sę do nasępującego

Bardziej szczegółowo

Analiza porównawcza rozwoju wybranych banków komercyjnych w latach 2001 2009

Analiza porównawcza rozwoju wybranych banków komercyjnych w latach 2001 2009 Mara Konopka Katedra Ekonomk Organzacj Przedsęborstw Szkoła Główna Gospodarstwa Wejskego w Warszawe Analza porównawcza rozwoju wybranych banków komercyjnych w latach 2001 2009 Wstęp Polska prywatyzacja

Bardziej szczegółowo

Stanisław Cichocki Natalia Nehrebecka. Zajęcia 4

Stanisław Cichocki Natalia Nehrebecka. Zajęcia 4 Stansław Cchock Natala Nehrebecka Zajęca 4 1. Interpretacja parametrów przy zmennych zerojedynkowych Zmenne 0-1 Interpretacja przy zmennej 0 1 w modelu lnowym względem zmennych objaśnających Interpretacja

Bardziej szczegółowo

WYZNACZANIE WSPÓŁCZYNNIKA LEPKOŚCI CIECZY METODĄ STOKESA

WYZNACZANIE WSPÓŁCZYNNIKA LEPKOŚCI CIECZY METODĄ STOKESA WYZNACZANIE WSPÓŁCZYNNIKA LEPKOŚCI CIECZY METODĄ STOKESA. Ops teoretyczny do ćwczena zameszczony jest na strone www.wtc.wat.edu.pl w dzale DYDAKTYKA FIZYKA ĆWICZENIA LABORATORYJNE.. Ops układu pomarowego

Bardziej szczegółowo

Ćwiczenie 2. Parametry statyczne tranzystorów bipolarnych

Ćwiczenie 2. Parametry statyczne tranzystorów bipolarnych Ćwczene arametry statyczne tranzystorów bpolarnych el ćwczena odstawowym celem ćwczena jest poznane statycznych charakterystyk tranzystorów bpolarnych oraz metod dentyfkacj parametrów odpowadających m

Bardziej szczegółowo

Podstawy teorii falek (Wavelets)

Podstawy teorii falek (Wavelets) Podstawy teor falek (Wavelets) Ψ(). Transformaca Haara (97).. Przykład pewne metody zapsu obrazu Transformaca Haara Przykład zapsu obrazu -D Podstawy matematyczne transformac Algorytmy rozkładana funkc

Bardziej szczegółowo

ZAJĘCIA X. Zasada największej wiarygodności

ZAJĘCIA X. Zasada największej wiarygodności ZAJĘCIA X Zasada najwększej warygodnośc Funkcja warygodnośc Estymacja wg zasady maksymalzacj warygodnośc Rodzna estymatorów ML Przypadk szczególne WPROWADZEIE Komputerowa dentyfkacja obektów Przyjęce na

Bardziej szczegółowo