Sieci Neuronowe 2 Michał Bereta
|
|
- Stefan Karpiński
- 5 lat temu
- Przeglądów:
Transkrypt
1 Zagadnena Sztucznej Intelgencj laboratorum Sec Neuronowe 2 Mchał Bereta Cele laboratorum: zapoznane sę z nowym rodzajam sec neuronowych: secam Kohonena oraz secam radalnym porównane sec Kohonena oraz sec welowarstwowego perceptronu w probleme klasyfkacj psma odręcznego zastosowane sec neuronowej do aproksymacj funkcj Samoorganzujące sę sec Kohonena Sec Kohonena (zwane też SOM Self Orgenzng Maps) są przykładem sec uczonych bez nadzoru (bez nauczycela). Oznacza to, że sec ne są prezentowane wzorcowe odpowedz a jedyne dane wejścowe. Neurony w sec Kohonena są uporządkowane względem sebe przestrzenne. Często realzowane jest to za pomocą satk dwuwymarowej. Zostało to pokazane na rysunku 1: Rysunek 1 Sec Kohonena Można zatem mówć o sąsedztwe danego neuronu. Sąsedztwem tym są nne neurony leżące blsko danego neuronu w przestrzen wyznaczonej przez zastosowane uporządkowane neuronów. Uczene polega na wyznaczenu zwycęskego neuronu modyfkacj jego wektora wag w w kerunku prezentowanego wektora wejścowego x. Zwycęskm neuronem jest ten neuron, którego wag synaptyczne są najbardzej zblżone do prezentowanego wektora danych wejścowych. Zatem wektor wag w w zwycęskego neuronu wyznacza sę za pomocą: d( x, w w ) = mn d( x, w ) 1 n Norma d może by dowolną normą (normą Eukldesową, loczynem skalarnym td.). W trakce uczena zwycęzca oraz jego sąsedztwo podlega adaptacj wag zgodne z regułą Kohonena: w ( k + 1) = w ( k) + η ( k)[ x w ( k)] Parametr eta krok uczena, przeważne malejący w trakce kolejnych teracj. W przypadku danych wejścowych o małych wymarach stneje potrzeba normalzacj wektorów wejścowych.
2 Algorytm WTA(Wnner Takes All) W metodze tej tylko zwycęsk neuron ma prawo adaptacj swoch wag. Aby unknąć przypadku, w którym nektóre neurony ne mają szans wygrać z najslnejszym neuronam, często wprowadza sę mechanzm zmęczena. Polega on na tym, że zwycęsk neuron pauzuje na pewen czas ne borąc udzału w konkurencj, dając tym samym szanse na wygrane nnym neuronom (Algorytm CWTA Conscence Wnner Takes All) Algorytm WTM Wnner Takes Most W metodze tej oprócz wag zwycęskego neuronu zmane polegają równeż wag jego sąsadów według reguły: w ( k + 1) = w ( k) + η ( k) G(, x)[ x w ( k)] gdze G(x,) jest funkcją sąsedztwa. W klasycznym algorytme Kohonena funkcja G(x,) zdefnowana jest jako: G(, x) = 1 0 dla dla d(, w) λ d(, w) > λ gdze d(,w) jest odległoścą pomędzy neuronam w przestrzen sec tzn. na satce (a ne w przestrzen danych wejścowych!), a lambda jest promenem sąsedztwa malejącym do zera w trakce nauk. Jest to tzw. sąsedztwo prostokątne. Innym rodzajem sąsedztwa jest sąsedztwo gaussowske: 2 d (, w) G(, x) = exp( ) 2 2λ W tym przypadku stopeń aktywacj neuronów jest zróżncowany w zależnośc od wartośc funkcj Gaussa. Sąsedz neuronu zwycęskego są modyfkowan w różnym stopnu. Często stosowanym podejścem jest wyróżnene dwóch faz uczena sec Kohonena: - wstępną (ang. orderng phase), podczas której modyfkacj ulegają wag neuronu zwycęzcy oraz jego sąsedztwa malejącego z czasem - końcową (ang. convergence phase), podczas której modyfkowane są wag jedyne neuronu zwycęzcy. Mają one na celu najperw wstępne nauczene sec, a następne jej dostrojene. Zastosowane sec Kohonena: - wykrywane zwązków w zborze wektorów - uczene sę rozkładu danych - kompresja obrazów - wykrywane neprawdłowośc Przykład : Wzualzacja sec Kohonena na płaszczyźne Poberz ze strony program Kohonen.exe. Prezentuje on proces nauk sec Kohonena w przypadku danych uczących dwuwymarowych. Równeż neurony tej sec są uporządkowane na dwuwymarowej satce. Ne mus to wcale być regułą. Należy zapamętać, ze wymarowość danych wejścowych ne mus być równa wymarowośc satk, na której są uporządkowane neurony Kohonena. W przykładze tym przyjęto tak, gdyż ułatwa to wzualzację dzałana algorytmu. Można stosować różne topologe, nekoneczne satkę dwuwymarową, jednak jest ona jedną z najpopularnejszych. Przed przystąpenem do analzy demonstracj, warto podkreslć, co jest prezentowane na ekrane. Nebeske kwadraty to dane uczące. Jak wdać, są to tylko dane wejścowe, ne ma odpowedz wzorcowych, uczene
3 zatem jest nenadzorowane. Czerwone kółka reprezentują neurony. Połączena mędzy nm pokazują, które neurony są sąsadam. Jednak pozycja każdego neuronu na ekrane to ne jego współrzędne w przestrzen tej sec (na satce), lecz raczej wartośc jego wag. Pozwala nam to zaobserwowac, jak bardzo dany neuron zdołał zaadaptować swe wag w kerunku konkretnej danej uczącej. Wdzmy równeż, jak jego sąsedz są przez nego cągnęc. Sła tego cągnęca maleje w trakce kolejnych teracj. Wzualzacja taka jest możlwa dlatego, że wymarowość satk jest taka sama jak wymarowość danych uczących. Satka często jest dwuwymarowa, natomast dane mogą być w praktyce wysokowymarowe. W takch przypadkach dwuwymarowe sec Kohonena stosuje sę do wzualzacj rozkładu danych wysokowymarowych poprzez prezentację nauczonej za pomocą takch danych dwuwymarowej sec Kohonena. Rysunek 2: Program demonstrujący uczene sec Kohonena Zadane: Przyjrzyj sę dzałanu sec dla różnych ustaweń parametów. Przykładowo, nastepujące ustawena: Rysunek 3: Parametry algorytmu Kohonena
4 spowodują, że neuronów będze tyle samo, co danych uczacych (25), zatem każdy neuron pownen znaleźć sę w poblżu swojej danej uczącej. Przykład pokazano na rysunku 4. Rysunek 4: Przykład nauczonej sec Kohonena Można równeż zastosować algorytm Kohonena przy założenu, że sąsedztwo neuronów lczone jest ne w przestrzen sec, lecz w przestrzen wag (a węc tej samej co danych wejścowych). Taka zmana (rezygnacja z ułożena neuronów w sztywną seć) pozwala mówć raczej o zborze luźnych neuronów nż o sec. Cały mechanzm adaptacj wag zwycęzcy oraz jego sąsadów pozostaje natomast nezmenony zmena sę tylko przestrzeń, w której szukamy tych sąsadów. Taka odmana uczena nenadzorowanego w postac algorytmu Kohonena służyć może do znalezena rozkładu danych uczacych, ch podzału na grupy. Podzał ten polega na tym, że wszystke dane, dla których dany neuron jest zwycęzcą, stanową jedną grupę (jedną klasę). Cały zbór neuronów uczy sę zatem sam, jak podzelć wszystke dane wejścowe na rozłączne klasy. Seć tak nauczoną można późnej wykorzystać do klasyfkacj danych wejścowych, które ne uczestnczyły w uczenu sec, poprzez wyznaczene neuronu zwycęskego zaklasyfkowane neznanej danej do klasy reprezentowanej przez ten neuron. Jeśl lczba klas jest z góry znana, można przyjąć lczbę neuronów równą lczbe klas. Nc jednak ne sto na przeszkodze, by jedna klasa była reprezentowana przez węcej nż jeden neuron. Innym algorytmem uczena nenadzorowanego, który może być wykorzystany w tym celu, jest algorytm gazu neuronowego. Nazwa pochodz od własnośc tego algorytmu: zbór neuronów swom zachowanem przypomna zachowane sę cząsteczek gazu. Jego dokladne omówene wykracza poza zakres tego kursu, jednak w ponższym przykładze, zobaczymy jak on dzała w porównanu z algorytmem Kohonena. Przykład : Uczene rozkładu danych dwuwymarowych za pomocą algorytmu Kohonena oraz algorytmu gazu neuronowego. Ze strony poberz plk z demonstracyjnym programam Kohonen_Grupowane.exe oraz Gaz_Neuronowy.exe. Wykorzytaj plk bat w celu zaobserwowana dzałana algorytmu na różnych danych
5 wejścowych. Rysunek 5: Neurony nauczone algorytmem gazu neuronowego. Pytana: Jake róznce w dzałanu obu algorytmów jesteś w stane zauważyć? Który z nch wydaje sę być lepszy? Zadane: Porównane sec Kohonena sec MLP (welowarstowy percpetron) w zadanu klasyfkacj psma ręcznego. Aby rozwązać zadane, wykorzystamy ponowne środowsko JOONE. Umożlwa nam ono przygotowane odpowednch danych uczacych testowych. W tym celu: wyberz Help->Examples->SOM Image Tester (rysunek 6). Rysunek 6: Edytor do przygotowana danych uczących testujących. Edytor ten pozwala na przygotowane potrzebnych danych. Narysuj kształt ltery A nacsnj DownSample. W polu ImageID należy wpsać dentyfkator klasy, do której dany znak należy. Utworzony obraz będze
6 przekształcony automatyczne ma obraz 9x9 pksel bnarnych (czanych lub bałych). Klkając NewImage dodajemy kolejne przykłady znaków w analogczny sposób. Po utworzenu wszystkch znaków nadana m etyket klas (ImageID), klkamy Save Images, co spowoduje zaps danych do plku w formace, który możemy następne wykorzystać w środowsku JOONE do uczena sec. Przykład: Stworzymy plk z danym uczącym abc_tran.txt oraz plk z danym testowym abc_test.txt. Do uczena sec wykorzytamy perwszy z nch, natomast drug wykorzystamy do przetestowana skutecznośc sec po zakończenu nauk. W tym przykładze oba plk zawerają po dwa przykłady lter A, B oraz C z etyketam kolejno 1, 2, 3. Zawartość plku abc_tran.txt 0.0;1.0;1.0;1.0;1.0;1.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;0.0;1.0;1.0;0.0;0.0;1.0;1.0;0.0;0.0;0.0;0.0;1.0;1.0;1.0;1. 0;1.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0; 0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;1 0.0;0.0;0.0;0.0;1.0;1.0;1.0;1.0;0.0;0.0;0.0;0.0;1.0;1.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;0.0;1.0;0.0;0. 0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0; 0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1 1.0;1.0;1.0;1.0;1.0;1.0;1.0;0.0;0.0;1.0;1.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;0.0;1. 0;1.0;1.0;1.0;0.0;0.0;0.0;1.0;1.0;1.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0; 1.0;1.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;1.0;1.0;0.0;0.0;1.0;1.0;1.0;1.0;0.0;0.0;1.0;1.0;1.0;1.0;1.0;0.0;0.0;2 1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;1.0;0. 0;0.0;1.0;0.0;0.0;0.0;1.0;1.0;1.0;0.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0; 0.0;1.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;0.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;2 0.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1. 0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0; 1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;3 0.0;0.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;0.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1. 0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0; 0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;3 Jak wdać, jest sześć danych ucząych, każda z nch to wektor skladający se z 81 (9x9) wartośc pksel (1.0-czarny pksel, 0.0-bały pksel). Każdy wektor jest zakonćzony etyketą klasy, którą reprezentuje.
7 W przypadku drugego plku, sytuacja jest analogczna. Stworzymy teraz w środowsku JOONE seć z neuronam Kohonena, która rozwąże problem klasyfkacj tak przygotowanych danych opsujących ręczne psane znak. Otwórz JOONE stórz nowy projekt. Dodaj nowy FleInput. Ustaw odpowene parametry jak ponżej: Dodaj LnearLayer, ustaw lczbe neuronów wejścowych na 81. Połącz FleInput z LnearLayer. Dodaj nową WnnerTakeAllLayer. Warstwa ta będze mała 3 neurony, jako, że mamy trzy klasy (trzy różne znak). Zatem: lub Połącz LnearLayer z WnnerTakeAllLayer za pomocą KohonenSynapse.
8 Efekt: Otwórz Tools->ControlPanel ustaw parametry : Zwróć uwagę, że supervsed jest teraz ustawone na false. Równeż błąd RMSE ne występuje w uczenu nenadzorowanym. Ne ma równeż nauczycela. Po zakończenu nauk dodaj FleOutput ustaw odpowedną nazwę plku wyjścowego.
9 W ControlPanel ustaw learnng na false, epochs na 1 : Przykładowa zawartość plku wynkowego może wyglądać tak: 1.0;0.0; ;0.0; ;0.0; ;0.0; ;1.0; ;1.0;0.0 Oznacza to, że neuron perwszy odpalł (zwycężył) dla perwszych dwóch danych (dwa znak A), drug neuron odpalł dla pątego szóstego znaku (dwa znak C) a ostatn neuron odpalł dla trzecego czwartego znaku (dwa znak B). Zatem każdy neuron nauczył sę reprezentować jedną klasę. Ne zmenając ustaweń ControlPanel, podepnj pod FleInput plk z danym testowym. FleOutput ustaw na nowy plk wygeneruj odpowedź sec na nowe dane. Sprawdź, czy poprawne klasyfkuje dane, tzn. czy odpowedn neuron odpala dla każdego znaku. Klasyfkacja znaków za pomocą sec MLP (Mult Layer Perceptron) Aby rozwązać zadane klasyfkacj znaków wykorzystamy teraz seć MLP, podobną jak w przypadku problemu XOR. Teraz seć nasza będze mała warstwę wejscową lnową doprowadzającą sygnały do sec, warstwę ukrytą z pewną lczbą neuronów ukrytych, oraz warstwe wyjścową z lczbą neuronów równą lczbe klas, a węc w tym przypadku 3. Skonstruuj następującą seć:
10 Każdy neuron w warstwe wyjścowej pownen odpowadać 1.0 jeśl na wejścu sec pojaw sę znak należący do klasy reprezentowanej przez dany neuron, natomast 0.0 w przecwnym wypadku. Musmy zatem przystosować nasze dane uczące. Plk z danym wygląda teraz tak: 0.0;1.0;1.0;1.0;1.0;0.0;0.0;0.0;0.0;1.0;1.0;0.0;0.0;1.0;1.0;1.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;0.0;1.0;0. 0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;1.0;0.0;0.0; 0.0;0.0;0.0;0.0;0.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0; ;0.0;1.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;0.0;1.0;1.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;0.0;1.0;1.0;0.0;0.0;1.0;1. 0;0.0;0.0;0.0;0.0;1.0;1.0;0.0;1.0;1.0;0.0;0.0;0.0;0.0;1.0;1.0;0.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0; 1.0;1.0;0.0;0.0;0.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0; ;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;1.0;1.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;0. 0;1.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;1.0;1.0;0.0;0.0;1.0; 0.0;0.0;0.0;0.0;1.0;1.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;0.0;1.0; ;1.0;1.0;1.0;1.0;1.0;1.0;1.0;0.0;1.0;1.0;1.0;1.0;0.0;0.0;0.0;1.0;0.0;0.0;1.0;1.0;1.0;0.0;0.0;0.0;1.0;0.0;0.0;0. 0;1.0;1.0;0.0;0.0;0.0;1.0;0.0;0.0;0.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;0.0;0.0;1.0;1.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;1.0; 1.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;1.0;1.0;0.0;0.0;0.0;0.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;0.0;1.0; ;0.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;0.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;0. 0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;0.0; 0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;0.0;0.0; ;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;0. 0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;0.0;0.0; 0.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;0.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;1.0;0.0;0.0;1.0 Zatem ne ma juz w ostatnej kolumne etykety klasy, dodane natomast zostały w trzech ostatnch kolumnach odpowedz wzorcowe dla trzech neuronow warstwy wyjścowej. Przenklwośc Czytelnka pozostawam ustalene, który neuron reprezentuje którą klasę. Tak przygotowane dane można podpąć na wejśce sec oraz do nauczycela. Nauczycel korzysta z trzech ostatnch kolumn, zatem:
11 oraz oraz Naucz seć podobne jak w przypadku problemu XOR. Następne ustaw enabled nauczycela na false zmenając ustawena ControlPanel przekeruj odpowedz do plku wyjścowego. Przykładowy wynk:
12 ; E-5; E ; E-6; E E-8; ; E E-7; ; E E-7; E-6; E-7; E-6; Zatem jak wdać, seć se nauczyła (Dlaczego?). Sprawdź jake będą wynk dla danych testujących. Zadane do wykonana: Powtórz poprzedne zadane dla cyfr od 0 do 9. Przygotuj dane uczące składające sę z każdej cyfry narysowanej 3 razy. Dane testowe składają sę z każdej cyfry narysowanej równeż 3 razy. Przeprowadź oblczena dla sec Kohonena oraz MLP. Która seć dzałała lepej na danych uczących a która na testowych? Czy pomaga zwększene lczby neuronów ukrytych w sec MLP? Wynk oblczneń parametry algorytmów uczena przedstaw w tabelkach. Opsz swoje wnosk. Aproksymacja funkcj jednowymarowej za pomocą sec neuronowej Sec neuronowe uważane są za unwersalne aproksymatory. Przyjrzymy sę problemow aproksymacj funkcj jednej zmennej. Problem aproksymacj polega na oszacowanu, jake będą wartośc funkcj w neznanych punktach rozpatrywanej dzedzny, jeśl dysponujemy pewnym zborem par (x, d), gdze x to punkt dzedzny a d to wartość funkcj w x. Trzeba zatem znaleźć przyblżene funkcj. Aby rozwązać ten problem za pomocą sec neuronowej, zbór par (x, d) bedzemy traktować jako dane uczące: x jako dane wejscowe a d jako wzorcowe odpowedz. Od nauczonej sec bedzemy oczekwać, ze równez w pozostałych punktach dzedzny bedze odpowadała zgodne z prawdzwym przebegem neznanej funkcj (neznanej często w praktyce, gdy mamy tylko pary (x, d) np. z pomarów). Generowane danych uczących testowych Poberz ze strony program funkcje.exe. Z jego pomocą wygeneruj dane uczace testowe (po 150 par) dla jednej z ponższych funkcj w zadanym przedzale.! Funkcje wskazuje prowadzący! 1. y = sn(2*x) + log(x 2 ) w przedzale [1 ; 15] 2. y = sn(2*x) + ( cos(4*x) ) 3 w przedzale [-1 ; 1] 3. y = x 2 + ( cos(4*x) ) 3 w przedzale [-1.5 ; 2.5] 4. y = log( x 3 ) - log( x 5 ) + ( cos(4*x) ) 3 w przedzale [5 ; 12] 5. y= x + sn(3*cos(5*x)) w przedzale [0 ; 2] 6. y= x 1/3 + sn(5*x) w przedzale [1.5 ; 5] 7. y = 0.5*x + sn(x 3 ) w przedzale [0 ; 4] 8. y = x 3 x 2 + sn(4*x) - cos(15*x) w przedzale [-1 ; 1] 9. y = - x 2 - x + cos(10*x) - sn(50*x) w przedzale [-1 ; 1]
13 10. y = - x + sn(5*x) - cos(13*x) w przedzale [-1 ; 1] Plk wygenerowany przez program jest w formace akceptowanym przez Joone. Fragment plku: (perwsza kolumna x, druga d) ; ; ; ; ; ; td... Poberz ze strony program Rysownk.exe z jego pomocą zobacz, jak wygląda przebeg funkcj. Przykładowo:
14 Konstrukcja sec oraz jej uczene Stwórz w środowsku JOONE seć z sgmodalnym neuronam w warstwe ukrytej, jednym neuronem w wartwe wyjścowej. Dadaj nauczycela, który bedze korzystał z drugej kolumny zawartej w plku. Perwsza kolumna to dane wejścowe sec, zatem warstwa wejścowa sec pownna meć jeden neuron lnowy. Odpoweno połącz elementy ustaw parametry uczena bazując na swom dośwadczenu. Przykładowo:
15 Jeśl przekerujemy odpowedź sec do plku, otrzymamy w nm jedną kolumnę. Plk tak można wykorzystać w programe Rysownk.exe. Przykładowo: Odpowedź sec (na nebesko) przed nauką:
16 Po nauce przykładowo otrzymamy: Jak wdać rezultat jest dalek od dealnego. Tak może sę zdarzyć, ale ne mus. Zależy to od danych uczących. Jeśl sygnały wejścowe mają duże wartośc (np. w tym przypadku maksymalna wartość to prawe 5 patrz: oś x) to seć będze mała problemy z nauczenem sę, gdyż występuje zjawsko tzw. nasycena neuronów. Aby tego unknąć, trzeba znormalzować dane, najlepej wejścowy wyjścowe, przykładowo do przedzału [0,1]. Możemy to zrobć już w środowsku JONNE. W tym celu dodajemy NewNormalzer do FleInput przy warstwe wejścowej oraz nauczyelu. W ustawenach zostawamy domyślną normalzację
17 na przedzał [0,1]. Aby wrócć do orgnalnego przedzału wartośc funkcj, użyjemy NewUnNormalzer, który podepnemy do FleOutput, do którego przekerowujemy odpowedz sec. Schemat pownen wyglądać tak: a ustawena: Pozostawene 0 (zer) dla InputDataMn, InputDataMax, ndatamn oraz ndatamax oznacza, że program sam znajdze mn oraz max wejścowych danych. W przypadku DataUnNormalzer (ostatne okenko) parametry outdatamax oraz outdatamn należy odczytać korzystając z wykresu w programe Rysownk sprawdzając, jaka jest mnmalna oraz maksymalna wartość danej funkcj w zadanym przedzale. W powyższym przypadku mamy mn około 0.62 a max około (patrz ponżej)
18 Tak wzbogaconą seć uczymy (pamętaj o zresetowanu wag : Tools->Randomze!), następne odłączamy nauczycela (enabled na false), ustawamy w ControlPanel learnng na false, epochs na 1 przekerowujemy wyjśce sec do plku. Korzystając z powstałego plku z odpowedzam sec, wdzmy, że teraz seć, dzęk normalzacj, nauczyła sę dobrze. Zadane : Dla wskazanej przez prowadzącego funkcj postaraj sę dobrać odpowedną archtekturę sec, tak aby bład RMSE byl najmnejszy. Dla funkcj wygeneruj dwa zestawy danych, trenujące (uczące) oraz testowe. Naucz seć za pomocą danych uczących przedstaw na wykrese jak prezentuje sę odpowedź sec. Dane testowe ne są wykorzystywane w trakce nauk, a jedyne do sprawdzena, jak seć sobe radz z danym, które ne były jej prezentowane podczas nauk. Przedstaw odpowedz sec równeż dla danych testowych. W tym celu, po zakończenu nauk sec, pod odpowedn InputLayer podepnj plk z danym wejścowym testowym przekeruj odpowedź sec do nowego plku, a następne użyj programu
19 Rysownk. Wynk oblczeń parametry algorytmu przedstaw w tabelkach. Wypróbuj różne ustawena sec, równeż z wecej nż jedną warstwą ukrytą. Odpowedz, jaka archtektura była najlepsza dla rozważanego problemu (funkcj). Sec neuronowe radalne RBF (Radal Bass Functon) Sec neuronowe radalne składają sę jedyne z dwóch warstw jak przedstawono to na rysunku 7. Rysunek 7 Seć radalna Warstwa ukryta, do której trafają bezpośredno sygnały wejścowe jest tworzona z neuronów posadających radalne funkcje aktywacj, w przecweństwe do poprzedno poznanych sgmodalnych funkcj aktywacj sec MLP. Najczęścej stosowaną funkcją radalną jest funkcja Gaussa określona wzorem: x c ϕ ( x) = exp( 2 2σ Kształt tej funkcj przedstawa rysunek 8. 2 ) Rysunek 8 Funkcja Gaussa: c=0, sgma=1 Zakres argumentów dla których funkcja tego typu ma wartośc wyraźne wększe od zera jest ogranczony określony przez dwa parametry: centrum radalne c oraz warancję σ odpowedzalną za jej szerokość. Cała seć realzuje zatem odwzorowane
20 K F( x) = w ϕ ( x ) c = 1 W secach sgmodalnych separacja danych odbywała sę za pomocą hperpłaszczyzn, w secach radalnych natomast ma mejsce separacja kołowa za pomocą hpersfer. Warstwa radalna realzuje rzutowane nelnowe na przestrzeń o wększej lośc wymarów. Zgodne z twerdzenem Covera, złożony problem klasyfkacyjny zrzutowany nelnowo w przestrzeń welowymarową może z wększym prawdopodobeństwem lnowo separowalny, nż przy rzutowanu w przestrzeń o mnejszym wymarze. Udowodnono, ze każdy zbór wzorców jest lnowo separowalny przy odpowedno dużym wymarze K. Uczene sec RBF Uczene sec RBF w najprostszym przypadku polega na mnmalzacj funkcj celu 2 p K E = = 1 j= 1 w ϕ ( x j c j ) d gdze K to lczba neuronów ukrytych a p to lczba par uczących. Przy założenu znajomośc parametrów funkcj radalnych, aby określć wartośc wag należy rozwązać układ równań lnowych względem wag. Gw = d gdze G jest macerzą radalną, zwaną równeż macerzą Gaussa. ϕ ( x1.. ϕ ( x p c c 1 1 ) ) ϕ ( x ϕ ( x 1 p.. c c K K ) ) Macerz G jest przeważne macerzą prostokątną, wektor wag oblcza sę zatem za pomocą operacj pseudo nwersj macerzy G: w = G + d = ( G G) T 1 G T d Centra funkcj radalnych ustalć można np.: - losowo, losując centra w przestrzen danych stosując rozkład normalny - statystyczne, używając metody uśredneń (k-means)w celu dentyfkacj klastrów - z użycem samoorganzacj - z użycem algorytmu genetycznego td. Szerokośc funkcj radalnych dobera sę tak, aby pokryta została cała przestrzeń. Inną metodą jest zastosowane zasady wstecznej propagacj błędów zarówno do wartośc wag jak parametrów funkcj radalnych. Aproksymacja funkcj jednej zmennej za pomocą sec RBF Poberz ze strony program demonstracyjny RBF_Demo. Zaobserwuj, jak seć neuronowa radalna uczy sę aproksymować jednowymarową funkcję. Seć ta ma 7 neuronów radalnych ukrytych (kolor nebesk w programe) oraz jeden neuron lnowy w warstwe wyjścowej, dający konkretną wartość aproksymacj w danym punkce dzedzny. Przebeg funkcj przedstawono kolorem czerwonym, aproksymację dokonywaną
21 przez seć natomast kolorem zelonym. Zaobserwuj, jak w trakce nauk są modyfkowane funkcje Gaussa neuronów radalnych. Naukę zaczyna sę klkając na okenko programu prawym przycskem myszy. Przed nauką: Po nauce:
Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311
Sztuczne sec neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyk, p. 311 Wykład 6 PLAN: - Repetto (brevs) - Sec neuronowe z radalnym funkcjam bazowym Repetto W aspekce archtektury: zajmowalśmy
Bardziej szczegółowoAnaliza danych OGÓLNY SCHEMAT. http://zajecia.jakubw.pl/ Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja)
Analza danych Dane trenngowe testowe. Algorytm k najblższych sąsadów. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ OGÓLNY SCHEMAT Mamy dany zbór danych podzelony na klasy decyzyjne, oraz
Bardziej szczegółowoSieci Neuronowe 1 Michał Bereta
Wprowadzene Zagadnena Sztucznej Intelgencj laboratorum Sec Neuronowe 1 Mchał Bereta Sztuczne sec neuronowe można postrzegać jako modele matematyczne, które swoje wzorce wywodzą z bolog obserwacj ludzkch
Bardziej szczegółowoKlasyfkator lnowy Wstęp Klasyfkator lnowy jest najprostszym możlwym klasyfkatorem. Zakłada on lnową separację lnowy podzał dwóch klas mędzy sobą. Przedstawa to ponższy rysunek: 5 4 3 1 0-1 - -3-4 -5-5
Bardziej szczegółowoWykład 2: Uczenie nadzorowane sieci neuronowych - I
Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za
Bardziej szczegółowoNeuron liniowy. Najprostsza sieć warstwa elementów liniowych
Najprostsza jest jednostka lnowa: Neuron lnowy potraf ona rozpoznawać wektor wejścowy X = (x 1, x 2,..., x n ) T zapamętany we współczynnkach wagowych W = (w 1, w 2,..., w n ), Zauważmy, że y = W X Załóżmy,
Bardziej szczegółowoKURS STATYSTYKA. Lekcja 6 Regresja i linie regresji ZADANIE DOMOWE. www.etrapez.pl Strona 1
KURS STATYSTYKA Lekcja 6 Regresja lne regresj ZADANIE DOMOWE www.etrapez.pl Strona 1 Część 1: TEST Zaznacz poprawną odpowedź (tylko jedna jest prawdzwa). Pytane 1 Funkcja regresj I rodzaju cechy Y zależnej
Bardziej szczegółowoWykład 2: Uczenie nadzorowane sieci neuronowych - I
Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za
Bardziej szczegółowoWprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu
Wprowadzene do Sec Neuronowych Algorytm wstecznej propagacj błędu Maja Czoków, Jarosław Persa --6 Powtórzene. Perceptron sgmodalny Funkcja sgmodalna: σ(x) = + exp( c (x p)) Parametr c odpowada za nachylene
Bardziej szczegółowoNowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba
Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 1 Ćwczene 2: Perceptron WYMAGANIA 1. Sztuczne sec neuronowe budowa oraz ops matematyczny perceptronu (funkcje przejśca perceptronu), uczene perceptronu
Bardziej szczegółowoRozwiązywanie zadań optymalizacji w środowisku programu MATLAB
Rozwązywane zadań optymalzacj w środowsku programu MATLAB Zagadnene optymalzacj polega na znajdowanu najlepszego, względem ustalonego kryterum, rozwązana należącego do zboru rozwązań dopuszczalnych. Standardowe
Bardziej szczegółowoZaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych
Zaawansowane metody numeryczne Komputerowa analza zagadneń różnczkowych 1. Układy równań lnowych P. F. Góra http://th-www.f.uj.edu.pl/zfs/gora/ semestr letn 2006/07 Podstawowe fakty Równane Ax = b, x,
Bardziej szczegółowoProjekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE
Inormatyka Podstawy Programowana 06/07 Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE 6. Równana algebraczne. Poszukujemy rozwązana, czyl chcemy określć perwastk rzeczywste równana:
Bardziej szczegółowoLaboratorium ochrony danych
Laboratorum ochrony danych Ćwczene nr Temat ćwczena: Cała skończone rozszerzone Cel dydaktyczny: Opanowane programowej metody konstruowana cał skończonych rozszerzonych GF(pm), poznane ch własnośc oraz
Bardziej szczegółowoKRZYWA BÉZIERA TWORZENIE I WIZUALIZACJA KRZYWYCH PARAMETRYCZNYCH NA PRZYKŁADZIE KRZYWEJ BÉZIERA
KRZYWA BÉZIERA TWORZENIE I WIZUALIZACJA KRZYWYCH PARAMETRYCZNYCH NA PRZYKŁADZIE KRZYWEJ BÉZIERA Krzysztof Serżęga Wyższa Szkoła Informatyk Zarządzana w Rzeszowe Streszczene Artykuł porusza temat zwązany
Bardziej szczegółowo( ) ( ) 2. Zadanie 1. są niezależnymi zmiennymi losowymi o. oraz. rozkładach normalnych, przy czym EX. i σ są nieznane. 1 Niech X
Prawdopodobeństwo statystyka.. r. Zadane. Zakładamy, że,,,,, 5 są nezależnym zmennym losowym o rozkładach normalnych, przy czym E = μ Var = σ dla =,,, oraz E = μ Var = 3σ dla =,, 5. Parametry μ, μ σ są
Bardziej szczegółowoZapis informacji, systemy pozycyjne 1. Literatura Jerzy Grębosz, Symfonia C++ standard. Harvey M. Deitl, Paul J. Deitl, Arkana C++. Programowanie.
Zaps nformacj, systemy pozycyjne 1 Lteratura Jerzy Grębosz, Symfona C++ standard. Harvey M. Detl, Paul J. Detl, Arkana C++. Programowane. Zaps nformacj w komputerach Wszystke elementy danych przetwarzane
Bardziej szczegółowoSystemy Ochrony Powietrza Ćwiczenia Laboratoryjne
ś POLITECHNIKA POZNAŃSKA INSTYTUT INŻYNIERII ŚRODOWISKA PROWADZĄCY: mgr nż. Łukasz Amanowcz Systemy Ochrony Powetrza Ćwczena Laboratoryjne 2 TEMAT ĆWICZENIA: Oznaczane lczbowego rozkładu lnowych projekcyjnych
Bardziej szczegółowoNeural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych.
Neural networks Lecture Notes n Pattern Recognton by W.Dzwnel Krótka hstora McCulloch Ptts (1943) - perwszy matematyczny ops dzalana neuronu przetwarzana przez nego danych. Proste neurony, które mogly
Bardziej szczegółowoAlgorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa
Bardziej szczegółowoWikiWS For Business Sharks
WkWS For Busness Sharks Ops zadana konkursowego Zadane Opracowane algorytmu automatyczne przetwarzającego zdjęce odręczne narysowanego dagramu na tablcy lub kartce do postac wektorowej zapsanej w formace
Bardziej szczegółowoBADANIA OPERACYJNE. Podejmowanie decyzji w warunkach niepewności. dr Adam Sojda
BADANIA OPERACYJNE Podejmowane decyzj w warunkach nepewnośc dr Adam Sojda Teora podejmowana decyzj gry z naturą Wynk dzałana zależy ne tylko od tego, jaką podejmujemy decyzję, ale równeż od tego, jak wystąp
Bardziej szczegółowo) będą niezależnymi zmiennymi losowymi o tym samym rozkładzie normalnym z następującymi parametrami: nieznaną wartością 1 4
Zadane. Nech ( X, Y ),( X, Y ), K,( X, Y n n ) będą nezależnym zmennym losowym o tym samym rozkładze normalnym z następującym parametram: neznaną wartoścą oczekwaną EX = EY = m, warancją VarX = VarY =
Bardziej szczegółowoI. Elementy analizy matematycznej
WSTAWKA MATEMATYCZNA I. Elementy analzy matematycznej Pochodna funkcj f(x) Pochodna funkcj podaje nam prędkość zman funkcj: df f (x + x) f (x) f '(x) = = lm x 0 (1) dx x Pochodna funkcj podaje nam zarazem
Bardziej szczegółowoZastosowanie sieci neuronowych Kohonena do prognozowania obciążeń elektroenergetycznych
Tomasz CIECHULSKI 1, Stansław OSOWSKI 1,2 Wojskowa Akadema Technczna, Wydzał Elektronk (1), Poltechnka Warszawska, Wydzał Elektryczny (2) do:10.15199/48.2016.10.48 Zastosowane sec neuronowych Kohonena
Bardziej szczegółowoAnaliza rodzajów skutków i krytyczności uszkodzeń FMECA/FMEA według MIL STD - 1629A
Analza rodzajów skutków krytycznośc uszkodzeń FMECA/FMEA według MIL STD - 629A Celem analzy krytycznośc jest szeregowane potencjalnych rodzajów uszkodzeń zdentyfkowanych zgodne z zasadam FMEA na podstawe
Bardziej szczegółowoNie istnieje ogólna recepta, każdy przypadek musi być rozważany indywidualnie!
Kwesta wyboru struktury modelu neuronowego Schematyczne przedstawene etapów przetwarzana danych w procese neuronowego modelowana Ne stneje ogólna recepta, każdy przypadek mus być rozważany ndywdualne!
Bardziej szczegółowoSZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW
SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW Stefan WÓJTOWICZ, Katarzyna BIERNAT ZAKŁAD METROLOGII I BADAŃ NIENISZCZĄCYCH INSTYTUT ELEKTROTECHNIKI ul. Pożaryskego 8, 04-703 Warszawa tel.
Bardziej szczegółowoWprowadzenie do Sieci Neuronowych Sieci rekurencyjne
Wprowadzene do Sec Neuronowych Sec rekurencyjne M. Czoków, J. Persa 2010-12-07 1 Powtórzene Konstrukcja autoasocjatora Hopfelda 1.1 Konstrukcja Danych jest m obrazów wzorcowych ξ 1..ξ m, gdze każdy pojedynczy
Bardziej szczegółowoSztuczne sieci neuronowe
Sztuczne sec neuronowe Jerzy Stefanowsk Plan wykładu 1. Wprowadzene 2. Model sztucznego neuronu. 3. Topologe sec neuronowych 4. Reguły uczena sec neuronowych. 5. Klasyfkaca sec neuronowych. 6. Sec warstwowe
Bardziej szczegółowoZastosowania sieci neuronowych
Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką
Bardziej szczegółowoMETODA UNITARYZACJI ZEROWANEJ Porównanie obiektów przy ocenie wielokryterialnej. Ranking obiektów.
Opracowane: Dorota Mszczyńska METODA UNITARYZACJI ZEROWANEJ Porównane obektów przy ocene welokryteralnej. Rankng obektów. Porównane wybranych obektów (warantów decyzyjnych) ze względu na różne cechy (krytera)
Bardziej szczegółowoNieeuklidesowe sieci neuronowe
Unwersytet Mkoaja Kopernka Wydza Fzyk, Astronom Informatyk Stosowanej IS Helena Jurkewcz numer albumu: 177622 Praca magsterska na kerunku Fzyka Komputerowa Neeukldesowe sec neuronowe Opekun pracy dyplomowej
Bardziej szczegółowoWeryfikacja hipotez dla wielu populacji
Weryfkacja hpotez dla welu populacj Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Intelgencj Metod Matematycznych Wydzał Informatyk Poltechnk Szczecńskej 5. Parametryczne testy stotnośc w
Bardziej szczegółowoTwierdzenie Bezouta i liczby zespolone Javier de Lucas. Rozwi azanie 2. Z twierdzenia dzielenia wielomianów, mamy, że
Twerdzene Bezouta lczby zespolone Javer de Lucas Ćwczene 1 Ustal dla których a, b R można podzelć f 1 X) = X 4 3X 2 + ax b przez f 2 X) = X 2 3X+2 Oblcz a b Z 5 jeżel zak ladamy, że f 1 f 2 s a welomanam
Bardziej szczegółowoDiagnostyka układów kombinacyjnych
Dagnostyka układów kombnacyjnych 1. Wprowadzene Dagnostyka obejmuje: stwerdzene stanu układu, systemu lub ogólne sec logcznej. Jest to tzw. kontrola stanu wykrywająca czy dzałane sec ne jest zakłócane
Bardziej szczegółowo0 0,2 0, p 0,1 0,2 0,5 0, p 0,3 0,1 0,2 0,4
Zad. 1. Dana jest unkcja prawdopodobeństwa zmennej losowej X -5-1 3 8 p 1 1 c 1 Wyznaczyć: a. stałą c b. wykres unkcj prawdopodobeństwa jej hstogram c. dystrybuantę jej wykres d. prawdopodobeństwa: P (
Bardziej szczegółowoĆwiczenie 10. Metody eksploracji danych
Ćwczene 10. Metody eksploracj danych Grupowane (Clusterng) 1. Zadane grupowana Grupowane (ang. clusterng) oznacza grupowane rekordów, obserwacj lub przypadków w klasy podobnych obektów. Grupa (ang. cluster)
Bardziej szczegółowoW praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np.
Wykład 7 Uwaga: W praktyce często zdarza sę, że wynk obu prób możemy traktować jako wynk pomarów na tym samym elemence populacj np. wynk x przed wynk y po operacj dla tego samego osobnka. Należy wówczas
Bardziej szczegółowoXXX OLIMPIADA FIZYCZNA ETAP III Zadanie doświadczalne
XXX OLIMPIADA FIZYCZNA ETAP III Zadane dośwadczalne ZADANIE D Nazwa zadana: Maszyna analogowa. Dane są:. doda półprzewodnkowa (krzemowa) 2. opornk dekadowy (- 5 Ω ), 3. woltomerz cyfrowy, 4. źródło napęca
Bardziej szczegółowoSYSTEMY UCZĄCE SIĘ WYKŁAD 15. ANALIZA DANYCH WYKRYWANIE OBSERWACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska
SYSTEMY UCZĄCE SIĘ WYKŁAD 15. ANALIZA DANYCH WYKRYWANIE OBSERWACJI ODSTAJĄCYCH, UZUPEŁNIANIE BRAKUJĄCYCH DANYCH Częstochowa 2014 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska WYKRYWANIE
Bardziej szczegółowo6. ROŻNICE MIĘDZY OBSERWACJAMI STATYSTYCZNYMI RUCHU KOLEJOWEGO A SAMOCHODOWEGO
Różnce mędzy obserwacjam statystycznym ruchu kolejowego a samochodowego 7. ROŻNICE MIĘDZY OBSERWACJAMI STATYSTYCZNYMI RUCHU KOLEJOWEGO A SAMOCHODOWEGO.. Obserwacje odstępów mędzy kolejnym wjazdam na stację
Bardziej szczegółowoMetody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF.
Metody sztucznej inteligencji Zadanie 3: ( klasteryzacja samoorganizująca się mapa Kohonena, (2 aproksymacja sieć RBF dr inż Przemysław Klęsk Klasteryzacja za pomocą samoorganizującej się mapy Kohonena
Bardziej szczegółowoTRANZYSTOR BIPOLARNY CHARAKTERYSTYKI STATYCZNE
POLITHNIKA RZSZOWSKA Katedra Podstaw lektronk Instrkcja Nr4 F 00/003 sem. letn TRANZYSTOR IPOLARNY HARAKTRYSTYKI STATYZN elem ćwczena jest pomar charakterystyk statycznych tranzystora bpolarnego npn lb
Bardziej szczegółowoSystemy Inteligentnego Przetwarzania wykład 3: sieci rekurencyjne, sieci samoorganizujące się
Systemy Intelgentnego Przetwarzana wykład 3: sec rekurencyne, sec samoorganzuące sę Dr nż. Jacek Mazurkewcz Katedra Informatyk Technczne e-mal: Jacek.Mazurkewcz@pwr.edu.pl Sec neuronowe ze sprzężenem Sprzężena
Bardziej szczegółowoWprowadzenie. Support vector machines (maszyny wektorów wspierających, maszyny wektorów nośnych) SVM służy do: Zalety metody SVM
SVM Wprowadzene Support vector machnes (maszyny wektorów wsperających, maszyny wektorów nośnych) SVM służy do: w wersj podstawowej klasyfkacj bnarnej w wersj z rozszerzenam regresj wyboru najważnejszych
Bardziej szczegółowo5. OPTYMALIZACJA GRAFOWO-SIECIOWA
. OPTYMALIZACJA GRAFOWO-SIECIOWA Defncja grafu Pod pojęcem grafu G rozumemy następującą dwójkę uporządkowaną (defncja grafu Berge a): (.) G W,U gdze: W zbór werzchołków grafu, U zbór łuków grafu, U W W,
Bardziej szczegółowoStatystyka Inżynierska
Statystyka Inżynerska dr hab. nż. Jacek Tarasuk AGH, WFIS 013 Wykład DYSKRETNE I CIĄGŁE ROZKŁADY JEDNOWYMIAROWE Zmenna losowa, Funkcja rozkładu, Funkcja gęstośc, Dystrybuanta, Charakterystyk zmennej, Funkcje
Bardziej szczegółowo5. CHARAKTERYSTYKI CZĘSTOTLIWOŚCIOWE
5. CHARAKTERYSTYKI CZĘSTOTLIWOŚCIOWE Oprócz transmtancj operatorowej, do opsu członów układów automatyk stosuje sę tzw. transmtancję wdmową. Transmtancję wdmową G(j wyznaczyć moŝna dzęk podstawenu do wzoru
Bardziej szczegółowoSztuczna Inteligencja Tematy projektów Sieci Neuronowe
PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia
Bardziej szczegółowody dx stąd w przybliżeniu: y
Przykłady do funkcj nelnowych funkcj Törnqusta Proszę sprawdzć uzasadnć, które z podanych zdań są prawdzwe, a które fałszywe: Przykład 1. Mesęczne wydatk na warzywa (y, w jednostkach penężnych, jp) w zależnośc
Bardziej szczegółowoZaawansowane metody numeryczne
Wykład 9. jej modyfkacje. Oznaczena Będzemy rozpatrywać zagadnene rozwązana następującego układu n równań lnowych z n newadomym x 1... x n : a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x
Bardziej szczegółowoSZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 15. ALGORYTMY GENETYCZNE Częstochowa 014 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska TERMINOLOGIA allele wartośc, waranty genów, chromosom - (naczej
Bardziej szczegółowoPokazać, że wyżej zdefiniowana struktura algebraiczna jest przestrzenią wektorową nad ciałem
Zestaw zadań : Przestrzene wektorowe. () Wykazać, że V = C ze zwykłym dodawanem jako dodawanem wektorów operacją mnożena przez skalar : C C C, (z, v) z v := z v jest przestrzeną lnową nad całem lczb zespolonych
Bardziej szczegółowoMATEMATYKA POZIOM ROZSZERZONY Kryteria oceniania odpowiedzi. Arkusz A II. Strona 1 z 5
MATEMATYKA POZIOM ROZSZERZONY Krytera ocenana odpowedz Arkusz A II Strona 1 z 5 Odpowedz Pytane 1 2 3 4 5 6 7 8 9 Odpowedź D C C A B 153 135 232 333 Zad. 10. (0-3) Dana jest funkcja postac. Korzystając
Bardziej szczegółowoPrawdopodobieństwo i statystyka r.
Prawdopodobeństwo statystya.05.00 r. Zadane Zmenna losowa X ma rozład wyładnczy o wartośc oczewanej, a zmenna losowa Y rozład wyładnczy o wartośc oczewanej. Obe zmenne są nezależne. Oblcz E( Y X + Y =
Bardziej szczegółowoKier. MTR Programowanie w MATLABie Laboratorium Ćw. 12
Ker. MTR Programowane w MATLABe Laboratorum Ćw. Analza statystyczna grafczna danych pomarowych. Wprowadzene MATLAB dysponuje weloma funcjam umożlwającym przeprowadzene analzy statystycznej pomarów, czy
Bardziej szczegółowoProces narodzin i śmierci
Proces narodzn śmerc Jeżel w ewnej oulacj nowe osobnk ojawają sę w sosób losowy, rzy czym gęstość zdarzeń na jednostkę czasu jest stała w czase wynos λ, oraz lczba osobnków n, które ojawły sę od chwl do
Bardziej szczegółowoAlternatywne metody grupowania i wizualizacji wykorzystujące sieci konkurencyjne
Alternatywne metody grupowana wzualzacj wykorzystujące sec konkurencyjne Janusz Stal Akadema Ekonomczna w Krakowe Katedra Informatyk Streszczene: Samoogranzujące sę mapy cech (SOM) są jednym z rodzajów
Bardziej szczegółowoCAŁKOWANIE NUMERYCZNE całki pojedyncze
CAŁKOWANIE NUMERYCZNE całk pojedyncze Kwadratury nterpolacyjne Kwadratury nterpolacyjne Rozpatrujemy funkcję f() cągłą ogranczoną w przedzale domknętym [a, b]. Przedzał [a, b] dzelmy na skończoną lczbę
Bardziej szczegółowoAnaliza danych. Analiza danych wielowymiarowych. Regresja liniowa. Dyskryminacja liniowa. PARA ZMIENNYCH LOSOWYCH
Analza danych Analza danych welowymarowych. Regresja lnowa. Dyskrymnacja lnowa. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ PARA ZMIENNYCH LOSOWYCH Parę zmennych losowych X, Y możemy
Bardziej szczegółowoIMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ
IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,
Bardziej szczegółowoPlan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty)
Plan wykładu Dzałane neuronu dyskretnego warstwy neuronów dyskretnych Wykład : Reguły uczena sec neuronowych. Sec neuronowe ednokerunkowe. Reguła perceptronowa Reguła Wdrowa-Hoffa Reguła delta ałgorzata
Bardziej szczegółowoWstęp do metod numerycznych Faktoryzacja SVD Metody iteracyjne. P. F. Góra
Wstęp do metod numerycznych Faktoryzacja SVD Metody teracyjne P. F. Góra http://th-www.f.uj.edu.pl/zfs/gora/ 2013 Sngular Value Decomposton Twerdzene 1. Dla każdej macerzy A R M N, M N, stneje rozkład
Bardziej szczegółowoSprawozdanie powinno zawierać:
Sprawozdane pownno zawerać: 1. wypełnoną stronę tytułową (gotowa do ćw. nr 0 na strone drugej, do pozostałych ćwczeń zameszczona na strone 3), 2. krótk ops celu dośwadczena, 3. krótk ops metody pomaru,
Bardziej szczegółowoZestaw zadań 4: Przestrzenie wektorowe i podprzestrzenie. Liniowa niezależność. Sumy i sumy proste podprzestrzeni.
Zestaw zadań : Przestrzene wektorowe podprzestrzene. Lnowa nezależność. Sumy sumy proste podprzestrzen. () Wykazać, że V = C ze zwykłym dodawanem jako dodawanem wektorów operacją mnożena przez skalar :
Bardziej szczegółowoEKONOMETRIA I Spotkanie 1, dn. 05.10.2010
EKONOMETRIA I Spotkane, dn. 5..2 Dr Katarzyna Beń Program ramowy: http://www.sgh.waw.pl/nstytuty/e/oferta_dydaktyczna/ekonometra_stacjonarne_nest acjonarne/ Zadana, dane do zadań, ważne nformacje: http://www.e-sgh.pl/ben/ekonometra
Bardziej szczegółowoProcedura normalizacji
Metody Badań w Geograf Społeczno Ekonomcznej Procedura normalzacj Budowane macerzy danych geografcznych mgr Marcn Semczuk Zakład Przedsęborczośc Gospodark Przestrzennej Instytut Geograf Unwersytet Pedagogczny
Bardziej szczegółowoWPŁYW PARAMETRÓW DYSKRETYZACJI NA NIEPEWNOŚĆ WYNIKÓW POMIARU OBIEKTÓW OBRAZU CYFROWEGO
Walenty OWIECZKO WPŁYW PARAMETRÓW DYSKRETYZACJI A IEPEWOŚĆ WYIKÓW POMIARU OBIEKTÓW OBRAZU CYFROWEGO STRESZCZEIE W artykule przedstaono ynk analzy nepenośc pomaru ybranych cech obektu obrazu cyfroego. Wyznaczono
Bardziej szczegółowoSztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335
Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Wykład 10 Mapa cech Kohonena i jej modyfikacje - uczenie sieci samoorganizujących się - kwantowanie wektorowe
Bardziej szczegółowo5. Pochodna funkcji. lim. x c x c. (x c) = lim. g(c + h) g(c) = lim
5. Pocodna funkcj Defncja 5.1 Nec f: (a, b) R nec c (a, b). Jeśl stneje granca lm x c x c to nazywamy ją pocodną funkcj f w punkce c oznaczamy symbolem f (c) Twerdzene 5.1 Jeśl funkcja f: (a, b) R ma pocodną
Bardziej szczegółowoBadania sondażowe. Braki danych Konstrukcja wag. Agnieszka Zięba. Zakład Badań Marketingowych Instytut Statystyki i Demografii Szkoła Główna Handlowa
Badana sondażowe Brak danych Konstrukcja wag Agneszka Zęba Zakład Badań Marketngowych Instytut Statystyk Demograf Szkoła Główna Handlowa 1 Błędy braku odpowedz Całkowty brak odpowedz (UNIT nonresponse)
Bardziej szczegółowo± Δ. Podstawowe pojęcia procesu pomiarowego. x rzeczywiste. Określenie jakości poznania rzeczywistości
Podstawowe pojęca procesu pomarowego kreślene jakośc poznana rzeczywstośc Δ zmerzone rzeczywste 17 9 Zalety stosowana elektrycznych przyrządów 1/ 1. możlwość budowy czujnków zamenających werne każdą welkość
Bardziej szczegółowoD Archiwum Prac Dyplomowych - Instrukcja dla studentów
Kraków 01.10.2015 D Archwum Prac Dyplomowych - Instrukcja dla studentów Procedura Archwzacj Prac Dyplomowych jest realzowana zgodne z zarządzenem nr 71/2015 Rektora Unwersytetu Rolnczego m. H. Kołłątaja
Bardziej szczegółowoSTATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH
STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH 1 Test zgodnośc χ 2 Hpoteza zerowa H 0 ( Cecha X populacj ma rozkład o dystrybuance F). Hpoteza alternatywna H1( Cecha X populacj
Bardziej szczegółowoFunkcje i charakterystyki zmiennych losowych
Funkcje charakterystyk zmennych losowych Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Intelgencj Metod Matematycznych Wydzał Informatyk Poltechnk Szczecńskej 5. Funkcje zmennych losowych
Bardziej szczegółowoKURS STATYSTYKA. Lekcja 1 Statystyka opisowa ZADANIE DOMOWE. www.etrapez.pl Strona 1
KURS STATYSTYKA Lekcja 1 Statystyka opsowa ZADANIE DOMOWE www.etrapez.pl Strona 1 Część 1: TEST Zaznacz poprawną odpowedź (tylko jedna jest prawdzwa). Pytane 1 W statystyce opsowej mamy pełne nformacje
Bardziej szczegółowo65120/ / / /200
. W celu zbadana zależnośc pomędzy płcą klentów ch preferencjam, wylosowano kobet mężczyzn zadano m pytane: uważasz za lepszy produkt frmy A czy B? Wynk były następujące: Odpowedź Kobety Mężczyźn Wolę
Bardziej szczegółowoMinimalizacja globalna, algorytmy genetyczne i zastosowanie w geotechnice
Mnmalzacja globalna, algorytmy genetyczne zastosowane w geotechnce Metoda sejsmczna Metoda geoelektryczna Podstawowy podzał ZAGADNIENIE PROSTE (ang. forward problem) model + parametry modelu dane (ośrodek,
Bardziej szczegółowo3. ŁUK ELEKTRYCZNY PRĄDU STAŁEGO I PRZEMIENNEGO
3. ŁUK ELEKTRYCZNY PRĄDU STŁEGO I PRZEMIENNEGO 3.1. Cel zakres ćwczena Celem ćwczena jest zapoznane sę z podstawowym właścwoścam łuku elektrycznego palącego sę swobodne, w powetrzu o cśnentmosferycznym.
Bardziej szczegółowoProblem plecakowy (KNAPSACK PROBLEM).
Problem plecakowy (KNAPSACK PROBLEM). Zagadnene optymalzac zwane problemem plecakowym swą nazwę wzęło z analog do sytuac praktyczne podobne do problemu pakowana plecaka. Chodz o to, by zapakować maksymalne
Bardziej szczegółowoGrupa: Elektrotechnika, wersja z dn Studia stacjonarne, II stopień, sem.1 Laboratorium Techniki Świetlnej
ul.potrowo 3a http://lumen.ee.put.poznan.pl Grupa: Elektrotechnka, wersja z dn. 29.03.2016 Studa stacjonarne, stopeń, sem.1 Laboratorum Technk Śwetlnej Ćwczene nr 6 Temat: Badane parametrów fotometrycznych
Bardziej szczegółowoDiagonalizacja macierzy kwadratowej
Dagonalzacja macerzy kwadratowej Dana jest macerz A nân. Jej wartośc własne wektory własne spełnają równane Ax x dla,..., n Każde z równań własnych osobno można zapsać w postac: a a an x x a a an x x an
Bardziej szczegółowoBadanie współzależności dwóch cech ilościowych X i Y. Analiza korelacji prostej
Badane współzależnośc dwóch cech loścowych X Y. Analza korelacj prostej Kody znaków: żółte wyróżnene nowe pojęce czerwony uwaga kursywa komentarz 1 Zagadnena 1. Zwązek determnstyczny (funkcyjny) a korelacyjny.
Bardziej szczegółowoTeoria niepewności pomiaru (Rachunek niepewności pomiaru) Rodzaje błędów pomiaru
Pomary fzyczne - dokonywane tylko ze skończoną dokładnoścą. Powodem - nedoskonałość przyrządów pomarowych neprecyzyjność naszych zmysłów borących udzał w obserwacjach. Podawane samego tylko wynku pomaru
Bardziej szczegółowoSYSTEMY UCZĄCE SIĘ WYKŁAD 7. KLASYFIKATORY BAYESA. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.
SYSTEMY UCZĄCE SIĘ WYKŁAD 7. KLASYFIKATORY BAYESA Częstochowa 4 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska TWIERDZENIE BAYESA Wedza pozyskwana przez metody probablstyczne ma
Bardziej szczegółowoOligopol dynamiczny. Rozpatrzmy model sekwencyjnej konkurencji ilościowej jako gra jednokrotna z pełną i doskonalej informacją
Olgopol dynamczny Rozpatrzmy model sekwencyjnej konkurencj loścowej jako gra jednokrotna z pełną doskonalej nformacją (1934) Dwa okresy: t=0, 1 tzn. frma 2 podejmując decyzję zna decyzję frmy 1 Q=q 1 +q
Bardziej szczegółowoModelowanie i obliczenia techniczne. Metody numeryczne w modelowaniu: Optymalizacja
Modelowane oblczena technczne Metody numeryczne w modelowanu: Optymalzacja Zadane optymalzacj Optymalzacja to ulepszane lub poprawa jakośc danego rozwązana, projektu, opracowana. Celem optymalzacj jest
Bardziej szczegółowoWarszawa, 28 stycznia 2017 r., Blok tematyczny II Sztuczne sieci neuronowe (środowisko MATLAB i Simulink z wykorzystaniem Neural Network Toolbox),
Studa Doktorancke IBS PA nt. Technk nformacyjne teora zastosowana WYKŁAD Semnarum nt. Modelowane rozwoju systemów w środowsku MATLABA Smulnka Prof. nadzw. dr hab. nż. Jerzy Tchórzewsk, jtchorzewsk@ntera.pl;
Bardziej szczegółowoWykład IX Optymalizacja i minimalizacja funkcji
Wykład IX Optymalzacja mnmalzacja funkcj Postawene zadana podstawowe dee jego rozwązana Proste metody mnmalzacj Metody teracj z wykorzystanem perwszej pochodnej Metody teracj z wykorzystanem drugej pochodnej
Bardziej szczegółowoSystem Przeciwdziałania Powstawaniu Bezrobocia na Terenach Słabo Zurbanizowanych SPRAWOZDANIE Z BADAŃ Autor: Joanna Wójcik
Opracowane w ramach projektu System Przecwdzałana Powstawanu Bezroboca na Terenach Słabo Zurbanzowanych ze środków Europejskego Funduszu Społecznego w ramach Incjatywy Wspólnotowej EQUAL PARTNERSTWO NA
Bardziej szczegółowoWyznaczenie promienia hydrodynamicznego cząsteczki metodą wiskozymetryczną. Część 2. Symulacje komputerowe
Rafał Górnak Wyznaczene promena hydrodynamcznego cząsteczk metodą wskozymetryczną. Część. Symulacje komputerowe Pojęca podstawowe Symulacje komputerowe, zasady dynamk Newtona, dynamka molekularna, potencjał
Bardziej szczegółowoSZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 18. ALGORYTMY EWOLUCYJNE - ZASTOSOWANIA Częstochowa 2014 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska ZADANIE ZAŁADUNKU Zadane załadunku plecakowe
Bardziej szczegółowoHipotezy o istotności oszacowao parametrów zmiennych objaśniających ˆ ) ˆ
WERYFIKACJA HIPOTEZY O ISTOTNOŚCI OCEN PARAMETRÓW STRUKTURALNYCH MODELU Hpoezy o sonośc oszacowao paramerów zmennych objaśnających Tesowane sonośc paramerów zmennych objaśnających sprowadza sę do nasępującego
Bardziej szczegółowoAnaliza porównawcza rozwoju wybranych banków komercyjnych w latach 2001 2009
Mara Konopka Katedra Ekonomk Organzacj Przedsęborstw Szkoła Główna Gospodarstwa Wejskego w Warszawe Analza porównawcza rozwoju wybranych banków komercyjnych w latach 2001 2009 Wstęp Polska prywatyzacja
Bardziej szczegółowoStanisław Cichocki Natalia Nehrebecka. Zajęcia 4
Stansław Cchock Natala Nehrebecka Zajęca 4 1. Interpretacja parametrów przy zmennych zerojedynkowych Zmenne 0-1 Interpretacja przy zmennej 0 1 w modelu lnowym względem zmennych objaśnających Interpretacja
Bardziej szczegółowoWYZNACZANIE WSPÓŁCZYNNIKA LEPKOŚCI CIECZY METODĄ STOKESA
WYZNACZANIE WSPÓŁCZYNNIKA LEPKOŚCI CIECZY METODĄ STOKESA. Ops teoretyczny do ćwczena zameszczony jest na strone www.wtc.wat.edu.pl w dzale DYDAKTYKA FIZYKA ĆWICZENIA LABORATORYJNE.. Ops układu pomarowego
Bardziej szczegółowoĆwiczenie 2. Parametry statyczne tranzystorów bipolarnych
Ćwczene arametry statyczne tranzystorów bpolarnych el ćwczena odstawowym celem ćwczena jest poznane statycznych charakterystyk tranzystorów bpolarnych oraz metod dentyfkacj parametrów odpowadających m
Bardziej szczegółowoPodstawy teorii falek (Wavelets)
Podstawy teor falek (Wavelets) Ψ(). Transformaca Haara (97).. Przykład pewne metody zapsu obrazu Transformaca Haara Przykład zapsu obrazu -D Podstawy matematyczne transformac Algorytmy rozkładana funkc
Bardziej szczegółowoZAJĘCIA X. Zasada największej wiarygodności
ZAJĘCIA X Zasada najwększej warygodnośc Funkcja warygodnośc Estymacja wg zasady maksymalzacj warygodnośc Rodzna estymatorów ML Przypadk szczególne WPROWADZEIE Komputerowa dentyfkacja obektów Przyjęce na
Bardziej szczegółowo