WIELOKRYTERIALNY DOBÓR PARAMETRÓW OPERATORA MUTACJI W ALGORYTMIE EWOLUCYJNYM UCZENIA SIECI NEURONOWEJ
|
|
- Marcin Góra
- 6 lat temu
- Przeglądów:
Transkrypt
1 POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 91 Electrical Engineering 2017 DOI /j Stanisław PŁACZEK* WIELOKRYTERIALNY DOBÓR PARAMETRÓW OPERATORA MUTACJI W ALGORYTMIE EWOLUCYJNYM UCZENIA SIECI NEURONOWEJ Imlementacja Algorytmów Ewolucyjnych (AE) do zadań uczenia Sztucznych Sieci Neuronowych (SSN) nie jest zadaniem łatwym. Zastosowanie algorytmów ewolucyjnych wyeliminowało ograniczenia algorytmów gradientowych lecz niestety naotykamy na szereg nowych roblemów. W artykule analizuje się dwuwarstwową sieć neuronową, w której, w charakterze genotyu rzyjmuje się dwa chromosomy ołączone szeregowo. Tworzy się całą oulację sieci neuronowych o indywidualnych własnościach chromosomów. oblicza się wartości funkcji celu oraz realizuje się roces selekcji. W roonowanym rozwiązaniu eliminuje się algorytm krzyżowania i stosuje się tylko mutację. Oerator mutacji, jego arametry mogą być identyczne dla dwóch chromosomów, różne i nieskorelowane lub różne i skorelowane. W artykule analizuje się różne charakterystyki algorytmu mutacji, zalety i wady. KEYWORDS: algorytmy genetyczne, algorytmy ewolucyjne, sztuczne sieci neuronowe, algorytmy uczenia sieci, algorytmy selekcji, krzyżowania, mutacji 1. PODSTAWOWE CHARAKTERYSTYKI Bazą Algorytmów Ewolucyjnych są dwa odstawowe czynniki mające największy wływ na jakość i zbieżność algorytmu: Oeratory wariacji, do których zaliczamy dwuarametryczne krzyżowanie oraz jednoarametryczną mutację. Oeratory działają w rzestrzeni genotyu i maja wływ na dywersyfikację członków oulacji, a tym samym na wrowadzenie do oulacji nowej jakości osobników. Selekcja, działająca w łaszczyźnie fenotyu aktywnie wływająca na średnią jakość doasowania osobników do funkcji celu Należy odkreśli, że nie wszystkie arametry AE są deterministyczne. Wręcz rzeciwnie, wiele z nich odlega różnym rozkładom statystycznym w zależności od otrzeb i ozycji w AE ( binarny, jednorodny, niejednorodny, normalny, Cauchy, wielomianowy). W rocesie selekcji, okolenie otomków * Akademia Finansów i Biznesu Vistula.
2 176 Stanisław Płaczek wybierane jest algorytmem stochastycznym czyli nawet najmniej doasowani osobnicy mają szansę bycia rodzicem nastęnego okolenia. Tym niemniej roces selekcji w sosób stochastyczny dąży do wyboru najleszych osobników i zawężania w ten sosób rzestrzeni oszukiwań. Proces ten nazywa się naorem selekcyjnym (selection ressure) i ma negatywny wływ na roces rzeszukiwania i zbieżności. Powyższa właściwość jest bardzo ważna w wielomodalnych funkcjach celu, którymi charakteryzują się funkcje celu SSN. Funkcja uczenia SSN zdefiniowana jest jako nieliniowa funkcja wag sieci oraz nieliniowej funkcji aktywacji minimalizującej błąd średniokwadratowy, dla każdego wektora uczącego,omiędzy wektorem wyjściowym Y a wektorem uczącym Z. W dwuwarstwowych SSN z nieliniowymi funkcjami aktywacji, funkcja celu charakteryzuje się wieloma maksimami oraz minimami. Celem każdego algorytmu uczenia SSN jest znalezienie globalnego minimum i uniknięcia zatrzymania się w lokalnym minimum dalekim od globalnego celu. W roonowanym rozwiązaniu zastosowania Algorytmu Ewolucyjnego do uczenia dwuwarstwowej SSN eliminuje się dwuargumentową oerację krzyżowania. Wykorzystuje się jednoargumentowy oerator mutacji. Powyższe ozwoli na skoncentrowanie się tylko na arametrach jednego oeratora i ich wływu na jakość rocesu uczenia. 2. STRUKTURA ALGORYTMU EVOLUCYJNEGO Dwuwarstwowe sieci neuronowe zdefiniowane są jako uniwersalne nieliniowe aroksymatory funkcji wielu zmiennych, realizujące funkcje nieliniowe w ostaci: Y = F(X) (1) gdzie: X wektor wejściowy sieci, Y wektor wyjściowy sieci, F realizowana funkcją wektorową wielu zmiennych. Algorytm uczenia sieci neuronowej jest zdeterminowanym algorytmem szeregowym oerującym na jednym egzemlarzu modelu sieci. Podstawowy model uczenia sieci w oarciu o AE jest diametralnie inny. Po ierwsze jest algorytmem stochastycznym, w którym decyzje co do orawy kierunku oszukiwać globalnego minimum są realizowane w dużym stoniu stochastycznie. Po drugie jest algorytmem równoległym oierającym na całej oulacji sieci neuronowych (rys. 1). Definiuje się zbiór (oulację) sieci z jednym wektorem wejściowym X, indywidualnymi wektorami wyjściowymi: Y i gdzie i = 1, 2, 3,... osize osize wielkość oulacji oraz wsólnym wektorem uczenia Z.
3 Wielokryterialny dobór arametrów oeratora mutacji w algorytmie Rerezentacja osobników Rys. 1. Struktura AE dla dwuwarstwowej sieci neuronowej Jedną z ierwszych, jeżeli nie najważniejszych decyzji, jest rerezentacja SSN jako osobnika oulacji. Każdy z osobników składa się z dwóch macierzy W1, W2 oraz funkcji aktywacji, tworząc w ten sosób nieliniową strukturę rzetwarzania informacji. Pierwotna, zaroonowana w Algorytmach Genetycznych, binarna struktura osobnika nie będzie odowiednia dla jego macierzowej struktury. Dla stosunkowo niedużych macierzy zawierających n. N 0 = 30 neuronów wejściowych, N 1 = 50 neuronów ukrytych oraz N 2 = 5, neuronów wyjściowych, macierz W1 zawiera 31*50 = 1550 wsółczynników wagowych. Natomiast macierz W2, 51*5=255 wsółczynników. Tak więc sumaryczna długość chromosomu, składającego się z 1550 genów, tylko dla jednej macierzy, wynosi bitów. Jest to wartość stosunkowo duża i oerowanie tak długimi ciągami nie jest otymalne z obliczeniowego unktu widzenia. Kod binarny do rerezentacji wsółczynników wagowych macierzy W1 nie jest więc odowiedni. Natomiast wyrażanie wsółczynników macierzy w liczbach rzeczywistych jest dobrym wyborem. Uwzględniając szeregowe rzetwarzanie sygnałów w każdej sieci, otymalną strukturą będą dwa chromosomy rerezentujące odowiednie macierze. Każdy chromosom zawiera zbiór genów rerezentujących stosowne wsółczynniki wagowe oraz funkcje aktywacji. W ten sosób stworzyliśmy zbiór (oulację) dwuchromosomowych osobników, z których każdy rerezentuje sieć neuronową o indywidualnych charakterystykach Funkcja celu Funkcja celu jest rerezentowana rzez zbiór indywidualnych funkcji celu osobników: osize [,,,... ] (2)
4 178 Stanisław Płaczek Indywidualna funkcja celu jest zdefiniowana odobnie jak funkcja celu algorytmu wstecznej roagacji błędu: T min ( Y Z) ( Y Z) (3) gdzie: = 1, 2, 3,... osize oulacja (zbiór) osobników. W oarciu o wzór (3) obliczana jest indywidualna funkcja celu osobnika, która w kolejnych krokach algorytmu będzie rzetwarzana w kroku selekcji. Drugim oważnym roblemem, który musi rozstrzygnąć rojektant AE jest ilość otomków generowanych w rocedurze selekcji. Jeżeli ilość otomków będzie większa niż liczność odstawowej oulacji (rodziców), algorytm bardziej dokładnie będzie rzeszukiwał rzestrzeń rozwiązań. Z drugiej strony zwiększenie ilości otomków związane jest z większym nakładem obliczeniowym. W rzykładzie obliczeniowym rzyjmuje się identyczną liczność oulacji odstawowej i otomków Elementy Algorytmu Ewolucyjnego Istnieją zasadnicze różnice omiędzy algorytmem szeregowym uczenia sieci oraz AE. AE rzetwarza zbiór osobników w sosób równoległy. AE w kolejnych iteracjach nie oblicza orawek dla wsółczynników wagowych, tylko stosując selekcję i mutacje oblicza nowe wartości wsółczynników wagowych dla nowo owstałej oulacji otomków. AE są algorytmami stochastycznymi stosującymi dane generowane o różnych rozkładach. W schemacie na rys. 2 można wydzielić najważniejsze komonenty AE: Podstawowe arametry AE takie jak arametry SSN, wielkość oulacji, ty algorytmu mutacji, rawdoodobieństwo mutacji, wartość rozroszenia mutacji, kryterium stou, Poulacja oczątkowa, czyli zadanie zrandomizowanej wartości wag sieci z rzedziału ( 1;1) dla macierzyw1 oraz W2 dla całej oulacji, Obliczanie wartości funkcji celu dla każdego osobnika wg wzoru (3) oraz odstawowych charakterystyk jakości AE, Srawdzenie jakości uczenia w oarciu o kryterium stou, Modyfikacja funkcji celu z minimum na maksimum funkcji celu, Selekcja otomków metodą wielogwieździstej ruletki, W oarciu o rawdoodobieństwo mutacji, modyfikacja wybranych wag dla całej oulacji, Koiowanie nowo wygenerowanej oulacji otomków do zbioru rodziców. Podstawiając jako wektor X nowe wartości danych wejściowych z aczki danych uczących, cały roces owtarza się aż zostanie sełnione kryterium stou.
5 Wielokryterialny dobór arametrów oeratora mutacji w algorytmie Modyfikacja funkcji celu Rys. 2. Ogólna struktura algorytmu ewolucyjnego Algorytmy uczenia SSN oszukują minimum funkcji celu oisanej wzorem (3). Dla otrzeb AE zachodzi konieczność modyfikacji funkcji celu z minimum na maksimum, co sowodowane jest koniecznością obliczenia rawdoodobieństw w rocedurze selekcji. max[ ( x)] min[ ( x)] (4) Niestety, owyższe nie gwarantuje, że w trakcie realizacji AE, zawsze będzie sełniony warunek (x) 0. Najleiej dobrać taką dodatnią wartość C aby dla każdej lokalnej funkcji celu sełniony był warunek: C ( x) 0 (5) Okazuje się, że w raktyce bardzo trudno dobrać odowiednia stała wartość C. Zbyt duża wartość może wrowadzić niestabilność AE, natomiast zbyt mała wartości, może nie sełnić warunku (5). Najleszym rozwiązaniem może być rzyjęciem kroczącej wartości arametru C, czyli najgorszą ( największą) wartość funkcji celu w danej oulacji i danej iteracji: ( x ) ( x) 0 (6) max
6 180 Stanisław Płaczek W tym rzyadku, najmniej doasowana funkcja celu, w każdej iteracji rzyjmuje wartość zero. Ostatecznie, funkcją celu AE zdefiniowana zostaje wzorem (7): max{ max ( x) ( x)} (7) 2.5. Algorytm selekcji Celem rocesu selekcji jest wybór, do nastęnego okolenia (okolenia otomków) najleszych osobników z uli rodzicielskiej. Najleszych, znaczy najleiej doasowanych do funkcji celu. Przed rocesem selekcji stawia się dwa wzajemnie srzeczne cele. Z jednej struny wybiera się najleiej doasowane osobniki, co może skutkować bardzo szybką zbieżnością algorytmu do jednego z minimów lokalnych. Powyższe tłumaczy się ojawieniem dużej ilości suer osobników. Ten roces nazywany jest rzedwczesną zbieżnością lub resja selekcyjną. Z drugiej strony trzeba amiętać, żeby względnie długo rzeszukiwać całą rzestrzeń rozwiązań orzez dywersyfikację oulacji. Różne algorytmy selekcji osiadają swoje wady i zalety. W standardowej metodzie ruletki oczekiwana ilość osobników w oulacji otomków jest roorcjonalna do wielkości rawdoodobieństwa danego osobnika. Oczywiście, w raktycznej realizacji algorytmu selekcji w oszczególnych iteracjach ta zależność nie zawsze jest sełniona. Może się zdarzyć, że nawet osobniki o stosunkowo wysokim rawdoodobieństwie nie wystąią w oulacji otomków. Zostaną rzez roces selekcji ominięci. Tak więc orócz obciążenia selekcyjnego może wystąić również błąd selekcji różnica omiędzy rzeczywista ilością wyselekcjonowanych osobników a wartością oczekiwana. Najoularniejszą jest metoda uniwersalnej stochastycznej ruletki rys. 3. Rys. 3. Schemat uniwersalnej ruletki z jednoczesnym wyborem osobników do uli otomków Ruletka osiada osize strzałek, równomiernie rozłożonych na całym obwodzie koła ruletki. Kąt omiędzy strzałkami wynosi,
7 Wielokryterialny dobór arametrów oeratora mutacji w algorytmie i (8) osize Symulując rogramowo obrót ruletki orzez wylosowanie liczby rzyadkowej U(0,1) określono kat oczątkowy ustawienia ierwszej strzałki, każda nastęna wybierze swój sektor. Niektóre strzałki mogą wybrać dwa lub trzy razy dany sektor (wszystko zależy od rawdoodobieństwa doasowania). Z drugiej strony ozostałe strzałki mają równe szanse na wybór sektorów o małym rawdoodobieństwie. Ruletka w sosób równoległy dokona wyboru osobników do uli otomków zgodnie z oczekiwanymi wartościami. Znika roblem obciążenia selekcji Wybór algorytmu i arametrów mutacji Dla genu w1 ij lub w2 kj danego osobnika z oulacji osize, zdefiniować musimy jego domenę wartości. Standardową domeną liczb rzeczywistych jest cała oś liczbowa. W tej sytuacji wartości z rozkładu unimodalnego mogły by rzyjmować bardzo duże wartości dodatnie jak i ujemne. W raktyce jednak, wartości wag w macierzy ołączeń rzyjmują ograniczone wartości, tym bardziej jeżeli wektor danych wejściowych i wyjściowych jest wystandaryzowany w rzedziale [ 1;1]. Wykorzystując rawdoodobieństwo mutacji m wyselekcjonowano dany gen i zmieniono jego wartość na: w ij rand( a, b) (9) gdzie: a, b odowiednio dolna i górna granica domeny. Oisany algorytm mutacji jest bardzo rosty lecz obarczony wieloma wadami. Przede wszystkim, należy arbitralnie określić szerokość domeny. Również jego wływ na szybkość zbieżności AE jest negatywny. Mutacja o rozkładzie normalnym charakteryzuje się leszymi arametrami. Uwzględniając charakterystykę rozkładu normalnego, ograniczamy rzedział zmienności mutacji w zakresie ( w 3 ; w 3 ) (10) ij gdzie: standardowe rozroszenie, które musi określić rojektant. Zgodnie z arametrami rozkładu normalnego, w rzedziale zdefiniowanym owyżej, zawarte jest 99% wartości zmiennej. Mutację genu dla W1 oraz W2 obliczamy wg wzorów (11) i (12): w1 ( n 1) w1 ( n) N (0,1) (11) ik ik ij ij ij w2 ( n 1) w2 ( n) N (0,1) (12) W owyższych wzorach (11) i (12), dla wszystkich genów w oulacji wykorzystujemy ten sam rozkład normalny N(0,1).
8 182 Stanisław Płaczek W rzykładzie numerycznym wykorzystano owyższy algorytm mutacji o rozkładzie normalnym Parametry jakościowe algorytmu Algorytm Ewolucyjny sterowany jest wieloma arametrami i bardzo trudno uchwycić wływ oszczególnych arametrów na jakość rocesu uczenia, w tym na szybkość zbieżności. Należy również uwzględnić arametry charakteryzujące strukturę dwuwarstwowej sieci neuronowej. Ponieważ AE jest rocesem stochastycznym więc najleszą miara będą średnia oraz rozroszenie. Wartość minimalna i maksymalna funkcji doasowania w danej iteracji min V i osize V j osize { max i j } (13) max V i osize V j osize { max i j } (14) Różnica, czyli rozrzut max min (15) Średnia wartość funkcji doasowania dla całej oulacji. osize 1 aver i (16) osize i 1 Bardzo ważnym arametrem jest rozroszenie funkcji doasowania od wartości średniej. Wartość ta owinna się zmniejszać w miarę ostęu rocesu uczenia. Var 1 osize osize i 1 ( i aver ) 2 (17) W rocesie uczenia wartość arametru mutacji może być stała lub się zmieniać w funkcji nr iteracji. Powyższe jest zgodne z ogólnym sojrzeniem na AE. W ierwszym etaie uczenia, cała rzestrzeń rozważań owinna być rzeszukiwana, w celu wyeliminowania otencjalnych minimów lokalnych. W końcowym etaie należy koncentrować się na najbardziej rawdoodobnej rzestrzeni rozwiązania, czyli zawężać obszar rzeszukiwania. W rzykładzie numerycznym zastosowano: a iter ocze (18) gdzie: ocz zadana oczątkowa wartość rozroszenia arametru mutacji, iter bieżący numer iteracji rocesu uczenia. 3. PRZYKŁAD NUMERYCZNY I PODSUMOWANIE W charakterze rzykładu zastosowania AE do uczenia SSN zbadamy roces filtrowania zakłóconego sygnału szumem o rozkładzie normalnym.
9 Wielokryterialny dobór arametrów oeratora mutacji w algorytmie Rys. 4. Sygnał zniekształcony szumem gaussowskim użyty do testowania sieci W sieci neuronowej zmieniamy tylko jeden arametr ilość neuronów w warstwie ukrytej. Natomiast w AE oceniamy wływ arametrów oeratora mutacji o rozkładzie normalnym na szybkość zbieżności i jakość rocesu uczenia. Rys. 4 rzedstawia kształt sygnału użytego do uczenia sieci. Rys. 5. Kształt błędu uczenia najleszej sieci (osobnika) w funkcji iteracji Przyjmując większe rawdoodobieństwo mutacji, średnia ilość genów w dwóch chromosomach odlegających zmianie jest większa. Cały roces rzeszukiwania rzestrzeni rozwiązań jest bardziej dynamiczny. Niestety, wraz ze wzrostem dynamiki, wzrasta niebezieczeństwo ojawienia się oscylacji i niestabilności całego rocesu uczenia. W literaturze nie odaje się wskazówek teoretycznych związanych z zasadami doboru m. Na rys. 5 okazano zależność błędu uczenia najleszego osobnika w funkcji co dziesiątej iteracji. Na rys. 6 i 7 okazano jak ważny jest odział danych wejściowych na dane uczące i weryfikujące (testowe). Nauczona siec nie zawsze osiada zdolności generalizacji nabytych umiejętności. W trakcie rzebiegu AE, dokonuje się omiarów wielu wielkości zdefiniowanych wzorami (13 17).
10 184 Stanisław Płaczek Rys. 6. Porawny sygnał wyjściowy dla danych weryfikujących jakość uczenia sieci Rys. 7. Błędny sygnał wyjściowy dla danych weryfikujących jakość uczenia sieci Rys. 8. Zmiana rozroszenia doasowania w funkcji nr iteracji
11 Wielokryterialny dobór arametrów oeratora mutacji w algorytmie Rys. 9. Wływ arametrów sieci i AE na rzebieg rocesu uczenia Rysunek 8 rzedstawia zmianę dynamiki uczenia. Na oczątku osobnicy (sieci neuronowe) są rozroszone w całej rzestrzeni rozwiązań. W kolejnych iteracjach nastęuje koncentrowanie się osobników na najbardziej ersektywicznym rozwiązaniu. Przebieg tego rocesu owinien być stabilny i nie za szybko zbieżny do wartości minimalnej. Zbyt szybkie koncentrowanie się osobników wokół jednego rozwiązania, może skutkować znalezieniem lokalnego minimum. Na rys. 9 okazano zależność rocesu uczenia w funkcji niektórych arametrów sieci neuronowej i AE. Prawdoodobieństwo mutacji nie może być zbyt duże ani zbyt małe. Otymalną wartość trudno oszacować. LITERATURA [1] A.E. Eiben, J.E. Smith: Introduction to Evolutionary Comuting, Second Edition, Sringer 2003, [2] Michalewicz Z.: Genetic Algorithm + Data Structure = Evolutionary Programs, Sringer Verlag Berlin Haidelberg [3] Montana DJ, Davis L,: "Training Feedforward Neural Network Using Genetic Algorithms. Proceedings of the 1989 International Join Conference on Artificial Intelligence", Morgan Kaufmann Publishers, San Mateo, CA, [4] David E. Goldberg: Genetic Algorithms in Search, Otimization, and Machine Learning, Addison Veslay Publishing Comany, Inc [5] Xinjie Yu, Mitsuo Gen: Introduction to Evolutionary Algorithm, Sringer London [6] Stefano Nolfi, Dario Floreano: Evolutionary Robotics, The MIT Press, Cambridge, Massachusetts, London.
12 186 Stanisław Płaczek MULTI BENCHMARK CHOICE OF MUTATION PARAMETERS IN EVOLUTIONARY ALGORITHM OF NEURAL NETWORK LEARNING The otimization of the learning algorithm in neural networks is not a trivial task. Considering the non linear characteristics of the activation functions, the entire task is multidimensional and non linear with a multimodal target function. Imlementing evolutionary comuting in the multimodal otimization tasks gives the develoer new and effective tools for seeking the global minimum. A develoer has to find otimal and simle transformation between the realization of a henotye and a genotye. In the article, a two layer neural network is analyzed. Two serially connected chromosomes reresent the genotye. In the first ste the oulation is created. In the main algorithm loo, a arent selection mechanism is used together with the fitness function. To evaluate the quality of evolutionary comuting rocess different measured characteristics are used. The final results are deicted using charts and tables. (Received: , revised: )
DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI
POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 80 Electrical Engineering 2014 Stanisław PŁACZEK* DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI W artykule
Dobór parametrów algorytmu ewolucyjnego
Dobór parametrów algorytmu ewolucyjnego 1 2 Wstęp Algorytm ewolucyjny posiada wiele parametrów. Przykładowo dla algorytmu genetycznego są to: prawdopodobieństwa stosowania operatorów mutacji i krzyżowania.
Rysunek 1 Przykładowy graf stanów procesu z dyskretnymi położeniami.
Procesy Markowa Proces stochastyczny { X } t t nazywamy rocesem markowowskim, jeśli dla każdego momentu t 0 rawdoodobieństwo dowolnego ołożenia systemu w rzyszłości (t>t 0 ) zależy tylko od jego ołożenia
ALGORYTMY GENETYCZNE ćwiczenia
ćwiczenia Wykorzystaj algorytmy genetyczne do wyznaczenia minimum globalnego funkcji testowej: 1. Wylosuj dwuwymiarową tablicę 100x2 liczb 8-bitowych z zakresu [-100; +100] reprezentujących inicjalną populację
Uczenie sieci typu MLP
Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik
Strategie ewolucyjne (ang. evolution strategies)
Strategie ewolucyjne (ang. evolution strategies) 1 2 Szybki przegląd Rozwijane w Niemczech w latach 60-70. Wcześni badacze: I. Rechenberg, H.-P. Schwefel (student Rechenberga). Typowe zastosowanie: Optymalizacja
Sztuczna Inteligencja Tematy projektów Sieci Neuronowe
PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia
LABORATORIUM 4: Algorytmy ewolucyjne cz. 2 wpływ operatorów krzyżowania i mutacji na skuteczność poszukiwań AE
Instytut Mechaniki i Inżynierii Obliczeniowej Wydział Mechaniczny Technologiczny, Politechnika Śląska www.imio.polsl.pl METODY HEURYSTYCZNE LABORATORIUM 4: Algorytmy ewolucyjne cz. 2 wpływ operatorów krzyżowania
Algorytm genetyczny (genetic algorithm)-
Optymalizacja W praktyce inżynierskiej często zachodzi potrzeba znalezienia parametrów, dla których system/urządzenie będzie działać w sposób optymalny. Klasyczne podejście do optymalizacji: sformułowanie
( n) Łańcuchy Markowa X 0, X 1,...
Łańcuchy Markowa Łańcuchy Markowa to rocesy dyskretne w czasie i o dyskretnym zbiorze stanów, "bez amięci". Zwykle będziemy zakładać, że zbiór stanów to odzbiór zbioru liczb całkowitych Z lub zbioru {,,,...}
Optymalizacja optymalizacji
7 maja 2008 Wstęp Optymalizacja lokalna Optymalizacja globalna Algorytmy genetyczne Badane czasteczki Wykorzystane oprogramowanie (Algorytm genetyczny) 2 Sieć neuronowa Pochodne met-enkefaliny Optymalizacja
Algorytm Genetyczny. zastosowanie do procesów rozmieszczenia stacji raportujących w sieciach komórkowych
Algorytm Genetyczny zastosowanie do procesów rozmieszczenia stacji raportujących w sieciach komórkowych Dlaczego Algorytmy Inspirowane Naturą? Rozwój nowych technologii: złożone problemy obliczeniowe w
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych
LABORATORIUM 3: Wpływ operatorów krzyżowania na skuteczność poszukiwań AE
Instytut Mechaniki i Inżynierii Obliczeniowej Wydział Mechaniczny Technologiczny, Politechnika Śląska www.imio.polsl.pl OBLICZENIA EWOLUCYJNE LABORATORIUM 3: Wpływ operatorów krzyżowania na skuteczność
Projekt Sieci neuronowe
Projekt Sieci neuronowe Chmielecka Katarzyna Gr. 9 IiE 1. Problem i dane Sieć neuronowa miała za zadanie nauczyć się klasyfikować wnioski kredytowe. W projekcie wykorzystano dane pochodzące z 110 wniosków
Zastosowania sieci neuronowych
Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką
Optymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
Algorytmy ewolucyjne. Łukasz Przybyłek Studenckie Koło Naukowe BRAINS
Algorytmy ewolucyjne Łukasz Przybyłek Studenckie Koło Naukowe BRAINS 1 Wprowadzenie Algorytmy ewolucyjne ogólne algorytmy optymalizacji operujące na populacji rozwiązań, inspirowane biologicznymi zjawiskami,
Algorytmy genetyczne. Materiały do laboratorium PSI. Studia niestacjonarne
Algorytmy genetyczne Materiały do laboratorium PSI Studia niestacjonarne Podstawowy algorytm genetyczny (PAG) Schemat blokowy algorytmu genetycznego Znaczenia, pochodzących z biologii i genetyki, pojęć
Testowanie modeli predykcyjnych
Testowanie modeli predykcyjnych Wstęp Podczas budowy modelu, którego celem jest przewidywanie pewnych wartości na podstawie zbioru danych uczących poważnym problemem jest ocena jakości uczenia i zdolności
Algorytmy genetyczne
9 listopada 2010 y ewolucyjne - zbiór metod optymalizacji inspirowanych analogiami biologicznymi (ewolucja naturalna). Pojęcia odwzorowujące naturalne zjawiska: Osobnik Populacja Genotyp Fenotyp Gen Chromosom
Obliczenia ewolucyjne - plan wykładu
Obliczenia ewolucyjne - plan wykładu Wprowadzenie Algorytmy genetyczne Programowanie genetyczne Programowanie ewolucyjne Strategie ewolucyjne Inne modele obliczeń ewolucyjnych Podsumowanie Ewolucja Ewolucja
METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING
METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING Maszyna Wektorów Nośnych Suort Vector Machine SVM Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki
Algorytmy genetyczne. Materiały do laboratorium PSI. Studia stacjonarne i niestacjonarne
Algorytmy genetyczne Materiały do laboratorium PSI Studia stacjonarne i niestacjonarne Podstawowy algorytm genetyczny (PAG) Schemat blokowy algorytmu genetycznego Znaczenia, pochodzących z biologii i genetyki,
Algorytmy ewolucyjne 1
Algorytmy ewolucyjne 1 2 Zasady zaliczenia przedmiotu Prowadzący (wykład i pracownie specjalistyczną): Wojciech Kwedlo, pokój 205. Konsultacje dla studentów studiów dziennych: poniedziałek,środa, godz
POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 72 Electrical Engineering 2012
POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 72 Electrical Engineering 2012 Wiktor HUDY* Kazimierz JARACZ* ANALIZA WYNIKÓW SYMULACJI EWOLUCYJNEJ OPTYMALIZACJI PARAMETRYCZNEJ UKŁADU STEROWANIA
WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)
WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO Stanisław Kowalik (Poland, Gliwice) 1. Wprowadzenie Wstrząsy podziemne i tąpania występujące w kopalniach
Katedra Informatyki Stosowanej. Algorytmy ewolucyjne. Inteligencja obliczeniowa
Wydział Zarządzania AGH Katedra Informatyki Stosowanej Algorytmy ewolucyjne Treść wykładu Wprowadzenie Zasada działania Podział EA Cechy EA Algorytm genetyczny 2 EA - wprowadzenie Algorytmy ewolucyjne
Laboratorium Metod i Algorytmów Sterowania Cyfrowego
Laboratorium Metod i Algorytmów Sterowania Cyfrowego Ćwiczenie 3 Dobór nastaw cyfrowych regulatorów rzemysłowych PID I. Cel ćwiczenia 1. Poznanie zasad doboru nastaw cyfrowych regulatorów rzemysłowych..
PLAN WYKŁADU OPTYMALIZACJA GLOBALNA OPERATOR KRZYŻOWANIA ETAPY KRZYŻOWANIA
PLAN WYKŁADU Operator krzyżowania Operator mutacji Operator inwersji Sukcesja Przykłady symulacji AG Kodowanie - rodzaje OPTYMALIZACJA GLOBALNA Wykład 3 dr inż. Agnieszka Bołtuć OPERATOR KRZYŻOWANIA Wymiana
Algorytm hybrydowy dla alokacji portfela inwestycyjnego przy ograniczonych zasobach
Adam Stawowy Algorytm hybrydowy dla alokacji portfela inwestycyjnego przy ograniczonych zasobach Summary: We present a meta-heuristic to combine Monte Carlo simulation with genetic algorithm for Capital
Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311
Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311 Wykład 7 PLAN: - Repetitio (brevis) -Algorytmy miękkiej selekcji: algorytmy ewolucyjne symulowane wyżarzanie
8. Neuron z ciągłą funkcją aktywacji.
8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i
MODELOWANIE NEURONALNE ROZWOJU SYSTEMU ELEKTROENERGETYCZNEGO. CZĘŚĆ 2. MODELE SYSTEMU IEEE RTS
POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 82 Electrical Engineering 2015 Jerzy TCHÓRZEWSKI* Maciej PYTEL ** MODELOWANIE NEURONALNE ROZWOJU SYSTEMU ELEKTROENERGETYCZNEGO. CZĘŚĆ 2. MODELE SYSTEMU
UCZENIE WIELOWARSTWOWYCH SZEROKICH SIECI NEURONOWYCH Z FUNKCJAMI AKTYWACJI TYPU RELU W ZADANIACH KLASYFIKACJI
POZNAN UNIVERSITY OF TECHNOOGY ACADEMIC JOURNAS No 96 Electrical Engineering 2018 DOI 10.21008/j.1897-0737.2018.96.0004 Stanisław PŁACZEK *, Aleksander PŁACZEK ** UCZENIE WIEOWARSTWOWYCH SZEROKICH SIECI
Algorytmy sztucznej inteligencji
Algorytmy sztucznej inteligencji Dynamiczne sieci neuronowe 1 Zapis macierzowy sieci neuronowych Poniżej omówione zostaną części składowe sieci neuronowych i metoda ich zapisu za pomocą macierzy. Obliczenia
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt
Algorytmy ewolucyjne NAZEWNICTWO
Algorytmy ewolucyjne http://zajecia.jakubw.pl/nai NAZEWNICTWO Algorytmy ewolucyjne nazwa ogólna, obejmująca metody szczegółowe, jak np.: algorytmy genetyczne programowanie genetyczne strategie ewolucyjne
WAE Jarosław Arabas Pełny schemat algorytmu ewolucyjnego
WAE Jarosław Arabas Pełny schemat algorytmu ewolucyjnego Algorytm ewolucyjny algorytm ewolucyjny inicjuj P 0 {P 0 1, P 0 2... P 0 μ } t 0 H P 0 while! stop for (i 1: λ) if (a< p c ) O t i mutation(crossover
Strategie ewolucyjne. Gnypowicz Damian Staniszczak Łukasz Woźniak Marek
Strategie ewolucyjne Gnypowicz Damian Staniszczak Łukasz Woźniak Marek Strategie ewolucyjne, a algorytmy genetyczne Podobieństwa: Oba działają na populacjach rozwiązań Korzystają z zasad selecji i przetwarzania
Uczenie sieci radialnych (RBF)
Uczenie sieci radialnych (RBF) Budowa sieci radialnej Lokalne odwzorowanie przestrzeni wokół neuronu MLP RBF Budowa sieci radialnych Zawsze jedna warstwa ukryta Budowa neuronu Neuron radialny powinien
Wstęp do Sztucznej Inteligencji
Wstęp do Sztucznej Inteligencji Algorytmy Genetyczne Joanna Kołodziej Politechnika Krakowska Wydział Fizyki, Matematyki i Informatyki Metody heurystyczne Algorytm efektywny: koszt zastosowania (mierzony
Standardowy algorytm genetyczny
Standardowy algorytm genetyczny 1 Szybki przegląd 2 Opracowany w USA w latach 70. Wcześni badacze: John H. Holland. Autor monografii Adaptation in Natural and Artificial Systems, wydanej w 1975 r., (teoria
SCHEMAT ROZWIĄZANIA ZADANIA OPTYMALIZACJI PRZY POMOCY ALGORYTMU GENETYCZNEGO
SCHEMAT ROZWIĄZANIA ZADANIA OPTYMALIZACJI PRZY POMOCY ALGORYTMU GENETYCZNEGO. Rzeczywistość (istniejąca lub projektowana).. Model fizyczny. 3. Model matematyczny (optymalizacyjny): a. Zmienne projektowania
Algorytmy genetyczne. Paweł Cieśla. 8 stycznia 2009
Algorytmy genetyczne Paweł Cieśla 8 stycznia 2009 Genetyka - nauka o dziedziczeniu cech pomiędzy pokoleniami. Geny są czynnikami, które decydują o wyglądzie, zachowaniu, rozmnażaniu każdego żywego organizmu.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-10 Projekt pn. Wzmocnienie
Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.
Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 211-1-18 1 Pomysł Przykłady Zastosowanie 2
Deep Learning na przykładzie Deep Belief Networks
Deep Learning na przykładzie Deep Belief Networks Jan Karwowski Zakład Sztucznej Inteligencji i Metod Obliczeniowych Wydział Matematyki i Nauk Informacyjnych PW 20 V 2014 Jan Karwowski (MiNI) Deep Learning
Porównanie nacisków obudowy Glinik 14/35-POz na spąg obliczonych metodą analityczną i metodą Jacksona
dr inż. JAN TAK Akademia Górniczo-Hutnicza im. St. Staszica w Krakowie inż. RYSZARD ŚLUSARZ Zakład Maszyn Górniczych GLINIK w Gorlicach orównanie nacisków obudowy Glinik 14/35-Oz na sąg obliczonych metodą
Metody Rozmyte i Algorytmy Ewolucyjne
mgr inż. Wydział Matematyczno-Przyrodniczy Szkoła Nauk Ścisłych Uniwersytet Kardynała Stefana Wyszyńskiego Podstawowe operatory genetyczne Plan wykładu Przypomnienie 1 Przypomnienie Metody generacji liczb
Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych
inż. Marek Duczkowski Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych słowa kluczowe: algorytm gradientowy, optymalizacja, określanie wodnicy W artykule
Algorytmy stochastyczne, wykład 01 Podstawowy algorytm genetyczny
Algorytmy stochastyczne, wykład 01 J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2014-02-21 In memoriam prof. dr hab. Tomasz Schreiber (1975-2010) 1 2 3 Różne Orientacyjny
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa
Algorytmy ewolucyjne - algorytmy genetyczne. I. Karcz-Dulęba
Algorytmy ewolucyjne - algorytmy genetyczne I. Karcz-Dulęba Algorytmy klasyczne a algorytmy ewolucyjne Przeszukiwanie przestrzeni przez jeden punkt bazowy Przeszukiwanie przestrzeni przez zbiór punktów
Rozdział 21, który przedstawia zastosowanie obliczeń wysokiej wydajności w numerycznej algebrze liniowej
Rozdział 21, który rzedstawia zastosowanie obliczeń wysokiej wydajności w numerycznej algebrze liniowej 1.0.1 Oeracje macierzowe Istotnym elementem wszelkich równoległych algorytmów macierzowych jest określenie
Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3
Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt
Wykład organizacyjny
Automatyka - zastosowania, metody i narzędzia, perspektywy na studiach I stopnia specjalności: Automatyka i systemy sterowania Wykład organizacyjny dr inż. Michał Grochowski kiss.pg.mg@gmail.com michal.grochowski@pg.gda.pl
Dynamiczne struktury danych: listy
Dynamiczne struktury danych: listy Mirosław Mortka Zaczynając rogramować w dowolnym języku rogramowania jesteśmy zmuszeni do oanowania zasad osługiwania się odstawowymi tyami danych. Na rzykład w języku
Elementy inteligencji obliczeniowej
Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego
Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I
Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:
Algorytmy genetyczne
Politechnika Łódzka Katedra Informatyki Stosowanej Algorytmy genetyczne Wykład 2 Przygotował i prowadzi: Dr inż. Piotr Urbanek Powtórzenie Pytania: Jaki mechanizm jest stosowany w naturze do takiego modyfikowania
Podejście memetyczne do problemu DCVRP - wstępne wyniki. Adam Żychowski
Podejście memetyczne do problemu DCVRP - wstępne wyniki Adam Żychowski Na podstawie prac X. S. Chen, L. Feng, Y. S. Ong A Self-Adaptive Memeplexes Robust Search Scheme for solving Stochastic Demands Vehicle
OPTYMALIZACJA STRUKTUR ELEKTROENERGETYCZNYCH SIECI PROMIENIOWYCH
POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 78 Electrical Engineering 2014 Janusz BROŻEK* Wojciech BĄCHOREK* OPTYMALIZACJA STRUKTUR ELEKTROENERGETYCZNYCH SIECI PROMIENIOWYCH Optymalizacja promieniowych
Algorytmy genetyczne w optymalizacji
Algorytmy genetyczne w optymalizacji Literatura 1. David E. Goldberg, Algorytmy genetyczne i ich zastosowania, WNT, Warszawa 1998; 2. Zbigniew Michalewicz, Algorytmy genetyczne + struktury danych = programy
Teoria informacji i kodowania Ćwiczenia Sem. zimowy 2016/2017
Teoria informacji i kodowania Ćwiczenia Sem. zimowy 06/07 Źródła z amięcią Zadanie (kolokwium z lat orzednich) Obserwujemy źródło emitujące dwie wiadomości: $ oraz. Stwierdzono, że częstotliwości wystęowania
Podstawy Sztucznej Inteligencji (PSZT)
Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12
Sympozjum Trwałość Budowli
Sympozjum Trwałość Budowli Andrzej ownuk ROJEKTOWANIE UKŁADÓW Z NIEEWNYMI ARAMETRAMI Zakład Mechaniki Teoretycznej olitechnika Śląska pownuk@zeus.polsl.gliwice.pl URL: http://zeus.polsl.gliwice.pl/~pownuk
ĆWICZENIE 5: Sztuczne sieci neuronowe
Instytut Mechaniki i Inżynierii Obliczeniowej Wydział Mechaniczny Technologiczny, Politechnika Śląska www.imio.polsl.pl METODY HEURYSTYCZNE ĆWICZENIE 5: Sztuczne sieci neuronowe opracował: dr inż. Witold
ANALIZA WŁAŚCIWOŚCI FILTRU PARAMETRYCZNEGO I RZĘDU
POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 78 Electrical Engineering 2014 Seweryn MAZURKIEWICZ* Janusz WALCZAK* ANALIZA WŁAŚCIWOŚCI FILTRU PARAMETRYCZNEGO I RZĘDU W artykule rozpatrzono problem
Przykład optymalizacji struktury sztucznej sieci neuronowej metodą algorytmów genetycznych
BIULETYN INSTYTUTU AUTOMATYKI I ROBOTYKI NR 23, 26 Przykład optymalizacji struktury sztucznej sieci neuronowej metodą algorytmów genetycznych Leszek Grad Zakład Automatyki, Instytut Teleinfo rmatyki i
Teoria algorytmów ewolucyjnych
Teoria algorytmów ewolucyjnych 1 2 Dlaczego teoria Wynik analiza teoretycznej może pokazać jakie warunki należy spełnić, aby osiągnąć zbieżność do minimum globalnego. Np. sukcesja elitarystyczna. Może
Algorytmy stochastyczne, wykład 02 Algorytmy genetyczne
Algorytmy stochastyczne, wykład 02 Algorytmy genetyczne J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2014-02-27 1 Mutacje algorytmu genetycznego 2 Dziedzina niewypukła abstrakcyjna
ADAPTACYJNE PODEJŚCIE DO TWORZENIA STRATEGII INWESTYCYJNYCH NA RYNKACH KAPITAŁOWYCH WRAZ Z ZASTOSOWANIEM WAŻONEGO UŚREDNIANIA
STUDIA INFORMATICA 2012 Volume 33 Number 2A (105) Alina MOMOT Politechnika Śląska, Instytut Informatyki Michał MOMOT Instytut Techniki i Aaratury Medycznej ITAM ADAPTACYJNE PODEJŚCIE DO TWORZENIA STRATEGII
Zjawisko Comptona opis pół relatywistyczny
FOTON 33, Lato 06 7 Zjawisko Comtona ois ół relatywistyczny Jerzy Ginter Wydział Fizyki UW Zderzenie fotonu ze soczywającym elektronem Przy omawianiu dualizmu koruskularno-falowego jako jeden z ięknych
ALGORYTMY EWOLUCYJNE W OPTYMALIZACJI JEDNOKRYTERIALNEJ
ALGORYTMY EWOLUCYJNE W OPTYMALIZACJI JEDNOKRYTERIALNEJ Zalety: nie wprowadzają żadnych ograniczeń na sformułowanie problemu optymalizacyjnego. Funkcja celu może być wielowartościowa i nieciągła, obszar
Wskaźniki i struktury. Programowanie C, LA Anna Gogolińska
Wskaźniki i struktury Programowanie C, LA Anna Gogolińska Wskaźniki i struktury Jednym z ól struktury może być wskaźnik na zmienną tyu tej struktury. Deklaracja jest z użyciem formy: ty *. Poza tym olem,
Zastosowania sieci neuronowych
Zastosowania sieci neuronowych klasyfikacja LABORKA Piotr Ciskowski zadanie 1. klasyfikacja zwierząt sieć jednowarstwowa żródło: Tadeusiewicz. Odkrywanie własności sieci neuronowych, str. 159 Przykład
5. Rozwiązywanie układów równań liniowych
5. Rozwiązywanie układów równań liniowych Wprowadzenie (5.1) Układ n równań z n niewiadomymi: a 11 +a 12 x 2 +...+a 1n x n =a 10, a 21 +a 22 x 2 +...+a 2n x n =a 20,..., a n1 +a n2 x 2 +...+a nn x n =a
6. Klasyczny algorytm genetyczny. 1
6. Klasyczny algorytm genetyczny. 1 Idea algorytmu genetycznego została zaczerpnięta z nauk przyrodniczych opisujących zjawiska doboru naturalnego i dziedziczenia. Mechanizmy te polegają na przetrwaniu
Algorytm memetyczny w grach wielokryterialnych z odroczoną preferencją celów. Adam Żychowski
Algorytm memetyczny w grach wielokryterialnych z odroczoną preferencją celów Adam Żychowski Definicja problemu dwóch graczy: P 1 (minimalizator) oraz P 2 (maksymalizator) S 1, S 2 zbiory strategii graczy
SYMULACJA ZAKŁÓCEŃ W UKŁADACH AUTOMATYKI UTWORZONYCH ZA POMOCĄ OBWODÓW ELEKTRYCZNYCH W PROGRAMACH MATHCAD I PSPICE
POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 76 Electrical Engineering 2013 Piotr FRĄCZAK* SYMULACJA ZAKŁÓCEŃ W UKŁADACH AUTOMATYKI UTWORZONYCH ZA POMOCĄ OBWODÓW ELEKTRYCZNYCH W PROGRAMACH MATHCAD
Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym
Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW 17 XII 2013 Jan Karwowski
PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**
Górnictwo i Geoinżynieria Rok 31 Zeszyt 3 2007 Dorota Pawluś* PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH** 1. Wstęp Eksploatacja górnicza złóż ma niekorzystny wpływ na powierzchnię
Algorytmy genetyczne (AG)
Algorytmy genetyczne (AG) 1. Wprowadzenie do AG a) ewolucja darwinowska b) podstawowe definicje c) operatory genetyczne d) konstruowanie AG e) standardowy AG f) przykład rozwiązania g) naprawdę bardzo,
Metody iteracyjne rozwiązywania układów równań liniowych (5.3) Normy wektorów i macierzy (5.3.1) Niech. x i. i =1
Normy wektorów i macierzy (5.3.1) Niech 1 X =[x x Y y =[y1 x n], oznaczają wektory przestrzeni R n, a yn] niech oznacza liczbę rzeczywistą. Wyrażenie x i p 5.3.1.a X p = p n i =1 nosi nazwę p-tej normy
Algorytmy ewolucyjne `
Algorytmy ewolucyjne ` Wstęp Czym są algorytmy ewolucyjne? Rodzaje algorytmów ewolucyjnych Algorytmy genetyczne Strategie ewolucyjne Programowanie genetyczne Zarys historyczny Alan Turing, 1950 Nils Aall
MATLAB Neural Network Toolbox przegląd
MATLAB Neural Network Toolbox przegląd WYKŁAD Piotr Ciskowski Neural Network Toolbox: Neural Network Toolbox - zastosowania: przykłady zastosowań sieci neuronowych: The 1988 DARPA Neural Network Study
Matematyka II. Bezpieczeństwo jądrowe i ochrona radiologiczna Semestr letni 2018/2019 wykład 13 (27 maja)
Matematyka II Bezpieczeństwo jądrowe i ochrona radiologiczna Semestr letni 208/209 wykład 3 (27 maja) Całki niewłaściwe przedział nieograniczony Rozpatrujemy funkcje ciągłe określone na zbiorach < a, ),
Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE
Temat: Sztuczne Sieci Neuronowe Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Sztuczne sieci neuronowe
Obrona rozprawy doktorskiej Neuro-genetyczny system komputerowy do prognozowania zmiany indeksu giełdowego
IBS PAN, Warszawa 9 kwietnia 2008 Obrona rozprawy doktorskiej Neuro-genetyczny system komputerowy do prognozowania zmiany indeksu giełdowego mgr inż. Marcin Jaruszewicz promotor: dr hab. inż. Jacek Mańdziuk,
FOLIA POMERANAE UNIVERSITATIS TECHNOLOGIAE STETINENSIS Folia Pomer. Univ. Technol. Stetin. 2011, Oeconomica 285 (62), 45 50
FOLIA POMERANAE UNIVERSITATIS TECHNOLOGIAE STETINENSIS Folia Pomer. Univ. Technol. Stetin. 2011, Oeconomica 285 (62), 45 50 Anna Landowska KLASYCZNY ALGORYTM GENETYCZNY W DYNAMICZNEJ OPTYMALIZACJI MODELU
Metody Sztucznej Inteligencji II
17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 17. ALGORYTMY EWOLUCYJNE Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska KODOWANIE BINARNE Problem różnych struktur przestrzeni
LABORATORIUM 2: Wpływ wielkości populacji i liczby pokoleń na skuteczność poszukiwań AE. opracował: dr inż. Witold Beluch
OBLICZENIA EWOLUCYJNE LABORATORIUM 2: Wpływ wielkości populacji i liczby pokoleń na skuteczność poszukiwań AE opracował: dr inż. Witold Beluch witold.beluch@polsl.pl Gliwice 12 OBLICZENIA EWOLUCYJNE LABORATORIUM
Sieci neuronowe w Statistica
http://usnet.us.edu.pl/uslugi-sieciowe/oprogramowanie-w-usk-usnet/oprogramowaniestatystyczne/ Sieci neuronowe w Statistica Agnieszka Nowak - Brzezińska Podstawowym elementem składowym sztucznej sieci neuronowej
Algorytmy ewolucyjne
Algorytmy ewolucyjne wprowadzenie Piotr Lipiński lipinski@ii.uni.wroc.pl Piotr Lipiński Algorytmy ewolucyjne p.1/16 Cel wykładu zapoznanie studentów z algorytmami ewolucyjnymi, przede wszystkim nowoczesnymi
Równoważność algorytmów optymalizacji
Równoważność algorytmów optymalizacji Reguła nie ma nic za darmo (ang. no free lunch theory): efektywność różnych typowych algorytmów szukania uśredniona po wszystkich możliwych problemach optymalizacyjnych
HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM
ZASTOSOWANIE SIECI NEURONOWYCH W SYSTEMACH AKTYWNEJ REDUKCJI HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM WPROWADZENIE Zwalczanie hałasu przy pomocy metod aktywnych redukcji hałasu polega
WYBÓR FORMY OPODATKOWANIA PRZEDSIĘBIORSTW NIEPOSIADAJĄCYCH OSOBOWOŚCI PRAWNEJ
ZESZYTY NAUKOWE UNIWERSYTETU SZCZECIŃSKIEGO NR 667 FINANSE, RYNKI FINANSOWE, UBEZPIECZENIA NR 40 2011 ADAM ADAMCZYK Uniwersytet Szczeciński WYBÓR FORMY OPODATKOWANIA PRZEDSIĘBIORSTW NIEPOSIADAJĄCYCH OSOBOWOŚCI