WIELOKRYTERIALNY DOBÓR PARAMETRÓW OPERATORA MUTACJI W ALGORYTMIE EWOLUCYJNYM UCZENIA SIECI NEURONOWEJ

Wielkość: px
Rozpocząć pokaz od strony:

Download "WIELOKRYTERIALNY DOBÓR PARAMETRÓW OPERATORA MUTACJI W ALGORYTMIE EWOLUCYJNYM UCZENIA SIECI NEURONOWEJ"

Transkrypt

1 POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 91 Electrical Engineering 2017 DOI /j Stanisław PŁACZEK* WIELOKRYTERIALNY DOBÓR PARAMETRÓW OPERATORA MUTACJI W ALGORYTMIE EWOLUCYJNYM UCZENIA SIECI NEURONOWEJ Imlementacja Algorytmów Ewolucyjnych (AE) do zadań uczenia Sztucznych Sieci Neuronowych (SSN) nie jest zadaniem łatwym. Zastosowanie algorytmów ewolucyjnych wyeliminowało ograniczenia algorytmów gradientowych lecz niestety naotykamy na szereg nowych roblemów. W artykule analizuje się dwuwarstwową sieć neuronową, w której, w charakterze genotyu rzyjmuje się dwa chromosomy ołączone szeregowo. Tworzy się całą oulację sieci neuronowych o indywidualnych własnościach chromosomów. oblicza się wartości funkcji celu oraz realizuje się roces selekcji. W roonowanym rozwiązaniu eliminuje się algorytm krzyżowania i stosuje się tylko mutację. Oerator mutacji, jego arametry mogą być identyczne dla dwóch chromosomów, różne i nieskorelowane lub różne i skorelowane. W artykule analizuje się różne charakterystyki algorytmu mutacji, zalety i wady. KEYWORDS: algorytmy genetyczne, algorytmy ewolucyjne, sztuczne sieci neuronowe, algorytmy uczenia sieci, algorytmy selekcji, krzyżowania, mutacji 1. PODSTAWOWE CHARAKTERYSTYKI Bazą Algorytmów Ewolucyjnych są dwa odstawowe czynniki mające największy wływ na jakość i zbieżność algorytmu: Oeratory wariacji, do których zaliczamy dwuarametryczne krzyżowanie oraz jednoarametryczną mutację. Oeratory działają w rzestrzeni genotyu i maja wływ na dywersyfikację członków oulacji, a tym samym na wrowadzenie do oulacji nowej jakości osobników. Selekcja, działająca w łaszczyźnie fenotyu aktywnie wływająca na średnią jakość doasowania osobników do funkcji celu Należy odkreśli, że nie wszystkie arametry AE są deterministyczne. Wręcz rzeciwnie, wiele z nich odlega różnym rozkładom statystycznym w zależności od otrzeb i ozycji w AE ( binarny, jednorodny, niejednorodny, normalny, Cauchy, wielomianowy). W rocesie selekcji, okolenie otomków * Akademia Finansów i Biznesu Vistula.

2 176 Stanisław Płaczek wybierane jest algorytmem stochastycznym czyli nawet najmniej doasowani osobnicy mają szansę bycia rodzicem nastęnego okolenia. Tym niemniej roces selekcji w sosób stochastyczny dąży do wyboru najleszych osobników i zawężania w ten sosób rzestrzeni oszukiwań. Proces ten nazywa się naorem selekcyjnym (selection ressure) i ma negatywny wływ na roces rzeszukiwania i zbieżności. Powyższa właściwość jest bardzo ważna w wielomodalnych funkcjach celu, którymi charakteryzują się funkcje celu SSN. Funkcja uczenia SSN zdefiniowana jest jako nieliniowa funkcja wag sieci oraz nieliniowej funkcji aktywacji minimalizującej błąd średniokwadratowy, dla każdego wektora uczącego,omiędzy wektorem wyjściowym Y a wektorem uczącym Z. W dwuwarstwowych SSN z nieliniowymi funkcjami aktywacji, funkcja celu charakteryzuje się wieloma maksimami oraz minimami. Celem każdego algorytmu uczenia SSN jest znalezienie globalnego minimum i uniknięcia zatrzymania się w lokalnym minimum dalekim od globalnego celu. W roonowanym rozwiązaniu zastosowania Algorytmu Ewolucyjnego do uczenia dwuwarstwowej SSN eliminuje się dwuargumentową oerację krzyżowania. Wykorzystuje się jednoargumentowy oerator mutacji. Powyższe ozwoli na skoncentrowanie się tylko na arametrach jednego oeratora i ich wływu na jakość rocesu uczenia. 2. STRUKTURA ALGORYTMU EVOLUCYJNEGO Dwuwarstwowe sieci neuronowe zdefiniowane są jako uniwersalne nieliniowe aroksymatory funkcji wielu zmiennych, realizujące funkcje nieliniowe w ostaci: Y = F(X) (1) gdzie: X wektor wejściowy sieci, Y wektor wyjściowy sieci, F realizowana funkcją wektorową wielu zmiennych. Algorytm uczenia sieci neuronowej jest zdeterminowanym algorytmem szeregowym oerującym na jednym egzemlarzu modelu sieci. Podstawowy model uczenia sieci w oarciu o AE jest diametralnie inny. Po ierwsze jest algorytmem stochastycznym, w którym decyzje co do orawy kierunku oszukiwać globalnego minimum są realizowane w dużym stoniu stochastycznie. Po drugie jest algorytmem równoległym oierającym na całej oulacji sieci neuronowych (rys. 1). Definiuje się zbiór (oulację) sieci z jednym wektorem wejściowym X, indywidualnymi wektorami wyjściowymi: Y i gdzie i = 1, 2, 3,... osize osize wielkość oulacji oraz wsólnym wektorem uczenia Z.

3 Wielokryterialny dobór arametrów oeratora mutacji w algorytmie Rerezentacja osobników Rys. 1. Struktura AE dla dwuwarstwowej sieci neuronowej Jedną z ierwszych, jeżeli nie najważniejszych decyzji, jest rerezentacja SSN jako osobnika oulacji. Każdy z osobników składa się z dwóch macierzy W1, W2 oraz funkcji aktywacji, tworząc w ten sosób nieliniową strukturę rzetwarzania informacji. Pierwotna, zaroonowana w Algorytmach Genetycznych, binarna struktura osobnika nie będzie odowiednia dla jego macierzowej struktury. Dla stosunkowo niedużych macierzy zawierających n. N 0 = 30 neuronów wejściowych, N 1 = 50 neuronów ukrytych oraz N 2 = 5, neuronów wyjściowych, macierz W1 zawiera 31*50 = 1550 wsółczynników wagowych. Natomiast macierz W2, 51*5=255 wsółczynników. Tak więc sumaryczna długość chromosomu, składającego się z 1550 genów, tylko dla jednej macierzy, wynosi bitów. Jest to wartość stosunkowo duża i oerowanie tak długimi ciągami nie jest otymalne z obliczeniowego unktu widzenia. Kod binarny do rerezentacji wsółczynników wagowych macierzy W1 nie jest więc odowiedni. Natomiast wyrażanie wsółczynników macierzy w liczbach rzeczywistych jest dobrym wyborem. Uwzględniając szeregowe rzetwarzanie sygnałów w każdej sieci, otymalną strukturą będą dwa chromosomy rerezentujące odowiednie macierze. Każdy chromosom zawiera zbiór genów rerezentujących stosowne wsółczynniki wagowe oraz funkcje aktywacji. W ten sosób stworzyliśmy zbiór (oulację) dwuchromosomowych osobników, z których każdy rerezentuje sieć neuronową o indywidualnych charakterystykach Funkcja celu Funkcja celu jest rerezentowana rzez zbiór indywidualnych funkcji celu osobników: osize [,,,... ] (2)

4 178 Stanisław Płaczek Indywidualna funkcja celu jest zdefiniowana odobnie jak funkcja celu algorytmu wstecznej roagacji błędu: T min ( Y Z) ( Y Z) (3) gdzie: = 1, 2, 3,... osize oulacja (zbiór) osobników. W oarciu o wzór (3) obliczana jest indywidualna funkcja celu osobnika, która w kolejnych krokach algorytmu będzie rzetwarzana w kroku selekcji. Drugim oważnym roblemem, który musi rozstrzygnąć rojektant AE jest ilość otomków generowanych w rocedurze selekcji. Jeżeli ilość otomków będzie większa niż liczność odstawowej oulacji (rodziców), algorytm bardziej dokładnie będzie rzeszukiwał rzestrzeń rozwiązań. Z drugiej strony zwiększenie ilości otomków związane jest z większym nakładem obliczeniowym. W rzykładzie obliczeniowym rzyjmuje się identyczną liczność oulacji odstawowej i otomków Elementy Algorytmu Ewolucyjnego Istnieją zasadnicze różnice omiędzy algorytmem szeregowym uczenia sieci oraz AE. AE rzetwarza zbiór osobników w sosób równoległy. AE w kolejnych iteracjach nie oblicza orawek dla wsółczynników wagowych, tylko stosując selekcję i mutacje oblicza nowe wartości wsółczynników wagowych dla nowo owstałej oulacji otomków. AE są algorytmami stochastycznymi stosującymi dane generowane o różnych rozkładach. W schemacie na rys. 2 można wydzielić najważniejsze komonenty AE: Podstawowe arametry AE takie jak arametry SSN, wielkość oulacji, ty algorytmu mutacji, rawdoodobieństwo mutacji, wartość rozroszenia mutacji, kryterium stou, Poulacja oczątkowa, czyli zadanie zrandomizowanej wartości wag sieci z rzedziału ( 1;1) dla macierzyw1 oraz W2 dla całej oulacji, Obliczanie wartości funkcji celu dla każdego osobnika wg wzoru (3) oraz odstawowych charakterystyk jakości AE, Srawdzenie jakości uczenia w oarciu o kryterium stou, Modyfikacja funkcji celu z minimum na maksimum funkcji celu, Selekcja otomków metodą wielogwieździstej ruletki, W oarciu o rawdoodobieństwo mutacji, modyfikacja wybranych wag dla całej oulacji, Koiowanie nowo wygenerowanej oulacji otomków do zbioru rodziców. Podstawiając jako wektor X nowe wartości danych wejściowych z aczki danych uczących, cały roces owtarza się aż zostanie sełnione kryterium stou.

5 Wielokryterialny dobór arametrów oeratora mutacji w algorytmie Modyfikacja funkcji celu Rys. 2. Ogólna struktura algorytmu ewolucyjnego Algorytmy uczenia SSN oszukują minimum funkcji celu oisanej wzorem (3). Dla otrzeb AE zachodzi konieczność modyfikacji funkcji celu z minimum na maksimum, co sowodowane jest koniecznością obliczenia rawdoodobieństw w rocedurze selekcji. max[ ( x)] min[ ( x)] (4) Niestety, owyższe nie gwarantuje, że w trakcie realizacji AE, zawsze będzie sełniony warunek (x) 0. Najleiej dobrać taką dodatnią wartość C aby dla każdej lokalnej funkcji celu sełniony był warunek: C ( x) 0 (5) Okazuje się, że w raktyce bardzo trudno dobrać odowiednia stała wartość C. Zbyt duża wartość może wrowadzić niestabilność AE, natomiast zbyt mała wartości, może nie sełnić warunku (5). Najleszym rozwiązaniem może być rzyjęciem kroczącej wartości arametru C, czyli najgorszą ( największą) wartość funkcji celu w danej oulacji i danej iteracji: ( x ) ( x) 0 (6) max

6 180 Stanisław Płaczek W tym rzyadku, najmniej doasowana funkcja celu, w każdej iteracji rzyjmuje wartość zero. Ostatecznie, funkcją celu AE zdefiniowana zostaje wzorem (7): max{ max ( x) ( x)} (7) 2.5. Algorytm selekcji Celem rocesu selekcji jest wybór, do nastęnego okolenia (okolenia otomków) najleszych osobników z uli rodzicielskiej. Najleszych, znaczy najleiej doasowanych do funkcji celu. Przed rocesem selekcji stawia się dwa wzajemnie srzeczne cele. Z jednej struny wybiera się najleiej doasowane osobniki, co może skutkować bardzo szybką zbieżnością algorytmu do jednego z minimów lokalnych. Powyższe tłumaczy się ojawieniem dużej ilości suer osobników. Ten roces nazywany jest rzedwczesną zbieżnością lub resja selekcyjną. Z drugiej strony trzeba amiętać, żeby względnie długo rzeszukiwać całą rzestrzeń rozwiązań orzez dywersyfikację oulacji. Różne algorytmy selekcji osiadają swoje wady i zalety. W standardowej metodzie ruletki oczekiwana ilość osobników w oulacji otomków jest roorcjonalna do wielkości rawdoodobieństwa danego osobnika. Oczywiście, w raktycznej realizacji algorytmu selekcji w oszczególnych iteracjach ta zależność nie zawsze jest sełniona. Może się zdarzyć, że nawet osobniki o stosunkowo wysokim rawdoodobieństwie nie wystąią w oulacji otomków. Zostaną rzez roces selekcji ominięci. Tak więc orócz obciążenia selekcyjnego może wystąić również błąd selekcji różnica omiędzy rzeczywista ilością wyselekcjonowanych osobników a wartością oczekiwana. Najoularniejszą jest metoda uniwersalnej stochastycznej ruletki rys. 3. Rys. 3. Schemat uniwersalnej ruletki z jednoczesnym wyborem osobników do uli otomków Ruletka osiada osize strzałek, równomiernie rozłożonych na całym obwodzie koła ruletki. Kąt omiędzy strzałkami wynosi,

7 Wielokryterialny dobór arametrów oeratora mutacji w algorytmie i (8) osize Symulując rogramowo obrót ruletki orzez wylosowanie liczby rzyadkowej U(0,1) określono kat oczątkowy ustawienia ierwszej strzałki, każda nastęna wybierze swój sektor. Niektóre strzałki mogą wybrać dwa lub trzy razy dany sektor (wszystko zależy od rawdoodobieństwa doasowania). Z drugiej strony ozostałe strzałki mają równe szanse na wybór sektorów o małym rawdoodobieństwie. Ruletka w sosób równoległy dokona wyboru osobników do uli otomków zgodnie z oczekiwanymi wartościami. Znika roblem obciążenia selekcji Wybór algorytmu i arametrów mutacji Dla genu w1 ij lub w2 kj danego osobnika z oulacji osize, zdefiniować musimy jego domenę wartości. Standardową domeną liczb rzeczywistych jest cała oś liczbowa. W tej sytuacji wartości z rozkładu unimodalnego mogły by rzyjmować bardzo duże wartości dodatnie jak i ujemne. W raktyce jednak, wartości wag w macierzy ołączeń rzyjmują ograniczone wartości, tym bardziej jeżeli wektor danych wejściowych i wyjściowych jest wystandaryzowany w rzedziale [ 1;1]. Wykorzystując rawdoodobieństwo mutacji m wyselekcjonowano dany gen i zmieniono jego wartość na: w ij rand( a, b) (9) gdzie: a, b odowiednio dolna i górna granica domeny. Oisany algorytm mutacji jest bardzo rosty lecz obarczony wieloma wadami. Przede wszystkim, należy arbitralnie określić szerokość domeny. Również jego wływ na szybkość zbieżności AE jest negatywny. Mutacja o rozkładzie normalnym charakteryzuje się leszymi arametrami. Uwzględniając charakterystykę rozkładu normalnego, ograniczamy rzedział zmienności mutacji w zakresie ( w 3 ; w 3 ) (10) ij gdzie: standardowe rozroszenie, które musi określić rojektant. Zgodnie z arametrami rozkładu normalnego, w rzedziale zdefiniowanym owyżej, zawarte jest 99% wartości zmiennej. Mutację genu dla W1 oraz W2 obliczamy wg wzorów (11) i (12): w1 ( n 1) w1 ( n) N (0,1) (11) ik ik ij ij ij w2 ( n 1) w2 ( n) N (0,1) (12) W owyższych wzorach (11) i (12), dla wszystkich genów w oulacji wykorzystujemy ten sam rozkład normalny N(0,1).

8 182 Stanisław Płaczek W rzykładzie numerycznym wykorzystano owyższy algorytm mutacji o rozkładzie normalnym Parametry jakościowe algorytmu Algorytm Ewolucyjny sterowany jest wieloma arametrami i bardzo trudno uchwycić wływ oszczególnych arametrów na jakość rocesu uczenia, w tym na szybkość zbieżności. Należy również uwzględnić arametry charakteryzujące strukturę dwuwarstwowej sieci neuronowej. Ponieważ AE jest rocesem stochastycznym więc najleszą miara będą średnia oraz rozroszenie. Wartość minimalna i maksymalna funkcji doasowania w danej iteracji min V i osize V j osize { max i j } (13) max V i osize V j osize { max i j } (14) Różnica, czyli rozrzut max min (15) Średnia wartość funkcji doasowania dla całej oulacji. osize 1 aver i (16) osize i 1 Bardzo ważnym arametrem jest rozroszenie funkcji doasowania od wartości średniej. Wartość ta owinna się zmniejszać w miarę ostęu rocesu uczenia. Var 1 osize osize i 1 ( i aver ) 2 (17) W rocesie uczenia wartość arametru mutacji może być stała lub się zmieniać w funkcji nr iteracji. Powyższe jest zgodne z ogólnym sojrzeniem na AE. W ierwszym etaie uczenia, cała rzestrzeń rozważań owinna być rzeszukiwana, w celu wyeliminowania otencjalnych minimów lokalnych. W końcowym etaie należy koncentrować się na najbardziej rawdoodobnej rzestrzeni rozwiązania, czyli zawężać obszar rzeszukiwania. W rzykładzie numerycznym zastosowano: a iter ocze (18) gdzie: ocz zadana oczątkowa wartość rozroszenia arametru mutacji, iter bieżący numer iteracji rocesu uczenia. 3. PRZYKŁAD NUMERYCZNY I PODSUMOWANIE W charakterze rzykładu zastosowania AE do uczenia SSN zbadamy roces filtrowania zakłóconego sygnału szumem o rozkładzie normalnym.

9 Wielokryterialny dobór arametrów oeratora mutacji w algorytmie Rys. 4. Sygnał zniekształcony szumem gaussowskim użyty do testowania sieci W sieci neuronowej zmieniamy tylko jeden arametr ilość neuronów w warstwie ukrytej. Natomiast w AE oceniamy wływ arametrów oeratora mutacji o rozkładzie normalnym na szybkość zbieżności i jakość rocesu uczenia. Rys. 4 rzedstawia kształt sygnału użytego do uczenia sieci. Rys. 5. Kształt błędu uczenia najleszej sieci (osobnika) w funkcji iteracji Przyjmując większe rawdoodobieństwo mutacji, średnia ilość genów w dwóch chromosomach odlegających zmianie jest większa. Cały roces rzeszukiwania rzestrzeni rozwiązań jest bardziej dynamiczny. Niestety, wraz ze wzrostem dynamiki, wzrasta niebezieczeństwo ojawienia się oscylacji i niestabilności całego rocesu uczenia. W literaturze nie odaje się wskazówek teoretycznych związanych z zasadami doboru m. Na rys. 5 okazano zależność błędu uczenia najleszego osobnika w funkcji co dziesiątej iteracji. Na rys. 6 i 7 okazano jak ważny jest odział danych wejściowych na dane uczące i weryfikujące (testowe). Nauczona siec nie zawsze osiada zdolności generalizacji nabytych umiejętności. W trakcie rzebiegu AE, dokonuje się omiarów wielu wielkości zdefiniowanych wzorami (13 17).

10 184 Stanisław Płaczek Rys. 6. Porawny sygnał wyjściowy dla danych weryfikujących jakość uczenia sieci Rys. 7. Błędny sygnał wyjściowy dla danych weryfikujących jakość uczenia sieci Rys. 8. Zmiana rozroszenia doasowania w funkcji nr iteracji

11 Wielokryterialny dobór arametrów oeratora mutacji w algorytmie Rys. 9. Wływ arametrów sieci i AE na rzebieg rocesu uczenia Rysunek 8 rzedstawia zmianę dynamiki uczenia. Na oczątku osobnicy (sieci neuronowe) są rozroszone w całej rzestrzeni rozwiązań. W kolejnych iteracjach nastęuje koncentrowanie się osobników na najbardziej ersektywicznym rozwiązaniu. Przebieg tego rocesu owinien być stabilny i nie za szybko zbieżny do wartości minimalnej. Zbyt szybkie koncentrowanie się osobników wokół jednego rozwiązania, może skutkować znalezieniem lokalnego minimum. Na rys. 9 okazano zależność rocesu uczenia w funkcji niektórych arametrów sieci neuronowej i AE. Prawdoodobieństwo mutacji nie może być zbyt duże ani zbyt małe. Otymalną wartość trudno oszacować. LITERATURA [1] A.E. Eiben, J.E. Smith: Introduction to Evolutionary Comuting, Second Edition, Sringer 2003, [2] Michalewicz Z.: Genetic Algorithm + Data Structure = Evolutionary Programs, Sringer Verlag Berlin Haidelberg [3] Montana DJ, Davis L,: "Training Feedforward Neural Network Using Genetic Algorithms. Proceedings of the 1989 International Join Conference on Artificial Intelligence", Morgan Kaufmann Publishers, San Mateo, CA, [4] David E. Goldberg: Genetic Algorithms in Search, Otimization, and Machine Learning, Addison Veslay Publishing Comany, Inc [5] Xinjie Yu, Mitsuo Gen: Introduction to Evolutionary Algorithm, Sringer London [6] Stefano Nolfi, Dario Floreano: Evolutionary Robotics, The MIT Press, Cambridge, Massachusetts, London.

12 186 Stanisław Płaczek MULTI BENCHMARK CHOICE OF MUTATION PARAMETERS IN EVOLUTIONARY ALGORITHM OF NEURAL NETWORK LEARNING The otimization of the learning algorithm in neural networks is not a trivial task. Considering the non linear characteristics of the activation functions, the entire task is multidimensional and non linear with a multimodal target function. Imlementing evolutionary comuting in the multimodal otimization tasks gives the develoer new and effective tools for seeking the global minimum. A develoer has to find otimal and simle transformation between the realization of a henotye and a genotye. In the article, a two layer neural network is analyzed. Two serially connected chromosomes reresent the genotye. In the first ste the oulation is created. In the main algorithm loo, a arent selection mechanism is used together with the fitness function. To evaluate the quality of evolutionary comuting rocess different measured characteristics are used. The final results are deicted using charts and tables. (Received: , revised: )

DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI

DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 80 Electrical Engineering 2014 Stanisław PŁACZEK* DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI W artykule

Bardziej szczegółowo

Dobór parametrów algorytmu ewolucyjnego

Dobór parametrów algorytmu ewolucyjnego Dobór parametrów algorytmu ewolucyjnego 1 2 Wstęp Algorytm ewolucyjny posiada wiele parametrów. Przykładowo dla algorytmu genetycznego są to: prawdopodobieństwa stosowania operatorów mutacji i krzyżowania.

Bardziej szczegółowo

Rysunek 1 Przykładowy graf stanów procesu z dyskretnymi położeniami.

Rysunek 1 Przykładowy graf stanów procesu z dyskretnymi położeniami. Procesy Markowa Proces stochastyczny { X } t t nazywamy rocesem markowowskim, jeśli dla każdego momentu t 0 rawdoodobieństwo dowolnego ołożenia systemu w rzyszłości (t>t 0 ) zależy tylko od jego ołożenia

Bardziej szczegółowo

ALGORYTMY GENETYCZNE ćwiczenia

ALGORYTMY GENETYCZNE ćwiczenia ćwiczenia Wykorzystaj algorytmy genetyczne do wyznaczenia minimum globalnego funkcji testowej: 1. Wylosuj dwuwymiarową tablicę 100x2 liczb 8-bitowych z zakresu [-100; +100] reprezentujących inicjalną populację

Bardziej szczegółowo

Uczenie sieci typu MLP

Uczenie sieci typu MLP Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik

Bardziej szczegółowo

Strategie ewolucyjne (ang. evolution strategies)

Strategie ewolucyjne (ang. evolution strategies) Strategie ewolucyjne (ang. evolution strategies) 1 2 Szybki przegląd Rozwijane w Niemczech w latach 60-70. Wcześni badacze: I. Rechenberg, H.-P. Schwefel (student Rechenberga). Typowe zastosowanie: Optymalizacja

Bardziej szczegółowo

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia

Bardziej szczegółowo

LABORATORIUM 4: Algorytmy ewolucyjne cz. 2 wpływ operatorów krzyżowania i mutacji na skuteczność poszukiwań AE

LABORATORIUM 4: Algorytmy ewolucyjne cz. 2 wpływ operatorów krzyżowania i mutacji na skuteczność poszukiwań AE Instytut Mechaniki i Inżynierii Obliczeniowej Wydział Mechaniczny Technologiczny, Politechnika Śląska www.imio.polsl.pl METODY HEURYSTYCZNE LABORATORIUM 4: Algorytmy ewolucyjne cz. 2 wpływ operatorów krzyżowania

Bardziej szczegółowo

Algorytm genetyczny (genetic algorithm)-

Algorytm genetyczny (genetic algorithm)- Optymalizacja W praktyce inżynierskiej często zachodzi potrzeba znalezienia parametrów, dla których system/urządzenie będzie działać w sposób optymalny. Klasyczne podejście do optymalizacji: sformułowanie

Bardziej szczegółowo

( n) Łańcuchy Markowa X 0, X 1,...

( n) Łańcuchy Markowa X 0, X 1,... Łańcuchy Markowa Łańcuchy Markowa to rocesy dyskretne w czasie i o dyskretnym zbiorze stanów, "bez amięci". Zwykle będziemy zakładać, że zbiór stanów to odzbiór zbioru liczb całkowitych Z lub zbioru {,,,...}

Bardziej szczegółowo

Optymalizacja optymalizacji

Optymalizacja optymalizacji 7 maja 2008 Wstęp Optymalizacja lokalna Optymalizacja globalna Algorytmy genetyczne Badane czasteczki Wykorzystane oprogramowanie (Algorytm genetyczny) 2 Sieć neuronowa Pochodne met-enkefaliny Optymalizacja

Bardziej szczegółowo

Algorytm Genetyczny. zastosowanie do procesów rozmieszczenia stacji raportujących w sieciach komórkowych

Algorytm Genetyczny. zastosowanie do procesów rozmieszczenia stacji raportujących w sieciach komórkowych Algorytm Genetyczny zastosowanie do procesów rozmieszczenia stacji raportujących w sieciach komórkowych Dlaczego Algorytmy Inspirowane Naturą? Rozwój nowych technologii: złożone problemy obliczeniowe w

Bardziej szczegółowo

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych

Bardziej szczegółowo

LABORATORIUM 3: Wpływ operatorów krzyżowania na skuteczność poszukiwań AE

LABORATORIUM 3: Wpływ operatorów krzyżowania na skuteczność poszukiwań AE Instytut Mechaniki i Inżynierii Obliczeniowej Wydział Mechaniczny Technologiczny, Politechnika Śląska www.imio.polsl.pl OBLICZENIA EWOLUCYJNE LABORATORIUM 3: Wpływ operatorów krzyżowania na skuteczność

Bardziej szczegółowo

Projekt Sieci neuronowe

Projekt Sieci neuronowe Projekt Sieci neuronowe Chmielecka Katarzyna Gr. 9 IiE 1. Problem i dane Sieć neuronowa miała za zadanie nauczyć się klasyfikować wnioski kredytowe. W projekcie wykorzystano dane pochodzące z 110 wniosków

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej

Bardziej szczegółowo

Algorytmy ewolucyjne. Łukasz Przybyłek Studenckie Koło Naukowe BRAINS

Algorytmy ewolucyjne. Łukasz Przybyłek Studenckie Koło Naukowe BRAINS Algorytmy ewolucyjne Łukasz Przybyłek Studenckie Koło Naukowe BRAINS 1 Wprowadzenie Algorytmy ewolucyjne ogólne algorytmy optymalizacji operujące na populacji rozwiązań, inspirowane biologicznymi zjawiskami,

Bardziej szczegółowo

Algorytmy genetyczne. Materiały do laboratorium PSI. Studia niestacjonarne

Algorytmy genetyczne. Materiały do laboratorium PSI. Studia niestacjonarne Algorytmy genetyczne Materiały do laboratorium PSI Studia niestacjonarne Podstawowy algorytm genetyczny (PAG) Schemat blokowy algorytmu genetycznego Znaczenia, pochodzących z biologii i genetyki, pojęć

Bardziej szczegółowo

Testowanie modeli predykcyjnych

Testowanie modeli predykcyjnych Testowanie modeli predykcyjnych Wstęp Podczas budowy modelu, którego celem jest przewidywanie pewnych wartości na podstawie zbioru danych uczących poważnym problemem jest ocena jakości uczenia i zdolności

Bardziej szczegółowo

Algorytmy genetyczne

Algorytmy genetyczne 9 listopada 2010 y ewolucyjne - zbiór metod optymalizacji inspirowanych analogiami biologicznymi (ewolucja naturalna). Pojęcia odwzorowujące naturalne zjawiska: Osobnik Populacja Genotyp Fenotyp Gen Chromosom

Bardziej szczegółowo

Obliczenia ewolucyjne - plan wykładu

Obliczenia ewolucyjne - plan wykładu Obliczenia ewolucyjne - plan wykładu Wprowadzenie Algorytmy genetyczne Programowanie genetyczne Programowanie ewolucyjne Strategie ewolucyjne Inne modele obliczeń ewolucyjnych Podsumowanie Ewolucja Ewolucja

Bardziej szczegółowo

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING Maszyna Wektorów Nośnych Suort Vector Machine SVM Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki

Bardziej szczegółowo

Algorytmy genetyczne. Materiały do laboratorium PSI. Studia stacjonarne i niestacjonarne

Algorytmy genetyczne. Materiały do laboratorium PSI. Studia stacjonarne i niestacjonarne Algorytmy genetyczne Materiały do laboratorium PSI Studia stacjonarne i niestacjonarne Podstawowy algorytm genetyczny (PAG) Schemat blokowy algorytmu genetycznego Znaczenia, pochodzących z biologii i genetyki,

Bardziej szczegółowo

Algorytmy ewolucyjne 1

Algorytmy ewolucyjne 1 Algorytmy ewolucyjne 1 2 Zasady zaliczenia przedmiotu Prowadzący (wykład i pracownie specjalistyczną): Wojciech Kwedlo, pokój 205. Konsultacje dla studentów studiów dziennych: poniedziałek,środa, godz

Bardziej szczegółowo

POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 72 Electrical Engineering 2012

POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 72 Electrical Engineering 2012 POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 72 Electrical Engineering 2012 Wiktor HUDY* Kazimierz JARACZ* ANALIZA WYNIKÓW SYMULACJI EWOLUCYJNEJ OPTYMALIZACJI PARAMETRYCZNEJ UKŁADU STEROWANIA

Bardziej szczegółowo

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice) WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO Stanisław Kowalik (Poland, Gliwice) 1. Wprowadzenie Wstrząsy podziemne i tąpania występujące w kopalniach

Bardziej szczegółowo

Katedra Informatyki Stosowanej. Algorytmy ewolucyjne. Inteligencja obliczeniowa

Katedra Informatyki Stosowanej. Algorytmy ewolucyjne. Inteligencja obliczeniowa Wydział Zarządzania AGH Katedra Informatyki Stosowanej Algorytmy ewolucyjne Treść wykładu Wprowadzenie Zasada działania Podział EA Cechy EA Algorytm genetyczny 2 EA - wprowadzenie Algorytmy ewolucyjne

Bardziej szczegółowo

Laboratorium Metod i Algorytmów Sterowania Cyfrowego

Laboratorium Metod i Algorytmów Sterowania Cyfrowego Laboratorium Metod i Algorytmów Sterowania Cyfrowego Ćwiczenie 3 Dobór nastaw cyfrowych regulatorów rzemysłowych PID I. Cel ćwiczenia 1. Poznanie zasad doboru nastaw cyfrowych regulatorów rzemysłowych..

Bardziej szczegółowo

PLAN WYKŁADU OPTYMALIZACJA GLOBALNA OPERATOR KRZYŻOWANIA ETAPY KRZYŻOWANIA

PLAN WYKŁADU OPTYMALIZACJA GLOBALNA OPERATOR KRZYŻOWANIA ETAPY KRZYŻOWANIA PLAN WYKŁADU Operator krzyżowania Operator mutacji Operator inwersji Sukcesja Przykłady symulacji AG Kodowanie - rodzaje OPTYMALIZACJA GLOBALNA Wykład 3 dr inż. Agnieszka Bołtuć OPERATOR KRZYŻOWANIA Wymiana

Bardziej szczegółowo

Algorytm hybrydowy dla alokacji portfela inwestycyjnego przy ograniczonych zasobach

Algorytm hybrydowy dla alokacji portfela inwestycyjnego przy ograniczonych zasobach Adam Stawowy Algorytm hybrydowy dla alokacji portfela inwestycyjnego przy ograniczonych zasobach Summary: We present a meta-heuristic to combine Monte Carlo simulation with genetic algorithm for Capital

Bardziej szczegółowo

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311 Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311 Wykład 7 PLAN: - Repetitio (brevis) -Algorytmy miękkiej selekcji: algorytmy ewolucyjne symulowane wyżarzanie

Bardziej szczegółowo

8. Neuron z ciągłą funkcją aktywacji.

8. Neuron z ciągłą funkcją aktywacji. 8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i

Bardziej szczegółowo

MODELOWANIE NEURONALNE ROZWOJU SYSTEMU ELEKTROENERGETYCZNEGO. CZĘŚĆ 2. MODELE SYSTEMU IEEE RTS

MODELOWANIE NEURONALNE ROZWOJU SYSTEMU ELEKTROENERGETYCZNEGO. CZĘŚĆ 2. MODELE SYSTEMU IEEE RTS POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 82 Electrical Engineering 2015 Jerzy TCHÓRZEWSKI* Maciej PYTEL ** MODELOWANIE NEURONALNE ROZWOJU SYSTEMU ELEKTROENERGETYCZNEGO. CZĘŚĆ 2. MODELE SYSTEMU

Bardziej szczegółowo

UCZENIE WIELOWARSTWOWYCH SZEROKICH SIECI NEURONOWYCH Z FUNKCJAMI AKTYWACJI TYPU RELU W ZADANIACH KLASYFIKACJI

UCZENIE WIELOWARSTWOWYCH SZEROKICH SIECI NEURONOWYCH Z FUNKCJAMI AKTYWACJI TYPU RELU W ZADANIACH KLASYFIKACJI POZNAN UNIVERSITY OF TECHNOOGY ACADEMIC JOURNAS No 96 Electrical Engineering 2018 DOI 10.21008/j.1897-0737.2018.96.0004 Stanisław PŁACZEK *, Aleksander PŁACZEK ** UCZENIE WIEOWARSTWOWYCH SZEROKICH SIECI

Bardziej szczegółowo

Algorytmy sztucznej inteligencji

Algorytmy sztucznej inteligencji Algorytmy sztucznej inteligencji Dynamiczne sieci neuronowe 1 Zapis macierzowy sieci neuronowych Poniżej omówione zostaną części składowe sieci neuronowych i metoda ich zapisu za pomocą macierzy. Obliczenia

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt

Bardziej szczegółowo

Algorytmy ewolucyjne NAZEWNICTWO

Algorytmy ewolucyjne NAZEWNICTWO Algorytmy ewolucyjne http://zajecia.jakubw.pl/nai NAZEWNICTWO Algorytmy ewolucyjne nazwa ogólna, obejmująca metody szczegółowe, jak np.: algorytmy genetyczne programowanie genetyczne strategie ewolucyjne

Bardziej szczegółowo

WAE Jarosław Arabas Pełny schemat algorytmu ewolucyjnego

WAE Jarosław Arabas Pełny schemat algorytmu ewolucyjnego WAE Jarosław Arabas Pełny schemat algorytmu ewolucyjnego Algorytm ewolucyjny algorytm ewolucyjny inicjuj P 0 {P 0 1, P 0 2... P 0 μ } t 0 H P 0 while! stop for (i 1: λ) if (a< p c ) O t i mutation(crossover

Bardziej szczegółowo

Strategie ewolucyjne. Gnypowicz Damian Staniszczak Łukasz Woźniak Marek

Strategie ewolucyjne. Gnypowicz Damian Staniszczak Łukasz Woźniak Marek Strategie ewolucyjne Gnypowicz Damian Staniszczak Łukasz Woźniak Marek Strategie ewolucyjne, a algorytmy genetyczne Podobieństwa: Oba działają na populacjach rozwiązań Korzystają z zasad selecji i przetwarzania

Bardziej szczegółowo

Uczenie sieci radialnych (RBF)

Uczenie sieci radialnych (RBF) Uczenie sieci radialnych (RBF) Budowa sieci radialnej Lokalne odwzorowanie przestrzeni wokół neuronu MLP RBF Budowa sieci radialnych Zawsze jedna warstwa ukryta Budowa neuronu Neuron radialny powinien

Bardziej szczegółowo

Wstęp do Sztucznej Inteligencji

Wstęp do Sztucznej Inteligencji Wstęp do Sztucznej Inteligencji Algorytmy Genetyczne Joanna Kołodziej Politechnika Krakowska Wydział Fizyki, Matematyki i Informatyki Metody heurystyczne Algorytm efektywny: koszt zastosowania (mierzony

Bardziej szczegółowo

Standardowy algorytm genetyczny

Standardowy algorytm genetyczny Standardowy algorytm genetyczny 1 Szybki przegląd 2 Opracowany w USA w latach 70. Wcześni badacze: John H. Holland. Autor monografii Adaptation in Natural and Artificial Systems, wydanej w 1975 r., (teoria

Bardziej szczegółowo

SCHEMAT ROZWIĄZANIA ZADANIA OPTYMALIZACJI PRZY POMOCY ALGORYTMU GENETYCZNEGO

SCHEMAT ROZWIĄZANIA ZADANIA OPTYMALIZACJI PRZY POMOCY ALGORYTMU GENETYCZNEGO SCHEMAT ROZWIĄZANIA ZADANIA OPTYMALIZACJI PRZY POMOCY ALGORYTMU GENETYCZNEGO. Rzeczywistość (istniejąca lub projektowana).. Model fizyczny. 3. Model matematyczny (optymalizacyjny): a. Zmienne projektowania

Bardziej szczegółowo

Algorytmy genetyczne. Paweł Cieśla. 8 stycznia 2009

Algorytmy genetyczne. Paweł Cieśla. 8 stycznia 2009 Algorytmy genetyczne Paweł Cieśla 8 stycznia 2009 Genetyka - nauka o dziedziczeniu cech pomiędzy pokoleniami. Geny są czynnikami, które decydują o wyglądzie, zachowaniu, rozmnażaniu każdego żywego organizmu.

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-10 Projekt pn. Wzmocnienie

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline. Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 211-1-18 1 Pomysł Przykłady Zastosowanie 2

Bardziej szczegółowo

Deep Learning na przykładzie Deep Belief Networks

Deep Learning na przykładzie Deep Belief Networks Deep Learning na przykładzie Deep Belief Networks Jan Karwowski Zakład Sztucznej Inteligencji i Metod Obliczeniowych Wydział Matematyki i Nauk Informacyjnych PW 20 V 2014 Jan Karwowski (MiNI) Deep Learning

Bardziej szczegółowo

Porównanie nacisków obudowy Glinik 14/35-POz na spąg obliczonych metodą analityczną i metodą Jacksona

Porównanie nacisków obudowy Glinik 14/35-POz na spąg obliczonych metodą analityczną i metodą Jacksona dr inż. JAN TAK Akademia Górniczo-Hutnicza im. St. Staszica w Krakowie inż. RYSZARD ŚLUSARZ Zakład Maszyn Górniczych GLINIK w Gorlicach orównanie nacisków obudowy Glinik 14/35-Oz na sąg obliczonych metodą

Bardziej szczegółowo

Metody Rozmyte i Algorytmy Ewolucyjne

Metody Rozmyte i Algorytmy Ewolucyjne mgr inż. Wydział Matematyczno-Przyrodniczy Szkoła Nauk Ścisłych Uniwersytet Kardynała Stefana Wyszyńskiego Podstawowe operatory genetyczne Plan wykładu Przypomnienie 1 Przypomnienie Metody generacji liczb

Bardziej szczegółowo

Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych

Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych inż. Marek Duczkowski Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych słowa kluczowe: algorytm gradientowy, optymalizacja, określanie wodnicy W artykule

Bardziej szczegółowo

Algorytmy stochastyczne, wykład 01 Podstawowy algorytm genetyczny

Algorytmy stochastyczne, wykład 01 Podstawowy algorytm genetyczny Algorytmy stochastyczne, wykład 01 J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2014-02-21 In memoriam prof. dr hab. Tomasz Schreiber (1975-2010) 1 2 3 Różne Orientacyjny

Bardziej szczegółowo

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa

Bardziej szczegółowo

Algorytmy ewolucyjne - algorytmy genetyczne. I. Karcz-Dulęba

Algorytmy ewolucyjne - algorytmy genetyczne. I. Karcz-Dulęba Algorytmy ewolucyjne - algorytmy genetyczne I. Karcz-Dulęba Algorytmy klasyczne a algorytmy ewolucyjne Przeszukiwanie przestrzeni przez jeden punkt bazowy Przeszukiwanie przestrzeni przez zbiór punktów

Bardziej szczegółowo

Rozdział 21, który przedstawia zastosowanie obliczeń wysokiej wydajności w numerycznej algebrze liniowej

Rozdział 21, który przedstawia zastosowanie obliczeń wysokiej wydajności w numerycznej algebrze liniowej Rozdział 21, który rzedstawia zastosowanie obliczeń wysokiej wydajności w numerycznej algebrze liniowej 1.0.1 Oeracje macierzowe Istotnym elementem wszelkich równoległych algorytmów macierzowych jest określenie

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt

Bardziej szczegółowo

Wykład organizacyjny

Wykład organizacyjny Automatyka - zastosowania, metody i narzędzia, perspektywy na studiach I stopnia specjalności: Automatyka i systemy sterowania Wykład organizacyjny dr inż. Michał Grochowski kiss.pg.mg@gmail.com michal.grochowski@pg.gda.pl

Bardziej szczegółowo

Dynamiczne struktury danych: listy

Dynamiczne struktury danych: listy Dynamiczne struktury danych: listy Mirosław Mortka Zaczynając rogramować w dowolnym języku rogramowania jesteśmy zmuszeni do oanowania zasad osługiwania się odstawowymi tyami danych. Na rzykład w języku

Bardziej szczegółowo

Elementy inteligencji obliczeniowej

Elementy inteligencji obliczeniowej Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego

Bardziej szczegółowo

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:

Bardziej szczegółowo

Algorytmy genetyczne

Algorytmy genetyczne Politechnika Łódzka Katedra Informatyki Stosowanej Algorytmy genetyczne Wykład 2 Przygotował i prowadzi: Dr inż. Piotr Urbanek Powtórzenie Pytania: Jaki mechanizm jest stosowany w naturze do takiego modyfikowania

Bardziej szczegółowo

Podejście memetyczne do problemu DCVRP - wstępne wyniki. Adam Żychowski

Podejście memetyczne do problemu DCVRP - wstępne wyniki. Adam Żychowski Podejście memetyczne do problemu DCVRP - wstępne wyniki Adam Żychowski Na podstawie prac X. S. Chen, L. Feng, Y. S. Ong A Self-Adaptive Memeplexes Robust Search Scheme for solving Stochastic Demands Vehicle

Bardziej szczegółowo

OPTYMALIZACJA STRUKTUR ELEKTROENERGETYCZNYCH SIECI PROMIENIOWYCH

OPTYMALIZACJA STRUKTUR ELEKTROENERGETYCZNYCH SIECI PROMIENIOWYCH POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 78 Electrical Engineering 2014 Janusz BROŻEK* Wojciech BĄCHOREK* OPTYMALIZACJA STRUKTUR ELEKTROENERGETYCZNYCH SIECI PROMIENIOWYCH Optymalizacja promieniowych

Bardziej szczegółowo

Algorytmy genetyczne w optymalizacji

Algorytmy genetyczne w optymalizacji Algorytmy genetyczne w optymalizacji Literatura 1. David E. Goldberg, Algorytmy genetyczne i ich zastosowania, WNT, Warszawa 1998; 2. Zbigniew Michalewicz, Algorytmy genetyczne + struktury danych = programy

Bardziej szczegółowo

Teoria informacji i kodowania Ćwiczenia Sem. zimowy 2016/2017

Teoria informacji i kodowania Ćwiczenia Sem. zimowy 2016/2017 Teoria informacji i kodowania Ćwiczenia Sem. zimowy 06/07 Źródła z amięcią Zadanie (kolokwium z lat orzednich) Obserwujemy źródło emitujące dwie wiadomości: $ oraz. Stwierdzono, że częstotliwości wystęowania

Bardziej szczegółowo

Podstawy Sztucznej Inteligencji (PSZT)

Podstawy Sztucznej Inteligencji (PSZT) Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12

Bardziej szczegółowo

Sympozjum Trwałość Budowli

Sympozjum Trwałość Budowli Sympozjum Trwałość Budowli Andrzej ownuk ROJEKTOWANIE UKŁADÓW Z NIEEWNYMI ARAMETRAMI Zakład Mechaniki Teoretycznej olitechnika Śląska pownuk@zeus.polsl.gliwice.pl URL: http://zeus.polsl.gliwice.pl/~pownuk

Bardziej szczegółowo

ĆWICZENIE 5: Sztuczne sieci neuronowe

ĆWICZENIE 5: Sztuczne sieci neuronowe Instytut Mechaniki i Inżynierii Obliczeniowej Wydział Mechaniczny Technologiczny, Politechnika Śląska www.imio.polsl.pl METODY HEURYSTYCZNE ĆWICZENIE 5: Sztuczne sieci neuronowe opracował: dr inż. Witold

Bardziej szczegółowo

ANALIZA WŁAŚCIWOŚCI FILTRU PARAMETRYCZNEGO I RZĘDU

ANALIZA WŁAŚCIWOŚCI FILTRU PARAMETRYCZNEGO I RZĘDU POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 78 Electrical Engineering 2014 Seweryn MAZURKIEWICZ* Janusz WALCZAK* ANALIZA WŁAŚCIWOŚCI FILTRU PARAMETRYCZNEGO I RZĘDU W artykule rozpatrzono problem

Bardziej szczegółowo

Przykład optymalizacji struktury sztucznej sieci neuronowej metodą algorytmów genetycznych

Przykład optymalizacji struktury sztucznej sieci neuronowej metodą algorytmów genetycznych BIULETYN INSTYTUTU AUTOMATYKI I ROBOTYKI NR 23, 26 Przykład optymalizacji struktury sztucznej sieci neuronowej metodą algorytmów genetycznych Leszek Grad Zakład Automatyki, Instytut Teleinfo rmatyki i

Bardziej szczegółowo

Teoria algorytmów ewolucyjnych

Teoria algorytmów ewolucyjnych Teoria algorytmów ewolucyjnych 1 2 Dlaczego teoria Wynik analiza teoretycznej może pokazać jakie warunki należy spełnić, aby osiągnąć zbieżność do minimum globalnego. Np. sukcesja elitarystyczna. Może

Bardziej szczegółowo

Algorytmy stochastyczne, wykład 02 Algorytmy genetyczne

Algorytmy stochastyczne, wykład 02 Algorytmy genetyczne Algorytmy stochastyczne, wykład 02 Algorytmy genetyczne J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2014-02-27 1 Mutacje algorytmu genetycznego 2 Dziedzina niewypukła abstrakcyjna

Bardziej szczegółowo

ADAPTACYJNE PODEJŚCIE DO TWORZENIA STRATEGII INWESTYCYJNYCH NA RYNKACH KAPITAŁOWYCH WRAZ Z ZASTOSOWANIEM WAŻONEGO UŚREDNIANIA

ADAPTACYJNE PODEJŚCIE DO TWORZENIA STRATEGII INWESTYCYJNYCH NA RYNKACH KAPITAŁOWYCH WRAZ Z ZASTOSOWANIEM WAŻONEGO UŚREDNIANIA STUDIA INFORMATICA 2012 Volume 33 Number 2A (105) Alina MOMOT Politechnika Śląska, Instytut Informatyki Michał MOMOT Instytut Techniki i Aaratury Medycznej ITAM ADAPTACYJNE PODEJŚCIE DO TWORZENIA STRATEGII

Bardziej szczegółowo

Zjawisko Comptona opis pół relatywistyczny

Zjawisko Comptona opis pół relatywistyczny FOTON 33, Lato 06 7 Zjawisko Comtona ois ół relatywistyczny Jerzy Ginter Wydział Fizyki UW Zderzenie fotonu ze soczywającym elektronem Przy omawianiu dualizmu koruskularno-falowego jako jeden z ięknych

Bardziej szczegółowo

ALGORYTMY EWOLUCYJNE W OPTYMALIZACJI JEDNOKRYTERIALNEJ

ALGORYTMY EWOLUCYJNE W OPTYMALIZACJI JEDNOKRYTERIALNEJ ALGORYTMY EWOLUCYJNE W OPTYMALIZACJI JEDNOKRYTERIALNEJ Zalety: nie wprowadzają żadnych ograniczeń na sformułowanie problemu optymalizacyjnego. Funkcja celu może być wielowartościowa i nieciągła, obszar

Bardziej szczegółowo

Wskaźniki i struktury. Programowanie C, LA Anna Gogolińska

Wskaźniki i struktury. Programowanie C, LA Anna Gogolińska Wskaźniki i struktury Programowanie C, LA Anna Gogolińska Wskaźniki i struktury Jednym z ól struktury może być wskaźnik na zmienną tyu tej struktury. Deklaracja jest z użyciem formy: ty *. Poza tym olem,

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych klasyfikacja LABORKA Piotr Ciskowski zadanie 1. klasyfikacja zwierząt sieć jednowarstwowa żródło: Tadeusiewicz. Odkrywanie własności sieci neuronowych, str. 159 Przykład

Bardziej szczegółowo

5. Rozwiązywanie układów równań liniowych

5. Rozwiązywanie układów równań liniowych 5. Rozwiązywanie układów równań liniowych Wprowadzenie (5.1) Układ n równań z n niewiadomymi: a 11 +a 12 x 2 +...+a 1n x n =a 10, a 21 +a 22 x 2 +...+a 2n x n =a 20,..., a n1 +a n2 x 2 +...+a nn x n =a

Bardziej szczegółowo

6. Klasyczny algorytm genetyczny. 1

6. Klasyczny algorytm genetyczny. 1 6. Klasyczny algorytm genetyczny. 1 Idea algorytmu genetycznego została zaczerpnięta z nauk przyrodniczych opisujących zjawiska doboru naturalnego i dziedziczenia. Mechanizmy te polegają na przetrwaniu

Bardziej szczegółowo

Algorytm memetyczny w grach wielokryterialnych z odroczoną preferencją celów. Adam Żychowski

Algorytm memetyczny w grach wielokryterialnych z odroczoną preferencją celów. Adam Żychowski Algorytm memetyczny w grach wielokryterialnych z odroczoną preferencją celów Adam Żychowski Definicja problemu dwóch graczy: P 1 (minimalizator) oraz P 2 (maksymalizator) S 1, S 2 zbiory strategii graczy

Bardziej szczegółowo

SYMULACJA ZAKŁÓCEŃ W UKŁADACH AUTOMATYKI UTWORZONYCH ZA POMOCĄ OBWODÓW ELEKTRYCZNYCH W PROGRAMACH MATHCAD I PSPICE

SYMULACJA ZAKŁÓCEŃ W UKŁADACH AUTOMATYKI UTWORZONYCH ZA POMOCĄ OBWODÓW ELEKTRYCZNYCH W PROGRAMACH MATHCAD I PSPICE POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 76 Electrical Engineering 2013 Piotr FRĄCZAK* SYMULACJA ZAKŁÓCEŃ W UKŁADACH AUTOMATYKI UTWORZONYCH ZA POMOCĄ OBWODÓW ELEKTRYCZNYCH W PROGRAMACH MATHCAD

Bardziej szczegółowo

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW 17 XII 2013 Jan Karwowski

Bardziej szczegółowo

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH** Górnictwo i Geoinżynieria Rok 31 Zeszyt 3 2007 Dorota Pawluś* PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH** 1. Wstęp Eksploatacja górnicza złóż ma niekorzystny wpływ na powierzchnię

Bardziej szczegółowo

Algorytmy genetyczne (AG)

Algorytmy genetyczne (AG) Algorytmy genetyczne (AG) 1. Wprowadzenie do AG a) ewolucja darwinowska b) podstawowe definicje c) operatory genetyczne d) konstruowanie AG e) standardowy AG f) przykład rozwiązania g) naprawdę bardzo,

Bardziej szczegółowo

Metody iteracyjne rozwiązywania układów równań liniowych (5.3) Normy wektorów i macierzy (5.3.1) Niech. x i. i =1

Metody iteracyjne rozwiązywania układów równań liniowych (5.3) Normy wektorów i macierzy (5.3.1) Niech. x i. i =1 Normy wektorów i macierzy (5.3.1) Niech 1 X =[x x Y y =[y1 x n], oznaczają wektory przestrzeni R n, a yn] niech oznacza liczbę rzeczywistą. Wyrażenie x i p 5.3.1.a X p = p n i =1 nosi nazwę p-tej normy

Bardziej szczegółowo

Algorytmy ewolucyjne `

Algorytmy ewolucyjne ` Algorytmy ewolucyjne ` Wstęp Czym są algorytmy ewolucyjne? Rodzaje algorytmów ewolucyjnych Algorytmy genetyczne Strategie ewolucyjne Programowanie genetyczne Zarys historyczny Alan Turing, 1950 Nils Aall

Bardziej szczegółowo

MATLAB Neural Network Toolbox przegląd

MATLAB Neural Network Toolbox przegląd MATLAB Neural Network Toolbox przegląd WYKŁAD Piotr Ciskowski Neural Network Toolbox: Neural Network Toolbox - zastosowania: przykłady zastosowań sieci neuronowych: The 1988 DARPA Neural Network Study

Bardziej szczegółowo

Matematyka II. Bezpieczeństwo jądrowe i ochrona radiologiczna Semestr letni 2018/2019 wykład 13 (27 maja)

Matematyka II. Bezpieczeństwo jądrowe i ochrona radiologiczna Semestr letni 2018/2019 wykład 13 (27 maja) Matematyka II Bezpieczeństwo jądrowe i ochrona radiologiczna Semestr letni 208/209 wykład 3 (27 maja) Całki niewłaściwe przedział nieograniczony Rozpatrujemy funkcje ciągłe określone na zbiorach < a, ),

Bardziej szczegółowo

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Temat: Sztuczne Sieci Neuronowe Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Sztuczne sieci neuronowe

Bardziej szczegółowo

Obrona rozprawy doktorskiej Neuro-genetyczny system komputerowy do prognozowania zmiany indeksu giełdowego

Obrona rozprawy doktorskiej Neuro-genetyczny system komputerowy do prognozowania zmiany indeksu giełdowego IBS PAN, Warszawa 9 kwietnia 2008 Obrona rozprawy doktorskiej Neuro-genetyczny system komputerowy do prognozowania zmiany indeksu giełdowego mgr inż. Marcin Jaruszewicz promotor: dr hab. inż. Jacek Mańdziuk,

Bardziej szczegółowo

FOLIA POMERANAE UNIVERSITATIS TECHNOLOGIAE STETINENSIS Folia Pomer. Univ. Technol. Stetin. 2011, Oeconomica 285 (62), 45 50

FOLIA POMERANAE UNIVERSITATIS TECHNOLOGIAE STETINENSIS Folia Pomer. Univ. Technol. Stetin. 2011, Oeconomica 285 (62), 45 50 FOLIA POMERANAE UNIVERSITATIS TECHNOLOGIAE STETINENSIS Folia Pomer. Univ. Technol. Stetin. 2011, Oeconomica 285 (62), 45 50 Anna Landowska KLASYCZNY ALGORYTM GENETYCZNY W DYNAMICZNEJ OPTYMALIZACJI MODELU

Bardziej szczegółowo

Metody Sztucznej Inteligencji II

Metody Sztucznej Inteligencji II 17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 17. ALGORYTMY EWOLUCYJNE Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska KODOWANIE BINARNE Problem różnych struktur przestrzeni

Bardziej szczegółowo

LABORATORIUM 2: Wpływ wielkości populacji i liczby pokoleń na skuteczność poszukiwań AE. opracował: dr inż. Witold Beluch

LABORATORIUM 2: Wpływ wielkości populacji i liczby pokoleń na skuteczność poszukiwań AE. opracował: dr inż. Witold Beluch OBLICZENIA EWOLUCYJNE LABORATORIUM 2: Wpływ wielkości populacji i liczby pokoleń na skuteczność poszukiwań AE opracował: dr inż. Witold Beluch witold.beluch@polsl.pl Gliwice 12 OBLICZENIA EWOLUCYJNE LABORATORIUM

Bardziej szczegółowo

Sieci neuronowe w Statistica

Sieci neuronowe w Statistica http://usnet.us.edu.pl/uslugi-sieciowe/oprogramowanie-w-usk-usnet/oprogramowaniestatystyczne/ Sieci neuronowe w Statistica Agnieszka Nowak - Brzezińska Podstawowym elementem składowym sztucznej sieci neuronowej

Bardziej szczegółowo

Algorytmy ewolucyjne

Algorytmy ewolucyjne Algorytmy ewolucyjne wprowadzenie Piotr Lipiński lipinski@ii.uni.wroc.pl Piotr Lipiński Algorytmy ewolucyjne p.1/16 Cel wykładu zapoznanie studentów z algorytmami ewolucyjnymi, przede wszystkim nowoczesnymi

Bardziej szczegółowo

Równoważność algorytmów optymalizacji

Równoważność algorytmów optymalizacji Równoważność algorytmów optymalizacji Reguła nie ma nic za darmo (ang. no free lunch theory): efektywność różnych typowych algorytmów szukania uśredniona po wszystkich możliwych problemach optymalizacyjnych

Bardziej szczegółowo

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM ZASTOSOWANIE SIECI NEURONOWYCH W SYSTEMACH AKTYWNEJ REDUKCJI HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM WPROWADZENIE Zwalczanie hałasu przy pomocy metod aktywnych redukcji hałasu polega

Bardziej szczegółowo

WYBÓR FORMY OPODATKOWANIA PRZEDSIĘBIORSTW NIEPOSIADAJĄCYCH OSOBOWOŚCI PRAWNEJ

WYBÓR FORMY OPODATKOWANIA PRZEDSIĘBIORSTW NIEPOSIADAJĄCYCH OSOBOWOŚCI PRAWNEJ ZESZYTY NAUKOWE UNIWERSYTETU SZCZECIŃSKIEGO NR 667 FINANSE, RYNKI FINANSOWE, UBEZPIECZENIA NR 40 2011 ADAM ADAMCZYK Uniwersytet Szczeciński WYBÓR FORMY OPODATKOWANIA PRZEDSIĘBIORSTW NIEPOSIADAJĄCYCH OSOBOWOŚCI

Bardziej szczegółowo