Zadanie 2.: Perceptron wielowarstwowy

Wielkość: px
Rozpocząć pokaz od strony:

Download "Zadanie 2.: Perceptron wielowarstwowy"

Transkrypt

1 Informatyka, studia dzienne, inż. I st. semestr VI Inteligentna Analiza Danych 21/211 Prowadzący: dr inż. Arkadiusz Tomczyk wtotek, 8:3 Data oddania: Ocena: Marek Rogalski Paweł Tarasiuk Zadanie 2.: Perceptron wielowarstwowy 1. Cel Zadanie polegało na przygotowaniu własnej implementacji perceptronu wielowarstwowego przy wykorzystaniu metody wstecznej propagacji jako metody nauki. Istotną własnością przygotowanego projektu jest jego elastyczność - wszystkie konfigurowalne własności sieci neuronowej, czyli liczba oraz liczność warstw, współczynnik nauki, momenetum oraz obecność neuronów obciążających są przekazywane w postaci argumentów, dzięki czemu po jednorazowym skompilowaniu projektu można badać zachowanie różnych konfiguracji. Sieć neuronowa może być trenowana zapisanymi w pliku tekstowym wzorcami, a wyniki treningu (ukształtowane wagi) mogą być zapisywane do postaci tekstowej, aby później nauka mogła zostać wznowiona od zapamiętanej postaci. Po ukończonym treningu lub po wczytaniu wag z pliku, można także zbadać zachowanie sieci dla wczytanych z pliku testów (bez nauki). Wszystkie tryby pracy umożliwiają tworzenie logów umożliwiających analizę działania perceptronu, a nawet (po prostym przetworzeniu) sporządzenie wykresów. 2. Wprowadzenie Implementowana sieć neuronowa posiada jedną warstwę neuronów kopiujących, dowolną (w sensie możliwości sprzętu symulującego sieć neuronową; może to być także liczba ) liczbę warstw ukrytych, oraz warstwę wyjściową. SVN: 1

2 Neurony warstw ukrytych oraz warstwy wyjściowej są neuronami nieliniowymi - w naszym przypadku zawsze oznacza to zastosowanie logistycznej funkcji aktywacji. Oznacza to, że dla neuronu mającego n wejść: s = n w k i k k=1 o = logsig(s) Gdzie s - suma ważona wejść, i k - wartość k-tego wejścia, w k - waga k-tego wejścia, x R logsig(x) = 1 - logistyczna funkcja aktywacji, o - wyjście 1+e x neuronu. Istotną zaletą logistycznej funkcji aktywacji jest łatwość obliczania jej pochodnej, jeżeli w pamięci przechowuje się jedynie jej wartość (nawet nie dysponując argumentem dla którego została ona obliczona) - okazuje się, że: logsig (x) = logsig(x) (1 logsig(x)) Powyższe wzory wyjaśniają sposób generowania wyjść poszczególnych warstw, czyli proces pozwalający obliczyć wyjścia wszystkich warstw oraz samo wyjście sieci na podstawie zadanego wejścia. Ciekawszym procesem jest przebieg metody propagacji wstecznej. Na początku dla każdego neuronu obliczany jest błąd, począwszy od warstwy wyjściowej. Dla neuronów warstwy wyjściowej błąd definiuje się jako różnicę między wyjściem otrzymanym, a wyjściem oczekiwanym dla danego wejścia pomnożoną przez wartość pochodnej funkcji aktywacji dla wyjścia otrzymanego. Dla neuronów warstw ukrytych można obliczać błędy, gdy dysponuje się obliczonymi błędami dla całej warstwy następującej po nim (bliższej warstwie wyjściowej). Niech warstwa następna (dla której obliczyliśmy wszystkie błędy) ma m neuronów, v j oznacza wagę jaką ma wyjście bieżącego neuronu w j-tym neuronie warstwy następnej, t j - błąd obliczony dla j-tego neurony warstwy następnej, zaś o - wyjście bieżącego neuronu. Wówczas błąd dla bieżącego neuronu wynosi: ( m ) err = logsig (o) v j t j Gdy mamy już obliczone wartości błędów dla wszystkich neuronów nieliniowych w sieci, dla każdego neuronu możemy dokonać dostosowania wag. Dla neuronu mającego n wejść, wagi zmienią się w następujący sposób (dla k = 1... n): j= w k η err i k w k w k + w k Gdzie i k - wyjście k -tego neuronu warstwy poprzedniej, err - błąd wyznaczony dla bieżącego neuronu, η - współczynnik nauki. Jeżeli chcemy wykorzystać człon momentum, algorytm zmieni się nieznacznie - wówczas potrzebne nam będzie zapamiętywanie wartości w k na potrzeby kolejnych iteracji (przy inicjalizacji sieci zostaną one ustawione jako ). Zmiana wag z wykorzystaniem członu momentum przebiega w następujący sposób: 2

3 w k w k + η err i k + µ w k w k η err i k Gdzie µ - współczynnik momentum. Nauka sieci odbywa się poprzez wielokrotnego obliczenia wyjść dla wejścia ze zbioru uczącego, a następnie porównania wyjścia z wyjściem oczekiwanym, propagacji błędu i aktualizacji wag. Sieć uczona jest w oparciu o wszystkie testy z zestawu, jednak kolejność może być losowana. Zastosowanym przez nas rozwiązaniem jest opcjonalne losowanie permutacji testów ze zbioru uczącego, tak aby każdy z nich był używany jednakowo często. Użycie do nauki całej permutacji elementów zbioru testowego nazywamy epoką. Dla każdego testu obliczany jest globalny błąd sieci, jako połowa sumy kwadratów między wejściami oczekiwanymi a otrzymanymi. Za wartość miarodajną w kwestii postępów w nauce sieci uznajemy maksymalny globalny błąd sieci dla pojedynczego testu w danej epoce. Warunkiem zakończenia nauki jest zatem dla nas osiągnięcie odpowiedniej epoki lub maksymalnego globalnego błędu w epoce poniżej zadanej wartości. Aby zniwelować problemy z różnicami w rzędach wielkości danych na wejściu oraz na wyjściu sieci (drugi z problemów jest istotny, gdyż duże liczby miałyby bez porównania większy wpływ na obliczane błędy i sieć uczyłaby się głównie dostosowania do wyjść o dużych nominałach), zastosowaliśmy prostą optymalizację. Dla całego zbioru testowego obliczane są minimalne oraz maksymalne wartości danych otrzymywanych na poszczególnych wejściach oraz oczekiwanych na poszczególnych wyjściach, a następnie budowane są funkcje liniowe będące bijekcjami [min, max] [, 1]. Dzięki temu sieć operuje na wejściach i oczekiwanych wyjściach z przedziału [, 1], wszystkie wejścia/wyjścia są tak samo ważne, a wskazywany błąd ma charakter względny. Na potrzeby wyświetlania wyników działania sieci tworzone są odwrotne funkcje liniowe, pozwalające wrócić do skali stosowanej w zestawie treningowym/testowym. Gdy stan sieci jest zapamiętywany po treningu, zapamiętywane są także te współczynniki, pozwalające później testować sieć na ograniczonych zestawach testowych, w których wartości wejść i wyjść wyrażone są w tych samych jednostkach, co w zestawie treningowym. 3. Opis implementacji Implementacja została wykonana w języku C++, z wykorzystaniem biblioteki getopt do przetwarzania listy argumentów uruchomienia. Znaczenie argumentów jest przeważnie takie samo jak w schemacie proponowanym w instrukcji do ćwiczenia. Jedyne różnice to: Dodanie argumentu -u/--uklad, w którym musi zostać podany napis składający się z rozdzielonych spacjami liczb oznaczających liczności kolejnych warstw budowanej sieci neuronowej (np. -u"4 2 4"). 3

4 Argumenty --lt oraz --ln odnoszą się do ostatecznego przetworzenia nie poddanego permutacji zestawu treningowego, bez nauki. Pozwala to odczytać ostateczny błąd, oraz poszczególne błędy na różnych zestawach treningowych (oraz wyjścia poszczególnych warstw). W przypadku zestawu testowego, dane o wyjściach warstw wypisywane są zawsze (nie widzimy innego sensu używania zestawów testowych), natomiast stan sieci po uczeniu wypisany przy wykorzystaniu opcji --ln jest prawidłowy, gdyż i tak później już nie następuje nauka. Stworzona implementacja stanowi kompromis pomiędzy czytelnością kodu a wydajnością zastosowanego rozwiązania. Istnieje klasa Layer, co stanowi pewną wygodę w operowaniu na poszczególnych warstwach, jednakże za wszystkie obliczenia związane z działaniem sieci neuronowej odpowiada klasa Network. Poszczególne neurony nie są wyróżnione (gdyż według założeń tego konkretnego ćwiczenia, wszystkie neurony mają być takie same - zatem przechowywanie informacji o funkcji aktywacji, bądź wskaźników do warstw poprzedniej/następnej byłoby zbędną nadmiarowością), lecz zastosowane struktury danych pozwalają z łatwością odczytać informację o stanie każdego z nich (na potrzeby logowania komplet informacji na temat sieci wypisuje metoda describe klasy Network). W projekcie obecne są klasy pomocnicze, takie jak klasa Logger pozwalająca formułować komunikaty w sposób znany z funkcji printf przy dodatkowej możliwości jednoczesnego wypisywanie ich do pliku oraz na standardowe wyjście oraz klasa DataManager - odpowiedzialna za normalizację danych, dostęp do znormalizowanych testów, oraz powrót do pierwotnej skali przy podawaniu wyznaczonych wyjść sieci. 4. Materiały i metody Pierwsza część badań dotyczyła uczenia sieci tożsamościowego przekształcania wierszy macierzy jednostkowej o wymiarze 4. Przeprowadzone testy 1. i 2. miały za zadanie rozstrzygnąć wpływ stosowania obciążenia na zdolność sieci do nauki. Zostały one wykonane przy losowaniu kolejności wprowadzania testów do sieci w danej epoce. Zastosowano współczynnik uczenia o wartości, 6 i pominięto człon momentum (jak wynika ze wzorów z poprzedniej sekcji, jest to po prostu równoważne przyjęciu współczynnika momentum równego ). 5. Wyniki Test 1. - identyczność bez biasu../project/bin/app -u"4 2 4" -n.6 -e25 -s1 -d../data/data1.in -r --lt --ln -z identity1.weights -l identity1.log W teście 1. otrzymaliśmy następującą zależność błędu sieci od liczby epok: 4

5 Otrzymana w wyniku nauki sieć miała następujące wagi: ( ) # Neuron 2.1 ( ) # Neuron 2.2 ( ) # Neuron 3.1 ( ) # Neuron 3.2 ( ) # Neuron 3.3 ( ) # Neuron 3.4 Zaś przebieg zestawu treningowego w wykształconej sieci (bez uczenia) został zamieszczony poniżej. Kolejne linie oznaczają: wejście, oczekiwane wyjście, obliczone wyjście, oraz przebieg generowania wyjść w sieci operującej na danych znormalizowanych. ( ) -> ( ) # oczekiwano ( ) # otrzymano ( ( ) ( ) ( ) ) Globalny błąd sieci: ( ) -> ( ) # oczekiwano ( ) # otrzymano ( ( ) ( ) ( ) ) Globalny błąd sieci:.986 ( ) -> ( ) # oczekiwano ( ) # otrzymano ( ( ) ( ) ( ) ) Globalny błąd sieci:.985 ( ) -> ( ) # oczekiwano 5

6 ( ) # otrzymano ( ( ) ( ) ( ) ) Globalny błąd sieci:.2178 Test 2. - identyczność z biasem../project/bin/app -u"4 2 4" -n.6 -b -e25 -s1 -d../data/data1.in -r --lt --ln -z identity2.weights -l identity2.log W teście 2. otrzymaliśmy następującą zależność błędu sieci od liczby epok: Otrzymana w wyniku nauki sieć miała następujące wagi (pierwsza waga w każdej liście oznacza wagę biasu): ( ) # Neuron 2.1 ( ) # Neuron 2.2 ( ) # Neuron 3.1 ( ) # Neuron 3.2 ( ) # Neuron 3.3 ( ) # Neuron 3.4 Zaś przebieg zestawu treningowego w wykształconej sieci (bez uczenia) wyglądał następująco: ( ) -> ( ) # oczekiwano ( ) # otrzymano ( ( ) ( ) ( ) ) Globalny błąd sieci:.217 ( ) -> ( ) # oczekiwano ( ) # otrzymano 6

7 ( ( ) ( ) ( ) ) Globalny błąd sieci:.212 ( ) -> ( ) # oczekiwano ( ) # otrzymano ( ( ) ( ) ( ) ) Globalny błąd sieci:.216 ( ) -> ( ) # oczekiwano ( ) # otrzymano ( ( ) ( ) ( ) ) Globalny błąd sieci:.214 Test 3. - identyczność z biasem, uczenie:, 9, bez momentum../project/bin/app -u"4 2 4" -n.9 -m. -b -e25 -s1 -d../data/data1.in -r --lt --ln -z identity3.weights -l identity3.log W teście 3. otrzymaliśmy następującą zależność błędu sieci od liczby epok: Otrzymana w wyniku nauki sieć miała następujące wagi (pierwsza waga w każdej liście oznacza wagę biasu): ( ) # Neuron 2.1 ( ) # Neuron 2.2 ( ) # Neuron 3.1 ( ) # Neuron 3.2 ( ) # Neuron 3.3 ( ) # Neuron 3.4 7

8 Zaś przebieg zestawu treningowego w wykształconej sieci (bez uczenia) wyglądał następująco: ( ) -> ( ) # oczekiwano ( ) # otrzymano ( ( ) ( ) ( ) ) Globalny błąd sieci:.198 ( ) -> ( ) # oczekiwano ( ) # otrzymano ( ( ) ( ) ( ) ) Globalny błąd sieci:.198 ( ) -> ( ) # oczekiwano ( ) # otrzymano ( ( ) ( ) ( ) ) Globalny błąd sieci:.2 ( ) -> ( ) # oczekiwano ( ) # otrzymano ( ( ) ( ) ( ) ) Globalny błąd sieci:.194 Test 4. - identyczność z biasem, uczenie:, 2, bez momentum../project/bin/app -u"4 2 4" -n.2 -m. -b -e25 -s1 -d../data/data1.in -r --lt --ln -z identity4.weights -l identity4.log W teście 4. otrzymaliśmy następującą zależność błędu sieci od liczby epok:

9 Otrzymana w wyniku nauki sieć miała następujące wagi (pierwsza waga w każdej liście oznacza wagę biasu): ( ) # Neuron 2.1 ( ) # Neuron 2.2 ( ) # Neuron 3.1 ( ) # Neuron 3.2 ( ) # Neuron 3.3 ( ) # Neuron 3.4 Zaś przebieg zestawu treningowego w wykształconej sieci (bez uczenia) wyglądał następująco: ( ) -> ( ) # oczekiwano ( ) # otrzymano ( ( ) ( ) ( ) ) Globalny błąd sieci:.97 ( ) -> ( ) # oczekiwano ( ) # otrzymano ( ( ) ( ) ( ) ) Globalny błąd sieci:.722 ( ) -> ( ) # oczekiwano ( ) # otrzymano ( ( ) ( ) ( ) ) Globalny błąd sieci:.89 ( ) -> ( ) # oczekiwano ( ) # otrzymano ( ( ) ( ) ( ) ) Globalny błąd sieci:.775 Test 5. - identyczność z biasem, uczenie:, 9, momentum:, 6../project/bin/app -u"4 2 4" -n.9 -m.6 -b -e25 -s1 -d../data/data1.in -r --lt --ln -z identity5.weights -l identity5.log W teście 5. otrzymaliśmy następującą zależność błędu sieci od liczby epok: 9

10 Otrzymana w wyniku nauki sieć miała następujące wagi (pierwsza waga w każdej liście oznacza wagę biasu): ( ) # Neuron 2.1 ( ) # Neuron 2.2 ( ) # Neuron 3.1 ( ) # Neuron 3.2 ( ) # Neuron 3.3 ( ) # Neuron 3.4 Zaś przebieg zestawu treningowego w wykształconej sieci (bez uczenia) wyglądał następująco: ( ) -> ( ) # oczekiwano ( ) # otrzymano ( ( ) ( ) ( ) ) Globalny błąd sieci:.195 ( ) -> ( ) # oczekiwano ( ) # otrzymano ( ( ) ( ) ( ) ) Globalny błąd sieci:.194 ( ) -> ( ) # oczekiwano ( ) # otrzymano ( ( ) ( ) ( ) ) Globalny błąd sieci:.19 ( ) -> ( ) # oczekiwano ( ) # otrzymano 1

11 ( ( ) ( ) ( ) ) Globalny błąd sieci:.193 Test 6. - identyczność z biasem, uczenie:, 2, momentum:, 9../project/bin/app -u"4 2 4" -n.2 -m.9 -b -e25 -s1 -d../data/data1.in -r --lt --ln -z identity6.weights -l identity6.log W teście 6. otrzymaliśmy następującą zależność błędu sieci od liczby epok: Otrzymana w wyniku nauki sieć miała następujące wagi (pierwsza waga w każdej liście oznacza wagę biasu): ( ) # Neuron 2.1 ( ) # Neuron 2.2 ( ) # Neuron 3.1 ( ) # Neuron 3.2 ( ) # Neuron 3.3 ( ) # Neuron 3.4 Zaś przebieg zestawu treningowego w wykształconej sieci (bez uczenia) wyglądał następująco: ( ) -> ( ) # oczekiwano ( ) # otrzymano ( ( ) ( ) ( ) ) Globalny błąd sieci:.289 ( ) -> ( ) # oczekiwano ( ) # otrzymano ( ( ) ( ) ( ) ) 11

12 Globalny błąd sieci:.287 ( ) -> ( ) # oczekiwano ( ) # otrzymano ( ( ) ( ) ( ) ) Globalny błąd sieci:.354 ( ) -> ( ) # oczekiwano ( ) # otrzymano ( ( ) ( ) ( ) ) Globalny błąd sieci:.357 Test 7. - zestaw irysów, sieć /project/bin/app -u"4 3 3" -n.2 -m.9 -b -e2 -s1 -d../data/iris.in -r --lt --ln -z iris1.weights -l iris1.log W teście 7. otrzymaliśmy następującą zależność błędu sieci od liczby epok: Otrzymana w wyniku nauki sieć miała następujące wagi (pierwsza waga w każdej liście oznacza wagę biasu): ( ) # Neuron 2.1 ( ) # Neuron 2.2 ( ) # Neuron 2.3 ( ) # Neuron 3.1 ( ) # Neuron 3.2 ( ) # Neuron

13 Przebieg zestawu treningowego był ciekawy, lecz zbyt długi, aby go tutaj w całości przytoczyć. Błąd sieci często był wypisywany jako i był bliski błędowi obliczeń zmiennoprzecinkowych - poniżej zamieszczam dwa testy generujące największy błąd: ( ) -> ( ) # oczekiwano ( ) # otrzymano ( ( ) ( ) ( ) ) Globalny błąd sieci: ( ) -> ( ) # oczekiwano ( ) # otrzymano ( ( ) ( ) ( ) ) Globalny błąd sieci:.6279 Test 8. - zestaw irysów, sieć /project/bin/app -u"4 4 3" -n.2 -m.9 -b -e2 -s1 -d../data/iris.in -r --lt --ln -z iris2.weights -l iris2.log W teście 8. otrzymaliśmy następującą zależność błędu sieci od liczby epok: Otrzymana w wyniku nauki sieć miała następujące wagi (pierwsza waga w każdej liście oznacza wagę biasu): ( ) # Neuron 2.1 ( ) # Neuron 2.2 ( ) # Neuron 2.3 ( ) # Neuron 2.4 ( ) # Neuron 3.1 ( ) # Neuron 3.2 ( ) # Neuron

14 Przebieg zestawu treningowego nie był ciekawy. Poniżej zamieszczam przebieg dla testu, który sprawił największy problem : ( ) -> ( ) # oczekiwano ( ) # otrzymano ( ( ) ( ) ( ) ) Globalny błąd sieci:.533 Test 9. - zestaw irysów, sieć /project/bin/app -u" " -n.2 -m.9 -b -e8 -s4 -d../data/iris.in -r --lt --ln -z iris3.weights -l iris3.log W teście 9. otrzymaliśmy następującą zależność błędu sieci od liczby epok: Otrzymana w wyniku nauki sieć miała następujące wagi (pierwsza waga w każdej liście oznacza wagę biasu): ( ) # Neuron 2.1 ( ) # Neuron 2.2 ( ) # Neuron 2.3 ( ) # Neuron 3.1 ( ) # Neuron 3.2 ( ) # Neuron 3.3 ( ) # Neuron 3.4 Warstwa 4.: ( ) # Neuron 4.1 ( ) # Neuron 4.2 ( ) # Neuron 4.3 Przebieg zestawu treningowego nie był ciekawy. Poniżej zamieszczam przebieg dla testu, który sprawił największy problem : ( ) -> ( ) # oczekiwano 14

15 ( ) # otrzymano ( ( ) ( ) ( ) ( ) ) Globalny błąd sieci:.321 Test 1. - zestaw irysów, sieć /project/bin/app -u"4 6 3" -n.2 -m.9 -b -e8 -s4 -d../data/iris.in -r --lt --ln -z iris4.weights -l iris4.log W teście 1. otrzymaliśmy następującą zależność błędu sieci od liczby epok: Otrzymana w wyniku nauki sieć miała następujące wagi (pierwsza waga w każdej liście oznacza wagę biasu): ( ) # Neuron 2.1 ( ) # Neuron 2.2 ( ) # Neuron 2.3 ( ) # Neuron 2.4 ( ) # Neuron 2.5 ( ) # Neuron 2.6 ( ) # Neuron 3.1 ( ) # Neuron 3.2 ( ) # Neuron 3.3 Przebieg zestawu treningowego nie był ciekawy. Poniżej zamieszczam przebieg dla testu, który sprawił największy problem : ( ) -> ( ) # oczekiwano ( ) # otrzymano ( ( ) ( ) ( ) ) Globalny błąd sieci:

16 Test zestaw irysów, sieć /project/bin/app -u" " -n.2 -m.9 -b -e2 -s1 -d../data/iris.in -r --lt --ln -z iris5.weights -l iris5.log W teście 11. otrzymaliśmy następującą zależność błędu sieci od liczby epok: Otrzymana w wyniku nauki sieć miała następujące wagi (pierwsza waga w każdej liście oznacza wagę biasu): ( ) # Neuron 2.1 ( ) # Neuron 2.2 ( ) # Neuron 2.3 ( ) # Neuron 2.4 ( ) # Neuron 3.1 ( ) # Neuron 3.2 ( ) # Neuron 3.3 ( ) # Neuron 3.4 Warstwa 4.: ( ) # Neuron 4.1 ( ) # Neuron 4.2 ( ) # Neuron 4.3 ( ) # Neuron 4.4 Warstwa 5.: ( ) # Neuron 5.1 ( ) # Neuron 5.2 ( ) # Neuron 5.3 ( ) # Neuron 5.4 Warstwa 6.: ( ) # Neuron 6.1 ( ) # Neuron 6.2 ( ) # Neuron

17 Przebieg zestawu treningowego był ciekawy, lecz zbyt długi, aby go tutaj w całości przytoczyć. Błąd sieci często był wypisywany jako i był bliski błędowi obliczeń zmiennoprzecinkowych. Poniżej zamieszczam dwa testy generujące największy błąd - jak zatem widać, tylko w jednym z testów błąd miał znaczenie i oznaczał nieprawidłową klasyfikację. ( ) -> ( ) # oczekiwano ( ) # otrzymano ( ( ) ( ) ( ) ( ) ( ) ( ) ) Globalny błąd sieci: ( ) -> ( ) # oczekiwano ( ) # otrzymano ( ( ) ( ) ( ) ( ) ( ) ( ) ) Globalny błąd sieci:.3 6. Dyskusja Testy 1. i 2. miały na celu badanie wpływu obecności biasu na możliwości nauki sieci. Okazało się, że w przypadku braku obciążenia (test 1.) sieć o strukturze nie pozwala na dokonanie nauki wierszy macierzy jednostkowej o rozmiarze 4. Klarowne są w tym wypadku wnioski, jakie można wyciągnąć badając uzyskane wagi oraz wyjścia poszczególnych neuronów sieci po ukończonej (trwającej 25 epok). Otóż okazuje się, że w teście 1. nauczona sieć nie rozróżnia wejścia ( 1 ) od ( 1 ). Łatwo to uzasadnić, patrząc na możliwe konfiguracje wyjść warstwy ukrytej - jeden z dwóch neuronów może być wzbudzony bardziej od drugiego, lub oba mogą być wzbudzone w porównywalnym stopniu. Wygaszenie obu neuronów warstwy ukrytej nie jest sensowną rozróżnialną konfiguracją w przypadku sieci bez biasu, gdyż same przybliżone zera w całej pewnej warstwie dla sieci bez biasu oznacza także zera we wszystkich następnych (idąc w stronę wyjścia sieci) warstw. Powyższe rozumowanie znajduje odzwierciedlenie w teście 2. - tam nauka sieci powiodła się i w zależności od wyjść warstwy drugiej (jeden z neuronów wzbudzony i drugi wygaszony, oba wzbudzone lub oba wygaszone) możemy osiągnąć cztery różne wejścia. Dzięki obecności biasu, nawet przy małych wartościach bezwzględnych wyjść warstwy ukrytej, możemy zinterpretować taki wynik jako unikalny, niezerowy wektor wartości wyjściowych. W testach badany był wpływ współczynników uczenia oraz momentum na przebieg procesu nauki sieci. Łatwym do przewidzenia wnioskiem jest to, że zwiększanie każdego ze współczynników (oczywiście, o ile nie osiągniemy ani nie przekroczymy wartości 1) powoduje wzrost szybkości procesu nauki. Najlepszą konfiguracją okazała się ta, w której wartości obu współczynników były wysokie - w teście 5. współczynnik nauki wynosił, 6, zaś 17

18 współczynnik momentum -, 9. Jak można odczytać z wykresu, już przeprowadzenie 5 do 1 epok nauki pozwalało osiągnąć zadowalająco niski współczynnik globalnego błędu sieci (czyli globalny błąd sieci uczącej się w oparciu o znormalizowane do przedziału [, 1] wyjścia oczekiwane). Należy jednakże pamiętać, że wniosek ten opisuje bardzo mały i prosty zestaw treningowy. Intuicja oraz literatura sugerują, że oparcie nauki na niewielkim współczynniku uczenia oraz dużym momentum pozwala uczynić naukę bardziej elastyczną, szczególnie w przypadku kiedy ważne jest dopasowanie się do dokładnie wszystkich testów z nieco liczniejszego zbioru treningowego (czyli jeżeli interesuje nas maksymalny globalny błąd sieci w danej epoce, nie zaś przeciętny). Jednocześnie, zgodnie z przytoczonymi we wprowadzeniu wzorami, jeżeli współczynnik nauki wyniesie, to niezależnie od wartości współczynnika momentum żadna nauka nie będzie miała miejsca. Ostatecznie, zdecydowaliśmy się używać współczynnika nauki o wartości, 2 oraz współczynnika momentum wynoszącego, 9. W przypadku uczenia sieci wierszy macierzy jednostkowej o wymiarze 4, konfiguracja ta nie wypada rewelacyjnie (test 6.), ale oczywiście bez porównania lepiej niż test 4., gdzie przy tym samym współczynniku uczenia nie jest wykorzystywany mechanizm momentum. Ważny jest jednak właśnie wpływ momentum na końcowy etap nauki, gdy chce się zminimalizować błąd bądź dostosować sieć do ostatnich problematycznych testów - dlatego uważamy momentum za bardzo przydatne przy testach wymagających większej liczby epok. Pozostawienie współczynnika uczenia na poziomie, 2 co prawda spowalnia początkowy proces nauki, ale chroni przed przedwczesnym przeuczeniem sieci (prawdopodobnie właśnie z tego powodu w przeprowadzonych 2-epokowych testach na zestawie iris nie doczekaliśmy się zjawiska przeuczenia). Testy dotyczą zestawu Iris, w którym zbiór treningowy składa się ze 15 testów. Oczekiwanym wyjściem były odpowiednie wiersze macierzy jednostkowej o wymiarze 3, przyporządkowane poszczególnym wartością cechy nominalnej (gatunku irysa). W przypadkach, w których wystąpił problem, dotyczył on tego samego, co mogłoby być problemem dla człowieka rysującego krzywe podziału w zbiorze Iris - czyli odróżnianie specyficznych osobników gatunku virginica od versicolor. 18

19 Na powyższym wykresie zaznaczony na żółto przypadek verisacolor został zakwalifikowany jako virginica w teście 7., zaś zaznaczony na żółto przypadek virginica został zakwalifikowany w teście 11. jako verisacolor. Ponadto, przypadek verisacolor zaznaczony na szaro stanowił w teście 7. pewien problem, niepewność klasyfikacji (wynik znacząco różny do wektora jednostkowego, z zauważalną składową wskazującą na virginica) - jednakże został zaklasyfikowany poprawnie, gdyż składowa wskazująca na verisacolor była największa. Poza wnioskiem tak ogólnym jak powyższy, dotyczącym tego, co może sprawić problem sieci neuronowej dokonującej zadania klasyfikacji, przeprowadzenie aż pięciu testów służyło oczywiście porównaniu skuteczności i szybkości otrzymywania zadowalająco małych błędów globalnych sieci dla różnych liczebności warstw. Wszystkie próby były wykonywane z wykorzystaniem neuronów obciążających, przy losowym podawaniu testów w poszczególnych epokach. Aby uczynić wykresy porównywalnymi, różne konfiguracje testowano przez 2 epok, lub - jeżeli konfiguracja składała się z wielu neuronów i dawała dobre wyniki istotnie szybciej - 8 epok. Test 7. był próbą rozwiązania problemu za pomocą sieci o konfiguracji Mimo obecności neuronów obciążających, sieć ta okazała się zbyt uboga aby dokonać poprawnej klasyfikacji. Po 2 epokach nauki, jeden z irysów pozostał klasyfikowany błędnie, zaś inny - był klasyfikowany zauważalnie mało zdecydowanie. Dodanie czwartego neuronu do warstwy ukrytej znacząco poprawiło szybkość nauki - dzięki temu w w teście 8. przy stosowanej metodzie przeprowadzania eksperymentów udało się nauczyć sieć klasyfikacji irysów już w nieco poniżej 12 epok. Patrząc na wagi drugiej i trzeciej warstwy można zaobserwować, że dla ostatnich trzech wyjść warstwy drugiej wagi w pierwszym neuronie warstwy trzeciej są bliskie zeru, a w warstwie drugiej są liczbami 19

20 przeciwnymi do wag w warstwie trzeciej. Neurony 2-4 różnią się między sobą, lecz z punktu widzenia warstwy wyjściowej wystarczyłoby rozważać pewną sumę ważoną ich wyjść i korzystać z pojedynczej liczby wspólnej dla wszystkich neuronów warstwy wyjściowej. Poza tą liczbą oczywiście potrzebny jest neuron 2.1 oraz bias. Może zatem konfiguracja z biasem byłaby wystarczająca? Otóż jak pokazuje test 7., cztery neurony warstwy ukrytej są jednak potrzebne aby proces nauki mógł się odbyć, nawet jeśli w końcowym procesie nauczania znaczenie faktu, że neurony 2-4 są różne zostaje zatarte. Test 9. pokazuje sprawność naszej implementacji w przypadku dodania kolejnych warstw. Pomimo, że dane już w pierwszej warstwie ukrytej muszą być przepuszczone przez zaledwie trzy neurony, ze względu na rozmiar drugiej warstwy ukrytej proces uczenia nie sprawia problemu, an nawet trwa prawie dwa razy mniej epok niż w teście 8 (czyli niecałe 7 epok). Zatem dane przechodzące przez 3 neurony w pewnej warstwie ukrytej bez problemu mogą posłużyć do klasyfikacji irysów, mimo że nie udało się to w teście 7. Mimo znacznego zmniejszenia liczby epok w porównaniu do testu 8., należy pamiętać, że czas obliczeń potrzebnych do przebiegu epoki wzrósł ze względu na dodanie kolejnej warstwy neuronów. Aby osiągnąć przyspieszenie nauki sieci, zamiast dodawać kolejne warstwy, można także dodać nadmiarowe neurony w warstwie ukrytej. Sieć (test 1.) nauczyła się klasyfikować irysy w mniej niż 4 epok, co stanowi najlepszy z uzyskanych wyników. Duża liczba neuronów nie pozostaje jednak bez wpływu na czas obliczeń, więc nadal można się zastanawiać, która ze struktur - niniejsza, zastosowana w teście 8., czy może w teście 9. - jest najlepszym rozwiązaniem problemu. Może to zależeć na przykład od tego, czy chcemy skoncentrować się na minimalizacji czasu obliczeń, czy może liczby neuronów i związanego z nią zużycia pamięci. Dla tak małych sieci znaczenie tego jest znikome, ale gdyby dwie liczne warstwy sąsiadowały ze sobą, zużycie pamięci wzrosłoby znacznie - wtedy może opłacić się rozważanie utworzenia dwóch warstw ukrytych. Test 11. stanowi eksperyment na temat tego, do czego może doprowadzić znaczna przesada z liczbą warstw ukrytych. Mimo upływu 2 epok i chwilowego zmniejszenia maksymalnego błędu globalnego w epoce, sieć ta nie zdołała nauczyć się całego zbioru danych - jeden z irysów pozostał klasyfikowany błędnie. Chwilowy spadek, a później - ponowny wzrost maksimum błędu (czyli błędu na problematycznym irysie) jest zjawiskiem podobnym do przeuczenia - jednakże w tym przypadku całkowite nauczenie sieci zbioru treningowego nie nastąpiło wcale. 7. Wnioski Podsumowując, na podstawie wyników i przedstawionej powyżej ich interpretacji wyciągnęliśmy następujące wnioski: 2

21 Jeżeli w sieci występują warstwy składające się z niewielkiej liczby neuronów, użycie obciążenia jest nie tylko ułatwieniem, ale wręcz koniecznością. Umiarkowane podwyższanie współczynnika nauki oraz momentum pozwala przyspieszać proces nauczania. W przypadku spodziewanej dużej liczby epok, dobrze sprawdza się umiarkowany współczynnik nauki i duży współczynnik momentum (np. nauka, 2 i momentum, 9) - właśnie przy takich współczynnikach udało nam się dokonać klasyfikacji zbioru Iris. Zastosowanie współczynnika momentum pozwala uniknąć występowania lokalnych minimów, oraz wygładza przebieg nauki dla dużych zbiorów testowych. Jego zastosowanie jest korzystne zwłaszcza podczas treningu sieci on-line, oraz w sytuacjach w których mogłoby dojść do przeuczenia sieci. Ze względu na charakter wpływu momentum na zmiany wag neuronu, często określa się je jako bezwładność wagi. Dla skomplikowanego zbioru treningowego często problemem może się okazać pewien pojedynczy test - nie jest to za każdym razem ten sam test, ale zawsze znajduje się on blisko płaszczyzn separacji, które można by sobie próbować wyobrazić. Nawet jeżeli stosowane jest obciążenie, to jeżeli któraś warstwa ukryta będzie zawierała zbyt mało neuronów, rozróżnienie wymaganej liczby unikalnych wyjść może okazać się niemożliwe. Odmienny od powyższego problem polega na tym, że sieć po prostu może być zbyt uboga, aby proces nauki przebiegał skutecznie. Nawet jeżeli po ukończonej nauce część neuronów okazuje się być nadmiarowa, są one potrzebne do prawidłowego przebiegu procesu nauki. Dodanie dodatkowej warstwy ukrytej może poprawić szybkość uczenia, ale jeszcze lepiej jest dodać równoległe neurony do istniejącej warstwy. Jedynym argumentem za dodatkowymi warstwami może być zużycie pamięci, które maleje gdy rozległa warstwa zostaje rozbita na dwie mniejsze (o ile nie okażą się one z kolei zbyt ubogie, aby rozróżnić wymaganą liczbę różnorodnych wyjść). Utworzenie zbyt wielu warstw ukrytych uniemożliwia dostosowanie sieci do kłopotliwych testów ze zbioru treningowego. Literatura [1] Ryszard Tadeusiewicz - Sieci neuronowe, Wyd. 2., Warszawa 1993 [2] Learning and neural networks [ Learning_and_neural_networks] [3] UCI Machine Learning Repository Iris Data Set 21

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,

Bardziej szczegółowo

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia

Bardziej szczegółowo

ALGORYTMY SZTUCZNEJ INTELIGENCJI

ALGORYTMY SZTUCZNEJ INTELIGENCJI ALGORYTMY SZTUCZNEJ INTELIGENCJI Sieci neuronowe 06.12.2014 Krzysztof Salamon 1 Wstęp Sprawozdanie to dotyczy ćwiczeń z zakresu sieci neuronowych realizowanym na przedmiocie: Algorytmy Sztucznej Inteligencji.

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt

Bardziej szczegółowo

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0 Uczenie się pojedynczego neuronu W0 X0=1 W1 x1 W2 s f y x2 Wp xp p x i w i=x w+wo i=0 Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z=0 Wówczas: W 1 x 1 + w 2 x 2 + = 0 Algorytm

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt

Bardziej szczegółowo

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice) WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO Stanisław Kowalik (Poland, Gliwice) 1. Wprowadzenie Wstrząsy podziemne i tąpania występujące w kopalniach

Bardziej szczegółowo

Sieci neuronowe w Statistica

Sieci neuronowe w Statistica http://usnet.us.edu.pl/uslugi-sieciowe/oprogramowanie-w-usk-usnet/oprogramowaniestatystyczne/ Sieci neuronowe w Statistica Agnieszka Nowak - Brzezińska Podstawowym elementem składowym sztucznej sieci neuronowej

Bardziej szczegółowo

Metody Sztucznej Inteligencji II

Metody Sztucznej Inteligencji II 17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału

Bardziej szczegółowo

Zadanie 3.: Klasyfikacje

Zadanie 3.: Klasyfikacje Informatyka, studia dzienne, inż. I st. semestr VI Inteligentna Analiza Danych 2/2 Prowadzący: dr inż. Arkadiusz Tomczyk wtotek, 8:3 Data oddania: Ocena: Marek Rogalski 5982 Paweł Tarasiuk 52 Zadanie 3.:

Bardziej szczegółowo

Temat: Sieci neuronowe oraz technologia CUDA

Temat: Sieci neuronowe oraz technologia CUDA Elbląg, 27.03.2010 Temat: Sieci neuronowe oraz technologia CUDA Przygotował: Mateusz Górny VIII semestr ASiSK Wstęp Sieci neuronowe są to specyficzne struktury danych odzwierciedlające sieć neuronów w

Bardziej szczegółowo

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:

Bardziej szczegółowo

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska

Bardziej szczegółowo

8. Neuron z ciągłą funkcją aktywacji.

8. Neuron z ciągłą funkcją aktywacji. 8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i

Bardziej szczegółowo

Podstawy Sztucznej Inteligencji (PSZT)

Podstawy Sztucznej Inteligencji (PSZT) Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-10 Projekt pn. Wzmocnienie

Bardziej szczegółowo

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska Sieci neuronowe w Statistica Agnieszka Nowak - Brzezioska Podstawowym elementem składowym sztucznej sieci neuronowej jest element przetwarzający neuron. Schemat działania neuronu: x1 x2 w1 w2 Dendrites

Bardziej szczegółowo

wiedzy Sieci neuronowe

wiedzy Sieci neuronowe Metody detekcji uszkodzeń oparte na wiedzy Sieci neuronowe Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 7 Wprowadzenie Okres kształtowania się teorii sztucznych sieci

Bardziej szczegółowo

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych. Metody Sztucznej Inteligencji 2 Projekt Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych. Autorzy: Robert Wojciechowski Michał Denkiewicz Mateusz Gągol Wstęp Celem projektu

Bardziej szczegółowo

METODY INŻYNIERII WIEDZY

METODY INŻYNIERII WIEDZY METODY INŻYNIERII WIEDZY Metoda K Najbliższych Sąsiadów K-Nearest Neighbours (KNN) ĆWICZENIA Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Bardziej szczegółowo

Podstawy sztucznej inteligencji

Podstawy sztucznej inteligencji wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,

Bardziej szczegółowo

SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU)

SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU) SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU) 1. Opis problemu - ocena końcowa projektu Projekt jako nowe, nietypowe przedsięwzięcie wymaga właściwego zarządzania. Podjęcie się realizacji

Bardziej szczegółowo

Projekt Sieci neuronowe

Projekt Sieci neuronowe Projekt Sieci neuronowe Chmielecka Katarzyna Gr. 9 IiE 1. Problem i dane Sieć neuronowa miała za zadanie nauczyć się klasyfikować wnioski kredytowe. W projekcie wykorzystano dane pochodzące z 110 wniosków

Bardziej szczegółowo

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE SIECI NEURONOWE Przedmiotem laboratorium jest stworzenie algorytmu rozpoznawania zwierząt z zastosowaniem sieci neuronowych w oparciu o 5 kryteriów: ile zwierzę ma nóg, czy żyje w wodzie, czy umie latać,

Bardziej szczegółowo

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych klasyfikacja LABORKA Piotr Ciskowski zadanie 1. klasyfikacja zwierząt sieć jednowarstwowa żródło: Tadeusiewicz. Odkrywanie własności sieci neuronowych, str. 159 Przykład

Bardziej szczegółowo

Systemy uczące się Lab 4

Systemy uczące się Lab 4 Systemy uczące się Lab 4 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 26 X 2018 Projekt zaliczeniowy Podstawą zaliczenia ćwiczeń jest indywidualne wykonanie projektu uwzględniającego

Bardziej szczegółowo

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW

Bardziej szczegółowo

Inteligentne systemy przeciw atakom sieciowym

Inteligentne systemy przeciw atakom sieciowym Inteligentne systemy przeciw atakom sieciowym wykład Sztuczne sieci neuronowe (SSN) Joanna Kołodziejczyk 2016 Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 1 / 36 Biologiczne

Bardziej szczegółowo

Układ RLC z diodą. Zadanie: Nazwisko i imię: Nr. albumu: Grzegorz Graczyk. Nazwisko i imię: Nr. albumu:

Układ RLC z diodą. Zadanie: Nazwisko i imię: Nr. albumu: Grzegorz Graczyk. Nazwisko i imię: Nr. albumu: Politechnika Łódzka TIMS Kierunek: Informatyka rok akademicki: 2009/2010 sem. 3. grupa II Zadanie: Układ z diodą Termin: 5 I 2010 Nr. albumu: 150875 Nazwisko i imię: Grzegorz Graczyk Nr. albumu: 151021

Bardziej szczegółowo

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-03 Projekt pn. Wzmocnienie potencjału

Bardziej szczegółowo

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda Sieci neuropodobne 1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN Agenda Trochę neurobiologii System nerwowy w organizmach żywych tworzą trzy

Bardziej szczegółowo

METODY INŻYNIERII WIEDZY

METODY INŻYNIERII WIEDZY METODY INŻYNIERII WIEDZY Metoda K Najbliższych Sąsiadów K-Nearest Neighbours (KNN) ĆWICZENIA Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Bardziej szczegółowo

Instrukcja realizacji ćwiczenia

Instrukcja realizacji ćwiczenia SIEĆ KOHONENA ROZPOZNAWANIE OBRAZÓW Cel ćwiczenia: zapoznanie się ze sposobem reprezentacji wiedzy w sieciach Kohonena i mechanizmami sąsiedztwa i sumienia neuronów. Zadanie do analizy: analizujemy sieć

Bardziej szczegółowo

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny

Bardziej szczegółowo

Uczenie sieci neuronowych i bayesowskich

Uczenie sieci neuronowych i bayesowskich Wstęp do metod sztucznej inteligencji www.mat.uni.torun.pl/~piersaj 2009-01-22 Co to jest neuron? Komputer, a mózg komputer mózg Jednostki obliczeniowe 1-4 CPU 10 11 neuronów Pojemność 10 9 b RAM, 10 10

Bardziej szczegółowo

Sztuczne siei neuronowe - wprowadzenie

Sztuczne siei neuronowe - wprowadzenie Metody Sztucznej Inteligencji w Sterowaniu Ćwiczenie 2 Sztuczne siei neuronowe - wprowadzenie Przygotował: mgr inż. Marcin Pelic Instytut Technologii Mechanicznej Politechnika Poznańska Poznań, 2 Wstęp

Bardziej szczegółowo

Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak

Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak 2 Rozdział 1 Sztuczne sieci neuronowe. 3 Sztuczna sieć neuronowa jest zbiorem prostych elementów pracujących równolegle, których zasada działania inspirowana jest biologicznym systemem nerwowym. Sztuczną

Bardziej szczegółowo

Wprowadzenie do Sieci Neuronowych Laboratorium 05 Algorytm wstecznej propagacji błędu

Wprowadzenie do Sieci Neuronowych Laboratorium 05 Algorytm wstecznej propagacji błędu Wprowadzenie do Sieci Neuronowych Laboratorium Algorytm wstecznej propagacji błędu Maja Czoków, Jarosław Piersa --7. Powtórzenie Perceptron sigmoidalny Funkcja sigmoidalna: σ(x) = + exp( c (x p)) () Parametr

Bardziej szczegółowo

Klasyfikator liniowy Wstęp Klasyfikator liniowy jest najprostszym możliwym klasyfikatorem. Zakłada on liniową separację liniowy podział dwóch klas między sobą. Przedstawia to poniższy rysunek: 5 4 3 2

Bardziej szczegółowo

Uczenie sieci typu MLP

Uczenie sieci typu MLP Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. dla sieci skierowanych Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-25 1 Motywacja

Bardziej szczegółowo

Sieć przesyłająca żetony CP (counter propagation)

Sieć przesyłająca żetony CP (counter propagation) Sieci neuropodobne IX, specyficzne architektury 1 Sieć przesyłająca żetony CP (counter propagation) warstwa Kohonena: wektory wejściowe są unormowane jednostki mają unormowane wektory wag jednostki są

Bardziej szczegółowo

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Temat: Sztuczne Sieci Neuronowe Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Sztuczne sieci neuronowe

Bardziej szczegółowo

Analiza korespondencji

Analiza korespondencji Analiza korespondencji Kiedy stosujemy? 2 W wielu badaniach mamy do czynienia ze zmiennymi jakościowymi (nominalne i porządkowe) typu np.: płeć, wykształcenie, status palenia. Punktem wyjścia do analizy

Bardziej szczegółowo

Testowanie modeli predykcyjnych

Testowanie modeli predykcyjnych Testowanie modeli predykcyjnych Wstęp Podczas budowy modelu, którego celem jest przewidywanie pewnych wartości na podstawie zbioru danych uczących poważnym problemem jest ocena jakości uczenia i zdolności

Bardziej szczegółowo

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna. Sieci neuronowe model konekcjonistyczny Plan wykładu Mózg ludzki a komputer Modele konekcjonistycze Perceptron Sieć neuronowa Uczenie sieci Sieci Hopfielda Mózg ludzki a komputer Twój mózg to 00 000 000

Bardziej szczegółowo

Priorytetyzacja przypadków testowych za pomocą macierzy

Priorytetyzacja przypadków testowych za pomocą macierzy Priorytetyzacja przypadków testowych za pomocą macierzy W niniejszym artykule przedstawiony został problem przyporządkowania priorytetów do przypadków testowych przed rozpoczęciem testów oprogramowania.

Bardziej szczegółowo

P R Z E T W A R Z A N I E S Y G N A Ł Ó W B I O M E T R Y C Z N Y C H

P R Z E T W A R Z A N I E S Y G N A Ł Ó W B I O M E T R Y C Z N Y C H W O J S K O W A A K A D E M I A T E C H N I C Z N A W Y D Z I A Ł E L E K T R O N I K I Drukować dwustronnie P R Z E T W A R Z A N I E S Y G N A Ł Ó W B I O M E T R Y C Z N Y C H Grupa... Data wykonania

Bardziej szczegółowo

Obliczenia inteligentne Zadanie 4

Obliczenia inteligentne Zadanie 4 Sieci SOM Poniedziałek, 10:15 2007/2008 Krzysztof Szcześniak Cel Celem zadania jest zaimplementowanie neuronowej samoorganizującej się mapy wraz z metodą jej nauczania algorytmem gazu neuronowego. Część

Bardziej szczegółowo

NEURAL NETWORK ) FANN jest biblioteką implementującą SSN, którą moŝna wykorzystać. w C, C++, PHP, Pythonie, Delphi a nawet w środowisku. Mathematica.

NEURAL NETWORK ) FANN jest biblioteką implementującą SSN, którą moŝna wykorzystać. w C, C++, PHP, Pythonie, Delphi a nawet w środowisku. Mathematica. Wykorzystanie sztucznych sieci neuronowych do rozpoznawania języków: polskiego, angielskiego i francuskiego Tworzenie i nauczanie sieci przy pomocy języka C++ i biblioteki FANN (Fast Artificial Neural

Bardziej szczegółowo

ALGORYTM RANDOM FOREST

ALGORYTM RANDOM FOREST SKRYPT PRZYGOTOWANY NA ZAJĘCIA INDUKOWANYCH REGUŁ DECYZYJNYCH PROWADZONYCH PRZEZ PANA PAWŁA WOJTKIEWICZA ALGORYTM RANDOM FOREST Katarzyna Graboś 56397 Aleksandra Mańko 56699 2015-01-26, Warszawa ALGORYTM

Bardziej szczegółowo

Algorytmy sztucznej inteligencji

Algorytmy sztucznej inteligencji Algorytmy sztucznej inteligencji Dynamiczne sieci neuronowe 1 Zapis macierzowy sieci neuronowych Poniżej omówione zostaną części składowe sieci neuronowych i metoda ich zapisu za pomocą macierzy. Obliczenia

Bardziej szczegółowo

wiedzy Sieci neuronowe (c.d.)

wiedzy Sieci neuronowe (c.d.) Metody detekci uszkodzeń oparte na wiedzy Sieci neuronowe (c.d.) Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 8 Metody detekci uszkodzeń oparte na wiedzy Wprowadzenie

Bardziej szczegółowo

Podstawy Sztucznej Inteligencji

Podstawy Sztucznej Inteligencji Politechnika Łódzka Katedra Informatyki Stosowanej Podstawy Sztucznej Inteligencji Laboratorium Ćwiczenie 2 Wykorzystanie środowiska Matlab do modelowania sztucznych sieci neuronowych Opracowali: Dr hab

Bardziej szczegółowo

Metody sztucznej inteligencji Zadanie 1: Perceptron Rosenblatt a w wersji nieliniowej

Metody sztucznej inteligencji Zadanie 1: Perceptron Rosenblatt a w wersji nieliniowej Metody sztucznej inteligencji Zadanie : Perceptron Rosenblatt a w wersji nieliniowej dr inż. Przemysław Klęsk Zbiór danych dla zadania do wykonania w domu Zgodnie z tym, co zostało podane na laboratoriach,

Bardziej szczegółowo

Analiza Danych Sprawozdanie regresja Marek Lewandowski Inf 59817

Analiza Danych Sprawozdanie regresja Marek Lewandowski Inf 59817 Analiza Danych Sprawozdanie regresja Marek Lewandowski Inf 59817 Zadanie 1: wiek 7 8 9 1 11 11,5 12 13 14 14 15 16 17 18 18,5 19 wzrost 12 122 125 131 135 14 142 145 15 1 154 159 162 164 168 17 Wykres

Bardziej szczegółowo

3. FUNKCJA LINIOWA. gdzie ; ół,.

3. FUNKCJA LINIOWA. gdzie ; ół,. 1 WYKŁAD 3 3. FUNKCJA LINIOWA FUNKCJĄ LINIOWĄ nazywamy funkcję typu : dla, gdzie ; ół,. Załóżmy na początek, że wyraz wolny. Wtedy mamy do czynienia z funkcją typu :.. Wykresem tej funkcji jest prosta

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA SYSTEMY ROZMYTE Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i Inżynierii Biomedycznej Laboratorium

Bardziej szczegółowo

Optymalizacja systemów

Optymalizacja systemów Optymalizacja systemów Laboratorium - problem detekcji twarzy autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, P. Klukowski Cel zadania Celem zadania jest zapoznanie się z gradientowymi algorytmami optymalizacji

Bardziej szczegółowo

Klasyfikator. ˆp(k x) = 1 K. I(ρ(x,x i ) ρ(x,x (K) ))I(y i =k),k =1,...,L,

Klasyfikator. ˆp(k x) = 1 K. I(ρ(x,x i ) ρ(x,x (K) ))I(y i =k),k =1,...,L, Klasyfikator Jedną z najistotniejszych nieparametrycznych metod klasyfikacji jest metoda K-najbliższych sąsiadów, oznaczana przez K-NN. W metodzie tej zaliczamy rozpoznawany obiekt do tej klasy, do której

Bardziej szczegółowo

RAPORT z diagnozy umiejętności matematycznych

RAPORT z diagnozy umiejętności matematycznych RAPORT z diagnozy umiejętności matematycznych przeprowadzonej w klasach czwartych szkoły podstawowej 1 Analiza statystyczna Wskaźnik Liczba uczniów Liczba punktów Łatwość zestawu Wyjaśnienie Liczba uczniów,

Bardziej szczegółowo

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Sieci Hopfielda Najprostsze modele sieci z rekurencją sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Modele bardziej złoŝone: RTRN (Real Time Recurrent Network), przetwarzająca sygnały w czasie

Bardziej szczegółowo

Elementy inteligencji obliczeniowej

Elementy inteligencji obliczeniowej Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego

Bardziej szczegółowo

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych. Wstęp do teorii sztucznej inteligencji Wykład III Modele sieci neuronowych. 1 Perceptron model najprostzszy przypomnienie Schemat neuronu opracowany przez McCullocha i Pittsa w 1943 roku. Przykład funkcji

Bardziej szczegółowo

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. zajecia.jakubw.pl/nai Literatura: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym. WNT, Warszawa 997. PODSTAWOWE ZAGADNIENIA TECHNICZNE AI

Bardziej szczegółowo

Liczby zmiennoprzecinkowe i błędy

Liczby zmiennoprzecinkowe i błędy i błędy Elementy metod numerycznych i błędy Kontakt pokój B3-10 tel.: 829 53 62 http://golinski.faculty.wmi.amu.edu.pl/ golinski@amu.edu.pl i błędy Plan wykładu 1 i błędy Plan wykładu 1 2 i błędy Plan

Bardziej szczegółowo

Inteligentna analiza danych

Inteligentna analiza danych Numer indeksu 150946 Michał Moroz Imię i nazwisko Numer indeksu 150875 Grzegorz Graczyk Imię i nazwisko kierunek: Informatyka rok akademicki: 2010/2011 Inteligentna analiza danych Ćwiczenie I Wskaźniki

Bardziej szczegółowo

Zapisywanie algorytmów w języku programowania

Zapisywanie algorytmów w języku programowania Temat C5 Zapisywanie algorytmów w języku programowania Cele edukacyjne Zrozumienie, na czym polega programowanie. Poznanie sposobu zapisu algorytmu w postaci programu komputerowego. Zrozumienie, na czym

Bardziej szczegółowo

METODY INŻYNIERII WIEDZY

METODY INŻYNIERII WIEDZY METODY INŻYNIERII WIEDZY WALIDACJA KRZYŻOWA dla ZAAWANSOWANEGO KLASYFIKATORA KNN ĆWICZENIA Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Bardziej szczegółowo

PRÓBNY SPRAWDZIAN SZÓSTOKLASISTY Z OPERONEM

PRÓBNY SPRAWDZIAN SZÓSTOKLASISTY Z OPERONEM PRÓBNY SPRAWDZIAN SZÓSTOKLASISTY Z OPERONEM Wprowadzenie Na podstawie rozporządzenia Ministra Edukacji Narodowej z dnia 3 kwietnia 27 roku w sprawie warunków i sposobu oceniania, klasyfikowania i promowania

Bardziej szczegółowo

Programowanie w Baltie klasa VII

Programowanie w Baltie klasa VII Programowanie w Baltie klasa VII Zadania z podręcznika strona 127 i 128 Zadanie 1/127 Zadanie 2/127 Zadanie 3/127 Zadanie 4/127 Zadanie 5/127 Zadanie 6/127 Ten sposób pisania programu nie ma sensu!!!.

Bardziej szczegółowo

ĆWICZENIE 5: Sztuczne sieci neuronowe

ĆWICZENIE 5: Sztuczne sieci neuronowe Instytut Mechaniki i Inżynierii Obliczeniowej Wydział Mechaniczny Technologiczny, Politechnika Śląska www.imio.polsl.pl METODY HEURYSTYCZNE ĆWICZENIE 5: Sztuczne sieci neuronowe opracował: dr inż. Witold

Bardziej szczegółowo

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE INSTYTUT TECHNOLOGII MECHANICZNEJ Metody Sztucznej Inteligencji Sztuczne Sieci Neuronowe Wstęp Sieci neuronowe są sztucznymi strukturami, których

Bardziej szczegółowo

Pomorski Czarodziej 2016 Zadania. Kategoria C

Pomorski Czarodziej 2016 Zadania. Kategoria C Pomorski Czarodziej 2016 Zadania. Kategoria C Poniżej znajduje się 5 zadań. Za poprawne rozwiązanie każdego z nich możesz otrzymać 10 punktów. Jeżeli otrzymasz za zadanie maksymalną liczbę punktów, możesz

Bardziej szczegółowo

Widzenie komputerowe

Widzenie komputerowe Widzenie komputerowe Uczenie maszynowe na przykładzie sieci neuronowych (3) źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Zdolność uogólniania sieci neuronowej R oznaczenie

Bardziej szczegółowo

Rozdział 2 PROGRAMOWANIE LINIOWE CAŁKOWITOLICZBOWE

Rozdział 2 PROGRAMOWANIE LINIOWE CAŁKOWITOLICZBOWE Wprowadzenie do badań operacyjnych z komputerem Opisy programów, ćwiczenia komputerowe i zadania. T. Trzaskalik (red.) Rozdział 2 PROGRAMOWANIE LINIOWE CAŁKOWITOLICZBOWE 2.2 Ćwiczenia komputerowe Ćwiczenie

Bardziej szczegółowo

6. Perceptron Rosenblatta

6. Perceptron Rosenblatta 6. Perceptron Rosenblatta 6-1 Krótka historia perceptronu Rosenblatta 6-2 Binarne klasyfikatory liniowe 6-3 Struktura perceptronu Rosenblatta 6-4 Perceptron Rosenblatta a klasyfikacja 6-5 Perceptron jednowarstwowy:

Bardziej szczegółowo

Porównywanie populacji

Porównywanie populacji 3 Porównywanie populacji 2 Porównywanie populacji Tendencja centralna Jednostki (w grupie) według pewnej zmiennej porównuje się w ten sposób, że dokonuje się komparacji ich wartości, osiągniętych w tej

Bardziej szczegółowo

0 + 0 = 0, = 1, = 1, = 0.

0 + 0 = 0, = 1, = 1, = 0. 5 Kody liniowe Jak już wiemy, w celu przesłania zakodowanego tekstu dzielimy go na bloki i do każdego z bloków dodajemy tak zwane bity sprawdzające. Bity te są w ścisłej zależności z bitami informacyjnymi,

Bardziej szczegółowo

Wymagania edukacyjne na poszczególne oceny To się liczy! Branżowa Szkoła I stopnia, klasa 1 po szkole podstawowej

Wymagania edukacyjne na poszczególne oceny To się liczy! Branżowa Szkoła I stopnia, klasa 1 po szkole podstawowej Wymagania edukacyjne na poszczególne oceny To się liczy! Branżowa Szkoła I stopnia, klasa 1 po szkole podstawowej Wymagania dostosowano do sześciostopniowej skali ocen. I. Liczby rzeczywiste zna cechy

Bardziej szczegółowo

1 Moduł Modbus ASCII/RTU 3

1 Moduł Modbus ASCII/RTU 3 Spis treści 1 Moduł Modbus ASCII/RTU 3 1.1 Konfigurowanie Modułu Modbus ASCII/RTU............. 3 1.1.1 Lista elementów Modułu Modbus ASCII/RTU......... 3 1.1.2 Konfiguracja Modułu Modbus ASCII/RTU...........

Bardziej szczegółowo

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH** Górnictwo i Geoinżynieria Rok 31 Zeszyt 3 2007 Dorota Pawluś* PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH** 1. Wstęp Eksploatacja górnicza złóż ma niekorzystny wpływ na powierzchnię

Bardziej szczegółowo

SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU)

SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU) SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU) 1. Opis problemu - ocena końcowa projektu Projekt jako nowe, nietypowe przedsięwzięcie wymaga właściwego zarządzania. Podjęcie się realizacji

Bardziej szczegółowo

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych. Sieci rekurencyjne Ewa Adamus ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych 7 maja 2012 Jednowarstwowa sieć Hopfielda, z n neuronami Bipolarna funkcja przejścia W wariancie

Bardziej szczegółowo

Maciej Piotr Jankowski

Maciej Piotr Jankowski Reduced Adder Graph Implementacja algorytmu RAG Maciej Piotr Jankowski 2005.12.22 Maciej Piotr Jankowski 1 Plan prezentacji 1. Wstęp 2. Implementacja 3. Usprawnienia optymalizacyjne 3.1. Tablica ekspansji

Bardziej szczegółowo

RAPORT ZBIORCZY z diagnozy umiejętności matematycznych

RAPORT ZBIORCZY z diagnozy umiejętności matematycznych RAPORT ZBIORCZY z diagnozy umiejętności matematycznych przeprowadzonej w klasach szóstych szkół podstawowych Analiza statystyczna Wskaźnik Wartość wskaźnika Wyjaśnienie Liczba uczniów Liczba uczniów, którzy

Bardziej szczegółowo

Programowanie celowe #1

Programowanie celowe #1 Programowanie celowe #1 Problem programowania celowego (PC) jest przykładem problemu programowania matematycznego nieliniowego, który można skutecznie zlinearyzować, tzn. zapisać (i rozwiązać) jako problem

Bardziej szczegółowo

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe JOANNA GRABSKA-CHRZĄSTOWSKA Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA BUDOWA RZECZYWISTEGO NEURONU

Bardziej szczegółowo

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW 17 XII 2013 Jan Karwowski

Bardziej szczegółowo

Algorytmy wstecznej propagacji sieci neuronowych

Algorytmy wstecznej propagacji sieci neuronowych Algorytmy wstecznej propagacji sieci neuronowych Mateusz Nowicki, Krzysztof Jabłoński 1 Wydział Inżynierii Mechanicznej i Informatyki Politechnika Częstochowska Kierunek Informatyka, Rok III 1 krzysztof.jablonski@hotmail.com

Bardziej szczegółowo

Metody numeryczne Technika obliczeniowa i symulacyjna Sem. 2, EiT, 2014/2015

Metody numeryczne Technika obliczeniowa i symulacyjna Sem. 2, EiT, 2014/2015 Metody numeryczne Technika obliczeniowa i symulacyjna Sem. 2, EiT, 2014/2015 1 Metody numeryczne Dział matematyki Metody rozwiązywania problemów matematycznych za pomocą operacji na liczbach. Otrzymywane

Bardziej szczegółowo

Optymalizacja optymalizacji

Optymalizacja optymalizacji 7 maja 2008 Wstęp Optymalizacja lokalna Optymalizacja globalna Algorytmy genetyczne Badane czasteczki Wykorzystane oprogramowanie (Algorytm genetyczny) 2 Sieć neuronowa Pochodne met-enkefaliny Optymalizacja

Bardziej szczegółowo

Aproksymacja funkcji a regresja symboliczna

Aproksymacja funkcji a regresja symboliczna Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(x), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(x), zwaną funkcją aproksymującą

Bardziej szczegółowo

Metody numeryczne I Równania nieliniowe

Metody numeryczne I Równania nieliniowe Metody numeryczne I Równania nieliniowe Janusz Szwabiński szwabin@ift.uni.wroc.pl Metody numeryczne I (C) 2004 Janusz Szwabiński p.1/66 Równania nieliniowe 1. Równania nieliniowe z pojedynczym pierwiastkiem

Bardziej szczegółowo

Podstawy programowania. Wykład Funkcje. Krzysztof Banaś Podstawy programowania 1

Podstawy programowania. Wykład Funkcje. Krzysztof Banaś Podstawy programowania 1 Podstawy programowania. Wykład Funkcje Krzysztof Banaś Podstawy programowania 1 Programowanie proceduralne Pojęcie procedury (funkcji) programowanie proceduralne realizacja określonego zadania specyfikacja

Bardziej szczegółowo