Plan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty)
|
|
- Henryka Cichoń
- 7 lat temu
- Przeglądów:
Transkrypt
1 Plan wykładu Dzałane neuronu dyskretnego warstwy neuronów dyskretnych Wykład : Reguły uczena sec neuronowych. Sec neuronowe ednokerunkowe. Reguła perceptronowa Reguła Wdrowa-Hoffa Reguła delta ałgorzata Krętowska Wydzał Informatyk Poltechnka Bałostocka Ops dzałana sec welowarstwowe Sposoby rozwązana problemu XOR Uczene z nauczycelem Rodzae funkc celu Algorytm wsteczne propagac błędu x Neuronu dyskretny w -θ Neuron dyskretny (perceptron prosty x w y w N Cel: klasyfkaca wektorów weścowych x, =,,, p do edne z dwóch klas A, A. W przypadku neuronu dyskretnego n-wymarowa przestrzeń cech est dzelona na dwe podprzestrzene przy pomocy hperpłaszczyzny: T { x : w x = 0} N H ( w = = x : w x = θ gdze w= [-θ, w,, w N ] T = -wymarowa przestrzeń cech 3-wymarowa przestrzeń cech 3 4
2 -wymarowe wykresy podstawowych funkc logcznych Warstwa neuronów dyskretnych x x w w w 0 y y y 3 y 4 W przypadku warstwy neuronów dyskretnych n-wymarowa przestrzeń cech est dzelona na rozłączne obszary przy pomocy hperpłaszczyzn: T { x : w x = 0} N H ( w = = x : w x = θ = 5 6 Dzałane warstwy neuronów dyskretnych Ops symbol x x Hperpłaszczyzna H Hperpłaszczyzna H Hperpłaszczyzna H3 Neurony formalne r ( x = ( r x = 0 r3 ( x = 0 Pola aktywne Wektor wyścowy r=[,0,0] x x w 0 w w y y y 3 y x = [, x,, ] T - wektor weścowy d = [d,, d ] T - zadana postać wektora wyścowego (x, d,,(x p,d p - lczba par wektorów uczących (wzorców uczących w = [-θ, w,, w N ] T w - waga połączena neuronu -tego warstwy k+ -tego warstwy k x(k, w(k - ogólne wektor weścowy wag w k-tym kroku uczena f - funkca aktywac y=[y,, y,,y ] T - sygnał wyścowy sec ( neuronów w warstwe wyścowe 7 8
3 Proces uczena Reguła perceptronowa Seć posada zdolność uczena: dobór struktury sec parametrów sec (wag do wykonana określonego zadana Zbór uczący: (x, d, =,,,p Adaptaca wag odbywa sę w kolenych krokach uczena może być zapsana ako: W (k+=w (k + W (k Dla każdego wektora weścowego x(k można zdefnować funkcę błędu postac: e(k = d(k - y(k Rodzae uczena: z nauczycelem bez nauczycela gdze y(k - odpowedź sec na wymuszene w postac wektora weścowego x(k (przymue wartośc - Cel: modyfkaca wag w tak sposób, aby dla wszystkch wektorów weścowych e(k = 0, k =,, 9 0 Zasada dzałana reguły perceptronowe Reguła perceptronowa e(k = d(k - y(k gdy d(k < y(k, e(k < 0 => osłabamy wag neuronu gdy d(k > y(k, e(k > 0 => wzmacnamy wag neuronu Incalzaca wag w Na weśce sec podawany est wektor uczący x wyznaczana wartość sygnału wyścowego y. Korekca wag wektora w wg wzoru: d(k y(k e(k wag bez zman 0 bez zman - wzmacnamy wag - - osłabamy wag w ( k gdy y( k = d( k w ( k + = w ( k + x( k gdy y( k = ; d( k = w ( k x( k gdy y( k = ; d( k = prezentaca nowego wektora uczącego x ponowna aktualzaca wag Proces powtarza sę welokrotne dla wszystkch danych uczących, aż uzyska sę mnmalzacę różnc pomędzy wartoścam d y.
4 Przykład amy dane 3 punkty x =[, -], x =[, ], x 3 =[, ], dla których d =, d = d 3 =-. Wartośc początkowe wektora wag są następuące: w =[0.8; -0,]. - Rozszerzona przestrzen cech Rozszerzona przestrzen wag 4 x x x 0 x 4 3 w x w x x 3 w(0=[0.8; -0,] Przykład (cd Prezentowany wzorzec Wartość net odyfkaca wag ========================(======================== x =[, -] net(=0.8+0.= > 0 - f(net = =d ========================(========================= x =[, ] net(=0.8-0.=0.6 > 0 - f(net==d ========================(3========================= x 3 =[, ] net(3= =0.4 > 0 w(3=[0.8-; -0.-] f(net= d 3 w(3=[-0.; -.] 4 Przykład (cd Neuron cągły Rozszerzona przestrzen wag a w(=[.8; -.] 4 w 3 x w(0 w w( x x -4 zmany wag x x w w w N f f (net λ = 0.5 λ =.0 λ = b.0 f (net net net - 0 λ = λ = 5 tanh 5 6
5 Reguła Wdrowa-Hoffa Reguła Wdrowa-Hoffa Uogólnene reguły perceptronowe. Dobór wag neuronu dowolnego typu (dyskretny lub cągły Korekca wag odbywa sę według wzoru: w ( k + = w ( k + w ( k Cechy charakterystyczne: W uczenu wykorzystue sę edyne nformacę o aktualne wartośc sygnału wyścowego wartośc żądane na wyścu sec ze względu na necągłość funkc nelnowe perceptronu ne można wykorzystać nformac o zmanach wartośc y (pochodne mnmalzaca różnc pomędzy wartoścam y d odpowada mnmalzac kwadratowe funkc celu: w ( k = x ( k( d ( k y ( k p ( y ( k d ( k k = gdze p - lczba prezentowanych wzorców efektywność metody est newelka, a lczba cykl czas uczena wzrasta przy duże lczbe neuronów wzorców 7 8 Reguła delta Dzałane neuronu dyskretnego Uogólnene reguły perceptronowe dla neuronów o cągłe funkc aktywac: w ( k + = w ( k + c( d y f '( net x x w -θ dae sę wyprowadzć ako wynk mnmalzac błędu kwadratowego x w y w N 9 0
6 Dzałane warstwy neuronów formalnych Dzałane sec welowarstwowe x x w w w 0 y y y=[,0,0] y 3 y 4 Problem XOR (podeśce I Problem XOR (podeśce II
7 Uczene z nauczycelem nmalzaca funkc celu E Zakładaąc cągłą funkcę aktywac, mnmalzaca odbywa sę metodam gradentowym, wykorzystuącym nformace o gradence funkc celu T E E E,, L, W W W n W każdym kroku uczena wyznacza sę tzw. kerunek mnmalzac p(w(k (naprostsza metoda p(w=- E(W - algorytm nawększego spadku Korekca wag odbywa sę według wzoru: Błąd średnokwadratowy dla poedynczego wzorca dla zboru uczącego Funkca wykorzystuąca normę L Funkce celu = y d ( y d = p = ( y d Funkca celu dla układu, którego zadanem est mnmalzaca nawększego odchylena odpowedz od welkośc żądane (K> = W ( k + = W ( k + ηp( W ( k gdze η est współczynnkem uczena z przedzału [0, ]. ( y d = K 5 6 Funkce celu Funkce celu Funkca celu Karayannsa gdze E( W = λ φ = ( y d + ( λ ( y d λ - współczynnk zmenaący sę w przedzale [0; ] φ - cągła, wypukła, róznczkowalna, dodatno określona, dobrana w tak sposób, aby w końcowe faze uczena była realzowana mnmalzaca wartośc absolutne błędu, np = φ ( x = ln[cosh( βx] β dla dużych wartośc β funkca est zbeżna do x. logarytmczna (e =y -d log( + e e e E = + e W dla błędu średnokwadratowego: e E = e W e =r 7 8
8 Funkce celu Funkce celu Funkca Hampela = E φ( e a funkca Hampela; b pochodna funkc Hampela 9 Błąd kros-entrop (ang. cross-entropy error - dla wartośc wzorcowych bnarnych p ( d log y + ( d log[ y ] = = Wartość mnmum funkca E osąga dla y =d, czyl p ( ( d log d + ( d log [ d ] E mn = mn = = gdy d będze z przedzału (0, wówczas wartość E mn będze zależała do analzowanych danych. Odemuąc od E wartość funkcę E mn, otrzymuemy: p ( y y d + log d log = = d d które wartość mnmalna est równa 0. Jest to odległość Kullback- Lebler a 30 Uczene sec welowarstwowe Algorytm wsteczne propagac błędu Problem: ne znamy odpowedz dla neuronów warstw ukrytych 3 3
9 Wsteczna propagaca błędu w praktyce Algorytm wsteczne propagac błędu Dla każdego wzorca uczącego wymagane est wykonane następuących czynnośc: Poda wektor uczący (x na weśce sec Wyznacz wartośc wyść (v, y każdego elementu dla kolenych warstw sec, od perwsze warstwy ukryte do warstwy wyścowe Oblcz wartośc błędów δ ( dla warstwy wyścowe Dokona propagac wsteczne błędu wyścowego do poszczególnych elementów warstw ukrytych wyznaczaąc δ ( Dokona aktualzac wag koleno pomędzy warstwą wyścową ukrytą, a następne pomędzy warstwam ukrytym przesuwaąc sę w kerunku warstwy weścowe. Propagaca sygnału uczącego Propagaca błędu x x W ( w N ( W ( y v w ( δ ( W ( δ ( w ( y y (y -d (y -d (y -d Uaktualnane wag nmalzaca funkc celu - problemy Przyrostowe uaktualnane wag - korekty wag dokonue sę każdorazowo po podanu kolenego wektora uczącego zgodne z funkcą celu: ( y d = Kumulacyne uaktualnane wag - korekty wag dokonue sę raz na eden cykl tzn. po podanu wszystkch obrazów uczących p = ( y d = wówczas korekta wag (gradent błędu łącznego est sumą gradentów błędów dla poszczególnych obrazów: w = p = w 35 36
10 Problemy Wag początkowe mnma lokalne modyfkace podstawowego algorytmu - dodawane do wartośc wag małych przypadkowych wartośc dodawane newelkego losowego zakłócena do wektorów uczących uaktualnane przyrostowe wag z wzorcam podawanym w losowe kolenośc (substytut dodawana zakłóceń - elmnaca cyklcznośc poawana sę wzorców co może prowadzć do znoszena sę korekt wag klkakrotne powtarzane procesu uczena rozpoczynaąc od różnych wartośc początkowych wag Duże wag początkowe - powoduą nasycene sgmodalnych funkc aktywac proces uczena może być bardzo wolno zbeżny lub zatrzyma sę w mnmum lokalnym Wag blske zeru - dla neuronów bpolarnych zerowe wag ne zmenaą sę w procese uczena. Dla tych neuronów, gdy suma wartośc bezwzględnych początkowych wag est blska zeru wówczas często wag zbegaą do wartośc zerowych lub proces zbeżnośc est bardzo powolny. dobór współczynnka uczena dobór zależy od aktualnego problemu w lteraturze wartośc od 0-3 do 0 (mnesze wartośc algorytm stablny lecz bardzo powolny stały lub zmenny 37 Zalecane: losowy wybór wag, aby pobudzene łączne net było neco mnesze od ednośc. 38 etoda momentu etoda momentu W sytuac gdy gradent współczynnk uczena są newelke zmneszane sę błędu est bardzo powolne, gdy obe te wartośc są duże mogą wystąpć oscylace wokół mnmum => metoda momentu przyspesza zbeżność algorytmu Korekta wag: w( k = η E ( k + α w( k gdze α - współczynnk momentu (0; Dzałane: eżel w kolenych krokach gradenty wskazuą ten sam kerunek, ch dzałane sę kumulue przyrosty staą sę coraz wększe (płaske obszary gdy wykazuą przecwny kerunek ch dzałane sę częścowo znos, ruch punktu est hamowany, następue łagodne ześce (bez momentu występuą często oscylace W praktyce często przymue sę wartośc α = 0.; η=0.9 Kolene krok mnmalzac funkc celu przy zastosowanu metody gradentowe metody momentu 39 40
11 Krytera stopu algorytm dotarł do takego punktu, w którym wartość bezwzględna zmany funkc kosztu est mnesza od pewnego mnmalnego progu algorytm dotarł do punktu, w którym zaczyna wzrastać błąd lczony na zborze testowym 4
Wykład 2: Uczenie nadzorowane sieci neuronowych - I
Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za
Wykład 2: Uczenie nadzorowane sieci neuronowych - I
Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za
wiedzy Sieci neuronowe (c.d.)
Metody detekci uszkodzeń oparte na wiedzy Sieci neuronowe (c.d.) Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 8 Metody detekci uszkodzeń oparte na wiedzy Wprowadzenie
Sztuczne sieci neuronowe
Sztuczne sec neuronowe Jerzy Stefanowsk Plan wykładu 1. Wprowadzene 2. Model sztucznego neuronu. 3. Topologe sec neuronowych 4. Reguły uczena sec neuronowych. 5. Klasyfkaca sec neuronowych. 6. Sec warstwowe
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 5. SZTUCZNE SIECI NEURONOWE REGRESJA Częstochowa 4 Dr hab. nż. Grzegorz Dudek Wdzał Elektrczn Poltechnka Częstochowska PROBLEM APROKSYMACJI FUNKCJI Aproksmaca funkc przblżane
Systemy Inteligentnego Przetwarzania wykład 3: sieci rekurencyjne, sieci samoorganizujące się
Systemy Intelgentnego Przetwarzana wykład 3: sec rekurencyne, sec samoorganzuące sę Dr nż. Jacek Mazurkewcz Katedra Informatyk Technczne e-mal: Jacek.Mazurkewcz@pwr.edu.pl Sec neuronowe ze sprzężenem Sprzężena
Sztuczna Inteligencja Tematy projektów Sieci Neuronowe
PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia
Wprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu
Wprowadzene do Sec Neuronowych Algorytm wstecznej propagacj błędu Maja Czoków, Jarosław Persa --6 Powtórzene. Perceptron sgmodalny Funkcja sgmodalna: σ(x) = + exp( c (x p)) Parametr c odpowada za nachylene
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 8. SZTUCZNE SIECI NEURONOWE INNE ARCHITEKTURY Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska SIEĆ O RADIALNYCH FUNKCJACH BAZOWYCH
IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ
IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,
Metody Sztucznej Inteligencji II
17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału
Neuron liniowy. Najprostsza sieć warstwa elementów liniowych
Najprostsza jest jednostka lnowa: Neuron lnowy potraf ona rozpoznawać wektor wejścowy X = (x 1, x 2,..., x n ) T zapamętany we współczynnkach wagowych W = (w 1, w 2,..., w n ), Zauważmy, że y = W X Załóżmy,
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska
Podstawy teorii falek (Wavelets)
Podstawy teor falek (Wavelets) Ψ(). Transformaca Haara (97).. Przykład pewne metody zapsu obrazu Transformaca Haara Przykład zapsu obrazu -D Podstawy matematyczne transformac Algorytmy rozkładana funkc
Neural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych.
Neural networks Lecture Notes n Pattern Recognton by W.Dzwnel Krótka hstora McCulloch Ptts (1943) - perwszy matematyczny ops dzalana neuronu przetwarzana przez nego danych. Proste neurony, które mogly
Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311
Sztuczne sec neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyk, p. 311 Wykład 1 PLAN: Jak (klasyczne) komputery ocenaą flozofę Alberta Enstena Hstora korzene teor sztucznych sec neuronowych
wiedzy Sieci neuronowe
Metody detekcji uszkodzeń oparte na wiedzy Sieci neuronowe Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 7 Wprowadzenie Okres kształtowania się teorii sztucznych sieci
Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB
Rozwązywane zadań optymalzacj w środowsku programu MATLAB Zagadnene optymalzacj polega na znajdowanu najlepszego, względem ustalonego kryterum, rozwązana należącego do zboru rozwązań dopuszczalnych. Standardowe
Elementy inteligencji obliczeniowej
Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego
Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311
Sztuczne sec neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyk, p. 311 Wykład 6 PLAN: - Repetto (brevs) - Sec neuronowe z radalnym funkcjam bazowym Repetto W aspekce archtektury: zajmowalśmy
Sztuczna inteligencja
Sztuczna inteligencja Wykład 7. Architektury sztucznych sieci neuronowych. Metody uczenia sieci. źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Podstawowe architektury
Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba
Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 1 Ćwczene 2: Perceptron WYMAGANIA 1. Sztuczne sec neuronowe budowa oraz ops matematyczny perceptronu (funkcje przejśca perceptronu), uczene perceptronu
Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;
Sieci Hopfielda Najprostsze modele sieci z rekurencją sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Modele bardziej złoŝone: RTRN (Real Time Recurrent Network), przetwarzająca sygnały w czasie
Podstawy sztucznej inteligencji
wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,
Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3
Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt
Poszukiwanie optymalnego wyrównania harmonogramu zatrudnienia metodą analityczną
Mieczysław POŁOŃSKI Wydział Budownictwa i Inżynierii Środowiska, Szkoła Główna Gospodarstwa Wieskiego, Warszawa, ul. Nowoursynowska 159 e-mail: mieczyslaw_polonski@sggw.pl Poszukiwanie optymalnego wyrównania
Uczenie sieci typu MLP
Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik
Inteligentne systemy przeciw atakom sieciowym
Inteligentne systemy przeciw atakom sieciowym wykład Sztuczne sieci neuronowe (SSN) Joanna Kołodziejczyk 2016 Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 1 / 36 Biologiczne
8. Neuron z ciągłą funkcją aktywacji.
8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i
Sieci Neuronowe 1 Michał Bereta
Wprowadzene Zagadnena Sztucznej Intelgencj laboratorum Sec Neuronowe 1 Mchał Bereta Sztuczne sec neuronowe można postrzegać jako modele matematyczne, które swoje wzorce wywodzą z bolog obserwacj ludzkch
Klasyfkator lnowy Wstęp Klasyfkator lnowy jest najprostszym możlwym klasyfkatorem. Zakłada on lnową separację lnowy podzał dwóch klas mędzy sobą. Przedstawa to ponższy rysunek: 5 4 3 1 0-1 - -3-4 -5-5
Sztuczne sieci neuronowe
www.math.uni.lodz.pl/ radmat Cel wykładu Celem wykładu jest prezentacja różnych rodzajów sztucznych sieci neuronowych. Biologiczny model neuronu Mózg człowieka składa się z około 10 11 komórek nerwowych,
SYSTEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE METODY KLASYFIKACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.
SYSEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE MEODY KLASYFIKACJI Częstochowa 4 Dr hab. nż. Grzegorz Dude Wydzał Eletryczny Poltechna Częstochowsa FUNKCJE FISHEROWSKA DYSKRYMINACYJNE DYSKRYMINACJA I MASZYNA LINIOWA
Instrukcja do ćwiczeń laboratoryjnych z przedmiotu: Badania operacyjne. Temat ćwiczenia: Problemy rozkroju materiałowego, zagadnienia dualne
Instrukca do ćwczeń laboratorynych z przedmotu: Badana operacyne Temat ćwczena: Problemy rozkrou materałowego, zagadnena dualne Zachodnopomorsk Unwersytet Technologczny Wydzał Inżyner Mechanczne Mechatronk
Lekcja 5: Sieć Kohonena i sieć ART
Lekcja 5: Sieć Kohonena i sieć ART S. Hoa Nguyen 1 Materiał Sieci Kohonena (Sieć samo-organizująca) Rysunek 1: Sieć Kohonena Charakterystyka sieci: Jednowarstwowa jednokierunkowa sieć. Na ogół neurony
Modelowanie i obliczenia techniczne. Metody numeryczne w modelowaniu: Optymalizacja
Modelowane oblczena technczne Metody numeryczne w modelowanu: Optymalzacja Zadane optymalzacj Optymalzacja to ulepszane lub poprawa jakośc danego rozwązana, projektu, opracowana. Celem optymalzacj jest
Laboratorium ochrony danych
Laboratorum ochrony danych Ćwczene nr Temat ćwczena: Cała skończone rozszerzone Cel dydaktyczny: Opanowane programowej metody konstruowana cał skończonych rozszerzonych GF(pm), poznane ch własnośc oraz
u u u( x) u, x METODA RÓŻNIC SKOŃCZONYCH, METODA ELEMENTÓW BRZEGOWYCH i METODA ELEMENTÓW SKOŃCZONYCH
METODA RÓŻNIC SKOŃCZONYCH, METODA ELEMENTÓW BRZEGOWYCH METODA ELEMENTÓW SKOŃCZONYCH Szkc rozwązana równana Possona w przestrzen dwuwymarowe. Równane Possona to równae różnczkowe cząstkowe opsuące wele
Wykład 1 Zagadnienie brzegowe liniowej teorii sprężystości. Metody rozwiązywania, metody wytrzymałości materiałów. Zestawienie wzorów i określeń.
Wykład Zagadnene brzegowe lnowe teor sprężystośc. Metody rozwązywana, metody wytrzymałośc materałów. Zestawene wzorów określeń. Układ współrzędnych Kartezańsk, prostokątny. Ose x y z oznaczono odpowedno
2012-10-11. Definicje ogólne
0-0- Defncje ogólne Logstyka nauka o przepływe surowców produktów gotowych rodowód wojskowy Utrzyywane zapasów koszty zwązane.n. z zarożene kaptału Brak w dostawach koszty zwązane.n. z przestoje w produkcj
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa
Widzenie komputerowe
Widzenie komputerowe Uczenie maszynowe na przykładzie sieci neuronowych (3) źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Zdolność uogólniania sieci neuronowej R oznaczenie
Zastosowania sieci neuronowych
Zastosowania sieci neuronowych klasyfikacja LABORKA Piotr Ciskowski zadanie 1. klasyfikacja zwierząt sieć jednowarstwowa żródło: Tadeusiewicz. Odkrywanie własności sieci neuronowych, str. 159 Przykład
Zastosowania sieci neuronowych
Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką
( ) ( ) 2. Zadanie 1. są niezależnymi zmiennymi losowymi o. oraz. rozkładach normalnych, przy czym EX. i σ są nieznane. 1 Niech X
Prawdopodobeństwo statystyka.. r. Zadane. Zakładamy, że,,,,, 5 są nezależnym zmennym losowym o rozkładach normalnych, przy czym E = μ Var = σ dla =,,, oraz E = μ Var = 3σ dla =,, 5. Parametry μ, μ σ są
Plan wykładu: Typowe dane. Jednoczynnikowa Analiza wariancji. Zasada: porównać zmienność pomiędzy i wewnątrz grup
Jednoczynnkowa Analza Waranc (ANOVA) Wykład 11 Przypomnene: wykłady zadana kursu były zaczerpnęte z podręcznków: Statystyka dla studentów kerunków techncznych przyrodnczych, J. Koronack, J. Melnczuk, WNT
Natalia Nehrebecka. Wykład 2
Natala Nehrebecka Wykład . Model lnowy Postad modelu lnowego Zaps macerzowy modelu lnowego. Estymacja modelu Wartośd teoretyczna (dopasowana) Reszty 3. MNK przypadek jednej zmennej . Model lnowy Postad
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 15. ALGORYTMY GENETYCZNE Częstochowa 014 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska TERMINOLOGIA allele wartośc, waranty genów, chromosom - (naczej
Funkcje i charakterystyki zmiennych losowych
Funkcje charakterystyk zmennych losowych Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Intelgencj Metod Matematycznych Wydzał Informatyk Poltechnk Szczecńskej 5. Funkcje zmennych losowych
WPŁYW PARAMETRÓW DYSKRETYZACJI NA NIEPEWNOŚĆ WYNIKÓW POMIARU OBIEKTÓW OBRAZU CYFROWEGO
Walenty OWIECZKO WPŁYW PARAMETRÓW DYSKRETYZACJI A IEPEWOŚĆ WYIKÓW POMIARU OBIEKTÓW OBRAZU CYFROWEGO STRESZCZEIE W artykule przedstaono ynk analzy nepenośc pomaru ybranych cech obektu obrazu cyfroego. Wyznaczono
Sortowanie szybkie Quick Sort
Sortowane szybke Quck Sort Algorytm sortowana szybkego opera sę na strateg "dzel zwycęża" (ang. dvde and conquer), którą możemy krótko scharakteryzować w trzech punktach: 1. DZIEL - problem główny zostae
1. Logika, funkcje logiczne, preceptron.
Sieci neuronowe 1. Logika, funkcje logiczne, preceptron. 1. (Logika) Udowodnij prawa de Morgana, prawo pochłaniania p (p q), prawo wyłączonego środka p p oraz prawo sprzeczności (p p). 2. Wyraź funkcję
2.4. Algorytmy uczenia sieci neuronowych
2.4. Algorytmy uczenia sieci neuronowych Prosta struktura sieci jednokierunkowych sprawia, że są najchętniej stosowane. Ponadto metody uczenia ich należą również do popularnych i łatwych w realizacji.
Prawdopodobieństwo i statystyka r.
Prawdopodobeństwo statystya.05.00 r. Zadane Zmenna losowa X ma rozład wyładnczy o wartośc oczewanej, a zmenna losowa Y rozład wyładnczy o wartośc oczewanej. Obe zmenne są nezależne. Oblcz E( Y X + Y =
Podstawy Sztucznej Inteligencji (PSZT)
Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12
Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.
Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 2013-11-26 Projekt pn. Wzmocnienie potencjału
Analiza danych. Analiza danych wielowymiarowych. Regresja liniowa. Dyskryminacja liniowa. PARA ZMIENNYCH LOSOWYCH
Analza danych Analza danych welowymarowych. Regresja lnowa. Dyskrymnacja lnowa. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ PARA ZMIENNYCH LOSOWYCH Parę zmennych losowych X, Y możemy
Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu
Literatura Wykład : Wprowadzenie do sztucznych sieci neuronowych Małgorzata Krętowska Wydział Informatyki Politechnika Białostocka Tadeusiewicz R: Sieci neuronowe, Akademicka Oficyna Wydawnicza RM, Warszawa
STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH
STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH 1 Test zgodnośc χ 2 Hpoteza zerowa H 0 ( Cecha X populacj ma rozkład o dystrybuance F). Hpoteza alternatywna H1( Cecha X populacj
) będą niezależnymi zmiennymi losowymi o tym samym rozkładzie normalnym z następującymi parametrami: nieznaną wartością 1 4
Zadane. Nech ( X, Y ),( X, Y ), K,( X, Y n n ) będą nezależnym zmennym losowym o tym samym rozkładze normalnym z następującym parametram: neznaną wartoścą oczekwaną EX = EY = m, warancją VarX = VarY =
synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.
Sieci neuronowe model konekcjonistyczny Plan wykładu Mózg ludzki a komputer Modele konekcjonistycze Perceptron Sieć neuronowa Uczenie sieci Sieci Hopfielda Mózg ludzki a komputer Twój mózg to 00 000 000
Pattern Classification
Pattern Classification All materials in these slides were taen from Pattern Classification (2nd ed) by R. O. Duda, P. E. Hart and D. G. Stor, John Wiley & Sons, 2000 with the permission of the authors
Wstęp do sztucznych sieci neuronowych
Wstęp do sztucznych sieci neuronowych Michał Garbowski Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Wydział Informatyki 15 grudnia 2011 Plan wykładu I 1 Wprowadzenie Inspiracja biologiczna
Nieeuklidesowe sieci neuronowe
Unwersytet Mkoaja Kopernka Wydza Fzyk, Astronom Informatyk Stosowanej IS Helena Jurkewcz numer albumu: 177622 Praca magsterska na kerunku Fzyka Komputerowa Neeukldesowe sec neuronowe Opekun pracy dyplomowej
MATEMATYKA POZIOM ROZSZERZONY Kryteria oceniania odpowiedzi. Arkusz A II. Strona 1 z 5
MATEMATYKA POZIOM ROZSZERZONY Krytera ocenana odpowedz Arkusz A II Strona 1 z 5 Odpowedz Pytane 1 2 3 4 5 6 7 8 9 Odpowedź D C C A B 153 135 232 333 Zad. 10. (0-3) Dana jest funkcja postac. Korzystając
BADANIA OPERACYJNE. Podejmowanie decyzji w warunkach niepewności. dr Adam Sojda
BADANIA OPERACYJNE Podejmowane decyzj w warunkach nepewnośc dr Adam Sojda Teora podejmowana decyzj gry z naturą Wynk dzałana zależy ne tylko od tego, jaką podejmujemy decyzję, ale równeż od tego, jak wystąp
W praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np.
Wykład 7 Uwaga: W praktyce często zdarza sę, że wynk obu prób możemy traktować jako wynk pomarów na tym samym elemence populacj np. wynk x przed wynk y po operacj dla tego samego osobnka. Należy wówczas
Problem plecakowy (KNAPSACK PROBLEM).
Problem plecakowy (KNAPSACK PROBLEM). Zagadnene optymalzac zwane problemem plecakowym swą nazwę wzęło z analog do sytuac praktyczne podobne do problemu pakowana plecaka. Chodz o to, by zapakować maksymalne
Zaawansowane metody numeryczne
Wykład 9. jej modyfkacje. Oznaczena Będzemy rozpatrywać zagadnene rozwązana następującego układu n równań lnowych z n newadomym x 1... x n : a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x
Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.
Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 211-1-18 1 Pomysł Przykłady Zastosowanie 2
Plan wykładu. Sztuczne sieci neuronowe. Sieci rekurencyjne. Sieci rekurencyjne. Wykład 8: Sieci rekurencyjne: sie Hopfielda. Sieci rekurencyjne
Plan wykładu Wykład 8: Sec rekurencyne: se Hopfelda Małgorzata Krtowska Katedra Oprogramowana e-mal: mmac@.pb.balystok.pl Sec rekurencyne Se Hopfelda tryb odtwarzana funkca energ dynamka zman stanu wykorzystane
AUTOMATYZACJA PROJEKTOWANIA KONTROLERÓW TYPU KOMBINACYJNEGO NA PLD Z WYKORZYSTANIEM SPRZĘŻEŃ ZWROTNYCH
XIV Kraowa Konferenca Automatyk Zelona Góra, 4-7 czerwca 00 AUTOMATYZACJA PROJEKTOWAIA KOTROLERÓW TYPU KOMBIACYJEGO A PLD Z WYKORZYSTAIEM SPRZĘŻEŃ ZWROTYCH Adam KLIMOWICZ*, Walery SOŁOWJEW** * Poltechnka
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych
KURS STATYSTYKA. Lekcja 6 Regresja i linie regresji ZADANIE DOMOWE. www.etrapez.pl Strona 1
KURS STATYSTYKA Lekcja 6 Regresja lne regresj ZADANIE DOMOWE www.etrapez.pl Strona 1 Część 1: TEST Zaznacz poprawną odpowedź (tylko jedna jest prawdzwa). Pytane 1 Funkcja regresj I rodzaju cechy Y zależnej
Optymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
Sztuczne sieci neuronowe
Sztuczne sec neuronoe model konekconstyczny 2 Plan ykładu Geneza modelu konekconstycznego Głóne cechy Model sztucznego neuronu Archtektury sec neuronoych Proces uczena sę sec Uczene poedynczego neuronu
sieci jednowarstwowe w MATLABie LABORKA Piotr Ciskowski
sieci jednowarstwowe w ATLABie LABORKA Piotr Ciskowski trzy funkcje do obsługi sieci jednowarstwowej : init1.m - tworzy sieć, inicjuje wagi (losowo) dzialaj1.m symuluje działanie sieci (na pojedynczym
Wykład z Podstaw matematyki dla studentów Inżynierii Środowiska. Wykład 8. CAŁKI NIEOZNACZONE. ( x) 2 cos2x
Wykład z Podsaw maemayk dla sudenów Inżyner Środowska Wykład 8. CŁKI NIEOZNCZONE Defnca (funkca perwona) Nech F es funkcą perwoną funkc f na przedzale I, eżel F '( ) f ( ) dla każdego I. Udowodnć, że funkce
Beata Szymańska Wojciech Topolski Marcin Tomasik KWANTYZACJA WEKTOROWA
Beata Szymańska Wocech Topolsk Marcn Tomask KWANTYZACJA WEKTOROWA 1 SPIS TREŚCI 1. Idea kwantyzac wektorowe...3 1.1 Kwantyzaca...3 1.2 Kwantyzaca wektorowa...3 1.3 Cechy kwantyzac wektorowe...3 2. Fazy
METODY INŻYNIERII WIEDZY
METODY INŻYNIERII WIEDZY SZTUCZNE SIECI NEURONOWE MLP Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i Inżynierii
BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.
Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej BIOCYBERNETYKA Adrian Horzyk SIECI NEURONOWE www.agh.edu.pl Mózg inspiruje nas od wieków Co takiego
7. Wykład VII: Warunki Kuhna-Tuckera
Wocech Grega, Metody Optymalzac 7 Wykład VII: Warunk Kuhna-Tuckera 7 Warunk koneczne stnena ekstremum Rozważane est zadane z ogranczenam nerównoścowym w postac: mn F( x ) x X X o F( x ), o { R x : h n
Natalia Nehrebecka. Zajęcia 4
St ł Cchock Stansław C h k Natala Nehrebecka Zajęca 4 1. Interpretacja parametrów przy zmennych zerojedynkowych Zmenne 0 1 Interpretacja przy zmennej 0 1 w modelu lnowym względem zmennych objaśnających
Zapis informacji, systemy pozycyjne 1. Literatura Jerzy Grębosz, Symfonia C++ standard. Harvey M. Deitl, Paul J. Deitl, Arkana C++. Programowanie.
Zaps nformacj, systemy pozycyjne 1 Lteratura Jerzy Grębosz, Symfona C++ standard. Harvey M. Detl, Paul J. Detl, Arkana C++. Programowane. Zaps nformacj w komputerach Wszystke elementy danych przetwarzane
Stanisław Cichocki. Natalia Nehrebecka. Wykład 6
Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Interpretacja parametrów przy zmennych objaśnających cągłych Semelastyczność 2. Zastosowane modelu potęgowego Model potęgowy 3. Zmenne cągłe za zmenne dyskretne
Statystyka Inżynierska
Statystyka Inżynerska dr hab. nż. Jacek Tarasuk AGH, WFIS 013 Wykład DYSKRETNE I CIĄGŁE ROZKŁADY JEDNOWYMIAROWE Zmenna losowa, Funkcja rozkładu, Funkcja gęstośc, Dystrybuanta, Charakterystyk zmennej, Funkcje
Analiza danych OGÓLNY SCHEMAT. http://zajecia.jakubw.pl/ Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja)
Analza danych Dane trenngowe testowe. Algorytm k najblższych sąsadów. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ OGÓLNY SCHEMAT Mamy dany zbór danych podzelony na klasy decyzyjne, oraz
Uczenie sieci neuronowych i bayesowskich
Wstęp do metod sztucznej inteligencji www.mat.uni.torun.pl/~piersaj 2009-01-22 Co to jest neuron? Komputer, a mózg komputer mózg Jednostki obliczeniowe 1-4 CPU 10 11 neuronów Pojemność 10 9 b RAM, 10 10
Matematyka finansowa r. Komisja Egzaminacyjna dla Aktuariuszy. LXVIII Egzamin dla Aktuariuszy z 29 września 2014 r.
Komsa Egzamnacyna dla Aktuaruszy LXVIII Egzamn dla Aktuaruszy z 29 wrześna 14 r. Część I Matematyka fnansowa WERSJA TESTU A Imę nazwsko osoby egzamnowane:... Czas egzamnu: 0 mnut 1 1. W chwl T 0 frma ABC
Pattern Classification
attern Classfcaton All materals n these sldes were taken from attern Classfcaton nd ed by R. O. Duda,. E. Hart and D. G. Stork, John Wley & Sons, 000 wth the permsson of the authors and the publsher Chapter
1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda
Sieci neuropodobne 1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN Agenda Trochę neurobiologii System nerwowy w organizmach żywych tworzą trzy
WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania
WYKŁAD 4 Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania PLAN WYKŁADU Metody uczenia sieci: Uczenie perceptronu Propagacja wsteczna Zastosowania Sterowanie (powtórzenie) Kompresja obrazu Rozpoznawanie
METODY INTELIGENCJI OBLICZENIOWEJ wykład 5
METODY INTELIGENCJI OBLICZENIOWEJ wykład 5 1 2 SZTUCZNE SIECI NEURONOWE cd 3 UCZENIE PERCEPTRONU: Pojedynczy neuron (lub 1 warstwa neuronów) typu percep- tronowego jest w stanie rozdzielić przestrzeń obsza-
WikiWS For Business Sharks
WkWS For Busness Sharks Ops zadana konkursowego Zadane Opracowane algorytmu automatyczne przetwarzającego zdjęce odręczne narysowanego dagramu na tablcy lub kartce do postac wektorowej zapsanej w formace
Przykład 5.1. Kratownica dwukrotnie statycznie niewyznaczalna
rzykład.. Kratownca dwukrotne statyczne newyznaczana oecene: korzystaąc z metody sł wyznaczyć sły w prętach ponższe kratowncy. const Rozwązane zadana rozpoczynamy od obczena stopna statyczne newyznaczanośc
Sztuczne sieci neuronowe
Sztuczne sec neuronoe model konekconstyczny 2 Plan ykładu Geneza modelu konekconstycznego Głóne cechy Model sztucznego neuronu Archtektury sec neuronoych Proces uczena sę sec Uczene poedynczego neuronu
Uczenie Wielowarstwowych Sieci Neuronów o
Plan uczenie neuronu o ci gªej funkcji aktywacji uczenie jednowarstwowej sieci neuronów o ci gªej funkcji aktywacji uczenie sieci wielowarstwowej - metoda propagacji wstecznej neuronu o ci gªej funkcji
TŁUMIENIE DRGAŃ SKRĘTNYCH DWUMASOWEGO UKŁADU NAPĘDOWEGO PRACUJĄCEGO W ADAPTACYJNEJ STRUKTURZE STEROWANIA Z NEURONOWO-ROZMYTYMI REGULATORAMI TYPU TSK
Prace Naukowe Instytutu Maszyn, Napędów Pomarów Elektrycznych Nr 69 Poltechnk Wrocławske Nr 69 Studa Materały Nr 33 03 Sebastan KNYCHAS* regulatory neuronowo-rozmyte TSK, adaptacyna struktura sterowana,
SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe
SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe JOANNA GRABSKA-CHRZĄSTOWSKA Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA BUDOWA RZECZYWISTEGO NEURONU
Sztuczne sieci neuronowe
Wydział Zarządzania AGH Katedra Informatyki Stosowanej Sztuczne sieci neuronowe Sztuczne sieci neuronowe Wprowadzenie Trochę historii Podstawy działania Funkcja aktywacji Typy sieci 2 Wprowadzenie Zainteresowanie