Wykład 2: Uczenie nadzorowane sieci neuronowych - I
|
|
- Maksymilian Michalak
- 6 lat temu
- Przeglądów:
Transkrypt
1 Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za e nezmenny składnk aby wpływać na e dzałane modelue sę edyne dzałane poszczególnych neuronów, w szczególnośc zmenaąc wartośc wag e łączących. Dwe metodologe uczena: nadzorowane (supervsed): algorytm uczący adaptue seć stosowne do wymuszeń zewnętrznych, staraąc sę możlwe werne (t. z ak namneszym błędem) zrealzować zadaną funkcę; nenadzorowane (unsupervsed): neurony ne są "skrępowane" żadnym zewnętrznym kryterum (funkcą błedu), zadanem sec est wykryce pewnego "porządku" w danych podawanych na e weśce (np. - w ednym z prostszych przypadków - analza skupeń przykładów w przestrzen cech) Z punktu wdzena Uczena Maszynowego: w uczenu nadzorowanym seć "zna" przynależność do klas obektów podawanych na e weśce, w uczenu nenadzorowanym nformaca ta est dla ne nedostępna. Copyrght Jerzy Stefanowsk & Krzysztof Krawec Wyk³ad "Sec Neuronowe Uczene Maszynowe" Instytut Informatyk Poltechnk Poznañske 995 Wyk³. 0 Strona
2 Nadzorowane uczene poedynczego lnowego neuronu na przykładze reguły delta. Cel: nauczene neuronu możlwe werne realzac pewnego odwzorowana ( x) z F (2.) o naczęśce neznane postac analtyczne, danego w postac zboru uczącego, zaweraącego przykłady w postac par ( ) KN x, z F x, (2.2) Różnca pomędzy oczekwaną wartoścą wyśca neuronu z a wartoścą otrzymaną y stanow błąd popełnony przez neuron przy prezentac -tego przykładu z y (2.3) δ Zadanem algorytmu uczącego est mnmalzaca tego błędu dla wszystkch przykładów zboru uczącego. Błędy popełnone przez neuron dla poszczególnych przykładów da sę zagregować w edną welkość przy pomocy błędu średnokwadratowego: N 2 ( ), ( δ ) N Q z y Q Q (2.4) Copyrght Jerzy Stefanowsk & Krzysztof Krawec Wyk³ad "Sec Neuronowe Uczene Maszynowe" Instytut Informatyk Poltechnk Poznañske 995 Wyk³. 0 Strona 2
3 Metoda (nawększego) spadku gradentu Posługuąc sę metodą nawększego spadku gradentu (ang. gradent descent) dostaemy zależność pomędzy modyfkacą -te wag neuronu a zmaną wartośc błędu przezeń popełnanego przy prezentac -tego przykładu: w Q η w (2.5) Q η Q w Copyrght Jerzy Stefanowsk & Krzysztof Krawec Wyk³ad "Sec Neuronowe Uczene Maszynowe" Instytut Informatyk Poltechnk Poznañske 995 Wyk³. 0 Strona 3
4 Funkca Q est funkcą złożoną, zatem e pochodną cząstkową po w można przedstawć ako loczyn dwóch pochodnych: (2.6) co da sę dale rozwnąć (patrz wzory ): ( z y ) δ (2.7) oraz, pamętaąc o lnowym charakterze funkc yf(x): x (2.8) Ostateczne zatem, edną z możlwośc mnmalzac błędu popełnanego przez neuron est modyfkaca ego wag przy prezentac kolenych przykładów zgodna z formułą: w ηδ x (2.9) Jest to tzw. reguła delta (delta rule), zaproponowana w [Wdr60], stanowąca eden z perwszych algorytmów uczących poedynczy neuron. Copyrght Jerzy Stefanowsk & Krzysztof Krawec Wyk³ad "Sec Neuronowe Uczene Maszynowe" Instytut Informatyk Poltechnk Poznañske 995 Wyk³. 0 Strona 4
5 Wady neuronu lnowego: est w stane skuteczne oddzelć od sebe tylko te klasy, które są lnowo separowalne; nestety, nawet proste problemy rzeczywste do te klasy ne należą, np.: problem różncy symetryczne (XOR); w szczególnośc dla przypadku dwuwymarowego: x x2 yxor(x,x2) y x 2 x Seć złożona z neuronów lnowych Tworzene sec welowarstwowych z neuronów lnowych ne ma sensu: ne dae żadne nowe akośc; kombnacę dowolne lośc warstwowo połączonych ze sobą neuronów lnowych da sę zastąpć ednym neuronem lnowym: ( e) ( w x ) ( w w x ) y f K w x W zwązku z lcznym ogranczenam neuron lnowy ne znadue welu zastosowań. Bardze obecuące okazały sę neurony z nelnową funkcą aktywac. Copyrght Jerzy Stefanowsk & Krzysztof Krawec Wyk³ad "Sec Neuronowe Uczene Maszynowe" Instytut Informatyk Poltechnk Poznañske 995 Wyk³. 0 Strona 5
6 Neuron nelnowy Funkca przenosząca neuronu zwana est często w tym przypadku funkcą "ścskaącą" (squeezng functon), ako że e zadanem est odwzorować (w ogólnośc neogranczony) zakres możlwych wartośc pobudzena neuronu e w ogranczony przedzał, z reguły [0,] lub [-,]. Naczęśce stosowane funkce aktywac neuronów nelnowych: funkca sgmodalna ( ) f e β - współczynnk stromośc + exp 2β ( e) f(e) e tangens hperbolczny ( ) tanh( β e) f e funkca progowa (skoku ednostkowego) f ( e), 0, dla e Θ dla e < Θ Copyrght Jerzy Stefanowsk & Krzysztof Krawec Wyk³ad "Sec Neuronowe Uczene Maszynowe" Instytut Informatyk Poltechnk Poznañske 995 Wyk³. 0 Strona 6
7 Uczene poedynczego nelnowego neuronu Podobne ak w przypadku neuronu lnowego możemy wykorzystać metodę nawększego spadku gradentu (wzór (2.5)): w Q η w (2.0) Pochodną błędu popełnanego przez neuron da sę przedstawć ako loczyn dwóch pochodnych: (2.) Wartość perwszego czynnka pozostae bez zman w porównanu ze wzorem (2.7): δ (2.2) Natomast prawy wyraz zmen postać, z rac nelnowośc funkc aktywac; w ogólnośc: e e (2.3) Oczywśce: e x (2.4) Copyrght Jerzy Stefanowsk & Krzysztof Krawec Wyk³ad "Sec Neuronowe Uczene Maszynowe" Instytut Informatyk Poltechnk Poznañske 995 Wyk³. 0 Strona 7
8 y e natomast postać pochodne zależy od zastosowane funkc aktywac. Copyrght Jerzy Stefanowsk & Krzysztof Krawec Wyk³ad "Sec Neuronowe Uczene Maszynowe" Instytut Informatyk Poltechnk Poznañske 995 Wyk³. 0 Strona 8
9 Zaletą stosowana funkc sgmodalne est dogodna postać e pochodne ( e) f ( e) ( f ( e) ) f (2.5) Jak wdać, da sę ą wyrazć przy pomocy wartośc funkc aktywac - upraszcza to znaczne oblczena (podobne est w przypadku tangensa hperbolcznego). W takm przypadku e ( y ) y (2.6) Co ostateczne prowadz do następuące formuły określaące wartość modyfkac -te wag w x y ( y ) ηδ (2.7) Copyrght Jerzy Stefanowsk & Krzysztof Krawec Wyk³ad "Sec Neuronowe Uczene Maszynowe" Instytut Informatyk Poltechnk Poznañske 995 Wyk³. 0 Strona 9
10 Analza formuły defnuące modyfkacę wag Formuła (2.7) ηδ w x y ( y ) mów, że poprawka -te wag est proporconalna przez współczynnk prędkośc uczena η do: δ - błędu popełnanego przez neuron; neuron ne popełnaący żadnego błędu ne będze ulegał modyfkacom x - sygnału podawanego na -te weśce neuronu; synapsę "obarcza sę wną" za błędne dzałane neuronu w takm stopnu, w akm przyczynła sę do ego pobudzena y ( y ) - pochodne funkc aktywac; w przypadku funkc sgmodalne ma ona następuący kształt: f'(e) f(e) e W konsekwenc poprawk dokonywane przez formułę są slnesze, gdy tzw. punkt pracy neuronu znadue sę blsko punktu przegęca funkc f(e), t. gdy e Θ. Copyrght Jerzy Stefanowsk & Krzysztof Krawec Wyk³ad "Sec Neuronowe Uczene Maszynowe" Instytut Informatyk Poltechnk Poznañske 995 Wyk³. 0 Strona 0
Wykład 2: Uczenie nadzorowane sieci neuronowych - I
Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za
Bardziej szczegółowoSztuczne sieci neuronowe
Sztuczne sec neuronowe Jerzy Stefanowsk Plan wykładu 1. Wprowadzene 2. Model sztucznego neuronu. 3. Topologe sec neuronowych 4. Reguły uczena sec neuronowych. 5. Klasyfkaca sec neuronowych. 6. Sec warstwowe
Bardziej szczegółowoPlan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty)
Plan wykładu Dzałane neuronu dyskretnego warstwy neuronów dyskretnych Wykład : Reguły uczena sec neuronowych. Sec neuronowe ednokerunkowe. Reguła perceptronowa Reguła Wdrowa-Hoffa Reguła delta ałgorzata
Bardziej szczegółowoSztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311
Sztuczne sec neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyk, p. 311 Wykład 6 PLAN: - Repetto (brevs) - Sec neuronowe z radalnym funkcjam bazowym Repetto W aspekce archtektury: zajmowalśmy
Bardziej szczegółowoProblem plecakowy (KNAPSACK PROBLEM).
Problem plecakowy (KNAPSACK PROBLEM). Zagadnene optymalzac zwane problemem plecakowym swą nazwę wzęło z analog do sytuac praktyczne podobne do problemu pakowana plecaka. Chodz o to, by zapakować maksymalne
Bardziej szczegółowoPodstawy teorii falek (Wavelets)
Podstawy teor falek (Wavelets) Ψ(). Transformaca Haara (97).. Przykład pewne metody zapsu obrazu Transformaca Haara Przykład zapsu obrazu -D Podstawy matematyczne transformac Algorytmy rozkładana funkc
Bardziej szczegółowoSZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 5. SZTUCZNE SIECI NEURONOWE REGRESJA Częstochowa 4 Dr hab. nż. Grzegorz Dudek Wdzał Elektrczn Poltechnka Częstochowska PROBLEM APROKSYMACJI FUNKCJI Aproksmaca funkc przblżane
Bardziej szczegółowowiedzy Sieci neuronowe (c.d.)
Metody detekci uszkodzeń oparte na wiedzy Sieci neuronowe (c.d.) Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 8 Metody detekci uszkodzeń oparte na wiedzy Wprowadzenie
Bardziej szczegółowoNeural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych.
Neural networks Lecture Notes n Pattern Recognton by W.Dzwnel Krótka hstora McCulloch Ptts (1943) - perwszy matematyczny ops dzalana neuronu przetwarzana przez nego danych. Proste neurony, które mogly
Bardziej szczegółowoNeuron liniowy. Najprostsza sieć warstwa elementów liniowych
Najprostsza jest jednostka lnowa: Neuron lnowy potraf ona rozpoznawać wektor wejścowy X = (x 1, x 2,..., x n ) T zapamętany we współczynnkach wagowych W = (w 1, w 2,..., w n ), Zauważmy, że y = W X Załóżmy,
Bardziej szczegółowoZarządzanie ryzykiem w przedsiębiorstwie i jego wpływ na analizę opłacalności przedsięwzięć inwestycyjnych
dr nż Andrze Chylńsk Katedra Bankowośc Fnansów Wyższa Szkoła Menedżerska w Warszawe Zarządzane ryzykem w rzedsęborstwe ego wływ na analzę ołacalnośc rzedsęwzęć nwestycynych w w w e - f n a n s e c o m
Bardziej szczegółowoIMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ
IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,
Bardziej szczegółowoZaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych
Zaawansowane metody numeryczne Komputerowa analza zagadneń różnczkowych 1. Układy równań lnowych P. F. Góra http://th-www.f.uj.edu.pl/zfs/gora/ semestr letn 2006/07 Podstawowe fakty Równane Ax = b, x,
Bardziej szczegółowoSZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW
SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW Stefan WÓJTOWICZ, Katarzyna BIERNAT ZAKŁAD METROLOGII I BADAŃ NIENISZCZĄCYCH INSTYTUT ELEKTROTECHNIKI ul. Pożaryskego 8, 04-703 Warszawa tel.
Bardziej szczegółowoWykład 1 Zagadnienie brzegowe liniowej teorii sprężystości. Metody rozwiązywania, metody wytrzymałości materiałów. Zestawienie wzorów i określeń.
Wykład Zagadnene brzegowe lnowe teor sprężystośc. Metody rozwązywana, metody wytrzymałośc materałów. Zestawene wzorów określeń. Układ współrzędnych Kartezańsk, prostokątny. Ose x y z oznaczono odpowedno
Bardziej szczegółowoSieci Neuronowe 1 Michał Bereta
Wprowadzene Zagadnena Sztucznej Intelgencj laboratorum Sec Neuronowe 1 Mchał Bereta Sztuczne sec neuronowe można postrzegać jako modele matematyczne, które swoje wzorce wywodzą z bolog obserwacj ludzkch
Bardziej szczegółowoStanisław Cichocki. Natalia Nehrebecka. Wykład 6
Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Zastosowane modelu potęgowego Przekształcene Boxa-Coxa 2. Zmenne cągłe za zmenne dyskretne 3. Interpretacja parametrów przy zmennych dyskretnych 1. Zastosowane
Bardziej szczegółowoSystemy Inteligentnego Przetwarzania wykład 3: sieci rekurencyjne, sieci samoorganizujące się
Systemy Intelgentnego Przetwarzana wykład 3: sec rekurencyne, sec samoorganzuące sę Dr nż. Jacek Mazurkewcz Katedra Informatyk Technczne e-mal: Jacek.Mazurkewcz@pwr.edu.pl Sec neuronowe ze sprzężenem Sprzężena
Bardziej szczegółowoMetody Sztucznej Inteligencji II
17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału
Bardziej szczegółowo) będą niezależnymi zmiennymi losowymi o tym samym rozkładzie normalnym z następującymi parametrami: nieznaną wartością 1 4
Zadane. Nech ( X, Y ),( X, Y ), K,( X, Y n n ) będą nezależnym zmennym losowym o tym samym rozkładze normalnym z następującym parametram: neznaną wartoścą oczekwaną EX = EY = m, warancją VarX = VarY =
Bardziej szczegółowoPlan wykładu: Typowe dane. Jednoczynnikowa Analiza wariancji. Zasada: porównać zmienność pomiędzy i wewnątrz grup
Jednoczynnkowa Analza Waranc (ANOVA) Wykład 11 Przypomnene: wykłady zadana kursu były zaczerpnęte z podręcznków: Statystyka dla studentów kerunków techncznych przyrodnczych, J. Koronack, J. Melnczuk, WNT
Bardziej szczegółowoDiagonalizacja macierzy kwadratowej
Dagonalzacja macerzy kwadratowej Dana jest macerz A nân. Jej wartośc własne wektory własne spełnają równane Ax x dla,..., n Każde z równań własnych osobno można zapsać w postac: a a an x x a a an x x an
Bardziej szczegółowou u u( x) u, x METODA RÓŻNIC SKOŃCZONYCH, METODA ELEMENTÓW BRZEGOWYCH i METODA ELEMENTÓW SKOŃCZONYCH
METODA RÓŻNIC SKOŃCZONYCH, METODA ELEMENTÓW BRZEGOWYCH METODA ELEMENTÓW SKOŃCZONYCH Szkc rozwązana równana Possona w przestrzen dwuwymarowe. Równane Possona to równae różnczkowe cząstkowe opsuące wele
Bardziej szczegółowoWprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu
Wprowadzene do Sec Neuronowych Algorytm wstecznej propagacj błędu Maja Czoków, Jarosław Persa --6 Powtórzene. Perceptron sgmodalny Funkcja sgmodalna: σ(x) = + exp( c (x p)) Parametr c odpowada za nachylene
Bardziej szczegółowoSztuczna Inteligencja Tematy projektów Sieci Neuronowe
PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia
Bardziej szczegółowoPattern Classification
Pattern Classification All materials in these slides were taen from Pattern Classification (2nd ed) by R. O. Duda, P. E. Hart and D. G. Stor, John Wiley & Sons, 2000 with the permission of the authors
Bardziej szczegółowoStanisław Cichocki. Natalia Nehrebecka. Wykład 7
Stansław Cchock Natala Nehrebecka Wykład 7 1 1. Zmenne cągłe a zmenne dyskretne 2. Interpretacja parametrów przy zmennych dyskretnych 1. Zmenne cągłe a zmenne dyskretne 2. Interpretacja parametrów przy
Bardziej szczegółowoElementy inteligencji obliczeniowej
Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego
Bardziej szczegółowoStanisław Cichocki. Natalia Nehrebecka. Wykład 6
Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Interpretacja parametrów przy zmennych objaśnających cągłych Semelastyczność 2. Zastosowane modelu potęgowego Model potęgowy 3. Zmenne cągłe za zmenne dyskretne
Bardziej szczegółowoRozwiązywanie zadań optymalizacji w środowisku programu MATLAB
Rozwązywane zadań optymalzacj w środowsku programu MATLAB Zagadnene optymalzacj polega na znajdowanu najlepszego, względem ustalonego kryterum, rozwązana należącego do zboru rozwązań dopuszczalnych. Standardowe
Bardziej szczegółowoSztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311
Sztuczne sec neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyk, p. 311 Wykład 1 PLAN: Jak (klasyczne) komputery ocenaą flozofę Alberta Enstena Hstora korzene teor sztucznych sec neuronowych
Bardziej szczegółowoNowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba
Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 1 Ćwczene 2: Perceptron WYMAGANIA 1. Sztuczne sec neuronowe budowa oraz ops matematyczny perceptronu (funkcje przejśca perceptronu), uczene perceptronu
Bardziej szczegółowoZASTOSOWANIE KLASYCZNEGO ALGORYTMU GENETYCZNEGO DO ROZWIĄZANIA ZBILANSOWANEGO ZAGADNIENIA TRANSPORTOWEGO
Studa Materały. Mscellanea Oeconomcae Rok 6, Nr 2/22 Wydzał Zarządzana Admnstrac Unwersytetu Jana Kochanowskego w Kelcach Z a r z ą d z a n e f n a n s e Rafał Prońko ZASTOSOWANIE KLASYCZNEGO ALGORYTMU
Bardziej szczegółowoSZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 8. SZTUCZNE SIECI NEURONOWE INNE ARCHITEKTURY Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska SIEĆ O RADIALNYCH FUNKCJACH BAZOWYCH
Bardziej szczegółowon liczba zmiennych decyzyjnych c współczynniki funkcji celu a współczynniki przy zmienych decyzyjnych w warunkach
Problem decyzyny cel różne sposoby dzałana (decyze) warunk ogranczaące (determnuą zbór decyz dopuszczalnych) kryterum wyboru: umożlwa porównane efektywnośc różnych decyz dopuszczalnych z punktu wdzena
Bardziej szczegółowoPrzykład 5.1. Kratownica dwukrotnie statycznie niewyznaczalna
rzykład.. Kratownca dwukrotne statyczne newyznaczana oecene: korzystaąc z metody sł wyznaczyć sły w prętach ponższe kratowncy. const Rozwązane zadana rozpoczynamy od obczena stopna statyczne newyznaczanośc
Bardziej szczegółowoANALIZA PREFERENCJI SŁUCHACZY UNIWERSYTETU TRZECIEGO WIEKU Z WYKORZYSTANIEM WYBRANYCH METOD NIESYMETRYCZNEGO SKALOWANIA WIELOWYMIAROWEGO
Artur Zaborsk Unwersytet Ekonomczny we Wrocławu ANALIZA PREFERENCJI SŁUCHACZY UNIWERSYTETU TRZECIEGO WIEKU Z WYKORZYSTANIEM WYBRANYCH METOD NIESYMETRYCZNEGO SKALOWANIA WIELOWYMIAROWEGO Wprowadzene Od ukazana
Bardziej szczegółowoEKONOMETRIA I Spotkanie 1, dn. 05.10.2010
EKONOMETRIA I Spotkane, dn. 5..2 Dr Katarzyna Beń Program ramowy: http://www.sgh.waw.pl/nstytuty/e/oferta_dydaktyczna/ekonometra_stacjonarne_nest acjonarne/ Zadana, dane do zadań, ważne nformacje: http://www.e-sgh.pl/ben/ekonometra
Bardziej szczegółowoModele wieloczynnikowe. Modele wieloczynnikowe. Modele wieloczynnikowe ogólne. α β β β ε. Analiza i Zarządzanie Portfelem cz. 4.
Modele weloczynnkowe Analza Zarządzane Portfelem cz. 4 Ogólne model weloczynnkowy można zapsać jako: (,...,,..., ) P f F F F = n Dr Katarzyna Kuzak lub (,...,,..., ) f F F F = n Modele weloczynnkowe Można
Bardziej szczegółowoTRANZYSTOR BIPOLARNY CHARAKTERYSTYKI STATYCZNE
POLITHNIKA RZSZOWSKA Katedra Podstaw lektronk Instrkcja Nr4 F 00/003 sem. letn TRANZYSTOR IPOLARNY HARAKTRYSTYKI STATYZN elem ćwczena jest pomar charakterystyk statycznych tranzystora bpolarnego npn lb
Bardziej szczegółowoSztuczne sieci neuronowe
Sztuczne sec neuronoe model konekconstyczny 2 Plan ykładu Geneza modelu konekconstycznego Głóne cechy Model sztucznego neuronu Archtektury sec neuronoych Proces uczena sę sec Uczene poedynczego neuronu
Bardziej szczegółowoMETODY INTELIGENCJI OBLICZENIOWEJ wykład 5
METODY INTELIGENCJI OBLICZENIOWEJ wykład 5 1 2 SZTUCZNE SIECI NEURONOWE cd 3 UCZENIE PERCEPTRONU: Pojedynczy neuron (lub 1 warstwa neuronów) typu percep- tronowego jest w stanie rozdzielić przestrzeń obsza-
Bardziej szczegółowo7. Wykład VII: Warunki Kuhna-Tuckera
Wocech Grega, Metody Optymalzac 7 Wykład VII: Warunk Kuhna-Tuckera 7 Warunk koneczne stnena ekstremum Rozważane est zadane z ogranczenam nerównoścowym w postac: mn F( x ) x X X o F( x ), o { R x : h n
Bardziej szczegółowoBadania operacyjne w logistyce i zarządzaniu produkcją
Państwowa Wyższa Szkoła Zawodowa w Nowym Sączu Badana operacyne w logstyce zarządzanu produkcą cz. I Andrze Woźnak Nowy Sącz Komtet Redakcyny doc. dr Zdzsława Zacłona przewodncząca, prof. dr hab. nż. Jarosław
Bardziej szczegółowoPodstawy Sztucznej Inteligencji (PSZT)
Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12
Bardziej szczegółowoAUTOMATYKA I STEROWANIE W CHŁODNICTWIE, KLIMATYZACJI I OGRZEWNICTWIE L3 STEROWANIE INWERTEROWYM URZĄDZENIEM CHŁODNICZYM W TRYBIE PD ORAZ PID
ĆWICZENIE LABORAORYJNE AUOMAYKA I SEROWANIE W CHŁODNICWIE, KLIMAYZACJI I OGRZEWNICWIE L3 SEROWANIE INWEREROWYM URZĄDZENIEM CHŁODNICZYM W RYBIE PD ORAZ PID Wersja: 03-09-30 -- 3.. Cel ćwczena Celem ćwczena
Bardziej szczegółowoKURS STATYSTYKA. Lekcja 6 Regresja i linie regresji ZADANIE DOMOWE. www.etrapez.pl Strona 1
KURS STATYSTYKA Lekcja 6 Regresja lne regresj ZADANIE DOMOWE www.etrapez.pl Strona 1 Część 1: TEST Zaznacz poprawną odpowedź (tylko jedna jest prawdzwa). Pytane 1 Funkcja regresj I rodzaju cechy Y zależnej
Bardziej szczegółowo± Δ. Podstawowe pojęcia procesu pomiarowego. x rzeczywiste. Określenie jakości poznania rzeczywistości
Podstawowe pojęca procesu pomarowego kreślene jakośc poznana rzeczywstośc Δ zmerzone rzeczywste 17 9 Zalety stosowana elektrycznych przyrządów 1/ 1. możlwość budowy czujnków zamenających werne każdą welkość
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.
Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 2013-11-26 Projekt pn. Wzmocnienie potencjału
Bardziej szczegółowowiedzy Sieci neuronowe
Metody detekcji uszkodzeń oparte na wiedzy Sieci neuronowe Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 7 Wprowadzenie Okres kształtowania się teorii sztucznych sieci
Bardziej szczegółowoInstrukcja do ćwiczeń laboratoryjnych z przedmiotu: Badania operacyjne. Temat ćwiczenia: Problemy rozkroju materiałowego, zagadnienia dualne
Instrukca do ćwczeń laboratorynych z przedmotu: Badana operacyne Temat ćwczena: Problemy rozkrou materałowego, zagadnena dualne Zachodnopomorsk Unwersytet Technologczny Wydzał Inżyner Mechanczne Mechatronk
Bardziej szczegółowo1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda
Sieci neuropodobne 1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN Agenda Trochę neurobiologii System nerwowy w organizmach żywych tworzą trzy
Bardziej szczegółowoProjekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE
Inormatyka Podstawy Programowana 06/07 Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE 6. Równana algebraczne. Poszukujemy rozwązana, czyl chcemy określć perwastk rzeczywste równana:
Bardziej szczegółowoPlanowanie eksperymentu pomiarowego I
POLITECHNIKA ŚLĄSKA W GLIWICACH WYDZIAŁ INŻYNIERII ŚRODOWISKA ENERGETYKI INSTYTUT MASZYN URZĄDZEŃ ENERGETYCZNYCH Plaowae eksperymetu pomarowego I Laboratorum merctwa (M 0) Opracował: dr ż. Grzegorz Wcak
Bardziej szczegółowoStanisław Cichocki. Natalia Nehrebecka. Wykład 6
Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Zastosowane modelu potęgowego Model potęgowy Przekształcene Boxa-Coxa 2. Zmenne cągłe za zmenne dyskretne 3. Interpretacja parametrów przy zmennych dyskretnych
Bardziej szczegółowoPodstawy sztucznej inteligencji
wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,
Bardziej szczegółowoLiteratura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu
Literatura Wykład : Wprowadzenie do sztucznych sieci neuronowych Małgorzata Krętowska Wydział Informatyki Politechnika Białostocka Tadeusiewicz R: Sieci neuronowe, Akademicka Oficyna Wydawnicza RM, Warszawa
Bardziej szczegółowoGrupowanie. Wprowadzenie. Metody hierarchiczne. Modele mieszane (mixture models) Metody najmniejszych kwadratów. Zastosowania
Grupowane Wprowadzene Metody herarchczne Modele meszane (mxture models) Metoda Expectaton-maxmzaton (EM) Metody namneszych kwadratów Krytera akośc grupowana Algorytm k-średnch Zastosowana Statstcal Pattern
Bardziej szczegółowoNieeuklidesowe sieci neuronowe
Unwersytet Mkoaja Kopernka Wydza Fzyk, Astronom Informatyk Stosowanej IS Helena Jurkewcz numer albumu: 177622 Praca magsterska na kerunku Fzyka Komputerowa Neeukldesowe sec neuronowe Opekun pracy dyplomowej
Bardziej szczegółowosynaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.
Sieci neuronowe model konekcjonistyczny Plan wykładu Mózg ludzki a komputer Modele konekcjonistycze Perceptron Sieć neuronowa Uczenie sieci Sieci Hopfielda Mózg ludzki a komputer Twój mózg to 00 000 000
Bardziej szczegółowoInteligentne systemy przeciw atakom sieciowym
Inteligentne systemy przeciw atakom sieciowym wykład Sztuczne sieci neuronowe (SSN) Joanna Kołodziejczyk 2016 Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 1 / 36 Biologiczne
Bardziej szczegółowoNeuronowy układ szyfrujący - analiza bezpieczeństwa
XII Konerenca PLOUG Zakopane Paźdzernk 006 Neuronowy układ szyruący - analza bezpeczeństwa Potr Kotlarz Kazmerz Welk Unversty, ydgoszcz potrk@ukw.edu.pl Zbgnew Kotulsk Insttute o Fundamental Technologcal
Bardziej szczegółowoRÓWNOWAGA STACKELBERGA W GRACH SEKWENCYJNYCH
Stansław KOWALIK e-mal: skowalk@wsb.edu.pl Wyższa Szkoła Bznesu Dąbrowa Górncza RÓWNOWAGA STACKELBERGA W GRACH SEKWENCYJNYCH Streszczene Praca dotyczy nekooperacynych sekwencynych ger dwuosobowych o sume
Bardziej szczegółowo1.1 Analiza decyzji- tablica decyzyjna, klasyfikacja
A. Kaspersk, M. Kule BO- Analza decyz, drzewa decyzyne, elementy teor ger1 ANALIZA DECYZJI(AD) 1.1 Analza decyz- tablca decyzyna, klasyfkaca problemów W celu formalzac klasyfkac problemów decyzynych wprowadzmy
Bardziej szczegółowoZestaw zadań 4: Przestrzenie wektorowe i podprzestrzenie. Liniowa niezależność. Sumy i sumy proste podprzestrzeni.
Zestaw zadań : Przestrzene wektorowe podprzestrzene. Lnowa nezależność. Sumy sumy proste podprzestrzen. () Wykazać, że V = C ze zwykłym dodawanem jako dodawanem wektorów operacją mnożena przez skalar :
Bardziej szczegółowoI. Elementy analizy matematycznej
WSTAWKA MATEMATYCZNA I. Elementy analzy matematycznej Pochodna funkcj f(x) Pochodna funkcj podaje nam prędkość zman funkcj: df f (x + x) f (x) f '(x) = = lm x 0 (1) dx x Pochodna funkcj podaje nam zarazem
Bardziej szczegółowoV. WPROWADZENIE DO PRZESTRZENI FUNKCYJNYCH
Krs na Stdach Doktoranckch Poltechnk Wrocławskej wersja: lty 007 34 V. WPROWADZENIE DO PRZESTRZENI FUNKCYJNYCH. Zbór np. lczb rzeczywstych a, b elementy zbor A a A b A, podzbór B zbor A : B A, sma zborów
Bardziej szczegółowoSztuczne sieci neuronowe
www.math.uni.lodz.pl/ radmat Cel wykładu Celem wykładu jest prezentacja różnych rodzajów sztucznych sieci neuronowych. Biologiczny model neuronu Mózg człowieka składa się z około 10 11 komórek nerwowych,
Bardziej szczegółowoWykład 5. Skręcanie nieskrępowane prętów o przekroju prostokątnym.
Adresy internetowe, pod którymi można znaleźć wykłady z Wytrzymałości Materiałów: Politechnika Krakowska http://limba.wil.pk.edu.pl/kwm-edu.html Politechnika Łódzka http://kmm.p.lodz.pl/dydaktyka Wykład
Bardziej szczegółowoStanisław Cichocki Natalia Nehrebecka. Zajęcia 4
Stansław Cchock Natala Nehrebecka Zajęca 4 1. Interpretacja parametrów przy zmennych zerojedynkowych Zmenne 0-1 Interpretacja przy zmennej 0 1 w modelu lnowym względem zmennych objaśnających Interpretacja
Bardziej szczegółowoWielokategorialne systemy uczące się i ich zastosowanie w bioinformatyce. Rafał Grodzicki
Welokategoralne systemy uząe sę h zastosowane w bonformatye Rafał Grodzk Welokategoralny system uząy sę (multlabel learnng system) Zbór danyh weśowyh: d X = R Zbór klas (kategor): { 2 } =...Q Zbór uząy:
Bardziej szczegółowoPlan wykładu. Sztuczne sieci neuronowe. Uczenie nienadzorowane (bez nauczyciela) Uczenie nienadzorowane - przykłady
Plan yładu Wyład 10: Sec samoorganzuce s na zasadze spółzaodncta Sec samoorganzuace s na zasadze spółzaodncta: uczene nenadzoroane uczene onurencyne reguła WTA reguła WTM antoane etoroe mapa cech Kohonena
Bardziej szczegółowo1. Logika, funkcje logiczne, preceptron.
Sieci neuronowe 1. Logika, funkcje logiczne, preceptron. 1. (Logika) Udowodnij prawa de Morgana, prawo pochłaniania p (p q), prawo wyłączonego środka p p oraz prawo sprzeczności (p p). 2. Wyraź funkcję
Bardziej szczegółowoAnaliza danych. Analiza danych wielowymiarowych. Regresja liniowa. Dyskryminacja liniowa. PARA ZMIENNYCH LOSOWYCH
Analza danych Analza danych welowymarowych. Regresja lnowa. Dyskrymnacja lnowa. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ PARA ZMIENNYCH LOSOWYCH Parę zmennych losowych X, Y możemy
Bardziej szczegółowoNatalia Nehrebecka. Zajęcia 3
St ł Cchock Stansław C h k Natala Nehrebecka Zajęca 3 1. Dobroć dopasowana równana regresj. Współczynnk determnacj R Dk Dekompozycja warancj zmennej zależnej ż Współczynnk determnacj R. Zmenne cągłe a
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3
Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt
Bardziej szczegółowoLaboratorium ochrony danych
Laboratorum ochrony danych Ćwczene nr Temat ćwczena: Cała skończone rozszerzone Cel dydaktyczny: Opanowane programowej metody konstruowana cał skończonych rozszerzonych GF(pm), poznane ch własnośc oraz
Bardziej szczegółowoPoszukiwanie optymalnego wyrównania harmonogramu zatrudnienia metodą analityczną
Mieczysław POŁOŃSKI Wydział Budownictwa i Inżynierii Środowiska, Szkoła Główna Gospodarstwa Wieskiego, Warszawa, ul. Nowoursynowska 159 e-mail: mieczyslaw_polonski@sggw.pl Poszukiwanie optymalnego wyrównania
Bardziej szczegółowoZastosowania sieci neuronowych
Zastosowania sieci neuronowych klasyfikacja LABORKA Piotr Ciskowski zadanie 1. klasyfikacja zwierząt sieć jednowarstwowa żródło: Tadeusiewicz. Odkrywanie własności sieci neuronowych, str. 159 Przykład
Bardziej szczegółowoNatalia Nehrebecka. Zajęcia 4
St ł Cchock Stansław C h k Natala Nehrebecka Zajęca 4 1. Interpretacja parametrów przy zmennych zerojedynkowych Zmenne 0 1 Interpretacja przy zmennej 0 1 w modelu lnowym względem zmennych objaśnających
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.
Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 211-1-18 1 Pomysł Przykłady Zastosowanie 2
Bardziej szczegółowoDiagnostyka układów kombinacyjnych
Dagnostyka układów kombnacyjnych 1. Wprowadzene Dagnostyka obejmuje: stwerdzene stanu układu, systemu lub ogólne sec logcznej. Jest to tzw. kontrola stanu wykrywająca czy dzałane sec ne jest zakłócane
Bardziej szczegółowoWprowadzenie do Sieci Neuronowych Sieci rekurencyjne
Wprowadzene do Sec Neuronowych Sec rekurencyjne M. Czoków, J. Persa 2010-12-07 1 Powtórzene Konstrukcja autoasocjatora Hopfelda 1.1 Konstrukcja Danych jest m obrazów wzorcowych ξ 1..ξ m, gdze każdy pojedynczy
Bardziej szczegółowoModel ASAD. ceny i płace mogą ulegać zmianom (w odróżnieniu od poprzednio omawianych modeli)
Model odstawowe założena modelu: ceny płace mogą ulegać zmanom (w odróżnenu od poprzedno omawanych model) punktem odnesena analzy jest obserwacja pozomu produkcj cen (a ne stopy procentowej jak w modelu
Bardziej szczegółowo9. Rozmyte systemy z bazami wiedzy
Podstawy teor systemów rozmytych z zadanam 9. Rozmyte systemy z bazam wedzy 9.. Wprowadzene System ekspertowy lub system z bazą wedzy (ang. knowledge-based system), est tzw. ntelgentnym programem komputerowym,
Bardziej szczegółowoStatystyka Opisowa 2014 część 2. Katarzyna Lubnauer
Statystyka Opsowa 2014 część 2 Katarzyna Lubnauer Lteratura: 1. Statystyka w Zarządzanu Admr D. Aczel 2. Statystyka Opsowa od Podstaw Ewa Waslewska 3. Statystyka, Lucjan Kowalsk. 4. Statystyka opsowa,
Bardziej szczegółowoInteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska
Bardziej szczegółowoPokazać, że wyżej zdefiniowana struktura algebraiczna jest przestrzenią wektorową nad ciałem
Zestaw zadań : Przestrzene wektorowe. () Wykazać, że V = C ze zwykłym dodawanem jako dodawanem wektorów operacją mnożena przez skalar : C C C, (z, v) z v := z v jest przestrzeną lnową nad całem lczb zespolonych
Bardziej szczegółowoZastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2013/2014
Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner rok akademicki 2013/2014 Sieci neuronowe Sieci neuronowe W XIX wieku sformułowano teorię opisującą podstawowe
Bardziej szczegółowoSztuczne sieci neuronowe
Sztuczne sec neuronoe model konekconstyczny 2 Plan ykładu Geneza modelu konekconstycznego Głóne cechy Model sztucznego neuronu Archtektury sec neuronoych Proces uczena sę sec Uczene poedynczego neuronu
Bardziej szczegółowoProjekt Sieci neuronowe
Projekt Sieci neuronowe Chmielecka Katarzyna Gr. 9 IiE 1. Problem i dane Sieć neuronowa miała za zadanie nauczyć się klasyfikować wnioski kredytowe. W projekcie wykorzystano dane pochodzące z 110 wniosków
Bardziej szczegółowoMetody analizy obwodów
Metody analzy obwodów Metoda praw Krchhoffa, która jest podstawą dla pozostałych metod Metoda transfguracj, oparte na przekształcenach analzowanego obwodu na obwód równoważny Metoda superpozycj Metoda
Bardziej szczegółowoCAŁKOWANIE NUMERYCZNE całki pojedyncze
CAŁKOWANIE NUMERYCZNE całk pojedyncze Kwadratury nterpolacyjne Kwadratury nterpolacyjne Rozpatrujemy funkcję f() cągłą ogranczoną w przedzale domknętym [a, b]. Przedzał [a, b] dzelmy na skończoną lczbę
Bardziej szczegółowoWYZNACZENIE DYSYPACJI KINETYCZNEJ ENERGII TURBULENCJI PRZY UŻYCIU PRAWA -5/3. E c = E k + E p + E w
Metrologa... - "W y z n ac z an e d y s y p ac z p raw a -5 / " WYZNACZENIE DYSYPACJI KINETYCZNEJ ENERGII TRBLENCJI PRZY ŻYCI PRAWA -5/. WPROWADZENIE Energa przepływaącego płyn E c dem E p dem E c E k
Bardziej szczegółowoMikroekonometria 5. Mikołaj Czajkowski Wiktor Budziński
Mkroekonometra 5 Mkołaj Czajkowsk Wktor Budzńsk Uogólnone modele lnowe Uogólnone modele lnowe (ang. Generalzed Lnear Models GLM) Różną sę od standardowego MNK na dwa sposoby: Rozkład zmennej objaśnanej
Bardziej szczegółowoWstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.
Wstęp do teorii sztucznej inteligencji Wykład III Modele sieci neuronowych. 1 Perceptron model najprostzszy przypomnienie Schemat neuronu opracowany przez McCullocha i Pittsa w 1943 roku. Przykład funkcji
Bardziej szczegółowoSieci Neuronowe - Rok III - kierunek IS w IFAiIS UJ 2008/2009. Sieci Neuronowe. Wykład 3
Sieci Neuronowe - Rok III - kierunek IS w IFAiIS UJ 2008/2009 Sieci Neuronowe Wykład 3 1. Zdolności uogólniania sieci, weryfikacja procesu uczenia 2. Perceptron raz jeszcze. 3. Nieliniowe sieci wielowarstwowe.
Bardziej szczegółowop Z(G). (G : Z({x i })),
3. Wykład 3: p-grupy twerdzena Sylowa. Defncja 3.1. Nech (G, ) będze grupą. Grupę G nazywamy p-grupą, jeżel G = dla pewnej lczby perwszej p oraz k N. Twerdzene 3.1. Nech (G, ) będze p-grupą. Wówczas W
Bardziej szczegółowoBIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.
Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej BIOCYBERNETYKA Adrian Horzyk SIECI NEURONOWE www.agh.edu.pl Mózg inspiruje nas od wieków Co takiego
Bardziej szczegółowoKlasyfkator lnowy Wstęp Klasyfkator lnowy jest najprostszym możlwym klasyfkatorem. Zakłada on lnową separację lnowy podzał dwóch klas mędzy sobą. Przedstawa to ponższy rysunek: 5 4 3 1 0-1 - -3-4 -5-5
Bardziej szczegółowo