SZTUCZNA INTELIGENCJA
|
|
- Bogdan Zawadzki
- 7 lat temu
- Przeglądów:
Transkrypt
1 SZTUCZNA INTELIGENCJA WYKŁAD 5. SZTUCZNE SIECI NEURONOWE REGRESJA Częstochowa 4 Dr hab. nż. Grzegorz Dudek Wdzał Elektrczn Poltechnka Częstochowska
2 PROBLEM APROKSYMACJI FUNKCJI Aproksmaca funkc przblżane funkc, polegaące na wznaczanu dla dane funkc f() take funkc h(), która w określonm sense nalepe ą przblża. Przblżene w tm wpadku rozumane est ako mnmalzaca pewne funkc błędu. Często marą błędu est średn błąd kwadratow. Tpowe zadane aproksmac dan est zbór punktów (np. pomarowch) 7 Zakładam postać funkc aproksmuące, np. funkcę lnową: h ( ) a + b gdze a b to współcznnk, które należ tak dobrać, ab błąd aproksmac bł ak namnesz
3 3 Błąd aproksmac (M oznacza lczbę punktów): ( ) mn ) ( M M e h E W wnku otrzmuem aproksmantę: Reprezentaca grafczna funkc aproksmuące: e PROBLEM APROKSYMACJI FUNKCJI
4 MODEL NEURONU W przpadku aproksmac funkc welowmarowe, model ma postać: Jest to model neuronu, któr realzue funkcę: n h( ) g w 4
5 FUNKCJE AKTYWACJI Funkce naczęśce użwane ako funkce aktwac:. sgmodalna unpolarna: g( u) + ep( βu). sgmodalna bpolarna: g( u) lub g( u) tgh( βu) + ep( βu) 3. lnowa: g( u) βu.5 g(u) f(u) u 5
6 SIEĆ NEURONOWA Poedncz neuron ma ogranczone zdolnośc aproksmacne. Ab aproksmować bardze złożone funkce łącz sę wele neuronów w seć. Funkce realzowane przez neuron daą po złożenu dobrą aproksmantę. Udowodnono, że seć taka, zwana welowarstwowm perceptronem, może aproksmować dowolną funkcę z dowolne małm błędem. Seć może posadać węce nż edną warstwę ukrtą oraz węce nż eden neuron na wścu. 6
7 7 Seć uczm na zborze trenngowm (uczącm) złożonm z wektorów weścowch (zmennch nezależnch) skoarzonch z nm wartośc pożądanch odpowedz (zmenna zależna). Seć może meć klka wść, wted mam do cznena z wektorem pożądane odpowedz. Każdą parę nazwam wzorcem uczącm. Uczene przebega teracne:. Na wstępe losuem wag sec doberam parametr uczena sec.. Na weśce sec podaem (prezentuem) -t wektor weścow. Składowe tego wektora są przemnażane przez wag perwsze warstw, następne sumowane przetwarzane przez funkce aktwac neuronów. Na wścu tch neuronów otrzmuem wektor v [v v v m ], którego składowe przemnażane są przez wag druge warstw, sumowane przetwarzane przez funkcę aktwac neuronu w warstwe wścowe. Otrzmuem wśce ŷ. Poneważ wag bł losowe, to co otrzmuem na wścu w perwszm kroku est przpadkowe. Możem wznaczć błąd sec: (),, (), (), (), ) ˆ ( + m k n k k m v w w g w g v w g e UCZENIE SIECI NEURONOWEJ
8 UCZENIE SIECI NEURONOWEJ Błąd ten służ do korekt wag. 3. W faze wsteczne propagac błędu błąd wędrue od wśca w kerunku weść. Naperw błąd przechodz na drugą stronę neuronu wścowego, wmaga to wznaczene pochodne funkc aktwac tego neuronu. Następne oblcza sę składowe tego błędu wnoszone przez poszczególne weśca neuronu wścowego modfkue sę wag zwązane z tm weścam. Dale sgnał błędu wędruą na drugą stronę neuronów ukrtch wkorzstwane są do adaptac wag zwązanch z weścam tch neuronów. Po adaptac wag błąd dla -tego wzorca uczącego będze mnesz. Szczegółow ops metod wsteczne propagac błędu można znaleźć w [Oso]. 4. Krok 3 powtarzam dla wszstkch wzorców uczącch. Prezentaca wszstkch wzorców ze zboru uczącego nazwa sę epoką. Trenng sec wmaga welu epok uczena. W efekce uczena mnmalzowan est błąd średnokwadratow po wszstkch wzorcach uczącch: E M e mn 8
9 ALGORYTM WSTECZNEJ PROPAGACJI BŁĘDU Celem est mnmalzaca funkc błędu sec: E m () () m n () e ( ˆ ) g w v + w v g w g k w () k, k + w () v Do znalezena mnmum stosue sę metodę gradentową zwaną metodą nawększego spadku, zgodne z którą przrost wag określa sę wg kerunku uemnego gradentu: w η E(w) gdze w est wektorem wag, η > współcznnkem uczena, a E E E E( w ),,..., () () () w, w, w m est gradentem błędu. E w - gradent funkc błędu.5.5 w w w - - 9
10 ALGORYTM WSTECZNEJ PROPAGACJI BŁĘDU Pochodne cząstkowe funkc błędu względem wag warstw wścwe: m () () () gdze u w v + w v. E w () g( u ( ˆ ) u () () ) v,,,..., m () ( ) g( u ) Wprowadźm oznaczene: δ ( ˆ ), stąd regułę aktualzac wag neuronu wścowego () u można zapsać: () () w ηδ v. Pochodne cząstkowe błędu względem wag warstw ukrte: E w () k, () () ˆ v g( u ) () g( u ) ( ˆ ) ( ˆ ) wk, () k,,..., m; k,,..., n () () v wk, u u () gdze u w n k () k, k.
11 ALGORYTM WSTECZNEJ PROPAGACJI BŁĘDU () () () ( ) g( u ) () g( u ) () () g( u ) E () Przmuąc oznaczene: δ ( ˆ ) w () k, δ w () k, otrzmue sę δ () () k u u u w wzór na aktualzacę wag neuronów warstw ukrte: () () w k, ηδ Po wznaczenu poprawek dla wag dokonue sę aktualzac wag: w( l + ) w( l) + w Metoda wsteczne propagac błędu wmaga, a b funkce aktwac bł różnczkowalne. Skuteczność metod zależ od kształtu funkc błędu (welomodalność, płaske obszar), punktu startowego wag, długośc kroku (η). Algortm utka w mnmach lokalnch. Istneą nne metod uczena, które w uproszczon sposób wznaczaą kerunek przesunęca wektora wag (algortm: zmenne metrk, Levenberga Marquardta, gradentów sprzężonch). k k,
12 ALGORYTM WSTECZNEJ PROPAGACJI BŁĘDU Przkładow przebeg błędu ego gradent w kolench epokach Mean Squared Error (mse) Best Tranng Performance s.9853 at epoch 3 - Tran Best Epochs gradent Gradent.497, at epoch Epochs Po nauczenu sec sprawdzam e dzałane na nowm zborze danch zwanm testowm. Błęd wznaczone na tm zborze śwadczą o akośc dzałana sec.
13 PROBLEMY UCZENIA SIECI W procese uczena musm rozstrzgnąć klka problemów: ak długo seć ma sę uczć le pownno bć neuronów w warstwe ukrte ake pownn bć funkce aktwac neuronów aką metodę uczena wbrać cz w ak sposób wstępne przetworzć dane..8.6 Jeśl trenng est zbt krótk lub/ lczba neuronów zbt mała -. seć będze nedouczona (duże błęd), zbt dług trenng lub/ -.4 zbt duża lczba neuronów skutkue przeuczenem błęd -.6 uzskane na zborze uczącm będą blske, lecz błęd na zborze testowm okażą sę duże
14 PROBLEMY UCZENIA SIECI Seć pownna posadać zdolność uogólnana (generalzac) zdobte wedz na nowe przkład, które ne uczestnczł w procese uczena. Ab wzmocnć tę zdolność w trakce uczena w każde epoce testue sę seć na tzw. zborze waldacnm. Jeśl błąd na tm zborze przestae maleć lub zaczna wzrastać, co oznacza, że seć trac zdolność uogólnana, przerwa sę trenng. Best Valdaton Performance s.3974 at epoch Mean Squared Error (mse) - - Tran Valdaton Test Best Epochs 4
15 DOPASOWANIE MODELU Output ~.8*Target + 4. Output ~.8*Target Tranng: R.97 Data Ft Y T Target Test: R.934 Data Ft Y T Target Output ~.8*Target + 4 Output ~.86*Target Valdaton: R.9993 Data Ft Y T Target All: R.956 Data Ft Y T Target Współcznnk determnac: R M M ( ) ( ) ) gdze wartość średna pożądanch odpowedz (target). R, -,5 - dopasowane nezadowalaące,5 -,6 - dopasowane słabe,6 -,8 - dopasowane zadowalaące,8 -,9 - dopasowane dobre,9 -, - dopasowane bardzo dobre Lczba przpadków 5 Hstogram - Błąd Zero Error 5
Wykład 2: Uczenie nadzorowane sieci neuronowych - I
Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za
Wykład 2: Uczenie nadzorowane sieci neuronowych - I
Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za
Plan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty)
Plan wykładu Dzałane neuronu dyskretnego warstwy neuronów dyskretnych Wykład : Reguły uczena sec neuronowych. Sec neuronowe ednokerunkowe. Reguła perceptronowa Reguła Wdrowa-Hoffa Reguła delta ałgorzata
Sztuczne sieci neuronowe
Sztuczne sec neuronowe Jerzy Stefanowsk Plan wykładu 1. Wprowadzene 2. Model sztucznego neuronu. 3. Topologe sec neuronowych 4. Reguły uczena sec neuronowych. 5. Klasyfkaca sec neuronowych. 6. Sec warstwowe
Sztuczna Inteligencja Tematy projektów Sieci Neuronowe
PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia
wiedzy Sieci neuronowe (c.d.)
Metody detekci uszkodzeń oparte na wiedzy Sieci neuronowe (c.d.) Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 8 Metody detekci uszkodzeń oparte na wiedzy Wprowadzenie
IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ
IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,
SYSTEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE METODY KLASYFIKACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.
SYSEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE MEODY KLASYFIKACJI Częstochowa 4 Dr hab. nż. Grzegorz Dude Wydzał Eletryczny Poltechna Częstochowsa FUNKCJE FISHEROWSKA DYSKRYMINACYJNE DYSKRYMINACJA I MASZYNA LINIOWA
Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB
Rozwązywane zadań optymalzacj w środowsku programu MATLAB Zagadnene optymalzacj polega na znajdowanu najlepszego, względem ustalonego kryterum, rozwązana należącego do zboru rozwązań dopuszczalnych. Standardowe
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 8. SZTUCZNE SIECI NEURONOWE INNE ARCHITEKTURY Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska SIEĆ O RADIALNYCH FUNKCJACH BAZOWYCH
x 1 x 2 x 3 x n w 1 w 2 Σ w 3 w n x 1 x 2 x 1 XOR x (x A, y A ) y A x A
Sieci neuronowe model konekcjonistczn Plan wkładu Perceptron - przpomnienie Uczenie nienadzorowane Sieci Hopfielda Perceptron w 3 Σ w n A Liniowo separowaln problem klasfikacji ( A, A ) Problem XOR 0 0
Uczenie sieci typu MLP
Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik
Elementy inteligencji obliczeniowej
Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego
Neuron liniowy. Najprostsza sieć warstwa elementów liniowych
Najprostsza jest jednostka lnowa: Neuron lnowy potraf ona rozpoznawać wektor wejścowy X = (x 1, x 2,..., x n ) T zapamętany we współczynnkach wagowych W = (w 1, w 2,..., w n ), Zauważmy, że y = W X Załóżmy,
Rachunek prawdopodobieństwa i statystyka W 11: Analizy zależnościpomiędzy zmiennymi losowymi Model regresji wielokrotnej
Rachunek prawdopodobeństwa statstka W 11: Analz zależnoścpomędz zmennm losowm Model regresj welokrotnej Dr Anna ADRIAN Paw B5, pok 407 adan@agh.edu.pl Model regresj lnowej Model regresj lnowej prostej
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska
Natalia Nehrebecka. Wykład 2
Natala Nehrebecka Wykład . Model lnowy Postad modelu lnowego Zaps macerzowy modelu lnowego. Estymacja modelu Wartośd teoretyczna (dopasowana) Reszty 3. MNK przypadek jednej zmennej . Model lnowy Postad
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 15. ALGORYTMY GENETYCZNE Częstochowa 014 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska TERMINOLOGIA allele wartośc, waranty genów, chromosom - (naczej
Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3
Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt
STATYSTYKA MATEMATYCZNA
STATYSTYKA MATEMATYCZNA. Wkład wstępn. Teora prawdopodobeństwa element kombnatork. Zmenne losowe ch rozkład 3. Populacje prób danch, estmacja parametrów 4. Testowane hpotez statstcznch 5. Test parametrczne
Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.
Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 211-1-18 1 Pomysł Przykłady Zastosowanie 2
Podstawy teorii falek (Wavelets)
Podstawy teor falek (Wavelets) Ψ(). Transformaca Haara (97).. Przykład pewne metody zapsu obrazu Transformaca Haara Przykład zapsu obrazu -D Podstawy matematyczne transformac Algorytmy rozkładana funkc
WYZNACZENIE ODKSZTAŁCEŃ, PRZEMIESZCZEŃ I NAPRĘŻEŃ W ŁAWACH FUNDAMENTOWYCH NA PODŁOŻU GRUNTOWYM O KSZTAŁCIE WYPUKŁYM
Budownctwo 7 Mkhal Hrtsuk, Rszard Hulbo WYZNACZNI ODKSZTAŁCŃ, PRZMISZCZŃ I NAPRĘŻŃ W ŁAWACH FNDAMNTOWYCH NA PODŁOŻ GRNTOWYM O KSZTAŁCI WYPKŁYM Wprowadzene Prz rozwązanu zagadnena przmuem, że brła fundamentowa
Plan wyk y ł k adu Mózg ludzki a komputer Komputer Mózg Jednostki obliczeniowe Jednostki pami Czas operacji Czas transmisji Liczba aktywacji/s
Sieci neuronowe model konekcjonistczn Plan wkładu Mózg ludzki a komputer Modele konekcjonistcze Sieć neuronowa Sieci Hopfielda Mózg ludzki a komputer Twój mózg to komórek, 3 2 kilometrów przewodów i (biliard)
Analiza danych OGÓLNY SCHEMAT. http://zajecia.jakubw.pl/ Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja)
Analza danych Dane trenngowe testowe. Algorytm k najblższych sąsadów. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ OGÓLNY SCHEMAT Mamy dany zbór danych podzelony na klasy decyzyjne, oraz
Stanisław Cichocki. Natalia Nehrebecka. Wykład 7
Stansław Cchock Natala Nehrebecka Wykład 7 1 1. Interakcje 2. Przyblżane model nelnowych 3. Założena KMRL 1. Interakcje 2. Przyblżane model nelnowych 3. Założena KMRL W standardowym modelu lnowym zakładamy,
Współczynnik korelacji liniowej oraz funkcja regresji liniowej dwóch zmiennych
Współcznnk korelacj lnowej oraz funkcja regresj lnowej dwóch zmennch S S r, cov współcznnk determnacj R r Współcznnk ndetermnacj ϕ r Zarówno współcznnk determnacj jak ndetermnacj po przemnożenu przez 00
Wprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu
Wprowadzene do Sec Neuronowych Algorytm wstecznej propagacj błędu Maja Czoków, Jarosław Persa --6 Powtórzene. Perceptron sgmodalny Funkcja sgmodalna: σ(x) = + exp( c (x p)) Parametr c odpowada za nachylene
Widzenie komputerowe
Widzenie komputerowe Uczenie maszynowe na przykładzie sieci neuronowych (3) źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Zdolność uogólniania sieci neuronowej R oznaczenie
Stanisław Cichocki. Natalia Nehrebecka. Wykład 6
Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Interpretacja parametrów przy zmennych objaśnających cągłych Semelastyczność 2. Zastosowane modelu potęgowego Model potęgowy 3. Zmenne cągłe za zmenne dyskretne
Zastosowania sieci neuronowych
Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką
Sztuczne sieci neuronowe
www.math.uni.lodz.pl/ radmat Cel wykładu Celem wykładu jest prezentacja różnych rodzajów sztucznych sieci neuronowych. Biologiczny model neuronu Mózg człowieka składa się z około 10 11 komórek nerwowych,
RACHUNEK NIEPEWNOŚCI POMIARU
Mędznarodowa Norma Ocen Nepewnośc Pomaru(Gude to Epresson of Uncertant n Measurements - Mędznarodowa Organzacja Normalzacjna ISO) RACHUNEK NIEPEWNOŚCI http://phscs.nst./gov/uncertant POMIARU Wrażane Nepewnośc
Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311
Sztuczne sec neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyk, p. 311 Wykład 6 PLAN: - Repetto (brevs) - Sec neuronowe z radalnym funkcjam bazowym Repetto W aspekce archtektury: zajmowalśmy
Sztuczne sieci neuronowe
2 Sztuczne sieci neuronowe Sztuczna sieć neuronowa (NN ang. Neural Network) to bardzo uproszczon model rzeczwistego biologicznego sstemu nerwowego. Sztuczną sieć neuronową można zdefiniować jako zespolon
Stanisław Cichocki. Natalia Nehrebecka. Wykład 6
Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Zastosowane modelu potęgowego Model potęgowy Przekształcene Boxa-Coxa 2. Zmenne cągłe za zmenne dyskretne 3. Interpretacja parametrów przy zmennych dyskretnych
Uczenie sieci neuronowych i bayesowskich
Wstęp do metod sztucznej inteligencji www.mat.uni.torun.pl/~piersaj 2009-01-22 Co to jest neuron? Komputer, a mózg komputer mózg Jednostki obliczeniowe 1-4 CPU 10 11 neuronów Pojemność 10 9 b RAM, 10 10
ZESTAW ZADAŃ Z INFORMATYKI
(Wpsue zdaąc przed rozpoczęcem prac) KOD ZDAJĄCEGO ZESTAW ZADAŃ Z INFORMATYKI CZĘŚĆ II (dla pozomu rozszerzonego) GRUDZIEŃ ROK 004 Czas prac 50 mnut Instrukca dla zdaącego. Proszę sprawdzć, cz zestaw zadań
Neural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych.
Neural networks Lecture Notes n Pattern Recognton by W.Dzwnel Krótka hstora McCulloch Ptts (1943) - perwszy matematyczny ops dzalana neuronu przetwarzana przez nego danych. Proste neurony, które mogly
WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania
WYKŁAD 4 Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania PLAN WYKŁADU Metody uczenia sieci: Uczenie perceptronu Propagacja wsteczna Zastosowania Sterowanie (powtórzenie) Kompresja obrazu Rozpoznawanie
p Z(G). (G : Z({x i })),
3. Wykład 3: p-grupy twerdzena Sylowa. Defncja 3.1. Nech (G, ) będze grupą. Grupę G nazywamy p-grupą, jeżel G = dla pewnej lczby perwszej p oraz k N. Twerdzene 3.1. Nech (G, ) będze p-grupą. Wówczas W
Prognozowanie i symulacje
Prognozowanie i smulacje Lepiej znać prawdę niedokładnie, niż dokładnie się mlić. J. M. Kenes dr Iwona Kowalska ikowalska@wz.uw.edu.pl Prognozowanie meod naiwne i średnie ruchome Meod naiwne poziom bez
Systemy Inteligentnego Przetwarzania wykład 3: sieci rekurencyjne, sieci samoorganizujące się
Systemy Intelgentnego Przetwarzana wykład 3: sec rekurencyne, sec samoorganzuące sę Dr nż. Jacek Mazurkewcz Katedra Informatyk Technczne e-mal: Jacek.Mazurkewcz@pwr.edu.pl Sec neuronowe ze sprzężenem Sprzężena
Projekt Sieci neuronowe
Projekt Sieci neuronowe Chmielecka Katarzyna Gr. 9 IiE 1. Problem i dane Sieć neuronowa miała za zadanie nauczyć się klasyfikować wnioski kredytowe. W projekcie wykorzystano dane pochodzące z 110 wniosków
termodynamika fenomenologiczna p, VT V, teoria kinetyczno-molekularna <v 2 > termodynamika statystyczna n(v) to jest długi czas, zachodzi
fzka statstczna stan makroskopow układ - skończon obszar przestrzenn (w szczególnośc zolowan) termodnamka fenomenologczna p, VT V, teora knetczno-molekularna termodnamka statstczna n(v) stan makroskopow
Optymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
Stanisław Cichocki. Natalia Nehrebecka. Wykład 6
Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Zastosowane modelu potęgowego Przekształcene Boxa-Coxa 2. Zmenne cągłe za zmenne dyskretne 3. Interpretacja parametrów przy zmennych dyskretnych 1. Zastosowane
Podstawy Sztucznej Inteligencji (PSZT)
Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12
sieci jednowarstwowe w MATLABie LABORKA Piotr Ciskowski
sieci jednowarstwowe w ATLABie LABORKA Piotr Ciskowski trzy funkcje do obsługi sieci jednowarstwowej : init1.m - tworzy sieć, inicjuje wagi (losowo) dzialaj1.m symuluje działanie sieci (na pojedynczym
METODY INŻYNIERII WIEDZY
METODY INŻYNIERII WIEDZY SZTUCZNE SIECI NEURONOWE MLP Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i Inżynierii
Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym
Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW 17 XII 2013 Jan Karwowski
Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.
Wstęp do teorii sztucznej inteligencji Wykład III Modele sieci neuronowych. 1 Perceptron model najprostzszy przypomnienie Schemat neuronu opracowany przez McCullocha i Pittsa w 1943 roku. Przykład funkcji
WikiWS For Business Sharks
WkWS For Busness Sharks Ops zadana konkursowego Zadane Opracowane algorytmu automatyczne przetwarzającego zdjęce odręczne narysowanego dagramu na tablcy lub kartce do postac wektorowej zapsanej w formace
; -1 x 1 spełnia powyższe warunki. Ale
AIB-Inormatka-Wkła - r Aam Ćmel cmel@.ah.eu.pl Funkcje uwkłane Przkła.ozważm równane np. nech. Ptane Cz la owolneo [] stneje tak że? Nech. Wówczas unkcja - spełna powższe warunk. Ale [ ] Q spełna je także
Uczenie Wielowarstwowych Sieci Neuronów o
Plan uczenie neuronu o ci gªej funkcji aktywacji uczenie jednowarstwowej sieci neuronów o ci gªej funkcji aktywacji uczenie sieci wielowarstwowej - metoda propagacji wstecznej neuronu o ci gªej funkcji
f x f y f, jest 4, mianowicie f = f xx f xy f yx
Zestaw 14 Pochodne wŝszch rzędów Niech będzie dana funkcja x f określona w pewnm obszarze D Przpuśćm Ŝe f x istnieją pochodne cząstkowe tej funkcji x x Pochodne cząstkowe tch pochodnch jeŝeli istnieją
Metody Sztucznej Inteligencji II
17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału
METODY INTELIGENCJI OBLICZENIOWEJ wykład 5
METODY INTELIGENCJI OBLICZENIOWEJ wykład 5 1 2 SZTUCZNE SIECI NEURONOWE cd 3 UCZENIE PERCEPTRONU: Pojedynczy neuron (lub 1 warstwa neuronów) typu percep- tronowego jest w stanie rozdzielić przestrzeń obsza-
Programowanie nieliniowe optymalizacja funkcji wielu zmiennych
Ekonomia matematczna II Ekonomia matematczna II Prowadząc ćwiczenia Programowanie nieliniowe optmalizacja unkcji wielu zmiennch Modele programowania liniowego często okazują się niewstarczające w modelowaniu
Prawdopodobieństwo i statystyka r.
Prawdopodobeństwo statystya.05.00 r. Zadane Zmenna losowa X ma rozład wyładnczy o wartośc oczewanej, a zmenna losowa Y rozład wyładnczy o wartośc oczewanej. Obe zmenne są nezależne. Oblcz E( Y X + Y =
synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.
Sieci neuronowe model konekcjonistyczny Plan wykładu Mózg ludzki a komputer Modele konekcjonistycze Perceptron Sieć neuronowa Uczenie sieci Sieci Hopfielda Mózg ludzki a komputer Twój mózg to 00 000 000
; -1 x 1 spełnia powyższe warunki. Ale
Funkcje uwkłane Przkła.ozważm równane np. nech. Ptane Cz la owolneo [ ] stneje tak że? Nech. Wówczas unkcja - spełna powższe warunk. Ale spełna je także unkcja [ ] Q. Dokłaając warunek cąłośc unkcj [ ]
1. Logika, funkcje logiczne, preceptron.
Sieci neuronowe 1. Logika, funkcje logiczne, preceptron. 1. (Logika) Udowodnij prawa de Morgana, prawo pochłaniania p (p q), prawo wyłączonego środka p p oraz prawo sprzeczności (p p). 2. Wyraź funkcję
Podstawy Sztucznej Inteligencji
Politechnika Łódzka Katedra Informatyki Stosowanej Podstawy Sztucznej Inteligencji Laboratorium Ćwiczenie 2 Wykorzystanie środowiska Matlab do modelowania sztucznych sieci neuronowych Opracowali: Dr hab
Stanisław Cichocki. Natalia Nehrebecka. Wykład 7
Stansław Cchock Natala Nehrebecka Wykład 7 1 1. Zmenne cągłe a zmenne dyskretne 2. Interpretacja parametrów przy zmennych dyskretnych 1. Zmenne cągłe a zmenne dyskretne 2. Interpretacja parametrów przy
Sortowanie szybkie Quick Sort
Sortowane szybke Quck Sort Algorytm sortowana szybkego opera sę na strateg "dzel zwycęża" (ang. dvde and conquer), którą możemy krótko scharakteryzować w trzech punktach: 1. DZIEL - problem główny zostae
W praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np.
Wykład 7 Uwaga: W praktyce często zdarza sę, że wynk obu prób możemy traktować jako wynk pomarów na tym samym elemence populacj np. wynk x przed wynk y po operacj dla tego samego osobnka. Należy wówczas
Kompresja fraktalna obrazów. obraz. 1. Kopiarka wielokrotnie redukująca 1.1. Zasada działania ania najprostszej kopiarki
Kompresa fratalna obraów. Kopara welorotne reuuąca.. Zasaa ałana ana naprostse opar Koncepca opar welorotne reuuące Naprosts prła opar. Moel matematcn obrau opara cęś ęścowa. obra weścow opara obra wścow
Wielokategorialne systemy uczące się i ich zastosowanie w bioinformatyce. Rafał Grodzicki
Welokategoralne systemy uząe sę h zastosowane w bonformatye Rafał Grodzk Welokategoralny system uząy sę (multlabel learnng system) Zbór danyh weśowyh: d X = R Zbór klas (kategor): { 2 } =...Q Zbór uząy:
Przykład 5.1. Kratownica dwukrotnie statycznie niewyznaczalna
rzykład.. Kratownca dwukrotne statyczne newyznaczana oecene: korzystaąc z metody sł wyznaczyć sły w prętach ponższe kratowncy. const Rozwązane zadana rozpoczynamy od obczena stopna statyczne newyznaczanośc
Oprogramowanie Systemów Obrazowania SIECI NEURONOWE
SIECI NEURONOWE Przedmiotem laboratorium jest stworzenie algorytmu rozpoznawania zwierząt z zastosowaniem sieci neuronowych w oparciu o 5 kryteriów: ile zwierzę ma nóg, czy żyje w wodzie, czy umie latać,
BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.
Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej BIOCYBERNETYKA Adrian Horzyk SIECI NEURONOWE www.agh.edu.pl Mózg inspiruje nas od wieków Co takiego
) będą niezależnymi zmiennymi losowymi o tym samym rozkładzie normalnym z następującymi parametrami: nieznaną wartością 1 4
Zadane. Nech ( X, Y ),( X, Y ), K,( X, Y n n ) będą nezależnym zmennym losowym o tym samym rozkładze normalnym z następującym parametram: neznaną wartoścą oczekwaną EX = EY = m, warancją VarX = VarY =
Analiza danych. Analiza danych wielowymiarowych. Regresja liniowa. Dyskryminacja liniowa. PARA ZMIENNYCH LOSOWYCH
Analza danych Analza danych welowymarowych. Regresja lnowa. Dyskrymnacja lnowa. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ PARA ZMIENNYCH LOSOWYCH Parę zmennych losowych X, Y możemy
Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE.
Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka ADALINE. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 218-1-15/22 Projekt pn.
u u u( x) u, x METODA RÓŻNIC SKOŃCZONYCH, METODA ELEMENTÓW BRZEGOWYCH i METODA ELEMENTÓW SKOŃCZONYCH
METODA RÓŻNIC SKOŃCZONYCH, METODA ELEMENTÓW BRZEGOWYCH METODA ELEMENTÓW SKOŃCZONYCH Szkc rozwązana równana Possona w przestrzen dwuwymarowe. Równane Possona to równae różnczkowe cząstkowe opsuące wele
Problemy jednoczesnego testowania wielu hipotez statystycznych i ich zastosowania w analizie mikromacierzy DNA
Problemy jednoczesnego testowana welu hpotez statystycznych ch zastosowana w analze mkromacerzy DNA Konrad Furmańczyk Katedra Zastosowań Matematyk SGGW Plan referatu Testowane w analze mkromacerzy DNA
Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu
Literatura Wykład : Wprowadzenie do sztucznych sieci neuronowych Małgorzata Krętowska Wydział Informatyki Politechnika Białostocka Tadeusiewicz R: Sieci neuronowe, Akademicka Oficyna Wydawnicza RM, Warszawa
SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW
SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW Stefan WÓJTOWICZ, Katarzyna BIERNAT ZAKŁAD METROLOGII I BADAŃ NIENISZCZĄCYCH INSTYTUT ELEKTROTECHNIKI ul. Pożaryskego 8, 04-703 Warszawa tel.
Przedziały ufności i testy parametrów. Przedziały ufności dla średniej odpowiedzi. Interwały prognoz (dla przyszłych obserwacji)
Wkład 1: Prosta regresja liniowa Statstczn model regresji liniowej Dane dla prostej regresji liniowej Przedział ufności i test parametrów Przedział ufności dla średniej odpowiedzi Interwał prognoz (dla
wiedzy Sieci neuronowe
Metody detekcji uszkodzeń oparte na wiedzy Sieci neuronowe Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 7 Wprowadzenie Okres kształtowania się teorii sztucznych sieci
Temat: Sieci neuronowe oraz technologia CUDA
Elbląg, 27.03.2010 Temat: Sieci neuronowe oraz technologia CUDA Przygotował: Mateusz Górny VIII semestr ASiSK Wstęp Sieci neuronowe są to specyficzne struktury danych odzwierciedlające sieć neuronów w
Klasyfkator lnowy Wstęp Klasyfkator lnowy jest najprostszym możlwym klasyfkatorem. Zakłada on lnową separację lnowy podzał dwóch klas mędzy sobą. Przedstawa to ponższy rysunek: 5 4 3 1 0-1 - -3-4 -5-5
Podstawy sztucznej inteligencji
wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,
METODY KOMPUTEROWE 10
MEODY KOMPUEROWE RÓWNANIA RÓŻNICZKOWE CZĄSKOWE Poechnka Poznańska Mchał Płokowak Adam Łodgowsk Mchał PŁOKOWIAK Adam ŁODYGOWSKI Konsace nakowe dr nż. Wod Kąko Poznań 00/00 MEODY KOMPUEROWE 0 RÓWNANIA RÓŻNICZKOWE
1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda
Sieci neuropodobne 1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN Agenda Trochę neurobiologii System nerwowy w organizmach żywych tworzą trzy
MODELOWANIE NEURONALNE ROZWOJU SYSTEMU ELEKTROENERGETYCZNEGO. CZĘŚĆ 2. MODELE SYSTEMU IEEE RTS
POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 82 Electrical Engineering 2015 Jerzy TCHÓRZEWSKI* Maciej PYTEL ** MODELOWANIE NEURONALNE ROZWOJU SYSTEMU ELEKTROENERGETYCZNEGO. CZĘŚĆ 2. MODELE SYSTEMU
MODELOWANIE UKŁADÓW MECHANICZNYCH Z NIEPEWNYMI PARAMETRAMI
Smlaca Andrze POWNUK Katedra Mecan Teoretczne Wdzał Bdownctwa Poltecna Śląsa w Glwcac MODELOWANIE UKŁADÓW MECHANICZNYCH Z NIEPEWNYMI PARAMETRAMI Streszczene. Wszste parametr ładów mecancznc są znane z
METODY KOMPUTEROWE 1
MTODY KOMPUTROW WIADOMOŚCI WSTĘPN MTODA ULRA Mcał PŁOTKOWIAK Adam ŁODYGOWSKI Kosultacje aukowe dr z. Wtold Kąkol Pozań 00/00 MTODY KOMPUTROW WIADOMOŚCI WSTĘPN Metod umercze MN pozwalają a ormułowae matematczc
12. FUNKCJE WIELU ZMIENNYCH. z = x + y jest R 2, natomiast jej
1. FUNKCJE WIELU ZMIENNYCH 1.1. FUNKCJE DWÓCH ZMIENNYCH Funkcją dwóch zmiennch określoną w zbiorze D R nazwam przporządkowanie każdej parze liczb () D dokładnie jednej liczb rzeczwistej z. Piszem prz tm
Sieci Neuronowe 1 Michał Bereta
Wprowadzene Zagadnena Sztucznej Intelgencj laboratorum Sec Neuronowe 1 Mchał Bereta Sztuczne sec neuronowe można postrzegać jako modele matematyczne, które swoje wzorce wywodzą z bolog obserwacj ludzkch
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa
max Wydział Elektroniki studia I st. Elektronika III r. EZI Technika optymalizacji Dr inż. Ewa Szlachcic
Zadane rograowana lnowego PL dla ogranczeń neszoścowch rz ogranczenach: a f c A b d =n, d c=n, d A =[ n], d b =, Postać anonczna zadana PL a c X : A b, Postać anonczna acerzowa zadana PL a Lczba zennch
Badania sondażowe. Braki danych Konstrukcja wag. Agnieszka Zięba. Zakład Badań Marketingowych Instytut Statystyki i Demografii Szkoła Główna Handlowa
Badana sondażowe Brak danych Konstrukcja wag Agneszka Zęba Zakład Badań Marketngowych Instytut Statystyk Demograf Szkoła Główna Handlowa 1 Błędy braku odpowedz Całkowty brak odpowedz (UNIT nonresponse)
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 4. UCZENIE SIĘ INDUKCYJNE Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska WSTĘP Wiedza pozyskana przez ucznia ma charakter odwzorowania
Interpolacja. Układ. x exp. = y 1. = y 2. = y n
MES 07 lokaln Interpolacja. Układ Interpolacja, wprowadzenie Interpolacja: po co nam to? Ptania MES polega na wznaczaniu interesującch nas parametrów w skończonej ilości punktów. A co leż pomiędz tmi punktami?
Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba
Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 1 Ćwczene 2: Perceptron WYMAGANIA 1. Sztuczne sec neuronowe budowa oraz ops matematyczny perceptronu (funkcje przejśca perceptronu), uczene perceptronu
Teoria i praktyka. Wyższa Szkoła Turystyki i Ekologii. Fizyka. WSTiE Sucha Beskidzka Fizyka
Nepewośc pomarowe. Teora praktka. Prowadząc: Dr ż. Adrzej Skoczeń Wższa Szkoła Turstk Ekolog Wdzał Iformatk, rok I Fzka 014 03 30 WSTE Sucha Beskdzka Fzka 1 Iformacje teoretcze zameszczoe a slajdach tej
Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek
Sztuczne sieci neuronowe Ćwiczenia Piotr Fulmański, Marta Grzanek Piotr Fulmański 1 Wydział Matematyki i Informatyki, Marta Grzanek 2 Uniwersytet Łódzki Banacha 22, 90-232, Łódź Polska e-mail 1: fulmanp@math.uni.lodz.pl,
Natalia Nehrebecka. Zajęcia 3
St ł Cchock Stansław C h k Natala Nehrebecka Zajęca 3 1. Dobroć dopasowana równana regresj. Współczynnk determnacj R Dk Dekompozycja warancj zmennej zależnej ż Współczynnk determnacj R. Zmenne cągłe a