SZTUCZNA INTELIGENCJA

Wielkość: px
Rozpocząć pokaz od strony:

Download "SZTUCZNA INTELIGENCJA"

Transkrypt

1 SZTUCZNA INTELIGENCJA WYKŁAD 5. SZTUCZNE SIECI NEURONOWE REGRESJA Częstochowa 4 Dr hab. nż. Grzegorz Dudek Wdzał Elektrczn Poltechnka Częstochowska

2 PROBLEM APROKSYMACJI FUNKCJI Aproksmaca funkc przblżane funkc, polegaące na wznaczanu dla dane funkc f() take funkc h(), która w określonm sense nalepe ą przblża. Przblżene w tm wpadku rozumane est ako mnmalzaca pewne funkc błędu. Często marą błędu est średn błąd kwadratow. Tpowe zadane aproksmac dan est zbór punktów (np. pomarowch) 7 Zakładam postać funkc aproksmuące, np. funkcę lnową: h ( ) a + b gdze a b to współcznnk, które należ tak dobrać, ab błąd aproksmac bł ak namnesz

3 3 Błąd aproksmac (M oznacza lczbę punktów): ( ) mn ) ( M M e h E W wnku otrzmuem aproksmantę: Reprezentaca grafczna funkc aproksmuące: e PROBLEM APROKSYMACJI FUNKCJI

4 MODEL NEURONU W przpadku aproksmac funkc welowmarowe, model ma postać: Jest to model neuronu, któr realzue funkcę: n h( ) g w 4

5 FUNKCJE AKTYWACJI Funkce naczęśce użwane ako funkce aktwac:. sgmodalna unpolarna: g( u) + ep( βu). sgmodalna bpolarna: g( u) lub g( u) tgh( βu) + ep( βu) 3. lnowa: g( u) βu.5 g(u) f(u) u 5

6 SIEĆ NEURONOWA Poedncz neuron ma ogranczone zdolnośc aproksmacne. Ab aproksmować bardze złożone funkce łącz sę wele neuronów w seć. Funkce realzowane przez neuron daą po złożenu dobrą aproksmantę. Udowodnono, że seć taka, zwana welowarstwowm perceptronem, może aproksmować dowolną funkcę z dowolne małm błędem. Seć może posadać węce nż edną warstwę ukrtą oraz węce nż eden neuron na wścu. 6

7 7 Seć uczm na zborze trenngowm (uczącm) złożonm z wektorów weścowch (zmennch nezależnch) skoarzonch z nm wartośc pożądanch odpowedz (zmenna zależna). Seć może meć klka wść, wted mam do cznena z wektorem pożądane odpowedz. Każdą parę nazwam wzorcem uczącm. Uczene przebega teracne:. Na wstępe losuem wag sec doberam parametr uczena sec.. Na weśce sec podaem (prezentuem) -t wektor weścow. Składowe tego wektora są przemnażane przez wag perwsze warstw, następne sumowane przetwarzane przez funkce aktwac neuronów. Na wścu tch neuronów otrzmuem wektor v [v v v m ], którego składowe przemnażane są przez wag druge warstw, sumowane przetwarzane przez funkcę aktwac neuronu w warstwe wścowe. Otrzmuem wśce ŷ. Poneważ wag bł losowe, to co otrzmuem na wścu w perwszm kroku est przpadkowe. Możem wznaczć błąd sec: (),, (), (), (), ) ˆ ( + m k n k k m v w w g w g v w g e UCZENIE SIECI NEURONOWEJ

8 UCZENIE SIECI NEURONOWEJ Błąd ten służ do korekt wag. 3. W faze wsteczne propagac błędu błąd wędrue od wśca w kerunku weść. Naperw błąd przechodz na drugą stronę neuronu wścowego, wmaga to wznaczene pochodne funkc aktwac tego neuronu. Następne oblcza sę składowe tego błędu wnoszone przez poszczególne weśca neuronu wścowego modfkue sę wag zwązane z tm weścam. Dale sgnał błędu wędruą na drugą stronę neuronów ukrtch wkorzstwane są do adaptac wag zwązanch z weścam tch neuronów. Po adaptac wag błąd dla -tego wzorca uczącego będze mnesz. Szczegółow ops metod wsteczne propagac błędu można znaleźć w [Oso]. 4. Krok 3 powtarzam dla wszstkch wzorców uczącch. Prezentaca wszstkch wzorców ze zboru uczącego nazwa sę epoką. Trenng sec wmaga welu epok uczena. W efekce uczena mnmalzowan est błąd średnokwadratow po wszstkch wzorcach uczącch: E M e mn 8

9 ALGORYTM WSTECZNEJ PROPAGACJI BŁĘDU Celem est mnmalzaca funkc błędu sec: E m () () m n () e ( ˆ ) g w v + w v g w g k w () k, k + w () v Do znalezena mnmum stosue sę metodę gradentową zwaną metodą nawększego spadku, zgodne z którą przrost wag określa sę wg kerunku uemnego gradentu: w η E(w) gdze w est wektorem wag, η > współcznnkem uczena, a E E E E( w ),,..., () () () w, w, w m est gradentem błędu. E w - gradent funkc błędu.5.5 w w w - - 9

10 ALGORYTM WSTECZNEJ PROPAGACJI BŁĘDU Pochodne cząstkowe funkc błędu względem wag warstw wścwe: m () () () gdze u w v + w v. E w () g( u ( ˆ ) u () () ) v,,,..., m () ( ) g( u ) Wprowadźm oznaczene: δ ( ˆ ), stąd regułę aktualzac wag neuronu wścowego () u można zapsać: () () w ηδ v. Pochodne cząstkowe błędu względem wag warstw ukrte: E w () k, () () ˆ v g( u ) () g( u ) ( ˆ ) ( ˆ ) wk, () k,,..., m; k,,..., n () () v wk, u u () gdze u w n k () k, k.

11 ALGORYTM WSTECZNEJ PROPAGACJI BŁĘDU () () () ( ) g( u ) () g( u ) () () g( u ) E () Przmuąc oznaczene: δ ( ˆ ) w () k, δ w () k, otrzmue sę δ () () k u u u w wzór na aktualzacę wag neuronów warstw ukrte: () () w k, ηδ Po wznaczenu poprawek dla wag dokonue sę aktualzac wag: w( l + ) w( l) + w Metoda wsteczne propagac błędu wmaga, a b funkce aktwac bł różnczkowalne. Skuteczność metod zależ od kształtu funkc błędu (welomodalność, płaske obszar), punktu startowego wag, długośc kroku (η). Algortm utka w mnmach lokalnch. Istneą nne metod uczena, które w uproszczon sposób wznaczaą kerunek przesunęca wektora wag (algortm: zmenne metrk, Levenberga Marquardta, gradentów sprzężonch). k k,

12 ALGORYTM WSTECZNEJ PROPAGACJI BŁĘDU Przkładow przebeg błędu ego gradent w kolench epokach Mean Squared Error (mse) Best Tranng Performance s.9853 at epoch 3 - Tran Best Epochs gradent Gradent.497, at epoch Epochs Po nauczenu sec sprawdzam e dzałane na nowm zborze danch zwanm testowm. Błęd wznaczone na tm zborze śwadczą o akośc dzałana sec.

13 PROBLEMY UCZENIA SIECI W procese uczena musm rozstrzgnąć klka problemów: ak długo seć ma sę uczć le pownno bć neuronów w warstwe ukrte ake pownn bć funkce aktwac neuronów aką metodę uczena wbrać cz w ak sposób wstępne przetworzć dane..8.6 Jeśl trenng est zbt krótk lub/ lczba neuronów zbt mała -. seć będze nedouczona (duże błęd), zbt dług trenng lub/ -.4 zbt duża lczba neuronów skutkue przeuczenem błęd -.6 uzskane na zborze uczącm będą blske, lecz błęd na zborze testowm okażą sę duże

14 PROBLEMY UCZENIA SIECI Seć pownna posadać zdolność uogólnana (generalzac) zdobte wedz na nowe przkład, które ne uczestnczł w procese uczena. Ab wzmocnć tę zdolność w trakce uczena w każde epoce testue sę seć na tzw. zborze waldacnm. Jeśl błąd na tm zborze przestae maleć lub zaczna wzrastać, co oznacza, że seć trac zdolność uogólnana, przerwa sę trenng. Best Valdaton Performance s.3974 at epoch Mean Squared Error (mse) - - Tran Valdaton Test Best Epochs 4

15 DOPASOWANIE MODELU Output ~.8*Target + 4. Output ~.8*Target Tranng: R.97 Data Ft Y T Target Test: R.934 Data Ft Y T Target Output ~.8*Target + 4 Output ~.86*Target Valdaton: R.9993 Data Ft Y T Target All: R.956 Data Ft Y T Target Współcznnk determnac: R M M ( ) ( ) ) gdze wartość średna pożądanch odpowedz (target). R, -,5 - dopasowane nezadowalaące,5 -,6 - dopasowane słabe,6 -,8 - dopasowane zadowalaące,8 -,9 - dopasowane dobre,9 -, - dopasowane bardzo dobre Lczba przpadków 5 Hstogram - Błąd Zero Error 5

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Wykład 2: Uczenie nadzorowane sieci neuronowych - I Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za

Bardziej szczegółowo

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Wykład 2: Uczenie nadzorowane sieci neuronowych - I Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za

Bardziej szczegółowo

Plan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty)

Plan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty) Plan wykładu Dzałane neuronu dyskretnego warstwy neuronów dyskretnych Wykład : Reguły uczena sec neuronowych. Sec neuronowe ednokerunkowe. Reguła perceptronowa Reguła Wdrowa-Hoffa Reguła delta ałgorzata

Bardziej szczegółowo

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe Sztuczne sec neuronowe Jerzy Stefanowsk Plan wykładu 1. Wprowadzene 2. Model sztucznego neuronu. 3. Topologe sec neuronowych 4. Reguły uczena sec neuronowych. 5. Klasyfkaca sec neuronowych. 6. Sec warstwowe

Bardziej szczegółowo

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia

Bardziej szczegółowo

wiedzy Sieci neuronowe (c.d.)

wiedzy Sieci neuronowe (c.d.) Metody detekci uszkodzeń oparte na wiedzy Sieci neuronowe (c.d.) Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 8 Metody detekci uszkodzeń oparte na wiedzy Wprowadzenie

Bardziej szczegółowo

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE METODY KLASYFIKACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

SYSTEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE METODY KLASYFIKACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska. SYSEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE MEODY KLASYFIKACJI Częstochowa 4 Dr hab. nż. Grzegorz Dude Wydzał Eletryczny Poltechna Częstochowsa FUNKCJE FISHEROWSKA DYSKRYMINACYJNE DYSKRYMINACJA I MASZYNA LINIOWA

Bardziej szczegółowo

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB Rozwązywane zadań optymalzacj w środowsku programu MATLAB Zagadnene optymalzacj polega na znajdowanu najlepszego, względem ustalonego kryterum, rozwązana należącego do zboru rozwązań dopuszczalnych. Standardowe

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 8. SZTUCZNE SIECI NEURONOWE INNE ARCHITEKTURY Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska SIEĆ O RADIALNYCH FUNKCJACH BAZOWYCH

Bardziej szczegółowo

x 1 x 2 x 3 x n w 1 w 2 Σ w 3 w n x 1 x 2 x 1 XOR x (x A, y A ) y A x A

x 1 x 2 x 3 x n w 1 w 2 Σ w 3 w n x 1 x 2 x 1 XOR x (x A, y A ) y A x A Sieci neuronowe model konekcjonistczn Plan wkładu Perceptron - przpomnienie Uczenie nienadzorowane Sieci Hopfielda Perceptron w 3 Σ w n A Liniowo separowaln problem klasfikacji ( A, A ) Problem XOR 0 0

Bardziej szczegółowo

Uczenie sieci typu MLP

Uczenie sieci typu MLP Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik

Bardziej szczegółowo

Elementy inteligencji obliczeniowej

Elementy inteligencji obliczeniowej Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego

Bardziej szczegółowo

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych Najprostsza jest jednostka lnowa: Neuron lnowy potraf ona rozpoznawać wektor wejścowy X = (x 1, x 2,..., x n ) T zapamętany we współczynnkach wagowych W = (w 1, w 2,..., w n ), Zauważmy, że y = W X Załóżmy,

Bardziej szczegółowo

Rachunek prawdopodobieństwa i statystyka W 11: Analizy zależnościpomiędzy zmiennymi losowymi Model regresji wielokrotnej

Rachunek prawdopodobieństwa i statystyka W 11: Analizy zależnościpomiędzy zmiennymi losowymi Model regresji wielokrotnej Rachunek prawdopodobeństwa statstka W 11: Analz zależnoścpomędz zmennm losowm Model regresj welokrotnej Dr Anna ADRIAN Paw B5, pok 407 adan@agh.edu.pl Model regresj lnowej Model regresj lnowej prostej

Bardziej szczegółowo

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska

Bardziej szczegółowo

Natalia Nehrebecka. Wykład 2

Natalia Nehrebecka. Wykład 2 Natala Nehrebecka Wykład . Model lnowy Postad modelu lnowego Zaps macerzowy modelu lnowego. Estymacja modelu Wartośd teoretyczna (dopasowana) Reszty 3. MNK przypadek jednej zmennej . Model lnowy Postad

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 15. ALGORYTMY GENETYCZNE Częstochowa 014 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska TERMINOLOGIA allele wartośc, waranty genów, chromosom - (naczej

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA

STATYSTYKA MATEMATYCZNA STATYSTYKA MATEMATYCZNA. Wkład wstępn. Teora prawdopodobeństwa element kombnatork. Zmenne losowe ch rozkład 3. Populacje prób danch, estmacja parametrów 4. Testowane hpotez statstcznch 5. Test parametrczne

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline. Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 211-1-18 1 Pomysł Przykłady Zastosowanie 2

Bardziej szczegółowo

Podstawy teorii falek (Wavelets)

Podstawy teorii falek (Wavelets) Podstawy teor falek (Wavelets) Ψ(). Transformaca Haara (97).. Przykład pewne metody zapsu obrazu Transformaca Haara Przykład zapsu obrazu -D Podstawy matematyczne transformac Algorytmy rozkładana funkc

Bardziej szczegółowo

WYZNACZENIE ODKSZTAŁCEŃ, PRZEMIESZCZEŃ I NAPRĘŻEŃ W ŁAWACH FUNDAMENTOWYCH NA PODŁOŻU GRUNTOWYM O KSZTAŁCIE WYPUKŁYM

WYZNACZENIE ODKSZTAŁCEŃ, PRZEMIESZCZEŃ I NAPRĘŻEŃ W ŁAWACH FUNDAMENTOWYCH NA PODŁOŻU GRUNTOWYM O KSZTAŁCIE WYPUKŁYM Budownctwo 7 Mkhal Hrtsuk, Rszard Hulbo WYZNACZNI ODKSZTAŁCŃ, PRZMISZCZŃ I NAPRĘŻŃ W ŁAWACH FNDAMNTOWYCH NA PODŁOŻ GRNTOWYM O KSZTAŁCI WYPKŁYM Wprowadzene Prz rozwązanu zagadnena przmuem, że brła fundamentowa

Bardziej szczegółowo

Plan wyk y ł k adu Mózg ludzki a komputer Komputer Mózg Jednostki obliczeniowe Jednostki pami Czas operacji Czas transmisji Liczba aktywacji/s

Plan wyk y ł k adu Mózg ludzki a komputer Komputer Mózg Jednostki obliczeniowe Jednostki pami Czas operacji Czas transmisji Liczba aktywacji/s Sieci neuronowe model konekcjonistczn Plan wkładu Mózg ludzki a komputer Modele konekcjonistcze Sieć neuronowa Sieci Hopfielda Mózg ludzki a komputer Twój mózg to komórek, 3 2 kilometrów przewodów i (biliard)

Bardziej szczegółowo

Analiza danych OGÓLNY SCHEMAT. http://zajecia.jakubw.pl/ Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja)

Analiza danych OGÓLNY SCHEMAT. http://zajecia.jakubw.pl/ Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja) Analza danych Dane trenngowe testowe. Algorytm k najblższych sąsadów. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ OGÓLNY SCHEMAT Mamy dany zbór danych podzelony na klasy decyzyjne, oraz

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka. Wykład 7

Stanisław Cichocki. Natalia Nehrebecka. Wykład 7 Stansław Cchock Natala Nehrebecka Wykład 7 1 1. Interakcje 2. Przyblżane model nelnowych 3. Założena KMRL 1. Interakcje 2. Przyblżane model nelnowych 3. Założena KMRL W standardowym modelu lnowym zakładamy,

Bardziej szczegółowo

Współczynnik korelacji liniowej oraz funkcja regresji liniowej dwóch zmiennych

Współczynnik korelacji liniowej oraz funkcja regresji liniowej dwóch zmiennych Współcznnk korelacj lnowej oraz funkcja regresj lnowej dwóch zmennch S S r, cov współcznnk determnacj R r Współcznnk ndetermnacj ϕ r Zarówno współcznnk determnacj jak ndetermnacj po przemnożenu przez 00

Bardziej szczegółowo

Wprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu

Wprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu Wprowadzene do Sec Neuronowych Algorytm wstecznej propagacj błędu Maja Czoków, Jarosław Persa --6 Powtórzene. Perceptron sgmodalny Funkcja sgmodalna: σ(x) = + exp( c (x p)) Parametr c odpowada za nachylene

Bardziej szczegółowo

Widzenie komputerowe

Widzenie komputerowe Widzenie komputerowe Uczenie maszynowe na przykładzie sieci neuronowych (3) źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Zdolność uogólniania sieci neuronowej R oznaczenie

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6 Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Interpretacja parametrów przy zmennych objaśnających cągłych Semelastyczność 2. Zastosowane modelu potęgowego Model potęgowy 3. Zmenne cągłe za zmenne dyskretne

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką

Bardziej szczegółowo

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe www.math.uni.lodz.pl/ radmat Cel wykładu Celem wykładu jest prezentacja różnych rodzajów sztucznych sieci neuronowych. Biologiczny model neuronu Mózg człowieka składa się z około 10 11 komórek nerwowych,

Bardziej szczegółowo

RACHUNEK NIEPEWNOŚCI POMIARU

RACHUNEK NIEPEWNOŚCI POMIARU Mędznarodowa Norma Ocen Nepewnośc Pomaru(Gude to Epresson of Uncertant n Measurements - Mędznarodowa Organzacja Normalzacjna ISO) RACHUNEK NIEPEWNOŚCI http://phscs.nst./gov/uncertant POMIARU Wrażane Nepewnośc

Bardziej szczegółowo

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311 Sztuczne sec neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyk, p. 311 Wykład 6 PLAN: - Repetto (brevs) - Sec neuronowe z radalnym funkcjam bazowym Repetto W aspekce archtektury: zajmowalśmy

Bardziej szczegółowo

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe 2 Sztuczne sieci neuronowe Sztuczna sieć neuronowa (NN ang. Neural Network) to bardzo uproszczon model rzeczwistego biologicznego sstemu nerwowego. Sztuczną sieć neuronową można zdefiniować jako zespolon

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6 Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Zastosowane modelu potęgowego Model potęgowy Przekształcene Boxa-Coxa 2. Zmenne cągłe za zmenne dyskretne 3. Interpretacja parametrów przy zmennych dyskretnych

Bardziej szczegółowo

Uczenie sieci neuronowych i bayesowskich

Uczenie sieci neuronowych i bayesowskich Wstęp do metod sztucznej inteligencji www.mat.uni.torun.pl/~piersaj 2009-01-22 Co to jest neuron? Komputer, a mózg komputer mózg Jednostki obliczeniowe 1-4 CPU 10 11 neuronów Pojemność 10 9 b RAM, 10 10

Bardziej szczegółowo

ZESTAW ZADAŃ Z INFORMATYKI

ZESTAW ZADAŃ Z INFORMATYKI (Wpsue zdaąc przed rozpoczęcem prac) KOD ZDAJĄCEGO ZESTAW ZADAŃ Z INFORMATYKI CZĘŚĆ II (dla pozomu rozszerzonego) GRUDZIEŃ ROK 004 Czas prac 50 mnut Instrukca dla zdaącego. Proszę sprawdzć, cz zestaw zadań

Bardziej szczegółowo

Neural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych.

Neural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych. Neural networks Lecture Notes n Pattern Recognton by W.Dzwnel Krótka hstora McCulloch Ptts (1943) - perwszy matematyczny ops dzalana neuronu przetwarzana przez nego danych. Proste neurony, które mogly

Bardziej szczegółowo

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania WYKŁAD 4 Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania PLAN WYKŁADU Metody uczenia sieci: Uczenie perceptronu Propagacja wsteczna Zastosowania Sterowanie (powtórzenie) Kompresja obrazu Rozpoznawanie

Bardziej szczegółowo

p Z(G). (G : Z({x i })),

p Z(G). (G : Z({x i })), 3. Wykład 3: p-grupy twerdzena Sylowa. Defncja 3.1. Nech (G, ) będze grupą. Grupę G nazywamy p-grupą, jeżel G = dla pewnej lczby perwszej p oraz k N. Twerdzene 3.1. Nech (G, ) będze p-grupą. Wówczas W

Bardziej szczegółowo

Prognozowanie i symulacje

Prognozowanie i symulacje Prognozowanie i smulacje Lepiej znać prawdę niedokładnie, niż dokładnie się mlić. J. M. Kenes dr Iwona Kowalska ikowalska@wz.uw.edu.pl Prognozowanie meod naiwne i średnie ruchome Meod naiwne poziom bez

Bardziej szczegółowo

Systemy Inteligentnego Przetwarzania wykład 3: sieci rekurencyjne, sieci samoorganizujące się

Systemy Inteligentnego Przetwarzania wykład 3: sieci rekurencyjne, sieci samoorganizujące się Systemy Intelgentnego Przetwarzana wykład 3: sec rekurencyne, sec samoorganzuące sę Dr nż. Jacek Mazurkewcz Katedra Informatyk Technczne e-mal: Jacek.Mazurkewcz@pwr.edu.pl Sec neuronowe ze sprzężenem Sprzężena

Bardziej szczegółowo

Projekt Sieci neuronowe

Projekt Sieci neuronowe Projekt Sieci neuronowe Chmielecka Katarzyna Gr. 9 IiE 1. Problem i dane Sieć neuronowa miała za zadanie nauczyć się klasyfikować wnioski kredytowe. W projekcie wykorzystano dane pochodzące z 110 wniosków

Bardziej szczegółowo

termodynamika fenomenologiczna p, VT V, teoria kinetyczno-molekularna <v 2 > termodynamika statystyczna n(v) to jest długi czas, zachodzi

termodynamika fenomenologiczna p, VT V, teoria kinetyczno-molekularna <v 2 > termodynamika statystyczna n(v) to jest długi czas, zachodzi fzka statstczna stan makroskopow układ - skończon obszar przestrzenn (w szczególnośc zolowan) termodnamka fenomenologczna p, VT V, teora knetczno-molekularna termodnamka statstczna n(v) stan makroskopow

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6 Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Zastosowane modelu potęgowego Przekształcene Boxa-Coxa 2. Zmenne cągłe za zmenne dyskretne 3. Interpretacja parametrów przy zmennych dyskretnych 1. Zastosowane

Bardziej szczegółowo

Podstawy Sztucznej Inteligencji (PSZT)

Podstawy Sztucznej Inteligencji (PSZT) Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12

Bardziej szczegółowo

sieci jednowarstwowe w MATLABie LABORKA Piotr Ciskowski

sieci jednowarstwowe w MATLABie LABORKA Piotr Ciskowski sieci jednowarstwowe w ATLABie LABORKA Piotr Ciskowski trzy funkcje do obsługi sieci jednowarstwowej : init1.m - tworzy sieć, inicjuje wagi (losowo) dzialaj1.m symuluje działanie sieci (na pojedynczym

Bardziej szczegółowo

METODY INŻYNIERII WIEDZY

METODY INŻYNIERII WIEDZY METODY INŻYNIERII WIEDZY SZTUCZNE SIECI NEURONOWE MLP Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i Inżynierii

Bardziej szczegółowo

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW 17 XII 2013 Jan Karwowski

Bardziej szczegółowo

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych. Wstęp do teorii sztucznej inteligencji Wykład III Modele sieci neuronowych. 1 Perceptron model najprostzszy przypomnienie Schemat neuronu opracowany przez McCullocha i Pittsa w 1943 roku. Przykład funkcji

Bardziej szczegółowo

WikiWS For Business Sharks

WikiWS For Business Sharks WkWS For Busness Sharks Ops zadana konkursowego Zadane Opracowane algorytmu automatyczne przetwarzającego zdjęce odręczne narysowanego dagramu na tablcy lub kartce do postac wektorowej zapsanej w formace

Bardziej szczegółowo

; -1 x 1 spełnia powyższe warunki. Ale

; -1 x 1 spełnia powyższe warunki. Ale AIB-Inormatka-Wkła - r Aam Ćmel cmel@.ah.eu.pl Funkcje uwkłane Przkła.ozważm równane np. nech. Ptane Cz la owolneo [] stneje tak że? Nech. Wówczas unkcja - spełna powższe warunk. Ale [ ] Q spełna je także

Bardziej szczegółowo

Uczenie Wielowarstwowych Sieci Neuronów o

Uczenie Wielowarstwowych Sieci Neuronów o Plan uczenie neuronu o ci gªej funkcji aktywacji uczenie jednowarstwowej sieci neuronów o ci gªej funkcji aktywacji uczenie sieci wielowarstwowej - metoda propagacji wstecznej neuronu o ci gªej funkcji

Bardziej szczegółowo

f x f y f, jest 4, mianowicie f = f xx f xy f yx

f x f y f, jest 4, mianowicie f = f xx f xy f yx Zestaw 14 Pochodne wŝszch rzędów Niech będzie dana funkcja x f określona w pewnm obszarze D Przpuśćm Ŝe f x istnieją pochodne cząstkowe tej funkcji x x Pochodne cząstkowe tch pochodnch jeŝeli istnieją

Bardziej szczegółowo

Metody Sztucznej Inteligencji II

Metody Sztucznej Inteligencji II 17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału

Bardziej szczegółowo

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5 METODY INTELIGENCJI OBLICZENIOWEJ wykład 5 1 2 SZTUCZNE SIECI NEURONOWE cd 3 UCZENIE PERCEPTRONU: Pojedynczy neuron (lub 1 warstwa neuronów) typu percep- tronowego jest w stanie rozdzielić przestrzeń obsza-

Bardziej szczegółowo

Programowanie nieliniowe optymalizacja funkcji wielu zmiennych

Programowanie nieliniowe optymalizacja funkcji wielu zmiennych Ekonomia matematczna II Ekonomia matematczna II Prowadząc ćwiczenia Programowanie nieliniowe optmalizacja unkcji wielu zmiennch Modele programowania liniowego często okazują się niewstarczające w modelowaniu

Bardziej szczegółowo

Prawdopodobieństwo i statystyka r.

Prawdopodobieństwo i statystyka r. Prawdopodobeństwo statystya.05.00 r. Zadane Zmenna losowa X ma rozład wyładnczy o wartośc oczewanej, a zmenna losowa Y rozład wyładnczy o wartośc oczewanej. Obe zmenne są nezależne. Oblcz E( Y X + Y =

Bardziej szczegółowo

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna. Sieci neuronowe model konekcjonistyczny Plan wykładu Mózg ludzki a komputer Modele konekcjonistycze Perceptron Sieć neuronowa Uczenie sieci Sieci Hopfielda Mózg ludzki a komputer Twój mózg to 00 000 000

Bardziej szczegółowo

; -1 x 1 spełnia powyższe warunki. Ale

; -1 x 1 spełnia powyższe warunki. Ale Funkcje uwkłane Przkła.ozważm równane np. nech. Ptane Cz la owolneo [ ] stneje tak że? Nech. Wówczas unkcja - spełna powższe warunk. Ale spełna je także unkcja [ ] Q. Dokłaając warunek cąłośc unkcj [ ]

Bardziej szczegółowo

1. Logika, funkcje logiczne, preceptron.

1. Logika, funkcje logiczne, preceptron. Sieci neuronowe 1. Logika, funkcje logiczne, preceptron. 1. (Logika) Udowodnij prawa de Morgana, prawo pochłaniania p (p q), prawo wyłączonego środka p p oraz prawo sprzeczności (p p). 2. Wyraź funkcję

Bardziej szczegółowo

Podstawy Sztucznej Inteligencji

Podstawy Sztucznej Inteligencji Politechnika Łódzka Katedra Informatyki Stosowanej Podstawy Sztucznej Inteligencji Laboratorium Ćwiczenie 2 Wykorzystanie środowiska Matlab do modelowania sztucznych sieci neuronowych Opracowali: Dr hab

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka. Wykład 7

Stanisław Cichocki. Natalia Nehrebecka. Wykład 7 Stansław Cchock Natala Nehrebecka Wykład 7 1 1. Zmenne cągłe a zmenne dyskretne 2. Interpretacja parametrów przy zmennych dyskretnych 1. Zmenne cągłe a zmenne dyskretne 2. Interpretacja parametrów przy

Bardziej szczegółowo

Sortowanie szybkie Quick Sort

Sortowanie szybkie Quick Sort Sortowane szybke Quck Sort Algorytm sortowana szybkego opera sę na strateg "dzel zwycęża" (ang. dvde and conquer), którą możemy krótko scharakteryzować w trzech punktach: 1. DZIEL - problem główny zostae

Bardziej szczegółowo

W praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np.

W praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np. Wykład 7 Uwaga: W praktyce często zdarza sę, że wynk obu prób możemy traktować jako wynk pomarów na tym samym elemence populacj np. wynk x przed wynk y po operacj dla tego samego osobnka. Należy wówczas

Bardziej szczegółowo

Kompresja fraktalna obrazów. obraz. 1. Kopiarka wielokrotnie redukująca 1.1. Zasada działania ania najprostszej kopiarki

Kompresja fraktalna obrazów. obraz. 1. Kopiarka wielokrotnie redukująca 1.1. Zasada działania ania najprostszej kopiarki Kompresa fratalna obraów. Kopara welorotne reuuąca.. Zasaa ałana ana naprostse opar Koncepca opar welorotne reuuące Naprosts prła opar. Moel matematcn obrau opara cęś ęścowa. obra weścow opara obra wścow

Bardziej szczegółowo

Wielokategorialne systemy uczące się i ich zastosowanie w bioinformatyce. Rafał Grodzicki

Wielokategorialne systemy uczące się i ich zastosowanie w bioinformatyce. Rafał Grodzicki Welokategoralne systemy uząe sę h zastosowane w bonformatye Rafał Grodzk Welokategoralny system uząy sę (multlabel learnng system) Zbór danyh weśowyh: d X = R Zbór klas (kategor): { 2 } =...Q Zbór uząy:

Bardziej szczegółowo

Przykład 5.1. Kratownica dwukrotnie statycznie niewyznaczalna

Przykład 5.1. Kratownica dwukrotnie statycznie niewyznaczalna rzykład.. Kratownca dwukrotne statyczne newyznaczana oecene: korzystaąc z metody sł wyznaczyć sły w prętach ponższe kratowncy. const Rozwązane zadana rozpoczynamy od obczena stopna statyczne newyznaczanośc

Bardziej szczegółowo

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE SIECI NEURONOWE Przedmiotem laboratorium jest stworzenie algorytmu rozpoznawania zwierząt z zastosowaniem sieci neuronowych w oparciu o 5 kryteriów: ile zwierzę ma nóg, czy żyje w wodzie, czy umie latać,

Bardziej szczegółowo

BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.

BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej. Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej BIOCYBERNETYKA Adrian Horzyk SIECI NEURONOWE www.agh.edu.pl Mózg inspiruje nas od wieków Co takiego

Bardziej szczegółowo

) będą niezależnymi zmiennymi losowymi o tym samym rozkładzie normalnym z następującymi parametrami: nieznaną wartością 1 4

) będą niezależnymi zmiennymi losowymi o tym samym rozkładzie normalnym z następującymi parametrami: nieznaną wartością 1 4 Zadane. Nech ( X, Y ),( X, Y ), K,( X, Y n n ) będą nezależnym zmennym losowym o tym samym rozkładze normalnym z następującym parametram: neznaną wartoścą oczekwaną EX = EY = m, warancją VarX = VarY =

Bardziej szczegółowo

Analiza danych. Analiza danych wielowymiarowych. Regresja liniowa. Dyskryminacja liniowa. PARA ZMIENNYCH LOSOWYCH

Analiza danych. Analiza danych wielowymiarowych. Regresja liniowa. Dyskryminacja liniowa.   PARA ZMIENNYCH LOSOWYCH Analza danych Analza danych welowymarowych. Regresja lnowa. Dyskrymnacja lnowa. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ PARA ZMIENNYCH LOSOWYCH Parę zmennych losowych X, Y możemy

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE. Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka ADALINE. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 218-1-15/22 Projekt pn.

Bardziej szczegółowo

u u u( x) u, x METODA RÓŻNIC SKOŃCZONYCH, METODA ELEMENTÓW BRZEGOWYCH i METODA ELEMENTÓW SKOŃCZONYCH

u u u( x) u, x METODA RÓŻNIC SKOŃCZONYCH, METODA ELEMENTÓW BRZEGOWYCH i METODA ELEMENTÓW SKOŃCZONYCH METODA RÓŻNIC SKOŃCZONYCH, METODA ELEMENTÓW BRZEGOWYCH METODA ELEMENTÓW SKOŃCZONYCH Szkc rozwązana równana Possona w przestrzen dwuwymarowe. Równane Possona to równae różnczkowe cząstkowe opsuące wele

Bardziej szczegółowo

Problemy jednoczesnego testowania wielu hipotez statystycznych i ich zastosowania w analizie mikromacierzy DNA

Problemy jednoczesnego testowania wielu hipotez statystycznych i ich zastosowania w analizie mikromacierzy DNA Problemy jednoczesnego testowana welu hpotez statystycznych ch zastosowana w analze mkromacerzy DNA Konrad Furmańczyk Katedra Zastosowań Matematyk SGGW Plan referatu Testowane w analze mkromacerzy DNA

Bardziej szczegółowo

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu Literatura Wykład : Wprowadzenie do sztucznych sieci neuronowych Małgorzata Krętowska Wydział Informatyki Politechnika Białostocka Tadeusiewicz R: Sieci neuronowe, Akademicka Oficyna Wydawnicza RM, Warszawa

Bardziej szczegółowo

SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW

SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW Stefan WÓJTOWICZ, Katarzyna BIERNAT ZAKŁAD METROLOGII I BADAŃ NIENISZCZĄCYCH INSTYTUT ELEKTROTECHNIKI ul. Pożaryskego 8, 04-703 Warszawa tel.

Bardziej szczegółowo

Przedziały ufności i testy parametrów. Przedziały ufności dla średniej odpowiedzi. Interwały prognoz (dla przyszłych obserwacji)

Przedziały ufności i testy parametrów. Przedziały ufności dla średniej odpowiedzi. Interwały prognoz (dla przyszłych obserwacji) Wkład 1: Prosta regresja liniowa Statstczn model regresji liniowej Dane dla prostej regresji liniowej Przedział ufności i test parametrów Przedział ufności dla średniej odpowiedzi Interwał prognoz (dla

Bardziej szczegółowo

wiedzy Sieci neuronowe

wiedzy Sieci neuronowe Metody detekcji uszkodzeń oparte na wiedzy Sieci neuronowe Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 7 Wprowadzenie Okres kształtowania się teorii sztucznych sieci

Bardziej szczegółowo

Temat: Sieci neuronowe oraz technologia CUDA

Temat: Sieci neuronowe oraz technologia CUDA Elbląg, 27.03.2010 Temat: Sieci neuronowe oraz technologia CUDA Przygotował: Mateusz Górny VIII semestr ASiSK Wstęp Sieci neuronowe są to specyficzne struktury danych odzwierciedlające sieć neuronów w

Bardziej szczegółowo

Klasyfkator lnowy Wstęp Klasyfkator lnowy jest najprostszym możlwym klasyfkatorem. Zakłada on lnową separację lnowy podzał dwóch klas mędzy sobą. Przedstawa to ponższy rysunek: 5 4 3 1 0-1 - -3-4 -5-5

Bardziej szczegółowo

Podstawy sztucznej inteligencji

Podstawy sztucznej inteligencji wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,

Bardziej szczegółowo

METODY KOMPUTEROWE 10

METODY KOMPUTEROWE 10 MEODY KOMPUEROWE RÓWNANIA RÓŻNICZKOWE CZĄSKOWE Poechnka Poznańska Mchał Płokowak Adam Łodgowsk Mchał PŁOKOWIAK Adam ŁODYGOWSKI Konsace nakowe dr nż. Wod Kąko Poznań 00/00 MEODY KOMPUEROWE 0 RÓWNANIA RÓŻNICZKOWE

Bardziej szczegółowo

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda Sieci neuropodobne 1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN Agenda Trochę neurobiologii System nerwowy w organizmach żywych tworzą trzy

Bardziej szczegółowo

MODELOWANIE NEURONALNE ROZWOJU SYSTEMU ELEKTROENERGETYCZNEGO. CZĘŚĆ 2. MODELE SYSTEMU IEEE RTS

MODELOWANIE NEURONALNE ROZWOJU SYSTEMU ELEKTROENERGETYCZNEGO. CZĘŚĆ 2. MODELE SYSTEMU IEEE RTS POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 82 Electrical Engineering 2015 Jerzy TCHÓRZEWSKI* Maciej PYTEL ** MODELOWANIE NEURONALNE ROZWOJU SYSTEMU ELEKTROENERGETYCZNEGO. CZĘŚĆ 2. MODELE SYSTEMU

Bardziej szczegółowo

MODELOWANIE UKŁADÓW MECHANICZNYCH Z NIEPEWNYMI PARAMETRAMI

MODELOWANIE UKŁADÓW MECHANICZNYCH Z NIEPEWNYMI PARAMETRAMI Smlaca Andrze POWNUK Katedra Mecan Teoretczne Wdzał Bdownctwa Poltecna Śląsa w Glwcac MODELOWANIE UKŁADÓW MECHANICZNYCH Z NIEPEWNYMI PARAMETRAMI Streszczene. Wszste parametr ładów mecancznc są znane z

Bardziej szczegółowo

METODY KOMPUTEROWE 1

METODY KOMPUTEROWE 1 MTODY KOMPUTROW WIADOMOŚCI WSTĘPN MTODA ULRA Mcał PŁOTKOWIAK Adam ŁODYGOWSKI Kosultacje aukowe dr z. Wtold Kąkol Pozań 00/00 MTODY KOMPUTROW WIADOMOŚCI WSTĘPN Metod umercze MN pozwalają a ormułowae matematczc

Bardziej szczegółowo

12. FUNKCJE WIELU ZMIENNYCH. z = x + y jest R 2, natomiast jej

12. FUNKCJE WIELU ZMIENNYCH. z = x + y jest R 2, natomiast jej 1. FUNKCJE WIELU ZMIENNYCH 1.1. FUNKCJE DWÓCH ZMIENNYCH Funkcją dwóch zmiennch określoną w zbiorze D R nazwam przporządkowanie każdej parze liczb () D dokładnie jednej liczb rzeczwistej z. Piszem prz tm

Bardziej szczegółowo

Sieci Neuronowe 1 Michał Bereta

Sieci Neuronowe 1 Michał Bereta Wprowadzene Zagadnena Sztucznej Intelgencj laboratorum Sec Neuronowe 1 Mchał Bereta Sztuczne sec neuronowe można postrzegać jako modele matematyczne, które swoje wzorce wywodzą z bolog obserwacj ludzkch

Bardziej szczegółowo

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa

Bardziej szczegółowo

max Wydział Elektroniki studia I st. Elektronika III r. EZI Technika optymalizacji Dr inż. Ewa Szlachcic

max Wydział Elektroniki studia I st. Elektronika III r. EZI Technika optymalizacji Dr inż. Ewa Szlachcic Zadane rograowana lnowego PL dla ogranczeń neszoścowch rz ogranczenach: a f c A b d =n, d c=n, d A =[ n], d b =, Postać anonczna zadana PL a c X : A b, Postać anonczna acerzowa zadana PL a Lczba zennch

Bardziej szczegółowo

Badania sondażowe. Braki danych Konstrukcja wag. Agnieszka Zięba. Zakład Badań Marketingowych Instytut Statystyki i Demografii Szkoła Główna Handlowa

Badania sondażowe. Braki danych Konstrukcja wag. Agnieszka Zięba. Zakład Badań Marketingowych Instytut Statystyki i Demografii Szkoła Główna Handlowa Badana sondażowe Brak danych Konstrukcja wag Agneszka Zęba Zakład Badań Marketngowych Instytut Statystyk Demograf Szkoła Główna Handlowa 1 Błędy braku odpowedz Całkowty brak odpowedz (UNIT nonresponse)

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 4. UCZENIE SIĘ INDUKCYJNE Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska WSTĘP Wiedza pozyskana przez ucznia ma charakter odwzorowania

Bardziej szczegółowo

Interpolacja. Układ. x exp. = y 1. = y 2. = y n

Interpolacja. Układ. x exp. = y 1. = y 2. = y n MES 07 lokaln Interpolacja. Układ Interpolacja, wprowadzenie Interpolacja: po co nam to? Ptania MES polega na wznaczaniu interesującch nas parametrów w skończonej ilości punktów. A co leż pomiędz tmi punktami?

Bardziej szczegółowo

Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba

Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 1 Ćwczene 2: Perceptron WYMAGANIA 1. Sztuczne sec neuronowe budowa oraz ops matematyczny perceptronu (funkcje przejśca perceptronu), uczene perceptronu

Bardziej szczegółowo

Teoria i praktyka. Wyższa Szkoła Turystyki i Ekologii. Fizyka. WSTiE Sucha Beskidzka Fizyka

Teoria i praktyka. Wyższa Szkoła Turystyki i Ekologii. Fizyka. WSTiE Sucha Beskidzka Fizyka Nepewośc pomarowe. Teora praktka. Prowadząc: Dr ż. Adrzej Skoczeń Wższa Szkoła Turstk Ekolog Wdzał Iformatk, rok I Fzka 014 03 30 WSTE Sucha Beskdzka Fzka 1 Iformacje teoretcze zameszczoe a slajdach tej

Bardziej szczegółowo

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek Sztuczne sieci neuronowe Ćwiczenia Piotr Fulmański, Marta Grzanek Piotr Fulmański 1 Wydział Matematyki i Informatyki, Marta Grzanek 2 Uniwersytet Łódzki Banacha 22, 90-232, Łódź Polska e-mail 1: fulmanp@math.uni.lodz.pl,

Bardziej szczegółowo

Natalia Nehrebecka. Zajęcia 3

Natalia Nehrebecka. Zajęcia 3 St ł Cchock Stansław C h k Natala Nehrebecka Zajęca 3 1. Dobroć dopasowana równana regresj. Współczynnk determnacj R Dk Dekompozycja warancj zmennej zależnej ż Współczynnk determnacj R. Zmenne cągłe a

Bardziej szczegółowo