Sieci neuronowe model konekcjonistyczny



Podobne dokumenty
synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

x 1 x 2 x 3 x n w 1 w 2 Σ w 3 w n x 1 x 2 x 1 XOR x (x A, y A ) y A x A

Plan wyk y ł k adu Mózg ludzki a komputer Komputer Mózg Jednostki obliczeniowe Jednostki pami Czas operacji Czas transmisji Liczba aktywacji/s

Metodyka segmentacji obrazów wędlin średnio i grubo rozdrobnionych

Uczenie sieci neuronowych i bayesowskich

Informatyka Systemów Autonomicznych

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

ZESPÓŁ LABORATORIÓW TELEMATYKI TRANSPORTU ZAKŁAD TELEKOMUNIKACJI W TRANSPORCIE WYDZIAŁ TRANSPORTU POLITECHNIKI WARSZAWSKIEJ

OFERTA JEDNOSTKI NAUKOWEJ. STAŻ PRACOWNIKA PRZEDSIĘBIORSTWA W JEDNOSTCE NAUKOWEJ w ramach projektu Stolica staży (UDA.POKL

Przykłady sieci stwierdzeń przeznaczonych do wspomagania początkowej fazy procesu projektow ania układów napędowych

Optymalizacja wydajności zapytań w testowaniu schematu bazy danych

QuarkXpress skład i publikacja operacje podstawowe

TECHNOLOGIA EJB I JPA KOD: EJBJPA

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wymagania edukacyjne z przedmiotu Systemy baz danych dla klasy 3iA Nauczyciel: Kornel Barteczko Rok szkolny: 2015/2016

Znane problemy Autodesk Revit Structure 2010

Zintegrowany interferometr mikrofalowy z kwadraturowymi sprzęgaczami o obwodzie 3/2λ

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

WYMAGANIA EDUKACYJNE Z PRZEDMIOTU PRACOWNIA URZĄDZEŃ TECHNIKI KOMPUTEROWEJ. dla klasy 1ia. Rok szkolny 2015/2016 Nauczyciel: Agnieszka Wdowiak

Poniżej krótki opis/instrukcja modułu. Korekta podatku VAT od przeterminowanych faktur.

Znane problemy Autodesk Revit Architecture 2010

Optymalne przydzielanie adresów IP. Ograniczenia adresowania IP z podziałem na klasy

Sieć przesyłająca żetony CP (counter propagation)

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Parametryzacja modeli części w Technologii Synchronicznej

WYMAGANIA EDUKACYJNE Z TECHNIKI:

Podstawy Programowania

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Instrukcja procesowa. DocuSafe Dokument. Wniosek o przekwalifikowanie ŚT na wyposażenie. Data dokumentu COM-PAN System Sp. z o.o.

MODELOWANIE OBCIĄŻEŃ KRĘGOSŁUPA SZYJNEGO CZŁOWIEKA W SYTUACJI UDERZENIA PIŁKĄ W GŁOWĘ

MODELOWANIE RZECZYWISTOŚCI

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

stworzyliśmy najlepsze rozwiązania do projektowania organizacji ruchu Dołącz do naszych zadowolonych użytkowników!

WYMAGANIA EDUKACYJNE Z INFORMATYKI

U R Z Ę D U. nowy wymiar komunikacji dla

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Aparat Gaśniczy AGC Master i Aparat Gaśniczy AGC Slave

Uczenie sieci radialnych (RBF)

WYMAGANIA EDUKACYJNE Z PRZEDMIOTU SIECI KOMPUTEROWE. dla klasy 2

PSO matematyka I gimnazjum Szczegółowe wymagania edukacyjne na poszczególne oceny

PSO matematyka III gimnazjum. Szczegółowe wymagania edukacyjne na poszczególne oceny

Sieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I.

Wprowadzenie do Sieci Neuronowych Laboratorium 05 Algorytm wstecznej propagacji błędu

System wizyjny sterujący zrobotyzowanym stanowiskiem spawania wymienników ciepła

Pattern Classification

Zintegrowany system obsługi przedsiębiorstwa. Migracja do Firebird 2.x

RT-09 MIKROPROCESOROWY REGULATOR TEMPERATURY KOTŁA Z PODAJNIKIEM

Opis i specyfikacja interfejsu SI WCPR do wybranych systemów zewnętrznych

Sztuczne sieci neuronowe

Metody Sztucznej Inteligencji II

Nowe funkcje w module Repozytorium Dokumentów

Instrukcja dla użytkownika Płockiej Platformy Teleinformatycznej E - Urząd

MCLNP /15 Warszawa, dn r. ZAPYTANIE O WARTOŚĆ SZACUNKOWĄ dostawy drukarki 3D

Nowe funkcje w programie Symfonia e-dokumenty w wersji Spis treści:

Załącznik do ćwiczenia w środowisku MASM32 Przesyłanie danych i zarządzanie danymi

LABORATORIUM OBRÓBKI SKRAWANIEM

Rodzaj szkolenia nieformalnego: Coaching

Regulamin Promocji Kieruj się na oszczędzanie

Zmiany funkcjonalne wprowadzone w wersji

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe

SEKCJA III: INFORMACJE O CHARAKTERZE PRAWNYM, EKONOMICZNYM, FINANSOWYM I TECHNICZNYM

Oferta. Poradni Psychologiczno-Pedagogicznej nr 10 w Warszawie DLA UCZNIÓW SZKÓŁ GIMNAZJALNYCH ORAZ PONADGIMNAZJALNYCH

FORDATA Virtual Data Room. Możliwości zastosowania

Podstawy Sztucznej Inteligencji (PSZT)

WYKŁAD 2 Historia rozwoju technik programowania. Granica pomiędzy programem a agentem. Cykl życia i podstawowe elementy składowe agenta.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Absolutt Systemy Teleinformatyczne ul. MontaŜowa 7, Bielsko-Biała tel./fax

RT-02B MIKROPROCESOROWY REGULATOR TEMPERATURY KOTŁA MIAŁOWEGO C.O. 1. Podstawowe parametry regulatora

Statystyka - wprowadzenie

TRENING DLA TRENERÓW BIZNESU JAK PROWADZIĆ

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Wymagania edukacyjne z przedmiotu Pracownia aplikacji internetowych dla klasy 3iA Nauczyciel: Kornel Barteczko Rok szkolny: 2015/2016

Wymagania edukacyjne oraz kryterium oceniania dla uczennic Wydziału Rytmiki SZKOŁY MUZYCZNEJ II STOPNIA PRZEDMIOT Technika Ruchu i Taniec

Lista zmian Sello. Wersja Wersja Wersja

Zastosowania sieci neuronowych

PROGRAMY STUDIÓW WYDZIAŁ: ELEKTRONIKI KIERUNEK: AUTOMATYKA I ROBOTYKA. I stopień, studia inżynierskie POZIOM KSZTAŁCENIA: FORMA STUDIÓW: stacjonarna

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD X: Sztuczny neuron

Zastosowania sieci neuronowych

Wymagania edukacyjne z przedmiotu Pracownia Baz danych dla klasy 3iA Nauczyciel: Mariusz Walendzewicz Rok szkolny: 2015/2016

SET DLA PROFESJONALISTÓW

SEKCJA I: ZAMAWIAJĄCY SEKCJA II: PRZEDMIOT ZAMÓWIENIA. Zamieszczanie ogłoszenia: obowiązkowe. Ogłoszenie dotyczy: zamówienia publicznego.

Temat: Sieci neuronowe oraz technologia CUDA

Sztuczne sieci neuronowe. Uczenie, zastosowania

Bożena Czyż-Bortowska, Biblioteka Pedagogiczna w Toruniu

Instrukcja korzystania z serwisu Geomelioportal.pl. - Strona 1/12 -

Metody pracy na lekcji. Referat przedstawiony na spotkaniu zespołu matematyczno przyrodniczego

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Kryteria przyznawania ocen z matematyki uczniom klas III Publicznego Gimnazjum nr 1 w Strzelcach Opolskich

Elementy kognitywistyki III: Modele i architektury poznawcze

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

Tworzenie kwerend. Nazwisko Imię Nr indeksu Ocena

SterownikI wentylatora kominkowego Ekofan

Uczenie sieci typu MLP

Pompy ciepła typu powietrze / woda Podgrzewanie ciepłej wody użytkowej, wody basenowej i ogrzewanie budynku

wiedzy Sieci neuronowe (c.d.)

Prezentuje. Zamrażarki niskotemperaturowe. -45ºC & -86ºC Szafowe & Skrzyniowe od 370 do 830 litrów

Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe. Krzysztof Regulski, WIMiIP, KISiM, B5, pok. 408

LIRA 1-GR "QA" sterowanie elektroniczne wymiary zewnętrzne: H zasilanie: 230V (400V) / 2,0 kw

Transkrypt:

Sieci neurnwe mdel knekcjnistyczny Plan wykładu Mózg ludzki a kmputer Mdele knekcjnistycze Perceptrn Sieć neurnwa Sieci Hpfielda Mózg ludzki a kmputer Twój mózg t kmórek, 3 2 kilmetrów przewdów i (biliard) płączeń synaptycznych wszystk t waży.5 kg i zajmuje bjętść kł.5 litra. A zużywa mniej energii niż lampka ncna. Kmputer Mózg Jednstki bliczeniwe CPU 5 - neurnów Jednstki pamięci 9 bitów RAM neurnów bitóa dysku 4 płączeń Czas peracji -8 s -3 s Czas transmisji 9 bitów/s 4 bitów/s Liczba aktywacji/s 5 4 Mózg ludzki a kmputer Cechy mdeli knekcjnistycznych Mdel neurnu Szybkść wyknania pjedynczej peracji vs. rzwiązanie skmplikwaneg zadania Odprnść na pmyłki pjedynczych elementów Zachwanie pprawnści działania w przypadku infrmacji niepewnej i niepełnej składają się z dużej liczby prstych elementów, zwanych neurnami wagi na płączeniach między tymi elementami "kdują wiedzę sieci sterwanie siecią jest równległe i rzprszne głównym prblemem jest autmatyczne uczenie sieci

Neurn Perceptrn Perceptrn wejścia x x w w Perceptrn płączenia Perceptrn łączne pbudzenie neurnu Perceptrn charakterystyka neurnu x w wagi x w x w g g ϕ 2

Perceptrn sygnał wyjściwy Perceptrn liniwy Próg aktywacji jak ddatkwa waga x = x w g ϕ x w n g( X ) = w i x i i= g(x) ϕ (X) x w w n g( X ) = w i x i i= g(x) ϕ (X) = gdy ϕ gdy ϕ w < w = gdy ϕ gdy ϕ < Funkcja aktywacji perceptrnu gdy ϕ = gdy ϕ. < Perceptrn z wielma wejściami i wyjściami x = w ij y Liniw separwalny prblem klasyfikacji funkcja prgwa = + exp g X ( ( )..5 g sigmida g x y A (x A, y A ) x A x 3

Perceptrn uczący się klasyfikacji k = y k = k = 3 k = 635 Twierdzenie Rsenblatta Prces uczenia perceptrnu jest zbieżny. Perceptrn mże się nauczyć dwlneg liniw separwalneg prblemu klasyfikacji. Prblem XOR x x XOR x x x -.5.. -9. x.. -.5. -.5. -9... -.5 -.5. -.5. (x)= -9... -.5 4

-.5. -.5. (x)= -9. -.5. -.5. (x)=. -.5. -9... -.5 -.5. -.5. (x)= -9... -.5 x -.5. -.5. (x)= -9. -.5.,5. (x)=. -.5. -9... -.5 -.5..5. (x)= -9... -.5 x 5

Wielwarstwwe sieci neurnwe Sieci radialne Φ( r ) = r Φ( r ) = sqrt(δ 2 + r 2 ) -.5..5. (x)= -9. -.5. -6,5. (x)= x warstwa wejściwa w ij h h 2... h B warstwa ukryta 2... warstwa wyjściwa C x x 4 φ φ φ 3 w w r = x c, δ> y c x Dany jest zbiór par (x, y) Lsujemy wagi Wybieramy klejną parę ze zbiru ucząceg Dany jest zbiór par (x, y) Lsujemy wagi Wybieramy klejną parę ze zbiru ucząceg Obliczamy wartści w warstwie ukrytej Dany jest zbiór par (x, y) Lsujemy wagi Wybieramy klejną parę ze zbiru ucząceg Obliczamy wartści w warstwie ukrytej Obliczamy wartści w warstwie wyjściwej w ij x... x A h h 2... h B 2... C w ij x h h 2... h B 2... C h j = A w + e i= ij x i j =,..., B w ij x h h 2... h B 2 C 2... C h j = A w + e i= j = B w2 + e i= ij x i ij h i j =,..., B j =,..., C 6

w ij x h h 2... h B Dany jest zbiór par (x, y) Lsujemy wagi Wybieramy klejną parę ze zbiru ucząceg Obliczamy wartści w warstwie ukrytej Obliczamy wartści w warstwie wyjściwej warstwie wyjściwej δ2 j = j ( j )( j y j ), j =,..., C w ij x h h 2... h B Dany jest zbiór par (x, y) Lsujemy wagi Wybieramy klejną parę ze zbiru ucząceg Obliczamy wartści w warstwie ukrytej Obliczamy wartści w warstwie wyjściwej warstwie wyjściwej Krygujemy wagi := + ηδ2 j w ij x h h 2... h B Dany jest zbiór par (x, y) Lsujemy wagi Wybieramy klejną parę ze zbiru ucząceg Obliczamy wartści w warstwie ukrytej Obliczamy wartści w warstwie wyjściwej warstwie wyjściwej Krygujemy wagi warstwie ukrytej i =,..., B; j =,..., C δ j = h j ( h j )δ2 i w2 ji, j =,..., B 2... C 2... C 2... C Dany jest zbiór par (x, y) Lsujemy wagi Wybieramy klejną parę ze zbiru ucząceg Obliczamy wartści w warstwie ukrytej Obliczamy wartści w warstwie wyjściwej x warstwie wyjściwej x Dany jest zbiór par (x, y) Lsujemy wagi Wybieramy klejną parę ze zbiru ucząceg Obliczamy wartści w warstwie ukrytej Obliczamy wartści w warstwie wyjściwej warstwie wyjściwej efekt uczenia Efekt generalizacji w uczeniu sieci zbiór uczący w ij h h 2... h B Krygujemy wagi warstwie ukrytej w ij h h 2... h B Krygujemy wagi warstwie ukrytej zbiór testujący 2... C Krygujemy wagi w ij := w ij + ηδ j x i, i =,..., A, j =,..., B 2... C Krygujemy wagi w ij Kniec epki Backprpagatin algrithm czas treningu 7

Uczenie nienadzrwane Odkrywanie regularnści w danych Algrytm Hebba Jeżeli aktywne są ba neurny, t waga płączenia między nimi się zwiększa x... x i Sieci Hpfielda - + - - Sieci Hpfielda - + - - h... h j... h B w ij w ij := w ij + η x i h m n hm = wi xi i= +2 + -2 + - +2 + -2 + - 2... C Sieci Hpfielda - Sieci Hpfielda - Sieci Hpfielda - + - + - + - - - - +2 + -2 +2 + -2 +2 + -2 + - + - + - 8

- Stany równwagi - Własnści sieci Hpfielda Zastswanie sieci Hpfielda w ptymalizacji + - - +2 + -2 + - + - - +2 + -2 + - - + - - +2 + -2 + - + - - +2 + -2 + - - rzprszna reprezentacja - infrmacja jest zapamiętywana jak wzrzec aktywacji rzprszne, asynchrniczne sterwanie - każdy element pdejmuje decyzję w parciu lkalną wiedzę pamięć adreswalna przez zawartść - aby dtwrzyć wzrzec zapisany w sieci wystarczy pdać fragment infrmacji tlerancja błędów - jeżeli jakiś element ppełni błąd, t cała sieć i tak pda pprawne rzwiązanie MASZYNA BOLTZMANA Zastswanie sieci Hpfielda w ptymalizacji MASZYNA BOLTZMANA Prblemy rzwiązywane za pmcą sieci Klasyfikacja biektóa pdstawie cech Identyfikacja biektów Rzpznawanie brazów Rzpznawanie sygnałów (radar, mwa) Diagnstyka urządzeń Sterwanie złżnymi układami Optymalizacja dyskretna Zastswania sieci Sterwanie w regulatrach ltu (US Air Frce) Diagnstyka silników samchdwych (Frd Mtr Cmpany) Identyfikacja typów skał naptkanych pdczas dwiertów przy pszukiwaniu rpy i gazu (Halliburtn) Pszukiwanie bmb na ltnisku JFK w Nwym Jrku (TWA) Prgnzy giełdwe 9

Czeg nie mżna wyknać za pmcą sieci neurnwej Operacje na symblach Edytr tekstu Prcesr wyrażeń algebraicznych Obliczenia, w których wymagana jest wyska dkładnść wyniku numeryczneg Obsługa knt bankwych Obliczenia inżynierskie (knstrukcyjne) Zadania wymagające rzumwania wieletapweg Rzstrzyganie prawdziwści lub fałszywści sekwencji stwierdzeń lgicznych (dwdzenie twierdzeń, systemy eksperckie)