ZASTOSOWANIA SIECI NEURONOWYCH

Wielkość: px
Rozpocząć pokaz od strony:

Download "ZASTOSOWANIA SIECI NEURONOWYCH"

Transkrypt

1 SN... 1 DZIEJE BADA¼ NAD SIECIAMI NEURONOWYMI - równoleg»y sposób przetwarzania informacji : Perceptron, Cornell Aeronautical Laboratory (uk»ad elektromechaniczny do rozpoznawania znaków) 8 komórek, 512 po» cze½, szybkoñƒ 10 3 prze» cze½ na sekund : Adaline, Uniwersytet Stanforda 8 modeli neuronów o 128 po» czeniach, szybkoñƒ 10 4 po» cze½ na sekund - zahamowanie bada½ na pocz tku lat 70-tych za spraw prac Minskiego i Paperta wykazuj cych ograniczony zakres zastosowa½ sieci liniowych : Avalanche, Uniwersytet w Bostonie do rozpoznawania mowy i sterowania robota : Cerebellatron, Massachusets, do sterowania robota : Brain State in a Box, Uniw. Browna, przeszukiwanie bazy danych : Neocognitron zbudowany przez Fukushim, rozpoznawanie znaków wielka liczba elementów i po» cze½, odczytywa» dowolne znaki, równieó zniekszta»cone : Adaptive Resonance Theory do rozpoznawania sygna»ów radaru, sonaru : uk»ady scalone modeli komórek nerwowych - sieci ze sprz óeniami zwrotnymi, poszukiwanie stanu równowagi w dynamicznym procesie iteracyjnym ( 1982, AT&T), wykorzystywane do odtwarzania obrazów z ich fragmentów).

2 SN... 2

3 SN... 3 SIE NEURONOWA Pierwowzorem jest mózg ludzki: 1400cm 3, powierzchnia 2000cm 2 (kula o tej samej obj. 600cm 2 ) Masa mózgu 1,5 kg, gruboñƒ kory mózgowej 3mm, komórek nerwowych i komórek glejowych. Liczba po» cze½ ok , przec. dystans 0,01 do 1 mm. Impulsy o cz stotl Hz, czas trwania 1-2ms, napi cie 100mV, szybkoñƒ propagacji 1-100m/s. Szacowana szybkoñƒ pracy mózgu: 10 operacji synaps 100Hz = operacji/s (najszybszy komputer ). Typowa reakcja jest wykonywana w nie wi cej nió 100 krokach. PojemnoÑci informacyjne kana»ów szacuje si na: wzrok 100Mb/s, dotyk 1Mb/s, s»uch 15kb/s, w ch 1kb/s, smak 100b/s. Sieƒ neuronowa jest bardzo uproszczonym modelem mózgu. Wi budowanych sieci ma struktur warstwow : kszoñƒ wspó»czeñnie

4 SN... 4 ZASTOSOWANIA SIECI NEURONOWYCH - diagnostyka uk»adów elektronicznych - badania psychiatryczne - prognozy gie»dowe - prognozowanie sprzedaóy - poszukiwania ropy naftowej - intepretacja bada½ biologicznych - prognozy cen - analiza bada½ medycznych - planowanie remontów maszyn - prognozowanie post pów w nauce - typowania na wyñcigach konnych - analiza problemów produkcyjnych - optymalizacja dzia»alnoñci handlowej - analiza spektralna - optymalizacja utylizacji odpadów - dobór surowców - selekcja celów Ñledztwa w kryminalistyce - dobór pracowników - sterowanie procesów przemys»owych - kontrola bagaóu na lotniskach (sieƒ SNOOPE, 1988) - analiza sygna»ów sonarowych (f-ma Bendix Aerospace) - czytanie pisma, równieó japo½skiego (NestorWriter) - synteza mowy (NETtalk) - weryfikacja podpisów - konwersja, filtracja, aproksymacja i transformacja (Fouriera) - automatyka (uk»ady regulacji), robotyka i teoria sterowania (uk»ady samoucz ce si ) - informatyka (pami ci asocjacyjne dwukierunkowe BAM, modele pami ci biologicznej)

5 SN... 5 WAòNIEJSZE KIERUNKI ZASTOSOWA¼ 1. Predykcja Opiera si na zdolnoñci przewidywania sygna»ów wyjñciowych bez koniecznoñci stawiania w sposób jawny hipotez o naturze zwi zku pomi dzy danymi wej Ñciowymi, a przewidywanymi wynikami. - ocena zdolnoñci kredytowych przedsi biorstw - prognozy ekonomiczne - gra na gie»dzie 2. Klasyfikacja i rozpoznawanie podmiotów gospodarczych Moóna traktowaƒ jako predykcj stanu przedsi biorstwa 3. Kojarzenie danych Klasyczne komputery gromadz c wielkie zbiory nie s w stanie ich kojarzyƒ lub wnioskowaƒ 4. Analiza danych Szukanie zwi zków nie tylko przyczynowych, ale i incydentalnych. Przez to nowe mo óliwoñci analiz ekonomicznych i gry rynkowej. Ustalanie przyczyn niepowodze½. 5. Filtracja sygna»ów W telekomunikacji, w diagnostyce medycznej... Filtry danych gospodarczych 6. Optymalizacja Zw»aszcza sieci Hopfielda nadaj si do poszukiwania rozwi za½ prowadz cych do optymalnych decyzji gospodarczych. Optymalizacja statyczna, dynamiczna i kombinatoryczna.

6 SN... 6 WºAÐCIWOÐCI SIECI NEURONOWYCH Sieci z jednokierunkowymi po» czeniami ( feedforward ) Sieci ze sprz óeniami zwrotnymi ( Hopfielda ) Zdolnoу sieci do adaptacji i samoorganizacji Zmniejszona wraóliwoñƒ na uszkodzenia elementów Praca równoleg»a (jak w systemach wspó»bieónych) Zamiast projektowaƒ algorytm, stawia si sieci zadania i automatycznie, zgodnie z za»oóon strategi zmienia po» czenia i wspó»czynniki wagowe. Sieƒ wi c programuje si sama, ale wymaga to czasem nawet setek tysi cy iteracji. LINIOWE SIECI NEURONOWE Rys.3. Pojedynczy element sieci Sygna»y x i y mog przyjmowaƒ wartoñci z pewnego przedzia»u, np. z dok»adnoñci do funkcji skaluj cej moóna zapisaƒ: x i 0 [-1, 1] y 0 [-1, 1] Zaleónoу y= f(x 1, x 2,..., x n ) w najprostszym przypadku jest liniowa: Wspó»czynniki w i zwane s wagami synaptycznymi i podlegaj modyfikacji w trakcie procesu uczenia. Element opisany powy ószym równaniem liniowym jest mi dzy innymi zdolny do rozpoznawania sygna»ów wejñciowych.

7 SN... 7 Zestaw sygna»ów wejñciowych tworzy wektor: Równowaónie moóna zapisaƒ X = [x 1, x 2,..., x n ] T oraz W = [w 1, w 2,..., w n ] T y = W C X lub y = W T X Neuron rozpoznaje wi c sygna»y wejñciowe podobne do jego wag. Gdy dodatkowo X i W s znormalizowane: 2 X 2 = X T X = 1 2 W 2 = W T W = 1 sygna» wyjñciowy neuronu moóna wyznaczyƒ jako y = cos n, gdzie n = k t pomi dzy X i Y

8 SN... 8 WARTSTWA NEURONÓW JAKO NAJPROSTSZA SIEˆ Kaódy neuron ma ten sam zestaw sygna»ów wejñciowych X = [x 1, x 2,..., x n ] T, natomiast kaódy ma swój w»asny wektor wag W (m) = [w 1 (m), w 2 (m),..., w n (m) ] T, m = 1, 2,..., k. Sygna» wyjñciowy neuronu moóna wyznaczyƒ ze wzoru Maksymalny jest sygna» na tym neuronie, którego wektor wag W (m) najbardziej przypomina X Sygna» wyjñciowy warstwy neuronów wynosi Y = [y 1, y 2,..., y n ] T i moóna go wyznaczyƒ mnoó c Y = W k X gdzie: Macierz W k zadaje odwzorowanie liniowe sygna»u X 0 U n w sygna» Y 0 U k. Odwzorowanie to moóe byƒ dowolne. Moóna je równieó traktowaƒ jako filtracj.

9 SN... 9 UCZENIE POJEDYNCZEGO NEURONU Aby umoóliwiƒ uczenie, neuron musi posiadaƒ procesor zmiany wag i detektor b» du. Taki neuron nazywany jest ADALINE ( ADAptive LINear Element). Za»óómy, óe zadanie stawiane ADALINE polega na tym, by sygna» y by» zwi zany z sygna»ami X : y = f ( X ). Funkcja f nie musi by ƒ podana jawnie, wystarczy dla kaódego X podaƒ wartoñƒ z stanowi c ó danie odnoñnie sygna»u wyjñciowego y : z = f ( X ). Rys.6. Neuron z procesorem wag i detektorem b» du Algorytm uczenia Widrowa i Hoffa DELTA zak»ada podawanie dodatkowo wartoñci z. Detektor b» du wyznacza * = z - y, które koryguje wektor wag W tak, by neuron lepiej realizowa» Nowy wektor wag W ' obliczany jest ze wzoru: y = f( X ). W ' = W + 0 * X 0 jest wspó»czynnikiem decyduj cym o szybkoñci uczenia. Uzasadnienie: za»óómy, óe * > 0, tzn. z > y (sygna» by» zbyt ma»y, czyli k t pomi dzy X i W zbyt duóy). òeby y by» maksymalny, trzeba uzgodniƒ kierunki X i W. Nowy wektor W ' = W + X jest zawsze bliószy X nió poprzedni W. Czyli uczenie nakazuje dodawanie fragmentu wektora X, co zapobiega zbyt gwa»townym obrotom wektora W przy kaódym napotkanym b» dzie. Przy * < 0 nast puje oddalanie W od X.

10 SN PROCES UCZENIA SIECI Ci g ucz cy ma struktur : Czyli regu»a DELTA: U = << X (1), z (1) >, << X (2), z (2) >,..., << X (N), z (N) >> gdzie: W (j+1) = W + 0 * X * = z - y y = W C X Pocz tkowy wektor wag W (1) powinien mieƒ sk»adowe wybrane losowo. Nie naleóy przyjmowaƒ jednakowych wartoñci dla wszystkich sk»adowych. Celem procesu uczenia jest minimalizacja funkcji (jak w metodzie najmniejszych kwadratów): Przy zastosowaniu metody gradientowej dla i-tej sk»adowej wektora W : WartoÑci 0 zaleó od j i tworz ci g <0 (1), 0 (2), 0 (3),..., >. Na podst. teorii aproksymacji musi on spe»niaƒ warunki : Moóe to byƒ np. ci g : 0 maleje szybko ze wzrostem j i szybkoñƒ uczenia moóe maleƒ lub wr cz zatrzymywaƒ si.

11 SN Proponuje si wartoñci ci gu obliczane ze wzoru: 8 jest pewn ustalon wartoñci zwykle z przedzia»u <0.1, 1 >. W praktyce cz sto wybiera si ustalone 0, niezaleóne od j. Zbyt duóe : niezbieónoñƒ algorytmu, zbyt ma»e : nieefektywny proces uczenia. Proces uczenia moóna potraktowaƒ jako gradientow minimalizacj funkcji b» du dla kroku j Poniewaó Q = 1/2 (z - y ) 2 : Ostatecznie otrzymuje si formu» uczenia neuronu typu ADALINE )w i = 0 * x i Funkcja Q jest unimodalna wi c proces uczenia jest zbieóny.

12 SN UCZENIE SIECI ELEMENTÓW LINIOWYCH Dobierana jest w tym wypadku macierz W k, a ci g ucz cy ma postaƒ: U = << X (1), Z (1) >, << X (2), Z (2) >,..., << X (N), Z (N) >> gdzie : Z - k-elementowe zestawy wymaganych odpowiedzi sieci na wymuszenia X. Jest to sieƒ typu ManyADALINE. Sieƒ wielowarstwowa MADALINE ma takie same w»asnoñci jak jednowarstwowa. Formu»a uczenia ma postaƒ macierzow : W k (j+1) = W k + 0 ( Z - Y ) ( X ) T Wymiar macierzy poprawek )W k [k n] Uczenie sieci moóna porównaƒ do filtracji adaptacyjnej. Mog one byƒ uóyte do zada½ typowych dla sieci neuronowych, np. do pami ci adresowanych kontekstowo lub asocjacyjnych. Inne zadania to np. filtr nowoñci - wyñwietlaj cy na ekranie fragmenty sceny ulegaj ce zmianie. UCZENIE BEZ NAUCZYCIELA unsupervised learning lub hebbian learning Waga w i (m) i-tego wejñcia m-tego neuronu wzrasta podczas prezentacji wektora X : w i (m)(j+1) = w i (m) + 0 x i y m, gdzie Taka sieƒ jest autoasocjacyjna. Sieƒ moóe grupowaƒ podobne pobudzenia. Jest ona zdolna równieó do rozpoznawania obiektów nie pokazanych wcze Ñniej. Liczba neuronów w sieci k musi byƒ wi ksza nió liczba rozróónianych klas obiektów.

13 SN WARIANTY UCZENIA Przyrostowe samouczenie (differential hebbian learning) : (m)(j+1) (m) (j-1) (j-1) w i = w i + 0 [( x i - x i )( y m - y m )] Gwiazda wejñƒ (instar training) (wybieranie ucz cego si neuronu) : w (m)(j+1) i = w (m) i + 0 ( x i - w (m) i ) Empiryczna regu»a dla wyboru 0 : 0 = j, 8 na tyle ma»e, by stale 0 > 0. Metoda stosowana w przypadku, gdy trzeba nauczyƒ sieƒ rozpoznawania sygna»u X Gwiazda wyjñƒ (outstar) w i (m)(j+1) = w i (m) + 0 ( y m - w i (m) ) i jest ustalone, a m jest zmienne. Regu»a dla wyboru 0 jest podobna : 0 = 1-8 j Metoda stosowana przy uczeniu sieci wytwarzania okre Ñlonego wzorca zachowa½ Y w odpowiedzi na sygna» inicjuj cy. Uczenie z dyskryminacj oraz Technika uczenia wed»ug zmodyfikowanego algorytmu Hebba w i (m)(j+1) = w i (m) + 0 x i * y m * ) Ten wzór pozwala wy» cznie na zwi kszanie wag. Alternatywna wersja pozwala na zmniejszanie wag wejñƒ nieaktywnych (regu»a Hebb/Anti-Hebb) : Dalsze poszerzenie daje wzór Hopfielda : w i (m)(j+1) = w i (m) + 0 x i * ( 2y m * - 1), y m * 0 {0,1} w i (m)(j+1) = w i (m) + 0 x i * ( 2x i * - 1)( 2y m * - 1)

14 SN Uczenie z rywalizacj (competitive learning) Formu»a jak przy uczeniu instar w i (m*)(j+1) = w i (m*) + 0 ( x i * - w i (m*) ) dodatkowo: wektor wejñciowy X jest normalizowany : 2 X 2 = 1, czyli Numer poddawanego treningowi neuronu nie jest przypadkowy, lecz taki, którego sygna» wyjñciowy y m* jest najwi kszy. Oznacza to, óe neurony rywalizuj ze sob i wygrywa ten, który uzyska» najwi ksze y m*. Uczeniu podlega tylko ten zwyci ski neuron. Czyli efektem jest jeszcze lepsze dostosowanie jego wektora wag W (m*)(j+1) do rozpoznawania obiektów podobnych do X. Inne neurony b d uczone przy pokazie innych obiektów. Regu»a uczenia Kohonena polega dodatkowo na uporz dkowaniu neuronów. Uczeniu podlega nie jeden neuron, lecz równieó neurony z nim s siaduj ce: gdzie np.: w i (m)(j+1) = w i (m) + 0 h(m, m * ) ( x i * - w i (m) ) h(m, m * ) moóe byƒ wyraóone za pomoc innych funkcji, wybranych funkcji. Dwuwymiarowa odmiana sieci Kohonena - uczenie z uwzgl dnieniem dwuwymiarowego s siedztwa. Sieci te mog odwzorowywaƒ struktur dwuwymiarowego obiektu.

15 SN Uczenie z forsowaniem Forsowanie poprawnych rozwi za½ bez wzgl du na to, co robi sieƒ. Istotne przyñpieszenie procesu uczenia. Odmiany: metoda autoasocjacji: w i (m)(j+1) = w i (m) + 0 x i z m metoda przyrostowej autoasocjacji w i (m)(j+1) = w i (m) + 0 ( x i - x i (j-1) )( z m - z m (j-1) ) metoda zblióania wag do wektora odpowiedzi w i (m)(j+1) = w i (m) + 0 ( z m - w i (m) ) Wprowadzaj c podobnie jak poprzednio moóna podaƒ trzy kolejne regu»y uczenia: w i (m)(j+1) = w i (m) + 0 x i * z m * w i (m)(j+1) = w i (m) + 0 x i * (2 z m * - 1) w i (m)(j+1) = w i (m) + 0 x i * (2 x i * - 1)(2 z m * - 1) Wybór regu»y jest podyktowany jej przydatnoñci w konkretnym zadaniu. Przydatnoу t moóna cz sto okreñliƒ jedynie na drodze eksperymentu.

16 SN PRZYSPIESZANIE PROCESU UCZENIA Wi kszoñƒ opisanych metod daje wynik dopiero po prezentacji duóej (nawet setki tysi cy) liczby pokazów. Jedn z metod przyspieszenia jest dobór 0 omówiony przedtem. Inn metod jest wprowadzenie do wzoru na korekt wektora wag sk»adnika "bezw»adnoñci" w postaci tak zwanego momentum, np. w nast puj cy sposób: W k (j+1) = W k ( Z - Y ) [ X ] T M gdzie momentum M wyliczane jest ze wzoru M = W k - W k (j-1) Daje to polepszenie nie tylko szybkoñci uczenia, lecz i stabilnoñci procesu. Moóna wtedy bezpiecznie zwi kszyƒ wspó»czynnik 0. DoÑwiadczenie pokazuje, óe dobre wyniki procesu uczenia daje 0 1 = 0.9 oraz 0 2 = 0.6. Czasami stosuje si zmniejszanie wartoñci 0 w kolejnych krokach j pozostawiaj c sta»e 0 1 /0 2. Nast pna technika zwi kszaj ca szybkoñƒ - ograniczenie procesu do duóych poprawek. Regu»a uczenia zawiera wtedy dodatkowy parametr 0 3 : 0 3 powinien na pocz tku uczenia przyjmowaƒ wartoñƒ 0.2, a nast pnie maleƒ do zera. Metoda przyñpieszania wyk»adniczego Inne waóenie sk»adników koryguj cych wektor wag: W k (j+1) = W k {(1-0 2 )( Z - Y ) [ X ] T (W k - W k (j-1) )} Randomizacja zbioru ucz cego <X, Z > Raczej nie wybieraƒ cyklicznie, moóna mieszaƒ pokazy w kaódym cyklu Technika kumulowania b» dów: podzia» ci gu ucz cego j na odcinki o d»ugoñci 0 4, praktycznie 30 # 0 4 # 50, ponumerowanie tych odcinków indeksami j * i obliczanie w kaódym z nich skumulowanego b» du : Nowe wartoñci wag : W k (j*+1) = W k (j*) + S (j*), s one wprowadzane jedynie w momentach j = 0 4 j *, j * = 1,2,...

Inteligentne systemy informacyjne

Inteligentne systemy informacyjne Inteligentne systemy informacyjne Moduł 10 Mieczysław Muraszkiewicz www.icie.com.pl/lect_pw.htm M. Muraszkiewicz strona 1 Sieci neuronowe szkic Moduł 10 M. Muraszkiewicz strona 2 Dwa nurty M. Muraszkiewicz

Bardziej szczegółowo

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów. Wstęp do teorii sztucznej inteligencji Wykład II Uczenie sztucznych neuronów. 1 - powtórzyć o klasyfikacji: Sieci liniowe I nieliniowe Sieci rekurencyjne Uczenie z nauczycielem lub bez Jednowarstwowe I

Bardziej szczegółowo

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu Literatura Wykład : Wprowadzenie do sztucznych sieci neuronowych Małgorzata Krętowska Wydział Informatyki Politechnika Białostocka Tadeusiewicz R: Sieci neuronowe, Akademicka Oficyna Wydawnicza RM, Warszawa

Bardziej szczegółowo

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, 2013 Spis treści Przedmowa 7 1. Wstęp 9 1.1. Podstawy biologiczne działania neuronu 9 1.2. Pierwsze modele sieci neuronowej

Bardziej szczegółowo

Wykład 2. Model Neuronu McCulocha-Pittsa Perceptron Liniowe Sieci Neuronowe

Wykład 2. Model Neuronu McCulocha-Pittsa Perceptron Liniowe Sieci Neuronowe Sztuczne Sieci Neuronowe Wykład 2 Model Neuronu McCulocha-Pittsa Perceptron Liniowe Sieci Neuronowe wykład przygotowany na podstawie. R. Tadeusiewicz, Sieci Neuronowe, Rozdz. 3. Akademicka Oficyna Wydawnicza

Bardziej szczegółowo

Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści

Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, 2012 Spis treści Przedmowa do wydania drugiego Przedmowa IX X 1. Wstęp 1 2. Wybrane zagadnienia sztucznej inteligencji

Bardziej szczegółowo

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania WYKŁAD 4 Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania PLAN WYKŁADU Metody uczenia sieci: Uczenie perceptronu Propagacja wsteczna Zastosowania Sterowanie (powtórzenie) Kompresja obrazu Rozpoznawanie

Bardziej szczegółowo

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia

Bardziej szczegółowo

Sieci Neuronowe. Liniowe Sieci Neuronowe

Sieci Neuronowe. Liniowe Sieci Neuronowe Sieci Neuronowe Liniowe Sieci Neuronowe Paweł KrzyŜanowski ETI 9.4 Sieci Liniowe Sieci liniowe, znane w literaturze pod nazwami ADALINE i MADALINE są najprostsze w budowie, a równocześnie są w wielu wypadkach

Bardziej szczegółowo

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych. Wstęp do teorii sztucznej inteligencji Wykład III Modele sieci neuronowych. 1 Perceptron model najprostzszy przypomnienie Schemat neuronu opracowany przez McCullocha i Pittsa w 1943 roku. Przykład funkcji

Bardziej szczegółowo

Sztuczna inteligencja

Sztuczna inteligencja Sztuczna inteligencja Wykład 7. Architektury sztucznych sieci neuronowych. Metody uczenia sieci. źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Podstawowe architektury

Bardziej szczegółowo

wiedzy Sieci neuronowe

wiedzy Sieci neuronowe Metody detekcji uszkodzeń oparte na wiedzy Sieci neuronowe Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 7 Wprowadzenie Okres kształtowania się teorii sztucznych sieci

Bardziej szczegółowo

Sztuczne sieci neuronowe (SNN)

Sztuczne sieci neuronowe (SNN) Sztuczne sieci neuronowe (SNN) Pozyskanie informacji (danych) Wstępne przetwarzanie danych przygotowanie ich do dalszej analizy Selekcja informacji Ostateczny model decyzyjny SSN - podstawy Sieci neuronowe

Bardziej szczegółowo

Uczenie Wielowarstwowych Sieci Neuronów o

Uczenie Wielowarstwowych Sieci Neuronów o Plan uczenie neuronu o ci gªej funkcji aktywacji uczenie jednowarstwowej sieci neuronów o ci gªej funkcji aktywacji uczenie sieci wielowarstwowej - metoda propagacji wstecznej neuronu o ci gªej funkcji

Bardziej szczegółowo

SIECI KOHONENA UCZENIE BEZ NAUCZYCIELA JOANNA GRABSKA-CHRZĄSTOWSKA

SIECI KOHONENA UCZENIE BEZ NAUCZYCIELA JOANNA GRABSKA-CHRZĄSTOWSKA SIECI KOHONENA UCZENIE BEZ NAUCZYCIELA JOANNA GRABSKA-CHRZĄSTOWSKA Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA SAMOUCZENIE SIECI metoda Hebba W mózgu

Bardziej szczegółowo

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda Sieci neuropodobne 1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN Agenda Trochę neurobiologii System nerwowy w organizmach żywych tworzą trzy

Bardziej szczegółowo

MODELOWANIE RZECZYWISTOŚCI

MODELOWANIE RZECZYWISTOŚCI MODELOWANIE RZECZYWISTOŚCI Daniel Wójcik Instytut Biologii Doświadczalnej PAN Szkoła Wyższa Psychologii Społecznej d.wojcik@nencki.gov.pl dwojcik@swps.edu.pl tel. 022 5892 424 http://www.neuroinf.pl/members/danek/swps/

Bardziej szczegółowo

Podstawy Sztucznej Inteligencji (PSZT)

Podstawy Sztucznej Inteligencji (PSZT) Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12

Bardziej szczegółowo

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna. Sieci neuronowe model konekcjonistyczny Plan wykładu Mózg ludzki a komputer Modele konekcjonistycze Perceptron Sieć neuronowa Uczenie sieci Sieci Hopfielda Mózg ludzki a komputer Twój mózg to 00 000 000

Bardziej szczegółowo

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe www.math.uni.lodz.pl/ radmat Cel wykładu Celem wykładu jest prezentacja różnych rodzajów sztucznych sieci neuronowych. Biologiczny model neuronu Mózg człowieka składa się z około 10 11 komórek nerwowych,

Bardziej szczegółowo

Metody Sztucznej Inteligencji II

Metody Sztucznej Inteligencji II 17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału

Bardziej szczegółowo

8. Neuron z ciągłą funkcją aktywacji.

8. Neuron z ciągłą funkcją aktywacji. 8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i

Bardziej szczegółowo

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe JOANNA GRABSKA-CHRZĄSTOWSKA Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA BUDOWA RZECZYWISTEGO NEURONU

Bardziej szczegółowo

Temat: Sieci neuronowe oraz technologia CUDA

Temat: Sieci neuronowe oraz technologia CUDA Elbląg, 27.03.2010 Temat: Sieci neuronowe oraz technologia CUDA Przygotował: Mateusz Górny VIII semestr ASiSK Wstęp Sieci neuronowe są to specyficzne struktury danych odzwierciedlające sieć neuronów w

Bardziej szczegółowo

SIECI NEURONOWE Wprowadzenie

SIECI NEURONOWE Wprowadzenie SIECI NEURONOWE Wprowadzenie JOANNA GRABSKA-CHRZĄSTOWSKA Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA WYKŁADOWCA JOANNA GRABSKA CHRZĄSTOWSKA KATEDRA

Bardziej szczegółowo

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. zajecia.jakubw.pl/nai Literatura: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym. WNT, Warszawa 997. PODSTAWOWE ZAGADNIENIA TECHNICZNE AI

Bardziej szczegółowo

SIECI REKURENCYJNE SIECI HOPFIELDA

SIECI REKURENCYJNE SIECI HOPFIELDA SIECI REKURENCYJNE SIECI HOPFIELDA Joanna Grabska- Chrząstowska Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA SPRZĘŻENIE ZWROTNE W NEURONIE LINIOWYM sygnał

Bardziej szczegółowo

6. Projektowanie składu chemicznego stali szybkotn cych o wymaganej twardo ci i odporno ci na p kanie

6. Projektowanie składu chemicznego stali szybkotn cych o wymaganej twardo ci i odporno ci na p kanie 6. Projektowanie składu chemicznego stali szybkotn cych o wymaganej twardo ci i odporno ci na p kanie Do projektowania składu chemicznego stali szybkotn cych, które jest zadaniem optymalizacyjnym, wykorzystano

Bardziej szczegółowo

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,

Bardziej szczegółowo

Sztuczne sieci neuronowe. Uczenie, zastosowania

Sztuczne sieci neuronowe. Uczenie, zastosowania Wydział Zarządzania AGH Katedra Informatyki Stosowanej Sztuczne sieci neuronowe. Uczenie, zastosowania Inteligencja Sztuczne sieci neuronowe Metody uczenia Budowa modelu Algorytm wstecznej propagacji błędu

Bardziej szczegółowo

Uczenie sieci neuronowych i bayesowskich

Uczenie sieci neuronowych i bayesowskich Wstęp do metod sztucznej inteligencji www.mat.uni.torun.pl/~piersaj 2009-01-22 Co to jest neuron? Komputer, a mózg komputer mózg Jednostki obliczeniowe 1-4 CPU 10 11 neuronów Pojemność 10 9 b RAM, 10 10

Bardziej szczegółowo

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe wykład 1. Właściwości sieci neuronowych Model matematyczny sztucznego neuronu Rodzaje sieci neuronowych Przegląd d głównych g

Bardziej szczegółowo

Uczenie sieci radialnych (RBF)

Uczenie sieci radialnych (RBF) Uczenie sieci radialnych (RBF) Budowa sieci radialnej Lokalne odwzorowanie przestrzeni wokół neuronu MLP RBF Budowa sieci radialnych Zawsze jedna warstwa ukryta Budowa neuronu Neuron radialny powinien

Bardziej szczegółowo

Seminarium magisterskie. Dyskusja nad tematem pracy magisterskiej pisanej pod kierunkiem pani Dr hab. Małgorzaty Doman

Seminarium magisterskie. Dyskusja nad tematem pracy magisterskiej pisanej pod kierunkiem pani Dr hab. Małgorzaty Doman Seminarium magisterskie Dyskusja nad tematem pracy magisterskiej pisanej pod kierunkiem pani Dr hab. Małgorzaty Doman Plan wystąpienia Ogólnie o sztucznych sieciach neuronowych Temat pracy magisterskiej

Bardziej szczegółowo

METODY INTELIGENCJI OBLICZENIOWEJ wykład 4

METODY INTELIGENCJI OBLICZENIOWEJ wykład 4 METODY INTELIGENCJI OBLICZENIOWEJ wykład 4 1 2 SZTUCZNE SIECI NEURONOWE HISTORIA SSN 3 Walter Pitts, Warren McCulloch (1943) opracowanie matematyczne pojęcia sztucznego neuronu.. Udowodnili też, iż ich

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd. Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 2013-11-26 Projekt pn. Wzmocnienie potencjału

Bardziej szczegółowo

SZTUCZNE SIECI NEURONOWE

SZTUCZNE SIECI NEURONOWE METODY INTELIGENCJI OBLICZENIOWEJ wykład 4 SZTUCZNE SIECI NEURONOWE HISTORIA SSN Walter Pitts, Warren McCulloch (94) opracowanie matematyczne pojęcia sztucznego neuronu.. Udowodnili też, iż ich wynalazek

Bardziej szczegółowo

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM ZASTOSOWANIE SIECI NEURONOWYCH W SYSTEMACH AKTYWNEJ REDUKCJI HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM WPROWADZENIE Zwalczanie hałasu przy pomocy metod aktywnych redukcji hałasu polega

Bardziej szczegółowo

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe Wydział Zarządzania AGH Katedra Informatyki Stosowanej Sztuczne sieci neuronowe Sztuczne sieci neuronowe Wprowadzenie Trochę historii Podstawy działania Funkcja aktywacji Typy sieci 2 Wprowadzenie Zainteresowanie

Bardziej szczegółowo

Wstęp do teorii sztucznej inteligencji

Wstęp do teorii sztucznej inteligencji Wstęp do teorii sztucznej inteligencji Wykład IV SSN = Architektura + Algorytm Uczenie sztucznych neuronów. Przypomnienie. Uczenie z nauczycielem. Wagi i wejścia dla sieci neuronuowej: reprezentacja macierzowa

Bardziej szczegółowo

SZTUCZNE SIECI NEURONOWE

SZTUCZNE SIECI NEURONOWE INTELIGENTNE TECHNIKI KOMPUTEROWE wykład SZTUCZNE SIECI NEURONOWE HISTORIA SSN Walter Pitts, Warren McCulloch (94) opracowanie matematyczne pojęcia sztucznego neuronu.. Udowodnili też, iż ich wynalazek

Bardziej szczegółowo

Neural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych.

Neural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych. Neural networks Lecture Notes n Pattern Recognton by W.Dzwnel Krótka hstora McCulloch Ptts (1943) - perwszy matematyczny ops dzalana neuronu przetwarzana przez nego danych. Proste neurony, które mogly

Bardziej szczegółowo

B/ZA Grudziądz, dnia...

B/ZA Grudziądz, dnia... B/ZA Grudziądz, dnia...... (pieczęć firmowa Wnioskodawcy) Prezydent Grudziądza za pośrednictwem Powiatowego Urzędu Pracy w Grudziądzu ul. Parkowa 22 WNIOSEK o zatrudnienie osoby bezrobotnej do 30 roku

Bardziej szczegółowo

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Sieci Hopfielda Najprostsze modele sieci z rekurencją sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Modele bardziej złoŝone: RTRN (Real Time Recurrent Network), przetwarzająca sygnały w czasie

Bardziej szczegółowo

Zarządzanie projektami. wykład 1 dr inż. Agata Klaus-Rosińska

Zarządzanie projektami. wykład 1 dr inż. Agata Klaus-Rosińska Zarządzanie projektami wykład 1 dr inż. Agata Klaus-Rosińska 1 DEFINICJA PROJEKTU Zbiór działań podejmowanych dla zrealizowania określonego celu i uzyskania konkretnego, wymiernego rezultatu produkt projektu

Bardziej szczegółowo

Metody numeryczne i statystyka dla in»ynierów

Metody numeryczne i statystyka dla in»ynierów Kierunek: Automatyka i Robotyka, II rok Interpolacja PWSZ Gªogów, 2009 Interpolacja Okre±lenie zale»no±ci pomi dzy interesuj cymi nas wielko±ciami, Umo»liwia uproszczenie skomplikowanych funkcji (np. wykorzystywana

Bardziej szczegółowo

OCENA DZIAŁANIA AE. METODY HEURYSTYCZNE wykład 4 LOSOWOŚĆ W AE KRZYWE ZBIEŻNOŚCI ANALIZA STATYSTYCZNA:

OCENA DZIAŁANIA AE. METODY HEURYSTYCZNE wykład 4 LOSOWOŚĆ W AE KRZYWE ZBIEŻNOŚCI ANALIZA STATYSTYCZNA: METODY HEURYSTYCZNE wykład 4 OCENA DZIAŁANIA AE 1 2 LOSOWOŚĆ W AE Różne zachowanie algorytmuw poszczególnych uruchomieniach przy jednakowych ustawieniach parametrów i identycznych populacjach początkowych.

Bardziej szczegółowo

RZECZPOSPOLITA POLSKA. Prezydent Miasta na Prawach Powiatu Zarząd Powiatu. wszystkie

RZECZPOSPOLITA POLSKA. Prezydent Miasta na Prawach Powiatu Zarząd Powiatu. wszystkie RZECZPOSPOLITA POLSKA Warszawa, dnia 11 lutego 2011 r. MINISTER FINANSÓW ST4-4820/109/2011 Prezydent Miasta na Prawach Powiatu Zarząd Powiatu wszystkie Zgodnie z art. 33 ust. 1 pkt 2 ustawy z dnia 13 listopada

Bardziej szczegółowo

U S T AWA. z dnia 2015 r. Art. 1.

U S T AWA. z dnia 2015 r. Art. 1. Projekt U S T AWA z dnia 2015 r. o zmianie ustawy o minimalnym wynagrodzeniu za pracę Art. 1. W ustawie z dnia 10 października 2002 r. o minimalnym wynagrodzeniu za pracę (Dz. U. z 2002 r., Nr 200, poz.

Bardziej szczegółowo

CASE CPI może być wczesnym wskaźnikiem tendencji zmian cen w gospodarce

CASE CPI może być wczesnym wskaźnikiem tendencji zmian cen w gospodarce 23.11.2015 CASE CPI może być wczesnym wskaźnikiem tendencji zmian cen w gospodarce Autor: Wieczorna Image not found http://wieczorna.pl/uploads/photos/middle_ (Źródło: http://www.case-research.eu/en/node/59021)

Bardziej szczegółowo

Sieci Neuronowe Laboratorium 2

Sieci Neuronowe Laboratorium 2 Sieci Neuronowe Zadania i problemy algorytmiczne dla sieci neuronowych, programowania logicznego i sztucznej inteligencji według zasad i kryteriów laboratoriów. pdf Laboratorium 2 Zapisać następujące stwierdzenia

Bardziej szczegółowo

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010 Materiały/konsultacje Automatyczna predykcja http://www.ibp.pwr.wroc.pl/kotulskalab Konsultacje wtorek, piątek 9-11 (uprzedzić) D1-115 malgorzata.kotulska@pwr.wroc.pl Co to jest uczenie maszynowe? Uczenie

Bardziej szczegółowo

Widzenie komputerowe

Widzenie komputerowe Widzenie komputerowe Uczenie maszynowe na przykładzie sieci neuronowych (3) źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Zdolność uogólniania sieci neuronowej R oznaczenie

Bardziej szczegółowo

Wstęp do sztucznych sieci neuronowych

Wstęp do sztucznych sieci neuronowych Wstęp do sztucznych sieci neuronowych Michał Garbowski Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Wydział Informatyki 15 grudnia 2011 Plan wykładu I 1 Wprowadzenie Inspiracja biologiczna

Bardziej szczegółowo

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor S O M SELF-ORGANIZING MAPS Przemysław Szczepańczyk Łukasz Myszor Podstawy teoretyczne Map Samoorganizujących się stworzył prof. Teuvo Kohonen (1982 r.). SOM wywodzi się ze sztucznych sieci neuronowych.

Bardziej szczegółowo

Od redakcji. Symbolem oznaczono zadania wykraczające poza zakres materiału omówionego w podręczniku Fizyka z plusem cz. 2.

Od redakcji. Symbolem oznaczono zadania wykraczające poza zakres materiału omówionego w podręczniku Fizyka z plusem cz. 2. Od redakcji Niniejszy zbiór zadań powstał z myślą o tych wszystkich, dla których rozwiązanie zadania z fizyki nie polega wyłącznie na mechanicznym przekształceniu wzorów i podstawieniu do nich danych.

Bardziej szczegółowo

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska

Bardziej szczegółowo

Metody numeryczne i statystyka dla in»ynierów

Metody numeryczne i statystyka dla in»ynierów Kierunek: Automatyka i Robotyka, II rok Wprowadzenie PWSZ Gªogów, 2009 Plan wykªadów Wprowadzenie, podanie zagadnie«, poj cie metody numerycznej i algorytmu numerycznego, obszar zainteresowa«i stosowalno±ci

Bardziej szczegółowo

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5 METODY INTELIGENCJI OBLICZENIOWEJ wykład 5 1 2 SZTUCZNE SIECI NEURONOWE cd 3 UCZENIE PERCEPTRONU: Pojedynczy neuron (lub 1 warstwa neuronów) typu percep- tronowego jest w stanie rozdzielić przestrzeń obsza-

Bardziej szczegółowo

Statystyczna analiza danych w programie STATISTICA. Dariusz Gozdowski. Katedra Doświadczalnictwa i Bioinformatyki Wydział Rolnictwa i Biologii SGGW

Statystyczna analiza danych w programie STATISTICA. Dariusz Gozdowski. Katedra Doświadczalnictwa i Bioinformatyki Wydział Rolnictwa i Biologii SGGW Statystyczna analiza danych w programie STATISTICA ( 4 (wykład Dariusz Gozdowski Katedra Doświadczalnictwa i Bioinformatyki Wydział Rolnictwa i Biologii SGGW Regresja prosta liniowa Regresja prosta jest

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline. Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 211-1-18 1 Pomysł Przykłady Zastosowanie 2

Bardziej szczegółowo

POLITECHNIKA WROCŠAWSKA WYDZIAŠ ELEKTRONIKI PRACA DYPLOMOWA MAGISTERSKA

POLITECHNIKA WROCŠAWSKA WYDZIAŠ ELEKTRONIKI PRACA DYPLOMOWA MAGISTERSKA POLITECHNIKA WROCŠAWSKA WYDZIAŠ ELEKTRONIKI Kierunek: Specjalno± : Automatyka i Robotyka (AIR) Robotyka (ARR) PRACA DYPLOMOWA MAGISTERSKA Podatny manipulator planarny - budowa i sterowanie Vulnerable planar

Bardziej szczegółowo

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Wykład 10 Mapa cech Kohonena i jej modyfikacje - uczenie sieci samoorganizujących się - kwantowanie wektorowe

Bardziej szczegółowo

ELEMENTY SZTUCZNEJ INTELIGENCJI. Sztuczne sieci neuronowe

ELEMENTY SZTUCZNEJ INTELIGENCJI. Sztuczne sieci neuronowe ELEMENTY SZTUCZNEJ INTELIGENCJI Sztuczne sieci neuronowe Plan 2 Wzorce biologiczne. Idea SSN - model sztucznego neuronu. Perceptron prosty i jego uczenie regułą delta Perceptron wielowarstwowy i jego uczenie

Bardziej szczegółowo

UKŁAD ROZRUCHU SILNIKÓW SPALINOWYCH

UKŁAD ROZRUCHU SILNIKÓW SPALINOWYCH UKŁAD ROZRUCHU SILNIKÓW SPALINOWYCH We współczesnych samochodach osobowych są stosowane wyłącznie rozruszniki elektryczne składające się z trzech zasadniczych podzespołów: silnika elektrycznego; mechanizmu

Bardziej szczegółowo

2.4. Algorytmy uczenia sieci neuronowych

2.4. Algorytmy uczenia sieci neuronowych 2.4. Algorytmy uczenia sieci neuronowych Prosta struktura sieci jednokierunkowych sprawia, że są najchętniej stosowane. Ponadto metody uczenia ich należą również do popularnych i łatwych w realizacji.

Bardziej szczegółowo

Podstawy sztucznej inteligencji

Podstawy sztucznej inteligencji wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,

Bardziej szczegółowo

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Temat: Sztuczne Sieci Neuronowe Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Sztuczne sieci neuronowe

Bardziej szczegółowo

Inteligentne systemy przeciw atakom sieciowym

Inteligentne systemy przeciw atakom sieciowym Inteligentne systemy przeciw atakom sieciowym wykład Sztuczne sieci neuronowe (SSN) Joanna Kołodziejczyk 2016 Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 1 / 36 Biologiczne

Bardziej szczegółowo

A. Informacje dotyczące podmiotu, któremu ma A1) Informacje dotyczące wspólnika spółki cywilnej być udzielona pomoc de minimis 1)

A. Informacje dotyczące podmiotu, któremu ma A1) Informacje dotyczące wspólnika spółki cywilnej być udzielona pomoc de minimis 1) FORMULARZ INFORMACJI PRZEDSTAWIANYCH PRZY UBIEGANIU SIĘ O POMOC DE MINIMIS Stosuje się do de minimis udzielanej na warunkach określonych w rozporządzeniu Komisji (UE) nr 1407/2013 z dnia 18 grudnia 2013

Bardziej szczegółowo

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:

Bardziej szczegółowo

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2 Elementy Sztucznej Inteligencji Sztuczne sieci neuronowe cz. 2 1 Plan wykładu Uczenie bez nauczyciela (nienadzorowane). Sieci Kohonena (konkurencyjna) Sieć ze sprzężeniem zwrotnym Hopfielda. 2 Cechy uczenia

Bardziej szczegółowo

Eksperyment,,efekt przełomu roku

Eksperyment,,efekt przełomu roku Eksperyment,,efekt przełomu roku Zapowiedź Kluczowe pytanie: czy średnia procentowa zmiana kursów akcji wybranych 11 spółek notowanych na Giełdzie Papierów Wartościowych w Warszawie (i umieszczonych już

Bardziej szczegółowo

Termostaty V2, V4 i V8 Regulatory temperatury bezpo redniego działania F CHARAKTERYSTYKA:

Termostaty V2, V4 i V8 Regulatory temperatury bezpo redniego działania F CHARAKTERYSTYKA: Termostaty V2, V4 i V8 Regulatory temperatury bezpo redniego działania 3.4.01-F CHARAKTERYSTYKA: siła zamkni cia 200 N, 400 N i 800 N do zaworów grzewczych lub chłodz cych solidne i godne zaufania zakres

Bardziej szczegółowo

ZAANGA OWANIE PRACOWNIKÓW W PROJEKTY INFORMATYCZNE

ZAANGA OWANIE PRACOWNIKÓW W PROJEKTY INFORMATYCZNE ZAANGA OWANIE PRACOWNIKÓW W PROJEKTY INFORMATYCZNE LESZEK MISZTAL Politechnika Szczeci ska Streszczenie Celem artykułu jest przedstawienie metody rozwi zania problemu dotycz cego zaanga owania pracowników

Bardziej szczegółowo

U Z A S A D N I E N I E

U Z A S A D N I E N I E U Z A S A D N I E N I E Projektowana nowelizacja Kodeksu pracy ma dwa cele. Po pierwsze, zmianę w przepisach Kodeksu pracy, zmierzającą do zapewnienia pracownikom ojcom adopcyjnym dziecka możliwości skorzystania

Bardziej szczegółowo

Filtracja obrazów w dziedzinie Fouriera

Filtracja obrazów w dziedzinie Fouriera Filtracja obrazów w dziedzinie Fouriera Filtracj mo na zinterpretowa jako mno enie punktowe dwóch F-obrazów - jednego pochodz cego od filtrowanego obrazu i drugiego b d cego filtrem. Wykres amplitudy F-

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt

Bardziej szczegółowo

MATLAB Neural Network Toolbox przegląd

MATLAB Neural Network Toolbox przegląd MATLAB Neural Network Toolbox przegląd WYKŁAD Piotr Ciskowski Neural Network Toolbox: Neural Network Toolbox - zastosowania: przykłady zastosowań sieci neuronowych: The 1988 DARPA Neural Network Study

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 8. SZTUCZNE SIECI NEURONOWE INNE ARCHITEKTURY Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska SIEĆ O RADIALNYCH FUNKCJACH BAZOWYCH

Bardziej szczegółowo

UCHWAŁA... Rady Miejskiej w Słupsku z dnia...

UCHWAŁA... Rady Miejskiej w Słupsku z dnia... Projekt Druk Nr 13/19 UCHWAŁA... Rady Miejskiej w Słupsku z dnia... w sprawie aneksu do porozumienia międzygminnego zawartego pomiędzy Gminą Miejską Słupsk a Gminą Kobylnica i Gminą Słupsk dotyczącego

Bardziej szczegółowo

Systemy uczące się Lab 4

Systemy uczące się Lab 4 Systemy uczące się Lab 4 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 26 X 2018 Projekt zaliczeniowy Podstawą zaliczenia ćwiczeń jest indywidualne wykonanie projektu uwzględniającego

Bardziej szczegółowo

Krótkoterminowe planowanie finansowe na przykładzie przedsiębiorstw z branży 42

Krótkoterminowe planowanie finansowe na przykładzie przedsiębiorstw z branży 42 Krótkoterminowe planowanie finansowe na przykładzie przedsiębiorstw z branży 42 Anna Salata 0 1. Zaproponowanie strategii zarządzania środkami pieniężnymi. Celem zarządzania środkami pieniężnymi jest wyznaczenie

Bardziej szczegółowo

Technologie Informacyjne

Technologie Informacyjne Technologie Informacyjne Szkoła Główna Służby Pożarniczej Zakład Informatyki i Łączności April 11, 2016 Technologie Informacyjne Wprowadzenie : wizualizacja obrazów poprzez wykorzystywanie technik komputerowych.

Bardziej szczegółowo

Projekt z dnia 2 listopada 2015 r. z dnia.. 2015 r.

Projekt z dnia 2 listopada 2015 r. z dnia.. 2015 r. Projekt z dnia 2 listopada 2015 r. R O Z P O R Z Ą D Z E N I E M I N I S T R A P R A C Y I P O L I T Y K I S P O Ł E C Z N E J 1) z dnia.. 2015 r. w sprawie treści, formy oraz sposobu zamieszczenia informacji

Bardziej szczegółowo

XXXXXXXXXXX. XXXXXXXXXXX XXXXXXXXXXXX XXXXXXXXXXXX INTERPRETACJA INDYWIDUALNA

XXXXXXXXXXX. XXXXXXXXXXX XXXXXXXXXXXX XXXXXXXXXXXX INTERPRETACJA INDYWIDUALNA Znak:F.310.1.2013 Sobków, 17.07.2013 r. XXXXXXXXXXX. XXXXXXXXXXX XXXXXXXXXXXX XXXXXXXXXXXX INTERPRETACJA INDYWIDUALNA Wójt Gminy Sobków działając na podstawie art. 14 j 1 i 3, w zw. z art.14 k 1 ustawy

Bardziej szczegółowo

Moduł. Rama 2D suplement do wersji Konstruktora 4.6

Moduł. Rama 2D suplement do wersji Konstruktora 4.6 Moduł Rama 2D suplement do wersji Konstruktora 4.6 110-1 Spis treści 110. RAMA 2D - SUPLEMENT...3 110.1 OPIS ZMIAN...3 110.1.1 Nowy tryb wymiarowania...3 110.1.2 Moduł dynamicznego przeglądania wyników...5

Bardziej szczegółowo

Komputerowe Systemy Sterowania Sem.VI, Wykład organizacyjny

Komputerowe Systemy Sterowania Sem.VI, Wykład organizacyjny Komputerowe Systemy Sterowania Sem.VI, Kierunek: Automatyka i Robotyka, Specjalność: Automatyka i Systemy Sterowania Wykład organizacyjny Katedra Inżynierii Systemów Sterowania Wymiar dydaktyczny przedmiotu

Bardziej szczegółowo

EGZAMIN MATURALNY 2013 J ZYK ROSYJSKI

EGZAMIN MATURALNY 2013 J ZYK ROSYJSKI Centralna Komisja Egzaminacyjna w Warszawie EGZAMIN MATURALNY 2013 J ZYK ROSYJSKI POZIOM ROZSZERZONY Kryteria oceniania odpowiedzi MAJ 2013 ZADANIA OTWARTE Zadanie 1. (0,5 pkt) Przetwarzanie tekstu 1.1.

Bardziej szczegółowo

Ekonometria - wykªad 8

Ekonometria - wykªad 8 Ekonometria - wykªad 8 3.1 Specykacja i werykacja modelu liniowego dobór zmiennych obja±niaj cych - cz ± 1 Barbara Jasiulis-Goªdyn 11.04.2014, 25.04.2014 2013/2014 Wprowadzenie Ideologia Y zmienna obja±niana

Bardziej szczegółowo

Podstawa prawna: Ustawa z dnia 15 lutego 1992 r. o podatku dochodowym od osób prawnych (t. j. Dz. U. z 2000r. Nr 54, poz. 654 ze zm.

Podstawa prawna: Ustawa z dnia 15 lutego 1992 r. o podatku dochodowym od osób prawnych (t. j. Dz. U. z 2000r. Nr 54, poz. 654 ze zm. Rozliczenie podatników podatku dochodowego od osób prawnych uzyskujących przychody ze źródeł, z których dochód jest wolny od podatku oraz z innych źródeł Podstawa prawna: Ustawa z dnia 15 lutego 1992 r.

Bardziej szczegółowo

Bojszowy, dnia 22.02.2010r. Znak sprawy: GZOZ/P1/2010 WYJAŚNIENIE TREŚCI SIWZ

Bojszowy, dnia 22.02.2010r. Znak sprawy: GZOZ/P1/2010 WYJAŚNIENIE TREŚCI SIWZ Bojszowy, dnia 22.02.2010r. Znak sprawy: GZOZ/P1/2010 WYJAŚNIENIE TREŚCI SIWZ Dotyczy: przetargu nieograniczonego na Zakup wraz z dostawą i instalacją aparatu USG dla potrzeb Gminnego Zakładu Opieki Zdrowotnej

Bardziej szczegółowo

Twierdzenie Bayesa. Indukowane Reguły Decyzyjne Jakub Kuliński Nr albumu: 53623

Twierdzenie Bayesa. Indukowane Reguły Decyzyjne Jakub Kuliński Nr albumu: 53623 Twierdzenie Bayesa Indukowane Reguły Decyzyjne Jakub Kuliński Nr albumu: 53623 Niniejszy skrypt ma na celu usystematyzowanie i uporządkowanie podstawowej wiedzy na temat twierdzenia Bayesa i jego zastosowaniu

Bardziej szczegółowo

Sieci komputerowe cel

Sieci komputerowe cel Sieci komputerowe cel współuŝytkowanie programów i plików; współuŝytkowanie innych zasobów: drukarek, ploterów, pamięci masowych, itd. współuŝytkowanie baz danych; ograniczenie wydatków na zakup stacji

Bardziej szczegółowo

PROJEKTOWANIE SYSTEMÓW LOGISTYCZNYCH PROJEKT SYSTEMY LOGISTYCZNE PODSTAWY TEORETYCZNE

PROJEKTOWANIE SYSTEMÓW LOGISTYCZNYCH PROJEKT SYSTEMY LOGISTYCZNE PODSTAWY TEORETYCZNE 1 PROJEKTOWANIE SYSTEMÓW LOGISTYCZNYCH PROJEKT SYSTEMY LOGISTYCZNE PODSTAWY TEORETYCZNE LITERATURA: 2 Hans Christian Pfohl Systemy logistyczne. Podstawy organizacji i zarządzania Instytut Logistyki i Magazynowania,

Bardziej szczegółowo

- o zmianie o Krajowym Rejestrze Sądowym

- o zmianie o Krajowym Rejestrze Sądowym Warszawa, dnia 28 sierpnia, 2012 rok Grupa Posłów na Sejm RP Klubu Poselskiego Ruch Palikota Szanowna Pani Ewa Kopacz Marszałek Sejmu Rzeczypospolitej Polskiej Na podstawie art. 118 ust. 1 Konstytucji

Bardziej szczegółowo

Praktyczne informacje o sieciach neuronowych. Elżbieta Dłubis. Państwowa Wyższa Szkoła Zawodowa w Chełmie

Praktyczne informacje o sieciach neuronowych. Elżbieta Dłubis. Państwowa Wyższa Szkoła Zawodowa w Chełmie Praktyczne informacje o sieciach neuronowych Elżbieta Dłubis Państwowa Wyższa Szkoła Zawodowa w Chełmie Wiedza o sieciach neuronowych zaczęła się od fascynacji mózgiem narządem (..), którego możliwości

Bardziej szczegółowo

Uczenie sieci typu MLP

Uczenie sieci typu MLP Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik

Bardziej szczegółowo