ZASTOSOWANIA SIECI NEURONOWYCH
|
|
- Wiktor Kania
- 8 lat temu
- Przeglądów:
Transkrypt
1 SN... 1 DZIEJE BADA¼ NAD SIECIAMI NEURONOWYMI - równoleg»y sposób przetwarzania informacji : Perceptron, Cornell Aeronautical Laboratory (uk»ad elektromechaniczny do rozpoznawania znaków) 8 komórek, 512 po» cze½, szybkoñƒ 10 3 prze» cze½ na sekund : Adaline, Uniwersytet Stanforda 8 modeli neuronów o 128 po» czeniach, szybkoñƒ 10 4 po» cze½ na sekund - zahamowanie bada½ na pocz tku lat 70-tych za spraw prac Minskiego i Paperta wykazuj cych ograniczony zakres zastosowa½ sieci liniowych : Avalanche, Uniwersytet w Bostonie do rozpoznawania mowy i sterowania robota : Cerebellatron, Massachusets, do sterowania robota : Brain State in a Box, Uniw. Browna, przeszukiwanie bazy danych : Neocognitron zbudowany przez Fukushim, rozpoznawanie znaków wielka liczba elementów i po» cze½, odczytywa» dowolne znaki, równieó zniekszta»cone : Adaptive Resonance Theory do rozpoznawania sygna»ów radaru, sonaru : uk»ady scalone modeli komórek nerwowych - sieci ze sprz óeniami zwrotnymi, poszukiwanie stanu równowagi w dynamicznym procesie iteracyjnym ( 1982, AT&T), wykorzystywane do odtwarzania obrazów z ich fragmentów).
2 SN... 2
3 SN... 3 SIE NEURONOWA Pierwowzorem jest mózg ludzki: 1400cm 3, powierzchnia 2000cm 2 (kula o tej samej obj. 600cm 2 ) Masa mózgu 1,5 kg, gruboñƒ kory mózgowej 3mm, komórek nerwowych i komórek glejowych. Liczba po» cze½ ok , przec. dystans 0,01 do 1 mm. Impulsy o cz stotl Hz, czas trwania 1-2ms, napi cie 100mV, szybkoñƒ propagacji 1-100m/s. Szacowana szybkoñƒ pracy mózgu: 10 operacji synaps 100Hz = operacji/s (najszybszy komputer ). Typowa reakcja jest wykonywana w nie wi cej nió 100 krokach. PojemnoÑci informacyjne kana»ów szacuje si na: wzrok 100Mb/s, dotyk 1Mb/s, s»uch 15kb/s, w ch 1kb/s, smak 100b/s. Sieƒ neuronowa jest bardzo uproszczonym modelem mózgu. Wi budowanych sieci ma struktur warstwow : kszoñƒ wspó»czeñnie
4 SN... 4 ZASTOSOWANIA SIECI NEURONOWYCH - diagnostyka uk»adów elektronicznych - badania psychiatryczne - prognozy gie»dowe - prognozowanie sprzedaóy - poszukiwania ropy naftowej - intepretacja bada½ biologicznych - prognozy cen - analiza bada½ medycznych - planowanie remontów maszyn - prognozowanie post pów w nauce - typowania na wyñcigach konnych - analiza problemów produkcyjnych - optymalizacja dzia»alnoñci handlowej - analiza spektralna - optymalizacja utylizacji odpadów - dobór surowców - selekcja celów Ñledztwa w kryminalistyce - dobór pracowników - sterowanie procesów przemys»owych - kontrola bagaóu na lotniskach (sieƒ SNOOPE, 1988) - analiza sygna»ów sonarowych (f-ma Bendix Aerospace) - czytanie pisma, równieó japo½skiego (NestorWriter) - synteza mowy (NETtalk) - weryfikacja podpisów - konwersja, filtracja, aproksymacja i transformacja (Fouriera) - automatyka (uk»ady regulacji), robotyka i teoria sterowania (uk»ady samoucz ce si ) - informatyka (pami ci asocjacyjne dwukierunkowe BAM, modele pami ci biologicznej)
5 SN... 5 WAòNIEJSZE KIERUNKI ZASTOSOWA¼ 1. Predykcja Opiera si na zdolnoñci przewidywania sygna»ów wyjñciowych bez koniecznoñci stawiania w sposób jawny hipotez o naturze zwi zku pomi dzy danymi wej Ñciowymi, a przewidywanymi wynikami. - ocena zdolnoñci kredytowych przedsi biorstw - prognozy ekonomiczne - gra na gie»dzie 2. Klasyfikacja i rozpoznawanie podmiotów gospodarczych Moóna traktowaƒ jako predykcj stanu przedsi biorstwa 3. Kojarzenie danych Klasyczne komputery gromadz c wielkie zbiory nie s w stanie ich kojarzyƒ lub wnioskowaƒ 4. Analiza danych Szukanie zwi zków nie tylko przyczynowych, ale i incydentalnych. Przez to nowe mo óliwoñci analiz ekonomicznych i gry rynkowej. Ustalanie przyczyn niepowodze½. 5. Filtracja sygna»ów W telekomunikacji, w diagnostyce medycznej... Filtry danych gospodarczych 6. Optymalizacja Zw»aszcza sieci Hopfielda nadaj si do poszukiwania rozwi za½ prowadz cych do optymalnych decyzji gospodarczych. Optymalizacja statyczna, dynamiczna i kombinatoryczna.
6 SN... 6 WºAÐCIWOÐCI SIECI NEURONOWYCH Sieci z jednokierunkowymi po» czeniami ( feedforward ) Sieci ze sprz óeniami zwrotnymi ( Hopfielda ) Zdolnoу sieci do adaptacji i samoorganizacji Zmniejszona wraóliwoñƒ na uszkodzenia elementów Praca równoleg»a (jak w systemach wspó»bieónych) Zamiast projektowaƒ algorytm, stawia si sieci zadania i automatycznie, zgodnie z za»oóon strategi zmienia po» czenia i wspó»czynniki wagowe. Sieƒ wi c programuje si sama, ale wymaga to czasem nawet setek tysi cy iteracji. LINIOWE SIECI NEURONOWE Rys.3. Pojedynczy element sieci Sygna»y x i y mog przyjmowaƒ wartoñci z pewnego przedzia»u, np. z dok»adnoñci do funkcji skaluj cej moóna zapisaƒ: x i 0 [-1, 1] y 0 [-1, 1] Zaleónoу y= f(x 1, x 2,..., x n ) w najprostszym przypadku jest liniowa: Wspó»czynniki w i zwane s wagami synaptycznymi i podlegaj modyfikacji w trakcie procesu uczenia. Element opisany powy ószym równaniem liniowym jest mi dzy innymi zdolny do rozpoznawania sygna»ów wejñciowych.
7 SN... 7 Zestaw sygna»ów wejñciowych tworzy wektor: Równowaónie moóna zapisaƒ X = [x 1, x 2,..., x n ] T oraz W = [w 1, w 2,..., w n ] T y = W C X lub y = W T X Neuron rozpoznaje wi c sygna»y wejñciowe podobne do jego wag. Gdy dodatkowo X i W s znormalizowane: 2 X 2 = X T X = 1 2 W 2 = W T W = 1 sygna» wyjñciowy neuronu moóna wyznaczyƒ jako y = cos n, gdzie n = k t pomi dzy X i Y
8 SN... 8 WARTSTWA NEURONÓW JAKO NAJPROSTSZA SIEˆ Kaódy neuron ma ten sam zestaw sygna»ów wejñciowych X = [x 1, x 2,..., x n ] T, natomiast kaódy ma swój w»asny wektor wag W (m) = [w 1 (m), w 2 (m),..., w n (m) ] T, m = 1, 2,..., k. Sygna» wyjñciowy neuronu moóna wyznaczyƒ ze wzoru Maksymalny jest sygna» na tym neuronie, którego wektor wag W (m) najbardziej przypomina X Sygna» wyjñciowy warstwy neuronów wynosi Y = [y 1, y 2,..., y n ] T i moóna go wyznaczyƒ mnoó c Y = W k X gdzie: Macierz W k zadaje odwzorowanie liniowe sygna»u X 0 U n w sygna» Y 0 U k. Odwzorowanie to moóe byƒ dowolne. Moóna je równieó traktowaƒ jako filtracj.
9 SN... 9 UCZENIE POJEDYNCZEGO NEURONU Aby umoóliwiƒ uczenie, neuron musi posiadaƒ procesor zmiany wag i detektor b» du. Taki neuron nazywany jest ADALINE ( ADAptive LINear Element). Za»óómy, óe zadanie stawiane ADALINE polega na tym, by sygna» y by» zwi zany z sygna»ami X : y = f ( X ). Funkcja f nie musi by ƒ podana jawnie, wystarczy dla kaódego X podaƒ wartoñƒ z stanowi c ó danie odnoñnie sygna»u wyjñciowego y : z = f ( X ). Rys.6. Neuron z procesorem wag i detektorem b» du Algorytm uczenia Widrowa i Hoffa DELTA zak»ada podawanie dodatkowo wartoñci z. Detektor b» du wyznacza * = z - y, które koryguje wektor wag W tak, by neuron lepiej realizowa» Nowy wektor wag W ' obliczany jest ze wzoru: y = f( X ). W ' = W + 0 * X 0 jest wspó»czynnikiem decyduj cym o szybkoñci uczenia. Uzasadnienie: za»óómy, óe * > 0, tzn. z > y (sygna» by» zbyt ma»y, czyli k t pomi dzy X i W zbyt duóy). òeby y by» maksymalny, trzeba uzgodniƒ kierunki X i W. Nowy wektor W ' = W + X jest zawsze bliószy X nió poprzedni W. Czyli uczenie nakazuje dodawanie fragmentu wektora X, co zapobiega zbyt gwa»townym obrotom wektora W przy kaódym napotkanym b» dzie. Przy * < 0 nast puje oddalanie W od X.
10 SN PROCES UCZENIA SIECI Ci g ucz cy ma struktur : Czyli regu»a DELTA: U = << X (1), z (1) >, << X (2), z (2) >,..., << X (N), z (N) >> gdzie: W (j+1) = W + 0 * X * = z - y y = W C X Pocz tkowy wektor wag W (1) powinien mieƒ sk»adowe wybrane losowo. Nie naleóy przyjmowaƒ jednakowych wartoñci dla wszystkich sk»adowych. Celem procesu uczenia jest minimalizacja funkcji (jak w metodzie najmniejszych kwadratów): Przy zastosowaniu metody gradientowej dla i-tej sk»adowej wektora W : WartoÑci 0 zaleó od j i tworz ci g <0 (1), 0 (2), 0 (3),..., >. Na podst. teorii aproksymacji musi on spe»niaƒ warunki : Moóe to byƒ np. ci g : 0 maleje szybko ze wzrostem j i szybkoñƒ uczenia moóe maleƒ lub wr cz zatrzymywaƒ si.
11 SN Proponuje si wartoñci ci gu obliczane ze wzoru: 8 jest pewn ustalon wartoñci zwykle z przedzia»u <0.1, 1 >. W praktyce cz sto wybiera si ustalone 0, niezaleóne od j. Zbyt duóe : niezbieónoñƒ algorytmu, zbyt ma»e : nieefektywny proces uczenia. Proces uczenia moóna potraktowaƒ jako gradientow minimalizacj funkcji b» du dla kroku j Poniewaó Q = 1/2 (z - y ) 2 : Ostatecznie otrzymuje si formu» uczenia neuronu typu ADALINE )w i = 0 * x i Funkcja Q jest unimodalna wi c proces uczenia jest zbieóny.
12 SN UCZENIE SIECI ELEMENTÓW LINIOWYCH Dobierana jest w tym wypadku macierz W k, a ci g ucz cy ma postaƒ: U = << X (1), Z (1) >, << X (2), Z (2) >,..., << X (N), Z (N) >> gdzie : Z - k-elementowe zestawy wymaganych odpowiedzi sieci na wymuszenia X. Jest to sieƒ typu ManyADALINE. Sieƒ wielowarstwowa MADALINE ma takie same w»asnoñci jak jednowarstwowa. Formu»a uczenia ma postaƒ macierzow : W k (j+1) = W k + 0 ( Z - Y ) ( X ) T Wymiar macierzy poprawek )W k [k n] Uczenie sieci moóna porównaƒ do filtracji adaptacyjnej. Mog one byƒ uóyte do zada½ typowych dla sieci neuronowych, np. do pami ci adresowanych kontekstowo lub asocjacyjnych. Inne zadania to np. filtr nowoñci - wyñwietlaj cy na ekranie fragmenty sceny ulegaj ce zmianie. UCZENIE BEZ NAUCZYCIELA unsupervised learning lub hebbian learning Waga w i (m) i-tego wejñcia m-tego neuronu wzrasta podczas prezentacji wektora X : w i (m)(j+1) = w i (m) + 0 x i y m, gdzie Taka sieƒ jest autoasocjacyjna. Sieƒ moóe grupowaƒ podobne pobudzenia. Jest ona zdolna równieó do rozpoznawania obiektów nie pokazanych wcze Ñniej. Liczba neuronów w sieci k musi byƒ wi ksza nió liczba rozróónianych klas obiektów.
13 SN WARIANTY UCZENIA Przyrostowe samouczenie (differential hebbian learning) : (m)(j+1) (m) (j-1) (j-1) w i = w i + 0 [( x i - x i )( y m - y m )] Gwiazda wejñƒ (instar training) (wybieranie ucz cego si neuronu) : w (m)(j+1) i = w (m) i + 0 ( x i - w (m) i ) Empiryczna regu»a dla wyboru 0 : 0 = j, 8 na tyle ma»e, by stale 0 > 0. Metoda stosowana w przypadku, gdy trzeba nauczyƒ sieƒ rozpoznawania sygna»u X Gwiazda wyjñƒ (outstar) w i (m)(j+1) = w i (m) + 0 ( y m - w i (m) ) i jest ustalone, a m jest zmienne. Regu»a dla wyboru 0 jest podobna : 0 = 1-8 j Metoda stosowana przy uczeniu sieci wytwarzania okre Ñlonego wzorca zachowa½ Y w odpowiedzi na sygna» inicjuj cy. Uczenie z dyskryminacj oraz Technika uczenia wed»ug zmodyfikowanego algorytmu Hebba w i (m)(j+1) = w i (m) + 0 x i * y m * ) Ten wzór pozwala wy» cznie na zwi kszanie wag. Alternatywna wersja pozwala na zmniejszanie wag wejñƒ nieaktywnych (regu»a Hebb/Anti-Hebb) : Dalsze poszerzenie daje wzór Hopfielda : w i (m)(j+1) = w i (m) + 0 x i * ( 2y m * - 1), y m * 0 {0,1} w i (m)(j+1) = w i (m) + 0 x i * ( 2x i * - 1)( 2y m * - 1)
14 SN Uczenie z rywalizacj (competitive learning) Formu»a jak przy uczeniu instar w i (m*)(j+1) = w i (m*) + 0 ( x i * - w i (m*) ) dodatkowo: wektor wejñciowy X jest normalizowany : 2 X 2 = 1, czyli Numer poddawanego treningowi neuronu nie jest przypadkowy, lecz taki, którego sygna» wyjñciowy y m* jest najwi kszy. Oznacza to, óe neurony rywalizuj ze sob i wygrywa ten, który uzyska» najwi ksze y m*. Uczeniu podlega tylko ten zwyci ski neuron. Czyli efektem jest jeszcze lepsze dostosowanie jego wektora wag W (m*)(j+1) do rozpoznawania obiektów podobnych do X. Inne neurony b d uczone przy pokazie innych obiektów. Regu»a uczenia Kohonena polega dodatkowo na uporz dkowaniu neuronów. Uczeniu podlega nie jeden neuron, lecz równieó neurony z nim s siaduj ce: gdzie np.: w i (m)(j+1) = w i (m) + 0 h(m, m * ) ( x i * - w i (m) ) h(m, m * ) moóe byƒ wyraóone za pomoc innych funkcji, wybranych funkcji. Dwuwymiarowa odmiana sieci Kohonena - uczenie z uwzgl dnieniem dwuwymiarowego s siedztwa. Sieci te mog odwzorowywaƒ struktur dwuwymiarowego obiektu.
15 SN Uczenie z forsowaniem Forsowanie poprawnych rozwi za½ bez wzgl du na to, co robi sieƒ. Istotne przyñpieszenie procesu uczenia. Odmiany: metoda autoasocjacji: w i (m)(j+1) = w i (m) + 0 x i z m metoda przyrostowej autoasocjacji w i (m)(j+1) = w i (m) + 0 ( x i - x i (j-1) )( z m - z m (j-1) ) metoda zblióania wag do wektora odpowiedzi w i (m)(j+1) = w i (m) + 0 ( z m - w i (m) ) Wprowadzaj c podobnie jak poprzednio moóna podaƒ trzy kolejne regu»y uczenia: w i (m)(j+1) = w i (m) + 0 x i * z m * w i (m)(j+1) = w i (m) + 0 x i * (2 z m * - 1) w i (m)(j+1) = w i (m) + 0 x i * (2 x i * - 1)(2 z m * - 1) Wybór regu»y jest podyktowany jej przydatnoñci w konkretnym zadaniu. Przydatnoу t moóna cz sto okreñliƒ jedynie na drodze eksperymentu.
16 SN PRZYSPIESZANIE PROCESU UCZENIA Wi kszoñƒ opisanych metod daje wynik dopiero po prezentacji duóej (nawet setki tysi cy) liczby pokazów. Jedn z metod przyspieszenia jest dobór 0 omówiony przedtem. Inn metod jest wprowadzenie do wzoru na korekt wektora wag sk»adnika "bezw»adnoñci" w postaci tak zwanego momentum, np. w nast puj cy sposób: W k (j+1) = W k ( Z - Y ) [ X ] T M gdzie momentum M wyliczane jest ze wzoru M = W k - W k (j-1) Daje to polepszenie nie tylko szybkoñci uczenia, lecz i stabilnoñci procesu. Moóna wtedy bezpiecznie zwi kszyƒ wspó»czynnik 0. DoÑwiadczenie pokazuje, óe dobre wyniki procesu uczenia daje 0 1 = 0.9 oraz 0 2 = 0.6. Czasami stosuje si zmniejszanie wartoñci 0 w kolejnych krokach j pozostawiaj c sta»e 0 1 /0 2. Nast pna technika zwi kszaj ca szybkoñƒ - ograniczenie procesu do duóych poprawek. Regu»a uczenia zawiera wtedy dodatkowy parametr 0 3 : 0 3 powinien na pocz tku uczenia przyjmowaƒ wartoñƒ 0.2, a nast pnie maleƒ do zera. Metoda przyñpieszania wyk»adniczego Inne waóenie sk»adników koryguj cych wektor wag: W k (j+1) = W k {(1-0 2 )( Z - Y ) [ X ] T (W k - W k (j-1) )} Randomizacja zbioru ucz cego <X, Z > Raczej nie wybieraƒ cyklicznie, moóna mieszaƒ pokazy w kaódym cyklu Technika kumulowania b» dów: podzia» ci gu ucz cego j na odcinki o d»ugoñci 0 4, praktycznie 30 # 0 4 # 50, ponumerowanie tych odcinków indeksami j * i obliczanie w kaódym z nich skumulowanego b» du : Nowe wartoñci wag : W k (j*+1) = W k (j*) + S (j*), s one wprowadzane jedynie w momentach j = 0 4 j *, j * = 1,2,...
Inteligentne systemy informacyjne
Inteligentne systemy informacyjne Moduł 10 Mieczysław Muraszkiewicz www.icie.com.pl/lect_pw.htm M. Muraszkiewicz strona 1 Sieci neuronowe szkic Moduł 10 M. Muraszkiewicz strona 2 Dwa nurty M. Muraszkiewicz
Bardziej szczegółowoWstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.
Wstęp do teorii sztucznej inteligencji Wykład II Uczenie sztucznych neuronów. 1 - powtórzyć o klasyfikacji: Sieci liniowe I nieliniowe Sieci rekurencyjne Uczenie z nauczycielem lub bez Jednowarstwowe I
Bardziej szczegółowoLiteratura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu
Literatura Wykład : Wprowadzenie do sztucznych sieci neuronowych Małgorzata Krętowska Wydział Informatyki Politechnika Białostocka Tadeusiewicz R: Sieci neuronowe, Akademicka Oficyna Wydawnicza RM, Warszawa
Bardziej szczegółowoSieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści
Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, 2013 Spis treści Przedmowa 7 1. Wstęp 9 1.1. Podstawy biologiczne działania neuronu 9 1.2. Pierwsze modele sieci neuronowej
Bardziej szczegółowoWykład 2. Model Neuronu McCulocha-Pittsa Perceptron Liniowe Sieci Neuronowe
Sztuczne Sieci Neuronowe Wykład 2 Model Neuronu McCulocha-Pittsa Perceptron Liniowe Sieci Neuronowe wykład przygotowany na podstawie. R. Tadeusiewicz, Sieci Neuronowe, Rozdz. 3. Akademicka Oficyna Wydawnicza
Bardziej szczegółowoMetody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści
Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, 2012 Spis treści Przedmowa do wydania drugiego Przedmowa IX X 1. Wstęp 1 2. Wybrane zagadnienia sztucznej inteligencji
Bardziej szczegółowoWYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania
WYKŁAD 4 Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania PLAN WYKŁADU Metody uczenia sieci: Uczenie perceptronu Propagacja wsteczna Zastosowania Sterowanie (powtórzenie) Kompresja obrazu Rozpoznawanie
Bardziej szczegółowoSztuczna Inteligencja Tematy projektów Sieci Neuronowe
PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia
Bardziej szczegółowoSieci Neuronowe. Liniowe Sieci Neuronowe
Sieci Neuronowe Liniowe Sieci Neuronowe Paweł KrzyŜanowski ETI 9.4 Sieci Liniowe Sieci liniowe, znane w literaturze pod nazwami ADALINE i MADALINE są najprostsze w budowie, a równocześnie są w wielu wypadkach
Bardziej szczegółowoWstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.
Wstęp do teorii sztucznej inteligencji Wykład III Modele sieci neuronowych. 1 Perceptron model najprostzszy przypomnienie Schemat neuronu opracowany przez McCullocha i Pittsa w 1943 roku. Przykład funkcji
Bardziej szczegółowoSztuczna inteligencja
Sztuczna inteligencja Wykład 7. Architektury sztucznych sieci neuronowych. Metody uczenia sieci. źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Podstawowe architektury
Bardziej szczegółowowiedzy Sieci neuronowe
Metody detekcji uszkodzeń oparte na wiedzy Sieci neuronowe Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 7 Wprowadzenie Okres kształtowania się teorii sztucznych sieci
Bardziej szczegółowoSztuczne sieci neuronowe (SNN)
Sztuczne sieci neuronowe (SNN) Pozyskanie informacji (danych) Wstępne przetwarzanie danych przygotowanie ich do dalszej analizy Selekcja informacji Ostateczny model decyzyjny SSN - podstawy Sieci neuronowe
Bardziej szczegółowoUczenie Wielowarstwowych Sieci Neuronów o
Plan uczenie neuronu o ci gªej funkcji aktywacji uczenie jednowarstwowej sieci neuronów o ci gªej funkcji aktywacji uczenie sieci wielowarstwowej - metoda propagacji wstecznej neuronu o ci gªej funkcji
Bardziej szczegółowoSIECI KOHONENA UCZENIE BEZ NAUCZYCIELA JOANNA GRABSKA-CHRZĄSTOWSKA
SIECI KOHONENA UCZENIE BEZ NAUCZYCIELA JOANNA GRABSKA-CHRZĄSTOWSKA Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA SAMOUCZENIE SIECI metoda Hebba W mózgu
Bardziej szczegółowo1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda
Sieci neuropodobne 1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN Agenda Trochę neurobiologii System nerwowy w organizmach żywych tworzą trzy
Bardziej szczegółowoMODELOWANIE RZECZYWISTOŚCI
MODELOWANIE RZECZYWISTOŚCI Daniel Wójcik Instytut Biologii Doświadczalnej PAN Szkoła Wyższa Psychologii Społecznej d.wojcik@nencki.gov.pl dwojcik@swps.edu.pl tel. 022 5892 424 http://www.neuroinf.pl/members/danek/swps/
Bardziej szczegółowoPodstawy Sztucznej Inteligencji (PSZT)
Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12
Bardziej szczegółowosynaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.
Sieci neuronowe model konekcjonistyczny Plan wykładu Mózg ludzki a komputer Modele konekcjonistycze Perceptron Sieć neuronowa Uczenie sieci Sieci Hopfielda Mózg ludzki a komputer Twój mózg to 00 000 000
Bardziej szczegółowoSztuczne sieci neuronowe
www.math.uni.lodz.pl/ radmat Cel wykładu Celem wykładu jest prezentacja różnych rodzajów sztucznych sieci neuronowych. Biologiczny model neuronu Mózg człowieka składa się z około 10 11 komórek nerwowych,
Bardziej szczegółowoMetody Sztucznej Inteligencji II
17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału
Bardziej szczegółowo8. Neuron z ciągłą funkcją aktywacji.
8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i
Bardziej szczegółowoSIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe
SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe JOANNA GRABSKA-CHRZĄSTOWSKA Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA BUDOWA RZECZYWISTEGO NEURONU
Bardziej szczegółowoTemat: Sieci neuronowe oraz technologia CUDA
Elbląg, 27.03.2010 Temat: Sieci neuronowe oraz technologia CUDA Przygotował: Mateusz Górny VIII semestr ASiSK Wstęp Sieci neuronowe są to specyficzne struktury danych odzwierciedlające sieć neuronów w
Bardziej szczegółowoSIECI NEURONOWE Wprowadzenie
SIECI NEURONOWE Wprowadzenie JOANNA GRABSKA-CHRZĄSTOWSKA Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA WYKŁADOWCA JOANNA GRABSKA CHRZĄSTOWSKA KATEDRA
Bardziej szczegółowoZagadnienia optymalizacji i aproksymacji. Sieci neuronowe.
Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. zajecia.jakubw.pl/nai Literatura: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym. WNT, Warszawa 997. PODSTAWOWE ZAGADNIENIA TECHNICZNE AI
Bardziej szczegółowoSIECI REKURENCYJNE SIECI HOPFIELDA
SIECI REKURENCYJNE SIECI HOPFIELDA Joanna Grabska- Chrząstowska Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA SPRZĘŻENIE ZWROTNE W NEURONIE LINIOWYM sygnał
Bardziej szczegółowo6. Projektowanie składu chemicznego stali szybkotn cych o wymaganej twardo ci i odporno ci na p kanie
6. Projektowanie składu chemicznego stali szybkotn cych o wymaganej twardo ci i odporno ci na p kanie Do projektowania składu chemicznego stali szybkotn cych, które jest zadaniem optymalizacyjnym, wykorzystano
Bardziej szczegółowoIMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ
IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,
Bardziej szczegółowoSztuczne sieci neuronowe. Uczenie, zastosowania
Wydział Zarządzania AGH Katedra Informatyki Stosowanej Sztuczne sieci neuronowe. Uczenie, zastosowania Inteligencja Sztuczne sieci neuronowe Metody uczenia Budowa modelu Algorytm wstecznej propagacji błędu
Bardziej szczegółowoUczenie sieci neuronowych i bayesowskich
Wstęp do metod sztucznej inteligencji www.mat.uni.torun.pl/~piersaj 2009-01-22 Co to jest neuron? Komputer, a mózg komputer mózg Jednostki obliczeniowe 1-4 CPU 10 11 neuronów Pojemność 10 9 b RAM, 10 10
Bardziej szczegółowoInteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe wykład 1. Właściwości sieci neuronowych Model matematyczny sztucznego neuronu Rodzaje sieci neuronowych Przegląd d głównych g
Bardziej szczegółowoUczenie sieci radialnych (RBF)
Uczenie sieci radialnych (RBF) Budowa sieci radialnej Lokalne odwzorowanie przestrzeni wokół neuronu MLP RBF Budowa sieci radialnych Zawsze jedna warstwa ukryta Budowa neuronu Neuron radialny powinien
Bardziej szczegółowoSeminarium magisterskie. Dyskusja nad tematem pracy magisterskiej pisanej pod kierunkiem pani Dr hab. Małgorzaty Doman
Seminarium magisterskie Dyskusja nad tematem pracy magisterskiej pisanej pod kierunkiem pani Dr hab. Małgorzaty Doman Plan wystąpienia Ogólnie o sztucznych sieciach neuronowych Temat pracy magisterskiej
Bardziej szczegółowoMETODY INTELIGENCJI OBLICZENIOWEJ wykład 4
METODY INTELIGENCJI OBLICZENIOWEJ wykład 4 1 2 SZTUCZNE SIECI NEURONOWE HISTORIA SSN 3 Walter Pitts, Warren McCulloch (1943) opracowanie matematyczne pojęcia sztucznego neuronu.. Udowodnili też, iż ich
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.
Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 2013-11-26 Projekt pn. Wzmocnienie potencjału
Bardziej szczegółowoSZTUCZNE SIECI NEURONOWE
METODY INTELIGENCJI OBLICZENIOWEJ wykład 4 SZTUCZNE SIECI NEURONOWE HISTORIA SSN Walter Pitts, Warren McCulloch (94) opracowanie matematyczne pojęcia sztucznego neuronu.. Udowodnili też, iż ich wynalazek
Bardziej szczegółowoHAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM
ZASTOSOWANIE SIECI NEURONOWYCH W SYSTEMACH AKTYWNEJ REDUKCJI HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM WPROWADZENIE Zwalczanie hałasu przy pomocy metod aktywnych redukcji hałasu polega
Bardziej szczegółowoSztuczne sieci neuronowe
Wydział Zarządzania AGH Katedra Informatyki Stosowanej Sztuczne sieci neuronowe Sztuczne sieci neuronowe Wprowadzenie Trochę historii Podstawy działania Funkcja aktywacji Typy sieci 2 Wprowadzenie Zainteresowanie
Bardziej szczegółowoWstęp do teorii sztucznej inteligencji
Wstęp do teorii sztucznej inteligencji Wykład IV SSN = Architektura + Algorytm Uczenie sztucznych neuronów. Przypomnienie. Uczenie z nauczycielem. Wagi i wejścia dla sieci neuronuowej: reprezentacja macierzowa
Bardziej szczegółowoSZTUCZNE SIECI NEURONOWE
INTELIGENTNE TECHNIKI KOMPUTEROWE wykład SZTUCZNE SIECI NEURONOWE HISTORIA SSN Walter Pitts, Warren McCulloch (94) opracowanie matematyczne pojęcia sztucznego neuronu.. Udowodnili też, iż ich wynalazek
Bardziej szczegółowoNeural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych.
Neural networks Lecture Notes n Pattern Recognton by W.Dzwnel Krótka hstora McCulloch Ptts (1943) - perwszy matematyczny ops dzalana neuronu przetwarzana przez nego danych. Proste neurony, które mogly
Bardziej szczegółowoB/ZA Grudziądz, dnia...
B/ZA Grudziądz, dnia...... (pieczęć firmowa Wnioskodawcy) Prezydent Grudziądza za pośrednictwem Powiatowego Urzędu Pracy w Grudziądzu ul. Parkowa 22 WNIOSEK o zatrudnienie osoby bezrobotnej do 30 roku
Bardziej szczegółowoNajprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;
Sieci Hopfielda Najprostsze modele sieci z rekurencją sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Modele bardziej złoŝone: RTRN (Real Time Recurrent Network), przetwarzająca sygnały w czasie
Bardziej szczegółowoZarządzanie projektami. wykład 1 dr inż. Agata Klaus-Rosińska
Zarządzanie projektami wykład 1 dr inż. Agata Klaus-Rosińska 1 DEFINICJA PROJEKTU Zbiór działań podejmowanych dla zrealizowania określonego celu i uzyskania konkretnego, wymiernego rezultatu produkt projektu
Bardziej szczegółowoMetody numeryczne i statystyka dla in»ynierów
Kierunek: Automatyka i Robotyka, II rok Interpolacja PWSZ Gªogów, 2009 Interpolacja Okre±lenie zale»no±ci pomi dzy interesuj cymi nas wielko±ciami, Umo»liwia uproszczenie skomplikowanych funkcji (np. wykorzystywana
Bardziej szczegółowoOCENA DZIAŁANIA AE. METODY HEURYSTYCZNE wykład 4 LOSOWOŚĆ W AE KRZYWE ZBIEŻNOŚCI ANALIZA STATYSTYCZNA:
METODY HEURYSTYCZNE wykład 4 OCENA DZIAŁANIA AE 1 2 LOSOWOŚĆ W AE Różne zachowanie algorytmuw poszczególnych uruchomieniach przy jednakowych ustawieniach parametrów i identycznych populacjach początkowych.
Bardziej szczegółowoRZECZPOSPOLITA POLSKA. Prezydent Miasta na Prawach Powiatu Zarząd Powiatu. wszystkie
RZECZPOSPOLITA POLSKA Warszawa, dnia 11 lutego 2011 r. MINISTER FINANSÓW ST4-4820/109/2011 Prezydent Miasta na Prawach Powiatu Zarząd Powiatu wszystkie Zgodnie z art. 33 ust. 1 pkt 2 ustawy z dnia 13 listopada
Bardziej szczegółowoU S T AWA. z dnia 2015 r. Art. 1.
Projekt U S T AWA z dnia 2015 r. o zmianie ustawy o minimalnym wynagrodzeniu za pracę Art. 1. W ustawie z dnia 10 października 2002 r. o minimalnym wynagrodzeniu za pracę (Dz. U. z 2002 r., Nr 200, poz.
Bardziej szczegółowoCASE CPI może być wczesnym wskaźnikiem tendencji zmian cen w gospodarce
23.11.2015 CASE CPI może być wczesnym wskaźnikiem tendencji zmian cen w gospodarce Autor: Wieczorna Image not found http://wieczorna.pl/uploads/photos/middle_ (Źródło: http://www.case-research.eu/en/node/59021)
Bardziej szczegółowoSieci Neuronowe Laboratorium 2
Sieci Neuronowe Zadania i problemy algorytmiczne dla sieci neuronowych, programowania logicznego i sztucznej inteligencji według zasad i kryteriów laboratoriów. pdf Laboratorium 2 Zapisać następujące stwierdzenia
Bardziej szczegółowoAutomatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010
Materiały/konsultacje Automatyczna predykcja http://www.ibp.pwr.wroc.pl/kotulskalab Konsultacje wtorek, piątek 9-11 (uprzedzić) D1-115 malgorzata.kotulska@pwr.wroc.pl Co to jest uczenie maszynowe? Uczenie
Bardziej szczegółowoWidzenie komputerowe
Widzenie komputerowe Uczenie maszynowe na przykładzie sieci neuronowych (3) źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Zdolność uogólniania sieci neuronowej R oznaczenie
Bardziej szczegółowoWstęp do sztucznych sieci neuronowych
Wstęp do sztucznych sieci neuronowych Michał Garbowski Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Wydział Informatyki 15 grudnia 2011 Plan wykładu I 1 Wprowadzenie Inspiracja biologiczna
Bardziej szczegółowoS O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor
S O M SELF-ORGANIZING MAPS Przemysław Szczepańczyk Łukasz Myszor Podstawy teoretyczne Map Samoorganizujących się stworzył prof. Teuvo Kohonen (1982 r.). SOM wywodzi się ze sztucznych sieci neuronowych.
Bardziej szczegółowoOd redakcji. Symbolem oznaczono zadania wykraczające poza zakres materiału omówionego w podręczniku Fizyka z plusem cz. 2.
Od redakcji Niniejszy zbiór zadań powstał z myślą o tych wszystkich, dla których rozwiązanie zadania z fizyki nie polega wyłącznie na mechanicznym przekształceniu wzorów i podstawieniu do nich danych.
Bardziej szczegółowoInteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska
Bardziej szczegółowoMetody numeryczne i statystyka dla in»ynierów
Kierunek: Automatyka i Robotyka, II rok Wprowadzenie PWSZ Gªogów, 2009 Plan wykªadów Wprowadzenie, podanie zagadnie«, poj cie metody numerycznej i algorytmu numerycznego, obszar zainteresowa«i stosowalno±ci
Bardziej szczegółowoMETODY INTELIGENCJI OBLICZENIOWEJ wykład 5
METODY INTELIGENCJI OBLICZENIOWEJ wykład 5 1 2 SZTUCZNE SIECI NEURONOWE cd 3 UCZENIE PERCEPTRONU: Pojedynczy neuron (lub 1 warstwa neuronów) typu percep- tronowego jest w stanie rozdzielić przestrzeń obsza-
Bardziej szczegółowoStatystyczna analiza danych w programie STATISTICA. Dariusz Gozdowski. Katedra Doświadczalnictwa i Bioinformatyki Wydział Rolnictwa i Biologii SGGW
Statystyczna analiza danych w programie STATISTICA ( 4 (wykład Dariusz Gozdowski Katedra Doświadczalnictwa i Bioinformatyki Wydział Rolnictwa i Biologii SGGW Regresja prosta liniowa Regresja prosta jest
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.
Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 211-1-18 1 Pomysł Przykłady Zastosowanie 2
Bardziej szczegółowoPOLITECHNIKA WROCŠAWSKA WYDZIAŠ ELEKTRONIKI PRACA DYPLOMOWA MAGISTERSKA
POLITECHNIKA WROCŠAWSKA WYDZIAŠ ELEKTRONIKI Kierunek: Specjalno± : Automatyka i Robotyka (AIR) Robotyka (ARR) PRACA DYPLOMOWA MAGISTERSKA Podatny manipulator planarny - budowa i sterowanie Vulnerable planar
Bardziej szczegółowoSztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335
Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Wykład 10 Mapa cech Kohonena i jej modyfikacje - uczenie sieci samoorganizujących się - kwantowanie wektorowe
Bardziej szczegółowoELEMENTY SZTUCZNEJ INTELIGENCJI. Sztuczne sieci neuronowe
ELEMENTY SZTUCZNEJ INTELIGENCJI Sztuczne sieci neuronowe Plan 2 Wzorce biologiczne. Idea SSN - model sztucznego neuronu. Perceptron prosty i jego uczenie regułą delta Perceptron wielowarstwowy i jego uczenie
Bardziej szczegółowoUKŁAD ROZRUCHU SILNIKÓW SPALINOWYCH
UKŁAD ROZRUCHU SILNIKÓW SPALINOWYCH We współczesnych samochodach osobowych są stosowane wyłącznie rozruszniki elektryczne składające się z trzech zasadniczych podzespołów: silnika elektrycznego; mechanizmu
Bardziej szczegółowo2.4. Algorytmy uczenia sieci neuronowych
2.4. Algorytmy uczenia sieci neuronowych Prosta struktura sieci jednokierunkowych sprawia, że są najchętniej stosowane. Ponadto metody uczenia ich należą również do popularnych i łatwych w realizacji.
Bardziej szczegółowoPodstawy sztucznej inteligencji
wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,
Bardziej szczegółowoTemat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE
Temat: Sztuczne Sieci Neuronowe Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Sztuczne sieci neuronowe
Bardziej szczegółowoInteligentne systemy przeciw atakom sieciowym
Inteligentne systemy przeciw atakom sieciowym wykład Sztuczne sieci neuronowe (SSN) Joanna Kołodziejczyk 2016 Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 1 / 36 Biologiczne
Bardziej szczegółowoA. Informacje dotyczące podmiotu, któremu ma A1) Informacje dotyczące wspólnika spółki cywilnej być udzielona pomoc de minimis 1)
FORMULARZ INFORMACJI PRZEDSTAWIANYCH PRZY UBIEGANIU SIĘ O POMOC DE MINIMIS Stosuje się do de minimis udzielanej na warunkach określonych w rozporządzeniu Komisji (UE) nr 1407/2013 z dnia 18 grudnia 2013
Bardziej szczegółowoTechniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I
Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:
Bardziej szczegółowoElementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2
Elementy Sztucznej Inteligencji Sztuczne sieci neuronowe cz. 2 1 Plan wykładu Uczenie bez nauczyciela (nienadzorowane). Sieci Kohonena (konkurencyjna) Sieć ze sprzężeniem zwrotnym Hopfielda. 2 Cechy uczenia
Bardziej szczegółowoEksperyment,,efekt przełomu roku
Eksperyment,,efekt przełomu roku Zapowiedź Kluczowe pytanie: czy średnia procentowa zmiana kursów akcji wybranych 11 spółek notowanych na Giełdzie Papierów Wartościowych w Warszawie (i umieszczonych już
Bardziej szczegółowoTermostaty V2, V4 i V8 Regulatory temperatury bezpo redniego działania F CHARAKTERYSTYKA:
Termostaty V2, V4 i V8 Regulatory temperatury bezpo redniego działania 3.4.01-F CHARAKTERYSTYKA: siła zamkni cia 200 N, 400 N i 800 N do zaworów grzewczych lub chłodz cych solidne i godne zaufania zakres
Bardziej szczegółowoZAANGA OWANIE PRACOWNIKÓW W PROJEKTY INFORMATYCZNE
ZAANGA OWANIE PRACOWNIKÓW W PROJEKTY INFORMATYCZNE LESZEK MISZTAL Politechnika Szczeci ska Streszczenie Celem artykułu jest przedstawienie metody rozwi zania problemu dotycz cego zaanga owania pracowników
Bardziej szczegółowoU Z A S A D N I E N I E
U Z A S A D N I E N I E Projektowana nowelizacja Kodeksu pracy ma dwa cele. Po pierwsze, zmianę w przepisach Kodeksu pracy, zmierzającą do zapewnienia pracownikom ojcom adopcyjnym dziecka możliwości skorzystania
Bardziej szczegółowoFiltracja obrazów w dziedzinie Fouriera
Filtracja obrazów w dziedzinie Fouriera Filtracj mo na zinterpretowa jako mno enie punktowe dwóch F-obrazów - jednego pochodz cego od filtrowanego obrazu i drugiego b d cego filtrem. Wykres amplitudy F-
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt
Bardziej szczegółowoMATLAB Neural Network Toolbox przegląd
MATLAB Neural Network Toolbox przegląd WYKŁAD Piotr Ciskowski Neural Network Toolbox: Neural Network Toolbox - zastosowania: przykłady zastosowań sieci neuronowych: The 1988 DARPA Neural Network Study
Bardziej szczegółowoZastosowania sieci neuronowych
Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką
Bardziej szczegółowoSZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 8. SZTUCZNE SIECI NEURONOWE INNE ARCHITEKTURY Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska SIEĆ O RADIALNYCH FUNKCJACH BAZOWYCH
Bardziej szczegółowoUCHWAŁA... Rady Miejskiej w Słupsku z dnia...
Projekt Druk Nr 13/19 UCHWAŁA... Rady Miejskiej w Słupsku z dnia... w sprawie aneksu do porozumienia międzygminnego zawartego pomiędzy Gminą Miejską Słupsk a Gminą Kobylnica i Gminą Słupsk dotyczącego
Bardziej szczegółowoSystemy uczące się Lab 4
Systemy uczące się Lab 4 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 26 X 2018 Projekt zaliczeniowy Podstawą zaliczenia ćwiczeń jest indywidualne wykonanie projektu uwzględniającego
Bardziej szczegółowoKrótkoterminowe planowanie finansowe na przykładzie przedsiębiorstw z branży 42
Krótkoterminowe planowanie finansowe na przykładzie przedsiębiorstw z branży 42 Anna Salata 0 1. Zaproponowanie strategii zarządzania środkami pieniężnymi. Celem zarządzania środkami pieniężnymi jest wyznaczenie
Bardziej szczegółowoTechnologie Informacyjne
Technologie Informacyjne Szkoła Główna Służby Pożarniczej Zakład Informatyki i Łączności April 11, 2016 Technologie Informacyjne Wprowadzenie : wizualizacja obrazów poprzez wykorzystywanie technik komputerowych.
Bardziej szczegółowoProjekt z dnia 2 listopada 2015 r. z dnia.. 2015 r.
Projekt z dnia 2 listopada 2015 r. R O Z P O R Z Ą D Z E N I E M I N I S T R A P R A C Y I P O L I T Y K I S P O Ł E C Z N E J 1) z dnia.. 2015 r. w sprawie treści, formy oraz sposobu zamieszczenia informacji
Bardziej szczegółowoXXXXXXXXXXX. XXXXXXXXXXX XXXXXXXXXXXX XXXXXXXXXXXX INTERPRETACJA INDYWIDUALNA
Znak:F.310.1.2013 Sobków, 17.07.2013 r. XXXXXXXXXXX. XXXXXXXXXXX XXXXXXXXXXXX XXXXXXXXXXXX INTERPRETACJA INDYWIDUALNA Wójt Gminy Sobków działając na podstawie art. 14 j 1 i 3, w zw. z art.14 k 1 ustawy
Bardziej szczegółowoModuł. Rama 2D suplement do wersji Konstruktora 4.6
Moduł Rama 2D suplement do wersji Konstruktora 4.6 110-1 Spis treści 110. RAMA 2D - SUPLEMENT...3 110.1 OPIS ZMIAN...3 110.1.1 Nowy tryb wymiarowania...3 110.1.2 Moduł dynamicznego przeglądania wyników...5
Bardziej szczegółowoKomputerowe Systemy Sterowania Sem.VI, Wykład organizacyjny
Komputerowe Systemy Sterowania Sem.VI, Kierunek: Automatyka i Robotyka, Specjalność: Automatyka i Systemy Sterowania Wykład organizacyjny Katedra Inżynierii Systemów Sterowania Wymiar dydaktyczny przedmiotu
Bardziej szczegółowoEGZAMIN MATURALNY 2013 J ZYK ROSYJSKI
Centralna Komisja Egzaminacyjna w Warszawie EGZAMIN MATURALNY 2013 J ZYK ROSYJSKI POZIOM ROZSZERZONY Kryteria oceniania odpowiedzi MAJ 2013 ZADANIA OTWARTE Zadanie 1. (0,5 pkt) Przetwarzanie tekstu 1.1.
Bardziej szczegółowoEkonometria - wykªad 8
Ekonometria - wykªad 8 3.1 Specykacja i werykacja modelu liniowego dobór zmiennych obja±niaj cych - cz ± 1 Barbara Jasiulis-Goªdyn 11.04.2014, 25.04.2014 2013/2014 Wprowadzenie Ideologia Y zmienna obja±niana
Bardziej szczegółowoPodstawa prawna: Ustawa z dnia 15 lutego 1992 r. o podatku dochodowym od osób prawnych (t. j. Dz. U. z 2000r. Nr 54, poz. 654 ze zm.
Rozliczenie podatników podatku dochodowego od osób prawnych uzyskujących przychody ze źródeł, z których dochód jest wolny od podatku oraz z innych źródeł Podstawa prawna: Ustawa z dnia 15 lutego 1992 r.
Bardziej szczegółowoBojszowy, dnia 22.02.2010r. Znak sprawy: GZOZ/P1/2010 WYJAŚNIENIE TREŚCI SIWZ
Bojszowy, dnia 22.02.2010r. Znak sprawy: GZOZ/P1/2010 WYJAŚNIENIE TREŚCI SIWZ Dotyczy: przetargu nieograniczonego na Zakup wraz z dostawą i instalacją aparatu USG dla potrzeb Gminnego Zakładu Opieki Zdrowotnej
Bardziej szczegółowoTwierdzenie Bayesa. Indukowane Reguły Decyzyjne Jakub Kuliński Nr albumu: 53623
Twierdzenie Bayesa Indukowane Reguły Decyzyjne Jakub Kuliński Nr albumu: 53623 Niniejszy skrypt ma na celu usystematyzowanie i uporządkowanie podstawowej wiedzy na temat twierdzenia Bayesa i jego zastosowaniu
Bardziej szczegółowoSieci komputerowe cel
Sieci komputerowe cel współuŝytkowanie programów i plików; współuŝytkowanie innych zasobów: drukarek, ploterów, pamięci masowych, itd. współuŝytkowanie baz danych; ograniczenie wydatków na zakup stacji
Bardziej szczegółowoPROJEKTOWANIE SYSTEMÓW LOGISTYCZNYCH PROJEKT SYSTEMY LOGISTYCZNE PODSTAWY TEORETYCZNE
1 PROJEKTOWANIE SYSTEMÓW LOGISTYCZNYCH PROJEKT SYSTEMY LOGISTYCZNE PODSTAWY TEORETYCZNE LITERATURA: 2 Hans Christian Pfohl Systemy logistyczne. Podstawy organizacji i zarządzania Instytut Logistyki i Magazynowania,
Bardziej szczegółowo- o zmianie o Krajowym Rejestrze Sądowym
Warszawa, dnia 28 sierpnia, 2012 rok Grupa Posłów na Sejm RP Klubu Poselskiego Ruch Palikota Szanowna Pani Ewa Kopacz Marszałek Sejmu Rzeczypospolitej Polskiej Na podstawie art. 118 ust. 1 Konstytucji
Bardziej szczegółowoPraktyczne informacje o sieciach neuronowych. Elżbieta Dłubis. Państwowa Wyższa Szkoła Zawodowa w Chełmie
Praktyczne informacje o sieciach neuronowych Elżbieta Dłubis Państwowa Wyższa Szkoła Zawodowa w Chełmie Wiedza o sieciach neuronowych zaczęła się od fascynacji mózgiem narządem (..), którego możliwości
Bardziej szczegółowoUczenie sieci typu MLP
Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik
Bardziej szczegółowo