Sieci rekurencyjne. - Sieć autoasocjacyjna Hopfielda - Sieci Hamminga

Wielkość: px
Rozpocząć pokaz od strony:

Download "Sieci rekurencyjne. - Sieć autoasocjacyjna Hopfielda - Sieci Hamminga"

Transkrypt

1 Sieci rekurencyjne - Sieć autoasocjacyjna Hopfielda - Sieci Hamminga

2 Wprowadzenie Sieci rekurencyjne stanowią odrębn bną grupę sieci, w których istnieje sprzęŝ ęŝenie zwrotne miedzy wyjściem a wejściem sieci. Wspóln lną cecha tych sieci jest częste istnienie symetrycznych powiąza zań synaptycznych między neuronami (w( ij =w ji ) oraz duŝa a ich liczba w stosunku do ogólnej liczby neuronów.

3 Podstawową cechą wyróŝniającą je z rodziny sieci neuronowych są zaleŝności dynamiczne na kaŝdym etapie działania. Zmiana stanu jednego neuronu przenosi się przez masowe sprzęŝnie zwrotne na całą sieć, wywołując stan przejściowy, kończący się określonym stanem ustalonym, na ogół innym niŝ stan poprzedni.

4 JeŜeli eli funkcję aktywacji neuronu oznaczy się przez f(u), przy czym u jest suma wagową pobudzeń to sygnał wyjściowy neuronu oznacza jego stan. y = f ( u ) = f ( w x ) i i ij j j= 1 N

5 Biorąc c pod uwagę, Ŝe e przy masowym sprzęŝ ęŝeniu zwrotnym pobudzeniami dla neuronu sąs sygnały y wejściowe innych neuronów, zmiana stanu neuronów w jest opisana układem równar wnań róŝniczkowych nieliniowych τ du N i i = wij f ( u j ) ui bi dt j= 1, j i

6 dla i = 1,2, N, przy czym b i jest wartością progową, wynikająca z zewnętrznego źródła. Współczynnik τ i jest pewną stałą wartością liczbową, a jego interpretacja jest analogiczna do stałej czasowej w równaniach opisujących stan dynamiczny w obwodach RC. Stan neuronu uzyskuje się z rozwiązania powyŝszego równania róŝniczkowego jako y i =f(u i ). Przy określonym stanie pobudzenia neuronów sieci rekurencyjnej moŝna przyporządkować funkcję energetyczną Lapunowa.

7 1 1 E = w y y + f y dy + b y 2 x i N N 1 ij i j i ( i ) i i i j i j i= 1 Ri 0 i= 1 Funkcja Lapunowa E ma charakter malejący w czasie. Zmiana stanu jakiegokolwiek neuronu zapoczątkowuje zmianę stanu energetycznego całej sieci w kierunku minimum tej energii aŝa do jej osiągni gnięcia. Istnieje zwykle wiele minimów w lokalnych, z których kaŝde reprezentuje jeden określony stan układu, ukształtowany towany na etapie uczenia sieci. W przestrzeni stanów w lokalne minima energii E reprezentują punkty stabilne, zwane atraktorami,, ze względu na własnow asności przyciągania dla najbliŝszego otoczenia.

8 Pamięć asocjacyjna pełni funkcję układu reprezentującego wzajemne skojarzenia wektorów. w. W przypadku gdy skojarzenie dotyczy składnik adników tego samego wektora, mamy do czynienia z pamięci cią autoasocjacyjną. Typowym przedstawicielem jest sieć Hopfielda. Natomiast gdy skojarzone sąs dwa wektory a i b moŝna mówim wić o pamięci typu heteroasocjacyjnego. Typowym przedstawicielem jest sieć Hamminga.

9 Sieć autoasocjacyjna Hopfielda Sieć Hopfielda ze względu na pełnion nioną funkcję nazywana jest równier wnieŝ pamięci cią asocjacjną. Zadaniem pamięci asocjacyjnych jest zapamiętywanie zbioru wzorców w wejściowych w taki sposób, aby w trakcie odtwarzania przy prezentacji nowego wzorca układ mógłm wygenerować odpowiedz, która będzie b odpowiadać jednemu z zapamiętanych wcześniej wzorców, w, połoŝonemu onemu najbliŝej próbki testującej.

10 Najczęściej uŝywaną miarą odległości między zbiorami w przypadku pamięci asocjacyjnych jest miara Hamminga. Dla wielkości binarnych odległość Hamminga T T dwóch wektorów,,..., i =,,..., definiuje się w postaci n = [ ] [ ] y y1 y2 y n x x1 x2 x n d = x ( 1 y ) + ( 1 x ) y H i i i i i= 1

11 Miara Hamminga jest równa zero jedynie wówczas gdy y=x. W przeciwnym przypadku jest ona równa liczbie bitów, o które róŝnią się oba wektory. Uczenie (trening) sieci neuronowej do pełnienia funkcji pamięci asocjacyjnej ma za zadanie taki dobór wag w ij poszczególnych neuronów, aby na etapie odtwarzania sieć była zdolna odnaleźć zbiór danych, najbliŝszy w sensie miary Hamminga, wektorowi testowemu.

12 Proces uczenia sieci kształtuje obszary przyciągania (atrakcji) poszczególnych punktów równowagi, odpowiadających danym uczącym. W przypadku pamięci autoasocjacyjnej występuje wektor uczący x lub zbiór tych wektorów, które w wyniku przeprowadzonego uczenia sieci ustalają połoŝenia poszczególnych atraktorów.

13 JeŜeli kaŝdy neuron ma funkcję aktywacji typu signum przyjmującą wartości ±1. Oznacza to, Ŝe sygnał wyjściowy i-tego neuronu jest opisany funkcją N y = sgn w x + b i ij j i j= 0

14 Ogólny schemat pamięci autoasocjacyjnej przyjmuje się zwykle w postaci układu z bezpośrednim sprzęŝeniem zwrotnym wyjścia z wejściem. Cechą charakterystyczną tego układu jest to, Ŝe sygnały wyjściowe neuronów są jednocześnie sygnałami wejściowymi sieci, x i (k) = y i (k -1).

15 Struktura sieci Hopfielda

16 W działaniu sieci Hopfielda moŝna wyróŝnić dwa tryby: uczenia i odtwarzania. W trybie uczenia na podstawie zadanych wzorców uczących x są dobierane wagi w ij. W trybie odtwarzania przy zamroŝonych wartościach wag i załoŝeniu określonego stanu początkowego neuronów y(0) = x następuje proces przejściowy, przebiegający według zaleŝności N yi k = sgn wij y j k 1 j= 1, i j ( ) ( )

17 Przy prezentacji jednego wzorca uczącego x proces zmian przebiega dopóty, dopóki powyŝsza zaleŝność nie jest spełniona dla wszystkich N neuronów. Warunek ten będzie automatycznie spełniony przy wyborze wag spełniających relację 1 w = x x ij i j N

18 Przy prezentacji wielu wzorców uczących x (k) dla k = 1, 2,..., p wagi w ij są dobierane według uogólnionej reguły Hebba, zgodnie z którą 1 p = k k ij i j N k = 1 ( ) ( ) w x x Przy takim trybie uczenia wagi przyjmują wartości uśrednione wielu próbek uczących.

19 Przy wielu wzorcach uczących istotne staje się pojęcie stabilności pamięci asocjacyjnej. Stabilność działania sieci wymaga, aby odpowiedź i-tego neuronu y i (l) na l-ty wzorzec uczący x (l) była równa i-tej składowej x i (l). Oznacza to, Ŝe przy uwzględnieniu powyŝszej zaleŝności otrzymuje się p N N 1 y = sgn w x = sgn x x x = x ( l) ( l) ( k ) ( k ) ( l) ( l) i ij j i j j i j= 0 N j= 0 k = 1

20 Pamięć asocjacyjna ma właściwości korekcyjne. Przy prezentacji próbki testującej róŝniącej się bitami na pewnych pozycjach wektora, sieć neuronowa moŝe dokonać korekcji tych bitów i zakończyć proces klasyfikacji we właściwym atraktorze.

21 Istotnym parametrem pamięci asocjacyjnej jest jej pojemność. Przez pojemność pamięci rozumie się maksymalną liczbę wzorców zapamiętanych i odtwarzanych z akceptowalnym błędem ε max. Przy określaniu pojemności pamięci definiuje się zwykle współczynnik C (l) i skojarzony z przesłuchem i definiowany w postaci 1 N = i i i j j N j = 0 k l ( l) ( l) ( k ) ( k ) ( l) C x x x x

22 Jeśli C i (l) 0, to składnik przesłuchu ma ten sam znak co x i (l), a zatem nie szkodzi działaniu pamięci asocjacyjnej. Jeśli natomiast C i (l) > 1, to zmienia się znak sumy u i (l) w zaleŝności 1 N ( l) ( l) ( k ) ( k ) ( l) u = x + x x x i i i j j N j = 0 k l co wprowadza niestabilność w działaniu neuronu.

23 Niestabilność ta jest rozumiana w ten sposób, Ŝe przy prezentacji wzorca testującego stan wyjściowy neuronu i-tego odpowiadający i-temu składnikowi wektora x (l) zmienia swój stan na przeciwny do x i (l),a więc niewłaściwy. Zatem niestabilność procesu powoduje zmianę stanu wyjściowego neuronu na niewłaściwy w stosunku do oczekiwanego.

24 Prawdopodobieństwo, Ŝe C i (l) > 1, oznaczono na rysunku w postaci zakreskowanego obszaru.

25 Stąd Przy błędzie ε max = 1% (1% bitów wzorca w niewłaściwym stanie) maksymalna pojemność pamięci (liczba zapamiętanych wzorców) stanowi zaledwie 18,5% liczby neuronów tworzących pamięć asocjacyjną. 1 2 x 1 2σ 2σ ( ( l) ) 1 ε = P Ci > 1 = ε dx e 2πσ 2 2

26 Z powodu wzajemnego sprzęŝenia zwrotnego kaŝdy niewłaściwie ustawiony bit na początku procesu powoduje dalsze powielanie błędu, co jest równowaŝne zmniejszeniu maksymalnej pojemności pamięci asocjacyjnej. W praktyce maksymalną pojemność pamięci asocjacyjnej przy ε max = 1% określa zaleŝność pmax = 0,138N

27 Z tabeli ε max 0,001 0,0036 p max/n ε max 0,105 0,138 0,01 0,05 p max/n 0,185 0,37 widać, Ŝe odpowiada to stanowi początkowemu sieci, w którym 0,36% ogólnej liczby neuronów znajduje się w niewłaściwym stanie. Na ogół, jeśli przyjmie się załoŝenie, Ŝe N / 2p > log N, to maksymalną pojemność sieci wyznacza poniŝszy wzór P max = N 2log N

28 Tryb uczenia sieci Hopfielda Faza ucząca sieci Hopfielda ma za zadanie takie ukształtowanie wartości wag, przy którym w stanie odtworzeniowym sieci załoŝenie stanu początkowego neuronów bliskiego jednemu z wektorów uczących x prowadzi do stanu ustalonego, w którym stan neuronów y = x jest niezmienny dla dowolnej chwili.

29 Istnieje wiele metod doboru wartości wag sieci Hopfielda. Najprostszą jest zastosowanie reguły Hebba, podanej poniŝej w postaci macierzowej W = 1 N XX przy czym X jest macierzą złoŝoną z p kolejnych wektorów uczących x (i), X = [x (1), x (2),..., x (p) ], a N oznacza wymiar wektora x, równy liczbie neuronów sieci.

30 Reguła Hebba zastosowana w powyŝszej postaci jest stosunkowo mało efektywna i w fazie odtworzeniowej sieci przy istnieniu szumu (wzorce początkowe róŝnią się od wzorców zapamiętanych) prowadzi do licznych przekłamań, czyli minimów lokalnych dalekich od rozwiązania właściwego.

31 Inne znacznie lepsze podejście zakłada procedurę doboru wag sieci wynikającą z pseudoinwersji. Punktem wyjścia w tej metodzie jest załoŝenie, Ŝe przy właściwie dobranych wagach kaŝdy wzorzec x podany na wejście generuje na wyjściu sieci samego siebie, prowadząc tym samym do natychmiastowego stanu ustalonego

32 Inną odmianą metody rzutowania jest tak zwana metoda rzutowania, będąca gradientową odmianą algorytmu minimalizacji odpowiednio zdefiniowanej funkcji celu. Zgodnie z tą metodą dobór wag odbywa się rekurencyjnie w cyklu po wszystkich wzorcach uczących, powtarzanym wielokrotnie η ( i) ( i) ( i) W W + x Wx x N T

33 Współczynnik η jest stalą uczenia dobieraną zwykle z przedziału [0,7,0,9]. Jego znaczenie jest podobne jak w przypadku sieci wielowarstwowych. W odróŝnieniu od zwykłej metody rzutowania, metoda rzutowania wymaga wielokrotnej prezentacji wszystkich p wzorców uczących, aŝ do ustalenia się wartości wag. Proces uczenia przerywa się, gdy zmiany wartości wektora wag są mniejsze od przyjętej z góry tolerancji ε.

34 Tryb odtworzeniowy sieci Hopfielda W momencie dobrania wag sieci następuje ich zamroŝenie" i przejście do fazy odtworzeniowej. W fazie tej na wejście sieci podaje się wektor testowy x i oblicza odpowiedź sieci w postaci y i ( Wy i ) = sgn 1 ( ) ( )

35 W innej sekwencyjnej metodzie Monte Carlo obliczenia powyŝsze przeprowadza się nie dla wszystkich N neuronów, a jedynie dla losowo wybranych, powtarzając wielokrotnie proces losowania, aŝ do ustalenia się odpowiedzi sieci. UmoŜliwia to zmniejszenie liczby operacji matematycznych wymaganych na etapie rozpoznania.

36 W procesie odtwarzania na podstawie zaszumionych próbek stanowiących stan początkowy neuronów sieci Hopfielda występują trudności z uzyskaniem właściwego stanu końcowego odpowiadającego jednemu z zapamiętanych wzorców. W wielu przypadkach proces iteracyjny nie osiąga rozwiązania właściwego, ale rozwiązanie fałszywe. Najczęstsze przyczyny tego zjawiska to:

37 Wartość funkcji energetycznej zaleŝy y od iloczynu stanów w dwu neuronów w i jest symetryczna względem polaryzacji. Ten sam stan energetyczny jest przypisany obu polaryzacjom ±y i, ±y j, pod warunkiem, Ŝe obie zmieniają się na przeciwny jednocześnie. nie. Stąd d w przypadku sieci 3-3 neuronowej stany (+1, -1, +1) oraz (-1, +1, -1) charakteryzują się identyczną wartości cią energii i oba stany stanowią jed-nakowo dobre rozwiązanie zanie problemu.

38 Drugą przyczyną jest moŝliwo liwość mieszania róŝnych r składowych zapamiętanych wzorców w i tworzenia w ten sposób b stabilnego stanu odpowiadającego minimum lokalnemu. Stan mieszany odpowiada więc c takiej liniowej kombinacji nieparzystej liczby wzorców, w, która odpowiada stanowi stabilnemu sieci. Charakteryzuje się on wyŝszym poziomem energetycznym neuronów w niŝ stan poŝą Ŝądany.

39 Przy duŝej liczbie wzorców w tworzą się pośrednie minima lokalne nie odpowiadające Ŝadnemu z zapamiętanych wzorców, w, a wynikające z ukształtowania towania się funkcji energetycznej sieci. W trybie odtworzeniowym proces moŝe e utknąć w jednym z takich minimów w lokalnych powodując, Ŝe e uzyskane rozwiązanie zanie nie odpowiada Ŝadnemu stanowi neuronów biorącemu udział w procesie uczenia.

40 Postać wzorców uczących i testujących dla sieci Hopfielda: a) wzorce uczące; b) zastosowane wzorce testujące

41 Implementacja sprzętowa sieci Hopfielda Sieć Hopfielda, ze względu na równoległą strukturę układową i powtarzalny typ elementów, nadaje się do realizacji sprzętowej przy uŝyciu standardowych elementów technologii mikroelektronicznej. Punktem wyjścia jest tu opis sieci równaniem róŝniczkowym du T = u + W f ( u ) + b i i i ij j i dt j

42 Hopfield zaproponował implementację powyŝszego równania róŝniczkowego przy uŝyciu obwodu przedstawionego poniŝej

43 Jest to schemat i-tego neuronu zawierający oprócz elementów pasywnych R, C takŝe jeden element aktywny w postaci wzmacniacza o charakterystyce nieliniowej f(u i ) typu sigmoidalnego oraz jedno źródło niezaleŝne prądu I i reprezentujące bądź to polaryzację b i, bądź teŝ sygnał pochodzący od wymuszeń zewnętrznych układu.

44 Inwerter włączony na wyjściu neuronu generuje sygnał wyjściowy neuronu ze znakiem minus, uŝywany w przypadku, gdy waga W ij wynikająca z projektowania sieci ma wartość ujemną. Przy załoŝeniu, Ŝe prąd wejściowy wzmacniacza i in = 0 równanie prądowe w węźle u i przyjmie postać du R R C u f u R I N i i ( ) i i = i + j + i i dt j= 1 Rij

45 Z porównania ostatniej zaleŝności ze wzorem du T = u + W f ( u ) + b i i i ij j i dt j wynikają następujące związki: T = R C i i i W ij = R R i ij b = R I i i i

46 Z powyŝszych zaleŝności wynika iŝ rolę elementu całkującego odgrywa kondensator C i. Parametry τ i, W ij, b i zaleŝą od doboru parametrów wszystkich elementów. To wzajemne oddziaływanie jest bardzo niewygodne przy projektowaniu sieci. Wadę tę moŝna wyeliminować przyjmując wartość rezystancji r i bardzo małą w stosunku do wartości pozostałych rezystancji R ij.

47 Schemat sieci Hopfielda: a) schemat rezystancyjno-pojemnościowy; b) symboliczne przedstawienie sieci

48 Na rysunku przedstawiono schemat całej sieci Hopfielda, przy czym rys. a przedstawia schemat elektryczny połączeń elementów, a rys. b - jego schematyczne przedstawienie zaproponowane przez Hopfielda. Uwzględniono jedynie sprzęŝenia wzajemne neuronów, przyjmując sprzęŝenia własne równe zeru (wagi W ii = 0). Oznaczenie wzmacniacza nieliniowego ±f(x) wskazuje, Ŝe w sieci są dostępne (w miarę potrzeby) zarówno sygnały f(x) przy wartości dodatniej wagi, jak i - f(x) przy wartości ujemnej wagi.

49 NiezaleŜnie od szczegółów implementacji praktycznej, rozwiązania układowe sieci Hopfielda charakteryzują się budową modułową o powtarzalnej strukturze kaŝdego kanału. Wszystkie elementy wchodzące w skład układu są bezpośrednio realizowane w postaci scalonej przy wykorzystaniu najnowszej technologii VLSI. Z tego względu sieć Hopfielda od samego początku była poddawana próbom realizacji scalonej.

50 Do podstawowych naleŝą zastosowania w rozwiązywaniu zagadnień optymalizacyjnych przy uŝyciu specjalizowanej struktury układu. Przykładem moŝe być sieć realizująca programowanie liniowe i kwadratowe, programowanie minimaksowe i odcinkowoliniowe, sieć rozwiązująca problem komiwojaŝera czy podziału grafu na 2 części zapewniające minimalną liczbę łączeń między obu częściami.

51 Drugą rodzinę zastosowań stanowi przetwarzanie sygnałów w tej grupie moŝna wyróŝnić rozwiązania przetworników a/c, przekształcenie Fouriera czy przetwarzanie i dekompozycję sygnałów. Wspólną cechą wszystkich układów opartych na sieci Hopfielda jest duŝa szybkość działania. Dobierając stałą czasową integratorów τ i w zakresie nanosekund moŝna uzyskać rozwiązanie określonego problemu w czasie o rząd lub najwyŝej dwa rzędy wielkości dłuŝszym niŝ stała czasowa integratora. Mówi się wówczas, Ŝe układ działa w czasie rzeczywistym.

52 Problemem, który naleŝy rozwiązać korzystając z implementacji sprzętowej sieci Hopfielda, jest stosunkowo skomplikowana metoda projektowania. W zastosowaniach praktycznych przy określaniu optymalnych wag sieci korzysta się z metody obliczeniowej opartej na pojęciu funkcji energetycznej Lapunowa. Dla konkretnego problemu definiuje się funkcję celu wyraŝoną jako funkcja wag sieci Hopfielda.

53 Sieć Hopfielda spełniająca określoną funkcję ma wagi stałe nie podlegające uczeniu. W tym sensie kaŝda sieć jest specjalizowana do wykonywania określonego zadania. Zmiana warunków zadania wymaga ponownego przeprojektowania sieci, a nie douczenia, jak w przypadku sieci jednokierunkowych. Zmienia się przy tym zwykle struktura połączeń międzyneuronowych. Dobierane wagi sieci stanowią pamięć długoterminową.

54 Podanie warunków niezerowych na sieć powoduje uruchomienie procesu rekurencyjnego prowadzącego do jednego z minimów lokalnych, jakim odpowiadają zakodowane wagi sieci. Stan stabilny neuronów stanowi tak zwaną pamięć krótkoterminową. Niestety, oprócz minimów lokalnych właściwych powstają równieŝ minima pasoŝytnicze, w których moŝe utknąć aktualny punkt pracy, generując niewłaściwe rozwiązanie.

55 Sieć Hamminga Sieć Hamminga, zaproponowana przez Lippmanna jest trójwarstwową strukturą rekurencyjna, będącą rozwinięciem sieci Hopfielda. Jej zasada działania jako klasyfikatora wektorowego polega na minimalizacji odległości Hamminga wektora testowego podanego na wejście sieci od wektorów reprezentujących wzorce uczące, zakodowane w strukturze sieci.

56 Schemat sieci Hamminga

57 Na rysunku przedstawiono ogólną postać sieci Hamminga. Warstwa pierwsza jest jednokierunkowa z przepływem sygnałów od wejścia do wyjścia i ustalonymi wartościami wag. Warstwę drugą, tak zwany MAXNET, stanowią neurony połączone sprzęŝeniem zwrotnym kaŝdy z kaŝdym, przy czym w odróŝnieniu od struktury Hopfielda istnieje niezerowe sprzęŝenie neuronu z własnym wyjściem. Wagi neuronu w warstwie MAXNET są stałe.

58 Połączenia między róŝnymi neuronami są inhibicyjne (gaszące) o wartościach wag równych -ε, przy czym zwykle zakłada się wartość ε odwrotnie proporcjonalną do liczby wzorców. SprzęŜenie neuronu z wyjściem własnym jest pobudzające o wartości wagowej równej +1. Wagi polaryzacji neuronów przyjmuje się równe zeru. Neurony w tej warstwie działają w trybie WTA, w którym tylko jeden neuron w stanie ustalonym jest pobudzony, a pozostałe w stanie spoczynkowym.

59 Warstwa wyjściowa jednokierunkowa reprezentuje wektor wyjściowy stowarzyszony z wektorem wejściowym. Wagi neuronów tej warstwy są ustalone w zaleŝności od tego wektora. Wzorce uczące reprezentujące wektory W- wymiarowe przyjmują wartości bipolarne +1 lub 1. Są one podawane na wejścia neuronów stanowiących warstwę pierwszą o skokowej funkcji aktywacji, przyjmującej wartość 1 lub 0. W działaniu sieci moŝna wyróŝnić dwie fazy.

60 W fazie pierwszej na wejściu sieci jest prezentowany N-elementowy wektor x. Czas prezentacji wektora musi być dostatecznie długi, aby neurony warstwy pierwszej uzyskały ustalone wartości sygnałów wyjściowych, inicjujące stan początkowy neuronów warstwy drugiej (MAXNET-u).

61 W fazie drugiej wektor wejściowy x jest usuwany i rozpoczyna się proces iteracyjny w warstwie MAXNET zapoczątkowany stanem początkowym, ustanowionym w fazie pierwszej. Proces iteracyjny trwa do chwili, aŝ wszystkie neurony z wyjątkiem jednego osiągną stan zerowy. Neuron o niezerowym sygnale wyjściowym (zwycięzca) reprezentuje klasę, do której naleŝy wektor wejściowy.

62 Sieć Hamminga reprezentuje pamięć heteroasocjacyjną, pamiętającą pary wektorów (x, y), przy czym x jest wektorem wejściowym, a y - wektorem wyjściowym sieci, oba bipolarne o wartościach elementów ±1. Węzły wejściowe sieci 1, 2,..., N przyjmują wartości sygnałów zadane przez kolejne wektory x (i). Neurony warstwy pierwszej 1, 2,...,p określają odległość Hamminga między aktualnie podanym wektorem wejściowym x a kaŝdym z p zakodowanych wektorów wzorcowych x (i).

63 Neurony w warstwie MAXNET wykrywają wektor o najmniejszej odległości Hamminga, ustalając w ten sposób klasę, do której naleŝy dany wektor wejściowy x. Wagi neuronów warstwy wyjściowej odtwarzają wektor stowarzyszony z danym wektorem wejściowym. Przy p neuronach w warstwie pierwszej pojemność pamięci Hamminga jest równa p, gdyŝ kaŝdy neuron reprezentuje jedną klasę. Jeśli liczba zapamiętanych wzorców m jest mniejsza niŝ p, zakłada się, Ŝe pozostałe p - m wzorców są zerowe.

64 Inicjalizacja wag sieci jest następująca. Wagi warstwy pierwszej reprezentują kolejne wektory wzorcowe x (i) ; stąd W ( 1) ( i) ij dla i = 1,2,...,p. Podobnie wagi neuronów warstwy wyjściowej reprezentują kolejne wektory wzorcowe y i (i), stowarzyszone z x i (i) W = x j ( 2) ( i) ji = y j

65 W przypadku neuronów w warstwie MAXNET działających w trybie WTA inicjalizacja wag sieci ma za zadanie wzmocnić własny sygnał neuronu i osłabić pozostałe. Stąd przyjmuje się ( m) oraz W = ii 1 1 ( ) < W m < p 1 ij 0

66 Dla zapewnienia bezwzględnej zbieŝności algorytmu wagi W ij (m) powinny róŝnić się między sobą. Lippmann w swoim rozwiązaniu przyjął W ij ( m) 1 = p 1 +ξ przy czym ξ jest wartością losową o dostatecznie małej amplitudzie.

67 Na początku procesu wartości sygnałów we wszystkich węzłach układu są równe zeru, z wyjątkiem węzłów wejściowych, do których został podany wektor testujący x. Wartości sygnałów wejściowych poprzez wagi W (1) ij są dostarczane do neuronów warstwy pierwszej obliczającej odległość Hamminga od odpowiednich wektorów wzorcowych x (i) dla i =1,2,...,p.

68 Wartości sygnałów wyjściowych neuronów są określane wzorem ( 1) Wij x j + n j yˆ i = = 1 2n H ( ( i), ) d x x n w którym d H (x (i),x) oznacza odległość Hamminga między wektorem x a x (i), czyli liczbę bitów, o które róŝnią się oba wektory. Wartość, jeśli x = x (i), lub y =, jeśli x = -x (i). y ˆi = 1 ˆ 0 W pozostałych przypadkach wartości zawarte w przedziale [0, 1]. i są

69 Po określeniu wartości ˆi wektor wejściowy x zostaje usunięty z wejścia sieci, a stany neuronów yˆi stają się stanami początkowymi y i neuronów w warstwie MAXNET w następnej fazie działania. Zadaniem neuronów tej warstwy jest wyłonienie zwycięzcy, czyli neuronu, którego pobudzenie jest najbliŝsze wartości 1. Neuron taki wskazuje na wektor wzorcowy o najmniejszej odległości Hamminga od wektora wejściowego x. y

70 Proces wyłaniania zwycięzcy jest procesem rekurencyjnym przebiegającym według zaleŝności ( ) ( m) yˆ 1 ( 1) i = yi k = f Wij y j k = j ( ) ( m) = f yi k 1 + Wij y j k 1 j i z wartością startową y j (0)=. y ˆi ( )

71 Funkcja aktywacji f(y) jest funkcją określoną wzorem f y ( ) y dla y 0 = 0 dla y < 0

72 Proces iteracyjny jest powtarzany, aŝ stan neuronów przestanie ulegać zmianom i tylko jeden neuron jest aktywny, podczas gdy pozostałe przyjmą stan zerowy. Neuron aktywny staje się zwycięzcą i poprzez wagi W (2) ij neuronów warstwy wyjściowej odtworzy wektor y (i) stowarzyszony z wektorem x (i) uznanym przez MAXNET za najbliŝszy wektorowi wejściowemu x.

73 WaŜną zaletą sieci Hamminga jest duŝa oszczędność połączeń wagowych między neuronami. Przykładowo dla sieci o 100 wejściach, kodującej 10 róŝnych klas wektorowych, sieć Hopfielda wymaga połączeń wagowych o dobieranych wartościach wag. W przypadku sieci Hamminga liczba powiązań wagowych jest zredukowana do 1100, z których 1000 wag występuje w warstwie pierwszej i 100 wag w warstwie MAXNET.

74 Warstwa wyjściowa w tym przypadku nie występuje, gdyŝ sieć Hamminga od powiadająca sieci Hopfielda jest autoasocjacyjna. WiąŜe się z tym zwiększona pojemność maksymalna sieci, dla której przy p neuronach w warstwie MAXNET pojemność maksymalną sieci szacuje się na p max - 2 cp, przy czym c 1.

75 Przy wykorzystaniu w procesie uczenia metody największego spadku przyrost wag w procesie adaptacji dla warstwy wyjściowej ma postać (gdzie µ jest współczynnikiem uczenia): ( t) (2) (2) (2) 1 1 = µ 1 ( ) zz (2) dw1 w e t analogicznie dla warstwy ukrytej przyrost wag wygląda następująco: dy ( ) w e ( t) dy t (2) (1) (2) 1 αβ = µ 1 (2) dwαβ zz

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Sieci Hopfielda Najprostsze modele sieci z rekurencją sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Modele bardziej złoŝone: RTRN (Real Time Recurrent Network), przetwarzająca sygnały w czasie

Bardziej szczegółowo

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia

Bardziej szczegółowo

Sztuczna inteligencja

Sztuczna inteligencja Sztuczna inteligencja Wykład 7. Architektury sztucznych sieci neuronowych. Metody uczenia sieci. źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Podstawowe architektury

Bardziej szczegółowo

SIECI REKURENCYJNE SIECI HOPFIELDA

SIECI REKURENCYJNE SIECI HOPFIELDA SIECI REKURENCYJNE SIECI HOPFIELDA Joanna Grabska- Chrząstowska Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA SPRZĘŻENIE ZWROTNE W NEURONIE LINIOWYM sygnał

Bardziej szczegółowo

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych. Wstęp do teorii sztucznej inteligencji Wykład III Modele sieci neuronowych. 1 Perceptron model najprostzszy przypomnienie Schemat neuronu opracowany przez McCullocha i Pittsa w 1943 roku. Przykład funkcji

Bardziej szczegółowo

8. Neuron z ciągłą funkcją aktywacji.

8. Neuron z ciągłą funkcją aktywacji. 8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i

Bardziej szczegółowo

Uczenie sieci typu MLP

Uczenie sieci typu MLP Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik

Bardziej szczegółowo

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych. Sieci rekurencyjne Ewa Adamus ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych 7 maja 2012 Jednowarstwowa sieć Hopfielda, z n neuronami Bipolarna funkcja przejścia W wariancie

Bardziej szczegółowo

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe www.math.uni.lodz.pl/ radmat Cel wykładu Celem wykładu jest prezentacja różnych rodzajów sztucznych sieci neuronowych. Biologiczny model neuronu Mózg człowieka składa się z około 10 11 komórek nerwowych,

Bardziej szczegółowo

Sieci Neuronowe - Rok III - kierunek IS w IFAiIS UJ 2008/2009. Sieci Neuronowe

Sieci Neuronowe - Rok III - kierunek IS w IFAiIS UJ 2008/2009. Sieci Neuronowe Sieci Neuronowe Wykład 6 Sieci pamieci skojarzeniowej: sieci Hamminga, sieci Hintona, sieci BAM wykład przygotowany na podstawie. S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT, W-wa 1996. R.

Bardziej szczegółowo

wiedzy Sieci neuronowe

wiedzy Sieci neuronowe Metody detekcji uszkodzeń oparte na wiedzy Sieci neuronowe Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 7 Wprowadzenie Okres kształtowania się teorii sztucznych sieci

Bardziej szczegółowo

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska

Bardziej szczegółowo

Metody Sztucznej Inteligencji II

Metody Sztucznej Inteligencji II 17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 8. SZTUCZNE SIECI NEURONOWE INNE ARCHITEKTURY Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska SIEĆ O RADIALNYCH FUNKCJACH BAZOWYCH

Bardziej szczegółowo

Ćwiczenie 14. Maria Bełtowska-Brzezinska KINETYKA REAKCJI ENZYMATYCZNYCH

Ćwiczenie 14. Maria Bełtowska-Brzezinska KINETYKA REAKCJI ENZYMATYCZNYCH Ćwiczenie 14 aria Bełtowska-Brzezinska KINETYKA REAKCJI ENZYATYCZNYCH Zagadnienia: Podstawowe pojęcia kinetyki chemicznej (szybkość reakcji, reakcje elementarne, rząd reakcji). Równania kinetyczne prostych

Bardziej szczegółowo

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, 2013 Spis treści Przedmowa 7 1. Wstęp 9 1.1. Podstawy biologiczne działania neuronu 9 1.2. Pierwsze modele sieci neuronowej

Bardziej szczegółowo

Przetworniki analogowo-cyfrowe - budowa i działanie" anie"

Przetworniki analogowo-cyfrowe - budowa i działanie anie Przetworniki analogowo-cyfrowe - budowa i działanie" anie" Wprowadzenie Wiele urządzeń pomiarowych wyposaŝonych jest obecnie w przetworniki A/C. Końcówki takich urządzeń to najczęściej typowe interfejsy

Bardziej szczegółowo

Widzenie komputerowe

Widzenie komputerowe Widzenie komputerowe Uczenie maszynowe na przykładzie sieci neuronowych (3) źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Zdolność uogólniania sieci neuronowej R oznaczenie

Bardziej szczegółowo

Podstawy Sztucznej Inteligencji (PSZT)

Podstawy Sztucznej Inteligencji (PSZT) Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12

Bardziej szczegółowo

PRZETWORNIKI C / A PODSTAWOWE PARAMETRY

PRZETWORNIKI C / A PODSTAWOWE PARAMETRY PRZETWORIKI C / A PODSTAWOWE PARAMETRY Rozdzielczość przetwornika C/A - Określa ją liczba - bitów słowa wejściowego. - Definiuje się ją równieŝ przez wartość związaną z najmniej znaczącym bitem (LSB),

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda Wstęp do sieci neuronowych, wykład 9. M. Czoków, J. Piersa 2010-12-07 1 Sieci skierowane 2 Modele sieci rekurencyjnej Energia sieci 3 Sieci skierowane Sieci skierowane Sieci skierowane graf połączeń synaptycznych

Bardziej szczegółowo

Wzmacniacze, wzmacniacze operacyjne

Wzmacniacze, wzmacniacze operacyjne Wzmacniacze, wzmacniacze operacyjne Schemat ideowy wzmacniacza Współczynniki wzmocnienia: - napięciowy - k u =U wy /U we - prądowy - k i = I wy /I we - mocy - k p = P wy /P we >1 Wzmacniacz w układzie

Bardziej szczegółowo

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna. Sieci neuronowe model konekcjonistyczny Plan wykładu Mózg ludzki a komputer Modele konekcjonistycze Perceptron Sieć neuronowa Uczenie sieci Sieci Hopfielda Mózg ludzki a komputer Twój mózg to 00 000 000

Bardziej szczegółowo

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa

Bardziej szczegółowo

Lekcja 5: Sieć Kohonena i sieć ART

Lekcja 5: Sieć Kohonena i sieć ART Lekcja 5: Sieć Kohonena i sieć ART S. Hoa Nguyen 1 Materiał Sieci Kohonena (Sieć samo-organizująca) Rysunek 1: Sieć Kohonena Charakterystyka sieci: Jednowarstwowa jednokierunkowa sieć. Na ogół neurony

Bardziej szczegółowo

WZMACNIACZ OPERACYJNY. Podstawowe właściwości wzmacniaczy operacyjnych. Rodzaj wzmacniacza Rezystancja wejściowa Rezystancja wyjściowa

WZMACNIACZ OPERACYJNY. Podstawowe właściwości wzmacniaczy operacyjnych. Rodzaj wzmacniacza Rezystancja wejściowa Rezystancja wyjściowa WZMACNIACZ OPEACYJNY kłady aktywne ze wzmacniaczami operacyjnymi... Podstawowe właściwości wzmacniaczy operacyjnych odzaj wzmacniacza ezystancja wejściowa ezystancja wyjściowa Bipolarny FET MOS-FET Idealny

Bardziej szczegółowo

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0 Uczenie się pojedynczego neuronu W0 X0=1 W1 x1 W2 s f y x2 Wp xp p x i w i=x w+wo i=0 Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z=0 Wówczas: W 1 x 1 + w 2 x 2 + = 0 Algorytm

Bardziej szczegółowo

Sztuczne Sieci Neuronowe. Sieć Hopfielda

Sztuczne Sieci Neuronowe. Sieć Hopfielda Sztuczne Sieci Neuronowe Wykład 6 Sieć Hopfielda wykład przygotowany na podstawie. R. Tadeusiewicz, Sieci Neuronowe, Rozdz. 7. Akademicka Oficyna Wydawnicza RM, Warszawa 1993. S. Osowski, Sieci Neuronowe

Bardziej szczegółowo

Sieci Neuronowe - Rok III - kierunek IS w IFAiIS UJ 2008/2009. Sieci Neuronowe. Wykład 5 Sieć Hopfielda

Sieci Neuronowe - Rok III - kierunek IS w IFAiIS UJ 2008/2009. Sieci Neuronowe. Wykład 5 Sieć Hopfielda Sieci Neuronowe Wykład 5 Sieć Hopfielda wykład przygotowany na podstawie. R. Tadeusiewicz, Sieci Neuronowe, Rozdz. 7. Akademicka Oficyna Wydawnicza RM, Warszawa 1993. S. Osowski, Sieci Neuronowe w ujęciu

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda Wstęp do sieci neuronowych, wykład 10. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-12-13 1 Modele sieci rekurencyjnej Energia sieci 2 3 Modele sieci

Bardziej szczegółowo

( ) + ( ) T ( ) + E IE E E. Obliczanie gradientu błędu metodą układu dołączonego

( ) + ( ) T ( ) + E IE E E. Obliczanie gradientu błędu metodą układu dołączonego Obliczanie gradientu błędu metodą uładu dołączonego /9 Obliczanie gradientu błędu metodą uładu dołączonego Chodzi o wyznaczenie pochodnych cząstowych funcji błędu E względem parametrów elementów uładu

Bardziej szczegółowo

WIECZOROWE STUDIA NIESTACJONARNE LABORATORIUM UKŁADÓW ELEKTRONICZNYCH

WIECZOROWE STUDIA NIESTACJONARNE LABORATORIUM UKŁADÓW ELEKTRONICZNYCH POLITECHNIKA WARSZAWSKA Instytut Radioelektroniki Zakład Radiokomunikacji WIECZOROWE STUDIA NIESTACJONARNE Semestr III LABORATORIUM UKŁADÓW ELEKTRONICZNYCH Ćwiczenie Temat: Badanie wzmacniacza operacyjnego

Bardziej szczegółowo

Metody numeryczne Technika obliczeniowa i symulacyjna Sem. 2, EiT, 2014/2015

Metody numeryczne Technika obliczeniowa i symulacyjna Sem. 2, EiT, 2014/2015 Metody numeryczne Technika obliczeniowa i symulacyjna Sem. 2, EiT, 2014/2015 1 Metody numeryczne Dział matematyki Metody rozwiązywania problemów matematycznych za pomocą operacji na liczbach. Otrzymywane

Bardziej szczegółowo

Wstęp do teorii sztucznej inteligencji

Wstęp do teorii sztucznej inteligencji Wstęp do teorii sztucznej inteligencji Wykład IV SSN = Architektura + Algorytm Uczenie sztucznych neuronów. Przypomnienie. Uczenie z nauczycielem. Wagi i wejścia dla sieci neuronuowej: reprezentacja macierzowa

Bardziej szczegółowo

W celu obliczenia charakterystyki częstotliwościowej zastosujemy wzór 1. charakterystyka amplitudowa 0,

W celu obliczenia charakterystyki częstotliwościowej zastosujemy wzór 1. charakterystyka amplitudowa 0, Bierne obwody RC. Filtr dolnoprzepustowy. Filtr dolnoprzepustowy jest układem przenoszącym sygnały o małej częstotliwości bez zmian, a powodującym tłumienie i opóźnienie fazy sygnałów o większych częstotliwościach.

Bardziej szczegółowo

Metody numeryczne I Równania nieliniowe

Metody numeryczne I Równania nieliniowe Metody numeryczne I Równania nieliniowe Janusz Szwabiński szwabin@ift.uni.wroc.pl Metody numeryczne I (C) 2004 Janusz Szwabiński p.1/66 Równania nieliniowe 1. Równania nieliniowe z pojedynczym pierwiastkiem

Bardziej szczegółowo

Definicja pochodnej cząstkowej

Definicja pochodnej cząstkowej 1 z 8 gdzie punkt wewnętrzny Definicja pochodnej cząstkowej JeŜeli iloraz ma granicę dla to granicę tę nazywamy pochodną cząstkową funkcji względem w punkcie. Oznaczenia: Pochodną cząstkową funkcji względem

Bardziej szczegółowo

BADANIE PRZERZUTNIKÓW ASTABILNEGO, MONOSTABILNEGO I BISTABILNEGO

BADANIE PRZERZUTNIKÓW ASTABILNEGO, MONOSTABILNEGO I BISTABILNEGO Ćwiczenie 11 BADANIE PRZERZUTNIKÓW ASTABILNEGO, MONOSTABILNEGO I BISTABILNEGO 11.1 Cel ćwiczenia Celem ćwiczenia jest poznanie rodzajów, budowy i właściwości przerzutników astabilnych, monostabilnych oraz

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką

Bardziej szczegółowo

Podstawy Elektrotechniki i Elektroniki. Opracował: Mgr inż. Marek Staude

Podstawy Elektrotechniki i Elektroniki. Opracował: Mgr inż. Marek Staude Podstawy Elektrotechniki i Elektroniki Opracował: Mgr inż. Marek Staude Część 2 Analiza obwodów w stanie ustalonym przy wymuszeniu sinusoidalnym Przypomnienie ostatniego wykładu Prąd i napięcie Podstawowe

Bardziej szczegółowo

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM ZASTOSOWANIE SIECI NEURONOWYCH W SYSTEMACH AKTYWNEJ REDUKCJI HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM WPROWADZENIE Zwalczanie hałasu przy pomocy metod aktywnych redukcji hałasu polega

Bardziej szczegółowo

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2 Elementy Sztucznej Inteligencji Sztuczne sieci neuronowe cz. 2 1 Plan wykładu Uczenie bez nauczyciela (nienadzorowane). Sieci Kohonena (konkurencyjna) Sieć ze sprzężeniem zwrotnym Hopfielda. 2 Cechy uczenia

Bardziej szczegółowo

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE SIECI NEURONOWE Przedmiotem laboratorium jest stworzenie algorytmu rozpoznawania zwierząt z zastosowaniem sieci neuronowych w oparciu o 5 kryteriów: ile zwierzę ma nóg, czy żyje w wodzie, czy umie latać,

Bardziej szczegółowo

Liniowe układy scalone w technice cyfrowej

Liniowe układy scalone w technice cyfrowej Liniowe układy scalone w technice cyfrowej Wykład 6 Zastosowania wzmacniaczy operacyjnych: konwertery prąd-napięcie i napięcie-prąd, źródła prądowe i napięciowe, przesuwnik fazowy Konwerter prąd-napięcie

Bardziej szczegółowo

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010 Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010 Sieci neuronowe jednokierunkowa wielowarstwowa sieć neuronowa sieci Kohonena

Bardziej szczegółowo

MODELOWANIE RZECZYWISTOŚCI

MODELOWANIE RZECZYWISTOŚCI MODELOWANIE RZECZYWISTOŚCI Daniel Wójcik Instytut Biologii Doświadczalnej PAN Szkoła Wyższa Psychologii Społecznej d.wojcik@nencki.gov.pl dwojcik@swps.edu.pl tel. 022 5892 424 http://www.neuroinf.pl/members/danek/swps/

Bardziej szczegółowo

Sieć przesyłająca żetony CP (counter propagation)

Sieć przesyłająca żetony CP (counter propagation) Sieci neuropodobne IX, specyficzne architektury 1 Sieć przesyłająca żetony CP (counter propagation) warstwa Kohonena: wektory wejściowe są unormowane jednostki mają unormowane wektory wag jednostki są

Bardziej szczegółowo

Elementy Modelowania Matematycznego

Elementy Modelowania Matematycznego Elementy Modelowania Matematycznego Wykład 8 Programowanie nieliniowe Spis treści Programowanie nieliniowe Zadanie programowania nieliniowego Zadanie programowania nieliniowego jest identyczne jak dla

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej

Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2013-01-09

Bardziej szczegółowo

Uczenie sieci radialnych (RBF)

Uczenie sieci radialnych (RBF) Uczenie sieci radialnych (RBF) Budowa sieci radialnej Lokalne odwzorowanie przestrzeni wokół neuronu MLP RBF Budowa sieci radialnych Zawsze jedna warstwa ukryta Budowa neuronu Neuron radialny powinien

Bardziej szczegółowo

Rekurencje. Jeśli algorytm zawiera wywołanie samego siebie, jego czas działania moŝe być określony rekurencją. Przykład: sortowanie przez scalanie:

Rekurencje. Jeśli algorytm zawiera wywołanie samego siebie, jego czas działania moŝe być określony rekurencją. Przykład: sortowanie przez scalanie: Rekurencje Jeśli algorytm zawiera wywołanie samego siebie, jego czas działania moŝe być określony rekurencją. Przykład: sortowanie przez scalanie: T(n) = Θ(1) (dla n = 1) T(n) = 2 T(n/2) + Θ(n) (dla n

Bardziej szczegółowo

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe wykład 1. Właściwości sieci neuronowych Model matematyczny sztucznego neuronu Rodzaje sieci neuronowych Przegląd d głównych g

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda Wstęp do sieci neuronowych, wykład 9. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-12-10 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu

Bardziej szczegółowo

Podstawy sztucznej inteligencji

Podstawy sztucznej inteligencji wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,

Bardziej szczegółowo

IMPULSOWY PRZEKSZTAŁTNIK ENERGII Z TRANZYSTOREM SZEREGOWYM

IMPULSOWY PRZEKSZTAŁTNIK ENERGII Z TRANZYSTOREM SZEREGOWYM Instrukcja do ćwiczenia laboratoryjnego. IMPSOWY PRZEKSZTAŁTNIK ENERGII Z TRANZYSTOREM SZEREGOWYM Przekształtnik impulsowy z tranzystorem szeregowym słuŝy do przetwarzania energii prądu jednokierunkowego

Bardziej szczegółowo

INSTYTUT ELEKTROENERGETYKI POLITECHNIKI ŁÓDZKIEJ BADANIE PRZETWORNIKÓW POMIAROWYCH

INSTYTUT ELEKTROENERGETYKI POLITECHNIKI ŁÓDZKIEJ BADANIE PRZETWORNIKÓW POMIAROWYCH INSTYTUT ELEKTROENERGETYKI POLITECHNIKI ŁÓDZKIEJ ZAKŁAD ELEKTROWNI LABORATORIUM POMIARÓW I AUTOMATYKI W ELEKTROWNIACH BADANIE PRZETWORNIKÓW POMIAROWYCH Instrukcja do ćwiczenia Łódź 1996 1. CEL ĆWICZENIA

Bardziej szczegółowo

Zalecenia projektowe i montaŝowe dotyczące ekranowania. Wykład Podstawy projektowania A.Korcala

Zalecenia projektowe i montaŝowe dotyczące ekranowania. Wykład Podstawy projektowania A.Korcala Zalecenia projektowe i montaŝowe dotyczące ekranowania Wykład Podstawy projektowania A.Korcala Mechanizmy powstawania zakłóceń w układach elektronicznych. Głównymi źródłami zakłóceń są: - obce pola elektryczne

Bardziej szczegółowo

Kształcenie w zakresie podstawowym. Klasa 2

Kształcenie w zakresie podstawowym. Klasa 2 Kształcenie w zakresie podstawowym. Klasa 2 Poniżej podajemy umiejętności, jakie powinien zdobyć uczeń z każdego działu, aby uzyskać poszczególne stopnie. Na ocenę dopuszczającą uczeń powinien opanować

Bardziej szczegółowo

LABORATORIUM Systemy teletransmisji i transmisja danych

LABORATORIUM Systemy teletransmisji i transmisja danych LABORATORIUM Systemy teletransmisji i transmisja danych INSTRUKCJA NR:3 TEMAT: Podstawy adresowania IP w protokole TCP/IP 1 Cel ćwiczenia: WyŜsza Szkoła Technik Komputerowych i Telekomunikacji Zapoznanie

Bardziej szczegółowo

Układy równań liniowych. Ax = b (1)

Układy równań liniowych. Ax = b (1) Układy równań liniowych Dany jest układ m równań z n niewiadomymi. Liczba równań m nie musi być równa liczbie niewiadomych n, tj. mn. a a... a b n n a a... a b n n... a a... a b m m mn n m

Bardziej szczegółowo

Programowanie celowe #1

Programowanie celowe #1 Programowanie celowe #1 Problem programowania celowego (PC) jest przykładem problemu programowania matematycznego nieliniowego, który można skutecznie zlinearyzować, tzn. zapisać (i rozwiązać) jako problem

Bardziej szczegółowo

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ optymalizacje podejmowanych decyzji Tomasz Karczyoski Wydział W-08 IZ Czym są sieci neuronowe Struktura matematycznych oraz programowy lub sprzętowy model, realizujących obliczenia lub przetwarzanie sygnałów

Bardziej szczegółowo

Instrukcja do ćwiczenia laboratoryjnego nr 5

Instrukcja do ćwiczenia laboratoryjnego nr 5 Instrukcja do ćwiczenia laboratoryjnego nr 5 Temat: Charakterystyki statyczne tranzystorów bipolarnych Cel ćwiczenia. Celem ćwiczenia jest poznanie charakterystyk prądowonapięciowych i wybranych parametrów

Bardziej szczegółowo

Inteligentne systemy przeciw atakom sieciowym

Inteligentne systemy przeciw atakom sieciowym Inteligentne systemy przeciw atakom sieciowym wykład Sztuczne sieci neuronowe (SSN) Joanna Kołodziejczyk 2016 Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 1 / 36 Biologiczne

Bardziej szczegółowo

ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH

ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH Transport, studia I stopnia Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać ogólna równania nieliniowego Często występującym, ważnym problemem obliczeniowym

Bardziej szczegółowo

Wstęp do sztucznych sieci neuronowych

Wstęp do sztucznych sieci neuronowych Wstęp do sztucznych sieci neuronowych Michał Garbowski Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Wydział Informatyki 15 grudnia 2011 Plan wykładu I 1 Wprowadzenie Inspiracja biologiczna

Bardziej szczegółowo

Przetworniki cyfrowo-analogowe C-A CELE ĆWICZEŃ PODSTAWY TEORETYCZNE

Przetworniki cyfrowo-analogowe C-A CELE ĆWICZEŃ PODSTAWY TEORETYCZNE Przetworniki cyfrowo-analogowe C-A CELE ĆWICZEŃ Zrozumienie zasady działania przetwornika cyfrowo-analogowego. Poznanie podstawowych parametrów i działania układu DAC0800. Poznanie sposobu generacji symetrycznego

Bardziej szczegółowo

K p. K o G o (s) METODY DOBORU NASTAW Metoda linii pierwiastkowych Metody analityczne Metoda linii pierwiastkowych

K p. K o G o (s) METODY DOBORU NASTAW Metoda linii pierwiastkowych Metody analityczne Metoda linii pierwiastkowych METODY DOBORU NASTAW 7.3.. Metody analityczne 7.3.. Metoda linii pierwiastkowych 7.3.2 Metody doświadczalne 7.3.2.. Metoda Zieglera- Nicholsa 7.3.2.2. Wzmocnienie krytyczne 7.3.. Metoda linii pierwiastkowych

Bardziej szczegółowo

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda Sieci neuropodobne 1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN Agenda Trochę neurobiologii System nerwowy w organizmach żywych tworzą trzy

Bardziej szczegółowo

Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11,

Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11, 1 Kwantyzacja skalarna Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11, 10.05.005 Kwantyzacja polega na reprezentowaniu dużego zbioru wartości (być może nieskończonego) za pomocą wartości

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda Wstęp do sieci neuronowych, wykład 10. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-12-19 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu

Bardziej szczegółowo

przy warunkach początkowych: 0 = 0, 0 = 0

przy warunkach początkowych: 0 = 0, 0 = 0 MODELE MATEMATYCZNE UKŁADÓW DYNAMICZNYCH Podstawową formą opisu procesów zachodzących w członach lub układach automatyki jest równanie ruchu - równanie dynamiki. Opisuje ono zależność wielkości fizycznych,

Bardziej szczegółowo

Elementy inteligencji obliczeniowej

Elementy inteligencji obliczeniowej Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego

Bardziej szczegółowo

POMIAR NAPIĘCIA STAŁEGO PRZYRZĄDAMI ANALOGOWYMI I CYFROWYMI. Cel ćwiczenia. Program ćwiczenia

POMIAR NAPIĘCIA STAŁEGO PRZYRZĄDAMI ANALOGOWYMI I CYFROWYMI. Cel ćwiczenia. Program ćwiczenia Pomiar napięć stałych 1 POMIA NAPIĘCIA STAŁEGO PZYZĄDAMI ANALOGOWYMI I CYFOWYMI Cel ćwiczenia Celem ćwiczenia jest poznanie: - parametrów typowych woltomierzy prądu stałego oraz z warunków poprawnej ich

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych klasyfikacja LABORKA Piotr Ciskowski zadanie 1. klasyfikacja zwierząt sieć jednowarstwowa żródło: Tadeusiewicz. Odkrywanie własności sieci neuronowych, str. 159 Przykład

Bardziej szczegółowo

Tranzystorowe wzmacniacze OE OB OC. na tranzystorach bipolarnych

Tranzystorowe wzmacniacze OE OB OC. na tranzystorach bipolarnych Tranzystorowe wzmacniacze OE OB OC na tranzystorach bipolarnych Wzmacniacz jest to urządzenie elektroniczne, którego zadaniem jest : proporcjonalne zwiększenie amplitudy wszystkich składowych widma sygnału

Bardziej szczegółowo

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING NEURONOWE MAPY SAMOORGANIZUJĄCE SIĘ Self-Organizing Maps SOM Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki,

Bardziej szczegółowo

Ćwiczenie 2 LABORATORIUM ELEKTRONIKI POLITECHNIKA ŁÓDZKA KATEDRA PRZYRZĄDÓW PÓŁPRZEWODNIKOWYCH I OPTOELEKTRONICZNYCH

Ćwiczenie 2 LABORATORIUM ELEKTRONIKI POLITECHNIKA ŁÓDZKA KATEDRA PRZYRZĄDÓW PÓŁPRZEWODNIKOWYCH I OPTOELEKTRONICZNYCH LABORATORIUM LKTRONIKI Ćwiczenie Parametry statyczne tranzystorów bipolarnych el ćwiczenia Podstawowym celem ćwiczenia jest poznanie statycznych charakterystyk tranzystorów bipolarnych oraz metod identyfikacji

Bardziej szczegółowo

Sztuczne sieci neuronowe (SNN)

Sztuczne sieci neuronowe (SNN) Sztuczne sieci neuronowe (SNN) Pozyskanie informacji (danych) Wstępne przetwarzanie danych przygotowanie ich do dalszej analizy Selekcja informacji Ostateczny model decyzyjny SSN - podstawy Sieci neuronowe

Bardziej szczegółowo

Przetworniki cyfrowo analogowe oraz analogowo - cyfrowe

Przetworniki cyfrowo analogowe oraz analogowo - cyfrowe Przetworniki cyfrowo analogowe oraz analogowo - cyfrowe Przetworniki cyfrowo / analogowe W cyfrowych systemach pomiarowych często zachodzi konieczność zmiany sygnału cyfrowego na analogowy, np. w celu

Bardziej szczegółowo

jest rozwiązaniem równania jednorodnego oraz dla pewnego to jest toŝsamościowo równe zeru.

jest rozwiązaniem równania jednorodnego oraz dla pewnego to jest toŝsamościowo równe zeru. Układy liniowe Układ liniowy pierwszego rzędu, niejednorodny. gdzie Jeśli to układ nazywamy jednorodnym Pamiętamy, Ŝe kaŝde równanie liniowe rzędu m moŝe zostać sprowadzone do układu n równań liniowych

Bardziej szczegółowo

FLAC Fast Lagrangian Analysis of Continua

FLAC Fast Lagrangian Analysis of Continua FLAC Fast Lagrangian Analysis of Continua Program FLAC jest oparty o metodę róŝnic skończonych. Metoda RóŜnic Skończonych (MRS) jest chyba najstarszą metodą numeryczną. W metodzie tej kaŝda pochodna w

Bardziej szczegółowo

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek Sztuczne sieci neuronowe Ćwiczenia Piotr Fulmański, Marta Grzanek Piotr Fulmański 1 Wydział Matematyki i Informatyki, Marta Grzanek 2 Uniwersytet Łódzki Banacha 22, 90-232, Łódź Polska e-mail 1: fulmanp@math.uni.lodz.pl,

Bardziej szczegółowo

Data Mining Wykład 9. Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster. Plan wykładu. Sformułowanie problemu

Data Mining Wykład 9. Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster. Plan wykładu. Sformułowanie problemu Data Mining Wykład 9 Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster Plan wykładu Wprowadzanie Definicja problemu Klasyfikacja metod grupowania Grupowanie hierarchiczne Sformułowanie problemu

Bardziej szczegółowo

Sieci neuronowe w Statistica

Sieci neuronowe w Statistica http://usnet.us.edu.pl/uslugi-sieciowe/oprogramowanie-w-usk-usnet/oprogramowaniestatystyczne/ Sieci neuronowe w Statistica Agnieszka Nowak - Brzezińska Podstawowym elementem składowym sztucznej sieci neuronowej

Bardziej szczegółowo

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe Wydział Zarządzania AGH Katedra Informatyki Stosowanej Sztuczne sieci neuronowe Sztuczne sieci neuronowe Wprowadzenie Trochę historii Podstawy działania Funkcja aktywacji Typy sieci 2 Wprowadzenie Zainteresowanie

Bardziej szczegółowo

Kod znak-moduł. Wartość liczby wynosi. Reprezentacja liczb w kodzie ZM w 8-bitowym formacie:

Kod znak-moduł. Wartość liczby wynosi. Reprezentacja liczb w kodzie ZM w 8-bitowym formacie: Wykład 3 3-1 Reprezentacja liczb całkowitych ze znakiem Do przedstawienia liczb całkowitych ze znakiem stosowane są następujące kody: - ZM (znak-moduł) - U1 (uzupełnienie do 1) - U2 (uzupełnienie do 2)

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd. Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 2013-11-26 Projekt pn. Wzmocnienie potencjału

Bardziej szczegółowo

Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład Kody liniowe - kodowanie w oparciu o macierz parzystości

Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład Kody liniowe - kodowanie w oparciu o macierz parzystości Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład 13 1 Kody liniowe - kodowanie w oparciu o macierz parzystości Przykład Różne macierze parzystości dla kodu powtórzeniowego. Co wiemy z algebry

Bardziej szczegółowo

1.UKŁADY RÓWNAŃ LINIOWYCH

1.UKŁADY RÓWNAŃ LINIOWYCH UKŁADY RÓWNAŃ 1.UKŁADY RÓWNAŃ LINIOWYCH Układ: a1x + b1y = c1 a x + by = c nazywamy układem równań liniowych. Rozwiązaniem układu jest kaŝda para liczb spełniająca kaŝde z równań. Przy rozwiązywaniu układów

Bardziej szczegółowo

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Wykład 10 Mapa cech Kohonena i jej modyfikacje - uczenie sieci samoorganizujących się - kwantowanie wektorowe

Bardziej szczegółowo

Wzmacniacze operacyjne

Wzmacniacze operacyjne Wzmacniacze operacyjne Cel ćwiczenia Celem ćwiczenia jest badanie podstawowych układów pracy wzmacniaczy operacyjnych. Wymagania Wstęp 1. Zasada działania wzmacniacza operacyjnego. 2. Ujemne sprzężenie

Bardziej szczegółowo

0 + 0 = 0, = 1, = 1, = 0.

0 + 0 = 0, = 1, = 1, = 0. 5 Kody liniowe Jak już wiemy, w celu przesłania zakodowanego tekstu dzielimy go na bloki i do każdego z bloków dodajemy tak zwane bity sprawdzające. Bity te są w ścisłej zależności z bitami informacyjnymi,

Bardziej szczegółowo

6. Perceptron Rosenblatta

6. Perceptron Rosenblatta 6. Perceptron Rosenblatta 6-1 Krótka historia perceptronu Rosenblatta 6-2 Binarne klasyfikatory liniowe 6-3 Struktura perceptronu Rosenblatta 6-4 Perceptron Rosenblatta a klasyfikacja 6-5 Perceptron jednowarstwowy:

Bardziej szczegółowo

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska Sieci neuronowe w Statistica Agnieszka Nowak - Brzezioska Podstawowym elementem składowym sztucznej sieci neuronowej jest element przetwarzający neuron. Schemat działania neuronu: x1 x2 w1 w2 Dendrites

Bardziej szczegółowo

ĆWICZENIE 15 BADANIE WZMACNIACZY MOCY MAŁEJ CZĘSTOTLIWOŚCI

ĆWICZENIE 15 BADANIE WZMACNIACZY MOCY MAŁEJ CZĘSTOTLIWOŚCI 1 ĆWICZENIE 15 BADANIE WZMACNIACZY MOCY MAŁEJ CZĘSTOTLIWOŚCI 15.1. CEL ĆWICZENIA Celem ćwiczenia jest poznanie podstawowych właściwości wzmacniaczy mocy małej częstotliwości oraz przyswojenie umiejętności

Bardziej szczegółowo

Obliczenia iteracyjne

Obliczenia iteracyjne Lekcja Strona z Obliczenia iteracyjne Zmienne iteracyjne (wyliczeniowe) Obliczenia iteracyjne wymagają zdefiniowania specjalnej zmiennej nazywanej iteracyjną lub wyliczeniową. Zmienną iteracyjną od zwykłej

Bardziej szczegółowo

11. Blok ten jest blokiem: a. decyzyjnym b. końcowym c. operacyjnym

11. Blok ten jest blokiem: a. decyzyjnym b. końcowym c. operacyjnym 1. Instrukcja warunkowa a. słuŝy do wprowadzania danych oraz wprowadzania wyników b. to instrukcja decyzyjna c. to sposób przedstawienia algorytmu 2. Instrukcja, która opisuje wykonanie róŝnych czynności

Bardziej szczegółowo

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Temat: Sztuczne Sieci Neuronowe Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Sztuczne sieci neuronowe

Bardziej szczegółowo

Co to jest grupowanie

Co to jest grupowanie Grupowanie danych Co to jest grupowanie 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Szukanie grup, obszarów stanowiących lokalne gromady punktów Co to jest grupowanie

Bardziej szczegółowo