Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych

Wielkość: px
Rozpocząć pokaz od strony:

Download "Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych"

Transkrypt

1 Uniersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Steroania i Systemó Informatycznych ELEMENTY SZTUCZNEJ INTELIGENCJI Semestr letni 2010 Laboratorium nr 4 LINIOWE SIECI NEURONOWE Proadzący:.. Cele ćiczeń: 1. Celem ćiczenia jest poznanie struktur sieci neuronoych zbudoanych przy użyciu neuronó linioych jak rónież poznanie metod ich uczenia oraz zbadanie zalet oraz ograniczeń niniejszych struktur. Struktura linioych sieci neuronoych pod ieloma zględami przypomina sieci perceptronoe, jedyna różnica polega na ykorzystaniu linioych neuronach linioej funkcji aktyacji zamian za funkcję skokoą (Rys. 1). Dzięki linioej funkcji aktyacji neurony są stanie generoać sygnały yjścioe o doolnej artości jednakże nie są olne od ograniczenia znanego dla perceptronó a mianoicie mogą roziązyać jedynie problemy, które są linioo separoalne. u 1 Blok u ϕ y u n ϕ = u y = aϕ i i i= 0 Rys. 1 Struktura neuronu z linioą funkcją aktyacji gdzie u 1, u 2,..., u n - sygnały ejścioe, 1, 2,..., n - artości ag, y - sygnał yjścioy

2 Rys. 2 Granica decyzyjne neuronu z linioą funkcją aktyacji Neuron o strukturze przedstaionej na rysunku 1 może być tak uczony, aby realizoał funkcje linioe lub by aproksymoał za pomocą funkcji linioych funkcje nielinioe jednakże neuron linioy żadnym ypadku nie jest stanie realizoać odzoroań nielinioych. Podobnie jak dla perceptronu można przestrzeni zmiennych ejścioych yznaczyć dla linioego neuronu granicę decyzyjną, dla której neuron generuje sygnał o artości 0 na yjściu. Sygnałom ejścioym znajdującym się na rysunku jego górnej ciemniejszej części odpoiada na yjściu neuronu sygnał iększy od zera dla artości ejść z obszaru jaśniejszego uzyskujemy na yjściu neuronu sygnał ujemny. Takie działanie neuronu może zostać ykorzystane celu klasyfikacji danych do dóch zbioró, przy czym należy pamiętać, że zbiory te muszą być linioo separoalne. Proces uczenia linioej sieci neuronoej przebiega podobnie jak sieci perceptronoej, a mianoicie na stępie należy przygotoać zbiór uczący składający się z par ektoró reprezentujących ejścia p oraz oczekiane dla nich sygnały yjścioe t {p 1,t 1 }, {p 2,t 2 },...,{p,t } Następnie kolejne elementy zbioru uczącego podaane są na ejścia sieci i yznaczana jest odpoiedź sieci a. W kolejnym kroku odpoiedź sieci a porónyana jest z artością, jaka była oczekiana na yjściu sieci t i yznaczana jest artość błędu e=t-a. Następnie agi neuronó modyfikoane są tak, aby artość błędu średniokadratoego (ang. mean suared error) była jak najmniejsza. 1 mse = k = 1 e ( k ) = ( t( k ) a( k )) 2 1 Ponieaż funkcja błędu średniokadratoego dla sieci z linioymi neuronami jest funkcją kadratoą zględem ag, ięc posiada tylko jedno minimum globalne lub nie posiada minimum albo posiada minimum tz. słabe, opcja z jaką mamy do czynienia zależy od konkretnych danych uczących. Zadanie yznaczenia ag takiej sytuacji sproadza się do znalezienia artości ag, dla których funkcja błędu przyjmuje najmniejszą artość. Sproadza się to do roziązania odpoiedniego układu rónań, co oznacza, że odpoiednie agi yznaczane są bezpośrednio jednym kroku algorytmu uczącego. Jednakże nie zasze takie roziązanie jest możlie do zastosoania ze zględu na pojaiające się przy nim problemy numeryczne. W takiej sytuacji z pomocą przychodzi algorytm uczenia Widroa-Hoffa, który bazuje na procedurze najiększego spadku. W niniejszym podejściu błąd średniokadratoy jest zastępoany przez błąd kadratoy, który jest liczony kolejnych iteracjach algorytmu a modyfikacje ag liczone są jako k = 1 2

3 pochodne cząstkoe z funkcji błędu zględem odpoiednich ag. Po yznaczeniu odpoiednich pochodnych zór na modyfikację ag przyjmuje następującą postać: (k+1)=(k)+2αe(k)p(k), gdzie k to numer iteracji, to agi, e to błędy uczenia, p zorce uczące, α krok uczenia. Jeżeli krok uczenia jest odpoiednio duży to proces uczenia przebiega szybko jednak zbyt duża artość tego parametru może poodoać destabilizoanie procesu uczenia i ziększenie błędu kolejnych iteracjach zamiast zmniejszenia. Linioe sieci neuronoe posiadają najczęściej tylko jedną arstę neuronó, ponieaż doolna ieloarstoa sieć z neuronami linioymi może zostać przekształcona do sieci jednoarstoej bez modyfikacji jej działania. Praktyczne skazóki odnośnie symulacji linioych sieci neuronoych programie Matlab Torzenie linioej sieci neuronoej W celu storzenia linioej sieci neuronoej należy posłużyć się funkcją nelin, która posiada następującą strukturę net=nelin(pr,s,lr), gdzie net to obiekt opisujący storzoną sieć, PR macierz z artościami minimalnymi I maksymalnymi dla kolejnych ejść, S liczba neuronó, lr krok uczenia. : net = nelin([-1 1],1) Dostęp do ag i biasó sieci odbya się identycznie jak sieci perceptronoej. Projektoanie sieci poprzez bezpośrednie yznaczanie jej ag za pomocą funkcji nelind, która posiada następującą strukturę net=nelind(p,t) gdzie P i T to dane uczące. P = [1 2 3]; T = [ ]; net = nelind(p,t); Uczenie metodą Widroa-Hoffa za pomocą funkcji train lub adapt, których struktura przedstaia się następująco: net=train(p,t), net=adapt(p,t),

4 gdzie P i T to dane uczące, różnica działaniu obu funkcji jest taka sam jak dla sieci perceptronoych. : net = nelin([-1 1],1); P= { }; T = { }; net = adapt(net,p,t); P = [P]; T = [T]; net.trainparam.epochs = 200; net.trainparam.goal = 0.1; net = train(net,p,t); Symulacja linioych sieci neuronoych odbya się identycznie jak sieci perceptronoych za pomocą funkcji sim. Aby yznaczyć maksymalny dopuszczalny krok uczenia należy użyć funkcji maxlinlr, której struktura przedstaia się następująco lr = maxlinlr(p,'bias') gdzie P to ejścioe zorce uczące: P = [ ; ]; lr = maxlinlr(p,'bias') Przedstaienie ykresu funkcji błędu funkcji ag (tylko dla przypadkó gdy dany jest jeden neuron z tylko jednym ejściem) można zrealizoać za pomocą następującej sekencji instrukcji P = [1 1.2] T = [0.5 1] _range=-1:0.1:1; b_range=-1:0.1:1; ES=errsurf(P,T,_range,b_range, purelin ) plotes(_range,b_range,es) Symulacja linioych sieci neuronoych z opóźnieniami (czyli z ejściami zdefinioanymi jako opóźnione artości ejść już istniejących, Rys. 3) ymaga następującej sekencji instrukcji u(k-1) u(k) ϕ Blok aktyacji y n

5 Rys. 3 Linioy neuron z opóźnionymi sygnałami ejścioymi, gdzie k numer próbki sygnału ejścioego P={ } net=neline([1 10],1) net.inputweights{1,1}.delays=[0 1 2] <- definicja opóźnionych ejść 0 - u(k), 1 u(k-1), 2 u(k-2) pi={1 2} < startoe artości dla ejść u(k-1) i u(k-2) A=sim(net,P,pi) <-symulacja sieci z opóźnieniami Zadania (Przed rozpoczęciem roziązyania zadań można obejrzeć przykładoe problemy roziązane za pomocą linioych sieci neuronoych uruchamiając skrypty demolin1, demolin2, demolin4, demolin5, demolin6, demolin,7 demolin8 i demolin9) Przeproadzić uczenie neuronu z linioą funkcją aktyacji z jednym ejściem dla danych przedstaionych poniżej. Porónać agi nauczonego neuronu przy użyciu reguły Widroa- Hoffa (za pomocą funkcji train) z agami yliczonymi bezpośrednio, zbadać czy nauczony neuron dobrze działa dla danych, które służyły jako zorce uczące (ykorzystać instrukcje sim) P=[1 1.2] T=[1 0.5] P=[ ] T=[ ] P=[ ] T=[ ] Przeproadzić uczenie linioej sieci jednoarstoej przy użyciu funkcji adapt oraz train dla następujących danych, zbadać czy nauczony neuron dobrze działa dla danych, które służyły jako zorce uczące) P= T= Dla zadań z punktu pierszego yznaczyć ykresy funkcji błędu raz z zaznaczonym punktem określającym artości nauczonych ag oraz błędu jaki został osiągnięty dla tych ag. (Wskazóka: spradzić jak jest to zrealizoane pliku demolin1)

6 Dane są następujące funkcje y=2x-3 y=2x^2-5 dokonać ich aproksymacji przedziale ( 10;10) przy użyciu linioego neuronu. (Wybrać dane uczące dla każdej z funkcji i na ich podstaie przeproadzić uczenie neuronu, następnie porónać artości yjścioe z neuronu i artości aproksymoanej funkcji przedstaiając je na jednym ykresie dla każdej z funkcji) Zbadać łaściości uogólniające neuronu. Zbadać czy linioy neuron ma takie same ograniczenia jak perceptron (Znaleźć zadanie klasyfikacji, które linioy neuron nie potrafi roziązać) Zbadać jak linioy neuron uczy się dla różnych ielkości kroku ucznia dla następujących danych P = [ ] T = [ ], zbadać uczenie się dla następujących ielkości kroku uczenia 0.01, 0.1, 5, 10, 50. Porónać otrzymane yniki z uczeniem przy użyciu kroku uczenia yznaczonego przez funkcję maxlinlr. Identyfikacja systemu linioego za pomocą funkcji adapth %Ustalenie czasu symulacji ze zmianą cech identyfikoanego systemu linioego 4 sekundzie time1=0:0.005:4; time2=4.005:0.005:6; time=[time1 time2]; %zadany sygnał ejścioy dla systemu linioego celu przygotoania próbek do adaptacyjnej identyfikacji systemu X=sin(sin(time*4).*time*8); %liczba próbek dla systemu linioego do 4 sekundy eksperymentu steps1=length(time1); % system linioy zdefinioany jako filtr linioy o skończonej odpoiedzi impulsoej [T1,state] = filter([1-0.5],1,x(1:steps1)); % od 4 sekundy łaściości filtru zmieniają się spradzamy czy sieć zadoptuje się do zmienionych arunkó steps2 = length(time2); T2 = filter([ ],1,x((1:steps2) + steps1),state); T = [T1 T2]; plot(time,x) alabel('czas','sygnał ejscioy','sygnal ejscioy dla filtra') plot(time,t) alabel('czas','sygnal yjscioy','sygnal yjscioy z filtra') %Przygotoanie danych dla sieci neuronoej z opóźnionymi próbkami sygnału ejścioego P = delaysig(x,0,1); % konstrukcja sieci [,b] = initlin(p,t); lr = 0.5; %adaptacja sieci [a,e,,b] = adapth(,b,p,t,lr);

7 % porónanie sygnału yjścioego z filtra z odpoiedzią linioej sieci neuronoej plot(time,a,time,t,'--') alabel('czas','siec \_\_\_ Filter \_ \_','Odpoiedz linioej sieci neuronoej i filtra') Literatura: 1. Korbicz J., Obuchoicz A., Uciński D., Sztuczne sieci neuronoe. Podstay i zastosoanie, Warszaa 1994.

SYSTEMY UCZĄCE SIĘ WYKŁAD 5. UCZENIE SIĘ APROKSYMACJI FUNKCJI MODELE LINIOWE

SYSTEMY UCZĄCE SIĘ WYKŁAD 5. UCZENIE SIĘ APROKSYMACJI FUNKCJI MODELE LINIOWE SYSEMY UCZĄCE SIĘ WYKŁAD 5. UCZENIE SIĘ APROKSYMACJI FUNKCJI MODELE LINIOWE Częstochoa 4 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochoska MEODY APROKSYMACJI Metody aproksymacji

Bardziej szczegółowo

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania. Metody sztucznej inteligencji

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania. Metody sztucznej inteligencji Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemó Steroania Metody sztucznej inteligencji Neuron, arsta neuronoa, sieci neuronoe - poierzchnie odpoiedzi sieci neuronoych,

Bardziej szczegółowo

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia

Bardziej szczegółowo

LABORATORIUM TEORII STEROWANIA. Ćwiczenie 6 RD Badanie układu dwupołożeniowej regulacji temperatury

LABORATORIUM TEORII STEROWANIA. Ćwiczenie 6 RD Badanie układu dwupołożeniowej regulacji temperatury Wydział Elektryczny Zespół Automatyki (ZTMAiPC). Cel ćiczenia LABORATORIUM TEORII STEROWANIA Ćiczenie 6 RD Badanie układu dupołożenioej regulacji temperatury Celem ćiczenia jest poznanie łaściości regulacji

Bardziej szczegółowo

Podstawy Sztucznej Inteligencji

Podstawy Sztucznej Inteligencji Politechnika Łódzka Katedra Informatyki Stosowanej Podstawy Sztucznej Inteligencji Laboratorium Ćwiczenie 2 Wykorzystanie środowiska Matlab do modelowania sztucznych sieci neuronowych Opracowali: Dr hab

Bardziej szczegółowo

Podstawy Sztucznej Inteligencji (PSZT)

Podstawy Sztucznej Inteligencji (PSZT) Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12

Bardziej szczegółowo

Wykład 9. Stateczność prętów. Wyboczenie sprężyste

Wykład 9. Stateczność prętów. Wyboczenie sprężyste Wykład 9. Stateczność prętó. Wyoczenie sprężyste 1. Siła ytyczna pręta podpartego soodnie Dla pręta jak na rysunku 9.1 eźmiemy pod uagę możliość ygięcia się pręta z osi podczas ściskania. jest modułem

Bardziej szczegółowo

MATLAB Neural Network Toolbox uczenie sieci (dogłębnie)

MATLAB Neural Network Toolbox uczenie sieci (dogłębnie) MATLAB Neural Network Toolbox uczenie sieci (dogłębnie) WYKŁAD Piotr Ciskowski Neural Network Toolbox: NEURAL NETWORK TOOLBOX NOTACJA Neural Network Toolbox - notacja: pojedynczy neuron: z jednym wejściem

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych klasyfikacja LABORKA Piotr Ciskowski zadanie 1. klasyfikacja zwierząt sieć jednowarstwowa żródło: Tadeusiewicz. Odkrywanie własności sieci neuronowych, str. 159 Przykład

Bardziej szczegółowo

Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie

Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie LABORKA Piotr Ciskowski ZASTOSOWANIA SIECI NEURONOWYCH IDENTYFIKACJA zastosowania przegląd zastosowania sieci neuronowych: o identyfikacja

Bardziej szczegółowo

ALGORYTMY SZTUCZNEJ INTELIGENCJI

ALGORYTMY SZTUCZNEJ INTELIGENCJI ALGORYTMY SZTUCZNEJ INTELIGENCJI Sieci neuronowe 06.12.2014 Krzysztof Salamon 1 Wstęp Sprawozdanie to dotyczy ćwiczeń z zakresu sieci neuronowych realizowanym na przedmiocie: Algorytmy Sztucznej Inteligencji.

Bardziej szczegółowo

Metody Sztucznej Inteligencji II

Metody Sztucznej Inteligencji II 17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału

Bardziej szczegółowo

Ćwiczenie 6. Pomiary wielkości elektrycznych za pomocą oscyloskopu

Ćwiczenie 6. Pomiary wielkości elektrycznych za pomocą oscyloskopu Ćiczenie 6 Pomiary ielkości elektrycznych za pomocą oscyloskopu 6.1. Cel ćiczenia Zapoznanie z budoą, zasadą działa oscyloskopu oraz oscyloskopoymi metodami pomiaroymi. Wykonanie pomiaró ielkości elektrycznych

Bardziej szczegółowo

Metody sztucznej inteligencji Artificial Intelligence Methods

Metody sztucznej inteligencji Artificial Intelligence Methods Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 utego 2012r. KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu ETI 7/1 Naza modułu Metody sztucznej inteigencji Artificia Inteigence Methods Naza modułu

Bardziej szczegółowo

Politechnika Warszawska

Politechnika Warszawska Politechnika Warszawska Programowa realizacja sieci neuronowych Zbigniew Szymański, Stanisław Jankowski grudzień 03 Instytut Informatyki Nowowiejska 5 / 9, 00-665 Warszawa Programowa realizacja sieci neuronowych

Bardziej szczegółowo

Sieci neuronowe. Sebastian Bożek.

Sieci neuronowe. Sebastian Bożek. Sieci neuronoe Sebastian Bożek http://.biofizyk.pl Plan prezentacji. Metoda obliczeń i metoda skojarzeń 2. Neuron biologiczny 3. Model sztucznego neuronu 4. Funkcja aktyacji rodzaje sztucznych neuronó

Bardziej szczegółowo

Metody Optymalizacji Optimization Methods. Elektrotechnika I stopień (I stopień / II stopień) Ogólno akademicki (ogólno akademicki / praktyczny)

Metody Optymalizacji Optimization Methods. Elektrotechnika I stopień (I stopień / II stopień) Ogólno akademicki (ogólno akademicki / praktyczny) Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 lutego 2012r. KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu Naza modułu Naza modułu języku angielskim Oboiązuje od roku akademickiego 2012/2013 Metody

Bardziej szczegółowo

Sztuczne siei neuronowe - wprowadzenie

Sztuczne siei neuronowe - wprowadzenie Metody Sztucznej Inteligencji w Sterowaniu Ćwiczenie 2 Sztuczne siei neuronowe - wprowadzenie Przygotował: mgr inż. Marcin Pelic Instytut Technologii Mechanicznej Politechnika Poznańska Poznań, 2 Wstęp

Bardziej szczegółowo

Identyfikacja obiektów dynamicznych za pomocą sieci neuronowych

Identyfikacja obiektów dynamicznych za pomocą sieci neuronowych Metody Sztucznej Inteligencji w Sterowaniu Ćwiczenie 3 Identyfikacja obiektów dynamicznych za pomocą sieci neuronowych Przygotował: mgr inż. Marcin Pelic Instytut Technologii Mechanicznej Politechnika

Bardziej szczegółowo

POLITECHNIKA OPOLSKA

POLITECHNIKA OPOLSKA POLITECHNIKA OPOLSKA WYDZIAŁ MECHANICZNY Katedra Technologii Maszyn i Automatyzacji Produkcji Laboratorium Inżynierii Jakości Ćiczenie nr 11 Temat: Karta kontrolna ruchomej średniej MA Zakres ćiczenia:

Bardziej szczegółowo

Belki na podłożu sprężystym

Belki na podłożu sprężystym Belki na podłożu sprężystym podłoże inkleroskie, rónanie różniczkoe ugięcia belki, linie płyoe M-Q-, belki półnieskończone, sposób Bleicha, przykład obliczenioy odłoże inkleroskie Założenia Winklera spółpracy

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline. Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 211-1-18 1 Pomysł Przykłady Zastosowanie 2

Bardziej szczegółowo

8. Neuron z ciągłą funkcją aktywacji.

8. Neuron z ciągłą funkcją aktywacji. 8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i

Bardziej szczegółowo

Elementy inteligencji obliczeniowej

Elementy inteligencji obliczeniowej Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego

Bardziej szczegółowo

Informatyka I stopień (I stopień / II stopień) ogólno akademicki (ogólno akademicki / praktyczny) niestacjonarne (stacjonarne / niestacjonarne)

Informatyka I stopień (I stopień / II stopień) ogólno akademicki (ogólno akademicki / praktyczny) niestacjonarne (stacjonarne / niestacjonarne) KARTA MODUŁU / KARTA PRZEDMIOTU Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 lutego 2012r. Kod modułu Naza modułu Modeloanie i izualizacja procesó fizycznych Naza modułu języku angielskim Modeling

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej

Bardziej szczegółowo

Elektronika i Telekomunikacja I stopień (I stopień / II stopień) ogólnoakademicki (ogólnoakademicki / praktyczny)

Elektronika i Telekomunikacja I stopień (I stopień / II stopień) ogólnoakademicki (ogólnoakademicki / praktyczny) Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 lutego 2012r. KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu Naza modułu Naza modułu języku angielskim Oboiązuje od roku akademickiego 2012/2013 EiT_S_I_UET_AET

Bardziej szczegółowo

EiT_S_I_PAC_ST Przetwarzanie A/C Analog-to-Digital Processing

EiT_S_I_PAC_ST Przetwarzanie A/C Analog-to-Digital Processing Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 lutego 2012r. KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu Naza modułu Naza modułu języku angielskim Oboiązuje od roku akademickiego 2012/2013 EiT_S_I_PAC_ST

Bardziej szczegółowo

Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych

Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych ELEMENTY SZTUCZNEJ INTELIGENCJI Laboratorium nr 6 SYSTEMY ROZMYTE TYPU MAMDANIEGO

Bardziej szczegółowo

Egzamin z algebry liniowej 2003 r.

Egzamin z algebry liniowej 2003 r. Egzamin z algebry linioej 003 r. Cześć I na ocene dostateczna Zadanie. Wyznacz szystkie liczby zespolone z takie, że a) z = 8 + 6i, b) ( + 3i) z = i. Zadanie. Wykonaj podane dzia lania macierzoe: [ 3 0

Bardziej szczegółowo

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE INSTYTUT TECHNOLOGII MECHANICZNEJ Metody Sztucznej Inteligencji Sztuczne Sieci Neuronowe Wstęp Sieci neuronowe są sztucznymi strukturami, których

Bardziej szczegółowo

Relacja: III Seminarium Naukowe "Inżynierskie zastosowania technologii informatycznych"

Relacja: III Seminarium Naukowe Inżynierskie zastosowania technologii informatycznych Relacja: III Seminarium Naukowe "Inżynierskie zastosowania technologii informatycznych" W dniu 18.04.2015 odbyło się III Seminarium Naukowe Inżynierskie zastosowania technologii informatycznych. Organizatorzy

Bardziej szczegółowo

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 1 Regresja liniowa autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z liniowym zadaniem najmniejszych

Bardziej szczegółowo

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Wykład 10 Mapa cech Kohonena i jej modyfikacje - uczenie sieci samoorganizujących się - kwantowanie wektorowe

Bardziej szczegółowo

Laboratorium nr 2. Identyfikacja systemu i detekcja uszkodzeń na podstawie modelu

Laboratorium nr 2. Identyfikacja systemu i detekcja uszkodzeń na podstawie modelu Instytut Sterowania i Systemów Informatycznych Uniwersytet Zielonogórski Diagnostyka procesów i systemów Prowadzący: Marcel Luzar 1 Laboratorium nr 2 Identyfikacja systemu i detekcja uszkodzeń na podstawie

Bardziej szczegółowo

Projekt Sieci neuronowe

Projekt Sieci neuronowe Projekt Sieci neuronowe Chmielecka Katarzyna Gr. 9 IiE 1. Problem i dane Sieć neuronowa miała za zadanie nauczyć się klasyfikować wnioski kredytowe. W projekcie wykorzystano dane pochodzące z 110 wniosków

Bardziej szczegółowo

Elektrotechnika I Stopień Ogólnoakademicki. Przedmiot kierunkowy nieobowiązkowy Polski VI

Elektrotechnika I Stopień Ogólnoakademicki. Przedmiot kierunkowy nieobowiązkowy Polski VI Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 lutego 2012r. KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu Naza modułu Naza modułu języku angielskim Oboiązuje od roku akademickiego 2012/2013 Inteligentne

Bardziej szczegółowo

Rozpoznawanie obrazów

Rozpoznawanie obrazów Rozpoznawanie obrazów Laboratorium Python Zadanie nr 1 Regresja liniowa autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, M. Zięba, J. Kaczmar Cel zadania Celem zadania jest implementacja liniowego zadania

Bardziej szczegółowo

Informatyka I stopień (I stopień / II stopień) ogólno akademicki (ogólno akademicki / praktyczny) podstawowy (podstawowy / kierunkowy / inny HES)

Informatyka I stopień (I stopień / II stopień) ogólno akademicki (ogólno akademicki / praktyczny) podstawowy (podstawowy / kierunkowy / inny HES) KARTA MODUŁU / KARTA PRZEDMIOTU Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 lutego 2012r. Kod modułu Naza modułu Modeloanie i izualizacja procesó fizycznych Naza modułu języku angielskim Modeling

Bardziej szczegółowo

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda Sieci neuropodobne 1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN Agenda Trochę neurobiologii System nerwowy w organizmach żywych tworzą trzy

Bardziej szczegółowo

Optymalizacja systemów

Optymalizacja systemów Optymalizacja systemów Laboratorium - problem detekcji twarzy autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, P. Klukowski Cel zadania Celem zadania jest zapoznanie się z gradientowymi algorytmami optymalizacji

Bardziej szczegółowo

Klasyfikator liniowy Wstęp Klasyfikator liniowy jest najprostszym możliwym klasyfikatorem. Zakłada on liniową separację liniowy podział dwóch klas między sobą. Przedstawia to poniższy rysunek: 5 4 3 2

Bardziej szczegółowo

Podstawy sztucznej inteligencji

Podstawy sztucznej inteligencji wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,

Bardziej szczegółowo

(1.1) (1.2) (1.3) (1.4) (1.5) (1.6) Przy opisie zjawisk złożonych wartości wszystkich stałych podobieństwa nie mogą być przyjmowane dowolnie.

(1.1) (1.2) (1.3) (1.4) (1.5) (1.6) Przy opisie zjawisk złożonych wartości wszystkich stałych podobieństwa nie mogą być przyjmowane dowolnie. 1. Teoria podobieństa Figury podobne geometrycznie mają odpoiadające sobie kąty róne, a odpoiadające sobie boki są proporcjonane 1 n (1.1) 1 n Zjaiska fizyczne mogą być podobne pod arunkiem, że zachodzą

Bardziej szczegółowo

Sieci neuronowe w Statistica

Sieci neuronowe w Statistica http://usnet.us.edu.pl/uslugi-sieciowe/oprogramowanie-w-usk-usnet/oprogramowaniestatystyczne/ Sieci neuronowe w Statistica Agnieszka Nowak - Brzezińska Podstawowym elementem składowym sztucznej sieci neuronowej

Bardziej szczegółowo

Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2)

Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2) Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2) Ewa Wołoszko Praca pisana pod kierunkiem Pani dr hab. Małgorzaty Doman Plan tego wystąpienia Teoria Narzędzia

Bardziej szczegółowo

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0 Uczenie się pojedynczego neuronu W0 X0=1 W1 x1 W2 s f y x2 Wp xp p x i w i=x w+wo i=0 Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z=0 Wówczas: W 1 x 1 + w 2 x 2 + = 0 Algorytm

Bardziej szczegółowo

Inteligentne systemy przeciw atakom sieciowym

Inteligentne systemy przeciw atakom sieciowym Inteligentne systemy przeciw atakom sieciowym wykład Sztuczne sieci neuronowe (SSN) Joanna Kołodziejczyk 2016 Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 1 / 36 Biologiczne

Bardziej szczegółowo

specjalnościowy obowiązkowy polski drugi zimowy tak

specjalnościowy obowiązkowy polski drugi zimowy tak Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 lutego 2012r. KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu Naza modułu Naza modułu języku angielskim Oboiązuje od roku akademickiego 2013/2014 A.

Bardziej szczegółowo

Podstawowe funkcje biblioteki narzędziowej Neural Network Toolbox. Version 5 pakietu MATLAB v. 6

Podstawowe funkcje biblioteki narzędziowej Neural Network Toolbox. Version 5 pakietu MATLAB v. 6 Podstawowe funkcje biblioteki narzędziowej Neural Network Toolbox. Version 5 pakietu MATLAB v. 6 I. Funkcje przeznaczone do tworzenia jednokierunkowej sieci neuronowej newff newp newlin - tworzenie wielowarstwowej

Bardziej szczegółowo

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice) WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO Stanisław Kowalik (Poland, Gliwice) 1. Wprowadzenie Wstrząsy podziemne i tąpania występujące w kopalniach

Bardziej szczegółowo

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu Literatura Wykład : Wprowadzenie do sztucznych sieci neuronowych Małgorzata Krętowska Wydział Informatyki Politechnika Białostocka Tadeusiewicz R: Sieci neuronowe, Akademicka Oficyna Wydawnicza RM, Warszawa

Bardziej szczegółowo

Inżynieria Środowiska I stopień (I stopień / II stopień) ogólno akademicki (ogólno akademicki / praktyczny) stacjonarne (stacjonarne / niestacjonarne)

Inżynieria Środowiska I stopień (I stopień / II stopień) ogólno akademicki (ogólno akademicki / praktyczny) stacjonarne (stacjonarne / niestacjonarne) Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 lutego 2012r. KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu Naza modułu Naza modułu języku angielskim Oboiązuje od roku akademickiego 2013/2014 A.

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA SYSTEMY ROZMYTE Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i Inżynierii Biomedycznej Laboratorium

Bardziej szczegółowo

Algorytmy sztucznej inteligencji

Algorytmy sztucznej inteligencji Algorytmy sztucznej inteligencji Dynamiczne sieci neuronowe 1 Zapis macierzowy sieci neuronowych Poniżej omówione zostaną części składowe sieci neuronowych i metoda ich zapisu za pomocą macierzy. Obliczenia

Bardziej szczegółowo

Prof. Stanisław Jankowski

Prof. Stanisław Jankowski Prof. Stanisław Jankowski Zakład Sztucznej Inteligencji Zespół Statystycznych Systemów Uczących się p. 228 sjank@ise.pw.edu.pl Zakres badań: Sztuczne sieci neuronowe Maszyny wektorów nośnych SVM Maszyny

Bardziej szczegółowo

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, 2013 Spis treści Przedmowa 7 1. Wstęp 9 1.1. Podstawy biologiczne działania neuronu 9 1.2. Pierwsze modele sieci neuronowej

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 09, Walidacja jakości uczenia. Metody statystyczne.

Wstęp do sieci neuronowych, wykład 09, Walidacja jakości uczenia. Metody statystyczne. Wstęp do sieci neuronowych, wykład 09, Walidacja jakości uczenia. Metody statystyczne. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-12-06 1 Przykład

Bardziej szczegółowo

1.12. CAŁKA MOHRA Geometryczna postać całki MOHRA. Rys. 1

1.12. CAŁKA MOHRA Geometryczna postać całki MOHRA. Rys. 1 .. CAŁA OHRA Całka OHRA yraża ziązek między przemieszczeniem (ydłużeniem, ugięciem, obrotem) a obciążeniem (siłą, momentem, obciążeniem ciągłym). Służy ona do yznaczania przemieszczeń statycznie yznaczanych

Bardziej szczegółowo

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. zajecia.jakubw.pl/nai Literatura: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym. WNT, Warszawa 997. PODSTAWOWE ZAGADNIENIA TECHNICZNE AI

Bardziej szczegółowo

sieci jednowarstwowe w MATLABie LABORKA Piotr Ciskowski

sieci jednowarstwowe w MATLABie LABORKA Piotr Ciskowski sieci jednowarstwowe w ATLABie LABORKA Piotr Ciskowski trzy funkcje do obsługi sieci jednowarstwowej : init1.m - tworzy sieć, inicjuje wagi (losowo) dzialaj1.m symuluje działanie sieci (na pojedynczym

Bardziej szczegółowo

Temat: ANFIS + TS w zadaniach. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Temat: ANFIS + TS w zadaniach. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Temat: ANFIS + TS w zadaniach Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1. Systemy neuronowo - rozmyte Systemy

Bardziej szczegółowo

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Temat: Sztuczne Sieci Neuronowe Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Sztuczne sieci neuronowe

Bardziej szczegółowo

Metody jakościowe i ilościowe na usługach wyceny nieruchomości

Metody jakościowe i ilościowe na usługach wyceny nieruchomości POLANICA ZDRÓJ, 16-18 rześnia 007 etody jakościoe i ilościoe na usługach yceny nieruchomości Anna Barańska Katedra Informacji o erenie Wydział Geodezji Górniczej i Inżynierii Środoiska Akademia Górniczo

Bardziej szczegółowo

Lekcja 5: Sieć Kohonena i sieć ART

Lekcja 5: Sieć Kohonena i sieć ART Lekcja 5: Sieć Kohonena i sieć ART S. Hoa Nguyen 1 Materiał Sieci Kohonena (Sieć samo-organizująca) Rysunek 1: Sieć Kohonena Charakterystyka sieci: Jednowarstwowa jednokierunkowa sieć. Na ogół neurony

Bardziej szczegółowo

Uczenie sieci typu MLP

Uczenie sieci typu MLP Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik

Bardziej szczegółowo

Zrealizować sieć neuronową (learnbpm) uczącą się odwzorowania z = x 2 + y 2 dla x i y zmieniających się od -1 do 1.

Zrealizować sieć neuronową (learnbpm) uczącą się odwzorowania z = x 2 + y 2 dla x i y zmieniających się od -1 do 1. Politechnika Rzeszowska Wydział Elektrotechniki i Informatyki Mateusz Błażej Nr albumu: 130366 Zrealizować sieć neuronową (learnbpm) uczącą się odwzorowania z = x 2 + y 2 dla x i y zmieniających się od

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE. Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka ADALINE. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 218-1-15/22 Projekt pn.

Bardziej szczegółowo

Ćwiczenie N 14 KAWITACJA

Ćwiczenie N 14 KAWITACJA LABORATORIUM MECHANIKI PŁYNÓW Ćiczenie N 1 KAWITACJA 1. Cel ćiczenia ośiadczalne yznaczenie ciśnienia i strumienia objętości kaitacji oraz charakterystyki przepłyu zęŝki, której postaje kaitacja.. Podstay

Bardziej szczegółowo

KARTA MODUŁU / KARTA PRZEDMIOTU A. USYTUOWANIE MODUŁU W SYSTEMIE STUDIÓW B. OGÓLNA CHARAKTERYSTYKA PRZEDMIOTU

KARTA MODUŁU / KARTA PRZEDMIOTU A. USYTUOWANIE MODUŁU W SYSTEMIE STUDIÓW B. OGÓLNA CHARAKTERYSTYKA PRZEDMIOTU Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 lutego 2012r. KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu Naza modułu Roboty przemysłoe Naza modułu języku angielskim Industrial Robots Oboiązuje

Bardziej szczegółowo

WYZNACZANIE KRYTYCZNEGO STĘŻENIA MICELIZACJI PRZEZ POMIAR NAPIĘCIA POWIERZCHNIO- WEGO METODĄ MAKSYMALNEGO CIŚNIENIA BANIEK

WYZNACZANIE KRYTYCZNEGO STĘŻENIA MICELIZACJI PRZEZ POMIAR NAPIĘCIA POWIERZCHNIO- WEGO METODĄ MAKSYMALNEGO CIŚNIENIA BANIEK Ćiczenie nr IXb WYZNACZANIE KRYTYCZNEGO STĘŻENIA MICELIZACJI PRZEZ POMIAR NAPIĘCIA POWIERZCHNIO- WEGO METODĄ MAKSYMALNEGO CIŚNIENIA BANIEK I. Cel ćiczenia Celem ćiczenia jest eksperymentalne yznaczenie

Bardziej szczegółowo

DB Algebra liniowa 1 semestr letni 2018

DB Algebra liniowa 1 semestr letni 2018 DB Algebra linioa semestr letni 208 Teoria oraz iększość zadań niniejszym skrypcie zostały opracoane na podstaie książek:. G. Banaszak, W. Gajda, Elementy algebry linioej cz. I, Wydanicto Naukoo-Techniczne,

Bardziej szczegółowo

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV Klasyfikatory: k-nn oraz naiwny Bayesa Agnieszka Nowak Brzezińska Wykład IV Naiwny klasyfikator Bayesa Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną

Bardziej szczegółowo

I EKSPLORACJA DANYCH

I EKSPLORACJA DANYCH I EKSPLORACJA DANYCH Zadania eksploracji danych: przewidywanie Przewidywanie jest podobne do klasyfikacji i szacowania, z wyjątkiem faktu, że w przewidywaniu wynik dotyczy przyszłości. Typowe zadania przewidywania

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-10 Projekt pn. Wzmocnienie

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt

Bardziej szczegółowo

PRZEWODNIK PO PRZEDMIOCIE

PRZEWODNIK PO PRZEDMIOCIE Naza przedmiotu: Gospodarka odno-ściekoa przemyśle Water and asteater management in industry Kierunek: inżynieria środoiska Kod przedmiotu: 5.6.1 Rodzaj przedmiotu: Poziom przedmiotu: Semestr: II obieralny,

Bardziej szczegółowo

PLAN NIESTACJONARNYCH STUDIÓW PIERWSZEGO STOPNIA (INŻYNIERSKICH) NA KIERUNKU INFORMATYKA

PLAN NIESTACJONARNYCH STUDIÓW PIERWSZEGO STOPNIA (INŻYNIERSKICH) NA KIERUNKU INFORMATYKA PLAN NIESTACJONARNYCH STUDIÓ PIERSZEGO STOPNIA (INŻYNIERSKICH) NA KIERUNKU INFORMATYKA Nabór 2013/2014 Obowiązuje A. PRZEDMIOTY KSZTAŁCENIA OGÓLNEGO 1. JĘZYKI OBCE 180 210 60 150 14 120 120 0 120 5 1 Język

Bardziej szczegółowo

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 8. SZTUCZNE SIECI NEURONOWE INNE ARCHITEKTURY Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska SIEĆ O RADIALNYCH FUNKCJACH BAZOWYCH

Bardziej szczegółowo

Technika światłowodowa Optical fiber techniques. Elektrotechnika II stopień (I stopień / II stopień) Ogólnoakademicki (ogólno akademicki / praktyczny)

Technika światłowodowa Optical fiber techniques. Elektrotechnika II stopień (I stopień / II stopień) Ogólnoakademicki (ogólno akademicki / praktyczny) Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 lutego 2012r. KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu Naza modułu Naza modułu języku angielskim Oboiązuje od roku akademickiego 2012/2013 Technika

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych

Bardziej szczegółowo

ID1SII4. Informatyka I stopień (I stopień / II stopień) ogólnoakademicki (ogólno akademicki / praktyczny) stacjonarne (stacjonarne / niestacjonarne)

ID1SII4. Informatyka I stopień (I stopień / II stopień) ogólnoakademicki (ogólno akademicki / praktyczny) stacjonarne (stacjonarne / niestacjonarne) Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 lutego 2012r. KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu ID1SII4 Nazwa modułu Systemy inteligentne 1 Nazwa modułu w języku angielskim Intelligent

Bardziej szczegółowo

kierunkowy (podstawowy / kierunkowy / inny HES) obowiązkowy (obowiązkowy / nieobowiązkowy) polski pierwszy

kierunkowy (podstawowy / kierunkowy / inny HES) obowiązkowy (obowiązkowy / nieobowiązkowy) polski pierwszy Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 lutego 2012r. KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu Naza modułu Naza modułu języku angielskim Oboiązuje od roku akademickiego 2014/2015 Wybrane

Bardziej szczegółowo

Systemy uczące się wykład 2

Systemy uczące się wykład 2 Systemy uczące się wykład 2 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 19 X 2018 Podstawowe definicje Fakt; Przesłanka; Konkluzja; Reguła; Wnioskowanie. Typy wnioskowania

Bardziej szczegółowo

Przestrzenie liniowe w zadaniach

Przestrzenie liniowe w zadaniach Przestrzenie linioe zadaniach Zadanie 1. Cz ektor [3, 4, 4 jest kombinacja linioa ektoró [1, 1, 1, [1, 0, 1, [1, 3, 5 przestrzeni R 3? Roziazanie. Szukam x,, z R takich, że [3, 4, 4 x [1, 1, 1 + [1, 0,

Bardziej szczegółowo

Przemysłowe Sieci Komputerowe Industrial Computer Networks

Przemysłowe Sieci Komputerowe Industrial Computer Networks Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 utego 2012r. KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu Naza modułu Naza modułu języku angieskim Oboiązuje od roku akademickiego 2012/2013 Przemysłoe

Bardziej szczegółowo

Wyznaczanie profilu prędkości płynu w rurociągu o przekroju kołowym

Wyznaczanie profilu prędkości płynu w rurociągu o przekroju kołowym .Wproadzenie. Wyznaczanie profilu prędkości płynu rurociągu o przekroju kołoym Dla ustalonego, jednokierunkoego i uarstionego przepłyu przez rurę o przekroju kołoym rónanie aviera-stokesa upraszcza się

Bardziej szczegółowo

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek Sztuczne sieci neuronowe Ćwiczenia Piotr Fulmański, Marta Grzanek Piotr Fulmański 1 Wydział Matematyki i Informatyki, Marta Grzanek 2 Uniwersytet Łódzki Banacha 22, 90-232, Łódź Polska e-mail 1: fulmanp@math.uni.lodz.pl,

Bardziej szczegółowo

Technologie Informacyjne Information technologies. Energetyka I stopień (I stopień / II stopień) ogólno akademicki (ogólno akademicki / praktyczny)

Technologie Informacyjne Information technologies. Energetyka I stopień (I stopień / II stopień) ogólno akademicki (ogólno akademicki / praktyczny) KARTA MODUŁU / KARTA PRZEDMIOTU Załącznik nr 7 do Zarządzenia Rektora nr 10/1 z dnia 1 lutego 01r. Kod modułu Naza modułu Naza modułu języku angielskim Oboiązuje od roku akademickiego 01/013 Technologie

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 13-14, Walidacja jakości uczenia. Metody statystyczne.

Wstęp do sieci neuronowych, wykład 13-14, Walidacja jakości uczenia. Metody statystyczne. Wstęp do sieci neuronowych, wykład 13-14,. Metody statystyczne. M. Czoków, J. Piersa Faculty of Mathematics and Computer Science, Nicolaus Copernicus University, Toruń, Poland 2011.01.11 1 Przykład Przeuczenie

Bardziej szczegółowo

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017 Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład III bogumil.konopka@pwr.edu.pl 2016/2017 Wykład III - plan Regresja logistyczna Ocena skuteczności klasyfikacji Macierze pomyłek Krzywe

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 2 κ-nn i Naive Bayes autorzy: M. Zięba, J.M. Tomczak, A. Gonczarek, S. Zaręba Cel zadania Celem zadania jest implementacja klasyfikatorów

Bardziej szczegółowo

WIELOCZUJNIKOWE NADZOROWANIE STANU NARZĘDZI

WIELOCZUJNIKOWE NADZOROWANIE STANU NARZĘDZI Posiedzenie Sekcji Podstaw Technologii Komitetu Budowy Maszyn Polskiej Akademii Nauk 20 kwietnia 2004 WIELOCZUJNIKOWE NADZOROWANIE STANU NARZĘDZI prof. dr hab. inż. Krzysztof Jemieniak Plan prezentacji

Bardziej szczegółowo

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE SIECI NEURONOWE Przedmiotem laboratorium jest stworzenie algorytmu rozpoznawania zwierząt z zastosowaniem sieci neuronowych w oparciu o 5 kryteriów: ile zwierzę ma nóg, czy żyje w wodzie, czy umie latać,

Bardziej szczegółowo

Karta (sylabus) modułu/przedmiotu

Karta (sylabus) modułu/przedmiotu Karta (sylabus) modułu/przedmiotu Budonicto (Naza kierunku studió) Studia I Stopnia Przedmiot: Konstrukcje II Concrete structures Rok: III Semestr: 6 MK_4 Rodzaje zajęć i liczba godzin: Studia stacjonarne

Bardziej szczegółowo

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska Sieci neuronowe w Statistica Agnieszka Nowak - Brzezioska Podstawowym elementem składowym sztucznej sieci neuronowej jest element przetwarzający neuron. Schemat działania neuronu: x1 x2 w1 w2 Dendrites

Bardziej szczegółowo

1. Logika, funkcje logiczne, preceptron.

1. Logika, funkcje logiczne, preceptron. Sieci neuronowe 1. Logika, funkcje logiczne, preceptron. 1. (Logika) Udowodnij prawa de Morgana, prawo pochłaniania p (p q), prawo wyłączonego środka p p oraz prawo sprzeczności (p p). 2. Wyraź funkcję

Bardziej szczegółowo