Sieci Neuronowe 1 Michał Bereta
|
|
- Adrian Łukasik
- 8 lat temu
- Przeglądów:
Transkrypt
1 Wprowadzene Zagadnena Sztucznej Intelgencj laboratorum Sec Neuronowe 1 Mchał Bereta Sztuczne sec neuronowe można postrzegać jako modele matematyczne, które swoje wzorce wywodzą z bolog obserwacj ludzkch komórek nerwowych. Perwszy model neuronu został zaproponowany w 1943 roku przez McCullocha Pttsa. Był to prosty neurony, który mógł modelować funkcje logczne take jak OR lub AND. W 1958 roku Rosenblatt zaproponował model perceptronu, a w roku 1960 powstał model ADALINE autorstwa Wdrowa Hoffa. Model bologcznej komórk nerwowej pokazano na rysunku 1. Rysunek 1: Model komórk nerwowej. Do każdego neuronu dochodzą pewne sygnały (bodźce). Są one doprowadzane za pomocą synaps. Bodźce pochodzące od synaps wywoływane są przez specjalne substancje chemczne, zwane neuromedatoram. Zmana potencjału elektrycznego komórk zależna jest od lośc neuromedatora w synapse. Sygnał wyjścowy jest wyprowadzany z komórk za pomocą aksonu. Sygnały wyjścowe neuronów mogą być sygnałam wejścowym nnych neuronów. Sygnałam pobudzającym neurony mogą być także sygnały pochodzące z receptorów nerwowych. Podstawowe pojęca defncje Na podstawe bologcznego modelu z rysunku 1, McCulloch Ptts, zaproponowal model matematyczny sztucznego neuronu (rysunek 2).Sygnały dochodzące do neuronu (x 1, x 2,...x N ) mnożone są przez tzw. wag w j ( - numer neuronu; j - numer wag). Parametr k oznacza chwle czasową. Dodatkowy sygnał jednostkowy nazwano basem. Na podstawe wag dochodzących sygnałów oblczany jest stan wewnętrzny neuronu u
2 Wzór 1: Aktywacja perceptronu (sumacja ważona). Rysunek 2: Model sztucznego neuronu McCullocha-Pttsa. Natomast odpowedź neuronu y zależy od tego czy stan wewnętrzny neuronu (jego pobudzene) przekracza pewen pozom. Odpowada za to funkcja aktywacj f(u ), która w modelu McCullocha-Pttsa jest funkcją progową. Wzór 2: Unpolarna funkcja aktywacj perceptonu. Najczęścej stosowanym funkcjam aktywacj neuronu są (oprócz funkcj lnowej) funkcja sgmodalna oraz tangens hperbolczny (rysunek 3). + N j j j k w k x k w k u 1 0 ) ( ) ( ) ( ) ( > ) ( u u u f
3 Rysunek 3: Funkcje aktywacj: sgmodalna tangens hperbolczny. Parametr β pozwala wpływać na kształt funkcj. Popularność tych funkcj spowodowana jest łatwoścą oblczana ch pochodnych, co jest koneczne przy użycu algorytmów uczena opartych na podejścu gradentowym. Wartośc pochodnych dla powyższych funkcj łatwo oblczyć znając jedyne wartośc samych funkcj. Stan wewnętrzny (pobudzene neuronu) tak jak poprzedno oblcza sę sumując z wagam sygnały wejścowe neuronu: u ( N j 1 w ( x ( j j + w 0 ( Sygnał wyjścowy neuronu jest wylczany za pomocą funkcj aktywacj sgmodalnej, tanh lub nnej, która jako argument przyjmuje stopeń pobudzena neuronu (rysunek 4). Rysunek 4: Model sztucznego neuronu z nelnową funkcją aktywacj.
4 Sztuczna seć neuronowa Sztuczną seć neuronowa uzyskuje sę łącząc ze sobą warstwy neuronów. Na rysunku 5 pokazano model sec welowarstwowej. Rysunek 5: Model sec z dwema warstwam. Na rysunku 5 przedstawono seć neuronową dwuwarstwową.. Wdać, że sygnały wyjścowe warstwy perwszej są jednocześne sygnałam wejścowym neuronów warstwy drugej, która jest jednocześne warstwą wyjścową sec, tzn. odpowedz neuronów tej warstwy określają odpowedź całej sec. Dodawane nowych warstw powoduje, że seć ma wększą moc oblczenową. W wynku wykorzystana welu warstw, seć potraf poradzć sobe z problemam, które mają charakter nelnowy, czego ne jest w stane dokonać seć jednowarstwowa. Uczene sec Uczene pod nadzorem. Uczene sec jest to proces doboru odpowednego zestawu wag danej sec, dla danego konkretnego zadan. W zasadze stneją dwe metody uczena sec: bez nauczycela z nauczycelem (pod nadzorem)- rysunek 6. Rysunek 6: Schemat uczena pod nadzorem. W metodze uczena pod nadzorem na wejśca sec podaje sę sygnały x. Seć odpowada sygnałam y, które są wyjścam poszczególnych neuronów. Nauczycel, wedząc jake sygnały są pożądane (sygnały d) na wyjścu sec dla każdego sygnału x, porównuje je z aktualną odpowedzą sec, po czym modyfkuje wag neuronów z uwzględnenem znanego błędu e sec. Dobór odpowednch wag odpowada procesow mnmalzacj funkcj błędu, którą można zapsać jako:
5 E N 1 ( y ( d ( ) 2 gdze N to lczba neuronów w warstwe wyjścowej sec (sumowane są błędy wszystkch neuronów wyjścowych). Sumaryczny błąd uwzględnający wszystke prezentowane sec wzorce (lub ch część) można zapsać jako: E N 1 p k 1 ( y ( d ( ) 2 Błąd ten jest równy sume błędów wszystkch neuronów (sumowane po ) ze względu na wszystke prezentowane m dane uczące (sumowane po. Modyfkacja wag odbywa sę według wzoru: w ( k + 1) w ( + w ( j j j gdze oznacza numer neuronu, j oznacza kolejną wagę tego neuronu, a k oznacza krok czasowy. Konkretna wartość wj zależy od przyjętego algorytmu uczena. Do uczena sec często używa sę metod gradentowych oblczając gradent funkcj błędu a następne modyfkując wartośc wag w kerunku najwększego spadku funkcj błędu. Do doboru wartośc wag wykorzystuje sę równeż algorytmy genetyczne. Uczene bez nadzoru. Nektóre rodzaje sec neuronowych, jak na przykład sec Hebba czy Kohonena, uczone są bez wykorzystana zboru wzorcowych odpowedz. Seć uczona jest za pomocą jedyne danych wejścowych. Sec tego typu wykorzystywane są mn. w zadanach klasteryzacj (grupowana). Klasteryzacja to dzelene danego zboru danych na podzbory, których elementy maja pewne cechy wspólne. Zastosowane sec neuronowych Sztuczne sec neuronowe stosuje sę do takch zagadneń jak: - klasyfkacja danych - aproksymacja funkcj - predykcja szeregów czasowych - rozpoznawane wzorców - kompresja danych Podstawowe modele sec neuronowych Perceptron prosty Model McCullocha-Pttsa przedstawony na rysunku 2 jest punktem wyjśca do konstrukcj najprostszej sztucznej sec neuronowej o nazwe perceptron (zwanej równeż perceptronem prostym). Zadanem perceptronu prostego jest klasyfkacja podanego na wejśce wektora x do jednej z dwoch klas L 1 lub L 2. Jeśl sygnał wyjścowy neuronu przyjmuje wartość 1 to wektor x jest zaklasyfkowany do klasy L 1, jeśl przyjmuje wartość 0 do klasy L 2. Zatem perceptron dzel N-wymarową przestrzeń wektorów wejścowych na dwe półprzestrzene rozdzelone N-1 wymarową hperpłaszczyzną. Hperpłaszczyzna ta zwana jest powerzchną (grancą) decyzyjną. Jeśl N2 to jest to lna prosta. Aby zbór danych wejscowych mógł by oddzelony przez hperpłaszczyznę, mus być lnowo separowalny. Neznane wartośc wag doberane są w procese uczena perceptronu. Reguła uczena perceptronu Jeśl na wejśce neuronu podawane są wektory x[1,x 1, x 2,...], seć odpowada sygnałem y, a żądana odpowedź jest równa d, to wektor wag w[w 0,w 1,w 2,...] jest modyfkowany zgodne z ponższym zasadam:
6 - jeśl yd to wag pozostają nezmenone (wektor x został prawdłowo zaklasyfkowany) - jeśl y0 a d1 to w j (k+1) w j ( +η* x j - jeśl y1 a d0 to w j (k+1) w j ( η*x j gdze η jest krokem korekcj. Procedurę tę powtarza sę dla wszystkch danych uczących (x,d) welokrotne. Krok te można zapsać łączne jako w j (k+1) w j ( + η*(d-y)*x j Zadane do wykonana: Uczene perceptronu Należy pobrać ze strony demonstracyjny program PerceptronDemo. Zaobserwować jak dwe klasy lnowo separowane są oddzelone przez powerzchnę decyzyjną (lnę prostą w tym przypadku). Uczony perceptron ma bpolarną (odpowada wartoścam 1 lub -1) funkcje aktywacj. W trakce wykonywana programu, dane uczące mogą być modyfkowane poprzez ch przecągane z przycśnętym lewym przycskem myszk. Po klknęcu przytrzymanu prawego przycsku myszk, wag perceptronu zostaną ustawone na losowe wartośc, tak aby proces uczena mógł zacząć se ponowne. Okno programu predstawa wycnek płaszczyzny 2d o wymarach [0 ; 1] x [0 ; 1], punkt (0,0) znajduje sę w lewym dolnym rogu. Rysunek 7: Program PerceptronDemo Po uruchomenu programu na okne konsol są wdoczne wartośc parametrów, z jakm program został uruchomony. Są to: krok korekcj η (eta) oraz flaga wskazująca czy w trakce nauk używany jest bas. Parametry te moża ustawć w trakce uruchamana programu z ln poleceń, np: PerceptronDemo Perwszy parametr to krok korekcj, drug wskazuje, czy użyć ( 1 ) czy ne użyć ( 0 ) basu w uczonym perceptrone. Znaczene basu Bas spełna w perceptrone ważną rolę. Rozważmy to na przykładze. Na płaszczyźne wzór na powerzchnę decyzyjną perceptronu można przedstawć jako:
7 w1 x w2 y w00 gdze w0 jest basem. Jeśl wyznaczymy zależność y względem x, otrzymamy: y w1/ w2 x w0/ w2 Jest to znany wzór na prostą typu: ya x b Wadomo, że a jest współczynnkem kerunkowym prostej (tangens kąta mędzy tą prostą a osą x), natomast b wyznacza punkt przecęca przez prostą os y. Zwróćmy uwagę, że jeśl bas jest równy zero, to b równeż bedze zero. Jeśl węc nasz perceptron ne będze używał basu, będze on mógł wyznaczać grance decyzyjne w postac prostych przechodzących przez początek układu współrzędnych (w przypadku wększej lczby wymarów sytuacja jest analogczna). Ne będze wec mógł wyznaczać dowolnego podzału przestrzen an nauczyć se dobrze klasyfkować danych z dwóch klas, nawet jeśl te klasy są lnowo separowalne (tzn. stneje taka prosta hperpłaszczyzna która je oddzela). Na rysunku ponżej wdać przykład dwóch klas, których perceptron bez basu ne jest w stane sę nauczyć można to poznać po tym, ze każda lna reprezentująca wag perceptronu, przechodz przez punkt (0,0), czyl lewy dolny róg okna programu. Rysunek 8: Przykład danych lnowo separowalnych, ktorych ne może nauczyć sę perceptron bez basu. Pytana: 1. Czy w przypadku danych uczących, które ne są lnowo separowalne, perceptron jest w stane sę odpowedno nauczyć klasyfkować dane? Dlaczego? Przygotuj przedstaw take dane. 2. Przyglądnj sę procesow nauk perceptronu dla różnych wartośc parametru eta. Jak zależy proces uczena od wartośc tego parametru? 3. Uruchom program bez wykorzystana basu pokaż na przykładze danych, które są lnowo separowalne, że perceptron bez basu mmo tego ne daje rady sę ch nauczyć.
8 4. Zapsz regułę uczena perceptronu dla zastosowanej w programe bpolarnej funkcj aktywacj perceptronu. Układy typu ADALINE Układ typu ADALINE (ang. Adaptve Lnear Neuron) został zaproponowany w 1960 roku przez Wdrowa Hoffa. Nazywany jest równeż adaptacyjnym lnowym sumatorem ważonym. Model ważonego sumatora lnowego jest przedstawony na rysunku 9. Rysunek 9: Schemat modelu ADALINE. - Algorytm modyfkacj wag ma charakter uczena pod nadzorem. Sygnał wyjścowy y sumatora porównywany jest z sygnałem wzorcowym d. Uzyskany w ten sposób błąd sumatora wykorzystany jest do zmodyfkowana wartośc wag zgodne ze wzorem: T w( k + 1) w( + η x( [ d( w ( x( ] Parametr eta jest jak poprzedno krokem korekcj. Algorytm ten realzuje uczene pod nadzorem należy do klasy algorytmów gradentowych, gdyż mnmalzuje funkcję błędu neuronu wyrażoną wzorem: E ( d( y ( ) 2 dla k-tego wzorca uczącego. W zależnośc od przyjętej metody uczena, adaptacj wag dokonywać można po prezentowanu każdej pary uczącej, lub też po prezentacj wszystkch par danych uczących. W drugm przypadku mnmalzowaną funkcję błędu można zapsać jako: E p k 1 ( y( d( ) 2 Oblczając gradent funkcj błędu względem wag otrzymuje sę: E w( 2[ d( w T ( x( ] x( Gradent wyznacza kerunek najwększego wzrostu wartośc funkcj, modyfkacj wag dokonuje sę zatem w
9 przecwnym kerunku, czyl kerunku najwększego spadku. Adaptacyjny lnowy sumator ważony z nelnową funkcją aktywacj. W przypadku zastosowana nelnowej funkcj aktywacj zgodne z rysunkem 10, koneczne jest zmodyfkowane wzoru modyfkacj wag. Wynka to z nnej postac gradentu funkcj błędu. Gradent funkcj błędu wynos: E w( 2 f '( y( ) x( [ d( y( ] Pojawa sę pochodna funkcj aktywacj. Wzór na modyfkację wartośc wag przyjmuje postać: w( k + 1) w( + η x( [ d( y( ] f '( y( ) Rysunek 10 Schemat sumatora ważonego z nelnową funkcją aktyacj. Wartość pochodnej dla danej nelnowej funkcj aktywacj, często można wylczyć na podstawe wartośc samej funkcj. Przykładowo, dla funkcj sgmodalnej z parametrem beta równym 1, wartość pochodnej określa wzór: f '( x) f ( x)(1 f ( x)) W przypadku welu sumatorów (neuronów) połączonych w jedną warstwę, wag każdego neuronu modyfkuje sę osobno zgodne z podanym wzoram. Algorytm wstecznej propagacj błędów W przypadku sec welowarstwowych najczęścej stosowanym algorytmem uczena jest algorytm wstecznej propagacj błędów. Jego nazwa pochodz stąd, ż po oblczenu odpowedz sec na zadany wzorzec, oblczana jest wartość gradentu funkcj błędu dla neuronów ostatnej warstwy. Następne modyfkuje sę ch wag. Błąd jest propagowany do warstwy wcześnejszej (przedostatnej). Wartośc funkcj gradentu dla neuronów z tej warstwy oblczane są w oparcu o gradenty dla neuronów z warstwy następnej (czyl ostatnej). Modyfkowane są wag kolejnej warstwy. Postępowane trwa aż do warstwy wejścowej. Istneje wele warantów ulepszeń orygnalnej metody wstecznej propagacj błędów. Pozwalają one uzyskać lepsze efekty uczena lub przyśpeszyć proces nauk.
10 Zależność efektów uczena sec od jej archtektury Udowodnono, że perceptron welowarstwowy jest doskonałym aproksymatorem, tzn. może nauczyć sę dowolnego odwzorowana (węc równeż aproksymować dowolną funkcję) pod warunkem, że posada odpowedną lczbę neuronów. Dobór odpowednej struktury sec neuronowej, dostosowanej do danego problemu, jest zadanem trudnym. Zły dobór parametrów sec powoduje, że seć ne może sę dobrze nauczyć odpowednego odwzorowana, lub też charakteryzuje sę złą zdolnoścą generalzacj, czyl źle radz sobe z danym, których wcześnej ne wdzała (tzn. których ne użyto w trakce uczena sec). Przykładowo, na rysunku 11 wdzmy seć dobrze aproksymującą zadaną funkcję: Rysunek 11. Dobrze odwzorowana funkcja. Danym uczącym seć były punkty oznaczone krzyżykam. Wdać, że seć odpowada równeż dobrze w punktach, które ne zostały jej zaprezentowane w czase nauk. Jednak ne zawsze nam sę udaje tak dobrze nauczyć sec. Na rysunku 12 wdzmy przypadek, gdy seć została przeuczona charakteryzuje sę złą zdolnoścą uogólnana: Rysunek 12. Przeuczona seć. Jednak jeśl na przykład użyjemy zbyt małej lczby neuronów, seć będze nedouczona (ne poradz sobe z zadanym problemem, będze mała zbyt małą moc oblczenową) rysunek 13.
11 Rysunek 13 Nedouczona seć. Podczas uczena sec dla danego zadana należy określć: - archtekturę sec - algorytm uczena jego parametry, - dobór danych uczących ch obróbkę wstępną - lczbę prezentacj (teracj) danych uczących (moment zakończena nauk) - metodę oceny jakośc sec - początkowe wartośc wag td. Symulacja układu logcznego XOR Operacja logczna XOR przyjmuje dwa parametry bnarne odpowada równeż wartoścą 0 lub 1. Ponższa tabelka przedstawa odpowedz funkcj XOR dla wszystkch możlwych danych wejścowych: X Y XOR Problem polega na odwzorowanu tej funkcj za pomocą sec neuronowej (rysunek 14). Rysunek 14. Problem XOR. Wejścam dla sec są wartośc logczne X oraz Y, natomast na wyjścu pojawa sę wartość funkcj XOR dla podanych argumentów. Rozpatrywana seć ma dwa sygnały wejścowe jeden wyjścowy. Ne można jednak rozwązać tego problemu za pomocą jednego neuronu o dwóch wejścach (plus bas), gdyż może on
12 wygenerować jedyne hperpłaszczyznę, tj. lnę prostą, dowolne przysunętą. Jedną lną ne można oddzelć odpowedno od sebe argumentów funkcj XOR (czyl tych, które dają w wynku 1 od tych które dają w wynku 0). Dla rozwązana tego klasycznego problemu potrzebna jest seć z co najmnej dwema warstwam. Model tak pokazano na rysunku 15. Rysunek 15. Seć rozwązująca problem XOR. Rozpatrywana seć dokonuje odpowednego nelnowego podzału wykorzystując dwe hperpłaszczyzny, jak pokazano na rysunku 16: Rysunek 16. Rozwązane zadana XOR. Środowsko JOONE Do dalszej pracy wykorzystamy środowsko JOONE (Java Object Orented Neural Engne). Jest ono dostępne pod adresem Daje ono szeroke możlwośc konstruowana testowana różnorodnych archtektur sec neuronowych w zastosowanu do szeregu problemów. Na rysunku 17 przedstawono nterfejs środowska.
13 Rysunek 17: JOONE (Java Object Orented Neural Engne). W celu rozwązana problemu XOR oraz zapoznana sę z Joone przed przystąpenem do bardzej skomplkowanych zadań, skonstruujemy seć neuronową typu welowarstwowego perceptronu, która pownna rozwązać ten problem. Tak jak zostało pokazane wcześnej, nasza seć mus meć warstwę ukrytą wyjścową. W Joone będze jeszcze dodatkowa warstwa wejścowa, której zadanem będze jedyne doprowadzane sygnałów wejścowych do warstwy ukrytej. Podstawowym elementam, z których budujemy seć w Joone jest warstwa (ang. Layer). Przyjrzyj sę panelow Joone znajdź na toolbarze odpowedne przycsk: NewLnearLayer, NewSgmodLayer. Nastepne dodaj trzy warstwy tak jak ponżej: Perwsza warstwa pownna meć dwa neurony (parametr rows; w warstwe wejścowej jest tyle neuronow, le jest wymarów danych wejścowych), druga warswa (warstwa ukryta) jest warstwą neuronów z sgmodalnym funkcjam aktywacj posada dwa neurony, warstwa wyjścowa ma jeden lnowy neuron. Przecągając lnę mędzy warstwam, połącz warstwy w tak sposób, aby otrzymać następującą strukturę:
14 Każdy neuron z danej warstwy został połączony z każdym neuronem warstwy następnej. Struktura sec jest gotowa. Teraz przygotujemy dane uczące. Stwórz plk tekstowy xor.data z następującą zawartoścą: 0.0;0.0; ;1.0; ;0.0; ;1.0;0.0 Dwe perwsze kolumny reprezentują dane wejścowe, trzeca kolumna to wzorcowe odpowedz. Dodaj w edytorze strumeń wejścowy z plku: NewFleInputLayer. Klknj na nego prawym przycskem myszy ustaw jego właścwośc (p. rysunek ponżej): Advanced Column Selector: 1,2 flename: xor.data Co oznacza, ze dane wejścowe to kolumny 1 oraz 2. Połącz dane wejścowe z warstwą wejścowa. Dodajemy nauczycela, który bedze czuwał nad procesem uczena. Dodaj NewTeacherLayer oraz jeszcze jeden NewFleInputLayer. Ustaw właścwośc nowej warstwy FleInput na: Advanced Column Selector: 3 flename: xor.data Znaczy to, że wzorcowym danym wyjścwoym sec są dane z trzecej kolumny plku xor.data. Połącz nowe elementy jak na rysunku ponżej.
15 Seć jest gotowa do nauk. Otwórz Tools->ControlPanel ustaw wartośc na: learnng: True learnngrate: 0.8 momentum: 0.3 epochs: tranng patterns: 4 Klknj Run. Obserwuj, jak błąd średnokwadratowy (RMSE) maleje.
16 Czas przetestować seć. Dodaj do edytora NewFleOutputLayer ustaw jego włąscwośc jak na rysunku. Ustaw właścwość Teacher enabled na false. Następne przejdź do ControlPanel ustaw: learnng: False epochs: 1 tranng patterns: 4 Zawartość plku xor_results.data pownna wyglądać mnej wecej następująco: Wdać, że seć nauczyła sę odpowadać odpowednm wartoścam (blskm 1 lub blskm 0) na odpowedne dane wejścowe. Porównaj otrzymane odpowedz z odpowedzam wzorcowym dla problemu XOR. Nauczonż seć można zapsać wyberając Fle->Save. Zadana: 1. Sprawdź, że rzeczywśce seć posadająca jeden neuron w warstwe ukrytej ne jest w stane nauczyć se problemu xor. Po czym można to poznać? 2. Przetestuj proces uczena sec dla różnych ustaweń parametrów uczena: learnngrate, momentum, lczba teracj (epochs). Do lu teracj warto uczyć seć (do kedy błąd spada)? 3. Co sę stane jeśl zwekszymy lbczę neuronów ukrytych na 3, 4, 5, 6 td. Czy przyśpeszy to proces uczena lub zmnejszy błąd? Zawsze?
17 4. Powtórz poprzedne zadana z wykorzystanem warstwy ukrytej z neuronam typu lnowego. Czy stneje zauważalna rożnca w porównanu do zastosowanych wczesnej neuronów typu sgmodalnego? 5. Dla jakej archtektury sec błąd był najmnejszy? Po jakej lczbe teracj z jakm parametram? Przedstaw dane w tablekach. 6. Czy problemy logczne AND oraz OR są problemam lnowo separowalnym? Przygotuj odpowedne dane uczące sprawdz swoje przypuszczena powtarzając eksperymenty dla tych nowych danych. Odpowedź usasadnj posłkując sę wynkam. Wszystke wnosk spostrzeżena poprzyj w sprawozdanu wynkam przeprowadzonych oblczeń symulacj, jak równeż przedstaw przeprowadzane eksperymenty badane sec na rysunkach ( screenach ). Wynk przedstaw w opsanych tabelkach.
Neural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych.
Neural networks Lecture Notes n Pattern Recognton by W.Dzwnel Krótka hstora McCulloch Ptts (1943) - perwszy matematyczny ops dzalana neuronu przetwarzana przez nego danych. Proste neurony, które mogly
Bardziej szczegółowoSztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311
Sztuczne sec neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyk, p. 311 Wykład 6 PLAN: - Repetto (brevs) - Sec neuronowe z radalnym funkcjam bazowym Repetto W aspekce archtektury: zajmowalśmy
Bardziej szczegółowoZaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych
Zaawansowane metody numeryczne Komputerowa analza zagadneń różnczkowych 1. Układy równań lnowych P. F. Góra http://th-www.f.uj.edu.pl/zfs/gora/ semestr letn 2006/07 Podstawowe fakty Równane Ax = b, x,
Bardziej szczegółowoRozwiązywanie zadań optymalizacji w środowisku programu MATLAB
Rozwązywane zadań optymalzacj w środowsku programu MATLAB Zagadnene optymalzacj polega na znajdowanu najlepszego, względem ustalonego kryterum, rozwązana należącego do zboru rozwązań dopuszczalnych. Standardowe
Bardziej szczegółowoZapis informacji, systemy pozycyjne 1. Literatura Jerzy Grębosz, Symfonia C++ standard. Harvey M. Deitl, Paul J. Deitl, Arkana C++. Programowanie.
Zaps nformacj, systemy pozycyjne 1 Lteratura Jerzy Grębosz, Symfona C++ standard. Harvey M. Detl, Paul J. Detl, Arkana C++. Programowane. Zaps nformacj w komputerach Wszystke elementy danych przetwarzane
Bardziej szczegółowoWykład 2: Uczenie nadzorowane sieci neuronowych - I
Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za
Bardziej szczegółowoNowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba
Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 1 Ćwczene 2: Perceptron WYMAGANIA 1. Sztuczne sec neuronowe budowa oraz ops matematyczny perceptronu (funkcje przejśca perceptronu), uczene perceptronu
Bardziej szczegółowoSztuczna Inteligencja Tematy projektów Sieci Neuronowe
PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia
Bardziej szczegółowoZaawansowane metody numeryczne
Wykład 9. jej modyfkacje. Oznaczena Będzemy rozpatrywać zagadnene rozwązana następującego układu n równań lnowych z n newadomym x 1... x n : a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x
Bardziej szczegółowoKURS STATYSTYKA. Lekcja 6 Regresja i linie regresji ZADANIE DOMOWE. www.etrapez.pl Strona 1
KURS STATYSTYKA Lekcja 6 Regresja lne regresj ZADANIE DOMOWE www.etrapez.pl Strona 1 Część 1: TEST Zaznacz poprawną odpowedź (tylko jedna jest prawdzwa). Pytane 1 Funkcja regresj I rodzaju cechy Y zależnej
Bardziej szczegółowoSZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW
SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW Stefan WÓJTOWICZ, Katarzyna BIERNAT ZAKŁAD METROLOGII I BADAŃ NIENISZCZĄCYCH INSTYTUT ELEKTROTECHNIKI ul. Pożaryskego 8, 04-703 Warszawa tel.
Bardziej szczegółowoWykład 2: Uczenie nadzorowane sieci neuronowych - I
Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za
Bardziej szczegółowoProjekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE
Inormatyka Podstawy Programowana 06/07 Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE 6. Równana algebraczne. Poszukujemy rozwązana, czyl chcemy określć perwastk rzeczywste równana:
Bardziej szczegółowoLaboratorium ochrony danych
Laboratorum ochrony danych Ćwczene nr Temat ćwczena: Cała skończone rozszerzone Cel dydaktyczny: Opanowane programowej metody konstruowana cał skończonych rozszerzonych GF(pm), poznane ch własnośc oraz
Bardziej szczegółowoSztuczne sieci neuronowe
Sztuczne sec neuronowe Jerzy Stefanowsk Plan wykładu 1. Wprowadzene 2. Model sztucznego neuronu. 3. Topologe sec neuronowych 4. Reguły uczena sec neuronowych. 5. Klasyfkaca sec neuronowych. 6. Sec warstwowe
Bardziej szczegółowoAnaliza danych OGÓLNY SCHEMAT. http://zajecia.jakubw.pl/ Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja)
Analza danych Dane trenngowe testowe. Algorytm k najblższych sąsadów. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ OGÓLNY SCHEMAT Mamy dany zbór danych podzelony na klasy decyzyjne, oraz
Bardziej szczegółowoWikiWS For Business Sharks
WkWS For Busness Sharks Ops zadana konkursowego Zadane Opracowane algorytmu automatyczne przetwarzającego zdjęce odręczne narysowanego dagramu na tablcy lub kartce do postac wektorowej zapsanej w formace
Bardziej szczegółowoKlasyfkator lnowy Wstęp Klasyfkator lnowy jest najprostszym możlwym klasyfkatorem. Zakłada on lnową separację lnowy podzał dwóch klas mędzy sobą. Przedstawa to ponższy rysunek: 5 4 3 1 0-1 - -3-4 -5-5
Bardziej szczegółowoKRZYWA BÉZIERA TWORZENIE I WIZUALIZACJA KRZYWYCH PARAMETRYCZNYCH NA PRZYKŁADZIE KRZYWEJ BÉZIERA
KRZYWA BÉZIERA TWORZENIE I WIZUALIZACJA KRZYWYCH PARAMETRYCZNYCH NA PRZYKŁADZIE KRZYWEJ BÉZIERA Krzysztof Serżęga Wyższa Szkoła Informatyk Zarządzana w Rzeszowe Streszczene Artykuł porusza temat zwązany
Bardziej szczegółowoMetody Sztucznej Inteligencji II
17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału
Bardziej szczegółowoAlgorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa
Bardziej szczegółowoNeuron liniowy. Najprostsza sieć warstwa elementów liniowych
Najprostsza jest jednostka lnowa: Neuron lnowy potraf ona rozpoznawać wektor wejścowy X = (x 1, x 2,..., x n ) T zapamętany we współczynnkach wagowych W = (w 1, w 2,..., w n ), Zauważmy, że y = W X Załóżmy,
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt
Bardziej szczegółowoSZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 15. ALGORYTMY GENETYCZNE Częstochowa 014 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska TERMINOLOGIA allele wartośc, waranty genów, chromosom - (naczej
Bardziej szczegółowoSieci Neuronowe 2 Michał Bereta
Zagadnena Sztucznej Intelgencj laboratorum Sec Neuronowe 2 Mchał Bereta Cele laboratorum: zapoznane sę z nowym rodzajam sec neuronowych: secam Kohonena oraz secam radalnym porównane sec Kohonena oraz sec
Bardziej szczegółowoSTATECZNOŚĆ SKARP. α - kąt nachylenia skarpy [ o ], φ - kąt tarcia wewnętrznego gruntu [ o ],
STATECZNOŚĆ SKARP W przypadku obektu wykonanego z gruntów nespostych zaprojektowane bezpecznego nachylena skarp sprowadza sę do przekształcena wzoru na współczynnk statecznośc do postac: tgφ tgα = n gdze:
Bardziej szczegółowowiedzy Sieci neuronowe
Metody detekcji uszkodzeń oparte na wiedzy Sieci neuronowe Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 7 Wprowadzenie Okres kształtowania się teorii sztucznych sieci
Bardziej szczegółowoAnaliza rodzajów skutków i krytyczności uszkodzeń FMECA/FMEA według MIL STD - 1629A
Analza rodzajów skutków krytycznośc uszkodzeń FMECA/FMEA według MIL STD - 629A Celem analzy krytycznośc jest szeregowane potencjalnych rodzajów uszkodzeń zdentyfkowanych zgodne z zasadam FMEA na podstawe
Bardziej szczegółowoSIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe
SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe JOANNA GRABSKA-CHRZĄSTOWSKA Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA BUDOWA RZECZYWISTEGO NEURONU
Bardziej szczegółowoPortfele zawierające walor pozbawiony ryzyka. Elementy teorii rynku kapitałowego
Portel nwestycyjny ćwczena Na podst. Wtold Jurek: Konstrukcja analza rozdzał 5 dr chał Konopczyńsk Portele zawerające walor pozbawony ryzyka. lementy teor rynku kaptałowego 1. Pożyczane penędzy amy dwa
Bardziej szczegółowoI. Elementy analizy matematycznej
WSTAWKA MATEMATYCZNA I. Elementy analzy matematycznej Pochodna funkcj f(x) Pochodna funkcj podaje nam prędkość zman funkcj: df f (x + x) f (x) f '(x) = = lm x 0 (1) dx x Pochodna funkcj podaje nam zarazem
Bardziej szczegółowoIMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ
IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,
Bardziej szczegółowoWprowadzenie do Sieci Neuronowych Sieci rekurencyjne
Wprowadzene do Sec Neuronowych Sec rekurencyjne M. Czoków, J. Persa 2010-12-07 1 Powtórzene Konstrukcja autoasocjatora Hopfelda 1.1 Konstrukcja Danych jest m obrazów wzorcowych ξ 1..ξ m, gdze każdy pojedynczy
Bardziej szczegółowo2012-10-11. Definicje ogólne
0-0- Defncje ogólne Logstyka nauka o przepływe surowców produktów gotowych rodowód wojskowy Utrzyywane zapasów koszty zwązane.n. z zarożene kaptału Brak w dostawach koszty zwązane.n. z przestoje w produkcj
Bardziej szczegółowo) będą niezależnymi zmiennymi losowymi o tym samym rozkładzie normalnym z następującymi parametrami: nieznaną wartością 1 4
Zadane. Nech ( X, Y ),( X, Y ), K,( X, Y n n ) będą nezależnym zmennym losowym o tym samym rozkładze normalnym z następującym parametram: neznaną wartoścą oczekwaną EX = EY = m, warancją VarX = VarY =
Bardziej szczegółowoWstęp do sztucznych sieci neuronowych
Wstęp do sztucznych sieci neuronowych Michał Garbowski Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Wydział Informatyki 15 grudnia 2011 Plan wykładu I 1 Wprowadzenie Inspiracja biologiczna
Bardziej szczegółowoSystemy Ochrony Powietrza Ćwiczenia Laboratoryjne
ś POLITECHNIKA POZNAŃSKA INSTYTUT INŻYNIERII ŚRODOWISKA PROWADZĄCY: mgr nż. Łukasz Amanowcz Systemy Ochrony Powetrza Ćwczena Laboratoryjne 2 TEMAT ĆWICZENIA: Oznaczane lczbowego rozkładu lnowych projekcyjnych
Bardziej szczegółowoZestaw zadań 4: Przestrzenie wektorowe i podprzestrzenie. Liniowa niezależność. Sumy i sumy proste podprzestrzeni.
Zestaw zadań : Przestrzene wektorowe podprzestrzene. Lnowa nezależność. Sumy sumy proste podprzestrzen. () Wykazać, że V = C ze zwykłym dodawanem jako dodawanem wektorów operacją mnożena przez skalar :
Bardziej szczegółowoMATEMATYKA POZIOM ROZSZERZONY Kryteria oceniania odpowiedzi. Arkusz A II. Strona 1 z 5
MATEMATYKA POZIOM ROZSZERZONY Krytera ocenana odpowedz Arkusz A II Strona 1 z 5 Odpowedz Pytane 1 2 3 4 5 6 7 8 9 Odpowedź D C C A B 153 135 232 333 Zad. 10. (0-3) Dana jest funkcja postac. Korzystając
Bardziej szczegółowoNatalia Nehrebecka. Wykład 2
Natala Nehrebecka Wykład . Model lnowy Postad modelu lnowego Zaps macerzowy modelu lnowego. Estymacja modelu Wartośd teoretyczna (dopasowana) Reszty 3. MNK przypadek jednej zmennej . Model lnowy Postad
Bardziej szczegółowoDiagonalizacja macierzy kwadratowej
Dagonalzacja macerzy kwadratowej Dana jest macerz A nân. Jej wartośc własne wektory własne spełnają równane Ax x dla,..., n Każde z równań własnych osobno można zapsać w postac: a a an x x a a an x x an
Bardziej szczegółowoWprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu
Wprowadzene do Sec Neuronowych Algorytm wstecznej propagacj błędu Maja Czoków, Jarosław Persa --6 Powtórzene. Perceptron sgmodalny Funkcja sgmodalna: σ(x) = + exp( c (x p)) Parametr c odpowada za nachylene
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych
Bardziej szczegółowoPodstawy Sztucznej Inteligencji (PSZT)
Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12
Bardziej szczegółowoSztuczne sieci neuronowe
www.math.uni.lodz.pl/ radmat Cel wykładu Celem wykładu jest prezentacja różnych rodzajów sztucznych sieci neuronowych. Biologiczny model neuronu Mózg człowieka składa się z około 10 11 komórek nerwowych,
Bardziej szczegółowoProces narodzin i śmierci
Proces narodzn śmerc Jeżel w ewnej oulacj nowe osobnk ojawają sę w sosób losowy, rzy czym gęstość zdarzeń na jednostkę czasu jest stała w czase wynos λ, oraz lczba osobnków n, które ojawły sę od chwl do
Bardziej szczegółowoNieeuklidesowe sieci neuronowe
Unwersytet Mkoaja Kopernka Wydza Fzyk, Astronom Informatyk Stosowanej IS Helena Jurkewcz numer albumu: 177622 Praca magsterska na kerunku Fzyka Komputerowa Neeukldesowe sec neuronowe Opekun pracy dyplomowej
Bardziej szczegółowo5. OPTYMALIZACJA GRAFOWO-SIECIOWA
. OPTYMALIZACJA GRAFOWO-SIECIOWA Defncja grafu Pod pojęcem grafu G rozumemy następującą dwójkę uporządkowaną (defncja grafu Berge a): (.) G W,U gdze: W zbór werzchołków grafu, U zbór łuków grafu, U W W,
Bardziej szczegółowoZastosowanie symulatora ChemCad do modelowania złożonych układów reakcyjnych procesów petrochemicznych
NAFTA-GAZ styczeń 2011 ROK LXVII Anna Rembesa-Śmszek Instytut Nafty Gazu, Kraków Andrzej Wyczesany Poltechnka Krakowska, Kraków Zastosowane symulatora ChemCad do modelowana złożonych układów reakcyjnych
Bardziej szczegółowoPodstawy sztucznej inteligencji
wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,
Bardziej szczegółowoTRANZYSTOR BIPOLARNY CHARAKTERYSTYKI STATYCZNE
POLITHNIKA RZSZOWSKA Katedra Podstaw lektronk Instrkcja Nr4 F 00/003 sem. letn TRANZYSTOR IPOLARNY HARAKTRYSTYKI STATYZN elem ćwczena jest pomar charakterystyk statycznych tranzystora bpolarnego npn lb
Bardziej szczegółowoInteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska
Bardziej szczegółowoZa: Stanisław Latoś, Niwelacja trygonometryczna, [w:] Ćwiczenia z geodezji II [red.] J. Beluch
Za: Stansław Latoś, Nwelacja trygonometryczna, [w:] Ćwczena z geodezj II [red.] J. eluch 6.1. Ogólne zasady nwelacj trygonometrycznej. Wprowadzene Nwelacja trygonometryczna, zwana równeż trygonometrycznym
Bardziej szczegółowoBADANIA OPERACYJNE. Podejmowanie decyzji w warunkach niepewności. dr Adam Sojda
BADANIA OPERACYJNE Podejmowane decyzj w warunkach nepewnośc dr Adam Sojda Teora podejmowana decyzj gry z naturą Wynk dzałana zależy ne tylko od tego, jaką podejmujemy decyzję, ale równeż od tego, jak wystąp
Bardziej szczegółowoProste modele ze złożonym zachowaniem czyli o chaosie
Proste modele ze złożonym zachowanem czyl o chaose 29 kwetna 2014 Komputer jest narzędzem coraz częścej stosowanym przez naukowców do ukazywana skrzętne ukrywanych przez naturę tajemnc. Symulacja, obok
Bardziej szczegółowoProblemy jednoczesnego testowania wielu hipotez statystycznych i ich zastosowania w analizie mikromacierzy DNA
Problemy jednoczesnego testowana welu hpotez statystycznych ch zastosowana w analze mkromacerzy DNA Konrad Furmańczyk Katedra Zastosowań Matematyk SGGW Plan referatu Testowane w analze mkromacerzy DNA
Bardziej szczegółowoProblem plecakowy (KNAPSACK PROBLEM).
Problem plecakowy (KNAPSACK PROBLEM). Zagadnene optymalzac zwane problemem plecakowym swą nazwę wzęło z analog do sytuac praktyczne podobne do problemu pakowana plecaka. Chodz o to, by zapakować maksymalne
Bardziej szczegółowoModele wieloczynnikowe. Modele wieloczynnikowe. Modele wieloczynnikowe ogólne. α β β β ε. Analiza i Zarządzanie Portfelem cz. 4.
Modele weloczynnkowe Analza Zarządzane Portfelem cz. 4 Ogólne model weloczynnkowy można zapsać jako: (,...,,..., ) P f F F F = n Dr Katarzyna Kuzak lub (,...,,..., ) f F F F = n Modele weloczynnkowe Można
Bardziej szczegółowoWspółczynnik przenikania ciepła U v. 4.00
Współczynnk przenkana cepła U v. 4.00 1 WYMAGANIA Maksymalne wartośc współczynnków przenkana cepła U dla ścan, stropów, stropodachów, oken drzw balkonowych podano w załącznku do Rozporządzena Mnstra Infrastruktury
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-10 Projekt pn. Wzmocnienie
Bardziej szczegółowo8. Neuron z ciągłą funkcją aktywacji.
8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i
Bardziej szczegółowoSieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ
optymalizacje podejmowanych decyzji Tomasz Karczyoski Wydział W-08 IZ Czym są sieci neuronowe Struktura matematycznych oraz programowy lub sprzętowy model, realizujących obliczenia lub przetwarzanie sygnałów
Bardziej szczegółowo5. CHARAKTERYSTYKI CZĘSTOTLIWOŚCIOWE
5. CHARAKTERYSTYKI CZĘSTOTLIWOŚCIOWE Oprócz transmtancj operatorowej, do opsu członów układów automatyk stosuje sę tzw. transmtancję wdmową. Transmtancję wdmową G(j wyznaczyć moŝna dzęk podstawenu do wzoru
Bardziej szczegółowoAnaliza danych. Analiza danych wielowymiarowych. Regresja liniowa. Dyskryminacja liniowa. PARA ZMIENNYCH LOSOWYCH
Analza danych Analza danych welowymarowych. Regresja lnowa. Dyskrymnacja lnowa. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ PARA ZMIENNYCH LOSOWYCH Parę zmennych losowych X, Y możemy
Bardziej szczegółowoInteligentne systemy przeciw atakom sieciowym
Inteligentne systemy przeciw atakom sieciowym wykład Sztuczne sieci neuronowe (SSN) Joanna Kołodziejczyk 2016 Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 1 / 36 Biologiczne
Bardziej szczegółowo1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda
Sieci neuropodobne 1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN Agenda Trochę neurobiologii System nerwowy w organizmach żywych tworzą trzy
Bardziej szczegółowoSTATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH
STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH 1 Test zgodnośc χ 2 Hpoteza zerowa H 0 ( Cecha X populacj ma rozkład o dystrybuance F). Hpoteza alternatywna H1( Cecha X populacj
Bardziej szczegółowoElementy inteligencji obliczeniowej
Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego
Bardziej szczegółowoEKONOMETRIA I Spotkanie 1, dn. 05.10.2010
EKONOMETRIA I Spotkane, dn. 5..2 Dr Katarzyna Beń Program ramowy: http://www.sgh.waw.pl/nstytuty/e/oferta_dydaktyczna/ekonometra_stacjonarne_nest acjonarne/ Zadana, dane do zadań, ważne nformacje: http://www.e-sgh.pl/ben/ekonometra
Bardziej szczegółowoDiagnostyka układów kombinacyjnych
Dagnostyka układów kombnacyjnych 1. Wprowadzene Dagnostyka obejmuje: stwerdzene stanu układu, systemu lub ogólne sec logcznej. Jest to tzw. kontrola stanu wykrywająca czy dzałane sec ne jest zakłócane
Bardziej szczegółowoW praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np.
Wykład 7 Uwaga: W praktyce często zdarza sę, że wynk obu prób możemy traktować jako wynk pomarów na tym samym elemence populacj np. wynk x przed wynk y po operacj dla tego samego osobnka. Należy wówczas
Bardziej szczegółowoNajprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;
Sieci Hopfielda Najprostsze modele sieci z rekurencją sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Modele bardziej złoŝone: RTRN (Real Time Recurrent Network), przetwarzająca sygnały w czasie
Bardziej szczegółowoOkreślanie mocy cylindra C w zaleŝności od ostrości wzroku V 0 Ostrość wzroku V 0 7/5 6/5 5/5 4/5 3/5 2/5 Moc cylindra C 0,5 0,75 1,0 1,25 1,5 > 2
T A R C Z A Z E G A R O W A ASTYGMATYZM 1.Pojęca ogólne a) astygmatyzm prosty (najbardzej zgodny z pozomem) - najbardzej płask połudnk tzn. o najmnejszej mocy jest pozomy b) astygmatyzm odwrotny (najbardzej
Bardziej szczegółowoTwierdzenie Bezouta i liczby zespolone Javier de Lucas. Rozwi azanie 2. Z twierdzenia dzielenia wielomianów, mamy, że
Twerdzene Bezouta lczby zespolone Javer de Lucas Ćwczene 1 Ustal dla których a, b R można podzelć f 1 X) = X 4 3X 2 + ax b przez f 2 X) = X 2 3X+2 Oblcz a b Z 5 jeżel zak ladamy, że f 1 f 2 s a welomanam
Bardziej szczegółowoZastosowania sieci neuronowych
Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką
Bardziej szczegółowoTemat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE
Temat: Sztuczne Sieci Neuronowe Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Sztuczne sieci neuronowe
Bardziej szczegółowoStanisław Cichocki. Natalia Nehrebecka. Wykład 6
Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Interpretacja parametrów przy zmennych objaśnających cągłych Semelastyczność 2. Zastosowane modelu potęgowego Model potęgowy 3. Zmenne cągłe za zmenne dyskretne
Bardziej szczegółowoLiteratura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu
Literatura Wykład : Wprowadzenie do sztucznych sieci neuronowych Małgorzata Krętowska Wydział Informatyki Politechnika Białostocka Tadeusiewicz R: Sieci neuronowe, Akademicka Oficyna Wydawnicza RM, Warszawa
Bardziej szczegółowoOGÓLNE PODSTAWY SPEKTROSKOPII
WYKŁAD 8 OGÓLNE PODSTAWY SPEKTROSKOPII E E0 sn( ωt kx) ; k π ; ω πν ; λ T ν E (m c 4 p c ) / E +, dla fotonu m 0 p c p hk Rozkład energ w stane równowag: ROZKŁAD BOLTZMANA!!!!! P(E) e E / kt N E N E/
Bardziej szczegółowoXXX OLIMPIADA FIZYCZNA ETAP III Zadanie doświadczalne
XXX OLIMPIADA FIZYCZNA ETAP III Zadane dośwadczalne ZADANIE D Nazwa zadana: Maszyna analogowa. Dane są:. doda półprzewodnkowa (krzemowa) 2. opornk dekadowy (- 5 Ω ), 3. woltomerz cyfrowy, 4. źródło napęca
Bardziej szczegółowoWstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.
Wstęp do teorii sztucznej inteligencji Wykład III Modele sieci neuronowych. 1 Perceptron model najprostzszy przypomnienie Schemat neuronu opracowany przez McCullocha i Pittsa w 1943 roku. Przykład funkcji
Bardziej szczegółowoTemat: Sieci neuronowe oraz technologia CUDA
Elbląg, 27.03.2010 Temat: Sieci neuronowe oraz technologia CUDA Przygotował: Mateusz Górny VIII semestr ASiSK Wstęp Sieci neuronowe są to specyficzne struktury danych odzwierciedlające sieć neuronów w
Bardziej szczegółowoWykład IX Optymalizacja i minimalizacja funkcji
Wykład IX Optymalzacja mnmalzacja funkcj Postawene zadana podstawowe dee jego rozwązana Proste metody mnmalzacj Metody teracj z wykorzystanem perwszej pochodnej Metody teracj z wykorzystanem drugej pochodnej
Bardziej szczegółowoHAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM
ZASTOSOWANIE SIECI NEURONOWYCH W SYSTEMACH AKTYWNEJ REDUKCJI HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM WPROWADZENIE Zwalczanie hałasu przy pomocy metod aktywnych redukcji hałasu polega
Bardziej szczegółowosynaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.
Sieci neuronowe model konekcjonistyczny Plan wykładu Mózg ludzki a komputer Modele konekcjonistycze Perceptron Sieć neuronowa Uczenie sieci Sieci Hopfielda Mózg ludzki a komputer Twój mózg to 00 000 000
Bardziej szczegółowoKURS STATYSTYKA. Lekcja 1 Statystyka opisowa ZADANIE DOMOWE. www.etrapez.pl Strona 1
KURS STATYSTYKA Lekcja 1 Statystyka opsowa ZADANIE DOMOWE www.etrapez.pl Strona 1 Część 1: TEST Zaznacz poprawną odpowedź (tylko jedna jest prawdzwa). Pytane 1 W statystyce opsowej mamy pełne nformacje
Bardziej szczegółowoD Archiwum Prac Dyplomowych - Instrukcja dla studentów
Kraków 01.10.2015 D Archwum Prac Dyplomowych - Instrukcja dla studentów Procedura Archwzacj Prac Dyplomowych jest realzowana zgodne z zarządzenem nr 71/2015 Rektora Unwersytetu Rolnczego m. H. Kołłątaja
Bardziej szczegółowoJakość cieplna obudowy budynków - doświadczenia z ekspertyz
dr nż. Robert Geryło Jakość ceplna obudowy budynków - dośwadczena z ekspertyz Wdocznym efektem występowana znaczących mostków ceplnych w obudowe budynku, występującym na ogół przy nedostosowanu ntensywnośc
Bardziej szczegółowoWeryfikacja hipotez dla wielu populacji
Weryfkacja hpotez dla welu populacj Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Intelgencj Metod Matematycznych Wydzał Informatyk Poltechnk Szczecńskej 5. Parametryczne testy stotnośc w
Bardziej szczegółowoREALIZACJA PRZETWARZANIA W CHMURZE OBLICZENIOWEJ NA PRZYKŁADZIE SYSTEMU UCZENIA SIECI NEURONOWEJ OPARTEGO NA TECHNOLOGII MICROSOFT WINDOWS AZURE
STUDIA INFORMATICA 2012 Volume 33 Number 2A (105) Darusz R. AUGUSTYN, Kaml BADURA Poltechnka Śląska, Instytut Informatyk REALIZACJA PRZETWARZANIA W CHMURZE OBLICZENIOWEJ NA PRZYKŁADZIE SYSTEMU UCZENIA
Bardziej szczegółowoModelowanie i obliczenia techniczne. Metody numeryczne w modelowaniu: Optymalizacja
Modelowane oblczena technczne Metody numeryczne w modelowanu: Optymalzacja Zadane optymalzacj Optymalzacja to ulepszane lub poprawa jakośc danego rozwązana, projektu, opracowana. Celem optymalzacj jest
Bardziej szczegółowoWstęp do metod numerycznych Faktoryzacja SVD Metody iteracyjne. P. F. Góra
Wstęp do metod numerycznych Faktoryzacja SVD Metody teracyjne P. F. Góra http://th-www.f.uj.edu.pl/zfs/gora/ 2013 Sngular Value Decomposton Twerdzene 1. Dla każdej macerzy A R M N, M N, stneje rozkład
Bardziej szczegółowoMetody analizy obwodów
Metody analzy obwodów Metoda praw Krchhoffa, która jest podstawą dla pozostałych metod Metoda transfguracj, oparte na przekształcenach analzowanego obwodu na obwód równoważny Metoda superpozycj Metoda
Bardziej szczegółowo7.8. RUCH ZMIENNY USTALONY W KORYTACH PRYZMATYCZNYCH
WYKŁAD 7 7.8. RUCH ZMIENNY USTALONY W KORYTACH PRYZMATYCZNYCH 7.8.. Ogólne równane rucu Rucem zmennym w korytac otwartyc nazywamy tak przepływ, w którym parametry rucu take jak prędkość średna w przekroju
Bardziej szczegółowoCAŁKOWANIE NUMERYCZNE całki pojedyncze
CAŁKOWANIE NUMERYCZNE całk pojedyncze Kwadratury nterpolacyjne Kwadratury nterpolacyjne Rozpatrujemy funkcję f() cągłą ogranczoną w przedzale domknętym [a, b]. Przedzał [a, b] dzelmy na skończoną lczbę
Bardziej szczegółowoStatystyka. Zmienne losowe
Statystyka Zmenne losowe Zmenna losowa Zmenna losowa jest funkcją, w której każdej wartośc R odpowada pewen podzbór zboru będący zdarzenem losowym. Zmenna losowa powstaje poprzez przyporządkowane każdemu
Bardziej szczegółowo(M2) Dynamika 1. ŚRODEK MASY. T. Środek ciężkości i środek masy
(MD) MECHANIKA - Dynamka T. Środek cężkośc środek masy (M) Dynamka T: Środek cężkośc środek masy robert.szczotka(at)gmal.com Fzyka astronoma, Lceum 01/014 1 (MD) MECHANIKA - Dynamka T. Środek cężkośc środek
Bardziej szczegółowo( ) ( ) 2. Zadanie 1. są niezależnymi zmiennymi losowymi o. oraz. rozkładach normalnych, przy czym EX. i σ są nieznane. 1 Niech X
Prawdopodobeństwo statystyka.. r. Zadane. Zakładamy, że,,,,, 5 są nezależnym zmennym losowym o rozkładach normalnych, przy czym E = μ Var = σ dla =,,, oraz E = μ Var = 3σ dla =,, 5. Parametry μ, μ σ są
Bardziej szczegółowoProcedura normalizacji
Metody Badań w Geograf Społeczno Ekonomcznej Procedura normalzacj Budowane macerzy danych geografcznych mgr Marcn Semczuk Zakład Przedsęborczośc Gospodark Przestrzennej Instytut Geograf Unwersytet Pedagogczny
Bardziej szczegółowo11/22/2014. Jeśli stała c jest równa zero to takie gry nazywamy grami o sumie zerowej.
/22/24 Dwuosobowe gry o sume zero DO NAUCZENIA I ZAPAMIĘTANIA: Defnca zaps ger o sume zero, adaptaca ogólnych defnc. Punkt sodłowy Twerdzena o zwązkach punktu sodłowego z koncepcam rozwązań PRZYPOMNIENIE:
Bardziej szczegółowo