Sieci Neuronowe 1 Michał Bereta

Wielkość: px
Rozpocząć pokaz od strony:

Download "Sieci Neuronowe 1 Michał Bereta"

Transkrypt

1 Wprowadzene Zagadnena Sztucznej Intelgencj laboratorum Sec Neuronowe 1 Mchał Bereta Sztuczne sec neuronowe można postrzegać jako modele matematyczne, które swoje wzorce wywodzą z bolog obserwacj ludzkch komórek nerwowych. Perwszy model neuronu został zaproponowany w 1943 roku przez McCullocha Pttsa. Był to prosty neurony, który mógł modelować funkcje logczne take jak OR lub AND. W 1958 roku Rosenblatt zaproponował model perceptronu, a w roku 1960 powstał model ADALINE autorstwa Wdrowa Hoffa. Model bologcznej komórk nerwowej pokazano na rysunku 1. Rysunek 1: Model komórk nerwowej. Do każdego neuronu dochodzą pewne sygnały (bodźce). Są one doprowadzane za pomocą synaps. Bodźce pochodzące od synaps wywoływane są przez specjalne substancje chemczne, zwane neuromedatoram. Zmana potencjału elektrycznego komórk zależna jest od lośc neuromedatora w synapse. Sygnał wyjścowy jest wyprowadzany z komórk za pomocą aksonu. Sygnały wyjścowe neuronów mogą być sygnałam wejścowym nnych neuronów. Sygnałam pobudzającym neurony mogą być także sygnały pochodzące z receptorów nerwowych. Podstawowe pojęca defncje Na podstawe bologcznego modelu z rysunku 1, McCulloch Ptts, zaproponowal model matematyczny sztucznego neuronu (rysunek 2).Sygnały dochodzące do neuronu (x 1, x 2,...x N ) mnożone są przez tzw. wag w j ( - numer neuronu; j - numer wag). Parametr k oznacza chwle czasową. Dodatkowy sygnał jednostkowy nazwano basem. Na podstawe wag dochodzących sygnałów oblczany jest stan wewnętrzny neuronu u

2 Wzór 1: Aktywacja perceptronu (sumacja ważona). Rysunek 2: Model sztucznego neuronu McCullocha-Pttsa. Natomast odpowedź neuronu y zależy od tego czy stan wewnętrzny neuronu (jego pobudzene) przekracza pewen pozom. Odpowada za to funkcja aktywacj f(u ), która w modelu McCullocha-Pttsa jest funkcją progową. Wzór 2: Unpolarna funkcja aktywacj perceptonu. Najczęścej stosowanym funkcjam aktywacj neuronu są (oprócz funkcj lnowej) funkcja sgmodalna oraz tangens hperbolczny (rysunek 3). + N j j j k w k x k w k u 1 0 ) ( ) ( ) ( ) ( > ) ( u u u f

3 Rysunek 3: Funkcje aktywacj: sgmodalna tangens hperbolczny. Parametr β pozwala wpływać na kształt funkcj. Popularność tych funkcj spowodowana jest łatwoścą oblczana ch pochodnych, co jest koneczne przy użycu algorytmów uczena opartych na podejścu gradentowym. Wartośc pochodnych dla powyższych funkcj łatwo oblczyć znając jedyne wartośc samych funkcj. Stan wewnętrzny (pobudzene neuronu) tak jak poprzedno oblcza sę sumując z wagam sygnały wejścowe neuronu: u ( N j 1 w ( x ( j j + w 0 ( Sygnał wyjścowy neuronu jest wylczany za pomocą funkcj aktywacj sgmodalnej, tanh lub nnej, która jako argument przyjmuje stopeń pobudzena neuronu (rysunek 4). Rysunek 4: Model sztucznego neuronu z nelnową funkcją aktywacj.

4 Sztuczna seć neuronowa Sztuczną seć neuronowa uzyskuje sę łącząc ze sobą warstwy neuronów. Na rysunku 5 pokazano model sec welowarstwowej. Rysunek 5: Model sec z dwema warstwam. Na rysunku 5 przedstawono seć neuronową dwuwarstwową.. Wdać, że sygnały wyjścowe warstwy perwszej są jednocześne sygnałam wejścowym neuronów warstwy drugej, która jest jednocześne warstwą wyjścową sec, tzn. odpowedz neuronów tej warstwy określają odpowedź całej sec. Dodawane nowych warstw powoduje, że seć ma wększą moc oblczenową. W wynku wykorzystana welu warstw, seć potraf poradzć sobe z problemam, które mają charakter nelnowy, czego ne jest w stane dokonać seć jednowarstwowa. Uczene sec Uczene pod nadzorem. Uczene sec jest to proces doboru odpowednego zestawu wag danej sec, dla danego konkretnego zadan. W zasadze stneją dwe metody uczena sec: bez nauczycela z nauczycelem (pod nadzorem)- rysunek 6. Rysunek 6: Schemat uczena pod nadzorem. W metodze uczena pod nadzorem na wejśca sec podaje sę sygnały x. Seć odpowada sygnałam y, które są wyjścam poszczególnych neuronów. Nauczycel, wedząc jake sygnały są pożądane (sygnały d) na wyjścu sec dla każdego sygnału x, porównuje je z aktualną odpowedzą sec, po czym modyfkuje wag neuronów z uwzględnenem znanego błędu e sec. Dobór odpowednch wag odpowada procesow mnmalzacj funkcj błędu, którą można zapsać jako:

5 E N 1 ( y ( d ( ) 2 gdze N to lczba neuronów w warstwe wyjścowej sec (sumowane są błędy wszystkch neuronów wyjścowych). Sumaryczny błąd uwzględnający wszystke prezentowane sec wzorce (lub ch część) można zapsać jako: E N 1 p k 1 ( y ( d ( ) 2 Błąd ten jest równy sume błędów wszystkch neuronów (sumowane po ) ze względu na wszystke prezentowane m dane uczące (sumowane po. Modyfkacja wag odbywa sę według wzoru: w ( k + 1) w ( + w ( j j j gdze oznacza numer neuronu, j oznacza kolejną wagę tego neuronu, a k oznacza krok czasowy. Konkretna wartość wj zależy od przyjętego algorytmu uczena. Do uczena sec często używa sę metod gradentowych oblczając gradent funkcj błędu a następne modyfkując wartośc wag w kerunku najwększego spadku funkcj błędu. Do doboru wartośc wag wykorzystuje sę równeż algorytmy genetyczne. Uczene bez nadzoru. Nektóre rodzaje sec neuronowych, jak na przykład sec Hebba czy Kohonena, uczone są bez wykorzystana zboru wzorcowych odpowedz. Seć uczona jest za pomocą jedyne danych wejścowych. Sec tego typu wykorzystywane są mn. w zadanach klasteryzacj (grupowana). Klasteryzacja to dzelene danego zboru danych na podzbory, których elementy maja pewne cechy wspólne. Zastosowane sec neuronowych Sztuczne sec neuronowe stosuje sę do takch zagadneń jak: - klasyfkacja danych - aproksymacja funkcj - predykcja szeregów czasowych - rozpoznawane wzorców - kompresja danych Podstawowe modele sec neuronowych Perceptron prosty Model McCullocha-Pttsa przedstawony na rysunku 2 jest punktem wyjśca do konstrukcj najprostszej sztucznej sec neuronowej o nazwe perceptron (zwanej równeż perceptronem prostym). Zadanem perceptronu prostego jest klasyfkacja podanego na wejśce wektora x do jednej z dwoch klas L 1 lub L 2. Jeśl sygnał wyjścowy neuronu przyjmuje wartość 1 to wektor x jest zaklasyfkowany do klasy L 1, jeśl przyjmuje wartość 0 do klasy L 2. Zatem perceptron dzel N-wymarową przestrzeń wektorów wejścowych na dwe półprzestrzene rozdzelone N-1 wymarową hperpłaszczyzną. Hperpłaszczyzna ta zwana jest powerzchną (grancą) decyzyjną. Jeśl N2 to jest to lna prosta. Aby zbór danych wejscowych mógł by oddzelony przez hperpłaszczyznę, mus być lnowo separowalny. Neznane wartośc wag doberane są w procese uczena perceptronu. Reguła uczena perceptronu Jeśl na wejśce neuronu podawane są wektory x[1,x 1, x 2,...], seć odpowada sygnałem y, a żądana odpowedź jest równa d, to wektor wag w[w 0,w 1,w 2,...] jest modyfkowany zgodne z ponższym zasadam:

6 - jeśl yd to wag pozostają nezmenone (wektor x został prawdłowo zaklasyfkowany) - jeśl y0 a d1 to w j (k+1) w j ( +η* x j - jeśl y1 a d0 to w j (k+1) w j ( η*x j gdze η jest krokem korekcj. Procedurę tę powtarza sę dla wszystkch danych uczących (x,d) welokrotne. Krok te można zapsać łączne jako w j (k+1) w j ( + η*(d-y)*x j Zadane do wykonana: Uczene perceptronu Należy pobrać ze strony demonstracyjny program PerceptronDemo. Zaobserwować jak dwe klasy lnowo separowane są oddzelone przez powerzchnę decyzyjną (lnę prostą w tym przypadku). Uczony perceptron ma bpolarną (odpowada wartoścam 1 lub -1) funkcje aktywacj. W trakce wykonywana programu, dane uczące mogą być modyfkowane poprzez ch przecągane z przycśnętym lewym przycskem myszk. Po klknęcu przytrzymanu prawego przycsku myszk, wag perceptronu zostaną ustawone na losowe wartośc, tak aby proces uczena mógł zacząć se ponowne. Okno programu predstawa wycnek płaszczyzny 2d o wymarach [0 ; 1] x [0 ; 1], punkt (0,0) znajduje sę w lewym dolnym rogu. Rysunek 7: Program PerceptronDemo Po uruchomenu programu na okne konsol są wdoczne wartośc parametrów, z jakm program został uruchomony. Są to: krok korekcj η (eta) oraz flaga wskazująca czy w trakce nauk używany jest bas. Parametry te moża ustawć w trakce uruchamana programu z ln poleceń, np: PerceptronDemo Perwszy parametr to krok korekcj, drug wskazuje, czy użyć ( 1 ) czy ne użyć ( 0 ) basu w uczonym perceptrone. Znaczene basu Bas spełna w perceptrone ważną rolę. Rozważmy to na przykładze. Na płaszczyźne wzór na powerzchnę decyzyjną perceptronu można przedstawć jako:

7 w1 x w2 y w00 gdze w0 jest basem. Jeśl wyznaczymy zależność y względem x, otrzymamy: y w1/ w2 x w0/ w2 Jest to znany wzór na prostą typu: ya x b Wadomo, że a jest współczynnkem kerunkowym prostej (tangens kąta mędzy tą prostą a osą x), natomast b wyznacza punkt przecęca przez prostą os y. Zwróćmy uwagę, że jeśl bas jest równy zero, to b równeż bedze zero. Jeśl węc nasz perceptron ne będze używał basu, będze on mógł wyznaczać grance decyzyjne w postac prostych przechodzących przez początek układu współrzędnych (w przypadku wększej lczby wymarów sytuacja jest analogczna). Ne będze wec mógł wyznaczać dowolnego podzału przestrzen an nauczyć se dobrze klasyfkować danych z dwóch klas, nawet jeśl te klasy są lnowo separowalne (tzn. stneje taka prosta hperpłaszczyzna która je oddzela). Na rysunku ponżej wdać przykład dwóch klas, których perceptron bez basu ne jest w stane sę nauczyć można to poznać po tym, ze każda lna reprezentująca wag perceptronu, przechodz przez punkt (0,0), czyl lewy dolny róg okna programu. Rysunek 8: Przykład danych lnowo separowalnych, ktorych ne może nauczyć sę perceptron bez basu. Pytana: 1. Czy w przypadku danych uczących, które ne są lnowo separowalne, perceptron jest w stane sę odpowedno nauczyć klasyfkować dane? Dlaczego? Przygotuj przedstaw take dane. 2. Przyglądnj sę procesow nauk perceptronu dla różnych wartośc parametru eta. Jak zależy proces uczena od wartośc tego parametru? 3. Uruchom program bez wykorzystana basu pokaż na przykładze danych, które są lnowo separowalne, że perceptron bez basu mmo tego ne daje rady sę ch nauczyć.

8 4. Zapsz regułę uczena perceptronu dla zastosowanej w programe bpolarnej funkcj aktywacj perceptronu. Układy typu ADALINE Układ typu ADALINE (ang. Adaptve Lnear Neuron) został zaproponowany w 1960 roku przez Wdrowa Hoffa. Nazywany jest równeż adaptacyjnym lnowym sumatorem ważonym. Model ważonego sumatora lnowego jest przedstawony na rysunku 9. Rysunek 9: Schemat modelu ADALINE. - Algorytm modyfkacj wag ma charakter uczena pod nadzorem. Sygnał wyjścowy y sumatora porównywany jest z sygnałem wzorcowym d. Uzyskany w ten sposób błąd sumatora wykorzystany jest do zmodyfkowana wartośc wag zgodne ze wzorem: T w( k + 1) w( + η x( [ d( w ( x( ] Parametr eta jest jak poprzedno krokem korekcj. Algorytm ten realzuje uczene pod nadzorem należy do klasy algorytmów gradentowych, gdyż mnmalzuje funkcję błędu neuronu wyrażoną wzorem: E ( d( y ( ) 2 dla k-tego wzorca uczącego. W zależnośc od przyjętej metody uczena, adaptacj wag dokonywać można po prezentowanu każdej pary uczącej, lub też po prezentacj wszystkch par danych uczących. W drugm przypadku mnmalzowaną funkcję błędu można zapsać jako: E p k 1 ( y( d( ) 2 Oblczając gradent funkcj błędu względem wag otrzymuje sę: E w( 2[ d( w T ( x( ] x( Gradent wyznacza kerunek najwększego wzrostu wartośc funkcj, modyfkacj wag dokonuje sę zatem w

9 przecwnym kerunku, czyl kerunku najwększego spadku. Adaptacyjny lnowy sumator ważony z nelnową funkcją aktywacj. W przypadku zastosowana nelnowej funkcj aktywacj zgodne z rysunkem 10, koneczne jest zmodyfkowane wzoru modyfkacj wag. Wynka to z nnej postac gradentu funkcj błędu. Gradent funkcj błędu wynos: E w( 2 f '( y( ) x( [ d( y( ] Pojawa sę pochodna funkcj aktywacj. Wzór na modyfkację wartośc wag przyjmuje postać: w( k + 1) w( + η x( [ d( y( ] f '( y( ) Rysunek 10 Schemat sumatora ważonego z nelnową funkcją aktyacj. Wartość pochodnej dla danej nelnowej funkcj aktywacj, często można wylczyć na podstawe wartośc samej funkcj. Przykładowo, dla funkcj sgmodalnej z parametrem beta równym 1, wartość pochodnej określa wzór: f '( x) f ( x)(1 f ( x)) W przypadku welu sumatorów (neuronów) połączonych w jedną warstwę, wag każdego neuronu modyfkuje sę osobno zgodne z podanym wzoram. Algorytm wstecznej propagacj błędów W przypadku sec welowarstwowych najczęścej stosowanym algorytmem uczena jest algorytm wstecznej propagacj błędów. Jego nazwa pochodz stąd, ż po oblczenu odpowedz sec na zadany wzorzec, oblczana jest wartość gradentu funkcj błędu dla neuronów ostatnej warstwy. Następne modyfkuje sę ch wag. Błąd jest propagowany do warstwy wcześnejszej (przedostatnej). Wartośc funkcj gradentu dla neuronów z tej warstwy oblczane są w oparcu o gradenty dla neuronów z warstwy następnej (czyl ostatnej). Modyfkowane są wag kolejnej warstwy. Postępowane trwa aż do warstwy wejścowej. Istneje wele warantów ulepszeń orygnalnej metody wstecznej propagacj błędów. Pozwalają one uzyskać lepsze efekty uczena lub przyśpeszyć proces nauk.

10 Zależność efektów uczena sec od jej archtektury Udowodnono, że perceptron welowarstwowy jest doskonałym aproksymatorem, tzn. może nauczyć sę dowolnego odwzorowana (węc równeż aproksymować dowolną funkcję) pod warunkem, że posada odpowedną lczbę neuronów. Dobór odpowednej struktury sec neuronowej, dostosowanej do danego problemu, jest zadanem trudnym. Zły dobór parametrów sec powoduje, że seć ne może sę dobrze nauczyć odpowednego odwzorowana, lub też charakteryzuje sę złą zdolnoścą generalzacj, czyl źle radz sobe z danym, których wcześnej ne wdzała (tzn. których ne użyto w trakce uczena sec). Przykładowo, na rysunku 11 wdzmy seć dobrze aproksymującą zadaną funkcję: Rysunek 11. Dobrze odwzorowana funkcja. Danym uczącym seć były punkty oznaczone krzyżykam. Wdać, że seć odpowada równeż dobrze w punktach, które ne zostały jej zaprezentowane w czase nauk. Jednak ne zawsze nam sę udaje tak dobrze nauczyć sec. Na rysunku 12 wdzmy przypadek, gdy seć została przeuczona charakteryzuje sę złą zdolnoścą uogólnana: Rysunek 12. Przeuczona seć. Jednak jeśl na przykład użyjemy zbyt małej lczby neuronów, seć będze nedouczona (ne poradz sobe z zadanym problemem, będze mała zbyt małą moc oblczenową) rysunek 13.

11 Rysunek 13 Nedouczona seć. Podczas uczena sec dla danego zadana należy określć: - archtekturę sec - algorytm uczena jego parametry, - dobór danych uczących ch obróbkę wstępną - lczbę prezentacj (teracj) danych uczących (moment zakończena nauk) - metodę oceny jakośc sec - początkowe wartośc wag td. Symulacja układu logcznego XOR Operacja logczna XOR przyjmuje dwa parametry bnarne odpowada równeż wartoścą 0 lub 1. Ponższa tabelka przedstawa odpowedz funkcj XOR dla wszystkch możlwych danych wejścowych: X Y XOR Problem polega na odwzorowanu tej funkcj za pomocą sec neuronowej (rysunek 14). Rysunek 14. Problem XOR. Wejścam dla sec są wartośc logczne X oraz Y, natomast na wyjścu pojawa sę wartość funkcj XOR dla podanych argumentów. Rozpatrywana seć ma dwa sygnały wejścowe jeden wyjścowy. Ne można jednak rozwązać tego problemu za pomocą jednego neuronu o dwóch wejścach (plus bas), gdyż może on

12 wygenerować jedyne hperpłaszczyznę, tj. lnę prostą, dowolne przysunętą. Jedną lną ne można oddzelć odpowedno od sebe argumentów funkcj XOR (czyl tych, które dają w wynku 1 od tych które dają w wynku 0). Dla rozwązana tego klasycznego problemu potrzebna jest seć z co najmnej dwema warstwam. Model tak pokazano na rysunku 15. Rysunek 15. Seć rozwązująca problem XOR. Rozpatrywana seć dokonuje odpowednego nelnowego podzału wykorzystując dwe hperpłaszczyzny, jak pokazano na rysunku 16: Rysunek 16. Rozwązane zadana XOR. Środowsko JOONE Do dalszej pracy wykorzystamy środowsko JOONE (Java Object Orented Neural Engne). Jest ono dostępne pod adresem Daje ono szeroke możlwośc konstruowana testowana różnorodnych archtektur sec neuronowych w zastosowanu do szeregu problemów. Na rysunku 17 przedstawono nterfejs środowska.

13 Rysunek 17: JOONE (Java Object Orented Neural Engne). W celu rozwązana problemu XOR oraz zapoznana sę z Joone przed przystąpenem do bardzej skomplkowanych zadań, skonstruujemy seć neuronową typu welowarstwowego perceptronu, która pownna rozwązać ten problem. Tak jak zostało pokazane wcześnej, nasza seć mus meć warstwę ukrytą wyjścową. W Joone będze jeszcze dodatkowa warstwa wejścowa, której zadanem będze jedyne doprowadzane sygnałów wejścowych do warstwy ukrytej. Podstawowym elementam, z których budujemy seć w Joone jest warstwa (ang. Layer). Przyjrzyj sę panelow Joone znajdź na toolbarze odpowedne przycsk: NewLnearLayer, NewSgmodLayer. Nastepne dodaj trzy warstwy tak jak ponżej: Perwsza warstwa pownna meć dwa neurony (parametr rows; w warstwe wejścowej jest tyle neuronow, le jest wymarów danych wejścowych), druga warswa (warstwa ukryta) jest warstwą neuronów z sgmodalnym funkcjam aktywacj posada dwa neurony, warstwa wyjścowa ma jeden lnowy neuron. Przecągając lnę mędzy warstwam, połącz warstwy w tak sposób, aby otrzymać następującą strukturę:

14 Każdy neuron z danej warstwy został połączony z każdym neuronem warstwy następnej. Struktura sec jest gotowa. Teraz przygotujemy dane uczące. Stwórz plk tekstowy xor.data z następującą zawartoścą: 0.0;0.0; ;1.0; ;0.0; ;1.0;0.0 Dwe perwsze kolumny reprezentują dane wejścowe, trzeca kolumna to wzorcowe odpowedz. Dodaj w edytorze strumeń wejścowy z plku: NewFleInputLayer. Klknj na nego prawym przycskem myszy ustaw jego właścwośc (p. rysunek ponżej): Advanced Column Selector: 1,2 flename: xor.data Co oznacza, ze dane wejścowe to kolumny 1 oraz 2. Połącz dane wejścowe z warstwą wejścowa. Dodajemy nauczycela, który bedze czuwał nad procesem uczena. Dodaj NewTeacherLayer oraz jeszcze jeden NewFleInputLayer. Ustaw właścwośc nowej warstwy FleInput na: Advanced Column Selector: 3 flename: xor.data Znaczy to, że wzorcowym danym wyjścwoym sec są dane z trzecej kolumny plku xor.data. Połącz nowe elementy jak na rysunku ponżej.

15 Seć jest gotowa do nauk. Otwórz Tools->ControlPanel ustaw wartośc na: learnng: True learnngrate: 0.8 momentum: 0.3 epochs: tranng patterns: 4 Klknj Run. Obserwuj, jak błąd średnokwadratowy (RMSE) maleje.

16 Czas przetestować seć. Dodaj do edytora NewFleOutputLayer ustaw jego włąscwośc jak na rysunku. Ustaw właścwość Teacher enabled na false. Następne przejdź do ControlPanel ustaw: learnng: False epochs: 1 tranng patterns: 4 Zawartość plku xor_results.data pownna wyglądać mnej wecej następująco: Wdać, że seć nauczyła sę odpowadać odpowednm wartoścam (blskm 1 lub blskm 0) na odpowedne dane wejścowe. Porównaj otrzymane odpowedz z odpowedzam wzorcowym dla problemu XOR. Nauczonż seć można zapsać wyberając Fle->Save. Zadana: 1. Sprawdź, że rzeczywśce seć posadająca jeden neuron w warstwe ukrytej ne jest w stane nauczyć se problemu xor. Po czym można to poznać? 2. Przetestuj proces uczena sec dla różnych ustaweń parametrów uczena: learnngrate, momentum, lczba teracj (epochs). Do lu teracj warto uczyć seć (do kedy błąd spada)? 3. Co sę stane jeśl zwekszymy lbczę neuronów ukrytych na 3, 4, 5, 6 td. Czy przyśpeszy to proces uczena lub zmnejszy błąd? Zawsze?

17 4. Powtórz poprzedne zadana z wykorzystanem warstwy ukrytej z neuronam typu lnowego. Czy stneje zauważalna rożnca w porównanu do zastosowanych wczesnej neuronów typu sgmodalnego? 5. Dla jakej archtektury sec błąd był najmnejszy? Po jakej lczbe teracj z jakm parametram? Przedstaw dane w tablekach. 6. Czy problemy logczne AND oraz OR są problemam lnowo separowalnym? Przygotuj odpowedne dane uczące sprawdz swoje przypuszczena powtarzając eksperymenty dla tych nowych danych. Odpowedź usasadnj posłkując sę wynkam. Wszystke wnosk spostrzeżena poprzyj w sprawozdanu wynkam przeprowadzonych oblczeń symulacj, jak równeż przedstaw przeprowadzane eksperymenty badane sec na rysunkach ( screenach ). Wynk przedstaw w opsanych tabelkach.

Neural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych.

Neural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych. Neural networks Lecture Notes n Pattern Recognton by W.Dzwnel Krótka hstora McCulloch Ptts (1943) - perwszy matematyczny ops dzalana neuronu przetwarzana przez nego danych. Proste neurony, które mogly

Bardziej szczegółowo

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311 Sztuczne sec neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyk, p. 311 Wykład 6 PLAN: - Repetto (brevs) - Sec neuronowe z radalnym funkcjam bazowym Repetto W aspekce archtektury: zajmowalśmy

Bardziej szczegółowo

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych Zaawansowane metody numeryczne Komputerowa analza zagadneń różnczkowych 1. Układy równań lnowych P. F. Góra http://th-www.f.uj.edu.pl/zfs/gora/ semestr letn 2006/07 Podstawowe fakty Równane Ax = b, x,

Bardziej szczegółowo

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB Rozwązywane zadań optymalzacj w środowsku programu MATLAB Zagadnene optymalzacj polega na znajdowanu najlepszego, względem ustalonego kryterum, rozwązana należącego do zboru rozwązań dopuszczalnych. Standardowe

Bardziej szczegółowo

Zapis informacji, systemy pozycyjne 1. Literatura Jerzy Grębosz, Symfonia C++ standard. Harvey M. Deitl, Paul J. Deitl, Arkana C++. Programowanie.

Zapis informacji, systemy pozycyjne 1. Literatura Jerzy Grębosz, Symfonia C++ standard. Harvey M. Deitl, Paul J. Deitl, Arkana C++. Programowanie. Zaps nformacj, systemy pozycyjne 1 Lteratura Jerzy Grębosz, Symfona C++ standard. Harvey M. Detl, Paul J. Detl, Arkana C++. Programowane. Zaps nformacj w komputerach Wszystke elementy danych przetwarzane

Bardziej szczegółowo

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Wykład 2: Uczenie nadzorowane sieci neuronowych - I Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za

Bardziej szczegółowo

Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba

Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 1 Ćwczene 2: Perceptron WYMAGANIA 1. Sztuczne sec neuronowe budowa oraz ops matematyczny perceptronu (funkcje przejśca perceptronu), uczene perceptronu

Bardziej szczegółowo

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia

Bardziej szczegółowo

Zaawansowane metody numeryczne

Zaawansowane metody numeryczne Wykład 9. jej modyfkacje. Oznaczena Będzemy rozpatrywać zagadnene rozwązana następującego układu n równań lnowych z n newadomym x 1... x n : a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x

Bardziej szczegółowo

KURS STATYSTYKA. Lekcja 6 Regresja i linie regresji ZADANIE DOMOWE. www.etrapez.pl Strona 1

KURS STATYSTYKA. Lekcja 6 Regresja i linie regresji ZADANIE DOMOWE. www.etrapez.pl Strona 1 KURS STATYSTYKA Lekcja 6 Regresja lne regresj ZADANIE DOMOWE www.etrapez.pl Strona 1 Część 1: TEST Zaznacz poprawną odpowedź (tylko jedna jest prawdzwa). Pytane 1 Funkcja regresj I rodzaju cechy Y zależnej

Bardziej szczegółowo

SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW

SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW Stefan WÓJTOWICZ, Katarzyna BIERNAT ZAKŁAD METROLOGII I BADAŃ NIENISZCZĄCYCH INSTYTUT ELEKTROTECHNIKI ul. Pożaryskego 8, 04-703 Warszawa tel.

Bardziej szczegółowo

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Wykład 2: Uczenie nadzorowane sieci neuronowych - I Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za

Bardziej szczegółowo

Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE

Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE Inormatyka Podstawy Programowana 06/07 Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE 6. Równana algebraczne. Poszukujemy rozwązana, czyl chcemy określć perwastk rzeczywste równana:

Bardziej szczegółowo

Laboratorium ochrony danych

Laboratorium ochrony danych Laboratorum ochrony danych Ćwczene nr Temat ćwczena: Cała skończone rozszerzone Cel dydaktyczny: Opanowane programowej metody konstruowana cał skończonych rozszerzonych GF(pm), poznane ch własnośc oraz

Bardziej szczegółowo

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe Sztuczne sec neuronowe Jerzy Stefanowsk Plan wykładu 1. Wprowadzene 2. Model sztucznego neuronu. 3. Topologe sec neuronowych 4. Reguły uczena sec neuronowych. 5. Klasyfkaca sec neuronowych. 6. Sec warstwowe

Bardziej szczegółowo

Analiza danych OGÓLNY SCHEMAT. http://zajecia.jakubw.pl/ Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja)

Analiza danych OGÓLNY SCHEMAT. http://zajecia.jakubw.pl/ Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja) Analza danych Dane trenngowe testowe. Algorytm k najblższych sąsadów. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ OGÓLNY SCHEMAT Mamy dany zbór danych podzelony na klasy decyzyjne, oraz

Bardziej szczegółowo

WikiWS For Business Sharks

WikiWS For Business Sharks WkWS For Busness Sharks Ops zadana konkursowego Zadane Opracowane algorytmu automatyczne przetwarzającego zdjęce odręczne narysowanego dagramu na tablcy lub kartce do postac wektorowej zapsanej w formace

Bardziej szczegółowo

Klasyfkator lnowy Wstęp Klasyfkator lnowy jest najprostszym możlwym klasyfkatorem. Zakłada on lnową separację lnowy podzał dwóch klas mędzy sobą. Przedstawa to ponższy rysunek: 5 4 3 1 0-1 - -3-4 -5-5

Bardziej szczegółowo

KRZYWA BÉZIERA TWORZENIE I WIZUALIZACJA KRZYWYCH PARAMETRYCZNYCH NA PRZYKŁADZIE KRZYWEJ BÉZIERA

KRZYWA BÉZIERA TWORZENIE I WIZUALIZACJA KRZYWYCH PARAMETRYCZNYCH NA PRZYKŁADZIE KRZYWEJ BÉZIERA KRZYWA BÉZIERA TWORZENIE I WIZUALIZACJA KRZYWYCH PARAMETRYCZNYCH NA PRZYKŁADZIE KRZYWEJ BÉZIERA Krzysztof Serżęga Wyższa Szkoła Informatyk Zarządzana w Rzeszowe Streszczene Artykuł porusza temat zwązany

Bardziej szczegółowo

Metody Sztucznej Inteligencji II

Metody Sztucznej Inteligencji II 17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału

Bardziej szczegółowo

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa

Bardziej szczegółowo

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych Najprostsza jest jednostka lnowa: Neuron lnowy potraf ona rozpoznawać wektor wejścowy X = (x 1, x 2,..., x n ) T zapamętany we współczynnkach wagowych W = (w 1, w 2,..., w n ), Zauważmy, że y = W X Załóżmy,

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 15. ALGORYTMY GENETYCZNE Częstochowa 014 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska TERMINOLOGIA allele wartośc, waranty genów, chromosom - (naczej

Bardziej szczegółowo

Sieci Neuronowe 2 Michał Bereta

Sieci Neuronowe 2 Michał Bereta Zagadnena Sztucznej Intelgencj laboratorum Sec Neuronowe 2 Mchał Bereta Cele laboratorum: zapoznane sę z nowym rodzajam sec neuronowych: secam Kohonena oraz secam radalnym porównane sec Kohonena oraz sec

Bardziej szczegółowo

STATECZNOŚĆ SKARP. α - kąt nachylenia skarpy [ o ], φ - kąt tarcia wewnętrznego gruntu [ o ],

STATECZNOŚĆ SKARP. α - kąt nachylenia skarpy [ o ], φ - kąt tarcia wewnętrznego gruntu [ o ], STATECZNOŚĆ SKARP W przypadku obektu wykonanego z gruntów nespostych zaprojektowane bezpecznego nachylena skarp sprowadza sę do przekształcena wzoru na współczynnk statecznośc do postac: tgφ tgα = n gdze:

Bardziej szczegółowo

wiedzy Sieci neuronowe

wiedzy Sieci neuronowe Metody detekcji uszkodzeń oparte na wiedzy Sieci neuronowe Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 7 Wprowadzenie Okres kształtowania się teorii sztucznych sieci

Bardziej szczegółowo

Analiza rodzajów skutków i krytyczności uszkodzeń FMECA/FMEA według MIL STD - 1629A

Analiza rodzajów skutków i krytyczności uszkodzeń FMECA/FMEA według MIL STD - 1629A Analza rodzajów skutków krytycznośc uszkodzeń FMECA/FMEA według MIL STD - 629A Celem analzy krytycznośc jest szeregowane potencjalnych rodzajów uszkodzeń zdentyfkowanych zgodne z zasadam FMEA na podstawe

Bardziej szczegółowo

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe JOANNA GRABSKA-CHRZĄSTOWSKA Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA BUDOWA RZECZYWISTEGO NEURONU

Bardziej szczegółowo

Portfele zawierające walor pozbawiony ryzyka. Elementy teorii rynku kapitałowego

Portfele zawierające walor pozbawiony ryzyka. Elementy teorii rynku kapitałowego Portel nwestycyjny ćwczena Na podst. Wtold Jurek: Konstrukcja analza rozdzał 5 dr chał Konopczyńsk Portele zawerające walor pozbawony ryzyka. lementy teor rynku kaptałowego 1. Pożyczane penędzy amy dwa

Bardziej szczegółowo

I. Elementy analizy matematycznej

I. Elementy analizy matematycznej WSTAWKA MATEMATYCZNA I. Elementy analzy matematycznej Pochodna funkcj f(x) Pochodna funkcj podaje nam prędkość zman funkcj: df f (x + x) f (x) f '(x) = = lm x 0 (1) dx x Pochodna funkcj podaje nam zarazem

Bardziej szczegółowo

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,

Bardziej szczegółowo

Wprowadzenie do Sieci Neuronowych Sieci rekurencyjne

Wprowadzenie do Sieci Neuronowych Sieci rekurencyjne Wprowadzene do Sec Neuronowych Sec rekurencyjne M. Czoków, J. Persa 2010-12-07 1 Powtórzene Konstrukcja autoasocjatora Hopfelda 1.1 Konstrukcja Danych jest m obrazów wzorcowych ξ 1..ξ m, gdze każdy pojedynczy

Bardziej szczegółowo

2012-10-11. Definicje ogólne

2012-10-11. Definicje ogólne 0-0- Defncje ogólne Logstyka nauka o przepływe surowców produktów gotowych rodowód wojskowy Utrzyywane zapasów koszty zwązane.n. z zarożene kaptału Brak w dostawach koszty zwązane.n. z przestoje w produkcj

Bardziej szczegółowo

) będą niezależnymi zmiennymi losowymi o tym samym rozkładzie normalnym z następującymi parametrami: nieznaną wartością 1 4

) będą niezależnymi zmiennymi losowymi o tym samym rozkładzie normalnym z następującymi parametrami: nieznaną wartością 1 4 Zadane. Nech ( X, Y ),( X, Y ), K,( X, Y n n ) będą nezależnym zmennym losowym o tym samym rozkładze normalnym z następującym parametram: neznaną wartoścą oczekwaną EX = EY = m, warancją VarX = VarY =

Bardziej szczegółowo

Wstęp do sztucznych sieci neuronowych

Wstęp do sztucznych sieci neuronowych Wstęp do sztucznych sieci neuronowych Michał Garbowski Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Wydział Informatyki 15 grudnia 2011 Plan wykładu I 1 Wprowadzenie Inspiracja biologiczna

Bardziej szczegółowo

Systemy Ochrony Powietrza Ćwiczenia Laboratoryjne

Systemy Ochrony Powietrza Ćwiczenia Laboratoryjne ś POLITECHNIKA POZNAŃSKA INSTYTUT INŻYNIERII ŚRODOWISKA PROWADZĄCY: mgr nż. Łukasz Amanowcz Systemy Ochrony Powetrza Ćwczena Laboratoryjne 2 TEMAT ĆWICZENIA: Oznaczane lczbowego rozkładu lnowych projekcyjnych

Bardziej szczegółowo

Zestaw zadań 4: Przestrzenie wektorowe i podprzestrzenie. Liniowa niezależność. Sumy i sumy proste podprzestrzeni.

Zestaw zadań 4: Przestrzenie wektorowe i podprzestrzenie. Liniowa niezależność. Sumy i sumy proste podprzestrzeni. Zestaw zadań : Przestrzene wektorowe podprzestrzene. Lnowa nezależność. Sumy sumy proste podprzestrzen. () Wykazać, że V = C ze zwykłym dodawanem jako dodawanem wektorów operacją mnożena przez skalar :

Bardziej szczegółowo

MATEMATYKA POZIOM ROZSZERZONY Kryteria oceniania odpowiedzi. Arkusz A II. Strona 1 z 5

MATEMATYKA POZIOM ROZSZERZONY Kryteria oceniania odpowiedzi. Arkusz A II. Strona 1 z 5 MATEMATYKA POZIOM ROZSZERZONY Krytera ocenana odpowedz Arkusz A II Strona 1 z 5 Odpowedz Pytane 1 2 3 4 5 6 7 8 9 Odpowedź D C C A B 153 135 232 333 Zad. 10. (0-3) Dana jest funkcja postac. Korzystając

Bardziej szczegółowo

Natalia Nehrebecka. Wykład 2

Natalia Nehrebecka. Wykład 2 Natala Nehrebecka Wykład . Model lnowy Postad modelu lnowego Zaps macerzowy modelu lnowego. Estymacja modelu Wartośd teoretyczna (dopasowana) Reszty 3. MNK przypadek jednej zmennej . Model lnowy Postad

Bardziej szczegółowo

Diagonalizacja macierzy kwadratowej

Diagonalizacja macierzy kwadratowej Dagonalzacja macerzy kwadratowej Dana jest macerz A nân. Jej wartośc własne wektory własne spełnają równane Ax x dla,..., n Każde z równań własnych osobno można zapsać w postac: a a an x x a a an x x an

Bardziej szczegółowo

Wprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu

Wprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu Wprowadzene do Sec Neuronowych Algorytm wstecznej propagacj błędu Maja Czoków, Jarosław Persa --6 Powtórzene. Perceptron sgmodalny Funkcja sgmodalna: σ(x) = + exp( c (x p)) Parametr c odpowada za nachylene

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych

Bardziej szczegółowo

Podstawy Sztucznej Inteligencji (PSZT)

Podstawy Sztucznej Inteligencji (PSZT) Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12

Bardziej szczegółowo

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe www.math.uni.lodz.pl/ radmat Cel wykładu Celem wykładu jest prezentacja różnych rodzajów sztucznych sieci neuronowych. Biologiczny model neuronu Mózg człowieka składa się z około 10 11 komórek nerwowych,

Bardziej szczegółowo

Proces narodzin i śmierci

Proces narodzin i śmierci Proces narodzn śmerc Jeżel w ewnej oulacj nowe osobnk ojawają sę w sosób losowy, rzy czym gęstość zdarzeń na jednostkę czasu jest stała w czase wynos λ, oraz lczba osobnków n, które ojawły sę od chwl do

Bardziej szczegółowo

Nieeuklidesowe sieci neuronowe

Nieeuklidesowe sieci neuronowe Unwersytet Mkoaja Kopernka Wydza Fzyk, Astronom Informatyk Stosowanej IS Helena Jurkewcz numer albumu: 177622 Praca magsterska na kerunku Fzyka Komputerowa Neeukldesowe sec neuronowe Opekun pracy dyplomowej

Bardziej szczegółowo

5. OPTYMALIZACJA GRAFOWO-SIECIOWA

5. OPTYMALIZACJA GRAFOWO-SIECIOWA . OPTYMALIZACJA GRAFOWO-SIECIOWA Defncja grafu Pod pojęcem grafu G rozumemy następującą dwójkę uporządkowaną (defncja grafu Berge a): (.) G W,U gdze: W zbór werzchołków grafu, U zbór łuków grafu, U W W,

Bardziej szczegółowo

Zastosowanie symulatora ChemCad do modelowania złożonych układów reakcyjnych procesów petrochemicznych

Zastosowanie symulatora ChemCad do modelowania złożonych układów reakcyjnych procesów petrochemicznych NAFTA-GAZ styczeń 2011 ROK LXVII Anna Rembesa-Śmszek Instytut Nafty Gazu, Kraków Andrzej Wyczesany Poltechnka Krakowska, Kraków Zastosowane symulatora ChemCad do modelowana złożonych układów reakcyjnych

Bardziej szczegółowo

Podstawy sztucznej inteligencji

Podstawy sztucznej inteligencji wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,

Bardziej szczegółowo

TRANZYSTOR BIPOLARNY CHARAKTERYSTYKI STATYCZNE

TRANZYSTOR BIPOLARNY CHARAKTERYSTYKI STATYCZNE POLITHNIKA RZSZOWSKA Katedra Podstaw lektronk Instrkcja Nr4 F 00/003 sem. letn TRANZYSTOR IPOLARNY HARAKTRYSTYKI STATYZN elem ćwczena jest pomar charakterystyk statycznych tranzystora bpolarnego npn lb

Bardziej szczegółowo

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska

Bardziej szczegółowo

Za: Stanisław Latoś, Niwelacja trygonometryczna, [w:] Ćwiczenia z geodezji II [red.] J. Beluch

Za: Stanisław Latoś, Niwelacja trygonometryczna, [w:] Ćwiczenia z geodezji II [red.] J. Beluch Za: Stansław Latoś, Nwelacja trygonometryczna, [w:] Ćwczena z geodezj II [red.] J. eluch 6.1. Ogólne zasady nwelacj trygonometrycznej. Wprowadzene Nwelacja trygonometryczna, zwana równeż trygonometrycznym

Bardziej szczegółowo

BADANIA OPERACYJNE. Podejmowanie decyzji w warunkach niepewności. dr Adam Sojda

BADANIA OPERACYJNE. Podejmowanie decyzji w warunkach niepewności. dr Adam Sojda BADANIA OPERACYJNE Podejmowane decyzj w warunkach nepewnośc dr Adam Sojda Teora podejmowana decyzj gry z naturą Wynk dzałana zależy ne tylko od tego, jaką podejmujemy decyzję, ale równeż od tego, jak wystąp

Bardziej szczegółowo

Proste modele ze złożonym zachowaniem czyli o chaosie

Proste modele ze złożonym zachowaniem czyli o chaosie Proste modele ze złożonym zachowanem czyl o chaose 29 kwetna 2014 Komputer jest narzędzem coraz częścej stosowanym przez naukowców do ukazywana skrzętne ukrywanych przez naturę tajemnc. Symulacja, obok

Bardziej szczegółowo

Problemy jednoczesnego testowania wielu hipotez statystycznych i ich zastosowania w analizie mikromacierzy DNA

Problemy jednoczesnego testowania wielu hipotez statystycznych i ich zastosowania w analizie mikromacierzy DNA Problemy jednoczesnego testowana welu hpotez statystycznych ch zastosowana w analze mkromacerzy DNA Konrad Furmańczyk Katedra Zastosowań Matematyk SGGW Plan referatu Testowane w analze mkromacerzy DNA

Bardziej szczegółowo

Problem plecakowy (KNAPSACK PROBLEM).

Problem plecakowy (KNAPSACK PROBLEM). Problem plecakowy (KNAPSACK PROBLEM). Zagadnene optymalzac zwane problemem plecakowym swą nazwę wzęło z analog do sytuac praktyczne podobne do problemu pakowana plecaka. Chodz o to, by zapakować maksymalne

Bardziej szczegółowo

Modele wieloczynnikowe. Modele wieloczynnikowe. Modele wieloczynnikowe ogólne. α β β β ε. Analiza i Zarządzanie Portfelem cz. 4.

Modele wieloczynnikowe. Modele wieloczynnikowe. Modele wieloczynnikowe ogólne. α β β β ε. Analiza i Zarządzanie Portfelem cz. 4. Modele weloczynnkowe Analza Zarządzane Portfelem cz. 4 Ogólne model weloczynnkowy można zapsać jako: (,...,,..., ) P f F F F = n Dr Katarzyna Kuzak lub (,...,,..., ) f F F F = n Modele weloczynnkowe Można

Bardziej szczegółowo

Współczynnik przenikania ciepła U v. 4.00

Współczynnik przenikania ciepła U v. 4.00 Współczynnk przenkana cepła U v. 4.00 1 WYMAGANIA Maksymalne wartośc współczynnków przenkana cepła U dla ścan, stropów, stropodachów, oken drzw balkonowych podano w załącznku do Rozporządzena Mnstra Infrastruktury

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-10 Projekt pn. Wzmocnienie

Bardziej szczegółowo

8. Neuron z ciągłą funkcją aktywacji.

8. Neuron z ciągłą funkcją aktywacji. 8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i

Bardziej szczegółowo

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ optymalizacje podejmowanych decyzji Tomasz Karczyoski Wydział W-08 IZ Czym są sieci neuronowe Struktura matematycznych oraz programowy lub sprzętowy model, realizujących obliczenia lub przetwarzanie sygnałów

Bardziej szczegółowo

5. CHARAKTERYSTYKI CZĘSTOTLIWOŚCIOWE

5. CHARAKTERYSTYKI CZĘSTOTLIWOŚCIOWE 5. CHARAKTERYSTYKI CZĘSTOTLIWOŚCIOWE Oprócz transmtancj operatorowej, do opsu członów układów automatyk stosuje sę tzw. transmtancję wdmową. Transmtancję wdmową G(j wyznaczyć moŝna dzęk podstawenu do wzoru

Bardziej szczegółowo

Analiza danych. Analiza danych wielowymiarowych. Regresja liniowa. Dyskryminacja liniowa. PARA ZMIENNYCH LOSOWYCH

Analiza danych. Analiza danych wielowymiarowych. Regresja liniowa. Dyskryminacja liniowa.   PARA ZMIENNYCH LOSOWYCH Analza danych Analza danych welowymarowych. Regresja lnowa. Dyskrymnacja lnowa. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ PARA ZMIENNYCH LOSOWYCH Parę zmennych losowych X, Y możemy

Bardziej szczegółowo

Inteligentne systemy przeciw atakom sieciowym

Inteligentne systemy przeciw atakom sieciowym Inteligentne systemy przeciw atakom sieciowym wykład Sztuczne sieci neuronowe (SSN) Joanna Kołodziejczyk 2016 Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 1 / 36 Biologiczne

Bardziej szczegółowo

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda Sieci neuropodobne 1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN Agenda Trochę neurobiologii System nerwowy w organizmach żywych tworzą trzy

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH

STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH 1 Test zgodnośc χ 2 Hpoteza zerowa H 0 ( Cecha X populacj ma rozkład o dystrybuance F). Hpoteza alternatywna H1( Cecha X populacj

Bardziej szczegółowo

Elementy inteligencji obliczeniowej

Elementy inteligencji obliczeniowej Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego

Bardziej szczegółowo

EKONOMETRIA I Spotkanie 1, dn. 05.10.2010

EKONOMETRIA I Spotkanie 1, dn. 05.10.2010 EKONOMETRIA I Spotkane, dn. 5..2 Dr Katarzyna Beń Program ramowy: http://www.sgh.waw.pl/nstytuty/e/oferta_dydaktyczna/ekonometra_stacjonarne_nest acjonarne/ Zadana, dane do zadań, ważne nformacje: http://www.e-sgh.pl/ben/ekonometra

Bardziej szczegółowo

Diagnostyka układów kombinacyjnych

Diagnostyka układów kombinacyjnych Dagnostyka układów kombnacyjnych 1. Wprowadzene Dagnostyka obejmuje: stwerdzene stanu układu, systemu lub ogólne sec logcznej. Jest to tzw. kontrola stanu wykrywająca czy dzałane sec ne jest zakłócane

Bardziej szczegółowo

W praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np.

W praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np. Wykład 7 Uwaga: W praktyce często zdarza sę, że wynk obu prób możemy traktować jako wynk pomarów na tym samym elemence populacj np. wynk x przed wynk y po operacj dla tego samego osobnka. Należy wówczas

Bardziej szczegółowo

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Sieci Hopfielda Najprostsze modele sieci z rekurencją sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Modele bardziej złoŝone: RTRN (Real Time Recurrent Network), przetwarzająca sygnały w czasie

Bardziej szczegółowo

Określanie mocy cylindra C w zaleŝności od ostrości wzroku V 0 Ostrość wzroku V 0 7/5 6/5 5/5 4/5 3/5 2/5 Moc cylindra C 0,5 0,75 1,0 1,25 1,5 > 2

Określanie mocy cylindra C w zaleŝności od ostrości wzroku V 0 Ostrość wzroku V 0 7/5 6/5 5/5 4/5 3/5 2/5 Moc cylindra C 0,5 0,75 1,0 1,25 1,5 > 2 T A R C Z A Z E G A R O W A ASTYGMATYZM 1.Pojęca ogólne a) astygmatyzm prosty (najbardzej zgodny z pozomem) - najbardzej płask połudnk tzn. o najmnejszej mocy jest pozomy b) astygmatyzm odwrotny (najbardzej

Bardziej szczegółowo

Twierdzenie Bezouta i liczby zespolone Javier de Lucas. Rozwi azanie 2. Z twierdzenia dzielenia wielomianów, mamy, że

Twierdzenie Bezouta i liczby zespolone Javier de Lucas. Rozwi azanie 2. Z twierdzenia dzielenia wielomianów, mamy, że Twerdzene Bezouta lczby zespolone Javer de Lucas Ćwczene 1 Ustal dla których a, b R można podzelć f 1 X) = X 4 3X 2 + ax b przez f 2 X) = X 2 3X+2 Oblcz a b Z 5 jeżel zak ladamy, że f 1 f 2 s a welomanam

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką

Bardziej szczegółowo

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Temat: Sztuczne Sieci Neuronowe Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Sztuczne sieci neuronowe

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6 Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Interpretacja parametrów przy zmennych objaśnających cągłych Semelastyczność 2. Zastosowane modelu potęgowego Model potęgowy 3. Zmenne cągłe za zmenne dyskretne

Bardziej szczegółowo

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu Literatura Wykład : Wprowadzenie do sztucznych sieci neuronowych Małgorzata Krętowska Wydział Informatyki Politechnika Białostocka Tadeusiewicz R: Sieci neuronowe, Akademicka Oficyna Wydawnicza RM, Warszawa

Bardziej szczegółowo

OGÓLNE PODSTAWY SPEKTROSKOPII

OGÓLNE PODSTAWY SPEKTROSKOPII WYKŁAD 8 OGÓLNE PODSTAWY SPEKTROSKOPII E E0 sn( ωt kx) ; k π ; ω πν ; λ T ν E (m c 4 p c ) / E +, dla fotonu m 0 p c p hk Rozkład energ w stane równowag: ROZKŁAD BOLTZMANA!!!!! P(E) e E / kt N E N E/

Bardziej szczegółowo

XXX OLIMPIADA FIZYCZNA ETAP III Zadanie doświadczalne

XXX OLIMPIADA FIZYCZNA ETAP III Zadanie doświadczalne XXX OLIMPIADA FIZYCZNA ETAP III Zadane dośwadczalne ZADANIE D Nazwa zadana: Maszyna analogowa. Dane są:. doda półprzewodnkowa (krzemowa) 2. opornk dekadowy (- 5 Ω ), 3. woltomerz cyfrowy, 4. źródło napęca

Bardziej szczegółowo

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych. Wstęp do teorii sztucznej inteligencji Wykład III Modele sieci neuronowych. 1 Perceptron model najprostzszy przypomnienie Schemat neuronu opracowany przez McCullocha i Pittsa w 1943 roku. Przykład funkcji

Bardziej szczegółowo

Temat: Sieci neuronowe oraz technologia CUDA

Temat: Sieci neuronowe oraz technologia CUDA Elbląg, 27.03.2010 Temat: Sieci neuronowe oraz technologia CUDA Przygotował: Mateusz Górny VIII semestr ASiSK Wstęp Sieci neuronowe są to specyficzne struktury danych odzwierciedlające sieć neuronów w

Bardziej szczegółowo

Wykład IX Optymalizacja i minimalizacja funkcji

Wykład IX Optymalizacja i minimalizacja funkcji Wykład IX Optymalzacja mnmalzacja funkcj Postawene zadana podstawowe dee jego rozwązana Proste metody mnmalzacj Metody teracj z wykorzystanem perwszej pochodnej Metody teracj z wykorzystanem drugej pochodnej

Bardziej szczegółowo

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM ZASTOSOWANIE SIECI NEURONOWYCH W SYSTEMACH AKTYWNEJ REDUKCJI HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM WPROWADZENIE Zwalczanie hałasu przy pomocy metod aktywnych redukcji hałasu polega

Bardziej szczegółowo

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna. Sieci neuronowe model konekcjonistyczny Plan wykładu Mózg ludzki a komputer Modele konekcjonistycze Perceptron Sieć neuronowa Uczenie sieci Sieci Hopfielda Mózg ludzki a komputer Twój mózg to 00 000 000

Bardziej szczegółowo

KURS STATYSTYKA. Lekcja 1 Statystyka opisowa ZADANIE DOMOWE. www.etrapez.pl Strona 1

KURS STATYSTYKA. Lekcja 1 Statystyka opisowa ZADANIE DOMOWE. www.etrapez.pl Strona 1 KURS STATYSTYKA Lekcja 1 Statystyka opsowa ZADANIE DOMOWE www.etrapez.pl Strona 1 Część 1: TEST Zaznacz poprawną odpowedź (tylko jedna jest prawdzwa). Pytane 1 W statystyce opsowej mamy pełne nformacje

Bardziej szczegółowo

D Archiwum Prac Dyplomowych - Instrukcja dla studentów

D Archiwum Prac Dyplomowych - Instrukcja dla studentów Kraków 01.10.2015 D Archwum Prac Dyplomowych - Instrukcja dla studentów Procedura Archwzacj Prac Dyplomowych jest realzowana zgodne z zarządzenem nr 71/2015 Rektora Unwersytetu Rolnczego m. H. Kołłątaja

Bardziej szczegółowo

Jakość cieplna obudowy budynków - doświadczenia z ekspertyz

Jakość cieplna obudowy budynków - doświadczenia z ekspertyz dr nż. Robert Geryło Jakość ceplna obudowy budynków - dośwadczena z ekspertyz Wdocznym efektem występowana znaczących mostków ceplnych w obudowe budynku, występującym na ogół przy nedostosowanu ntensywnośc

Bardziej szczegółowo

Weryfikacja hipotez dla wielu populacji

Weryfikacja hipotez dla wielu populacji Weryfkacja hpotez dla welu populacj Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Intelgencj Metod Matematycznych Wydzał Informatyk Poltechnk Szczecńskej 5. Parametryczne testy stotnośc w

Bardziej szczegółowo

REALIZACJA PRZETWARZANIA W CHMURZE OBLICZENIOWEJ NA PRZYKŁADZIE SYSTEMU UCZENIA SIECI NEURONOWEJ OPARTEGO NA TECHNOLOGII MICROSOFT WINDOWS AZURE

REALIZACJA PRZETWARZANIA W CHMURZE OBLICZENIOWEJ NA PRZYKŁADZIE SYSTEMU UCZENIA SIECI NEURONOWEJ OPARTEGO NA TECHNOLOGII MICROSOFT WINDOWS AZURE STUDIA INFORMATICA 2012 Volume 33 Number 2A (105) Darusz R. AUGUSTYN, Kaml BADURA Poltechnka Śląska, Instytut Informatyk REALIZACJA PRZETWARZANIA W CHMURZE OBLICZENIOWEJ NA PRZYKŁADZIE SYSTEMU UCZENIA

Bardziej szczegółowo

Modelowanie i obliczenia techniczne. Metody numeryczne w modelowaniu: Optymalizacja

Modelowanie i obliczenia techniczne. Metody numeryczne w modelowaniu: Optymalizacja Modelowane oblczena technczne Metody numeryczne w modelowanu: Optymalzacja Zadane optymalzacj Optymalzacja to ulepszane lub poprawa jakośc danego rozwązana, projektu, opracowana. Celem optymalzacj jest

Bardziej szczegółowo

Wstęp do metod numerycznych Faktoryzacja SVD Metody iteracyjne. P. F. Góra

Wstęp do metod numerycznych Faktoryzacja SVD Metody iteracyjne. P. F. Góra Wstęp do metod numerycznych Faktoryzacja SVD Metody teracyjne P. F. Góra http://th-www.f.uj.edu.pl/zfs/gora/ 2013 Sngular Value Decomposton Twerdzene 1. Dla każdej macerzy A R M N, M N, stneje rozkład

Bardziej szczegółowo

Metody analizy obwodów

Metody analizy obwodów Metody analzy obwodów Metoda praw Krchhoffa, która jest podstawą dla pozostałych metod Metoda transfguracj, oparte na przekształcenach analzowanego obwodu na obwód równoważny Metoda superpozycj Metoda

Bardziej szczegółowo

7.8. RUCH ZMIENNY USTALONY W KORYTACH PRYZMATYCZNYCH

7.8. RUCH ZMIENNY USTALONY W KORYTACH PRYZMATYCZNYCH WYKŁAD 7 7.8. RUCH ZMIENNY USTALONY W KORYTACH PRYZMATYCZNYCH 7.8.. Ogólne równane rucu Rucem zmennym w korytac otwartyc nazywamy tak przepływ, w którym parametry rucu take jak prędkość średna w przekroju

Bardziej szczegółowo

CAŁKOWANIE NUMERYCZNE całki pojedyncze

CAŁKOWANIE NUMERYCZNE całki pojedyncze CAŁKOWANIE NUMERYCZNE całk pojedyncze Kwadratury nterpolacyjne Kwadratury nterpolacyjne Rozpatrujemy funkcję f() cągłą ogranczoną w przedzale domknętym [a, b]. Przedzał [a, b] dzelmy na skończoną lczbę

Bardziej szczegółowo

Statystyka. Zmienne losowe

Statystyka. Zmienne losowe Statystyka Zmenne losowe Zmenna losowa Zmenna losowa jest funkcją, w której każdej wartośc R odpowada pewen podzbór zboru będący zdarzenem losowym. Zmenna losowa powstaje poprzez przyporządkowane każdemu

Bardziej szczegółowo

(M2) Dynamika 1. ŚRODEK MASY. T. Środek ciężkości i środek masy

(M2) Dynamika 1. ŚRODEK MASY. T. Środek ciężkości i środek masy (MD) MECHANIKA - Dynamka T. Środek cężkośc środek masy (M) Dynamka T: Środek cężkośc środek masy robert.szczotka(at)gmal.com Fzyka astronoma, Lceum 01/014 1 (MD) MECHANIKA - Dynamka T. Środek cężkośc środek

Bardziej szczegółowo

( ) ( ) 2. Zadanie 1. są niezależnymi zmiennymi losowymi o. oraz. rozkładach normalnych, przy czym EX. i σ są nieznane. 1 Niech X

( ) ( ) 2. Zadanie 1. są niezależnymi zmiennymi losowymi o. oraz. rozkładach normalnych, przy czym EX. i σ są nieznane. 1 Niech X Prawdopodobeństwo statystyka.. r. Zadane. Zakładamy, że,,,,, 5 są nezależnym zmennym losowym o rozkładach normalnych, przy czym E = μ Var = σ dla =,,, oraz E = μ Var = 3σ dla =,, 5. Parametry μ, μ σ są

Bardziej szczegółowo

Procedura normalizacji

Procedura normalizacji Metody Badań w Geograf Społeczno Ekonomcznej Procedura normalzacj Budowane macerzy danych geografcznych mgr Marcn Semczuk Zakład Przedsęborczośc Gospodark Przestrzennej Instytut Geograf Unwersytet Pedagogczny

Bardziej szczegółowo

11/22/2014. Jeśli stała c jest równa zero to takie gry nazywamy grami o sumie zerowej.

11/22/2014. Jeśli stała c jest równa zero to takie gry nazywamy grami o sumie zerowej. /22/24 Dwuosobowe gry o sume zero DO NAUCZENIA I ZAPAMIĘTANIA: Defnca zaps ger o sume zero, adaptaca ogólnych defnc. Punkt sodłowy Twerdzena o zwązkach punktu sodłowego z koncepcam rozwązań PRZYPOMNIENIE:

Bardziej szczegółowo