Sieci Neuronowe 1 Michał Bereta

Save this PDF as:
 WORD  PNG  TXT  JPG

Wielkość: px
Rozpocząć pokaz od strony:

Download "Sieci Neuronowe 1 Michał Bereta"

Transkrypt

1 Wprowadzene Zagadnena Sztucznej Intelgencj laboratorum Sec Neuronowe 1 Mchał Bereta Sztuczne sec neuronowe można postrzegać jako modele matematyczne, które swoje wzorce wywodzą z bolog obserwacj ludzkch komórek nerwowych. Perwszy model neuronu został zaproponowany w 1943 roku przez McCullocha Pttsa. Był to prosty neurony, który mógł modelować funkcje logczne take jak OR lub AND. W 1958 roku Rosenblatt zaproponował model perceptronu, a w roku 1960 powstał model ADALINE autorstwa Wdrowa Hoffa. Model bologcznej komórk nerwowej pokazano na rysunku 1. Rysunek 1: Model komórk nerwowej. Do każdego neuronu dochodzą pewne sygnały (bodźce). Są one doprowadzane za pomocą synaps. Bodźce pochodzące od synaps wywoływane są przez specjalne substancje chemczne, zwane neuromedatoram. Zmana potencjału elektrycznego komórk zależna jest od lośc neuromedatora w synapse. Sygnał wyjścowy jest wyprowadzany z komórk za pomocą aksonu. Sygnały wyjścowe neuronów mogą być sygnałam wejścowym nnych neuronów. Sygnałam pobudzającym neurony mogą być także sygnały pochodzące z receptorów nerwowych. Podstawowe pojęca defncje Na podstawe bologcznego modelu z rysunku 1, McCulloch Ptts, zaproponowal model matematyczny sztucznego neuronu (rysunek 2).Sygnały dochodzące do neuronu (x 1, x 2,...x N ) mnożone są przez tzw. wag w j ( - numer neuronu; j - numer wag). Parametr k oznacza chwle czasową. Dodatkowy sygnał jednostkowy nazwano basem. Na podstawe wag dochodzących sygnałów oblczany jest stan wewnętrzny neuronu u

2 Wzór 1: Aktywacja perceptronu (sumacja ważona). Rysunek 2: Model sztucznego neuronu McCullocha-Pttsa. Natomast odpowedź neuronu y zależy od tego czy stan wewnętrzny neuronu (jego pobudzene) przekracza pewen pozom. Odpowada za to funkcja aktywacj f(u ), która w modelu McCullocha-Pttsa jest funkcją progową. Wzór 2: Unpolarna funkcja aktywacj perceptonu. Najczęścej stosowanym funkcjam aktywacj neuronu są (oprócz funkcj lnowej) funkcja sgmodalna oraz tangens hperbolczny (rysunek 3). + N j j j k w k x k w k u 1 0 ) ( ) ( ) ( ) ( > ) ( u u u f

3 Rysunek 3: Funkcje aktywacj: sgmodalna tangens hperbolczny. Parametr β pozwala wpływać na kształt funkcj. Popularność tych funkcj spowodowana jest łatwoścą oblczana ch pochodnych, co jest koneczne przy użycu algorytmów uczena opartych na podejścu gradentowym. Wartośc pochodnych dla powyższych funkcj łatwo oblczyć znając jedyne wartośc samych funkcj. Stan wewnętrzny (pobudzene neuronu) tak jak poprzedno oblcza sę sumując z wagam sygnały wejścowe neuronu: u ( N j 1 w ( x ( j j + w 0 ( Sygnał wyjścowy neuronu jest wylczany za pomocą funkcj aktywacj sgmodalnej, tanh lub nnej, która jako argument przyjmuje stopeń pobudzena neuronu (rysunek 4). Rysunek 4: Model sztucznego neuronu z nelnową funkcją aktywacj.

4 Sztuczna seć neuronowa Sztuczną seć neuronowa uzyskuje sę łącząc ze sobą warstwy neuronów. Na rysunku 5 pokazano model sec welowarstwowej. Rysunek 5: Model sec z dwema warstwam. Na rysunku 5 przedstawono seć neuronową dwuwarstwową.. Wdać, że sygnały wyjścowe warstwy perwszej są jednocześne sygnałam wejścowym neuronów warstwy drugej, która jest jednocześne warstwą wyjścową sec, tzn. odpowedz neuronów tej warstwy określają odpowedź całej sec. Dodawane nowych warstw powoduje, że seć ma wększą moc oblczenową. W wynku wykorzystana welu warstw, seć potraf poradzć sobe z problemam, które mają charakter nelnowy, czego ne jest w stane dokonać seć jednowarstwowa. Uczene sec Uczene pod nadzorem. Uczene sec jest to proces doboru odpowednego zestawu wag danej sec, dla danego konkretnego zadan. W zasadze stneją dwe metody uczena sec: bez nauczycela z nauczycelem (pod nadzorem)- rysunek 6. Rysunek 6: Schemat uczena pod nadzorem. W metodze uczena pod nadzorem na wejśca sec podaje sę sygnały x. Seć odpowada sygnałam y, które są wyjścam poszczególnych neuronów. Nauczycel, wedząc jake sygnały są pożądane (sygnały d) na wyjścu sec dla każdego sygnału x, porównuje je z aktualną odpowedzą sec, po czym modyfkuje wag neuronów z uwzględnenem znanego błędu e sec. Dobór odpowednch wag odpowada procesow mnmalzacj funkcj błędu, którą można zapsać jako:

5 E N 1 ( y ( d ( ) 2 gdze N to lczba neuronów w warstwe wyjścowej sec (sumowane są błędy wszystkch neuronów wyjścowych). Sumaryczny błąd uwzględnający wszystke prezentowane sec wzorce (lub ch część) można zapsać jako: E N 1 p k 1 ( y ( d ( ) 2 Błąd ten jest równy sume błędów wszystkch neuronów (sumowane po ) ze względu na wszystke prezentowane m dane uczące (sumowane po. Modyfkacja wag odbywa sę według wzoru: w ( k + 1) w ( + w ( j j j gdze oznacza numer neuronu, j oznacza kolejną wagę tego neuronu, a k oznacza krok czasowy. Konkretna wartość wj zależy od przyjętego algorytmu uczena. Do uczena sec często używa sę metod gradentowych oblczając gradent funkcj błędu a następne modyfkując wartośc wag w kerunku najwększego spadku funkcj błędu. Do doboru wartośc wag wykorzystuje sę równeż algorytmy genetyczne. Uczene bez nadzoru. Nektóre rodzaje sec neuronowych, jak na przykład sec Hebba czy Kohonena, uczone są bez wykorzystana zboru wzorcowych odpowedz. Seć uczona jest za pomocą jedyne danych wejścowych. Sec tego typu wykorzystywane są mn. w zadanach klasteryzacj (grupowana). Klasteryzacja to dzelene danego zboru danych na podzbory, których elementy maja pewne cechy wspólne. Zastosowane sec neuronowych Sztuczne sec neuronowe stosuje sę do takch zagadneń jak: - klasyfkacja danych - aproksymacja funkcj - predykcja szeregów czasowych - rozpoznawane wzorców - kompresja danych Podstawowe modele sec neuronowych Perceptron prosty Model McCullocha-Pttsa przedstawony na rysunku 2 jest punktem wyjśca do konstrukcj najprostszej sztucznej sec neuronowej o nazwe perceptron (zwanej równeż perceptronem prostym). Zadanem perceptronu prostego jest klasyfkacja podanego na wejśce wektora x do jednej z dwoch klas L 1 lub L 2. Jeśl sygnał wyjścowy neuronu przyjmuje wartość 1 to wektor x jest zaklasyfkowany do klasy L 1, jeśl przyjmuje wartość 0 do klasy L 2. Zatem perceptron dzel N-wymarową przestrzeń wektorów wejścowych na dwe półprzestrzene rozdzelone N-1 wymarową hperpłaszczyzną. Hperpłaszczyzna ta zwana jest powerzchną (grancą) decyzyjną. Jeśl N2 to jest to lna prosta. Aby zbór danych wejscowych mógł by oddzelony przez hperpłaszczyznę, mus być lnowo separowalny. Neznane wartośc wag doberane są w procese uczena perceptronu. Reguła uczena perceptronu Jeśl na wejśce neuronu podawane są wektory x[1,x 1, x 2,...], seć odpowada sygnałem y, a żądana odpowedź jest równa d, to wektor wag w[w 0,w 1,w 2,...] jest modyfkowany zgodne z ponższym zasadam:

6 - jeśl yd to wag pozostają nezmenone (wektor x został prawdłowo zaklasyfkowany) - jeśl y0 a d1 to w j (k+1) w j ( +η* x j - jeśl y1 a d0 to w j (k+1) w j ( η*x j gdze η jest krokem korekcj. Procedurę tę powtarza sę dla wszystkch danych uczących (x,d) welokrotne. Krok te można zapsać łączne jako w j (k+1) w j ( + η*(d-y)*x j Zadane do wykonana: Uczene perceptronu Należy pobrać ze strony demonstracyjny program PerceptronDemo. Zaobserwować jak dwe klasy lnowo separowane są oddzelone przez powerzchnę decyzyjną (lnę prostą w tym przypadku). Uczony perceptron ma bpolarną (odpowada wartoścam 1 lub -1) funkcje aktywacj. W trakce wykonywana programu, dane uczące mogą być modyfkowane poprzez ch przecągane z przycśnętym lewym przycskem myszk. Po klknęcu przytrzymanu prawego przycsku myszk, wag perceptronu zostaną ustawone na losowe wartośc, tak aby proces uczena mógł zacząć se ponowne. Okno programu predstawa wycnek płaszczyzny 2d o wymarach [0 ; 1] x [0 ; 1], punkt (0,0) znajduje sę w lewym dolnym rogu. Rysunek 7: Program PerceptronDemo Po uruchomenu programu na okne konsol są wdoczne wartośc parametrów, z jakm program został uruchomony. Są to: krok korekcj η (eta) oraz flaga wskazująca czy w trakce nauk używany jest bas. Parametry te moża ustawć w trakce uruchamana programu z ln poleceń, np: PerceptronDemo Perwszy parametr to krok korekcj, drug wskazuje, czy użyć ( 1 ) czy ne użyć ( 0 ) basu w uczonym perceptrone. Znaczene basu Bas spełna w perceptrone ważną rolę. Rozważmy to na przykładze. Na płaszczyźne wzór na powerzchnę decyzyjną perceptronu można przedstawć jako:

7 w1 x w2 y w00 gdze w0 jest basem. Jeśl wyznaczymy zależność y względem x, otrzymamy: y w1/ w2 x w0/ w2 Jest to znany wzór na prostą typu: ya x b Wadomo, że a jest współczynnkem kerunkowym prostej (tangens kąta mędzy tą prostą a osą x), natomast b wyznacza punkt przecęca przez prostą os y. Zwróćmy uwagę, że jeśl bas jest równy zero, to b równeż bedze zero. Jeśl węc nasz perceptron ne będze używał basu, będze on mógł wyznaczać grance decyzyjne w postac prostych przechodzących przez początek układu współrzędnych (w przypadku wększej lczby wymarów sytuacja jest analogczna). Ne będze wec mógł wyznaczać dowolnego podzału przestrzen an nauczyć se dobrze klasyfkować danych z dwóch klas, nawet jeśl te klasy są lnowo separowalne (tzn. stneje taka prosta hperpłaszczyzna która je oddzela). Na rysunku ponżej wdać przykład dwóch klas, których perceptron bez basu ne jest w stane sę nauczyć można to poznać po tym, ze każda lna reprezentująca wag perceptronu, przechodz przez punkt (0,0), czyl lewy dolny róg okna programu. Rysunek 8: Przykład danych lnowo separowalnych, ktorych ne może nauczyć sę perceptron bez basu. Pytana: 1. Czy w przypadku danych uczących, które ne są lnowo separowalne, perceptron jest w stane sę odpowedno nauczyć klasyfkować dane? Dlaczego? Przygotuj przedstaw take dane. 2. Przyglądnj sę procesow nauk perceptronu dla różnych wartośc parametru eta. Jak zależy proces uczena od wartośc tego parametru? 3. Uruchom program bez wykorzystana basu pokaż na przykładze danych, które są lnowo separowalne, że perceptron bez basu mmo tego ne daje rady sę ch nauczyć.

8 4. Zapsz regułę uczena perceptronu dla zastosowanej w programe bpolarnej funkcj aktywacj perceptronu. Układy typu ADALINE Układ typu ADALINE (ang. Adaptve Lnear Neuron) został zaproponowany w 1960 roku przez Wdrowa Hoffa. Nazywany jest równeż adaptacyjnym lnowym sumatorem ważonym. Model ważonego sumatora lnowego jest przedstawony na rysunku 9. Rysunek 9: Schemat modelu ADALINE. - Algorytm modyfkacj wag ma charakter uczena pod nadzorem. Sygnał wyjścowy y sumatora porównywany jest z sygnałem wzorcowym d. Uzyskany w ten sposób błąd sumatora wykorzystany jest do zmodyfkowana wartośc wag zgodne ze wzorem: T w( k + 1) w( + η x( [ d( w ( x( ] Parametr eta jest jak poprzedno krokem korekcj. Algorytm ten realzuje uczene pod nadzorem należy do klasy algorytmów gradentowych, gdyż mnmalzuje funkcję błędu neuronu wyrażoną wzorem: E ( d( y ( ) 2 dla k-tego wzorca uczącego. W zależnośc od przyjętej metody uczena, adaptacj wag dokonywać można po prezentowanu każdej pary uczącej, lub też po prezentacj wszystkch par danych uczących. W drugm przypadku mnmalzowaną funkcję błędu można zapsać jako: E p k 1 ( y( d( ) 2 Oblczając gradent funkcj błędu względem wag otrzymuje sę: E w( 2[ d( w T ( x( ] x( Gradent wyznacza kerunek najwększego wzrostu wartośc funkcj, modyfkacj wag dokonuje sę zatem w

9 przecwnym kerunku, czyl kerunku najwększego spadku. Adaptacyjny lnowy sumator ważony z nelnową funkcją aktywacj. W przypadku zastosowana nelnowej funkcj aktywacj zgodne z rysunkem 10, koneczne jest zmodyfkowane wzoru modyfkacj wag. Wynka to z nnej postac gradentu funkcj błędu. Gradent funkcj błędu wynos: E w( 2 f '( y( ) x( [ d( y( ] Pojawa sę pochodna funkcj aktywacj. Wzór na modyfkację wartośc wag przyjmuje postać: w( k + 1) w( + η x( [ d( y( ] f '( y( ) Rysunek 10 Schemat sumatora ważonego z nelnową funkcją aktyacj. Wartość pochodnej dla danej nelnowej funkcj aktywacj, często można wylczyć na podstawe wartośc samej funkcj. Przykładowo, dla funkcj sgmodalnej z parametrem beta równym 1, wartość pochodnej określa wzór: f '( x) f ( x)(1 f ( x)) W przypadku welu sumatorów (neuronów) połączonych w jedną warstwę, wag każdego neuronu modyfkuje sę osobno zgodne z podanym wzoram. Algorytm wstecznej propagacj błędów W przypadku sec welowarstwowych najczęścej stosowanym algorytmem uczena jest algorytm wstecznej propagacj błędów. Jego nazwa pochodz stąd, ż po oblczenu odpowedz sec na zadany wzorzec, oblczana jest wartość gradentu funkcj błędu dla neuronów ostatnej warstwy. Następne modyfkuje sę ch wag. Błąd jest propagowany do warstwy wcześnejszej (przedostatnej). Wartośc funkcj gradentu dla neuronów z tej warstwy oblczane są w oparcu o gradenty dla neuronów z warstwy następnej (czyl ostatnej). Modyfkowane są wag kolejnej warstwy. Postępowane trwa aż do warstwy wejścowej. Istneje wele warantów ulepszeń orygnalnej metody wstecznej propagacj błędów. Pozwalają one uzyskać lepsze efekty uczena lub przyśpeszyć proces nauk.

10 Zależność efektów uczena sec od jej archtektury Udowodnono, że perceptron welowarstwowy jest doskonałym aproksymatorem, tzn. może nauczyć sę dowolnego odwzorowana (węc równeż aproksymować dowolną funkcję) pod warunkem, że posada odpowedną lczbę neuronów. Dobór odpowednej struktury sec neuronowej, dostosowanej do danego problemu, jest zadanem trudnym. Zły dobór parametrów sec powoduje, że seć ne może sę dobrze nauczyć odpowednego odwzorowana, lub też charakteryzuje sę złą zdolnoścą generalzacj, czyl źle radz sobe z danym, których wcześnej ne wdzała (tzn. których ne użyto w trakce uczena sec). Przykładowo, na rysunku 11 wdzmy seć dobrze aproksymującą zadaną funkcję: Rysunek 11. Dobrze odwzorowana funkcja. Danym uczącym seć były punkty oznaczone krzyżykam. Wdać, że seć odpowada równeż dobrze w punktach, które ne zostały jej zaprezentowane w czase nauk. Jednak ne zawsze nam sę udaje tak dobrze nauczyć sec. Na rysunku 12 wdzmy przypadek, gdy seć została przeuczona charakteryzuje sę złą zdolnoścą uogólnana: Rysunek 12. Przeuczona seć. Jednak jeśl na przykład użyjemy zbyt małej lczby neuronów, seć będze nedouczona (ne poradz sobe z zadanym problemem, będze mała zbyt małą moc oblczenową) rysunek 13.

11 Rysunek 13 Nedouczona seć. Podczas uczena sec dla danego zadana należy określć: - archtekturę sec - algorytm uczena jego parametry, - dobór danych uczących ch obróbkę wstępną - lczbę prezentacj (teracj) danych uczących (moment zakończena nauk) - metodę oceny jakośc sec - początkowe wartośc wag td. Symulacja układu logcznego XOR Operacja logczna XOR przyjmuje dwa parametry bnarne odpowada równeż wartoścą 0 lub 1. Ponższa tabelka przedstawa odpowedz funkcj XOR dla wszystkch możlwych danych wejścowych: X Y XOR Problem polega na odwzorowanu tej funkcj za pomocą sec neuronowej (rysunek 14). Rysunek 14. Problem XOR. Wejścam dla sec są wartośc logczne X oraz Y, natomast na wyjścu pojawa sę wartość funkcj XOR dla podanych argumentów. Rozpatrywana seć ma dwa sygnały wejścowe jeden wyjścowy. Ne można jednak rozwązać tego problemu za pomocą jednego neuronu o dwóch wejścach (plus bas), gdyż może on

12 wygenerować jedyne hperpłaszczyznę, tj. lnę prostą, dowolne przysunętą. Jedną lną ne można oddzelć odpowedno od sebe argumentów funkcj XOR (czyl tych, które dają w wynku 1 od tych które dają w wynku 0). Dla rozwązana tego klasycznego problemu potrzebna jest seć z co najmnej dwema warstwam. Model tak pokazano na rysunku 15. Rysunek 15. Seć rozwązująca problem XOR. Rozpatrywana seć dokonuje odpowednego nelnowego podzału wykorzystując dwe hperpłaszczyzny, jak pokazano na rysunku 16: Rysunek 16. Rozwązane zadana XOR. Środowsko JOONE Do dalszej pracy wykorzystamy środowsko JOONE (Java Object Orented Neural Engne). Jest ono dostępne pod adresem Daje ono szeroke możlwośc konstruowana testowana różnorodnych archtektur sec neuronowych w zastosowanu do szeregu problemów. Na rysunku 17 przedstawono nterfejs środowska.

13 Rysunek 17: JOONE (Java Object Orented Neural Engne). W celu rozwązana problemu XOR oraz zapoznana sę z Joone przed przystąpenem do bardzej skomplkowanych zadań, skonstruujemy seć neuronową typu welowarstwowego perceptronu, która pownna rozwązać ten problem. Tak jak zostało pokazane wcześnej, nasza seć mus meć warstwę ukrytą wyjścową. W Joone będze jeszcze dodatkowa warstwa wejścowa, której zadanem będze jedyne doprowadzane sygnałów wejścowych do warstwy ukrytej. Podstawowym elementam, z których budujemy seć w Joone jest warstwa (ang. Layer). Przyjrzyj sę panelow Joone znajdź na toolbarze odpowedne przycsk: NewLnearLayer, NewSgmodLayer. Nastepne dodaj trzy warstwy tak jak ponżej: Perwsza warstwa pownna meć dwa neurony (parametr rows; w warstwe wejścowej jest tyle neuronow, le jest wymarów danych wejścowych), druga warswa (warstwa ukryta) jest warstwą neuronów z sgmodalnym funkcjam aktywacj posada dwa neurony, warstwa wyjścowa ma jeden lnowy neuron. Przecągając lnę mędzy warstwam, połącz warstwy w tak sposób, aby otrzymać następującą strukturę:

14 Każdy neuron z danej warstwy został połączony z każdym neuronem warstwy następnej. Struktura sec jest gotowa. Teraz przygotujemy dane uczące. Stwórz plk tekstowy xor.data z następującą zawartoścą: 0.0;0.0; ;1.0; ;0.0; ;1.0;0.0 Dwe perwsze kolumny reprezentują dane wejścowe, trzeca kolumna to wzorcowe odpowedz. Dodaj w edytorze strumeń wejścowy z plku: NewFleInputLayer. Klknj na nego prawym przycskem myszy ustaw jego właścwośc (p. rysunek ponżej): Advanced Column Selector: 1,2 flename: xor.data Co oznacza, ze dane wejścowe to kolumny 1 oraz 2. Połącz dane wejścowe z warstwą wejścowa. Dodajemy nauczycela, który bedze czuwał nad procesem uczena. Dodaj NewTeacherLayer oraz jeszcze jeden NewFleInputLayer. Ustaw właścwośc nowej warstwy FleInput na: Advanced Column Selector: 3 flename: xor.data Znaczy to, że wzorcowym danym wyjścwoym sec są dane z trzecej kolumny plku xor.data. Połącz nowe elementy jak na rysunku ponżej.

15 Seć jest gotowa do nauk. Otwórz Tools->ControlPanel ustaw wartośc na: learnng: True learnngrate: 0.8 momentum: 0.3 epochs: tranng patterns: 4 Klknj Run. Obserwuj, jak błąd średnokwadratowy (RMSE) maleje.

16 Czas przetestować seć. Dodaj do edytora NewFleOutputLayer ustaw jego włąscwośc jak na rysunku. Ustaw właścwość Teacher enabled na false. Następne przejdź do ControlPanel ustaw: learnng: False epochs: 1 tranng patterns: 4 Zawartość plku xor_results.data pownna wyglądać mnej wecej następująco: Wdać, że seć nauczyła sę odpowadać odpowednm wartoścam (blskm 1 lub blskm 0) na odpowedne dane wejścowe. Porównaj otrzymane odpowedz z odpowedzam wzorcowym dla problemu XOR. Nauczonż seć można zapsać wyberając Fle->Save. Zadana: 1. Sprawdź, że rzeczywśce seć posadająca jeden neuron w warstwe ukrytej ne jest w stane nauczyć se problemu xor. Po czym można to poznać? 2. Przetestuj proces uczena sec dla różnych ustaweń parametrów uczena: learnngrate, momentum, lczba teracj (epochs). Do lu teracj warto uczyć seć (do kedy błąd spada)? 3. Co sę stane jeśl zwekszymy lbczę neuronów ukrytych na 3, 4, 5, 6 td. Czy przyśpeszy to proces uczena lub zmnejszy błąd? Zawsze?

17 4. Powtórz poprzedne zadana z wykorzystanem warstwy ukrytej z neuronam typu lnowego. Czy stneje zauważalna rożnca w porównanu do zastosowanych wczesnej neuronów typu sgmodalnego? 5. Dla jakej archtektury sec błąd był najmnejszy? Po jakej lczbe teracj z jakm parametram? Przedstaw dane w tablekach. 6. Czy problemy logczne AND oraz OR są problemam lnowo separowalnym? Przygotuj odpowedne dane uczące sprawdz swoje przypuszczena powtarzając eksperymenty dla tych nowych danych. Odpowedź usasadnj posłkując sę wynkam. Wszystke wnosk spostrzeżena poprzyj w sprawozdanu wynkam przeprowadzonych oblczeń symulacj, jak równeż przedstaw przeprowadzane eksperymenty badane sec na rysunkach ( screenach ). Wynk przedstaw w opsanych tabelkach.

Neural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych.

Neural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych. Neural networks Lecture Notes n Pattern Recognton by W.Dzwnel Krótka hstora McCulloch Ptts (1943) - perwszy matematyczny ops dzalana neuronu przetwarzana przez nego danych. Proste neurony, które mogly

Bardziej szczegółowo

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych Zaawansowane metody numeryczne Komputerowa analza zagadneń różnczkowych 1. Układy równań lnowych P. F. Góra http://th-www.f.uj.edu.pl/zfs/gora/ semestr letn 2006/07 Podstawowe fakty Równane Ax = b, x,

Bardziej szczegółowo

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB Rozwązywane zadań optymalzacj w środowsku programu MATLAB Zagadnene optymalzacj polega na znajdowanu najlepszego, względem ustalonego kryterum, rozwązana należącego do zboru rozwązań dopuszczalnych. Standardowe

Bardziej szczegółowo

Zapis informacji, systemy pozycyjne 1. Literatura Jerzy Grębosz, Symfonia C++ standard. Harvey M. Deitl, Paul J. Deitl, Arkana C++. Programowanie.

Zapis informacji, systemy pozycyjne 1. Literatura Jerzy Grębosz, Symfonia C++ standard. Harvey M. Deitl, Paul J. Deitl, Arkana C++. Programowanie. Zaps nformacj, systemy pozycyjne 1 Lteratura Jerzy Grębosz, Symfona C++ standard. Harvey M. Detl, Paul J. Detl, Arkana C++. Programowane. Zaps nformacj w komputerach Wszystke elementy danych przetwarzane

Bardziej szczegółowo

Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba

Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 1 Ćwczene 2: Perceptron WYMAGANIA 1. Sztuczne sec neuronowe budowa oraz ops matematyczny perceptronu (funkcje przejśca perceptronu), uczene perceptronu

Bardziej szczegółowo

KURS STATYSTYKA. Lekcja 6 Regresja i linie regresji ZADANIE DOMOWE. www.etrapez.pl Strona 1

KURS STATYSTYKA. Lekcja 6 Regresja i linie regresji ZADANIE DOMOWE. www.etrapez.pl Strona 1 KURS STATYSTYKA Lekcja 6 Regresja lne regresj ZADANIE DOMOWE www.etrapez.pl Strona 1 Część 1: TEST Zaznacz poprawną odpowedź (tylko jedna jest prawdzwa). Pytane 1 Funkcja regresj I rodzaju cechy Y zależnej

Bardziej szczegółowo

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Wykład 2: Uczenie nadzorowane sieci neuronowych - I Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za

Bardziej szczegółowo

SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW

SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW Stefan WÓJTOWICZ, Katarzyna BIERNAT ZAKŁAD METROLOGII I BADAŃ NIENISZCZĄCYCH INSTYTUT ELEKTROTECHNIKI ul. Pożaryskego 8, 04-703 Warszawa tel.

Bardziej szczegółowo

Laboratorium ochrony danych

Laboratorium ochrony danych Laboratorum ochrony danych Ćwczene nr Temat ćwczena: Cała skończone rozszerzone Cel dydaktyczny: Opanowane programowej metody konstruowana cał skończonych rozszerzonych GF(pm), poznane ch własnośc oraz

Bardziej szczegółowo

WikiWS For Business Sharks

WikiWS For Business Sharks WkWS For Busness Sharks Ops zadana konkursowego Zadane Opracowane algorytmu automatyczne przetwarzającego zdjęce odręczne narysowanego dagramu na tablcy lub kartce do postac wektorowej zapsanej w formace

Bardziej szczegółowo

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe Sztuczne sec neuronowe Jerzy Stefanowsk Plan wykładu 1. Wprowadzene 2. Model sztucznego neuronu. 3. Topologe sec neuronowych 4. Reguły uczena sec neuronowych. 5. Klasyfkaca sec neuronowych. 6. Sec warstwowe

Bardziej szczegółowo

Analiza danych OGÓLNY SCHEMAT. http://zajecia.jakubw.pl/ Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja)

Analiza danych OGÓLNY SCHEMAT. http://zajecia.jakubw.pl/ Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja) Analza danych Dane trenngowe testowe. Algorytm k najblższych sąsadów. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ OGÓLNY SCHEMAT Mamy dany zbór danych podzelony na klasy decyzyjne, oraz

Bardziej szczegółowo

Klasyfkator lnowy Wstęp Klasyfkator lnowy jest najprostszym możlwym klasyfkatorem. Zakłada on lnową separację lnowy podzał dwóch klas mędzy sobą. Przedstawa to ponższy rysunek: 5 4 3 1 0-1 - -3-4 -5-5

Bardziej szczegółowo

Metody Sztucznej Inteligencji II

Metody Sztucznej Inteligencji II 17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału

Bardziej szczegółowo

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa

Bardziej szczegółowo

KRZYWA BÉZIERA TWORZENIE I WIZUALIZACJA KRZYWYCH PARAMETRYCZNYCH NA PRZYKŁADZIE KRZYWEJ BÉZIERA

KRZYWA BÉZIERA TWORZENIE I WIZUALIZACJA KRZYWYCH PARAMETRYCZNYCH NA PRZYKŁADZIE KRZYWEJ BÉZIERA KRZYWA BÉZIERA TWORZENIE I WIZUALIZACJA KRZYWYCH PARAMETRYCZNYCH NA PRZYKŁADZIE KRZYWEJ BÉZIERA Krzysztof Serżęga Wyższa Szkoła Informatyk Zarządzana w Rzeszowe Streszczene Artykuł porusza temat zwązany

Bardziej szczegółowo

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych Najprostsza jest jednostka lnowa: Neuron lnowy potraf ona rozpoznawać wektor wejścowy X = (x 1, x 2,..., x n ) T zapamętany we współczynnkach wagowych W = (w 1, w 2,..., w n ), Zauważmy, że y = W X Załóżmy,

Bardziej szczegółowo

Wprowadzenie do Sieci Neuronowych Sieci rekurencyjne

Wprowadzenie do Sieci Neuronowych Sieci rekurencyjne Wprowadzene do Sec Neuronowych Sec rekurencyjne M. Czoków, J. Persa 2010-12-07 1 Powtórzene Konstrukcja autoasocjatora Hopfelda 1.1 Konstrukcja Danych jest m obrazów wzorcowych ξ 1..ξ m, gdze każdy pojedynczy

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 15. ALGORYTMY GENETYCZNE Częstochowa 014 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska TERMINOLOGIA allele wartośc, waranty genów, chromosom - (naczej

Bardziej szczegółowo

Analiza rodzajów skutków i krytyczności uszkodzeń FMECA/FMEA według MIL STD - 1629A

Analiza rodzajów skutków i krytyczności uszkodzeń FMECA/FMEA według MIL STD - 1629A Analza rodzajów skutków krytycznośc uszkodzeń FMECA/FMEA według MIL STD - 629A Celem analzy krytycznośc jest szeregowane potencjalnych rodzajów uszkodzeń zdentyfkowanych zgodne z zasadam FMEA na podstawe

Bardziej szczegółowo

STATECZNOŚĆ SKARP. α - kąt nachylenia skarpy [ o ], φ - kąt tarcia wewnętrznego gruntu [ o ],

STATECZNOŚĆ SKARP. α - kąt nachylenia skarpy [ o ], φ - kąt tarcia wewnętrznego gruntu [ o ], STATECZNOŚĆ SKARP W przypadku obektu wykonanego z gruntów nespostych zaprojektowane bezpecznego nachylena skarp sprowadza sę do przekształcena wzoru na współczynnk statecznośc do postac: tgφ tgα = n gdze:

Bardziej szczegółowo

Portfele zawierające walor pozbawiony ryzyka. Elementy teorii rynku kapitałowego

Portfele zawierające walor pozbawiony ryzyka. Elementy teorii rynku kapitałowego Portel nwestycyjny ćwczena Na podst. Wtold Jurek: Konstrukcja analza rozdzał 5 dr chał Konopczyńsk Portele zawerające walor pozbawony ryzyka. lementy teor rynku kaptałowego 1. Pożyczane penędzy amy dwa

Bardziej szczegółowo

Systemy Ochrony Powietrza Ćwiczenia Laboratoryjne

Systemy Ochrony Powietrza Ćwiczenia Laboratoryjne ś POLITECHNIKA POZNAŃSKA INSTYTUT INŻYNIERII ŚRODOWISKA PROWADZĄCY: mgr nż. Łukasz Amanowcz Systemy Ochrony Powetrza Ćwczena Laboratoryjne 2 TEMAT ĆWICZENIA: Oznaczane lczbowego rozkładu lnowych projekcyjnych

Bardziej szczegółowo

2012-10-11. Definicje ogólne

2012-10-11. Definicje ogólne 0-0- Defncje ogólne Logstyka nauka o przepływe surowców produktów gotowych rodowód wojskowy Utrzyywane zapasów koszty zwązane.n. z zarożene kaptału Brak w dostawach koszty zwązane.n. z przestoje w produkcj

Bardziej szczegółowo

Wprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu

Wprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu Wprowadzene do Sec Neuronowych Algorytm wstecznej propagacj błędu Maja Czoków, Jarosław Persa --6 Powtórzene. Perceptron sgmodalny Funkcja sgmodalna: σ(x) = + exp( c (x p)) Parametr c odpowada za nachylene

Bardziej szczegółowo

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe JOANNA GRABSKA-CHRZĄSTOWSKA Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA BUDOWA RZECZYWISTEGO NEURONU

Bardziej szczegółowo

Natalia Nehrebecka. Wykład 2

Natalia Nehrebecka. Wykład 2 Natala Nehrebecka Wykład . Model lnowy Postad modelu lnowego Zaps macerzowy modelu lnowego. Estymacja modelu Wartośd teoretyczna (dopasowana) Reszty 3. MNK przypadek jednej zmennej . Model lnowy Postad

Bardziej szczegółowo

Zastosowanie symulatora ChemCad do modelowania złożonych układów reakcyjnych procesów petrochemicznych

Zastosowanie symulatora ChemCad do modelowania złożonych układów reakcyjnych procesów petrochemicznych NAFTA-GAZ styczeń 2011 ROK LXVII Anna Rembesa-Śmszek Instytut Nafty Gazu, Kraków Andrzej Wyczesany Poltechnka Krakowska, Kraków Zastosowane symulatora ChemCad do modelowana złożonych układów reakcyjnych

Bardziej szczegółowo

MATEMATYKA POZIOM ROZSZERZONY Kryteria oceniania odpowiedzi. Arkusz A II. Strona 1 z 5

MATEMATYKA POZIOM ROZSZERZONY Kryteria oceniania odpowiedzi. Arkusz A II. Strona 1 z 5 MATEMATYKA POZIOM ROZSZERZONY Krytera ocenana odpowedz Arkusz A II Strona 1 z 5 Odpowedz Pytane 1 2 3 4 5 6 7 8 9 Odpowedź D C C A B 153 135 232 333 Zad. 10. (0-3) Dana jest funkcja postac. Korzystając

Bardziej szczegółowo

Nieeuklidesowe sieci neuronowe

Nieeuklidesowe sieci neuronowe Unwersytet Mkoaja Kopernka Wydza Fzyk, Astronom Informatyk Stosowanej IS Helena Jurkewcz numer albumu: 177622 Praca magsterska na kerunku Fzyka Komputerowa Neeukldesowe sec neuronowe Opekun pracy dyplomowej

Bardziej szczegółowo

I. Elementy analizy matematycznej

I. Elementy analizy matematycznej WSTAWKA MATEMATYCZNA I. Elementy analzy matematycznej Pochodna funkcj f(x) Pochodna funkcj podaje nam prędkość zman funkcj: df f (x + x) f (x) f '(x) = = lm x 0 (1) dx x Pochodna funkcj podaje nam zarazem

Bardziej szczegółowo

Proces narodzin i śmierci

Proces narodzin i śmierci Proces narodzn śmerc Jeżel w ewnej oulacj nowe osobnk ojawają sę w sosób losowy, rzy czym gęstość zdarzeń na jednostkę czasu jest stała w czase wynos λ, oraz lczba osobnków n, które ojawły sę od chwl do

Bardziej szczegółowo

Zestaw zadań 4: Przestrzenie wektorowe i podprzestrzenie. Liniowa niezależność. Sumy i sumy proste podprzestrzeni.

Zestaw zadań 4: Przestrzenie wektorowe i podprzestrzenie. Liniowa niezależność. Sumy i sumy proste podprzestrzeni. Zestaw zadań : Przestrzene wektorowe podprzestrzene. Lnowa nezależność. Sumy sumy proste podprzestrzen. () Wykazać, że V = C ze zwykłym dodawanem jako dodawanem wektorów operacją mnożena przez skalar :

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych

Bardziej szczegółowo

TRANZYSTOR BIPOLARNY CHARAKTERYSTYKI STATYCZNE

TRANZYSTOR BIPOLARNY CHARAKTERYSTYKI STATYCZNE POLITHNIKA RZSZOWSKA Katedra Podstaw lektronk Instrkcja Nr4 F 00/003 sem. letn TRANZYSTOR IPOLARNY HARAKTRYSTYKI STATYZN elem ćwczena jest pomar charakterystyk statycznych tranzystora bpolarnego npn lb

Bardziej szczegółowo

Podstawy sztucznej inteligencji

Podstawy sztucznej inteligencji wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,

Bardziej szczegółowo

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska

Bardziej szczegółowo

5. OPTYMALIZACJA GRAFOWO-SIECIOWA

5. OPTYMALIZACJA GRAFOWO-SIECIOWA . OPTYMALIZACJA GRAFOWO-SIECIOWA Defncja grafu Pod pojęcem grafu G rozumemy następującą dwójkę uporządkowaną (defncja grafu Berge a): (.) G W,U gdze: W zbór werzchołków grafu, U zbór łuków grafu, U W W,

Bardziej szczegółowo

Proste modele ze złożonym zachowaniem czyli o chaosie

Proste modele ze złożonym zachowaniem czyli o chaosie Proste modele ze złożonym zachowanem czyl o chaose 29 kwetna 2014 Komputer jest narzędzem coraz częścej stosowanym przez naukowców do ukazywana skrzętne ukrywanych przez naturę tajemnc. Symulacja, obok

Bardziej szczegółowo

Za: Stanisław Latoś, Niwelacja trygonometryczna, [w:] Ćwiczenia z geodezji II [red.] J. Beluch

Za: Stanisław Latoś, Niwelacja trygonometryczna, [w:] Ćwiczenia z geodezji II [red.] J. Beluch Za: Stansław Latoś, Nwelacja trygonometryczna, [w:] Ćwczena z geodezj II [red.] J. eluch 6.1. Ogólne zasady nwelacj trygonometrycznej. Wprowadzene Nwelacja trygonometryczna, zwana równeż trygonometrycznym

Bardziej szczegółowo

Problem plecakowy (KNAPSACK PROBLEM).

Problem plecakowy (KNAPSACK PROBLEM). Problem plecakowy (KNAPSACK PROBLEM). Zagadnene optymalzac zwane problemem plecakowym swą nazwę wzęło z analog do sytuac praktyczne podobne do problemu pakowana plecaka. Chodz o to, by zapakować maksymalne

Bardziej szczegółowo

Problemy jednoczesnego testowania wielu hipotez statystycznych i ich zastosowania w analizie mikromacierzy DNA

Problemy jednoczesnego testowania wielu hipotez statystycznych i ich zastosowania w analizie mikromacierzy DNA Problemy jednoczesnego testowana welu hpotez statystycznych ch zastosowana w analze mkromacerzy DNA Konrad Furmańczyk Katedra Zastosowań Matematyk SGGW Plan referatu Testowane w analze mkromacerzy DNA

Bardziej szczegółowo

Modele wieloczynnikowe. Modele wieloczynnikowe. Modele wieloczynnikowe ogólne. α β β β ε. Analiza i Zarządzanie Portfelem cz. 4.

Modele wieloczynnikowe. Modele wieloczynnikowe. Modele wieloczynnikowe ogólne. α β β β ε. Analiza i Zarządzanie Portfelem cz. 4. Modele weloczynnkowe Analza Zarządzane Portfelem cz. 4 Ogólne model weloczynnkowy można zapsać jako: (,...,,..., ) P f F F F = n Dr Katarzyna Kuzak lub (,...,,..., ) f F F F = n Modele weloczynnkowe Można

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-10 Projekt pn. Wzmocnienie

Bardziej szczegółowo

Współczynnik przenikania ciepła U v. 4.00

Współczynnik przenikania ciepła U v. 4.00 Współczynnk przenkana cepła U v. 4.00 1 WYMAGANIA Maksymalne wartośc współczynnków przenkana cepła U dla ścan, stropów, stropodachów, oken drzw balkonowych podano w załącznku do Rozporządzena Mnstra Infrastruktury

Bardziej szczegółowo

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ optymalizacje podejmowanych decyzji Tomasz Karczyoski Wydział W-08 IZ Czym są sieci neuronowe Struktura matematycznych oraz programowy lub sprzętowy model, realizujących obliczenia lub przetwarzanie sygnałów

Bardziej szczegółowo

5. CHARAKTERYSTYKI CZĘSTOTLIWOŚCIOWE

5. CHARAKTERYSTYKI CZĘSTOTLIWOŚCIOWE 5. CHARAKTERYSTYKI CZĘSTOTLIWOŚCIOWE Oprócz transmtancj operatorowej, do opsu członów układów automatyk stosuje sę tzw. transmtancję wdmową. Transmtancję wdmową G(j wyznaczyć moŝna dzęk podstawenu do wzoru

Bardziej szczegółowo

Diagnostyka układów kombinacyjnych

Diagnostyka układów kombinacyjnych Dagnostyka układów kombnacyjnych 1. Wprowadzene Dagnostyka obejmuje: stwerdzene stanu układu, systemu lub ogólne sec logcznej. Jest to tzw. kontrola stanu wykrywająca czy dzałane sec ne jest zakłócane

Bardziej szczegółowo

EKONOMETRIA I Spotkanie 1, dn. 05.10.2010

EKONOMETRIA I Spotkanie 1, dn. 05.10.2010 EKONOMETRIA I Spotkane, dn. 5..2 Dr Katarzyna Beń Program ramowy: http://www.sgh.waw.pl/nstytuty/e/oferta_dydaktyczna/ekonometra_stacjonarne_nest acjonarne/ Zadana, dane do zadań, ważne nformacje: http://www.e-sgh.pl/ben/ekonometra

Bardziej szczegółowo

8. Neuron z ciągłą funkcją aktywacji.

8. Neuron z ciągłą funkcją aktywacji. 8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i

Bardziej szczegółowo

BADANIA OPERACYJNE. Podejmowanie decyzji w warunkach niepewności. dr Adam Sojda

BADANIA OPERACYJNE. Podejmowanie decyzji w warunkach niepewności. dr Adam Sojda BADANIA OPERACYJNE Podejmowane decyzj w warunkach nepewnośc dr Adam Sojda Teora podejmowana decyzj gry z naturą Wynk dzałana zależy ne tylko od tego, jaką podejmujemy decyzję, ale równeż od tego, jak wystąp

Bardziej szczegółowo

XXX OLIMPIADA FIZYCZNA ETAP III Zadanie doświadczalne

XXX OLIMPIADA FIZYCZNA ETAP III Zadanie doświadczalne XXX OLIMPIADA FIZYCZNA ETAP III Zadane dośwadczalne ZADANIE D Nazwa zadana: Maszyna analogowa. Dane są:. doda półprzewodnkowa (krzemowa) 2. opornk dekadowy (- 5 Ω ), 3. woltomerz cyfrowy, 4. źródło napęca

Bardziej szczegółowo

W praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np.

W praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np. Wykład 7 Uwaga: W praktyce często zdarza sę, że wynk obu prób możemy traktować jako wynk pomarów na tym samym elemence populacj np. wynk x przed wynk y po operacj dla tego samego osobnka. Należy wówczas

Bardziej szczegółowo

Temat: Sieci neuronowe oraz technologia CUDA

Temat: Sieci neuronowe oraz technologia CUDA Elbląg, 27.03.2010 Temat: Sieci neuronowe oraz technologia CUDA Przygotował: Mateusz Górny VIII semestr ASiSK Wstęp Sieci neuronowe są to specyficzne struktury danych odzwierciedlające sieć neuronów w

Bardziej szczegółowo

Określanie mocy cylindra C w zaleŝności od ostrości wzroku V 0 Ostrość wzroku V 0 7/5 6/5 5/5 4/5 3/5 2/5 Moc cylindra C 0,5 0,75 1,0 1,25 1,5 > 2

Określanie mocy cylindra C w zaleŝności od ostrości wzroku V 0 Ostrość wzroku V 0 7/5 6/5 5/5 4/5 3/5 2/5 Moc cylindra C 0,5 0,75 1,0 1,25 1,5 > 2 T A R C Z A Z E G A R O W A ASTYGMATYZM 1.Pojęca ogólne a) astygmatyzm prosty (najbardzej zgodny z pozomem) - najbardzej płask połudnk tzn. o najmnejszej mocy jest pozomy b) astygmatyzm odwrotny (najbardzej

Bardziej szczegółowo

Twierdzenie Bezouta i liczby zespolone Javier de Lucas. Rozwi azanie 2. Z twierdzenia dzielenia wielomianów, mamy, że

Twierdzenie Bezouta i liczby zespolone Javier de Lucas. Rozwi azanie 2. Z twierdzenia dzielenia wielomianów, mamy, że Twerdzene Bezouta lczby zespolone Javer de Lucas Ćwczene 1 Ustal dla których a, b R można podzelć f 1 X) = X 4 3X 2 + ax b przez f 2 X) = X 2 3X+2 Oblcz a b Z 5 jeżel zak ladamy, że f 1 f 2 s a welomanam

Bardziej szczegółowo

Jakość cieplna obudowy budynków - doświadczenia z ekspertyz

Jakość cieplna obudowy budynków - doświadczenia z ekspertyz dr nż. Robert Geryło Jakość ceplna obudowy budynków - dośwadczena z ekspertyz Wdocznym efektem występowana znaczących mostków ceplnych w obudowe budynku, występującym na ogół przy nedostosowanu ntensywnośc

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką

Bardziej szczegółowo

Modelowanie i obliczenia techniczne. Metody numeryczne w modelowaniu: Optymalizacja

Modelowanie i obliczenia techniczne. Metody numeryczne w modelowaniu: Optymalizacja Modelowane oblczena technczne Metody numeryczne w modelowanu: Optymalzacja Zadane optymalzacj Optymalzacja to ulepszane lub poprawa jakośc danego rozwązana, projektu, opracowana. Celem optymalzacj jest

Bardziej szczegółowo

Wykład IX Optymalizacja i minimalizacja funkcji

Wykład IX Optymalizacja i minimalizacja funkcji Wykład IX Optymalzacja mnmalzacja funkcj Postawene zadana podstawowe dee jego rozwązana Proste metody mnmalzacj Metody teracj z wykorzystanem perwszej pochodnej Metody teracj z wykorzystanem drugej pochodnej

Bardziej szczegółowo

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Sieci Hopfielda Najprostsze modele sieci z rekurencją sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Modele bardziej złoŝone: RTRN (Real Time Recurrent Network), przetwarzająca sygnały w czasie

Bardziej szczegółowo

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM ZASTOSOWANIE SIECI NEURONOWYCH W SYSTEMACH AKTYWNEJ REDUKCJI HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM WPROWADZENIE Zwalczanie hałasu przy pomocy metod aktywnych redukcji hałasu polega

Bardziej szczegółowo

KURS STATYSTYKA. Lekcja 1 Statystyka opisowa ZADANIE DOMOWE. www.etrapez.pl Strona 1

KURS STATYSTYKA. Lekcja 1 Statystyka opisowa ZADANIE DOMOWE. www.etrapez.pl Strona 1 KURS STATYSTYKA Lekcja 1 Statystyka opsowa ZADANIE DOMOWE www.etrapez.pl Strona 1 Część 1: TEST Zaznacz poprawną odpowedź (tylko jedna jest prawdzwa). Pytane 1 W statystyce opsowej mamy pełne nformacje

Bardziej szczegółowo

REALIZACJA PRZETWARZANIA W CHMURZE OBLICZENIOWEJ NA PRZYKŁADZIE SYSTEMU UCZENIA SIECI NEURONOWEJ OPARTEGO NA TECHNOLOGII MICROSOFT WINDOWS AZURE

REALIZACJA PRZETWARZANIA W CHMURZE OBLICZENIOWEJ NA PRZYKŁADZIE SYSTEMU UCZENIA SIECI NEURONOWEJ OPARTEGO NA TECHNOLOGII MICROSOFT WINDOWS AZURE STUDIA INFORMATICA 2012 Volume 33 Number 2A (105) Darusz R. AUGUSTYN, Kaml BADURA Poltechnka Śląska, Instytut Informatyk REALIZACJA PRZETWARZANIA W CHMURZE OBLICZENIOWEJ NA PRZYKŁADZIE SYSTEMU UCZENIA

Bardziej szczegółowo

(M2) Dynamika 1. ŚRODEK MASY. T. Środek ciężkości i środek masy

(M2) Dynamika 1. ŚRODEK MASY. T. Środek ciężkości i środek masy (MD) MECHANIKA - Dynamka T. Środek cężkośc środek masy (M) Dynamka T: Środek cężkośc środek masy robert.szczotka(at)gmal.com Fzyka astronoma, Lceum 01/014 1 (MD) MECHANIKA - Dynamka T. Środek cężkośc środek

Bardziej szczegółowo

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE SIECI NEURONOWE Przedmiotem laboratorium jest stworzenie algorytmu rozpoznawania zwierząt z zastosowaniem sieci neuronowych w oparciu o 5 kryteriów: ile zwierzę ma nóg, czy żyje w wodzie, czy umie latać,

Bardziej szczegółowo

D Archiwum Prac Dyplomowych - Instrukcja dla studentów

D Archiwum Prac Dyplomowych - Instrukcja dla studentów Kraków 01.10.2015 D Archwum Prac Dyplomowych - Instrukcja dla studentów Procedura Archwzacj Prac Dyplomowych jest realzowana zgodne z zarządzenem nr 71/2015 Rektora Unwersytetu Rolnczego m. H. Kołłątaja

Bardziej szczegółowo

CAŁKOWANIE NUMERYCZNE całki pojedyncze

CAŁKOWANIE NUMERYCZNE całki pojedyncze CAŁKOWANIE NUMERYCZNE całk pojedyncze Kwadratury nterpolacyjne Kwadratury nterpolacyjne Rozpatrujemy funkcję f() cągłą ogranczoną w przedzale domknętym [a, b]. Przedzał [a, b] dzelmy na skończoną lczbę

Bardziej szczegółowo

3. ŁUK ELEKTRYCZNY PRĄDU STAŁEGO I PRZEMIENNEGO

3. ŁUK ELEKTRYCZNY PRĄDU STAŁEGO I PRZEMIENNEGO 3. ŁUK ELEKTRYCZNY PRĄDU STŁEGO I PRZEMIENNEGO 3.1. Cel zakres ćwczena Celem ćwczena jest zapoznane sę z podstawowym właścwoścam łuku elektrycznego palącego sę swobodne, w powetrzu o cśnentmosferycznym.

Bardziej szczegółowo

D Archiwum Prac Dyplomowych - Instrukcja dla opiekunów/promotorów/recenzentów

D Archiwum Prac Dyplomowych - Instrukcja dla opiekunów/promotorów/recenzentów D Archwum Prac Dyplomowych - Instrukcja dla opekunów/promotorów/recenzentów Kraków 13.01.2016 r. Procedura Archwzacj Prac Dyplomowych jest realzowana zgodne z zarządzenem nr 71/2015 Rektora Unwersytetu

Bardziej szczegółowo

Ćwiczenie 10. Metody eksploracji danych

Ćwiczenie 10. Metody eksploracji danych Ćwczene 10. Metody eksploracj danych Grupowane (Clusterng) 1. Zadane grupowana Grupowane (ang. clusterng) oznacza grupowane rekordów, obserwacj lub przypadków w klasy podobnych obektów. Grupa (ang. cluster)

Bardziej szczegółowo

Kwantowa natura promieniowania elektromagnetycznego

Kwantowa natura promieniowania elektromagnetycznego Efekt Comptona. Kwantowa natura promenowana elektromagnetycznego Zadane 1. Foton jest rozpraszany na swobodnym elektrone. Wyznaczyć zmanę długośc fal fotonu w wynku rozproszena. Poneważ układ foton swobodny

Bardziej szczegółowo

Urządzenia wejścia-wyjścia

Urządzenia wejścia-wyjścia Urządzena wejśca-wyjśca Klasyfkacja urządzeń wejśca-wyjśca. Struktura mechanzmu wejśca-wyjśca (sprzętu oprogramowana). Interakcja jednostk centralnej z urządzenam wejśca-wyjśca: odpytywane, sterowane przerwanam,

Bardziej szczegółowo

= σ σ. 5. CML Capital Market Line, Rynkowa Linia Kapitału

= σ σ. 5. CML Capital Market Line, Rynkowa Linia Kapitału 5 CML Catal Market Lne, ynkowa Lna Katału Zbór ortolo o nalny odchylenu standardowy zbór eektywny ozważy ortolo złożone ze wszystkch aktywów stnejących na rynku Załóży, że jest ch N A * P H P Q P 3 * B

Bardziej szczegółowo

Zadanie na wykonanie Projektu Zespołowego

Zadanie na wykonanie Projektu Zespołowego Zadane na wykonane Projektu Zespołowego Celem projektu jest uzyskane następującego szeregu umejętnośc praktycznych: umejętnośc opracowana równoległych wersj algorytmów (na przykładze algorytmów algebry

Bardziej szczegółowo

11/22/2014. Jeśli stała c jest równa zero to takie gry nazywamy grami o sumie zerowej.

11/22/2014. Jeśli stała c jest równa zero to takie gry nazywamy grami o sumie zerowej. /22/24 Dwuosobowe gry o sume zero DO NAUCZENIA I ZAPAMIĘTANIA: Defnca zaps ger o sume zero, adaptaca ogólnych defnc. Punkt sodłowy Twerdzena o zwązkach punktu sodłowego z koncepcam rozwązań PRZYPOMNIENIE:

Bardziej szczegółowo

1. Logika, funkcje logiczne, preceptron.

1. Logika, funkcje logiczne, preceptron. Sieci neuronowe 1. Logika, funkcje logiczne, preceptron. 1. (Logika) Udowodnij prawa de Morgana, prawo pochłaniania p (p q), prawo wyłączonego środka p p oraz prawo sprzeczności (p p). 2. Wyraź funkcję

Bardziej szczegółowo

Plan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty)

Plan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty) Plan wykładu Dzałane neuronu dyskretnego warstwy neuronów dyskretnych Wykład : Reguły uczena sec neuronowych. Sec neuronowe ednokerunkowe. Reguła perceptronowa Reguła Wdrowa-Hoffa Reguła delta ałgorzata

Bardziej szczegółowo

Treść zadań 1 8 odnosi się do poniższego diagramu przestrzenno-czasowego.

Treść zadań 1 8 odnosi się do poniższego diagramu przestrzenno-czasowego. Treść zadań 8 odnos sę do ponższego dagramu przestrzenno-czasowego. P e e e e e e P e P P e e e e. Jaka będze wartość zmennej clock (zegara skalarnego) po zajścu zdarzena e w procese P zakładając że wartość

Bardziej szczegółowo

Oligopol dynamiczny. Rozpatrzmy model sekwencyjnej konkurencji ilościowej jako gra jednokrotna z pełną i doskonalej informacją

Oligopol dynamiczny. Rozpatrzmy model sekwencyjnej konkurencji ilościowej jako gra jednokrotna z pełną i doskonalej informacją Olgopol dynamczny Rozpatrzmy model sekwencyjnej konkurencj loścowej jako gra jednokrotna z pełną doskonalej nformacją (1934) Dwa okresy: t=0, 1 tzn. frma 2 podejmując decyzję zna decyzję frmy 1 Q=q 1 +q

Bardziej szczegółowo

( ) ( ) 2. Zadanie 1. są niezależnymi zmiennymi losowymi o. oraz. rozkładach normalnych, przy czym EX. i σ są nieznane. 1 Niech X

( ) ( ) 2. Zadanie 1. są niezależnymi zmiennymi losowymi o. oraz. rozkładach normalnych, przy czym EX. i σ są nieznane. 1 Niech X Prawdopodobeństwo statystyka.. r. Zadane. Zakładamy, że,,,,, 5 są nezależnym zmennym losowym o rozkładach normalnych, przy czym E = μ Var = σ dla =,,, oraz E = μ Var = 3σ dla =,, 5. Parametry μ, μ σ są

Bardziej szczegółowo

Optymalizacja belki wspornikowej

Optymalizacja belki wspornikowej Leszek MIKULSKI Katedra Podstaw Mechank Ośrodków Cągłych, Instytut Mechank Budowl, Poltechnka Krakowska e mal: ps@pk.edu.pl Optymalzacja belk wspornkowej 1. Wprowadzene RozwaŜamy zadane optymalnego kształtowana

Bardziej szczegółowo

METODA UNITARYZACJI ZEROWANEJ Porównanie obiektów przy ocenie wielokryterialnej. Ranking obiektów.

METODA UNITARYZACJI ZEROWANEJ Porównanie obiektów przy ocenie wielokryterialnej. Ranking obiektów. Opracowane: Dorota Mszczyńska METODA UNITARYZACJI ZEROWANEJ Porównane obektów przy ocene welokryteralnej. Rankng obektów. Porównane wybranych obektów (warantów decyzyjnych) ze względu na różne cechy (krytera)

Bardziej szczegółowo

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. zajecia.jakubw.pl/nai Literatura: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym. WNT, Warszawa 997. PODSTAWOWE ZAGADNIENIA TECHNICZNE AI

Bardziej szczegółowo

Współczynnik korelacji liniowej oraz funkcja regresji liniowej dwóch zmiennych

Współczynnik korelacji liniowej oraz funkcja regresji liniowej dwóch zmiennych Współcznnk korelacj lnowej oraz funkcja regresj lnowej dwóch zmennch S S r, cov współcznnk determnacj R r Współcznnk ndetermnacj ϕ r Zarówno współcznnk determnacj jak ndetermnacj po przemnożenu przez 00

Bardziej szczegółowo

PODSTAWA WYMIARU ORAZ WYSOKOŚĆ EMERYTURY USTALANEJ NA DOTYCHCZASOWYCH ZASADACH

PODSTAWA WYMIARU ORAZ WYSOKOŚĆ EMERYTURY USTALANEJ NA DOTYCHCZASOWYCH ZASADACH PODSTAWA WYMIARU ORAZ WYSOKOŚĆ EMERYTURY USTALANEJ NA DOTYCHCZASOWYCH ZASADACH Z a k ł a d U b e z p e c z e ń S p o ł e c z n y c h Wprowadzene Nnejsza ulotka adresowana jest zarówno do osób dopero ubegających

Bardziej szczegółowo

Pomiary dawek promieniowania wytwarzanego w liniowych przyspieszaczach na użytek radioterapii

Pomiary dawek promieniowania wytwarzanego w liniowych przyspieszaczach na użytek radioterapii Pomary dawek promenowana wytwarzanego w lnowych przyspeszaczach na użytek radoterap Włodzmerz Łobodzec Zakład Radoterap Szptala m. S. Leszczyńskego w Katowcach Cel radoterap napromenene obszaru PTV zaplanowaną,

Bardziej szczegółowo

Kształtowanie się firm informatycznych jako nowych elementów struktury przestrzennej przemysłu

Kształtowanie się firm informatycznych jako nowych elementów struktury przestrzennej przemysłu PRACE KOMISJI GEOGRAFII PRZEMY SŁU Nr 7 WARSZAWA KRAKÓW 2004 Akadema Pedagogczna, Kraków Kształtowane sę frm nformatycznych jako nowych elementów struktury przestrzennej przemysłu Postępujący proces rozwoju

Bardziej szczegółowo

1. SPRAWDZENIE WYSTEPOWANIA RYZYKA KONDENSACJI POWIERZCHNIOWEJ ORAZ KONDENSACJI MIĘDZYWARSTWOWEJ W ŚCIANIE ZEWNĘTRZNEJ

1. SPRAWDZENIE WYSTEPOWANIA RYZYKA KONDENSACJI POWIERZCHNIOWEJ ORAZ KONDENSACJI MIĘDZYWARSTWOWEJ W ŚCIANIE ZEWNĘTRZNEJ Ćwczene nr 1 cz.3 Dyfuzja pary wodnej zachodz w kerunku od środowska o wyższej temperaturze do środowska chłodnejszego. Para wodna dyfundująca przez przegrody budowlane w okrese zmowym napotyka na coraz

Bardziej szczegółowo

Metody gradientowe poszukiwania ekstremum. , U Ŝądana wartość napięcia,

Metody gradientowe poszukiwania ekstremum. , U Ŝądana wartość napięcia, Metody gradentowe... Metody gradentowe poszukwana ekstremum Korzystają z nformacj o wartośc funkcj oraz jej gradentu. Wykazując ch zbeŝność zakłada sę, Ŝe funkcja celu jest ogranczona od dołu funkcją wypukłą

Bardziej szczegółowo

Opracowanie metody predykcji czasu życia baterii na obiekcie i oceny jej aktualnego stanu na podstawie analizy bieżących parametrów jej eksploatacji.

Opracowanie metody predykcji czasu życia baterii na obiekcie i oceny jej aktualnego stanu na podstawie analizy bieżących parametrów jej eksploatacji. Zakład Systemów Zaslana (Z-5) Opracowane nr 323/Z5 z pracy statutowej pt. Opracowane metody predykcj czasu życa bater na obekce oceny jej aktualnego stanu na podstawe analzy beżących parametrów jej eksploatacj.

Bardziej szczegółowo

5. Pochodna funkcji. lim. x c x c. (x c) = lim. g(c + h) g(c) = lim

5. Pochodna funkcji. lim. x c x c. (x c) = lim. g(c + h) g(c) = lim 5. Pocodna funkcj Defncja 5.1 Nec f: (a, b) R nec c (a, b). Jeśl stneje granca lm x c x c to nazywamy ją pocodną funkcj f w punkce c oznaczamy symbolem f (c) Twerdzene 5.1 Jeśl funkcja f: (a, b) R ma pocodną

Bardziej szczegółowo

Przykład 5.1. Kratownica dwukrotnie statycznie niewyznaczalna

Przykład 5.1. Kratownica dwukrotnie statycznie niewyznaczalna rzykład.. Kratownca dwukrotne statyczne newyznaczana oecene: korzystaąc z metody sł wyznaczyć sły w prętach ponższe kratowncy. const Rozwązane zadana rozpoczynamy od obczena stopna statyczne newyznaczanośc

Bardziej szczegółowo

Metody badań kamienia naturalnego: Oznaczanie współczynnika nasiąkliwości kapilarnej

Metody badań kamienia naturalnego: Oznaczanie współczynnika nasiąkliwości kapilarnej Metody badań kaena naturalnego: Oznaczane współczynnka nasąklwośc kaplarnej 1. Zasady etody Po wysuszenu do stałej asy, próbkę do badana zanurza sę w wodze jedną z powerzchn (ngdy powerzchną obrabaną)

Bardziej szczegółowo

Prawdopodobieństwo geometryczne

Prawdopodobieństwo geometryczne Prawdopodobeństwo geometryczne Przykład: Przestrzeń zdarzeń elementarnych określona jest przez zestaw punktów (x, y) na płaszczyźne wypełna wnętrze kwadratu [0 x ; 0 y ]. Znajdź p-stwo, że dowolny punkt

Bardziej szczegółowo

Uczenie sieci typu MLP

Uczenie sieci typu MLP Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik

Bardziej szczegółowo

Prawdziwa ortofotomapa

Prawdziwa ortofotomapa Prawdzwa ortofotomapa klasyczna a prawdzwa ortofotomapa mnmalzacja przesunęć obektów wystających martwych pól na klasycznej ortofotomape wpływ rodzaju modelu na wynk ortorektyfkacj budynków stratege opracowana

Bardziej szczegółowo

Optymalizacja optymalizacji

Optymalizacja optymalizacji 7 maja 2008 Wstęp Optymalizacja lokalna Optymalizacja globalna Algorytmy genetyczne Badane czasteczki Wykorzystane oprogramowanie (Algorytm genetyczny) 2 Sieć neuronowa Pochodne met-enkefaliny Optymalizacja

Bardziej szczegółowo

Badania operacyjne w logistyce i zarządzaniu produkcją

Badania operacyjne w logistyce i zarządzaniu produkcją Państwowa Wyższa Szkoła Zawodowa w Nowym Sączu Badana operacyne w logstyce zarządzanu produkcą cz. I Andrze Woźnak Nowy Sącz Komtet Redakcyny doc. dr Zdzsława Zacłona przewodncząca, prof. dr hab. nż. Jarosław

Bardziej szczegółowo

Prawdopodobieństwo i statystyka r.

Prawdopodobieństwo i statystyka r. Prawdopodobeństwo statystya.05.00 r. Zadane Zmenna losowa X ma rozład wyładnczy o wartośc oczewanej, a zmenna losowa Y rozład wyładnczy o wartośc oczewanej. Obe zmenne są nezależne. Oblcz E( Y X + Y =

Bardziej szczegółowo