Plan wykładu. Sztuczne sieci neuronowe. Problem dwuklasowy (N=1) Problem klasyfikacji. Wykład 4-5: Ocena jakości sieci neuronowej Sieci RBF

Wielkość: px
Rozpocząć pokaz od strony:

Download "Plan wykładu. Sztuczne sieci neuronowe. Problem dwuklasowy (N=1) Problem klasyfikacji. Wykład 4-5: Ocena jakości sieci neuronowej Sieci RBF"

Transkrypt

1 Plan wyładu Wyład 4-5: Ocena jaośc sec neuronowej Sec RBF Małgorzata Krętowsa Wydzał Informaty PB Metody oceny jaośc sec neuronowych roblem lasyfacj metody szacowana jaośc lasyfacj ocena jaośc lasyfacj Sec o radalnych funcjach bazowych Wrowadzene do sec RBF Porównane sec welowarstwowych sec RBF Teoretyczne odstawy dzałane sec RBF Problem lasyfacj Problem dwulasowy (N=) Przyorządowane danego wetora cech x do jednej z M las: K, K,.., K M 0. (x/k ) (x/k ) {x, x,..., x n } KLASYFIKATOR 0. K 0.0 x 0 5 c 0 5 x 3 4

2 Problem dwulasowy (N=) Metody oceny jaośc lasyfacj Zbór uczący zbór testowy Waldacja rzyżowa (ang. crossvaldaton) Metoda leave-one-out (Jacnfe) 5 6 Waldacja rzyżowa (-untowa) Leave-one-out zbór danych: Przyade szczególny waldacj rzyżowej Jeżel zbór uczący zawera wetorów cech wówczas metoda leave-one-out jest równoważna -untowej waldacj rzyżowej losowy odzał zboru danych na odzborów zbór danych: odzbór testowy W ratyce : =0 7 8

3 Ocena jaośc lasyfacj Ocena jaośc lasyfacj ( lasy) Jaość lasyfacj = Lczba orawne slasyfowanych rzyadów / Lczba wszystch analzowanych rzyadów Klasa => Decyzja K K... K M Klasa (0, ) n. choroba (ta, ne) Ta Ne K n n n M K n n n M... Wyn lasyfacj Ta Ne True ostve False Postve (TP) (FP) TP+FP False negatve (FN) True negatve (TN) FN+TN K M n M n M n MM TP+FN FP+TN Lczność n n... n M Czy jaość lasyfacj 0,95 jest dobra? 9 0 Ocena jaośc lasyfacj ( lasy) Ocena jaośc lasyfacj ( lasy) 0. (x/k ) (x/k 0 ) Efetywność = TP+TN / TP+FP+FN+TN - fracja orawne slasyfowanych rzyadów 0. TP TN FP FN c 0 5 x Czułość = TP / TP+FN - fracja orawne slasyfowanych rzyadów choroby Secyfczność = TN / FP+TN - fracja orawne slasyfowanych rzyadów osób zdrowych (ang. accuracy, senstvty, secfcty)

4 Krzywa ROC (ang. Recever Oeratng Characterstcs) Sec o radalnych funcjach bazowych (RBF; ang. Radal Bass Functons) Krzywa ROC - obrazuje zależność omędzy czułoścą metody a wartoścą -secyfczność dla różnych wartośc rogowych Porównane jaośc dwóch metod lasyfacj => orównane welośc obszaru od rzywą ROC Sec dwuwarstwowe ( warstwa uryta) Przeływ nformacj od wejśca w erunu warstwy wyjścowej Bra wymany nformacj mędzy neuronam w jednej warstwe 3 4 Sec welowarstwowe a sec RBF Sec welowarstwowe a sec RBF Sec neuronowe welowarstwowe neurony w warstwach urytych sełnały rolę sumatorów mulsów dochodzących do nch z orzednej warstwy rezultat sumowana był nastęne rzetwarzany rzez tzw. funcję atywacj owodował obudzene neuronu na oreślonym ozome neuron rzeazywał swoją atywację - jao bodzec numeryczny do warstwy nastęnej lub na wyjśce Sec RBF wyznaczene atywacj, w neuronach warstwy urytej, odbywa sę na zasadze wyznaczena wartośc tzw. radalnej funcj bazowej (argumentem jest odległość x-c ) Warstwa wyjścowa sumuje atywacje neuronów warstwy urytej (osługując sę swom wagam) Wyn sumowana jest odawany jao wyn dzałana sec Sec welowarstwowe neuron rerezentuje herłaszczyznę może być wele warstw urytych Sec RBF neuron rerezentuje hersferę, doonującą odzału ołowego woół untu centralnego jedna warstwa uryta => uroszczene uczena sec 5 6

5 Radalne funcje bazowe Radalną funcją bazową (tyu RBF) nazywany funcję G( ) ostac: Przyłady radalnych funcj bazowych r Funcja Gaussa G( r) = ex σ G(x; c) = G (r(x,c)), gdze r(x,c)= x-c ={(x-c) T (x-c)} / oznacza to, że wartośc funcj - dla danego argumentu x - zależą tylo od odległośc jej argumentu od centrum c będącym arametrem tej funcj. (ojedyncza funcja radalna jest czasem nazywana jądrem (ang. ernel) a arametr σ szerooścą jądra). 7 8 Przyłady radalnych funcj bazowych Przyłady radalnych funcj bazowych α Funcje otęgowe G( r) = ( + r ), > 0 σ α Funcja slejana G( r) = ( r) ln( r) σ σ α=

6 Dzałane sec RBF Teoretyczne odstawy sec RBF (arosymacja) W secach RBF neurony erwszej warstwy oblczają - na odstawe odanego na wejśce wetora cech x, swoje atywacje jao wartość: G (x)=g(x, c ); G (x)=g(x, c );...; G H (x)=g(x,c H ) gdze G h - oznacza funcję radalną oblczoną względem centrum c h. Seć RBF dzała na zasadze welowymarowej nterolacj, tórej zadanem jest odwzorowane różnych wetorów wejścowych x (=,,.., ) z N wymarowej rzestrzen wejścowej w zbór lczb rzeczywstych d. Jest to równoważne oreślenu funcj radalnej F(x), dla tórej są sełnone warun nterolacj: Oblczone w ten sosób wartośc G,.., G H służą jao dane wejścowe dla warstwy wyjścowej, tóra oblcza z nch ważoną sumę. Przy założenu jednego neuronu w warstwe wyjścowej otrzymujemy: y(x)=w 0 +w G (x) +w G (x) w H G H (x) F(x ) = d rzy czym funcja F(x) oreślona jest wzorem: F( x) = = w G ( x ) x Przy danych centrach c, c,..., c H arametrze σ ozostają nam tylo do wyznaczena wartośc wag. gdze x - wartośc wetorów centra funcj radalnej. Wybór rodzaju normy może być dowolny, w ratyce najczęścej norma euldesowa. Teoretyczne odstawy sec RBF Seć RBF - odstawy teoretyczne Załadając untów nterolacyjnych można otrzymać uład równań lnowych: G G L G W d G G L G W = d L L L L L L G G L G W d gdze G j =G( x j -x ) dotyczy funcj radalnej w centrum x. W ostac macerzowej: GW=d Rozwązane: W=G - d Wrowadzone założene dotyczące stnena neuronów urytych rowadz do uzysana sec o złych własnoścach uogólnających. Przy dużej lczbe danych uczących równej m lczbe funcj radalnych seć będze sę doasowywała do różnego rodzaju szumów neregularnośc wystęujących w danych. Wrowadzene czynna regularyzacj (roblem otymalzacj): L( F) = ( F( x ) d ) + λ PF = gdze λ wsółczynn regularyzacj, PF - czynn stablzujący arzący za bra gładośc funcj F (duże często owtarzające sę zmany nachyleń funcj arosymującej) 3 4

7 Regularyzacja Seć RBF - odstawy teoretyczne (lasyfacja) Twerdzene Covera (965) Złożony roblem lasyfacyjny zrzutowany nelnowo na rzestrzeń welowymarową może być rozdzelony za omocą searatora lnowego z węszym rawdoodobeństwem nż rzy rzutowanu na rzestrzeń o mnejszej lczbe wymarów. Wływ regularyzacj na odwzorowane danych rzy nadwymarowej lczbe funcj bazowych: a) bra regularyzacj; b) wyn z regularyzacją Udowodnono, że ażdy zbór wzorców losowo rozmeszczony w rzestrzen welowymarowej jest ϕ-searowalny z rawdoodobeństwem równym jeden, od warunem zastosowana odowedno dużego wymaru, na tóry rzutowana jest ta rzestrzeń, tj. rzestrzeń generowana rzez funcje bazowe ϕ. 5 6 Seć RBF - odstawy teoretyczne Seć RBF - roblem XOR Zatem stneje ta wetor w, że: w T ϕ(x) 0 dla x A w T ϕ(x) < 0 dla x B Rozważmy roblem XOR dla dwóch wymarów, tóry, ja wadomo, ne jest rozdzelny lnowo. gdze w T ϕ(x)=0 rerezentuje grancę omędzy lasam. W ratyce oznacza to, że zastosowane dwu warstw sec, jednej zawerającej funcje radalne wyjścowej warstwy lnowej zaewna rozwązane roblemu lasyfacj nelnowej. Zdefnujmy ewne rzeształcene rzestrzen x w rzestrzeń ϕ za omocą ary funcj Gaussowsch: ϕ (x) = e - x-c c =[;] 7 ϕ (x) = e - x-c c =[0;0] 8

8 Seć RBF - roblem XOR Seć RBF Tae rzeształcene wzorców x odowada ch rzutowanu na łaszczyznę ϕ - ϕ zobrazowaną onżej: y m = H = 0 G ( x) w m 9 30 Rodzaje sec RBF Sec HRBF Sec GRBF (ang. Generalzed Radal Bass Functon)- mnejsza lczba węzłów nż danych. Sec HRBF (ang. Hyer Radal Bass Functon)- ełna macerz obrotów salowana Q (wsółczynn wagowy, ze względu na różną zmenność w ażdej os; Q różne dla różnych centrów): Sec RBF Sec HRBF T T T x Q = ( Qx ) ( Qx ) = x Q Qx Oznaczając loczyn macerzy Q T Q jao macerz C otrzymujemy: x Q = = j= C x x j W szczególnośc, jeżel macerz Q jest dagonalna Q=, wówczas wagowa norma Euldesowa srowadza sę do normy lasycznej: x = x = Q x = j 3 3

9 Uczene sec RBF Uczene sec RBF odbywa sę w trybe nadzorowanym. Można tu wyróżnć dwa etay: dobór arametrów funcj bazowych (centra + dysersje) Eta I - wybór centrów funcj bazowych Losowy wybór centrów funcj bazowych Zastosowane rocesu samoorganzacj Wyorzystane dendrogramów Algorytm robablstyczny (HRBF) dobór wag neuronów warstwy wyjścowej Losowy wybór centrów funcj bazowych Zastosowane rocesu samoorganzacj rozwązane najrostsze, wyorzystywane dla lasycznych sec radalnych losowy wybór centrów: w obszarze zmennośc wzorców uczących losowy wybór centrów sośród wzorców uczących (rosty daje dobre rezultaty) arametr dysersj jest jednaowy dla wszystch funcj bazowych jest oreślany jao: d σ = M gdze M - jest lczbą wszystch neuronów warstwe urytej; d jest masymalną odległoścą omędzy wybranym centram Gaussowsa funcja bazowa rzyjmuje ostać: ( ) x c G x c = ex d K 35 Proces samoorganzacj stosowany do danych uczących automatyczne dzel rzestrzeń na obszary Voronoa, rerezentujące oddzelne gruy danych centrum lastra jest utożsamane z centrum odowednej funcj radalnej lczba tych funcj równa jest lczbe lastrów może być orygowana rzez algorytm samoorganzacj Proces odzału danych na lastry może być rzerowadzony rzy użycu jednej z wersj algorytmu -średnch Proces ncjalzacj centrów: odbywa sę najczęścej losowo, rzy założenu rozładu równomernego w rocese doboru odowednch wetorów x ze zboru danych uczących, jao centrów. 36

10 Zastosowane rocesu samoorganzacj w rzyadu danych uczących rerezentujących funcję cągła: wstęne wartośc centrów umeszcza sę w untach odowadających wartoścom masymalnym mnmalnym funcj. Dane odowadające tym centrom oraz ch najblższemu otoczenu są usuwane ze zboru, a ozostałe centra są loowane równomerne w obszarze utworzonym rzez dane ozostające w zborze. o zarezentowanu -tego wzorca x() ze zboru uczącego jest wyberane najblższe centrum, tóre nastęne odlega atualzacj: wsółczynn uczena η() maleje w marę wzrostu, n. (T - stała l. eo) η( ) =η0 ( + T ) ażdy wetor uczący jest rezentowany lunastorotne, aż do ustalena wartośc centrów. c ( + ) = c ( ) + η( )[( x( ) c ( )] 37 Zastosowane rocesu samoorganzacj Dobór arametru dysersj funcj radalnych: Aby odwzorowane funcj realzowane rzez sec radalne było stosunowo głade: ola rececyjne wszystch funcj radalnych ownny orywać cały obszar danych wejścowych dwa ola mogą orywać sę tylo w neznacznym stonu. Proonowane rozwązana za wartość σ j j-tej funcj radalnej rzyjmuje sę odległość euldesową centrum c j od jego najblższego sąsada (tzn. nnego centrum) na wartość σ j wływa odległość j-tego centrum od jego P najblższych sąsadów (zwyle ne rzeracza trzech): σ = j P P = c j c 38 Konstruowane lastrów za omocą dendrogramów Na oczątu ażdy z wetorów trenngowych tworzy odrębny laster W rocese teracyjnym nastęuje łączene najblższych, w sense odowednej mary odległośc, sąsadów Procedura jest owtarzana do momentu: uzysana zadowalającej lczby lastrów lub najmnejsza odległość w teracj oaże sę zbyt duża, aby można było doonać ołączena Algorytm robablstyczny doboru arametrów funcj radalnych Element luczowy w jaośc sec: wstęny dobór lczby funcj bazowych Wymagana co do lczby neuronów można złagodzć rzez wrowadzene sec tyu HRBF realzującej odwzorowane z normą wagową Euldesa Wsółczynn macerzy Q są dodatowym arametram odlegającym doborow ułatwają arosymację danych uczących rzez seć radalną Taą samą doładność można uzysać w sec HRBF rzy mnejszej lczbe funcj bazowych 39 40

11 Seć HRBF Algorytm robablstyczny Założena: równomerny rozład danych uczących x w zborze uczącym ogranczene sę do dagonalnej macerzy salującej Q Proces adatacj arametrów: η - wsółczynn uczena (maleje w marę wzrostu : η = η 0 /) Wyres błędu lasyfacj w funcj lczby neuronów urytych dla sec RBF HRBF 4 T ϕ ( x) = ex [ x c ( )] F [ x c ( )] c ( ) + η[ ϕ ( x ) x c ( )] c ( + ) = ( η ) + η ϕ ( x ) F ( ) + η[ ϕ ( x )[ x c ( )][ x c ( )] F ( + ) = ( η ) + η ϕ ( x ) T = Q F f ( )] 4 Algorytm robablstyczny Eta II - uczene z nadzorem Cechy charaterystyczne: na ażdym etae algorytmu nastęuje równocześne adatacja centrów macerzy wagowej arametry wszystch funcj radalnych sec odlegają adatacj (w algorytme -średnch tylo jedno centrum odlegało adatacj) 43 Bazuje, odobne ja w secach sgmodalnych, na mnmalzacj funcj celu w ostac: E = e e = d = H f ( x ) = d w ϕ j = j j ( x c ) Można doonywać równolegle atualzacj wag, centrów dysersj (dowolne metody gradentowe) E w ( + ) = w ( ) ηw w E c ( + ) = c ( ) ηc c E σ ( + ) = σ ( ) η σ σ 44

12 Uczene sec RBF Dobór lczby funcj bazowych jest luczowym roblemem rzy właścwym rozwązanu roblemu arosymacj. Dobór właścwej lczby neuronów zależy od welu czynnów: wymarowośc roblemu, lczby danych uczących, funcj arosymowanej. Zaleca sę stosowane tzw. onstrutywnej metody doboru strutury sec, w tórej stonowo zwęsza sę lczbę funcj bazowych testuje błąd sec. 45 Seć RBF, zalety wady łatwy roces nau sec RBF (tj. dobór wag sec) w orównanu z algorytmam uczena ercetronu welowarstwowego w sec RBF funcja osztu oreślona jao błąd średnowadratowy osada jedno mnmum globalne łatwejszy dobór strutury sec ze względu na wystęowane tylo jednej warstwy urytej Łatwejsza nterretacja dzałana sec tj. oreślene udzału oszczególnych funcj bazowych w tworzenu globalnej funcj rzetwarzana sec dla rozwązana ewnych zadań oblczenowych uzysuje sę mnejszą lczbę wag w sec RBF nż wag w sec MLP ( dla netórych odwrotne) seć RBF, rzy nerawdłowo dobranych arametrach funcj bazowych, może łatwo utracć zdolność uogólnana atualny ozostaje roblem doboru lczby funcj bazowych 46

Plan wykładu. Sztuczne sieci neuronowe. Problem dwuklasowy (N=1) Problem klasyfikacji. Wykład 6: Ocena jakoci sieci neuronowej Sieci RBF KLASYFIKATOR

Plan wykładu. Sztuczne sieci neuronowe. Problem dwuklasowy (N=1) Problem klasyfikacji. Wykład 6: Ocena jakoci sieci neuronowej Sieci RBF KLASYFIKATOR Plan wykładu Wykład 6: Ocena jakoc sec neuronowej Sec RBF Małgorzata Krtowska Katedra Orogramowana e-mal: mmac@.b.balystok.l Metody oceny jakoc sec neuronowych roblem klasyfkacj metody szacowana jakoc

Bardziej szczegółowo

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311 Sztuczne sec neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyk, p. 311 Wykład 6 PLAN: - Repetto (brevs) - Sec neuronowe z radalnym funkcjam bazowym Repetto W aspekce archtektury: zajmowalśmy

Bardziej szczegółowo

Statystyczne metody przetwarzania danych

Statystyczne metody przetwarzania danych Artfcal Intellgence Krzysztof Ślot, 2008 Statystyczne metody rzetwarzana danych Klasyfkacja mnmalnoodległoścowa Krzysztof Ślot Instytut Informatyk Stosowanej Poltechnka Łódzka Artfcal Intellgence Krzysztof

Bardziej szczegółowo

Prawdopodobieństwo i statystyka r.

Prawdopodobieństwo i statystyka r. Prawdopodobeństwo statystya.05.00 r. Zadane Zmenna losowa X ma rozład wyładnczy o wartośc oczewanej, a zmenna losowa Y rozład wyładnczy o wartośc oczewanej. Obe zmenne są nezależne. Oblcz E( Y X + Y =

Bardziej szczegółowo

Analiza danych OGÓLNY SCHEMAT. http://zajecia.jakubw.pl/ Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja)

Analiza danych OGÓLNY SCHEMAT. http://zajecia.jakubw.pl/ Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja) Analza danych Dane trenngowe testowe. Algorytm k najblższych sąsadów. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ OGÓLNY SCHEMAT Mamy dany zbór danych podzelony na klasy decyzyjne, oraz

Bardziej szczegółowo

F - wypadkowa sił działających na cząstkę.

F - wypadkowa sił działających na cząstkę. PRAWA ZACHOWAIA Podstawowe termny Cała tworzące uład mechanczny oddzałują mędzy sobą z całam nenależącym do uładu za omocą: Sł wewnętrznych Sł zewnętrznych - Sł dzałających na dane cało ze strony nnych

Bardziej szczegółowo

Reprezentacje grup symetrii. g s

Reprezentacje grup symetrii. g s erezentace ru ymetr Teora rerezentac dea: oeracom ymetr rzyać oeratory dzałaące w rzetrzen func zwązać z nm funce, tóre oeratory te rzerowadzaą w ebe odobne a zb. untów odcza oerac ymetr rozważmy rzeztałcene

Bardziej szczegółowo

Proces narodzin i śmierci

Proces narodzin i śmierci Proces narodzn śmerc Jeżel w ewnej oulacj nowe osobnk ojawają sę w sosób losowy, rzy czym gęstość zdarzeń na jednostkę czasu jest stała w czase wynos λ, oraz lczba osobnków n, które ojawły sę od chwl do

Bardziej szczegółowo

Kier. MTR Programowanie w MATLABie Laboratorium Ćw. 12

Kier. MTR Programowanie w MATLABie Laboratorium Ćw. 12 Ker. MTR Programowane w MATLABe Laboratorum Ćw. Analza statystyczna grafczna danych pomarowych. Wprowadzene MATLAB dysponuje weloma funcjam umożlwającym przeprowadzene analzy statystycznej pomarów, czy

Bardziej szczegółowo

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych Najprostsza jest jednostka lnowa: Neuron lnowy potraf ona rozpoznawać wektor wejścowy X = (x 1, x 2,..., x n ) T zapamętany we współczynnkach wagowych W = (w 1, w 2,..., w n ), Zauważmy, że y = W X Załóżmy,

Bardziej szczegółowo

Parametry zmiennej losowej

Parametry zmiennej losowej Eonometra Ćwczena Powtórzene wadomośc ze statysty SS EK Defncja Zmenną losową X nazywamy funcję odwzorowującą przestrzeń zdarzeń elementarnych w zbór lczb rzeczywstych, taą że przecwobraz dowolnego zboru

Bardziej szczegółowo

exp jest proporcjonalne do czynnika Boltzmanna exp(-e kbt (szerokość przerwy energetycznej między pasmami) g /k B

exp jest proporcjonalne do czynnika Boltzmanna exp(-e kbt (szerokość przerwy energetycznej między pasmami) g /k B Koncentracja nośnów ładunu w półprzewodnu W półprzewodnu bez domesz swobodne nośn ładunu (eletrony w paśme przewodnctwa, dzury w paśme walencyjnym) powstają tylo w wynu wzbudzena eletronów z pasma walencyjnego

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE METODY KLASYFIKACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

SYSTEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE METODY KLASYFIKACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska. SYSEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE MEODY KLASYFIKACJI Częstochowa 4 Dr hab. nż. Grzegorz Dude Wydzał Eletryczny Poltechna Częstochowsa FUNKCJE FISHEROWSKA DYSKRYMINACYJNE DYSKRYMINACJA I MASZYNA LINIOWA

Bardziej szczegółowo

Nieliniowe zadanie optymalizacji bez ograniczeń numeryczne metody iteracyjne optymalizacji

Nieliniowe zadanie optymalizacji bez ograniczeń numeryczne metody iteracyjne optymalizacji Nelnowe zadane optymalzacj bez ogranczeń numeryczne metody teracyjne optymalzacj mn R n f ( ) = f Algorytmy poszuwana mnmum loalnego zadana programowana nelnowego: Bez ogranczeń Z ogranczenam Algorytmy

Bardziej szczegółowo

Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE

Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE Inormatyka Podstawy Programowana 06/07 Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE 6. Równana algebraczne. Poszukujemy rozwązana, czyl chcemy określć perwastk rzeczywste równana:

Bardziej szczegółowo

Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba

Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 1 Ćwczene 2: Perceptron WYMAGANIA 1. Sztuczne sec neuronowe budowa oraz ops matematyczny perceptronu (funkcje przejśca perceptronu), uczene perceptronu

Bardziej szczegółowo

Metody Numeryczne 2017/2018

Metody Numeryczne 2017/2018 Metody Numeryczne 7/8 Inormatya Stosowana II ro Inżynera Oblczenowa II ro Wyład 7 Równana nelnowe Problemy z analtycznym rozwązanem równań typu: cos ln 3 lub uładów równań ja na przyład: y yz. 3z y y.

Bardziej szczegółowo

STATYSTYKA. Zmienna losowa skokowa i jej rozkład

STATYSTYKA. Zmienna losowa skokowa i jej rozkład STATYSTYKA Wnosowane statystyczne to proces myślowy polegający na formułowanu sądów o całośc przy dysponowanu o nej ogranczoną lczbą nformacj Zmenna losowa soowa jej rozład Zmenną losową jest welość, tóra

Bardziej szczegółowo

XXX OLIMPIADA FIZYCZNA ETAP I Zadania teoretyczne

XXX OLIMPIADA FIZYCZNA ETAP I Zadania teoretyczne XXX OLIPIADA FIZYCZNA TAP I Zadana teoretczne Nazwa zadana ZADANI T1 Na odstawe wsółczesnch badań wadomo że jądro atomowe może znajdować sę tlo w stanach o oreślonch energach odobne ja dobrze znan atom

Bardziej szczegółowo

Zaawansowane metody numeryczne

Zaawansowane metody numeryczne Wykład 9. jej modyfkacje. Oznaczena Będzemy rozpatrywać zagadnene rozwązana następującego układu n równań lnowych z n newadomym x 1... x n : a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x

Bardziej szczegółowo

Sieci Neuronowe 2 Michał Bereta

Sieci Neuronowe 2 Michał Bereta Zagadnena Sztucznej Intelgencj laboratorum Sec Neuronowe 2 Mchał Bereta Cele laboratorum: zapoznane sę z nowym rodzajam sec neuronowych: secam Kohonena oraz secam radalnym porównane sec Kohonena oraz sec

Bardziej szczegółowo

Laboratorium ochrony danych

Laboratorium ochrony danych Laboratorum ochrony danych Ćwczene nr Temat ćwczena: Cała skończone rozszerzone Cel dydaktyczny: Opanowane programowej metody konstruowana cał skończonych rozszerzonych GF(pm), poznane ch własnośc oraz

Bardziej szczegółowo

SYSTEM NEURONOWO-ROZMYTY W ZASTOSOWANIU DO BADAŃ DEFORMACJI KONSTRUKCJI APPLICATION OF NEURAL-FUZZY SYSTEM IN STRUCTURE DEFORMATION ANALYSIS

SYSTEM NEURONOWO-ROZMYTY W ZASTOSOWANIU DO BADAŃ DEFORMACJI KONSTRUKCJI APPLICATION OF NEURAL-FUZZY SYSTEM IN STRUCTURE DEFORMATION ANALYSIS MRI MRÓWCZYŃSK, JÓZEF GIL SYSTEM EUROOWO-ROZMYTY W ZSTOSOWIU DO DŃ DEFORMCJI KOSTRUKCJI PPLICTIO OF EURL-FUZZY SYSTEM I STRUCTURE DEFORMTIO LYSIS Streszczene Dynamczny rozwój dzedzny przetwarzana nformacj

Bardziej szczegółowo

Klasyfkator lnowy Wstęp Klasyfkator lnowy jest najprostszym możlwym klasyfkatorem. Zakłada on lnową separację lnowy podzał dwóch klas mędzy sobą. Przedstawa to ponższy rysunek: 5 4 3 1 0-1 - -3-4 -5-5

Bardziej szczegółowo

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING Maszyna Wektorów Nośnych Suort Vector Machine SVM Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki

Bardziej szczegółowo

Zasady wyznaczania minimalnej wartości środków pobieranych przez uczestników od osób zlecających zawarcie transakcji na rynku terminowym

Zasady wyznaczania minimalnej wartości środków pobieranych przez uczestników od osób zlecających zawarcie transakcji na rynku terminowym Załązn nr 3 Do zzegółowyh Zasad rowadzena Rozlzeń Transa rzez KDW_CC Zasady wyznazana mnmalne wartoś środów oberanyh rzez uzestnów od osób zleaąyh zaware transa na rynu termnowym 1. Metodologa wyznazana

Bardziej szczegółowo

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Wykład 2: Uczenie nadzorowane sieci neuronowych - I Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za

Bardziej szczegółowo

V. WPROWADZENIE DO PRZESTRZENI FUNKCYJNYCH

V. WPROWADZENIE DO PRZESTRZENI FUNKCYJNYCH Krs na Stdach Doktoranckch Poltechnk Wrocławskej wersja: lty 007 34 V. WPROWADZENIE DO PRZESTRZENI FUNKCYJNYCH. Zbór np. lczb rzeczywstych a, b elementy zbor A a A b A, podzbór B zbor A : B A, sma zborów

Bardziej szczegółowo

Kody Huffmana oraz entropia przestrzeni produktowej. Zuzanna Kalicińska. 1 maja 2004

Kody Huffmana oraz entropia przestrzeni produktowej. Zuzanna Kalicińska. 1 maja 2004 Kody uffmana oraz entroia rzestrzeni rodutowej Zuzanna Kalicińsa maja 4 Otymalny od bezrefisowy Definicja. Kod nad alfabetem { 0, }, w tórym rerezentacja żadnego znau nie jest refisem rerezentacji innego

Bardziej szczegółowo

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Wykład 2: Uczenie nadzorowane sieci neuronowych - I Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za

Bardziej szczegółowo

Tabela 9.1. Moc akustyczna niektórych źródeł hałasu.

Tabela 9.1. Moc akustyczna niektórych źródeł hałasu. Ćwczene 9 POMIAR POIOMU DŹWIĘKU 43 9.. Podstawy teoretyczne Dźwę jest zjawsem zycznym olegającym na drganu ośroda srężystego. Drgana rozchodzą sę w ostac al. Rozchodzene sę al dźwęowej olega na owstanu

Bardziej szczegółowo

max Wydział Elektroniki studia I st. Elektronika III r. EZI Technika optymalizacji Dr inż. Ewa Szlachcic

max Wydział Elektroniki studia I st. Elektronika III r. EZI Technika optymalizacji Dr inż. Ewa Szlachcic Zadane rograowana lnowego PL dla ogranczeń neszoścowch rz ogranczenach: a f c A b d =n, d c=n, d A =[ n], d b =, Postać anonczna zadana PL a c X : A b, Postać anonczna acerzowa zadana PL a Lczba zennch

Bardziej szczegółowo

Plan wykładu. Sztuczne sieci neuronowe. Podstawowe pojcia logiki rozmytej. Logika ostra a logika rozmyta. Wykład 13: Sieci neuronowe o logice rozmytej

Plan wykładu. Sztuczne sieci neuronowe. Podstawowe pojcia logiki rozmytej. Logika ostra a logika rozmyta. Wykład 13: Sieci neuronowe o logice rozmytej Pan wyładu Sztuzne se neuronowe yład 3: Se neuronowe o oge rozmytej ałgorzata Krtowsa Katedra Orogramowana e-ma: mma@.b.baysto. Podstawy og rozmytej zbory rozmyte oeraje og rozmytej shemat systemu rozmytego

Bardziej szczegółowo

Plan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty)

Plan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty) Plan wykładu Dzałane neuronu dyskretnego warstwy neuronów dyskretnych Wykład : Reguły uczena sec neuronowych. Sec neuronowe ednokerunkowe. Reguła perceptronowa Reguła Wdrowa-Hoffa Reguła delta ałgorzata

Bardziej szczegółowo

6. Inteligentne regulatory rozmyte dla serwomechanizmów

6. Inteligentne regulatory rozmyte dla serwomechanizmów 6. Inteligentne regulatory rozmyte dla serwomechanizmów Pojęcie regulatorów inteligentnych, w onteście niniejszego rozdziału, oreśla ułady sterowania owstałe rzy użyciu techni wywodzących się z ludzich

Bardziej szczegółowo

9. Praktyczna ocena jakości klasyfikacji

9. Praktyczna ocena jakości klasyfikacji Algorytmy rozpoznawania obrazów 9. Praktyczna ocena jakości klasyfikacji dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Zbiór uczacy i zbiór testowy 1. Zbiór uczacy służy do konstrukcji (treningu)

Bardziej szczegółowo

Badanie energetyczne płaskiego kolektora słonecznego

Badanie energetyczne płaskiego kolektora słonecznego Katedra Slnów Salnowych Pojazdów ATH ZAKŁAD TERMODYNAMIKI Badane energetyczne łasego oletora słonecznego - 1 - rowadzene yorzystane energ celnej romenowana słonecznego do celów ogrzewana, chłodzena oraz

Bardziej szczegółowo

3. Kinematyka podstawowe pojęcia i wielkości

3. Kinematyka podstawowe pojęcia i wielkości 3. Kinematya odstawowe ojęcia i wielości Kinematya zajmuje się oisem ruchu ciał. Ruch ciała oisujemy w ten sosób, że odajemy ołożenie tego ciała w ażdej chwili względem wybranego uładu wsółrzędnych. Porawny

Bardziej szczegółowo

N ( µ, σ ). Wyznacz estymatory parametrów µ i. Y które są niezależnymi zmiennymi losowymi.

N ( µ, σ ). Wyznacz estymatory parametrów µ i. Y które są niezależnymi zmiennymi losowymi. 3 Metody estymacj N ( µ, σ ) Wyzacz estymatory parametrów µ 3 Populacja geerala ma rozład ormaly mometów wyorzystując perwszy momet zwyły drug momet cetraly z prób σ metodą 3 Zmea losowa ma rozład geometryczy

Bardziej szczegółowo

Filtracja adaptacyjna - podstawy

Filtracja adaptacyjna - podstawy Fltracja adaptacyjna - podstawy Współczynn fltrów adaptacyjnych są zmennym w czase w celu optymalzacje zadanego ryterum Powszechnym algorytmem dla fltrów adaptacyjnych jest algorytm LMS Least Mean Square)

Bardziej szczegółowo

XLI OLIMPIADA FIZYCZNA ETAP WSTĘPNY Zadanie teoretyczne

XLI OLIMPIADA FIZYCZNA ETAP WSTĘPNY Zadanie teoretyczne XLI OLIMPIADA FIZYCZNA ETAP WSTĘPNY Zadane teoretyczne Rozwąż dowolne rzez sebe wybrane dwa sośród odanych nże zadań: ZADANIE T Nazwa zadana: Protony antyrotony A. Cząstk o mase równe mase rotonu, ale

Bardziej szczegółowo

= σ σ. 5. CML Capital Market Line, Rynkowa Linia Kapitału

= σ σ. 5. CML Capital Market Line, Rynkowa Linia Kapitału 5 CML Catal Market Lne, ynkowa Lna Katału Zbór ortolo o nalny odchylenu standardowy zbór eektywny ozważy ortolo złożone ze wszystkch aktywów stnejących na rynku Załóży, że jest ch N A * P H P Q P 3 * B

Bardziej szczegółowo

Matematyka finansowa r.

Matematyka finansowa r. . Sprawdź, tóre z ponższych zależnośc są prawdzwe: () = n n a s v d v d d v v d () n n m ) ( n m ) ( v a d s ) m ( = + & & () + = = + = )! ( ) ( δ Odpowedź: A. tylo () B. tylo () C. tylo () oraz () D.

Bardziej szczegółowo

RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 5.

RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 5. RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 5. PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA Rozłady soowe Rozład jednopuntowy Oreślamy: P(X c) 1 gdzie c ustalona liczba. 1 EX c, D 2 X 0 (tylo ten rozład ma zerową wariancję!!!)

Bardziej szczegółowo

EKONOMIA MENEDŻERSKA. Wykład 3 Funkcje produkcji 1 FUNKCJE PRODUKCJI. ANALIZA KOSZTÓW I KORZYŚCI SKALI. MINIMALIZACJA KOSZTÓW PRODUKCJI.

EKONOMIA MENEDŻERSKA. Wykład 3 Funkcje produkcji 1 FUNKCJE PRODUKCJI. ANALIZA KOSZTÓW I KORZYŚCI SKALI. MINIMALIZACJA KOSZTÓW PRODUKCJI. EONOMIA MENEDŻERSA Wykład 3 Funkcje rodukcj 1 FUNCJE PRODUCJI. ANAIZA OSZTÓW I ORZYŚCI SAI. MINIMAIZACJA OSZTÓW PRODUCJI. 1. FUNCJE PRODUCJI: JEDNO- I WIEOCZYNNIOWE Funkcja rodukcj określa zależność zdolnośc

Bardziej szczegółowo

Wstęp do metod numerycznych Faktoryzacja SVD Metody iteracyjne. P. F. Góra

Wstęp do metod numerycznych Faktoryzacja SVD Metody iteracyjne. P. F. Góra Wstęp do metod numerycznych Faktoryzacja SVD Metody teracyjne P. F. Góra http://th-www.f.uj.edu.pl/zfs/gora/ 2013 Sngular Value Decomposton Twerdzene 1. Dla każdej macerzy A R M N, M N, stneje rozkład

Bardziej szczegółowo

Neural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych.

Neural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych. Neural networks Lecture Notes n Pattern Recognton by W.Dzwnel Krótka hstora McCulloch Ptts (1943) - perwszy matematyczny ops dzalana neuronu przetwarzana przez nego danych. Proste neurony, które mogly

Bardziej szczegółowo

IN YNIERIA BEZPIECZE STWA LABORATORIUM NR 6

IN YNIERIA BEZPIECZE STWA LABORATORIUM NR 6 IN YNIERIA BEZPIECZE STWA LABORATORIUM NR 6 WYBRANE ZAGADNIENIA Z TEORII LICZB 1. Wybrane zagadnena z teor lczb Do onstruowana systemów ryptografcznych u Ŝ ywa sę czę sto wyrafnowanego aparatu matematycznego,

Bardziej szczegółowo

Nie istnieje ogólna recepta, każdy przypadek musi być rozważany indywidualnie!

Nie istnieje ogólna recepta, każdy przypadek musi być rozważany indywidualnie! Kwesta wyboru struktury modelu neuronowego Schematyczne przedstawene etapów przetwarzana danych w procese neuronowego modelowana Ne stneje ogólna recepta, każdy przypadek mus być rozważany ndywdualne!

Bardziej szczegółowo

Sztuczne Sieci Neuronowe

Sztuczne Sieci Neuronowe Sztuczne Sieci Neuronowe Wykład 7 Sieci neuronowe o radialnych funkcjach bazowych wykład przygotowany na podstawie. S. Osowski, Sieci Neuronowe w ujęciu algorytmicznym, Rozdz. 5, PWNT, Warszawa 1996. 26/11/08

Bardziej szczegółowo

ROZWIĄZYWANIE DWUWYMIAROWYCH USTALONYCH ZAGADNIEŃ PRZEWODZENIA CIEPŁA PRZY POMOCY ARKUSZA KALKULACYJNEGO

ROZWIĄZYWANIE DWUWYMIAROWYCH USTALONYCH ZAGADNIEŃ PRZEWODZENIA CIEPŁA PRZY POMOCY ARKUSZA KALKULACYJNEGO OZWIĄZYWAIE DWUWYMIAOWYCH USALOYCH ZAGADIEŃ PZEWODZEIA CIEPŁA PZY POMOCY AKUSZA KALKULACYJEGO OPIS MEODY Do rozwązana ustalonego pola temperatury wyorzystana est metoda blansów elementarnych. W metodze

Bardziej szczegółowo

Modelowanie i obliczenia techniczne. Metody numeryczne w modelowaniu: Optymalizacja

Modelowanie i obliczenia techniczne. Metody numeryczne w modelowaniu: Optymalizacja Modelowane oblczena technczne Metody numeryczne w modelowanu: Optymalzacja Zadane optymalzacj Optymalzacja to ulepszane lub poprawa jakośc danego rozwązana, projektu, opracowana. Celem optymalzacj jest

Bardziej szczegółowo

Metody probabilistyczne Rozwiązania zadań

Metody probabilistyczne Rozwiązania zadań Metody robabilistyczne Rozwiązania zadań 6. Momenty zmiennych losowych 8.11.2018 Zadanie 1. Poaż, że jeśli X Bn, to EX n. Odowiedź: X rzyjmuje wartości w zbiorze {0, 1,..., n} z rawdoodobieństwami zadanymi

Bardziej szczegółowo

Metody gradientowe poszukiwania ekstremum. , U Ŝądana wartość napięcia,

Metody gradientowe poszukiwania ekstremum. , U Ŝądana wartość napięcia, Metody gradentowe... Metody gradentowe poszukwana ekstremum Korzystają z nformacj o wartośc funkcj oraz jej gradentu. Wykazując ch zbeŝność zakłada sę, Ŝe funkcja celu jest ogranczona od dołu funkcją wypukłą

Bardziej szczegółowo

Nieeuklidesowe sieci neuronowe

Nieeuklidesowe sieci neuronowe Unwersytet Mkoaja Kopernka Wydza Fzyk, Astronom Informatyk Stosowanej IS Helena Jurkewcz numer albumu: 177622 Praca magsterska na kerunku Fzyka Komputerowa Neeukldesowe sec neuronowe Opekun pracy dyplomowej

Bardziej szczegółowo

dr inż. ADAM HEYDUK dr inż. JAROSŁAW JOOSTBERENS Politechnika Śląska, Gliwice

dr inż. ADAM HEYDUK dr inż. JAROSŁAW JOOSTBERENS Politechnika Śląska, Gliwice dr nż. ADA HEYDUK dr nż. JAOSŁAW JOOSBEENS Poltechna Śląsa, Glwce etody oblczana prądów zwarcowych masymalnych nezbędnych do doboru aparatury łączenowej w oddzałowych secach opalnanych według norm europejsej

Bardziej szczegółowo

p Z(G). (G : Z({x i })),

p Z(G). (G : Z({x i })), 3. Wykład 3: p-grupy twerdzena Sylowa. Defncja 3.1. Nech (G, ) będze grupą. Grupę G nazywamy p-grupą, jeżel G = dla pewnej lczby perwszej p oraz k N. Twerdzene 3.1. Nech (G, ) będze p-grupą. Wówczas W

Bardziej szczegółowo

Pattern Classification

Pattern Classification Pattern Classification All materials in these slides were taen from Pattern Classification (2nd ed) by R. O. Duda, P. E. Hart and D. G. Stor, John Wiley & Sons, 2000 with the permission of the authors

Bardziej szczegółowo

Wprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu

Wprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu Wprowadzene do Sec Neuronowych Algorytm wstecznej propagacj błędu Maja Czoków, Jarosław Persa --6 Powtórzene. Perceptron sgmodalny Funkcja sgmodalna: σ(x) = + exp( c (x p)) Parametr c odpowada za nachylene

Bardziej szczegółowo

Diagonalizacja macierzy kwadratowej

Diagonalizacja macierzy kwadratowej Dagonalzacja macerzy kwadratowej Dana jest macerz A nân. Jej wartośc własne wektory własne spełnają równane Ax x dla,..., n Każde z równań własnych osobno można zapsać w postac: a a an x x a a an x x an

Bardziej szczegółowo

P 1, P 2 - wektory sił wewnętrznych w punktach powierzchni F wokół punktu A

P 1, P 2 - wektory sił wewnętrznych w punktach powierzchni F wokół punktu A TEORI STNU NPRĘŻENI. WEKTOR NPRĘŻENI r x P P P P, P - wektory sł wewnętrznych w unktach owerzchn wokół unktu P P r, P - suma sł wewnętrznych na owerzchn P P P P średna gęstość sł wewnętrznych na owerzchn

Bardziej szczegółowo

TERMODYNAMIKA TECHNICZNA I CHEMICZNA

TERMODYNAMIKA TECHNICZNA I CHEMICZNA TRMODYNAMIKA TCHNICZNA I CHMICZNA Część IV TRMODYNAMIKA ROZTWORÓW TRMODYNAMIKA ROZTWORÓW FUGATYWNOŚCI I AKTYWNOŚCI a) Wrowadzene Potencjał chemczny - rzyomnene de G n na odstawe tego, że otencjał termodynamczny

Bardziej szczegółowo

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6 Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Zastosowane modelu potęgowego Przekształcene Boxa-Coxa 2. Zmenne cągłe za zmenne dyskretne 3. Interpretacja parametrów przy zmennych dyskretnych 1. Zastosowane

Bardziej szczegółowo

Sieci Neuronowe 1 Michał Bereta

Sieci Neuronowe 1 Michał Bereta Wprowadzene Zagadnena Sztucznej Intelgencj laboratorum Sec Neuronowe 1 Mchał Bereta Sztuczne sec neuronowe można postrzegać jako modele matematyczne, które swoje wzorce wywodzą z bolog obserwacj ludzkch

Bardziej szczegółowo

Ocena dokładności diagnozy

Ocena dokładności diagnozy Ocena dokładności diagnozy Diagnoza medyczna, w wielu przypadkach może być interpretowana jako działanie polegające na podjęciu jednej z dwóch decyzji odnośnie stanu zdrowotnego pacjenta: 0 pacjent zdrowy

Bardziej szczegółowo

WOJSKOWA AKADEMIA TECHNICZNA im. Jar osława Dąbr owskiego ZAKŁAD AWIONIKI I UZBROJENIA LOTNICZEGO

WOJSKOWA AKADEMIA TECHNICZNA im. Jar osława Dąbr owskiego ZAKŁAD AWIONIKI I UZBROJENIA LOTNICZEGO WOJSKOWA AKADEMIA TECHNICZNA m. Jar osława Dąbr owskego ZAKŁAD AWIONIKI I UZBROJENIA LOTNICZEGO Przedmot: PODSTAWY AUTOMATYKI I AUTOMATYZACJI (studa I stona) ĆWICZENIE RACHUNKOWE KOREKCJA LINIOWYCH UKŁADÓW

Bardziej szczegółowo

Funkcje i charakterystyki zmiennych losowych

Funkcje i charakterystyki zmiennych losowych Funkcje charakterystyk zmennych losowych Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Intelgencj Metod Matematycznych Wydzał Informatyk Poltechnk Szczecńskej 5. Funkcje zmennych losowych

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 18. ALGORYTMY EWOLUCYJNE - ZASTOSOWANIA Częstochowa 2014 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska ZADANIE ZAŁADUNKU Zadane załadunku plecakowe

Bardziej szczegółowo

Macierz prawdopodobieństw przejścia w pojedynczym kroku dla łańcucha Markowa jest postaci

Macierz prawdopodobieństw przejścia w pojedynczym kroku dla łańcucha Markowa jest postaci Zadane. Macerz radoodobeńst rzejśca ojedynczym kroku dla łańcucha Markoa...... o trzech stanach { } jest ostac 0 n 0 0 (oczyśce element stojący -tym erszu j -tej kolumne tej macerzy oznacza P( = j. Wtedy

Bardziej szczegółowo

Wybrane rozkłady zmiennych losowych i ich charakterystyki

Wybrane rozkłady zmiennych losowych i ich charakterystyki Rozdział 1 Wybrane rozłady zmiennych losowych i ich charaterystyi 1.1 Wybrane rozłady zmiennych losowych typu soowego 1.1.1 Rozład równomierny Rozpatrzmy esperyment, tóry może sończyć się jednym z n możliwych

Bardziej szczegółowo

1. Zmienne i dane wejściowe Algorytmu Rozdziału Obciążeń

1. Zmienne i dane wejściowe Algorytmu Rozdziału Obciążeń ZAŁĄCZNIK nr Zasada dzałana Algorytmu Rozdzału Obcążeń. Zmenne dane wejścowe Algorytmu Rozdzału Obcążeń.. Zmennym podlegającym optymalzacj w procese rozdzału obcążeń są welośc energ delarowane przez Jednost

Bardziej szczegółowo

Eksploracja danych. Grupowanie danych

Eksploracja danych. Grupowanie danych Esploracja danych grupowane danych Potr Lpńs Grupowane danych Cele grupowana danych jest podzał reordów danych na grupy, ta aby eleenty z tej saej grupy były do sebe podobne, a z różnych grup od sebe różne.

Bardziej szczegółowo

Analiza Matematyczna Ćwiczenia. J. de Lucas

Analiza Matematyczna Ćwiczenia. J. de Lucas Aalza Matematycza Ćwczea J. de Lucas Zadae. Oblczyć grace astępujących fucj a lm y 3,y 0,0 b lm y 3 y ++y,y 0,0 +y c lm,y 0,0 + 4 y 4 y d lm y,y 0,0 3 y 3 e lm,y 0,0 +y 4 +y 4 f lm,y 0,0 4 y 6 +y 3 g lm,y

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 7. KLASYFIKATORY BAYESA. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

SYSTEMY UCZĄCE SIĘ WYKŁAD 7. KLASYFIKATORY BAYESA. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska. SYSTEMY UCZĄCE SIĘ WYKŁAD 7. KLASYFIKATORY BAYESA Częstochowa 4 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska TWIERDZENIE BAYESA Wedza pozyskwana przez metody probablstyczne ma

Bardziej szczegółowo

Algorytm do rozpoznawania człowieka na podstawie dynamiki użycia klawiatury. Paweł Kobojek, prof. dr hab. inż. Khalid Saeed

Algorytm do rozpoznawania człowieka na podstawie dynamiki użycia klawiatury. Paweł Kobojek, prof. dr hab. inż. Khalid Saeed Algorytm do rozpoznawania człowieka na podstawie dynamiki użycia klawiatury Paweł Kobojek, prof. dr hab. inż. Khalid Saeed Zakres pracy Przegląd stanu wiedzy w dziedzinie biometrii, ze szczególnym naciskiem

Bardziej szczegółowo

Programowanie Równoległe i Rozproszone

Programowanie Równoległe i Rozproszone Programowane Równoległe Rozproszone Wykład Programowane Równoległe Rozproszone Lucjan Stapp Wydzał Matematyk Nauk Informacyjnych Poltechnka Warszawska (l.stapp@mn.pw.edu.pl) /38 PRR Wykład Chcemy rozwązać

Bardziej szczegółowo

Uczenie sieci radialnych (RBF)

Uczenie sieci radialnych (RBF) Uczenie sieci radialnych (RBF) Budowa sieci radialnej Lokalne odwzorowanie przestrzeni wokół neuronu MLP RBF Budowa sieci radialnych Zawsze jedna warstwa ukryta Budowa neuronu Neuron radialny powinien

Bardziej szczegółowo

Laboratorium z Podstaw Automatyki. Laboratorium nr 4. Działanie układu automatycznej regulacji. Rodzaje regulatorów.

Laboratorium z Podstaw Automatyki. Laboratorium nr 4. Działanie układu automatycznej regulacji. Rodzaje regulatorów. . Cele ćwczena Laboratorum nr 4 Dzałane ukłau automatycznej regulacj. ozaje regulatorów. zaoznane sę z buową załanem ukłau regulacj, zaoznane sę z różnym strukturam regulatorów, obór arametrów regulatorów

Bardziej szczegółowo

MODYFIKACJA KOSZTOWA ALGORYTMU JOHNSONA DO SZEREGOWANIA ZADAŃ BUDOWLANYCH

MODYFIKACJA KOSZTOWA ALGORYTMU JOHNSONA DO SZEREGOWANIA ZADAŃ BUDOWLANYCH MODYFICJ OSZTOW LGORYTMU JOHNSON DO SZEREGOWNI ZDŃ UDOWLNYCH Michał RZEMIŃSI, Paweł NOW a a Wydział Inżynierii Lądowej, Załad Inżynierii Producji i Zarządzania w udownictwie, ul. rmii Ludowej 6, -67 Warszawa

Bardziej szczegółowo

Dla dzielnej X (dividend) i dzielnika D 0 (divisor) liczby Q oraz R takie, Ŝe

Dla dzielnej X (dividend) i dzielnika D 0 (divisor) liczby Q oraz R takie, Ŝe zelene ekwencyjne zelene la dzelnej X (dvdend) dzelnka (dvor) lczby Q oraz R take, Ŝe X=Q R, R < nazywa ę lorazem Q (uotent) reztą R (remander) z dzelena X rzez. Równane dzelena moŝe meć rozwązana ełnające

Bardziej szczegółowo

1.3 Przestrzenie ilorazowe

1.3 Przestrzenie ilorazowe 1.3 Przestrzenie ilorazowe Niech X 0 będzie odrzestrzenią liniową X 0, +, rzestrzeni liniowej X, +,. Oreślmyzbiór x + X 0 := {x + y : y X 0 }. Zbiór ten nazywamy warstwą elementu x X względem odrzestrzeni

Bardziej szczegółowo

JEDNOWYMIAROWA ZMIENNA LOSOWA

JEDNOWYMIAROWA ZMIENNA LOSOWA JEDNOWYMIAROWA ZMIENNA LOSOWA Nech E bedze zborem zdarzen elementarnych danego doswadczena. Funcje X(e) przyporzadowujaca azdemu zdarzenu elementarnemu e E jedna tylo jedna lczbe X(e)x nazywamy ZMIENNA

Bardziej szczegółowo

Korekcja liniowych układów regulacji automatycznej

Korekcja liniowych układów regulacji automatycznej WOJSKOWA AKADEMIA TECHNICZNA m. Jarosława Dąbrowskego Ćwczene rachunkowe Korekcja lnowych układów regulacj automatycznej mgr nż. Bartosz BRZOZOWSKI Warszawa 7 Cel ćwczena rachunkowego Podczas ćwczena oruszane

Bardziej szczegółowo

Eugeniusz Rosołowski. Komputerowe metody analizy elektromagnetycznych stanów przejściowych

Eugeniusz Rosołowski. Komputerowe metody analizy elektromagnetycznych stanów przejściowych Eugenusz Rosołows Komputerowe metody analzy eletromagnetycznych stanów przejścowych Ocyna Wydawncza Poltechn Wrocławsej Wrocław 9 Opnodawcy Jan IŻYKOWSKI Paweł SOWA Opracowane redacyjne Mara IZBIKA Koreta

Bardziej szczegółowo

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB Rozwązywane zadań optymalzacj w środowsku programu MATLAB Zagadnene optymalzacj polega na znajdowanu najlepszego, względem ustalonego kryterum, rozwązana należącego do zboru rozwązań dopuszczalnych. Standardowe

Bardziej szczegółowo

Natalia Nehrebecka. Wykład 2

Natalia Nehrebecka. Wykład 2 Natala Nehrebecka Wykład . Model lnowy Postad modelu lnowego Zaps macerzowy modelu lnowego. Estymacja modelu Wartośd teoretyczna (dopasowana) Reszty 3. MNK przypadek jednej zmennej . Model lnowy Postad

Bardziej szczegółowo

Pattern Classification

Pattern Classification attern Classfcaton All materals n these sldes were taken from attern Classfcaton nd ed by R. O. Duda,. E. Hart and D. G. Stork, John Wley & Sons, 000 wth the permsson of the authors and the publsher Chapter

Bardziej szczegółowo

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311 Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyi,. 311 Wyład 3 PLAN: - Reetitio (brevis) - Algorytmy mięiej selecji: algorytmy ewolucyjne symulowane wyżarzanie -Zastosowanie

Bardziej szczegółowo

JEDNOWYMIAROWA ZMIENNA LOSOWA

JEDNOWYMIAROWA ZMIENNA LOSOWA JEDNOWYMIAROWA ZMIENNA LOSOWA Nech E będze zborem zdarzeń elemetarych daego dośwadczea. Fucję X(e) przyporządowującą ażdemu zdarzeu elemetaremu e E jedą tylo jedą lczbę X(e)=x azywamy ZMIENNĄ LOSOWĄ. Przyład:

Bardziej szczegółowo

Wprowadzenie do Sieci Neuronowych Sieci rekurencyjne

Wprowadzenie do Sieci Neuronowych Sieci rekurencyjne Wprowadzene do Sec Neuronowych Sec rekurencyjne M. Czoków, J. Persa 2010-12-07 1 Powtórzene Konstrukcja autoasocjatora Hopfelda 1.1 Konstrukcja Danych jest m obrazów wzorcowych ξ 1..ξ m, gdze każdy pojedynczy

Bardziej szczegółowo

Plan wykładu. Sztuczne sieci neuronowe. Uczenie nienadzorowane (bez nauczyciela) Uczenie nienadzorowane - przykłady

Plan wykładu. Sztuczne sieci neuronowe. Uczenie nienadzorowane (bez nauczyciela) Uczenie nienadzorowane - przykłady Plan yładu Wyład 10: Sec samoorganzuce s na zasadze spółzaodncta Sec samoorganzuace s na zasadze spółzaodncta: uczene nenadzoroane uczene onurencyne reguła WTA reguła WTM antoane etoroe mapa cech Kohonena

Bardziej szczegółowo

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe Sztuczne sec neuronowe Jerzy Stefanowsk Plan wykładu 1. Wprowadzene 2. Model sztucznego neuronu. 3. Topologe sec neuronowych 4. Reguły uczena sec neuronowych. 5. Klasyfkaca sec neuronowych. 6. Sec warstwowe

Bardziej szczegółowo

ZAJĘCIA NR 3. loga. i nosi nazwę entropii informacyjnej źródła informacji. p. oznacza, Ŝe to co po im występuje naleŝy sumować biorąc za i

ZAJĘCIA NR 3. loga. i nosi nazwę entropii informacyjnej źródła informacji. p. oznacza, Ŝe to co po im występuje naleŝy sumować biorąc za i ZAJĘCIA NR Dzsaj omówmy o etro, redudacj, średej długośc słowa odowego o algorytme Huffmaa zajdowaa odu otymalego (od ewym względam; aby dowedzeć sę jam doczeaj do ońca). etro JeŜel źródło moŝe adawać

Bardziej szczegółowo

RÓWNOLEGŁY ALGORYTM NEURO-TABU DLA PROBLEMU GNIAZDOWEGO SZEREGOWANIA ZADAŃ

RÓWNOLEGŁY ALGORYTM NEURO-TABU DLA PROBLEMU GNIAZDOWEGO SZEREGOWANIA ZADAŃ ÓWNOLEGŁY ALGOYTM NEUO-TABU DLA POBLEMU GNIAZDOWEGO SZEEGOWANIA ZADAŃ Wojcech BOŻEJKO, Marusz UCHOŃSKI, Meczysław WODECKI Streszczene: W pracy proponujemy zastosowane dwóch równoległych algorytmów bazujących

Bardziej szczegółowo

jest scharakteryzowane przez: wektor maksymalnych żądań (ang. claims), T oznaczający maksymalne żądanie zasobowe zadania P j

jest scharakteryzowane przez: wektor maksymalnych żądań (ang. claims), T oznaczający maksymalne żądanie zasobowe zadania P j Systemy operacyjne Zaleszczenie Zaleszczenie Rozważmy system sładający się z n procesów (zadań) P 1,P 2,...,P n współdzielący s zasobów nieprzywłaszczalnych tzn. zasobów, tórych zwolnienie może nastąpić

Bardziej szczegółowo

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych Zaawansowane metody numeryczne Komputerowa analza zagadneń różnczkowych 1. Układy równań lnowych P. F. Góra http://th-www.f.uj.edu.pl/zfs/gora/ semestr letn 2006/07 Podstawowe fakty Równane Ax = b, x,

Bardziej szczegółowo

Uwaga 1.1 Jeśli R jest relacją w zbiorze X X, to mówimy, że R jest relacją w zbiorze X. Rozważmy relację R X X. Relację R nazywamy zwrotną, gdy:

Uwaga 1.1 Jeśli R jest relacją w zbiorze X X, to mówimy, że R jest relacją w zbiorze X. Rozważmy relację R X X. Relację R nazywamy zwrotną, gdy: Matematya dysretna - wyład 1. Relacje Definicja 1.1 Relacją dwuargumentową nazywamy podzbiór produtu artezjańsiego X Y, tórego elementami są pary uporządowane (x, y), taie, że x X i y Y. Uwaga 1.1 Jeśli

Bardziej szczegółowo

RUCH DRGAJĄCY. Ruch harmoniczny. dt A zatem równanie różniczkowe ruchu oscylatora ma postać:

RUCH DRGAJĄCY. Ruch harmoniczny. dt A zatem równanie różniczkowe ruchu oscylatora ma postać: RUCH DRGAJĄCY Ruch haroniczny Ruch, tóry owtarza się w regularnych odstęach czasu, nazyway ruche oresowy (eriodyczny). Szczególny rzyadie ruchu oresowego jest ruch haroniczny: zależność rzeieszczenia od

Bardziej szczegółowo

Indukowane Reguły Decyzyjne I. Wykład 8

Indukowane Reguły Decyzyjne I. Wykład 8 Indukowane Reguły Decyzyjne I Wykład 8 IRD Wykład 8 Plan Powtórka Krzywa ROC = Receiver Operating Characteristic Wybór modelu Statystyka AUC ROC = pole pod krzywą ROC Wybór punktu odcięcia Reguły decyzyjne

Bardziej szczegółowo