Nie istnieje ogólna recepta, każdy przypadek musi być rozważany indywidualnie!

Wielkość: px
Rozpocząć pokaz od strony:

Download "Nie istnieje ogólna recepta, każdy przypadek musi być rozważany indywidualnie!"

Transkrypt

1 Kwesta wyboru struktury modelu neuronowego Schematyczne przedstawene etapów przetwarzana danych w procese neuronowego modelowana Ne stneje ogólna recepta, każdy przypadek mus być rozważany ndywdualne! dane wejścowe Preprocesng zmenne wejścowe zmenne wyjścowe Postprocesng dane wyjścowe Typy sztucznych sec neuronowych Sztuczne Sec Neuronowe jednokerunkowe rekurencyjne Bayesa modularne specjalne częścowo całkowce połączone połączone dynamczne komtety asocjacyjne jednowarstwowe Jordana Boltzmanna perceptrony pulsacyjne kompozytowe Elmana Hopfelda lnowe komórkowe kaskadowe welowarstwowe neuronoworozmyte RBF perceptrony ontogenczne Kohonena MLP uczena cągłego probablstyczne Dobór typu sec neuronowej oraz sposobu jej strukturalzacj oraz uczena w przykładowym zadanu (dagnostyka wbroakustyczna przekładn) Przykłady połączeń mędzyneuronowych występujących w secach neuronowych. (m) - połączena mędzywarstwowe, (w) - połączena wewnątrzwarstwowe, (s) samosprzężena, (n) - połączena nadwarstwowe, (r) - połączena rekurencyjne Nektórzy autorzy slą sę na tworzene sec o bardzo orygnalnej archtekturze s m m nr n w s nr 1

2 Trójwarstwowa seć neuronowa Jednak najpowszechnej używana archtektura sec to klasyczny perceptron welowarstwowy oznaczany jako MLP Perwsze pytane do rozstrzygnęca: Seć lnowa czy nelnowa? Seć lnowa jako najprostszy (ale użyteczny!) model regresyjny Przesłank przemawające za stosowanem lnowej sec neuronowej: jest doskonałym narzędzem do opsu zależnośc lnowych, stanow punkt odnesena przy ocene model nelnowych, struktura uczene ne stwarza żadnych problemów. Lnowa seć neuronowa Lnowa seć neuronowa Iteracyjne uczene sec lnowej ne jest koneczne, gdyż może być zastąpone procedurą pseudo-nwersj macerzy Popatrzmy bowem, jak dzała lnowa seć neuronowa: P X W 1 W 2 Y X W Y x 1 x 2 x n w 11 w 21 y 1 y 1 = w 11 x 1 + w 21 x w n1 x.. n w n1 y k = w 1k x 1 + w 2k x w nk x n y k W zapse macerzowym: Y = W X Seć lnowa z zasady ne posada warstw ukrytych, bo nawet jeśl sę je wprowadz, to ne wzbogacą one zachowana sec P = W 1 X Y = W 2 P Y = W 2 W 1 X Y = W X ; W = W 1 W 2 2

3 Dlatego lnowa seć neuronowa jest często przedstawana w sposób przytoczony na tym obrazku Perceptron welowarstwowy ϕ P X W 1 ϕ W 2 ϕ ϕ P = Φ[W 1 X] Y = Φ[ W 2 P ] Y = Φ[ W 2 Φ[ W 1 X ] ] Y W perceptrone na skutek stnena nelnowośc w neuronach ukrytych ne jest możlwe zwnęce jego welowarstwowej struktury Alternatywne, często spotykane rozwązane: seć RBF Przy ustalanu, le wejść ma meć seć neuronowa trzeba wząć pod uwagę fakt, że nelczne (z reguły) dane uczące będą w przestrzen o wększym wymarze bardzo mocno rozproszone Czas Kontrahent Kontrahent Produkt 300 Czas Czas Przykładowo przy założenu że różnorodność produktów wynos 100 elementów, parametr kontrahent ma 500 elementów a wymar czas 365 dn - przestrzeń wejścowa będze zawerała 500*100*365 = komórek. Lczba wejść do sec pownna być też lmtowana ze względu na fakt, że od każdego wejśca do każdego elementu warstwy ukrytej będze musało w sec być połączene, oraz współczynnk wagowy, którego wartość trzeba będze wyznaczyć w wynku procesu uczena. Tymczasem wzrost lczby współczynnków wymagających uczena ne jest okolcznoścą korzystną! 3

4 Lczba współczynnków wagowych, jake trzeba wyznaczyć w toku uczena wyznacza bowem mnmalną nezbędną lczbę danych uczących, które są koneczne do tego, żeby seć ne weszła w pułapkę uczena sę na pamęć Podstawową welkoścą określającą ryzyko uczena na pamęć jest tzw. mara Vapnka- Chervonenksa, zwana w skróce VCdm. Mara VCdm systemu została zdefnowana jako lczebność n najwększego zboru S danych wzorców, dla których system klasyfkujący może zrealzować wszystke możlwe 2 n dychotom lnowych zboru S Dychotoma lnowa to podzał zboru na 2 częśc za pomocą formuł lnowych, czyl w N-wymarowej przestrzen za pomocą hperpłaszczyzn (N-1)-wymarowych. Dla pojedynczego neuronu o N wejścach mara VCdm wynos N+1 Dla przykładu VCdm dla neuronu o dwóch wejścach wynos n=3. Łatwo można wykazać, że zbór złożony z trzech danych uczących jest najwększym zborem, w którym można przeprowadzć podzał na dwe lnowo separowalne grupy na 2 3 = 8 sposobów: Jednak o le łatwo jest wyznaczyć wartość VCdm dla pojedynczego neuronu, o tyle w przypadku sec neuronowej ne jest to już take proste Nestety ne stneje prosty zwązek mędzy archtekturą sec welowarstwowej, a marą VCdm. Można podać jedyne oszacowane górnego dolnego zakresu tej mary: gdze: K 2 N VC dm 2N w + N n 2 [ ] oznacza część całkowtą lczby, N wymar wektora wejścowego, K lczba neuronów w warstwe ukrytej, N w całkowta lczba wag w sec, N n całkowta lczba neuronów w sec ( 1 log ) K 2 N VC dm 2N w + N n 2 ( 1 log ) Jak wdać z powyższej zależnośc, dolna granca przedzału jest w przyblżenu równa lczbe wag łączących warstwę wejścową z warstwą ukrytą, górna granca natomast jest wększa nż dwukrotna lczba wszystkch wag sec. Oszacowane mary VCdm umożlwa ocenę mnmalnego wymaru zboru uczącego. W wynku przeprowadzena welu testów numerycznych stwerdzono dobre zdolnośc uogólnana sec, jeśl lczba próbek uczących jest 10 razy wększa od mary VCdm 4

5 Całkem poważnym problemem jest sposób reprezentacj danych w sec neuronowej Reprezentacja danych w secach neuronowych Jeśl dane mają od początku charakter numeryczny to problemu ne ma najwyżej trzeba je przeskalować Uwaga: przy skalowanu należy unkać wchodzena w obszar nasycena charakterystyk neuronu Typowo stosowane formuły skalowana x mn( x ) x = max( x ) mn( x ) cel skalowana: dopasowane zakresu wartośc zmennej do charakterystyk neuronu y:=1/(1+exp(-0.5*x)) x mn( x ) x = 2 1 max( x ) mn( x ) x = ( x mn( x )) ( b a) max( x ) mn( x ) + a Gorzej, jeśl dane mają charakter jakoścowy. Koneczne jest wtedy przekształcene jeden-z-n Jeden-z-N to sposób na przekształcene wartośc nomnalnych do postac numerycznej. Przykład: Pochodzene ={Azja, Ameryka, Europa} Azja: {1, 0, 0} Ameryka: {0, 1, 0} Europa: {0, 0, 1} jedna zmenna trzy neurony! Obszar najczęstszego stosowana kodowana 1 z N: Klasyfkacja wzorcowa Celem klasyfkacj wzorcowej jest przypsane badanych obektów do jednej ze znanych klas. Zaklasyfkowane obektu dokonywane jest na podstawe wartośc opsujących go zmennych. wartośc zmennych charakteryzujących klasyfkowane obekty Seć neuronowa dentyfkator klasy 5

6 Sposób prezentacj danych jakoścowych zgodne z metodą 1 z N Przykład reprezentacj 1-z-N (rozpoznawane znaków alfanumeryczych) q w e r t Mało wyraźne C : C Właścwej nterpretacj wymagają też dane wyjścowe, otrzymywane z sec jako rozwązane postawonego zadana Jeśl wymagane są wynk numeryczne, to sprawa jest prosta, bo wystarczy je odczytać na wyjścach neuronów tylko odpowedno przeskalować. Trudnośc zaczynają sę wtedy, gdy seć pracuje jako klasyfkator, węc jej odpowedz trzeba nterpretować jako decyzje. Idealna sytuacja zwązana użycem zmennej nomnalnej na wyjścu sec neuronowej Rzeczywsty rozkład wartośc sygnałów w sec neuronowej ze zmenną nomnalną na wyjścu Przykład rozkładu sygnałów wyjścowych, przy którym lepej jest ne wyznaczać wcale wartośc zmennej nomnalnej, nż narazć sę na błąd, który jest w tej sytuacj bardzo prawdopodobny 6

7 y:=1/(1+exp(-0.5*x)) y:=1/(1+exp(-0.5*x)) Klasyfkacja w przypadku dwóch klas Warstwa wyjścowa - neuron z sgmodalną funkcją aktywacj Reprezentacja klas: klasa 1 - wartość 1 klasa 2 - wartość 0 KLASA 1 próg akceptacj BRAK DECYZJI próg odrzucena KLASA 2 Wartość wyjścowa neuronu może być nterpretowana jako prawdopodobeństwo przynależnośc do klasy Klasyfkacja w przypadku wększej lczby klas Każdej klase odpowada jeden neuron w warstwe wyjścowej. Aby obekt został w sposób pewny zalczony do -tej klasy: wartość wyjścowa -tego neuronu - wyższa od pozomu akceptacj, wartośc wyjścowe pozostałych neuronów - nższe od pozomu odrzucena. 1 0 KLASA głos 1za klasą próg akceptacj BRAK DECYZJI próg odrzucena KLASA wycofane 2 klasy Interpretacja wartośc wyjścowych jako prawdopodobeństw przynależnośc do klas - koneczne jest ch sumowane do jednośc - zapewna to funkcja aktywacj SoftMax Seć z wyjścam zblokowanym (przy zmennej wyjścowej typu nomnalnego z weloma możlwym klasam wyjścowym) Przykład klasyfkacj bnarnej weloklasowej Problem praktyczny: Czy wszystke dostępne zmenne objaśnające należy wprowadzać na wejśca sec? Wzrastająca lczba danych wejścowych uwzględnanych przy budowe modelu neuronowego prowadz do wzrostu lczby połączeń, dla których trzeba w sec ustalć wartośc wag w toku uczena Ne, w marę możlwośc należy ogranczać lczbę zmennych wejścowych, Dlaczego? Bo stosując mnejszą lczbę zmennych wejścowych uzyskujemy prostszą seć, która: posada mnejszą lczbę parametrów nastawanych podczas uczena, a to powoduje łatwejsze uczene daje lepsze zdolnośc do generalzacj, ma krótszy czas uczena, gdyż mnej jest danych 7

8 y: =1/ (1+exp(-0. 5*x)) y: =1/ (1+exp(-0. 5*x)) y: =1/ (1+exp(-0. 5*x)) y: =1/ (1+exp(-0. 5*x)) y: =1/ (1+exp(-0. 5*x)) y: =1/ (1+exp(-0. 5*x)) y: =1/ (1+exp(-0. 5*x)) A tymczasem pamętamy: lość nformacj, jake zdobywa ( utrwala) seć w czase uczena jest ne wększa, nż lość nformacj zawarta w zborze uczącym! MLP czy RBF? MLP Najczęścej wykorzystywany jest tak model neuronu: Najbardzej typowa struktura sec zbudowanej z takch elementów: trójwarstwowy perceptron o jednym wyjścu x 1 w y:=1/(1+exp(-0.5*x)) x 2 x n w 2... w n n s = 1 = wx y -0.1 Seć zbudowana z takch neuronów nazywana jest zwykle MLP (Mult-Layer Perceptron) Typowa struktura sec MLP Podstawowe właścwośc: wele wejść wele wyjść jedna (rzadzej dwe) warstwy ukryte nelnowe charakterystyk neuronów ukrytych w forme sgmod W warstwe wyjścowej neurony mogą być lnowe lub także mogą meć charakterystyk sgmodalne Uczene najczęścej przeprowadzane metodą wstecznej propagacj błędów Każdy model budowany z pomocą sec neuronowych klasy MLP cechuje zwykle obecność urwsk sgmodalnych 8

9 Przykład dzałana sec MLP Przykład zadana klasyfkacyjnego jego rozwązane uzyskane z użycem sec MLP technk urwsk sgmodalnych Często w różnych warstwach sec MLP neurony mają różne charakterystyk, zarówno nelnowe jak lnowe Inne zadane klasyfkacyjne jego dwa rozwązana Odmenne dzałającym elementem używanym w nektórych typach jest tzw. neuron radalny (wykorzystywany w secach RBF) x 1 1 t 1 r 1 f Typowa seć RBF... f y x-t x n t n r n Agregacja sygnałów wejścowych w tym type neuronu polega na oblczanu odległośc pomędzy obecnym wektorem wejścowym X a ustalonym podczas uczena centrodem pewnego podzboru T Równeż nelnowa funkcja przejśca w tych neuronach ma odmenną formę - dzwonu gaussody - czyl jest funkcją nemonotonczną. 9

10 Technka ta jest szczególne przydatna przy wyodrębnanu obszarów o kształce wydzelonych wysp Jednak złożene takch elementarnych wadomośc pochodzących od różnych danych uczących pozwala wypowadać sę na temat całych rejonów przestrzen sygnałów wejścowych Sposób separacj przestrzen danych przez: (a) neuron sgmodalny, (b) neuron radalny Y Sec MLP w zadanu klasyfkacj X Y Sec RBF w zadanu klasyfkacj X Seć typu RBF w zastosowanu do klasyfkacj (wykrywa sygnalzuje skupska danych wejścowych) 10

11 Elementy zboru uczącego dzelone są na grupy elementów podobnych (metodą k-średnch, która będze zaraz opsana). Jak uczyć taką seć? W charakterze wag neuronów radalnych stosowane są środk cężkośc każdej wyróżnonej grupy. Przestrzeń sygnałów wejścowych oraz wag Określene wag neuronów radalnych metodą K-średnch Uproszczony obraz dzałana metody k-means Dla n próbek wejścowych x0..., x1 x n 1 metodę k-means wykorzystuje sę do utworzena k klastrów, przy czym dla każdego z nch zostane wyznaczony element modalny, reprezentujący umowny środek całej grupy w przestrzen cech. Metoda k-means dzała w sposób teracyjny. W celu wyszukana najlepszych lokalzacj dla środkowych punktów każdego z klastrów na początek przyjmuje sę lokalzacj przypadkowe, a potem sę je doskonal, tak, aby optymalne dopasować każdy wzorzec do klastra danych wejścowych, którego środek jest najblżej wzorca. Przedstawmy dzałane tego algorytmu w pęcu krokach 1) Ustalene środków poszczególnych klas za pomocą perwotnych wartośc m 0, m1,..., m K 1. Na początku są to wektory Krok 1 przypadkowo rozrzucone w przestrzen sygnałów wejścowych. 2) Wyznaczene odległośc mędzy wszystkm próbkam x 0, x1,..., x n 1 cągu, a wszystkm środkam klas m 0, m1 m K 1, Krok 2,..., d 2 x, m ) = x m = ( x m ) ( x m, dla =0,...,n-1 oraz j=0,...,k-1 2 j 1 ( 1 j1 p ) ) 2 ( j j jp 3) Połączene w jedną grupę wszystkch tych sygnałów wejścowych x spośród próbek x 0, x1... x n 1, których odległość od środka mj klasy j jest mnejsza od odległośc tychże Krok 3 sygnałów wejścowych x od środków ml nnych klas (l j) w celu utworzena klasy j. Czynność ta wykonywana jest dla wszystkch numerów klas j=0,...,k-1. 4) Znalezene nowych środków klas, poprzez wyszukane wśród sygnałów x tej próbk, której współrzędne są najblższe wartoścom średnm współrzędnych wyznaczonym dla wszystkch sygnałów wejścowych, które zostały ulokowane w klase j. (W warance metody pozwalającym na Krok to, żeby 4 wzorzec klasy mógł być obektem abstrakcyjnym, ne należącym do zboru próbek x 0, x1,..., x n 1 środkem klasy j staje sę po prostu punkt, którego współrzędne są wartoścam średnm współrzędnych elementów x przypsanych do tej klasy.) 5) Jeśl w cągu ostatnej teracj żaden z elementów x ne zmenł swojej klasy należy zakończyć proces klasterngu, w przecwnym Krok 5 przypadku trzeba wrócć do punktu 3. Punktem wyjśca do algorytmu k średnch jest zbór danych, o których sądzmy, że tworzą k skupsk. Na rysunku k = 3. W losowy sposób wyberamy k punktów (rozrzuconych) nazywamy te punkty prowzorycznym centram budowanych skupsk. Na rysunku punkty wybrane jako centra są oznaczone znakem X, a skupska są nazwane red, green oraz blue 11

12 Na podstawe odległośc od wybranych centrów skupsk z przypsanym m nazwam klas zalcza sę wszystke punkty do odpowednch klas. Każdy punkt wejścowy jest zalczony do tej klasy której centrum znajduje sę najblżej ze wszystkch centrów. Teraz dla każdej z klas wyznacza sę nowe centrum na podstawe średnej współrzędnych wszystkch punktów przypsanych do danej klasy Dokonuje sę ponownego przypsana punktów do poszczególnych klas ponowne wyznacza sę w poszczególnych klasach średne. Seć z radalnym funkcjam bazowym używanym pomocnczo Czynnośc powyższe powtarza sę tak długo, jak długo chocaż jeden punkt zmen swoją przynależność do klasy. Po przerwanu algorytmu ostatno użyte średne wskazują centra klas. Zastosowane RBF (zamast MLP) spowoduje, że seć neuronowa znajdze aproksymację lepej dopasowaną do lokalnych właścwośc zboru danych, ale gorzej ekstrapolującą. Sec RBF bywają nadmerne wrażlwe na nawet nelczne błędy w danych uczących MLP RBF Funkcja bazowe Wynk dopasowana 12

13 Przykład dobrego złego dopasowana wartośc wyjścowych uzyskwanych z sec radalnej A tak wygląda struktura nnej praktyczne użytecznej sec klasy GRNN warstwa wejścowa służy do wprowadzana danych do sec warstwa radalna każdy z neuronów reprezentuje grupę (skupene) występujące w danych wejścowych warstwa regresyjna wyznacza elementy nezbędne do oblczena wartośc wyjścowej Złe dostosowane spowodowane tym, że funkcja charakterystyczna jest zbyt wąska Złe dostosowane spowodowane tym, że funkcja charakterystyczna zbyt jest szeroka warstwa wyjścowa wyznacza odpowedź sec Połączene w sec GRNN właścwośc neuronów RBF (z charakterystyką w forme funkcj Gaussa) oraz neuronów MLP (z charakterystyką sgmodalną) pozwala modelować wyjątkowo wyrafnowane zależnośc nelnowe) Idea dzałana sec realzujących regresję uogólnoną (GRNN -Generalzed Regresson Neural Network) Wejścowe wektory uczące dzelone są na skupena - w szczególnym przypadku każdy wektor tworzy oddzelne skupene, Dla każdego skupena znana jest wartość zmennej objaśnanej (wyjśce sec), wartość zmennej objaśnanej dla dowolnego wektora wejścowego szacowana jest jako średna ważona lczona z wartośc tej zmennej dla skupeń - wag uzależnone są od odległośc wejśca od centrów skupeń. Najbardzej stotny problem wąże sę z ustalenem, le elementów pownna meć warstwa ukryta?... duża z pewnoścą spraw węcej kłopotów podczas uczena? Mała może sę okazać zbyt prymtywna, żeby sobe poradzć z trudnoścą rozwązywanego zadana... Jako dobre przyblżene można przyjąć lczbę neuronów w warstwe ukrytej jako średną geometryczną wymarów wejść wyjść sec: K NM 13

14 Jest wele dowodów na to, że sec o wększej lczbe neuronów w warstwe ukrytej lepej sobe radzą z rozwązywanem różnych zadań Sec o wększej lczbe neuronów ukrytych osągają lepsze wynk uczena skuteczność klasyfkacj [%] Przykład: zadane rozpoznawana 75 znaków n. (lter) 96 na podstawe różnej lczby cech (50, ) przez 50 n. sec 94mające 100, 2575, n neuronów ukrytych n. 75 n. 50 n. 100 n. 75 n. 50 n. 100 n. 25 n. 50 cech 100 cech 150 cech 25 n. lczba neuronów ukrytych szybkość klasyfkacj [zn/s] Typowa zależność jakośc uczena sec od lczby neuronów ukrytych jest jednak nemonotonczna Inny przykład podobnych (nemonotoncznych) zależnośc 100 Błąd Lczba neuronów ukrytych Równeż w wyborze lczby elementów drugej warstwy ukrytej (jeśl występuje) trzeba zachować umar. Na rysunku lczba neuronów w perwszej warstwe ukrytej odkładany jest na pozomej os, a lczba neuronów w drugej warstwe pokazana jest kolorem. Jednak jest równe wele przykładów, że nekorzystne jest zarówno użyce zbyt prostej, jak zbyt skomplkowanej sec Seć zbyt prosta (jeden neuron) Seć zbyt skomplkowana 14

15 Mało skomplkowane sec szybko sę uczą wykazują powtarzalne zachowane, chocaż jest to często zachowane błędne Wynk kolejnych prób uczena za małej sec Przy projektowanu sec pożyteczne bywa spojrzene na warstwę ukrytą jako na kanał przez który mus być przepuszczona nformacja z wejśca sec zanm sę ukaże (w postac oblczonego wynku przetwarzana) na jej wyjścu Czasem korzysta sę z tej własnośc, żeby w autoasocjacyjnej sec neuronowej wytworzyć w warstwe ukrytej oszczędną reprezentację wejścowego sygnału (na przykład obrazu) w postac wektora cech Przyjrzyjmy sę temu, jak wzbogacane struktury sec neuronowej o dodatkowe neurony wpływa na jakość procesu rozwązywana zadana przez seć Mamy proste zadane: seć ma odwzorować zależność typu y = f(x) y = e 0.2x sn x Wdać, że seć marne sobe radz Zaznaczona jako odpowedź sec odwzorowuje tylko nelczne elementy uczące X Berzemy seć o typowej strukturze: uczymy ją a potem egzamnujemy: x y Co gorsza zupełne źle odwzorowuje ta elementy egzamnujące O, które ne były pokazywane w zborze uczącym, co oznacza brak zdolnośc do generalzacj wedzy. X elementy uczące O elementy egzamnujące --- odpowedź sec Wnosek: seć o tej strukturze: jest za słaba żeby nauczyć sę odwzorowana y = e 0.2x sn x 15

16 Trzeba sec dołożyć trochę ntelgencj, to znaczy dodać klka neuronów. Tylko jak to najskutecznej zrobć? Najlepej jest (zawsze!) dodać neurony wejścowe nosące dodatkową nformację: e 0. 2x x sn x Take doładowane sec dodatkową wedzą radykalne polepsza jej dzałane zarówno w zakrese nterpolacj jak w zakrese ekstrapolacj y Dołożene dwóch neuronów na wejścu przynosło znakomty efekt, ale to dzęk temu, że na tych dwóch wejścach podane zostały dodatkowe nformacje wejścowe dobrze skojarzone z natura rozwązywanego zadana. Neco mnej efektowny, ale łatwejszy do powtórzena sukces można odneść dokładając dodatkowe dwa neurony do warstwy ukrytej. Taka seć o wększej wrodzonej ntelgencj poradz sobe wyraźne lepej z zadanem, nż seć o mnejszych zasobach elementów ukrytych Dla porównana przypomnjmy Czasem może pojawć sę pokusa, żeby dodatkowe neurony dołożyć w postac elementów dodatkowej warstwy ukrytej Rozwązane take jest zawsze wyraźne gorsze! Warto zauważyć, że wyraźne gorszy efekt uzyskuje sę, gdy perwsza warstwa ukryta jest mnej lczna, nż druga. Wynka to z faktu, że casna perwsza warstwa ukryta stanow wąske gardło dla nformacj przesyłanych z wejśca na wyjśce. Następnym zagadnenem, które warto rozważyć, jest problem lośc wyjść Częsty dylemat twórcy sec: czy zastosować jedną seć o welu wyjścach, czy klka oddzelnych sec mających te same sygnały wejścowe, ale każdorazowo tylko jedno wyjśce? Na pozór sprawa jest oczywsta z góry przesądzona: Seć, która pownna dostarczyć k rozwązań pownna meć k neuronów wyjścowych W zwązku z tym seć, która na podstawe trzech danych wejścowych ma wyznaczyć dwa sygnały wyjścowe pownna wyglądać tak: Ne zawsze jednak to rozumowane jest poprawne! 16

17 Załóżmy, że uczymy jedną seć neuronową o dwóch wyjścach A oraz B. A B Lepej jest wtedy zbudować dwe osobne sec: A Pewnym rozwązanem pośrednm jest seć z weloma wyjścam ale z rozdzeloną warstwą ukrytą W neuronach obu warstw ukrytych będą musały być zgromadzone nformacje potrzebne do wyznaczana wartośc A oraz B. Czasem może to być korzystne, wtedy gdy mędzy wyjścam zachodz synerga doskonaląc pracę sec zmerzającą do wyznaczana poprawnych wartośc A przy okazj gromadz sę wedzę przydatna przy wyznaczanu wartośc B. Częścej jednak bywa tak, że mędzy wyjścam jest konflkt wyznaczając wartośc przydatne do oblczena A psujemy wartośc potrzebne dla B vce versa. Każdą z nch można wtedy będze w całośc optymalne dostroć do oblczana wymaganego wyjśca A albo B. B Zasada połączeń każdy z każdym skutkuje tym, że w sec neuronowej jest wele nepotrzebnych połączeń. Można je elmnować technkam usuwana nepotrzebnych połączeń już po nauczenu sec. Inny przykład redukowana struktury sec po jej nauczenu Struktury sec odzwercedlają czasem pomysł autora chcącego na przykład wspomagać rozpoznawane przy użycu opn udzelanych przez ekspertów Przykład usuwana nepotrzebnych połączeń z sec o netypowej strukturze 17

18 Dla lustracj rozważanych problemów przyjrzyjmy sę, jak rozwązują problem uczena sec o różnej archtekturze Wyobraźmy sobe przestrzeń percepcyjną pewnego zwerzaka. Postrzega on otoczene za pomocą wzroku słuchu, węc każde środowsko stanow dla nego punkt na płaszczyźne dźwęku śwatła. Dźwęk Tu jest głośno cemno (dyskoteka) Tu jest ccho cemno (sypalna) Przedmotem uczena będze to, w jakm środowsku zwerzak sę dobrze czuje Śwatło Tu jest jasno gwarno A tu są dane dla konkretnego środowska w którym umeszczamy naszego zwerzaka. Tu jest ccho jasno (plaża) Samopoczuce zwerzaka będze sygnalzowane przez kolor odpowednch punktów w przestrzen sygnałów wejścowych Dźwęk Tu zwerzak jest zadowolony Śwatło Tu zwerzak jest neszczęślwy Dźwęk Przykładowa mapa samopoczuca zwerzaka Mapę taką będzemy dalej rysowal zwykle w postac wygładzonej: Informację o tym, jak sę pownen zachowywać, zwerzak dostawać będze w postac zboru uczącego, składającego sę z przypadkowo wylosowanych punktów ( środowsk ) do których przypsane będą wymagane przez nauczycela stany samopoczuca (sygnalzowane kolorem) Śwatło Oto przykładowy zbór uczący......wygenerowany dla tej mapy Zakładamy, że pomędzy stanam: pełnego szczęśca: całkowtej depresj: Możlwe są jeszcze stany pośredne, które będzemy oznaczać koloram podobnym, jak na mapach geografcznych pośredne wysokośc pomędzy szczytam (entuzjazmu) a dnem (melanchol). Przykładowa mapa: Dźwęk Wyposażmy naszego zwerzaka w mózg w postac bardzo prostej jednowarstwowej sec neuronowej spróbujmy przeprowadzć jego uczene Zacznemy od próby wyuczena zwerzaka, żeby lubł gwarne śródmeśce w samo połudne: Śwatło Zwerzak początkowo wcale ne ma na to ochoty, bo jego zachowane Jasno wynkające z początkowych bardzo (przypadkowych!) wartośc wag głośno! neuronów obrazuje mapa: Jest to jak wdać zwolennk dyskotek sypaln (?) Ale zwerzak nam sę trafł! 18

19 No to zaaplkujemy zwerzakow uczene Po kolejnych klku epokach uczena zwerzak już we, o co chodz: Wzorzec Stan Początek Dalszy etap początkowy uczena uczena Już sę dostosował! Wdać, że na początku ma opory, ale powol zaczyna sę uczyć... Poprzedne zadane udało sę rozwązać, bo było bardzo proste, węc bardzo głuputk zwerzak (seć neuronowa bez warstw ukrytych) zdołał sę go nauczyć. Zobaczmy jednak, jak ta sama seć będze sę uczyć trudnejszego zadana. Nech zadane polega na stworzenu preferencj dla złotego środka Nasz zwerzak mota sę zmena swoje upodobana, ale mmo dowolne długego uczena ne zdoła wykryć, o co tym razem chodz! Wyposażmy go węc w bardzej skomplkowany mózg zawerający pewną lczbę neuronów ukrytych. Teraz proces uczena przebega zupełne naczej. Seć startuje od stanu totalnego optymzmu (prawe wszystko sę zwerzakow podoba!). Zauważmy: Ten cyber-kretyn ngdy sę ne nauczy robć tego, czego sę od nego wymaga, ale jego poglądy są zawsze bardzo kategoryczne (wszystko jest albo bardzo dobre, albo bardzo złe) chocaż za każdym razem nestety błędne... 19

20 Wystarczy jednak klka nepowodzeń w trakce procesu uczena, by zwerzak popadł w stan totalnego pesymzmu Potem jednak proces uczena przebega coraz skutecznej kończy sę całkowtym sukcesem Dostał klka razy karę od nauczycela sę załamał! Ta sama seć wystartowana powtórne (z nnym początkowym wartoścam wag) także dochodz do właścwego rozwązana, chocaż nną drogą. Dzęk prostemu programow symulacyjnemu można zebrać bardzo wele podobnych hstor uczena. Porażka sec z jedną warstwą ukrytą Inny przykład Seć z dwoma warstwam ukrytym (powyżej) radz sobe z problemem, który przerasta możlwośc sec z jedną warstwą ukrytą 20

21 Oto jeszcze jedna przykładowa hstora uczena sec o wększej złożonośc Take zabawy można kontynuować bez końca! 21

Analiza danych OGÓLNY SCHEMAT. http://zajecia.jakubw.pl/ Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja)

Analiza danych OGÓLNY SCHEMAT. http://zajecia.jakubw.pl/ Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja) Analza danych Dane trenngowe testowe. Algorytm k najblższych sąsadów. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ OGÓLNY SCHEMAT Mamy dany zbór danych podzelony na klasy decyzyjne, oraz

Bardziej szczegółowo

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311 Sztuczne sec neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyk, p. 311 Wykład 6 PLAN: - Repetto (brevs) - Sec neuronowe z radalnym funkcjam bazowym Repetto W aspekce archtektury: zajmowalśmy

Bardziej szczegółowo

Klasyfkator lnowy Wstęp Klasyfkator lnowy jest najprostszym możlwym klasyfkatorem. Zakłada on lnową separację lnowy podzał dwóch klas mędzy sobą. Przedstawa to ponższy rysunek: 5 4 3 1 0-1 - -3-4 -5-5

Bardziej szczegółowo

SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW

SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW Stefan WÓJTOWICZ, Katarzyna BIERNAT ZAKŁAD METROLOGII I BADAŃ NIENISZCZĄCYCH INSTYTUT ELEKTROTECHNIKI ul. Pożaryskego 8, 04-703 Warszawa tel.

Bardziej szczegółowo

Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE

Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE Inormatyka Podstawy Programowana 06/07 Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE 6. Równana algebraczne. Poszukujemy rozwązana, czyl chcemy określć perwastk rzeczywste równana:

Bardziej szczegółowo

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych Zaawansowane metody numeryczne Komputerowa analza zagadneń różnczkowych 1. Układy równań lnowych P. F. Góra http://th-www.f.uj.edu.pl/zfs/gora/ semestr letn 2006/07 Podstawowe fakty Równane Ax = b, x,

Bardziej szczegółowo

Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba

Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 1 Ćwczene 2: Perceptron WYMAGANIA 1. Sztuczne sec neuronowe budowa oraz ops matematyczny perceptronu (funkcje przejśca perceptronu), uczene perceptronu

Bardziej szczegółowo

Zaawansowane metody numeryczne

Zaawansowane metody numeryczne Wykład 9. jej modyfkacje. Oznaczena Będzemy rozpatrywać zagadnene rozwązana następującego układu n równań lnowych z n newadomym x 1... x n : a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x

Bardziej szczegółowo

Analiza danych. Analiza danych wielowymiarowych. Regresja liniowa. Dyskryminacja liniowa. PARA ZMIENNYCH LOSOWYCH

Analiza danych. Analiza danych wielowymiarowych. Regresja liniowa. Dyskryminacja liniowa.   PARA ZMIENNYCH LOSOWYCH Analza danych Analza danych welowymarowych. Regresja lnowa. Dyskrymnacja lnowa. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ PARA ZMIENNYCH LOSOWYCH Parę zmennych losowych X, Y możemy

Bardziej szczegółowo

KURS STATYSTYKA. Lekcja 6 Regresja i linie regresji ZADANIE DOMOWE. www.etrapez.pl Strona 1

KURS STATYSTYKA. Lekcja 6 Regresja i linie regresji ZADANIE DOMOWE. www.etrapez.pl Strona 1 KURS STATYSTYKA Lekcja 6 Regresja lne regresj ZADANIE DOMOWE www.etrapez.pl Strona 1 Część 1: TEST Zaznacz poprawną odpowedź (tylko jedna jest prawdzwa). Pytane 1 Funkcja regresj I rodzaju cechy Y zależnej

Bardziej szczegółowo

Neural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych.

Neural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych. Neural networks Lecture Notes n Pattern Recognton by W.Dzwnel Krótka hstora McCulloch Ptts (1943) - perwszy matematyczny ops dzalana neuronu przetwarzana przez nego danych. Proste neurony, które mogly

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6 Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Interpretacja parametrów przy zmennych objaśnających cągłych Semelastyczność 2. Zastosowane modelu potęgowego Model potęgowy 3. Zmenne cągłe za zmenne dyskretne

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6 Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Zastosowane modelu potęgowego Przekształcene Boxa-Coxa 2. Zmenne cągłe za zmenne dyskretne 3. Interpretacja parametrów przy zmennych dyskretnych 1. Zastosowane

Bardziej szczegółowo

Stanisław Cichocki Natalia Nehrebecka. Zajęcia 4

Stanisław Cichocki Natalia Nehrebecka. Zajęcia 4 Stansław Cchock Natala Nehrebecka Zajęca 4 1. Interpretacja parametrów przy zmennych zerojedynkowych Zmenne 0-1 Interpretacja przy zmennej 0 1 w modelu lnowym względem zmennych objaśnających Interpretacja

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka. Wykład 7

Stanisław Cichocki. Natalia Nehrebecka. Wykład 7 Stansław Cchock Natala Nehrebecka Wykład 7 1 1. Zmenne cągłe a zmenne dyskretne 2. Interpretacja parametrów przy zmennych dyskretnych 1. Zmenne cągłe a zmenne dyskretne 2. Interpretacja parametrów przy

Bardziej szczegółowo

Sieci Neuronowe 1 Michał Bereta

Sieci Neuronowe 1 Michał Bereta Wprowadzene Zagadnena Sztucznej Intelgencj laboratorum Sec Neuronowe 1 Mchał Bereta Sztuczne sec neuronowe można postrzegać jako modele matematyczne, które swoje wzorce wywodzą z bolog obserwacj ludzkch

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH

STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH 1 Test zgodnośc χ 2 Hpoteza zerowa H 0 ( Cecha X populacj ma rozkład o dystrybuance F). Hpoteza alternatywna H1( Cecha X populacj

Bardziej szczegółowo

MATEMATYKA POZIOM ROZSZERZONY Kryteria oceniania odpowiedzi. Arkusz A II. Strona 1 z 5

MATEMATYKA POZIOM ROZSZERZONY Kryteria oceniania odpowiedzi. Arkusz A II. Strona 1 z 5 MATEMATYKA POZIOM ROZSZERZONY Krytera ocenana odpowedz Arkusz A II Strona 1 z 5 Odpowedz Pytane 1 2 3 4 5 6 7 8 9 Odpowedź D C C A B 153 135 232 333 Zad. 10. (0-3) Dana jest funkcja postac. Korzystając

Bardziej szczegółowo

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB Rozwązywane zadań optymalzacj w środowsku programu MATLAB Zagadnene optymalzacj polega na znajdowanu najlepszego, względem ustalonego kryterum, rozwązana należącego do zboru rozwązań dopuszczalnych. Standardowe

Bardziej szczegółowo

Nie istnieje ogólna recepta, każdy przypadek musi być rozważany indywidualnie!

Nie istnieje ogólna recepta, każdy przypadek musi być rozważany indywidualnie! Preprocesing Postprocesing 2013-06-12 Kwestia wyboru struktury modelu neuronowego Nie istnieje ogólna recepta, każdy przypadek musi być rozważany indywidualnie! Schematyczne przedstawienie etapów przetwarzania

Bardziej szczegółowo

Wprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu

Wprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu Wprowadzene do Sec Neuronowych Algorytm wstecznej propagacj błędu Maja Czoków, Jarosław Persa --6 Powtórzene. Perceptron sgmodalny Funkcja sgmodalna: σ(x) = + exp( c (x p)) Parametr c odpowada za nachylene

Bardziej szczegółowo

Systemy Ochrony Powietrza Ćwiczenia Laboratoryjne

Systemy Ochrony Powietrza Ćwiczenia Laboratoryjne ś POLITECHNIKA POZNAŃSKA INSTYTUT INŻYNIERII ŚRODOWISKA PROWADZĄCY: mgr nż. Łukasz Amanowcz Systemy Ochrony Powetrza Ćwczena Laboratoryjne 2 TEMAT ĆWICZENIA: Oznaczane lczbowego rozkładu lnowych projekcyjnych

Bardziej szczegółowo

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Wykład 2: Uczenie nadzorowane sieci neuronowych - I Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za

Bardziej szczegółowo

W praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np.

W praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np. Wykład 7 Uwaga: W praktyce często zdarza sę, że wynk obu prób możemy traktować jako wynk pomarów na tym samym elemence populacj np. wynk x przed wynk y po operacj dla tego samego osobnka. Należy wówczas

Bardziej szczegółowo

Analiza rodzajów skutków i krytyczności uszkodzeń FMECA/FMEA według MIL STD - 1629A

Analiza rodzajów skutków i krytyczności uszkodzeń FMECA/FMEA według MIL STD - 1629A Analza rodzajów skutków krytycznośc uszkodzeń FMECA/FMEA według MIL STD - 629A Celem analzy krytycznośc jest szeregowane potencjalnych rodzajów uszkodzeń zdentyfkowanych zgodne z zasadam FMEA na podstawe

Bardziej szczegółowo

Natalia Nehrebecka. Zajęcia 4

Natalia Nehrebecka. Zajęcia 4 St ł Cchock Stansław C h k Natala Nehrebecka Zajęca 4 1. Interpretacja parametrów przy zmennych zerojedynkowych Zmenne 0 1 Interpretacja przy zmennej 0 1 w modelu lnowym względem zmennych objaśnających

Bardziej szczegółowo

XXX OLIMPIADA FIZYCZNA ETAP III Zadanie doświadczalne

XXX OLIMPIADA FIZYCZNA ETAP III Zadanie doświadczalne XXX OLIMPIADA FIZYCZNA ETAP III Zadane dośwadczalne ZADANIE D Nazwa zadana: Maszyna analogowa. Dane są:. doda półprzewodnkowa (krzemowa) 2. opornk dekadowy (- 5 Ω ), 3. woltomerz cyfrowy, 4. źródło napęca

Bardziej szczegółowo

Diagnostyka układów kombinacyjnych

Diagnostyka układów kombinacyjnych Dagnostyka układów kombnacyjnych 1. Wprowadzene Dagnostyka obejmuje: stwerdzene stanu układu, systemu lub ogólne sec logcznej. Jest to tzw. kontrola stanu wykrywająca czy dzałane sec ne jest zakłócane

Bardziej szczegółowo

Natalia Nehrebecka. Zajęcia 3

Natalia Nehrebecka. Zajęcia 3 St ł Cchock Stansław C h k Natala Nehrebecka Zajęca 3 1. Dobroć dopasowana równana regresj. Współczynnk determnacj R Dk Dekompozycja warancj zmennej zależnej ż Współczynnk determnacj R. Zmenne cągłe a

Bardziej szczegółowo

Zapis informacji, systemy pozycyjne 1. Literatura Jerzy Grębosz, Symfonia C++ standard. Harvey M. Deitl, Paul J. Deitl, Arkana C++. Programowanie.

Zapis informacji, systemy pozycyjne 1. Literatura Jerzy Grębosz, Symfonia C++ standard. Harvey M. Deitl, Paul J. Deitl, Arkana C++. Programowanie. Zaps nformacj, systemy pozycyjne 1 Lteratura Jerzy Grębosz, Symfona C++ standard. Harvey M. Detl, Paul J. Detl, Arkana C++. Programowane. Zaps nformacj w komputerach Wszystke elementy danych przetwarzane

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6 Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Zastosowane modelu potęgowego Model potęgowy Przekształcene Boxa-Coxa 2. Zmenne cągłe za zmenne dyskretne 3. Interpretacja parametrów przy zmennych dyskretnych

Bardziej szczegółowo

Nieeuklidesowe sieci neuronowe

Nieeuklidesowe sieci neuronowe Unwersytet Mkoaja Kopernka Wydza Fzyk, Astronom Informatyk Stosowanej IS Helena Jurkewcz numer albumu: 177622 Praca magsterska na kerunku Fzyka Komputerowa Neeukldesowe sec neuronowe Opekun pracy dyplomowej

Bardziej szczegółowo

METODA UNITARYZACJI ZEROWANEJ Porównanie obiektów przy ocenie wielokryterialnej. Ranking obiektów.

METODA UNITARYZACJI ZEROWANEJ Porównanie obiektów przy ocenie wielokryterialnej. Ranking obiektów. Opracowane: Dorota Mszczyńska METODA UNITARYZACJI ZEROWANEJ Porównane obektów przy ocene welokryteralnej. Rankng obektów. Porównane wybranych obektów (warantów decyzyjnych) ze względu na różne cechy (krytera)

Bardziej szczegółowo

Zmodyfikowana technika programowania dynamicznego

Zmodyfikowana technika programowania dynamicznego Zmodyfkowana technka programowana dynamcznego Lech Madeysk 1, Zygmunt Mazur 2 Poltechnka Wrocławska, Wydzał Informatyk Zarządzana, Wydzałowy Zakład Informatyk Wybrzeże Wyspańskego 27, 50-370 Wrocław Streszczene.

Bardziej szczegółowo

Wprowadzenie do Sieci Neuronowych Sieci rekurencyjne

Wprowadzenie do Sieci Neuronowych Sieci rekurencyjne Wprowadzene do Sec Neuronowych Sec rekurencyjne M. Czoków, J. Persa 2010-12-07 1 Powtórzene Konstrukcja autoasocjatora Hopfelda 1.1 Konstrukcja Danych jest m obrazów wzorcowych ξ 1..ξ m, gdze każdy pojedynczy

Bardziej szczegółowo

WikiWS For Business Sharks

WikiWS For Business Sharks WkWS For Busness Sharks Ops zadana konkursowego Zadane Opracowane algorytmu automatyczne przetwarzającego zdjęce odręczne narysowanego dagramu na tablcy lub kartce do postac wektorowej zapsanej w formace

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 15. ALGORYTMY GENETYCZNE Częstochowa 014 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska TERMINOLOGIA allele wartośc, waranty genów, chromosom - (naczej

Bardziej szczegółowo

Natalia Nehrebecka. Wykład 2

Natalia Nehrebecka. Wykład 2 Natala Nehrebecka Wykład . Model lnowy Postad modelu lnowego Zaps macerzowy modelu lnowego. Estymacja modelu Wartośd teoretyczna (dopasowana) Reszty 3. MNK przypadek jednej zmennej . Model lnowy Postad

Bardziej szczegółowo

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych Najprostsza jest jednostka lnowa: Neuron lnowy potraf ona rozpoznawać wektor wejścowy X = (x 1, x 2,..., x n ) T zapamętany we współczynnkach wagowych W = (w 1, w 2,..., w n ), Zauważmy, że y = W X Załóżmy,

Bardziej szczegółowo

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Wykład 2: Uczenie nadzorowane sieci neuronowych - I Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za

Bardziej szczegółowo

Weryfikacja hipotez dla wielu populacji

Weryfikacja hipotez dla wielu populacji Weryfkacja hpotez dla welu populacj Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Intelgencj Metod Matematycznych Wydzał Informatyk Poltechnk Szczecńskej 5. Parametryczne testy stotnośc w

Bardziej szczegółowo

MODEL PROGNOZUJĄCY EKOEFEKTYWNOŚĆ TECHNOLOGII ZRÓWNOWAŻONEGO ROZWOJU W OPARCIU O SIECI NEURONOWE

MODEL PROGNOZUJĄCY EKOEFEKTYWNOŚĆ TECHNOLOGII ZRÓWNOWAŻONEGO ROZWOJU W OPARCIU O SIECI NEURONOWE ZADANIA 3.4., 3.5. 3.6 OPRACOWANIE, TESTOWANIE I WERYFIKACJA ALGORYTMU MODELU OCENY EKOEFEKTYWNOŚCI TECHNOLOGII MODEL PROGNOZUJĄCY EKOEFEKTYWNOŚĆ TECHNOLOGII ZRÓWNOWAŻONEGO ROZWOJU W OPARCIU O SIECI NEURONOWE

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 7. KLASYFIKATORY BAYESA. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

SYSTEMY UCZĄCE SIĘ WYKŁAD 7. KLASYFIKATORY BAYESA. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska. SYSTEMY UCZĄCE SIĘ WYKŁAD 7. KLASYFIKATORY BAYESA Częstochowa 4 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska TWIERDZENIE BAYESA Wedza pozyskwana przez metody probablstyczne ma

Bardziej szczegółowo

BADANIA OPERACYJNE. Podejmowanie decyzji w warunkach niepewności. dr Adam Sojda

BADANIA OPERACYJNE. Podejmowanie decyzji w warunkach niepewności. dr Adam Sojda BADANIA OPERACYJNE Podejmowane decyzj w warunkach nepewnośc dr Adam Sojda Teora podejmowana decyzj gry z naturą Wynk dzałana zależy ne tylko od tego, jaką podejmujemy decyzję, ale równeż od tego, jak wystąp

Bardziej szczegółowo

Kształtowanie się firm informatycznych jako nowych elementów struktury przestrzennej przemysłu

Kształtowanie się firm informatycznych jako nowych elementów struktury przestrzennej przemysłu PRACE KOMISJI GEOGRAFII PRZEMY SŁU Nr 7 WARSZAWA KRAKÓW 2004 Akadema Pedagogczna, Kraków Kształtowane sę frm nformatycznych jako nowych elementów struktury przestrzennej przemysłu Postępujący proces rozwoju

Bardziej szczegółowo

Laboratorium ochrony danych

Laboratorium ochrony danych Laboratorum ochrony danych Ćwczene nr Temat ćwczena: Cała skończone rozszerzone Cel dydaktyczny: Opanowane programowej metody konstruowana cał skończonych rozszerzonych GF(pm), poznane ch własnośc oraz

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 15. ANALIZA DANYCH WYKRYWANIE OBSERWACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska

SYSTEMY UCZĄCE SIĘ WYKŁAD 15. ANALIZA DANYCH WYKRYWANIE OBSERWACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska SYSTEMY UCZĄCE SIĘ WYKŁAD 15. ANALIZA DANYCH WYKRYWANIE OBSERWACJI ODSTAJĄCYCH, UZUPEŁNIANIE BRAKUJĄCYCH DANYCH Częstochowa 2014 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska WYKRYWANIE

Bardziej szczegółowo

Ćwiczenie 10. Metody eksploracji danych

Ćwiczenie 10. Metody eksploracji danych Ćwczene 10. Metody eksploracj danych Grupowane (Clusterng) 1. Zadane grupowana Grupowane (ang. clusterng) oznacza grupowane rekordów, obserwacj lub przypadków w klasy podobnych obektów. Grupa (ang. cluster)

Bardziej szczegółowo

Pattern Classification

Pattern Classification attern Classfcaton All materals n these sldes were taken from attern Classfcaton nd ed by R. O. Duda,. E. Hart and D. G. Stork, John Wley & Sons, 000 wth the permsson of the authors and the publsher Chapter

Bardziej szczegółowo

KRZYWA BÉZIERA TWORZENIE I WIZUALIZACJA KRZYWYCH PARAMETRYCZNYCH NA PRZYKŁADZIE KRZYWEJ BÉZIERA

KRZYWA BÉZIERA TWORZENIE I WIZUALIZACJA KRZYWYCH PARAMETRYCZNYCH NA PRZYKŁADZIE KRZYWEJ BÉZIERA KRZYWA BÉZIERA TWORZENIE I WIZUALIZACJA KRZYWYCH PARAMETRYCZNYCH NA PRZYKŁADZIE KRZYWEJ BÉZIERA Krzysztof Serżęga Wyższa Szkoła Informatyk Zarządzana w Rzeszowe Streszczene Artykuł porusza temat zwązany

Bardziej szczegółowo

65120/ / / /200

65120/ / / /200 . W celu zbadana zależnośc pomędzy płcą klentów ch preferencjam, wylosowano kobet mężczyzn zadano m pytane: uważasz za lepszy produkt frmy A czy B? Wynk były następujące: Odpowedź Kobety Mężczyźn Wolę

Bardziej szczegółowo

Zestaw zadań 4: Przestrzenie wektorowe i podprzestrzenie. Liniowa niezależność. Sumy i sumy proste podprzestrzeni.

Zestaw zadań 4: Przestrzenie wektorowe i podprzestrzenie. Liniowa niezależność. Sumy i sumy proste podprzestrzeni. Zestaw zadań : Przestrzene wektorowe podprzestrzene. Lnowa nezależność. Sumy sumy proste podprzestrzen. () Wykazać, że V = C ze zwykłym dodawanem jako dodawanem wektorów operacją mnożena przez skalar :

Bardziej szczegółowo

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe Sztuczne sec neuronowe Jerzy Stefanowsk Plan wykładu 1. Wprowadzene 2. Model sztucznego neuronu. 3. Topologe sec neuronowych 4. Reguły uczena sec neuronowych. 5. Klasyfkaca sec neuronowych. 6. Sec warstwowe

Bardziej szczegółowo

PODSTAWA WYMIARU ORAZ WYSOKOŚĆ EMERYTURY USTALANEJ NA DOTYCHCZASOWYCH ZASADACH

PODSTAWA WYMIARU ORAZ WYSOKOŚĆ EMERYTURY USTALANEJ NA DOTYCHCZASOWYCH ZASADACH PODSTAWA WYMIARU ORAZ WYSOKOŚĆ EMERYTURY USTALANEJ NA DOTYCHCZASOWYCH ZASADACH Z a k ł a d U b e z p e c z e ń S p o ł e c z n y c h Wprowadzene Nnejsza ulotka adresowana jest zarówno do osób dopero ubegających

Bardziej szczegółowo

Sieci Neuronowe 2 Michał Bereta

Sieci Neuronowe 2 Michał Bereta Zagadnena Sztucznej Intelgencj laboratorum Sec Neuronowe 2 Mchał Bereta Cele laboratorum: zapoznane sę z nowym rodzajam sec neuronowych: secam Kohonena oraz secam radalnym porównane sec Kohonena oraz sec

Bardziej szczegółowo

Minimalizacja globalna. Algorytmy genetyczne i ewolucyjne.

Minimalizacja globalna. Algorytmy genetyczne i ewolucyjne. Mnmalzacja globalna Algorytmy genetyczne ewolucyjne. Lnearyzacja nelnowego operatora g prowadz do przyblżonych metod rozwązywana zagadnena odwrotnego. Wynk takej nwersj jest slne uzależnony od wyboru modelu

Bardziej szczegółowo

dy dx stąd w przybliżeniu: y

dy dx stąd w przybliżeniu: y Przykłady do funkcj nelnowych funkcj Törnqusta Proszę sprawdzć uzasadnć, które z podanych zdań są prawdzwe, a które fałszywe: Przykład 1. Mesęczne wydatk na warzywa (y, w jednostkach penężnych, jp) w zależnośc

Bardziej szczegółowo

Problem plecakowy (KNAPSACK PROBLEM).

Problem plecakowy (KNAPSACK PROBLEM). Problem plecakowy (KNAPSACK PROBLEM). Zagadnene optymalzac zwane problemem plecakowym swą nazwę wzęło z analog do sytuac praktyczne podobne do problemu pakowana plecaka. Chodz o to, by zapakować maksymalne

Bardziej szczegółowo

I. Elementy analizy matematycznej

I. Elementy analizy matematycznej WSTAWKA MATEMATYCZNA I. Elementy analzy matematycznej Pochodna funkcj f(x) Pochodna funkcj podaje nam prędkość zman funkcj: df f (x + x) f (x) f '(x) = = lm x 0 (1) dx x Pochodna funkcj podaje nam zarazem

Bardziej szczegółowo

Proste modele ze złożonym zachowaniem czyli o chaosie

Proste modele ze złożonym zachowaniem czyli o chaosie Proste modele ze złożonym zachowanem czyl o chaose 29 kwetna 2014 Komputer jest narzędzem coraz częścej stosowanym przez naukowców do ukazywana skrzętne ukrywanych przez naturę tajemnc. Symulacja, obok

Bardziej szczegółowo

Problemy jednoczesnego testowania wielu hipotez statystycznych i ich zastosowania w analizie mikromacierzy DNA

Problemy jednoczesnego testowania wielu hipotez statystycznych i ich zastosowania w analizie mikromacierzy DNA Problemy jednoczesnego testowana welu hpotez statystycznych ch zastosowana w analze mkromacerzy DNA Konrad Furmańczyk Katedra Zastosowań Matematyk SGGW Plan referatu Testowane w analze mkromacerzy DNA

Bardziej szczegółowo

Procedura normalizacji

Procedura normalizacji Metody Badań w Geograf Społeczno Ekonomcznej Procedura normalzacj Budowane macerzy danych geografcznych mgr Marcn Semczuk Zakład Przedsęborczośc Gospodark Przestrzennej Instytut Geograf Unwersytet Pedagogczny

Bardziej szczegółowo

Rozkład dwupunktowy. Rozkład dwupunktowy. Rozkład dwupunktowy x i p i 0 1-p 1 p suma 1

Rozkład dwupunktowy. Rozkład dwupunktowy. Rozkład dwupunktowy x i p i 0 1-p 1 p suma 1 Rozkład dwupunktowy Zmenna losowa przyjmuje tylko dwe wartośc: wartość 1 z prawdopodobeństwem p wartość 0 z prawdopodobeństwem 1- p x p 0 1-p 1 p suma 1 Rozkład dwupunktowy Funkcja rozkładu prawdopodobeństwa

Bardziej szczegółowo

Proces narodzin i śmierci

Proces narodzin i śmierci Proces narodzn śmerc Jeżel w ewnej oulacj nowe osobnk ojawają sę w sosób losowy, rzy czym gęstość zdarzeń na jednostkę czasu jest stała w czase wynos λ, oraz lczba osobnków n, które ojawły sę od chwl do

Bardziej szczegółowo

Minimalizacja globalna, algorytmy genetyczne i zastosowanie w geotechnice

Minimalizacja globalna, algorytmy genetyczne i zastosowanie w geotechnice Mnmalzacja globalna, algorytmy genetyczne zastosowane w geotechnce Metoda sejsmczna Metoda geoelektryczna Podstawowy podzał ZAGADNIENIE PROSTE (ang. forward problem) model + parametry modelu dane (ośrodek,

Bardziej szczegółowo

KURS STATYSTYKA. Lekcja 1 Statystyka opisowa ZADANIE DOMOWE. www.etrapez.pl Strona 1

KURS STATYSTYKA. Lekcja 1 Statystyka opisowa ZADANIE DOMOWE. www.etrapez.pl Strona 1 KURS STATYSTYKA Lekcja 1 Statystyka opsowa ZADANIE DOMOWE www.etrapez.pl Strona 1 Część 1: TEST Zaznacz poprawną odpowedź (tylko jedna jest prawdzwa). Pytane 1 W statystyce opsowej mamy pełne nformacje

Bardziej szczegółowo

) będą niezależnymi zmiennymi losowymi o tym samym rozkładzie normalnym z następującymi parametrami: nieznaną wartością 1 4

) będą niezależnymi zmiennymi losowymi o tym samym rozkładzie normalnym z następującymi parametrami: nieznaną wartością 1 4 Zadane. Nech ( X, Y ),( X, Y ), K,( X, Y n n ) będą nezależnym zmennym losowym o tym samym rozkładze normalnym z następującym parametram: neznaną wartoścą oczekwaną EX = EY = m, warancją VarX = VarY =

Bardziej szczegółowo

( ) ( ) 2. Zadanie 1. są niezależnymi zmiennymi losowymi o. oraz. rozkładach normalnych, przy czym EX. i σ są nieznane. 1 Niech X

( ) ( ) 2. Zadanie 1. są niezależnymi zmiennymi losowymi o. oraz. rozkładach normalnych, przy czym EX. i σ są nieznane. 1 Niech X Prawdopodobeństwo statystyka.. r. Zadane. Zakładamy, że,,,,, 5 są nezależnym zmennym losowym o rozkładach normalnych, przy czym E = μ Var = σ dla =,,, oraz E = μ Var = 3σ dla =,, 5. Parametry μ, μ σ są

Bardziej szczegółowo

Kodowanie informacji. Instytut Informatyki UWr Studia wieczorowe. Wykład nr 2: rozszerzone i dynamiczne Huffmana

Kodowanie informacji. Instytut Informatyki UWr Studia wieczorowe. Wykład nr 2: rozszerzone i dynamiczne Huffmana Kodowane nformacj Instytut Informatyk UWr Studa weczorowe Wykład nr 2: rozszerzone dynamczne Huffmana Kod Huffmana - nemłe przypadk... Nech alfabet składa sę z 2 lter: P(a)=1/16 P(b)=15/16 Mamy H(1/16,

Bardziej szczegółowo

Pokazać, że wyżej zdefiniowana struktura algebraiczna jest przestrzenią wektorową nad ciałem

Pokazać, że wyżej zdefiniowana struktura algebraiczna jest przestrzenią wektorową nad ciałem Zestaw zadań : Przestrzene wektorowe. () Wykazać, że V = C ze zwykłym dodawanem jako dodawanem wektorów operacją mnożena przez skalar : C C C, (z, v) z v := z v jest przestrzeną lnową nad całem lczb zespolonych

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka. Wykład 7

Stanisław Cichocki. Natalia Nehrebecka. Wykład 7 Stansław Cchock Natala Nehrebecka Wykład 7 . Zmenne dyskretne Kontrasty: efekty progowe, kontrasty w odchylenach Interakcje. Przyblżane model nelnowych Stosowane do zmennych dyskretnych o uporządkowanych

Bardziej szczegółowo

± Δ. Podstawowe pojęcia procesu pomiarowego. x rzeczywiste. Określenie jakości poznania rzeczywistości

± Δ. Podstawowe pojęcia procesu pomiarowego. x rzeczywiste. Określenie jakości poznania rzeczywistości Podstawowe pojęca procesu pomarowego kreślene jakośc poznana rzeczywstośc Δ zmerzone rzeczywste 17 9 Zalety stosowana elektrycznych przyrządów 1/ 1. możlwość budowy czujnków zamenających werne każdą welkość

Bardziej szczegółowo

System Przeciwdziałania Powstawaniu Bezrobocia na Terenach Słabo Zurbanizowanych SPRAWOZDANIE Z BADAŃ Autor: Joanna Wójcik

System Przeciwdziałania Powstawaniu Bezrobocia na Terenach Słabo Zurbanizowanych SPRAWOZDANIE Z BADAŃ   Autor: Joanna Wójcik Opracowane w ramach projektu System Przecwdzałana Powstawanu Bezroboca na Terenach Słabo Zurbanzowanych ze środków Europejskego Funduszu Społecznego w ramach Incjatywy Wspólnotowej EQUAL PARTNERSTWO NA

Bardziej szczegółowo

5. CHARAKTERYSTYKI CZĘSTOTLIWOŚCIOWE

5. CHARAKTERYSTYKI CZĘSTOTLIWOŚCIOWE 5. CHARAKTERYSTYKI CZĘSTOTLIWOŚCIOWE Oprócz transmtancj operatorowej, do opsu członów układów automatyk stosuje sę tzw. transmtancję wdmową. Transmtancję wdmową G(j wyznaczyć moŝna dzęk podstawenu do wzoru

Bardziej szczegółowo

Minister Edukacji Narodowej Pani Katarzyna HALL Ministerstwo Edukacji Narodowej al. J. Ch. Szucha 25 00-918 Warszawa Dnia 03 czerwca 2009 r.

Minister Edukacji Narodowej Pani Katarzyna HALL Ministerstwo Edukacji Narodowej al. J. Ch. Szucha 25 00-918 Warszawa Dnia 03 czerwca 2009 r. Mnster Edukacj arodowej Pan Katarzyna HALL Mnsterstwo Edukacj arodowej al. J. Ch. Szucha 25 00-918 arszawa Dna 03 czerwca 2009 r. TEMAT: Propozycja zmany art. 30a ustawy Karta auczycela w forme lstu otwartego

Bardziej szczegółowo

Badania sondażowe. Braki danych Konstrukcja wag. Agnieszka Zięba. Zakład Badań Marketingowych Instytut Statystyki i Demografii Szkoła Główna Handlowa

Badania sondażowe. Braki danych Konstrukcja wag. Agnieszka Zięba. Zakład Badań Marketingowych Instytut Statystyki i Demografii Szkoła Główna Handlowa Badana sondażowe Brak danych Konstrukcja wag Agneszka Zęba Zakład Badań Marketngowych Instytut Statystyk Demograf Szkoła Główna Handlowa 1 Błędy braku odpowedz Całkowty brak odpowedz (UNIT nonresponse)

Bardziej szczegółowo

Nieparametryczne Testy Istotności

Nieparametryczne Testy Istotności Neparametryczne Testy Istotnośc Wzory Neparametryczne testy stotnośc schemat postępowana punkt po punkce Formułujemy hpotezę główną odnoszącą sę do: zgodnośc populacj generalnej z jakmś rozkładem, lub:

Bardziej szczegółowo

D Archiwum Prac Dyplomowych - Instrukcja dla studentów

D Archiwum Prac Dyplomowych - Instrukcja dla studentów Kraków 01.10.2015 D Archwum Prac Dyplomowych - Instrukcja dla studentów Procedura Archwzacj Prac Dyplomowych jest realzowana zgodne z zarządzenem nr 71/2015 Rektora Unwersytetu Rolnczego m. H. Kołłątaja

Bardziej szczegółowo

Portfele zawierające walor pozbawiony ryzyka. Elementy teorii rynku kapitałowego

Portfele zawierające walor pozbawiony ryzyka. Elementy teorii rynku kapitałowego Portel nwestycyjny ćwczena Na podst. Wtold Jurek: Konstrukcja analza rozdzał 5 dr chał Konopczyńsk Portele zawerające walor pozbawony ryzyka. lementy teor rynku kaptałowego 1. Pożyczane penędzy amy dwa

Bardziej szczegółowo

OGÓLNE PODSTAWY SPEKTROSKOPII

OGÓLNE PODSTAWY SPEKTROSKOPII WYKŁAD 8 OGÓLNE PODSTAWY SPEKTROSKOPII E E0 sn( ωt kx) ; k π ; ω πν ; λ T ν E (m c 4 p c ) / E +, dla fotonu m 0 p c p hk Rozkład energ w stane równowag: ROZKŁAD BOLTZMANA!!!!! P(E) e E / kt N E N E/

Bardziej szczegółowo

Mikroekonometria 5. Mikołaj Czajkowski Wiktor Budziński

Mikroekonometria 5. Mikołaj Czajkowski Wiktor Budziński Mkroekonometra 5 Mkołaj Czajkowsk Wktor Budzńsk Uogólnone modele lnowe Uogólnone modele lnowe (ang. Generalzed Lnear Models GLM) Różną sę od standardowego MNK na dwa sposoby: Rozkład zmennej objaśnanej

Bardziej szczegółowo

Struktura testu matematycznego OBUT 2012 z zasadami punktowania zadań

Struktura testu matematycznego OBUT 2012 z zasadami punktowania zadań Struktura testu matematycznego OBUT 2012 z zasadam punktowana Nr zadana 1a 1b 1c Obszar badanych umejętnośc Podobszar badanych umejętnośc Co bada zadane lczb trzycyfrowych; lczb w sytuacj typowej lczb

Bardziej szczegółowo

Modelowanie i obliczenia techniczne. Metody numeryczne w modelowaniu: Optymalizacja

Modelowanie i obliczenia techniczne. Metody numeryczne w modelowaniu: Optymalizacja Modelowane oblczena technczne Metody numeryczne w modelowanu: Optymalzacja Zadane optymalzacj Optymalzacja to ulepszane lub poprawa jakośc danego rozwązana, projektu, opracowana. Celem optymalzacj jest

Bardziej szczegółowo

Kwantowa natura promieniowania elektromagnetycznego

Kwantowa natura promieniowania elektromagnetycznego Efekt Comptona. Kwantowa natura promenowana elektromagnetycznego Zadane 1. Foton jest rozpraszany na swobodnym elektrone. Wyznaczyć zmanę długośc fal fotonu w wynku rozproszena. Poneważ układ foton swobodny

Bardziej szczegółowo

Dobór zmiennych objaśniających

Dobór zmiennych objaśniających Dobór zmennych objaśnających Metoda grafowa: Należy tak rozpąć graf na werzchołkach opsujących poszczególne zmenne, aby występowały w nm wyłączne łuk symbolzujące stotne korelacje pomędzy zmennym opsującym.

Bardziej szczegółowo

Za: Stanisław Latoś, Niwelacja trygonometryczna, [w:] Ćwiczenia z geodezji II [red.] J. Beluch

Za: Stanisław Latoś, Niwelacja trygonometryczna, [w:] Ćwiczenia z geodezji II [red.] J. Beluch Za: Stansław Latoś, Nwelacja trygonometryczna, [w:] Ćwczena z geodezj II [red.] J. eluch 6.1. Ogólne zasady nwelacj trygonometrycznej. Wprowadzene Nwelacja trygonometryczna, zwana równeż trygonometrycznym

Bardziej szczegółowo

0 0,2 0, p 0,1 0,2 0,5 0, p 0,3 0,1 0,2 0,4

0 0,2 0, p 0,1 0,2 0,5 0, p 0,3 0,1 0,2 0,4 Zad. 1. Dana jest unkcja prawdopodobeństwa zmennej losowej X -5-1 3 8 p 1 1 c 1 Wyznaczyć: a. stałą c b. wykres unkcj prawdopodobeństwa jej hstogram c. dystrybuantę jej wykres d. prawdopodobeństwa: P (

Bardziej szczegółowo

Warszawa, 28 stycznia 2017 r., Blok tematyczny II Sztuczne sieci neuronowe (środowisko MATLAB i Simulink z wykorzystaniem Neural Network Toolbox),

Warszawa, 28 stycznia 2017 r., Blok tematyczny II Sztuczne sieci neuronowe (środowisko MATLAB i Simulink z wykorzystaniem Neural Network Toolbox), Studa Doktorancke IBS PA nt. Technk nformacyjne teora zastosowana WYKŁAD Semnarum nt. Modelowane rozwoju systemów w środowsku MATLABA Smulnka Prof. nadzw. dr hab. nż. Jerzy Tchórzewsk, jtchorzewsk@ntera.pl;

Bardziej szczegółowo

SIECI RBF (RADIAL BASIS FUNCTIONS)

SIECI RBF (RADIAL BASIS FUNCTIONS) SIECI RBF (RADIAL BASIS FUNCTIONS) Wybrane slajdy z prezentacji prof. Tadeusiewicza Wykład Andrzeja Burdy S. Osowski, Sieci Neuronowe w ujęciu algorytmicznym, Rozdz. 5, PWNT, Warszawa 1996. opr. P.Lula,

Bardziej szczegółowo

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa

Bardziej szczegółowo

Wstęp do metod numerycznych Faktoryzacja SVD Metody iteracyjne. P. F. Góra

Wstęp do metod numerycznych Faktoryzacja SVD Metody iteracyjne. P. F. Góra Wstęp do metod numerycznych Faktoryzacja SVD Metody teracyjne P. F. Góra http://th-www.f.uj.edu.pl/zfs/gora/ 2013 Sngular Value Decomposton Twerdzene 1. Dla każdej macerzy A R M N, M N, stneje rozkład

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 18. ALGORYTMY EWOLUCYJNE - ZASTOSOWANIA Częstochowa 2014 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska ZADANIE ZAŁADUNKU Zadane załadunku plecakowe

Bardziej szczegółowo

Statystyka Inżynierska

Statystyka Inżynierska Statystyka Inżynerska dr hab. nż. Jacek Tarasuk AGH, WFIS 013 Wykład DYSKRETNE I CIĄGŁE ROZKŁADY JEDNOWYMIAROWE Zmenna losowa, Funkcja rozkładu, Funkcja gęstośc, Dystrybuanta, Charakterystyk zmennej, Funkcje

Bardziej szczegółowo

Mikroekonometria 13. Mikołaj Czajkowski Wiktor Budziński

Mikroekonometria 13. Mikołaj Czajkowski Wiktor Budziński Mkroekonometra 13 Mkołaj Czajkowsk Wktor Budzńsk Symulacje Analogczne jak w przypadku cągłej zmennej zależnej można wykorzystać metody Monte Carlo do analzy różnego rodzaju problemów w modelach gdze zmenna

Bardziej szczegółowo

5. OPTYMALIZACJA GRAFOWO-SIECIOWA

5. OPTYMALIZACJA GRAFOWO-SIECIOWA . OPTYMALIZACJA GRAFOWO-SIECIOWA Defncja grafu Pod pojęcem grafu G rozumemy następującą dwójkę uporządkowaną (defncja grafu Berge a): (.) G W,U gdze: W zbór werzchołków grafu, U zbór łuków grafu, U W W,

Bardziej szczegółowo

Budowa i własności. sztucznych neuronów i sieci

Budowa i własności. sztucznych neuronów i sieci Budowa i własności sztucznych neuronów i sieci Uwaga: Slajdy w tej prezentacji są intensywnie animowane, więc na statycznych kopiach mogą być mało czytelne (elementy pokazywane podczas animacji sekwencyjnie

Bardziej szczegółowo

Zjawiska masowe takie, które mogą wystąpid nieograniczoną ilośd razy. Wyrazów Obcych)

Zjawiska masowe takie, które mogą wystąpid nieograniczoną ilośd razy. Wyrazów Obcych) Statystyka - nauka zajmująca sę metodam badana przedmotów zjawsk w ch masowych przejawach ch loścową lub jakoścową analzą z punktu wdzena nauk, do której zakresu należą.

Bardziej szczegółowo

Ntli Natalia Nehrebecka. Dariusz Szymański. Zajęcia 4

Ntli Natalia Nehrebecka. Dariusz Szymański. Zajęcia 4 Ntl Natala Nehrebecka Darusz Szymańsk Zajęca 4 1 1. Zmenne dyskretne 3. Modele z nterakcjam 2. Przyblżane model dlnelnowych 2 Zmenne dyskretne Zmenne nomnalne Zmenne uporządkowane 3 Neco bardzej skomplkowana

Bardziej szczegółowo

Zadanie na wykonanie Projektu Zespołowego

Zadanie na wykonanie Projektu Zespołowego Zadane na wykonane Projektu Zespołowego Celem projektu jest uzyskane następującego szeregu umejętnośc praktycznych: umejętnośc opracowana równoległych wersj algorytmów (na przykładze algorytmów algebry

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka. Wykład 7

Stanisław Cichocki. Natalia Nehrebecka. Wykład 7 Stansław Cchock Natala Nehrebecka Wykład 7 1 1. Interakcje 2. Przyblżane model nelnowych 3. Założena KMRL 1. Interakcje 2. Przyblżane model nelnowych 3. Założena KMRL W standardowym modelu lnowym zakładamy,

Bardziej szczegółowo