Nie istnieje ogólna recepta, każdy przypadek musi być rozważany indywidualnie!
|
|
- Mirosław Olejnik
- 5 lat temu
- Przeglądów:
Transkrypt
1 Kwesta wyboru struktury modelu neuronowego Schematyczne przedstawene etapów przetwarzana danych w procese neuronowego modelowana Ne stneje ogólna recepta, każdy przypadek mus być rozważany ndywdualne! dane wejścowe Preprocesng zmenne wejścowe zmenne wyjścowe Postprocesng dane wyjścowe Typy sztucznych sec neuronowych Sztuczne Sec Neuronowe jednokerunkowe rekurencyjne Bayesa modularne specjalne częścowo całkowce połączone połączone dynamczne komtety asocjacyjne jednowarstwowe Jordana Boltzmanna perceptrony pulsacyjne kompozytowe Elmana Hopfelda lnowe komórkowe kaskadowe welowarstwowe neuronoworozmyte RBF perceptrony ontogenczne Kohonena MLP uczena cągłego probablstyczne Dobór typu sec neuronowej oraz sposobu jej strukturalzacj oraz uczena w przykładowym zadanu (dagnostyka wbroakustyczna przekładn) Przykłady połączeń mędzyneuronowych występujących w secach neuronowych. (m) - połączena mędzywarstwowe, (w) - połączena wewnątrzwarstwowe, (s) samosprzężena, (n) - połączena nadwarstwowe, (r) - połączena rekurencyjne Nektórzy autorzy slą sę na tworzene sec o bardzo orygnalnej archtekturze s m m nr n w s nr 1
2 Trójwarstwowa seć neuronowa Jednak najpowszechnej używana archtektura sec to klasyczny perceptron welowarstwowy oznaczany jako MLP Perwsze pytane do rozstrzygnęca: Seć lnowa czy nelnowa? Seć lnowa jako najprostszy (ale użyteczny!) model regresyjny Przesłank przemawające za stosowanem lnowej sec neuronowej: jest doskonałym narzędzem do opsu zależnośc lnowych, stanow punkt odnesena przy ocene model nelnowych, struktura uczene ne stwarza żadnych problemów. Lnowa seć neuronowa Lnowa seć neuronowa Iteracyjne uczene sec lnowej ne jest koneczne, gdyż może być zastąpone procedurą pseudo-nwersj macerzy Popatrzmy bowem, jak dzała lnowa seć neuronowa: P X W 1 W 2 Y X W Y x 1 x 2 x n w 11 w 21 y 1 y 1 = w 11 x 1 + w 21 x w n1 x.. n w n1 y k = w 1k x 1 + w 2k x w nk x n y k W zapse macerzowym: Y = W X Seć lnowa z zasady ne posada warstw ukrytych, bo nawet jeśl sę je wprowadz, to ne wzbogacą one zachowana sec P = W 1 X Y = W 2 P Y = W 2 W 1 X Y = W X ; W = W 1 W 2 2
3 Dlatego lnowa seć neuronowa jest często przedstawana w sposób przytoczony na tym obrazku Perceptron welowarstwowy ϕ P X W 1 ϕ W 2 ϕ ϕ P = Φ[W 1 X] Y = Φ[ W 2 P ] Y = Φ[ W 2 Φ[ W 1 X ] ] Y W perceptrone na skutek stnena nelnowośc w neuronach ukrytych ne jest możlwe zwnęce jego welowarstwowej struktury Alternatywne, często spotykane rozwązane: seć RBF Przy ustalanu, le wejść ma meć seć neuronowa trzeba wząć pod uwagę fakt, że nelczne (z reguły) dane uczące będą w przestrzen o wększym wymarze bardzo mocno rozproszone Czas Kontrahent Kontrahent Produkt 300 Czas Czas Przykładowo przy założenu że różnorodność produktów wynos 100 elementów, parametr kontrahent ma 500 elementów a wymar czas 365 dn - przestrzeń wejścowa będze zawerała 500*100*365 = komórek. Lczba wejść do sec pownna być też lmtowana ze względu na fakt, że od każdego wejśca do każdego elementu warstwy ukrytej będze musało w sec być połączene, oraz współczynnk wagowy, którego wartość trzeba będze wyznaczyć w wynku procesu uczena. Tymczasem wzrost lczby współczynnków wymagających uczena ne jest okolcznoścą korzystną! 3
4 Lczba współczynnków wagowych, jake trzeba wyznaczyć w toku uczena wyznacza bowem mnmalną nezbędną lczbę danych uczących, które są koneczne do tego, żeby seć ne weszła w pułapkę uczena sę na pamęć Podstawową welkoścą określającą ryzyko uczena na pamęć jest tzw. mara Vapnka- Chervonenksa, zwana w skróce VCdm. Mara VCdm systemu została zdefnowana jako lczebność n najwększego zboru S danych wzorców, dla których system klasyfkujący może zrealzować wszystke możlwe 2 n dychotom lnowych zboru S Dychotoma lnowa to podzał zboru na 2 częśc za pomocą formuł lnowych, czyl w N-wymarowej przestrzen za pomocą hperpłaszczyzn (N-1)-wymarowych. Dla pojedynczego neuronu o N wejścach mara VCdm wynos N+1 Dla przykładu VCdm dla neuronu o dwóch wejścach wynos n=3. Łatwo można wykazać, że zbór złożony z trzech danych uczących jest najwększym zborem, w którym można przeprowadzć podzał na dwe lnowo separowalne grupy na 2 3 = 8 sposobów: Jednak o le łatwo jest wyznaczyć wartość VCdm dla pojedynczego neuronu, o tyle w przypadku sec neuronowej ne jest to już take proste Nestety ne stneje prosty zwązek mędzy archtekturą sec welowarstwowej, a marą VCdm. Można podać jedyne oszacowane górnego dolnego zakresu tej mary: gdze: K 2 N VC dm 2N w + N n 2 [ ] oznacza część całkowtą lczby, N wymar wektora wejścowego, K lczba neuronów w warstwe ukrytej, N w całkowta lczba wag w sec, N n całkowta lczba neuronów w sec ( 1 log ) K 2 N VC dm 2N w + N n 2 ( 1 log ) Jak wdać z powyższej zależnośc, dolna granca przedzału jest w przyblżenu równa lczbe wag łączących warstwę wejścową z warstwą ukrytą, górna granca natomast jest wększa nż dwukrotna lczba wszystkch wag sec. Oszacowane mary VCdm umożlwa ocenę mnmalnego wymaru zboru uczącego. W wynku przeprowadzena welu testów numerycznych stwerdzono dobre zdolnośc uogólnana sec, jeśl lczba próbek uczących jest 10 razy wększa od mary VCdm 4
5 Całkem poważnym problemem jest sposób reprezentacj danych w sec neuronowej Reprezentacja danych w secach neuronowych Jeśl dane mają od początku charakter numeryczny to problemu ne ma najwyżej trzeba je przeskalować Uwaga: przy skalowanu należy unkać wchodzena w obszar nasycena charakterystyk neuronu Typowo stosowane formuły skalowana x mn( x ) x = max( x ) mn( x ) cel skalowana: dopasowane zakresu wartośc zmennej do charakterystyk neuronu y:=1/(1+exp(-0.5*x)) x mn( x ) x = 2 1 max( x ) mn( x ) x = ( x mn( x )) ( b a) max( x ) mn( x ) + a Gorzej, jeśl dane mają charakter jakoścowy. Koneczne jest wtedy przekształcene jeden-z-n Jeden-z-N to sposób na przekształcene wartośc nomnalnych do postac numerycznej. Przykład: Pochodzene ={Azja, Ameryka, Europa} Azja: {1, 0, 0} Ameryka: {0, 1, 0} Europa: {0, 0, 1} jedna zmenna trzy neurony! Obszar najczęstszego stosowana kodowana 1 z N: Klasyfkacja wzorcowa Celem klasyfkacj wzorcowej jest przypsane badanych obektów do jednej ze znanych klas. Zaklasyfkowane obektu dokonywane jest na podstawe wartośc opsujących go zmennych. wartośc zmennych charakteryzujących klasyfkowane obekty Seć neuronowa dentyfkator klasy 5
6 Sposób prezentacj danych jakoścowych zgodne z metodą 1 z N Przykład reprezentacj 1-z-N (rozpoznawane znaków alfanumeryczych) q w e r t Mało wyraźne C : C Właścwej nterpretacj wymagają też dane wyjścowe, otrzymywane z sec jako rozwązane postawonego zadana Jeśl wymagane są wynk numeryczne, to sprawa jest prosta, bo wystarczy je odczytać na wyjścach neuronów tylko odpowedno przeskalować. Trudnośc zaczynają sę wtedy, gdy seć pracuje jako klasyfkator, węc jej odpowedz trzeba nterpretować jako decyzje. Idealna sytuacja zwązana użycem zmennej nomnalnej na wyjścu sec neuronowej Rzeczywsty rozkład wartośc sygnałów w sec neuronowej ze zmenną nomnalną na wyjścu Przykład rozkładu sygnałów wyjścowych, przy którym lepej jest ne wyznaczać wcale wartośc zmennej nomnalnej, nż narazć sę na błąd, który jest w tej sytuacj bardzo prawdopodobny 6
7 y:=1/(1+exp(-0.5*x)) y:=1/(1+exp(-0.5*x)) Klasyfkacja w przypadku dwóch klas Warstwa wyjścowa - neuron z sgmodalną funkcją aktywacj Reprezentacja klas: klasa 1 - wartość 1 klasa 2 - wartość 0 KLASA 1 próg akceptacj BRAK DECYZJI próg odrzucena KLASA 2 Wartość wyjścowa neuronu może być nterpretowana jako prawdopodobeństwo przynależnośc do klasy Klasyfkacja w przypadku wększej lczby klas Każdej klase odpowada jeden neuron w warstwe wyjścowej. Aby obekt został w sposób pewny zalczony do -tej klasy: wartość wyjścowa -tego neuronu - wyższa od pozomu akceptacj, wartośc wyjścowe pozostałych neuronów - nższe od pozomu odrzucena. 1 0 KLASA głos 1za klasą próg akceptacj BRAK DECYZJI próg odrzucena KLASA wycofane 2 klasy Interpretacja wartośc wyjścowych jako prawdopodobeństw przynależnośc do klas - koneczne jest ch sumowane do jednośc - zapewna to funkcja aktywacj SoftMax Seć z wyjścam zblokowanym (przy zmennej wyjścowej typu nomnalnego z weloma możlwym klasam wyjścowym) Przykład klasyfkacj bnarnej weloklasowej Problem praktyczny: Czy wszystke dostępne zmenne objaśnające należy wprowadzać na wejśca sec? Wzrastająca lczba danych wejścowych uwzględnanych przy budowe modelu neuronowego prowadz do wzrostu lczby połączeń, dla których trzeba w sec ustalć wartośc wag w toku uczena Ne, w marę możlwośc należy ogranczać lczbę zmennych wejścowych, Dlaczego? Bo stosując mnejszą lczbę zmennych wejścowych uzyskujemy prostszą seć, która: posada mnejszą lczbę parametrów nastawanych podczas uczena, a to powoduje łatwejsze uczene daje lepsze zdolnośc do generalzacj, ma krótszy czas uczena, gdyż mnej jest danych 7
8 y: =1/ (1+exp(-0. 5*x)) y: =1/ (1+exp(-0. 5*x)) y: =1/ (1+exp(-0. 5*x)) y: =1/ (1+exp(-0. 5*x)) y: =1/ (1+exp(-0. 5*x)) y: =1/ (1+exp(-0. 5*x)) y: =1/ (1+exp(-0. 5*x)) A tymczasem pamętamy: lość nformacj, jake zdobywa ( utrwala) seć w czase uczena jest ne wększa, nż lość nformacj zawarta w zborze uczącym! MLP czy RBF? MLP Najczęścej wykorzystywany jest tak model neuronu: Najbardzej typowa struktura sec zbudowanej z takch elementów: trójwarstwowy perceptron o jednym wyjścu x 1 w y:=1/(1+exp(-0.5*x)) x 2 x n w 2... w n n s = 1 = wx y -0.1 Seć zbudowana z takch neuronów nazywana jest zwykle MLP (Mult-Layer Perceptron) Typowa struktura sec MLP Podstawowe właścwośc: wele wejść wele wyjść jedna (rzadzej dwe) warstwy ukryte nelnowe charakterystyk neuronów ukrytych w forme sgmod W warstwe wyjścowej neurony mogą być lnowe lub także mogą meć charakterystyk sgmodalne Uczene najczęścej przeprowadzane metodą wstecznej propagacj błędów Każdy model budowany z pomocą sec neuronowych klasy MLP cechuje zwykle obecność urwsk sgmodalnych 8
9 Przykład dzałana sec MLP Przykład zadana klasyfkacyjnego jego rozwązane uzyskane z użycem sec MLP technk urwsk sgmodalnych Często w różnych warstwach sec MLP neurony mają różne charakterystyk, zarówno nelnowe jak lnowe Inne zadane klasyfkacyjne jego dwa rozwązana Odmenne dzałającym elementem używanym w nektórych typach jest tzw. neuron radalny (wykorzystywany w secach RBF) x 1 1 t 1 r 1 f Typowa seć RBF... f y x-t x n t n r n Agregacja sygnałów wejścowych w tym type neuronu polega na oblczanu odległośc pomędzy obecnym wektorem wejścowym X a ustalonym podczas uczena centrodem pewnego podzboru T Równeż nelnowa funkcja przejśca w tych neuronach ma odmenną formę - dzwonu gaussody - czyl jest funkcją nemonotonczną. 9
10 Technka ta jest szczególne przydatna przy wyodrębnanu obszarów o kształce wydzelonych wysp Jednak złożene takch elementarnych wadomośc pochodzących od różnych danych uczących pozwala wypowadać sę na temat całych rejonów przestrzen sygnałów wejścowych Sposób separacj przestrzen danych przez: (a) neuron sgmodalny, (b) neuron radalny Y Sec MLP w zadanu klasyfkacj X Y Sec RBF w zadanu klasyfkacj X Seć typu RBF w zastosowanu do klasyfkacj (wykrywa sygnalzuje skupska danych wejścowych) 10
11 Elementy zboru uczącego dzelone są na grupy elementów podobnych (metodą k-średnch, która będze zaraz opsana). Jak uczyć taką seć? W charakterze wag neuronów radalnych stosowane są środk cężkośc każdej wyróżnonej grupy. Przestrzeń sygnałów wejścowych oraz wag Określene wag neuronów radalnych metodą K-średnch Uproszczony obraz dzałana metody k-means Dla n próbek wejścowych x0..., x1 x n 1 metodę k-means wykorzystuje sę do utworzena k klastrów, przy czym dla każdego z nch zostane wyznaczony element modalny, reprezentujący umowny środek całej grupy w przestrzen cech. Metoda k-means dzała w sposób teracyjny. W celu wyszukana najlepszych lokalzacj dla środkowych punktów każdego z klastrów na początek przyjmuje sę lokalzacj przypadkowe, a potem sę je doskonal, tak, aby optymalne dopasować każdy wzorzec do klastra danych wejścowych, którego środek jest najblżej wzorca. Przedstawmy dzałane tego algorytmu w pęcu krokach 1) Ustalene środków poszczególnych klas za pomocą perwotnych wartośc m 0, m1,..., m K 1. Na początku są to wektory Krok 1 przypadkowo rozrzucone w przestrzen sygnałów wejścowych. 2) Wyznaczene odległośc mędzy wszystkm próbkam x 0, x1,..., x n 1 cągu, a wszystkm środkam klas m 0, m1 m K 1, Krok 2,..., d 2 x, m ) = x m = ( x m ) ( x m, dla =0,...,n-1 oraz j=0,...,k-1 2 j 1 ( 1 j1 p ) ) 2 ( j j jp 3) Połączene w jedną grupę wszystkch tych sygnałów wejścowych x spośród próbek x 0, x1... x n 1, których odległość od środka mj klasy j jest mnejsza od odległośc tychże Krok 3 sygnałów wejścowych x od środków ml nnych klas (l j) w celu utworzena klasy j. Czynność ta wykonywana jest dla wszystkch numerów klas j=0,...,k-1. 4) Znalezene nowych środków klas, poprzez wyszukane wśród sygnałów x tej próbk, której współrzędne są najblższe wartoścom średnm współrzędnych wyznaczonym dla wszystkch sygnałów wejścowych, które zostały ulokowane w klase j. (W warance metody pozwalającym na Krok to, żeby 4 wzorzec klasy mógł być obektem abstrakcyjnym, ne należącym do zboru próbek x 0, x1,..., x n 1 środkem klasy j staje sę po prostu punkt, którego współrzędne są wartoścam średnm współrzędnych elementów x przypsanych do tej klasy.) 5) Jeśl w cągu ostatnej teracj żaden z elementów x ne zmenł swojej klasy należy zakończyć proces klasterngu, w przecwnym Krok 5 przypadku trzeba wrócć do punktu 3. Punktem wyjśca do algorytmu k średnch jest zbór danych, o których sądzmy, że tworzą k skupsk. Na rysunku k = 3. W losowy sposób wyberamy k punktów (rozrzuconych) nazywamy te punkty prowzorycznym centram budowanych skupsk. Na rysunku punkty wybrane jako centra są oznaczone znakem X, a skupska są nazwane red, green oraz blue 11
12 Na podstawe odległośc od wybranych centrów skupsk z przypsanym m nazwam klas zalcza sę wszystke punkty do odpowednch klas. Każdy punkt wejścowy jest zalczony do tej klasy której centrum znajduje sę najblżej ze wszystkch centrów. Teraz dla każdej z klas wyznacza sę nowe centrum na podstawe średnej współrzędnych wszystkch punktów przypsanych do danej klasy Dokonuje sę ponownego przypsana punktów do poszczególnych klas ponowne wyznacza sę w poszczególnych klasach średne. Seć z radalnym funkcjam bazowym używanym pomocnczo Czynnośc powyższe powtarza sę tak długo, jak długo chocaż jeden punkt zmen swoją przynależność do klasy. Po przerwanu algorytmu ostatno użyte średne wskazują centra klas. Zastosowane RBF (zamast MLP) spowoduje, że seć neuronowa znajdze aproksymację lepej dopasowaną do lokalnych właścwośc zboru danych, ale gorzej ekstrapolującą. Sec RBF bywają nadmerne wrażlwe na nawet nelczne błędy w danych uczących MLP RBF Funkcja bazowe Wynk dopasowana 12
13 Przykład dobrego złego dopasowana wartośc wyjścowych uzyskwanych z sec radalnej A tak wygląda struktura nnej praktyczne użytecznej sec klasy GRNN warstwa wejścowa służy do wprowadzana danych do sec warstwa radalna każdy z neuronów reprezentuje grupę (skupene) występujące w danych wejścowych warstwa regresyjna wyznacza elementy nezbędne do oblczena wartośc wyjścowej Złe dostosowane spowodowane tym, że funkcja charakterystyczna jest zbyt wąska Złe dostosowane spowodowane tym, że funkcja charakterystyczna zbyt jest szeroka warstwa wyjścowa wyznacza odpowedź sec Połączene w sec GRNN właścwośc neuronów RBF (z charakterystyką w forme funkcj Gaussa) oraz neuronów MLP (z charakterystyką sgmodalną) pozwala modelować wyjątkowo wyrafnowane zależnośc nelnowe) Idea dzałana sec realzujących regresję uogólnoną (GRNN -Generalzed Regresson Neural Network) Wejścowe wektory uczące dzelone są na skupena - w szczególnym przypadku każdy wektor tworzy oddzelne skupene, Dla każdego skupena znana jest wartość zmennej objaśnanej (wyjśce sec), wartość zmennej objaśnanej dla dowolnego wektora wejścowego szacowana jest jako średna ważona lczona z wartośc tej zmennej dla skupeń - wag uzależnone są od odległośc wejśca od centrów skupeń. Najbardzej stotny problem wąże sę z ustalenem, le elementów pownna meć warstwa ukryta?... duża z pewnoścą spraw węcej kłopotów podczas uczena? Mała może sę okazać zbyt prymtywna, żeby sobe poradzć z trudnoścą rozwązywanego zadana... Jako dobre przyblżene można przyjąć lczbę neuronów w warstwe ukrytej jako średną geometryczną wymarów wejść wyjść sec: K NM 13
14 Jest wele dowodów na to, że sec o wększej lczbe neuronów w warstwe ukrytej lepej sobe radzą z rozwązywanem różnych zadań Sec o wększej lczbe neuronów ukrytych osągają lepsze wynk uczena skuteczność klasyfkacj [%] Przykład: zadane rozpoznawana 75 znaków n. (lter) 96 na podstawe różnej lczby cech (50, ) przez 50 n. sec 94mające 100, 2575, n neuronów ukrytych n. 75 n. 50 n. 100 n. 75 n. 50 n. 100 n. 25 n. 50 cech 100 cech 150 cech 25 n. lczba neuronów ukrytych szybkość klasyfkacj [zn/s] Typowa zależność jakośc uczena sec od lczby neuronów ukrytych jest jednak nemonotonczna Inny przykład podobnych (nemonotoncznych) zależnośc 100 Błąd Lczba neuronów ukrytych Równeż w wyborze lczby elementów drugej warstwy ukrytej (jeśl występuje) trzeba zachować umar. Na rysunku lczba neuronów w perwszej warstwe ukrytej odkładany jest na pozomej os, a lczba neuronów w drugej warstwe pokazana jest kolorem. Jednak jest równe wele przykładów, że nekorzystne jest zarówno użyce zbyt prostej, jak zbyt skomplkowanej sec Seć zbyt prosta (jeden neuron) Seć zbyt skomplkowana 14
15 Mało skomplkowane sec szybko sę uczą wykazują powtarzalne zachowane, chocaż jest to często zachowane błędne Wynk kolejnych prób uczena za małej sec Przy projektowanu sec pożyteczne bywa spojrzene na warstwę ukrytą jako na kanał przez który mus być przepuszczona nformacja z wejśca sec zanm sę ukaże (w postac oblczonego wynku przetwarzana) na jej wyjścu Czasem korzysta sę z tej własnośc, żeby w autoasocjacyjnej sec neuronowej wytworzyć w warstwe ukrytej oszczędną reprezentację wejścowego sygnału (na przykład obrazu) w postac wektora cech Przyjrzyjmy sę temu, jak wzbogacane struktury sec neuronowej o dodatkowe neurony wpływa na jakość procesu rozwązywana zadana przez seć Mamy proste zadane: seć ma odwzorować zależność typu y = f(x) y = e 0.2x sn x Wdać, że seć marne sobe radz Zaznaczona jako odpowedź sec odwzorowuje tylko nelczne elementy uczące X Berzemy seć o typowej strukturze: uczymy ją a potem egzamnujemy: x y Co gorsza zupełne źle odwzorowuje ta elementy egzamnujące O, które ne były pokazywane w zborze uczącym, co oznacza brak zdolnośc do generalzacj wedzy. X elementy uczące O elementy egzamnujące --- odpowedź sec Wnosek: seć o tej strukturze: jest za słaba żeby nauczyć sę odwzorowana y = e 0.2x sn x 15
16 Trzeba sec dołożyć trochę ntelgencj, to znaczy dodać klka neuronów. Tylko jak to najskutecznej zrobć? Najlepej jest (zawsze!) dodać neurony wejścowe nosące dodatkową nformację: e 0. 2x x sn x Take doładowane sec dodatkową wedzą radykalne polepsza jej dzałane zarówno w zakrese nterpolacj jak w zakrese ekstrapolacj y Dołożene dwóch neuronów na wejścu przynosło znakomty efekt, ale to dzęk temu, że na tych dwóch wejścach podane zostały dodatkowe nformacje wejścowe dobrze skojarzone z natura rozwązywanego zadana. Neco mnej efektowny, ale łatwejszy do powtórzena sukces można odneść dokładając dodatkowe dwa neurony do warstwy ukrytej. Taka seć o wększej wrodzonej ntelgencj poradz sobe wyraźne lepej z zadanem, nż seć o mnejszych zasobach elementów ukrytych Dla porównana przypomnjmy Czasem może pojawć sę pokusa, żeby dodatkowe neurony dołożyć w postac elementów dodatkowej warstwy ukrytej Rozwązane take jest zawsze wyraźne gorsze! Warto zauważyć, że wyraźne gorszy efekt uzyskuje sę, gdy perwsza warstwa ukryta jest mnej lczna, nż druga. Wynka to z faktu, że casna perwsza warstwa ukryta stanow wąske gardło dla nformacj przesyłanych z wejśca na wyjśce. Następnym zagadnenem, które warto rozważyć, jest problem lośc wyjść Częsty dylemat twórcy sec: czy zastosować jedną seć o welu wyjścach, czy klka oddzelnych sec mających te same sygnały wejścowe, ale każdorazowo tylko jedno wyjśce? Na pozór sprawa jest oczywsta z góry przesądzona: Seć, która pownna dostarczyć k rozwązań pownna meć k neuronów wyjścowych W zwązku z tym seć, która na podstawe trzech danych wejścowych ma wyznaczyć dwa sygnały wyjścowe pownna wyglądać tak: Ne zawsze jednak to rozumowane jest poprawne! 16
17 Załóżmy, że uczymy jedną seć neuronową o dwóch wyjścach A oraz B. A B Lepej jest wtedy zbudować dwe osobne sec: A Pewnym rozwązanem pośrednm jest seć z weloma wyjścam ale z rozdzeloną warstwą ukrytą W neuronach obu warstw ukrytych będą musały być zgromadzone nformacje potrzebne do wyznaczana wartośc A oraz B. Czasem może to być korzystne, wtedy gdy mędzy wyjścam zachodz synerga doskonaląc pracę sec zmerzającą do wyznaczana poprawnych wartośc A przy okazj gromadz sę wedzę przydatna przy wyznaczanu wartośc B. Częścej jednak bywa tak, że mędzy wyjścam jest konflkt wyznaczając wartośc przydatne do oblczena A psujemy wartośc potrzebne dla B vce versa. Każdą z nch można wtedy będze w całośc optymalne dostroć do oblczana wymaganego wyjśca A albo B. B Zasada połączeń każdy z każdym skutkuje tym, że w sec neuronowej jest wele nepotrzebnych połączeń. Można je elmnować technkam usuwana nepotrzebnych połączeń już po nauczenu sec. Inny przykład redukowana struktury sec po jej nauczenu Struktury sec odzwercedlają czasem pomysł autora chcącego na przykład wspomagać rozpoznawane przy użycu opn udzelanych przez ekspertów Przykład usuwana nepotrzebnych połączeń z sec o netypowej strukturze 17
18 Dla lustracj rozważanych problemów przyjrzyjmy sę, jak rozwązują problem uczena sec o różnej archtekturze Wyobraźmy sobe przestrzeń percepcyjną pewnego zwerzaka. Postrzega on otoczene za pomocą wzroku słuchu, węc każde środowsko stanow dla nego punkt na płaszczyźne dźwęku śwatła. Dźwęk Tu jest głośno cemno (dyskoteka) Tu jest ccho cemno (sypalna) Przedmotem uczena będze to, w jakm środowsku zwerzak sę dobrze czuje Śwatło Tu jest jasno gwarno A tu są dane dla konkretnego środowska w którym umeszczamy naszego zwerzaka. Tu jest ccho jasno (plaża) Samopoczuce zwerzaka będze sygnalzowane przez kolor odpowednch punktów w przestrzen sygnałów wejścowych Dźwęk Tu zwerzak jest zadowolony Śwatło Tu zwerzak jest neszczęślwy Dźwęk Przykładowa mapa samopoczuca zwerzaka Mapę taką będzemy dalej rysowal zwykle w postac wygładzonej: Informację o tym, jak sę pownen zachowywać, zwerzak dostawać będze w postac zboru uczącego, składającego sę z przypadkowo wylosowanych punktów ( środowsk ) do których przypsane będą wymagane przez nauczycela stany samopoczuca (sygnalzowane kolorem) Śwatło Oto przykładowy zbór uczący......wygenerowany dla tej mapy Zakładamy, że pomędzy stanam: pełnego szczęśca: całkowtej depresj: Możlwe są jeszcze stany pośredne, które będzemy oznaczać koloram podobnym, jak na mapach geografcznych pośredne wysokośc pomędzy szczytam (entuzjazmu) a dnem (melanchol). Przykładowa mapa: Dźwęk Wyposażmy naszego zwerzaka w mózg w postac bardzo prostej jednowarstwowej sec neuronowej spróbujmy przeprowadzć jego uczene Zacznemy od próby wyuczena zwerzaka, żeby lubł gwarne śródmeśce w samo połudne: Śwatło Zwerzak początkowo wcale ne ma na to ochoty, bo jego zachowane Jasno wynkające z początkowych bardzo (przypadkowych!) wartośc wag głośno! neuronów obrazuje mapa: Jest to jak wdać zwolennk dyskotek sypaln (?) Ale zwerzak nam sę trafł! 18
19 No to zaaplkujemy zwerzakow uczene Po kolejnych klku epokach uczena zwerzak już we, o co chodz: Wzorzec Stan Początek Dalszy etap początkowy uczena uczena Już sę dostosował! Wdać, że na początku ma opory, ale powol zaczyna sę uczyć... Poprzedne zadane udało sę rozwązać, bo było bardzo proste, węc bardzo głuputk zwerzak (seć neuronowa bez warstw ukrytych) zdołał sę go nauczyć. Zobaczmy jednak, jak ta sama seć będze sę uczyć trudnejszego zadana. Nech zadane polega na stworzenu preferencj dla złotego środka Nasz zwerzak mota sę zmena swoje upodobana, ale mmo dowolne długego uczena ne zdoła wykryć, o co tym razem chodz! Wyposażmy go węc w bardzej skomplkowany mózg zawerający pewną lczbę neuronów ukrytych. Teraz proces uczena przebega zupełne naczej. Seć startuje od stanu totalnego optymzmu (prawe wszystko sę zwerzakow podoba!). Zauważmy: Ten cyber-kretyn ngdy sę ne nauczy robć tego, czego sę od nego wymaga, ale jego poglądy są zawsze bardzo kategoryczne (wszystko jest albo bardzo dobre, albo bardzo złe) chocaż za każdym razem nestety błędne... 19
20 Wystarczy jednak klka nepowodzeń w trakce procesu uczena, by zwerzak popadł w stan totalnego pesymzmu Potem jednak proces uczena przebega coraz skutecznej kończy sę całkowtym sukcesem Dostał klka razy karę od nauczycela sę załamał! Ta sama seć wystartowana powtórne (z nnym początkowym wartoścam wag) także dochodz do właścwego rozwązana, chocaż nną drogą. Dzęk prostemu programow symulacyjnemu można zebrać bardzo wele podobnych hstor uczena. Porażka sec z jedną warstwą ukrytą Inny przykład Seć z dwoma warstwam ukrytym (powyżej) radz sobe z problemem, który przerasta możlwośc sec z jedną warstwą ukrytą 20
21 Oto jeszcze jedna przykładowa hstora uczena sec o wększej złożonośc Take zabawy można kontynuować bez końca! 21
Analiza danych OGÓLNY SCHEMAT. http://zajecia.jakubw.pl/ Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja)
Analza danych Dane trenngowe testowe. Algorytm k najblższych sąsadów. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ OGÓLNY SCHEMAT Mamy dany zbór danych podzelony na klasy decyzyjne, oraz
Bardziej szczegółowoSztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311
Sztuczne sec neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyk, p. 311 Wykład 6 PLAN: - Repetto (brevs) - Sec neuronowe z radalnym funkcjam bazowym Repetto W aspekce archtektury: zajmowalśmy
Bardziej szczegółowoKlasyfkator lnowy Wstęp Klasyfkator lnowy jest najprostszym możlwym klasyfkatorem. Zakłada on lnową separację lnowy podzał dwóch klas mędzy sobą. Przedstawa to ponższy rysunek: 5 4 3 1 0-1 - -3-4 -5-5
Bardziej szczegółowoSZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW
SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW Stefan WÓJTOWICZ, Katarzyna BIERNAT ZAKŁAD METROLOGII I BADAŃ NIENISZCZĄCYCH INSTYTUT ELEKTROTECHNIKI ul. Pożaryskego 8, 04-703 Warszawa tel.
Bardziej szczegółowoProjekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE
Inormatyka Podstawy Programowana 06/07 Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE 6. Równana algebraczne. Poszukujemy rozwązana, czyl chcemy określć perwastk rzeczywste równana:
Bardziej szczegółowoZaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych
Zaawansowane metody numeryczne Komputerowa analza zagadneń różnczkowych 1. Układy równań lnowych P. F. Góra http://th-www.f.uj.edu.pl/zfs/gora/ semestr letn 2006/07 Podstawowe fakty Równane Ax = b, x,
Bardziej szczegółowoNowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba
Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 1 Ćwczene 2: Perceptron WYMAGANIA 1. Sztuczne sec neuronowe budowa oraz ops matematyczny perceptronu (funkcje przejśca perceptronu), uczene perceptronu
Bardziej szczegółowoZaawansowane metody numeryczne
Wykład 9. jej modyfkacje. Oznaczena Będzemy rozpatrywać zagadnene rozwązana następującego układu n równań lnowych z n newadomym x 1... x n : a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x
Bardziej szczegółowoAnaliza danych. Analiza danych wielowymiarowych. Regresja liniowa. Dyskryminacja liniowa. PARA ZMIENNYCH LOSOWYCH
Analza danych Analza danych welowymarowych. Regresja lnowa. Dyskrymnacja lnowa. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ PARA ZMIENNYCH LOSOWYCH Parę zmennych losowych X, Y możemy
Bardziej szczegółowoKURS STATYSTYKA. Lekcja 6 Regresja i linie regresji ZADANIE DOMOWE. www.etrapez.pl Strona 1
KURS STATYSTYKA Lekcja 6 Regresja lne regresj ZADANIE DOMOWE www.etrapez.pl Strona 1 Część 1: TEST Zaznacz poprawną odpowedź (tylko jedna jest prawdzwa). Pytane 1 Funkcja regresj I rodzaju cechy Y zależnej
Bardziej szczegółowoNeural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych.
Neural networks Lecture Notes n Pattern Recognton by W.Dzwnel Krótka hstora McCulloch Ptts (1943) - perwszy matematyczny ops dzalana neuronu przetwarzana przez nego danych. Proste neurony, które mogly
Bardziej szczegółowoStanisław Cichocki. Natalia Nehrebecka. Wykład 6
Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Interpretacja parametrów przy zmennych objaśnających cągłych Semelastyczność 2. Zastosowane modelu potęgowego Model potęgowy 3. Zmenne cągłe za zmenne dyskretne
Bardziej szczegółowoStanisław Cichocki. Natalia Nehrebecka. Wykład 6
Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Zastosowane modelu potęgowego Przekształcene Boxa-Coxa 2. Zmenne cągłe za zmenne dyskretne 3. Interpretacja parametrów przy zmennych dyskretnych 1. Zastosowane
Bardziej szczegółowoStanisław Cichocki Natalia Nehrebecka. Zajęcia 4
Stansław Cchock Natala Nehrebecka Zajęca 4 1. Interpretacja parametrów przy zmennych zerojedynkowych Zmenne 0-1 Interpretacja przy zmennej 0 1 w modelu lnowym względem zmennych objaśnających Interpretacja
Bardziej szczegółowoStanisław Cichocki. Natalia Nehrebecka. Wykład 7
Stansław Cchock Natala Nehrebecka Wykład 7 1 1. Zmenne cągłe a zmenne dyskretne 2. Interpretacja parametrów przy zmennych dyskretnych 1. Zmenne cągłe a zmenne dyskretne 2. Interpretacja parametrów przy
Bardziej szczegółowoSieci Neuronowe 1 Michał Bereta
Wprowadzene Zagadnena Sztucznej Intelgencj laboratorum Sec Neuronowe 1 Mchał Bereta Sztuczne sec neuronowe można postrzegać jako modele matematyczne, które swoje wzorce wywodzą z bolog obserwacj ludzkch
Bardziej szczegółowoSTATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH
STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH 1 Test zgodnośc χ 2 Hpoteza zerowa H 0 ( Cecha X populacj ma rozkład o dystrybuance F). Hpoteza alternatywna H1( Cecha X populacj
Bardziej szczegółowoMATEMATYKA POZIOM ROZSZERZONY Kryteria oceniania odpowiedzi. Arkusz A II. Strona 1 z 5
MATEMATYKA POZIOM ROZSZERZONY Krytera ocenana odpowedz Arkusz A II Strona 1 z 5 Odpowedz Pytane 1 2 3 4 5 6 7 8 9 Odpowedź D C C A B 153 135 232 333 Zad. 10. (0-3) Dana jest funkcja postac. Korzystając
Bardziej szczegółowoRozwiązywanie zadań optymalizacji w środowisku programu MATLAB
Rozwązywane zadań optymalzacj w środowsku programu MATLAB Zagadnene optymalzacj polega na znajdowanu najlepszego, względem ustalonego kryterum, rozwązana należącego do zboru rozwązań dopuszczalnych. Standardowe
Bardziej szczegółowoNie istnieje ogólna recepta, każdy przypadek musi być rozważany indywidualnie!
Preprocesing Postprocesing 2013-06-12 Kwestia wyboru struktury modelu neuronowego Nie istnieje ogólna recepta, każdy przypadek musi być rozważany indywidualnie! Schematyczne przedstawienie etapów przetwarzania
Bardziej szczegółowoWprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu
Wprowadzene do Sec Neuronowych Algorytm wstecznej propagacj błędu Maja Czoków, Jarosław Persa --6 Powtórzene. Perceptron sgmodalny Funkcja sgmodalna: σ(x) = + exp( c (x p)) Parametr c odpowada za nachylene
Bardziej szczegółowoSystemy Ochrony Powietrza Ćwiczenia Laboratoryjne
ś POLITECHNIKA POZNAŃSKA INSTYTUT INŻYNIERII ŚRODOWISKA PROWADZĄCY: mgr nż. Łukasz Amanowcz Systemy Ochrony Powetrza Ćwczena Laboratoryjne 2 TEMAT ĆWICZENIA: Oznaczane lczbowego rozkładu lnowych projekcyjnych
Bardziej szczegółowoWykład 2: Uczenie nadzorowane sieci neuronowych - I
Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za
Bardziej szczegółowoW praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np.
Wykład 7 Uwaga: W praktyce często zdarza sę, że wynk obu prób możemy traktować jako wynk pomarów na tym samym elemence populacj np. wynk x przed wynk y po operacj dla tego samego osobnka. Należy wówczas
Bardziej szczegółowoAnaliza rodzajów skutków i krytyczności uszkodzeń FMECA/FMEA według MIL STD - 1629A
Analza rodzajów skutków krytycznośc uszkodzeń FMECA/FMEA według MIL STD - 629A Celem analzy krytycznośc jest szeregowane potencjalnych rodzajów uszkodzeń zdentyfkowanych zgodne z zasadam FMEA na podstawe
Bardziej szczegółowoNatalia Nehrebecka. Zajęcia 4
St ł Cchock Stansław C h k Natala Nehrebecka Zajęca 4 1. Interpretacja parametrów przy zmennych zerojedynkowych Zmenne 0 1 Interpretacja przy zmennej 0 1 w modelu lnowym względem zmennych objaśnających
Bardziej szczegółowoXXX OLIMPIADA FIZYCZNA ETAP III Zadanie doświadczalne
XXX OLIMPIADA FIZYCZNA ETAP III Zadane dośwadczalne ZADANIE D Nazwa zadana: Maszyna analogowa. Dane są:. doda półprzewodnkowa (krzemowa) 2. opornk dekadowy (- 5 Ω ), 3. woltomerz cyfrowy, 4. źródło napęca
Bardziej szczegółowoDiagnostyka układów kombinacyjnych
Dagnostyka układów kombnacyjnych 1. Wprowadzene Dagnostyka obejmuje: stwerdzene stanu układu, systemu lub ogólne sec logcznej. Jest to tzw. kontrola stanu wykrywająca czy dzałane sec ne jest zakłócane
Bardziej szczegółowoNatalia Nehrebecka. Zajęcia 3
St ł Cchock Stansław C h k Natala Nehrebecka Zajęca 3 1. Dobroć dopasowana równana regresj. Współczynnk determnacj R Dk Dekompozycja warancj zmennej zależnej ż Współczynnk determnacj R. Zmenne cągłe a
Bardziej szczegółowoZapis informacji, systemy pozycyjne 1. Literatura Jerzy Grębosz, Symfonia C++ standard. Harvey M. Deitl, Paul J. Deitl, Arkana C++. Programowanie.
Zaps nformacj, systemy pozycyjne 1 Lteratura Jerzy Grębosz, Symfona C++ standard. Harvey M. Detl, Paul J. Detl, Arkana C++. Programowane. Zaps nformacj w komputerach Wszystke elementy danych przetwarzane
Bardziej szczegółowoStanisław Cichocki. Natalia Nehrebecka. Wykład 6
Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Zastosowane modelu potęgowego Model potęgowy Przekształcene Boxa-Coxa 2. Zmenne cągłe za zmenne dyskretne 3. Interpretacja parametrów przy zmennych dyskretnych
Bardziej szczegółowoNieeuklidesowe sieci neuronowe
Unwersytet Mkoaja Kopernka Wydza Fzyk, Astronom Informatyk Stosowanej IS Helena Jurkewcz numer albumu: 177622 Praca magsterska na kerunku Fzyka Komputerowa Neeukldesowe sec neuronowe Opekun pracy dyplomowej
Bardziej szczegółowoMETODA UNITARYZACJI ZEROWANEJ Porównanie obiektów przy ocenie wielokryterialnej. Ranking obiektów.
Opracowane: Dorota Mszczyńska METODA UNITARYZACJI ZEROWANEJ Porównane obektów przy ocene welokryteralnej. Rankng obektów. Porównane wybranych obektów (warantów decyzyjnych) ze względu na różne cechy (krytera)
Bardziej szczegółowoZmodyfikowana technika programowania dynamicznego
Zmodyfkowana technka programowana dynamcznego Lech Madeysk 1, Zygmunt Mazur 2 Poltechnka Wrocławska, Wydzał Informatyk Zarządzana, Wydzałowy Zakład Informatyk Wybrzeże Wyspańskego 27, 50-370 Wrocław Streszczene.
Bardziej szczegółowoWprowadzenie do Sieci Neuronowych Sieci rekurencyjne
Wprowadzene do Sec Neuronowych Sec rekurencyjne M. Czoków, J. Persa 2010-12-07 1 Powtórzene Konstrukcja autoasocjatora Hopfelda 1.1 Konstrukcja Danych jest m obrazów wzorcowych ξ 1..ξ m, gdze każdy pojedynczy
Bardziej szczegółowoWikiWS For Business Sharks
WkWS For Busness Sharks Ops zadana konkursowego Zadane Opracowane algorytmu automatyczne przetwarzającego zdjęce odręczne narysowanego dagramu na tablcy lub kartce do postac wektorowej zapsanej w formace
Bardziej szczegółowoSZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 15. ALGORYTMY GENETYCZNE Częstochowa 014 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska TERMINOLOGIA allele wartośc, waranty genów, chromosom - (naczej
Bardziej szczegółowoNatalia Nehrebecka. Wykład 2
Natala Nehrebecka Wykład . Model lnowy Postad modelu lnowego Zaps macerzowy modelu lnowego. Estymacja modelu Wartośd teoretyczna (dopasowana) Reszty 3. MNK przypadek jednej zmennej . Model lnowy Postad
Bardziej szczegółowoNeuron liniowy. Najprostsza sieć warstwa elementów liniowych
Najprostsza jest jednostka lnowa: Neuron lnowy potraf ona rozpoznawać wektor wejścowy X = (x 1, x 2,..., x n ) T zapamętany we współczynnkach wagowych W = (w 1, w 2,..., w n ), Zauważmy, że y = W X Załóżmy,
Bardziej szczegółowoWykład 2: Uczenie nadzorowane sieci neuronowych - I
Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za
Bardziej szczegółowoWeryfikacja hipotez dla wielu populacji
Weryfkacja hpotez dla welu populacj Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Intelgencj Metod Matematycznych Wydzał Informatyk Poltechnk Szczecńskej 5. Parametryczne testy stotnośc w
Bardziej szczegółowoMODEL PROGNOZUJĄCY EKOEFEKTYWNOŚĆ TECHNOLOGII ZRÓWNOWAŻONEGO ROZWOJU W OPARCIU O SIECI NEURONOWE
ZADANIA 3.4., 3.5. 3.6 OPRACOWANIE, TESTOWANIE I WERYFIKACJA ALGORYTMU MODELU OCENY EKOEFEKTYWNOŚCI TECHNOLOGII MODEL PROGNOZUJĄCY EKOEFEKTYWNOŚĆ TECHNOLOGII ZRÓWNOWAŻONEGO ROZWOJU W OPARCIU O SIECI NEURONOWE
Bardziej szczegółowoSYSTEMY UCZĄCE SIĘ WYKŁAD 7. KLASYFIKATORY BAYESA. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.
SYSTEMY UCZĄCE SIĘ WYKŁAD 7. KLASYFIKATORY BAYESA Częstochowa 4 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska TWIERDZENIE BAYESA Wedza pozyskwana przez metody probablstyczne ma
Bardziej szczegółowoBADANIA OPERACYJNE. Podejmowanie decyzji w warunkach niepewności. dr Adam Sojda
BADANIA OPERACYJNE Podejmowane decyzj w warunkach nepewnośc dr Adam Sojda Teora podejmowana decyzj gry z naturą Wynk dzałana zależy ne tylko od tego, jaką podejmujemy decyzję, ale równeż od tego, jak wystąp
Bardziej szczegółowoKształtowanie się firm informatycznych jako nowych elementów struktury przestrzennej przemysłu
PRACE KOMISJI GEOGRAFII PRZEMY SŁU Nr 7 WARSZAWA KRAKÓW 2004 Akadema Pedagogczna, Kraków Kształtowane sę frm nformatycznych jako nowych elementów struktury przestrzennej przemysłu Postępujący proces rozwoju
Bardziej szczegółowoLaboratorium ochrony danych
Laboratorum ochrony danych Ćwczene nr Temat ćwczena: Cała skończone rozszerzone Cel dydaktyczny: Opanowane programowej metody konstruowana cał skończonych rozszerzonych GF(pm), poznane ch własnośc oraz
Bardziej szczegółowoSYSTEMY UCZĄCE SIĘ WYKŁAD 15. ANALIZA DANYCH WYKRYWANIE OBSERWACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska
SYSTEMY UCZĄCE SIĘ WYKŁAD 15. ANALIZA DANYCH WYKRYWANIE OBSERWACJI ODSTAJĄCYCH, UZUPEŁNIANIE BRAKUJĄCYCH DANYCH Częstochowa 2014 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska WYKRYWANIE
Bardziej szczegółowoĆwiczenie 10. Metody eksploracji danych
Ćwczene 10. Metody eksploracj danych Grupowane (Clusterng) 1. Zadane grupowana Grupowane (ang. clusterng) oznacza grupowane rekordów, obserwacj lub przypadków w klasy podobnych obektów. Grupa (ang. cluster)
Bardziej szczegółowoPattern Classification
attern Classfcaton All materals n these sldes were taken from attern Classfcaton nd ed by R. O. Duda,. E. Hart and D. G. Stork, John Wley & Sons, 000 wth the permsson of the authors and the publsher Chapter
Bardziej szczegółowoKRZYWA BÉZIERA TWORZENIE I WIZUALIZACJA KRZYWYCH PARAMETRYCZNYCH NA PRZYKŁADZIE KRZYWEJ BÉZIERA
KRZYWA BÉZIERA TWORZENIE I WIZUALIZACJA KRZYWYCH PARAMETRYCZNYCH NA PRZYKŁADZIE KRZYWEJ BÉZIERA Krzysztof Serżęga Wyższa Szkoła Informatyk Zarządzana w Rzeszowe Streszczene Artykuł porusza temat zwązany
Bardziej szczegółowo65120/ / / /200
. W celu zbadana zależnośc pomędzy płcą klentów ch preferencjam, wylosowano kobet mężczyzn zadano m pytane: uważasz za lepszy produkt frmy A czy B? Wynk były następujące: Odpowedź Kobety Mężczyźn Wolę
Bardziej szczegółowoZestaw zadań 4: Przestrzenie wektorowe i podprzestrzenie. Liniowa niezależność. Sumy i sumy proste podprzestrzeni.
Zestaw zadań : Przestrzene wektorowe podprzestrzene. Lnowa nezależność. Sumy sumy proste podprzestrzen. () Wykazać, że V = C ze zwykłym dodawanem jako dodawanem wektorów operacją mnożena przez skalar :
Bardziej szczegółowoSztuczne sieci neuronowe
Sztuczne sec neuronowe Jerzy Stefanowsk Plan wykładu 1. Wprowadzene 2. Model sztucznego neuronu. 3. Topologe sec neuronowych 4. Reguły uczena sec neuronowych. 5. Klasyfkaca sec neuronowych. 6. Sec warstwowe
Bardziej szczegółowoPODSTAWA WYMIARU ORAZ WYSOKOŚĆ EMERYTURY USTALANEJ NA DOTYCHCZASOWYCH ZASADACH
PODSTAWA WYMIARU ORAZ WYSOKOŚĆ EMERYTURY USTALANEJ NA DOTYCHCZASOWYCH ZASADACH Z a k ł a d U b e z p e c z e ń S p o ł e c z n y c h Wprowadzene Nnejsza ulotka adresowana jest zarówno do osób dopero ubegających
Bardziej szczegółowoSieci Neuronowe 2 Michał Bereta
Zagadnena Sztucznej Intelgencj laboratorum Sec Neuronowe 2 Mchał Bereta Cele laboratorum: zapoznane sę z nowym rodzajam sec neuronowych: secam Kohonena oraz secam radalnym porównane sec Kohonena oraz sec
Bardziej szczegółowoMinimalizacja globalna. Algorytmy genetyczne i ewolucyjne.
Mnmalzacja globalna Algorytmy genetyczne ewolucyjne. Lnearyzacja nelnowego operatora g prowadz do przyblżonych metod rozwązywana zagadnena odwrotnego. Wynk takej nwersj jest slne uzależnony od wyboru modelu
Bardziej szczegółowody dx stąd w przybliżeniu: y
Przykłady do funkcj nelnowych funkcj Törnqusta Proszę sprawdzć uzasadnć, które z podanych zdań są prawdzwe, a które fałszywe: Przykład 1. Mesęczne wydatk na warzywa (y, w jednostkach penężnych, jp) w zależnośc
Bardziej szczegółowoProblem plecakowy (KNAPSACK PROBLEM).
Problem plecakowy (KNAPSACK PROBLEM). Zagadnene optymalzac zwane problemem plecakowym swą nazwę wzęło z analog do sytuac praktyczne podobne do problemu pakowana plecaka. Chodz o to, by zapakować maksymalne
Bardziej szczegółowoI. Elementy analizy matematycznej
WSTAWKA MATEMATYCZNA I. Elementy analzy matematycznej Pochodna funkcj f(x) Pochodna funkcj podaje nam prędkość zman funkcj: df f (x + x) f (x) f '(x) = = lm x 0 (1) dx x Pochodna funkcj podaje nam zarazem
Bardziej szczegółowoProste modele ze złożonym zachowaniem czyli o chaosie
Proste modele ze złożonym zachowanem czyl o chaose 29 kwetna 2014 Komputer jest narzędzem coraz częścej stosowanym przez naukowców do ukazywana skrzętne ukrywanych przez naturę tajemnc. Symulacja, obok
Bardziej szczegółowoProblemy jednoczesnego testowania wielu hipotez statystycznych i ich zastosowania w analizie mikromacierzy DNA
Problemy jednoczesnego testowana welu hpotez statystycznych ch zastosowana w analze mkromacerzy DNA Konrad Furmańczyk Katedra Zastosowań Matematyk SGGW Plan referatu Testowane w analze mkromacerzy DNA
Bardziej szczegółowoProcedura normalizacji
Metody Badań w Geograf Społeczno Ekonomcznej Procedura normalzacj Budowane macerzy danych geografcznych mgr Marcn Semczuk Zakład Przedsęborczośc Gospodark Przestrzennej Instytut Geograf Unwersytet Pedagogczny
Bardziej szczegółowoRozkład dwupunktowy. Rozkład dwupunktowy. Rozkład dwupunktowy x i p i 0 1-p 1 p suma 1
Rozkład dwupunktowy Zmenna losowa przyjmuje tylko dwe wartośc: wartość 1 z prawdopodobeństwem p wartość 0 z prawdopodobeństwem 1- p x p 0 1-p 1 p suma 1 Rozkład dwupunktowy Funkcja rozkładu prawdopodobeństwa
Bardziej szczegółowoProces narodzin i śmierci
Proces narodzn śmerc Jeżel w ewnej oulacj nowe osobnk ojawają sę w sosób losowy, rzy czym gęstość zdarzeń na jednostkę czasu jest stała w czase wynos λ, oraz lczba osobnków n, które ojawły sę od chwl do
Bardziej szczegółowoMinimalizacja globalna, algorytmy genetyczne i zastosowanie w geotechnice
Mnmalzacja globalna, algorytmy genetyczne zastosowane w geotechnce Metoda sejsmczna Metoda geoelektryczna Podstawowy podzał ZAGADNIENIE PROSTE (ang. forward problem) model + parametry modelu dane (ośrodek,
Bardziej szczegółowoKURS STATYSTYKA. Lekcja 1 Statystyka opisowa ZADANIE DOMOWE. www.etrapez.pl Strona 1
KURS STATYSTYKA Lekcja 1 Statystyka opsowa ZADANIE DOMOWE www.etrapez.pl Strona 1 Część 1: TEST Zaznacz poprawną odpowedź (tylko jedna jest prawdzwa). Pytane 1 W statystyce opsowej mamy pełne nformacje
Bardziej szczegółowo) będą niezależnymi zmiennymi losowymi o tym samym rozkładzie normalnym z następującymi parametrami: nieznaną wartością 1 4
Zadane. Nech ( X, Y ),( X, Y ), K,( X, Y n n ) będą nezależnym zmennym losowym o tym samym rozkładze normalnym z następującym parametram: neznaną wartoścą oczekwaną EX = EY = m, warancją VarX = VarY =
Bardziej szczegółowo( ) ( ) 2. Zadanie 1. są niezależnymi zmiennymi losowymi o. oraz. rozkładach normalnych, przy czym EX. i σ są nieznane. 1 Niech X
Prawdopodobeństwo statystyka.. r. Zadane. Zakładamy, że,,,,, 5 są nezależnym zmennym losowym o rozkładach normalnych, przy czym E = μ Var = σ dla =,,, oraz E = μ Var = 3σ dla =,, 5. Parametry μ, μ σ są
Bardziej szczegółowoKodowanie informacji. Instytut Informatyki UWr Studia wieczorowe. Wykład nr 2: rozszerzone i dynamiczne Huffmana
Kodowane nformacj Instytut Informatyk UWr Studa weczorowe Wykład nr 2: rozszerzone dynamczne Huffmana Kod Huffmana - nemłe przypadk... Nech alfabet składa sę z 2 lter: P(a)=1/16 P(b)=15/16 Mamy H(1/16,
Bardziej szczegółowoPokazać, że wyżej zdefiniowana struktura algebraiczna jest przestrzenią wektorową nad ciałem
Zestaw zadań : Przestrzene wektorowe. () Wykazać, że V = C ze zwykłym dodawanem jako dodawanem wektorów operacją mnożena przez skalar : C C C, (z, v) z v := z v jest przestrzeną lnową nad całem lczb zespolonych
Bardziej szczegółowoStanisław Cichocki. Natalia Nehrebecka. Wykład 7
Stansław Cchock Natala Nehrebecka Wykład 7 . Zmenne dyskretne Kontrasty: efekty progowe, kontrasty w odchylenach Interakcje. Przyblżane model nelnowych Stosowane do zmennych dyskretnych o uporządkowanych
Bardziej szczegółowo± Δ. Podstawowe pojęcia procesu pomiarowego. x rzeczywiste. Określenie jakości poznania rzeczywistości
Podstawowe pojęca procesu pomarowego kreślene jakośc poznana rzeczywstośc Δ zmerzone rzeczywste 17 9 Zalety stosowana elektrycznych przyrządów 1/ 1. możlwość budowy czujnków zamenających werne każdą welkość
Bardziej szczegółowoSystem Przeciwdziałania Powstawaniu Bezrobocia na Terenach Słabo Zurbanizowanych SPRAWOZDANIE Z BADAŃ Autor: Joanna Wójcik
Opracowane w ramach projektu System Przecwdzałana Powstawanu Bezroboca na Terenach Słabo Zurbanzowanych ze środków Europejskego Funduszu Społecznego w ramach Incjatywy Wspólnotowej EQUAL PARTNERSTWO NA
Bardziej szczegółowo5. CHARAKTERYSTYKI CZĘSTOTLIWOŚCIOWE
5. CHARAKTERYSTYKI CZĘSTOTLIWOŚCIOWE Oprócz transmtancj operatorowej, do opsu członów układów automatyk stosuje sę tzw. transmtancję wdmową. Transmtancję wdmową G(j wyznaczyć moŝna dzęk podstawenu do wzoru
Bardziej szczegółowoMinister Edukacji Narodowej Pani Katarzyna HALL Ministerstwo Edukacji Narodowej al. J. Ch. Szucha 25 00-918 Warszawa Dnia 03 czerwca 2009 r.
Mnster Edukacj arodowej Pan Katarzyna HALL Mnsterstwo Edukacj arodowej al. J. Ch. Szucha 25 00-918 arszawa Dna 03 czerwca 2009 r. TEMAT: Propozycja zmany art. 30a ustawy Karta auczycela w forme lstu otwartego
Bardziej szczegółowoBadania sondażowe. Braki danych Konstrukcja wag. Agnieszka Zięba. Zakład Badań Marketingowych Instytut Statystyki i Demografii Szkoła Główna Handlowa
Badana sondażowe Brak danych Konstrukcja wag Agneszka Zęba Zakład Badań Marketngowych Instytut Statystyk Demograf Szkoła Główna Handlowa 1 Błędy braku odpowedz Całkowty brak odpowedz (UNIT nonresponse)
Bardziej szczegółowoNieparametryczne Testy Istotności
Neparametryczne Testy Istotnośc Wzory Neparametryczne testy stotnośc schemat postępowana punkt po punkce Formułujemy hpotezę główną odnoszącą sę do: zgodnośc populacj generalnej z jakmś rozkładem, lub:
Bardziej szczegółowoD Archiwum Prac Dyplomowych - Instrukcja dla studentów
Kraków 01.10.2015 D Archwum Prac Dyplomowych - Instrukcja dla studentów Procedura Archwzacj Prac Dyplomowych jest realzowana zgodne z zarządzenem nr 71/2015 Rektora Unwersytetu Rolnczego m. H. Kołłątaja
Bardziej szczegółowoPortfele zawierające walor pozbawiony ryzyka. Elementy teorii rynku kapitałowego
Portel nwestycyjny ćwczena Na podst. Wtold Jurek: Konstrukcja analza rozdzał 5 dr chał Konopczyńsk Portele zawerające walor pozbawony ryzyka. lementy teor rynku kaptałowego 1. Pożyczane penędzy amy dwa
Bardziej szczegółowoOGÓLNE PODSTAWY SPEKTROSKOPII
WYKŁAD 8 OGÓLNE PODSTAWY SPEKTROSKOPII E E0 sn( ωt kx) ; k π ; ω πν ; λ T ν E (m c 4 p c ) / E +, dla fotonu m 0 p c p hk Rozkład energ w stane równowag: ROZKŁAD BOLTZMANA!!!!! P(E) e E / kt N E N E/
Bardziej szczegółowoMikroekonometria 5. Mikołaj Czajkowski Wiktor Budziński
Mkroekonometra 5 Mkołaj Czajkowsk Wktor Budzńsk Uogólnone modele lnowe Uogólnone modele lnowe (ang. Generalzed Lnear Models GLM) Różną sę od standardowego MNK na dwa sposoby: Rozkład zmennej objaśnanej
Bardziej szczegółowoStruktura testu matematycznego OBUT 2012 z zasadami punktowania zadań
Struktura testu matematycznego OBUT 2012 z zasadam punktowana Nr zadana 1a 1b 1c Obszar badanych umejętnośc Podobszar badanych umejętnośc Co bada zadane lczb trzycyfrowych; lczb w sytuacj typowej lczb
Bardziej szczegółowoModelowanie i obliczenia techniczne. Metody numeryczne w modelowaniu: Optymalizacja
Modelowane oblczena technczne Metody numeryczne w modelowanu: Optymalzacja Zadane optymalzacj Optymalzacja to ulepszane lub poprawa jakośc danego rozwązana, projektu, opracowana. Celem optymalzacj jest
Bardziej szczegółowoKwantowa natura promieniowania elektromagnetycznego
Efekt Comptona. Kwantowa natura promenowana elektromagnetycznego Zadane 1. Foton jest rozpraszany na swobodnym elektrone. Wyznaczyć zmanę długośc fal fotonu w wynku rozproszena. Poneważ układ foton swobodny
Bardziej szczegółowoDobór zmiennych objaśniających
Dobór zmennych objaśnających Metoda grafowa: Należy tak rozpąć graf na werzchołkach opsujących poszczególne zmenne, aby występowały w nm wyłączne łuk symbolzujące stotne korelacje pomędzy zmennym opsującym.
Bardziej szczegółowoZa: Stanisław Latoś, Niwelacja trygonometryczna, [w:] Ćwiczenia z geodezji II [red.] J. Beluch
Za: Stansław Latoś, Nwelacja trygonometryczna, [w:] Ćwczena z geodezj II [red.] J. eluch 6.1. Ogólne zasady nwelacj trygonometrycznej. Wprowadzene Nwelacja trygonometryczna, zwana równeż trygonometrycznym
Bardziej szczegółowo0 0,2 0, p 0,1 0,2 0,5 0, p 0,3 0,1 0,2 0,4
Zad. 1. Dana jest unkcja prawdopodobeństwa zmennej losowej X -5-1 3 8 p 1 1 c 1 Wyznaczyć: a. stałą c b. wykres unkcj prawdopodobeństwa jej hstogram c. dystrybuantę jej wykres d. prawdopodobeństwa: P (
Bardziej szczegółowoWarszawa, 28 stycznia 2017 r., Blok tematyczny II Sztuczne sieci neuronowe (środowisko MATLAB i Simulink z wykorzystaniem Neural Network Toolbox),
Studa Doktorancke IBS PA nt. Technk nformacyjne teora zastosowana WYKŁAD Semnarum nt. Modelowane rozwoju systemów w środowsku MATLABA Smulnka Prof. nadzw. dr hab. nż. Jerzy Tchórzewsk, jtchorzewsk@ntera.pl;
Bardziej szczegółowoSIECI RBF (RADIAL BASIS FUNCTIONS)
SIECI RBF (RADIAL BASIS FUNCTIONS) Wybrane slajdy z prezentacji prof. Tadeusiewicza Wykład Andrzeja Burdy S. Osowski, Sieci Neuronowe w ujęciu algorytmicznym, Rozdz. 5, PWNT, Warszawa 1996. opr. P.Lula,
Bardziej szczegółowoAlgorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa
Bardziej szczegółowoWstęp do metod numerycznych Faktoryzacja SVD Metody iteracyjne. P. F. Góra
Wstęp do metod numerycznych Faktoryzacja SVD Metody teracyjne P. F. Góra http://th-www.f.uj.edu.pl/zfs/gora/ 2013 Sngular Value Decomposton Twerdzene 1. Dla każdej macerzy A R M N, M N, stneje rozkład
Bardziej szczegółowoSZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 18. ALGORYTMY EWOLUCYJNE - ZASTOSOWANIA Częstochowa 2014 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska ZADANIE ZAŁADUNKU Zadane załadunku plecakowe
Bardziej szczegółowoStatystyka Inżynierska
Statystyka Inżynerska dr hab. nż. Jacek Tarasuk AGH, WFIS 013 Wykład DYSKRETNE I CIĄGŁE ROZKŁADY JEDNOWYMIAROWE Zmenna losowa, Funkcja rozkładu, Funkcja gęstośc, Dystrybuanta, Charakterystyk zmennej, Funkcje
Bardziej szczegółowoMikroekonometria 13. Mikołaj Czajkowski Wiktor Budziński
Mkroekonometra 13 Mkołaj Czajkowsk Wktor Budzńsk Symulacje Analogczne jak w przypadku cągłej zmennej zależnej można wykorzystać metody Monte Carlo do analzy różnego rodzaju problemów w modelach gdze zmenna
Bardziej szczegółowo5. OPTYMALIZACJA GRAFOWO-SIECIOWA
. OPTYMALIZACJA GRAFOWO-SIECIOWA Defncja grafu Pod pojęcem grafu G rozumemy następującą dwójkę uporządkowaną (defncja grafu Berge a): (.) G W,U gdze: W zbór werzchołków grafu, U zbór łuków grafu, U W W,
Bardziej szczegółowoBudowa i własności. sztucznych neuronów i sieci
Budowa i własności sztucznych neuronów i sieci Uwaga: Slajdy w tej prezentacji są intensywnie animowane, więc na statycznych kopiach mogą być mało czytelne (elementy pokazywane podczas animacji sekwencyjnie
Bardziej szczegółowoZjawiska masowe takie, które mogą wystąpid nieograniczoną ilośd razy. Wyrazów Obcych)
Statystyka - nauka zajmująca sę metodam badana przedmotów zjawsk w ch masowych przejawach ch loścową lub jakoścową analzą z punktu wdzena nauk, do której zakresu należą.
Bardziej szczegółowoNtli Natalia Nehrebecka. Dariusz Szymański. Zajęcia 4
Ntl Natala Nehrebecka Darusz Szymańsk Zajęca 4 1 1. Zmenne dyskretne 3. Modele z nterakcjam 2. Przyblżane model dlnelnowych 2 Zmenne dyskretne Zmenne nomnalne Zmenne uporządkowane 3 Neco bardzej skomplkowana
Bardziej szczegółowoZadanie na wykonanie Projektu Zespołowego
Zadane na wykonane Projektu Zespołowego Celem projektu jest uzyskane następującego szeregu umejętnośc praktycznych: umejętnośc opracowana równoległych wersj algorytmów (na przykładze algorytmów algebry
Bardziej szczegółowoStanisław Cichocki. Natalia Nehrebecka. Wykład 7
Stansław Cchock Natala Nehrebecka Wykład 7 1 1. Interakcje 2. Przyblżane model nelnowych 3. Założena KMRL 1. Interakcje 2. Przyblżane model nelnowych 3. Założena KMRL W standardowym modelu lnowym zakładamy,
Bardziej szczegółowo