Plan wykładu. Sztuczne sieci neuronowe. Problem dwuklasowy (N=1) Problem klasyfikacji. Wykład 6: Ocena jakoci sieci neuronowej Sieci RBF KLASYFIKATOR
|
|
- Grażyna Sawicka
- 7 lat temu
- Przeglądów:
Transkrypt
1 Plan wykładu Wykład 6: Ocena jakoc sec neuronowej Sec RBF Małgorzata Krtowska Katedra Orogramowana e-mal: Metody oceny jakoc sec neuronowych roblem klasyfkacj metody szacowana jakoc klasyfkacj ocena jakoc klasyfkacj Sec o radalnych funkcjach bazowych Wrowadzene do sec RBF Porównane sec welowarstwowych sec RBF Teoretyczne odstawy dzałane sec RBF Problem klasyfkacj Problem dwuklasowy (N=) Przyorzdkowane danego wektora cech do jednej z M klas: K, K,.., K M 0. (/K ) (/K ) {,,..., n } KLASYFIKATOR 0. K c
2 Problem dwuklasowy (N=) Metody oceny jakoc klasyfkacj Zbór uczcy zbór testowy Waldacja krzyowa (ang. crossvaldaton) Metoda leave-one-out (Jackknfe) 5 6 Waldacja krzyowa (k-unktowa) Leave-one-out zbór danych: Przyadek szczególny waldacj krzyowej Jeel zbór uczcy zawera wektorów cech wówczas metoda leave-one-out jest równowana -unktowej waldacj krzyowej losowy odzał zboru danych na k odzborów zbór danych: odzbór testowy W raktyce : k=0 7 8
3 Ocena jakoc klasyfkacj Ocena jakoc klasyfkacj ( klasy) Jako klasyfkacj = Lczba orawne sklasyfkowanych rzyadków / Lczba wszystkch analzowanych rzyadków Klasa => Decyzja K K... K M Klasa (0, ) n. choroba (tak, ne) Tak Ne K n n n M K n n n M... Wynk klasyfkacj Tak Ne True ostve (TP) False negatve (FN) False Postve (FP) True negatve (TN) TP+FP FN+TN K M n M n M n MM TP+FN FP+TN Lczno n n... n M Czy jako klasyfkacj 0,95 jest dobra? 9 0 Ocena jakoc klasyfkacj ( klasy) Ocena jakoc klasyfkacj ( klasy) 0. (/K ) (/K 0 ) Efektywno = TP+TN / TP+FP+FN+TN - frakcja orawne sklasyfkowanych rzyadków TP TN FP FN 0 5 c 0 5 Czuło = TP / TP+FN - frakcja orawne sklasyfkowanych rzyadków choroby Secyfczno = TN / FP+TN - frakcja orawne sklasyfkowanych rzyadków osób zdrowych (ang. accuracy, senstvty, secfcty)
4 Krzywa ROC (ang. Recever Oeratng Characterstcs) Sec o radalnych funkcjach bazowych (RBF; ang. Radal Bass Functons) Krzywa ROC - obrazuje zaleno omdzy czułoc metody a wartoc -secyfczno dla rónych wartoc rogowych Porównane jakoc dwóch metod klasyfkacj => orównane welkoc obszaru od krzyw ROC Sec dwuwarstwowe ( warstwa ukryta) Przeływ nformacj od wejca w kerunku warstwy wyjcowej Brak wymany nformacj mdzy neuronam w jednej warstwe 3 4 Sec welowarstwowe a sec RBF Sec welowarstwowe a sec RBF Sec neuronowe welowarstwowe neurony w warstwach ukrytych sełnały rol sumatorów mulsów dochodzcych do nch z orzednej warstwy rezultat sumowana był nastne rzetwarzany rzez tzw. funkcj aktywacj owodował obudzene neuronu na okrelonym ozome neuron rzekazywał swoj aktywacj - jako bodzec numeryczny do warstwy nastnej lub na wyjce Sec RBF wyznaczene aktywacj, w neuronach warstwy ukrytej, odbywa s na zasadze wyznaczena wartoc tzw. radalnej funkcj bazowej (argumentem jest odległo -c ) Warstwa wyjcowa sumuje aktywacje neuronów warstwy ukrytej (osługujc s swom wagam) Wynk sumowana jest odawany jako wynk dzałana sec Sec welowarstwowe neuron rerezentuje herłaszczyzn moe by wele warstw ukrytych Sec RBF neuron rerezentuje hersfer, dokonujc odzału kołowego wokół unktu centralnego jedna warstwa ukryta => uroszczene uczena sec 5 6
5 Radalne funkcje bazowe Radaln funkcj bazow (tyu RBF) nazywany funkcj ( ) ostac: Przykłady radalnych funkcj bazowych r Funkcja aussa ( r) = e σ (; c) = (r(,c)), gdze r(,c)= -c ={(-c) T (-c)} / oznacza to, e wartoc funkcj - dla danego argumentu - zale tylko od odległoc jej argumentu od centrum c bdcym arametrem tej funkcj. (ojedyncza funkcja radalna jest czasem nazywana jdrem (ang. kernel) a arametr σ szerokoc jdra). 7 8 Przykłady radalnych funkcj bazowych Przykłady radalnych funkcj bazowych α Funkcje otgowe ( r) = ( σ + r ), α > 0 Funkcja sklejana ( r) = ( σr) ln( σr) α=
6 Dzałane sec RBF Teoretyczne odstawy sec RBF (aroksymacja) W secach RBF neurony erwszej warstwy oblczaj - na odstawe odanego na wejce wektora cech, swoje aktywacje jako warto: ()=(, c ); ()=(, c );...; H ()=(,c H ) gdze h - oznacza funkcj radaln oblczon wzgldem centrum c h. Oblczone w ten sosób wartoc,.., H słu jako dane wejcowe dla warstwy wyjcowej, która oblcza z nch waon sum. Przy załoenu jednego neuronu w warstwe wyjcowej otrzymujemy: y()=w 0 +w () +w () w H H () Se RBF dzała na zasadze welowymarowej nterolacj, której zadanem jest odwzorowane rónych wektorów wejcowych (=,,.., ) z N wymarowej rzestrzen wejcowej w zbór lczb rzeczywstych d. Jest to równowane okrelenu funkcj radalnej F(), dla której s sełnone warunk nterolacj: F( ) = d rzy czym funkcja F() okrelona jest wzorem: F( ) = = w ( ) Przy danych centrach c, c,..., c H arametrze σ ozostaj nam tylko do wyznaczena wartoc wag. gdze - wartoc wektorów centra funkcj radalnej. Wybór rodzaju normy moe by dowolny, w raktyce najczcej norma eukldesowa. Teoretyczne odstawy sec RBF Se RBF - odstawy teoretyczne Zakładajc unktów nterolacyjnych mona otrzyma układ równa lnowych: gdze j =( j - ) dotyczy funkcj radalnej w centrum. W ostac macerzowej: Rozwzane: W=d W= - d W d W d = W d Wrowadzone załoene dotyczce stnena neuronów ukrytych rowadz do uzyskana sec o złych własnocach uogólnajcych. Przy duej lczbe danych uczcych równej m lczbe funkcj radalnych se bdze s doasowywała do rónego rodzaju szumów neregularnoc wystujcych w danych. Wrowadzene czynnka regularyzacj (roblem otymalzacj): L( F ) = ( F ( ) d ) + λ PF = gdze λ wsółczynnk regularyzacj, PF - czynnk stablzujcy karzcy za brak gładkoc funkcj F (due czsto owtarzajce s zmany nachyle funkcj aroksymujcej) 3 4
7 Regularyzacja Se RBF - odstawy teoretyczne (klasyfkacja) Twerdzene Covera (965) Złoony roblem klasyfkacyjny zrzutowany nelnowo na rzestrze welowymarow moe by rozdzelony za omoc searatora lnowego z wkszym rawdoodobestwem n rzy rzutowanu na rzestrze o mnejszej lczbe wymarów. Wływ regularyzacj na odwzorowane danych rzy nadwymarowej lczbe funkcj bazowych: a) brak regularyzacj; b) wynk z regularyzacj Udowodnono, e kady zbór wzorców losowo rozmeszczony w rzestrzen welowymarowej jest ϕ-searowalny z rawdoodobestwem równym jeden, od warunkem zastosowana odowedno duego wymaru, na który rzutowana jest ta rzestrze, tj. rzestrze generowana rzez funkcje bazowe ϕ. 5 6 Se RBF - odstawy teoretyczne Se RBF Zatem stneje tak wektor w, e: w T ϕ() 0 dla A w T ϕ() < 0 dla B gdze w T ϕ()=0 rerezentuje granc omdzy klasam. W raktyce oznacza to, e zastosowane dwu warstw sec, jednej zawerajcej funkcje radalne wyjcowej warstwy lnowej zaewna rozwzane roblemu klasyfkacj nelnowej. y m = H = 0 ( ) w m 7 8
8 Rodzaje sec RBF Sec HRBF Sec RBF (ang. eneralzed Radal Bass Functon)- mnejsza lczba wzłów n danych. Sec HRBF (ang. Hyer Radal Bass Functon)- ełna macerz obrotów skalowana Q (wsółczynnk wagowy, ze wzgldu na rón zmenno w kadej os; Q róne dla rónych centrów): Sec RBF Sec HRBF T = ( Q) ( Q) = Q T Q T Q Oznaczajc loczyn macerzy Q T Q jako macerz C otrzymujemy: Q = = j= C W szczególnoc, jeel macerz Q jest dagonalna Q=, wówczas wagowa norma Eukldesowa srowadza s do normy klasycznej: j = = Q = j 9 30 Uczene sec RBF Eta I - wybór centrów funkcj bazowych Uczene sec RBF odbywa s w trybe nadzorowanym. Mona tu wyrón dwa etay: Losowy wybór centrów funkcj bazowych dobór arametrów funkcj bazowych (centra + dysersje) Zastosowane rocesu samoorganzacj Wykorzystane dendrogramów Algorytm robablstyczny (HRBF) dobór wag neuronów warstwy wyjcowej 3 3
9 Losowy wybór centrów funkcj bazowych Zastosowane rocesu samoorganzacj rozwzane najrostsze, wykorzystywane dla klasycznych sec radalnych losowy wybór centrów: w obszarze zmennoc wzorców uczcych losowy wybór centrów soród wzorców uczcych (rosty daje dobre rezultaty) arametr dysersj jest jednakowy dla wszystkch funkcj bazowych jest okrelany jako: d σ = gdze M M - jest lczb wszystkch neuronów warstwe ukrytej; d jest maksymaln odległoc omdzy wybranym centram aussowska funkcja bazowa rzyjmuje osta: ( ) c c = e d K 33 Proces samoorganzacj stosowany do danych uczcych automatyczne dzel rzestrze na obszary Voronoa, rerezentujce oddzelne gruy danych centrum klastra jest utosamane z centrum odowednej funkcj radalnej lczba tych funkcj równa jest lczbe klastrów moe by korygowana rzez algorytm samoorganzacj Proces odzału danych na klastry moe by rzerowadzony rzy uycu jednej z wersj algorytmu k-rednch Proces ncjalzacj centrów: odbywa s najczcej losowo, rzy załoenu rozkładu równomernego w rocese doboru odowednch wektorów ze zboru danych uczcych, jako centrów. 34 Zastosowane rocesu samoorganzacj Zastosowane rocesu samoorganzacj w rzyadku danych uczcych rerezentujcych funkcj cgła: wstne wartoc centrów umeszcza s w unktach odowadajcych wartocom maksymalnym mnmalnym funkcj. Dane odowadajce tym centrom oraz ch najblszemu otoczenu s usuwane ze zboru, a ozostałe centra s lokowane równomerne w obszarze utworzonym rzez dane ozostajce w zborze. o zarezentowanu k-tego wzorca (k) ze zboru uczcego jest wyberane najblsze centrum, które nastne odlega aktualzacj: wsółczynnk uczena η(k) maleje w mar wzrostu k, n. (T - stała l. eok) η( k ) =η0 ( + k T ) kady wektor uczcy jest rezentowany klkunastokrotne, a do ustalena wartoc centrów. c ( k + ) = c ( k) + η( k)[( ( k) c ( k)] 35 Dobór arametru dysersj funkcj radalnych: Aby odwzorowane funkcj realzowane rzez sec radalne było stosunkowo gładke: ola rececyjne wszystkch funkcj radalnych ownny okrywa cały obszar danych wejcowych dwa ola mog okrywa s tylko w neznacznym stonu. Proonowane rozwzana za warto σ j j-tej funkcj radalnej rzyjmuje s odległo eukldesow centrum c j od jego najblszego ssada (tzn. nnego centrum) na warto σ j wływa odległo j-tego centrum od jego P najblszych ssadów (zwykle ne rzekracza trzech): P σ = c c j P k = j k 36
Plan wykładu. Sztuczne sieci neuronowe. Problem dwuklasowy (N=1) Problem klasyfikacji. Wykład 4-5: Ocena jakości sieci neuronowej Sieci RBF
Plan wyładu Wyład 4-5: Ocena jaośc sec neuronowej Sec RBF Małgorzata Krętowsa Wydzał Informaty PB Metody oceny jaośc sec neuronowych roblem lasyfacj metody szacowana jaośc lasyfacj ocena jaośc lasyfacj
Bardziej szczegółowoSztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311
Sztuczne sec neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyk, p. 311 Wykład 6 PLAN: - Repetto (brevs) - Sec neuronowe z radalnym funkcjam bazowym Repetto W aspekce archtektury: zajmowalśmy
Bardziej szczegółowoAnaliza danych OGÓLNY SCHEMAT. http://zajecia.jakubw.pl/ Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja)
Analza danych Dane trenngowe testowe. Algorytm k najblższych sąsadów. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ OGÓLNY SCHEMAT Mamy dany zbór danych podzelony na klasy decyzyjne, oraz
Bardziej szczegółowoProces narodzin i śmierci
Proces narodzn śmerc Jeżel w ewnej oulacj nowe osobnk ojawają sę w sosób losowy, rzy czym gęstość zdarzeń na jednostkę czasu jest stała w czase wynos λ, oraz lczba osobnków n, które ojawły sę od chwl do
Bardziej szczegółowoStatystyczne metody przetwarzania danych
Artfcal Intellgence Krzysztof Ślot, 2008 Statystyczne metody rzetwarzana danych Klasyfkacja mnmalnoodległoścowa Krzysztof Ślot Instytut Informatyk Stosowanej Poltechnka Łódzka Artfcal Intellgence Krzysztof
Bardziej szczegółowoSystem M/M/1/L. λ = H 0 µ 1 λ 0 H 1 µ 2 λ 1 H 2 µ 3 λ 2 µ L+1 λ L H L+1. Jeli załoymy, e λ. i dla i = 1, 2,, L+1 oraz
System M/M// System ten w odrónenu do wczenej omawanych systemów osada kolejk. Jednak jest ona ogranczona, jej maksymalna ojemno jest wartoc skoczon
Bardziej szczegółowoaij - wygrana gracza I bij - wygrana gracza II
M.Mszczsk KBO UŁ, Badana operacjne I (cz.) (wkład B 7) GRY KONFLIKTOWE GRY -OSOBOWE O SUMIE WYPŁT ZERO I. DEFINICJE TWIERDZENI Konflktowe gr dwuosobowe opsuje macerz wpłat ( a ) [ ] mxn j,b j gdze: aj
Bardziej szczegółowoNeural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych.
Neural networks Lecture Notes n Pattern Recognton by W.Dzwnel Krótka hstora McCulloch Ptts (1943) - perwszy matematyczny ops dzalana neuronu przetwarzana przez nego danych. Proste neurony, które mogly
Bardziej szczegółowoLaboratorium ochrony danych
Laboratorum ochrony danych Ćwczene nr Temat ćwczena: Cała skończone rozszerzone Cel dydaktyczny: Opanowane programowej metody konstruowana cał skończonych rozszerzonych GF(pm), poznane ch własnośc oraz
Bardziej szczegółowoSieci Neuronowe 2 Michał Bereta
Zagadnena Sztucznej Intelgencj laboratorum Sec Neuronowe 2 Mchał Bereta Cele laboratorum: zapoznane sę z nowym rodzajam sec neuronowych: secam Kohonena oraz secam radalnym porównane sec Kohonena oraz sec
Bardziej szczegółowoKwantyzacja skalarna. Plan 1. Definicja 2. Kwantyzacja równomierna 3. Niedopasowanie, adaptacja 4. Kwantyzacja nierównomierna
Kwantyzacja salarna Plan. Defncja. Kwantyzacja równomerna 3. Nedopasowane, adaptacja 4. Kwantyzacja nerównomerna Pojce wantyzacj Defncja: Kwantyzacja reprezentacja duego w szczególnoc nesoczonego) zboru
Bardziej szczegółowoUczenie sieci radialnych (RBF)
Uczenie sieci radialnych (RBF) Budowa sieci radialnej Lokalne odwzorowanie przestrzeni wokół neuronu MLP RBF Budowa sieci radialnych Zawsze jedna warstwa ukryta Budowa neuronu Neuron radialny powinien
Bardziej szczegółowoEKONOMIA MENEDŻERSKA. Wykład 3 Funkcje produkcji 1 FUNKCJE PRODUKCJI. ANALIZA KOSZTÓW I KORZYŚCI SKALI. MINIMALIZACJA KOSZTÓW PRODUKCJI.
EONOMIA MENEDŻERSA Wykład 3 Funkcje rodukcj 1 FUNCJE PRODUCJI. ANAIZA OSZTÓW I ORZYŚCI SAI. MINIMAIZACJA OSZTÓW PRODUCJI. 1. FUNCJE PRODUCJI: JEDNO- I WIEOCZYNNIOWE Funkcja rodukcj określa zależność zdolnośc
Bardziej szczegółowo= σ σ. 5. CML Capital Market Line, Rynkowa Linia Kapitału
5 CML Catal Market Lne, ynkowa Lna Katału Zbór ortolo o nalny odchylenu standardowy zbór eektywny ozważy ortolo złożone ze wszystkch aktywów stnejących na rynku Załóży, że jest ch N A * P H P Q P 3 * B
Bardziej szczegółowoNeuron liniowy. Najprostsza sieć warstwa elementów liniowych
Najprostsza jest jednostka lnowa: Neuron lnowy potraf ona rozpoznawać wektor wejścowy X = (x 1, x 2,..., x n ) T zapamętany we współczynnkach wagowych W = (w 1, w 2,..., w n ), Zauważmy, że y = W X Załóżmy,
Bardziej szczegółowoZASTOSOWANIE PROGRAMOWANIA DYNAMICZNEGO DO OPRACOWANIA STRATEGII REDUKCJI EMISJI GAZÓW
ZASTOSOWANIE PROGRAOWANIA DYNAICZNEGO DO OPRACOWANIA STRATEGII REDUKCJI EISJI GAZÓW ANDRZEJ KAŁUSZKO Instytut Bada Systemowych Streszczene W pracy opsano zadane efektywnego przydzału ogranczonych rodków
Bardziej szczegółowoMETODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING
METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING Maszyna Wektorów Nośnych Suort Vector Machine SVM Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki
Bardziej szczegółowoOcena dokładności diagnozy
Ocena dokładności diagnozy Diagnoza medyczna, w wielu przypadkach może być interpretowana jako działanie polegające na podjęciu jednej z dwóch decyzji odnośnie stanu zdrowotnego pacjenta: 0 pacjent zdrowy
Bardziej szczegółowoSztuczne Sieci Neuronowe
Sztuczne Sieci Neuronowe Wykład 7 Sieci neuronowe o radialnych funkcjach bazowych wykład przygotowany na podstawie. S. Osowski, Sieci Neuronowe w ujęciu algorytmicznym, Rozdz. 5, PWNT, Warszawa 1996. 26/11/08
Bardziej szczegółowoWykład 2: Uczenie nadzorowane sieci neuronowych - I
Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za
Bardziej szczegółowoWykład 2: Uczenie nadzorowane sieci neuronowych - I
Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za
Bardziej szczegółowoAlgorytm do rozpoznawania człowieka na podstawie dynamiki użycia klawiatury. Paweł Kobojek, prof. dr hab. inż. Khalid Saeed
Algorytm do rozpoznawania człowieka na podstawie dynamiki użycia klawiatury Paweł Kobojek, prof. dr hab. inż. Khalid Saeed Zakres pracy Przegląd stanu wiedzy w dziedzinie biometrii, ze szczególnym naciskiem
Bardziej szczegółowoSYSTEMY UCZĄCE SIĘ WYKŁAD 7. KLASYFIKATORY BAYESA. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.
SYSTEMY UCZĄCE SIĘ WYKŁAD 7. KLASYFIKATORY BAYESA Częstochowa 4 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska TWIERDZENIE BAYESA Wedza pozyskwana przez metody probablstyczne ma
Bardziej szczegółowoKRYTERIA WYBORU ARCHITEKTURY SIECI NEURONOWYCH - FINANSOWE CZY BŁ DU PROGNOZY
KRYTERIA WYBORU ARCHITEKTURY SIECI NEURONOWYCH - FINANSOWE CZY BŁDU PROGNOZY HENRYK MARJAK Zachodnopomorsk Unwersytet Technologczny w Szczecne Streszczene Klasyczne podejce do zastosowana sec neuronowych
Bardziej szczegółowoProjekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE
Inormatyka Podstawy Programowana 06/07 Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE 6. Równana algebraczne. Poszukujemy rozwązana, czyl chcemy określć perwastk rzeczywste równana:
Bardziej szczegółowoSztuczne sieci neuronowe
Sztuczne sec neuronowe Jerzy Stefanowsk Plan wykładu 1. Wprowadzene 2. Model sztucznego neuronu. 3. Topologe sec neuronowych 4. Reguły uczena sec neuronowych. 5. Klasyfkaca sec neuronowych. 6. Sec warstwowe
Bardziej szczegółowoLABORATORIUM METROLOGII TECHNIKA POMIARÓW (M-1)
LABORATORIUM METROLOGII TECHNIKA POMIARÓW (M-) wwwmuepolslpl/~wwwzmape Opracował: Dr n Jan Około-Kułak Sprawdzł: Dr hab n Janusz Kotowcz Zatwerdzł: Dr hab n Janusz Kotowcz Cel wczena Celem wczena jest
Bardziej szczegółowoAnaliza nośności pionowej pojedynczego pala
Poradnik Inżyniera Nr 13 Aktualizacja: 09/2016 Analiza nośności ionowej ojedynczego ala Program: Plik owiązany: Pal Demo_manual_13.gi Celem niniejszego rzewodnika jest rzedstawienie wykorzystania rogramu
Bardziej szczegółowoKlasyfkator lnowy Wstęp Klasyfkator lnowy jest najprostszym możlwym klasyfkatorem. Zakłada on lnową separację lnowy podzał dwóch klas mędzy sobą. Przedstawa to ponższy rysunek: 5 4 3 1 0-1 - -3-4 -5-5
Bardziej szczegółowoWYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania
WYKŁAD 4 Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania PLAN WYKŁADU Metody uczenia sieci: Uczenie perceptronu Propagacja wsteczna Zastosowania Sterowanie (powtórzenie) Kompresja obrazu Rozpoznawanie
Bardziej szczegółowoDiagonalizacja macierzy kwadratowej
Dagonalzacja macerzy kwadratowej Dana jest macerz A nân. Jej wartośc własne wektory własne spełnają równane Ax x dla,..., n Każde z równań własnych osobno można zapsać w postac: a a an x x a a an x x an
Bardziej szczegółowo9. Praktyczna ocena jakości klasyfikacji
Algorytmy rozpoznawania obrazów 9. Praktyczna ocena jakości klasyfikacji dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Zbiór uczacy i zbiór testowy 1. Zbiór uczacy służy do konstrukcji (treningu)
Bardziej szczegółowoZasada Jourdina i zasada Gaussa
Zasada Jourdna zasada Gaussa Orócz zasady d Alemberta w mechance analtyczne stosue sę nne zasady waracyne. Są to: zasada Jourdana zasada Gaussa. Wyrowadzene tych zasad oarte est na oęcu rędkośc rzygotowane
Bardziej szczegółowoNowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba
Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 1 Ćwczene 2: Perceptron WYMAGANIA 1. Sztuczne sec neuronowe budowa oraz ops matematyczny perceptronu (funkcje przejśca perceptronu), uczene perceptronu
Bardziej szczegółowoPlan wykładu. Sztuczne sieci neuronowe. Uczenie nienadzorowane (bez nauczyciela) Uczenie nienadzorowane - przykłady
Plan yładu Wyład 10: Sec samoorganzuce s na zasadze spółzaodncta Sec samoorganzuace s na zasadze spółzaodncta: uczene nenadzoroane uczene onurencyne reguła WTA reguła WTM antoane etoroe mapa cech Kohonena
Bardziej szczegółowoSieci Neuronowe 1 Michał Bereta
Wprowadzene Zagadnena Sztucznej Intelgencj laboratorum Sec Neuronowe 1 Mchał Bereta Sztuczne sec neuronowe można postrzegać jako modele matematyczne, które swoje wzorce wywodzą z bolog obserwacj ludzkch
Bardziej szczegółowoPlan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty)
Plan wykładu Dzałane neuronu dyskretnego warstwy neuronów dyskretnych Wykład : Reguły uczena sec neuronowych. Sec neuronowe ednokerunkowe. Reguła perceptronowa Reguła Wdrowa-Hoffa Reguła delta ałgorzata
Bardziej szczegółowoSztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010
Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010 Sieci neuronowe jednokierunkowa wielowarstwowa sieć neuronowa sieci Kohonena
Bardziej szczegółowoZaawansowane metody numeryczne
Wykład 9. jej modyfkacje. Oznaczena Będzemy rozpatrywać zagadnene rozwązana następującego układu n równań lnowych z n newadomym x 1... x n : a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x
Bardziej szczegółowoIndukowane Reguły Decyzyjne I. Wykład 8
Indukowane Reguły Decyzyjne I Wykład 8 IRD Wykład 8 Plan Powtórka Krzywa ROC = Receiver Operating Characteristic Wybór modelu Statystyka AUC ROC = pole pod krzywą ROC Wybór punktu odcięcia Reguły decyzyjne
Bardziej szczegółowoPrace wst pne Wytyczenie sieci gazowej na mapie geodezyjnej
Prace wstne 1. Lokalizacja budynków w zaoatrywanych w aliwo gazowe 2. Proozycja usytuowania stacji redukcyjnej lub unktu redukcyjnego z zachowaniem wymaganych stref zagroenia wybuchem 3. Zarojektowanie
Bardziej szczegółowoPlan wykładu. Sztuczne sieci neuronowe. Podstawowe pojcia logiki rozmytej. Logika ostra a logika rozmyta. Wykład 13: Sieci neuronowe o logice rozmytej
Pan wyładu Sztuzne se neuronowe yład 3: Se neuronowe o oge rozmytej ałgorzata Krtowsa Katedra Orogramowana e-ma: mma@.b.baysto. Podstawy og rozmytej zbory rozmyte oeraje og rozmytej shemat systemu rozmytego
Bardziej szczegółowoWielokategorialne systemy uczące się i ich zastosowanie w bioinformatyce. Rafał Grodzicki
Welokategoralne systemy uząe sę h zastosowane w bonformatye Rafał Grodzk Welokategoralny system uząy sę (multlabel learnng system) Zbór danyh weśowyh: d X = R Zbór klas (kategor): { 2 } =...Q Zbór uząy:
Bardziej szczegółowoDzielenie. Dzielenie pozycyjne
zelene ozycyjne zelene dzelene całkowte: dzelna (dvdend), dzelnk 0 (dvor) Iloraz (uotent) rezta R (remander) z dzelena to lczby take, e R, R rozw zana (,R ) oraz (,R ) take, e R, rzy tym R R, R, R oraz
Bardziej szczegółowoSystemy Inteligentnego Przetwarzania wykład 7: Sieci RBF
Systemy Inteligentnego Przetwarzania wykład 7: Sieci RBF Dr inż. Jacek Mazurkiewicz Katedra Informatyki Technicznej e-mail: Jacek.Mazurkiewicz@pwr.edu.pl Bazowe funkcje radialne (1) Sieci neuronowe wielowarstwowe
Bardziej szczegółowoprzegrody (W ) Łukasz Nowak, Instytut Budownictwa, Politechnika Wrocławska, e-mail:lukasz.nowak@pwr.wroc.pl 1
1.4. Srawdzn moŝlwośc kondnsacj ary wodnj wwnątrz ścany zwnętrznj dla orawngo oraz dla odwrócongo układu warstw. Oblczn zawlgocna wysychana wlgoc. Srawdzn wykonujmy na odstaw skrytu Matrały do ćwczń z
Bardziej szczegółowoV. WPROWADZENIE DO PRZESTRZENI FUNKCYJNYCH
Krs na Stdach Doktoranckch Poltechnk Wrocławskej wersja: lty 007 34 V. WPROWADZENIE DO PRZESTRZENI FUNKCYJNYCH. Zbór np. lczb rzeczywstych a, b elementy zbor A a A b A, podzbór B zbor A : B A, sma zborów
Bardziej szczegółowoProgramowanie Równoległe i Rozproszone
Programowane Równoległe Rozproszone Wykład Programowane Równoległe Rozproszone Lucjan Stapp Wydzał Matematyk Nauk Informacyjnych Poltechnka Warszawska (l.stapp@mn.pw.edu.pl) /38 PRR Wykład Chcemy rozwązać
Bardziej szczegółowowiedzy Sieci neuronowe (c.d.)
Metody detekci uszkodzeń oparte na wiedzy Sieci neuronowe (c.d.) Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 8 Metody detekci uszkodzeń oparte na wiedzy Wprowadzenie
Bardziej szczegółowoPokazać, że wyżej zdefiniowana struktura algebraiczna jest przestrzenią wektorową nad ciałem
Zestaw zadań : Przestrzene wektorowe. () Wykazać, że V = C ze zwykłym dodawanem jako dodawanem wektorów operacją mnożena przez skalar : C C C, (z, v) z v := z v jest przestrzeną lnową nad całem lczb zespolonych
Bardziej szczegółowoPodstawy teorii falek (Wavelets)
Podstawy teor falek (Wavelets) Ψ(). Transformaca Haara (97).. Przykład pewne metody zapsu obrazu Transformaca Haara Przykład zapsu obrazu -D Podstawy matematyczne transformac Algorytmy rozkładana funkc
Bardziej szczegółowoDla dzielnej X (dividend) i dzielnika D 0 (divisor) liczby Q oraz R takie, Ŝe
zelene ekwencyjne zelene la dzelnej X (dvdend) dzelnka (dvor) lczby Q oraz R take, Ŝe X=Q R, R < nazywa ę lorazem Q (uotent) reztą R (remander) z dzelena X rzez. Równane dzelena moŝe meć rozwązana ełnające
Bardziej szczegółowoPattern Classification
attern Classfcaton All materals n these sldes were taken from attern Classfcaton nd ed by R. O. Duda,. E. Hart and D. G. Stork, John Wley & Sons, 000 wth the permsson of the authors and the publsher Chapter
Bardziej szczegółowoXLI OLIMPIADA FIZYCZNA ETAP WSTĘPNY Zadanie teoretyczne
XLI OLIMPIADA FIZYCZNA ETAP WSTĘPNY Zadane teoretyczne Rozwąż dowolne rzez sebe wybrane dwa sośród odanych nże zadań: ZADANIE T Nazwa zadana: Protony antyrotony A. Cząstk o mase równe mase rotonu, ale
Bardziej szczegółowoStanisław Cichocki. Natalia Nehrebecka. Wykład 6
Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Zastosowane modelu potęgowego Przekształcene Boxa-Coxa 2. Zmenne cągłe za zmenne dyskretne 3. Interpretacja parametrów przy zmennych dyskretnych 1. Zastosowane
Bardziej szczegółowoSystemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017
Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład III bogumil.konopka@pwr.edu.pl 2016/2017 Wykład III - plan Regresja logistyczna Ocena skuteczności klasyfikacji Macierze pomyłek Krzywe
Bardziej szczegółowoMacierz prawdopodobieństw przejścia w pojedynczym kroku dla łańcucha Markowa jest postaci
Zadane. Macerz radoodobeńst rzejśca ojedynczym kroku dla łańcucha Markoa...... o trzech stanach { } jest ostac 0 n 0 0 (oczyśce element stojący -tym erszu j -tej kolumne tej macerzy oznacza P( = j. Wtedy
Bardziej szczegółowoP 1, P 2 - wektory sił wewnętrznych w punktach powierzchni F wokół punktu A
TEORI STNU NPRĘŻENI. WEKTOR NPRĘŻENI r x P P P P, P - wektory sł wewnętrznych w unktach owerzchn wokół unktu P P r, P - suma sł wewnętrznych na owerzchn P P P P średna gęstość sł wewnętrznych na owerzchn
Bardziej szczegółowoDOBÓR SERWOSILNIKA POSUWU. Rysunek 1 przedstawia schemat kinematyczny napędu jednej osi urządzenia.
DOBÓR SERWOSILNIKA POSUWU Rysunek 1 rzedstawa schemat knematyczny naędu jednej os urządzena. Rys. 1. Schemat knematyczny serwonaędu: rzełożene rzekładn asowej, S skok śruby ocągowej, F sła orzeczna, F
Bardziej szczegółowoSystemy Ochrony Powietrza Ćwiczenia Laboratoryjne
ś POLITECHNIKA POZNAŃSKA INSTYTUT INŻYNIERII ŚRODOWISKA PROWADZĄCY: mgr nż. Łukasz Amanowcz Systemy Ochrony Powetrza Ćwczena Laboratoryjne 2 TEMAT ĆWICZENIA: Oznaczane lczbowego rozkładu lnowych projekcyjnych
Bardziej szczegółowoZastosowania sieci neuronowych
Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką
Bardziej szczegółowoPlan wykładu. Sztuczne sieci neuronowe. Sieci rekurencyjne. Sieci rekurencyjne. Wykład 8: Sieci rekurencyjne: sie Hopfielda. Sieci rekurencyjne
Plan wykładu Wykład 8: Sec rekurencyne: se Hopfelda Małgorzata Krtowska Katedra Oprogramowana e-mal: mmac@.pb.balystok.pl Sec rekurencyne Se Hopfelda tryb odtwarzana funkca energ dynamka zman stanu wykorzystane
Bardziej szczegółowoNie istnieje ogólna recepta, każdy przypadek musi być rozważany indywidualnie!
Kwesta wyboru struktury modelu neuronowego Schematyczne przedstawene etapów przetwarzana danych w procese neuronowego modelowana Ne stneje ogólna recepta, każdy przypadek mus być rozważany ndywdualne!
Bardziej szczegółowoNieeuklidesowe sieci neuronowe
Unwersytet Mkoaja Kopernka Wydza Fzyk, Astronom Informatyk Stosowanej IS Helena Jurkewcz numer albumu: 177622 Praca magsterska na kerunku Fzyka Komputerowa Neeukldesowe sec neuronowe Opekun pracy dyplomowej
Bardziej szczegółowoWprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu
Wprowadzene do Sec Neuronowych Algorytm wstecznej propagacj błędu Maja Czoków, Jarosław Persa --6 Powtórzene. Perceptron sgmodalny Funkcja sgmodalna: σ(x) = + exp( c (x p)) Parametr c odpowada za nachylene
Bardziej szczegółowoZapis pochodnej. Modelowanie dynamicznych systemów biocybernetycznych. Dotychczas rozważane były głownie modele biocybernetyczne typu statycznego.
owanie dynamicznych systemów biocybernetycznych Wykład nr 9 z kursu Biocybernetyki dla Inżynierii Biomedycznej rowadzonego rzez Prof. Ryszarda Tadeusiewicza Dotychczas rozważane były głownie modele biocybernetyczne
Bardziej szczegółowoWOJSKOWA AKADEMIA TECHNICZNA im. Jar osława Dąbr owskiego ZAKŁAD AWIONIKI I UZBROJENIA LOTNICZEGO
WOJSKOWA AKADEMIA TECHNICZNA m. Jar osława Dąbr owskego ZAKŁAD AWIONIKI I UZBROJENIA LOTNICZEGO Przedmot: PODSTAWY AUTOMATYKI I AUTOMATYZACJI (studa I stona) ĆWICZENIE RACHUNKOWE KOREKCJA LINIOWYCH UKŁADÓW
Bardziej szczegółowoMETODA ELEMENTU SKOŃCZONEGO. Termokinetyka
METODA ELEMENTU SKOŃCZONEGO Termoknetyka Matematyczny ops ruchu cepła (1) Zasada zachowana energ W a Cepło akumulowane, [J] P we Moc wejścowa, [W] P wy Moc wyjścowa, [W] t przedzał czasu, [s] V q S(V)
Bardziej szczegółowoBadanie energetyczne płaskiego kolektora słonecznego
Katedra Slnów Salnowych Pojazdów ATH ZAKŁAD TERMODYNAMIKI Badane energetyczne łasego oletora słonecznego - 1 - rowadzene yorzystane energ celnej romenowana słonecznego do celów ogrzewana, chłodzena oraz
Bardziej szczegółowoPlan wykładu. Sztuczne sieci neuronowe. Gaz neuronowy (ang. Neural Gas - NG) NG - zasada działania. Gaz neuronowy. Rosncy gaz neuronowy
Pla wykładu Wykład : Sec samoorgazujce s Małgorzata Krtowska Katedra Oprogramowaa e-mal: mmac@.pb.balystok.pl Gaz euroowy Roscy gaz euroowy Se z kotrpropagacj Sec rezoasowe: ART 2 Gaz euroowy (ag. Neural
Bardziej szczegółowoOntogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę
Norbert Jankowski Ontogeniczne sieci neuronowe O sieciach zmieniających swoją strukturę Warszawa 2003 Opracowanie książki było wspierane stypendium Uniwersytetu Mikołaja Kopernika Spis treści Wprowadzenie
Bardziej szczegółowo( ) ( ) 2. Zadanie 1. są niezależnymi zmiennymi losowymi o. oraz. rozkładach normalnych, przy czym EX. i σ są nieznane. 1 Niech X
Prawdopodobeństwo statystyka.. r. Zadane. Zakładamy, że,,,,, 5 są nezależnym zmennym losowym o rozkładach normalnych, przy czym E = μ Var = σ dla =,,, oraz E = μ Var = 3σ dla =,, 5. Parametry μ, μ σ są
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.
Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 2013-11-26 Projekt pn. Wzmocnienie potencjału
Bardziej szczegółowoTERMODYNAMIKA TECHNICZNA I CHEMICZNA
TRMODYNAMIKA TCHNICZNA I CHMICZNA Część IV TRMODYNAMIKA ROZTWORÓW TRMODYNAMIKA ROZTWORÓW FUGATYWNOŚCI I AKTYWNOŚCI a) Wrowadzene Potencjał chemczny - rzyomnene de G n na odstawe tego, że otencjał termodynamczny
Bardziej szczegółowoSIECI RBF (RADIAL BASIS FUNCTIONS)
SIECI RBF (RADIAL BASIS FUNCTIONS) Wybrane slajdy z prezentacji prof. Tadeusiewicza Wykład Andrzeja Burdy S. Osowski, Sieci Neuronowe w ujęciu algorytmicznym, Rozdz. 5, PWNT, Warszawa 1996. opr. P.Lula,
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE.
Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka ADALINE. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 218-1-15/22 Projekt pn.
Bardziej szczegółowoANALIZA TEKSTUR W OBRAZACH CYFROWYCH I JEJ ZASTOSOWANIE DO OBRAZÓW ANGIOGRAFICZNYCH
POLITECHNIKA WARSZAWSKA WYDZIAŁ ELEKTRONIKI I TECHNIK INFORMACYJNYCH INSTYTUT AUTOMATYKI I INFORMATYKI STOSOWANEJ mgr n. Ewa Sntkowska ANALIZA TEKSTUR W OBRAZACH CYFROWYCH I JEJ ZASTOSOWANIE DO OBRAZÓW
Bardziej szczegółowoAlgorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa
Bardziej szczegółowoSystemy Inteligentnego Przetwarzania wykład 3: sieci rekurencyjne, sieci samoorganizujące się
Systemy Intelgentnego Przetwarzana wykład 3: sec rekurencyne, sec samoorganzuące sę Dr nż. Jacek Mazurkewcz Katedra Informatyk Technczne e-mal: Jacek.Mazurkewcz@pwr.edu.pl Sec neuronowe ze sprzężenem Sprzężena
Bardziej szczegółowoSztuczna Inteligencja Tematy projektów Sieci Neuronowe
PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia
Bardziej szczegółowoZapis informacji, systemy pozycyjne 1. Literatura Jerzy Grębosz, Symfonia C++ standard. Harvey M. Deitl, Paul J. Deitl, Arkana C++. Programowanie.
Zaps nformacj, systemy pozycyjne 1 Lteratura Jerzy Grębosz, Symfona C++ standard. Harvey M. Detl, Paul J. Detl, Arkana C++. Programowane. Zaps nformacj w komputerach Wszystke elementy danych przetwarzane
Bardziej szczegółowoRBF sieci neuronowe o radialnych funkcjach bazowych
RBF sieci neuronowe o radialnych funkcjach bazowych Jerzy Stefanowski Zakład Inteligentnych Systemów Wspomagania Decyzji Instytut Informatyki Politechnika Poznańska Wykład Uczenie maszynowe edycja 2010
Bardziej szczegółowoStanisław Cichocki. Natalia Nehrebecka. Wykład 6
Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Zastosowane modelu potęgowego Model potęgowy Przekształcene Boxa-Coxa 2. Zmenne cągłe za zmenne dyskretne 3. Interpretacja parametrów przy zmennych dyskretnych
Bardziej szczegółowoWprowadzenie. Support vector machines (maszyny wektorów wspierających, maszyny wektorów nośnych) SVM służy do: Zalety metody SVM
SVM Wprowadzene Support vector machnes (maszyny wektorów wsperających, maszyny wektorów nośnych) SVM służy do: w wersj podstawowej klasyfkacj bnarnej w wersj z rozszerzenam regresj wyboru najważnejszych
Bardziej szczegółowoPrzykład 3.1. Wyznaczenie zmiany odległości między punktami ramy trójprzegubowej
Przykład Wyznaczene zmany odegłośc mędzy unktam ramy trójrzegubowej Poecene: Korzystając ze wzoru axwea-ohra wyznaczyć zmanę odegłośc mędzy unktam w onższym układze Przyjąć da wszystkch rętów EI = const
Bardziej szczegółowoZastosowanie technik sztucznej inteligencji w analizie odwrotnej
Zastosowane technk sztucznej ntelgencj w analze odwrotnej Ł. Sztangret, D. Szelga, J. Kusak, M. Petrzyk Katedra Informatyk Stosowanej Modelowana Akadema Górnczo-Hutncza, Kraków Motywacja Dokładność symulacj
Bardziej szczegółowoReprezentacje grup symetrii. g s
erezentace ru ymetr Teora rerezentac dea: oeracom ymetr rzyać oeratory dzałaące w rzetrzen func zwązać z nm funce, tóre oeratory te rzerowadzaą w ebe odobne a zb. untów odcza oerac ymetr rozważmy rzeztałcene
Bardziej szczegółowoORGANIZACJA ZAJĘĆ OPTYMALIZACJA GLOBALNA WSTĘP PLAN WYKŁADU. Wykładowca dr inż. Agnieszka Bołtuć, pokój 304, e-mail: aboltuc@ii.uwb.edu.
ORGANIZACJA ZAJĘĆ Wykładowca dr nż. Agneszka Bołtuć, pokój 304, e-mal: aboltuc@.uwb.edu.pl Lczba godzn forma zajęć: 15 godzn wykładu oraz 15 godzn laboratorum 15 godzn projektu Konsultacje: ponedzałk 9:30-11:00,
Bardziej szczegółowoliniowym w przeciwnym przypadku mówimy o programowaniu nieliniowym.
=DGDQLHSROHJDMFHQDSRV]XNLZDQLXPDNV\PDOQHMOXEPLQLPDOQHMZDUWRFLIXQNFMLZLHOX ]PLHQQ\FKSU]\MHGQRF]HVQ\PVSHáQLHQLXSHZQHMLORFLQDáR*RQ\FKZDUXQNyZ UyZQDOXE QLHUyZQRFLQRVLQD]Z]DGDQLDRSW\PDOL]DF\MQHJROXE]DGDQLDSURJUDPRZDQLD
Bardziej szczegółowop Z(G). (G : Z({x i })),
3. Wykład 3: p-grupy twerdzena Sylowa. Defncja 3.1. Nech (G, ) będze grupą. Grupę G nazywamy p-grupą, jeżel G = dla pewnej lczby perwszej p oraz k N. Twerdzene 3.1. Nech (G, ) będze p-grupą. Wówczas W
Bardziej szczegółowoXII. EFEKTYWNO FUNKCJONOWANIA SYSTEMÓW DZIAŁANIA
XII. EFETYWO FUCJOOWAIA SYSTEMÓW DZIAŁAIA. WSTP Modele rocesów eksloatacj obektów techncznych umolwaj odejmowane włacwych decyzj dotyczcych urzdze techncznych w zakrese nezawodnoc, trwałoc dagnozowana,
Bardziej szczegółowoWYKŁAD 7. Testowanie jakości modeli klasyfikacyjnych metodyka i kryteria
Wrocław University of Technology WYKŁAD 7 Testowanie jakości modeli klasyfikacyjnych metodyka i kryteria autor: Maciej Zięba Politechnika Wrocławska Testowanie modeli klasyfikacyjnych Dobór odpowiedniego
Bardziej szczegółowoKorekcja liniowych układów regulacji automatycznej
WOJSKOWA AKADEMIA TECHNICZNA m. Jarosława Dąbrowskego Ćwczene rachunkowe Korekcja lnowych układów regulacj automatycznej mgr nż. Bartosz BRZOZOWSKI Warszawa 7 Cel ćwczena rachunkowego Podczas ćwczena oruszane
Bardziej szczegółowoZaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych
Zaawansowane metody numeryczne Komputerowa analza zagadneń różnczkowych 1. Układy równań lnowych P. F. Góra http://th-www.f.uj.edu.pl/zfs/gora/ semestr letn 2006/07 Podstawowe fakty Równane Ax = b, x,
Bardziej szczegółowoAnaliza rodzajów skutków i krytyczności uszkodzeń FMECA/FMEA według MIL STD - 1629A
Analza rodzajów skutków krytycznośc uszkodzeń FMECA/FMEA według MIL STD - 629A Celem analzy krytycznośc jest szeregowane potencjalnych rodzajów uszkodzeń zdentyfkowanych zgodne z zasadam FMEA na podstawe
Bardziej szczegółowoSTATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH
STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH 1 Test zgodnośc χ 2 Hpoteza zerowa H 0 ( Cecha X populacj ma rozkład o dystrybuance F). Hpoteza alternatywna H1( Cecha X populacj
Bardziej szczegółowoSYSTEMY UCZĄCE SIĘ WYKŁAD 15. ANALIZA DANYCH WYKRYWANIE OBSERWACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska
SYSTEMY UCZĄCE SIĘ WYKŁAD 15. ANALIZA DANYCH WYKRYWANIE OBSERWACJI ODSTAJĄCYCH, UZUPEŁNIANIE BRAKUJĄCYCH DANYCH Częstochowa 2014 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska WYKRYWANIE
Bardziej szczegółowoBayesowskie testowanie modeli tobitowych w analizie spłaty kredytów detalicznych
Jerzy Marzec, Katedra Ekonometr Badań Oeracyjnych, Unwersytet Ekonomczny w Krakowe 1 Bayesowske testowane model tobtowych w analze słaty kredytów detalcznych Wstę Podstawowym narzędzem wsomagającym racę
Bardziej szczegółowoZestaw zadań 4: Przestrzenie wektorowe i podprzestrzenie. Liniowa niezależność. Sumy i sumy proste podprzestrzeni.
Zestaw zadań : Przestrzene wektorowe podprzestrzene. Lnowa nezależność. Sumy sumy proste podprzestrzen. () Wykazać, że V = C ze zwykłym dodawanem jako dodawanem wektorów operacją mnożena przez skalar :
Bardziej szczegółowo