SVM Support Vector Machines Metoda wektorów nośnych

Wielkość: px
Rozpocząć pokaz od strony:

Download "SVM Support Vector Machines Metoda wektorów nośnych"

Transkrypt

1 SVM Support Vector Machnes Metoda wektorów nośnych JERZY STEFANOWSKI Insttute of Computng Scences, Poznań Unversty of Technology UM slajdy dodatkowe do wykładu

2 Plan wykładu. Lnowa separowalność w statystycznej klasyfkacj. Podstawy metody SVM 3. Uogólnene SVM (ne w pełn separowalne lnowo) 4. Funkcje jądrowe (kernal functons) 5. SVM dla danych separowalnych nelnowo 6. Podsumowane 7. Gdze szukać węcej

3 Formalzacja problemu klasyfkacj W przestrzen danych (ang. measurement space) Ω znajdują sę wektory danych stanowące próbkę uczącą D, należące do dwóch klas {( ) p } N c R, c {, } D =, = Szukamy klasyfkatora pozwalającego na podzał całej przestrzen Ω na dwa rozłączne obszary odpowadającej klasom {,-} oraz pozwalającego jak najlepej klasyfkować nowe obekty do klas Podejśce opera sę na znalezenu tzw. grancy decyzyjnej mędzy klasam g()

4 Separowalność lnowa Dwe klasy są lnowo separowalne, jeśl stneje hperpłaszczyzna H postac g() g() przyjmująca wartośc T = w + b g( ) g( ) > < 0 0 Jak poszukwać takej hperpłaszczyzny grancznej?

5 Lnowa funkcja separująca y Funkcja lnowa separująca Wyznacza podzał przestrzen na obszary odpowadające dwóm klasom decyzyjnym. Orygnalna propozycja Fsher, ale także nne metody (perceptron, tp..) Uogólnena dla welu klas.

6 Support Vector Machnes Znajdź lnową hperpłaszczyznę (decson boundary) oddzelające obszary przykładów z dwóch różnych klas

7 Support Vector Machnes Jedno z możlwych rozwązań

8 Support Vector Machnes Inne możlwe rozwązane

9 Support Vector Machnes Zbór welu możlwych rozwązań

10 Support Vector Machnes Którą z hperpłaszczyzn należy wybrać? B or B? Czy można to formalne zdefnować?

11 Uwag o margnese Hperpłaszczyzny b b są otrzymane przez równoległe przesuwane hperpłaszczyzny grancznej aż do perwszych punktów z obu klas. Odległość mędzy nm margnes klasyfkatora lnowego Jak margnes wyberać?

12 Węższe czy szersze margnesy? Szerszy margnes lepsze własnośc generalzacj, mnejsza podatność na ew. przeuczene (overfttng) Wąsk margnes mała zmana grancy, radykalne zmany klasyfkacj Small Margn Large Margn Support Vectors

13 Teora Structural rsk mnmzaton Oszacowane górnej grancy błędu ze względu na błąd uczący R e, lczbę przykładów N tzw. model complety h z prawdopodobeństwem -η generalzaton error ne przekroczy: h log( η) R Re + ϕ(, ) N N Prace teoretyczne h complety dla modelu lnowego: Models wth small margns have hgher capacty -complety because they are more flevle and can ft many tranng sets Także The hypothess space wth mnmal VC-dmenson accordng to SRM Reasumując modele o wekszej complety mają gorsze oszacowane błędu Dlatego wyberaj wększy margnes!

14 Support Vector Machnes Znajdź hperpłaszycznę, która maksymalzuje tzw. margnes => B jest lepsze nż B

15 Lnowe SVM hperpłaszczyzna granczna Vapnk poszukuj mamal margn classfer gdze w b są parametram modelu Parametry grancy wyznaczaj tak, aby maksymalne margnesy b b były mejscem geometrycznym punktów spełnających warunk Margnes odległość mędzy płaszczyznam b b = 0 + b w = + = + b w b w b b < + > + = 0 0 b w b w y

16 Poszukwane parametrów hperpłaszczyzny w r r + b = 0 w r r w r r + b = + + b = f r r r f w + b ( ) = r r f w + b

17 Ilustracje sposób przekształceń margn = w w w w p margn = w Cel: Maksymalzuj margnes! w w w mamze mnmze mnmze

18 Lnear Support Vector Machnes Sformułowane mat. problemu: mn w w = Przy warunkach ogranczających y ( w + b) =,, K, N Jest to problem optymalzacj kwadratowej z lnowym ogr. uogólnone zadane optymalzacj rozwązywany metodą mnożnków Lagrange a (tak aby np. ne dojść do w 0)

19 LSVM Mnmalzuj funkcję Lagrange a N L( w, b, α) = w = α( y ( w parametry α 0 mnożnk Lagrange a + b) ) Pownno sę różnczkować L po w b nadal trudnośc w rozwązanu Przy przekształcenach wykorzystuje sę ogranczena Karush- Kuhn-Tucker na mnożnk: α [ y α 0 ( w + b) ] = 0 W konsekwencj α są nezerowe wyłączne dla wektorów nośnych, pozostałe są zerowe Rozwązane parametrów w b zależy wyłączne od wektorów nośnych.

20 LSVM sformułowane dualne Nadal zbyt wele parametrów w,b,α do oszacowana Przechodz sę na postać dualną zadana optymalzacj Maksymalzuj L(α) Przy ogranczenach α 0, α y 0 Rozwązane (α>0 dla SV) ; b odpowedno uśrednane Hperpłaszczyzna decyzyjna N = N = α w = N = α y N N α = j= α j = N = α y + b = 0 y y j ( j)

21 ozwązane LSVM Klasyfkacja funkcja decyzyjna N f ( ) = sgn( α y + = O ostatecznej postac hperpłaszczyzny decydują wyłączne wektory nośne (α >0) Im wększa wartość α tym wększy wpływ wektora na grancę decyzyjną Klasyfkacja zależy od loczynu skalarnego nowego z wektoram nośnym ze zboru uczącego Pewne założene metody starać sę zbudować klasyfkator lnowy używając możlwe mnmalną lczbę wektorów z danych trenngowych (wektory nośne) Funkcjonalne klasyfkator podobny do nektórych sec neuronowej, metod jądrowych Parzena b)

22 Przykład Oblczmy wag = α = α y = ( ) = y = ( ) 0.6 = 9. 3 ' b = ( 6.64) ( 9.3)(0.4687) = b '' = ( 6.64) ( 9.3)(0.6) = 7.98 b = 0.5 ( b + b ' '' ) = 7.93

23 Support Vector Machnes Co robć z LSVM gdy dane ne są w pełn lnowo separowalne?

24 Jak użyć SVM dla dane lnowo neseparowalnych

25 Zmenne dopełnające

26 Zmenne osłabające - nterpretacja Zmenne ξ 0 dobera sę dla każdego przykładu uczącego. Jej wartość zmnejsza margnes separacj. (rodzaj zwsu punktu poza hperpłaszczyzną nośną) Jeżel 0 ξ, to punkt danych (,d ) leży wewnątrz strefy separacj, ale po właścwej strone Jeżel ξ >, punkt po newłaścwej strone hperpłaszczyzny wystąp błąd klasyfkacj Modyfkacja wymagań dla wektorów nośnych b b w + w + b = ξ b = + ς

27 Lnear SVM nepełna separowalność w For all w + w b + For w + w + ξ b...for some postve ξ Task: Mamze the margn and mnmse tranng errors w w B E C S O M E + C ( ξ )

28 SVM z dodatkowym zmennym Jak przedefnować sformułowane? Z dodatkowym zmennym dopełnającym oraz kosztem błędu na danych uczących Mmmalzuj wyrażene: z ogranczenam: f ( r ) = r N w = + k L( w) C ξ = r r f w + b - ξ r r f w + b + ξ Drug czynnk odpowada za ew. błędy testowana (górne oszacowane tych błędów Parametr C ocena straty zwązanej z każdym błędne klasyfkowanym punktem dla które ξ>0 Przetarg szerok margnes to dużo błędów odwrotne

29

30 Rozwązane problemu w Ponowne dojdzemy do dualnego problemu: Ma: W(α) = m = α m m αα j = j= y y j j Programowane kwadratowe (QP) : trudnośc rozwazana przeformułuj problem Globalne ma α może być ograncz: () () 0 α C, m = α y = 0

31

32 Nonlnear Support Vector Machnes Co zrobć gdy próby uczące pownny być nelnowo separowalne?

33 Nonlnear Support Vector Machnes Transformacja do wysoce welowymarowej przestrzen

34 SVM Transformacje Przykład transformacj D D Projekcja danych orygnalnych R p w nową m>p welowymarową przestrzeń, w której z dużym prawdopodobeństwem będą separowalne lnowo (Twerdzena matem. np. Covera) Przykład przekształcena welomanowe wyższego stopna gdze do zmennych dołącza sę ch p-te potęg oraz loczyny meszane. (0,) (0,0) + (,0)

35 Przykład transformacj welomanowej

36 Przykład transformacj welomanowej Orygnalna funkcja celu Transformacja Poszukujemy parametrów Rozwązane > + = otherwse y ) ( 0.5) ( ), (,),,, ( ), ( : Φ = w w w w w 0.46 = +

37

38 lka defncj Przykłady danych do klasyfkacj

39 Model nelnowy SVM Funkcja decyzyjna po przekształcenu Zasady klasyfkacj Sformułowane problemu nelnowego SVM Podobne jak poprzedno optymalzujemy funkcje z mnożnkam Lagrange a Funkcja klasyfkująca g + b = ) ( ) ( w ϕ 0 ) ( 0 ) ( < > + g g mn w w = N b w y,,, ) ) ( ( K = + Φ ( ) ) ( ) ( j j N N j j N y y Φ Φ = = = α α α = + Φ Φ = N b y sgn f ) ) ( ) ( ( ) ( α

40 Curse of dmensonalty and Oblcz Φ( ) Φ( j ) Problem: Trudne oblczenowo do wykonana! Wele parametrów do oszacowana - weloman stopna p dla N atrybutów w orygnalnej przestrzen prowadz do P O( N ) atrybutów w nowej rozszerzonej F feature space Skorzystaj z dot product (loczynu skalarnego) na wektorach wejścowych jako mary podobeństwa wektorów Iloczyn Φ( ) Φ( j ) może być odnesony do podobeństwa wektorów j w transformowanej rozszerzonej przestrzen Idea kernel (funkcj jądrowych) Proste funkcje K dwóch argumentów wektorowych pozwalają oblczyć wartość loczynu skalarnego w rozszerzonej przestrzen

41 Co to są funkcje jądrowe (Kernel functon) Wywodzą sę z badań lnowych przestrzen wektorowych, przestrzen Hlberta, Banacha Intucyjne są to stosunkowo proste symetryczne K(, j ) zależne od odległośc mędzy j które spełnają pewne wymagana matem. K( u) du =, σ K = uk( u) du > K( u) 0, 0

42 Wnosek z twerdzena Mercera Własność podstawą tzw. trku kernelowego (kernel trck ) :... map the data nto some other scalar product space (feature space) F by means of a nonlnear mappng lke the above, and perform the lnear algorthm (lke decson boundary for classes) n the feature space F. In many cases the mappng Φ cannot be eplctly computed, due to the hgh-dmensonalty of F. But ths s not an obstacle, when the decson functon requres the evaluaton of scalar products Φ() Φ (y), and not the pattern Φ() n eplct form. [Camastra] every dot product s replaced by a non-lnear kernel functon.

43 ypowo stosowane jądra Dopuszczalne typy jąder zwązane z SVM Normalne (Gaussowske) Welomanowe sgmodalne K(, j j ( ) = ep{ σ K (, ) = ( + d) j j ) } K(, ) tgh( κ δ ) j = j p

44 Przykład prostego przekształcena welomanowego SVM: the kernel trck The kernel trck: ( ) ( ) ) ( ) (,,,, ) ( ), ( j j j j j j j Φ Φ = = = ( ) j j N N j j N K y y = = = α α α Orgnal optmzaton functon: Ne musmy znać funkcj Ф, wystarczy znać jądro (kernel)

45 Funkcja decyzyjna Wykorzystane funkcj jądrowych f ( ) = sgn sgn ( N ) α y b Φ( ) Φ( ) + = ( N ) α y K(, ) + b = Model klasyfkacj bnarnej rozszerza sę na zagadnene weloklasowe K > Specyfczne konstrukcje złożone: one-versus-all Parwse classfcaton (Haste, )

46

47

48 Gaussan kernel, C=0000, 0CV, 00% tran, 79.3 ± 7.8 test Gaussan kernel, C=, 0CV, 93.8% tran, 8.6 ± 8.0 test Auto C=3 and Gaussan dsperson 0.004: about 84.4 ± 5. on test Eample : Cleveland heart data Left: D MDS features, lnear SVM, C=, acc. 8.9% Rght: support vectors removed, margn s clear.

49 Przykładowe zastosowana Można sę zapoznać z lstą: A few nterestng applcatons, wth hghly compettve results: On-lne Handwrtng Recognton, zp codes 3D object recognton Stock forecastng Intruson Detecton Systems (IDSs) Image classfcaton Detectng Steganography n dgtal mages Medcal applcatons: dagnostcs, survval rates... Techncal: Combuston Engne Knock Detecton Elementary Partcle Identfcaton n Hgh Energy Physcs Bonformatcs: proten propertes, genomcs, mcroarrays Informaton retreval, tet categorzaton

50 rochę hstor Wczesne lata sześćdzesąte została opracowana metoda support vectors w celu konstruowana hperpłaszczyzn do rozpoznawana obrazu ( Vapnk Lerner 963, Vapnk Czervonenks 964) lnowa SVM. Początek lat 990-sątych: uogólnene metody pozwalające na konstruowane nelnowych funkcj separujących (Boser 99, Cortes Vapnk 995). 995: dalsze rozszerzene pozwalające otrzymać estymację funkcj cągłej na wyjścu regresja (Vapnk 995).

51 Klka zagadn. efektywnego stosowana SVM Normalzuj sygnały wejścowe Dobrze wyberz wartość C Wybór funkcj jądrowej Uogólnena dla problemów weloklasowych co jeszcze? Na le są skuteczne SVM w analze danych nezrównoważonych

52 Parę uwag podsumowujących Dane odwzorowane (przy pomocy funkcj jądrowych) w nową przestrzeń cech slna przewaga nad nnym metodam W nowej przestrzen dane pownny być lnowo separowalne W porównanu do nnych podejść welowymarowość przekształcena jest rozwązana przez trck kernelowy Pośredno ograncza sę nebezpeczeństwo przeuczena Teoretyczne poszukują mnmum globalnego a ne lokalnego (jak podejśca heurystyczne MLP) Ogranczena Dobór parametrów Skrajne podejśce black bo

53 ocne strony SVM Stopeń skomplkowana/pojemność jest nezależna od lczby wymarów. Bardzo dobra podbudowa statystyczno-teoretyczna Znajdowane mnmum glonalnego. Mnmalzujemy funkcję kwadratową co gwarantuje zawsze znalezene mnmum. Algorytm jest wydajny SVM generuje prawe optymalny klasyfkator. Ne jest tez czuły na przetrenowane. Dobre uogólnane dzęk welowymarowej feature space. Najważnejsze: poprzez użyce odpowednej funkcj jądra SVM bardzo duża skuteczność w praktyce Janfeng Feng, Susse Unversty

54 łabe strony SVM owolny trenng mnmalzacja funkcj, szczególne okuczlwy przy dużej lośc danych użytych do renngu. ozwązana też są skomplkowane (normalne >60% ektorów użytych do nauk staje sę wektoram sperającym), szczególne dla dużych lośc danych. Przykład (Haykn): poprawa o.5% ponad wynk osągnęty przez MLP. Ale MLP używał ukrytych węzłów, a SVM 85 wektorów. rudno dodać własną wedzę (pror knowledge) Janfeng Feng, Susse Unversty

55 Przetarg mędzy złożonoścą modelu a mnmalzacją błędów n. number of ranng errors, odel complety complety + mn. tranng errors mn. tranng errors complety Best trade-off Functons ordered n ncreasng complety

56 Odnośnk lteraturowe T.Haste, R.Tbshran, J.Fredman: The Elements of Statstcal Learnng. Sprnger poszukaj wersj elektroncznej pdf J.Koronack, J.Ćwk: Statystyczne systemy uczące sę (rozdz. 6) M.Krzyśko, W.Wołyńsk, T.Góreck,M.Skorzybut: Systemy uczące sę. S.Osowsk: Sec neuronowe w przetwarzanu nformacj.

57 Inne materały - nternet A.Bartkowak: Wykłady nt. Sec Neuronowych: w Kernele, sece SVM sec GDA. W.Duch: wyklady nt. Computatonal Intellgence html Angelska wersja Wkped Thorsten Joachms: Support Vector and Kernel Methods - SIGIR 003 Tutoral

58 SVM Related Lnks SVM Webste Representatve mplementatons LIBSVM: an effcent mplementaton of SVM, mult-class classfcatons, nu-svm, one-class SVM, ncludng also varous nterfaces wth java, python, etc. SVM-lght: smpler but performance s not better than LIBSVM, support only bnary classfcaton and only C language SVM-torch: another recent mplementaton also wrtten n C.

59 Inne odnośnk do lteratury anglojęzycznej Statstcal Learnng Theory by Vapnk: etremely hard to understand, contanng many errors too. C. J. C. Burges. A Tutoral on Support Vector Machnes for Pattern Recognton. Knowledge Dscovery and Data Mnng, (), 998. Better than the Vapnk s book, but stll wrtten too hard for ntroducton, and the eamples are so not-ntutve The book An Introducton to Support Vector Machnes by N. Crstann and J. Shawe-Taylor Also wrtten hard for ntroducton, but the eplanaton about the mercer s theorem s better than above lteratures The neural network book by Haykns

Wprowadzenie. Support vector machines (maszyny wektorów wspierających, maszyny wektorów nośnych) SVM służy do: Zalety metody SVM

Wprowadzenie. Support vector machines (maszyny wektorów wspierających, maszyny wektorów nośnych) SVM służy do: Zalety metody SVM SVM Wprowadzene Support vector machnes (maszyny wektorów wsperających, maszyny wektorów nośnych) SVM służy do: w wersj podstawowej klasyfkacj bnarnej w wersj z rozszerzenam regresj wyboru najważnejszych

Bardziej szczegółowo

Pattern Classification

Pattern Classification attern Classfcaton All materals n these sldes were taken from attern Classfcaton nd ed by R. O. Duda,. E. Hart and D. G. Stork, John Wley & Sons, 000 wth the permsson of the authors and the publsher Chapter

Bardziej szczegółowo

UCZENIE MASZYNOWE III - SVM. mgr inż. Adam Kupryjanow

UCZENIE MASZYNOWE III - SVM. mgr inż. Adam Kupryjanow UCZENIE MASZYNOWE III - SVM mgr inż. Adam Kupryjanow Plan wykładu Wprowadzenie LSVM dane separowalne liniowo SVM dane nieseparowalne liniowo Nieliniowy SVM Kernel trick Przykłady zastosowań Historia 1992

Bardziej szczegółowo

Analiza danych OGÓLNY SCHEMAT. http://zajecia.jakubw.pl/ Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja)

Analiza danych OGÓLNY SCHEMAT. http://zajecia.jakubw.pl/ Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja) Analza danych Dane trenngowe testowe. Algorytm k najblższych sąsadów. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ OGÓLNY SCHEMAT Mamy dany zbór danych podzelony na klasy decyzyjne, oraz

Bardziej szczegółowo

Klasyfkator lnowy Wstęp Klasyfkator lnowy jest najprostszym możlwym klasyfkatorem. Zakłada on lnową separację lnowy podzał dwóch klas mędzy sobą. Przedstawa to ponższy rysunek: 5 4 3 1 0-1 - -3-4 -5-5

Bardziej szczegółowo

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB Rozwązywane zadań optymalzacj w środowsku programu MATLAB Zagadnene optymalzacj polega na znajdowanu najlepszego, względem ustalonego kryterum, rozwązana należącego do zboru rozwązań dopuszczalnych. Standardowe

Bardziej szczegółowo

Analiza danych. Analiza danych wielowymiarowych. Regresja liniowa. Dyskryminacja liniowa. PARA ZMIENNYCH LOSOWYCH

Analiza danych. Analiza danych wielowymiarowych. Regresja liniowa. Dyskryminacja liniowa.   PARA ZMIENNYCH LOSOWYCH Analza danych Analza danych welowymarowych. Regresja lnowa. Dyskrymnacja lnowa. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ PARA ZMIENNYCH LOSOWYCH Parę zmennych losowych X, Y możemy

Bardziej szczegółowo

Data Mining Wykład 6. Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa.

Data Mining Wykład 6. Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa. GLM (Generalized Linear Models) Data Mining Wykład 6 Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa Naiwny klasyfikator Bayesa jest klasyfikatorem statystycznym -

Bardziej szczegółowo

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311 Sztuczne sec neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyk, p. 311 Wykład 6 PLAN: - Repetto (brevs) - Sec neuronowe z radalnym funkcjam bazowym Repetto W aspekce archtektury: zajmowalśmy

Bardziej szczegółowo

Laboratorium ochrony danych

Laboratorium ochrony danych Laboratorum ochrony danych Ćwczene nr Temat ćwczena: Cała skończone rozszerzone Cel dydaktyczny: Opanowane programowej metody konstruowana cał skończonych rozszerzonych GF(pm), poznane ch własnośc oraz

Bardziej szczegółowo

SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW

SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW Stefan WÓJTOWICZ, Katarzyna BIERNAT ZAKŁAD METROLOGII I BADAŃ NIENISZCZĄCYCH INSTYTUT ELEKTROTECHNIKI ul. Pożaryskego 8, 04-703 Warszawa tel.

Bardziej szczegółowo

Klasyfikatory liniowe Linear classifiers

Klasyfikatory liniowe Linear classifiers Klasyfkatory lnowe Lnear classfers JERZY STEFANOWSKI Insttute of Computng Scences, Poznań Unversty of Technology UMSN slady wykładu Wersa 2010 Plan 1. Lnowe klasyfkatory 2. Klasyczne lnowa analza dyskrymnacyna

Bardziej szczegółowo

Monitorowanie i Diagnostyka w Systemach Sterowania

Monitorowanie i Diagnostyka w Systemach Sterowania Montoroane Dagnostka Sstemach Steroana Katedra Inżner Sstemó Steroana Dr nż. Mchał Grochosk Montoroane Dagnostka Sstemach Steroana na studach II stopna specjalnośc: Sstem Steroana Podejmoana Deczj Maszn

Bardziej szczegółowo

Support Vector Machines for Text Categorization and Face Detection. Piotr Cybart Marcin Kluczyński Uniwersytet Wrocławski

Support Vector Machines for Text Categorization and Face Detection. Piotr Cybart Marcin Kluczyński Uniwersytet Wrocławski Support Vector Machnes for Text Categorzaton and Face Detecton Potr Cybart Marcn Kluczyńsk Unwersytet Wrocławsk 08.03.2005 Support Vector Machnes Vapnk(1979) S dany zbór N punktów, dla x x R Każdy należy

Bardziej szczegółowo

Problemy jednoczesnego testowania wielu hipotez statystycznych i ich zastosowania w analizie mikromacierzy DNA

Problemy jednoczesnego testowania wielu hipotez statystycznych i ich zastosowania w analizie mikromacierzy DNA Problemy jednoczesnego testowana welu hpotez statystycznych ch zastosowana w analze mkromacerzy DNA Konrad Furmańczyk Katedra Zastosowań Matematyk SGGW Plan referatu Testowane w analze mkromacerzy DNA

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 7. KLASYFIKATORY BAYESA. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

SYSTEMY UCZĄCE SIĘ WYKŁAD 7. KLASYFIKATORY BAYESA. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska. SYSTEMY UCZĄCE SIĘ WYKŁAD 7. KLASYFIKATORY BAYESA Częstochowa 4 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska TWIERDZENIE BAYESA Wedza pozyskwana przez metody probablstyczne ma

Bardziej szczegółowo

Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE

Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE Inormatyka Podstawy Programowana 06/07 Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE 6. Równana algebraczne. Poszukujemy rozwązana, czyl chcemy określć perwastk rzeczywste równana:

Bardziej szczegółowo

V. WPROWADZENIE DO PRZESTRZENI FUNKCYJNYCH

V. WPROWADZENIE DO PRZESTRZENI FUNKCYJNYCH Krs na Stdach Doktoranckch Poltechnk Wrocławskej wersja: lty 007 34 V. WPROWADZENIE DO PRZESTRZENI FUNKCYJNYCH. Zbór np. lczb rzeczywstych a, b elementy zbor A a A b A, podzbór B zbor A : B A, sma zborów

Bardziej szczegółowo

liniowym w przeciwnym przypadku mówimy o programowaniu nieliniowym.

liniowym w przeciwnym przypadku mówimy o programowaniu nieliniowym. =DGDQLHSROHJDMFHQDSRV]XNLZDQLXPDNV\PDOQHMOXEPLQLPDOQHMZDUWRFLIXQNFMLZLHOX ]PLHQQ\FKSU]\MHGQRF]HVQ\PVSHáQLHQLXSHZQHMLORFLQDáR*RQ\FKZDUXQNyZ UyZQDOXE QLHUyZQRFLQRVLQD]Z]DGDQLDRSW\PDOL]DF\MQHJROXE]DGDQLDSURJUDPRZDQLD

Bardziej szczegółowo

) będą niezależnymi zmiennymi losowymi o tym samym rozkładzie normalnym z następującymi parametrami: nieznaną wartością 1 4

) będą niezależnymi zmiennymi losowymi o tym samym rozkładzie normalnym z następującymi parametrami: nieznaną wartością 1 4 Zadane. Nech ( X, Y ),( X, Y ), K,( X, Y n n ) będą nezależnym zmennym losowym o tym samym rozkładze normalnym z następującym parametram: neznaną wartoścą oczekwaną EX = EY = m, warancją VarX = VarY =

Bardziej szczegółowo

Modelowanie i obliczenia techniczne. Metody numeryczne w modelowaniu: Optymalizacja

Modelowanie i obliczenia techniczne. Metody numeryczne w modelowaniu: Optymalizacja Modelowane oblczena technczne Metody numeryczne w modelowanu: Optymalzacja Zadane optymalzacj Optymalzacja to ulepszane lub poprawa jakośc danego rozwązana, projektu, opracowana. Celem optymalzacj jest

Bardziej szczegółowo

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych Zaawansowane metody numeryczne Komputerowa analza zagadneń różnczkowych 1. Układy równań lnowych P. F. Góra http://th-www.f.uj.edu.pl/zfs/gora/ semestr letn 2006/07 Podstawowe fakty Równane Ax = b, x,

Bardziej szczegółowo

9 konkurs ICT Objective: 9.11 FET Proactive Neuro-bio. 9 konkurs ICT

9 konkurs ICT Objective: 9.11 FET Proactive Neuro-bio. 9 konkurs ICT Dzeń Informacyjny ICT dla podmotów zanteresowanych uczestnctwem w mędzynarodowych projektach B+R w ramach 7 Programu Ramowego: 9 konkurs ICT Warszawa, 31.01.2012 9 konkurs ICT Objectve: 9.11 FET Proactve

Bardziej szczegółowo

Klasyfikatory neuronowe typu SVM w zastosowaniu do klasyfikacji przemieszczeń pionowych na obszarze LGOM

Klasyfikatory neuronowe typu SVM w zastosowaniu do klasyfikacji przemieszczeń pionowych na obszarze LGOM WARSZAY 2014 z cyklu: Górnctwo człowek środowsko: zrównoważony rozwój Mat. Symp. str. 64 77 Mara MRÓWCZYŃSKA Unwersytet Zelonogórsk, Zelona Góra Klasyfkatory neuronowe typu SVM w zastosowanu do klasyfkacj

Bardziej szczegółowo

dy dx stąd w przybliżeniu: y

dy dx stąd w przybliżeniu: y Przykłady do funkcj nelnowych funkcj Törnqusta Proszę sprawdzć uzasadnć, które z podanych zdań są prawdzwe, a które fałszywe: Przykład 1. Mesęczne wydatk na warzywa (y, w jednostkach penężnych, jp) w zależnośc

Bardziej szczegółowo

Wstęp do przetwarzania języka naturalnego. Wykład 11 Maszyna Wektorów Nośnych

Wstęp do przetwarzania języka naturalnego. Wykład 11 Maszyna Wektorów Nośnych Wstęp do przetwarzania języka naturalnego Wykład 11 Wojciech Czarnecki 8 stycznia 2014 Section 1 Przypomnienie Wektoryzacja tfidf Przypomnienie document x y z Antony and Cleopatra 5.25 1.21 1.51 Julius

Bardziej szczegółowo

KURS STATYSTYKA. Lekcja 6 Regresja i linie regresji ZADANIE DOMOWE. www.etrapez.pl Strona 1

KURS STATYSTYKA. Lekcja 6 Regresja i linie regresji ZADANIE DOMOWE. www.etrapez.pl Strona 1 KURS STATYSTYKA Lekcja 6 Regresja lne regresj ZADANIE DOMOWE www.etrapez.pl Strona 1 Część 1: TEST Zaznacz poprawną odpowedź (tylko jedna jest prawdzwa). Pytane 1 Funkcja regresj I rodzaju cechy Y zależnej

Bardziej szczegółowo

Zaawansowane metody numeryczne

Zaawansowane metody numeryczne Wykład 9. jej modyfkacje. Oznaczena Będzemy rozpatrywać zagadnene rozwązana następującego układu n równań lnowych z n newadomym x 1... x n : a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x

Bardziej szczegółowo

POLITECHNIKA WARSZAWSKA WYDZIAŁ ELEKTRYCZNY SIECI NEURONOWE SVM W ZASTOSOWANIU DO KLASYFIKACJI OBRAZÓW KOMÓREK SZPIKU KOSTNEGO

POLITECHNIKA WARSZAWSKA WYDZIAŁ ELEKTRYCZNY SIECI NEURONOWE SVM W ZASTOSOWANIU DO KLASYFIKACJI OBRAZÓW KOMÓREK SZPIKU KOSTNEGO POLITECHNIKA WARSZAWSKA WYDZIAŁ ELEKTRYCZNY Instytut Elektrotechnk Teoretycznej Systemów Informacyjno Pomarowych mgr nż. Tomasz Markewcz SIECI NEURONOWE SVM W ZASTOSOWANIU DO KLASYFIKACJI OBRAZÓW KOMÓREK

Bardziej szczegółowo

BADANIA OPERACYJNE. Podejmowanie decyzji w warunkach niepewności. dr Adam Sojda

BADANIA OPERACYJNE. Podejmowanie decyzji w warunkach niepewności. dr Adam Sojda BADANIA OPERACYJNE Podejmowane decyzj w warunkach nepewnośc dr Adam Sojda Teora podejmowana decyzj gry z naturą Wynk dzałana zależy ne tylko od tego, jaką podejmujemy decyzję, ale równeż od tego, jak wystąp

Bardziej szczegółowo

W praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np.

W praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np. Wykład 7 Uwaga: W praktyce często zdarza sę, że wynk obu prób możemy traktować jako wynk pomarów na tym samym elemence populacj np. wynk x przed wynk y po operacj dla tego samego osobnka. Należy wówczas

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6 Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Zastosowane modelu potęgowego Przekształcene Boxa-Coxa 2. Zmenne cągłe za zmenne dyskretne 3. Interpretacja parametrów przy zmennych dyskretnych 1. Zastosowane

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 15. ALGORYTMY GENETYCZNE Częstochowa 014 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska TERMINOLOGIA allele wartośc, waranty genów, chromosom - (naczej

Bardziej szczegółowo

Natalia Nehrebecka. Wykład 2

Natalia Nehrebecka. Wykład 2 Natala Nehrebecka Wykład . Model lnowy Postad modelu lnowego Zaps macerzowy modelu lnowego. Estymacja modelu Wartośd teoretyczna (dopasowana) Reszty 3. MNK przypadek jednej zmennej . Model lnowy Postad

Bardziej szczegółowo

SVM: Maszyny Wektorów Podpieraja cych

SVM: Maszyny Wektorów Podpieraja cych SVM 1 / 24 SVM: Maszyny Wektorów Podpieraja cych Nguyen Hung Son Outline SVM 2 / 24 1 Wprowadzenie 2 Brak liniowej separowalności danych Nieznaczna nieseparowalność Zmiana przetrzeń atrybutów 3 Implementacja

Bardziej szczegółowo

Twierdzenie Bezouta i liczby zespolone Javier de Lucas. Rozwi azanie 2. Z twierdzenia dzielenia wielomianów, mamy, że

Twierdzenie Bezouta i liczby zespolone Javier de Lucas. Rozwi azanie 2. Z twierdzenia dzielenia wielomianów, mamy, że Twerdzene Bezouta lczby zespolone Javer de Lucas Ćwczene 1 Ustal dla których a, b R można podzelć f 1 X) = X 4 3X 2 + ax b przez f 2 X) = X 2 3X+2 Oblcz a b Z 5 jeżel zak ladamy, że f 1 f 2 s a welomanam

Bardziej szczegółowo

Ćwiczenie 10. Metody eksploracji danych

Ćwiczenie 10. Metody eksploracji danych Ćwczene 10. Metody eksploracj danych Grupowane (Clusterng) 1. Zadane grupowana Grupowane (ang. clusterng) oznacza grupowane rekordów, obserwacj lub przypadków w klasy podobnych obektów. Grupa (ang. cluster)

Bardziej szczegółowo

MATEMATYKA POZIOM ROZSZERZONY Kryteria oceniania odpowiedzi. Arkusz A II. Strona 1 z 5

MATEMATYKA POZIOM ROZSZERZONY Kryteria oceniania odpowiedzi. Arkusz A II. Strona 1 z 5 MATEMATYKA POZIOM ROZSZERZONY Krytera ocenana odpowedz Arkusz A II Strona 1 z 5 Odpowedz Pytane 1 2 3 4 5 6 7 8 9 Odpowedź D C C A B 153 135 232 333 Zad. 10. (0-3) Dana jest funkcja postac. Korzystając

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6 Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Zastosowane modelu potęgowego Model potęgowy Przekształcene Boxa-Coxa 2. Zmenne cągłe za zmenne dyskretne 3. Interpretacja parametrów przy zmennych dyskretnych

Bardziej szczegółowo

Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba

Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 1 Ćwczene 2: Perceptron WYMAGANIA 1. Sztuczne sec neuronowe budowa oraz ops matematyczny perceptronu (funkcje przejśca perceptronu), uczene perceptronu

Bardziej szczegółowo

7. Maszyny wektorów podpierajacych SVMs

7. Maszyny wektorów podpierajacych SVMs Algorytmy rozpoznawania obrazów 7. Maszyny wektorów podpierajacych SVMs dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Maszyny wektorów podpierajacych - SVMs Maszyny wektorów podpierających (ang.

Bardziej szczegółowo

Mikroekonometria 5. Mikołaj Czajkowski Wiktor Budziński

Mikroekonometria 5. Mikołaj Czajkowski Wiktor Budziński Mkroekonometra 5 Mkołaj Czajkowsk Wktor Budzńsk Uogólnone modele lnowe Uogólnone modele lnowe (ang. Generalzed Lnear Models GLM) Różną sę od standardowego MNK na dwa sposoby: Rozkład zmennej objaśnanej

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 18. ALGORYTMY EWOLUCYJNE - ZASTOSOWANIA Częstochowa 2014 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska ZADANIE ZAŁADUNKU Zadane załadunku plecakowe

Bardziej szczegółowo

Wykład IX Optymalizacja i minimalizacja funkcji

Wykład IX Optymalizacja i minimalizacja funkcji Wykład IX Optymalzacja mnmalzacja funkcj Postawene zadana podstawowe dee jego rozwązana Proste metody mnmalzacj Metody teracj z wykorzystanem perwszej pochodnej Metody teracj z wykorzystanem drugej pochodnej

Bardziej szczegółowo

I. Elementy analizy matematycznej

I. Elementy analizy matematycznej WSTAWKA MATEMATYCZNA I. Elementy analzy matematycznej Pochodna funkcj f(x) Pochodna funkcj podaje nam prędkość zman funkcj: df f (x + x) f (x) f '(x) = = lm x 0 (1) dx x Pochodna funkcj podaje nam zarazem

Bardziej szczegółowo

Wielokryterialny Trójwymiarowy Problem Pakowania

Wielokryterialny Trójwymiarowy Problem Pakowania Łukasz Kacprzak, Jarosław Rudy, Domnk Żelazny Instytut Informatyk, Automatyk Robotyk, Poltechnka Wrocławska Welokryteralny Trójwymarowy Problem Pakowana 1. Wstęp Problemy pakowana należą do klasy NP-trudnych

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6 Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Interpretacja parametrów przy zmennych objaśnających cągłych Semelastyczność 2. Zastosowane modelu potęgowego Model potęgowy 3. Zmenne cągłe za zmenne dyskretne

Bardziej szczegółowo

WikiWS For Business Sharks

WikiWS For Business Sharks WkWS For Busness Sharks Ops zadana konkursowego Zadane Opracowane algorytmu automatyczne przetwarzającego zdjęce odręczne narysowanego dagramu na tablcy lub kartce do postac wektorowej zapsanej w formace

Bardziej szczegółowo

KONSPEKT WYKŁADU. nt. METODA ELEMENTÓW SKOŃCZONYCH TEORIA I ZASTOSOWANIA. Piotr Konderla

KONSPEKT WYKŁADU. nt. METODA ELEMENTÓW SKOŃCZONYCH TEORIA I ZASTOSOWANIA. Piotr Konderla Studa doktorancke Wydzał Budownctwa Lądowego Wodnego Poltechnk Wrocławskej KONSPEKT WYKŁADU nt. METODA ELEMENTÓW SKOŃCZONYCH TEORIA I ZASTOSOWANIA Potr Konderla maj 2007 Kurs na Studach Doktoranckch Poltechnk

Bardziej szczegółowo

Analiza rodzajów skutków i krytyczności uszkodzeń FMECA/FMEA według MIL STD - 1629A

Analiza rodzajów skutków i krytyczności uszkodzeń FMECA/FMEA według MIL STD - 1629A Analza rodzajów skutków krytycznośc uszkodzeń FMECA/FMEA według MIL STD - 629A Celem analzy krytycznośc jest szeregowane potencjalnych rodzajów uszkodzeń zdentyfkowanych zgodne z zasadam FMEA na podstawe

Bardziej szczegółowo

Diagnostyka układów kombinacyjnych

Diagnostyka układów kombinacyjnych Dagnostyka układów kombnacyjnych 1. Wprowadzene Dagnostyka obejmuje: stwerdzene stanu układu, systemu lub ogólne sec logcznej. Jest to tzw. kontrola stanu wykrywająca czy dzałane sec ne jest zakłócane

Bardziej szczegółowo

Weryfikacja hipotez dla wielu populacji

Weryfikacja hipotez dla wielu populacji Weryfkacja hpotez dla welu populacj Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Intelgencj Metod Matematycznych Wydzał Informatyk Poltechnk Szczecńskej 5. Parametryczne testy stotnośc w

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka. Wykład 11

Stanisław Cichocki. Natalia Nehrebecka. Wykład 11 Stansław Cchock Natala Nehrebecka Wykład 11 1 1. Testowane hpotez łącznych 2. Testy dagnostyczne Testowane prawdłowośc formy funkcyjnej: test RESET Testowane normalnośc składnków losowych: test Jarque-Berra

Bardziej szczegółowo

Neural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych.

Neural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych. Neural networks Lecture Notes n Pattern Recognton by W.Dzwnel Krótka hstora McCulloch Ptts (1943) - perwszy matematyczny ops dzalana neuronu przetwarzana przez nego danych. Proste neurony, które mogly

Bardziej szczegółowo

Diagonalizacja macierzy kwadratowej

Diagonalizacja macierzy kwadratowej Dagonalzacja macerzy kwadratowej Dana jest macerz A nân. Jej wartośc własne wektory własne spełnają równane Ax x dla,..., n Każde z równań własnych osobno można zapsać w postac: a a an x x a a an x x an

Bardziej szczegółowo

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych Najprostsza jest jednostka lnowa: Neuron lnowy potraf ona rozpoznawać wektor wejścowy X = (x 1, x 2,..., x n ) T zapamętany we współczynnkach wagowych W = (w 1, w 2,..., w n ), Zauważmy, że y = W X Załóżmy,

Bardziej szczegółowo

Podstawy teorii falek (Wavelets)

Podstawy teorii falek (Wavelets) Podstawy teor falek (Wavelets) Ψ(). Transformaca Haara (97).. Przykład pewne metody zapsu obrazu Transformaca Haara Przykład zapsu obrazu -D Podstawy matematyczne transformac Algorytmy rozkładana funkc

Bardziej szczegółowo

APROKSYMACJA QUASIJEDNOSTAJNA

APROKSYMACJA QUASIJEDNOSTAJNA POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 73 Electrcal Engneerng 213 Jan PURCZYŃSKI* APROKSYMACJA QUASIJEDNOSTAJNA W pracy wykorzystano metodę aproksymacj średnokwadratowej welomanowej, przy

Bardziej szczegółowo

Popularne klasyfikatory w pakietach komputerowych

Popularne klasyfikatory w pakietach komputerowych Popularne klasyfikatory w pakietach komputerowych Klasyfikator liniowy Uogólniony klasyfikator liniowy SVM aiwny klasyfikator bayesowski Ocena klasyfikatora ROC Lista popularnych pakietów Klasyfikator

Bardziej szczegółowo

Pokazać, że wyżej zdefiniowana struktura algebraiczna jest przestrzenią wektorową nad ciałem

Pokazać, że wyżej zdefiniowana struktura algebraiczna jest przestrzenią wektorową nad ciałem Zestaw zadań : Przestrzene wektorowe. () Wykazać, że V = C ze zwykłym dodawanem jako dodawanem wektorów operacją mnożena przez skalar : C C C, (z, v) z v := z v jest przestrzeną lnową nad całem lczb zespolonych

Bardziej szczegółowo

Prawdopodobieństwo i statystyka r.

Prawdopodobieństwo i statystyka r. Prawdopodobeństwo statystya.05.00 r. Zadane Zmenna losowa X ma rozład wyładnczy o wartośc oczewanej, a zmenna losowa Y rozład wyładnczy o wartośc oczewanej. Obe zmenne są nezależne. Oblcz E( Y X + Y =

Bardziej szczegółowo

Mikroekonometria 13. Mikołaj Czajkowski Wiktor Budziński

Mikroekonometria 13. Mikołaj Czajkowski Wiktor Budziński Mkroekonometra 13 Mkołaj Czajkowsk Wktor Budzńsk Symulacje Analogczne jak w przypadku cągłej zmennej zależnej można wykorzystać metody Monte Carlo do analzy różnego rodzaju problemów w modelach gdze zmenna

Bardziej szczegółowo

Evaluation of estimation accuracy of correlation functions with use of virtual correlator model

Evaluation of estimation accuracy of correlation functions with use of virtual correlator model Jadwga LAL-JADZIAK Unwersytet Zelonogórsk Instytut etrolog Elektrycznej Elżbeta KAWECKA Unwersytet Zelonogórsk Instytut Informatyk Elektronk Ocena dokładnośc estymacj funkcj korelacyjnych z użycem modelu

Bardziej szczegółowo

4.1. Wprowadzenie...70 4.2. Podstawowe definicje...71 4.3. Algorytm określania wartości parametrów w regresji logistycznej...74

4.1. Wprowadzenie...70 4.2. Podstawowe definicje...71 4.3. Algorytm określania wartości parametrów w regresji logistycznej...74 3 Wykaz najważniejszych skrótów...8 Przedmowa... 10 1. Podstawowe pojęcia data mining...11 1.1. Wprowadzenie...12 1.2. Podstawowe zadania eksploracji danych...13 1.3. Główne etapy eksploracji danych...15

Bardziej szczegółowo

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Wykład 2: Uczenie nadzorowane sieci neuronowych - I Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za

Bardziej szczegółowo

System Przeciwdziałania Powstawaniu Bezrobocia na Terenach Słabo Zurbanizowanych SPRAWOZDANIE Z BADAŃ Autor: Joanna Wójcik

System Przeciwdziałania Powstawaniu Bezrobocia na Terenach Słabo Zurbanizowanych SPRAWOZDANIE Z BADAŃ   Autor: Joanna Wójcik Opracowane w ramach projektu System Przecwdzałana Powstawanu Bezroboca na Terenach Słabo Zurbanzowanych ze środków Europejskego Funduszu Społecznego w ramach Incjatywy Wspólnotowej EQUAL PARTNERSTWO NA

Bardziej szczegółowo

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Wykład 2: Uczenie nadzorowane sieci neuronowych - I Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za

Bardziej szczegółowo

Stanisław Cichocki Natalia Nehrebecka. Zajęcia 4

Stanisław Cichocki Natalia Nehrebecka. Zajęcia 4 Stansław Cchock Natala Nehrebecka Zajęca 4 1. Interpretacja parametrów przy zmennych zerojedynkowych Zmenne 0-1 Interpretacja przy zmennej 0 1 w modelu lnowym względem zmennych objaśnających Interpretacja

Bardziej szczegółowo

p Z(G). (G : Z({x i })),

p Z(G). (G : Z({x i })), 3. Wykład 3: p-grupy twerdzena Sylowa. Defncja 3.1. Nech (G, ) będze grupą. Grupę G nazywamy p-grupą, jeżel G = dla pewnej lczby perwszej p oraz k N. Twerdzene 3.1. Nech (G, ) będze p-grupą. Wówczas W

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka. Wykład 7

Stanisław Cichocki. Natalia Nehrebecka. Wykład 7 Stansław Cchock Natala Nehrebecka Wykład 7 1 1. Zmenne cągłe a zmenne dyskretne 2. Interpretacja parametrów przy zmennych dyskretnych 1. Zmenne cągłe a zmenne dyskretne 2. Interpretacja parametrów przy

Bardziej szczegółowo

1 Metody optymalizacji wielokryterialnej... 1 1.1 Ogólna charakterystyka problemu... 1 1.2 Tradycyjne metody optymalizacji wielokryterialnej...

1 Metody optymalizacji wielokryterialnej... 1 1.1 Ogólna charakterystyka problemu... 1 1.2 Tradycyjne metody optymalizacji wielokryterialnej... 1 Metody optymalzacj welokryteralnej.... 1 1.1 Ogólna charakterystyka problemu.... 1 1.2 Tradycyjne metody optymalzacj welokryteralnej.... 3 1.2.1 Metoda ważonych kryterów.... 3 1.2.2 Metoda optymalzacj

Bardziej szczegółowo

Plan wykładu: Typowe dane. Jednoczynnikowa Analiza wariancji. Zasada: porównać zmienność pomiędzy i wewnątrz grup

Plan wykładu: Typowe dane. Jednoczynnikowa Analiza wariancji. Zasada: porównać zmienność pomiędzy i wewnątrz grup Jednoczynnkowa Analza Waranc (ANOVA) Wykład 11 Przypomnene: wykłady zadana kursu były zaczerpnęte z podręcznków: Statystyka dla studentów kerunków techncznych przyrodnczych, J. Koronack, J. Melnczuk, WNT

Bardziej szczegółowo

Pattern Classification

Pattern Classification Pattern Classfcaton All materals n these sldes ere taken from Pattern Classfcaton nd ed by R. O. Duda, P. E. Hart and D. G. Stork, John Wley & Sons, 000 th the permsson of the authors and the publsher

Bardziej szczegółowo

Wprowadzenie do Sieci Neuronowych Sieci rekurencyjne

Wprowadzenie do Sieci Neuronowych Sieci rekurencyjne Wprowadzene do Sec Neuronowych Sec rekurencyjne M. Czoków, J. Persa 2010-12-07 1 Powtórzene Konstrukcja autoasocjatora Hopfelda 1.1 Konstrukcja Danych jest m obrazów wzorcowych ξ 1..ξ m, gdze każdy pojedynczy

Bardziej szczegółowo

Wielokategorialne systemy uczące się i ich zastosowanie w bioinformatyce. Rafał Grodzicki

Wielokategorialne systemy uczące się i ich zastosowanie w bioinformatyce. Rafał Grodzicki Welokategoralne systemy uząe sę h zastosowane w bonformatye Rafał Grodzk Welokategoralny system uząy sę (multlabel learnng system) Zbór danyh weśowyh: d X = R Zbór klas (kategor): { 2 } =...Q Zbór uząy:

Bardziej szczegółowo

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH

STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH 1 Test zgodnośc χ 2 Hpoteza zerowa H 0 ( Cecha X populacj ma rozkład o dystrybuance F). Hpoteza alternatywna H1( Cecha X populacj

Bardziej szczegółowo

2012-10-11. Definicje ogólne

2012-10-11. Definicje ogólne 0-0- Defncje ogólne Logstyka nauka o przepływe surowców produktów gotowych rodowód wojskowy Utrzyywane zapasów koszty zwązane.n. z zarożene kaptału Brak w dostawach koszty zwązane.n. z przestoje w produkcj

Bardziej szczegółowo

Instrukcja do ćwiczeń laboratoryjnych z przedmiotu: Badania operacyjne. Temat ćwiczenia: Problemy rozkroju materiałowego, zagadnienia dualne

Instrukcja do ćwiczeń laboratoryjnych z przedmiotu: Badania operacyjne. Temat ćwiczenia: Problemy rozkroju materiałowego, zagadnienia dualne Instrukca do ćwczeń laboratorynych z przedmotu: Badana operacyne Temat ćwczena: Problemy rozkrou materałowego, zagadnena dualne Zachodnopomorsk Unwersytet Technologczny Wydzał Inżyner Mechanczne Mechatronk

Bardziej szczegółowo

Zapis informacji, systemy pozycyjne 1. Literatura Jerzy Grębosz, Symfonia C++ standard. Harvey M. Deitl, Paul J. Deitl, Arkana C++. Programowanie.

Zapis informacji, systemy pozycyjne 1. Literatura Jerzy Grębosz, Symfonia C++ standard. Harvey M. Deitl, Paul J. Deitl, Arkana C++. Programowanie. Zaps nformacj, systemy pozycyjne 1 Lteratura Jerzy Grębosz, Symfona C++ standard. Harvey M. Detl, Paul J. Detl, Arkana C++. Programowane. Zaps nformacj w komputerach Wszystke elementy danych przetwarzane

Bardziej szczegółowo

Programowanie Równoległe i Rozproszone

Programowanie Równoległe i Rozproszone Programowane Równoległe Rozproszone Wykład Programowane Równoległe Rozproszone Lucjan Stapp Wydzał Matematyk Nauk Informacyjnych Poltechnka Warszawska (l.stapp@mn.pw.edu.pl) /38 PRR Wykład Chcemy rozwązać

Bardziej szczegółowo

ALGEBRY HALLA DLA POSETÓW SKOŃCZONEGO TYPU PRINJEKTYWNEGO

ALGEBRY HALLA DLA POSETÓW SKOŃCZONEGO TYPU PRINJEKTYWNEGO ALGEBRY HALLA DLA POSETÓW SKOŃCZONEGO TYPU PRINJEKTYWNEGO NA PODSTAWIE REFERATU JUSTYNY KOSAKOWSKIEJ. Moduły prnjektywne posety skończonego typu prnjektywnego Nech I będze skończonym posetem. Przez max

Bardziej szczegółowo

Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1

Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1 Weryfikacja hipotez statystycznych KG (CC) Statystyka 26 V 2009 1 / 1 Sformułowanie problemu Weryfikacja hipotez statystycznych jest drugą (po estymacji) metodą uogólniania wyników uzyskanych w próbie

Bardziej szczegółowo

Procedura normalizacji

Procedura normalizacji Metody Badań w Geograf Społeczno Ekonomcznej Procedura normalzacj Budowane macerzy danych geografcznych mgr Marcn Semczuk Zakład Przedsęborczośc Gospodark Przestrzennej Instytut Geograf Unwersytet Pedagogczny

Bardziej szczegółowo

Zestaw zadań 4: Przestrzenie wektorowe i podprzestrzenie. Liniowa niezależność. Sumy i sumy proste podprzestrzeni.

Zestaw zadań 4: Przestrzenie wektorowe i podprzestrzenie. Liniowa niezależność. Sumy i sumy proste podprzestrzeni. Zestaw zadań : Przestrzene wektorowe podprzestrzene. Lnowa nezależność. Sumy sumy proste podprzestrzen. () Wykazać, że V = C ze zwykłym dodawanem jako dodawanem wektorów operacją mnożena przez skalar :

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt

Bardziej szczegółowo

65120/ / / /200

65120/ / / /200 . W celu zbadana zależnośc pomędzy płcą klentów ch preferencjam, wylosowano kobet mężczyzn zadano m pytane: uważasz za lepszy produkt frmy A czy B? Wynk były następujące: Odpowedź Kobety Mężczyźn Wolę

Bardziej szczegółowo

KOINCYDENTNOŚĆ MODELU EKONOMETRYCZNEGO A JEGO JAKOŚĆ MIERZONA WARTOŚCIĄ WSPÓŁCZYNNIKA R 2 (K)

KOINCYDENTNOŚĆ MODELU EKONOMETRYCZNEGO A JEGO JAKOŚĆ MIERZONA WARTOŚCIĄ WSPÓŁCZYNNIKA R 2 (K) STUDIA I PRACE WYDZIAŁU NAUK EKONOMICZNYCH I ZARZĄDZANIA NR 31 Mchał Kolupa Poltechnka Radomska w Radomu Joanna Plebanak Szkoła Główna Handlowa w Warszawe KOINCYDENTNOŚĆ MODELU EKONOMETRYCZNEGO A JEGO

Bardziej szczegółowo

EKONOMIA MENEDŻERSKA. Wykład 3 Funkcje produkcji 1 FUNKCJE PRODUKCJI. ANALIZA KOSZTÓW I KORZYŚCI SKALI. MINIMALIZACJA KOSZTÓW PRODUKCJI.

EKONOMIA MENEDŻERSKA. Wykład 3 Funkcje produkcji 1 FUNKCJE PRODUKCJI. ANALIZA KOSZTÓW I KORZYŚCI SKALI. MINIMALIZACJA KOSZTÓW PRODUKCJI. EONOMIA MENEDŻERSA Wykład 3 Funkcje rodukcj 1 FUNCJE PRODUCJI. ANAIZA OSZTÓW I ORZYŚCI SAI. MINIMAIZACJA OSZTÓW PRODUCJI. 1. FUNCJE PRODUCJI: JEDNO- I WIEOCZYNNIOWE Funkcja rodukcj określa zależność zdolnośc

Bardziej szczegółowo

Sieci Neuronowe 1 Michał Bereta

Sieci Neuronowe 1 Michał Bereta Wprowadzene Zagadnena Sztucznej Intelgencj laboratorum Sec Neuronowe 1 Mchał Bereta Sztuczne sec neuronowe można postrzegać jako modele matematyczne, które swoje wzorce wywodzą z bolog obserwacj ludzkch

Bardziej szczegółowo

Natalia Nehrebecka. Zajęcia 4

Natalia Nehrebecka. Zajęcia 4 St ł Cchock Stansław C h k Natala Nehrebecka Zajęca 4 1. Interpretacja parametrów przy zmennych zerojedynkowych Zmenne 0 1 Interpretacja przy zmennej 0 1 w modelu lnowym względem zmennych objaśnających

Bardziej szczegółowo

Statystyka. Zmienne losowe

Statystyka. Zmienne losowe Statystyka Zmenne losowe Zmenna losowa Zmenna losowa jest funkcją, w której każdej wartośc R odpowada pewen podzbór zboru będący zdarzenem losowym. Zmenna losowa powstaje poprzez przyporządkowane każdemu

Bardziej szczegółowo

Natalia Nehrebecka Stanisław Cichocki. Wykład 10

Natalia Nehrebecka Stanisław Cichocki. Wykład 10 Natala Nehrebecka Stansław Cchock Wykład 10 1 1. Testy dagnostyczne 2. Testowane prawdłowośc formy funkcyjnej modelu 3. Testowane normalnośc składnków losowych 4. Testowane stablnośc parametrów 5. Testowane

Bardziej szczegółowo

Metody gradientowe poszukiwania ekstremum. , U Ŝądana wartość napięcia,

Metody gradientowe poszukiwania ekstremum. , U Ŝądana wartość napięcia, Metody gradentowe... Metody gradentowe poszukwana ekstremum Korzystają z nformacj o wartośc funkcj oraz jej gradentu. Wykazując ch zbeŝność zakłada sę, Ŝe funkcja celu jest ogranczona od dołu funkcją wypukłą

Bardziej szczegółowo

Pesymistyczna złożoność obliczeniowa algorytmu faktoryzacji Fact

Pesymistyczna złożoność obliczeniowa algorytmu faktoryzacji Fact Pesymstyczna złożoność oblczenowa algorytmu faktoryzacj Fact Lech Madeysk 1, Zygmunt Mazur Poltechnka Wrocławska, Wydzał Informatyk Zarządzana, Wydzałowy Zakład Informatyk Wybrzeże Wyspańskego 7, 50-370

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE METODY KLASYFIKACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

SYSTEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE METODY KLASYFIKACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska. SYSEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE MEODY KLASYFIKACJI Częstochowa 4 Dr hab. nż. Grzegorz Dude Wydzał Eletryczny Poltechna Częstochowsa FUNKCJE FISHEROWSKA DYSKRYMINACYJNE DYSKRYMINACJA I MASZYNA LINIOWA

Bardziej szczegółowo

Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner

Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner Wydział Matematyki i Nauk Informacyjnych Politechnika Warszawska Elementy nieprzystające Definicja odrzucania Klasyfikacja

Bardziej szczegółowo

Zmodyfikowana technika programowania dynamicznego

Zmodyfikowana technika programowania dynamicznego Zmodyfkowana technka programowana dynamcznego Lech Madeysk 1, Zygmunt Mazur 2 Poltechnka Wrocławska, Wydzał Informatyk Zarządzana, Wydzałowy Zakład Informatyk Wybrzeże Wyspańskego 27, 50-370 Wrocław Streszczene.

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-10 Projekt pn. Wzmocnienie

Bardziej szczegółowo

Prawdopodobieństwo geometryczne

Prawdopodobieństwo geometryczne Prawdopodobeństwo geometryczne Przykład: Przestrzeń zdarzeń elementarnych określona jest przez zestaw punktów (x, y) na płaszczyźne wypełna wnętrze kwadratu [0 x ; 0 y ]. Znajdź p-stwo, że dowolny punkt

Bardziej szczegółowo