SVM Support Vector Machines Metoda wektorów nośnych
|
|
- Renata Dąbrowska
- 7 lat temu
- Przeglądów:
Transkrypt
1 SVM Support Vector Machnes Metoda wektorów nośnych JERZY STEFANOWSKI Insttute of Computng Scences, Poznań Unversty of Technology UM slajdy dodatkowe do wykładu
2 Plan wykładu. Lnowa separowalność w statystycznej klasyfkacj. Podstawy metody SVM 3. Uogólnene SVM (ne w pełn separowalne lnowo) 4. Funkcje jądrowe (kernal functons) 5. SVM dla danych separowalnych nelnowo 6. Podsumowane 7. Gdze szukać węcej
3 Formalzacja problemu klasyfkacj W przestrzen danych (ang. measurement space) Ω znajdują sę wektory danych stanowące próbkę uczącą D, należące do dwóch klas {( ) p } N c R, c {, } D =, = Szukamy klasyfkatora pozwalającego na podzał całej przestrzen Ω na dwa rozłączne obszary odpowadającej klasom {,-} oraz pozwalającego jak najlepej klasyfkować nowe obekty do klas Podejśce opera sę na znalezenu tzw. grancy decyzyjnej mędzy klasam g()
4 Separowalność lnowa Dwe klasy są lnowo separowalne, jeśl stneje hperpłaszczyzna H postac g() g() przyjmująca wartośc T = w + b g( ) g( ) > < 0 0 Jak poszukwać takej hperpłaszczyzny grancznej?
5 Lnowa funkcja separująca y Funkcja lnowa separująca Wyznacza podzał przestrzen na obszary odpowadające dwóm klasom decyzyjnym. Orygnalna propozycja Fsher, ale także nne metody (perceptron, tp..) Uogólnena dla welu klas.
6 Support Vector Machnes Znajdź lnową hperpłaszczyznę (decson boundary) oddzelające obszary przykładów z dwóch różnych klas
7 Support Vector Machnes Jedno z możlwych rozwązań
8 Support Vector Machnes Inne możlwe rozwązane
9 Support Vector Machnes Zbór welu możlwych rozwązań
10 Support Vector Machnes Którą z hperpłaszczyzn należy wybrać? B or B? Czy można to formalne zdefnować?
11 Uwag o margnese Hperpłaszczyzny b b są otrzymane przez równoległe przesuwane hperpłaszczyzny grancznej aż do perwszych punktów z obu klas. Odległość mędzy nm margnes klasyfkatora lnowego Jak margnes wyberać?
12 Węższe czy szersze margnesy? Szerszy margnes lepsze własnośc generalzacj, mnejsza podatność na ew. przeuczene (overfttng) Wąsk margnes mała zmana grancy, radykalne zmany klasyfkacj Small Margn Large Margn Support Vectors
13 Teora Structural rsk mnmzaton Oszacowane górnej grancy błędu ze względu na błąd uczący R e, lczbę przykładów N tzw. model complety h z prawdopodobeństwem -η generalzaton error ne przekroczy: h log( η) R Re + ϕ(, ) N N Prace teoretyczne h complety dla modelu lnowego: Models wth small margns have hgher capacty -complety because they are more flevle and can ft many tranng sets Także The hypothess space wth mnmal VC-dmenson accordng to SRM Reasumując modele o wekszej complety mają gorsze oszacowane błędu Dlatego wyberaj wększy margnes!
14 Support Vector Machnes Znajdź hperpłaszycznę, która maksymalzuje tzw. margnes => B jest lepsze nż B
15 Lnowe SVM hperpłaszczyzna granczna Vapnk poszukuj mamal margn classfer gdze w b są parametram modelu Parametry grancy wyznaczaj tak, aby maksymalne margnesy b b były mejscem geometrycznym punktów spełnających warunk Margnes odległość mędzy płaszczyznam b b = 0 + b w = + = + b w b w b b < + > + = 0 0 b w b w y
16 Poszukwane parametrów hperpłaszczyzny w r r + b = 0 w r r w r r + b = + + b = f r r r f w + b ( ) = r r f w + b
17 Ilustracje sposób przekształceń margn = w w w w p margn = w Cel: Maksymalzuj margnes! w w w mamze mnmze mnmze
18 Lnear Support Vector Machnes Sformułowane mat. problemu: mn w w = Przy warunkach ogranczających y ( w + b) =,, K, N Jest to problem optymalzacj kwadratowej z lnowym ogr. uogólnone zadane optymalzacj rozwązywany metodą mnożnków Lagrange a (tak aby np. ne dojść do w 0)
19 LSVM Mnmalzuj funkcję Lagrange a N L( w, b, α) = w = α( y ( w parametry α 0 mnożnk Lagrange a + b) ) Pownno sę różnczkować L po w b nadal trudnośc w rozwązanu Przy przekształcenach wykorzystuje sę ogranczena Karush- Kuhn-Tucker na mnożnk: α [ y α 0 ( w + b) ] = 0 W konsekwencj α są nezerowe wyłączne dla wektorów nośnych, pozostałe są zerowe Rozwązane parametrów w b zależy wyłączne od wektorów nośnych.
20 LSVM sformułowane dualne Nadal zbyt wele parametrów w,b,α do oszacowana Przechodz sę na postać dualną zadana optymalzacj Maksymalzuj L(α) Przy ogranczenach α 0, α y 0 Rozwązane (α>0 dla SV) ; b odpowedno uśrednane Hperpłaszczyzna decyzyjna N = N = α w = N = α y N N α = j= α j = N = α y + b = 0 y y j ( j)
21 ozwązane LSVM Klasyfkacja funkcja decyzyjna N f ( ) = sgn( α y + = O ostatecznej postac hperpłaszczyzny decydują wyłączne wektory nośne (α >0) Im wększa wartość α tym wększy wpływ wektora na grancę decyzyjną Klasyfkacja zależy od loczynu skalarnego nowego z wektoram nośnym ze zboru uczącego Pewne założene metody starać sę zbudować klasyfkator lnowy używając możlwe mnmalną lczbę wektorów z danych trenngowych (wektory nośne) Funkcjonalne klasyfkator podobny do nektórych sec neuronowej, metod jądrowych Parzena b)
22 Przykład Oblczmy wag = α = α y = ( ) = y = ( ) 0.6 = 9. 3 ' b = ( 6.64) ( 9.3)(0.4687) = b '' = ( 6.64) ( 9.3)(0.6) = 7.98 b = 0.5 ( b + b ' '' ) = 7.93
23 Support Vector Machnes Co robć z LSVM gdy dane ne są w pełn lnowo separowalne?
24 Jak użyć SVM dla dane lnowo neseparowalnych
25 Zmenne dopełnające
26 Zmenne osłabające - nterpretacja Zmenne ξ 0 dobera sę dla każdego przykładu uczącego. Jej wartość zmnejsza margnes separacj. (rodzaj zwsu punktu poza hperpłaszczyzną nośną) Jeżel 0 ξ, to punkt danych (,d ) leży wewnątrz strefy separacj, ale po właścwej strone Jeżel ξ >, punkt po newłaścwej strone hperpłaszczyzny wystąp błąd klasyfkacj Modyfkacja wymagań dla wektorów nośnych b b w + w + b = ξ b = + ς
27 Lnear SVM nepełna separowalność w For all w + w b + For w + w + ξ b...for some postve ξ Task: Mamze the margn and mnmse tranng errors w w B E C S O M E + C ( ξ )
28 SVM z dodatkowym zmennym Jak przedefnować sformułowane? Z dodatkowym zmennym dopełnającym oraz kosztem błędu na danych uczących Mmmalzuj wyrażene: z ogranczenam: f ( r ) = r N w = + k L( w) C ξ = r r f w + b - ξ r r f w + b + ξ Drug czynnk odpowada za ew. błędy testowana (górne oszacowane tych błędów Parametr C ocena straty zwązanej z każdym błędne klasyfkowanym punktem dla które ξ>0 Przetarg szerok margnes to dużo błędów odwrotne
29
30 Rozwązane problemu w Ponowne dojdzemy do dualnego problemu: Ma: W(α) = m = α m m αα j = j= y y j j Programowane kwadratowe (QP) : trudnośc rozwazana przeformułuj problem Globalne ma α może być ograncz: () () 0 α C, m = α y = 0
31
32 Nonlnear Support Vector Machnes Co zrobć gdy próby uczące pownny być nelnowo separowalne?
33 Nonlnear Support Vector Machnes Transformacja do wysoce welowymarowej przestrzen
34 SVM Transformacje Przykład transformacj D D Projekcja danych orygnalnych R p w nową m>p welowymarową przestrzeń, w której z dużym prawdopodobeństwem będą separowalne lnowo (Twerdzena matem. np. Covera) Przykład przekształcena welomanowe wyższego stopna gdze do zmennych dołącza sę ch p-te potęg oraz loczyny meszane. (0,) (0,0) + (,0)
35 Przykład transformacj welomanowej
36 Przykład transformacj welomanowej Orygnalna funkcja celu Transformacja Poszukujemy parametrów Rozwązane > + = otherwse y ) ( 0.5) ( ), (,),,, ( ), ( : Φ = w w w w w 0.46 = +
37
38 lka defncj Przykłady danych do klasyfkacj
39 Model nelnowy SVM Funkcja decyzyjna po przekształcenu Zasady klasyfkacj Sformułowane problemu nelnowego SVM Podobne jak poprzedno optymalzujemy funkcje z mnożnkam Lagrange a Funkcja klasyfkująca g + b = ) ( ) ( w ϕ 0 ) ( 0 ) ( < > + g g mn w w = N b w y,,, ) ) ( ( K = + Φ ( ) ) ( ) ( j j N N j j N y y Φ Φ = = = α α α = + Φ Φ = N b y sgn f ) ) ( ) ( ( ) ( α
40 Curse of dmensonalty and Oblcz Φ( ) Φ( j ) Problem: Trudne oblczenowo do wykonana! Wele parametrów do oszacowana - weloman stopna p dla N atrybutów w orygnalnej przestrzen prowadz do P O( N ) atrybutów w nowej rozszerzonej F feature space Skorzystaj z dot product (loczynu skalarnego) na wektorach wejścowych jako mary podobeństwa wektorów Iloczyn Φ( ) Φ( j ) może być odnesony do podobeństwa wektorów j w transformowanej rozszerzonej przestrzen Idea kernel (funkcj jądrowych) Proste funkcje K dwóch argumentów wektorowych pozwalają oblczyć wartość loczynu skalarnego w rozszerzonej przestrzen
41 Co to są funkcje jądrowe (Kernel functon) Wywodzą sę z badań lnowych przestrzen wektorowych, przestrzen Hlberta, Banacha Intucyjne są to stosunkowo proste symetryczne K(, j ) zależne od odległośc mędzy j które spełnają pewne wymagana matem. K( u) du =, σ K = uk( u) du > K( u) 0, 0
42 Wnosek z twerdzena Mercera Własność podstawą tzw. trku kernelowego (kernel trck ) :... map the data nto some other scalar product space (feature space) F by means of a nonlnear mappng lke the above, and perform the lnear algorthm (lke decson boundary for classes) n the feature space F. In many cases the mappng Φ cannot be eplctly computed, due to the hgh-dmensonalty of F. But ths s not an obstacle, when the decson functon requres the evaluaton of scalar products Φ() Φ (y), and not the pattern Φ() n eplct form. [Camastra] every dot product s replaced by a non-lnear kernel functon.
43 ypowo stosowane jądra Dopuszczalne typy jąder zwązane z SVM Normalne (Gaussowske) Welomanowe sgmodalne K(, j j ( ) = ep{ σ K (, ) = ( + d) j j ) } K(, ) tgh( κ δ ) j = j p
44 Przykład prostego przekształcena welomanowego SVM: the kernel trck The kernel trck: ( ) ( ) ) ( ) (,,,, ) ( ), ( j j j j j j j Φ Φ = = = ( ) j j N N j j N K y y = = = α α α Orgnal optmzaton functon: Ne musmy znać funkcj Ф, wystarczy znać jądro (kernel)
45 Funkcja decyzyjna Wykorzystane funkcj jądrowych f ( ) = sgn sgn ( N ) α y b Φ( ) Φ( ) + = ( N ) α y K(, ) + b = Model klasyfkacj bnarnej rozszerza sę na zagadnene weloklasowe K > Specyfczne konstrukcje złożone: one-versus-all Parwse classfcaton (Haste, )
46
47
48 Gaussan kernel, C=0000, 0CV, 00% tran, 79.3 ± 7.8 test Gaussan kernel, C=, 0CV, 93.8% tran, 8.6 ± 8.0 test Auto C=3 and Gaussan dsperson 0.004: about 84.4 ± 5. on test Eample : Cleveland heart data Left: D MDS features, lnear SVM, C=, acc. 8.9% Rght: support vectors removed, margn s clear.
49 Przykładowe zastosowana Można sę zapoznać z lstą: A few nterestng applcatons, wth hghly compettve results: On-lne Handwrtng Recognton, zp codes 3D object recognton Stock forecastng Intruson Detecton Systems (IDSs) Image classfcaton Detectng Steganography n dgtal mages Medcal applcatons: dagnostcs, survval rates... Techncal: Combuston Engne Knock Detecton Elementary Partcle Identfcaton n Hgh Energy Physcs Bonformatcs: proten propertes, genomcs, mcroarrays Informaton retreval, tet categorzaton
50 rochę hstor Wczesne lata sześćdzesąte została opracowana metoda support vectors w celu konstruowana hperpłaszczyzn do rozpoznawana obrazu ( Vapnk Lerner 963, Vapnk Czervonenks 964) lnowa SVM. Początek lat 990-sątych: uogólnene metody pozwalające na konstruowane nelnowych funkcj separujących (Boser 99, Cortes Vapnk 995). 995: dalsze rozszerzene pozwalające otrzymać estymację funkcj cągłej na wyjścu regresja (Vapnk 995).
51 Klka zagadn. efektywnego stosowana SVM Normalzuj sygnały wejścowe Dobrze wyberz wartość C Wybór funkcj jądrowej Uogólnena dla problemów weloklasowych co jeszcze? Na le są skuteczne SVM w analze danych nezrównoważonych
52 Parę uwag podsumowujących Dane odwzorowane (przy pomocy funkcj jądrowych) w nową przestrzeń cech slna przewaga nad nnym metodam W nowej przestrzen dane pownny być lnowo separowalne W porównanu do nnych podejść welowymarowość przekształcena jest rozwązana przez trck kernelowy Pośredno ograncza sę nebezpeczeństwo przeuczena Teoretyczne poszukują mnmum globalnego a ne lokalnego (jak podejśca heurystyczne MLP) Ogranczena Dobór parametrów Skrajne podejśce black bo
53 ocne strony SVM Stopeń skomplkowana/pojemność jest nezależna od lczby wymarów. Bardzo dobra podbudowa statystyczno-teoretyczna Znajdowane mnmum glonalnego. Mnmalzujemy funkcję kwadratową co gwarantuje zawsze znalezene mnmum. Algorytm jest wydajny SVM generuje prawe optymalny klasyfkator. Ne jest tez czuły na przetrenowane. Dobre uogólnane dzęk welowymarowej feature space. Najważnejsze: poprzez użyce odpowednej funkcj jądra SVM bardzo duża skuteczność w praktyce Janfeng Feng, Susse Unversty
54 łabe strony SVM owolny trenng mnmalzacja funkcj, szczególne okuczlwy przy dużej lośc danych użytych do renngu. ozwązana też są skomplkowane (normalne >60% ektorów użytych do nauk staje sę wektoram sperającym), szczególne dla dużych lośc danych. Przykład (Haykn): poprawa o.5% ponad wynk osągnęty przez MLP. Ale MLP używał ukrytych węzłów, a SVM 85 wektorów. rudno dodać własną wedzę (pror knowledge) Janfeng Feng, Susse Unversty
55 Przetarg mędzy złożonoścą modelu a mnmalzacją błędów n. number of ranng errors, odel complety complety + mn. tranng errors mn. tranng errors complety Best trade-off Functons ordered n ncreasng complety
56 Odnośnk lteraturowe T.Haste, R.Tbshran, J.Fredman: The Elements of Statstcal Learnng. Sprnger poszukaj wersj elektroncznej pdf J.Koronack, J.Ćwk: Statystyczne systemy uczące sę (rozdz. 6) M.Krzyśko, W.Wołyńsk, T.Góreck,M.Skorzybut: Systemy uczące sę. S.Osowsk: Sec neuronowe w przetwarzanu nformacj.
57 Inne materały - nternet A.Bartkowak: Wykłady nt. Sec Neuronowych: w Kernele, sece SVM sec GDA. W.Duch: wyklady nt. Computatonal Intellgence html Angelska wersja Wkped Thorsten Joachms: Support Vector and Kernel Methods - SIGIR 003 Tutoral
58 SVM Related Lnks SVM Webste Representatve mplementatons LIBSVM: an effcent mplementaton of SVM, mult-class classfcatons, nu-svm, one-class SVM, ncludng also varous nterfaces wth java, python, etc. SVM-lght: smpler but performance s not better than LIBSVM, support only bnary classfcaton and only C language SVM-torch: another recent mplementaton also wrtten n C.
59 Inne odnośnk do lteratury anglojęzycznej Statstcal Learnng Theory by Vapnk: etremely hard to understand, contanng many errors too. C. J. C. Burges. A Tutoral on Support Vector Machnes for Pattern Recognton. Knowledge Dscovery and Data Mnng, (), 998. Better than the Vapnk s book, but stll wrtten too hard for ntroducton, and the eamples are so not-ntutve The book An Introducton to Support Vector Machnes by N. Crstann and J. Shawe-Taylor Also wrtten hard for ntroducton, but the eplanaton about the mercer s theorem s better than above lteratures The neural network book by Haykns
Wprowadzenie. Support vector machines (maszyny wektorów wspierających, maszyny wektorów nośnych) SVM służy do: Zalety metody SVM
SVM Wprowadzene Support vector machnes (maszyny wektorów wsperających, maszyny wektorów nośnych) SVM służy do: w wersj podstawowej klasyfkacj bnarnej w wersj z rozszerzenam regresj wyboru najważnejszych
Bardziej szczegółowoPattern Classification
attern Classfcaton All materals n these sldes were taken from attern Classfcaton nd ed by R. O. Duda,. E. Hart and D. G. Stork, John Wley & Sons, 000 wth the permsson of the authors and the publsher Chapter
Bardziej szczegółowoUCZENIE MASZYNOWE III - SVM. mgr inż. Adam Kupryjanow
UCZENIE MASZYNOWE III - SVM mgr inż. Adam Kupryjanow Plan wykładu Wprowadzenie LSVM dane separowalne liniowo SVM dane nieseparowalne liniowo Nieliniowy SVM Kernel trick Przykłady zastosowań Historia 1992
Bardziej szczegółowoAnaliza danych OGÓLNY SCHEMAT. http://zajecia.jakubw.pl/ Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja)
Analza danych Dane trenngowe testowe. Algorytm k najblższych sąsadów. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ OGÓLNY SCHEMAT Mamy dany zbór danych podzelony na klasy decyzyjne, oraz
Bardziej szczegółowoKlasyfkator lnowy Wstęp Klasyfkator lnowy jest najprostszym możlwym klasyfkatorem. Zakłada on lnową separację lnowy podzał dwóch klas mędzy sobą. Przedstawa to ponższy rysunek: 5 4 3 1 0-1 - -3-4 -5-5
Bardziej szczegółowoRozwiązywanie zadań optymalizacji w środowisku programu MATLAB
Rozwązywane zadań optymalzacj w środowsku programu MATLAB Zagadnene optymalzacj polega na znajdowanu najlepszego, względem ustalonego kryterum, rozwązana należącego do zboru rozwązań dopuszczalnych. Standardowe
Bardziej szczegółowoAnaliza danych. Analiza danych wielowymiarowych. Regresja liniowa. Dyskryminacja liniowa. PARA ZMIENNYCH LOSOWYCH
Analza danych Analza danych welowymarowych. Regresja lnowa. Dyskrymnacja lnowa. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ PARA ZMIENNYCH LOSOWYCH Parę zmennych losowych X, Y możemy
Bardziej szczegółowoData Mining Wykład 6. Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa.
GLM (Generalized Linear Models) Data Mining Wykład 6 Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa Naiwny klasyfikator Bayesa jest klasyfikatorem statystycznym -
Bardziej szczegółowoSztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311
Sztuczne sec neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyk, p. 311 Wykład 6 PLAN: - Repetto (brevs) - Sec neuronowe z radalnym funkcjam bazowym Repetto W aspekce archtektury: zajmowalśmy
Bardziej szczegółowoLaboratorium ochrony danych
Laboratorum ochrony danych Ćwczene nr Temat ćwczena: Cała skończone rozszerzone Cel dydaktyczny: Opanowane programowej metody konstruowana cał skończonych rozszerzonych GF(pm), poznane ch własnośc oraz
Bardziej szczegółowoSZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW
SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW Stefan WÓJTOWICZ, Katarzyna BIERNAT ZAKŁAD METROLOGII I BADAŃ NIENISZCZĄCYCH INSTYTUT ELEKTROTECHNIKI ul. Pożaryskego 8, 04-703 Warszawa tel.
Bardziej szczegółowoKlasyfikatory liniowe Linear classifiers
Klasyfkatory lnowe Lnear classfers JERZY STEFANOWSKI Insttute of Computng Scences, Poznań Unversty of Technology UMSN slady wykładu Wersa 2010 Plan 1. Lnowe klasyfkatory 2. Klasyczne lnowa analza dyskrymnacyna
Bardziej szczegółowoMonitorowanie i Diagnostyka w Systemach Sterowania
Montoroane Dagnostka Sstemach Steroana Katedra Inżner Sstemó Steroana Dr nż. Mchał Grochosk Montoroane Dagnostka Sstemach Steroana na studach II stopna specjalnośc: Sstem Steroana Podejmoana Deczj Maszn
Bardziej szczegółowoSupport Vector Machines for Text Categorization and Face Detection. Piotr Cybart Marcin Kluczyński Uniwersytet Wrocławski
Support Vector Machnes for Text Categorzaton and Face Detecton Potr Cybart Marcn Kluczyńsk Unwersytet Wrocławsk 08.03.2005 Support Vector Machnes Vapnk(1979) S dany zbór N punktów, dla x x R Każdy należy
Bardziej szczegółowoProblemy jednoczesnego testowania wielu hipotez statystycznych i ich zastosowania w analizie mikromacierzy DNA
Problemy jednoczesnego testowana welu hpotez statystycznych ch zastosowana w analze mkromacerzy DNA Konrad Furmańczyk Katedra Zastosowań Matematyk SGGW Plan referatu Testowane w analze mkromacerzy DNA
Bardziej szczegółowoSYSTEMY UCZĄCE SIĘ WYKŁAD 7. KLASYFIKATORY BAYESA. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.
SYSTEMY UCZĄCE SIĘ WYKŁAD 7. KLASYFIKATORY BAYESA Częstochowa 4 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska TWIERDZENIE BAYESA Wedza pozyskwana przez metody probablstyczne ma
Bardziej szczegółowoProjekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE
Inormatyka Podstawy Programowana 06/07 Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE 6. Równana algebraczne. Poszukujemy rozwązana, czyl chcemy określć perwastk rzeczywste równana:
Bardziej szczegółowoV. WPROWADZENIE DO PRZESTRZENI FUNKCYJNYCH
Krs na Stdach Doktoranckch Poltechnk Wrocławskej wersja: lty 007 34 V. WPROWADZENIE DO PRZESTRZENI FUNKCYJNYCH. Zbór np. lczb rzeczywstych a, b elementy zbor A a A b A, podzbór B zbor A : B A, sma zborów
Bardziej szczegółowoliniowym w przeciwnym przypadku mówimy o programowaniu nieliniowym.
=DGDQLHSROHJDMFHQDSRV]XNLZDQLXPDNV\PDOQHMOXEPLQLPDOQHMZDUWRFLIXQNFMLZLHOX ]PLHQQ\FKSU]\MHGQRF]HVQ\PVSHáQLHQLXSHZQHMLORFLQDáR*RQ\FKZDUXQNyZ UyZQDOXE QLHUyZQRFLQRVLQD]Z]DGDQLDRSW\PDOL]DF\MQHJROXE]DGDQLDSURJUDPRZDQLD
Bardziej szczegółowo) będą niezależnymi zmiennymi losowymi o tym samym rozkładzie normalnym z następującymi parametrami: nieznaną wartością 1 4
Zadane. Nech ( X, Y ),( X, Y ), K,( X, Y n n ) będą nezależnym zmennym losowym o tym samym rozkładze normalnym z następującym parametram: neznaną wartoścą oczekwaną EX = EY = m, warancją VarX = VarY =
Bardziej szczegółowoModelowanie i obliczenia techniczne. Metody numeryczne w modelowaniu: Optymalizacja
Modelowane oblczena technczne Metody numeryczne w modelowanu: Optymalzacja Zadane optymalzacj Optymalzacja to ulepszane lub poprawa jakośc danego rozwązana, projektu, opracowana. Celem optymalzacj jest
Bardziej szczegółowoZaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych
Zaawansowane metody numeryczne Komputerowa analza zagadneń różnczkowych 1. Układy równań lnowych P. F. Góra http://th-www.f.uj.edu.pl/zfs/gora/ semestr letn 2006/07 Podstawowe fakty Równane Ax = b, x,
Bardziej szczegółowo9 konkurs ICT Objective: 9.11 FET Proactive Neuro-bio. 9 konkurs ICT
Dzeń Informacyjny ICT dla podmotów zanteresowanych uczestnctwem w mędzynarodowych projektach B+R w ramach 7 Programu Ramowego: 9 konkurs ICT Warszawa, 31.01.2012 9 konkurs ICT Objectve: 9.11 FET Proactve
Bardziej szczegółowoKlasyfikatory neuronowe typu SVM w zastosowaniu do klasyfikacji przemieszczeń pionowych na obszarze LGOM
WARSZAY 2014 z cyklu: Górnctwo człowek środowsko: zrównoważony rozwój Mat. Symp. str. 64 77 Mara MRÓWCZYŃSKA Unwersytet Zelonogórsk, Zelona Góra Klasyfkatory neuronowe typu SVM w zastosowanu do klasyfkacj
Bardziej szczegółowody dx stąd w przybliżeniu: y
Przykłady do funkcj nelnowych funkcj Törnqusta Proszę sprawdzć uzasadnć, które z podanych zdań są prawdzwe, a które fałszywe: Przykład 1. Mesęczne wydatk na warzywa (y, w jednostkach penężnych, jp) w zależnośc
Bardziej szczegółowoWstęp do przetwarzania języka naturalnego. Wykład 11 Maszyna Wektorów Nośnych
Wstęp do przetwarzania języka naturalnego Wykład 11 Wojciech Czarnecki 8 stycznia 2014 Section 1 Przypomnienie Wektoryzacja tfidf Przypomnienie document x y z Antony and Cleopatra 5.25 1.21 1.51 Julius
Bardziej szczegółowoKURS STATYSTYKA. Lekcja 6 Regresja i linie regresji ZADANIE DOMOWE. www.etrapez.pl Strona 1
KURS STATYSTYKA Lekcja 6 Regresja lne regresj ZADANIE DOMOWE www.etrapez.pl Strona 1 Część 1: TEST Zaznacz poprawną odpowedź (tylko jedna jest prawdzwa). Pytane 1 Funkcja regresj I rodzaju cechy Y zależnej
Bardziej szczegółowoZaawansowane metody numeryczne
Wykład 9. jej modyfkacje. Oznaczena Będzemy rozpatrywać zagadnene rozwązana następującego układu n równań lnowych z n newadomym x 1... x n : a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x
Bardziej szczegółowoPOLITECHNIKA WARSZAWSKA WYDZIAŁ ELEKTRYCZNY SIECI NEURONOWE SVM W ZASTOSOWANIU DO KLASYFIKACJI OBRAZÓW KOMÓREK SZPIKU KOSTNEGO
POLITECHNIKA WARSZAWSKA WYDZIAŁ ELEKTRYCZNY Instytut Elektrotechnk Teoretycznej Systemów Informacyjno Pomarowych mgr nż. Tomasz Markewcz SIECI NEURONOWE SVM W ZASTOSOWANIU DO KLASYFIKACJI OBRAZÓW KOMÓREK
Bardziej szczegółowoBADANIA OPERACYJNE. Podejmowanie decyzji w warunkach niepewności. dr Adam Sojda
BADANIA OPERACYJNE Podejmowane decyzj w warunkach nepewnośc dr Adam Sojda Teora podejmowana decyzj gry z naturą Wynk dzałana zależy ne tylko od tego, jaką podejmujemy decyzję, ale równeż od tego, jak wystąp
Bardziej szczegółowoW praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np.
Wykład 7 Uwaga: W praktyce często zdarza sę, że wynk obu prób możemy traktować jako wynk pomarów na tym samym elemence populacj np. wynk x przed wynk y po operacj dla tego samego osobnka. Należy wówczas
Bardziej szczegółowoStanisław Cichocki. Natalia Nehrebecka. Wykład 6
Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Zastosowane modelu potęgowego Przekształcene Boxa-Coxa 2. Zmenne cągłe za zmenne dyskretne 3. Interpretacja parametrów przy zmennych dyskretnych 1. Zastosowane
Bardziej szczegółowoSZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 15. ALGORYTMY GENETYCZNE Częstochowa 014 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska TERMINOLOGIA allele wartośc, waranty genów, chromosom - (naczej
Bardziej szczegółowoNatalia Nehrebecka. Wykład 2
Natala Nehrebecka Wykład . Model lnowy Postad modelu lnowego Zaps macerzowy modelu lnowego. Estymacja modelu Wartośd teoretyczna (dopasowana) Reszty 3. MNK przypadek jednej zmennej . Model lnowy Postad
Bardziej szczegółowoSVM: Maszyny Wektorów Podpieraja cych
SVM 1 / 24 SVM: Maszyny Wektorów Podpieraja cych Nguyen Hung Son Outline SVM 2 / 24 1 Wprowadzenie 2 Brak liniowej separowalności danych Nieznaczna nieseparowalność Zmiana przetrzeń atrybutów 3 Implementacja
Bardziej szczegółowoTwierdzenie Bezouta i liczby zespolone Javier de Lucas. Rozwi azanie 2. Z twierdzenia dzielenia wielomianów, mamy, że
Twerdzene Bezouta lczby zespolone Javer de Lucas Ćwczene 1 Ustal dla których a, b R można podzelć f 1 X) = X 4 3X 2 + ax b przez f 2 X) = X 2 3X+2 Oblcz a b Z 5 jeżel zak ladamy, że f 1 f 2 s a welomanam
Bardziej szczegółowoĆwiczenie 10. Metody eksploracji danych
Ćwczene 10. Metody eksploracj danych Grupowane (Clusterng) 1. Zadane grupowana Grupowane (ang. clusterng) oznacza grupowane rekordów, obserwacj lub przypadków w klasy podobnych obektów. Grupa (ang. cluster)
Bardziej szczegółowoMATEMATYKA POZIOM ROZSZERZONY Kryteria oceniania odpowiedzi. Arkusz A II. Strona 1 z 5
MATEMATYKA POZIOM ROZSZERZONY Krytera ocenana odpowedz Arkusz A II Strona 1 z 5 Odpowedz Pytane 1 2 3 4 5 6 7 8 9 Odpowedź D C C A B 153 135 232 333 Zad. 10. (0-3) Dana jest funkcja postac. Korzystając
Bardziej szczegółowoStanisław Cichocki. Natalia Nehrebecka. Wykład 6
Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Zastosowane modelu potęgowego Model potęgowy Przekształcene Boxa-Coxa 2. Zmenne cągłe za zmenne dyskretne 3. Interpretacja parametrów przy zmennych dyskretnych
Bardziej szczegółowoNowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba
Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 1 Ćwczene 2: Perceptron WYMAGANIA 1. Sztuczne sec neuronowe budowa oraz ops matematyczny perceptronu (funkcje przejśca perceptronu), uczene perceptronu
Bardziej szczegółowo7. Maszyny wektorów podpierajacych SVMs
Algorytmy rozpoznawania obrazów 7. Maszyny wektorów podpierajacych SVMs dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Maszyny wektorów podpierajacych - SVMs Maszyny wektorów podpierających (ang.
Bardziej szczegółowoMikroekonometria 5. Mikołaj Czajkowski Wiktor Budziński
Mkroekonometra 5 Mkołaj Czajkowsk Wktor Budzńsk Uogólnone modele lnowe Uogólnone modele lnowe (ang. Generalzed Lnear Models GLM) Różną sę od standardowego MNK na dwa sposoby: Rozkład zmennej objaśnanej
Bardziej szczegółowoSZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 18. ALGORYTMY EWOLUCYJNE - ZASTOSOWANIA Częstochowa 2014 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska ZADANIE ZAŁADUNKU Zadane załadunku plecakowe
Bardziej szczegółowoWykład IX Optymalizacja i minimalizacja funkcji
Wykład IX Optymalzacja mnmalzacja funkcj Postawene zadana podstawowe dee jego rozwązana Proste metody mnmalzacj Metody teracj z wykorzystanem perwszej pochodnej Metody teracj z wykorzystanem drugej pochodnej
Bardziej szczegółowoI. Elementy analizy matematycznej
WSTAWKA MATEMATYCZNA I. Elementy analzy matematycznej Pochodna funkcj f(x) Pochodna funkcj podaje nam prędkość zman funkcj: df f (x + x) f (x) f '(x) = = lm x 0 (1) dx x Pochodna funkcj podaje nam zarazem
Bardziej szczegółowoWielokryterialny Trójwymiarowy Problem Pakowania
Łukasz Kacprzak, Jarosław Rudy, Domnk Żelazny Instytut Informatyk, Automatyk Robotyk, Poltechnka Wrocławska Welokryteralny Trójwymarowy Problem Pakowana 1. Wstęp Problemy pakowana należą do klasy NP-trudnych
Bardziej szczegółowoStanisław Cichocki. Natalia Nehrebecka. Wykład 6
Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Interpretacja parametrów przy zmennych objaśnających cągłych Semelastyczność 2. Zastosowane modelu potęgowego Model potęgowy 3. Zmenne cągłe za zmenne dyskretne
Bardziej szczegółowoWikiWS For Business Sharks
WkWS For Busness Sharks Ops zadana konkursowego Zadane Opracowane algorytmu automatyczne przetwarzającego zdjęce odręczne narysowanego dagramu na tablcy lub kartce do postac wektorowej zapsanej w formace
Bardziej szczegółowoKONSPEKT WYKŁADU. nt. METODA ELEMENTÓW SKOŃCZONYCH TEORIA I ZASTOSOWANIA. Piotr Konderla
Studa doktorancke Wydzał Budownctwa Lądowego Wodnego Poltechnk Wrocławskej KONSPEKT WYKŁADU nt. METODA ELEMENTÓW SKOŃCZONYCH TEORIA I ZASTOSOWANIA Potr Konderla maj 2007 Kurs na Studach Doktoranckch Poltechnk
Bardziej szczegółowoAnaliza rodzajów skutków i krytyczności uszkodzeń FMECA/FMEA według MIL STD - 1629A
Analza rodzajów skutków krytycznośc uszkodzeń FMECA/FMEA według MIL STD - 629A Celem analzy krytycznośc jest szeregowane potencjalnych rodzajów uszkodzeń zdentyfkowanych zgodne z zasadam FMEA na podstawe
Bardziej szczegółowoDiagnostyka układów kombinacyjnych
Dagnostyka układów kombnacyjnych 1. Wprowadzene Dagnostyka obejmuje: stwerdzene stanu układu, systemu lub ogólne sec logcznej. Jest to tzw. kontrola stanu wykrywająca czy dzałane sec ne jest zakłócane
Bardziej szczegółowoWeryfikacja hipotez dla wielu populacji
Weryfkacja hpotez dla welu populacj Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Intelgencj Metod Matematycznych Wydzał Informatyk Poltechnk Szczecńskej 5. Parametryczne testy stotnośc w
Bardziej szczegółowoStanisław Cichocki. Natalia Nehrebecka. Wykład 11
Stansław Cchock Natala Nehrebecka Wykład 11 1 1. Testowane hpotez łącznych 2. Testy dagnostyczne Testowane prawdłowośc formy funkcyjnej: test RESET Testowane normalnośc składnków losowych: test Jarque-Berra
Bardziej szczegółowoNeural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych.
Neural networks Lecture Notes n Pattern Recognton by W.Dzwnel Krótka hstora McCulloch Ptts (1943) - perwszy matematyczny ops dzalana neuronu przetwarzana przez nego danych. Proste neurony, które mogly
Bardziej szczegółowoDiagonalizacja macierzy kwadratowej
Dagonalzacja macerzy kwadratowej Dana jest macerz A nân. Jej wartośc własne wektory własne spełnają równane Ax x dla,..., n Każde z równań własnych osobno można zapsać w postac: a a an x x a a an x x an
Bardziej szczegółowoNeuron liniowy. Najprostsza sieć warstwa elementów liniowych
Najprostsza jest jednostka lnowa: Neuron lnowy potraf ona rozpoznawać wektor wejścowy X = (x 1, x 2,..., x n ) T zapamętany we współczynnkach wagowych W = (w 1, w 2,..., w n ), Zauważmy, że y = W X Załóżmy,
Bardziej szczegółowoPodstawy teorii falek (Wavelets)
Podstawy teor falek (Wavelets) Ψ(). Transformaca Haara (97).. Przykład pewne metody zapsu obrazu Transformaca Haara Przykład zapsu obrazu -D Podstawy matematyczne transformac Algorytmy rozkładana funkc
Bardziej szczegółowoAPROKSYMACJA QUASIJEDNOSTAJNA
POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 73 Electrcal Engneerng 213 Jan PURCZYŃSKI* APROKSYMACJA QUASIJEDNOSTAJNA W pracy wykorzystano metodę aproksymacj średnokwadratowej welomanowej, przy
Bardziej szczegółowoPopularne klasyfikatory w pakietach komputerowych
Popularne klasyfikatory w pakietach komputerowych Klasyfikator liniowy Uogólniony klasyfikator liniowy SVM aiwny klasyfikator bayesowski Ocena klasyfikatora ROC Lista popularnych pakietów Klasyfikator
Bardziej szczegółowoPokazać, że wyżej zdefiniowana struktura algebraiczna jest przestrzenią wektorową nad ciałem
Zestaw zadań : Przestrzene wektorowe. () Wykazać, że V = C ze zwykłym dodawanem jako dodawanem wektorów operacją mnożena przez skalar : C C C, (z, v) z v := z v jest przestrzeną lnową nad całem lczb zespolonych
Bardziej szczegółowoPrawdopodobieństwo i statystyka r.
Prawdopodobeństwo statystya.05.00 r. Zadane Zmenna losowa X ma rozład wyładnczy o wartośc oczewanej, a zmenna losowa Y rozład wyładnczy o wartośc oczewanej. Obe zmenne są nezależne. Oblcz E( Y X + Y =
Bardziej szczegółowoMikroekonometria 13. Mikołaj Czajkowski Wiktor Budziński
Mkroekonometra 13 Mkołaj Czajkowsk Wktor Budzńsk Symulacje Analogczne jak w przypadku cągłej zmennej zależnej można wykorzystać metody Monte Carlo do analzy różnego rodzaju problemów w modelach gdze zmenna
Bardziej szczegółowoEvaluation of estimation accuracy of correlation functions with use of virtual correlator model
Jadwga LAL-JADZIAK Unwersytet Zelonogórsk Instytut etrolog Elektrycznej Elżbeta KAWECKA Unwersytet Zelonogórsk Instytut Informatyk Elektronk Ocena dokładnośc estymacj funkcj korelacyjnych z użycem modelu
Bardziej szczegółowo4.1. Wprowadzenie...70 4.2. Podstawowe definicje...71 4.3. Algorytm określania wartości parametrów w regresji logistycznej...74
3 Wykaz najważniejszych skrótów...8 Przedmowa... 10 1. Podstawowe pojęcia data mining...11 1.1. Wprowadzenie...12 1.2. Podstawowe zadania eksploracji danych...13 1.3. Główne etapy eksploracji danych...15
Bardziej szczegółowoWykład 2: Uczenie nadzorowane sieci neuronowych - I
Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za
Bardziej szczegółowoSystem Przeciwdziałania Powstawaniu Bezrobocia na Terenach Słabo Zurbanizowanych SPRAWOZDANIE Z BADAŃ Autor: Joanna Wójcik
Opracowane w ramach projektu System Przecwdzałana Powstawanu Bezroboca na Terenach Słabo Zurbanzowanych ze środków Europejskego Funduszu Społecznego w ramach Incjatywy Wspólnotowej EQUAL PARTNERSTWO NA
Bardziej szczegółowoWykład 2: Uczenie nadzorowane sieci neuronowych - I
Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za
Bardziej szczegółowoStanisław Cichocki Natalia Nehrebecka. Zajęcia 4
Stansław Cchock Natala Nehrebecka Zajęca 4 1. Interpretacja parametrów przy zmennych zerojedynkowych Zmenne 0-1 Interpretacja przy zmennej 0 1 w modelu lnowym względem zmennych objaśnających Interpretacja
Bardziej szczegółowop Z(G). (G : Z({x i })),
3. Wykład 3: p-grupy twerdzena Sylowa. Defncja 3.1. Nech (G, ) będze grupą. Grupę G nazywamy p-grupą, jeżel G = dla pewnej lczby perwszej p oraz k N. Twerdzene 3.1. Nech (G, ) będze p-grupą. Wówczas W
Bardziej szczegółowoStanisław Cichocki. Natalia Nehrebecka. Wykład 7
Stansław Cchock Natala Nehrebecka Wykład 7 1 1. Zmenne cągłe a zmenne dyskretne 2. Interpretacja parametrów przy zmennych dyskretnych 1. Zmenne cągłe a zmenne dyskretne 2. Interpretacja parametrów przy
Bardziej szczegółowo1 Metody optymalizacji wielokryterialnej... 1 1.1 Ogólna charakterystyka problemu... 1 1.2 Tradycyjne metody optymalizacji wielokryterialnej...
1 Metody optymalzacj welokryteralnej.... 1 1.1 Ogólna charakterystyka problemu.... 1 1.2 Tradycyjne metody optymalzacj welokryteralnej.... 3 1.2.1 Metoda ważonych kryterów.... 3 1.2.2 Metoda optymalzacj
Bardziej szczegółowoPlan wykładu: Typowe dane. Jednoczynnikowa Analiza wariancji. Zasada: porównać zmienność pomiędzy i wewnątrz grup
Jednoczynnkowa Analza Waranc (ANOVA) Wykład 11 Przypomnene: wykłady zadana kursu były zaczerpnęte z podręcznków: Statystyka dla studentów kerunków techncznych przyrodnczych, J. Koronack, J. Melnczuk, WNT
Bardziej szczegółowoPattern Classification
Pattern Classfcaton All materals n these sldes ere taken from Pattern Classfcaton nd ed by R. O. Duda, P. E. Hart and D. G. Stork, John Wley & Sons, 000 th the permsson of the authors and the publsher
Bardziej szczegółowoWprowadzenie do Sieci Neuronowych Sieci rekurencyjne
Wprowadzene do Sec Neuronowych Sec rekurencyjne M. Czoków, J. Persa 2010-12-07 1 Powtórzene Konstrukcja autoasocjatora Hopfelda 1.1 Konstrukcja Danych jest m obrazów wzorcowych ξ 1..ξ m, gdze każdy pojedynczy
Bardziej szczegółowoWielokategorialne systemy uczące się i ich zastosowanie w bioinformatyce. Rafał Grodzicki
Welokategoralne systemy uząe sę h zastosowane w bonformatye Rafał Grodzk Welokategoralny system uząy sę (multlabel learnng system) Zbór danyh weśowyh: d X = R Zbór klas (kategor): { 2 } =...Q Zbór uząy:
Bardziej szczegółowoAlgorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa
Bardziej szczegółowoSTATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH
STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH 1 Test zgodnośc χ 2 Hpoteza zerowa H 0 ( Cecha X populacj ma rozkład o dystrybuance F). Hpoteza alternatywna H1( Cecha X populacj
Bardziej szczegółowo2012-10-11. Definicje ogólne
0-0- Defncje ogólne Logstyka nauka o przepływe surowców produktów gotowych rodowód wojskowy Utrzyywane zapasów koszty zwązane.n. z zarożene kaptału Brak w dostawach koszty zwązane.n. z przestoje w produkcj
Bardziej szczegółowoInstrukcja do ćwiczeń laboratoryjnych z przedmiotu: Badania operacyjne. Temat ćwiczenia: Problemy rozkroju materiałowego, zagadnienia dualne
Instrukca do ćwczeń laboratorynych z przedmotu: Badana operacyne Temat ćwczena: Problemy rozkrou materałowego, zagadnena dualne Zachodnopomorsk Unwersytet Technologczny Wydzał Inżyner Mechanczne Mechatronk
Bardziej szczegółowoZapis informacji, systemy pozycyjne 1. Literatura Jerzy Grębosz, Symfonia C++ standard. Harvey M. Deitl, Paul J. Deitl, Arkana C++. Programowanie.
Zaps nformacj, systemy pozycyjne 1 Lteratura Jerzy Grębosz, Symfona C++ standard. Harvey M. Detl, Paul J. Detl, Arkana C++. Programowane. Zaps nformacj w komputerach Wszystke elementy danych przetwarzane
Bardziej szczegółowoProgramowanie Równoległe i Rozproszone
Programowane Równoległe Rozproszone Wykład Programowane Równoległe Rozproszone Lucjan Stapp Wydzał Matematyk Nauk Informacyjnych Poltechnka Warszawska (l.stapp@mn.pw.edu.pl) /38 PRR Wykład Chcemy rozwązać
Bardziej szczegółowoALGEBRY HALLA DLA POSETÓW SKOŃCZONEGO TYPU PRINJEKTYWNEGO
ALGEBRY HALLA DLA POSETÓW SKOŃCZONEGO TYPU PRINJEKTYWNEGO NA PODSTAWIE REFERATU JUSTYNY KOSAKOWSKIEJ. Moduły prnjektywne posety skończonego typu prnjektywnego Nech I będze skończonym posetem. Przez max
Bardziej szczegółowoWeryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1
Weryfikacja hipotez statystycznych KG (CC) Statystyka 26 V 2009 1 / 1 Sformułowanie problemu Weryfikacja hipotez statystycznych jest drugą (po estymacji) metodą uogólniania wyników uzyskanych w próbie
Bardziej szczegółowoProcedura normalizacji
Metody Badań w Geograf Społeczno Ekonomcznej Procedura normalzacj Budowane macerzy danych geografcznych mgr Marcn Semczuk Zakład Przedsęborczośc Gospodark Przestrzennej Instytut Geograf Unwersytet Pedagogczny
Bardziej szczegółowoZestaw zadań 4: Przestrzenie wektorowe i podprzestrzenie. Liniowa niezależność. Sumy i sumy proste podprzestrzeni.
Zestaw zadań : Przestrzene wektorowe podprzestrzene. Lnowa nezależność. Sumy sumy proste podprzestrzen. () Wykazać, że V = C ze zwykłym dodawanem jako dodawanem wektorów operacją mnożena przez skalar :
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt
Bardziej szczegółowo65120/ / / /200
. W celu zbadana zależnośc pomędzy płcą klentów ch preferencjam, wylosowano kobet mężczyzn zadano m pytane: uważasz za lepszy produkt frmy A czy B? Wynk były następujące: Odpowedź Kobety Mężczyźn Wolę
Bardziej szczegółowoKOINCYDENTNOŚĆ MODELU EKONOMETRYCZNEGO A JEGO JAKOŚĆ MIERZONA WARTOŚCIĄ WSPÓŁCZYNNIKA R 2 (K)
STUDIA I PRACE WYDZIAŁU NAUK EKONOMICZNYCH I ZARZĄDZANIA NR 31 Mchał Kolupa Poltechnka Radomska w Radomu Joanna Plebanak Szkoła Główna Handlowa w Warszawe KOINCYDENTNOŚĆ MODELU EKONOMETRYCZNEGO A JEGO
Bardziej szczegółowoEKONOMIA MENEDŻERSKA. Wykład 3 Funkcje produkcji 1 FUNKCJE PRODUKCJI. ANALIZA KOSZTÓW I KORZYŚCI SKALI. MINIMALIZACJA KOSZTÓW PRODUKCJI.
EONOMIA MENEDŻERSA Wykład 3 Funkcje rodukcj 1 FUNCJE PRODUCJI. ANAIZA OSZTÓW I ORZYŚCI SAI. MINIMAIZACJA OSZTÓW PRODUCJI. 1. FUNCJE PRODUCJI: JEDNO- I WIEOCZYNNIOWE Funkcja rodukcj określa zależność zdolnośc
Bardziej szczegółowoSieci Neuronowe 1 Michał Bereta
Wprowadzene Zagadnena Sztucznej Intelgencj laboratorum Sec Neuronowe 1 Mchał Bereta Sztuczne sec neuronowe można postrzegać jako modele matematyczne, które swoje wzorce wywodzą z bolog obserwacj ludzkch
Bardziej szczegółowoNatalia Nehrebecka. Zajęcia 4
St ł Cchock Stansław C h k Natala Nehrebecka Zajęca 4 1. Interpretacja parametrów przy zmennych zerojedynkowych Zmenne 0 1 Interpretacja przy zmennej 0 1 w modelu lnowym względem zmennych objaśnających
Bardziej szczegółowoStatystyka. Zmienne losowe
Statystyka Zmenne losowe Zmenna losowa Zmenna losowa jest funkcją, w której każdej wartośc R odpowada pewen podzbór zboru będący zdarzenem losowym. Zmenna losowa powstaje poprzez przyporządkowane każdemu
Bardziej szczegółowoNatalia Nehrebecka Stanisław Cichocki. Wykład 10
Natala Nehrebecka Stansław Cchock Wykład 10 1 1. Testy dagnostyczne 2. Testowane prawdłowośc formy funkcyjnej modelu 3. Testowane normalnośc składnków losowych 4. Testowane stablnośc parametrów 5. Testowane
Bardziej szczegółowoMetody gradientowe poszukiwania ekstremum. , U Ŝądana wartość napięcia,
Metody gradentowe... Metody gradentowe poszukwana ekstremum Korzystają z nformacj o wartośc funkcj oraz jej gradentu. Wykazując ch zbeŝność zakłada sę, Ŝe funkcja celu jest ogranczona od dołu funkcją wypukłą
Bardziej szczegółowoPesymistyczna złożoność obliczeniowa algorytmu faktoryzacji Fact
Pesymstyczna złożoność oblczenowa algorytmu faktoryzacj Fact Lech Madeysk 1, Zygmunt Mazur Poltechnka Wrocławska, Wydzał Informatyk Zarządzana, Wydzałowy Zakład Informatyk Wybrzeże Wyspańskego 7, 50-370
Bardziej szczegółowoSYSTEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE METODY KLASYFIKACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.
SYSEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE MEODY KLASYFIKACJI Częstochowa 4 Dr hab. nż. Grzegorz Dude Wydzał Eletryczny Poltechna Częstochowsa FUNKCJE FISHEROWSKA DYSKRYMINACYJNE DYSKRYMINACJA I MASZYNA LINIOWA
Bardziej szczegółowoProblem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner
Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner Wydział Matematyki i Nauk Informacyjnych Politechnika Warszawska Elementy nieprzystające Definicja odrzucania Klasyfikacja
Bardziej szczegółowoZmodyfikowana technika programowania dynamicznego
Zmodyfkowana technka programowana dynamcznego Lech Madeysk 1, Zygmunt Mazur 2 Poltechnka Wrocławska, Wydzał Informatyk Zarządzana, Wydzałowy Zakład Informatyk Wybrzeże Wyspańskego 27, 50-370 Wrocław Streszczene.
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-10 Projekt pn. Wzmocnienie
Bardziej szczegółowoPrawdopodobieństwo geometryczne
Prawdopodobeństwo geometryczne Przykład: Przestrzeń zdarzeń elementarnych określona jest przez zestaw punktów (x, y) na płaszczyźne wypełna wnętrze kwadratu [0 x ; 0 y ]. Znajdź p-stwo, że dowolny punkt
Bardziej szczegółowo