Uniwersalne Maszyny Ucz ce. Tomasz Maszczyk. opiekun naukowy: prof. Wªodzisªaw Duch

Wielkość: px
Rozpocząć pokaz od strony:

Download "Uniwersalne Maszyny Ucz ce. Tomasz Maszczyk. opiekun naukowy: prof. Wªodzisªaw Duch"

Transkrypt

1 opiekun naukowy: prof. Wªodzisªaw Duch Katedra Informatyki Stosowanej Wydziaª Fizyki Astronomii i Informatyki Stosowanej Uniwersytet Mikoªaja Kopernika w Toruniu 29 Pa¹dziernik 2009, IPIPAN, Warszawa

2 Plan Ogólna idea Inspiracje Stan obecny Plan prezentacji Ogólna idea i motywacje Zasada dziaªania UMU Uzyskane wyniki Mo»liwo±ci udoskonalenia Konkluzje Stan zaawansowania pracy Dotychczasowy dorobek naukowy

3 Plan Ogólna idea Inspiracje Stan obecny Ogólna idea Pomimo post pu, systemy CI daleko w tyle za systemami biologicznymi. Algorytmy s zwykle do± wyranowane, ale klucz do sukcesu mo»e si kry w ltrach informacji i mechanizmach porcjowania. Motywacje biologiczne neurony w korze asocjacyjnej silnie si ze sob ª cz tworz c minikolumny, które rezonuj na ró»nych cz stotliwo±ciach perceptron obserwuj c minikolumny uczy si reagowa na specyczne sygnaªy o okre±lonej cz stotliwo±ci rezonatory nie wzbudzaj si kiedy ogólna aktywno± jest wysoka, ale raczej kiedy osi gni ty zostaje pewien poziom aktywno±ci je±li te sygnaªy s skorelowane z jak ± istotn aktywno±ci, wówczas s brane pod uwag, w przeciwnym wypadku sygnaª nie jest u»ywany

4 Plan Ogólna idea Inspiracje Stan obecny Inspiracje Motywacje biologiczne test: nowy przypadek aktywuje du» liczb ukªadów neuronów w korze, ale wzajemna konkurencja i lokalne hamowanie zostawia tylko niewielk liczb najbardziej aktywnych neuron progowy odczytuje poziom aktywno±ci specycznych ukªadów neuronów i ocenia podobie«stwo do jednej z kategorii Wnioski z motywacji biologicznych wiele spojrze«na ten sam obiekt; ltrowanie nowych cech przez lokalne funkcje liczba cech nie ustalona, ale dynamicznie generowana a» uzyska si wystarczaj co du»o informacji do podj cia prawidªowej decyzji wi ksza uwaga na generacj nowych cech; systematyczna konstrukcja i selekcja przed uczeniem (proste i dobre modele)

5 Plan Ogólna idea Inspiracje Stan obecny Stan obecny Ograniczenia metod CI Reguªa no free lunch". Zwykªe drzewa i systemy reguªowe dobre gdy prosta i logiczna struktura (ostre granice decyzji); zªe tam gdzie najlepsze rozwi zanie daje liniowa dyskryminacja. SVM wraz z ró»nymi kernelami dobre, gdy wymagana jest zªo»ona topologia, ale pomija proste rozwi zania. Nie dziaªa dobrze dla zªo»onych funkcji Boolowskich lub gdy wymagane s ostre granice.

6 Plan Ogólna idea Inspiracje Stan obecny Stan obecny Szukanie dobrego modelu Ka»dy system posiada pewn specyk, która czyni go dobrym jedynie dla pewnej klasy problemów. Odkrycie tej specyki i znalezienie odpowiedniego modelu nie jest zadaniem prostym i zazwyczaj realizowane jest poprzez eksperymenty oparte o pre-processing, ltry i selekcj, klasteryzacj, klasykacj (aproksymacj ) oraz poª czone jest z takimi elementami meta-uczenia jak stacking, boosting czy komitety. St d liczba mo»liwo±ci przy u»yciu automatycznego szukania jest bardzo du»a, czasochªonna i zdarza si,»e nie warta oczekiwania.

7 Plan Ogólna idea Inspiracje Stan obecny Dwa podej±cia Pierwszy sposób Pierwszym podej±ciem wydaje si by znalezienie ogólnej charakterystyki danych i porównanie jej z danymi referencyjnymi, dla których ranking rezultatów otrzymanych z ró»nych systemów jest w miar stabilny. Jednak nawet niewielka zmiana w rozkªadzie danych mo»e spowodowa konieczno± caªkowitej zmiany granicy decyzji. Drugi sposób Drugie podej±cie to kombinacja rozmaitych transformacji danych, a nast pnie u»ycie meta-szukania w takiej przestrzeni cech.

8 Podstawy Algorytm Konstrukcja cech UMU jako sie Zasada dziaªania UMU bazuje na systematycznym generowaniu i selekcji cech; rosn ca komplikacja modeli. Cel: najprostsze, dobre modele dla wszystkich rodzajów zada«. To kolejny krok do budowy systemów meta-ucz cych opartych raczej na konstrukcji cech ni» tworzeniu skomplikowanych modeli. Nawi zanie do meta-uczenia Rozwi zanie oparte o transformacje oferuje nam stworzenie systemu, który ma szans sta si odpowiednim dla wszystkich rodzajów zada«. Jednak»e sukces meta-poszukiwania optymalnego zestawienia transformacji le»y w mo»liwo±ciach transformacji, które wydobywaj u»yteczne cechy i radz sobie z rozmaitymi specycznymi problemami.

9 Podstawy Algorytm Konstrukcja cech UMU jako sie Algorytm Algorytm UMU bazuj na bardzo ogólnym algorytmie: stwórz nowe cechy (wygeneruj transformacje) sprawd¹ czy pomagaj one w uczeniu (wygeneruj rezultaty i wybierz) Moje podej±cie do UMU Uczenie z u»yciem schematów, ale ja skupiam si na konstrukcji cech. Mo»na posortowa i przeltrowa wedªug jednego ze znanych kryteriów lub sukcesywnie dodawa.

10 Podstawy Algorytm Konstrukcja cech UMU jako sie Lista mo»liwych nowych cech B1: binarna cecha globalna B2: binarna cecha lokalna, ograniczona przez inne cechy binarne B3: binarna cecha lokalna, ograniczona przez odlegªo± ; b = 0 r 1 [r1, r 1 + ]... r k [r, r + ]; szukanie jest wykonywane k k oddzielnie dla ka»dej warto±ci cechy binarnej; b - warto± cechy binarnej [r, r + ] - przedziaª akceptowanych warto±ci k-tej cechy k k N1: nominalna cecha lokalna, ograniczona podobnie jak cechy B2 i B3 R1: liniowa cecha globalna; rzut danych na prost ; progi lub interwaªy mog zmienia j w cech B1

11 Podstawy Algorytm Konstrukcja cech UMU jako sie Lista mo»liwych nowych cech R2: liniowa cecha lokalna, tak jak R1, ale ograniczona przez inne cechy R3: liniowa cecha lokalna, tak jak R1, ale ograniczona przez odlegªo± R4: liniowa cecha globalna; liniowa kombinacja cech oryginalnych (PCA, ICA,...) P: oparte na prototypach cechy lokalne q i = exp( x i r ) M: motywy bazuj ce na korelacjach pomi dzy elementami T: nieliniowe transformacje radialne, separuj ce, itp.

12 Podstawy Algorytm Konstrukcja cech UMU jako sie Rodzaje cech Cechy oryginalne Zbiór takich cech mo»e by u»yty do cz ±ciowego rozwi zania problemu; niektóre mog by bezpo±rednio u»yteczne wi c powinny by wybrane i przetestowane pod tym k tem. Kolejne cechy mog zosta utworzone przez rozmaite transformacje i szablony ltrów w celu wydobycia u»ytecznej informacji. Hierarchia cech powinna by z góry zaªo»ona, w oparciu o rodzaj granic decyzji jakie dana cecha dostarcza.

13 Podstawy Algorytm Konstrukcja cech UMU jako sie Rodzaje cech Globalne (nieograniczone) cechy binarne Najprostsze cechy to cechy binarne. Mog by zarówno nieograniczone (kiedy u»ywamy caªych danych) tworz c cechy globalne lub ograniczone tworz c cechy lokalne. Surowe cechy binarne powinny by traktowane jako globalne. Mog by wytworzone z innych cech poprzez podziaª cech nominalnych na podzbiory lub podziaª cech rzeczywistych na interwaªy. Lokalne (ograniczone) cechy binarne Mo»na je uzyska przez naªo»enie rozmaitych ogranicze«. Dla binarnych cech prowadzi to do zespoªu cech lokalnych, które pomagaj rozró»ni interesuj ce regiony w przestrzeni. Ograniczenia mog by tworzone przy u»yciu drzew decyzyjnych, np. je±li istnieje taki gªówny podziaª,»e: z = (x 1 < t 1 ) (x 2 t 2 ), wówczas z b dzie cech binarn utworzon przez projekcj na x 2 ograniczon przez x 1 < t 1 (lub odwrotnie).

14 Podstawy Algorytm Konstrukcja cech UMU jako sie Rodzaje cech Cechy rzeczywiste Cechy rzeczywiste okazuj si cz sto istotne w procesie uczenia. Pojedyncze cechy mog tak»e pokaza interesuj ce rozkªady p(x C), np. k du»ych grup warto±ci, gdzie ka»da z grup odpowiada temu samemu typowi obiektów (metoda arpm). Takie k separowalne rozwi zania s bardzo u»yteczne przy uczeniu zªo»onych funkcji Boolowskich.

15 Podstawy Algorytm Konstrukcja cech UMU jako sie Rodzaje cech Liniowa kombinacja cech pierwotnych Cz sto liniowa kombinacja cech oryginalnych daje lepsze cechy od nich samych. Najprostsza i najta«sza metoda: wyliczy centra klas m i i znormalizowane rzuty na kierunki w ij = (m i m j )/ m i m j. Je±li prawdopodobie«stwa warunkowe p(x C) maj rozkªady Gauss, wówczas z(x; w) = w x zawiera wi kszo± u»ytecznych informacji dla procesu klasykacji. Rysuj c p(z C) mo»na zobaczy obszary mocnego nakrywania si, pozwala to na wyznaczenie wektorów granicznych, czyli tych blisko progu p(z C i ) = p(z C j ).

16 Podstawy Algorytm Konstrukcja cech UMU jako sie Rodzaje cech Cechy oparte o kernele Kernele oceniaj podobie«stwo w odniesieniu do referencyjnych wektorów, tworz zatem nowe cechy z i = K(x (i), x). Najbardziej popularne s kernele Gaussowskie, tworz cechy mówi ce jak daleko wektor x znajduje si od referencyjnego wektora wsparcia x (i). Kwadratow optymalizacj w SVM mo»na zast pi przez jedn z liniowych technik dyskryminacyjnych posiadaj cych szeroki margines. Jasno sprecyzowane generowanie cech bazuj cych na ró»nych miarach podobie«stwa, niweluje w skie gardªo SVM, umo»liwiaj c w procesie optymalizacji u»ycie ró»nej rozdzielczo±ci w ró»nych cz ±ciach przestrzeni cech.

17 Podstawy Algorytm Konstrukcja cech UMU jako sie Adaptacyjna regularyzacja Prosta regularyzacja bazuje na minimalizacji unormowanego wektora wag w (SVM). Wymusza wygªadzenie granic decyzji, obni»a zªo»ono± modelu, a co za tym idzie, cz sto nie jest w stanie znale¹ najprostszego rozwi zania. Generowanie cech kernelowych powinno zatem przebiega od najbardziej ogólnych, daj c prawie hiperpªaszczyznow granic decyzji z centrami daleko od granic decyzji (wyznaczonych przez patrzenie na rozkªad z = w x dla kierunku w = (m 1 m 2 )/ m 1 m 2 ) a» do bardziej dokªadnego, wysoko nieliniowego jedynie w pobli»u granicy.

18 Podstawy Algorytm Konstrukcja cech UMU jako sie Rodzaje cech Lokalne cechy bazuj ce na prototypach Tworzone s przy u»yciu wektorów wsparcia w pobli»u granic decyzji. Proces tworzenia: wykonaj rzut na kierunek z i = w i x wyznaczony przez ±rednie dla ka»dej z klas (kierunki mog by te» wyznaczone przez centra klastrów dla ka»dej z klas) wybierz wektory, które po projekcji znajd si w przedziale: z i [θ i r, θ i + r], gdzie r = 0.05 max(z i ) min(z i ), a próg p(z i C = θ i ) = p(z i C ) policz odlegªo±ci pomi dzy wybranymi wektorami i zostaw te, które posiadaj [0.5 + ɛ, 1 ɛ] s siadów z tej samej klasy (np. ɛ = 0.1) w promieniu σ zrób klasteryzacj tak wybranych wektorów otrzymuje si wygªadzone, lokalne cechy q(x) = exp( x p /σ)

19 Podstawy Algorytm Konstrukcja cech UMU jako sie Sie konstruktywistyczna W zªy reprezentuj transformacje i procedury wykorzystywane do wydobycia u»ytecznych cech; dodatkowe warstwy analizuj struktur danych w nowej przestrzeni cech. Kolejno± poszukiwania nowych cech oryginalne binarne nominalne rzeczywiste ograniczone bazuj ce na projekcjach oparte o prototypy Proces ten to poszukiwanie w przestrzeni rozmaitych cech, analogicznie do szukania w przestrzeni modeli.

20 Cechy binarne Rezultaty UMU Cechy binarne wyodr bnione z drzewa Dane Cechy B1 Australian F 8 < 0.5 F F Appendicitis F F 7 < F 4 < 12 Heart F 13 < 4.5 F 12 < 0.5 F F Diabetes F 2 < F Wisconsin F 2 < 2.5 F Hypothyroid F 17 < F F 21 <

21 Cechy binarne Rezultaty UMU Dane Klasykator SVM (#SV) SSV (#Li±ci) NB Australian 84.9±5.6 (203) 84.9±3.9 (4) 80.3±3.8 UMU 86.8±5.3(166) 87.1±2.5(4) 85.5±3.4 cechy B1(2)+P1(3) B1(2)+R1(1)+P1(3) B1(2) Appendicitis 87.8±8.7 (31) 88.0±7.4 (4) 86.7±6.6 UMU 91.4±8.2(18) 91.7±6.7(3) 91.4±8.2 cechy B1(2) B1(2) B1(2) Heart 82.1±6.7 (101) 76.8±9.6 (6) 84.2±6.1 UMU 83.4±3.5(98) 79.2±6.3(6) 84.5±6.8 cechy Data + R1(3) Data + R1(3) Data + B1(2) Diabetes 77.0±4.9 (361) 73.6±3.4 (4) 75.3±4.7 UMU 78.5±3.6(338) 75.0±3.3(3) 76.5±2.9 cechy Data + R1(3) + P1(4) B1(2) Data + B1(2) Wisconsin 96.6±1.6 (46) 95.2±1.5 (8) 96.0±1.5 UMU 97.2±1.8(45) 97.4±1.6(2) 97.2±2.0 cechy Data + R1(1) + P1(4) R1(1) R1(1) Hypothyroid 94.1±0.6 (918) 99.7±0.5 (12) 41.3±8.3 UMU 99.5±0.4(80) 99.6±0.4(8) 98.1±0.7 cechy Data + B1(2) Data + B1(2) Data + B1(2)

22 Ulepszenia arpm Konkluzje Usprawnienia Ulepszenia Inne konstruktory cech: transformacje redukuj ce wymiarowo± (PCA, ICA i inne) nowe cechy lokalne przy pomocy Almost Random Projection Machine (arpm)

23 Ulepszenia arpm Konkluzje arpm Ogólna idea algorytm wstecznej propagacji bª du u»ywany do uczenia sieci MLP: nieliniowe systemy, nieseparowalne problemy, powolny MLP jest znacznie prostsze ni» biologiczne sieci neuronowe wsteczna propagacja jest ci»ka do uzasadnienia z biologicznego punktu widzenia

24 Ulepszenia arpm Konkluzje Algorytm arpm 1: Oznacz wszystkie wektory X jako nowe". 2: for i = 0 to N rep do 3: Losowo wyznacz wagi W i, w i [ 1, 1]. 4: Wygeneruj now projekcj z i = W i X. 5: Przeanalizuj rozkªady p(z i C) aby wyznaczy interesuj ce klastry. 6: Dodaj je jako nowe cechy G(z i ; C), lub oznaczone klas neurony warstwy ukrytej. 7: Zsumuj aktywno± podgrup ukrytych neuronów dla ka»dej z klas aby wyznaczy wyj±cie sieci y(c X) = i G(z i; C). 8: Usu«oznaczenie nowe z tych wektorów, dla których y(c X) β 9: end for 10: Dokonaj walidacji sieci. 11: if dokªadno± nie wzrosªa then return sie 12: else goto 2

25 Ulepszenia arpm Konkluzje Architektura sieci

26 Ulepszenia arpm Konkluzje Ile potrzeba klastrów?

27 Ulepszenia arpm Konkluzje Przykªadowe wyj±cie sieci

28 Ulepszenia arpm Konkluzje Przykªadowe wyj±cie sieci

29 Ulepszenia arpm Konkluzje Przykªadowe wyj±cie sieci

30 Ulepszenia arpm Konkluzje arpm Dane Metoda C4.5 knn MLP SVM arpm Parity ± 1.3 (1) 100 ± 0 (17) 94.1 ± 2.1 (17) 32.4 ± 4.4 (230) 99.2 ± 1.6 (12) Parity ± 1.6 (1) 100 ± 0 (21) 89.2 ± 12.3 (21) 39.1 ± 6.5 (920) 99.5 ± 0.9 (12) Leukemia 82.6 ± 8.3 (5) 97.2 ± 1.6 (2) 95.8 ± 3.6 (52) 98.7 ± 3.9 (15) 96.1 ± 8.6 (19) Heart 77.8 ± 2.1 (33) 81.8 ± 6.6 (45) 79.5 ± 1.3 (8) 81.5 ± 1.3 (94) 78.3 ± 4.2 (43) Wisconsin 94.7 ± 2.0 (21) 97.0 ± 1.7 (5) 94.2 ± 0.2 (6) 96.3 ± 2.1 (49) 97.9 ± 1.6 (30) Liver 65.8 ± 2.2 (51) 62.0 ± 1.1 (44) 67.5 ± 3.1 (5) 69.2 ± 10.3 (236) 61.1 ± 5.1 (47)

31 Ulepszenia arpm Konkluzje Konkluzje systematyczna eksploracja cech umo»liwia odkrywanie prostych modeli, które bardziej wyszukane systemy uczenia pomijaj dotychczasowe rezultaty nadziej na uniwersalny system cechy kernelowe atrakcyjn alternatyw dla obecnych rozwi za«(adaptacyjna regularyzacja) UMU to nowe mo»liwo±ci w kierunku tworzenia prostych, zrozumiaªych i dokªadnych modeli

32 Ulepszenia arpm Konkluzje Informacje dodatkowe Stan zaawansowania pracy... Publikacje: T. Maszczyk and W. Duch. Comparison of Shannon, Renyi and Tsallis entropy used in decision trees. Lecture Notes in Computer Science, 5097: , T. Maszczyk and W. Duch. Support vector machines for visualization and dimensionality reduction. Lecture Notes in Computer Science, 5163: , W. Duch and T. Maszczyk. Almost random projection machine. Lecture Notes in Computer Science, 5768: , W. Duch, T. Maszczyk. Universal Learning Machines. Lecture Notes in Computer Science, 5864: , T. Maszczyk, M. Grochowski, W. Duch. Discovering Data Structures using Meta-learning, Visualization and Constructive Neural Networks., Advances in Machine Learning (ed. J. Koronacki), 2010 (rozdziaª w ksi»ce)

33 Ulepszenia arpm Konkluzje Informacje dodatkowe Udziaª w konferencjach i szkoªach: The 19th International Conference on Articial Neural Networks, Limassol, Cyprus, The 18th International Conference on Articial Neural Networks, Prague, Czech Republic, The Ninth International Conference on Articial Intelligence and Soft Computing, Zakopane, Summer School on Neural Networks in Classication, Regression and Data Mining, Porto, Summer School in Statistical Learning, Data mining and Regression Tools, Terra Murata,

34 Ulepszenia arpm Konkluzje Informacje dodatkowe Inne osi gni cia: Trzecie miejsce w konkursie: Metalurgical Process Regression Modelling", czerwiec Wspóªpraca naukowa z Gªównym Instytutem Górnictwa. Wspóªpraca naukowa z Politechnik l sk.

35 Ulepszenia arpm Konkluzje Dzi kuj za uwag!

Uczenie Wielowarstwowych Sieci Neuronów o

Uczenie Wielowarstwowych Sieci Neuronów o Plan uczenie neuronu o ci gªej funkcji aktywacji uczenie jednowarstwowej sieci neuronów o ci gªej funkcji aktywacji uczenie sieci wielowarstwowej - metoda propagacji wstecznej neuronu o ci gªej funkcji

Bardziej szczegółowo

Lab. 02: Algorytm Schrage

Lab. 02: Algorytm Schrage Lab. 02: Algorytm Schrage Andrzej Gnatowski 5 kwietnia 2015 1 Opis zadania Celem zadania laboratoryjnego jest zapoznanie si z jednym z przybli»onych algorytmów sªu» cych do szukania rozwi za«znanego z

Bardziej szczegółowo

AUTO-ENKODER JAKO SKŠADNIK ARCHITEKTURY DEEP LEARNING

AUTO-ENKODER JAKO SKŠADNIK ARCHITEKTURY DEEP LEARNING AUTO-ENKODER JAKO SKŠADNIK ARCHITEKTURY DEEP LEARNING Magdalena Wiercioch Uniwersytet Jagiello«ski 3 kwietnia 2014 Plan Uczenie gª bokie (deep learning) Auto-enkodery Rodzaje Zasada dziaªania Przykªady

Bardziej szczegółowo

Wykorzystanie lokalnej geometrii danych w Maszynie Wektorów No±nych

Wykorzystanie lokalnej geometrii danych w Maszynie Wektorów No±nych WM Czarnecki (GMUM) Lokalna geometria w SVM 13 Listopada 2013 1 / 26 Wykorzystanie lokalnej geometrii danych w Maszynie Wektorów No±nych Wojciech Marian Czarnecki Jacek Tabor GMUM Grupa Metod Uczenia Maszynowego

Bardziej szczegółowo

Eksploracja Danych. Wprowadzenie. (c) Marcin Sydow

Eksploracja Danych. Wprowadzenie. (c) Marcin Sydow Wprowadzenie Proponowane podr czniki T.Hastie, R.Tibshirani et al. An Introduction to Statistical Learning I.Witten et al. Data Mining S.Marsland Machine Learning J.Koronacki, J.Mielniczuk Statystyka dla

Bardziej szczegółowo

Jednowarstwowe Sieci Neuronowe jako. klasykatory do wielu klas. (c) Marcin Sydow

Jednowarstwowe Sieci Neuronowe jako. klasykatory do wielu klas. (c) Marcin Sydow Plan dyskretny perceptron i jego ograniczenia inne funkcje aktywacji wielo-klasykacja przy pomocy jedno-warstwowe sieci neuronowej ograniczenia jedno-warstwowej sieci neuronowej miary ewaluacyjne dla klasykacji

Bardziej szczegółowo

Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę

Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę Norbert Jankowski Ontogeniczne sieci neuronowe O sieciach zmieniających swoją strukturę Warszawa 2003 Opracowanie książki było wspierane stypendium Uniwersytetu Mikołaja Kopernika Spis treści Wprowadzenie

Bardziej szczegółowo

przewidywania zapotrzebowania na moc elektryczn

przewidywania zapotrzebowania na moc elektryczn do Wykorzystanie do na moc elektryczn Instytut Techniki Cieplnej Politechnika Warszawska Slide 1 of 20 do Coraz bardziej popularne staj si zagadnienia zwi zane z prac ¹ródªa energii elektrycznej (i cieplnej)

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych

Bardziej szczegółowo

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania WYKŁAD 4 Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania PLAN WYKŁADU Metody uczenia sieci: Uczenie perceptronu Propagacja wsteczna Zastosowania Sterowanie (powtórzenie) Kompresja obrazu Rozpoznawanie

Bardziej szczegółowo

Propozycja integracji elementów ±wiata gry przy u»yciu drzew zachowa«

Propozycja integracji elementów ±wiata gry przy u»yciu drzew zachowa« Praca cz ±ciowo sponsorowana przez Ministerstwo Nauki i Szkolnictwa Wy»szego, grant nr N N519 172337, Integracyjna metoda wytwarzania aplikacji rozproszonych o wysokich wymaganiach wiarygodno±ciowych.

Bardziej szczegółowo

Wst p do sieci neuronowych, wykªad 14 Zespolone sieci neuronowe

Wst p do sieci neuronowych, wykªad 14 Zespolone sieci neuronowe Wst p do sieci neuronowych, wykªad 14 Zespolone sieci neuronowe M. Czoków, J. Piersa Faculty of Mathematics and Computer Science, Nicolaus Copernicus University, Toru«, Poland 2011-18-02 Motywacja Liczby

Bardziej szczegółowo

Uczenie sieci radialnych (RBF)

Uczenie sieci radialnych (RBF) Uczenie sieci radialnych (RBF) Budowa sieci radialnej Lokalne odwzorowanie przestrzeni wokół neuronu MLP RBF Budowa sieci radialnych Zawsze jedna warstwa ukryta Budowa neuronu Neuron radialny powinien

Bardziej szczegółowo

Plan wykładu. Reguły asocjacyjne. Przykłady asocjacji. Reguły asocjacyjne. Jeli warunki to efekty. warunki efekty

Plan wykładu. Reguły asocjacyjne. Przykłady asocjacji. Reguły asocjacyjne. Jeli warunki to efekty. warunki efekty Plan wykładu Reguły asocjacyjne Marcin S. Szczuka Wykład 6 Terminologia dla reguł asocjacyjnych. Ogólny algorytm znajdowania reguł. Wyszukiwanie czstych zbiorów. Konstruowanie reguł - APRIORI. Reguły asocjacyjne

Bardziej szczegółowo

Dynamiczne wªasno±ci algorytmu propagacji przekona«

Dynamiczne wªasno±ci algorytmu propagacji przekona« BP propagacji przekona«4. Interdyscyplinarne Warsztaty Matematyczne Wydziaª Fizyki Politechnika Warszawska B dlewo, 26 maja, 2013 BP 1 2 3 4 5 6 BP Rysunek: Zbiór zmiennych losowych. BP Rysunek: Zbiór

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-10 Projekt pn. Wzmocnienie

Bardziej szczegółowo

Wst p do sieci neuronowych 2010/2011 wykªad 7 Algorytm propagacji wstecznej cd.

Wst p do sieci neuronowych 2010/2011 wykªad 7 Algorytm propagacji wstecznej cd. Wst p do sieci neuronowych 2010/2011 wykªad 7 Algorytm propagacji wstecznej cd. M. Czoków, J. Piersa Faculty of Mathematics and Computer Science, Nicolaus Copernicus University, Toru«, Poland 2010-11-23

Bardziej szczegółowo

Metody dowodzenia twierdze«

Metody dowodzenia twierdze« Metody dowodzenia twierdze«1 Metoda indukcji matematycznej Je±li T (n) jest form zdaniow okre±lon w zbiorze liczb naturalnych, to prawdziwe jest zdanie (T (0) n N (T (n) T (n + 1))) n N T (n). 2 W przypadku

Bardziej szczegółowo

Podstawy Sztucznej Inteligencji (PSZT)

Podstawy Sztucznej Inteligencji (PSZT) Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12

Bardziej szczegółowo

i, lub, nie Cegieªki buduj ce wspóªczesne procesory. Piotr Fulma«ski 5 kwietnia 2017

i, lub, nie Cegieªki buduj ce wspóªczesne procesory. Piotr Fulma«ski 5 kwietnia 2017 i, lub, nie Cegieªki buduj ce wspóªczesne procesory. Piotr Fulma«ski Uniwersytet Šódzki, Wydziaª Matematyki i Informatyki UŠ piotr@fulmanski.pl http://fulmanski.pl/zajecia/prezentacje/festiwalnauki2017/festiwal_wmii_2017_

Bardziej szczegółowo

Deep Learning na przykładzie Deep Belief Networks

Deep Learning na przykładzie Deep Belief Networks Deep Learning na przykładzie Deep Belief Networks Jan Karwowski Zakład Sztucznej Inteligencji i Metod Obliczeniowych Wydział Matematyki i Nauk Informacyjnych PW 20 V 2014 Jan Karwowski (MiNI) Deep Learning

Bardziej szczegółowo

Wzorce projektowe kreacyjne

Wzorce projektowe kreacyjne Wzorce projektowe kreacyjne Krzysztof Ciebiera 14 pa¹dziernika 2005 1 1 Wst p 1.1 Podstawy Opis Ogólny Podstawowe informacje Wzorce kreacyjne sªu» do uabstrakcyjniania procesu tworzenia obiektów. Znaczenie

Bardziej szczegółowo

Ukªady równa«liniowych - rozkªady typu LU i LL'

Ukªady równa«liniowych - rozkªady typu LU i LL' Rozdziaª 9 Ukªady równa«liniowych - rozkªady typu LU i LL' W tym rozdziale zapoznamy si z metodami sªu» cych do rozwi zywania ukªadów równa«liniowych przy pomocy uzyskiwaniu odpowiednich rozkªadów macierzy

Bardziej szczegółowo

Uniwersalne maszyny ucz ce si. Tomasz Maszczyk. promotor: prof. Wªodzisªaw Duch

Uniwersalne maszyny ucz ce si. Tomasz Maszczyk. promotor: prof. Wªodzisªaw Duch promotor: prof. Wªodzisªaw Duch Katedra Informatyki Stosowanej Wydziaª Fizyki Astronomii i Informatyki Stosowanej Uniwersytet Mikoªaja Kopernika w Toruniu 26 marca 2013, ZISWD PP, Pozna« Plan prezentacji

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. dla sieci skierowanych Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-25 1 Motywacja

Bardziej szczegółowo

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa

Bardziej szczegółowo

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15 ARYTMETYKA MODULARNA Grzegorz Szkibiel Wiosna 2014/15 Spis tre±ci 1 Denicja kongruencji i jej podstawowe wªasno±ci 3 2 Systemy pozycyjne 8 3 Elementy odwrotne 12 4 Pewne zastosowania elementów odwrotnych

Bardziej szczegółowo

Elementy inteligencji obliczeniowej

Elementy inteligencji obliczeniowej Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką

Bardziej szczegółowo

Przykªady problemów optymalizacji kombinatorycznej

Przykªady problemów optymalizacji kombinatorycznej Przykªady problemów optymalizacji kombinatorycznej Problem Komiwoja»era (PK) Dane: n liczba miast, n Z +, c ji, i, j {1,..., n}, i j odlegªo± mi dzy miastem i a miastem j, c ji = c ij, c ji R +. Zadanie:

Bardziej szczegółowo

Wnioskowanie Boolowskie i teoria zbiorów przybli»onych

Wnioskowanie Boolowskie i teoria zbiorów przybli»onych Wnioskowanie Boolowskie i teoria zbiorów przybli»onych 4 Zbiory przybli»one Wprowadzenie do teorii zbiorów przybli»onych Zªo»ono± problemu szukania reduktów 5 Wnioskowanie Boolowskie w obliczaniu reduktów

Bardziej szczegółowo

Minimalne drzewa rozpinaj ce

Minimalne drzewa rozpinaj ce y i y i drzewa Spis zagadnie«y i drzewa i lasy cykle fundamentalne i rozci cia fundamentalne wªasno±ci cykli i rozci minimalne drzewa algorytm algorytm Drzewo y i spójnego, nieskierowanego grafu prostego

Bardziej szczegółowo

Arkusz maturalny. Šukasz Dawidowski. 25 kwietnia 2016r. Powtórki maturalne

Arkusz maturalny. Šukasz Dawidowski. 25 kwietnia 2016r. Powtórki maturalne Arkusz maturalny Šukasz Dawidowski Powtórki maturalne 25 kwietnia 2016r. Odwrotno±ci liczby rzeczywistej 1. 9 8 2. 0, (1) 3. 8 9 4. 0, (8) 3 4 4 4 1 jest liczba Odwrotno±ci liczby rzeczywistej 3 4 4 4

Bardziej szczegółowo

Badania w sieciach złożonych

Badania w sieciach złożonych Badania w sieciach złożonych Grant WCSS nr 177, sprawozdanie za rok 2012 Kierownik grantu dr. hab. inż. Przemysław Kazienko mgr inż. Radosław Michalski Instytut Informatyki Politechniki Wrocławskiej Obszar

Bardziej szczegółowo

4.1. Wprowadzenie...70 4.2. Podstawowe definicje...71 4.3. Algorytm określania wartości parametrów w regresji logistycznej...74

4.1. Wprowadzenie...70 4.2. Podstawowe definicje...71 4.3. Algorytm określania wartości parametrów w regresji logistycznej...74 3 Wykaz najważniejszych skrótów...8 Przedmowa... 10 1. Podstawowe pojęcia data mining...11 1.1. Wprowadzenie...12 1.2. Podstawowe zadania eksploracji danych...13 1.3. Główne etapy eksploracji danych...15

Bardziej szczegółowo

Listy i operacje pytania

Listy i operacje pytania Listy i operacje pytania Iwona Polak iwona.polak@us.edu.pl Uniwersytet l ski Instytut Informatyki pa¹dziernika 07 Który atrybut NIE wyst puje jako atrybut elementów listy? klucz elementu (key) wska¹nik

Bardziej szczegółowo

Model obiektu w JavaScript

Model obiektu w JavaScript 16 marca 2009 E4X Paradygmat klasowy Klasa Deniuje wszystkie wªa±ciwo±ci charakterystyczne dla wybranego zbioru obiektów. Klasa jest poj ciem abstrakcyjnym odnosz cym si do zbioru, a nie do pojedynczego

Bardziej szczegółowo

Funkcje, wielomiany. Informacje pomocnicze

Funkcje, wielomiany. Informacje pomocnicze Funkcje, wielomiany Informacje pomocnicze Przydatne wzory: (a + b) 2 = a 2 + 2ab + b 2 (a b) 2 = a 2 2ab + b 2 (a + b) 3 = a 3 + 3a 2 b + 3ab 2 + b 3 (a b) 3 = a 3 3a 2 b + 3ab 2 b 3 a 2 b 2 = (a + b)(a

Bardziej szczegółowo

Uczenie sieci typu MLP

Uczenie sieci typu MLP Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik

Bardziej szczegółowo

Aproksymacja funkcji metod najmniejszych kwadratów

Aproksymacja funkcji metod najmniejszych kwadratów Aproksymacja funkcji metod najmniejszych kwadratów Teoria Interpolacja polega na znajdowaniu krzywej przechodz cej przez wszystkie w zªy. Zdarzaj si jednak sytuacje, w których dane te mog by obarczone

Bardziej szczegółowo

Metody numeryczne. Wst p do metod numerycznych. Dawid Rasaªa. January 9, 2012. Dawid Rasaªa Metody numeryczne 1 / 9

Metody numeryczne. Wst p do metod numerycznych. Dawid Rasaªa. January 9, 2012. Dawid Rasaªa Metody numeryczne 1 / 9 Metody numeryczne Wst p do metod numerycznych Dawid Rasaªa January 9, 2012 Dawid Rasaªa Metody numeryczne 1 / 9 Metody numeryczne Czym s metody numeryczne? Istota metod numerycznych Metody numeryczne s

Bardziej szczegółowo

Metody bioinformatyki (MBI)

Metody bioinformatyki (MBI) Metody bioinformatyki (MBI) Wykªad 9 - mikromacierze DNA, analiza danych wielowymiarowych Robert Nowak 2016Z Metody bioinformatyki (MBI) 1/42 mikromacierze DNA Metoda badawcza, pozwalaj ca bada obecno±

Bardziej szczegółowo

Bash i algorytmy. Elwira Wachowicz. 20 lutego

Bash i algorytmy. Elwira Wachowicz. 20 lutego Bash i algorytmy Elwira Wachowicz elwira@ifd.uni.wroc.pl 20 lutego 2012 Elwira Wachowicz (elwira@ifd.uni.wroc.pl) Bash i algorytmy 20 lutego 2012 1 / 16 Inne przydatne polecenia Polecenie Dziaªanie Przykªad

Bardziej szczegółowo

1 Metody iteracyjne rozwi zywania równania f(x)=0

1 Metody iteracyjne rozwi zywania równania f(x)=0 1 Metody iteracyjne rozwi zywania równania f()=0 1.1 Metoda bisekcji Zaªó»my,»e funkcja f jest ci gªa w [a 0, b 0 ]. Pierwiastek jest w przedziale [a 0, b 0 ] gdy f(a 0 )f(b 0 ) < 0. (1) Ustalmy f(a 0

Bardziej szczegółowo

Wykªad 7. Ekstrema lokalne funkcji dwóch zmiennych.

Wykªad 7. Ekstrema lokalne funkcji dwóch zmiennych. Wykªad jest prowadzony w oparciu o podr cznik Analiza matematyczna 2. Denicje, twierdzenia, wzory M. Gewerta i Z. Skoczylasa. Wykªad 7. Ekstrema lokalne funkcji dwóch zmiennych. Denicja Mówimy,»e funkcja

Bardziej szczegółowo

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW 17 XII 2013 Jan Karwowski

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 2 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 213-1-15 Projekt pn. Wzmocnienie potencjału

Bardziej szczegółowo

Metody numeryczne i statystyka dla in»ynierów

Metody numeryczne i statystyka dla in»ynierów Kierunek: Automatyka i Robotyka, II rok Wprowadzenie PWSZ Gªogów, 2009 Plan wykªadów Wprowadzenie, podanie zagadnie«, poj cie metody numerycznej i algorytmu numerycznego, obszar zainteresowa«i stosowalno±ci

Bardziej szczegółowo

10. Redukcja wymiaru - metoda PCA

10. Redukcja wymiaru - metoda PCA Algorytmy rozpoznawania obrazów 10. Redukcja wymiaru - metoda PCA dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. PCA Analiza składowych głównych: w skrócie nazywana PCA (od ang. Principle Component

Bardziej szczegółowo

Jak zachęcać i przygotowywać uczniów do udziału w Olimpiadzie Informatycznej Gimnazjalistów (OIG)?

Jak zachęcać i przygotowywać uczniów do udziału w Olimpiadzie Informatycznej Gimnazjalistów (OIG)? PomóŜmy im rozwinąć skrzydła - czego potrzebują uczniowie o róŝnorodnych zdolnościach? 24 25 X 2011, Warszawa Jak zachęcać i przygotowywać uczniów do udziału w Olimpiadzie Informatycznej Gimnazjalistów

Bardziej szczegółowo

Ekonometria Bayesowska

Ekonometria Bayesowska Ekonometria Bayesowska Wykªad 9: Metody numeryczne: MCMC Andrzej Torój 1 / 17 Plan wykªadu Wprowadzenie 1 Wprowadzenie 3 / 17 Plan prezentacji Wprowadzenie 1 Wprowadzenie 3 3 / 17 Zastosowanie metod numerycznych

Bardziej szczegółowo

POLITECHNIKA WROCŠAWSKA WYDZIAŠ ELEKTRONIKI PRACA DYPLOMOWA MAGISTERSKA

POLITECHNIKA WROCŠAWSKA WYDZIAŠ ELEKTRONIKI PRACA DYPLOMOWA MAGISTERSKA POLITECHNIKA WROCŠAWSKA WYDZIAŠ ELEKTRONIKI Kierunek: Specjalno± : Automatyka i Robotyka (AIR) Robotyka (ARR) PRACA DYPLOMOWA MAGISTERSKA Podatny manipulator planarny - budowa i sterowanie Vulnerable planar

Bardziej szczegółowo

ANALIZA NUMERYCZNA. Grzegorz Szkibiel. Wiosna 2014/15

ANALIZA NUMERYCZNA. Grzegorz Szkibiel. Wiosna 2014/15 ANALIZA NUMERYCZNA Grzegorz Szkibiel Wiosna 2014/15 Spis tre±ci 1 Metoda Eulera 3 1.1 zagadnienia brzegowe....................... 3 1.2 Zastosowanie ró»niczki...................... 4 1.3 Output do pliku

Bardziej szczegółowo

Janusz Adamowski METODY OBLICZENIOWE FIZYKI Zastosowanie eliptycznych równa«ró»niczkowych

Janusz Adamowski METODY OBLICZENIOWE FIZYKI Zastosowanie eliptycznych równa«ró»niczkowych Janusz Adamowski METODY OBLICZENIOWE FIZYKI 1 Rozdziaª 9 RÓWNANIA ELIPTYCZNE 9.1 Zastosowanie eliptycznych równa«ró»niczkowych cz stkowych 9.1.1 Problemy z warunkami brzegowymi W przestrzeni dwuwymiarowej

Bardziej szczegółowo

Strategia rozwoju kariery zawodowej - Twój scenariusz (program nagrania).

Strategia rozwoju kariery zawodowej - Twój scenariusz (program nagrania). Strategia rozwoju kariery zawodowej - Twój scenariusz (program nagrania). W momencie gdy jesteś studentem lub świeżym absolwentem to znajdujesz się w dobrym momencie, aby rozpocząć planowanie swojej ścieżki

Bardziej szczegółowo

Ekonometria - wykªad 8

Ekonometria - wykªad 8 Ekonometria - wykªad 8 3.1 Specykacja i werykacja modelu liniowego dobór zmiennych obja±niaj cych - cz ± 1 Barbara Jasiulis-Goªdyn 11.04.2014, 25.04.2014 2013/2014 Wprowadzenie Ideologia Y zmienna obja±niana

Bardziej szczegółowo

Granular Computing 9999 pages 15 METODY SZTUCZNEJ INTELIGENCJI - PROJEKTY

Granular Computing 9999 pages 15 METODY SZTUCZNEJ INTELIGENCJI - PROJEKTY Granular Computing 9999 pages 15 METODY SZTUCZNEJ INTELIGENCJI - PROJEKTY PB 2 PB 1 Projekt z grupowania danych - Rough k-medoids Liczba osób realizuj cych projekt: 1 osoba 1. Wczytanie danych w formatach

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt

Bardziej szczegółowo

Metody Sztucznej Inteligencji II

Metody Sztucznej Inteligencji II 17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału

Bardziej szczegółowo

Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej. Adam Żychowski

Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej. Adam Żychowski Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej Adam Żychowski Definicja problemu Każdy z obiektów może należeć do więcej niż jednej kategorii. Alternatywna definicja Zastosowania

Bardziej szczegółowo

Laboratorium z przedmiotu MED. Lab1 - wprowadzenie

Laboratorium z przedmiotu MED. Lab1 - wprowadzenie Laboratorium z przedmiotu MED Lab1 - wprowadzenie Grzegorz Protaziuk Konsultacje: środa godz. 11.00 12.00 pok. 301 Gmach EiTI email: gprotazi@elka.pw.edu.pl (w temacie mejla proszę dodać frazę MED) www.ii.pw.edu.pl/~gprotazi

Bardziej szczegółowo

Uczenie Maszynowe: Wprowadzenie. (c) Marcin Sydow

Uczenie Maszynowe: Wprowadzenie. (c) Marcin Sydow Plan Dane Eksploracja danych i uczenie maszynowe: motywacja Na czym polega uczenie z danych Tablice decyzyjne: atrybuty i obserwacje z nadzorem i bez nadzoru Klasykacja i regresja Przykªady Dane: Motywacja

Bardziej szczegółowo

Programowanie wspóªbie»ne

Programowanie wspóªbie»ne 1 Zadanie 1: Bar Programowanie wspóªbie»ne wiczenia 6 monitory cz. 2 Napisz monitor Bar synchronizuj cy prac barmana obsªuguj cego klientów przy kolistym barze z N stoªkami. Ka»dy klient realizuje nast

Bardziej szczegółowo

Portretowanie zdolności i ich rozwój. Projekt współfinansowany z Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Portretowanie zdolności i ich rozwój. Projekt współfinansowany z Unii Europejskiej w ramach Europejskiego Funduszu Społecznego Portretowanie zdolności i ich rozwój Projekt współfinansowany z Unii Europejskiej w ramach Europejskiego Funduszu Społecznego Jeśli chcesz nauczyć Jasia matematyki, to musisz znać matematykę i Jasia ks.

Bardziej szczegółowo

Systemy decyzyjne Wykªad 5: Drzewa decyzyjne

Systemy decyzyjne Wykªad 5: Drzewa decyzyjne Nguyen Hung Son () W5: Drzewa decyzyjne 1 / 38 Systemy decyzyjne Wykªad 5: Drzewa decyzyjne Nguyen Hung Son Przykªad: klasyfikacja robotów Nguyen Hung Son () W5: Drzewa decyzyjne 2 / 38 Przykªad: drzewo

Bardziej szczegółowo

Ukªady równa«liniowych

Ukªady równa«liniowych dr Krzysztof yjewski Mechatronika; S-I 0 in» 7 listopada 206 Ukªady równa«liniowych Informacje pomocnicze Denicja Ogólna posta ukªadu m równa«liniowych z n niewiadomymi x, x, x n, gdzie m, n N jest nast

Bardziej szczegółowo

3. (8 punktów) EGZAMIN MAGISTERSKI, Biomatematyka

3. (8 punktów) EGZAMIN MAGISTERSKI, Biomatematyka EGZAMIN MAGISTERSKI, 26.06.2017 Biomatematyka 1. (8 punktów) Rozwój wielko±ci pewnej populacji jest opisany równaniem: dn dt = rn(t) (1 + an(t), b gdzie N(t) jest wielko±ci populacji w chwili t, natomiast

Bardziej szczegółowo

Elementarna statystyka Wnioskowanie o regresji (Inference 2 czerwca for regression) / 13

Elementarna statystyka Wnioskowanie o regresji (Inference 2 czerwca for regression) / 13 Elementarna statystyka Wnioskowanie o regresji (Inference for regression) Alexander Bendikov Uniwersytet Wrocªawski 2 czerwca 2016 Elementarna statystyka Wnioskowanie o regresji (Inference 2 czerwca for

Bardziej szczegółowo

7. Maszyny wektorów podpierajacych SVMs

7. Maszyny wektorów podpierajacych SVMs Algorytmy rozpoznawania obrazów 7. Maszyny wektorów podpierajacych SVMs dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Maszyny wektorów podpierajacych - SVMs Maszyny wektorów podpierających (ang.

Bardziej szczegółowo

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. zajecia.jakubw.pl/nai Literatura: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym. WNT, Warszawa 997. PODSTAWOWE ZAGADNIENIA TECHNICZNE AI

Bardziej szczegółowo

LZNK. Rozkªad QR. Metoda Householdera

LZNK. Rozkªad QR. Metoda Householdera Rozdziaª 10 LZNK. Rozªad QR. Metoda Householdera W tym rozdziale zajmiemy si liniowym zadaniem najmniejszych wadratów (LZNK). Dla danej macierzy A wymiaru M N i wetora b wymiaru M chcemy znale¹ wetor x

Bardziej szczegółowo

DREAM5 Challenges. Metody i rezultaty. Praktyki wakacyjne 2010 sesja sprawozdawcza

DREAM5 Challenges. Metody i rezultaty. Praktyki wakacyjne 2010 sesja sprawozdawcza DREAM5 Challenges Metody i rezultaty Julia Herman-I»ycka Jacek Jendrej Praktyki wakacyjne 2010 sesja sprawozdawcza Plan prezentacji 1 Czym jest uczenie maszynowe 2 Motywacja i sformuªowanie problemów 3

Bardziej szczegółowo

c Marcin Sydow Przepªywy Grafy i Zastosowania Podsumowanie 12: Przepªywy w sieciach

c Marcin Sydow Przepªywy Grafy i Zastosowania Podsumowanie 12: Przepªywy w sieciach 12: w sieciach Spis zagadnie«sieci przepªywowe przepªywy w sieciach ±cie»ka powi kszaj ca tw. Forda-Fulkersona Znajdowanie maksymalnego przepªywu Zastosowania przepªywów Sieci przepªywowe Sie przepªywowa

Bardziej szczegółowo

Listy Inne przykªady Rozwi zywanie problemów. Listy w Mathematice. Marcin Karcz. Wydziaª Matematyki, Fizyki i Informatyki.

Listy Inne przykªady Rozwi zywanie problemów. Listy w Mathematice. Marcin Karcz. Wydziaª Matematyki, Fizyki i Informatyki. Wydziaª Matematyki, Fizyki i Informatyki 10 marca 2008 Spis tre±ci Listy 1 Listy 2 3 Co to jest lista? Listy List w Mathematice jest wyra»enie oddzielone przecinkami i zamkni te w { klamrach }. Elementy

Bardziej szczegółowo

Stereometria (geometria przestrzenna)

Stereometria (geometria przestrzenna) Stereometria (geometria przestrzenna) Wzajemne poªo»enie prostych w przestrzeni Stereometria jest dziaªem geometrii, którego przedmiotem bada«s bryªy przestrzenne oraz ich wªa±ciwo±ci. Na pocz tek omówimy

Bardziej szczegółowo

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,

Bardziej szczegółowo

2 Liczby rzeczywiste - cz. 2

2 Liczby rzeczywiste - cz. 2 2 Liczby rzeczywiste - cz. 2 W tej lekcji omówimy pozostaªe tematy zwi zane z liczbami rzeczywistymi. 2. Przedziaªy liczbowe Wyró»niamy nast puj ce rodzaje przedziaªów liczbowych: (a) przedziaªy ograniczone:

Bardziej szczegółowo

Agnieszka Nowak Brzezińska Wykład III

Agnieszka Nowak Brzezińska Wykład III Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe

Bardziej szczegółowo

Prawdopodobie«stwo warunkowe, twierdzenie Bayesa, niezale»no± zdarze«.

Prawdopodobie«stwo warunkowe, twierdzenie Bayesa, niezale»no± zdarze«. Prawdopodobie«stwo warunkowe, twierdzenie Bayesa, niezale»no± zdarze«. Alicja Czy» WFTiMS April 14, 2010 Spis tre±ci 1 Wprowadzenie Denicja prawdopodobie«stwa warunkowego Twierdzenie Bayesa Niezale»no±

Bardziej szczegółowo

1 Bª dy i arytmetyka zmiennopozycyjna

1 Bª dy i arytmetyka zmiennopozycyjna 1 Bª dy i arytmetyka zmiennopozycyjna Liczby w pami ci komputera przedstawiamy w ukªadzie dwójkowym w postaci zmiennopozycyjnej Oznacza to,»e s one postaci ±m c, 01 m < 1, c min c c max, (1) gdzie m nazywamy

Bardziej szczegółowo

Systemy decyzyjne Wprowadzenie

Systemy decyzyjne Wprowadzenie Hung Son Nguyen (UW) Systemy decyzyjne Wprowadzenie 2007 1 / 34 Systemy decyzyjne Wprowadzenie Hung Son Nguyen Institute of Mathematics, Warsaw University son@mimuw.edu.pl 2007 Hung Son Nguyen (UW) Systemy

Bardziej szczegółowo

Teoria grafów i jej zastosowania. 1 / 126

Teoria grafów i jej zastosowania. 1 / 126 Teoria grafów i jej zastosowania. 1 / 126 Mosty królewieckie W Królewcu, na rzece Pregole znajduj si dwie wyspy poª czone ze sob, a tak»e z brzegami za pomoc siedmiu mostów, tak jak pokazuje rysunek 2

Bardziej szczegółowo

Sztuczne sieci neuronowe oparte na metodach wyszukiwania interesujących projekcji

Sztuczne sieci neuronowe oparte na metodach wyszukiwania interesujących projekcji Sztuczne sieci neuronowe oparte na metodach wyszukiwania interesujących projekcji Praca pod kierunkiem prof. W. Ducha Wydział Fizyki Astronomii i Informatyki Stosowanej Uniwersytet Mikołaja Kopernika Toruń

Bardziej szczegółowo

LXV OLIMPIADA FIZYCZNA ZAWODY III STOPNIA

LXV OLIMPIADA FIZYCZNA ZAWODY III STOPNIA LXV OLIMPIADA FIZYCZNA ZAWODY III STOPNIA CZ DO WIADCZALNA Za zadanie do±wiadczalne mo»na otrzyma maksymalnie 40 punktów. Zadanie D. Rozgrzane wolframowe wªókno»arówki o temperaturze bezwzgl dnej T emituje

Bardziej szczegółowo

Modele liniowe i mieszane na przykªadzie analizy danych biologicznych - Wykªad 1

Modele liniowe i mieszane na przykªadzie analizy danych biologicznych - Wykªad 1 Modele liniowe i mieszane na przykªadzie analizy danych biologicznych - Wykªad 1 Tomasz Suchocki Uniwersytet Przyrodniczy we Wrocªawiu Katedra Genetyki i Ogólnej Hodowli Zwierz t Plan wykªadu Analiza wariancji

Bardziej szczegółowo

Wzorce projektowe strukturalne cz. 1

Wzorce projektowe strukturalne cz. 1 Wzorce projektowe strukturalne cz. 1 Krzysztof Ciebiera 19 pa¹dziernika 2005 1 1 Wst p 1.1 Podstawowe wzorce Podstawowe wzorce Podstawowe informacje Singleton gwarantuje,»e klasa ma jeden egzemplarz. Adapter

Bardziej szczegółowo

Twierdzenie Wainera. Marek Czarnecki. Warszawa, 3 lipca Wydziaª Filozoi i Socjologii Uniwersytet Warszawski

Twierdzenie Wainera. Marek Czarnecki. Warszawa, 3 lipca Wydziaª Filozoi i Socjologii Uniwersytet Warszawski Twierdzenie Wainera Marek Czarnecki Wydziaª Filozoi i Socjologii Uniwersytet Warszawski Wydziaª Matematyki, Informatyki i Mechaniki Uniwersytet Warszawski Warszawa, 3 lipca 2009 Motywacje Dla dowolnej

Bardziej szczegółowo

Agnieszka Nowak Brzezińska Wykład III

Agnieszka Nowak Brzezińska Wykład III Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe

Bardziej szczegółowo

MiASI. Modelowanie systemów informatycznych. Piotr Fulma«ski. 18 stycznia Wydziaª Matematyki i Informatyki, Uniwersytet Šódzki, Polska

MiASI. Modelowanie systemów informatycznych. Piotr Fulma«ski. 18 stycznia Wydziaª Matematyki i Informatyki, Uniwersytet Šódzki, Polska MiASI Modelowanie systemów informatycznych Piotr Fulma«ski Wydziaª Matematyki i Informatyki, Uniwersytet Šódzki, Polska 18 stycznia 2010 Spis tre±ci 1 Analiza systemu informatycznego Poziomy analizy 2

Bardziej szczegółowo

Wst p. Elementy systemów decyzyjnych Sprawy organizacyjne. Wprowadzenie Przegl d metod klasykacji

Wst p. Elementy systemów decyzyjnych Sprawy organizacyjne. Wprowadzenie Przegl d metod klasykacji Wst p 1 Wprowadzenie do systemów decyzyjnych Elementy systemów decyzyjnych Sprawy organizacyjne 2 Problem klasykacji i klasykatory Wprowadzenie Przegl d metod klasykacji 3 Metody oceny klasykatorów Skuteczno±

Bardziej szczegółowo

Instytut Podstaw Informatyki Polskiej Akademii Nauk. Marek Grochowski

Instytut Podstaw Informatyki Polskiej Akademii Nauk. Marek Grochowski Instytut Podstaw Informatyki Polskiej Akademii Nauk Marek Grochowski Sztuczne sieci neuronowe oparte na metodach wyszukiwania interesuj cych projekcji Praca doktorska pod kierunkiem prof. Wªodzisªawa Ducha

Bardziej szczegółowo

Relacj binarn okre±lon w zbiorze X nazywamy podzbiór ϱ X X.

Relacj binarn okre±lon w zbiorze X nazywamy podzbiór ϱ X X. Relacje 1 Relacj n-argumentow nazywamy podzbiór ϱ X 1 X 2... X n. Je±li ϱ X Y jest relacj dwuargumentow (binarn ), to zamiast (x, y) ϱ piszemy xϱy. Relacj binarn okre±lon w zbiorze X nazywamy podzbiór

Bardziej szczegółowo

Liniowe zadania najmniejszych kwadratów

Liniowe zadania najmniejszych kwadratów Rozdziaª 9 Liniowe zadania najmniejszych kwadratów Liniowe zadania najmniejszych kwadratów polega na znalezieniu x R n, który minimalizuje Ax b 2 dla danej macierzy A R m,n i wektora b R m. Zauwa»my,»e

Bardziej szczegółowo

Lekcja 9 Liczby losowe, zmienne, staªe

Lekcja 9 Liczby losowe, zmienne, staªe Lekcja 9 Liczby losowe, zmienne, staªe Akademia im. Jana Dªugosza w Cz stochowie Liczby losowe Czasami potrzebujemy by program za nas wylosowaª liczb. U»yjemy do tego polecenia liczba losowa: Liczby losowe

Bardziej szczegółowo

XVII Warmi«sko-Mazurskie Zawody Matematyczne

XVII Warmi«sko-Mazurskie Zawody Matematyczne 1 XVII Warmi«sko-Mazurskie Zawody Matematyczne Kategoria: klasa VIII szkoªy podstawowej i III gimnazjum Olsztyn, 16 maja 2019r. Zad. 1. Udowodnij,»e dla dowolnych liczb rzeczywistych x, y, z speªniaj cych

Bardziej szczegółowo

Metody klasyfikacji danych - część 1 p.1/24

Metody klasyfikacji danych - część 1 p.1/24 Metody klasyfikacji danych - część 1 Inteligentne Usługi Informacyjne Jerzy Dembski Metody klasyfikacji danych - część 1 p.1/24 Plan wykładu - Zadanie klasyfikacji danych - Przeglad problemów klasyfikacji

Bardziej szczegółowo

CAŠKOWANIE METODAMI MONTE CARLO Janusz Adamowski

CAŠKOWANIE METODAMI MONTE CARLO Janusz Adamowski III. CAŠKOWAIE METODAMI MOTE CARLO Janusz Adamowski 1 1 azwa metody Podstawowym zastosowaniem w zyce metody Monte Carlo (MC) jest opis zªo-»onych ukªadów zycznych o du»ej liczbie stopni swobody. Opis zªo»onych

Bardziej szczegółowo

Epigenome - 'above the genome'

Epigenome - 'above the genome' e - 'above the genome' Wydziaª Matematyki i Informatyki UJ Instytut Informatyki 14 stycznia 2013 e Rysunek: ¹ródªo: http://learn.genetics.utah.edu/content/epigenetics/nutrition/ e Plan Genom 1 Genom e

Bardziej szczegółowo

NUMER IDENTYFIKATORA:

NUMER IDENTYFIKATORA: Społeczne Liceum Ogólnokształcące z Maturą Międzynarodową im. Ingmara Bergmana IB WORLD SCHOOL 53 ul. Raszyńska, 0-06 Warszawa, tel./fax 668 54 5 www.ib.bednarska.edu.pl / e-mail: liceum.ib@rasz.edu.pl

Bardziej szczegółowo