Uniwersalne maszyny ucz ce si. Tomasz Maszczyk. promotor: prof. Wªodzisªaw Duch
|
|
- Eugeniusz Rosiński
- 6 lat temu
- Przeglądów:
Transkrypt
1 promotor: prof. Wªodzisªaw Duch Katedra Informatyki Stosowanej Wydziaª Fizyki Astronomii i Informatyki Stosowanej Uniwersytet Mikoªaja Kopernika w Toruniu 26 marca 2013, ZISWD PP, Pozna«
2 Plan prezentacji Plan Ogólna idea Stan obecny Ogólna idea Konstrukcja nowych, u»ytecznych cech
3 Ogólna idea Plan Ogólna idea Stan obecny Problem klasykacji istotno± i zastosowania. Cz sto zbyt zªo»one modele (generalizacja, interpretacja). Czarne skrzynki. Remedium - jawnie okre±lona przestrze«cech + prosty klasykator. Czasami odkrywanie wiedzy z danych bardzo trudne lub niemo»liwe (brak optymalnego rozwi zania w po» danym czasie). Cz sto wystarczy pewien próg dokªadno±ci. Wa»ny wpªyw na proces odkrywania wiedzy maj transformacje (konstruowanie modelu decyzyjnego staje si prostsze). Twierdzenie Covera (prawd. liniowej separacji ro±nie z wymiarowo±ci ). Przekle«stwo wymiarowo±ci (komplikacja modelu). Umiej tne rozszerzanie i kurczenie przestrzeni cech.
4 Stan obecny Plan Ogólna idea Stan obecny Ograniczenia metod CI Ka»dy system posiada pewn specyk, która czyni go dobrym jedynie dla pewnej klasy problemów (no free lunch). Drzewa i systemy reguªowe dobre gdy prosta i logiczna struktura (ostre granice decyzji); zªe tam gdzie najlepsze rozwi zanie daje liniowa dyskryminacja. SVM wraz z ró»nymi funkcjami j drowymi dobre, gdy wymagana jest zªo»ona topologia, ale pomija proste rozwi zania. Nie dziaªa dobrze dla zªo»onych funkcji Boolowskich lub gdy wymagane s ostre granice.
5 Zasada dziaªania ULM ULM Mapowanie SVMowe Informacje wst pne ULM bazuje na systematycznym generowaniu i selekcji cech. Hierarchia cech powinna by ustalona (rodzaj granic decyzji). Rosn ca komplikacja granic decyzji i modeli. Cel: najprostsze, dobre modele dla wszystkich rodzajów zada«. Sukces le»y w mo»liwo±ciach transformacji, które wydobywaj u»yteczne cechy i radz sobie z rozmaitymi problemami.
6 ULM ULM Mapowanie SVMowe ULM to poª czenie ró»nych transformacji danych w pewn struktur, która systematycznie zwi ksza swoj zªo»ono±. Sukces poszukiwania najlepszego zestawienia transformacji le»y w zdolno±ciach transformacji do wydobycia u»ytecznych informacji. Generowanie cech powinno przebiega od najbardziej ogólnych, daj c prawie liniow granic decyzji, a» po bardziej szczegóªowe, daj ce mocn nieliniowo± jedynie w pobli»u granicy. Systematyczna eksploracja cech o rosn cej zªo»ono±ci umo»liwia odkrywanie prostych modeli, które bardziej wyszukane systemy uczenia mog pomin.
7 ULM Mapowanie SVMowe ULM 1 Wst pne przetwarzanie danych: obsªuga warto±ci brakuj cych, obsªuga warto±ci odstaj cych, standaryzacja. 2 Generowanie nowych cech: dane oryginalne, n skªadników gªównych (PCA), rzuty (i ich przedziaªy) na kierunki wyznaczone przez centra klas, rzuty (i ich przedziaªy) na kierunki wyznaczone przez centra n skupisk, rzuty na n przypadkowych kierunków, cechy uzyskane za pomoc analizy dyskryminacyjnej Fishera (FDA), mapowanie SVMowe, n cech pochodz cych ze skalowania wielowymiarowego (MDS), przedziaªy (czyste skupiska) wyodr bnione z n przypadkowych kierunków (arpm), przedziaªy wyodr bnione z n przypadkowych kierunków z zapewnieniem maksymalnego marginesu,
8 ULM ULM Mapowanie SVMowe gaussowskie cechy j drowe o ró»nej dyspersji, lokalnie optymalne gaussowskie cechy j drowe (LOK), n cech wyodr bnionych z drzewa decyzyji. 3 Selekcja atrybutów: wspóªczynnik korelacji, informacja wzajemna, wspóªczynnik Fishera, wrapper. 4 Klasykacja w nowej przestrzeni cech: gªosowanie wi kszo±ciowe (WTA), dyskryminacja liniowa (LDA), klasykator Naiwnego Bayesa (NB), uproszczona sie MLP (K2MLP), drzewo decyzji (C4.5), metoda k najbli»szych s siadów (knn), maszyny wektorów wspieraj cych (SVM).
9 ULM ULM Mapowanie SVMowe
10 ULM wyniki ULM Mapowanie SVMowe Dane SSV knn NB SVM(L) SVM(G) ULM Breast-cancer 76.9 ± ± ± ± ± ± 6.4 Breast-w 95.8 ± ± ± ± ± ± 2.3 Credit-a 85.6 ± ± ± ± ± ± 3.3 Credit-g 70.2 ± ± ± ± ± ± 4.7 Diabetes 73.5 ± ± ± ± ± ± 4.0 Heart-c 78.7 ± ± ± ± ± ± 5.9 Heart-statlog 80.8 ± ± ± ± ± ± 7.0 Hepatitis 83.6 ± ± ± ± ± ± 10.7 Ionosphere 87.2 ± ± ± ± ± ± 3.9 Liver-disorders 67.4 ± ± ± ± ± ± 6.9 Vote 96.9 ± ± ± ± ± ± 3.4
11 ULM Mapowanie SVMowe Redukcja wymiarowo±ci i wizualizacja Wiele problemów w uczeniu maszynowym nie mo»e zosta rozwi zanych bez redukcji wymiarowo±ci lub analizy struktury danych (wizualizacja), która pomaga w wyborze odpowiedniego algorytmu klasykuj cego. Niektóre kosztowne obliczeniowo algorytmy wymagaj redukcji wymiarowo±ci po to, aby poradzi sobie z du»ymi zbiorami danych. Wiedza uzyskana dzi ki eksploracji danych, w poª czeniu z odpowiednimi transformacjami, umo»liwiaj zbudowanie najprostszych modeli danych.
12 ULM Mapowanie SVMowe Mapowanie SVMowe Wizualizacja 1D SVML tworzy hiperpªaszczyzn, która zapewnia du»y margines. Liniowa funkcja dyskryminacyjna jest okre±lona przez: g(x) = w x + w 0 Wektor w do hiperpªaszczyzny dyskryminuj cej, wyznacza kierunek, na który s rzutowane wektory wej±ciowe. Wizualizacja 2D Pierwszy rzut powinien da g(x) < 0 dla wektorów z pierwszej klasy oraz g(x) > 0 dla drugiej (dla danych liniowo separowalnych). Kolejny kierunek mo»e zosta znaleziony w przestrzeni do w.
13 ULM Mapowanie SVMowe Mapowanie SVMowe zbiór Parity8
14 ULM Mapowanie SVMowe Mapowanie SVMowe zbiór Heart-c MDS PCA FDA SVM
15 ULM Mapowanie SVMowe Wyniki klasykacji SVML w zredukowanej przestrzeni Liczba cech Parity8 Heart-c Breast-w Leukemia PCA ± ± ± ±15.6 PCA ± ± ± ±19.1 MDS ± ± ± ±18.1 MDS ± ± ± ± 8.4 FDA ± ± ± ±15.4 FDA ± ± ± ±14.1 SVM ± ± ± ± 5.7 SVM ± ± ± ± 5.7 wszystkie 31.4± ± ± ± 7.8
16 arpm arpm SFM LOK Rzut na przypadkowy kierunek z i = w i x mo»e nie by zbyt u»yteczny, jednak»e w pewnych przedziaªach warto±ci z i mo»e znajdowa si wystarczaj co du»e, czyste skupisko rzutowanych przypadków. Skupiska zawieraj ce przypadki treningowe z klasy c mog by odseparowane od pozostaªych przypadków rzutowanych na wymiar z i za pomoc przedziaªów [min, max] (powstaj cechy binarne h i (x) {0, 1}). Jako nowe cechy dodawane s tylko takie skupiska, które zawieraj wektory nie zawarte wi cej ni» β razy w innych skupiskach. Skupiska nie powinny by zbyt maªe, zawieraj c przynajmniej η cz ± wszystkich wektorów.
17 arpm algorytm arpm SFM LOK
18 arpm arpm SFM LOK
19 arpm SFM LOK arpm zbiór Heart
20 arpm ile potrzeba skupisk? arpm SFM LOK
21 arpm wyniki arpm SFM LOK Dane C4.5 knn MLP SVM arpm Parity ± 1.3 (1) 100 ± 0 (17) 94.1 ± 2.1 (17) 32.4 ± 4.4 (230) 99.2 ± 1.6 (12) Parity ± 1.6 (1) 100 ± 0 (21) 89.2 ± 12.3 (21) 39.1 ± 6.5 (920) 99.5 ± 0.9 (12) Leukemia 82.6 ± 8.3 (5) 97.2 ± 1.6 (2) 95.8 ± 3.6 (52) 98.7 ± 3.9 (15) 96.1 ± 8.6 (19) Heart 77.8 ± 2.1 (33) 81.8 ± 6.6 (45) 79.5 ± 1.3 (8) 81.5 ± 1.3 (94) 78.3 ± 4.2 (43) Wisconsin 94.7 ± 2.0 (21) 97.0 ± 1.7 (5) 94.2 ± 0.2 (6) 96.3 ± 2.1 (49) 97.9 ± 1.6 (30) Liver 65.8 ± 2.2 (51) 62.0 ± 1.1 (44) 67.5 ± 3.1 (5) 69.2 ± 10.3 (236) 61.1 ± 5.1 (47)
22 arpm SFM LOK arpm z maksymalizacj marginesu Uwaga skupiona na maksymalizacji marginesu klasykacji. Nowe cechy akceptowane je»eli zwi kszaj dokªadno± klasykacji tych przypadków, które znajduj si po zªej stronie albo w pobli»u granicy. Dwa rodzaje cech: rzuty na losowe kierunki i Gaussowskie cechy j drowe. Nowa cecha powstaªa przez rzut na losowy kierunek powinna zawiera pewn minimaln liczb η wektorów treningowych. Do wygenerowania cech j drowych u»yto 5 warto±ci dyspersji: σ = {2 5 ; 2 2 ; 2 1 ; 2 4 ; 2 7 }. Aby zapewni wielorozdzielczo±, najpierw tworzone s cechy z du» σ, oferuj ce gªadkie granice decyzji, nast pnie u»ywana jest znacznie mniejsza warto±, aby utworzy cechy bardziej lokalne.
23 arpm SFM LOK arpm z maksymalizacj marginesu Zwi kszanie przestrzeni cech powinno odsuwa wektory dalej od granicy decyzji. Przesuwa si powinny (w odpowiednim kierunku) tylko te wektory, które s po zªej stronie lub znajduj si blisko granicy. Ko«cowa decyzja LDA lub WTA, sumuj c aktywno± skupisk z poszczególnych klas. Rzuty z dodanymi przedziaªami powinny zosta zsumowane, daj c caªkowit aktywacj A(c x) dla ka»dej klasy. Mo»na okre±li prawdopodobie«stwo klasykacji p(c x) przez podzielenie tych warto±ci przez caªkowit sum aktywacji dla wszystkich klas. Wykre±laj c A(c x) kontra A( c x) dla ka»dego wektora mo»na pokaza jak daleko dany wektor znajduje si od granicy decyzji. Dla WTA A(c x) A( c x) okre±la odlegªo± od granicy decyzji.
24 arpm SFM LOK arpm z maksymalizacj marginesu Okre±lenie poziomu zaufania klasykacji (rozumianego jako odlegªo± od granicy decyzji) wektora x c przy pomocy funkcji logistycznej: G(x) = 1/(1 + exp( (A(c x) A( c x)))) daje warto±ci okoªo 1, je»eli x jest po dobrej stronie i daleko od granicy, oraz zmierza do zera, je»eli znajduje si po zªej stronie. Caªkowity poziom zaufania modelu mo»e by wyznaczony przez sum po wszystkich wektorach i powinien wynosi n dla doskonaªej separacji. Ko«cowy wpªyw dodania nowej cechy f na caªkowity poziom zaufania jest równy: U(F, f ) = (G(x; F + f ) G(x; F )) x Je»eli U(F, f ) > α, wówczas nowa cecha zostaje zaakceptowana, przyczyniaj c si do zwi kszenia marginesu. Pocz tkowa przestrze«f jest tworzona przy pomocy cech oryginalnych.
25 arpm SFM LOK arpm z maksymalizacj marginesu algorytm
26 arpm SFM LOK arpm z maksymalizacj marginesu wyniki Dane NB knn SSV SVM(L) SVM(G) arpm-no arpm-w arpm-l Appendicitis 83.1 ± ± ± ± ± ± ± ± 6.7 Diabetes 68.1 ± ± ± ± ± ± ± ± 4.4 Glass 68.6 ± ± ± ± ± ± ± ± 8.3 Heart-c 76.5 ± ± ± ± ± ± ± ± 4.7 Liver-disorders 58.6 ± ± ± ± ± ± ± ± 7.9 Wine 98.3 ± ± ± ± ± ± ± ± 4.0 Parity ± ± ± ± ± ± ± ± 3.8 Parity ± ± ± ± ± ± ± ± 2.7
27 arpm SFM LOK arpm bez maksymalizacji marginesu zbiór Heart
28 arpm SFM LOK arpm z maksymalizacj marginesu zbiór Heart
29 SFM arpm SFM LOK Dla ka»dego wektora x mo»na uzyska nie tylko m cech wej±ciowych, ale tak»e n cech j drowych k i = k(x, x i ) zdeniowanych dla ka»dego x trn W przestrzeni cech j drowych mo»liwe jest bezpo±rednie u»ycie dyskryminacji liniowej bez caªej maszynerii SVM-owej. Porównano rezultaty SVM z Gaussowsk funkcj j drow (u»ywaj cym programowania kwadratowego) z bezpo±rednim liniowym rozwi zaniem w przestrzeni opartej o cechy j drowe.
30 SVM vs SFM arpm SFM LOK Dane SVML SVMG SFM(K) Appendicitis 87.6± ± ±11.0 Credit-a 85.5± ± ±5.6 Diabetes 76.9± ± ±3.1 Heart-c 82.5± ± ±5.2 Hepatitis 82.7± ± ±6.6 Ionosphere 89.5± ± ±4.5 Leukemia 98.6± ± ±8.1 Parity8 33.4± ±5.9 11±4.3 Sonar 75.5± ± ±6.4
31 SFM arpm SFM LOK Niekiedy u»ycie cech j drowych jest przesad czasem separacja mo»liwa przy u»yciu oryginalnych cech, których nie ma w przestrzeni j drowej. Je±li dane (dla ka»dej z klas) maj rozkªad gaussowski, wówczas najlepszy kierunek separuj cy to w = m 1 m 2 Dodaj c rzut na ten kierunek jako now cech r(x) = w x umo»liwiamy znalezienie prostego rozwi zania za pomoc liniowej dyskryminacji. SFM to trzy rodzaje cech wsparcia: rzuty na przypadkowe kierunki, ograniczone rzuty (arpm), cechy j drowe (ró»ne).
32 SFM arpm SFM LOK Liczba generowanych cech ro±nie liniowo z liczb x trn Selekcja oparta o MI Aby zaakceptowa now cech f (spo±ród cech typu Z, H, K ): S siedztwo nie powinno by zbyt maªe, lokalne cechy powinny zawiera przynajmniej η wektorów. W lokalnym s siedztwie zysk informacyjny cechy f nie powinien by zbyt maªy MI (f, y) > α Powinna mo»liwie najlepiej odseparowywa przypadki nale» ce do ró»nych klas, a wi c jej maksimum prawdopodobie«stwa max p(c f ) > β c
33 arpm SFM LOK Wpªyw parametru α = na wybór wektorów wsparcia
34 arpm SFM LOK Wpªyw parametru α = 0.05 na wybór wektorów wsparcia
35 arpm SFM LOK Wpªyw parametru α = 0.1 na wybór wektorów wsparcia
36 SFM algorytm arpm SFM LOK
37 SFM wyniki arpm SFM LOK Dane K H K+H Z+H K+H+Z Appendicitis 86.8± ± ± ± ±7.9 Diabetes 77.6± ± ± ± ±3.3 Heart-c 81.2± ± ± ± ±6.7 Hepatitis 82.7± ± ± ± ±5.3 Ionosphere 94.6± ± ± ± ±4.5 Parity8 11± ± ± ± ±3.4 Sonar 83.6± ± ± ± ±7.6
38 LOK arpm SFM LOK LOK opiera si na generacji optymalnych Gaussowskich cech j drowych. Dla ka»dego wektora treningowego liczona jest odlegªo± od pozostaªych punktów (lub tworzona jest tymczasowa j drowa cecha Gaussowska). Dla ka»dej takiej cechy przeanalizowany zostaje rozkªad p(k i c) w celu znalezienia czystych skupisk w pewnym przedziale i iab = [k ia, k ib ] Prowadzi to do utworzenia cech h iab (x), pod warunkiem»e zawiera ona co najmniej η wektorów treningowych. Czyste skupiska s znajdywane zarówno w lokalnym s siedztwie SV w przedziale [a, b], (a = 0), lub je±li SV jest otoczony przez wektory z innej klasy, mog si one znale¹ nieco dalej (wówczas a wyniesie 0 < a < b). Ponadto dla ka»dego wektora k i, dla którego znaleziono p(k i c) = p(k i c), tworzy si now, j drow cech gaussowsk h i (x; b) = exp( x i x 2 /b) LOK do znalezienia rozwi zania w nowej przestrzeni u»ywa WTA lub LDA.
39 LOK tworzenie nowych cech arpm SFM LOK
40 LOK tworzenie nowych cech arpm SFM LOK
41 LOK wyniki arpm SFM LOK Dane SVML SVMG LOKWTA LOKLDA Arrhythmia 50.92± ± ± ±12.98 Autos 54.48± ± ± ±10.40 Balance-scale 84.47± ± ± ±2.62 Breast-cancer 73.27± ± ± ±1.99 Breast-w 96.60± ± ± ±2.13 Car 67.99± ± ± ±1.81 Cmc 19.14± ± ± ±4.30 Credit-a 86.36± ± ± ±4.91 Credit-g 73.95± ± ± ±3.86 Cylinder-bands 74.58± ± ± ±7.53 Dermatology 94.01± ± ± ±3.02 Diabetes 76.88± ± ± ±4.47 Ecoli 78.48± ± ± ±5.40 Glass 42.61± ± ± ±8.13 Haberman 72.54± ± ± ±0.72 Heart-c 82.62± ± ± ±5.17 Heart-statlog 83.48± ± ± ±7.46 Hepatitis 83.25± ± ± ±4.40 Ionosphere 87.72± ± ± ±2.72 Iris 72.20± ± ± ±5.46 Kr-vs-kp 96.03± ± ± ±0.45 Liver-disorders 68.46± ± ± ±6.57 Lymph 81.26± ± ± ±7.91 Sonar 73.71± ± ± ±8.39 Vote 96.12± ± ± ±4.18 Vowel 23.73± ± ± ±1.52 Zoo 91.61± ± ± ±6.97
42 ULM skupia si w gªównej mierze na generowaniu transformacji, tworzeniu nowych cech, uczeniu si z innych modeli poprzez transfer wiedzy oraz znajdywaniu optymalnych klasykatorów dziaªaj cych w takiej przestrzeni. Inspiracja procesy neurobiologiczne odpowiedzialne za uczenie si. Obiekty mog mie ró»norodn i skomplikowan struktur, a ró»ne kategorie mog by identykowane w ró»nych przestrzeniach cech. Systematyczne poszukiwanie modeli opartych na cechach nowego rodzaju umo»liwia odkrycie prostych modeli, które bardziej zaawansowane systemy uczenia pomijaj.
43 Cechy oparte na funkcjach j drowych stanowi atrakcyjn alternatyw dla popularnie stosowanego algorytmu SVM (wielorozdzielczo± ). Zaprezentowanych zostaªo kilka nowych metod konstruowania cech. Mieszanie ró»nych funkcji j drowych i u»ywanie ró»nych typów cech zapewnia znacznie wi ksz elastyczno± tworzenia granic decyzji. Systemy, które aktywnie próbkuj dane wydaj si by znacznie bardziej elastyczne ni» klasykatory pracuj ce w niezmiennych przestrzeniach wej±ciowych.
44 Dzi kuj za uwag!
45 Plan prezentacji Plan Metody FS u»yte do PS Problemy trywialne i nietrywialne Granice decyzji Zastosowania praktyczne Metody rankingowe selekcji cech u»yte do selekcji prototypów Problemy trywialne i nietrywialne Granice decyzji Zastosowania praktyczne
46 Plan Metody FS u»yte do PS Problemy trywialne i nietrywialne Granice decyzji Zastosowania praktyczne Metody selekcji cech u»yte do selekcji wektorów Selekcja wektorów (prototypów) jest efektywn metod zmniejszenia kosztu obliczeniowego procesu klasykacji. Zostaªa opracowana dla knn, ale mo»na jej u»y z innymi klasykatorami. PS polega na selekcji lub konstrukcji nowych wektorów w oparciu o oryginalny zestaw przypadków (n n ). PS eliminuje wektory które s redundantne, odstaj ce lub nieistotne.
47 Metody selekcji cech Plan Metody FS u»yte do PS Problemy trywialne i nietrywialne Granice decyzji Zastosowania praktyczne FS skªada si z dwóch etapów: strategii szukania i oceny jako±ci cech. Strategia szukania jest odpowiedzialna za kolejno± sprawdzania jako±ci podzbiorów cech. Zªo»ono± obliczeniowa zarówno strategii szukania jak i oceny jako±ci cech powinna by jak najmniejsza aby poradzi sobie z du»ymi zbiorami danych. Ranking cech bazuje na ocenie ka»dej cechy niezale»nie, powstaje zatem indeks zale»no±ci cecha-klasa H(f i, y). Indeksy s sortowane malej co i wybierane jest m najlepszych cech.
48 Indeksy FS u»yte w eksperymentach Plan Metody FS u»yte do PS Problemy trywialne i nietrywialne Granice decyzji Zastosowania praktyczne Wspóªczynnik korelacji: R CC (x j, y) = Informacja wzajemna: n i =1 (x i,j x j )(y i y) n i =1 (x i,j x j ) 2 n i =1 (y i y) 2 R MI (x j, y) = x c p(x j = x, y = c) log p(x j =x,y=c) p(x j =x)p(y=c) Wspóªczynnik zmian: Sortuj c rosn co warto±ci cechy f mo»na policzy ile razy warto± zmiennej y (klasy) ulegnie zmianie. Je»eli korelacja pomi dzy warto±ciami cechy i etykietami klas jest idealna, wówczas warto± indeksu wynosi ilo± klas minus jeden. Je±li nie ma»adnej korelacji, wówczas ka»de zwi kszenie warto±ci cechy f mo»e powodowa zmian y. Warto± indeksu jest znormalizowana i zawiera si w przedziale [0, 1].
49 Redukcja redundancji Plan Metody FS u»yte do PS Problemy trywialne i nietrywialne Granice decyzji Zastosowania praktyczne Metody rankingowe nie eliminuj redundancji w sposób automatyczny. Redukcja redundancji jest istotna przy redukcji liczby prototypów. Battiti zaproponowaª poª czenie indeksu cecha-klasa H(f, y) z indeksem cecha-cecha H(f, f ). Zatem algorytm wybiera te cechy, które maksymalizuj ró»nic pomi dzy H(f, y) i wszystkimi H(f, f ). f aktualnie wybrane cechy
50 RBIS Plan Metody FS u»yte do PS Problemy trywialne i nietrywialne Granice decyzji Zastosowania praktyczne Policzona zostaje macierz odlegªo±ci dla danych treningowych. Ka»da kolumna oceniana jest jak normalna cecha (wykonywany jest ranking wektorów przy u»yciu kryterium sªu» cego do rankingu cech). Ranking wykonywany jest dla ka»dej klasy oddzielnie. Wybrane zostaje N i najlepszych przypadków z ka»dej klasy, zachowuj c proporcje wyst puj ce w oryginalnym zbiorze. RBIS+ bierze dodatkowo pod uwag redukcj redundancji: H (d i ) = H(d i, y) βh(d i, d j,j i )
51 RBIS Ionosphere Plan Metody FS u»yte do PS Problemy trywialne i nietrywialne Granice decyzji Zastosowania praktyczne Sonar Vehicle Car
52 RBIS+ Ionosphere Plan Metody FS u»yte do PS Problemy trywialne i nietrywialne Granice decyzji Zastosowania praktyczne Sonar Vehicle Car
53 RBIS vs RBIS+ Ionosphere Plan Metody FS u»yte do PS Problemy trywialne i nietrywialne Granice decyzji Zastosowania praktyczne Sonar Vehicle Car
54 Problemy trywialne i nietrywialne Plan Metody FS u»yte do PS Problemy trywialne i nietrywialne Granice decyzji Zastosowania praktyczne Wiele wyszukanych algorytmów ML jest testowanych na trywialnych problemach, na których proste i szybkie metody daj = wyniki. Niektóre problemy benchmarkowe nie s trywialne, posiadaj skomplikowane granice decyzji i wymagaj takich technik jak: wielorozdzielczo±, metod opartych na kernelach, gª bokiego uczenia, transferu wiedzy czy komitetów lokalnie kompetentnych klasykatorów. Znaczna wi kszo± zbiorów w bazie UCI jest bardzo prosta. Porównano kilka metod o zªo»ono±ci obliczeniowej O(nd). Pokazano,»e takie algorytmy cz sto oferuj tak samo dobre rezultaty jak inne, bardziej wyszukane (a przez to znacznie wolniejsze) metody. Takie zestawienie powinno by dobrym punktem odniesienia, poniewa» je±li kto± opracuje jaki± nowy algorytm, który nie b dzie statystycznie istotnie lepszy ni» wszystkie zaprezentowane metody, oznacza to b dzie,»e jest on maªo interesuj cy.
55 Plan Metody FS u»yte do PS Problemy trywialne i nietrywialne Granice decyzji Zastosowania praktyczne Metody o maªej zªo»ono±ci obliczeniowej Klasykatory o zªo»ono±ci O(nd): Klasykator wi kszo±ciowy (MC) Metoda najbli»szego prototypu (1NP) Kwantyzacja wektorów ucz cych (LVQ) Klasykator maksymalnego prawdopodobie«stwa (MLC) Klasykator Naiwnego Bayesa (NB) Uproszczona sie MLP (K2MLP)
56 Plan Metody FS u»yte do PS Problemy trywialne i nietrywialne Granice decyzji Zastosowania praktyczne Metody o maªej zªo»ono±ci obliczeniowej Klasykator wi kszo±ciowy Klasykator wi kszo±ciowy przypisuje wszystkie wektory do najliczniejszej klasy w zbiorze ucz cym. Wyniki uzyskiwane przez MC cz sto u»ywa si do okre±lania tzw. dokªadno±ci bazowej. Przy k-krotnym CV wyst puje niewielka wariancja, je»eli liczba przypadków w ka»dej klasie nie jest podzielna bez reszty przez k. Metoda najbli»szego prototypu 1NP oparta jest na pojedynczym prototypie wektora R k dla ka»dej klasy k = 1... K, wyliczanym jako ±rednia dla danej klasy. Zamiast odlegªo±ci Euklidesowej, mo»na u»y miary Mahalanobisa, ale powoduje to wzrost zªo»ono±ci obliczeniowej.
57 Plan Metody FS u»yte do PS Problemy trywialne i nietrywialne Granice decyzji Zastosowania praktyczne Metody o maªej zªo»ono±ci obliczeniowej Kwantyzacja wektorów ucz cych W LVQ ka»da klasa jest reprezentowana przez zestaw wektorów koduj cych (referencyjnych), a przestrze«cech zostaje podzielona na regiony z przypisanymi do nich klasami. Wektory koduj ce nie staraj si przybli»y prawdziwego rozkªadu g sto±ci klas, lecz s umiejscawiane w taki sposób, aby jak najlepiej opisa granice pomi dzy klasami. Dwa tryby pracy: wsadowy i ci gªy. W trybie ci gªym po prezentacji pojedynczego wektora treningowego nast puje modykacja poªo»enia najbli»szego wektora koduj cego zgodnie z formuª : p i (z + 1) = p i (z) α(z)(x j p i (z)) p i (z + 1) = p i (z) + α(z)(x j p i (z)) i = arg min a=1...l ( x j p α ) i najbli»szy wektor koduj cy do j-tego wektora trenuj cego x.
58 Plan Metody FS u»yte do PS Problemy trywialne i nietrywialne Granice decyzji Zastosowania praktyczne Metody o maªej zªo»ono±ci obliczeniowej Klasykator maksymalnego prawdopodobie«stwa MLC bazuje na zaªo»eniu gaussowskich rozkªadów w danych i obliczaniu maksimum prawdopodobie«stwa. Dla ka»dego wymiaru i = 1... d i klasy k = 1... K obliczana jest dyspersja σi k, a nast pnie estymuje si prawdopodobie«stwo przynale»no±ci do ka»dej z klas: P(x C k ) = g(x C k ) K i =1 g(x C k ) g(x C k ) = ( d i=1 G (r k ) i x i ) 2 2(σ k i )2 G funkcja Gaussa, C k klasa dla której obliczane jest prawdopodobie«stwo klasykacji, ri k i ta wspóªrz dna centrum k tej klasy, rozmycie w i tym wymiarze dla wektorów klasy k tej. σ k i
59 Plan Metody FS u»yte do PS Problemy trywialne i nietrywialne Granice decyzji Zastosowania praktyczne Metody o maªej zªo»ono±ci obliczeniowej Klasykator Naiwnego Bayesa Podstaw dziaªania tego algorytmu jest twierdzenie Bayesa: p(c x) = p(c)p(x c) p(x) NB zakªada,»e cechy s niezale»ne, a klasykacja przypadków opiera si na prawdopodobie«stwie ich przynale»no±ci do poszczególnych klas. Wyznaczenie klasy, dla której prawdopodobie«stwo jest najwi ksze: NBC (x ) = arg max c c p(c) m i=1 p(x i c) Stosuje si go dla danych dyskretnych, ale zakªadaj c normalno± rozkªadu ka»dej z cech dla ka»dej klasy, mo»na oszacowa prawdop. cech z warto±ciami ci gªymi: p(x i c) = G(x, µ C i, σ C i ) G g sto± rozkªadu normalnego, µ C i warto± ±rednia i-tej cechy dla klasy C, σ C i odchylenie standardowe i-tej cechy dla klasy C.
60 Plan Metody FS u»yte do PS Problemy trywialne i nietrywialne Granice decyzji Zastosowania praktyczne Metody o maªej zªo»ono±ci obliczeniowej Uproszczona sie MLP W K2MLP u»ywane s neurony z sigmoidaln funkcj transferu, a ich ilo± równa jest liczbie par klas K(K 1)/2. Ko«cowa decyzja jest dokonywana przy u»yciu WTA. Liczba epok w ka»dym przypadku byªa równa 30, a wspóªczynnik uczenia wynosiª 0.1.
61 Analiza zbiorów z UCI Plan Metody FS u»yte do PS Problemy trywialne i nietrywialne Granice decyzji Zastosowania praktyczne Dane Trywialne MC 1NP MLC LVQ NB K2MLP SVML SVMG Arrhythmia ± ± ± ± ± ± ± ±21.4 Autos ± ± ± ± ± ± ± ±12.5 Balance-scale ± ± ± ± ± ± ± ±2.0 Breast-cancer ± ± ± ± ± ± ± ±5.3 Breast-w ± ± ± ± ± ± ± ±1.8 Car ± ± ± ± ± ± ± ±0.9 Cmc ± ± ± ± ± ± ± ±3.6 Credit-a ± ± ± ± ± ± ± ±2.9 Credit-g ± ± ± ± ± ± ± ±4.0 Cylinder-bands ± ± ± ± ± ± ± ±7.5 Dermatology ± ± ± ± ± ± ± ±3.8 Diabetes ± ± ± ± ± ± ± ±4.2 Ecoli ± ± ± ± ± ± ± ±5.8 Glass ± ± ± ± ± ± ± ±8.7 Haberman ± ± ± ± ± ± ± ±5.9 Heart-c ± ± ± ± ± ± ± ±7.9 Heart-statlog ± ± ± ± ± ± ± ±6.5 Hepatitis ± ± ± ± ± ± ± ±11.9 Ionosphere 64.1± ± ± ± ± ± ± ±3.6 Iris ± ± ± ± ± ± ± ±5.7 Kr-vs-kp 52.2± ± ± ± ± ± ± ±0.4 Liver-disorders 57.9± ± ± ± ± ± ± ±7.9 Lymph ± ± ± ± ± ± ± ±9.8 Sonar 53.3± ± ± ± ± ± ± ±7.6 Vote ± ± ± ± ± ± ± ±3.1 Vowel 9.0± ± ± ± ± ± ± ±1.9 Zoo ± ± ± ± ± ± ± ±7.5 + =
62 Granice decyzji Plan Metody FS u»yte do PS Problemy trywialne i nietrywialne Granice decyzji Zastosowania praktyczne Klasykator dzieli przestrze«cech na obszary decyzyjne w taki sposób, aby wszystkim punktom znajduj cym si w danym obszarze odpowiadaªa taka sama decyzja (przypisywana zostawaªa ta sama klasa). Granice pomi dzy tymi obszarami to granice decyzji. Ksztaªty granic zale» od danych trn jak i od u»ytego klasykatora. Zbiory: przypadków, 10% wektorów do uczenia, a wizualizacja na peªnym zbiorze. Dla metod SVML i SVMG przyj to C = 1 i σ = 1.
63 Plan Metody FS u»yte do PS Problemy trywialne i nietrywialne Granice decyzji Zastosowania praktyczne Ksztaªt granic decyzji dla ró»nych klasykatorów
64 Plan Metody FS u»yte do PS Problemy trywialne i nietrywialne Granice decyzji Zastosowania praktyczne Ksztaªt granic decyzji dla ró»nych klasykatorów 1NN NB C4.5 LDA SVML SVMG
65 Plan Metody FS u»yte do PS Problemy trywialne i nietrywialne Granice decyzji Zastosowania praktyczne Ksztaªt granic decyzji dla ró»nych klasykatorów
66 Plan Metody FS u»yte do PS Problemy trywialne i nietrywialne Granice decyzji Zastosowania praktyczne Ksztaªt granic decyzji dla ró»nych klasykatorów 1NN NB C4.5 LDA SVML SVMG
67 Plan Metody FS u»yte do PS Problemy trywialne i nietrywialne Granice decyzji Zastosowania praktyczne Ksztaªt granic decyzji dla ró»nych klasykatorów
68 Plan Metody FS u»yte do PS Problemy trywialne i nietrywialne Granice decyzji Zastosowania praktyczne Ksztaªt granic decyzji dla ró»nych klasykatorów 1NN NB C4.5 LDA SVML SVMG
69 Plan Metody FS u»yte do PS Problemy trywialne i nietrywialne Granice decyzji Zastosowania praktyczne Ksztaªt granic decyzji dla ró»nych klasykatorów
70 Plan Metody FS u»yte do PS Problemy trywialne i nietrywialne Granice decyzji Zastosowania praktyczne Ksztaªt granic decyzji dla ró»nych klasykatorów 1NN NB C4.5 LDA SVML SVMG
71 Plan Metody FS u»yte do PS Problemy trywialne i nietrywialne Granice decyzji Zastosowania praktyczne Ksztaªt granic decyzji dla ró»nych klasykatorów
72 Plan Metody FS u»yte do PS Problemy trywialne i nietrywialne Granice decyzji Zastosowania praktyczne Ksztaªt granic decyzji dla ró»nych klasykatorów 1NN NB C4.5 LDA SVML SVMG
73 Plan Metody FS u»yte do PS Problemy trywialne i nietrywialne Granice decyzji Zastosowania praktyczne Ksztaªt granic decyzji dla ró»nych klasykatorów
74 Plan Metody FS u»yte do PS Problemy trywialne i nietrywialne Granice decyzji Zastosowania praktyczne Ksztaªt granic decyzji dla ró»nych klasykatorów 1NN NB C4.5 LDA SVML SVMG
75 Plan Metody FS u»yte do PS Problemy trywialne i nietrywialne Granice decyzji Zastosowania praktyczne Ksztaªt granic decyzji dla ró»nych klasykatorów
76 Plan Metody FS u»yte do PS Problemy trywialne i nietrywialne Granice decyzji Zastosowania praktyczne Ksztaªt granic decyzji dla ró»nych klasykatorów 1NN NB C4.5 LDA SVML SVMG
77 Plan Metody FS u»yte do PS Problemy trywialne i nietrywialne Granice decyzji Zastosowania praktyczne Ksztaªt granic decyzji SVMG dla ró»nych warto±ci sigma
78 Plan Metody FS u»yte do PS Problemy trywialne i nietrywialne Granice decyzji Zastosowania praktyczne Ksztaªt granic decyzji SVMG dla ró»nych warto±ci sigma
79 Zastosowania praktyczne Plan Metody FS u»yte do PS Problemy trywialne i nietrywialne Granice decyzji Zastosowania praktyczne Zrealizowane zastosowania praktyczne: Optymalizacja procesu wytopu stali (ISE). Prognozowanie zmian zaciskania korytarzy przy±cianowych w kopalniach górniczych. Prognozowanie potencjaªu nansowego aptek.
80 Plan Metody FS u»yte do PS Problemy trywialne i nietrywialne Granice decyzji Zastosowania praktyczne Dzi kuj za uwag!
Wykorzystanie lokalnej geometrii danych w Maszynie Wektorów No±nych
WM Czarnecki (GMUM) Lokalna geometria w SVM 13 Listopada 2013 1 / 26 Wykorzystanie lokalnej geometrii danych w Maszynie Wektorów No±nych Wojciech Marian Czarnecki Jacek Tabor GMUM Grupa Metod Uczenia Maszynowego
Metody bioinformatyki (MBI)
Metody bioinformatyki (MBI) Wykªad 9 - mikromacierze DNA, analiza danych wielowymiarowych Robert Nowak 2016Z Metody bioinformatyki (MBI) 1/42 mikromacierze DNA Metoda badawcza, pozwalaj ca bada obecno±
ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15
ARYTMETYKA MODULARNA Grzegorz Szkibiel Wiosna 2014/15 Spis tre±ci 1 Denicja kongruencji i jej podstawowe wªasno±ci 3 2 Systemy pozycyjne 8 3 Elementy odwrotne 12 4 Pewne zastosowania elementów odwrotnych
Metodydowodzenia twierdzeń
1 Metodydowodzenia twierdzeń Przez zdanie rozumiemy dowolne stwierdzenie, które jest albo prawdziwe, albo faªszywe (nie mo»e by ono jednocze±nie prawdziwe i faªszywe). Tradycyjnie b dziemy u»ywali maªych
1 Bª dy i arytmetyka zmiennopozycyjna
1 Bª dy i arytmetyka zmiennopozycyjna Liczby w pami ci komputera przedstawiamy w ukªadzie dwójkowym w postaci zmiennopozycyjnej Oznacza to,»e s one postaci ±m c, 01 m < 1, c min c c max, (1) gdzie m nazywamy
Uniwersalne Maszyny Ucz ce. Tomasz Maszczyk. opiekun naukowy: prof. Wªodzisªaw Duch
opiekun naukowy: prof. Wªodzisªaw Duch Katedra Informatyki Stosowanej Wydziaª Fizyki Astronomii i Informatyki Stosowanej Uniwersytet Mikoªaja Kopernika w Toruniu 29 Pa¹dziernik 2009, IPIPAN, Warszawa Plan
Przykªady problemów optymalizacji kombinatorycznej
Przykªady problemów optymalizacji kombinatorycznej Problem Komiwoja»era (PK) Dane: n liczba miast, n Z +, c ji, i, j {1,..., n}, i j odlegªo± mi dzy miastem i a miastem j, c ji = c ij, c ji R +. Zadanie:
Ekonometria - wykªad 8
Ekonometria - wykªad 8 3.1 Specykacja i werykacja modelu liniowego dobór zmiennych obja±niaj cych - cz ± 1 Barbara Jasiulis-Goªdyn 11.04.2014, 25.04.2014 2013/2014 Wprowadzenie Ideologia Y zmienna obja±niana
Lab. 02: Algorytm Schrage
Lab. 02: Algorytm Schrage Andrzej Gnatowski 5 kwietnia 2015 1 Opis zadania Celem zadania laboratoryjnego jest zapoznanie si z jednym z przybli»onych algorytmów sªu» cych do szukania rozwi za«znanego z
DREAM5 Challenges. Metody i rezultaty. Praktyki wakacyjne 2010 sesja sprawozdawcza
DREAM5 Challenges Metody i rezultaty Julia Herman-I»ycka Jacek Jendrej Praktyki wakacyjne 2010 sesja sprawozdawcza Plan prezentacji 1 Czym jest uczenie maszynowe 2 Motywacja i sformuªowanie problemów 3
Wykªad 7. Ekstrema lokalne funkcji dwóch zmiennych.
Wykªad jest prowadzony w oparciu o podr cznik Analiza matematyczna 2. Denicje, twierdzenia, wzory M. Gewerta i Z. Skoczylasa. Wykªad 7. Ekstrema lokalne funkcji dwóch zmiennych. Denicja Mówimy,»e funkcja
In»ynierskie zastosowania statystyki wiczenia
Uwagi: 27012014 poprawiono kilka literówek, zwi zanych z przedziaªami ufno±ci dla wariancji i odchylenia standardowego In»ynierskie zastosowania statystyki wiczenia Przedziaªy wiarygodno±ci, testowanie
CAŠKOWANIE METODAMI MONTE CARLO Janusz Adamowski
III. CAŠKOWAIE METODAMI MOTE CARLO Janusz Adamowski 1 1 azwa metody Podstawowym zastosowaniem w zyce metody Monte Carlo (MC) jest opis zªo-»onych ukªadów zycznych o du»ej liczbie stopni swobody. Opis zªo»onych
SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.
SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska INFORMACJE WSTĘPNE Hipotezy do uczenia się lub tworzenia
Bash i algorytmy. Elwira Wachowicz. 20 lutego
Bash i algorytmy Elwira Wachowicz elwira@ifd.uni.wroc.pl 20 lutego 2012 Elwira Wachowicz (elwira@ifd.uni.wroc.pl) Bash i algorytmy 20 lutego 2012 1 / 16 Inne przydatne polecenia Polecenie Dziaªanie Przykªad
WST P DO TEORII INFORMACJI I KODOWANIA. Grzegorz Szkibiel. Wiosna 2013/14
WST P DO TEORII INFORMACJI I KODOWANIA Grzegorz Szkibiel Wiosna 203/4 Spis tre±ci Kodowanie i dekodowanie 4. Kodowanie a szyfrowanie..................... 4.2 Podstawowe poj cia........................
1 Przypomnienie wiadomo±ci ze szkoªy ±redniej. Rozwi zywanie prostych równa«i nierówno±ci
Zebraª do celów edukacyjnych od wykªadowców PK, z ró»nych podr czników Maciej Zakarczemny 1 Przypomnienie wiadomo±ci ze szkoªy ±redniej Rozwi zywanie prostych równa«i nierówno±ci dotycz cych funkcji elementarnych,
Vincent Van GOGH: M»czyzna pij cy li»ank kawy. Radosªaw Klimek. J zyk programowania Java
J zyk programowania JAVA c 2011 Vincent Van GOGH: M»czyzna pij cy li»ank kawy Zadanie 6. Napisz program, który tworzy tablic 30 liczb wstawia do tej tablicy liczby od 0 do 29 sumuje te elementy tablicy,
Metody numeryczne i statystyka dla in»ynierów
Kierunek: Automatyka i Robotyka, II rok Interpolacja PWSZ Gªogów, 2009 Interpolacja Okre±lenie zale»no±ci pomi dzy interesuj cymi nas wielko±ciami, Umo»liwia uproszczenie skomplikowanych funkcji (np. wykorzystywana
Biostatystyka, # 5 /Weterynaria I/
Biostatystyka, # 5 /Weterynaria I/ dr n. mat. Zdzisªaw Otachel Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowa«Matematyki i Informatyki ul. Gª boka 28, bud. CIW, p. 221 e-mail: zdzislaw.otachel@up.lublin.pl
Elementy Modelowania Matematycznego Wykªad 1 Prawdopodobie«stwo
Spis tre±ci Elementy Modelowania Matematycznego Wykªad 1 Prawdopodobie«stwo Romuald Kotowski Katedra Informatyki Stosowanej PJWSTK 2009 Spis tre±ci Spis tre±ci 1 2 3 4 5 Spis tre±ci Spis tre±ci 1 2 3 4
Uczenie Wielowarstwowych Sieci Neuronów o
Plan uczenie neuronu o ci gªej funkcji aktywacji uczenie jednowarstwowej sieci neuronów o ci gªej funkcji aktywacji uczenie sieci wielowarstwowej - metoda propagacji wstecznej neuronu o ci gªej funkcji
Ekonometria Bayesowska
Ekonometria Bayesowska Wykªad 6: Bayesowskie ª czenie wiedzy (6) Ekonometria Bayesowska 1 / 21 Plan wykªadu 1 Wprowadzenie 2 Oczekiwana wielko± modelu 3 Losowanie próby modeli 4 wiczenia w R (6) Ekonometria
Ekonometria Bayesowska
Ekonometria Bayesowska Wykªad 9: Metody numeryczne: MCMC Andrzej Torój 1 / 17 Plan wykªadu Wprowadzenie 1 Wprowadzenie 3 / 17 Plan prezentacji Wprowadzenie 1 Wprowadzenie 3 3 / 17 Zastosowanie metod numerycznych
Jednowarstwowe Sieci Neuronowe jako. klasykatory do wielu klas. (c) Marcin Sydow
Plan dyskretny perceptron i jego ograniczenia inne funkcje aktywacji wielo-klasykacja przy pomocy jedno-warstwowe sieci neuronowej ograniczenia jedno-warstwowej sieci neuronowej miary ewaluacyjne dla klasykacji
Funkcje, wielomiany. Informacje pomocnicze
Funkcje, wielomiany Informacje pomocnicze Przydatne wzory: (a + b) 2 = a 2 + 2ab + b 2 (a b) 2 = a 2 2ab + b 2 (a + b) 3 = a 3 + 3a 2 b + 3ab 2 + b 3 (a b) 3 = a 3 3a 2 b + 3ab 2 b 3 a 2 b 2 = (a + b)(a
Model obiektu w JavaScript
16 marca 2009 E4X Paradygmat klasowy Klasa Deniuje wszystkie wªa±ciwo±ci charakterystyczne dla wybranego zbioru obiektów. Klasa jest poj ciem abstrakcyjnym odnosz cym si do zbioru, a nie do pojedynczego
Wst p do sieci neuronowych, wykªad 14 Zespolone sieci neuronowe
Wst p do sieci neuronowych, wykªad 14 Zespolone sieci neuronowe M. Czoków, J. Piersa Faculty of Mathematics and Computer Science, Nicolaus Copernicus University, Toru«, Poland 2011-18-02 Motywacja Liczby
Metody statystyczne w biologii - Wykªad 8. Uniwersytet Przyrodniczy we Wrocªawiu Katedra Genetyki i Ogólnej Hodowli Zwierz t
Metody statystyczne w biologii - Wykªad 8 Uniwersytet Przyrodniczy we Wrocªawiu Katedra Genetyki i Ogólnej Hodowli Zwierz t Plan wykªadu Regresja logistyczna 1. Podstawy teoretyczne i przykªady zastosowania
przewidywania zapotrzebowania na moc elektryczn
do Wykorzystanie do na moc elektryczn Instytut Techniki Cieplnej Politechnika Warszawska Slide 1 of 20 do Coraz bardziej popularne staj si zagadnienia zwi zane z prac ¹ródªa energii elektrycznej (i cieplnej)
1 Metody iteracyjne rozwi zywania równania f(x)=0
1 Metody iteracyjne rozwi zywania równania f()=0 1.1 Metoda bisekcji Zaªó»my,»e funkcja f jest ci gªa w [a 0, b 0 ]. Pierwiastek jest w przedziale [a 0, b 0 ] gdy f(a 0 )f(b 0 ) < 0. (1) Ustalmy f(a 0
Biostatystyka, # 4 /Weterynaria I/
Biostatystyka, # 4 /Weterynaria I/ dr n. mat. Zdzisªaw Otachel Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowa«Matematyki i Informatyki ul. Gª boka 28, bud. CIW, p. 221 e-mail: zdzislaw.otachel@up.lublin.pl
Materiaªy do Repetytorium z matematyki
Materiaªy do Repetytorium z matematyki 0/0 Dziaªania na liczbach wymiernych i niewymiernych wiczenie Obliczy + 4 + 4 5. ( + ) ( 4 + 4 5). ( : ) ( : 4) 4 5 6. 7. { [ 7 4 ( 0 7) ] ( } : 5) : 0 75 ( 8) (
4.1. Wprowadzenie...70 4.2. Podstawowe definicje...71 4.3. Algorytm określania wartości parametrów w regresji logistycznej...74
3 Wykaz najważniejszych skrótów...8 Przedmowa... 10 1. Podstawowe pojęcia data mining...11 1.1. Wprowadzenie...12 1.2. Podstawowe zadania eksploracji danych...13 1.3. Główne etapy eksploracji danych...15
x y x y x y x + y x y
Algebra logiki 1 W zbiorze {0, 1} okre±lamy dziaªania dwuargumentowe,, +, oraz dziaªanie jednoargumentowe ( ). Dziaªanie x + y nazywamy dodawaniem modulo 2, a dziaªanie x y nazywamy kresk Sheera. x x 0
Lekcja 9 - LICZBY LOSOWE, ZMIENNE
Lekcja 9 - LICZBY LOSOWE, ZMIENNE I STAŠE 1 Liczby losowe Czasami spotkamy si z tak sytuacj,»e b dziemy potrzebowa by program za nas wylosowaª jak ± liczb. U»yjemy do tego polecenia: - liczba losowa Sprawd¹my
AUTO-ENKODER JAKO SKŠADNIK ARCHITEKTURY DEEP LEARNING
AUTO-ENKODER JAKO SKŠADNIK ARCHITEKTURY DEEP LEARNING Magdalena Wiercioch Uniwersytet Jagiello«ski 3 kwietnia 2014 Plan Uczenie gª bokie (deep learning) Auto-enkodery Rodzaje Zasada dziaªania Przykªady
Metody probablistyczne i statystyka stosowana
Politechnika Wrocªawska - Wydziaª Podstawowych Problemów Techniki - 011 Metody probablistyczne i statystyka stosowana prowadz cy: dr hab. in». Krzysztof Szajowski opracowanie: Tomasz Kusienicki* κ 17801
Arkusz maturalny. Šukasz Dawidowski. 25 kwietnia 2016r. Powtórki maturalne
Arkusz maturalny Šukasz Dawidowski Powtórki maturalne 25 kwietnia 2016r. Odwrotno±ci liczby rzeczywistej 1. 9 8 2. 0, (1) 3. 8 9 4. 0, (8) 3 4 4 4 1 jest liczba Odwrotno±ci liczby rzeczywistej 3 4 4 4
ELEMENTARNA TEORIA LICZB. 1. Podzielno±
ELEMENTARNA TEORIA LICZB IZABELA AGATA MALINOWSKA N = {1, 2,...} 1. Podzielno± Denicja 1.1. Niepusty podzbiór A zbioru liczb naturalnych jest ograniczony, je»eli istnieje taka liczba naturalna n 0,»e m
Ekonometria. wiczenia 2 Werykacja modelu liniowego. Andrzej Torój. Instytut Ekonometrii Zakªad Ekonometrii Stosowanej
Ekonometria wiczenia 2 Werykacja modelu liniowego (2) Ekonometria 1 / 33 Plan wicze«1 Wprowadzenie 2 Ocena dopasowania R-kwadrat Skorygowany R-kwadrat i kryteria informacyjne 3 Ocena istotno±ci zmiennych
Równania ró»niczkowe I rz du (RRIR) Twierdzenie Picarda. Anna D browska. WFTiMS. 23 marca 2010
WFTiMS 23 marca 2010 Spis tre±ci 1 Denicja 1 (równanie ró»niczkowe pierwszego rz du) Równanie y = f (t, y) (1) nazywamy równaniem ró»niczkowym zwyczajnym pierwszego rz du w postaci normalnej. Uwaga 1 Ogólna
5. (8 punktów) EGZAMIN MAGISTERSKI, r Matematyka w ekonomii i ubezpieczeniach
Matematyka w ekonomii i ubezpieczeniach ( Niezale»ne szkody maja rozkªady P (X i = k) = exp( 1)/k!, P (Y i = k) = 4+k ) k (1/3) 5 (/3) k, k = 0, 1,.... Niech S = X 1 +... + X 500 + Y 1 +... + Y 500. Skªadka
JAO - J zyki, Automaty i Obliczenia - Wykªad 1. JAO - J zyki, Automaty i Obliczenia - Wykªad 1
J zyki formalne i operacje na j zykach J zyki formalne s abstrakcyjnie zbiorami sªów nad alfabetem sko«czonym Σ. J zyk formalny L to opis pewnego problemu decyzyjnego: sªowa to kody instancji (wej±cia)
ZADANIA. Maciej Zakarczemny
ZADANIA Maciej Zakarczemny 2 Spis tre±ci 1 Algebra 5 2 Analiza 7 2.1 Granice iterowane, granica podwójna funkcji dwóch zmiennych....... 7 2.2 Caªki powierzchniowe zorientowane...................... 8 2.2.1
Listy i operacje pytania
Listy i operacje pytania Iwona Polak iwona.polak@us.edu.pl Uniwersytet l ski Instytut Informatyki pa¹dziernika 07 Który atrybut NIE wyst puje jako atrybut elementów listy? klucz elementu (key) wska¹nik
Listy Inne przykªady Rozwi zywanie problemów. Listy w Mathematice. Marcin Karcz. Wydziaª Matematyki, Fizyki i Informatyki.
Wydziaª Matematyki, Fizyki i Informatyki 10 marca 2008 Spis tre±ci Listy 1 Listy 2 3 Co to jest lista? Listy List w Mathematice jest wyra»enie oddzielone przecinkami i zamkni te w { klamrach }. Elementy
Ukªady równa«liniowych
dr Krzysztof yjewski Mechatronika; S-I 0 in» 7 listopada 206 Ukªady równa«liniowych Informacje pomocnicze Denicja Ogólna posta ukªadu m równa«liniowych z n niewiadomymi x, x, x n, gdzie m, n N jest nast
Metody numeryczne i statystyka dla in»ynierów
Kierunek: Automatyka i Robotyka, II rok Wprowadzenie PWSZ Gªogów, 2009 Plan wykªadów Wprowadzenie, podanie zagadnie«, poj cie metody numerycznej i algorytmu numerycznego, obszar zainteresowa«i stosowalno±ci
Wybrane poj cia i twierdzenia z wykªadu z teorii liczb
Wybrane poj cia i twierdzenia z wykªadu z teorii liczb 1. Podzielno± Przedmiotem bada«teorii liczb s wªasno±ci liczb caªkowitych. Zbiór liczb caªkowitych oznacza b dziemy symbolem Z. Zbiór liczb naturalnych
KLASYCZNE ZDANIA KATEGORYCZNE. ogólne - orzekaj co± o wszystkich desygnatach podmiotu szczegóªowe - orzekaj co± o niektórych desygnatach podmiotu
➏ Filozoa z elementami logiki Na podstawie wykªadów dra Mariusza Urba«skiego Sylogistyka Przypomnij sobie: stosunki mi dzy zakresami nazw KLASYCZNE ZDANIA KATEGORYCZNE Trzy znaczenia sªowa jest trzy rodzaje
Interpolacja funkcjami sklejanymi
Interpolacja funkcjami sklejanymi Funkcje sklejane: Zaªó»my,»e mamy n + 1 w zªów t 0, t 1,, t n takich,»e t 0 < t 1 < < t n Dla danej liczby caªkowitej, nieujemnej k funkcj sklejan stopnia k nazywamy tak
Wzorce projektowe kreacyjne
Wzorce projektowe kreacyjne Krzysztof Ciebiera 14 pa¹dziernika 2005 1 1 Wst p 1.1 Podstawy Opis Ogólny Podstawowe informacje Wzorce kreacyjne sªu» do uabstrakcyjniania procesu tworzenia obiektów. Znaczenie
Metody numeryczne i statystyka dla in»ynierów
Kierunek: Automatyka i Robotyka, II rok Ukªady równa«liniowych PWSZ Gªogów, 2009 Motywacje Zagadnienie kluczowe dla przetwarzania numerycznego Wiele innych zada«redukuje si do problemu rozwi zania ukªadu
Podstawy modelowania w j zyku UML
Podstawy modelowania w j zyku UML dr hab. Bo»ena Wo¹na-Szcze±niak Akademia im. Jan Dªugosza bwozna@gmail.com Wykªad 8 Diagram pakietów I Diagram pakietów (ang. package diagram) jest diagramem strukturalnym,
2 Liczby rzeczywiste - cz. 2
2 Liczby rzeczywiste - cz. 2 W tej lekcji omówimy pozostaªe tematy zwi zane z liczbami rzeczywistymi. 2. Przedziaªy liczbowe Wyró»niamy nast puj ce rodzaje przedziaªów liczbowych: (a) przedziaªy ograniczone:
Macierze. 1 Podstawowe denicje. 2 Rodzaje macierzy. Denicja
Macierze 1 Podstawowe denicje Macierz wymiaru m n, gdzie m, n N nazywamy tablic liczb rzeczywistych (lub zespolonych) postaci a 11 a 1j a 1n A = A m n = [a ij ] m n = a i1 a ij a in a m1 a mj a mn W macierzy
Relacj binarn okre±lon w zbiorze X nazywamy podzbiór ϱ X X.
Relacje 1 Relacj n-argumentow nazywamy podzbiór ϱ X 1 X 2... X n. Je±li ϱ X Y jest relacj dwuargumentow (binarn ), to zamiast (x, y) ϱ piszemy xϱy. Relacj binarn okre±lon w zbiorze X nazywamy podzbiór
MiASI. Modelowanie systemów informatycznych. Piotr Fulma«ski. 18 stycznia Wydziaª Matematyki i Informatyki, Uniwersytet Šódzki, Polska
MiASI Modelowanie systemów informatycznych Piotr Fulma«ski Wydziaª Matematyki i Informatyki, Uniwersytet Šódzki, Polska 18 stycznia 2010 Spis tre±ci 1 Analiza systemu informatycznego Poziomy analizy 2
Maszyny Turinga i problemy nierozstrzygalne. Maszyny Turinga i problemy nierozstrzygalne
Maszyny Turinga Maszyna Turinga jest automatem ta±mowym, skª da si z ta±my (tablicy symboli) potencjalnie niesko«czonej w prawo, zakªadamy,»e w prawie wszystkich (tzn. wszystkich poza sko«czon liczb )
Wst p do sieci neuronowych 2010/2011 wykªad 7 Algorytm propagacji wstecznej cd.
Wst p do sieci neuronowych 2010/2011 wykªad 7 Algorytm propagacji wstecznej cd. M. Czoków, J. Piersa Faculty of Mathematics and Computer Science, Nicolaus Copernicus University, Toru«, Poland 2010-11-23
Lekcja 9 Liczby losowe, zmienne, staªe
Lekcja 9 Liczby losowe, zmienne, staªe Akademia im. Jana Dªugosza w Cz stochowie Liczby losowe Czasami potrzebujemy by program za nas wylosowaª liczb. U»yjemy do tego polecenia liczba losowa: Liczby losowe
i, lub, nie Cegieªki buduj ce wspóªczesne procesory. Piotr Fulma«ski 5 kwietnia 2017
i, lub, nie Cegieªki buduj ce wspóªczesne procesory. Piotr Fulma«ski Uniwersytet Šódzki, Wydziaª Matematyki i Informatyki UŠ piotr@fulmanski.pl http://fulmanski.pl/zajecia/prezentacje/festiwalnauki2017/festiwal_wmii_2017_
Granular Computing 9999 pages 15 METODY SZTUCZNEJ INTELIGENCJI - PROJEKTY
Granular Computing 9999 pages 15 METODY SZTUCZNEJ INTELIGENCJI - PROJEKTY PB 2 PB 1 Projekt z grupowania danych - Rough k-medoids Liczba osób realizuj cych projekt: 1 osoba 1. Wczytanie danych w formatach
Ekonometria. wiczenia 1 Regresja liniowa i MNK. Andrzej Torój. Instytut Ekonometrii Zakªad Ekonometrii Stosowanej
Ekonometria wiczenia 1 Regresja liniowa i MNK (1) Ekonometria 1 / 25 Plan wicze«1 Ekonometria czyli...? 2 Obja±niamy ceny wina 3 Zadania z podr cznika (1) Ekonometria 2 / 25 Plan prezentacji 1 Ekonometria
Statystyka. Šukasz Dawidowski. Instytut Matematyki, Uniwersytet l ski
Statystyka Šukasz Dawidowski Instytut Matematyki, Uniwersytet l ski Statystyka Statystyka: nauka zajmuj ca si liczbowym opisem zjawisk masowych oraz ich analizowaniem, zbiory informacji liczbowych. (Sªownik
wiczenie nr 3 z przedmiotu Metody prognozowania kwiecie«2015 r. Metodyka bada«do±wiadczalnych dr hab. in». Sebastian Skoczypiec Cel wiczenia Zaªo»enia
wiczenie nr 3 z przedmiotu Metody prognozowania kwiecie«2015 r. wiczenia 1 2 do wiczenia 3 4 Badanie do±wiadczalne 5 pomiarów 6 7 Cel Celem wiczenia jest zapoznanie studentów z etapami przygotowania i
Podziaª pracy. Cz ± II. 1 Tablica sortuj ca. Rozwi zanie
Cz ± II Podziaª pracy 1 Tablica sortuj ca Kolejka priorytetowa to struktura danych udost pniaj ca operacje wstawienia warto±ci i pobrania warto±ci minimalnej. Z kolejki liczb caªkowitych, za po±rednictwem
PRZYPOMNIENIE Ka»d przestrze«wektorow V, o wymiarze dim V = n < nad ciaªem F mo»na jednoznacznie odwzorowa na przestrze«f n n-ek uporz dkowanych:
Plan Spis tre±ci 1 Homomorzm 1 1.1 Macierz homomorzmu....................... 2 1.2 Dziaªania............................... 3 2 Ukªady równa«6 3 Zadania 8 1 Homomorzm PRZYPOMNIENIE Ka»d przestrze«wektorow
Metody dowodzenia twierdze«
Metody dowodzenia twierdze«1 Metoda indukcji matematycznej Je±li T (n) jest form zdaniow okre±lon w zbiorze liczb naturalnych, to prawdziwe jest zdanie (T (0) n N (T (n) T (n + 1))) n N T (n). 2 W przypadku
Przeksztaªcenia liniowe
Przeksztaªcenia liniowe Przykªady Pokaza,»e przeksztaªcenie T : R 2 R 2, postaci T (x, y) = (x + y, x 6y) jest przeksztaªceniem liniowym Sprawdzimy najpierw addytywno± przeksztaªcenia T Niech v = (x, y
ANALIZA NUMERYCZNA. Grzegorz Szkibiel. Wiosna 2014/15
ANALIZA NUMERYCZNA Grzegorz Szkibiel Wiosna 2014/15 Spis tre±ci 1 Metoda Eulera 3 1.1 zagadnienia brzegowe....................... 3 1.2 Zastosowanie ró»niczki...................... 4 1.3 Output do pliku
Elementarna statystyka Wnioskowanie o regresji (Inference 2 czerwca for regression) / 13
Elementarna statystyka Wnioskowanie o regresji (Inference for regression) Alexander Bendikov Uniwersytet Wrocªawski 2 czerwca 2016 Elementarna statystyka Wnioskowanie o regresji (Inference 2 czerwca for
Statystyka matematyczna
Statystyka matematyczna Aleksandra Ki±lak-Malinowska akis@uwm.edu.pl http://wmii.uwm.edu.pl/ akis/ Czym zajmuje si statystyka? Statystyka zajmuje si opisywaniem i analiz zjawisk masowych otaczaj cej czªowieka
Zadania z kolokwiów ze Wst pu do Informatyki. Semestr II.
Zadania z kolokwiów ze Wst pu do Informatyki. Semestr II. Poni»sze zadania s wyborem zada«z kolokwiów ze Wst pu do Informatyki jakie przeprowadziªem w ci gu ostatnich lat. Marek Zawadowski Zadanie 1 Napisz
Wykªad 4. Funkcje wielu zmiennych.
Wykªad jest prowadzony w oparciu o podr cznik Analiza matematyczna 2. Denicje, twierdzenia, wzory M. Gewerta i Z. Skoczylasa. Wykªad 4. Funkcje wielu zmiennych. Zbiory na pªaszczy¹nie i w przestrzeni.
Modele liniowe i mieszane na przykªadzie analizy danych biologicznych - Wykªad 6
Modele liniowe i mieszane na przykªadzie analizy danych biologicznych - Wykªad 6 Tomasz Suchocki Uniwersytet Przyrodniczy we Wrocªawiu Katedra Genetyki i Ogólnej Hodowli Zwierz t Plan wykªadu Model mieszany
Twierdzenie Wainera. Marek Czarnecki. Warszawa, 3 lipca Wydziaª Filozoi i Socjologii Uniwersytet Warszawski
Twierdzenie Wainera Marek Czarnecki Wydziaª Filozoi i Socjologii Uniwersytet Warszawski Wydziaª Matematyki, Informatyki i Mechaniki Uniwersytet Warszawski Warszawa, 3 lipca 2009 Motywacje Dla dowolnej
Minimalne drzewa rozpinaj ce
y i y i drzewa Spis zagadnie«y i drzewa i lasy cykle fundamentalne i rozci cia fundamentalne wªasno±ci cykli i rozci minimalne drzewa algorytm algorytm Drzewo y i spójnego, nieskierowanego grafu prostego
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny
ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15
ARYTMETYKA MODULARNA Grzegorz Szkibiel Wiosna 2014/15 Spis tre±ci 1 Denicja kongruencji i jej podstawowe wªasno±ci 3 2 Systemy pozycyjne 8 3 Elementy odwrotne 12 4 Pewne zastosowania elementów odwrotnych
2. L(a u) = al( u) dla dowolnych u U i a R. Uwaga 1. Warunki 1., 2. mo»na zast pi jednym warunkiem: L(a u + b v) = al( u) + bl( v)
Przeksztaªcenia liniowe Def 1 Przeksztaªceniem liniowym (homomorzmem liniowym) rzeczywistych przestrzeni liniowych U i V nazywamy dowoln funkcj L : U V speªniaj c warunki: 1 L( u + v) = L( u) + L( v) dla
Modele wielorównaniowe. Estymacja parametrów
Modele wielorównaniowe. Estymacja parametrów Ekonometria Szeregów Czasowych SGH Estymacja 1 / 47 Plan wykªadu 1 Po±rednia MNK 2 Metoda zmiennych instrumentalnych 3 Podwójna MNK 4 Estymatory klasy k 5 MNW
Podstawy modelowania w j zyku UML
Podstawy modelowania w j zyku UML dr hab. Bo»ena Wo¹na-Szcze±niak Akademia im. Jan Dªugosza bwozna@gmail.com Wykªad 2 Zwi zki mi dzy klasami Asocjacja (ang. Associations) Uogólnienie, dziedziczenie (ang.
Analizy populacyjne, ªadunki atomowe
Dodatek do w. # 3 i # 4 Šadunki atomowe, analizy populacyjne Q A = Z A N A Q A efektywny ªadunek atomu A, Z A N A liczba porz dkowa dla atomu A (czyli ªadunek j dra) efektywna liczba elektronów przypisana
Ciaªa i wielomiany. 1 Denicja ciaªa. Ciaªa i wielomiany 1
Ciaªa i wielomiany 1 Ciaªa i wielomiany 1 Denicja ciaªa Niech F b dzie zbiorem, i niech + (dodawanie) oraz (mno»enie) b d dziaªaniami na zbiorze F. Denicja. Zbiór F wraz z dziaªaniami + i nazywamy ciaªem,
Macierz A: macierz problemów liniowych (IIII); Macierz rozszerzona problemów liniowych (IIII): a 11 a 1m b 1 B = a n1 a nm b n
Plan Spis tre±ci 1 Problemy liniowe 1 2 Zadania I 3 3 Formy biliniowe 3 3.1 Odwzorowania wieloliniowe..................... 3 3.2 Formy biliniowe............................ 4 4 Formy kwadratowe 4 1 Problemy
Arytmetyka zmiennopozycyjna
Rozdziaª 4 Arytmetyka zmiennopozycyjna Wszystkie obliczenia w octavie s wykonywane w arytmetyce zmiennopozycyjnej (inaczej - arytmetyce ) podwójnej precyzji (double) - cho w najnowszych wersjach octave'a
XVII Warmi«sko-Mazurskie Zawody Matematyczne
1 XVII Warmi«sko-Mazurskie Zawody Matematyczne Kategoria: klasa VIII szkoªy podstawowej i III gimnazjum Olsztyn, 16 maja 2019r. Zad. 1. Udowodnij,»e dla dowolnych liczb rzeczywistych x, y, z speªniaj cych
Statystyka matematyczna - ZSTA LMO
Statystyka matematyczna - ZSTA LMO Šukasz Smaga Wydziaª Matematyki i Informatyki Uniwersytet im. Adama Mickiewicza w Poznaniu Wykªad 4 Šukasz Smaga (WMI UAM) ZSTA LMO Wykªad 4 1 / 18 Wykªad 4 - zagadnienia
Ukªady równa«liniowych - rozkªady typu LU i LL'
Rozdziaª 9 Ukªady równa«liniowych - rozkªady typu LU i LL' W tym rozdziale zapoznamy si z metodami sªu» cych do rozwi zywania ukªadów równa«liniowych przy pomocy uzyskiwaniu odpowiednich rozkªadów macierzy
Wst p. Elementy systemów decyzyjnych Sprawy organizacyjne. Wprowadzenie Przegl d metod klasykacji
Wst p 1 Wprowadzenie do systemów decyzyjnych Elementy systemów decyzyjnych Sprawy organizacyjne 2 Problem klasykacji i klasykatory Wprowadzenie Przegl d metod klasykacji 3 Metody oceny klasykatorów Skuteczno±
ALGORYTMIKA Wprowadzenie do algorytmów
ALGORYTMIKA Wprowadzenie do algorytmów Popularne denicje algorytmu przepis opisuj cy krok po kroku rozwi zanie problemu lub osi gni cie jakiego± celu. (M. Sysªo, Algorytmy, ±ci±lejszej denicji w ksi»ce
Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18
Eksploracja Danych wykład 4 Sebastian Zając WMP.SNŚ UKSW 10 maja 2017 Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja 2017 1 / 18 Klasyfikacja danych Klasyfikacja Najczęściej stosowana (najstarsza)
Metody numeryczne. Wst p do metod numerycznych. Dawid Rasaªa. January 9, 2012. Dawid Rasaªa Metody numeryczne 1 / 9
Metody numeryczne Wst p do metod numerycznych Dawid Rasaªa January 9, 2012 Dawid Rasaªa Metody numeryczne 1 / 9 Metody numeryczne Czym s metody numeryczne? Istota metod numerycznych Metody numeryczne s
Algorytmy metaheurystyczne Wykład 11. Piotr Syga
Algorytmy metaheurystyczne Wykład 11 Piotr Syga 22.05.2017 Drzewa decyzyjne Idea Cel Na podstawie przesłanek (typowo zbiory rozmyte) oraz zbioru wartości w danych testowych, w oparciu o wybrane miary,
Lekcja 12 - POMOCNICY
Lekcja 12 - POMOCNICY 1 Pomocnicy Pomocnicy, jak sama nazwa wskazuje, pomagaj Baltiemu w programach wykonuj c cz ± czynno±ci. S oni szczególnie pomocni, gdy chcemy ci g polece«wykona kilka razy w programie.
Macierze i Wyznaczniki
Macierze i Wyznaczniki Kilka wzorów i informacji pomocniczych: Denicja 1. Tablic nast puj cej postaci a 11 a 12... a 1n a 21 a 22... a 2n A =... a m1 a m2... a mn nazywamy macierz o m wierszach i n kolumnach,
Agnieszka Nowak Brzezińska Wykład III
Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe
Elementarna statystyka Dwie próby: porównanie dwóch proporcji (Two-sample problem: comparing two proportions)
Elementarna statystyka Dwie próby: porównanie dwóch proporcji (Two-sample problem: comparing two proportions) Alexander Bendikov Uniwersytet Wrocªawski 25 maja 2016 Elementarna statystyka Dwie próby: porównanie