Zadanie 3.: Klasyfikacje

Wielkość: px
Rozpocząć pokaz od strony:

Download "Zadanie 3.: Klasyfikacje"

Transkrypt

1 Informatyka, studia dzienne, inż. I st. semestr VI Inteligentna Analiza Danych 2/2 Prowadzący: dr inż. Arkadiusz Tomczyk wtotek, 8:3 Data oddania: Ocena: Marek Rogalski 5982 Paweł Tarasiuk 52 Zadanie 3.: Klasyfikacje. Cel Celem zadania jest szersze poznanie zachowania perceptronu wielowarstwowego w przypadku pracy na danych zredukowanych i przetransformowanych. Większą uwagę należy zwrócić na dobór cech za pomocą których uczy się sieć. Ich dobór oraz wstępne przetwarzanie mogą polegać na redukcji ilości cech poprzez eliminację wybranych atrybutów bądź redukcję z pomocą sieci wielowarstwowego perceptronu uczonego w trybie autoasocjacji. Kolejnym ważnym elementem jest wizualizacja granic decyzyjnych wytrenowanego klasyfikatora. Ma to na celu zobrazowanie podziału przestrzeni klasyfikacyjnej dokonywanej przez klasyfikator. 2. Zmiany w projekcie W celu osiągnięcia założonego efektu, w kodzie, oraz układzie projektu poczyniliśmy szereg zmian. Obejmowały one korekty błędów, oraz wprowadzanie nowych funkcjonalności w postaci: Rozszerzenie kroniki nauki sieci o bardziej szczegółową prezentację błędów czynionych przez sieć w kolejnych epokach. Dodanie możliwości automatycznego zakończenia nauki sieci dzięki wprowadzeniu obsługi zbioru walidacyjnego. 42 SVN:

2 Dodanie możliwości nauki sieci w trybie autoasocjacji, a następnie redukcji zbioru atrybutów do zbioru wyjść warstwy ukrytej sieci. Przygotowanie narzędzi pomagających w wizualizacji obszarów decyzyjnych wytrenowanego klasyfikatora. Wprowadzone zmiany nie naruszają wcześniej ustanowionej architektury programu. Wciąż funkcjonuje program w języku C++ realizujący model wielowarstwowego perceptronu. Informacje zwracane przez program kontrolowane są poprzez parametry podawane w wierszu poleceń. Poza programem działa zestaw skryptów w języku Python zajmujących się przetwarzaniem wstępnym, oraz zarządzaniem plikami tworzonymi przez program. Generowaniem wykresów sterują skrypty progarmu Gnuplot uruchamiane w odpowiedniej kolejności przez program make. 3. Przebieg doświadczeń Pierwsza część badań polegała na wytrenowaniu klasyfikatora dla zbiorów Abalone Data Set, oraz Census Income Data Set. Wyniki klasyfikacji należy porównać z wnioskami z poprzedniego zadania. Druga część badań polegała na dokładniejszym zbadaniu wpływu, jaki wywierają różne metody redukcji zbioru atrybutów na skuteczność sieci wielowarstwowego perceptronu. Zestaw Abalone podzieliliśmy na siedem klas o równomiernie rozłożonych parametrach, a następnie dokonywaliśmy prób klasyfikacji z wykorzystaniem różnych zestawów parametrów. Dla zachowanie spójności z drugą częścią badawczą, przygotowany tu zestaw był wykorzystywany również w dalszym toku doświadczeń, do przeprowadzania redukcji i transformacji atrybutów. Sieć trenowana była aż uśredniony na czterdziestu epokach błąd zbioru walidacyjnego nie przewyższył któregoś z uśrednionych błędów epok zbioru walidacyjnego sprzed co najmniej czterdziestu epok. Zbiór testowy, sprawdzany po wytrenowaniu sieci, stanowił zawsze losową próbę % dostępnych danych. 4. Wyniki - część badawcza I Klasyfikacja zestawu Abalone - wysokie współczynniki nauki project/bin/app -u" 7" -n -m -b -d abalone/abalone.in -t abalone/abalone.test -a abalone/abalone.valid -r --lt,6. Podczas klasyfikacji z wykorzystaniem wysokich wartości współczynników nauki i momentum osiągnęliśmy następującą zależność numeru epoki od błędu: 2

3 Spośród 47 przypadków testowych, prawidłowo sklasyfikowanych zostało 273, natomiast błędnie, 44. Skuteczność klasyfikacji przy siedmiu klasach wyniosła 65%. Klasyfikacja zestawu Abalone 2 - niskie współczynniki nauki project/bin/app -u" 7" -n. -m. -b -d abalone/abalone.in -t abalone/abalone.test -a abalone/abalone.valid -r --lt,. Podczas klasyfikacji z wykorzystaniem niskich wartości współczynników nauki i momentum osiągnęliśmy następującą zależność numeru epoki od błędu: Spośród 47 przypadków testowych, prawidłowo sklasyfikowanych zostało 277, natomiast błędnie, 4. Skuteczność klasyfikacji przy siedmiu klasach 3

4 wyniosła 66%. Klasyfikacja zestawu Adult - wysokie współczynniki nauki project/bin/app -u"5 2" -n -m -b -d adult/adult.in -t adult/adult.test -a adult/adult.valid -r --lt,6. Podczas klasyfikacji z wykorzystaniem wysokich wartości współczynników nauki i momentum osiągnęliśmy następującą zależność numeru epoki od błędu: Spośród 36 przypadków, prawidłowo sklasyfikowanych zostało 253, natomiast błędnie, 485. Skuteczność klasyfikacji przy siedmiu klasach wyniosła 84%. Klasyfikacja zestawu Adult 2 - niskie współczynniki nauki project/bin/app -u"5 2" -n. -m. -b -d adult/adult.in -t adult/adult.test -a adult/adult.valid -r --lt,. Podczas klasyfikacji z wykorzystaniem niskich wartości współczynników nauki i momentum osiągnęliśmy następującą zależność numeru epoki od błędu: 4

5 Spośród 36 przypadków, prawidłowo sklasyfikowanych zostało 2536, natomiast błędnie, 48. Skuteczność klasyfikacji przy siedmiu klasach wyniosła 84%. 5. Wyniki - część badawcza II Transformacja atrybutów zestawu Iris do pary atrybutów project/bin/app -u"4 2 4" -n. -m. -b -d iris/iris.in -a iris/iris.valid -r --reduce,.../workdir/reduce_iris_to_2.pdf Transformacja atrybutów zestawu Abalone do pary atrybutów project/bin/app -u" 2 " -n. -m. -b -d abalone/abalone.in -a abalone/abalone.valid -r --reduce,. 5

6 Transformacja atrybutów zestawu Abalone do siedmiu atrybutów project/bin/app -u" 7 " -n. -m. -b -d abalone/abalone.in -a abalone/abalone.valid -r --reduce, Transformacja atrybutów zestawu Adult do pary atrybutów project/bin/app -u"5 2 5" -n. -m. -b -d adult/adult.in -a adult/adult.valid -r --reduce,. 6

7 ../workdir/reduce_adult_to_2.pdf Transformacja atrybutów zestawu Adult do dziesięciu atrybutów project/bin/app -u"5 5" -n. -m. -b -d adult/adult.in -a adult/adult.valid -r --reduce,.../workdir/reduce_adult_to_.pdf Klasyfikacja zestawu Iris zredukowanego do pary atrybutów - duże współczynniki nauki project/bin/app -u"2 6 3" -n -m -b -d iris r2.in -t iris r2.test -a iris r2.valid -r -z iris r2.wagi --lt, Obszary decyzyjne wytrenowanego klasyfikatora przedstawia ponadto poniższy wykres: 7

8 Setosa Versicolor Virginica Spośród 5 przypadków testowych, prawidłowo sklasyfikowanych zostało 5, natomiast błędnie,. Skuteczność klasyfikacji przy trzech klasach wyniosła %. Klasyfikacja zestawu Iris zredukowanego do pary atrybutów - niskie współczynniki nauki project/bin/app -u"2 6 3" -n. -m. -b -d iris r2.in -t iris r2.test -a iris r2.valid -r -z iris r2 2.wagi --lt, Obszary decyzyjne wytrenowanego klasyfikatora przedstawia ponadto poniższy wykres: 8

9 Setosa Versicolor Virginica Spośród 5 przypadków testowych, prawidłowo sklasyfikowanych zostało 5, natomiast błędnie,. Skuteczność klasyfikacji przy trzech klasach wyniosła %. Klasyfikacja zestawu Iris obciętego do pary atrybutów - duże współczynniki nauki project/bin/app -u"2 6 3" -n -m -b -d iris t2.in -t iris t2.test -a iris t2.valid -r -z iris t2.wagi --lt, Obszary decyzyjne wytrenowanego klasyfikatora przedstawia ponadto poniższy wykres: 9

10 Setosa Versicolor Virginica Spośród 5 przypadków, prawidłowo sklasyfikowanych zostało 5, natomiast błędnie,. Skuteczność klasyfikacji przy trzech klasach wyniosła %. Klasyfikacja zestawu Iris obciętego do pary atrybutów - niskie współczynniki nauki project/bin/app -u"2 6 3" -n. -m. -b -d iris t2.in -t iris t2.test -a iris t2.valid -r -z iris t2 2.wagi --lt, Obszary decyzyjne wytrenowanego klasyfikatora przedstawia ponadto poniższy wykres:

11 Setosa Versicolor Virginica Spośród 5 przypadków, prawidłowo sklasyfikowanych zostało 4, natomiast błędnie,. Skuteczność klasyfikacji przy trzech klasach wyniosła 93%. Klasyfikacja zestawu Abalone zredukowanego do pary atrybutów - duże współczynniki nauki project/bin/app -u"2 7" -n -m -b -d abalone r2.in -t abalone r2.test -a abalone r2.valid -r -z abalone r2.wagi --lt, Obszary decyzyjne wytrenowanego klasyfikatora przedstawia ponadto poniższy wykres:

12 Spośród 47 przypadków, prawidłowo sklasyfikowanych zostało 259, natomiast błędnie, 58. Skuteczność klasyfikacji przy siedmiu klasach wyniosła 62%. Klasyfikacja zestawu Abalone zredukowanego do pary atrybutów - niskie współczynniki nauki project/bin/app -u"2 7" -n. -m. -b -d abalone r2.in -t abalone r2.test -a abalone r2.valid -r -z abalone r2 2.wagi --lt, Obszary decyzyjne wytrenowanego klasyfikatora przedstawia ponadto poniższy wykres: 2

13 Spośród 47 przypadków, prawidłowo sklasyfikowanych zostało 258, natomiast błędnie, 59. Skuteczność klasyfikacji przy siedmiu klasach wyniosła 62%. Klasyfikacja zestawu Abalone zredukowanego do siedmiu atrybutów - duże współczynniki nauki project/bin/app -u"7 7" -n -m -b -d abalone r7.in -t abalone r7.test -a abalone r7.valid -r -z abalone r7.wagi --lt, Spośród 47 przypadków, prawidłowo sklasyfikowanych zostało 287, natomiast błędnie, 3. Skuteczność klasyfikacji przy siedmiu klasach wyniosła 69%. 3

14 Klasyfikacja zestawu Abalone zredukowanego do siedmiu atrybutów - niskie współczynniki nauki project/bin/app -u"7 7" -n. -m. -b -d abalone r7.in -t abalone r7.test -a abalone r7.valid -r -z abalone r7 2.wagi --lt, Spośród 47 przypadków, prawidłowo sklasyfikowanych zostało 293, natomiast błędnie, 24. Skuteczność klasyfikacji przy siedmiu klasach wyniosła 7%. Klasyfikacja zestawu Abalone obciętego do siedmiu atrybutów - duże współczynniki nauki project/bin/app -u"7 7" -n -m -b -d abalone t7.in -t abalone t7.test -a abalone t7.valid -r -z abalone t7.wagi --lt,6. 4

15 Spośród 47 przypadków, prawidłowo sklasyfikowanych zostało 272, natomiast błędnie, 45. Skuteczność klasyfikacji przy siedmiu klasach wyniosła 65%. Klasyfikacja zestawu Abalone obciętego do siedmiu atrybutów - niskie współczynniki nauki project/bin/app -u"7 7" -n. -m. -b -d abalone t7.in -t abalone t7.test -a abalone t7.valid -r -z abalone t7 2.wagi --lt, Spośród 47 przypadków, prawidłowo sklasyfikowanych zostało 268, natomiast błędnie, 49. Skuteczność klasyfikacji przy siedmiu klasach wyniosła 64%. 5

16 Klasyfikacja zestawu Adult zredukowanego do pary atrybutów - duże współczynniki nauki project/bin/app -u"2 2" -n -m -b -d adult r2.in -t adult r2.test -a adult r2.valid -r -z adult r2.wagi --lt, Obszary decyzyjne wytrenowanego klasyfikatora przedstawia ponadto poniższy wykres: >5K <=5K Spośród 36 przypadków, prawidłowo sklasyfikowanych zostało 2267, natomiast błędnie, 749. Skuteczność klasyfikacji przy dwóch klasach wyniosła 75%. 6

17 Klasyfikacja zestawu Adult zredukowanego do pary atrybutów - niskie współczynniki nauki project/bin/app -u"2 2" -n. -m. -b -d adult r2.in -t adult r2.test -a adult r2.valid -r -z adult r2 2.wagi --lt, Obszary decyzyjne wytrenowanego klasyfikatora przedstawia ponadto poniższy wykres: >5K <=5K Spośród 36 przypadków, prawidłowo sklasyfikowanych zostało 237, natomiast błędnie, 645. Skuteczność klasyfikacji przy dwóch klasach wyniosła 79%. 7

18 Klasyfikacja zestawu Adult zredukowanego do dziesięciu atrybutów - duże współczynniki nauki project/bin/app -u" 2" -n -m -b -d adult r.in -t adult r.test -a adult r.valid -r -z adult r.wagi --lt, Spośród 36 przypadków, prawidłowo sklasyfikowanych zostało 2449, natomiast błędnie, 567. Skuteczność klasyfikacji przy dwóch klasach wyniosła 8%. Klasyfikacja zestawu Adult zredukowanego do dziesięciu atrybutów - niskie współczynniki nauki project/bin/app -u" 2" -n. -m. -b -d adult r.in -t adult r.test -a adult r.valid -r -z adult r 2.wagi --lt,. 8

19 Spośród 36 przypadków, prawidłowo sklasyfikowanych zostało 2457, natomiast błędnie, 559. Skuteczność klasyfikacji przy dwóch klasach wyniosła 8%. Klasyfikacja zestawu Adult obciętego do stu czterech atrybutów - duże współczynniki nauki project/bin/app -u"4 2" -n -m -b -d adult t4.in -t adult t4.test -a adult t4.valid -r -z adult t4.wagi --lt, Spośród 36 przypadków, prawidłowo sklasyfikowanych zostało 254, natomiast błędnie, 475. Skuteczność klasyfikacji przy dwóch klasach wyniosła 84%. 9

20 Klasyfikacja zestawu Adult obciętego do stu czterech atrybutów - niskie współczynniki nauki project/bin/app -u"4 2" -n. -m. -b -d adult t4.in -t adult t4.test -a adult t4.valid -r -z adult t4 2.wagi --lt, Spośród 36 przypadków, prawidłowo sklasyfikowanych zostało 2548, natomiast błędnie, 468. Skuteczność klasyfikacji przy dwóch klasach wyniosła 84%. 6. Dyskusja wyników i wnioski 6.. Błędy epok Błędy epok prezentowane na wykresach w sekcji Wyniki stanowią średnią sumy kwadratów błędów ze wszystkich wyjść sieci. Z tego powodu zachodzi dysproporcja, zwłaszcza w przypadku testów autoasocjacji zestawu Adult ze 5 wyjściami błędy wynoszą nawet 2%, podczas gdy w innych przypadkach testowych, stanowią po kilka procent. Nie jest to błąd, a jedynie różnica zestawów danych, na która trzeba wziąść poprawkę przy ocenie ich wyników Podział danych na klasy W zbiorze danych Abalone podziału dokonaliśmy równomiernie wg. ilości pierścieni, przez co niektóre z klas zawierały jedynie po kilka elementów. Te klasy zostały bardzo słabo rozpoznane przez sieć. Jak widać na wykresach Klasyfikacja zestawu Abalone i Klasyfikacja zestawu Abalone 2, sieć wysyca się osiągając średni błąd w zbiorze walidacyjnym ok. 3%. Nie jest to mało, zwłaszcza w porównaniu z błędem maksymalnym, który w tym 2

21 przypadku wynosi 9%. Działanie takiego klasyfikatora można łatwo wyjaśnić. Minimalizuje on błąd poprzez skuteczniejsze rozpoznawanie często występujących klas. Błędy wynikające się z pojawienia rzadziej występującej klasy są przez to skutecznie kompensowane. Perceptron wielowarstwowy minimalizuje błędy na swoich wyjściach nie biorąc pod uwagę ich współzależności takich jak na przykład korelacja, czy częstsze występowanie określonych wartości. W celu ich uniknięcia należy w odpowiedni sposób zbudować przetwarzane zbiory danych Współczynniki nauki, a obszary decyzyjne Choć prowadzenie nauki przy dwóch różnych wartościach współczynnika nauki i momentum miało na celu wprowadzenie pewnej redundantności niezbędnej przy badaniu zjawisk losowych, ujawniło ono jedną z cech powstałych w wyniku ich działania na kształt obszarów decyzyjnych. Obszary decyzyjne utworzone przy wyższych wartościach współczynników nauki, pomimo mniejszej liczby przebytych epok, miały wyraźną tendencję do ostrzejrzego rozgraniczania separowanych klas. Widać to na wykresach w postać większej stromizny i krzywizny powierzchni kreślonych przez neurony wyjściowe odpowiednich klas w sieciach uczonych przy dużych wartościach współczynnika nauki i momentum Adaptacyjna nauka sieci za pomocą zbioru walidującego W prezentowanych przypadkach długość nauki była kierowana za pomocą badania błędu zbioru walidacyjnego. Metoda ta posiada wyraźną przewagę w stosunku do liczenia epok i mierzenia średniego błędu zbioru testowego. Po pierwsze, dostosowuje się do zbioru danych. Oszacowanie z góry minimalnego błędu, jaki będzie w stanie osiągnąć sieć może być bardzo trudne. Jeszcze trudniejsze okazuje się takie samo oszacowanie, ale dla ilości epok jakiej sieć będzie potrzebować na naukę. Sytuacja komplikuje się tym bardziej, gdy pod uwagę weźmiemy zjawisko przeuczania. Osiągnięcie dostatecznie małego błędu na zbiorze treningowym może nie oznaczać lepiej uogólniającej sieci. Wprowadzenie zbioru walidującego pozwala w miarę jednorodny sposób decydować o dalszej nauce sieci w różnych przypadkach (wciąż pozostaje kwestia uodpornienia nowego wyznacznika na szumy i lokalne minima) Podział zbioru danych na zbiory treningowy, walidacyjny i testowy Mając do dyspozycji zbiór danych, odpowiedni podział na zbiory treningowy, walidacyjny i testowy wymaga jednorodnego podziału, w którym każda rozpoznawana klasa będzie reprezentowana we wszystkich zbiorach. Test Klasyfikacja zestawu Iris obciętego do pary atrybutów - niskie współczynniki nauki jest dobrym przykładem niedostatecznie dużej ilości danych w zbiorze walidacyjnym. Już od początku działania sieci widać, że osiąga on mniejsze błędy niż zbiór treningowy. Spowodowane jest to trudnymi przypadkami, które trafiły do zbioru treningowego, a których zabrakło w zbiorze 2

22 walidacyjnym. Radzi się by na zbiór walidacyjny wybierać, zależnie od wielkości danych, od 3%, do %. W naszym przypadku, zastosowaliśmy zbiory testowy i walidacyjny, każdy o rozmiarze % dostępnych danych. Obecność zbioru walidacyjnego może posłużyć w dwóch celach: do kontroli długości nauki, oraz do unikania przeuczania się sieci. Ocena na zbiorze testowym jest kolejnym potwierdzeniem, że sieć nie została przeuczona Redukcja, a odrzucanie atrybutów W badanych przez nas przypadkach redukcji dokonywaliśmy poprzez trenowanie trzywarstwowej sieci w trybie autoasocjacji, oraz poprzez odrzucenie niektórych atrybutów. W przypadku zbioru Iris, przeprowadziliśmy redukcję i odrzucenie dwóch atrybutów. Redukcji dokonała sieć 4-2-4, pozwalając zredukowany zbiór skutecznie klasyfikować (patrz: Klasyfikacja zestawu Iris zredukowanego do pary atrybutów - duże współczynniki nauki i Klasyfikacja zestawu Iris zredukowanego do pary atrybutów - niskie współczynniki nauki ). Odrzucając, zdecydowaliśmy się na odrzucenie pierwszych dwóch atrybutów, sepal length i sepal width, pozostawiając te, które przy pracach nad pierwszym zadaniem, zdawały się lepiej pokazywać różnicę między trzema klasami. W istocie, gdyby spojrzeć z góry na wykres Klasyfikacja zestawu Iris obciętego do pary atrybutów, przedstawiałby on fragment wykresu Petal Width x Petal Length. W przypadku zbioru Abalone, przeprowadziliśmy dwie redukcje, oraz jedno odrzucenie. Pierwsza z redukcji, do dwóch parametrów pokazuje obszary decyzyjne wytrenowanego klasyfikatora. Druga redukcja, do siedmiu parametrów służy jako porównanie z odrzuceniem trzech atrybutów. W tym przypadku odrzucono atrybuty zawierające informacje o płci małży. Wyniki klasyfikacji (testy Klasyfikacja zestawu Abalone zredukowanego do siedmiu atrybutów, oraz Klasyfikacja zestawu Abalone obciętego do siedmiu atrybutów ) pokazują wyższą skuteczność danych przetworzonych przez sieć perceptron: 7%, do 65%. W przypadku zestawu Adult, przeprowadziliśmy dwie redukcje, oraz jedno odrzucenie. Pierwsza z redukcji, do dwóch parametrów, pokazuje obszary decyzyjne wytrenowanego klasyfikatora. Druga redukcja, do dziesięciu parametrów pokazuje, że zbiór danych, nawet ponad dziesięciokrotnie zredukowany jest w stanie być tylko niewiele gorszy niż zbiór niezredukowany. Dużą rolę gra tutaj oczywiście redundantność wejść w zbiorze Adult, jednak pokazuje przy okazji skuteczność wielowarstwowego perceptronu w redukcji. Ostatni przypadek pokazuje działanie sieci przy odrzuceniu parametru informującego o wieku respondenta. Choć w przypadku zarobków, wiek może być dość istotny, sieć nauczyła się rozpoznawać właściwą klasę z dużą skutecznością (84%). Minimalnie wyższa skuteczność względem przypadku bez obciętych danych jest świadectwem losowości stanu początkowego sieci i jego wpływu na końcowe wyniki. Początkowe wartości wag mogą mieć duży wpływ na końcową skuteczność 22

23 sieci (zwłaszcza podczas autoasocjacji). Warto przetrenować sieć z kilku losowych stanów aby osiągnąć sieć o lepszej skuteczności. Literatura [] Ryszard Tadeusiewicz - Sieci neuronowe, Wyd. 2., Warszawa 993 [2] Learning and neural networks [ Learning_and_neural_networks] [3] UCI Machine Learning Repository Iris Data Set, Abalone Data Set, Census Income Data Set 23

Informatyka, studia dzienne, inż I st. Inteligentna analiza danych 2010/2011 Prowadzący: dr inż. Arkadiusz Tomczyk środa, 8:30

Informatyka, studia dzienne, inż I st. Inteligentna analiza danych 2010/2011 Prowadzący: dr inż. Arkadiusz Tomczyk środa, 8:30 Informatyka, studia dzienne, inż I st. semestr VI Inteligentna analiza danych 2010/2011 Prowadzący: dr inż. Arkadiusz Tomczyk środa, 8:30 Data oddania: Ocena: Marek Rogalski 150982 Paweł Tarasiuk 151021

Bardziej szczegółowo

Zadanie 2.: Perceptron wielowarstwowy

Zadanie 2.: Perceptron wielowarstwowy Informatyka, studia dzienne, inż. I st. semestr VI Inteligentna Analiza Danych 21/211 Prowadzący: dr inż. Arkadiusz Tomczyk wtotek, 8:3 Data oddania: Ocena: Marek Rogalski 15982 Paweł Tarasiuk 15121 Zadanie

Bardziej szczegółowo

ALGORYTM RANDOM FOREST

ALGORYTM RANDOM FOREST SKRYPT PRZYGOTOWANY NA ZAJĘCIA INDUKOWANYCH REGUŁ DECYZYJNYCH PROWADZONYCH PRZEZ PANA PAWŁA WOJTKIEWICZA ALGORYTM RANDOM FOREST Katarzyna Graboś 56397 Aleksandra Mańko 56699 2015-01-26, Warszawa ALGORYTM

Bardziej szczegółowo

ALGORYTMY SZTUCZNEJ INTELIGENCJI

ALGORYTMY SZTUCZNEJ INTELIGENCJI ALGORYTMY SZTUCZNEJ INTELIGENCJI Sieci neuronowe 06.12.2014 Krzysztof Salamon 1 Wstęp Sprawozdanie to dotyczy ćwiczeń z zakresu sieci neuronowych realizowanym na przedmiocie: Algorytmy Sztucznej Inteligencji.

Bardziej szczegółowo

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,

Bardziej szczegółowo

Sieci neuronowe w Statistica

Sieci neuronowe w Statistica http://usnet.us.edu.pl/uslugi-sieciowe/oprogramowanie-w-usk-usnet/oprogramowaniestatystyczne/ Sieci neuronowe w Statistica Agnieszka Nowak - Brzezińska Podstawowym elementem składowym sztucznej sieci neuronowej

Bardziej szczegółowo

Testowanie modeli predykcyjnych

Testowanie modeli predykcyjnych Testowanie modeli predykcyjnych Wstęp Podczas budowy modelu, którego celem jest przewidywanie pewnych wartości na podstawie zbioru danych uczących poważnym problemem jest ocena jakości uczenia i zdolności

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych klasyfikacja LABORKA Piotr Ciskowski zadanie 1. klasyfikacja zwierząt sieć jednowarstwowa żródło: Tadeusiewicz. Odkrywanie własności sieci neuronowych, str. 159 Przykład

Bardziej szczegółowo

Metody Sztucznej Inteligencji II

Metody Sztucznej Inteligencji II 17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału

Bardziej szczegółowo

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW

Bardziej szczegółowo

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE SIECI NEURONOWE Przedmiotem laboratorium jest stworzenie algorytmu rozpoznawania zwierząt z zastosowaniem sieci neuronowych w oparciu o 5 kryteriów: ile zwierzę ma nóg, czy żyje w wodzie, czy umie latać,

Bardziej szczegółowo

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska Sieci neuronowe w Statistica Agnieszka Nowak - Brzezioska Podstawowym elementem składowym sztucznej sieci neuronowej jest element przetwarzający neuron. Schemat działania neuronu: x1 x2 w1 w2 Dendrites

Bardziej szczegółowo

SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU)

SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU) SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU) 1. Opis problemu - ocena końcowa projektu Projekt jako nowe, nietypowe przedsięwzięcie wymaga właściwego zarządzania. Podjęcie się realizacji

Bardziej szczegółowo

Inteligentna analiza danych

Inteligentna analiza danych Numer indeksu 150946 Michał Moroz Imię i nazwisko Numer indeksu 150875 Grzegorz Graczyk Imię i nazwisko kierunek: Informatyka rok akademicki: 2010/2011 Inteligentna analiza danych Ćwiczenie I Wskaźniki

Bardziej szczegółowo

Drzewa Decyzyjne, cz.2

Drzewa Decyzyjne, cz.2 Drzewa Decyzyjne, cz.2 Inteligentne Systemy Decyzyjne Katedra Systemów Multimedialnych WETI, PG Opracowanie: dr inŝ. Piotr Szczuko Podsumowanie poprzedniego wykładu Cel: przewidywanie wyniku (określania

Bardziej szczegółowo

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 3. DRZEWA DECYZYJNE. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

SYSTEMY UCZĄCE SIĘ WYKŁAD 3. DRZEWA DECYZYJNE. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska. SYSTEMY UCZĄCE SIĘ WYKŁAD 3. DRZEWA DECYZYJNE Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska BUDOWA DRZEW DECYZYJNYCH Drzewa decyzyjne są metodą indukcyjnego

Bardziej szczegółowo

Systemy uczące się Lab 4

Systemy uczące się Lab 4 Systemy uczące się Lab 4 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 26 X 2018 Projekt zaliczeniowy Podstawą zaliczenia ćwiczeń jest indywidualne wykonanie projektu uwzględniającego

Bardziej szczegółowo

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny

Bardziej szczegółowo

Inteligentne systemy przeciw atakom sieciowym

Inteligentne systemy przeciw atakom sieciowym Inteligentne systemy przeciw atakom sieciowym wykład Sztuczne sieci neuronowe (SSN) Joanna Kołodziejczyk 2016 Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 1 / 36 Biologiczne

Bardziej szczegółowo

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska

Bardziej szczegółowo

Wprowadzenie do programu RapidMiner Studio 7.6, część 4 Michał Bereta

Wprowadzenie do programu RapidMiner Studio 7.6, część 4 Michał Bereta Wprowadzenie do programu RapidMiner Studio 7.6, część 4 Michał Bereta www.michalbereta.pl W tej części: Zachowanie wytrenowanego modelu w celu późniejszego użytku Filtrowanie danych (brakujące etykiety

Bardziej szczegółowo

Budowa sztucznych sieci neuronowych do prognozowania. Przykład jednostek uczestnictwa otwartego funduszu inwestycyjnego

Budowa sztucznych sieci neuronowych do prognozowania. Przykład jednostek uczestnictwa otwartego funduszu inwestycyjnego Budowa sztucznych sieci neuronowych do prognozowania. Przykład jednostek uczestnictwa otwartego funduszu inwestycyjnego Dorota Witkowska Szkoła Główna Gospodarstwa Wiejskiego w Warszawie Wprowadzenie Sztuczne

Bardziej szczegółowo

Podstawy sztucznej inteligencji

Podstawy sztucznej inteligencji wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt

Bardziej szczegółowo

Projekt Sieci neuronowe

Projekt Sieci neuronowe Projekt Sieci neuronowe Chmielecka Katarzyna Gr. 9 IiE 1. Problem i dane Sieć neuronowa miała za zadanie nauczyć się klasyfikować wnioski kredytowe. W projekcie wykorzystano dane pochodzące z 110 wniosków

Bardziej szczegółowo

Przykładowa analiza danych

Przykładowa analiza danych Przykładowa analiza danych W analizie wykorzystano dane pochodzące z publicznego repozytorium ArrayExpress udostępnionego na stronach Europejskiego Instytutu Bioinformatyki (http://www.ebi.ac.uk/). Zbiór

Bardziej szczegółowo

Uczenie sieci typu MLP

Uczenie sieci typu MLP Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką

Bardziej szczegółowo

Testowanie hipotez statystycznych

Testowanie hipotez statystycznych 9 października 2008 ...czyli definicje na rozgrzewkę n-elementowa próba losowa - wektor n zmiennych losowych (X 1,..., X n ); intuicyjnie: wynik n eksperymentów realizacja próby (X 1,..., X n ) w ω Ω :

Bardziej szczegółowo

( x) Równanie regresji liniowej ma postać. By obliczyć współczynniki a i b należy posłużyć się następującymi wzorami 1 : Gdzie:

( x) Równanie regresji liniowej ma postać. By obliczyć współczynniki a i b należy posłużyć się następującymi wzorami 1 : Gdzie: ma postać y = ax + b Równanie regresji liniowej By obliczyć współczynniki a i b należy posłużyć się następującymi wzorami 1 : xy b = a = b lub x Gdzie: xy = też a = x = ( b ) i to dane empiryczne, a ilość

Bardziej szczegółowo

Analiza Danych Sprawozdanie regresja Marek Lewandowski Inf 59817

Analiza Danych Sprawozdanie regresja Marek Lewandowski Inf 59817 Analiza Danych Sprawozdanie regresja Marek Lewandowski Inf 59817 Zadanie 1: wiek 7 8 9 1 11 11,5 12 13 14 14 15 16 17 18 18,5 19 wzrost 12 122 125 131 135 14 142 145 15 1 154 159 162 164 168 17 Wykres

Bardziej szczegółowo

Klasyfikator. ˆp(k x) = 1 K. I(ρ(x,x i ) ρ(x,x (K) ))I(y i =k),k =1,...,L,

Klasyfikator. ˆp(k x) = 1 K. I(ρ(x,x i ) ρ(x,x (K) ))I(y i =k),k =1,...,L, Klasyfikator Jedną z najistotniejszych nieparametrycznych metod klasyfikacji jest metoda K-najbliższych sąsiadów, oznaczana przez K-NN. W metodzie tej zaliczamy rozpoznawany obiekt do tej klasy, do której

Bardziej szczegółowo

Obrona rozprawy doktorskiej Neuro-genetyczny system komputerowy do prognozowania zmiany indeksu giełdowego

Obrona rozprawy doktorskiej Neuro-genetyczny system komputerowy do prognozowania zmiany indeksu giełdowego IBS PAN, Warszawa 9 kwietnia 2008 Obrona rozprawy doktorskiej Neuro-genetyczny system komputerowy do prognozowania zmiany indeksu giełdowego mgr inż. Marcin Jaruszewicz promotor: dr hab. inż. Jacek Mańdziuk,

Bardziej szczegółowo

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW 17 XII 2013 Jan Karwowski

Bardziej szczegółowo

Wprowadzenie do analizy dyskryminacyjnej

Wprowadzenie do analizy dyskryminacyjnej Wprowadzenie do analizy dyskryminacyjnej Analiza dyskryminacyjna to zespół metod statystycznych używanych w celu znalezienia funkcji dyskryminacyjnej, która możliwie najlepiej charakteryzuje bądź rozdziela

Bardziej szczegółowo

Rozglądanie się w przestrzeni Iris czyli kręcenie (głową/płaszczyzną) w czterech wymiarach

Rozglądanie się w przestrzeni Iris czyli kręcenie (głową/płaszczyzną) w czterech wymiarach Rozglądanie się w przestrzeni Iris czyli kręcenie (głową/płaszczyzną) w czterech wymiarach maja, 7 Rozglądanie się w D Plan Klasyka z brodą: zbiór danych Iris analiza składowych głównych (PCA), czyli redukcja

Bardziej szczegółowo

Dokumentacja Końcowa

Dokumentacja Końcowa Metody Sztucznej Inteligencji 2 Projekt Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych. Dokumentacja Końcowa Autorzy: Robert Wojciechowski Michał Denkiewicz Wstęp Celem

Bardziej szczegółowo

Elementy modelowania matematycznego

Elementy modelowania matematycznego Elementy modelowania matematycznego Modelowanie algorytmów klasyfikujących. Podejście probabilistyczne. Naiwny klasyfikator bayesowski. Modelowanie danych metodą najbliższych sąsiadów. Jakub Wróblewski

Bardziej szczegółowo

SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006

SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006 SAS wybrane elementy DATA MINING Część III Seweryn Kowalski 2006 Algorytmy eksploracji danych Algorytm eksploracji danych jest dobrze zdefiniowaną procedurą, która na wejściu otrzymuje dane, a na wyjściu

Bardziej szczegółowo

PODSTAWY STATYSTYCZNEJ ANALIZY DANYCH

PODSTAWY STATYSTYCZNEJ ANALIZY DANYCH Wykład 3 Liniowe metody klasyfikacji. Wprowadzenie do klasyfikacji pod nadzorem. Fisherowska dyskryminacja liniowa. Wprowadzenie do klasyfikacji pod nadzorem. Klasyfikacja pod nadzorem Klasyfikacja jest

Bardziej szczegółowo

Konkurs z przedmiotu eksploracja i analiza danych: problem regresji i klasyfikacji

Konkurs z przedmiotu eksploracja i analiza danych: problem regresji i klasyfikacji Konkurs z przedmiotu eksploracja i analiza danych: problem regresji i klasyfikacji Michał Witczak Data Mining 20 maja 2012 r. 1. Wstęp Dostarczone zostały nam 4 pliki, z których dwa stanowiły zbiory uczące

Bardziej szczegółowo

WEKA klasyfikacja z użyciem sztucznych sieci neuronowych

WEKA klasyfikacja z użyciem sztucznych sieci neuronowych WEKA klasyfikacja z użyciem sztucznych sieci neuronowych 1 WEKA elementy potrzebne do zadania WEKA (Data mining software in Java http://www.cs.waikato.ac.nz/ml/weka/) jest narzędziem zawierającym zbiór

Bardziej szczegółowo

Widzenie komputerowe

Widzenie komputerowe Widzenie komputerowe Uczenie maszynowe na przykładzie sieci neuronowych (3) źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Zdolność uogólniania sieci neuronowej R oznaczenie

Bardziej szczegółowo

Zadanie 1: Piętnastka - uzupełnienie

Zadanie 1: Piętnastka - uzupełnienie Informatyka, studia dzienne, inż. I st. semestr VI Sztuczna Inteligencja i Systemy Ekspertowe 2010/2011 Prowadzący: mgr Michał Pryczek piątek, 12:00 Data oddania: Ocena: Grzegorz Graczyk 150875 Marek Rogalski

Bardziej szczegółowo

Drzewa decyzyjne i lasy losowe

Drzewa decyzyjne i lasy losowe Drzewa decyzyjne i lasy losowe Im dalej w las tym więcej drzew! ML Gdańsk http://www.mlgdansk.pl/ Marcin Zadroga https://www.linkedin.com/in/mzadroga/ 20 Czerwca 2017 WPROWADZENIE DO MACHINE LEARNING CZYM

Bardziej szczegółowo

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice) WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO Stanisław Kowalik (Poland, Gliwice) 1. Wprowadzenie Wstrząsy podziemne i tąpania występujące w kopalniach

Bardziej szczegółowo

Podstawy Sztucznej Inteligencji (PSZT)

Podstawy Sztucznej Inteligencji (PSZT) Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12

Bardziej szczegółowo

Regresja logistyczna (LOGISTIC)

Regresja logistyczna (LOGISTIC) Zmienna zależna: Wybór opcji zachodniej w polityce zagranicznej (kodowana jako tak, 0 nie) Zmienne niezależne: wiedza o Unii Europejskiej (WIEDZA), zamieszkiwanie w regionie zachodnim (ZACH) lub wschodnim

Bardziej szczegółowo

Zjawisko dopasowania w sytuacji komunikacyjnej. Patrycja Świeczkowska Michał Woźny

Zjawisko dopasowania w sytuacji komunikacyjnej. Patrycja Świeczkowska Michał Woźny Zjawisko dopasowania w sytuacji komunikacyjnej Patrycja Świeczkowska Michał Woźny 0.0.0 pomiar nastroju Przeprowadzone badania miały na celu ustalenie, w jaki sposób rozmówcy dopasowują się do siebie nawzajem.

Bardziej szczegółowo

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0 Uczenie się pojedynczego neuronu W0 X0=1 W1 x1 W2 s f y x2 Wp xp p x i w i=x w+wo i=0 Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z=0 Wówczas: W 1 x 1 + w 2 x 2 + = 0 Algorytm

Bardziej szczegółowo

Badanie zależności skala nominalna

Badanie zależności skala nominalna Badanie zależności skala nominalna I. Jak kształtuje się zależność miedzy płcią a wykształceniem? II. Jak kształtuje się zależność między płcią a otyłością (opis BMI)? III. Jak kształtuje się zależność

Bardziej szczegółowo

METODY INŻYNIERII WIEDZY

METODY INŻYNIERII WIEDZY METODY INŻYNIERII WIEDZY WALIDACJA KRZYŻOWA dla ZAAWANSOWANEGO KLASYFIKATORA KNN ĆWICZENIA Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Bardziej szczegółowo

Dariusz Brzeziński Instytut Informatyki, Politechnika Poznańska

Dariusz Brzeziński Instytut Informatyki, Politechnika Poznańska Dariusz Brzeziński Instytut Informatyki, Politechnika Poznańska Podstawowe architektury sieci neuronowych Generowanie sztucznych danych Jak się nie przemęczyć Korzystanie z istniejących wag Zamrażanie

Bardziej szczegółowo

Metody klasyfikacji i rozpoznawania wzorców. Najważniejsze rodzaje klasyfikatorów

Metody klasyfikacji i rozpoznawania wzorców.  Najważniejsze rodzaje klasyfikatorów Metody klasyfikacji i rozpoznawania wzorców www.michalbereta.pl Najważniejsze rodzaje klasyfikatorów Dla określonego problemu klasyfikacyjnego (tzn. dla danego zestawu danych) należy przetestować jak najwięcej

Bardziej szczegółowo

NEURAL NETWORK ) FANN jest biblioteką implementującą SSN, którą moŝna wykorzystać. w C, C++, PHP, Pythonie, Delphi a nawet w środowisku. Mathematica.

NEURAL NETWORK ) FANN jest biblioteką implementującą SSN, którą moŝna wykorzystać. w C, C++, PHP, Pythonie, Delphi a nawet w środowisku. Mathematica. Wykorzystanie sztucznych sieci neuronowych do rozpoznawania języków: polskiego, angielskiego i francuskiego Tworzenie i nauczanie sieci przy pomocy języka C++ i biblioteki FANN (Fast Artificial Neural

Bardziej szczegółowo

Projekt zaliczeniowy z przedmiotu Statystyka i eksploracja danych (nr 3) Kamil Krzysztof Derkowski

Projekt zaliczeniowy z przedmiotu Statystyka i eksploracja danych (nr 3) Kamil Krzysztof Derkowski Projekt zaliczeniowy z przedmiotu Statystyka i eksploracja danych (nr 3) Kamil Krzysztof Derkowski Zadanie 1 Eksploracja (EXAMINE) Informacja o analizowanych danych Obserwacje Uwzględnione Wykluczone Ogółem

Bardziej szczegółowo

Matlab podstawy + testowanie dokładności modeli inteligencji obliczeniowej

Matlab podstawy + testowanie dokładności modeli inteligencji obliczeniowej Matlab podstawy + testowanie dokładności modeli inteligencji obliczeniowej Podstawy matlaba cz.ii Funkcje Dotychczas kod zapisany w matlabie stanowił skrypt który pozwalał na określenie kolejności wykonywania

Bardziej szczegółowo

Testowanie hipotez statystycznych

Testowanie hipotez statystycznych Agenda Instytut Matematyki Politechniki Łódzkiej 2 stycznia 2012 Agenda Agenda 1 Wprowadzenie Agenda 2 Hipoteza oraz błędy I i II rodzaju Hipoteza alternatywna Statystyka testowa Zbiór krytyczny Poziom

Bardziej szczegółowo

Identyfikacja istotnych atrybutów za pomocą Baysowskich miar konfirmacji

Identyfikacja istotnych atrybutów za pomocą Baysowskich miar konfirmacji Identyfikacja istotnych atrybutów za pomocą Baysowskich miar konfirmacji Jacek Szcześniak Jerzy Błaszczyński Roman Słowiński Poznań, 5.XI.2013r. Konspekt Wstęp Wprowadzenie Metody typu wrapper Nowe metody

Bardziej szczegółowo

Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak

Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak 2 Rozdział 1 Sztuczne sieci neuronowe. 3 Sztuczna sieć neuronowa jest zbiorem prostych elementów pracujących równolegle, których zasada działania inspirowana jest biologicznym systemem nerwowym. Sztuczną

Bardziej szczegółowo

Prof. Stanisław Jankowski

Prof. Stanisław Jankowski Prof. Stanisław Jankowski Zakład Sztucznej Inteligencji Zespół Statystycznych Systemów Uczących się p. 228 sjank@ise.pw.edu.pl Zakres badań: Sztuczne sieci neuronowe Maszyny wektorów nośnych SVM Maszyny

Bardziej szczegółowo

Instrukcja realizacji ćwiczenia

Instrukcja realizacji ćwiczenia SIEĆ KOHONENA ROZPOZNAWANIE OBRAZÓW Cel ćwiczenia: zapoznanie się ze sposobem reprezentacji wiedzy w sieciach Kohonena i mechanizmami sąsiedztwa i sumienia neuronów. Zadanie do analizy: analizujemy sieć

Bardziej szczegółowo

Analiza składowych głównych. Wprowadzenie

Analiza składowych głównych. Wprowadzenie Wprowadzenie jest techniką redukcji wymiaru. Składowe główne zostały po raz pierwszy zaproponowane przez Pearsona(1901), a następnie rozwinięte przez Hotellinga (1933). jest zaliczana do systemów uczących

Bardziej szczegółowo

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Temat: Sztuczne Sieci Neuronowe Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Sztuczne sieci neuronowe

Bardziej szczegółowo

Sztuczne sieci neuronowe (SNN)

Sztuczne sieci neuronowe (SNN) Sztuczne sieci neuronowe (SNN) Pozyskanie informacji (danych) Wstępne przetwarzanie danych przygotowanie ich do dalszej analizy Selekcja informacji Ostateczny model decyzyjny SSN - podstawy Sieci neuronowe

Bardziej szczegółowo

Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych. Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS

Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych. Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS Dyskretyzacja - definicja Dyskretyzacja - zamiana atrybutów

Bardziej szczegółowo

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010 Materiały/konsultacje Automatyczna predykcja http://www.ibp.pwr.wroc.pl/kotulskalab Konsultacje wtorek, piątek 9-11 (uprzedzić) D1-115 malgorzata.kotulska@pwr.wroc.pl Co to jest uczenie maszynowe? Uczenie

Bardziej szczegółowo

P: Czy studiujący i niestudiujący preferują inne sklepy internetowe?

P: Czy studiujący i niestudiujący preferują inne sklepy internetowe? 2 Test niezależności chi-kwadrat stosuje się (między innymi) w celu sprawdzenia czy pomiędzy zmiennymi istnieje związek/zależność. Stosujemy go w sytuacji, kiedy zmienna zależna mierzona jest na skali

Bardziej szczegółowo

Roczny raport jakości powietrza z uwzględnieniem pyłów PM1, PM2,5 oraz PM10 dla czujników zlokalizowanych w gminie Proszowice

Roczny raport jakości powietrza z uwzględnieniem pyłów PM1, PM2,5 oraz PM10 dla czujników zlokalizowanych w gminie Proszowice Roczny raport jakości powietrza z uwzględnieniem pyłów PM1, PM2,5 oraz PM dla czujników zlokalizowanych w gminie Proszowice Spis treści 1. Charakterystyka gminy oraz lokalizacja czujników... 3 2. Dopuszczalne

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt

Bardziej szczegółowo

KATEDRA SYSTEMÓW MULTIMEDIALNYCH. Inteligentne systemy decyzyjne. Ćwiczenie nr 12:

KATEDRA SYSTEMÓW MULTIMEDIALNYCH. Inteligentne systemy decyzyjne. Ćwiczenie nr 12: KATEDRA SYSTEMÓW MULTIMEDIALNYCH Inteligentne systemy decyzyjne Ćwiczenie nr 12: Rozpoznawanie mowy z wykorzystaniem ukrytych modeli Markowa i pakietu HTK Opracowanie: mgr inż. Kuba Łopatka 1. Wprowadzenie

Bardziej szczegółowo

Przetworniki cyfrowo analogowe oraz analogowo - cyfrowe

Przetworniki cyfrowo analogowe oraz analogowo - cyfrowe Przetworniki cyfrowo analogowe oraz analogowo - cyfrowe Przetworniki cyfrowo / analogowe W cyfrowych systemach pomiarowych często zachodzi konieczność zmiany sygnału cyfrowego na analogowy, np. w celu

Bardziej szczegółowo

Elementy kognitywistyki III: Modele i architektury poznawcze

Elementy kognitywistyki III: Modele i architektury poznawcze Elementy kognitywistyki III: Modele i architektury poznawcze Wykład VII: Modelowanie uczenia się w sieciach neuronowych Uczenie się sieci i trening nienaruszona struktura sieci (z pewnym ale ) nienaruszone

Bardziej szczegółowo

Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej. Adam Żychowski

Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej. Adam Żychowski Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej Adam Żychowski Definicja problemu Każdy z obiektów może należeć do więcej niż jednej kategorii. Alternatywna definicja Zastosowania

Bardziej szczegółowo

METODY INŻYNIERII WIEDZY

METODY INŻYNIERII WIEDZY METODY INŻYNIERII WIEDZY Metoda K Najbliższych Sąsiadów K-Nearest Neighbours (KNN) ĆWICZENIA Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Bardziej szczegółowo

6. Perceptron Rosenblatta

6. Perceptron Rosenblatta 6. Perceptron Rosenblatta 6-1 Krótka historia perceptronu Rosenblatta 6-2 Binarne klasyfikatory liniowe 6-3 Struktura perceptronu Rosenblatta 6-4 Perceptron Rosenblatta a klasyfikacja 6-5 Perceptron jednowarstwowy:

Bardziej szczegółowo

SZTUCZNE SIECI NEURONOWE W MODELOWANIU ZJAWISK ZACHODZĄCYCH NA RYNKU NIERUCHOMOŚCI

SZTUCZNE SIECI NEURONOWE W MODELOWANIU ZJAWISK ZACHODZĄCYCH NA RYNKU NIERUCHOMOŚCI Dr Agnieszka MAZUR-DUDZIŃSKA Politechnika Łódzka, Katedra Zarządzania SZTUCZNE SIECI NEURONOWE W MODELOWANIU ZJAWISK ZACHODZĄCYCH NA RYNKU NIERUCHOMOŚCI Streszczenie: Celem referatu jest zastosowanie sztucznych

Bardziej szczegółowo

Optymalizacja optymalizacji

Optymalizacja optymalizacji 7 maja 2008 Wstęp Optymalizacja lokalna Optymalizacja globalna Algorytmy genetyczne Badane czasteczki Wykorzystane oprogramowanie (Algorytm genetyczny) 2 Sieć neuronowa Pochodne met-enkefaliny Optymalizacja

Bardziej szczegółowo

METODY INŻYNIERII WIEDZY

METODY INŻYNIERII WIEDZY METODY INŻYNIERII WIEDZY Metoda K Najbliższych Sąsiadów K-Nearest Neighbours (KNN) ĆWICZENIA Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Bardziej szczegółowo

Idea. θ = θ 0, Hipoteza statystyczna Obszary krytyczne Błąd pierwszego i drugiego rodzaju p-wartość

Idea. θ = θ 0, Hipoteza statystyczna Obszary krytyczne Błąd pierwszego i drugiego rodzaju p-wartość Idea Niech θ oznacza parametr modelu statystycznego. Dotychczasowe rozważania dotyczyły metod estymacji tego parametru. Teraz zamiast szacować nieznaną wartość parametru będziemy weryfikowali hipotezę

Bardziej szczegółowo

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów. Wstęp do teorii sztucznej inteligencji Wykład II Uczenie sztucznych neuronów. 1 - powtórzyć o klasyfikacji: Sieci liniowe I nieliniowe Sieci rekurencyjne Uczenie z nauczycielem lub bez Jednowarstwowe I

Bardziej szczegółowo

Testowanie hipotez statystycznych. Wnioskowanie statystyczne

Testowanie hipotez statystycznych. Wnioskowanie statystyczne Testowanie hipotez statystycznych Wnioskowanie statystyczne Hipoteza statystyczna to dowolne przypuszczenie co do rozkładu populacji generalnej (jego postaci funkcyjnej lub wartości parametrów). Hipotezy

Bardziej szczegółowo

Przedmiotowe Zasady Oceniania z Informatyki w Szkole Podstawowej nr 4 z Oddziałami Dwujęzycznymi im. Wojciecha Korfantego w Mysłowicach

Przedmiotowe Zasady Oceniania z Informatyki w Szkole Podstawowej nr 4 z Oddziałami Dwujęzycznymi im. Wojciecha Korfantego w Mysłowicach Przedmiotowe Zasady Oceniania z Informatyki w Szkole Podstawowej nr 4 z Oddziałami Dwujęzycznymi im. Wojciecha Korfantego w Mysłowicach Przedmiotowe Zasady Oceniania uwzględniają główne ramy i wartości

Bardziej szczegółowo

Klasyfikacja publikacji biomedycznych w konkursie JRS 2012 Data Mining Competition - Szkic koncepcji

Klasyfikacja publikacji biomedycznych w konkursie JRS 2012 Data Mining Competition - Szkic koncepcji Kierunek: Informatyka Zastosowania Informatyki w Medycynie Klasyfikacja publikacji biomedycznych w konkursie JRS 2012 Data Mining Competition - Szkic koncepcji 1. WSTĘP AUTORZY Joanna Binczewska gr. I3.1

Bardziej szczegółowo

Raport z Badania Ankietowego. Wizerunek Urzędu Miasta Nowy Targ i oczekiwania jego klientów - w ramach procedury systemu zarządzania, jakością PZ-1.5.

Raport z Badania Ankietowego. Wizerunek Urzędu Miasta Nowy Targ i oczekiwania jego klientów - w ramach procedury systemu zarządzania, jakością PZ-1.5. Raport z Badania Ankietowego Wizerunek Urzędu Miasta Nowy Targ i oczekiwania jego klientów - w ramach procedury systemu zarządzania, jakością PZ-1.5. Badanie ankietowe przeprowadzone wśród Klientów UM

Bardziej szczegółowo

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD X: Sztuczny neuron

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD X: Sztuczny neuron Elementy kognitywistyki II: Sztuczna inteligencja WYKŁAD X: Sztuczny neuron Koneksjonizm: wprowadzenie 1943: Warren McCulloch, Walter Pitts: ogólna teoria przetwarzania informacji oparta na sieciach binarnych

Bardziej szczegółowo

8. Neuron z ciągłą funkcją aktywacji.

8. Neuron z ciągłą funkcją aktywacji. 8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i

Bardziej szczegółowo

REGRESJA I KORELACJA MODEL REGRESJI LINIOWEJ

REGRESJA I KORELACJA MODEL REGRESJI LINIOWEJ REGRESJA I KORELACJA MODEL REGRESJI LINIOWEJ Korelacja oznacza fakt współzależności zmiennych, czyli istnienie powiązania pomiędzy nimi. Siłę i kierunek powiązania określa się za pomocą współczynnika korelacji

Bardziej szczegółowo

Zadanie 3: Liczenie winogron

Zadanie 3: Liczenie winogron Informatyka, studia dzienne, II st. semestr II Rozpoznawanie obrazów 2012/2013 Prowadzący: dr inż. Bartłomiej Stasiak czwartek, 8:30 Data oddania: Ocena: Andrzej Stasiak 178736 Grzegorz Graczyk 178717

Bardziej szczegółowo

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych. Metody Sztucznej Inteligencji 2 Projekt Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych. Autorzy: Robert Wojciechowski Michał Denkiewicz Mateusz Gągol Wstęp Celem projektu

Bardziej szczegółowo

WYKORZYSTANIE SZTUCZNYCH SIECI NEURONOWYCH W PROGNOZOWANIU

WYKORZYSTANIE SZTUCZNYCH SIECI NEURONOWYCH W PROGNOZOWANIU WYKORZYSTANIE SZTUCZNYCH SIECI NEURONOWYCH W PROGNOZOWANIU THE USE OF ARTIFICIAL NEURAL NETWORKS IN FORECASTING Konrad BAJDA, Sebastian PIRÓG Resume Artykuł opisuje wykorzystanie sztucznych sieci neuronowych

Bardziej szczegółowo

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE INSTYTUT TECHNOLOGII MECHANICZNEJ Metody Sztucznej Inteligencji Sztuczne Sieci Neuronowe Wstęp Sieci neuronowe są sztucznymi strukturami, których

Bardziej szczegółowo

Analiza wariancji. dr Janusz Górczyński

Analiza wariancji. dr Janusz Górczyński Analiza wariancji dr Janusz Górczyński Wprowadzenie Powiedzmy, że badamy pewną populację π, w której cecha Y ma rozkład N o średniej m i odchyleniu standardowym σ. Powiedzmy dalej, że istnieje pewien czynnik

Bardziej szczegółowo

Publiczna Szkoła Podstawowa nr 14 w Opolu. Edukacyjna Wartość Dodana

Publiczna Szkoła Podstawowa nr 14 w Opolu. Edukacyjna Wartość Dodana Publiczna Szkoła Podstawowa nr 14 w Opolu Edukacyjna Wartość Dodana rok szkolny 2014/2015 Edukacyjna Wartość Dodana (EWD) jest miarą efektywności nauczania dla szkoły i uczniów, którzy do danej placówki

Bardziej szczegółowo

Kombinacja jądrowych estymatorów gęstości w klasyfikacji - zastosowanie na sztucznym zbiorze danych

Kombinacja jądrowych estymatorów gęstości w klasyfikacji - zastosowanie na sztucznym zbiorze danych Kombinacja jądrowych estymatorów gęstości w klasyfikacji - zastosowanie na sztucznym zbiorze danych Mateusz Kobos, 07.04.2010 Seminarium Metody Inteligencji Obliczeniowej Spis treści Opis algorytmu i zbioru

Bardziej szczegółowo

Wprowadzenie do klasyfikacji

Wprowadzenie do klasyfikacji Wprowadzenie do klasyfikacji ZeroR Odpowiada zawsze tak samo Decyzja to klasa większościowa ze zbioru uczącego A B X 1 5 T 1 7 T 1 5 T 1 5 F 2 7 F Tutaj jest więcej obiektów klasy T, więc klasyfikator

Bardziej szczegółowo

Maciej Oleksy Zenon Matuszyk

Maciej Oleksy Zenon Matuszyk Maciej Oleksy Zenon Matuszyk Jest to proces związany z wytwarzaniem oprogramowania. Jest on jednym z procesów kontroli jakości oprogramowania. Weryfikacja oprogramowania - testowanie zgodności systemu

Bardziej szczegółowo

Metoda Automatycznej Detekcji Interakcji CHAID

Metoda Automatycznej Detekcji Interakcji CHAID Metoda Automatycznej Detekcji Interakcji CHAID Metoda ta pozwala wybrać z konkretnego, dużego zbioru zmiennych te z nich, które najsilniej wpływają na wskazaną zmienną (objaśnianą) zmienne porządkowane

Bardziej szczegółowo