Zadanie 3.: Klasyfikacje
|
|
- Magda Klimek
- 7 lat temu
- Przeglądów:
Transkrypt
1 Informatyka, studia dzienne, inż. I st. semestr VI Inteligentna Analiza Danych 2/2 Prowadzący: dr inż. Arkadiusz Tomczyk wtotek, 8:3 Data oddania: Ocena: Marek Rogalski 5982 Paweł Tarasiuk 52 Zadanie 3.: Klasyfikacje. Cel Celem zadania jest szersze poznanie zachowania perceptronu wielowarstwowego w przypadku pracy na danych zredukowanych i przetransformowanych. Większą uwagę należy zwrócić na dobór cech za pomocą których uczy się sieć. Ich dobór oraz wstępne przetwarzanie mogą polegać na redukcji ilości cech poprzez eliminację wybranych atrybutów bądź redukcję z pomocą sieci wielowarstwowego perceptronu uczonego w trybie autoasocjacji. Kolejnym ważnym elementem jest wizualizacja granic decyzyjnych wytrenowanego klasyfikatora. Ma to na celu zobrazowanie podziału przestrzeni klasyfikacyjnej dokonywanej przez klasyfikator. 2. Zmiany w projekcie W celu osiągnięcia założonego efektu, w kodzie, oraz układzie projektu poczyniliśmy szereg zmian. Obejmowały one korekty błędów, oraz wprowadzanie nowych funkcjonalności w postaci: Rozszerzenie kroniki nauki sieci o bardziej szczegółową prezentację błędów czynionych przez sieć w kolejnych epokach. Dodanie możliwości automatycznego zakończenia nauki sieci dzięki wprowadzeniu obsługi zbioru walidacyjnego. 42 SVN:
2 Dodanie możliwości nauki sieci w trybie autoasocjacji, a następnie redukcji zbioru atrybutów do zbioru wyjść warstwy ukrytej sieci. Przygotowanie narzędzi pomagających w wizualizacji obszarów decyzyjnych wytrenowanego klasyfikatora. Wprowadzone zmiany nie naruszają wcześniej ustanowionej architektury programu. Wciąż funkcjonuje program w języku C++ realizujący model wielowarstwowego perceptronu. Informacje zwracane przez program kontrolowane są poprzez parametry podawane w wierszu poleceń. Poza programem działa zestaw skryptów w języku Python zajmujących się przetwarzaniem wstępnym, oraz zarządzaniem plikami tworzonymi przez program. Generowaniem wykresów sterują skrypty progarmu Gnuplot uruchamiane w odpowiedniej kolejności przez program make. 3. Przebieg doświadczeń Pierwsza część badań polegała na wytrenowaniu klasyfikatora dla zbiorów Abalone Data Set, oraz Census Income Data Set. Wyniki klasyfikacji należy porównać z wnioskami z poprzedniego zadania. Druga część badań polegała na dokładniejszym zbadaniu wpływu, jaki wywierają różne metody redukcji zbioru atrybutów na skuteczność sieci wielowarstwowego perceptronu. Zestaw Abalone podzieliliśmy na siedem klas o równomiernie rozłożonych parametrach, a następnie dokonywaliśmy prób klasyfikacji z wykorzystaniem różnych zestawów parametrów. Dla zachowanie spójności z drugą częścią badawczą, przygotowany tu zestaw był wykorzystywany również w dalszym toku doświadczeń, do przeprowadzania redukcji i transformacji atrybutów. Sieć trenowana była aż uśredniony na czterdziestu epokach błąd zbioru walidacyjnego nie przewyższył któregoś z uśrednionych błędów epok zbioru walidacyjnego sprzed co najmniej czterdziestu epok. Zbiór testowy, sprawdzany po wytrenowaniu sieci, stanowił zawsze losową próbę % dostępnych danych. 4. Wyniki - część badawcza I Klasyfikacja zestawu Abalone - wysokie współczynniki nauki project/bin/app -u" 7" -n -m -b -d abalone/abalone.in -t abalone/abalone.test -a abalone/abalone.valid -r --lt,6. Podczas klasyfikacji z wykorzystaniem wysokich wartości współczynników nauki i momentum osiągnęliśmy następującą zależność numeru epoki od błędu: 2
3 Spośród 47 przypadków testowych, prawidłowo sklasyfikowanych zostało 273, natomiast błędnie, 44. Skuteczność klasyfikacji przy siedmiu klasach wyniosła 65%. Klasyfikacja zestawu Abalone 2 - niskie współczynniki nauki project/bin/app -u" 7" -n. -m. -b -d abalone/abalone.in -t abalone/abalone.test -a abalone/abalone.valid -r --lt,. Podczas klasyfikacji z wykorzystaniem niskich wartości współczynników nauki i momentum osiągnęliśmy następującą zależność numeru epoki od błędu: Spośród 47 przypadków testowych, prawidłowo sklasyfikowanych zostało 277, natomiast błędnie, 4. Skuteczność klasyfikacji przy siedmiu klasach 3
4 wyniosła 66%. Klasyfikacja zestawu Adult - wysokie współczynniki nauki project/bin/app -u"5 2" -n -m -b -d adult/adult.in -t adult/adult.test -a adult/adult.valid -r --lt,6. Podczas klasyfikacji z wykorzystaniem wysokich wartości współczynników nauki i momentum osiągnęliśmy następującą zależność numeru epoki od błędu: Spośród 36 przypadków, prawidłowo sklasyfikowanych zostało 253, natomiast błędnie, 485. Skuteczność klasyfikacji przy siedmiu klasach wyniosła 84%. Klasyfikacja zestawu Adult 2 - niskie współczynniki nauki project/bin/app -u"5 2" -n. -m. -b -d adult/adult.in -t adult/adult.test -a adult/adult.valid -r --lt,. Podczas klasyfikacji z wykorzystaniem niskich wartości współczynników nauki i momentum osiągnęliśmy następującą zależność numeru epoki od błędu: 4
5 Spośród 36 przypadków, prawidłowo sklasyfikowanych zostało 2536, natomiast błędnie, 48. Skuteczność klasyfikacji przy siedmiu klasach wyniosła 84%. 5. Wyniki - część badawcza II Transformacja atrybutów zestawu Iris do pary atrybutów project/bin/app -u"4 2 4" -n. -m. -b -d iris/iris.in -a iris/iris.valid -r --reduce,.../workdir/reduce_iris_to_2.pdf Transformacja atrybutów zestawu Abalone do pary atrybutów project/bin/app -u" 2 " -n. -m. -b -d abalone/abalone.in -a abalone/abalone.valid -r --reduce,. 5
6 Transformacja atrybutów zestawu Abalone do siedmiu atrybutów project/bin/app -u" 7 " -n. -m. -b -d abalone/abalone.in -a abalone/abalone.valid -r --reduce, Transformacja atrybutów zestawu Adult do pary atrybutów project/bin/app -u"5 2 5" -n. -m. -b -d adult/adult.in -a adult/adult.valid -r --reduce,. 6
7 ../workdir/reduce_adult_to_2.pdf Transformacja atrybutów zestawu Adult do dziesięciu atrybutów project/bin/app -u"5 5" -n. -m. -b -d adult/adult.in -a adult/adult.valid -r --reduce,.../workdir/reduce_adult_to_.pdf Klasyfikacja zestawu Iris zredukowanego do pary atrybutów - duże współczynniki nauki project/bin/app -u"2 6 3" -n -m -b -d iris r2.in -t iris r2.test -a iris r2.valid -r -z iris r2.wagi --lt, Obszary decyzyjne wytrenowanego klasyfikatora przedstawia ponadto poniższy wykres: 7
8 Setosa Versicolor Virginica Spośród 5 przypadków testowych, prawidłowo sklasyfikowanych zostało 5, natomiast błędnie,. Skuteczność klasyfikacji przy trzech klasach wyniosła %. Klasyfikacja zestawu Iris zredukowanego do pary atrybutów - niskie współczynniki nauki project/bin/app -u"2 6 3" -n. -m. -b -d iris r2.in -t iris r2.test -a iris r2.valid -r -z iris r2 2.wagi --lt, Obszary decyzyjne wytrenowanego klasyfikatora przedstawia ponadto poniższy wykres: 8
9 Setosa Versicolor Virginica Spośród 5 przypadków testowych, prawidłowo sklasyfikowanych zostało 5, natomiast błędnie,. Skuteczność klasyfikacji przy trzech klasach wyniosła %. Klasyfikacja zestawu Iris obciętego do pary atrybutów - duże współczynniki nauki project/bin/app -u"2 6 3" -n -m -b -d iris t2.in -t iris t2.test -a iris t2.valid -r -z iris t2.wagi --lt, Obszary decyzyjne wytrenowanego klasyfikatora przedstawia ponadto poniższy wykres: 9
10 Setosa Versicolor Virginica Spośród 5 przypadków, prawidłowo sklasyfikowanych zostało 5, natomiast błędnie,. Skuteczność klasyfikacji przy trzech klasach wyniosła %. Klasyfikacja zestawu Iris obciętego do pary atrybutów - niskie współczynniki nauki project/bin/app -u"2 6 3" -n. -m. -b -d iris t2.in -t iris t2.test -a iris t2.valid -r -z iris t2 2.wagi --lt, Obszary decyzyjne wytrenowanego klasyfikatora przedstawia ponadto poniższy wykres:
11 Setosa Versicolor Virginica Spośród 5 przypadków, prawidłowo sklasyfikowanych zostało 4, natomiast błędnie,. Skuteczność klasyfikacji przy trzech klasach wyniosła 93%. Klasyfikacja zestawu Abalone zredukowanego do pary atrybutów - duże współczynniki nauki project/bin/app -u"2 7" -n -m -b -d abalone r2.in -t abalone r2.test -a abalone r2.valid -r -z abalone r2.wagi --lt, Obszary decyzyjne wytrenowanego klasyfikatora przedstawia ponadto poniższy wykres:
12 Spośród 47 przypadków, prawidłowo sklasyfikowanych zostało 259, natomiast błędnie, 58. Skuteczność klasyfikacji przy siedmiu klasach wyniosła 62%. Klasyfikacja zestawu Abalone zredukowanego do pary atrybutów - niskie współczynniki nauki project/bin/app -u"2 7" -n. -m. -b -d abalone r2.in -t abalone r2.test -a abalone r2.valid -r -z abalone r2 2.wagi --lt, Obszary decyzyjne wytrenowanego klasyfikatora przedstawia ponadto poniższy wykres: 2
13 Spośród 47 przypadków, prawidłowo sklasyfikowanych zostało 258, natomiast błędnie, 59. Skuteczność klasyfikacji przy siedmiu klasach wyniosła 62%. Klasyfikacja zestawu Abalone zredukowanego do siedmiu atrybutów - duże współczynniki nauki project/bin/app -u"7 7" -n -m -b -d abalone r7.in -t abalone r7.test -a abalone r7.valid -r -z abalone r7.wagi --lt, Spośród 47 przypadków, prawidłowo sklasyfikowanych zostało 287, natomiast błędnie, 3. Skuteczność klasyfikacji przy siedmiu klasach wyniosła 69%. 3
14 Klasyfikacja zestawu Abalone zredukowanego do siedmiu atrybutów - niskie współczynniki nauki project/bin/app -u"7 7" -n. -m. -b -d abalone r7.in -t abalone r7.test -a abalone r7.valid -r -z abalone r7 2.wagi --lt, Spośród 47 przypadków, prawidłowo sklasyfikowanych zostało 293, natomiast błędnie, 24. Skuteczność klasyfikacji przy siedmiu klasach wyniosła 7%. Klasyfikacja zestawu Abalone obciętego do siedmiu atrybutów - duże współczynniki nauki project/bin/app -u"7 7" -n -m -b -d abalone t7.in -t abalone t7.test -a abalone t7.valid -r -z abalone t7.wagi --lt,6. 4
15 Spośród 47 przypadków, prawidłowo sklasyfikowanych zostało 272, natomiast błędnie, 45. Skuteczność klasyfikacji przy siedmiu klasach wyniosła 65%. Klasyfikacja zestawu Abalone obciętego do siedmiu atrybutów - niskie współczynniki nauki project/bin/app -u"7 7" -n. -m. -b -d abalone t7.in -t abalone t7.test -a abalone t7.valid -r -z abalone t7 2.wagi --lt, Spośród 47 przypadków, prawidłowo sklasyfikowanych zostało 268, natomiast błędnie, 49. Skuteczność klasyfikacji przy siedmiu klasach wyniosła 64%. 5
16 Klasyfikacja zestawu Adult zredukowanego do pary atrybutów - duże współczynniki nauki project/bin/app -u"2 2" -n -m -b -d adult r2.in -t adult r2.test -a adult r2.valid -r -z adult r2.wagi --lt, Obszary decyzyjne wytrenowanego klasyfikatora przedstawia ponadto poniższy wykres: >5K <=5K Spośród 36 przypadków, prawidłowo sklasyfikowanych zostało 2267, natomiast błędnie, 749. Skuteczność klasyfikacji przy dwóch klasach wyniosła 75%. 6
17 Klasyfikacja zestawu Adult zredukowanego do pary atrybutów - niskie współczynniki nauki project/bin/app -u"2 2" -n. -m. -b -d adult r2.in -t adult r2.test -a adult r2.valid -r -z adult r2 2.wagi --lt, Obszary decyzyjne wytrenowanego klasyfikatora przedstawia ponadto poniższy wykres: >5K <=5K Spośród 36 przypadków, prawidłowo sklasyfikowanych zostało 237, natomiast błędnie, 645. Skuteczność klasyfikacji przy dwóch klasach wyniosła 79%. 7
18 Klasyfikacja zestawu Adult zredukowanego do dziesięciu atrybutów - duże współczynniki nauki project/bin/app -u" 2" -n -m -b -d adult r.in -t adult r.test -a adult r.valid -r -z adult r.wagi --lt, Spośród 36 przypadków, prawidłowo sklasyfikowanych zostało 2449, natomiast błędnie, 567. Skuteczność klasyfikacji przy dwóch klasach wyniosła 8%. Klasyfikacja zestawu Adult zredukowanego do dziesięciu atrybutów - niskie współczynniki nauki project/bin/app -u" 2" -n. -m. -b -d adult r.in -t adult r.test -a adult r.valid -r -z adult r 2.wagi --lt,. 8
19 Spośród 36 przypadków, prawidłowo sklasyfikowanych zostało 2457, natomiast błędnie, 559. Skuteczność klasyfikacji przy dwóch klasach wyniosła 8%. Klasyfikacja zestawu Adult obciętego do stu czterech atrybutów - duże współczynniki nauki project/bin/app -u"4 2" -n -m -b -d adult t4.in -t adult t4.test -a adult t4.valid -r -z adult t4.wagi --lt, Spośród 36 przypadków, prawidłowo sklasyfikowanych zostało 254, natomiast błędnie, 475. Skuteczność klasyfikacji przy dwóch klasach wyniosła 84%. 9
20 Klasyfikacja zestawu Adult obciętego do stu czterech atrybutów - niskie współczynniki nauki project/bin/app -u"4 2" -n. -m. -b -d adult t4.in -t adult t4.test -a adult t4.valid -r -z adult t4 2.wagi --lt, Spośród 36 przypadków, prawidłowo sklasyfikowanych zostało 2548, natomiast błędnie, 468. Skuteczność klasyfikacji przy dwóch klasach wyniosła 84%. 6. Dyskusja wyników i wnioski 6.. Błędy epok Błędy epok prezentowane na wykresach w sekcji Wyniki stanowią średnią sumy kwadratów błędów ze wszystkich wyjść sieci. Z tego powodu zachodzi dysproporcja, zwłaszcza w przypadku testów autoasocjacji zestawu Adult ze 5 wyjściami błędy wynoszą nawet 2%, podczas gdy w innych przypadkach testowych, stanowią po kilka procent. Nie jest to błąd, a jedynie różnica zestawów danych, na która trzeba wziąść poprawkę przy ocenie ich wyników Podział danych na klasy W zbiorze danych Abalone podziału dokonaliśmy równomiernie wg. ilości pierścieni, przez co niektóre z klas zawierały jedynie po kilka elementów. Te klasy zostały bardzo słabo rozpoznane przez sieć. Jak widać na wykresach Klasyfikacja zestawu Abalone i Klasyfikacja zestawu Abalone 2, sieć wysyca się osiągając średni błąd w zbiorze walidacyjnym ok. 3%. Nie jest to mało, zwłaszcza w porównaniu z błędem maksymalnym, który w tym 2
21 przypadku wynosi 9%. Działanie takiego klasyfikatora można łatwo wyjaśnić. Minimalizuje on błąd poprzez skuteczniejsze rozpoznawanie często występujących klas. Błędy wynikające się z pojawienia rzadziej występującej klasy są przez to skutecznie kompensowane. Perceptron wielowarstwowy minimalizuje błędy na swoich wyjściach nie biorąc pod uwagę ich współzależności takich jak na przykład korelacja, czy częstsze występowanie określonych wartości. W celu ich uniknięcia należy w odpowiedni sposób zbudować przetwarzane zbiory danych Współczynniki nauki, a obszary decyzyjne Choć prowadzenie nauki przy dwóch różnych wartościach współczynnika nauki i momentum miało na celu wprowadzenie pewnej redundantności niezbędnej przy badaniu zjawisk losowych, ujawniło ono jedną z cech powstałych w wyniku ich działania na kształt obszarów decyzyjnych. Obszary decyzyjne utworzone przy wyższych wartościach współczynników nauki, pomimo mniejszej liczby przebytych epok, miały wyraźną tendencję do ostrzejrzego rozgraniczania separowanych klas. Widać to na wykresach w postać większej stromizny i krzywizny powierzchni kreślonych przez neurony wyjściowe odpowiednich klas w sieciach uczonych przy dużych wartościach współczynnika nauki i momentum Adaptacyjna nauka sieci za pomocą zbioru walidującego W prezentowanych przypadkach długość nauki była kierowana za pomocą badania błędu zbioru walidacyjnego. Metoda ta posiada wyraźną przewagę w stosunku do liczenia epok i mierzenia średniego błędu zbioru testowego. Po pierwsze, dostosowuje się do zbioru danych. Oszacowanie z góry minimalnego błędu, jaki będzie w stanie osiągnąć sieć może być bardzo trudne. Jeszcze trudniejsze okazuje się takie samo oszacowanie, ale dla ilości epok jakiej sieć będzie potrzebować na naukę. Sytuacja komplikuje się tym bardziej, gdy pod uwagę weźmiemy zjawisko przeuczania. Osiągnięcie dostatecznie małego błędu na zbiorze treningowym może nie oznaczać lepiej uogólniającej sieci. Wprowadzenie zbioru walidującego pozwala w miarę jednorodny sposób decydować o dalszej nauce sieci w różnych przypadkach (wciąż pozostaje kwestia uodpornienia nowego wyznacznika na szumy i lokalne minima) Podział zbioru danych na zbiory treningowy, walidacyjny i testowy Mając do dyspozycji zbiór danych, odpowiedni podział na zbiory treningowy, walidacyjny i testowy wymaga jednorodnego podziału, w którym każda rozpoznawana klasa będzie reprezentowana we wszystkich zbiorach. Test Klasyfikacja zestawu Iris obciętego do pary atrybutów - niskie współczynniki nauki jest dobrym przykładem niedostatecznie dużej ilości danych w zbiorze walidacyjnym. Już od początku działania sieci widać, że osiąga on mniejsze błędy niż zbiór treningowy. Spowodowane jest to trudnymi przypadkami, które trafiły do zbioru treningowego, a których zabrakło w zbiorze 2
22 walidacyjnym. Radzi się by na zbiór walidacyjny wybierać, zależnie od wielkości danych, od 3%, do %. W naszym przypadku, zastosowaliśmy zbiory testowy i walidacyjny, każdy o rozmiarze % dostępnych danych. Obecność zbioru walidacyjnego może posłużyć w dwóch celach: do kontroli długości nauki, oraz do unikania przeuczania się sieci. Ocena na zbiorze testowym jest kolejnym potwierdzeniem, że sieć nie została przeuczona Redukcja, a odrzucanie atrybutów W badanych przez nas przypadkach redukcji dokonywaliśmy poprzez trenowanie trzywarstwowej sieci w trybie autoasocjacji, oraz poprzez odrzucenie niektórych atrybutów. W przypadku zbioru Iris, przeprowadziliśmy redukcję i odrzucenie dwóch atrybutów. Redukcji dokonała sieć 4-2-4, pozwalając zredukowany zbiór skutecznie klasyfikować (patrz: Klasyfikacja zestawu Iris zredukowanego do pary atrybutów - duże współczynniki nauki i Klasyfikacja zestawu Iris zredukowanego do pary atrybutów - niskie współczynniki nauki ). Odrzucając, zdecydowaliśmy się na odrzucenie pierwszych dwóch atrybutów, sepal length i sepal width, pozostawiając te, które przy pracach nad pierwszym zadaniem, zdawały się lepiej pokazywać różnicę między trzema klasami. W istocie, gdyby spojrzeć z góry na wykres Klasyfikacja zestawu Iris obciętego do pary atrybutów, przedstawiałby on fragment wykresu Petal Width x Petal Length. W przypadku zbioru Abalone, przeprowadziliśmy dwie redukcje, oraz jedno odrzucenie. Pierwsza z redukcji, do dwóch parametrów pokazuje obszary decyzyjne wytrenowanego klasyfikatora. Druga redukcja, do siedmiu parametrów służy jako porównanie z odrzuceniem trzech atrybutów. W tym przypadku odrzucono atrybuty zawierające informacje o płci małży. Wyniki klasyfikacji (testy Klasyfikacja zestawu Abalone zredukowanego do siedmiu atrybutów, oraz Klasyfikacja zestawu Abalone obciętego do siedmiu atrybutów ) pokazują wyższą skuteczność danych przetworzonych przez sieć perceptron: 7%, do 65%. W przypadku zestawu Adult, przeprowadziliśmy dwie redukcje, oraz jedno odrzucenie. Pierwsza z redukcji, do dwóch parametrów, pokazuje obszary decyzyjne wytrenowanego klasyfikatora. Druga redukcja, do dziesięciu parametrów pokazuje, że zbiór danych, nawet ponad dziesięciokrotnie zredukowany jest w stanie być tylko niewiele gorszy niż zbiór niezredukowany. Dużą rolę gra tutaj oczywiście redundantność wejść w zbiorze Adult, jednak pokazuje przy okazji skuteczność wielowarstwowego perceptronu w redukcji. Ostatni przypadek pokazuje działanie sieci przy odrzuceniu parametru informującego o wieku respondenta. Choć w przypadku zarobków, wiek może być dość istotny, sieć nauczyła się rozpoznawać właściwą klasę z dużą skutecznością (84%). Minimalnie wyższa skuteczność względem przypadku bez obciętych danych jest świadectwem losowości stanu początkowego sieci i jego wpływu na końcowe wyniki. Początkowe wartości wag mogą mieć duży wpływ na końcową skuteczność 22
23 sieci (zwłaszcza podczas autoasocjacji). Warto przetrenować sieć z kilku losowych stanów aby osiągnąć sieć o lepszej skuteczności. Literatura [] Ryszard Tadeusiewicz - Sieci neuronowe, Wyd. 2., Warszawa 993 [2] Learning and neural networks [ Learning_and_neural_networks] [3] UCI Machine Learning Repository Iris Data Set, Abalone Data Set, Census Income Data Set 23
Informatyka, studia dzienne, inż I st. Inteligentna analiza danych 2010/2011 Prowadzący: dr inż. Arkadiusz Tomczyk środa, 8:30
Informatyka, studia dzienne, inż I st. semestr VI Inteligentna analiza danych 2010/2011 Prowadzący: dr inż. Arkadiusz Tomczyk środa, 8:30 Data oddania: Ocena: Marek Rogalski 150982 Paweł Tarasiuk 151021
Bardziej szczegółowoZadanie 2.: Perceptron wielowarstwowy
Informatyka, studia dzienne, inż. I st. semestr VI Inteligentna Analiza Danych 21/211 Prowadzący: dr inż. Arkadiusz Tomczyk wtotek, 8:3 Data oddania: Ocena: Marek Rogalski 15982 Paweł Tarasiuk 15121 Zadanie
Bardziej szczegółowoALGORYTM RANDOM FOREST
SKRYPT PRZYGOTOWANY NA ZAJĘCIA INDUKOWANYCH REGUŁ DECYZYJNYCH PROWADZONYCH PRZEZ PANA PAWŁA WOJTKIEWICZA ALGORYTM RANDOM FOREST Katarzyna Graboś 56397 Aleksandra Mańko 56699 2015-01-26, Warszawa ALGORYTM
Bardziej szczegółowoALGORYTMY SZTUCZNEJ INTELIGENCJI
ALGORYTMY SZTUCZNEJ INTELIGENCJI Sieci neuronowe 06.12.2014 Krzysztof Salamon 1 Wstęp Sprawozdanie to dotyczy ćwiczeń z zakresu sieci neuronowych realizowanym na przedmiocie: Algorytmy Sztucznej Inteligencji.
Bardziej szczegółowoIMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ
IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,
Bardziej szczegółowoSieci neuronowe w Statistica
http://usnet.us.edu.pl/uslugi-sieciowe/oprogramowanie-w-usk-usnet/oprogramowaniestatystyczne/ Sieci neuronowe w Statistica Agnieszka Nowak - Brzezińska Podstawowym elementem składowym sztucznej sieci neuronowej
Bardziej szczegółowoTestowanie modeli predykcyjnych
Testowanie modeli predykcyjnych Wstęp Podczas budowy modelu, którego celem jest przewidywanie pewnych wartości na podstawie zbioru danych uczących poważnym problemem jest ocena jakości uczenia i zdolności
Bardziej szczegółowoZastosowania sieci neuronowych
Zastosowania sieci neuronowych klasyfikacja LABORKA Piotr Ciskowski zadanie 1. klasyfikacja zwierząt sieć jednowarstwowa żródło: Tadeusiewicz. Odkrywanie własności sieci neuronowych, str. 159 Przykład
Bardziej szczegółowoMetody Sztucznej Inteligencji II
17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału
Bardziej szczegółowoZastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań
Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW
Bardziej szczegółowoOprogramowanie Systemów Obrazowania SIECI NEURONOWE
SIECI NEURONOWE Przedmiotem laboratorium jest stworzenie algorytmu rozpoznawania zwierząt z zastosowaniem sieci neuronowych w oparciu o 5 kryteriów: ile zwierzę ma nóg, czy żyje w wodzie, czy umie latać,
Bardziej szczegółowoSieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska
Sieci neuronowe w Statistica Agnieszka Nowak - Brzezioska Podstawowym elementem składowym sztucznej sieci neuronowej jest element przetwarzający neuron. Schemat działania neuronu: x1 x2 w1 w2 Dendrites
Bardziej szczegółowoSIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU)
SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU) 1. Opis problemu - ocena końcowa projektu Projekt jako nowe, nietypowe przedsięwzięcie wymaga właściwego zarządzania. Podjęcie się realizacji
Bardziej szczegółowoInteligentna analiza danych
Numer indeksu 150946 Michał Moroz Imię i nazwisko Numer indeksu 150875 Grzegorz Graczyk Imię i nazwisko kierunek: Informatyka rok akademicki: 2010/2011 Inteligentna analiza danych Ćwiczenie I Wskaźniki
Bardziej szczegółowoDrzewa Decyzyjne, cz.2
Drzewa Decyzyjne, cz.2 Inteligentne Systemy Decyzyjne Katedra Systemów Multimedialnych WETI, PG Opracowanie: dr inŝ. Piotr Szczuko Podsumowanie poprzedniego wykładu Cel: przewidywanie wyniku (określania
Bardziej szczegółowoSztuczna Inteligencja Tematy projektów Sieci Neuronowe
PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia
Bardziej szczegółowoSYSTEMY UCZĄCE SIĘ WYKŁAD 3. DRZEWA DECYZYJNE. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.
SYSTEMY UCZĄCE SIĘ WYKŁAD 3. DRZEWA DECYZYJNE Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska BUDOWA DRZEW DECYZYJNYCH Drzewa decyzyjne są metodą indukcyjnego
Bardziej szczegółowoSystemy uczące się Lab 4
Systemy uczące się Lab 4 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 26 X 2018 Projekt zaliczeniowy Podstawą zaliczenia ćwiczeń jest indywidualne wykonanie projektu uwzględniającego
Bardziej szczegółowoAlgorytmy decyzyjne będące alternatywą dla sieci neuronowych
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny
Bardziej szczegółowoInteligentne systemy przeciw atakom sieciowym
Inteligentne systemy przeciw atakom sieciowym wykład Sztuczne sieci neuronowe (SSN) Joanna Kołodziejczyk 2016 Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 1 / 36 Biologiczne
Bardziej szczegółowoInteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska
Bardziej szczegółowoWprowadzenie do programu RapidMiner Studio 7.6, część 4 Michał Bereta
Wprowadzenie do programu RapidMiner Studio 7.6, część 4 Michał Bereta www.michalbereta.pl W tej części: Zachowanie wytrenowanego modelu w celu późniejszego użytku Filtrowanie danych (brakujące etykiety
Bardziej szczegółowoBudowa sztucznych sieci neuronowych do prognozowania. Przykład jednostek uczestnictwa otwartego funduszu inwestycyjnego
Budowa sztucznych sieci neuronowych do prognozowania. Przykład jednostek uczestnictwa otwartego funduszu inwestycyjnego Dorota Witkowska Szkoła Główna Gospodarstwa Wiejskiego w Warszawie Wprowadzenie Sztuczne
Bardziej szczegółowoPodstawy sztucznej inteligencji
wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3
Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt
Bardziej szczegółowoProjekt Sieci neuronowe
Projekt Sieci neuronowe Chmielecka Katarzyna Gr. 9 IiE 1. Problem i dane Sieć neuronowa miała za zadanie nauczyć się klasyfikować wnioski kredytowe. W projekcie wykorzystano dane pochodzące z 110 wniosków
Bardziej szczegółowoPrzykładowa analiza danych
Przykładowa analiza danych W analizie wykorzystano dane pochodzące z publicznego repozytorium ArrayExpress udostępnionego na stronach Europejskiego Instytutu Bioinformatyki (http://www.ebi.ac.uk/). Zbiór
Bardziej szczegółowoUczenie sieci typu MLP
Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik
Bardziej szczegółowoZastosowania sieci neuronowych
Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką
Bardziej szczegółowoTestowanie hipotez statystycznych
9 października 2008 ...czyli definicje na rozgrzewkę n-elementowa próba losowa - wektor n zmiennych losowych (X 1,..., X n ); intuicyjnie: wynik n eksperymentów realizacja próby (X 1,..., X n ) w ω Ω :
Bardziej szczegółowo( x) Równanie regresji liniowej ma postać. By obliczyć współczynniki a i b należy posłużyć się następującymi wzorami 1 : Gdzie:
ma postać y = ax + b Równanie regresji liniowej By obliczyć współczynniki a i b należy posłużyć się następującymi wzorami 1 : xy b = a = b lub x Gdzie: xy = też a = x = ( b ) i to dane empiryczne, a ilość
Bardziej szczegółowoAnaliza Danych Sprawozdanie regresja Marek Lewandowski Inf 59817
Analiza Danych Sprawozdanie regresja Marek Lewandowski Inf 59817 Zadanie 1: wiek 7 8 9 1 11 11,5 12 13 14 14 15 16 17 18 18,5 19 wzrost 12 122 125 131 135 14 142 145 15 1 154 159 162 164 168 17 Wykres
Bardziej szczegółowoKlasyfikator. ˆp(k x) = 1 K. I(ρ(x,x i ) ρ(x,x (K) ))I(y i =k),k =1,...,L,
Klasyfikator Jedną z najistotniejszych nieparametrycznych metod klasyfikacji jest metoda K-najbliższych sąsiadów, oznaczana przez K-NN. W metodzie tej zaliczamy rozpoznawany obiekt do tej klasy, do której
Bardziej szczegółowoObrona rozprawy doktorskiej Neuro-genetyczny system komputerowy do prognozowania zmiany indeksu giełdowego
IBS PAN, Warszawa 9 kwietnia 2008 Obrona rozprawy doktorskiej Neuro-genetyczny system komputerowy do prognozowania zmiany indeksu giełdowego mgr inż. Marcin Jaruszewicz promotor: dr hab. inż. Jacek Mańdziuk,
Bardziej szczegółowoZastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym
Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW 17 XII 2013 Jan Karwowski
Bardziej szczegółowoWprowadzenie do analizy dyskryminacyjnej
Wprowadzenie do analizy dyskryminacyjnej Analiza dyskryminacyjna to zespół metod statystycznych używanych w celu znalezienia funkcji dyskryminacyjnej, która możliwie najlepiej charakteryzuje bądź rozdziela
Bardziej szczegółowoRozglądanie się w przestrzeni Iris czyli kręcenie (głową/płaszczyzną) w czterech wymiarach
Rozglądanie się w przestrzeni Iris czyli kręcenie (głową/płaszczyzną) w czterech wymiarach maja, 7 Rozglądanie się w D Plan Klasyka z brodą: zbiór danych Iris analiza składowych głównych (PCA), czyli redukcja
Bardziej szczegółowoDokumentacja Końcowa
Metody Sztucznej Inteligencji 2 Projekt Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych. Dokumentacja Końcowa Autorzy: Robert Wojciechowski Michał Denkiewicz Wstęp Celem
Bardziej szczegółowoElementy modelowania matematycznego
Elementy modelowania matematycznego Modelowanie algorytmów klasyfikujących. Podejście probabilistyczne. Naiwny klasyfikator bayesowski. Modelowanie danych metodą najbliższych sąsiadów. Jakub Wróblewski
Bardziej szczegółowoSAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006
SAS wybrane elementy DATA MINING Część III Seweryn Kowalski 2006 Algorytmy eksploracji danych Algorytm eksploracji danych jest dobrze zdefiniowaną procedurą, która na wejściu otrzymuje dane, a na wyjściu
Bardziej szczegółowoPODSTAWY STATYSTYCZNEJ ANALIZY DANYCH
Wykład 3 Liniowe metody klasyfikacji. Wprowadzenie do klasyfikacji pod nadzorem. Fisherowska dyskryminacja liniowa. Wprowadzenie do klasyfikacji pod nadzorem. Klasyfikacja pod nadzorem Klasyfikacja jest
Bardziej szczegółowoKonkurs z przedmiotu eksploracja i analiza danych: problem regresji i klasyfikacji
Konkurs z przedmiotu eksploracja i analiza danych: problem regresji i klasyfikacji Michał Witczak Data Mining 20 maja 2012 r. 1. Wstęp Dostarczone zostały nam 4 pliki, z których dwa stanowiły zbiory uczące
Bardziej szczegółowoWEKA klasyfikacja z użyciem sztucznych sieci neuronowych
WEKA klasyfikacja z użyciem sztucznych sieci neuronowych 1 WEKA elementy potrzebne do zadania WEKA (Data mining software in Java http://www.cs.waikato.ac.nz/ml/weka/) jest narzędziem zawierającym zbiór
Bardziej szczegółowoWidzenie komputerowe
Widzenie komputerowe Uczenie maszynowe na przykładzie sieci neuronowych (3) źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Zdolność uogólniania sieci neuronowej R oznaczenie
Bardziej szczegółowoZadanie 1: Piętnastka - uzupełnienie
Informatyka, studia dzienne, inż. I st. semestr VI Sztuczna Inteligencja i Systemy Ekspertowe 2010/2011 Prowadzący: mgr Michał Pryczek piątek, 12:00 Data oddania: Ocena: Grzegorz Graczyk 150875 Marek Rogalski
Bardziej szczegółowoDrzewa decyzyjne i lasy losowe
Drzewa decyzyjne i lasy losowe Im dalej w las tym więcej drzew! ML Gdańsk http://www.mlgdansk.pl/ Marcin Zadroga https://www.linkedin.com/in/mzadroga/ 20 Czerwca 2017 WPROWADZENIE DO MACHINE LEARNING CZYM
Bardziej szczegółowoWYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)
WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO Stanisław Kowalik (Poland, Gliwice) 1. Wprowadzenie Wstrząsy podziemne i tąpania występujące w kopalniach
Bardziej szczegółowoPodstawy Sztucznej Inteligencji (PSZT)
Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12
Bardziej szczegółowoRegresja logistyczna (LOGISTIC)
Zmienna zależna: Wybór opcji zachodniej w polityce zagranicznej (kodowana jako tak, 0 nie) Zmienne niezależne: wiedza o Unii Europejskiej (WIEDZA), zamieszkiwanie w regionie zachodnim (ZACH) lub wschodnim
Bardziej szczegółowoZjawisko dopasowania w sytuacji komunikacyjnej. Patrycja Świeczkowska Michał Woźny
Zjawisko dopasowania w sytuacji komunikacyjnej Patrycja Świeczkowska Michał Woźny 0.0.0 pomiar nastroju Przeprowadzone badania miały na celu ustalenie, w jaki sposób rozmówcy dopasowują się do siebie nawzajem.
Bardziej szczegółowoUczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0
Uczenie się pojedynczego neuronu W0 X0=1 W1 x1 W2 s f y x2 Wp xp p x i w i=x w+wo i=0 Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z=0 Wówczas: W 1 x 1 + w 2 x 2 + = 0 Algorytm
Bardziej szczegółowoBadanie zależności skala nominalna
Badanie zależności skala nominalna I. Jak kształtuje się zależność miedzy płcią a wykształceniem? II. Jak kształtuje się zależność między płcią a otyłością (opis BMI)? III. Jak kształtuje się zależność
Bardziej szczegółowoMETODY INŻYNIERII WIEDZY
METODY INŻYNIERII WIEDZY WALIDACJA KRZYŻOWA dla ZAAWANSOWANEGO KLASYFIKATORA KNN ĆWICZENIA Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej
Bardziej szczegółowoDariusz Brzeziński Instytut Informatyki, Politechnika Poznańska
Dariusz Brzeziński Instytut Informatyki, Politechnika Poznańska Podstawowe architektury sieci neuronowych Generowanie sztucznych danych Jak się nie przemęczyć Korzystanie z istniejących wag Zamrażanie
Bardziej szczegółowoMetody klasyfikacji i rozpoznawania wzorców. Najważniejsze rodzaje klasyfikatorów
Metody klasyfikacji i rozpoznawania wzorców www.michalbereta.pl Najważniejsze rodzaje klasyfikatorów Dla określonego problemu klasyfikacyjnego (tzn. dla danego zestawu danych) należy przetestować jak najwięcej
Bardziej szczegółowoNEURAL NETWORK ) FANN jest biblioteką implementującą SSN, którą moŝna wykorzystać. w C, C++, PHP, Pythonie, Delphi a nawet w środowisku. Mathematica.
Wykorzystanie sztucznych sieci neuronowych do rozpoznawania języków: polskiego, angielskiego i francuskiego Tworzenie i nauczanie sieci przy pomocy języka C++ i biblioteki FANN (Fast Artificial Neural
Bardziej szczegółowoProjekt zaliczeniowy z przedmiotu Statystyka i eksploracja danych (nr 3) Kamil Krzysztof Derkowski
Projekt zaliczeniowy z przedmiotu Statystyka i eksploracja danych (nr 3) Kamil Krzysztof Derkowski Zadanie 1 Eksploracja (EXAMINE) Informacja o analizowanych danych Obserwacje Uwzględnione Wykluczone Ogółem
Bardziej szczegółowoMatlab podstawy + testowanie dokładności modeli inteligencji obliczeniowej
Matlab podstawy + testowanie dokładności modeli inteligencji obliczeniowej Podstawy matlaba cz.ii Funkcje Dotychczas kod zapisany w matlabie stanowił skrypt który pozwalał na określenie kolejności wykonywania
Bardziej szczegółowoTestowanie hipotez statystycznych
Agenda Instytut Matematyki Politechniki Łódzkiej 2 stycznia 2012 Agenda Agenda 1 Wprowadzenie Agenda 2 Hipoteza oraz błędy I i II rodzaju Hipoteza alternatywna Statystyka testowa Zbiór krytyczny Poziom
Bardziej szczegółowoIdentyfikacja istotnych atrybutów za pomocą Baysowskich miar konfirmacji
Identyfikacja istotnych atrybutów za pomocą Baysowskich miar konfirmacji Jacek Szcześniak Jerzy Błaszczyński Roman Słowiński Poznań, 5.XI.2013r. Konspekt Wstęp Wprowadzenie Metody typu wrapper Nowe metody
Bardziej szczegółowoRozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak
2 Rozdział 1 Sztuczne sieci neuronowe. 3 Sztuczna sieć neuronowa jest zbiorem prostych elementów pracujących równolegle, których zasada działania inspirowana jest biologicznym systemem nerwowym. Sztuczną
Bardziej szczegółowoProf. Stanisław Jankowski
Prof. Stanisław Jankowski Zakład Sztucznej Inteligencji Zespół Statystycznych Systemów Uczących się p. 228 sjank@ise.pw.edu.pl Zakres badań: Sztuczne sieci neuronowe Maszyny wektorów nośnych SVM Maszyny
Bardziej szczegółowoInstrukcja realizacji ćwiczenia
SIEĆ KOHONENA ROZPOZNAWANIE OBRAZÓW Cel ćwiczenia: zapoznanie się ze sposobem reprezentacji wiedzy w sieciach Kohonena i mechanizmami sąsiedztwa i sumienia neuronów. Zadanie do analizy: analizujemy sieć
Bardziej szczegółowoAnaliza składowych głównych. Wprowadzenie
Wprowadzenie jest techniką redukcji wymiaru. Składowe główne zostały po raz pierwszy zaproponowane przez Pearsona(1901), a następnie rozwinięte przez Hotellinga (1933). jest zaliczana do systemów uczących
Bardziej szczegółowoTemat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE
Temat: Sztuczne Sieci Neuronowe Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Sztuczne sieci neuronowe
Bardziej szczegółowoSztuczne sieci neuronowe (SNN)
Sztuczne sieci neuronowe (SNN) Pozyskanie informacji (danych) Wstępne przetwarzanie danych przygotowanie ich do dalszej analizy Selekcja informacji Ostateczny model decyzyjny SSN - podstawy Sieci neuronowe
Bardziej szczegółowoAlgorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych. Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS
Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS Dyskretyzacja - definicja Dyskretyzacja - zamiana atrybutów
Bardziej szczegółowoAutomatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010
Materiały/konsultacje Automatyczna predykcja http://www.ibp.pwr.wroc.pl/kotulskalab Konsultacje wtorek, piątek 9-11 (uprzedzić) D1-115 malgorzata.kotulska@pwr.wroc.pl Co to jest uczenie maszynowe? Uczenie
Bardziej szczegółowoP: Czy studiujący i niestudiujący preferują inne sklepy internetowe?
2 Test niezależności chi-kwadrat stosuje się (między innymi) w celu sprawdzenia czy pomiędzy zmiennymi istnieje związek/zależność. Stosujemy go w sytuacji, kiedy zmienna zależna mierzona jest na skali
Bardziej szczegółowoRoczny raport jakości powietrza z uwzględnieniem pyłów PM1, PM2,5 oraz PM10 dla czujników zlokalizowanych w gminie Proszowice
Roczny raport jakości powietrza z uwzględnieniem pyłów PM1, PM2,5 oraz PM dla czujników zlokalizowanych w gminie Proszowice Spis treści 1. Charakterystyka gminy oraz lokalizacja czujników... 3 2. Dopuszczalne
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt
Bardziej szczegółowoKATEDRA SYSTEMÓW MULTIMEDIALNYCH. Inteligentne systemy decyzyjne. Ćwiczenie nr 12:
KATEDRA SYSTEMÓW MULTIMEDIALNYCH Inteligentne systemy decyzyjne Ćwiczenie nr 12: Rozpoznawanie mowy z wykorzystaniem ukrytych modeli Markowa i pakietu HTK Opracowanie: mgr inż. Kuba Łopatka 1. Wprowadzenie
Bardziej szczegółowoPrzetworniki cyfrowo analogowe oraz analogowo - cyfrowe
Przetworniki cyfrowo analogowe oraz analogowo - cyfrowe Przetworniki cyfrowo / analogowe W cyfrowych systemach pomiarowych często zachodzi konieczność zmiany sygnału cyfrowego na analogowy, np. w celu
Bardziej szczegółowoElementy kognitywistyki III: Modele i architektury poznawcze
Elementy kognitywistyki III: Modele i architektury poznawcze Wykład VII: Modelowanie uczenia się w sieciach neuronowych Uczenie się sieci i trening nienaruszona struktura sieci (z pewnym ale ) nienaruszone
Bardziej szczegółowoZastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej. Adam Żychowski
Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej Adam Żychowski Definicja problemu Każdy z obiektów może należeć do więcej niż jednej kategorii. Alternatywna definicja Zastosowania
Bardziej szczegółowoMETODY INŻYNIERII WIEDZY
METODY INŻYNIERII WIEDZY Metoda K Najbliższych Sąsiadów K-Nearest Neighbours (KNN) ĆWICZENIA Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej
Bardziej szczegółowo6. Perceptron Rosenblatta
6. Perceptron Rosenblatta 6-1 Krótka historia perceptronu Rosenblatta 6-2 Binarne klasyfikatory liniowe 6-3 Struktura perceptronu Rosenblatta 6-4 Perceptron Rosenblatta a klasyfikacja 6-5 Perceptron jednowarstwowy:
Bardziej szczegółowoSZTUCZNE SIECI NEURONOWE W MODELOWANIU ZJAWISK ZACHODZĄCYCH NA RYNKU NIERUCHOMOŚCI
Dr Agnieszka MAZUR-DUDZIŃSKA Politechnika Łódzka, Katedra Zarządzania SZTUCZNE SIECI NEURONOWE W MODELOWANIU ZJAWISK ZACHODZĄCYCH NA RYNKU NIERUCHOMOŚCI Streszczenie: Celem referatu jest zastosowanie sztucznych
Bardziej szczegółowoOptymalizacja optymalizacji
7 maja 2008 Wstęp Optymalizacja lokalna Optymalizacja globalna Algorytmy genetyczne Badane czasteczki Wykorzystane oprogramowanie (Algorytm genetyczny) 2 Sieć neuronowa Pochodne met-enkefaliny Optymalizacja
Bardziej szczegółowoMETODY INŻYNIERII WIEDZY
METODY INŻYNIERII WIEDZY Metoda K Najbliższych Sąsiadów K-Nearest Neighbours (KNN) ĆWICZENIA Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej
Bardziej szczegółowoIdea. θ = θ 0, Hipoteza statystyczna Obszary krytyczne Błąd pierwszego i drugiego rodzaju p-wartość
Idea Niech θ oznacza parametr modelu statystycznego. Dotychczasowe rozważania dotyczyły metod estymacji tego parametru. Teraz zamiast szacować nieznaną wartość parametru będziemy weryfikowali hipotezę
Bardziej szczegółowoWstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.
Wstęp do teorii sztucznej inteligencji Wykład II Uczenie sztucznych neuronów. 1 - powtórzyć o klasyfikacji: Sieci liniowe I nieliniowe Sieci rekurencyjne Uczenie z nauczycielem lub bez Jednowarstwowe I
Bardziej szczegółowoTestowanie hipotez statystycznych. Wnioskowanie statystyczne
Testowanie hipotez statystycznych Wnioskowanie statystyczne Hipoteza statystyczna to dowolne przypuszczenie co do rozkładu populacji generalnej (jego postaci funkcyjnej lub wartości parametrów). Hipotezy
Bardziej szczegółowoPrzedmiotowe Zasady Oceniania z Informatyki w Szkole Podstawowej nr 4 z Oddziałami Dwujęzycznymi im. Wojciecha Korfantego w Mysłowicach
Przedmiotowe Zasady Oceniania z Informatyki w Szkole Podstawowej nr 4 z Oddziałami Dwujęzycznymi im. Wojciecha Korfantego w Mysłowicach Przedmiotowe Zasady Oceniania uwzględniają główne ramy i wartości
Bardziej szczegółowoKlasyfikacja publikacji biomedycznych w konkursie JRS 2012 Data Mining Competition - Szkic koncepcji
Kierunek: Informatyka Zastosowania Informatyki w Medycynie Klasyfikacja publikacji biomedycznych w konkursie JRS 2012 Data Mining Competition - Szkic koncepcji 1. WSTĘP AUTORZY Joanna Binczewska gr. I3.1
Bardziej szczegółowoRaport z Badania Ankietowego. Wizerunek Urzędu Miasta Nowy Targ i oczekiwania jego klientów - w ramach procedury systemu zarządzania, jakością PZ-1.5.
Raport z Badania Ankietowego Wizerunek Urzędu Miasta Nowy Targ i oczekiwania jego klientów - w ramach procedury systemu zarządzania, jakością PZ-1.5. Badanie ankietowe przeprowadzone wśród Klientów UM
Bardziej szczegółowoElementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD X: Sztuczny neuron
Elementy kognitywistyki II: Sztuczna inteligencja WYKŁAD X: Sztuczny neuron Koneksjonizm: wprowadzenie 1943: Warren McCulloch, Walter Pitts: ogólna teoria przetwarzania informacji oparta na sieciach binarnych
Bardziej szczegółowo8. Neuron z ciągłą funkcją aktywacji.
8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i
Bardziej szczegółowoREGRESJA I KORELACJA MODEL REGRESJI LINIOWEJ
REGRESJA I KORELACJA MODEL REGRESJI LINIOWEJ Korelacja oznacza fakt współzależności zmiennych, czyli istnienie powiązania pomiędzy nimi. Siłę i kierunek powiązania określa się za pomocą współczynnika korelacji
Bardziej szczegółowoZadanie 3: Liczenie winogron
Informatyka, studia dzienne, II st. semestr II Rozpoznawanie obrazów 2012/2013 Prowadzący: dr inż. Bartłomiej Stasiak czwartek, 8:30 Data oddania: Ocena: Andrzej Stasiak 178736 Grzegorz Graczyk 178717
Bardziej szczegółowoPrognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.
Metody Sztucznej Inteligencji 2 Projekt Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych. Autorzy: Robert Wojciechowski Michał Denkiewicz Mateusz Gągol Wstęp Celem projektu
Bardziej szczegółowoWYKORZYSTANIE SZTUCZNYCH SIECI NEURONOWYCH W PROGNOZOWANIU
WYKORZYSTANIE SZTUCZNYCH SIECI NEURONOWYCH W PROGNOZOWANIU THE USE OF ARTIFICIAL NEURAL NETWORKS IN FORECASTING Konrad BAJDA, Sebastian PIRÓG Resume Artykuł opisuje wykorzystanie sztucznych sieci neuronowych
Bardziej szczegółowoZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE
ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE INSTYTUT TECHNOLOGII MECHANICZNEJ Metody Sztucznej Inteligencji Sztuczne Sieci Neuronowe Wstęp Sieci neuronowe są sztucznymi strukturami, których
Bardziej szczegółowoAnaliza wariancji. dr Janusz Górczyński
Analiza wariancji dr Janusz Górczyński Wprowadzenie Powiedzmy, że badamy pewną populację π, w której cecha Y ma rozkład N o średniej m i odchyleniu standardowym σ. Powiedzmy dalej, że istnieje pewien czynnik
Bardziej szczegółowoPubliczna Szkoła Podstawowa nr 14 w Opolu. Edukacyjna Wartość Dodana
Publiczna Szkoła Podstawowa nr 14 w Opolu Edukacyjna Wartość Dodana rok szkolny 2014/2015 Edukacyjna Wartość Dodana (EWD) jest miarą efektywności nauczania dla szkoły i uczniów, którzy do danej placówki
Bardziej szczegółowoKombinacja jądrowych estymatorów gęstości w klasyfikacji - zastosowanie na sztucznym zbiorze danych
Kombinacja jądrowych estymatorów gęstości w klasyfikacji - zastosowanie na sztucznym zbiorze danych Mateusz Kobos, 07.04.2010 Seminarium Metody Inteligencji Obliczeniowej Spis treści Opis algorytmu i zbioru
Bardziej szczegółowoWprowadzenie do klasyfikacji
Wprowadzenie do klasyfikacji ZeroR Odpowiada zawsze tak samo Decyzja to klasa większościowa ze zbioru uczącego A B X 1 5 T 1 7 T 1 5 T 1 5 F 2 7 F Tutaj jest więcej obiektów klasy T, więc klasyfikator
Bardziej szczegółowoMaciej Oleksy Zenon Matuszyk
Maciej Oleksy Zenon Matuszyk Jest to proces związany z wytwarzaniem oprogramowania. Jest on jednym z procesów kontroli jakości oprogramowania. Weryfikacja oprogramowania - testowanie zgodności systemu
Bardziej szczegółowoMetoda Automatycznej Detekcji Interakcji CHAID
Metoda Automatycznej Detekcji Interakcji CHAID Metoda ta pozwala wybrać z konkretnego, dużego zbioru zmiennych te z nich, które najsilniej wpływają na wskazaną zmienną (objaśnianą) zmienne porządkowane
Bardziej szczegółowo