METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING
|
|
- Aleksandra Kosińska
- 7 lat temu
- Przeglądów:
Transkrypt
1 METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING Maszyna Wektorów Nośnych Suort Vector Machine SVM Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i Inżynierii Biomedycznej, Laboratorium Biocybernetyki Kraków, al. Mickiewicza 30, aw. C3/205 horzyk@agh.edu.l, Google: Adrian Horzyk
2 IDEA I NARODZINY SVM Prof. V. Vanik w 1998 r. stworzył nowe odejście do kształtowania struktury sieci neuronowej oraz definiowania roblemu uczenia róbując wyeliminować znane wady sieci neuronowych tyu MLP i RBF stosujące minimalizację nieliniowych funkcji błędu, tj.: Minimalizowana funkcja jest zwykle wielomodalna względem otymalizowanych arametrów i osiada wiele minimów lokalnych, w których roces uczenia może utknąć w zależności od unktu startowego, których zwykle istnieje nieskończona ilość. Algorytm uczący zwykle nie jest w stanie skutecznie kontrolować złożoności struktury sieci neuronowej, co w istotny sosób wływa na zdolności uogólniające sieci. Istotą zmiany jest rzedstawienie rocesu uczenia jako rocesu dobierania wag, w którym maksymalizowany jest margines searacji oddzielający skrajne (najbliższe) unkty w rzestrzeni danych definiujących różne klasy. Bierzemy więc od uwagę tylko te najtrudniej searowalne unkty rzestrzeni rzy budowie modelu, które określają tzw. wektory nośne (wsierające). Sieci SVM tworzą secyficzną dwuwarstwową strukturę neuroodobną stosującą różne rodzaje funkcji aktywacji (liniowe, wielomianowe, radialne, sigmoidalne) oraz secyficzny sosób uczenia oarty na rogramowaniu kwadratowym, które charakteryzuje się istnieniem tylko jednego minimum globalnego. Sieci SVM dedykowane są głównie do zagadnień klasyfikacji, w których jedną klasę searujemy możliwie dużym marginesem od ozostałych klas.
3 DYSKRYMINACJA i KLASYFIKACJA knn obszary Voronoi Decision Tree MLP RBF
4 Najszersza granica dyskryminacji Metoda SVM ma na celu wyznaczyć najszerszą granicę dyskryminacji sośród możliwych, których zwykle istnieje nieskończona ilość:
5 Jak dyskryminować i searować najleiej? Próbując osiągnąć jak najleszą dyskryminację wzorców oszczególnych klas warto zmaksymalizować margines oddzielający wzorce oszczególnych klas. Ponadto mając do czynienia z wieloma danymi, można ograniczyć analizę tylko do tych najtrudniejszych unktów rzestrzeni, czyli wzorców różnych klas, które leżą najbliżej, gdyż je najtrudniej zdyskryminować (odsearować). Model uwzględniający najtrudniejsze wzorce owinien charakteryzować się dobrą jakością oraz rostotą rerezentacji. Sróbujemy więc wyznaczyć otymalną hierłaszczyznę dyskryminującą wzorce jednej klasy (kwadratów) od ozostałych (tutaj kółeczek). SVM discrimination Suort Vectors
6 Maszyna Wektorów Nośnych Załóżmy, że mamy zbiór ar uczących: x i, d i dla i = 1, 2,, y gdzie x i wektor danych wejściowych d i 1; +1 rerezentuje dyskryminowane klasy: d i = +1oznacza klasę dyskryminowaną, zaś d i = 1oznacza ozostałe klasy. Przy założeniu liniowej searowalności obu klas możliwe jest określenie równania hierłaszczyzny searującej te wzorce: y x = w T x + b = 0 gdzie w wektor wag, a x wektor danych wejściowych, b olaryzacja Możemy więc zdefiniować równania decyzyjne: Jeżeli w T x + b 0 wtedy d i = +1 Jeżeli w T x + b 0 wtedy d i = 1 Suort Vectors Co możemy zaisać w ostaci nierówności: d i w T x + b 1, której sełnienie rzez ary unktów x i, d i definiuje wektory nośne (suort vectors), które decydują o ołożeniu hierłaszczyzny i szerokości marginesu searacji. Potrzebne jest więc wyznaczenie b oraz w, żeby określić decyzję.
7 Przekroczenie granic searacji Czasami jednak wystęuje konieczność zmniejszenia marginesu searacji dla roblemów niecałkowicie searowalnych liniowo oraz ewnych unktów x i, d i leżących wewnątrz strefy marginesu searacji, co możemy zaisać za omocą nierówności: d i w T x i + b 1 δ i gdzie δ i 0 i zmniejsza margines searacji, rzy czym jeśli: 0 δ i < 1 wtedy x i, d i leży o właściwej stronie hierłaszczyzny, więc decyzja o rzynależności do klasy będzie orawna, δ i = 1 wtedy x i, d i leży na hierłaszczyźnie, więc decyzja o rzynależności do klasy będzie nieokreślona, 1 < δ i wtedy x i, d i leży o niewłaściwej stronie hierłaszczyzny, więc decyzja o rzynależności do klasy będzie błędna. Określając granicę decyzyjną należy więc możliwie zminimalizować wartość δ i.
8 Szerokość marginesu searacji Szerokość marginesu searacji możemy wyznaczyć jako iloczyn kartezjański wektora wag oraz różnicy odległości dwóch wektorów nośnych należących do rzeciwnych klas: ρ = x + x w w = 2 w = 2 r x SV gdyż odległość wektorów nośnych od hierłaszczyzny określona jest nastęująco: Suort Vectors 1 dla y x r x SV = y x SV = w SV = 1 w 1 dla y x w SV = 1 Chcąc więc zmaksymalizować margines searacji omiędzy wektorami nośnymi różnych klas ρ = 2 trzeba zminimalizować w, co jest równoważne w minimalizacji wyrażenia 1 w 2 rzy ewnych ograniczeniach liniowych 2 wynikających ze zdefiniowanej nierówności decyzyjnej. W takich rzyadkach stosujemy mnożniki Lagrange a i minimalizujemy funkcję Lagrange a. y
9 Minimalizacja funkcji Lagrange a Możemy więc teraz określić funkcję Lagrange a dla roblemu maksymalizacji marginesu searacji: min w 1 2 w 2 + θ rzy zdefiniowanych ograniczeniach: d i w T x i + b 1 δ i δ i 0 gdzie θ to waga, z jaką traktowane są błędy testowania w stosunku do marginesu searacji, decydującą o złożoności sieci neuronowej, dobieraną rzez użytkownika w sosób ekserymentalny, n. metodą walidacji krzyżowej. Otrzymujemy więc nastęującą funkcję Lagrange a: L w, b, α, δ, μ = 1 2 wt w + θ δ i δ i α i d i w T x i + b 1 δ i μ i δ i gdzie α i jest wektorem mnożników Lagrange a o wartościach nieujemnych odowiadającym oszczególnym ograniczeniom funkcyjnym, a μ i ograniczeniom nierównościowym nakładanym na zmienne δ i. Rozwiązanie minimalizacji funkcji Lagrange a olega na określeniu unktu siodłowego, czyli wyznaczenia ochodnych cząstkowych względem mnożników.
10 Minimalizacja funkcji Lagrange a Warunki otymalnego rozwiązania wyznaczone są zależnościami: L w, b, α, δ, μ = 0 w = w L w, b, α, δ, μ = 0 b α i d i x i α i d i = 0 L w, b, α, δ, μ = 0 μ w i = θ α i które odstawimy teraz do funkcji Lagrange a: L w, b, α, δ, μ = 1 2 wt w + θ δ i α i d i w T x i + b 1 δ i μ i δ i = 1 α 2 i d i x i = 1 α 2 i d i x i = 1 2 α i d i x i j=1 j=1 α j d j x j + θ δ i α i d i α j d j x j x i + b 1 δ i μ i δ i j=1 α j d j x j + θ δ i α i d i x i α j d j x j + b α i d i + α i 1 δ i θ α i δ i α j d j x j + θ j=1 δ i + α i δ i = α i 1 α 2 i α j d i d j x i x j j=1 α i d i x i j=1 j=1 α j d j x j + b α i d i + α i α i δ i θ δ i
11 Problem dualny W unkcie siodłowym iloraz mnożnika Lagrange a d SV i odowiedniego ograniczenia związanego δ SV z wektorem nośnym x SV jest równy zeru (d SV δ SV = 0), gdyż δ SV =0, więc zależność: d i w T x i + b 1 δ i w unkcie wektora nośnego srowadza się do: w T x i + b = ±1 co ozwala wyznaczyć wartość b : b = ±1 w T x i Otrzymaliśmy więc roblem dualny max Q α = α i 1 α α 2 i α j d i d j x i x j j=1 rzy ograniczeniach dla i = 1, 2,, zdefiniowanych nastęująco: 0 α i θ α i d i = 0 Rozwiązanie roblemu dualnego ozwala znaleźć oszukiwaną hierłaszczyznę: y x = α i d i x i T x j + b
12 Wnioski Zmienna doełniająca δ i ani mnożniki Lagrange a nią związane nie ojawiają się w sformułowaniu roblemu dualnego. Mnożniki muszą sełniać jedynie odstawowy warunek mówiący, iż iloczyn mnożników i wartości funkcji ograniczenia dla każdej ary danych uczących jest równy zeru. Jeśli więc ograniczenie sełnione jest z nadmiarem dla wektorów nienośnych, wtedy mnożniki te muszą być równe zeru. Niezerowe wartości mnożników wystęują zaś dla wektorów nośnych. Niezerowe wartości mnożników określają wektory nośne, których ilość oznaczymy N SV, a więc równanie sieci liniowej SVM o wagach otymalnych wyznacza hierłaszczyznę zależne jest tylko od wektorów nośnych: N SV y x = α i d i x T i x j + b Większość roblemów klasyfikacji nie osiada jednak właściwości liniowej searowalności. Potrzebne jest więc nieliniowe rzutowanie danych oryginalnych w inną rzestrzeń funkcyjną, gdzie wzorce staną się searowalne liniowo i będzie można zastosować hierłaszczyznę semarującą SVM. Warunkiem jest zastosowanie transformacji nieliniowej o odowiednio wysokim wymiarze K rzestrzeni cech K N.
13 Nieliniowa sieć SVM Dla zadań niesearowalnych liniowo rzutujemy każdy wzorzec z jego N wymiarowej rzestrzeni cech do K wymiarowej rzestrzeni cech φ j x, j = 1, 2,, K. W efekcie tego nieliniowego rzekształcenia równanie hierłaszczyzny określone będzie wzorem: y x = w T φ x + b = K j=1 w i φ j x + b = 0 gdzie w i oznaczają wagi rowadzące od neuronu o nieliniowej funkcji aktywacji φ j na wektorze danych wejściowych x do wyjściowego neuronu liniowego Otrzymujemy więc dwuwarstwową strukturę sieci neuronowej zawierającą jedną warstwę ukrytą: x 1 φ 1 w 1 + y x N φ K w K
14 Nieliniowa sieć SVM Rozwiązanie roblemu ierwotnego uzyskujemy więc orzez zastąienie zmiennej x i rzez φ i x. Otrzymujemy więc: max Q α = α i 1 α α 2 i α j d i d j K x i, x j j=1 gdzie K nazywamy funkcją jądra (kernel function), zdefiniowaną nastęująco: K x i, x j = φ T x i φ x j Rozwiązanie roblemu srowadza się do wyznaczenia wartości wag sieci: w = α i d i φ x i b = ±1 w T φ x i Otrzymując ostatecznie sygnał wyjściowy dla nieliniowej sieci SVN w ostaci: N SV y x = w T φ x + b = α i d i K x i, x + b = 0 Na kandydatów na funkcje jądra K możemy wybrać funkcje sełniające warunek twierdzenia Mercera, n. funkcje gaussowskie, wielomianowe, sklejane, a nawet sigmoidalne rzy ewnych ograniczeniach.
15 Nieliniowe funkcje jądra sieci SVM Do najczęściej stosowanych funkcji jądra należą: Funkcje liniowe: K x i, x = x T x i + γ Funkcje wielomianowe: K x i, x = x T x i + γ Funkcje gaussowskie: K x i, x = ex γ x x i 2 Funkcje sigmoidalne: K x i, x = tgh βx T x i + γ Gdzie β, γ to stałe wsółczynniki liczbowe, a to stoień wielomianu. Sieć SVM o radialnych funkcjach bazowych jest bardzo odobna do sieci radialnej RBF, aczkolwiek sosób jej tworzenia i wyznaczania wag różni się. Podobnie stosując funkcje sigmoidalne otrzymujemy dwuwarstwową sieć MLP. Chcąc zastosować sieci SVM do większej ilości klas niż dwie trzeba zbudować kilka sieci SVM, które dyskryminują wzorce każdej z klas od ozostałych lub omiędzy arą każdych dwóch klas, a nastęnie wyniki są sumowane.
16 Dążenie do orawności SVM Stosuje się często wsółczynnik kary za niesełnienie któregoś z ograniczeń, co wymusza dążenie sieci do otymalności dla rzyjętych stałych. Z warunków otymalności Kuhna-Tuckera roblemu otymalizacyjnego sformułowanego dla SVM wynikają nastęujące zależności: α i d i w T φ x i + b 1 δ i = 0 0 α i θ μ i δ i = 0 α i + μ i = θ δ i 0 W zależności od wyznaczonych wsółczynników Lagrange a mamy więc do czynienia z trzema rzyadkami: α i = 0 co oznacza, że jeśli α i + μ i = θ, to μ i = θ, a więc z zależności μ i δ i = 0 wynika iż δ i = 0, stąd ara ucząca x i, d i sełnia ograniczenie z nadmiarem, a więc bez zmniejszania szerokości marginesu searacji 0 < α i < θ co oznacza, iż μ i = θ α i, a więc również δ i = 0, stąd ara ucząca x i, d i definiuje wektor nośny, który jest ołożony dokładnie na marginesie searacji. α i = θ oznacza, iż μ i = θ α i = 0, a więc δ i 0, co oznacza, iż wzorzec uczący jest wewnątrz marginesu searacji owodując zwężenie marginesu searacji albo nawet o niewłaściwej stronie, jeśli δ i > 1.
17 ALGORYTMY ROZWIĄZANIA ZADANIA DUALNEGO dla dużych zbiorów danych Niezależnie od zastosowanego jądra i rodzaju zadania główny roblem obliczeniowy w sieciach SVM srowadza się do rozwiązania zadania rogramowania kwadratowego z ograniczeniami liniowymi. Problemem staje się duża ilość danych uczących, co związane jest z nieraz ogromną ilością otymalizowanych zmiennych tutaj mnożników Lagrange a. Pojawiają się roblemy z amięcią i złożonością obliczeniową, co eliminuje możliwość zastosowania klasycznych metod rogramowania kwadratowego, n. MINOS, OSL, LOQO czy Matlab. Stosuje się dekomozycję zbioru uczącego na szereg odzbiorów oraz strategię aktywnych ograniczeń wynikających z równości, zaniedbując te nieaktywne ze znakiem silniej nierówności. Dzięki temu w kolejnych iteracjach nastęuje rzemieszczanie części wzorców ze zbioru ograniczeń aktywnych do nieaktywnych. Wykorzystuje się również różne wersje algorytmu rogramowania sekwencyjnego SMO lub BSVM Platta oraz subotymalną metodę SVM Light Joachimsa.
18 LITERATURA I BIBLIOGRAFIA Stanisław Osowski, Metody i narzędzia eksloracji danych, BTC, Legionowo, T. Joachims, Making large scale SVM learning ractical, in Advances in kernel methods suort vector learning, B. Scholkof, C. Burges, A. Smola eds., MIT Press, 41-56, Cambridge Lin C.J., Chang C.C, LIBSVM: a library for suort vector machines: htt:// Oen MIT Lectures about SVM : htts:// Caltech Lectures about SVM: htts://
UCZENIE MASZYNOWE III - SVM. mgr inż. Adam Kupryjanow
UCZENIE MASZYNOWE III - SVM mgr inż. Adam Kupryjanow Plan wykładu Wprowadzenie LSVM dane separowalne liniowo SVM dane nieseparowalne liniowo Nieliniowy SVM Kernel trick Przykłady zastosowań Historia 1992
Bardziej szczegółowoAdrian Horzyk
Metody Inteligencji Obliczeniowej Metoda K Najbliższych Sąsiadów (KNN) Adrian Horzyk horzyk@agh.edu.pl AGH Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej
Bardziej szczegółowoMETODY INŻYNIERII WIEDZY
METODY INŻYNIERII WIEDZY WALIDACJA KRZYŻOWA dla ZAAWANSOWANEGO KLASYFIKATORA KNN ĆWICZENIA Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej
Bardziej szczegółowoIMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ
IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,
Bardziej szczegółowoMETODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING
METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING NEURONOWE MAPY SAMOORGANIZUJĄCE SIĘ Self-Organizing Maps SOM Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki,
Bardziej szczegółowo7. Maszyny wektorów podpierajacych SVMs
Algorytmy rozpoznawania obrazów 7. Maszyny wektorów podpierajacych SVMs dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Maszyny wektorów podpierajacych - SVMs Maszyny wektorów podpierających (ang.
Bardziej szczegółowoSZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA SYSTEMY ROZMYTE Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i Inżynierii Biomedycznej Laboratorium
Bardziej szczegółowoMETODY INŻYNIERII WIEDZY
METODY INŻYNIERII WIEDZY Metoda K Najbliższych Sąsiadów K-Nearest Neighbours (KNN) ĆWICZENIA Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej
Bardziej szczegółowoMETODY INŻYNIERII WIEDZY
METODY INŻYNIERII WIEDZY Metoda K Najbliższych Sąsiadów K-Nearest Neighbours (KNN) ĆWICZENIA Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej
Bardziej szczegółowowiedzy Sieci neuronowe
Metody detekcji uszkodzeń oparte na wiedzy Sieci neuronowe Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 7 Wprowadzenie Okres kształtowania się teorii sztucznych sieci
Bardziej szczegółowoSVM: Maszyny Wektorów Podpieraja cych
SVM 1 / 24 SVM: Maszyny Wektorów Podpieraja cych Nguyen Hung Son Outline SVM 2 / 24 1 Wprowadzenie 2 Brak liniowej separowalności danych Nieznaczna nieseparowalność Zmiana przetrzeń atrybutów 3 Implementacja
Bardziej szczegółowoMETODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING
METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING NEURONOWE MAPY SAMOORGANIZUJĄCE SIĘ ĆWICZENIA Self-Organizing Maps SOM Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki,
Bardziej szczegółowoPolitechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania
Politechnika Gdańska Wydział Elektrotechniki i Autoatyki Katedra Inżynierii Systeów Sterowania Metody otyalizacji Metody rograowania nieliniowego II Materiały oocnicze do ćwiczeń laboratoryjnych T7 Oracowanie:
Bardziej szczegółowoTRANSFORMACJE I JAKOŚĆ DANYCH
METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING TRANSFORMACJE I JAKOŚĆ DANYCH Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej
Bardziej szczegółowoW ostatnim wykładzie doszliśmy do tego, że problem znalezienia klasyfikatora optymalnego pod względem marginesów można wyrazić w następujący sposób:
Spis treści 1 Maszyny Wektorów Wspierających 2 1.1 SVM w formaliźmie Lagranga 1.2 Przejście do pstaci dualnej 1.2.1 Wyznaczenie parametrów modelu: 1.2.2 Klasyfikacja: 2 Funkcje jądrowe 2.1 Mapowanie do
Bardziej szczegółowoPopularne klasyfikatory w pakietach komputerowych
Popularne klasyfikatory w pakietach komputerowych Klasyfikator liniowy Uogólniony klasyfikator liniowy SVM aiwny klasyfikator bayesowski Ocena klasyfikatora ROC Lista popularnych pakietów Klasyfikator
Bardziej szczegółowoUczenie sieci typu MLP
Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik
Bardziej szczegółowoUczenie sieci radialnych (RBF)
Uczenie sieci radialnych (RBF) Budowa sieci radialnej Lokalne odwzorowanie przestrzeni wokół neuronu MLP RBF Budowa sieci radialnych Zawsze jedna warstwa ukryta Budowa neuronu Neuron radialny powinien
Bardziej szczegółowoINTERPOLACJA I APROKSYMACJA FUNKCJI
Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Wprowadzenie Na czym polega interpolacja? Interpolacja polega
Bardziej szczegółowoProgramowanie liniowe
Programowanie liniowe Maciej Drwal maciej.drwal@pwr.wroc.pl 1 Problem programowania liniowego min x c T x (1) Ax b, (2) x 0. (3) gdzie A R m n, c R n, b R m. Oznaczmy przez x rozwiązanie optymalne, tzn.
Bardziej szczegółowoWstęp do przetwarzania języka naturalnego. Wykład 11 Maszyna Wektorów Nośnych
Wstęp do przetwarzania języka naturalnego Wykład 11 Wojciech Czarnecki 8 stycznia 2014 Section 1 Przypomnienie Wektoryzacja tfidf Przypomnienie document x y z Antony and Cleopatra 5.25 1.21 1.51 Julius
Bardziej szczegółowoAlgorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa
Bardziej szczegółowoOntogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę
Norbert Jankowski Ontogeniczne sieci neuronowe O sieciach zmieniających swoją strukturę Warszawa 2003 Opracowanie książki było wspierane stypendium Uniwersytetu Mikołaja Kopernika Spis treści Wprowadzenie
Bardziej szczegółowoOpis kształtu w przestrzeni 2D. Mirosław Głowacki Wydział Inżynierii Metali i Informatyki Przemysłowej AGH
Ois kształtu w rzestrzeni 2D Mirosław Głowacki Wydział Inżynierii Metali i Informatyki Przemysłowej AGH Krzywe Beziera W rzyadku tych krzywych wektory styczne w unkach końcowych są określane bezośrednio
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
Bardziej szczegółowo4.1. Wprowadzenie...70 4.2. Podstawowe definicje...71 4.3. Algorytm określania wartości parametrów w regresji logistycznej...74
3 Wykaz najważniejszych skrótów...8 Przedmowa... 10 1. Podstawowe pojęcia data mining...11 1.1. Wprowadzenie...12 1.2. Podstawowe zadania eksploracji danych...13 1.3. Główne etapy eksploracji danych...15
Bardziej szczegółowoSztuczne Sieci Neuronowe
Sztuczne Sieci Neuronowe Wykład 7 Sieci neuronowe o radialnych funkcjach bazowych wykład przygotowany na podstawie. S. Osowski, Sieci Neuronowe w ujęciu algorytmicznym, Rozdz. 5, PWNT, Warszawa 1996. 26/11/08
Bardziej szczegółowo5. Analiza dyskryminacyjna: FLD, LDA, QDA
Algorytmy rozpoznawania obrazów 5. Analiza dyskryminacyjna: FLD, LDA, QDA dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Liniowe funkcje dyskryminacyjne Liniowe funkcje dyskryminacyjne mają ogólną
Bardziej szczegółowoWYKŁAD: Perceptron Rosenblatta. Maszyny wektorów podpierających (SVM). Empiryczne reguły bayesowskie. Zaawansowane Metody Uczenia Maszynowego
WYKŁAD: Perceptron Rosenblatta. Maszyny wektorów podpierających (SVM). Empiryczne reguły bayesowskie Zaawansowane Metody Uczenia Maszynowego Perceptron Rosenblatta Szukamy hiperpłaszczyzny β 0 + β 1 najlepiej
Bardziej szczegółowoPROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**
Górnictwo i Geoinżynieria Rok 31 Zeszyt 3 2007 Dorota Pawluś* PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH** 1. Wstęp Eksploatacja górnicza złóż ma niekorzystny wpływ na powierzchnię
Bardziej szczegółowo( n) Łańcuchy Markowa X 0, X 1,...
Łańcuchy Markowa Łańcuchy Markowa to rocesy dyskretne w czasie i o dyskretnym zbiorze stanów, "bez amięci". Zwykle będziemy zakładać, że zbiór stanów to odzbiór zbioru liczb całkowitych Z lub zbioru {,,,...}
Bardziej szczegółowoData Mining Wykład 6. Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa.
GLM (Generalized Linear Models) Data Mining Wykład 6 Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa Naiwny klasyfikator Bayesa jest klasyfikatorem statystycznym -
Bardziej szczegółowoSztuczna Inteligencja Tematy projektów Sieci Neuronowe
PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia
Bardziej szczegółowo8. Neuron z ciągłą funkcją aktywacji.
8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i
Bardziej szczegółowoObóz Naukowy Olimpiady Matematycznej Gimnazjalistów
Obóz Naukowy Olimiady Matematycznej Gimnazjalistów Liga zadaniowa 01/01 Seria VII styczeń 01 rozwiązania zadań 1. Udowodnij, że dla dowolnej dodatniej liczby całkowitej n liczba n! jest odzielna rzez n!
Bardziej szczegółowoMETODY INŻYNIERII WIEDZY
METODY INŻYNIERII WIEDZY SZTUCZNE SIECI NEURONOWE MLP Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i Inżynierii
Bardziej szczegółowoSIECI RBF (RADIAL BASIS FUNCTIONS)
SIECI RBF (RADIAL BASIS FUNCTIONS) Wybrane slajdy z prezentacji prof. Tadeusiewicza Wykład Andrzeja Burdy S. Osowski, Sieci Neuronowe w ujęciu algorytmicznym, Rozdz. 5, PWNT, Warszawa 1996. opr. P.Lula,
Bardziej szczegółowoCo to jest grupowanie
Grupowanie danych Co to jest grupowanie 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Szukanie grup, obszarów stanowiących lokalne gromady punktów Co to jest grupowanie
Bardziej szczegółowo1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda
Sieci neuropodobne 1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN Agenda Trochę neurobiologii System nerwowy w organizmach żywych tworzą trzy
Bardziej szczegółowoElementy Modelowania Matematycznego
Elementy Modelowania Matematycznego Wykład 8 Programowanie nieliniowe Spis treści Programowanie nieliniowe Zadanie programowania nieliniowego Zadanie programowania nieliniowego jest identyczne jak dla
Bardziej szczegółowoZastosowania sieci neuronowych
Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką
Bardziej szczegółowoWSTĘP I TAKSONOMIA METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING. Adrian Horzyk. Akademia Górniczo-Hutnicza
METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING WSTĘP I TAKSONOMIA Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra
Bardziej szczegółowoPROGRAMOWANIE KWADRATOWE
PROGRAMOWANIE KWADRATOWE Programowanie kwadratowe Zadanie programowania kwadratowego: Funkcja celu lub/i co najmniej jedno z ograniczeń jest funkcją kwadratową. 2 Programowanie kwadratowe Nie ma uniwersalnej
Bardziej szczegółowoRysunek 1 Przykładowy graf stanów procesu z dyskretnymi położeniami.
Procesy Markowa Proces stochastyczny { X } t t nazywamy rocesem markowowskim, jeśli dla każdego momentu t 0 rawdoodobieństwo dowolnego ołożenia systemu w rzyszłości (t>t 0 ) zależy tylko od jego ołożenia
Bardziej szczegółowoElementy Modelowania Matematycznego Wykład 7 Programowanie nieliniowe i całkowitoliczbowe
Spis treści Elementy Modelowania Matematycznego Wykład 7 i całkowitoliczbowe Romuald Kotowski Katedra Informatyki Stosowanej PJWSTK 2009 Spis treści Spis treści 1 Wstęp 2 3 Spis treści Spis treści 1 Wstęp
Bardziej szczegółowo1. Model procesu krzepnięcia odlewu w formie metalowej. Przyjęty model badanego procesu wymiany ciepła składa się z następujących założeń
ROK 4 Krzenięcie i zasilanie odlewów Wersja 9 Ćwicz. laboratoryjne nr 4-04-09/.05.009 BADANIE PROCESU KRZEPNIĘCIA ODLEWU W KOKILI GRUBOŚCIENNEJ PRZY MAŁEJ INTENSYWNOŚCI STYGNIĘCIA. Model rocesu krzenięcia
Bardziej szczegółowoLaboratorium Metod i Algorytmów Sterowania Cyfrowego
Laboratorium Metod i Algorytmów Sterowania Cyfrowego Ćwiczenie 3 Dobór nastaw cyfrowych regulatorów rzemysłowych PID I. Cel ćwiczenia 1. Poznanie zasad doboru nastaw cyfrowych regulatorów rzemysłowych..
Bardziej szczegółowoBIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.
Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej BIOCYBERNETYKA Adrian Horzyk SIECI NEURONOWE www.agh.edu.pl Mózg inspiruje nas od wieków Co takiego
Bardziej szczegółowoProf. Stanisław Jankowski
Prof. Stanisław Jankowski Zakład Sztucznej Inteligencji Zespół Statystycznych Systemów Uczących się p. 228 sjank@ise.pw.edu.pl Zakres badań: Sztuczne sieci neuronowe Maszyny wektorów nośnych SVM Maszyny
Bardziej szczegółowoINTERPRETACJA WYNIKÓW BADANIA WSPÓŁCZYNNIKA PARCIA BOCZNEGO W GRUNTACH METODĄ OPARTĄ NA POMIARZE MOMENTÓW OD SIŁ TARCIA
Górnictwo i Geoinżynieria Rok 3 Zeszyt 008 Janusz aczmarek* INTERPRETACJA WYNIÓW BADANIA WSPÓŁCZYNNIA PARCIA BOCZNEGO W GRUNTACH METODĄ OPARTĄ NA POMIARZE MOMENTÓW OD SIŁ TARCIA 1. Wstę oncecję laboratoryjnego
Bardziej szczegółowoOPTYMALNE PROJEKTOWANIE ELEMENTÓW KONSTRUKCYJNYCH WYKONANYCH Z KOMPOZYTÓW WŁÓKNISTYCH
Zeszyty Naukowe WSInf Vol 13, Nr 1, 2014 Elżbieta Radaszewska, Jan Turant Politechnika Łódzka Katedra Mechaniki i Informatyki Technicznej email: elzbieta.radaszewska@.lodz.l, jan.turant@.lodz.l OPTYMALNE
Bardziej szczegółowoZagadnienia optymalizacji i aproksymacji. Sieci neuronowe.
Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. zajecia.jakubw.pl/nai Literatura: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym. WNT, Warszawa 997. PODSTAWOWE ZAGADNIENIA TECHNICZNE AI
Bardziej szczegółowoMETODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING. EKSPLORACJA DANYCH Ćwiczenia. Adrian Horzyk. Akademia Górniczo-Hutnicza
METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING EKSPLORACJA DANYCH Ćwiczenia Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej
Bardziej szczegółowoSZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 8. SZTUCZNE SIECI NEURONOWE INNE ARCHITEKTURY Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska SIEĆ O RADIALNYCH FUNKCJACH BAZOWYCH
Bardziej szczegółowoALGORYTMY OPTYMALIZACJI wyklad 3.nb 1. Wykład 3. Sformułujemy teraz warunki konieczne dla istnienia rozwiązań zagadnienia optymalizacyjnego:
ALGORYTMY OPTYMALIZACJI wyklad 3.nb 1 Wykład 3 3. Otymalizacja z ograniczeniami Sformułujemy teraz warunki konieczne dla istnienia rozwiązań zagadnienia otymalizacyjnego: g i HxL 0, i = 1, 2,..., m (3.1)
Bardziej szczegółowoMetody eksploracji danych 2. Metody regresji. Piotr Szwed Katedra Informatyki Stosowanej AGH 2017
Metody eksploracji danych 2. Metody regresji Piotr Szwed Katedra Informatyki Stosowanej AGH 2017 Zagadnienie regresji Dane: Zbiór uczący: D = {(x i, y i )} i=1,m Obserwacje: (x i, y i ), wektor cech x
Bardziej szczegółowoSztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek
Sztuczne sieci neuronowe Ćwiczenia Piotr Fulmański, Marta Grzanek Piotr Fulmański 1 Wydział Matematyki i Informatyki, Marta Grzanek 2 Uniwersytet Łódzki Banacha 22, 90-232, Łódź Polska e-mail 1: fulmanp@math.uni.lodz.pl,
Bardziej szczegółowoLekcja 5: Sieć Kohonena i sieć ART
Lekcja 5: Sieć Kohonena i sieć ART S. Hoa Nguyen 1 Materiał Sieci Kohonena (Sieć samo-organizująca) Rysunek 1: Sieć Kohonena Charakterystyka sieci: Jednowarstwowa jednokierunkowa sieć. Na ogół neurony
Bardziej szczegółowoPROGRAMOWANIE NIELINIOWE
PROGRAMOWANIE NIELINIOWE Maciej Patan Uniwersytet Zielonogórski WSTEP Zadanie programowania nieliniowego (ZPN) min f(x) g i (x) 0, h i (x) = 0, i = 1,..., m g i = 1,..., m h f(x) funkcja celu g i (x) i
Bardziej szczegółowoInteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska
Bardziej szczegółowoKlasyfikator liniowy Wstęp Klasyfikator liniowy jest najprostszym możliwym klasyfikatorem. Zakłada on liniową separację liniowy podział dwóch klas między sobą. Przedstawia to poniższy rysunek: 5 4 3 2
Bardziej szczegółowoOptymalizacja systemów
Optymalizacja systemów Laboratorium - problem detekcji twarzy autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, P. Klukowski Cel zadania Celem zadania jest zapoznanie się z gradientowymi algorytmami optymalizacji
Bardziej szczegółowoProjekt Sieci neuronowe
Projekt Sieci neuronowe Chmielecka Katarzyna Gr. 9 IiE 1. Problem i dane Sieć neuronowa miała za zadanie nauczyć się klasyfikować wnioski kredytowe. W projekcie wykorzystano dane pochodzące z 110 wniosków
Bardziej szczegółowoTOZ -Techniki optymalizacji w zarządzaniu
TOZ -Techniki optymalizacji w zarządzaniu Wykład dla studentów II roku studiów II stopnia na kierunku Zarządzanie Semestr zimowy 2009/2010 Wykładowca: prof. dr hab. inż. Michał Inkielman Wykład 2 Optymalizacja
Bardziej szczegółowoSystemy Inteligentnego Przetwarzania wykład 7: Sieci RBF
Systemy Inteligentnego Przetwarzania wykład 7: Sieci RBF Dr inż. Jacek Mazurkiewicz Katedra Informatyki Technicznej e-mail: Jacek.Mazurkiewicz@pwr.edu.pl Bazowe funkcje radialne (1) Sieci neuronowe wielowarstwowe
Bardziej szczegółowoPODSTAWY AUTOMATYKI. MATLAB - komputerowe środowisko obliczeń naukowoinżynierskich - podstawowe operacje na liczbach i macierzach.
WYDZIAŁ ELEKTROTECHNIKI I AUTOMATYKI Katedra Inżynierii Systemów Sterowania PODSTAWY AUTOMATYKI MATLAB - komputerowe środowisko obliczeń naukowoinżynierskich - podstawowe operacje na liczbach i macierzach.
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.
Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 211-1-18 1 Pomysł Przykłady Zastosowanie 2
Bardziej szczegółowo6. Perceptron Rosenblatta
6. Perceptron Rosenblatta 6-1 Krótka historia perceptronu Rosenblatta 6-2 Binarne klasyfikatory liniowe 6-3 Struktura perceptronu Rosenblatta 6-4 Perceptron Rosenblatta a klasyfikacja 6-5 Perceptron jednowarstwowy:
Bardziej szczegółowosynaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.
Sieci neuronowe model konekcjonistyczny Plan wykładu Mózg ludzki a komputer Modele konekcjonistycze Perceptron Sieć neuronowa Uczenie sieci Sieci Hopfielda Mózg ludzki a komputer Twój mózg to 00 000 000
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 4. Metody kierunków poprawy (metoda spadku wzdłuż gradientu) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 21.03.2019 1 / 41 Plan wykładu Minimalizacja
Bardziej szczegółowoProgramowanie liniowe
Badania operacyjne Problem Model matematyczny Metoda rozwiązania Znaleźć optymalny program produkcji. Zmaksymalizować 1 +3 2 2 3 (1) Przy ograniczeniach 3 1 2 +2 3 7 (2) 2 1 +4 2 12 (3) 4 1 +3 2 +8 3 10
Bardziej szczegółowoPrzykładowe funkcje przejścia używane przy budowie sztucznych neuronów
Przykładowe funkcje przejścia używane przy budowie sztucznych neuronów Funkcja Wzór funkcji Wzór pochodnej Sigmoida f(s)=1/(1+e -(β*s) ) f (s)=β*(1- f(s))* f(s) Funkcje przejścia neuronu powinno się rozpatrywać
Bardziej szczegółowoPolitechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania. Technologie informatyczne
Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Technologie informatyczne Interpolacja metoda funkcji sklejanych Materiały pomocnicze do ćwiczeń laboratoryjnych
Bardziej szczegółowoKody Huffmana oraz entropia przestrzeni produktowej. Zuzanna Kalicińska. 1 maja 2004
Kody uffmana oraz entroia rzestrzeni rodutowej Zuzanna Kalicińsa maja 4 Otymalny od bezrefisowy Definicja. Kod nad alfabetem { 0, }, w tórym rerezentacja żadnego znau nie jest refisem rerezentacji innego
Bardziej szczegółowon := {n} n. Istnienie liczb naturalnych gwarantują: Aksjomat zbioru pustego, Aksjomat pary nieuporządkowanej oraz Aksjomat sumy.
Konsekt wykładu ELiTM 6 Konstrukcje liczbowe Konstrukcja von Neumanna liczb naturalnych. Definicja 0 - liczba naturalna zero. Jeżeli n jest liczbą naturalną, to nastęną o niej jest liczba n {n} n. Istnienie
Bardziej szczegółowoPodstawy sztucznej inteligencji
wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,
Bardziej szczegółowoSztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335
Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Wykład 10 Mapa cech Kohonena i jej modyfikacje - uczenie sieci samoorganizujących się - kwantowanie wektorowe
Bardziej szczegółowoMETODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING
METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING UCZENIE GŁĘBOKIE I GŁĘBOKIE SIECI NEURONOWE DEEP LEARNING AND DEEP NEURAL NETWORKS Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki,
Bardziej szczegółowoWidzenie komputerowe
Widzenie komputerowe Uczenie maszynowe na przykładzie sieci neuronowych (3) źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Zdolność uogólniania sieci neuronowej R oznaczenie
Bardziej szczegółowoMetody klasyfikacji i rozpoznawania wzorców. Najważniejsze rodzaje klasyfikatorów
Metody klasyfikacji i rozpoznawania wzorców www.michalbereta.pl Najważniejsze rodzaje klasyfikatorów Dla określonego problemu klasyfikacyjnego (tzn. dla danego zestawu danych) należy przetestować jak najwięcej
Bardziej szczegółowoProgramowanie matematyczne
dr Adam Sojda Badania Operacyjne Wykład Politechnika Śląska Programowanie matematyczne Programowanie matematyczne, to problem optymalizacyjny w postaci: f ( x) max przy warunkach g( x) 0 h( x) = 0 x X
Bardziej szczegółowoMetody Sztucznej Inteligencji II
17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału
Bardziej szczegółowoSztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311
Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311 PLAN: Wykład 5 - Metody doboru współczynnika uczenia - Problem inicjalizacji wag - Problem doboru architektury
Bardziej szczegółowoAutomatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010
Materiały/konsultacje Automatyczna predykcja http://www.ibp.pwr.wroc.pl/kotulskalab Konsultacje wtorek, piątek 9-11 (uprzedzić) D1-115 malgorzata.kotulska@pwr.wroc.pl Co to jest uczenie maszynowe? Uczenie
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.
Wstęp do sieci neuronowych, wykład 7. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 212-11-28 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu
Bardziej szczegółowoMetody doświadczalne w hydraulice Ćwiczenia laboratoryjne. 1. Badanie przelewu o ostrej krawędzi
Metody doświadczalne w hydraulice Ćwiczenia laboratoryjne 1. Badanie rzelewu o ostrej krawędzi Wrowadzenie Przelewem nazywana jest cześć rzegrody umiejscowionej w kanale, onad którą może nastąić rzeływ.
Bardziej szczegółowoElementy inteligencji obliczeniowej
Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego
Bardziej szczegółowoKONCEPCJA WYKORZYSTANIA SZTUCZNYCH SIECI NEURONOWYCH W DIAGNOSTYCE PRZEKŁADNI ZĘBATYCH
ZESZYTY NAUKOWE POLITECHNIKI ŚLĄSKIEJ 2009 Seria: TRANSPORT z. 65 Nr kol. 1807 Piotr CZECH, Bogusław ŁAZARZ KONCEPCJA WYKORZYSTANIA SZTUCZNYCH SIECI NEURONOWYCH W DIAGNOSTYCE PRZEKŁADNI ZĘBATYCH Streszczenie.
Bardziej szczegółowoObliczenia iteracyjne
Lekcja Strona z Obliczenia iteracyjne Zmienne iteracyjne (wyliczeniowe) Obliczenia iteracyjne wymagają zdefiniowania specjalnej zmiennej nazywanej iteracyjną lub wyliczeniową. Zmienną iteracyjną od zwykłej
Bardziej szczegółowoPodstawy Sztucznej Inteligencji (PSZT)
Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12
Bardziej szczegółowoPolitechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania
Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania KOMPUTEROWE SYSTEMY STEROWANIA I WSPOMAGANIA DECYZJI Rozproszone programowanie produkcji z wykorzystaniem
Bardziej szczegółowoPRÓBA ZASTOSOWANIA SIECI NEURONOWYCH DO PROGNOZOWANIA OSIADAŃ POWIERZCHNI TERENU POWSTAŁYCH NA SKUTEK EKSPLOATACJI GÓRNICZEJ**
Górnictwo i Geoinżynieria Rok 30 Zeszyt 4 2006 Dorota Pawluś* PRÓBA ZASTOSOWANIA SIECI NEURONOWYCH DO PROGNOZOWANIA OSIADAŃ POWIERZCHNI TERENU POWSTAŁYCH NA SKUTEK EKSPLOATACJI GÓRNICZEJ** 1. Wstęp Na
Bardziej szczegółowoSIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU)
SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU) 1. Opis problemu - ocena końcowa projektu Projekt jako nowe, nietypowe przedsięwzięcie wymaga właściwego zarządzania. Podjęcie się realizacji
Bardziej szczegółowoKLASYFIKACJA TEKSTUR ZA POMOCĄ SVM MASZYNY WEKTORÓW WSPIERAJĄCYCH
Inżynieria Rolnicza 13/2006 Jacek Goszczyński Instytut Inżynierii Rolniczej Akademia Rolnicza w Poznaniu KLASYFIKACJA TEKSTUR ZA POMOCĄ SVM MASZYNY WEKTORÓW WSPIERAJĄCYCH Streszczenie Motywacją do badań
Bardziej szczegółowoDEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI
POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 80 Electrical Engineering 2014 Stanisław PŁACZEK* DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI W artykule
Bardziej szczegółowoMETODY INTELIGENCJI OBLICZENIOWEJ wykład 5
METODY INTELIGENCJI OBLICZENIOWEJ wykład 5 1 2 SZTUCZNE SIECI NEURONOWE cd 3 UCZENIE PERCEPTRONU: Pojedynczy neuron (lub 1 warstwa neuronów) typu percep- tronowego jest w stanie rozdzielić przestrzeń obsza-
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 5. Metody kierunków poparwy (metoda Newtona-Raphsona, metoda gradientów sprzężonych) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.03.2019 1
Bardziej szczegółowoSieci neuronowe w Statistica
http://usnet.us.edu.pl/uslugi-sieciowe/oprogramowanie-w-usk-usnet/oprogramowaniestatystyczne/ Sieci neuronowe w Statistica Agnieszka Nowak - Brzezińska Podstawowym elementem składowym sztucznej sieci neuronowej
Bardziej szczegółowoSieć przesyłająca żetony CP (counter propagation)
Sieci neuropodobne IX, specyficzne architektury 1 Sieć przesyłająca żetony CP (counter propagation) warstwa Kohonena: wektory wejściowe są unormowane jednostki mają unormowane wektory wag jednostki są
Bardziej szczegółowo